程序员用于机器学习编程的Python 数据处理库 pandas 入门教程-程序员宅基地

技术标签: python  人工智能  数据结构与算法  

入门介绍

pandas适合于许多不同类型的数据,包括:

· 具有异构类型列的表格数据,例如SQL表格或Excel数据

· 有序和无序(不一定是固定频率)时间序列数据。

· 具有行列标签的任意矩阵数据(均匀类型或不同类型)

· 任何其他形式的观测/统计数据集。

由于这是一个Python语言的软件包,因此需要你的机器上首先需要具备Python语言的环境。关于这一点,请自行在网络上搜索获取方法。

关于如何获取pandas请参阅官网上的说明:pandas Installation

通常情况下,我们可以通过pip来执行安装:


sudo pip3 install pandas

或者通过conda 来安装pandas:


conda install pandas

目前(2018年2月)pandas的最新版本是v0.22.0(发布时间:2017年12月29日)。

我已经将本文的源码和测试数据放到Github上: pandas_tutorial ,读者可以前往获取。

另外,pandas常常和NumPy一起使用,本文中的源码中也会用到NumPy

建议读者先对NumPy有一定的熟悉再来学习pandas,我之前也写过一个NumPy的基础教程,参见这里:Python 机器学习库 NumPy 教程

核心数据结构

pandas最核心的就是Series和DataFrame两个数据结构。

这两种类型的数据结构对比如下:

名称 维度 说明
Series 1维 带有标签的同构类型数组
DataFrame 2维 表格结构,带有标签,大小可变,且可以包含异构的数据列

DataFrame可以看做是Series的容器,即:一个DataFrame中可以包含若干个Series。

注:在0.20.0版本之前,还有一个三维的数据结构,名称为Panel。这也是pandas库取名的原因:pan(el)-da(ta)-s。但这种数据结构由于很少被使用到,因此已经被废弃了。

Series

由于Series是一维结构的数据,我们可以直接通过数组来创建这种数据,像这样:


# data_structure.py

import pandas **as** pd

import numpy **as** np

series1= pd.Series([1, 2, 3, 4])

print("series1:\n{}\n".format(series1))

这段代码输出如下:


series1:

0    1

1    2

2    3

3    4

dtype: int64

这段输出说明如下:

· 输出的最后一行是Series中数据的类型,这里的数据都是int64类型的。

· 数据在第二列输出,第一列是数据的索引,在pandas中称之为Index。

我们可以分别打印出Series中的数据和索引:


# data_structure.py

print("series1.values: {}\n".format(series1.values))

print("series1.index: {}\n".format(series1.index))

这两行代码输出如下:


series1.values: [1 2 3 4]

series1.index: RangeIndex(start=0, stop=4, step=1)

如果不指定(像上面这样),索引是[1, N-1]的形式。不过我们也可以在创建Series的时候指定索引。索引未必一定需要是整数,可以是任何类型的数据,例如字符串。例如我们以七个字母来映射七个音符。索引的目的是可以通过它来获取对应的数据,例如下面这样:

# data_structure.py

series2= pd.Series([1, 2, 3, 4, 5, 6, 7],

    index=["C", "D", "E", "F", "G", "A", "B"])

print("series2:\n{}\n".format(series2))

print("E is {}\n".format(series2["E"]))

这段代码输出如下:


series2:

C    1

D    2

E    3

F    4

G    5

A    6

B    7

dtype: int64

E **is** 3

DataFrame

下面我们来看一下DataFrame的创建。我们可以通过NumPy的接口来创建一个4×4的矩阵,以此来创建一个DataFrame,像这样:

# data_structure.py

df1= pd.DataFrame(np.arange(16).reshape(4,4))

print("df1:\n{}\n".format(df1))

这段代码输出如下:


df1:

    0 1 2 3

0 0 1 2 3

1 4 5 6 7

2 8 9  10  11

3  12  13  14  15

从这个输出我们可以看到,默认的索引和列名都是[0, N-1]的形式。

我们可以在创建DataFrame的时候指定列名和索引,像这样:


# data_structure.py

df2= pd.DataFrame(np.arange(16).reshape(4,4),

    columns=["column1", "column2", "column3", "column4"],

    index=["a", "b", "c", "d"])

print("df2:\n{}\n".format(df2))

这段代码输出如下:


df2:

 column1  column2  column3  column4

a        0        1        2        3

b        4        5        6        7

c        8        9 10 11

d 12 13 14 15

我们也可以直接指定列数据来创建DataFrame:


# data_structure.py

df3= pd.DataFrame({"note": ["C", "D", "E", "F", "G", "A", "B"],

    "weekday": ["Mon", "Tue", "Wed", "Thu", "Fri", "Sat", "Sun"]})

print("df3:\n{}\n".format(df3))

这段代码输出如下:


df3:

  note weekday

0    C Mon

1    D Tue

2    E Wed

3    F Thu

4    G Fri

5    A Sat

6    B Sun

请注意:

· DataFrame的不同列可以是不同的数据类型

· 如果以Series数组来创建DataFrame,每个Series将成为一行,而不是一列

例如:


# data_structure.py

noteSeries= pd.Series(["C", "D", "E", "F", "G", "A", "B"],

    index=[1, 2, 3, 4, 5, 6, 7])

weekdaySeries= pd.Series(["Mon", "Tue", "Wed", "Thu", "Fri", "Sat", "Sun"],

    index=[1, 2, 3, 4, 5, 6, 7])

df4= pd.DataFrame([noteSeries, weekdaySeries])

print("df4:\n{}\n".format(df4))

df4的输出如下:

df4:

 1    2    3    4    5    6    7

0    C    D    E    F    G    A    B

1  Mon  Tue  Wed  Thu  Fri  Sat  Sun

我们可以通过下面的形式给DataFrame添加或者删除列数据:


# data_structure.py

df3["No."]= pd.Series([1, 2, 3, 4, 5, 6, 7])

print("df3:\n{}\n".format(df3))

del df3["weekday"]

print("df3:\n{}\n".format(df3))

这段代码输出如下:


df3:

  note weekday  No.

0    C Mon    1

1    D Tue    2

2    E Wed    3

3    F Thu    4

4    G Fri    5

5    A Sat    6

6    B Sun    7

df3:

  note  No.

0    C    1

1    D    2

2    E    3

3    F    4

4    G    5

5    A    6

6    B    7

Index对象与数据访问

pandas的Index对象包含了描述轴的元数据信息。当创建Series或者DataFrame的时候,标签的数组或者序列会被转换成Index。可以通过下面的方式获取到DataFrame的列和行的Index对象:


# data_structure.py

print("df3.columns\n{}\n".format(df3.columns))

print("df3.index\n{}\n".format(df3.index))

这两行代码输出如下:


df3.columns

Index(['note', 'No.'], dtype='object')

df3.index

RangeIndex(start=0, stop=7, step=1)

请注意:

· Index并非集合,因此其中可以包含重复的数据

· Index对象的值是不可以改变,因此可以通过它安全的访问数据

DataFrame提供了下面两个操作符来访问其中的数据:

· loc:通过行和列的索引来访问数据

· iloc:通过行和列的下标来访问数据

例如这样:


# data_structure.py

print("Note C, D is:\n{}\n".format(df3.loc[[0, 1], "note"]))

print("Note C, D is:\n{}\n".format(df3.iloc[[0, 1], 0]))

第一行代码访问了行索引为0和1,列索引为“note”的元素。第二行代码访问了行下标为0和1(对于df3来说,行索引和行下标刚好是一样的,所以这里都是0和1,但它们却是不同的含义),列下标为0的元素。

这两行代码输出如下:


Note C, D **is**:

0    C

1    D

Name: note, dtype: **object**

Note C, D **is**:

0    C

1    D

Name: note, dtype: **object**

文件操作

pandas库提供了一系列的read_函数来读取各种格式的文件,它们如下所示:

  • read_csv

  • read_table

  • read_fwf

  • read_clipboard

  • read_excel

  • read_hdf

  • read_html

  • read_json

  • read_msgpack

  • read_pickle

  • read_sas

  • read_sql

  • read_stata

  • read_feather

读取Excel文件

注:要读取Excel文件,还需要安装另外一个库:xlrd

通过pip可以这样完成安装:


sudo pip3 install xlrd

安装完之后可以通过pip查看这个库的信息:


$  pip3 show xlrd

Name: xlrd

Version: 1.1.0

Summary: Library **for** developers **to** extract data from Microsoft Excel (tm) spreadsheet files

Home-page: http:*//www.python-excel.org/*

Author: John Machin

Author-email: [email protected]

License: BSD

Location: /Library/Frameworks/Python.framework/Versions/3.6/lib/python3.6/site-packages

Requires:

接下来我们看一个读取Excel的简单的例子:


# file_operation.py

import pandas **as** pd

import numpy **as** np

df1= pd.read_excel("data/test.xlsx")

print("df1:\n{}\n".format(df1))

这个Excel的内容如下:


df1:

 C  Mon

0  D  Tue

1  E  Wed

2  F  Thu

3  G  Fri

4  A  Sat

5  B  Sun

注:本文的代码和数据文件可以通过文章开头提到的Github仓库获取。

读取CSV文件

下面,我们再来看读取CSV文件的例子。

第一个CSV文件内容如下:


$ cat test1.csv 

C,Mon

D,Tue

E,Wed

F,Thu

G,Fri

A,Sat

读取的方式也很简单:

# file_operation.py

df2= pd.read_csv("data/test1.csv")

print("df2:\n{}\n".format(df2))

我们再来看第2个例子,这个文件的内容如下:


$ cat test2.csv 

C|Mon

D|Tue

E|Wed

F|Thu

G|Fri

A|Sat

严格的来说,这并不是一个CSV文件了,因为它的数据并不是通过逗号分隔的。在这种情况下,我们可以通过指定分隔符的方式来读取这个文件,像这样:


# file_operation.py

df3= pd.read_csv("data/test2.csv", sep="|")

print("df3:\n{}\n".format(df3))

实际上,read_csv支持非常多的参数用来调整读取的参数,如下表所示:

参数 说明
path 文件路径
sep或者delimiterFrame 字段分隔符
header 列名的行数,默认是0(第一行)
index_col 列号或名称用作结果中的行索引
names 结果的列名称列表
skiprows 从起始位置跳过的行数
na_values 代替NA的值序列
comment 以行结尾分隔注释的字符
parse_dates 尝试将数据解析为datetime。默认为False
keep_date_col 如果将列连接到解析日期,保留连接的列。默认为False。
converters 列的转换器
dayfirst 当解析可以造成歧义的日期时,以内部形式存储。默认为False
data_parser 用来解析日期的函数
nrows 从文件开始读取的行数
参数 说明
iterator 返回一个TextParser对象,用于读取部分内容
chunksize 指定读取块的大小
skip_footer 文件末尾需要忽略的行数
verbose 输出各种解析输出的信息
encoding 文件编码
skip_footer 文件编码
squeeze 如果解析的数据只包含一列,则返回一个Series
thousands 千数量的分隔符

详细的read_csv函数说明请参见这里:pandas.read_csv

处理无效值

现实世界并非完美,我们读取到的数据常常会带有一些无效值。如果没有处理好这些无效值,将对程序造成很大的干扰。
对待无效值,主要有两种处理方法:直接忽略这些无效值;或者将无效值替换成有效值。
下面我先创建一个包含无效值的数据结构。然后通过pandas.isna函数来确认哪些值是无效的:

    # process_na.py
 
import pandas as pd
import numpy as np
 
df = pd.DataFrame([[1.0, np.nan, 3.0, 4.0],
                  [5.0, np.nan, np.nan, 8.0],
                  [9.0, np.nan, np.nan, 12.0],
                  [13.0, np.nan, 15.0, 16.0]])
 
print("df:\n{}\n".format(df));
print("df:\n{}\n".format(pd.isna(df)));****

这段代码输出如下:

    df:
      0   1     2     3
0   1.0 NaN   3.0   4.0
1   5.0 NaN   NaN   8.0
2   9.0 NaN   NaN  12.0
3  13.0 NaN  15.0  16.0
 
df:
       0     1      2      3
0  False  True  False  False
1  False  True   True  False
2  False  True   True  False
3  False  True  False  False

忽略无效值
我们可以通过pandas.DataFrame.dropna函数抛弃无效值:

    # process_na.py
 
print("df.dropna():\n{}\n".format(df.dropna()));

注:dropna默认不会改变原先的数据结构,而是返回了一个新的数据结构。如果想要直接更改数据本身,可以在调用这个函数的时候传递参数 inplace = True。
对于原先的结构,当无效值全部被抛弃之后,将不再是一个有效的DataFrame,因此这行代码输出如下:

    df.dropna():
Empty DataFrame
Columns: [0, 1, 2, 3]
Index: []

我们也可以选择抛弃整列都是无效值的那一列:

    # process_na.py
 
print("df.dropna(axis=1, how='all'):\n{}\n".format(df.dropna(axis=1, how='all')));

注:axis=1表示列的轴。how可以取值’any’或者’all’,默认是前者。
这行代码输出如下:

    df.dropna(axis=1, how='all'):
      0     2     3
0   1.0   3.0   4.0
1   5.0   NaN   8.0
2   9.0   NaN  12.0
3  13.0  15.0  16.0

替换无效值
我们也可以通过fillna函数将无效值替换成为有效值。像这样:

    # process_na.py
 
print("df.fillna(1):\n{}\n".format(df.fillna(1)));

这段代码输出如下:

    df.fillna(1):
      0    1     2     3
0   1.0  1.0   3.0   4.0
1   5.0  1.0   1.0   8.0
2   9.0  1.0   1.0  12.0
3  13.0  1.0  15.0  16.0

将无效值全部替换成同样的数据可能意义不大,因此我们可以指定不同的数据来进行填充。为了便于操作,在填充之前,我们可以先通过rename方法修改行和列的名称:

    # process_na.py
 
df.rename(index={0: 'index1', 1: 'index2', 2: 'index3', 3: 'index4'},
          columns={0: 'col1', 1: 'col2', 2: 'col3', 3: 'col4'},
          inplace=True);
df.fillna(value={'col2': 2}, inplace=True)
df.fillna(value={'col3': 7}, inplace=True)
print("df:\n{}\n".format(df));

这段代码输出如下:

    df:
        col1  col2  col3  col4
index1   1.0   2.0   3.0   4.0
index2   5.0   2.0   7.0   8.0
index3   9.0   2.0   7.0  12.0
index4  13.0   2.0  15.0  16.0

处理字符串
数据中常常牵涉到字符串的处理,接下来我们就看看pandas对于字符串操作。
Series的str字段包含了一系列的函数用来处理字符串。并且,这些函数会自动处理无效值。
下面是一些实例,在第一组数据中,我们故意设置了一些包含空格字符串:

    # process_string.py
 
import pandas as pd
 
s1 = pd.Series([' 1', '2 ', ' 3 ', '4', '5']);
print("s1.str.rstrip():\n{}\n".format(s1.str.lstrip()))
print("s1.str.strip():\n{}\n".format(s1.str.strip()))
print("s1.str.isdigit():\n{}\n".format(s1.str.isdigit()))

在这个实例中我们看到了对于字符串strip的处理以及判断字符串本身是否是数字,这段代码输出如下:

    s1.str.rstrip():
0     1
1    2 
2    3 
3     4
4     5
dtype: object
 
s1.str.strip():
0    1
1    2
2    3
3    4
4    5
dtype: object
 
s1.str.isdigit():
0    False
1    False
2    False
3     True
4     True
dtype: bool

下面是另外一些示例,展示了对于字符串大写,小写以及字符串长度的处理:

# process_string.py
 
s2 = pd.Series(['Stairway to Heaven', 'Eruption', 'Freebird',
                    'Comfortably Numb', 'All Along the Watchtower'])
print("s2.str.lower():\n{}\n".format(s2.str.lower()))
print("s2.str.upper():\n{}\n".format(s2.str.upper()))
print("s2.str.len():\n{}\n".format(s2.str.len()))

该段代码输出如下:

    s2.str.lower():
0          stairway to heaven
1                    eruption
2                    freebird
3            comfortably numb
4    all along the watchtower
dtype: object
 
s2.str.upper():
0          STAIRWAY TO HEAVEN
1                    ERUPTION
2                    FREEBIRD
3            COMFORTABLY NUMB
4    ALL ALONG THE WATCHTOWER
dtype: object
 
s2.str.len():
0    18
1     8
2     8
3    16
4    24
dtype: int64

结束语

本文是pandas的入门教程,因此我们只介绍了最基本的操作。对于
MultiIndex/Advanced Indexing
Merge, join, concatenate
Computational tools
之类的高级功能,以后有机会我们再来一起学习。
读者也可以根据下面的链接获取更多的知识。

更多Python技术文章请关注2019年,Python技术持续更新(附教程)

转载于:https://my.oschina.net/u/3465607/blog/3023262

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/chupanzhuo4827/article/details/100980544

智能推荐

监控显示服务器超时,监控连接服务器超时怎么解决-程序员宅基地

文章浏览阅读3.8k次。监控连接服务器超时怎么解决 内容精选换一换本文提供了分布式数据库中间件DDM产品介绍,快速入门、API接口的新特性的快速入口。您在了解云手机的优势和应用场景后,如果想体验云手机的功能,或者需要部署真实的业务,建议您参考本节操作购买云手机。操作流程如图1所示。准备工作包含两项任务:注册华为云并实名认证;创建密钥对。其中,密钥对用于鉴权,在购买服务器时要选择一个密钥对,以便连接云手机(建立SSH隧道)..._监控响应超时是什么回事

CV学习:传统(机器学习)图像识别(分类)_图像特征识别技术-程序员宅基地

文章浏览阅读6.6k次,点赞15次,收藏173次。本文代码全部可运行,笔者运行环境:python3.7+pycharm+opencv4.6。此文是学习记录,记录实现图像识别所需知识,对各知识点并不做深入探究,但笔者提供了相关链接以便读者进行深入学习。传统图像识别技术是指利用机器学习进行特征提取与图像分类。图像识别的过程包括信息获取、预处理、特征提取、图像分类。_图像特征识别技术

Android 可折叠式标题栏的实现_android coordinatorlayout floatingactionbutton col-程序员宅基地

文章浏览阅读1.1k次。先看效果图:一、实现步骤:1、布局文件<?xml version="1.0" encoding="utf-8"?><androidx.coordinatorlayout.widget.CoordinatorLayout ="http://schemas.android.com/apk/res/android" xmlns:app="http://schemas.android.com/apk/res-auto" xmlns:tools="_android coordinatorlayout floatingactionbutton collapsingtoolbarlayout

宋仕强论道之华强北科技创新说,“创新”是深圳市和华强北灵魂,创新再加上敢想敢干永不言败,造就了深圳市经济奇迹和华强北财富神话_华强北可以面向市场融到资本-程序员宅基地

文章浏览阅读400次,点赞4次,收藏2次。华强北的主要业务模式,是把电子元器件卖给下游的硬件生产企业。华强北是电子信息产业大IP,福田区有金融、会展优势,结合电子元器件国产化的大势,可以在华强北打造国产集成电路展厅,为国产半导体品牌和公司的宣传推广、技术交流和合作服务,对有前途的公司资金扶持和资源对接,推动行业的良性发展。按照此思路,萨科微(www.slkoric.com)半导体在互联网发力,致力于把萨科微半导体官网打造成为专业性、生态型、包容性的平台,开设了技术交流、名家专栏、资料查询、电子资讯、行业应用、电子小百科等专栏。_华强北可以面向市场融到资本

设计模式六大原则之里氏替换原则_设计模式中的里斯代替原则-程序员宅基地

文章浏览阅读295次。里氏替换原则1. 由来肯定有不少人跟我刚看到这项原则的时候一样,对这个原则的名字充满疑惑。其实原因就是这项原则最早是在1988年,由麻省理工学院的一位姓里的女士(Barbara Liskov)提出来的。If for each object o1 of type S there is an object o2 of type T suchthat for all programs P d..._设计模式中的里斯代替原则

蓝牙基础技术(一)_蓝牙工作在( )ghz的ism频段,蓝牙设备在通信连接状态下,有四种工作模式:激活模-程序员宅基地

文章浏览阅读3.9k次,点赞3次,收藏25次。1、蓝牙简介蓝牙特点:蓝牙是一种短距无线通信的技术规范。蓝牙的特点可归纳为以下几点:(1)全球范围使用:蓝牙工作在2.4GHz的ISM频段全球大多数国家ISM频段的范围是2.4-2.4835GHz,使用该频段无需向各国申请许可。(2)同时可传输语音和数据:蓝牙采用电路交换和分组交换技术,支持异步数据信道、三路语音信道以及异步数据与同步语音同时传输的信道。每个语音信道数据速率为64kbit/s,语音信道编码采用脉冲编码调制(PCM)或连续可变斜率增量调制(CVSD)方法。当采用非对称信道传输数据时,速率_蓝牙工作在( )ghz的ism频段,蓝牙设备在通信连接状态下,有四种工作模式:激活模

随便推点

Lnton羚通视频分析算法平台自动识别反光衣穿戴算法 反光衣识别检测系统-程序员宅基地

文章浏览阅读52次。此外,云平台还提供丰富的算法库和工具,支持用户上传和部署自己的算法模型,以满足不同用户的需求。羚通科技开发的反光衣识别检测系统可以实时监测施工现场,一旦系统检测到工人没有穿戴反光衣进行作业,就会立即发出警报,提醒相关人员及时处理和制止。同时,系统还会自动保存时间、地点和相应的照片作为后续处理的依据,大大提高了监控区域的管理效率,降低了意外事故的发生可能性。2. 高精度的识别:系统采用高精度的人工智能算法,能够快速准确地识别出未穿反光衣的行为,并且可以排除气候和环境因素的干扰。

java/php/node.js/python同城交易小程序【2024年毕设】-程序员宅基地

文章浏览阅读55次。本系统带文档lw万字以上文末可领取本课题的JAVA源码参考。

监控 - zabbix 介绍和安装_zabbix安装-程序员宅基地

文章浏览阅读406次。编辑文件 /etc/opt/rh/rh-nginx116/nginx/conf.d/zabbix.conf 取消注释。源:repository 软件仓库,用来找到zabbix官方网站提供的软件,可以下载软件的地方。编辑文件 /etc/opt/rh/rh-php72/php-fpm.d/zabbix.conf。zabbix.repo 帮助我们找到zabbix官方提供的软件下载地方的文件。编辑文件 /etc/zabbix/zabbix_server.conf。zabbix-agent zabbix的代理软件。_zabbix安装

IBM SERVERAID 8K和8K-L阵列卡在添加新硬盘时会丢失阵列配置信息-程序员宅基地

文章浏览阅读672次。故障现象:当在一个已经存在的阵列配置中插入一个新硬盘时,下列信息会显示出来并伴随一个被损坏的阵列的列表: "The following arrays have missing required members" 在所有阵列上的数据都会丢失,包括操作系统。在这个被损坏的阵列上,将无法启动进入操作系统。受影响的配置:下列IBM服务器受影响: System ..._following arrays have missing required

centos6x、7.x下amh4.2增强版)支持PHP52到php73多版本切换和mysql多版本_php73 替换老版本-程序员宅基地

文章浏览阅读705次。amh4.3完整版是在amh4.2的基础上修改来的,支持centos5和centos6,centos7,分别对32和64位都支持,内存超过512MB建议使用64位系统。使用了php多版本热切换、php5.4到php7.3开启了禁用危险函数功能,使用起来更安全。mysql多版本,并对zend加速,apcu加速进行支持,同时也支持多站点SSL,请先把数据盘挂载成/home,数据库和网站数据全部在/..._php73 替换老版本

开发认为不是bug,你该如何处理?-程序员宅基地

文章浏览阅读3.4k次,点赞3次,收藏27次。这是软件测试员面试时经常被问到的问题。看了很多答案,个人觉得作为有工作经验的测试人员回答时不能完全照搬标准答案,技术面试官想听的当然不止如此。毕竟这种情况在实际工作中也常常出现,具体问题要具体分析,你的答案最好能妥善解决开发认为不是bug的问题,这也能侧面反映测试人员的自我判断能力和独立解决问题的能力。能代入自己的想法和测试理念的候选人更有优势,所以整理了这个问题的答案。(当然,..._如果开发那边发现确实没有这个问题,你觉得是什么原因

推荐文章

热门文章

相关标签