数据转换

本章到目前为止介绍的都是数据的重排。另一类重要操作则是过滤、清理以及其他的转换工作。

移除重复数据

DataFrame中常常会出现重复行。下面就是一个例子:

  1. In [126]: data = DataFrame({'k1': ['one'] * 3 + ['two'] * 4,
  2. ...: 'k2': [1, 1, 2, 3, 3, 4, 4]})
  3.  
  4. In [127]: data
  5. Out[127]:
  6. k1 k2
  7. 0 one 1
  8. 1 one 1
  9. 2 one 2
  10. 3 two 3
  11. 4 two 3
  12. 5 two 4
  13. 6 two 4

DataFrame的duplicated方法返回一个布尔型Series,表示各行是否是重复行:

  1. In [128]: data.duplicated()
  2. Out[128]:
  3. 0 False
  4. 1 True
  5. 2 False
  6. 3 False
  7. 4 True
  8. 5 False
  9. 6 True

还有一个与此相关的drop_duplicates方法,它用于返回一个移除了重复行的Data-Frame译注5

  1. In [129]: data.drop_duplicates()
  2. Out[129]:
  3. k1 k2
  4. 0 one 1
  5. 2 one 2
  6. 3 two 3
  7. 5 two 4

这两个方法默认会判断全部列,你也可以指定部分列进行重复项判断。假设你还有一列值,且只希望根据k1列过滤重复项:

  1. In [130]: data['v1'] = range(7)
  2.  
  3. In [131]: data.drop_duplicates(['k1'])
  4. Out[131]:
  5. k1 k2 v1
  6. 0 one 1 0
  7. 3 two 3 3

duplicated和drop_duplicates默认保留的是第一个出现的值组合。传入take_last=True则保留最后一个:

  1. In [132]: data.drop_duplicates(['k1', 'k2'], take_last=True)
  2. Out[132]:
  3. k1 k2 v1
  4. 1 one 1 1
  5. 2 one 2 2
  6. 4 two 3 4
  7. 6 two 4 6

利用函数或映射进行数据转换

在对数据集进行转换时,你可能希望根据数组、Series或DataFrame列中的值来实现该转换工作。我们来看看下面这组有关肉类的数据:

  1. In [133]: data = DataFrame({'food': ['bacon', 'pulled pork', 'bacon', 'Pastrami',
  2. ...: 'corned beef', 'Bacon', 'pastrami', 'honey ham',
  3. ...: 'nova lox'],
  4. ...: 'ounces': [4, 3, 12, 6, 7.5, 8, 3, 5, 6]})
  5.  
  6. In [134]: data
  7. Out[134]:
  8. food ounces
  9. 0 bacon 4.0
  10. 1 pulled pork 3.0
  11. 2 bacon 12.0
  12. 3 Pastrami 6.0
  13. 4 corned beef 7.5
  14. 5 Bacon 8.0
  15. 6 pastrami 3.0
  16. 7 honey ham 5.0
  17. 8 nova lox 6.0

假设你想要添加一列表示该肉类食物来源的动物类型。我们先编写一个肉类到动物的映射:

  1. meat_to_animal = {
  2.  'bacon': 'pig',
  3.  'pulled pork': 'pig',
  4.  'pastrami': 'cow',
  5.  'corned beef': 'cow',
  6.  'honey ham': 'pig',
  7.  'nova lox': 'salmon'
  8. }

Series的map方法可以接受一个函数或含有映射关系的字典型对象,但是这里有一个小问题,即有些肉类的首字母大写了,而另一些则没有。因此,我们还需要将各个值转换为小写:

  1.  In [136]: data['animal'] = data['food'].map(str.lower).map(meat_to_animal)
  2.  
  3.  In [137]: data
  4.  Out[137]:
  5.   food ounces animal
  6.  0 bacon 4.0 pig
  7.  1 pulled pork 3.0 pig
  8.  2 bacon 12.0 pig
  9.  3 Pastrami 6.0 cow
  10.  4 corned beef 7.5 cow
  11.  5 Bacon 8.0 pig
  12.  6 pastrami 3.0 cow
  13.  7 honey ham 5.0 pig
  14.  8 nova lox 6.0 salmon

我们也可以传入一个能够完成全部这些工作的函数:

  1.  In [138]: data['food'].map(lambda x: meat_to_animal[x.lower()])
  2.  Out[138]:
  3.  0 pig
  4.  1 pig
  5.  2 pig
  6.  3 cow
  7.  4 cow
  8.  5 pig
  9.  6 cow
  10.  7 pig
  11.  8 salmon
  12.  Name: food

使用map是一种实现元素级转换以及其他数据清理工作的便捷方式。

替换值

利用fillna方法填充缺失数据可以看做值替换的一种特殊情况。虽然前面提到的map可用于修改对象的数据子集,而replace则提供了一种实现该功能的更简单、更灵活的方式。我们来看看下面这个Series:

  1.  In [139]: data = Series([1., -999., 2., -999., -1000., 3.])
  2.  
  3.  In [140]: data
  4.  Out[140]:
  5.  0 1
  6.  1 -999
  7.  2 2
  8.  3 -999
  9.  4 -1000
  10.  5 3

-999这个值可能是一个表示缺失数据的标记值。要将其替换为pandas能够理解的NA值,我们可以利用replace来产生一个新的Series:

  1.  In [141]: data.replace(-999, np.nan)
  2.  Out[141]:
  3.  0 1
  4.  1 NaN
  5.  2 2
  6.  3 NaN
  7.  4 -1000
  8.  5 3

如果你希望一次性替换多个值,可以传入一个由待替换值组成的列表以及一个替换值:

  1.  In [142]: data.replace([-999, -1000], np.nan)
  2.  Out[142]:
  3.  0 1
  4.  1 NaN
  5.  2 2
  6.  3 NaN
  7.  4 NaN
  8.  5 3

如果希望对不同的值进行不同的替换,则传入一个由替换关系组成的列表即可:

  1.  In [143]: data.replace([-999, -1000], [np.nan, 0])
  2.  Out[143]:
  3.  0 1
  4.  1 NaN
  5.  2 2
  6.  3 NaN
  7.  4 0
  8.  5 3

传入的参数也可以是字典:

  1.  In [144]: data.replace({-999: np.nan, -1000: 0})
  2.  Out[144]:
  3.  0 1
  4.  1 NaN
  5.  2 2
  6.  3 NaN
  7.  4 0
  8.  5 3

重命名轴索引

跟Series中的值一样,轴标签也可以通过函数或映射进行转换,从而得到一个新对象。轴还可以被就地修改,而无需新建一个数据结构。接下来看看下面这个简单的例子:

  1.  In [145]: data = DataFrame(np.arange(12).reshape((3, 4)),
  2.   ...: index=['Ohio', 'Colorado', 'New York'],
  3.   ...: columns=['one', 'two', 'three', 'four'])

跟Series一样,轴标签也有一个map方法:

  1.  In [146]: data.index.map(str.upper)
  2.  Out[146]: array([OHIO, COLORADO, NEW YORK], dtype=object)

你可以将其赋值给index,这样就可以对DataFrame进行就地修改了:

  1.  In [147]: data.index = data.index.map(str.upper)
  2.  
  3.  In [148]: data
  4.  Out[148]:
  5.   one two three four
  6.  OHIO 0 1 2 3
  7.  COLORADO 4 5 6 7
  8.  NEW YORK 8 9 10 11

如果想要创建数据集的转换版(而不是修改原始数据),比较实用的方法是rename:

  1.  In [149]: data.rename(index=str.title, columns=str.upper)
  2.  Out[149]:
  3.   ONE TWO THREE FOUR
  4.  Ohio 0 1 2 3
  5.  Colorado 4 5 6 7
  6.  New York 8 9 10 11

特别说明一下,rename可以结合字典型对象实现对部分轴标签的更新:

  1.  In [150]: data.rename(index={'OHIO': 'INDIANA'},
  2.   ...: columns={'three': 'peekaboo'})
  3.  Out[150]:
  4.   one two peekaboo four
  5.  INDIANA 0 1 2 3
  6.  COLORADO 4 5 6 7
  7.  NEW YORK 8 9 10 11

rename帮我们实现了:复制DataFrame并对其索引和列标签进行赋值。如果希望就地修改某个数据集,传入inplace=True即可:

  1.  # 总是返回DataFrame的引用
  2.  In [151]: _ = data.rename(index={'OHIO': 'INDIANA'}, inplace=True)
  3.  
  4.  In [152]: data
  5.  Out[152]:
  6.   one two three four
  7.  INDIANA 0 1 2 3
  8.  COLORADO 4 5 6 7
  9.  NEW YORK 8 9 10 11

离散化和面元划分

为了便于分析,连续数据常常被离散化或拆分为“面元”(bin)。假设有一组人员数据,而你希望将它们划分为不同的年龄组:

  1.  In [153]: ages = [20, 22, 25, 27, 21, 23, 37, 31, 61, 45, 41, 32]

接下来将这些数据划分为“18到25”、“26到35”、“35到60”以及“60以上”几个面元。要实现该功能,你需要使用pandas的cut函数:

  1.  In [154]: bins = [18, 25, 35, 60, 100]
  2.  
  3.  In [155]: cats = pd.cut(ages, bins)
  4.  
  5.  In [156]: cats
  6.  Out[156]:
  7.  Categorical:
  8.  array([(18, 25], (18, 25], (18, 25], (25, 35], (18, 25], (18, 25],
  9.   (35, 60], (25, 35], (60, 100], (35, 60], (35, 60], (25, 35]], dtype=object)
  10.  Levels (4): Index([(18, 25], (25, 35], (35, 60], (60, 100]], dtype=object)

pandas返回的是一个特殊的Categorical对象。你可以将其看做一组表示面元名称的字符串。实际上,它含有一个表示不同分类名称的levels数组以及一个为年龄数据进行标号的labels属性:

  1.  In [157]: cats.labels
  2.  Out[157]: array([0, 0, 0, 1, 0, 0, 2, 1, 3, 2, 2, 1])
  3.  
  4.  In [158]: cats.levels
  5.  Out[158]: Index([(18, 25], (25, 35], (35, 60], (60, 100]], dtype=object)
  6.  
  7.  In [159]: pd.value_counts(cats)
  8.  Out[159]:
  9.  (18, 25] 5
  10.  (35, 60] 3
  11.  (25, 35] 3
  12.  (60, 100] 1

跟“区间”的数学符号一样,圆括号表示开端,而方括号则表示闭端(包括)。哪边是闭端可以通过right=False进行修改:

  1.  In [160]: pd.cut(ages, [18, 26, 36, 61, 100], right=False)
  2.  Out[160]:
  3.  Categorical:
  4.  array([[18, 26), [18, 26), [18, 26), [26, 36), [18, 26), [18, 26),
  5.   [36, 61), [26, 36), [61, 100), [36, 61), [36, 61), [26, 36)], dtype=object)
  6.  Levels (4): Index([[18, 26), [26, 36), [36, 61), [61, 100)], dtype=object)

你也可以设置自己的面元名称,将labels选项设置为一个列表或数组即可:

  1.  In [161]: group_names = ['Youth', 'YoungAdult', 'MiddleAged', 'Senior']
  2.  
  3.  In [162]: pd.cut(ages, bins, labels=group_names)
  4.  Out[162]:
  5.  Categorical:
  6.  array([Youth, Youth, Youth, YoungAdult, Youth, Youth, MiddleAged,
  7.   YoungAdult, Senior, MiddleAged, MiddleAged, YoungAdult], dtype=object)
  8.  Levels (4): Index([Youth, YoungAdult, MiddleAged, Senior], dtype=object)

如果向cut传入的是面元的数量而不是确切的面元边界,则它会根据数据的最小值和最大值计算等长面元。下面这个例子中,我们将一些均匀分布的数据分成四组:

  1.  In [163]: data = np.random.rand(20)
  2.  
  3.  In [164]: pd.cut(data, 4, precision=2)
  4.  Out[164]:
  5.  Categorical:
  6.  array([(0.45, 0.67], (0.23, 0.45], (0.0037, 0.23], (0.45, 0.67],
  7. (0.67, 0.9], (0.45, 0.67], (0.67, 0.9], (0.23, 0.45], (0.23, 0.45],
  8. (0.67, 0.9], (0.67, 0.9], (0.67, 0.9], (0.23, 0.45], (0.23, 0.45],
  9. (0.23, 0.45], (0.67, 0.9], (0.0037, 0.23], (0.0037, 0.23],
  10. (0.23, 0.45], (0.23, 0.45]], dtype=object)
  11.  Levels (4): Index([(0.0037, 0.23], (0.23, 0.45], (0.45, 0.67],
  12. (0.67, 0.9]], dtype=object)

qcut是一个非常类似于cut的函数,它可以根据样本分位数对数据进行面元划分。根据数据的分布情况,cut可能无法使各个面元中含有相同数量的数据点。而qcut由于使用的是样本分位数,因此可以得到大小基本相等的面元:

  1.  In [165]: data = np.random.randn(1000) # 正态分布
  2.  
  3.  In [166]: cats = pd.qcut(data, 4) # 按四分位数进行切割
  4.  
  5.  In [167]: cats
  6.  Out[167]:
  7.  Categorical:
  8.  array([(-0.022, 0.641], [-3.745, -0.635], (0.641, 3.26], ...,
  9. (-0.635, -0.022], (0.641, 3.26], (-0.635, -0.022]], dtype=object)
  10.  Levels (4): Index([[-3.745, -0.635], (-0.635, -0.022], (-0.022, 0.641],
  11. (0.641, 3.26]], dtype=object)
  12.  
  13.  In [168]: pd.value_counts(cats)
  14.  Out[168]:
  15.  [-3.745, -0.635] 250
  16.  (0.641, 3.26] 250
  17.  (-0.635, -0.022] 250
  18.  (-0.022, 0.641] 250

跟cut一样,也可以设置自定义的分位数(0到1之间的数值,包含端点):

  1.  In [169]: pd.qcut(data, [0, 0.1, 0.5, 0.9, 1.])
  2.  Out[169]:
  3.  Categorical:
  4.  array([(-0.022, 1.302], (-1.266, -0.022], (-0.022, 1.302], ...,
  5. (-1.266, -0.022], (-0.022, 1.302], (-1.266, -0.022]], dtype=object)
  6.  Levels (4): Index([[-3.745, -1.266], (-1.266, -0.022], (-0.022, 1.302],
  7. (1.302, 3.26]], dtype=object)

本章稍后在讲解聚合和分组运算时会再次用到cut和qcut,因为这两个离散化函数对分量和分组分析非常重要。

检测和过滤异常值

异常值译注6(outlier)的过滤或变换运算在很大程度上其实就是数组运算。来看一个含有正态分布数据的DataFrame:

  1.  In [170]: np.random.seed(12345)
  2.  
  3.  In [171]: data = DataFrame(np.random.randn(1000, 4))
  4.  
  5.  In [172]: data.describe()
  6.  Out[172]:
  7.   0 1 2 3
  8.  count 1000.000000 1000.000000 1000.000000 1000.000000
  9.  mean -0.067684 0.067924 0.025598 -0.002298
  10.  std 0.998035 0.992106 1.006835 0.996794
  11.  min -3.428254 -3.548824 -3.184377 -3.745356
  12.  25% -0.774890 -0.591841 -0.641675 -0.644144
  13.  50% -0.116401 0.101143 0.002073 -0.013611
  14.  75% 0.616366 0.780282 0.680391 0.654328
  15.  max 3.366626 2.653656 3.260383 3.927528

假设你想要找出某列中绝对值大小超过3的值:

  1.  In [173]: col = data[3]
  2.  
  3.  In [174]: col[np.abs(col) > 3]
  4.  Out[174]:
  5.  97 3.927528
  6.  305 -3.399312
  7.  400 -3.745356
  8.  Name: 3

要选出全部含有“超过3或-3的值”的行,你可以利用布尔型DataFrame以及any方法:

  1.  In [175]: data[(np.abs(data) > 3).any(1)]
  2.  Out[175]:
  3.   0 1 2 3
  4.  5 -0.539741 0.476985 3.248944 -1.021228
  5.  97 -0.774363 0.552936 0.106061 3.927528
  6.  102 -0.655054 -0.565230 3.176873 0.959533
  7.  305 -2.315555 0.457246 -0.025907 -3.399312
  8.  324 0.050188 1.951312 3.260383 0.963301
  9.  400 0.146326 0.508391 -0.196713 -3.745356
  10.  499 -0.293333 -0.242459 -3.056990 1.918403
  11.  523 -3.428254 -0.296336 -0.439938 -0.867165
  12.  586 0.275144 1.179227 -3.184377 1.369891
  13.  808 -0.362528 -3.548824 1.553205 -2.186301
  14.  900 3.366626 -2.372214 0.851010 1.332846

根据这些条件,即可轻松地对值进行设置。下面的代码可以将值限制在区间-3到3以内:

  1.  In [176]: data[np.abs(data) > 3] = np.sign(data) * 3
  2.  
  3.  In [177]: data.describe()
  4.  Out[177]:
  5.   0 1 2 3
  6.  count 1000.000000 1000.000000 1000.000000 1000.000000
  7.  mean -0.067623 0.068473 0.025153 -0.002081
  8.  std 0.995485 0.990253 1.003977 0.989736
  9.  min -3.000000 -3.000000 -3.000000 -3.000000
  10.  25% -0.774890 -0.591841 -0.641675 -0.644144
  11.  50% -0.116401 0.101143 0.002073 -0.013611
  12.  75% 0.616366 0.780282 0.680391 0.654328
  13.  max 3.000000 2.653656 3.000000 3.000000

np.sign这个ufunc返回的是一个由1和-1组成的数组,表示原始值的符号。

排列和随机采样

利用numpy.random.permutation函数可以轻松实现对Series或DataFrame的列的排列工作(permuting,随机重排序译注7)。通过需要排列的轴的长度调用permutation,可产生一个表示新顺序的整数数组:

  1. In [178]: df = DataFrame(np.arange(5 * 4).reshape(5, 4))
  2.  
  3. In [179]: sampler = np.random.permutation(5)
  4.  
  5. In [180]: sampler
  6. Out[180]: array([1, 0, 2, 3, 4])

然后就可以在基于ix的索引操作或take函数中使用该数组了:

  1. In [181]: df
  2. Out[181]:
  3. 0 1 2 3
  4. 0 0 1 2 3
  5. 1 4 5 6 7
  6. 2 8 9 10 11
  7. 3 12 13 14 15
  8. 4 16 17 18 19
  9. In [182]: df.take(sampler)
  10. Out[182]:
  11. 0 1 2 3
  12. 1 4 5 6 7
  13. 0 0 1 2 3
  14. 2 8 9 10 11
  15. 3 12 13 14 15
  16. 4 16 17 18 19

如果不想用替换的方式选取随机子集,则可以使用permutation:从permutation返回的数组中切下前k个元素,其中k为期望的子集大小。虽然有很多高效的算法可以实现非替换式采样,但是手边就有的工具为什么不用呢?

  1. In [183]: df.take(np.random.permutation(len(df))[:3])
  2. Out[183]:
  3. 0 1 2 3
  4. 1 4 5 6 7
  5. 3 12 13 14 15
  6. 4 16 17 18 19

要通过替换的方式产生样本,最快的方式是通过np.random.randint得到一组随机整数:

  1. In [184]: bag = np.array([5, 7, -1, 6, 4])
  2.  
  3. In [185]: sampler = np.random.randint(0, len(bag), size=10)
  4.  
  5. In [186]: sampler
  6. Out[186]: array([4, 4, 2, 2, 2, 0, 3, 0, 4, 1])
  7.  
  8. In [187]: draws = bag.take(sampler)
  9.  
  10. In [188]: draws
  11. Out[188]: array([ 4, 4, -1, -1, -1, 5, 6, 5, 4, 7])

计算指标/哑变量

另一种常用于统计建模或机器学习的转换方式是:将分类变量(categorical variable)转换为“哑变量矩阵”(dummy matrix)或“指标矩阵”(indicator matrix)。如果DataFrame的某一列中含有k个不同的值,则可以派生出一个k列矩阵或DataFrame(其值全为1和0)。pandas有一个get_dummies函数可以实现该功能(其实自己动手做一个也不难)。拿之前的一个例子来说:

  1. In [189]: df = DataFrame({'key': ['b', 'b', 'a', 'c', 'a', 'b'],
  2. ...: 'data1': range(6)})
  3.  
  4. In [190]: pd.get_dummies(df['key'])
  5. Out[190]:
  6. a b c
  7. 0 0 1 0
  8. 1 0 1 0
  9. 2 1 0 0
  10. 3 0 0 1
  11. 4 1 0 0
  12. 5 0 1 0

有时候,你可能想给指标DataFrame的列加上一个前缀,以便能够跟其他数据进行合并。get_dummies的prefix参数可以实现该功能:

  1. In [191]: dummies = pd.get_dummies(df['key'], prefix='key')
  2.  
  3. In [192]: df_with_dummy = df[['data1']].join(dummies)
  4.  
  5. In [193]: df_with_dummy
  6. Out[193]:
  7. data1 key_a key_b key_c
  8. 0 0 0 1 0
  9. 1 1 0 1 0
  10. 2 2 1 0 0
  11. 3 3 0 0 1
  12. 4 4 1 0 0
  13. 5 5 0 1 0

如果DataFrame中的某行同属于多个分类,则事情就会有点复杂。回到本书前面那个MovieLens 1M数据集上:译注8

  1. In [194]: mnames = ['movie_id', 'title', 'genres']
  2.  
  3. In [195]: movies = pd.read_table('ch02/movielens/movies.dat', sep='::', header=None,
  4. ...: names=mnames)
  5.  
  6. In [196]: movies[:10]
  7. Out[196]:
  8. movie_id title genres
  9. 0 1 Toy Story (1995) Animation|Children's|Comedy
  10. 1 2 Jumanji (1995) Adventure|Children's|Fantasy
  11. 2 3 Grumpier Old Men (1995) Comedy|Romance
  12. 3 4 Waiting to Exhale (1995) Comedy|Drama
  13. 4 5 Father of the Bride Part II (1995) Comedy
  14. 5 6 Heat (1995) Action|Crime|Thriller
  15. 6 7 Sabrina (1995) Comedy|Romance
  16. 7 8 Tom and Huck (1995) Adventure|Children's
  17. 8 9 Sudden Death (1995) Action
  18. 9 10 GoldenEye (1995) Action|Adventure|Thriller

要为每个genre添加指标变量就需要做一些数据规整操作。首先,我们从数据集中抽取出不同的genre值(注意巧用set.union):

  1. In [197]: genre_iter = (set(x.split('|')) for x in movies.genres)
  2.  
  3. In [198]: genres = sorted(set.union(*genre_iter))

现在,我们从一个全零DataFrame开始构建指标DataFrame:

  1. In [199]: dummies = DataFrame(np.zeros((len(movies), len(genres))), columns=genres)

接下来,迭代每一部电影并将dummies各行的项设置为1:

  1. In [200]: for i, gen in enumerate(movies.genres):
  2. ...: dummies.ix[i, gen.split('|')] = 1

然后,再将其与movies合并起来:

  1. In [201]: movies_windic = movies.join(dummies.add_prefix('Genre_'))
  2.  
  3. In [202]: movies_windic.ix[0]
  4. Out[202]:
  5. movie_id 1
  6. title Toy Story (1995)
  7. genres Animation|Children's|Comedy
  8. Genre_Action 0
  9. Genre_Adventure 0
  10. Genre_Animation 1
  11. Genre_Children's 1
  12. Genre_Comedy 1
  13. Genre_Crime 0
  14. Genre_Documentary 0
  15. Genre_Drama 0
  16. Genre_Fantasy 0
  17. Genre_Film-Noir 0
  18. Genre_Horror 0
  19. Genre_Musical 0
  20. Genre_Mystery 0
  21. Genre_Romance 0
  22. Genre_Sci-Fi 0
  23. Genre_Thriller 0
  24. Genre_War 0
  25. Genre_Western 0
  26. Name: 0

注意: 对于很大的数据,用这种方式构建多成员指标变量就会变得非常慢。肯定需要编写一个能够利用DataFrame内部机制的更低级的函数才行。

一个对统计应用有用的秘诀是:结合get_dummies和诸如cut之类的离散化函数。

  1. In [204]: values = np.random.rand(10)
  2.  
  3. In [205]: values
  4. Out[205]:
  5. array([ 0.9296, 0.3164, 0.1839, 0.2046, 0.5677, 0.5955, 0.9645,
  6. 0.6532, 0.7489, 0.6536])
  7.  
  8. In [206]: bins = [0, 0.2, 0.4, 0.6, 0.8, 1]
  9.  
  10. In [207]: pd.get_dummies(pd.cut(values, bins))
  11. Out[207]:
  12. (0, 0.2] (0.2, 0.4] (0.4, 0.6] (0.6, 0.8] (0.8, 1]
  13. 0 0 0 0 0 1
  14. 1 0 1 0 0 0
  15. 2 1 0 0 0 0
  16. 3 0 1 0 0 0
  17. 4 0 0 1 0 0
  18. 5 0 0 1 0 0
  19. 6 0 0 0 0 1
  20. 7 0 0 0 1 0
  21. 8 0 0 0 1 0
  22. 9 0 0 0 1 0

译注5:原文这里的意思很有问题,原文说的是“返回duplicated为True的DataFrame”,实际上应该是删除了duplicated为True的那些行,因此最终得到的DataFrame的duplicated不可能再含有True了。

译注6:也叫孤立点或离群值。

译注7:也就是中学学的那个排列,只不过不是算出所有排列,而是其中之一。

译注8:这个数据集不在ch07中,而在ch02里面。