• 为了保证你在浏览本网站时有着更好的体验,建议使用类似Chrome、Firefox之类的浏览器~~
    • 如果你喜欢本站的内容何不Ctrl+D收藏一下呢,与大家一起分享各种编程知识~
    • 本网站研究机器学习、计算机视觉、模式识别~当然不局限于此,生命在于折腾,何不年轻时多折腾一下

特征工程(5)-数据预处理哑编码

bigdata admin 3年前 (2017-08-17) 6830次浏览 0个评论 扫描二维码

上一篇讲解了数据二值化处理,这篇讲解数据的哑编码

哑编码概念

先来讲解下哑编码的概念吧,当你的变量不是定量特征的时候是无法拿去进行训练模型的,哑编码主要是针对定性的特征进行处理然后得到可以用来训练的特征

关于定性和定量还是在这里也说明下,举个例子就可以看懂了

定性:

博主很胖

博主很瘦

定量

博主有80kg

博主有60kg(ps:好难啊)

一般定性都会有相关的描述词,定量的描述都是可以用数字来量化处理

现在假设给你的一个病人的病情描述,一般病情的描述包含以下几个方面,将病情严重程度划分:

非常严重,严重,一般严重,轻微

现在有个病人过来了,要为他构造一个病情的特征,假设他的病情是严重情况,我们可以给他的哑编码是

0 1 0 0

病情总共有四种情况因此使用四位来表示,第二位表示严重,这位病人是严重的病情因此将其置为1,其余为0

以上就是哑编码的原理,看完这个解释应该可以理解了,如果还是看不懂,我逃/(ㄒoㄒ)/~~


sklearn代码剖析

 

from sklearn.preprocessing import OneHotEncoder
enc = OneHotEncoder()
enc.fit([[1, 1, 4], [2, 2, 1], [1, 3, 2], [2, 1, 3]]) 
print enc.n_values_
print enc.feature_indices_
print enc.transform([[1, 1, 4], [2, 2, 1], [1, 3, 2], [2, 1, 3]])
print enc.transform([[1, 2, 2]]).toarray()

输出的结果

#输出3,4,5分别表示当前该维特征有三种、4种和5种情况,案例只有2,3,4,该问题可以看下一段解释
[3 4 5]
#表示每个特征的哑编码的索引范围
[ 0  3  7 12]
#返回哑编码的缩减版说明,举个例子说明一下,(0,8)表示索引0和8   1.0表示在这两个索引的数据都是1
  (0, 8)	1.0
  (0, 2)	1.0
  (0, 0)	1.0
  (1, 5)	1.0
  (1, 3)	1.0
  (1, 1)	1.0
  (2, 6)	1.0
  (2, 4)	1.0
  (2, 0)	1.0
  (3, 7)	1.0
  (3, 2)	1.0
  (3, 1)	1.0
[[ 1.  0.  0.  1.  0.  0.  1.  0.  0.]]

哑编码的大小说明

def _fit_transform(self, X):
 """Assumes X contains only categorical features."""
 X = check_array(X, dtype=np.int)
 if np.any(X < 0):
     raise ValueError("X needs to contain only non-negative integers.")
 n_samples, n_features = X.shape
#这一步就是比较关键啦,我们传入的参数是auto,此时他会寻找特征列的最大值然后对其加1处理
#然后将数据返回给n_values,这就是我们刚才看到的数据3,4,5,虽然我们第一维特征数字只有1和2,但是取最大值加1就变为3了
#这也就解释了出现这种情况的原因,看到这里就顿悟了,遇到问题还是可以看看源码,这样可以理解的前提是代码还是简单点
 if (isinstance(self.n_values, six.string_types) and self.n_values == 'auto'):
     n_values = np.max(X, axis=0) + 1
 elif isinstance(self.n_values, numbers.Integral):
     if (np.max(X, axis=0) >= self.n_values).any():
          raise ValueError("Feature out of bounds for n_values=%d" % self.n_values)
     n_values = np.empty(n_features, dtype=np.int)
     n_values.fill(self.n_values)
 else:
     try:
         n_values = np.asarray(self.n_values, dtype=int)
     except (ValueError, TypeError):
         raise TypeError("Wrong type for parameter `n_values`. Expected"
                     " 'auto', int or array of ints, got %r" % type(X))
     if n_values.ndim < 1 or n_values.shape[0] != X.shape[1]:
         raise ValueError("Shape mismatch: if n_values is an array,"" it has to be of shape (n_features,).")
 self.n_values_ = n_values

spark代码剖析

<em class="property">class </em><tt class="descclassname">pyspark.ml.feature.</tt><tt class="descname">OneHotEncoder</tt><big>(</big><em>self</em>, <em>includeFirst=True</em>, <em>inputCol=None</em>, <em>outputCol=None</em><big>)</big>
#不得不说spark ml 受sklearn启发,基本上二者的api定义基本一致,不过这样也好,基本上记住其中一个,另外一个基本上套着用
>>> from pyspark.ml.feature import StringIndexer
>>> from pyspark.ml.feature import OneHotEncoder
>>> from pyspark.sql import SQLContext    
>>> sq=SQLContext(sc)

>>> data=sq.createDataFrame([(1, 1, 4),(2, 2, 1),(2, 1, 3),(3,4,5)], ["a","b","c"])  
>>> strmodel=StringIndexer(inputCol='a',outputCol='features')        
>>> model=strmodel.fit(data) 
>>> tdd=model.transform(data)
>>> tdd.show()
+---+---+---+--------+
|  a|  b|  c|features|
+---+---+---+--------+
|  1|  1|  4|     2.0|
|  2|  2|  1|     0.0|
|  2|  1|  3|     0.0|
|  3|  4|  5|     1.0|
+---+---+---+--------+
>>> encoder = OneHotEncoder(inputCol="features", outputCol="feature")
>>> aa=encoder.transform(tdd).show()
+---+---+---+--------+-------------+
|  a|  b|  c|features|      feature|
+---+---+---+--------+-------------+
|  1|  1|  4|     2.0|    (2,[],[])|
|  2|  2|  1|     0.0|(2,[0],[1.0])|
|  2|  1|  3|     0.0|(2,[0],[1.0])|
|  3|  4|  5|     1.0|(2,[1],[1.0])|
+---+---+---+--------+-------------+
#此时发现为什么a列有三类结果只显示两类,因为spark默认忽略了最后一位,现在我们
#自定义参数让其显示出来

>>> params = {encoder.dropLast: False, encoder.outputCol: "test"}
>>> encoder.transform(tdd, params).show()
+---+---+---+--------+-------------+
|  a|  b|  c|features|         test|
+---+---+---+--------+-------------+
|  1|  1|  4|     2.0|(3,[2],[1.0])|
|  2|  2|  1|     0.0|(3,[0],[1.0])|
|  2|  1|  3|     0.0|(3,[0],[1.0])|
|  3|  4|  5|     1.0|(3,[1],[1.0])|
+---+---+---+--------+-------------+

备注:sklearn的哑编码与spark不一样,sklearn一次性编码所有特征列,spark不会


Deeplearn, 版权所有丨如未注明 , 均为原创丨本网站采用BY-NC-SA协议进行授权 , 转载请注明特征工程(5)-数据预处理哑编码
喜欢 (1)
[@lc@]
分享 (0)
admin
关于作者:
互联网行业码农一枚/业余铲屎官/数码影音爱好者/二次元

您必须 登录 才能发表评论!