(2009,2011)特征简约方法比较
本文档由 冲出宇宙-搜索引擎 分享于2011-03-29 09:14
从理论上讲,特征维度越多,需要的样本就越多,否则计算出来的分类模型和一个普通的线性模型差不多。比如在采用svm进行分类的时候,如果维度大而样本少,其结果和不采用任何非线性核函数的结果差不多。另外一方面,如果纬度太多,任何算法的计算速度都会下降很严重。特征简约(feature reduce)是一种常见的降维技术(即减少特征维度),它通常有如下几种技术: 1)df:根据特征在文档中出现的频率 2)IG: 根据信息增益 ..
分享:
君,已阅读到文档的结尾了呢~~