沉沙
2018-09-29
来源 :
阅读 1662
评论 0
摘要:本篇教程介绍了大数据采集 数据挖掘应用综述,希望阅读本篇文章以后大家有所收获,帮助大家对大数据云计算大数据采集的理解更加深入。
本篇教程介绍了大数据采集 数据挖掘应用综述,希望阅读本篇文章以后大家有所收获,帮助大家对大数据云计算大数据采集的理解更加深入。
<
随着人类生活方式的多样化,由此产生的数据的规模和复杂性也在急速增长,对于数据的各种分析也应运而生。在数据挖掘领域,对于大数据的分析可谓是越来越成为时代的主流。科技时代下,数据成为各行各业发展的依据和关键,面对如此庞大的数据,数据挖掘承担了十分重要的角色。在大数据时代下,数据挖掘成为行业间沟通的桥梁,可以说,谁掌握了数据,谁就拥有了行业的主导权。因此,数据挖掘在大数据中显得尤为重要。
大数据的定义可谓是五花八门,但是不管哪种定义,大数据并不是一种新的产品也不是一种新的技术,大数据只是一种数字化时代下的现象。大数据由海量交易数据、海量交互数据和海量数据处理三大主要的技术趋势汇集而成。大数据的特征是数据体量巨大、数据种类繁多、流动速度快、价值密度低,大数据的"4V"特征表明其不仅仅是海量数据,对于大数据的分析将更加复杂、更追求速度、更注重实效。
数据挖掘已经在大数据中得到了广泛的应用,并且获得了成功。数据挖掘就是从大量的、不完全的、有噪声的、模糊的、随机的实际应用数据中,提取隐含在其中的、人们事先不知道的,但又潜在有用的信息和知识的过程,数据挖掘是在没有明确假设的前提下去挖掘信息,发现知识。数据挖掘基于的数据库类型主要有关系型数据库、面向对象数据库、事物数据库、演义数据库、时态数据库、多媒体数据库、主动数据库、空间数据库、文本型、Internet信息库以及新兴的数据仓库,数据挖掘的内容主要集中在关联、回归、分类、聚类、预测和诊断六个方面。本文从总体上对数据挖掘有个全面的认识与了解,主要从算法及其应用的层次介绍数据挖掘在大数据方面的应用,包括数据准备的方法、数据探索的方法、关联规则方法、数据回归方法、数据分类方法、数据聚类方法、数据预测方法、数据诊断方法。另外还包括时间序列方法和智能优化方法,本文不做陈述。
数据准备的方法
数据的准备包括数据的收集、数据的质量分析和数据的预处理。
数据的收集
数据的抽样方法:
(1)简单随机抽样
(2)系统抽样
(3)整群抽样
(4)分层抽样
数据的质量分析
(1)值分析:包括唯一值分析、无效值分析、异常值分析
(2)统计分析:包括众数、分位数、中位数、偏度
(3)频次与直方图分析:包括频次图和直方图分析方法
数据的预处理
(1)数据清洗:对于缺失值的处理,一般采用删除法和插补法;对于噪声的过滤,一般采用回归法、均值平均法、离群点分析、小波去噪
(2)数据集成:包括联邦数据库、中间件集成方法和数据仓库方法。
(3)数据规约:包括数据选择和样本选择。
(4)数据变换:包括标准化、离散化和语义转换
数据探索的方法
数据探索中常用的方法包括衍生变量、数据的统计、数据可视化、样本选择和数据降维。
衍生变量
衍生变量常用的方法:
(1)对多个列变量进行组合
(2)按照维度分类汇总
(3)对某个变量进一步分解
(4)对具有时间序列特征的变量提取时间特征
数据的统计
数据的统计一般包括基本描述性统计和分布描述性统计
(1)基本描述性统计:包括表示位置的统计量,算数平均数和中位数;表示数据散度的统计量,标准差、方差和极差;表示分布形状的统计量,偏度和峰度
(2)分布描述性统计:包括随机变量的分布函数和密度函数
数据可视化
数据的可视化一般包括基本可视化,数据分布形状可视化,数据关联情况可视化和数据分组可视化。
样本选择
样本的选择方法主要包括随机取样法、顺序取样法和监督取样法。
数据降维
主成分分析法是采用一种数学降维的方法,设法做的就是将原来众多具有一定相关性的变量,重新组合为一组新的相互无关的综合变量来代替原来变量。
主成分分析法的步骤:
(1)对原始数据进行标量化处理
(2)计算相关系数矩阵R
(3)计算相关系数矩阵R的特征值和相应的特征向量
(4)选择重要的主成分,并写出主成分表达式
(5)计算主成分得分
(6)依据主成分得分的数据,进一步对问题进行后续的分析、建模
主成分分析法在大数据的应用
对于企业的综合实力进行排序,是PCA成功的应用实例。根据不同企业的净资产、固定资产利润率、总产值利润率、销售收入利润率、产品成本利润率、物耗利润率、人均利润率和物流资金利润率组成的矩阵,对企业综合实力进行排序。
关联规则的方法
关联规则常用的方法包括Apriori算法和FP-Growth算法。
Apriori算法
Apriori算法使用频繁项集性质的先验知识,其主要步骤如下:
扫描全部数据,产生候选1-项集的集合C1;
根据最小支持度,由候选1-项集的集合C1产生频繁1-项集的集合L1;
对k>1,重复执行步骤4)、5)、6);
由Lk执行连接和剪枝操作,产生(k+1)-项集的的集合Ck+1;
根据最小支持度,由候选(k+1)-项集的集合Ck+1,产生频繁(k+1)-项集的集合Lk+1;
若L不等于空集,则k=k+1,跳往步骤4);否则,跳往步骤7);
根据最小置信度,由频繁项集产生强关联规则,结束。
FP-Growth算法
FP-Growth算法将提供频繁项集的数据库压缩到一颗频繁模式数,但是任然保留项集的关联信息,与Apriori算法的最大不同有两点,第一,不产生候选码,第二,只需要两次遍历数据库。其主要步骤如下:
按照以下步骤构造FP-树:扫描事务数据库D一次。收集频繁项的集合F和他们的支持度;创建FP-树的根节点,以"null"标记它。
根据FP-树挖掘频繁项集。
Apriori算法的在大数据的应用
行业关联选股法就是一种基于关联规则的选股方法,其基本思想就是从数据中选择有联动关联的行业,当某个行业出现涨势之后,而其相关联行业还没有开始涨,则从其关联行业中选择典型个股买入。
数据回归方法
数据回归方法包括一元线性、一元非线性、多元线性、多元非线性、逐步回归和Logstic回归。由于前四种回归方式比较简单,只对后两种回归进行介绍。
逐步回归
逐步回归的基本思想有进有出。引入一个变量或者从回归方程总剔除一个变量为逐步回归的一步,每一步都要进行F检验。算法的基本步骤如下:
计算变量均值和差平方和
计算自变量和因变量的相关系数矩阵R
设已经选上K个变量,R(0)经过变换后为R(k)。逐一计算标准化变量的偏回归平方和,作F检验,对给定的显著性水平,计算拒绝域。
将步骤3循环,直至最终选上了t个变量,求出对应的回归方程。
Logistic回归
Logistic回归是一个概率模型,可以利用它预测某个时间发生的概率,通常将f(p)定义为Logit函数。
回归方法在大数据中的应用
多因子模型是应用最广泛的一种选股模型,基本原理正是采用一系列的因子作为选股标准,满足这些因子的股票则被买入,不满足的则被卖出。多因子选股模型的建立过程主要分为候选因子的提取、选股因子有效性的检验、有效但冗余因子的剔除、综合评分模型的建立和模型的评价及持续改进5个步骤。这5个步骤中,回归方法可以用来辅助筛选因子、检验因子有效性、冗余因子的剔除,也可以直接用回归方程建立综合评分模型。
数据分类方法
常见的分类方法有7种,包括K-近邻、贝叶斯分类、神经网络、Logtic、判别分析、支持向量机和决策树。
K-近邻
K-近邻分类方法通过计算每个训练样例到待分类样品的距离,取和待分类样品距离最近的K个训练样例,K个样品中那个类别的训练样本占多数,则待分类元祖就属于那个类别。
KNN算法的具体步骤:
初始化距离为最大值;
计算未知样本和每个训练样本的距离dist;
得到k个最近邻样本中的最大距离maxdist;
若dist小于maxdist,则将样本作为K-最近邻样本;
重复2到4步骤,直到未知样本和所有训练样本的距离用完;
统计K个最近样本中每个类别出现的次数;
选出频率最大的类别作为未知样本的类别;
贝叶斯分类
贝叶斯分类是一类利用概率统计知识进行分类的算法,其分类原理是贝叶斯定理
其算法的步骤如下:
X为一个待分类项,而每个a为X的一个特征属性
确定类别集合C
计算各个条件概率
求解在待分类项出现的条件下,集合C中事件发生的概率,哪个最大,集合C中事件就属于哪个项。
神经网络
人工神经网络是一种应用类似于大脑神经突触连接的结构,进行信息处理的数学模型。人工神经网络的研究是由试图模拟生物神经系统而激发的,其重要的模型为感知器,感知器模型如下:
图1 感知器模型
感知器包括两个节点,几个输入点和一个输出点,在感知器中,每个输入节点都通过一个加权的链连接到输出节点。其具体算法如下:
令D是训练样例集合
用随机值初始化权值向量W
对每个训练样例,计算预测输出
对每个权值W更新权值
重复步骤3和步骤4,算法更新的主要计算公式为:
其中是第k次循环后第i个输入链上的权值,参数成为学习率,是训练样例的第j个属性值
Logstic
Logstic算法已经在前面进行了介绍,这里可以陈述一下Logstic的特点
预测值域0-1,适合二分类问题
模型的值呈现S-形曲线,符合某种特殊的预测
判别分析
判别分析是根据观察或者预测到的若干变量值判断研究对象如何分类的方法。判别分析对判别变量有三个基本建设:
每个判别变量不能是其他判别变量的线性组合
各组案例的协方差矩阵相等
各个判别变量之间具有多元正态分布
判别分析的基本模型就是判别函数:
是判别函数值,又简称为判别值;是各判别变量;为相应的判别系数
支持向量机
支持向量机构建了一个分割两类的超平面,该算法师徒使两类之间的分割达到最大化,以一个很大的边缘分隔两个类,可以使期望泛化误差最小化。
支持向量机最初是在研究线性可分问题的过程中提出的,所以常用的线性支持向量机模型为:
支持向量机的理论有三个要点,最大化间距,核函数,对偶理论。
决策树
决策树是最为广泛的归纳推理算法之一,处理类别型或连续型变量的分类预测问题,可以用图形和if-then的规则表示模型,可读性较高。决策树是一种监督式的学习方法,产生一种类似流程图的树结构。决策树的构建步骤主要有三个:
选择适当的算法训练样本构建决策树
适当的修剪决策树
从决策树中萃取知识规则
决策树的算法基本上是一种贪心算法,由上而下的逐次搜索方式,渐渐产生决策树模型结构。ID3是著名的决策树算法,以信息论为基础,企图最小化变量间比较的次数,其基本策略是选择具有最高信息增量的变量为分割变量,ID3算法必须将所有变量转化为类别变量
ID3算法的步骤:
模型由代表训练样本开始,样本属于同一类别,节点成为树叶,并使用该类别的标签
如果样本不属于同一个类别,算法使用信息增量选择将样本最佳分类的变量
算法使用的过程,逐次形成每个分割的样本决策树,如果一个变量出现在一个节点上,就不必在后续分割时考虑该变数
当给定节点的所有样本属于同一类别,或没有剩余变量可以进一步分割样本,此时分割的动作就可以停止。
分类算法在大数据中的应用
分类在量化投资中是一种十分实用的技术。在股票投资中,将股票分为三类:涨、持平和跌。在进行选股时,可以根据数据训练一个分类器,再利用该分类器,实现对近期或者未来一段时间的股票进行预测。
数据的聚类方法
常见的聚类方法包括k-means、层次聚类、神经网络、模糊C-均值聚类、高斯混合聚类
k-means
划分的基本思想是给定一个有N个元组或者记录的数据集,分裂法将构造K个分组,每一个分组就代表一个聚类。算法步骤:
从n个数据对象中任意选择k个对象作为初始聚类中心
循环3到4步骤,直到每个聚类不再发生变化
根据每个聚类对象的均值,计算每个对象与中心的距离,并根据最小距离重新对相应对象进行划分。
重新计算每个聚类的均值,直到聚类中心不再变化。
层次聚类
层次聚类算法是通过将数据组织为若干组并形成一个相应的树来进行聚类的。两种常用的层次聚类算法是凝聚的层级聚类和分裂的层次聚类。
凝聚的层级聚类算法步骤:
将D中每个样本点当做其类族
重复
找到分属于两个不同类族,且距离最近的样本点对
将两个类族合并
直到类族数=K
分裂的层次聚类算法步骤:
将D中所有样本点归并成类聚
重复
在同类族中找到距离最远的样本点对
以该样本点对为代表,将原类族中的样本点重新分属到新类族
直到类族数=K
神经网络聚类
神经网络在聚类方面表现的特征与分类相似,对数据适应性强,对噪声数据敏感。神经网络的输入具有连续性,但聚类结果往往是分类数据类型。
模糊C-均值聚类
模糊C均值聚类是用隶属度确定每个数据点属于某个聚类的程度的一种聚类算法。具体步骤如下:
确定类的个数C,幂指数M>1和初始隶属度矩阵,通常的做法是取[0,1]上的均值分布随机数来确定初始隶属度矩阵。令l=1表示第1步迭代。
通过侠士计算第L步的聚类中心
修正隶属度矩阵,计算目标函数值
对于给定的隶属度种植容限,当时,停止迭代,否则l=l+1,然后转到步骤2)。
高斯混合聚类
高斯混合聚类方法和K-means相似,区别在于高斯混合聚类引入了概率。高斯混合聚类学习的过程就是训练出几个概率分布,所谓混合高斯模型就是对样本的概率密度分布进行估计,而估计的模型是几个高斯模型加权之和。每个高斯模型就代表一个类,对样本的数据分别在几个高斯模型上进行投影,就分别得到了各个类上的概率。我们选取概率最大的作为判别结果。
聚类方法在大数据中的应用
聚类方法在量化投资中的主要作用是对投资对象进行聚类,然后根据聚类的结果评估每个类别的盈利能力,选择盈利强的类别的对象进行投资。
数据的预测方法
常见的预测方法
这里对灰色预测法和马尔科夫法进行介绍
灰色预测
灰色预测是以灰色模型为基础,在诸多模型中,以灰色系统中单序列一阶线性微分方程模型GM(1,1)最常用。
GM(1,1)模型:
原始数据累加以便弱化随机序列的波动性和随机性,得到新数据序列:
对建立的一阶线性微分方程,即:
对累加生成数据作均值生成B与常数项向量
用最小二乘法计算灰度参数
将灰度参数带入一阶线性微分方程并且求得
对函数表达式及进行离散并且将二者作差以便还原原序列,得到近似数据序列
对建立的灰色模型进行检验
利用模型进行预测
马尔科夫预测
马尔科夫预测具有马尔科夫性,预测时刻的状态治愈当前状态有关,与前期状态无关。马尔科夫预测的步骤如下:
根据数据表,写出模型的一步转移概率矩阵
紧接着构造出任意K步转移矩阵
最后根据模型求解
预测方法在大数据中的应用
在股票的走势分析中,经常用马尔科夫性来进行股票走势的预测。
数据的诊断方法
常用的数据的诊断方法包括基于统计的离群点诊断、基于距离的离群点诊断、基于密度的离群点诊断和基于聚类的离群点诊断。
基于统计的离群点诊断
基于统计的离群点诊断的基本思想:符合正态总体分布的对象出现在分布尾部的机会很少。其算法如下:
求出样本均值和样本标准差S。根据给定的显著水平和样本容量n,查表求出
计算,找出,使得
若有,则认为无异常数据,否则,将之剔除。
基于距离的离群点诊断
某个对象远离大部分其他对象,则该对象是离群的。基于距离方法的两种不同策略:第一种策略采用给定邻域半径,依据点的邻域中包含的对象多少来判定离群点;第二种策略是利用K-最近邻距离的大小来判定离群。离群因子的定义:
基于密度的离群点诊断
探测局部密度,通过不同的密度估计策略来检测离群点。一种常用的定义密度的方法是,定义密度为k个最近邻的平均距离的倒数
具体的基于密度的离群点的步骤如下:
{k是最近邻个数}
For all 对象 x do
确定x的k-最近邻N(x,k)
使用x的最近邻(即N(x,k)中的对象),确定x的密度density(x,k)
End for
For all 对象 x do
确定x的相对密度relative density(x,k),并且赋值给LOF(X,K)
End for
对LOF(X,K)降序排序,确定离群点得分高的若干对象
基于聚类的离群点诊断
聚类分析是用来发现数据集中强相关的对象组,而离群点诊断是发现不与其他对象组强相关的对象。基于聚类的离群点诊断步骤如下:
对数据集D进行采用一趟聚类算法进行聚类,得到聚类结果
计算数据集D中所有对象P的离群因子OF3(P),及其平均值Ave_OF和标准差Dev_OF,满足条件的的对象为离群点。
离群点诊断在大数据中的应用
离群点诊断的主要目的是发现异常,这种异常在股票投资中十分有用,所以离群点诊断在股票买卖时可以发挥重要的作用。
结束语
数据挖掘作为近年来十分流行的一门学科,在各个行业,尤其是金融、互联网方面发挥了巨大的作用。经过多年的时间证明,数据挖掘能够提高团队的生产率,产品的质量和产品的满意度。但是,由于数据挖掘还存在许多问题,今后还有很多工作值得进一步深入研究。例如,面向大规模多源异构数据的鲁棒特性的表达。
本文由职坐标整理并发布,希望对同学们有所帮助。了解更多详情请关注职坐标大数据云计算大数据采集频道!
喜欢 | 0
不喜欢 | 0
您输入的评论内容中包含违禁敏感词
我知道了

请输入正确的手机号码
请输入正确的验证码
您今天的短信下发次数太多了,明天再试试吧!
我们会在第一时间安排职业规划师联系您!
您也可以联系我们的职业规划师咨询:
版权所有 职坐标-一站式AI+学习就业服务平台 沪ICP备13042190号-4
上海海同信息科技有限公司 Copyright ©2015 www.zhizuobiao.com,All Rights Reserved.
沪公网安备 31011502005948号