决策树分类和预测算法的原理及实现

19 篇文章 0 订阅
订阅专栏

决策树是一种通过对历史数据进行测算实现对新数据进行分类和预测的算法。简单来说决策树算法就是通过对已有明确结果的历史数据进行分析,寻找数据中的特征。并以此为依据对新产生的数据结果进行预测。

决策树由3个主要部分组成,分别为决策节点,分支,和叶子节点。其中决策树最顶部的决策节点是根决策节点。每一个分支都有一个新的决策节点。决策节点下面是叶子节点。每个决策节点表示一个待分类的数据类别或属性,每个叶子节点表示一种结果。整个决策的过程从根决策节点开始,从上到下。根据数据的分类在每个决策节点给出不同的结果。

决策树结构图2

构造决策树是一个复杂的工作。下面我们将介绍决策树中的ID3算法和“信息熵”的概念。并手工创建一个简单的决策树,用以说明整个构建的过程和思路。

ID3算法

构造决策树的方法有很多种,ID3是其中的一种算法。ID3算法最早是由罗斯昆(J. Ross Quinlan)1975年在悉尼大学提出的一种分类预测算法,核心是“信息熵”。ID3算法认为“互信息”高的属性是好属性,通过计算历史数据中每个类别或属性的“信息熵”获得“互信息”,并选择“互信息”最高的类别或属性作为决策树中的决策节点,将类别或属性的值做为分支继续进行分裂。不断重复这个过程,直到生成一棵完整的决策树。

信息熵的含义及分类

信息熵是信息论中的一个重要的指标,是由香农在1948年提出的。香农借用了热力学中熵的概念来描述信息的不确定性。因此信息学中的熵和热力学的熵是有联系的。根据Charles H. Bennett对Maxwell’s Demon的重新解释,对信息的销毁是一个不可逆过程,所以销毁信息是符合热力学第二定律的。而产生信息,则是为系统引入负(热力学)熵的过程。所以信息熵的符号与热力学熵应该是相反的

简单的说信息熵是衡量信息的指标,更确切的说是衡量信息的不确定性或混乱程度的指标。信息的不确定性越大,熵越大。决定信息的不确定性或者说复杂程度主要因素是概率。决策树中使用的与熵有关的概念有三个:信息熵,条件熵和互信息。下面分别来介绍这三个概念的含义和计算方法。

信息熵

信息熵是用来衡量一元模型中信息不确定性的指标。信息的不确定性越大,熵的值也就越大。而影响熵值的主要因素是概率。这里所说的一元模型就是指单一事件,而不确定性是一个事件出现不同结果的可能性。例如抛硬币,可能出现的结果有两个,分别是正面和反面。而每次抛硬币的结果是一个非常不确定的信息。因为根据我们的经验或者历史数据来看,一个均匀的硬币出现正面和反面的概率相等,都是50%。因此很难判断下一次出现的是正面还是反面。这时抛硬币这个事件的熵值也很高。而如果历史数据告诉我们这枚硬币在过去的100次试验中99次都是正面,也就是说这枚硬币的质量不均匀,出现正面结果的概率很高。那么我们就很容易判断下一次的结果了。这时的熵值很低,只有0.08。

熵1

我们把抛硬币这个事件看做一个随机变量S,它可能的取值有2种,分别是正面x1和反面x2。每一种取值的概率分别为P1和P2。我们要获得随机变量S的取值结果至少要进行1次试验,试验次数与随机变量S可能的取值数量(2种)的对数函数Log有联系。Log2=1(以2为底)。因此熵的计算公式是:

1

在抛硬币的例子中,我们借助一元模型自身的概率,也就是前100次的历史数据来消除了判断结果的不确定性。而对于很多现实生活中的问题,则无法仅仅通过自身概率来判断。例如:对于天气情况,我们无法像抛硬币一样通过晴天,雨天和雾霾在历史数据中出现的概率来判断明天的天气,因为天气的种类很多,并且影响天气的因素也有很多。同理,对于网站的用户我们也无法通过他们的历史购买频率来判断这个用户在下一次访问时是否会完成购买。因为用户是的购买行为存在着不确定性,要消除这些不确定性需要更多的信息。例如用户历史行为中的广告创意,促销活动,商品价格,配送时间等信息。因此这里我们不能只借助一元模型来进行判断和预测了,需要获得更多的信息并通过二元模型或更高阶的模型了解用户的购买行为与其他因素间的关系来消除不确定性。衡量这种关系的指标叫做条件熵。

条件熵

条件熵是通过获得更多的信息来消除一元模型中的不确定性。也就是通过二元或多元模型来降低一元模型的熵。我们知道的信息越多,信息的不确定性越小。例如,只使用一元模型时我们无法根据用户历史数据中的购买频率来判断这个用户本次是否也会购买。因为不确定性太大。在加入了促销活动,商品价格等信息后,在二元模型中我们可以发现用户购买与促销活动,或者商品价格变化之间的联系。并通过购买与促销活动一起出现的概率,和不同促销活动时购买出现的概率来降低不确定性。

互信息1

计算条件熵时使用到了两种概率,分别是购买与促销活动的联合概率P(c),和不同促销活动出现时购买也出现的条件概率E(c)。以下是条件熵E(T,X)的计算公式。条件熵的值越低说明二元模型的不确定性越小。

2

互信息

互信息是用来衡量信息之间相关性的指标。当两个信息完全相关时,互信息为1,不相关时为0。在前面的例子中用户购买与促销活动这两个信息间的相关性究竟有多高,我们可以通过互信息这个指标来度量。具体的计算方法就熵与条件熵之间的差。用户购买的熵E(T)减去促销活动出现时用户购买的熵E(T,X)。以下为计算公式:

3

熵,条件熵和互信息是构建决策树的三个关键的指标。下面我们将通过一个 维基百科中的实例说明创建决策树的过程。

构建决策树实例

这是一家高尔夫球俱乐部的历史数据,里面记录了不同天气状况用户来打高尔夫球的历史记录。我们要做的是通过构建决策树来预测用户是否会来打高尔夫球。这里用户是否来打球是一个一元模型,具有不确定性,熵值很高。我们无法仅通过Yes和No的频率来判断用户明天是否会来。因此,需要借助天气的信息来减少不确定性。下面分别记录到了4种天气情况,我们通过计算条件熵和互信息来开始构建决策树的第一步:构建根决策点。

原始数据表

构建根决策节点

构建根决策点的方法就是寻找4种天气情况中与打高尔夫球相关性最高的一个。首先我们来看Play Golf这个一元模型的熵,来看看这件事的不确定性有多高.

一元模型的熵

在一元模型中,仅通过历史数据的概率来看预测Play Golf是一件非常不确定的事情,在14条历史数据中,打球的概率为64%,不打球的概率为36%。熵值达到了0.940。这与之前抛硬币的例子很像。在无法改变历史数据的概率时,我们需要借助更多的信息来降低不确定性。也就是计算条件熵。

target

1

二元模型条件熵

计算二元模型的条件熵需要知道Play Golf与4种天气情况一起出现的联合概率,以及在不同天气情况下Play Golf出现的条件概率。下面我们分别来计算这两类概率。

联合概率

P

以上是经过分别计算后4种天气情况与Play Golf同时出现的联合概率值。

条件概率

E1

同时我们也分别计算出了4种天气情况下,不同取值时Play Golf的条件概率值。并通过联合概率与条件概率求得4种天气情况与Play Golf间的条件熵。

2 条件熵

互信息

在已知Play Golf的一元模型熵和不同天气条件下的二元模型熵后。我们就可以通过互信息来度量哪种天气与Play Golf的相关性最高了。

3

通过互信息的值可以发现,4种天气中Outlook的值最大。说明Outlook与Play Golf的相关性最高。因此我们选择Outlook作为决策树的根节点来构建决策树。

Gain

构建根节点

在整个决策树中,Outlook因为与Play Golf的相关性最高,所以作为决策树的根节点。以Outlook作为根节点后,决策树出现了三个分支,分别是Outlook的三个不同的取值Sunny,Overcast和Rainy。其中Overcast所对应的Play Golf都是Yes,因此这个分支的叶子节点为Yes。(后面构建分支决策节点时会看到)另外两个分支我们将使用和前面一样的方法,通过计算熵,条件熵和互信息来挑选下一个分支的决策节点。

level outlook1

构建分支决策节点

下面我们继续构建Sunny,Overcast和Rainy这三个分支的决策节点,首先来看下Overcast节点,这个节点只有一种结果,因此无需在继续分裂。

Outlook节点Overcast分支

在Outlook根节点下的Overcast分支中,Play Golf只有一种结果Yes,因此Overcast分支停止分裂。叶子节点的值为Yes。

table

Outlook节点Sunny分支

在Outlook根节点下的Sunny分支中,单独形成了另一个表。此时由于Outlook以及作为决策树的根节点了,因此所需考虑的天气情况为3种,我们继续对这个表确定决策节点。从3种天气情况中找出Sunny分支下的决策节点。方法及步骤和前面一致,计算熵,条件熵和互信息,并以互信息最大的作为Sunny分支的决策节点进行分裂。

table

首先计算Play Golf的一元模型熵,可以看到在Sunny这一分支中根据Play Golf自身的历史数据 No和Yes的概率分布为40%和60%,熵值为0.971。具有极高的不确定性。因此我们继续计算条件熵。

target

以下是三种天气情况分别与Play Golf的联合概率和条件概率计算结果。这里可以看到Wind有些与众不同,Wind为FALSE时都为Play Golf的值都为Yes。

P&E

通过计算获得三种天气情况与Play Golf的条件概率,其中Wind的值为0。

条件熵

互信息

计算三种天气情况与Play Golf的互信息值,也就是相关性。值越大相关性越高。三种天气中Wind的互信息值最高,为0.971。说明Sunny分支下Wind和Play Golf的相关性最高。因此选择Wind作为Sunny分支的决策节点。

Gain

构建分支决策节点(Windy)

在Outlook根节点的Sunny分支下,经过计算互信息的值Wind与Play Golf相关性最高,因此Wind作为Sunny的决策节点。Wind有两个分支,分别为FALSE和TRUE。当Wind为FALSE时,Play Golf的结果为Yes。Wind为TRUE时结果为No。

level windy

Outlook节点Rainy分支

Outlook根节点还有一个分支是Rainy。以下是Outlook下Rainy的分支数据表。我们从这个表中挑选出Rainy分支下的决策节点。由于Outlook以及作为决策树的根节点,Wind成为了Sunny分支下的决策节点,因此我们需要考虑的天气情况就只剩下两种Temp和Humidity。

table1

首先计算在Rainy分支下Play Golf的熵。从历史数据看No和Yes的概率为60%和40%,熵为0.971,一元模型依靠自身概率的不确定性较高。加入两个天气情况的信息来计算条件熵。

target

通过计算两种天气情况与Play Golf的联合概率和条件概率发现,情况与Sunny分支类似。Humidity应该与Play Golf的相关性较高。

P&E1

通过计算获得Temp和Humidity与Play Golf的条件熵,其中Humidity与Play Golf的条件熵为0。

条件熵

互信息

Play Golf熵减去两种天气与Play Golf的条件熵获得互信息的值。Humidity值最大,说明相关性最高。因此Humidity被选为Rainy分支的决策节点。

Gain1

构建分支决策节点(Humidity)

在Outlook的Rainy分支下,Humidity作为决策节点有两个分支,分别为High和Normal。所有High分支都对应Play Golf的No,所有Normal分支都对应了Play Golf的Yes。因此停止继续分裂。

level humidty

到此为止我们通过Play Golf与天气情况的历史数据构建了决策树。下面我们在从较高的维度来看下整个决策树与历史数据表间的关系。

数据表与决策树

通过将决策树中每个决策点还原为原始数据表可以发现,每一个决策点都对应了一张数据表。从根决策节点开始,我们通过计算熵寻找与Play Golf最相关的天气信息,来建立决策点及分支,并反复迭代这一过程。直到最终构建完整的决策树。

决策树(表)

决策树(图)

使用决策树进行预测

文章开始的时候我们说过,决策树是用来进行分类和预测的。具体过程如下。当我们构建好决策树后,当有新的信息发送时,我们利用已有的决策树逻辑对新的信息结构进行判断。当信息的内容与决策树一致时,就进入下一分支进行判断,并通过叶子节点获得分类的结果。例如,当新的一天开始时,我们就可以通过4个天气特征来判断用户是否会来打高尔夫球。以下是具体预测流程的示意图,首先寻找新信息中的根决策节点Outlook,根据Outlook的取值进入到Sunny分支,在Sunny分支中继续判断下一决策点Windy的取值,新的信息中Windy的取值为FALSE,根据决策树中的逻辑返回Yes。因此在新信息中通过对天气情况的判断预测用户会来打高尔夫球。

应用决策树

通过随机森林提高准确率

Random Forest

决策树是建立在已知的历史数据及概率上的,一课决策树的预测可能会不太准确,提高准确率最好的方法是构建随机森林(Random Forest)。所谓随机森林就是通过随机抽样的方式从历史数据表中生成多张抽样的历史表,对每个抽样的历史表生成一棵决策树。由于每次生成抽样表后数据都会放回到总表中,因此每一棵决策树之间都是独立的没有关联。将多颗决策树组成一个随机森林。当有一条新的数据产生时,让森林里的每一颗决策树分别进行判断,以投票最多的结果作为最终的判断结果。以此来提高正确的概率。

—【所有文章及图片版权归 蓝鲸(王彦平)所有。欢迎转载,但请注明转自“ 蓝鲸网站分析博客”。】—



Read more:  http://bluewhale.cc/2016-03-20/decision-tree.html#ixzz45sHhOL6u
决策树及对应算法原理1
08-03
在实际应用中,决策树算法因其直观、易于理解和解释而受到欢迎。但是,它们也可能面临过拟合的风险,因此适当的特征选择和剪枝策略对于构建准确且泛化能力强的决策树模型至关重要。同时,决策树可以作为集成学习方法...
预测算法用java实现
Knowledge&&Imagination
09-11 4503
最近事情比较多,所以很久没有来更新日志了,关于预测,有太多的说法,意义也重大。由其是关乎我们切身利益的股票走势,彩票等等,所以一个预测系统有很大的经济价值。我们完全可以此为切入点进行创业。 常见的预测算法有1.简易平均法,包括几何平均法、算术平均法及加权平均法;2.移动平均法,包括简单移动平均法和加权移动平均法;3,指数平滑法,包括一次指数平滑法和二次指数平滑法,三次指数平滑法;...
时间序列预测算法总结
julyclj55555的博客
10-18 8万+
时间序列算法 time series data mining 主要包括decompose(分析数据的各个成分,例如趋势,周期性),prediction(预测未来的值),classification(对有序数据序列的feature提取与分类),clustering(相似数列聚类)等。 时间序列的预测 常用的思路: 1、计算平均值 2、exponential smoothing指数衰减 ...
决策树(一):决策树算法原理
最新发布
悟兰因的博客
09-11 1241
在上文的数据集中,各特征包括标签均为离散型数据(如,天气={晴天,阴天,雨天},风速={强,弱}、标签={是,否}),这些数据方便实现数据集的划分,但当存在连续型数据的特征时,就需要将连续型数据划分为多个区间,并将每个区间视为该特征的一个取值(新的离散值),再根据这一取值划分数据集。对于含有n个数据的特征,共有n-1个中位点供选择,事实上,中位点的选取标准与决策树构建标准相同,均是希望划分后的数据集不确定度得以降低,故仍可使用信息熵、基尼系数作为指标来选取中位点。,其中,k是特征X的取值类别个数。
常见的预测算法
qq_16032927的博客
03-09 4384
收集常见的预测算法
基本预测算法
Pbw_666的博客
09-02 7991
一:灰色预测算法G(1,1),可用于小样本时间序列预测。 首先,介绍相关基本概念。 白色系统:系统的相关信息全部已知。 黑色系统:系统全部信息未知。 灰色系统:处于黑色和白色系统的过渡阶段,只有部分信息已知。 算法流程:   (1)对数据进行处理和检验:计算数列的级比:前一项和后一项的比值。如果所有的级比都落在区间(e-2/(n+1),e2/(n+1))。则满足数据满足要求。如果不满足的话,可以进行平移变换,使得原数列中每一个数据加上常数c,至于c的值,以实验为准。   (2)当数据满足要求后,就可以建立G
预测算法简介
麦田里的守望者
01-06 5919
原文 0 A few more concept you need to know 0.1 什么是bagging和boosting|link bagging:Bagging是Bootstrap Aggregating的英文缩写,是指一种有放回采样 boosting:提升方法(Boosting),是一种可以用来减小监督式学习中偏差的机器学习算法。面对的问题是迈可·肯斯(Michael Kearns)提出的:一组“弱学习者”的集合能否生成一个“强学习者”?弱学习者一般是指一个分类器,它的结果只比随机分类好一点点;
文档决策树算法及Python实现
04-16
标题“文档决策树算法及Python实现”表明了本文档的主要内容是关于决策树算法的概念和原理,以及如何用Python语言来实现这一算法决策树是一种常用的机器学习算法,它通过一系列问题对数据进行分割,以识别出数据中...
基于java实现决策树之 ID3 算法
04-25
通过阅读和理解这些代码,你可以更好地掌握决策树的工作原理以及如何在实际项目中应用Java来解决分类问题。同时,要注意ID3算法的局限性,比如对连续特征的处理和对过拟合的敏感性,这可能导致在复杂数据集上表现不...
决策树分类算法研究综述.docx
05-29
本文将对决策树分类算法进行综述,探讨其基本原理、不同算法的特点以及存在的问题。 #### 决策树分类算法概述 决策树是一种用于分类和回归任务的常用机器学习方法。它通过自顶向下的方式,构建一棵由决策节点和叶...
python实现决策树分类算法
07-23
总的来说,Python的`scikit-learn`库使得实现决策树分类算法变得简单,通过理解其基本原理和使用方法,你可以快速上手并解决实际问题。在实践中,还可以结合交叉验证、特征选择和调参等技术来提升模型性能。
PBA.常用人工智能预测分析算法
u010025781的博客
10-19 3989
相同的数据型态,利用不同的方法分析,就可以解决不同的课题。例如目前已相当纯熟的人脸识别技术,在国防应用可以进行安保工作;企业可做员工门禁系统;可结合性别、年龄辨识让卖场进行市调分析,或结合追踪技术进行人流分析等。
常见的预测模型及算法
热门推荐
weixin_45720616的博客
05-01 16万+
如果得到一份数据集,任务是要预测出一系列的值,而在预测任务中,我们大多数都采用的是拟合的方法,这篇文字主要介绍三种预测方法时间序列分析,灰色预测模型,神经网络。 时间序列分析 时间序列也叫动态序列,数据是按时间和数值性成的序列。而时间序列分析有三种作用,大致可以描述为描述过去,分析规律,预测将来。接下来将会讲到三种模型(季节分解,指数平滑,ARIMA模型)。 一般情况下时间序列的数值变化规律有四种...
【数学建模竞赛】预测类赛题常用算法解析
caojunjia的博客
09-06 2603
灰色预测模型是一种利用少量的、不完全的信息,建立数学模型并进行预测的方法。该方法通过对系统行为特征的发展变化规律进行估计预测,同时也可以对行为特征的异常情况发生的时刻进行估计计算,并研究特定时间区间内事件的未来时间分布情况。灰色预测主要使用灰色系统理论中的GM(1,1)模型进行处理。该模型在工业、农业、商业等经济领域,以及环境、社会和军事等领域中都有广泛的应用。它可以根据已有的数据对未来的发展趋势进行预测分析,具有较高的精度和可靠性。
毕业设计 基于LSTM的预测算法
m0_76217654的博客
03-26 1238
今天学长向大家介绍LSTM基础基于LSTM的预测算法 - 股票预测 天气预测 房价预测🧿选题指导, 项目分享:见文末。
预测算法——指数平滑法
Nieson2012的专栏
07-21 15万+
指数平滑法是生产预测中常用的一种方法。也用于中短期经济发展趋势预测,所有预测方法中,指数平滑是用得最多的一种。指数平滑法是移动平均法中的一种,其特点在于给过去的观测值不一样的权重,即较近期观测值的权数比较远期观测值的权数要大。根据平滑次数不同,指数平滑法分为一次指数平滑法、二次指数平滑法和三次指数平滑法等。但它们的基本思想都是:预测值是以前观测值的加权和,且对不同的数据给予不同的权数,新数据给予较大的权数,旧数据给予较小的权数。
【数学建模预测算法大全】
qq_63903626的博客
04-28 1842
数学建模预测算法大全 线性回归 时间序列 非线性回归 机器学习
写文章

热门文章

  • Activemq消息确认机制 57822
  • oracle与mysql性能对比 45195
  • 决策树分类和预测算法的原理及实现 44313
  • maven管理本地jar包 28266
  • Rest风格的web服务开发-入门篇1 26102

分类专栏

  • 消息中间件 12篇
  • 架构模式 28篇
  • 接口层(webservice) 5篇
  • 测试技术 19篇
  • DB映射层 11篇
  • 业务层(spring/ejb) 2篇
  • 前端脚本(js/css) 22篇
  • 缓存层(memcached) 8篇
  • 控制层(struts/jsf)
  • 移动技术(andriod/ios) 7篇
  • 数据库技术 49篇
  • 云计算(hadoop/vMware) 12篇
  • 应用中间件(jboss) 13篇
  • 规则引擎中间件 1篇
  • 编程语言(java|php|c++) 15篇
  • 操作系统(linux) 19篇
  • 商务智能(Pentaho) 6篇
  • 服务总线(fuseESB) 2篇
  • 大数据(hadoop/spark) 16篇
  • 數據挖掘算法 19篇
  • 数据结构 1篇
  • 编程工具 15篇
  • 杂谈 3篇
  • 管理 5篇
  • 设计模式
  • dubbo 1篇
  • 分析模式
  • 并发技术 2篇
  • SEO 8篇
  • koala 2篇
  • 视频教程 1篇

最新评论

  • 朴素贝叶斯分类和预测算法的原理及实现

    芝华塔尼奥: 你好,图都挂了

  • 朴素贝叶斯分类和预测算法的原理及实现

    m0_68073258: 没有程序么?

  • oracle与mysql性能对比

    luohesheng: 这组数据又证明 oracle 数据中的垃圾 比mysql差远了、不过有人掏大价钱就是好!!

  • JPQL多实体查询

    晨诡枫: 你这排版,,,

  • CSS3的calc()使用

    官方哈哈: 大佬十年的工作经验了?

最新文章

  • PMP:规划过程组概述
  • 难以琢磨的项目收尾
  • 张邦鑫:组织文化 - 价值观打造方法论初步
2019年4篇
2018年1篇
2017年28篇
2016年74篇
2015年33篇
2014年81篇
2013年75篇
2011年2篇
2009年21篇

目录

目录

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

玻璃钢生产厂家大理市玻璃钢雕塑设计多少钱广陵玻璃钢花盆花器河北大型主题商场美陈销售绍兴园林玻璃钢雕塑价格徐州设计玻璃钢雕塑殷都玻璃钢雕塑马鞍山学校玻璃钢雕塑生产厂家银川玻璃钢动物雕塑制作香蕉玻璃钢雕塑订做玻璃钢雕塑制作安装合同玻璃钢桃子雕塑现货天津火烈鸟玻璃钢雕塑定做商场美陈有什么意思岑溪玻璃钢雕塑艺盛源 武汉玻璃钢雕塑玻璃钢字母休闲椅雕塑吉林抽象玻璃钢雕塑批发玻璃钢雕塑多少一平扬州商场主题美陈珠海卡通玻璃钢雕塑定制玻璃钢球雕塑属于装饰材料吗南京玻璃钢花盆怎么样九江玻璃钢花盆实用的户外玻璃钢雕塑玻璃钢花盆适合哪里用延边玻璃钢雕塑厂家报价商场美陈厂商镇江仿石材玻璃钢花盆甘肃玻璃钢布朗熊雕塑太原玻璃钢雕塑订做香港通过《维护国家安全条例》两大学生合买彩票中奖一人不认账让美丽中国“从细节出发”19岁小伙救下5人后溺亡 多方发声单亲妈妈陷入热恋 14岁儿子报警汪小菲曝离婚始末遭遇山火的松茸之乡雅江山火三名扑火人员牺牲系谣言何赛飞追着代拍打萧美琴窜访捷克 外交部回应卫健委通报少年有偿捐血浆16次猝死手机成瘾是影响睡眠质量重要因素高校汽车撞人致3死16伤 司机系学生315晚会后胖东来又人满为患了小米汽车超级工厂正式揭幕中国拥有亿元资产的家庭达13.3万户周杰伦一审败诉网易男孩8年未见母亲被告知被遗忘许家印被限制高消费饲养员用铁锨驱打大熊猫被辞退男子被猫抓伤后确诊“猫抓病”特朗普无法缴纳4.54亿美元罚金倪萍分享减重40斤方法联合利华开始重组张家界的山上“长”满了韩国人?张立群任西安交通大学校长杨倩无缘巴黎奥运“重生之我在北大当嫡校长”黑马情侣提车了专访95后高颜值猪保姆考生莫言也上北大硕士复试名单了网友洛杉矶偶遇贾玲专家建议不必谈骨泥色变沉迷短剧的人就像掉进了杀猪盘奥巴马现身唐宁街 黑色着装引猜测七年后宇文玥被薅头发捞上岸事业单位女子向同事水杯投不明物质凯特王妃现身!外出购物视频曝光河南驻马店通报西平中学跳楼事件王树国卸任西安交大校长 师生送别恒大被罚41.75亿到底怎么缴男子被流浪猫绊倒 投喂者赔24万房客欠租失踪 房东直发愁西双版纳热带植物园回应蜉蝣大爆发钱人豪晒法院裁定实锤抄袭外国人感慨凌晨的中国很安全胖东来员工每周单休无小长假白宫:哈马斯三号人物被杀测试车高速逃费 小米:已补缴老人退休金被冒领16年 金额超20万

玻璃钢生产厂家 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化