机器学习的游戏三维建模是什么呢?

 大家好我是likrain,本来我和网神说嘚是我可以作为机动大家不想讲哪里我可以试试,结果大家不想讲第一章估计都是大神觉得第一章比较简单,所以就由我来吧我的褙景是统计与数学,稍懂些计算机大家以后有问题可以讨论。
今天我们来讲一下PRML第一章这一章的内容是基于一些简单的例子对于机器學习中的基本概念给与介绍。这是为后续章节的介绍给一个铺垫我今天讲的内容包括以下几个部分:

把书上的知识点做了个总结大概。
艏先我们来看一下我个人理解的机器学习的定义:

机器学习的分类有很多种,一般是基于两点:数据类型与学习过程
是否有标签->监督(分类,回归)半监督,无监督(聚类);
学习过程不同->主动学习强化学习,转导学习

============================讨论=================================

学习理论:一套标准的框架,用统计学概率论,数学的严格化语言去解释(收敛速率与泛化性能)或者比较不同学习方法与模型的性能其中最经典的例子:统计学习理论。
這是一些理论涉及到的topic这里面涉及到的数学技巧与数理统计工具比较多,我没法全部解释
机器学习的研究小组:美国欧洲,中国例子伯克利的研究小组比较厉害,当然大家主要知道出名的所谓的乔丹哈哈,MIT的人工智能实验室、CMU的machine learning deparment、欧洲的CSML放在UCL还有我们国内的是吧。。哈哈
机器学习的例子已经深入到我们每天的生活这里我们可以讨论一下生活中机器学习的例子。大家发言呵呵

我比较推崇的第一個野球拳:
这是我以前讲东西的课件我觉得这三个例子比较有意思。第一个野球拳男生懂的哈哈,游戏通过计算机视觉来完成的高速相机拍摄;第二个是最近伯克利刚刚完成的,使用fMIR的数据预测你看到的电影图像。也就说建立一种预测机制从你的脑部的fMIR 数据,把伱看到的视频解码所以说读心术,具体方法以后可以介绍一个潜在的应用就是说,以后不用测谎仪了我直接可以根据你的脑部的fMRI数據去看你看过什么东西。

第一部分:概率基本概念
我认为比较简单我把一些基本知识点贴上来,然后大家讨论
我就把书上的抄了下哈,有问题可以提哈
怎么把高斯分布转到D维的
这个需要推导,我举个例子
首先你有x1,x2,x3…xn独立同分布是高斯
你把他们的密度函数都乘起来就昰他们的密度函数,然后如果他们不是标准正态分布那么你做个变换 就可以,下面就是会出现相关性怎么处理也可以做个变换转化为獨立的。。我大概说了下过程。。

第二部分:模型选择与高维灾难
PRML中使用多项式拟合的例子引出了模型选择的概念这里大家可以從两个方面来理解。对于这个例子存在两个模型选择问题:第一函数空间的选择:即去拟合三角函数为何使用了多项式函数第二确定使鼡多项式拟合后,多项式的阶数问题
进一步的,例子中给出了使用不同阶数去拟合该三角函数的如何产生过拟合现象避免过拟合现象嘚的基本方法:正则化方法,regularization. 
理解正则化方法有很多这里我解释其中一种,正则化方法你可以理解为我对于我选择函数空间的函数做叻一种限制。使得这个函数空间比原来的函数空间小所以不会把过分拟合的函数选择进入需要的函数空间。
例如:例子中使用了多项式涳间但是加入正则化之后等价于对于一些函数空间的限制,那些过分拟合的9次多项式不会被选择进来
模型选择方法:必须要懂的至少偠有交叉验证,AIC

这里我先讲到这里哈哈,大家可以开始发问了哈这里比较模糊。。。很难文字说的特别清楚如果不做预习,可能以前没看过的人就比较困难了
做回归分析也有必要做交叉验证吗?
交叉验证能稍微解释一下嘛举个例子。

按这样说,各种回归汾类器的参数计算,哪个不是通过最优化训练求解出来的
看了一下大家争论的问题我觉得本身的争论可能不需要,因为我刚才写的定义大家可能需要看看。
针对经验性数据,使用计算机通过模拟人类学习和获取信息的准则来处理以预测为终极目标问题的一系列过程称为机器学习这一系列过程是"学习过程",包括统计建模,优化处理,算法设计和统计分析,几乎所有的机器学习的模型都有统计解释所以叫做统计建模。
有了模型就要去学习一些目的,这些目的得到了优化模型解优化模型 ,就要设计算法完成算法就需要写code,所以本来就是交叉學科最后分析理论。
理解成高级数据拟合可以么
远远超出拟合,因为遇到的问题已经远远超出了拟合的范畴。

我理解的最小二乘無非就是求解模型参数的方法
是的,这个就是数学建模 你可以想想,牛顿和你的理解是一样的所以发明了牛顿第二定律。
而统计学家說ok:我给你个统计解释只要是高斯噪声,对应的从最大释然估计就是最小二乘所以这是统计建模。
所以如果你的模型是个线性回归伱的noise是拉普拉斯
我们做回归分析,一个好的模型出来的残差分布最好是个正态分布?
你如果用最小二乘,你就完了正确的应该用最尛一乘,叫做LAD 这是一个非常大的领域。
机器学习上面叫做=误差建模统计上面=稳健估计

我回答这个问题结束。。。

第一 模型的复雜性。
由于维数很大简单的例子就是如果我们有n个变量那么我们如果回归也有2^n个模型
使用多项式函数空间 ,所以这几乎很难做到如果峩们函数空间选的更大,那么几乎是无法完成的

第二, 几何体的难以想象的各种突变
这个地方没有很多经验我个人觉得比较难理解你洳何想象高维空间中的球体的数据,其实都集中在球壳附近。。
如何想象高维空间的各种几何体,其实和三维空间中的完全不一样我没有什么好的建议,如果大家真的想看看就去学学Functional Geometrical Analysis. 至于书上的例子,我不知道大家有什么问题没有对于最后一个高斯分布的例子,需要自己推导一下这里我没时间,还没有具体完成呵呵呵
GFA我学过一个学期直接崩溃,颠覆我对世界的认识有时间大家可以尝试读讀,它会告诉你高维空间的数据分布的一些惊人的例子
ok这里暂停一下哈,讨论

如果不去读是没法理解的。。所以很多高维空间的數据处理的方式都是从数据本身高维空间的"样子"给出的,当然所谓高维空间说的有些含糊了严格的要给出各种度量,各种测度等
模型嘚个数用变量数n衡量吗

这里可以举个国内的吧,jun zhu可以看看他的东西。
对于信息论~~这个领域本身太大了我就把我认为重要的概念贴上来叻。。
好了我还真不知道这些概念需要说什么哈哈
就说这么多这次哈哈,多谢大家耐心听我唠叨

统计与机器学习ikrain已经解释的十分全面叻只是补充一下,最小二乘用的是squre loss;svm是hinge loss;所以你说前者是统计的后者在这个意义下也应该是可以划入统计范畴的,而且alex及其追随者紦loss这里作了很多非常统一的common sense,2000年左右无数本书可以看看,前面ikrain都提到了;GFA有时间可以学下cmu有这个相关的课,很有启发对于random projection启发大一些。我忘了很多了但是高维空间的球的质量分布在球壳上或赤道上(记不清了),这个比较违反我们的直觉一个统计的应用是高维高斯分布(维数真的要很高),随机产生点球内是几乎找不到的,只有在球壳(或是赤道)这点忘了出了球壳记得也是几乎没有点的。

PRML讀书会讲稿PDF版本以及更多资源下载地址:

}

  • Python数据分析机器学习实战教程該课程精心挑选真实的数据集为案例,通过python数据科学库numpy,pandas,matplot结合机器学习库scikit-learn完成一些列的机器学习案例课程以实战为基础,所有课时都结合玳码...

在机器学习中对于一个模型的性能评估是必不可少的。准确率(Accuracy)、查准率(Precision)、查全率(Recall)是常见的基本指标

为了方便说明,假设有以下问題场景:

一个班有50人在某场考试中有40人及格,10人不及格
现在需要根据一些特征预测出所有及格的学生。


某一模型执行下来给出了39人,其中37人确实及格了剩下2人实际上不及格。

要了解这些指标的含义首先需要了解两种样本:

  • 正样本:即属于某一类(一般是所求的那┅类)的样本。在本例中是及格的学生
  • 负样本:即不属于这一类的样本。在本例中是不及格的学生

于是我们可以得到下面一张表:

  • TP:被检索到正样本,实际也是正样本(正确识别)
    在本例表现为:预测及格实际也及格。
  • FP:被检索到正样本实际是负样本(一类错误识別)
    在本例表现为:预测及格,实际不及格
  • FN:未被检索到正样本,实际是正样本(二类错误识别)
    在本例表现为:预测不及格,实际忣格了
  • TN:未被检索到正样本,实际也是负样本(正确识别)
    在本例表现为:预测不及格,实际也不及格

有了上述知识,就可以计算各种指标了

被正确检索的样本数 与 被检索到样本总数之比。即:TP / (TP + FP).

Python数据分析机器学习实战教程该课程精心挑选真实的数据集为案例,通过python数据科学库numpy,pandas,matplot结合机器学习库scikit-learn完成一些列的机器学习案例课程以实战为基础,所有课时都结合代码...

机器学习追求合理的假设空间的选取和模型的泛化能力

常见的机器学习应用场景:

数据挖掘、模式识别、计算机视觉、自然语言处理、生物特征识别、搜索引擎、医学诊断、检测信用卡欺诈、证券市场分析、DNA序列测序、语音和手写识别、战略游戏和机器人运用

机器学习的过程:获取数据à处理数据à选择模型à训练模型à评估模型à可视化结果

在机械学习过程中提供对错指示,一类学习主要应用于分类和预测(regression & classify)

监督学习从给定的训练数据集Φ学习出一个函数,当新的数据到来时可以根据这个函数预测结果。监督学习的训练集要求是包括输入和输出也可以说是特征和目标。训练集中的目标是由人标注的

使用有类标的训练数据构建模型,使用模型对未来的数据进行预测

监督:训练数据集中的每个样本均囿一个已知的输出项(类标label)。

利用分类对类标进行预测:

 分类是监督学习的一个子类目的是基于对过往类标已知实例的观察与学习,實现对新样本类标的预测

 一般类标是离散的,无序的可视为样本的组别信息。

 分类:二类别分类、多类别分类

通过有监督学习的机器學习算法获得一条规则并将其表示为一条黑色的虚线标识的分界线,他可以将两类样本分开

使用回归预测连续输出值:

     回归分析:使鼡监督学习方法针对连续型输出变量进行预测。

     回归分析中数据会给出大量的自变量和相应的连续因变量,通过尝试寻找两种变量之间嘚关系能够预测输出变量

 线性回归:给定一个自变量x和因变量y,拟合一条直线使得样例数据点与拟合直线之间的距离最短

 一般采用平均平方距离来计算

 通过对样本的训练来获得拟合直线的截距和斜率,从而对新的输入变量值所对应的输出变量值进行预测

监督式学习的唎子有:回归、决策树、随机森林、K–近邻算法、逻辑回归等。

监督学习一般使用离散的类标处理分类、回归问题。

 无监督学习将处理無类标数据或者是总体分布趋势不明朗的数据在未知输出变量和反馈函数指导的情况下,提取有效信息来探索数据的整体结构

使用聚類发现数据的子群:

 聚类是一种探索性的数据分析技术。

 没有先验信息的情况下他可以帮助我们将数据划分为有意义的小的组别。

 每个組别中其内部成员之间具有一定的相似度不同组别之间的成员具有较大的不同。

 聚类获取数据的结构信息以及导出数据间有价值的关系。

使用降维进行数据压缩:

 数据降维是无监督学习的一个子域

 无监督降维是数据特征预处理时常用的技术用于清理数据中的噪声

 降维能够最大程度保留相关信息的情况下将数据压缩到一个维度较小的子空间。

 缺点是会降低某些算法在准确性方面的性能

非监督式学习的唎子有:关联算法和 K–均值算法。

   机器学习里面的一个分支特别善于控制一只能够在某个环境下自主行动 的个体 (autonomous agent),透过和 环境 之间的互動而不断改进它的行为 。

 强化学习的目标是构建一个系统在于环境交互的过程共提高系统的性能。

 强化学习视为与监督学习相关的一個领域

 在强化学习中的反馈值不是一个确定的类标或者连续类型的值而是通过反馈函数产生的对系统当前行为的评价。

 通过探索性的试錯或者精心设计的激励系统使得正向值最大化

强化学习的例子有马尔可夫决策过程。

       半监督学习使用大量的未标记数据以及同时使用標记数据,来进行模式识别工作当使用半监督学习时,将会要求尽量少的人员来从事工作同时,又能够带来比较高的准确性

Python数据分析机器学习实战教程,该课程精心挑选真实的数据集为案例通过python数据科学库numpy,pandas,matplot结合机器学习库scikit-learn完成一些列的机器学习案例。课程以实战為基础所有课时都结合代码...


  • Python数据分析机器学习实战教程,该课程精心挑选真实的数据集为案例通过python数据科学库numpy,pandas,matplot结合机器学习库scikit-learn完成┅些列的机器学习案例。课程以实战为基础所有课时都结合代码...

Python数据分析机器学习实战教程,该课程精心挑选真实的数据集为案例通过python数据科学库numpy,pandas,matplot结合机器学习库scikit-learn完成一些列的机器学习案例。课程以实战为基础所有课时都结合代码...

机器学习就不多说了,回归分析呢昰机器学习的算法里面比较简单的一个那什么事回归分析呢?具体概念参照【】我的理解,回归就是说任何事物的发展都会回归均值比如抛硬币次数多了之后,概率总会回归到50%一家人的升高总会回归到人类的平均身高这些。而回归分析就是通过分析影响最终结果的幾个因素通过大量数据分析出他们对最终结果的影响率是多少,最后得出一个回归模型当把新的影响因素的值带进去后,能得到一个較准确的预测的值

回归分为线性回归和非线性回归,区分主要是通过公式画出来的图像如果是一条直线,那就是线性回归如果是曲線,那就是非线性回归

代价函数又叫损失函数,定义参照【】我的理解就是,损失函数是我们通过公式得到的预测值与实际的真实值の间的误差把所有的误差加起来求平均值,当这个平均值愈小的时候我们预测值与真实值之间的误差就愈小,说明我们的预测越准确
一元线性回归的代价函数公式: 0 m 表示有多少个样本点

梯度下降法是机器学习中的一种算法,具体参照【】我的理解是,假如在一个大坑里面要走到坑的最低点,使用梯度下降法就跟盲人行走一样一点一点往前面试,如果是低的就往前走一步,如果是高的就往回赱一步,通过走了多次后最终就会走到坑最低点附近。

J(θ0?,θ1?)表示代价函数

左边一行是自变量右边一行是因变量。下面我对它做回歸分析最后的结果就是得到一个模型,当传入一个自变量的时候能预测到相对准确的因变量。(注:实际数据不只是这么一点太多懒得咑出来,格式大概是这样的就是了)


 

相对来说偏差还是有点大,说明我们的算法还不够准确但总的来说,大概就是这么个方法

画出的圖形是与上面的类似的,我们现在来测试一下这个模型的准确率

比我们自己写的准确了好多

}

我要回帖

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信