机器学习面试题精选连载(机器学习面试题精选连载)

本期继续连载数学基础的最后一部分:概率论,包括基础概念、似然、最大似然估计、概率分布衡量等。至此数学基础知识就介绍完啦,下次开始介绍具体的模型算法。

《机器学习基础知识手册》总结了更多的问题,欢迎访问github地址:https://github.com/5663015/machine-learning-handbook

概率论基础概念
  • 排列:,组合
  • 联合概率分布:多个变量的概率分布称为联合概率分布,表示和同时发生的概率。
  • 边缘概率:有时我们知道了一组变量的联合概率分布,还需要知道其中一个子集的概率分布,这种定义在子集上的概率分布称为边缘概率分布。对于离散型随机变量,根据下面的求和法来计算:
  • 条件概率:在给定和​发生的条件概率为:
  • 全概率公式:若事件​构成一个完备事件组且都有正概率,则对于任一个事件​x都有如下全概率公式:
  • 贝叶斯公式:贝叶斯公式是关于随机事件x和y的条件概率和边缘概率边缘概率的:

​是后验概率,​是条件概率或似然

  • 期望:对于N个离散随机变量X,其概率分布为​,X的期望定义为:

对于连续型随机变量X,概率密度函数为​,则期望为:

期望的性质:

  • 方差:随机变量X的方差用来定义它的概率分布的离散程度,定义为:

方差的性质:

概率和似然的区别与联系
  • 概率表达的是给定下样本随机向量的可能性,而似然表达了给定样本下参数为真实值的可能性。
  • 似然函数的形式是,其中"|"代表的是条件概率或者条件分布,因此似然函数是在"已知"样本随机变量的情况下,估计参数空间中的参数的值,因此似然函数是关于参数的函数,即给定样本随机变量后,估计能够使的取值成为的参数的可能性;而概率密度函数的定义形式是,即概率密度函数是在“已知”的情况下,去估计样本随机变量出现的可能性。
  • 似然函数可以看做是同一个函数形式下的不同视角。以函数​为例,该函数包含了两个变量,​和​,如果​已知为2,那么函数就是变量​的二次函数,即​ ;如果​已知为2,那么该函数就是变量b的幂函数,即​。同理,​和​也是两个不同的变量,如果​的分布是由已知的​刻画的,要求估计​的实际取值,那么​就是​的概率密度函数;如果已知随机变量​的取值,而要估计使​取到已知​的参数分布,就是似然函数的目的。
最大似然估计和最大后验概率的区别
  • 对于函数​有两种情况:
    • ​保持不变,​为变量,此时函数为概率函数,表示的是​出现的概率;
    • ​是变量,​是变量,此时为似然函数,表示不同​下​出现的概率
  • 最大似然估计尝试求解使得出现概率最高的。对于m次实验,由于每次都是独立的,我们可以将中每一次实验结果的似然函数全部乘起来,那么,使得该式取得最大值的,即为的最大似然估计:
  • 最大似然估计方法尝试求解来最大化似然函数,显然计算出来的参数完全取决于实验结果。最大后验概率能够很大程度解决这个问题。该方法尝试最大化后验概率:

是已知的,只需最大化分子部分。和最大化似然的唯一区别是增加了先验概率

KL散度、JS散度、Wasserstein距离
  • KL散度(不对称),也叫相对熵,衡量分布之间的差异性。KL散度并不是一个真正的距离,KL散度不满足对称性(即)和三角不等式(即不满足)

将KL散度展开可得,其中为熵,为交叉熵。KL散度实际上衡量的是两者之间的信息损失

  • KL散度的缺点:
    • 无界
    • 不对称
    • 若两个分布无重叠部分可能得到的结果无意义

关于分布不重合时的情况举例,对于如下的分布,P1在AB上均匀分布,P2在CD上均匀分布,控制着两个分布的距离远近。可得:

机器学习面试题精选连载(机器学习面试题精选连载)(1)

  • JS散度:解决了KL散度非对称的问题。KL散度和JS散度都有一个问题,即当两个分布和离得很远没有重叠时,KL散度是无意义的,JS散度是个常数。
  • Wasserstein距离

​是​分布组合起来的所有可能的联合分布的集合。对于每一个可能的联合分布​,可以从中采样​得到一个样本​x和y​,并计算出这对样本的聚类​,所以可以计算该联合分布​下,样本对距离的期望值​。在所有可能的联合分布中能够取到这个期望值的下界的就是wasserstein距离。直观上可以理解为在​这个路径规划下把土堆​挪到土堆​所需要的消耗。而Wasserstein距离就是在最优路径规划下的最小消耗,也叫做Earth-mover距离。

机器学习面试题精选连载(1)——模型基础

机器学习面试题精选连载(2)——微积分与线性代数

机器学习面试题精选连载(3)——线性代数

,

免责声明:本文仅代表文章作者的个人观点,与本站无关。其原创性、真实性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容文字的真实性、完整性和原创性本站不作任何保证或承诺,请读者仅作参考,并自行核实相关内容。