欢迎来到爱学习爱分享,在这里,你会找到许多有趣的技术 : )

[译] 机器学习中常用的几个概率不等式及证明

开发者头条 1765℃

点击上方“大数据与人工智能”,“星标或置顶公众号”

第一时间获取好内容

作者丨stephenDC

这是作者的第9篇文章


马尔科夫不等式、霍夫丁不等式和詹森不等式,是机器学习中经常遇到的几个概率不等式。本文对它们进行简单介绍,并加以证明,然后对它们在机器学中的应用进行举例说明。


主要内容包括:

马尔科夫不等式(Markov’s Inequality)


定义

证明

应用


a.用于估计一个概率的上界,比如假设你所在公司的人均工资是1万,那么随机选一个你司员工,其工资超过10万的概率,不会超过1/10。

b.用于其他概率不等式的证明,比如下面的霍夫丁不等式。


霍夫丁不等式(Hoeffding’s Inequality)

霍夫丁不等式的证明,除了要用到上面的马尔科夫不等式外,还要用到霍夫丁引理。因此,下面先介绍霍夫丁引理。


霍夫丁引理

定义

证明

霍夫丁不等式


定义

证明

应用


用于给出二分类问题的泛化误差上界

詹森不等式(Jensen’s Inequality)


定义

证明


凸函数定义 + 归纳法

应用

小结


1. 有些公式里很多变量没给出来具体意义啊?


如果你已学过相关内容,这里可以帮助你回顾一下;如果你还没学习相关内容,不必了解其中变量的具体含义,这里重在形式推导。

2. 咦,那么巧?概率统计中log和exp的函数形式如此常见(比如,对数似然函数、指数分布族),而-log(x)和exp(x)刚好都是凸函数,可以各种使用詹森不等式。


NO,是因为-log(x)是凸函数,我们才对似然函数求对数,因为exp(x)是凸函数,我们才更喜欢用指数分布族建模的。所以,那么多的偶遇其实都是注定,因为那个他(她)早在那里等你多时了!

参考文献:

李航 《统计学习方法》 第二版

-END-

转载请注明:爱学习爱分享 » [译] 机器学习中常用的几个概率不等式及证明

喜欢 (1)or分享 (0)