技术附录
A.NFL定理
定义A为算法,xin为样本内数据,xout为样本外数据(N个),c为目标函数,h为假设函数。在考虑所有c的情况下,算法A在样本外的误差期望如下所示。
![](https://epubservercos.yuewen.com/45CD09/17493186306223006/epubprivate/OEBPS/Images/37590_62_1.jpg?sign=1738962292-Ad5WLPEHZj5nq8jMZ4GlBdnXeh1G62Hl-0-4cc932151d932f4d0312c65cb5032aa4)
在第4行中,当c为均匀分布时,c和h的预测结果有一半不一致。那么c一共有2N个预测结果,一半就是2N-1。上述结果与算法A无关,可见“胡乱猜”的算法和高级算法的期望误差或者期望性能相同。
B.霍夫丁不等式
霍夫丁不等式(Hoeffding's Inequality)是根据切诺夫上界(Chernoff Bound)和霍夫丁引理(Hoeffding's Lemma)证明出来的,而切诺夫上界由马尔可夫不等式(Markov's Inequality)证明出来的。
它们的关系如右图所示。
![](https://epubservercos.yuewen.com/45CD09/17493186306223006/epubprivate/OEBPS/Images/37590_62_2.jpg?sign=1738962292-1aIOYdGul2TQEhRdynhLoB7AJAerjGm2-0-b1e66e0251522af9144f919cd23966f0)
证明霍夫丁不等式
马尔可夫不等式、切诺夫上界、霍夫丁引理和霍夫丁不等式的具体证明如下表所示。
![](https://epubservercos.yuewen.com/45CD09/17493186306223006/epubprivate/OEBPS/Images/37590_62_3.jpg?sign=1738962292-l7efFffYgVhTpxyvyxzDSMS5mCCHUOiD-0-79cac93ee4a288bbfcb1b73aab2324f5)
![](https://epubservercos.yuewen.com/45CD09/17493186306223006/epubprivate/OEBPS/Images/37590_63_1.jpg?sign=1738962292-16P30wKMDMT47qjIVIi9yfCD3Q6lTDFG-0-e1bd64b9caf072c39b760925de02bf12)
![](https://epubservercos.yuewen.com/45CD09/17493186306223006/epubprivate/OEBPS/Images/37590_64_1.jpg?sign=1738962292-qZqeekd8EHears37DqhK5DyXCVJoF2hY-0-9832ed862e7ee5eac2db9354fd12b3c1)
当Zi服从伯努利分布时,那么a=0,b=1,将上式和机器学习结合得到
![](https://epubservercos.yuewen.com/45CD09/17493186306223006/epubprivate/OEBPS/Images/37590_64_2.jpg?sign=1738962292-1OVNbh0VrRxMXq15zVzgYmXvGnFYIQgN-0-6fd1a4aa84d09677e7fe21d1e574586b)
[1]NFL定理证明见本章附录A。
[2]霍夫丁不等式证明见本章附录B。
[3]增长函数的上界推导比较烦琐,见本章参考资料[1]。