跳转至

Kullback-Leibler散度

KL散度是机器学习中一个非常常用的概念,但是我学概率论的时候老师几乎没有提到。因此关于它的性质我始终一知半解,今天来深度学习一下。

KL散度很大程度是从熵这个概念衍生而来的。

熵的定义如下:

Definition

随机变量$X\sim p(x)$,那么其信息熵为: $$ H(X) = \mathbb{E}(-\log p(x)) $$

为什么这么定义?

信息熵看起来是一个奇怪的泛函。

KL散度

TBD


最后更新: 2025-12-22 20:43:33
创建日期: 2025-12-22 20:43:33

广告

人要恰饭的嘛🤑🤑

评论