主页 > 创业  > 

【漫话机器学习系列】094.交叉熵(Cross-Entropy)

【漫话机器学习系列】094.交叉熵(Cross-Entropy)

交叉熵(Cross-Entropy)详解 1. 引言

在机器学习和深度学习中,交叉熵(Cross-Entropy)是一种常见的损失函数,广泛用于分类任务,特别是二分类和多分类问题。交叉熵的核心思想是衡量两个概率分布之间的差异,并通过最小化这个差异来优化模型,使预测结果尽可能接近真实分布。

在本篇文章中,我们将详细探讨:

交叉熵的定义与公式交叉熵的数学推导交叉熵的作用与直观理解交叉熵在机器学习中的应用交叉熵与其他损失函数的对比
2. 交叉熵的定义 2.1 交叉熵公式

交叉熵的数学定义如下:

其中:

D 表示交叉熵损失(Cross-Entropy Loss)K 是类别的总数​ 表示样本在类别 k 上的真实概率​ 是对数操作(一般以自然对数 ln 计算) 2.2 交叉熵的作用

交叉熵用于衡量两个概率分布之间的相似性,当真实分布和预测分布一致时,交叉熵最小(接近 0);当两个分布相差越大时,交叉熵值越大。

例如:

如果模型的预测概率完全匹配真实标签(如 100% 置信度地预测正确),交叉熵损失趋近于 0。如果模型的预测概率非常不准确(如对错误类别的置信度较高),交叉熵损失会很大,模型需要调整参数。
3. 交叉熵的数学推导 3.1 二分类问题中的交叉熵

对于二分类问题(如 0/1 分类),假设:

真实标签 y∈{0, 1}预测概率 ​(表示类别 1 的概率)

交叉熵损失函数为:

当真实类别 y = 1 时,损失函数变为:

若模型预测 接近 1(正确预测),损失接近 0若模型预测 接近 0(错误预测),损失接近无穷大

当真实类别 y = 0 时,损失函数变为:

若模型预测 ​ 接近 0(正确预测),损失接近 0若模型预测 ​ 接近 1(错误预测),损失趋向无穷大

这表明:交叉熵会对错误的高置信度预测施加较大的惩罚,从而促进模型学习更准确的概率分布。

3.2 多分类问题中的交叉熵

在多分类任务中(Softmax 作为输出层),设:

K 为类别数y 为真实类别(one-hot 编码) 为第 k 类的预测概率

交叉熵损失为:

由于 one-hot 编码中,只有真实类别的 ,其余类别的 ,因此公式可以简化为:

其中 ​ 是模型对真实类别的预测概率。

如果模型对正确类别的置信度高,则交叉熵损失较小;如果预测不准确,则损失较大。


4. 交叉熵的作用与直观理解 4.1 交叉熵衡量概率分布的差异

交叉熵的本质是计算两个分布之间的差异。例如:

真实分布:P = (0.9, 0.1)(正确类别置信度 90%)预测分布: (预测较准确)(预测较混乱)

计算交叉熵:

可以看出,​ 的交叉熵较小,说明预测更接近真实分布,而 ​ 的交叉熵较大,表示预测较差。

4.2 交叉熵与信息论

交叉熵源自信息论,用来衡量数据的不确定性:

如果交叉熵 D 越小,表示预测分布与真实分布越接近,模型越稳定。如果交叉熵 D 越大,表示预测不稳定,需要优化。

在信息论中,交叉熵可以理解为编码一条信息的最优成本,如果模型的预测更准确,所需的编码长度更短。


5. 交叉熵在机器学习中的应用 5.1 逻辑回归(Logistic Regression) 逻辑回归使用 Sigmoid 作为输出层,交叉熵作为损失函数,优化模型参数。 5.2 神经网络(Neural Networks) 交叉熵常用于分类任务,配合 Softmax 层来计算每个类别的概率分布。 5.3 生成模型(Generative Models) 如 GAN(生成对抗网络)使用交叉熵来衡量真实样本与生成样本的分布差异。
6. 交叉熵 vs 其他损失函数 损失函数适用任务公式特点均方误差(MSE)回归对异常值敏感平均绝对误差(MAE)回归对异常值鲁棒,误差的影响更均匀交叉熵(CE)分类适用于概率预测,能有效优化分类模型
7. 结论 交叉熵衡量两个概率分布的相似性,是分类任务中最常用的损失函数。交叉熵会对错误高置信度预测施加较大惩罚,从而优化模型训练。在信息论中,交叉熵反映了编码信息的最优成本。在深度学习中,交叉熵通常与 Softmax 结合,进行多分类任务的优化。

掌握交叉熵的概念,对优化分类模型和理解概率分布的学习过程至关重要!

 

标签:

【漫话机器学习系列】094.交叉熵(Cross-Entropy)由讯客互联创业栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“【漫话机器学习系列】094.交叉熵(Cross-Entropy)