人人终身学习知识网~是各类综合知识资源信息分享,提升综合素质与提高知识技能的终身学习网络平台

 找回密码
 立即注册

QQ登录

只需一步,快速开始

微信登录

微信扫码,快速开始

[物理百科] 信息熵(informationentropy)百科物理

[复制链接]

广泛的阅读有助于学生形成良好的道德品质和健全的人格,向往真、善、美,摈弃假、恶、丑;有助于沟通个人与外部世界的联系,使学生认识丰富多彩的世界,获取信息和知识,拓展视野。快一起来阅读信息熵(informationentropy)百科物理吧~

信息熵(informationentropy)

信息熵(informationentropy)

是信息论中信息量的统计表述。香农(Shannon)定义信息量为:`I=-Ksum_ip_ilnp_i`,表示信息所消除的不确定性(系统有序程度)的量度,K为待定常数,pi为事件出现的概率,$sump_i=1$。对于N个等概率事件,pi=1/N,系统的信息量为I=-Klnpi=KlnN。平衡态时系统热力学函数熵的最大值为$S=-ksum_iW_ilnW_i=klnOmega$,k为玻尔兹曼常数,Wi=1/为系统各状态的概率,$sum_iW_i=1$,为系统状态数,熵是无序程度的量度。信息量I与熵S具有相同的统计意义。设K为玻尔兹曼常数k,则信息量I可称信息熵,为$H=-ksum_ip_ilnp_i$,信息给系统带来负熵。如取K=1,对数底取2,熵的单位为比特(bit);取底为e,则称尼特。信息熵是生命系统(作为非平衡系统)在形成有序结构耗散结构时,所接受的负熵的一部分。

由优学物理网独家提供信息熵(informationentropy)百科物理,希望给大家提供帮助。

回复

使用道具 举报

小黑屋/人人终身学习知识网~是各类综合知识资源信息分享,提升综合素质与提高知识技能的终身学习网络平台

Powered by 5wangxiao

© 2007-2021 5wangxiao.Com Inc.

快速回复 返回顶部 返回列表