エントロピー[情報量](読み)エントロピー[じょうほうりょう](英語表記)entropy

翻訳|entropy

ブリタニカ国際大百科事典 小項目事典 「エントロピー[情報量]」の意味・わかりやすい解説

エントロピー[情報量]
エントロピー[じょうほうりょう]
entropy

1948年にクロード・E.シャノン情報量定義したときに導入した,平均情報量をはかる尺度単位は「ビット/文字」で表される。シャノンによれば,情報源は独立かつ一定の分布をもつ確率過程とみなされ,情報源のエントロピーは,情報源から発生する通報の生起確率対数期待値で定義される。この定義によれば,おのおのの通報が発生する確率が等しいときエントロピーは最大となる。すなわち,どの通報がくるか予想がつきにくいほどエントロピーは大きいということになる。シャノンの定義は,熱力学で用いられるエントロピーと,比例定数を除いて一致するが,負号がつくので,負エントロピー negentropyとも呼ばれる。この概念は,データ通信暗号化コーディング理論などの分野で威力を発揮する。(→情報理論

出典 ブリタニカ国際大百科事典 小項目事典ブリタニカ国際大百科事典 小項目事典について 情報

今日のキーワード

排外主義

外国人や外国の思想・文物・生活様式などを嫌ってしりぞけようとする考え方や立場。[類語]排他的・閉鎖的・人種主義・レイシズム・自己中・排斥・不寛容・村八分・擯斥ひんせき・疎外・爪弾き・指弾・排撃・仲間外...

排外主義の用語解説を読む

コトバンク for iPhone

コトバンク for Android