Section 3.5 情報の「量」
2.1節で述べたように、内容の「大きさ」は客観的に測ることができないため、内容を含む生命情報や社会情報の「大きさ」を測ることはできない。 一方、表現の大きさは客観的に測ることができるので、機械情報については「量」を測ることができる。 機械情報の量を情報量と呼ぶが、これはあくまで表現に含まれる記号の数であり、内容がもたらす価値とは異なることに注意が必要である。
定義 3.12. 情報量.
機械情報\((\alpha, \varepsilon)\)について、表現\(\alpha\)に含まれる記号の数を機械情報\((\alpha, \varepsilon)\)の情報量という。情報量を数値で表すため、Shannonは、0と1の2つの文字で表せる2進数で1桁となる数を、bitという単位で定義した[36]。 例えば、0や1は\(1 \mathrm{bit}\)で表せるが、2進数には「2」という数字はないので、このままでは「2」を表すことができない。 そこで、2は10(いちぜろ)、3は11(いちいち)と数字2つ(\(2 \mathrm{bits}\))を使って表す。 同様に、4は100、5は101のように\(3 \mathrm{bits}\)で表される。
定義 3.13. 情報量の単位.
機械情報\((\alpha, \varepsilon)\)の表現\(\alpha\)が\(n\)桁の2進数で表せるとき、単位bitを用いて、機械情報\((\alpha, \varepsilon)\)の情報量は\(n \mathrm{bits}\)であるという。 対数関数\(\mathrm{log}\)を用いると、次のように表せる。文字のみの文章なら数KBから数百KB程度、写真や音楽なら数MBから数十MB程度、動画なら数百MBから数十GB程度の大きさが一般的である。 ファイルの記録に使うUSBフラッシュメモリやmicroSDカード、Blu-ray Discなどに記録できる容量はいずれも数十GBから数百GB程度、ハードディスク(HDD)の記憶容量は数百GBから数TBのものが多い。 携帯電話の通信制限は、ひと月あたり数GBが一般的である。
Shannonは情報理論の創始者[36]だが、その主要な業績は情報の冗長性に関するものである。 ここでいう冗長性(じょうちょうせい)は、必要最低限の表現に加えて、余分や重複がある状態を指す。 冗長な部分は不要と考えられることも多いが、冗長性を削ったデータを正しく送れなかった場合は再度データを送る必要があり、結果的に多くのデータを送らなくてはならないこともある。 速度と確実さのバランスを取り、全体的に見て効率的な情報伝達を目指すことが重要である。