頭の中に種をまく

その時々に読んだもの、見たもの、聞いたものについて考え、紹介します。

情報の定義とは何か? - 書評: 戸田山和久『哲学入門』

戸田山和久『哲学入門』の第3章について。この章は、情報がテーマでした。

 

シャノンは、通信の理論をやりたかったから、もちろん、情報源が次々と記号を生み出していくという事象だけを念頭に置いていた。しかし、もともとは情報源に対して定義されていたエントロピーや自己情報量は、ようするに確率だけから計算できる量だ。したがって、記号生成という事象だけでなく、確率を与えることのできる事象の集まり(完全事象系)になら何でも、エントロピーや自己情報量の概念を当てはめることができる。

 

確率のあるところにはすべて情報がある。この世界観は非常に面白いとおもいました。ホームズがあらゆるものを手がかりとして事件を解決するように、われわれが情報と意識しないものも、情報として何らかの解釈をすることができるかもしれません。

 

しかし、情報内容の定義については、疑問が残りました。その定義とは、以下のようなものです。

 

信号rがsはFであるという情報を伝える ⇔ rという条件のもとでの「sがFである条件付き確率」が1である

 

(条件付き)確率が1となることは、科学の世界や論理の世界ではありえても、現実にはほとんどないのではないでしょうか? たとえば、本章中に、家の明かりが点いていることから妻の帰宅を知るという例が載っています。もう少し細かく述べると、以下のようになるのでしょうか。

 

帰宅したときに居間の明かりが点いている。この家の鍵をもっているのは自分と妻だけである。今日は妻が先に家を出て、私が家を出るときに電気を消したことは間違いない。だから、居間の明かりが点いているという信号は、妻の帰宅という情報を伝えている。

 

この条件付き確率はかなり高いでしょう。しかし本当にそれが1かと言えば、そんなことはありません。たとえば、強盗が侵入して明かりを点けた可能性は、非常に低くとも、0ではありません。もちろん、強盗が侵入した形跡は全くない、といった条件を加えることもできるでしょう。しかし他にも例外的な事態はいくらでもありえます。たったこれだけの情報でも、条件付き確率が1でなければならないなら、伝わらないことになります。

 

もちろん、哲学的な定義としては、これでもよいのでしょう。しかし、こうした情報の概念を、生物の進化と絡めて自然化できるかは疑問です。生物は、もっと低い確率のものでも、十分有用な情報として活用できていると思われるからです。

 

さて、この疑問への答えは、第4章にありました。それはまた次の機会に。

 

 

哲学入門 (ちくま新書)

哲学入門 (ちくま新書)