2017年3月29日水曜日

飼い馴らされたデータが情報と認められた

水に落ちたインクのしずくは拡散していって、もはや取り返しがつかない。
けれど水に垂らした油を、力の限りにシェイクしても、いずれ水とは分離する。
時間は、混沌へと、常に、一方向へ突き進むといわれているけれども。

―― そういうわけで。
 当面のところ、世界はただひたすらに、一方的に「混沌としていく」というのは、例外のない話でなければならないはずでした。
 それは、水面に投じられた石が作る波の広がりは、たとえ障壁によって逆方向へ向かっても、一致団結して、もとの中心部には戻っていかないことからも、経験的に知られています。

みなもにゆれる波紋の不可逆と一点への収束の可能性


 うえに述べた景観を、いま一度繰り返すなら、池に落ちた蛙は波紋を拡げていくけれど、円形を描いた波が逆向きに集中した結果として一点に収束していくことは非常に困難である、ということです。
 しかしながら、〈時の矢〉もしくは〈エントロピーの増大〉は、なにも地球上の古池に限って語られることでもありませんので、宇宙規模で、ひとつこれを考えてみましょう。

 もしやよく例に出される、たとえ話でしょうか。アレンジして書くと。

陸地のない、一面が深い水に覆われた惑星を、ほぼ球体の形で想像する。
その惑星の水面に対して垂直に、巨大隕石並みの蛙を直撃させる。
蛙の落下で生じた波紋は、ただひたすらに、拡がっていくだろう。
そして最大円周を越えると。今度は、ちょうど反対側の一点へと波は収束していく。
そこから、勢い余った、不死身の蛙が飛び出してくるかも知れない。
―― 理解しやすいように、北極・南極・赤道を想定すれば、
北極に発した波動は、赤道を越えて進めばそのまま南極へと、一点に集中していくだろう。

 この、たとえ話をさらに全宇宙規模で考えてみれば。―― さすれば。
 宇宙は、球体の表面のように曲がっているらしいので、
 こちらで拡がっていった〈エントロピー〉の増大する波は、
 あちらで〈エントロピー〉を減少させていく可能性は、ゼロではない、と ――。

 その論理的な飛躍を無視すれば蛙の跳躍力だけが残るのでしょうけど。しかし最後の跳躍は。
 宇宙はとてつもない勢いで膨張しているらしいので、蛙が飛び込んだ波紋は、いつまでたっても、向こう側へは届かないかも知れません。

 ボルツマンは、自身の確率論にもとづく解釈を人類の決定的理論だとは、思っていないようでした。
 理論を決定的としないというその考え方の正当性は、歴史に明瞭にあかされています。
 人類の科学技術の進歩がこれ以上には想像できなくても、いつだって、その先の未来はありました。
 当面の説明が可能ならば、いまはそれでいいじゃないか、と。
 その結果残された〝混沌〟を巡って、解釈の混乱は続いているようですが、しかしそこに決定論的〈ラプラスの魔〉が見え隠れしているようで、なりません。

 制御可能なものを情報といって価値を見出し、もしそれですべてがわかった気になっても、きっと制御不可能な部分に「ふた」をして見えなくなっているだけでしょう。
 理解不可能な、その手からはみ出てこぼれた〝混沌〟は、存在しなくなったわけではありませんから。


〈未知〉の途上 〈不可知〉の価値
http://theendoftakechan.web.fc2.com/sStage/entropy/unknown.html

2017年3月27日月曜日

〈未知〉への途上で切り捨てたものを〝混沌〟という

 データ・情報・知識の区別として、次のような捉え方があります。
〔参照:大村茂雄「情報とは何か」『情報と経済活動』所収 (p.47)

  データ=評価されていないメッセージ
  情 報=データ+特定の状況における評価
  知 識=データ+将来の一般的な使用の評価
〔アドリアン・M・マクドノウ著『情報の経済学と経営システム』(好学社、1966 年)長阪精三郎訳 (p.78)

 データというのは、つまり記録の提示で、それが一定の評価の後に、情報として認められるという見解のようです。
 けれどデータ化されたインフォメーション(情報)が、
―― ノイズ(雑音)と区別されていく過程、
―― を、考えるならば、〈情報〉はデータの前提となるべきものとも認められましょう。
 この場合は、データ化以前の情報がそこにすでにある、という見解なわけです。
 いずれも、個人的な捉え方での意見に過ぎませんが……。
 シャノンの追求した工学的な通信の理論では、情報に意味は求められていませんでした。
 その情報理論では、受信した情報にはノイズが混ざり込んでいる前提がありました。
 そういう、受信した信号を読み出す行為は、情報化ではなく、やはり与えられた情報のデータ化ではないでしょうか。
 さらには。相互のコミュニケーションにおいて、〈情報〉とは、受け手側に〝価値〟をもたらすものとして考えれば。すると、そこにただあるだけの、相互伝達の皆無な〈情報〉は、それを〈情報〉と認める受け手すら想定し得ないことになります。

 〝価値が評価されたデータ〟をようやく〈情報〉とみなす見解は最初に見たとおりです。
 この場合には、データが〈情報〉を取り出す基盤となっています。
 〈情報〉の定義は、立場によって、かなり異なるようです。

可能性は混沌に潜む


―― このように考えていくと、一般には、
 やはり〈情報〉は、受け手にとって〝価値〟あるものと、いうことができるのではないか、と。
 するとそれはまた、与えられた者に「制御可能」と認定される内容でなければならない、のであるし。
 それ故、〈情報〉は「安心と秩序」に裏づけられて、そこに存在するのだ。と、みなされるなら。

 制御不能な〈情報〉というような概念は、そもそもその意味が成立しないでしょう。
 ところで、ランダムと均一は、対極にあるようです。

たとえば、0 と 1 で表現される二進数で、
「延々と均一に 0 が続く状態」に、多くの意味は求め難いけど、
「ランダムに 1 が混入する状態」は、何かしらの意味をもつ場合がある。
すなわち、何らかの違いがなければ、意味をもつ情報とはいえないわけで。

 この場合には、はっきりと、行き当たりばったりのでたらめなランダムさが、均一を破っているのですけれども。
―― けれども。
 熱力学や統計力学では、そういう果てしなき「散逸」の果ての〝混沌〟に「均一」を想定しているようです。
 ようするに、データ化をみずから諦めたそれらの〈情報〉を、エントロピーといい、その状態を均一に〝無秩序〟や〝乱雑〟と称して切り捨てたわけです。
 しかしながらそれらの状態は、それなりの細やかな視点で見れば、均一ではなく、多様な情報を秘めたデータの宝庫でもあったりするし、あるいは「新しい発見」とはそういう誰の眼も届かなかった、〝混沌〟のなかにあるようです。

 そうして西洋では、そういう偶然の発見や出会いを「セレンディピティ」というのですね。

2017年3月24日金曜日

〝場合の数〟で計算する〈情報エントロピー〉

イカサマなしのサイコロの場合だと、「〝わからなさの程度〟を示す」ともいわれる
〈情報エントロピー〉は、前回の計算で、約 2.6 ビットでした。
このとき 6 種の事象としての数字 ―― 出る目の確率は、均等に 6 分の 1 ずつです。
ではこれが、出る目の確率が異なる場合だと、どうなるのでしょう。

 確率が異なる場合といえば、〝場合の数〟が現実的に算出可能なので、それで計算してみることにしました。
―― というわけで、このたび「確率」の本を参考にしようと繙いておりましたら、〝場合の数〟というのは、数学の用語で、「そういう〈場合〉の数」というふうに全体的なさまざまの〈場合〉の数という用いられ方がされると再認できましたので、その点に関し、これまでの〝その場しのぎの表現〟を、つつしんで訂正させていただきます。
―― なので。「正しい表現」は、やはり専門家に確認してくだされませ。
(ひとはうろたえると、嘘を、嘘や誤魔化しで訂正しかねない、と追加で銘じておきませう。)

さて。これまで使っていた〈場合の数〉というのは、
教科書的には〈組み合わせ〉の数といわれるようです。
そうしてまた、〈ビット数〉での 2 進数の組み合わせの計算などは、
〈重複順列〉もしくは「積の法則」というものが、該当するようです。
これは、「ひとケタずつ数を選んでいく場合」に、使えるようです。
「数を選んでいく〈場合〉」だと、「数字の個数のケタ数乗」で、
―― 例として、2 進数で、数字が 0, 1 の 2 個だと、
ケタ数が n として、「 2 の n 乗」と、なります。

また、この〈重複順列〉は、左右の箱に球を分けた場合の数にも該当します。
箱の数は、原則的には何箱でもいいのですが、
2 進数で〈情報エントロピー〉を考える都合上、今回は、
左と右のふたつとします。これを 0, 1 の 2 進数の数字と、考えます。
―― 左を 0 としたら、右は 1 として、数字を入れます。

 ケタ数が、球の数となります。球にも、ケタ数に該当する数字を書いておきましょう。
 球数(ケタ数)を、比較のためにサイコロの目の数に合わせれば 6 個となる。―― のですが、事象の数は、球数プラス 1 となるので、5 個と設定し、これで 5 ケタの数字を組み立てます。
 この球をランダムに箱に投入すると、それぞれのケタが、入った箱の数字で 0 か 1 と決まります。
 1 ケタ目の球から、5 ケタまで、どちらの箱に入っていたかを 0 と 1 で記録していけば、
―― その〝場合の数〟は、2 の 5 乗と、なります。

これは〈重複順列〉の計算と同じです。箱の数が 2 で、球の数が 5 です。
球の数を n とすれば、2 の n 乗となります。
箱の数を変えるなら、2 の代わりに、箱の数を使いましょう。
これは次に出てくる〈組み合わせ〉の合計数と、一致します。

◆ 5 個の球を、左右の箱に入れる〈組み合わせ〉の確率を計算する


まず〈組み合わせ〉の種類とその確率を「左:右」で並べてみる

5 : 0 ⇒  1 通り  1 / 32
4 : 1 ⇒  5 通り  5 / 32
3 : 2 ⇒ 10 通り  10 / 32
2 : 3 ⇒ 10 通り  10 / 32
1 : 4 ⇒  5 通り  5 / 32
0 : 5 ⇒  1 通り  1 / 32

 合計  32 通り 【( 2 の 5 乗) 通り】

★〔ここで復習
自己情報量と定義されている量を、シャノンは、
ある事柄 X が起こる確率を P(X) としたとき、
これが与える情報量 H(X) として、

   H ( X ) = lb {1 / P ( X )} = - lb {P ( X )}

と表した。単位は〈ビット〉だから、対数の底は、2 となる。
lb は大文字で書けば LB で、2 を底とする対数記号)

この自己情報量に、さらにその出現確率をかけてから、全部足す。
――総和、つまりその集合に含まれるすべての[(出現)確率×自己情報量]を合計して、
期待値とする。これが〈情報エントロピー〉と呼ばれる量である。

H = - ∑ pi lb pi

★〔うえに示された式をもとに計算する

2 × { (1 / 32) * lb 32 + (5 / 32) * lb (32 / 5) + (10 / 32) * lb (32 / 10) }
 ≒ 2 × ( 0.03125 * 5 + 0.15625 * 2.678071905112638 + 0.3125 * 1.6780719051126378 )
 ≒ 2 × ( 0.15625 +  0.4184487351738497  + 0.5243974703476993 )
 ≒ 2 × 1.099096205521549
 ≒ 2.198192411

☆ 今回の計算では、約 2.198 ビットであった。

H ≒ 2.198

☆ 前回は、約 2.585 ビットが、サイコロの〈情報エントロピー〉と計算された。

H  6 * (1 / 6) * 2.584962500721156 ≒ 2.585

この結果は、
均等な確率のほうが〈情報エントロピー〉は大きくなるといわれていることと一致する

◆ この計算は、以下にリンクしてある資料ページの最後にある自前の計算式と同等内容となっています。
◇ JavaScript を使った【計算例】を、そのページ末尾にまたも、添付しておきました。


1948 ; 情報科学のエントロピー (情報エントロピー Ⅱ)
http://theendoftakechan.web.fc2.com/sStage/entropy/Shannon.html

2017年3月22日水曜日

サイコロのエントロピー

―― 前回のおしまいに、
 確率を〝逆数〟にしたあげく、その対数式にマイナス符号をつけるという手法は、〈情報エントロピー〉の基本手順となっています。
と書いたのですが、この表現には少々語弊(ごへい)があり、

「確率を〝逆数〟にしたうえで、対数式にマイナス符号をつける」
のじゃなくて、
確率を〝逆数〟で書くかわりに、対数式にマイナス符号をつける

という手法が、〈情報エントロピー〉算出の基本定理で用いられています。
シャノンの『通信の数学的理論』(岩波文庫版 90 ページ参照)の「定理 2 」です。
分数を使うよりも、短い横線(-)を計算式の冒頭に置いたほうが簡便ではあります。

ということは、するってと、確率が小さくなればなるほど、答えは大きくなるのです。
その基本的な計算の手順が、どうしてそうなるのか、計算式の変遷する形態を段階的に見ます。

そして、最後にそれをサイコロのエントロピーで考えてみて、
均等な 1 / 6 の確率が 6 個のときのエントロピーとは
単純な計算で、一応は算出できることが、今回の結論となります。

――以下、マイナス符号の位置を計算式の先頭に移動させる手順の羅列となっています。

〈情報エントロピー〉の計算

◉ まず「情報量」の計算式

   H ( X ) = - pi log pi

にいたる過程とその意味
● これは、確率の逆数の対数に〝確率を掛けたものを意味する

◎ 逆数の対数関数は、負の符号をつけて表現されたので

  X = log pi のとき(対数の底は問わない)
  - X = log (1 / pi) となり、また
  - X = - (log pi) なので
∴ log (1 / pi) = - (log pi)

さらに pi × log (1 / pi) = pi * log (1 / pi) という表記は、さらに
 pi × log (1 / pi) = pi log (1 / pi) と、簡便に表記されるので

● log (1 / pi) = - (log pi) より

pi log (1 / pi) = pi × { - (log pi) }
 = pi × { - 1 × (log pi) }
 = - 1 × pi × (log pi)
 = - { pi × (log pi) }
 = - pi (log pi)
 = - pi log pi

∴ pi log (1 / p) = - pi log pi

◉ 次に、互に排反の n 個の事象の確率をすべて足せば 1 となる確率の集合を考える。
――「確率」を全部足せば通常は 1 になる
(「排反」というのは「同時には起きない」ことをいう)

[p 1] + [p 2] + … + [p n] = 1

H を、確率の集合 ([p 1], [p 2], …, [p n]) のエントロピーであるというとき
 ∑ (シグマ)を、1 から n までの総和(全部足すこと)の表記記号として用いて

● pi log (1 / pi) = - pi log pi より

H = [p 1] log (1 / [p 1]) + [p 2] log (1 / [p 2]) + … + [p n] log (1 / [p n])
 = ∑ { pi log (1 / pi) }
 = ∑ { - 1 × (pi log pi) }
 = - 1 × ∑ (pi log pi)
 = - ∑ pi log pi

◎ 情報エントロピーというのは、情報量の世界の期待値にあたる
シャノンの定義した「情報量」は、〈ビット〉を単位とする、二択の回数で表現される。

自己情報量と定義されている量を、シャノンは、
ある事柄 X が起こる確率を P(X) としたとき、
これが与える情報量 H(X) として、

   H ( X ) = lb {1 / P ( X )} = - lb {P ( X )}

とあらわした。単位は〈ビット〉だから、対数の底は、2 となる。
lb は大文字で書けば LB で、2 を底とする対数記号)

この自己情報量に、さらにその出現確率をかけてから、全部足す。
――総和、つまりその集合に含まれるすべての[(出現)確率×自己情報量]を合計して、
期待値とする。これが〈情報エントロピー〉と呼ばれる量である。

   H = - ∑ pi lb pi

● すなわちこれが〈情報エントロピー H の計算式である

―― ここでようやくついにとうとう。
サイコロで考えてみるなら
1 / 6 の確率が 6 個、で計算すればよい

◎ 確率×自己情報量
   H (サイコロの目) = - (1 / 6) lb (1 / 6)
   = (1 / 6) lb 6

● この前作った、JavaScript を使った計算ページで、

lb 6 ≒ 2.584962500721156
これに、(1 / 6) を掛けたらいい。
つまりは 6 で割る。

さらにそれを、全部で 6 個足すなら結局、6 で割ったものに、6 を掛けることになる。
(2.584962500721156 ÷ 6) × 6 = 2.584962500721156

6 * (2.584962500721156 / 6) ≒ 2.585

約 2.585 ビットが、サイコロの〈情報エントロピー〉と計算された。
つまり、3 ビット以内ということは、2 × 2 × 2 = 8 種までの多様性で表現可能。

 そういうことか。均等に 1 / 6 ずつの確率だから、そうなるわなぁ。

2017年3月20日月曜日

〝逆数〟の対数は プラス・マイナスが逆になる

 ASCII 文字セットは、256 文字で構成されています。
 日本語版 Visual Basic 2.0 添付の『リファレンス』には、そう書いてあります。

 ASCII はそもそも 7 ビット 128 文字分で構成されています。その後、ISO 規格で、8 ビット文字が採用されて、これがいわゆる、8 ビット = 1 バイト文字として定番となりました。
 JIS 規格の文字セットでは、ASCII の 128 文字に、一部変更と追加が施されて、256 文字分の領域で表現されます。

 現在では、1 Byte = 8 bits 文字が、あたりまえとなりました。
 〈ビット bit〉の略号は〈 b 〉で、〈バイト Byte 〉の略号は〈 B 〉となっています。
 ですから、〈メガバイト MB 〉や〈ギガバイト GB 〉の略号の大文字〈 B 〉は、〈ビット b 〉ではなく、〈バイト B 〉の意味であるとして、区別できるわけです。
 でもって、ここから算数になります。
 この 1 Byte = 8 bits で 256 文字ということを覚えてたら、8 ビットはいかほどか計算するまでもないでしょうが、先日の〝指数の引き算は割り算として考える〟ということを逆にして〝指数の割り算は引き算として考える〟なら。

2 の 10 乗 = 1024 さえ覚えておけば、

   2 の 10 乗 ÷ 2 の 2 乗 = 2 の (10 - 2) 乗 = 2 の 8 乗

であることがわかるので、これから、

   2 の 2 乗 = 2 × 2 = 4
   1024 ÷ 4 = 256

と、暗算でも計算できそうな塩梅(あんばい)となります。また、

   2 の (10 - 2) 乗 = 2 の 8 乗
   2 の (2 - 10) 乗 = 2 の -8 乗

   1024 ÷ 4 = 1024 / 4
   4 ÷ 1024 = 4 / 1024

と、分数表示したときに、

 分母と分子が逆になる数を〝逆数〟といって、ここが第一ポイントです。
 〝逆数〟は、正しくは 1 が分子になる場合に、いうらしいです。
 ある数を〈 N 〉としたとき、〈 N 分の 1 〉をその〝逆数〟と称するわけです。
 これは、〈 N のマイナス 1 乗〉と、同じことを意味します。
 思い起こせば「累乗」を

   1 × N × N × N × N ……

と考えれば、「マイナスの累乗」は

   1 ÷ N ÷ N ÷ N ÷ N ……

なわけで、この最初の〈 N のマイナス 1 乗〉部分に注目した

   1 ÷ N = 〈 N 分の 1 〉

こそが ―― 説明しよう ――〈 N の逆数〉と呼ばれるのだ、と覚えておきましょう。
このとき、〈 N 〉という数字は〈 0 〉以外なら何でもアリだそうで、

   N = 4 分の 1 = 1 ÷ 4

ならば、〈 N の逆数〉は、〈 N 分の 1 〉 = (4 分の 1) 分の 1

   1 ÷ N = 1 ÷ (4 分の 1) = 1 ÷ (1 ÷ 4) = 1 × (4 ÷ 1) = 4

この〈 N 〉の数字を少し変えて、

   N = 3 分の 2 = 2 ÷ 3

ならば、〈 N の逆数〉は、〈 N 分の 1 〉 = (3 分の 2) 分の 1

   1 ÷ N = 1 ÷ (3 分の 2) = 1 ÷ (2 ÷ 3) = 1 × (3 ÷ 2) = 2 分の 3 = 1.5

というわけで。かくのごとく、
分母と分子が入れかわった状態が〝逆数〟と称されることになるのだ。

 最後の、掛け算で割り算がひっくり返る部分さえ、理解できるなら、否、理解できなくても。
(カッコのある計算で、カッコを外したときに、プラスとマイナスの符号が逆になる原理の発展版として考えれば次の如く)

   1 - (2 - 3) = 1 + (- 2 + 3) = 1 - 2 + 3 = 1
   1 ÷ (2 ÷ 3) = 1 × (÷ 2 × 3) = 1 ÷ 2 × 3 = 1.5

――いずれにせよ、うえの計算式に誤植はないと思うけれども、あったとしても。
 このことは「対数」の計算で、恐るべき能力を発揮することになります。
 いかに発揮されるのか。

   2 の (10 - 2) 乗 = 2 の 8 乗
   2 の (2 - 10) 乗 = 2 の -8 乗

   1024 ÷ 4 = 1024 / 4
   4 ÷ 1024 = 4 / 1024

だったので

   2 の 8 乗 = 2 の (10 - 2) 乗 = (1024 / 4)
   2 の -8 乗 = 2 の (2 - 10) 乗 = (4 / 1024)

なので、これを対数関数で表現すると、

   8 = lb (1024 / 4)
   -8 = lb (4 / 1024)

というわけで、このとき、4 を 1 に交換したら、

   10 = lb (1024 / 1)
   -10 = lb (1 / 1024)

「〝逆数〟の対数は プラス・マイナスが逆になる」
という、本日のお題の解説と、あいなった次第であります。
これはもっと簡単に、次のように訂正すべきでしょうか。
「〝逆数〟の対数には マイナス符号をつければよい」
この正しい表現がどうなるのかは、手近な先生にでも尋ねてみてください。

――と、いうわけで。
 lb は、2 を底とする対数( 2 進対数)の略号として、今後も、ISO 標準として、使っていきたく思います、のでよろしく。
 確率を〝逆数〟にしたあげく、その対数式にマイナス符号をつけるという手法は、〈情報エントロピー〉の基本手順となっています。

2017年3月18日土曜日

JavaScript で計算する常用対数と〈ビット〉数

 コンピュータの起原とか、日本での開発秘話について読書していたときのことです。。
 田原総一朗著『日本コンピュータの黎明』の 124 ページに、次のように書いてありました。

無理は承知だ。しかし、チャレンジャーには、無理だ、などという贅沢は許されないんだよ
 これが池田敏雄の口ぐせだった。

 どっかで、耳にした、セリフの起原までもが、わかっちまったのでした。


 ところで、少し前に、〝常用対数に 10 の自然対数を掛け算すると自然対数になる〟と知って、さっそく、計算式を作って試みたのでした。「常用対数」は、「 10 を底とする対数」で、「自然対数」とは「(自然対数の底) e を底とする対数」であります。
 JavaScript を利用して計算してみたところ、少々の誤差は残るものの、その通りの結果を確認できました。
―― が、このところ〈エントロピー〉に関わる資料を読んでいて紛らわしいのは、
〝 2, e, 10 が底の場合には、底の省略が可能である〟という「対数」での取り決めであります。

log 2lb / log eln / log 10lg

という、簡単明瞭に区別できる ISO 規格の記号があるのに、なぜ、それがあまり使われないのでしょうか?
 専門家であれば、無論、底が何かは、書くまでもないことなのでしょうが。
 JIS 規格の記載には「常用対数」と「自然対数」に並んで「 2 進対数」などと言葉はあれども、どうやら〈ビット〉数を算出する lb にいたっては、JIS 規格では採用すら、されていないらしく……。
 わざわざ、日本ではそのひとつを除外する理由が、専門家でない身にはわかりかねます。

 それはそうと ――。
 JavaScript で、常用対数の計算を直接可能とする関数はないようなのですが、
 この度、とある本に〝 2 を底とする対数に 2 の自然対数を掛け算すると自然対数になる〟と書いてあったので、

   ln N = ln 2 × log 2 N
   ln N = ln 10 × log 10 N

ならば、

   log 2 N = lb N = ln N ÷ ln 2
   log 10 N = lg N = ln N ÷ ln 10

という割り算で、求めることができるのであれば。

 これも、さっそく試してみたところ、多少の誤差は残るものの、まったくもって、その通りの結果となりました。
 というわけで、この下のほうでリンクしている資料ページの末尾に、【計算例】として、見本をのっけておきました。
 JavaScript のコードは、ページ末尾の HTML の近辺に記載しておりますが、文字のスタイルやレイアウトなどは、別途スタイル・シートを読み込んだり、またヘッダー内にも少々書いております。

function init() {
var i;
// set Num
var Str = '<OPTION value=1 SELECTED>1</OPTION><OPTION value=2>2</OPTION><OPTION value=2.718281828459045>2.718281828459045</OPTION>';
for(i=3; i<11; i++) {
Str = Str + '<OPTION value=' + i + '>' + i + '</OPTION>';
}
Str += '<OPTION value=16>16</OPTION><OPTION value=32>32</OPTION><OPTION value=64>64</OPTION><OPTION value=100>100</OPTION>';
Str += '<OPTION value=128>128</OPTION><OPTION value=256>256</OPTION><OPTION value=512>512</OPTION><OPTION value=1000>1000</OPTION>';
Str += '<OPTION value=1024>1024</OPTION><OPTION value=2048>2048</OPTION><OPTION value=4096>4096</OPTION><OPTION value=8192>8192</OPTION>';
for(i=10000; i<100000000000; i*=10) {
Str = Str + '<OPTION value=' + i + '>' + i + '</OPTION>';
}
document.getElementById('sNum').innerHTML = '<SELECT NAME="selN" id="selN" onChange="logMath(this.value)">' + Str + '</SELECT>';
}
// ln Math
function logMath(target) {
document.getElementById('lnMath').value = Math.log(target);
document.getElementById('lbMath').innerHTML = Math.log(target) / Math.LN2;
document.getElementById('lgMath').innerHTML = Math.log(target) / Math.LN10;
}

コピーして、参考にしていただくことは可能なのですが、注意事項として、
BODY タグ内に、 onLoad="init()" 〉の記述をしないと、
数字の選択肢としての、オプション・ボックスが存在しなくなります。
ページ読み込み時の、組み込み機能を使っているというわけです。

便利なのは、選択ボックスに一度フォーカスがあえば、そのあとは、
カーソルキーの上下で動作して、数字がずずいと変わっていくところです。
デフォルトで、フォーカスをあわせておくことも、組み込み時に可能なので、
ご希望で、お試しください。


情報エントロピー Ⅰ: 情報化とエントロピー教化思想
http://theendoftakechan.web.fc2.com/sStage/entropy/information.html

2017年3月16日木曜日

指数の引き算は割り算として考える

単位の話 またたび
思い起こすと、速度の単位は〝メートル毎秒〟などであらわされますが、
加速度になるとこれが〝メートル毎秒毎秒〟などと、わけのわからぬものになります。

これは、たとえば、〝 5 メートル毎秒毎秒〟の加速度という場合、
「 1 秒につき〝 5 メートル毎秒〟の速度が追加もしくは削減される」
ことを表現しています。
(ブレーキも、計算上は、加速度なのです。マイナスをつけて考えます。)

〝 5 メートル毎秒〟というのは、1 秒ごとに 5 メートル移動する能力ですから、
〝毎秒その能力が変化していく〟という状態なわけです。
だから、〝 5 メートル毎秒毎秒〟ということになるのですが……。
それがすなわち、加速している、という状態の表現になるわけですな。
――さっぱり、前に進めない、解説なのですけれども。

割り算で考える
このことは、割り算をあらわしている〈スラッシュ / 〉を使って書いてみると、
少しはわかりやすくなるかもしれません。
〝 5 メートル毎秒〟は〝 5 メートル / 秒〟と書くことになっています。

これが、〝 5 メートル毎秒毎秒〟の加速度ということであれば、
〝( 5 メートル / 秒) / 秒〟という具合になります。これで、
(毎秒 5 メートル) の速度が、毎秒( 1 秒ごとに)変化する、という次第です。

それでもって、この〝(メートル / 秒) / 秒〟の単位は、
〝メートル / (秒の 2 乗)〟とも、書かれます。

またこの単位を、割り算の〈スラッシュ / 〉を使わずに、
掛け算をあらわしている〈中黒 ・〉を使って書くと、
〈スラッシュ〉の右側にあった単位はすべて、「マイナス何乗」という表現になります。
〝(メートル) / (秒)〟は、〝(メートル) ・ (秒のマイナス 1 乗)〟というぐあいです。
―― そういう理由で。
〝(メートル / 秒) / 秒〟の単位は、
〝(メートル) / (秒の 2 乗)〟と同じということは、
〝(メートル) ・ (秒のマイナス 2 乗)〟となるわけです。

マイナスされた指数の話
「指数」の足し算は、掛け算になりましたが、ようするに、
「指数」の引き算は、割り算になるというわけで、こういうことになってしまうのです。
どういう計算かというと、たとえば、

10 の 5 乗 × 10 の 3 乗 = 10 の (5 + 3) 乗 = 10 の 8 乗
10 の 5 乗 ÷ 10 の 3 乗 = 10 の (5 - 3) 乗 = 10 の 2 乗

10 の 3 乗 ÷ 10 の 5 乗 = 10 の (3 - 5) 乗 = 10 の -2 乗
1,000 ÷ 100,000 = 10 の (3 - 5) 乗 = (1 / 100)

(10 のマイナス 2 乗) は、100 分の 1 つまり、(1 / 100) です。
これは、割り算で計算してみても、答えはいっしょです。

 こう考えると、

(10 の -1 乗) は、10 分の 1 つまり、(1 / 10) となり、
(10 の 0 乗) は、1 分の 1 つまり、(1 / 1) で、簡単にいうと、1 なわけですね。

―― 0 乗 は 1
 最後の結果 (10 の 0 乗) は、少しばかり、ふに落ちないでしょうか。
 ならば、累乗(冪・べき)ということについての説明を、こう考えてみてはいかがかと。
 同じ数を何回掛けるか、という表現につけ足して、10 の 累乗であれば、
「 1 に、10 を何回、掛けるか、それとも割るか」として考えてみれば、少しは納得できるかもしれません。

 たとえば、3 の 累乗なら、
「 1 に、3 を何回、掛けるか、それとも割るか」として考えれば、

1 × 3 × 3 × 3 = 1 × (3 の 3 乗) = 27

なので。
 このとき、3 を、1 回も掛けないのであれば、答えは、1 となりましょう。
 ゼロを掛ければ、答えはいつもゼロなのですが、何も掛けないのなら、答えは、もとのままというわけで。

2017年3月14日火曜日

二者択一の回数を〈ビット〉という

 二択 ――「二者択一」を略していうところの、この二択の積み重ねは、二進数のケタ数として、考えることができるなら、云々。

たとえ話 なんたらの質問、の戦略
イエスかノーだけを答える問いを繰り返し重ねていって、
10 の質問をすれば、10 ケタの二進数が必要となり、
20 の質問だと、20 ケタと、いうことなわけで。
質問も、ここまで訊けば、だいたいの選択肢は網羅された、というその謎解き。

 二進数に使われる記号の表記方法は、「イエス (Y) ・ノー (N) 」でも、「真 (T) ・偽 (F) 」でも、「オープン (O) ・クローズ (C) 」でも何でもかまわないのですが、ここで〝数〟といえば通常は、「 0 ・ 1 」となりませう。
 ちなみに、コンピュータはその二択を、電流の「オンオフ」で区別しているという噂です。

10 ケタの二進数の〝組み合わせ〟は、いく通りの種類をもつか、
この数を十進数で表記すると「 1024 = 2 の 10 乗」と、なる。

 先だっては、アルファベットの文字を並べ替えてみる〈組み合わせの数〉について、「階乗」が使えることを確認しました。
(実は当日、それを書いた部分に最後の手直しを、加えようとして、かえってあわてた日本語になっていたのを、また後日に訂正し、最後に訂正個所をのっけておいた次第です。―― つねづね「ひとは間違えるものだ」といましめておったのですが、その後に「ひとはうろたえるものだ」と、座右の銘がエントロピー的に増殖しました。)

 それで、今回の〈組み合わせの数〉ですが、これは、A, B のふたつから選んで、どんどこ並べていくような感じになります。
 なので。今回の〈組み合わせの数〉は、2 の「累乗(るいじょう)」で、計算可能となります。

そういえば、もしかするといままでに、これも、
間違って「累乗(冪・べき)」の「指数」を、「何乗するかの数」という意味のつもりで
「乗数」と、書いたことがあるかもしれませんが。
――「乗数」というのは「乗法(掛け算)での掛ける数」を意味していまして。
つまり「乗数」は、普通に「掛け算の右側の数」のことなのでした。

 というわけで、「累乗」とは、「指数」を使った計算となります。

10 ケタの二進数を、十進数で表記すると「 2 の 10 乗 = 1024 」となって。
20 ケタの二進数は、「 2 の 20 乗 = (2 の 10 乗) × (2 の 10 乗)」となる。

 指数の計算は、掛け算が足し算になるという便利な話を思い出して、次のようでした。

   (2 の 10 乗) × (2 の 10 乗) = 2 の (10 + 10) 乗 = 2 の 20 乗
   1024 × 1024 = 1048576 = 2 の 20 乗

 これは、10 ケタでは、1024 通りの〈組み合わせの数〉があり、20 ケタではそれが、1048576 通りになるということです。
 二進数の 1 ケタは 1 ビットという通り名をもちますので、10 ビットでは、1024 種類の選択された情報を伝達することができる、ということになります。
 20 ビットではそれが、1048576 種類にまで増えるということです。

 1 ビットで 2 種類、2 ビットでは (2 × 2) 種類で、4 種類という、計算の方法で確認できます。
 これがいわゆる「指数関数的に巨大化する現象」の二択版となります。

 20 の質問で、「イエス (Y) かノー (N) 」を段階的に答えていくだけで、およそ 100 万種類の選択から、答えが選ばれていくという、謎解きが、かくかくしかじかに明かされたわけです。
 そういうわけで、20 ビットの情報量というのはひとつにはまあ、そんな感じになるのでしょうか。

2017年3月11日土曜日

NEGATIVE ENTROPY : ネガティブ・エントロピー

1944 年初版の著書で、シュレーディンガー (Schrödinger) は、
“It feeds upon negative entropy” と書き、それが、
生物体は「負エントロピー」を食べて生きている〟と翻訳されました。
ちなみに、その前のセクションタイトルの表記では、
IT FEEDS ON ‘NEGATIVE ENTROPY’ となっています。

“The Oxford English dictionary” Second Edition によれば、
1950 年、ブリルアン (Brillouin) は、
negative entropy (abbreviation: negentropy)、これを訳すなら、
ネガティブ・エントロピー(省略形:ネゲントロピー)〟と、記しています。

 シュレーディンガーの〝ネガティブ・エントロピー〟というのは、ボルツマンの〈 H 定理〉が、意識されているようです。
 ボルツマンの、〈 H 〉は、マイナス符号をつければ、クラウジウスの〈エントロピー S 〉と同等なものでした。

 一方で、ブリルアンの省略形〝ネゲントロピー〟は、シャノン (Shannon) の〈情報エントロピー〉を意識したものです。
 すなわち ――〝情報〟がもたらすものは、〝混乱〟を想起させる〈エントロピー〉ではなく、その反対の〝秩序〟であるはずだと。
 だから、〝情報〟の価値を表現すべき〈エントロピー〉は、それにマイナス符号をつけた〝負のエントロピー〟である、〈ネゲントロピー〉がふさわしい、としたようです。

これはつまり、マイナス・イメージのものに、さらにマイナス符号を加えれば、
〝マイナス ×(かける)マイナス〟で、プラスのイメージに変換される、
という発想であると、解釈可能なわけですが。

ところで、ここでブリルアンによっても「いうまでもない前提」とされている、
一般論としての「〈エントロピー〉は〝混乱・無秩序〟と同等である」
という、認識・概念は、どこからやってきたものなのでしょうか。

 統計力学的〈エントロピー〉は、
とてもじゃないけど、細かい情報は記述してられないので、全体を統計・確率的に考えて、近似値で表現しよう
という、態度のように、素人なりにも陰ながら思っていたものです。

 つまり、〈エントロピー〉は、小数点以下何十桁の数値のように、四捨五入して捨てられた、情報では、なかったでしょうか。
 結局、「エントロピーの増大」とは、「管理しきれない細かな情報がどんどこ増えていく」現代の状況を、はからずも表現したものではなかったでしょうか?
 管理社会では、管理しきれない情報は、混沌としているがゆえに「混乱・無秩序」と、みなす独断が、最善とされているようです。

一方で、マクスウェルの魔物は、将来開発されるかも知れない、
高性能の計測器・計算機の暗示でも、あったとされています。


Schrödinger ; NEGATIVE ENTROPY
http://theendoftakechan.web.fc2.com/sStage/entropy/negentropy.html

2017年3月9日木曜日

〝場合の数〟は〈平衡状態〉が最も多い

 クラウジウスによって〝熱量÷温度〟が〈エントロピー S 〉と定義されたのでした。
 ボルツマンは、それが〝状態数〟の「自然対数」に比例することを証明しました。

SQ / Tk ln W

 ここに書かれた W がその〝状態数〟をあらわすものです。
 ボルツマンがそれをどのように証明したかは、一般向けの解説書ではおおむね「割愛する」とされています。
 〝負のエントロピー (negative entropy) 〟を 20 世紀の半ばに提唱したシュレーディンガーも、その著書で、
   エントロピー = k log D
とした上で、
この D という量を簡単に専門的な術語を使わずに正確に説明することはほとんど不可能」と書いています。
〔岩波文庫『生命とは何か』 (p.143) 参照〕

 シュレーディンガーというのは量子力学の〈波動方程式〉を書いたひとで、「シュレーディンガーの猫」でも有名です。
 そこでは、マクスウェルの〝魔物(デモン)〟ならぬ〝猫〟が、半死半生の憂き目にあいました。

 一般書の説明ではボルツマンの証明は割愛するとしつつ、〝状態数〟の「自然対数」については、〝状態数〟が大きくなるとその「自然対数」も大きくなるということは、自明の理とされています。そうすると。
 とりあえずは〝状態数〟がどのようなものかを考えれば良いということにして……。

 ここで〝状態数〟とされているのは、〝場合の数〟のことになります。
 それはたとえば、〔壁に突き当たる〕傾斜でボールを転がして、それが壁際に並ぶさまざまな順番の組み合わせを、さらに左右に区切って分けたときに可能な限り数えた、算数・数学に登場する〈場合の数〉のことです。
 それを実際に確認するための、実験の手はずは、次の通りです。ボールの代りに、コピー用紙を使います。
 といいつつ、チラシでもなんでもかまいません。
 それを、6 つに切ります。大きさや形は気にしないことにします。

 6 枚に切り分けられた紙の、それぞれに、A, B, C, D, E, F と、書いて、並べます。
 その、並べ方が何通りあるかを数えたものを、〈組み合わせの数〉としましょう。
 〈組み合わせの数〉は、自然数の「階乗」で計算可能とされています。
 〈場合の数〉はそれにわり算が加わります。
 自然数とは、1 をたし算したものです。

1 = 1
2 = 1 + 1
3 = 1 + 1 + 1
……延々と続く……

「階乗」は、その自然数を n としたとき、n! で、表現されています。
n が 3 ならば、

3! = 1 × 2 × 3 = 6

n が 4 ならば、

4! = 1 × 2 × 3 × 4 = 24

のように、n までの自然数を、全部かけていくものです。

 6 枚の紙に戻って考えます。
 A, B, C, D までが、順番どおりに並んでいて、E, F の順番だけが違っている場合は、

E, F
F, E

の、2 通りです。
 A, B, C までが、順番どおりに並んでいて、D, E, F の順番だけが違っている場合は、

D, E, F
D, F, E
E, D, F
E, F, D
F, D, E
F, E, D

の、6 通りに増えました。
 これは、2 枚の紙が入れかわる場合とくらべて、3 枚の紙だと、その 3 倍に増えたと、考えられます。
 こうして試していくと、次はその 4 倍に、その次はさらにその 5 倍になっていくと、考えることができます。

 このかけ算が、つまり、「階乗」と呼ばれるものなのです。
 そういうわけで、6! は、

6! = 1 × 2 × 3 × 4 × 5 × 6 = 720

この計算は、エクセルで、

   =FACT(6)

で、計算することができます。

――こういう説明の行き先が、そのうちに、

〝場合の数〟は〈平衡状態〉が最も多い

ということの解き明かしになっていくわけです。

 その〈平衡状態〉とはどういう〝場合〟であるのかは最後に出てきます。
 ボルツマンは、気体の運動論で〝状態の数〟を考えています。
 たとえば、ひとつの部屋を、同じ大きさに仕切って左右に分けたとき、
「左右の部屋にある分子の状態はどういう配分になる場合に最も多くなるか」
という分配の〈場合の数〉を、考えたわけです。

 実験には、さらに、空き箱を、2 つ用意しましょう。お菓子の紙箱でも残っていればさいわいです。
 箱を左右に並べて、6 枚の紙を左右に振り分けてみますと。
 左右の箱それぞれに 6 枚の紙を配分する場合の数の考え方は、全部で 7 種類となります。
 片方が 0 枚ならば、もう片方は 6 枚となって、それが 2 種類あります。
 全部書き上げてみれば、

0 枚 と 6 枚
1 枚 と 5 枚
2 枚 と 4 枚
3 枚 と 3 枚
4 枚 と 2 枚
5 枚 と 1 枚
6 枚 と 0 枚

ということになります。
紙を並べたときの組み合わせの数から、さらに、
同じ組み合わせになっているものを差し引いて考えたのが〈場合の数〉です。
それは、

0 枚と 6 枚では、1 通りとなります。
6 枚と 0 枚でも、1 通りとなります。

1 枚と 5 枚では、6 通りとなります。
5 枚と 1 枚でも、6 通りとなります。

2 枚と 4 枚では、15 通りとなります。
4 枚と 2 枚でも、15 通りとなります。

3 枚と 3 枚では、20 通りとなります。エクセルでは、

   =MULTINOMIAL(3,3)

で、計算できます。
 これが〈場合の数〉となります。

 考え方としては、6 枚のうち 1 枚しか左の箱に入れない入れ方が何通りあるかは、全体の紙の枚数と一緒になるということは、実際にやってみれば、すぐに理解できようかと思われます。ので、まずは考えるんじゃない、やってみるんだ、ということになります。
 さらに、6 枚のうち 2 枚を箱に入れる入れ方は、

6 通り × 5 通り ÷ 2 通り = 15 通り

で、このとき、2 で割るのは、選ばれた 2 枚の紙が同じアルファベットの組み合わせになることがあるからです。
 それは、〈場合の数〉では、〝同じ場合〟となって、あわせて、ひと通りと勘定されます。

――さて。
2 枚の紙の同じ組み合わせは、2 通りありました。
(例:A, B と B, A の組み合わせ)
入れる順番だけで考えると、同じ組み合わせになる数の 2 倍の入れ方が、あるということです。
 同じ組み合わせになる場合は全部、あわせて、ひと通りと勘定されます。

 そう考えると、6 枚のうち、3 枚を箱に入れる入れ方は、単位をはぶいて、

(6 × 5 × 4) ÷ (2 × 3) = 120 ÷ 6 = 20

つまり、紙を選んで入れていく手順が、いく通りあるかに加えて、
入れた結果が同じ組み合わせになっている場合も、忘れずに、考えればよいということになります。

   (組み合わせの数)÷(同じ組み合わせになる数)=〈場合の数〉

となるわけです。
 この計算は、2 枚と 4 枚の場合では、
 2 と 4 をたした数の「階乗」を、2 の「階乗」と 4 の「階乗」をかけた数で割った答え、

(2 + 4)! ÷ (2! × 4!) = 15

2! = 1 × 2 = 2
4! = 1 × 2 × 3 × 4 = 24
6! = 1 × 2 × 3 × 4 × 5 × 6 = 720

6! ÷ (2 × 24) = 720 ÷ 48 = 15

と、同じになります。先におこなった、計算結果の、

6 通り × 5 通り ÷ 2 通り = 15 通り

と、計算している数字を比べてみてください。
――その比べた計算が、
6! を 4! で割って、さらに 2! で割っているのと同じことになっていることに気づきます。

 そうやって計算してみると、3 枚と 3 枚で左右に分配した、

6! ÷ (3! × 3!) = 20

が、〈場合の数〉としては、最も多くなるという、計算結果がだんだんとみえてきます。

 これを、A, B, C, D, E, F, G, H と、増やして考えても、左右が同じ数量になるように配分したとき、〈場合の数〉が最も多くなるのです。
 つまり、〝放っておけば、そうなる場合が、最も多い〟という現実です。
 この「同じ数に配分される」ことを、〈平衡状態〉と表現して、そうなる「確率」が最も高いと、ボルツマンはいったようです。
 つまり〈平衡状態〉という謎の言葉は、「比べてみて似たような状態になっていること」を意味しているわけです。
 この世界とか宇宙がだんだんと〈平衡状態〉になりやすいということは、〝確率的に可能性の高い状態になりやすい〟ということなのです。

 それを、気体の分子の状態で考えて、ましてや〝証明〟など、とんでもない話であることが、にわかに知られます。


〔訂正 前〕
 〈組み合わせの数〉は、自然数の「階乗」のわり算で計算可能とされています。
 自然数とは、1 をたし算したものです。

〔訂正 後〕
 〈組み合わせの数〉は、自然数の「階乗」で計算可能とされています。
 〈場合の数〉はそれにわり算が加わります。
 自然数とは、1 をたし算したものです。

2017年3月7日火曜日

〈エントロピー〉は〝状態量〟であるということ

 クラウジウスは、〝熱量÷温度〟を〈エントロピー〉という状態量であるとしました。

状態量というのは、たとえば、〝長さ〟や〝重さ〟などの状態をあらわす量で、
通常は数字に、単位(メートルやキロメートル・グラムやキログラムなど)をつけて、
その数値がどのことに関しての量であるかを、示すことになっています。
ほかにも、体積や気圧・圧力など、さまざまにあります。
つまり、状態量というのは、ぶっちゃけ、〝長さ〟や〝重さ〟などの数(かず)のことです。

そういうわけで、身長にも体重にもそれなりに、単位が、ついてきます。
でなければ、体重が、50 トンかも知れません。

 さて。〈エントロピー〉が状態量であるというときの単位は、
J / K 〉で、これを〝ジュール毎ケルビン〟と読みます。
 1 ケルビンごとに、何ジュールか、というわけです。

――ここで〝毎(まい)〟について少々説明しますと、これは、
毎度毎度(まいどまいど)の〝毎〟でもあるわけですが、
日常的には、「そのたびごとに」の意味で使われています。
理科の単位的には、〝毎度〟で、「 1 度ごとに」の意味となります。

たとえば、秒速 5 メートルの風というのは、
毎秒 5 メートルの風、ともいいまして、
この単位は、風速 5 メートル毎秒と表現されたときの、〝メートル毎秒〟です。
1 秒ごとに 5 メートル移動する風です。風の速さを示しています。

 〈 J / K 〉は、そういうわけで、「ジェイケイ」ではなく、「ジェイ毎ケイ」となります。
 ジュール (J) もケルビン (K) も、もともと、科学者の名前です。それが、
〈ジュール〉は〝熱〟の量、
〈ケルビン〉は〝温度〟の量
として、単位の名前になりました。〈ケルビン〉は〝絶対温度〟をあらわす単位です。

   1 cal = 4.184 J

 これは、1 カロリーは、4.184 ジュールであることをあらわします。

   0 ℃ = 273.15 K

 現在の絶対零度は、-273.15 ℃ なので、これは、
 絶対温度基準では、摂氏零度は、273.15 ケルビンであることをあらわします。

このような単位をもとにして考えてみても、〈ボルツマン定数 k 〉の単位は、
〈エントロピー〉と同じ〈 J / K 〉となります。
――というのは、

   SQ / Tk ln W

   ( k = 1.380658 ÷ 10 の 23 乗 )

これが、現在〈エントロピー S 〉の定義として、認められている量であることになります。

熱量を温度で割った〈エントロピー S 〉の量は、
〈状態数 W 〉の「自然対数」に比例することを、
ボルツマンが証明してしまったからなのです。
この場合、分子が位置する状態の可能性(場合の数)が〈状態数 W 〉と表現されています

 で。「対数」というのは、「繰り返しかけ算される回数」のことでしたから、それ自身に単位は想定できかねます。
 その「対数」がゆくゆくは〈エントロピー S 〉と同じ状態量となるからには、単位が必要となって、それは、〝状態数の自然対数〟に、かけ算されている、〈ボルツマン定数 k 〉の単位と同じでなければ、計算が完結しないということになりましょう。

 しろうとなりに考えて、このような結論となった次第で、
――あとは専門家に確認してみてください。


ボルツマンの原理 : H 定理 と ボルツマン方程式
http://theendoftakechan.web.fc2.com/sStage/entropy/Boltzmann.html


【4月8日追記】本文の訂正です
単位をつけて書くという説明に用いられるべきは〝物理量〟で、
『広辞苑』第六版の説明では、それは、
物理系の性質を表現し、その測定法、大きさの単位が規定された量。位置・質量・エネルギーなど。
となっています。ですので、本文冒頭の文章は、
「つまり、物理量というのは、ぶっちゃけ、〝長さ〟や〝重さ〟などの数のことです。」
のように書けばそれなりに正しかったのでしょうが、いまとなってはあとのまつり。
なぜかそう思い込んで書いてしまった「〝長さ〟や〝重さ〟」が〝状態量〟である、というのは、とんでもないデタラメでした。
つつしんで、訂正させていただきます。

財団法人国際科学振興財団/編『科学大辞典』第2版(平成17年2月28日 丸善発行)
の 684 ページに〝状態量〟は、次のように説明されています。
物質の熱力学的状態によって定まる物理量。圧力、温度、体積、内部エネルギーなど。

このように〝状態量〟というのは、物理量の一部をさしていうのであって全体ではないにもかかわらず。なぜかすっかり混同・混乱しておりました。
反省するほどにしみじみと落ち込みます。以前にも書いた言葉。
字を書くとは、同時に恥もかく覚悟がいる。

2017年3月3日金曜日

〈エントロピー〉と拡散する分子の状態

Sk log W

 これは「ボルツマン方程式」として有名な数式です。
 名称には〝ボルツマン〟とありますが、作成したのは、プランクです。
 ボルツマンの考えをもとに、プランクが、この簡潔な表記を、導き出しました。
 量子論の祖プランクが「輻射の法則」を発見したのは、1900 年で、それが〈エネルギー量子仮説〉提唱の年とされています。
 19 世紀最後の年に、宇宙の実相が〝連続的(アナログ的)〟ではなく、〝離散的(デジタル的)〟になり始めたという、いきさつになります。
 その当時、世界が〝原子〟という「つぶつぶ」で構成されているということすら疑われていた時代はなお続いていました。
 1900 年 12 月に口頭発表した論文、「正常スペクトル中のエネルギー分布の法則の理論」の中でこの式を書いたのだと、プランク自身が 1948 年の回想で述べているようです。
 〈ボルツマン定数 k 〉も、1901 年に提出となったその論文で、プランクが計算した数値だとされます。
 k は 1.346 を 10 の 16 乗で、割ったものでした。
 〔単位は「エルグ毎絶対温度 (erg / K) 」〕

 現在では、k は 1.380658 を 10 の 23 乗で、割ったもの〔単位は「ジュール毎絶対温度 (J / K) 」〕とされています。
 ケタ数(乗数)の違いは、エネルギーの単位が、ジュールとエルグで 7 桁違うことに起因しています。
 その 10 の掛け算を説明してみれば――。
 1 を最初の数とすれば、10 進法に限らず、ひとケタ上がった最初の数は 10 となるので、10 の掛け算をするごとに、1 桁増える仕組みになっているということです。

10 の掛け算では、そのことに加えて、
 10 の 2 乗 × 10 の 3 乗 = 10 の 5 乗
というのが、
 10 の (2+3) 乗 = 10 の 5 乗
になるという仕組みがあります。
 これで、桁数の計算は、掛け算から、足し算になって、簡単になった、というわけで、「対数」なるものが発明されます。

 通常は、〈値 A 〉を〈繰り返し掛ける回数 B 〉という計算では、「答え」を〈指数関数 C 〉といいます。
 このとき、〈繰り返し掛ける回数 B 〉を「指数」といいますが、この「指数」を求める計算式を作って、計算しようとする際には、その「答え」となるべきかつて「指数」と呼ばれていたものが、〈対数関数(たいすうかんすう) B 〉となります。
 それで、〈指数関数(しすうかんすう) C 〉だったものも、計算式の〝計算結果〟ではなくなるので名称変更となり、対数を求めるもともとの数として「真数(しんすう)」と位置づけられることになるのです。

〈値 A 〉の名称を「底(てい)」といいます。
そして〈繰り返し掛ける回数 B 〉が「指数(しすう)」から「対数(たいすう)」に名称変更となりました。

 ケタ数の話はどうなっているのかといいますと、対数の計算では、
B = (log A) C という表記方法となり、〈 A 〉が、10 であれば、
「〈 C 〉の桁数マイナス 1 」が、〈 B 〉となっています。
(これがゼロの数と同じになるというのは 10 の 2 乗 は 100 で 3 桁となりますよって)

 上の「ボルツマン方程式」でいうと、
〈対数〉の計算というのは、〈底〉を何乗したら、〈 W 〉になるか、という計算式のことになります。
 この式では、log と書かれていますが、〈底〉は 10 ではなく、e なので、log e = ln という表記もあります。
(恐るべきことに〈底〉が 2, e, 10 の場合には〈底〉の省略が可能なのです)
 e というのは、自然対数の底というものなので、これは「自然対数」を求める式なのだという説明になりますが、このあたりから、e によって混乱が拍車されるので、あまり深くは考えないようにします。

 結局、〈自然対数の底 e 〉を何乗したら、〈 W 〉になるかという、計算式に、
〈ボルツマン定数 k 〉を掛けたものが、「ボルツマン方程式」ということになります。

 この時。〈 W 〉はたとえば、水に落ちて拡がっていくインクの 1 滴に含まれる分子が動いた結果、分子の位置の状態がどのように変化していくかを計算した〈場合の数〉を表現したものなので、もはや考えるのはやめにして。
 それでも、実際に実験してみなくても、その〈場合の数〉が刻々と大きくなっていくのは目に見えるようです。
――そういうわけで、その計算結果の〈対数 S 〉もまた、一方的に増えるばかり、という次第となるわけです。

 これは、「統計力学」的〈エントロピー〉の表現だといわれているものです。
 以上の説明は、そこに表示された記号の表面的な意味をかすめたほどにもあらねど。

 次の資料ページの末尾に、〈対数 S 〉の演算例を少々、計算式と一緒に書いてみました。

熱力学:統計力学:量子力学
http://theendoftakechan.web.fc2.com/sStage/entropy/Maxwell.html