Remark(1)何ができる?

about remark/unified framework


2020/08/26
藤田昭人


またまたご無沙汰してしまってますが…
本稿からしばらく、いつもとは趣向を変えて remarkについて集中的に紹介してみたいと思います。

実は本稿はこのブログにポストした30番目の記事になります*1。 で、何よりも問題なのは、過去のブログ記事で何を書いたのか忘れてしまう事です。 最近では「あれ?これ、書いた気がするなぁ」とは思い出すのですが、 肝心の「ブログのどの回で、どのように触れたのか?」を なかなか思い出せないことが増えてます。

こういう時の「書いた気がする」という曖昧な記憶から、 サーチエンジンの検索条件を捻り出すのは案外難しい作業だったりします。 止むなく、過去の記事を順番に流し見てみるのですが…これが結構、イライラさせられます。 そこで「僕の曖昧な記憶に沿った検索」を実現できないか?などと考え始めました。

今もって具体的なアイデアは思い付いてないのですが、 まずは過去のブログ記事を普通に検索できる仕組みを用意することにしました。


Remark: Javascript による Markdown プロセッサ

僕のブログ記事は「はてなブログ」の Markdown で記述しているので、 まずは実績のある Markdown の管理ツール・ライブラリを探してみました。 もちろん Markdown といえば Pandoc があることは承知しているのですが、 前述のとおり、そのうち「曖昧な記憶に沿った検索」を実装したいので、 馴染みのある Javascript ベースの Markdown 管理ツール・ライブラリが欲しいところです。

調べてみたところ Remark なるオープンソースが見つかりました。 次のような 概要 が説明されています。

remark is a Markdown processor powered by plugins part of the unified collective. The project parses and compiles Markdown, and lets programs process Markdown without ever compiling to HTML (it can though). Powered by plugins to do all kinds of things: check Markdown code style, transform safely to React, add a table of contents, or compile to man pages.

remarkは、unified コレクティブのプラグインの一部である Markdown 用のプロセッサです。 このプロジェクトは Markdown をパースしコンパイルして、 HTMLにコンパイルすることなくプログラムがMarkdownを処理することを可能にします。 Markdownのコードスタイルのチェック、React への安全な変換、 目次の追加、あるいはマニュアルページのコンパイルなど、 あらゆる種類の処理を行うためのプラグインを搭載しています。

Pandoc ほどメジャーではなさそうですが、よく似た目標で開発されていて、 もう少しプログラマブルな側面に重点が置かれているような感じです。

実は、当初は甘く見てクイック(ダーティ)ハックで、 ちょこちょこと簡易ツールを作ることを目論んだのですが、 このツールが構築されている Unified なるフレームワークは かなり大掛かりなようで敢なく玉砕。 止むなく正攻法で攻めることにしました。


Remark は何ができるの?

で、チュートリアルを探し回ったのですが…

現時点での Remark の難点の1つはドキュメントの整備が行き届いてないこと。 公式のチュートリアルに相当するのは Using unified という 短めのドキュメント(メモ書きとも言う)あたりになるようです*2

ここでは、このメモ書きをさらに端折って紹介します。


基本的な Markdown から HTML への変換

まず、もっとも基本的な Markdown to HTML のコンバーター index.js は次のとおりです。

var unified = require('unified')
var stream = require('unified-stream')
var markdown = require('remark-parse')
var remark2rehype = require('remark-rehype')
var html = require('rehype-stringify')

var processor = unified().use(markdown).use(remark2rehype).use(html)

process.stdin.pipe(stream(processor)).pipe(process.stdout)

JavascriptPromise を使って、 Unix のパイプのような記法で処理が記述できるのが(僕には)わかり易い。 このコンバーターUnix のフィルターのような使い方をするようです。

node index.js < example.md > example.html

ちなみに次のようなファイル example.md を入力すると…

# Hello World

## Table of Content

## Install

A **example**.

## Use

More `text`.

## License

MIT

次のようなファイル example.html が出力されます。

<h1>Hello World</h1>
<h2>Table of Content</h2>
<h2>Install</h2>
<p>A <strong>example</strong>.</p>
<h2>Use</h2>
<p>More <code>text</code>.</p>
<h2>License</h2>
<p>MIT</p>


もう少しリッチな HTML への変換

さらにプラグインを使うように index.js を修正すると…

--- ../Tree transformations/index.js 2020-08-20 13:52:22.000000000 +0900
+++ index.js  2020-08-20 14:11:07.000000000 +0900
@@ -1,9 +1,18 @@
 var unified = require('unified')
 var stream = require('unified-stream')
 var markdown = require('remark-parse')
+var slug = require('remark-slug')
+var toc = require('remark-toc')
 var remark2rehype = require('remark-rehype')
+var doc = require('rehype-document')
 var html = require('rehype-stringify')
 
-var processor = unified().use(markdown).use(remark2rehype).use(html)
+var processor = unified()
+  .use(markdown)
+  .use(slug)
+  .use(toc)
+  .use(remark2rehype)
+  .use(doc, {title: 'Contents'})
+  .use(html)
 
 process.stdin.pipe(stream(processor)).pipe(process.stdout)

出力される example.html は次のように変わります。

<!doctype html>
<html lang="en">
<head>
<meta charset="utf-8">
<title>Contents</title>
<meta name="viewport" content="width=device-width, initial-scale=1">
</head>
<body>
<h1 id="hello-world">Hello World</h1>
<h2 id="table-of-content">Table of Content</h2>
<ul>
<li><a href="#install">Install</a></li>
<li><a href="#use">Use</a></li>
<li><a href="#license">License</a></li>
</ul>
<h2 id="install">Install</h2>
<p>A <strong>example</strong>.</p>
<h2 id="use">Use</h2>
<p>More <code>text</code>.</p>
<h2 id="license">License</h2>
<p>MIT</p>
</body>
</html>


ファイル名を明示的に与える場合

さらにファイル名を明示的に渡すには…

--- ../Plugins/index.js  2020-08-20 14:11:07.000000000 +0900
+++ index.js  2020-08-20 14:31:16.000000000 +0900
@@ -1,5 +1,6 @@
 var unified = require('unified')
-var stream = require('unified-stream')
+var vfile = require('to-vfile')
+var report = require('vfile-reporter')
 var markdown = require('remark-parse')
 var slug = require('remark-slug')
 var toc = require('remark-toc')
@@ -15,4 +16,9 @@
   .use(doc, {title: 'Contents'})
   .use(html)
 
-process.stdin.pipe(stream(processor)).pipe(process.stdout)
+processor.process(vfile.readSync('example.md'), function (error, file) {
+  if (error) throw error
+  console.error(report(file))
+  file.extname = '.html'
+  vfile.writeSync(file)
+})

…と修正します。 この例では入出力ファイルをソースにハードコードしているので…

$ node index.js
example.md: no issues found

となります。


Markdown のテキスト部分を取り出してチェック

最後に僕的には興味深い機能ですが…
Markdown ファイルのテキスト部分だけを取り出して 構文チェックをする例も紹介されてます。

--- ../Reporting/index.js    2020-08-20 14:31:16.000000000 +0900
+++ index.js  2020-08-20 15:45:39.000000000 +0900
@@ -4,12 +4,16 @@
 var markdown = require('remark-parse')
 var slug = require('remark-slug')
 var toc = require('remark-toc')
+var remark2retext = require('remark-retext')
+var english = require('retext-english')
+var indefiniteArticle = require('retext-indefinite-article')
 var remark2rehype = require('remark-rehype')
 var doc = require('rehype-document')
 var html = require('rehype-stringify')
 
 var processor = unified()
   .use(markdown)
+  .use(remark2retext, unified().use(english).use(indefiniteArticle))
   .use(slug)
   .use(toc)
   .use(remark2rehype)

…と修正して、実行すると…

$ node index.js
example.md
  7:1-7:2  warning  Use `An` before `example`, not `A`  retext-indefinite-article  retext-indefinite-article

⚠ 1 warning

…と「example の冠詞は An ですよ」とワーニングが表示されます。


まとめ

…とまぁ、本稿では Remark のチュートリアルにあるサンプルを紹介しました。

どうやら Remark は JavascriptPromise を活用して、 Markdown ドキュメントを対象に(Unixのパイプのように) 様々な機能ブロックを継ぎ足して処理を行うツールのようです*3

次回は機能ブロックを実現している Plugin について調べてみたいと思います。

以上

*1:2019年2月から1年半の間に30本ですので、 月刊連載の頃に比べれば大幅にペースアップしてますが、 当初の目標だった月2本のペースには届いていません。 ちなみに『Unix考古学』は連載26ヶ月分だったので、 分量的には1冊分は書いてることになるのですが、 今の草稿は各回の内容が散漫過ぎるので これをベースに直ちに単行本を執筆するのはなかなか厳しそうです。

*2:"Unified Handbook" なるドキュメントも見つけましたが…

github.com

これまた "This is a work in progress" なんだそうです。

*3:このビルディング・ブロックを継ぎ足す機能は Unified フレームワークが 提供しているのでしょうが…

アラン・チューリングの戦時の最大の成果は何だったのか?

What was Alan Turing's greatest wartime achievement?


2020/08/05
藤田昭人


このところアラン・チューリングに関する話題に執着してますけども…

チューリングのネタもまたまた底無し沼でして、 「本稿で一旦区切りを付けよう」と考えて執筆に取り掛かったのですが、 まとめられずにボヤボヤしている間に1ヶ月経ってしまった と言ったところです。「かくなる上は…」と力づくで書いてるので 今ひとつの内容かもしれませんが、よろしくお付き合いください。

さて…

前回 はNHKの人気ドキュメンタリーシリーズ「フランケンシュタインの誘惑」の アラン・チューリングの回にコメントする形で記事を書きました。 番組のトーク・パートの中で「1939年から1945年、チューリングが27歳から 33歳の研究者として最も生産性の高い年齢の期間の業績を封印されるのは、 研究者個人としては致命的な打撃を受ける」との発言がありました。 でもその研究成果については…番組では暗号解読機 bombe の紹介ばかりで、 それ以上掘り下げられることはありませんでした。 本稿では、そこを掘り下げたいと思います。


アラン・チューリング・イヤー

話が少し飛んでしまいますが…

アラン・チューリングの生誕100周年だった2012年は アラン・チューリング・イヤー とされ、年間を通じてチューリングの業績を讃える様々なイベントが世界中で開催されました。 その最中、チューリングの誕生日の2ヶ月前の2012年4月、BBCは次のニュースを報道しました。

www.bbc.com

"Two 70-year-old papers by Alan Turing on the theory of code breaking have been released by the government's communications headquarters, GCHQ."

アラン・チューリングによる暗号解読理論に関する70年前の論文2本が、政府通信本部GCHQ)によって公開されました」

という地味な表現で始まるこの報道は、チューリングの様々な革新的な研究のうち 最後まで隠され続けた成果がとうとう公開されたことを報じたものです。 これ、もし70年前に明らかになっておればその後の世界に大きな影響を与えたかもしれない。 ひょっとしたらチューリング最大の研究成果だったのかもしれません。 なので、単に「暗号解読理論」(the theory of code breaking)などと 素っ気なく表現するあたりのマスコミのセンスはやはり英国ならでは?と思ってしまいます(笑)


エニグマの暗号解読について

今日ではチューリングの貢献がクローズアップされるエニグマの暗号解読ですが、 実はチューリングが手掛けるずーっと以前、1920年代からイギリスだけでなく フランスやポーランドでもエニグマの暗号解読は試みられてきました。 特にドイツと陸続きで隣接するフランスやポーランドにとって、 ドイツの軍用暗号は自国の死活に直結する問題でしたので多くの労力を注ぎ込んでいた事は想像に難くありません。 1932年、ポーランドの数学者であるマリアン・レイェフスキがエニグマの暗号解読に成功しました。

ja.wikipedia.org

レイェフスキはエニグマインジケーター を利用して暗号解読を行いました。エニグマを使って暗号文での通信を行うには 伝文ごとに送信側と受信側のエニグマのローターやプラグの設定を合わせる必要がありましたが、 その設定を示すのがインジケーター、ちょうど暗号メールメッセージに付与するパスワードみたいなものです。 レイェフスキは今日のパスワード・ハックとよく似た手法を使ってインジケーターを推測し、 暗号文の解読に成功したようです。しかし、この方法の弱点はドイツ軍がインジケーターの決定ルールを変更する度に、 解読方法をゼロから調べなければならないことで、それが「不安定な解読方法」と呼ばれた由縁のようです。

このようにエニグマの暗号解読には成功していたポーランドですが、 1939年9月にドイツとソ連に挟撃される形で一気に占領されてしまいました。 これが第2次世界大戦の始まりです。戦争が不回避な状況を事前に察知していたため、 1939年7月、ポーランドの暗号局はエニグマの暗号解読に関わる一切の情報を イギリスとフランスに対し開示しました。その中にはポーランドの手で復元した エニグマのクローン機 2台も含まれました*1。 ドイツとソ連によるポーランド占領後、レイェフスキたち暗号局の面々はフランスの ブルーノ暗号機関 に移って暗号解読の作業を続けました。 これはドイツがフランスに侵攻する1940年6月まで続けられました。

チューリングが政府暗号学校(GC&CS)に着任したのは、 ポーランド暗号局の情報開示が行われた時期と概ね重なります。 フランスの諜報機関がスパイ活動などで集めたエニグマに関する情報の断片、 さらにポーランド暗号局による解析結果などなど、 イギリスはこの時、これらの膨大は情報をまとめて手にすることができました。 いよいよ天才の出番でした。

インジケーターに大きく依存するレイェフスキの解読方法に懸念を持っていた イギリスの暗号解読のスタッフは、それとは異なるアプローチを採用しました。 今日 Crib-based decryptionクリブ 式暗号解読)と呼ばれる手法です。「クリブ」とは 「既知のもしくは想定されうる平文のサンプル」を意味する ブレッチリー・パークで使われた隠語だったそうです。 暗号化されたメッセージ本文に暗号文とそれに対応するクリブがわかっている断片を 付き合わせることで解読する、膨大な作業量を必要とするアプローチでした*2

このクリブを使って、エニグマメッセージに使用される可能性のある正しい設定 (すなわち、ローターの順番、ローターの設定、プラグボードの設定)を 機械的に探索するために作られたのが bombe でした。この機械はエニグマと等価な動作をするホイールを36個使って、 総当たり式に正しい設定を探ります。ホィールを3個1組で使う手法は、 レイェフスキが同じ目的で製作した bomba から拝借したアイデアです。 また、チューリングGC&CS に所属しているときにも渡米してますが、 その際にアメリカで開発されていた bombe を見て、次のように書き残しています。

The American Bombe programme was to produce 336 Bombes, one for each wheel order. I used to smile inwardly at the conception of Bombe hut routine implied by this programme, but thought that no particular purpose would be served by pointing out that we would not really use them in that way.

アメリカの bombe 計画は336個の bombe を生産することになっていた。 私はこのプログラムが暗示するbombeの hut ルーチンに内心微笑んでいたが、 目的は果たせないだろうと思いながら、 実際にはそういう使い方はしないだろうと指摘した。

この「全くわかっちゃいない」的なコメントもまた、 第2次世界大戦当時のイギリスとアメリカの技術格差を物語るエピソードでしょう*3

ちなみにWikipedia英語版には以下の「エニグマの暗号解読」というページが存在します。

en.wikipedia.org

エニグマについて、歴史的な事実を踏まえ、 技術的にどのような方法が使われたのかわかりやすく解説している、 初心者向けの暗号解読マニュアルのような内容です。 エニグマに関心のある高校生や大学生の皆さんにはお勧めのテキストでしょう。


チューリングが政府暗号学校(GC&CS)で挙げた5つの研究成果

アラン・チューリングといえば、一般には bombe の開発で知られているのではないでしょうか? 特徴的なホィールが無数に並ぶ筐体はやはり一般にも「絵になる」わかり易い成果ですから。

もっとも Wikipedia の「アラン・チューリング」のページの 「暗号解読」 の項によると、bombe はチューリングGC&CSで挙げた5つ研究成果のうちの ひとつ目なんだそうです。5つ研究成果を次にあげておきます。

  • ボンベ(Bombe) の設計
  • ドイツ海軍が使用するインジケーターの手順を推定する
  • バンベリスムス(Banburismus)の考案
  • チューリンジャー(Turingery)の考案
  • デリラ(Delilah)の設計

このうち最も注目すべきはバンベリスムスです。 Bombeでの暗号解析時間を圧縮するため、1940年ごろに考案されたこの解析手順は、 条件付き確率による逐次分析を使用して、最短でエニグマの正しい設定にたどり着く推測します。 分析手法以外で特筆すべき事柄として、推測の正しさを表す単位としてバン(ban)と呼ばれる 独自の指標を発明したことです。この単位は クロード・シャノン が1948年に発表した情報理論で定義した情報量の概念を先取りした概念だそうです。 また、チューリンジャーはバンベリスムスで確立した手法を応用して、 エニグマよりも暗号強度の高いローレンツ暗号を解読する手順です。


バンベリスムスとベイズ統計学

Wikipedia の「アラン・チューリング」のページでは、 バンベリスムス(およびチューリンジャー)について次のように紹介しています。

By using statistical techniques to optimise the trial of different possibilities in the code breaking process, Turing made an innovative contribution to the subject. He wrote two papers discussing mathematical approaches, titled The Applications of Probability to Cryptography[64] and Paper on Statistics of Repetitions,[65] which were of such value to GC&CS and its successor GCHQ that they were not released to the UK National Archives until April 2012, shortly before the centenary of his birth. A GCHQ mathematician, "who identified himself only as Richard," said at the time that the fact that the contents had been restricted for some 70 years demonstrated their importance, and their relevance to post-war cryptanalysis:[66]

統計的手法を用いて、コード解読手順における様々な可能性の試行を最適化することによって、チューリングはこの主題に革新的な貢献をした。彼は、数学的アプローチを論じた2つの論文「The Applications of Probability to Cryptography」(暗号への確率論の応用)と「Paper on Statistics of Repetions」(反復統計に関する論文) を執筆した。これらの論文はGC&CSとその後継者であるGCHQにとって価値があり、彼の生誕100周年の直前である2012年4月まで英国国立公文書館に公表されなかった。当時、GCHQの数学者は「彼は自分をリチャードとしか名乗らない」と語ったが、この内容が約70年間制限されていたという事実が、その重要性と戦後の暗号解読との関連性を示している。

冒頭で語ったチューリングの「最後まで隠された研究成果」とは、問題解決の方法として統計学的手法を活用することを語った論文でした。 すなわち、今日で言うデータ・サイエンス的な手法を使って、チューリングは80年前にドイツ軍の暗号解読に成功していたことになります。

ちなみに、この論文2篇はPDF化されたバージョンが arxiv からダウンロードできます。

arxiv.org

arxiv.org

では、チューリングが用いたされる統計的手法とはどんなものだったのでしょうか? 統計学の専門家の間ではチューリングの統計的手法は「ベイズ統計学」に分類されるとみなされているようです。 書籍『異端の統計学 ベイズ』 では、18世期に生まれた「ベイズの法則」がその後たどってきた歴史を紹介しています。

www.soshisha.com

同書は全編を通して、頻度主義者を相手に苦しい闘いを続けてきたベイズ学派の長い苦闘の歴史が語られています。 「客観性に欠けるが実用では役に立つ」ベイズ統計学の華々しい成果のひとつとして、 チューリングの暗号解読について第4章を丸々使って紹介していますが、 今日のベイズの隆盛の遠因となったパーソナルコンピュータの普及にチューニングが果たした役割や、 おそらく深いところでは密接に関連しているだろう人工知能とチューニングの関わりについて、 記述が見つけられないのは「これが統計学者の史観なんだろうなぁ…」と思ったりします。

書籍『異端の統計学 ベイズ』が語るチューリングの最後もまた悲劇的なのですが、 類書と幾分違うのは「チューリングが編み出した手法は暗号学の中で生き残った」としているところです。 もっとも、それがベイズ学派の苦闘に利することもなかったとしてます。 同書によればベイズ統計学の「決定的なブレークスルー」が登場するのは1989年あたり。 冷戦の終結した時期と重なります。これは単なる偶然ではないのかもしれませんね。


戦時中の研究成果についてチューリング自身はどのように考えていたのか?

ナチス・ドイツが降伏した途端、 ウィンストン・チャーチルGC&CSの研究成果を封印するように命じたそうですが、 この命令がコンピュータ・サイエンスの世界ではとんでもない機会損失となったことは間違いないでしょう。 結局、チューニングの成果は長いあいだ軍事技術の世界に独占されることになりました。 その長らく封印されていた最後の秘密が公開されるまでに70年間を要したという、 ある意味では大変気の長い話ではあります。

冒頭で紹介したBBCのニュース報道は次のような文章で終わります。

According to the GCHQ mathematician, who identified himself only as Richard, the papers detailed using "mathematical analysis to try and determine which are the more likely settings so that they can be tried as quickly as possible."

...

Richard said that GCHQ had now "squeezed the juice" out of the two papers and was "happy for them to be released into the public domain".

He added that the work of Bletchley Park was held in high regard by GCHQ. "I think we are very proud of the history of our organisation and like to think that we are their successors," he said.

GCHQの数学者で、自らをリチャードとだけ名乗った人物(チューリングのことのようです)によると、 論文の詳細は「可能な限り迅速に試すことができるように、 どちらがより可能性の高い設定であるかを決定しようとする数学的分析」 を使って書かれているという。

...

リチャードは、GCHQは現在、2つの論文から「ジュースを絞り出した」と述べ、 「パブリックドメインとしてリリースされることに満足している」と語った。

彼は「ブレッチリー・パークの仕事はGCHQによって高く評価されている」と付け加えた。 「私達は、私達の組織の歴史を非常に誇りに思っているし、私達が彼らの後継者だと思いたいと思っている」と彼は語っている。

この最後の部分をどのように解釈すべきかは悩ましい問題です。

というのも、1912年生まれのチューリングは、 中央集権国家による帝国主義の時代であった 19世期の価値観に影響を受け、大きく引きずっていたように想像するからです。 おそらく当時は国家への貢献を誇らしいと考える人は今よりずっと多かったでしょう。 第2次世界大戦中の軍事研究の当事者の行いについて 後世の価値観でもって断罪する輩は多いのですが、 彼らが生きた時代の社会通念を考慮しないのはフェアではないように僕は思うからです。 こういった歴史上の事実について、現在の科学者が「僕ならこのような研究には加担しない。 もし逃れようがなければサボタージュをする」などと答える例がありますが、 これは問題の本質を取り違えた短絡的で無責任な発言だと言わざる得ません。

実際、コロナ禍の真っ只中にある現在においては特にリアルな問題でしょう。 現在、医学や生理学の研究者はコロナ・ウィルスの正体を見極め、 その治療法を確立しようと賢明の努力をされていることでしょう。 人間の生死に関わる問題だけに時間との勝負になってるのだと思いますが、 故に多くの研究者が自らの研究成果を論文にまとめたら、 すぐにインターネットで公開して情報共有しておられる。 これは同時に事実上自らの研究成果をパブリックドメインとしていることになります。 研究者一個人の視点で見れば、これは戦時中のアラン・チューリングの立場と全く変わらないように思うのです。 個人にとって「起こってしまった戦争」は「突如発生したパンデミック」と何ら変わらない。 その渦中にあっては、誰もが問題解決のために自分に出来ることを努力するしかないのです。

そのように考えると、記事が語る「パブリックドメインとしてリリースされることに満足している」 とのセリフの背景には様々な思いが横たわっているように感じてしまうのです。

もっとも…

そこは浮世離れした変人としても知られていたチューリングのことですから、 このように世俗にまみれた事柄に頭を悩ますようなことは案外なかったのかもしれません。

著名なチューリング研究家であるアンドリュー・ホッジス(Andrew Hodges)によれば、 チューリング個人にとってブレッチリー・パークでの経験は、 当時の最先端の電子工学を学ぶ機会でもあったそうです。 彼は回路設計の方法を独学で習得したそうですが、 それは彼にとって、ケンブリッジ大学の時代には 夢想するしかなかったユニバーサル・マシンを 実現する方法を習得することに他ならなかったようです。

では、「万能機械」を更に発展させた「知能機械」を チューリングが構想するようになったのは何時ごろから何でしょうか?ホッジスは 論文 "Alan Turing and the Turing Test" の中で次のように語っています。

But in the period around 1941 when the immediate crisis of the Enigma problem was resolved, Turing began to discuss with colleagues at Bletchley Park the possibility of machines playing chess (Hodges, 1983). Chess-playing was in fact a civilian analogue of what they were doing in their secret military work, in which mechanical methods of great sophistication were outdoing some aspects of human intuition. It seems, taking the view as expressed in Hodges (1997, 2002), that Turing probably decided in about 1941 that the scope of computable operations was in fact sufficient to account for those mental operations apparently "non-mechanical" by the standards of ordinary language, and even the apparently uncomputable operations of truth recognition.

しかし、エニグマの問題の差し迫った危機が解決された1941年頃、チューリングはブレッチリー・パークで同僚とチェスをする機械(ホッジス、1983)の可能性について議論を始めた。チェスのプレイは、実は彼らが手掛けていた秘密の軍務の非軍事的な類似作業であり、高度に洗練された機械的手法が人間の直感の一部を凌駕していた。ホッジズ(1997、2002)が示した見解を考慮すると、どうやらチューリングはおそらく1941年頃、計算可能な操作の範囲でも通常の言語の基準では明らかに「機械的でない」と思われる精神的な操作を説明するのに実際には十分であると決めたのだろう。

あるいは、バンベリスムスが弾き出す「機械的でない」推測に 知性の片鱗を感じ取ったチューリングは その直感を検証するために「チェスをする機械」を構想し始めたのかもしれないですね。 そう考えると、後世の人間の憶測とは裏腹に、 チューリング個人にとってブレッチリー・パークでの日々は 彼自身のその後の未来に繋がる幾つかの確信を得られた、 案外実りの多い時間だったのかもかもしれません。

以上

*1:エニグマは元々商用で 一般に販売されているモデルもありましたし、 携帯できる野戦用の暗号機でもありましたので、 破棄された機器をかき集めると復元できたのでしょう。 これもポーランド暗号局の地道な努力の成果です。

*2:日本人である僕がこの話から連想するのは江戸時代の 杉田玄白 の 『解体新書』 の翻訳です。今日であれば Google が開発した Seq2Seq 基本的には同じアイデアなんだと思います。

*3:もちろん「チューリングが天才だったから」という反論もあるでしょうが、 同じような両国間でのエンジニアの基本的技術素養のギャップは、 原爆開発プロジェクトだった マンハッタン計画 でも、それは浮き彫りにされたと言われています。

例えば、長崎に投下されたプルトニウム型原爆に使われた 爆縮レンズ は長らくトップシークレットとされてきました。今日でもこの開発については ジョン・フォン・ノイマン の名前が語られることが多いのですが、 実はノイマンが手掛けたのは火薬の燃焼速度の理論計算だけ。 爆縮レンズの基本的なアイデアである燃焼速度の違う複数の火薬を使う手法を 最初に考えたのはドイツ人の理論物理学者である クラウス・フックス でした。

マンハッタン計画に参加したとあるアメリカ人科学者は後日 「プロジェクトでのアメリカ人科学者は大学を出たばかりの青二才といった様子だったが、 ヨーロッパからやってきた学者は正しく原子核研究のプロの研究者と呼べる人達で プロジェクトはたちまち彼らに主導されることとなった」と語ったとか。

実際、アメリカにとって第2次世界大戦は、 当時の最先端技術を効率よく習得する機会でもあったことは否めません。 第2次大戦後、プロ研究者たちは国力低下により母国での職を失い、 アメリカの誘いに乗って大西洋へ渡る人たちが多数いたそうです。 彼らが現在のアメリカの技術優位に大きく貢献したことは間違いなさそうです。

この当時のヨーロッパ諸国とアメリカとの先端技術をめぐる関係は、 現在のアメリカと中国とのテクノロジーに関する関係を彷彿させますね。

アラン・チューリングは「人工知能を予言した男」だったのか?

Is Alan Turing "the man who predicted artificial intelligence"?


(最終)2020/07/03
(追記)2020/06/26
(追記)2020/06/24
2020/07/03
藤田昭人


遅くなってしまいましたが…
(再放送の)再放送が終わったのでブログを書きます。

www.nhk.jp

科学史の闇に埋もれた事件に光を当て、科学の正体に迫るドキュメンタリー」 と銘打って加害者となった科学者に焦点をあてるこの番組シリーズの中では、 2017年7月27日に初めて放送されたこの「CASE15 強制終了 人工知能を予言した男」は 異色の番組だったと思います。というのも主人公である アラン・チューリング は、加害者などではなくむしろ被害者と言うべきだからです。 いつもとは勝手が違ったためなのか、それとも「 電脳戦 」や「 シンギュラリティ 」、あるいは人工知能学会の「 倫理指針 」といった2017年当時の世相に引きづられ過ぎたためか、 この番組シリーズの他の CASE よりも切れ味が鈍いとの印象を僕は持ちました。

この回では、アラン・チューリング研究では世界的にも著名な アンドリュー・ホッジズジャック・コープランド の二人へのインタービューを行っており 内容は技術的・歴史的な考証は概ね正確だったと思います。 ですが、特にトークパートでは1980年代あたりによく語られた チューリング史の議論が繰り返されたように感じたので、少なからずガッカリしてます。

以下は僕がイラッと来たポイントを簡単に述べます。


チューリングは没後忘れ去られていたのか?

番組では「チューリングは没後は忘れ去られていた」かのように語られてました。 が、少なくともコンピュータ・サイエンスの世界では チューリングの研究業績が忘れられた事は片時もなかったと僕は思います。

その典型的な事例があります。アメリカのコンピュータ・サイエンスの学会である Association for Computing Machinery (ACM) は1966年にチューリングの業績を称え、彼の名前を冠した チューリング賞 を創設しています。今日、情報の世界で最も権威のあるこの賞は「コンピュータ・サイエンスのノーベル賞」と言われています。 番組では、第2次世界大戦後も隠蔽された エニグマ の暗号解読について、初めて暴露した F.W.ウィンターボーザム の書籍 『The Ultra Secret』 の出版が転機のように紹介されましたが、この書籍が出版されたのは1974年ですので、 この書籍が登場するまでチューリングが忘れ去られた存在だったと言うのは誤りです。

確かに1950〜1970年代にはコンピュータサイエンスの専門家の間でチューリングが提案した プログラム内蔵方式のコンピュータ の起源についてあまり語られなかった、 というよりもどちらかと言えばそれは議論が避けられたトピックであったことも事実です。 その大きな理由は 「ENIAC特許に関する訴訟」 *1 の係争が続いていたからだと僕は思います。 この時期にチューリングの主要な業績である 「プログラム内蔵方式のコンピュータ」を語ることを自粛せざる得ない やむ得ない現実が当時はあったのです。


通説である「チューリングの悲劇」はどこで生まれたのか?

番組は一貫してチューリングの物語を悲劇として描き出していますが、 それはアンドリュー・ホッジズが1983年に出版したチューリングの伝記 "Alan Turing: The Enigma" と、それを原作として1986年に初演された ヒュー・ホワイトモア の戯曲 ブレイキング・ザ・コード が下敷きになっています。この戯曲の 脚本 は現在でも入手可能なのですが、次のように紹介されています。

This compassionate play is the story of Alan Turing, mathematician and father of computer science. Turing broke the code in two ways: he cracked the German Enigma code during World War II (for which he was decorated by Churchill) and also shattered the English code of sexual discretion with his homosexuality (for which he was arrested on a charge of gross indecency). Whitemore's play, shifting back and forth in time, seeks to find a connection between the two events. When first performed in the 1980s, Breaking the Code was critically acclaimed in the UK before a Broadway transfer won it a raft of awards & nominations including 3 Tony Awards, and 2 Drama Desk awards.

この思いやりのある芝居は、数学者でありコンピュータ科学の父であるアラン・チューリングの物語である。チューリングは、第二次世界大戦中にドイツのエニグマの暗号を解読し(そのためにチャーチルから勲章を授与された)、また、同性愛のために英国の性の規範を打ち砕いた(そのために彼は重大なわいせつ行為の罪で逮捕された)。ホワイトモアの戯曲は、時間を行き来しながら、この2つの出来事の間に関連性を見出そうとしている。1980年代に初演された『ブレイキング・ザ・コード』はイギリスで絶賛された後、ブロードウェイに移籍し、トニー賞3部門、ドラマデスク賞2部門を含む数々の賞とノミネートを獲得しました。

この戯曲は世界中でヒットしたようです。 いかがでしょう?この「天才科学者の秘められた生活」といったプロット、 よく考えてみれば如何にも演劇的ですよね? 以降、戯曲で作られた「暗号解読」と「同性愛者」という チューリングのエキセントリックなイメージが一般に定着しました。

これが結果的には、今日でもますます盛んなアラン・チューリング研究の発端だったと僕は理解しています。 もちろん、彼のプライベートを暴くことの是非はありますが、伝記や戯曲の登場により 歴史の闇に埋もれていったその他の幾多の天才とは異なり チューリングへの社会的な認知が広がり、 その後の再評価へと繋がったことは明らかでしょう。

これが冒頭で言及した「1980年代のチューリング史」です。
しかし、今となっては「前世紀の逸話」と言うべきなのかもしれません。


今、本当に語られるべき「チューリングのストーリー」は何か?

今世紀に入り、英国政府からの謝罪により名誉回復され、 祖国を守った英雄のひとりとなったアラン・チューリング。 「今世紀のチューリング史」を語るとしたら、 その後のチューリングの再評価の歴史にも触れなければ片手落ちでしょう。

まず軍関係では、英国情報局は書籍『The Ultra Secret』の出版を皮切りに、 第2次世界大戦中の作戦に関するすべての情報の軍事機密の解除に応じるようになりました。 また、チューリングが戦時中に所属していた 政府暗号学校 (GCCS) (現 政府通信本部(GCHQ)) があった ブレッチリー・パーク は一時期廃墟のような状態になっていましたが、 その後その歴史的価値を評価した地方自治体によって保全され、 1994年にブレッチリー・パーク博物館として再建されました。 今日では年間20万人の来場者数を誇る人気スポットとなっています。

今世紀に入って、チューリングは「性的マイノリティ(LGBT)」問題の象徴的な存在にもなりました。 2009年に当時のゴードン・ブラウン首相が、政府がかつておこなった「非人道的な扱い」を謝罪しました。 2013年には、エリザベス女王が死後恩赦を与え、 さらに2016年には過去に同性愛で有罪となった故人数千人も自動的に赦免されることになりました。 この措置は「アラン・チューリング法」と呼ばれています*2。 今日では「コードブレーカー」の異名で知られるチューリングですが、 それは「暗号解読」という意味に加え「(悪しき)行動規範を打ち破る」という ダブル・ミーニングとして語られることもあるようです。

このように、没後はむしろ社会的な影響力を増したチューリングですが、 残念なことに番組ではシリーズ全体のコンセプトとの整合性を守るためか、 チューリング存命中の悲劇的なストーリーだけを切り取った形で構成されていましたが、 放送の前年に成立した「アラン・チューリング法」にさえ全く触れていなかったことにっと思ってしまいました。


チューリングは「人工知能預言者」だったのか?

番組で僕が一番イラッとしたのは『人工知能の預言した男』という CASE タイトルです。 これ「チューリング預言者だ」としたこと、 それから「チューリングの研究は人工知能を先取りしたものだった」 としたことに強い違和感を感じたからです。


チューリング預言者とは対照的な人物

そもそも、 数学者だったチューリングの仕事は学術論文や提案書を書くことでした。 番組でも紹介された、 チューリング・マシン を提案した論文 "On Computable Numbers, with an Application to the Entscheidungsproblem" (計算可能数について - 決定問題への応用)(1936)*3 や世界初のプログラム内蔵型コンピュータになるはずだった "Automatic Computing Engine (ACE)" の開発に関する提案書 "Proposed electronic calculator"(1945)*4 など、短い生涯の間に重要な論文を多数残しています。 特に彼の論文の特徴は具体的で詳細まで丁寧に説明されていることでした。例えば、 チューリング・テスト (これも番組に登場しましたよね?)について語った論文 "Computing Machinery and Intelligence"(計算する機械と知性について)(1950)*5 については福井県立大学の田中求之先生が読み易い和訳を公開されてますので、 チューリングの論文の特徴を実感してもらえると思います。

mtlab.ecn.fpu.ac.jp

いかがでしょう。その書きぶりの丁寧さは中学生・高校生向けの数学の副読本を思わせますよね?*6 チューリングの論文が具体的で細部まで丁寧に書かれていたのは、 周囲の人間に自分のアイデアを正確に理解させるためだったと僕は思います。 数学者だったチューリングがコンピュータを製造するには(ハードウェア)エンジニアが必要でしたし、 そのための資金を得るためには上司にアイデアを理解させ、説得する必要がありました。 そこには一般的なイメージとは異なる「全てを自分の思い通りに進める」というチューリングの執念が感じられます。 こういった「強烈な自我のある孤高の天才」は「社交性はあるがどこか他人頼りな預言者」とは 対極に位置すると思います。


本当の「人工知能を予言した男」とは?

次は「人工知能(AI)」について。 この用語の由来については 以前ブログに書いた ことがあるのですが、その内容をザックリ説明すると…

このダートマス会議の50周年を記念して2006年に開催されたイベントで、 マッカーシーが語った会議の内幕は…

  • 会議での議論そのものは期待外れに終わった
  • その主な理由は参加者がそれそれ自分自身の研究テーマに固執し、他者の研究テーマに関心を示さなかったから
  • もしチューリングが存命で、会議に参加していれば、全く違った結果になったであろう
  • 会議での最大の成果は "Artificial Intelligence" という用語が研究者の間で定着したこと

ということだったようです。その後、AIは研究者の間でのブームとなりました。 ミンスキーが1961年に発表した論文 "Steps Toward Artificial Intelligence"(1961) *7ダートマス会議から5年後の人工知能研究の隆盛ぶりを報告する内容でした。 一説によれば、このときミンスキーは「向こう30年以内に人工知能は実用化される」と豪語したとか。

しかし、1990年を過ぎてもミンスキーが認める人工知能が実用化されることはありませんでした。 もちろんミンスキーは「研究は前進している」と主張していましたが…

マッカーシーは2011年に、ミンスキーは2016年に亡くなりました。 結局、彼らが夢見た「人工知能」を彼ら自身は生涯、目にすることはありませんでした。 もし「人工知能を予言した男」が実在したとすれば、 それは彼らだったのではないかと…いかがでしょうか?


「20世期のAI」と「21世紀のAI」

現在、AIの技術的主流とされている「ディープラーニング」は 旧来の「機械学習」と「ニューラル・ネットワーク」という技術を組み合わせたものなんだそうですが、 マッカーシーミンスキーが全盛を極めた1960年代から1980年代あたりまでは、 いずれも人工知能の範疇には含まれない技術とみなされていました*8マッカーシーミンスキーが全盛の時代、 日本では「記号処理」=「人工知能」と考えられていたのですが、 今では「コネクショニズム」=「人工知能」と考えることが多くなっています。 このブログでは「記号処理」を「20世期のAI」、 「コネクショニズム」を「21世期のAI」と呼ぶことにしていますが、 二つの世紀の間に位置する1990年〜2010年の間に、 研究のトレンドが「記号処理」から「コネクショニズム」へと移行する動きがありました。

番組では「我々が求めているのは経験から学習する機械だ」 との派手なキャプションで語っていましたが、 チューリンがこの発言をしたのは「1947年ロンドン数学会での講演」*9 で、 その翌1948年には"Intelligent Machinery"(知能機械)*10 というタイトルの報告書を作成しています。両者で語られているのは「経験から学習する機械」である "Unorganized machine"(未構成のマシン) ついてです。つまりチューリングは「コネクショニズム」のアプローチで 機械の知能獲得を考えていたことになります。 この講演録と報告書、実は長年埋もれていたそうです。 番組でインタビューに応じていたジャック・コープランドは サイエンティフィック・アメリカン誌に "Alan Turing's Forgotten Ideas in Computer Science"(1999)*11 を寄稿し「経験から学習する機械」の発掘に一役買っています。

このように1990年代は、既存の「記号処理」アプローチがデッドエンドを迎え、 その打開策を「コネクショニズム」に求めるトレンドもあったのでしょう。その中にあって 「チューリングニューラルネットワークを使ったコンピュータを構想していた」 という新事実は、かなりのインパクトだったことは想像に難くないでしょう。

もちろん「20世期のAI」から「21世期のAI」への パラダイムシフトの主な要因は21世期に入ってからのディープラーニングのブレーク、 その背景にはクラウド・コンピューティングの出現があってのことなのですが、 チューリングの「経験から学習する」コンセプトが従来の「人工知能」の諸問題に 問題解決のための新しい切り口を示唆した面も考えられるように思います。 でなければ、世紀の変わり目にチューリング再評価の機運が高まることはなかったはずだから。

ちなみに晩年のミンスキーはかなり苛立っていたように見えます。 雑誌 Wired の2003 年のインタビューに答えて「1970年以降のAI研究は脳死状態にある」と語っています*12。 つまり21世紀には、彼らの「人工知能」は前世紀ほど 注目を集められなくなってしまったことを物語っています。


結局、アラン・チューリングとは?

以上が『フランケンシュタインの誘惑』の「CASE15 強制終了 人工知能を予言した男」の再放送を見た僕の感想です。

実は、この回は初出の 2017年の放送の時も視聴した筈だったのですが、 その時の記憶はすっかり抜け落ちていたので、たぶん僕の印象は非常に薄いものだったのでしょう。 ですが、その後、僕はアラン・チューリングについて少々知恵を付けたので、 新たにその目で見ると、イライラ・ポイント満載の再放送になってしまいました。

番組の制作スタッフの方々には申し訳ないのですが…

やはりこの番組シリーズ「やり過ぎちゃった科学者とその後の社会からの糾弾を含めて描く」ところに ドキュメンタリ番組としての面白さがあると僕は思うのですが、 チューリングの場合、本人は天才過ぎるし社会からの糾弾の方が酷すぎるので、 他の回とは違って「え?悪者は誰?」って迷ってしまう…この番組シリーズの 「面白さの方程式」が完全に崩れてしまったのが最大の問題点なんじゃないでしょうか? ドラマ・パートもインタビュー・パートも考証的にはしっかりした内容だっただけに残念な感じ。 たぶん「面白さの方程式」に素直に従うならマービン・ミンスキーを主役にした方が、 番組としては良い結果になったと思います。

結局「アラン・チューリングとは?」というと 「音楽家モーツァルト とよく似ている」という説明が一般にもわかりやすい答えかと思います。 すなわち「提案したアイデアがあまりにも革命的なだったので存命中はその価値は殆ど理解されず、 悲惨な最後を遂げたが、没後、社会が彼に追いつくにしたがって評価が年々高まってきている」 のではないかと思います。歴史的に見てもこんな見事な復活劇を演じた天才はそうそういません。 もちろん没後の話なので、ご本人にはちっとも嬉しくない話ですが…

あと、最後に、もうひとつだけイライラ・ポイントを書かせてもらうと…

番組中のキャプションで「世界初の人工知能宣言」というのがありますが、 チューリングの存命中には「人工知能」という言葉はなかったし、 彼自身は自分の研究を "Intelligent Machinery" と呼んでいたので ここは「知能機械」あるいは今風に「知能システム」の宣言と してもらいたかったところです。

もちろん一般には「人工知能」の方が通りが良いのでしょうけども…

以上



*1:当時、世界初のデジタル・コンピュータとされていた ENIAC の特許を巡って争われた 裁判 に起因してるのではないでしょうか。 事実、ENIAC後に登場した商用コンピュータはいずれも ENIAC特許に抵触する可能性がありました。 当時は社会的に影響の大きい訴訟と認識されていました。

*2:この恩赦の経緯はWikipedia英語版のチューリングのページにある "Government apology and pardon"(政府による謝罪) に簡潔にまとめられています。

*3:原文のリプリントが以下のURLで確認できます。

https://www.cs.virginia.edu/~robins/Turing_Paper_1936.pdf


*4:ジャック・コープランドが運営するウェブサイト AlanTuring.net で、原文の写真データが公開されています。

www.alanturing.net


*5:原文のリプリントが以下のURLで確認できます。

https://www.csee.umbc.edu/courses/471/papers/turing.pdf

また Wikipedia 英語版にはこの論文の解説ページがあります。

en.wikipedia.org

*6:もっとも、この論文に登場する"人間の審査員に『相手は人間だ』と誤解させる"ほどの対話システムを 開発するために、その後70年間も要している訳で…チューリングの論文の難解さとはこういうことなのです。

*7:原文は以下のURLで確認できます。

https://courses.csail.mit.edu/6.803/pdf/steps.pdf


*8:実は「機械学習」や「ニューラル・ネットワーク」も「人工知能」と 同じぐらい古くから存在した技術です。専門家の間では、2つをまとめて 「コネクショニズム」 という考え方と理解されてます。それと対照的な考え方があり、 日本では「記号処理」と呼ばれていました。

両者の関係をわかりやすく図解している記事を見つけたので紹介しておきます。

www.itmedia.co.jp


*9:この講演録は論文集 "A M. Turing's ACE Report of 1946 and Other Papers"採録されてますが、チューリングの講演録だけであれば "Lecture to the London Mathematieal Society on 20 February 1947" で読めます。 さらに素敵なことに日本語訳もあります。 「ロンドン数学会においてアラン・マジソン・チューリングが1947年2月20日に行った講演1)の日本語訳と注解

*10:原文のリプリントが以下のURLで確認できます。

https://weightagnostic.github.io/papers/turing1948.pdf


*11:コープランドの記事単体は以下のURLで閲覧できます。

http://www.cs.virginia.edu/~robins/Alan_Turing%27s_Forgotten_Ideas.pdf

最後の "Further Reading" を見てもらうとわかるように、 コープランドは1990年代にチューリング関連で幾つか論文を書いてます。 つまり彼はチューリング再評価の立役者のひとりと言えます。

*12:記事は以下で閲覧できます。

www.wired.com

www.wired.com


ローブナー・コンテストの歴史

1990年代のAIのパラダイム・シフトと 100年前の脚気原因論争と対比して


2020/06/18
藤田昭人


【注意】本稿は僕の思考プロセスをそのまま文に落としてしまいました。長いです。
【注意】長文を読みたくない方は結論だけご覧ください。



在宅勤務を始めて2ヶ月あまりが経ちますが…

最近、SNSを眺める時間が少し減っているように思います。 通勤の途中や外食のおりの待ち時間には決まって FacebookTwitter を開いていたのですが、 そうやって待ち時間の暇つぶしをする機会が減ってるってことでしょう。 もはや以前のようにSNSに齧り付くようなことはもうやってないですからね。

その反面、増えているのがテレビを視る時間。 スポーツ中継がなくなった穴を埋めるため 大量のドキュメンター番組を(再)放送しているBSをついつい視聴してしまいます。


フランケンシュタインの誘惑 科学史 闇の事件簿 「ビタミン×戦争×森鴎外

中でも以前からお気に入りのシリーズだった 『フランケンシュタインの誘惑 科学史 闇の事件簿』は 森鴎外の回を再放送してました。

www.nhk.jp

この回は「小説家 森鴎外」ではなく「軍医 森林太郎」としての業績(というか失敗)に 光を当てていまして、あらすじは次の Wikipedia ページのダイジェスト版といったところでしょう。

ja.wikipedia.org

このページにある盛り沢山の内容をわずか1時間の番組に収めるために 陸軍軍医 森林太郎 と 海軍軍医 高木兼寛 の対立の構図、それから高木の研究を発展させた 農学者 鈴木梅太郎オリザニン(ビタミン)発見 の顛末に絞った内容でした *1


「発見の科学」と「検証の科学」

この番組、僕はだいぶん前に視ていたのですが、 今回改めてみた再放送で一番印象深かったのはコメンテーターの 佐々木敏 先生のお話でした。

番組は明治時代に流行った脚気の原因について細菌説を主張した旧東京帝国大学医学部が 高木兼寛鈴木梅太郎の異説を頑なに拒絶した史実が元になっています。 森林太郎がクローズアップされたのは誰もが知る明治の文豪だったからで、 テレビ番組としての演出でしょう。この問題の本質であろう「細菌学 vs 疫学」の対立を 佐々木先生は「発見の科学」と「検証の科学」という立場の違いで説明されてました。 両者が各々重点におく「メカニズム」と「実証主義」といずれも重要で、 「両輪を同じ大きさにしていく努力が必要」と番組の終盤で語っておられました。

この「メカニズム」と「実証主義」のフレーズを耳にしたところでピンときて、 この脚気の原因に関する論争の構図をチューリングテストの論争に当てはめると わかりやすく整理できるなぁ…と考えたのでした。


「毎度、お騒がせ」だったローブナー・コンテスト

チューリングテスト *2 を使って「最も人間らしいチャットボット」を選ぶ ローブナー・コンテスト が今日のように世間の耳目に触れるようになったのは 21世紀になってからだと記憶しているですが、 実はコンテスト自体は1991年から毎年開催されていました。 言うなれば下積み時代のローブナー・コンテストは 「毎度、お騒がせ」だったことはスンドマンの記事 *3 が詳しいのですが、それによれば、 この賞を創設した ヒュー・ローブナー は周囲の人間には「付き合うのが面倒」と感じる気性なんだそうで、 その突飛な発想に周囲は振り回されることも一因だったそうです。

実際、当初のローブナー・コンテストは散々非難を浴びてきました。 前回 紹介した、 スチュアート・シーバー が書いた論文 "Lessons From a Restricted Turing Test" であるとか、 マービン・ミンスキー の "Minsky Loebner Prize Revocation Prize" だとか、 最初の10年間、ヒュー・ローブナーと ローブナー・コンテストの評判は 下がる一方だったそうです。

コンテストがこのような状況を脱し始めたのは リチャード・ウォレス が開発したチャットボット A.L.I.C.E. がコンテストで優勝した2000年以降のことでしょう。 正直「これは一体どう理解したら良いものだろうか?」と 僕はちょっと考え込んでいたのでした。


「毎度、お騒がせ」だった本当の訳

いろいろ調べてみたのですが、どうやら1991年に実施された第1回ローブナー・コンテストが全ての始まりだったようです。 このコンテストの模様は、 AIマガジンの1992年夏の号に掲載された記事 "The Quest for the Thinking Computer" で紹介されています。

aaai.org

この記事には、おそらく主催者サイドが広報的な目的で書いたと思われるので、 あまりネガティブな内容はありません。 ですが(前述の)スチュアート・シーバーは審判役で参加したのち このコンテストに批判的な意見を表明しました。 その主張を一言で説明すると「応募してきたチャットボットはどれもレベルが低すぎる」というものでした。 いずれも1966年に発表された ジョゼフ・ワイゼンバウムELIZA の方法を踏襲していると見て取れるので、 2〜3言やり取りをすればチャットボットだと見破れるわけだそうです。

この主張に ダニエル・デネット が率いるコンテストの運営委員会も同調したため、以降コンテストの主催者内部で紛糾する事になりました。 議論はすぐにヒュー・ローブナーとその他の委員会メンバーとの対立の構図となり、 やがてはチューリングテストの妥当性を巡って終わりのない議論に発展したようです。

実は1990年頃には「チューリングテスト懐疑論」が主流だった事実があります。 例えば、哲学者の ジョン・サール は1980年に発表した論文の中で 中国語の部屋 と呼ばれる思考実験を提案し「機械が考えることができるかどうかを決定するために チューリングテストを使うことはできない」と主張しました。

また 前々回 も紹介したように、1990年当時、チューリングの最大の貢献である暗号機 エニグマ を解読した Bombe は未だ軍事機密のままで その存在は噂話の域を出ませんでした。 それ故かチューリングの数々の業績は一般には正当に評価されていませんでした。 当時の世相を皮肉ってか、哲学者の ブレイ・ウィットビー は論文 「チューリングテストがAIの最大の袋小路である理由*4 の冒頭で「1973 - 1990: AIの研究者というよりも むしろ主に哲学者の気分転換のネタとなり始める」などと揶揄していました。

そういった世間のムードもあってか、 ローブナー賞委員会はコンテストからチューリングテストを排除する方向へと 誘導しようとしていたようですが、 コンテストの資金提供者であるヒュー・ローブナーは 「毎年、チューリングテストを実施する」 ことに固執し、委員会の提案を拒絶し続けました。 スンドマンの記事では ローブナーの次の発言が紹介されています。

The important thing was that the contest happen, not where it happened or who sponsored it.

If one thing makes Loebner see red, it’s the idea that his contest will not be held every year. “On this point I have been stalwart,” he said. “I have been adamant. I have been steadfast.”

重要なのは、コンテストはどこで開催されるか?誰が主催したのか?ではなく、コンテストが開催されるということだ。

ローブナーが顔を真っ赤にして怒る理由が一つあるとすれば、彼のコンテストは毎年開催されるわけではないということだ。「この点に関しては、私はかたくなだった」と、彼は言った。「私は断固として譲らない姿勢を貫いてきている」。

彼がなぜこれほどまでにチューリングテスト固執した理由はさだかではありませんが、 結局、1994年、第4回コンテストを前にして 運営委員会の委員が全員辞任するという事態に至り、 両者は喧嘩別れに終わりました。

マービン・ミンスキーが "Minsky Loebner Prize Revocation Prize" (ミンスキー・ローブナー賞取り消し賞)を言い出したのは、 その翌年の1995年のことでした。 スンドマンの記事では「事実上ローブナー・コンテストのボイコットを促すような行為」と紹介しています。 確かに「恥をかかされたAIコミュニティによる報復」と受け止められても致し方ないやり方です。

正直、当初「『人工知能の父』と称されるミンスキーが そんな子供っぽいことをやるのかな?」と個人的には思っていたのですが、 脚気原因論争の話から図らずも「むしろ権威を背負ってしまってるから、 引くに引けなくなってしまった」のだと得心してしまいました。 確かに、表向きは「脚気細菌説」を主張しながら 巧みに「脚気栄養欠陥説」を当てこすった ミンスキーと森林太郎とが重なって見えます。


AIのパラダイム・シフト

ミンスキーと森林太郎とのもうひとつの共通点は 「自らの主張が徐々に受け入れられなくなっていく様を眺めているしかなかった」 ことです。Wired の2003年5月13日の記事 "AI Founder Blasts Modern Research" では、 ミンスキーが孤立を深めつつある様子が伺えます。

www.wired.com

この記事によれば、ミンスキーが第1次AIブームでの自然言語処理、 第2次AIブームでのエキスパートシステムの延長上にAIの将来を見ていたように理解できます。 しかし現実のAIのトレンドは別の未来に向かっていたようです。 ミンスキーの批判の矛先になった ロドニー・ブルックス は「マーヴィンの批判を私に向けていたのかもしれない」とミンスキーの批判を受け流し、 次のような反論を繰り出しています。

"Not all of our intelligence is under our conscious control," said Brooks. "There are many layers of intelligence that don't require introspection." In other words, the emphasis on common-sense reasoning doesn't apply to some efforts in the AI field.

「私たちの知性のすべてが意識的なコントロール下にあるわけではない」とブルックスは言う。 「内省を必要としない知性の層がたくさんある」 つまり、常識的な推論を重視することは、AI分野の一部の取り組みには当てはまらないということだ。

ブルックスは1986年に論文 "a robust layered control system for a mobile robot" (移動ロボット用の堅牢な階層化制御システム)で知能ロボットに関する 「包摂アーキテクチャ」 (SA: subsumption architecture) 理論を提唱し、 1991年には論文 "Intelligence without representation" (表象なき知能)を発表して『知能にとって、表象は不要である』という「反表象主義」の立場を打ち出しました。 ブルックスの研究については松岡正剛氏の 『ブルックスの知能ロボット論』の書評 が簡潔で比較的わかりやすいです。 「包摂アーキテクチャ」と「表象なき知能」の説明を次に抜き出してみました。

多様なエージェント機能を分散自律的に並列処理できる端的ロボットの開発をめざしたのだ。 そこで提案したのが「サブサンプション・アーキテクチャ」(Subsumption Architecture)である。 包摂アーキテクチャと訳されたり、略してSAと呼ばれてきた。
複雑で知的な動作をはたすべきロボットのしくみを、 あらかじめ単純なモジュールに分割しておいて階層化し、 これを動作の進展にあわせて優先順位がつくように仕立てて 自律性を発揮するように仕向けようという設計思想のことをいう。

(中略)

サブサンプション・アーキテクチャにもとづくロボットには 必ずしも高度な知能をもたせる必要はない。 知的な行動や判断ができるための設計をすればよい。表現力もいらない。 「表象なき知性」(intelligence without representation)だけでいい。 そういう思想だ。ブルックスはそのことを「虫」のふるまいに学んだ。 昆虫は神経節しかもっていないが、それでも包摂環境を判定して自在に動く。 そこに注目したわけである。

なるほど、ミンスキーが「包摂アーキテクチャ」を嫌った理由がよくわかります(笑)

そもそも、ミンスキーにとって最終的な研究目標は 2001年宇宙の旅 に登場する HAL9000 のようなコンピューターだったように僕は想像しています *5。 なので、ブルックスが提唱する昆虫のようなロボットは、 ミンスキーにとって取るに足らない研究テーマに見えた事でしょう。 ところが彼のお膝元であるMITのAIラボですら学生は昆虫作りに熱中する始末。 それというのも(今では日本でもテレビCMをよく見かける) 自動掃除機「ルンバ」 *6というコンシューマ製品が実用化された事例があるからでしょう。 この全く不愉快な現実に散々憂さを溜め込んでいたミンスキーが とうとうブチ切れた・・・というのがWiredに掲載された会議の 真相だったのだろうと僕は想像してます。

これ、脚気の原因を突き止めるための疫学的アプローチに似てませんか? また、細菌学に基づいて研究を重ねても重ねても答えが全く見つからない中、 やがては「兵隊には麦飯さえ食わせておけば脚気にはならんのでは?」と 至る所で陰口を叩かれるようになった時の森林太郎の心情を ミンスキーのこの「ブチ切れ」から推し量ることができるような気が僕はするのです。


リチャード・ウォレスが語るブルックスのAI論とチャットボットの関係

ブルックスは、1990年(最初のローブナー・コンテストの1年前)に最初のベンチャー iRobot を創業します。つまりローブナー・コンテストは最初から 彼らが引き起こすAIのパラダイム・シフトに遭遇し、 その影響を受けること予期されたことになります。

ローブナー・コンテストとロドニー・ブルックスとの接点はないかと探してみたところ、 スンドマンの記事で1箇所だけ「ロドニー・ブルックス」と言及されているところを見つけました。 それはチャットボット A.L.I.C.E. の開発者であるリチャード・ウォレスに対するインタビューです。

I asked him where he got the inspiration for ALICE. He said that he had been influenced by the "minimalist" A.I. ideas associated with Dr. Rodney Brooks of MIT's A.I. lab.

At first, he said, he had tried to follow some of the more grandiose theories of traditional A.I., but he found them sterile. "You read a book with a title like 'Consciousness Explained,'" he said, "and you expect to find some kind of instruction manual, something that you can use to build a consciousness. But of course it's nothing of the kind." (Daniel Dennett wrote "Consciousness Explained.")

ALICEのインスピレーションはどこから来たのか聞いてみたところ、 MITの人工知能研究所のロドニー・ブルックス博士が提唱する「必要最低限度の」AIの考え方に影響を受けたという。

最初は、伝統的なAIの壮大な理論のいくつかに従おうとしたが、それは不毛だと思ったという。 彼が言うには「もし "Consciousness Explained" のようなタイトルの本を読んだとしたら、 ある種の手順書や意識を構築するために使用できる何かを期待するでしょう。 しかし、もちろんそのようなものは何もありません」 ("Consciousness Explained"『意識の説明』はダニエル・デネットの著作)

インタビュー自体はこの後デネットの著作のタイトルに触発されてか「意識」の議論へと移って行きますけども…仮定が多く具体性に欠くメカニズムを語るデネット(やミンスキー)のAI論よりも、単純で明快なブルックスのAI論を当時のプログラマーが支持し始めていた事がうかがえる発言ですね。

さらにウォレスが A.L.I.C.E. を開発する際に考えていたことをもう少し知りたいと思い、 文献を探してみたところ、ウォレスのインタビュー記事が結構たくさん出回っている事がわかりました。 その全部をここで披露すると長くなり過ぎるので、とりあえず ニューヨークタイムズのインタビュー記事 だけを紹介しておきます。A.L.I.C.E. の最初のバージョンが誕生したときのエピソードです。

Alice came to life on Nov. 23, 1995. That fall, Wallace relocated to Lehigh College in Pennsylvania, hired again for his expertise in robotics. He installed his chat program on a Web server, then sat back to watch, wondering what people would say to it.

Numbingly boring things, as it turned out. Users would inevitably ask Alice the same few questions: ''Where do you live?'' ''What is your name?'' and ''What do you look like?'' Wallace began analyzing the chats and realized that almost every statement users made began with one of 2,000 words. The Alice chats were obeying something language theorists call Zipf's Law, a discovery from the 1930's, which found that a very small number of words make up most of what we say.

Wallace took Zipf's Law a step further. He began theorizing that only a few thousand statements composed the bulk of all conversation -- the everyday, commonplace chitchat that humans engage in at work, at the water cooler and in online discussion groups. Alice was his proof. If he taught Alice a new response every time he saw it baffled by a question, he would eventually cover all the common utterances and even many unusual ones. Wallace figured the magic number was about 40,000 responses. Once Alice had that many preprogrammed statements, it -- or ''she,'' as he'd begun to call the program fondly -- would be able to respond to 95 percent of what people were saying to her.

Wallace had hit upon a theory that makes educated, intelligent people squirm: Maybe conversation simply isn't that complicated. Maybe we just say the same few thousand things to one another, over and over and over again. If Wallace was right, then artificial intelligence didn't need to be particularly intelligent in order to be convincingly lifelike. A.I. researchers had been focused on self-learning ''neural nets'' and mapping out grammar in ''natural language'' programs, but Wallace argued that the reason they had never mastered human conversation wasn't because humans are too complex, but because they are so simple.

"The smarter people are, the more complex they think the human brain is," he says. "It's like anthropocentrism, but on an intellectual level. 'I have a great brain, therefore everybody else does -- and a computer must, too.'" Wallace says with a laugh. "And unfortunately most people don't."

アリスは1995年11月23日に誕生した。 ウォレスはその秋、ペンシルバニア州のリーハイ大学に移り、ロボット工学の専門知識を買われて再就職した。 彼はウェブサーバーにチャット・プログラムをインストールし、人々が何を言うのかと思いながら椅子に座って眺めていた。

結局のところ、それは非常に退屈なものだった。 ユーザーは必然的にアリスにも同じような質問をすることになる。 「どこに住んでるの?」「あなたの名前は?」「あなたの外見は?」 ウォレスはチャットを分析し、ユーザーが発するほとんどすべての発言が2,000語のうちのいずれか1語から始まっていることに気づいた。 アリスのチャットは、1930年代に発見された言語理論家がジップの法則と呼ぶものに従っていた。 非常に少数の単語が私たちの会話の大部分を構成していることがわかった。

ウォレスはジップの法則を一歩進めた。 彼は、職場や冷水器、オンラインでのディスカッション・グループといったところで、 人間が日常的に行うありふれたおしゃべりなど、すべての会話の大部分をわずか数千の発言から構成されているという理論を立て始めた。 アリスが彼の根拠だった。 もしアリスが質問で混乱しているのを見ればそのたびに、彼がアリスに新しい答えを教えたとしたら、 彼は最終的には一般的な発言すべてをカバーするだけなく、さらには多くの変わった発言もカバーするだろう。 ウォレスは、マジックナンバーは約4万件の応答だと考えている。 これだけプログラムされた発言ができるようになれば、 アリスに向かって(あるいは「彼女は」と呼びはじめたときには)人々が言っていることの95%に反応できるようになる。

ウォレスは、教育を受けた知的な人々を落ち着かない気分にさせる理論を思いついた。 会話とは、同じ発言を何度も何度も何度も何度も繰り返すだけで、それほど複雑ではないかもしれない。 ウォレスが正しければ、人工知能は、人間を納得させるように生きていくために、特に知的である必要はなかった。 A.I.研究者たちはこれまで、自己学習「ニューラルネット」と「自然言語」プログラムの文法に焦点を当ててきたが、 ウォレスによると、彼らが人間の会話をマスターできなかったのは、人間が複雑すぎるからではなく、単純すぎるからだという。

「頭の良い人ほど人間の脳は複雑だと思っています」と彼は言う。 「人間中心主義に似ていますが、それは知的レベルの問題です。 『僕は頭がいいから、ほかのみんなもそうする。コンピュータもそうしなければならない』」とウォレスは笑う。 「残念ながらほとんどの人はそうではありません」

いかがでしょう?ウォレスが語る「ブルックスの必要最小限度のAI」の考え方が なんとなくわかって来たような気がしませんか?

僕なりに砕けて解釈させてもらうと「傍目に知能があると見えるのなら、 何も無理してメカニズムさえわからない知能を実装せんでもよくねぇ?」と ある種の開き直りのようなアプローチが、ブルックスの 「包摂アーキテクチャ」や「表象なき知能」の革新性なんでしょう。 この「知能があるかのように見せかける」アプローチは ワイゼンバウムのELIZA論文*7 を彷彿させます。

結局 A.L.I.C.E. はマークアップ言語で記述するスクリプトを用いる 「モダンな ELIZA」とも言うべき設計になっています。 そして ELIZA から進化させた主な要因は「4万件もの大量の応答メッセージを用意する」ことだったようです。 それ故に A.L.I.C.E. の革新性は非常に分かり辛いものになっていますが…

  • チャットボットに対する人間の発言はジップの法則に従う
  • ジップの法則にしたがって十分に大量の応答メッセージを用意すれば人間のどんな発言の概ね適切に対応することができる

という「スクリプト作成に重点をおいたチャットボット開発」を提案したことなのでしょう。 この提案はウォレスが1995年あたりに行った作業だといいますから 今日でいうところのデータ・サイエンスと呼ばれる領域の先鞭をつける試みだったと言えます。

またローブナー・コンテストの視点で語れば、 シーバーに「ELIZAに毛の生えた程度」と論評された 第1回コンテストに参加したチャットボットの性能改善の方策は 「応答メッセージを大量に増やせ」ということになります。 もっとも経験した方には分かって貰えると思いますが、 万のオーダーで重なりのない応答メッセージを定義することは かなり苦痛が伴う作業でもあります。これは正しく実証主義的アプローチです。

脚気原因論争の構図に当てはめると…こじつけっぽくなるので、もうやめておきましょう。


なんだか…

長くとっ散らかった話になってしまいましたが、あと少しお付き合いください。

脚気原因論争の枠組みを辿ってローブナー・コンテストの諸事件を整理してみたら、 ロドニー・ブルックスの新しいパラダイムやリチャード・ウォレスの仕事の意義に辿りつけたのはラッキーでした。

あまり有名ではないトピックで文献が集まらず因果関係が埋没してしまう場合、 僕はまったく関係のないトピックの枠組みだけを拝借して見つけるべき文献をヒントを捻り出します。 これも『Unix考古学』を書いてる時に編み出したテクニックなんですけども、 そのデメリットはまんま書き下ろすと相当読みづらい記事になってしまうこと。 まぁ、ここに公開してるのはあくまでも草稿なんで…この記事を書籍向けに採用する場合は第2稿を書き下ろさないと。

しかし、90年代に起こったAIのパラダイム・シフトは僕にとって盲点でした。 同世代の皆さんも同じなんじゃないかと思いますが、 僕らは第二次AIブームをリアルタイムで経験していて、 マッカーシ・ミンスキーに対する擦り込みが強烈だったのです。 なので、僕らが知る人工知能と現在もブームが続くAIには大きなギャップを感じてしまう。 皆さんの周りにもそういう老人はいませんか?

このギャップ、AIの専門家の間では 「トップダウン・アプローチ vs ボトルアップ・アプローチ」と呼ぶトピックで語られてきたものです。 皆さん「どちらが正しいか?」との議論は大好きですが、結論を出す事を必ず避けるので、 いつもモヤモヤして終わる後味の悪い議論になります。なので 「スーパーエリートの森鴎外でもしくじった」 という歴史的評価を借りたかったのです(笑)

さて、脚気原因論争とローブナー・コンテストの各々についてオチをつけましょう。


脚気原因論争の顛末

脚気原因論争は、新しい栄養素ビタミンの発見により「脚気栄養欠陥説」が正しいことで、決着が付きました。 陸軍の食事も白米から(正直あまり美味しくない)麦飯に切り替わったそうです。 もっとも激烈なポジショントークを連発し続けた森林太郎が軍医を退官するまで、 陸軍は脚気細菌説を取り下げることはできなかったとか。

番組では、旧東京帝国大学医学部が鈴木梅太郎オリザニンを意図的に無視した事により ノーベル賞を取り損なったとの批判も語られてましたが、 過去のノーベル章の選考では鈴木の例に限らず様々な偏向があったことは今ではよく知られている *8 ので、仮に旧東京帝国大学医学部の妨害が無かったとしても、結果は変わらなかったかも知れません。

その鈴木梅太郎が米糠の脚気に対する効用を検証するための臨床試験に苦労していた1910年代、 ノーベル賞にもっとも近い日本人と言われていたのが 野口英世 でした。鈴木より2歳若い野口は当時、 アメリカのロックフェラー医学研究所に所属し、 1914年、1915年、1918年のノーベル医学賞候補になりました。 しかし、野口が1度も受賞できなかったのは皆さんご存知のとおりです。

調べてみるとこの時期のノーベル化学賞あるいはノーベル生理学・医学賞の受賞者はいずれもヨーロッパ人で、 日本人だけでなくアメリカ人も含めまだ過去にひとりも受賞者はいませんでした。 ちなみに野口が候補者にノミネートされたこの時期、 ヨーロッパは第1次世界大戦(1914〜1918)の最中でした*9。 つまり、野口や鈴木は日本人だったから受賞できなかったのではなく、 20世紀初頭のノーベル賞はまだまだ19世期の世界観が色濃く残った ヨーロッパ世界限定の賞だったというのが正しい理解のようです。


ローブナー・コンテストのその後

委員全員の辞任やミンスキーの難癖に見舞われた後も ゴタゴタ続きのローブナー・コンテストは 2003年〜2004年に最大のピンチを迎えます。 当初からコンテストの運営を委託されていた ケンブリッジ行動研究センター(CCBS)は コンテストの企画・運営に行き詰まりを感じ、 スポンサーであるヒュー・ローブナーとの委託契約の解消へと動きます。 本稿でも多数引用して来たスンドマンの記事は ヒュー・ローブナーと CCBS との交渉が大詰めを迎えていた 2003年に取材・執筆されたこともあって、 この委託契約解消のトラブルの顛末には詳しいです。 コンテストの運営主体を失ったヒュー・ローブナーは それでもコンテストの毎年開催を諦めず、 なんと2004年は会場として自宅を開放してコンテストを開催し続けました。

このようなコンテストの苦境を救ったのは チューリングの母国であるイギリスのチューリング・フリークでした。 チューリングに関する国際会議やイベントに併設される形で ローブナー・コンテストは毎年実施され続けました。 さらにヒュー・ローブナーが亡くなる2年前の2014年からは 世界最古の人工知能学会である Society for the Study of Artificial Intelligence and the Simulation of Behaviour (AISB) がコンテストの運営を引き継ぎ、今日に至っています。

コンテストに応募するチャットボットの性能も リチャード・ウォレスの A.L.I.C.E. の優勝以来、格段に進化し、 開発者共々マスメディアへの露出も増えましたが、 それはガーディアンなどイギリスのメディアによる 報道であることが多いように思います。


最後に…ローブナー・コンテストとAIパラダイム

20世期と21世期を跨ぎ30年間続けられて来たローブナー・コンテスト。 その「毎年、チューリングテスト」とのブレない姿勢ゆえに、 かえってその時々の様々な技術トレンドを浮き上がらせる結果になったのだろうと僕は想像しています。 本稿では特にコンテストの企画・運営に大きな影響を与えた運営委員会にフォーカスしてきました。 初期の委員会が全員辞任により消滅して以降、運営委員会は各回ごとその都度組織されいたようで、 現在はAISBがその任に当たっているのだと思います。

コンテストの長い歴史を振り返ると、運営委員会が信じるAIパラダイムは 世紀の変わり目あたりに断絶があるように僕には見えます。 言わば「20世紀のAIパラダイム」と「21世紀のAIパラダイム」には大きな差違があるといった感じでしょうか? これ、AIの世界では昔から「トップダウン・アプローチ」と「ボトムアップ・アプローチ」などと呼ばれて来たように思います。 前者がその真偽はさておき数学のように仮説的な「メカニズム」ありきで考察から始めるのに対し、 後者は原則として人間の脳や神経回路の仕組みを調べて模倣する「実証主義」を貫く違いがあります(と僕は理解してます)。

もっとも、この用語は困ったことに時代によって意味が変わるのです*10。 1960年代生まれの僕の世代では「トップダウン・アプローチ」に分類される 「意思決定アルゴリズム」や「自然言語処理」「エキスパートシステム」こそが「人工知能」だと習いました。 一方の「ボトムアップ・アプローチ」に分類される「ニューラル・ネットワーク」や「機械学習」は (サイバネティックスの影響からか)「制御理論」と説明されてました。 ところが、1980年以降に生まれた諸君は「トップダウン・アプローチ」の具体例をほとんど知りません。 どちらかと言えば「ボトムアップ・アプローチ」に分類される 「サブサンプション・アーキテクチャ」や「ディープラーニング」を「人工知能」だと理解しているようです。

本稿では、かなり回り道をしながら、1990年代にAIのパラダイムが 「トップダウン・アプローチ」から「ボトムアップ・アプローチ」へとシフトしていったことを紹介しています。 (これで残りの部分も読む気になりましたか?) AIのパラダイム・シフトを観測するポイントのひとつとして、 ローブナー・コンテストの歴史を辿るのはちょうど良いかも知れません。

コンテストに参加したチャットボットの技術的な特徴など、 さらに踏み込んでいろいろ調べてみたいと思わず考えてしまいますが、 本稿はもう十分に長くなってしまっているので、ここで一旦終わりとします。

以上

*1:鈴木梅太郎の話は 栄光なき天才たち のエピソードの一つとしても発表されてますね。

*2:このブログでは元祖チャットボットのELIZAと その評価方法であるチューリングテストをクドクドと扱ってきてますが…

そもそも「チューリングテスト」とは、 アラン・チューリングが "Can machines think?" (「機械は考えることができるか?」) という問いを確かめるための手段として、 次のような "The Imitation Game"(「模倣ゲーム」)を提案したことに始まります。

  • 男性(A)、女性(B)、質問者の3人で行われる
  • ゲームの目的は、質問者が、どちらが男性で、どちらが女性かを当てること
  • 質問者は文字だけによる会話を通じて判定を行う
  • Aの男性は、質問者を間違わせるように振舞う
  • Bの女性は、質問者を助けるように振舞う

さて、この「模倣ゲーム」でAの役割を機械が受け持ち、 質問者は人間と機械の判定を行うとしたらどうなるだろうか?

このチューリングが考え出した、 それこそホームパーティでよく行われる ちょっとしたゲームのようなテストに、 その後70年間も人類は悩まされ続けてる訳です(笑)

*3:前回取り上げたジョン・スンドマンの記事『Artificial stupidity』を再掲しておきます。

Artificial stupidity | Salon.com

Artificial stupidity, Part 2 | Salon.com

かつての「毎度、お騒がせ」だった時代の ローブナー・コンテストの実相について語る 貴重な情報源です。

*4:原題は "Why The Turing Test is AI's Biggest Blind Alley"。
この論文は1997年とクレジットされてますが、 Turing 1990 Colloquium での発表内容なんだそうです。

*5:事実、ミンスキーは科学的考証の立場で この映画の制作に参加してました。

*6:ルンバの設計については、 松岡さんが書評でわかりやすい説明をしておられるので、 是非ご一読を。

*7:このブログを始めた頃に書いた ELIZAの紹介 の記事をご覧ください。

*8:科学者として最高の栄誉と認知されているノーベル賞は 今でもメディアの大きな話題となりますが、 過去の選考には様々な醜聞もあります。 中でも僕が一番酷いと思うのは1962年のノーベル生理学・医学賞の受賞者 ジェームズ・ワトソンフランシス・クリックモーリス・ウィルキンス のケースです。

彼らは、DNAの 二重螺旋構造 を発見したことが受賞理由だったのですが、 この発見の決定的な証拠となったのは ロザリンド・フランクリン が撮影したX線回折写真でした。 フランクリンは1958年に病没していたためノーベル賞は受賞できなかったとされてましたが、 1953年にこの発見を公表した 論文『デオキシリボ核酸の分子構造』 はワトソンとクリックの署名しかなかったことから、 フランクリンが撮影した写真の入手方法が大問題となりました。 一説によればフランクリンと同僚だったが個人的に折り合いの悪かった ウィルキンスが彼女には内緒でワトソンとクリックの元に持ち込んだと囁かれています。

背景として著名な研究機関でも1950年代にはまだ、 人種的な差別が横行し、女性研究者の地位も低かったことが上げられています。

*9:この事実もなんらかの因果関係がありそうですが…それはまたの機会にしましょう。

*10:改めて調べてみたところ僕らの世代が習った「トップダウン」と「ボトムアップ」とは ジャック・コープランド による次のような説明でした。

Top-Down AI vs Bottom-Up AI -- What is Artificial Intelligence?

Turing's manifesto of 1948 distinguished two different approaches to AI, which may be termed "top down" and "bottom up". The work described so far in this article belongs to the top-down approach. In top-down AI, cognition is treated as a high-level phenomenon that is independent of the low-level details of the implementing mechanism -- a brain in the case of a human being, and one or another design of electronic digital computer in the artificial case. Researchers in bottom-up AI, or connectionism, take an opposite approach and simulate networks of artificial neurons that are similar to the neurons in the human brain. They then investigate what aspects of cognition can be recreated in these artificial networks.

1948年のチューリングマニフェストは、「トップダウン」と「ボトムアップ」と呼ばれる、 AIへの2つの異なるアプローチを区別しています。 これまでに紹介した作品は、トップダウン型のアプローチに属しています。 トップダウンAIでは、認知は、実装メカニズム(人間の場合は脳、人工の場合は電子デジタルコンピュータの一つ以上の設計など) の低レベルの詳細とは独立した高レベルの現象として扱われます。 ボトムアップAI(コネクショニズム)の研究者たちは、逆のアプローチをとり、 人間の脳のニューロンに似た人工ニューロンのネットワークをシミュレーションしています。 そして、これらの人工ネットワークで認知のどのような側面が再現されるかを調査します。

ここで登場する "Turing's manifesto of 1948" とは、論文 "Intelligent Machinery" のことのようです。コープランドによればチューリングはその時の上司の反対にあって、 この論文を寄稿しなかったらしいので、 一般が知るようになったのはチューリングの没後のことでしょう。

しかしながら、チューリングが「トップダウン」と「ボトムアップ」にまで言及していたとは驚きです。

It is humbling to read Alan Turing's papers. He thought of it all. First.

アラン・チューリングの論文を読むのは屈辱的だ。彼はすべてを考えた、誰よりも先に。

とのロドニー・ブルックスのコメントに思わず肯いてしまいます。



AI(人工知能)の愚かさ

Artificial Stupidity


2020/05/14
藤田昭人


緊急事態宣言は延長されましたが、コロナ感染のピークは過ぎたような…
みなさんいかがお過ごしでしょうか?

前回の最後で『人工知能(AI)』という用語について 「21世紀の今日、どうやらこの用語は前世紀の遺物として扱わなければならないのかもしれません」 などと言い放ってしまったことが内心ずーっと気になってました。 そこで今回は「AIは前世紀の遺物」と考えるに至った Salon.com のニュース記事『Artificial stupidity』について軽〜く紹介したいと思います。


オンライン・ニュース・サイト「Salon.com」

Salon.com は1995年に デビッド・タルボット によって作成されたアメリカのリベラルなニュースとオピニオンのオンライン雑誌サイトです。 アメリカの政治、文化、時事問題に関する記事を公開し、政治的に進歩的・自由主義的な編集スタンスを持っているそうです。 典型的なアメリカのメディアなんですけども、ITやその業界に非常に強いところが他のメディアにはない魅力です。 反面、記事が無茶苦茶長い・・・この分量の英語を読むのはなかなか骨が折れます。 が、読むだけの価値のある内容があります。

実は『Unix考古学』を書いてる時にも、僕はこのサイトには大変お世話になりました。

www.salon.com

そもそもオリジナルの研究版 Unix は1970年代前半に全米の多数の大学には配布されていました。 にも関わらず UCB だけが Berkeley Software Distribution (BSD) という影響力のある配布キットを作り出しました。 もちろんサバティカルの際、母校で教鞭を取った Ken Thompson の存在は大きかったでしょうが、でも彼が先生として UCB にいたのは1年間だけ。 それだけでディストリビューションを作ろうと思った Bill Joy は余程思い上がった学生だったに違いない・・・と当初は想像したのですけども、 この記事を読むと彼とその仲間の思い入れ、つまり BSD Unix 誕生のバックストーリを非常に明確に示してくれました。 しかし "Power to the people, from the code" だなんて・・・時代を感じさせますね(笑) *1


ニュース記事『Artificial stupidity』

さて、本稿の本題であるニュース記事『Artificial stupidity』を紹介します。

www.salon.com

www.salon.com

2003年2月に公開されたこの記事は、前後編に別れていてかなりボリュームがあります。

テーマはチューリング・テストのコンテスト「ローブナー賞」、その内幕を取り上げてます。 稀に話題に登ることがあるわりには実態がわからないこのコンテスト。 スンドマンは創設者のヒュー・ローブナーを始めとする多数の当事者に徹底したインタビューを敢行し、 その真相を炙り出しているところが Salon.com らしい記事です。

著者の John Sundman は本来テクノパラノイド小説?を書く小説家なんだそうです。 Salon.com への寄稿は全部で4本。どうやらフリーライターのようですね。記事の中で 「1990年代にサンマイクロシステムのユーザビリティ・エンジニアリング・グループのメンバーだった」 と語っているのでIT業界のOBでもあります。そのせいか、記事を読む限りITに関する専門知識は正確だと感じました。


ローブナー賞の真相・・・をちょこっとだけ

さて、そのスンドマンが語る「ローブナー賞の真相」・・・を全部語り始めると 途方もなく長くなりそうなので、ここではハイライトのひとつ「マービン・ミンスキーとの確執」を紹介します。

一般にはあまり知られていない「ローブナー賞」、 チャットボットに関心の方々でも「名前を聞いたことがある」ぐらいでしょう。 もちろん Wikipedia ページは存在しますが、その内容はあまり長くありません。

en.wikipedia.org

さまざまな情報を網羅的に書いてあることの多い Wikipedia ページにしては、 1991年から現在も継続中の実に30年間も続く歴史あるコンテストの紹介としてはちょっと簡素過ぎるぐらい。

この Wikipedia ページの中で一番気になる文言と言えば、冒頭の次のフレーズでしょう。

Within the field of artificial intelligence, the Loebner Prize is somewhat controversial; the most prominent critic, Marvin Minsky, called it a publicity stunt that does not help the field along.

人工知能の分野では、ローブナー賞は物議を醸している。批判の急先鋒であるマービン・ミンスキーは、ローブナー賞が単なる売名行為であって研究には何の寄与もしていないとした。

何やら、ページの冒頭から釘を刺されているような感じです。 これが本当に人工知能の父として名高いマービン・ミンスキーの発言だとしら、 人工知能に関わりのない人でもローブナー賞から腰を引いてしまいそうですね。 スンドマンの言う「何かと物議を醸す」が窺い知れます。

ローブナー賞はニューヨークの企業経営者の ヒュー・ローブナー が創設しました。ローブナーは社会学の博士号を取得し、 修了後しばらくは大学周辺で職を得ていましたが、 結局家業のハードウェア(コンピュータではなく本来の意味のハードウェア)製造メーカーの経営を継いだようです。

ローブナーがチューリングテストのコンテストを思いついたのは 1985 年のことだったそうですが、 専門的な知識を持たないことから、企画・運営を進めるため、大学時代の旧友 ロバート・エプスタイン に相談を持ちかけたのがローブナー賞の始まりだったとのことです。 これに対しエプスタインは自らが設立したNPO法人 ケンブリッジ行動研究センター the Cambridge Center for Behavioral Studies で運営することを提案しました。

ローブナーから委託を受けたケンブリッジ行動研究センターが ローブナー賞委員会を立ち上げたのが1990年のことでした。この委員会は議長に就任した ダニエル・デネット を始め、当時のAIコミュニティの重鎮がずらっと並ぶ豪華なメンバーでした。

約1年間の準備期間を経て第1回ローブナーコンテストの開催にこぎつけましたが、 その結果は惨憺たるものだったようです。スンドマンの記事では、観客として見ていたハーバード大学の教授 スチュアート・シーバー が書いた論文 "Lessons From a Restricted Turing Test" を引用してその時の様子を説明しています。

Perhaps the most conspicuous characteristic of the six computer programs was their poor performance. It was widely recognized that computer experts could readily distinguish the contestants from the confederates. Indeed, many of the techniques being used by the programs were easily spotted by those familiar with the ELIZA program that prize committee member Weizenbaum developed in 1965. The repetition of previous statements verbatim (subject only to pronominal adjustments, sometimes wrong), answers transparently keyed to trigger words, and similar tricks of the ELIZA trade were ubiquitous. For example, the following example from the whimsical conversation program is illustrative of the regurgitation technique:

おそらく、6つのプログラムの最大の特徴は、性能の悪さだろう。コンピュータの専門家は、出場者をコンフェデレーション(チャットボットのフリをして応答を返す人間)から容易に見分けることができると広く認識されていた。実際、プログラムで使用されているテクニックの多くは、1965年にローブナー賞委員会メンバーのワイゼンバウム氏が開発したELIZAプログラムに精通した人なら容易に見つけることができる。これまでの発言をそのまま繰り返し(代名詞の調整だけで済むが、時には間違っていることもある)、トリガーとなる単語を明らかにキーにした回答をしたり、ELIZAの取引と同様のトリックはどこにでもあった。

当日、イベントの司会を努めたエプスタインは締めの挨拶で「この25年間ほとんど進展がなかった」と述べたそうです。つまり ジョセフ・ワイゼンバウム の ELIZA から全く進展がないと嘆いたとか。

その後、エプスタインと委員会は気を取り直して第2回と第3回を開催したものの、 状況は全く変わらなかったようです。1994年にシーバーの論文が Communications of the ACM(CACM) に掲載されると、世間からの圧力が増していると感じるようになった委員会は チューリング・テストそのものを封印して独自ルールへと移行することを強く主張しました。 しかし、スポンサーであるローブナーはチューリング・テストに固執したことから、 結果的に委員会は全員辞任することとなりました。

ところが・・・

ここまではまったく外野にいたはずの マービン・ミンスキー が1995年3月3日に Annual Minsky Loebner Prize Revocation Prize 1995 Announcement との Subject のついたメッセージを USENET のニュースグループ comp.ai と comp.ai.philosophy にポストしました。

17. The names "Loebner Prize" and "Loebner Prize Competition" may be used by contestants in advertising only by advance written permissionof the Cambridge Center, and their use may be subjecttoapplicableicensingfees. Advertising is subjecttoapprovalbyrepresentativesoftheLoebner Prize Competition. Improper or misleading advertising may result in revocationoftheprizeand/or other actions.

[Some words concatenated to enforce the 80-character line length convention.]

I do hope that someone will volunteer to violate this proscription so that Mr. Loebner will indeed revoke his stupid prize, save himself some money, and spare us the horror of this obnoxious and unproductive annual publicity campaign.

In fact, I hereby offer the $100.00 Minsky prize to the first person who gets Loebner to do this. I will explain the details of the rules for the new prize as soon as it is awarded, except that, in the meantime, anyone is free to use the name "Minsky Loebner Prize Revocation Prize" in any advertising they like, without any licensing fee.

17.「Loebner Prize」 および 「Loebner Prize Competition」 の名称は、ケンブリッジセンターの事前の書面による許可を得た場合のみ、競技者が広告に使用することができ、適用されるライセンス料がかかる場合があります。広告はローブナー賞コンクールの代表者の承認を必要とします。不適切な広告や誤解を招くような広告は、賞品の取り消しやその他の行為につながる可能性があります。

[一部の単語を連結して、80文字の行の長さ規則を適用する]

Loebner氏が実際に愚かな賞を撤回し、お金を節約し、この不愉快で非生産的な毎年の宣伝キャンペーンの恐怖を私たちに与えないために、誰かが自発的にこの規定に違反することを望んでいます。

実際、私はここにLoebner氏にこれをさせた最初の人にMinskyの賞金$100.00を提供します。新しい賞品が授与され次第、ルールの詳細をご説明しますが、その間、ライセンス料なしで、誰でも好きな広告に「Minsky Loebner Prize Revocation Prize」という名前を自由に使うことができます。

ミンスキーがどういうつもりだったかは定かではありません。

もっとも、確かに人工知能研究に関しては無知ではあったけれども、 決して頭は悪くないローブナーに巧みに切り返され、結局 ローブナー賞のスポンサーのひとり として祭り上げられることになりました。 ミンスキーがローブナー賞を酷評するのは、 どうやら特別の訳ありだったようですね。

ちなみに、スンドマンの記事のパート2ではミンスキーのこの件での後日談が紹介されています。

"I was caught in a bitch fight between Loebner and Minsky," recalled Neil Bishop. "We wanted to recognize Minsky for his work in the field on decision sciences. We know of the past baggage between the two, so I contacted Minsky to request permission to do so. I think he was flattered in some weird way by this request and ultimately gave us permission but not before blasting me for working with Loebner and wanting me to pass on to Loebner that Minsky would be contacting his lawyer to begin a libel and defamation action if his name was not removed from Loebner.net immediately."

「私はローブナーとミンスキーの口論に巻き込まれました」とニール・ビショップは回想する。「私たちは決定科学の分野でのミンスキーの業績を認めたかったのです。2人の間に過去のお荷物があることを知っていたので、ミンスキーに連絡して許可を求めました。彼はこのリクエストに奇妙な方法でお世辞を言って、最終的には私たちに許可を与えてくれたと思いますが、その前に私がローブナーと仕事をしていて、ローブナーに彼の名前がすぐに Loebner.net から削除されなければ、彼の弁護士に連絡して名誉毀損名誉毀損の訴訟を始めると伝えてほしいと強く要求したのです」

ビショップがローブナー賞の主催者だったのは2002年ですから、 ミンスキーは7年経っても水に流せなかったようです。 この件、もはやミンスキーが意固地になっていたとしか思えません。


人工知能に関わる研究開発トレンドの変化

さて、ニール・ビショップが再登場したところで、 前回 引用したパート2での彼の発言を範囲を広げて再掲します。

"In the professional and academic circles the term Artificial Intelligence is passé. It is considered to be technically incorrect relative to the present day technology and the term has also picked up a strong Sci-Fi connotation. The new and improved term is Intelligent Systems. Under this general term there are two distinct categories: Decision Sciences (DS) and the human mimicry side called Mimetics Sciences (MS)."

Decision sciences, by the simplest possible definition, refers to computerized assistance in resource allocation. An example provided by a press release from MIT announcing the creation of a decision sciences program was "complex computer-based 'passenger yield management' systems and models that the airlines use to adjust pricing of each flight's seats in order to maximize revenue and profitability to the airline."

専門家や学術界では、人工知能という言葉は時代遅れのものとなっています。それは現在の技術に関連して技術的に正しくないと考えられており、また、この用語は強いSF的な意味合いを持っています。新しい改良された用語は、インテリジェント・システムです。この一般的な用語の下では、Decision Sciences(DS: 意思決定科学)と Mimetics Sciences(MS: 擬態科学)と呼ばれる人間を真似る2つの異なるカテゴリがあります。

意思決定科学とは、可能な限り単純な定義では、資源配分のコンピュータ化された支援のことを指します。意思決定科学プログラムの設立を発表したMITのプレスリリースで提供された例は「航空会社が航空会社の収益と収益性を最大化するために、各フライトの座席の価格設定を調整するために使用する複雑なコンピュータベースの『旅客の歩留まり管理』システムとモデル」でした。

彼のいう「インテリジェント・システム」が「人工知能」に置き換わる用語なのか?否か?はよくわかりませんが、 ビショップのこの発言に限らず、スンドマンの2つの記事全体を通した 彼の主張は従来の人工知能研究(特にミンスキー)に対して総じて批判的です。 それはパート1に登場する以下の記述からもよくわかります。

Loebner contests are often farcical and Hugh Loebner does act foolishly. But the closer one looks at the history of the Loebner Prize, the more it appears that Loebner’s real offense was showing up the biggest stars in “real” artificial intelligence as a bunch of phonies. Thirty years ago, Minsky and other A.I. researchers were declaring that the problem of artificial intelligence would be solved in less than a decade. But they were wrong, and every year the failure of computer programs to get anywhere close to winning the Loebner Prize underlines just how spectacularly off the mark they were.

ローブナー賞のコンテストはしばしば茶番劇であり、ヒュー・ローブナーは愚かな行動をとる。しかし、ローブナー賞の歴史を見れば見るほど、ローブナーの真の攻撃は、「本物の」人工知能分野の最大のスターたちを、インチキの集団として見せつけることだったように思えてくる。30年前、ミンスキーをはじめとする人工知能の研究者たちは、人工知能の問題は10年以内に解決されると宣言していた。しかし、それらは間違っており、毎年、コンピューター・プログラムがローブナー賞に近づくことができなかったことは、それらがいかに的外れであったかを示している。

人工知能はという研究分野では僕は明らかに門外漢なのですけども、 僕と同じような立場の情報系エンジニアだったスンドマンの指摘 (特にパート2で展開されている従来の人工知能研究への批判的な指摘) には肯かざる得ない印象を僕も持っています。

そういう視点でローブナー賞の30年に渡る歴史を俯瞰してみると、ちょうど2000年ぐらい、つまり リチャード・ウォレスALICEbot を引っ提げてローブナー賞に登場し、優勝をかっさらったあたりに、 従来の人工知能研究は新しい研究の枠組へと移行した時期があったのかな?などと考えています。

記事には何度となく登場しますが、20世期の人工知能研究ではチューリング・テストを どちらかというと否定的な方向の研究がなされていたそうですが、 しかし「SF的な意味合いの呪縛から逃れた21世紀のインテリジェント・システム研究の視点が見た場合、 むしろチューリング・テストは肯定的に理解できる」とのように僕はこの記事を読めてしまうのです。 スンドマンはパート2で「結局、ローブナーが正しかったのではないか?」と主張しています。 前回 紹介したアラン・チューリングの再評価が起こった原動力は、 案外この研究開発トレンドの変化なのかもしれませんねぇ。

言い換えると「人工知能(AI)」という言葉を発明したマッカーシ&ミンスキーは アラン・チューリングの研究を非常に表層的にしか見てなかった? そう考えると「人工知能(AI)」という言葉は今日では究極のマーケティング用語と理解すると 個人的には何故かしっくりくるような気がします(笑)

以上

*1:20代の若い方々にはピンと来ない話ですいません。

元々、政治的にはリベラルが強いアメリカ西海岸の中でも、 カルフォルニア大学バークレイ分校(UCB)の周辺は過激な政治思想で知られる地域です。 特にベトナム戦争の最中には「アメリカ国内にある社会主義の独立国」を意味する「バークレイ共和国」と揶揄される有様でした。 1970年代の半導体技術の進化(カルフォルニアにはそういう企業がたくさんありました) と過激な学生の革命指向が結びついて、初期のハッカー文化が形成されたというのが僕の理解です。

当時の Unix オタクもご多分に漏れず、 巨大企業 AT&T の向こうを張って Unix で社会革命を果そうと考えたことがこの記事を読むとわかります。

「人工知能」か?それとも「知能機械」か?

The bad luck of Alan Turing.


2020/04/29
藤田昭人


巷では「STAY HOME」と叫ばれてますが、 みなさんいかがお過ごしでしょうか?

僕の場合、幸か不幸かELIZA本の執筆時間を融通しやすくなってる訳ですが…問題は他のところで発生してます。ひと言で言えば「アラン・チューリング問題」と言いましょうか?英国政府が長らく秘密にしていた、彼の革命的な研究成果が徐々に明らかになるに従って、情報分野の技術史はその都度書き換えられるはずなんですけども、その影響が大きすぎるため従来信じられて来た通史などと至るところで矛盾が発生しまうのです。

事実を淡々と書き連ねて行く、教科書のような書籍であれば影響を受けにくいのかもしれませんが、独自のストーリーを捻り出すところに特徴のある僕のスタイルの場合、通史と新事実がマーブル状に層を成してる状況は非常にありがたくないのです。さらに悶絶度合が深まる。

ということで…

ブログで執筆作業の憂さ晴らしをする事にしました。 ちょっと言い訳じみてる気もますが…


情報技術史の通説

日本人の我々が知る情報技術史は概ねアメリカのコンピュータ開発史と一致しているように思います。 その理由はたぶん日本の多くの大学にコンピュータ・サイエンスの学部が誕生したのが1980年代だったことと関係してるかと。 ちょうど太平洋を挟んだ日米でコンピュータ関連の熾烈な技術開発競争を繰り広げていた時期と重なります。

もっとも、今から思えば「喧嘩するほど仲が良い」関係だったかと。 アメリカが日本製の半導体に大幅な関税をかけたりね。 それで一番困ったのがアメリカのコンピュータ製造するベンチャー企業だったり。 日本での新製品発表会の際、ベンチャー企業の役員が 「メモリ最大容量はXXです…もっとも日本のテクノロジを使えば、すぐにこれの16倍になるんだけどね」 ポソっと語ったり。そう、東芝がワールドワイドで King of Laptop だった時代があったのです。 実際、エンジニアのレベルでは「この政策は一体誰が幸福になるんだろうか?」と素朴に思って困惑したものです。

…とまぁ、何やかんやあったけど、コンピュータに関する最先端情報がアメリカから大量に流れ込んでくる時代でもありました。 もちろん World Wide Web がなかった時代なので、情報の多くは書籍の形で流入しました。 必然的に(英語が堪能な)限られた人達経由で、多少偏りのある情報として。 こう言った状況だと特に歴史に関わるトピックに関しては不作為だけど意図的な無視が発生します。 例えば、世界初のデジタル・コンピュータは1946年の ENIAC だったとか、そこで実現されたプログラム・ストアド方式は ノイマン型 と呼ばれたとか…これは明らかに「アメリカのコンピュータ開発史」での話です。 が、コンピュータ・サイエンスの学科の設立を急ぐ日本では、 それがそのままコンピュータ教育に取り込まれ、日本での通史として定着しました。 今でも教科書の最初のほうで紹介されてますよね?


現在のデジタル・コンピュータの発明者は誰?

しかし Wikipedia のある今日、これらの情報はあまり正しくないことが容易に確認できます。

例えば、ドイツで世界初のデジタル・コンピュータといえば コンラッド・ツーゼ が第2次世界大戦中の1941年に稼働させた Z3 だったりします。 戦後、IBMが秘密裏にツーゼが取得した特許の使用許諾交渉を行ったことからも、 Z3 が先だったことは自明なのですが、ドイツが敗戦国であったからか、この事実は意図的に無視されました。

一方、イギリスはというと、かの有名な暗号機 エニグマ の暗号電文の解読のために、1940年に開発された Bombe もデジタル・コンピュータの要件を満たしていたようです。 設計者である アラン・チューリング は1936年に論文 "On computable numbers, with an application to the Entscheidungsproblem" において 機械による計算の数学モデルである チューリング・マシン を定義しています。 なので、デジタル・コンピュータの発明者は ジョン・フォン・ノイマン ではなくアラン・チューリングだと言っちゃえばわかりやすくなる訳ですが、 そこは誰かの忖度により ENIAC の地位が守られた訳です *1


アラン・チューリングの不運

僕がアラン・チューリングの存在を知ったのは1980年代の前半、まだ学生の頃だったと記憶しています。 その時の僕のチューリングに対する印象は「同性愛で破滅した天才科学者」と言ったものでした。 実は、夭折した天才といえば数学者の エヴァリスト・ガロア 、また同性愛というと童話 『幸福な王子』 で知られる作家の オスカー・ワイルド が想起されたので、てっきり19世紀の人物だと思い込んでいたのでした。

今となっては信じ難いことですが、 当時チューリング情報科学の一部の専門家の間で知られる伝説の存在で、 例えばACMチューリング賞は1966年に創設されましたが、 彼の名が語られるのは限られた場だけでのことだったのです。 そもそもコンピュータ自体が一般大衆には縁遠いSFまがいの機械でしたしね。

チューリングが広く一般に知られるようになったのは、 1974年に書籍 『The Ultra Secret 』 が出版されて、第2次世界大戦中に彼が所属していた暗号解読組織 Ultra が暴露されてからだと言われています。

Ultra remained strictly secret even after the war. Then in 1974, Winterbotham's book, The Ultra Secret, was published. This was the first book in English about Ultra, and it explained what Ultra was, and revealed Winterbotham's role, particularly with regard to the dissemination and use of Ultra.

後も厳重に秘密にされていた。そして1974年、ウィンターボサムの著書『The Ultra Secret』が出版された。 これは、Ultra について初めて英語で書かれた本で、Ultra とは何かを説明し、 特に Ultra の普及と利用に関するウィンターボサムの役割を明らかにしたものだ。

この本の著者 フレデリック・ウィリアム・ウィンターボサム は、第二次世界大戦中に Ultra の機密情報の流通を監督したイギリス空軍の将校だったそうです。「軍人でさえ暴露するのなら…」と受け止められたのかは定かではありませんが、これ以降、大戦中のブレッチリー・パーク界隈の暴露本が多数出版され、チューリングの実情が徐々に明らかになって行ったように思います。

1984年には、戯曲 『ブレイキング・ザ・コード』 ("Breaking the Code") が公演されました。日本では1986年に劇団四季が日本語版を公演しましたが、そのポスターの記憶が僕にもあります。もっとも、当時はエイズ禍が社会問題となり始めていた時期でしたので、やはり同性愛の方に注目が集まってしまったように思います。そもそも、英国政府が Ultra を事実と認めて無かったので、あくまでも噂話でしかなかった事は否めません。チューリングの大戦前の論文にあった「紙テープを読み取る機械のイラスト付きの抽象機械」 チューリングマシン の説明だけでは「なんのこっちゃ?」と思うのが関の山でした。

正直にいうと母国イギリスでのチューリング再評価の仔細は(まだ)詳しくないのですが、 彼の再評価が本格的に始まったのは1989年のベルリンの壁崩壊や冷戦終結以降の事だと僕は記憶しています。 最終的に、英国政府は2009年に ジョン・グラハム=カミング の請願要求を受け入れ、チューリングに対する 謝罪 を行いました。以来、チューリングは英国を守った英雄のひとりとして列せられることになりました。

今日ではチューリングの偉大な研究業績を細かく追いかけられる網羅的なアーカイブも多数存在し、 また彼自身が重要な研究対象として多くの注目を集めています。


Artificial Intelligence(人工知能)と Intelligent Machinery(知能機械)

もっとも、没後50年余り封印されていた文献が突如現れたとしたら、 技術史という観点では混乱が起きます。 特にチューリングの場合、事実上ほぼ独力でコンピューターサイエンスを作り上げた と言っても良いほどの広範な業績を残しているので、従来の通史に対するインパクトは計り知れません。 もちろん従来の通史を支持する方々もいる訳で、技術史に関する論争が想起される… 冒頭で僕がふれた「アラン・チューリング問題」とはそう言った論争をイメージしています。

例えば、Artificial Intelligence(人工知能)と Intelligent Machinery(知能機械)という言葉。 確かに日本語に翻訳して字面だけを眺めると両方とも同じことを意味しているように見えますし、 従来は「『知能機械』は『人工知能』を意味するチューリングの用語」だとされてきました。

実は「人工知能」という言葉は、1955年 ジョン・マッカーシーダートマス会議 のための助成金申請のために書いた企画書の中で初めて登場することは、以前 このブログ に書いた覚えがあります。一方「知能機械」はチューリングが 1948 年に発表した 論文 のタイトルでもあります。

もちろんマッカーシーチューリングの論文を知らないはずはなく、 新しい研究領域を創設するという彼と マービン・ミンスキー の野心に沿って、敢えて捻り出され耳馴染みのない新用語が「人工知能」だった訳です。 言い換えれば、この用語は技術的な実態の曖昧なキャッチフレーズともみなせます。


チューリングの「知能機械」の研究

一方「知能機械」の方はどうでしょう。

年号所属論文出典link
1936On computable numbers, with an application to the EntscheidungsproblemProceedings of the London Mathematical Society, Series 2, 42 (1936-1937), pp. 230-265[ANK]
1945Proposed electronic calculator[ANK]
1947Lecture on the automatic computing engine[ANK]
1948Intelligent machineryNational Physical Laboratory Report[ANK]
1950aComputing Machinery and IntelligenceMind 59: 433-460[ANK]
1950bProgrammers’ Handbook for Manchester Electronic ComputerComputing Machine Laboratory, University of Manchester[ANK]
1951aCan digital computers think?BBC Third Programme, 15 May 1951[ANK]
1951bIntelligent machinery, a heretical theory[ANK]
1952Can automatic calculating machines be said to think?BBC Third Programme, 14 and 23 Jan. 1952[ANK]
1953Chess

この表は 先月このブログで紹介した 書籍 『チューリングテストの解析』 に収録されている論文 "Turing’s Test: A Philosophical and Historical Guide" で引用されているチューリングの著作を列挙したものです。 この表からチューリングが一貫して「考える機械」の実現を目指していたことが窺い知れます。

後にジョン・マッカーシーは、ダートマス会議について次のように語っています。

www-formal.stanford.edu

The original idea of the proposal was that the participants would spend two months at Dartmouth working collectively on AI, and we hoped would make substantial advances. ... Two people who might have played important roles at Dartmouth were Alan Turing, who first uderstood that programming computers was the main way to realize AI, and John von Neumann. Turing had died in 1954, and by the summer of 1956 von Neumann was already ill from the cancer that killed him early in 1957.

...

What came out of Dartmouth?

I think the main thing was the concept of artificial intelligence as a branch of science. Just this inspired many people to pursue AI goals in their own ways.

 

当初の提案のアイデアは、参加者がダートマス大学で2ヶ月間、AIの研究に共同で取り組み、実質的な進歩を期待していたのですが、そうはいきませんでした。 ・・・ ダートマスで重要な役割を果たしたかもしれないと思われる二人の人物は、コンピュータをプログラミングすることがAIを実現するための主な方法であることを初めて知ったアラン・チューリングと、ジョン・フォン・ノイマンである。チューリングは1954年に亡くなり、1956年の夏には既にフォン・ノイマンは死の床にあり、翌1957年の初めに癌で亡くなりました。

・・・

ダートマスから何が出てきたのでしょうか?

主なものは、科学の一分野としての人工知能の概念だったと思います。これだけで多くの人が自分なりに『人工知能』の目標を追求するようになりました。


人工知能」か?それとも「知能機械」か?

マッカーシーのキャッチフレーズ「人工知能」は大成功を収めた訳ですが、 では、この用語は「知能機械」に書き換えるべきなんでしょうか?

僕はそのような意見を見かけたことはありません。 チューリング・テストのコンテストであるローブナー賞の 2002年の主催者であるニール・ビショップは、 ジョン・サンドマンのインタビューにおいて「人工知能」という用語について次のように語っています。

In the professional and academic circles the term Artificial Intelligence is passé. It is considered to be technically incorrect relative to the present day technology and the term has also picked up a strong Sci-Fi connotation.

専門家や学術界では「人工知能」という言葉は時代遅れのものとなっています。 それは現在の技術に関連して技術的に正しくないと考えられており、また、この用語は強いSF的な意味合いを持っています。

Artificial stupidity, Part 2 | Salon.com

ビショップがどういう立場の人物で、どのような背景の元にこの発言をしているのかはよくわかりませんが、 21世紀の今日、どうやらこの用語は前世紀の遺物として扱わなければならないのかもしれません。

以上

*1:ENIAC の実質的な開発者である ジョン・プレスパー・エッカートジョン・モークリー その後 ENIAC の特許を巡って、 アタナソフ&ベリー・コンピュータ(ABC) との 法廷闘争 に巻き込まれてしまいます。 ただ、エッカート&モークリーには同情すべきかもしれません。 そもそも彼らが特許取得に走ったのは、 彼らが ENIAC 開発の行ったペンシルバニア大学が彼らに発明の権利の譲渡を迫ったからです。

この種の特許をめぐる発明家の権利主張の争いは、古くは発明王 エジゾン や(真空管の)三極管を発明した リー・ド・フォレスト の生涯からもわかるように、 強欲とはアメリカ人の(それから中国人の)御家芸と言うべきなのかもしれません。

劇場版「ワンダーウォール」を観た

Wornderwall the Movie


2020/04/11
藤田昭人


とうとう緊急事態宣言が出されてしまいましたが、 みなさんいかがお過ごしでしょうか?

さっき劇場版「ワンダーウォール」を観てきました。 昨日 4/10 に出町座で封切られたばかりなんだけど、 時節柄、京都でもいつ映画館に休業要請が出されるかわからない から…僕、個人的には予定どおり最後まで公開できれば良いなと思ってます。

ドラマ 「ワンダーウォール」 はNHK BSプレミアムの地域ドラマの放送枠で2018年夏に放映されました。 劇場版「ワンダーウォール」の本編はNHK版に若干の未公開シーンを追加された本編と、 最後に2019年に撮影された(と思われる)演奏風景が追加されています。 2019年追加分の詳細はネタバレになるので劇場で観てください。

ただ、このドラマは on going なトピックでもあるので、 以下の2点だけは周知しておきます。

  • 近衛寮(吉田寮)はかろうじて存続している
  • 大学は寮生15人を法的に訴えた。裁判は係争中。

ドラマを制作した人達はどこにも語ってないのですけども、 テレビ放映時とほとんど内容の変わらない劇場版が企画されたのは、 この2点がトリガーだったのではないかと僕は邪推してます。

本編では岡山天音扮する志村が「大学は闘い方を変えた」と語るシーンが出てきます。 これ「寮生も闘い方を変えなければならない」と示唆しているようにも受け取れる。 真の目的が寮の跡地利用であることもドラマで語られています。 これ、僕はリアルでも何度か聞いたことがあります。 確かに東大も阪大も東工大も既に新しいカッコいい建屋が幾つも立ってるもんねぇ。 そういったことも踏まえると法的手段に訴えた大学側の苦悩も透けて見えます。 振り上げた拳のおろしどころに困ってる感は半端ないです。 強引に解決できるタイミングは何度もあったはず。 そうなってないのは「万事公論に決すべし」ということなのかもしれない。

観賞後「ワンダーウォール写真集」なるものが販売されていたので購入しました。

f:id:Akito_Fujita:20200411185600j:plain
ワンダーウォール写真集

ちょっとお高かったですが、なんかのカンパにはなるかと思って。


先日、Facebookスペイン風邪与謝野晶子の文章のことをちょこっと書いたのですが、 この大流行の時には既に 吉田寮 は今の場所に立っていたのですよ(寮内を探せばスペイン風邪の時の記録が出てくるかもしれない)。 そして今も(かろうじて)学生寮として運営されている。

個人的には京大にも吉田寮にも何の縁もゆかりもない訳ですが、 近所に住んでる歴史オタクのおっさんとして素朴に思うことは 「京都市中には1000年を超える建屋も幾つか現存していて保存に膨大な労力を使っているというのに、 何故100年前から続いてきた生きた文化が守れないのか?」 です。この観点からドラマ(そして劇場版)の制作者の(隠された?)意図に共感・支持するところであります。

「本当に潰しちゃって良いのですか?」

ですね。皆さんはどう思われますか?

以上