ローブナー・コンテストの歴史

1990年代のAIのパラダイム・シフトと 100年前の脚気原因論争と対比して


2020/06/18
藤田昭人


【注意】本稿は僕の思考プロセスをそのまま文に落としてしまいました。長いです。
【注意】長文を読みたくない方は結論だけご覧ください。



在宅勤務を始めて2ヶ月あまりが経ちますが…

最近、SNSを眺める時間が少し減っているように思います。 通勤の途中や外食のおりの待ち時間には決まって FacebookTwitter を開いていたのですが、 そうやって待ち時間の暇つぶしをする機会が減ってるってことでしょう。 もはや以前のようにSNSに齧り付くようなことはもうやってないですからね。

その反面、増えているのがテレビを視る時間。 スポーツ中継がなくなった穴を埋めるため 大量のドキュメンター番組を(再)放送しているBSをついつい視聴してしまいます。


フランケンシュタインの誘惑 科学史 闇の事件簿 「ビタミン×戦争×森鴎外

中でも以前からお気に入りのシリーズだった 『フランケンシュタインの誘惑 科学史 闇の事件簿』は 森鴎外の回を再放送してました。

www.nhk.jp

この回は「小説家 森鴎外」ではなく「軍医 森林太郎」としての業績(というか失敗)に 光を当てていまして、あらすじは次の Wikipedia ページのダイジェスト版といったところでしょう。

ja.wikipedia.org

このページにある盛り沢山の内容をわずか1時間の番組に収めるために 陸軍軍医 森林太郎 と 海軍軍医 高木兼寛 の対立の構図、それから高木の研究を発展させた 農学者 鈴木梅太郎オリザニン(ビタミン)発見 の顛末に絞った内容でした *1


「発見の科学」と「検証の科学」

この番組、僕はだいぶん前に視ていたのですが、 今回改めてみた再放送で一番印象深かったのはコメンテーターの 佐々木敏 先生のお話でした。

番組は明治時代に流行った脚気の原因について細菌説を主張した旧東京帝国大学医学部が 高木兼寛鈴木梅太郎の異説を頑なに拒絶した史実が元になっています。 森林太郎がクローズアップされたのは誰もが知る明治の文豪だったからで、 テレビ番組としての演出でしょう。この問題の本質であろう「細菌学 vs 疫学」の対立を 佐々木先生は「発見の科学」と「検証の科学」という立場の違いで説明されてました。 両者が各々重点におく「メカニズム」と「実証主義」といずれも重要で、 「両輪を同じ大きさにしていく努力が必要」と番組の終盤で語っておられました。

この「メカニズム」と「実証主義」のフレーズを耳にしたところでピンときて、 この脚気の原因に関する論争の構図をチューリングテストの論争に当てはめると わかりやすく整理できるなぁ…と考えたのでした。


「毎度、お騒がせ」だったローブナー・コンテスト

チューリングテスト *2 を使って「最も人間らしいチャットボット」を選ぶ ローブナー・コンテスト が今日のように世間の耳目に触れるようになったのは 21世紀になってからだと記憶しているですが、 実はコンテスト自体は1991年から毎年開催されていました。 言うなれば下積み時代のローブナー・コンテストは 「毎度、お騒がせ」だったことはスンドマンの記事 *3 が詳しいのですが、それによれば、 この賞を創設した ヒュー・ローブナー は周囲の人間には「付き合うのが面倒」と感じる気性なんだそうで、 その突飛な発想に周囲は振り回されることも一因だったそうです。

実際、当初のローブナー・コンテストは散々非難を浴びてきました。 前回 紹介した、 スチュアート・シーバー が書いた論文 "Lessons From a Restricted Turing Test" であるとか、 マービン・ミンスキー の "Minsky Loebner Prize Revocation Prize" だとか、 最初の10年間、ヒュー・ローブナーと ローブナー・コンテストの評判は 下がる一方だったそうです。

コンテストがこのような状況を脱し始めたのは リチャード・ウォレス が開発したチャットボット A.L.I.C.E. がコンテストで優勝した2000年以降のことでしょう。 正直「これは一体どう理解したら良いものだろうか?」と 僕はちょっと考え込んでいたのでした。


「毎度、お騒がせ」だった本当の訳

いろいろ調べてみたのですが、どうやら1991年に実施された第1回ローブナー・コンテストが全ての始まりだったようです。 このコンテストの模様は、 AIマガジンの1992年夏の号に掲載された記事 "The Quest for the Thinking Computer" で紹介されています。

aaai.org

この記事には、おそらく主催者サイドが広報的な目的で書いたと思われるので、 あまりネガティブな内容はありません。 ですが(前述の)スチュアート・シーバーは審判役で参加したのち このコンテストに批判的な意見を表明しました。 その主張を一言で説明すると「応募してきたチャットボットはどれもレベルが低すぎる」というものでした。 いずれも1966年に発表された ジョゼフ・ワイゼンバウムELIZA の方法を踏襲していると見て取れるので、 2〜3言やり取りをすればチャットボットだと見破れるわけだそうです。

この主張に ダニエル・デネット が率いるコンテストの運営委員会も同調したため、以降コンテストの主催者内部で紛糾する事になりました。 議論はすぐにヒュー・ローブナーとその他の委員会メンバーとの対立の構図となり、 やがてはチューリングテストの妥当性を巡って終わりのない議論に発展したようです。

実は1990年頃には「チューリングテスト懐疑論」が主流だった事実があります。 例えば、哲学者の ジョン・サール は1980年に発表した論文の中で 中国語の部屋 と呼ばれる思考実験を提案し「機械が考えることができるかどうかを決定するために チューリングテストを使うことはできない」と主張しました。

また 前々回 も紹介したように、1990年当時、チューリングの最大の貢献である暗号機 エニグマ を解読した Bombe は未だ軍事機密のままで その存在は噂話の域を出ませんでした。 それ故かチューリングの数々の業績は一般には正当に評価されていませんでした。 当時の世相を皮肉ってか、哲学者の ブレイ・ウィットビー は論文 「チューリングテストがAIの最大の袋小路である理由*4 の冒頭で「1973 - 1990: AIの研究者というよりも むしろ主に哲学者の気分転換のネタとなり始める」などと揶揄していました。

そういった世間のムードもあってか、 ローブナー賞委員会はコンテストからチューリングテストを排除する方向へと 誘導しようとしていたようですが、 コンテストの資金提供者であるヒュー・ローブナーは 「毎年、チューリングテストを実施する」 ことに固執し、委員会の提案を拒絶し続けました。 スンドマンの記事では ローブナーの次の発言が紹介されています。

The important thing was that the contest happen, not where it happened or who sponsored it.

If one thing makes Loebner see red, it’s the idea that his contest will not be held every year. “On this point I have been stalwart,” he said. “I have been adamant. I have been steadfast.”

重要なのは、コンテストはどこで開催されるか?誰が主催したのか?ではなく、コンテストが開催されるということだ。

ローブナーが顔を真っ赤にして怒る理由が一つあるとすれば、彼のコンテストは毎年開催されるわけではないということだ。「この点に関しては、私はかたくなだった」と、彼は言った。「私は断固として譲らない姿勢を貫いてきている」。

彼がなぜこれほどまでにチューリングテスト固執した理由はさだかではありませんが、 結局、1994年、第4回コンテストを前にして 運営委員会の委員が全員辞任するという事態に至り、 両者は喧嘩別れに終わりました。

マービン・ミンスキーが "Minsky Loebner Prize Revocation Prize" (ミンスキー・ローブナー賞取り消し賞)を言い出したのは、 その翌年の1995年のことでした。 スンドマンの記事では「事実上ローブナー・コンテストのボイコットを促すような行為」と紹介しています。 確かに「恥をかかされたAIコミュニティによる報復」と受け止められても致し方ないやり方です。

正直、当初「『人工知能の父』と称されるミンスキーが そんな子供っぽいことをやるのかな?」と個人的には思っていたのですが、 脚気原因論争の話から図らずも「むしろ権威を背負ってしまってるから、 引くに引けなくなってしまった」のだと得心してしまいました。 確かに、表向きは「脚気細菌説」を主張しながら 巧みに「脚気栄養欠陥説」を当てこすった ミンスキーと森林太郎とが重なって見えます。


AIのパラダイム・シフト

ミンスキーと森林太郎とのもうひとつの共通点は 「自らの主張が徐々に受け入れられなくなっていく様を眺めているしかなかった」 ことです。Wired の2003年5月13日の記事 "AI Founder Blasts Modern Research" では、 ミンスキーが孤立を深めつつある様子が伺えます。

www.wired.com

この記事によれば、ミンスキーが第1次AIブームでの自然言語処理、 第2次AIブームでのエキスパートシステムの延長上にAIの将来を見ていたように理解できます。 しかし現実のAIのトレンドは別の未来に向かっていたようです。 ミンスキーの批判の矛先になった ロドニー・ブルックス は「マーヴィンの批判を私に向けていたのかもしれない」とミンスキーの批判を受け流し、 次のような反論を繰り出しています。

"Not all of our intelligence is under our conscious control," said Brooks. "There are many layers of intelligence that don't require introspection." In other words, the emphasis on common-sense reasoning doesn't apply to some efforts in the AI field.

「私たちの知性のすべてが意識的なコントロール下にあるわけではない」とブルックスは言う。 「内省を必要としない知性の層がたくさんある」 つまり、常識的な推論を重視することは、AI分野の一部の取り組みには当てはまらないということだ。

ブルックスは1986年に論文 "a robust layered control system for a mobile robot" (移動ロボット用の堅牢な階層化制御システム)で知能ロボットに関する 「包摂アーキテクチャ」 (SA: subsumption architecture) 理論を提唱し、 1991年には論文 "Intelligence without representation" (表象なき知能)を発表して『知能にとって、表象は不要である』という「反表象主義」の立場を打ち出しました。 ブルックスの研究については松岡正剛氏の 『ブルックスの知能ロボット論』の書評 が簡潔で比較的わかりやすいです。 「包摂アーキテクチャ」と「表象なき知能」の説明を次に抜き出してみました。

多様なエージェント機能を分散自律的に並列処理できる端的ロボットの開発をめざしたのだ。 そこで提案したのが「サブサンプション・アーキテクチャ」(Subsumption Architecture)である。 包摂アーキテクチャと訳されたり、略してSAと呼ばれてきた。
複雑で知的な動作をはたすべきロボットのしくみを、 あらかじめ単純なモジュールに分割しておいて階層化し、 これを動作の進展にあわせて優先順位がつくように仕立てて 自律性を発揮するように仕向けようという設計思想のことをいう。

(中略)

サブサンプション・アーキテクチャにもとづくロボットには 必ずしも高度な知能をもたせる必要はない。 知的な行動や判断ができるための設計をすればよい。表現力もいらない。 「表象なき知性」(intelligence without representation)だけでいい。 そういう思想だ。ブルックスはそのことを「虫」のふるまいに学んだ。 昆虫は神経節しかもっていないが、それでも包摂環境を判定して自在に動く。 そこに注目したわけである。

なるほど、ミンスキーが「包摂アーキテクチャ」を嫌った理由がよくわかります(笑)

そもそも、ミンスキーにとって最終的な研究目標は 2001年宇宙の旅 に登場する HAL9000 のようなコンピューターだったように僕は想像しています *5。 なので、ブルックスが提唱する昆虫のようなロボットは、 ミンスキーにとって取るに足らない研究テーマに見えた事でしょう。 ところが彼のお膝元であるMITのAIラボですら学生は昆虫作りに熱中する始末。 それというのも(今では日本でもテレビCMをよく見かける) 自動掃除機「ルンバ」 *6というコンシューマ製品が実用化された事例があるからでしょう。 この全く不愉快な現実に散々憂さを溜め込んでいたミンスキーが とうとうブチ切れた・・・というのがWiredに掲載された会議の 真相だったのだろうと僕は想像してます。

これ、脚気の原因を突き止めるための疫学的アプローチに似てませんか? また、細菌学に基づいて研究を重ねても重ねても答えが全く見つからない中、 やがては「兵隊には麦飯さえ食わせておけば脚気にはならんのでは?」と 至る所で陰口を叩かれるようになった時の森林太郎の心情を ミンスキーのこの「ブチ切れ」から推し量ることができるような気が僕はするのです。


リチャード・ウォレスが語るブルックスのAI論とチャットボットの関係

ブルックスは、1990年(最初のローブナー・コンテストの1年前)に最初のベンチャー iRobot を創業します。つまりローブナー・コンテストは最初から 彼らが引き起こすAIのパラダイム・シフトに遭遇し、 その影響を受けること予期されたことになります。

ローブナー・コンテストとロドニー・ブルックスとの接点はないかと探してみたところ、 スンドマンの記事で1箇所だけ「ロドニー・ブルックス」と言及されているところを見つけました。 それはチャットボット A.L.I.C.E. の開発者であるリチャード・ウォレスに対するインタビューです。

I asked him where he got the inspiration for ALICE. He said that he had been influenced by the "minimalist" A.I. ideas associated with Dr. Rodney Brooks of MIT's A.I. lab.

At first, he said, he had tried to follow some of the more grandiose theories of traditional A.I., but he found them sterile. "You read a book with a title like 'Consciousness Explained,'" he said, "and you expect to find some kind of instruction manual, something that you can use to build a consciousness. But of course it's nothing of the kind." (Daniel Dennett wrote "Consciousness Explained.")

ALICEのインスピレーションはどこから来たのか聞いてみたところ、 MITの人工知能研究所のロドニー・ブルックス博士が提唱する「必要最低限度の」AIの考え方に影響を受けたという。

最初は、伝統的なAIの壮大な理論のいくつかに従おうとしたが、それは不毛だと思ったという。 彼が言うには「もし "Consciousness Explained" のようなタイトルの本を読んだとしたら、 ある種の手順書や意識を構築するために使用できる何かを期待するでしょう。 しかし、もちろんそのようなものは何もありません」 ("Consciousness Explained"『意識の説明』はダニエル・デネットの著作)

インタビュー自体はこの後デネットの著作のタイトルに触発されてか「意識」の議論へと移って行きますけども…仮定が多く具体性に欠くメカニズムを語るデネット(やミンスキー)のAI論よりも、単純で明快なブルックスのAI論を当時のプログラマーが支持し始めていた事がうかがえる発言ですね。

さらにウォレスが A.L.I.C.E. を開発する際に考えていたことをもう少し知りたいと思い、 文献を探してみたところ、ウォレスのインタビュー記事が結構たくさん出回っている事がわかりました。 その全部をここで披露すると長くなり過ぎるので、とりあえず ニューヨークタイムズのインタビュー記事 だけを紹介しておきます。A.L.I.C.E. の最初のバージョンが誕生したときのエピソードです。

Alice came to life on Nov. 23, 1995. That fall, Wallace relocated to Lehigh College in Pennsylvania, hired again for his expertise in robotics. He installed his chat program on a Web server, then sat back to watch, wondering what people would say to it.

Numbingly boring things, as it turned out. Users would inevitably ask Alice the same few questions: ''Where do you live?'' ''What is your name?'' and ''What do you look like?'' Wallace began analyzing the chats and realized that almost every statement users made began with one of 2,000 words. The Alice chats were obeying something language theorists call Zipf's Law, a discovery from the 1930's, which found that a very small number of words make up most of what we say.

Wallace took Zipf's Law a step further. He began theorizing that only a few thousand statements composed the bulk of all conversation -- the everyday, commonplace chitchat that humans engage in at work, at the water cooler and in online discussion groups. Alice was his proof. If he taught Alice a new response every time he saw it baffled by a question, he would eventually cover all the common utterances and even many unusual ones. Wallace figured the magic number was about 40,000 responses. Once Alice had that many preprogrammed statements, it -- or ''she,'' as he'd begun to call the program fondly -- would be able to respond to 95 percent of what people were saying to her.

Wallace had hit upon a theory that makes educated, intelligent people squirm: Maybe conversation simply isn't that complicated. Maybe we just say the same few thousand things to one another, over and over and over again. If Wallace was right, then artificial intelligence didn't need to be particularly intelligent in order to be convincingly lifelike. A.I. researchers had been focused on self-learning ''neural nets'' and mapping out grammar in ''natural language'' programs, but Wallace argued that the reason they had never mastered human conversation wasn't because humans are too complex, but because they are so simple.

"The smarter people are, the more complex they think the human brain is," he says. "It's like anthropocentrism, but on an intellectual level. 'I have a great brain, therefore everybody else does -- and a computer must, too.'" Wallace says with a laugh. "And unfortunately most people don't."

アリスは1995年11月23日に誕生した。 ウォレスはその秋、ペンシルバニア州のリーハイ大学に移り、ロボット工学の専門知識を買われて再就職した。 彼はウェブサーバーにチャット・プログラムをインストールし、人々が何を言うのかと思いながら椅子に座って眺めていた。

結局のところ、それは非常に退屈なものだった。 ユーザーは必然的にアリスにも同じような質問をすることになる。 「どこに住んでるの?」「あなたの名前は?」「あなたの外見は?」 ウォレスはチャットを分析し、ユーザーが発するほとんどすべての発言が2,000語のうちのいずれか1語から始まっていることに気づいた。 アリスのチャットは、1930年代に発見された言語理論家がジップの法則と呼ぶものに従っていた。 非常に少数の単語が私たちの会話の大部分を構成していることがわかった。

ウォレスはジップの法則を一歩進めた。 彼は、職場や冷水器、オンラインでのディスカッション・グループといったところで、 人間が日常的に行うありふれたおしゃべりなど、すべての会話の大部分をわずか数千の発言から構成されているという理論を立て始めた。 アリスが彼の根拠だった。 もしアリスが質問で混乱しているのを見ればそのたびに、彼がアリスに新しい答えを教えたとしたら、 彼は最終的には一般的な発言すべてをカバーするだけなく、さらには多くの変わった発言もカバーするだろう。 ウォレスは、マジックナンバーは約4万件の応答だと考えている。 これだけプログラムされた発言ができるようになれば、 アリスに向かって(あるいは「彼女は」と呼びはじめたときには)人々が言っていることの95%に反応できるようになる。

ウォレスは、教育を受けた知的な人々を落ち着かない気分にさせる理論を思いついた。 会話とは、同じ発言を何度も何度も何度も何度も繰り返すだけで、それほど複雑ではないかもしれない。 ウォレスが正しければ、人工知能は、人間を納得させるように生きていくために、特に知的である必要はなかった。 A.I.研究者たちはこれまで、自己学習「ニューラルネット」と「自然言語」プログラムの文法に焦点を当ててきたが、 ウォレスによると、彼らが人間の会話をマスターできなかったのは、人間が複雑すぎるからではなく、単純すぎるからだという。

「頭の良い人ほど人間の脳は複雑だと思っています」と彼は言う。 「人間中心主義に似ていますが、それは知的レベルの問題です。 『僕は頭がいいから、ほかのみんなもそうする。コンピュータもそうしなければならない』」とウォレスは笑う。 「残念ながらほとんどの人はそうではありません」

いかがでしょう?ウォレスが語る「ブルックスの必要最小限度のAI」の考え方が なんとなくわかって来たような気がしませんか?

僕なりに砕けて解釈させてもらうと「傍目に知能があると見えるのなら、 何も無理してメカニズムさえわからない知能を実装せんでもよくねぇ?」と ある種の開き直りのようなアプローチが、ブルックスの 「包摂アーキテクチャ」や「表象なき知能」の革新性なんでしょう。 この「知能があるかのように見せかける」アプローチは ワイゼンバウムのELIZA論文*7 を彷彿させます。

結局 A.L.I.C.E. はマークアップ言語で記述するスクリプトを用いる 「モダンな ELIZA」とも言うべき設計になっています。 そして ELIZA から進化させた主な要因は「4万件もの大量の応答メッセージを用意する」ことだったようです。 それ故に A.L.I.C.E. の革新性は非常に分かり辛いものになっていますが…

  • チャットボットに対する人間の発言はジップの法則に従う
  • ジップの法則にしたがって十分に大量の応答メッセージを用意すれば人間のどんな発言の概ね適切に対応することができる

という「スクリプト作成に重点をおいたチャットボット開発」を提案したことなのでしょう。 この提案はウォレスが1995年あたりに行った作業だといいますから 今日でいうところのデータ・サイエンスと呼ばれる領域の先鞭をつける試みだったと言えます。

またローブナー・コンテストの視点で語れば、 シーバーに「ELIZAに毛の生えた程度」と論評された 第1回コンテストに参加したチャットボットの性能改善の方策は 「応答メッセージを大量に増やせ」ということになります。 もっとも経験した方には分かって貰えると思いますが、 万のオーダーで重なりのない応答メッセージを定義することは かなり苦痛が伴う作業でもあります。これは正しく実証主義的アプローチです。

脚気原因論争の構図に当てはめると…こじつけっぽくなるので、もうやめておきましょう。


なんだか…

長くとっ散らかった話になってしまいましたが、あと少しお付き合いください。

脚気原因論争の枠組みを辿ってローブナー・コンテストの諸事件を整理してみたら、 ロドニー・ブルックスの新しいパラダイムやリチャード・ウォレスの仕事の意義に辿りつけたのはラッキーでした。

あまり有名ではないトピックで文献が集まらず因果関係が埋没してしまう場合、 僕はまったく関係のないトピックの枠組みだけを拝借して見つけるべき文献をヒントを捻り出します。 これも『Unix考古学』を書いてる時に編み出したテクニックなんですけども、 そのデメリットはまんま書き下ろすと相当読みづらい記事になってしまうこと。 まぁ、ここに公開してるのはあくまでも草稿なんで…この記事を書籍向けに採用する場合は第2稿を書き下ろさないと。

しかし、90年代に起こったAIのパラダイム・シフトは僕にとって盲点でした。 同世代の皆さんも同じなんじゃないかと思いますが、 僕らは第二次AIブームをリアルタイムで経験していて、 マッカーシ・ミンスキーに対する擦り込みが強烈だったのです。 なので、僕らが知る人工知能と現在もブームが続くAIには大きなギャップを感じてしまう。 皆さんの周りにもそういう老人はいませんか?

このギャップ、AIの専門家の間では 「トップダウン・アプローチ vs ボトルアップ・アプローチ」と呼ぶトピックで語られてきたものです。 皆さん「どちらが正しいか?」との議論は大好きですが、結論を出す事を必ず避けるので、 いつもモヤモヤして終わる後味の悪い議論になります。なので 「スーパーエリートの森鴎外でもしくじった」 という歴史的評価を借りたかったのです(笑)

さて、脚気原因論争とローブナー・コンテストの各々についてオチをつけましょう。


脚気原因論争の顛末

脚気原因論争は、新しい栄養素ビタミンの発見により「脚気栄養欠陥説」が正しいことで、決着が付きました。 陸軍の食事も白米から(正直あまり美味しくない)麦飯に切り替わったそうです。 もっとも激烈なポジショントークを連発し続けた森林太郎が軍医を退官するまで、 陸軍は脚気細菌説を取り下げることはできなかったとか。

番組では、旧東京帝国大学医学部が鈴木梅太郎オリザニンを意図的に無視した事により ノーベル賞を取り損なったとの批判も語られてましたが、 過去のノーベル章の選考では鈴木の例に限らず様々な偏向があったことは今ではよく知られている *8 ので、仮に旧東京帝国大学医学部の妨害が無かったとしても、結果は変わらなかったかも知れません。

その鈴木梅太郎が米糠の脚気に対する効用を検証するための臨床試験に苦労していた1910年代、 ノーベル賞にもっとも近い日本人と言われていたのが 野口英世 でした。鈴木より2歳若い野口は当時、 アメリカのロックフェラー医学研究所に所属し、 1914年、1915年、1918年のノーベル医学賞候補になりました。 しかし、野口が1度も受賞できなかったのは皆さんご存知のとおりです。

調べてみるとこの時期のノーベル化学賞あるいはノーベル生理学・医学賞の受賞者はいずれもヨーロッパ人で、 日本人だけでなくアメリカ人も含めまだ過去にひとりも受賞者はいませんでした。 ちなみに野口が候補者にノミネートされたこの時期、 ヨーロッパは第1次世界大戦(1914〜1918)の最中でした*9。 つまり、野口や鈴木は日本人だったから受賞できなかったのではなく、 20世紀初頭のノーベル賞はまだまだ19世期の世界観が色濃く残った ヨーロッパ世界限定の賞だったというのが正しい理解のようです。


ローブナー・コンテストのその後

委員全員の辞任やミンスキーの難癖に見舞われた後も ゴタゴタ続きのローブナー・コンテストは 2003年〜2004年に最大のピンチを迎えます。 当初からコンテストの運営を委託されていた ケンブリッジ行動研究センター(CCBS)は コンテストの企画・運営に行き詰まりを感じ、 スポンサーであるヒュー・ローブナーとの委託契約の解消へと動きます。 本稿でも多数引用して来たスンドマンの記事は ヒュー・ローブナーと CCBS との交渉が大詰めを迎えていた 2003年に取材・執筆されたこともあって、 この委託契約解消のトラブルの顛末には詳しいです。 コンテストの運営主体を失ったヒュー・ローブナーは それでもコンテストの毎年開催を諦めず、 なんと2004年は会場として自宅を開放してコンテストを開催し続けました。

このようなコンテストの苦境を救ったのは チューリングの母国であるイギリスのチューリング・フリークでした。 チューリングに関する国際会議やイベントに併設される形で ローブナー・コンテストは毎年実施され続けました。 さらにヒュー・ローブナーが亡くなる2年前の2014年からは 世界最古の人工知能学会である Society for the Study of Artificial Intelligence and the Simulation of Behaviour (AISB) がコンテストの運営を引き継ぎ、今日に至っています。

コンテストに応募するチャットボットの性能も リチャード・ウォレスの A.L.I.C.E. の優勝以来、格段に進化し、 開発者共々マスメディアへの露出も増えましたが、 それはガーディアンなどイギリスのメディアによる 報道であることが多いように思います。


最後に…ローブナー・コンテストとAIパラダイム

20世期と21世期を跨ぎ30年間続けられて来たローブナー・コンテスト。 その「毎年、チューリングテスト」とのブレない姿勢ゆえに、 かえってその時々の様々な技術トレンドを浮き上がらせる結果になったのだろうと僕は想像しています。 本稿では特にコンテストの企画・運営に大きな影響を与えた運営委員会にフォーカスしてきました。 初期の委員会が全員辞任により消滅して以降、運営委員会は各回ごとその都度組織されいたようで、 現在はAISBがその任に当たっているのだと思います。

コンテストの長い歴史を振り返ると、運営委員会が信じるAIパラダイムは 世紀の変わり目あたりに断絶があるように僕には見えます。 言わば「20世紀のAIパラダイム」と「21世紀のAIパラダイム」には大きな差違があるといった感じでしょうか? これ、AIの世界では昔から「トップダウン・アプローチ」と「ボトムアップ・アプローチ」などと呼ばれて来たように思います。 前者がその真偽はさておき数学のように仮説的な「メカニズム」ありきで考察から始めるのに対し、 後者は原則として人間の脳や神経回路の仕組みを調べて模倣する「実証主義」を貫く違いがあります(と僕は理解してます)。

もっとも、この用語は困ったことに時代によって意味が変わるのです*10。 1960年代生まれの僕の世代では「トップダウン・アプローチ」に分類される 「意思決定アルゴリズム」や「自然言語処理」「エキスパートシステム」こそが「人工知能」だと習いました。 一方の「ボトムアップ・アプローチ」に分類される「ニューラル・ネットワーク」や「機械学習」は (サイバネティックスの影響からか)「制御理論」と説明されてました。 ところが、1980年以降に生まれた諸君は「トップダウン・アプローチ」の具体例をほとんど知りません。 どちらかと言えば「ボトムアップ・アプローチ」に分類される 「サブサンプション・アーキテクチャ」や「ディープラーニング」を「人工知能」だと理解しているようです。

本稿では、かなり回り道をしながら、1990年代にAIのパラダイムが 「トップダウン・アプローチ」から「ボトムアップ・アプローチ」へとシフトしていったことを紹介しています。 (これで残りの部分も読む気になりましたか?) AIのパラダイム・シフトを観測するポイントのひとつとして、 ローブナー・コンテストの歴史を辿るのはちょうど良いかも知れません。

コンテストに参加したチャットボットの技術的な特徴など、 さらに踏み込んでいろいろ調べてみたいと思わず考えてしまいますが、 本稿はもう十分に長くなってしまっているので、ここで一旦終わりとします。

以上

*1:鈴木梅太郎の話は 栄光なき天才たち のエピソードの一つとしても発表されてますね。

*2:このブログでは元祖チャットボットのELIZAと その評価方法であるチューリングテストをクドクドと扱ってきてますが…

そもそも「チューリングテスト」とは、 アラン・チューリングが "Can machines think?" (「機械は考えることができるか?」) という問いを確かめるための手段として、 次のような "The Imitation Game"(「模倣ゲーム」)を提案したことに始まります。

  • 男性(A)、女性(B)、質問者の3人で行われる
  • ゲームの目的は、質問者が、どちらが男性で、どちらが女性かを当てること
  • 質問者は文字だけによる会話を通じて判定を行う
  • Aの男性は、質問者を間違わせるように振舞う
  • Bの女性は、質問者を助けるように振舞う

さて、この「模倣ゲーム」でAの役割を機械が受け持ち、 質問者は人間と機械の判定を行うとしたらどうなるだろうか?

このチューリングが考え出した、 それこそホームパーティでよく行われる ちょっとしたゲームのようなテストに、 その後70年間も人類は悩まされ続けてる訳です(笑)

*3:前回取り上げたジョン・スンドマンの記事『Artificial stupidity』を再掲しておきます。

Artificial stupidity | Salon.com

Artificial stupidity, Part 2 | Salon.com

かつての「毎度、お騒がせ」だった時代の ローブナー・コンテストの実相について語る 貴重な情報源です。

*4:原題は "Why The Turing Test is AI's Biggest Blind Alley"。
この論文は1997年とクレジットされてますが、 Turing 1990 Colloquium での発表内容なんだそうです。

*5:事実、ミンスキーは科学的考証の立場で この映画の制作に参加してました。

*6:ルンバの設計については、 松岡さんが書評でわかりやすい説明をしておられるので、 是非ご一読を。

*7:このブログを始めた頃に書いた ELIZAの紹介 の記事をご覧ください。

*8:科学者として最高の栄誉と認知されているノーベル賞は 今でもメディアの大きな話題となりますが、 過去の選考には様々な醜聞もあります。 中でも僕が一番酷いと思うのは1962年のノーベル生理学・医学賞の受賞者 ジェームズ・ワトソンフランシス・クリックモーリス・ウィルキンス のケースです。

彼らは、DNAの 二重螺旋構造 を発見したことが受賞理由だったのですが、 この発見の決定的な証拠となったのは ロザリンド・フランクリン が撮影したX線回折写真でした。 フランクリンは1958年に病没していたためノーベル賞は受賞できなかったとされてましたが、 1953年にこの発見を公表した 論文『デオキシリボ核酸の分子構造』 はワトソンとクリックの署名しかなかったことから、 フランクリンが撮影した写真の入手方法が大問題となりました。 一説によればフランクリンと同僚だったが個人的に折り合いの悪かった ウィルキンスが彼女には内緒でワトソンとクリックの元に持ち込んだと囁かれています。

背景として著名な研究機関でも1950年代にはまだ、 人種的な差別が横行し、女性研究者の地位も低かったことが上げられています。

*9:この事実もなんらかの因果関係がありそうですが…それはまたの機会にしましょう。

*10:改めて調べてみたところ僕らの世代が習った「トップダウン」と「ボトムアップ」とは ジャック・コープランド による次のような説明でした。

Top-Down AI vs Bottom-Up AI -- What is Artificial Intelligence?

Turing's manifesto of 1948 distinguished two different approaches to AI, which may be termed "top down" and "bottom up". The work described so far in this article belongs to the top-down approach. In top-down AI, cognition is treated as a high-level phenomenon that is independent of the low-level details of the implementing mechanism -- a brain in the case of a human being, and one or another design of electronic digital computer in the artificial case. Researchers in bottom-up AI, or connectionism, take an opposite approach and simulate networks of artificial neurons that are similar to the neurons in the human brain. They then investigate what aspects of cognition can be recreated in these artificial networks.

1948年のチューリングマニフェストは、「トップダウン」と「ボトムアップ」と呼ばれる、 AIへの2つの異なるアプローチを区別しています。 これまでに紹介した作品は、トップダウン型のアプローチに属しています。 トップダウンAIでは、認知は、実装メカニズム(人間の場合は脳、人工の場合は電子デジタルコンピュータの一つ以上の設計など) の低レベルの詳細とは独立した高レベルの現象として扱われます。 ボトムアップAI(コネクショニズム)の研究者たちは、逆のアプローチをとり、 人間の脳のニューロンに似た人工ニューロンのネットワークをシミュレーションしています。 そして、これらの人工ネットワークで認知のどのような側面が再現されるかを調査します。

ここで登場する "Turing's manifesto of 1948" とは、論文 "Intelligent Machinery" のことのようです。コープランドによればチューリングはその時の上司の反対にあって、 この論文を寄稿しなかったらしいので、 一般が知るようになったのはチューリングの没後のことでしょう。

しかしながら、チューリングが「トップダウン」と「ボトムアップ」にまで言及していたとは驚きです。

It is humbling to read Alan Turing's papers. He thought of it all. First.

アラン・チューリングの論文を読むのは屈辱的だ。彼はすべてを考えた、誰よりも先に。

とのロドニー・ブルックスのコメントに思わず肯いてしまいます。