AI(人工知能)の愚かさ

Artificial Stupidity


2020/05/14
藤田昭人


緊急事態宣言は延長されましたが、コロナ感染のピークは過ぎたような…
みなさんいかがお過ごしでしょうか?

前回の最後で『人工知能(AI)』という用語について 「21世紀の今日、どうやらこの用語は前世紀の遺物として扱わなければならないのかもしれません」 などと言い放ってしまったことが内心ずーっと気になってました。 そこで今回は「AIは前世紀の遺物」と考えるに至った Salon.com のニュース記事『Artificial stupidity』について軽〜く紹介したいと思います。


オンライン・ニュース・サイト「Salon.com」

Salon.com は1995年に デビッド・タルボット によって作成されたアメリカのリベラルなニュースとオピニオンのオンライン雑誌サイトです。 アメリカの政治、文化、時事問題に関する記事を公開し、政治的に進歩的・自由主義的な編集スタンスを持っているそうです。 典型的なアメリカのメディアなんですけども、ITやその業界に非常に強いところが他のメディアにはない魅力です。 反面、記事が無茶苦茶長い・・・この分量の英語を読むのはなかなか骨が折れます。 が、読むだけの価値のある内容があります。

実は『Unix考古学』を書いてる時にも、僕はこのサイトには大変お世話になりました。

www.salon.com

そもそもオリジナルの研究版 Unix は1970年代前半に全米の多数の大学には配布されていました。 にも関わらず UCB だけが Berkeley Software Distribution (BSD) という影響力のある配布キットを作り出しました。 もちろんサバティカルの際、母校で教鞭を取った Ken Thompson の存在は大きかったでしょうが、でも彼が先生として UCB にいたのは1年間だけ。 それだけでディストリビューションを作ろうと思った Bill Joy は余程思い上がった学生だったに違いない・・・と当初は想像したのですけども、 この記事を読むと彼とその仲間の思い入れ、つまり BSD Unix 誕生のバックストーリを非常に明確に示してくれました。 しかし "Power to the people, from the code" だなんて・・・時代を感じさせますね(笑) *1


ニュース記事『Artificial stupidity』

さて、本稿の本題であるニュース記事『Artificial stupidity』を紹介します。

www.salon.com

www.salon.com

2003年2月に公開されたこの記事は、前後編に別れていてかなりボリュームがあります。

テーマはチューリング・テストのコンテスト「ローブナー賞」、その内幕を取り上げてます。 稀に話題に登ることがあるわりには実態がわからないこのコンテスト。 スンドマンは創設者のヒュー・ローブナーを始めとする多数の当事者に徹底したインタビューを敢行し、 その真相を炙り出しているところが Salon.com らしい記事です。

著者の John Sundman は本来テクノパラノイド小説?を書く小説家なんだそうです。 Salon.com への寄稿は全部で4本。どうやらフリーライターのようですね。記事の中で 「1990年代にサンマイクロシステムのユーザビリティ・エンジニアリング・グループのメンバーだった」 と語っているのでIT業界のOBでもあります。そのせいか、記事を読む限りITに関する専門知識は正確だと感じました。


ローブナー賞の真相・・・をちょこっとだけ

さて、そのスンドマンが語る「ローブナー賞の真相」・・・を全部語り始めると 途方もなく長くなりそうなので、ここではハイライトのひとつ「マービン・ミンスキーとの確執」を紹介します。

一般にはあまり知られていない「ローブナー賞」、 チャットボットに関心の方々でも「名前を聞いたことがある」ぐらいでしょう。 もちろん Wikipedia ページは存在しますが、その内容はあまり長くありません。

en.wikipedia.org

さまざまな情報を網羅的に書いてあることの多い Wikipedia ページにしては、 1991年から現在も継続中の実に30年間も続く歴史あるコンテストの紹介としてはちょっと簡素過ぎるぐらい。

この Wikipedia ページの中で一番気になる文言と言えば、冒頭の次のフレーズでしょう。

Within the field of artificial intelligence, the Loebner Prize is somewhat controversial; the most prominent critic, Marvin Minsky, called it a publicity stunt that does not help the field along.

人工知能の分野では、ローブナー賞は物議を醸している。批判の急先鋒であるマービン・ミンスキーは、ローブナー賞が単なる売名行為であって研究には何の寄与もしていないとした。

何やら、ページの冒頭から釘を刺されているような感じです。 これが本当に人工知能の父として名高いマービン・ミンスキーの発言だとしら、 人工知能に関わりのない人でもローブナー賞から腰を引いてしまいそうですね。 スンドマンの言う「何かと物議を醸す」が窺い知れます。

ローブナー賞はニューヨークの企業経営者の ヒュー・ローブナー が創設しました。ローブナーは社会学の博士号を取得し、 修了後しばらくは大学周辺で職を得ていましたが、 結局家業のハードウェア(コンピュータではなく本来の意味のハードウェア)製造メーカーの経営を継いだようです。

ローブナーがチューリングテストのコンテストを思いついたのは 1985 年のことだったそうですが、 専門的な知識を持たないことから、企画・運営を進めるため、大学時代の旧友 ロバート・エプスタイン に相談を持ちかけたのがローブナー賞の始まりだったとのことです。 これに対しエプスタインは自らが設立したNPO法人 ケンブリッジ行動研究センター the Cambridge Center for Behavioral Studies で運営することを提案しました。

ローブナーから委託を受けたケンブリッジ行動研究センターが ローブナー賞委員会を立ち上げたのが1990年のことでした。この委員会は議長に就任した ダニエル・デネット を始め、当時のAIコミュニティの重鎮がずらっと並ぶ豪華なメンバーでした。

約1年間の準備期間を経て第1回ローブナーコンテストの開催にこぎつけましたが、 その結果は惨憺たるものだったようです。スンドマンの記事では、観客として見ていたハーバード大学の教授 スチュアート・シーバー が書いた論文 "Lessons From a Restricted Turing Test" を引用してその時の様子を説明しています。

Perhaps the most conspicuous characteristic of the six computer programs was their poor performance. It was widely recognized that computer experts could readily distinguish the contestants from the confederates. Indeed, many of the techniques being used by the programs were easily spotted by those familiar with the ELIZA program that prize committee member Weizenbaum developed in 1965. The repetition of previous statements verbatim (subject only to pronominal adjustments, sometimes wrong), answers transparently keyed to trigger words, and similar tricks of the ELIZA trade were ubiquitous. For example, the following example from the whimsical conversation program is illustrative of the regurgitation technique:

おそらく、6つのプログラムの最大の特徴は、性能の悪さだろう。コンピュータの専門家は、出場者をコンフェデレーション(チャットボットのフリをして応答を返す人間)から容易に見分けることができると広く認識されていた。実際、プログラムで使用されているテクニックの多くは、1965年にローブナー賞委員会メンバーのワイゼンバウム氏が開発したELIZAプログラムに精通した人なら容易に見つけることができる。これまでの発言をそのまま繰り返し(代名詞の調整だけで済むが、時には間違っていることもある)、トリガーとなる単語を明らかにキーにした回答をしたり、ELIZAの取引と同様のトリックはどこにでもあった。

当日、イベントの司会を努めたエプスタインは締めの挨拶で「この25年間ほとんど進展がなかった」と述べたそうです。つまり ジョセフ・ワイゼンバウム の ELIZA から全く進展がないと嘆いたとか。

その後、エプスタインと委員会は気を取り直して第2回と第3回を開催したものの、 状況は全く変わらなかったようです。1994年にシーバーの論文が Communications of the ACM(CACM) に掲載されると、世間からの圧力が増していると感じるようになった委員会は チューリング・テストそのものを封印して独自ルールへと移行することを強く主張しました。 しかし、スポンサーであるローブナーはチューリング・テストに固執したことから、 結果的に委員会は全員辞任することとなりました。

ところが・・・

ここまではまったく外野にいたはずの マービン・ミンスキー が1995年3月3日に Annual Minsky Loebner Prize Revocation Prize 1995 Announcement との Subject のついたメッセージを USENET のニュースグループ comp.ai と comp.ai.philosophy にポストしました。

17. The names "Loebner Prize" and "Loebner Prize Competition" may be used by contestants in advertising only by advance written permissionof the Cambridge Center, and their use may be subjecttoapplicableicensingfees. Advertising is subjecttoapprovalbyrepresentativesoftheLoebner Prize Competition. Improper or misleading advertising may result in revocationoftheprizeand/or other actions.

[Some words concatenated to enforce the 80-character line length convention.]

I do hope that someone will volunteer to violate this proscription so that Mr. Loebner will indeed revoke his stupid prize, save himself some money, and spare us the horror of this obnoxious and unproductive annual publicity campaign.

In fact, I hereby offer the $100.00 Minsky prize to the first person who gets Loebner to do this. I will explain the details of the rules for the new prize as soon as it is awarded, except that, in the meantime, anyone is free to use the name "Minsky Loebner Prize Revocation Prize" in any advertising they like, without any licensing fee.

17.「Loebner Prize」 および 「Loebner Prize Competition」 の名称は、ケンブリッジセンターの事前の書面による許可を得た場合のみ、競技者が広告に使用することができ、適用されるライセンス料がかかる場合があります。広告はローブナー賞コンクールの代表者の承認を必要とします。不適切な広告や誤解を招くような広告は、賞品の取り消しやその他の行為につながる可能性があります。

[一部の単語を連結して、80文字の行の長さ規則を適用する]

Loebner氏が実際に愚かな賞を撤回し、お金を節約し、この不愉快で非生産的な毎年の宣伝キャンペーンの恐怖を私たちに与えないために、誰かが自発的にこの規定に違反することを望んでいます。

実際、私はここにLoebner氏にこれをさせた最初の人にMinskyの賞金$100.00を提供します。新しい賞品が授与され次第、ルールの詳細をご説明しますが、その間、ライセンス料なしで、誰でも好きな広告に「Minsky Loebner Prize Revocation Prize」という名前を自由に使うことができます。

ミンスキーがどういうつもりだったかは定かではありません。

もっとも、確かに人工知能研究に関しては無知ではあったけれども、 決して頭は悪くないローブナーに巧みに切り返され、結局 ローブナー賞のスポンサーのひとり として祭り上げられることになりました。 ミンスキーがローブナー賞を酷評するのは、 どうやら特別の訳ありだったようですね。

ちなみに、スンドマンの記事のパート2ではミンスキーのこの件での後日談が紹介されています。

"I was caught in a bitch fight between Loebner and Minsky," recalled Neil Bishop. "We wanted to recognize Minsky for his work in the field on decision sciences. We know of the past baggage between the two, so I contacted Minsky to request permission to do so. I think he was flattered in some weird way by this request and ultimately gave us permission but not before blasting me for working with Loebner and wanting me to pass on to Loebner that Minsky would be contacting his lawyer to begin a libel and defamation action if his name was not removed from Loebner.net immediately."

「私はローブナーとミンスキーの口論に巻き込まれました」とニール・ビショップは回想する。「私たちは決定科学の分野でのミンスキーの業績を認めたかったのです。2人の間に過去のお荷物があることを知っていたので、ミンスキーに連絡して許可を求めました。彼はこのリクエストに奇妙な方法でお世辞を言って、最終的には私たちに許可を与えてくれたと思いますが、その前に私がローブナーと仕事をしていて、ローブナーに彼の名前がすぐに Loebner.net から削除されなければ、彼の弁護士に連絡して名誉毀損名誉毀損の訴訟を始めると伝えてほしいと強く要求したのです」

ビショップがローブナー賞の主催者だったのは2002年ですから、 ミンスキーは7年経っても水に流せなかったようです。 この件、もはやミンスキーが意固地になっていたとしか思えません。


人工知能に関わる研究開発トレンドの変化

さて、ニール・ビショップが再登場したところで、 前回 引用したパート2での彼の発言を範囲を広げて再掲します。

"In the professional and academic circles the term Artificial Intelligence is passé. It is considered to be technically incorrect relative to the present day technology and the term has also picked up a strong Sci-Fi connotation. The new and improved term is Intelligent Systems. Under this general term there are two distinct categories: Decision Sciences (DS) and the human mimicry side called Mimetics Sciences (MS)."

Decision sciences, by the simplest possible definition, refers to computerized assistance in resource allocation. An example provided by a press release from MIT announcing the creation of a decision sciences program was "complex computer-based 'passenger yield management' systems and models that the airlines use to adjust pricing of each flight's seats in order to maximize revenue and profitability to the airline."

専門家や学術界では、人工知能という言葉は時代遅れのものとなっています。それは現在の技術に関連して技術的に正しくないと考えられており、また、この用語は強いSF的な意味合いを持っています。新しい改良された用語は、インテリジェント・システムです。この一般的な用語の下では、Decision Sciences(DS: 意思決定科学)と Mimetics Sciences(MS: 擬態科学)と呼ばれる人間を真似る2つの異なるカテゴリがあります。

意思決定科学とは、可能な限り単純な定義では、資源配分のコンピュータ化された支援のことを指します。意思決定科学プログラムの設立を発表したMITのプレスリリースで提供された例は「航空会社が航空会社の収益と収益性を最大化するために、各フライトの座席の価格設定を調整するために使用する複雑なコンピュータベースの『旅客の歩留まり管理』システムとモデル」でした。

彼のいう「インテリジェント・システム」が「人工知能」に置き換わる用語なのか?否か?はよくわかりませんが、 ビショップのこの発言に限らず、スンドマンの2つの記事全体を通した 彼の主張は従来の人工知能研究(特にミンスキー)に対して総じて批判的です。 それはパート1に登場する以下の記述からもよくわかります。

Loebner contests are often farcical and Hugh Loebner does act foolishly. But the closer one looks at the history of the Loebner Prize, the more it appears that Loebner’s real offense was showing up the biggest stars in “real” artificial intelligence as a bunch of phonies. Thirty years ago, Minsky and other A.I. researchers were declaring that the problem of artificial intelligence would be solved in less than a decade. But they were wrong, and every year the failure of computer programs to get anywhere close to winning the Loebner Prize underlines just how spectacularly off the mark they were.

ローブナー賞のコンテストはしばしば茶番劇であり、ヒュー・ローブナーは愚かな行動をとる。しかし、ローブナー賞の歴史を見れば見るほど、ローブナーの真の攻撃は、「本物の」人工知能分野の最大のスターたちを、インチキの集団として見せつけることだったように思えてくる。30年前、ミンスキーをはじめとする人工知能の研究者たちは、人工知能の問題は10年以内に解決されると宣言していた。しかし、それらは間違っており、毎年、コンピューター・プログラムがローブナー賞に近づくことができなかったことは、それらがいかに的外れであったかを示している。

人工知能はという研究分野では僕は明らかに門外漢なのですけども、 僕と同じような立場の情報系エンジニアだったスンドマンの指摘 (特にパート2で展開されている従来の人工知能研究への批判的な指摘) には肯かざる得ない印象を僕も持っています。

そういう視点でローブナー賞の30年に渡る歴史を俯瞰してみると、ちょうど2000年ぐらい、つまり リチャード・ウォレスALICEbot を引っ提げてローブナー賞に登場し、優勝をかっさらったあたりに、 従来の人工知能研究は新しい研究の枠組へと移行した時期があったのかな?などと考えています。

記事には何度となく登場しますが、20世期の人工知能研究ではチューリング・テストを どちらかというと否定的な方向の研究がなされていたそうですが、 しかし「SF的な意味合いの呪縛から逃れた21世紀のインテリジェント・システム研究の視点が見た場合、 むしろチューリング・テストは肯定的に理解できる」とのように僕はこの記事を読めてしまうのです。 スンドマンはパート2で「結局、ローブナーが正しかったのではないか?」と主張しています。 前回 紹介したアラン・チューリングの再評価が起こった原動力は、 案外この研究開発トレンドの変化なのかもしれませんねぇ。

言い換えると「人工知能(AI)」という言葉を発明したマッカーシ&ミンスキーは アラン・チューリングの研究を非常に表層的にしか見てなかった? そう考えると「人工知能(AI)」という言葉は今日では究極のマーケティング用語と理解すると 個人的には何故かしっくりくるような気がします(笑)

以上

*1:20代の若い方々にはピンと来ない話ですいません。

元々、政治的にはリベラルが強いアメリカ西海岸の中でも、 カルフォルニア大学バークレイ分校(UCB)の周辺は過激な政治思想で知られる地域です。 特にベトナム戦争の最中には「アメリカ国内にある社会主義の独立国」を意味する「バークレイ共和国」と揶揄される有様でした。 1970年代の半導体技術の進化(カルフォルニアにはそういう企業がたくさんありました) と過激な学生の革命指向が結びついて、初期のハッカー文化が形成されたというのが僕の理解です。

当時の Unix オタクもご多分に漏れず、 巨大企業 AT&T の向こうを張って Unix で社会革命を果そうと考えたことがこの記事を読むとわかります。

「人工知能」か?それとも「知能機械」か?

The bad luck of Alan Turing.


2020/04/29
藤田昭人


巷では「STAY HOME」と叫ばれてますが、 みなさんいかがお過ごしでしょうか?

僕の場合、幸か不幸かELIZA本の執筆時間を融通しやすくなってる訳ですが…問題は他のところで発生してます。ひと言で言えば「アラン・チューリング問題」と言いましょうか?英国政府が長らく秘密にしていた、彼の革命的な研究成果が徐々に明らかになるに従って、情報分野の技術史はその都度書き換えられるはずなんですけども、その影響が大きすぎるため従来信じられて来た通史などと至るところで矛盾が発生しまうのです。

事実を淡々と書き連ねて行く、教科書のような書籍であれば影響を受けにくいのかもしれませんが、独自のストーリーを捻り出すところに特徴のある僕のスタイルの場合、通史と新事実がマーブル状に層を成してる状況は非常にありがたくないのです。さらに悶絶度合が深まる。

ということで…

ブログで執筆作業の憂さ晴らしをする事にしました。 ちょっと言い訳じみてる気もますが…


情報技術史の通説

日本人の我々が知る情報技術史は概ねアメリカのコンピュータ開発史と一致しているように思います。 その理由はたぶん日本の多くの大学にコンピュータ・サイエンスの学部が誕生したのが1980年代だったことと関係してるかと。 ちょうど太平洋を挟んだ日米でコンピュータ関連の熾烈な技術開発競争を繰り広げていた時期と重なります。

もっとも、今から思えば「喧嘩するほど仲が良い」関係だったかと。 アメリカが日本製の半導体に大幅な関税をかけたりね。 それで一番困ったのがアメリカのコンピュータ製造するベンチャー企業だったり。 日本での新製品発表会の際、ベンチャー企業の役員が 「メモリ最大容量はXXです…もっとも日本のテクノロジを使えば、すぐにこれの16倍になるんだけどね」 ポソっと語ったり。そう、東芝がワールドワイドで King of Laptop だった時代があったのです。 実際、エンジニアのレベルでは「この政策は一体誰が幸福になるんだろうか?」と素朴に思って困惑したものです。

…とまぁ、何やかんやあったけど、コンピュータに関する最先端情報がアメリカから大量に流れ込んでくる時代でもありました。 もちろん World Wide Web がなかった時代なので、情報の多くは書籍の形で流入しました。 必然的に(英語が堪能な)限られた人達経由で、多少偏りのある情報として。 こう言った状況だと特に歴史に関わるトピックに関しては不作為だけど意図的な無視が発生します。 例えば、世界初のデジタル・コンピュータは1946年の ENIAC だったとか、そこで実現されたプログラム・ストアド方式は ノイマン型 と呼ばれたとか…これは明らかに「アメリカのコンピュータ開発史」での話です。 が、コンピュータ・サイエンスの学科の設立を急ぐ日本では、 それがそのままコンピュータ教育に取り込まれ、日本での通史として定着しました。 今でも教科書の最初のほうで紹介されてますよね?


現在のデジタル・コンピュータの発明者は誰?

しかし Wikipedia のある今日、これらの情報はあまり正しくないことが容易に確認できます。

例えば、ドイツで世界初のデジタル・コンピュータといえば コンラッド・ツーゼ が第2次世界大戦中の1941年に稼働させた Z3 だったりします。 戦後、IBMが秘密裏にツーゼが取得した特許の使用許諾交渉を行ったことからも、 Z3 が先だったことは自明なのですが、ドイツが敗戦国であったからか、この事実は意図的に無視されました。

一方、イギリスはというと、かの有名な暗号機 エニグマ の暗号電文の解読のために、1940年に開発された Bombe もデジタル・コンピュータの要件を満たしていたようです。 設計者である アラン・チューリング は1936年に論文 "On computable numbers, with an application to the Entscheidungsproblem" において 機械による計算の数学モデルである チューリング・マシン を定義しています。 なので、デジタル・コンピュータの発明者は ジョン・フォン・ノイマン ではなくアラン・チューリングだと言っちゃえばわかりやすくなる訳ですが、 そこは誰かの忖度により ENIAC の地位が守られた訳です *1


アラン・チューリングの不運

僕がアラン・チューリングの存在を知ったのは1980年代の前半、まだ学生の頃だったと記憶しています。 その時の僕のチューリングに対する印象は「同性愛で破滅した天才科学者」と言ったものでした。 実は、夭折した天才といえば数学者の エヴァリスト・ガロア 、また同性愛というと童話 『幸福な王子』 で知られる作家の オスカー・ワイルド が想起されたので、てっきり19世紀の人物だと思い込んでいたのでした。

今となっては信じ難いことですが、 当時チューリング情報科学の一部の専門家の間で知られる伝説の存在で、 例えばACMチューリング賞は1966年に創設されましたが、 彼の名が語られるのは限られた場だけでのことだったのです。 そもそもコンピュータ自体が一般大衆には縁遠いSFまがいの機械でしたしね。

チューリングが広く一般に知られるようになったのは、 1974年に書籍 『The Ultra Secret 』 が出版されて、第2次世界大戦中に彼が所属していた暗号解読組織 Ultra が暴露されてからだと言われています。

Ultra remained strictly secret even after the war. Then in 1974, Winterbotham's book, The Ultra Secret, was published. This was the first book in English about Ultra, and it explained what Ultra was, and revealed Winterbotham's role, particularly with regard to the dissemination and use of Ultra.

後も厳重に秘密にされていた。そして1974年、ウィンターボサムの著書『The Ultra Secret』が出版された。 これは、Ultra について初めて英語で書かれた本で、Ultra とは何かを説明し、 特に Ultra の普及と利用に関するウィンターボサムの役割を明らかにしたものだ。

この本の著者 フレデリック・ウィリアム・ウィンターボサム は、第二次世界大戦中に Ultra の機密情報の流通を監督したイギリス空軍の将校だったそうです。「軍人でさえ暴露するのなら…」と受け止められたのかは定かではありませんが、これ以降、大戦中のブレッチリー・パーク界隈の暴露本が多数出版され、チューリングの実情が徐々に明らかになって行ったように思います。

1984年には、戯曲 『ブレイキング・ザ・コード』 ("Breaking the Code") が公演されました。日本では1986年に劇団四季が日本語版を公演しましたが、そのポスターの記憶が僕にもあります。もっとも、当時はエイズ禍が社会問題となり始めていた時期でしたので、やはり同性愛の方に注目が集まってしまったように思います。そもそも、英国政府が Ultra を事実と認めて無かったので、あくまでも噂話でしかなかった事は否めません。チューリングの大戦前の論文にあった「紙テープを読み取る機械のイラスト付きの抽象機械」 チューリングマシン の説明だけでは「なんのこっちゃ?」と思うのが関の山でした。

正直にいうと母国イギリスでのチューリング再評価の仔細は(まだ)詳しくないのですが、 彼の再評価が本格的に始まったのは1989年のベルリンの壁崩壊や冷戦終結以降の事だと僕は記憶しています。 最終的に、英国政府は2009年に ジョン・グラハム=カミング の請願要求を受け入れ、チューリングに対する 謝罪 を行いました。以来、チューリングは英国を守った英雄のひとりとして列せられることになりました。

今日ではチューリングの偉大な研究業績を細かく追いかけられる網羅的なアーカイブも多数存在し、 また彼自身が重要な研究対象として多くの注目を集めています。


Artificial Intelligence(人工知能)と Intelligent Machinery(知能機械)

もっとも、没後50年余り封印されていた文献が突如現れたとしたら、 技術史という観点では混乱が起きます。 特にチューリングの場合、事実上ほぼ独力でコンピューターサイエンスを作り上げた と言っても良いほどの広範な業績を残しているので、従来の通史に対するインパクトは計り知れません。 もちろん従来の通史を支持する方々もいる訳で、技術史に関する論争が想起される… 冒頭で僕がふれた「アラン・チューリング問題」とはそう言った論争をイメージしています。

例えば、Artificial Intelligence(人工知能)と Intelligent Machinery(知能機械)という言葉。 確かに日本語に翻訳して字面だけを眺めると両方とも同じことを意味しているように見えますし、 従来は「『知能機械』は『人工知能』を意味するチューリングの用語」だとされてきました。

実は「人工知能」という言葉は、1955年 ジョン・マッカーシーダートマス会議 のための助成金申請のために書いた企画書の中で初めて登場することは、以前 このブログ に書いた覚えがあります。一方「知能機械」はチューリングが 1948 年に発表した 論文 のタイトルでもあります。

もちろんマッカーシーチューリングの論文を知らないはずはなく、 新しい研究領域を創設するという彼と マービン・ミンスキー の野心に沿って、敢えて捻り出され耳馴染みのない新用語が「人工知能」だった訳です。 言い換えれば、この用語は技術的な実態の曖昧なキャッチフレーズともみなせます。


チューリングの「知能機械」の研究

一方「知能機械」の方はどうでしょう。

年号所属論文出典link
1936On computable numbers, with an application to the EntscheidungsproblemProceedings of the London Mathematical Society, Series 2, 42 (1936-1937), pp. 230-265[ANK]
1945Proposed electronic calculator[ANK]
1947Lecture on the automatic computing engine[ANK]
1948Intelligent machineryNational Physical Laboratory Report[ANK]
1950aComputing Machinery and IntelligenceMind 59: 433-460[ANK]
1950bProgrammers’ Handbook for Manchester Electronic ComputerComputing Machine Laboratory, University of Manchester[ANK]
1951aCan digital computers think?BBC Third Programme, 15 May 1951[ANK]
1951bIntelligent machinery, a heretical theory[ANK]
1952Can automatic calculating machines be said to think?BBC Third Programme, 14 and 23 Jan. 1952[ANK]
1953Chess

この表は 先月このブログで紹介した 書籍 『チューリングテストの解析』 に収録されている論文 "Turing’s Test: A Philosophical and Historical Guide" で引用されているチューリングの著作を列挙したものです。 この表からチューリングが一貫して「考える機械」の実現を目指していたことが窺い知れます。

後にジョン・マッカーシーは、ダートマス会議について次のように語っています。

www-formal.stanford.edu

The original idea of the proposal was that the participants would spend two months at Dartmouth working collectively on AI, and we hoped would make substantial advances. ... Two people who might have played important roles at Dartmouth were Alan Turing, who first uderstood that programming computers was the main way to realize AI, and John von Neumann. Turing had died in 1954, and by the summer of 1956 von Neumann was already ill from the cancer that killed him early in 1957.

...

What came out of Dartmouth?

I think the main thing was the concept of artificial intelligence as a branch of science. Just this inspired many people to pursue AI goals in their own ways.

 

当初の提案のアイデアは、参加者がダートマス大学で2ヶ月間、AIの研究に共同で取り組み、実質的な進歩を期待していたのですが、そうはいきませんでした。 ・・・ ダートマスで重要な役割を果たしたかもしれないと思われる二人の人物は、コンピュータをプログラミングすることがAIを実現するための主な方法であることを初めて知ったアラン・チューリングと、ジョン・フォン・ノイマンである。チューリングは1954年に亡くなり、1956年の夏には既にフォン・ノイマンは死の床にあり、翌1957年の初めに癌で亡くなりました。

・・・

ダートマスから何が出てきたのでしょうか?

主なものは、科学の一分野としての人工知能の概念だったと思います。これだけで多くの人が自分なりに『人工知能』の目標を追求するようになりました。


人工知能」か?それとも「知能機械」か?

マッカーシーのキャッチフレーズ「人工知能」は大成功を収めた訳ですが、 では、この用語は「知能機械」に書き換えるべきなんでしょうか?

僕はそのような意見を見かけたことはありません。 チューリング・テストのコンテストであるローブナー賞の 2002年の主催者であるニール・ビショップは、 ジョン・サンドマンのインタビューにおいて「人工知能」という用語について次のように語っています。

In the professional and academic circles the term Artificial Intelligence is passé. It is considered to be technically incorrect relative to the present day technology and the term has also picked up a strong Sci-Fi connotation.

専門家や学術界では「人工知能」という言葉は時代遅れのものとなっています。 それは現在の技術に関連して技術的に正しくないと考えられており、また、この用語は強いSF的な意味合いを持っています。

Artificial stupidity, Part 2 | Salon.com

ビショップがどういう立場の人物で、どのような背景の元にこの発言をしているのかはよくわかりませんが、 21世紀の今日、どうやらこの用語は前世紀の遺物として扱わなければならないのかもしれません。

以上

*1:ENIAC の実質的な開発者である ジョン・プレスパー・エッカートジョン・モークリー その後 ENIAC の特許を巡って、 アタナソフ&ベリー・コンピュータ(ABC) との 法廷闘争 に巻き込まれてしまいます。 ただ、エッカート&モークリーには同情すべきかもしれません。 そもそも彼らが特許取得に走ったのは、 彼らが ENIAC 開発の行ったペンシルバニア大学が彼らに発明の権利の譲渡を迫ったからです。

この種の特許をめぐる発明家の権利主張の争いは、古くは発明王 エジゾン や(真空管の)三極管を発明した リー・ド・フォレスト の生涯からもわかるように、 強欲とはアメリカ人の(それから中国人の)御家芸と言うべきなのかもしれません。

劇場版「ワンダーウォール」を観た

Wornderwall the Movie


2020/04/11
藤田昭人


とうとう緊急事態宣言が出されてしまいましたが、 みなさんいかがお過ごしでしょうか?

さっき劇場版「ワンダーウォール」を観てきました。 昨日 4/10 に出町座で封切られたばかりなんだけど、 時節柄、京都でもいつ映画館に休業要請が出されるかわからない から…僕、個人的には予定どおり最後まで公開できれば良いなと思ってます。

ドラマ 「ワンダーウォール」 はNHK BSプレミアムの地域ドラマの放送枠で2018年夏に放映されました。 劇場版「ワンダーウォール」の本編はNHK版に若干の未公開シーンを追加された本編と、 最後に2019年に撮影された(と思われる)演奏風景が追加されています。 2019年追加分の詳細はネタバレになるので劇場で観てください。

ただ、このドラマは on going なトピックでもあるので、 以下の2点だけは周知しておきます。

  • 近衛寮(吉田寮)はかろうじて存続している
  • 大学は寮生15人を法的に訴えた。裁判は係争中。

ドラマを制作した人達はどこにも語ってないのですけども、 テレビ放映時とほとんど内容の変わらない劇場版が企画されたのは、 この2点がトリガーだったのではないかと僕は邪推してます。

本編では岡山天音扮する志村が「大学は闘い方を変えた」と語るシーンが出てきます。 これ「寮生も闘い方を変えなければならない」と示唆しているようにも受け取れる。 真の目的が寮の跡地利用であることもドラマで語られています。 これ、僕はリアルでも何度か聞いたことがあります。 確かに東大も阪大も東工大も既に新しいカッコいい建屋が幾つも立ってるもんねぇ。 そういったことも踏まえると法的手段に訴えた大学側の苦悩も透けて見えます。 振り上げた拳のおろしどころに困ってる感は半端ないです。 強引に解決できるタイミングは何度もあったはず。 そうなってないのは「万事公論に決すべし」ということなのかもしれない。

観賞後「ワンダーウォール写真集」なるものが販売されていたので購入しました。

f:id:Akito_Fujita:20200411185600j:plain
ワンダーウォール写真集

ちょっとお高かったですが、なんかのカンパにはなるかと思って。


先日、Facebookスペイン風邪与謝野晶子の文章のことをちょこっと書いたのですが、 この大流行の時には既に 吉田寮 は今の場所に立っていたのですよ(寮内を探せばスペイン風邪の時の記録が出てくるかもしれない)。 そして今も(かろうじて)学生寮として運営されている。

個人的には京大にも吉田寮にも何の縁もゆかりもない訳ですが、 近所に住んでる歴史オタクのおっさんとして素朴に思うことは 「京都市中には1000年を超える建屋も幾つか現存していて保存に膨大な労力を使っているというのに、 何故100年前から続いてきた生きた文化が守れないのか?」 です。この観点からドラマ(そして劇場版)の制作者の(隠された?)意図に共感・支持するところであります。

「本当に潰しちゃって良いのですか?」

ですね。皆さんはどう思われますか?

以上

書籍『チューリングテストの解析』

"Parsing the Turing Test"


2020/03/10
藤田昭人


大変ご無沙汰しております。 ただいまELIZA本の執筆に勤しんでおります。 今回は十分に準備期間を設けたので、 実は「案外スルスルと書けるんじゃないかな?」と思っていたのですが…さにあらず。 溜め込んでいた資料を捌くのに四苦八苦しているところです。 やはり長年慣れ親しんできた Unix を書くのとは訳が違った。

…って訳で、本の執筆作業の割りを喰ってほとんど放置状態にあったブログなんですが、 さすがにそれではマズくて 「レギュラータイプを1〜2本書いた方が良いかなぁ?」 と考えざる得ない気分に追い込まれてます。 別に人気作家でもないのにねぇ。

…と言うことで、今回は書籍の紹介を書いてみることにしました。

www.springer.com

正直に白状すると、この書籍はELIZA本のネタ本の1冊なんで 「出版前に紹介してどうすんだ!!!!」 って気持ちもあるんですが、それでも紹介文を書く気になったのには理由があります。

「この本、ほとんど読まれてないんじゃないか?」

って危惧してるから。例えば Amazon の書籍ページをみると英語のレビューが1件しかない。 日本語に関してはレビューはゼロなんです。

www.amazon.com

僕の『Unix考古学』ですら、出版時にレビューが数件ついたのにね。 なので「みんなこの本の事を食べず嫌いしてるんじゃないか?」と思った訳です。 ただいま、大変お世話になっているので、紹介しておくべきと考えた次第 *1


ふと、この本が売れない理由を考えると、幾つか思い当たる事があります。


●「出版社が悪い」説

Springer と言えば学術雑誌を扱う名門出版社なので「お堅い内容なんじゃない?」と思い込んでる人が多いのかも。 実は僕も最初はそう思っていたのですが…さにあらず。

この本はローブナー・コンテスト界隈に群がるチューリング・テスト・オタクたちが寄稿した熱い本でした。 この種の論文集では異例だと思うんですが、かなりのボリュームのある論文が 全部で29本も採録されているところからも熱さが伝わってきますよね? まさしく『塀の外の懲りない面々』と言った感じです *2


●「そもそもチューリング・テスト懐疑論者が多い」説

実際のところ「チューリング・テスト」でググって見つかる日本語の文章には懐疑論が多いです。 確かに「人間の審査員がたった5分間で相手が人間?か機械か?を見極める」という方法には 無理があると思う方もいらっしゃるかもしれません。

一般に、チューリング・テストはチューリングの論文 "Computing Machinery and Intelligence" が起源とされてますが *3、 この原文を読んで「テストに関する記述はどこにも出てこないじゃないか?」と鬼の首を取ったかのように大騒ぎしているあなた、 本書の第2章 "Alan Turing and the Turing Test" を読んだ方が良いです(論文単独でも公開されています)。 同論文はアラン・チューリングの「知的機械」に関する研究論文について年代順に紹介し考察を加えてあります。 チューリング・テストとはアラン・チューリングの「知的機械」に関する考察や実験、提案を踏まえて考えだされたテストのようです。

ちなみに著者の アンドルー・ホッジス は英国の数学者ですが、 アラン・チューリング研究 の第一人者として広く知られている方です。映画 『イミテーション・ゲーム』 の原作者と言った方が一般にはわかりやすいでしょう。


●「ローブナー・コンテストは怪しい」説

以前ブログに書いたことがありますが、 マービン・ミンスキーが「ローブナー・コンテストは人工知能研究には全く役に立たず、単なる売名行為でしかない」と批判したとのこと。 それを知る人工知能研究者たちは本書がローブナー・コンテストに関する書籍だと知っておれば敬遠しているかもしれませんね。 もちろん研究室の平和のために、僕も余計なお勧めは致しません。 ですが、"Part II The Ongoing Philosophical Debate"(継続中の哲学的議論)の次の執筆陣を見れば、ちょっと気持ちが変わるかも?

この第2部についてイントロダクションには次の紹介文が記されています。

Part II includes seven chapters reviewing the philosophical issues that still surround Turing's 1950 proposal: Robert E. Horn has reduced the relatively vast literature on this topic to a series of diagrams and charts containing more than 800 arguments and counterarguments. Turing critic Selmer Bringsjord pretends that the Turing Test is valid, then attempts to show why it isn't. Chapters by Noam Chomsky and Paul M. Churchland, while admiring of Turing's proposal, argue that it is truly more modest than many think. In Chapter 9, Jack Copeland and Diane Proudfoot analyze a revised version of the test that Turing himself proposed in 1952, this one quite similar to the structure of the Loebner Prize Competition in Artificial Intelligence that was launched in 1991 (see Chapters 1 and 12). They also present and dismiss six criticisms of Turing's proposal. 

In Chapter 10, University of California Berkeley philosopher John R. Searle criticizes both behaviorism (Turing's proposal can be considered behavioristic) and strong Al, arguing that mental states cannot properly be inferred from behavior. This section concludes with a chapter by Jean Lassegue, offering an optimistic reinterpretation of Turing's 1950 article.


第2部では、チューリングの 1950 年の提案を取り巻く哲学的な問題を検討する章である。ロバート・E・ホーンは、このトピックに関する相対的に膨大な文献を、800 以上の議論と反論を含む一連の図表にまとめた。チューリング批評家のSelmer Bringsjord氏は、チューリング・テストが有効であるかのように見せかけ、なぜ有効でないかを示そうとしている。ノーム・チョムスキーとポール・M・チャーチランドの各章では、チューリングの提案を称賛しながらも、多くの人が考えているよりも真に控えめなものであると論じている。第9章で、ジャック・コープランドとDiane Proudfootは、チューリング自身が 1952 年に提案したテストの改訂版を分析している。この修正版は、1991年に開始された Loebner Prize Competition in Artificial Intelligence とよく似ている。彼らはまた、チューリングの提案に対する6つの批判を提示し、却下する。

10章では、カリフォルニア大学バークレー校の哲学者ジョン・R・サールが、行動主義(チューリングの提案は行動主義的であると考えられる)と強力なAIを批判し、精神状態は行動から適切に推論することはできないと論じている。このセクションはJean Lassegueによる章で終わり、チューリングの1950年の論文を楽観的に再解釈している。

この紹介文を見ただけでも、チューリング・テストが ongoing なテストであり、 それについて議論する場でもあるローブナー・コンテストの役割についてあなたは誤解しているかもしれませんね?


●「今から12年前に出版された本じゃないか、古すぎる!!!」説

確かに古過ぎますよね。まだ Seq2Seq なんか影も形もない時に出版された本ですから。

でもね、"Part III The New Methodological Debates"(新しい方法論的議論)では、 次のように歴代のローブナー・コンテスト優勝者が、システムの内部動作についての解説を寄稿してるんですよ。

タイトル(英) タイトル(日) 著者
13 The Anatomy of A.L.I.C.E. A.L.I.C.E.の解剖学 Richard S. Wallace
20 Conversation Simulation and Sensible Surprises 会話シミュレーションと分別のある驚き Jason L. Hutchens
22 Bringing AI to Life: Putting Today’s Tools and Resources to Work AIの実現:今日のツールとリソースを活用する Kevin L. Copple

伝家の宝刀「機械学習」が無かった時代に、審査員のごまかしに成功したトリックって気になりませんか?

そこの卒論や修論でチャットボットを選択してしまった不幸な君。 ご苦労様です。君の機械学習のプロセスは上手く行ってますか? チャットボットから妙な返事しか返ってこないってなことは起きてませんか? もし八方塞がりの状況に追い込まれているのなら、本書を是非お試しを。 眼から鱗のヒントが見つかるかもしれません。


●「英語の本はちょっと…」説

そうですよね。僕も今、英語でめちゃくちゃ悶絶している最中です。

そんな場合は「果報は寝て待て」ですね。 今、あなたに二の足を踏ませている問題は、今年中にはなんとかなる…と思います。



…とまぁ、努めて営業マン風の軽いトーンで紹介してみましたが、 みなさま、本書を購入する気になったでしょうか?(笑)

そもそも、ローブナー・コンテストは ELIZA との関連性が高いと考えていたのですが、 特に PART II とPART IV はジョゼフ・ワイゼンバウムの "Computer Power and Human Reason" が扱った問題を 別の視点から見ているようにも思えます。その意味でローブナー・コンテストはワイゼンバウムの研究の一部を 引き継いでるのかもしれないなぁ…と思ったり。あ、まだ読んでる最中だから断言はしませんけども…

PS どうも軽い内容になっちゃって、すいません。これ、俗に言う現実逃避です、はい。
やはり単行本の執筆は消耗が激しい…



*1:ちなみ、ここまで読んでこの本を買う気になった人に耳よりな話をひとつ。

オーダーは amazon.com からしてみてください。 なんと、ペーバーバックが$3.79と Kindle 版より安いのです。

f:id:Akito_Fujita:20200310152952p:plain
"Parsing the Turing Test" の amazon.com での価格

実は先日まで amazon.co.jp でも 2700 円で買えたんですがね。 たぶん札数限定でディスカウント中なんじゃないかと思います。 もちろん、どちらでオーダーしても英語版が届きます。

やはり売れてないのかなぁ?

*2:ちなみに『塀の中の懲りない面々』の著者、 安部譲二 さんは昨年永眠されたそうです。ご冥福を祈ります。

*3:邦訳『計算する機械と知性』も公開されてます。 英語が苦手な方はこちらの方が良いかと思います。

記事:音声業界のプロ46名からの音声AI 2020予測

某所で教えてもらった voicebot.ai の記事 "Voice AI 2020 Predictions from 46 Voice Industry Pros" の全文を「みらい翻訳」で翻訳してみました。 実は、この記事、最初は原文を読んだんですが、案外見直すことが多くて、その都度同じ単語を何度も辞書引きするのが嫌になった次第。

voicebot.ai

あまり想定してないないけど、誰かの役に立つのかしら?


Voice AI 2020 Predictions from 46 Voice Industry Pros

BRET KINSELLA on January 1, 2020 at 2:14 pm



Today we start a new year and a new decade. The past decade has in many ways been about the dominance of mobile followed by the rise of voice assistants. The decade started with the launch of the Siri app in the iOS App Store and concluded with more than three billion voice assistants in use worldwide.

今日、私たちは新しい年と新しい10年を始める。過去10年間は、さまざまな意味で携帯電話の優位性とそれに続く音声アシスタントの台頭に関係していた。この10年は、iOS App StoreでのSiriアプリのローンチから始まり、世界中で30億人以上の音声アシスタントが利用されている。

What is ahead of us for the first year of the second decade of voice assistants? Voicebot reached out to over 40 voice industry professionals to get their predictions for 2020. They range from the rise of sonic branding and new architectures for voice assistants to the increasing importance of hearables and voice in the car. There are also predictions about the first hundred million dollar voice apps.

音声アシスタントが登場してから10年目の最初の年には、何が待ち構えているのだろうか。Voicebotは40人以上の音声業界の専門家に2020年の見通しを聞いた。最初の1億ドルの音声アプリに関する予測もある。

There is a lot of depth in here with so many experts weighing in. So, in the spirit of TLDR, we have included a word cloud of the responses below.

ここには多くの専門家が参加していて、多くの深みがあります。そこで、TLDRの精神に則り、以下のような反応のワードクラウドを含めた。


VOICE STRATEGY PREDICTIONS(音声戦略の予測)


01. DAVID CICARELLI, CEO, VOICES.COM

In 2020 we’ll see more and more brands incorporating sonic branding into their overall marketing strategies, with Alexa Skills and Google Actions becoming more popular. It will be interesting to see how companies will build brand trust with voice technologies that aren’t quite fully trusted yet, and I predict that the use of the human voice will be a big factor in building that trust. Not only is there a preference for human voices in voice technology, but a human voice also increases information retention.

2020年には、より多くのブランドが全体的なマーケティング戦略ソニックブランド化を取り入れ、 「Alexa Skills」 や 「Google Actions」 の人気が高まるだろう。まだ完全には信頼されていない音声技術を使って、企業がどのようにブランドの信頼を築くのかを見るのは興味深いだろうし、私は人間の声を使うことが信頼を築く大きな要因になると予想している。音声技術には人間の声が好まれるだけでなく、人間の声は情報の保持力も高める。

Related reading: Consumers Have 71% Preference for Human Over Robot Voices


02. KATIE MCMAHON, GENERAL MANAGER, SOUNDHOUND

The love affair we have with hardware design will migrate to a love affair of Voice Interface Design. Although I doubt “a Jony Ive of Voice” will emerge within 2020, I predict that by the end of this decade, we will know the names of a few revered VUI designers. It will be those who can design the future by understanding both its current technical limitations and trajectory while harnessing anthropological, sociological, and humanity-first guiding principles.

ハードウェアデザインへの情熱は、ボイスインターフェースデザインへと移っていきます。2020年までに「声のジョニー・アイブ」が登場するかどうかは疑問ですが、次の10年の終わりまでには、尊敬すべきVUIデザイナーの名前がいくつか分かるようになるだろうと私は予測しています。人類学的、社会学的、人間性第一の指針の原則を活用しながら、現在の技術的限界と軌道の両方を理解することによって未来を設計することができる人たちです。

Related reading: Voice UX Best Practices eBook – Over 100 Insights from 17 Experts


03. PETE ERICKSON, CEO, MODEV

There will be more surprising acquisitions in 2020 similar to Apple’s acquisition of Pullstring and as a handful of B2B enabling platforms breakout of the pack. Look to Amazon, Google, Salesforce, Apple, Adobe and others to compete for technology and talent. I think we’ll see a major retailer make a big play in voice in 2020 and I wouldn’t be surprised to see custom naming for devices hit one of the big two (you know who they are) in a future release. And, of course, VOICE Summit will be a blast. 🙂

2020年には、AppleがPullstringを買収したのと同じように、さらに驚くべき買収が行われるだろう。AmazonGoogleSalesforceAppleAdobeをはじめとする企業が、テクノロジと人材をめぐって競争することになる。2020年には大手小売業者が大きな声を出してくるだろうし、将来のリリースでデバイスのカスタムネーミングが二大(あなたは彼らが誰か知っています)のうちの一つになっても驚かないだろう。そしてもちろん、VOICE Summitは楽しいものになるだろう🙂

Related reading: Apple Acquires Pullstring as Voicebot Insider First Reported


04. ROGER KIBBE, SENIOR DEVELOPER EVANGELIST, VIV LABS/SAMSUNG

In 2020, having a voice presence will start to be a strategic and business differentiator for companies. We are moving beyond voice as a side innovation project to it being a first-class citizen on the same level as social, mobile and web. Companies who have or will soon establish a voice presence will start to reap the business benefits over laggards, much like what happened with the web and mobile.

2020年には、企業にとって音声によるプレゼンスの確保が戦略的およびビジネス上の差別化要因となり始める。私たちは、サイド・イノベーション・プロジェクトとしての声を超えて、ソーシャル、モバイル、ウェブと同じレベルの一級市民になろうとしています。音声によるプレゼンスを確立している、あるいは近いうちに確立するであろう企業は、ウェブやモバイルで起きたことと同じように、遅れている企業よりもビジネス上の利益を得始めるだろう。

Related reading: How to Build a Samsung Bixby Capsule


05. JASON FIELDS, CHIEF STRATEGY OFFICER, VOICIFY

It feels like the voice groundswell is approaching land and executives can begin to see the shape of the conversational experience wave. This in concert with other developments like the maturity of voice assistants, the emergence of voice commerce as a real topic, and a growing ecosystem voice solutions and agencies leads me to believe that 2020 is going to see a noticeable increase of formal voice strategy and inclusion in customer journey maps.

声の高まりが陸地に近づいてきているように感じられ、経営陣は会話体験の波の形を見始めることができる。このことは、音声アシスタントの成熟、真のトピックとしての音声コマースの出現、そしてエコシステムの音声ソリューションと代理店の成長といった他の発展とあいまって、2020年には正式な音声戦略と顧客の旅のマップへの包含が顕著に増加すると私は信じている。

Related listening: Jeff McMahon Talks About Voicify and the Martech Stack – Voicebot Podcast Ep 125



VOICE SEARCH AND DISCOVERY PREDICTIONS(音声による検索・発見の予測)


06. BETH STROHBUSCH, SVP STRATEGIC COMMUNICATIONS, ORBITA

A focus on voice search will dominate in 2020. Organizations will seek new opportunities to tap the power of virtual assistants and conversational AI – to help consumers to discover and engage more fully with their brands through next-generation SEO and conversational calls to action.

2020年には、音声検索が主流になると予想される。企業は、仮想アシスタントや会話型AIの能力を活用して、次世代のSEOや会話型アクション・コールを通じて、消費者が自分のブランドを発見し、より深く関与できるよう支援する新たな機会を模索する。

Related reading: New Data on Voice Assistant SEO a Wake-up Call for Brands


07. MARK PHILLIPS, MANAGING PARTNER, SIMPLISPOKEN

Discoverability is the key issue holding the ecosystem back from realizing the potential that voice experiences offer. Even with the encouraging market penetration of voice platforms, consumers are for the most part unaware of what voice can do. I do not believe voice platform vendors, voice experience developers, or businesses can solve this problem in isolation. I predict an independent third party will attack this issue with a platform that brings together consumers, vendors, developers, and businesses to provide shared value and incentives to cross the chasm.

発見可能性は、エコシステムが音声体験が提供する可能性の実現を妨げている重要な問題だ。音声プラットフォームの市場浸透が進んでいるにもかかわらず、消費者はほとんどの場合、音声で何ができるかを知らない。私は、音声プラットフォームベンダー、音声エクスペリエンス開発者、ビジネスがこの問題を単独で解決できるとは考えていない。私の予想では、消費者、ベンダー、開発者、そして企業が協力して、共通の価値とインセンティブを提供して、隔たりを越えるプラットフォームによって、独立した第三者がこの問題に取り組むだろう。

Related reading: 34 Percent of Marketers Expect to Have a Voice App by 2020


08. MARK TUCKER, SENIOR ARCHITECT, SOAR

Key areas of concern for voice apps on assistants are convenience, context, memory, personalization, monetization, retention, and discoverability. With millions of owners of smart speakers, 2020 will be the year that a significant advancement will be made in discoverability and these owners will start consuming these voice apps.

アシスタントにおける音声アプリの主な関心領域は、利便性、コンテキスト、メモリ、パーソナライゼーション、収益化、保持、発見性である。スマートスピーカーの所有者が何百万人もいる中、2020年は発見可能性が大きく進歩し、これらの所有者が音声アプリを使い始める年になるだろう。

Related reading: Alexa Conversations to Make Skill Building Easier and Boost Discovery


09. MATT WARE, HEAD OF OPERATIONS, FIRST

First, the main challenge to 3rd Party developers and also to brands is the challenge of discovery. How do consumers become aware of their Action, Skill, Capsule (or whatever other non-specific name other companies decide to call what is really a voice app)? Until this gets solved and solved consistently, we won’t see mass adoption of the medium by big players.

As much as the onus does sit with these brands to self promote, Google, Amazon and Co need to pick a path and stick with it. Consumers have become used to having the right tool put in front of them at the right time. Implicit Invocation was the obvious path to continue this trend. However, that seems to be getting wound back in favor of “recommendation at signup” or fulfillment of the required task without the user knowing which Skill or Action did the heavy lifting. This year Discovery will be a focus for the ecosystem owners as they try to find a way to achieve the balance between wanting to own the whole user experience 1st Party and needing 3rd Party information and functions to actually deliver the service or item.

Second, Asia pulls away from the US and Europe with Voice. Asia is already seeing explosive growth in Smart Speaker shipments and development across the three main players (Xiaomi, Baidu and Alibaba). Population, funding, acceptance of digital payments and a friendly government environment will see this growth continue along with their dominance. The main battlegrounds will be South East Asia, India, Africa, and Australia. In all of these locations, there is less opposition to Asian technologies and large existing ex-pat Chinese populations happy to bring their preferred assistant of choice with them. While there is still the opportunity for growth in the U.S. and Europe, it’s Asia where there is money to be made.

第一に、サードパーティの開発者やブランドにとっての主な課題は、発見の課題である。消費者はどのようにしてAction, Skill, Capsule(あるいは、他の企業が実際に音声アプリと呼んでいるような、特定されていない名称であれば何でもいい)に気づくのだろうか?この問題が解決され、一貫して解決されるまで、大企業がこのメディアを大量に採用することはないだろう。

自己宣伝する責任がこれらのブランドにあるのと同じように、GoogleAmazon、Co は道を選んでそれを貫く必要がある。消費者は、適切なツールを適切なタイミングで目の前に置くことに慣れてきた。暗黙の呼び出しは、この傾向を継続するための明らかなパスだった。しかし、ユーザーがどのスキルやアクションが重い作業を行ったのかを知らなくても「登録時の推奨事項」や要求されたタスクを実行することができるようになりつつあるようだ。今年の発見は、エコシステムの所有者にとって焦点となるだろう。彼らは、ユーザー体験全体を第一者として所有したいと思うことと、サービスやアイテムを実際に提供するために第三者の情報と機能を必要とすることの間のバランスを達成する方法を見つけようとしている。

第二に、アジアはVoiceによってアメリカとヨーロッパから離れている。アジアではすでにスマートスピーカーの出荷と開発が三大主要メーカー(Xiaomi、Baidu、Alibaba)で爆発的に増加している。人口、資金調達、デジタル決済の受け入れ、そして政府の友好的な環境によって、この成長は彼らの支配とともに続くだろう。主戦場は東南アジア、インド、アフリカ、オーストラリアである。これらのすべての場所で、アジアの技術への反対は少なく、多くの既存の外国人が好みのアシスタントを喜んで連れてくる。米国とヨーロッパには成長の機会がまだあるが、収益が見込めるのはアジアだ。

Related reading: Smart Speaker Sales Rise 35% Globally, 15 Million in China



VOICE ASSISTANT ARCHITECTURE(音声アシスタントのアーキテクチャ


10. TIM MCELREATH, DIRECTOR OF TECHNOLOGY FOR EMERGING PLATFORMS, DISCOVERY, INC.

The “de-app-ification” of Alexa skills and Assistant agents. This year there is going to be a blurring of boundaries between third-party development, content presented in first-party platform templates, cross-linking between smaller related features, and a move toward shared (but extensible) domain language models.

Alexaのスキルとアシスタントエージェントの「脱アプリ化("de-app-ification")」。今年は、サードパーティの開発、ファーストパーティのプラットフォームテンプレートで提供されるコンテンツ、小さな関連機能間のクロスリンク、共有(だが拡張可能)ドメイン言語モデルへの移行の間の境界が曖昧になるだろう。

Related listening: Tim McElreath of Food Network / Discovery Inc Talks Multimodal Design – Voicebot Podcast Ep 28


11. GIULIO CAPERDONI, HEAD OF INNOVATION, VIDEMME

Assistants will move from intent classification and named-entity recognition, which is a manual and rigid process, and they will become more sophisticated, learning from examples and moving past the limitations imposed by mapping every message to one intent. The representation of state and context will be learned from the data itself, letting the users teach the assistants things that were not anticipated and making the assistants able to understand and respond to unexpected inputs.

アシスタントは、インテントによるクラシフィケーションと名前付きエントリの認識という手動の厳格なプロセスから移行します。より洗練されたものになり、例から学び、すべてのメッセージを1つのインテントにマップすることによって課される制限を超えます。状態とコンテキストの表現はデータ自体から学習され、ユーザはアシスタントに予想外のことを教えることができ、アシスタントは予想外の入力を理解し応答することができるようになります。

Related listening: Adam Cheyer on 25 Years Building Voice Assistants – Voicebot Podcast Ep 109


12. BRADEN REAM, CEO, VOICEFLOW

We’re going to see the rise of intent-less voice app structures that will make transactional use cases, like voice commerce, far more effective.

私たちは、音声コマースのようなトランザクションユースケースをはるかに効果的にする、インテント・レス音声アプリ構造の台頭を目にするだろう。

Related listening: Braden Ream, CEO of Voiceflow – Voicebot Podcast Ep 112


13. JOHN KELVIE, CEO/FOUNDER, BESPOKEN

The rise of a new domain-centric development model for third-parties. The initial wave of voice was based around an app-centric model. This made sense, as the analogies and onramps for developers coming from mobile and web were so easy to make. But domains make more sense for users. Domains are top-level intents with third-party fulfillment. It also means that users are defining functional boundaries, not developers or product designers. Finally, it means discovery is moot. Forget about tricks and gambits to make users memorize and chant invocation names. Instead, builders must discover users where they are, in users’ natural expressions and requests.

To effect this expeditiously, the platforms must provide a way to bring third-parties in on top-level intents fairly and transparently. And third-parties must take users as they come – with a myriad of queries and commands that may not fit neatly into their existing app-centric way of thinking.

サードパーティ向けのドメイン中心の新しい開発モデルの台頭。音声の最初の波はアプリ中心のモデルに基づいていた。これは、モバイルとウェブから来る開発者のためのアナロジーとランプがとても簡単だったので、理にかなっていた。しかし、ユーザーにとってはドメインの方が理にかなっている。ドメインとは、サードパーティのフルフィルメントを伴うトップレベルのインテントである。また、開発者や製品設計者ではなく、ユーザーが機能の境界を定義していることも意味する。最後に、これは発見が無意味であることを意味している。ユーザーに呼び出し名を覚えさせたり、唱えさせたりするためのトリックやゲームは忘れよう。その代わり、ビルダーは、ユーザーの自然な表現や要求の中で、ユーザーがどこにいるかを発見しなければならない。

これを迅速に実現するためには、プラットフォームは、サードパーティーがトップレベルのインテントを公正かつ透過的に伝える方法を提供しなければならない。サードパーティーはユーザーを必要に応じて誘導しなければならない。これには既存のアプリ中心の考え方には合わないかもしれない無数のクエリとコマンドがある。

Related reading: Amazon to Roll Out Cross-skill Goal Completion


14. MIGUEL BERGER, CEO, VOICETER PRO

In 2020, voice assistants will start to perfect the invocationless open of an app. This will happen because once Samsung fully releases Bixby, it will start to gain popularity and will spread to the other platforms. Voices will also start to sound more human. It is clear that people respond better to a less robotic a voice. It follows that the engineers at Samsung, Amazon and Google would focus energy on that.

2020年には、音声アシスタントがアプリの呼び出しなしオープン性を完成させ始める。サムスンがBixbyを完全にリリースすれば、これが起こるだろう。人気が出始め、他のプラットフォームにも広がるからだ。声もより人間らしく聞こえるようになります。ロボットのような声ではない方が反応が良いことは明らかです。したがって、サムスンAmazonGoogleのエンジニアは、この点に注力することになる。

Related reading: Speech Synthesis Becomes More Humanlike



VOICE APP DEVELOPMENT AND MONETIZATION(ボイス・アプリケーションの開発と収益化)


15. TOM HEWITSON, FOUNDER, LABWORKS.IO

2020 will be the year that the voice app ecosystem starts to make significant money. A combination of improved tools from the platforms and a greater focus on creating real value by developers will finally convince consumers to start parting with their hard-earned cash. We’re unlikely to see the first voice app unicorn in the next 12 months but perhaps we’ll spot a couple of multi-hundred hoof-prints pointing the way.

2020年は、音声アプリのエコシステムが大きな利益を上げ始める年になるだろう。プラットフォームの改善されたツールと、開発者が真の価値を生み出すことに注力することの組み合わせによって、ようやく消費者は苦労して稼いだ金を手放し始めるようになるだろう。12ヶ月以内に最初の音声アプリがユニコーンになることはなさそうだが、おそらく何百もの足跡がその方向を指し示しているだろう。

Related listening: 10 Hot Takes from Two-and-a-Half Years in Voice – Voicebot Podcast Ep 124


16. BRADLEY METROCK, CEO, SCORE PUBLISHING

Competition will tighten among major tech companies for developer attention, leading to heightened investment and accelerated feature development over the course of 2020 for Alexa, Google Assistant, Bixby, and Siri.

大手テクノロジ企業の間では、開発者の注目を奪い合う競争が激化し、2020年にかけて、Alexa、Google Assistant、Bixby、およびSiriの開発に対する投資が拡大し、機能開発が加速するだろう。

Related reading: Bradley Metrock Offers 200 Alexa Uses That Aren’t Weather and Music in New Book


17. CHARLES CADBURY, CEO, SAY-IT-NOW

The continued rise of voice commerce, specifically non-obvious ways voice removes pinch points in the customer journey. Voice commerce doesn’t always have to be at the last mile of the transaction but can have a very valuable part to play in the customer decision journey influencing the transaction.

ボイスコマース(音声認識技術を利用して音声で行えるオンラインショッピング)の継続的な成長。特に音声が顧客の移動におけるピンチポイント(接続点?)を取り除く明白でない方法。ボイスコマースは常に取引の最後の1マイルにある必要はないが、取引に影響を与える顧客の意思決定過程において非常に重要な役割を果たすことができる。

Related reading: Adobe Says 45% of Businesses Investing in Voice List Voice Commerce as Top Priority


18. ARTE MERRIT, CEO/CO-FOUNDER, DASHBOT

As with any new channel, user acquisition, discovery, and monetization can be challenges. For Voice Assistants to continue to take off, and more users and enterprises to adopt them, I am hopeful the ecosystem continues to evolve and more opportunities for user acquisition, discovery and monetization come forward. As the ecosystem evolves, and enterprises see the value in Voice Assistants, hopefully, more initiatives move from innovation teams to business units in the coming year. We are still relatively early in the space and it is exciting to see the new use cases that emerge.

他の新しいチャネルと同様に、ユーザー獲得、発見、収益化が課題となり得る。ボイス・アシスタントが今後も軌道に乗り、より多くのユーザーや企業に採用されるようになるためには、エコシステムが進化し続け、ユーザー獲得、発見、収益化の機会がさらに増えることを期待している。エコシステムが進化し、企業がボイス・アシスタントの価値を認識するにつれ、願わくば、来年はイノベーションチームからビジネスユニットへと、より多くのイニシアチブが移行するだろう。私たちはまだこの分野の比較的初期の段階にあり、新たなユースケースが現れるのを見るのは楽しみである。

Related reading: Amazon Brings Skill Monetization to the UK and Germany



VOICE ASSISTANTS ON THE EDGE(先端音声アシスタント)


19. TODD MOZER, CEO, SENSORY

The rise of Domain Specific Voice Assistants. Products will start having natural language voice assistants on board, without privacy concerns or internet connections. Chip companies will announce a number of AI chips that support this at a cost that can be used in IoT, home appliances, and other consumer products.

ドメイン指向ボイスアシスタントの台頭。製品には、プライバシーやインターネット接続を気にすることなく、自然言語の音声アシスタントが搭載されるようになる。チップメーカー各社は、IoTや家電などの消費者向け製品で利用可能なコストでこれをサポートする多数のAIチップを発表する予定だ。

Related reading: Sensory Debuts New Smart Appliance Voice Assistant Platform


20. CARL ROBINSON, HOST, VOICE TECH PODCAST

Voice AI on the edge for low-resourced IoT devices will come to the fore, with many more devices avoiding the cloud for both privacy and performance reasons. In addition, biometric authentication and emotion recognition will transform how we use voice assistants. We can look forward to using any smart speaker in the world with reduced friction and more relevant responses.

Apple will also launch some kind of voice skills, but they will be over-regulated and limited in performance. Unfortunately, Apple will continue to lag behind the other platforms. Hearables and voice-enabled wearables will be the catalyst for much greater usage and a wider variety of use cases, as mobile is inherently hands-free. Phone-zombies may even start to disappear!

低リソースのIoTデバイスでは音声AIが主流になり、プライバシーとパフォーマンスの両方の理由からクラウドを避けるデバイスが増えるだろう。さらに、生体認証と感情認識は、音声アシスタントの使い方を変えるだろう。世界のどのスマートスピーカーでも、摩擦が少なく、より適切な反応が得られることを期待しています。

Appleはまた、ある種の音声スキルも提供する予定だが、それらは過剰に規制され、性能が制限される。残念ながら、Appleは他のプラットフォームに遅れを取り続けるだろう。モバイルは本質的にハンズフリーであるため、ヒアラブル(耳で知覚可能)と音声対応ウェアラブルは、はるかに多くの利用と幅広いユースケースを促進するだろう。電話ゾンビは消え始めるかもしれない!

Related reading: Dedicated Audio Processors on the Edge Are the Future. Here’s Why.



VOICE IN THE CAR(車載音声システム)


21. PAT HIGBIE, CO-FOUNDER AND CEO, XAPPMEDIA

The availability of Alexa and Google Assistant tightly integrated into fully connected vehicles will begin to achieve critical mass in 2020 and will accelerate the use of voice assistants by the masses. The writing is on the wall and all stakeholders including car manufacturers, voice assistant platforms, radio broadcasters, streaming services, and brands will need a conversational AI strategy in order to win in this paradigm shift.

完全に接続された自動車に緊密に統合された 「Alexa」 と 「Google Assistant」 が利用可能になることは、2020年にクリティカルマスに達し始め、一般ユーザーによる音声アシスタントの利用を加速させるだろう。悪い兆しが見え始めている。自動車メーカー、音声アシスタントプラットフォーム、ラジオ放送局、ストリーミングサービス、ブランドを含むすべての利害関係者は、このパラダイムシフトに勝つために対話型AI戦略を必要とするだろう。

Related reading: GM to Provide First Alexa Auto Implementation


22. STEVE TINGIRIS, CHIEF DABBLER, DABBLE LABS

Despite some predictions of a slowdown, the average daily usages of voice assistants will grow considerably more in 2020 than any previous year. This will be largely driven by the use of devices in automobiles and wearables – mostly earbuds.

一部には鈍化の予測もあるが、2020年の音声アシスタントの平均日用利用は、前年比で大幅に増加するだろう。これは主に、自動車やウェアラブル (主にイヤホン) でのデバイスの利用によるものだ。

Related reading: IDC Says Hearables Now the Biggest Wearable Category


23. MAURO DEL RIO, FOUNDER, SOLO.FM

Assistants widespread in cars.

アシスタントは車に広まっている。

Related reading: A Voice Giant is Born. Cerence Now Houses All of Nuance Automotive’s Solutions and Customers



VOICE ASSISTANTS AND WEARABLES / HEARABLES AND OTHER DEVICES(音声アシスト機能、ウェアラブル、ヒアラブル、その他のデバイス


24. STUART CRANE, FOUNDER/CEO, VOICE METRICS

One of the breakout hits in the voice space for 2020 and beyond will be voice-activated rings, starting with the Echo Loop. Alexa users will appreciate the ability to use Alexa anytime, anywhere without having to have a smart speaker nearby, or headphones in their ears. I predict that in 2020, Apple will take notice of this new “category” (voice-activated rings), and begin developing a Siri-compatible ring, which, sometime after 2020, will become an even bigger hit than the Echo Loop.

2020年以降の音声分野でヒットするのは、Echo Loopを皮切りに、音声で作動するリングだ。Alexaユーザーは、スマートスピーカーやヘッドフォンを耳に入れなくても、いつでもどこでもAlexaを利用できることを歓迎するだろう。筆者の予想では、Appleは2020年にこの新しい「カテゴリ」(音声作動リング)に注目し、2020年以降にSiri互換のリングの開発を開始し、Echo Loopよりもさらに大きなヒットになるだろう。

Related reading: Amazon Unveils Alexa-Powered Smart Glasses, Smart Ring


25. MAX CHILD, CO-FOUNDER, VOLLEY

The tipping point for smart displays has come to pass. By the end of 2020, the most highly-used voice apps (outside of sleep) will include robust, stimulating visual experiences.

スマートディスプレイの転換点がやってきた。2020年末までに、最もよく使われる音声アプリ(睡眠外で)には、力強く刺激的な視覚体験が含まれるようになるだろう。

Related reading: Amazon Continues to Lead in Smart Displays with 59% Share



APPLE AND SIRI(アップルとシリ)


26. KATY BASS, CEO/FOUNDER, ALTAVOX

2020 has to be the year that Siri opens up a voice marketplace! Many in the industry expected this to happen in 2019. This will help brands and third party developers have a presence on one of the major voice assistants and the leader in the ‘hearables’ space with AirPods. We may also see Apple announce a new product this year with voice-enabled AR glasses.

2020年はSiriが音声マーケットプレイスを開設する年でなければならない。業界の多くの人たちは2019年にこのようなことが起こるだろうと予想していたが、これによってブランドやサードパーティーの開発者たちは、大手の音声アシスタントやAirPodsの「ヒアラブル」分野のリーダーとしての存在感を得ることができるだろう。Appleは今年、音声対応のARメガネを搭載した新製品を発表するかもしれない。

Related reading: What You Didn’t Hear from Apple WWDC about Siri, Voice, or AI


27. YANNICK OSWALD, PARTNER, MANGROVE CAPITAL PARTNERS

A lot more is to be expected from Apple in the coming year. The tech company is already releasing at an accelerated pace new voice commands these last months and I expect them to open up their voice ecosystem to a wider developer community allowing startups to build apps with cutting edge voice-first commands.

Appleは来年、さらに多くのことを期待している。同社は既にこの数カ月間、新しい音声コマンドのリリースを加速させており、同社の音声エコシステムをより幅広い開発者コミュニティーに開放し、スタートアップが最先端の音声コマンドを使ったアプリを開発できるようにすることを期待している。

Related reading: Voice Startup Funding in 2019 Set to Nearly Triple Says Mangrove Analysis


28. JOHN CAMPBELL, MANAGING DIRECTOR AND FOUNDER, RABBIT & PORK

Firstly, I think we’ll start to see Amazon and Google start to release features for Skills and Actions directly related to earbuds and in-car usage. For example, being able to use data from the accelerometer in the Echo Buds in your Skill. This will start to open-up new use cases for Skills.

Secondly, Apple will launch “voice” or “Siri voice apps.” The platform will not be as feature-full as we’ve seen with Alexa Skills and will be deeply integrated with the existing app store.

まず、AmazonGoogleがSkills and Actionsというイヤホンと車内での利用に直接関係する機能をリリースするだろう。たとえば、SkillのEcho Budsで加速度計のデータを使えるようにする。これはSkillsの新しいユースケースを開くことになるだろう。

第二に、Appleは「声」または「Siriの音声アプリ」をローンチする。このプラットフォームはAlexa Skillsで見たような機能満載ではなく、既存のアプリストアと深く統合される。

Related reading: Amazon Echo Buds are Critical to Alexa’s Mobile Strategy


29. ROB HAYES, HEAD OF PRODUCT, VOICEFLOW

Apple will continue to open up Siri for 3rd party skill development, which will raise the prominence of voice as a channel that consumer-focused apps need to operate on.

Appleは今後もSiriをサードパーティーのスキル開発に開放していく予定であり、これによって消費者向けアプリが動作するために必要なチャネルとして、音声の重要性が高まるだろう。

Related reading: Apple Start to Play Nice with Competitors as Spotify and WhatApp Get Siri Support



VOICE AND CONTENT(音声コンテンツ)


30. DAVE KEMP, FOUNDER, FUTURE EAR

I think that the biggest breakthroughs within the voice space will be driven by media-based companies that supply content in new formats conducive to voice assistants and their affiliated hardware. Food Network Kitchen will provide a blueprint for how media-companies like Discovery can adapt their content to multi-modal voice devices. Spotify will help to shape the way we think about how voice assistants can work in conjunction with music and podcasting and will blaze a trail of new ways to access and share said content. I also think we’ll see hearables continue to play a prominent role within the voice ecosystem, particularly as on-the-go applications are developed and take advantage of mobile data inputs, such as GPS.

音声分野における最大のブレークスルーは、音声アシスタントや関連ハードウェアに適した新しいフォーマットでコンテンツを提供するメディアベースの企業によってもたらされると思う。Food Network Kitchenは、Discoveryのようなメディア企業がコンテンツをマルチモーダルな音声デバイスに適応させるための青写真を提供する。Spotifyは、音声アシスタントが音楽やポッドキャストと連携してどのように機能するかについてのわれわれの考え方を形作るのに役立ち、そのようなコンテンツにアクセスし共有するための新たな方法の道を切り開くだろう。また、音声エコシステム内では、特にGPSなどのモバイルデータ入力を利用した外出先でのアプリケーションが開発されているため、今後も音声が重要な役割を果たし続けると思う。

Related Listening: Hearables and Voice with Dave Kemp and Andy Bellavia – Voicebot Podcast Ep 127


31. AMIR HIRSH, CEO, AUDIOBURST

The gimmick is over. Voice is now known, popular, and frequently used. In 2020, the industry will pick up its game and provide real value to customers. Users at this point are past the pleasing effect of the coolness of voice interaction with a machine and will demand useful functionality. In 2020, the focus will be on serving the day-to-day lives of users with the content updates they are searching for, the knowledge they would like to be informed about, and their daily tasks predicted and more easily completed. Any company not providing consumers with real value in a well-polished experience will be tossed to the side of the road and forgotten. The expectation of quality will simply be higher. That means the platforms, brands, media, and other content providers will need to step up their game simply to keep pace.

ギミックは終わった。音声は今ではよく知られ、人気があり、頻繁に使われている。2020年には、この業界はゲームに磨きをかけ、顧客に真の価値を提供するだろう。この時点では、ユーザは、機械との音声対話のクールさの心地よい効果を超えており、有用な機能を要求することになる。2020年には、ユーザーが探しているコンテンツの更新情報、ユーザーが知りたい知識、ユーザーが予測してより簡単に実行できる日常業務を提供することに重点が置かれる予定だ。洗練された体験で真の価値を消費者に提供しない企業は、道の脇に放り出されて忘れ去られるだろう。品質に対する期待が高まるだけだ。つまり、プラットフォーム、ブランド、メディア、その他のコンテンツプロバイダーは、単に後れを取らないために、ゲームを強化する必要があるということだ。

Related reading: Audioburst Brings Audio Content Discovery to Android Auto and Bixby


32. STEVEN GOLDSTEIN, CEO, AMPLIFI MEDIA

They key is removing friction. While it is easy to get a weather forecast, getting a podcast, for example, has been loaded with frustration. Apple Podcasts just did a deal with Amazon so the app works seamlessly with Alexa. Now, just to get people to use it. Awareness and learning are always a challenge for anything new. On to the car – the next big area. GM, Toyota, BMW, Ford and Audi head the list of companies putting voice compatibility into infotainment systems. Some retroactively, meaning earlier models will have functionality. Let the anarchy begin.

それらのキーは摩擦を取り除くことだ。天気予報を入手するのは簡単だが、例えばポッドキャストを入手するのはフラストレーションがたまっている。Apple Podcastsは先ほどAmazonと契約を結び、Alexaとシームレスに動作するようになった。人々に使ってもらうためだ。何か新しいことを発見したり、学んだりすることは、常にチャレンジである。次の大きなエリアは車だろう。インフォテインメントシステムに音声対応を導入している企業のトップは、GMトヨタBMW、フォード、アウディだ。過去にさかのぼって、つまり以前のモデルには機能があるということだ。無政府状態が始まるだろう。

Related reading: Apple and Spotify Podcasts Now Available Through Alexa



VOICE IN THE ENTERPRISE(エンタープライズにおける音声テクノロジー


33. MILKANA BRACE, FOUNDER/CEO, JARGON

Business users rapidly adopting voice technologies as part of their jobs.

ビジネスユーザーは、仕事の一部として音声テクノロジーを急速に採用している。

Related listening: Voice Year in Review with Jargon, Voxly, and Voicebot, Voicebot Podcast Ep 128


34. JON C. STINE, EXECUTIVE DIRECTOR, OPEN VOICE NETWORK

In 2020, we’ll begin to see an expansion of enterprise voice use, and across all consumer-facing industries. The voice story will begin to shift — appropriately — from platforms and technologies to enterprise value. Mind you, this will be a beginning with full flowering seen in 2022 or later.

2020年には、企業の音声利用が拡大し始め、あらゆる消費者関連業界で利用されるようになるだろう。ボイスストーリーは、プラットフォームやテクノロジーからエンタープライズバリューへと、適切に移行し始める。なお、これは2022年以降に見られる開花の始まりであることに気をつけて。

Related listening: Enterprise Voice Assistant Adoption with Nestle, RBC, and American Red Cross – Voicebot Podcast Ep 118


35. EMERSON SKLAR, CHIEF EVANGELIST, BESPOKEN

I believe this is the year that we will see finally significant adoption of internal-business-focused voice solutions ala Alexa for Business. The ROI is extremely compelling, the use cases are numerous, and enterprises are finally familiar enough with voice to make investments in optimizing their internal processes with voice automation.

今年は、Alexa for Businessのような、企業内に特化した音声ソリューションが、いよいよ本格的に採用される年になるだろう。ROI (投資収益率) は非常に魅力的であり、使用例も多数ある。企業は音声にようやく精通し、音声自動化による社内プロセスの最適化に投資している。

Related reading: A B2B Focus for Cortana Makes Sense for Microsoft But Not for Amazon and Google



INDUSTRIES ADOPTING VOICE(産業分野への音声の適用)


36. AUDREY ARBEENY, FOUNDER/CEO/EXECUTIVE PRODUCER, AUDIOBRAIN

My prediction is that we’ll see the most growth going to the healthcare industry: developments such as synthetic voices, the ability to interpret emotional nuances, predictive behavior, medical robotics, devices, home monitoring, patient/caregiver interaction. All of these seem to be emerging the fastest.

This is because the rapid growth from smart speaker to machine learning, and adaptation of the technology, UI, UX, and the new capabilities which are evolving every day. We now have a large aging population with caregivers and healthcare providers who need more remote monitoring and wellness check-ins and interactions. The list goes on.

私の予想では、最も成長するのは医療業界だ:合成音声、感情のニュアンスを解釈する能力、予測行動、医療ロボット、デバイス、ホームモニタリング、患者と介護者の相互作用などの開発。これらはすべて最速で出現しているようだ。

これは、スマートスピーカーから機械学習への急速な成長と、日々進化するテクノロジー、UI、UX、新機能の適応によるものである。私たちは今、介護者や医療提供者を持つ多くの高齢者人口を抱えており、彼らはよりリモートでのモニタリングや健康チェックイン、交流を必要としている。他にも挙げればまだある。

Related reading: Connecting Beyond Voice Through Sonic Branding


37. JOHN THOMPSON, OPERATIONS MANAGER, VOGO VOICE

We at VOGO Voice predict that businesses will start to leverage voice assistants and smart speakers more in 2020. We feel that companies will establish more personalized services for their customers using their own customer data to enrich the voice experience. Businesses will also enable workforce efficiencies and enhance worker safety using a combination of voice interaction and realtime geospatial data for “hands-free” data collection. In the public sector, we feel we will see more civic “smart city” initiatives that allow citizens to interact with city, county, and state agencies through smart speakers.

VOGO Voiceでは、2020年には企業が音声アシスタントやスマートスピーカーをもっと活用し始めるだろうと予測している。企業は、音声体験を豊かにするために、自社の顧客データを使って顧客のためによりパーソナライズされたサービスを確立するだろうと感じている。また、企業は、「ハンズフリーの」データ収集のための音声対話とリアルタイムの地理空間データを組み合わせることで、従業員の効率性と安全性を向上させる。公共部門では、スマートスピーカーを通じて市民が市、郡、州の機関と交流できるようにする市民の「スマートシティ」イニシアティブが増えると感じている。

Related reading: Iowa Governor Announces New Alexa and Google Assistant Apps for State Government Information


38. LUC VEUILLET, VOICEFIRST LEADER, INSIGN

2020 will result in a double movement of the voice market. First, an extension of the installed base. Europe, including France, from which I am speaking, is just beginning to consider voice. Through cars, software, devices such as STB, basic usage, voice acceptance will [increase]. More vertical uses, addressing specific business needs and contexts, will create the long-awaited #voicefirst killer app, but I think it will be in B2B. This is what we are beginning to see on construction sites, in factories, and through the vocal extension of software in wearables.

Concerning ethics and actors, the disappearance of Snips that I wrongly predicted to be a success last year, is an epiphenomenon, as other movements are already launching to offer an open-source NLP. Initiatives, such as Mozilla and for example in France the Voice Lab, bear witness to this.

2020年は音声市場の二重の動きとなるだろう。まず、インストール・ベースの拡張だ。私が話をしているフランスを含むヨーロッパは、声について考え始めたばかりである。自動車、ソフトウェア、STBなどのデバイス、基本的な使用方法、音声の受け入れが増加する。特定のビジネスニーズや状況に対応した、より垂直的な利用法は、待望の#voicefirstキラーアプリを生み出すだろうが、私はB2Bになると考えている。これは建設現場や工場で見られるようになってきたものであり、ウェアラブルにおけるソフトウェアの音声拡張を通じても見られるようになってきている。

倫理とアクターに関して昨年私が誤って成功と予測したSnipsは消滅したが、その他のオープンソースNLPを提供する動きはすでに始まっており、MozillaやフランスのVoice Labなどのイニシアチブがそれを証明している。

Related reading: Sonos Acquires Snips for $37.5 Million



VOICE AND MARKETING(音声とマーケティング


39. HARISH GOLI, PM AUDIO AND VOICE ADS, PANDORA

Voice based advertising will become a reality (not just an one off science experiment). Engagement data will make voice advertising attractive to advertisers.

(単発の科学実験では無い)音声ベースの広告が実現するだろう。エンゲージメントデータは、音声広告を広告主にとって魅力的なものにするだろう。

Related reading: Pandora Begins Running Interactive Voice Ads


40. PETE HAAS, FOUNDER, CONVERSATION CURVE

I predict that 2020 will be a continuation of 2019. Brands with some experiences will continue to improve and learn from their users. Most of the use-cases will be engagement with customers (FAQ, Store Hours, etc). More interesting interactions like transactions will likely come after 2020. Keep an eye out for competition outside the U.S. next year. Companies like Baidu are making amazing progress.

私は、2020年は2019年の延長線上にあると予測している。ある程度の経験を持つブランドは、今後も改善を続け、ユーザーから学ぶだろう。ユースケースの大半は顧客とのエンゲージメント(FAQ、営業時間など)だ。取引のようなもっと興味深い交流は2020年以降になるだろう。来年は米国外の競争に目を光らせておこう。Baiduのような企業は驚くべき進歩を遂げている。

Related reading: Baidu Updates DuerOS Voice Platform and Hit 400 Million Device Milestone


41. BENJAMIN FISHER, FOUNDER, MAGICCO

Global brands will become intelligent in 2020. Conversational systems, including voice, are going to have content be highly personalized, independent, and conversational. For example, they will be able to run independently. I think they will become more seamless and affect our global conversation on social media, and in our homes, in more seamless and autonomous ways. I also predict a hundred million dollar app.

グローバル・ブランドは2020年には知的になり、音声を含む会話システムでは、コンテンツが高度にパーソナライズされ、独立し、会話的になる。例えば、彼らは独立して走ることができる。それらはよりシームレスになり、ソーシャルメディアや家庭でのグローバルな会話に、よりシームレスで自律的な方法で影響を与えると思う。私は1億ドルのアプリも予想している。

Related listening: Alexa, Bixby, Google Assistant, and Siri Rely on Wikipedia and Yelp for Many Common Questions About Brands


42. STAS TUSHINSKIY, CEO, INSTREAMATIC

There’s been a lot of positioning this year towards audio publishers (Pandora and Spotify, to name a couple) and big advertisers (like IKEA, HP and Infiniti) moving towards — and testing — voice dialogue ads. I think this sets up 2020 to be the year that voice-enabled advertising really makes its mark on audio content consumers. Heading into 2020, voice dialogue advertising is now capable of leveraging far more advanced voice AI technology to replace the passive, often irrelevant and unwelcome ads that listeners are accustomed to. This is a big deal, as these interactive experiences are, in early deployments, proving to earn greater engagement and conversion (i.e. good for audio publishers, advertisers, and listeners alike).

今年(2019)はオーディオ・パブリッシャー(PandoraとSpotifyを例に挙げる)や大手広告主(イケア、HP、インフィニティなど)が音声対話広告に移行し、テストしていることに対して多くのポジショニングがあった。2020年は、音声対応広告がオーディオコンテンツ消費者に大きな影響を与える年になるだろう。2020年に入って音声対話広告は、はるかに高度な音声AI技術を利用して、リスナーが慣れ親しんでいる受動的で、往々にして無関係で歓迎されない広告を置き換えることができるようになった。このようなインタラクティブな体験は、初期の導入段階では、より多くのエンゲージメントとコンバージョンを獲得することが証明されているため、これは重要なことである。(つまり、音楽出版社、広告主、リスナーのいずれにとってもメリットがある)

Related reading: Pandora Taps Instreamatic to Test Voice-Enabled Ads



OTHER VOICE ADOPTION DRIVERS AND PREDICTIONS(その他の音声を採用する推進要因と予測)


43. HEIDI CULBERTSON, CEO, MARVEE

While the 2020 buzz will be the opportunity in hearables and voice-on-the-go. The success story of 2020 will be voice and accessibility as brands recognize the opportunity for business and social good driven by high user adoption rates across multiple niche audiences.

2020年の話題は、ラジオや外出先での音声通話の機会になるだろう。2020年のサクセス・ストーリーは、複数のニッチなオーディエンスにわたって高いユーザー普及率が原動力となっているビジネスと社会の利益の機会をブランドが認識したときの、声とアクセシビリティになるだろう。

Related listening: Heidi Culbertson on Voicebot Podcast Ep 68


44. RALF EGGERT, CEO, TRAVELLO

Voice assistants will take the next step to become real personal assistants and this will make people more likely to use their language assistants more often.

音声アシスタントは、本物のパーソナルアシスタントになるための次のステップに進み、言語アシスタントをより頻繁に使うようになるだろう。

Related reading: Google Duplex is Now in 43 States


45. FRED ZIMMERMAN, FOUNDER, ALTBRAINS WORKSHOP

There will be a “broadcast to the world” event where a voice agent talks to everyone at the same time. It may be planned or it may be an accident–Google issues an emergency notification about a global threat; Jeff Bezos issues a personal message the day before the election; Siri gets hacked — who knows! And it may or may not contain an interactive element where the system is able to act effectively on the hundreds of millions of responses it will receive. But, it will illustrate voice’s power to touch everyone at an emotional level at the same moment — a bit like Orson Welles’ War of the Worlds and radio. I may be early — this may not occur in 2020, but later — but it is coming.

ボイスエージェントが全員と同時に話す「世界中に放送される」イベントがある。それは計画されたものかもしれないし、事故かもしれない。例えば、Googleはグローバルな脅威に関する緊急通知を発行する、ジェフ・ベゾスが選挙前日に個人的なメッセージを発表する、Siriがハックされる、といったことが考えられるが、誰も知らない! また、システムが受信する何億もの応答に対して効果的に動作できるインタラクティブな要素を含む場合と含まない場合がある。しかし、それは同時にすべての人に感情的なレベルで触れ合う声の力を示す。これはオーソン・ウェルズ宇宙戦争とラジオに少し似ている。こういったことは2020年には起こらないかもしれないが、やがてに起こるかもしれない。

Related reading: Google Home Rolls Out Broadcast Feature


46. JOHN AMEIN, VP SALES, ID R&D

Voice assistants across all devices have become incredibly useful and are now well accepted. We see [several] trends developing in 2020 that will continue the voice AI revolution.

One is due to the natural maturing of voice as an interface. Now that voice is common on “what” a person is speaking, the next step is knowing “who” is speaking. If you know who is speaking, you can prevent the wrong person from using the device to order on an account, or you can personalize the response when someone says, “play my music.” Knowing the speaker’s identity is already possible with Google and Alexa but not broadly used nor easily integrated into a process flow. Third-party products will take better advantage of this capability, adding services and capabilities by including third-party software to know “who” is speaking while leaving it up to Amazon and Google to continue to determine “what” is being said.

あらゆるデバイスで音声アシスタントが非常に便利になり、広く受け入れられている。2020年には、音声AI革命を継続する(いくつかの)トレンドが進展していくだろう。

1つは、インターフェイスとしての音声の自然な成熟によるものである。人が話している「何か」が音声が一般的になったので、次のステップは「誰か」が話していることを知ることだろう。誰が話しているのかわかっていれば、間違った人がこのデバイスを使ってアカウントで注文するのを防いだり、誰かが「私の音楽を演奏してください」と言ったときの応答をパーソナライズしたりできる。話者の身元を知ることは、GoogleとAlexaではすでに可能だが、広く使われているわけでもなく、プロセスフローに簡単に統合されるわけでもない。サードパーティー製品はこの機能をより有効に活用し「誰」が発言していることを知るためのサードパーティー製ソフトウェアを含めることでサービスや機能を追加し、一方「何」が発言されているかどうかの判断はAmazonGoogleに任せるだろう。

Related Reading: Deepfake Security Concerns are Limiting Voice ID Adoption


47. MAARTEN LENS-FITZGERALD, CEO, LENS-FITZGERALD CONSULTING

Confusion is the word for the Voice industry 2020. The hype led and leads to inflated expectations that keep not being met. Although more people will use more Voice it will also get more confusing and therefore disappointing. Some examples from a user perspective:

  • The Alexa buds don’t work well on my phone’s Siri.
  • My car’s voice system is not aware of my Google Assistant preferences and requires I talk to it differently.
  • I keep forgetting that new invocation I found the other day.
  • My “voice” blinds from Ikea won’t close unless I pronounce the commands perfectly.
  • My Hue lights work on Alexa but not on Google Assistant. I can’t converse.
  • My voice assistant hears me talking about brand “X” and then my Instagram is flooded with ads for that brand.

The confusion will lead to a feeling of apathy and idleness with organizations. There will be two groups. One group that just uncovered the potential of Voice and is super excited and ready to try and explore. Then there is the second group that learned about the potential and also learned they can’t get it to work yet. The apathy group. This, in turn, leads to more confusion with what looks like promising initiatives being launched as well as initiatives being halted.

混乱とは音声業界2020の言葉だ。誇大広告は期待を膨らませ、満たされないままにしている。より多くの人がより多くのVoiceを使用するようになるが、それはまたより混乱し、したがって失望するであろう。ユーザーの観点からのいくつかの例:

  • Alexaは私のスマートフォンのSiriではうまく動かない。
  • 私の車の音声システムは私のGoogle Assistantの好みを認識しておらず、別の方法で話す必要がある。
  • 私は先日見つけた新しい念仏を忘れてばかりいる。
  • イケアの「声」ブラインドは、コマンドを完璧に発音しないと閉まらない。
  • My Hue LightはAlexaでは動作するが、Google Assistantでは動作しない。なので両者は会話ができない。
  • 私の音声アシスタントは、私がブランド 「X」 について話しているのを聞き、私のInstagramはそのブランドの広告で溢れかえっている。

混乱は組織に対する無関心と怠惰感につながるだろう。 2つのグループがある。1つ目のグループは音声の可能性を発見したばかりで、とても興奮していて、探求しようとしている。 次に、可能性について学習し、まだそれを機能させることができないことを学習した2番目のグループがあり。それから無関心派。 その結果、有望と思われる取り組みが開始されたり、中止されたりして、さらに混乱が生じる。

Related listening: The Privacy Episode with Molla, Mozer, and Lens-FitzGerald – Voicebot Podcast Ep 126



BRET KINSELLA

Bret is founder, CEO, and research director of Voicebot.ai. He was named commentator of the year by the Alexa Conference in 2019 and is widely cited in media and academic research as an authority on voice assistants and AI. He is also the host of the Voicebot Podcast and editor of the Voice Insider newsletter.

Bret氏は、Voicebot.ai の創設者、CEO、リサーチディレクターである。2019年のAlexa Conferenceで 「今年のコメンテーター」 に選出され、音声アシスタントやAIの権威としてメディアや学術研究で広く引用されているほか、 "Voicebot Podcast" のホストやニュースレター"Voice Insider"の編集者でもある。


以上

ブライアン・カーニハンとELIZA

Brian Kernighan and ELIZA


2020/02/12
藤田昭人


レギュラースタイルのブログは久しぶりですが…

年明けより ELIZA 本の執筆を本格化しています。 そこで悩ましいことが1つ。書籍執筆と並行してブログが書けるのか?という問題です。 もちろん「ブログは書籍の草稿」と宣言しているので、ネタが被るのは全然OKのはずなんですがね。 いざ書いてみると「あまりネタバレしてもなぁ…」と助平心がムクムクしてしまうのが問題なのです。

当初はプライベート・プロジェクトとして進めてるELIZA実装のトピックを幾つか書くつもりだったのですが…どうやらあまり需要が無いような。 で「どうしたもんかなぁ…」と考えているところに飛び込んで来たのは "UNIX A History and a Memoir" の存在。 当然『Unix考古学』の著者としては無視できるはずもなく、すかさず原書を購入したのですが…すっかりマイブームとなっております。

で…

(本気で訳し始めるとELIZA本が書けなくなるので)原書をパラパラめくっていると "ELIZA" の文字が飛び込んできました。 そこで、すかさず「ブログで1本ぐらいかけるな!!」とほとんど思いつきだけで書き始めたのが本稿です。


ブライアン・カーニハンについて

僕と同世代のUnixオタクの皆様には今更な話ですが…

今日では研究版と称される最初のUnixケン・トンプソンデニス・リッチー が 開発したとされてますが、 Unixの開発を行ったAT&Tの ベル研 にはUnixを開発する研究グループが存在し、 他にも優秀な研究者や開発者が在籍していました。

ブライアン・カーニハン もその一人で、グループ随一の論客だと僕は認識しています。 例えば『パスカルが私の好きな言語ではない理由』とかね。

www.lysator.liu.se

初めてみた時「嫌いなことをいちいち書いて公言せんでも良かろう」と思ったものです *1

カーニハン以外のこの種の(非常にクレバーな)論客はと言うと バトラー・ランプソン しか僕は知らないのですが、 ランプソンが情報工学全般の広範囲で非常に画期的な(かつ今日実用化されている)技術に関する論文を量産していたのに対し、 カーニハンは 『ソフトウェア作法』("Software Tools")、 『プログラミング言語C』("The C Programming Language")、 『プログラム書法』("The Elements of Programming Style")、 『UNIXプログラミング環境』("The Unix Programming Environment")、 『プログラミング言語AWK』("The AWK Programming Language")*2 といったUnix関連の有名な書籍をたくさん書いてます。 カーニハンはランプソンよりも幾分、教育者としてのイメージが僕には強いです。


"UNIX A History and a Memoir" について

この書籍は Kindle Direct Publishing を使ってカーニハン自身が Kindle Book を作成したようです(2019年10月公開)。 なので本書に関する出版社のホームページなどは見当たりません。 下記のカーニハン自身のホームページがその代わりのようです。

www.cs.princeton.edu

といってもあるのは ERRATA (と Kindle Edition への苦情)ぐらい *3

ともあれ…

"In memoriam DMR" との追悼の辞から始まる本書は Unix の開発者たちの私的な内容も含まれてます。 ちなみに、この DMR とはデニス・リッチーのことです。 こと Unix に関してはデニス・リッチーもドキュメントやメモランダムをたくさん残しています*4。これまた僕の印象ですが、リッチーのドキュメントは 研究版 Unix の開発グループのスポークスマン的な立場で書かれたものが多いのですが、 カーニハンのドキュメントはもう少し自由な立場で歯に衣を着せぬ物言い…というイメージがあります。 もっとも本書は、もしリッチーが存命であれば彼自身が書きそうな内容に読めます。


1.3 ベル研(BTL)でのブライアン・カーニハン(BWK)【抜粋】

本書は Kindle Book なので次の Amazon の書籍のページに行けばプレビュー が読めます。

https://www.amazon.co.jp/UNIX-History-Memoir-Brian-Kernighan/dp/1695978552/ref=sr_1_1?__mk_ja_JP=%E3%82%AB%E3%82%BF%E3%82%AB%E3%83%8A&crid=11X3OGG5R0K98&keywords=unix+a+history+and+a+memoir&qid=1581492080&sprefix=UNIX+%2Caps%2C261&sr=8-1

カーニハンが ELIZA について語っている箇所(P.9〜P.10)は そっくりプレビュー に収められているので、抜粋して翻訳してみました。 "1.3 BWK at BTL" の途中からです。このセクションの冒頭では 1964年に学部を卒業した後、大学院に進学するまでの数ヶ月間 インターンとしてインペリアル・オイル("Imperial Oil", 現エクソン)で 働いたことが語られています。それが「苛立たしい夏」の経験です。

I also tried to get Fortran programs running on Imperial’s IBM 7010, since I sort of knew Fortran, certainly better than I knew Cobol, and Fortran would have been better suited for data analysis. It was only after weeks of fighting JCL, IBM’s Job Control Language, that I deduced that there was no Fortran compiler on the 7010, but the JCL error messages were so inscrutable that no one else had figured that out either.

また、Fortranの知識がCobolよりも豊富で、しかもFortranがデータ解析に適しているインペリアルのIBM7010でFortranのプログラムを動作させようとしました。JCL(IBMのJob Control Language)との数週間にわたる格闘の末に、私は7010にはFortranコンパイラがないと推論しましたが、JCLのエラー・メッセージは非常に不可解で他の誰もがそれを理解できませんでした。

カーニハンがJCLと格闘したのは1964年ですが、その20年後の1984年の僕も同じようにJCLと格闘して、 彼と同じように苛立たしい半年間を過ごしました。なので、ここの記述には非常に共感します。

When I returned to school for my senior year after this somewhat frustrating summer, I was still strongly interested in computing. There were no formal courses on computer science, but I did write my senior thesis on artificial intelligence, a hot topic at the time. Theorem provers, programs to play chess and checkers, and machine translation of natural languages all seemed like they were within reach, just requiring a bit of programming.

このやや苛立たしい夏の後、4回生のために学校に戻ったとき、私はまだコンピュータに強い興味を持っていました。コンピュータサイエンスの正式なコースはありませんでしたが、当時話題になっていた人工知能に関する卒業論文を書きました。定理証明、チェスやチェッカーをプレイするためのプログラム、自然言語機械翻訳は、すべて手の届く範囲にあるように見えたのですが、ほんの少しのプログラミングが必要でした。

この「当時話題になっていた人工知能に関する卒業論文を書いた」との記述は、 今現在、機械学習を使った卒業研究テーマに没頭している学部生や修士学生のみなさんと相通じるのではありませんか? 「定理証明、チェスやチェッカーをプレイするためのプログラム、自然言語機械翻訳は、すべて手の届く範囲にあるように見えた」とか 「ほんの少しのプログラミングが必要」との楽観的な見通しは特に(笑)

After graduating in 1964, I had no clue what to do next, so like many students I put off the decision by going to graduate school. I applied to half a dozen schools in the United States (not common among Canadians at the time), and by good luck was accepted by several, including MIT and Princeton. Princeton said that the normal time to complete a PhD was three years, while MIT said it would probably take seven years. Princeton offered a full fellowship; MIT said I would have to be a research assistant for 30 hours a week. The decision seemed pretty clear-cut, and a good friend, Al Aho, who had been a year ahead of me at Toronto, was already at Princeton, so off I went. It turned out to be an incredibly fortunate choice.

1964年に卒業した後、私は次に何をしたらいいのか分からず、多くの学生と同じように、大学院に行くことにしました。私はアメリカの六ダースほどの学校(当時のカナダ人には一般的ではなかった)に応募しましたが、幸運にもMITやプリンストンなど数校に合格しました。プリンストンによると、博士号を取得するには通常3年かかるが、マサチューセッツ工科大学 (MIT) では7年はかかるだろうといいます。MITは私は週に30時間研究助手をしなければならないと言いましたが、プリンストンは完全な奨学金を提供しました。決断はかなり明確だったようで、トロントで私より1年先にいた親友の Al Aho が、すでにプリンストンにいたので、私は出発しました。それは信じられないほど幸運な選択でした。

この「卒業した後、何をしたらいいかわからず、大学院に行くことにした」も不思議に現在と符合しているようでクスッと来ますね。 でもMITやプリンストンに合格してることから、カーニハンは学業は優秀だったんでしょうねぇ。 結局「楽して学位が取れる」というのが決断の理由だった(笑)

しかし、MITとプリンストンを両天秤にかけられる人って…

In 1966, I got lucky again, with a summer internship at MIT, thanks in part to the fact that another Princeton grad student, Lee Varian, had done a great job there in 1965. I spent the summer using CTSS, the Compatible Time-Sharing System, writing programs in MAD (Michigan Algorithm Decoder, a dialect of Algol 58) to build tools for a new operating system called Multics, which we’ll come to in Chapter 2. (Multics was originally spelled MULTICS, but the lower-case version is less visually jarring; as with UNIX versus Unix and some other all-caps words, I'll use the nicer-looking form even though it’s not historically accurate.)

1966年、私は再びマサチューセッツ工科大学で夏のインターンシップを経験するという幸運に恵まれました。これはプリンストン大学の大学院生である Lee Varian が 1965 年に同大学で素晴らしい仕事をしたことが一因です。私はこの夏、CTSS(Compatible Time-Sharing System)を使用して、MAD(Michigan Algorithm Decoder、Algol58 の方言)でプログラムを作成し、Multics という新しいオペレーティングシステムのツールを構築しました。これについては第2章で説明します(Multics は元々 MULTICS と綴られていましたが、小文字バージョンの方が視覚的に不快感が少ないです。歴史的には正確ではありませんが、UNIX vs Unix や、その他のすべて大文字の単語と同様に、見栄えの良い形式を使用します)。

カーニハンの院生としての最初のインターンシップはMITで、なんと学生の頃から Multics の開発に参加していたんですねぇ。 ここで登場する CTSSMAD) は ELIZA の開発環境でもあります。 1969年あたりに Multics の学内リリースが始まるまでは、 このCTSS+MADがMIT学内の標準的なプログラミング環境だったのでしょうか? *5

My nominal boss at MIT was Professor Fernando Corbato, “Corby” to everyone, a wonderful gentleman, the creator of CTSS, and the person in charge of Multics. Corby won the Turing Award in 1990 for his fundamental work on time-sharing systems. He died in July 2019 at the age of 93.

MITでの名目上の上司は、フェルナンド・コルバト教授でした。誰もが “Corby” と呼び、素晴らしい紳士であり、CTSSの作成者であり、Multicsの責任者です。 Corbyは、1990年に、タイムシェアリングシステムに関する基本的な研究でチューリング賞を受賞しました。彼は2019年7月に93歳で亡くなりました。

In addition to leading the design and implementation of CTSS and Multics, Corby was the inventor of passwords for computer access. There had been little need for such a thing with batch computing. but some security mechanism was necessary to protect private files on a time-sharing computer with a shared file system.

Corby は、CTSS と Multics の設計と実装をリードしただけでなく、コンピュータアクセス用のパスワードの発明者でもあります。バッチ・コンピューティングでは、このようなことはほとんど必要なかったのですが、共有ファイルシステムを持つタイムシェアリングコンピュータ上のプライベート・ファイルを保護するには、いくつかのセキュリティメカニズムが必要でした。

I still remember both of the short pronounceable passwords that were automatically generated for me while I was at MIT in the summer of 1966. Two passwords were needed, not one, because one day during ne summer a mixup caused the file that stored the passwords to be exchange with the file that held the login message of the day. Since passwords were stored unencrypted, everyone who logged in got to see everyone else's passwords.

1966年の夏にMITにいたときに自動生成された短い発音可能なパスワードを今でも覚えています。初夏のある日に混乱が起こり、パスワードを保存したファイルがその日のログインメッセージを保存したファイルと交換されたため、パスワードは一つではなく二つ必要でした。パスワードは暗号化されずに保存されていたため、ログインした全員が他の全員のパスワードを見ることができました。

今日のアカウントの概念を発明したのも Multics だったのですねぇ。 しかし「パスワードは暗号化されずに保存されていたため、ログインした全員が他の全員のパスワードを見ることができた」とは…

My office, which I remember as being unshared, belonged to Professor Joseph Weizenbaum, but he was away for the summer. Early in 1966, Weizenbaum had published a description of Eliza, a program that simulated a dialog with a Rogerian psychologist. Eliza was one of the first attempts at using natural language to interact with a computer. It was surprisingly effective, at least when first encountered, and I enjoyed showing it off to visitors. There are plenty of Eliza simulators on the web today; it’s still entertaining to play with them for a few minutes, though their weaknesses quickly become evident.

私の研究室はジョゼフ・ワイゼンバウム教授のものであったことを覚えていますが、彼は夏の間不在であったのでオフィスを共有していたわけではありません。1966年初頭、ワイゼンバウムはElizaについての論文を発表しました。Elizaとは、ロジャース学派の心理学者との対話をシミュレートしたプログラムです。Elizaは自然言語を使ってコンピュータと対話する最初の試みの1つでした。少なくとも最初に出会ったときは驚くほど効果的で、訪問者に見せるのも楽しかったものです。今日、ウェブ上にはたくさんのElizaシミュレーターがあります。相手の弱点はすぐに明らかになりますが、数分間一緒にプレーするのは楽しいです。

なんとカーニハンはワイゼンバウムの夏季休暇の際の研究室の留守番役をしてたのですね。 この時点で既に ELIZA は人気の自然言語処理ソフトウェア(=ゲーム)であり、 ワイゼンバウムが不在でも訪問客が跡を立たず、代わりに若きカーニハンがデモをしていたということですか。

ELIZA: Please tell me what’s been bothering you.
YOU:   I’m trying to write a book about Unix.
ELIZA: Is it because you are trying to write a book about unix that you came to me?
YOU: Yes.
ELIZA: You are sure.
YOU: Yes.
ELIZA: You seem to be quite positive.
YOU: Yes.
ELIZA: I see.

ELIZA: 何が気になっているのか教えてください。
YOU:   Unixについての本を書こうとしています。
ELIZA: unixについての本を書こうとしているから私のところに来たの?
YOU:   はい。
ELIZA: 本当に?
YOU:   はい。
ELIZA: あなたはとても前向きなようですね。
YOU:   はい。
ELIZA: わかりました。

これ、デフォルトのスクリプトで動くんだろうか?

In the summer of 1967, I got the ultimate piece of good luck: an internship at Bell Labs in Murray Hill, in the Computing Science Research Center, working for Doug Mcllroy (Figure 1.4). Doug suggested that I explore some problem in evaluating memory allocators, one of his long-term interests. In the best intern tradition, I bumbled around and eventually did something completely different, creating a library of functions that made it convenient to do list processing in Fortran programs. I spent the summer writing tight assembly language for the then-current big computer at Murray Hill, a GE 635, which was in effect a cleaned-up and more orderly IBM 7094, but also a simpler version of the GE 645 that had been specially designed for Multics. That’s pretty much the last time I wrote assembly language. but even though what I was doing was fundamentally misguided. it was a blast and it hooked me completely on programming.

1967年の夏、私は最高の幸運に恵まれました。Murray Hillにある Bell Labs の Computing Science Research Center でのインターンシップで、Doug Mcllroy (図1.4) のために働いた。Dougは、彼の長期的な関心の1つであるメモリアロケーターを評価する際に、いくつかの問題を検討することを提案してくれました。インターンとしては最高のやり方で、いろいろと試してみましたが、最終的にはまったく違うことをして、Fortranプログラムでリスト処理をするのに便利な関数のライブラリーを作りました。私は夏を過ごして、当時現在の大きなコンピュータ、マレー・ヒルのきついアセンブリ言語を書いて過ごした頃、GE635は事実上片付けられ、より整然としたIBM7094でしたが、Multicsのために特別に設計されたGE645のもっと単純なバージョンもありました。私がアセンブリ言語を書いたのはこれが最後ですが、私がやっていたことは根本的に見当違いでした。これはすごいことで、私はすっかりプログラミングに夢中になってしまいました。

この「Fortranプログラムでリスト処理をするのに便利な関数のライブラリーを作った」との記述は、 ワイゼンバウムのMITでの最初の成果である SLIP) の実装を思い出させます。 カーニハンやワイゼンバウムに限らず、 リスト処理を念頭においた拡張ライブラリはこの時代の定番の研究テーマだったんでしょうかね?

それから、1967年の夏はベル研でのインターンシップを努めたとの事ですが、であればカーニハンはデニス・リッチーと事実上の同期だったようですね。 リッチーはハーバードからカーニハンはプリンストンから、1967年にベル研にインターンシップにやってきて、そのままベル研に就職したということですか。 もちろん二人とも学業優秀の秀才な訳ですが…彼らだけでは Unix はできなかったように思えてしまう。



ではケン・トンプソンはどういう経緯でベル研にやってきたのでしょうか? それはこの本の別のところに書いてあるようです。

以上

*1:Unixにも「目障りな敵は片っ端からやっつける」というヤンチャな時代があったという話。 1980年代にコンピュータを始めた僕らの世代には大きなカルチャー・ショックで、 その悪態ぶりのカッコよさに憧れて当時の僕は思わず飛び付いた感じだったのですが、 その後存在そのものが巨大化してしまいましたからねぇ。

*2:コマンド "awk" の K の人としても有名ですよね?

*3:カーニハンぐらいになると、どんな出版社でも書籍化に動くだろうにねぇ。 なんでまた KDP を使ったのだろうか?

これの日本語版の版権もカーニハン自身と交渉するのだろうか?
そんな奇特な出版社はあるのかなぁ?

*4:だから『Unix考古学』も書けた

*5:もちろん AILab は LISP を使っていたのでしょうが…

報告:ミニ勉強会

報告が遅くなってしまいましたが…
下記で告知した勉強会を開催しました。

告知(4)ミニ勉強会 - "Truth of the Legend" Notes

今回は京都ノートルダム女子大学が定例で行っている教員向けの研修会の時間をお借りしたこともあって、 勉強会の告知は幹事の吉田智子先生にお任せしたのですが、学外からの参加者もあって(僕的には)盛況だったように思います。

connpass.com

www.facebook.com

吉田先生から facebook に概要報告が出されてますが、 僕も「今回の勉強会では得る事が多かったな」と思っているところなので、 ここでは僕の個人的な感想(やその場では話せなかったこと)を書いておこうと思います。


今年はAIの社会実装の具体的なテーマとして「対話」が注目される

当日、僕はこのような予言めいた発言をしました。 「根拠は?」と問われると途端に口籠もっちゃうのですが、 平たく言えば業界40年の古狸の直感とでも言いましょうか(笑)

幾つか状況証拠をあげると…

  • 昨年の夏 "Chatbots Magazine" なるウェブ雑誌を見つけた。
  • 「チャットボット」や「人工無能」を銘打ったスマホアプリをチラホラ見かけるようになった。
  • 最近「チャットボット」だけでググるとやたら広告が表示される。

で、極め付けが国税庁の「税務相談チャットボット」です。

www.nta.go.jp

これ、チラッと触ってみたのですがね。

「この全く対話のないチャットボットってどうよ?」

というのが率直な感想。

こういう「それっぽい見かけ・体裁は整えてるけど、本来の主旨に沿った中身がない」事例が出てくる時、 誰かの作為が働いている…っていうか(お金儲けの)匂いがプンプンしてくるのですねぇ、僕は。つまり…

「チャットボットの商業活用のトレンドが本格化し始めている」

って感じてます *1

ローブナー賞 の 2000年、2001年、2004年の覇者である Alicebot(正式には A.L.I.C.E. (Artificial Linguistic Internet Computer Entity) ) の技術を使って構築された、チャットボット・ホスティング・サービス pandorabots が立ち上がったのは10年ほど前ですが、 前述のハイプサイクルに登場する AI PaaS を具体的にイメージすると この種のチャットボット構築サイトのように僕には思えます。 こういった目的限定型の PaaS(汎用スクリプト言語開発環境+目的に特化したAPI) が整備されるようになったことも(商用の)タスク限定型チャットボットの隆盛に一役買ってるのでは無いでしょうか? もっとも、今年レイズしそうなのは「力づくで無理やり流行らす」動きなんじゃないかと思うのですけども…

なんで…

ブームが本格化する前に「俺、2年前からチャットボットやってますけど、ブームとはあまり関係ない気の長い話ですからね」 って言っとかなくちゃと思ったのです。それが「1月に勉強会をどうやってもやっておきたかった」理由の1つ。


「何故、特定話者との傾聴対話なのか?」

勉強会では例によって僕が時間いっぱいくっちゃべり続けたので、 受け付けた質問は1件だけ。それが「何故、特定話者との傾聴対話なのか?」でした。

確か社会心理学の先生(すいません、お名前を失念してしまいました)だったと思うのですが、 「人間は他の2者の会話を見聞きして言語や会話を習得するというのが一般的な理解だが、 何故特定話者に着目するのか?」という質問だったと僕は記憶しています。 その場では seq2seq などの研究事例を踏まえ 「現在の自然言語処理研究でも『他の2者の会話を見聞きして』のアプローチが主流派だと思う」 と答えたのですけども、正直いうと自分の取り組みを、このような視点で考えたことがなかったので、 思わぬ「眼から鱗」の機会となりました。この指摘を受けただけでも勉強会をやった甲斐がありました。

勉強会でも少し触れましたが…

そもそも「認知症を患ってる母親を楽しませる返事をスマートスピーカーが返せないか?」という命題から対話システムに関心を持った僕にとって「会話=相手の話を丁寧に聞く=傾聴」だったので、暗黙のうちに「特定の話者との会話」を想定していたのですが、考えてみれば自然言語処理研究における対話システムとは「機械による自然言語やそれによる会話の習得」が第一義であることは自明です。つまり僕は「よく似てるけど目標が全く違う」テーマを追っかけていたわけです。

誰かから聞いた話によると「Google 翻訳に機械学習の技術を取り込むために開発した」 と言われている seq2seq は一般的な(自然)言語処理に広く活用できるとか。 「人間の発言に機械が応答する」チャットボットも seq2seq が応用できる技術分野なんだそうです。 ちなみに話題と少しズレてますが「機械学習の技術をチャットボットに応用する」テーマで わかりやすい説明が見つかったので、次に貼り付けて起きます。

qiita.com

今日の自然言語処理研究は既に統計学的アプローチが主流になっているそうですし、 上記のような具体的な手段が提示されていることから、この流れが益々拡大していくだろうと思います。 が、そこで問題になるのが機械学習ではお決まりの学習データ、すなわちコーパスの収集ということになります。 「対話」を学習するとなると「対話型のコーパス」が必要になりますが…最近ではググっると結構見つかったりします。

sites.google.com

あるいはこんなカタログもあります。

lionbridge.ai

例えば、対話のためのアルゴリズムを開発したり、 (ご指摘のあった)人間どおしの(基本的な)対話を習得するには、 これらの対話コーパスから始めるのは順当だと僕も理解しているのです。

でも…

僕が考えている傾聴ような「誰かに寄り添うような対話」を学習するという条件になると (自然言語処理の研究領域に納まるのかどうかわかりませんが)もっと上のレイアまで包含してるように思えます。

傾聴対話では対象となる人物の発言に注意深く耳を傾けることが求められます。 つまり平たく言えば「会話する」のと「お話をうかがう」の違いと言いましょうか。 以前「クライアント中心療法とは?」でも書きましたが、 ロジャース学派の対話術では、患者に対して「ひたすら肯定的に応対する」ことが求められますが、 同時に「対話を通じて患者からの信頼をより深めていく」ことも求められます。 このような話術を実践することは、実は人間でも非常に難しいのです。 そこで、このような傾聴対話が学習できるコーパスを探さなければならないと考えてきました。

その1例として見つけたのが、勉強会でも紹介した吉田さんの『ルート訪問記』です。 これは1990年代の連載当時、人気を博した彼女のインタビュー記事です。 国内で急速にインターネットが普及しつづあった当時、 その担い手であったネットワーク管理者の諸氏を相手に、 巧みな話術を駆使して「本当は喋っちゃいけない」事柄まで聞き出しちゃうという掟破りの連載でした。 ここで語られている内容は今ではいささか古びた技術トピックなんですけども、 傾聴対話のコーパスとしては十分に役立つように考えています *2

ちなみに、この種の有名な事例としては阿川佐和子さんの『聞く力』があります。

books.bunshun.jp

面白い感想文も見つけたのでそれも添えて紹介しておきます。 要約が、僕の「クライアント中心療法」の解説とよく似てるかも?

阿川さんの対談集も傾聴対話の良いコーパスになりそうですが、 版権が問題になりそうですねぇ。 ちなみに吉田さんの『ルート訪問記』は全文タダ *3で読めます。

最後に…

実は、この種の傾聴対話の研究ってあまり聞かないなぁ…って思ってたのですがさにあらず。 Wikipedia英語版で下記のページを見つけました。

en.wikipedia.org

人工共感(AE: Artificial Empathy)とは、人間の感情を検知し、それに反応することのできる、コンパニオンロボットなどのAIシステムの開発である。 科学者らによると、この技術は多くの人々から恐怖や脅威と受け取られているが、 医療分野のような感情的な役割を担う職業においては、人間よりも大きな利点を持つ可能性もあるという。

この要約、母親と対話する度に凹んでる今の僕には非常に実感的な説明です。 確かに「思い入れや感情が無いことが明確にプラスに働く仕事」もあるんだよなぁ…しみじみ思う今日この頃です。

以上

*1:…っていうことで、久しぶりにガードナーのハイプサイクルを見てみました。

ハイプサイクルは世界的なシンクタンクであるガードナーが毎年夏頃に公表する技術トレンドの分析 です。早い話がIT業界のトレンドレポートで、どちらかと言えば「以降1年間のトレンドを作り出す」側面が強くて、 IT企業は各社とも企画セクションの要員は必ずチラ見するような代物なんですがね。

2019年のハイプサイクルは下記のページで公開されています。

www.gartner.com

このパイプサイクルを見る限り「対話」はどこにも見当たらないのですが…

*2:勉強会のためにちょっと調べてみたのですが「なるほど」がもっとも頻繁に使われてました。 往年の吉田節を知る僕には文字通り「なるほど」の結果となりました。

*3:これも渋る編集者をゴネ倒して、全文公開を承諾させたのだとか…。 吉田さん、お手柄でした。