報告:ミニ勉強会

報告が遅くなってしまいましたが…
下記で告知した勉強会を開催しました。

告知(4)ミニ勉強会 - "Truth of the Legend" Notes

今回は京都ノートルダム女子大学が定例で行っている教員向けの研修会の時間をお借りしたこともあって、 勉強会の告知は幹事の吉田智子先生にお任せしたのですが、学外からの参加者もあって(僕的には)盛況だったように思います。

connpass.com

www.facebook.com

吉田先生から facebook に概要報告が出されてますが、 僕も「今回の勉強会では得る事が多かったな」と思っているところなので、 ここでは僕の個人的な感想(やその場では話せなかったこと)を書いておこうと思います。


今年はAIの社会実装の具体的なテーマとして「対話」が注目される

当日、僕はこのような予言めいた発言をしました。 「根拠は?」と問われると途端に口籠もっちゃうのですが、 平たく言えば業界40年の古狸の直感とでも言いましょうか(笑)

幾つか状況証拠をあげると…

  • 昨年の夏 "Chatbots Magazine" なるウェブ雑誌を見つけた。
  • 「チャットボット」や「人工無能」を銘打ったスマホアプリをチラホラ見かけるようになった。
  • 最近「チャットボット」だけでググるとやたら広告が表示される。

で、極め付けが国税庁の「税務相談チャットボット」です。

www.nta.go.jp

これ、チラッと触ってみたのですがね。

「この全く対話のないチャットボットってどうよ?」

というのが率直な感想。

こういう「それっぽい見かけ・体裁は整えてるけど、本来の主旨に沿った中身がない」事例が出てくる時、 誰かの作為が働いている…っていうか(お金儲けの)匂いがプンプンしてくるのですねぇ、僕は。つまり…

「チャットボットの商業活用のトレンドが本格化し始めている」

って感じてます *1

ローブナー賞 の 2000年、2001年、2004年の覇者である Alicebot(正式には A.L.I.C.E. (Artificial Linguistic Internet Computer Entity) ) の技術を使って構築された、チャットボット・ホスティング・サービス pandorabots が立ち上がったのは10年ほど前ですが、 前述のハイプサイクルに登場する AI PaaS を具体的にイメージすると この種のチャットボット構築サイトのように僕には思えます。 こういった目的限定型の PaaS(汎用スクリプト言語開発環境+目的に特化したAPI) が整備されるようになったことも(商用の)タスク限定型チャットボットの隆盛に一役買ってるのでは無いでしょうか? もっとも、今年レイズしそうなのは「力づくで無理やり流行らす」動きなんじゃないかと思うのですけども…

なんで…

ブームが本格化する前に「俺、2年前からチャットボットやってますけど、ブームとはあまり関係ない気の長い話ですからね」 って言っとかなくちゃと思ったのです。それが「1月に勉強会をどうやってもやっておきたかった」理由の1つ。


「何故、特定話者との傾聴対話なのか?」

勉強会では例によって僕が時間いっぱいくっちゃべり続けたので、 受け付けた質問は1件だけ。それが「何故、特定話者との傾聴対話なのか?」でした。

確か社会心理学の先生(すいません、お名前を失念してしまいました)だったと思うのですが、 「人間は他の2者の会話を見聞きして言語や会話を習得するというのが一般的な理解だが、 何故特定話者に着目するのか?」という質問だったと僕は記憶しています。 その場では seq2seq などの研究事例を踏まえ 「現在の自然言語処理研究でも『他の2者の会話を見聞きして』のアプローチが主流派だと思う」 と答えたのですけども、正直いうと自分の取り組みを、このような視点で考えたことがなかったので、 思わぬ「眼から鱗」の機会となりました。この指摘を受けただけでも勉強会をやった甲斐がありました。

勉強会でも少し触れましたが…

そもそも「認知症を患ってる母親を楽しませる返事をスマートスピーカーが返せないか?」という命題から対話システムに関心を持った僕にとって「会話=相手の話を丁寧に聞く=傾聴」だったので、暗黙のうちに「特定の話者との会話」を想定していたのですが、考えてみれば自然言語処理研究における対話システムとは「機械による自然言語やそれによる会話の習得」が第一義であることは自明です。つまり僕は「よく似てるけど目標が全く違う」テーマを追っかけていたわけです。

誰かから聞いた話によると「Google 翻訳に機械学習の技術を取り込むために開発した」 と言われている seq2seq は一般的な(自然)言語処理に広く活用できるとか。 「人間の発言に機械が応答する」チャットボットも seq2seq が応用できる技術分野なんだそうです。 ちなみに話題と少しズレてますが「機械学習の技術をチャットボットに応用する」テーマで わかりやすい説明が見つかったので、次に貼り付けて起きます。

qiita.com

今日の自然言語処理研究は既に統計学的アプローチが主流になっているそうですし、 上記のような具体的な手段が提示されていることから、この流れが益々拡大していくだろうと思います。 が、そこで問題になるのが機械学習ではお決まりの学習データ、すなわちコーパスの収集ということになります。 「対話」を学習するとなると「対話型のコーパス」が必要になりますが…最近ではググっると結構見つかったりします。

sites.google.com

あるいはこんなカタログもあります。

lionbridge.ai

例えば、対話のためのアルゴリズムを開発したり、 (ご指摘のあった)人間どおしの(基本的な)対話を習得するには、 これらの対話コーパスから始めるのは順当だと僕も理解しているのです。

でも…

僕が考えている傾聴ような「誰かに寄り添うような対話」を学習するという条件になると (自然言語処理の研究領域に納まるのかどうかわかりませんが)もっと上のレイアまで包含してるように思えます。

傾聴対話では対象となる人物の発言に注意深く耳を傾けることが求められます。 つまり平たく言えば「会話する」のと「お話をうかがう」の違いと言いましょうか。 以前「クライアント中心療法とは?」でも書きましたが、 ロジャース学派の対話術では、患者に対して「ひたすら肯定的に応対する」ことが求められますが、 同時に「対話を通じて患者からの信頼をより深めていく」ことも求められます。 このような話術を実践することは、実は人間でも非常に難しいのです。 そこで、このような傾聴対話が学習できるコーパスを探さなければならないと考えてきました。

その1例として見つけたのが、勉強会でも紹介した吉田さんの『ルート訪問記』です。 これは1990年代の連載当時、人気を博した彼女のインタビュー記事です。 国内で急速にインターネットが普及しつづあった当時、 その担い手であったネットワーク管理者の諸氏を相手に、 巧みな話術を駆使して「本当は喋っちゃいけない」事柄まで聞き出しちゃうという掟破りの連載でした。 ここで語られている内容は今ではいささか古びた技術トピックなんですけども、 傾聴対話のコーパスとしては十分に役立つように考えています *2

ちなみに、この種の有名な事例としては阿川佐和子さんの『聞く力』があります。

books.bunshun.jp

面白い感想文も見つけたのでそれも添えて紹介しておきます。 要約が、僕の「クライアント中心療法」の解説とよく似てるかも?

阿川さんの対談集も傾聴対話の良いコーパスになりそうですが、 版権が問題になりそうですねぇ。 ちなみに吉田さんの『ルート訪問記』は全文タダ *3で読めます。

最後に…

実は、この種の傾聴対話の研究ってあまり聞かないなぁ…って思ってたのですがさにあらず。 Wikipedia英語版で下記のページを見つけました。

en.wikipedia.org

人工共感(AE: Artificial Empathy)とは、人間の感情を検知し、それに反応することのできる、コンパニオンロボットなどのAIシステムの開発である。 科学者らによると、この技術は多くの人々から恐怖や脅威と受け取られているが、 医療分野のような感情的な役割を担う職業においては、人間よりも大きな利点を持つ可能性もあるという。

この要約、母親と対話する度に凹んでる今の僕には非常に実感的な説明です。 確かに「思い入れや感情が無いことが明確にプラスに働く仕事」もあるんだよなぁ…しみじみ思う今日この頃です。

以上

*1:…っていうことで、久しぶりにガードナーのハイプサイクルを見てみました。

ハイプサイクルは世界的なシンクタンクであるガードナーが毎年夏頃に公表する技術トレンドの分析 です。早い話がIT業界のトレンドレポートで、どちらかと言えば「以降1年間のトレンドを作り出す」側面が強くて、 IT企業は各社とも企画セクションの要員は必ずチラ見するような代物なんですがね。

2019年のハイプサイクルは下記のページで公開されています。

www.gartner.com

このパイプサイクルを見る限り「対話」はどこにも見当たらないのですが…

*2:勉強会のためにちょっと調べてみたのですが「なるほど」がもっとも頻繁に使われてました。 往年の吉田節を知る僕には文字通り「なるほど」の結果となりました。

*3:これも渋る編集者をゴネ倒して、全文公開を承諾させたのだとか…。 吉田さん、お手柄でした。