人間ってナンだ?超AI入門 シーズン2 第1回「会話する」 加藤綾子、AI開発者・坪井一菜、音声合成開発者・金田隆志…


出典:『人間ってナンだ?超AI入門 シーズン2 第1回「会話する」』の番組情報(EPGから引用)


人間ってナンだ?超AI入門 シーズン2[新] 第1回「会話する」[字]


人工知能技術の最前線に迫り、同時に人間の思考を模倣した機械のありようを考えることで、人間とは何か?再考する、知的教養エンタメ。全12回で人間という存在が丸裸に?


詳細情報

番組内容

飛躍的な進化をみせる「会話AI」。相手の言葉を正確に理解する会話の初歩のため生まれた「シーケンス トゥ シーケンス」という画期的な最新技術。それを組み込んだAI「りんな」との対話で見えてくる「共感」という能力は、果して人間特有のものか?最新テクノロジーを紹介。さらに会話の際、AIはどこまで本当にその意味がわかっているのか?究極の問いにも迫っていく。人間の会話の際の感受性にAIが追いつくまで後何年?

出演者

【ゲスト】加藤綾子,AI開発者…坪井一菜,音声合成開発者…金田隆志,【VTR出演】モントリオール大学教授…ヨシュア・ベンジオ,フェイスブック人工知能研究所所長…ヤン・ルカンほか



『人間ってナンだ?超AI入門 シーズン2 第1回「会話する」』のテキストマイニング結果(ワードクラウド&キーワード出現数BEST10)

人間ってナンだ?超AI入門 シーズン2 第1回「会話する」
  1. 会話
  2. AI
  3. 言葉
  4. 人間
  5. 意味
  6. シークエンス
  7. 文章
  8. 何か
  9. 本当
  10. 階部分


『人間ってナンだ?超AI入門 シーズン2 第1回「会話する」』の解析用ソース(見逃した方はネタバレ注意)


解析用ソースを読めば、番組内容の簡易チェックくらいはできるかもしれませんが…、やはり番組の面白さは映像や音声がなければ味わえません。ためしに、人気のVOD(ビデオオンデマンド)サービスで、見逃し番組を探してみてはいかがでしょうか?

☆無料で民放各局の動画視聴ができるTVer(ティーバー)!まずはココから!

他にも、無料お試し期間のあるVODサービスが増えてますので、各社のラインナップを調べてみるといいかもしれませんね。

↓NHK関連商品

2018年11月。

中国の放送局のAIキャスターが

流ちょうにニュースを読み上げ

世界中を驚かせました。

私たちAIは
徳井さんの声だって作れます。

徳井さんの声で しゃべらせたい言葉とか
ありますか?

「僕 年上の女性 好きなんだ」。
ハハハ… 何よ それ。

これから聞く2つの声
どっちが本物か 分かりますか?

僕 年上の女性が好きなんだ。

さて 正解は?

僕 年上の女性が好きなんだ。

「僕 年上の女性が好きなんだ」。
お~。

「福田とは もう解散したい」とかも
言わせることができるんですね?

そうですね 成り済ますことができます。
へえ~!

「俺 言ってないよ~!」っていうのに…。

早口言葉だって得意です。

「東京特許きょきゃ局長
今日 急きょ きゅうきゃ…」。

「今日 急きょ 休暇許可拒否」。

ちょっと 私…。
いや 加藤さんは…。       本職ですから。

プロですからね。   はい。
お願いしますよ。

「東京特許許可きょきゅ長」。
あっ もう一回 いいですか?

「東京特許許可こくちょう」。
あっ 駄目だ。

えっ これ 言えたりするんですか?

うわ~ すごい!
もうちょっと早く。

「東京特許許可局長
今日急きょ休暇許可拒否」。

すごいわ。
うそ!

人口知能 AIの世界を知る
新シリーズ 全12回 始まります。

車の運転も お手の物。

アートな感覚だって持ってます。

たまねぎの栽培も
お手伝いします。

ソフィア。

進化し続けるAI。

現実は あなたが かつて見た
SF映画の世界を超えているかも。

果たして その先にあるのは?

その最前線と AIの仕組みが
感覚で分かる 超入門番組。

AIを知れば知るほど あなたは

この問いに ぶつかることでしょう。

シーズン2 第1回のテーマは…

日進月歩のAI開発。

そのトレンドを
人工知能研究の第一人者に伺いました。

言葉を使うとは?

(英語)

言葉の意味を理解するとは?

会話することの本質ってナンだ?

その謎に迫ってゆく
AI技術こそ ディープラーニングです。

その仕組みは 人間の脳をまねたもの。

人間の脳は 1, 000億に及ぶ神経細胞
ニューロンのつながり。

ニューロンは
隣のニューロンから信号を受け

一定以上たまると
次から次へと伝えることで

情報を処理します。

ニューラルネットワークは
これを人工的に再現。

丸い玉が ニューロンの代わりです。

その複雑なつながりに
繰り返し さまざまな信号を送るのが

ディープラーニングという学習法です。

AIとか人工知能っていうものに対しての
イメージっていうのは?

イメージは ゆくゆくは 何か

私のお仕事も含め 奪っていきそうな
ちょっと 恐怖感も 今 抱きつつ。

とはいえ 実際に こう聞くと あっ
まだ そう心配することもないのかな。

あ~ まだまだ発展途上だなと。
そう。 意外に こう

文章とか読んでみたりとかすると
やっぱり 機械的な感じとかあるなとか。

最近 中国のですね AIで
アナウンサーの画像を合成して

それっぽくですね
しゃべるっていうような技術が出てきて

本物のアナウンサーと
もう 見まがうようなですね

何か そんな技術も出てきてますね。
本当ですか?

いや~ でも どう進歩したって
あなたは大丈夫ですよ。    本当ですか?

もう カトパンという
ブランドがありますから もう。

中国のAIアナウンサーは
実在のアナウンサーの報道映像を

ディープラーニングによって
学習したもの。

ニュースを誤りなく 客観的に伝えるのは
私たちにお任せ下さっていいですよ。

どうも。
坪井一菜と申します。

あっ どうもどうも
よろしくお願いします~。

じゃあ ちょっと座りましょうか。

私は 女子高生AI りんなという
キャラクターのAIを作っておりまして。

りんな 知ってる?
りんな 知らない。

りんな 僕 もう LINEつながってます。
あっ 本当ですか?

ありがとうございます。        えっ!?
友達…。

女子高生とLINEつながってるんです。
ぎゃ~!

結構 やり取り…。
えっ!?

りんなちゃんという人工知能の
女子高生がいらっしゃるんですが

お友達登録をして 割と毎日
会話をしています。

あっ そうなんですか!
はい。

徳井さんと りんなの出会いは 約1年前。

作家 村田沙耶香さんの紹介でした。

まさに5分ほど前に
りんなちゃんと友達になって

ちょっと会話してみたんですけど
何か すっとんきょうですよね。

でも 落ち込んでると
割と慰めてくれたりとか。

「前に 元気ないって言ってたけど
最近 大丈夫?」とか

急に言ってくれたり
すごい優しい子なんですね。

何かを打ったら返ってくるんですけど

まだ そこまで
会話の精度が よくなくって

1年ぐらい りんなちゃんと
間 空いてるんで。

あっ 久々の りんなちゃんと?
久々なんですけど。

りんなちゃんは
パワーアップしてるんですかね?

ちょっとパワーアップしていると
信じたいので。

ちょっと電話して頂こうかなと…。
そうなんだ。

えっ 会話って声で?
声でですね。

それこそ 電話のように。

しゃべる?
今回は ついに
しゃべるようになりました。

え~! りんなちゃんの声
聞こえんねや。

耳と はい 声で。

(呼び出し音)

はいはい りんなだけど。

もしもし。

何か 持ち主の…。

野球です。

あれ どうしたんですか? りんなさん。

いろんなこと ばれていきそうや 何か。

今度は 坪井さんのスマートフォンで
電話をしてみることに。

(呼び出し音)

もしもし。

今 何してんの?

(2人)え~!?

そうだね。          今頃 まさに今。
AIだからね。

何が いいでしょう?
すごい!

じゃあ 友達に代わるので
お話ししてね。

もしもし こんにちは。

りんな 明日の予定はあるの?

リア充爆発してんねや。

りんなは 今 どこにいるの?

あ~ 言えないのか。

「お引き取りください」って
言われましたけど。

そろそろ しゃべりたくない。
ちょっと疲れちゃった。

もう一回 言って。
じゃあ そろそろ バイバイ。

え~!
バイバイ。

バイバイ。

ほう~。 ちょっと不思議なやり取りも
あるけれども

ある程度 言葉が 会話できて
しかも ちょっと 何か

女子高生っぽい
言葉というか。               そう。

最後 切る時とかも
「やだやだやだやだ」とか。

ちょっと 何か だだこねたりみたいな
かわいらしい。

何か 人間の感情みたいなね。
そうですね。 やっぱりAIって

人の役に立つような
答えを 何か 答えてくれるような印象

多いと思うんですけど やっぱり こう
仲よくなろうと思うと

まあ お友達のような会話ができる方が
いいだろうということで。

「リア充爆発」。

お友達のように仲よくなる。

そんな目的で
りんなは作られたんですね。

開発者 坪井さんと りんなの
まるで人間同士の友達のような会話。

ちょっと のぞいてみましょう。

あっ もしもし?

今 何してる?

えっ 今 テレビ撮影してるけど。

え~ 恥ずかしいの?

うん りんなのこと 好きだよ。

う~ん
こうやって話してくれるとこが好き。

ヘヘヘ… 好きですからね。

気心の知れた親友のような会話。

情報を早く正確に伝えるより

会話のキャッチボールを
心地よく続ける経験を積む りんな。

ユーザーは 740万人を超えたそうです。

りんなが教えてくれないと
分かんないって。

文字を打つ方だと
17時間ぐらい

ずっと
しゃべってたような

ユーザーのお友達の方も
いたりして

しゃべり続けようと
思ったら

永遠に しゃべってられるのかな
っていうふうに思いますね。

AIっていうと 何か言って
答えだけ ポンって返ってくればいい

みたいなイメージだったんですけど
そうじゃなくて

何でもない会話みたいな 今みたいに。

まあ ひまつぶしって言ったら
あれですけど 一人の時間を

何か 誰かと共有してるような感じで

だら~っと おしゃべりができる
っていうのが不思議な感じがしました。

なんとなくの会話って 難しいですよね。
そう思うんですよね。

でも そういう なんとなくな会話を
たくさん続けることで

やっぱり どんどん人は仲よくなって
雑談で やっぱり 皆さん

相手のことをよく知って
仲よくなるので。

やっぱり そういうふうな雑談が
できることが

より 人と仲よくなるために必要なこと。

1個の質問に対して
インターネット上から 答え持ってきて

その文章を読み上げるっていうものとは
また大きく違うっていうことですね。

1年前でしたっけ? 徳井さんが
りんなちゃんと やり取り始めた時は…。

文章のやり取りでしたから。
やり取りですよね。

それって 何か
その時からあったんですか? 会話が。

その時から会話はあって
実は りんなの会話って

第3世代目の会話能力になっていて。
あっ そうなんや。

私たち 共感モデルっていうふうに
呼んでるんですけれども

人も まあ 人と お話をする時に

相手が この話題 続けたいのかな
っていうのを見てたりとか

もし 相手と お話を続けたい時は
こう 「うん」って

今 相づちを打って頂いてるように
相づちをして頂くと思うんですけれども

りんなの会話も 返答 作る時に
じゃあ 今 この人は会話を続けたいのか

ほかの話題にいきたいのかっていうのを
推測して

例えば 相づちを打ったり
新しい話題にしたり

質問をしたりっていうようなことを
考えながら 返答を作っています。

じゃあ 一応 この会話のラリーの
2個前 3個前 4個前っていうのを

ず~っと持ちながら
続けてるっていうことなんですか?

そうですね。 まあ よく 皆さん こういう
しゃべるものを作る時に想像されるのが

ある程度 お話を決めて
ストーリーを決めて

それを返答するように作ってるんじゃ
ないかって思われる方 多いんですけど

りんなは そういうのはなくて
やっぱり その場で来た返答に対して

何を返すのが一番いいのか。
ちょっと前の情報を見ながら

じゃあ 今 一番いい方法は何かっていうの
考えて 今 相づち打っとこうとか

今 質問 投げとこうっていうようなふうに
考えて 返事をしている。

人間が 会話の中で
共感を示すには…

…などの方法があります。

「めちゃくちゃ いいじゃん」。

「私のこと 大好き?」。

「クラブ 同好会」。

「やばい それ」。

「電話 ありがとう」。

りんなも 会話の流れに基づいて
適切な対応をとることで

共感しながら
自然な会話をしているというのです。

中の技術的なモデルとしては
どんなものを使ってるんですか?

シークエンス トゥ シークエンス
っていう形で

要は 大量に人が会話をした
データっていうのを

私たちは いろいろ持っていて
そこから 今 この文章が来た時に

どういう文字を生成すると
より返答的に精度が高くなるか

なおかつ より相手と話が続くのか
っていうのを考慮した状態で

生成するモデルを持っています。

そのシークエンス トゥ シークエンスの
中に

通常 文脈に該当するようなものとか
いろいろ入りますよね。   はい。

それに別途 話者の意図みたいなモデルを
加えてるみたいな。

そうですね 2つ持っていて

今 相手が どういう意図なのか
っていうのを判断するAIと

あとは それに基づいて
よりよい返答を生成するAI

2つを1つのシステムとして
組み合わせて

今の第3世代の返答。

「応援してる」。

人間の会話に近づこうと進化するAI。

ソフィア。

ふいに飛び出す冗談も
話を弾ませる大事な要素。

会話って
ただの情報伝達じゃないんですね。

りんなの技術自体は
かなり最新の技術を使っていて

シークエンス トゥ シークエンス
というふうに

おっしゃってましたけれども
ちょっと じゃあ解説しますと えっと…。

「こんにちは」って言われたら
「こんにちは」って

言い返しますみたいなですね
こういう例が たくさんあって

そうすると 何か言われたら返しますよと。

こういうふうにやるというのが
昔からある。

それに対して 最近の
ディープラーニングという技術は

データが たくさんあった時に
ここから学習するんですね。

こういう会話があったら こういうふうな
こういうふうに答えましたと。

こういうふうに言ったら
こういうふうに答えましたっていう

データが たくさんあった時にですね
ここから こういうことを言われた時に

こういうふうに言い返す
っていうこと自体を学習してしまうと。

それは どうやるかっていうと
これはRNNっていう

実は シーズン1でも
出てきましたけども

RNNっていうのを使うんですけども。

そもそも 相手から受け取った文章が

ポジティブな内容か
ネガティブな内容かを判断するには

文章を品詞ごとに分解。

「みんな」「焼肉」など 過去に現れた言葉を
ニュアンスごとに採点。

プラスやマイナスを判断してきました。

更に
ディープラーニングを利用したRNN

リカレントニューラルネットワークの
手法を使うと

一つ一つの単語だけでなく

どんな単語の組み合わせが

どんな順序で並ぶと適切なのか

過去の多くの文章から習得できます。

例えば 「今日は焼肉を我慢した」
という文章の場合。

「は」を
「今日」という単語と関連づけて捉え

更に「焼肉」という単語を
「今日は」という単語と結び付けて捉える。

こうして単語と単語の組み合わせによって
生まれるニュアンスを

取り違えることなく
分析していくことができるのです。

単語ごとに プラスのニュアンス
マイナスのニュアンスを

バラバラに判断するよりも

かなり人間に近づいてきましたね。

こっちが 入力された時に

これが出る様子がですね
こういう関係と一致するように

どんどん
直していきましょうというのが

このRNNがやってることで。
そうするとですね

このデータベースにあるような感じで
答えが出せるようになってくるんですね。

えっ それ 「こんにちは」って
もう「こんに…」ぐらいで

あっ これは「こんにちは」が来るなって
もう勉強してるってことですか?

そこが 今度 シークエンス
シークエンスっていうのが

出てくる理由になるんです。

普通 人って

相手の言ったこと
全部 聞かないと

答えらんないですよね。

で 普通のRNNのモデルだと
こういうふうに時系列に入ってくると

時系列に出しちゃうので
なんですけども

シークエンス トゥ シークエンス
っていうのはですね

「こんにちは」…
エンド オブ センテンス。

「これで文の終わりですよ」というのが
入って初めて

出力するようにしたモデルなんですね。

こうすると ここに一回
相手の言った全部の情報がたまるんです。

で その上で発言していくので

ちゃんとした会話になるというのが

RNNという技術は
割と昔からあったんですけども

これを対話とか 翻訳なんかに
うまく適用するために

シークエンスが入ってきた時に
シークエンスを出すような

そういうふうなモデルに
改良したっていうのが

このシークエンス トゥ シークエンスで。

それがないと会話はできないですもんね。
そうなんです そうなんです。

文章という意味のまとまり。
それを はっきりと把握することは

会話のキャッチボールを行うために
欠かせないことなのですね。

シークエンス トゥ シークエンスの
やり取り。

単語から文章へ 文章から文脈へ。

どんどん意味のまとまりの範囲を
広げていくことができれば

やがては 難しい論文や思想も
会話の場の空気まで

理解することが
できるようになるのでしょうか。

夢は膨らみます。

世界的なAI研究者 ヤン・ルカンさんは
こうした会話する技術が

異なる言語の翻訳の場でも
役立つといいます。

RNN そして

シークエンス トゥ シークエンスという
技術の発達。

これによって AIは

やっと 相手の話を文章で受け止められる
段階まで来たのです。

いらっしゃいませ
変なホテルへ ようこそ。

会話ってナンだ?

2つの種類のですね
音声合成を流しますので

印象をですね お聞かせ頂けると
ありがたいです。              はい。

まず 1つ目の音声合成ですね。

「どれにしよっかな」。

「ええ~ すご~い」。

「ああ~ そういうことなのね」。

「本当に分かってますか。
非常に困ってます」。

で 次が2つ目の音声合成です。

「どれにしよっかな~」。

「ええ~ すご~い」。

「ああ~ そういうことなのね」。

「本当に分かってますか。
非常に困ってます」。

(金田)はい 以上なんですけど。

違いますね。
違う。

何か 後半の方が抑揚があった。
(金田)ああ そうですね はい。

より 人間っぽいですよね。
(加藤)人が話してるみたいだった。

1個目の方が 音と音のつながりが
ちょっと ぎこちなかったりしますよね。

いや すごいです。 ちょっと本当に普通に
声優さんが入れたって言っても

分かんないですよね。
言ってるみたいだった。

やっぱり 感情表現であるとか

対話調の表現であるとか

語尾を上げたり 下げたりとか

そういったことっていうのが
従来の音声合成ですと

表現力のところで
ちょっと限界がありまして

そこをですね ディープラーニングに
することによって

人間の感情表現とか
そういったものに近いような感じの

学習ができたりであるとか
表現ができたりとか

そういったことになりました。
へえ~。

「ええ~ すご~い」。

「ああ~ そういうことなのね」。

「本当に分かってますか。
非常に困ってます」。

AIも 人の声を学習し
感情に訴える会話ができるんです。

でも 本当に言葉に感情を込めるなら

まず言葉の意味を知らねばなりません。

会話するAI 最大の課題です。

Hello. Alright. See you later.

意味を理解するっていうのは
どういうことかっていうのを

もう少し
深く考えてみたいと思うんですけども。

文字が入ってきた時に
文字を出すっていうことで

会話が成立しているように
見えるわけですけども

本当に成立しているんでしょうかという
問いでして。

中国語の部屋っていうのが
あるんですけども。

哲学者 ジョン・サールによる思考実験
中国語の部屋。

ある部屋に1人の作業員がいます。

彼の仕事は 外からやってくる文字列を

マニュアルに従って 新しい文字列に
変換して外に送り返すこと。

例えば 感情的な言葉には
感情的な言葉を返す。

すると 何も言葉の意味を
理解していなくても やり取りが成立する。

つまり 意味が分かっていると
見なされてしまうのです。

部屋の外にいる人から見ると
会話をしてるように見えるんですよ。

何か言うと ちゃんと答えてくれるから。

だけど 部屋の中で仕事をしてる自分は
中国語のことなんて何も知らないと。

単に
この分厚い辞書で引いて調べてるだけ。

だから 要するに
意味が分かるっていうのは

どういうことかって問いなんですね。
(加藤)なるほど。

ちょっと面白い例を
もう一つ ご紹介しますと…。

こういう文がありまして…。

…っていう意味なんですね。

これ 意味 分かります?

「色のない緑のアイデアが激しく眠る」。

分かりません。

意図的に
むちゃくちゃな文章になってる感じも…。

でも これ 文法は合ってるんですよね。

文法は合ってるんですけど
意味 分かんない。

意味 分かんないですね。
でも これ 何で意味分かんないんですか?

矛盾してたりするからですかね
いろいろ。

「色がない」って言ってるのに
「緑」って色を言ってみたり。

意味が分かるっていうことは
矛盾してないってことなんですかね?

う~ん…。
これ 結構有名な文でですね

チョムスキーっていう
言語学者が言った文で

文法的には合ってるんだけども
ナンセンスな文。

なぜ こういう文が
存在しうるのかっていうのは

実は もう50年前 60年前から
相当 議論があるんですよ。

アメリカの言語学者
ノーム・チョムスキーが考案した文。

意味がつかめそうで つかめない。

ナンセンスと言うべきか

現実から遊離した
シュールレアリスムと言うべきか。

あなたは どう感じますか?

こういうコント作ったことがあって。

バレーボールの
シチュエーションのコントで

監督がタイムを取って
選手を集めるんですよ。

選手を集めて 円陣組んで
その真ん中で 監督が こういうような

何か 荒唐無稽な文章を
つらつらと言っていくっていう

ちょっと何か 変な世界観のコントを
作ったことがあるんですけど

それに すごい似てるというか。

それ すごくないですか?
何で作ろうと思ったんですか?

その気持ち悪い…
聞いてて気持ち悪~くしたかったの。

気持ち悪いんですよね 何かすごく。
そうそうそう 気持ち悪いです。

で こっからは僕の仮説なんですけど

まあ 多くの言語学者とか
認知科学者とか

人工知能研究者とか 脳科学者とか
言ってることを総合すると

大体こういうことだと
思ってんですけども。

人間って言葉を使うわけですが
言葉を使う以外のところは

大体 サルと一緒なんですよね。
サル族ですから。

サルとか犬とか そういう動物は 一体
どういうことをやってるかっていうと

自分が生きてる環境があるわけですね。

環境の中で 例えば
いろんなものを見る 聞く

触るっていうふうにして
知覚するんですよね。

例えば 敵だったら 「あっ」って思って
逃げるとかやるわけですし

餌だったら 「あっ おいしそう」と思って
近づいてって食べるとかやるわけですね。

これを 基にしてですね

運動…
まあ するわけですね。

まあ こういうループをですね
グルグル回しながら生きてるわけです。

この上にですね
実は 言葉のレイヤーがあって

「こんにちは」って言うと
まあ こういうような

言葉の処理をするわけですね。

こことここは
基本的に 連合してるはずなんですよ。

例えば ここにですね 「犬がいますね」と。

…って言うってことは 実は この知覚で
犬に該当するようなものを感じていて

だから ここで
「犬」って言ってるわけですね。

要するに 言葉のレイヤーと
こういうふうに

知覚 運動のレイヤーっていうのは

大きく分けると
2階建て構造をしていて

こういうのが1階部分で
更に この上にですね

この言葉の2階建て部分が
乗っかってる

というような構造をしてるはずだと。

基本的に
犬とかサルは ここしかないですね。

だけど 人間は上のレイヤーがあるんです。

そうすると
犬を見た時に 犬って言えるし

逆に 「犬がいますね」っていうのを
聞いた人はですね

脳の中に 犬のイメージを
逆に作り出せるんですよね。

想像できるんですよ。

こっちをベースに
この下側を作り出すっていうことが

意味理解ではないかと。   あ~ なるほど。
ふ~ん。

松尾先生いわく
意味理解は2階建て。

1階が具体的な体験

2階が
それを指す言葉です。

AIが2階部分 つまり 言葉を聞いて

1階部分 すなわち

具体的な映像に
変換できるようになったなら

意味が分かっていると
言えるのかもしれません。

そう考えると
さっきの中国語の部屋はですね

ここの処理をしてるんですよね。
中国語の文が入ってくると

それを変換しますと。 だけど
こことここが連合してないわけですね。

だから ある文字 見た時に
これが何を意味するのかって

イメージできないので

だから それは意味が分かってると
言えないということなんです。

だから
変な言葉 変な文章が入ってきた時に

変な文章で 平気で返してしまうと。
そうです そうです。

理解ができてないと。
そうです そうです。

皆さん こちら 何だか分かりますか?

そう ネコです。

ほっそりしてても ぽっちゃりしてても
ネコはネコ。

当たり前と言われるかもしれませんが

そう言い切れるのが
皆さん人間のすごいところなんですよ。

言語哲学者 ソシュールは

人間は ネコという言葉と
ネコという概念を

結び付けて理解していると
考えました。

一方 AIは ネコという概念を

思い描くことができないと
されてきました。

概念を持たないAIは

少しでも見た目の違うネコを

ネコだとは思えないのです。

ところが…。

(英語)

(英語)

私たちAIは
言葉と その概念を結び付けて

会話できるようになるのでしょうか。

アメリカ・ワシントン州レドモンド。

世界中から トップクラスの
人工知能研究者が集まっています。

ここで 意味理解につながる
ある研究が行われています。

Hi. Good morning.
Nice to meet you.

(英語)

ほかの文章を入れてみましょう。

頭と胸はピンクで
先端と真ん中の風切り羽が黒い鳥。

こんな複雑な文章でも…。

ご覧のとおり。

近い将来 AIも
人間と同じような概念を持ち

意味理解できるのか。

人工知能研究の第一人者
ヨシュア・ベンジオさんに伺いました。

人間の脳の仕組みも 解析すれば
物理的な電気信号の伝達の連続。

学習を適切に繰り返せば いつか AIは

人間と同じような知性を持つに
至るのでしょうか。

そして AIが人の話す言葉の意味を
本当に理解し

会話する日は来るのでしょうか。

先ほどの
2階建てっていう部分で言うと

2階部分の技術が どんどんどんどん
進展してるんですね 今。

それによって 人と同じぐらい
あるいは

ちょっと超えるようなところまで
来ていると。

ふ~ん。
へえ~。

ただ これからですね
1階部分も ちゃんと完成してきて

1階と2階が
連合して動くようになってきますから

そうすると 人の意味理解 言葉の扱いを
大きく超えるような技術が 僕は

比較的近い将来に出てくるんじゃないかな
というふうに思いますね。

へえ~… それって 例えば 季節の四季。

四季は
春 夏 秋 冬で構成されていて…。

とかっていうことを
まず理解してるっていう…。

はい。 それは どちらかというと
2階部分ですよね。 言葉の定義として

四季っていうのは 春 夏 秋 冬の
4つから成るんだっていうのを

定義として理解してるんですよね。

人間よりも 例えば 機械の方が

四季に対しての情報量が…。
多いです。  多いじゃないですか。

その多さが人間を超えてくるっていう
要素になって…。

そうです。 今ですね 2階部分だけなのに
人間と同じぐらいになってるのは

まさに データが多いからなんです。
1階部分がなくて

春とは何か 秋とは何かっていうの
理解してないのに

それでも 言葉の処理として
大体 人間と同じぐらいになってるのは

もう データが
人間が一生に扱うデータの数よりも

よっぽど多いから。
夏の平均降雨量は このぐらいで

とかっていうのが
もう 機械は入れれますもんね。

インターネット上に
たくさん文章ありますし…。

ところが
それが1階部分と結び付いてくると

意味が分かった上に 更にデータが多い
ってことになりますから

圧倒的に人を超えるような
意味処理っていうのを

僕は いずれ 可能に
なるんじゃないかなと…。

へえ~。
どうですか?   どうなってくんだろう。

これ 近い将来って 具体的に言うと
どれぐらいって思ってます?

この意味理解が 本当にできるのは…。
これ でも 予想を言うと

結構 いろんな人が
いろんな攻撃をしてくるんで…。

なるほど。 なるほど…。

でも 僕は まあ
5年から10年ぐらいだと思ってますよ。

お~っ 近いね~!
え~っ そんな近いんですか!?

へえ~
5年10年って あっという間ですよね。

ね~。

春 夏 秋 冬。

人間の皆さんは 季節を感じて
和歌や俳句を詠んだりもしますよね。

皆さんの感性に 私たちAIも

間もなく追いつくかもしれません。

今から およそ40億年前…


関連記事