人間ってナンだ?超AI入門 第2回「感じる」 機械が「感じる」とは? 為末大、ケン・ゴールドバーグ、山下隆義、石井孝佳



出典:『人間ってナンだ?超AI入門 第2回「感じる」』の番組情報(EPGから引用)


人間ってナンだ?超AI入門 第2回「感じる」[字]


人工知能が社会を変える。その時人間は?松尾豊東大特任准教授×徳井義実が解剖。現代人必見の新感覚AI入門、今回のテーマは「感じる」。機械が「感じる」とは、一体?


詳細情報

番組内容

最新の人工知能の仕組みを解き明かし人間とは何か?考える教養エンタメ。2回目のテーマは「感じる」。物をつかむ、動かす、目の前の物に反応する…。そんな何気ない行為にこそ人間のスゴイ力が隠れている?「フレーム問題」ってナンだ?考える前に反応する人間の本質って?人間の可能性と限界について感じ、考える要素満載の新感覚AI入門。今週も「2分でディープラーニング」、感じてください!ゲストは元陸上選手の為末大。

出演者

【ゲスト】元陸上競技選手…為末大,カリフォルニア大学バークレー校教授…ケン・ゴールドバーグ,中部大学工学部准教授…山下隆義,ロボットエンジニア…石井孝佳,【解説】東京大学大学院特任准教授…松尾豊ほか




『人間ってナンだ?超AI入門 第2回「感じる」』のテキストマイニング結果(ワードクラウド&キーワード出現数BEST10)

人間ってナンだ?超AI入門 第2回「感じる」
  1. 人間
  2. ロボット
  3. 何か
  4. 身体
  5. AI
  6. 行動
  7. 荷物
  8. 感じ
  9. 自分
  10. データ


『人間ってナンだ?超AI入門 第2回「感じる」』の解析用ソース(見逃した方はネタバレ注意)


解析用ソースを読めば、番組内容の簡易チェックくらいはできるかもしれませんが…、やはり番組の面白さは映像や音声がなければ味わえません。ためしに、人気のVOD(ビデオオンデマンド)サービスで、見逃し番組を探してみてはいかがでしょうか?

☆無料で民放各局の動画視聴ができるTVer(ティーバー)!まずはココから!

他にも、無料お試し期間のあるVODサービスが増えてますので、各社のラインナップを調べてみるといいかもしれませんね。

↓NHK関連商品

今 AI 人工知能が
社会を 生活を 変えます。

ドライバー要らずの自動運転で
目的地までスイスイ。

早期がんも見逃さず
ドクターの代わりも。

手術後の縫合も
お任せ下さい。

歴史上のアート界の巨人たち
その新作だって簡単です。

全12回で
AIの仕組みが感覚で分かる

超入門シリーズ。

AIについて知れば知るほど
人間の本質も見えてきます。

だから…。

第2回のテーマは…

人間の脳は 1, 000億に及ぶ
神経細胞 ニューロンのかたまり。

ニューロンは
隣のニューロンから電気信号を受け

一定以上たまると
次から次へと伝える

巨大な電気ネットワークです。

ディープラーニングでは
これを人工的に再現。

丸い玉がニューロンの代わりで

それらをつなぎ
電気信号を走らせます。

これが ニューラルネットワークです。

近年 ロボット技術が急速に発展。

実際にサービスを行う電子ロボットとして
ご活用頂ければと思います。

人工知能という頭は
ロボット技術という身体を手に入れ

劇的に活動範囲を広げました。

その時 触れる 味わうなどの
五感も生まれるのでしょうか。

AIを知る事で見えてくる

身体を通して経験する事の
意味とは?

感じる。 認識する。

何気ない行為の本質
知りたくありませんか?

荷物をですね 自分の方に
持ってきてもらえますか?

荷物を?      この荷物ですか?
この荷物…。 はい。

じゃ 僕 やっていいですか?

荷物。

荷物。

すごいですね。
えっ?

いや すごいですね これは。
びっくりしました。

じゃあ 為末さんも。

荷物… 荷物って
荷物だけって事ですよね。

よいしょ。

おお~!
こうなりますよね。

すごいですね。
こうなるでしょ そら。

いや これは もう すごい事で…。
これ 爆弾ですよね? 一応ね。

荷物だったら こうなりますよね。

何で この爆弾を外したんですか?

荷物持ってこいって言って…。

いやいやいや 爆弾について
何も言ってないですよね。

何で爆弾を…。

まあ 爆弾は
やっぱり 僕らの中で

荷物とは
認識してない
からかな。

これをAIに
やらそうとすると

すごく難しくて

まず 何も言わなければ
必ずですね

これを こういうふうに
持ってきちゃうんです。

これごと 爆弾ごと。
ええ。 …で 爆発すると。

これ まずいですよね。
まずいですね。

これを下ろせっていうふうに
AIを改良するとしますよね。

その時 どういうふうな
改良のしかたをすれば

いいですかね?
これ 爆弾だけじゃないですよね。

いろんなものが
載ってるかもしれないですよね。

箱を運ぶ時に
一緒に運んじゃいそうな

箱以外のものは その場に
置いてこいみたいな感じのですか。

これと これと
これとっていうのを どんどん

持っていっちゃいけないものを
追加していくっていう…。

じゃあですね
これを動かした時に

これは 動きます?

箱を持ってこいって言った
時ですか?

だったら…。
動かないですね。

これは動きます?
それも動かないんじゃ…。

これも動きます?
動かないですね。

机は動きます?
動かないですね。

何で そんな事が分かるんですか?

えっ? なん… 禅問答ですか?
何ですか?

これを動かした時に

何で これだけ動くって
分かるんですか?

箱の上に載っかっちゃってるから。

ああ 何で これらは違うものだと
分かるかって事ですか?

でも ここの近くに
これがあるし

もし この下にですね
すごい強力なテープがついてたら

これを動かしたら
これも動くかもしれないですよね。

可能性としては
分かんないですよね。

何で これを動かした時に
これだけ動くのかっていうのは

これ すごい難しい問題で

ロボットに これを動かした時に一緒に
何が動いてきちゃうのかを

計算しろっていうと ロボットは
これが動くかだけじゃなくて

これが動くか これが動くか
これが動くか

全部 計算してる間に
爆発しちゃうんです。  そうか。

人工知能研究最大の難問。

部屋から荷物を運び出すのが
ロボットのミッションです。

荷物を載せた台車を
そのまま運び出したロボット。

しかし
荷物と一緒にあった爆弾が爆発。

失敗の原因は 爆弾も
一緒に持ってきてしまう事を

認識できなかったからです。

そこで改良。 新しいロボットには

台車を動かす時に
関連して起きる事態への

認識能力も搭載されました。

しかし 今度は 「台車を動かしても
天井は落ちてこないか」

「部屋の電気は消えないか」と

あらゆる事態を考えているうちに
爆発。

これは
哲学者 ダニエル・デネットが示した例題。

AIは 状況を感じとる際に

あらゆる要素を認識

同じ重要度で
判断してしまいます。

問題解決のための
適切なフレームを持てないのです。

これが フレーム問題です。

一方 人間は…

うち 子どもが
今 2歳なんですけど

ちょうど まさに
大きい小さいを分かったりとか

いろいろやってみて
それは 間違えてるよって

僕らが教えたり
とかっていうのがあって

最初は そんなプロセスじゃないかって
気がするんですけど。

これは 箱って名前だよ とか。

あれは爆弾だって今
名前づけがしてるとか。

そうですよね。
ものが分かったら

子どもは 多分 そのもので
いろいろ遊ぶんですよね。

何か ひっくり返したり 投げたり
動かしたり いろいろして

そうすると だんだん
このものに対して

どういう行動をすると
何が起こるかっていうのが

徐々に データとして
たまってくる訳ですよね。

そうすると ものを動かす
っていう事において

ドアが いきなり開いたり
しないとかいう事も

だんだん学んでくる訳ですよね。

要するに 世界と
インタラクション 相互作用
しながら

だんだん
世界の仕組みを

学んでいく
っていう事を

人間は
やってるはず
なんですよ。

だから その知能において

身体っていうのは
すごい大事なんですよね。

身体がない知能っていうのが
そもそも ありうるのかと。

身体がなければ この箱を
持ってくるっていう事すら

どういう事なのか分かんないし

これに付随して何が起こるか
分かんない訳ですよ。    そうか。

関係性を 要は 理解していく
みたいな感じなんですかね。

世界を理解していくって事は。
そうなんです そうなんです。

何と何は関係があって
何と何は関係ない…。

それが 行動
身体を伴った知識になる時は

やっぱり どういう行動をすると
何が起こるかっていう

これまた関係性な訳ですよね。

そういうのを
どんどん蓄積してるっていう。

関係あるものだけを
取り出せる能力か?

関係あるものしか
目に入らない限界か?

2017年7月。

名古屋で
あるロボットの大会が開かれました。

ロボットが一定時間内に
自動で 指定されたものをつかみ

移動させる競技。

世界10か国から
16チームが参加しました。

日本から参加したのは
大学と企業の合同チーム。

続いて 挟むタイプのハンドで
縫いぐるみを取りに行きました。

頑張れ。

つかみ上げました。
(拍手と歓声)

このチームは 箱の中のものを
アームについたカメラで認識。

このロボットが撮影している映像です。
このように この枠が

その物体っていうのを
答えています。

この中で じゃあ次に

どこの部分が
把持できるかっていうのは

平面の示差っていうのを
見つけているんですが

ここが平らなとこですね。

たくさん点があって
この辺は つかみやすい。

また ここも同じですね。

この辺も ちょっと平らなので
つかみやすいっていう点数を

たくさん出してきています。

カメラという 人間の視覚に
相当する部分は

手に入れました。

更に 別の感覚も
手に入れようとしています。

人の五感のようなものに相当する
例えば…

我々は それに先駆けて

力覚センサーというのを
導入しています。

これは ものを触れたりとかすると
当たった事を認識する

人の触覚に相当するものですね。

これによって 持ったか
持ってないかっていう判断も

できるようになっています。

つかんだ硬さっていうのも

力の入り方で
理解 認識できています。

今後 この技術を使う事によって

人の視覚と触覚っていう両方を
入力して

より物体をつかみやすい
位置っていうのを

自動的に判断するAIが
出来るかもしれません。

視覚 触覚…。
AIが身体を手に入れ

人間のように 現実の世界を
感じる事ができる未来が

近づいてきています。

(拍手)

アメリカ西海岸。

AIを搭載したロボットアームで
ある事が行われています。

♬~

これは 何してるんでしょうね?
何?

ロボットアームが… 何か
つかむって感じですか?

あのアームに学習させている。
そうなんです。

ものの形と

どこに突起が来て
つかみやすいとか

何か そういう…。

詳しくは
研究のリーダー ケン・ゴールドバーグ博士に

聞いてみましょう。

人間も
いろんなものを持てますけども

今 ここ持ちましたよね。

これ ここ持つと持てないですね。
そうですね。

何で こう持てたのかというと

これは
練習してるからなんですね。

人間って
いつ練習してるのかっていうと

これ ちっちゃい時に
練習してまして

赤ちゃんの時に こういうのを
持っては下ろし 持っては下ろし

この持てたり持てなかったり
する事を通じて

こういうものは
こういうふうに持てばいいんだと。

ここの面を持てばいいんだ
というのがだんだん分かってくる。

赤ちゃんがね
一定の時期になると

とにかく
そこら中のものを触りたい…。

いろんなものを
触るっていうのが

いろいろデータを収集してる
っていうふうな事なんですね。

さっきの関係性の話で 要するに
自分が どういう行動をしたら

どういう事が起こるのか
っていうのを学んでるし

これを こういう行動をすると

こういう事が
起こるんだっていう

そういう関係を
どんどん学んでいく訳ですよね。

それを
さっきのロボットもやってまして

要するに 持ち上げるっていう事を
ロボットが上手にするためには

何回もトライして 何回も
失敗しないといけないんですね。

ああ そういう事か。

人工知能が 身体を持って
試行錯誤ができるようになると

どういうふうな いい事が
起こるんですか?

形容詞的な概念ってのがあって。
形容詞的な概念?

例えば このロボット
大きいですか 小さいですか?

小さい… っていう感じは
しますよね。

何で小さいんですかね?

何か イメージしてるロボットって
もっと大きかったんで

それよりは…。
このペンは?

大きいですか 小さいですか?

太い。
太いって感じですね。

それ 何で太いって
思ったんですか?

ペンって こんなものっていう
細いものから 太~いものまで

何となく知ってて
その中でいくと

太いっていうふうな判断ですかね。
そうなんです。

形容詞っていうのは

普通は こうだっていうのがあって
初めて出てくる概念なんです。

こっちの このペンよりも
このロボットの方が大きいんですよね。

だけど
このロボットは 小さいロボットだし

このペンは 太いペンなんですよ。

ですから それは もともと
普通は こうだっていうのは…

例えば
何か お客さんの反応とかも

よく笑う時と
そうじゃない時とか

何か いろいろ こう
タイプとかあるんですか?

ありますね。
何か 僕ら芸人で言う…

よく笑う客は 軽い客。

あんまり笑わない方やと

今日は重いな~とか
言うんですけど。

その重い客を笑わせる時とか
どうされるんですか?

やっぱ
その重いお客さんに合わせて

いつもなら
すんなり 本ネタに入るところを

その重いお客さんを
そのネタの前に

なんとか こっちから歩み寄って
起こしてから始めるとか

何か そういう工夫をしますけど。
なるほど なるほど。

そういうふうに いろいろ
自分が行動する訳ですよね。

行動する時に
ふだんと違って こうやったとか

別のやり方をやったみたいな…

いつもより こうしたみたいな
そんなイメージ…?
そうなんです。

じゃあ まあ まず 行動する事を
学習してからじゃないと

その先の副詞の部分は
その次の段階って事なんですかね。

だから このロボットが
何かを持った時に

これが
重いね 軽いねっていうのは

このロボットが たくさん持つ経験を
しないと言えないし

今日は速く歩いた ゆっくり歩いた
とかみたいなのは

やっぱり このロボットが
自分で経験するとか

そういう場面をたくさん見る
っていうのをやらない限りは

獲得できないっていうですね。

そう考えると
知能の仕組みにおいて

身体っていうのが
かなり本質的なんじゃないかと。

例えば 身体がない
脳だけの人がいたとして

その人が理解する世界
っていうのは

一体 どういうものになるのか。
う~ん そうか…。

人工知能が活字だけ見て

こういう状況では速いって
言ってるから

自分も
速いって言ってみるんだけど

本当の意味では 速い遅いとかは
よく分かってないけど

何か コピー全部してるみたいな
感じの世界に

なりそうな気がしますよね。

だから 理解がないっていう
感じなんですかね。

人工知能というには ちょっと
お粗末な感じになるんでしょうね。

経験を蓄積していくAI。

その経験をデータとして生かす方法も
進化しています。

♬~

手術の際 縫合を行うロボット。
ある特別な学習方法を使います。

じゃ 僕が
為末さんのハードルを見て やるのと

全く素人の人のハードルを見て
まねするのとでは

やっぱり
為末さんの
経験も

ある程度
受け継げる
というか。

そういう事で。
そうですね。

ところが
まねをするっていう事って

最初は できない訳です もちろん。

だけど まねをするっていう事が
できるためには

何が必要なのか。
例えば こうしようと思うと

自分の身体は
このように動くっていう

膝を上げようと思うと
足が出るとかっていう

まず 自分の方で分かって

目の前で起きている その人が
やってる行動を見ながら

頭の中で
この時に 肘を前に出したり

膝を下げたりしてるのかなって

シミュレーションするみたいな
そんな感じですかね?

模倣学習 見まね学習
こういうのが できるためには

自分のボディーイメージと
自分が見ているものの

対応関係をとれないと
いけないですよね。

これ 脳にとっては
結構難しい事で

猿とかは
一部 やると思いますけども

犬とか猫とか
あんまり できないですよね。

スポーツなんかだと
僕らは逆に 馬とか見て

その動きは こんな感じで動くと
いいのかなって

やったりするんで
もう 見た目からしてね

人間じゃないものとかの
まねをしようとしたりするんで

それなんか もう 更に難しい話…。
そうですね。

やっぱり人間の知能っていうのは
そういう意味で

本当にゼロから学習すると
すごい時間かかるところを

いかに高速に学習するかっていう
仕組みが

至る所に備わってるんですよね。

僕 ずっと疑問だった事が
一個あって

どの辺から大人は

やんなくても分かるようになる
感じなんですか?

これ すごい面白いところで
人間の場合

実際にやる事を通じて

だんだん 頭の中でシミュレート
できるようになってくるんですね。

シミュレートできるようになると
自分が実際に行動しなくても

仮に こういう事をすると

こういう事が
起こりそうだというのが

頭の中で理解できるように
なってくるので

そうすると より長い行動の計画を
立てる事ができるようになる。

そうすると 今度 チャンク化
っていうのが起こるんですけども。

チャンク化?

最初は 赤ちゃんにしたら
これを持つっていう事すら

自分の 何か分からないけど
手のように見えるものを

ここに近づけていく事と

近づいたら手を広げる事と

広げ終わったら
手を閉じる事と

手を閉じたら 腕を
持ち上げる事っていうふうな

かなり細かい指示を
出さないと

持ち上げるって
できないはずなんですね。

ところが これは
だんだん大人になってくると

こうやって持ち上げるっていう
チャンク 塊になってるんですよ。

そうすると 今度は 持ち上げて
ここに置いて載せようっていう

より難しい事が
塊 塊 塊っていう感じで

できるようになっていくんですね。
スポーツの練習のあれに似てますね。

打って走るとか ピストルが鳴ったら
走ってハードルを越えるとか

そこまでが一塊になって

だんだん上達してくると
トップ選手になってくると

来た球をビュンって打つんだとか
それだけで何か

そのチャンクが走りだすみたいな
感じですかね。

その一連の動作が。
為末さんの場合は

ハードルを跳ぶ練習をする時に

頭の中で考えるっていう事と
身体を動かすっていう事は

どういう関係で
出来てるんですかね?

(実況)為末 飛ばしています!

世界一ともいわれた
為末さんのハードリング。

人間の極限の感覚と

AIの思考の間にあるのは?

(実況)
為末 なんとか3着に入ったか!

プロセスでいくと
最初は グチャグチャで跳ぶんで

まずは ハードルに対して
勢いよく跳ぶのが大事なんで

その練習をするんです。
その時は 手はバラバラ。

それから 徐々に止まった状態で
手をこう… 何でしょう?

こう ハードルの跳び方を練習して。

だんだん
それをつなぎ合わせていって

最後の方は
ハードルの上に… 勢いが大事なんで

石みたいなものがあって あれを
蹴飛ばしながら跳ぶぞみたいな

イメージの世界に
だんだん入っていって

徐々に徐々に
それだけを思い描くと

一連の動作ができるようになる
みたいな そんな感じですね。

練習で学習していく。

ちょっと
質問したいんですけども

感じるっていう事と
人間が考える事って

どういう関係にあると
思います?

感じるは 何か

受け身みたいな気持ちは
ありますけどね。

考えるは何か
考えに行ってるっていうか。

全然 別の話なんですかね?

例えば 野球にしたら
ピッチャーがボール投げて

こっちへ
向かってくるのを

人間は
感覚的に判断して

それに合わせて
バットを振ってると
思ってるけど

機械的に言うと
「時速何kmぐらいで

向かっているな。

じゃあ このぐらいの
腰の回転で」

とかっていうのを
瞬時に計算して動いてる。

それって 感じるっていうのは
考えるという事なのか。

打とうとする時は
もう ほとんど無意識ですよね。

だけど 例えば
次は カーブが来そうだから

ちょっと タイミング遅らせようとか

ランナーがいるから 右に打とう
とかっていうのは考えますよね。

どういう…?
スポーツの学習だと

あれは 何だったのかっていうのを
考えるっていう感じですね。

順番的には プレーの時は
あんま考えるっていうよりも

反射的にやって 感じて

どうも 今のは
バットの感触がよかったって。

何で よかったんだろう?

右足を踏み込んだからじゃないか
っていうふうに改めて考えて

じゃあ そうすると 次は もっと
こうした方がいいんじゃないか

みたいな感じで…
何て言うんですかね?

実は
感じている その瞬間よりも

感じていた事を 後で考える
みたいなのが

何か多い気がするんですよね。

人間の行動って

感じるっていうのが ベースに
なってると思うんですけども

ところが それを
よりブーストするっていうかですね

加速させるために

考えるっていうのが
あるんですよね。

脳科学で
最近 よく知られている事に

実は もう 脳が思って

身体を動かしてるように
思いますけども

逆に 身体が動いてるから

脳が そう動かそうと
思ってるっていうですね

そういう事が起こっていて…。

だから 後で その意味を
解釈してるみたいな

そんな感じ…。
そうなんです そうなんです。

意志とか 意識っていうのは

この人工知能の研究の中でも
すごく難しいところで

そもそもは 自由意志があるのか
っていうですね

そういう議論があって

我々 何か考えて動いてるように
見えるじゃないですか。

だけど 本当に
これ 考えて動いてるの? と。

神経学者 ベンジャミン・リベットは

自由意志の問題について
興味深い実験を行いました。

その結果によると
人が動作を始める0.2秒前には

意識的な決定を
表すシグナルが現れました。

しかし 脳内では
更に その0.35秒前に

意識的な決定を促す

無意識的な脳活動があったのです。

人間の行動に
きっかけを与えるもの。

それは 意識レベルで
行われている
意志決定ではないのかも。

僕の考えはですね
人間の意識っていうのは

例えてみると

会社で言うと 取締役会
みたいなものだと思ってて

僕が これを持とうと
思った時も

細かい筋肉への指令の連続で
できてる訳ですけども

全く意識せずに

持とうと思っただけで
持てる訳ですよね。

それっていうのは
ある会社組織において

この もう
取締役レベルが全く意識しなくても

各事業部が この事業活動を
自動的にやってるというのと

すごい似ていて

…で 問題が起こると 情報が
上に上がってくるんですよね。

それでも 普通は グループの中とか
その事業部の中で

解決しちゃうんですけども

それでも解決しきれないような
問題は

取締役会まで
上がってくる訳ですよね。

だから 意識にのぼるっていうのは
相当大きな問題だったり

予想と違う事だったり
っていうのが

こう 上がってきて

この取締役会は
そういうのを基にして

じゃあ こういうふうにしろって
大ざっぱな計画を立てて

そうすると これ また
事業部がですね

分かりましたっつって
何か やるんですけども

細かく
どうやってるかっていうのは

この取締役会は知らないですよね。

…っていう感じなんだと思います。

上の方ほど意識的?
下の方ほど感覚的?

そんな上と下が うまくつながって
動いている組織が

よい組織という事なんでしょうか。

松尾先生 その考え
AIにも当てはまりますか?

スポーツだと 反射系みたいな競技

卓球とかバドミントンとか
っていうのは

選手が よく言うんですけど

何々をしようと思った瞬間に
失敗するっていうのは…

だから 空っぽになって
来た球に反応してる間は

うまくいくんだけど

よ~し こうしてやろうと
思った瞬間に

うまくいかなくなったりするって
言うんですけど

だから 何か その せっかく
社員がうまくやってるのに

取締役が急に来て 「ちょっと お前
右に打て」とかって瞬間に

みんなが混乱するみたいな
そんな感じなのかな…。

まさに そうなんですよね。

トレーニングは 逆に言うと

取締役がいなくなっても
自動的に動けるように

みんなに日々 こう来たら
こうなんだぞっていうのを

訓練させとく みたいな
そんな感じなんですね。

それ いわゆる身体に覚えさせる
みたいな事なんですかね。

ざっくり言うとね。
そうですね。

よくいわれるんですけど
考えなくて強くなった選手が

考え始めた途端に弱くなるって。

だけど そのままいって
ちゃんと考えるようになれば

強くなるんだけど この谷を
越えられるかどうかというのは

よくいわれてるんです。 ここで
何が起きてるのかっていうのは

現場では
よく知ってたんですけど

頭の中と身体で
何が起きてるかって ずっと…。

言葉にするっていうのは
これって情報を落とすんですよね。

情報を落として
抽象化し 要約して

そのかわり 保存性を
良くするんですよね。

置いとけるように
するんです。

言葉だから…。
言葉だから

だから そもそも情報を
落としちゃってるから

やってる事は
すごい乱暴な事をやってて

言葉にしたら そこの
自律的に動いてたところが

現場が乱れちゃうので
やっぱ 一瞬 悪くなりますよね。

だけど そこで きちんと
言葉にして

その知識を
蓄積していく事によって

より細かく状況を分解できたり

こういう時には
こういうふうにやったら

よかった 悪かったっていうのが
ためていけるので

蓄積していきますよね。

…っていう 何か そういう効果が
あるんじゃないかなと思いますね。

じゃあ 将来あれですね。

今みたいに
ロボットが覚えられるとしたら…

それは
面白いですね。

そこで出てくる身体性というか
その感覚っていうのは

人間と ちょっと違うというか…
ものになるかもしれないですね。

圧縮しないデータで コピーするなり
保存するなりっていうのがね。

できるかもしれないですね。
ちょっと面白い話ですね。

AIが経験を どう蓄積し

これから
どうやって使っていくのか。

未来を
ちょっと のぞいてみましょう。

先生 これは… 何か さっきから
すごい動いてるんですけど。

何でしょうね?
こ… こんにちは。

初めまして。 こんにちは。
しゃべるんですね。

しゃべります しゃべります。
とても流暢にしゃべります。

見えてるんですか? こっち。
見えてます 見えてます。

何でも見えてます。
カメラ ついてますもんね。

カメラ ついてます。
ちっちゃいカメラが。

ツッコミもできます。 何でやねん!

あっ 何でやねん できるんですね。

ほう~ これは どっかで
パソコンで操作しつつ…。

握手もできるんで。
握手しましょう。

はい。 はい。

あああ~!

いや 何か…。 感じてるんですか?
ちゃんと振動が伝わって

触覚センサーがついておりますので。

ほんまや。
センサー的なものが確かについてる。

これがセンサーか。 こういう事ですね。

あああ~ はい。 え~ あ~。
えっ こうやって

僕が今 握ってるのが
分かるんですか?

分かりますね。 ブルブル震えてるんで。
へえ~。

この辺は
センサーついてないんですか?

その辺は
センサー まだついてないですね。

ナデナデは
ちょっと まだ厳しいですね。

どうも こんにちは。
あっ よろしくお願いします。

開発者の方ですね?
はい。 石井と申します。

石井さん。 よろしくお願いします。

これ どういうものなんですか?

これは インターネットを通じて

遠隔で人が操縦するロボットに
なっておりまして

先ほど ご覧頂いたとおり
目に カメラがついてまして

操縦者は ヘッドマウントディスプレーという
装置を 顔につけるんですね。

そうすると 操縦者は
ロボット視点で ものが見えて

こちらに話しかけると
マイクがついてますので

操縦者の方に声が聞こえて

身体の動きも
操縦者の動きをトレースすると。

…で これ
インターネット経由で動かせますので

どこへでも行けて 誰とでも会える
というような装置で

名前が Teleporter。
Teleporter。

そしたら 僕 今
手ぇ握手しましたよね。

何か こう つけてるんですか?
装置を手に。

つけてます。 手につけてます。
じゃ 僕が触ったら

その装置が まんま
その操縦してる人のところで

手の感覚を与えると。
はい そうですね。

はあ~ すごいな これは。

この音声データとかですね
人が動いたデータっていうのは

サーバーに記録ができるんですね。
その記録したデータから

例えば 将来 AIが発達して
そのデータを基に

本人が操縦してなくても
本人のような事を言ったりとか

本人のような動きをしたり
っていう事ができるかなと。

機械的なコピーが
誕生する訳ですね じゃあ。

はあ~ そうか。
(石井)あと 見た目も

人間の身体を3Dスキャンして

本人そっくりのロボットを作る研究も
してまして

例えば 今
こちらにあるんですけど

例えば まあ 私が 私自身の
そっくりなロボットを作って

私の行動パターンや話した言葉を
サーバーにためておけば

私がいなくても

私が あたかも
存在してるような事ができる。

極端な話 私が死んだとしても

私は 生き残ってるような錯覚に
陥る事ができる。

そうか! 機械の命として
残れる訳ですね。

SFやな 完全に!

<赤くて丸いものを見て
それが りんごだと分かる。

でも 判定を決定する手がかりは
何でしょう?

どの情報が より重要かを
考えなくてはいけません。

これを 重み付けといいます>

<ニューロンとニューロンをつなぐ
道の太さで

重み付けを表現してみましょう。

道の太さが 層から層へ伝えられる
信号の重要度を表します>

<太い道は 強く伝わります>

<細い道では 伝わりにくい>

<ニューロンが反応するかは
道を通ってきた信号の大きさ次第>

<太い道を通った信号は
ニューロンを反応させるし

細い道は
なかなか反応させられない>

<道の太さで 信号の伝わり方を
変えているのです>

<ニューロン同士をつなぐ
道の太さによって

最終的な出力での判定が変わる。

これが
ニューラルネットワークの仕組みです。

続けて見れば イメージで分かる。

「2分でディープラーニング」でした>

生き物自体 みんな 自分を

知らないのかも
しれないですけど

今日 伺って思ったのは
我々は ほかの動物と違って

自分を知ってるんだって
思っている事が 大きな勘違いで

我々が生きてる 意識してる
世界っていうのは 本当に薄くて

あとの事は
よく分からないものが起きてて

人工知能っていうか
知能って何だって考えていくと

どうも 考えた事もない
身体を使って やるような事に

実は 知能が支えられてる
みたいな事を聞いて

何か 自分自身の
土台になってるものを

全然知らなかったんだなっていう
気分に 今日 なりました。

確かに そうですよね。

次 私 これですね。

何か こう ちょくちょく
コンピューターの構造って

脳に似てんねんなとか 人間に
似てるなって思うんですけど

それは当然かと。
人間が作ってるんだから

人間に模したものを
多分 作るんだなと思って

そういう こう…

機械とか コンピューターっていうのが
出来上がってきて

今までは データの集合体の部分を
ず~っと作ってきて

いよいよ この+αの部分を
作る事によって

人間を作ろうとしてるんじゃ
ないかっていうような感じを

今日 受けました。

結局 いろいろ話してきて
分かったのが…

多くの部分は 人間が
知らないけども感じている

それは この世界のデータをですね
人間の脳がくみ取って

そこから
重要なところだけを抽出し

それを 意識に
のぼらせているという事で

ほとんどの部分
重要な部分っていうのは

人間は 感じてはいるけども

それが
どういう事なのかっていうのは

自分では理解してないと。
…で そういうものに支えられて

人間の知能っていうのが
構成されてるという事なんだ

というふうに思いますね。

それを どう解釈するかみたいな
そんな話をしたんで

そもそも感じられないと
情報自体が集まらないんで

考える事も難しいみたいな
そんな感じ…。

すごく そのイメージ 近いと思います。

人間は やっぱり
考えるっていうところが

何か すごいんだろう
というふうに ずっと思ってきた。

少なくとも 人工知能の研究では

考えるっていう事を ずっと
フォーカスしてきた訳ですけれども

ところが…

やっぱり 両方ないと
うまくいかない訳ですね。

最新の人工知能研究が
あぶり出した 無意識の重要性。

全てを意識で判断し
行動していると思っている

人間の皆さん。

実は 感じるという膨大な経験が
それを支えている事に

気付いて頂けましたか?

共に 感じて考える世界で
今 問いかけます。

人間ってナンだ?


関連記事