人間ってナンだ?超AI入門 第9回「暮らす」 家が知能を持ち始めた?… 佐藤オオキ、菊川裕也、高田巖、松尾豊…



出典:『人間ってナンだ?超AI入門 第9回「暮らす」』の番組情報(EPGから引用)


人間ってナンだ?超AI入門 第9回「暮らす」[字]


人工知能が社会を変える、その時人間は一体どうなる?最新技術の仕組みを松尾豊東大准教授×徳井が解剖。現代人必見の新感覚AI入門エンタメ。今回のテーマは、暮らす。


詳細情報

番組内容

家が知能を持ち始めた?さまざまな住環境の快適さを提供するプログラムが生まれているが、実際に暮らしはどうなる?IoT、いわゆるモノのインターネットが話題だが、つながるのはモノばかりではない。あらゆるものがつながり人工知能が介在する時、家は、社会はどうなっていくのか?ディープラーニングとイメージセンサー、AIの進化を加速させている組み合わせだが、その本当のすごさ可能性とは?ゲストはデザイナー佐藤オオキ

出演者

【ゲスト】デザイナー/建築家…佐藤オオキ,スマートフットウェア開発者…菊川裕也,スマートハウス開発者…高田巖,【解説】東京大学大学院特任准教授…松尾豊,【司会】徳井義実,【声】茅原実里




『人間ってナンだ?超AI入門 第9回「暮らす」』のテキストマイニング結果(ワードクラウド&キーワード出現数BEST10)

人間ってナンだ?超AI入門 第9回「暮らす」 家が知能を持ち始めた?…
  1. センサー
  2. 例えば
  3. AI
  4. イメージセンサー
  5. 処理
  6. 情報
  7. デザイン
  8. 場合
  9. 人間
  10. ディープラーニング


『人間ってナンだ?超AI入門 第9回「暮らす」』の解析用ソース(見逃した方はネタバレ注意)


解析用ソースを読めば、番組内容の簡易チェックくらいはできるかもしれませんが…、やはり番組の面白さは映像や音声がなければ味わえません。ためしに、人気のVOD(ビデオオンデマンド)サービスで、見逃し番組を探してみてはいかがでしょうか?

☆無料で民放各局の動画視聴ができるTVer(ティーバー)!まずはココから!

他にも、無料お試し期間のあるVODサービスが増えてますので、各社のラインナップを調べてみるといいかもしれませんね。

↓NHK関連商品

電気つけて。

どうです?

私たちが 24時間いつでも

最高のおもてなし 致します。

人々の暮らしを変えていく
人工知能。

あらゆるものが知能を持つ時
一体 何が起きるのか。

全12回で AIの仕組みが
感覚で分かる 超入門シリーズ。

AIについて知れば知るほど
人間の可能性と限界が見えてくる。

だから…。

第9回のテーマは…

家が 家電が
知能を持ち始めています。

人間がしてほしい事は
何でも かなえます。

そんな暮らしが現実になる時
家は どうなっている?

そして 人間は どうなる?

さあ この番組ですね

人工知能について学ぶ
番組なんですけども

今回のテーマは?
今回のテーマは「暮らす」です。

家電芸人の徳井さんが
一番楽しめる回になると思います。

じゃ 割と
僕たちの身近なところの。

本日のゲストは 人の暮らしを
デザインされております

建築家でデザイナーの
佐藤オオキさんです。

よろしくお願いします。
よろしくお願いします。

佐藤さんは デザイナーさん
建築家という事ですけども

AIなんていうものについては
どういうイメージを持たれてますかね。

正直 あんまり AI
詳しい訳ではないんですけれど。

今のお仕事からは
遠いところにある感じですか?

デザイナーという職業自体が 結構
かっこいい形を作るとか

美しい形を作るのが
メインの仕事なんじゃないかって

結構 思われがちだったり
するんですけど

実際は 誰もが見た事がない
機能とか 技術とか 価値

それを どう 人とつないでいくか。

なので いきなり
新しい技術が出てきても

人って どうしていいか
分かんないですよね。

日常に どう取り入れていいか
暮らしに どう取り入れていいか

分かんないみたいなところが
あるので

そこの接着剤みたいな役割を
デザインするっていうのが

デザイナーの 実は
大きな役割だったりするので

そういった意味では
AIっていうのは

すごい面白いテーマだな
っていうふうに思いますけどね。

じゃあ AIを使ったような
家に置くものが出てきた場合

その辺は
建築に取り入れていく事も

これから あるんでしょうね。
まさに そういう事だと思います。

あと その使い方ですよね。
使い方が

いかに
直感的に分かるかっていう事が

すごいポイントかなっていう気は
しますけどね。

先生 これ 暮らしに密着した
AIっていうのは

どういうものなんでしょうか?
徳井さんは

IoTって聞いた事ありますか?

IoT…
いや~ ピンと来ないですね。

パッと もう オリンピック委員会が
出てくるんですけど

あれは IOCですもんね。
あれね。

答え 言いますと…

家電をはじめとして
いろんなモノが

インターネットを介して つながるという
こういう世界観ですね。

日本語だと モノのインターネットって
いうんですけど

英語だと Thingsなんですね。
Thingsって 実は

モノだけじゃなくて
コトも表すんですけども

例えば Strange thingsっていうと
「変なコトが起こった」とか

そういうふうに いうんですけども
世の中の ありとあらゆる事

モノとかコト
ありとあらゆる事が

インターネットを介して
つながるっていうような

そういう世界観を表すような
言葉ですね。

あらゆるモノやコトが
インターネットで全て つながる世界。

世界中の情報をつなげる事で

社会に変化を起こそうとしてきた
会社のCEOは

その中心がAIになると言います。

スマホだけでなく 全てがつながり
AIが制御する社会?

つまり AIが
皆さんを おもてなしするのです。

例えば 体調の管理をするホームドクター。

鏡に埋め込まれたセンサーが
毎日 頼まれなくとも 血圧を測定。

もちろん スタイリストにもなります。

いちいち着替えずとも
お好みの色をご提案します。

暮らし 生活の全ての場面で
AIが活躍。

あなたに仕えます。

この靴で 何ができるんですか?

今 私が履いている
靴なんですけど

これ 一見 普通の靴に
見えるんですけども…。

かっこいいスニーカーですね。
(菊川)ありがとうございます。

実は スマートフォンやパソコンにつながって
いろんなアプリケーションをできる靴

スマートフットウェアなんです。

これ 別に
靴自体 有線じゃないという事は

これも
電波 飛ばしてるって事ですか。

電波 飛ばしてます。
へえ~。

トントントンと 爪先を3回たたくと

スマホにつながるモードになります。
ほう~。

(菊川)
これで もう つながりました。

振動がスイッチになって。
あっ 振動というか

足の踏み込みを検知してるんです。
靴の中で。

(笑い声)
(菊川)おっしゃるとおりです。

詳しいですね やっぱり。
…で このアプリの中で

例えば
このレインボーを選んでみましょう。

そうすると… 分かりますか?
ああ すごい。 いいな。

(菊川)
靴の色がレインボーになりました。

これ いいですね!

例えば ウォーターってなると
この青なんですけど

じゃあ ちょっと歩いてみると…。
(水音)

こんな感じで… 歩きに合わせて
音を出したりもできます。

次世代のタップダンスみたいな。
確かに。

まさに そうなんですよ。
実は この角度もとってるので

こっちで ついた時と
こっちで ついた時で

違う音を出せたり ちょっと
タップダンスの進化系みたいな事が

できるようになってます。
そうなんや。

ちょっと
徳井さんも履いてみませんか?

やりたいです。

へえ~。
(靴の音)

(佐藤)鳴ってますね。
すごい すごい。

「サザエさん」みたいなね。
(笑い声)

タラちゃんが歩く時
そんな感じになりますけど。

今回は ちょっと パソコンに
つないでみたいと思います。

こちら 見て頂くとですね

足の動きがリアルタイムに
CGで表されてると思います。

(佐藤)本当だ。
すごい。 ほんまや。

徳井さん ちょっと
踊ってみてもらっても…。

踊る?
ボックス… ボックスでも踏みましょうか。

こういう… あっ こう動くと…。

(菊川)そうですね。
踏み込んだ時に光るので。

これが この靴の

モーションセンシングと精度を
表してるんですけど…。

こっちだけじゃなくて
こっちも反応してるんですね。

360度。
(菊川)
足首の角度が360度

すごい精度で記録できる装置にも
なってます。

そうなんや。

こんなん 単純に もう
アーティストさんとか使いそうですよね。

そうですね。 結構 こういう

テクノロジーとアートみたいな方向の
アーティストの方に

既に 舞台で使って頂いたりも
しています。

へえ~。  動きの解析のところに
力を入れてまして

このセンサー情報っていうのを
ほかのソフトにも

簡単に送信できるように
なってるんですね。

なので それを ほかのアプリケーションで
解析してもらえれば

例えば リハビリであったり
スポーツであったりの方向で

使えるようになってます。

これ センサーは 加速度センサー以外に
どういうのが入ってるんですか?

センサーは…

コンパスも。
コンパスが入ってると どう…?

例えばですけど どこか
行きたい場所があった時に

その方角に光で表すというか

光った方向に歩いていけば
目的地に着けるよみたいな事が…。

すごっ。 履く地図みたいな。

え~ すごいな。

僕 よくヨーロッパ行くんですけど

ヨーロッパ行くと 犬のウンチが
よく落ちてるんですけど

犬のウンチを自動的に検知して
よけてくれると

すごい いいなって思いません?

こう… 次 一歩行ったら
犬のウンチあると思ったら スッと。

何か センシング技術を使って
犬のフンを踏まないみたいな

そんな靴あったら
欲しいですけどね。

踏む瞬間に こう
バイブで ブルッと震えてくれたら

危ないって止まれますからね。

むしろ これを
町の人が みんな つけてたら

「あっ よけた」みたいな。
なるほど。

…で 犬のフンがある事が
分かるみたいな。

逆に。
「みんながよけてるな…」。

「スッとよけたな」って。
なるほど なるほど。

こういう技術があった時に

どう使ったら
面白いだろうなとか

そういうのって あります?

この靴と家の床がリンクしてて

スリッパを その感じにして
何か 分からへんけど

単純に言うと リビングに入ると
スリッパが赤くなってとか。

あと お年寄りとか
いいかもしれないですよね。

ちゃんと歩いてるとか
倒れてんじゃないかというのを

スリッパを検知してとかっていうのは
ありえそうですよね。

あと 目の見えない方なんかは

歩いてて
今 この道は大丈夫だなとか。

目に見えないって
すごい大きなポイントだと思って。

デザインの本質っていうのは
目に見えないものを

いかに見える化するか
っていう事であって

デザインの初歩というか

一番最初の授業で 僕は
生徒に伝える事っていうのが…。

(たたく音)
この音。 これを 色と形にしたら

何でしょう? 人に伝えて下さい。
耳が聞こえない人に…。

(たたく音)      …を
どうやって伝えますかっていう

そういう事を まず考えてもらう
っていうところから

始めるんですけど
要は ほかの感覚ですよね。

例えば
香りであったり 音であったり

それを いかに視覚化するかと。
なので これも

歩くっていう行為を
光に置き換えてる

っていうところから もう既に
これもデザインなんじゃないかな

というふうな気はしますけどね。
なるほど。

共感覚とかっていうと
思いますけど

視覚と 例えば 聴覚が

ある種の関連を持って
呼び起こされたりとか

デザインする時には

五感の感覚っていうのを
意識しながら やられる訳ですか。

そうですね。 やっぱり
目に見えない部分ですよね。

なので 例えば 口 言葉で
赤っていう色の感じを

一度も赤を見た事ない人に
どうやって伝えるかと考えると

すごく難しいですよね。
でも それが多分

デザインとアートの違いであって

やっぱり そこにゴールが
あるんですよね。 デザインというのは。

その感覚的なものを いかに
分かりやすく伝えるかっていう。

なんで 通訳にちょっと近いような
感覚かもしれないですね。

その一方で 感覚というか
情報を集め過ぎるというのが

ちょっと リスクとしてありまして。
デザイナーとしては。

むしろ 情報を
いかに遮断するかというか

そういう感覚っていうのは
すごくありますね。

それって どういうふうなやり方で
その感覚を磨いていくって…。

ふだん 何もしないっていうのを
心がけてます。

プレーンな状態にしとくっていう。
いかにフラットにするかなんですよね。

やっぱり 人間なので
アップダウンがあるんですよね。

テンション上がったり下がったり。

それが やっぱり
デザインに そのまま出てしまうので

ある意味 どうやって
ロボットになれるかなみたいな

AIとかロボットに ちょっと
憧れてるとこがありまして。

なんで ふだんは何もしない。
部屋には何もないし

同じ白いシャツだけ
2週間分あって

靴下 パンツ ジャケット
全部 同じものなんですよ。

毎日 同じそばを食べて
同じカフェで同じコーヒーを飲んで。

そうすると デザインの波が
出来ないんじゃないかというか

安定して しかも 脳のスペックを

変なとこに使わなくていいんじゃ
ないかって ふだん思って

ここ5年ぐらい マイブーム的に
ちょっと やってますよね。

すごいですね。
私生活 いろいろ削って…。

あんまり 役に立ってるか
まだ分かんないですけどね。

AIで暮らしを豊かにする試みは
どこまで進んでいるのでしょうか。

それを知るためのキーワードが
スマートハウス。 IoT化された家です。

例えば こういう空間の…

知能を持った家が
おもてなしをします。

呼吸で発生する二酸化炭素濃度や
ホコリの量まで 細かく検出。

誰が 何時に
どこに移動したのかなど

生活する人の習慣を
データで蓄積します。

家族一人一人
その嗜好に合わせて

最も快適な状態を
自動的に作るのが AIの役目。

脳のスペックを

暮らしの細かなところには
使わなくていい生活。

皆さんにご提供します。

先生 これ IoTっていうのは

これから どういうような可能性を
秘めてるんですか?

そうですね 今の例でも
すごくいろんな利用シーンが

思い浮かんだと
思うんですけれども

やっぱり こういう例っていうのは
すごくたくさんあると思います。

例えば 有名なものとしては
電気ポットをインターネットにつなげて

そうすると
おじいちゃん おばあちゃんが

使ってるっていう事が
分かるので

今日も元気でやってんだな
という事が

子どもたちから分かったりとか

それから
エアコンを家の外から操作できると。

エアコンがネットにつながっていて
そうすると

消し忘れたって 外から消すと
そういう事もできます。

それは 割と単純な例ですけども。

まあ 以前やった
車とAIの回なんかも

やっぱ 車とインターネットが
つながってて

っていうふうな事も
それも一つですよね。

こういうふうに
いろいろ できていく訳ですけど

仕組みとして
どうなってるかっていうのを

ちょっと解説したいと思います。

インターネットがあります。

ここに いろんなデバイスが
つながってる訳ですね。

つながってて。

これが 靴だったり
家電だったりする訳ですけども。

例えば さっきの例ですと

靴の情報が
スマホに表示されたという事は

靴の情報が
インターネットの方に上がっていって

スマホに表示されたと。

スマホを操作すると
光り方が変わったっていうのは

逆の流れですね。
こういうふうになってると。

情報処理の視点からは
ここにデータが入ってきますと。

これを ここだけで
処理する場合もあれば

こういうふうに
インターネットを介して
処理する場合もある訳ですね。

このデータも ここだけに
ためられてる場合もあれば

インターネット上にあるサーバーに
入る場合もあると。

例えば
音声認識で翻訳をしますと。

ああいうのは 処理が重いので

一旦 情報がサーバーの方に行って
ここで いろんな処理をして

それが また返ってくる
というふうになります。

こういうのを クラウドコンピューティングと
いいますけれども

クラウドコンピューティングっていうのと

あと こっち側だけ
例えば この辺に

ちょっとしたサーバーがあって
この辺で戻してくるとか

この機械の中だけで
戻すとか

いろんなやり方が
あるんですね。

大きな そのサーバーは
何個かあるというイメージですよね。

基本的には 遠くに行けば行くほど
時間かかるんですね。

…ので 早く処理をしないと
いけない時は

手元だけで処理をした方がいいと。

それ 物理的な距離ですか?

これ エッジコンピューティングっていうふうな
いい方もするんですけども

このエッジ側だけで
処理をしましょう。

例えば
工場の機械なんかの場合だと

何かのセンシングをして

それを 工場のロボットの動きに
反映しますっていう時は

工場の中だけで こういう
やり取りをしてもいいし

クラウド上にあるところに
一旦 情報を持ってって

そこから また
処理をしてもいいんですね。

基本的には
クラウド上に持っていった方が

計算機のリソースが
たくさんありますから

いろんな事ができると。
なんだけども

スピードが遅くなるんですね。
なので

こういうふうに 工場の中とか
あるいは デバイスの中だけで

その処理を完結させた方がいい
場合も。

エッジコンピューティングっていうのと
クラウドコンピューティングっていう

両方ありますけども

これ 場合によって
使われ方が違うという事ですね。

翻訳などの複雑な処理は

手元のスマートフォンの処理能力では
まだ難しい。

インターネット経由で
ハイスペックなパソコンで計算処理を行い

結果を スマートフォンに
送り返しているのが実情です。

このクラウドコンピューティングという方式は

複雑な処理ができる代わりに
時間がかかる弱点があります。

通信速度が上がっても

物理的な距離がある以上
やむをえません。

一方 エアコンの温度を
変えたりするのは

難しい処理ではありません。

その分 素早く変える事の方が
快適さにとって重要。

コントロールするための司令室を
各地に分散する

エッジコンピューティングが役に立つのは
まさに こうした場面。

蓄積した大きなデータを
処理する場合は クラウドへ。

その時その時の判断を行う場合は
エッジで。

両方を組み合わせています。

ディープラーニングとか
人工知能の技術を使う場合って

どうやるかっていうと

ここに いろんなデータが
たまってくる訳ですね。

ここに いろんな人が
いろんな…

先ほどの靴であれば
靴の使われ方っていうのが

ここに
どんどん たまってくると。

この使われ方のデータを使って
いろんな学習をさせる訳ですね。

例えば 家の中の
家電の使われ方だったら

日曜日は こういう 家電の
使われ方のパターンが多いとか

平日は こういう場合が多いとか

こういうのを たくさんのデータから
学習できる訳ですね。

そういう学習ができると 今度

日曜は
外出してる場合もありますので

電気を消すようにしようとか
いうふうな学習をして

この学習をしたものを

また このエッジに戻すという事が
できる訳ですね。

なんで人工知能が こういうクラウドで
使われる場合っていうのは

大体 サーバー上にある クラウド上にある
データを使って 学習し

この学習した結果をエッジ側に戻す
というような やり方で

やる場合が多いですね。

便利になるだけじゃなくて

いろんなものを 効率的に使う事が
できるようになる。

今までのように 一つの家電の中で
処理が完結する訳じゃなくて

これが
いろんなものと連係していくと。

その時に どこで どういう計算を
させるかっていうのも

上手にデザインしないといけないと。

これ
普通に建築とかデザインするのと

IoTみたいなものを
取り入れながら

デザインをするのって やっぱり
違いは出てくるんですかね?

やっぱり これは ありますね。
先ほどのお話のように

処理をするっていう事が
だんだん ハードの中ではなくて

サーバー 遠く離れた所で
考えるようになったりですとか

電池も 今
どんどん小さくなってきていて

非接触充電とかできると 多分

どんどん それも
コンパクトになっちゃう訳ですよね。

どんどん どんどん
物がなくなっていくというか

どんどん…

それって単純に 自由度が
上がるっていう事なんですか?

逆に…

消えていってしまうんですよね。
最近のスマホなんかも そうですよね。

もう 要は画面だけなので。
そうか そうか。 今までやったら

これは このものは置かないと
しょうがない

こういう部分は
ないと しょうがないから

じゃあ これを いかに かっこよく
デザインするかみたいなものが…。

やっぱり 制約がないと
難しいんですよね。

なくてもいいってなったら もう

ストンで
ええっちゃええ訳ですもんね。

デジタル系の見本市とかあると

テレビとかスマホとかを
展示してるんですけど

大体 皆さん 同じような感じに
なってきてしまうし

結局 その本体よりも 画面の中で
何が映ってるかの方が

目立ってしまったりするので
困ってしまって

水着のおねえさんを
立たせたりとか

そこで勝負してるみたいな
不思議な戦いになってきたり…。

先ほど だんだんツルツルしてくるって
おっしゃいましたけど

最終的には
例えば 家の中とか 建築とか

どういうふうに
なっていくんですかね?

物が消えていくのかなと。

簡単に言うと ミュージックプレーヤー
音楽を楽しむという道具

昔だったら 蓄音機があったり

それが
テープになって CDになって

だんだん
小さくなってきましたよね。

それがMP3っていう
データ化された事によって

かなりコンパクトな中に
2, 000曲とか3, 000曲入っちゃうと。

それが更に 液晶が無くなり

耳につけるだけで 音楽が
聴けるようになってきちゃって

多分 今後は
鼓膜とかに埋め込むんですかね。

そうすると もう 形がないので
デザインを

どうしていいのか分からない
っていうふうになるんですよね。

昔 ユビキタスコンピューティングっていう言葉が
あって

今は
IoTって呼ばれますけども

その概念自体は
実は かなり古くからあって…。

そうですよね。
ユビキタスって 一時 よう聞いて

ユビキタス社会が
やって来る やって来るって…。

ユビキタスっていう言葉は

今は もう あんまり使われない
言葉なんですか?

今は だから IoTっていう
いい方に変わってってますよね。

僕は ずっと待ってたんですけど。
いつなんだろう いつなんだろう。

ああ でも こういう事なんだなと
思いながら

いつ来るんだろうなって
思ってたら

もう その言葉は使われなくなって
IoTになってるんですね。

IoTって言葉に変わってますね。
あっ そうなんや。

ユビキタスっていうのが いってたのも
結局

コンピューターが いろんな環境の中に
埋め込まれて

どんどん
見えなくなってきますよと。

シンプルになってきますよという事を
いってた訳なんで

実は 今の話と同じですよね。

分かりやすく言うと テレビなんてね
多分 もう 壁になるんでしょうし。

そうなんでしょうね。

これまた 世代的な部分も
あるのかもしれないですよね。

生まれた瞬間から もう
タブレットとかで遊んでる子どもだと

液晶テレビを見て
こう 止めようとしたり

拡大しようとしたりする
っていうふうにいいますもんね。

家自体がおもてなしすると
風景も変わります。

視線の先に見たいものが現れます。

リモコンも要りません。
しぐさで十分分かります。

家の中でも
道具が多かったのが キッチン。

まだ 自動で
食べたいものは出せませんが

分量なんて
テーブルに置けば十分です。

盛りつけもガイドします。

家に これまであったモノが
家の中に取り込まれています。

すっきりして いいでしょ?

今 注目のディープラーニング。

その構造は
人間の脳を模倣したものです。

人間の脳は
神経細胞 ニューロンのかたまり。

ニューロンは
電気信号を次から次へと伝える

巨大な電気ネットワークです。

ディープラーニングでは
これを人工的に再現。

丸い玉がニューロンの代わりで

それらをつなぎ
電気信号を走らせます。

今回の「暮らし」のテーマでも
活躍しています。

ディープラーニングの話を

この番組の中では
結構やってきた訳ですけども

ディープラーニングの場合
主に使われるのが

画像とか 映像とか
そういった辺りですけども

こういった画像とか映像と

こういったIoTのセンサーの
関係って 何だと思います?

IoTは 情報を収集するための
道具であって

やっぱり あくまでも
脳的な機能というか

考える機能っていうのは

そのソフトという
画面の中の世界っていう

そういう区分だったり
するんですかね?

そうですね。
もうちょっと具体的に言うと

画像っていうのは 要するに
イメージセンサーで撮るんですよね。

画像を撮るようなやつです。

カメラの中に入ってるやつね。
イメージセンサーと

イメージセンサー以外のセンサーって
何が違うと思います?

分かんないです。

分かんないですね。
分からないです。

映像をデータ化するセンサーと
そうじゃないものって事ですよね。

これ 結構 面白くて
普通のセンサーっていうのは

そもそも 何かをとりたいっていう
目的があるんですよね。

例えば 温度センサーだったら

温度をとりたいっていう目的で
温度センサーを作る訳です。

加速度センサーだったら 加速度を
とりたいっていう目的で

加速度センサーを使う訳ですね。

ところが イメージセンサーって
目的って何ですかね?

画像を…。
画像を撮りたいっていうのは

基本的に
あんまり目的じゃない…。

画像を撮りたいのは
目的じゃない?

…といいますと?  だんだん
意地悪な顔になってきましたよね。

Sですね 今日 何か 先生。

我々を困らせて。
うれしそうですね。

例えば イメージセンサーで
加速度を とれるんですよね。

えっ? そうなんですか?

靴が動いてるのは
見えるじゃないですか。

そうすると
「こんなスピードで動いてる。

スピードが こう上がってる」
分かりますよね。

…で イメージセンサーで
温度も とれるんですよ。

えっ?

暑そうにしてる人が
いるっていう事ですか?

えっ そんなの分かるんですか?
「上を一枚脱いだな。

暑いんだな」っていう事ですか?

「汗かいてるな 暑いんだな」とか
「こうやってるな。 寒いな」。

はあ~。
要するに
何が言いたいかっていうと

普通のセンサーっていうのは
特定目的で

特定の量を
何らかの量をとるんですよね。

特にイメージセンサーは
かなり汎用の目的なんです。

そのために画像を撮るんですね。

だから 加速度センサーと
同じような事はできるけども

違うアプローチで
それができるっていう事ですよね。

要は 本当に 人間の目と脳に近い。
そうなんです。

だから やっぱり
目っていうのが

すごく重要な働きをしてる
っていうのは そこにあって

目的に応じて処理を変えるだけで
とれちゃうんですよね。

…で 普通のセンサーの場合だと

目的が変わると センサー自体を
作り直さないといけない。

そうすると イメージセンサーの方が
当然いいんですけども

ところが これ
使うのが難しいんですよね。

もう一段階 処理しないと
いけないからっていう事ですか?

そうなんです。
それが今まで できなかったのが

今 ディープラーニングで ようやく
できてきたという事なんで

実は…

今までは その可能性が
活用できなかったんだけれども

今後は いろんな形で
活用できるようになってくる

というふうに思いますね。
あ~ そうなんですか。

イメージセンサーとディープラーニング。

AIの進歩を 一気に
加速させている組み合わせです。

イメージセンサーと ほかのセンサーを
組み合わせる事で

違う意味を持ち始めます。

家の中では…

じゃあ こういうセンサーと
AI 機械学習

そういうのの関係を
考えたいと思うんですけども

これ 入力となる
センサー情報がありますと。

これが入ってきて
ここで何らかの学習をして

目的とする出力を
出すようにすると。

これも センサー情報でも
何でもいいんですけども。

例えば じゃあ コーヒーを飲むか
どうかを予測したいという時に

その人が さっきの靴センサーで

その人が どのぐらい
じっとしてるか 動いてるか

それから どの部屋にいるか

こういうのから
コーヒーを飲むかどうかを

予測しましょうという事は
できる訳ですね。

コーヒーを飲みそうだって分かったら
じゃあ コーヒーを入れとけばいいと。

例えば
6時間 寝室にず~っといた。

その人が廊下を通ってキッチンに来た。

じゃあ コーヒーを飲みそうだ
みたいな。

そういうのは たくさん
データがあると 学習できますね。

こういうふうな動きをすれば
次 コーヒー飲むんだなというふうに

できますと。
要するに この予測対象が

普通のセンサーで
とれるようなものっていうのは

従来でも できたんですよ。

ところが 予測対象が

このイメージセンサーに 得られるような
ものっていうのは

これまで できなかったんですね。
どういう事かっていうと

例えば 人が どのぐらい
集中してるかっていうのは

とる事ができなかったんですね。

ところが イメージセンサーを使えば
人が見ると

この人 集中してるなとか
してないなって分かりますよね。

という事は これ
ディープラーニング使うと

人が どのぐらい集中してるか
っていうのは計測できるんですよ。

…で じゃあ 集中してるか
どうかっていうのが

スコアで
分かるようになったとしたら

集中してるかどうかを
予測対象にすればいいですよね。

つまり
目的意識を持っている場合は

センサーを使った方がいいし

そうじゃない
フワッと情報を獲得する時には

イメージセンサーがいいって そういう
使い分けになってくる…。

フワッとした事は
今まで できなかったんですね。

できなかったけど
重要なんですよ。

集中してるかどうかっていうのは
例えば 勉強する時に

集中力っていうのは 相当
重要な因子なはずなんですよね。

そうすると どういう条件にしたら
集中できるかっていうのを

分析できなかったんです。

ところが ディープラーニングを使って

集中してるかどうかっていうのを
計測する事ができると

温度とか 湿度とか
音楽とか 照明とか

いろんなものを変えた時に ここが
どう変わるのかっていうのを

学習させる事ができますから

ここが上がるように こっちを
設定すればいいんですよね。

っていうふうに
できると。

これ 集中だけじゃなくて 例えば
植物の成長とかも そうで

今までは 農家の方が
こういうふうな肥料をやったり

こういうふうな水のやり方したり
枝の刈り方すると

何となく よさそうだな
っていうのを

経験して ためてきて
やった訳ですね。

今は 植物も
ビッグデータの分析っていうので

いろんなセンサーつけて
計測してますけども

結局 一番の問題は 植物が

元気な状態で
育ってるのかどうかってのは

計測できないんですよ。

高さとかは計測できるんだけども
高ければいいって訳じゃないので。

本当に元気なのかどうかが
重要ですよね。

でも 元気なのかどうかが

こういうディープラーニングで計測する事が
できるようになると

じゃあ 植物の条件を
どう変えた時に

元気なのか
そうじゃないのかっていうのを

また 分析する事ができますから

元気になるような設定にすれば
いいと。

おもてなしのプロより
状況を完璧につかむAI。

あらゆる場所が
至れり尽くせりのラウンジに?

人間の目自体が
イメージセンサーやとしたら

目プラス脳で この掛け合わさりで
いろんな事を考えて やるけども

イメージセンサーという目が
AIという脳を持って

しかも その脳がIoTで

インターネットの世界に バ~ッと
つながってるってなると

人間よりも すごい効率的な判断が
できたりとか…。

イメージセンサー以外の
いろんなセンサーの情報を

組み合わせて分析すると
どういう条件の時に

こういう望ましい状態になるのか
ならないのかっていうのが

分析できてくるっていう事
なんですよね。

じゃあ 今
イメージセンサーが目っていうふうに

徳井さん おっしゃいましたけど

実際に触れてみるとか
香りを嗅いでみるみたいなのが

センサーみたいな事なんですかね。
ほかの特定の情報を得るための…。

そうなんです。
そこが また面白いところで

五感っていいますよね 五感。

五感は 目 耳 鼻 口
あと 触覚ですね。

これで
センサー かなり違うんですよ。

どう違うと思います?

上の2つは
デジタルで処理できそうですけど

下の3つは アナログの技術も

組み合わせないと
難しいとかっていう

線引きは そこにあるのかな
っていう気はしますけどね。

かなり近いですね。
目は やっぱ 光なんですよね。

光の信号 波なんですよね。

なので 処理するのが
すごい大変なんです。

しかも 光と音との違いって
何だと思います?

ちょっと分からないですね。
何でなんですか?

音と光の一番の違いは
指向性。

方向に対して どのぐらい
きっちりしてるか。

光は 一直線にしか進まないんで…
まあ 多少広がりますけど。

だから こっちから来た情報が
目に入るんですね。

音は 広がるんです バ~ッて。

跳ね返ったり。
跳ね返ったりする。

なので
音源を特定するっていうのは

これ 実は
すごい難しいんです。

光は 指向性が
非常に強いので…

そうすると
あそこに人がいるとか

人が踊ってるとか
歩いてる 転んだとか

全部 分かるんですよね。
だけど 音は

何か ドタッて音がしたので

誰か転んだらしいとかいうのは
分かるけど

それが誰かとか 細かい状況とか
分からない訳ですね。

だから この2つは波なので
ディープラーニングは 効くんです。

ただ 目の方が
情報量としては多いと。

鼻とか口は
嗅覚とか味覚っていうのは

実は すごく似た感覚器官で

実は 味覚って ほとんどないって
いわれてるんですね。

味覚のほとんどは
嗅覚情報なんです。

口の中に入ったものが 鼻を通じて
センシングされるっていうんですね。

生物として
危険なものがあったら困るので

危険なものを検知するように

いろいろ進化してきた
という事なんで

実は これは 化学センサーなんですね。

これ 波です。

化学センサーは 基本的には

その物質を検知できるかどうかが
一番重要なので

あんまり
情報処理 関係ないんですね。

ディープラーニングやっても
あんま関係ないです。

触覚は これ 圧力センサー
圧力を感じるんだけども

圧力センサーの
時系列情報なんですよね。

だから 先ほど
ツルツルっていいましたけど

ツルツルって何かっていうと
圧力が一定のまま変わらない。

ザラザラって何かっていうと
圧力が変化すると。

変化のしかたによって

いろんな触感が
違ってくるっていう事ですね。

なんで ここは
ディープラーニング 効くところですよね。

こういう違いがある
という事なんですけども

結局 こういうふうに
5つあったとしても

一番 ディープラーニングが効くのは

指向性の高い波である
目なんですね。

今 このイメージセンサーとセンサーの話で
パッと思ったのが

アイデアを出す時

ひらめきって こういう感覚あるな
っていうふうに思っていて

何となく 目的意識を持って
アイデアを探した方がいい

っていうふうに
思われがちなんですけど

どっちかというと
イメージセンサーのように

ぼやっと物事を捉えた方が
無駄な情報が入ってくるので

意外と その無駄な情報同士を
つないでみたら

新しいアイデアが
パンと生まれたりするので

どちらかというと ひらめき
っていうふうな観点で言うと

イメージセンサーの方なのかな
っていうふうに思いましたけどね。

その分 やっぱり
情報処理が難しいですけどね。

やっぱ いろんな情報から

取捨選択をしないといけないので
難しいんだけども

やっぱり 汎用性が高いっていうか
いろんなものに使えますよね。

じゃ もう 今後 どんどんどんどん
このイメージセンサーが発達していって

イメージセンサーに
いろんな事をさせる事によって

いろいろ進化していく
という事ですね。

<画像の判定を
効率よく行うために

隣り合う画素をまとめるという
手法を よく使います>

<では 会話や映像など

時間の流れで表現されるものは
どうでしょうか?>

<例えば 文章とは
単語が順番に並んでいるデータ。

単語の組み合わせが異なれば
意味も変わり

当然 それに対しての返答も
異なるものになります。

最後の言葉しか覚えていないと
ちぐはぐな会話になりますね>

<つまり 文章や映像は

時系列という情報があって
全体の意味をなします>

<前の判定を採用するために

中間層のニューロンを
入力層に遡って つなぎます>

<中間層に伝わった信号を
入力の一部に使います>

<判定を繰り返し
持ち越す事で

文脈も判定する事が
できます。

毎回 続けて見れば
イメージで分かる。

「2分でディープラーニング」でした>

人間とは ちょっぴり
不便が好きなんじゃないかな

っていうふうな気はしてまして

何か欲しいと 人が欲した時に

すぐに手に入るっていうのが
第1段階で

第2段階っていうのが
何か欲しいなって思う手前で

既に おもてなしじゃないですけど
スッと渡してくれるみたいな

感覚であると思うんですけど

その次って何かなって
思った時に

何か 適度な不便というか

それを いかに感覚的に
生み出せるかっていうのが

多分 AIと暮らしとデザインの
関係性なのかな

っていうふうに思うんですよね。
人がこけたら

すぐに治療してくれるというのが
第1段階で

そっち行ったら こけますよって
教えてくれるのが

今のAIだと思うんですけど

次は 「こけても
そんな大きなケガしないから

こけさせとけ」みたいな感じで
むしろ転ばさせてくれる

そういうハプニングっていうものが
すごい価値を持つのかなって…。

偶然性とか事故とか

そういったものが価値を持つ
時代が来るんじゃないのかな

なんていうふうに
僕は 思ったんですけどね

今日の話を聞いていて。

さっきの建築のデザインなんかで
言うと

一旦 もう ほんまに
ツル~ンとした家になって

そこから いやいや もうちょっと
人間が喜びそうなデザインに

していこうよみたいな…。
まさに そうだと思うんです。

あえてアナログな触り心地だったり

使い心地だったり
そういうものの方が

安心するのかなっていう気も
しますし。

何か 日本の昔の文化でも

やっぱり ちょっと不便なところが
いいっていうようなのも

ありますよね。

なんで 機能美っていうのも
いいんですけれど

ここは すごい
機能的に優れてるんだけど

別の この一点においては
すごい使い勝手が悪いんだよね

って言いながら
ちょっと うれしそうみたいな。

人間って そういうところが
あるのかなって気はしますけれど。

じゃ 続いて 私ですが もう単純に
さっきの五感のお話を聞いてて

人間とは 鼻と口だっていう事
なんですけど

もう 視覚情報って やっぱり

この四角いテーブルは
誰にとっても四角やし

でも やっぱり 味とかって
この人にとっては おいしいけど

この人にとっては まずいっていう
すごく好みが出て

すごく人間的な部分だなって
ちょっと思いましたね。

やっぱり
味覚とか嗅覚っていうのは

生物としての根源に
近いんですよね。

脳の仕組みの中で言うと

センサーの情報が
脳で処理される時も

かなり
感情とか情動系に近いところに

直接 つながってるんですよね。
生物として生きていく上で

この鼻とか口って
非常に重要だったんですよね。

それに比べると 目の方は

いろんな活動するために
出来てきたっていうような。

いや ちょっと 今回は
なかなか難しかったですね。

いかがでしたか?

AIについて考えれば考えるほど
やっぱ

人間って何だろうなっていうのは
すごい思いましたけれどもね。

何なんでしょうね?

僕 実は 実家が建築屋というか。
あっ そうなんですか。

建て売り住宅とかを売ってる
会社なんですよ。

だから ちょっと これから
家が どういうふうに

IoT社会になっていって
どうなっていくのかというのは

すごく 僕 楽しみでもあるんで。

ちょっと 何とぞ
頑張って下さい。

人々のスタイルが表れる暮らし。

それは美意識の表明でもあります。

何気ない生活の一場面に表れる
こだわりすらも

AIは理解し 人間を
包み込んでくれるのでしょうか?

最高の快適さが実現した時
逆に不安になり

あなたは
つぶやくかもしれません。

人間ってナンだ?


関連記事