THE長文日記

長文とか短文とかのクレームは一切受け付けません

AIで人格の不老不死を実現するゴーストダビングの可能性

 以前、このブログでも紹介したように、AIの世界には蒸留という概念がある。


https://i.gyazo.com/b8ac50fc00b726c58d4d84606fd43051.png


 おさらいすると、蒸留とは、複雑な学習が終わったネットワークの、入力とSoftmax前の出力を取得してよりシンプルなAIに入力と反応を学習させるというもの。


 イメージとしては、九九を覚える、みたいなものだと思ってくれればいい。9x9を9を9回足すのではなく、9x9=81と丸暗記してしまうのだ。


 人間同士であっても、師匠のワザを盗め、とはよく言ったもので、僕はどうして一流の料理人や芸術家が書生を雇うのか以前から疑問だったのだが最近になって「それしか相手の能力を完コピする方法がないのでは」と思うようになってきた。


 僕は影響を受けやすいので長いこと一緒にいると、相手のクセがつい自分に出てしまうというのを幾度も体験してる。また、ボスのモノマネがどんどん上達する。付き合いが長くなると相手の考えが読めるようになる。相手と同じように考えることはできないが、相手と同じような結論を出すことができるようになってくる。


 これは一種の、人格の蒸留と言えるだろう。


 AIにおける蒸留と通常の学習の違いは、通常の学習では、たとえば写真とクラス(その写真が何であるかという回答)だけを手がかりに学習する。


 たとえば猫の写真なら、猫というクラスという手がかりしかない。

 しかし一見すると猫のように見える画像であっても、虎かもしれないしクマかもしれない。


 AIにはそうした迷いがあって、それが特徴空間に「60%は猫、5%くらいはクマ、1%くらいでメスのライオン」という曖昧な情報を出力する。


 師匠となるAIの「曖昧さ、迷い」をまるごと学習したほうが、ゼロからぜんぶ学習するよりも効率的であるというのがAIの面白いところだ。


 そういえば、そのむかし、僕が師と仰ぐ水口哲也に「世界で通用する創作の秘密を教えてください」と頼んだら、「とりあえず砂漠に行こうか」と言ってネバダ州のデスバレーという砂漠に連れて行かれ、ホテルの部屋も移動も24時間ずっと一緒に一週間過ごすことから始まった。


 よくわからんがそういうことなのかもしれない。

 このとき水口さんはほとんどなにも語らなかったけど、彼の見せてくれた景色と、その景色にインスパイアされて作った彼の音楽に満たされて、よくわからないが、水口哲也のことが少しわかったような気がしたのだ。


 そうして僕達は師匠の考え方や感じ方を学ぶ。間近で水口哲也の一挙手一投足を見るのと、遠くから水口哲也の作品(アウトプット)だけを見るのとでは学べるものはまるで違う。


 残念ながら、僕は水口哲也のようなイマジネーションを持てるようには未だ至っていないけれども、それでも才能のない僕がなんとか水口哲也を理解できたような気がするのは、こうした個人的な経験によるところが大きい気がする。


 AIの弟子がAIの師匠を蒸留するように、人間の弟子が人間の師匠の一挙手一投足を学ぶように、AIの弟子が人間の師匠を蒸留することは可能だろうか。


 AIが人間の振る舞いを単なる生理的反応だけから蒸留することは難しい。

 人間の振る舞いはわかりやすいアウトプットにはなってないからだ。


 そこで脳の状態を撮ってみることを考えた。

https://i.gyazo.com/976e46f127527be25171c70cab2d000d.png

 今のfMRI装置では、被験者に映像を見せ、簡単なボタンによるコミュニケーションができるようになっている。

 ゲームやクイズ、見せられた画像を好きか嫌いかなどを被験者に判断させてボタンを押させることができる。


 ところで、とあるプロジェクトでこういう人間の脳の状態と画像のセットを数百人から収集しているという話を聞いて、それはもしかしてあまり意味がないかもしれない、と思った。


 たとえばAIで考えると、AIは初期状態がランダムな状態から学習していくことで特徴を掴んでいくので、たとえ全く同じ構造のAIで全く同じ学習データセットを使ったとしても、それぞれのAIで発火するニューロンが異なる。いわばこれがAIの個性と言える。


 AIの元になっている人間の脳も同じような性質を持っていると考えられ、大脳の中で視覚に反応する場所や聴覚に反応する場所などに大まかに別れているだろうが、その中の個別のニューロンが同じものを見て同じように反応するとは考えづらい。


 つまり、猫を見ても、発火するニューロンは人それぞれ異なる部位である可能性が高く、むしろ猫を見た時にどのような脳血流になるかというのが人の個性、もっと言えば人格の特徴空間を意味しているとも考えられる。


 要するに沢山の人間の脳血流状態を撮るよりも一人の人間に沢山の映像を見せて、その脳血流の状態を見たほうが価値が高い。


 仮にある映像を見た時に被験者と同じ反応を返すAIができるとすれば、そのAIは被験者の反応を蒸留できているということになる。いわばゴーストダビングだ。ただしこれは人間の脳をAIにダビングしているのであって、人間の脳に他の人格をダビングするわけではない。


 世の中には、死んでは困る人というのが大勢いて、そういう人たちが寿命が尽きて死んでしまう前になんとか彼らの人格をAIにコピーできないか、というのもAI研究の重大テーマのひとつである。


 FacebookfMRIの専門家を募集したところ、すぐに幾人から連絡をいただき、そこで昨日、早速fMRIの専門家に話を聞きに行った。


 今現在のfMRIの分解能は8mm、頭部ぜんぶでおよそ3万ボクセルで、256x256のカラー画像の18万次元と比べるとおよそ1/6の情報量になる。


 深層学習のプログラミングを経験した人なら、18万次元を3万次元に圧縮することなど造作もないことはよくわかるだろう。fMRIもそういう目的なら貸せるのではないか、とのことだった。


 これはイケる!

 と思ったのだが、なんと一枚の画像に対する反応を撮影するのに8秒くらいかかるらしい。深層学習では最低でも10000枚くらいの画像とその反応は欲しいので、80000秒、22時間かかることになる。


 22時間もMRIの中にいたら人は発狂してしまう。

 ただでさえMRIの中にいるとストレスが貯まるというのに。


 僕も定期的にMRIをやっているが、いつやっても不愉快なシロモノだ。

 ゴーストダビングしておきたい巨匠やご老人に22時間もMRIに入ってもらうことは現実的にほとんど不可能に近い。


 例えばだけど、スティーブ・ジョブズを死ぬ前にゴーストダビングしておいて、「ジョブズ様、今度の新製品でございます」って言ってApple Pencilを見せて、脳がどんな状態になるかを知るというのはできたら面白いけど、脳の状態だけ再現されても困るっちゃあ困る。


 では人間が死人の考えを知ることはどうすればできるのかというと、もちろん喋ってもらうのが一番いいんだけどそれはまあまだ無理として、そうすると、意外と顔の表情が再現されればなんとかなるんじゃないかと思えなくもない。


 たとえばApple Pencilをジョブズのゴーストに見せると顔をしかめたり、LISAを見せると苦笑いしたりすれば、なんとなくだがジョブズがどう感じるかは知ることができる。


 だとすれば、もしかすると、蒸留すべきは脳内の状態ではなく顔の表情だろうか。

 でも人間は、いざ被験者になると途端に無表情になる。顔だけを見ていても心が踊っているのか喜んでいるのか怒っているのか判断できない。人間が見ても難しいものを機械が再現できるわけがない。


 けれども或いは、無意識なうちの人間の行動を記録することができれば、突発的に顔に警戒の色が浮かんだり、喜んだり、ウソをつこうとしたりといったボディランゲージを再現することくらいはできるかもしれない。


 人間を理解する側の機械の解像度が上がれば、特定の人物の反応を完コピすることもいずれできるようになるだろう。


 そのためにはできればその人間を四六時中監視しているカメラとマイクがあるのが望ましい。


 今の技術で追いつかないとしても、いずれ近い将来、そうしたことが学習できるAIが生まれないとも限らないのだ。



 まあそうまでして、未来に残す必要のある人物ってどんだけ居るのかな・・・というかそうまでして生き残りたいだろうか。たぶん自分の主観的体験はAIにダビングされても引き継がれることなく生物学的な死とともに消滅するだろうし・・・


 けど、やっぱり、ファウンデーションに出てくるハリ・セルダンの霊廟じゃないけど、かつての偉大な頭脳が今も生き残っていたらどれだけ良かっただろうと思わなくもないわけで・・・



 または帝王の殻という説もあり(FBでコメントを受け)


帝王の殻

帝王の殻


 こんなイベントも企画してます。

 残席わずか

http://peatix.com.new.s3.amazonaws.com/event/205294/cover-J53PjOy9aT0kkgof2rmWKhksaYL4WEMi.jpeg

「人工知能は教育をどう変えるか?」品川女子学院 漆校長×清水亮 -『よくわかる人工知能』発売記念セミナー | Peatix

http://peatix.com/event/205294