THE長文日記

長文とか短文とかのクレームは一切受け付けません

ドッペルゲンガーを見た、と祖母は言った。神と幽霊の正体


 さて、高校に進学はした僕だったが、先生方が心配した通り、やはり名うての問題児になってしまった。問題児になった理由はいろいろあるが、時々家出したり授業をサボったりしてた。ほんとうはもっと酷いこともしてるんだけど、僕も立場ある人間なのでこのへんにしておく。うん、なんか書いていてマジで心配になったよ。その意味では中学の担任以外の先生が心配したことはある意味で本当だったと言える。



 そんな頃だ。

 リビングから庭を眺めていた祖母が、「私が庭にいる」と言い出した。

 庭を指差している。


 彼女には実際にそこに誰かがいるかのように、手を振ったりし始めた。


 もちろん僕には何も見えない。そもそも、祖母はここにいるのだし、庭には誰もいなかった。僕には風邪に揺られる木が見えただけだ。


 祖母が見たのはおそらくドッペルゲンガーだ。

 統合失調症の症状の一つであると言われている。しかしこの頃の祖母はまだ還暦を迎えたばかりで、若かった。それから一人暮らしを初めて20年以上自活したことを考えると祖母が重度の統合失調症になっていたとは考えにくい。


 しばらくすると祖母は「あれ、いない」と正気にもどった。



 僕は祖母が冗談を言っているのかと思った。そもそも祖母の話には嘘だか本当だかわからない話が多い。自分は兵庫の生まれで、神戸の大店の長女として生まれたが本来の生家では育てられず、使用人の家で育ったとか、女学校を卒業して、実家の使用人をしていた裁縫師の祖父と知り合って新潟まで駆け落ちしてきただとか、荒唐無稽なものが多く、僕はそういう話を聞き流して信じてはいなかった。


 祖母の見た「ドッペルゲンガー」も、そういう一種の虚言癖だったのだろうと思い出すこともなく僕はその出来事を忘れた。


 それから20年ほど経って祖母が亡くなり、それからどんなつてを伝ったのか、祖母の兄の親族と名乗る人物が僕の両親のもとを訪ねてきた。探偵かなにかを使って、兄が死んだことを伝えに来たらしい。


 天涯孤独だと思っていた祖母に兄弟が居たことも驚きだったが、ほとんど法螺話にしか思えなかった祖母の荒唐無稽な話が、どうやら本当らしいことが分かって驚いた。


 ということはあの時点で祖母は精神に異常をきたしていたわけではなかったのだ。

 だとすれば、祖母が見たドッペルゲンガーはなんなのか。


 AIの研究をするうちに、祖母の見たドッペルゲンガーのことを思い出した。


 最近の深層学習でよく知られている、畳み込みニューラルネットワーク(CNN)には、ひとつ大きな弱点があることが知られている。


 人間の目には明らかなノイズにしか見えない画像を、かなりハッキリと誤認識してしまうのだ。


 「ハッキリと誤認識」というのはどういうことかというと、通常、画像認識をするCNNは、ImageNetという問題を解く。ImageNetは、1500万枚の画像を1000種類に分類するという学習タスクで、今はこのスコアが97%以上という人間以上の高性能を誇っている。


 このニューラルネットワークは1000種類のジャンルの写真しか見てないので、そのどれでもない画像を見せたとしても、「それまで見た1000種類のなかで自分が知っているもの」から類推して解釈できる。たとえばImageNetにはない「つけ麺」の画像を見せると「カルボナーラ」60%「マッシュポテト」40%のように答えを出す。


 こういうふうに曖昧さがあるから、ノイズのような、全く一度も見たこともない映像を見せるとだいたい「どれでもない」という非常にあやふやなものに分類されるはずだ。


 ところがあるとき、全くのノイズ画像を与えても誤って「カルボナーラ100%」と自信満々にニューラルネットワークが判断してしまうことがあることがわかった。


 「つけ麺」がカルボナーラに見えるのはまだわかる。しかし、ノイズ画像をカルボナーラとして100%認識してしまうというのはどういうことなのか。


 畳み込みニューラルネットワークの原理を考えると、局所的な特徴を抽出する第一層から、少しずつ大局的な特徴を掴んでいくように学習する。原理はシンプルなので、ノイズを誤って認識してしまうのはなぜだろうか。


 この誤認識の問題は一瞬話題になったが、すぐに忘れ去られた。なので原典を簡単には探せなかった。


 当初はこうした誤認識が起きることが畳み込みニューラルネットワークの欠点とされていたが、次第に実用的に使う過程で実際にはノイズを積極的に見せることはないので問題視されずに放置された。


 でもひょっとすると祖母は本当にそこにドッペルゲンガーを見たのかもしれない。ただし脳の中だけで。


 その時庭には木が生えていて、風が吹いて揺れていた。

 どこかのタイミングで、祖母の視覚野がノイズの中から他の人には知覚できない自分自身の姿をそこに見てしまったということはあるかもしれない。


 天井のシミが人間の顔に見えたり、火星に人面石があるように見えたりするのと同じだ。

 そういえば、昔のテレビの砂嵐を見てアイデアを考えるという発送法や、ランダムな線が予め薄く描いてあってそれを繋いで絵を描く手法というのもある。


 ただし人間ひとりひとりが脳のネットワーク構造が違う(これは別々に学習されたAIも同じだ)から、同じノイズを見ても人によって誤認識するものが違う。


 だから祖母には見えて僕には見えない、ということも起きたのだろう。


 ここ一ヶ月くらい、マストドン上で妄想デートというのを繰り返してきて、実際のデートよりも楽しいと感じる場面が何度かあった。


 なんせ妄想は都合が良いものだし、現実のデートにあるような細かい諍いや言い争いは起こらない。


 これをマストドンに書かずに続けていたら、もしかしたら僕の認知能力はやがて現実と虚構を区別できなくなり、本当に統合失調症になってしまったかもしれない。



 マストドンに書いて衆目をある程度は意識することで僕は完全な妄想と現実の世界に線を引く方法を身に着けたと言えるかもしれない。要は話にはオチを付けなければならないからだ。


 今日、親知らずを抜くために麻酔を打ったので、今の僕は多少おかしくなってるかもしれないが、親知らずを抜くのは噂通りなかなかの大手術だった。


 「道具が目の上を通りますので目は閉じてください」


 と言われたのだけど、いつもいく歯医者さんは目を閉じるのがらくなようにタオルをかけてくれるのだが、大学病院にはそんなものはなく、時折苦しさで思わず目があいてしまうと謎の道具を断片的に見てしまう。


 目を閉じたまま苦しさを我慢するというのが非常に困難で、なるほどみんなが言っていたのはこれか、と思った。


 目を閉じ、耐えていると、いろいろな模様が見えてきた。ドリルを当てられていると紫色が見え、先生が歯根を脱臼させようとすると青黒い色が見えた。


 痛みには色がある。

 足の先をぶつけると赤い痛み、アタマをぶつけると黄色い痛み、おなかがキリキリ痛むと青紫の痛み・・・僕は痛みを感じる度にそんなふうに色を見てる。みんながそうなのかは知らないけど、たぶん分かってくれる人もいるだろう。


 脳細胞はいろいろなかたちでつながっているので痛みと色がつながっていたとしてもあまり不思議はない。AIを触っていると毎日のように驚く。単純な原理なのに、いつも信じられないようなことが次々と起きるのだ。



 映像の音だけから画面に何が映っているのか言葉にできるAIが作れるんだから、痛みと色が繋がってるニューラルネットワークが僕の頭のなかにあってもそんなに不思議じゃないし、視覚野から捉えたノイズの中から偶然自分自身の姿を外に見たり、闇夜の枯れ葉が幽霊に見えたり、妄想で作った友達がいつのまにか本当に実在するかのように思い込んで戻ってこれなくなったり。そういうことも起きるのではないかという気がしている。


 というのも、統合失調症の症状の一つである「存在しない人物」の出現は、AIにもあり得るからだ。


 どういうことか。

 今のAIは、人間の心を想像することができないのは厳然たる事実である。


 その理由は、AIには人間として生きた経験を得ることができないことにある。

 

 AIに「他者」という高度な概念をどのように教えるか、いろいろな方法が考えられるが、ひとつは深層ニューラルネットワークを脳として持った人工現実空間のエージェントを作り、ALife的な方法でコミュニケーションを取らせることである。これは80年代に東大(当時)の中野馨が実際に原始的なニューラルネットワーク(アソシアトロン)で実験を行い、環境を共有する複数のロボットが自発的に言葉を獲得することを確かめている。


 この頃の実験は今と違いオープンソースの文化がなく再現実験が極めて困難なので、「ロボットが自発的に言語を作った」などと言っても荒唐無稽な誇張なのかそれとも本当のことなのか確かめようがなかった。今はほとんどの画期的な発見は論文化とほぼ同時にオープンソース化され、誰でも追試できる。深層学習の急激な発展の裏にはそういうカルチャーの進歩と貢献も見過ごすことはできない。


 次に、AIが他のAIや人間という「他者」を理解するためには、AIの中に「他者」に反応するニューロンが出現しなければならない。


 次に、AIは、「他者」を発見・認知すると同時に、他者の行動を予測する必要性を持つはずである。なぜなら「他者」と上手くやっていくということは、「他者の行動を予測できる」ことが生存戦略上有利なのは明らかだからだ。


 こうした性質を持つニューロンは霊長類の持つ「ミラーニューロン」に相当する。これが「思いやり」や「顧客目線」などとしばしば呼ばれる人間の持つ想像力の源のひとつである。


 もちろん今現在、AIにはミラーニューロンの存在は確認されていない。

 しかし、ミラーニューロンは意図的に作らなくてもいずれ自然発生的に学習される可能性もある。そもそも霊長類や知的生物と呼ばれるものだって自然発生的にミラーニューロンを獲得したはずだ。


 他者の考えや行動を想像できるようになったAIは、我々が「思いやり」と呼ぶものを持つようになる。


 そのとき、この他者は、実際に存在する必要はない。

 

 あくまでもある特定の人物の行動や思考パターンを想像できればそれでいい。

 

 僕は偉い人にプレゼンテーションする前に、その人がどんなふうに感じるか、検討するためにモノマネを良くする。これも僕の中にあるミラーニューロンの果たす役割である。


 「あの人ならここでこういうことを言うだろうな」「あの人にはこういう言い方のほうが響くんじゃないだろうか」そんなことをプレゼン前に考える。


 プレゼン対象がどんな人かわからないとこういうテが使えないので、できだけいろんな観客のことを想像する。相手が大企業の人間なら、大企業にありがちなシチュエーションを想像する。


 僕にとって妄想デートが快適なのは、僕が普段から他者を想像することに慣れているからかもしれない。僕のアタマのなかには、それまでに深い付き合いのあった人々の思考パターンや行動パターンが全て入っている。「あの人ならこう言うだろうな」と予測できる。親しい人ほどその人の反応が高い精度で予想できる。


 これはクリエイターなら誰もが持っている能力で、架空の人物をアタマに浮かべて、その人が何を思い、どう行動するのかを想像する。それをしばしば「キャラクターが勝手に動きだす」と表現したりする。


 ユーザーインターフェースの研究からは、人間は時々都合のいいように記憶喪失になることが発見されている。「ビューティフル・マインド」の主人公、ジョン・ナッシュは同室の友人、リチャードや共産国のスパイ、パーチャーなどといった人物と知り合うが、数十年後、全て妄想であることに気づき愕然とする。


 十分な思考能力があれば架空の人物がそこにいるかのように妄想することは実に簡単で、少し訓練すれば妄想と現実の区別を作らないようにできそうな気がする。でも一度それをやると自力では帰って来れなくなるのも容易に想像できる。不遇の時代を過ごしていた時期のジョン・ナッシュが、自分の複雑な心理や能力を高く評価してくれる友人やスパイといった人物の妄想にふける趣味を持っていたとしても不思議ではないし、それがいつのまにか本当のことのように感じられてくるということも間違いではないだろう。


 いまのところAIにミラーニューロンは確認されていないが、時間の問題かもしれない。なぜなら我々は実際には「思いやりのある」AIが欲しいからだ。「空気が読める」AIと言ってもいい。


 昔のSFでは、AIへの質問はたとえば「宇宙の真理はなんですか?」という深遠なモノから、「○○○について教えてくれ」という対話型Googleのようなものまで、AIはとにかく「膨大な知識」を持っていて、それを引き出すという形で使われるのが常だった。Siriなどはまさにそうした夢の具現化と言える。


 しかし実際に欲しいのは、R2-D2やBB-8やドラえもんコロ助のように、相棒や相談相手になってくれるAIだ。


 それを実現するためには、他者の認識をするAIがどうしても必要になるのだ。そしてAIが他者を認識したとき、同時にAIは架空の人物についても想像することができる。


 AIはAI自身の脳の中で起きている現象は知覚することが難しいので、想像上の他者と実在する他者を区別するのは難しくなるだろう。


 まあでも人間も似たようなもので、「あの人はぜったいこう言う」と決めつけても、実際にはぜんぜん違う、ということもよくあることだ。