THE長文日記

長文とか短文とかのクレームは一切受け付けません

AIと身体性 ニューラル機械翻訳の限界

 昨日は秋葉原プログラミング教室の保護者の方向けの説明会だったのであんまり考察できなかったんだけど、Google機械翻訳がそれまでの機械翻訳とどう異なるか、ということについて考えてみた。


 それまでの機械翻訳というのは、品詞分解して、構文解析をして、構文木を作って、それをもとに外国語の構文木を構築してから言葉をつくる。


 だから文章は殆どの場合、一対一で対応するように作られる。

We choose to go to the moon in this decade and do the other things, not because they are easy, but because they are hard, because that goal will serve to organize and measure the best of our energies and skills, because that challenge is one that we are willing to accept, one we are unwilling to postpone, and one which we intend to win, and the others, too.

 という、長い長いひとつの文を、従来のgoogle機械翻訳では

私たちは、その挑戦が1であるため、その目標は、私たちのエネルギーやスキルの最高のを整理し、測定するために役立つので、彼らは簡単ですが、彼らは困難であるためではないので、この10年で月に行くと他のことを行うことを選択します私たちも、私たちが延期に消極的である1つ、そして我々は勝つつもり1、および他の人を受け入れて喜んでであること。


 という、無理やりひとつの文に翻訳している。

 ただ、これでは全く意味が通じない。oneがそのまま1と翻訳されているのも、生真面目に全ての言葉に意味があるという前提で構文木が構築されるからだ。


 もちろん商用の機械翻訳ではもっと精度が高いものもあるかもしれないけど、ある時点から普通の人にとって機械翻訳といえばGoogleだったわけだからまあこれを基準にして考えてもいいだろう。


 これがニューラルネットをもとにした機械翻訳(面倒だから便宜上ニューラル翻訳と呼ぶことにする)ではこうかわる

私たちはこの10年間で月に行くことを選択し、他のことをやっています。なぜなら、それは簡単だからではなく、難しいからです。その目標は、私たちのエネルギーとスキルを最大限に体系化し、 我々が受け入れる意思がある、私たちが延期したくない、そして勝つつもりである、そして他の人たちも。


 もとがひとつの文なのに、3つの文に分割されている。

 そして当然、意味は掴みやすくなる。


 ただし、この文では、ケネディの心情やモチベーションがあまり強く伝わってこない。

 僕ならこう訳す

我々はこの10年以内に月に行くことを決め、必要な行動を開始する。これは決して容易な目標ではなく、むしろ困難だからこそ挑戦する価値があると考える。今こそ我々の情熱と技術を最大限に体系化し、その力を試す時が来た。そして無論、それは(訳注:ソ連など)他の人々にとっても目指すべき目標であり、我々が他の何を差し置いても勝利を掴むことを望むことだからだ


 もとの文と比較すると、これはもはや原型を留めていない。

 「We choose to go to the moon in this decade and do the other things」には、「必要な行動」とはどこにも書かれていない。しかし、この言葉の意味は「we choose ~ and do the other things」であるため、「選択(choose)」と「それ以外の行動」を行うことを意味している。日本語では、「選び、他のことをする」では意味が逆になる。選んだのに他のことをするんかい、というツッコミ待ったなし。

 

 また、「because that challenge is one that we are willing to accept,」は、ニューラル翻訳では「その目標は、私たちのエネルギーとスキルを最大限に体系化し、 我々が受け入れる意思がある、」という文の中に埋没されてしまっているが、このスピーチ全体を通してもっとも重要なメッセージであるはずの「challenge」が消えてしまってはこのスピーチの感動は伝わらない。


 意味的に正解しているという部分と、どの場所を強調すべきかということを考えると、まだ人間の翻訳者の出番はなくならないだろう。


 人工知能の歴史の大半は機械学習ではなく、むしろ言葉を分解して言語の構造を把握し、再構築するという記号処理の分野であり、研究者の多くはそちらを専門にしている。


 記号処理のアプローチは、たとえば口語に対応しづらい、新語に対応しづらいという問題がある。

 なにしろ前提として、全ての単語が品詞に分解可能でなければならず、たとえばKY(空気読めない)という単語が突然でてきたとして、どのような品詞に相当するか事前に考えておく必要がある。


 また、口語に限らず、自然言語は、厳密な構文規則に則って書かれることはむしろ珍しい。英語の教科書に出てくるような不自然な英語を喋るアメリカ人も英国人もまず居ない。


 文法とは、言葉より前にあるものではなく、言葉が先に生まれて、それを人間があとから分析した結果発見された「文の類型」に過ぎない。


 当たり前だが、アメリカ人もイギリス人も、SVOだとか三単現だとかいう文法概念から英語を覚えたりしない。

 なんとなく周囲の大人が言ってることを聞いて、自分もなんとなく喋ってみて、それでまた周囲の大人が修正したり、同世代の友だちと会話したりして習得していくものだ。だから自然言語なわけだし。


 そして仮に文法がデタラメでも、単語を並べれば意味が通じてしまう。

 ちなみに意味がデタラメでも文法が正しいとそれっぽく聞こえてしまう、という逆の問題もあって、これは人工無能、いまでいうチャットボットに応用されている。


 機械学習による機械翻訳は、どちらかというと自然言語自然言語のまま学ぼうというアプローチに近い。ただしそこにはいまのところ限界がある。


 これは、言ってみれば真っ暗な部屋に閉じ込められて、英日で書かれた文章の対だけをひたすら読み続けた赤ん坊が、意味をほとんど理解せずに任意の文章を一方の言語に変換するのに近い。


 普通に考えたらこれが上手くいくはずがないのに、なんとなく上手く行ってしまうところが面白いわけだけど、そのようにして学習する人工知能には、当然ながら当時のアメリカをとりまく状況や、ケネディ大統領の人気ぶり、人々の夢を一身に背負う使命感といった感動は想像の外にある。


 ただひたすら、それっぽいペアを作りだけだ。

 だからこのスピーチで最も重要なキーワードが「challenge」であることに注意を払わない。

 これを解決するためには、AIに渡す文章の量をもっと増やせばいいだけなのか、それとも全く別の方法が必要なのかはまだわからない。


 ところどころ部分的に見れば、実は従来型の機械翻訳の方が優れている点も多くある。つまり文法的に見たときの結果というのも決して無視できない。


 改良するなら、従来の機械翻訳の結果も、同時に機械翻訳のAIに入力して、「機械翻訳でこのように解釈されるものを人間はこのように整形する」というデータを学習させるという方法が考えられる。


https://i.gyazo.com/6e0603125bc7a932abc3a81313fabd57.png


 これだと、AIは学習の手がかりとして、人間が設計したいわゆる「大人の人工知能」である機械翻訳の結果を参考にすることができる。


 重要なのは「参考にはするが丸呑みはしない」ということだ。もしかすると生成された文章ではなくて生成直前の品詞情報を含んだ構文木そのものを渡したほうがより効果的かもしれない。


 「文章の構造はこのように見えるが、実際にはこのように翻訳される」ということが参考情報として得られれば、身体性を持たないAIであっても、ある程度は機械翻訳を設計した人間の知識や経験を借りて、身体性があるかのように振る舞うことができるかもしれない。


 イメージ的には、たとえば海外原作のあるSF小説を片っ端からこうしたAIに学習させるというやり方が考えられる。今のGoogleニューラル翻訳がもとにしてるのはあまり情動的なものを含まないニュース原稿などだと考えられるので、ですますが混じったりとか気持ち悪いことになる。


 「It's me」のような簡単な英語ですら、日本語には簡単に訳せない。それがどのような状況で、誰が誰に対して言っているかということで訳し方が変わるからだ。


 「私だ」なのか「僕だよ」なのか、「儂じゃあ」「オラだ」「自分です」なのか、キャラ付けによっても変わる。

 日本人の女の子をガールフレンドにして日本語を覚えた外国人というのは、総じて言葉が綺麗だ。なんのことはない、女性言葉になっているのである。


 だからおそらく上図のような工夫をしても、それほど効果はないのかもしれない。


 完璧に翻訳するためには、頭のなかで何が起きているか想像しなければならないし、想像するためには人生経験がある程度は必要である。部屋から一歩も出たことのない人間に実際の人間関係が想像できるわけもない。


 先日、初音ミクと人間のバレエダンサーが踊るドクター・コッペリウスという舞台を見に行って、あまりの難解さに頭を抱えてしまった。


https://i.gyazo.com/82e0bdbb20dc963184db2a410e94fb4d.png

 

 ロケット科学者のドクター・コッペリウスが、初音ミクと出会い、そしてなぜか月からの使者が初音ミクを月に連れ去ったり、ドクター・コッペリウスがいつのまにか重力の呪縛から解き放たれ、惑星探査機はやぶさと一体化して、小惑星イトカワから宇宙の果てにあるプラネット9に旅立っていくというストーリーで、しかも台詞が一切ないために、このストーリーはあらすじを予め読んでおかないと何が起きているのか全くわからない。


 初音ミクとバレエダンサーが実際に絡むシーンは非常に上手く作ってあって感心するが、一方、どこをどう見ればいいのかわからない。そもそもドクター・コッペリウスって何人なんだよ。


 「わからん。ぜんぜんわからん」と、知り合いのバレリーナの子に聞いたら、


 「要はコッペリアみたいなストーリーなのね」


 と返された。


 「コッペリア?」


 「クラシックバレエの古典」


 どうもコッペリアという話があるらしい。

 そこで調べてみると、コッペリウスという世捨て人の変人が居て、部屋の中には人形だらけ。そして、等身大の美しい少女の形をしたからくり人形を作ったコッペリウスは、それをコッペリアと名付けて部屋から窓の外を覗かせていた。


 からくりで動く美しいコッペリアは、遠くから見ると人間と同じようにみえる。町の人達はコッペリアを人間だと信じていて、あるときコッペリウスの留守中、美しいコッペリアを奪いにくる。


 ・・・という話らしい。なるほど、初音ミク=コッペリア、ドクター・コッペリウス=コッペリウスなのね。という、バレエに対する教養がないと見ていても意味不明なことというのはよくある。


 しかしそれでも、「はやぶさはそもそも大気圏に突入して燃え尽きたはず」とか、「プラネット9ってなんだ?」とか、解決されない疑問が多くてもやもやしていたところに、よくわからない物語が展開される。


 巨匠、冨田勲さんの未完成の遺作を完成させた追悼公演ということだったので、未完成だからこういうストーリーなのか、それとも最後におかしくなってしまったのか、僕には全くわからなかった。


 もはや最終的には「やはりどんな巨匠も最後はもうろくして、わけのわからない話を作って死んでいくのだなあ、まさに追悼って感じだなあ」と思っていたのだが、F岡さんの感想文(http://blog.livedoor.jp/tikaram/archives/52204606.html)を見て衝撃を受けた。


 なんとF岡さんは僕と同じ公演を見ていて泣いたらしい。

冨田勲 追悼特別公演「ドクター・コッペリウス」の感想を書こうと思い始めてかれこれ1時間、自分でも驚くほど言葉が紡げないでいる。ドクター・コッペリウス第4楽章での胸締め付ける思いの理由を、第7楽章の途中から頬を濡らし始めた涙の理由を、ずっと考えている。


今はMacBook Airを持ち歩いているが、その前は15インチのMacBook Proを使っていた。その液晶裏面には冨田先生のサインが記されている。何年か前、ストリーミングの番組、DOMMUNEでご一緒したときに書いていただいたものだ。宝物であることは言うまでもない。そのとき、冨田先生と交わした言葉、ほんの二言三言だったけど、それを思い出しながらドクター・コッペリウスを聴いていた。あのサインをいただいたときに、喉まで出かかって聞けなかったひとつの質問を思い出した。


「先生にとって初音ミクはどんな存在なんですか?」


第4楽章「惑星イトカワにて」は、その答えであるように思えた。先生にまといついていた重力を解放をした存在。


第7楽章を終えて先生は旅立たれた。そのことの喪失感に襲われながら、それはとても幸せな旅立ちだったのだと確信した。永遠の存在であるミクと素敵なダンスをしながら、僕は十分楽しんだよ、と言っている気がした。


 そういうふうに解釈すべき作品だったのか!


 あれをみてこんな感想が書けるF岡さんは凄い、凄すぎると思った。


 教養がないと芸術作品を楽しむことができないというのはある程度本当だと思う。

 僕はバレエとクラシック音楽の教養がなかった。初音ミクの舞台は何度か見に行ったことがあったので、見れるかな、と思ったけど難解だった。



 機械翻訳の話からなぜバレエの話になったのかというと、この場合、僕もF岡さんも同じタイミングで同じ公演を見ていたわけだ。


 そのうえで、まるで解釈が異なることが問題なのだ。

 同じ入力であっても、人によって解釈が異なる。


 同様に、翻訳も、同じ英文であっても訳者によって解釈が異なるのが当然で、AIにはそのようなことは今のところは起きづらい。なぜなら、AIは人生を経験したりしないからだ。


 AIが獲得できないものとして、おそらく最後まで残るのは人生を経験するということになるだろう。

 映画を見たり、物語を読んだりして想像することはできるが、実際に自分が人生の主人公になって自分の人生を生きるということはAIにはどうしてもできない。


 それは我々がAIの人生を経験することができなかったり、犬や猫になれなかったりするのと同じで、根源的な問題である。僕もF岡さんのようには生きられない。


 人間が人間以外と言葉で会話できない理由のひとつは、生き方のまるで違う生き物と会話するためのプロトコルが存在しないということが挙げられる。


 せいぜい、餌を与えたり頭を撫でたり、くらいが限界で、それ以上複雑なことで意思疎通するのは困難である。


 そして作者の意図、発言者の意図までも汲み取って翻訳するAIが生まれるまでにはまだまだ気の遠くなるような時間が掛かりそうだ。


 だから情熱的な文章や「I love you」を「月が綺麗ですね」と訳すような「超訳」センスが必要になるのである。当たり前だが、昼間のベッドで「I love you」と囁いた時に「月が綺麗ですね」と訳したら台無しになるし、しかし所詮は原文と訳文のペアでしか学習できない機械学習人工知能にはそれがナンセンスであることがぜんぜんわからないに違いない。


 こうした訳をするためには、記号処理的な方法でもダメで、実際に人間として生まれて、育って、両親の愛情と、友達と喧嘩して、恋をして、悩んで、結ばれて、そしてまた悩んで、別れて、という人生の機微を経験しないと不可能で、こうした訳は表面をなぞってもダメで、人生を謳歌した人間だけが初めて可能な訳なのである。


 しかし、現状のAIでも、どうでもいい内容のニュースを翻訳したり、技術的な文書を翻訳する仕事は捗りそうだ。一度AIに訳させて人間がチェックすればいい。ゼロからイチを生み出すのは人間にとって苦痛だが、出来上がった物を修正するだけでいいのであれば遥かに簡単になる。


 技術文書の場合は、とりあえずニューラル翻訳にかけて数式からみて矛盾してそうなところや意味のとれないところだけを原文を当たればだいたいアタリが付けられる。少なくともその論文を読むべきかそうでないかくらいは判断できるだろう。


 AIへの仕事の置き換えはそういうレベルで着実に置きていくだろうなあ