米国『WIRED』誌の創刊編集長ケヴィン・ケリーの『〈インターネット〉の次に来るもの 未来を決める12の法則』という本を買いまして。テクノロジーの変化が未来に向かう流れや、これからの未来に向けてどうあるべきかなどを説いた思想書といった感じの本です。
土曜日に関連イベントに参加してきたのでそのことをブログに書きたいのだけど、すぐにはまとまらないので今日は本書にあったAIについての面白いエピソードがあったので、それをご紹介したいと思います。
ちょっと長いですが引用。
2002年頃に私はグーグルの社内パーティーに出席していた。
同社は新規株式公開をする前で、当時は検索だけに特化した小さな会社だった。そこでグーグルの聡明な創業者ラリー・ペイジと話した。「ラリー、いまだによく分からないんだ。検索サービスの会社は山ほどあるよね。無料のウェブ検索サービスだって? どうしてそんな気になったんだい?」
私のこの想像力が欠如した質問こそが、予測すること――特に未来に対して――がいかに難しいかを物語る確固たる証拠だ。
だが弁解させてもらえるなら、当時のグーグルはまだ広告オークションで実収入を生み出してもおらず、ユーチューブなど多くの企業買収を行なうはるか前の話だった。私もその検索サービスの熱心なユーザーだったが、いずれは消えていくのではと考えていた大多数の一人だった。
ペイジの返事はいまでも忘れられない。「僕らが本当に作っているのは、AIなんだよ」と彼は答えたのだ。
私はここ数年、グーグルがディープマインド以外にもAIやロボット企業を13社も買っているのを見て、このやり取りのことを考えてきた。
一見すると、グーグルはその収入の80%を検索サービスから得ているので、検索機能の充実のためにAI企業の買収を強化しているように思われるかもしれない。
しかし私は逆だと思う。
AIを使って検索機能を改良しているのではなく、検索機能を使ってAIを改良しているのだ。あなたが毎回、検索語を入力し、その結果出てきたリンクをクジックしたり、リンクをウェブ上で新たに作ったりするのは、グーグルのAIのトレーニングをしていることになる。
あなたが「イースターのうさぎ」の画像検索をして、結果一覧の中から最もそれらしい画像をクリックすると、あなたはAIにイースターのうさぎとはどういう姿なのかを教えていることになる。グーグルが毎日受けている30億回の検索要求の一つひとつがディープラーニングの先生役となってAIに繰り返し教えているのだ。
今後10年、このままAIのプログラムが改良され続け、データが何千倍にも増えてコンピューターで利用できるリソースが100倍になれば、グーグルは誰にも負けないAIを持つことになる。
2015年秋の四半期決算報告会で、グーグルのCEOサンダー・ピチャイは、AIは「われわれがしてきたことすべてを再考して変容させる、中心的な方法論になるだろう……それを検索だろうがユーチューブだろうがグーグルプレイだろうが、すべてのプロダクトに適用していく」と述べている。
私の予想では、2026年までにグーグルの主力プロダクトは検索ではなくAIになるはずだ。
(『〈インターネット〉の次に来るもの』 P51-52より引用)
AIを使って検索機能を改良しているのではなく、検索機能を使ってAIを改良しているのだ。
これ、すごくないですか。
つい我々はSF映画か漫画みたいな感覚で「将来はAIが決めるようになる」とか「将来はAIがやってくれる」なんていう風に「AIはよくわからない万能っぽいもの」と捉えてしまうことがありますが、軽く仕組みくらいは考えて発言しないと的外れなことを言ってしまいそうですよね。
いま主流になっているディープラーニング(ニューラルネットワーク)AIは、教師信号(正解)の入力から学んでいく「教師あり学習」と、大量のデータをグループ分けをしてみて学んでいく「教師なし学習」にわかれるそうです。
さきほどの引用に戻ると「イースターのうさぎ」の画像をクリックしている大量の人たちから何が「イースターのうさぎ」で何が「イースターのうさぎ」ではないのかを学んでいくことで『「イースターのうさぎ」とはどんな形をしているのか』学習した後は今まで見たことがない新しい画像でもそれが「イースターのうさぎ」なのかどうかを見分けられるようなるということです。
(ちなみに「イースターのうさぎ」はイースターエッグを運んでくるウサギのキャラクターのことだそうですよ。)
また、「うさぎ」と「イースターのうさぎ」を学習することで、より「イースターのうさぎ」画像が「うさぎ」という言葉を含んでいるだけはなく絵面としても「うさぎ」を含んでいることを学習したりもできるわけです。
イ・セドルと戦った、あの囲碁AI「AlphaGo」も人間による経験則による評価・判断を与えずにAI自身が一人(といっていいのかな)で自分との対局を数千万回繰り返すことで色々な局面について学習していったとのこと。
自律的に学習した結果どんな振る舞いをするのかはAlphaGoの開発チームでさえわからないらしいですね。
ディープラーニングの教師なし学習では囲碁みたいに自分と対戦して学べるような場合を除いて、学習範囲――つまり人間の判断を――大量に食わせてクラスタリングしたものを答えの拠り所としているとのことだから、「学習のために食ったデータ」から導きだせることに対してはそんなに間違わないけど、そもそも設問や食ったデータのどちらかに問題があったら「良い答え」(あえて正しい答えとは書かない)を導きだせないってことですよね?
(ここもし間違ってたら誰か教えてください。)
あ、まあ、ベースになる経験則と課題に問題あったら誤るなんてのは人間も同じではあるんだけどさ。
どんなデータを食わせたら設問に「良い答え」が出せるか判断できない場合のAIってかなり無力なんじゃないですかね。
(念のために書きますが僕は門外漢なので、感想として書いているだけでこの考え方が合っているかどうかわかりません)
例えば、来年に売れそうなデザインを類推するときに「過去の傾向から導きだす」ことはできても「新しいものの流行」は導きだせないってことになるのかなあと。
分業というか、AIが正しいデータから学習した経験則から導きだせるような判断をサポートしてくれるようなったら、人類は「新しいこと」に向けられるリソースを大量に持つことができるわけで、過去のデータから導き出すのは違う新しいことだけ考えてれば良くなるのかもしれず、そうなったときの未来を考えると胸が熱くなりますね。そうなるのか知らんけども。
なお、本記事は「検索機能を改良しているのではなく、検索機能を使ってAIを改良している」というのに痺れてノリで書いたものなので、特に深い論考だとかオチは特にありません。ごめんぬ。