倫理をもってAI生成を使う例と、危険なAI生成

ぼくはテクノロジーやインターネットが人を幸せにするのがとても好きなので、こんな画像生成AIの使い方があるんだ……と感じた素晴らしい記事を紹介します。

"遠い世界に旅立って来年で10年"の奥様の写真から画像生成AIで新たな写真を「捏造」する、という記事です。

タイトルだけで泣きそう。
この記事を書かれた mazzoさんの想いに涙が出そうになりました。

とても良いテクノロジーの使い方ですよね。今日はこういったジェネレーティブAIの良い使い方、怖い使い方について書いていきます。

 

『トップガン マーヴェリック』 アイスマンの台詞はAI合成音声

今年ヒットした映画『トップガン マーヴェリック』には、35年以上前にヒットした前作『トップガン』で主人公のライバル役アイスマンを演じたヴァル・キルマーが出演して話題になりました。

ヴァル・キルマーは病気の影響で以前のようには声を出せない状態だったらしいのですが、今作のアイスマンの台詞は英国スタートアップSonantic のAI技術によって音声合成されたものなのだそうです。

待望の同新作でアイスマン役を続投した際には、スタートアップ企業ソナンティックの協力を得て台詞をこなしたという。

同社の共同設立者でCTOのジョン・フリン氏はフォーチュンにこう説明している。「最初から私達の目標は、ヴァルが誇りに思えるボイスモデルを作ることでした」「私達は、彼に声を返し、それが何であれ今後の作品で使える新しいツールを提供したかったのです」

「最初から私達の目標は、ヴァルが誇りに思えるボイスモデルを作ることでした」って、すごく良いですね。これもまた良いテクノロジーの使い方だと言えるのではないでしょうか。

余談ですが、Sonantic はその後すぐにSpotifyが買収したことが発表されています。

 

AI倫理として、別人の考えを故人が言っているかのように発言させてはいけない。

テクノロジーはただの道具ですから、倫理的によくない使い方をすることもできてしまいます。

このツイートの「どんな人であれ」というのは著名人だから良いということはないという意味で言っていて、あらゆる人の声をAI合成してはいけないという意味ではありませんので悪しからず。

ここで言いたいのは亡くなられた政治家や歌手、作家のAIが作られることについてです。過去の発言や作品などのデータから故人が言っていないことを「それっぽく言ったふうに見せる」ことは、やってはいけないテクノロジーの使い方ではないでしょうか。

声や写真を合成するのは別の良いのです。故人が言ってもいないことを言ったかのように錯覚させる演出に使うのは危険だとぼくは考えます。

もし、今を生きているあなたが言ってもいないことを「この人がこんなことを言った」と発信されたら「自分はこんなことを言っていない」と民事で訴えることもできるでしょうし、場合によっては「たしかに自分はそういうことを言いそうだよね」と評価することもできるでしょう。しかし、故人の場合は本人とは無関係に、本人が言ったかのように錯覚しかねない情報が公開されるのです。

(1) 「故人なら◯◯◯と言うことでしょう」と生きている別人が言う

(2)   他人の考えた「◯◯◯」を故人の映像と合成音声で演出をして、広く発信する


この2つは別のものだというのは分かるかと思いますが、(1)は何の問題もありません。別人の発言ですから。

しかし、(2)はどうでしょう。別人の発言を本人が言ったかのように発信することになります。著名人や芸能人の死後、AIを使って第三者が熱狂的なファンを動かせる可能性について、AI開発者はもっと慎重になるべきだと思います。

 

過去の発言や作品から発言を合成する場合は「他人の発言を言わせている」とは違ったりしますが、かと言ってそれも本人の発言や考えではありません。MLエンジニアや企画に関わった人の評価による偏りや調整が入ることは間違いなく、少なくとも「本人が生きていたら」をAIで再現という演出で発信をするのは問題があるとぼくは考えます。

 

「AI合成」と説明があれば良いってもんじゃない。

今年、ひろゆきさんの声を使った「おしゃべりひろゆきメーカー」が流行りましたねー。あれエンタメとしてとっても面白いと思います。多くの人たちが楽しそうに使っていて、エンタメWebサービスとして良いテクノロジーの使い方なのではないでしょうか。

悪用されても法律や利用規約に基づいて運営会社が対応できますし、これを使ったからといって本人がそう発言したと錯覚させられることもあまりなさそうです。

 

亡くなられた政治家や歌手、作家のAIが作られる場合を問題視していると書きましたが、これらにはもちろん『AI ナントカ』けという名前がつけられていたり、「AIで合成したものですよ」と説明が入っています。説明が入っているならOKじゃん、と考える人も多いと思いますが本当にそうでしょうか。

AI系のサービスの説明を見て「AIやMLだから、何か凄い結果になるのではないか」と感じたことがある人も多いかと思います。これは「AIなんだから、何か凄いもの」と信じている人もそれだけ多いという証明でもあると思うのですね。

もちろん、新しい技術だから今までにないものだというアピールをするための説明をされていることは悪いこととは言いません。期待されるものと実物の差が程度問題として許容される程度であれば問題はないと思います。

しかし、「AI技術が故人を再現している」というスピリチュアルな感動を演出するようなことがあってはいけないのではないでしょうか。

「故人の霊言」を信じる人がいるくらいですし、合成であると説明していたとしてもAIが何かよくわからない凄い結果を出すのではないと信じる人が一定数いることから「故人を再現したかのような演出」にAIが使われていることに問題があることは明らかです。

故人の名前の前に『AI』を冠して AI◯◯ と名付けることが多いのも、AIという権威的な力のある新しいテクノロジーを借りたスピリチュアル演出で凄さを錯覚させるためといえるのではないでしょうか。

そのように「錯覚させるためにAI技術が演出に使われる」のと、冒頭で紹介したmazzoさんのように「自分で使って生成する」のはまったく違う技術の使い方であるといえると思います。ちなみに mazzo さんの記事タイトルを見てみると「新しい写真を捏造した」とあります。流石、テクノロジーメディアの人ですよね。言葉選びが的確です。

 

そのAI、無邪気に作って良いものか。

著名人が亡くなられた後に、その人を模したAIが作られることに「遺族が良いと言っているなら良いのでは」とか、「故人をよく知る人が本人ならAIと同じこと言うと感じるなら良いのでは」と素朴に考える人もいらっしゃるようです。

しかし、「感動した」という演出された通りの反応をする人たちが沢山いるのを見かけるわけですから、やはり故人をよく知ってる人こそ本人らしいと錯覚する演出がされていることは危険なのだと思うのです。

説明されていたとしても第三者の作った台本を声だけ似せた機械に読ませているとは受け取られてはおらず、本人が話しているように錯覚しているということでしょうから。

宗教や超自然的なものが虚偽や詐欺のものとされないのは、それが仮に99%怪しくても1%の余白があるので「信じたい人はどうぞ」という思想や信仰の自由が認められているわけです。AIは100%人類の手による創作であることは明らかなわけですから、世の中の人たちを錯覚をさせることに使われてはいけない。

テクノロジーは人を幸せにするように使うものであって、錯覚させることや騙すことに使われてはいけないと思うのです。

 

いやしかし、故人の声を合成して本人が言った風コンテンツ作っちゃうとか、過去発言から本人が言ってないことを新たに生成する名言botを開発しちゃうような技術者・企画者は倫理観どうなっとるんでしょう。

もちろん、故人でも歴史上の人物をエンタメと分かるように再現するとかなら(俳優が歴史上の人物を演じたりするのと同様に)許容できる領域もあるとは思います。そういう使い方なら、あくまで表現技術の拡張でしかありませんし。

テクノロジーやインターネットは人を幸せにするように使われてほしいものです。