「AIで生成したおじさん使って適当な偽新聞のCGを作ったらとても危険な感じだった」。生成AIの発達で表現物や情報の信頼性が損なわれる可能性について、警鐘を鳴らした投稿がX(旧ツイッター)で話題になっています。投稿者に話を聞きました。
新聞記事をカメラで撮影したように見えるこの画像。実在する人物でも新聞でもなければ、新聞風の印刷物を作って撮影したものですらありません。全てデジタルデータのみのフェイクです。
作成したのは、kogu(@koguGameDev)さん。株式会社Witchpot(https://witchpot.com/ja)と協力し、ゲーム制作におけるAI活用に取り組んでいます。
さまざまな人物画像をAI生成する性能を試す中で「新聞のフォーマットに組み込んでみると実在感が増すのでは」という検証として行ったそうです。生成した男性の画像を使い、CGで人物紹介記事のように仕立てました。
koguさんは「文章だけでも危ないのに画像が入ると更に悪く、新聞っていう実績ある様式でもっと悪化する」と感じたといいます。投稿は3万件以上のいいねを集める大反響。「生成AIが出てくるとこういう騙しも発生するのか」「今後AIを使った架空の記事での情報操作が増えそう」「自分の判断力が問われる」といった声がありました。
ーー今回の投稿をしたきっかけについて教えてください
koguさん:きっかけというか、日常的な検証の一つがたまたまたくさん見てもらえた感じです。ありふれたおじさんを生成できる性能のデモとして試しに作ったところ、その印象に危険なものを感じたので、ああいった内容になりました。
ーー画像中の原稿はご自身で書かれたものなのでしょうか?
koguさん:下部の本文は私が直接書いたものです。ただし上部のカピバラ云々というものは、ChatGPTの出力を調整したもので、8割方そのままです。読んでいけばフェイクと分かるような内容にしています。それは文字組や体裁も同様で、画像が一人歩きした際に嘘くさく見えるように選んだものです。
ーー今回の投稿は大きな反響を得ていますが、受け止めをお聞かせください
koguさん:たくさんの人が生成AIに何ができるのか、漠然と不安や期待を持っている中で、そこに丁度よくわかりやすい形で提示できたのかなと考えています。ただ、懸念の本質はこれまで疑う対象でなかった日常のあらゆる表現物の信頼性が損なわれる点にあります。今後も色々試していくと思います。