INDEX
あるとき繁華街を歩いていると、ガラスの壁面いっぱいに数十人の顔写真が貼られたギャラリーに遭遇しました。添えられたキャプションによると、「これらはすべて作られた偽物の顔です。この人たちは実在しません」。
彼らの写真はディープフェイクを使用して生成されたものでした。ディープフェイクとは「ディープラーニング(深層学習)」を使って「フェイク(偽物)」の顔や表情を生成する技術です。微笑み、または憮然としている彼らの表情はとても自然で、まったく作り物には見えませんでした。
これだけ聞くと「映画やテレビドラマの製作に使用される技術でしょ、一般人には関係ない」と思うかもしれません。しかしディープフェイクはここ2年ほどで急激に進化を遂げており、比較的シンプルなツールでの作成が可能です。これに乗じて、ディープフェイク絡みの事件や話題が急増しています。
その実例を紹介しながら、ディープフェイクの最前線を探っていきましょう。
ディープフェイクは、前述した通り、「ディープラーニング(深層学習)」を使って「フェイク(偽物)」の顔や表情を生成する技術です。しかし、その概念は次第に広がり、現在では偽造動画を示す言葉としても使われることが多くなりました。
具体的には、ディープラーニングの技術を活用して、動画に映る人物の顔や表情、声を他の人のものに置き換えて、その人が実際には行っていない行動をさせたり、言っていない言葉を言わせたりします。
以前から、フォトショップなどの画像編集ソフトを使って写真の中の人物の顔を他人のものに変えることは行われてきましたが、AIの進化により、今では動画の中の人物の顔も変えられるようになってきました。
本章ではディープフェイクでできることを紹介します。
順に紹介します。
ディープフェイク技術は写真だけでなく、表情や声を合成した動画の作成にも使用できます。特に動画版のディープフェイクの標的になりやすいのが、政治家や芸能人などの著名人です。
2018年、アメリカのコメディアン、ジョルダン・ピールとヴァイラルメディアプラットフォームのBuzzFeedは、オバマ前大統領がトランプ現大統領を「完全な能なし」とディスるディープフェイク動画を作成しました。これがTwitterなどのSNSで拡散され、オバマ氏が実際にこのような発言をしたと勘違いする人が続出しました。
また、Facebook CEOザッカーバーグ氏も標的に。2019年5月、「当社の使命が人と人とを繋げることだと思ったら大間違いです。単に情報を集めてビジネスに利用したいだけです」とうっかり本音(?)を漏らすザッカーバーグ氏の映像が、Facebookに投稿されました。
これはFacebookがこの動画に対してどういう反応をするかを観察するアートプロジェクトで、当初からフェイクであると種明かしをされていました。
ディープフェイク技術は教育にも活用できます。
前述した動画や映像にも起因しますが、歴史上の人物だったり、仮想の人間だったりを作成し、話させることで実際の人間が喋ることなく教育ができる可能性があります。具体的には、アインシュタインが見つけ出した相対性理論を、本物のアインシュタインが話しているかのような形でディープフェイク技術を利用できるでしょう。
ディープフェイクでできることとして、AIアナウンサーが注目されています。ディープフェイクを活用したAIアナウンサーは、人間のアナウンサーを模倣し、リアルタイムでニュースを伝えることが可能です。
具体的な例として、中国国営メディアの新華社通信が開発したAIキャスターが挙げられ、人間のアナウンサーの声と表情、口調を学習し、リアルタイムでニュースを伝えているようです。AI技術によるものなので、24時間365日休みなく働くことができ、常に最新の情報を提供できることが強み。ニュース配信の効率化に加え、コストの削減が可能となるため、メディア業界では特に注目されている活用例と言えます。
ディープフェイクでできることとして、モデルが挙げられます。ディープフェイクの技術を活用することで、複数の人間のパーツを合成し、架空の人間を作り出すことができます。
複数の人間のパーツを合成した上で、理想的なパーツがない場合でも、ディープフェイクの技術で思い通りに作り出すことも可能です。また、ディープフェイクで作成したモデルは、著作権や肖像権なども関係ないため、好きなように作成・活用ができます。
PCやスマホで利用できるおすすめのディープフェイク作成アプリを紹介します。
順に紹介します。
「Xpression」というiOS対応アプリは、様々な顔の映像や写真を自在に操ることが可能です。スマホのカメラを利用して顔の動きを読み取り、その動きをリアルタイムで映像や画像の中の顔に反映できます。
例えば、自分の言いたいことを他人の動画に反映させたり、絵や彫刻に話をさせることも可能です。また、事前にスーツ姿で撮影した自分の映像を使って、実際にはパジャマ姿のままオンライン会議に参加するといった利用方法もあります。
Refaceというアプリは、自分の顔写真を撮影し、それを映像や写真の人物と入れ替えることができます。
入れ替え可能な映像や写真には、映画やドラマの名場面、様々な衣装を身にまとったファッションモデル、ポスターや雑誌のモデル、スポーツの試合など、多種多様な素材が用意されています。
特に映画の素材では、ハリー・ポッターやスパイダーマン、パイレーツ・オブ・カリビアン、マレフィセント、美女と野獣といった有名なシーンや、主演俳優・女優になりきる動画が提供されており、まるで自分が映画の中にいるかのような感覚を味わうことができます。さらに、世界各国の動画なども用意されていて、様々なシチュエーションで楽しむことも可能です。
Online Deepfake Makerは、AIを用いて本物のような顔の入れ替えが可能な顔の入れ替えに特化したオンラインツールです。精度は高く、一度見ただけではディープフェイクか本物か判断できないほどの顔入れ替え画像や動画の作成ができます。
また、オンラインツールであるため、パソコンの性能に左右されず、スペックが低いパソコンやスマートフォンからでも使うことができるという利点があります。ただし、変換に時間がかかることや、「1時間あたり3ドル」という少々特殊な料金設定により、実際の料金が分かりにくいという欠点も存在します。
Refaceは、自分の顔を撮影した後、それを映画やドラマのシーン、ファッションモデルの写真、スポーツの試合の映像など、様々な動画や画像に合成できるアプリです。
映画のシーンにはFaceAppと同様、ハリー・ポッターやスパイダーマン、パイレーツ・オブ・カリビアン、マレフィセント、美女と野獣といった有名な場面が含まれており、自分がその映画のキャラクターになったかのような体験ができます。さらに、世界各国の動画も利用できるため、様々なシチュエーションで楽しめます。
Faceswapは、Windows・Mac・Linuxの各種OSに対応した無料のディープフェイク作成アプリで、オープンソースという特性を活かして高品質なディープフェイク映像を作り出せます。公式サイトは英語表記ですが、使い方を詳しく説明した動画も提供されているため、それを参考にしながら使用すれば問題ありません。
ただし、ディープフェイク映像の作成には高性能なPCが必要となります。そのため、性能の高いCPUやGPUが必要となり、それらを搭載していないPCでは利用が難しいという欠点も存在します。
前章では、ディープフェイク作成アプリを紹介しましたが、本章ではディープフェイクの悪用問題について解説します。
悪用事例として上記の3つを取り上げますので、ぜひ参考にしてください。
ディープフェイクを巡って話題となったのは、イギリス・バーミンガム大学に通うオリバー・テイラーという24歳の学生。(画像はこちら)テイラーはユダヤ系の家庭に生まれ、政治に強い関心を持っており、過去にイスラエルの新聞に何本かオピニオン記事を寄稿したことがあります。
テイラーは米国のユダヤ系新聞「アルゲマイナー」に寄稿した記事の中で、ロンドン在住の研究者マスリ氏とその妻を「テロリストのシンパ」と糾弾しました。それを知ったマスリ氏は驚いてテイラーの素性を洗い始め、その中でテイラーの顔写真に行き当たります。
肌の質感が24歳にしては老けていますが、それ以外は普通の若者の写真に見えます。しかしマスリ氏はこの写真に言い表しがたい「ズレ」を感じたそうです。そこでロイターにこの件を持ち込み調査を依頼。ロイターはバーミンガム大学にテイラーの在籍確認を行いましたが、大学からの回答は「該当する学生はいない」でした。
さらには6人の虚偽画像判定の専門家がテイラーの写真を「ディープフェイクで生成されたことが確実」と判定しました。
ロイターからの通報を受け、何紙かはテイラーの記事を削除しました。するとテイラーから抗議のeメールが届きましたが、彼が新聞社の身元確認依頼に応じることはありませんでした。
つまりテイラーは、虚偽の顔写真やプロフィールをでっちあげて作成された、別人のアバターだったのです。
ディープフェイクの2つ目の悪用事例として紹介するのは、ウクライナのウォロディミル・ゼレンスキー大統領のディープフェイク動画です。
上記の動画は、2022年の3月16日にFacebookとYouTubeに投稿された約1分程度の動画で、ゼレンスキー大統領がウクライナ軍に武器を置くように呼びかけ、ロシアへの降伏を発表しているかのように見せかけています。
実際に見てもらうとわかる通り、違和感はあるものの信じてしまう人がいてもおかしくないくらいクオリティが高い動画が何者かに投稿されていたようです。
上記の動画が公開された直後、ゼレンスキー大統領自身が動画の内容を否定したことや動画が即削除されたことで、大きな問題にはならなかったものの、同じようなディープフェイク動画が再度投稿される可能性は高いと言えるでしょう。
3つ目に紹介するディープフェイクの悪用事例は、フェイクポルノです。
フェイクポルノとは、ポルノ動画に登場する人物の顔だけを別人と差し替えた動画を指し、海外だけではなく日本でも多数制作・拡散されていることから、問題視されています。
フェイクポルノの作成や拡散に関係してしまった場合、下記のような罪に問われる可能性があります。
フェイクポルノ動画でなくても罪に問われる可能性があるので、必ず本人の了承を得るか、自分の顔・体を使用して、ディープフェイク動画を作成しましょう。
こうしたディープフェイク映像の多くは、ターゲットの声や動作のモノマネをターゲットの顔に貼り付けた後、AIアルゴリズムを使って「顔移植」の痕跡を消していくことで作成されます。
具体的には、2人の人物の顔の何千枚もの顔写真をジェネレーティブ(生成)ネットワークと呼ばれるAIアルゴリズムに取り込みます。このネットワークは両者の類似性を学習し、共通する表情から新しいイメージを生成します。生成された表情を投影対象に流し込んだら、次にディスクリミネーティブ(判別)ネットワークと呼ばれる第二のAIアルゴリズムに、元の映像と比べて表情が自然かどうかを判定させます。
これを繰り返すことで、最終的には判別ネットワークが真贋を判別できないほど自然になります。
しかし人間の目というのは優秀で、AIには判別できない小さな違和感をキャッチできます。専門家によると、ディープフェイクには以下のような特徴があります。
・まばたきをしない。ディープフェイク生成に使用されるのが通常目を開いた状態の顔写真であるため。
・髪の毛、特に前髪の縁が不自然なぼやけ方をする。一方の顔に前髪があり、もう一方にない場合、合成時にギャップが生じるため。
・歯が不自然な光り方をする。合成前の2種類の画像の照明環境が異なる場合、合成時にギャップが生じるため。
2019年12月には、Microsoft, Facebook and Amazonの後援の下、ディープフェイク検出に向けた研究がスタートしました。ただし弱点が見つかる度にそれを克服する技術が開発され、ディープフェイクの精度には日増しに磨きがかかっています。他の多くの犯罪と同様、永遠に終わらないいたちごっこのようです。
巧妙になるディープフェイク技術に乗じて、犯罪などの証拠を「あれはディープフェイクだ」と主張して覆そうとするケースも。例えば未成年への性犯罪が問題になった英国のアンドリュー王子は、BBCのインタビューで被害者が撮ったとされる証拠写真は信憑性に欠ける、と述べました。
2016年の大統領選直前に過去の女性蔑視発言の録音が流出したトランプ米大統領は、一度は自身の発言を認めたものの、私的な場で音声が偽物であると主張しました。(他多数のスキャンダルにも関わらず、トランプ大統領は民主党のヒラリー議員を下して大統領に就任しましたが。)
作る側、見抜く側、濫用する側。ディープフェイクをめぐる三つ巴の戦いはこれからも激しさを増していくでしょう。印象操作に流されず、常に情報の出どころに目を光らせておくことが、戦いの審判である私たちの役目と言えるかもしれません。
(佐藤ちひろ)
メルマガ登録をしていただくと、記事やイベントなどの最新情報をお届けいたします。
30秒で理解!インフォグラフィックや動画で解説!フォローして『1日1記事』インプットしよう!