11月28日(木)に「ダークウェブで何が売られている?迫りくる新たな脅威への対応策」のセミナーを開催いたします。 今回のセミナーは、1...
ディープフェイクとは?生成AIのリスクや悪用例、悪用対策を解説
生成AIが飛躍的な発展を遂げている今、その技術を利用した「ディープフェイク」と呼ばれるコンテンツが議論を呼んでいます。
近年はさまざまな分野でAIを活用する動きが広がっており、私たちの生活をより便利にしたり、独創的なアイデアで新たなクリエイティブを生み出したりと、AIの可能性に大きな期待が寄せられています。一方、生成AIによって生み出されるものの中には、デマの拡散や詐欺などを目的に作られた悪意あるコンテンツも存在します。
今回は、「ディープフェイク」がどういったものなのかを明らかにした上で、社会にもたらす影響や、悪用を防ぐ取り組みについて詳しく解説します。
目次
ディープフェイクとは?
はじめに、ディープフェイクの概要とその仕組みについて説明していきます。
ディープフェイクとは?
ディープフェイクとは、ある映像や画像、音声の一部を生成AIによって加工し、現実には存在しない映像などを作成すること、あるいはそれによって生み出されたコンテンツのことです。
機械学習の一つである「ディープラーニング(深層学習)」と「フェイク(偽物)」を組み合わせた造語です。
近年のAI技術の革新的な進化によって、急速に注目を集めています。
生成AIを利用して映像に手を加えると、まるでその人が実際にその場で話し、動いているかのような映像を作り出せます。このようなコンテンツを作成すること自体は、不正な行為であるとは言い切れません。
しかし、実在する人物の発言や行動を捏造した「架空の」あるいは「存在しない」映像を作成することも可能であるため、見た人をだます、欺くなど、悪意を持って利用される場合があり、国際社会や政治などに悪影響を与えるリスクが懸念されています。
AIにおけるディープラーニングとは
ディープラーニングとは、AI(人工知能)の機械学習の一つです。ディープニューラルネットワーク(DNN)を使った学習で、人間が介入することなく、コンピュータが自動的に大量のデータを解析し、データに含まれる特徴を抽出します。
一般的なデータ分析では、入力データ(インプット)と出力データ(アウトプット)の関係を直接分析します。一方、ディープラーニングは、入力と出力の間に「中間層」と呼ばれる層が設けられており、データの中にあるルールやパターンを見つけ出せるようになっています。
かつては中間層を1層設けることが限界でしたが、近年は多層化が可能となり、より複雑なデータに対応できるようになっているほか、データの分析精度も向上しています。
ディープフェイクに利用される技術
ディープフェイクと呼ばれるコンテンツでは、DNNから発展したGAN(敵対的生成ネットワーク)が利用されています。GANは、ジェネレーター(生成者)とディスクリミネーター(識別者)という2つのDNNで構成されます。
ジェネレーターは大量の学習データから新しい映像、画像を生成します。ディスクリミネーターは、各データが学習元のデータ(本物)であるか、ジェネレーターが新しく生成したもの(偽物)であるかを判断します。
画像を生成する、偽物だと見抜かれる、より本物に近い画像を生成する、という一連のプロセスを繰り返し、ディスクリミネーターが偽物を見抜けなくなるほどのデータが作られるようになるまで、2つのDNNを競わせるように学習させます。
これにより、限りなく本物に近い、精巧なフェイク(偽)映像・画像の生成が可能となります。
ディープフェイクは見分けられる?
AIの技術革新は目覚ましく、非常に高度なレベルのディープフェイクが生成されるようになっています。個人で制作できる、いわゆる「チープフェイク」と呼ばれる低精度の生成物であっても、瞬時に偽物だと見極めることはできないかもしれません。
精度の高い生成映像・画像の場合、⼈間が目で見て、実在するものか否かを判別することはさらに難しくなっています。
ディープフェイクか否かを見極めるには、以下のような部分に着目すると良いとされています。
- 身体の動きが少なすぎないか、あるいは同じ動作を繰り返しているように見えないか
- まばたきの回数やタイミングが不自然ではないか
- 瞳の輝き方に違和感はないか
- 影のつき方が不自然ではないか
ディープフェイクの危険性と社会への悪影響
インターネット上で拡散されるデマや嘘の情報は実社会に大きな影響を与え得る脅威ですが、生成AIが進歩する中で危惧されているのは、AI技術を悪用したこれらの悪意ある行為や不正、犯罪をより容易に行えてしまうという点です。
ディープフェイクのターゲットとなるのは、政治家や経営者、芸能人などが一般的でしたが、今後の技術発展により、わずかな学習量でディープフェイクが生成できるようになれば、一般市民もその対象となるおそれがあります。
次に、ディープフェイクを悪用したリスクについて解説します。
なりすまし動画
ディープフェイクの存在が世の中に知られるようになった一つのきっかけが、「なりすまし動画(フェイク動画)」です。
実際に、国家元首の映像や画像をもとに生成AIで作成されたなりすまし動画の存在は、国際的にも注目されました。もしも、政治家のなりすまし動画によって誤ったメッセージが発信されれば、世論操作のみならず、国家を揺るがすような重大な事態を招く可能性もあり、社会的、経済的なダメージは計り知れません。
また、なりすまし動画でもっとも多い事例とされているのが、ポルノ動画の出演者の顔を、別人の顔に差し替えるフェイクポルノです。実際に、国内ではディープフェイクによってアダルトビデオの出演者の顔を女性芸能人の顔に差し替え、名誉毀損と著作権法違反の疑いで逮捕されたという事件も発生しています。
特定の人物の評判を落とす、社会的地位を失わせるといった目的で、生成AIを悪用し、映像を捏造するようなケースも危惧されます。
デマ・偽情報の拡散
ディープラーニングで生成した動画や画像とともに、デマや偽情報が拡散される懸念も高まっています。
生成AIによって作られた「架空の災害映像」「架空の衛星写真」などが災害時にSNSなどで拡散され、デマによって大きな混乱を引き起こすリスクもあります。
詐欺
ディープフェイクは、詐欺に用いられることもあります。
芸能人や有名人の映像を使ってディープフェイクを作成し、詐欺広告を出したり、フィッシングサイトや詐欺サイトに誘導させたりするようなケースもみられます。
また、ウェブサイトだけでなく、ビジネスメールにおける詐欺にも注意が必要です。従来のフィッシングメールは、文字化けや誤変換がある、文脈が不自然であるなど、内容を読めばそれが偽物であると見抜けるものがほとんどでした。しかし、生成AIの技術が進んでいることで違和感のない文章になるだけでなく、上司や取引先など特定の人物のメールの特徴を掴んで、誰かになりすました詐欺メールの作成も可能となっています。
さらに、ディープフェイク音声やビデオによる詐欺もみられ、手口はより巧妙化しています。
不正認証
ディープフェイクによって、顔認証や声紋認証などのセキュリティシステムの突破を目論む事例も存在します。
例えば、ディープフェイクで顔を入れ替えれば、他人になりすまして生体認証をパスすることも可能です。
あらゆるサービスへ不正にログインできるようになるため、サイバー攻撃が容易になります。
生成AI規制の現状と課題
生成AIによってさまざまなクリエイティブが生み出されている一方で、ディープフェイクのような悪意あるコンテンツの存在も少なくありません。
SNSではAIによる偽の動画や画像が出回っており、情報の真偽を判断することは一層困難になりつつあります。
また、もしも「本物」であったとしても、「これはフェイクではないか?」と疑いの目を向けられ、情報の信頼性が低下してしまう点も懸念の一つです。
加えて、個人の顔や声を無許可で学習データとして用い、それによってディープフェイクを生成することは、プライバシーの侵害など法律違反に当たる可能性があります。その一方で、行き過ぎた規制は表現の自由を侵害するという指摘もなされています。
多くの国では、ディープフェイクの制作や拡散を禁止する法案が検討・導入されています。
現状、国内における生成AIの利用に関する法律やガイドラインの整備は検討が進みつつあります。しかし、議論が本格化し、具体的な方針が発表されるまでには時間がかかる可能性が高いでしょう。
生成AIの悪用リスクを回避するために
前述の通り、生成AI技術はディープフェイクのように悪意を持って使用される危険性があることも理解しておくことが大切です。
ここでは、AI技術の悪用によって生じ得るさまざまなリスクを回避するため、これからの時代に求められる取り組みについて解説します。
検知技術の構築
まず求められるのは、本物かディープフェイクかを判別する検知技術の構築です。
実際にそのコンテンツが本物であるか、人工的に操作が加えられたものであるかを判断する仕組みは既にいくつか生み出されています。
一つ目の例は、ディープフェイクであるかを判断する「AI」の開発です。人間の目では見つけづらいわずかな違いを検出し、真偽の判定を行っています。
もう一つの例は、仮想通貨などに用いられることの多いブロックチェーン技術の活用です。多数のユーザーに共通のデータを分散保管させておくことで、元の映像などが何らかの方法によって手を加えられた場合に、すぐに検知できるようになっています。ブロックチェーン技術は、全ての偽情報や改ざんを見抜けるわけではありませんが、AI技術の悪用を防ぐ一つの対策になり得るとされています。
法律・倫理上のルール整備
法律や倫理上のルール整備も重要です。
例えば、生成AIが他人あるいは他人の著作物の権利を侵害していないか、AIによる生成物に所有権は発生するのか、誰かの作品やコンテンツがAIの学習データとしてインプットされることの是非などが議論されています。
生成AIの利用について、独自のガイドラインを策定する組織、企業も増加していますが、「悪用」自体を取り締まる法律は整備されていないため、適切な活用を促すためのルール作りが求められます。
生成AIのガイドライン作成方法は以下の記事で詳しく紹介していますので参考にしてください。
➡「生成AIの活用に必要なガイドライン|作成方法とポイント、参考にしたい事例を紹介」
情報リテラシーの向上
現状、生成AIの悪用を防ぐ確実な方法がない以上、今後もAIによる偽の情報、偽のコンテンツが拡散されていく可能性があります。
ディープフェイクに惑わされないためには、私たちの情報リテラシーを高め、真偽を判断する目を養うことも必要です。
SNSに載せられた映像や自分に届いたメールだけを見て「正しい」と思い込むのではなく、どこからの情報なのか、信頼できる情報元なのかを確認する、裏付けにつながる情報を探す、本人に確認するなど、あらゆる面から情報を捉えることが重要です。
また、不審なメールを開かない、むやみに添付ファイルやリンクを開かない、セキュリティ対策を見直すなど、基本的な部分からリスク回避の取り組みを進めていくことも大切です。
ディープフェイクなどのAIの脅威に備えるツール
続いては、ディープフェイクをはじめとするAIの脅威に備えるために有効なツールをご紹介します。
ダークウェブアイ
SMSデータテックが提供する「ダークウェブアイ」は、ダークウェブ(特別なソフトウェアや手法がないとアクセス不可能な、漏洩した個人情報やカード情報、違法な情報が多くやりとりされているサイト)上に漏洩した、企業の機密情報や社員情報を検知、アラートする純日本製のセキュリティツールです。
一般人が入ると危険とされているダークウェブサイトの監視を安全に実施し、企業情報漏洩のリスクから企業を守ります。
その他のセキュリティツール
SMSデータテックでは、その他にもさまざまなセキュリティツールを提供しています。
- 「CrowdStrike Falcon」×「Netskope」
エンドポイント対策とクラウドセキュリティ対策が同時に実現できる、SDTのトータルセキュリティサービスです。
マルウェア感染リスク、クラウド利用のリスクを低減しながら、プライベートアクセスまでトータルでセキュリティ対策を行います。 - SaaS統合管理クラウド
SaaSサービスの利用状況を一元管理できるクラウドサービスです。
管理にかかる工数を削減するシャドーITや野良SaaSも確認できるため、情報漏洩などのセキュリティリスクの削減が可能です。 - テレワークセキュリティ
サイバーセキュリティ対策に精通したコンサルタントが、複数のテレワーク方式から最適なテレワークセキュリティ対策をご提案。ビジネスやシステム投資に合わせたセキュリティ製品をご選択いただけます。
生成AIの活用アイデア
生成AIを巡っては、さまざまな問題点や課題が存在しますが、技術を有効に活用することによって、多くのメリットが得られることも事実です。
最後に、映像・コンテンツ分野における生成AIの活用例をご紹介します。
映画・アニメーションなどの制作
エンターテインメント業界で生成AIを活用すると、制作者の負担を減らしつつ、よりクリエイティブな作品を生み出せる可能性があります。
例えば、架空の街や生き物、乗り物などを登場させたい時に、生成AIを用いることで、全く新しいアイデアを得られるかもしれません。
また、特殊メイクなどでの再現が難しかったキャラクター造形なども、生成AIに造形を学習させ、違和感なく映像を置き換えることができれば、演じる人物やキャラクターの幅が広がることも期待されます。
アナウンサー・キャスターとして
近年は、アナウンサーの代わりにAIがニュースを読み上げる、という試みを行うテレビ局もみられます。
生成AIを活用すれば、実在のアナウンサーやキャスターの代わりに報道を担当するAIアナウンサーを用意することも可能です。災害時などは、アナウンサーがその場にいなくても、緊急の放送がすぐにできるようになります。深夜に急いで準備したり、身の危険がある中を出勤したり、といったことも必要なくなるかもしれません。
メディアの働き方改革に一石を投じる可能性も期待されています。
ファッションモデル・広告モデルとして
生成AIによって、理想の容姿を持つ架空の人間を作り上げることで、企業やブランドにマッチしたモデルとして活用できます。
著作権や肖像権の問題を回避できるほか、コストや時間の都合で人間のモデルを起用することが難しい企業でも、商品の着用イメージをすぐに用意できるなどのメリットが挙げられます。
まとめ
生成AIはエンターテインメントをはじめ幅広い分野で活用が進んでいる一方、悪意を持って利用されるケースも後を絶ちません。ディープフェイクは生成AI時代における新たな脅威であり、実際に偽情報の拡散や名誉毀損といった、深刻なトラブルや被害も生じています。
あらゆるリスクに対処するため、さまざまな規制が検討・導入されつつありますが、法律やルール整備が追いついていないのも実情です。
悪質な犯罪やトラブルから身を守るためにも、一人ひとりがAI技術について正しく理解し、適切な対策を打っていくことが重要です。
おすすめイベント・セミナー 一覧へ
2024年11月20日(水)に、「Copilot」についてのセミナーを開催いたします。 今回のセミナーは、皆様から「Copilot」を...
2024年10月23日〜25日に幕張メッセで開催されたJapan DX Week2024秋。春と同じく「生成AI×自動化」をテーマに出...