生成AIの注意点

便利な生成AIですが、手軽に利用できる反面、手軽に悪用することもできてしまいます。
ディープフェイク」とは、生成AI技術により、「本物そっくりの人の画像、動画、音声など」を作成したコンテンツです。
これを利用して、その有名人が実際に言っていない言説を本人の言説として広めたりしようとしています。
例えば、トランプ大統領のフェイク動画などは、しばしばその拡散がニュースになっていたりします。

ディープフェイクには、次のリスクが存在します。
 ・なりすまし
 ・詐欺
 ・名誉棄損
 ・世論の混乱 など

本物そっくりのディープフェイクを見破るポイントは、まずは情報の真偽を別の方法で確認することです。
本当に有名人が発した内容であれば、一般人である我々に届くまでに、公式発表であるとか、報道による発信など確認できることが多いです。
次に、顔や音声に不自然な点はないかを見極めることです。自然な人間の所作というか、そういったものを感じ取るのは、騙そうとするAI側よりも人間の方が一日の長があると、個人的には考えます。
そのほか、内容が極端に扇動的でないかということも見分ける点になりえます。ディープフェイクを作成して流すということは、それを使って誤認を広めたい意思があるので、そのような表現になりがちです。

そして、これらを確認しようという意識がまずは大切になります。

また、生成AIの発展により一般のユーザーであっても、ディープフェイクを作成しやすい環境が整ってきている環境の変化もあります。私たちも誤解を招く加工画像や改変音声、出典の不明なAI生成コンテンツを安易に拡散しないよう注意が必要です。

生成AIを含む情報システムの導入のご相談は

みよし市で行政書士開業準備中

アーカイブ