最近登場した新しい音声合成ai、RVCwebuiは、名探偵コナンの蝶ネクタイ型変声機がリアルタイムで、しかも家庭用ゲーミングパソコンのスペックで実現できるai。
亡くなった声優を代行する契約が既に増えている等便利な反面、海外ではこれを使ったオレオレ詐欺が増加している。アメリカでは、会社の役員の声でお金を振り込ませたり、中国では、RVCだけではなく画像生成AIを併用して見た目まで友人そっくりに仕立て上げ、ビデオ電話をかけて現金8000万円を振り込ませる詐欺があったようだ。
話し方のくせもAIに学習させれば簡単にコピーできてしまう今、もはやデータとしての他者は現実のものなのか判別することは不可能になっている。
確かに存在するものは、自分の目で見たものだけ。これは良くある言葉だけど、見るという行為がディスプレイを通したものの方が多くなりつつある現代では、信じられるものが減ってしまう。
それが本当に存在したのかわからなくなっていくものだってある。
ネッシーが実在するかどうか、写真を集めて長年分析していた研究者は、今後はaiが作ったネッシーの画像が本物の写真と区別がつかなくなり、本当に存在していたのか確認する術さえ無くなってしまうという。
さらに、アメリカではrvcで再現したAIが銀行の声帯認証も突破しているため、今後裁判の証拠でボイスレコーダーが使える時代も時間の問題で無くなってしまう。
このようにもう過ぎ去った過去の確かさは、本当に曖昧なものになっていく。もちろん善意のある人はわざわざ捏造をしないが、悪意ある人物の方がより情報の主導権を握りやすくなってしまう。
現実の改変
aiが最近ではがんの発見や未知のタンパク質構造の存在を予測するなど、科学での活躍も増えている。しかし、AIが未知の物質の存在を検知できるということは、それこそ、存在しない偽の科学的データを生成することも可能ということになる。
ここで問題になるのは、例えばSTAP細胞の事件の再来と、それが偽造データか区別がつかなくなっていくことだ。STAP細胞の存在を主張した小保方氏は、実験の画像を切り貼りして捏造したことを説明している。今までのそういった人の手で行っていた画像改変は不正発覚のリスクがあるが、今後AIで全てのデータがより正確に改竄できるようになったらどうなるだろうか。
ビデオ通話越しの相手の顔も、表情も、声も全て友人と瓜二つだったように、顕微鏡で写した細胞の姿も、それを示すデータも、全て、辻褄の合ったフェイクを生成することはもう可能なのではないか?
これは意図せずとも、起きる。例えばtiktokなどがポルノの排除目的で性的画像を検知するAIを学習させているが、ポルノを排除するためにはポルノをAIに理解、学習させないといけない。
これと同じように偽の科学的なデータを避けるために、逆にそれを生成できるAIが生まれることは必然に思える。
今までも手間さえかければ、photoshopを使って偽の画像は作ることができた。しかし、photoshopは高額で機能も豊富、使い慣れる手間があった。それが今のAIは呪文と呼ばれる言葉を投げ掛ければ簡単にフェイクを、しかも無料で生成し、情報を生み出すことの敷居を下げている。それがどんな結果になるのだろうか。
絵描きはある意味、オマージュという形で既存のデータ(=既存の作家の作風)を改変(=オマージュ)し、自身の作品を発表(イコール偽造した既存データの流布)していたと言える。しかしここには敬意がその歴史を作っていたし、人の作風を真似ることもかなりの手間と工夫がいるため、混乱は少ない。しかし、その手間が一度呪文の一言で済むようになった今、作家への敬意もなく、自分の利益しか考えないAIイラスト絵師達が増加している。
人間同士が作風をコピーしあっていた時代の生産と消費のサイクルにAIが加われば、新たにデジタルデータも大量生産、大量消費化して、新しい弊害が出てくるかもしれない。
コメント