YouTube「生成AI動画」明示義務付け、明示しない場合はアカ削除

岸田総理が不適切な言葉を言ったかのような映像やナレーションを用いてニュース番組風に仕立てたAI生成動画が世間を賑わせ日テレがブチギレていたが、YouTubeもついに大規模な対策を打ち出す事にしたようだ。
クリエーター側でAIで作った動画には予めラベルを付与するよう求め、後からAIである事が発覚した場合は収益化停止・動画削除・アカウント削除等を行うと発表した。特に選挙・紛争・感染症・公務員関係については厳しく対応するという。
YouTubeが出た頃はテレビを超えるとまで言われたが、最近は手間暇を掛けず動画の品質が非常に低いクリエーターが多くホラ吹きは終了し正体が暴かれたという所だろう。それこそ他社のロゴを拾ってきて写真は拾い画、そして合成音声にしゃべらせる事でその人の顔や音声を一切出さなくても動画をアップできるようになった。それは技術の進展という部分では良いのかもしれないが、金稼ぎ目的で低品質な動画が横行したりそれこそ総理が言っていない事を言ったかのように悪用する事も可能でありAIをネットの素人に触らせるのは非常に危険なのである。自由自在にアプリを入れてその場で動画がアップできてしまうスマホというのもある意味ではリスクであり、日本の低すぎるモラルを考えるとスマホを一般層に持たせるのは時期尚早だったのかもしれない。その点では日本の人口は減る一方なのに新規・純増ばかりを意識して小学生にも携帯端末を持たせようとしている携帯会社にも責任はある訳で、携帯会社もネットマナー等についてきちんと発信していく必要があるだろう。