
X(旧Twitter)が、武力紛争を描いたAI生成動画をAI製と開示せずに投稿したクリエイターを、「クリエイター収益共有プログラム(Creator Revenue Sharing Program)」から停止する方針を発表しました。TechCrunchなどが伝えています。
Xのプロダクト責任者であるNikita Bier氏が3月3日に明らかにしたところによると、武力紛争を描いたAI生成動画を未開示のまま投稿した場合、初回の違反で同プログラムから90日間の停止処分となるそうです。停止期間が明けた後も同様の違反を繰り返した場合は、プログラムから恒久的に除外するとしています。
違反の検出には、Xのユーザー参加型ファクトチェック機能「コミュニティノート」のほか、生成AIツール由来のメタデータや技術的シグナルなどを活用するといいます。Bier氏は、「made with AI」などAI生成であることを明示するラベルを投稿に付ける必要があるとも説明しています。
今回の変更は、少なくとも収益共有プログラムの停止という形で「収益化」に焦点を当てたものだそうです。虚偽の戦争動画を投稿する金銭的な動機を断つことで、誤情報の拡散を抑止する狙いがあるとみられます。




















