Xの「Grok」、実在の人物の画像をビキニ姿に加工出来なくする措置を導入|画像生成および画像編集機能は有料会員のみに限定する措置も

この記事にはアフィリエイト広告および広告が含まれています。
Xの「Grok」、実在の人物の画像をビキニ姿に加工出来なくする措置を導入|画像生成および画像編集機能は有料会員のみに限定する措置も

今年に入ってからxAIの生成AI「Grok」の機能を悪用し、実在する女性らのSNS上の写真を無断で性的(ビキニ写真など)に加工してしまうケースが頻発し、批判が集まっていましたが、本日、Xが、Grokでビキニなど露出度の高い服装をした実在の人物の画像を編集できないようにする技術的措置を導入したことを発表しました。

XのSafetyアカウントが公開した声明によると、Xは児童性的虐待コンテンツ(CSAM)や同意のないヌードを含む、優先度の高い規約違反コンテンツについては削除対応を行い、Xのルールに違反したアカウントに対して適切な措置を講じている他、児童の性的搾取に関する素材を求めているアカウントについては、必要に応じて法執行機関へ通報しているとのこと。

また、Grokアカウントを通じて、ビキニなど露出度の高い服装をした実在の人物の画像を編集できないようにする技術的措置を導入したとのことで、この制限はプレミアムの有料会員を含むすべてのユーザーに適用されます。

さらに、Xプラットフォーム上のGrok アカウントによる画像生成および画像編集機能は、現在、有料会員のみが利用可能となっており、これにより、Grok アカウントを悪用して法律や当社ポリシーに違反しようとする人物の責任を追及しやすくなり、追加の保護層が加わることを案内しています。

他にも、違法となる地域においては、GrokアカウントおよびX上のGrokを通じて、ビキニ、下着、またはそれに類する服装をした実在の人物の画像を生成する機能を、すべてのユーザーに対してジオブロック(地域制限)していることも明らかにしています。

案内 – X Safety

\iPhone 17シリーズの購入はこちら/

記事をシェア!
  • URLをコピーしました!

コメント

コメントする

目次