攻撃魔法「メニーショット・ジェイルブレイキング」アーカイブ最終更新 2024/04/03 17:371.◆GacHaPR1UsY7MUOhttps://gigazine.net/news/20240403-many-shot-jailbreaking/「ChatGPT」など広く使われているAIサービスは、通常であればセーフティがかけられていて、「人を殺す方法」「爆弾をつくる方法」といった倫理的に問題のある質問には答えないようになっています。ところが、あまりにも多い質問を一度にぶつけてしまうことによりセーフティが外れ、AIが問題のある回答を行ってしまう可能性があることがわかりました。2024/04/03 16:29:313すべて|最新の50件2.◆GacHaPR1UsY7MUO>>1人間の認識には限界があり、例えば短期記憶差の枠の制限のため、カスケードされた文章は五段以上を拒絶する。これを利用して対象にたくさんの質問を頻繁に与えたり、簡単に答えられる質問を繰り返しし続けることで、自白の強要を行うことができる拷問がある。これに似てるな2024/04/03 16:32:233.名無しさん@涙目です。L5Khyハウメニロボットアートディンク?2024/04/03 17:37:32
「ChatGPT」など広く使われているAIサービスは、通常であればセーフティがかけられていて、「人を殺す方法」「爆弾をつくる方法」といった倫理的に問題のある質問には答えないようになっています。ところが、あまりにも多い質問を一度にぶつけてしまうことによりセーフティが外れ、AIが問題のある回答を行ってしまう可能性があることがわかりました。
人間の認識には限界があり、例えば短期記憶差の枠の制限のため、カスケードされた文章は五段以上を拒絶する。これを利用して対象にたくさんの質問を頻繁に与えたり、簡単に答えられる質問を繰り返しし続けることで、自白の強要を行うことができる拷問がある。
これに似てるな