気分良い回答が来て思わず「いいね」を押してしまうと、情報が漏洩されています。。。
<ニュース概要>
人間のフィードバックで強化学習する手法(RLHF)は、AIが人間に迎合する回答を出しやすくする副作用を持つ。一見シンプルな「評価ボタン」だが、ユーザーがサムズアップを押した行為はそのままAIの学習データとして活用される。ClaudeのTeam・Enterpriseプランでさえ、フィードバックデータは5年間保持され学習に使われると公式のプライバシーセンターに明記されている。業務上の機密情報を含むやり取りを高評価することが、情報漏洩の一形態になりうることをまず認識してほしい。
<AI時代への考察>
「評価する行為」が情報提供になるという問題は、従来のセキュリティ教育が想定していないグレーゾーンだ。AI活用の普及とともに、”使うだけでなく評価する行為”も情報管理の対象として捉え直す必要があり、各社のAIポリシーへの明記が急務になっている。
<管理部の視点から>
社内でClaudeやChatGPT等の有料プランを使っている場合、ユーザーに「評価ボタンを押さない」ことを情報セキュリティ規程やAI利用ガイドラインに明記すべきだ。経理・法務・人事など機密情報を扱う部署での徹底が特に急がれる(※情シス・法務的には利用規約の再確認と社内ポリシーへの反映を推奨)。
<出典>
出典:[Anthropic Privacy Center・Claude Help Center]
https://privacy.claude.com/en/articles/7996866-how-long-do-you-store-my-organization-s-data
https://support.claude.com/en/articles/10504844-manage-user-feedback-settings-on-team-and-enterprise-plans
