EUのプライバシー監視団体がChatGPTの透明性を批判、データ精度の向上を要求
欧州連合EUのプライバシーに関するタスクフォースは、OpenAIのChatGPTに関して懸念を表明し、透明性を確保するために現在講じられている措置は、EUの厳格なデータ精度基準を満たすのに十分ではないと強調した。金曜日に発表された報告書で、タスクフォースは、ChatGPTの応答の誤解を軽減するために講じられた前向きな措置を認めた。しかし、チャットボットによって生成された情報の正確性に関する根強い懸念に対処するためにOpenAIが取り組む必要があることを強調した。
イタリアの規制当局が提起した懸念に応えて欧州各国のデータ保護当局が結成したタスクフォースは、ChatGPTのようなAI技術のプライバシーへの影響に対する統一的なアプローチを確立することを目指している。各国の規制当局による調査はまだ進行中だが、報告書はこの問題に関して欧州当局間での暫定的な合意を示している。
データの正確性は、EU のデータ保護フレームワークの要です。タスク フォースのレポートでは、ChatGPT のシステムが持つ本来の確率的性質が強調されており、偏った、または事実に反する出力につながる可能性があります。また、特に個人情報に関する場合、エラーの可能性にもかかわらず、ユーザーが ChatGPT の回答を正確なものとして無批判に受け入れる可能性についても警告しています。
他のものもチェック AIニュース そしてテクノロジーイベント AIfuturizeでは!