L'organisme de surveillance de la vie privée de l'UE critique la transparence de ChatGPT et exige une meilleure précision des données
L'Union européenneLe groupe de travail sur la confidentialité a exprimé ses appréhensions concernant ChatGPT d'OpenAI, soulignant que les mesures actuellement prises pour garantir la transparence ne sont pas adéquates pour répondre aux normes strictes d'exactitude des données de l'UE. Dans un rapport publié vendredi, le groupe de travail a reconnu les mesures positives prises pour atténuer les interprétations erronées des réponses de ChatGPT. Cependant, il a souligné la nécessité pour OpenAI de répondre aux préoccupations persistantes concernant l'exactitude des informations générées par le chatbot.
Formé par les autorités nationales européennes de protection des données en réponse aux préoccupations soulevées par les régulateurs italiens, le groupe de travail vise à établir une approche unifiée des implications sur la vie privée des technologies d'IA telles que ChatGPT. Alors que les enquêtes des régulateurs nationaux sont toujours en cours, le rapport propose un consensus préliminaire parmi les autorités européennes sur la question.
L'exactitude des données est la pierre angulaire du cadre de protection des données de l'UE. Le rapport du groupe de travail souligne la nature probabiliste inhérente au système ChatGPT, qui peut conduire à des résultats biaisés ou factuellement incorrects. Il met également en garde contre la possibilité que les utilisateurs acceptent sans réserve les réponses de ChatGPT comme exactes, en particulier lorsqu'elles concernent des informations personnelles, malgré la possibilité d'erreurs.
Découvrez l'autre Actualités sur l'IA et événements technologiques ici dans AIfuturize!