El organismo de control de la privacidad de la UE critica la transparencia de ChatGPT y exige una mayor precisión de los datos
La Unión EuropeaEl grupo de trabajo sobre privacidad ha expresado temores con respecto al ChatGPT de OpenAI, destacando que las medidas actuales tomadas para garantizar la transparencia no son adecuadas para cumplir con los estrictos estándares de precisión de datos de la UE. En un informe publicado el viernes, el grupo de trabajo reconoció las medidas positivas tomadas para mitigar las malas interpretaciones de las respuestas de ChatGPT. Sin embargo, enfatizó la necesidad de que OpenAI aborde las preocupaciones persistentes en torno a la precisión de la información generada por el chatbot.
Formado por autoridades nacionales europeas de protección de datos en respuesta a las preocupaciones planteadas por los reguladores italianos, el grupo de trabajo tiene como objetivo establecer un enfoque unificado hacia las implicaciones de privacidad de las tecnologías de inteligencia artificial como ChatGPT. Si bien las investigaciones de los reguladores nacionales aún están en curso, el informe ofrece un consenso preliminar entre las autoridades europeas al respecto.
La exactitud de los datos es una piedra angular del marco de protección de datos de la UE. El informe del grupo de trabajo subraya la naturaleza probabilística inherente del sistema ChatGPT, que puede generar resultados sesgados o objetivamente incorrectos. También advierte contra la posibilidad de que los usuarios acepten sin crítica las respuestas de ChatGPT como precisas, especialmente cuando se trata de información personal, a pesar de la posibilidad de errores.
mira el otro noticias de IA y eventos tecnológicos correctos aquí en AIfuturize!