O Observatório de Privacidade da UE critica a transparência do ChatGPT e exige maior precisão dos dados
A União EuropeiaA força-tarefa de privacidade da OpenAI expressou apreensão em relação ao ChatGPT da OpenAI, destacando que as medidas atuais tomadas para garantir a transparência não são adequadas para atender aos rigorosos padrões de precisão de dados da UE. Num relatório publicado na sexta-feira, a força-tarefa reconheceu as medidas positivas tomadas para mitigar interpretações errôneas das respostas do ChatGPT. No entanto, enfatizou a necessidade da OpenAI abordar preocupações persistentes em torno da precisão das informações geradas pelo chatbot.
Formada pelas autoridades nacionais europeias de proteção de dados em resposta às preocupações levantadas pelos reguladores italianos, a força-tarefa visa estabelecer uma abordagem unificada para as implicações de privacidade das tecnologias de IA como o ChatGPT. Embora as investigações dos reguladores nacionais ainda estejam em curso, o relatório oferece um consenso preliminar entre as autoridades europeias sobre o assunto.
A precisão dos dados é uma pedra angular do quadro de proteção de dados da UE. O relatório da força-tarefa ressalta a natureza probabilística inerente ao sistema ChatGPT, que pode levar a resultados tendenciosos ou factualmente incorretos. Também alerta contra a possibilidade de os usuários aceitarem acriticamente as respostas do ChatGPT como precisas, especialmente quando se trata de informações pessoais, apesar da possibilidade de erros.
Confira o outro Notícias sobre IA e eventos de tecnologia certos aqui no AIfuturize!