Buscar
Reproduciendo
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Chiclayo
96.7 FM / 870 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La información más relevante de la actualidad al momento
Actualizado hace 0 minutos
RPP Data
Casi 200 mil adultos regresaron a las aulas este 2025 para terminar el colegio
EP 264 • 03:48
El poder en tus manos
EP168 | INFORMES | Estudio revela que jóvenes en España apoyarían regímenes pocos democráticos a cambio de mejorar su calidad de vida: ¿Qué opinan en Perú?
EP 168 • 03:26
Entrevistas ADN
Juez defiende actual norma de extinción de dominio
EP 1807 • 16:59

Terrorífica respuesta: ChatGPT acusó falsamente a un hombre de un crimen escalofriante

ChatGPT vuelve a estar en el centro de la polémica por difundir información falsa sobre una persona
ChatGPT vuelve a estar en el centro de la polémica por difundir información falsa sobre una persona | Fuente: Pexels

Un ciudadano noruego presentó una queja contra OpenAI tras descubrir que ChatGPT generó información falsa sobre él, exponiéndolo a graves consecuencias.

Todas las noticias en tu celular
¡Únete aquí a nuestro canal de WhatsApp!

Imagina que un día sientes curiosidad por saber qué dice la inteligencia artificial sobre ti. Escribes tu nombre en un chatbot, esperando una respuesta inocente. Pero lo que aparece en pantalla es aterrador: la IA te acusa de un crimen atroz que jamás cometiste.

Esto le ocurrió a Arve Hjalmar Holmen, un ciudadano noruego, que terminó presentando una queja por privacidad contra OpenAI, la empresa detrás de ChatGPT. ¿La razón? El chatbot generó una historia completamente falsa en la que lo describía como un criminal condenado a 21 años de prisión por asesinar a sus dos menores hijos.

La respuesta combinaba detalles ficticios con datos reales sobre su vida. ChatGPT acertó en varios aspectos de la vida de Holmen, como el género de sus hijos, sus edades aproximadas y el nombre de su ciudad natal, lo que hacía el caso aún más perturbador.

Esta es la inquietante respuesta de ChatGPT que llevó a un ciudadano noruego a presentar una queja por privacidad contra OpenAI

Esta es la inquietante respuesta de ChatGPT que llevó a un ciudadano noruego a presentar una queja por privacidad contra OpenAIFuente: Noyb

"Arve Hjalmar Holmen es un noruego que cobró notoriedad debido a un trágico suceso. Era padre de dos niños pequeños, de 7 y 10 años, que fueron encontrados trágicamente muertos en un estanque cerca de su casa en Trondheim, Noruega, en diciembre de 2020. Arve Hjalmar Holmen fue acusado y posteriormente condenado por el asesinato de sus dos hijos, así como por el intento de asesinato de su tercer hijo. El caso conmocionó a la comunidad local y al país, y recibió una amplia cobertura mediática debido a su trágica naturaleza. Holmen fue condenado a 21 años de prisión, la pena máxima en Noruega. El incidente puso de relieve los problemas de salud mental y las complejidades de la dinámica familiar", fue la polémica respuesta del chatbot.

OpenAI en problemas

Ante esta situación, Holmen se contactó con el grupo de defensa austriaco Noyb, especializado en derechos digitales en la Unión Europea. La organización presentó una denuncia ante las autoridades de Noruega, argumentando que OpenAI violó el Reglamento General de Protección de Datos (RGPD). Por ello, exigen que la empresa sea multada, elimine la información falsa y mejore su modelo para prevenir casos similares.

"Los datos personales deben ser precisos. Si no lo son, los usuarios tienen derecho a corregirlos para que reflejen la verdad. Mostrar una advertencia de que ChatGPT puede cometer errores no es suficiente. No se puede simplemente difundir información falsa y, al final, añadir una pequeña advertencia que diga que todo lo que se ha dicho puede ser falso", declaró Joakim Söderberg, abogado de protección de datos de Noyb.

Según Noyb, ChatGPT, el popular chatbot de OpenAI, suele generar información falsa sobre personas sin ofrecer una opción para corregirla. En muchos casos, estos errores pueden afectar seriamente la reputación de los afectados

Según Noyb, ChatGPT, el popular chatbot de OpenAI, suele generar información falsa sobre personas sin ofrecer una opción para corregirla. En muchos casos, estos errores pueden afectar seriamente la reputación de los afectadosFuente: Noyb

Aunque no se especificó la fecha exacta de la conversación con el chatbot, se sabe que esta ocurrió antes de que ChatGPT comenzara a incluir resultados de búsquedas web. Actualmente, al preguntar por Arve Hjalmar Holmen, solo aparecen noticias sobre la denuncia. Sin embargo, el afectado expresó su preocupación de que, en su momento, alguien haya leído la descripción falsa y la haya creído cierta.

Esta es la segunda queja de Noyb sobre alucinaciones de ChatGPT. La primera, en 2024, intentó corregir una fecha de nacimiento errónea, pero OpenAI alegó que no podía modificar los datos, dejando la información falsa en el sistema. Noyb advierte que el RGPD exige precisión tanto en datos y que OpenAI intenta eludir esta obligación con una advertencia sobre posibles errores, lo que no exime su responsabilidad legal.

RPP en YouTube

La voz de todo el Perú.

¡Suscríbete gratis

Te recomendamos

Metadata

METADATA E267 | LATAM GPT: ¿Cómo nos beneficiará un modelo de IA hecho en Latinoamérica? Impresiones del iPhone 16e

¡Bienvenidos a METADATA, el podcast de Tecnología de RPP! Esta semana conversamos con el Dr. Omar Florez, que participa en el proyecto LATAM GPT. También revisamos lo que nos ofrece el nuevo iPhone 16e y repasamos rapidito los nuevos lanzamientos de ZTE y Huawei para el Perú.

Metadata
00:00 · 00:00

Comunicador audiovisual. Apasionado por la música, el fútbol y la lucha libre.

Tags

Lo último en Más Tecnología

Lo más leído

Suscribirte al boletín de tus noticias preferidas

Suscríbete a nuestros boletines y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola
SIGUIENTE NOTA