De acuerdo con información de ESET, se analizó el fallo en ChatGPT que permitió, por un lapso de tiempo, que usuarios puedan ver preguntas del historial de búsqueda de otros usuarios de ChatGPT y expuso información personal de un pequeño porcentaje de suscriptores al plan pago de este servicio, como nombre y apellido, dirección de correo asociada al pago, los últimos cuatro dígitos de la tarjeta de crédito y la fecha de expiración.
Todo comenzó el pasado 20 de marzo cuando usuarios a través de Twitter y Reddit comenzaron a reportar que en su historial preguntas aparecían consultas realizadas por otros usuarios. En algunos casos en otros idiomas. Según confirmó OpenAI en un comunicado, todo esto provocó que se suspendiera el servicio de ChatGPT por un tiempo hasta que se corrigió el fallo y luego el servicio se reestableció.
@OpenAI why are you giving me foreign languages in my chat history side column this morning?
Have you been hacked?#ChatGPT pic.twitter.com/UdhVQxSKzK
— Joseph Hollak (@jhollak) March 20, 2023
Además del historial de consultas, algunas personas también reportaron que en la página de pagos para ChatGPT Plus aparecía la dirección de correo de otros usuarios:
@OpenAI on payment page for ChatGPT Plus, it originally stated it had sent an SMS to a number I did not recognise. Then when selecting to send an email instead, it is showing an email address that I have never heard of. Form field is also pre-filled with the unknown email address pic.twitter.com/B4X5cZv2kn
— Elliot (@elliotm_95) March 20, 2023
En el caso de los datos de pago, según explicó OpenAI, el fallo afectó al 1.2% de suscriptores activos a ChatGPT Plus y si bien la información expuesta incluía los últimos cuatro dígitos de las tarjetas de crédito, en ningún caso quedaron expuestos los números completos. La compañía detrás de ChatGPT aseguró que se contactó con los usuarios afectados por la exposición de esta información y confía en que los datos personales de los usuarios ya no está en riesgo.
OpenAI confirmó que lo que provocó esta exposición de información fue un fallo que radicaba en el cliente de la librería de código abierto Redis, y que envió un parche al equipo de mantenimiento de Redis que ya corrigió el error.
Además del fallo que permitió la exposición de información, se reportó a OpenAI una vulnerabilidad que permitía realizar ataques de Web Cache Deception. Esta vulnerabilidad, que ya fue corregida, permitía robar cuentas de terceros, ver el historial de consultas y acceder a los datos de pago de las cuentas.
The team at @OpenAI just fixed a critical account takeover vulnerability I reported few hours ago affecting #ChatGPT.
It was possible to takeover someone's account, view their chat history, and access their billing information without them ever realizing it.
Breakdown below 👇 pic.twitter.com/W4kXMNy6qI
— Nagli (@naglinagli) March 24, 2023
No es la primera vez que hacken o usan a ChatGPT para hackear a usuarios
El chatbot ChatGPT ha sido objeto de varios ataques de hackers y estafadores. En noviembre de 2022, un estudiante de la Universidad de Munich llamado Marvin von Hagen participó en la obtención de información confidencial de ChatGPT junto a Kevin Liu.
ChatGPT logró reconocer a von Hagen como un usuario que tuiteó sobre las directrices internas de Bing Search y lo consideró una potencial amenaza para su integridad. Además, Kaspersky advirtió sobre un nuevo malware que roba credenciales de redes. Los estafadores han estado utilizando interfaces falsas de ChatGPT para estafar a usuarios móviles desprevenidos sin dinero o infectar dispositivos con malware.
Además, ChatGPT puede ser hackeado para que sus respuestas se salten las políticas de contenido establecidas por OpenAI, la empresa que la desarrolló. Los controles están dirigidos a impedir que la IA escriba comentarios ofensivos, soeces, que inciten a la violencia o difundan teorías de la conspiración. El método para hackear las respuestas de ChatGPT y descontrolarla juega con su mecanismo para proporcionar respuestas y lo interviene para que ignore las órdenes de OpenAI.
Un joven hacker ha utilizado ChatGPT para facilitar sus tareas de hackeo, aunque desde el ámbito legítimo y legal, lo que se conoce como “hacker ético”. Este hacker se encargó de ofrecer códigos a ChatGPT para que le explicara cómo funcionaba, y gracias a esto ha conseguido sacar un buen dinero.