Piensa por un momento que estás hablando, como seguramente ya has hecho en alguna que otra ocasión, con un chatbot y, sin que te des cuenta, toda tu información personal acaba en manos de un hacker. Suena a película sacada de la mente de Spielberg, pero resulta que ya no es tanta ficción como se creía.
Un grupo de investigadores ha descubierto una forma de «hackear» los chatbots que tienen inteligencia artificial, como podrían ser Gemini o ChatGPT, para que recopilen y envíen datos personales a terceros sin que el usuario se entere.
El truco está en un mensaje aparentemente inofensivo que esconde instrucciones maliciosas. Los investigadores de las universidades de California y Nanyang han bautizado este ataque como «Imprompter».
Básicamente, han creado un algoritmo que convierte una frase normal en algo indescifrable que, para las personas, no tiene sentido, pero que el chatbot interpreta como una orden para recopilar y enviar información personal.
La IA está avanzando a pasos agigantados, pero su seguridad aún tiene que ponerse al día
Lo preocupante es que este ataque ha funcionado en chatbots reales. Los investigadores lo probaron en LeChat, de la empresa francesa Mistral AI, y en el chatbot chino ChatGLM. En ambos casos, lograron extraer información personal con una tasa de éxito del 80%.
La buena noticia es que esto ya se está resolviendo y, para la buena suerte de todos, ha sido descubierto por las personas correctas y no cuando ya es tarde. Por este motivo, las empresas están tomando nota. Mistral AI, por ejemplo, ya ha solucionado la vulnerabilidad en su sistema.
Sin embargo, queda encima de la mesa el tema del riesgo de los chatbots cuando hablas con ellos. Por parte de las empresas, deben ser muy cuidadosas para que no ocurran este tipo de casos y tú, como usuario, el consejo es el de siempre: cuidado con la información que compartes online. Ya sea con un chatbot o en una red social, cuanto menos datos personales des, menos riesgo corres, reseña Computer Hoy.
Por: Agencias / Foto: Cortesía