Crean un prompt que hace que una IA extraiga datos personales de los chats
Piensa por un momento que estás hablando, como seguramente ya has hecho en alguna que otra ocasión, con un chatbot y, sin que te des cuenta, toda tu información personal acaba en manos de un hacker. Suena a película sacada de la mente de Spielberg, pero resulta que ya no es tanta ficción como se creía.
Un grupo de investigadores ha descubierto una forma de «hackear» los chatbots que tienen inteligencia artificial, como podrían ser Gemini o ChatGPT, para que recopilen y envíen datos personales a terceros sin que el usuario se entere.
El truco está en un mensaje aparentemente inofensivo que esconde instrucciones maliciosas. Los investigadores de las universidades de California y Nanyang han bautizado este ataque como «Imprompter».
Básicamente, han creado un algoritmo que convierte u...