El presidente de Estados Unidos, Joe Biden, debatió con sus asesores sobre los potenciales peligros de la inteligencia artificial. Aseguró que los laboratorios de IA tienen la responsabilidad de lanzar productos seguros para sus usuarios.
El debate sobre los riesgos y las posibilidades de los grandes modelos de inteligencia artificial está sumando nuevas opiniones a diario, tanto de expertos como de los principales referentes políticos a nivel mundial. En las últimas horas, por ejemplo, le tocó el turno a Joe Biden, presidente de los Estados Unidos.
El mandatario norteamericano se reunió con Consejo de Asesores en Ciencia y Tecnología de la Casa Blanca, con el objetivo de ponerse al día con una temática tan candente. Consultado por la prensa sobre si creía que la IA podía ser peligrosa, aseguró: «Todavía está por verse. Pero podría serlo».
Las palabras de Joe Biden se suman a una discusión muy amplia nos dice Hipertextual sobre qué implica el desarrollo de modelos de inteligencia artificial, considerando su rápida evolución y el impacto que tienen a nivel global. En tal sentido, el presidente estadounidense remarcó que empresas como OpenAI deben asumir el compromiso de ofrecer productos seguros a sus usuarios.
«La IA puede ayudar a enfrentar algunos desafíos muy difíciles, como las enfermedades y el cambio climático, pero también debemos abordar los riesgos potenciales para nuestra sociedad, nuestra economía y nuestra seguridad nacional. […] Las empresas de tecnología tienen la responsabilidad, en mi opinión, de asegurarse de que sus productos sean seguros antes de hacerlos públicos», aseveró Joe Biden.
Los comentarios de Joe Biden en torno a la inteligencia artificial van más allá de una simple opinión sobre un debate que ya involucra a figuras como Elon Musk, Sam Altman o Bill Gates. De hecho, el presidente de Estados Unidos mencionó la necesidad de establecer las legislaciones necesarias para que los sistemas de IA incorporen medidas de seguridad desde el principio, y no que se sumen sobre la marcha.
De esta forma, el líder norteamericano trazó un paralelismo con lo que ocurre con las redes sociales. «Las redes sociales ya nos han mostrado el daño que pueden causar las tecnologías poderosas sin las medidas de seguridad adecuadas. En ausencia de garantías, vemos el impacto en la salud mental, la autoimagen, los sentimientos y la desesperanza, especialmente entre los jóvenes», indicó.
Más allá de lo dicho por Joe Biden, todavía no existe una postura definitiva de la Casa Blanca sobre el desarrollo de modelos de lenguaje como GPT-4 o productos como ChatGPT. Pero queda claro que en Washington no permanecen indiferentes mientras los principales referentes del sector tecnológico discuten los efectos de la IA en la vida cotidiana y el futuro.
Recordemos que un grupo de más de 1.000 expertos, liderados por Elon Musk, lanzaron una carta abierta pidiendo que se frene el desarrollo de modelos de inteligencia artificial más potentes que GPT-4. Una medida que, estiman, debería sostenerse por al menos seis meses. No obstante, esta postura ya se ha ganado algunas voces en contra, como la de Bill Gates. El cofundador de Microsoft cree que una pausa como la que se está solicitando es inviable de aplicar a nivel global.
Y como para ponerle un poco más de picante a la situación, en las últimas horas resurgieron unas declaraciones de Sam Altman, el CEO de OpenAI, quien en 2019 aseguró que el potencial de los modelos de inteligencia artificial era equivalente al de una bomba nuclear. ¿Será realmente así? Es probable que Joe Biden y sus consejeros en la Casa Blanca ya estén tomando nota de semejante comparación.
Por:Agencia.