Tecnológicos aseguran que IA podría suponer para la humanidad un riesgo de extinción
La inteligencia artificial (IA) podría suponer para la humanidad un “riesgo de extinción” de la magnitud de una guerra nuclear o una pandemia, según sostiene una carta abierta firmada por los 350 ejecutivos más importantes de ese sector tecnológico.
Los líderes en el desarrollo de la IA, entre los cuales se encuentran el CEO de OpenAI, Sam Altman; el ganador del Premio Turing, Geoffrey Hinton; los consejeros delegados de DeepMind y Anthropic, y varios ejecutivos de Microsoft y Google, advierten que reducir el riesgo existencial generado por la inteligencia artificial debería ser una “prioridad mundial”, reseñó RT.
“Mitigar el riesgo de extinción por causa de la IA debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear”, reza la...