El Informe Internacional sobre Seguridad de la IA de 2026 describe los cambios rápidos y los riesgos emergentes
Noticias proporcionadas por
Office of the Chair of the International AI Safety Report04 feb, 2026, 11:42 GMT
MONTREAL, 4 de febrero de 2026 /PRNewswire/ -- Hoy se publica el Informe Internacional sobre Seguridad de la IA de 2026, que proporciona una evaluación actualizada, compartida a nivel internacional y basada en datos científicos sobre las capacidades de la IA de uso general, los riesgos emergentes y el estado actual de la gestión de riesgos y las medidas de seguridad.
Esta segunda edición del Informe Internacional sobre Seguridad de la IA, presidida por Yoshua Bengio, ganador del Premio Turing, reúne a más de 100 expertos internacionales y cuenta con el respaldo de un panel asesor de expertos con candidatos de más de 30 países y organizaciones internacionales, entre ellas la UE, la OCDE y la ONU. Las conclusiones del informe servirán de base para los debates que tendrán lugar en la Cumbre sobre el impacto de la IA, que se celebrará en la India a finales de este mes.
Entre los aspectos más destacados del informe, se incluyen:
- Las capacidades de la IA de uso general han seguido mejorando rápidamente, especialmente en matemáticas, codificación y funcionamiento autónomo. En 2025, los principales sistemas de IA obtuvieron una medalla de oro en las preguntas de la Olimpiada Internacional de Matemáticas, superaron el rendimiento de los expertos con doctorado en pruebas de referencia científicas y fueron capaces de completar de forma autónoma algunas tareas de ingeniería de software que a un programador humano le llevarían varias horas. Sin embargo, el rendimiento sigue siendo "irregular", ya que los sistemas siguen fallando en algunas tareas aparentemente simples.
- La adopción de la IA ha sido rápida, aunque desigual a nivel mundial. La IA se ha adoptado más rápidamente que las tecnologías anteriores, como la computadora personal, y al menos 700 millones de personas utilizan todas las semanas los principales sistemas de IA. En algunos países, más de la mitad de la población utiliza la IA, aunque en gran parte de África, Asia y América Latina, las tasas de adopción estimadas siguen siendo inferiores al 10 %.
- Los incidentes relacionados con los deepfakes están en aumento. Los deepfakes generados por IA se utilizan cada vez más para cometer fraudes y estafas. Las imágenes íntimas no consensuadas generadas por IA, que afectan de manera desproporcionada a las mujeres y las niñas, también son cada vez más comunes. Por ejemplo, un estudio reveló que 19 de cada 20 aplicaciones populares de "nudify" se especializan en simular el desnudo de mujeres.
- Las preocupaciones por el uso indebido con fines biológicos han dado lugar a la adopción de medidas de seguridad más estrictas para algunos modelos líderes. En 2025, varias empresas de IA lanzaron nuevos modelos con mayores medidas de seguridad después de que las pruebas previas a la implementación no pudieran descartar la posibilidad de que los sistemas pudieran ayudar de manera considerable a los principiantes a desarrollar armas biológicas.
- Las personas con intenciones maliciosas, como los delincuentes, utilizan activamente la IA de uso general en los ciberataques. Los sistemas de IA pueden generar código dañino y descubrir vulnerabilidades en el software que los delincuentes pueden aprovechar. En 2025, un agente de IA se ubicó entre el 5 % de los mejores equipos en una importante competencia de ciberseguridad. Los mercados clandestinos ahora venden herramientas de IA preconfiguradas que reducen el nivel de habilidad necesario para llevar a cabo ataques.
- Muchas medidas de seguridad están mejorando, pero las técnicas actuales de gestión de riesgos siguen siendo falibles. Si bien ciertos tipos de fallas, como las "alucinaciones", se han vuelto menos comunes, algunos modelos ahora son capaces de distinguir entre contextos de evaluación y de implementación, y pueden modificar su comportamiento en consecuencia, lo que genera nuevos desafíos en torno a la evaluación y las pruebas de seguridad.
El presidente del Informe, Yoshua Bengio, catedrático de la Universidad de Montreal, director científico de LawZero y asesor científico de Mila - Quebec AI Institute, afirmó:
"Desde la publicación del primer Informe Internacional sobre Seguridad de la IA hace un año, hemos sido testigos de avances significativos en las capacidades de los modelos, pero también en sus posibles riesgos, y la brecha entre el ritmo del avance tecnológico y nuestra capacidad para implementar medidas de seguridad eficaces sigue siendo un desafío fundamental. El Informe tiene como objetivo proporcionar a los responsables de la toma de decisiones la evidencia rigurosa necesaria para orientar la IA hacia un futuro seguro y beneficioso para todos. Con su segunda edición, actualizamos y reforzamos nuestro conocimiento compartido y basado en la ciencia sobre la rápida evolución de la IA de vanguardia a escala mundial. "
La ministra de IA del Reino Unido, Kanishka Narayan, afirmó:
"La confianza en la IA es fundamental para aprovechar todo su potencial. Es una tecnología que ofrecerá mejores servicios públicos, nuevas oportunidades de empleo e innovaciones que cambiarán nuestras vidas. Pero también estamos decididos a garantizar la seguridad de las personas a medida que se desarrolla esta tecnología. El desarrollo responsable de la IA es una prioridad compartida, y solo si trabajamos juntos podremos dar forma a su futuro para lograr un cambio positivo. Este informe nos ayuda precisamente a eso: reunir a expertos de todo el mundo para garantizar que contamos con una sólida base científica que nos permita tomar hoy las decisiones adecuadas que sentarán las bases para un futuro más brillante y seguro".
Acerca del Informe Internacional sobre Seguridad de la IA
El Informe Internacional sobre Seguridad de la IA es una síntesis de las pruebas sobre las capacidades y riesgos de los sistemas avanzados de IA. Este informe está diseñado para apoyar la formulación de políticas informadas a nivel mundial, al ofrecer una base empírica para los responsables de la toma de decisiones. El informe, presidido por el profesor Yoshua Bengio y redactado por un grupo diverso de más de 100 expertos independientes, cuenta con el respaldo de un panel asesor de expertos compuesto por representantes designados de más de 30 países y organizaciones internacionales, entre ellas la UE, la OCDE y la ONU. Aunque reconoce los enormes beneficios potenciales de la IA, el Informe se centra en identificar los riesgos y evaluar estrategias de mitigación para garantizar que la IA se desarrolle y utilice de forma segura en beneficio de todos. El informe fue encargado por el Gobierno del Reino Unido, y la Secretaría, con sede en el Instituto de Seguridad de la IA del Reino Unido, se encargó de proporcionar apoyo operativo.
FUENTE Office of the Chair of the International AI Safety Report
Compartir este artículo