Fue publicada la primera actualización clave del Informe internacional de seguridad de la IA
Noticias proporcionadas por
Office of the Chair of the International AI Safety Report16 oct, 2025, 19:12 GMT
MONTREAL, 16 de octubre de 2025 /PRNewswire/ -- Se ha publicado la primera actualización clave del Informe internacional de seguridad de la IA, que proporciona una actualización oportuna sobre las capacidades y los riesgos de la IA avanzada.
Presidido por el científico informático galardonado con el Premio Turing, Yoshua Bengio, el Informe involucra a más de 100 expertos internacionales y cuenta con el respaldo de más de 30 países y organizaciones internacionales, entre ellas la UE, la OCDE y la ONU.
Al reconocer que el campo evoluciona demasiado rápido para un solo informe anual, se han introducido actualizaciones clave para proporcionar informes más cortos y centrados en desarrollos críticos. Esto garantizará que los responsables de la formulación de políticas tengan una síntesis actualizada de la literatura para informar la formulación de políticas basadas en evidencia.
La primera actualización clave cubre los avances en las capacidades y las implicaciones de riesgo:
- Los modelos de IA mejoran las habilidades de resolución de problemas complejos: por ejemplo, los sistemas líderes ahora pueden completar más del 60 % de las tareas en un conjunto de problemas de ingeniería de software del mundo real. A principios de 2025 solo podían completar alrededor del 40 % de estos problemas, y a principios de 2024 no podían resolver ninguno. (De hecho, justo desde que se finalizó el texto de actualización, el rendimiento ha mejorado a más del 70 %).
- Los actores de la industria han adoptado nuevas medidas de precaución: múltiples desarrolladores importantes de IA han lanzado de manera proactiva sus modelos más nuevos con medidas de seguridad adicionales después de no poder descartar definitivamente la posibilidad de que estos modelos puedan ayudar en el desarrollo de riesgos químicos, biológicos, radiológicos y nucleares.
- Los modelos de IA demuestran cada vez más un comportamiento estratégico mientras se evalúan, lo que plantea desafíos de supervisión: es cada vez más probable que los modelos de IA demuestren que son conscientes de que se están evaluando y alteren sus resultados en consecuencia, lo que plantea preguntas importantes acerca de la capacidad de los desarrolladores y examinadores para evaluar con precisión las capacidades de los nuevos modelos antes de implementarlos.
El presidente del informe, Yoshua Bengio, profesor titular de la Universidad de Montreal, director científico de LawZero y asesor científico de Mila - Quebec AI Institute, señaló:
"Las capacidades de la IA han evolucionado de forma rápida y constante desde la publicación del primer Informe internacional de seguridad de la IA hace nueve meses. Es esencial que nuestra comprensión colectiva de sus riesgos y medidas de seguridad se mantenga al día. Esta actualización clave proporciona una visión general oportuna y basada en la evidencia para que los responsables de la toma de decisiones a nivel mundial dispongan de la información científica más actualizada y, por lo tanto, garanticen una gobernanza proactiva e informada. También sirve como puente en previsión del próximo informe exhaustivo que se publicará antes de la Cumbre de impacto de la IA en la India a principios de 2026".
Acerca de
El Informe internacional de seguridad de la IA es una síntesis de la evidencia sobre las capacidades y los riesgos de los sistemas avanzados de IA. Está diseñado para apoyar la formulación de políticas informadas a nivel mundial al proporcionar una base de evidencia para los responsables de la toma de decisiones. Escrito por un grupo diverso de más de 100 expertos independientes, el informe está respaldado por un Panel Asesor de Expertos compuesto por representantes designados de más de 30 países y organizaciones internacionales, entre ellas la UE, la OCDE y la ONU. Si bien reconoce los inmensos beneficios potenciales de la IA, el informe se centra en identificar riesgos y evaluar estrategias de mitigación para garantizar que la IA se desarrolle y se use de manera segura en beneficio de todos. El informe fue encargado por el Gobierno del Reino Unido y su secretaría se encuentra en el Instituto de Seguridad de IA del Reino Unido.
Contacto: Mila Medias, [email protected]; Consulta de los medios al DSIT, [email protected]
FUENTE Office of the Chair of the International AI Safety Report

Compartir este artículo