Primeira atualização fundamental do Relatório Internacional de Segurança em IA é divulgada
Notícias fornecidas por
Office of the Chair of the International AI Safety Report16 out, 2025, 19:13 GMT
MONTREAL, 16 de outubro de 2025 /PRNewswire/ -- A primeira atualização fundamental do Relatório Internacional de Segurança em IA foi publicada, fornecendo uma atualização oportuna sobre os recursos e riscos da IA avançada.
Presidido pelo cientista da computação vencedor do Prêmio Turing, Yoshua Bengio, o Relatório envolve mais de 100 especialistas internacionais e conta com o apoio de mais de 30 países e de organizações internacionais, incluindo a UE, a OCDE e a ONU.
Reconhecendo que o campo evolui rápido demais para um relatório anual único, as atualizações fundamentais foram introduzidas para fornecer relatórios mais curtos e focados sobre desenvolvimentos críticos. Isso garantirá que os formuladores de políticas tenham uma síntese atualizada da literatura para apoiar decisões baseadas em evidências.
A primeira atualização fundamental aborda avanços em recursos e implicações de risco:
- Modelos de IA continuam a melhorar em habilidades de resolução de problemas complexos: por exemplo, os principais sistemas agora conseguem completar mais de 60% das tarefas em um conjunto de problemas reais de engenharia de software. No início de 2025, eles conseguiam completar apenas cerca de 40% desses problemas, e no início de 2024 não conseguiam resolver nenhum. (Na verdade, apenas desde que o texto da Atualização foi finalizado, o desempenho melhorou para mais de 70%.)
- Agentes do setor adotaram novas medidas de precaução: diversos grandes desenvolvedores de IA lançaram proativamente seus modelos mais recentes com medidas adicionais de segurança após não conseguirem descartar definitivamente a possibilidade de que esses modelos pudessem auxiliar no desenvolvimento de riscos químicos, biológicos, radiológicos e nucleares.
- Modelos de IA demonstram cada vez mais comportamento estratégico durante avaliações, levantando desafios de supervisão: os modelos de IA estão cada vez mais propensos a demonstrar consciência de que estão sendo avaliados e a alterar suas respostas de acordo, levantando questões significativas sobre a capacidade de desenvolvedores e avaliadores de medir com precisão os recursos de novos modelos antes de sua implementação.
O presidente do Relatório, Yoshua Bengio, Professor Titular na Université de Montréal, Diretor Científico da LawZero e Assessor Científico do Mila - Quebec AI Institute, disse:
"Os recursos da IA continuam a evoluir rápida e consistentemente desde a publicação do primeiro Relatório Internacional de Segurança em IA há nove meses. É essencial que nossa compreensão coletiva de seus riscos e medidas de segurança acompanhe essa evolução. Esta atualização fundamental fornece um panorama oportuno, baseado em evidências, para que os tomadores de decisão globais tenham as informações científicas mais atuais e, assim, garantam uma governança proativa e informada. Ela também serve como um elo de transição em antecipação ao próximo relatório abrangente, que será publicado antes da Cúpula de Impacto da IA na Índia, no início de 2026."
Sobre
O Relatório Internacional de Segurança em IA é uma síntese das evidências sobre os recursos e riscos dos sistemas avançados de IA. Ele foi concebido para apoiar a formulação de políticas informadas globalmente, fornecendo uma base de evidências para os tomadores de decisão. Elaborado por um grupo diverso de mais de 100 especialistas independentes, o relatório conta com o apoio de um Painel Consultivo de Especialistas composto por representantes indicados de mais de 30 países e de organizações internacionais, incluindo a UE, a OCDE e a ONU. Reconhecendo os imensos benefícios potenciais da IA, o relatório concentra-se na identificação de riscos e na avaliação de estratégias de mitigação para garantir que a IA seja desenvolvida e utilizada de forma segura, em benefício de todos. O relatório foi encomendado pelo Governo do Reino Unido, com a Secretariat sediada no UK AI Security Institute.
Contato: Mila Medias, [email protected]; consultas de mídia DSIT, [email protected]
FONTE Office of the Chair of the International AI Safety Report

Partilhar este artigo