Lançada a segunda atualização fundamental do Relatório Internacional de Segurança da IA
Notícias fornecidas por
Office of the Chair of the International AI Safety Report25 nov, 2025, 20:02 GMT
MONTREAL, 25 de novembro de 2025 /PRNewswire/ -- A segunda atualização fundamental do Relatório Internacional de Segurança da IA foi publicada, fornecendo uma atualização oportuna sobre gestão de riscos e medidas técnicas de mitigação para IA de uso geral.
Presidido pelo cientista da computação vencedor do Prêmio Turing, Yoshua Bengio, o Relatório envolve mais de 100 especialistas internacionais e conta com o apoio de mais de 30 países e organizações internacionais, incluindo a UE, a OCDE e a ONU.
Reconhecendo que o campo está evoluindo rápido demais para um único Relatório anual, foram apresentadas as atualizações fundamentais para fornecer relatórios mais curtos e focados sobre desenvolvimentos críticos. Esta atualização segue a primeira atualização fundamental, que foi publicada em 15 de outubro de 2025. Essas atualizações garantem que os formuladores de políticas tenham uma síntese atualizada da literatura para orientar a elaboração de políticas baseadas em evidências.
A segunda atualização fundamental aborda uma visão geral dos métodos técnicos para melhorar a confiabilidade e prevenir usos indevidos, além de novas abordagens institucionais emergentes para a gestão de riscos. Os destaques incluem:
- Estão sendo feitos progressos para treinar modelos a resistirem a ataques maliciosos, mas ainda existem lacunas. Embora os modelos e sistemas de IA tenham se tornado melhores em resistir a ataques, hackers sofisticados ainda conseguem quebrar as proteções em cerca de 50% dos casos com apenas 10 tentativas, além de comprometer modelos ao envenenar seus dados de treinamento com apenas 250 documentos maliciosos.
- A lacuna do código aberto está se fechando. Modelos com pesos abertos agora estão a menos de um ano atrás dos líderes do setor, democratizando o acesso, mas complicando os esforços para prevenir falhas e usos indevidos.
- Os compromissos de segurança do setor aumentaram, mas sua eficácia é desconhecida. Embora o número de empresas de IA que adotaram estruturas de gestão de riscos tenha mais que dobrado em 2025, sua eficácia na prática continua incerta.
Presidente do Relatório, Yoshua Bengio, Professor Titular na Université de Montréal, Diretor Científico da LawZero e Conselheiro Científico do Mila - Quebec AI Institute, declarou:
"À medida que continuamos a acompanhar as atualizações sobre os recursos e riscos da IA, é essencial também fornecer caminhos claros para uma gestão de riscos apropriada e eficaz, bem como para medidas técnicas de mitigação. Esta atualização fundamental oferece uma visão geral dos progressos alcançados nessas áreas, bem como das lacunas e oportunidades que ainda permanecem. Nosso objetivo é fornecer continuamente aos tomadores de decisão em todo o mundo atualizações oportunas sobre os avanços da IA, antes da publicação do segundo Relatório Internacional de Segurança da IA, que está previsto para o início de 2026, antecedendo a Cúpula de Impacto da IA na Índia."
Sobre
O Relatório Internacional de Segurança da IA é uma síntese das evidências sobre os recursos e riscos dos sistemas avançados de IA. Ele foi concebido para apoiar a formulação de políticas informadas em nível global, fornecendo uma base de evidências para os tomadores de decisão. Elaborado por um grupo diverso de mais de 100 especialistas independentes, o relatório conta com o respaldo de um Painel Consultivo de Especialistas composto por representantes indicados de mais de 30 países e organizações internacionais, incluindo a UE, a OCDE e a ONU. Embora reconheça os imensos benefícios potenciais da IA, o foco do Relatório está em identificar riscos e avaliar estratégias de mitigação para garantir que a IA seja desenvolvida e utilizada de forma segura, em benefício de todos. O Relatório foi encomendado pelo Governo do Reino Unido, com a Secretaria sediada no Instituto de Segurança da IA do Reino Unido.
Contato: Mila Medias ([email protected]); Consultas de Imprensa do DSIT ([email protected])
Essa tradução é fornecida pela PRNewswire.
FONTE Office of the Chair of the International AI Safety Report
Partilhar este artigo