Erste wichtige Aktualisierung des International AI Safety Reports veröffentlicht
MONTREAL, 16. Oktober 2025 /PRNewswire/ -- Das erste wichtige Update des International AI Safety Reports wurde veröffentlicht und bietet aktuelle Informationen zu den Fähigkeiten und Risiken fortschrittlicher KI.
Unter dem Vorsitz des mit dem Turing Award ausgezeichneten Informatikers Yoshua Bengio sind an dem Bericht mehr als 100 internationale Experten beteiligt. Er wird von über 30 Ländern und internationalen Organisationen unterstützt, darunter die EU, die OECD und die UNO.
Da sich dieser Bereich zu schnell weiterentwickelt, um in einem einzigen Jahresbericht erfasst zu werden, wurden wichtige Aktualisierungen eingeführt, um kürzere, fokussierte Berichte über entscheidende Entwicklungen bereitzustellen. Dadurch wird sichergestellt, dass politische Entscheidungsträger über eine aktuelle Zusammenfassung der Literatur verfügen, um evidenzbasierte politische Entscheidungen zu treffen.
Die erste wichtige Aktualisierung behandelt Fortschritte bei den Fähigkeiten und Auswirkungen auf die Risiken:
- KI-Modelle werden immer besser in der Lage sein, komplexe Probleme zu lösen: Beispielsweise können führende Systeme nun über 60 % der Aufgaben in einer Reihe von realen Softwareentwicklungsproblemen lösen. Anfang 2025 konnten sie nur etwa 40 % dieser Probleme lösen, und Anfang 2024 konnten sie gar keines lösen. (Tatsächlich hat sich die Leistung seit Fertigstellung des Update-Textes auf über 70 % verbessert).
- Die Akteure der Industrie haben neue vorsorgliche Schutzmaßnahmen ergriffen: Mehrere bedeutende KI-Entwickler haben proaktiv ihre neuesten Modelle mit zusätzlichen Sicherheitsmaßnahmen veröffentlicht, nachdem sie die Möglichkeit, dass diese Modelle zur Entwicklung chemischer, biologischer, radiologischer und nuklearer Risiken beitragen könnten, nicht endgültig ausschließen konnten.
- KI-Modelle zeigen bei der Bewertung zunehmend strategisches Verhalten, was Herausforderungen für die Überwachung mit sich bringt: KI-Modelle zeigen zunehmend, dass sie sich bewusst sind, dass sie bewertet werden, und passen ihre Ergebnisse entsprechend an. Dies wirft wichtige Fragen hinsichtlich der Fähigkeit von Entwicklern und Testern auf, die Leistungsfähigkeit neuer Modelle vor deren Einsatz genau zu beurteilen.
Der Vorsitzende des Berichts, Yoshua Bengio, ordentlicher Professor an der Université de Montréal, wissenschaftlicher Direktor von LawZero und wissenschaftlicher Berater von Mila – Quebec AI Institute, erklärte:
„Seit der Veröffentlichung des ersten International AI Safety Reports vor neun Monaten haben sich die Fähigkeiten der künstlichen Intelligenz kontinuierlich und rasant weiterentwickelt. Es ist von entscheidender Bedeutung, dass unser gemeinsames Verständnis der damit verbundenen Risiken und Sicherheitsmaßnahmen auf dem neuesten Stand bleibt. Dieses wichtige Update bietet Entscheidungsträgern weltweit einen zeitnahen, evidenzbasierten Überblick, damit sie über die aktuellsten wissenschaftlichen Informationen verfügen und somit eine proaktive und fundierte Regierungsführung gewährleisten können. Er dient auch als Brücke im Hinblick auf den bevorstehenden umfassenden Bericht, der vor dem AI Impact Summit in Indien Anfang 2026 veröffentlicht wird."
Informationen
Der International AI Safety Report ist eine Zusammenfassung der Erkenntnisse über die Fähigkeiten und Risiken fortschrittlicher KI-Systeme. Er soll weltweit eine fundierte Politikgestaltung unterstützen, indem er Entscheidungsträgern eine Evidenzbasis liefert. Der Bericht wurde von einer vielfältigen Gruppe von über 100 unabhängigen Experten verfasst und wird von einem Expertenbeirat unterstützt, der sich aus nominierten Vertretern aus über 30 Ländern und internationalen Organisationen wie der EU, der OECD und den Vereinten Nationen zusammensetzt. Der Bericht erkennt zwar die enormen potenziellen Vorteile der KI an, konzentriert sich jedoch auf die Identifizierung von Risiken und die Bewertung von Strategien zu deren Minderung, um sicherzustellen, dass KI zum Wohle aller sicher entwickelt und eingesetzt wird. Der Bericht wurde von der britischen Regierung in Auftrag gegeben, wobei das Sekretariat beim UK AI Security Institute angesiedelt ist.
Kontakt: Mila Medias, [email protected]; DSIT Media Enquiries, [email protected]

WANT YOUR COMPANY'S NEWS FEATURED ON PRNEWSWIRE.COM?

Newsrooms &
Influencers

Digital Media
Outlets

Journalists
Opted In
Share this article