Eingabehilfen öffnen

Skip to main content
Rankings - top.tirol - Wirtschaftsnachrichten aus Tirol
Rankings
Unternehmensverzeichnis - top.tirol - Wirtschaftsnachrichten aus Tirol
Unternehmen
Newsletter - top.tirol - Wirtschaftsnachrichten aus Tirol
Newsletter
neue MIT-Studie

KI-Agenten im Aufwind – doch Sicherheitsstandards bleiben weit zurück

neue MIT-Studie

KI-Agenten im Aufwind – doch Sicherheitsstandards bleiben weit zurück

Artikel teilen

Eine neue MIT-Studie zeigt: Autonome KI-Systeme verbreiten sich in Rekordtempo. Wer die Verantwortung für ihr Handeln trägt, ist bislang kaum geregelt.

Die Popularität sogenannter KI-Agenten wächst rasant. Doch während Unternehmen und Forschungseinrichtungen den technologischen Fortschritt feiern, klafft eine gefährliche Lücke: Es fehlen verbindliche Sicherheits- und Verhaltensstandards. Zu diesem Befund kommt derAI Agent Index 2025 des Computer Science & Artificial Intelligence Laboratory (CSAIL) am Massachusetts Institute of Technology (MIT), der im Februar 2026 veröffentlicht wurde und erstmals eine systematische Bestandsaufnahme des Markts für agentische KI-Systeme liefert.

Ein Markt in Aufbruchstimmung

Agentische KI-Systeme unterscheiden sich grundlegend von klassischen generativen KI-Anwendungen. Während Letztere auf Eingaben reagieren, handeln Agenten eigenständig: Sie führen mehrstufige Aufgaben aus, treffen Entscheidungen und passen ihre Strategie in Echtzeit an – mit minimalem menschlichem Eingriff. Die Anwendungsfelder reichen von automatisierten Recherchetools und Browser-Agenten wie Perplexity Comet oder ChatGPT Atlas bis zu Unternehmens-Workflow-Systemen wie Microsoft Copilot Studio oder ServiceNow Agent.

Das Wachstum des Sektors ist bemerkenswert. Laut McKinsey erproben bereits 62 Prozent der befragten Unternehmen KI-Agenten. 24 der 30 im Index analysierten Systeme wurden zwischen 2024 und 2025 erstmals veröffentlicht oder erhielten substanzielle Erweiterungen ihrer agentischen Fähigkeiten. In der Wissenschaft spiegelt sich dieser Boom wider: Die Zahl der wissenschaftlichen Publikationen, die „AI agent" oder „agentic AI" erwähnen, übertraf 2025 erstmals die Gesamtzahl aller Veröffentlichungen aus allen vorangegangenen Jahren zusammen.

Strukturelle Abhängigkeiten

Die rasche Verbreitung geht einher mit einer erheblichen Marktkonzentration. Die Mehrheit der analysierten Agenten basiert auf den Modellfamilien GPT von OpenAI, Claude von Anthropic oder Gemini von Google – nur frontier-Labore und chinesische Entwickler betreiben eigene Modelle. Diese strukturelle Abhängigkeit birgt Risiken: Ein Sicherheitsproblem im Basismodell pflanzt sich potenziell durch Dutzende darauf aufbauende Agenten fort.

21 der 30 analysierten Agenten sind in den USA eingetragen, fünf in China. Chinesische Agenten weisen dabei besonders geringe Dokumentation auf: Nur einer von fünf verfügt über ein veröffentlichtes Sicherheits-Framework oder Compliance-Standards. Ob dies einen tatsächlichen Mangel oder lediglich andere Dokumentationspraktiken widerspiegelt, lassen die Autoren offen.

Das Transparenzproblem

Der gravierendste Befund der MIT-Studie betrifft die Offenlegungspraxis. 25 der 30 analysierten Systeme veröffentlichen keinerlei interne Sicherheitsergebnisse, 23 wurden keinem Drittanbieter-Testing unterzogen. Besonders beunruhigend: Unter den 13 Systemen mit dem höchsten Autonomiegrad – also jenen, die lange Aufgabensequenzen ohne menschliche Kontrolle ausführen können – legten lediglich vier überhaupt agentische Sicherheitsbewertungen offen. Dies sind ChatGPT Agent, OpenAI Codex, Claude Code und Gemini 2.5 Computer Use.

Hinzu kommt eine Transparenzlücke gegenüber Nutzern und Dritten. 21 der 30 Agenten geben weder Nutzern noch Dritten zu erkennen, dass sie es mit einem KI-System und nicht mit einem Menschen zu tun haben. Nur sieben Agenten veröffentlichen stabile User-Agent-Strings und IP-Adressbereiche, anhand derer Websitebetreiber Bot-Traffic identifizieren könnten. Einige Systeme setzen hingegen gezielt Chrome-ähnliche Browser-Signaturen und lokale IP-Adressen ein, um wie menschlicher Traffic zu wirken. Für manche Anbieter ist das sogar ein explizites Verkaufsargument.

Verhaltensstandards: Eine offene Flanke

Neben Sicherheit und Transparenz identifiziert die Studie eine dritte Problemdimension: das Fehlen akzeptierter Verhaltensregeln. Zahlreiche KI-Agenten ignorieren das sogenannte Robot Exclusion Protocol – also die robots.txt-Dateien, mit denen Websitebetreiber festlegen, welche Inhalte automatisiert abgerufen werden dürfen. Einige der untersuchten Systeme sind sogar explizit darauf ausgelegt, Anti-Bot-Mechanismen zu umgehen. Dies wirft grundlegende rechtliche und ethische Fragen auf, die bislang kaum adressiert werden: Wer haftet, wenn ein autonomes System bestehende Schutzmechanismen aushebelt – der Anbieter des Agenten, des Basismodells oder der Nutzer?

OpenAI-Chef Sam Altman hat selbst auf eine spezifische Schwachstelle hingewiesen: KI-Agenten sind besonders anfällig für sogenannte Prompt-Injection-Angriffe, bei denen versteckte Anweisungen in Webinhalten den Agenten umlenken und für schädliche Zwecke instrumentalisieren können.

Erste Brancheninitiativen – noch ohne Verbindlichkeit

Es gibt erste Ansätze, dem regulatorischen Vakuum zu begegnen. Im Dezember 2025 kündigten OpenAI und Anthropic gemeinsam mit weiteren Unternehmen die Gründung einer Brancheninitiative an, die Entwicklungsstandards für KI-Agenten erarbeiten soll. Lediglich die Hälfte der analysierten Agenten veröffentlicht überhaupt ein KI-Sicherheits-Framework – etwa Anthropics Responsible Scaling Policy oder das Preparedness Framework von OpenAI. Ein Drittel der Systeme hat keinerlei Sicherheitsdokumentation veröffentlicht.

Fazit: Wettbewerbsdruck darf Sicherheit nicht verdrängen

Der AI Agent Index 2025 zeichnet das Bild eines Markts im Sprint. Die technologische Dynamik ist unbestreitbar – und für Unternehmen bieten agentische Systeme erhebliche Produktivitätspotenziale. Doch die Studie zeigt ebenso klar: Innovationsgeschwindigkeit und Sicherheitsstandards driften auseinander. Für Führungskräfte, die KI-Agenten in geschäftskritischen Prozessen einsetzen wollen, bedeutet das erhöhte Sorgfaltspflicht: Welche Agenten legen Sicherheitsbewertungen offen? Wer übernimmt Verantwortung bei Fehlfunktionen? Und welche Drittprovider setzen meine Systeme einer strukturellen Abhängigkeit aus?

Die Regulierung wird folgen – die Frage ist nur, ob sie schnell genug kommt, um das Vertrauen in diese Technologie zu sichern.    

21. Februar 2026 | AutorIn: David Wintner | Foto: Shutterstock

top.tirol Newsletter

Wir informieren Sie kostenlos und wöchentlich über Tirols Wirtschaftsgeschehen