Osnabrück Goliath in Ketten: Wie wir Künstliche Intelligenz bändigen könnten
KI wird wohlmöglich alle Lebensbereiche verändern, von unseren Jobs bis hin zum gesellschaftlichen Zusammenleben. Das birgt Chancen, aber auch Risiken. Doch um die Macht der KI-Modelle zu bremsen, wird es mehr brauchen, als Selbstregulierung der Hersteller.
Auch wenn ich mich täglich mit ihr beschäftige, bin ich immer wieder erstaunt, was mithilfe von Künstlicher Intelligenz (KI) alles möglich ist. Schon heute entwirft sie für mich E-Mail-Antworten, generiert Grafiken und Illustrationen, hilft mir bei der Recherche und kontrolliert meine Texte auf Rechtschreibfehler. KI-Modelle nutzen dafür Daten aus der Vergangenheit, um darin mit statistischen Methoden nach Mustern zu suchen, die man dann für die Zukunft verwenden kann.
Perspektivisch wird KI wohl alle Lebensbereiche verändern, angefangen bei unseren Jobs bis hin zu unserem gesellschaftlichen Zusammenleben. KI hat das Potenzial, die menschliche Produktivität zu vervielfachen – vermutlich sogar noch stärker als die Erfindung von Computer oder Internet. Damit birgt ihr Einsatz die Chance, unseren Wohlstand langfristig zu sichern und noch mehr Menschen ein besseres Leben zu ermöglichen.
Sie bringt aber auch verschiedenste ethische Probleme mit sich: beginnend mit der Verlässlichkeit und der Unvorhersehbarkeit solcher Modelle, über die damit einhergehende wirtschaftliche und politische Macht, bis hin zu Fragen der Privatsphäre und des Datenschutzes. Die Verwendung von KI könnte Einfluss auf die Grundrechte, demokratische Prozesse oder die öffentliche Sicherheit haben. Einige Futuristen wie Raymond Kurzweil, Leiter der technischen Entwicklung bei Google, sagen sogar voraus, dass KI zu einem gewissen Zeitpunkt ausreichend fortgeschritten sein könnte, um sich selbst zu verbessern.
Forscher bezweifeln, dass eine Selbstregulierung der Hersteller allein ausreicht, um die schiere Macht der KI-Modelle zu bremsen. Sandra Wachter, Professorin für Technologie und Regulierung an der University of Oxford, zieht gegenüber dem Science Media Center einen Vergleich: Wenn jemand Autos auf dem europäischen Markt zulassen wolle, aber nur, „wenn ich mich an keine Geschwindigkeitsbeschränkungen halten muss, wenn ich keine Airbags drin haben muss und wenn ich keine Gurte einbauen muss und wenn meine Autofahrer auch keinen Führerschein haben müssen. Dann würde ich sagen, das ist verrückt, das kann man doch nicht machen.“
Die EU plant, mit dem „AI Act“ noch in diesem Jahr Fakten zu schaffen und insbesondere die Hersteller künstlicher Intelligenz zu regulieren. Sie verfolgt dabei einen risikobasierten Regulierungsansatz und unterscheidet zwischen den sogenannten „Foundation Models“ – Systemen mit minimalem Risiko wie Spamfiltern für E-Mails – und den „High Impact Models“ – Hochrisikosystemen, die zumindest potenziell in der Bildung, Strafverfolgung, Grenzkontrolle sowie Rechtspflege oder in demokratischen Prozesse Einfluss nehmen könnten.
Systeme mit einem noch höheren, unannehmbarem Risiko wie manipulative KI, Social Scoring und biometrische Fernidentifizierung wären verboten. Während bei den „Foundation Models“ Transparenz über die Trainingsdaten und Vorkehrungen im Umgang mit urheberrechtlich geschützten Material ausreichen dürften, werden die „High Impact Models“ wohl einer weitreichenderen Regulierung unterworfen. Die genauen Anforderungen sind Gegenstand laufender Verhandlungen.
Doch Wissenschaftlern gehen die bisherigen Vorschläge nicht weit genug. „Man bräuchte Vorkehrungen für Cybersicherheit, für Inhaltemoderation und auch für AI Safety“, sagte Philipp Hacker gegenüber dem Science Media Center. Gemeint sind damit technische Strategien zur Risikominderung, damit KI nicht zur Erstellung von Cyber Malware oder Viren genutzt werden kann. Auch die Entwicklung von Bioterrorismus und chemischen Waffen sollte nach seiner Einschätzung möglichst ausgeschlossen werden.
Die Beispiele zeigen: Politiker dürfen sich nicht von den großen Chancen der künstlichen Intelligenz blenden lassen. Es braucht eine intelligente, passgenaue Regulierung und ein tiefes technisches Verständnis, um die Technologie sicher nutzen zu können.