„Es braucht Regeln“
Eine Expertengruppe warnt vor den Gefahren von KIs und vergleicht sie mit Pandemien und Atomwaffen. Was der Informatik-Professor an der Uni Bozen, Diego Calvanese, dazu sagt.
Tageszeitung: Herr Calvanese, internationale Experten haben vor der Gefahr von Künstlichen Intelligenzen gewarnt: diese seien gleich gefährlich wie Atomwaffen oder Pandemien. Was ist daran dran?
Diego Calvanese: Im Moment ist es noch nicht so, dass eine unmittelbare Gefahr in dieser Hinsicht besteht. Niemand weiß allerdings genau, in welche Richtung KI-basierte Systeme weiterentickelt werden, und welche neuen Fähigkeiten sie dadurch erlangen. Im Moment erstellt ChatGPT nur Texte, im Grunde ist es harmlos. Diese Systeme werden aber jetzt schon erweitert, sodass sie in der Lage sind, neue Quellen im Web abzufragen und andere Arten von Informationen interaktiv und dynamisch zu sammeln. Ein Text bleibt harmlos, aber Buchstaben sind nichts anderes als Symbole. Im Prinzip ist jede Art von Kommunikation, die wir Menschen haben, symbolbasiert. Wenn eine KI nun lernt, Symbole auszutauschen und sie mit anderen Computersystemen verbunden wird, ist sie im Prinzip dazu im Stande, diese Systeme zu steuern. Im Moment haben KIs keinen eigenen Willen, aber sie werden antrainiert, um bestimmte Ziele zu erreichen. Wenn sie in andere Netzwerke eingebunden werden um den Menschen das Leben zu vereinfachen und die Automation zu steigern, und ihnen die Möglichkeit gegeben wird Befehle auszuführen, könnten sie auch zielgerichtet handeln. KIs sind aber in ihrer internen Funktionsweise nicht genau überschaubar. Niemand kann also erklären, warum sie gerade einen bestimmten Text produzieren, was soviel heißt wie einen Befehl erteilen, und nicht einen anderen. Also wird es schwierig vorherzusagen, wie die Ziele, die einer KI antrainiert wurden, dann konkret umgesetzt werden. Noch können wir Maschinen ein- und ausschalten, aber wir gehen in Richtung Automatisierung und überlassen die Kontrolle immer mehr den Computersystemen. Wenn ausgereifte KI-Systeme nun aber die Kontrolle übernehmen und wir nicht wissen, was sie genau machen, dann besteht eine Gefahr. Noch ist diese Gefahr nicht da, die Entwicklung geht aber schnell voran. Man sollte daher Regeln für diese KI-Systeme aufstellen und auch regeln, anhand welcher Daten diese trainiert werden dürfen. Im Moment gibt es diese nicht und das ist auch der Grund, weshalb der Aufruf so alarmistisch ist. Man muss den Politikern bewusst machen, dass man bereits jetzt über Regeln nachdenken sollte. Es gibt in Europa zwar Initiativen, diese gehen aber nicht über den Datenzugriff hinaus.
Was wäre ein konkretes Beispiel für die Gefahr? Könnte es irgendwann so weit kommen, dass – wie in Hollywood-Filmen – Maschinen die Kontrolle über die Menschheit erlangen?
Es geht durchaus in diese Richtung. Unsere Systeme, egal ob es die Stromversorgung, das Internet, Krankenhäuser oder die Waffen-Kontrolle ist, funktionieren nur dank Computer. Wenn die KI-Systeme anfangen würden, Programme zu erstellen oder Codes zu schreiben, die andere Systeme steuern, ist das also tatsächlich denkbar. Man gibt dadurch viel Macht ab, weiß aber zeitgleich nicht, wie die Systeme trainiert werden und wie sie sich dann verhalten. Um beim Beispiel Waffen zu bleiben, das wäre dann wie bei Terminator. Auch dort hat ein Computersystem die Kontrolle über alle Waffen übernommen. Das ist der Grund, weshalb man aktuell von einer Bedrohung spricht. Konkret ist diese Gefahr momentan aber nicht da.
Wie groß ist die Gefahr, dass wir durch KI unsere Jobs verlieren?
Tatsächlich werden KI-Systeme in verschiedenen Branchen eingesetzt und das könnte auch dazu führen, dass sie Arbeit von Menschen übernehmen. Das ist eine konkrete Gefahr. Es gibt Studien, die sagen, dass bereits jetzt ein Drittel aller menschlichen Arbeiten von Computersystemen ausgeführt werden können. Wenn man also auf eine Kostenersparnis geht, könnte das zu einer Abschaffung von Arbeitsplätzen führen. Auch das muss also reguliert werden. Aktuell wird zu wenig gemacht.
Der Apell der Expertengruppe ist besonders, weil unter anderem die CEOs von OpenAI, dem Hersteller von ChatGPT, oder von DeepMind, der KI Abteilung von Google, mitmachen und ihn unterzeichnet haben. Handelt es sich dabei um ein Marketing-Gag?
Das glaube ich nicht, ich glaube, es geht hier wirklich darum, die Aufmerksamkeit auf die fehlenden Regeln zu lenken. Man möchte ein Bewusstsein schaffen und Druck auf die Politik ausüben.
Wie könnten nun Regeln aussehen? Macht es Sinn, auf lokaler Ebene Maßnahmen zu ergreifen?
Nein, das ist etwas, das man staatenweise und sogar staatenübergreifend regeln muss, weil KI-Systeme global eingesetzt werden. Es ist ähnlich wie die Regelung der Atomwaffen, die auf internationaler Ebene geschehen muss. Einzelne Regierungen können dabei dennoch etwas bewegen. Ein Beispiel dafür ist die Anfrage des Garanten für Privacy, die zu einer temporären Unterbrechung der Verfügbarkeit von ChatGPT in Italien geführt hat. Grund hierfür war der Datenschutz. Das hat aber OpenAI dazu gebracht, seine Datenschutzbestimmungen den strikteren Regeln in Europa anzupassen. Die Regelung muss aber weitgreifender sein. Man muss darüber sprechen, welche Kontrolle man KI-Systemen überlässt und wo man sie einsetzt. Ein treffendes Beispiel sind autonome Waffen. Es werden bereits jetzt Drohnen gebaut, die entscheiden können, ob sie feuern oder nicht. Wenn es um das Leben und Tod von Menschen geht, muss man sich aber fragen, ob man das zulassen möchte. Noch haben die KI-Systeme keine eigenen Ziele, aber es ist nicht klar, in welche Richtung sie sich entwickeln. Man sollte also potentielle Probleme vorbeugen, und bereits jetzt Regelungen und Gesetze schaffen, die Gefahren auch für die Zukunft erst gar nicht entstehen lassen. Dies erfordert Willen und Entschlossenheit von Seiten der politischen Entscheidungsträger und viel Arbeit von Seiten der Experten.
Interview: Markus Rufin
Ähnliche Artikel
Kommentare (3)
Lesen Sie die Netiquette und die Nutzerbedingungen
Kommentar abgeben
Du musst dich EINLOGGEN um einen Kommentar abzugeben.
andreas
Wann wurde das Interview geführt?
ChatCpt4 nutzt im Gegensatz zum 3.5 das Internet und kann sehr wohl Programme schreiben und nicht nur Texte.
Beim Stand der Entwicklung ist die Reihenfolge USA, Europa, China.
China deshalb an letzter Stelle, da dort falsche Antworten zum Schließen des Unternehmens führen können, in den USA und Europa ist es egal, was für Unsinn KI produziert, da niemand haftbar gemacht wird, was wohl ein Fehler ist.
dn
In der digitalen Welt vergleichbar mit der Klimakrise. „Die letzte Erfindung des Menschen werden superintelligente Maschinen sein“.
cosifantutte
KI ist darauf ausgerichtet, Problemlösungen aufgrund angelernter Information zu optimieren. Entwickelt wurde das Verfahren bereits in den 50ern, die Rechnerleistung ermöglicht den erweiterten Einsatz aber erst jetzt. In der Medizin bei der Auswertung von Scans jeder Art erweist diese bereits großen Dienste.
Die gezielte Nutzung von KI z.B. bei der Neugestaltung der Südtiroler Raumordnung wäre zu begrüßen, denn besser als das was jetzt besteht kann, es eine angelernte Maschine allemal. Die Rechtsprechung dazu ließe sich im Anschluss auch parteiunabhängig automatisieren. Man muss die KI nur richtig anlernen was z.B. Nachhaltigkeit wirklich bedeutet, oder einseitigen Lobbyismus minimieren, und diese auswerten lassen. Bestimmte Aktionen würden sich dann als überflüssig, rechtswidrig oder als nicht zukunftsweisend erübrigen.
Eine weitere sinnvolle Anwendung wäre die KI gestützte Zusammenlegung der Gemeinden. Auch die dümmste KI käme nämlich zum Schluss, dass im Jahre 2023 116 Gemeinden für eine halbe Million Einwohner in jeder Hinsicht suboptimal sind. Sie würde den besten Zusammenschluss der Verwaltungseinheiten suggerieren.