Mit der Macht kommt die Verantwortung

Wenn du jemals Komikbücher gelesen hast, dann ist dir bewusst, dass der beste Ratschlag aus der Welt von Marvel’s Spiderman (aka Peter Parker) von keinem Geringeren als Onkel Ben kommt. Es hat zwar auch eine reale Person, auch als Winston Churchill bekannt, verbreitet, aber wir bleiben bei Onkel Ben: „…mit großer Macht kommt große Verantwortung.“. So kommt auch mit Künstlicher Intelligenz eine große Verantwortung, denn die Technologie verleiht einer Organisation eine immer größer werdende „Macht“.

 

Wir kennen heute bereits absichtliche und unabsichtliche Missbräuche der Macht künstlicher Intelligenz. Es gibt viele Fälle, in denen Firmen aber auch ganze Ländern Gesichtserkennung nutzen, um Kunden oder Bürger überwachen, ohne deren Einverständnis einzuholen. Außerdem gibt es auch Berichte über lokale Parteien, welche in der UK Algorithmen nutzen, um Entscheidungen bezüglich der Sozialleistungen ihrer Bürger zu treffen, ohne die Vorteile oder die Risiken wirklich zu verstehen.

 

Heute ist uns klar, dass Technologie wesentlich schneller als Vorschriften oder das Gesetz voranschreitet. Das ist nicht überraschend, wenn man den Umfang und Aufwand bedenkt, mit dem neue Gesetze und Vorschriften geschaffen werden müssen, die das Leben der Menschen in fundamentaler Weise beeinflussen werden. Es stellt sich die Frage, ob es etwas gibt, was in der Zwischenzeit getan werden kann, um sicherzustellen, dass der Missbrauch von KI verhindert oder zumindest eingeschränkt wird.

 

Es gibt bereits einige „Ethischen KI-Frameworks“, welche von verschiedenen Institutionen, privaten Unternehmen und Forschungsinstitutionen veröffentlicht wurden. So wurde vor Kurzem zum Beispiel ein Forschungsbericht von Anna John, Marcell Ienca und Effy Vayena des „Health Ethics & Policy Labs“ der ETH Zürich in der Schweiz veröffentlicht, welcher die globale Landschaft der ethischen KI-Frameworks untersucht. Das Forschungsteam fand 84 verschiedene Dokumente mit ethischen Prinzipien und Richtlinien für KI, von welchen der Großteil (88%) nach 2016 veröffentlicht wurden. Interessanterweise gibt es eine breite Zustimmung der Dokumente bezüglich Themen (Transparenz, Recht und Fairness, Verantwortung und Datenschutz) aber eine generelle Abweichung bei der Art der Interpretation (Warum sind diese Prinzipien wichtig? Um welches Problem geht es? Welche Bereiche und Stakeholder sind relevant? Wie sollen diese Prinzipien implementiert werden?). Eine der größten Herausforderungen ist demnach einen Konsens zwischen diesen Dokumenten zu finden.

 

Ein weiterer Ansatz könnte es sein, das Problem an der Basis zu kontrollieren. Hanna Fry, ein Associate Professor in „Mathematics of Cities“ der Universität London, plädiert dafür, dass Entwickler im Thema KI (speziell Mathematiker und Informatiker) ein Äquivalent des ärztlichen Eids unterschreiben. Während Doktoren in fast allen Fällen das ethische Problem in Person vor sich haben, müssen sich Mathematiker und Informatiker mit abstrakten Problemstellungen auseinandersetzen.

 

Dieses Konzept könnte funktionieren – allerdings nicht ohne einige, große Herausforderungen, wie zum Beispiel die Frage des Umfang solche eines Eides. Sollten die Regulationen und Richtlinien für Mathematiker und Informatiker ebenso umfangreich wie für Doktoren sein? Wenn in Zukunft jede Person mit genug Neugier und Verstand (in manchen Situationen also sogar Kinder) einen simplen Algorithmus bauen kann, wird es schwieriger und schwieriger die Linie zwischen der Gruppe zu ziehen, die den Eid leisten muss und allen anderen Stakeholdern. Hanna Fry präsentierte ihre Ideen und Ergebnisse im Rahmen der „Royal Institution Christmas Lectures“.

 

Es ist immer besser über ein Problem dieser Größe zu sprechen, als es nicht zu tun. Je mehr die Missbräuche von künstlicher Intelligenz in das Rahmenlicht gerückt werden, desto höher wird die Nachfrage nach geeigneten Richtlinien – egal ob in Form eines Eides oder internationalen Gesetzen.

Tags: Künstliche Intelligenz