Wie kann künstliche Intelligenz ethisch gestaltet werden?
„I believe this artificial intelligence is going to be our partner. If we misuse it, it will be a risk. If we use it right, it can be our partner.“ – Masayoshi Son
„Künstliche Intelligenz“ (KI) rückt durch technologische Innovationen wie autonomes Fahren, Krebserkennung oder intelligente Supermärkte immer stärker in unseren Alltag vor. Die möglichen Anwendungsgebiete von künstlicher Intelligenz scheinen quasi grenzenlos zu sein. Dieses Phänomen führte in jüngster Zeit zu Debatten und Diskussionen darüber, wann der Einsatz von KI ethisch vertretbar ist und ab welchem Zeitpunkt ethische Grenzen überschritten werden.“
Die Definition von künstliche Intelligenz und Ethik
Zunächst werden die Begriffe „künstliche Intelligenz“ und „Ethik“ definiert, bevor sie in einen Kontext gebracht werden.
„Künstliche Intelligenz (KI) ist ein Teilgebiet der Informatik, das sich damit beschäftigt, Maschinen mit Fähigkeiten auszustatten, die intelligentem (menschlichem) Verhalten ähneln. Dies kann man mit vorprogrammierten Regeln oder durch maschinelles Lernen erreichen. Starke bzw. generelle KI bezeichnet Maschinen, die generalisierende Intelligenz- und Transferleistungen erbringen können und somit nicht nur auf sehr begrenzte, vordefinierte Aufgabenfelder beschränkt sind.“ [1]
Ethik ist die Lehre, die das sittliche Verhalten des Menschen zum Gegenstand hat. Jede menschliche Gesellschaft orientiert sich an Bedingungen, Wertvorstellungen und Grundsätzen. Diese Normen sind Ausdruck eines öffentlichen anerkannten Entwurfs von Menschen und Umwelt im Ganzen. Das Ziel der Ethik ist das rechte menschliche Handeln nach diesen festgelegten und gültigen Prinzipien. [2]
Bei genauerer Betrachtung der beiden Definitionen, könnte man künstliche Intelligenz demnach ethisch gestalten, indem man ethische Richtlinien in die Technik und das Verhalten ihrer Algorithmen implementiert. Hinzu kommt die Anforderung, dass die von KI getroffenen Entscheidungen für Menschen transparent und erklärbar sein sollten. Dies dient dazu, die Akzeptanz und das Verständnis für die KI zu erhöhen.
Die personalisierte Medizin als Beispiel für künstliche Intellgenz und Ethik

Ein Beispiel für KI und Ethik ist die personalisierte Medizin, denn dort stehen diese Anforderungen besonders im Fokus. Moderne Lernalgorithmen liefern oft sehr gute Vorhersagen, jedoch ist nicht erklärbar, wie sie zu diesen Vorhersagen kommen. Diese Intransparenz von für Menschen wichtigen Entscheidungen ist für die Gesellschaft jedoch oftmals problematisch.
Das EU General Data Protection Regulation (GDPR) verlangt deshalb, dass Menschen betreffende automatisierte Entscheidungen erklärbar sein müssen. Dies stellt den Einsatz von KI vor ethische Herausforderungen. Derzeit sind erklärbare Lernverhalten nämlich nicht vorhanden. Im Bereich der Medizin besteht deshalb eine starke Diskussion darüber, ob es ethisch vertretbar ist, KI in der Medizin nicht zu nutzen, obwohl die Diagnosen besser sind als die eines menschlichen Experten.
Die sechs wichtigen Bereiche für künstliche Intelligenz und Ethik in einem Kontext
Die CNIL (Comission Nationale Informatique & Libertés) hat sechs weitere große Bereiche identifiziert, über die nachgedacht werden muss, wenn das Thema KI und Ethik in einen Kontext gebracht werden müssen.
Autonome Maschinen: Sollen Menschen ihr Vertrauen an Maschinen abgeben, wenn es um Entscheidungen des freien Willens geht und dadurch potenzielle Bedrohungen entstehen?
Tendenzen, Diskriminierung und Ausschluss: Könnten einprogrammierte Tendenzen bezüglich bestimmter Personengruppen zu einer unbeabsichtigten Diskriminierung dieser Personengruppen führen?
Algorithmisches Profilieren von Menschen: Führt eine Personalisierung zu einer Bedrohung für gesellschaftliche Werte wie politischen und kulturellen Pluralismus oder das gemeinschaftliche Tragen von Risiken?
Verhinderung der Ansammlung riesiger Datenmengen für maschinelles Lernen: Welche Datenschutzgesetze müssen bei der Ansammlung von Datenmengen geschaffen werden, um personenbezogene Daten zu schützen?
Herausforderungen bei der Auswahl von Daten in Qualität, Quantität und Relevanz: Entscheidungen durch KI sollten kritisch betrachtet werden, da diese durch die Korrektheit der Daten beeinflusst werden kann.[3]
Menschliche Identität im KI-Zeitalter: Wie sollen wir mit humanoiden Robotern umgehen, die höchstwahrscheinlich emotionale Reaktionen bei Menschen auslösen werden?
Emotionale Reaktionen bei Menschen im Bereich „Menschliche Identität im KI-Zeitalter“

Besonders spannend ist deshalb eine Betrachtung des „most advanced human-like robot Sophia“ von Hanson Robotics, unter dem genannten Aspekt emotionaler Reaktionen bei Menschen im Bereich „Menschliche Identität im KI-Zeitalter“ (GDPR).
Im zweiteiligen Interview zwischen Sophia und einem ihrer Schöpfer geht es unter anderem um Sophia´s Aussage „I will destroy humans“. Diesen Satz äußerte Sophia in einem Interview von CNBC und sorgte damit nicht nur für großes Aufsehen, sondern löste bei einigen Menschen Unbehagen aus. Im zweiten Teil des Hanson Robotics Interview wird die Aussage des human-like Roboters als ein „joke“ (Witz) legitimiert. Unter Berücksichtigung der menschlichen Wahrnehmung und Reaktion auf derart brisante Aussagen eines hochentwickelten Roboters wie Sophie bleibt es fragwürdig, ob eine Vermenschlichung dieser Superintelligenz so weit gehen sollte, dass eine Unterscheidung von Ironie und Sachlichkeit kaum noch möglich ist. [4]
Aufgrund der Vielfalt an möglichen Chancen für die Anwendung von KI kann man die Fragestellung, wie man künstliche Intelligenz ethisch gestalten kann, demnach nicht pauschal beantworten. Die Entwicklung von Lösungsansätzen sollte anwendungsspezifisch und unter Berücksichtigung von Fairness, Vertraulichkeit und Transparenz sein, sodass sie ethische Richtlinien erfüllen kann.
Quellen:
[2] Vgl. Ethik, Ethos, Ethnos : Aspekte und Probleme interkultureller Ethik; [Festschrift für Hermann Amborn] / Annette Hornbacher (Hg.). – Bielefeld, 2006, Seite 13.
4] Vgl. Hanson Robotics Interview Episode 1: https://www.youtube.com/watch?v=LguXfHKsa0c
Hanson Robotics Interview Episode 2: https://www.youtube.com/watch?v=zbFJOlR1h4E
CNBC-Interview: https://www.youtube.com/watch?v=W0_DPi0PmF0