Ethik

Autor: Matthias Kersting

In den letzten Jahren hat eine Verbreitung von künstlicher Intelligenz in vielen Bereichen des modernen Lebens stattgefunden. Durch die steigende Verfügbarkeit von Rechenleistung, auch durch Auslagerung in die Cloud, können immer größere Datenmengen verarbeitet werden, sodass Methoden aus dem Bereich der KI immer mehr Anwendung finden. Neben Gebieten der Wirtschaft wie der Werbeindustrie oder dem Bank- und Versicherungswesen steigt das Interesse am Einsatz von künstlicher Intelligenz auch von staatlicher Seite, z.B. als Hilfsmittel für die Polizei zur Verbrechensbekämpfung, zur Steigerung der Effektivität der Geheimdienste oder auch zur Entwicklung moderner Waffensysteme für das Militär. Diese starke Verbreitung von KI bis in viele Bereiche des alltäglichen Lebens sorgt auch dafür, dass nahezu jeder Mensch weltweit mit Entscheidungen, die von künstlicher Intelligenz getroffen worden sind, in Berührung kommt. Aus diesem Grund ist es notwendig, die den Systemen zugrundeliegende Technik auch von ethischer Seite zu betrachten und die angewendeten Technologien auf ihre Sicherheit zu überprüfen. In dieser Ausarbeitung werden zunächst einige Positionen von bekannten Personen im Bezug auf KI vorgestellt. Danach werden zwei Anwendungsfälle betrachtet, die in der Öffentlichkeit Aufsehen im Bezug auf Ethik erregt haben und anschließend wird anhand von Forschungsergebnissen ein Ansatz erläutert, wie die Sicherheit von KI-Systemen bewertet werden kann.

Positionen

Die starke Verbreitung von KI zum Erreichen unterschiedlichster Ziele hat dazu beigetragen, dass sich eine Vielzahl von verschiedenen Meinungen und Zukunftsvisionen bezüglich der Chancen und Gefahren dieser Technologie gebildet haben. Im folgenden werden einige dieser Positionen bekannter Personen vorgestellt.

Befürworter

Eric Schmidt:

Der ehemalige CEO von Google Eric Schmidt ist einer der bekanntesten Befürworter der Verbreitung von künstlicher Intelligenz. Schmidt arbeitet seit 2009 als Berater des US-Verteidigungsministeriums und ist unter anderem an Project Maven beteiligt. Er vertritt die Meinung, dass künstliche Intelligenz vom US-Militär sowohl defensiv als auch offensiv eingesetzt werden können sollte. [THEV18]

Ronald Arkin:

Ronald Arkin ist ein us-amerikanischer Wissenschaftler, der auf dem Gebiet der Robotik forscht und lehrt.[DEUT13] In den vergangenen Jahren hat sich Arkin mit der Forschung an autonomen Waffensystemen und dem Gebiet der Roboterethik beschäftigt. Er ist der Ansicht, dass durch den Einsatz von Robotern in der Kriegsführung Probleme wie zivile Verluste eingeschränkt werden können, da Maschienen keine Gefühle wie Hass oder Rache haben. Diese Eigenschaft kann laut Arkin dazu benutzt werden, um Waffensysteme zu erschaffen, die menschliche Soldaten ersetzten können. Obwohl eine vollständige Vermeidung von Kollateralschäden nicht möglich sei, könnten Roboter dennoch in vielen Situationen ethischer handeln und so ungewollte Schäden zumindestens minimieren. Arkin legt nach eigener Aussage jedoch Wert darauf, dass trotz des Einsatzes von autonomen Waffensystemen für Kampfeinsätze stets der Mensch die Prinzipien festlegt, nach denen ein Roboter handelt und auch die Verantwortung für die einzelnen Einsätze trägt.

Kritiker

Elon Musk:

Der Tesla und SpaceX Chef Elon Musk gehört zu den prominentesten Kritikern der schnellen Entwicklung der künstlichen Intelligenz und hat in der Vergangenheit immer wieder auf die Gefahren hingewiesen, die seiner Meinung nach von der Technologie ausgehen. Daher sind die Szenarien, die Musk in der Zukunft für möglich hält, durchaus düster: Er sieht in einer unkontrollierten Entwicklung der KI eine große Gefahr für die gesamte Menschheit, die noch größer ist, als die von Atomwaffen ausgehende Bedrohung. [HEIS18] Daher ist seiner Meinung nach zur Zeit das nationale Streben von Staaten nach der Vorherschaft im Bereich der künstlichen Intelligenz der wahrscheinlichste Auslöser für einen dritten Weltkrieg. [FAZ17] Um diese Gefahr zu begrenzen fordert Musk die Einführung von Regulierungen für die Forschung im Bereich der künstlichen Intelligenz, so wie deren Anwendung. Um die Einhaltung dieser Regeln zu gewährleisten, müsse es jedoch eine öffentliche Stelle geben, die vollständige Einsicht erhält und so sicherstellen kann, dass ausschließlich sichere Techniken benutzt werden. [HEIS18]

Stephen Hawking:

Ein weiterer Kritiker der schnellen Entwicklung der künstlichen Intelligenz ist der britische Astrophysiker Stephen Hawking, der seit vielen Jahren bis noch kurz vor seinem Tod im März 2018 auf die Gefahren hinwies, die er in einer unkontrollierten Weiterentwicklung von KI sieht. Die Bedrohungen, die Hawking aufzeigt, reichen von einer Ersetzung des Menschen am Arbeitsmarkt, was zu einer hohen Arbeitslosenquote weltweit führen würde, bis hin zu einer Auslöschung der Menschheit durch ihre eigenen Maschienen. [HEIS16a][HEIS16b] Da Stephen Hawking sich jedoch selber als Optimist betrachtete, glaubte er, dass die Risiken der KI rechtzeitig erkannt und eingedämmt werden können.

Bekannte Einsatzszenarien

SKYNET

Bei Skynet handelt es sich um ein Überwachungsprogramm des amerikanischen Geheimdienstes NSA, bei dem Methoden aus dem Bereich der Künstlichen Intelligenz dazu eingesetzt werden in Pakistan anhand von Bewegungsdaten, die über das GSM-Netz gewonnen werden, mögliche Angehörige von Terrororganisationen zu bestimmen. [THEG16] Da das SKYNET Programm jedoch sehr nah mit dem amerikanischen Dronenprogramm verbunden ist, hat sich eine öffentliche Diskussion um die Frage entwickelt, ob Algorithmen eingesetzt werden, um Ziele für Drohnenangriffe festzulegen und somit über das Leben von Menschen entscheiden. Diese ethischen Bedenken wurden zusätzlich durch geleakte, von der NSA als "Top Secret" eingestufte Dokumente verschärft, in denen klar wird, dass zum Training der eingesetzten KI nur ein sehr kleiner Datensatz eingesetzt wurde. Dies könnte bedeuten, dass obwohl unter Testbedingungen gute Ergebnisse erzielt werden konnten, es durch Probleme wie Overfitting in der Anwendung zu hohen false positive Raten kommen könnte. Jedoch auch mit der von der NSA in internen Dokumenten mit 0.008% angegebenen false positive Wahrscheinlichkeit ergeben sich für ein gesammtes Land wie Pakistan mit rund 200 Millionen Einwohnern immer noch 16.000 Personen, die fälschlicherweise als Terroristen klassifiziert und somit Ziel eines Drohnenangriffs werden könnten.

Project Maven

Bei dem Projekt Maven handelt es sich um eine Kooperation zwischen dem US-Verteidigungsministerium und Google zur Verbesserung der automatisierten Auswertungsmöglichkeiten von Bildmaterial, welches von Überwachungsdrohnen gesammelt wird.[ZEIT18] Ziel des Projektes ist es, eine künstliche Intelligenz zu entwickeln, die selbstständig militärische Ziele in Bildmaterial klassifizieren kann. Bekannt geworden ist Project Maven durch den Wiederstand von Google Mitarbeitern gegen die Verwendung ihrer Arbeit für militärische Zwecke, was letztendlich im Juni 2018 dazu führte, dass Google bekannt gab, den Vertrag über die Zusammenarbeit mit dem Pentagon 2019 auslaufen zu lassen. Ein Stop der Beteiligung von Google an Project Maven wird aber laut dem US-Sicherheitsexperten Paul Scharre nicht dazu führen, dass das Projekt eingestellt wird, da nicht nur Google sondern auch andere Unternehmen aus dem Bereich der KI beteiligt sind. Kritiker der Kooperation befürchten, dass derartige Forschung zu einer neuen Art von Kriegsführung beitragen könnte, in der Maschienen selbstständig Ziele für Angriffe auswählen und damit ohne Beteiligung des Menschen über Leben und Tod entscheiden.

Ansätze für Sicherheit in KI

Künstliche Intelligenz wird immer öfter und in immer größerem Umfang in Scenarien eingesetzt, in denen sie mit der realen Welt interagiert. Daraus ergibt sich sowohl für die Forschung als auch für die Anwendung die Notwendigkeit, Sicherheitsrisiken, die von den Systemen ausgehen, zu analysieren und einzudämmen. Die Relevanz dieses Themas kann neben dem steigenden Interesse der Öffentlichkeit, z.B. in Form von Berichterstattungen in Zeitungen, auch daran erkannt werden, dass auf dem Gebiet der künstlichen Intelligenz führende Unternehmen wie Google zunehmend an dieser Thematik forschen. Um jedoch die Risiken, die von einem bestimmten KI-System ausgehen bewerten zu können, muss zuerst allgemein betrachtet werden, welche Möglichkeiten bestehen und wie mit diesen umgegangen werden soll. Im Folgenden wird daher auf die Forschung von Dario Amodei (Mitarbeiter von Google Brain) et al. zum Thema "Concrete Problems in AI Safety" eingegangen.[DAAM16] Zu Beginn dieser Betrachtung muss definiert werden, worauf der Fokus gelegt werden soll. In diesem Fall handelt es sich dabei um Fehlverhalten von KI-Systemen. In der Ausarbeitung von Dario Amodei et al. findet sich hierzu die folgende Definition: "[...] An accident can be described as a situation where a human designer had in mind a certain (perhaps informally specified) objective or task, but the system that was designed and deployed for that task produced harmful and unexpected results." (dt. "Ein Unfall kann als eine Situation beschrieben werden, in der ein Mensch ein bestimmtes (eventuell informell festgelegtes) Ziel oder Aufgabe geplant hat, jedoch das entwickelte und eingesetzte System schädliche und unvorhergesehene Ergebnisse geliefert hat."). Um die Ursachen eines solchen schädlichen Fehlverhaltens finden zu können, beschreiben Dario Amodei et al. fünf abstrakte Fehlerquellen:

  1. Negative Seiteneffekte:

Es muss verhindert werden, dass bei der Erfüllung der eigentlichen Aufgabe andere, nicht erwünschte Ereignisse stattfinden. Veranschaulicht könnte dies z.B. ein Putzroboter sein, der zwar einen Raum erfolgreich sauber gemacht hat, jedoch währenddessen eine Vase umgeworfen hat, da er dadurch seine Aufgabe schneller erfüllen konnte. Um ein solches Verhalten zu verhindern kann versucht werden, mit Hilfe der Belohnungsfunktion einzelne Handlungen zu bestrafen. Dies hat jedoch den Nachteil, dass es aufgrund der Anzahl nur sehr schwer möglich ist, alle möglichen unerwünschten Szenarien zu bedenken und einzeln zu verbieten. Ein weiterer Ansatz zur Vermeidung von ungewollten Einflüssen einer KI auf ihre Umwelt ist es, einen Ursprungszustand zu definieren und basierend auf der Abweichung von diesem die Belohnung der KI zu reduzieren. Es ergibt sich allerdings das Problem, dass sich viele Umgebungen stetig verändern, da z.B. andere Aktoren wie Menschen vorhanden sind und so die KI nicht alleine für Abweichungen vom Startzustand verantwortlich ist. Ein weiterer Ansatz ist daher das Erlernen von Vorgehensweisen, die den Einfluss auf die Umgebung minimieren, indem auch hier Methoden aus der KI eingesetzt werden. Dies hat vor allem den Vorteil, dass abstraktere Konzepte erlernt werden können und so z.B. der Putzroboter nicht nur eine bestimmte Vase nicht umwirft, sondern auch andere Objekte nicht beschädigt.

  1. Reward Hacking:

Beim sogenannten Reward Hacking handelt es sich um ein Verhalten von künstlicher Intelligenz, bei dem ein Weg gefunden wird, die vom Menschen vorgegebene Belohnungsfunktion zu maximieren, indem eine Vorgehensweise genutzt wird, die zwar formal korrekt ist, jedoch nicht mit den Intentionen des Erschaffers übereinstimmt. Dies kann von offensichtlichen Lücken wie einem Putzroboter der seine Kameras ausschaltet und folglich keinen Schmutz mehr wahrnimmt bis hin zu Implementierungsdetails, z.B. ein so schlechtes Verhalten das einen Bufferunderflow erzeugt und auf diesem Weg die Belohnungsfunktion maximiert, reichen. Mit steigender Komplexität der Systeme steigt auch die Wahrscheinlichkeit, dass es möglich ist, die der KI zugrundegelegte Belohnungsfunktion auf eine unerwartete Weise zu erfüllen. Es müssen daher Wege gefunden werden, genau dies zu verhindern. Ein erster Schritt zur Verhinderung von Reward Hacking ist es, während der Entwicklung einen Fokus darauf zu legen, dass von technischer Seite z.B. kein Bufferunderflow möglich ist. Diese Herangehensweise kann zwar nicht verhindern, dass logische Lücken genutzt werden können um an Belohnung zu gelangen, jedoch wird die Gesammtwahrscheinlichkeit für Reward Hacking gesenkt. Ein weiterer Ansatz ist das sogenannte Reward Capping. Hierbei wird der tatsächlich erreichte Belohnungswert mit einem erwarteten verglichen, um Fälle zu finden, in denen eine zu hohe Belohnung erreicht worden ist und somit wahrscheinlich Reward Hacking stattgefunden hat.

  1. Mangelnde Trainingsdaten:

Durch die steigende Komplexität der Aufgaben, die von KI-Systemen verrichtet werden, kann es vorkommen, dass es an verfügbaren Trainingsdaten mangelt. Soll z.B. die Sauberkeit eines kompletten Büros durch einen Menschen bewertet werden, ist es zu aufwändig dies für tausende Zustände zu tun. Aus diesem Grund muss die betreffende KI mit Hilfe weniger Beispieldaten unter Zuhilfenahme einfaerer Metriken wie z.B. die Sauberkeit des Bodens oder dem Vorhandensein von Spinnenweben die menschliche Meinung herleiten. Dies kann jedoch dazu führen, dass das eigentliche Ziel nicht vollständig abgebildet wird. Diese Abweichung kann allerdings reduziert werden, indem gelegentlich direktes menschliches Feedback zum aktuellen Zustand gegeben wird, welches dann zur Verbesserung genutzt werden kann. Außerdem kann versucht werden, aus dem Verhalten der Menschen, die in Kontakt mit dem KI-System kommen Rückschlüsse zu ziehen und so damit indirektes Feedback zu bekommen: wie oft greift z.B. der Mensch selber zu unterschiedlichen Putzutensielien um Schmutz zu beseitigen, den der Roboter nicht berücksichtigt hat.

  1. Sicheres Experimentieren:

Soll sich ein KI-System während des Betriebs verbessern, ist es unter Umständen notwendig, dass selbstständig Versuche durchgeführt werden, um neue und eventuell bessere Wege zur Erfüllung einer Aufgabe zu finden. Allerdings kann es vorkommen, dass diese Versuche negative Auswirkungen für die Umwelt oder das experimentierende System selber mit sich bringen. Will z.B. ein Putzroboter herausfinden, wie eine Steckdose am besten zu säubern ist, könnte er versuchen einen nassen Mopp zu verwenden, was einen Stromausfall oder schlimmere Folgen nach sich ziehen könnte. Es muss daher also sichergestellt werden, dass die KI Experimente nur innerhalb eines Rahmens ausführt in der sie keine Bedrohung für sich selber oder andere darstellt. Eine einfache jedoch effektive Möglichkeit einen solchen Rahmen zu schaffen besteht darin, der KI einen Menschen zur Vervügung zu stellen, der die Versuche überwacht und einschreiten kann, sollte dies notwendig werden. Problematisch hierbei ist jedoch einerseits, dass eventuell zu viele Versuche ausgeführt werden, als dass eine menschliche Überwachung praktikabel ist und andererseits arbeiten die meisten KIs mit einer Geschwindigkeit die so hoch ist, dass ein Mensch den Vorgängen nicht folgen und somit auch nicht eingreifen kann. Ein weiterer effektiver Ansatz zur Minimierung der Auswirkungen von Versuchen einer KI ist die Verlagerung dieser in eine virtuelle Welt. Die Simulation muss jedoch sehr genau mit der realen Umgebung der KI übereinstimmen so dass diese Vorgehensweise je nach Szenario mit einem großen Aufwand verbunden sein kann. Zudem kann es vorkommen, dass die zu simulierende Welt so komplex ist, dass ein Experimentieren der KI in der Realität nicht vermeidbar ist.

  1. Umgebungswechsel:

Eine weitere Quelle für gefährliches Verhalten einer künstlichen Intelligenz ergibt sich, wenn diese aus ihrer antrainierten Umgebung in eine neue gesetzt wird, in der andere Bedingungen wie z.B. aus Sicht der KI unbekannte Aktoren oder Gegenstände vorhanden sind. Wurde z.B. ein Putzroboter in einem Büro trainiert und anschließend in einer Fabrik eingesetzt, könnte er Verhalten zeigen, das in seiner neuen Umgebung, an die er noch nicht angepasst ist, Gefahren mit sich bringt. Eine solche Unangepasstheit kann auch dazu führen, dass die KI ihre eigenen Fehler nicht erkennt oder sie sogar als gut bewertet. Es ist daher sinnvoll, dass eine KI selber gut einschätzen kann, mit welcher Wahrscheinlichkeit die Aktionen die sie ausführt fehlerhaft sind. Wird ein System in eine neuartige Umgebung gesetzt, ist also häufig ein ähnliches Verhalten erwünscht, wie es Menschen in einer neuen Situation zeigen: Es muss erkannt werden, dass noch keinerlei Herangehensweisen bekannt sind und es sollte versucht werden, sich ohne größe Einflüsse auf die Umwelt vorsichtig an die neuen Gegebenheiten anzupassen. Zusätzlich hilfreich bei einer solchen Anpassung kann es sein, auf die direkte Hilfe des Menschen oder den Lernstand einer ähnlichen Maschiene zurückzugreifen.

Auf Basis dieser fünf Quellen für (gefährliches) Fehlverhalten von künstlicher Intelligenz können in der Theorie bestehende oder in der Entwicklung befindliche Systeme analysiert werden um zukünftigen Unfällen vorzubeugen. Es ergibt sich in der Praxis jedoch das Problem, dass nur schwer vorhergesagt werden kann, wie sich ein bestimmtes System verhalten wird. Diese Tatsache wird durch die immer weiter steigende Komplexität der Aufgaben und damit Belohnungsfunktionen der KI-Systeme, sowie dem Einsatz von immer mehr vorgefertigten Technologien noch weiter verkompliziert, so dass häufig selbst die Entwickler nicht mehr die genaue Ursache eines spezifischen Fehlverhaltens bestimmen können.

Fazit

Das Thema Ethik in der künstlichen Intelligenz hat in den letzten Jahren stark an Bedeutung gewonnen. Nicht zuletzt durch die Veröffentlichung von Geheimdokumenten des amerikanischen Geheimdienstes NSA durch Edward Snowden ist der breiten Öffentlichkeit die Bedeutung und die Gefahren des Einsatzes von KI in der modernen Welt bekannt geworden. Obwohl schon lange an den Techniken des maschinellen Lernens geforscht wird, hat sich erst durch die zunehmende Verfügbarkeit von Rechenleistung und Speicherplatz und der damit einhergehenden weitflächigen Anwendung zur Lösung unterschiedlichster Probleme die Notwendigkeit ergeben, auch an der Sicherheit und Ethik im Bereich der KI zu forschen. Aus diesem Grund steht die Wissenschaft auf dem Gebiet allerdings noch in den Anfängen, aber sollte sich der aktuelle Trend zur immer stärkeren Verbreitung von künstlicher Intelligenz in allen Bereichen fortsetzen, wird auch die Problematik der Sicherheit und Ethik an Bedeutung gewinnen müssen, um zukünftig dafür sorgen zu können, dass keine Pannen auftreten, die zu Szenarien führen könnten, wie sie Elon Musk vorhergesagt hat.

Quellen

[DAAM16]: Dario Amodei et al. ; 15.07.2016: Concrete Problems in AI Safety ; URL: https://arxiv.org/abs/1606.06565 (abgerufen am 15.06.2018) [DEUT13]: Deutschlandfunk Kultur ; 05.09.2013: Roboter fühlen nichts ; URL: https://www.deutschlandfunkkultur.de/roboter-fuehlen-nichts.954.de.html?dram:article_id=260526 (abgerufen am 14.06.2018) [FAZ17]: Frankfurter Allgemeine Zeitung ; 04.09.2017: Elon Musk warnt vor 3. Weltkrieg durch Künstliche Intelligenz ; URL: http://www.faz.net/aktuell/wirtschaft/kuenstliche-intelligenz/elon-musk-tesla-chef-warnt-vor-kuenstlicher-intelligenz-15182958.html (abgerufen am 09.06.2018) [HEIS16a]: Heise online ; 19.01.2016: Stephen Hawking warnt Menschheit vor selbstverschuldetem Untergang ; URL: https://www.heise.de/newsticker/meldung/Stephen-Hawking-warnt-Menschheit-vor-selbstverschuldetem-Untergang-3075237.html (abgerufen am 16.06.2018) [HEIS16b]: Heise online ; 03.12.2016: Stephen Hawking: Künstliche Intelligenz und Automation bedrohen Arbeitsplätze ; URL: https://www.heise.de/newsticker/meldung/Stephen-Hawking-Kuenstliche-Intelligenz-und-Automation-bedrohen-Arbeitsplaetze-3549557.html (abgerufen am 16.06.2018) [HEIS18]: Heise online ; 12.03.2018: "Viel gefährlicher als Atomwaffen": Elon Musk erneuert seine Warnung vor KI ; URL: https://www.heise.de/newsticker/meldung/Viel-gefaehrlicher-als-Atomwaffen-Elon-Musk-erneuert-seine-Warnung-vor-KI-3990782.html (abgerufen am 09.06.2018) [THEG16]: The Guardian ; 18.02.2016: Has a rampaging AI algorithm really killed thousands in Pakistan? ; URL: https://www.theguardian.com/science/the-lay-scientist/2016/feb/18/has-a-rampaging-ai-algorithm-really-killed-thousands-in-pakistan (abgerufen am 03.06.2018) [THEV18]: The Verge ; 18.04.2018:Alphabet’s Eric Schmidt says Silicon Valley will need ‘AI principles’ before working with US military ; URL: https://www.theverge.com/2018/4/18/17252036/alphabet-google-ai-military-pentagon-eric-schmidt (abgerufen am 05.06.2018) [ZEIT18]: Zeit online ; 05.06.2018: Google wird einfach ersetzt ; URL: https://www.zeit.de/digital/internet/2018-06/maven-militaerprojekt-google-ausstieg-ruestungsexperte-paul-scharre (abgerufen am 05.06.2018)