Künstliche Intelligenz und Moral Wie Maschinen in Zukunft ethisch entscheiden

05.03.2019

Egal ob Smartphones oder selbstfahrende Autos - künstliche Intelligenz wird unser Leben grundlegend verändern. Bald schon muss sie auch moralische Probleme lösen. Wie das gehen soll, erklären zwei Theologen.

„Die Maschine würde das analysieren und versuchen nachzuahmen.“
„Die Maschine würde das analysieren und versuchen nachzuahmen.“ © fotomek – stock.adobe.com

München – Stellen Sie sich vor, Sie sitzen in einem selbstfahrenden Auto und plötzlich laufen zwei Menschen über die Straße – ein junges Kind und eine alte Dame. Das selbstfahrende Auto analysiert die Situation und kommt zu dem Schluss: Ein Unfall ist unvermeidbar, aber wer soll das Opfer sein? Das Kind, die alte Dame? Oder etwa Sie selbst, wenn das Auto nach rechts lenkt und gegen eine Mauer fährt, um Kind und Dame zu retten? Um diese Situation aufzulösen, braucht das Auto eine Vorstellung von Ethik. Es müsste moralisch abwägen und sogar zum Entscheider über Leben und Tod werden.

Aristoteles und die Roboter

Im siebten Stock der geisteswissenschaftlichen Fakultät der Ruhr-Universität-Bochum beschäftigt sich der Mathematiker und Theologe Lukas Brand schon seit geraumer Zeit mit dieser Frage. Er sagt: „Ich bin mir nicht sicher, wie wir Menschen uns im Falle des Autos entschieden hätten, aber ich bin mir sicher, dass wir uns entschieden hätten.“ Und die Basis für unsere Entscheidung wäre unsere Erfahrung gewesen. So ähnlich stellt es sich der 29-Jährige Autor des Buchs „Künstliche Tugend“ auch für die Maschinen vor. „Das Spannende ist, dass wir künstliche Intelligenz nicht einfach nur schlau programmieren, sondern dass diese KI von sich selbst aus lernt.“

Dafür benötigt die Maschine Erfahrungswerte oder Daten. Und die liefert der Mensch. „Die Idee dahinter ist, dass wir den Maschinen Beispiele von tugendhaftem menschlichen Verhalten zeigen“, sagt Brand, „Die Maschine würde das analysieren und versuchen nachzuahmen.“ Doch wer definiert die tugendhaftes Verhalten? Lukas Brand plädiert für den guten alten Aristoteles und seine 2400 Jahre alte „nikomachische Ethik“. „Aristoteles hatte als Basis immer das gute Leben. Und er meinte, dass man immer die Mitte zwischen zwei Übeln finden soll. Als Beispiel: Die Mitte zwischen Wagemut und Furcht wäre Tapferkeit, die Mitte zwischen Geiz und Verschwendung wäre Freigiebigkeit.“ Heißt also: Die Maschine müsste einige Millionen Fälle analysieren – positive wie negative – um dann die goldene Mitte zu finden, so Brands Theorie.

Der Theologe Lukas Brand forscht zu künstlicher Intelligenz.
Der Theologe Lukas Brand forscht zu künstlicher Intelligenz. © SMB/Fleischmann

Maschinen lernen schnell

Dass Maschinen durchaus schnell lernen, zeigt ein Beispiel aus dem Jahr 2016. Die künstliche Intelligenz DeepMind von Google besiegt Weltmeister Lee Sedol in Go. Das ist ein traditionelles asiatisches Brettspiel, das komplizierter als Schach ist, und aufgrund seiner vielen Möglichkeiten als bisher unlösbar für eine künstliche Intelligenz. Drei Stunden nach Beginn der Partie steht der Sieger fest: die Maschine. Führende IT-Experten meinten vor dem Spiel, dass das frühestens zehn Jahren möglich sei. Die rasante Entwicklung zeigt, dass die Entwickler manchmal ihre eigenen KIs unterschätzen. Noch begrenzen sich die meisten KIs zwar auf eine Tätigkeit, wie die Sprachassistenten Alexa und Siri. Sie werden als schwache KIs bezeichnet.

Doch die Zeit der starken KIs zeichnet sich bereits ab. „Starke KIs sind Intelligenzen, die Aufgaben verknüpfen und ein Bewusstsein entwickeln könnten. Sie wären dem menschlichen Gehirn ebenbürtig oder kämen zumindest sehr nahe ran“, sagt Lukas Brand, „Spätestens dann brauchen wir einen Kodex. Wir müssen Maschinen irgendwann vielleicht Rechte und Pflichten zugestehen.“

KIs, maschinelles Lernen, selbstfahrende Autos – das hört sich erstmal nicht nach einer theologischen Domäne an. Für Autor Lukas Brand passt das aber sehr wohl zusammen: „Künstliche Intelligenz wird unser Menschenbild in Frage stellen. Ähnlich wie die Erkenntnis damals, dass die Erde nicht das Zentrum des Universums ist, werden wir jetzt feststellen, dass wir vielleicht nicht mehr lange intellektuell überlegen sind. Wir müssen uns neue Gedanken über das Verhältnis Mensch zu Welt und vielleicht auch Gott zu Welt machen. Da unsere Basis die christlich-jüdischen Werte sind, hat die Theologie hier allerhand zu sagen.“

Die Enquete-Kommission der Bundesregierung

Was Theologe Lukas Brand in der Theorie durchdenkt, muss Theologe Alexander Filipovic in Formen pressen. Der Professor für Medienethik der Hochschule für Philosophie der Jesuiten in München ist einer der 19 Sachverständigen der Enquete-Kommission des Deutschen Bundestags Ethik bei künstlicher Intelligenz. Er muss gemeinsam mit Kollegen und Abgeordneten bis 2020 ethische Richtlinien für Deutschland vorstellen. „Die neuen Technologien werden unser Leben in spätestens 15 Jahren radikal verändern. Es ist wichtig, sich rechtzeitig drüber Gedanken zu machen“, sagt Filipovic.

Professor Alexander Filipovic ist teil der Enquete-Kommission.
Professor Alexander Filipovic ist teil der Enquete-Kommission. © privat

Zentraler Punkt ist dabei, wie der Mensch zentraler Akteur bleiben kann, also beeinflusst, statt sich von der Maschine beeinflussen zu lassen. Das ist gar nicht so einfach. „Maschinen können viel besser als wir aus Fotos Hautkrebsdiagnosen machen. Die Frage wäre: Vertrauen wir der Maschine? Wir hätten allen Grund dazu“, sagt Filipovic, „Aber was passiert jetzt mit dem Menschen, wenn er von der Maschine überflügelt wird?“ Drastischer zeigt sich die Gefahr beim Personal-Bot von Amazon. Die künstliche Intelligenz sollte Bewerbungen vorsortieren. Das Ergebnis: Frauen wurden systematisch benachteiligt. Das lag daran, dass der Bot die Firmengeschichte Amazons analysierte und zu dem Schluss kam, dass Männer bisher mehr zum wirtschaftlichen Erfolg der Fima beitrugen. Also dachte die Maschine, dass Frauen weniger effizient sind. Maschinen lernen nur mit den Daten, mit denen Sie gefüttert werden. Oft übernehmen sie unsere Vorurteile und Stereotypen, ohne dass die Menschen das überhaupt merken. Amazon stellte die KI 2017 ab, nachdem mehrere Korrekturversuche fehlschlugen.

Das Problem der Daten

Damit die Maschinen lernen und erst recht ethisch handeln können, benötigen sie unsere Daten – und sie brauchen viele davon. Autoritäre Regime wie China zwingen die Menschen dazu sie preiszugeben, in den USA sind die Datenschutzrichtlinien extrem konzernfreundlich. Die Experten und Abgeordneten der Kommission müssen einen Weg finden, wie Deutschland und Europa den technischen Anschluss nicht verpassen, ohne den Datenschutz aufzuweichen. „Ich denke, dass das sogar zu einer Art Standortvorteil für Europa werden könnte“, sagt Alexander Filipovic, „Denn man kauft eher Produkte, dessen Herstellern man vertraut. So ein Siegel wie KI ‚made in Germany‘ oder ein europäisches Siegel für vertrauenswürdige Intelligenz, könnte Alleinstellungsmerkmal sein.“

Bis es allerdings soweit ist, bleibt noch ein ganzes Stück an Arbeit. Denn Konflikte bleiben auch in der Kommission kaum aus. „Wir sind zwar konsensorientiert, aber natürlich kommen die verschiedenen Vertreter aus allen Parteien mit einer unterschiedlichen ideologischen Vorbelastung. Aber ich denke, dass das gut und richtig ist, denn über Moral müssen wir streifen“, sagt Professor Filipovic. Trotz dessen ist er sich sicher, am Ende der Kommissionszeit im Jahr 2020 Richtlinien vorlegen zu können, die die Politik und Gesellschaft beeinflussen können.

Wandel gestalten

„Wir werden den Wandel nicht aufhalten und die Zeit nicht zurückdrehen. Das ist auch gar nicht schlecht. Wir müssen den Wandel nur gestalten können“, sagt der Medienethiker. Die Ängste der Menschen vor dem Wandel kann Filipovic nachvollziehen, wenn gleich sie immer weniger werden. Genauso wie ein altes Nokia-Handy als Relikt der Steinzeit erscheint, wird ein brandneues iPhone in 15 Jahren wohl belächelt werden. „Ein technologischer Wandel hat schon immer Ängste ausgelöst und danach war wieder alles gut“, sagt Filipovic, „aber der Umbruch ist nie einfach.“

Zurück zum Anfang: Wie hätte sich das Auto nun entscheiden sollen? Eine Studie des MIT in Boston ist dieser Frage nachgegangen und hat Millionen Menschen weltweit befragt. Die Bilanz: Es gibt keine Bilanz. Es gibt gewaltige regionale Unterschiede zwischen den Kulturen – in Südamerika entscheiden sich mehr Menschen dazu, sich selbst zu opfern als in Deutschland. In China verschonen mehr Menschen die alte Dame aus Respekt vor dem Alter. Fängt man dann noch an, den Personen Eigenschaften wie „reich“, „dünn“, „weiblich“, „alt“ zu geben, wird das Ergebnis noch diffuser. Das Experiment zeigt also: Wir sollten uns ethische Gedanken um die Technologie machen, die unser Leben bald signifikant ändern wird. Und wir stehen noch ganz am Anfang.

Der Autor
Lukas Fleischman
Radio-Redaktion
l.fleischmann@st-michaelsbund.de


Das könnte Sie auch interessieren

München am Mittag Moral in der künstlichen Intelligenz

Egal ob Smartphones oder selbstfahrende Autos - künstliche Intelligenz wird unser Leben grundlegend verändern. Bald schon muss sie auch moralische Probleme lösen. Wie das gehen soll, erklären zwei...

08.03.2019

Auf gehts zu neuen Wegen: Adelheid Widmann von der Seniorenseelsorge hatte die Idee eine Rikscha für die Pfarreien anzuschaffen.
© Kiderle

Neue Ideen für die Seelsorge Pfarreien bewegen

Mit einer ungewöhnlichen und offenen Initiative lädt die Senioren-Pastoral im Erzbistum München und Freising Pfarreien ein, buchstäblich Wege ins Freie zu finden. Ein zukunftsweisendes Beispiel.

04.03.2019

Fluch oder Segen? Es ist fraglich, ob der Einsatz von Robotern in der Pflege mit der Menschenwürde vereinbar ist.
© imago/Westend61

Weihbischof Anton Losinger im Interview Sind Roboter bessere Pfleger?

Menschen werden immer älter, Pflegekräfte immer rarer, die Technik immer ausgefeilter. Vierler­orts laufen Pilotprojekte mit sogenannten „Pflege-Robotern“. Doch darf man die Alten- und Krankenpflege...

01.03.2019

© imago/Friedrich Stark

#Jugendraum Digitalisierung in der Kirche

Das große Thema unserer Tage heißt „Digitalisierung“. Dank Smartphone und Tablet sind wir ständig online und bekommen jederzeit News, Infos und Bilder. Egal ob Facebook, Instagram, Snapchat oder...

15.02.2019

Roboter sollen künftig pflegebedürftige Menschen im Alltag unterstützen.
© SMB/Schöne

Digitale Diener Caritas und Techniker entwickeln Roboter für die Pflege

EDAN und Justin – so heißen die zwei Assistenzroboter, die künftig pflegebedürftige Menschen im Alltag unterstützen werden. In Garmisch-Partenkirchen wurden sie nun vorgestellt.

08.05.2018

Jetzt neu für Rosenheim: Der mk-online Newsletter

Wir informieren Sie über Aktuelles, Gottesdienste, besondere Veranstaltungen und Neues aus Religion und Gesellschaft.
Jetzt abonnieren