Dokumentation vom Freitag, 23.11.18

Das Stuttgarter Zukunftssymposium 2018 ist vorbei. EineinhalbTage oder auch fast 15 Stunden spannender Inputs und Diskussionen rund um das Thema „Ethik und KI“ liegen nun hinter uns. Vielen Dank an alle, die dabei waren!

Auf dieser Seite stellen wir nach und nach die Dokumentation des Kongresses ein, u.a. Fotos und Präsentationen der Referentinnen und Referenten (wenn erlaubt). 

Vor dem Kongress ist nach dem Kongress – und so machen wir uns spätestens Anfang 2019 wieder daran, das nächste Zukunftssymposium zu organisieren. Wir freuen uns, wenn Sie (wieder) dabei sind!

Damit Sie einen Überblick über die Fülle an Themenkomplexen, die auf unserem diesjährigen Zukunftssymposium behandelt und lebhaft diskutiert worden sind, bekommen, finden Sie nachfolgend eine Dokumentation des Ablaufs.

Warum Ethik und KI?

Was sollten intelligente Maschinen können? Und kann und muss der Mensch, damit er seine Entscheidungsfreiheit sowie Selbstbestimmung absichert, und damit seine Sicherheit gewährleistet bleibt, diese intelligenten Systeme mit einer Ethik ausstatten? Wenn ja, auf der Grundlage welcher Ethikkonzeption? Folgen wir dann den Werten und Prinzipien der Tugendethik, der Diskursethik oder doch lieber denen des Utilitarismus?

Nachdem immer wieder Kritik daran geübt worden ist, dass vor allem Verteidigungsministerien und Konzerne, insbesondere Computerfirmen, sich für Künstliche Intelligenz begeistern, ist der Ruf nach Lösung ethischer Probleme, die sich, neben den Chancen, aus den Risiken der KI ergeben können, immer lauter geworden.

Das Stuttgarter Zukunftssymposium bot auch 2018 wieder eine Fülle an Themen rund um Ethik und KI an und präsentierte sich als Plattform für vielfältige Beiträge einer offenen Debatte. Die Einschätzungen, die von Experten unterschiedlicher Fachgebiete vorgenommen wurden, konnten in vertiefenden Workshops ergänzt und diskutiert werden.

Eröffnung I

Ministerialdirigent Dr. Andreas Schütze begrüßte im Namen des Baden-Württembergischen Innenministeriums alle Teilnehmerinnen und Teilnehmer und unterstrich die Bedeutung der KI-Entwicklung für Deutschland allgemein, aber auch für den Südwesten im Besonderen. 

Eröffnungsrede zum Download

Ministerialdirigent Dr. Andreas Schütze
Dr. Irina Kummert, EVW
"Ethische Regeln können wirtschaftliche Freiheiten erheblich einschränken"

Eröffnung II

Dr. Irina Kummert, Präsidentin des Ethikverbands der Deutschen Wirtschaft, lotete die Grenzen einer passenden Ethik für KI aus. Sie wies darauf hin, dass es nicht trivial sei, eine einheitliche Ethik im Umgang mit KI festzulegen, denn: Der Algorithmus im Rasenmäher sollte nicht unbedingt gleich bewertet werden wie derjenige, der eine Drohne steuert. Dementsprechend könne es kein einheitliches Ethikkonzeption geben. Frau Dr. Kummert gab zu bedenken, dass ethische Einwände und Regeln wirtschaftliche Freiheiten auch in erheblichem Maße einschränken können.

Daraus ergäben sich viele Folgefragen, wie: Beschränkt sich ethisches Verhalten nur auf reine Regelbefolgung? Wäre dies im Bezug auf KI nicht fatal? Außerdem warf die Eröffnungsrednerin die Frage auf, ob eine analoge Führungsfigur im Personalbereich überhaupt noch in eine digitale Welt passe. Die Antworten der Teilnehmer waren spannend und vielfältig und boten einen guten Vorgeschmack auf die anschließenden Vorträge.

Warum Ethik und KI? Eine Einführung.

Dr. Michael Schmidt-Salomon, Philosoph und Schriftsteller sowie Vorstandssprecher und Mitbegründer der Giordano-Bruno-Stiftung, stellte die Menschenwürde in den Mittelpunkt seines Vortrags. Dabei warnte er vor der so genannten „KD-Künstlicher Dummheit“.

Schmidt-Salomon betonte, dass es der kategorische Imperativ jedes intelligenten Algorithmus sein müsse, die Menschenwürde zu achten und zu schützen. Er führte aus, weshalb bspw. aktuelle Vitality-Programme großer Versicherungen zum Zusammenbruch des Solidaritätsprinzips unserer sozialen Gesellschaft führen könnten, wenn dadurch Kranke und Behinderte diskriminiert werden. Das Publikum erfuhr auch, auf welche Weise sowohl staatlicher als auch algorithmischer Paternalismus ein Problem darstellten. Der Referent stellte heraus, dass nur Menschen den Wert von Menschen achten könnten. Schmidt-Salomon plädierte in seinem informativen und anregenden Vortrag schließlich für die Verteidigung vor einer „Vermaschinisierung“ des Menschen.

Dr. Michael Schmidt-Salomon, gbs
"Die Achtung der Menschenwürde muss der kategorische Imperativ jeder KI sein."
Prof. Dr. Dr. Eric Hilgendorf, Uni Würzburg
"Autonomes Fahren macht einen neuen Haftungsrahmen notwendig."

Ethik und Recht: Wo gibt es Regelungsbedarf?

Inwieweit die technische Entwicklung bislang durch Recht begrenzt wird, machte Prof. Dr. Dr. Eric Hilgendorf , Uni Würzburg, in seinem spannenden Vortrag nachvollziehbar. Er zeigte aber auch, wie Recht innovative, technikbasierte Geschäftsmodelle ermöglicht. Verschiedene, anschauliche Fallvarianten warfen Fragen nach strafrechtlicher und ethischer Verantwortung auf. Der Jurist skizzierte Verantwortungsprobleme, z.B. bei komplexen autonomen Entscheidungssystemen. Wer kann und sollte überhaupt nach Unfällen, verschuldet bspw. durch selbstfahrende Autos, zur Verantwortung gezogen werden? Brauchen wir einen neuen Haftungsrahmen? Dürfen selbstfahrende Autos über Leben und Tod entscheiden, wenn z.B.  Kinder plötzlich auf die Fahrbahn springen, beim Ausweichen aber unvermeidbar Erwachsene überfahren würden? Wie soll der Algorithmus, der das selbstfahrende Auto steuert, entscheiden? Und wie können kulturelle Unterschiede in der Bewertung von der Software berücksichtigt werden?

Diskutiert wurden neben solchen Dilemma-Situationen auch Fragen nach der Notwendigkeit internationalen Rechts sowie nach relevanten Akteuren im Bereich der zivilrechtlichen Haftung, wobei die ethische Bewertungen von Rechtsproblemen von Mitdiskutanten aus unterschiedlichsten Perspektiven erfolgte.

Ethik und KI in der Medizin

Prof. Dr. Stefan Heinemann widmete sich in seinem Vortrag ethischen Fragen rund um den Einsatz von KI im medizinischen Bereich. Dabei deckte er ein weites Themenspektrum ab. Gemeinsam mit den Teilnehmern warf er kritische Blicke auf Zukunftsprognosen, entwarf jedoch keine KI-Apokalypse, sondern würdigte auch die Vorteile digitaler Medizin. Einigkeit mit dem Vortragenden herrschte z.B. bei der Bewertung von zeitintensiver Bürokratiearbeit in den Krankenhäusern. Diese Tätigkeit sei nicht wertschöpfend und könne daher ohne ethische Probleme von der KI übernommen werden.

Angesichts des aktuellen Pflegenotstands und des demographischen Wandels stellt sich jedoch auch unweigerlich die Frage nach Pflegerobotern, die den Versorgungsbedarf in der Altenpflege sichern. Was wären hier die moralischen Folgen? Was geschieht dann mit Empathie, mit dem Trost spendenden Hautkontakt zwischen Pflegern und Patienten? Entscheiden dann nur noch Maschinen darüber, wer ein neues Organ verdient hat? Sind medizinische Diagnosen, die mittels KI gestellt werden, nicht viel genauer und daher ethischer? All diesen und weiteren spannenden Fragen wurde sowohl vom Referenten als auch den Teilnehmern in einer lebhaften Diskussion Rechnung getragen.

Prof. Dr. Stefan Heinemann, Universitätsmedizin FOM Hochschule für Ökonomie und Management, Essen
"Können Pflegeroboter den aktuellen Pflegenotstand mildern?"
Prof. Dr. Nicolaj Stache, Hochschule Heilbronn
"Neuronale Netze werden ständig besser, können sich aber auch täuschen."

Wie lernt KI?

Die von so manchen gefürchtet und von anderen gepriesene starke Künstliche Intelligenz ist ein langfristiges Ziel der KI-Forschung. Dabei geht es um Maschinen, die in der Lage sind, jede intellektuelle Aufgabe auszuführen, die auch ein Mensch erledigen kann. Gegenwärtig allerdings gibt es noch keine sozial kompetenten und emotional intelligenten Maschinen, sondern vor allem anwendungsbasierte, schwache KI. Hier liegt den Fokus auf der spezifischen Ausführung, z.B. in den Bereichen Sprachverarbeitung, Klassifikationen oder Text-Erkennung.

Ansätze des tiefen Lernens werden derzeit zunehmend genutzt und ausgeweitet, um größere Fortschritte in der KI zu ermöglichen. Wie sammeln Maschinen Wissen, kategorisieren es und greifen dann darauf zurück? Können sie sich an Fehler „erinnern“ und sie künftig sogar vermeiden? Wenn sie bereits programmiert sind, können sie dann überhaupt mit vollkommen neuen Informationen sinnvoll umgehen?

Prof. Nicolaj Stache ging in seinem Vortrag auf diese und ähnliche Fragen ein und legte als Referent einen Schwerpunkt auf die grundlegende Funktionsweise neuronaler Netze. Dabei handelt es sich um eine Technologie, die an das menschliche Gehirn angelehnt ist. Neuronale Netze kommunizieren über Nachrichten miteinander und arbeiten an den Lösungen, indem sie entsprechende Vorgänge immer wieder durchspielen und dabei erfolgreiche Verbindungen stärken und weniger erfolgreiche verwerfen. Das Netzwerk arbeitet dadurch immer besser. Doch neuronale Netze lassen sich täuschen, was durchaus ethisch relevante Folgen haben kann.

Prof. Stache zeigte, wie Verfahren des maschinellen Lernens in eine Art Blackbox münden, die schlecht zu durchschauen ist. Es kann also nicht immer nachvollzogen werden, auf welcher Grundlage Entscheidungen gefällt werden. Durch diesen Vortrag wurde einmal mehr klar: Der Diskussionsgegenstand Ethik und KI gehört nicht nur in Expertengremien, sondern geht uns alle an.

Digitales Denken: Nichts für Feiglinge

Prof. Dr. Klaus-Jürgen Grün widmete sich in seinem Vortrag „Digitales Denken: Nichts für Feiglinge“ anschließend der Frage, was digitales Denken eigentlich von analogem Denken unterscheidet und welche Fragen ethischer Verantwortung sich aus dieser Unterscheidung ergeben.

Laut Grün führt „analoges Denken“ zu einer starken Vereinfachung der Weltsicht, da dieses davon ausgehe, dass Realität auf der Basis von objektiven Regeln und Gesetzmäßigkeiten vorhersehbar und ableitbar sei.

„Digitales Denken“ dagegen basiere auf konstruktivistischen Denkmodellen. Folglich entstehe Realität letztlich erst durch die (inter-)subjektive Bedeutungszuschreibung. 

Grün betonte, dass im „digitalen Denken“ ethische Verantwortung eben nicht von Regeln abgeleitet werden könne. Stattdessen müsse der einzelne seine Entscheidungen immer wieder neu treffen und ständig kontextbezogen hinterfragen. 

Vortrag zum Download

Prof. Dr. Klaus-Jürgen Grün, EVW
"Digitales Denken verlangt ein Höchstmaß an Verantwortung bei jedem einzelnen."