Prof. Dr. Karsten Weber, OTH Regensburg; (Foto: Michael M. Roth, MicialMedia),
"Maschinen handeln weder ethisch noch moralisch."

„Wer bewegt im Maschinenraum die Hebel? Über Agenten und Akteure.“

Auch am zweiten Tag des Stuttgarter Zukunftssymposiums wurde dem Publikum viel Informatives, Aufschlussreiches und Anregendes geboten. Den ersten Vortrag im Plenum hielt Prof. Dr. Karsten Weber, OTH Regensburg. 

Maschinen handeln weder ethisch noch moralisch, da dies Begründungsfähigkeit voraussetze, stellte der erste Referent an diesem Morgen klar. Sie seien im Gegensatz zu Menschen völlig fremdbestimmt. „Über Tod und Leben sollten Menschen entscheiden“, dies sei die moralische Bürde und Pflicht der Menschen“, so der Geisteswissenschaftler. Der Mensch habe auch das Privileg inne, sich gegen die Befolgung von Regeln zu entscheiden. Sollten Maschinen zu Akteuren erhoben werden, statt bloße Agenten zu bleiben?, fragte er das Publikum. Überzeugen sie nicht durch bestechende Logik und vielleicht eines Tages auch durch die Fähigkeit ihre Intelligenz permanent selbst zu verbessern? Sind sie, indem sie abseits allzu „menschlicher“ Kategorien denken, nicht ohnehin viel präziser, langlebiger, effizienter und vielleicht sogar, um doch wieder menschliche Denkkategorien zu bedienen, gerechter, z.B. beim Verrichten der Arbeit eines Personalers?

Mit seinem Vortrag traf Prof. Weber trotz der frühen Stunde auf großes Interesse im Publikum. Vor allem die Frage, ob Menschen mit all ihren Unzulänglichkeiten überhaupt die besseren Akteure sein können und wann man überhaupt von Akteuren sprechen kann, zeigte grundsätzliche Unterschiede bei der Herangehensweise zwischen Geistes- und Naturwissenschaftlern auf – aber auch, dass diese Unterschiede durchaus bereichernd für den Diskurs sein können.

Link zum Vortrag

Verstehende KI

Prof. Dr. Martin Butz, Uni Tübingen, widmete sich in seinem Vortrag Verstehender Künstlicher Intelligenz. Er erläuterte, welches Potential das so genannte „Maschinelle Lernen“  birgt und wodurch Bedrohungen entstehen könnten. 

In den letzten Jahren wurden 90 % aller verfügbaren Daten gesammelt. Auch die Rechengeschwindigkeit wuchs im gleichen Zeitraum exponentiell. So nimmt es nicht wunder, dass Forscher mittels tiefer neuronaler Netze Modellbildungen von Informationsverarbeitung erschaffen, um Maschinelles Lernen voranzutreiben. In Trainingsphasen „lernt“ das Netz anhand einer immensen Zahl an Trainingsdaten, wobei das „Gedächtnis“ in den Parametern enthalten ist, die der Entwickler gewichtet. Mittels dieser Gewichtungen werden mathematische Modelle erstellt, deren Einflussgrößen hinsichtlich ihrer Zuverlässigkeit oder Relevanz unterschiedlich bewertet werden. Diese Bewertung führt dazu, dass bestimmte Elemente größeren Einfluss auf ein Ergebnis haben.

Butz zeichnete nach, wie neuronale Netze mit Image-Net trainiert werden: Welche Entitäten werden gezeigt und erkannt? Probleme können bei der Standardisierung solcher Strukturen entstehen, wenn Experten das Input-Output manipulieren.

Wie konnte es bspw. dazu kommen, dass Googles Photo-App dunkelhäutige Menschen nicht als solche erkannte und sie stattdessen unter dem Schlagwort „Gorillas“ anzeigte? Eine fehlerhafte Analyse von Beleuchtung und Hauttönen konnte zu falschen, als rassistisch empfundenen Zuordnungen führen. Auf unterhaltsame Weise zeigte Butzman, wie schon ein Bildrauschen, das auf ein normales Bild gesetzt wurde, zu absurden Zuordnungen führte.

Auch die Überlegenheit und Komplexität der MI wurden anschaulich dargestellt. MI basiere auf dem Prinzip der Antizipation bis hin zum Intentionalen und Sozialen. Dadurch leite sich eine besondere Verantwortung und Verpflichtung ab, so der Referent. Dem Publikum wurde vermittelt: Funktionsapproximationen haben weder mit menschlicher Intelligenz zu tun, noch kennzeichnen sie agentive Systeme. Man warte noch auf revolutionäre Errungenschaften im Bereich Deep Learning. Wie lange noch? Und braucht man dann neue gesetzliche Regelungen? Wichtige Fragen, die uns alle angehen.

Link zum Vortrag

Prof. Dr. Martin Butz, Uni Tübingen
"Das Potential aktueller KI ist enorm, aber der Weg zur Entwicklung von wirklich intelligenten, verstehenden künstlichen Systemen ist noch relativ weit."
Prof. Dr. Dirk Lewandowski, HAW Hamburg
"Wir brauchen einen offenen Web-Index, um der Verzerrung von Suchanfragen zu begegnen."

KI in Suchmaschinen

Prof. Dr. Dirk Lewandowski, HAW Hamburg, machte das Publikum nachdenklich, als er zeigte, wie schwer es für junge Frauen sei, nach Role Models zu suchen, wenn sie Google als Suchmaschine nutzen und weibliche Berufsbezeichnungen eingeben. Wie kommt es, dass, gibt man den Suchbegriff „Sportlerinnen“ ein, sexistische Ergebnisse wie „heiße Sportlerinnen“ zuerst angezeigt werden?

Warum stehen bei Verschwörungstheorien aller Art bestätigende Theorien an erster Stelle der Suchergebnisse? Schließlich würden Rankings bei Ergebnissen häufig als Rechtfertigung für die Richtigkeit von Theorien ausgegeben, gab der Referent zu bedenken. So auch bei Krankheitssymptomen, nach denen gerne gegoogelt würde. Web-Inhalte und Fachportale von Medizinern zeigten beim Symptom „Kopfschmerzen“ eine niedrige Wahrscheinlichkeit an, an einem Gehirntumor zu leiden. Dagegen suggeriert die Trefferquote bei Suchmaschinen eine exorbitant höhere Wahrscheinlichkeit. 

Wie kommt es zu solch einer verzerrten Wirklichkeit? Sollte Google mehr darüber aufklären müssen, wie Suchergebnisse zustande kommen? Müsste nicht ein öffentlicher Datenbestand als Infrastruktur aufgebaut und angeboten werden, um mit dem mächtigen Konzern in Konkurrenz zu treten? Sollte man Google zwingen, seinen Index für Fremdanbieter zu öffnen? Fragen, die zum Weiterdenken und Diskutieren anregten.

Link zum Vortrag

Design by ethics? Der letzte packende Vortrag vor einer wohlverdienten Stärkung am Mittag wurde von Prof. Dr. Jürgen Angele, adesso, gehalten. Durch digitales Design und die Art und Weise digitaler Interaktion mit Kunden soll Konsumverhalten beeinflusst werden. Braucht die Design-Industrie bei so viel Macht einen ethischen Kodex? Wer bestimmt ihn? Welche ethischen Standards sollten gelten?

 

 

Prof. Dr. Jürgen Angele, adesso
Guido Wagner, SAP
"SAP ist es wichtig, dass AI zum Wohle des Menschen (co-) existiert."

Implementierung Digitaler Ethik

Auch der erfolgreiche deutsche Softwarehersteller SAP beschäftigt sich mit der Frage, wie wir eine Zukunft sicherstellen können, in der AI zum Wohle des Menschen (co-) existiert.

„Hope we´re not just the biological boot loader for digital superintelligence.  Unfortunately, that is increasingly probable.“ (Elon Musk)

Viele warnen vor Gefahren für den Menschen durch KI und auch  Guido Wagner, SAP, beschäftigt dieses umfangreiche Thema tagtäglich. Er zeigte dem Publikum, wie ein gangbarer Weg zur Implementierung Digitaler Ethik in Software aussehen könnte. Außerdem stellte er vor, welchen Beitrag SAP in Hinblick auf eine verantwortungsvolle Digitalisierung leistet –  die SAP Richtlinien für KI, definiert durch den SAP KI Ethikrat. Guido Wagner machte anhand eines Beispiels die Einkaufs-Prinzipien des Unternehmens nachvollziehbar und führte an weiteren Fallbeispielen die Umsetzung ethisch korrekten Verhaltens vor. Nicht unerwähnt blieben aber auch die technologischen Grenzen der Implementierung Digitaler Ethik.

Link zum Vortrag

Oliver Gutmann, DSV
"KI hilft den Kundenbedarf schnell und passgenau zu ermitteln."

KI bei Banken und Sparkassen

Werden Bankberater bald alle durch KI ersetzt? Inwieweit wird Kundenverhalten schon heute durch einen Algorithmus prognostiziert und analysiert? Werden Kundenanfragen in naher Zukunft gar nicht mehr von Beratern aus dem Kundenservice, sondern nur noch von virtuellen Assistenten, sogenannten Chatbots beantwortet? Erschüttert das nicht das Vertrauen der Kunden nachhaltig und provozieren solche Chatbots bei möglichen Fehlprognosen nicht einen großen Imageschaden? Standardanfragen werden mittels KI schneller und genauer bearbeitet, sogar Kundenloyalität und Kundenabwanderung wird von Algorithmen präziser vorausgesagt. Als Bankkunden interessiert uns natürlich: Welche Kundendaten werden dafür genutzt?

 Oliver Gutmann, DSV, gewährte, was den Einsatz von KI in Banken und Sparkassen betrifft, Einblicke in den Status quo und entwarf interessante Zukunftsszenarien im Bereich Kundenbetreuung. Der Trend gehe laut dem Referenten schon zu personalisierten Websites, die den Kundenbedarf besser ermittelten und mit passgenauen Dienstleistungsangeboten befriedigen könnten. Wie könnte die Bank der Zukunft aussehen? Dazu gab es vom Fachmann interessante und kurzweilige Antworten.

KI und Vorurteil

Dr. David Schönleber, esentri, widmete sich in seinem Vortrag u.a. diesen spannenden Fragen: Gibt es eigentlich eine Voreingenommenheit bei KI? Wenn ja, zu welchen negativen Folgen kann es dadurch kommen?

Er zeigte, wie ungenau kommerzielle Gesichtserkennungsalgorithmen hinsichtlich der Genauigkeit von geschlechtlicher Zuordnung zum Teil noch sind. Oder was heraus kommt, wenn man Sätze mit geschlechtsspezifischen Wörtern von geschlechtsneutralen in geschlechtsspezifischen Sprachen übersetzt.

Wie kann man verhindern, dass bspw. ´math teacher`  automatisch zu ´Mathelehrer` wird? Schöneberg machte nachvollziehbar, warum der Dienst „Amazon Recognition“ Menschen mit dunkler Hautfarbe bislang überproportional oft und fälschlicherweise als Straftäter identifiziert hat mit schwerwiegenden Folgen für den Einzelnen.

Link zum Vortrag

Dr. David Schönleber, esentri
"Menschen mit dunkler Hautfarbe wurden fälschlicherweise immer wieder und überproportional oft als Straftäter identifiziert."
Dr. Bernd Vowinkel, gbs
"Gerade in Deutschland herrscht eine starke Abneigung gegen den Transhumanismus und gegen die KI vor."

Humanismus versus Transhumanismus

Ist der Transhumanismus mit dem Humanismus vereinbar? Um diese Frage zu klären, erläuterte Bernd Vowinkel, Giordano Bruno Stiftung, in seinem Vortrag zunächst entscheidende Unterschiede zwischen althergebrachtem und neuem Humanismus. Der Physiker, der sich regelmäßig philosophischen Problemen bei der Entwicklung von KI widmet, entwarf ein KI-freundliches Zukunftsbild. 

Mit Hilfe dieser und anderer Technologien, so der Referent, würden transhumane Wesen entstehen, die dem normalen Menschen in Lebenserwartung, Gesundheit, körperlicher und geistiger Fitness überlegen sein werden. Dies könne dem Menschen aber durchaus zum Vorteil gereichen. „Solange dann noch Wesen mit menschlichen Anteilen vorhanden sind, bezeichnet man eine solche Zivilisation als transhuman.“ 

Der Wissenschaftler machte deutlich, weshalb der Transhumanismus in Deutschland noch überwiegend auf Ablehnung stoße, obwohl Technologien des Transhumanismus, u.a. die KI, mehr Chancen als Bedrohung für den Menschen bedeuten könnten. Schließlich unterlegte der Wissenschaftler seine Zukunftsvision mit interessanten und anschaulichen  Beispielen und inspirierte zur Weiterbeschäftigung mit dem, auch im Hinblick auf Ethik, wichtigen Thema.

Link zum Vortrag

Experten – Workshops zu vielfältigen Themen boten den Teilnehmenden am Samstag die Chance, auch außerhalb des Plenums Lösungsansätze weiter zu diskutieren und Fragestellungen detaillierter in kleinen Gruppen zu bearbeiten. 

WS Journalismus und Fake News
WS Journalismus und Fake News
WS KI in der Medizin
WS KI in der Medizin
WS KI inder Medizin
WS Autonomes Fahren
WS KI und Führung
WS KI und Führung
Prof. Christian Stöcker (Spiegel Online), Dr. Bernd Villauer (WEIT), Dr. Michael Schmidt-Salomon (gbs), Dr. Anna Christmann (MdB) und Moderator Sascha Blättermann (Human IT Service GmbH)

Podiumsdiskussion

Die informative und unterhaltsame Podiumsdiskussion unter der Moderation von Sascha Blättermann (Human IT Service GmbH) gab Diskutanten zum Abschluss noch einmal die Möglichkeit, unterschiedlichste Positionen zur Diskussion zu stellen und ihre Kernbotschaft mitzuteilen

Einer unserer Gäste auf dem Podium war unter anderem die technologiepolitische Sprecherin von Bündnis 90/Die Grünen, Dr. Anna Christmann. Sie plädierte dafür, die Diskussion über ethische Fragen bei künstlicher Intelligenz nicht nur hinter verschlossenen Türen, sondern öffentlich in der Gesellschaft zu diskutieren. Christmann setzt sich in ihrer Partei nicht nur dafür ein, diese Diskussion stärker nach außen zu tragen, sondern wünscht sich auch eine stärkere europäische Perspektive bei dem Thema: Frankreich könne hier ein Vorbild sein. Dies hatte sie bereits in einem das Symposium begleitenden Blogbeitrag ausgeführt (Link: http://humanithesia.org/anna-christmann-kuenstliche-intelligenz-made-in-europe).

Prof. Dr. Christian Stöcker, Kolumnist bei Spiegel Online, warnte davor, eine Geisterdebatte zu führen. Wichtig seien nicht die ausführlichen Debatten über Dilemmaprobleme, die im Alltag praktisch nicht relevant wären, sondern Anwendungsfragen im Alltag, die bisher nicht geklärt seien. Auch er plädierte dafür, die Debatte auf eine europäische Ebene zu erweitern, stellte aber auch die Frage, wie wir uns auf globaler Ebene über diese ethischen Herausforderungen einig werden sollten. Michael Schmidt-Salomon, Vorstand der Giordano-Bruno-Stiftung, sieht hier durchaus Potential. Der Geschäftsführer des Weltethos-Institutes der Universität Tübingen, Dr. Bernd Villhauer, erweiterte die Diskussion mit seinem Aspekt, Ethik als Innovationsmotor einzusetzen. Ethik darf nicht als Verbotsschild betrachtet werden, sondern als Richtlinie für Innovation und Fortschritt.

Ethik und KI – ein Thema, das auf dem Stuttgarter Zukunftssymposium 2018 spannend, lebendig und kontrovers diskutiert wurde. Wir laden Sie ein, auch 2019 dabei zu sein, wenn im Herbst die nächste Auflage stattfindet.

Bildernachweis Fotogalerie :

Bilder 1–9: Michael M. Roth, MicialMedia;
Weitere Bilder: Anni Schlumberger, Human IT Service GmbH 

Durch die weitere Nutzung der Seite stimmen Sie der Verwendung von Cookies zu. Weitere Informationen finden Sie in der Datenschutzerklärung.

Die Cookie-Einstellungen auf dieser Website sind auf "Cookies zulassen" eingestellt, um das beste Surferlebnis zu ermöglichen. Wenn du diese Website ohne Änderung der Cookie-Einstellungen verwendest oder auf "Akzeptieren" klickst, erklärst du sich damit einverstanden.

Schließen