Freitag, 15.11.2019 - Vorträge im Überblick

Vortrag: Zwischen Nachhaltigkeit und Disruption. Ein Streifzug durch Wirtschaft, Ethik und KI

Prof. Dr. Joachim Fetzer, Deutsches Netzwerk Wirtschaftsethik

Text wird noch ergänzt

Präsentation Joachim Fetzer

Vortrag: Änderungen durch KI auf dem Arbeitsmarkt?

Prof. Dr. Andreas Boes, Bayerisches Forschungsinstitut für Digitale Transformation (BIDT)

Präsentation Andreas Boes

KI als strategischer Baustein in der Informationsökonomie

Beispiele für Verwendung von KI:

1. Risikoabschätzung im Onlinehandel durch KI: KI entscheidet über Kreditwürdigkeit bei Onlinekauf

2. Robotik und KI: Roboter sollen durch KI lernen und im Bereich der Mensch-Maschine-Interaktion besser werden

3. Kundenservice mit KI: Stimmerkennung zur Bewertung der Kundenzufriedenheit

Beispiele zeigen die Breite der KI-Nutzung

Studien zu möglichen Zukunftsszenarien: Große Varianz mit Blick auf positive/negative Auswirkungen auf menschliche Entwicklung

3 historische Phasen der KI-Entwicklung:

1. Frühphase

2. Reagenzglasphase & KI-Winter

3. Anwendungsphase (seit 2008)

Wodurch wurde KI relevant? „It’s the internet, stupid!“

Zusammenhang Internet – KI: Mitmachinfrastruktur des Internets erzeugt sozialen Handlungsraum

Dort wird mit Informationen gehandelt und Profit generiert

KI wird durch Wirtschaft zu eben diesem Zweck verwendet

Verhältnis Mensch – KI: KI erkennt Muster in den Daten, die es Menschen einfacher machen, Informationen aus den Daten zu generieren

Informationen werden dann zur Entwicklung menschengemachter Innovationen verwendet

Aufgabe von KI: Den Menschen so unterstützen, dass dieser schlauer wird

Vortrag: Künstliche Intelligenz – Neue Fragen für Angewandte Ethik und Gesetzgebung

Prof. Dr. Thomas Metzinger, Universität Mainz

Präsentation Thomas Metzinger

Veränderungen von Glaubenssystemen

Es gibt die erste KI-Kirche in Kalifornien namens Way Of The Future, gegründet von einem ehemaligen Apple CEO. Die Idee: Die richtige Beziehung zur KI wird eine religiöse sein. Wir stehen auf dem Boden des wissenschaftlichen Weltbilds, es gibt keinen Gott, es ist ein physikalisches Universum, aber es wird einer entstehen und der wird entstehen durch die KI und wir brauchen langsam eine Infrastruktur. Die KI wird natürlich in die Vergangenheit schauen und genau wissen, wer an sie geglaubt hat in der Vergangenheit und wer nicht. Es gibt neue religiöse Bewegungen, die sich an die KI angedockt haben (Thema Unsterblichkeit).

Veränderungen auf dem Arbeitsmarkt

Wertschöpfung wird sich verändern. In der Zukunft wird viel mehr auf Kreativität und Erschaffung geistigen Eigentums ankommen. Die Frage ist, wer ist daran beteiligt in künftigen Gesellschaften. (Standford Universiät-Studie)

Problem: Namhafte Studien sind umstritten und machen eher kurze Vorhersagen. Demnach sind 47% der Arbeitsplätze in Nordamerika sind derzeit in der Hochrisikogruppe, d.h. bis 2030 sollen sie wegfallen, allerdings nicht durch KI, sondern durch Automatisierung, die besser wird, durch Roboter in der Altenpflege und Logistik, aber auch Rechtsanwälte sind betroffen. In der Unterhaltungsindustrie werden wir möglicherweise die Verschmelzung von KI und virtueller Realität mit intelligenten Avataren erleben.

Wertschöpfung entsteht nicht mehr durch körperliche Arbeit, sondern durch geistiges Eigentum.

Risiko: massive Arbeitslosigkeit, Einkommensschere öffnet sich weiter, daraus Erstarken des Populismus. Lohnsteuer bricht ein, soziale Sicherungssysteme überlastet würden. Was wir tun müssten Produktivitätsgewinne müssten sozial gerecht verteilt werden. Allerdings ist das in der Vergangenheit auch nicht geschehen. Könnte man dies durch ein bedingungsloses Grundeinkommen auffangen? Ist es wirklich erfolgversprechend große Bevölkerungsschichten, für die es keine Funktion mehr gibt, umzuschulen in Richtung creative und social skills nennt. Ob arbeitslose Taxi- und Lastwagenfahrer damit einverstanden wären?…

Wann kommt die KI?

Wir gehen jetzt in die extreme Zukunft 2030. Es gibt sehr umstrittene Studien, die besagen, dass 90 % der in der Welt stärksten KI-Experten glauben, dass das Niveau menschlicher Intelligenz 2070 erreicht würde. Nur 50 % in den Top-Hundert glauben, dass KI in den nächsten 30 Jahren nach 2030 kommt. Der Vorhersagehorizont ist völlig unklar, ob das jemals oder 2040 entstehen wird. Idee: Es gibt künstliche Systeme, die in ihrer geistigen Leistungsfähigkeit Menschen uneinholbar und in allen menschlichen Fähigkeiten überlegen sein werden.

Risiken: Dass die Systeme sich selbst optimieren und dass dies außer Kontrolle gerät und zwar mit hoher Geschwindigkeit, eine der Grundideen dabei ist, wenn uns die Kontrolle solcher Supersysteme nicht im ersten technischen Anlauf gelingt, könnte es sein, dass wir historisch keine zweite Chance haben. Weil die so leicht erkennen, dass sie uns überlegen sind und das größte Risiko für ihre Autonomie wir Menschen sind, wahrscheinlich wir auch das größte Risiko für den Planeten. Die meisten Leute weigern sich darüber zu sprechen.

Anwendung Synthetischer Biologie:

Es gibt Forschergruppen, die tatsächlich sowas wie echte Gefühle, bewusste Erlebnisse und bewusste Sinneswahrnehmungen bei Maschinen erzeugen möchten. Der Vorhersagehorizont hier ist unklar, aber auf eine andere Weise. Man weiß hier nicht, ob das in 5 Jahren aus Versehen passieren wird oder nie.

Problem: Alle leidensfähigen Lebewesen, nicht nur Menschen, sind automatisch Gegenstand ethischer Überlegungen, auch nicht biologische Bewusstseinssubjekte und solche, die noch nicht entstanden sind. Die bewussten Maschinen der Zukunft haben keinen Vertreter, der in einer Ethikkommission oder einem Parlament sitzt. Könnte es ein Künstliches Leiden geben? Um diese Frage beantworten zu können, bräuchten wir zunächst eine Theorie des Leidens, die unabhängig von der biologischen Realisierung ist.

Risiken: Wir könnten versehentlich Intelligente Systeme erzeugen, die nicht nur Wissen über die Welt haben (also intentionale Eigenschaften besitzen, sich also auf etwas beziehen, die etwas darstellen intern), sondern bei denen es auch Empfindungsqualitäten gibt. Wie Bläue, Röte, Schmerzhaftigkeit, Süße… Wir könnten Künstliches Leiden erzeugen in Kaskaden von Kopien, möglicherweise in einer großen Anzahl von Individuen und könnten die Gesamtmenge des Leidens möglicherweise unkontrolliert und dramatisch erhöhen. Es gibt mittlerweile 4 Labors von Spitzenbewusstseinsforschern, die versuchen Bewusstsein (also bewusstes Erleben, nicht Leben) auf Maschinen zu erzeugen. wollen Maschinen erschaffen, die Homöostase haben und verletzbar sind. D.h. Maschinen, denen man weh tun kann, die dadurch schneller lernen und noch intelligenter werden. D.h. die haben so was wie einen eigenen Stoffwechsel und Körperfunktionen, die sich ständig versuchen, stabil zu halten, die man aber angreifen kann. Die Einführung von Verletzbarkeit bei der Selbstregulation wird befürwortet. Es sollen Systeme geschaffen werden, die auch affektive Repräsentationen haben, die negative Werte für ihre eigene Existenz repräsentieren und das auch empfinden können. Manche sagen ´wir quälen doch auch Tiere, um sie zu dressieren und abzurichten, wenn die Lernkurven bei KI Systemen besser werden, indem wir ihnen negative Systeme einbauen können, warum nicht?

Problem: Was sind die Kriterien?

Das System müsste ein Bewusstsein haben, Ich-Gefühle, ein phänomenales Selbstmodell, es müsste negative Valenzen innerhalb des Selbstmodells darstellen und dann müsste es nicht in der Lage sein dieses Modell als ein Modell zu erkennen. Das ist das Gemeine, was die Evolution auch in uns eingebaut hat, dass wenn uns etwas kränkt oder uns etwas weh tut, wir gezwungen sind, uns damit zu identifizieren. Man kann sich da durch keine Operation hinausdenken. Durch positive und negative Gefühle werden wir vorwärtsgetrieben.

Man sollte keine Systeme bauen, die so etwas wie eine subjektive Innenperspektive und bewusst erlebte Präferenzen haben. Systeme, die Präferenzverletzung intern darstellen können und leiden. Z.B. darunter, dass wir sie nur als Bürger zweiter Klasse und als Waren, Gegenstände betrachten in unseren Forschungsvorhaben.

Autonome tödliche Waffensysteme: Analysten sagen, dass das Wettrüsten zwischen China und den USA in diesem Bereich schon 2010 begonnen hat. In China entsteht etwas ganz Neues, ein totalitäres System, das vollständig auf KI baut, der gläserne Bürger als Grundlage und 80 Prozent Unterstützung in der Bevölkerung hat. Wir sind in Europa sowohl ethisch, politisch als auch technologisch in einer schwierigen Situation zwischen Trumpistan und China.

Historisches Risiko: Oberhalb von nuklearen Waffen eine neue Art von Wettrüsten entsteht, es wäre im großen Interesse von Deutschland, China und USA noch davon abzuhalten. Allerdings ist unser Einfluss gering. Das EU-Parlament hat 2018 autonome Waffensysteme abgelehnt. 28 Länder meinten, sie beteiligen sich an so was nicht. Deutschland gehört nicht dazu. Wie wollen wir Europäer uns dazu positionieren?

Problem: Menschen werden aus militärischen Entscheidungen immer weiter rausgenommen werden müssen, weil die Reaktionszeiten schneller werden und die Entscheidungsfenster. Sie können dann nachts nicht mehr den General nachts aus dem Bett klingeln, denn dann haben Sie den Krieg verloren. Die Systeme müssen dann schnell selbst entscheiden. So entsteht eine neue historische Ebene des Wettrüstens. Es gibt einen Anreiz für Erstschläge und es wird dann vernünftig, nicht mehr an die menschliche Handlungsebene zu übergeben. Wir wissen allerdings nicht, wohin das führen wird. Begriff erklären: Ein Schlagwort, das wir auch in Europa immer wieder hören, ist trustworthy KI.

ABER: Menschen sind vertrauenswürdig, Maschinen nie.

Ethics by Design: Können wir die Systeme so bauen, dass sie vom Entwurf her nicht in der Lage sind unethische Dinge anzurichten? Wie richten wir sie stimmig auf menschliche ethische Werte aus?

Problem: Wie harmonisiert man unterschiedliche Werteverständnisse? Fünf Probleme dazu: 1. Wie gibt man einer Maschine ein Wertsystem nachdem man sich richtet? Da muss man ein Wertesystem so formalisieren, dass die Maschine rechnen kann, dann geht das. 2. Wir selbst halten uns gar nicht an unsere eigenen Werte. D.h. die interne Wertausrichtung im Menschen – wir müssen uns erst einmal selbst ethisch stimmig machen, bevor wir solche Maschinen bauen. 3. Wir müssen uns in Gesellschaften darauf einigen, welche ethischen Grundlinien wir in dieser Technologie realisieren wollen. 4. Im Moment ist unsere Gesellschaft eine Gier getriebene, es geht im Wesentlichen um Profitmaximierung bei der Einführung dieser Technologie, d.h. wir brauchen values alignment in und zwischen Gesellschaften. Wir bräuchten dann im Mensch-Maschine-Verhältnis eine stabile Wertausrichtung, dass sie sich an unsere Werte halten, wenn wir uns zuerst an diese Werte halten. 5. Das Gesellschaft-Maschine-Verhältnis: Wie schaffen wir es, dass ein gesellschaftlicher Konsens, der über die Werte dieser Technologie implementiert werden soll, tatsächlich auch umgesetzt wird, das ist praktisch unmöglich in einer globalen Gesellschaft.

Was wäre intelligente Risikominimierung?

Die kausale Wurzel der Hauptrisikofaktoren liegt in Wirklichkeit in uns selbst. Ressourcen sollten deshalb für die Lösung von Stimmigkeit im moralischen Sinn in uns selbst und in unseren Gesellschaften eingesetzt werden, aber in dem Vorgang kann man die KI wiederum als Hilfsmittel einsetzen, das ist eine interessante Wendung. Das Schöne an der KI-Debatte ist, dass sie uns auf uns selbst zurückwirft und sie uns Fragen stellt über die Struktur unseres eigenen Geistes. Die Probleme entstehen nicht durch die Technik, sondern dadurch, dass die Technik an unseren eigenen steinzeitlichen Geist gekoppelt wird und die Frage ist, wenn man den Gesamtvorgang kontrollieren können.

Uns fehlen als fähige Politikberater junge, gut ausgebildete Leute, die fit in analytischer Ethik sind und Juristen, die auf dem neusten Stand der KI-Technik sind und sich dauernd fortbilden.

Vortrag: Der „mitbestimmte Algorithmus“ in „selbstlernenden“ Arbeitswelten

Welf Schröter, Leiter Forum Soziale Technikgestaltung (FST) beim DGB Baden-Württemberg

Bereits seit den 1990er Jahren arbeitet das Forum Soziale Technikgestaltung daran, eine konstruktive Technikgestaltung voranzubringen. Aus 120 Männern und Frauen aus Betriebs- und Personalräten, sind mittlerweile 4500 geworden, die sich mit der Frage befassen, wie man mit der Digitalisierung und all ihren Auswirkungen sinnvoll umgehen kann. Es ist wichtig, in den Arbeitswelten zunächst jeweils den Grad der Digitalisierung auszumachen, um zu entscheiden, was noch realistisch ist und was nicht.

Labels wie smart, 4.0 oder KI verschleiern oft nur, dass in Betrieben, der Verwaltung und den Dienstleistungszentren zurzeit eine nachholende Digitalisierung umgesetzt wird, denn ungefähr ¾ aller Technikimplementierungen von Technologien sind solche, die aus der Perspektive der Technikentwicklung zehn bis fünfzehn Jahre alt sind.

In den Betrieben, Verbänden und Gewerkschaften und in Arbeitgebergruppen erkennen wir, dass 100 Prozent der Kapazitäten, der Fähigkeiten und der Zeit darauf verwendet werden, sich mit der nachholenden Digitalisierung zu befassen. Dies gilt auch für die Spitzenunternehmen, denn sie kämpfen noch mit elektronischen Plattformen und diskutieren immer noch darüber, ob man mobiles Arbeiten für alle einrichten soll oder nur für eine ausgebildete Gruppe.

Es braucht einen anderen wertebasierten Ansatz. Technikerinnen und Techniker, Informatikerinnen und Informatiker sind in den allermeisten Fällen Innovationshemmnisse. Warum? Weil sie glauben, dass mit Technik alleine eine Innovation zu machen ist. Alle Erfahrungen mit Technikgestaltung seit Jahrzehnten weiß, dass Technik maximal 50% eines Erfolgsbereichs darstellen und dass die Überwindung der sog. nicht-technischen Innovationshemmnisse (Definition des Fraunhofer IAO) eigentlich der Schlüsselfaktor ist. Die „Menschelei“ ist entscheidend, ob es gelingt, all dies erfolgreich umzusetzen oder nicht.

Die Übersetzung aus dem amerikanischen Englisch „Artificial Intelligence“ ist nicht gut gelungen. Ursprünglich war eigentlich Künstliche Nachbildung gemeint, was etwas vollkommen anderes meint, als das, was in der deutschen Diskussion unter dem Stichwort Intelligenz diskutiert wird. Wenn wir von Künstlicher Nachbildung sprechen, sind wir auf einer ganz anderen Ebene der Umsetzung und Bewertung. Die Diskussion, die wir im Augenblick in den Betrieben führen, bezieht sich nicht auf KI, obwohl das in den Broschüren und Pressemitteilungen überall steht.

Inwieweit ist es möglich ist, durch eine Art kooperativen Gestaltungsansatz zwischen Sozialpartnern in einem Unternehmen, Prozesse der Technikimplementierung so einzuführen, dass man auf der einen Seite eine Beschleunigung ermöglicht, aber gleichzeitig die sozialen und ethischen Kriterien, die wir fürs Miteinander in Unternehmen notwendig sind, stärker stabilisiert?

Es sind Aushandlungs- und Gestaltungsprozesse und die Entwicklung von Gestaltungskompetenz auf beiden Seiten der Sozialpartner ist noch nicht auf der Spitzenebene. Es gibt auf beiden Seiten massive Lücken. Dort, wo im Augenblick diese Techniken eingeführt werden, wo sie Wertschöpfung und Produktivität hervorbringen sollen, sind es Umgebungen, die betriebserfassungsrechtlich gefasst sind, wo es Spielregeln gibt, wo es eine herrschende Meinung unter Juristen gibt, dass eine Software, die unter dem Verdacht steht, personenbezogene Daten zu verarbeiten, mitbestimmungspflichtig ist. Eigentlich brauchen wir also Aushandlungsprozesse, die nicht blockadefreie Zeichen erzeugen, sondern Möglichkeiten schaffen, dass Kooperationen vorangehen und Techniknutzung erleichtert und beschleunigt werden kann. Nur, die meisten Diskussionen finden auf dieser Ebene nicht statt. Stattdessen wird über Facebook gesprochen und über Amazon oder über Superintelligenz.

Was bedeutet das durch die Brille des Artikel 87, 1 des Betriebserfassungsgesetz? Kein Akteur kann etwas in seinen Betrieb einführen und sagen: „So ist es.“, wenn der Betriebsrat das mitbekommt, dann landet man evtl. vor Gericht. Wir brauchen eine Gestaltungskompetenz und -kultur, die beide Seiten mitnimmt und es möglich macht, dass sowohl Führungskräfte wie Betriebsräte, Männer und Frauen, an dieser Stelle beteiligt werden können. Führungskräfte sind schnell dabei, aufzuschreiben, warum etwas nicht geht. Nur, das ist der Versuch Zeit zu gewinnen. Wenn man diesen Zeitgewinn nicht kombiniert mit einem Gestaltungsansatz, wird es schwierig. In einem großen Unternehmen haben wir eine Betriebsvereinbarung mit ausgehandelt und dort haben wir einen anderen Typ des gegenseitigen Lernens untergebracht. Dieses gegenseitige Lernen schlagen wir vor als Grundlage für die Beschleunigung digitaler Transformation aber auch als Vorgang, der einigermaßen Augenhöhe auf der ethischen und sozialen Ebene erzeugen kann. Das nennen wir offenes Lernen in beiden Richtungen. Es ist ein ergebnisoffener Lernprozess.

Wir schlagen vor, ein offenes Lernen auf der Basis einer Vertriebsvereinbarung mit klaren Spielregeln auf der Ebene von 36 Monaten zu organisieren, um Technikimplementierungen auf eine transparente Weise durchzuführen. Eine Diskussion wurde um die Jahrtausendwende geführt, wo zum ersten Mal ein Begriff der Delegationstechnik auftauchte und zum ersten Mal darüber nachgedacht wurde, inwieweit man Softwaresysteme entwickeln kann, die in der Lage sind, rechtsverbindliches Handeln des Menschen in Echtzeit hinter seinem Rücken zu organisieren. Das war damals eine überraschende Diskussion, und zwar nicht primär auf der technischen Seite, sondern es war ein Durchbrechen des bisherigen Verständnisses dessen, was man unter Technologien verstanden hat.

Bei allen Techniken des 20. Jh., bis hinein in Reproduction, ging man davon aus, dass es Assistenztechniken sind und dass sie die Arbeit des Menschen erleichtern und optimieren. Mit der Jahrtausendwende begann dann in einer Darmstädter Runde die Diskussion darüber, inwieweit es möglich sei, dieses Prinzip der Assistenz zu durchbrechen, so dass Technik, rechtsverbindlich hinter dem Rücken des Menschen in Echtzeit transaktionsfähig wird. Zunächst kam der Begriff der Softwareagenten, oder der agilen Agentenplattformen. Sie waren die Vorläufer dessen gewesen, was wir heute in cyberphysischen Systemen oder in bestimmten Watson-Zusammenhängen wiederfinden.

Das Durchbrechen des Assistenzbegriffs hin zum Delegationsbegriff war der Einschnitt und der Einbruch in der arbeitsweltlichen Diskussion. Das bedeutete in diesem Kontext, dass wir zum ersten Mal darüber nachdachten, dass es nicht mehr bei der Frage der Humanisierung der Arbeitswelt um die maximale Orientierung der Assistenz geht, sondern dass es jetzt Technologien gibt, die ganz bewusst über diese Hürde hinwegspringen. Damit bringt die Frage ´Assistenz oder Substitution der Arbeitskraft` noch einmal eine ganz neue Dimension hervor. Zugleich führte uns diese Diskussion an einen Punkt, die auf sozialwissenschaftlicher Seite eine Herausforderung darstellte, vor der wir im Augenblick noch stehen und wo wir noch wenig Antworten haben, wo uns die KI-Gemeinde im Stich lässt, weil sie technikzentriert sich in Superintelligenz-Debatten verrennt, aber den Punkt, den wir heute brauchen, nicht beantwortet.

Die Debatte, die wir haben ist: „was ist vorausschauende Arbeitsgestaltung angesichts autonomer Softwaresysteme?“ Wenn die Einführung von Softwarelösungen (autonomer Softwaresysteme), wenn ein Teil dieser Systeme in der Lage ist, so zu handeln, dass sie nach seinem Start, nach seinem Nutzungsbeginn, nur unter riesigen Aufwänden oder gar nicht mehr gestaltbar oder rückholbar ist, dann ist der alte Denkansatz der Arbeitsgestaltung, den Gewerkschaften, Krankenkassen, Berufsgenossenschaften etc., seit Jahrzehnten propagieren (ausprobieren, Erfahrung sammeln, verbessern, dann der nächste Schritt) überholt, denn bei autonomen Softwaresystemen kippt die Reihenfolge. Wir stehen vor der Herausforderung, dass das Thema vorausschauende Arbeitsgestaltung bedeutet, dass die Frage der Technikimplementierung nicht erst letztlich in Form gepasst wird, nachdem man das mal experimentell ausprobiert hat, sondern dass zu einem gewissen Teil diese Software im Prinzip diesen Gestaltungsprozess VOR den Start hat legen müssen. Das ist für alle Beteiligten eine drastische Aufhebung, im Sinne von Abstraktion und Komplexität.

Wir diskutieren Dinge wie die Anforderungen an algorithmische Entscheidungssysteme und Algorithmen und führen eine Diskussion über die Frage eines mitbestimmten Algorithmus. Damit meinen wir die Entwicklung von empirischen Kriterien, die es möglich macht, in einem vereinfachten System, in einem Mitbestimmungsprozess in Unternehmen, algorithmische Entscheidungssysteme wie auch Algorithmen selbst, in den Prozess einzuführen, aber wo beide Seiten sich zuvor auf generische Kriterien geeinigt haben und dann wissen, nach welchen Prinzipien das ablaufen kann. Wir haben an diesen Diskussionen jetzt 4 Jahre lang gearbeitet. Haben rund 30 dieser generischen Kriterien entwickelt, generisch heißt, es geht nicht darum, jede Software, die reinkommt, jetzt in einen Aushandlungsprozess zu bekommen, sondern dass man bereits bei der Bestellung, der Vorbereitung und Entwicklung nach diesen Kriterien arbeiten kann und dass man das schon als Konsens hat.

Diese Diskussion führt dazu, dass wir in den Arbeitsgestaltungsprozessen in den Betrieben eine vierte Ebene haben. Dies ist das Neue. Es reicht nicht mehr, die Gesetze des Bundes zu berücksichtigen, nicht mehr nur das, was die Tarifpartner rechtsverbindlich mit Verträgen, vereinbaren, und nicht nur eine Betriebsvereinbarung, zu berücksichtigen, sondern nun geht es auch noch darum, dass man die Gestaltung der Algorithmen mitberücksichtigt, und zwar auf der Ebene des Betrieblichen. Dort haben wir klare juristische Zuständigkeiten, wie den Arbeitgeber, den Betriebsrat, wir haben die Spielregeln, die Verfassungsgrundsätze und wir haben einen interessanten Impuls bekommen. Man denkt in Versicherungen darüber nach, ob, wenn ein Unternehmen Software mit Algorithmen einführt, bei denen das Unternehmen weiß, dass es diesen Algorithmus gestalten könnte, es aus Angst vor Nachteilen aber unterlässt, dieser Nachteil dann aber eintritt, die Versicherung feststellen könnte, dass kein Versicherungsfall vorliegt. Es ist also ein Schlüsselthema, zu dem auch andere aufhorchen. Das Thema der mitbestimmte Algorithmus ist ein Schlüsselthema, um von der arbeitsweltlichen Seite in jenes Thema einzusteigen, was in Berlin KI genannt wird.

Es ist hilfreicher, statt KI brilliante mathematische Modelle zu sagen, es geht um sehr gute mathematische Softwareentwicklung, alles das, was hinter Watson steht, ist eine brilliante Entwicklung, hat aber mit Denken oder Lernen nichts zu tun, sondern ist brilliante Mathematik. Sie ist von Menschen gemacht, also kann sie auch vom Menschen verändert und gestaltet werden. Solange wir glauben, die KI sei etwas Überirdisches, das wir anbeten müssen, ist es mit dem Gestaltungsimpuls und der Motivation schwieriger. Wenn wir es als ein gutes mathematisches Produkt betrachten, was man beeinflussen kann, und dessen Entwicklung man beeinflussen kann, dann sind es Themen, bei denen man selbstbewusster rangehen kann. Es ist keine einfache Aufgabe, mit Betriebs- und Personalräten, von denen einige keine akademische Laufbahn haben, die aber über eine große Menge an intuitivem Erfahrungswissen verfügen, dieses Erfahrungswissen so anzuwenden, dass man daraus Kriterien und Anforderungsprofile für die Gestaltung solcher Technologien schaffen kann. Kein Betriebsrat muss Programmieren lernen, um dem Programmierer zu sagen, welche Anforderungen da sind. Wir müssen nur lernen, dass der Spezifikationsprozess als Aushandlungsprozess einer der kommenden Schlüsselbereiche sein wird.

Wenn ich einem Techniker sage, „Mach mal eine ethische Software!“, antwortet er: „Komm wieder, wenn du weißt, was du willst.“ Ich muss also meine Anforderung präzise formulieren, das macht man im Augenblick bei Beispielen wie Arbeitsschutz, Burn-Out-Prävention und Gesundheitsschutz. Wenn wir das mit diesen Themen mit klaren Anforderungen machen können, so dass wir mit algorithmischen Entscheidungssystemen Schutz verbessern und optimieren können, dann können wir das auch schrittweise bei anderen Themen machen. Dort brauchen wir Unterstützung. Man hat es informationstechnisch mit Laien zu tun, das ist sicherlich nicht immer leicht. Aber mit Personen, die ein hohes Interesse daran haben, die das nicht machen, um Technikeinführung zu verhindern, sondern durch Prozesse klare, transparente Vorgehensweisen schaffen wollen, so dass man mit diesen Technologien vernünftige Jobs und Wertschöpfungen bekommt, aber unter den Bedingungen von sozialen, humanen Arbeitsbedingungen von Rechtstaatlichkeit und Demokratieprinzipien. Wenn das die gemeinsamen Grundwerte sind, dann kann es recht gut gehen.

Keynote: Ethik und KI in der (Arbeits-) Gesellschaft?

Jay Tuck, Autor, US-Sicherheitsberater und Journalist

Text wird noch ergänzt

Durch die weitere Nutzung der Seite stimmen Sie der Verwendung von Cookies zu. Weitere Informationen finden Sie in der Datenschutzerklärung.

Die Cookie-Einstellungen auf dieser Website sind auf "Cookies zulassen" eingestellt, um das beste Surferlebnis zu ermöglichen. Wenn du diese Website ohne Änderung der Cookie-Einstellungen verwendest oder auf "Akzeptieren" klickst, erklärst du sich damit einverstanden.

Schließen