Zukunftsthema Künstliche Intelligenz und Robotik

Dieser Abschnitt ist erst am Entstehen. Wir haben das Thema aber jetzt schon angelegt, da es für alle Formen zukünftigen wirtschaftens, aber auch für das Thema (illegitime) Macht eine zentrale Rolle spielen wird.

Eine neue Dimension von (wirtschaftlicher) Macht

Was hat das Thema KI und Robotik in unserem Zusammenhang zu suchen? Mit Hilfe von künstlicher Intelligenz und Robotik werden die reicheren Schichten, also die Eigener von Produktionsmitteln, in der Lage sein, ihre Dominanz weiter auszubauen. Die Bedeutung vieler Menschen, als Produzentinnen und Produzenten oder Dienstleister, geht verloren. Gebraucht werden Spezialisten, aber nicht mehr die normale Werkerin, der normale Werker, der normale Sachbearbeiter. Damit geht auch die gesellschaftliche Macht verloren, die z.B. durch Gewerkschaften in der Vergangenheit ausgeübt werden konnte und für eine günstige Beeinflussung sozialer Verhältnisse gesorgt hat. Es werden große Teile der Bevölkerung im wahrsten Sinne des Wortes immer ohnmächtiger, je mehr die reicheren Schichten komplett über Produktionsmittel und Dienstleistungen verfügen, ohne von (einer großen Zahl von) Menschen abhängig zu sein.

Was die künstliche Intelligenz betrifft, stellt sich ja die Frage, wer die eigentlich programmiert und mit Grundannahmen und Zielen füttert. Auch hier ist es ganz klar so, dass Oligopole heute eine völlig unkontrollierte bestimmen können, was Eingang in die Systemen findet. Wenn KI-Systeme sich erst einmal selbst weiterentwickelt haben, sind sie so komplex, dass kein Mensch mehr versteht, was sie eigentlich tun. Dann sind wir möglicherweise in einer Lage, dass wir Entitäten (künstliche Wesenheiten) geschaffen haben, die wir gar nicht mehr kontrollieren können, es sei denn wir ziehen den Stecker, solange das noch möglich ist .

Viele ernstzunehmende Wissenschaftler*innen haben davon davor gewarnt, eine vollständige künstliche Intelligenz zu schaffen, weil wir nicht wissen, inwieweit diese uns Menschen wohlwollend gesonnen sein wird. Vielmehr müssen wir davon ausgehen , dass eine allgemeine KI ein Denken und möglicherweise auch ein Bewusstsein entfaltet, das von unserem vollständig verschieden ist. Die Science Fiction Literatur setzt sich seit Jahrzehnten mit dieser Möglichkeit auseinander, und bislang scheint es noch in weiter Ferne zu liegen, eine solche echte künstliche Intelligenz zu erschaffen. Nichtsdestotrotz arbeiten die großen Internetkonzerne und vermutlich auch einige Staaten, mit Hochdruck daran, die ersten zu sein, die eine solche künstliche Intelligenz entwickelt haben. Das Problem ist, dass derjenige, der als erstes eine allgemeine künstliche Intelligenz entwickelt hat, einen derartigen Machtvorsprung erlangt, dass er alle anderen Wettbewerber unterdrücken und sich im Grunde von demokratisch definierten Einschränkungen frei machen kann.

Solange wir nicht einmal in der Lage sind, mit den gegenwärtigen vor Herausforderungen vernünftig umzugehen, ist es extrem gefährlich, zuzulassen, dass eine vollständige allgemeine künstliche Intelligenz drinsteht.

Schau Dir zu diesem Aspekt auch das Thema Humangenetik: Die Menschheit teilt sich – eine neue Dimension der Ungleichheit an.

TED-Videos zur Künstlichen Intelligenz

Was sollen wir tun? Fragen, die wir im Umgang mit der Möglichkeit künstlicher Intelligenz beantworten müssen.

KI und sense of reality

Auch wenn wir es heute noch nicht mit KI zu tun haben, sondern nur mit selbstlernenden Systemen, so erreichen diese doch bereits eine Komplexität, die so groß ist, dass letztlich niemand mehr sagen kann, was das System im Einzelnen tut, wenn es erst eine Zeitlang im Einsatz ist und gelernt hat.

Wenn solche Systeme in ihrer Performance besser werden, als die durchschnittliche Leistung eines Menschen, fangen wir an, diesen Systemen mehr zu vertrauen, als menschlichen Leistungen (Bsp. Autopilot: die neue 737 musste erst mehrfach abstürzen, bevor man gemerkt hat dass die fehlerhafte Software von den Piloten nicht abgeschaltet werden konnte).

Die Frage ist: wie merken wir, wenn die Systeme selbst fehlerhaft werden. Es gibt viele Fehler, die nicht leicht zu bemerken sind und vielleicht auch nicht bemerkt werden sollen. Ein prominentes Beispiel ist die Benachteiligung bestimmter Gruppen durch Systeme zur Gesichtserkennung, zur Kreditvergabe für die Bemessung von Versicherungsprämien und so weiter.

Wenn wir das Nutzungsverhalten von Internetusern betrachten, stellen wir fest, dass diese in einer Art Trance mit dem Medium verbunden sind. Es ist ein assoziatives navigieren zwischen verschiedensten Informationen, bei dem wenig Bewusstheit im Spiel ist. In den nächsten Entwicklungsstufe werden wir zunehmend mit HoloBrillen und augmented reality konfrontiert sein, die die Medien Trance noch deutlich vertiefen wird. Selbst lernende Systeme adaptieren sich an den Nutzer, sodass aus der informationellen Filterblase irgendwann ein geschildertes Bewusstsein wird. Das Eintauchen in diese Trance hat für viele Menschen suchtartigen Charakter (sie können dies leicht feststellen, wenn sie versuchen, einmal 4 Stunden nicht auf Handy zu schauen).

Fragen:

  • Wenn wir Maschinen mehr vertrauen, als menschlichen Entscheidungen: wie definieren wir die interrupts für den menschlichen Eingriff?
  • Wie muss die Medienkompetenz der Zukunft aussehen, wenn wir von den oben genannten Entwicklungen ausgehen? Was hilft den Nutzern selbstlernender Systeme, einen systemunabhängigen Realitätsanker, einen „sense of reality“ zu behalten?

KI und Macht

Wenn Macht definiert wird als jede Einflussnahme auf Verhalten, die unabhängig vom Willen des Beeinflussten funktioniert, so verspricht die Nutzung von selbstlernenden Systemen einen Machtgewinn. Mit Hilfe von selbstlernenden Systemen wird bereits heute die Aufmerksamkeit von Internetusern gesteuert. Schon jetzt ist es möglich, deren Beeinflussbarkeit vorherzusagen und eine solche Einflussnahme gezielt vorzunehmen. Und aus spieltheoretischen Überlegungen ist davon auszugehen, dass jede Machtquelle, die verfügbar, ist auch genutzt werden wird. Das fatale ist, dass die Beeinflussung durch selbst lernende Systeme weitgehend unbemerkt erfolgt und in gewisser Weise auch unbemerkbar ist, dass sich diese Systeme ja genau durch Adaption auszeichnen.

Fragen an potentielle Hersteller und Nutzer von selbstlernenden autonomen Systemen:

  • Wie sicher sind Sie sich, dass Sie merken, wenn selbst lernende Systeme mit einem Bias behaftet sind?
  • Wie lässt sich die Beeinflussung durch selbstlernende Systeme auf gesellschaftlicher und politischer Ebene kontrollieren?
    • Würden Sie sich eine derartige Kontrolle wünschen?

KI und ethisches Verhalten

Selbstlernende Systeme werden bereits heute in der Finanzwelt, im Versicherungswesen und in vielen anderen Bereichen eingesetzt. Im Investmentbereich werden Kauf- und Verkaufsentscheidungen in Sekundenbruchteilen maschinell erledigt. Wer seinen System Restriktionen irgendwelcher Art auferlegt, hat Nachteile zu befürchten.

Wir wissen aber auch, dass die Entscheidungen dieser Systeme ökonomische, ökologische und persönliche Folgen haben. Nur übernimmt niemand mehr die Verantwortung für diese Folgen, da das System entscheidet. Und es ist kein Mechanismus in Sicht, der Softwarehersteller und deren Kunden nahelegen würde, ihre Systeme mit Restriktionen zu versehen, solange keine Gesetze übertreten werden und die Gesetzesübertretung bemerkbar ist (was angesichts der Komplexität der Themen keine Selbstverständlichkeit ist, vgl. Cum Ex als Beispiel aus der analogen Welt). Beim autonomen Fahren ist man gerade dabei, diese Verantwortungslücke zu klären – aber da kann man auch unmittelbar sehen, wie sich das System verhält.

Und für die Kriegsführung gilt: Überlässt man die Entscheidung zu töten einer Maschine, fallen auch noch die letzten Hemmungen… Dennoch wird, allen Beteuerungen zum Trotz, die Entwicklung solcher Systeme massiv vorangetrieben. Um Kriege zu führen, wird es nicht mehr notwendig sein, viele Soldaten zu haben, der Leben aufs Spiel setzen, sondern ausreichend wirtschaftliche Macht, um Armeen selbstlernender Dronen einsetzen zu können.

Fragen an potentielle Hersteller und Nutzer von selbstlernenden autonomen Systemen :

  • Inwieweit sehen Sie auf Ihrer Expertise diese Problematik als relevant an?
  • Wären Sie bereit, einem selbst lernenden System Restriktionen einzubauen, wenn Sie wüssten, dass das Fehlen solcher Restriktionen zum Beispiel
    • zu Wettbewerbsverzerrungen führen würde
    • Menschen in Entwicklungsländern erhebliche Nachteile bereiten würde
    • ökologische Schäden nach sich ziehen würde
  • Wer trägt die Verantwortung für automatisierte Entscheidungen?
  • Wie verhindern wir den Einsatz selbstlernender Systeme in der Kriegsführung?

Übrigens: der nächste Kandidat für ein selbstlernendes System ist m.E. die Triage Software, welche demnächst von den integrierten Rettungsleitstellen eingesetzt werden wird, wo die Operatoren festzustellen haben, ob ein Patient zum niedergelassenen Arzt geschickt, in eine Notfallambulanz verwiesen oder mit dem Rettungsdienst in ein Krankenhaus eingewiesen wird.

Wenn uns die Zukunft einholt, kann es für Ethik zu spät sein

Wir gehen heute davon aus, dass eine echte künstliche Intelligenz noch lange auf sich warten lassen wird. Daher sprechen wir hier auch zunächst von hochautonomen selbstlernenden Systemen. Andererseits müssen wir anerkennen, dass man sich bis zur Etablierung der entsprechenden Systeme weder ein Internet vorstellen konnte, noch Videotelefonie für jedermann, noch eine Gesichtserkennung, die sogar emotionale Zustände analysieren kann.

Es gibt ernstzunehmende Experten, die davor warnen, dass eine künstliche Intelligenz so anders wäre, als alles, was wir uns mit unserem gegenwärtigen menschlichen Bewusstsein vorstellen können, dass diese zu einer ernsthaften Gefahr für die Menschheit werden könnte. Wenn es möglich ist, eine allgemeine künstliche Intelligenz zu erschaffen, dann wird es über kurz oder lang auch realisiert werden. Der Wettlauf dorthin ist im vollen Gange, während die Wettbewerber einander fleißig warnen, welche Gefahren hiermit verbunden sind.

Fragen an potentielle Hersteller und Nutzer von selbstlernenden autonomen Systemen :

  • Was müsste getan werden, um sicherzustellen, dass eine künstliche Intelligenz sich nicht in einer Weise verselbstständigt, die uns als Menschheit gefährden könnte?
    • Ist es aus ihrer Sicht überhaupt ein Thema bzw. ein Problem?
  • Kann es sein, dass wir mit unserem gegenwärtigen begrenzten menschlichen Vermögen grandios unterschätzen, welche Formen und Ausprägungen von Intelligenz überhaupt möglich sind?
    • Und ist es denkbar, dass sich Intelligenzen entwickeln lassen, die uns so weit überlegen sind, wie wir etwa einem Schimpansen?

TED Videos zur Robotik

Wie realistisch ist die Bedrohung?

Vergeltungs-Monster

Russland baut derzeit ein riesiges Atom U-Boot, das mit voll autonomen Torpedo-Drohnen ausgestattet ist. Diese autonomen Torpedos können sich selbstständig ihr Ziel suchen, sie sind ebenfalls Atom getrieben, fahren 1000 m unter Wasser und tragen einen gigantischen Nuklearsprengkopf, 150 mal stärker als die Atombombe von Hiroshima. Vor Küstenstädten wie etwa New York oder Los Angeles gezündet, würden diese unter einer radioaktiven Riesenwelle begraben. Da die Waffen zwar kaum zu stoppen, aber vergleichsweise langsam sind, sollen sie wohl als Vergeltungswaffe in der Endphase eines Atomkriegs zum Einsatz kommen. (Quelle: SZ, „Todeszone Ozean“, 1.11.2019)

Wenn die Roboter kommen: Wie Künstliche Intelligenz die Arbeitswelt von morgen dominieren wird.

Die Zeit, 4.9.19: „McKinsey, veröffentlicht im Sommer 2018 eine Studie, nach der bis zu 30 Prozent der Arbeitnehmer weltweit ersetzt werden könnten,“ aber „Der wichtigste Effekt der Künstlichen Intelligenz auf die Arbeit ist nicht Arbeitslosigkeit, sondern die Verstärkung altbekannter Effekte des Kapitalismus.“ “ „Je klüger die Maschine, desto weniger gut ausgebildet muss die Person sein, die an oder mit ihr arbeitet – und desto geringer die Personalkosten.“ Das Buch zum Thema heißt „Realitätsschock“, der Autor ist Sascha Lobo.