Spannend, ich habe gerade nachfolgenden Text von mir wiedergefunden, den ich im Oktober 2016, also vor gut sechs Jahren, als eine Art Reaktion auf einen Auftritt von Google CEO Sundar Pichai geschrieben hatte… es ging rund um künstliche Intelligenz und deren mögliche Folgen. Pichai schwor damals die Zuhörer*innen auf “AI first!” statt “mobile first” ein. Hier mein damaliger Text:
Ich glaube Pichai hat Recht. Vielleicht ein bisschen früh, aber so wird es kommen, davon bin auch ich überzeugt. Endgeräte, egal ob Smartphone, Laptop, “PC”, der Fernseher oder ein “Lautsprecher”, sie werden nur noch I/O Terminals zum Netz, zur Cloud und den KI basierten Diensten großer Anbieter sein. Die Dienste, die damit realisierbar sind, werden so attraktiv für Benutzer_innen sein, dass sie nicht zu verwenden kaum noch eine Alternative sein wird.
Vor einigen Jahren hat man online Buchungen für Reisen belächelt. Man sagte, naja, das ist ja ganz nett, aber die Menschen werden lieber von Personen beraten werden wollen, die Bezahlung und Abwicklung ist viel zu umständlich, die Auswahl zu gering etc. Heute ist es de-facto so, dass der überwiegende Teil von Reisebuchungen online stattfindet. Eine offline Buchung am Schalter oder im Reisebüro ist heute meist teurer, als online, die Auswahl eingeschränkt und es ist einfach unpraktisch. Was man vor wenigen Jahren der online Buchung nachsagte, gilt eigentlich heute für die offline Buchung.
Also ja, was Pichai beschreibt wird kommen, sicherlich. Nur warum ausgerechnet KI? Warum keine normalen Algorithmen und Programme? Die man dann vielleicht auch dezentral einsetzen könnte, auf seinem heimischen oder mobilen Rechner?
Auch hier denke ich, dass dies so kommen wird, also immer mehr und verstärkt Lösungen auf einer KI artigen Basis. Was als KI gilt oder nicht ist genauso schwammig und unklar wie “die Cloud”. Gehen wir von Datenaufbereitungs- und Entscheidungsprozessen aus, die heuristisch aus großen Datenmengen Ableitungen für Aussagen treffen, so könnte man dies bereits als eine Art KI bezeichnen, ähnlich wie es Arthur C. Clarke für Magie postulierte “Jede hinreichend fortschrittliche Technologie ist von Magie nicht zu unterscheiden.”. Ein System mit Zugriff auf schier unendliche Datenmengen und der Fähigkeit daraus Schlüsse zu ziehen, wird von Intelligenz kaum noch zu unterscheiden sein. Menschen werden diese Entscheidungen nicht mehr nachvollziehen können.
Doch darin liegt, wie ich finde, auch die große Gefahr dieser Systeme. Sie basieren auf so unvorstellbar großen Datenmengen, die ohne selbstlernende Systeme nicht mehr zu bewältigen sind. Was diese Systeme dabei lernen und welche “Schlüsse” sie daraus ziehen, ist für uns Menschen kaum noch nachvollziehbar. Wir können es allenfalls noch empirisch überprüfen, ob denn die Aussagen des Systems den Erwartungen entsprechen, doch ihr Innerstes bleibt uns genauso verborgen, wie die Gedanken eines anderen Menschen.
Als in den späten 80er, Anfang der 90er Jahre die ersten (kleinen) neuronalen Netz aufkamen, wurde vom Militär (ich habe leider vergessen wo) ein Experiment in Auftrag gegeben. Die Schilderung des Ablaufs und Ergebnisses hat sich mir fest eingeprägt, denn es offenbart, finde ich, sehr anschaulich das Problem. Es wurde ein neuronales Netz konstruiert, dass auf Bildern (= große komplexe Datenmenge) erkennen sollte, ob ein Panzer darauf zu sehen war oder nicht. Das Netz wurde trainiert mit Dutzenden von Bildern. Anschließend wurde es getestet und die Ergebnisse sahen auch sehr gut aus! Doch ab und zu gab es Fehlerkennungen. Man hat lange herumgerätselt, wo denn das Problem liegen könne, bis man endlich darauf kam. Auf den Trainingsbildern war nicht nur das Vorhandensein oder nicht-Vorhandensein von Panzern unterschiedlich, sondern auch das Wetter! Die Mehrzahl der Bilder mit Panzer waren bei schlechtem Wetter aufgenommen, die ohne Panzer bei gutem Wetter. Was das Netz “gelernt” hatte war nicht, Panzer oder nicht Panzer zu erkennen, sondern gutes und schlechtes Wetter zu unterscheiden.
Was das Beispiel zeigt ist, dass wir im Nachhinein, wenn die Eingangsdatenmenge nur groß und komplex genug ist, nicht mehr nachvollziehen können, was diese Maschinen tatsächlich lernen. Wir können nur noch anhand von Stichproben testen, ob es der Erwartung und Intention entspricht. Im Gegensatz zu einem deterministischen Algorithmus bewegen wir uns in einen Bereich von nicht mehr beweisbarem und nicht deterministischem Verhalten dieser Systeme.
Ich bin überzeugt davon, dass wir diese Entwicklungen nicht stoppen können und auch nicht sollten. Es wäre genauso falsch, wie es vor knapp 200 Jahren falsch gewesen wäre daran festzuhalten, dass Eisenbahnen Teufelszeug seien, nichts dürfe einen Menschen schneller als ein Pferd fortbewegen. KI basierte Systeme, was auch immer diese auszeichnen wird, werden immer mehr Verbreitung finden, das wird unvermeidlich sein. Ihr möglicher Nutzen und damit ihre Attraktivität ist einfach viel zu groß – und viel zu verlockend.
Diese KI Systeme werden auch unsere Gesellschaft radikal verändern. Je “intelligenter” die Systeme werden, desto mehr Aufgaben werden sie übernehmen können. Aufgaben, die bisher noch Arbeitsplätze von Menschen darstellen. Diese werden einfach wegfallen. Es beginnt bereits heute, wenn auch noch sehr zögerlich. Fast alle größeren Logistik Unternehmen investieren in Forschung zu automatisierten Auslieferungssystemen – Drohnen, Lieferwagen, Kleinstlieferungen per mini Rover etc. Die ersten Versuchsanlagen laufen bereits dazu.
Noch klingt das alles spielerisch und etwas verrückt, doch wenn man sich die letzten 20 Jahre und die Entwicklung der Computersystem in dieser Zeit ansieht, dann wird zumindest mir klar, dass wir in spätestens weiteren 20 Jahren diese automatisierten Logistik Systeme bis zur Haustür haben werden. Diese werden ganz massiv auf KI artigen Systemen basieren, um in der Außenwelt zurecht zu kommen. Die NI, die “natural intelligence”, wird dann für diese Einsatzzwecke nicht mehr gebraucht. Der ganze Bereich der Mobilität steht im Umbruch. Mit der Verbreitung von elektrischen Fahrzeugen wird die “Intelligenz” in diesen Fahrzeugen noch einmal drastisch zunehmen, so wie es Tesla bereits vormacht.
Alle großen Fahrzeughersteller verschieben gerade ihre Entwicklungen in E-Fahrzeuge und Assistenzsysteme. Die Assistenzsysteme werden immer intelligenter und führen zum Teil heute schon die Fahrzeuge eigenständig. Völlig autonome Fahrzeuge gibt es ebenfalls bereits, zumindest in Feldtests. Als 2004, also gerade einmal vor 12 Jahren, die erste DARPA Grand Challenge startete, waren die Fahrzeuge allenfalls interessante Studien – manche sorgten auch für große Lacher. Es wurde belächelt und als eher akademische Veranstaltung abgetan. Der Aufwand, der in die Fahrzeuge und deren Systeme gesteckt werden musste, war enorm, sie waren vollgepackt mit Rechnern und Sensoren, ein menschlicher Fahrgast hätte kaum noch hinein gepasst. Dennoch erreichten die meisten gerade einmal Schrittgeschwindigkeit und strauchelten an trivialen Hindernissen.
Heute fahren autonome Fahrzeuge, die aussehen wie normale Fahrzeuge, ohne menschliche Intervention von Startpunkt A nach Endpunkt B, quer durch eine Stadt und über Autobahnen, mitten im normalen Verkehr. Innerhalb von nur 12 Jahren.
Diese Fahrzeuge werden unsere Welt und unsere Vorstellung von Mobilität verändern. Taxi Fahrer_innen braucht es nicht mehr, das Fahrzeug kommt auf Bestellung von alleine vor die Tür, holt den Fahrgast ab und bringt sie_ihn an das Ziel, ganz ohne menschliches Zutun. Nicht nur die Fahrer_innen werden damit obsolet, sondern damit vielleicht auch die Notwendigkeit zum eigenen Fahrzeug. Wenn ich mir jederzeit an den Ort, an dem ich mich gerade aufhalte, ein Fahrzeug nötiger Größe und Ausstattung bestellen kann und mich dieses komfortabel und ohne Aufwand für mich an mein Ziel bringt, warum brauche ich dann noch ein eigenes Fahrzeug, dass 99% der Zeit ungenutzt auf mich wartet?
Auch andere Transportmittel wie Busse etc. werden sich verändern. Wenn der Mensch als Faktor laufender Kosten eingespart werden kann und nur noch eine Einmalinvestition in das Gerät und ein wenig in seine laufende Wartung erfolgen muss, dann werden auch andere Arten von bspw. Bussen möglich, Kleinbusse mit nur einer Hand voll Sitzen vielleicht. Erste Pilotprojekte dazu laufen bereits an.
Ich bin auch davon überzeugt, dass die Automatisierung in der Industrie noch einmal einen deutlichen Sprung machen wird. Einfache Arbeiten werden zunehmend von intelligenten Maschinen erledigt werden. Diese System werden immer günstiger und irgendwann wird ein Break-Even zwischen Mensch-Lohnkosten und Maschinen-Investitions-und-Wartungskosten erreicht sein. Spätestens dann zwingt die Marktwirtschaft durch den Kostendruck die Industrie dazu, sich zu verändern. Es ist unvermeidlich.
Es wird kommen, es wird passieren, wir können es nicht verhindern oder aufhalten. Wir können nur offen dafür sein und versuchen das Beste daraus zu machen. Die sich daraus ergebenden gesellschaftlichen Umbrüche werden vieles verändern, auch unser Verständnis von Arbeit, Leistung und das Verhältnis zu Geld. Wenn immer mehr einfache Arbeitsplätze durch die Automatisierung verloren gehen, müssen wir als Gesellschaft dafür Sorge tragen, dass diese Menschen nach wie vor leben können. Daher plädieren auch immer mehr, sogar Wirtschaftsexpert_innen, für eine Teilabschöpfung der sogenannten “Automatisierungs Dividende”, um damit vielleicht etwas wie ein bedingungsloses Grundeinkommen zu finanzieren.
Vielleicht entwickeln wir uns tatsächlich hin zu einer Star Trek artigen Gesellschaft, in der Geld keine Rolle mehr spielt, in der allen alles zur Verfügung steht und sich der Wert einer Leistung anders als in Geld bemisst? Ich würde es mir wünschen. In einem Punkt hatte Marx schon Recht, für viele Menschen ist Arbeit eine entfremdete Tätigkeit, sie machen es nur, um Geld für den Lebensunterhalt zu verdienen. Wieviel verborgenes und heute noch verschwendetes Potential wohl darin steckt?
Ich habe nur vor zwei Dingen Angst.
Zur Zeit basiert das, was als KI diskutiert wird, auf der Auswertung von gigantischen Datenmengen in riesigen Rechenzentren von nur sehr wenigen Großkonzernen, die hierzu überhaupt die Möglichkeiten haben. Es braucht die Rechenleistung und vor allem aber auch den Zugriff auf diese Datenmengen, den nur Konzerne wie Google, Facebook, Amazon, Apple, Microsoft etc. haben. Meine Befürchtung ist, dass diese Konzerne das Wissen um die Algorithmen, die Systeme als solche und entsprechend auch ihren Nutzen monopolisieren werden. Schon heute ist es so, dass die Bereiche der Datenauswertung, wo eben gerade diese KIs eingesetzt werden, die best geschützten und gesicherten Bereiche dieser Konzerne sind. Wenn wir uns also dahin bewegen, dass wir diesen Systemen einen großen Teil unseres Alltages anvertrauen werden, und zum Teil sehe ich kaum eine Chance dies zu verhindern, dann begeben wir uns in eine Abhängigkeit von diesen Konzernen.
Vor einigen Jahren las ich Neuromancer von William Gibson. Eine recht verstörende Dystopie einer Welt, die vom Cyberspace bestimmt wird, der von einer Hand voll weltumspannender Konzerne kontrolliert wird. Die reale Welt mit Regierungen und physischen Territorien und Ressourcen spielte kaum noch eine Rolle, alles Wesentliche findet im Cyberspace statt. Die Konzerne beherrschen den Cyberspace durch die Kontrolle der Technologie. Nur noch wenige Menschen haben Einblick dort hinein und die wenigen die es gibt, werden von den Konzernen als höchstes betriebliches Asset beschützt und bewacht. Es finden in der realen Welt sogar Kriege statt, um sich gegenseitig diese spezialisierten Ingenieure wegzunehmen. Der normale Mensch konsumiert nur noch, denn er hat keinen Einblick mehr in die Funktionsweise und Technologie.
Meine Befürchtung ist, dass wir uns in eine solche Welt entwickeln könnten. In eine Abhängigkeit von Technologie, die von Konzernen kontrolliert und nur noch von sehr wenigen Menschen verstanden wird. Individueller Einfluss ist dann kaum noch möglich, genauso wenig, wie man sich dieser Macht dann noch entziehen kann. Es könnte das de-facto Ende der Demokratie bedeuten, hin zu einer wirtschaftsgetriebenen technokratischen Oligarchie. Tendenzen dazu sind bereits deutlich erkennbar. Produzierende Industrie verliert immer mehr an Bedeutung und Einfluss gegenüber wissensbasierten Konzernen. Hinzu kommt der globalisierte Finanzmarkt, der es großen Geldmengen ermöglicht, sich staatlicher Kontrolle sehr weitgehend zu entziehen. So erschaffen diese Konzerne eine Realität außerhalb der Staaten. Wird dies verknüpft mit einer virtuellen Realität, einer Cyber Realität, einem Cyberspace, so spielen Territorien von Staaten und ihr weitgehend darauf begrenzter Einflussbereich endgültig kaum noch eine Rolle.
Meine andere Angst ist der Verlust der Kontrolle. Die Menschheit könnte leicht die Kontrolle über diese KIs verlieren. Die Systeme sind so komplex und riesig, dass wir sie nicht mehr überblicken können. Die Datenmengen sind so gewaltig und divers, dass wir den Zustrom an Wissen und Information in diese Systeme nicht kontrollieren können. Die Komplexität und ihr Vermögen nehmen streng monoton zu, vielleicht sogar exponentiell. Ein Ende ist kaum abzusehen, denn wir kennen aktuell praktisch nichts, dass man als Grenze dieses Wachstums annehmen müsste.
Es ist also auf jeden Fall absehbar, dass diese Systeme irgendwann einmal eine Komplexität und “Intelligenz” erreichen werden, die in vielen, wenn nicht sogar allen, Bereichen der menschlichen Intelligenz und Komplexität ebenbürtig ist. Es ist nur eine Frage der Zeit. Doch was dann? Wir kennen keine Grenze, also wird sie weiter wachsen, wir aber nicht. Ich befürchte, wir werden diesen Schnittpunkt gar nicht mitbekommen, es wird einfach passieren und wir werden es weder merken noch verhindern können.
Doch was passiert danach? Noch haben wir überhaupt gar keine Idee, wie wir mit einem künstlichen Bewusstsein, dass hierbei entstehen wird, umgehen können. Außer den alten Asimovschen Roboter Gesetzen haben wir praktisch nichts. Unsere gesamte Philosophie und Morallehre ist auf den Menschen ausgerichtet, der Mensch als Maß aller Dinge, als Dreh- und Angelpunkt jeder Betrachtung. Das ist auch grundsätzlich gut so, doch was machen wir dann mit einem künstlichen Bewusstsein? Wie können wir dieses reglementieren? Und kann es uns reglementieren? Können wir dann noch so einfach den Stecker ziehen? Oder müssen wir einem nicht menschlichen aber empfindsamen Selbstbewusstsein auch Rechte zugestehen, z.B. ein Recht auf Existenz, auch wenn dieses eben nicht auf menschlichem Leben basiert? Eine Frage die schon länger diskutiert wird, aber noch nicht beantwortet wurde.
Immer mehr Philosophen beschäftigen sich aktuell mit diesem Thema und das finde ich als Fakt bereits bemerkenswert. Mir scheint, dass dieses Jahr überhaupt in die Geschichte eingehen wird, als Jahr, in dem die KI Entwicklung begann, die uns in Zukunft beeinflussen wird und ein Jahr, indem ein allgemeiner Aufbruch in eine neue Zukunft begann, wie durch die Veränderung des Mobilitätsgedankens durch elektro Mobilität und autonome Fahrzeuge.
Es ist eine spannende Zukunft!
Eine Zukunft, die schneller Realität werden wird, als jemals zuvor.