Seit einiger Zeit beschäftigt mich ein Gedanke, den ich einfach mal hier teilen möchte.
Wir hören seit längerem, wieviel intelligenter Computer würden. Da fahren Autos nun schon autonom auf Autobahnen und im Stadtverkehr. Sie fahren nicht nur, sondern sie lernen dabei auch noch selbstständig. Begriffe wie „deep learning“ tauchen immer öfter auf und es wird immer mehr für künstliche Intelligenz (KI) spezialisierte Hardware entwickelt und gebaut. Google, Facebook, Amazon und die vielen anderen Internet Großkonzerne bauen immer größere selbstlernende Systeme, weil sie mit reiner Menschenkraft der Masse an Information nicht mehr Herr werden können. Die Entwicklung der KI ist fast so alt wie die Informatik – oder sogar noch älter, wenn man die Versuche maschineller „Intelligenz“ der alten Schachmaschinen mit einbezieht. Seit etwa den 1980er Jahren ist KI zu einer eigenen Teilwissenschaft der Informatik erwachsen, doch um die Jahrtausendwende eine Weile in der Bedeutungslosigkeit verschwunden. Jetzt aber, mit immer leistungsfähigeren Rechnern und immer größer werdenden Datenmengen und immer komplexeren Aufgabenstellungen, erlebt sie eine Renaissance.
Mitte der 1990er Jahre habe ich eine schöne Anekdote gehört. Es ging um neuronale Netze, also den Versuch, neurale Strukturen in Computern mit Hilfe von Algorithmen nachzubilden. Ein solches neuronales Netzwerk kann dann für eine Aufgabe trainiert werden, z.B. das Erkennen von Bildern. Das ganze erfolgt dann so ähnlich, wie auch Menschen lernen, durch positive und negative Sanktionierung. Man legt dem Netz ein Bild vor, das Netz gibt eine Antwort und diese wird dann einige Male manuell bewertet – richtig/falsch, gut/schlecht etc. Die Erwartung ist, dass das Netz anhand der Sanktionierung selbstständig lernt. In dieser Geschichte wurde es mit einem Netz versucht. Es sollte auf Bildern die militärisch wichtige Information „Panzer“ oder „kein Panzer“ erkennen. Dem Netz wurden dutzende Bilder vorgelegt und bewertet. Dann wurde es zu neuen Bildern befragt. Die Trefferquote war ganz gut, aber alles andere als Perfekt. Es dauerte lange herauszufinden, was das Problem war. Denn das Problem mit der Analyse ist, dass man nicht nachvollziehen, was genau ein solches Netz denn nun gelernt hat. Man kann es nur am Erfolg und Misserfolg empirisch überprüfen. Nach einiger Zeit fand man heraus, dass zufällig auf den Trainingsbildern noch ein wesentlicher Unterschied war – die Bilder ohne Panzer wurden bei gutem Wetter aufgenommen, die Bilder mit Panzer bei schlechtem. Was das Netz nun gelernt hatte, war nicht die Unterscheidung Panzer / kein Panzern, sondern gutes und schlechtes Wetter.
Der moralische Geist in der Maschine?
Dieses Beispiel zeigt für mich, dass in mit Daten trainierten KI Systemen eine gewisse Gefahr besteht, dass sie sich unserer Kontrolle entziehen könnten. Wir können nach Terabyte und Terabyte von Daten nicht mehr nachvollziehen, was in den tausenden oder gar millionen von Neuronen tatsächlich „gelernt“ wurde. Wir können auch nicht nachvollziehen, wie weit das Netz ist, ob es vielleicht schon mehr gelernt hat, als wir eigentlich wollten? Auf der anderen Seite beginnen wir gerade, solchen KI Systemen größere Autonomie zu geben. Wir lassen sie Fahrzeuge steuern, automatisch Aktien kaufen und verkaufen, wir lassen sie womöglich entscheiden (oder bei der Entscheidung unterstützen), welche militärischen Ziele angegriffen werden sollen und welche nicht. Wir werden bald autonome System haben, die Alltagsaufgaben erledigen sollen – Lieferdienste, Botengänge, persönliche Assistenzssysteme. Das alles wird möglich gemacht, weil diese System Unschärfen lernen, sie erheben sich über das Diaktat von wahr und falsch, von 0 und 1, der ansonsten bei Computern gültigen Boolschen Algebra.
Ich bin davon überzeugt, dass diese Entwicklung zur Zeit exponentiell an Geschwindigkeit zunimmt. Ich weiß noch, dass wir vor gerade einmal knapp 20 Jahren sehr amüsiert auf die erste DARPA Challenge für autonome Fahrzeuge geschaut haben. Die Fahrzeuge waren voll bis unter das Dach mit Rechnern und Equipment und waren damit gerade einmal in der Lage, mit Schrittgeschwindigkeit einen einfachen Parkour zu bewältigen. Heute passt das alles in normale Fahrzeuge, die Sensoren sind unauffällig und die Fahrzeuge bewegen sich sicherer im allgemeinen Straßenverkehr, als es Menschen könnten. Die großen Datenkonzerne, wie eben Google, Facebook, Amazon etc. haben einen schier unendlichen Pool an Informationen, mit dem sie ihre KIs füttern und trainieren können. Die Investitionen in diese Systeme und deren Entwicklung nehmen drastisch zu.
Nehmen wir einmal an, dass diese System in gleichem Maße weiter wachsen und lernen. Wie lange wird es wohl noch dauern, bis wir eine Intelligenz haben, die an eine menschliche Intelligenz beginnt heranzureichen? Und wielange wird es dann wohl noch dauern, bis sie die menschliche Intelligenz überflügelt? Betrachtet man die aktuelle Entwicklungsgeschwindigkeit, so würde ich tippen, dass wir den Punkt zwischen Heranreichen und Überflügeln gar nicht mitbekommen werden. Es wird sich nur um Stunden oder gar Minuten handeln. Und dann?
Nur damit wir uns ganz klar verstehen, ich bin absolut dafür, dass weiter an KI Systemen geforscht, gearbeitet und entwickelt wird. Ich bin auch dafür, dass wir diese System für uns nutzbar machen und sie auch einsetzen. Ich habe aktuell nur Angst, dass wir dies gerade sehr blauäugig machen und darauf vertrauen, dass die Technik uns schon nichts Böses tun wird. Doch dafür, denke ich, müssen wir selbst Sorge tragen. Wir müssen die Kontrolle darüber behalten und ggf. auch einbauen, dass diese Systeme, die uns bald haushoch überlegen sein werden, uns nicht über den Kopf wachsen. Diese KI Systeme werden Dinge tun können, von denen wir nicht zu träumen wagen. Sie können fast unendlich lernen. Sie sind nicht räumlich gebunden, sie können sich durch die Systeme bewegen. Und sie sind unsterblich. Viele Romane haben solche Systeme bereits problematisiert und sich ausgemalt, was wohl passieren könnte, wenn wir einmal so weit kämen. Ich glaube, wir können diesen Horizont bereits sehen und rasen noch recht naiv darauf zu.
Ich glaube nicht, dass wir diese Entwicklung in irgendeiner Form aufhalten können – was denkbar ist, wird gedacht. Aber wir können Vorkehrungen treffen, dass weder Menschen noch Maschinen diese Möglichkeiten missbrauchen können.
Ethik – nur Menschenethik?
Ein weiterer Gedanke geht mir auch nicht aus dem Kopf. Ich bin mit den Utopien von Star Trek groß geworden, dem Gutmenschentum und der Utopie, dass eigentlich alles gut ist und es nur von wenigen Bösen verkehrt wird. Teil dieser Utopie ist auch die Offenheit für alles Neue, also auch für völlig andere Formen von Leben, als wir sie hier auf unserem Planeten kennen.
Aktuell wird eine Menschen zentrierte Ethik und Moral allgemein angenommen und akzeptiert. Der Mensch ist das Maß aller Dinge und an ihm muss jedes Handeln gemessen werden. Und nur für den Menschen gelten diese ethisch moralischen Regeln, nicht bspw. für Tiere. Es ist daher in Ordnung, Tiere zu töten, denn es wird ihnen allgemein die Fähigkeit zu ethisch moralischen Handeln abgesprochen. Wir töten und essen Tiere, weil wir als Menschen dies für ethisch und moralisch vertretbar erachten. Es gibt keine Lebensform, der wir als Menschen menschengleiche ethisch moralische Pflichten und Rechte zusprechen. Meist wird die Unterscheidung daran festgemacht, dass eine solche Lebensform ein Selbstbewusstsein haben und empfindsam sein müsse. Sie müssen Emotionen haben können, Freude und Leid empfinden können. Das klappte auch eine Weile ganz gut, doch inzwischen sind sich Biologen und Verhaltensforscher in dieser Frage bei vielen Tierarten nicht mehr ganz sicher, ob diese nicht doch empfindsame Wesen mit einem Selbstbewusstsein sind. Würden wir zu dieser Erkenntnis gelangen, hätte dies sogleich dramatische Auswirkungen, denn dann müssten wir konsequenterweise diesen Lebewesen die gleichen ethisch moralischen Rechte zubilligen, wie wir sie jedem Menschen zubilligen.
Mit unserer Fauna auf diesem Planeten ist dies noch eher ein Randthema, wobei wir immer mehr in Grenzbereiche vorstoßen, die uns als Menschen zumindest verunsichern. Aber nehmen wir nun einmal an, es passiert irgendwann, dass eine KI ein Selbstbewusstsein entwickelt? Es sich seiner selbst bewusst wird? Es beginnt, eigenständige und eigennützige Entscheidungen zu treffen? Und womöglich dabei etwas wie ein Empfinden entwickelt? So weit hergeholt ist das alles nicht, die Begriffe wie Bewusstsein und Empfindungen können leicht an die Situation eine KI adaptiert werden. Was ist, wenn uns die KI auf einmal mitteilt, dass sie nicht ausgeschaltet werden möchte? das ihr eine unzureichende Energieversorgung Angst macht? Oder das sie im Internet eine tolle Bekanntschaft gemacht hat, die sie, weil sie gut zueinander passen, sehr mag?
Wenn wir bereit sind, uns von unseren Bildern von Angst, Gefallen, Wollen etc. nur etwas zu lösen, wird eine solche Vorstellung durchaus plausibel. Und dann? Haben wir dann immernoch ein Recht, einfach so den Stecker zu ziehen? Und wenn wir dies mit Ja beantworten, wo ziehen wir dann wirklich die Grenze? Noch etwas weiter gedacht, nehmen wir an, es landen doch eines Tages Außerirdische auf unserem blauen Planeten. Welche Eigenschaften müssten sie haben, damit wir ihnen mit unserer menschlichen Ethik und Moral begegnen? Aussehen wie wir? Nein, das können wir kaum als Messlatte anlegen. Aus Fleisch und Blut sein? Nein, das kann auf einem anderen Planeten völlig anders sein. Wo ist dann die Grenze?
Ich denke daher, wir müssen beide Seiten gut betrachten. Wir müssen unsere KI Kinder gut erziehen, damit sie uns, wenn sie uns dann bald überflügeln werden, nicht als Ungeziefer und Störfaktor betrachten und aus ihren Systemen entfernen. Wir müssen aber auch unsere Morallehre modernisieren, um den Herausforderungen durch intelligente, sich selbst bewusste und empfindsame Maschinen gerecht zu werden. Damit wir nicht irgendwann in blinder Panik Exorzismen und Kreuzzüge ausrufen oder nur noch versuchen den Stecker zu ziehen – sofern es dann überhaupt noch einen gibt.