Man könne keine Maschine bauen, die rechnet, so hieß es um 1500. Denn Rechnen sei eine geistige Tätigkeit, dies könne eine Maschine nicht: Und wenn doch, dann stecke der Teufel darin! Auch Gottfried Wilhelm Leibniz meinte um 1700, eine Maschine, „aus deren Struktur gewisse Gedanken, Empfindungen und Perzeptionen erwüchsen“, sei unmöglich. Denn im Inneren einer Maschine würde man „nichts als gewisse Stücke sehen, deren eines an das andere stoßet, niemals aber wird man etwas antreffen, woraus man eine Perzeption oder Empfindung erklären könnte“. Aber nach dem Aufkommen der ersten Computer hielt der Mathematiker Alan Turing maschinelle Intelligenz immerhin für möglich und erdachte 1950 seinen berühmten Test: Ein menschlicher Fragesteller führt über eine Tastatur und einen Bildschirm ohne Sicht- und Hörkontakt mit zwei ihm unbekannten Gesprächspartnern eine Unterhaltung. Der eine Gesprächspartner ist ein Mensch, der andere eine Maschine. Wenn der Fragesteller nicht klar sagen kann, welcher von beiden die Maschine ist, ist der Maschine ein dem Menschen ebenbürtiges Denkvermögen zu unterstellen. Inzwischen sind zahlreiche solcher Tests durchgeführt worden. Ihre Ergebnisse werden jedoch von der Fachwelt unterschiedlich bewertet. Die einen sagen, dass der Test nunmehr bestanden worden sei, die anderen verneinen dies. Besonders vehement vertritt der Philosoph Markus Gabriel die Auffassung, dass sich menschliche Intelligenz niemals durch Maschinen ersetzen lässt.
Dieser Streit ruft ein Zitat von Max Planck in Erinnerung: „Eine neue wissenschaftliche Wahrheit pflegt sich nicht in der Weise durchzusetzen, dass ihre Gegner überzeugt werden und sich als belehrt erklären, sondern vielmehr dadurch, dass ihre Gegner allmählich aussterben und dass die heranwachsende Generation von vornherein mit der Wahrheit vertraut gemacht ist.“
Der obige Streit ist auch ideologiegeprägt: So werden mit dem Wort „künstlich“ auch gern die Synonyme „gekünstelt“, „unnatürlich“, „unecht“ und „gewollt“ assoziiert. (Wenn ein Biber einen Baum fällt, um einen Teich aufzustauen, betrachten wir das als einen „natürlichen“ Prozess. Weshalb sollte dann die Entwicklung eines KI-Programms „künstlich“ sein?) Sodann ist der Begriff „Intelligenz“ sehr unscharf und lässt daher Deutungsspielräume offen. Diese werden gern genutzt, um an der Sonderstellung der menschlichen Intelligenz festzuhalten. Menschliche Intelligenz wird als das definiert, was Maschinen (noch) nicht können.
Unberührt von diesem Streit entwickelt sich die Technik weiter, so auch die Disziplin der Computational Intelligence mit ihren drei Säulen Evolutionäre Algorithmen, Künstliche Neuronale Netze und Fuzzy Control. Die dritte Säule basiert auf der Erfindung der unscharfen Logik (Fuzzy-Logik) durch Lotfi A. Zahdeh (1965). Sie erlaubt eine computergerechte Modellierung sprachlicher Ausdrücke, in denen unscharfe Begriffe wie „etwas“, „ziemlich“ oder „kaum“ vorkommen. Insgesamt ist es mit der Computational Intelligence gelungen, die drei vorwissenschaftlichen Problemlösungsstrategien – Versuch und Irrtum, Nutzung unbewusster Erfahrungen und Nutzung sprachlich kommunizierter Erfahrungen – zu computerisieren. Beispiele für höchst erfolgreiche Anwendungen sind Optimierung, Prognose, Regelung, Datenanalyse, Mustererkennung, Spracherkennung, Schach- und Go-Spiel sowie die Suche nach verborgenen Zusammenhängen. All dies hat unseren Alltag dramatisch verändert.
Wie die obige Liste zeigt, sind viele vermeintlich nur dem Menschen vorbehaltene Bastionen inzwischen gefallen. Wohin kann dies führen? Verortet man diese Bastionen auf einer meerumspülten Insel, dann sieht man, dass das Meer Stück für Stück davon abträgt. Es wäre allerdings voreilig, daraus zu schließen, dass diese Insel alsbald ganz verschwinden wird. Denn das Meer spült an der Rückseite der Insel auch wieder neuen Sand an: Aufgrund der sich ändernden Lebensbedingungen und der menschlichen Weiterentwicklung stellen sich immer wieder ganz neue Aufgaben – etwa in den Bereichen der Digital- und Gentechnik – von denen wir noch nicht wissen, ob sie auch maschinell lösbar sind. Die Insel wandert also, wird aber sicherlich nicht schon morgen gänzlich verschwinden.
Die KI als lernendes Kind
Der Fortschritt dürfte dadurch einen neuen Schub gewinnen, dass man der Entwicklung der maschinellen Intelligenz dieselben Chancen wie der Entwicklung der menschlichen Intelligenz einräumt: Kinder entwickeln sich zu intelligenten und unabhängigen Erwachsenen durch Interaktionen mit anderen Menschen und mit ihrer Umwelt, in der auch zufällige Ereignisse stattfinden. Dabei stellen die Konfrontationen mit Zufällen die Kinder vor Situationen, die von ihren Eltern nicht vorausbedacht werden konnten. Durch die Bewältigung dieser Situationen werden die Kinder autark. Entsprechend sind weitere Fortschritte bei der Entwicklung der maschinellen Intelligenz zu erwarten, indem man Computer miteinander vernetzt und mit einer Umwelt konfrontiert, in der auch zufällige Ereignisse stattfinden. So kann im KI-System Autarkie entstehen, die sich nicht mehr als „stures Abarbeiten von Rechenvorschriften“ inkriminieren lässt.
Erste Realisierungen zeichnen sich ab: Man wird Automobile mit KI-Systemen ausstatten, die sich untereinander absprechen und ohne Eingriff der Fahrer konzertiert agieren können, z.B. zur Ausführung eines für alle gefahrlosen gemeinsamen Bremsmanövers. Die Kehrseite dieser Autarkie der KI-Systeme ist dann aber, dass die KI-Systeme zum Schaden der Fahrer auf Abwege geraten – sogar miteinander konspirieren – könnten. Wie weit diese schon gediehen sind, lässt sich daran ablesen, dass die Robert Bosch GmbH gerade ein Patent für ein Kontrollmodul angemeldet hat, das KI-Systeme am Missbrauch ihrer Autonomie hindern kann.
Ein letzter Blick auf jene Insel: Dort steht die Bastion der Mathematik, die bisher erstaunlich standhaft geblieben ist. Jeder mathematische Beweis hat nämlich eine endliche Länge, er kann aber dennoch eine „Allaussage“, d.h. eine für unendlich viele voneinander verschiedene Fälle zutreffende Aussage, machen. Schon der Lehrsatz des Pythagoras gilt für alle nur denkbaren rechtwinkligen Dreiecke. Solche Allaussagen können Computer, abgesehen von einfachen Sonderfällen, bisher nicht liefern. Sie können jeweils nur immer einen einzelnen Fall – einen nach dem anderen – behandeln. Haben wir überhaupt noch nicht verstanden, was sich im Hirn abspielt, wenn es einen mathematischen Beweis führt?