Suche
Was unterscheidet Mensch und Maschine?

Künstliche Intelligenz: Reflektionen und Perspektiven

| von
Was unterscheidet Mensch und Maschine? Kann die Maschine dem Menschen ebenbürtig werden – oder ihn gar überflügeln?

Man kön­ne kei­ne Maschi­ne bau­en, die rech­net, so hieß es um 1500. Denn Rech­nen sei eine geis­ti­ge Tätig­keit, dies kön­ne eine Maschi­ne nicht: Und wenn doch, dann ste­cke der Teu­fel dar­in! Auch Gott­fried Wil­helm Leib­niz mein­te um 1700, eine Maschi­ne, „aus deren Struk­tur gewis­se Gedan­ken, Emp­fin­dun­gen und Per­zep­tio­nen erwüch­sen“, sei unmög­lich. Denn im Inne­ren einer Maschi­ne wür­de man „nichts als gewis­se Stü­cke sehen, deren eines an das ande­re sto­ßet, nie­mals aber wird man etwas antref­fen, wor­aus man eine Per­zep­ti­on oder Emp­fin­dung erklä­ren könn­te“. Aber nach dem Auf­kom­men der ers­ten Com­pu­ter hielt der Mathe­ma­ti­ker Alan Turing maschi­nel­le Intel­li­genz immer­hin für mög­lich und erdach­te 1950 sei­nen berühm­ten Test: Ein mensch­li­cher Fra­ge­stel­ler führt über eine Tas­ta­tur und einen Bild­schirm ohne Sicht- und Hör­kon­takt mit zwei ihm unbe­kann­ten Gesprächs­part­nern eine Unter­hal­tung. Der eine Gesprächs­part­ner ist ein Mensch, der ande­re eine Maschi­ne. Wenn der Fra­ge­stel­ler nicht klar sagen kann, wel­cher von bei­den die Maschi­ne ist, ist der Maschi­ne ein dem Men­schen eben­bür­ti­ges Denk­ver­mö­gen zu unter­stel­len. Inzwi­schen sind zahl­rei­che sol­cher Tests durch­ge­führt wor­den. Ihre Ergeb­nis­se wer­den jedoch von der Fach­welt unter­schied­lich bewer­tet. Die einen sagen, dass der Test nun­mehr bestan­den wor­den sei, die ande­ren ver­nei­nen dies. Beson­ders vehe­ment ver­tritt der Phi­lo­soph Mar­kus Gabri­el die Auf­fas­sung, dass sich mensch­li­che Intel­li­genz nie­mals durch Maschi­nen erset­zen lässt.

Die­ser Streit ruft ein Zitat von Max Planck in Erin­ne­rung: „Eine neue wis­sen­schaft­li­che Wahr­heit pflegt sich nicht in der Wei­se durch­zu­set­zen, dass ihre Geg­ner über­zeugt wer­den und sich als belehrt erklä­ren, son­dern viel­mehr dadurch, dass ihre Geg­ner all­mäh­lich aus­ster­ben und dass die her­an­wach­sen­de Gene­ra­ti­on von vorn­her­ein mit der Wahr­heit ver­traut gemacht ist.“

Der obi­ge Streit ist auch ideo­lo­gie­ge­prägt: So wer­den mit dem Wort „künst­lich“ auch gern die Syn­ony­me „geküns­telt“, „unna­tür­lich“, „unecht“ und „gewollt“ asso­zi­iert. (Wenn ein Biber einen Baum fällt, um einen Teich auf­zu­stau­en, betrach­ten wir das als einen „natür­li­chen“ Pro­zess. Wes­halb soll­te dann die Ent­wick­lung eines KI-Pro­gramms „künst­lich“ sein?) Sodann ist der Begriff „Intel­li­genz“ sehr unscharf und lässt daher Deu­tungs­spiel­räu­me offen. Die­se wer­den gern genutzt, um an der Son­der­stel­lung der mensch­li­chen Intel­li­genz fest­zu­hal­ten. Mensch­li­che Intel­li­genz wird als das defi­niert, was Maschi­nen (noch) nicht kön­nen.

Unbe­rührt von die­sem Streit ent­wi­ckelt sich die Tech­nik wei­ter, so auch die Dis­zi­plin der Com­pu­ta­tio­nal Intel­li­gence mit ihren drei Säu­len Evo­lu­tio­nä­re Algo­rith­men, Künst­li­che Neu­ro­na­le Net­ze und Fuz­zy Con­trol. Die drit­te Säu­le basiert auf der Erfin­dung der unschar­fen Logik (Fuz­zy-Logik) durch Lot­fi A. Zah­deh (1965). Sie erlaubt eine com­pu­ter­ge­rech­te Model­lie­rung sprach­li­cher Aus­drü­cke, in denen unschar­fe Begrif­fe wie „etwas“, „ziem­lich“ oder „kaum“ vor­kom­men. Ins­ge­samt ist es mit der Com­pu­ta­tio­nal Intel­li­gence gelun­gen, die drei vor­wis­sen­schaft­li­chen Pro­blem­lö­sungs­stra­te­gien – Ver­such und Irr­tum, Nut­zung unbe­wuss­ter Erfah­run­gen und Nut­zung sprach­lich kom­mu­ni­zier­ter Erfah­run­gen – zu com­pu­te­ri­sie­ren. Bei­spie­le für höchst erfolg­rei­che Anwen­dun­gen sind Opti­mie­rung, Pro­gno­se, Rege­lung, Daten­ana­ly­se, Mus­ter­er­ken­nung, Sprach­er­ken­nung, Schach- und Go-Spiel sowie die Suche nach ver­bor­ge­nen Zusam­men­hän­gen. All dies hat unse­ren All­tag dra­ma­tisch ver­än­dert.

Wie die obi­ge Lis­te zeigt, sind vie­le ver­meint­lich nur dem Men­schen vor­be­hal­te­ne Bas­tio­nen inzwi­schen gefal­len. Wohin kann dies füh­ren? Ver­or­tet man die­se Bas­tio­nen auf einer meer­um­spül­ten Insel, dann sieht man, dass das Meer Stück für Stück davon abträgt. Es wäre aller­dings vor­ei­lig, dar­aus zu schlie­ßen, dass die­se Insel als­bald ganz ver­schwin­den wird. Denn das Meer spült an der Rück­sei­te der Insel auch wie­der neu­en Sand an: Auf­grund der sich ändern­den Lebens­be­din­gun­gen und der mensch­li­chen Wei­ter­ent­wick­lung stel­len sich immer wie­der ganz neue Auf­ga­ben – etwa in den Berei­chen der Digi­tal- und Gen­tech­nik – von denen wir noch nicht wis­sen, ob sie auch maschi­nell lös­bar sind. Die Insel wan­dert also, wird aber sicher­lich nicht schon mor­gen gänz­lich ver­schwin­den.

Die KI als lernendes Kind

Der Fort­schritt dürf­te dadurch einen neu­en Schub gewin­nen, dass man der Ent­wick­lung der maschi­nel­len Intel­li­genz die­sel­ben Chan­cen wie der Ent­wick­lung der mensch­li­chen Intel­li­genz ein­räumt: Kin­der ent­wi­ckeln sich zu intel­li­gen­ten und unab­hän­gi­gen Erwach­se­nen durch Inter­ak­tio­nen mit ande­ren Men­schen und mit ihrer Umwelt, in der auch zufäl­li­ge Ereig­nis­se statt­fin­den. Dabei stel­len die Kon­fron­ta­tio­nen mit Zufäl­len die Kin­der vor Situa­tio­nen, die von ihren Eltern nicht vor­aus­be­dacht wer­den konn­ten. Durch die Bewäl­ti­gung die­ser Situa­tio­nen wer­den die Kin­der aut­ark. Ent­spre­chend sind wei­te­re Fort­schrit­te bei der Ent­wick­lung der maschi­nel­len Intel­li­genz zu erwar­ten, indem man Com­pu­ter mit­ein­an­der ver­netzt und mit einer Umwelt kon­fron­tiert, in der auch zufäl­li­ge Ereig­nis­se statt­fin­den. So kann im KI-Sys­tem Aut­ar­kie ent­ste­hen, die sich nicht mehr als „stu­res Abar­bei­ten von Rechen­vor­schrif­ten“ inkri­mi­nie­ren lässt.

Ers­te Rea­li­sie­run­gen zeich­nen sich ab: Man wird Auto­mo­bi­le mit KI-Sys­te­men aus­stat­ten, die sich unter­ein­an­der abspre­chen und ohne Ein­griff der Fah­rer kon­zer­tiert agie­ren kön­nen, z.B. zur Aus­füh­rung eines für alle gefahr­lo­sen gemein­sa­men Brems­ma­nö­vers. Die Kehr­sei­te die­ser Aut­ar­kie der KI-Sys­te­me ist dann aber, dass die KI-Sys­te­me zum Scha­den der Fah­rer auf Abwe­ge gera­ten – sogar mit­ein­an­der kon­spi­rie­ren – könn­ten. Wie weit die­se schon gedie­hen sind, lässt sich dar­an able­sen, dass die Robert Bosch GmbH gera­de ein Patent für ein Kon­troll­mo­dul ange­mel­det hat, das KI-Sys­te­me am Miss­brauch ihrer Auto­no­mie hin­dern kann.

Ein letz­ter Blick auf jene Insel: Dort steht die Bas­ti­on der Mathe­ma­tik, die bis­her erstaun­lich stand­haft geblie­ben ist. Jeder mathe­ma­ti­sche Beweis hat näm­lich eine end­li­che Län­ge, er kann aber den­noch eine „All­aus­sa­ge“, d.h. eine für unend­lich vie­le von­ein­an­der ver­schie­de­ne Fäl­le zutref­fen­de Aus­sa­ge, machen. Schon der Lehr­satz des Pytha­go­ras gilt für alle nur denk­ba­ren recht­wink­li­gen Drei­ecke. Sol­che All­aus­sa­gen kön­nen Com­pu­ter, abge­se­hen von ein­fa­chen Son­der­fäl­len, bis­her nicht lie­fern. Sie kön­nen jeweils nur immer einen ein­zel­nen Fall – einen nach dem ande­ren – behan­deln. Haben wir über­haupt noch nicht ver­stan­den, was sich im Hirn abspielt, wenn es einen mathe­ma­ti­schen Beweis führt?

Inhalt teilen

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Ähnliche Beiträge

Ein persönlicher Nachruf

Die ehemalige Vorstandsvorsitzende der Humanisten Baden-Württemberg, ...

Nach oben scrollen