Turingtest revisited


Große Erwartungen knüpfen sich an Künstliche Intelligenz. Vorerst aber greifen Menschen den vermeintlich schlauen Maschinen noch unter die Arme.


Mai 2019



Ob wir dies bemerken oder nicht – immer öfter begegnet uns Künstliche Intelligenz im Alltag. Computerprogramme, die selbständig entscheiden und handeln sowie ständig dazulernen sind längst keine Seltenheit mehr und verändern unser Leben: Digitale Sprachassistenten, die für uns im Internet recherchieren oder den gewünschten Musiktitel abspielen, Haushaltsroboter, die beim Fensterputzen und Staubsaugen helfen, an unsere Interessen und Vorlieben angepasste Newsfeeds, Chatbots, die im Kundenservice Rede und Antwort stehen und selbst autonom fahrende Autos sind auf dem besten Weg die Straßen zu erobern.

Dass die schlauen Maschinen unter uns sind und die unterschiedlichsten Aufgaben erledigen, ist Anstoß, auch über die menschliche Intelligenz, über das Verhältnis zwischen Mensch und Maschine sowie die Grenze zwischen menschlicher und künstlicher Intelligenz nachzudenken. Wann kann eine Maschine überhaupt als intelligent gelten? Um diese Frage zu beantworten, hat der britische Mathematiker und Informatiker Alan Turing bereits Mitte des letzten Jahrhunderts einen Test entwickelt: In einem „Imitationsspiel“ soll herausgefunden werden, ob ein Computer denken kann wie ein Mensch oder nicht, indem diesem Fragen gestellt werden. Kann sich der menschliche Fragesteller schließlich nicht entscheiden, ob ein Mensch oder eine Maschine antwortet, dann soll dies der Beweis für die Intelligenz des Computers sein.

Wie kann man aber heute angesichts der immer weiteren Verbreitung immer schlauer werdender Maschinen noch sichergehen, mit einem Menschen zu interagieren oder nicht doch mit einer Maschine? Auch wenn es an der Oberfläche so scheint, dass die Grenze zwischen menschlicher und künstlicher Intelligenz verwischt, so hat die Entwicklung von KI-Anwendungen doch eine Menge Tücken. Wer hinter die Kulissen blickt, entdeckt schnell, dass der Einsatz Künstlicher Intelligenz in der Praxis hinter den Erwartungen und Versprechungen zurückbleibt und die Bots weit weniger schlau sind als kolportiert. Die Schwierigkeiten sind in vielen Fällen gar derart groß, dass die Maschinen ohne menschliche Hilfe nicht auskommen. Oder aber die Entwickler stellen fest, dass menschliche Arbeitskräfte die einfachere und kostengünstigere Alternative sind.

Als Pseudo-KI wird der Trick der menschlichen Mithilfe bezeichnet, der vor allem dann zum Einsatz kommt, wenn es um Aufgaben geht, die Computern äußerst schwer fallen, für den Menschen hingegen ein Kinderspiel sind. Automatische Bilderkennung ist so ein Beispiel, bei dem Maschinen zwar bereits große Fortschritte gemacht haben, aber immer noch meilenweit davon entfernt sind, fehlerfrei zu funktionieren, geschweige denn, es mit dem Menschen aufzunehmen. Folglich greifen in diesem Bereich immer noch Menschen den Maschinen helfend unter die Arme und bearbeiten die kniffligeren Fälle. Denn Bilderkennungsalgorithmen machen teilweise bizarre Fehler, wenn sie etwa Schafe erkennen, wo gar keine sind oder eine Blumenwiese vor sich zu haben meinen, wo jedoch Schafe mit orange gefärbter Wolle auf dem Rasen stehen.

Dass der Mensch so tut, als sei er eine Maschine, ist kein gänzlich neues Prinzip. Pseudo-KI findet einen frühen Vorläufer im so genannten „Schachtürken“ aus dem 18. Jahrhundert. Dabei handelt es sich vorgeblich um eine Schachmaschine, die einem in türkische Tracht gekleideten Mann nachempfunden ist, der vor einem Tisch mit Schachbrett sitzt. Das Gerät war allerdings eine Täuschung, da in seinem Inneren ein menschlicher Schachspieler verborgen war, der mittels einer mechanischen Vorrichtung die Schachzüge der Puppe steuerte. Dieser „Schachtürke“ diente später Amazon als Namenspate für seinen „Mechanical Turk“, einer Internetplattform, auf der Arbeitsaufgaben der beschriebenen Art – schwierig für Maschinen, kinderleicht für Menschen – an das Heer von Klickarbeitern im Internet ausgelagert werden.

Immer mehr Unternehmen gehen heute nach eben diesem Prinzip vor, um die mit KI verbundenen Probleme zu umschiffen. Dabei ist noch nicht ganz klar, wohin die Strategie des Hand-in-Hand-Arbeitens von menschlicher und künstlicher Intelligenz führen soll: Einerseits könnte es eine zeitweilige Brücke sein zu einer ausgereiften KI, die ohne Menschen auskommt; andererseits ist ebenso gut denkbar, dass die Arbeitsteilung bestehen bleibt, um das Beste beider Welten – die Skalierbarkeit der Maschine mit der Kompetenz des Menschen – zu kombinieren.

Der Turingtest scheint heute aktueller und notwendiger denn je. Doch müsste dieser wohl neu definiert werden, um in beide Richtungen zu funktionieren: Haben wir es mit einem Roboter zu tun, der sich wie ein Mensch verhält oder doch eher mit einem Menschen, der sich als Maschine ausgibt?

Teilen

Weitere Artikel dieser Ausgabe:

f/21 Quarterly liefert Ihnen 4-mal jährlich frisches Zukunftswissen direkt in Ihr Postfach.
Registrieren Sie sich jetzt kostenlos!