„Was, Sie merken nicht, dass Sie mit einem Computer sprechen?“

Letzten Monat hat die Universität von Reading verkündet, dass erstmals ein Computer den vor 64 Jahren definierten Turing Test bestanden hat. Alan Turing, ein britischer Mathematiker und Informatiker, hatte diesen Test im Jahr 1950 vorgeschlagen, um festzustellen, ob eine Maschine ein dem Menschen ebenbürtiges Denkvermögen besitzt. Der Test soll also der Feststellung von künstlicher Intelligenz dienen und Turing erwartete, dass er im Jahr 2000 bestanden werden könnte.

Kurz gesagt geht es darum, ob menschliche Fragensteller in einer fünfminütigen, freien Konversation über Tastatur und Bildschirm zu mehr als 30% nicht mehr zwischen einem menschlichen Gegenüber und einem Computer als Gesprächspartner unterscheiden können. Ob sich mit diesem Test nun tatsächlich künstliche Intelligenz feststellen lässt, ist inzwischen umstritten und die Testbedingungen in Reading waren sicherlich auch etwas eigenwillig (hier mehr zum Turing Test).

Was sich aber zweifelsohne feststellen lässt: Die unbelebte Welt um uns herum fühlt sich zunehmend intelligenter an. Dem Smartphone oder Tablet in unserer Hand ist „irgendwie bewusst“, wo es sich befindet, welche Tageszeit wir haben, wie das Wetter gerade ist und unsere persönlichen, digitalen Assistenten „wissen“ und teilen uns mit, dass wir aufgrund eines Verkehrsstaus früher als sonst zum Flughafen aufbrechen sollten oder dass wir heute vielleicht mal wieder zu wenig Bewegung hatten.

Möglich wird dies alles durch Sensoren, deren Vernetzung und eine Vielzahl von lernenden Algorithmen, die „Erkenntnisse“ ermöglichen, inzwischen eben auch für alle Arten von Computern.

Wie weit wir damit bereits sind, zeigt eindrucksvoll und aktuell das Projekt Adam von Microsoft Research, in dem ein neuronales Netzwerk durch eine Vielzahl von Servern in der Microsoft Azure Cloud aufgebaut wird. Dieses Netzwerk ist in besonderem Maße lernfähig, da es asynchron arbeiten und quasi Analyse-Unteraufgaben im Netzwerk verteilen kann, die weitgehend unabhängig voneinander gelöst werden und danach zu einer „Gesamterkenntnis“ verschmolzen werden.

Beeindruckend ist beispielsweise das Ergebnis, das dieses kurze Demo-Video zeigt, in dem sich Cortana, Microsoft’s persönliche Assistentin auf dem Windows Phone, die Lernfähigkeiten von Projekt Adam zunutze macht, um zuverlässig Hunderassen zu erkennen.

[View:~/cfs-file.ashx/__key/communityserver-blogs-components-weblogfiles/00-00-00-87-18/140810_5F00_Gastbeitrag_5F00_AI_5F00_Astrid_5F00_MP4.mp4:0:0] 

Übrigens hat Cortana auch die Gewinner aller Endrundenspiele der Fußballweltmeisterschaft richtig vorher gesagt.

Das sich entwickelnde Internet der Dinge wird uns auf dem Weg zu künstlicher Intelligenz deutlich weiter bringen. Eine unglaubliche Zahl unterschiedlicher, miteinander vernetzter Sensoren, gigantische, verteilte Verarbeitungs- und Speicherkapazitäten, effiziente Algorithmen zur Analyse und Interpretation – diese Beschreibung vom Internet der Dinge passt eben auch auf das menschliche Gehirn.

 

Written by

Thomas Langkabel,
National Technology Officer, Microsoft Deutschland