Die Washington Post hat einige gute Artikel zu den Grenzen der aktuell diskutierten ChatBots, speziell Bing:
Das Problem ist, dass viele Menschen denken, dass die KI etwas "versteht" und auf dieser Grundlage handelt. Tatsächlich wird aber ein Wort wie Auto immer nur eine Bitfolge ohne weitere Bedeutung sein. Sie wird in Relation gesetzt zu Situationen, in denen dieses Wort eingesetzt worden ist. Als Quelle dient das gesamte Internet. Eine Möglichkeit, zwischen true und false zu unterscheiden bei einer Aussage, hat die KI nicht. Sie kann nur vergleichen mit irgendwas, was sie im Internet gelesen hat. Da aber die Veröffentlichung eines Textes im Internet nichts über seine Korrektheit aussagt, muss die KI über Häufigkeit von Aussagen versuchen, auf die richtige Antwort zu tippen.
All das geschieht mittlerweile auf einem sehr hohen Niveau. Trotzdem bleibt ein Computer eine dumme Kiste, die nur zwischen Strom da und Strom weg in einem Register unterscheiden kann. Wenn aber die KI kein zuverlässiges eigenes Verständnis hat, wird sie unzuverlässig bleiben. Vor allem, weil sie im Brustton der Überzeugung den größten Mist von sich geben wird, ohne mit der nicht vorhandenen Wimper zu zucken. Mir gefällt der Ausdruck in einem der Artikel, dass diese KIs "autocomplete on steroids" sind. Man könnte auch sagen, dass eine KI genauso zuverlässig ist wie der erste gefundene Eintrag bei google. Manchmal hat man Glück, manchmal nicht.
Die Krux ist aber, dass die meisten Menschen die Ergebnisse nicht hinterfragen werden (so wie sie google-Ergebnisse nicht hinterfragen). Und damit wird dann die ganze gequirlte Verdauungsausscheidung des Internets zum Fakt.
Ein gutes Ergebnis bekommt man, wie schon oben gezeigt, nur dann, wenn man die richtige Antwort weiß und entsprechend präzise nachfragt.