Es lebt! Es leeeeeeeebt!
Und das bringt mich zu einer anderen verwandten Geschichte: die Frage, ob komplexe Machine Learning Modelle ein Bewusstsein haben. Davon ist zumindest der Entwickler Blake Lemoine ĂĽberzeugt (und hat auch erstmal ein wirklich
beeindruckend langes WaPo Profil bekommen).
Nach einem Gespräch mit Googles LaMDA-Modell (einem Sprachmodell) kam Lemoine auf Basis der Antworten des Modells zu dem Schluss, dies hätte nicht nur ein Bewusstsein, sondern auch Gefühle.
Ähnlich wie beim “Crungus” tut auch ein Sprachmodell nur das, was ich von ihm erwarte. Frage ich es etwa nach seinem Leben als
Eichhörnchen oder
Katze wird es mir lang und ausführlich über seine Schlafgewohnheiten erzählen.
Das Modell reproduziert schlicht Muster, die es mit Wörtern in Verbindung bringt. Ein echtes Verständnis der Realität hat es nicht entwickelt.
Magie, Mythen, Machine Learning
Der entscheidende Faktor ist also nicht, ob ein Machine Learning ein bisher unentdecktes Monster kennt oder etwa ein Bewusstsein hat (oder eine Katze ist), sondern wie bereit ich bin dies zu glauben.
The correct response to uncertainty is mythmaking.
Wenn wir nicht verstehen wie eine komplexe Maschine funktioniert, erfinden wir eine fĂĽr uns plausible und spannende Geschichte. Einen Mythos. Und Machine Learning Modelle sind perfekt fĂĽr die Konstruktion von Mythen, denn sie fĂĽllen die LĂĽcken bereitwillig.