14 // tetraeder
Es ist schon ungefähr ein Viertel des taz-Kolumnenjahrs um. Eigenartige Zeitrechnung, die da entsteht, aber bitte. Nachfolgend ein weiterer Versuch und unten noch ein paar Lesehinweise. Wohlan.
Weiterlesen im Blog.
Autokorrektor 8 - H-Milch in Milet
Wir hatten ja nichts! Und so stürmten wir in die oberste Etage des Centrum Warenhauses am Alexanderplatz. Die Klassenfahrt fand hier ihre ganze Erfüllung. H-Milch. 250 Milliliter, in drei Geschmackssorten erhältlich. Aber nicht in Rostock. „Tor zur Welt“ war der Beiname der Bezirksstadt mit dem Überseehafen. Berlin jedoch war „Hauptstadt der DDR“. Hier gab es beinahe alles, auch Tore. Ishtar und den Markt von Milet zum Beispiel, im Pergamonmuseum. Da waren wir grad gewesen. Ich hatte einen Vortrag gehalten. Wikipedia gab’s noch nicht zum Abschreiben und kein ChatGPT als Formulierungshilfe, dafür aber Meyers Kleines Lexikon. Das Jahr war 1987. Oder 1988?
Ist ja nicht so wichtig. Im Zeitalter sogenannter künstlicher Intelligenz freuen wir uns doch über wenigstens halbwegs plausible Näherungswerte! Immerhin teile ich hier meine selbst erlebten Erinnerungen und nicht so einen mit statistischen Methoden zusammengerechneten Maschinenfurz. Was kommt es da auf ein Jahr an, bitteschön? Ishtar-Tor und der Markt von Milet stehen wirklich auf der Museumsinsel.
Nicht dass es irgendeinen Sinn ergibt, diese aus unterschiedlichen Zeitaltern stammenden und der Herkunft nach 2.000 Kilometer auseinander liegenden Orte Rücken an Rücken zu kleben. Ihre einzige Gemeinsamkeit ist, dass sie mit „Erlaubnis der Behörden des osmanischen Reiches“ nach Deutschland geklaut wurden. Schwamm drüber.
Heißt ja nicht umsonst Babylon-Berlin. Das hätte keine KI besser halluzinieren können. Obwohl, halluzinieren ist das falsche Wort. Zu menschlich. Schon lustig, wie Anthropomorphie funktioniert. In jedem Haustier sehen wir uns selbst. Und so einem mit Lametta behängten Taschenrechner stellen wir also Fragen. Die Maschine gibt „Antworten“.
Nein, tut sie nicht. Es handelt sich um Ausgaben von Ergebnissen umfangreicher Rechenoperationen, die Wahrscheinlichkeiten gegeneinander abwägen. Beim Abgleich mit der materiellen Realität können diese Ausgaben durchaus passen. Oder grade nicht. Es sind eben nur zufällige Mengen im bewusstseinsleeren Raum. Wir lassen doch auch nicht herz- und hirnlose Entitäten darüber abstimmen, ob 2+2 wirklich 4 oder Asyl ein Menschenrecht ist. Ups, schlechtes Beispiel.
Wir halluzinieren derweil, dass ein paar Schaltkreise kurz vorm Durchbruch zur selbst-bewussten Lebensform stehen. Seltsame Drogen nehmen wir. Hilft es vielleicht beim Entzug, sich vorzustellen, dass ChatGPT gar kein Gesicht hat, und statt dessen aus einem anderen Körperteil zu uns spricht? Ich mein, was da raus kommt, sind schließlich bis zur Unkenntlichkeit verdaute Daten.
Irgendwann wird ein statistisches Modell vor dem Pergamonaltar noch ein Bild der Pyramiden von Gizeh rendern, und zwar als DDR-H-Milch-Tüten. Obwohl die ja Tetraeder waren, also schon von der Grundfläche her… Egal. Ich hab damals jedenfalls keine abbekommen. War zurückgefallen, um mir bei der Lehrerin Lob für meinen Vortrag abzuholen. Hatte sonst ja nichts.
Mit großem Interesse gelesen: In seinem Newsletter vom Montag schreibt Cory Doctorow sehr ausführlich zum Mord an dem Krankenversicherungschef in New York. Anlass ist der Nicht-Zufall, dass Doctorow schon vor Jahren den (in diesem Falle breiter organisierten) Mord aus ohnmächtiger Wut gegenüber den ökonomischen Eliten zum Thema einer Geschichte in seinem Band ”Radicalized” gemacht hatte.
Seine aktuellen Einlassungen zum Thema drehen sich um die us-amerikanische Gun-Culture und den vielfachen Mord aus Profitstreben - im Falle der Krankenversicherungen vor allem Mord durch Unterlassung. Ich finde das alles sehr bedenkens- und diskutierenswert. Denn es folgt ja ein politischer Imperativ, nicht erst aus dem individuellen Terrorakt, sondern aus den Verhältnissen die ihn hervorrufen und ermöglichen. Doctorow schildert in diesem Text, wie auch sonst in unregelmäßigen Abständen, seine Erfahrungen mit dem Gesundheitssystem in den USA. Sein Vergleich aus eigener Anschauung ist dabei Kanada und der britische NHS.
Schon vor ein paar Tagen hatte Zeynep Tufekci in der New York Times weniger die Tat selber, als die in ihrer Grenzenlosigkeit wohl bislang ohne Beispiel gewesene Welle der Häme gegen den Toten zum Anlass genommen, nicht um Stilkritik an den geschmackloseren Witzeleien zu üben, sondern sich analytischer den unzumutbaren gesellschaftlichen Verhältnisse anzunähern.
Man möchte sich gleich gar nicht ausmalen, wohin diese ganze dort beschriebene Wut noch geleitet werden wird in den nächsten Jahren. Der Mord an einem hochdotierten Manager wird da eher die Ausnahme bleiben. Die Milliardärsklasse lässt es sich ja einiges kosten, den Blick der Menschen auf die klassischen Sündenböcke zu lenken.
KI-Radar: Ohne groß danach zu suchen, wird einem ja ständig Kram zu KIs reingespült. Zumeist entweder Promodreck oder Beiträge, die von Problemen mit der Technologie im Einsatz berichten. Hier eine kleine Auswahl aus den vergangenen acht oder so Tagen:
Certain names make ChatGPT grind to a halt, and we know why - anscheinend haben mehrere erfolgreiche Verleumdungsklagen gegen OpenAi dazu geführt, dass die Namen der Beschwerdeführer hard-gecodede Red Flags für die Software sind. "David Mayer", "Jonathan Zittrain", "Jonathan Turley" scheinen ein bisschen wie ein Pentagramm zu wirken, das böse Geister fernhält.
Bias found in AI system used to detect UK benefits fraud - selbstverständlich hat die KI, mit der in GB angeblicher Sozialmissbrauch verfolgt wird, Vorurteile gegenüber bestimmten Bevölkerungsgruppen. Welche genau, wird durch die Behörde nicht verraten, um “gaming the system” zu verhindern. Was auch ein bisschen lustig ist. Na, ich tippe mal auf die übliche Kombi aus Rassismus und Mysogynie.
Hard truths about AI-assisted coding - Viele Entwickler*innen nehmen KIs beim Programmieren zu Hilfe. In diesem Stück wird deutlich, dass es ein bisschen ist wie mit dem Fernsehen. Ich erinnere mich an eine Studie, die mal entdeckte, dass die Glotze gar nicht per se dumm macht, sondern abhängig von Herkunft und Bildungsgrad der Zuschauerin sogar sehr nützlich sein kann. Und siehe da, wer viel Programmiererfahrung hat, kann KI nutzbringend einsetzen, die anderen produzieren aber laut dieser Einschätzung maschinengestützt fortlaufend schlechteren Code.
A Political Economy of “Human-in-the-Loop” - eine Studie zur oft übersehenen menschlichen Arbeit, die in die Bereinigung der Mülldaten fließt, mit denen KIs gefüttert werden und die sie ausgeben. Menschliche Arbeit die im Regelfall entlang der alten Kolonialreiche verteilt wird. Was für ein “Zufall”.
Polizei in SH will künftig auf Gesichtserkennung und KI setzen - Überwachungstechnologie bei Demos. Das ist ungefähr so gut, wie bei “Sozialbetrug” oder an den europäischen Außengrenzen. Was soll da schon schiefgehen…
Soweit nicht anders vermerkt, unterliegen alle Texte und Bilder von mir der CC-Lizenz: CC BY-NC-SA 4.0 Deed (Namensnennung - Nicht-kommerziell - Weitergabe unter gleichen Bedingungen)