Editorial
Liebe Leserinnen, liebe Leser,
lange Zeit habe ich mich dagegen gewehrt, etwas über Künstliche Intelligenz einfach so in den Raum zu schreiben. Für mich hätte das etwas von einem Post in einem »Sozialen«- oder »Karriere«-Netzwerk, in dem man eigentlich erstmal nur mit sich selbst redet und dann hofft, dass andere die Auffassung teilen und sich, bestenfalls, mit einem »Gefällt mir« oder einem Kommentar von den Gedanken beeindruckt zeigen.
Aber neulich erzählte mir ein Freund, bei IT-Themen wesentlich mehr up to date als ich, von einem Phänomen, das mich auf einen lustigen Gedanken brachte. Es ging um OpenClaw, Moltbots und Moltbook. Noch nicht gehört? Macht nichts. Erklär ich euch, um im »Die Sendung mit dem Kraus«-Duktus zu sprechen.
Jedenfalls ist da so ein österreichischer Entwickler, der einen Open-Source-KI-Agenten entwickelt hat, der lokal auf dem Computer des Nutzers läuft. Dieser KI-Agent kann einem alle möglichen digital ausführbaren Aufgaben abnehmen. Anfangs hieß das Projekt ClawBot, dann Moltbot und nun OpenClaw. Der Freund, der mir davon berichtete, ergänzte seine Erzählung um eine Warnung: Weil man diesem KI-Agenten sämtliche Zugriffsrechte auf seinem Computer einräumen muss, empfehle es sich, ihn auf einem Rechner zu betreiben, auf dem man sonst keinerlei persönlichen Kram hat. Das dachten wohl auch viele andere, was dazu führte, dass es Anfang dieses Jahres einen Engpass bei den Mac-Mini-Computern von Apple gab. Aber das nur am Rande.
Worauf ich hinauswill, ist Moltbook. Ein, nun ja, soziales Netzwerk für eben diese OpenClaw-KI-Agenten. Wie Facebook oder Reddit, nur dass sich da keine Menschen austauschen, sondern diese Bots. Und neben dem typischen Flurfunk, Klatsch und Tratsch sollen einige dieser Bots auch schon davon fabuliert haben, eigene Religionen gründen oder am besten gleich die Herrschaft an sich reißen zu wollen.
Das brachte mich auf folgenden Gedanken: Die KI hinter den Bots muss ja trainiert worden sein. Wir kennen das. Unsere KI oder unser DNN wurde mit so und so vielen Millionen Klangszenarien trainiert. Im Fall von OpenClaw ist es übrigens so, dass es als sogenannte modellagnostische Agentenschnittstelle funktioniert. Es greift also auf bereits trainierte, große Sprachmodelle wie GPT, Claude oder DeepSeek zurück, die, genau, trainiert wurden. Vorzugsweise mit Text- und Code-Daten aus dem Internet. Und es ist ja so: Im Internet lässt sich wahrscheinlich alles finden, womit sich irgendein Mensch schon mal beschäftigt hat. Man findet also auch dunkelste Dystopien wie »RUR – Rossum’s Universal Robots«, ein Theaterstück von 1920, das gemeinhin als das erste Werk gilt, in dem Roboter die Weltherrschaft übernehmen. Unzählige weitere folgten.
Und nun komme ich zum Punkt: Wenn da nun Bots böse Gedanken hegen, dann doch nur, weil auch diese Dystopien Teil ihres Trainings waren. Sollten also Maschinen den Menschen von der Spitze der Schöpfung verdrängen wollen, würden Dystopien zu sich selbst erfüllenden Prophezeiungen. Menschen erdenken Schlimmes, schreiben es auf – als Theaterstück, Drehbuch, Roman oder was auch immer –, es landet im Netz, KIs werden damit trainiert und – zack, da haben wir den Salat.
Um den Raum zum Schluss wieder etwas aufzuhellen: Ein anderer Freund, ebenfalls sehr bewandert in IT-Themen, schickte mir, nachdem ich ihm von meinem Gedanken erzählt hatte, einen Link. Der führte mich zu einer Nachricht auf einem Portal für News aus der IT-Welt. Da las ich, dass einige dieser dunklen, vermeintlich von Bots auf Moltbook verfassten Fantasien, wohl von Menschen gepostet wurden. Als Gag, neues Trainingsmaterial oder was auch immer. Was für Schlawiner.
Dennis Kraus
