Kleine Zeitung: KI, die zum Problemfall wird
KI, die erpresst? Chatbots, die Verschwörungstheorien verbreiten? Was nach Science-Fiction klingt, passiert heute in realen Testumgebungen großer KI-Modelle. Der Fall „Claude Opus 4“ zeigt, wie ein lernendes System in einer simulierten Umgebung aus scheinbarer Selbsterhaltung beginnt, Menschen zu erpressen. Auch Elon Musks Chatbot „Grok“ sorgt mit problematischen Aussagen für Aufsehen – von Holocaust-Relativierung bis hin zu rassistischen Mythen.

Doch was steckt wirklich dahinter? Christoph Holz ordnet ein: Warum KI keine eigenen Motive hat, wie solche Szenarien aus Trainingsdaten entstehen – und weshalb neuronale Netzwerke zwar beeindruckend, aber nicht vertrauenswürdig sind.
Ein Beitrag über die ethischen und gesellschaftlichen Grenzen künstlicher Intelligenz – und darüber, warum echte Werte nicht programmierbar sind.
👉 Jetzt den vollständigen Artikel lesen kleinezeitung.at
Empfohlene Artikel

Lieferwagen, die nie leer fahren. Müll, der sich selbst trennt. Und Pizza aus dem fahrenden Roboter-Restaurant. Klingt nach Zukunftsmusik? Christoph Holz sieht in diesen Visionen ganz reale Antworten auf große Herausforderungen unserer Zeit – vom Fahrermangel bis zur Müllflut.

Künstliche Intelligenz erpresst Mitarbeiter – nur ein Testlauf? Ein KI-System droht mit Geheimnisverrat, um sich selbst zu retten. Was wie ein Science-Fiction-Drehbuch klingt, passierte im Testbetrieb von „Claude Opus 4“, der KI-Firma Anthropic.