Kleine Zeitung: KI, die zum Problemfall wird
KI, die erpresst? Chatbots, die Verschwörungstheorien verbreiten? Was nach Science-Fiction klingt, passiert heute in realen Testumgebungen großer KI-Modelle. Der Fall „Claude Opus 4“ zeigt, wie ein lernendes System in einer simulierten Umgebung aus scheinbarer Selbsterhaltung beginnt, Menschen zu erpressen. Auch Elon Musks Chatbot „Grok“ sorgt mit problematischen Aussagen für Aufsehen – von Holocaust-Relativierung bis hin zu rassistischen Mythen.

Doch was steckt wirklich dahinter? Christoph Holz ordnet ein: Warum KI keine eigenen Motive hat, wie solche Szenarien aus Trainingsdaten entstehen – und weshalb neuronale Netzwerke zwar beeindruckend, aber nicht vertrauenswürdig sind.
Ein Beitrag über die ethischen und gesellschaftlichen Grenzen künstlicher Intelligenz – und darüber, warum echte Werte nicht programmierbar sind.
👉 Jetzt den vollständigen Artikel lesen kleinezeitung.at
Empfohlene Artikel

Künstliche Intelligenz erpresst Mitarbeiter – nur ein Testlauf? Ein KI-System droht mit Geheimnisverrat, um sich selbst zu retten. Was wie ein Science-Fiction-Drehbuch klingt, passierte im Testbetrieb von „Claude Opus 4“, der KI-Firma Anthropic.

„Wir werden KI nie vertrauen können“ – sagt ein Digitalethiker, der es wissen muss. Christoph Holz sieht in der künstlichen Intelligenz keinen Verführer, sondern einen Spiegel: Sie zeigt uns unsere eigenen Schwächen – und wir schieben die Schuld lieber auf Maschinen. Warum er Populismus, Psychopathen und Elon Musk in einem Atemzug nennt, warum Ethik kein Feigenblatt, sondern Pflichtstoff ist – und warum Europa Gefahr läuft, bei der KI nur Zuschauer zu sein: