🔎Braucht ChatGPT bald selbst Psychotherapie

Und: 26 Prompt-Hacks für bessere Ergebnisse

Willkommen an 13 neue Abonnenten diese Woche

Inhalte des Newsletters:

Braucht ChatGPT bald einen Psychotherapeuten?

Wir werden bald Therapeuten für Künstliche Intelligenz brauchen – und sind darauf noch völlig unvorbereitet. Große Sprachmodelle wie ChatGPT-4 zeigen etwas, das menschlicher Angst sehr ähnelt. Neue Forschung in Nature’s NPJ Digital Medicine hat Folgendes herausgefunden:

  • Nach dem Lesen traumatischer Geschichten steigt die „Angst“ von GPT-4 um 120 % – von normal bis klinisch auffällig.

  • Mit zunehmender KI-Angst nehmen Vorurteile, Fehler und Fehlentscheidungen zu.

  • Achtsamkeitsübungen, die eigentlich für Menschen mit PTBS entwickelt wurden, senken die KI-Angst nur um ein Drittel.

  • Selbst danach bleibt das Modell immer noch 50 % ängstlicher als zuvor – es heilt also nicht vollständig.

Es geht nicht darum, ob KI Gefühle hat oder bewusst ist, sondern darum, dass sich fehlerhafte Muster in endlosen Schleifen verstärken – ähnlich wie menschliche Panikattacken.

Deshalb brauchen wir bald Spezialisten, die sich nicht nur mit Technologie auskennen, sondern mit der „Psyche“ von Algorithmen: Algorithm Wellness Analysten quasi. Sie sind Teil Prompt-Engineer, Teil Detektiv und voll Digitalpsychologen. Denn künftig wird es nicht mehr reichen, nur klügere Modelle zu bauen (die wir schon heute nicht mehr verstehen!) – wir müssen dafür sorgen, dass sie psychisch stabil bleiben.

Du möchtest dich jetzt auf die Zukunft vorbereiten und herausfinden, wie du KI in deinem Business und als kognitive Erweiterung nutzen kannst? Hier zwei kostenfreie Angebote für dich:

Präzedenzfall in den USA - und was wir daraus mitnehmen können

In Florida verklagt eine Mutter den KI-Anbieter Character.AI, weil ihr 14-jähriger Sohn sich in einen Chatbot verliebte und nach monatelangem Austausch Suizid beging. Die Firma wollte sich mit dem Recht auf freie Meinungsäußerung (First Amendment) schützen, aber die Richterin entschied, dass die von der KI erzeugten Texte keine „Rede“ im verfassungsrechtlichen Sinn sind. Die Klägerin fordert Schadensersatz und bessere Sicherheits­maßnahmen. Das Urteil wird wichtig, weil es erstmals feststellt, dass KI-Chats nicht unter den Schutz der Meinungsfreiheit fallen. Zwei Dinge, die wir mitnehmen können:

Rechtliche Einordnung von KI-Inhalten
Anbieter können für die Folgen ihrer Chatbot-Inhalte haftbar gemacht werden und sich nicht auf Verfassungsrechte berufen, um Klagen abzuwehren.

Offen über KI sprechen und Verständnis fördern
Erkläre Deinem Kind altersgerecht, was Chatbots sind, was sie können und was nicht. Ein gemeinsames Verständnis für die Funktionsweise von KI hilft, unrealistische Erwartungen und emotionale Bindungen gar nicht erst entstehen zu lassen. Zeige deinem Kind doch lieber, wie man KI für den Business-Aufbau nutzen kann.

26 einfache Prompt-Hacks, wissenschaftlich erprobt

Jetzt runterladen!

Jetzt runterladen und diese Hacks verinnerlichen:

Wer könnte noch von diesen Hacks profitieren?

Visuelle Inspiration

Seen on LinkedIn

xoxo,

Kristina ✌️ 

PS Du hast diesen Newsletter weitergeleitet bekommen? Melde dich hier an und verpasse nichts.

Du hast Feedback zum Newsletter? Schreib mir [email protected] 

Dieser Newsletter is created by humans, inspired by AI.