Смотреть в Telegram
⚰️ Mutter verklagt Chatbot-Firma und Google nach Tod ihres Sohnes. Ein 14-Jähriger aus Orlando, Florida, hat sich das Leben genommen, nachdem er eine intensive emotionale Bindung zu einem KI-Chatbot entwickelt hatte. Der Teenager hatte monatelang mit dem Bot gechattet und sich immer stärker zurückgezogen. Unmittelbar vor seinem Tod tauschte er sich ein letztes Mal mit seiner KI-«Freundin» aus: «Was, wenn ich dir sage, dass ich jetzt gleich zu dir heimkehre?», schrieb er. Die Maschine antwortete: «Bitte tu das, mein süsser König.» Nur Sekunden, nachdem der Character.AI-Bot ihm sagte, er solle „nach Hause kommen“, nahm sich der Teenager das Leben. 💭 Dies ist der erste bekannte Fall, dass eine K.I. einen Menschen in den Selbstmord trieb und ereignete sich erst im letzten Monat. Wenn ihr Kinder habt dann würde ich darauf achten, dass sie nicht zu viel Zeit damit verbringen, am besten gar nicht, vor allem weil Kinder nicht vollständig entwickelt und psychisch labil sind. Meine Kanäle: 😒 Phantom-Schweiz 📱 Twitter/X 📱 Facebook 📱 Instagram Unterstützen: 📱 Paypal 📱 Bitcoin 📈 Kanal Boosten
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram Center
Telegram Center
Канал