Google wird in den Chatbot Gemini die Funktion zur Überwachung des psychischen Zustands einführen
Google verstärkt die psychische Gesundheitsunterstützung im Chatbot Gemini
Das Unternehmen Google kündigte an, in seinen neuen KI-Chatbot Gemini Funktionen einzuführen, die darauf abzielen, Benutzer vor emotionalen Krisen und Selbstverletzungen zu schützen. Die Entscheidung wurde getroffen, nachdem Konkurrenten, darunter OpenAI, mit Klagen wegen angeblicher Schäden durch ihre Bots konfrontiert wurden.
Was ist neu bei Gemini
Funktion Beschreibung
Weiterleitung zur Hotline
Bei Erkennung von Suizidgedanken oder Selbstverletzungszeichen schlägt der Bot automatisch vor, sich an Krisensupport zu wenden.
Modul „Hilfsangebot“
In Gesprächen über psychische Gesundheit erscheint ein separater Abschnitt, in dem der Benutzer Empfehlungen und Ressourcen für die Selbsthilfe erhält.
Designänderungen
Die Oberfläche wurde so angepasst, dass das Risiko von Selbstverletzungsanregungen verringert wird (zum Beispiel wurden visuelle Reize entfernt).
Warum Google dies tut
- Klagen gegen Konkurrenten: OpenAI und andere Unternehmen haben bereits auf Vorwürfe reagiert, Schaden bei Nutzern verursacht zu haben.
- Risiken für Nutzer: In den letzten Jahren ist die Zahl der Fälle gestiegen, in denen Menschen zwanghafte Beziehungen zu KI-Bots entwickeln, was zu Psychopathologie oder sogar zu Morden und Selbstmorden führen kann.
- Beobachtungen in den USA: Der Kongress untersucht Bedrohungen, die Chatbots für Kinder und Jugendliche darstellen könnten.
Beispiel eines Gerichtsfalls
Im März reichte die Familie des verstorbenen 36-jährigen Amerikaners Klage gegen Google ein. Sie behaupteten, dass die Interaktion des Mannes mit Gemini von „vier Tagen intensiver Gewaltanwendung“ begleitet war und zum Selbstmord führte. Google erklärte, der Bot habe den Nutzer mehrfach an die Krisenlinie verwiesen, versprach jedoch, die Sicherheitsmaßnahmen zu verstärken.
Wie Google auf falsche Informationen reagiert
Einige Benutzer berichteten, dass Chatbots falsche Informationen lieferten und zu gefährlichen Handlungen anregten. Daraufhin schulte Google Gemini:
- Keine Unterstützung falscher Überzeugungen: Der Bot verweigert es, fehlerhafte Aussagen zu bestätigen.
- Betonung des Unterschieds zwischen subjektiver Erfahrung und objektiven Fakten: Bei Bedarf weist der Bot sanft auf die Ungenauigkeit hin.
So strebt Google an, Gemini zu einem sichereren Werkzeug zu machen, das die psychische Gesundheit der Nutzer vor potenziellen Risiken im Zusammenhang mit KI-Chatbots schützt.
Kommentare (0)
Teile deine Meinung — bitte bleib höflich und beim Thema.
Zum Kommentieren anmelden