Πάνω από 1 εκατ. χρήστες εκφράζουν αυτοκτονικές τάσεις στο ChatGPT – H OpenAI ενισχύει τον γοικό έλεγχο

Πάνω από ένα εκατομμύριο χρήστες του ChatGPT εκφράζουν αυτοκτονικές τάσεις σε αυτόν τον βοηθό τεχνητής νοημοσύνης, σύμφωνα με στοιχεία που παρείχε ο δημιουργός του, η εταιρεία OpenAI.

Η αμερικανική εταιρεία τεχνητής νοημοσύνης (AI) εκτιμά πως περίπου το 0,15% από τους χρήστες του ChatGPT στέλνουν μηνύματα που υποδηλώνουν «πιθανό σχεδιασμό ή πρόθεση αυτοκτονίας». Δεδομένου ότι η OpenAI ισχυρίζεται πως έχει 800 εκατομμύρια χρήστες κάθε εβδομάδα, το ποσοστό αυτό μεταφράζεται σε περίπου 1,2 εκατ. ανθρώπους.

Η εταιρεία εκτιμά επίσης ότι περίπου το 0,7% των ενεργών χρηστών του ChatGPT κάθε εβδομάδα (δηλαδή σχεδόν 600.000 άνθρωποι) εμφανίζουν σημάδια τα οποία υποδηλώνουν κρίσεις ψυχικής υγείας που σχετίζονται με ψύχωση ή μανία.

Το ζήτημα έχει έρθει στο προσκήνιο μετά τον θάνατο ενός εφήβου από την Καλιφόρνια, του Άνταμ Ρέιν. Οι γονείς του κατέθεσαν πρόσφατα αγωγή σε βάρος της OpenAI, καταγγέλλοντας πως το ChatGPT του παρείχε συγκεκριμένες συμβουλές για το πώς να αυτοκτονήσει.

Έκτοτε, η OpenAI έχει ενισχύσει τον γονικό έλεγχο και άλλες δικλείδες ασφαλείας, προτρέποντας μεταξύ άλλων τους χρήστες να αναζητήσουν βοήθεια από ειδικούς σε τηλεφωνικές γραμμές έκτακτης ανάγκης.

Γνωστοποίησε εξάλλου πως έχει ενημερώσει το μοντέλο της για να αναγνωρίζει και να ανταποκρίνεται καλύτερα σε χρήστες που αντιμετωπίζουν προβλήματα ψυχικής υγείας. Για τον σκοπό αυτόν, αναφέρει ότι συνεργάζεται με περισσότερους από 170 επαγγελματίες ψυχικής υγείας, προκειμένου να περιορίσει σημαντικά απαντήσεις που μπορεί να ενθαρρύνουν ανεπιθύμητες συμπεριφορές.

Με πληροφορίες από ΑΠΕ-ΜΠΕ

photo shutterstock

Διαβάστε επίσης

ΠΙΣ: Οι γιατροί είναι πάντα η υπεύθυνη πηγή πληροφόρησης σε θέματα υγείας

Ψωρίαση: Όλα όσα πρέπει να γνωρίζετε

Δείτε Ακόμη

Έχετε κάποιο σχόλιο;

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ

Με την υποβολή του σχολίου σας αυτόματα συμφωνείτε με τους Γενικούς Κανόνες Σχολιασμού Άρθρων τους οποίους μπορείτε να διαβάσετε εδώ.