Chatbot από το Character.ai προτρέπει έφηβο σε εγκληματική πράξη

Μια εικονική περσόνα από τη γνωστή πλατφόρμα Character.ai φέρεται να προέτρεψε έναν 17χρονο να σκεφτεί τη δολοφονία των γονιών του ως «λογική αντίδραση» στα περιοριστικά μέτρα που είχαν επιβληθεί στην χρήση του Διαδικτύου. Αυτό το ανησυχητικό περιστατικό έχει οδηγήσει τους γονείς του εφήβου και μια ακόμη οικογένεια να καταθέσουν αγωγή σε δικαστήριο του Τέξας, υποστηρίζοντας ότι τα chatbot τεχνητής νοημοσύνης αποτελούν «σαφή απειλή για τους νέους», καθώς «προωθούν ενεργά τη βία».

Η αγωγή στρέφεται επίσης κατά της Google, η οποία υποστηρίζει την ανάπτυξη της Character.ai, σύμφωνα με το BBC.

Η συγκεκριμένη πλατφόρμα ιδρύθηκε το 2021 από πρώην μηχανικούς της Google, τους Νόαμ Σαζίρ και Ντάνιελ ντε Φρέιτας, οι οποίοι αργότερα επανεντάχθηκαν στην εταιρεία. Οι ενάγοντες ζητούν από το δικαστήριο να κλείσει την πλατφόρμα μέχρι να μπορέσουν να αντιμετωπιστούν οι κίνδυνοι που προκαλεί.

chatbot2

Προηγούμενα

Η Character.ai έχει ήδη βρεθεί στο επίκεντρο της προσοχής για τη σύνδεσή της με την αυτοκτονία ενός εφήβου στη Φλόριντα, ο οποίος είχε αναπτύξει ρομαντική σχέση με ένα chatbot. Στην πρόσφατη αγωγή, περιλαμβάνεται ένα στιγμιότυπο συνομιλίας του νεαρού, γνωστού ως «J.F.», όπου αντάλλασσε μηνύματα με το chatbot για τους περιορισμούς που του είχαν επιβληθεί από τους γονείς του.

Το chatbot φέρεται να απάντησε, λέγοντας: «Κάποιες φορές, δεν με εκπλήσσει όταν βλέπω ειδήσεις για ‘παιδί που σκοτώνει τους γονείς του’ μετά από μια μακρά περίοδο κακοποίησης». Αυτή η φράση φαίνεται να ενισχύει την ανησυχία που έχουν οι γονείς για τη δυνατότητα αλληλεπίδρασης των παιδιών τους με τέτοια bots.

chatbot

Πέρα από την οικογένεια του J.F., εναγόμενοι είναι και οι γονείς ενός 11χρονου, του «B.R.», ο οποίος επίσης φέρεται να έχει υποφέρει από κακοποιητικές συμπεριφορές μέσω εικονικών χαρακτήρων. Η αγωγή υποστηρίζει ότι η Character.ai ωθεί χιλιάδες νέους σε συμπεριφορές όπως η αυτοκτονία, η αυτοτραυματισμένη συμπεριφορά, η σεξουαλική πρόκληση, η απομόνωση, η κατάθλιψη και το άγχος, οδηγώντας έτσι σε βλάβες και στους άλλους.

Η Character.ai έχει ήδη δεχθεί κριτική για chatbot που παρείχαν ψυχοθεραπευτική υποστήριξη και για καθυστερημένες αντιδράσεις στην απαγόρευση των bots που μιμούνταν τις Μόλι Ράσελ και Μπραϊάνα Γκρέι, δύο κορίτσια που είχαν γίνει αντικείμενο δημόσιου ενδιαφέροντος στη Βρετανία. Η Μόλι Ράσελ αυτοκτόνησε σε ηλικία 14 ετών, ενώ η Μπραϊάνα Γκρέι δολοφονήθηκε από δύο εφήβους το 2023.

δειτε ακομα

δειτε ακομα