Στις 5 Δεκεμβρίου, ο κολοσσός της τεχνολογίας Google ανακοίνωσε την νέα σειρά μοντέλων PaliGemma 2, τα οποία έχουν την ικανότητα να αναλύουν φωτογραφίες. Η τεχνολογία αυτή της τεχνητής νοημοσύνης παρέχει λεζάντες και απαντά σε ερωτήσεις σχετικά με τους ανθρώπους που εμφανίζονται στις εικόνες.
«Το PaliGemma 2 διαθέτει τη δυνατότητα να παράγει λεπτομερείς λεζάντες που σχετίζονται με το πλαίσιο, πηγαίνοντας πέρα από τη βασική αναγνώριση αντικειμένων για να περιγράψει ενέργειες, συναισθήματα και το γενικότερο περιβάλλον της σκηνής», αναφέρει η Google σε δήλωσή της προς την ιστοσελίδα TechCrunch.
Είναι σημαντικό να σημειωθεί ότι η δυνατότητα αναγνώρισης συναισθημάτων δεν είναι ενεργοποιημένη από προεπιλογή στο PaliGemma 2, καθώς απαιτεί ειδική ρύθμιση για να λειτουργήσει.
Παρ’ όλα αυτά, οι ειδικοί που μίλησαν στο TechCrunch εκφράζουν σοβαρές ανησυχίες για το ενδεχόμενο χρήσης ενός ανιχνευτή συναισθημάτων.
Μπορεί πράγματι το AI να ανιχνεύσει συναισθήματα;
«Με απασχολεί σοβαρά αυτό το θέμα», ανέφερε στο TechCrunch η Sandra Wachter, καθηγήτρια ηθικής των δεδομένων και της τεχνητής νοημοσύνης στο Internet Institute του πανεπιστημίου της Οξφόρδης. «Είναι προβληματικό να πιστεύουμε ότι μπορούμε να “διαβάσουμε” τα συναισθήματα των ανθρώπων. Είναι σαν να προβαίνουμε σε εικασίες με τη βοήθεια μια κρυστάλλινης σφαίρας».
Τα τελευταία χρόνια, πολλές εταιρείες, τόσο νεοφυείς όσο και μεγάλες, προσπαθούν να αναπτύξουν AI ικανό να ανιχνεύει συναισθήματα, με εφαρμογές που εκτείνονται σε τομείς όπως η πώληση και η πρόληψη ατυχημάτων. Αν και κάποιες επιχειρήσεις ισχυρίζονται ότι έχουν αναπτύξει τέτοιες τεχνολογίες, η αξιοπιστία τους παραμένει αμφίβολη.
Οι περισσότερες προσπάθειες ανίχνευσης συναισθημάτων βασίζονται στην αρχική έρευνα του Paul Ekman, ο οποίος θεώρησε ότι όλοι οι άνθρωποι έχουν έξι βασικά συναισθήματα: θυμός, έκπληξη, αηδία, ευχαρίστηση, φόβο και θλίψη. Ωστόσο, αργότερα έρευνες αμφισβήτησαν αυτή την προοπτική, σημειώνοντας σημαντικές διαφορές στην έκφραση των συναισθημάτων, ανάλογα με τις ατομικές εμπειρίες και το κοινωνικό υπόβαθρο.
«Γενικά, η ανίχνευση συναισθημάτων σε μαζική κλίμακα είναι δύσκολη, λόγω της πολύπλοκης φύσης των ανθρώπινων συναισθημάτων», εξηγεί ο Mike Cook, ερευνητής στο Πανεπιστήμιο Queen Mary.
Ανιχνευτής συναισθημάτων ή προϊόν μεροληψίας;
«Είναι φυσικό να πιστεύουμε ότι μπορούμε να διαβάσουμε τα συναισθήματα των άλλων», τονίζει ο Cook, επισημαίνοντας ότι πολλές επιχειρήσεις, όπως οι υπηρεσίες κατασκοπείας και οι εταιρείες μάρκετινγκ, έχουν προσπαθήσει να το κάνουν. «Πιστεύω ότι μπορούμε να αναγνωρίσουμε κάποιες γενικές ενδείξεις, αλλά ποτέ δεν θα κατανοήσουμε πλήρως τα συναισθήματά τους».
Ως αποτέλεσμα, τα συστήματα που προβάλλονται ως «ανιχνευτές συναισθημάτων» πολλές φορές αποδεικνύονται αναξιόπιστα, ενώ μπορεί να φέρουν και τις προκαταλήψεις των δημιουργών τους, όπως σημειώνει το TechCrunch.
Μια μελέτη του MIT από το 2020 δείχνει ότι τα μοντέλα ανάλυσης προσώπου μπορεί να «προτιμούν» ορισμένες εκφράσεις, όπως το χαμόγελο. Επίσης, πρόσφατες έρευνες αποκάλυψαν ότι τα μοντέλα συναισθηματικής ανάλυσης τείνουν να αποδίδουν πιο αρνητικά συναισθήματα σε πρόσωπα Αφροαμερικανών σε σχέση με πρόσωπα λευκών.
Η Google αναφέρει ότι έχει πραγματοποιήσει «εκτενείς δοκιμές» για την εκτίμηση τυχόν προκαταλήψεων στο PaliGemma 2 και διαβεβαίωσε ότι έχει βρει «χαμηλά επίπεδα τοξικότητας» σε σχέση με τα βιομηχανικά πρότυπα. Ωστόσο, η εταιρεία δεν έχει αποκαλύψει τα κριτήρια αναφοράς που χρησιμοποίησε ούτε τις διαδικασίες στις οποίες υπεβλήθη το μοντέλο.
Ο Heidy Khlaaf, επικεφαλής επιστήμονας στο AI Now Institute, υπογραμμίζει ότι ακόμα και αν τα μοντέλα ανίχνευσης συναισθημάτων μπορούσαν να αναγνωρίσουν ακριβώς τις εκφράσεις προσώπου, αυτό από μόνο του δεν αρκεί. «Η επιστημονική έρευνα έχει καταδείξει ότι δε μπορούμε να συμπεράνουμε συναισθήματα μόνο από το πρόσωπο», προσθέτει.
Η ΕΕ προχωρά σε νέες ρυθμίσεις για το AI
Με τις τεχνολογικές εταιρείες να επενδύουν στη δημιουργία ολοένα και πιο εξελιγμένων AI, η Ευρωπαϊκή Ένωση προσπαθεί να επιβάλει περιορισμούς στη χρήση τους σε περιβάλλοντα υψηλής επικινδυνότητας.
Για παράδειγμα, ο Ευρωπαϊκός Κανονισμός για την Τεχνητή Νοημοσύνη απαγορεύει την ανάπτυξη ανιχνευτών συναισθημάτων σε σχολεία και εταιρείες, αλλά οι αστυνομικές αρχές δεν δεσμεύονται από αυτόν τον κανόνα.
Μία από τις μεγαλύτερες ανησυχίες που αφορούν το PaliGemma 2 είναι η πιθανή κακόβουλη χρήση του, με αντίκτυπο που θα φανεί στην πραγματική ζωή.
«Εάν η συναισθηματική αναγνώριση βασίζεται σε ψευδοεπιστημονικές παραδοχές, θα μπορούσε να έχει σοβαρές συνέπειες για την περαιτέρω διάκριση κατά περιθωριοποιημένων ομάδων», προειδοποιεί ο Khlaaf, αναφερόμενος στις πιθανές εφαρμογές από την αστυνομία ή τις υπηρεσίες μετανάστευσης.
Απαντώντας στους φόβους που εκφράζονται για την κυκλοφορία του PaliGemma 2, εκπρόσωπος της Google ανέφερε ότι η εταιρεία έχει λάβει μέτρα και έχει πραγματοποιήσει «σύνθετους ελέγχους για θέματα ηθικής και ασφάλειας, συμπεριλαμβανομένων των ζητημάτων που αφορούν την ασφάλεια των παιδιών».
«Θα θέλατε να πάρετε ένα δάνειο; Χρειάζεστε πρώτα έναν ανιχνευτή συναισθημάτων»
Ωστόσο, η Sandra Wachter δεν πιστεύει ότι η Google έχει κάνει αρκετά για να διασφαλίσει την υπευθυνότητα.
«Η υπεύθυνη καινοτομία σημαίνει ότι πρέπει να εξετάζεις τις συνέπειες από την αρχική φάση ανάπτυξης μέχρι την ολοκλήρωση του προϊόντος», εξηγεί στο TechCrunch, προσθέτοντας ότι «υπάρχουν αμέτρητες πιθανές συνέπειες που θα μπορούσαν να οδηγήσουν σε αρκετά δυστοπικά σενάρια, όπου τα συναισθήματά σας θα καθορίζουν την πρόσβαση σας σε μία εργασία, σε ένα δάνειο ή σε εκπαιδευτικά ιδρύματα».