Παρασκευή 15 Μαρτίου 2024

Τεχνητή νοημοσύνη που παρακολουθεί τα συναισθήματα των εργαζομένων: Καλό ή κακό;

Τεχνητή νοημοσύνη που παρακολουθεί τα συναισθήματα των εργαζομένων: Καλό ή κακό;
14.03.2024
Η τεχνητή νοημοσύνη συναισθημάτων (EII) χρησιμοποιείται όλο και περισσότερο στο χώρο εργασίας, αλλά αυτό εγείρει σοβαρές ανησυχίες. Το EII χρησιμοποιεί βιολογικά σήματα και δεδομένα από φορητές συσκευές για την ανίχνευση και την πρόβλεψη των συναισθημάτων των ανθρώπων.

Περισσότερο από το 50% των μεγάλων εργοδοτών στις ΗΠΑ χρησιμοποιούν EII, ειδικά σε τηλεφωνικά κέντρα, χρηματοδότηση και υγειονομική περίθαλψη. Ωστόσο, οι ειδικοί έχουν εκφράσει την ανησυχία τους για την εγκυρότητά του και την εξάρτησή του από αμφιλεγόμενες θεωρίες σχετικά με το συναίσθημα.
Μια μελέτη που διεξήχθη από ερευνητές διαπίστωσε ότι το 32% των εργαζομένων δεν αναμένουν κανένα όφελος από την EII στο χώρο εργασίας. Εξέφρασαν ανησυχίες σχετικά με τις παραβιάσεις της ιδιωτικής ζωής, την προκατάληψη και τον στιγματισμό, καθώς και την πιθανή ζημιά στην ευημερία και το καθεστώς απασχόλησής τους.
Η EII μπορεί να επιδεινώσει τις ανισορροπίες ισχύος μεταξύ εργοδοτών και εργαζομένων. Οι εργαζόμενοι φοβούνται ότι θα αξιολογηθούν και θα παρακολουθούνται βάσει αλγορίθμων που μπορεί να είναι ανακριβείς και προκατειλημμένοι. Αυτό μπορεί να οδηγήσει σε άδικες αποφάσεις πρόσληψης, προαγωγής και απόλυσης.

Η EII μπορεί να αυξήσει το συναισθηματικό φορτίο των εργαζομένων, αναγκάζοντάς τους να κρύψουν τα αληθινά τους συναισθήματα ή να παρουσιάσουν συμπεριφορές που θα γίνουν ευνοϊκά αντιληπτές από τους αλγόριθμους. Αυτό μπορεί να οδηγήσει σε μειωμένη παραγωγικότητα και αυξημένη απόσπαση της προσοχής.
Το EII λειτουργεί ως τεχνολογία τύπου panopticon, [πανοπτικό] δημιουργώντας μια αίσθηση συνεχούς επιτήρησης. Αυτό μπορεί να υπονομεύσει την εμπιστοσύνη μεταξύ εργοδοτών και εργαζομένων και να δημιουργήσει ατμόσφαιρα φόβου και δυσπιστίας.
Δεδομένων αυτών των ανησυχιών, οι ειδικοί ζητούν την προσεκτική χρήση της EII στο χώρο εργασίας. Οι εργοδότες πρέπει να αξιολογούν τους κινδύνους και τα οφέλη και να λαμβάνουν μέτρα για την προστασία της ιδιωτικής ζωής και την πρόληψη της μεροληψίας. Επιπλέον, οι εργαζόμενοι θα πρέπει να γνωρίζουν τις πιθανές βλάβες της ΕΙΙ.
===================

AI που παρακολουθεί τα συναισθήματα των εργαζομένων
Η τεχνητή νοημοσύνη συναισθημάτων χρησιμοποιεί βιολογικά σήματα [βιολογικές ενδείξεις] όπως ο τόνος της φωνής, οι εκφράσεις του προσώπου και τα δεδομένα από φορητές συσκευές, καθώς και το κείμενο και τον τρόπο με τον οποίο οι άνθρωποι χρησιμοποιούν τους υπολογιστές τους, υποσχόμενη να ανιχνεύσει και να προβλέψει τι [πως] αισθάνεται κάποιος. Χρησιμοποιείται τόσο σε εγκόσμια πλαίσια [περιβάλλοντα], όπως η ψυχαγωγία, όσο και σε υψηλά στοιχήματα, όπως ο χώρος εργασίας, η πρόσληψη και η υγειονομική περίθαλψη.
Ένα ευρύ φάσμα βιομηχανιών χρησιμοποιεί ήδη το συναισθηματικό AI [AI συναισθημάτων], συμπεριλαμβανομένων των τηλεφωνικών κέντρων, των χρηματοοικονομικών, των τραπεζών, της νοσηλευτικής και της φροντίδας. Πάνω από το 50% των μεγάλων εργοδοτών στις ΗΠΑ χρησιμοποιούν συναισθηματική τεχνητή νοημοσύνη [συναισθημάτων] με στόχο να συμπεράνουν [να καθορίσουν] την εσωτερική κατάσταση των εργαζομένων, μια πρακτική που αναπτύχθηκε κατά τη διάρκεια της πανδημίας COVID-19. Για παράδειγμα, τα τηλεφωνικά κέντρα παρακολουθούν τι λένε οι πράκτορές τους και τον τόνο της φωνής τους. Οι μελετητές έχουν εκφράσει ανησυχίες σχετικά με την επιστημονική εγκυρότητα του συναισθήματος AI και την εξάρτησή του από αμφισβητούμενες θεωρίες για το συναίσθημα .
Τόνισαν επίσης τη δυνατότητα της συναισθηματικής τεχνητής νοημοσύνης να εισβάλλει στην ιδιωτική ζωή και να εκδηλώνει μεροληψία [προκατάληψη] φυλής, φύλου και αναπηρίας .
Ορισμένοι εργοδότες χρησιμοποιούν την τεχνολογία σαν να ήταν άψογη, ενώ ορισμένοι επιστήμονες επιδιώκουν να μειώσουν την προκατάληψη και να βελτιώσουν την εγκυρότητά της , να την απαξιώσουν εντελώς ή να προτείνουν την απαγόρευση της συναισθηματικής τεχνητής νοημοσύνης , τουλάχιστον μέχρι να γίνουν γνωστά περισσότερα για τις επιπτώσεις της.
Μελετώ κοινωνικές επιπτώσεις της τεχνολογίας . Πιστεύω ότι είναι ζωτικής σημασίας να εξεταστούν οι επιπτώσεις της συναισθηματικής τεχνητής νοημοσύνης στους ανθρώπους που εκτίθενται σε αυτήν, όπως οι εργαζόμενοι, ειδικά εκείνοι που περιθωριοποιούνται με βάση τη φυλή, το φύλο ή την κατάσταση αναπηρία τους.

ανησυχίες των εργαζομένων
Για να κατανοήσουμε πώς εξελίσσεται η χρήση της συναισθηματικής τεχνητής νοημοσύνης στο χώρο εργασίας, η συνάδελφός μου Karen Boyd και εγώ αποφασίσαμε να διερευνήσουμε τις αντιλήψεις των εφευρετών της συναισθηματικής τεχνητής νοημοσύνης στο χώρο εργασίας. Αναλύσαμε αιτήσεις διπλωμάτων ευρεσιτεχνίας που προσέφεραν συναισθηματικές τεχνολογίες τεχνητής νοημοσύνης για τον χώρο εργασίας.

Τα υποτιθέμενα οφέλη που διεκδικήθηκαν από τους αιτούντες διπλώματα ευρεσιτεχνίας περιελάμβαναν την αξιολόγηση και την υποστήριξη της ευημερίας των εργαζομένων, τη διασφάλιση της ασφάλειας στο χώρο εργασίας, την αύξηση της παραγωγικότητας και την παροχή βοήθειας στη λήψη αποφάσεων, όπως προαγωγές, απολύσεις εργαζομένων και ανάθεση καθηκόντων.
Μας ενδιέφερε τι σκέφτονταν οι εργαζόμενοι για αυτές τις τεχνολογίες. Θα αγκαλιάσουν [θα αντιλαμβάνονταν] επίσης αυτά τα οφέλη; Για παράδειγμα, θα θεωρούσαν οι εργαζόμενοι επωφελές για τους εργοδότες να τους παρέχουν υποστήριξη ευημερίας[ να τους στηρίξουν οικονομικά];
Οι συνεργάτες μου Shanley Corvite , Kat Roemmich , Tillie Ilana Rosenberg και εγώ πραγματοποιήσαμε μια έρευνα εν μέρει αντιπροσωπευτική του πληθυσμού των ΗΠΑ και εν μέρει υπερδειγματοληψία για έγχρωμους, τρανς και μη δυαδικά άτομα και άτομα που ζουν με ψυχικές ασθένειες. Αυτές οι ομάδες μπορεί να είναι πιο πιθανό να βιώσουν βλάβη από συναισθηματική τεχνητή νοημοσύνη. Στη μελέτη μας συμμετείχαν 289 άτομα από αντιπροσωπευτικό δείγμα και 106 συμμετέχοντες από υπερδειγματοληψία. Διαπιστώσαμε ότι το 32% των ερωτηθέντων ανέφεραν ότι δεν βιώνουν ή δεν αναμένουν κανένα όφελος για τον εαυτό τους από τη χρήση συναισθηματικής τεχνητής νοημοσύνης, είτε τρέχουσας είτε αναμενόμενης, στο χώρο εργασίας τους.

Ενώ ορισμένοι εργαζόμενοι σημείωσαν τα πιθανά οφέλη από τη χρήση συναισθηματικής τεχνητής νοημοσύνης στον χώρο εργασίας, όπως η αυξημένη υποστήριξη της ευημερίας και η ασφάλεια στο χώρο εργασίας, αντανακλώντας τα οφέλη που διεκδικούνται στις αιτήσεις διπλωμάτων ευρεσιτεχνίας, εξακολουθούν να εκφράζουν [όλοι εξέφρασαν] ανησυχία. Ανησυχούσαν για τη βλάβη στην ευημερία και την ιδιωτική τους ζωή, τη βλάβη στην εργασιακή τους απόδοση [παραγωγικότητα] και το καθεστώς απασχόλησής τους καθώς και για την προκατάληψη και το στίγμα της ψυχικής υγείας εναντίον τους. Για παράδειγμα, το 51% των συμμετεχόντων εξέφρασε ανησυχίες σχετικά με την προστασία της ιδιωτικής ζωής, το 36% σημείωσε την πιθανότητα λανθασμένων συμπερασμάτων που οι εργοδότες θα έπαιρναν τοις μετρητοίς [θα αποδέχονταν] και το 33% εξέφρασε ανησυχία ότι τα συμπεράσματα που παράγονται από τη συναισθηματική τεχνητή νοημοσύνη θα μπορούσαν να χρησιμοποιηθούν για τη λήψη άδικων αποφάσεων πρόσληψης [απασχόλησης].
Οι φωνές των συμμετεχόντων
Ένας συμμετέχων, ο οποίος είχε πολλαπλές παθήσεις υγείας , είπε: «Η επίγνωση ότι με αναλύουν θα είχε ειρωνικά αρνητική επίδραση στην ψυχική μου υγεία». Αυτό σημαίνει ότι παρά τους δεδηλωμένους στόχους της συναισθηματικής τεχνητής νοημοσύνης για τον εντοπισμό και τη βελτίωση της ευημερίας των εργαζομένων στον χώρο εργασίας, η χρήση της μπορεί να οδηγήσει στο αντίθετο αποτέλεσμα: επιδείνωση [μείωση] της ευημερίας λόγω απώλειας της ιδιωτικής ζωής. Πράγματι, άλλες εργασίες των συναδέλφων μου Remmich, Florian Schaub και εμού δείχνουν ότι η απώλεια της ιδιωτικής ζωής που προκαλείται από τη συναισθηματική τεχνητή νοημοσύνη μπορεί να προκαλέσει μια σειρά βλάβες στην ιδιωτική ζωή ,συμπεριλαμβανομένων ψυχολογικών, αυτονομιών, οικονομικών, σχέσεων, σωματικών και διακρίσεων .
Απαντώντας στις ανησυχίες ότι η συναισθηματική παρακολούθηση [επιτήρηση] θα μπορούσε να θέσει σε κίνδυνο τη δουλειά τους, ένας συμμετέχων που διαγνώστηκε με ψυχική διαταραχή είπε: «Μπορεί να αποφασίσουν ότι δεν είμαι πλέον κατάλληλος για τη δουλειά και να με απολύσουν. Αποφασίστε ότι δεν είμαι αρκετά ικανός και μην μου δώσετε αύξηση ή σκεφτείτε ότι δεν δουλεύω αρκετά σκληρά».
Οι συμμετέχοντες στη μελέτη ανέφεραν επίσης την πιθανή ενίσχυση των ανισορροπιών ισχύος και δήλωσαν ότι φοβούνται τη δυναμική που θα έχουν με τους εργοδότες εάν η συναισθηματική τεχνητή νοημοσύνη ενσωματωθεί στον χώρο εργασίας τους, επισημαίνοντας πώς η χρήση της συναισθηματικής τεχνητής νοημοσύνης θα μπορούσε ενδεχομένως να επιδεινώσει τις ήδη υπάρχουσες εντάσεις στη σχέση εργοδότη-εργαζομένου. Για παράδειγμα, ένας ερωτώμενος δήλωσε: «Ο βαθμός ελέγχου που έχουν ήδη οι εργοδότες στους εργαζόμενους υποδηλώνει ότι θα υπάρξουν λίγοι έλεγχοι για το πώς θα χρησιμοποιηθούν αυτές οι πληροφορίες. Οποιαδήποτε "συναίνεση" [από] τους εργαζόμενους είναι σε μεγάλο βαθμό απατηλή σε αυτό το πλαίσιο».
Τέλος, οι συμμετέχοντες σημείωσαν πιθανές βλάβες, όπως οι τεχνικές ανακρίβειες της τεχνητής νοημοσύνης συναισθημάτων, που ενδεχομένως δημιουργούν ψευδή εντύπωση για τους εργαζόμενους και η τεχνητή νοημοσύνη συναισθημάτων, που δημιουργεί και διαιωνίζει προκαταλήψεις και στίγμα κατά των εργαζομένων. Περιγράφοντας αυτές τις προκλήσεις, οι συμμετέχοντες τόνισαν τον φόβο τους ότι οι εργοδότες βασίζονται σε ανακριβή και προκατειλημμένα συστήματα τεχνητής νοημοσύνης συναισθημάτων, ειδικά για έγχρωμους, γυναίκες και τρανσέξουαλ.
Για παράδειγμα, ένας συμμετέχων είπε: «Ποιος αποφασίζει ποιες εκφράσεις "φαίνονται επιθετικές" και πώς μπορείτε να αναγνωρίσετε τους ανθρώπους ως απειλή μόνο από τις εκφράσεις του προσώπου τους; Το σύστημα, φυσικά, μπορεί να διαβάσει πρόσωπα, αλλά όχι σκέψεις. Απλά δεν μπορώ να καταλάβω πώς αυτό μπορεί πραγματικά να είναι οτιδήποτε άλλο εκτός από την αναστάτωση των μειονοτήτων στο χώρο εργασίας».
Οι συμμετέχοντες σημείωσαν ότι είτε θα αρνούνταν να εργαστούν σε ένα μέρος όπου χρησιμοποιείται η τεχνητή νοημοσύνη συναισθημάτων - μια επιλογή που δεν είναι διαθέσιμη σε πολλούς - είτε θα συμπεριφέρονταν με τρόπο που η τεχνητή νοημοσύνη συναισθημάτων θα τους έβλεπε ευνοϊκά προκειμένου να προστατεύσει την ιδιωτικότητά τους. Ένας συμμετέχων είπε: «Θα ξόδευα τεράστια ποσότητα ενέργειας για καμουφλάζ ακόμα και όταν ήμουν μόνος στο γραφείο μου, κάτι που θα με έκανε πολύ αφηρημένο και μη παραγωγικό», επισημαίνοντας ότι η χρήση συναισθηματικής τεχνητής νοημοσύνης θα επέβαλλε πρόσθετη συναισθηματική εργασία στους εργαζόμενους.

Αξίζει το κακό;
Αυτά τα αποτελέσματα δείχνουν ότι η συναισθηματική τεχνητή νοημοσύνη επιδεινώνει τα υπάρχοντα προβλήματα που αντιμετωπίζουν οι εργαζόμενοι στο χώρο εργασίας, παρά το γεγονός ότι οι υποστηρικτές της συναισθηματικής τεχνητής νοημοσύνης ισχυρίζονται ότι βοηθά στην επίλυση αυτών των προβλημάτων.
Εάν η συναισθηματική τεχνητή νοημοσύνη λειτουργεί πραγματικά όπως διαφημίζεται και μετρά αυτό που ισχυρίζεται ότι μετρά, και ακόμη και αν αντιμετωπιστούν ζητήματα προκατάληψης στο μέλλον, οι εργαζόμενοι θα εξακολουθούν να βιώνουν βλάβες όπως επιπλέον συναισθηματική εργασία και απώλεια ιδιωτικότητας.
Εάν αυτές οι τεχνολογίες δεν μετρούν αυτό που ισχυρίζονται ή είναι προκατειλημμένες, τότε οι άνθρωποι βρίσκονται στο έλεος αλγορίθμων που θεωρούνται έγκυροι και αξιόπιστοι όταν δεν είναι. Οι εργαζόμενοι θα πρέπει ακόμα να κάνουν μια προσπάθεια να προσπαθήσουν να μειώσουν την πιθανότητα ότι ο αλγόριθμος θα τους παρερμηνεύσει ή να δείξουν συναισθήματα που θα ήταν ευνοϊκά για τον αλγόριθμο.
Είτε έτσι είτε αλλιώς, αυτά τα συστήματα λειτουργούν σαν τεχνολογίες τύπου panopticon, πανοπτικές δημιουργώντας μια απειλή για την ιδιωτική ζωή και μια αίσθηση παρακολούθησης.
https://phys.org/news/2024-03-emotion-tracking-ai-job-workers.html

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου

Υβριστικά σχόλια θα πηγαίνουν στα αζήτητα.