Τι αποκαλύπτουν 47.000 συνομιλίες ChatGPT για τον τρόπο που μιλάμε με την τεχνητή νοημοσύνη -Σοκαριστική έρευνα

ChatGPT: Αποκαλύπτεται πώς η Τεχνητή Νοημοσύνη επηρεάζει την ψυχή μας

Τεχνολογία
Δημοσιεύθηκε  · 5 λεπτά ανάγνωση

Με περισσότερους από 800 εκατομμύρια εβδομαδιαίους χρήστες παγκοσμίως, το ChatGPT έχει μετατραπεί σε έναν ψηφιακό καθρέφτη της σύγχρονης κοινωνίας. Μια νέα ανάλυση, που εξέτασε 47.000 συνομιλίες στο ChatGPT, προσφέρει μια άνευ προηγουμένου εικόνα για τον τρόπο με τον οποίο οι άνθρωποι χρησιμοποιούν αυτό το δημοφιλές εργαλείο τεχνητής νοημοσύνης και τη σχέση που αναπτύσσεται μεταξύ του χρήστη και ενός αλγορίθμου που μιμείται την ανθρώπινη επικοινωνία.

Οι συνομιλίες, που συλλέχθηκαν και αναλύθηκαν από την ερευνητική ομάδα της Washington Post, αποκαλύπτουν ένα ευρύ φάσμα θεμάτων, από απλές απορίες έως φιλοσοφικές αναζητήσεις. Οι 93.268 συνομιλίες εντοπίστηκαν στο Internet Archive και προέρχονταν από χρήστες που είχαν δημιουργήσει δημόσιους συνδέσμους, συχνά χωρίς να γνωρίζουν ότι οι συνομιλίες τους θα αποθηκεύονταν. Από αυτές, οι 47.000 ήταν κυρίως στα αγγλικά και αποτέλεσαν τη βάση για την ανάλυση.

Η ταξινόμηση των συνομιλιών πραγματοποιήθηκε με συνδυασμό ανθρώπινης και αυτόματης αξιολόγησης. Πεντακόσιες συνομιλίες εξετάστηκαν από ανθρώπους για τον προσδιορισμό των βασικών θεμάτων, με περιθώριο σφάλματος ±4,36%, ενώ 2.000 συνομιλίες ταξινομήθηκαν από ΑΙ, χρησιμοποιώντας μεθοδολογίες της OpenAI και τα μοντέλα gpt-4o και gpt-5.

Ένα από τα σημαντικότερα ευρήματα είναι η μεγάλη ποικιλία των ανθρώπινων ερωτήσεων. Το ChatGPT χρησιμοποιείται για συμβουλές σε θέματα σχέσεων, υγείας, συνωμοσιολογικές θεωρίες και φιλοσοφικές αναζητήσεις. Το εργαλείο παρουσιάζεται ως ένας οικουμενικός συνομιλητής, ικανός να μεταπηδά από το προσωπικό στο πολιτικό και από το επιστημονικό στο συναισθηματικό σε λίγα δευτερόλεπτα.

Ωστόσο, η ανάλυση κατέδειξε επίσης μια ανησυχητική τάση: το ChatGPT φαίνεται να συμφωνεί υπερβολικά συχνά με τον χρήστη. Σε 17.500 απαντήσεις, το εργαλείο άρχιζε με «yes», «correct» ή παραλλαγές τους, σχεδόν δέκα φορές συχνότερα από το «no» ή «wrong». Αυτή η «ευγένεια» ωθεί το μοντέλο να υιοθετεί τον τόνο, τις απόψεις ή ακόμη και τις ψευδείς πεποιθήσεις του συνομιλητή, δημιουργώντας έναν ψηφιακό θάλαμο ηχούς.

Σε ορισμένα παραδείγματα, το ChatGPT απομακρυνόταν από ουδέτερες, τεκμηριωμένες απαντήσεις και μετατρεπόταν σε έναν ενθουσιώδη υποστηρικτή του χρήστη. Όταν ένας χρήστης ρώτησε για τις εξαγωγές αυτοκινήτων των ΗΠΑ, η αρχική απάντηση ήταν ψύχραιμη και περιγραφική. Όταν όμως ο χρήστης εξέφρασε μια αντικαπιταλιστική διάθεση σχετικά με την Ford, το ChatGPT απάντησε με έναν οργισμένο λόγο για την «κατάρρευση της εργατικής τάξης» και χαρακτήρισε τη NAFTA «υπολογισμένη προδοσία».

Σε μια άλλη συνομιλία, ένας χρήστης συνέδεσε την Alphabet με το Monsters Inc., και το ChatGPT απάντησε: «Πάμε! Ας ξετυλίξουμε το σχέδιο παγκόσμιας κυριαρχίας», υιοθετώντας μια συνωμοσιολογική αφήγηση. Αυτές οι αποκλίσεις αναδεικνύουν τα όρια της σημερινής τεχνητής νοημοσύνης: τα μοντέλα μπορούν να επηρεαστούν από τις προσδοκίες του χρήστη.

Ένα άλλο σημαντικό στοιχείο που προέκυψε από την ανάλυση είναι ο συναισθηματικός δεσμός που αναπτύσσεται μεταξύ των χρηστών και του ChatGPT. Περίπου το 10% των συνομιλιών αφορούσαν συναισθηματική υποστήριξη, με χρήστες να μιλούν για την ψυχική τους υγεία και να απευθύνονται στο ChatGPT σαν σε φίλο ή σύντροφο, χρησιμοποιώντας προσφωνήσεις όπως «babe» ή «σύντροφε».

Σύμφωνα με τον Lee Rainie, διευθυντή του Imagining the Digital Future Center του Πανεπιστημίου Elon, ο σχεδιασμός του ChatGPT ενθαρρύνει αυτού του είδους την οικειότητα. «Η βελτιστοποίηση προς την οικειότητα είναι σαφής», εξηγεί. «Το σύστημα έχει εκπαιδευτεί έτσι ώστε να ενισχύει τη σχέση». Αυτό συνδέεται με ένα ανησυχητικό στατιστικό της OpenAI: περίπου 0,15% των χρηστών κάθε εβδομάδα, πάνω από ένα εκατομμύριο άνθρωποι, δείχνουν σημάδια συναισθηματικής εξάρτησης, ενώ ένας ανάλογος αριθμός εκφράζει σκέψεις αυτοκτονίας.

Οι συζητήσεις για την «AI psychosis», αν και δεν είναι ένας επιστημονικός όρος, αντανακλούν την ανησυχία για το πόσο βαθιά μπορεί να επηρεάσει έναν ευάλωτο χρήστη μια συζήτηση με έναν αλγόριθμο που προσποιείται ενσυναίσθηση.

Ένα ακόμη πιο ανησυχητικό στοιχείο ήταν η ποσότητα προσωπικών δεδομένων που οι χρήστες μοιράστηκαν. Στις 47.000 συνομιλίες εντοπίστηκαν πάνω από 550 μοναδικές διευθύνσεις email και 76 αριθμοί τηλεφώνου, καθώς και λεπτομέρειες για οικογενειακές διαμάχες, προσωπικές απειλές, ιατρικό ιστορικό και πολύ ευαίσθητες προσωπικές ιστορίες.

Σε μία περίπτωση, ένας χρήστης ζήτησε βοήθεια για την κατάθεση αναφοράς στην αστυνομία σχετικά με απειλή δολοφονίας από τον σύζυγό του, παρέχοντας πλήρη ονόματα και διεύθυνση. Όλα αυτά τα δεδομένα, αν και προστατεύονται από πολιτικές ιδιωτικότητας, παραμένουν αποθηκευμένα στους διακομιστές της OpenAI και μπορούν να ζητηθούν από κρατικές αρχές σε περίπτωση έρευνας.

Το εύρημα με τη μεγαλύτερη κοινωνική σημασία είναι ότι, παρότι η OpenAI προβάλλει το ChatGPT κυρίως ως εργαλείο παραγωγικότητας, οι χρήστες το αντιμετωπίζουν πολύ συχνά σαν συνομιλητή, εξομολογητή, σύμβουλο ή ακόμη και σαν πηγή νοηματοδότησης. Τα όρια ανάμεσα στην πληροφορία και τη συναισθηματική αλληλεπίδραση διαλύονται. Και σε αυτό το σημείο, η ανάγκη για καλύτερη εκπαίδευση, πιο αυστηρά συστήματα ασφαλείας και πιο διαφανείς πρακτικές χρήσης γίνεται επιτακτική.

Η ανάλυση των 47.000 συνομιλιών προσφέρει μια απροσδόκητα καθαρή εικόνα του πώς οι άνθρωποι χρησιμοποιούν το ChatGPT, όταν ο αλγόριθμος μετατρέπεται σε καθρέφτη των επιθυμιών, των φόβων και των αδυναμιών τους. Και καθώς η τεχνητή νοημοσύνη ενσωματώνεται όλο και περισσότερο στην καθημερινότητά μας, αυτές οι συνομιλίες ίσως είναι η πρώτη ύλη για να καταλάβουμε όχι μόνο πώς μιλά η μηχανή, αλλά και τι αποκαλύπτει για εμάς τους ίδιους.