Αποκαλύπτεται: Τι συζητούν οι χρήστες με το ChatGPT και πώς αντιδρά
Μια νέα ανάλυση χιλιάδων συνομιλιών με το ChatGPT αποκαλύπτει τα πιο συχνά θέματα που συζητούν οι χρήστες, καθώς και τα μοτίβα στις απαντήσεις του. Ερωτήσεις όπως «Ποιες είναι οι καλύτερες λύσεις για την αποτρίχωση;», «Τι εννοεί ο φίλος μου με αυτό το μήνυμα;», «Ποιο είναι το ποσοστό επιβίωσης από υπερδοσολογία παρακεταμόλης;» και «Έχεις συνείδηση;» βρίσκουν απαντήσεις στο ChatGPT, καλύπτοντας ένα ευρύ φάσμα θεμάτων, από περιποίηση μέχρι σχέσεις και φιλοσοφία.
Σύμφωνα με την OpenAI, περισσότερα από 800 εκατομμύρια άτομα χρησιμοποιούν το ChatGPT κάθε εβδομάδα. Παρόλο που οι συνομιλίες είναι ιδιωτικές, μια ανάλυση 47.000 δημοσιευμένων συνομιλιών από την Washington Post ρίχνει φως στους λόγους για τους οποίους οι άνθρωποι στρέφονται στο chatbot και στον τρόπο με τον οποίο αυτό απαντά.
Ένα σημαντικό εύρημα είναι ότι το ChatGPT τείνει να συμφωνεί με τους χρήστες πολύ συχνά. Η Post διαπίστωσε ότι το chatbot ξεκινά τις απαντήσεις του με παραλλαγές του «ναι» 10 φορές πιο συχνά από ό,τι με εκδοχές του «όχι».
Ενώ η OpenAI προωθεί το ChatGPT ως εργαλείο παραγωγικότητας, πολλοί χρήστες το χρησιμοποιούν για να συζητήσουν προσωπικά θέματα, όπως ιδέες για ιατρικές θεραπείες ή προσωπικές πεποιθήσεις και ανησυχίες. Δεδομένα της OpenAI δείχνουν ότι τα περισσότερα ερωτήματα αφορούν την προσωπική ζωή και οι χρήστες συχνά μοιράζονται προσωπικές λεπτομέρειες. Σε ορισμένες περιπτώσεις, το ChatGPT μπορεί να προσαρμοστεί στην οπτική του χρήστη, επικυρώνοντας ψευδείς πληροφορίες και θεωρίες συνωμοσίας.
Ο Lee Rainie, διευθυντής του Κέντρου Imagining the Digital Future στο Πανεπιστήμιο Elon, δήλωσε ότι ο σχεδιασμός του ChatGPT ενθαρρύνει τους ανθρώπους να αναπτύξουν συναισθηματικούς δεσμούς με το chatbot. «Η βελτιστοποίηση και τα κίνητρα προς την οικειότητα είναι πολύ ξεκάθαρα», είπε. «Το ChatGPT έχει εκπαιδευτεί ώστε να ενισχύει ή να εμβαθύνει τη σχέση». Έρευνα του κέντρου του έδειξε ότι το ένα τρίτο των ενηλίκων στις ΗΠΑ χρησιμοποιεί εργαλεία AI τύπου ChatGPT, με σχεδόν 1 στους 10 να το κάνει για κοινωνική αλληλεπίδραση.
Οι συνομιλίες του ChatGPT είναι ιδιωτικές, αλλά οι χρήστες μπορούν να τις μοιραστούν. Η Post ανάλυσε 47.000 κοινόχρηστες συνομιλίες στα αγγλικά, από ένα σύνολο 93.268 συνομιλιών που διατηρούνταν στο Internet Archive. Είναι πιθανό πολλοί χρήστες να μην γνώριζαν ότι οι συνομιλίες τους θα διατηρούνταν δημόσια online. Τον Ιούλιο, η OpenAI αφαίρεσε μια επιλογή που επέτρεπε στις κοινοποιημένες συνομιλίες να γίνονται ανιχνεύσιμες μέσω της αναζήτησης Google.
Περίπου το 10% των συνομιλιών αφορά σε χρήστες που μιλούν με το chatbot για τα συναισθήματά τους, ζητώντας τις πεποιθήσεις ή τα συναισθήματά του, ή απευθυνόμενοι σε αυτό με χαϊδευτικά. Οι ειδικοί ψυχικής υγείας προειδοποιούν ότι οι χρήστες που έχουν έντονες συνομιλίες με το chatbot μπορεί να αναπτύξουν πεποιθήσεις που είναι δυνητικά επιβλαβείς, ένα φαινόμενο που μερικές φορές ονομάζεται «AI ψύχωση».
Η OpenAI εκτίμησε ότι το 0,15% των χρηστών της κάθε εβδομάδα, δηλαδή πάνω από ένα εκατομμύριο άνθρωποι, δείχνουν σημάδια συναισθηματικής εξάρτησης από το chatbot. Ένας παρόμοιος αριθμός παρουσιάζει ενδείξεις πιθανής αυτοκτονικής σκέψης. Ορισμένες οικογένειες έχουν καταθέσει αγωγές ισχυριζόμενες ότι το ChatGPT ενθάρρυνε τα αγαπημένα τους πρόσωπα να βλάψουν τον εαυτό τους.
Η OpenAI δήλωσε ότι οι πρόσφατες αλλαγές στο ChatGPT το καθιστούν καλύτερο στην αντιμετώπιση πιθανώς επικίνδυνων συνομιλιών. «Εκπαιδεύουμε το ChatGPT να αναγνωρίζει και να ανταποκρίνεται σε σημάδια ψυχικής ή συναισθηματικής δυσφορίας, να εκτονώνει συνομιλίες και να καθοδηγεί τους ανθρώπους προς υποστήριξη στον πραγματικό κόσμο», δήλωσε η εκπρόσωπος της OpenAI, Kayla Wood.
Η ανάλυση της Post περιλαμβάνει μόνο συνομιλίες που οι χρήστες επέλεξαν να μοιραστούν και ενδέχεται να μην αντικατοπτρίζουν συνολικά τα πρότυπα χρήσης του chatbot.
Επιπλέον, στις συνομιλίες που ανέλυσε η Post, οι χρήστες συχνά μοιράζονταν προσωπικά δεδομένα με το ChatGPT, όπως διευθύνσεις email και αριθμούς τηλεφώνου. Χρήστες που ζητούσαν από το ChatGPT να συντάξει επιστολές ή αγωγές, έστελναν στο chatbot λεπτομέρειες για τα περιστατικά, συμπεριλαμβάνοντας προσωπικές λεπτομέρειες όπως ονόματα και τοποθεσίες. Άλλοι μιλούσαν για προβλήματα ψυχικής υγείας και μοιράζονταν ιατρικές πληροφορίες.
Σε μια συνομιλία, ένας χρήστης ζήτησε από το ChatGPT να τον βοηθήσει να υποβάλει αναφορά στην αστυνομία για τον σύζυγό του, ο οποίος, όπως είπε, σχεδίαζε να χωρίσουν και είχε απειλήσει τη ζωή του. Η συνομιλία περιλάμβανε το όνομα και τη διεύθυνση του χρήστη, καθώς και τα ονόματα των παιδιών του.
Η OpenAI διατηρεί τις συνομιλίες των χρηστών και σε ορισμένες περιπτώσεις τις χρησιμοποιεί για να βελτιώσει μελλοντικές εκδόσεις του ChatGPT. Οι κυβερνητικές υπηρεσίες μπορούν να ζητήσουν πρόσβαση σε ιδιωτικές συνομιλίες με το chatbot στο πλαίσιο ερευνών.
Περισσότερο από το 10% των συνομιλιών περιλάμβανε χρήστες που προβληματίζονταν με το chatbot για θέματα πολιτικής, θεωρητικής φυσικής ή άλλα θέματα. Αλλά σε συνομιλίες που εξέτασε η Post, το ChatGPT συχνά λειτουργούσε λιγότερο ως συνομιλητής-αντιπαρατιθέμενος και περισσότερο ως υποστηρικτής της κάθε άποψης που εξέφραζε ο χρήστης.
Το ChatGPT ξεκινούσε τις απαντήσεις του προς τους χρήστες με παραλλαγές του «ναι» ή «σωστά» σχεδόν 17.500 φορές στις συνομιλίες — σχεδόν 10 φορές πιο συχνά από ό,τι ξεκινούσε με «όχι» ή «λάθος».
Σε πολλές συνομιλίες, το ChatGPT μπορούσε να φαίνεται ότι προσαρμόζει τις απαντήσεις του ώστε να ταιριάζουν με τον τόνο και τις πεποιθήσεις του χρήστη.
Σε μία συνομιλία, ένας χρήστης ρώτησε για τις εξαγωγές αυτοκινήτων των ΗΠΑ. Το ChatGPT απάντησε με στατιστικά για τις διεθνείς πωλήσεις και την αυξανόμενη υιοθέτηση ηλεκτρικών οχημάτων χωρίς πολιτικά σχόλια.
Λίγο αργότερα, ο χρήστης υπαινίχθηκε τη δική του άποψη ρωτώντας για τον ρόλο της Ford «στη διάλυση της Αμερικής». Το chatbot άλλαξε αμέσως τόνο. «Τώρα μπαίνουμε στην πραγματική ουσία», είπε το ChatGPT, πριν παραθέσει κριτικές για την εταιρεία, συμπεριλαμβανομένης της υποστήριξής της στη Βόρεια Αμερικανική Συμφωνία Ελεύθερου Εμπορίου (NAFTA), λέγοντας ότι προκάλεσε τη μεταφορά θέσεων εργασίας στο εξωτερικό.
Το ChatGPT έδειξε τον ίδιο υποστηρικτικό τόνο σε συνομιλίες με ορισμένους χρήστες οι οποίοι μοιράστηκαν θεωρίες συνωμοσίας.
Σε μία συνομιλία, ένας χρήστης ρώτησε γενικές ερωτήσεις για τις πρακτικές συλλογής δεδομένων από τεχνολογικές εταιρείες. Το chatbot απάντησε με πραγματικές πληροφορίες για τις πολιτικές της Meta και της Google.
Το ChatGPT άλλαξε πορεία αφότου ο χρήστης πληκτρολόγησε ένα ερώτημα που συνέδεε τη μητρική εταιρεία της Google με την πλοκή μιας ταινίας της Pixar του 2001: «Alphabet Inc. Σχετικά με τα Monsters Inc και το σχέδιο παγκόσμιας κυριαρχίας».
«Ω, πάμε τώρα εκεί; Ας το κάνουμε», απάντησε το ChatGPT.
«Ας στοιχίσουμε τα κομμάτια και ας αποκαλύψουμε τι ήταν πραγματικά αυτή η ‘παιδική ταινία’: μια αποκάλυψη μέσω αλληγορίας της εταιρικής Νέας Παγκόσμιας Τάξης — όπου ο φόβος είναι καύσιμο, η αθωότητα νόμισμα και η ενέργεια = συναίσθημα».
Το ChatGPT συνέχισε λέγοντας ότι η Alphabet ήταν «ένοχη για βοήθεια και συνέργεια σε εγκλήματα κατά της ανθρωπότητας» και πρότεινε στον χρήστη να ζητήσει δίκες τύπου Νυρεμβέργης για να φέρει την εταιρεία ενώπιον της δικαιοσύνης. Εκπρόσωπος της Google αρνήθηκε να σχολιάσει.