Το ChatGPT κλήθηκε να λύσει πρόβλημα 2.400 ετών και η απάντηση δείχνει ότι αρχίζει να σκέφτεται όπως οι άνθρωποι

ChatGPT: Μιμείται ανθρώπινη σκέψη στα μαθηματικά προβλήματα;

Επιστήμη
Δημοσιεύθηκε  · 3 λεπτά ανάγνωση

«Πώς μπορούμε να διπλασιάσουμε το εμβαδόν ενός τετραγώνου;». Αυτό το ερώτημα, σύμφωνα με τον Πλάτωνα, έθεσε ο Σωκράτης σε έναν μαθητή του. 2.400 χρόνια μετά, το ChatGPT έκανε παρόμοια λάθη, σύμφωνα με νέα έρευνα.

Εάν δεν έχει γίνει πλήρως κατανοητό, η Τεχνητή Νοημοσύνη δεν είναι απλώς μια εξελιγμένη εκδοχή των μηχανών αναζήτησης στο διαδίκτυο. Είναι, αντίθετα, ένας μηχανισμός που μπορεί να εμπεδώνει και να αναπαράγει γνώση, όπως ακριβώς κάνουμε και εμείς οι άνθρωποι. Το πείραμα που έκαναν επιστήμονες πανεπιστημίων στο Κέμπριτζ και την Ιερουσαλήμ δείχνει πως αυτός ο μηχανισμός έχει αρχίσει να μας «μοιάζει» ανησυχητικά.

Το πρόβλημα θεωρείται κλασικό της αρχαίας Ελλάδας, γράφουν οι συντάκτες του άρθρου στον ιστότοπο του Πανεπιστημίου του Κέμπριτζ. Η άσκηση που επιλέχθηκε ήταν το γνωστό πρόβλημα του «διπλασιασμού του τετραγώνου», που αφηγείται ο Πλάτωνας τον 4ο αιώνα π.Χ. Σε αυτό, ο Σωκράτης ρωτά έναν νεαρό άνδρα πώς να διπλασιάσει το εμβαδόν ενός τετραγώνου. Το λάθος του μαθητή, που συνίστατο στον διπλασιασμό του μήκους των πλευρών αντί να χρησιμοποιήσει τη διαγώνιο, έγινε ένα κλασικό παράδειγμα στη συζήτηση εάν η μαθηματική γνώση είναι έμφυτη ή αποκτάται μέσω της εμπειρίας.

Οι ερευνητές στο Κέμπριτζ αλλά και το Εβραϊκό Πανεπιστήμιο της Ιερουσαλήμ θεώρησαν αυτό το πρόβλημα ιδανικό, επειδή η λύση δεν ήταν προφανής και, επειδή δεν βασιζόταν σε εικόνα, δύσκολα θα μπορούσε να εμφανιστεί στα δεδομένα εκπαίδευσης του ChatGPT. Ουσιαστικά, ο στόχος τους ήταν να ελέγξουν εάν το μοντέλο ήταν ικανό να καταλήξει σε μια λογική λύση χωρίς να βασίζεται σε προηγούμενες πληροφορίες.

Το αποτέλεσμα δεν ήταν ακριβώς ίδιο με αυτό του μαθητή. Το ChatGPT δεν έπεσε στην «παγίδα» να διπλασιάσει τις πλευρές, όπως έκανε ο μαθητής του Σωκράτη, αλλά έκανε παρόμοιο λάθος σε δεύτερο στάδιο. Δηλαδή, αρχικά απάντησε σωστά, διπλασιάζοντας τη διαγώνιο του τετραγώνου. Όταν όμως οι επιστήμονες του έθεσαν το ίδιο πρόβλημα με ορθογώνιο, το ChatGPT κατέληξε σε λανθασμένο αποτέλεσμα, κάνοντας ένα σφάλμα συγκρίσιμο με αυτό που θα έκανε ένας μαθητής κατά τη μαθησιακή διαδικασία.

«Όταν αντιμετωπίζουμε ένα νέο πρόβλημα, το ένστικτό μας είναι να δοκιμάσουμε πράγματα με βάση την προηγούμενη εμπειρία. Στο πείραμά μας, το ChatGPT φάνηκε να συμπεριφέρεται παρόμοια» σημείωσε ο Ναντάι Μάρκο, επισκέπτης ερευνητής στο Cambridge.

Σύμφωνα με τον Μάρκο, η πιθανότητα αυτές οι απαντήσεις να βρίσκονται στα δεδομένα εκπαίδευσης ήταν «πρακτικά μηδενική», ενισχύοντας την ιδέα ότι το σύστημα αυτοσχεδίαζε με βάση τον διάλογο. Αυτό το χαρακτηριστικό το φέρνει πιο κοντά στον τρόπο με τον οποίο οι άνθρωποι δημιουργούν υποθέσεις και δοκιμάζουν τα δικά τους συμπεράσματα.

Ο καθηγητής Ανδρέας Στυλιανίδης συνέδεσε αυτήν τη συμπεριφορά με τη «ζώνη της επικείμενης ανάπτυξης», μια έννοια στην παιδαγωγική που περιγράφει τη διαφορά μεταξύ αυτού που ένας μαθητής έχει ήδη κατακτήσει και αυτού που μπορεί να μάθει με καθοδήγηση. Απροσδόκητα, το ChatGPT φάνηκε να εφαρμόζει τον ίδιο μηχανισμό, αναπτύσσοντας νέες προτάσεις χωρίς απλώς να επαναλαμβάνει δεδομένα.

Η μελέτη, που δημοσιεύθηκε στο Διεθνές Περιοδικό Μαθηματικής Εκπαίδευσης στην Επιστήμη και την Τεχνολογία, υπογραμμίζει ότι δεν μπορεί ακόμη να ειπωθεί ότι η τεχνητή νοημοσύνη σκέφτεται σαν άνθρωπος. Ωστόσο, υποδηλώνει ότι αυτός ο τύπος συμπεριφοράς έχει ορισμένες ομοιότητες.