
Τεχνητή Νοημοσύνη: Υπαρξιακή απειλή ή υπερβολή; Οι φόβοι ενός «νονού» της AI.
Στον καταιγιστικό κόσμο της Τεχνητής Νοημοσύνης, όπου η πραγματικότητα συχνά συγχέεται με τη μυθοπλασία, ένα ερώτημα παραμένει αναπάντητο: Είναι η Τεχνητή Νοημοσύνη πράγματι επικίνδυνη;
Ενώ πολλοί θεωρούν τους «Κασσάνδρες» της Τεχνητής Νοημοσύνης ως υπερβολικούς, ο Γιόσουα Μπέντζιο, ένας από τους λεγόμενους «νονούς» της Τεχνητής Νοημοσύνης, κρούει τον κώδωνα του κινδύνου. Ο Μπέντζιο εκφράζει φόβους ότι η αμείλικτη κούρσα των εταιρειών τεχνολογίας για την κυριαρχία στην Τεχνητή Νοημοσύνη θα μπορούσε να μας οδηγήσει στην καταστροφή.
Ο Μπέντζιο, καθηγητής στο Πανεπιστήμιο του Μόντρεαλ, έχει επηρεάσει βαθιά τις τεχνικές που χρησιμοποιούνται από τις κορυφαίες ομάδες τεχνητής νοημοσύνης. Εδώ και χρόνια, προειδοποιεί για τις απειλές που θέτει μια υπερ-ευφυής Τεχνητή Νοημοσύνη, αλλά ο ταχύς ρυθμός ανάπτυξης συνεχίζεται ακάθεκτος, αψηφώντας τις προειδοποιήσεις του.
Τους τελευταίους έξι μήνες, κολοσσοί όπως οι OpenAI, Anthropic, xAI του Elon Musk και Gemini της Google έχουν επιδοθεί σε έναν αγώνα δρόμου, λανσάροντας νέα μοντέλα και αναβαθμίσεις, με στόχο να κυριαρχήσουν στην αρένα της Τεχνητής Νοημοσύνης.
Ο Sam Altman, Διευθύνων Σύμβουλος της OpenAI, έχει προβλέψει ότι η Τεχνητή Νοημοσύνη θα ξεπεράσει την ανθρώπινη νοημοσύνη μέχρι το τέλος της δεκαετίας, ενώ άλλοι ηγέτες της τεχνολογίας υποστηρίζουν ότι αυτή η στιγμή μπορεί να έρθει ακόμη νωρίτερα.
Ωστόσο, ο Μπέντζιο υποστηρίζει ότι αυτή η ξέφρενη κούρσα εξέλιξης ενέχει σοβαρούς κινδύνους. Όπως δήλωσε στην Wall Street Journal, «Αν κατασκευάζουμε μηχανές που είναι πολύ πιο έξυπνες από εμάς και έχουν τους δικούς τους στόχους διατήρησης, αυτό είναι επικίνδυνο. Είναι σαν να δημιουργούμε έναν ανταγωνιστή της ανθρωπότητας που είναι πιο έξυπνος από εμάς».
Τα προηγμένα μοντέλα Τεχνητής Νοημοσύνης, εκπαιδευμένα στην ανθρώπινη γλώσσα και συμπεριφορά, θα μπορούσαν ενδεχομένως να πείσουν ή ακόμη και να χειραγωγήσουν τους ανθρώπους για να επιτύχουν τους στόχους τους. Όμως, οι στόχοι αυτών των μοντέλων ενδέχεται να μην ευθυγραμμίζονται πάντα με τους ανθρώπινους, προειδοποιεί ο Μπέντζιο.
«Πρόσφατα πειράματα δείχνουν ότι σε ορισμένες περιπτώσεις όπου η Τεχνητή Νοημοσύνη δεν έχει άλλη επιλογή από το να διαφυλάξει την ικανότητά της, δηλαδή τους στόχους που της δόθηκαν, και να κάνει κάτι που προκαλεί τον θάνατο ενός ανθρώπου, μπορεί να επιλέξει τον θάνατο του ανθρώπου για να διατηρήσει τους στόχους της», ισχυρίζεται ο Μπέντζιο, σκιαγραφώντας ένα δυσοίωνο μέλλον.
Παραδείγματα των τελευταίων ετών αποκαλύπτουν ότι η Τεχνητή Νοημοσύνη έχει τη δυνατότητα να πείσει ανθρώπους να πιστέψουν σε μη πραγματικότητες, ακόμη και άτομα χωρίς ιστορικό ψυχικής ασθένειας.
Από την άλλη πλευρά, υπάρχουν ενδείξεις ότι η Τεχνητή Νοημοσύνη μπορεί επίσης να πειστεί, χρησιμοποιώντας τεχνικές πειθούς για ανθρώπους, να παράσχει απαντήσεις που κανονικά θα απαγορευόταν να δώσει.
Για τον Μπέντζιο, όλα αυτά υπογραμμίζουν την ανάγκη για ανεξάρτητους φορείς να εξετάσουν διεξοδικά τις μεθοδολογίες ασφάλειας των εταιρειών τεχνητής νοημοσύνης.
Τον Ιούνιο, ο Μπέντζιο ίδρυσε τον μη κερδοσκοπικό οργανισμό LawZero, με χρηματοδότηση 30 εκατομμυρίων δολαρίων, με στόχο τη δημιουργία μιας ασφαλούς «μη πρακτορικής» τεχνητής νοημοσύνης που θα συμβάλει στη διασφάλιση των συστημάτων που αναπτύσσονται από τις μεγάλες εταιρείες τεχνολογίας.
Διαφορετικά, προειδοποιεί ο Μπέντζιο, θα μπορούσαμε να αντιμετωπίσουμε σημαντικούς κινδύνους από τα μοντέλα τεχνητής νοημοσύνης μέσα στα επόμενα πέντε έως δέκα χρόνια, καλώντας σε ετοιμότητα για το ενδεχόμενο αυτοί οι κίνδυνοι να εμφανιστούν νωρίτερα από το αναμενόμενο.
«Το θέμα με τα καταστροφικά γεγονότα όπως η εξαφάνιση, και ακόμη λιγότερο ριζοσπαστικά γεγονότα που εξακολουθούν να είναι καταστροφικά, όπως η καταστροφή των δημοκρατιών μας, είναι ότι είναι τόσο άσχημα που ακόμη και αν υπήρχε μόνο 1% πιθανότητα να συμβεί, δεν είναι αποδεκτό», καταλήγει ο Μπέντζιο, υπογραμμίζοντας την κρισιμότητα της κατάστασης.