Μια επικίνδυνη συμβουλή του ChatGPT σχετικά με τη διατροφή οδήγησε 60χρονο άνδρα στο νοσοκομείο με παραισθήσεις

ChatGPT: 60χρονος κατέληξε στο νοσοκομείο μετά από συμβουλή για το αλάτι!

Υγεία
Δημοσιεύθηκε  · 3 λεπτά ανάγνωση

Τα τελευταία χρόνια, η τεχνητή νοημοσύνη έχει διεισδύσει σε κάθε πτυχή της ζωής μας, από την εκπαίδευση μέχρι την ψυχαγωγία. Πολλοί στρέφονται σε εφαρμογές όπως το ChatGPT για γρήγορες απαντήσεις, όμως μια πρόσφατη περίπτωση αναδεικνύει και τους κινδύνους, ιδιαίτερα όταν αγγίζουμε θέματα υγείας.

Ένας 60χρονος άνδρας, με σπουδές στη διατροφή, θέλησε να βελτιώσει τη διατροφή του και συμβουλεύτηκε το ChatGPT σχετικά με το αλάτι. Το AI, αφού ανέφερε τις αρνητικές επιπτώσεις του επιτραπέζιου αλατιού, πρότεινε την αντικατάστασή του με βρωμιούχο νάτριο. Μια πρόταση που αποδείχθηκε καταστροφική.

Το βρωμιούχο νάτριο, αν και εμφανισιακά μοιάζει με το κοινό αλάτι, είναι μια εντελώς διαφορετική χημική ένωση με σημαντικές τοξικές ιδιότητες. Χρησιμοποιείται σε μικρές δόσεις σε ιατρικές εφαρμογές, αλλά κυρίως σε βιομηχανικές διαδικασίες και ως καθαριστικό. Η κατανάλωσή του σε ποσότητες αντίστοιχες της χρήσης αλατιού μπορεί να προκαλέσει σοβαρή δηλητηρίαση.

Ο άνδρας, πεισμένος για την ορθότητα της συμβουλής, αντικατέστησε πλήρως το κοινό αλάτι με βρωμιούχο νάτριο που προμηθεύτηκε μέσω διαδικτύου. Μετά από τρεις μήνες, η υγεία του άρχισε να κλονίζεται. Ο γείτονάς του, ανησυχώντας, ειδοποίησε τις αρχές και ο άνδρας εισήχθη εσπευσμένα στο νοσοκομείο, σύμφωνα με δημοσίευμα της New York Post.

Κατά την εισαγωγή, ο ασθενής παρουσίαζε έντονη δίψα, προβλήματα συντονισμού και σοβαρά ψυχιατρικά συμπτώματα, όπως οπτικές και ακουστικές παραισθήσεις. Η κατάστασή του ήταν τόσο κρίσιμη που χρειάστηκε αναγκαστική ψυχιατρική νοσηλεία και χορήγηση αντιψυχωσικών φαρμάκων.

Οι γιατροί διέγνωσαν βρωμισμό, ένα τοξικό σύνδρομο που προκαλείται από υπερβολική έκθεση σε βρωμιούχο νάτριο ή βρώμιο. Μετά τη βελτίωση της κατάστασής του, ο ασθενής ανέφερε συμπτώματα όπως ακμή, κόπωση, αϋπνία, απώλεια μυϊκού συντονισμού και πολυδιψία, συμπτώματα δηλητηρίασης από τη συγκεκριμένη ουσία.

Η περίπτωση, που δημοσιεύθηκε στο ιατρικό περιοδικό Annals of Internal Medicine Clinical Cases, αποτελεί ένα ηχηρό παράδειγμα των κινδύνων που εγκυμονεί η υπερβολική εμπιστοσύνη σε μη ιατρικά εργαλεία AI για θέματα υγείας.

Όπως τονίζουν οι συγγραφείς της μελέτης, το ChatGPT και παρόμοια συστήματα συχνά παράγουν επιστημονικές ανακρίβειες και δεν μπορούν να συζητήσουν κριτικά ή να ερμηνεύσουν σωστά τα αποτελέσματα, οδηγώντας στη διάδοση λανθασμένων ή επικίνδυνων πληροφοριών.

Η OpenAI, η εταιρεία που δημιούργησε το ChatGPT, αναφέρει στους όρους χρήσης ότι το εργαλείο δεν προορίζεται για διάγνωση ή θεραπεία ιατρικών καταστάσεων. Παρόλα αυτά, μεγάλο μέρος του πληθυσμού στρέφεται στην AI για εύκολες και γρήγορες απαντήσεις σχετικά με την υγεία του.

Έρευνα του 2025 δείχνει ότι πάνω από το ένα τρίτο των Αμερικανών χρησιμοποιούν την τεχνητή νοημοσύνη για να μάθουν και να διαχειριστούν ζητήματα υγείας, με την εμπιστοσύνη στα AI συστήματα να είναι υψηλότερη από αυτήν που έχουν στα μέσα κοινωνικής δικτύωσης ή τους influencers.