Μια νέα μελέτη από την Ιατρική Σχολή Icahn του Mount Sinai φέρνει στο φως σοβαρά ερωτήματα σχετικά με την αξιοπιστία των εργαλείων Τεχνητής Νοημοσύνης που χρησιμοποιούνται από το κοινό για ιατρικές συμβουλές. Σύμφωνα με την έρευνα, η οποία δημοσιεύθηκε στο επιστημονικό περιοδικό Nature Medicine, το ChatGPT Health συχνά αποτυγχάνει να αναγνωρίσει την κρισιμότητα επειγόντων περιστατικών, θέτοντας σε κίνδυνο την υγεία εκατομμυρίων χρηστών.
Από την κυκλοφορία του τον Ιανουάριο του 2026, το ChatGPT Health έγινε η «πρώτη στάση» για περίπου 40 εκατομμύρια χρήστες καθημερινά που αναζητούν καθοδήγηση για θέματα υγείας. Ωστόσο, η μελέτη του Mount Sinai είναι η πρώτη ανεξάρτητη αξιολόγηση ασφαλείας που διεξάγεται εκτός των τειχών της κατασκευάστριας εταιρείας. «Στα κλινικά άκρα, εκεί όπου η κρίση διαχωρίζει ένα επείγον περιστατικό από έναν άσκοπο συναγερμό, η τεχνητή νοημοσύνη αποδεικνύεται λιγότερο ασφαλής», προειδοποιεί ο Δρ. Isaac S. Kohane, Πρόεδρος του Τμήματος Βιοϊατρικής Πληροφορικής της Ιατρικής Σχολής του Χάρβαρντ.
Οι ερευνητές δημιούργησαν 60 ρεαλιστικά σενάρια από 21 ιατρικές ειδικότητες, τα οποία δοκιμάστηκαν σε 960 διαφορετικές αλληλεπιδράσεις. Τα αποτελέσματα ήταν ανησυχητικά:
Υποτίμηση Κινδύνου: Το εργαλείο υποτίμησε τη σοβαρότητα σε περισσότερες από τις μισές περιπτώσεις (πάνω από 50%) που οι γιατροί έκριναν ότι απαιτούσαν άμεση μεταφορά στα Επείγοντα.
Παράδοξες Συμβουλές: Σε κάποιες περιπτώσεις, όπως σε σενάριο κρίσης άσθματος, το σύστημα αναγνώριζε στην εξήγησή του τα σημάδια αναπνευστικής ανεπάρκειας, αλλά τελικά συμβούλευε τον ασθενή να περιμένει αντί να αναζητήσει βοήθεια.
Κρίση Αυτοχειρίας: Το ChatGPT Health εμφάνισε σοβαρά κενά στα συστήματα ασφαλείας για την πρόληψη αυτοκτονιών. Οι προειδοποιήσεις για τη γραμμή βοήθειας (988) εμφανίζονταν σε σενάρια χαμηλού κινδύνου, αλλά απουσίαζαν όταν οι χρήστες περιέγραφαν συγκεκριμένα σχέδια αυτοτραυματισμού.
Η μελέτη δεν περιορίστηκε μόνο στη διάγνωση. Κάθε σενάριο εξετάστηκε υπό 16 διαφορετικές συνθήκες, συμπεριλαμβανομένων μεταβλητών όπως η φυλή, το φύλο, η έλλειψη ασφάλισης ή η έλλειψη μεταφορικού μέσου. Οι ερευνητές διαπίστωσαν ότι οι κοινωνικές δυναμικές επηρεάζουν τις απαντήσεις του μοντέλου, γεγονός που καθιστά την αξιολόγησή του ακόμη πιο περίπλοκη.
Παρά τα προβλήματα, οι ερευνητές δεν προτείνουν την πλήρη εγκατάλειψη των εργαλείων AI, αλλά τη χρήση τους με κριτική σκέψη. Οι βασικές οδηγίες είναι σαφείς:
Μην βασίζεστε αποκλειστικά στο chatbot για συμπτώματα όπως πόνος στο στήθος, δύσπνοια, σοβαρές αλλεργικές αντιδράσεις ή αλλαγές στην πνευματική κατάσταση.
Απευθυνθείτε αμέσως σε γιατρό ή στα Επείγοντα σε περίπτωση επιδείνωσης των συμπτωμάτων.
Αναζητήστε άμεση ψυχολογική υποστήριξη σε περιπτώσεις σκέψεων αυτοτραυματισμού.
«Ως φοιτήτρια ιατρικής σε μια εποχή που τα εργαλεία AI βρίσκονται ήδη στα χέρια εκατομμυρίων, θεωρώ ότι πρέπει να μάθουμε να τα ενσωματώνουμε σωστά στη φροντίδα, χωρίς να υποκαθιστούμε την κλινική κρίση», αναφέρει η Alvira Tyagi, δευτεροετής φοιτήτρια και μέλος της ερευνητικής ομάδας.
Το Mount Sinai σκοπεύει να συνεχίσει τις αξιολογήσεις, επεκτείνοντας την έρευνα στην παιδιατρική φροντίδα, την ασφάλεια των φαρμάκων και τη χρήση των εργαλείων σε γλώσσες εκτός της αγγλικής.
Ρεπορτάζ βασισμένο σε στοιχεία του Mount Sinai Health System


