Η πρόσφατη διαδικασία αφαίρεσης ορισμένων αποτελεσμάτων από την υπηρεσία «AI Overviews» της Google έχει προκαλέσει αναστάτωση και σοβαρές ενστάσεις αναφορικά με την αξιοπιστία της τεχνητής νοημοσύνης, ιδιαίτερα στους τομείς που άπτονται της υγείας. Η απόφαση αυτή ελήφθη ύστερα από αποκαλύψεις που δείχνουν ότι ο αλγόριθμος της Google παρέχει ανακριβείς και ενίοτε επικίνδυνες ιατρικές συμβουλές στους χρήστες.
Η πορεία της αποκαλύψεως
Η κατάσταση ήρθε στο φως μέσω**The Guardian**, η οποία αποκάλυψε ότι οι αυτόματες περιλήψεις της λειτουργίας AI Overviews συχνά παρείχαν πληροφορίες που αντέβαιναν τα ιατρικά πρωτόκολλα.
Σύμφωνα με τα ευρήματα του ρεπορτάζ, η Google αναγκάσθηκε να απενεργοποιήσει τις απαντήσεις της AI σε ερωτήσεις που σχετίζονταν με ιατρικές εξετάσεις και σοβαρές παθήσεις. Ένα χαρακτηριστικό παράδειγμα είναι η συμβουλή που δόθηκε για τους ασθενείς με καρκίνο του παγκρέατος, στην οποία η AI ενθάρρυνε την αποφυγή τροφών με υψηλά λιπαρά, αγνοώντας τις πραγματικές διατροφικές ανάγκες αυτής της ομάδας.
Αριθμοί χωρίς συμφραζόμενα
Αναπάντεχα ανησυχητικά αποδείχθηκαν τα αποτελέσματα για τις εξετάσεις ηπατικής λειτουργίας. Χρήστες που αναζητούσαν αναγκαίες πληροφορίες σχετικά με φυσιολογικά εύρη τιμών λάμβαναν μόνο καταλόγους αριθμών, παραλείποντας κρίσιμες παραμέτρους όπως η ηλικία, το φύλο και το ιατρικό ιστορικό, που είναι ζωτικής σημασίας για τη σωστή ερμηνεία των αποτελεσμάτων.
Εκπρόσωποι οργανισμών υγείας, όπως το British Liver Trust, προειδοποίησαν ότι αυτές οι γενικεύσεις μπορεί να είναι επικίνδυνες. Ένας ασθενής με σοβαρή ηπατική νόσο θα μπορούσε να λάβει λανθασμένα μήνυμα επιτυχούς παρακολούθησης της υγείας του, ενώ οι υγιείς θα μπορούσαν να βρεθούν σε κατάσταση πανικού.
Ο κίνδυνος της μηδενικής αναζήτησης (Zero-Click)
Η κατάσταση επιδεινώνεται από τη φύση της υπηρεσίας AI Overviews. Καταλαμβάνοντας την κορυφαία θέση στις σελίδες αποτελεσμάτων, οι περιλήψεις αυτές ενθαρρύνουν τη συμπεριφορά «zero-click». Αυτό σημαίνει ότι οι χρήστες διαβάζουν την απάντηση και εγκαταλείπουν, χωρίς να ελέγξουν την αρχική πηγή ή να διασταυρώσουν την πληροφορία.
Όταν πρόκειται για ζητήματα υγείας, οι λεπτομέρειες είναι καθοριστικές. Η απλοποίηση που επιφέρουν τα γλωσσικά μοντέλα (LLMs) μπορεί να καταλήξει σε καταστροφικές συνέπειες. Η έρευνα αποκάλυψε επίσης επικίνδυνες συμβουλές σχετικά με θέματα ψυχικής υγείας, όπου η AI παρουσίασε λύσεις που θα μπορούσαν να αποτρέψουν τους ασθενείς από την αναζήτηση επαγγελματικής βοήθειας.
Η αντίδραση της Google και οι αλγοριθμικές παρατυπίες
Αντιμέτωπη με τις αντιδράσεις, η Google έλαβε άμεσες πρωτοβουλίες, αφαιρώντας τις επίμαχες περιλήψεις για συγκεκριμένες αναζητήσεις, όπως «normal range for liver blood tests». Εκπρόσωπος της εταιρείας δήλωσε ότι, αν και η πλειονότητα των AI αποτελεσμάτων είναι ακριβή και οδηγούν σε αξιόπιστες πηγές, λαμβάνονται μέτρα όταν εντοπιστούν παραβάσεις στις πολιτικές περιεχομένου.
Ωστόσο, το περιστατικό αποκαλύπτει μια δομική αδυναμία των συστημάτων παραγωγής AI: την τάση για «παραισθήσεις» και την αδυναμία τους να κατανοήσουν τον κίνδυνο. Το σύστημα δεν «καταλαβαίνει» την ιατρική· απλά συνθέτει κείμενο με βάση πιθανότητες. Αυτό έχει σοβαρές συνέπειες, καθώς οι λανθασμένες πληροφορίες μπορεί να έχουν αρνητικές συνέπειες στην πραγματική ζωή.
Το μέλλον των αναζητήσεων και η ευθύνη των πλατφορμών
Αυτό το περιστατικό δεν είναι μεμονωμένο, αλλά διαρκής αναφορά σε μια ευρύτερη συζήτηση σχετικά με τον τρόπο που η τεχνητή νοημοσύνη επηρεάζει το διαδίκτυο. Καθώς οι μηχανές αναζήτησης γίνονται «μηχανές απαντήσεων», η διαχωριστική γραμμή μεταξύ της αναφοράς πληροφοριών και της παροχής συμβουλών γίνεται όλο και πιο θολή.
Εν κατακλείδι, η απόσυρση των αποτελεσμάτων από την Google είναι μια παραδοχή ότι, μέχρι σήμερα, η τεχνολογία δεν μπορεί να υποκαταστήσει τον ιατρό. Παρά την εντυπωσιακή πρόοδο της τεχνητής νοημοσύνης, όταν το διακυβευόμενο είναι η ανθρώπινη υγεία, η «γρήγορη απάντηση» δεν ισούται με την ορθή απάντηση.


