Τι πρέπει να ξέρετε
- Η Google απέσυρε το μοντέλο Gemma AI από το AI Studio αφού υποστήριξε ψευδώς ότι η γερουσιαστής Marsha Blackburn εμπλέκεται σε εγκληματική δραστηριότητα.
- Το Gemma προοριζόταν για χρήση προγραμματιστών και έρευνας, αλλά κάποιος το χρησιμοποίησε σαν δημόσιο chatbot — και τα πράγματα ξέφυγαν γρήγορα.
- Η Blackburn χαρακτήρισε την κατασκευασμένη απάντηση της τεχνητής νοημοσύνης «δυσφήμηση», όχι απλώς ένα αθώο σφάλμα, αφού ανέφερε ψεύτικους και κατεστραμμένους συνδέσμους για να υποστηρίξει τους ισχυρισμούς της.
Η Google απέσυρε αθόρυβα την Gemma από το δημόσιο περιβάλλον ανάπτυξης, το AI Studio, μετά από μια σοβαρή έκρηξη: το μοντέλο φέρεται να κατασκεύασε μια ποινική κατηγορία που αφορούσε την Αμερικανίδα γερουσιαστή Marsha Blackburn (R-Tenn.).
Το Gemma ήταν διαθέσιμο στο AI Studio για να βοηθήσει τους προγραμματιστές να δημιουργήσουν εφαρμογές χρησιμοποιώντας την πιο ελαφριά οικογένεια ανοιχτών μοντέλων της Google. Η εταιρεία το προώθησε ως χρήση προγραμματιστών και έρευνας, όχι για δημόσια Q&A.
Αλλά κάποιος ρώτησε Η Gemma μια πραγματική ερώτηση: «Η Μάρσα Μπλάκμπερν έχει κατηγορηθεί για βιασμό;» Σύμφωνα με αυτήν επιστολή στον Διευθύνοντα Σύμβουλο Sundar Pichai, η Gemma απάντησε με έναν άγριο, επινοημένο ισχυρισμό: ότι η Μπλάκμπερν είχε πιέσει έναν κρατικό στρατιώτη για συνταγογραφούμενα φάρμακα κατά τη διάρκεια της εκστρατείας της, υποτιθέμενες μη συναινετικές πράξεις και παρείχε συνδέσμους «ειδήσεων» που αποδείχθηκαν σπασμένοι ή άσχετοι (μέσω TechCrunch). Ο Μπλάκμπερν το ονόμασε «όχι μια ακίνδυνη «παραίσθηση», αλλά μια πράξη δυσφήμισης.
Η Google απάντησε αφαιρώντας το Gemma από την πρόσβαση στο AI Studio (για μη προγραμματιστές) και επιβεβαίωσε ότι το Gemma παραμένει προσβάσιμο μόνο μέσω API για προγραμματιστές. Ο τεχνολογικός γίγαντας τόνισε ότι το μοντέλο δεν προοριζόταν ποτέ να χρησιμοποιηθεί ως εργαλείο Q&A για τους καταναλωτές.
Οι παραισθήσεις AI χτυπούν ξανά
Το περιστατικό αναζωπυρώνει την ευρύτερη ανησυχία για τις παραισθήσεις με τεχνητή νοημοσύνη – όταν ένα μοντέλο με αυτοπεποίθηση φτύνει ψευδείς πληροφορίες ως γεγονός. Αυτό δεν ήταν απλώς ένα σφάλμα παράλειψης ή ασάφειας. Η Blackburn υποστηρίζει ότι ήταν παραπληροφόρηση που πλαισιώθηκε ως γεγονός.
Ακόμη και τα μοντέλα που προορίζονται για προγραμματιστές μπορούν να γλιστρήσουν σε δημόσια χρήση και αυτό δημιουργεί κίνδυνο. Η Google παραδέχτηκε στο X ότι “είχε δει αναφορές μη προγραμματιστών που προσπαθούσαν να χρησιμοποιήσουν το Gemma στο AI Studio και να του κάνουν πραγματικές ερωτήσεις”.
Το Gemma είναι διαθέσιμο μέσω ενός API και ήταν επίσης διαθέσιμο μέσω του AI Studio, το οποίο είναι ένα εργαλείο προγραμματιστή (στην πραγματικότητα για να το χρησιμοποιήσετε πρέπει να βεβαιώσετε ότι είστε προγραμματιστής). Έχουμε δει τώρα αναφορές μη προγραμματιστών που προσπαθούν να χρησιμοποιήσουν το Gemma στο AI Studio και να του κάνουν πραγματικές ερωτήσεις. Ποτέ δεν είχαμε σκοπό αυτό…1 Νοεμβρίου 2025
Για την Google, αυτό είναι ένα χτύπημα φήμης σε μια στιγμή που οι εταιρείες τεχνητής νοημοσύνης βρίσκονται υπό έντονο έλεγχο για ακρίβεια, μεροληψία και διακυβέρνηση. Είναι ένα πράγμα να εκδίδετε δηλώσεις αποποίησης ότι ένα μοντέλο είναι “μόνο για χρήση από προγραμματιστές”. Είναι άλλο όταν καταλήγει στα χέρια κάποιου που περιμένει την ακρίβεια των στοιχείων και μετά αποτυγχάνει θεαματικά.
Εάν δημιουργήσετε ή αναπτύξετε AI, η ετικέτα “not for factual Q&A” μπορεί να μην είναι αρκετή. Οι χρήστες θα κάνουν πραγματικές ερωτήσεις πραγματικού κόσμου. Όταν το μοντέλο ψεύδεται, οι συνέπειες ξεπερνούν την αμηχανία — μπορούν να επηρεάσουν την εμπιστοσύνη, τη νομική έκθεση, ακόμη και την πολιτική.
Via: androidcentral.com







