Τα AI chatbots έχουν εισέλθει με δυναμισμό στην καθημερινότητά μας, προσφέροντας λειτουργίες που περιλαμβάνουν τη συγγραφή κειμένων, την παροχή απαντήσεων σε ερωτήσεις, την υποστήριξη στην εργασία μας και την αλληλεπίδραση με τρόπο που μιμείται τον ανθρώπινο διάλογο. Η επανάσταση που προκαλούν στην επικοινωνία και την εργασία είναι αναμφισβήτητη.
Ωστόσο, παρά τον ενθουσιασμό που προκαλούν, πολλοί ειδικοί στον τομέα της τεχνητής νοημοσύνης εκφράζουν επιφυλάξεις σχετικά με την αξιοπιστία αυτών των συστημάτων. Δεν είναι λίγοι αυτοί που θεωρούν ότι οι κίνδυνοι είναι σοβαροί και ότι οι βεβαιότητες είναι περιορισμένες.
Όταν η ακρίβεια δεν είναι εγγυημένη
Ένα από τα βασικά προβλήματα που αντιμετωπίζουν τα chatbots είναι ο τρόπος λειτουργίας τους. Αυτά τα συστήματα βασίζονται σε μοντέλα που προβλέπουν λέξεις και μοτίβα, χωρίς να κατανοούν πραγματικά την ουσία του περιεχομένου. Αυτή η προσέγγιση μπορεί συχνά να έχει ως αποτέλεσμα την παραγωγή «παραισθητικών» απαντήσεων που φαίνονται πειστικές αλλά είναι εκ διαμέτρου λανθασμένες. Η [OpenAI](https://openai.com/) και άλλες εταιρείες που αναπτύσσουν τεχνητή νοημοσύνη έχουν επισημάνει αυτούς τους κινδύνους.
Το πιο ανησυχητικό είναι ότι τα συστήματα συχνά δεν αναγνωρίζουν πότε κάνουν λάθος, γεγονός που οδηγεί τους χρήστες σε ανακριβείς πληροφορίες χωρίς προειδοποίηση. Οι ειδικοί υπογραμμίζουν πως όσο πιο πειστική γίνεται η γλώσσα των μοντέλων, τόσο πιο επικίνδυνες γίνονται οι αστοχίες τους, κυρίως σε κρίσιμες περιοχές όπως η υγειονομική περίθαλψη, οι νομικές συμβουλές ή οι οικονομικές συναλλαγές.
Υποστήριξη και εκπαίδευση “από τα αποδυτήρια”
Ένας άλλος παράγοντας ανησυχίας προέρχεται από τους ανθρώπινους αξιολογητές που εκπαιδεύουν τα συστήματα. Πολλοί από αυτούς έχουν καταγγείλει την ελλιπή εκπαίδευση, τα πιεστικά χρονοδιαγράμματα και την περιορισμένη υποστήριξη κατά τη διάρκεια της αξιολόγησης των δεδομένων. Αυτό σημαίνει ότι τα δεδομένα αξιολόγησης που χρησιμοποιούνται για τη βελτίωση των μοντέλων συχνά δεν πληρούν τις απαραίτητες προδιαγραφές ποιότητας.
Αν το «υλικό» πάνω στο οποίο εκπαιδεύεται ένα chatbot δεν είναι σωστά επιλεγμένο, τότε οι απαντήσεις του αναπόφευκτα θα είναι ασαφείς ή ακόμη και λανθασμένες.
Η ασφάλεια και η ηθική στην πρώτη γραμμή
Η ραγδαία ανάπτυξη της τεχνητής νοημοσύνης δημιούργησε ένα κενό σε ό,τι αφορά την ηθική και νομική ρύθμιση των συστημάτων αυτών. Οι ειδικοί προειδοποιούν ότι η κοινωνία δεν προλαβαίνει να δημιουργήσει τους απαραίτητους μηχανισμούς ελέγχου με τον ίδιο ρυθμό που εξελίσσεται η τεχνολογία. Θεμελιώδη θέματα όπως η παραπληροφόρηση, οι μεροληψίες και η προστασία των προσωπικών δεδομένων γίνονται όλο και πιο κρίσιμα.










