Ενώ χρησιμοποιείτε εργαλεία τεχνητής νοημοσύνης όπως το ChatGPT και το Gemini της Google για τη σύνταξη email, τη δημιουργία εικόνων και την αυτοματοποίηση εργασιών, ο αγώνας για την επίτευξη τεχνητής γενικής νοημοσύνης (AGI) έχει ήδη ενταθεί. Εν τω μεταξύ, CEO της Big Tech όπως ο Mark Zuckerberg της Meta και ο Elon Musk της Tesla στοχεύουν σε κάτι πολύ πιο φιλόδοξο: την ανάπτυξη της τεχνητής υπερνοημοσύνης (ASI).
Το AI κινείται γρήγορα: Όροι όπως AI, AGI και ASI ακούγονται παρόμοιοι, αλλά αντιπροσωπεύουν εντελώς διαφορετικά επίπεδα ικανότητας. Η τεχνητή νοημοσύνη που χρησιμοποιείτε σήμερα είναι “στενή”, καθώς είναι εκπαιδευμένη για συγκεκριμένες εργασίες όπως η δημιουργία κειμένου ή βίντεο και απαιτεί ανθρώπινη παρέμβαση. Το AGI θα έδινε στις μηχανές γνωστικές ικανότητες σε ανθρώπινο επίπεδο, που είναι κυρίως η ικανότητα να σκέφτονται, να μαθαίνουν, να λαμβάνουν αποφάσεις και να λύνουν προβλήματα χωρίς ειδική εκπαίδευση για κάθε εργασία.
Η ASI προχωρά παραπέρα, στοχεύοντας να ξεπεράσει τους ανθρώπους σχεδόν σε όλα. Οι ειδικοί λένε ότι θα έπαιρνε τις δικές της αποφάσεις και θα βελτιωνόταν χωρίς την ανθρώπινη συνδρομή. Η τεχνητή νοημοσύνη αντικαθιστά ήδη χιλιάδες θέσεις εργασίας, οι ειδικοί λένε ότι η AGI και η ASI θα μπορούσαν να αποτελέσουν ακόμη μεγαλύτερη απειλή. Λοιπόν, τι ακριβώς είναι το ASI; Και πρέπει να το προσέχουμε;
Τι ακριβώς είναι η τεχνητή υπερνοημοσύνη
Το SuperIntelligence είναι ένα υποθετικό σύστημα AI που ξεπερνά την ανθρώπινη νοημοσύνη σε κάθε τομέα. Από τη σύνταξη κώδικα και τη δημιουργία βίντεο μέχρι τη διενέργεια χειρουργικών επεμβάσεων και την οδήγηση αυτοκινήτων, θα έκανε τα πάντα ταυτόχρονα, κάτι που λείπει από τα σημερινά συστήματα AI. Τα εργαλεία τεχνητής νοημοσύνης που χρησιμοποιούμε προκαλούν ψευδαισθήσεις και απαιτούν εκπαίδευση με τεράστια δεδομένα για την εκτέλεση εργασιών με συγκεκριμένο τρόπο. Το ASI θα έβρισκε λύσεις σε πολύπλοκα προβλήματα με καλύτερο συλλογισμό και γνώση του πλαισίου. Ο φιλόσοφος Nick Bostrom, ο οποίος έκανε δημοφιλή τον όρο, ορίζει την υπερευφυΐα ως «κάθε νόηση που υπερβαίνει κατά πολύ τη γνωστική απόδοση των ανθρώπων σε σχεδόν όλους τους τομείς ενδιαφέροντος».
Τα τρέχοντα συστήματα AI χρειάζονται ανθρώπους για να τα βελτιώσουν: Οι μηχανικοί εργάζονται στον κώδικά τους, τροφοδοτούν τα μοντέλα τεράστιες ποσότητες δεδομένων για να βελτιώσουν τις προβλέψεις και τις απαντήσεις τους. Η ASI, από την άλλη πλευρά, θα μπορούσε να βελτιωθεί. Θα μπορούσε υποθετικά να ξαναγράψει τους δικούς του αλγόριθμους, τις δυνατότητες σχεδιασμού και τα συστήματα ελέγχου χωρίς οδηγίες.
Δεν είναι σαφές εάν η υπερκατανοητικότητα είναι δυνατή ή όχι. Ωστόσο, αν οι μηχανές γίνονταν πιο έξυπνες από τους ανθρώπους και βελτιωνόντουσαν, ορισμένοι λένε ότι η τεχνητή νοημοσύνη θα μπορούσε να ξεπεράσει τον ανθρώπινο έλεγχο αν δεν είναι προσεκτικοί. Ορισμένοι ειδικοί προβλέπουν ότι η υπερνοημοσύνη θα μπορούσε να φτάσει μέσα σε μια δεκαετία και ο αγώνας για την ανάπτυξή της έχει ήδη ενταθεί, καθώς οι επενδυτές ρίχνουν δισεκατομμύρια δολάρια σε εταιρείες που θέλουν να την κατασκευάσουν. Ο συνιδρυτής του OpenAI Ilya Sutskever άφησε την εταιρεία το 2024 και ίδρυσε μια startup που επικεντρώθηκε στην ασφαλή κατασκευή ASI. Η Sutskever έχει ήδη συγκεντρώσει επενδύσεις που ξεπερνούν τα δισεκατομμύρια δολάρια χωρίς καν να κυκλοφορήσει κανένα προϊόν μέχρι στιγμής.
Είναι ενδιαφέρον ότι το 2023, ο Sutskever ενώθηκε με τον CEO του OpenAI Sam Altman και τον Πρόεδρο Greg Brockman ζητώντας ρύθμιση της υπερ-έξυπνης τεχνητής νοημοσύνηςπροειδοποιώντας ότι θα μπορούσε να αποτελέσει «υπαρξιακό κίνδυνο», προσθέτοντας ότι είναι «διανόητο» ότι η τεχνητή νοημοσύνη θα ξεπεράσει το επίπεδο δεξιοτήτων των ειδικών στους περισσότερους τομείς εντός 10 ετών.
Πρέπει να φοβόμαστε το ASI;
Ενώ πιστεύεται ότι οι άνθρωποι θα είναι σε θέση να επιτύχουν περισσότερα και να λύσουν σύνθετα προβλήματα με την υπερευφυΐα, καθώς θα μπορούσε να είναι «το τελευταία εφεύρεση της ανθρωπότητας Θα εφεύρει ποτέ”, οι κίνδυνοι φαίνονται μεγαλύτεροι από τα πλεονεκτήματα. Η γενετική τεχνητή νοημοσύνη έχει ήδη αρχίσει να αντικαθιστά τους ανθρώπους σε διάφορους ρόλους εργασίας, κάτι που θα μπορούσε να οδηγήσει σε τεράστιες οικονομικές επιπτώσεις. Ορισμένοι πιστεύουν ότι ολόκληρα επαγγέλματα θα μπορούσαν να εξαφανιστούν λόγω του ASI, αφήνοντας δυνητικά δισεκατομμύρια ανέργους.
Η απώλεια εργασίας είναι ένα θέμα, αλλά αντιμετωπίζουμε επίσης «υπαρξιακούς κινδύνους». Εάν οι μηχανές αρχίσουν να σκέφτονται και να αναλάβουν τον έλεγχο των συστημάτων από μόνες τους, θα μπορούσε να ευθυγραμμιστεί λάθος με την ανθρωπότητα και να δημιουργήσει απειλές που κυμαίνονται από “κίνδυνο εθνικής ασφάλειας έως πιθανή ανθρώπινη εξαφάνιση”. Τον Οκτώβριο του 2025, αρκετές εξέχουσες προσωπικότητες υπέγραψε δημόσια δήλωση απαιτώντας μια παύση στην ανάπτυξη της υπερευφυΐας AI, μέχρι να υπάρξει συναίνεση ότι «θα γίνει με ασφάλεια».
Στους υπογράφοντες περιλαμβάνονται μεταξύ άλλων ο συνιδρυτής της Apple, Steve Wozniak, ο διευθύνων σύμβουλος της Google Deepmind, Demis Hassabis, οι πρωτοπόροι της τεχνητής νοημοσύνης Geoffrey Hinton και Yoshua Bengio, ο διευθύνων σύμβουλος της Anthropic, Dario Amodei. Το γεγονός ότι οι ίδιοι οι άνθρωποι πίσω από τις εταιρείες που επιθυμούν να αναπτύξουν ASI υποστηρίζουν μια προσεκτική προσέγγιση, δείχνει όντως το επίπεδο κινδύνου που ενέχει η υπερνοημοσύνη για τους ανθρώπους.
Via: bgr.com






