Τα νεότερα μοντέλα έχουν σχεδιαστεί για να μπορούν να λειτουργούν σε ένα ευρύ φάσμα συστημάτων, από smartphones και αυτόνομα drones έως εταιρικά υπολογιστικά νέφη, προσφέροντας μια ισχυρή απάντηση στην κυριαρχία των αμερικανικών τεχνολογικών κολοσσών και των κινέζικων ανταγωνιστών. Η οικογένεια προϊόντων Mistral 3 εισάγει ένα νέο κορυφαίο μοντέλο, το Mistral Large 3, καθώς και μια σειρά πιο μικρών μοντέλων “Ministral 3”, τα οποία έχουν βελτιστοποιηθεί για edge computing. Όλα τα μοντέλα θα διατεθούν με άδεια Apache 2.0, διευκολύνοντας την απεριόριστη εμπορική χρήση — κάτι που τα διαφοροποιεί από τα κλειστά συστήματα που προσφέρουν οι OpenAI, Google και Anthropic.
Με αυτήν την κυκλοφορία, η Mistral στοιχηματίζει ότι το μέλλον της τεχνητής νοημοσύνης δεν είναι η συνεχής παραγωγή μεγαλόσωμων ιδιόκτητων μοντέλων, αλλά η παροχή ευελιξίας στις επιχειρήσεις, ώστε να προσαρμόσουν και να αναπτύξουν AI σύμφωνα με τις ειδικές τους ανάγκες, χρησιμοποιώντας μοντέλα που μπορούν να λειτουργούν χωρίς σύνδεση στο cloud.
«Το χάσμα μεταξύ κλειστού και ανοιχτού κώδικα στενεύει, καθώς ολοένα και περισσότεροι άνθρωποι συμβάλλουν στον ανοιχτό κώδικα, κάτι που είναι θετικό», δήλωσε ο Guillaume Lample, επικεφαλής επιστήμονας και συνιδρυτής της Mistral, σε αποκλειστική συνέντευξη στο VentureBeat. «Φτάνουμε γρήγορα τους ανταγωνιστές μας».
Η στρατηγική της Mistral για το Mistral 3 διαφοροποιείται σημαντικά από τις πρόσφατες κυκλοφορίες άλλων ηγετών στον τομέα. Ενώ οι OpenAI, Google και Anthropic έχουν επικεντρωθεί στη δημιουργία όλο και πιο ικανών “ευφυών” συστημάτων που εκτελούν πολύπλοκες εργασίες αυτόνομα, η Mistral προτεραιοποιεί την αποδοτικότητα και την «κατανεμημένη νοημοσύνη», όπως την αποκαλεί ο Lample.
Το Mistral Large 3 διαθέτει αρχιτεκτονική “mixture of experts” (MoE) με 41 δισεκατομμύρια ενεργές παραμέτρους από το συνολικό σύνολο 675 δισεκατομμυρίων παραμέτρων. Το μοντέλο μπορεί να επεξεργαστεί και κείμενα και εικόνες, διαχειρίζεται context windows έως 256.000 tokens και έχει εκπαιδευτεί με ιδιαίτερη προσοχή σε μη αγγλικές γλώσσες — μια σπάνια ιδιότητα στα κορυφαία συστήματα AI.
«Η πλειοψηφία των ερευνητικών εργαστηρίων AI εστιάζει στη μητρική τους γλώσσα, αλλά το Mistral Large 3 έχει εκπαιδευτεί σε μια ευρεία ποικιλία γλωσσών, γεγονός που το καθιστά χρήσιμο για δισεκατομμύρια ανθρώπους που ομιλούν διάφορες μητρικές γλώσσες», ανέφερε η εταιρεία.
Η πιο σημαντική διαφοροποίηση της σειράς Ministral 3 περιλαμβάνει εννέα μοντέλα σε τρία μεγέθη (14 δισεκατομμύρια, 8 δισεκατομμύρια και 3 δισεκατομμύρια παράμετροι) και τρεις παραλλαγές σχεδιασμένες για διαφορετικές περιπτώσεις χρήσης. Κάθε παραλλαγή εξυπηρετεί ειδικούς σκοπούς: βασικά μοντέλα για εκτενή προσαρμογή, μοντέλα “instruction-tuned” για γενικές συνομιλίες και ολοκλήρωση εργασιών, καθώς και μοντέλα βελτιστοποιημένα για συμπεράσματα που απαιτούν βήμα προς βήμα σκέψη.
Τα μικρότερα μοντέλα Ministral 3 μπορούν να λειτουργούν σε συσκευές με μόλις 4 GB RAM, χρησιμοποιώντας την τεχνολογία 4-bit quantization — καθιστώντας την κορυφαία AI προσβάσιμη σε τυπικά laptops, smartphones και ενσωματωμένα συστήματα, χωρίς τη ανάγκη προηγμένης υποδομής cloud ή ακόμη και διαδικτυακής σύνδεσης. Αυτή η στρατηγική αντικατοπτρίζει την πεποίθηση της Mistral ότι η επόμενη ανάπτυξη της AI θα καθοριστεί από την ικανότητα της να είναι πανταχού παρούσα: μοντέλα αρκετά μικρά ώστε να λειτουργούν σε drones, οχήματα, ρομπότ και καταναλωτικές συσκευές.
Οι προγραμματιστές μπορούν να ξεκινήσουν άμεσα τη χρήση των νέων LLM, καθώς το Ministral 3 και το Large 3 είναι διαθέσιμα στην πλατφόρμα Hugging Face, ενώ προσφέρεται και πρόσβαση μέσω API για ταχύτερη ανάπτυξη και ενσωμάτωση σε εφαρμογές. Η εταιρεία προγραμματίζει επίσης επιλογές fine-tuning και enterprise υπηρεσίες για εξειδικευμένες ανάγκες. Στόχος της Mistral είναι η διαφάνεια, η πρόσβαση και η συνεργατική ανάπτυξη της τεχνητής νοημοσύνης.










