Η πιο έξυπνη, πιο ικανή έκδοση του Siri που αναπτύσσει η Apple θα υποστηρίζεται από το Google Gemini, αναφέρει Bloomberg. Η Apple θα πληρώνει στην Google περίπου 1 δισεκατομμύριο δολάρια ετησίως για ένα μοντέλο τεχνητής νοημοσύνης 1,2 τρισεκατομμυρίων παραμέτρων που αναπτύχθηκε από την Google.
Για το περιβάλλον, οι παράμετροι είναι ένα μέτρο του τρόπου με τον οποίο ένα μοντέλο κατανοεί και ανταποκρίνεται σε ερωτήματα. Περισσότερες παράμετροι γενικά σημαίνει πιο ικανοί, αν και η εκπαίδευση και η αρχιτεκτονική είναι επίσης παράγοντες. Bloomberg λέει ότι το μοντέλο της Google «νανίζει» το επίπεδο παραμέτρων των σημερινών μοντέλων της Apple.
Η τρέχουσα έκδοση του Apple Intelligence που βασίζεται σε σύννεφο χρησιμοποιεί 150 δισεκατομμύρια παραμέτρους, αλλά δεν υπάρχουν συγκεκριμένες μετρήσεις που να περιγράφουν πώς μετρούν τα άλλα μοντέλα που αναπτύσσει η Apple.
Η Apple θα χρησιμοποιήσει το Gemini για λειτουργίες που σχετίζονται με τη σύνοψη και τον σχεδιασμό και την εκτέλεση εργασιών σε πολλά βήματα, αλλά τα μοντέλα της Apple θα χρησιμοποιηθούν επίσης για ορισμένες λειτουργίες του Siri. Το μοντέλο AI που αναπτύσσει η Google για την Apple θα εκτελείται στους Private Cloud Compute διακομιστές της Apple, επομένως η Google δεν θα έχει πρόσβαση στα δεδομένα της Apple.
Το Gemini χρησιμοποιεί μια αρχιτεκτονική Mixture-of-Experts, οπότε ενώ έχει πάνω από ένα τρισεκατομμύριο συνολικές παραμέτρους, μόνο ένα κλάσμα από αυτές ενεργοποιείται για κάθε ερώτημα. Η αρχιτεκτονική επιτρέπει μια μεγάλη συνολική χωρητικότητα υπολογισμού χωρίς να επιβαρύνει σημαντικά το κόστος επεξεργασίας.
Η Apple ζύγισε χρησιμοποιώντας τα δικά της μοντέλα τεχνητής νοημοσύνης για την έκδοση LLM του Siri και δοκίμασε επίσης επιλογές από τα OpenAI και Anthropic, αλλά αποφάσισε να πάει με τους Gemini αφού αποφάσισε ότι οι χρεώσεις της Anthropic ήταν πολύ υψηλές. Η Apple έχει ήδη μια συνεργασία με την Google για τα αποτελέσματα αναζήτησης, με την Google να πληρώνει στην Apple περίπου 20 δισεκατομμύρια δολάρια ετησίως για να είναι η προεπιλεγμένη επιλογή μηχανής αναζήτησης στις συσκευές Apple.
Αν και η Apple σχεδιάζει να βασιστεί στο Google AI προς το παρόν, σχεδιάζει να συνεχίσει να εργάζεται στα δικά της μοντέλα και θα μεταβεί σε μια εσωτερική λύση όταν τα LLM της είναι αρκετά ικανά. Η Apple εργάζεται ήδη σε ένα μοντέλο 1 τρισεκατομμυρίου παραμέτρων που βασίζεται σε σύννεφο που θα μπορούσε να είναι έτοιμο το 2026. Η Apple είναι απίθανο να δημοσιοποιήσει τη συμφωνία της με την Google ενώ αναπτύσσει εσωτερικά μοντέλα.
Η Apple επρόκειτο να κυκλοφορήσει μια ενημερωμένη έκδοση του Siri στο iOS 18, αλλά οι ελλείψεις απαιτούσαν από την εταιρεία να αναθεωρήσει την υποκείμενη αρχιτεκτονική Siri και να καθυστερήσει σημαντικά την κυκλοφορία. Το πιο έξυπνο Apple Intelligence Siri αναμένεται να παρουσιαστεί σε μια ενημέρωση iOS 26.4 που έρχεται την άνοιξη του 2026.
Το Siri θα μπορεί να απαντά σε πιο σύνθετα ερωτήματα και να ολοκληρώνει πιο περίπλοκες εργασίες εντός και μεταξύ των εφαρμογών. Θα είναι πιο κοντά στη λειτουργία του Claude και του ChatGPT, αν και η Apple δεν σχεδιάζει μια αποκλειστική εφαρμογή chatbot.
VIA: macrumors.com







