EuroWire , ΣΑΝ ΦΡΑΝΣΙΣΚΟ : Η Microsoft παρουσίασε στις 26 Ιανουαρίου το Maia 200, τη δεύτερη γενιά του εσωτερικού επιταχυντή τεχνητής νοημοσύνης, ο οποίος έχει σχεδιαστεί για να εκτελεί μοντέλα τεχνητής νοημοσύνης σε παραγωγή σε κέντρα δεδομένων Azure. Η εταιρεία δήλωσε ότι το Maia 200 έχει σχεδιαστεί για συμπερασματολογία, το στάδιο όπου τα εκπαιδευμένα μοντέλα παράγουν απαντήσεις σε ζωντανά αιτήματα, και θα χρησιμοποιηθεί για την υποστήριξη μιας σειράς υπηρεσιών τεχνητής νοημοσύνης της Microsoft.

Το Maia 200 κατασκευάζεται με τη μέθοδο των 3 νανομέτρων της TSMC και περιλαμβάνει περισσότερα από 140 δισεκατομμύρια τρανζίστορ, δήλωσε η Microsoft . Τα ζεύγη τσιπ υπολογίζονται με ένα νέο σύστημα μνήμης που περιλαμβάνει 216 gigabytes μνήμης υψηλού εύρους ζώνης HBM3e και περίπου 272 megabytes SRAM ενσωματωμένης στο τσιπ, με στόχο τη διατήρηση της δημιουργίας token μεγάλης κλίμακας και άλλων φόρτων εργασίας με μεγάλο όγκο συμπερασμάτων.
Η Microsoft δήλωσε ότι το Maia 200 προσφέρει απόδοση άνω των 10 petaflops με ακρίβεια 4 bit και περίπου 5 petaflops με ακρίβεια 8 bit, μορφές που χρησιμοποιούνται συνήθως για την αποτελεσματική λειτουργία της σύγχρονης γενετικής τεχνητής νοημοσύνης . Η εταιρεία δήλωσε επίσης ότι το σύστημα έχει σχεδιαστεί γύρω από ένα φάκελο ισχύος 750 watt και είναι κατασκευασμένο με κλιμακούμενη δικτύωση, ώστε τα τσιπ να μπορούν να συνδεθούν για μεγαλύτερες αναπτύξεις.
Η εταιρεία δήλωσε ότι το νέο υλικό έχει αρχίσει να διατίθεται σε ένα κέντρο δεδομένων Azure US Central στην Αϊόβα, ενώ σχεδιάζεται μια επιπλέον τοποθεσία στην Αριζόνα. Η Microsoft περιέγραψε το Maia 200 ως το πιο αποτελεσματικό σύστημα συμπερασμάτων που έχει αναπτύξει μέχρι σήμερα, αναφέροντας βελτίωση 30% στην απόδοση ανά δολάριο σε σύγκριση με τα υπάρχοντα συστήματα συμπερασμάτων της.
Εστίαση στην εξαγωγή συμπερασμάτων από την Τεχνητή Νοημοσύνη και ανάπτυξη του Azure
Η Microsoft δήλωσε ότι το Maia 200 προορίζεται για την υποστήριξη προϊόντων και υπηρεσιών Τεχνητής Νοημοσύνης που βασίζονται σε εκτέλεση μοντέλων υψηλού όγκου και χαμηλής καθυστέρησης, συμπεριλαμβανομένων των φόρτων εργασίας που εκτελούνται στο Azure και στις εφαρμογές της Microsoft. Η εταιρεία δήλωσε ότι έχει σχεδιάσει το τσιπ και το περιβάλλον σύστημα ως μέρος μιας προσέγγισης υποδομής από άκρο σε άκρο που περιλαμβάνει πυρίτιο, διακομιστές, δικτύωση και λογισμικό για την ανάπτυξη μοντέλων Τεχνητής Νοημοσύνης σε κλίμακα.
Παράλληλα με το τσιπ, η Microsoft ανακοίνωσε την έγκαιρη πρόσβαση σε ένα κιτ ανάπτυξης λογισμικού Maia για προγραμματιστές και ερευνητές που εργάζονται στη βελτιστοποίηση μοντέλων. Η εταιρεία δήλωσε ότι τα εργαλεία στοχεύουν στο να βοηθήσουν τις ομάδες να συντάσσουν και να ρυθμίζουν μοντέλα για συστήματα που βασίζονται στο Maia και είναι δομημένα ώστε να ταιριάζουν σε κοινές ροές εργασίας ανάπτυξης τεχνητής νοημοσύνης που χρησιμοποιούνται για την ανάπτυξη συμπερασμάτων στο cloud.
Αξιώσεις απόδοσης και υποστήριξη μοντέλου
Η Microsoft δήλωσε ότι το Maia 200 έχει σχεδιαστεί για να εκτελεί μεγάλα γλωσσικά μοντέλα και προηγμένα συστήματα συλλογισμού και ότι θα χρησιμοποιηθεί για εσωτερικές και φιλοξενούμενες αναπτύξεις μοντέλων στο Azure. Η εταιρεία έχει τοποθετήσει το τσιπ ως επιταχυντή συμπερασμάτων παραγωγής, διακρίνοντάς το από τα συστήματα που επικεντρώνονται στην εκπαίδευση και χρησιμοποιούνται συνήθως για την κατασκευή μοντέλων πριν από την ανάπτυξη.
Η Microsoft έχει επιταχύνει την εργασία με προσαρμοσμένα συστήματα πυριτίου, καθώς έχει αυξηθεί η ζήτηση για υπολογιστική τεχνολογία που θα εξυπηρετεί εφαρμογές γενετικής τεχνητής νοημοσύνης, όπου το κόστος και η διαθεσιμότητα επιταχυντών μπορούν να επηρεάσουν την ταχύτητα κλιμάκωσης των υπηρεσιών. Το Maia 200 ακολουθεί το Maia 100, το οποίο η Microsoft παρουσίασε το 2023, και αντιπροσωπεύει την τελευταία έκδοση της εταιρείας στην ειδική σειρά επιταχυντών τεχνητής νοημοσύνης για συμπερασματολογία κέντρων δεδομένων.
Η ανάρτηση Maia 200 ενισχύει το Microsoft Azure με νέο AI inference silicon εμφανίστηκε πρώτα στην εφημερίδα Dag .
