Η Micron Technology αναλαμβάνει ρόλο-κλειδί στην επόμενη φάση της έκρηξης της τεχνητής νοημοσύνης. Η εταιρεία ανακοίνωσε ότι οι νέες μονάδες μνήμης HBM4 των 36 GB μπήκαν σε μαζική παραγωγή και σε μαζικές αποστολές για την πλατφόρμα Vera Rubin της NVIDIA το πρώτο τρίμηνο του 2026, με κάθε στοίβα να επιτυγχάνει ρυθμό μετάδοσης άνω των 2,8 TB/s για την τελευταία γενιά επιταχυντών κέντρων δεδομένων. Η HBM4 παρέχει περίπου 2,3 φορές μεγαλύτερη απόδοση σε σχέση με την HBM3E και πάνω από 20 % βελτίωση στην αποδοτικότητα ισχύος, κάτι που είναι ακριβώς αυτό που χρειάζονται τα νέα μοντέλα AI με εξαιρετικά μεγάλα περιεχόμενα και πολυτροπικές δυνατότητες.

Παράλληλα, η Micron επιβεβαίωσε ότι όλη η χωρητικότητά της σε HBM για το ημερολογιακό έτος 2026 έχει ήδη εξαντληθεί κατά 100% στο πλαίσιο μακροπρόθεσμων συμβάσεων, υπογραμμίζοντας την εξαιρετική "πείνα της αγοράς" για ειδική μνήμη για υποδομές AI.
HBM4: 36 GB σήμερα, 48 GB αύριο και 2,8 TB/s ανά στοίβα
Η μνήμη HBM4 36 GB 12-Hi (12H) είναι κατασκευασμένη στη διεργασία DRAM 1-beta της Micron και χρησιμοποιεί έναν ευρύτερο δίαυλο 2048 bit που επιτρέπει απόδοση μεγαλύτερη από 2,8 TB/s ανά στοίβα σε ρυθμούς ακίδων άνω των 11 Gbps. Σε σύγκριση με την προηγούμενη γενιά HBM3E στην ίδια διαμόρφωση 36GB 12H, αυτό σημαίνει περίπου 2,3X αύξηση της απόδοσης και πάνω από 20% βελτίωση της ενεργειακής απόδοσης σύμφωνα με τις εσωτερικές μετρήσεις $MU της Micron.
Εκτός από την παραλλαγή των 36GB, η εταιρεία παρουσίασε επίσης μια έκδοση HBM4 48GB 16H 16 στρώσεων, την οποία ήδη αποστέλλει σε μορφή δείγματος σε επιλεγμένους πελάτες. Η προσθήκη τεσσάρων στρωμάτων σημαίνει περίπου 33% αύξηση της χωρητικότητας ανά "θέση" HBM σε σχέση με τα 36GB 12H, διατηρώντας παράλληλα υψηλό ρυθμό μετάδοσης, κάτι που αποτελεί κλειδί για τους επιταχυντές που επιθυμούν να μεγιστοποιήσουν τόσο τον χώρο μνήμης για γιγαντιαία μοντέλα όσο και την ταχύτητα πρόσβασης στα δεδομένα.
Όσον αφορά την αρχιτεκτονική Vera Rubin, η Micron επισημαίνει ότι είναι ο πρώτος κατασκευαστής που παράγει ταυτόχρονα μαζικά μια τριάδα βασικών εξαρτημάτων για αυτή την πλατφόρμα: την HBM4 36GB 12H, τον SSD Micron 9650 PCIe Gen6 και τη μονάδα SOCAMM2 192GB. Αυτό τοποθετεί την εταιρεία ως συνεργάτη μνήμης και αποθήκευσης "full-stack" για το επόμενο κύμα των GPU clusters.
Οι μετοχές της Micron σε υψηλά επίπεδα ρεκόρ
Η αγορά εξέλαβε τα νέα για το HBM4 ως επιβεβαίωση ότι η Micron είναι ένας από τους μεγάλους διαρθρωτικούς νικητές του κύκλου της Τεχνητής Νοημοσύνης. Μετά την ανακοίνωση της μαζικής παραγωγής HBM4 36GB 12H για την Nvidia στο GTC 2026, η μετοχή έκανε άλμα και έκτοτε συνεχίζει να ανεβαίνει. Στη συνέχεια, την Τρίτη, η τιμή της μετοχής έφτασε τα 465 δολάρια.
Αλλά ακόμη πιο σημαντική από τη βραχυπρόθεσμη κίνηση των τιμών είναι οι προοπτικές. Η Micron επιβεβαίωσε ότι όλη η παραγωγή HBM για ολόκληρο το ημερολογιακό έτος 2026 έχει ήδη προπωληθεί στο πλαίσιο μακροπρόθεσμων συμβάσεων, δίνοντας στην εταιρεία πρωτοφανή ορατότητα εσόδων και περιθωρίου κέρδους. Τα σχόλια των αναλυτών επισημαίνουν ότι μια τέτοια πώληση σημαίνει de facto κλειδωμένη επιχείρηση για 22 μήνες μπροστά, συμπεριλαμβανομένων των τιμών και των όγκων, και μετακινεί τον τομέα της μνήμης από την παραδοσιακά κυκλική φάση του σε μια φάση όπου η ζήτηση για μνήμη AI υπερβαίνει την προσφορά μακροπρόθεσμα.
Σύμφωνα με ορισμένες εκτιμήσεις, η Micron σχεδιάζει να επενδύσει έως και περίπου 200 δισεκατομμύρια δολάρια στην επέκταση της χωρητικότητας DRAM και HBM τα επόμενα χρόνια για να καλύψει τη μακροπρόθεσμη ζήτηση για υποδομές AI. Ορισμένες αναλύσεις υποδεικνύουν ότι με πλήρως πωλημένη χωρητικότητα HBM, με μικτό περιθώριο κέρδους γύρω στο 68% και κέρδη ανά μετοχή πάνω από 8 δολάρια το οικονομικό έτος 2026, η μετοχή μπορεί να εξακολουθεί να είναι συντηρητικά αποτιμημένη, δεδομένου του αναπτυξιακού της προφίλ.
Σκληρή μάχη: Η SK Hynix, η Samsung και ο αγώνας για το HBM4
Ωστόσο, η Micron δεν είναι μόνη της στην κούρσα για το HBM4. Η SK Hynix ειδικότερα κυριαρχεί στην αγορά, ακολουθούμενη από τη Samsung $SSNLF, και η αγορά HBM4 για την Nvidia $NVDA μετατρέπεται γρήγορα σε μια σκληρή μάχη για κάθε wafer. Σύμφωνα με την UBS και τα νοτιοκορεατικά μέσα ενημέρωσης, η SK Hynix θα μπορούσε να κατακτήσει περίπου το 70% του μεριδίου προμήθειας HBM4 για την πλατφόρμα Rubin της NVIDIA μέχρι το 2026, με τη Micron και τη Samsung ως μικρότερους αλλά ταχέως αναπτυσσόμενους παίκτες.
Τα στοιχεία της Counterpoint Research για την αγορά HBM κατά το τρίτο τρίμηνο του 2025 δείχνουν ότι η SK Hynix κατέχει περίπου το 53-55% της αγοράς, η Samsung το 27-35% και η Micron περίπου το 11%. Η Samsung, εν τω μεταξύ, ανακοίνωσε ότι σχεδιάζει να αυξήσει τη χωρητικότητα HBM κατά περίπου 47-50% μέχρι το τέλος του 2026, σε περίπου 250 χιλ. wafers ανά μήνα, από περίπου 170 χιλ. που είναι σήμερα, και τόνισε ότι οι πελάτες επαινούν την ανταγωνιστικότητα των επιδόσεων και της ενεργειακής απόδοσης στα τσιπ HBM4 της.
Σύμφωνα με το TweakTown και άλλες πηγές, η Nvidia έχει ζητήσει από όλους τους βασικούς προμηθευτές της - SK Hynix, Samsung και Micron - να προμηθεύσουν τσιπ 16-Hi HBM4 μέχρι το τέταρτο τρίμηνο του 2026, ενώ οι μαζικές αποστολές 12-Hi HBM4 θα ξεκινήσουν στις αρχές του 2026. Το αποτέλεσμα αυτής της επιλογής θα επηρεάσει το πώς θα μοιραστούν τα μερίδια HBM4 μεταξύ των τριών εταιρειών στο δεύτερο μισό της δεκαετίας.
Τι ακολουθεί;
Η Micron κοιτάζει ήδη πέρα από τον ορίζοντα του HBM4. Η εταιρεία δήλωσε ότι σχεδιάζει να δειγματίσει το HBM4E στο δεύτερο εξάμηνο του 2026, μια γενιά που θα πρέπει να αυξήσει περαιτέρω τόσο την απόδοση όσο και την αποδοτικότητα ισχύος και να ωθήσει το πρότυπο για τους επιταχυντές GPU και AI ακόμη πιο ψηλά. Παράλληλα, επιταχύνεται η ανάπτυξη των μονάδων HBM4 16-Hi - όπως υποδεικνύεται από τις ζητούμενες αποστολές δειγμάτων μέχρι το τέλος του 2026 - οι οποίες θα ωθήσουν τις χωρητικότητες στοίβας ακόμη περισσότερο πάνω από τα σημερινά 48 GB.
Εκτός από το HBM, η Micron επεκτείνει επίσης το χαρτοφυλάκιό της για υποδομές AI:
Micron 9650 PCIe Gen6 SSD - ο πρώτος SSD PCIe 6.0 για κέντρα δεδομένων σε μαζική παραγωγή, με έως και διπλάσιες επιδόσεις διαδοχικής ανάγνωσης σε σχέση με τον Gen5, 100% καλύτερη απόδοση ανά watt και βελτιστοποίηση για φόρτους εργασίας AI που βασίζονται σε πράκτορες στην αρχιτεκτονική NVIDIA BlueField-4 STX.
192GB SOCAMM2 - Μια μονάδα μνήμης διακομιστή χαμηλής κατανάλωσης ενέργειας, υψηλής πυκνότητας, σχεδιασμένη για εξαγωγή συμπερασμάτων τεχνητής νοημοσύνης και άλλες εφαρμογές έντασης δεδομένων, επίσης τώρα σε παραγωγή όγκου.
Αυτός ο συνδυασμός HBM4, SSD υψηλής τεχνολογίας και μονάδων διακομιστή σημαίνει ότι η Micron διαμορφώνει το προφίλ της ως βασικού προμηθευτή όχι μόνο της "ακατέργαστης μνήμης", αλλά ολόκληρης της βαθμίδας μνήμης και αποθήκευσης των κέντρων δεδομένων AI, από τις μονάδες GPU έως την αποθήκευση.