Permintaan Quote

Berita

Massa Micron menghasilkan 12 lapisan HBM3E 36GB cip, dan produk sedang menjalani pengesahan pelanggan


Micron telah melancarkan versi pengeluaran cip 12 lapisan HBM3E yang sesuai untuk GPU Kecerdasan Buatan Generasi Seterusnya (AI), dengan kapasiti timbunan memori sehingga 36GB dan kelajuan melebihi 9.2GB/s.Micron menyatakan bahawa ia sedang menyampaikan pengeluaran Portable 12 Lapisan Kelima HBM (HBM3E) kepada rakan kongsi penting dalam rantaian industri AI untuk prosedur pengesahan.

Micron secara rasmi mengumumkan pelancaran memori HBM3E dengan timbunan 12 lapisan pada 9 September.Produk baru ini mempunyai kapasiti 36GB dan direka untuk pemproses canggih untuk beban kerja AI dan HPC (pengkomputeran berprestasi tinggi), seperti GPU H200 dan B100/B200 NVIDIA.

Stack memori 12 lapisan HBM3E Micron mempunyai kapasiti 36GB, iaitu 50% lebih tinggi daripada versi 8-lapisan sebelumnya (24GB).Peningkatan kapasiti membolehkan pusat data menjalankan model AI yang lebih besar pada pemproses tunggal.Ciri ini menghapuskan keperluan untuk mengimbangi CPU yang kerap, mengurangkan latensi komunikasi antara GPU, dan mempercepatkan pemprosesan data.

Dari segi prestasi, 12 lapisan Micron's HBM3E timbunan dapat memberikan jalur lebar memori melebihi 1.2TB/s dan kadar pemindahan data melebihi 9.2GB/s.Menurut Micron, syarikat HBM3E bukan sahaja menyediakan 50% lebih banyak kapasiti memori daripada pesaingnya, tetapi juga menggunakan kuasa kurang daripada timbunan HBM3E 8-lapisan.

12 lapisan HBM3E Micron merangkumi sistem ujian diri terbina dalam (MBIST) memori yang dapat diprogramkan untuk memastikan masa produk yang lebih cepat untuk memasarkan dan kebolehpercayaan untuk pelanggan.Teknologi ini boleh mensimulasikan trafik peringkat sistem pada kelajuan penuh, membolehkan ujian komprehensif dan pengesahan lebih cepat sistem baru.

Peranti memori HBM3E Micron bersesuaian dengan teknologi pembungkusan CowOS TSMC, yang digunakan secara meluas dalam pakej pemproses AI seperti H100 dan H200 NVIDIA.

Dilaporkan bahawa Micron telah mula membangunkan penyelesaian memori generasi akan datang, termasuk HBM4 dan HBM4E.Jenis memori yang akan datang ini akan terus memenuhi permintaan yang semakin meningkat untuk memori lanjutan dalam pemproses AI, termasuk NVIDIA GPU berdasarkan Blackwell dan Rubin Architectures.