16 Desember 2025 · 24-Hour AI Briefing: High NA EUV Mulai Digunakan, B300 Masuk ke Implementasi Nyata, dan Persaingan Platform NVIDIA–TPU Memanas

Dalam 24 jam terakhir, tiga perkembangan di bidang AI dan semikonduktor muncul bukan sebagai pembaruan rutin, melainkan sebagai titik balik penting. Intel dan ASML menyelesaikan uji penerimaan sistem High NA EUV generasi kedua pertama di dunia. GPU NVIDIA B300 berbasis arsitektur Blackwell Ultra mulai digunakan dalam jaringan produksi yang melayani pengguna nyata. Sementara itu, NVIDIA secara terbuka menegaskan narasi kepemimpinan platformnya atas TPU milik Google.

Bersama-sama, sinyal ini menunjukkan perubahan mendasar: persaingan AI tidak lagi semata tentang skala komputasi, tetapi tentang kendali manufaktur, pengiriman sistem, dan pilihan platform.


1. Intel menyelesaikan uji penerimaan High NA EUV generasi kedua, dinamika node maju berubah

Intel mengumumkan telah menyelesaikan proses unboxing dan acceptance testing untuk sistem litografi Extreme Ultraviolet (EUV) High Numerical Aperture (High NA) generasi kedua pertama di industri, bekerja sama dengan ASML. Perangkat ini menggunakan sumber cahaya EUV berdaya lebih tinggi, throughput hingga 175 wafer per jam, akurasi overlay meningkat ke 0,7nm, serta sistem penanganan wafer yang lebih stabil.

Komentar:
Ini jauh melampaui pencapaian pengiriman alat biasa. High NA EUV berpotensi mengubah keseimbangan kekuatan dalam manufaktur semikonduktor tingkat lanjut. Nilai utamanya terletak pada kemampuan menekan jumlah lapisan multi-patterning yang paling mahal, paling lambat, dan paling rentan dalam satu node proses—mengurangi kompleksitas dan risiko yield.

Bagi Intel, ini membuka peluang untuk membentuk ulang kurva biaya dan kurva siklus produksi setelah node 18A dan 14A. Jika kontrol lebar garis dan presisi overlay yang setara atau lebih baik dapat dicapai dengan lebih sedikit langkah patterning, maka kecepatan ramp-up meningkat dan biaya per wafer menjadi lebih terkendali—faktor krusial bagi Intel Foundry Services (IFS) dalam menarik pelanggan eksternal.

Namun, apakah High NA dapat diterjemahkan menjadi keunggulan skala jangka panjang masih bergantung pada eksekusi di ekosistem material, integrasi proses, dan pengendalian variabilitas. Pertanyaannya tetap terbuka: mampukah Intel memanfaatkan momentum ini untuk menantang dominasi TSMC?


2. AlphaTON Capital mengimplementasikan NVIDIA B300 ke jaringan AI Telegram

AlphaTON Capital mengumumkan telah menerima batch pertama GPU NVIDIA B300 dan mengintegrasikannya ke dalam sistem HGX berpendingin cair dari Supermicro untuk memperkuat jaringan Cocoon AI, yang akan menyediakan layanan AI berfokus pada privasi bagi pengguna Telegram.

Komentar:
B300 saat ini merupakan salah satu akselerator AI terkuat di pasar. Berbasis arsitektur Blackwell Ultra, chip ini menawarkan hingga 144 PFLOPS komputasi FP4 dan dilengkapi memori HBM3e sebesar 288GB, dioptimalkan untuk inferensi konteks panjang. Platform pendingin cair dari Supermicro memungkinkan pemulihan panas hingga 98% dan peningkatan efisiensi energi sekitar 40%, mendukung deployment dengan kepadatan sangat tinggi.

Langkah ini memberi AlphaTON keunggulan komputasi sekaligus mengurangi risiko geopolitik dan rantai pasok. Sebelumnya, jaringan Cocoon Telegram banyak bergantung pada node komunitas, yang memunculkan pertanyaan tentang skala dan stabilitas. Dengan B300, strategi bergeser ke integrasi erat antara infrastruktur AI kelas atas dan ekosistem Telegram, membentuk potensi “loop tertutup AI + blockchain + privasi”.

Meski demikian, tantangan tetap ada. Keberlanjutan pasokan B300 dan kepatuhan regulasi terkait AI berfokus privasi di berbagai yurisdiksi akan menjadi faktor penentu saat jaringan berkembang.


3. NVIDIA menegaskan keunggulan atas TPU, persaingan platform semakin intens

Setelah pertemuan dengan tim hubungan investor NVIDIA, Bernstein melaporkan bahwa NVIDIA meyakini tumpukan teknologinya unggul sekitar dua tahun dibanding TPU milik Google, serta menyoroti fleksibilitas GPU dalam membangun infrastruktur AI cloud berskala besar.

Komentar:
Klaim “unggul dua tahun” menyederhanakan realitas yang jauh lebih kompleks. TPU dirancang secara mendalam untuk model dan operator inti Google, sehingga dalam beban kerja tertentu dapat menyamai atau bahkan melampaui GPU. Keunggulan GPU lebih terletak pada cakupan ekosistem, kematangan tooling, dan kecepatan adaptasi terhadap arsitektur model baru.

Dengan TPU v7 yang mencatat lonjakan efisiensi dan kemampuan scaling linear pada klaster puluhan ribu akselerator, pernyataan NVIDIA jelas bertujuan memperkuat narasi bahwa GPU general-purpose tetap tak tergantikan.

Namun lanskap sedang berubah. Gemini 3 sepenuhnya dilatih menggunakan TPU, dan Meta mulai menguji model yang di-host di TPU. Jika semakin banyak hyperscaler beralih ke silikon internal atau semi-kustom, posisi NVIDIA sebagai “penyedia default” infrastruktur AI akan semakin menyempit.

Saat AI beralih dari eksplorasi riset ke implementasi industri, pemenang tidak lagi ditentukan oleh performa puncak teoretis, melainkan oleh siapa yang memungkinkan pelanggan menjalankan beban kerja produksi lebih cepat, lebih stabil, dan dengan biaya lebih rendah. Ekosistem CUDA masih menjadi benteng terkuat NVIDIA—namun bagi pelanggan, keberagaman platform dan pilihan jelas merupakan hal positif.


72 Jam Terakhir: Perkembangan AI yang Layak Ditinjau Kembali

Untuk konteks yang lebih luas, pembaca dapat menelusuri analisis berikut:


Penutup

Dari High NA EUV yang mulai masuk manufaktur nyata, hingga B300 yang melayani jaringan pengguna, dan persaingan GPU–TPU yang semakin terbuka, satu hal menjadi jelas: AI tidak lagi sekadar soal “siapa punya komputasi lebih besar”, melainkan tentang siapa yang menguasai manufaktur, sistem, dan pilihan platform.

Para pemimpin di fase berikutnya bukan hanya perancang chip tercepat, tetapi mereka yang mampu mengintegrasikan proses, komputasi, energi, pengiriman sistem, dan kekuatan ekosistem menjadi kapasitas yang dapat direplikasi dan diskalakan.

Babak kedua perlombaan AI telah resmi dimulai.

Penulis: KairoWaktu Pembuatan: 2025-12-16 05:37:20
Baca lebih lanjut