28 Januari 2025 · Update AI 24 Jam: Kolaborasi terbatas NVIDIA–Intel untuk Feynman, DeepSeek-OCR 2 dorong otomasi dokumen, Qwen3-Max-Thinking 1T, dan Google Cloud resmi naikkan tarif

Empat kabar hari ini mengarah ke satu pesan: kompetisi AI makin bergeser dari “siapa modelnya paling besar” menjadi “siapa yang bisa mengirim kemampuan itu secara stabil”—rantai pasok, biaya per unit, reliabilitas enterprise, dan harga cloud yang makin berbasis nilai.

1. NVIDIA diperkirakan akan bekerja sama dengan Intel untuk platform arsitektur Feynman (2028), dengan strategi “volume kecil, level rendah, non-inti”

Komentar:
Inti GPU Die Feynman tetap diproduksi TSMC, sementara sebagian I/O Die dapat memakai proses Intel 18A atau 14A. Ini terlihat seperti langkah NVIDIA untuk menambah ketahanan rantai pasok dan memperkuat posisi tawar, sambil tetap mengunci bagian paling menentukan daya saing jangka panjang pada jalur inti mereka.
Bagi Intel, bahkan kerja sama kecil yang non-inti tetap penting untuk foundry dan packaging: ini menjadi “stempel validasi” dari pelanggan kelas atas. Namun apakah bisa diperbesar menjadi pesanan skala besar akan ditentukan oleh yield, stabilitas pengiriman, biaya, serta kesiapan ekosistem dan IP—area yang masih menjadi pembeda dibanding TSMC.

2. DeepSeek merilis DeepSeek-OCR 2: lompatan pada visual encoder

Komentar:
DeepSeek-OCR 2 menonjol lewat desain visual encoder baru DeepEncoder V2 dan mekanisme “Visual Causal Flow”, yang mendorong model dari sekadar “pemindai piksel” menuju pembacaan yang lebih semantik—lebih dekat ke cara manusia memahami dokumen.
Jika OCR 2 mampu mengunci output terstruktur dan pelacakan referensi/posisi dengan rapi, ia bisa menurunkan biaya verifikasi manual secara signifikan, lalu menaikkan kelayakan workflow RPA/Agent untuk dokumen dan tabel dunia nyata. Namun label “terobosan besar” pada akhirnya ditentukan oleh tiga hal: performa pada dokumen kompleks, ketahanan terhadap input kualitas rendah, dan konsistensi output terstruktur.

3. Alibaba merilis Qwen3-Max-Thinking: total parameter 1T, dengan Thinking Mode

Komentar:
Qwen3-Max-Thinking diklaim menembus 1 triliun parameter (1T) dengan 36T tokens untuk pretraining, dan memperkenalkan Thinking Mode—model menghasilkan penalaran bertahap, melakukan self-check, lalu memberi kesimpulan akhir.
Tantangan besarnya bukan sekadar “bisa” berpikir, melainkan biaya aktivasi dan stabilitas penalaran di produksi: apakah cost bisa ditekan, apakah reasoning konsisten, dan apakah bisa menghasilkan nilai yang bisa diulang dalam ekosistem Alibaba maupun skenario enterprise. Di titik ini, pasar biasanya akan menilai lewat workload nyata dan ekonomi unit, bukan lewat klaim headline.

4. Google Cloud resmi menaikkan harga: mengikut AWS, “perang harga cloud” memasuki era berlapis

Komentar:
Google Cloud akan menaikkan harga layanan data transfer global mulai 1 Mei 2026: Amerika Utara naik dua kali lipat (US$0,04/GiB → US$0,08/GiB), Eropa dan Asia masing-masing naik sekitar 60% dan 42%.
Dengan lalu lintas lintas-region meningkat akibat training/inference, harga HBM naik tajam, pasokan GPU premium ketat, serta investasi listrik dan liquid cooling membengkak, cloud provider makin sulit mempertahankan pola perang harga lama. Ini bukan sekadar pemindahan biaya—ini tanda restrukturisasi logika bisnis cloud di era AI: resource terkait AI masuk ke “value pricing + supply management”, sementara cloud umum kemungkinan tetap kompetitif lewat diskon yang lebih kontraktual dan kurang terlihat. Apakah Azure akan jadi yang berikutnya menaikkan harga?

Penutup:
Jika disatukan, empat kabar ini menunjukkan titik balik: AI tidak hanya soal model, tetapi soal pengiriman. Pemenang berikutnya kemungkinan adalah pihak yang mampu mengubah model + compute menjadi pasokan jangka panjang yang stabil—lebih tahan risiko, lebih terukur biayanya, dan lebih siap untuk enterprise.

Bacaan lanjutan (peristiwa AI terpenting dalam 72 jam terakhir):

Penulis: AediWaktu Pembuatan: 2026-01-28 06:59:33
Baca lebih lanjut