২০২৫ সালের ২৮ জানুয়ারি · ২৪ ঘণ্টার AI আপডেট: NVIDIA–Intel “নন-কোর” Feynman সহযোগিতা, DeepSeek-OCR 2 ডকুমেন্ট অটোমেশন টার্গেট করছে, Qwen3-Max-Thinking 1T-এ, আর Google Cloud মূল্য বাড়াল

আজকের চারটি খবর একই বার্তা দেয়: AI প্রতিযোগিতা এখন “কে বড় মডেল ছাড়ল” থেকে সরে “কে স্থিরভাবে ডেলিভার করতে পারে” দিকে যাচ্ছে—সাপ্লাই চেইন রেজিলিয়েন্স, ইউনিট কস্ট, এন্টারপ্রাইজ নির্ভরযোগ্যতা, এবং AI যুগের ক্লাউড প্রাইসিং।

1. NVIDIA ২০২৮-এর Feynman প্ল্যাটফর্মে Intel-এর সাথে সীমিত, লো-টিয়ার, নন-কোর সহযোগিতার পথে

মন্তব্য:
Feynman-এর কোর GPU Die TSMC-তেই থাকবে, আর I/O Die-এর একটি অংশ Intel 18A বা 14A-এ যেতে পারে। এটি NVIDIA-এর জন্য সাপ্লাই চেইন রেজিলিয়েন্স ও দর-কষাকষির লিভারেজ—কিন্তু দীর্ঘমেয়াদি প্রতিযোগিতার মূল অংশ নিজ হাতে রাখার কৌশল।
Intel-এর জন্য, এমন ছোট পরিসরের নন-কোর কাজও গুরুত্বপূর্ণ—টপ-টিয়ার ক্লায়েন্টের “ভ্যালিডেশন কেস” তৈরি হয়। তবে এটিকে বড় অর্ডারে রূপ দিতে হলে yield, ডেলিভারি স্থিতিশীলতা, খরচ এবং IP/ইকোসিস্টেম সাপোর্টে ধারাবাহিকভাবে প্রমাণ দিতে হবে—যেখানে TSMC-এর সাথে ব্যবধান এখনো প্রভাব ফেলে।

2. DeepSeek-OCR 2: নতুন ভিজুয়াল এনকোডার ও “Visual Causal Flow”

মন্তব্য:
DeepSeek-OCR 2-এর আলোচ্য বিষয় কেবল রিকগনিশন নয়—DeepEncoder V2 এবং “Visual Causal Flow” দিয়ে মডেলকে “পিক্সেল স্ক্যানার” থেকে আরও সেমান্টিক রিডিং-এর দিকে নিয়ে যাওয়ার চেষ্টা।
যদি এটি স্ট্রাকচারড আউটপুট এবং রেফারেন্স/পজিশন গ্রাউন্ডিং নির্ভরযোগ্যভাবে দিতে পারে, তাহলে মানব যাচাইয়ের খরচ কমবে এবং RPA/Agent ওয়ার্কফ্লোর ব্যবহারযোগ্যতা বাস্তবে বাড়বে—বিশেষ করে ডকুমেন্ট ও টেবিল অটোমেশনে। “বড় ব্রেকথ্রু” কি না, তা নির্ভর করবে জটিল ডকুমেন্ট, নিম্নমান ইনপুট এবং ধারাবাহিক স্ট্রাকচারড আউটপুট—এই তিন পরীক্ষায়।

3. Qwen3-Max-Thinking: মোট 1T প্যারামিটার, Thinking Mode সহ

মন্তব্য:
Qwen3-Max-Thinking দাবি করছে 1T মোট প্যারামিটার এবং 36T টোকেন প্রি-ট্রেনিং, সঙ্গে Thinking Mode—মাল্টি-স্টেপ রিজনিং ও সেলফ-চেক করে তারপর ফাইনাল উত্তর।
কিন্তু প্রোডাকশনে আসল প্রশ্ন হলো খরচ ও স্থিতিশীলতা: অ্যাক্টিভেশন কস্ট কতটা নিয়ন্ত্রণে আসে, রিজনিং কতটা বিশ্বাসযোগ্য থাকে, এবং আলিবাবা ইকোসিস্টেম ও এন্টারপ্রাইজ কেসে পুনরাবৃত্তিযোগ্য ভ্যালু-লুপ তৈরি করতে পারে কি না। বড় মডেলের ক্ষেত্রে বাজার শেষ পর্যন্ত বাস্তব ওয়ার্কলোড ও ইউনিট ইকোনমিক্স দেখেই মূল্যায়ন করে।

4. Google Cloud দাম বাড়াল, AWS-কে অনুসরণ করে: ক্লাউড “প্রাইস ওয়ার” এখন লেয়ারভিত্তিক

মন্তব্য:
Google Cloud ২০২৬ সালের ১ মে থেকে গ্লোবাল ডেটা ট্রান্সফার প্রাইস বাড়াবে: নর্থ আমেরিকায় দ্বিগুণ (US$0.04/GiB → US$0.08/GiB), ইউরোপ ও এশিয়ায় বাড়বে যথাক্রমে প্রায় ৬০% ও ৪২%।
ট্রেনিং/ইনফারেন্সের কারণে ক্রস-রিজিয়ন ট্রাফিক বেড়েছে, HBM ব্যয় বৃদ্ধি পেয়েছে, হাই-এন্ড GPU সরবরাহ টাইট, আর বিদ্যুৎ ও লিকুইড কুলিং CAPEXও বাড়ছে—এ অবস্থায় পুরনো “দাম যুদ্ধ” মডেল টিকিয়ে রাখা কঠিন। এটি কস্ট পাস-থ্রু নয়, বরং AI যুগে ক্লাউড বিজনেস লজিকের পুনর্গঠন: AI-সম্পর্কিত রিসোর্স ভ্যালু প্রাইসিং ও সাপ্লাই ম্যানেজমেন্টে যাবে, আর জেনারেল ক্লাউড প্রতিযোগিতা চুক্তিনির্ভরভাবে চলবে। পরের মূল্যবৃদ্ধি কি Azure-এ আসবে?

শেষ কথা:
চারটি খবর একসাথে দেখলে বোঝা যায়—AI-এর কেন্দ্র এখন “ডেলিভারি”। যে পক্ষ মডেল ও কম্পিউটকে স্থিতিশীল, স্কেলযোগ্য এবং টেকসই সাপ্লাইয়ে রূপ দিতে পারবে, পরের ধাপে তারই সুবিধা বেশি হবে।

আরও পড়ুন (গত ৭২ ঘণ্টার সবচেয়ে গুরুত্বপূর্ণ AI ঘটনা):

লেখক: Aediসৃষ্টি সময়: 2026-01-28 06:59:33
আরও পড়ুন