ইদানীং WeChat Moments, Xiaohongshu আর Bilibili—সব জায়গায় Seedance 2.0 নামে এক AI ভিডিও টুলের নাম ঘুরছে। কেউ বলছে “এটা এডিটরদের চাকরি খেয়ে ফেলবে”, কেউ নাকি দুই দিনেই উশিয়া/武侠 স্টাইলে ব্লকবাস্টার বানিয়েছে, আবার কেউ দাদার পুরোনো ছবিকে এমনভাবে অ্যানিমেট করেছে যে তিনি চোখ পিটপিট করছেন, হাসছেন—দেখে চোখ ভিজে যায়।

আমি বহুদিন ধরে শর্ট ভিডিও বানানো একজন ফ্রিল্যান্স ক্রিয়েটর। তাই শুরুতে আমি বিশ্বাসই করিনি—কারণ “AI ভিডিও ম্যাজিক” বলে অনেক টুল ব্যবহার করেছি: কখনও ফ্রেম ভেঙে যায়, কখনও মুভমেন্ট এতটাই কাঠের মতো যে পুতুলের মতো লাগে। কিন্তু এবার ByteDance-এর JiMeng (即梦) প্ল্যাটফর্ম সত্যিই আমার ধারণা বদলে দিয়েছে।
আমি টানা দুই সপ্তাহ সময় দিয়েছি—রেজিস্ট্রেশন থেকে শুরু করে একটা সম্পূর্ণ শর্ট ড্রামা আউটপুট করা পর্যন্ত। ভুলও করেছি, ফ্রি ক্রেডিটের সুবিধাও নিয়েছি, আর এমন কিছু ভিডিওও বানিয়েছি যেগুলো দেখে আমি নিজেই অবাক। তাই আজ আমি লিখছি কোনো ফাঁকা কথা নয়, কোনো বাড়াবাড়ি নয়—শুধু বাস্তব, ব্যবহারযোগ্য Seedance 2.0 গাইড—যারা শুরু করতে চান, তাদের জন্য পরিষ্কার রাস্তা দেখাতে।
Seedance 2.0 শুধু “টেক্সট থেকে ভিডিও” না। এর তিনটা মূল ক্ষমতা—
ছবি থেকে ভিডিও (Image-to-video): আপনি একটা ছবি আপলোড করলে, ছবির মানুষ/চরিত্র নড়াচড়া করতে পারে, কথা বলতে পারে, লড়াইও করতে পারে।
রেফারেন্স কপি/রিক্রিয়েশন (Reference recreation): আপনি Douyin/TikTok-এর একটা ভিডিও আপলোড করলে, আপনার চরিত্রকে সেই ভিডিওতে “ঢুকিয়ে” দেয়—ক্যামেরা মুভ, গতি, ট্রানজিশন—সব প্রায় একই স্টাইলে।
স্টোরিবোর্ড এক্সপ্যানশন (Storyboard expansion): আপনি ৩×৩ কমিক/নয়টা ফ্রেম দিলে, সেটা স্বয়ংক্রিয়ভাবে ১৫ সেকেন্ডের অ্যানিমেটেড শর্টে বদলে দিতে পারে, সঙ্গে সাউন্ড ইফেক্টও থাকে।
সবচেয়ে চমকপ্রদ ব্যাপার: এতে ন্যাটিভ অডিও আছে—কথা বলার সাথে লিপ-সিঙ্ক, ব্যাকগ্রাউন্ড মিউজিক, আর পরিবেশের শব্দ (যেমন বৃষ্টি, ইঞ্জিনের গর্জন) নিজে থেকেই জেনারেট হয়। মানে অনেক ক্ষেত্রে আলাদা করে ডাবিং/ব্যাকগ্রাউন্ড স্কোর লাগবে না—একটা ভালো প্রম্পট দিলেই “ফাইনাল” টাইপ আউটপুট।
অনেকে প্রথমেই জিজ্ঞেস করে: “কত টাকা লাগবে?” বাস্তবে, আপনি পুরোপুরি ফ্রি দিয়েও বেশ ভালোভাবে ব্যবহার করতে পারেন—কৌশলটা হলো মাল্টি-প্ল্যাটফর্ম স্ট্যাকিং।
এখন Seedance 2.0 তিন জায়গায় খোলা—
JiMeng (ওয়েব)
Doubao অ্যাপ
Xiaoyunque অ্যাপ
এগুলো একই “ফ্যামিলি”, কিন্তু ক্রেডিট/পয়েন্ট একে অপরের সাথে শেয়ার হয় না, ফলে আপনি তিনটার কোটাই যোগ করে ব্যবহার করতে পারবেন।
আমি যেটা পেয়েছি—
JiMeng: নতুন ইউজার ১ RMB খরচ করলে ১০০০+ ক্রেডিট (১৫ সেকেন্ডের ভিডিও ১০+ বার জেনারেট করা যায়)
Doubao: প্রতিদিন লগইনে ১০০ ক্রেডিট
Xiaoyunque: প্রতিদিন ৯০ ক্রেডিট, বন্ধু ইনভাইট করলে আরও ২০০+
আমি দুইটা ফোন নম্বর ব্যবহার করে দিনে স্থিরভাবে ৮–১২টা ভিডিও বানাতে পেরেছি—ডেইলি কনটেন্টের জন্য যথেষ্ট। আর একটা জিনিস লক্ষ্য করেছি: সকাল ৬টা–৮টার মধ্যে জেনারেশন সবচেয়ে দ্রুত হয়—প্রায় কোনো কিউ থাকে না। দুপুর/বিকেলের পিক টাইমে অনেক সময় ১০+ মিনিট অপেক্ষা করতে হয়।
📌 টিপ: শুরুতেই ১৫ সেকেন্ড HD “বড় সিনেমা” বানাতে যাবেন না। আগে ৫ সেকেন্ড লো-রেজ মোডে প্রম্পট টেস্ট করুন—দিক ঠিক হলে তারপর ফাইনাল রেন্ডারে ক্রেডিট খরচ করুন। এতে অনেক “অযথা ক্রেডিট” বাঁচে।
আমার প্রথম সফল কাজ ছিল Rurouni Kenshinকে ট্রিবিউট দিয়ে ১৫ সেকেন্ডের একটা ফাইট সিন।
Midjourney দিয়ে বানানো কিমোনো পরা এক সামুরাইয়ের ফ্রন্ট ভিউ AI ছবি, নাম Samurai.png
Douyin থেকে ডাউনলোড করা হাই-স্পিড অরবিট ক্যামেরার রেফারেন্স ভিডিও (হিরো ঘুরে দাঁড়ায় + তলোয়ার টানে), নাম SwordSpin.mp4
“@SwordSpin-এর প্রধান চরিত্রের জায়গায় @Samurai বসান, কিমোনোর ডিটেইল ও তলোয়ারের খাপের টেক্সচার বজায় রাখুন। দৃশ্য: গোধূলিতে কিয়োটোর রাস্তা, সাকুরার পাপড়ি উড়ছে। সামুরাই তলোয়ার টানার মুহূর্তে ক্যামেরা ৩৬০ ডিগ্রি অরবিট করবে; তলোয়ারের আলো ঝলকাবে, কালো পোশাকের শত্রু পড়ে যাবে। শেষে সে তলোয়ার খাপে ঢুকিয়ে হালকা স্বরে বলবে ‘悪を斬る’ (অপশক্তিকে কেটে ফেলা)। ব্যাকগ্রাউন্ড অডিও: তলোয়ারের ঝনঝন + শুকনো পাতার সড়সড়।”
জেনারেট ক্লিক করার পর দুই মিনিটও লাগেনি—আর আমি সত্যি অবাক হয়ে গিয়েছিলাম:
সাকুরার পাপড়িতে সামনে-পেছনের ডেপথ (near-far layering) ছিল
তলোয়ারের ফ্ল্যাশের টাইমিং একদম ঠিক
শেষের জাপানি লাইনে লিপ-সিঙ্ক মিলেছে
শত্রু পড়ার সময় ধুলো উঠেছে—একটা “ফিজিক্স” ফিল আছে
রেজোলিউশন এখনও 4K না, কিন্তু Xiaohongshu-তে পোস্ট করার পর ১০০০+ লাইক—অনেকে জিজ্ঞেস করেছে “প্রফেশনাল টিম লাগছে নাকি?”
💡 সবচেয়ে গুরুত্বপূর্ণ শেখা: ফাইলের নাম পরিষ্কার রাখুন, এবং @ দিয়ে রেফারেন্স দিন। Seedance 2.0-এ এলিমেন্ট কন্ট্রোলের মূল কৌশল এটা। আপনি যদি শুধু লেখেন “কিমোনো পরা লোকটা ওই ঘোরা ভিডিওতে ঢোকাও,” তাহলে ব্যর্থ হওয়ার সম্ভাবনা বেশি।
ঝাপসা ছবি বা অনেক মানুষের গ্রুপ ছবি সাবজেক্ট হিসেবে দেবেন না
আমি বন্ধুর গ্রুপ ছবি দিয়েছিলাম—AI বুঝতে পারেনি কাকে নড়াবে। শেষমেশ তিনজনের মুখ গলে এক হয়ে গেছে—পুরো হরর লুক।
জটিল কপিরাইটেড চরিত্র একদম হুবহু হবে—এ আশা করবেন না
আমি “Iron Man vs Batman” লিখে ট্রাই করেছিলাম—সিস্টেম সরাসরি “কনটেন্ট অনুমোদিত নয়” দেখিয়েছে। বড় IP-তে ফিল্টার বেশ কড়া।
রাত ৮টার পর জেনারেট করবেন না
পিক টাইমে কিউ দীর্ঘ হয়, আর সার্ভার চাপ বেশি থাকলে ভিডিওতে ফ্লিকার/ঝাঁকুনি, মুভমেন্টে টান ধরার মতো সমস্যা হয়।
বাস্তব মানুষের ছবি ব্যবহারে সতর্ক থাকুন
আগের ভার্সনে বাস্তব ছবি দিয়ে অ্যানিমেট করা যেত, কিন্তু ১০ ফেব্রুয়ারি থেকে প্রাইভেসি বিতর্কের কারণে ফিচারটা জরুরি ভিত্তিতে বন্ধ করা হয়েছে। এখন AI-জেনারেটেড চরিত্র বা কার্টুন স্টাইলই ব্যবহার করা যায়।
কনটেন্ট ক্রিয়েটররা: দ্রুত হুক/ইন্ট্রো, প্রোডাক্ট ডেমো, গল্পভিত্তিক শর্ট
উপন্যাস/গল্প লেখকরা: অধ্যায়ের ইলাস্ট্রেশনকে অ্যানিমেটেড টিজারে বদলে পাঠক টানা
ইন্ডি গেম ডেভেলপাররা: কম খরচে কাটসিন তৈরি
স্টুডেন্ট/শিক্ষকরা: বিজ্ঞান/ইতিহাসের ভিডিও—PPT-এর চেয়ে অনেক বেশি জীবন্ত
তবে আপনি যদি সিনেমা-লেভেলের সূক্ষ্ম নিয়ন্ত্রণ চান (প্রতি ফ্রেমের আলো-ছায়া টিউন করা), বা লম্বা সিরিজ বানাতে চান, তাহলে এখনও ট্র্যাডিশনাল এডিটিং সফটওয়্যার লাগবে। Seedance 2.0 হলো “ক্রিয়েটিভিটি এক্সেলারেটর”, “ফুল-অটো ডিরেক্টর” নয়।
Seedance 2.0 শক্তিশালী, কিন্তু এটা ক্রিয়েটরদের জায়গা নেবে না—এটা পিছিয়ে দেবে তাদের, যারা নতুন টুল ট্রাইই করতে চায় না।
আমি দেখেছি কেউ এটাকে দিয়ে বাজে বিজ্ঞাপন বানায়, আবার দেখেছি স্টুডেন্টরা ৩×৩ কমিক থেকে এমন আবেগঘন পারিবারিক শর্ট বানায়—দেখে বুক ধক করে ওঠে। টুলের ভাল-মন্দ নেই—ব্যবহারটাই সব।
আপনি ট্রাই করতে চাইলে এই তিনটা কথা মনে রাখুন:
সকালে লগইন করুন, পিক টাইম এড়িয়ে চলুন
ফাইল নাম পরিষ্কার রাখুন, @ ব্যবহার করুন
ছোট ছোট টেস্ট করুন, তারপর পুরো দমে আউটপুট দিন
এখনই সবচেয়ে ভালো সময়: ফ্রি ক্রেডিট বেশি, কমিউনিটির টিউটোরিয়ালও সবচেয়ে সম্পূর্ণ। দাম বাড়লে পরে আফসোস করার আগে—এখনই শুরু করুন।
কারণ পরের ভাইরাল ভিডিওটা—হয়তো আপনার এক লাইনের প্রম্পটেই লুকিয়ে আছে।