Nas últimas semanas, meu WeChat Moments, Xiaohongshu e Bilibili foram dominados por uma ferramenta de vídeo com IA chamada Seedance 2.0. Tem gente dizendo que ela “vai deixar editores sem trabalho”, outros fizeram um épico de wuxia em dois dias, e teve quem usou uma foto antiga do avô para gerar um vídeo em que ele pisca e sorri — e acabou com os olhos marejados.

Como criador(a) freelancer que vive de conteúdo curto há anos, eu não acreditei de primeira — porque já testei muitos “milagres de vídeo com IA” que ou quebram a imagem, ou deixam os movimentos duros, tipo marionete. Mas dessa vez, a plataforma JiMeng (即梦), da ByteDance, realmente me fez mudar de ideia.
Eu passei duas semanas indo do cadastro até entregar um mini-curta completo — caí em armadilhas, aproveitei créditos grátis e também fiz trabalhos que me surpreenderam. Então hoje eu vou deixar aqui um guia do Seedance 2.0 sem papo pronto, sem exagero, só prática, pra quem quer começar do jeito certo.
O Seedance 2.0 não é só “texto que vira vídeo”. Ele tem três capacidades principais:
Imagem para vídeo: você envia uma imagem e ele faz a pessoa se mexer, falar, lutar etc.
Cópia por referência: você envia um vídeo do Douyin/TikTok e ele “encaixa” seu personagem nele — copiando câmera, ritmo e transições.
Expansão de storyboard: você desenha uma grade 3×3 tipo HQ e ele transforma em um curta animado de 15 segundos com efeitos sonoros.
O mais impressionante é que ele vem com áudio nativo — boca sincronizada com fala, além de música de fundo e sons de ambiente (chuva, ronco de motor, etc.) gerados automaticamente. Ou seja: muitas vezes você nem precisa dublar ou sonorizar depois. Um prompt bem escrito já sai quase “pronto pra postar”.
A primeira pergunta que todo mundo faz é: “Quanto custa?” Na prática, dá pra usar de graça e se divertir bastante — o segredo é combinar plataformas.
Hoje o Seedance 2.0 está disponível em três lugares:
JiMeng (web)
App Doubao
App Xiaoyunque
Eles são “da mesma família”, mas os pontos/créditos não são compartilhados, então você consegue somar as cotas.
Pelo que eu testei:
JiMeng: usuário novo paga 1 RMB e ganha 1000+ créditos (dá pra gerar mais de 10 vídeos de 15s)
Doubao: login diário dá 100 créditos
Xiaoyunque: dá 90 créditos por dia, e ao convidar amigos você ganha mais 200+
Eu usei dois números de telefone e consegui gerar de forma estável 8–12 vídeos por dia, o suficiente pra criação diária. Outra coisa: entre 6h e 8h da manhã foi o horário mais rápido — quase sem fila. Já à tarde, no pico, muitas vezes eu esperei 10+ minutos.
📌 Dica: não comece com um “épico” de 15 segundos em alta qualidade. Teste primeiro em modo de 5 segundos e baixa resolução pra validar o prompt. Só depois gere a versão final. Isso economiza muito crédito “jogado fora”.
Meu primeiro trabalho realmente bem-sucedido foi um clipe de luta de 15 segundos, inspirado em Rurouni Kenshin.
Uma imagem frontal de um samurai de quimono gerada por IA (eu fiz no Midjourney), chamada Samurai.png
Um vídeo de referência baixado do Douyin com câmera orbitando rápido (personagem gira + saca a espada), chamado SwordSpin.mp4
“Substitua o protagonista em @SwordSpin por @Samurai, mantendo os detalhes do quimono e a textura da bainha. Cena: rua de Kyoto ao entardecer, com pétalas de sakura caindo. No momento em que o samurai saca a espada, a câmera faz uma órbita de 360 graus; um brilho de lâmina aparece e um inimigo de preto cai. No final, ele guarda a espada e diz baixinho ‘悪を斬る’ (cortar o mal). Áudio de fundo: som metálico da espada + folhas secas farfalhando.”
Cliquei em gerar, esperei menos de 2 minutos, e o resultado me deixou sem reação:
As pétalas de sakura tinham profundidade (perto/longe) bem convincente
O timing do “flash” da lâmina veio no ponto
A frase em japonês — a boca encaixou
Até a poeira levantando quando o inimigo cai parecia ter “peso” físico
Ainda não é 4K, mas quando eu postei no Xiaohongshu, bateu 1.000+ curtidas, e muita gente perguntou se foi feito por uma equipe profissional.
💡 Aprendizado-chave: nomeie os arquivos de forma clara e use @ para referenciar. Esse é o truque central pra controlar elementos no Seedance 2.0. Se você escrever algo vago tipo “bota o cara de quimono naquele vídeo que gira”, a chance de falhar é alta.
Não use imagens borradas ou fotos com muitas pessoas como “sujeito”
Eu testei uma foto de amigos numa festa. A IA não sabia quem animar e acabou “misturando” rostos — ficou com cara de filme de terror.
Não espere reproduzir perfeitamente personagens famosos com direitos autorais
Eu tentei “Homem de Ferro vs Batman” e o sistema bloqueou na hora: “conteúdo não aprovado”. IP conhecido parece ter filtros bem rígidos.
Não gere vídeos depois das 20h
A fila fica grande e, com o servidor sobrecarregado, aparecem falhas tipo flicker, tremedeira e movimentos espasmódicos.
Cuidado ao usar fotos reais de pessoas
Versões iniciais permitiam animar fotos reais, mas a partir de 10 de fevereiro essa função foi desativada às pressas por polêmica de privacidade. Agora só dá pra usar personagens gerados por IA ou estilos cartunizados.
Criadores de conteúdo: abertura rápida, demonstração de produto, vídeos de narrativa
Autores de romance/novel: transformar ilustrações de capítulo em teasers animados pra atrair leitores
Devs de jogos indie: criar cutscenes com custo baixo
Estudantes/professores: vídeos de ciência e reconstituições históricas — muito mais vivos do que PPT
Mas se você quer controle “nível cinema” (ajustar luz e sombra quadro a quadro) ou produzir séries longas, ainda vai precisar de softwares tradicionais de edição. O Seedance 2.0 é mais um acelerador de criatividade do que um “diretor automático”.
O Seedance 2.0 é forte, mas não vai substituir criadores. Vai deixar pra trás quem não quer aprender ferramentas novas.
Eu já vi gente usando pra gerar anúncio lixo, e também vi universitários transformando uma HQ 3×3 num curta de família emocionante. A ferramenta não é boa nem ruim — depende de como você usa.
Se você quiser testar, guarde estas três frases:
Entre cedo, evite horário de pico
Nomeie bem os arquivos e use @
Teste pequeno primeiro, depois produza com força total
Agora é o melhor momento: mais créditos grátis e mais tutoriais da comunidade. Não espere ficar caro pra depois se arrepender.
Porque o próximo vídeo viral pode estar escondido numa única linha do seu prompt.