Quando o ChatGPT apareceu no fim de 2022, muita gente entendeu aquele momento como um estalo. Não foi a primeira vez que o audiovisual flertou com algoritmos, mas foi quando a conversa saiu dos laboratórios e entrou no set, na ilha de edição, na sala de roteiro e no painel do YouTube Studio. Em dois anos, a cadeia inteira mudou: a escrita, a pré, a filmagem, a pós, a distribuição e até as negociações trabalhistas. Este artigo costura o que já aconteceu, com dados, exemplos e tendências que de fato chegaram à prática.
Ferramenta ou coautora?
Para roteiristas, o ano de 2023 marcou um divisor. As cláusulas da nova convenção da WGA proibiram que estúdios tratem material gerado por IA como “fonte” para reduzir crédito e garantiram que o uso de IA é escolha do escritor, não imposição da empresa. Em paralelo, SAG-AFTRA fechou um acordo histórico com regras para réplicas digitais de atores e, depois, expandiu salvaguardas para games. Na prática a fase de desenvolvimento passou a usar IA em pesquisa, sinopses preliminares e referências visuais, enquanto a autoria humana permaneceu blindada no contrato. A consequência imediata foi mais agilidade na etapa de ideação, sem abrir mão de crédito e residual.
Ferramentas de vídeo generativo saíram do hype e viraram maquete audiovisual. Runway Gen-3, Pika e Luma Dream Machine permitem criar previz de cenas em minutos, o que mudou a conversa de direção de arte e câmera. Em publicidade, a parceria WPP + NVIDIA integrou geração de variações criativas e 3D com pipeline de mídia, encurtando ciclos de aprovação. Para produtoras pequenas,, isso significou elaborar decks e teasers melhores por uma fração do custo. Para marcas, significou multiplicar versões por mercado e plataforma sem sobrecarregar estúdios.
Operadores a menos e cobertura a mais
No set, a IA entrou mais como “assistente” do que como câmera autônoma. O salto visível veio em esportes: sistemas como Pixellot transmitem milhares de jogos mensais com rastreamento automático de bola e jogadores, gráficos e cortes em tempo real. Em telejornais, avatares e apresentadores sintéticos começaram a aparecer em alguns países, barateando faixas horárias. Em cinema e séries, a maioria das produções ainda se apoia em captação tradicional, mas usa geração de placas, previz e layout de cena para ensaiar e ajustar planos antes da diária.
A ilha virou um dos maiores beneficiados. O “Enhancee Speech” do Premiere limpa diálogos que antes exigiam horas de restauração. O Roto Brush 3 do After Effects, treinado com IA, reduziu o martírio de recortar atores quadro a quadro. No still, o Generative Fill do Photoshop encurtou refações e tratamento de key art, e o Firefly atingiu bilhões de gerações em seu primeiro ano, o que mostra uso massivo por equipes criativas. Para arquivo e documentário, upscalers como Topaz Video AI viabilizaram restaurações e conversões para 4K com qualidade antes impensável no orçamento independente.
A barreira de idioma começou a ruir. O YouTube ativou dublagem automática para centenas de milhares de canais, identificando o idioma e publicando faixas de áudio adicionais. O Spotify lançou um piloto de tradução que mantém a voz do podcaster em outros idiomas. Startups de dublagem com clonagem de voz e lipsync natural avançaram nos estúdios e no streaming. Em 2025 surgiram acordos para levar longas ao cinema com dublagem gerada por IA supervisionada por humanos, encurtando cronogramas e abrindo territórios que antes não fechavam a conta.
Muitas versões, mais rápido, com rastro de procedência
Campanhas globais ganharam um “motor” de variações. A WPP integrou geração de ativos com 3D e mídia, e marcas testaram plataformas que combinam modelos de texto e imagem para co-criar artes com fãs, como a Coca-Cola fez. Ao mesmo tempo, a indústria começou a etiquetar conteúdo com “Content Credentials”, um padrão aberto que embute metadados verificáveis sobre autoria, edição e uso de IA. Câmeras novas e atualizações de firmware de fabricantes como Leica, Sony e Nikon passaram a capturar essas credenciais no clique, e softwares da Adobe já as anexam na exportação. É a primeira resposta prática do mercado ao desafio de distinguir o real do sintético.
A outra grande mudança aconteceu fora do set. As greves de 2023 resultaram em regras claras: estúdios precisam de consentimento e compensação para criar e usar réplicas digitais de intérpretes, e roteiros não podem usar IA para minar crédito de quem escreve. Em 2025, os performers de games aprovaram um contrato com proteções específicas de IA. O recado foi simples. A ferramenta pode acelerar processos, mas a pessoa dona do rosto e da voz escolhe como e quando autoriza seu uso. E isso vale na filmagem e na sala de mix.
Deepfakes
Nos EUA, o Escritório de Copyright orientou que obras puramente geradas por IA não são registráveis, embora trabalhos híbridos, com contribuição criativa humana substancial, possam ser. A Justiça americana reforçou a exigência de autoria humana em 2025. Do outro lado do Atlântico, a União Europeia publicou o AI Act com obrigações de transparência para sistemas que geram conteúdo sintético, incluindo exigências de rotulagem de deepfakes. Plataformas também avançaram com rótulos e restrições para impedir abusos com rostos e vozes, como vimos no lançamento do Sora com limites para pessoas reais em vídeo.
Alguns episódios colocaram a discussão no centro do noticiário. “Late Night with the Devil” recebeu críticas por usar três imagens geradas por IA nas vinhetas, e os diretores vieram a público explicar. A Netflix divulgou o uso de IA generativa em efeitos de uma série, alegando ganho de velocidade e orçamento. E, no áudio, a oferta da cantora Grimes para dividir 50% dos royalties em músicas feitas com sua voz foi um experimento ousado de licenciamento num momento em que gravadoras pediam a remoção de “fakes” de artistas consagrados.
O que mudou de fato no dia a dia
-
Mais material de referência, mais cedo. Diretores chegam à pré com previz, mood reels e variações de arte prontos em horas.
-
Pós mais curta em tarefas repetitivas. Limpeza de ruído, máscaras, plate removal e preenchimentos ganharam automação.
-
Distribuição multipaís mais viável. Dublagem automática e melhor tradução derrubaram custo marginal por idioma.
-
Novas rotinas de compliance. Projetos passaram a documentar uso de IA e a anexar credenciais de conteúdo por padrão.
-
Novas linhas no orçamento. Entraram créditos de API, custos de inferência e supervisão humana em dublagem e VFX generativo.
-
Papéis reconfigurados. Editores viraram condutores de ferramentas que sugerem cortes e melhoram áudio. Artistas de VFX focam nos 20% mais criativos, delegando o resto a assistentes inteligentes.
O que ainda está em aberto
A curva de qualidade de vídeo gerado cresce muito rápido, mas ainda tem limitações de consistência de personagem e física de cena longa. Dublagem automática funciona bem em conteúdo informativo e podcasts, mas exige revisão mais fina em drama. A indústria avançou em procedência com o C2PA, embora a adoção plena dependa de smartphones e plataformas. E a discussão sobre dados de treino e compensação a criadores deve se intensificar, inclusive com novos acordos de licenciamento.
Como se posicionar em 2026
Para produtoras e canais: padronize credenciais de conteúdo, crie uma política de uso de IA por etapa e mapeie ganhos de tempo com métricas simples de antes e depois. Para freelancers: documente processos e resultados que uma IA não entrega sozinha, como direção de atores, taste de montagem e decisões narrativas. Para streamers e marcas: alinhe jurídico, marketing e pós para evitar retrabalho com direitos de imagem e música. Para todos: trate IA como infraestrutura, não truque. Quem sistematiza, colhe mais.