A startup de IA Runway lançou seu primeiro aplicativo móvel no iOS, permitindo que as pessoas usem o modelo de IA geradora de vídeo para vídeo da empresa – Gen-1 – diretamente de seus telefones. Você pode baixar o aplicativo aqui, com usuários gratuitos oferecendo um número limitado de créditos.
Gen-1 permite que você transforme um vídeo existente com base em uma entrada de texto, imagem ou vídeo. Funcionalmente, funciona muito como uma ferramenta de transferência de estilo (embora, ao contrário da transferência de estilo, gere vídeos totalmente novos como uma saída, em vez de aplicar filtros). Você pode enviar um vídeo de alguém andando de bicicleta no parque, por exemplo, e aplicar uma estética ou tema. Você pode dar ao vídeo a aparência de uma pintura em aquarela ou esboço a carvão, e assim por diante.
Claro, porque esta é uma IA generativa, a saída é muitas vezes… estranha. Se você adicionar um efeito de argila, por exemplo, seus modelos resultantes não funcionarão como real argila. Os modelos vão se deformar entre cada quadro; os membros crescerão e encolherão; características irão derreter e manchar. Isso é tudo de se esperar, porém, e não tira a diversão.
Aqui, por exemplo, estão três renderizações diferentes de um clipe icônico de Al Pacino em Aquecer (1995). O mais notável para mim é o clipe no canto inferior direito, que usa uma foto que tirei de um gato como intermediário. Sem que eu precisasse especificar, a modelo aplicou o focinho do gato no de Pacino e até deu um pouco de pelo nas mãos dele deixando o traje mais ou menos intacto. Os outros dois clipes na linha superior são filtros predefinidos.
Aqui está outro exemplo: um vídeo da Catedral de St. Paul em Londres com o filtro “papel e tinta” aplicado. Não é um efeito alucinante, mas foi incrivelmente fácil de fazer. E nas mãos de um cara mais experiente e criativo, tenho certeza que pode ser espetacular.
Estou testando o app da Runway há alguns dias, e com certeza ele torna todo o processo de criação desse tipo de vídeo muito mais fluido. (O principal pacote de software da Runway está disponível na web, o que aumenta a distância entre a captura e a geração da filmagem.) Não é uma experiência contínua, é claro. Existem as ineficiências usuais e os erros inesperados que você esperaria encontrar na primeira versão de um aplicativo. Mas, como disse o CEO da Runway, Cristóbal Valenzuela, The Vergetornar essas ferramentas móveis é o mais importante.
“É por isso que o telefone faz tanto sentido porque você está gravando diretamente de seu dispositivo e depois diz ao Gen-1 como transformar esse vídeo”, disse Valenzuela.
Existem outras limitações que vale a pena mencionar. Você não pode trabalhar com filmagens com mais de cinco segundos e há certos prompts proibidos. Você não pode gerar nudez, por exemplo, e parece que o trabalho protegido por direitos autorais também está fora dos limites. Minha solicitação para criar um vídeo “no estilo de um filme do Studio Ghibli” foi rejeitada. Cada vídeo também leva cerca de dois a três minutos para ser criado, o que não parece muito, mas parece uma era na era da edição móvel instantânea. O processamento é feito na nuvem e provavelmente será mais rápido com o tempo. Atualmente, o aplicativo suporta apenas o modelo Gen-1 da Runway, mas Valenzuela diz que o Gen-2 puramente generativo será adicionado em breve.
O que essas notas não capturam totalmente, porém, é a enorme sensação de possibilidade de ferramentas como esta. A saída dos modelos de texto para imagem de IA também começou como manchada e irreal. Agora eles estão sendo usados para enganar o público com fotos exageradas do papa.
Valenzuela tem comparado a era atual da IA generativa até a fase dos “brinquedos ópticos” do século 19, quando cientistas e inventores estavam criando toda uma gama de dispositivos que eram triviais em suas capacidades, mas também os ancestrais das câmeras modernas. O aplicativo móvel da Runway parece um desses brinquedos. Não consigo imaginá-lo sendo usado para trabalho de produção profissional, mas também não consigo imaginar o tamanho do efeito que ferramentas como essa terão no futuro.