Carlos Santana de Dot CSV Lab ha resumido en un estupendo vídeo en el que se deshace en elogios lo que ha podido probar de Seedance 2.0, el nuevo modelo de ByteDance (TikTok) disponible a través de sitios como DEeVid AI para generar vídeos cinemáticos y de animación a partir de instrucciones (prompts) sumamente sencillos y efectivos.
Hay que verlo para creerlo. Así que, míralo.
Escuchar «es una auténtica locura» más de cuatro o cinco veces a un experto que ha probado en primera persona casi todo, junto con diversos «increíble» y «me peta la cabeza» es ya una buena señal. Todo esto le lleva al inevitable «es que me faltan adjetivos para describir todo esto» y a terminar con un glorioso «no sé cómo remarcar con más fuerza el antes y el después de Seedance 2.0» final.
Reafirmo lo que dice, que es totalmente cierto, salvo sutilizas difíciles de apreciar hasta para los expertos (microgestos, algún objeto que aparece y desaparece y algún puntual fallo de los escenarios) el realismo de los vídeos generados es absolutamente increíble: el reflejo en objetos secundarios como las copas de agua de las escenas, el cómo se mantiene la continuidad en los cambios de plano, la adecuación de las voces y bandas sonoras…
Y, lo más importante, todo comenzando por algo tan sencillo como un prompt que diga: «Will Smith comiendo espaguetis» o «El personaje de esta foto luchando contra Neo en bullet time». Ciertamente Seedance 2.0 se ha superado.
Me recuerda mucho a cuando en 1990 probamos la versión 1.0 de Adobe Photoshop: tenía muy buenas posibilidades y apuntaba a que iba a cambiar la industria de las imágenes fotográficas y su publicación en papel. No era perfecto todavía, pero casi. (Con el tiempo, así fue). Aquí da la impresión de que va a suceder lo mismo. Como resume Santana:
(…) Y esta es la peor versión de una tecnología que va a ser mucho más barata, mucho más rápida, mucho más potente y de más calidad. Que en algún futuro (…) toda esta generación de contenido se va a producir en tiempo real, donde podremos interactuar con mundos tan ricos como los que estamos acostumbrados a ver dentro de películas, pero con una generación interactiva donde vamos a tener completa maleabilidad de todo lo que estemos visualizando.
A partir de aquí sucederán muchas cosas en poco tiempo: quienes quieran producir vídeos, series o películas podrán valorar qué escenas rodar y cuáles generar artificialmente; barato no va a ser su uso, pero infinitamente más que el MundoReal™ eso es seguro. Los guionistas podrán rodar sus series y películas sin necesidad de grandes presupuestos. Habrá contenido de series basura y películas basura como hoy hay de memes. Los videojuegos tendrán un realismo inédito.
Quizá lo más relevante le toque a Hollywood y a los actores y actrices que tendrán que decidir qué hacer para que el aspecto de los protagonistas pague sus royalties o esté completamente prohibido utilizarlos (protestar, ya están protestando). En las demos y versiones previas quedan muy bien, pero ahí son laxos con lo de los copyrights, por lo que se ve. Aunque, visto lo visto, también puede acabar en un… ¿quién necesita actores conocidos?
Va a ser divertido, sin duda.

