martes, 7 de marzo de 2023

Cómo hacer cosas con palabras

 Por Guillermo Piro

En 2017 Google lanzó Deep Dream, un generador de imágenes un tanto psicodélicas que recurría a una base de datos gigantesca con retratos de perros, lo que daba como resultado cosas realmente increíbles, aunque un tanto ingenuas. Alguien, ya entonces, empezó a vislumbrar un problema, esto es que el generador estaba utilizando imágenes ajenas por las cuales no pagaba un centavo. Aquellos propagandistas conspiranoides del apocalipsis entonces sonaban un poco anacrónicos, pero hoy se los ve como precursores en el tratamiento de un problema muy actual.

Desde la aparición de programas de inteligencia artificial como Dall-E, Stable Diffusion y Midjourney, las redes sociales empezaron a llenarse de extraños dibujos un poco oníricos, con muchas referencias surrealistas, como si el autor fuera una especie de Dalí que acatara todas las propuestas y sugerencias que se le hicieran. El software se llama text to image, y el nombre es bastante literal, dado que lo que hace es traducir en imágenes una serie de instrucciones dadas por el usuario (el prompter) por escrito –también pueden ser dictadas–.

Los que más están tomando distancia son los diseñadores e ilustradores, que ven en la acción de estos intrumentos una violación a los derechos de autor. Escribí la palabra “instrumento”, y hasta el uso de esa mera palabra es algo con lo que muchos no estarían de acuerdo, pero personalmente no veo muchas diferencias entre la discusión actual y aquella despertada por la aparición de la fotografía, en el siglo XIX. Cuando aparecieron las primeras máquinas fotográficas hubo cierto estupor, cierto desconcierto, frente a la rapidez con que el nuevo medio producía imágenes. Entonces también se hablaba del fin de la pintura y de la ilustración por culpa de la tecnología, y entonces también había quien se lamentaba de la facilidad con que podían realizarse fotos, alegando que era material y espiritualmente imposible que se lograra arte “solo oprimiendo un botón”. Ya sabemos cómo terminó.

Midjourney, al igual que las otras inteligencias artificiales text to image, presenta obvias diferencias con la fotografía, empezando por el hecho de que las imágenes se generan por vía textual, diciendo imagine y pidiéndole luego al software cosas que pueden ir de lo extremadamente simple a lo extremadamente complejo. Uno puede pedirle a Midjourney (siempre en inglés), por ejemplo, “imagina una pintura al óleo de unas chicas con máscaras en forma de poliedros regulares, en primavera, 1890, que recuerde un poco a Hockney, metafísica, geométrica fractal, con un toque de Ingres, simbolismo, pintura académica, viejos maestros, De Chirico y trigonometría”. No estoy inventando, alguien dio esas instrucciones precisas.

Lo sorprendente no es solo que el software entiende, sino que el resultado se obtiene en pocos segundos (un solo problema, estos programas tiene dificultades para dibujar manos: las manos casi siempre están aferrando algo, y el programa no las “lee”; es por eso que en estas obras aparecen tan pocas manos).

El creador siempre está robando algo. Todavía hoy, si se lo piensa, es un poco incomprensible que el dueño de la fotografía sea el que la sacó y no el retratado. Y de todos modos, ir al museo y fotografiar obras ya es un modo de robarlas. Ni siquiera hace falta fotografiarlas, verlas y recordarlas ya es un modo de apropiarse de ellas. ¿Qué hacemos con los DJ? ¿Y con los diseñadores de interiores? ¿Y los curadores de arte? Todos ellos eligen a partir de un determinado número de posibilidades. Propongo seguir de cerca la discusión. Y mientras tanto seguir creando imágenes delirantes con palabras.

© Perfil.com

0 comments :

Publicar un comentario