Apuntes:
GAN: Permite desarrollar un arte generativo a través de la recolección diferentes imágenes. Consiste en una red neuronal para generar imágenes sintéticas.
Una imagen para un algoritmo es un vector. Una recolección de datos.
Al igual con Wekinator, señala fallos en la base de datos, por ejemplo, te menciona que ‘‘la imagen 25 mil falló’’.
GAN tiene sub géneros, como DCGAN (Deep Convolutional GAN).
Style GAN: Básicamente una GAN, entrenada con estilos. Pueden ser capaces de entregar rostros.
Style Transfer: Reconoce el estilo de un imagen y se lo aplica a otra. Similar a los filtros.
SIGGRAPH: Convención de cómo hacer técnicas interactivas para gráficas.
Pix2pix: Un pixel se convierte en otro pixel.
Google Creative Lab.
La computación no se enfoca únicamente en el mouse y el teclado, hay un campo de posibilidades creativas.
T-sne: Permite crear una distribución de probabilidad que represente las similitudes de un elemento.
Artistas que me interesan de ML Art:
Lulu xXX, Memo Akten, Seung Joon Choi, Mario Klingemann, Derrick Schultz.
Seung Joon Choi
Lulu xXX
Mario Klingemann
Derrick Schultz
Primera parte:
https://mlart.co/
(Filtrar la página en Tecnología: GAN
https://www.memo.tv/
https://mlart.co/item/a-browser-based-app-to-animate-faces-with-your-camera-in-real-time_-created-with-a-google-colab-wrapper-for-first-order-motion
Segunda parte:
Revisión de la página de Holly Plus.
Observación de la página Tone Transfer, que ofrece diferentes sonidos de instrumentos. Puedes entrenarlo con tu propio audio.
https://sites.research.google/tonetransfer
Trabajo de investigación:
Título: Edges 2 Cats
Autor: Christopher Hesse
Adaptación de pix2pix a TensorFlow
¿Qué hace?
Transforma un dibujo creado por el usuario en un gato, dentro de una página web. En mi comprensión, lo que hace es rellenar el dibujo con una imagen de gato.
¿Cómo lo hace?
A través de un almacenamiento de base de datos, en donde se entrena la inteligencia artificial (lo que se entiende como Deep Learning) para que reconozca ciertos estilos de dibujo y los asimile a un gato. Mantiene un formato que consta de imágenes de entrada y de salida. Está entrenado con alrededor de 2 mil fotografías de gatos, generando bordes de manera automática a partir de dichas fotografías.
Materiales:
Ejemplo:
En la siguiente demostración, dibujé una estrella como imagen de entrada, mientras que la salida se basó en rellenar dicha estrella con la foto de un gato.
Así mismo, probé con otras figuras, obteniendo como resultado que el relleno de la forma se completaba con la foto de un gato.
¿Y qué pasaba si hacía un intento de dibujo de un gato, para que se rellenara de otro gato?
¿Qué otras aplicaciones tiene?
Este mismo ejemplo se aplica a otros elementos, como generar bolsos, edificios, mapas. En palabras de los autores Isola, Junyaz, Tinghyuiz & Efros (2016) ‘‘Demostramos que este enfoque es eficaz para sintetizar fotografías a partir de mapas de etiquetas, reconstrucción de objetos a partir de mapas de bordes, y colorear imágenes, entre otras tareas’’ (p. 1).
Bibliografía: