expand_less

Investigación en Música UC: profesor Rodrigo Cádiz expone en taller sobre la potencialidad creativa de la inteligencia artificial

23 de junio de 2021


El compositor e ingeniero civil es parte del laboratorio interdisciplinario CreativAI Lab UC, que ha desarrollado dos modelos que generan contenidos musicales en forma autónoma a través de redes neuronales y el deep learning. Darán a conocer estos prometedores resultados el jueves 24 de junio en el 3er Seminario Internacional de Desarrollo de Públicos del Ministerio de las Culturas.

photo_camera Compositor e ingeniero, Rodrigo Cádiz es profesor de Música UC y de Ingeniería UC. Foto: Archivo Música UC.

Dando cuenta de la diversidad de prácticas interpretativas, composicionales e investigativas que se producen en el Instituto de Música UC, el profesor Rodrigo Cádiz expondrá el jueves 24 de junio en el taller “Inteligencia Artificial para la Creatividad”, en el 3er Seminario Internacional de Desarrollo de Públicos del Ministerio de las Culturas, las Artes y el Patrimonio. La transmisión se realiza a las 15:00 horas.

Cuatro investigadores del laboratorio CreativAI Lab UC responderán una pregunta contingente: ¿puede la inteligencia artificial ser creativa? Además,  darán a conocer los prometedores resultados de dos experimentos que estos científicos chilenos están desarrollando.

“Vamos a reflexionar sobre qué implicancias tiene para la creación musical el uso de dispositivos actuales como el computador.  En el fondo, vamos a intentar responder a la pregunta de si la inteligencia artificial puede ser creativa, además de inteligente, y lo haremos a través de ejemplos concretos de sistemas que nosotros mismos hemos creado”, adelanta el compositor e ingeniero eléctrico Rodrigo Cádiz, quien es académico del Instituto de Música UC y de la Facultad de Ingeniería UC.

¿Por qué es relevante para CreativeAI Lab UC participar en un seminario sobre desarrollo de públicos?

“La verdad es que como creadores debemos acostumbrarnos a convivir con las máquinas. Hoy en día, los computadores están creando contenido muy similar al que un ser humano juzga como arte. Entonces uno se cuestiona un montón de cosas. Las máquinas, ¿son creativas? ¿Crean arte o no? Es una temática relevante en un seminario dedicado a formación de audiencias, porque es algo a lo que tenemos que acostumbrarnos. Esto va a pasar cada vez más, y en diez años no va a ser ninguna novedad”.

¿Siguen siendo las máquinas un recurso creativo, una extensión del hombre? ¿Sigue siendo un humano el que determina los ámbitos de autonomía de una máquina?

“Eso ha cambiado. Lo que mencionas es propio de una programación tradicional, donde hay un programador que hace un programa y el computador sólo lo ejecuta. Pero se ha producido un cambio de paradigma con la revolución del deep learning, o aprendizaje profundo, que es un concepto antiguo. De hecho, ya en los años 50 existen las redes neuronales, como conceptos matemáticos teóricos, pero no se aplicaron porque no teníamos poder de cómputo ni datos suficientes. Hoy día tenemos computadores súper potentes y tenemos también muchos datos, entonces no es extraño que el campo del deep learning haya florecido recién ahora, hace unos 10 años. Este campo es un paradigma bastante distinto de cómo comprendemos la computación tradicional. En el deep learning la máquina realmente está aprendiendo. El humano lo único que hace es proveer los datos para que la máquina aprenda, y controlar parámetros como qué tan rápido y cuánto aprende, pero el aprendizaje mismo lo está haciendo la máquina. Es un paradigma distinto. Por supuesto que todavía no hay ningún robot que por sí mismo se le ocurra crear música, eso todavía está en manos de los humanos que programan los sistemas; pero ya hay sistemas que se autoenseñan cosas. El campo de investigación de cómo entrenar redes neuronales con deep learning es muy grande; estamos ante un cambio de paradigma que a lo mejor va a tomar tiempo, pero es bien profundo. Nuestra relación con las máquinas va a ser distinta porque van a ser entidades que van a aprender igual que nosotros”.

Hablemos de las redes neuronales. ¿Se llaman así porque pueden aprender?

“Su nombre lo tomaron prestado de la neurona porque, como concepto, es una entidad que tiene varias entradas y una salida; dendritas y axones. Entonces a alguien se le ocurrió emular eso en forma artificial y creó una especie de unidad que tiene muchas entradas y salidas, que están conectadas, y no se le ocurrió otro mejor nombre que red neuronal. Emula la idea de que hay comunidades conectadas con otras, y que son muchas. En lo que más se parece al cerebro, es en la capacidad de cómputo, y eso es lo que ha pasado en los últimos años, que ahora tenemos computadores súper capaces de hacer redes con millones y millones de neuronas. Entonces se está asemejando en lo que puede hacer en términos de cómputos el cerebro humano".

 ¿Son sistemas informáticos las redes neuronales?

 “Sí. Es decir, lo puedes ver de muchas formas, pero en la práctica es software, son algoritmos, es igual que un programa como Word. Son códigos de computadora, en el fondo”.

“Los seres humanos entendemos qué significa ser creativo, pero, ¿podemos aplicar este concepto a las máquinas? Parece que nos resistiéramos a esa idea, y en realidad hay más argumentos a favor que en contra”- Rodrigo Cádiz.

La invitación del Ministerio de las Culturas nace de una experiencia previa, como expositor, de Denis Parra, profesor asociado del Departamento de Ciencia de la Computación UC. “El año pasado, él dio una charla sobre su sistema de recomendación de música, en el cual ha trabajado con inteligencia artificial y con deep learning. Hace un par de años, comenzamos a trabajar juntos en modelos generativos de música; armamos un equipo en la Universidad Católica, el CreativAI Lab”, comenta Rodrigo Cádiz.

Este laboratorio lo integran académicos y estudiantes de magíster y de pregrado. “Lo que hacemos es investigar modelos de redes neuronales que generan contenido audible, en forma muy similar a como lo hace un humano. Obviamente por ahora todo es programado por nosotros, pero en 20 años más las máquinas van a aprender solas. Nuestro objetivo no es que las máquinas reemplacen al humano, es simplemente aumentar las capacidades del humano a través de los algoritmos. Hay miles de cosas que las máquinas pueden hacer en forma muy rápida que un humano, y eso me parece una ventaja creativa”, agrega.

Equipo interdisciplinario del laboratorio CreativAI Lab UC. "Nuestra investigación es enseñarle a la máquina a crear", comenta Rodrigo Cádiz.

En CreativAI Lab UC están representadas tres disciplinas: la música y la ingeniería eléctrica, con Rodrigo Cádiz, y la computación, con Denis Parra. Los alumnos en general son de Ingeniería.

El taller que ofrecerá CreativAI Lab UC constará de cuatro segmentos. El profesor Denis Parra ofrecerá una introducción a la inteligencia artificial, las redes neuronales y el deep learning o aprendizaje profundo. Luego expondrán Manuel Cartagena y Agustín Macaya, estudiantes de magíster, el primero, en el Departamento de Ciencia de la Computación UC y el segundo, en el Departamento de Ingeniería Eléctrica UC. Cada uno explicará en profundidad qué ha sucedido con el modelo que ha desarrollado, ambos con resultados sorprendentes.

Manuel Cartagena, explica Rodrigo Cádiz, trabajó con la popular red StyleGAN2. “Las redes GAN son bien interesantes porque son capaces de producir imágenes a partir de ruido. Una red tipo GAN produce, por ejemplo, las deepfakes, que están tan de moda, y que son imágenes nuevas creadas en forma completamente artificial por un computador. Manuel tomó una red StyleGAN2 que estaba entrenada en rostros y cambió esas caras por gráficas de piano roll, que es una representación MIDI de una partitura, con una escala de alturas y una escala de tiempo, o sea el mismo concepto de una partitura, pero en forma de foto. Cambiamos las caras por esas fotos, y lo entrenamos un poco más, y genera cosas parecidas a la música. Obviamente la red no tiene idea de armonía ni de conducción de voces, entonces genera cosas que para un humano suenan todavía a error. Pero esto es un problema de aprendizaje, es decir, que todavía no está entrenada lo suficiente”.

¿Qué es exactamente un MIDI?

“Es una cuestión que inventaron en los años 80 para comunicar aparatos. Entonces tenías un sintetizador A y uno B, y eran de marcas distintas y no se hablaban entre ellos, así que las compañías decidieron hacer un protocolo de comunicación, e inventaron MIDI. Con MIDI puedes conectar un computador a un teclado, un teclado a otro teclado, etcétera. En este caso, nosotros convertimos la música a archivos MIDI y del archivo MIDI lo pasamos a esta partitura gráfica. El objetivo de Manuel fue ver si estas redes son capaces de generar material sonoro y sí generó compases”.

¿Y cómo es el modelo que desarrolló Agustín Macaya?

“Agustín está generando acordes, pero en otra red, que se llama VAEs, Variational Autoencoders, o autocodificadores variacionales. Son redes diseñadas para compactar información. Es como un ZIP, que tienes información y la comprimes a un espacio más chico, que se llama espacio latente, y después la red está entrenada para reconstruirla a partir del espacio latente. Entonces, entrenas estas redes y, una vez que la red aprende, te pones a explorar este espacio, y salen imágenes nuevas, es muy interesante como método. Agustín entrenó estas redes con acordes, con audios, en vez de imágenes. Y esto es bien fascinante a nivel musical y es clave para entender su potencial; lo entrenamos con acordes mayores, menores, aumentados y disminuidos, de tres notas, es decir, tríadas. La red nunca conoció un acorde de cuatro notas ni un acorde de séptima; sin embargo, cuando tú exploras el espacio latente, aparece un acorde de séptima, y aparece un acorde de cuatro notas. ¿Cómo aprendió la red este concepto? Imaginemos una guagua, que tú le dices ‘Los acordes tienen tres notas’, y de repente la guagua dice ‘¿Por qué no pueden tener cuatro?’. Y ordenadas por terceras, o sea un acorde de séptimas, una entidad musical bien definida y con estructura, no simplemente un clúster. Entonces este trabajo tiene un potencial musical, no tanto para crear música, sino para comprender qué es música o, por último, qué es la armonía o la tonalidad. Tiene harto potencial”.

Rodrigo Cádiz estrenó la obra Ritmos Circadianos con la Man and Machine Robot Orchestra de la Fundación Logos, Bélgica, en 2012. Foto: Logos Foundation.

El profesor Cádiz también expondrá en este taller, en lo que será un adelanto de un paper científico pronto a ser publicado, en el cual aborda estos dos modelos. "Los explico y los estudio bajo el concepto de creatividad computacional, que es un campo de investigación que se ha desarrollado en los últimos 15 años, por gente que viene de la sicología, de la computación, de la música y de las artes en general. En mi artículo, argumento por qué creo que estos sistemas son efectivamente creativos y qué implicancias tienen, y de eso voy a hablar en la charla de cierre del workshop. Habrá espacio para preguntas; va a ser entretenido ver qué le parece a la gente lo que estamos haciendo”, apunta Rodrigo Cádiz.

¿A quiénes convoca este taller? ¿A todo aquél que le interese saber más de la creación artística y a quienes quieran comprender en profundidad los desarrollos tecnológicos, más allá del nivel del usuario?

“Creo que a varios públicos distintos. A los aficionados y profesionales de la tecnología, y a toda la gente que está creando música con tecnología, pero también a los músicos en general, para entender que este mundo de las máquinas creando música va a venir sí o sí, y es mejor informarse que no informarse. Y también a la gente que le interesa el concepto de creatividad. Nosotros los humanos usamos harto ese concepto, creo que entendemos qué significa ser creativo, pero, ¿podemos aplicar este concepto a las máquinas? Parece que nos resistiéramos a esa idea, y en realidad hay más argumentos a favor que en contra de eso. Las máquinas hacen las cosas de forma bien parecida a nosotros, sobre todo con este paradigma del deep learning. Así que creo que cualquier persona interesada en por qué los humanos somos creativos también encontrará atractivo este taller”.

El taller se puede seguir aquí, y las inscripciones gratuitas para el zoom se realizan aquí.

El sitio web de CreativAi LAb UC está aquí.

El resultado del ejercicio de creación con redes StyleGan2 está aquí.

 

Comparte nuestro contenido en: