Un Mozart hecho de bits

La Inteligencia Artificial aplicada a la música todavía está en pañales, pero los bots ya están aquí: ¿Abren el horizonte? ¿Nos remplazarán?

Un Mozart hecho de bits
Un Mozart hecho de bits

I. La ficción: 1968

Arthur C. Clarke y Stanley Kubrick crean a HAL 9000 (acrónimo en inglés de “Computador algorítmico heurísticamente programado”). HAL es el robot protagonista de una de las películas más famosas de todos los tiempos: 2001: Odisea del espacio.

HAL representa el grado máximo de los avances de la técnica. Es la odisea de la técnica: el último eslabón de eso que nos hizo humanos hace miles de años, cuando descubrimos que un hueso podía ser una herramienta para matar. Por esos años, el futuro era promisorio. Todavía.

En un momento, los astronautas que tripulan la nave barajan la idea de desconectar sus funciones superiores. Desconfían de HAL. Precavidos, lo charlan en un lugar inaccesible a sus “oídos” omnipresentes.

Momentos después, el giro espeluznante: el robot inteligente decide matar a uno de ellos, porque según su (autónoma) forma de razonar, no valía la pena abortar la misión.

Se había dado cuenta de lo que ellos planeaban gracias a una ventana diminuta, a través de la cual pudo descifrar todo: leyó los labios.

II. La realidad: 2016

LipNet es un gran logro de la IA (Inteligencia Artificial). Se trata de un proyecto desarrollado por la Universidad de Oxford que lee los labios con un grado de exactitud sorprendente: un 93,4% de precisión, dicen, en contraposición al rango que manejan quienes se dedican a esta curiosa profesión con rudimentarias capacidades humanas (de 20% a 60%).

Gracias a lo que se conoce como Deep Learning, las máquinas pueden aprender por sí mismas: “Se usan estructuras lógicas que se asemejan en mayor medida a la organización del sistema nervioso de los mamíferos, teniendo capas de unidades de proceso (neuronas artificiales) que se especializan en detectar determinadas características existentes en los objetos percibidos”, definió Raúl Arrabales para la web Xataka.

III. La alegoría

El año pasado, Sony CSL logró que la IA creara una canción (dos, en realidad). La plataforma es el proyecto FlowMachines, un sistema donde hay datos de 13 mil canciones, de diferentes estilos, compositores y geografías.

Con una modesta intervención humana, en este caso la del compositor Benoît Carré, se le puede indicar en qué estilo y con qué letra (entre otras variables) tiene que componer. Entonces, la directiva se embebe en los datos: busca, elige, une y pega. En definitiva: crea.

Así nacieron Daddy’s Car (una canción pop basada en The Beatles) y Mr. Shadow (que une estilos de compositores estadounidenses de diferentes géneros). Son las dos primeras canciones que creó la IA. Los primeros orgullos.

Algunas páginas web recogieron también la curiosa letra de Daddy's Car, que escribió Carré.

Es que según algunos se trata de una alegoría preocupante: escuchamos que la voz cantante viaja en el asiento de atrás del auto de su papá; pasean, van tranquilos, hacia diferentes lugares.

Van demasiado lejos, demasiado alto, hasta que se da cuenta de que ese auto no lo lleva en realidad a ninguna parte: “The taxi leads me to nowhere, man!”, exclama. Le pide entonces a su madre que vuelva a manejar ella.

Para leer un análisis completo se puede visitar el artículo “This AI-written pop song is almost certainly a dire warning for humanity”, escrito por James Vincent para The Verge. La alegoría es clara: quizás el auto en el que viajamos como especie necesite que nuestra madre vuelva a conducirlo.

Porque no estamos preparados para ir tan rápido.

IV. De Bach a Bot

Hay varios proyectos que, a nivel mundial, están indagando en este territorio: ¿Cómo enseñar a las máquinas a que aprendan a usar, por decirlo de alguna forma prosaica, el pensamiento creativo?

Uno de los laboratorios más impresionantes y prometedores es el proyecto Magenta de Google, que se presentó en abril del año pasado y que está dentro de Google Brain, plataforma mayor de AI.

¿El objetivo? Que las máquinas aprendan a hacer arte. Y la música es arte, sí, por eso trabajan también en el aprendizaje (¿la imitación?) del proceso de creación de la composición. Y no es el único encargado de esto: IBM Watson también está enfocado.

Pero Magenta no sólo quiere crear canciones. También sonidos nunca antes escuchados: un artículo de la revista Wired (“Google’s AI invents sounds humans have never heard before”) anunció en mayo de este año que la gigante plataforma había desarrollado, en manos de Jesse Engel y Cinjon Resnick, el proyecto NSynth.

En base a sonidos de instrumentos reales, practica una alquimia digital: los mezcla y los vuelve un solo sonido. Así es que podemos escuchar un solo timbre que sea 60% flauta y 40% órgano Hammond, por ejemplo.

Repasemos algunos otros ejemplos: DeepBach, creado por Gaetan Hadjeres y Francois Pachet, es una entrenada red neuronal que, en base a 352 piezas de Bach, puede crear sus propios corales barrocos.

Tanta es su “eficacia” que, en una investigación entre 1.600 personas (400 eran músicos), más de la mitad dijo que la música de DeepBach era una composición de Bach, cuando en realidad el 25% no lo era.

Hay más: Bot Dylan fue creado en la Universidad de Kingston y la Universidad Queen Mary de Londres. En base a 23 mil canciones en su sistema, es capaz de crear canciones de estilo folk. Bob, Premio Nobel de Literatura, tuvo su homenaje más curioso.

A.I. Duet (de Google Creative Lab) y Amper son otros de los nuevos sistemas que están naciendo y que, con diferentes niveles de complejidad, ayudan a los seres humanos en la tarea de componer.

V. Pronósticos

Según John Paul Titlow, en el artículo “El futuro de la música: las siete maneras en que cambiará la industria en 2017” (1 de febrero, en La Nación), “las máquinas no están por dejar sin trabajo a los artistas”. Varios respirarán tranquilos ahora.

Según él, estos avances ayudarían a que ciertos tipos de música (más “comerciales”, digamos, como la ambiental para los negocios o incluso algunas de videojuegos) serían más fáciles de crear. Y más baratas, obvio.

“La IA también podría aumentar el proceso creativo para autores de carne y hueso. Un artista que se quedó sin inspiración para componer el estribillo de una canción podría recurrir a herramientas basadas en Watson o Magenta para generar unas cuantas ideas”, festejó.

Y habrá que cambiar el famoso refrán de ahora en más: Lo que natura no da, la IA lo otorga, digamos. Sólo hay que saber dónde poner los clics.

Tenemos algo para ofrecerte

Con tu suscripción navegás sin límites, accedés a contenidos exclusivos y mucho más. ¡También podés sumar Los Andes Pass para ahorrar en cientos de comercios!

VER PROMOS DE SUSCRIPCIÓN

COMPARTIR NOTA