El AI & Music S+T+ARTS Festival propone un programa de conferencias –que podrán seguirse tanto en vivo en el Auditori CCCB presentado por NTT DATA, como por streaming– alrededor de la inteligencia artificial y la música.
Musicians learning Machine Learning, a friendly introduction to AI
¿Qué es una red neuronal? ¿Cómo se entrena? ¿Qué diferencia hay entre machine learning y deep learning? ¿Qué es y qué no es inteligencia artificial? En la sesión “Musicians learning machine learning. A friendly introduction to AI” descubriremos los básicos de la IA a través de ejemplos musicales con la participación de la científica y desarrolladora Rebecca Fiebrink, la artista e investigadora Shelly Knotts y el investigador e ingeniero Santiago Pascual, y el investigador de la Universidad de Bologna, Stefano Ferretti. Al final de la sesión no seremos capaces de programar un robot, pero la IA tendrá menos misterios.
¡Dejad paso a los nuevos instrumentos!
La IA ha venido para revelar la verdadera naturaleza de los instrumentos digitales y para definir la música del futuro. Los instrumentos eléctricos (y electrónicos) aparecieron para imitar a los instrumentos acústicos y encontraron su verdadera personalidad cuando dejaron de imitarlos (una guitarra, un órgano eléctrico, una caja de ritmos).
Así pues, demos paso a los nuevos instrumentos musicales de naturaleza digital junto a los participantes en esta sesión: Douglas Eck, investigador en Google Magenta; Rob Clouth, músico, artista visual y desarrollador de software musical; Agoria, dj productor y mente curiosa; y Koray Tahiroglu, artista e investigador en la Universidad de Aalto.
La IA y los géneros musicales del futuro
La tecnología ha definido sonidos, estructuras, géneros y estilos musicales a lo largo de los siglos y, en 2021, podemos decir con (bastante) seguridad que la IA va a definir la historia de la música de los años venideros, y que unirá audiencias que se identificarán con esta nueva música hecha con AI.
Los participantes serán: Libby Heaney, artista, física cuántica y programadora, Nabihah Iqbal (artista y etnomusicóloga) y Jan St. Werner de Mouse on Mars.
¿Pueden las máquinas interpretar las emociones humanas?
La música es física y es matemáticas, pero esta no es la razón por la que nos gusta. La música nos gusta porqué nos hace sentir cosas, por tanto, es crucial explorar la percepción humana para poder entrenar a las máquinas y construir instrumentos y herramientas musicales que nos permitan ser expresivos con la música.
Esta es una sesión para descubrir cómo se enseña a las máquinas a escuchar, ver y sentir como lo haríamos los humanos.
Contaremos con la participación del científico y director de la facultad de Inteligencia Artificial y toma de decisiones (AI+D) del MIT, Antonio Torralba; con Luc Steels, profesor e investigador en el Institut de Biologia Evolutiva (UPF-CSIC) Barcelona y pionero de la IA en Europa, entre otros.