Conciertos 100% digitales: Nueva York estrena el futuro de la música
Conciertos 100% digitales: Nueva York estrena el futuro de la música
Categoría

En Nueva York surge una nueva forma de espectáculo que está transformando la música en vivo: conciertos sin artistas humanos, donde algoritmos generan composiciones en tiempo real según el estado de ánimo del público. La inteligencia artificial analiza rostros, movimientos, ruido ambiental y hasta las pulsaciones captadas por relojes inteligentes para crear piezas únicas e irrepetibles.

Estos eventos, presentes en galerías y centros culturales de Brooklyn, Chelsea y Queens, utilizan plataformas como AIVA, Riffusion, Magenta, Suno y Harmonai, junto con modelos desarrollados especialmente para estos espacios. En lugar de un recital tradicional, se trata de instalaciones inmersivas donde la frontera entre espectador y obra se difumina.

El auge de estas experiencias responde a la democratización de herramientas de IA, la popularidad del arte inmersivo y el interés por propuestas híbridas que mezclan tecnología, datos biométricos y creatividad algorítmica. Cada concierto es distinto, lo que aumenta el atractivo entre museos y centros culturales.

El impacto económico también es significativo: según Research and Markets, el mercado de IA aplicada a la música superará los 3.300 millones de dólares en 2027, mientras que plataformas como Suno y Udio generan millones de pistas al mes. Investigaciones del MIT Media Lab indican que la música generativa puede mejorar la sensación de flujo y la sincronización emocional entre los asistentes.

Instituciones como el MoMA y el Museo de la Imagen (MOMI) ya incorporan obras basadas en sonido y aprendizaje automático, validando esta experimentación artística. Para el MoMA, estas obras “desafían las definiciones tradicionales de creatividad y autoría”.

La clave de estos conciertos es su capacidad para responder a las emociones humanas. Rosalind Picard, pionera del affective computing en el MIT, afirma que esta tecnología permite que los sistemas “perciban el afecto humano y respondan de manera creativa”. Así, la audiencia se convierte en coautora de la experiencia.

La música generativa descrita por Brian Eno como “siempre diferente y cambiante" alcanza aquí un nuevo nivel gracias a sistemas capaces de ajustar el sonido en función del ánimo colectivo, el ritmo cardíaco o incluso la reacción en redes sociales.

La industria musical observa con interés este fenómeno, que plantea debates sobre la autoría, el futuro del arte en vivo y la convivencia entre espectáculos tradicionales y conciertos diseñados por algoritmos. Como sintetizó The Guardian: “La IA no es solo una herramienta: se está convirtiendo en una colaboradora en la composición y la interpretación musical”.

Este artículo fue publicado originalmente en Infobae y está protegido por derechos de autor. Todos los derechos reservados a Infobae. Puedes consultar el artículo original en su (https://www.infoabe.com).