Improvisación visual y sonora + piezas audio-reactivas

José Miguel Luna, junto a los participantes del laboratorio Conectividades: El sonido e imagen como medios artísticos de inmersión, como evento de socialización de sus resultados realizaron una sesión de improvisación sonora en vivo con visuales audio-reactivas en el domo del Planetario de Bogotá el pasado 15 de julio. 

Los participantes utilizaron instrumentos musicales digitales conectados a dispositivos hardware para ser interpretados como instrumentos físicos y lograr interacciones sonoras y visuales. Trabajaron con lenguajes de programación por objetos, módulos, con protocolos de comunicación MIDI y OSC, así como con los programas TouchDesigner, VCV Rack, Supercollider y Pura Data

“Las personas que nos inscribimos tenemos un perfil sonoro principalmente, aunque tenemos la necesidad de descubrir la imagen. Sobre todo, necesitábamos encontrar otras formas narrativas, algo que nos permitió explorar el programa TouchDesigner”, expone Sonia Poveda, una de las participantes. 

Mediante este programa, el laboratorio pudo construir imágenes y darles movimiento a partir de la relación que se crea dentro del mismo software y conectar otros programas, para  posibilitar una experiencia entre lo sonoro y lo visual. 

Mediante este programa, el laboratorio pudo construir imágenes y darles movimiento a partir de la relación que se crea dentro del mismo software y conectar otros programas, para  posibilitar una experiencia entre lo sonoro y lo visual. 

Otro de los formatos por medio de los cuales se documentó todo el proceso y los resultados de  cada uno de los participantes es la página web, que muestra el desarrollo del laboratorio y en la que se pueden consultar y descargar las notas de bitácora, las galerías y las piezas sonoras y audiovisuales presentados en el concierto.

 

Adicionalmente, también se podrá encontrar un repositorio GitHub, donde están algunos ejemplos de proyectos que utilizaron VCV Rack y TouchDesigner. Estos proyectos, o parches de código, son  ejercicios que se desarrollaron durante las sesiones y que hacen parte de la composición final.

Ana María Cárdenas

Su instrumento partió de un oscilador (VCO-1) básico que genera ondas a diferentes frecuencias, así como un filtro de control de frecuencias (VCF) y un controlador de ADSR para ajustar la duración del sonido. Utilizó un efecto de reverberación y un secuenciador Darius para dar variaciones inesperadas a la secuencia de notas, bajo la idea de una secuencia algorítmica generativa. 

Ana González

Creó la serie de videos Pquyquy sue, Disonancia Cognitiva Chibby aʒhɣ y describe su proyecto como “distintos MIDI y pájarxs que, en un aparato celular, pasan forzosamente por otro artefacto que los reproduce, hasta llegar a un control de sonido que queda a la espera de la disonancia cognitiva, comunicación, lenguaje, palabra, signos, arbitrarios, hipoacusia”. 

Mauro Patiño 

Su desarrolló se titula eq3 y consiste en cuatro secuenciadores, “cada uno aterrizado por un quantizer y avivados por el pulso de un reloj que los mantiene latiendo”, explica Patiño, creativo digital, narrador oral y participante de procesos de cocreación transmedia. “De salida, mixers independientes que llevan la señal limpia de los canales y la señal intervenida por sutiles efectos de reverb y delay. Una máquina hecha para un tímido queriendo armonizar con otros outputs”, añade. 

Hugo Trujillo

Para Trujillo, en el laboratorio “todo partió de un proceso de experimentación en torno a lo sonoro-orgánico desde el código de programación, particularmente desde un software dedicado a la síntesis de audio y la composición algorítmica de Supercollider”. 

Mediante este programa, los participantes pudieron alterar la frecuencia, la ganancia y la amplitud del sonido.  “Se juega, se experimenta y se transita por sonidos que, si bien llegan a ser ruido, no pierden la magia de ser generados por sencillas órdenes entregadas al computador”, expresa.

Francisco Arango

Durante el laboratorio, Arango creó un parche, o sonido obtenido de un sintetizador, que comunica los programas Ableton Live y VCV Rack, mediante la función de bridge, que envía información MIDI desde Ableton hasta VCV.

Santiago Gil 

El patch –parche– desarrollado por Gil, consistió en tres osciladores conectados, cada uno a un cuantizador y a un secuenciador con el objetivo de crear un autómata capaz de reproducir distintas escalas en un rango de frecuencias distinto, pero siempre respetando una tonalidad. Durante este proceso decantó elementos hasta llegar al sonido de un solo oscilador a una velocidad de reloj muy lenta –entre 30 y 50 bpm–. Así mismo, este secuenciador reproduce frecuencias muy graves con envolventes cortas, permitiendo simular un pulso constante que a pesar de ser poco variable.

Como componente abierto al público el laboratorio realizó un encuentro sonoro y una charla, que se pueden revisitar. 

El encuentro Improvisación libre desde la síntesis modular e instrumentos analógicos, a cargo de Diego Serrano Cadena, abordó posibilidades creativas y posibles rutas para el trabajo sonoro y el lenguaje de improvisación. 

Y la charla a cargo Gustavo Román, doctor en Experimental Music & Digital Media, titulada; UX design en proyectos y experiencias multimedia, acercó a los participantes a diversas nociones sobre lo interdisciplinar, la virtualidad, la computación, la hiperconectividad y lo transmedialidad.