ARECIO SMITH / Tecno ¿Lógico?

TECNO ¿LÓGICO?
Aproximación a la interpretación con tecnología de la música moderna
texto y foto por Arecio Smith para Upper Egypt Series Zine

Uno de los aspectos más relevantes que realizan las máquinas en nuestra sociedad es la automatización de procesos. Si ellas cocinan, lavan, calientan, calculan y transportan, ahora también pueden hacer música. Pero, además de su capacidad para generar música de forma autónoma -después de las instrucciones oportunas-, también nos permiten automatizar procesos dentro de la creación e interpretación musical. Un ejemplo primigenio de uno de estos procesos en los instrumentos eléctricos fue la utilización de un efecto de Vibrato en los órganos Hammond fabricados a finales de los años 30. Con pulsar un botón se conseguía un efecto generado eléctricamente, sin necesidad de ninguna interacción más por parte del intérprete. En contraposición, dentro de los instrumentos acústicos, el intérprete de violín necesita una gran interacción para generar el mismo efecto.

Realmente se produjo un cambio sustancial en la forma de producir música con la salida al mercado de máquinas capaces de almacenar, modificar, cuantiar, copiar y reproducir señales MIDI. Dicho de otra manera, no era necesario saber tocar un instrumento para poder escribir música.

Bastaba con programar el secuenciador con nuestra composición, encontrar los sonidos adecuados para reproducirla y listo. Como resultado la música pop se inundó de baterías, bajos, sintetizadores y samples pregrabados.

De alguna manera las máquinas estaban tomando el lugar de los instrumentistas. Cierto es que siempre iban a tocar igual si no se les decía lo contrario pero, ¿qué posibilidades ofrecían para hacer aquello que los instrumentistas no podían hacer?

Durante la década de los 90 el auge de los ordenadores revolucionó la sociedad en muchos aspectos; uno de ellos fue la industria musical.

A medida que la capacidad de proceso de las computadoras fue creciendo se desarrollaron infinidad de aplicaciones software que proponían múltiples posibilidades de síntesis de sonido. Sin ir más lejos, existe una larga lista de éstos programas que se dedican a emular a instrumentos físicos ya existentes. La evolución de la tecnología ha permitido un desarrollo paralelo en la construcción y evolución de los instrumentos musicales. A día de hoy, el abanico de posibilidades de creación sonora e interpretación que se encuentra a nuestro alcance es impensable. Es posible tocar en directo con estos programas y un teclado -u otro controlador- MIDI, lo que permite una gran flexibilidad en la paleta de sonidos con muy poco trabajo y gasto económico.

Pero la pregunta es la siguiente: ¿Qué alternativas nos ofrecen las tecnologías actuales para la interpretación no convencional? ¿Qué pueden ofrecer de interesante las computadoras dentro de un mundo tan emocional como es la interpretación musical?

La interacción es precisamente el rasgo que caracteriza a la música interpretada por los humanos. Así que, lo que parece interesante es explorar las posibilidades de interpretación con máquinas siempre y cuando haya un proceso bilateral de comunicación. A menudo vemos a la gente produciendo música en directo con máquinas de forma en que la comunicación es prácticamente unilateral. En el punto más intermedio se situarían una o varias personas tocando junto a música pregrabada. Normalmente se trata de loops que se repiten para proveer una base rítmica sobre la cual cantar o tocar un instrumento. En este caso, la interacción es mayor, porque el intérprete humano reacciona de acuerdo a los cambios preestablecidos en o por la máquina. Pero el nivel de interacción es todavía bastante bajo.
Hasta hace muy poco una de las dificultades que se encontraba en la interpretación de música moderna, mezclando instrumentos reales con sonidos procedentes de ordenadores, era el hecho de tener que ceñirse a un tempo fijo o bien al rubato – aceleración o desaceleración a discreción del artista. Cierto es que la música moderna, en todas sus múltiples variantes actuales, tiene un tempo bastante fijo - el rubato es prácticamente inexistente. Pero está claro que las personas no son metrónomos, y dentro de la interpretación de temas siempre hay pequeñas fluctuaciones de tempo. Esto hacía complicado el hecho de tocar con instrumentos secuenciados desde el ordenador: de alguna manera se tenía que utilizar un click como referencia para poder tocar encima de las secuencias -si no sonaban todo el rato-, o bien tocar al tempo de las secuencias. De hecho, aquí está uno de los aspectos más relevantes en cuanto a este tipo de interpretación, porque uno de los elementos de interacción más importantes entre los músicos es la fluctuación del tempo.

Por poner un ejemplo: si los Meters interpretaban un tema a razón de 100 pulsos por minuto y el batería – Joseph Modeliste - comenzaba a tocar a 98, inmediatamente el resto del grupo – George Porter, Art Neville y Leo Nocentelli - tocaban a 98. Nadie seguía tocando a 100. Esto, a todos, como personas que somos, nos parece una obviedad, pero no lo es para una máquina que tiene su reloj interno y está siempre esperando que le digamos qué tiene que hacer.
Ya se ha conseguido un software que permite seguir el tempo de las personas y corregirlo a tiempo real, o que permite modificar el tiempo de muestras grabadas preservando el tono y viceversa; Time Streching. Antes de la aparición del Time Streching al leer muestras digitales más rápido el tono también aumentaba -como sucede con los vinilos o las cassettes. Esta técnica ha sido muy utilizada en el drum & bass, junto con el efecto exagerado de Time Streching en las voces.

La tecnología nos ha brindado un sinfín de medios a nuestro alcance para la interpretación de música electrónica moderna. Os propondré ahora uno de los ejemplos prácticos que he ido desarrollando a medida que he estudiado este campo. El resultado de todo esto fue el descubrimiento de una forma diferente de interpretar mi música y un precedente en mis interpretaciones.

Háztelo tú mismo… si puedes

Ejemplo 1

Creación de un instrumento de control sonoro con una interfaz no tradicional.
Asignación de múltiples parámetros a la misma interfaz.

Material utilizado:

• 1 Mando de consola Nintendo Wii Remote.

• 1 ordenador Apple MacBook.

• Osculator 2.5.4. Aplicación para la conversión de señal Bluetooth del WiiRemote en MIDI.

• Pure Data extended 0.40. Aplicación para el desarrollo de herramientas de audio y MIDI.

• Reason 4. Aplicación para generar los sonidos deseados.

Procedimiento:

El mando Wii Remote –wiimote- detecta su ángulo a partir de los tres ejes espaciales. Esa posición se traduce en datos, que pueden ser interpretados en parámetros que hacen que el sonido se modifique de acuerdo a nuestro gusto. Además, tiene varios botones que pueden utilizarse para ejecutar acciones por definir.

Una de las características más interesantes de las interfaces de control de los ordenadores es que permiten asignar diferentes aspectos sonoros al mismo controlador. Es decir, puedo asignar un botón que me modifique el timbre del bajo, el tiempo de la batería y que produzca otro sonido aleatorio. Esto es bastante interesante porque normalmente en los instrumentos tradicionales la relación entre la acción de ejecución y el resultado obtenido en el aspecto sonoro es bastante más predecible.

Decidí crear un sonido de sintetizador cuya intensidad venía dada por el ángulo que se define tradicionalmente como altura. El parámetro de modulación -normalmente expresado en los sintetizadores como rueda de modulación y mediante el cual modificamos la tonalidad del sonido- lo asigné al movimiento de rotación de la muñeca respecto del brazo.

El primer inconveniente que encontré fue la dificultad para afinar las notas. El temblor del pulso ya significaba una oscilación considerable y tampoco quería pasar horas practicando para poder tocar una simple melodía. Por ello, restringí el registro a una octava aproximadamente -para tener mayor precisión a la hora de elegir las notas- y creé una aplicación de Pure Data que realizaba las siguientes tareas:

• Tomaba el movimiento de altura y lo restringía a un ámbito de una octava, aproximadamente.

• Mediante una interfaz simple el intérprete decidía qué notas de la escala cromática quería utilizar.

• Ajustaba la frecuencia central del instrumento. (Posición de reposo, por ejemplo, dejarlo encima de una mesa).

• La ejecución y parada de la nota se efectuaba con el gatillo situado en la parte posterior del mando. La ejecución de la nota comenzaba al apretar el gatillo y paraba al soltarlo. Esto parece una obviedad, pero no lo es: al comenzar a diseñarlo apretaba el gatillo y cada vez que cambiaba de nota sonaba una nueva pero seguía sonando la anterior. Para que esto no ocurriese diseñé un apagador de notas que obligatoriamente apagase la nota al soltar al gatillo.

• Tomaba el movimiento de la muñeca con respecto al brazo como parámetro de modulación.

• Cuando se atacaba una nota, y mientras se sostenía apretado el gatillo, el parámetro de altura pasaba a convertirse en una pequeña modulación en la intensidad del sonido, equivalente a estirar la cuerda de una guitarra. En sintetizadores tradicionales esto sería el Pitch Bend.

¡Problema! Si estaba atacando una nota grave, el pitch bend, nada mas atacar la nota, ya estaba abajo. El motivo era debido a que el cálculo se efectuaba en base a un valor absoluto, la posición del mando respecto del suelo, en vez de un valor relativo, la diferencia de ángulo con respecto a una posición definida como inicial. Para ello implementé un cálculo en el que se establecía la posición absoluta del mando en el momento de ataque de la nota como inicial, y a partir de ahí se calculaba un desvío relativo para el Pitch Bend – modificación del nivel del sonido en la escala musical.

• Mediante los botones del pad era capaz de modificar la nota que estaba sonando en ese momento por valor de medio tono o una octava.

• Al pulsar el botón “A” se disparaba una muestra de voz aleatoria -entre doce.
Posteriormente, al tener ya sonando el sintetizador y las voces, pensé en utilizar los botones restantes para aplicar un efecto de retardo con retroalimentación y distorsión en las voces, y para ejecutar o parar la reproducción de un bucle rítmico.

El intentar crear sonidos o formas de interpretar diferentes es muy interesante, pero también a menudo nos sobreviene la sensación de que algunos intérpretes enmascaran una falta de creatividad mediante el uso de estas tecnologías. Por eso, a pesar del interés que he desarrollado en este campo, tengo la impresión de que debería existir una intencionalidad clara en el uso de éstas alternativas, ya bien sea con un criterio estético o funcional.
Además, es evidente que hay cierto paralelismo entre el desarrollo de la tecnología y el de las corrientes estéticas -no se puede entender el metal sin distorsión o la electrónica sin sintetizadores.

No hay duda de que mantenerse al día con las innovaciones tecnológicas favorece las posibilidades de éxito creativo. En el jazz siempre se ha ido un poco por detrás de lo que se ha llevado a cabo antes a un nivel más popular. Existe cierta escasez de ideas nuevas. Puede que en el futuro haya más proyectos que integren aspectos multidisciplinares mediante el uso de la tecnología.

Una cosa sí que está clara, y es que seguiré desarrollando nuevos experimentos. Algunos aspectos que hemos descrito serán importantes en la música de las próximas décadas, y es posible que en un futuro no muy lejano veamos a ordenadores en un escenario comportándose como otro músico.



TECHNO ¿LOGIC?
Approach to the interpretation of modern music technology
words and photo by Arecio Smith for Upper Egypt series Zine

One of the most important machines that perform in our society is the automation of processes. If they cook, wash, heat, calculated and transported, can now also make music. But apart from its ability to generate music-autonomously following the instructions, but also allow us to automate processes within the musical creation and interpretation. An earlier example of one of these processes in the electrical instruments was the use of a vibrato effect on the Hammond organ manufactured in the late 30s. With the press of a button to get an electric generator, without any interaction by the interpreter. In contrast, within the acoustic instruments, the performer needs a great violin interaction to generate the same effect.

Actually there was a substantial change in the way of producing music with the release of machines capable of storing, modifying, volume, copy and play MIDI. In other words, there was no need to learn play an instrument to write music.

Enough to program the sequencer to our membership, find the appropriate sound and ready to play. The result is pop music flooded battery low, synthesizers and prerecorded samples.
In a way the machines were taking the place of instruments. True iban always play well if they said otherwise, but what chance offered to do what the players could not do?
During the 90s the rise of computers has revolutionized society in many aspects, one of them was the music industry.

As the processing capability of computers grew developed numerous software applications proposing multiple possibilities of sound synthesis. In fact, there is a long list of these programs are dedicated to emulating existing physical instruments.

The evolution of technology has allowed a parallel development in the construction and evolution of musical instruments. Today, the range of possibilities for sound creation and interpretation that is available to us is unthinkable. It is possible to play live with these programs and a keyboard or other MIDI-controller, which allows great flexibility in the palette of sounds with very little work and economic cost.

But the question is: What alternatives offered by current technologies for unconventional interpretations? What can offer interesting computers within a world as emotional as the musical performance?

The interaction is precisely the characteristic that the music played by humans. So what seems interesting is to explore the possibilities for interpretation by machines provided there is a bilateral process of communication. Often we see people producing live music with machines so that communication is almost unilaterally. In the middle point would be located one or more people playing along with prerecorded music. These include loops that repeat to provide a rhythmic base on which to sing or play an instrument. In this case, the interaction is greater, because the human interpreter react to changes in pre or by machine. But the level of interaction is still quite low.

Until very recently one of the difficulties encountered in the interpretation of modern music, mixing real instruments with sounds from computers, was the fact of having to stick to a fixed tempo rubato or when - acceleration or deceleration at the discretion of the artist . True, modern music in all its many variations today, has a fairly fixed time - the rubato is virtually nonexistent. But it is clear that people are not metronomes, and within the interpretation of issues there are always small fluctuations of tempo. This was complicated by the fact of playing instruments sequenced from the computer in some way had to be used as a reference for a click to play over the strings sounded, if not all the time, or tap the tempo of the sequences. In fact, here is one of the most relevant to this type of interpretation, because one of the most important elements of interaction among musicians is the fluctuation of tempo.

To take one example: if a subject interpreted Meters at a rate of 100 beats per minute and the battery - Joseph Models - began playing at 98, immediately the rest of the group - George Porter, Leo Nocentelli and Art Neville - played to 98. Anyone still playing to 100. This, everyone, as we are, we seem obvious, but not for a machine that has its internal clock and is always waiting to tell you to do.
Already has a software that allows the tempo of the people and correct them in real time, or to change the time of recorded samples preserving the tone and vice versa; Streching Time. Before the advent of Time Streching the digital samples read faster tone also increased, as happens with the vinyl or cassettes. This technique has been widely used in the drum & bass, together with the effect exaggerated in Time Streching voices.

The technology has given us a wealth of resources at our disposal for the interpretation of modern electronic music. We now propose one of the examples that I have evolved as we've studied this field. The result was the discovery in a different way to interpret my music and a precedent in my interpretations.

Do yourself if you can ...

Example 1

Creating a tool for noise control with a non-traditional.
Allocation of multiple parameters to the same interface.

Material used:

• 1 Command Console Nintendo Wii Remote.

• 1 Apple MacBook computer.

• Osculator 2.5.4. Application for conversion of the Bluetooth signal at WiiRemote MIDI.

• Pure Data Extended 0.40. Application development tools for audio and MIDI.

• Reason 4. Application to generate the required sounds.

Procedure:

The remote-Wii Remote Wiimote-detects your angle from the three spatial axes. That position is reflected in data that can be interpreted as parameters that cause the sound is changed according to our taste. It also has several buttons that can be used to implement actions to be defined.

One of the interesting features of the control interfaces of the computers is that they assign different aspects at the same audio controller. That is, can I assign a button to change the timbre of the bass, while the drums and other sound producing random. This is quite interesting because usually in the traditional relationship between the act of execution and the result obtained in the sound aspect is much more predictable.

I decided to create a synthesizer sound whose intensity was given by the angle that is traditionally defined as height. The modulation parameter usually expressed as synthesizers and modulation wheel by which we modify the tonality of the sound-it attaches to the rotary motion of the wrist with respect to the arm.

The first problem I encountered was the difficulty to tune the notes. The tremor of the pulse and meant a considerable variation and did not want to spend hours practicing to play a simple melody. Therefore, restricting the registration to approximately one-eighth to get greater precision in the choice of notes and created a Pure Data application performing the following tasks:

• took the height and movement to a restricted area of eighth or so.

• Using a simple shell notes to decide what I wanted to use the chromatic scale.

• adjust the center frequency of the instrument. (Position of rest, for example, put up a table).

• The execution and stop of the note was made with the trigger at the rear of the control. The execution of the note began to pull the trigger and stop when released. This seems obvious, but it is not: to begin to design it and pull the trigger each time you change a note sounded new, but still playing the previous one. Make sure a switch designed to shut down the notes you must hold the note to the trigger.

• He took the movement of the wrist and arm with respect to parameter variation.

• When you attack a note, and while the trigger is held pressed, the height parameter passed into a small variation in the intensity of sound, equivalent to stretching a guitar string. In this synth would be the traditional pitch bend.

¡Problem! If attacking a serious note, pitch bend, nothing but attack the note was already down. The reason was because the calculation is based on an absolute position command with respect to the ground, rather than a relative value, the difference of angle with respect to an initial position as defined. For this implemented in a calculation to establish the absolute position of command at the time of the attack of the note as an initial and then a diversion is calculated relative to the Pitch Bend - the level of sound in the musical scale.

• Using the buttons on the pad was able to modify the note that was playing at that time the amount of half tone or eighth.

• When you press "A" were shooting a random sample of voice-twelve.
Later, having already playing the synthesizer and voices, I thought to use the remaining buttons to apply a delay effect with feedback and distortion in the voices, and to stop running or playing a rhythmic loop.

Trying to create sounds and different ways of interpreting it is very interesting, but also often occurs, we feel that some interpreters mask a lack of creativity through the use of these technologies. Therefore, despite the interest I developed in this field, I feel that there should be a clear intent on the use of these alternatives, as well as in an aesthetic or functional.
It is also clear that there is a certain parallelism between the development of technology and the aesthetic, can not be understood without metal distortion or without electronic synthesizers.

No doubt, keep up with technological innovations enhance the possibilities of creative success. In jazz has always been a bit behind what has been done before on a more popular. There is a shortage of new ideas. Maybe in the future more multidisciplinary projects that integrate the use of technology.

One thing is clear, and it will continue to develop new experiments. Some aspects that we have described will be important in the music of the coming decades, and it is possible that in the not too distant future to see computers on a stage behave as another musician.

No hay comentarios:

Publicar un comentario en la entrada