MÚSICA ATONAL
La atonalidad (del griego a: ‘sin’ y el español tonalidad) es el sistema musical que prescinde de toda relación de los tonos de una obra con un tono fundamental y de todos los lazos armónicos y funcionales en su melodía y acordes, no estando sujeto a las normas de la tonalidad.
Más específicamente, el término describe la música que no se ajusta al sistema de jerarquías tonales que caracterizaba el sonido de la música europea entre el siglo XVII y primeros años del XX.
Los centros tonales gradualmente reemplazaron los sistemas de organización modal que se habían desarrollado desde el 1500 y que culminaron con el establecimiento del sistema de modo mayor y menor entre fines de siglo XVI y mediados del XVII.
El sistema tonal es el sustrato en que se basaron casi todos los compositores entre 1600 y 1900. En esas obras musicales existe un sonido que actúa como centro de atracción de toda la obra. Aunque en el transcurso de la misma se haya cambiado muchas veces de centro tonal por medio de modulaciones, por convención hacia el final siempre prevalecía la fuerza de ese núcleo original y la composición terminaba al llegar a la tónica, o sea el sonido de atracción (en griego tonos significa ‘tensión’).
El principio básico del atonalismo consiste en que ningún sonido ejerza atracción sobre cualquier otro sonido que se encuentre en sus cercanías. Por eso el oyente no puede predecir ni siquiera una nota antes, si está al final de una frase musical (la cual, aparentemente, cesa en cualquier momento). Sencillamente porque no ha existido ningún centro tonal.
DODECAFONIA
El dodecafonismo o música dodecafónica, que significa música de doce tonos (del griego dodeka: 'doce' y fonós: 'sonido') es una forma de música atonal, con una técnica de composición en la cual las 12 notas de la escala cromática son tratadas como equivalentes, es decir, sujetas a una relación ordenada que (a diferencia del sistema mayor-menor de la tonalidad) no establece jerarquía entre las notas. La música tradicional y popular actual suele ser tonal, y por lo tanto tener una nota de mayor importancia, respecto a la cual gravita una obra (esta nota indica la tonalidad, como Do mayor o La menor). Cualquier sistema tonal implica que unas notas (la tónica o ancla y sus socios naturales) se utilizan mucho más que otras en una melodía. Lo que hizo el fundador de la música dodecafónica, Schönberg, fue prohibir por estatuto usar una nota más que otra: la melodía dodecafónica debe llevar las 12 notas que hay en la escala cromática. Se escribe siguiendo el principio de que todos los doce semitonos o notas son de igual importancia. La relación interna se establece a partir del uso de una serie compuesta por las doce notas. El compositor decide el orden en que aparecen con la condición de que no se repita ninguna hasta el final.
Históricamente, procede de manera directa del "atonalismo libre", y surge de la necesidad que había a principios del siglo XX de organizar coherentemente las nuevas posibilidades de la música tras la crisis de la tonalidad. Schönberg estableció cuatro posiciones básicas para una serie:
La serie fundamental. Utiliza la abreviatura P.
La retrogradación: la serie fundamental dispuesta en orden retrógrado, o sea de adelante hacia atrás. Se utiliza la abreviatura R.
La inversión: consiste en invertir la dirección (no el valor) de los intervalos haciendo ascendentes los descendentes y viceversa. Se utiliza la abreviatura I.
La inversión retrógrada: se realiza una retrogradación de la inversión. Se utiliza la abreviatura RI.
MÚSICA ELECTRONICA
Música electrónica es aquel tipo de música que emplea para su producción e interpretación de instrumentos electrónicos y tecnología musical electrónica. En general, puede distinguirse entre el sonido producido utilizando medios electromecánicos de aquel producido utilizando tecnología electrónica. Ejemplos de dispositivos que producen sonido electromecánicamente son el telarmonio, el órgano Hammond y la guitarra eléctrica. La producción de sonidos puramente electrónica puede lograrse mediante aparatos como el theremin, el sintetizador de sonido y el ordenador.
La música electrónica se asoció en su día exclusivamente con una forma de música culta occidental, pero desde finales de los años 1960, la disponibilidad de tecnología musical a precios accesibles permitió que la música producida por medios electrónicos se hiciera cada vez más popular. En la actualidad, la música electrónica presenta una gran variedad técnica y compositiva, abarcando desde formas de música culta experimental hasta formas populares como la música electrónica de baile.
FINALES DEL SIGLO XIX HASTA COMIENZOS DEL XX
La habilidad de grabar sonidos suele relacionarse con la producción de música electrónica, si bien no es absolutamente necesaria para ello. El primer dispositivo conocido capaz de grabar sonido fue el fonoautógrafo, patentado en 1857 por Édouard-Léon Scott de Martinville. Podía grabar sonidos visualmente, pero no estaba hecho para reproducirlos de nuevo.
En 1878, Thomas A. Edison patentó el fonógrafo, que utilizaba cilindros similares al aparato de Scott. Aunque se siguieron utilizando los cilindros durante algún tiempo, Emile Berliner desarrolló el fonógrafo de disco en 1887. Un invento significativo, que posteriormente tendría una gran importancia en la música electrónica, fue la válvula audión, del tipo tríodo, diseñada por Lee DeForest. Se trata de la primera válvula termoiónica, inventada en 1906, que permitiría la generación y amplificación de señales eléctricas, la emisión de radio, la computación electrónica, y otras variadas aplicaciones.
Con anterioridad a la música electrónica, existía un creciente deseo entre los compositores de utilizar las tecnologías emergentes en el terreno musical. Se crearon multitud de instrumentos que empleaban diseños electromecánicos, los cuales allanaron el camino para la aparición de instrumentos electrónicos. Un instrumento electromecánico llamado Telharmonium (en ocasiones Teleharmonium o Dynamophone) fue desarrollado por Thaddeus Cahill en los años 1898-1912. Sin embargo, como consecuencia de su inmenso tamaño, nunca llegó a adoptarse. Se suele considerar como el primer instrumento electrónico el Theremin, inventado por el profesor Léon Theremin alrededor de 1919–1920.[2] Otro primitivo instrumento electrónico fue el Ondes Martenot, que se hizo conocido al ser utilizado en la obra Sinfonía Turangalila por Olivier Messiaen. También fue utilizado por otros compositores, especialmente franceses, como Andre Jolivet.
SINTESÍS ELECTRONÍCA
Las diferentes técnicas utilizadas para crear música electrónica pueden dividirse entre las que se usan para crear nuevos sonidos y las que se utilizan para modificar, o transformar, sonidos ya registrados. En épocas pasadas se usaban osciladores y filtros de control por voltaje, pero estas funciones las realiza hoy el ordenador. La creación de sonidos completamente nuevos obtenidos por la superposición o la mezcla de sonidos puros es un proceso llamado síntesis aditiva. Por otra parte, el modelado de sonidos o filtración de ruido se conoce como síntesis sustractiva. El compositor francés Jean-Claude Risset ha diseñado muchos timbres por síntesis aditiva en obras como Mutations I (1979), mientras que el estadounidense Charles Dodge usa la síntesis sustractiva con gran efectividad en su obra Cascando (1983). La síntesis por frecuencia modulada (FM), documentada por vez primera por el compositor estadounidense John Chowning en la década de 1960, se emplea como vía para crear sonidos sintéticos complejos. Su pieza para cinta Stria (1976) está compuesta de varios timbres FM mezclados. Se pueden usar filtros de diferentes tipos para acentuar tonos o armonías específicas, y los sonidos pueden prolongarse en el tiempo, o elevarse y bajarse de tono, gracias a técnicas como el vocoding de fase o codificación predictiva lineal. Las Seis fantasías sobre un poema de Thomas Campion de Paul Lansky (1979) son una obra pionera en este área. Además, se usan técnicas de reverberación para añadir ecos o un cierto retardo a los sonidos grabados o sintetizados, mientras que se utilizan técnicas de simulación de espacios o salas para imitar el carácter acústico de las grandes salas de conciertos y otros espacios. Todas estas técnicas, aisladas o combinadas, son de uso frecuente entre los compositores de música electrónica.Síntesis Analógica musical
•Síntesis aditiva - Se trata de generar un sonido mediante sucesivos enriquecimientos en el espectro de la onda (ir añadiendo armónicos, hasta alcanzar el sonido deseado).
•Síntesis sustractiva - A partir de una forma de onda muy rica en armónicos (como resultado, por ejemplo de una síntesis no lineal), vamos eliminando y/o atenuando aquellas componentes espectrales no deseadas.
•Síntesis por modulación de amplitud (AM) - Nos encontramos ante un sistema algo más complejo. El caso más simple es utilizando una señal portadora de una determinada frecuencia y modular su amplitud mediante otra señal de frecuencia, por lo general, múltiplo de la primera (a esta nueva señal se le denomina moduladora). De esta forma se consiguen timbres muy variados usando formas de onda, a priori, muy simples.
•Síntesis por modulación en anillo (RM) - Se trata realmente de una modulación en amplitud, pero lo que en realidad se hace es multiplicar la portadora por la moduladora, generándose sonidos más curiosos que los generados con la AM (se podrían calificar de más chirriantes).
Estas cuatro técnicas de síntesis son las más utilizadas en sistemas analógicos y se denominan técnicas de síntesis lineal, debido a que existe un relación lineal entre el espectro de las frecuencias iniciales (portadora y moduladora, por ejemplo) y el espectro de salida. Citaremos, a continuación otros métodos de síntesis, en este caso, no lineales, y que, por lo general siempre han estado más asociados a la síntesis digital.
•Síntesis por modulación en frecuencia (FM) - Método de síntesis utilizado por Yamaha en toda su serie de sintetizadores digitales (DX-7, SY-77, etc). Al igual que en AM tenemos una portadora y una moduladora, pero en este caso lo que la moduladora modula es la frecuencia de la señal portadora. Este método genera timbres extremadamente ricos en armónicos (el DX-7, fuen el primer sinte para el gran público que ofrecía un sonido de piano realmente real).
•Síntesis por distorsión de fase (PD) - Se trata de un sistema basado exclusivamente en osciladores digitales. Se trata de recorrer la forma de onda a trozos o de forma desordenada (tenemos la forma de onda almacenada en una memoria digital (muestreada) y vamos recorriendo la memoria a trozos o de forma parcial) con lo que se consiguen saltos de fase y, por tanto, adición y/o eliminación de armónicos a la señal de salida. La serie CZ de CASIO utiliza este método de síntesis.
•Síntesis por modelado de onda (Wave Shapping) - Se define una función de transferencia que tome como entrada los valores de salida de un oscilador digital y que de, a la salida, el valor de la función en ese punto.
•Síntesis por modelado físico - Se trata de una técnica de síntesis muy poderosa ya que genera unos timbres my buenos. Está destinada para la emulación de instrumentos existentes y se basa en las propiedades físicas de cada instrumento (por ejemplo, para emular el sonido de una guitarra implementa todas las ecuaciones implicadas en la vibración de la cuerda y en las propiedades acusticas de la caja). Es un método de síntesis que requiere el uso de microprocesadores específicos ya que realiza mucho cálculo en tiempo real. La ventaja es que los sonidos generados son muy realistas (se podría decir que la síntesis por modelado físico es al sonido lo que el pov-Ray lo es a la imagen).
SAMPLERS
Un sampler es un instrumento musical electrónico similar en algunos aspectos a un sintetizador pero que, en lugar de generar sonidos, utiliza grabaciones (o samples) de sonidos que son cargadas o grabadas en él por el usuario para ser reproducidas mediante un teclado, un secuenciador u otro dispositivo para interpretar o componer música. Dado que estos samples son guardados hoy en día mediante memoria digital su acceso es rápido y sencillo. El pitch de un sample puede modificarse para producir escalas musicales o acordes.

Estructura de un Sampler
Interfaz
Normalmente, el sampler se controla mediante un teclado musical añadido u otra fuente MIDI externa. Cada nota-mensaje recibida por el sampler permite acceder a un sample particular. Los samples suelen disponerse a lo largo del teclado, asignándose cada uno a una nota o grupo de notas. Mediante el keyboard tracking se puede modificar el pitch del sample. A los grupos de notas a los que se asigna un sample individual se les suele denominar en inglés keyzone, y al conjunto de zonas resultante keymap.
En general, los samplers pueden interpretar cualquier tipo de audio grabado y la mayoría ofrecen posibilidades de edición que permiten al usuario modificar y procesar el sonido, y aplicarle un amplio rango de efectos, lo que convierte al sampler en una herramienta musical versatil y poderosa.
Jerarquía
Un sampler se organiza mediante una jerarquía de estructuras de datos que crecen en complicación. En la base están los samples, grabaciones individuales de cualquier sonido, grabadas a un tasa de sample y resolución particulares. Un pitch central de referencia indica la frecuencia actual de la nota grabada. Los samples también pueden convertirse en loops mediante la definición de puntos en los que una sección repetida del sample comienza y termina, permitiendo que un sample relativamente corto pueda ser tocado infinitamente. En algunos casos, se indica un "loop crossfade", lo que permite que las transiciones sean menos obvias en el punto del loop suavizando y atenuando el final y el comienzo del loop.
Los keymaps se organizan en instrumentos. En este nivel, se pueden añadir parámetros para definir como son tocados los keymaps. Pueden aplicarse filtros para cambiar el color del sonido, al tiempo que los low frequency oscillators permiten dar forma a la amplitud, el pitch, el filtro u otros parámetros del sonido. Los instrumentos pueden tener múltiples capas de keymaps, lo que permite tocar más de un sample al mismo tiempo y cada capa de keymap puede tener un rango de parámetros diferente. Por ejemplo, dos capas pueden tener una sensibilidad diferente a la velocidad de la nota de entrada, lo que altera el tímbre resultante de acuerdo a lo fuerte que la nota sea tocada.
Especificaciones
Los samplers pueden clasificarse en función de diferentes especificaciones:
Polifonía: cuántas voces pude interpretar simultáneamente.
Espacio de sample: cuánta memoria tiene disponible para cargar samples.
Canales: cuántos canales MIDI diferentes tiene disponible para diferentes instrumentos.
Profundidad de bit: cuánto resolución de sample puede soportar.
APLICACIONES MUSICALES
CUBASE
Cubase inició su vida a finales de los 80 como un secuenciador y editor MIDI. El programa fue originalmente desarrollado para el Atari ST, más tarde se hizo la versión para Apple Macintosh y a mediados de los 90 para Microsoft Windows.
El Cubase original usaba un sistema operativo llamado MROS (MIDI Real-time Operating System) que corría bajo el propio sistema operativo nativo. Permitia ejecutar varias aplicaciones MIDI en el ordenador y pasar los datos entre ellas a tiempo real. El MROS no trabajaba bien en Windows 3.0, pues este no fue previsto para aplicaciones en tiempo real.
Sin embargo, los sistemas operativos modernos están diseñados para soportar aplicaciones multimedia, así que las versiones actuales de Cubase no usan MROS.
El lanzamiento de Cubase Audio en 1991 para el Atari Falcon abrió una brecha en la tecnología de programas DSP poniendo al alcance domestico la manipulación de audio en tiempo real. Esto era posible sin la necesidad de costosas tarjetas adicionales, como era el caso con el costoso Pro Tools y otros sistemas similares.
Operación

Esta DAW trabaja mejor con tarjetas de audio externas asi como tambien con los controladores ASIO Steinberg Cubase 4 es probablemente uno de los más completos secuenciadores de audio y MIDI en el mercado y ya desde la aparición de la actualización 4.1 se pudo decir que estabamos ante un programa maduro y solido. Recientemente ha recibido una nueva actualización con la versión 4.5.1 por lo que ha llegado el momento para dar un vistazo en profundidad a este popular programa. C.D.A.
PRO TOOLS
Pro Tools es una estación de trabajo de audio digital (Digital Audio Workstation o DAW, en inglés), una multiplataforma de grabación multipista de audio y midi, que integra hardware y software. Actualmente, por sus altas prestaciones, es el estándar de grabación en estudios profesionales, usado mundialmente.
La empresa AVID (anteriormente DIGIDESIGN), es la desarrolladora del programa Pro Tools. Además elabora algunos de los mejores softwares de audio del mercado, por lo que su calidad y sólida fiabilidad son ampliamente reconocidos. Esto ha llevado a este potente software de producción musical y postproduccion audiovisual a convertirse en uno de los referentes de esta industria.
El estigma de Pro Tools era que sólo podía usarse con un hardware específico, y no admitía otras marcas, pero desde la versión 7, se abrió el código del software para poder ser utilizado con interfaces de audio de la empresa M-Audio (anteriormente Midiman), y la nueva versión 9 lanzada recientemente, admite hardware de cualquier marca siempre y cuando maneje el driver de tipo ASIO para los ordenadores de Microsoft y el driver CORE AUDIO para los Macintosh; así mismo, el resto de componentes de ambos ordenadores también tienen que ser compatibles. Para ello, podemos encontrar un listado de compatibilidades técnicas en la misma página web de AVID.
REASON
Reason es un software musical desarrollado por Propellerhead Software. Emula sintetizadores, samplers, procesadores de señal, secuenciadores, mesa de mezclas, etc. Se suele usar como estudio virtual o como una colección de instrumentos virtuales para ser usados en vivo o con otro software secuenciador.Tiene la opción de usarse con un controlador midi.
Además de ser una herramienta muy útil y vanguardista, cada ciertos ciclos este programa de audio incorpora nuevas versiones con mejoras innovadoras, las cuales proporcionan nuevas herramientas para aumentar las posibilidades creativas de quienes prefieren, en su mayoría, llevar la música de la mano de la tecnología. Hoy existe la versión 6.0.
Los formatos de audio más usados en este programa, son aiff y wav, como los más conocidos y más a nivel de tecnomusicos son los Rex2, los cuales pueden ser editados a partir de archivos de audio comunes y llevados a ese formato para poder manejarlos en Reason a nivel de Sampler o Loop.
Otro programa para edición de estos Archivos Rex2 es Recycle y pertenece a la misma fabrica de Reason.
General
La versión 1.0 de Reason fue lanzada el Noviembre del 2000. El diseño del programa imita un gabinete de estudio dentro del cual los usuarios pueden insertar dispositivos virtuales tales como instrumentos, procesadores de efectos y mezcladoras. Estos módulos pueden ser controlados desde el secuenciador Midi integrado a Reason o desde otras aplicaciones secuenciadoras tales como Pro Tools, FL Studio, Logic, Digital Performer, Ableton, Cubase y GarageBand a través del protocolo ReWire de Propellerhead.
En la versión 3.0, los módulos disponibles incluían:
Subtractor: Un sintetizador substractivo.
Malström: Un sintetizador granular.
NN-19: Un sampler digital estándar. Carga sonidos instrumentales pregrabados y sonidos vocales.
NN-XT: Un sampler digital avanzado. Incluye la opción de ajustar los parámetros de modulación, de oscilación y de filtro de un sample o parche precargado.
Dr Octo Rex: Un dispositivo para reproducir loops musicales, mejora del antiguo Dr. Rex, el cual divide los samples pregrabados en unidades manejables. Sólo disponible en la versión 5.0.
Redrum: Una caja de ritmos con un secuenciador de 64 pasos. Permite la reproducción de una librería de samples de percusiones y efectos pre-grabados.
Kong Drum Designer: Emulador de MPC Akai. Cuenta con 16 pads. Disponible desde la versión 5.0.
El sonido de estos dispositivos puede ser canalizado a través de uno de los dos dispositivos de mezcla, o a través de utilidades de fundido y separación. Los efectos incluyen distorsión, reverberación, chorus, un vocoder y efectos de masterización. El dispositivo Combinator, implementado en la versión 3.0, permite a los usuarios combinar mútliples módulos dento de uno sólo. Otro dispositivo conecta a Reason con el ahora descontinuado ReBirth de Propellerhead.
La interfaz de Reason incluye el comando Toggle Rack, que gira el gabinete para mostrar los dispositivos desde atrás. Aquí los usuarios pueden conectar cables de audio y control de una pieza de equipo a otra en una cantidad casi ilimitada de modos. Esta interfaz de cables permite la creación de complejas cadenas de efectos y permite a los dispositivos modularse unos a otros de modos creativos.
Reason puede grabar pistas de audio, pero no puede ser expandido con plug-ins de terceros.
Una versión con prestaciones limitadas de Reason conocida como Reason Adapted es incluida como software adicional con otros software de audio como Pro Tools LE. Esta versión restringe al usuario a cierto número de dispositivos.
Reason 4 fue lanzado el 26 de septiembre del 2007. Mejoras a Reason incluyen a Thor, un sintetizador modular; RPG-8, un generador de arpegios programable en tiempo real; ReGroove, un editor de métrica y tempo; y una actualización completa del secuenciador de Reason que incluye cambios de tempo y métrica así como soporte para métrica compleja. También incluye automatización por vector (automatización en pistas y curvas de envolvente), un apartado para editar patrones, pistas que pueden ser organizadas por grupos (similar a las funciones presentes en Logic), conteo de compases, y la posibilidad de hacer varias tomas de la misma pista.
No hay comentarios:
Publicar un comentario