Tuesday, November 14, 2006

Trabajo Final

El objetivo principal del proyecto final es acercarse al concepto del paisaje sonoro de la ciudad de Manizales. "El paisaje sonoro es característico de la comunidad que lo genera, a la vez que la condiciona. Se trata de un fenómeno dinámico, sumamente sensible a las variaciones temporales o espaciales. Se transforma en la misma medida en que se transforma la comunidad a la cual está asociado."El paisaje sonoro contiene un caudal de información que está siendo desaprovechado por el ser humano.

La predominancia de lo visual en nuestra cultura es tal que cada vez retraemos más nuestro intercambio con el mundo exterior a través del sistema auditivo.

El proyecto busca generar un archivo de paisajes sonoros característicos de distintos lugares de nuestra ciudad.

Parámetros.
1. El registro del Paisaje sonoro será el punto de partida de una composición, podrán mezclar, procesar, modificar y combinar con otros sonidos, sintéticos, o la voz humana.

2. El registro del Paisaje sonoro será el centro conductor de una composición musical, podrán mezclar, procesar, modificar y combinar con otros sonidos, producidos por instrumentos musicales.

3. La edición final del paisaje sonoro durará 4 minutos 33 segundos.

4. La edición irá acompañada de un registro visual del lugar escogido.

EL MICRÓFONO

A grandes rasgos y simplificando enormemente, todos los micrófonos basan su funcionamiento en la existencia de una membrana que detecta los movimientos del aire (o pequeños cambios de presión del aire) y que se conoce como diafragma. Transformados por un sistema conversor, los movimientos del diafragma producen una pequeña señal de tensión eléctrica a la salida.

Características de un micrófono:

- Sensibilidad, se expresa en milivolts por Pascal (mV/Pa) y da una idea de la eficiencia de la conversión. Los micrófonos proporcionan señales de nivel bajo. Por ello es recomendable elegir siempre el micrófono de mayor sensibilidad. No son recomendables los de valor inferior a 1mV/Pa.

- Fidelidad, es la respuesta del micrófono para cada frecuencia. Cuanto mas regular sea la respuesta (curva plana), mayor será su fidelidad.

- Direccionalidad, en función del distinto nivel de sensibilidad con la dirección de las ondas incidentes. Según el carácter direccional los micrófonos pueden ser:

- Omnidireccionales: la sensibilidad es la misma en todas direcciones * direccionales: la sensibilidad es máxima en una dirección. Dentro de esta categoría se sitúan los cardioides (mínima sensibilidad en una dirección), muy utilizados en reflectores parabólicos. Cuando la sensibilidad se estrecha mucho en una dirección frontal se denomina cañón.

- La impedancia interna define la relación entre la tensión en los bornes del micrófono y la corriente que éste suministra. Los micrófonos pueden ser de alta o baja impedancia. Los primeros son de mejor calidad y los segundos mas asequibles. En cualquier caso, la impedancia de salida del micrófono ha de ser similar a la impedancia de entrada de la grabadora.

- El ruido interno es una señal aleatoria de tensión, generada en el propio micrófono, y que reduce la calidad de la señal útil.

Según el sistema de conversión, los micrófonos pueden ser electrodinámicos o electrostáticos.

-Los micrófonos electrodinámicos no requieren una fuente de alimentación suplementaria, son resistentes, no distorsionan fácilmente y son razonablemente económicos. La señal de salida es débil, comparada con la de los micrófonos electrostáticos y la fidelidad o respuesta a las diferentes frecuencias no es muy plana.

Pero son muy útiles para utilizar en una parábola y en condiciones de humedad elevada o para dejar a la intemperie durante horas.

- Entre los micrófonos electrostáticos, los más utilizados son los de condensador. Son mas sensibles que los dinámicos, la respuesta de frecuencias es muy plana y, en general, su calidad es mayor. Estos micrófonos necesitan una fuente de alimentación que puede ser propia (una batería) o externa (alimentación Phantom) que proviene de la misma grabadora y que permite enviar la tensión por el cable audio.

LA GRABADORA

Los sistemas de grabación, desde la aparición de la primera grabadora en cilindro de cera de finales de siglo pasado hasta los sistemas actuales, han estado evolucionando continuamente. Hasta hace pocos años, las grabaciones profesionales se realizaban con magnetófonos y los aficionados disponían de diferentes modelos de grabadoras en cassette.

Actualmente, con el sistema de grabación digital, se ha hecho un salto cualitativo importante y han aparecido en el mercado muchos modelos de grabación digital, tanto profesionales como amateurs y que rápidamente están sustituyendo el clásico sistema analógico de grabación.A grandes rasgos, la grabación digital difiere de la analógica en el hecho de que lo que se graba no es una representación de la señal audio original. En su lugar, lo que se está grabando es una serie de instrucciones.Pero tanto si se trata de una grabadora analógica como de una digital, existen una serie de elementos a considerar.- Una grabadora ideal debe ser ligera, fiable, con una buena autonomía (con baterías recargables i/o pilas) y manipulación sencilla. Los cambios de temperatura, la humedad, los golpes, las vibraciones del coche, etc., pueden afectar al buen funcionamiento del aparato.

- La grabadora ha de tener una respuesta lo mas plana posible, hasta los 18 o 20 Khz., entrada(s) para los micrófonos (no nos sirve el micrófono incorporado), nivel de grabación manual (no automático) y un indicador de nivel de grabación, preferiblemente a partir de -40dB (la mayoría sólo indican a partir de -20 dB), y una salida para los auriculares, para poder escuchar la señal que transmite el micrófono. La presencia de un altavoz no es imprescindible y suele encarecer el precio. Algunas grabadoras DAT profesionales de alta gama tienen tres cabezales en lugar de dos, lo que permite escuchar lo que se está grabando realmente.

La aparición de las grabadoras digitales en cinta (R-DAT) y de los mini-Disc y más recientemente las grabadoras en disco duro y/o tarjetas de memoria ha hecho desaparecer las analógicas. Entre las ventajas de una buena grabadora digital, a parte de la reconocida calidad audio (aunque a veces discutida) en comparación con la analógica, cabría destacar: es mas económica que un buen magnetófono, mucho mas ligera y mas pequeña, cosa a tener en cuenta cuando se sale al campo, no hay desgaste de cinta, las copias no degradan la señal (todas las copias son exactamente igual al original) y en general la manipulación de los aparatos es sencilla. Un inconveniente de las grabadoras digitales es que son mas delicadas de funcionamiento, especialmente por su mayor sensibilidad a la humedad y también la escasez de modelos que funcionen con pilas, por lo que es preciso disponer de unas cuantas baterías recargables.

El Mini-Disc es una sistema de grabación digital que se está popularizando normemente y está sustituyendo a las grabadoras en casete. Su pequeño tamaño, su menor sensibilidad a la humedad en comparación con las R-DAT y el funcionamiento con pilas son elementos muy en su favor, además de su precio mas asequible. No le faltan detractores debido al sistema de compresión utilizado (ATRAC) que supone una pérdida de información. Sin embargo presenta muchas ventajas como soporte yarchivo de originales audio.La última generación de grabadoras digitales ya no utilizan ninguna cinta ni soporte, graban directament en tarjeta de memoria Compact Flash o en un disco duro, de 20 o 40 GB. La conexión con el ordenador y la transmisión de las grabaciones realizadas en wav o mp3 es sencilla y rápida. Estan saliendo nuevas grabadoras de diferentes marcas, de alta gama y con variadas e interesantes prestaciones.

Un interesante modelo es el EDIROL R4, pensado como una grabadora fácil de transportar al exterior del estudio, capaz de funcionar con pilas y que incluye además prestaciones de edición.

THE CENTRAL CITY AND INNER CITY

Me interesan los sonidos de lugares concretos y la forma en que los sonidos reflejan su identidad y restablecen las características de cada espacio o entorno. Cada ciudad tiene una identidad determinada y los sonidos que escuchamos en ella nos puede dar pistas sobre las personas que la habitan, además de provocar y estimular nuestros sentidos de una forma musical. Los sonidos del lenguaje imponen un ritmo con el que puede interactuar la narración visual. La intención dentro de las secciones más modernas de la ciudad central es crear una experiencia audiovisual que evoque el espacio, tanto en forma de descripción literal como de composición musical desarrollada. Estas son las ideas que conforman mi nueva serie de “mapas sonoros” y la “ciudad sonora”. La ciudad se codifica en formas crecientes basadas en patrones algorítmicos. La experiencia de la ciudad digital. Una experiencia lúdica no lejana a la propuesta por la crítica situacionista. Y como los situacionistas, también se pretende construir ciudades.

Mi respuesta inicial en el proyecto de ciudad central, por ejemplo, fue deconstruir un lenguaje del entorno urbano y ciudadano y volver a construirlo como imagen artística para tratar de constituir una forma y un contenido nuevos. Si te colocas en el medio de esta estructura concreta, sólo encuentras el significado de la experiencia estética cuando decides pasar de un lugar al siguiente. Utilizo estos pequeños fragmentos como ritmos que interactúan con la parte siguiente y evolucionan en algo totalmente nuevo. Esas partes son células, elementos de un todo que se genera a sí mismo. La naturaleza de los sonidos y el ruido de las ciudades en tono y lenguaje.

Un ritmo que antes era de fondo puede dejarse oír en primer plano. Se mezcla y evoluciona. La ciudad es su propia música, en constante transformación, una hermosa combinación de chirridos, martilleos y percusiones. La conocemos de sobra, pero no somos consciente de ella mientras nos bombardea. Sin embargo, los sonidos evolucionan, se generan, se mueven, mueren, languidecen y cambian. Los sonidos de la ciudad están ahí constantemente, no hay silencio, el código no se detiene. Los niños, los trenes, los taladros, los animales, los microsonidos, los sonidos de nuestros cuerpos, los sonidos de la calle, el interior de nuestras almas. Formas conocidas, identidades y sonidos que son comunes a todas las ciudades y, sin embargo, cada una tiene sus formas especiales que individualizan y distinguen cada lugar, cada espacio.

Stanza es un artista que reside en el Reino Unido y trabaja con arte en Internet, multimedia y música electrónica. La mayor parte de su trabajo puede verse en www.stanza.co.uk. Stanza ha publicado todas sus obras audiovisuales online a través de una serie de proyectos individuales. Su trabajo cruza la frontera entre lo artístico, lo tecnológico y lo científico.

http://www.thecentralcity.co.uk
http://www.STANZA.CO.UK
STANZA@SUBLIME.net

Paisajes Sonoros

"Yo creo que el medio ambiente acústico general de una sociedad puede entenderse como un indicador de las relaciones sociales, de las cuales es consecuencia, y que a través suyo podemos conocer algunas cosas acerca de la dirección de desarrollo de dicha sociedad."
R. Murray Schafer

Soundscape, paisaje sonoro, esfera sonora o paisaje audible. El término central representa a todo el continuo de música, habla, ruido, incluyendo los sonidos sintéticos y el silencio. La disciplina ecología acústica aborda al ser humano y su relación con lo audible como campo central de estudio. El ser humano no es el objetivo de los estímulos, sino el intérprete de su mundo perceptivo.

Su percepción no es la del objeto sonoro libre, sino la del acontecimiento sonoro vivido. Los sonidos traen mensajes, conexiones con la vida cotidiana y sentimientos. El oyente participa en la composición de su medio ambiente acústico, que entiende como habla: lenguaje sonoro.
El investigador sonoro sueco Ola Stockfelt dice: "Oír es componer. El oyente y sólo el oyente es el compositor de la música".

La compositora alemana-canadiense Hildegard Westerkamp, antigua asistente de investigación de Schafer, se ha hecho conocer entre tanto como educadora de la audición en Europa, Brasil, India y Japón, a través del desarrollo de trabajos para una audición abierta. En el movimiento del paisaje sonoro -quizás sin proponérselo- influyó decisivamente sobre la especie de la composición con sonidos ambientales ("environmental composition"). "Soy compositora, reciclo sonidos." Sus obras son refinadas imágenes sonoras y a la vez mensajes ecológicos acerca de la fragilidad de la naturaleza, el oído y la comunicación humana.

El profesor Barry Truax, renombrado compositor informático e investigador, desarrolló el concepto del paisaje sonoro, en el sentido de Schafer, como comunicación acústica: un amplio análisis interdisciplinario de sonido y significado, cultura y sociedad, tecnología y composición digital. Los paisajes sonoros digitales son, en opinión del compositor, escenarios de ensayo para la vida en futuros mundos sensibles. Un devenir de los sonidos antes de ingresar a la realidad.
Pero aún después de 30 años de una práctica e investigación sobre el paisaje sonoro parece que la brecha entre una utopía del silencio y el ruido sigue siendo igual de grande. El sonido y el ruido siguen siendo perspectivas interrelacionadas. La investigación sobre paisajes sonoros "real", como síntesis entre arte y ciencia, estableció un influyente inicio a partir de la educación sonora, los paseos sonoros y la argumentación fundada y crítica.

La red que ha crecido rápidamente en los últimos años de los "paisajistas sonoros" ["soundscapers"] deberá comenzar a influir desde todos sus epicentros en nuestra esfera sonora global, en la comunicación y el discurso, diseño y arte, o, mejor aún, en algún lugar intermedio, en tanto "audio virtual" y mensaje ecológico en la frontera del ciberespacio.

Bibliografía
Helmut Rösing entre otros (1996), Handbuch der Musikpsychologie, ReinbekR. Murray Schafer (1977), The Tuning of the World, Nueva YorkBarry Truax (1984), Acoustic Communication, Nueva YorkHans U. Werner (1992/1995), Soundscapes - Eine klangökologische Spurensuche, Basilea

Creación musical y paisajes sonoros

"La composición con paisajes sonoros se inscribe fundamental aunque no exclusivamente en el campo de la producción musical electroacústica. Más allá de experiencias puntuales anteriores, la música electroacústica adquiere una consolidación y expansión a partir de la segunda mitad de los años 40 del siglo pasado, como consecuencia de las necesidades planteadas por los creadores de acceder a conformaciones tímbricas que trascendieran las disponibles hasta el momento, y del desarrollo científico y tecnológico que permitía satisfacer esas necesidades.

La música electroacústica ha tenido dos fuentes principales de materiales de partida para la composición, los sonidos existentes y los sonidos generados sintéticamente. Si bien la composición con paisajes sonoros tiene un vínculo innegable con la música que parte de sonidos ya existentes, mantiene una diferencia fundamental con la referencia más directa de esa música, que fue lo que Pierre Schaeffer llamó música concreta.

La llamada música concreta postulaba que un sonido debía ser aislado y despojado de toda posible contextualización para adquirir la categoría de objeto sonoro, y por lo tanto estar apto para ser utilizado en una composición musical. Contrariamente la composición con paisajes sonoros se basa en la posibilidad de contextualizar los sonidos que aparecen en la obra musical. En palabras de Barry Truax, la composición con paisajes sonoros está caracterizada por “... la presencia de sonidos y contextos ambientales reconocibles, que tienen el propósito de invocar asociaciones, memorias y la imaginación del oyente relacionada con el paisaje sonoro”.

Pueden detectarse dos grandes corrientes en la composición con paisajes sonoros en el campo de la música electroacústica. Una primera corriente presenta los paisajes sonoros tal y cual fueran registrados. Quienes trabajan en esta línea pretenden que el registro y audición de paisajes sonoros se convierta en un arte en sí mismo, como en su momento lo hizo la fotografía. A lo sumo estos creadores modifican el comienzo y el final del fragmento del paisaje sonoro presentado, eventualmente la transición de uno a otro.

Por otro lado están quienes toman paisajes sonoros como punto de partida y como centro conductor de sus composiciones, pero los mezclan, procesan, modifican e incluso combinan con otros sonidos, sean estos sintéticos, la voz humana o producidos por instrumentos musicales acústicos. Los sonidos se organizan según criterios musicales.

Puede mencionarse una tercera corriente que no necesariamente está inscrita en el campo de la música electroacústica, y que consiste en disponer la interpretación de una obra musical en un entorno determinado, de manera tal que los sonidos de ese paisaje sonoro se integren a la composición musical. Un ejemplo extremo de esta tendencia podría ser la obra 4’33” de John Cage.

La composición con paisajes sonoros apela de manera consciente a la función social de la música. Esta línea -la creativa- del proyecto tiene como uno de sus objetivos fomentar la creación musical, investigando las posibilidades de la composición musical electroacústica con paisajes sonoros. Pero adicionalmente espera determinar en qué medida la composición con paisajes sonoros es capaz de contribuir a elevar el grado de conciencia del individuo del paisaje sonoro que consume pero también produce. En definitiva en qué medida la música puede contribuir a desarrollar la conciencia social de un individuo y de una comunidad toda.

Wednesday, September 06, 2006

Eliminar la voz a una pista de audio

El principal fundamento de los programas graficos de edicion digital es el estéreo. El ingeniero que mezcla todos los instrumentos de una canción "reparte" la señal de estos instrumentos entre los dos canales disponibles (izquierdo y derecho), de tal modo que el sonido queda equilibrado entre ambos canales. Es una técnica habitual dejar la voz principal exactamente en el centro de los dos canales, y es en esta característica en la que se basan los programas anteriormente citados.El hecho de que la voz esté situada en el centro del estéreo implica que hay la misma cantidad de señal de voz en ambos canales, mientras que el resto de instrumentos estarán repartidos de diferente manera en el espacio sonoro. Por tanto, "lo único" que tendremos que hacer es invertir en fase uno de los dos canales de la canción y mezclarlo con el otro. La señal de voz, al existir en la misma cantidad en ambos canales, y habiéndola invertido en uno de ellos, quedará eliminada al sumar las pistas, mientras que el resto de instrumentos probablemente se atenuarán ligeramente, pero seguirán escuchándose. Otra pérdida que sufriremos es que partiremos de un fichero estéreo y obtendremos un fichero mono.Por desgracia, algunos efectos como el Reverb, Chorus, etc. aplicados a la voz, panoramizan la señal hacia uno u otro canal, así que el resultado en estos casos no será perfecto. Además, otras voces como los coros normalmente no se panoramizan en el centro, por tanto no podrían eliminarse. Como puedes ver, no será un sistema infalible, pero ¡realmente funcionará en bastantes casos!.Lo primero, es abrir el fichero .wav, .aif o .mp3 desde tu editor de audio, es imprescindible que la grabación sea estéreo, para poder operar con los dos canales.Crear un nuevo fichero, del mismo tamaño y calidad (KHz y bits) que tu canción, pero MONO (sólo 1 canal) en vez de estéreo.Seleccionar por completo uno de los canales de la canción. Copiar y pegar en el nuevo fichero que acabas de crear.Copiar el otro canal de la canción. Localizar la función Mix (Mezclar), que permite mezclar ambos canales invirtiendo la fase de uno de ellos. Pulsar sobre el comando Mix del editor, poner el volumen a 100, y selecciona la opción "Invertir"

Wednesday, August 30, 2006

Exposiciones - Audiciones - Historia de la Musica Electronica

Realizar una exposición con un enfoque historico y tecnológico, cuyo componente principal son las audiciones musicales.

Grupo 1 (1890 - 1960)

1. Los primeros instrumentos electronicos y primeros sistemas digitales (Telharmonium)
2. Nuevos sonidos y nuevos lenguajes (Pierre Schaeffer, Jhon Cage, Hugh Le Caine, Edgar Varese, Karlheinz Stockhaussen, Vladimir Ussachevsky)
3 Algunos Compositores (Luciano Berio, Pierre Boulez, Luc Ferrari, Mauricio Kagel, Gyorgi Ligeti, Henri Pousseur.

Grupo 2 (1960 - 1980)
1. Electronica en vivo (Música electrónica de los 60)
2. Sintetizadores Analogicos y Primeros sistemas digitales (Sintetizadores comerciales, electrónica en el pop de los 60 y 70)
3. Rock Pop y Electrónica (Jeff Beck & Yardbirds, Frank Zappa, Jimmy Hendrix, Pink Floyd, Lake & Palmer, Tangerine Dream, Robert Fripp, Brian Eno, Lou Reed)

Algunos otros Nombres (65-70s):
Silver Apples, Soft Machine, United States of America, Velvet
Underground, Frank Zappa & the Mothers of Invention…

Algunos otros Nombres (70-75s):
Franco Battiato, Tim Blake, David Bowie (Low, 1977), Fripp & Eno,
Gong, Hawkwind, Heldon, Jean Michel Jarre, Todd Rundgren, TONTO,
Vangelis, Stevie Wonder…

Rock alemán 70s (a.k.a. Kosmik rock, Krautrock, rock planeador…):
Amon Düül II, Ash Ra Tempel, Can, Faust, Kluster, Neu!, Popol Vuh,
Klaus Schulze…

Jazz-rock 70s:
Chick Corea, Miles Davis, Herbie Hancock, Mahavishnu Orchestra,
Weather Report…

Grupo 3 (1980 - )
1. Música electrónica de los 80 (Hip Hop y Electro, New Age, Techno)
2. Sistemas musicales interactivos (Jon Appleton, David Behrman, David Rosenboom, Salvatore Martirano)
3. Música electrónica y Pop de los 90 (Acid Techno, Ambient, Bleep, Big Beat, Break Beat, Rock Electronico, Trip Hop)
4. Algunas corrientes experimentales (Apropiacionismo, Ruidismo, Clics & Cuts)

Conceptos de Acustica Basica

1. ¿Que es un decibelio (dB)?.

El decibelio es una unidad logarítmica de medida utilizada en diferentes disciplinas de la ciencia. En todos los casos se usa para comparar una cantidad con otra llamada de referencia. Normalmente el valor tomado como referencia es siempre el menor valor de la cantidad. En algunos casos puede ser un valor promediado aproximado. En acústica la mayoría de las veces el decibelio se utiliza para comparar la presión sonora, en el aire, con una presión de referencia. Este nivel de referencia tomado en acústica, es una aproximación al nivel de presión mínimo que hace que nuestro oído sea capaz de percibirlo. El nivel de referencia varia lógicamente según el tipo de medida que estemos realizando. No es el mismo nivel de referencia para la presión acústica, que para la intensidad acústica o para la potencia acústica. A continuación se dan los valores de referencia.

Nivel de Referencia para la Presión Sonora (en el aire) = 0.00002 = 2 x 10-5 Pa (rms) Nivel de Referencia para la Intensidad Sonora ( en el aire) = 0.000000000001 = 1 x 10-12 w/m2 Nivel de Referencia para la Potencia Sonora (en el aire) = 0.00000000001 = 1 x 10-12 w Como su nombre indica el decibelio es la décima parte del Bel. El Bel es el logaritmo en base 10 de la relación de dos potencias o intensidades. No obstante esta unidad resulta demasiado grande por lo que se ha normalizado el uso de la décima parte del Bel, siendo el decibel o decibelio. La formula para su aplicación es la siguiente, partiendo que la intensidad acústica en el campo lejano es proporcional al cuadrado de la presión acústica, se define el nivel de presión sonora como: NPS = 10log (p/pr)2 = 20 log p/pr Siendo NPS = Nivel de Presión Sonora; p la presión medida; pr la presión de referencia (2 x 10-5 Pa) Como es fácil ver el nivel de referencia siempre se corresponde con el nivel de 0 dB: NPS = 20 x log (0.00002/0.00002) = 20 log(1) = 20 * 0 = 0 dB Por la tanto en 0 dB tenemos el umbral de audición del oído humano, se supone que no es posible oír por debajo de este nivel, o sea variaciones de nivel en la presión del aire inferiores a 0,00002 pascal. La razón por la que se utiliza el decibelio es que si no, tendríamos que estar manejando n úmeros o muy pequeños o excesivamente grandes, llenos de ceros, con lo que la posibilidad de error seria muy grande al hacer cálculos. Además también hay que tener en cuenta que el comportamiento del oído humano esta mas cerca de una función logarítmica que de una lineal, ya que no percibe la misma variación de nivel en las diferentes escalas de nivel, ni en las diferentes bandas de frecuencias.

2. ¿Como se suman los niveles de sonido?.

Hemos visto que el decibelio es una función logarítmica y por tanto cuando hablamos de dB de presión sonora no es posible sumarlos sin más. Por ejemplo 30 dB + 30 dB no es igual a 60 dB si no a 33 dB como vamos a ver a continuación. Para poder sumar dos decibelios podemos emplear la siguiente ecuación: Suma dB1 + dB2 = 10 log (10dB/10 + 10dB2/10) 30 dB + 30 dB = 10 log(10(30/10) + 10(30/10) = 10 log(103 + 103) = 10 log (1000 + 1000) = 33 dB La suma de dos presiones sonoras nunca puede ser más de 3 dB más que el mayor de las dos. Si la diferencia que hay entre los dos valores a sumar es mayor de 10 dB la suma no tiene valor practico y se toma el valor del mayor de los dos. Por ejemplo si sumamos 20 dB + 10 dB el resultado será igual a 20 dB (aproximado). Solamente son significativos para la suma los valores que tienen una diferencia menor a 10 dB.

3. ¿A partir de que niveles el sonido es perjudicial?.
Por encima de los 100 dBA es muy recomendable siempre que sea posible utilizar protectores para los oídos. Si la exposición es prolongada, por ejemplo en puestos de trabajos, se considera necesario el utilizar protectores en ambientes con niveles de 85 dBA, siempre y cuando la exposición, insisto, sea prolongada. Los daños producidos en el oído por exposiciones a ruidos muy fuertes son acumulativos e irreversibles, por lo que se deben de extremar las precauciones. De la exposición prolongada a ruidos se observan trastornos nerviosos, cardiacos y mentales.

4. ¿Que es la presión Acústica y el nivel de presión Acústica?.
La presión sonora como hemos visto antes, es la presión que se genera en un punto determinado por una fuente sonora. El nivel de presión sonora SPL se mide en dB(A) SPL y determina el nivel de presión que realiza la onda sonora en relación a un nivel de referencia que es 2 x10-5 Pascal en el aire. Es el parámetro mas fácil de medir y se puede medir con un sonómetro. Su valor depende del punto donde midamos, del local etc. Realmente no da mucha información sobre las características acústicas de la fuente, a no ser que se haga un análisis frecuencial de los nivel de presión, dado que el SPL siempre esta influenciado por la distancia a la fuente, el local etc.

5. ¿Que es la intensidad Acústica y el nivel de intensidad Acústica?.
Se puede definir como la cantidad de energía sonora transmitida en una dirección determinada por unidad de área. Con buen oído se puede citar dentro de un rango de entre 10-12 w por m2, hasta 1 w / m2. Para realizar la medida de intensidades se utiliza actualmente analizadores de doble canal con posibilidad de espectro cruzado y una sonda que consiste en dos micrófonos separados a corta distancia. Permite determinar la cantidad de energía sonora que radia una fuente d entro de un ambiente ruidoso. No es posible medirlo con un sonómetro. El nivel de intensidad sonora se mide en w/m2.

6. ¿Que es la potencia Acústica y el nivel de potencia Acústica?.
La potencia acústica es la cantidad de energía radiada por una fuente determinada. El nivel de potencia Acústica es la cantidad de energía total radiada en un segundo y se mide en w. La referencia es 1 pw = 10-12 w. Para determinar la potencia acústica que radia una fuente se utiliza un sistema de medición alrededor de la fuente sonora a fin de poder determinar la energía total irradiada. La potencia acústica es un valor intrínseco de la fuente y no depende del local donde se halle. Es como una bombilla, puede tener 100 w y siempre tendrá 100 w la pongamos en nuestra habitación o la pongamos dentro de una nave enorme su potencia siempre será la misma. Con la potencia acústica ocurre lo mismo: el valor no varía por estar en un local reverberante o en uno seco. Al contrario de la Presión Acústica, que si que varía según varíen las características del local donde se halle la fuente, la distancia etc.

7. ¿Cual es la velocidad de propagación del sonido en el Aire, Agua.....?.
La velocidad de propagación del sonido en el aire es de unos 334 m/s , y a 0º es de 331,6 m/s. La velocidad de propagación es proporcional a la raíz cuadrada de la temperatura absoluta y es alrededor de 12 m/s mayor a 20º. La velocidad es siempre independiente de la presión atmosférica. En el agua la velocidad de propagación es de 1500 m/s. Es posible obtener medidas de temperatura de los océanos midiendo la diferencia de velocidad sobre grandes distancias.

8. ¿Que es el Tiempo de Reverberación?.
El Tiempo de Reverberación (RT), es el tiempo que tarda una señal, desde que deja de s onar, en atenuarse un nivel de 60 dB. Para realizar la medida se genera un ruido y se mide a partir de que este deja de sonar, entonces se determina el tiempo que tarda en atenuarse 60 dB. El Tiempo de Reverberación se mide de forma frecuencial, esto es, un local no tiene el mismo RT en 200 Hz que en 4 Khz. Ello es debido a que el RT viene determinado por el Volumen de la sala, y por los coeficientes de absorción de sus superficies, o si se prefiere por las s uperficies con un coeficiente de absorción determinado. Como los coeficientes de absorción de los diferentes materiales que componen cualquier local no son iguales para todas las frecuencias, las reflexiones generadas en el interior del local serán diferentes para cada frecuencia y por lo tanto el RT del local es diferente según las frecuencias. Para calcular la RT de un local sin realizar mediciones se puede utilizar la formula de Sabine: RT60 = 0,163 * (V/A) V = Volumen de la sala en m3 y A = Superficie de Absorción en m2 Como norma cuanto mayor es el local, mayor es el RT. Si los materiales que lo componen internamente son poco absorbentes el RT también aumentará. El valor de RT es muy importante si se quiere conseguir buenos niveles de inteligibilidad dentro de los locales.

9. ¿Que es el coeficiente de absorción de un material?.
El coeficiente de absorción de un material es la relación entre la energía absorbida por el material y la energía reflejada por el mismo. Dada esta formulación, su valor siempre esta comprendido entre 0 y 1. El máximo coeficiente de absorción esta determinado por un valor de 1 donde toda la energía que incide en el material es absorbida por el mismo, y el mínimo es 0 donde toda la energía es reflejada. El coeficiente de absorción varia con la frecuencia y por tanto los fabricantes de materiales acústicos dan los coeficientes de absorción por lo menos en resolución de una octava. Sabiendo los materiales de una sala y sabiendo sus coeficientes de absorción podemos saber como sonora esa sala en cada frecuencia y podremos también saber, mediante la formula de Sabine, Eyring etc, el tiempo de reverberación también por frecuencias.

10. ¿Que es el Eco, Reverberación y Resonancia?.

Cuando se genera un sonido en el interior de un local las superficies que componen el mismo ocasionan una serie de diferentes efectos dependiendo de las características de dichas superficies. Esto ocurre porque las ondas sonoras inciden en las diferentes s uperficies y las reflejan de diferente forma según su coeficiente de reflexión acústica. Como es lógico, primero siempre se percibe el sonido directo, esto es, el sonido que nos llega a nuestro oído sin que se aún se haya reflejado en ninguna superficie. Una vez recibido el sonido directo, llegará a nuestros oídos, con un retraso de tiempo con respecto al sonido directo, el sonido reflejado por las superficies del local. Tanto el retraso como el nivel sonoro del sonido reflejado dependen de las características físicas del local y sus superficies. Si el retraso entre el sonido directo y el reflejado es mayor de 1/10 de segundo, nuestro sistema de audición será capaz de separar las dos señales y percibirlas como tales, primero una y después la otra, esto es lo que se entiende por eco. Por ejemplo: supongamos que estamos dentro de un local de grandes dimensiones y una persona que esta separada de nosotros a cierta distancia nos dice "HOLA"; primero llegara a nuestros oídos el "HOLA" del sonido directo, y en el caso de un Eco este nos llegara como mínimo 1/10 segundo después, por lo tanto oiremos "HOLA....(1/10 segundo mínimo)...HOLA", y lo interpretaremos efectivamente como dos mensajes diferentes separados por un intervalo de tiempo determinado. Sin embargo nuestro interlocutor únicamente ha articulado un "HOLA". Cuando en la misma situación que en el caso anterior, el sonido reflejado nos llega con un tiempo inferior a 1/10 de segundo, nuestro sistema de audición no es capaz de separar a mbas señales y las toma como una misma pero con una duración superior de esta. Normalmente esto se entiende como reverberación. La reverberación de un local se mide según su tiempo de reverberación (RT) en segundos y varia según la frecuencia de análisis que se utilice. Esto es debido a que los diferentes materiales que componen las superficies del local no se comportan por igual en todo el espectro sonoro, y por tanto los coeficientes de absorción de cada superficie de un mismo material varia según la frecuencia. Conociendo el tiempo de reverberación de un local podemos saber como se comportara el mismo en diferentes aplicaciones. Cuando el tiempo de reverberación alcanza valores muy altos con respecto al sonido directo, puede ocurrir un enmascaramiento de este y se puede perder la capacidad de entender la información contenida en el mensaje que se percibe. La resonancia se ocasiona cuando un cuerpo entra en vibración por simpatía con una onda sonora que incide sobre el y coincide su frecuencia con la frecuencia de oscilación del cuerpo o esta es múltiplo entero de la frecuencia de la onda que le incide.

11. ¿Que es la altura (tono) de un sonido?
Como ya sabemos la frecuencia es una entidad física y por tanto puede ser medida de forma objetiva por diferentes medios. Por contra, la altura o tono de un sonido es un fenómeno totalmente subjetivo y por tanto no es posible medirlo de forma objetiva. Normalmente cuando se aumenta la frecuencia de un sonido, su altura también sube, sin embargo esto no se da de forma lineal, o sea, no se corresponde la subida del valor de la frecuencia con la percepción de la subida de tono. La valoración subjetiva del tono se ve condicionada no solo por el aumento de la frecuencia si no también por la intensidad, y por el valor de dicha frecuencia. Para frecuencias inferiores a 1.000 Hz (incluida esta), si se aumenta la intensidad el tono disminuye, entre 1.000 Hz y 5.000 Hz el tono es prácticamente independiente de la intensidad que tenga, por encima de 5.000 Hz el tono aumenta si aumenta la intensidad.

12. ¿Que es el timbre?
¿Por qué podemos distinguir el sonido de un piano al de una trompeta, o el de un violín a una viola, o la voz de nuestro hermano con la de un amigo?. El timbre hace posible que cada instrumento pueda tener un color determinado y particular que lo distingue de otros aun cuando su espectro sonoro pueda parecer similar. El timbre esta formado por un conjunto de frecuencias de alturas sonoras fijas (ámbito de formantes). De forma sencilla se puede decir que el timbre lo forma la frecuencia fundame ntal del instrumento, más su composición armónica. La frecuencia fundamental de dos instrumentos diferentes puede ser la misma, pero su composición armónica es diferente y es lo que hace que los podamos distinguir. Por ejemplo: si generamos una frecuencia de 440 Hz con un piano y con una guitarra, aun cuando ambos están afinados en la misma frecuencia y generando la misma, cada uno suena diferente. Esto es debido a que cada instrumento genera una serie de armónicos según la construcción del propio instrumento, en el piano el arpa metálico y la caja generan una serie de armónicos con una serie de niveles sonoros que le dan su sonido característico. En la guitarra la caja, las cuerdas etc le confieren a la misma frecuencia un sonido diferente. La forma de ejecutar el instrumento y la intensidad hacen también que el timbre varíe, al hacer variar su composición armónica.

13. ¿Que es el efecto Doppler?
El efecto Doppler se origina cuando hay un movimiento relativo entre la fuente sonora y el oyente cuando cualquiera d e los dos se mueven con respecto al medio en el que las ondas se propagan. El resultado es la aparente variación de la altura del sonido. Existe una variación en la frecuencia que percibimos con la frecuencia que la fuente origina. Para entenderlo mejor supongamos que estamos paradas en el anden de una estación, a lo lejos un tren viene a gran velocidad con la sirena accionada, mientras el tren este lejos de nosotros oiremos el silbido de la sirena como una frecuencia determinada, cuando el tren pase delante nuestro y siga su camino, el sonido de la sirena cambia con respecto al estábamos oyendo y con respecto al que vamos a oír una vez que el tren nos rebasa y sigue su camino.

14. ¿Que es una octava, media octava y tercio de octava?
El termino de octava se toma de una escala musical, se considera el intervalo entre dos s onidos que tienen una relación de frecuencias igual a 2 y que corresponde a ocho notas de dicha escala musical. Por ejemplo: si comenzamos con una nota como DO, la octava completa será: DO-RE-MI-FA-SOL-LA-SI-DO. Si el primer DO estaba afinado en 440 Hz el segundo estará en 880 Hz, ya que hemos indicado que en la octava hay una relación de frecuencias igual a 2. En el caso de un ecualizador gráfico de una octava, las frecuencias centrales de los filtros podían ser las siguientes: 16 Hz - 31,5 Hz - 63 Hz - 125 Hz - 250 Hz - 500 Hz - 1kHz - 2 kHz - 4 kHz - 8 kHz - 16 kHz. En algunos casos la relación de 2:1 de la octava no se cumple exactamente. Cuando se necesitan filtros de mayor precisión, de un a ncho de banda mas estrecho, se puede dividir la octava en valores mas pequeños, por ejemplo: la media octava divide cada o ctava en dos, y por tanto tendremos el doble de puntos que en una octava, siguiendo con el ejemplo empleado en una octava tendríamos: 16 Hz - 22,4 Hz - 31,5 Hz - 45 Hz - 63 Hz - 90 Hz - 125 Hz - 180 Hz - 250 Hz - 355 Hz - 500 Hz - 710 Hz - 1kHz - 1,4 kHz - 2 kHz - 2,8 kHz - 4 kHz - 5,6 kHz - 8 kHz - 11,2 kHz - 16 kHz. En el caso de un tercio de octava, cada intervalo de la octava se divide en tres partes con lo que tendremos tres veces mas de filtros para poder ajustar, quedando los cortes como s iguen : 16 Hz - 20 Hz - 25 Hz - 31,5 Hz - 40 Hz - 50 Hz - 63 Hz - 80 Hz - 100 Hz - 125 Hz - 160 Hz - 200 Hz - 250 Hz - 315 Hz - 400 Hz - 500 Hz - 630 Hz - 800 Hz - 1 kHz - 1,25 kHz - 1,6 kHz - 2 kHz - 2,5 kHz - 3,15 kHz - 4 kHz - 5 kHz - 6,3 kHz - 8 kHz - 10 kHz - 12,5 kHz - 16 kHz

15. ¿Que es un filtro de ancho de banda constante?.
Un filtro de ancho de banda constante consiste básicamente en un filtro de banda estrecha sintonizable y constante. Esto nos permite seleccionar la frecuencia central que deseamos y también el ancho de banda del filtro. El ancho de banda del filtro viene dado por el siguiente valor: w = f2 - f1 Siendo w = ancho de banda del filtro, f2 = frecuencia superior y f1 = frecuencia inferior. Y la frecuencia central del filtro se obtiene normalmente de: fc = 2 1 f f ´ La frecuencia central se puede ajustar a cualquier punto del espectro y mantienen siempre el mismo ancho de banda. Por ejemplo: supongamos que tenemos un filtro de ancho de banda constante con un ancho de banda de 20 Hz, si lo colocamos de forma que la frecuencia inferior sea 100 Hz (f1) la superior será igual a 120 Hz y su frecuencia central será 109,54 Hz aproximadamente. Si ahora nos desplazamos a un margen de frecuencias superior, f1 = 4.000 Hz, f2 será igual a 4020 Hz y la frecuencia central será 4010 Hz. Como se ve el ancho de banda siempre es constante y no varia al variar el punto de trabajo del filtro.

16. ¿Que es un filtro de ancho de banda proporcional?
Los filtros de ancho de banda proporcional son filtros que cumplen la premisa de f2/f1 =constante, o sea que si dividimos la frecuencia superior por la inferior siempre nos tiene que dar un valor que sea constante, por lo que el ancho de banda es proporcional a la frecuencia central. En el caso de un filtro de octava y de tercio de octava la relación de proporción es : Octava f2/f1 = 2 Tercio de Octava f2/f1 = 2(1/3) Como es fácil deducir el ancho de banda de este tipo de filtros varia al variar la frecuencia, cuanto mas subimos mayor es el ancho de banda, siempre manteniendo la proporción expresada según el filtro sea de octava, tercio etc. Cada vez que subimos una octava doblamos el ancho de banda del filtro. Por ejemplo supongamos que estamos trabajando con un filtro de 1/3 de octava y nos situamos en la frecuencia de 100 Hz tenemos que la frecuencia inmediatamente inferior es 80 Hz y la superior 125, podemos obtener la relación de proporcionalidad del filtro según: f2/f1 = constante 125/80 = 1,56 Podemos ver que tenemos un valor de 1,56 y que corresponde a un ancho de banda de f2-f1 = 125-80 = 45 Hz. Si ahora con el mismo valor de la proporción (1,56) colocamos el filtro en la frecuencia central de 200 Hz en lugar de los 100 Hz de antes, veremos que la proporción se mantiene pero el ancho de banda aumenta justo al doble: f2/f1 = 250/160 = 1,56 f2-f1 = 250 - 160 = 90 Hz Cada vez que subamos la frecuencia central aumentara el ancho de banda del filtro en la proporción expresada (1 octava = 2 y 1/3 octava = 2(1/3)). Cada vez que doblamos la frecuencia se dobla el ancho de banda del filtro. Por lo tanto este tipo de filtros resultan mas precisos en las frecuencias bajas que en las altas, ya que en frecuencias como 8 kHz el a ncho de banda aumenta hasta 3.700 Hz mientras que como hemos visto para el mismo filtro en la frecuencia de 100 Hz tiene un ancho de banda de 45 Hz. Los filtros proporcionales con resoluciones de octava, tercio etc son los mas utilizados tanto en analizadores como en ecualizadores para fines musicales y acústicos.

17. ¿Que es el ruido rosa?
El ruido rosa es un ruido cuyo nivel sonoro esta caracterizado por un descenso de tres decibelios por octava. Cuando el ruido rosa se visualiza en un analizador con filtros de octava, el ruido se ve como si todas las bandas de octava tuviesen el mismo nivel sonoro, lo cual es cierto, pero el ruido rosa no tiene el mismo nivel en todas las frecuencias. Esto ocurre por que como hemos visto en el capitulo anterior los filtros de octava, tercio etc, son filtros proporcionales y por tanto cada vez que subimos una octava, doblamos el ancho de banda y por ese motivo el ruido rosa decrece 3 dB por octava, justo la proporción en que aumenta el ancho de banda, el doble. De esta forma visualizamos el ruido rosa como un ruido de nivel constante en todas las bandas de octava. Se utiliza para analizar el comportamiento de salas, altavoces, equipos de sonido etc. Es una señal conocida, mismo nivel en todas las bandas (sonido "plano") , y si lo amplificamos con un altavoz dentro de una sala podemos conocer datos sobre el comportamiento acústico del altavoz, la sala etc. Normalmente se genera entre 20 Hz y 20 kHz. Su sonido es muy parecido al que podemos oír cuando se sintoniza entre dos emisoras de FM, en el espacio que se recibe únicamente el ruido, es como un soplido.

18. ¿Que es el ruido blanco?
El ruido blanco es un ruido cuyo nivel es constante en todas las frecuencias. Si lo visualizamos con un analizador con filtros de octava, veremos que el espectro mostrado no es lineal como hemos dicho que es el ruido blanco, si no que aumenta 3 dB por octava. Esto se debe al mismo fenómeno que con el ruido rosa, al doblar la octava se dobla el ancho de banda y si se tenemos el mismo nivel sonoro en todas las frecuencias, el nivel sonoro por octava se doblara y aumentara 3 dB con respecto al anterior.

19. ¿Que es la disminución espacial del nivel sonoro?.
Si tenemos una fuente sonora determinada, y estamos situados a una distancia de ella, a l alejarnos o acercarnos el nivel de presión sonora varia según las características de la fuente, el lugar donde se encuentre y la distancia entre otros factores. Podemos calcular la intensidad de un sonido, en función de su distancia así: I = W0 / 4 Õ r2 Si la potencia original de la fuente es W0 vatios, I es la intensidad y r la distancia En espacios al aire libre se considera que cada vez que se dobla la distancia entre la fuente sonora y el oyente, se disminuye el nivel sonoro en 6 dB. Por ejemplo supongamos que e stamos escuchando un altavoz a una distancia de 10 metros, si utilizamos un sonómetro y medimos el nivel de presión acústica obtenemos un valor supuesto de 80 dB, si ahora nos distanciamos 10 metros mas, o sea doblamos la distancia del punto inicial, obtendremos una lectura de 74 dB, 6 dB menos que en el primer punto, si por ultimo nos alejamos 20 metros de este ultimo punto, doblando así su distancia, estamos a 40 metros de la fuente, obtendremos también un descenso de 6 dB, tendremos por tanto, 68 dB.

Wednesday, August 23, 2006

Trabajo de Clase

1_SoundForge, abrir un archivo nuevo con una frecuencia de muestreo de 44.100 Hz a 16 Bits Stereo.
A_Menu/tools Synthesis simple, insertar tres segundos de:Ruido BlancoRuido RosaBusqueda de conceptos de Ruido Blanco y Ruido Rosa
B_En menu/tools Synthesis simple, insertar:tres segundos125 hz-12.0 dB (25.15%)Forma de onda: Sine, absolute sine, square, saw y triangle.

2_Creación sonora. Deben Crear 3 timbres diferentes, de cada uno deben hacer una tabla comparativa variando frecuencia (en Hz) e intensidad (en db) en esta tabla comparativa deben dejar uno de los parámetros anclados e ir variando el otro parámetro y analizar cual es la respuesta sonora a nivel perceptual. Se deben hacer 3 variaciones por cada anclaje.

Al finalizar esta experiencia deben concluir (en el documento) a que frecuencias las intensidades se perciben con mayor y menor influjo. Para esta asignación, se debe entregar CD en formato de audio, incluyendo un documento de texto con las especificaciones descritas, en el documento se debe especificar cuales son las pistas de audio y a que asignación corresponden.

Audicion y Frecuencia

AUDICIÓN Y FRECUENCIA.
El umbral de audición, para la media de los humanos, se fija en 20 µPa (20 micro pascales = 0.000002 pascales), para frecuencias entre 2KHz y 4KHz. Por encima y por debajo de estas frecuencias, la presión requerida para excitar el oído es mayor. Esto significa que nuestro oído no responde igual a todas las frecuencias (tiene una respuesta en frecuencia desigual). Un tono puro, a la frecuencia de 125 Hz y con 15 dB de nivel, sería prácticamente inaudible, mientras que si aumentamos la frecuencia, hasta 500 Hz, sin variar el nivel de presión, se obtendría un tono claramente audible.
Las líneas discontinuas marcan los niveles de presión necesarios a cada frecuencia, para que el oído detecte (subjetivamente) la misma sonoridad en todas. Esto quiere decir que si reproducimos un tono de 31.5 Hz a 100 dB (NPS), luego otro de 63 Hz a 90 dB y otro de 125 Hz a 80 dB, el oyente dirá que todos sonaban al mismo volumen.
En 2 KHz el umbral de audición se fija en 0 dB y a 4 KHz es incluso menor de 0 dB, ya que a 3600 Hz se encuentra la frecuencia de resonancia del oído humano.
Por debajo de 2000 Hz y según se va bajando en frecuencia, el oído se vuelve menos sensible. Los umbrales de audición para frecuencias menores de 2 KHz son: 5 dB a 1 KHz, 7 dB a 500 Hz, 11 dB a 250 Hz, 21 dB a 125 Hz, 35 dB a 63 Hz, 55 dB a 31 Hz. Recuerda que estos dB's son de nivel de presión sonora (NPS o SPL).
Por encima de los 4 KHz, el oído es menos sensible, pero no tanto como en bajas frecuencias. Sin embargo, se producen fluctuaciones a frecuencias cercanas, debido a las perturbaciones que produce la cabeza del oyente en el campo sonoro. Los umbrales de audición son: 15 dB a 8 KHz y 20 dB a 16 KHz
Todos los receptores de sonido, tienen un comportamiento que varía con la frecuencia. En el caso del oído humano, sucede lo mismo, ya que se trata el receptor más complicado y (aunque parezca extraño) más eficiente que existe.
El umbral de audición define la mínima presión requerida para excitar el oído. El límite del nivel de presión sonora se sitúa generalmente alrededor de 130 dB, coincidiendo con el umbral del dolor (molestias en el oído). La pérdida de audición de manera súbita, por daños mecánicos (en el oído medio) se produce a niveles mucho mayores. La exposición suficientemente prolongada a niveles superiores a 130 dB produce pérdida de audición permanente y otros daños graves.
En acústica, las frecuencias siempre se tratan de manera logarítmica: representaciones, gráficas y demás. El motivo principal es que el oído humano interpreta las frecuencias de manera casi logarítmica. En el eje de frecuencias de cualquier gráfica de las vistas hasta ahora, las marcas pasan de una frecuencia (p. ej. 1000 Hz) al doble (2000 Hz). La apreciación subjetiva de un oyente será que hay la misma distancia entre un tono de 200 Hz y otro de 400, que entre uno de 1000 Hz y otro de 2000 Hz. Sin embargo la "distancia" en frecuencia en el primer caso es de 200 Hz y en el segundo de 1000 Hz.

Tuesday, August 22, 2006

Como se mide el sonido

CÓMO SE MIDE.

Las perturbaciones creadas por las vibraciones sobre el estado de reposo inicial de las partículas de aire, se traducen en variaciones muy pequeñas de presión. Las partículas de aire se acercan y alejan con las vibraciones, se comprimen y "descomprimen".

Esta variación de presión es lo que se mide. La unidad de medida de la presión es el Pascal (Pa). Sin embargo esto obligaría a tratar con unidades muy pequeñas, por eso se usa otra medida relativa: el "Nivel de Presión Sonora" (NPS), que se mide en decibelios (dB). El NPS en decibelios es el resultado de la siguiente operación matemática: 20·Log10 (presión/Pref), siendo "Pref" la presión de referencia = 20·10-6 Pa ( = 0,00002 Pa). La presión de referencia es la mínima que puede detectar el oído humano medio. Con lo que si tenemos un Nivel de Presión Sonora (NPS) = 0 dB, diremos que hay silencio (Ojo: no confundir con el dBfs). En términos de habla inglesa, las referencias NPS se encuentran como SPL (Sound Pressure Level), y por influencia, también en documentación de habla hispana se suelen encontrar datos en dB SPL.

Unos valores medios en dB son los siguientes:

25 dB NPS en un dormitorio urbano

57 dB NPS en conversación normal

64 dB NPS en conversación de tono elevado

85 dB NPS durante un grito

115 dB NPS en una discoteca

130 dB NPS de umbral de dolor

Tabla orientativa sobre los niveles de presión sonora en diferentes ambientes.

Como se propaga el sonido

CÓMO SE PROPAGA.

El sonido es una vibración, que, como tal, se puede dar en cualquier medio material, sólido, líquido o gaseoso (como el aire). En cada medio, se propaga a una velocidad diferente, principalmente en función de la densidad. Cuanto más denso sea el medio, mayor será la velocidad de propagación del sonido. En el vacío, el sonido no se propaga, al no existir partículas que puedan vibrar. En este caso tenemos una muestra del clásico error de las películas de ciencia ficción: el sonido de las explosiones en el espacio. Dado que el sonido no se propaga en el vacío.........quita tus propias conclusiones........

En el aire, el sonido se propaga a una velocidad aproximada de 343 m/s (metros por segundo). Esta velocidad puede variar con la densidad del aire, afectada por factores como la temperatura o la humedad relativa. En cualquier caso, para distancias de decenas de metros las variaciones son mínimas.

En el agua, un valor típico de velocidad del sonido son 1500 m/s (el agua es más densa que el aire). En el agua, la densidad varía mucho en función de factores como la profundidad, la temperatura o la salinidad.

La propagación del sonido en el agua, es el fundamento de los sistemas de sonar utilizados en barcos y submarinos para detectar obstáculos u objetivos y para enviar datos codificados. Para aplicaciones sonar las frecuencias que se utilizan corresponden a los ultrasonidos.

En materiales metálicos, el sonido se propaga a velocidades superiores a las anteriores, por ejemplo, en el acero el sonido se propaga a una velocidad en torno a 5000 m/s. En materiales sólidos se utiliza el sonido y las propiedades de reflexión para detectar fallas estructurales y grietas, sin necesidad de tener acceso a toda la estructura. Por ejemplo en una viga, bastará con acceder a una de sus terminaciones para poder conocer su estado, empleando ultrasonidos y ecogramas.

Divergencia esférica: el nivel de presión disminuye conforme el sonido se propaga. Cuando el frente de onda es esférico, en la mayoría de los casos, el nivel de presión cae 6 dB por cada vez que se duplica la distancia. Estas se llaman pérdidas por divergencia esférica. Si por ejemplo se mide el NPS que produce una excavadora a cinco metros y este es de 100 dB, podremos decir que a 20 m el NPS será de 88 dB, y a 40 m serán 82 dB. Cuando el frente de onda es plano, no hay pérdidas por divergencia. Un ejemplo de este tipo de propagación se da en la propagación del sonido por el interior de una tubería.

Tuesday, August 15, 2006

El sonido analógico

Hasta la aparición de los ordenadores, el sonido se grababa siempre de forma analógica. Pero ¿qué significa exactamente este término?

El término analógico se utiliza actualmente en contraposición a digital. Las señales analógicas son funciones de variables continuas (frecuentemente del voltaje) cuyas evoluciones temporales imitan (son una analogía de) las señales originales. La representación gráfica de un sonido grabado analógicamente tendrá aproximadamente la misma forma que el sonido original, pero la curva indicará variaciones de voltaje, en lugar de variaciones de presión de aire. Estas nuevas señales analógicas se obtienen por medio de transductores, término con el que se designa a todo dispositivo capaz de convertir una magnitud física en otra.

El micrófono y los altavoces son los dos transductores básicos utilizados en la grabación y reproducción del sonido. En primer lugar, el micrófono convierte la variación de la presión de aire ejercida sobre su membrana, en una señal de voltaje variable en el tiempo. Este voltaje puede ser grabado, utilizando diferentes tecnologías, sobre una cinta magnética o en los surcos de un disco de vinilo. Cuando deseamos reproducir el sonido, la señal eléctrica generada por el cabezal de la pletina o la aguja del tocadiscos, es amplificada y enviada a los altavoces, donde un nuevo transductor la convierte en un campo magnético capaz de desplazar y de hacer oscilar (con las frecuencias originales) los conos de papel de los altavoces.

Conviene resaltar que aunque la grabación se realice digitalmente, tal como se describe en el próximo capítulo, “Principios de sonido digital”, se seguirán llevando a cabo las transducciones analógicas en el micrófono y en los altavoces.

Altura, Frecuencia, Timbre e Intensidad

Para describir un sonido musical se utilizan tres términos: altura, timbre e intensidad. Todo sonido tiene una duración y, a lo largo de ésta, cualquiera de estos tres parámetros puede variar (los sonidos naturales jamás son perfectamente estables o constantes).

La altura y la frecuencia

La altura está directamente relacionada con la frecuencia de la oscilación, pero ambos términos no son sinónimos. De hecho, muchos sonidos (como los percusivos) no tienen una altura definida. El motivo de esta aparente paradoja es que, mientras la frecuencia es una propiedad física indisociable de todo aquello que, como el sonido, vibra u oscila, la altura es una cualidad subjetiva que percibimos sólo en algunos sonidos2. Si golpeamos, por ejemplo, un bombo o un platillo, podremos sin duda afirmar que el platillo suena más agudo que el bombo, pero no podremos decir si estos sonidos correspondían a un Do o a un La.

¿Que es lo que hace que un sonido posea o no una altura clara? Básicamente, su periodicidad. Es necesario que un sonido sea aproximadamente periódico, es decir que su frecuencia de oscilación no varíe (o varíe poco) dentro de un determinado lapso de tiempo, para que lleguemos a percibir una altura. En una escala temporal mayor, la frecuencia sí que puede variar, y en este caso, lo que percibiremos son alturas variables en el tiempo.

El timbre y los armónicos

El timbre podría definirse como el "color" de un sonido, y es lo que nos ayuda a caracterizar y distinguir diferentes tipos de instrumentos, o a reconocer a las personas por su voz. Un La de 440 Hz en una clarinete suena diferente que el mismo La en un saxo; aunque ambos tienen la misma altura, sus timbres no son iguales.

El motivo de esta diferencia de forma, es que las ondas de los sonidos naturales son más complejas porque vibran con varias frecuencias simultáneas. En la naturaleza no se ncuentran sonidos puros con una sola frecuencia.


En los sonidos naturales, la frecuencia de vibración más grave es la que determina normalmente el período y la altura, y se denomina frecuencia base. Las restantes frecuencias, que suelen ser múltiplos de la frecuencia base se denominan armónicos, y cada tipo de instrumento tiene, por su construcción, una serie diferente de armónicos de amplitudes diferentes, que son los que definen su timbre y otorgan las "señas de identidad" al instrumento.

Las matemáticas relacionadas con este concepto, fueron establecidas en el siglo XIX por el físico Jean-Baptiste Fourier, que descubrió que toda señal periódica, por compleja que esta sea, puede descomponerse como una suma de señales sinusoidales armónicas, es decir de frecuencias múltiplos de la original.

La intensidad y los decibelios

Si la altura viene determinada por el número de oscilaciones por unidad de tiempo, la intensidad depende del cuadrado de la amplitud de estas oscilaciones, o la diferencia entre las presiones máxima y mínima que la onda puede alcanzar. La percepción de la intensidad sonora es, en realidad, un fenómeno auditivo muy complejo, mucho más que el de la altura, y lo que sigue es una inevitable simplificación.

Las intensidades de diferentes sonidos pueden variar, aunque parezca increíble, en varios millones de órdenes de magnitud (es decir, el sonido más intenso que podamos oír, lo será varios millones de veces más, que el más tenue). Por ello, la intensidad se mide en una escala logarítmica, los decibelios (dB), de acuerdo con la siguiente fórmula:

Nivel de intensidad en decibelios (dB) = 10 x log10 (amplitud2/amplitud referencia2)

Esta expresión determina un nivel o diferencia de intensidad entre dos amplitudes. El origen (0 dB) corresponde al umbral de audición (mínimo sonido audible). Por debajo de este valor tenemos el auténtico silencio, aunque en el mundo en que vivimos la experimentación del silencio se hace francamente difícil, por lo que muchos de nosotros probablemente no lleguemos a conocer nunca el significado real de esta palabra. Por encima de los 130 dB se
produce una sensación dolorosa. Valores superiores prolongados llegan a destrozar el tímpano.

Que es el Sonido

Lo que entendemos por sonido es fruto de una compleja interacción entre un objeto vibrante, un medio transmisor (frecuentemente el aire), el oído, y el cerebro. Para que la vibración sea audible para un ser humano, este objeto debe oscilar aproximadamente entre 20 y 20.000 veces por segundo. Al oscilar, el objeto desplaza el aire que lo rodea, comprimiendo y descomprimiendo periódicamente las moléculas que lo integran, y modificando por consiguiente la presión del aire de forma periódica. Dado que las moléculas desplazadas van empujando a las contiguas, la variación periódica de la presión se propaga originando lo que recibe el nombre de ondas sonoras. Cuando las ondas llegan al oído, el cerebro interpreta estas variaciones de presión como sonido. Si la presión del aire que circunda el oído se mantiene constante, no oímos nada, u “oímos el silencio”.

Las ondas sonoras se propagan en el espacio, formando invisibles esferas centradas en el objeto que oscila. Conforme aumenta la distancia al origen y el radio de estas ondas, aumenta también el volumen y la masa de aire que éstas deben desplazar, por lo que las oscilaciones se hacen cada vez más débiles (la presión del aire varía cada vez menos, aunque siga haciéndolo con la misma frecuencia) hasta que, a una cierta distancia, se tornan imperceptibles.

Este principio es válido independientemente del objeto oscilador, que puede ser por ejemplo una cuerda (guitarras, violines, pianos, cuerdas vocales, etc.), una columna de aire semicerrada y excitada por una caña o una boquilla (saxofones, flautas, trompetas, órganos, etc.), una pieza de madera, metal, piel, piedra, etc. golpeada (percusiones), o un cono de papel (altavoces). En muchos casos, los objetos que entran en vibración son en realidad varios, como es el caso de la guitarra (o de la voz) donde lo que oímos es la suma de las vibraciones de las cuerdas y de la caja.

Asimismo, cuando estas ondas encuentran un obstáculo, parte de las moléculas que las componen son absorbidas por el material, mientras que las restantes son reflejadas. Este fenómeno origina que en la mayoría de los casos, lo que nos llega al oído sea una suma del sonido directo combinado con múltiples reflexiones de este sonido, ligeramente retardadas.

El tiempo de estos retardos será proporcional a la distancia adicional recorrida, teniendo en cuenta que la velocidad del sonido en el aire, es de aproximadamente 344 m/s.

Programa

UNIVERSIDAD DE CALDAS
FACULTAD DE ARTES Y HUMANIDADES
PROGRAMA DE MUSICA

DEPARTAMENTO DE MUSICA



Justificación:

El uso y manipulación del material sonoro no es solo una posibilidad que se da gracias a los descubrimientos y avances teóricos y tecnológicos, sino una necesidad imperiosa en el ámbito musical contemporáneo, ya que el sonido hoy por hoy se ha convertido en un material tímbrico, un instrumento, un generador de armonías y un posibilitador de genero, convirtiéndose el conocimiento básico de la acústica en un generador y posibilitador de la expresión musical actual.

Objetivos:

•Comprender y aplicar las teorías que definen el comportamiento del material sonoro.


•Explorar el medio sonoro a partir de la manipulación tecnológica digital.

•Estudiar la relación hombre – espacio – sonido desde el punto de vista perceptual.

Temáticas contenido general:

Semana 1: Presentación del curso.

Semana 2: Generalidades sobre el sonido
Que es el sonido, formación de ondas sonoras, representación, altura intensidad y timbre.

Semana 3: Generalidades sobre el oído
Detalles fisiológicos, sensibilidad del oído, percepción sonora.

Semana 4: Acústica Básica
Taller sonoro.

Tarea 1 acústica conceptos básicos

Semana 5: Audición
Formas musicales acusmáticas.

Semana 6: Fenómenos auditivos
Hass, Eco, reverberación.

Semana 7: Fenómenos acústicos
Filtros y transformaciones.

Semana 8: Fenómenos acústicos II
Amplitud y frecuencia.

Semana 9: Fenómenos acústicos y simulación de espacios
Tarea 2 Simulación y tabla comparativa.

Semana 10: Inicios de la música electroacústica.

Semana 11: Audición.
Espacialización Sonora.

Semana 12: Herramientas de edición y mezcla
Taller de edición no lineal.


Semana 13: Herramientas de edición y mezcla
Taller de edición no lineal.

Semana 14: Edición y mezcla
Taller de edición acústica.

Semana 15: Paisaje sonoro
Tarea 3 Adecuación acústica y espacialización.

Metodología:

Conferencias y charlas teóricas.
Talleres prácticos de manipulación de software.
Realización de proyectos sonoros.
Apreciación sonora.

Evaluación:


Talleres % 15
Tareas r
ápidas % 15

Tarea 1 % 15
Tarea 2 % 25
Tarea 3 % 30


Bibliografía básica:

Pierce, John R. Los sonidos de la música, Biblioteca Scientific American, Barcelona: Ediciones Labor, 1985.
Pavon Sarrelangue, Raul. La Electrónica en la Música y en el Arte. México: Ediciones CENIDIM, 1981.
Jordà, Sergi. Guía Monográfica del Audio Digital y MIDI, Madrid: Ediciones Anaya Multimedia, 1997.