Mostrando entradas con la etiqueta Ciencia. Mostrar todas las entradas
Mostrando entradas con la etiqueta Ciencia. Mostrar todas las entradas

viernes, 27 de diciembre de 2013

El principio de ventaja acumulativa



El principio de ventaja acumulativa enuncia que una vez que un agente o individuo consigue una pequeña ventaja sobre el resto de la población ésta tenderá a acumularse a lo largo del tiempo, mejorando así la situación del agente según la métrica que define esta ventaja. Este principio se resume bien mediante expresiones como "los ricos cada vez se vuelven más ricos", "el éxito engendra éxito" o si tomamos un tono más bíblico, el denominado principio de Mateo:
(...) al que más tiene más se le dará, y al que menos tiene, se le quitará para dárselo al que más tiene.
Enunciado de manera formal por Robert K. Merton a finales de los años sesenta, surgió como un modelo que describía cómo los científicos que al comienzo de sus carreras obtenían más publicaciones, conseguían, ya con sus carreras más avanzadas, un mayor éxito respecto al de sus colegas.

El principio de ventaja acumulativa fundamenta la desigualdad en la vida diaria. Partamos de una situación inicial en la que todos los sujetos son iguales, digamos que nos encontramos en un aula de primer curso en un colegio. Por el motivo que sea, el maestro trata de manera diferente a ciertos alumnos, ya sea beneficiándolos o perjudicándolos. Pese a que no suceda en todos los casos, aquellos alumnos que cuentan con el favor del maestro conseguirán mejores notas que aquellos que no cuentan con esta ventaja. Estas notas pueden llevar a que otros docentes también les tengan estima, mejorando su condición. Desgraciadamente, la situación contraria también se da: aquellos a los que se les tiene "manía" muy pocas veces llegan a alcanzar a aquellos que cuentan con el favor del maestro. No estoy diciendo que ésta sea la única variable que afecte al rendimiento escolar, pero pequeñas diferencias al inicio, como pueden ser el entorno familiar o académico cuando se es niño, reducen las oportunidades de alcanzar las metas en comparación con otros individuos que han tenido un comienzo más favorable. Es por eso por lo que esta situación de éxito o fracaso se autoperpetúa, ya que las generaciones posteriores heredarán parte de esta ventaja o desventaja inicial, siendo muy dificil frenar el ciclo.

Esta situación no sólo afecta a los primeros años de vida, sino que se refuerza cada vez que empezamos una nueva etapa. Por ejemplo, la obtención de un mejor primer empleo lleva a que se obtenga un mejor segundo trabajo y así sucesivamente. Dos personas muy similares, por puro azar pueden conseguir trabajos iniciales ligeramente diferentes, lo cual puede puede conllevar a que con el paso de los años uno de las personas esté en una situación mucho mejor que la otra, ya no sólo por azar inicial sino porque la secuencia de empleos le ha llevado a desarrollarse como mejor profesional, autoperpetuando esta situación inicial favorable. En marketing también se da esta situación y recibe el nombre de ventaja del primer movimiento ( first-mover advantage ) la cual explica cómo en ciertos nichos de mercado sin ocupar el que obtiene la ventaja es aquel que efectúa el primer movimiento respecto. Es siempre el mismo proceso: una ventaja inicial conlleva una leve mejora respecto al resto, inicialmente en un sólo aspecto pero termina afectando por completo al agente. Si retomamos el ejemplo de la situación laboral, quién consiguió el primer mejor trabajo puede que sea un mejor profesional al cabo de los años (lo cual puede verse como una mejora en el desarrollo cognitivo), pero también tendrá más dinero (mejora económica) y, tal y como están las cosas ahora mismo, podrá disponer de una mejor cobertura sanitaria ( mejora en la salud ). 

Lo interesante es que la idea subyacente a este proceso es sencilla de simular por ordenador. Imaginemos una situación en la que tenemos una red de conexiones entre personas. Al comienzo la población es pequeña y todos se conocen entre sí, pero poco a poco introducimos nuevos individuos que se conectan a los ya presentes. La probabilidad de que un nuevo individuo se conecte a uno ya existente es proporcional al número de conexiones que ésta posee. Hemos dicho que inicialmente todos tienen las mismas conexiones, por lo que todos tienen la misma probabilidad de recibir un nuevo enlace. El video bajo estas líneas es la respuesta a esta situación: conforme pasa el tiempo los que inicialmente tuvieron la suerte de conseguir más enlaces se hacen cada vez más fuertes. Os recomiendo también que echéis un vistazo a este enlace en el que existe una versión interactiva del mismo proceso que se ve en el vídeo inferior.


Al final de lo que se dispone es de lo que se llama una distribución acorde a la ley de potencias. Lo que se traduce en términos comunes en que "hay muy pocos que tienen mucho y muchos que tienen poco". En la figura inferior se puede ver cual sería la distribución del número de enlaces (eje y) respecto al número de individuos (eje x) en una situación similar a la que veíamos en el video. Muy pocos (hacia la izquierda) poseen la mayor parte del area de la gráfica, mientras que existen muchos (hacia la derecha) que disponen de muy poco.

Ley de potencias / Wikipedia
Aunque parezca un problema de juguete, nunca ha de olvidarse que sólo basta una pequeña diferencia producida por el azar en el comienzo de cada etapa de la vida de una persona para que el desarrollo de ésta se vea cambiado por completo.


Pepe "Puertas de Acero" Pérez

viernes, 13 de diciembre de 2013

El espectro de la sexualidad



Estimados lectores, he de disculparme por mi ausencia durante más de un mes. El motivo ha sido simple, hace tiempo se me ofreció una internship en una compañía de desarrollo de software asentada en Nueva Amsterdam York. Durante este mes y pico he estado en periodo de adaptación y me ha sido imposible por completo postear en Mente Enjambre. Espero que a partir de ahora la tendencia cambie y pueda volver a contribuir con la misma frecuencia que antes de mi viaje. Es más, tengo pensado contar algunas de mis experiencias en la Gran Manzana en otros posts, de cara a que algún lector de este blog pueda tener un comienzo más fácil en estas tierras tan lejanas.

Esta semana voy a hablar, como el propio título indica, sobre la existencia de un espectro en la orientación sexual del ser humano. O lo que es lo mismo, ésta no se limita a ser heterosexual, homosexual o bisexual, sino que hay un continuo de posibilidades entre la atracción únicamente por personas de nuestro mismo sexo hasta la completa y sola inclinación hacia personas del sexo opuesto. Esta visión unidimensional de la sexualidad tiene su origen en el trabajo realizado por Alfred Kinsey en 1948, en el cual establece seis posibles niveles, que parten desde un escenario de heterosexualidad exclusiva hasta una situación en la que el individuo se define como totalmente homosexual.
Los seis valores de la escala de Kinsey / Wikipedia
Este planteamiento, pese a suponer un avance para la época en materia de apertura de la concepción de la sexualidad humana, no esta en absoluto falto de errores. El principal motivo es el origen de esta escala, basada en los denominados Kinsey Reports, que el propio Alfred Kinsey compuso a partir de una muestra de hombres y mujeres. Este informe era completamente subjetivo, ya que se basaba en una serie de preguntas llevadas a cabo de manera personal a lo largo de una entrevista. Estas cuestiones presentadas a los entrevistados se centraban en el número de historias sexuales que el individuo había llevado a cabo con personas de su mismo sexo o con el opuesto. Los datos fueron analizados y de ahí surgió esta división de la orientación sexual. 

Pese al avance supuesto, no se puede definir la sexualidad humana simplemente fijándose en el número de interacciones homosexuales o heterosexuales. Además de que la naturaleza de las interacciones es ya de por sí compleja de definir. ¿Cuenta lo mismo en términos de experiencia sexual sentirse atraído por la belleza de otro individuo que desear copular con él?. Aún considerando todas las interacciones como equivalentes, esta escala sólo podría servir para definir la orientación sexual, pero éso es sólo la punta del iceberg de la identidad sexual humana. La personalidad sexual requiere tener en cuenta dos componentes adicionales: el sexo biológico y la identidad de género, que expresado de manera breve comprende cómo percibimos nosotros mismos nuestro propio género. En concreto este último apartado es complejo de medir y viene influenciado enormemente por el entorno en el que vivimos.

La escala de Kinsey, pese a ser una formulación antigua nos recuerda un fenómeno muy habitual en la naturaleza: no todo es blanco o negro. Siempre hay matices entre los extremos.

Pepe "Puertas de Acero" Pérez

sábado, 19 de octubre de 2013

Técnicas bioinspiradas I : Algoritmos Genéticos



Esta entrada es la primera de una serie que pretende ilustrar cómo el funcionamiento de los sistemas biológicos ha influido en el desarrollo de técnicas en el mundo de la informática. Para empezar, he escogido aquella que más me llama la atención, los llamados algoritmos genéticos, que imitan el proceso de selección natural para resolver problemas de optimización. 

Pero, Puertas de Acero ¿qué demonios es un problema de optimización? En palabras llanas, optimizar es buscar la mejor manera de llevar a cabo una actividad. Cualquier actividad está, a no ser que ya se desempeñe de manera óptima, sujeta a ser optimizada. Poniendo un ejemplo concreto, un problema típico de optimización sería encontrar la ruta que pase por todas las ciudades de un país y retornase al lugar de origen, pero intentando minimizar la distancia recorrida. En este problema se dispone de una solución que es el orden en el que se recorrieron las ciudades y la calidad de ésta depende de la distancia recorrida, que es precisamente lo que se desea optimizar (en este caso minimizar).

Los algoritmos genéticos lo que proponen es una manera general de obtener una solución de gran calidad para un problema dado. Como hablar de manera abstracta de este tema puede ser algo lioso, veremos como un algoritmo genético es capaz de resolver un problema de juguete. La situación es la siguiente: imaginemos que deseamos realizar la compra en el supermercado y queremos llenar el carro con alimentos que posean la mayor cantidad de calorías, pero al menor precio. Para hacer más sencilla la explicación imaginemos que el carro que empleamos tiene una capacidad máxima de seis artículos. Como lo que deseamos optimizar es el precio (minimizar) y las calorias (maximizar) podemos también suponer que los artículos del supermercado disponen de esos dos atributos.

A continuación, puede verse una lista de seis artículos del supermercado. Cada uno de ellos posee un identificador numérico, un nombre, precio, calorías y "lo bueno" que es, lo cual viene dado el cociente o ratio entre las calorías y el precio. Precisamente lo que deseamos conseguir es un carro de la compra cuyos artículos maximicen la suma de este cociente para cada artículo.

Identificador Nombre Precio Calorías f
0 Pescado 7 500 71
1 Arroz 1 300 300
2 Pan 0.6 380 633
3 Patatas 1 500 500
4 Aceite 3 800 266
5 Pollo 5 665 133
6 Agua 2 0 0

Un algoritmo genético basa su comportamiento en la evolución de poblaciones. Una población es un conjunto de individuos que codifican una determinada solución. En nuestro caso, un individuo se compondría de un cromosoma con seis genes. Cada uno de los genes indica el artículo seleccionado de la lista de la compra. Por ejemplo, un carro de la compra que contuviese arroz, pan, patatas, aceite, pollo y agua se representaría de la siguiente manera:


El valor de idoneidad (F) de este individuo vendría dado por la suma de lo bueno que son cada uno de sus elementos, es decir, la suma de los f de cada uno de los artículos que lo componen. Reitero, F indica lo bueno que es el individuo y que f es lo bueno que es cada artículo.

Al comienzo del algoritmo, la primera generación de individuos está compuesta por N individuos creados de manera aleatoria. Cada uno de ellos, al igual que el ejemplo anterior dispone de un F, cuyo valor depende directamente de los artículos que contiene. Algunos contendrán artículos mejores y otros peores, pero la idea es que existe una manera objetiva de saber cómo de adaptados están a nuestros criterios.

Una vez se dispone de una población inicial, el algoritmo pasa por cuatro fases. En primer lugar se encuentra la fase de selección, en la que se escogen aquellos individuos que son mejores (en función de su F). Por lo general, aquellos que mejor adaptados se encuentren tendrán más posibilidades de ser seleccionados, pero siempre se deja la posibilidad de que algunos de los menos aptos tengan oportunidades de continuar.

Una vez concluida la selección de individuos se procede a su cruce. Esta fase puede realizarse de varias maneras, pero basta con decir que no todos los individuos tienen derecho a reproducirse (como la vida misma, oiga) y que los detalles no son en absoluto eróticos, sino que consiste en partir el cromosoma por la mitad e intercambiar las dos dos partes resultantes para producir dos individuos. Abajo puede verse como dos carros de la compra se cruzan para producir otros dos diferentes. La fase de cruce tiene como objetivo obtener una descendencia mejor que la de la generación actual, partiendo de la base de que los individuos seleccionados son ya buenos de por sí.

Se define un punto de corte y se intercambian las mitades.
Después, se llega a la fase de mutación, que consiste en cambiar algunos de los genes (en este caso son artículos de la compra) aleatoriamente por otros. Como en la naturaleza, las mutaciones pueden ser perjudiciales (el individuo ve su F disminuida), neutras (F no cambia) o beneficiosas, en el caso en el que la idoneidad incremente. Es preciso mencionar que la mutación, al igual que el cruce viene determinado por una probabilidad, la cual debido al carácter totalmente aleatorio de la operación, es mucho más baja que en el cruce. Abajo puede verse como el agua (código 6) se ve transformado en pescado (código 0), lo cual hace que su valor de F incremente, ya que como veíamos anteriormente en la tabla, el agua tenía un f de cero, mientras que el pescado, si bien es baja, no es nula.

Mejora producida por una mutación aleatoria.
Finalmente, si el número de individuos seleccionados es menor que los N iniciales, lo cual suele suceder a menudo, se introducen nuevos generados aleatoriamente.

Cada secuencia de selección, cruce, mutación y reemplazo constituye una generación de la población. Algunos individuos se adaptarán mejor, mientras que otros serán reemplazados por nuevos individuos aleatorios, que pasaran a pelear para ser seleccionados y poder pasar a la siguiente generación. Lo importante es que el funcionamiento es siempre el mismo, mientras se pueda calcular el valor F de cada individuo. La técnica funciona perfectamente imitando de una manera más simple, el mismo proceso evolutivo que nos ha llevado a donde estamos.

Los algoritmos genéticos pueden emplearse para problemas de planificación de cualquier tipo (transportes, fábricas, etc), así como para el diseño de componentes electrónicos. Además pueden ser empleados para componer música. La idea principal es que la propia canción entera puede evaluarse según criterios de armonía, por lo que toda la maquinaria de selección, cruce, mutación y reemplazo es aplicable. Os dejo con este enlace en el que podéis escuchar algún temita.

Pepe "Puertas de acero" Pérez

viernes, 5 de julio de 2013

La amnesia infantil



Primero, me gustaría disculparme por mi ausencia estas dos semanas. He estado muy liado acabando el máster que estoy haciendo y me ha sido completamente imposible pasarme por aquí. Tengo que darle las gracias a mis compañeros de Mente Enjambre por su infinita paciencia y comprensión. Pero bueno, lo importante es que este viernes de julio he vuelto, es hora de que os cuente una curiosidad sobre la  amnesia infantil.

Seguro que alguna vez os habéis preguntado por qué tenéis muy pocos recuerdos de cuando érais muy pequeños. Probablemente vuestros primeros recuerdos se remonten a cuando tuviérais 4 ó 5 años, pero son muy pocos aquellos que se acuerdan de cosas que les han pasado sobre los 2 o 3 años. Yo por ejemplo, la experiencia más antigua que guardo en mi cabeza fue el cumpleaños de una niña que había en mi clase de primero de preescolar, momento en el cual yo tenía sólo 4 años.

La explicación más reciente a este fenómeno afirma que es debido a que el hipocampo, que es la región encargada de archivar las experiencias recientes en la memoria a largo plazo, crece de una manera muy rápida durante los primeros años de vida. El hipocampo es el encargado de mantener ordenado nuestro almacén de recuerdos. 

Esta región de nuestro cerebro es como un archivador enorme donde en cada una de sus páginas se indica en qué lugar está almacenado nuestro recuerdo. Lo que pasa en el cerebro de un niño muy pequeño es que cada día hay un caos, el archivador se hace más grande, las anillas se sueltan y las páginas se desprenden de él, olvidando dónde ha dejado el recuerdo, pero no el recuerdo en sí.  

Volviendo al mundo real, esta maduración se traduce en que hay más neuronas, pero las antiguas no son capaces de restablecer los enlaces a los recuerdos antiguos. Esto no quiere decir que los niños pequeños sean incapaces de recordar, sino que sus recuerdos están condenados a desaparecer conforme su hipocampo madura con el tiempo. 

Todo esto ha sido demostrado con ratones, cuyos bebés también exhiben una maduración del hipocampo tras su nacimiento. Se ha visto que son capaces de encontrar el camino de salida de un laberinto pero que, a los tres días, se olvidan de la solución que han encontrado. Sin embargo, si se le administra una sustancia que ralentiza el ritmo al cual se desarrollan las neuronas, son capaces de almacenar la salida del laberinto en su memoria a largo plazo.

Quién sabe, tal vez vuestros recuerdos no se hayan perdido, sino que tal vez sigan por ahí. ¿Cuál es la primera experiencia que recordáis?

Pepe "Puertas de acero" Pérez


viernes, 21 de junio de 2013

Comparativa entre las formas de supervivencia de arboles y marcas de cerveza.


Aplicando conceptos económicos se puede explicar prácticamente cualquier fenómeno posible. Normalmente se aclaran comportamientos que supusieron la ruina social y humanitaria en un momento dado, explicando también lo que se tenía que haber hecho para evitarlos. Y aunque, jamás, jamás, jamás, se podrá aplicar la economía para evitar una crisis futura de vez en cuando sirven para hacer vídeos interesantes; como el de esta semana: ¿como hacen las cervezas para sobrevivir? ¿y los árboles?. 



viernes, 14 de junio de 2013

Vehículos de Braitenberg

Tal vez, mis queridos lectores, os habreís dado cuenta de que parezco tener dos obsesiones a la hora de escribir en este blog. La primera de ellas es que me encanta hablar de geometría de andar por casa (por si no lo sabiaís, echadle un ojo a esta entrada o bien a ésta). Además, la otra obsesión que me traiciona hoy es hablar acerca de como sistemas simples pueden exhibir comportamientos complejos (véase este post o éste). Esta semana os voy a hablar sobre los vehículos de Braitenberg, un concepto que nos explica como algunos seres pueden demostrar un movimiento complejo, sin necesidad de inteligencia alguna.

Valentino Braitenberg (1926-2011) era un neurocientífico y cibernético italo-austríaco, del cual toman el nombre una serie de vehículos que poseen una conexión directa entre los sensores y sus propios motores. Es decir, no existe ningún tipo de memoria, por lo que no son capaces de razonar en base al pasado, por lo que toda la conducta se realiza en función de lo que perciben en el presente. Lo interesante es que a pesar de la simplicidad de su comportamiento, el cual se basa en acción y reacción, este tipo de vehículos son capaces de moverse de manera compleja.
¿Se os ocurre algún animal que sea un vehículo de Braitenberg? Estamos buscando un ser vivo que sólo reaccione ante estímulos inmediatos, pero a pesar de ser incapaz de aprender de ellos, es capaz de sobrevivir y reproducirse. En la naturaleza, podría considerarse a una cucaracha como un vehículo de este tipo. Carece de memoria, pero es capaz de percibir su entorno y desplazarse hacia ciertos objetivos, como por ejemplo, buscar comida y apareamiento. Si se me permite la simplificación, una cucaracha percibe comida y se acerca a ella, pero si percibe un cucharacho se acercaría a este último.

Un buen ejemplo de vehículo de Braitenberg creado por el hombre es el el robot de limpieza Roomba. Es una máquina que ha sido diseñada para aspirar la suciedad presente en el suelo de una casa. Dispone de un aspirador en su base y consigue su propósito cuando es capaz de cubrir la mayor superficie posible. Si se me permite un momento de teletienda, el vídeo que muestro a continuación muestra su uso:


El robot es estúpido, sólo percibe cuando se choca (sensor), en cuyo caso rebota en una dirección distinta a la que empleaba. Para esto no le hace falta memoria, sólo definir una trayectoria opuesta a la actual.
Por lo tanto carece de cualquier mecanismo de razonamiento, pero eso no le impide exhibir movimientos complejos, que nunca esperaríamos de una máquina tan estúpida. Un ejemplo de las trayectorias que sigue esta máquina pueden verse en la imagen inferior.

IBR Roomba Swarm in the Dark V

IBR Roomba Swarm in the Dark V / IBRoomba

La próxima vez que os crucéis con una cucaracha  recordad, son la inspiración para dispositivos, que pese a ser sencillos, pueden mejorar nuestras vidas.

Pepe "Puertas de Acero" Pérez

domingo, 9 de junio de 2013

Acople, realimentación o efecto Larsen entre micrófonos y altavoces


Sombríos son estos tiempos en los que el trabajo no abunda y además los que disfrutan de sus sueldos son trabajadores no cualificados. ¿Cuántas veces nos ha pasado el estar en una fiesta y que el sonidista de turno nos jodiera un bonito discurso, una gran actuación, un recital, un baile o incluso la propia música pinchada? Hoy os quiero explicar un error muy común en el mundo del sonido que parece ser que solo los ingenieros saben solucionar, pero que puede ser muy fácil para cualquier persona medianamente entendida. Estos trucos valen tanto para los que se hacen pasar por técnicos de sonido como para los oyentes que quieran vapulear/aconsejar a estos farsantes.

Hablaremos hoy del acople de un micrófono con un altavoz. Seguro que recordais incrustarse ese pitido que a veces suena en los conciertos, algo como esto:


(feedback de las pastillas de una guitarra)

Este desagradable sonido se produce por el efecto de realimentación (feedback en inglés) o retroalimentación o efecto Larsen, llamado así por su descubridor. El término realimentación se define como un proceso en el cual la información del pasado influye en un mismo fenómeno en el presente o el futuro. Este término abarca muchas disciplinas, tanto electrónicas, físicas, biológicas, como psicológicas. En todas subyace el mismo principio. En biología el efecto de realimentación podemos verlo con un manzano y sus manzanas:
El manzano no madura todas las manzanas por igual, pero cuando nosotros o las aves van a coger las manzanas sabemos que todas tienen un nivel de maduración similiar. ¿Cómo consigue esto el señor manzano? ¿Cómo es capaz de comunicarse con sus manzanas? El hecho de que todas maduren por igual es debido a que una de las manzanas ha madurado antes que las demás. Cuando la fruta está madura despide etileno, este etileno acelera el proceso de maduración de la fruta, si la manzana tiene otras tres manzanas verdes alrededor éstas se verán afectadas por el etileno de la manzana madura; a su vez cada una de esas nuevas manzanas maduras despedirá más etileno que provocará la maduración de las manzanas que tenga a su alrededor. Esto es:
- 1 manzana hace madurar 3 manzanas
- 3 manzanas hacen madurar 9 manzanas
- 9 manzanas hacen madurar 27 manzanas
y así sucesivamente.

Esto es un ejemplo biológico de realimentación positiva. En un ejemplo económico la realimentación serviría como sistema de control de ganancias. Por ejemplo:
Invertimos X dinero en un negocio. En un principio esperamos conseguir unas ganancias de 5000€ y diseñamos un diagrama de bloques con una realimentación que no permite que bajemos de esos 5000€, pero resulta que somos unos magníficos usureros y nuestras ganancias aumentan a 5500€. Ahora nuestra cantidad se renueva hasta los 5500€ siendo el nuevo objetivo. Si el sistema fuera de realimentación negativa y perdiéramos dinero el sistema se reajustaría para volver a llegar a los 5000€ y no seguir perdiendo dinero.
Pero a nosotros nos interesa el electrónico y más concretamente el sonoro. Aunque explicar en un post la realimentación sonora es una utopía, intentaré argüir algunos puntos sobre su funcionamiento para no solo quedarnos en lo más básico.

La realimentación es el efecto de sumar una señal de salida a su propia señal de entrada. Esto es como un sumatorio, entra una señal, atraviesa un determinado proceso, y esa señal procesada vuelve al principio del circuito para sumarse con la señal original, así hasta el infinito o hasta que las condiciones del sistema lo digan. Pero lo vemos más claro con un esquema:

Siendo un poco más técnicos decimos que el bloque sumador es el sumatorio de 'x' y 'z' en el instante 't' en un intervalo de menos inifito (-oo) e infinito (oo) y que además el procesado es una amplificación "A".
Y matemáticamente se obtiene que:

Lo que pasa sobre un escenario es lo siguiente:

  1. Entra la señal 'x' al micrófono. La señal 'x' es la voz del cantante por ejemplo.
  2. Esa señal llega a un circuito amplificador.
  3. Sale de ese circuito amplificador a través de un altavoz. 
  4. La señal amplificada que sale del altavoz se vuelve a introducir en el micrófono.
     :.
     :.
     n.  La señal amplificada junto con la señal de la voz vuelve a ser amplificada y sumada a las anteriores.



Entonces, ¿veis el proceso? Este es básicamente el problema que surge en los conciertos en directo. El problema es que los micrófonos se sitúan en lugares accesibles a los altavoces. Por tanto las señales amplificadas de los altavoces vuelven sin problema al circuito por el micrófono y crean el lazo de realimentación. Gracias a los dioses la realimentación infinita no existe, puesto que hay unos milisegundos de retardo entre que la señal sale de los altavoces y entra al micrófono, si no reventaría todo.

La cuestión es... ¿por qué si suenan baterías, guitarras y voces en vez de escucharlo todo amplificado el sonido que escuchamos es un pitido horrible?

Las razones son varias:
  1. La frecuencia de resonancia en el micrófono, altavoces y el amplificador
  2. La acústica de la sala (dimensiones y modos propios de vibración)
  3. Los patrones de direccionalidad de los micrófonos, altavoces y pastillas
  4. La distancia entre altavoces, micrófonos y pastillas

A - Quedémonos con que las frecuencias de resonancia son esenciales en este efecto. Pero, ¿qué son las frecuencias de resonancia? Se define como aquella frecuencia característica de un cuerpo o un sistema que alcanza el grado máximo de oscilación. En el micrófono caracteriza la membrana del micrófono, en el altavoz al diafragma del altavoz, en una sala a los modos propios. Esto quiere decir que cada uno de ellos tiene una forma natural de vibración en la que la energía es máxima. Veámoslo con el ejemplo de la copa de cristal que se rompe cuando alguien le grita:

- La copa tiene una frecuencia de resonancia concreta, si se excita la copa produciendo esa frecuencia el cristal de la copa vibrará con su máxima energía llegando a romperse. Si se hiciera con otra frecuencia la copa no se rompería.


Amplitud de los armónicos de una señal dividos en frecuencia

Significa esto que habrán ciertas frecuencias que al ser excitadas por los micrófonos y los altavoces entrarán en resonancia.

B - Lo mismo ocurre con los modos propios de una sala. En una sala se crean ondas estacionarias que son nada más y nada menos que las frecuencias de resonancia de la propia sala. Esto significa que si un grupo musical toca, entre otras, las frecuencias de resonancia de la sala, ésta amplificará dichas frecuencias.

C - La direccionalidad de un micrófono se conoce por su patrón polar. Un patrón polar indica a qué ángulos la excitación que se le aplica el micrófono es más efectiva. Por ejemplo, un micrófono con patrón polar omnidireccional reacciona a una excitación por igual en todos sus ángulos. Sin embargo uno con un patrón direccional más cerrado, como puede ser un hipercardiode, empezará a atenuar a partir de los 30º respecto de la perpendicular de la membrana.

Con esto podemos deducir que si el micro que se usa en un concierto tiene un patrón polar muy amplio, es muy sensible y además apunta en su grado cero a los bafles, la excitación será máxima y el acople también.

D - La presión del sonido cae 1/d en campo libre y la densidad espectral de potencia 1/d^2 en campo cerrado donde 'd' es la distancia del transductor acústico activo al pasivo. Por tanto tendremos que alejarlos tanto como podamos.


Dicho esto analicemos el problema. La ganancia de un sistema retroalimentado es:


Pero como cada vez la ganancia de la señal que entra es mayor la función de la ganancia será exponencial.
Ahora bien, las frecuencias de resonancia como sabemos tienen más energía que el resto y si crecen exponencialmente, su amplitud en unas pocas iteraciones será mucho mayor que el resto. La realimentación positiva e "infinita" de las frecuencias de resonancia de micros, altavoces y sala son las que producen esos tonos y pitidos tan molestos puesto que los sistemas sonoros radian más frecuencias altas y medias que bajas y con mayor energía.

FORMAS DE SOLUCIONARLO

Como conocemos el problema podemos dar una solución. Estas son algunas de las soluciones que ofrecen en la web de Arte Sonoro:

1- Usar micrófonos muy direccionales. Esto favorece la movilidad del micrófono respecto de los altavoces.
2- Evitar preamplificar demasiado la señal de los micrófonos.
3- Evitar orientar la parte más sensible del micrófono contra los altavoces y monitores. Normalmente a partir de los 135º y 225º, pues por la parte trasera no se recoge sonido a no ser que el micro sea omnidireccional o bidireccional.
4- Ecualizar la sala. Las frecuencias de resonancia de una sala no se pueden eliminar, pero lo que sí se puede hacer es atenuarlas. Para ello debes analizar espectralmente la sala haciéndola resonar para así averiguar sus modos propios y atenuarlos.
5- Los bafles SIEMPRE deben quedar por delante de los micrófonos.
6- Los monitores son los bafles que usan los músicos para oirse durante los conciertos. Estos pueden apuntar hacia los micrófonos y realimentarlos, por lo que se aconseja hacer un monitoraje vía "earphones" (auriculares que se colocan dentro del oído)
7- Utilizar controladores de realimentación. Aunque estos aparatos son la opción más cara.

Otro truco menos usual, pero también usado por algunos técnicos de sonido es introducir un retardo de algunos milisegundos para limitar el efecto de la realimentación puesto que las frecuencias no inciden unas sobre otras sino que se encuentran separadas en el tiempo.

Espero que en vuestros futuros conciertos os sirva.


Por Conde Chócula (Aresti)

Fuentes:
Arte Sonoro
http://en.wikipedia.org/wiki/Audio_feedback
Circuitos microelectrónicos

viernes, 7 de junio de 2013

Hubble, el telescopio que fue miope

Tormenta perfecta de gases turbulentos en la nebulosa del cisne / NASAESA y J. Hester (ASU)

Corría el año 1990, el muro de Berlín ya formaba parte de la historia, Felipe González lo petaba en España y la agencia espacial europea y la NASA decidieron, sin prestar ninguna atención a los hechos anteriores, lanzar el que hasta la fecha de hoy es uno de los satélites más famoso de la historia. Queridos lectores, estoy hablando del telescopio Hubble, una máquina que fue diseñada para mirar las estrellas.

El telescopio Hubble sigue operativo (y lo que le queda) en la órbita baja de la Tierra. Siendo capaz de captar la luz en distintos espectros ha supuesto no sólo un gran avance en el ámbito científico, sino también en la divulgación de la astronomía. Probablemente la mayoría de fotos que hayáis visto del espacio las ha tomado el Hubble. Curiosamente, cualquiera es, en teoría, capaz de hacer uso del telescopio. Esto no quiere decir que mañana lo pida y al mes lo tenga, pero no hay restricciones ni de tipo académico ni gubernamental. Todo es cuestión de ponerse a la cola.

A todos nos encanta el Hubble, pero no todos sabíamos que su lanzamiento fue ensombrecido por una catástrofe: la criatura era miope. Para el que no lo sepa, la miopía es una enfermedad que se caracteriza porque la imagen situada en el infinito (el punto a partir del cual el ojo deja de medir las distancias) se proyecta por delante de la retina, en lugar de sobre ella, como debería ser. Por eso los miopes ven bien de cerca y mal de lejos, porque las imágenes lejanas no se proyectan donde deben, ocasionando una percepción borrosa. Una persona con miopía puede apañárselas únicamente viendo de cerca o poniéndose algún tipo de lente correctora.

El problema al que se enfrentaba el Hubble es que su enfoque siempre era lejano, hacia las estrellas, y seamos sinceros, es bastante complicado ponerle gafas a un telescopio a 600km sobre la superficie de la Tierra. En concreto, la afección de nuestro querido telescopio se debía a que uno de los espejos que empleaba su mecanismo se encontraba mal pulido. Lo que sucedió es que el espejo era 2.2 micrómetros más plano en relación a como debía ser (vamos, nada). Pese a todo esto, durante los primeros tres años de su misión, pudo tomar fotos de objetivos menos importantes. Algunas técnicas de procesado de imagen ayudaron, ya que se conocía exactamente el error presente.

Cúmulo de la galaxia Abell / NASAESA, CFHT, CXO, M.J. Jee (University of California, Davis) y A. Mahdavi (San Francisco State University)

En 1993 fue reparado y ahí sigue, mirando hacia el infinito. Esta no fue la única reparación que necesitó, pero sin duda es la más importante, ya que es un claro ejemplo de las implicaciones que tienen los pequeños detalles cuando se construye algo tan grande y valioso.

Pepe "Puertas de acero" Pérez

viernes, 17 de mayo de 2013

Lo humano del cerebro

El cerebro es como un gran director de orquesta.


Todos los días pienso que no somos más que monos evolucionados y me frustro al pensar cómo la evolución nos ha llevado a la situación en la que estamos. Desde que comenzamos a caminar sobre dos piernas, desde que descubrimos el fuego y desarrollamos sociedades complejas, no hemos dejado de arrasar y cambiar todo lo que nos rodea. Me planteo entonces la pregunta siguiente ¿qué parte de nuestro cerebro ha hecho que lleguemos a donde nos encontramos?

Las distintas áreas de la corteza cerebral.
Desde un punto de vista filogenético, e incluso desde la perspectiva del desarrollo humano, la respuesta es clara. El lóbulo frontal es el área cuya evolución es más reciente y la que más tarda en alcanzar la madurez tras el nacimiento del individuo. A la izquierda podemos ver qué posición ocupa esta región, respecto al resto de áreas de la corteza cerebral. Por lo tanto, si tuviéramos que ubicar el lóbulo frontal en la cara de una persona, éste se encontraría tras sus ojos y se extendería por toda la frente. En cualquier caso, el tamaño de la frente de una persona no influye en el volumen de esta región. Las ideas sobre óomo la anatomía de la cabeza influyen sobre el carácter han sido desechadas, no estamos en el siglo XIX.

Pese a todo esto, la presencia de este área no es única al ser humano. Esta región del encéfalo es común a todos los homínidos, incluyendo, por supuesto, a los primates. Curiosamente el tamaño (comparado con el volumen del resto del cerebro) no es excesivamente mayor en el caso de los humanos. De hecho, el tamaño  del lóbulo frontal en los grandes simios es similar al del humano. Por lo tanto, no es el tamaño del área lo que nos diferencia de nuestros parientes, sino cómo las conexiones entre neuronas han evolucionado para desarrollar las funciones que veremos a continuación.

El lóbulo frontal, en general, juega el papel principal en las denominadas funciones ejecutivas. Este término es empleado para describir aquellos procesos cognitivos que regulan y manejan otros procesos cognitivos. Dejando atrás toda esta parafernalia, las funciones ejecutivas regulan aquellas acciones que controlan como entendemos y llevamos a cabo otras acciones. Por ejemplo, una función ejecutiva sería prepararse la comida. La tarea requiere el uso de otras funciones (motora, visual), pero es la planificación la que gestiona la orquestación del resto de funciones. En general, una función es ejecutiva si cumple alguno de los siguientes puntos:
  • Involucra planificación o toma de decisiones.
  • Requiere de corrección de errores o resolución de problemas.
  • Aquellas situaciones donde no se tiene ensayado de antemano lo que va a suceder.
  • Escenarios en los que hay que vencer una tentación o predisposición a un hábito muy fuerte.
La consecución de un objetivo a largo plazo, la corrección de errores en un texto, la capacidad de improvisar y el control de los impulsos, serían, en orden, ejemplos de todas esas categorías. De hecho, la capacidad de improvisar es un reflejo de creatividad, característica del ser humano de la que se encarga en gran medida el lóbulo frontal. El control de los impulsos recae también sobre este área. De hecho, la evolución de esta capacidad va de la mano de la maduración de esta región hasta la adolescencia. Los niños tienden a no ser capaces de controlar sus emociones e impulsos, mientras que los adultos sí. Esto es debido a que el lóbulo frontal comienza en un estado inmaduro y tarda un tiempo enorme en alcanzar su apogeo. 

Phineas Gage con la barra que le lesionó.
Todo esto está muy bien, pero ¿qué sucede cuando el lóbulo frontal está dañado?. Os presento a nuestro amigo, Phineas Gage (lo podéis ver a la derecha). Phineas era un capataz de las obras del ferrocarril. Era considerado un hombre eficiente y capaz de realizar su trabajo. Cuando las vías eran desplegadas, era ocasional encontrarse con rocas que entorpecieran el trazado definido. Una de las tareas de Phineas era la de demoler estos obstáculos, usando para ello una barra, la cual se introducía en un agujero hecho en la roca, en el cual previamente se había introducido arena y pólvora. Por desgracia, un día olvidó introducir la arena y dejó la barra en el interior del agujero. El contacto del metal con la pólvora provocó la explosión que lanzó despedida la barra, la cual entró por su ojo y salió por la parte superior del cráneo  afectando de esta forma al hemisferio derecho de su lóbulo frontal.

Por suerte o desgracia, sobrevivió y a los dos meses se le dio el alta médica. El problema es que el hombre que antes era eficiente y formal había desaparecido. Phineas era ahora un hombre soez, irreverente, agresivo e incapaz de llevar a cabo ninguna acción a largo plazo. Nunca volvió a su trabajo anterior y sus posteriores empleos nunca le duraron mucho tiempo. De hecho sus lesiones en la corteza frontal le habían hecho perder sus inhibiciones sociales, lo cual conllevaba un comportamiento inapropiado en público. Sin embargo, su capacidad de razonar y de ejecutar tareas se había visto intacta. Que fuera capaz de persistir y llevarlas a cabo es otro asunto. Las funciones ejecutivas se habían visto afectadas, pero no aquellas que se sometían al control de éstas.

Nuestra humanidad y nuestra identidad no dependen de la existencia de un alma, sino de que ciertos pliegues en una masa esponjosa situada detrás de la frente sean capaces de coordinar nuestras funciones menos complejas.

Pepe "Puertas de acero" Pérez

Referencias

viernes, 19 de abril de 2013

Mi gran amigo Minkowski


El espacio y el tiempo, juntos.


La geometría euclídea (ya sea en dos o tres dimensiones) es una descripción idealizada del espacio que nos rodea, tal y como es percibido por nuestros sentidos. Aún así estos espacios no se limitan a tres dimensiones, ya sea porque el fenómeno a explicar requiere de más componentes o porque es una ficción conveniente representarlo de esta manera (véase el artículo de este mismo blog titulado la maldición de las dimensiones), por lo que estas representaciones que se escapan a la percepción humana no dejan de ser igualmente válidas desde un punto de vista analítico. En este artículo nos centraremos en la geometría de la realidad, incluyendo la dimensión temporal, por lo que hablaremos de resultados que se pueden generalizar fácilmente a cuatro dimensiones. 

Antes de comenzar, debemos asumir los siguientes principios:

  • Cada observador que mencionemos se asume que posee un reloj, el cual se encuentra sincronizado con el resto de relojes.
  • La línea de universo es la trayectoria que un cuerpo sigue a través del espacio-tiempo
  • Emplearemos dos dimensiones espaciales y una temporal. Los resultados se generalizan (pero no se visualizan) fácilmente a tres dimensiones espaciales y una temporal.
  • Nos limitaremos el movimiento uniforme. Los resultados pueden generalizarse a movimientos acelerados, sustituyendo las lineas de universo por curvas de universo.


El espacio-tiempo de Galileo

Esquema del espacio-tiempo galileano / Elaboración propia
Tenemos tres dimensiones espaciales, pero es útil disponer de una cuarta, temporal. Tiene sentido asumir que cada uno de los valores de la dimensión temporal tiene asociada una visión del estado, de la configuración de esas tres dimensiones espaciales. Ése es el significado del espacio-tiempo de Galileo. En cada instante distinto, una partícula, cuerpo puede ocupar, si está en movimiento, una posición distinta, o bien si se da el caso de que permanece en reposo, puede ocupar la misma posición que en el instante anterior.

En la figura de la derecha puede verse un ejemplo de este tipo de geometría. Las líneas azuladas muestran la trayectoria de tres cuerpos. La trayectoria A se corresponde con un cuerpo en reposo, por lo que su línea de universo es paralela al eje temporal. Las trayectorias B y C se desplazan con movimiento uniforme, pero su línea de universo es distinta (la trayectoria). 

Imaginemos que somos el observador A, que convenientemente se encuentra en reposo en el mismo punto durante los tres instantes de tiempo que hemos marcado en el diagrama. Al comienzo, B estará más lejos de nosotros que C, situación que continuará en t=1. Finalmente, en t=2, B será la partícula más cercana.
El movimiento que experimenta cada una de las partículas a lo largo del tiempo es su velocidad y es posible su medida. En este caso concreto podemos asumir que las velocidades de B y C tienen la misma magnitud, pero como se aprecia en el diagrama, la dirección es la contraria (uno se mueve de derecha a izquierda y el otro de izquierda a derecha). Al encontrarse el observador A en reposo, el cómo aprecia el movimiento de B (es decir, su velocidad) será distinta a la que por ejemplo experimenta B respecto de A. Por ejemplo, es totalmente válido que B considere que quien se está acercando a una gran velocidad es A, en lugar del caso contrario.

Aunque no sea ninguna sorpresa, la capacidad de cambiar el sistema de referencia es tipo de relatividad, que ya se conocía en el siglo XVII. Lo interesante es que el paso de un sistema de referencia (originalmente A era la referencia y ahora lo es B) a otro se limitaba a sumas y restas entre los vectores de velocidad, es decir, a efectuar transformaciones rígidas como la traslación y rotación, necesarias para poder centrar el sistema de coordenadas en la partícula que queríamos considerar en reposo. Básicamente el principio de relatividad de Galileo se traduce en que no existe un marco de referencia (origen de coordenadas) mejor que otro, sino más conveniente según el propósito que se quiera analizar.

Como se ha podido ver no hemos mencionado nada sobre el tiempo, que sólo ha sido incluido como un elemento conveniente, muy útil para modelar un sistema dinámico. Las velocidades pueden ser relativas, pero para todos los elementos del sistema el tiempo transcurre de la misma forma, el tiempo es absoluto, por lo que pasa para todos los observadores al mismo ritmo. Además todos los cuerpos se sienten como en una autovía alemana: no tienen límite de velocidad. ¿Por qué debería haberlo? En el siglo XVII bien daba igual que una bola cayese a 80 km/h que a 240 km/h, son velocidades ridículamente lentas. La ciencia moderna prácticamente acababa de nacer, no existían los medios para preocuparse para velocidades realmente elevadas.

En general, esta geometría es válida y se corresponde a la realidad que percibimos con los sentidos. El problema surge cuando los cuerpos se desplazan a grandes velocidades. Es en ese caso cuando este espacio-tiempo comienza a romperse.


El espacio-tiempo de Minkowski

La idea de que la concepción galileana era errónea surgió a partir de los experimentos de Michaelson-Morley, que concluyeron que la velocidad de la luz era exactamente la misma, independientemente del sistema de referencia empleado. La idea principal era que si la fuente de luz se movía en dirección opuesta al aparato de medición, debía sumarse la velocidad relativa que llevaba el aparato en cuestión. Se vio que eso no pasaba, la velocidad de la luz era siempre la misma. Nunca se sumaba ni se restaba nada. 

El cono de luz de Minkowski / Elaboración propia
Hermann Minkowski fue el autor de una nueva geometría en la cual el espacio y el tiempo se encontraban fundidos de manera completa, no como en el caso de la geometría de Galileo. El elemento central de la geometría de Minkowski es el cono de luz que incrusta en la estructura espacio-temporal un límite de velocidad, el de la luz. El cono simboliza la trayectoria más rápida que cualquier partícula puede adquirir. En un extremo, el del reposo, el cuerpo sigue el eje temporal y en el extremo opuesto, cuando la partícula se desplaza a la velocidad de la luz, la trayectoria está en la superficie interna del cono. Cualquier velocidad intermedia se encuentra, por lo tanto, entre el centro del cono y la superficie de éste.

En la figura a la derecha de estas palabras se muestra este cono. Las líneas de universo denominadas  P1 y P2 se encuentran en el borde interno del cono, por lo que se corresponden con fotones, los cuales se desplazan a la velocidad de la luz. La trayectoria denotada mediante una línea discontinua (R) se corresponde a un cuerpo que se desplaza rápidamente, al menos comparado con la línea azul, denotada mediante la letra M. Por ahora, salvo a la imposibilidad física impuesta por el cono, no hay mucha diferencia entre la geometría galileana y la minkowskiana. Pero si la hay, porque esta estructura altera la manera en la que se mide la distancia entre dos sucesos (no puntos, sucesos). Veamos cómo se mide la distancia en la geometría euclidiana (en dos dimensiones) y en la minkowskiana (dos dimensiones espaciales y una temporal).



En el caso de la geometría euclidiana hemos asumido que sólo tiene dos dimensiones, por lo que la expresión indica la distancia entre ese punto (x,z) y el origen. Sin embargo, en el caso de la geometría que da título a esta entrada, t denota  el tiempo experimentado por un observador en reposo, es decir, respecto al sistema de coordenadas (hecho que puede verse en la figura anterior).

El resto de las componentes representan la velocidad a la que se desplaza el cuerpo, relativa eso si, a la velocidad de la luz. Esta ecuación plantea varios escenarios. Si el observador está en reposo respecto al marco de referencia, entonces tanto x como z (junto con y, si lo extendemos a tres dimensiones temporales) serán cero, por lo que la distancia entre dos sucesos será equivalente al tiempo transcurrido desde el punto de vista de un observador en reposo (lógico, porque está en reposo). Sin embargo, conforme la velocidad se acerca a c, los elementos que restan se van haciendo cada vez más grandes, disminuyendo el tiempo percibido, entre los dos sucesos. El extremo opuesto a la situación de reposo sería el caso de una partícula que se desplace a la velocidad de la luz. En este caso s pasaría a valer cero. De esta manera se afirma que, para un fotón, el tiempo no transcurre.  Todavía queda el caso en el que el cuadrado de s es un número negativo. Esto sería equivalente a que estuviera fuera del cono y bueno, eso ya lo veremos en otra entrada. Repito un hecho muy importante, el significado de s es el de tiempo percibido, tiene sentido que ésta sea la distancia porque es una geometría de espacio-tiempo.

Esta manera de medir las distancias en el espacio-tiempo tiene una característica que parece contradecir la intuición. Si tenemos tres puntos, A, B y C, estamos acostumbrados a que la distancia entre dos de ellos, digamos A y B, sea como mucho igual que la suma de las distancias entre A y B junto con la de B y C. Esta expresión es denominada desigualdad triangular y es una propiedad que cumple la geometría euclídea, sin importar el número de dimensiones que la describan. El problema es que la geometría de Minkowski, el triángulo descrito por A, B y C cumple la expresión siguiente:


Esquema de la paradoja
de los gemelos /
Elaboración propia

                         

Expliquemos el significado de (2) con un ejemplo, la archiconocida paradoja de los gemelos. El escenario es el siguiente. Existen dos gemelos, uno de ellos permanece en la Tierra mientras que su hermano se monta en una nave espacial y realiza un viaje a una cierta velocidad, para luego retornar a la tierra. Imaginaremos que el retorno no implica ningún tipo de parada y que la nave sigue una velocidad constante durante todo el trayecto. Existe un suceso, A, el cual es el comienzo del viaje y otro, C, el cual es el retorno del gemelo. El suceso B implica el instante en el espacio-tiempo en el comienza el viaje de vuelta.

Situando el origen de coordenadas en A, podemos afirmar que entre A y C, para un observador en reposo pasan t unidades de tiempo. Sin embargo, entre AC y luego C, B el hermano se desplaza a una cierta velocidad, la cual llamaremos v_m. Ahora combinaremos la definición de s vista en la expresión (1.2), con la relación entre las distancias vista en (2) para ver que, en efecto, el gemelo viajero experimenta menos tiempo. Para ello denotaremos como v_r a la velocidad en reposo, cuyo valor es cero y como v_m a la velocidad en movimiento, cuyo valor no es necesario determinar para afirmar que la desigualdad vista en (2) se cumple en sentido estricto.

A no ser que v_m valga también cero, el mero hecho de que el segundo gemelo se desplace fuerza a que la desigualdad se decante hacia el lado de la suma. Por este motivo la geometría no es euclidiana, porque la medida distancia no cumple la desigualdad triangular. Además, debido a que ambos gemelos han experimentado un tiempo distinto, puede decirse que el tiempo es relativo.

Aún así todo esto no quiere decir que la concepción de Galileo sea incorrecta. Es correcta siempre y cuando las velocidades sean pequeñas respecto a la de la luz. Este hecho se puede ver en (3), en el que si v_m es pequeño, el tiempo percibido es muy similar al que experimenta el gemelo en reposo. Lo que esta geometría nos enseña es que el tiempo no es absoluto y que se encuentra fundido de una manera mucho más intrincada de lo que se pensaba originalmente.

Y si has llegado hasta aquí, enhorabuena ;)

Pepe "Puertas de acero" Pérez

Bibliografías:

[1] Bertrand Russel. El ABC de la Relatividad.
[2] Roger Penrose. La Nueva Mente del Emperador.

viernes, 12 de abril de 2013

La realidad del cambio climático

Creo que llego con diez años de retraso pero también que, como representante de la sección de ciencia, era imprescindible que escribiera una entrada de este tipo. A día de hoy todos o casi todos pensamos que el calentamiento global es una realidad. Aún así no basta con creerlo a pies juntillas, como si de La Biblia se tratase. Hay que saber por qué se piensa que es así, no contentarse con decir, "estás loco, el cambio climático es verdad y punto". Antes de empezar me gustaría convenceros de la realidad de la situación con la siguiente figura.

Evolución de la temperatura por regiones en el período 1976 - 2000 / IPCC
Dejando a un lado si el problema es originado por el hombre, es cierto que el planeta se está calentando. Pese a que haya zonas que han visto reducida su temperatura, en general, la tendencia es al alza. 

Antes de continuar, por favor, no se confunda la predicción del clima con la predicción meteorológica. La primera trata con tendencias sobre parámetros generales a lo largo de períodos muy largos, por lo que afirma que la temperatura o el volumen de lluvia aumenta o decrece a lo largo de una década o cualquier período lo suficientemente largo. Sin embargo, la predicción meteorológica, intenta determinar qué fenómeno sucederá en una escala de tiempo más breve. El clima es predecible, la meteorología no. El motivo es que el tiempo atmosférico se comporta de manera caótica cuando se analiza en períodos de tiempos breves. Si es de interés ese tema, escribí una entrada en este mismo blog hace un tiempo en la que hablaba sobre los sistemas deterministas caóticos. 

Evolución de la temperatura globalmente / IPCC
Si somos completamente escépticos, podríamos atribuir este incremento de las temperaturas a causas naturales. No sería la primera vez que la tierra sale y entra de periodos glaciares. En concreto, el período denominado La Pequeña Edad de Hielo, que acabó a finales del siglo XIX o principios del XX, es causante de parte de esta subida de temperaturas. Para determinar si el aumento de las temperaturas era causado por el comportamiento humano, un grupo de expertos, reunidos en el IPCC (Intergovernmental Panel on Climate Change), formado por más de 1000 científicos de distintos países se pusieron manos a la obra. Para ello recopilaron datos y construyeron modelos. Al principio estos modelos no eran lo suficientemente expresivos, pero con el tiempo han podido incluir factores tales como la erupción de volcanes, agotamiento de ozono, propiedades del terreno de la región, entre otras. Sobre estas líneas puede verse el resultado (a fecha del 2007) cómo dos modelos distintos predicen la evolución de la temperatura. En azul aparece el resultado de la predicción efectuada por modelos que no tienen en cuenta la intervención humana en el desarrollo del clima. En rosa el resultado de los modelos que sí tienen en cuenta la influencia humana. La línea negra se corresponde con las mediciones reales de temperatura a lo largo de todo el planeta. El modelo que tiene en cuenta los factores humanos, aunque no se ajusta de manera perfecta, si que lo hace en mayor grado que aquel que no los tiene en cuenta.

Habrá gente que diga "es sólo un modelo, un modelo no es la realidad". Pero chaval ¿cómo te crees que funciona la ciencia? Plantea una hipótesis, crea un modelo e intenta ver cómo se corresponden. Poco a poco el modelo se perfecciona y entonces se dispone de una teoría. Si datos posteriores contradicen la teoría, ésta se desecha o se modifica. Por supuesto que el calentamiento global puede haber sido producido por un fenómeno que desconocemos. Por supuesto, pero siguiendo la navaja de Occam, que afirma que la explicación más sencilla es la que más posibilidades tiene de ser cierta, la emisión de gases de efecto invernadero es mucho más sencilla y se ajusta bastante bien a los resultados experimentales.

De los gases de efecto invernadero que recalientan la atmósfera, el CO2 es el más famoso y realmente se ha ganado su título. No hay mucho más que decir sobre él, por lo que quiero hablar de otro mucho más interesante, el metano, el cual es capaz de acaparar 23 veces el calor del dióxido de carbono. Pese a que su tiempo de vida en la atmósfera es menor, hay un problema. Por culpa del aumento de las temperaturas el permafrost ártico (región que se encuentra permanentemente congelada) se está fundiendo. Estas zonas están llenas de materia orgánica cuya descomposición se ha frenado por el frio. Cuando hay descomposición se produce metano, hecho que se suma a la existencia de reservas debajo del hielo. Si ese metano se libera, las cosas pueden complicarse.

Para concluir me gustaría hablar de las implicaciones generales del cambio climático. Se sabe que el clima se volverá más extremo (inundaciones y sequías) y que la línea de costa avanzará hacia la tierra (Holanda, prométeme que tendrás cuidado), pero ¿es realmente el cambio climático algo perjudicial? Desde un punto de vista evolutivo es un suceso completamente neutro, peores cosas han pasado y más especies se van a extinguir. El problema es que tenemos una deuda moral con el planeta que nos ha dado la vida y estamos jodiéndolo bien. Además, no van a ser los países que más contribuyen con gases de efecto invernadero los que van a ser perjudicados. Como siempre serán los menos favorecidos los que no tengan la oportunidad de adaptarse y se verán forzados a abandonar sus hogares o incluso condenados a destinos peores.

Lo que no podemos negar es la realidad, el clima está cambiando y tenemos la culpa. Tenemos la obligación de hacer algo.

Pepe "Puertas de acero" Pérez

Comparte este post