miércoles, 26 de diciembre de 2012

Europa prepara un mapa en 3D de la Vía Láctea






La Agencia Espacial Europea (ESA) lanzará al espacio en el 2013 la misión Gaia, una aventura científica para elaborar un mapa en tres dimensiones de la Vía Láctea que permitirá remontarse varios millones de años en el tiempo para conocer el pasado de nuestra galaxia y predecir su futura evolución.
El satélite, la única misión científica programada por la Agencia Especial Europea (ESA) para el año próximo, despegará a bordo de un cohete ruso Soyuz desde el Centro Espacial Europeo de la Guayana francesa, en Kurú, a finales de noviembre o principios de diciembre del 2013. 
"Podremos descubrir unos 100.000 nuevos planetas", explicó a Efe el director del proyecto, el científico italiano Guissepe Sarri, quien cree que Gaia revelará la existencia de "muchos planetas de un tamaño como el de Júpiter, más grandes que la Tierra, y por supuesto, muchos asteroides cercanos a nuestro Sistema Solar". 
100.000 millones de estrellas.
Su objetivo principal consiste en confeccionar un mapa tridimensional de una fracción de nuestra galaxia, tomando el legado del su predecesor, Hipparcos, que surcó el espacio entre 1989 y 1993. No obstante, transcurridas dos décadas de desarrollo tecnológico, Gaia será capaz de proporcionar 10.000 veces más datos que su precursor. 
"Es muy difícil medir la distancia con las estrellas. Con Gaia podremos ser mucho más precisos e identificar mejor el tamaño del universo, la formación de planetas, del sistema solar... aportará conocimiento básico para la humanidad sobre el universo en el que vivimos", comenta Sarri. 
Para ello, se elegirán unas 100.000 millones de estrellas y cuerpos celestes de los cerca de 200.000 millones que se estima pueblan la Vía Láctea y se medirá una y otra vez su posición y su velocidad, en tres dimensiones. 
"Si hacemos un mapa con la posición y la velocidad, podemos calcular hacia atrás el movimiento de gran parte de las estrellas de la galaxia. Podemos ir hacia atrás en el pasado, ver cómo nuestra galaxia ha evolucionado y predecir cómo evolucionará en el futuro", señala Sarri. 
Los expertos no podrá remontarse a 13.700 millones de años para llegar hasta el momento en el que se produjo el Big Bang, pero si que podrán dar marcha atrás en el reloj varios cientos de millones de años. 
"Espero que sea suficiente para ver, por ejemplo, si la Vía Láctea se fusionó con alguna otra galaxia", comenta el máximo responsable de una misión puramente científica cuyo objetivo es que los seres humanos comprendamos mejor el universo en el que vivimos. 
"Podremos entender la evolución de nuestra galaxia y, como es similar a otras muchas galaxias, también la evolución del Universo" porque algunas de esas estrellas son extraordinariamente ancianas y guardan restos fósiles de sus orígenes y de sus atmósferas, explica el científico. 
Para ello, el Gaia –una referencia a la diosa de la Tierra de la mitología griega que toma su nombre de las siglas en inglés de Interferómetro Astrométrico Global para la Astrofísica–, contará con un sofisticado conjunto de instrumentos que permitirían medir desde la Tierra el pulgar de una persona situada en la superficie de la Luna. 
El presupuesto con el que cuenta la ESA para la misión es de 700 millones de euros (unos 900 millones de dólares), que sirven para financiar los contratos industriales, el lanzador, las operaciones del satélite y su desarrollo, pero que no contempla los salarios de "todos los científicos, profesores o estudiantes de doctorado que van a contribuir", precisa Sarri. 
tendrá una duración de cinco años. "Con Gaia desarrollamos tecnología muy avanzada que tendrá retorno industrial. Cada empresa que participe podrá vender la tecnología que desarrolle para Gaia", subraya Sarri, que precisa que "también habrá un retorno intelectual para el mundo académico, en términos de conocimiento". 
Para analizar esos objetos celestes situados hasta a 1,5 millones de kilómetros alejadas de la órbita de la Tierra, el Gaia se situará en un punto Lagrange, lo que le permitirá permanecer en estado estacionario respecto a la Tierra mientras gravita alrededor del Sol. 
Mediante dos telescopios, el más grande de ellos de 1,45 por 0,5 metros, enviará información a las estaciones de Cebreros (España) y de New Norcia (Australia). 
Al término de la misión, cuya duración será de cinco años, la Agencia Espacial Europea publicará en internet un catálogo "tan voluminoso que sería imposible de imprimir" porque equivaldría a la distancia entre Amsterdam y París y en el que se plasmarán cada uno de los parámetros analizados de cada estrella, como su categoría, su brillo, su temperatura, su gravedad o su posición. 
"Después, los científicos podrán utilizarlo para corroborar teorías, elaborar otras nuevas, escribir artículos de investigación, etcétera" porque "la información será gratuita y estará abierta al público", explican desde la ESA. 
El catálogo más completo se obtendrá al término de la misión, una vez procesados todos los datos, es decir, hacia el 2020 o el 2021, aunque habrá ediciones intermedias, una vez transcurridos los dos o tres primeros meses de puesta a punto del satélite. 
"Los primeros datos llegarán transcurrido un año y medio o dos, aunque la precisión no será tanta como al final. La clave para ser muy precisos es medir muchas veces cada estrella, algo así como setenta veces cada una", explica Sarri. 
Además de un catálogo de una fracción de nuestra galaxia, la misión servirá para comprender mejor la distribución de la materia oscura, verificar teorías sobre la formación de estrellas o, incluso, sobre la Teoría General de la Relatividad, enunciada por Albert Einstein, gracias a la observación directa de la estructura del espacio-tiempo. 
"Lo que hacemos con Gaia es pura ciencia: estudiar nuestro mundo, comprender nuestro Universo", resume Guissepe Sarri, director de la misión. 

Fuente

Las 10 amenazas que pueden destruir el mundo


Millones esperaban el Apocalipsis este 21 de diciembre, y nada ocurrió. Pero aunque no se sepa cuándo llegará, catástrofes naturales y sociales podrían precipitarlo

1. El calentamiento global
“El veloz incremento de la temperatura promedio del planeta es una consecuencia de la quema de combustibles fósiles y de la emisión de gases de efecto invernadero que se usan como agentes refrigerantes”, explica José Molinelli, geomorfólogo de la Universidad de Puerto Rico, en diálogo con Infobae América.
Su acción tiene múltiples efectos ambientales, económicos y políticos.
2. La suba en el nivel del mar
Se produce por el aumento de su temperatura promedio. “Al estar caliente, el agua ocupa un volumen mayor, que se incrementa aún más por el derretimiento de los glaciares de montaña”, dice Molinelli.
“Por cada centímetro que sube el mar, se estima que la línea de costa se reduce un metro. El mayor problema se produciría si llegara a superarse cierto umbral, a partir de lo cual el sistema se desequilibraría y el nivel del mar empezaría a aumentar caóticamente. Entonces, si los océanos llegaran a subir un metro, las costas podrían reducirse cien metros en promedio. En países como Bangladesh, con millones de personas viviendo a orillas del mar, el efecto sería catastrófico”, agrega.
3. Los huracanes
“Hay zonas en las que se esperan cada vez más huracanes y de una intensidad mucho mayor -explica Molinelli. Pero el incremento en el nivel del mar puede favorecer que huracanes de baja intensidad se vuelvan devastadores por las mareadas que producen en las zonas costeras. Fue el caso de Sandy, que a pesar de ser de baja categoría, provocó efectos nefastos en Nueva York”.
4. Las lluvias y las inundaciones extremas
“El impacto de las inundaciones es mayor porque seguimos construyendo grandes urbes en las costas”, afirma Enrique Jurado Ybarra, biólogo de la Facultad de Ciencias Forestales de la Universidad Autónoma de Nuevo León, México, en diálogo con Infobae América.
“Eventos que antes considerábamos extremos ya no lo son porque ocurren con frecuencia. Las inundaciones nativas en Venezuela, o el huracán Mitch en Centroamérica, son algunos ejemplos”, dice Molinelli.
5. Las sequías
Los mismos desequilibrios que producen el aumento de las lluvias en algunas regiones del mundo, provocan sequías en otras. “África va a ser el continente más afectado. El desierto del Sahara puede llegar extenderse hacia el sur, lo que va a causar migraciones y hambruna”.
6. Descenso abrupto de la temperatura
De la misma manera, lo que aumenta la temperatura en algunas regiones, la disminuye en otras. “Los deshielos pueden provocar que haya sitios más fríos debido a los cambios en las corrientes marinas. Existe el riesgo potencial de tener una Europa congelada en algunas décadas”, explica Jurado Ybarra.
7. La destrucción de la flora y la fauna autóctona
“Los cambios en la temperatura y el aumento de las precipitación pueden provocar que sitios de tradición agrícola dejen de ser aptos para el cultivo. Eso afectaría la distribución y la abundancia de muchas especies animales y vegetales”.
8. El crecimiento de la población
“Tenemos un problema de crecimiento poblacional vertiginoso, aunque en términos proporcionales haya una desaceleración. Desde 1960, en sólo 50 años, se sumaron 4 mil millones de personas, más de lo que había aumentado la población en toda la historia pasada”, dice Molinelli.
“Esto no es sostenible en el tiempo. La demanda por recursos se sigue incrementando, pero no así la capacidad de producirlos. Cada vez se necesita más tierra agrícola, pero hay cada vez menos porque en muchos lugares se ha erosionado. El monocultivo vulnera los ecosistemas y así se reducen los hábitats naturales”, agrega.
9. La producción descontrolada de desechos tóxicos
La urbanización es cada vez es mayor, y la producción de desechos va de la mano. Al aumentar el consumo de energía per capita, se incrementa también la contaminación que produce cada individuo”, cuenta Jurado Ybarra.
“Un ejemplo -dice Molinelli- es la exportación de basura tóxica a países subdesarrollados, que tiene efectos devastadores”.
10. La crisis de la humanidad
“El mito del fin del mundo tiene una función latente perfectamente útil. Por caso, hacernos olvidar todo lo que hace que el fin del mundo -el verdadero- se acerca ineluctablemente: la crisis económica mundializada, las desigualdades sociales insostenibles, el recalentamiento del planeta, la crisis de las identidades, las injusticia contra trabajadores extranjeros, los clandestinos, pobres y ancianos abandonados a su triste suerte”, escribía recientemente el analista político Michel Hajji Georgiou en el diario libanés L'Orient-Le Jour.
“El fin del mundo es cuando aparecen los Adam Lanza o los Anders Behring Breivik disparando a quemarropa, en Connecticut o en Utoya, contra niños y adolescentes, por locura ideológica o pulsional. El fin del mundo es el fin de la humanidad. Es hoy y todos los días”, concluía.

 Fuente

El fin de los tiempos: un repaso por todas las profecías incumplidas

A lo largo de la historia, muchos fueron los que anunciaron que el final de una era llegaba, en base a cálculos matemáticos y supuestas revelaciones bíblicas. Aquí, el listado
Cada cierto tiempo, un "elegido" aparece con la revelación sobre la fecha en que ocurrirá el fin del mundo, basándose en especulaciones sobre los diferentes textos de la Biblia o cálculos matemáticos, o incluso anunciando el nacimiento de un Anticristo y el año en que su poder caería sobre toda la humanidad.
Las predicciones apocalípticas fallidas son documentadas a lo largo del tiempo por los diferentes escritos realizados por esas mismas personas o sus "obedecidos". Aquí, un listado de las profecías más famosas y que lograron ser documentadas.

Año 90: Menos de 100 años después del nacimiento de Cristo, el Papa Clemente I, elegido en el año 88 y fallecido en el 97, profetizó que el fin del mundo sucedería en cualquier momento de ese año.

Año 365: El obispo y escritor francés Hilario de Poitiers pronosticó ese año como el del fin del mundo, ya que alegaba que el último emperador (Constancio II), que lo había desterrado de Frigia, era el Anticristo, y el responsable del final que se acercaba.

Año 400: El obispo San Martín de Tours desde el año 375 comienza a predicar que el fin del mundo llegaría en el 400. Su escrito aseguraba: “No hay dudas de que el Anticristo ya nació. Firmemente establecido ya en sus primeros años, después de alcanzar la madurez, alcanzará el poder supremo”. Sus cálculos aseguraban que a los 25 años, el Anticristo se adueñaría del mundo y lo destruiría.

Año 999: La inminente llegada del año 1000 provoca una histeria colectiva, que lleva incluso a iniciar guerras contra los paganos del norte de Europa para “convertirlos” antes de la “Segunda venida”. Miles de personas vendieron sus propiedades y descuidaron sus plantaciones para peregrinar a Jerusalén, a la espera de la llegada del Mesías.

Año 1260: El monje italiano Joaquín de Fiore, que vivió entre los años 1135 y 1202, había asegurado que el fin del mundo estaba previsto para este año. Su cálculo para el fin del mundo rezaba que eran 30 generaciones que pasaban antes del fin de la era, y teniendo en cuenta que 42 años es la edad promedio de una persona, al multiplicar 30 por 42 el resultado era 1.260. Tras su muerte, sus seguidores, denominados “Joaquinitas” formaron un movimiento que avalaba esa teoría, aunque al no pasar nada ese año, aplazaron el fin del mundo un año más, hasta el 1290, aduciendo que faltaba una generación.

Año 1284: El Papa Inocencio III, que vivió entre los años 1161 y 1216, aseguró que el fin del mundo estaba previsto para 666 años después de la fundación del Islam, por lo que la suma de esas cifras le daba ese año.

Año 1496: Según los místicos del siglo XV, teniendo en cuenta que el nacimiento de Cristo se produjo en realidad en el año 4 aC, en ese año se estaba viviendo el 1500 después de su nacimiento, lo que llevaba a que el fin de la era antigua llegara en ese momento.
Año 1666: Teniendo en cuenta que esta fecha es la suma del milenio más el Número de la Bestia, y los diferentes conflictos que se sucedían en Inglaterra, todo hacía prever que el fin del mundo llegaba. Incluso, el Gran Incendio de Londres que ocurrió ese año ayudó a acrecentar los rumores y teorías.

Año 1669: Los Antiguos Creyentes de Rusia estaban convencidos de que el fin del mundo sucedería ese año, lo que llevó a que 20.000 de ellos  se inmolaran quemándose, para protegerse de la inminente llegada del supuesto Anticristo.

Años 1843-1844: William Miller, líder del denominado Movimiento Millerita, basado en un minucioso cálculo predijo que la segunda venida de Cristo se produciría entre el 21 de marzo de 1843 y el 21 de marzo de 1844, año durante el cual reunió a miles de devotos, a la espera de su llegada. Tras el fracaso de la profecía, se aseguró que el 22 de octubre de 1844 era la fecha en realidad. Para ese día, reunió a todos sus seguidores en una colina, y tras el fracaso, el hecho es recordado como “La gran decepción”.

Año 1891: El 14 de febrero de 1835, Joseph Smith, fundador de la Iglesia Mormona, aseguró que la segunda venida tendría lugar pasados los 56 años, lo que daba como resultado ese año: "El Salvador haría su aparición aquí en la Tierra y la escena final tendría lugar", según el diario de Oliver Boardman Hamington.

Año 1914: Los Testigos de Jehová creyeron que cada uno de los “siete templos” mencionados en el libro bíblico de Daniel era de 360 días, lo que totalizaba 2.520 días. Ellos interpretaron esto como representativo de 2.520 años, comenzando en el año 607 aC, lo que fija como meta el año 1914, más precisamente el día 1 de octubre. De hecho, consideraron la Primera Guerra Mundial como la batalla del Armagedón. Luego de que transcurriera ese año sin que nada pasara, la revista Watchtower predijo que el año final del mundo sería 1915, 1918, 1920, 1925, 1941, 1975, y por último 1994. No, ninguna se cumplió.

Año 1919: El reconocido meteorólogo italiano Alberto Porta, residente en San Francisco, aseguró que para esa fecha una conjunción de seis planetas causaría una corriente magnética tal que “penetraría el sol, causando grandes explosiones de llamas de gas, que finalmente terminarán con la Tierra”. El terror comenzó a expandirse hacia otros países, y muchas personas fueron las que se suicidaron antes de que tal catástrofe llegara.

Año 1987: Leland Jensen, líder de la secta bahá’í, profetizó que el cometa Halley sería desviado a la órbita de la Tierra el 29 de abril de 1986, y los pedazos del cometa cubrirían la Tierra durante un año. La fuerza de la gravedad del cometa podría causar grandes terremotos, y el 29 de abril de 1987 el cometa se estrellaría contra la Tierra causando una destrucción generalizada.

Año 1999: Varias son las teorías que afirmaban que en ese año el fin del mundo llegaría. Desde las publicaciones de los Testigos de Jehová hasta el lingüista Charles Berlitz, quien predijo una devastación nuclear, el impacto de un asteroide o incluso el cambio de polos. Según una publicación astrológica que circulaba en la India, el mundo desaparecería por una serie de graves desastres naturales el 8 de mayo, predicción que llevó a que una importante cantidad de indios entraran en pánico.
Además, los miembros de la secta denominada Iglesia Stella Maris, de Colombia, se reunieron en Sierra Nevada asegurando que el fin del semana del 3-4 de julio de ese año pasarían a ser recogidos por un OVNI que los salvaría del fin del mundo. Sin embargo, el fin del mundo no llegó, pero los más de 30 integrantes de ese culto desaparecieron sin dejar rastros.

Año 2000: Según el arqueólogo Richard W. Noone en su libro 5/5/2000Ice: The Ultimate Disaster, una acumulación de exceso de hielo en la Antártida es la causante de un desequilibrio en la Tierra. Ese desequilibrio cambiaría los polos, lo que podría causar el envío de miles de millones de toneladas de hielo a las cascadas de todos los continentes.

Año 2001: La Academia de Ciencias Unarius, fundada en 1954, aseguró que a fines de este año los “hermanos del espacio” enviarían ovnis a la zona de El Cajón, California, para la inauguración de una nueva era. Sin embargo, en enero de 2002, al ser consultados respecto del error de su profecía, adujeron: "Los hermanos del espacio no aterrizaron porque nosotros, el pueblo de la Tierra, no estamos dispuestos a aceptar los pueblos avanzados de otro planeta".

Año 2003: Este año llegaría el fin del mundo, más precisamente el 5 de mayo, según lo que aseguraba Nuwaubians, un culto a Georgia dirigido por el Dr. Malachi Z. York, que dice ser la encarnación de Dios y un nativo del planeta Rizq, que incluso fue entrevistado por la revista Time en julio de 1999.

Año 2007: Utilizando la numerología, donde mezcló profecías bíblicas, el Y2K, los códigos de la Biblia y la astrología, Thomas Chase confirmó que el Armagedón ocurriría en agosto de este año.
 

martes, 13 de noviembre de 2012

Año Internacional de la Cooperación en la Esfera del Agua (2013)

El próximo año fue declarado “Año Internacional de la Cooperación en la Esfera del Agua” por la Asamblea General de las Naciones Unidas. El objetivo del Año Internacional será dar a conocer el potencial que implicaría un aumento de la cooperación, así como difundir los desafíos que enfrenta la gestión del agua debido al aumento de la demanda de acceso, la asignación y los servicios de los recursos hídricos. 

Se resaltarán iniciativas exitosas de cooperación en torno al agua y se identificarán los temas más relevantes entre los cuales se encuentran: educación sobre el agua, diplomacia del agua, gestión de aguas transfronterizas, financiación, marcos jurídicos nacionales e internacionales y vínculos con los Objetivos de Desarrollo del Milenio. 

También será una oportunidad para aprovechar el impulso creado en la Conferencia de las Naciones Unidas sobre el Desarrollo Sostenible (Río +20), y para apoyar la formulación de nuevos objetivos que contribuyan al desarrollo sostenible de los recursos hídricos. La UNESCO fue designada oficialmente para llevar los preparativos para el Año Internacional y el Día Mundial del Agua en 2013. Como todos los años el 22 de marzo del 2013 se celebrará el Día internacional del Agua, en esta ocasión también se dedicarán esfuerzos para la cooperación en esta temática.

Fuente

Nueva planta solar fotovoltaica en San Juan (Argentina)

La provincia cuyana dio el primer paso de un ambicioso plan para aprovechar la alta radiación solar en la zona. La instalación “San Juan I” entregará 1,2 Mw al sistema eléctrico nacional.
La provincia de San Juan se convirtió el 18 de abril pasado en la primera en la Argentina –y algunos dicen que en toda America Latina- en contar con una planta de energía fotovoltaica conectada a la red eléctrica. La denominada Planta Fotovoltaica Piloto “San Juan I” está pensada para inyectar 1,2 megavatios en el sistema eléctrico nacional, según informó la empresa sanjuanina Energía Provincial Sociedad del Estado (EPSE), que en 2009 había llamado a un concurso de precios para construir, operar y mantener durante seis meses la central solar. La instalación sustentable, que en total costará unos 38 millones de pesos, tiene la característica de contar con tres tipos diferentes de paneles fotovoltaicos, fijos y móviles, que según la firma que la construyó –la catalana Comsa Emte- son las actuales “principales tecnologías del mercado: placas policristalinas, monocristalinas y de silicio amorfo”. La Planta Fotovoltaica Piloto “San Juan I” está ubicada en Ullum, a 30 km de la capital provincial, en una de las zonas con mayor cantidad de horas anuales radiación solar del país como es la región de Cuyo.
 
En EPSE informaron que el 70 por ciento de los paneles de la planta son fijos “con ajuste estacional”.

“Solar San Juan”
La nueva planta es parte de un plan del gobierno provincial llamado “Solar San Juan”,  que busca desarrollar allí “un polo tecnológico fotovoltaico, estimular la investigación y desarrollo y atraer inversiones”. Desde la empresa provincial también destacaron que en territorio sanjuanino la estatal ENARSA, a través del programa Genren, ya licitó otros 30 megavatios de energía fotovoltaica, en un concurso en el que resultaron ganadores las empresas Emgasud y Bahuen Efacec. Por otro lado, según el sitio web EnerNew, Comsa no participó en ese concurso debido a su “incertidumbre acerca de cómo evolucionará el tema tarifario” en la Argentina.
En España, la empresa instaló los parques solares Viso del Marqués (Sevilla) y Albesa (Lleida), además de una “fachada de células fotovoltaicas semitransparentes de colores en el Museo Nacional de la Ciencia y la Técnica de Cataluña en Terrassa (Barcelona)”, entre otras obras con tecnologías solares.
En el llamado para concretar la Planta Fotovoltaica Piloto “San Juan I” quedaron el camino de la licitación otras cinco firmas (Energías Sustentables, International New Energy, Nord Aldyl, Generación Eólica y Dalkia), que habían propuestos siete diferente proyectos en los parajes Cañada Honda, La Chimbera y Las Lomitas. 


El origen de los rayos cósmicos sigue siendo un misterio



Una de las hipótesis para explicar las altas energías de la radiación cósmica es que se acelera gracias a los estallidos de rayos gamma. Los físicos del telescopio polar IceCube esperaban que sus observaciones de neutrinos les ayudaran a confirmar esta idea, pero no ha sido así. Por eso creen que los modelos teóricos deberían ser revisados.

Los rayos cósmicos procedentes del espacio exterior viajan con tanta energía que, según los físicos, "solo los núcleos activos de las galaxias o los estallidos de rayos gamma pueden producirlos", explica a SINC Nathan Whitehorn, científico del telescopio IceCube. A pesar de estas dos hipótesis, su origen sigue siendo un misterio.

Whitehorn y su equipo han intentado dilucidar de dónde proceden estos rayos cósmicos superenergéticos. Esperaban encontrar la respuesta en la Antártida, donde opera IceCube, el telescopio de neutrinos más sensible del planeta. Pero no lo han conseguido, como explican en un artículo publicado en la revista Nature.
"Determinar el origen de esta radiación es algo muy difícil por varias razones -señala el científico-, como por ejemplo, que no viaja en línea recta". En cambio los neutrinos sí lo hacen y, según los modelos teóricos vigentes, las explosiones de rayos gamma que acelerarían la radiación cósmica también producirían neutrinos.

El resultado esperado era que, entre los años 2008 y 2010, los telescopios detectaran 10 neutrinos asociados a brotes de rayos gamma, pero no ha sido así. "No hemos detectado ninguno y esto significa que quizás hemos de revisar los modelos teóricos actuales sobre el origen de los rayos cósmicos", afirma Whitehorn.

Los autores del estudio contemplan dos posibles explicaciones para estos sorprendentes resultados. Una es que los estallidos de rayos gamma no sean la única fuente de rayos cósmicos, "lo que desviaría nuestra atención hacia otros posibles orígenes, como los núcleos activos de galaxias", especifica Whitehorn. Y la otra es que la producción de rayos cósmicos no esté acompañada por tantos neutrinos como se creía.

Los brotes de rayos gamma son los eventos electromagnéticos más luminosos del universo. Están asociados a grandes explosiones en galaxias muy lejanas y se ha comprobado que un estallido típico es muy corto, de unos pocos segundos, y puede generar la misma energía que el sol en un período de diez mil millones de años.

"Todavía son fenómenos misteriosos para nosotros. Necesitamos continuar con las medidas de neutrinos para llegar a entender este proceso", explica el físico.
Necesitamos continuar con las medidas de neutrinos para llegar a entender este proceso

Fuente

Modelos matemáticos predicen Ártico sin hielo en 2100


Especialistas del Centro de Ciencias de la Atmósfera de la UNAM destacaron que si bien las proyecciones no predicen con exactitud el clima del futuro, tampoco ese debe ser un pretexto para no emprender acciones que frenen el cambio climático    

Reunidos en el Seminario Permanente de Cambio Climático, organizado por el Programa de Investigación en Cambio Climático de la UNAM (PIINC), especialistas mostraron varios posibles escenarios de cómo el sistema climático de la Tierra puede cambiar en el futuro, de acuerdo con los modelos del Panel Intergubernamental de Cambio Climático (IPCC, por sus siglas en inglés). 

Una de las potenciales consecuencias previstas por los modelos climáticos es que, alrededor del año 2100, podría haber un Ártico sin hielo a finales del verano. Esto ocurriría en un escenario en el que las emisiones de gases de efecto invernadero se mantuvieran, que hubiera un crecimiento poblacional constante y un crecimiento económico y tecnológico lento e, incluso, si hubiera un crecimiento balanceado de las fuentes de energía. 

Carlos Gay García, Benjamín Martínez López y Arturo Quintanar Isaias, investigadores del Centro de Ciencias de la Atmósfera de la UNAM (CCA), coincidieron en que si bien los modelos matemáticos utilizados actualmente para predecir el calentamiento global tienen un alto grado de incertidumbre y son insuficientes para predecir con certeza cómo será el clima en el futuro en un lugar específico, estas limitaciones no deben ser tomadas por las autoridades y los gobiernos como pretexto para no tomar ninguna medida que frene el cambio climático. 

Benjamín Martínez López, especialista en oceanografía física, destacó que las estimaciones de los modelos matemáticos son sólo eso, estimaciones, y que no existe modelo alguno que explique claramente, por ejemplo, qué sucede con el movimiento de masas en el océano.
Resaltó que el nivel de incertidumbre que existe en los modelos matemáticos utilizados para predecir el clima es muy alto. A manera de ejemplo, señaló que ha habido cambios en el nivel del mar en lugares como Quintana Roo, que van de 2 a 3 metros en 50 años, cuando algunos modelos matemáticos predecían unos 28 centímetros para el año 2100. 

El especialista en Ciencias de la Tierra, invitó a tener presente que los modelos matemáticos que pretenden predecir el clima son una herramienta que se usa para ver que podría suceder, e insistió en que se debe mantener una postura crítica respecto a sus resultados.
Para que los modelos matemáticos arrojen resultados más confiables, propuso hacer simulaciones más largas en el tiempo, que permitan comprender mejor cómo funciona el clima y elaborar modelos regionales que tengan en cuenta variables que los modelos globales no toman en consideración. 

En su oportunidad, Carlos Gay García, coordinador del PIINC y del Centro Virtual del Cambio Climático de la Ciudad de México reconoció que la incertidumbre de los modelos es muy alta, pero consideró que no es tan grande como para que sus resultados deban ignorarse.
Por el contrario, aseguró que es necesario que la sociedad y los tomadores de decisiones actúen aún con esas incertidumbres, y que las ciencias sociales y las humanidades aporten sus conocimientos para abordar más integralmente el problema del cambio climático global.
Aunque en los detalles los modelos numéricos tienen limitaciones, hay evidencia suficientemente robusta que nos dice que el clima del planeta va a cambiar en los próximos 100 años, y ningún modelo estima que la temperatura de la Tierra va a bajar o que el clima va a ser el mismo en ese periodo de tiempo, sostuvo. 

El coordinador del Seminario Permanente de Cambio Climático aseveró que, con frecuencia, los gobernantes exigen que los científicos les digan con precisión cuántos grados va a cambiar la temperatura para determinado año, en cierto Estado de la República, y si va a llover o no va a llover y qué tanto. Esto no sólo es imposible, sino que además no es la información que ellos necesitan para actuar.
Por otro lado, Arturo Quintanar dijo que hay gran diferencia en el entendimiento científico que se tiene de los distintos forzantes radiativos, es decir, los factores que pueden calentar o enfriar el sistema climático. 

Algunos forzantes, como el CO2 y el metano, han sido ampliamente estudiados y se conoce claramente su comportamiento en la atmósfera, mientras que otros, como los aerosoles, el carbón negro y el uso de suelo o la cobertura vegetal, han sido muy poco estudiados y la comunidad científica desconoce el detalle de sus efectos en el sistema climático.
El especialista dijo que para avanzar en el conocimiento que se tiene de la influencia que la cobertura vegetal presenta sobre el clima, en el Centro de Ciencias de la Atmósfera han desarrollado modelos numéricos en los que se ha sustituido la cobertura vegetal actual de algunas regiones del mapa de México donde hoy hay cultivos, por la cobertura vegetal que tendría si no hubiera humanos en el planeta, es decir bosques tropicales. 

Los resultados de sus experimentos numéricos mostraron que habría un aumento de la temperatura en la zona de Veracruz, a pesar de que esperaban que la presencia de bosques tuviera un efecto de enfriamiento. Por otro lado, los expertos aún no pueden explicar cuál es el mecanismo que ocasionaría este calentamiento. 

Arturo Quintanar dijo que los resultados de sus experimentos numéricos aún son preliminares, pero constituyen un paso para empezar a conocer cómo influye o interacciona la cobertura vegetal con la atmósfera y el clima.
Dirección General de Divulgación de la Ciencia, UNAM
Fuente

Aseguran que se detuvo la destrucción de la capa de ozono


Las últimas mediciones de la Organización Meteorológica Internacional (OMI) indican que en septiembre de 2011 el agujero de la capa de ozono alcanzó un área máxima en la zona antártica de 24,4 millones de km2, mientras que el máximo se alcanzó el año 2006 (con 28 millones de km2). Los especialistas coinciden en que se ha estabilizado la destrucción, y que los indicadores demuestran que la tendencia es que siga bajando, aunque el problema no está resuelto del todo, principalmente porque los gases ya emitidos a la atmósfera siguen interactuando y provocando el mismo efecto en la primavera austral.

De todas maneras, los expertos de la OMI dicen que si no se hubiera firmado el protocolo de Montreal, dos terceras partes de la capa se habrían destruido; la radiación ultravioleta se hubiera incrementado seis veces, y, en apenas cinco minutos, la exposición al Sol habría causado quemaduras en la piel . Sin capa de ozono, aumenta el riesgo de contraer cáncer de piel, enfermedades oculares, como cataratas, y daños al sistema inmunológico, además de afectar al ecosistema.

La previsión es que la destrucción de la capa de ozono retroceda lentamente y que para mediados de siglo, en el año 2050, pueda volver a los niveles alcanzados en los años ochenta.
Desde principios de esa década, la destrucción de la capa de ozono tuvo un incremento continuo y regular. Pero desde finales de los noventa, cuando comenzó a aplicarse el protocolo, se aprecia una estabilización.

El Protocolo de Montreal se concentraba específicamente en reducir los gases conocidos como CFC (clorofluorocarbonos), presentes en aerosoles y equipos de refrigeración.

Pero el principal problema surgió con los productos que se utilizaron para reemplazarlos. La mayoría de ellos con el compuesto Hcfc (hidroclorofluorocarbonos). “El Hcfc más utilizado es casi 2.000 veces más potente que el dióxido de carbono en sus efectos sobre el calentamiento de la Tierra”, dijo Ban Ki-moon, secretario general de las Naciones Unidas, en un mensaje con motivo del Día Internacional de la Preservación de la Capa de Ozono.

El desafío que viene, coinciden los especialistas, es controlar a los gases Hcfc. Piden que sean totalmente reemplazados para el año 2040, una medida que estaría a la altura de aquel histórico encuentro de Montreal, hace ya 25 años, que logró controlar el agujero en la capa de ozono.
Las últimas mediciones de la Organización Meteorológica Internacional (OMI) indican que en septiembre de 2011 el agujero de la capa de ozono alcanzó un área máxima en la zona antártica de 24,4 millones de km2, mientras que el máximo se alcanzó el año 2006 (con 28 millones de km2). Los especialistas coinciden en que se ha estabilizado la destrucción, y que los indicadores demuestran que la tendencia es que siga bajando, aunque el problema no está resuelto del todo, principalmente porque los gases ya emitidos a la atmósfera siguen interactuando y provocando el mismo efecto en la primavera austral.

De todas maneras, los expertos de la OMI dicen que si no se hubiera firmado el protocolo de Montreal, dos terceras partes de la capa se habrían destruido; la radiación ultravioleta se hubiera incrementado seis veces, y, en apenas cinco minutos, la exposición al Sol habría causado quemaduras en la piel . Sin capa de ozono, aumenta el riesgo de contraer cáncer de piel, enfermedades oculares, como cataratas, y daños al sistema inmunológico, además de afectar al ecosistema.

La previsión es que la destrucción de la capa de ozono retroceda lentamente y que para mediados de siglo, en el año 2050, pueda volver a los niveles alcanzados en los años ochenta.
Desde principios de esa década, la destrucción de la capa de ozono tuvo un incremento continuo y regular. Pero desde finales de los noventa, cuando comenzó a aplicarse el protocolo, se aprecia una estabilización.

El Protocolo de Montreal se concentraba específicamente en reducir los gases conocidos como CFC (clorofluorocarbonos), presentes en aerosoles y equipos de refrigeración.

Pero el principal problema surgió con los productos que se utilizaron para reemplazarlos. La mayoría de ellos con el compuesto Hcfc (hidroclorofluorocarbonos). “El Hcfc más utilizado es casi 2.000 veces más potente que el dióxido de carbono en sus efectos sobre el calentamiento de la Tierra”, dijo Ban Ki-moon, secretario general de las Naciones Unidas, en un mensaje con motivo del Día Internacional de la Preservación de la Capa de Ozono.

El desafío que viene, coinciden los especialistas, es controlar a los gases Hcfc. Piden que sean totalmente reemplazados para el año 2040, una medida que estaría a la altura de aquel histórico encuentro de Montreal, hace ya 25 años, que logró controlar el agujero en la capa de ozono.
 


sábado, 29 de septiembre de 2012

Una excelente imagen...


viernes, 1 de junio de 2012

Nanotecnología en Argentina


El Instituto de Física de Arroyo Seco en conjunto con expertos estadounidenses estudian cómo es el comportamiento de la materia en escalas nanométricas y aportan modelos teóricos que permitirán nuevas aplicaciones e innovaciones tecnológicas.
Un 12 de mayo de 1941, el ingeniero alemán Konrad Zuse presentaba la primera computadora. Pesaba tres toneladas, tenía el tamaño de un gran armario y tardaba tres segundos en hacer una multiplicación. En medio de la Segunda Guerra Mundial, el anuncio pasaba totalmente desapercibido, pero era el puntapié inicial del fenomenal desarrollo de la industria de la Informática, que ya lleva más de 70 años.
En la actualidad, con ordenadores que caben en la palma de la mano, los tubos de vacío ya son una postal del recuerdo, sentenciados al olvido por los modernos microchips, que aumentaron la capacidad de almacenamiento y procesamiento hasta límites insospechados. Sin embargo, ese impulso está hoy “físicamente” amenazado: no hay más lugar para colocar los transistores.
 
Este problema ya había sido enunciado en 1965 por el co-fundador de Intel, Gordon Moore, quien había afirmado que aproximadamente cada 18 meses se duplicaría la capacidad de almacenamiento de la información. Esta ley se ha venido cumpliendo durante las últimas décadas, pero como implica también aumentar el número de transistores en un circuito integrado, las distancias entre cada uno de ellos se reduce drásticamente. En la actualidad, la distancia promedio entre transistores de los microchips más avanzados es de unos 32 nanómetros.
 
Esta ínfima distancia ya es escasamente reducible, debido a que, a una menor distancia, ya se “verían” entre ellas las moléculas de los núcleos de cada transistor. Este límite físico imposibilita seguir aumentando las prestaciones con los procesos tecnológicos disponibles en la actualidad. Sin embargo, hay una solución: la nanotecnología.
 
En este contexto, el CONICET suscribió un acuerdo de cooperación internacional con el National Science Foundation, su equivalente norteamericano, para avanzar en el desarrollo de modelos predictivos de estructuras nanométricas que sirvan para enfrentar problemas como estos, con aplicaciones tan diversas como la industria informática, el sector energético o la medicina.
“Estamos preparando las herramientas y estudiando la física básica de estas estructuras para tener modelos que tengan carácter predictivo, es decir, que prevean que, para hacer tal cosa, se necesita preparar la muestra de tal manera. Desarrollamos modelos físicos y matemáticos para investigar la factibilidad de algunas metodologías propuestas para la obtención de las nanopartículas”, explicó a la Agencia CTyS Javier Diez, doctor en Física e Investigador del CONICET.
 
Diez es el director del grupo “Fluidos superficiales y fenómenos de interfaces” del Instituto de Física Arroyo Seco (IFAS) de la Facultad de Ciencias Exactas de la Universidad Nacional del Centro de la Provincia de Buenos Aires (UNICEN). Este grupo trabaja en conjunto con expertos del Instituto Tecnológico de New Jersey, la Universidad de Tennessee y el Laboratorio Nacional de Oak Ridge, con sede en los Estados Unidos.
 
“Ellos tienen las capacidades tecnológicas para hacer los experimentos y nosotros hacemos el aporte teórico, el análisis y el desarrollo de los modelos que tratan de explicar los resultados experimentales”, expuso el investigador, que trabaja con sus colegas norteamericanos desde hace más de cuatro años.
 
Al respecto, describió que las colaboraciones con los investigadores de estas instituciones “se vieron beneficiadas” por el apoyo reciente que recibieron del CONICET. “El convenio nos permite estadías de trabajo de un mes cada año en el Laboratorio Nacional de Oak Ridge y en el Instituto Tecnológico de New Jersey”, remarcó.

Una fórmula matemática para explicar la forma de una coleta

Las matemáticas son esenciales para entender las formas de los objetos que nos rodean. Un equipo de científicos de la Universidad de Cambridge se ha preguntado si también servirían para explicar la forma que el cabello adopta detrás de la forma de una coleta. El resultado de tan curiosa investigación es una ecuación matemática que ha sido publicada esta semana en 'Physical Review Letters'.
Los investigadores, liderados por Raymond Goldstein, han desarrollado una teoría matemática que explica la forma del cabello en una cola de caballo. Para lograrla tuvieron en cuenta la rigidez y elasticidad del cabello, los efectos de la gravedad y la presencia de rizos o cabellos ondulados. Así, lograron averiguar los factores que determinan cómo se unen las fibras de los cabellos y que permiten predecir la forma que tendrá una coleta.
Según aseguran, sus conclusiones podrían ayudar a los científicos a comprender mejor la naturaleza de materiales como la lana o la piel.
Cabellos ondulados
En el estudio se señala cómo la forma del cabello no sólo interesa a los peluqueros. Muchos científicos se han preguntado en el pasado por qué el pelo se ondula. El asunto que interesó, por ejemplo, a Leonardo da Vinci. El científico italiano pensaba que el cabello se comportaba como el agua que fluye.
A partir de esta analogía con el agua se han desarrollado simulaciones informáticas que intentan recrear el comportamiento de la piel y del cabello en una pantalla. Sin embargo, hasta ahora, señala la investigación, no se había desarrollado ningún modelo que permitiera descifrar el que consideran uno de los problemas más básicos del cabello: ¿Qué forma tiene una cola de caballo?
Raymond Goldstein y sus colegas obtuvieron trenzas postizas y midieron la curvatura o el rizo de una muestra de cabellos individuales. Después, los colocaron en diferentes colas de cabello (todas ellas de unos 25 centímetros de longitud) y registraron su forma. Estos datos ayudaron a formular una ecuación que incluía varias características del cabello y la fuerza de la gravedad. Este modelo permitió predecir la forma de las colas de caballo a medida que éstas fueron recortándose.

La ecuación matemática que causó el derrumbe del sector financiero

En 1973 los economistas Fischer Black y Myron Scholes -más tarde se les añadiría Robert C. Merton- publicaron en el Journal of Political Economy de Chicago una fórmula que ha transformado de arriba a abajo el sector financiero mundial hasta la actualidad. Se trata de la llamada ecuación Black-Scholes y se utiliza para valorar derivados financieros. Es decir, da valor a un contrato financiero vigente. Algo así como comprar y vender una apuesta en una carrera de caballos mientras los equinos todavía están en la pista.
 
La ecuación Black-Scholes abrió la puerta a un nuevo mundo de cada vez más complejas inversiones y propició la llegada de un mercado financiero global de proporciones mastodónticas. Todo iba de maravilla hasta que las hipotecas sub-prime aparecieron en escena y dieron por terminada la función. A partir de entonces, aquella fictícia realidad se tornó en un agujero negro de dinero inexistente, en un batacazo bancario global colosal y en una profunda crisis de la que todavía hoy se escuchan los ecos. Scholes y Merton (Black murió años antes) compartieron el Premio Nobel de Economía en 1997 por dicha fórmula.

El pasado domingo, el profesor emérito de matemáticas de la Universidad de Warwick (Reino Unido), Ian Stewart, publicó un artículo en el domincal británico The Observer que giraba en torno a las consecuencias que ha tenido el mal uso -y abuso- de dicho modelo en el sector de las finanzas. LaVanguardia.com le ha entrevistado para profundizar en estos aspectos.

¿Qué es la ecuación Black-Scholes?
La ecuación Black-Scholes se aplica a las opciones, que son acuerdos para comprar o vender una cosa a un precio específico en una fecha futura determinada. Por ejemplo, supongamos que queremos comprar un contrato de mil toneladas de trigo el 25 de septiembre de 2012 a 300 euros la tonelada.

Tomo nota
Los mercados financieros no solo establecen contratos de compra y venta a un vencimiento determinado, sino que permiten también comprar y vender esos mismos contratos antes de su vencimiento, como si fueran mercancías de pleno derecho. La gran pregunta entonces es, ¿de qué me sirve ese contrato? Si el dueño de la opción de trigo quiere vender el 11 de junio, ¿qué precio debería pedir? ¿Cuánto estaría dispuesto a pagar? La ecuación Black-Scholes especifica un determinado precio basado en el valor probable del trigo en su vencimiento. Matemáticamente, se entiende que el precio se desviará de manera aleatoria de acuerdo con el estado del mercado. El modelo calcula el precio en el que en teoría se elimina el riesgo al comprar una opción.

¿Usted cree que la ecuación Black-Scholes es la culpable de la crisis?
Si existe un único factor al que se puede culpar de la crisis financiera ese es la desregulación masiva de los mercados financieros en la era Bush-Thatcher. Aquello abrió la puerta a multitud de métodos contables dudosos y paralelamente alentó a los ejecutivos a tomar riesgos cada vez más elevados con el dinero de otras personas para su beneficio personal. Digamos que era un choque de trenes anunciado.

Entonces, ¿qué tienen que ver las matemáticas con la crisis?
Ahora lo entenderá. El crash financiero no lo causó un único factor. Dudo que nadie entienda al 100% todo lo que ocurrió. La ecuación Black-Scholes es solo uno de los muchos factores involucrados. El modelo contribuyó de una manera muy concreta: facilitó un crecimiento exagerado del mercado de opciones a lo largo de la última década de este siglo, ofreciendo precios estándar a opciones y otros derivados. Si un trader usaba la ecuación Black-Scholes y perdía dinero decían que era mala suerte, no una decisión sin apenas criterio por parte del trader. El mundo financiero se inundó de confianza. La ecuación funcionaba bien en condiciones normales de mercado, lo que alentó a los bancos a usarla. La economía mundial floreció durante un tiempo porque el mercado de opciones creció...

Y entonces...
El mercado de derivados creció a lo grande, demasiado rápido, y se perdió el control. Para empeorar las cosas, los banqueros y los traders pronto se olvidaron de las limitaciones de la ecuación, es decir, de los supuestos específicos acerca de cómo el precio de mercado es probable que cambie. Esos supuestos son demasiado simplistas en cuanto los mercados se ponen nerviosos. Se asume que los grandes cambios bruscos en el mercado son extraordinariamente poco probables. De hecho, este tipo de cambios repentinos y de gran calado que el modelo predice deberían ocurrir una vez cada un millón de años, aunque en realidad pueden suceder -y suceden- muchas veces en una semana, especialmente cuando los traders empiezan a perder los nervios y el pánico se apodera de ellos.

¿Cuál es el problema de este modelo?
Hay varios problemas. La ecuación, como cualquier otro modelo matemático que han inventado los seres humanos, se basa en suposiciones. El trabajo detrás de la elaboración de esta ecuación dejaba claro que existían unos supuestos. Todo el mundo era consciente de que dichos supuestos no siempre miden con precisión el comportamiento del mercado. Sin embargo, la 'sabiduría popular' estimó que las excepciones eran poco frecuentes y que existen formas de reducir o eliminar el riesgo asociado. Tal es así que se decidió usar una propiedad como garantía y nadie preguntó qué podía pasar con los valores de propiedad si el mercado se hundía.

Me suena...
Muchas de las personas que utilizaban la ecuación hicieron caso omiso a las limitaciones, algunos no se dieron cuenta siquiera de que las hubiera. De hecho, se utilizaba la ecuación como si fuera algo mágico que les podía proteger de cualquier daño. Los ejecutivos de los bancos no entendían de matemáticas y trataron al modelo Black-Scholes como si fuera el evangelio. Los analistas que sí sabían de matemáticas no entendían qué estaban haciendo sus jefes, simplemente se dedicaban entregar los informes con la suma de beneficios. Hubo falta de comunicación.

¿Se continúa usando esta fórmula hoy?
Los operadores siguen utilizando la ecuación Black-Scholes. Espero que ahora sepan apreciar los peligros, aunque no sé si el sistema bancario ha aprendido algo de todo esto al margen de cómo extraer enormes cantidades de dinero de los contribuyentes para pagar por sus errores.

Explíqueme de otras ecuaciones involucradas en el mundo financiero
Hay muchas otras ecuaciones y modelos matemáticos para diferentes tipos de instrumentos financieros, tales como los derivados, que son un poco como las opciones, pero más complicadas. Estos modelos pueden ser, y en muchos casos son, incluso menos fiables que la ecuación Black-Scholes. El sector financiero ha construido un sistema que proporciona grandes beneficios cuando funciona pero que es tremendamente inestable cuando deja de hacerlo. Es como fabricar coches que van a la velocidad del sonido pero no tienen volante ni frenos. Cuando la cosa funciona, todo el mundo llega a su destino a una velocidad increíble aunque no hace falta ser un genio para prever que será un peligro y que en algún momento dado se producirá un choque masivo.

Tal y como lo cuenta parece que todo el sistema financiero es una ficción matemática que afecta a la vida real y a la gente real
Estoy de acuerdo. Muchas cosas que son vitales para nuestras vidas son ficciones similares. El sistema financiero es una construcción humana compartida. La raíz de todo esto es el concepto de dinero. El dinero tiene valor, porque todos estamos de acuerdo en que tiene valor. Si cambiáramos de opinión mañana y nos negáramos a aceptarlo, el dinero se convertiría en algo inútil. El sector financiero ha construido un edificio enorme y complejo basado en el dinero, y muchas de las inestabilidades se producen porque el dinero puede ser hoy transferido de inmediato a la otra punta del mundo, algo que no se puede hacer con los coches o las vacas. El mundo virtual del dinero le ha ganado al mundo real de los coches y las vacas. Ningún ingeniero volvería a construir algo tan inestable... o a tener el derecho legal para hacerlo.

¿La economía mundial necesita más matemáticas?
Déjeme decirle primero que no fueron las matemáticas las que causaron el daño. La ecuación Black-Scholes ha sido solo un factor, y de hecho ha funcionado bien y sus supuestos continúan siendo válidos. Fue el abuso de las matemáticas las que ayudaron a desencadenar la crisis, junto con una docena de otras razones: los banqueros cegados por la codicia que prestaron dinero a personas que nunca podrían pagar, la gente que tomó prestado el dinero y que sabía que no podría pagar, los ministros del Gobierno que no se detuvieron ni un instante para preguntarse en qué se basaba toda aquella prosperidad económica...

(...)
El abandono por completo de las matemáticas no es una opción viable. El sistema es demasiado complejo para ser ejecutado mediante el sistema de ensayo error, los presentimientos o lo que le dicte a uno el corazón. Los traders y los banqueros a menudo piensan que tienen un instinto especial para los mercados, pero se auto-engañan. Los estudios demuestran que un mono tomando decisiones al azar lo hace tan bien como ellos en los mercados. Así que debemos utilizar un enfoque más científico, aunque solo sea para comprender la naturaleza de los mercados y por qué son inestables, algo que nos permitirá rediseñarlos, imponer regulaciones sensatas, etcétera. Los actuales modelos matemáticos no representan la realidad de manera adecuada, un objetivo debe ser el desarrollo de mejores modelos. Otro tiene que ser reeducar a los banqueros acerca de las peligrosas inestabilidades del sistema que han construido.

¿Es cierto que debido a los fundamentos del propio sistema financiero es más probable que perturbaciones como las actuales se repitan en periodos más cortos en el futuro?
A menos que cambie drásticamente, sí. Es evidente si nos fijamos en el historial de los últimos 20 años. En 2007 el sistema financiero internacional negociaba derivados por valor de un cuatrillón de dólares al año. Esto es diez veces el valor total, ajustado a la inflación, de todos los productos fabricados por las industrias manufactureras del mundo durante el último siglo. Y todo empezó a finales de 1990. Esto demuestra que la economía virtual de derivados es mucho mayor que la real de bienes y servicios. Las finanzas viven en una nube en el país de Nunca Jamás. Esto nos lleva a burbujas especulativas a punto de estallar y que costarán a millones de personas sus puestos de trabajo, sus hogares, sus matrimonios, sus pensiones y sus ahorros.

¿Y qué sugiere?
El principal objetivo del sector financiero en este momento es hacer cada vez más dinero y cada vez más rápido. El precio que se paga por ganar dinero muy rápido y en grandes cantidades es la inestabilidad masiva. También se puede perder muy rápido y en cantidades incluso mayores. A menos que se realicen cambios drásticos y fundamentales en el sistema en su conjunto el gran impacto que viene será mucho peor. De hecho, en la distancia, ahora estamos en el comienzo de la próxima crisis, y la crisis ha ido más allá de los bancos y afecta a naciones enteras. Los buitres están recogiendo ahora de las naciones, una a una. Grecia es la que toca este mes, ¿cuál será la próxima?

El profesor Ian Stewart ha escrito recientemente el libro 17 Equations That Changed the World.