martes, 13 de noviembre de 2012

Año Internacional de la Cooperación en la Esfera del Agua (2013)

El próximo año fue declarado “Año Internacional de la Cooperación en la Esfera del Agua” por la Asamblea General de las Naciones Unidas. El objetivo del Año Internacional será dar a conocer el potencial que implicaría un aumento de la cooperación, así como difundir los desafíos que enfrenta la gestión del agua debido al aumento de la demanda de acceso, la asignación y los servicios de los recursos hídricos. 

Se resaltarán iniciativas exitosas de cooperación en torno al agua y se identificarán los temas más relevantes entre los cuales se encuentran: educación sobre el agua, diplomacia del agua, gestión de aguas transfronterizas, financiación, marcos jurídicos nacionales e internacionales y vínculos con los Objetivos de Desarrollo del Milenio. 

También será una oportunidad para aprovechar el impulso creado en la Conferencia de las Naciones Unidas sobre el Desarrollo Sostenible (Río +20), y para apoyar la formulación de nuevos objetivos que contribuyan al desarrollo sostenible de los recursos hídricos. La UNESCO fue designada oficialmente para llevar los preparativos para el Año Internacional y el Día Mundial del Agua en 2013. Como todos los años el 22 de marzo del 2013 se celebrará el Día internacional del Agua, en esta ocasión también se dedicarán esfuerzos para la cooperación en esta temática.

Fuente

Nueva planta solar fotovoltaica en San Juan (Argentina)

La provincia cuyana dio el primer paso de un ambicioso plan para aprovechar la alta radiación solar en la zona. La instalación “San Juan I” entregará 1,2 Mw al sistema eléctrico nacional.
La provincia de San Juan se convirtió el 18 de abril pasado en la primera en la Argentina –y algunos dicen que en toda America Latina- en contar con una planta de energía fotovoltaica conectada a la red eléctrica. La denominada Planta Fotovoltaica Piloto “San Juan I” está pensada para inyectar 1,2 megavatios en el sistema eléctrico nacional, según informó la empresa sanjuanina Energía Provincial Sociedad del Estado (EPSE), que en 2009 había llamado a un concurso de precios para construir, operar y mantener durante seis meses la central solar. La instalación sustentable, que en total costará unos 38 millones de pesos, tiene la característica de contar con tres tipos diferentes de paneles fotovoltaicos, fijos y móviles, que según la firma que la construyó –la catalana Comsa Emte- son las actuales “principales tecnologías del mercado: placas policristalinas, monocristalinas y de silicio amorfo”. La Planta Fotovoltaica Piloto “San Juan I” está ubicada en Ullum, a 30 km de la capital provincial, en una de las zonas con mayor cantidad de horas anuales radiación solar del país como es la región de Cuyo.
 
En EPSE informaron que el 70 por ciento de los paneles de la planta son fijos “con ajuste estacional”.

“Solar San Juan”
La nueva planta es parte de un plan del gobierno provincial llamado “Solar San Juan”,  que busca desarrollar allí “un polo tecnológico fotovoltaico, estimular la investigación y desarrollo y atraer inversiones”. Desde la empresa provincial también destacaron que en territorio sanjuanino la estatal ENARSA, a través del programa Genren, ya licitó otros 30 megavatios de energía fotovoltaica, en un concurso en el que resultaron ganadores las empresas Emgasud y Bahuen Efacec. Por otro lado, según el sitio web EnerNew, Comsa no participó en ese concurso debido a su “incertidumbre acerca de cómo evolucionará el tema tarifario” en la Argentina.
En España, la empresa instaló los parques solares Viso del Marqués (Sevilla) y Albesa (Lleida), además de una “fachada de células fotovoltaicas semitransparentes de colores en el Museo Nacional de la Ciencia y la Técnica de Cataluña en Terrassa (Barcelona)”, entre otras obras con tecnologías solares.
En el llamado para concretar la Planta Fotovoltaica Piloto “San Juan I” quedaron el camino de la licitación otras cinco firmas (Energías Sustentables, International New Energy, Nord Aldyl, Generación Eólica y Dalkia), que habían propuestos siete diferente proyectos en los parajes Cañada Honda, La Chimbera y Las Lomitas. 


El origen de los rayos cósmicos sigue siendo un misterio



Una de las hipótesis para explicar las altas energías de la radiación cósmica es que se acelera gracias a los estallidos de rayos gamma. Los físicos del telescopio polar IceCube esperaban que sus observaciones de neutrinos les ayudaran a confirmar esta idea, pero no ha sido así. Por eso creen que los modelos teóricos deberían ser revisados.

Los rayos cósmicos procedentes del espacio exterior viajan con tanta energía que, según los físicos, "solo los núcleos activos de las galaxias o los estallidos de rayos gamma pueden producirlos", explica a SINC Nathan Whitehorn, científico del telescopio IceCube. A pesar de estas dos hipótesis, su origen sigue siendo un misterio.

Whitehorn y su equipo han intentado dilucidar de dónde proceden estos rayos cósmicos superenergéticos. Esperaban encontrar la respuesta en la Antártida, donde opera IceCube, el telescopio de neutrinos más sensible del planeta. Pero no lo han conseguido, como explican en un artículo publicado en la revista Nature.
"Determinar el origen de esta radiación es algo muy difícil por varias razones -señala el científico-, como por ejemplo, que no viaja en línea recta". En cambio los neutrinos sí lo hacen y, según los modelos teóricos vigentes, las explosiones de rayos gamma que acelerarían la radiación cósmica también producirían neutrinos.

El resultado esperado era que, entre los años 2008 y 2010, los telescopios detectaran 10 neutrinos asociados a brotes de rayos gamma, pero no ha sido así. "No hemos detectado ninguno y esto significa que quizás hemos de revisar los modelos teóricos actuales sobre el origen de los rayos cósmicos", afirma Whitehorn.

Los autores del estudio contemplan dos posibles explicaciones para estos sorprendentes resultados. Una es que los estallidos de rayos gamma no sean la única fuente de rayos cósmicos, "lo que desviaría nuestra atención hacia otros posibles orígenes, como los núcleos activos de galaxias", especifica Whitehorn. Y la otra es que la producción de rayos cósmicos no esté acompañada por tantos neutrinos como se creía.

Los brotes de rayos gamma son los eventos electromagnéticos más luminosos del universo. Están asociados a grandes explosiones en galaxias muy lejanas y se ha comprobado que un estallido típico es muy corto, de unos pocos segundos, y puede generar la misma energía que el sol en un período de diez mil millones de años.

"Todavía son fenómenos misteriosos para nosotros. Necesitamos continuar con las medidas de neutrinos para llegar a entender este proceso", explica el físico.
Necesitamos continuar con las medidas de neutrinos para llegar a entender este proceso

Fuente

Modelos matemáticos predicen Ártico sin hielo en 2100


Especialistas del Centro de Ciencias de la Atmósfera de la UNAM destacaron que si bien las proyecciones no predicen con exactitud el clima del futuro, tampoco ese debe ser un pretexto para no emprender acciones que frenen el cambio climático    

Reunidos en el Seminario Permanente de Cambio Climático, organizado por el Programa de Investigación en Cambio Climático de la UNAM (PIINC), especialistas mostraron varios posibles escenarios de cómo el sistema climático de la Tierra puede cambiar en el futuro, de acuerdo con los modelos del Panel Intergubernamental de Cambio Climático (IPCC, por sus siglas en inglés). 

Una de las potenciales consecuencias previstas por los modelos climáticos es que, alrededor del año 2100, podría haber un Ártico sin hielo a finales del verano. Esto ocurriría en un escenario en el que las emisiones de gases de efecto invernadero se mantuvieran, que hubiera un crecimiento poblacional constante y un crecimiento económico y tecnológico lento e, incluso, si hubiera un crecimiento balanceado de las fuentes de energía. 

Carlos Gay García, Benjamín Martínez López y Arturo Quintanar Isaias, investigadores del Centro de Ciencias de la Atmósfera de la UNAM (CCA), coincidieron en que si bien los modelos matemáticos utilizados actualmente para predecir el calentamiento global tienen un alto grado de incertidumbre y son insuficientes para predecir con certeza cómo será el clima en el futuro en un lugar específico, estas limitaciones no deben ser tomadas por las autoridades y los gobiernos como pretexto para no tomar ninguna medida que frene el cambio climático. 

Benjamín Martínez López, especialista en oceanografía física, destacó que las estimaciones de los modelos matemáticos son sólo eso, estimaciones, y que no existe modelo alguno que explique claramente, por ejemplo, qué sucede con el movimiento de masas en el océano.
Resaltó que el nivel de incertidumbre que existe en los modelos matemáticos utilizados para predecir el clima es muy alto. A manera de ejemplo, señaló que ha habido cambios en el nivel del mar en lugares como Quintana Roo, que van de 2 a 3 metros en 50 años, cuando algunos modelos matemáticos predecían unos 28 centímetros para el año 2100. 

El especialista en Ciencias de la Tierra, invitó a tener presente que los modelos matemáticos que pretenden predecir el clima son una herramienta que se usa para ver que podría suceder, e insistió en que se debe mantener una postura crítica respecto a sus resultados.
Para que los modelos matemáticos arrojen resultados más confiables, propuso hacer simulaciones más largas en el tiempo, que permitan comprender mejor cómo funciona el clima y elaborar modelos regionales que tengan en cuenta variables que los modelos globales no toman en consideración. 

En su oportunidad, Carlos Gay García, coordinador del PIINC y del Centro Virtual del Cambio Climático de la Ciudad de México reconoció que la incertidumbre de los modelos es muy alta, pero consideró que no es tan grande como para que sus resultados deban ignorarse.
Por el contrario, aseguró que es necesario que la sociedad y los tomadores de decisiones actúen aún con esas incertidumbres, y que las ciencias sociales y las humanidades aporten sus conocimientos para abordar más integralmente el problema del cambio climático global.
Aunque en los detalles los modelos numéricos tienen limitaciones, hay evidencia suficientemente robusta que nos dice que el clima del planeta va a cambiar en los próximos 100 años, y ningún modelo estima que la temperatura de la Tierra va a bajar o que el clima va a ser el mismo en ese periodo de tiempo, sostuvo. 

El coordinador del Seminario Permanente de Cambio Climático aseveró que, con frecuencia, los gobernantes exigen que los científicos les digan con precisión cuántos grados va a cambiar la temperatura para determinado año, en cierto Estado de la República, y si va a llover o no va a llover y qué tanto. Esto no sólo es imposible, sino que además no es la información que ellos necesitan para actuar.
Por otro lado, Arturo Quintanar dijo que hay gran diferencia en el entendimiento científico que se tiene de los distintos forzantes radiativos, es decir, los factores que pueden calentar o enfriar el sistema climático. 

Algunos forzantes, como el CO2 y el metano, han sido ampliamente estudiados y se conoce claramente su comportamiento en la atmósfera, mientras que otros, como los aerosoles, el carbón negro y el uso de suelo o la cobertura vegetal, han sido muy poco estudiados y la comunidad científica desconoce el detalle de sus efectos en el sistema climático.
El especialista dijo que para avanzar en el conocimiento que se tiene de la influencia que la cobertura vegetal presenta sobre el clima, en el Centro de Ciencias de la Atmósfera han desarrollado modelos numéricos en los que se ha sustituido la cobertura vegetal actual de algunas regiones del mapa de México donde hoy hay cultivos, por la cobertura vegetal que tendría si no hubiera humanos en el planeta, es decir bosques tropicales. 

Los resultados de sus experimentos numéricos mostraron que habría un aumento de la temperatura en la zona de Veracruz, a pesar de que esperaban que la presencia de bosques tuviera un efecto de enfriamiento. Por otro lado, los expertos aún no pueden explicar cuál es el mecanismo que ocasionaría este calentamiento. 

Arturo Quintanar dijo que los resultados de sus experimentos numéricos aún son preliminares, pero constituyen un paso para empezar a conocer cómo influye o interacciona la cobertura vegetal con la atmósfera y el clima.
Dirección General de Divulgación de la Ciencia, UNAM
Fuente

Aseguran que se detuvo la destrucción de la capa de ozono


Las últimas mediciones de la Organización Meteorológica Internacional (OMI) indican que en septiembre de 2011 el agujero de la capa de ozono alcanzó un área máxima en la zona antártica de 24,4 millones de km2, mientras que el máximo se alcanzó el año 2006 (con 28 millones de km2). Los especialistas coinciden en que se ha estabilizado la destrucción, y que los indicadores demuestran que la tendencia es que siga bajando, aunque el problema no está resuelto del todo, principalmente porque los gases ya emitidos a la atmósfera siguen interactuando y provocando el mismo efecto en la primavera austral.

De todas maneras, los expertos de la OMI dicen que si no se hubiera firmado el protocolo de Montreal, dos terceras partes de la capa se habrían destruido; la radiación ultravioleta se hubiera incrementado seis veces, y, en apenas cinco minutos, la exposición al Sol habría causado quemaduras en la piel . Sin capa de ozono, aumenta el riesgo de contraer cáncer de piel, enfermedades oculares, como cataratas, y daños al sistema inmunológico, además de afectar al ecosistema.

La previsión es que la destrucción de la capa de ozono retroceda lentamente y que para mediados de siglo, en el año 2050, pueda volver a los niveles alcanzados en los años ochenta.
Desde principios de esa década, la destrucción de la capa de ozono tuvo un incremento continuo y regular. Pero desde finales de los noventa, cuando comenzó a aplicarse el protocolo, se aprecia una estabilización.

El Protocolo de Montreal se concentraba específicamente en reducir los gases conocidos como CFC (clorofluorocarbonos), presentes en aerosoles y equipos de refrigeración.

Pero el principal problema surgió con los productos que se utilizaron para reemplazarlos. La mayoría de ellos con el compuesto Hcfc (hidroclorofluorocarbonos). “El Hcfc más utilizado es casi 2.000 veces más potente que el dióxido de carbono en sus efectos sobre el calentamiento de la Tierra”, dijo Ban Ki-moon, secretario general de las Naciones Unidas, en un mensaje con motivo del Día Internacional de la Preservación de la Capa de Ozono.

El desafío que viene, coinciden los especialistas, es controlar a los gases Hcfc. Piden que sean totalmente reemplazados para el año 2040, una medida que estaría a la altura de aquel histórico encuentro de Montreal, hace ya 25 años, que logró controlar el agujero en la capa de ozono.
Las últimas mediciones de la Organización Meteorológica Internacional (OMI) indican que en septiembre de 2011 el agujero de la capa de ozono alcanzó un área máxima en la zona antártica de 24,4 millones de km2, mientras que el máximo se alcanzó el año 2006 (con 28 millones de km2). Los especialistas coinciden en que se ha estabilizado la destrucción, y que los indicadores demuestran que la tendencia es que siga bajando, aunque el problema no está resuelto del todo, principalmente porque los gases ya emitidos a la atmósfera siguen interactuando y provocando el mismo efecto en la primavera austral.

De todas maneras, los expertos de la OMI dicen que si no se hubiera firmado el protocolo de Montreal, dos terceras partes de la capa se habrían destruido; la radiación ultravioleta se hubiera incrementado seis veces, y, en apenas cinco minutos, la exposición al Sol habría causado quemaduras en la piel . Sin capa de ozono, aumenta el riesgo de contraer cáncer de piel, enfermedades oculares, como cataratas, y daños al sistema inmunológico, además de afectar al ecosistema.

La previsión es que la destrucción de la capa de ozono retroceda lentamente y que para mediados de siglo, en el año 2050, pueda volver a los niveles alcanzados en los años ochenta.
Desde principios de esa década, la destrucción de la capa de ozono tuvo un incremento continuo y regular. Pero desde finales de los noventa, cuando comenzó a aplicarse el protocolo, se aprecia una estabilización.

El Protocolo de Montreal se concentraba específicamente en reducir los gases conocidos como CFC (clorofluorocarbonos), presentes en aerosoles y equipos de refrigeración.

Pero el principal problema surgió con los productos que se utilizaron para reemplazarlos. La mayoría de ellos con el compuesto Hcfc (hidroclorofluorocarbonos). “El Hcfc más utilizado es casi 2.000 veces más potente que el dióxido de carbono en sus efectos sobre el calentamiento de la Tierra”, dijo Ban Ki-moon, secretario general de las Naciones Unidas, en un mensaje con motivo del Día Internacional de la Preservación de la Capa de Ozono.

El desafío que viene, coinciden los especialistas, es controlar a los gases Hcfc. Piden que sean totalmente reemplazados para el año 2040, una medida que estaría a la altura de aquel histórico encuentro de Montreal, hace ya 25 años, que logró controlar el agujero en la capa de ozono.