martes, 24 de febrero de 2009

La naturaleza del tiempo (Libro)

Les presento el libro "La naturaleza del tiempo" de Marcelo Levinas (Doctor en Física).
Como todo buen libro sobre temas tan elusivos, La Naturaleza del tiempo, usos y representaciones del tiempo en la historia lanza una serie de interrogantes –algunos básicos, otros no tanto– sobre el discurrir de los años, horas, minutos y segundos: “¿Existe el tiempo? ¿Es independiente del sujeto? ¿Existe una sola especie de tiempo? ¿Es circular o lineal? ¿El tiempo es reversible? ¿Homogéneo? ¿Universal?”.
“El ‘más allá’, ¿es tiempo o es espacio? ¿Es posible detener el tiempo? ¿Un dios omnipotente podría cambiar el pasado? ¿Somos libres de decidir el futuro? ¿Por qué necesitamos establecer un origen del tiempo y no su final? ¿Es el tiempo un ‘recurso inagotable’?”, clausuran la larga lista de preguntas que formulan Marina Rieznik, Sandra Sauro y Aníbal Szapiro, entre otros; todo un intento de recorrer la historiografía del tiempo, bajo un pensamiento atravesado por los fundamentos y las características de lo multidisciplinar.
Investigador del Conicet, Doctor en Física por la Universidad de Buenos Aires, Levinas oficia de editor en un intento logrado por “hacer accesible al lector de manera inmediata algunos problemas significativos referidos a la noción de tiempo y a los usos que se le ha dado a lo largo de la historia”.
La Naturaleza del tiempo, usos y representaciones del tiempo en la historia se divide en cuatro capítulos: “Tiempo, naturaleza e historia”; “La naturaleza del tiempo, formas de percibirlo y formas de medirlo”; “El Tiempo, la Tierra y la Vida” y “Técnica, producción y ocupación de tiempo” forman la espina dorsal de esta propuesta absolutamente ineludible y “apta para todo público”.

La Vía Láctea contiene millones de planetas parecidos a la Tierra

Casi todas las estrellas similares al Sol tendrían orbitando a su alrededor un planeta capaz de albergar vida como la Tierra. A esa conclusión llegó el astrónomo estadounidense Alan Boss en un estudio que expuso recientemente.

Según el diario español “El Mundo”, que se hayan descubierto cientos de planetas alrededor de estrellas remotas de nuestra galaxia sugiere que la mayoría de los sistemas solares tienen un entorno como el nuestro, capaz de sostener vida.

“Estamos a punto de averiguar con qué frecuencia aparecen planetas habitables en el Universo. Hace poco más de 20 años, no sabíamos de la existencia de ninguno aparte de la Tierra. Ahora conocemos bastantes más de 300”, señaló Boss. Y agregó: “si existe un planeta con la temperatura correcta y agua a lo largo de miles de millones de años, está destinado a lograr vida".
Según el astrónomo, es probable que algunos astros hayan producido organismos y civilizaciones inteligentes, aunque las posibilidades de localizarlos son escasas.

Primera misa en El Vaticano en memoria de Galileo Galilei


El astrónomo Galileo Galilei tuvo el domingo en Roma su primer homenaje por parte de la Iglesia católica a 367 años de su muerte, con una misa promovida por la Federación Mundial de Científicos en el Año Internacional de la Astronomía y aprovechada por el Vaticano para rendirle tributo. En 1633, por afirmar que la Tierra gira alrededor del Sol, había sido excomulgado por la santa y temible Inquisición.

En el siglo XVII la figura de Galileo era denostada por el poder eclesial. Sus teorías revolucionarias convirtieron a este impulsor de la ciencia moderna en un enemigo de la Santa Sede. Sin embargo, llegó finalmente su reconocimiento. La celebración, que fue oficiada por monseñor Gianfran-co Ravasi en la basílica romana de Santa Maria degli Angeli, apuntó a demostrar que los legados científicos tuvieron aceptación en la doctrina católica. “Galileo fue un hombre de fe, un hombre de ciencia”, consideró el secretario de Estado del Vaticano, Tarcisio Bertone, quien además bendijo a los participantes del evento en nombre del papa Benedicto XVI.

Bertone apuntó que en esta época emerge una nueva frontera de científicos que sobre el legado de Galileo no renuncian ni a la razón ni a la fe, lo que los revaloriza en su “propia reciprocidad”.

Galileo tuvo un paso fugaz por la carrera de Medicina, que luego cambió por las matemáticas. Ese tiempo le permitió completar su propia teoría del movimiento y de la caída parabólica. Su otra pasión fue la astronomía, donde coincidía con Copérnico en que el Sol no giraba en torno a la Tierra, sino al revés. Luego de conocer el telescopio, se abocó a elaborar una versión mejorada del mismo que le posibilitó hacer sus primeros descubrimientos de la Luna hacia 1610.

En 1632 Galileo publicó su obra Diálogo sobre los dos máximos sistemas del mundo, donde evidenció su aceptación de las teorías de Copérnico. Por este motivo, “por dañar a la Iglesia”, fue enjuiciado un año después. Casi cuatro siglos más tarde, en 1992, Juan Pablo II intentó una rehabilitación de su figura. Una comisión de expertos, tras diez años, concluyó que “los jueces de Galileo, incapaces de disociar la fe de una cosmología anticuada, creyeron, totalmente equivocados, que la adopción de la revolución copernicana podría minar los fundamentos de la tradición católica, y que era su obligación prohibir que se la enseñara.

Este error subjetivo los llevó a tomar medidas disciplinarias que causaron un gran sufrimiento a Galileo”.La redención de Galileo llegó finalmente en 2009, Año Internacional de la Astronomía, según proclamó la asamblea 62º de la Organización de las Naciones Unidas (ONU). La idea correspondió a Italia, país natal del científico, y tuvo el apoyo de la Unión Astronómica Internacional y de Unesco.

Un cometa con dos colas ya visita nuestro cielo


Se llama C/2007 N3 Lulin, nombre complicado de recordar, y tiene un color verdoso. Se lo puede mirar con largavistas. Y lo que hace a la experiencia más especial es que contará con dos colas.

"En realidad todos los cometas tienen dos colas, una de gas y una de polvo, que es opaca", explicó a Clarín la doctora Beatriz García, investigadora del Conicet y miembro del nodo nacional para el año de la astronomía. "De acuerdo a la proyección de la luz solar y la posición del cometa, se pueden reflejar ambas, o solamente la de gas, que es la que siempre se ve", agregó.

Lulin, como lo llaman los astrónomos, se postula como uno de los cometas más brillantes de los últimos tiempos y proviene de afuera del sistema solar. "El 24 de febrero, entre las 4 de la mañana y el amanecer, es cuando más cerca va a estar de la tierra, a 60 millones de kilómetros", aclaró Julián Martínez, astrónomo del Observatorio de Córdoba e investigador del Conicet. En ese momento, con o sin binoculares, se podrá divisar, aunque "es mejor estar en un lugar alejado de la ciudad, bien oscuro. Porque las luces pueden opacar su resplandor", aclaró Martínez.

Se estima que Lulin contará con una magnitud 5 en cuanto a brillo, "que no es tan fuerte", detalla el astrónomo y compara: "las tres Marías cuentan con una magnitud entre 2 y 3, para tener un punto de referencia", siendo 1 lo más brillante.

Siempre impredescibles y difíciles de estudiar con anterioridad, los cometas están compuesstos por un núcleo formado de elementos de la nebulosa del sistema solar mezclados con hielo que se volatiliza a medida que el cometa se acerca al sol, y forma la cabellera en torno al núcleo y la coma, o cola. En el caso de Lulin, su núcleo está compuesto, en parte, por "cianógeno y carbono diatómico, que es lo que le da el tono verdoso", agregó Martínez.

Descubierto el 11 de julio de 2007 por los astrónomos Quanzhi Ye, de China, y Chi Sheng Lin, de Taiwán, el cometa recibió su nombre en honor al Lulin Observatory de Nantou. Identificado en primer momento como un asteroide, y una amenaza para la tierra, fue confirmado 6 días después como cometa por el Table Mountain Observatory de California, Estados Unidos.

lunes, 16 de febrero de 2009

Proyectos para futuros telescopios

Gracias al Ares V se podrían poner en órbita telescopios gigantes que nos abrieran nuevas ventanas al Universo.

Foto
Comparativa entre un telescopio monolítico de ocho metros y el Hubble. Foto: NASA.

En este Año Internacional de la Astronomía algunos miembros de la NASA sueñan con que algún día se pueda poner en órbita telescopios gigantes como jamás antes los habíamos esperado. Harley Thronson, líder de los estudios conceptuales avanzados del Goddard Space Flight Center, dice que gracias al Ares V será posible.
Ares V es parte del sistema que, en teoría, si hay dinero y voluntad, conseguirá poner al hombre otra vez sobre la Luna. Es un lanzador de cargas pesadas capaz de poner en órbita 180 toneladas (el equivalente a 17 autobuses escolares), seis veces más peso y tres veces el volumen que la actual lanzadera espacial puede colocar. Con esa capacidad se podrían poner telescopios enormes en órbita, donde la ausencia de atmósfera permite observaciones libres de turbulencias las 24 horas del día. Cuanto mayor es el espejo primario de un telescopio mayor es su poder de resolución y mayor la cantidad de luz que puede recoger.

Con el Ares V se podría poner un telescopio con un espejo monolítico de 8 metros de diámetro a un costo aceptable y sin demasiados riesgos. Tendrían un resolución tres veces superior a la del Hubble (con sus modestos 2,4 metros) y recogería 11 veces más luz.

Pero el Ares también podría transportar un telescopio segmentado de 16 metros denominado ATLAS (Advanced Technology Large-Aperture Space Telescope), que proporcionaría una ciencia espectacular. Sería 2000 veces más sensible que el Hubble y proporcionaría imágenes con una resolución siete veces mejor. Observaría en el visible y UV.

Con ATLAS el descubrimiento de planetas habitables estaría a la vuelta de la esquina, ya que podría detectar planetas de tipo terráqueo en otros sistemas solares dentro de una esfera de 70 años luz de radio centrada en la Tierra. Podría además medir sus espectros en busca de señales del oxígeno libre, o del vapor de agua. Además proporcionaría datos importantes para entender los agujeros negros supermasivos en los centros galácticos.

Pero también se podría diseñar un telescopio similar en el infrarrojo de 8 o 16 metros que permitiría entender la formación de las primeras estrellas y galaxias, y observar muy cerca del borde del Universo visible.

Incluso se podría poner en órbita un telescopio de rayos X similar al Chandra, pero de 8 metros de diámetro (1000 veces más sensible) que permitiera ver los primeros agujeros negros formados justo después del Big Bang.

Quizás, si se encuentra el dinero en estos tiempos de crisis, todos estos sueños sean posibles, pero curiosamente nadie se pregunta qué telescopios podríamos tener ya en órbita si se hubiera utilizado el Saturno V para ese fin hace décadas o qué hacen los astronautas de la estación espacial, aparte de medirse la presión arterial continuamente, en un “hotel” tan caro.

Fuentes y referencias:
Nota de prensa de la NASA.

Está cerca la solución de la Hipótesis de Riemman???

Científicos de la Universidad de Cambridge y el Consejo Superior de Investigaciones Científicas (CSIC) han dado pasos para demostrar la Hipótesis de Riemman, uno de los problemas matemáticos del milenio, vinculado con el reparto de los números primos y cuya solución está premiada con un millón de dólares.

EFE La importancia de la hipótesis radica en su relación con la pauta de distribución, dentro de la serie de los números naturales, de los números primos -aquellos que son sólo divisibles por 1 o por sí mismos- y que aún no se saben cómo están repartidos.

Los nuevos avances han sido publicados en la revista "The physical review letters", donde los investigadores han propuesto un modelo de física cuántica, un modelo que, aunque aún es incompleto, "podría ser la clave para la demostración de la hipótesis".

Desde hace algunas décadas los científicos sospechan que es posible demostrar la hipótesis de Riemann desde la física.

Los investigadores Germán Sierra, del Instituto de Física Teórica (centro mixto del CSIC y la Universidad Autónoma de Madrid), y Paul Townsend, de la Universidad de Cambridge, proponen un modelo en el que un electrón es sometido a determinados campos electromagnéticos.

El modelo "es aún incompleto, aunque pensamos que es un buen punto de partida para una posible demostración física de la hipótesis y puede estimular el trabajo de otros investigadores", ha opinado Sierra.

Sin embargo, esto no llevaría a una demostración de la hipótesis, que debe hacerse en términos exclusivamente matemáticos.

La hipótesis de Riemann fue formulada en 1859 por el matemático alemán Georg Friedrich Bernhard Riemman y, aunque de manera algo compleja, está directamente relacionada con los números primos y su pauta de distribución a lo largo de la serie de números naturales.

Como no era una parte central de su investigación, el propio Riemann obvió su demostración y, desde entonces, la comunidad matemática ha intentado hacerlo sin éxito.

En el año 2000, el Instituto Clay de Matemáticas (Estados Unidos) la incluyó como uno de los problemas del milenio, ofreciendo un millón de dólares a quien la demostrara.

La hipótesis en sí se deriva de la llamada función zeta de Riemann, que se define como la suma de los inversos de los números enteros elevados a una potencia que se llama habitualmente "s".

Al alimentar esta función a veces el valor resultante es cero, siendo alguno de estos ceros fáciles de predecir y otros no.

Lo que Riemann intuyó -en esto consiste su hipótesis- es que todos están alineados sobre una misma recta de un plano y descubrió que la posición de los ceros determina la posición de todos los números primos.

En el modelo ahora propuesto los niveles de energía del átomo coinciden, en término medio, con la posición de los ceros de la función zeta de Riemann, aunque aún no es capaz de determinar su posición exacta, según el CSIC.

Fuente

Cúmulos galácticos y energía oscura

Unos astrónomos han podido medir el efecto de la energía oscura sobre algunos de los objetos del Universo más masivos conocidos gracias al telescopio de rayos X Chandra. Hasta el momento es la mejor prueba disponible sobre la existencia de esta energía oscura y de su semejanza con la constante cosmológica de Einstein.

Foto
Uno de los cúmulos observados, que brilla en rayos X debido al gas caliente que contiene. Foto: NASA, CXC, SAO.

El resultado, que aparecerá publicado el 10 de febrero de 2009 en Astrophysical Journal, se basa en cómo la energía oscura ha contenido el crecimiento de cúmulos de galaxias y en la utilización de estudios previos. Han obtenido la mejor pista hasta el momento sobre la naturaleza de la energía oscura y sobre el destino final del Universo. Es un método independiente de los hasta ahora usados para el estudio de la energía oscura, y centrados generalmente en la observación de explosiones de supernovas lejanas. Para realizar este trabajo necesitaron varios años de trabajo.

La naturaleza de la energía oscura es uno de los grandes misterios de la ciencia actual desde que se descubrió hace una década. El sentido común dictamina que el Universo debería de expandirse cada vez más lentamente según la gravedad frenara dicha expansión. Pero lo que observaron fue todo lo contrario: la expansión se estaba acelerando. Entre las posibles soluciones que se han aportado para solucionar este problema está la existencia de una constante cosmológica, modificaciones de la ley de la gravedad, existencia de huecos cósmicos, etc. La energía oscura sería una suerte de repulsión gravitatoria y bajo nuestro punto vista lo que parece es que la expansión cósmica se está acelerando siendo cada vez más rápida.
En todo caso el efecto de la energía oscura es que se opone a la gravedad (que depende de la masa de los objetos), compitiendo con ella, y por tanto debe de tener una influencia mensurable en objetos grandes y masivos como las estructuras cosmológicas. El estudio de este tipo de estructuras es más preciso que el método tradicional de observar explosiones de supernova de tipo Ia.

La energía oscura trabajaría en contra de la acumulación de masa (de galaxias) por parte de los cúmulos. Lo que sea que esté acelerando la expansión del Universo ahora está forzando a que se “desarrolle” lentamente, según los autores del estudio.

Se cree que en el pasado la energía oscura no era dominante y la fuerza dominante era la gravedad. Para los observadores de esa época se producía una desaceleración en la velocidad de expansión del Universo, situación que hace entre 5000 y 10.000 millones de años se invirtió. Si la tendencia sigue el Universo se expandirá cada vez más rápido hasta que esté prácticamente vacío de objetos.

Si se observan cúmulos de galaxias a distintas distancias se pueden observar cómo crecían los cúmulos en distintas épocas del pasado y ver cómo les afectaba la energía oscura en su momento.

Foto

Alexey Vikhlinin del Smithsonian Astrophysical Observatory en Cambridge y sus colaboradores observaron docenas de cúmulos de galaxias que se cuentan entre los objetos masivos más grandes del Universo. Los cúmulos de galaxias observados están rellenos de gas muy caliente, gas que emite por tanto rayos X y que el telescopio Chandra puede detectar.

Algunos de esos cúmulos están relativamente cerca y otros a mitad de distancia del borde del Universo visible. De los 86 cúmulos observados 37 estaban a unos 5000 millones de años luz de distancia (y por tanto los vemos como eran hace 5000 millones de años) y 49 a unos 500 millones de años luz. Sus masas fueron determinadas mediante las imágenes de rayos X y sus espectros dando una gama de masas que iban de 1012 a 18 masa solares.

Lo resultados indican que los cúmulos más masivos son sólo un cincuentavo a día de hoy de lo que serían si no hubiera energía oscura. Los cúmulos siguen creciendo actualmente, pero muy lentamente.

Los resultados muestran que el aumento de masa de los cúmulos de galaxias en el tiempo se ajusta a un Universo dominado por la energía oscura. A los cúmulos les es más difícil crecer (acumular galaxias y por tanto masa) si el espacio crece más rápidamente debido a la energía oscura. Según los datos de estos investigadores el resultado está claro y es fuertemente consistente a grandes distancias.

Redondeando las cifras los cúmulos crecieron rápidamente durante los primeros 10.000 millones de años y después no han crecido o lo han hecho más lentamente en los últimos 5.000 millones de años.

Foto
Estos dibujos ilustran el peso de un cúmulo de galaxias típico y los cambios en las escala del Universo a lo largo del tiempo cósmico. La línea naranja corresponde al Universo observado con energía oscura y aceleración cósmica. Las líneas amarilla y azul corresponden a modelos de alta y baja densidad y sin energía oscura. Los resultados sobre los datos en los últimos 7000 millones de años de nuestro Universo concuerdan muy bien con un Universo dominado por la energía oscura. Foto: NASA, CXC, M.Weiss.

Cuando estos resultados se combinan con otros como los procedentes de explosiones de supernovas o los del fondo cósmico de microondas los científicos pueden obtener una mejor comprensión de esta misteriosa energía. La explicación que mejor se ajusta a la energía oscura sería la de la constante cosmológica. La constante cosmológica, un concepto introducido por Einstein en la RG, es constante para una unidad de espacio dada, es una energía del vacío, pero como con el tiempo se va creando más espacio debido a la expansión el efecto de repulsión crece cada día más, el espacio se expande más y así sucesivamente. Lo que observamos finalmente es una aceleración de la expansión cosmológica. Ahora la energía oscura constituye un 72% de la energía total del Universo, pero fue inferior en el pasado.

Sin embargo, aunque la constante cosmológica, se puede meter de manera natural en la Relatividad General, no es fácil hacerla aparecer en análisis teóricos mecanicocuánticos. Las teorías cuánticas de campos predicen una energía del vacío 120 órdenes de magnitud por encima de lo observado (algo que impediría la formación de cualquier estructura en el Universo) y las teorías de cuerdas (unas teorías cada vez más “fraudulentas”) ni siquiera pueden predecirla.
Como métodos diferentes han dado resultados iguales los expertos dicen que es la mejor prueba a la que se ha sometido la Relatividad General y un fracaso para las teorías MOG alternativas que intentan modificarla. Otros se resisten a creer que la partida ha terminado y dicen que todavía hay margen para las sorpresas. Mientras, algunos astrofísicos temen que las medidas nunca serán lo suficientemente precisas como para demostrar o refutar la existencia de la constante cosmológica.

Por otro lado J. P. Zibin, Adam Moss, y Douglas Scott de University of British Columbia también publican en Physical Review Letters un artículo sobre este tema. En él mantienen que basándose en datos procedentes del fondo cósmico de microondas no es posible explicar la energía oscura como un espejismo producido por una situación privilegiada de nuestra galaxia en un hueco cósmico.

Si finalmente la energía oscura es una constante cosmológica el destino del Universo será seguir acelerándose con una velocidad de expansión que crecerá con el tiempo. Los objetos irán desapareciendo de nuestro horizonte observacional en una especie de “agujero negro invertido” conforme sus corrimientos al rojo se hagan infinitos incluyendo el fondo cósmico de microondas. Dentro de 100.000 millones de años la Vía láctea, la galaxia de Andrómeda y el Cúmulo De Virgo habrán formado un único supercúmulo estelar en el Universo visible. Un cúmulo suspendido en el espacio vacío y similar al modelo de De Sitter. Conforme lleguemos a ese punto la información que nos permitió saber sobre la existencia del Big Bang habrá desaparecido para siempre, produciéndose una suerte de olvido cósmico. Las civilizaciones que surjan por entonces no podrán saber sobre el verdadero pasado del Universo porque carecerán de los datos observacionales.

En cierto modo pertenecemos a una época privilegiada en la que podemos saber el origen y evolución del Universo. La ventana temporal a través de la cual una civilización inteligente puede conocer la verdadera naturaleza del Universo es muy estrecha y nos ha tocado vivirla.
O quizás ya se produjo algún tipo de olvido cósmico en el pasado y la idea que tenemos del Universo es incorrecta aunque consistente con los datos que tenemos ahora, datos que quizás nunca serán suficientes para saber la verdad, o lo que sea que signifique eso.

Fuentes y referencias:
Nota de la NASA.

Pistas sobre el origen de la vida

Un par de equipos de investigadores nos dan nuevas pistas sobre cómo y por qué podría haber surgido la vida.

Pocas cosas son más interesantes y tan difíciles de saber como el origen de la vida. Desde que hace ya décadas, gracias al experimento de Miller y Urey, sabemos que es fácil conseguir los bloques orgánicos constitutivos de las moléculas de la vida. Incluso recientemente un análisis de las muestras dejadas por Miller procedentes de experimentos realizados en los cincuenta desveló alguna sorpresa. En esa época Miller realizó unos experimentos con una mezcla de gases similares a los gases volcánicos, pero no se sabe por qué no publicó nada al respecto. El análisis realizado en 2008 realizado con máquinas modernas, revelaba que se formaron 22 aminoácidos (bloques que forman las proteínas), 5 aminas y muchas otras moléculas formadas por radicales hidroxílicos.
Pero el paso siguiente, conseguir una molécula que porte información y se autorreplique es mucho más difícil. Al igual que los pasos que se dieron después hasta conseguir la primera célula.
Quizás no dispongamos de los cientos de millones de años que uso la Naturaleza o de un laboratorio de tamaño planetario repleto de moléculas orgánicas. Sin embargo, se sigue investigando en el tema. No es fácil describir los innumerables pasos que fueron necesarios, pero la descripción de alguno de ellos o la descripción de las reglas básicas detrás de todos ellos quizás sí sean útiles. Un par de equipos de investigadores nos dan nuevas pistas sobre cómo y por qué podría haber surgido la vida. En el primer caso desde el punto de vista experimental y en el segundo desde el punto teórico más básico.

Se cree que la primera molécula autorreplicante consistiría en ARN, pero no se sabe cómo podría haber evolucionado hasta tener un significado biológico. El equipo de Ernesto di Mauro del Istituto Pasteur-Fondazione Cenci-Bolognetti ha realizado un experimento que intenta responder la pregunta de cómo las moléculas orgánicas primitivas de ARN se ensamblaron para producir los cimientos de la vida. Concretamente, cómo unos trozos se fueron juntando hasta obtener una molécula de ARN con relevancia biológica.
El ARN crece mediante la adición de una nueva base a uno de los extremos de manera encadenada, pero el problema es que en aquella época no había enzimas que catalizaran esta reacción. Aunque el ARN puede crecer desde tamaños pequeños sin la presencia de enzimas lo hace de una manera tan lenta que nunca alcanza una longitud lo suficientemente larga. Además, sus extremos pueden unirse entre sí e impedir que se añadan más bases. Estos investigadores se plantearon si habría algún mecanismo que superara esta barrera termodinámica. Para ello cultivaron pequeños fragmentos de ARN en agua a diferentes temperaturas y grados de acidez.
Encontraron que bajo condiciones favorables, consistentes en una temperatura por debajo de 70 grados centígrados y un medio ácido, trozos de ARN de entre 10 y 24 bases se ensamblaban espontáneamente en el transcurso de 14 horas. Los fragmentos eran de doble hebra con los extremos unidos entre sí y no tenían el mismo tamaño, situación similar a la que se encontraría en el medio natural. Además, vieron que la reacción era más eficiente cuando mayor era el tamaño de los fragmentos hasta que decaía cuando se alcanzaban las 100 bases.
Esta fusión espontánea podría ser un sistema simple mediante el cual el ARN superó la barrera inicial para crecer y así adquirir un tamaño con relevancia biológica, de unas 100 bases. A partir de ese tamaño las moléculas de ARN pueden ser funcionales y plegarse en estructuras tridimensionales.

En otro estudio reciente Arto Annila de la Universidad de Helsinki y Erkki Annila del Instituto de Investigación de los Bosques Fineses dan pistas sobre las fuerzas termodinámicas que pudieron determinar el origen de la vida.
Todos los organismos están compuestos por moléculas que se ensamblan gracias numerosas reacciones químicas. Según el calor fluye de los focos cálidos a los fríos la termodinámica nos dice que estas moléculas obedecen la tendencia natural de disipar la diferencia de energía. Por tanto, las reacciones que se favorecen son las que disminuyen la energía del sistema hasta que se alcanza el estado estable o equilibrio químico.
Aunque estos autores no especifican las reacciones químicas implicadas que dieron origen a la vida, explican que las moléculas implicadas sufrieron una serie de reacciones cada vez más complejas para así minimizar la diferencia de energía entre la materia terrestre y la energía procedente del Sol. Eventualmente el proceso avanzó tanto que dio lugar a las estructuras funcionales sofisticadas que llamamos seres vivos.

Según los autores la idea más importante del estudio es no hacer la distinción entre materia animada e inanimada, y que los procesos de la vida no son diferentes de otros procesos naturales.
El estudio fue publicado en International Journal of Astrobiology y en él se considera que la sopa primordial contenía los elementos básicos que reaccionaban entre sí y con una fuente externa de energía como el Sol. Los compuestos obtenidos formaban sistemas químicos que iban ensamblándose entre sí, prosperando los que capturaban y distribuían más y mejor la energía solar en busca del estado estable, en una suerte de selección natural. El proceso evolutivo no era (ni es) determinista, siendo incluso caótico, ya que los flujos de energía crean diferencias de energía que afectan los propios flujos.

Gracias a las variaciones al azar se conseguían compuestos novedosos que podían emerger del sistema primordial. Algunos de esos compuestos podrían haber sido excepcionalmente buenos creando flujos de energía, permitiendo al sistema disipar diferencias de energía de forma más eficiente y alcanzar altos niveles de entropía. Este tipo de compuestos ventajoso podrían haber ganado la competición sobre los demás en el periodo de evolución química. Pero estos científicos afirman que identificar estos compuestos será muy difícil. Explican que su estudio pretende explicar por qué surgió la vida pero no cómo lo hizo.

Según ellos lo más relevante es el hecho de que la tendencia física a disipar diferencias de energía no distingue entre materia animada de la inanimada. El orden y complejidad que caracteriza los sistemas biológico modernos no tiene valor por sí mismos, sino que su estructura y organización jerárquica emergió y se desarrollo porque proporcionaba modos hacia un aumento del flujo de energía.

Como ejemplos los investigadores citan el código genético, que podría haber servido como mecanismo de aumento de la entropía, aumentando el flujo de energía hacia un aumento de la entropía. Los organismos complejos actuales tienen un metabolismo celular que es otro sistema que aumenta la entropía y disipa energía en el ambiente. La cadena alimenticia de un ecosistema sería otro ejemplo.

La vida sería una cosa natural que emergería simplemente para satisfacer leyes de la Física básica. Por así decirlo, nuestro propósito como seres vivos sería distribuir la energía sobre la Tierra, energía proveniente de la gran diferencia de energía potencial entre el Sol y el frío espacio. Los organismos evolucionan por selección natural, pero a un nivel más básico la selección natural estaría dirigida por un principio termodinámico: aumentar la entropía y disminuir las diferencias de energía.

Los procesos naturales a partir de los cuales la vida emerge son los mismos procesos que mantienen a la vida funcionando en todas las escalas temporales. Desde el punto de vista termodinámico no habría un momento especial a partir del cual la vida surgió y no habría forma de distinguir el momento en el cual se paso de la materia inanimada a la animada.

Arto Annila añade que la búsqueda de un momento concreto para el origen de la vida parece un intento fútil porque la vida en su totalidad es un proceso natural que, según la segunda ley de la termodinámica, no define un comienzo. “Preguntar cómo comenzó la vida sería lo mismo que preguntar cuándo y dónde el primer soplo de viento que agitó la superficie de una laguna”, añade.

En busca de la materia oscura

Foto

Esquema de sensibilidad de X-MASS respecto a otros detectores. Foto: X-MASS.

La materia oscura es cinco veces más abundante que la materia normal en el Universo. Sin embargo, continúa siendo enigmática y elusiva.

Los candidatos más probables a constituir la materia oscura son los axiones y las WIMPS (que incluye a los neutralinos, una partícula supersimétrica), que habrían sido todas ellas generadas en el Big Bang. Los neutralinos han ganado adeptos últimamente, tendrían una masa de entre 10 ó 1000 veces la del protón e interactuarían con un sección eficaz característica (la sección eficaz da una idea de la facilidad de interacción entre dos partículas en caso de colisión) de la escala de la interacción débil.

De momento las únicas pruebas serias que hablan de la existencia de la materia oscura son pruebas astronómicas de escala galáctica en donde parece verse su influencia gravitatoria, pero la cosa parece que ha empezado a cambiar.

Quizás, dice un experto, podamos en nuestro sistema solar para ver esos mismos efectos. Según Stephen Adler del Institute for Advanced Study en Princeton, habría que prestar especialmente atención al sistema Luna-Tierra. Si la masa del conjunto Tierra-Luna es mayor que la suma de las masas de la Luna y de la Tierra por separado, entonces el efecto se podría atribuir a un halo de materia oscura.
Gracias al sistema de satélites LAGEOS, que han estado orbitando la Tierra durante años, se puede calcular la masa de la misma con extrema precisión. Se hace rebotar unos rayos láser sobre estos satélites y así se consigue medir la distancia e inferir por tanto la masa. La masa de la Luna se puede averiguar, a falta de un sistema equivalente, con los orbitadores que den vueltas a su alrededor.
Finalmente la distancia entre la Tierra y la luna se puede calcular gracias a los reflectores láser dejados allí durante las misiones Apolo.

Basándose en los datos recogidos por estos sistemas Adler publicó unos resultados en Journal of Physics A. En el artículo calcula que, al menos, hay 24 billones de toneladas de materia oscura entre la Tierra y la Luna. Este halo de materia oscura podría explicar, además, ciertas anomalías en las órbitas de las sondas que la NASA ha enviado en misiones de exploración lejanas de larga duración como la Pioneer.

También especula que en el caso de los planetas jovianos, su fuerte campo gravitatorio habría tirado de las partículas de materia oscura y algunas de ellas habrían interaccionado con la materia normal de la que están hechos, calentándose en el proceso. Un exceso de calor en estos cuerpos sería ora prueba más de la existencia de esta materia oscura. Según él, Urano es anómalamente frío debido a la colisión planetaria que cambió la inclinación de su eje y que habría también barrido el halo de materia oscura. Por otro lado la supuesta aniquilación de partículas y antipartículas de materia oscura atrapadas dentro de cuerpos astronómicos también podría proporcionar calentamiento.
Sin embargo, otros expertos no están de acuerdo con esta nueva teoría. Según algunos de ellos durante la formación del sistema solar se habría eyectado la mayor parte de la materia oscura que pudiera haber.
Adler dice que la presencia de este halo alrededor de la Tierra ayudaría a desmitificar la materia oscura.

Mientras tanto, otros físicos obtienen resultados sobre la caza de partículas de materia oscura utilizando otros sistemas de detección más directos.

Desde hace tiempo se viene especulando con ciertas pruebas recogidas por el satélite PAMELA sobre la aniquilación de partículas de materia oscura supersimétricas y, por tanto, sobre la existencia de materia oscura. Pero los investigadores implicados no han compartido todavía la información que tienen hasta ahora, salvo breves comentarios con alguna diapositiva en algún congreso, y que dieron lugar a cierta polémica sobre la Física del paparazzi. También parece que hay datos sobre el asunto procedentes de los globos sonda del proyecto ATIC. Se espera que el telescopio de rayos gamma Fermi o que el LHC (si alguna vez funciona) aporten datos al respecto en el futuro.

Sin embargo, los experimentos criogénicos en tierra, como los hechos por Blas Cabrera en el pasado, resultaron infructuosos. Se buscaba con ellos el retroceso de algunos átomos a una energía de 10 keV cuando alguna partícula de materia oscura interaccionara con sus núcleos.

Quizás se necesiten sistemas mucho más masivos y precisos que den cuenta de estos raros y débiles eventos y que además puedan ser apantallados de las señales introducidas por los rayos cósmicos y otros ruidos de fondo. Cuanto más masiva es la masa del detector más fácil es detectar uno de estos eventos, pero más ruido se tiene en el sistema.

Fuente: Noticia en Scientific American.

Un mundo oceánico

Quizás los terrenos emergidos de la Tierra fueron una rareza hasta hace 2500 millones de años. Según un estudio nuestro planeta estuvo cubierto por el agua desde casi el comienzo hasta esa fecha.


Hoy en día el 28% de la superficie del mundo está por encima del mar. La proporción entre tierras emergidas y sumergidas a lo largo de la historia geológica de nuestro planeta no está clara, pero se cree que la cantidad de corteza continental ha aumentado en el tiempo.

Ahora, cálculos de Nicolas Flament de University of Sydney (Australia) y sus colaboradores sugieren que la Tierra fue un mundo de agua hasta hace 2500 millones de años, con sólo un 2% o un 3% de su superficie emergida.

El equipo asumió que la temperatura del manto era superior hasta en unos 200 grados centígrados a la temperatura actual, principalmente debido a la mayor cantidad de elementos radiactivos que decaían y que producían calor en el proceso. Un manto más caliente haría a la corteza oceánica más caliente y fina de lo que es hoy, manteniéndose más a flote respecto a los continentes y resultando unas cuencas oceánicas menos profundas.

Unas cuencas oceánicas menos profundas contendrían menos agua y, por tanto, asumiendo la misma cantidad de agua que en la actualidad, el nivel del mar también cubriría los continentes.
Además, un manto más cálido habría hecho que la corteza continental se hubiera extendido más lateralmente, siendo más llana de lo que hoy en día es y más fácil de ser inundada.

Luego, según el manto se enfriaba, las cuencas oceánicas se harían más profundas y las tierras emergidas irían apareciendo gradualmente. Estos investigadores creen que esta transición podría explicar por qué el oxígeno atmosférico libre fue escaso durante tanto tiempo.

En la Tierra supuestamente cubierta por agua, el oxígeno era producido por las bacterias fotosintéticas de la época, pero era rápidamente usado en reacciones de descomposición de materia orgánica en los océanos y no había demasiado oxígeno libre. Una vez hubo tierras emergidas la erosión habría producido sedimentos, que una vez en los océanos, habría enterrado materia orgánica, evitando así su oxidación. Como consecuencia el nivel de oxígeno libre atmosférico habría aumentado.

Además, los sedimentos procedentes de la erosión habrían fertilizado los océanos con fósforo, un importante elemento.

Una región costera formada al poco tiempo habría proporcionado muchos hábitats someros para la fotosíntesis. El oxígeno libre producido por dicha fotosíntesis permitiría más tarde la evolución y florecimiento de organismos animales complejos.

Stephen Mojzsis de University of Colorado está de acuerdo con un mundo mayormente cubierto de agua en esa época, pero cree que una proporción de sólo un 2 ó 3 por ciento es demasiado poco como para explicar las rocas de esa edad que aparecen en la actualidad y que se formaron a partir de sedimentos procedentes de la erosión de tierras emergidas.

Fuente: Newscientist

miércoles, 11 de febrero de 2009

Soroban


El soroban o ábaco japonés es un instrumento milenario utilizado por algunas culturas orientales para desarrollar la habilidad en el manejo de las operaciones básicas de la aritmética. Con este elemento se logra inculcar el hábito de la deducción basado en la observación, rescatar el hábito de la buena memoria recordando datos eficientemente, razonar de múltiples maneras en forma simultánea, desarrollar habilidad mental sobre el cálculo numérico y mejorar la psicomotricidad dactilar.
Con un manejo habitual, permanente, persistente y disciplinado se puede lograr una eficiencia y velocidad de cálculo muy notable, pudiendo superar al uso manual de una calculadora de digital de bolsillo. Está pensado para poder ser usado por estudiantes en formación desde los 6 años, personas dedicadas a los negocios comprometidos con el manejo de los números, como contables o comerciantes, e incluso para mantener la mente lúcida y productiva en personas de edad avanzada.
En las escuelas de Japón se utiliza éste instrumento actualmente, el ábaco japonés está compuesto por cuatro bolas en la parte inferior de cada varilla y una en la parte superior. En 1946 tuvo lugar en Tokio una competición de cálculo entre un calculista con soroban y uno con calculadora, y ganó el primero.

El círculo de cálculo


Denominado habitualmente "regla de cálculo circular", es la única forma del instrumento que merece una mención específica aparte de la regla, no sólo porque fue inventada desde los inicios sino por ofrecer algunas características muy ventajosas. Por lo pronto, para una misma longitud de las escalas tiene una forma más compacta que la regla. Mecánicamente es más sólida y pudiera ser más exacta, al no depender el movimiento más que del eje central. Además, el resultado de las operaciones no "se sale" nunca de la escala, que normalmente es una curva cerrada, aunque también las hubo en forma de espiral. A cambio de ello, es de uso un poco menos intuitivo, ya que la precisión disminuye en las escalas que ocupan posiciones más interiores en el círculo y la interpolación visual parece resultar algo más difícil que en la regla. Nunca ha gozado de la popularidad de ésta; muchas veces se usaron como vehículo de promociones publicitarias.

Se han fabricado en dos estilos básicos diferentes. Uno de ellos consiste en un par de círculos concéntricos con un cursor radial, fijo o móvil. Los círculos deben estar encastrados para un adecuado funcionamiento; de otro modo el aumento de la paralaje introduce errores en los cálculos. Otro consta de un disco fijo, con dos cursores móviles independientes, pero que pueden solidarizarse. Quizá haya que considerar como pertenecientes a un tercer tipo a los modelos que adoptan la forma de relojes de bolsillo, y hasta de pulsera, manejándose el movimiento de los círculos y de los cursores mediante coronas exteriores; su prototipo fue concebido por A. E. M. Boucher en 1876.

Regla de cálculo


La regla de cálculo es un instrumento manual de cálculo que dispone de varias escalas numéricas, para facilitar la rápida y cómoda realización de operaciones aritméticas complejas, como puedan ser multiplicaciones, divisiones, etc. A cambio de ello, no ofrece más que una precisión limitada. Su época de esplendor duró más de un siglo, el periodo comprendido entre la segunda mitad del siglo XIX y el último cuarto del XX, aunque había sido inventada mucho antes. La regla de cálculo fue sustituida paulatinamente por las calculadoras y los ordenadores electrónicos conforme fueron avanzando los últimos decenios del siglo XX.

Características principales
La regla de cálculo consta de varias partes, como puede apreciarse en la imagen, perteneciente a un modelo estudiantil corriente de finales del siglo XX.
Hay en primer lugar, un soporte básico o cuerpo, generalmente paralelepipédico, que tiene una ranura longitudinal profunda en su parte central, lo que determina la aparición de dos sub-unidades, a saber, una regleta superior y otra inferior, más estrechas. En algunos modelos, como en el reproducido a la derecha, se trata efectivamente de dos piezas independientes, vinculadas entre sí rígidamente por abrazaderas situadas en sus extremos. Por la ranura central se desliza otra pieza en forma de regleta de menor tamaño, también llamada corredera.

Máquina diferencial

He elaborado un resumen bien completo sobre los tipos de calculadoras, esta es la primera que les presento.
Se llama máquina diferencial. Es una calculadora digital mecánica de propósito especial, diseñada para tabular funciones polinómicas. Puesto que las funciones logarítmicas y trigonométricas pueden ser aproximadas por polinomios, esta máquina es más general de lo que parece al principio.
Es un dispositivo de naturaleza mecánica para calcular e imprimir tablas de funciones. Más concretamente, calcula el valor numérico de una función polinómica sobre una progresión aritmética obteniendo una tabla de valores que se aproxima a la función real (basado en que cualquier función puede ser aproximada por polinomios).

Esta máquina fue ideada por J. H. Mueller y redescubierta por Charles Babbage, quien no llegó a construirla.
Una reconstrucción de la Máquina Diferencial Nº2 ha estado operativa desde 1991 en el Museo de Ciencia de Londres. Trabaja como Babbage la diseñó y demuestra que éste estaba acertado en su teoría, además de que era capaz de fabricar partes con la precisión requerida. Babbage falló quizá a causa de que sus diseños fueron demasiado ambiciosos.

Materia y energía


Encontré en Wikiciencia esta nota sobre materia y energía. Me pareció muy interesante, por eso se los comparto.

La materia de nuestro planeta esta formada por la combinación de 92 elementos químicos. Estos elementos (átomos) se diferencian entre sí tan sólo por las cargas eléctricas que lo componen y constituyen la unidad fundamental, ya que combinados forman distintas moléculas que poseen variadas propiedades y se presentan como sustancias diferentes.

Esencialmente, el átomo (partícula fundamental de la materia) posee un núcleo compuesto por protones (cargas positivas) y neutrones (partículas neutras). Alrededor de ese núcleo se encuentran girando los electrones (partículas negativas) y como la materia es esencialmente neutra, habrá tantos electrones como protones.

El número de protones que posee el núcleo es lo que determina el tipo de átomo, por ejemplo, la diferencia entre el oro y el plomo se debe a que el primero posee 79 protones en su núcleo mientras que el plomo posee 82. Esa pequeña diferencias de 3 (tres) cargas positivas hace que el plomo y el oro sean tan diferentes.

Igualmente, el carbono (lo conocemos como carbón) tiene 6 (seis) protones en su núcleo, mientras que el oxigeno que respiramos, indispensable para nuestra vida, posee 8 (ocho) protones. Sólo dos cargas eléctricas positivas generan la enorme diferencia entre estos elementos. Con uno de ellos preparamos nuestro asado dominguero, el otro nos resulta indispensable para respirar. También nos sorprenderían las relaciones de tamaño y de masa. El núcleo del átomo es el único que posee masa, es decir, que tiene peso, y éste en relación con el tamaño atómico es 1840 veces menor. Dibujemos un punto de 1cm de diámetro dentro de una enorme esfera de 18 metros y medio y eso nos da la idea de la relación de tamaño entre el núcleo y el átomo. Lo único que pesa, es decir, que posee materia, es ese núcleo, el resto de la esfera es espacio vació en donde se encuentran girando los electrones (energía eléctrica negativa), que compensan la carga positiva nuclear. Vale decir que el átomo prácticamente es espacio vació.

Si pudiésemos condensar a un ser humano en sus núcleos (única materia) tendríamos un cubito de aproximadamente 1cm de lado con el peso que esa persona tenia antes de ser comprimido. Por lo tanto, no somos tan materiales como parecemos. Podríamos agregar que como la materia puede ser transformada en energía - (E = m .c2) Ecuación de Einsten - ese cubito podría desaparecer generando una enorme cantidad d energía nuclear.Por lo tanto, es momento de preguntarse: ¿Existe realmente la materia tal como nuestros sentidos la conciben? En realidad, la materia en una condensación energética de electricidad combinada de manera tal que ofrece infinita variedad de representaciones a nuestros sentidos, dándonos idea de una diversidad que existe, pero no es tal. Lo que realmente podemos afirmar es que se trata de una maravillosa combinación de solo 92 átomos, que conforman la totalidad del universo que nos rodea.

Pensemos que los átomos se combinan entre sí formando moléculas diferentes, con propiedades físicas y químicas variadas, de modo que forman la materia de un árbol, una roca, una flor, el aire que respiramos y la naturaleza completa y compleja.Complejidad que en realidad no es tal, porque simplemente varían las combinaciones eléctricas que nos componen a todos y cada uno de los integrantes del ecosistema.