martes, 30 de septiembre de 2008

Un nuevo formato que reemplazaría al Cd

SlotMusic, una tarjeta de memoria más pequeña que una estampilla de correo, traerá pregrabada música en formato MP3

En una época en la que los consumidores compran cada vez más canciones descargándoselas a sus reproductores de música portátiles, SanDisk apuesta a que la gente sigue queriendo tocar realmente sus discos con sus manos.
SanDisk, el líder del mercado mundial de tarjetas de almacenamiento de datos basadas en memorias flash, develó un nuevo formato musical llamado "slotMusic," una tarjeta de memoria más pequeña que una estampilla de correo y pregrabada con música en formato MP3.
El formato ha sido respaldado por las cuatro grandes compañías de música -EMI Music, Sony BMG, Universal Music Group y Warner Music Group- y se prevé que nuevas canciones de artistas populares lleguen a las tiendas en este formato a tiempo para la temporada de compras de Navidad.
Con la bendición de las discográficas, así como de cadenas de tiendas líderes como Best Buy y Wal-Mart, el "slotMusic" parece ser el nuevo formato musical más respaldado desde que el disco compacto debutó en 1982.
El formato de SanDisk se beneficiará del hecho de que los nuevos teléfonos móviles están fabricados para reproducir música, y millones de teléfonos -así como muchos reproductores de MP3 y computadoras portátiles- tienen una ranura en la que puede insertarse una tarjeta.Los ausentes en el grupo, sin embargo, son los productos de Apple, entre ellos los más de 150 millones de iPods e iPhones vendidos.
"A la mayoría de los reproductores de MP3 que no son iPod se les puede insertar una tarjeta (...) y los teléfonos aptos para la música con ranuras para tarjetas se venden a un ritmo de 750 millones al año," dijo Daniel Schreiber, vicepresidente de SanDisk.
El lanzamiento se produce en un momento en el que cada vez más consumidores, en particular los más jóvenes, compran canciones online descargándolas directamente de sitios como iTunes, de Apple, o Amazon.com.De hecho, Apple se jacta que desde el 2003, la tienda iTunes ha vendido más de 4.000 millones de canciones.Mientras tanto, los pasillos de CD apenas transitados en tiendas como Best Buy se han reducido para dar más espacio a artículos más populares como cámaras, teléfonos móviles y reproductores de música. Además, internet ha facilitado a mucha gente compartir e intercambiar música a través de servicios online -algunos ilegales- de forma gratuita.
La mayoría de los álbumes se venden todavía físicamente. En 2007 se vendieron 449 millones de discos compactos, mientras que sólo 50 millones se vendieron en formato digital, según la empresa Nielsen SoundScan. A pesar de estas cifras, los CDs son cada vez menos populares, pues las ventas de discos bajaron casi 19% el año pasado. Ante esta situación las compañías discográficas esperan que slotMusic se convierta en otra fuente de ingresos más para la venta física de los álbumes, así como una forma más versátil que los CD, dado el tipo de reproductores musicales que la población porta en la actualidad. A diferencia de cuando el CD fue introducido al mercado y la gente debió comprar nuevos reproductores, muchas personas ya tienen la posibilidad de reproducir los álbumes de slotMusic, pues los teléfonos celulares y los reproductores multimedia son compatibles con las tarjetas microSD.
Este nuevo tipo de álbumes vendrán con un puerto USB que permitirá a los compradores utilizarlas también en sus computadoras."En especial en este clima económico interno, la idea de poder utilizar algún aparato electrónico que ya es tuyo para disfrutar de la música más que comprar un reproductor dedicado es bastante atractiva", agregó Schreiber.

Fuente: AP y Reuters

El navegador de Google pierde terreno

A tres semanas de estar en el mercado, descendió la cantidad de usuarios que utilizan Chrome. En contrapartida, Firefox e Internet Explorer recuperaron el espacio perdido. Safari y Opera no sufrieron el desembarco de Google

Las estadísticas dadas a conocer por Net Applications indican que los usuarios que decidieron probar Chrome volvieron a sus antiguas herramientas.Según Net Applications, el porcentaje de usuarios de Chrome cayó en esta última semana del 0,85% al 0,77%, una cantidad pequeña pero que indica una tendencia a la baja en su uso.
La consultora destaca que durante los primeros días Chrome alcanzó un 1% del mercado, cayendo al 0,85% en su segunda. "La tendencia de utilización de Chrome empieza a ser descendente algo que ya reflejan los números de esta semana”, afirmó Vince Vizzaccaro, vicepresidente de Márketing de Net Applications.En contrapartida, Internet Explorer y Firefox recuperaron el terreno perdido frente a Chrome (0,6% y 0,24%, respectivamente).
La llegada de Chrome no supuso, según la consultora, una disminución en el uso de Safari ni Opera, que mantuvieron sus posiciones.La inmunidad de Safari, según Vizzacaro, puede ser debido a la falta de competencia de Chrome ya que no está disponible de manera oficial para Mac. Uno de los puntos interesantes del trabajo de la consultora es que los números de Chrome, al igual que los de Firefox y Safari, crecen rápidamente después de la jornada laboral y su utilización cae a la mañana siguiente.

Esto puede ser debido a que muchas empresas tienen como navegador a IE y no permiten a sus empleados utilizar navegadores alternativos.Net Applications basa sus estadísticas en el análisis constante de 40 mil sitios de internet.

TiVo llega a la PC

Junto a Nero anunciaron el lanzamiento de un sistema para los EEUU, México y Canadá que permite que una computadora que opera con el sistema Windows funcione como grabador de televisión, al igual que una consola de grabación digital TiVo

El sistema costará u$s199 cuando salga a la venta el 15 de octubre e incluye un control remoto que se conecta con la portátil.
La interfaz de la PC se ve exactamente como la de un televisor equipado con un TiVo. El sistema TiVo es una marca que se comercializa en los EEUU, Canadá y Australia.
No es el primer programa que permite grabar de la televisión en una PC. Eso ha sido posible durante años con computadoras equipadas con sintonizadores de TV y algunas versiones del sistema operativo Windows Vista de Microsoft incluyen el programa, pero será la primera vez que tanto la interfaz y las funciones de TiVo sean replicadas en una PC.La PC Nero LiquidTV/TiVo PC saldrá a la venta en los EEUU, México y Canadá, pero podría abrir algunos mercados donde TiVo todavía no vende sus sistemas.
Joshua Danovitz, vicepresidente y gerente general de negocios internacionales en TiVo, dijo que el plan es lanzarlo en Europa el año próximo, incluyendo en el país original de Nero, Alemania. Gran Bretaña es el único país europeo donde TiVo tiene suscriptores.
"Es parte de una estrategia global de TiVo", dijo Danovitz. Para quienes ya tienen una PC equipada con un sintonizador, Nero venderá el programa de grabación de TV en forma separada a u$s99. De uno u otro modo, los compradores recibirán una suscripción de un año a las actualizaciones de la guía de programas de Tivo.
La renovación costará u$s99 anuales. Los costos de renovación diferencian el producto de las características de grabación digital de video de Windows Vista, que tiene una guía de programación gratuita. Nero y TiVo, sin embargo, cuentan con la popularidad de la interfaz de TiVo y el prestigio de la marca para superar ese inconveniente.

Número e

La constante matemática e es el único número real que siendo usado como base de una función exponencial hace que la derivada de ésta en cualquier punto coincida con el valor de dicha función en ese punto. Así, la derivada de la función f(x) = ex es esa misma función. La función ex es también llamada función exponencial, y su función inversa es el logaritmo natural, también llamado logaritmo en base e o logaritmo neperiano.

El número e es uno de los números más importantes en la matemática,[1] junto con el número π, la unidad imaginaria i y el 0 y el 1, por ser los elementos neutros de la adición y la multiplicación, respectivamente. Curiosamente, la identidad de Euler los relaciona (eiπ+1=0) de manera asombrosa. Además, en virtud de la fórmula de Euler, es posible expresar cualquier número complejo en notación exponencial.

El número e es llamado ocasionalmente número de Euler, debido al matemático suizo Leonhard Euler, o también constante de Neper, en honor al matemático escocés John Napier, quien introdujo el concepto de logaritmo al cálculo matemático. La constante e no debe ser confundida con γ, la constante de Euler-Mascheroni, a la que a veces se hace referencia como constante de Euler.

El número e, base de los logaritmos naturales o neperianos, es sin duda el número más importante del campo del cálculo, debido principalmente a que la función ex coincide con su derivada, y por lo tanto, esta función exponencial suele aparecer en el resultado de ecuaciones diferenciales sencillas. Como consecuencia de esto, describe el comportamiento de acontecimientos físicos regidos por ecuaciones diferenciales sencillas, como pueden ser la velocidad de vaciado de un depósito de agua, el giro de una veleta frente a una ráfaga de viento, el movimiento del sistema de amortiguación de un automóvil o el cimbreo de un edificio metálico en caso de terremoto. Si nos fijamos con atención, en todos estos ejemplos podemos encontrar el número e. De la misma manera, aparece en muchos otros campos de la ciencia y la técnica, describiendo fenómenos eléctricos y electrónicos (descarga de un condensador, la amplificación de corrientes en transistores BJT, etc.), biológicos (crecimiento de células, etc.) , químicos (concentración de iones, periodos de semidesintegración, etc.), y muchos más.

El número e, al igual que el número π, es un número trascendente, es decir, que no puede ser obtenido directamente mediante la resolución de una ecuación algebraica. Por lo tanto, es un irracional y su valor exacto no puede ser expresado como un número finito de cifras decimales o con decimales periódicos.
Su valor aproximado (truncado) es e = 2.71828182845904523548...

Este año habrá en el mundo 4000 millones de celulares



La UIT estima que el índice de penetración de los móviles alcanzará el 61%; China se consolida como el principal mercado
El planeta Tierra contará con "4000 millones de teléfonos móviles antes de finales de año", es decir un índice de penetración celular del 61%, según las últimas estimaciones que la Unión Internacional de Telecomunicaciones (UIT).
"Desde comienzos de siglo, el crecimiento del número de titulares de teléfonos móviles es muy impresionante, con una progresión anual de alrededor del 24% entre 2000 y 2008", recalcó un vocero de la UIT en rueda de prensa.

El año 2008 dio un brinco muy considerable respecto a finales de 2007, cuando había 3300 millones de celulares, una progresión debida en gran parte al desarrollo de los mercados emergentes, en particular los de Brasil, China, India y Rusia, añadió.
"Estas economías deberían contar por sí solas con más de 1300 millones de teléfonos antes de finales de año", según la UIT.

"China superó los 600 millones de aparatos durante el año, convirtiéndose de lejos en el mercado más importante de móviles", añadió.

India también tiene un "fuerte potencial", según la UIT, con 296 millones de celulares a finales de julio y una penetración celular de sólo el 20%.

La UIT sostiene que la liberalización del mercado ha desempeñado un papel importante en la propagación de teléfonos móviles en el mundo por haber abaratado su precio.
Por último, la organización hace hincapié en que 4000 millones de celulares en la Tierra no significa que más de una persona de cada dos tenga un aparato, debido a que muchos consumidores de los países desarrollados poseen varios.

Modelo estándar de física de partículas


El modelo estándar de la física de partículas es una teoría que describe tres de las cuatro interacciones fundamentales conocidas entre partículas elementales que componen toda la materia. Es una teoría cuántica de campos desarrollada entre 1970 y 1973 que es consistente con la mecánica cuántica y la relatividad especial. Hasta la fecha, casi todas las pruebas experimentales de las tres fuerzas descritas por el modelo estándar están de acuerdo con sus predicciones. Sin embargo, el modelo estándar no alcanza a ser una teoría completa de las interacciones fundamentales debido a que no incluye la gravedad, la cuarta interacción fundamental conocida, y debido también al número elevado de parámetros numéricos (tales como masas y constantes que se juntan) que se deben poner a mano en la teoría (en vez de derivarse a partir de primeros principios).


Modelo Estándar
Actualmente en Física, la dinámica de la materia y de la energía en la naturaleza se entiende mejor en términos de cinemática e interacciones de partículas fundamentales. Hasta la fecha, la ciencia ha logrado reducir las leyes que parecen gobernar el comportamiento y la interacción de todos los tipos de materia y de energía que conocemos, a un conjunto pequeño de leyes y teorías fundamentales. Una meta importante de la física es encontrar la base común que uniría a todas éstas en una teoría del todo, en la cual todas las otras leyes que conocemos serían casos especiales, y de la cuál puede derivarse el comportamiento de toda la materia y energía (idealmente a partir de primeros principios).
Dentro de esto, el modelo estándar agrupa dos teorías importantes - el modelo electrodébil y la cromodinámica cuántica - lo que proporciona una teoría internamente consistente que describe las interacciones entre todas las partículas observadas experimentalmente. Técnicamente, la teoría cuántica de campos proporciona el marco matemático para el modelo estándar. El modelo estándar describe cada tipo de partícula en términos de un campo matemático. Para una descripción técnica de los campos y de sus interacciones, ver el modelo estándar (detalles básicos).
Para facilitar la descripción, el modelo estándar se puede dividir en tres partes que son las partículas de materia, las partículas mediadoras de las fuerzas, y el bosón de Higgs.

lunes, 22 de septiembre de 2008

La conjetura de Rāmānujan

Aunque existen numerosas expresiones que reciben el nombre de "conjetura de Ramanujan", existe una particularmente influyente sobre los trabajos sucesivos. Esta conjetura de Ramanujan es una aserción referente a las dimensiones de los coeficientes de la función Tau, una típica forma cúspide en la teoría de las formas modulares. Y ha sido finalmente demostrada posteriormente como consecuencia de la demostración de la conjetura de Weil mediante un complicado procedimiento.

Fórmulas

Entre muchas otras, Rāmānujan ha aportado la siguiente fórmula:

 1+\frac{1}{1\cdot 3} + \frac{1}{1\cdot 3\cdot 5} + \frac{1}{1\cdot 3\cdot 5\cdot 7} + \frac{1}{1\cdot 3\cdot 5\cdot 7\cdot 9} + \cdots + {{1\over 1 + {1\over 1 + {2\over 1 + {3\over 1 + {4\over 1 +                                     {5\over 1 + \cdots }}}}}}} = \sqrt{\frac{e\cdot\pi}{2}}

Se trata de una especie de obra de arte matemática donde se conecta una serie matemática infinita y una fracción continua para aportar así una relación entre dos célebres constantes de matemáticas.

Una segunda fórmula, demostrada en 1985 por Jonathan y Peter Borwein, es la que descubrió el en 1910 :

 \frac{1}{\pi} = \frac{2\sqrt{2}}{9801} \sum^\infty_{k=0} \frac{(4k)!(1103+26390k)}{(k!)^4 396^{4k}}

Es muy eficaz porque ella aporta 8 decimales a cada iteración.

Número de Rāmānujan

Se denomina número de Hardy-Ramanujan a todo entero natural que se puede expresar como la suma de dos cubos de dos maneras diferentes. Hardy comenta la siguiente anécdota :

Recuerdo que fuí a verle una vez, cuando él ya estaba muy enfermo, en Putney. Había tomado yo un taxi que llevaba el número 1729 y señalé que tal número me parecía poco interesante, y yo esperaba que él no hiciera sino un signo desdeñoso.
- "No", me respondió, este es un número muy interesante; es el número más pequeño que podemos descomponer de dos maneras diferentes con suma de dos cubos.
G.H. Hardy

En efecto, 93 + 103 = 13 + 123 = 1729.

- Otros números que poseen esta propiedad habían sido descubiertos por el matemático francés Bernard Frénicle de Bessy (1602-1675) :

  • 23 + 163 = 93 + 153 = 4104
  • 103 + 273 = 193 + 243 = 20683
  • 23 + 343 = 153 + 333 = 39312
  • 93 + 343 = 163 + 333 = 40033

- El más pequeño de los números descomponibles de dos maneras diferentes en suma de dos potencias a la cuarta es 635 318 657, y ha sido Euler (1707-1763) quien le descubrió :

  • 1584 + 594 = 1334 + 1344 = 635318657

Se denomina nésimo número Taxicab, denotado como Ta(n) o Taxicab(n), al más pequeño número que puede ser expresado como una suma de dos cubos positivos no nulos n de dos maneras distintas al orden de los operandos. Tal que, Ta(1) = 2 = 13 + 13, Ta(2) = 1729 y Ta(3) = 87539319. Variante del taxicab es el cabtaxi (un número cabtaxi es definido como el más pequeño número entero que se pueda escribir de n maneras diferentes (en el orden de los términos aproximados) como suma de dos cubos positivos, nulos o negativos).

Srinivasa Aaiyangar Ramanujan

Entre las visitas de sitios desconocidos (para mí), había una de una ciudad de la India. Esto me recordó sobre la vida de Ramanujan. Aquí les detallo un poco de quien se trata.

Srinivāsa Aaiyangār Rāmānujan, en tamil : ஸ்ரீனிவாஸ ஐயங்கார் ராமானுஜன், (Erode 22 de diciembre de 1887 - Kumbakonam 26 de abril de 1920) fue un matemático indio muy enigmático. De familia humilde, a los siete años asistió a una escuela pública gracias a una beca. Recitaba a sus compañeros de clase fórmulas matemáticas y cifras de π.

A los 12 años dominaba la trigonometría, y a los 15 le prestaron un libro con 6.000 teoremas conocidos, sin demostraciones. Ésa fue su formación matemática básica. En 1903 y 1907 suspendió los exámenes universitarios porque sólo se dedicaba a sus diversiones matemáticas.

En 1912 fue animado a comunicar sus resultados a tres distinguidos matemáticos. Dos de ellos no le respondieron, pero sí lo hizo Godfrey Harold Hardy, de Cambridge. Hardy estuvo a punto de tirar la carta, pero la misma noche que la recibió se sentó con su amigo John Edensor Littlewood (v.) a descifrar la lista de 120 fórmulas y teoremas de Ramanujan. Horas más tarde creían estar ante la obra de un genio. Hardy tenía su propia escala de valoración para el genio matemático: 100 para Ramanujan, 80 para David Hilbert, 30 para Littlewood y 25 para sí mismo. Algunas de las fórmulas de Ramanujan le desbordaron, pero escribió ...forzoso es que fueran verdaderas, porque de no serlo, nadie habría tenido la imaginación necesaria para inventarlas. Invitado por Hardy, Ramanujan partió para Inglaterra en 1914 y comenzaron a trabajar juntos. En 1917 Ramanujan fue admitido en la Royal Society de Londres y en el Trinity College, siendo el primer indio que lograba tal honor. De salud muy débil, moría tres años después.

Hardy escribió de Rāmānujan:

"Los límites de sus conocimientos eran sorprendentes como su profundidad. Era un hombre capaz de resolver ecuaciones modulares y teoremas ...de un modo jamás visto antes, su dominio de las fracciones continuas era...superior a la de todo otro matemático del mundo; ha encontrado por sí solo la ecuación funcional de la función zeta y los términos más importantes de la teoría analítica de los números; sin embargo no había oído hablar jamás de una función doblemente periódica o del Teorema de Cauchy y poseía una vaga idea de lo que era una función de variable compleja..."

Lo principal de los trabajos de Ramanujan está en sus cuadernos, escritos por él en nomenclatura y notación particular, con ausencia de demostraciones, lo que ha provocado una hercúlea tarea de desciframiento y reconstrucción, aún no concluida. Fascinado por el número π, desarrolló potentes algoritmos para calcularlo.

Rāmānujan trabajó principalmente en la teoría analítica de los números y devino célebre por sus numerosas fórmulas sumatorias referidas a las constantes tales como π y la base natural de los logaritmos, los números primos y la función de fracción de un entero obtenida junto a Godfrey Harold Hardy.

Biografía

Rāmānujan nació en la localidad de Erode, del estado de Tamil Nadu en India, en el seno de una familia brāhmanes pobre y ortodoxa. Fue un llamativo autodidacta; practicamente todas las matemáticas que aprendió fueron las leídas hacia los 15 años de edad en los libros La Trigonometría plana de S. Looney, y la Synopsis of Elementary Results in Pure Mathematics de S. Carr que contenían un elenco de unos 6000 teoremas sin demostración. Estas dos obras le permitieron establecer una gran cantidad de conclusiones y resultados atinentes a la teoría de los números, las funciones elípticas, las fracciones continuas y las series infinitas para esto creó su propio sistema de representación simbólica. . A la edad de 17 años llevó a cabo por su cuenta una investigación de los números de Bernoulli y de la Constante de Euler-Mascheroni. Se licenció en el Government College de Kumbakonam.

Rāmānujan de un modo independiente recopiló 3900 resultados (en su mayoría identidades y ecuaciones) durante su breve vida.

Afectado por una tuberculosis que se agravaba por el clima de Inglaterra, Rāmājunan retornó a su país natal en 1919 y falleció poco tiempo después en Kumbakonam (a 260 km de Chennai Madras) a la edad de tan solo 32 años. Ha dejado varios libros llamados Cuadernos de Ramanujan los cuales continúan siendo objeto de estudios.
Recientemente las fórmulas de Rāmānujan han sido fundamentales para nuevos estudios en cristalografía y en teoría de cuerdas. El Ramanujan Journal es una publicación internacional que publica trabajos de áreas de las matemáticas influidas por este investigador indio.


martes, 16 de septiembre de 2008

Quizás existan planetas terrestres sin núcleo

Un modelo teórico predice la existencia de planetas rocosos sin núcleo metálico. Esto impondría limitaciones a su posible habitabilidad.

Foto
Impresión artística. Foto: Mark Fisher.
Algunos planetas más allá de nuestro Sistema Solar podrían ser rocosos como la Tierra, pero según sugiere un nuevo estudio, carecer de un núcleo metálico. Tales planetas terrestres “sin núcleo” no tendrían campo magnético, lo que los haría inhóspitos para la vida tal y como la conocemos.
Se consideraba que los planetas rocosos tenían que tener tres capas principales: una delgada corteza sólida, un viscoso manto rocoso y un núcleo de hierro fundido o sólido (o parcialmente fundido). Así es cómo está estructurado el planeta en donde vivimos. De hecho los otros planetas de tipo terrestre de nuestro sistema solar: Mercurio, Venus y Marte también tienen núcleo. Aunque de estos cuatro planetas sólo la Tierra tiene un campo magnético apreciable. La existencia de un núcleo metálico parece una condición necesaria para que un planeta terrestre tenga campo magnético, pero no suficiente.

Fuente: Neofronteras

Emprendimiento argentino, entre los más importantes del mundo


Se trata de Popego, que fue seleccionada por TechCrunch entre las 50 mejores startups tras estudiar más de mil casos de todo el mundo. El producto integra en una misma cuenta distintos servicios externos
Popego, una empresa argentina de tecnología que desarrolla inteligencia artificial, ha sido seleccionada entre más de mil compañías como una de las mejores 50 startups del mundo por parte de TechCrunch.

A su vez, el martes 9 de septiembre realizó el lanzamiento de su producto, una aplicación universal capaz de filtrar el contenido según los intereses de cada usuario, en un evento en San Francisco llamado TechCrunch50.

Partiendo del concepto "A More Meaningfull Web", Popego.com se ocupa de filtrar y clasificar, según los intereses de cada usuario, aquella información que pueda resultar de relevancia para éste.

Se trata de un servicio que integra en un mismo espacio todas las cuentas; desde YouTube a Twitter. A su vez, esta tecnología permite el desarrollo de aplicaciones para que cada usuario logre acceder a la información que necesita de una manera más ágil e innovadora.

El reconocido evento internacional TechCrunch50, proporciona una plataforma para aquellas empresas que se están introduciendo en el mercado presentándolas ante los capitalistas más influyentes de la industria de la tecnología, las grandes empresas y los medios internacionales.

Santiago Siri uno de los fundadores de Popego, expresó: "Como ávido lector de TechCrunch, es un honor poder estar hoy lanzando nuestro producto entre las 50 mejores startups del año. Es como estar en el Mundial de startups tecnológicos".

Popego fue fundada por dos jóvenes emprendedores en 2007 y contó con una inversión inicial de u$s250 mil que fueron aportados por el grupo Aconcagua. En la actualidad, su equipo está conformado por once personas, entre programadores y diseñadores, que trabajan diariamente desde sus oficinas ubicadas en Palermo.

Siendo el único representante de America Latina en este importante evento, Popego logró destacarse en el mercado internacional posicionándose como una empresa con un futuro prometedor.

TechCrunch50 fue fundada en 2007 por el empresario Jason Calacanis, creador del blog de tecnología TechCrunch. Se trata de una conferencia que proporciona una plataforma para aquellas empresas de tecnología que se están introduciendo en el mercado, presentándolas ante los capitalitas más influyentes de la industria, las empresas y los medios internacionales. Google, Microsoft, MySpace, Salesforce, MSN, Symantec, Thomson Reuters y Yahoo! son algunas de las empresas que patrocinan este evento.

Napster cambia de manos


La empresa de venta de equipos de electrónica Best Buy informó el lunes que adquirirá el servicio de música online Napster por 126,8 millones de dólares en efectivo. Así espera mejorar su participación en el segmento de Internet.

Best Buy operará haciendo una oferta por todas las acciones de Napster a un valor de 2,65 dólares por papel. Este monto representa un alza del 95% con respecto al valor de cierre de la empresa el pasado viernes, 1,36 dólares. Según su último balance trimestral, la compañía de Internet contaba con 47,9 millones de acciones a fines de junio, esto hace que el valor de la adquisición alcance los 126,8 millones de dólares.

Se espera que la adquisición se complete para fines del cuarto trimestre. En el acuerdo se incluyen los 700 mil suscriptores de Napster, su servicio online y las funcionalidades móviles. Chris Gorog, CEO de la compañía de Internet y otros ejecutivos de la empresa seguirán en sus puestos. La firma cuenta con 140 empleados en Los Angeles. Best Buy no piensa cambiar su centro de operaciones o hacer cambios "importantes" de personal.

domingo, 14 de septiembre de 2008

"Los decimales no calculados de pi, duermen en un misterioso reino abstracto, donde gozan de una débil realidad, hasta que no son calculados, no se convierten en algo plenamente real, e incluso entonces su realidad es mera cuestión de grado."

William James
"La Geometría existía antes de la Creación. Es co-eterna con la mente de Dios... La Geometría ofreció a Dios un modelo para la Creación... La Geometría es Dios mismo."

Johannes Kepler


Fotos del Acelerador de partículas (HLC)












Encontré acá unas fotos high definition espectaculares del gran acelerador de partículas (HLC).
Las comparto con ustedes

Large Hadron Collider (LHC)



















Encontré por ahí una foto que ilustra lo que pasaría si se genera el mini agujero negro en los ensayos del acelerador de partículas.
Se las comparto

domingo, 7 de septiembre de 2008

Google cumple sus primeros 10 años a la vanguardia de la tecnología


DALLAS, TEXAS.- Google, la compañía de tecnologías en Internet, cumplió hoy 10 años de existencia, una década en la que experimentó un crecimiento meteórico, que lo ha colocado a la vanguardia de la tecnología, mercadotecnia y difusión de información.


La compañía, creada el 7 de septiembre de 1998, por los entonces estudiantes de ciencias computacionales Larry Page y Sergey Brin, como parte de su tesis doctoral, ha logrado rediseñar la industria de la publicidad, al convertir en dinero las búsquedas en la red.

La empresa, fundada con una inversión inicial de 100 mil dólares, se ha convertido en tan solo una década en un corporativo gigantesco que emplea a 20 mil trabajadores alrededor del mundo.

Su valor de mercado asciende a unos 142 mil millones de dólares, lo que la ubica en el orden de compañías como Bank of América y Hewlett-Packard.

Sus acciones son de las más cotizadas en el Mercado de Valores de Nueva York, donde el año pasado se llegaron a cotizar hasta en 700 dólares por acción, aunque desde entonces han disminuido a unos 450 dólares.

Desde que comenzó a cotizar en la bolsa de valores, en abril de 2004, Google ha utilizado la cascada de dinero dejado por la venta de sus acciones para expandirse con la adquisición de empresas innovadoras en Internet.

La compañía ha sumado a su emporio en los últimos años, al sitio de vídeos YouTube, el de compartición de imágenes Picasa y el de servicio de mapeo terrestre Google Earth, entre varios otros.Google también ha creado servicios propios que se han colocado en el gusto de los usuarios de la red, como el servicio de correos electrónicos Gmail y su sitio de red social, Orkut.Google constituye por mucho el sitio preferido para búsquedas en internet. Su número de búsquedas creció astronómicamente al pasar en 1998 de 10 mil registradas por día a medio millón en 1999.

Google dejo de compartir, el numero de búsquedas que registra ahora la empresa, pero el grupo de investigación comScore estimo que en julio de este año registro un promedio de 235 millones de búsquedas por día.Otra forma de medir su crecimiento, es mediante el número de páginas que ingresa a su servicio de búsqueda.

Google inició con un buscador que en 1998 tenía in índice de 26 millones de páginas en internet. En Julio, un ingeniero de la compañía estimó que se tenía ahora un índice de un billón de páginas únicas en la red.Su explosivo crecimiento, dominante en algunas áreas de la red, le ha valido a la empresa el comenzar a ser criticada como monopolio y de amenaza para la confiabilidad de la información.Las acusaciones podrían aumentar ante los planes de Google para los próximos 10 años.

La empresa planea extenderse más allá de ser el principal sitio de búsquedas en la red para pasar a ser un centro mundial de información, que almacene todos los datos personales y corporativos.La firma, con sede en Mountain View, California, pretende convertirse en el principal proveedor de aplicaciones para el internet en el mundo.Google lanzó esta semana, 'Chrome' su primer programa para 'navegar en la red', en directa competencia a Microsoft, la empresa ubicada aun como la número uno en la creación de software, pero desplazada a una segunda posición en el dominio en internet.

De hecho, Google pretende trasladar a la red el mayor número de aplicaciones posible, para que el usuario realice su trabajo completamente en línea sin tener que almacenar nada en su propia computadora personal.En búsqueda de este objetivo, Google ha comenzado a desarrollar también aplicaciones para teléfonos celulares y otros aparatos móviles, de forma que la persona pueda usar información o interactuar en Internet desde cualquier lugar en que se encuentre.Bajo la supervisión de sus fundadores, Page y Brin y la dirección corporativa de Eric Schmidt, un ex ejecutivo de Novell, Google ha desarrollado una cultura de trabajo diferente a la gran mayoría de las empresas.

Sus empleados, la gran mayoría jóvenes menores de 40 años, trabajan en edificios que se asemejan a los campus universitarios, donde tienen a su disposición comida orgánica gratuita y reciben un día a la semana para trabajar en su proyecto personal para la empresa.Google sostiene que desea hacer del mundo un mejor lugar y ha adoptado como slogan corporativo la frase: Puedes hacer dinero sin hacer el mal'.

Primeras partículas observadas en el LHC


En el gran colisionador de hadrones o LHC se han detectado ya las primeras partículas en su etapa de pruebas, incluso sin que los haces de protones hayan empezado a circular.


Ya han sido detectadas las primeras partículas en el LHC durante la etapa preliminar de pruebas antes de que el día 10 del mes próximo empiece a funcionar de verdad.
El LHC es un anillo gigantesco por el que circularán haces protones a muy alta energía. Los haces se interceptarán en unos puntos específicos donde se han colocado los experimentos. Éstos contienen detectores que miden las trayectorias y características de las partículas que los atraviesan. Consisten en una cascada de distintos detectores montados alrededor del punto de colisión, unos muy cerca de ese punto mientras que otros pueden estar situados a 20 metros del mismo.
Aunque todavía no circulan protones por el anillo, los detectores parece que ya pueden cumplir con su cometido. Los detectores han estado detectando rayos cósmicos durante varios meses y el pasado 22 de agosto uno de los detectores detectó partículas producidas por el propio LHC.
La observación se hizo durante una prueba de sincronización del acelerador, cuando las partículas circularon por una tramo corto del LHC.Esta prueba de sincronización consiste en lanzar un haz de protones sobre un blanco de 28 toneladas que está situado a 200 metros del experimento LHCb, produciéndose una lluvia de partículas. Algunas de esas partículas fueron registradas por una sección del detector VELO instalado en ese lugar.
Dado el éxito, otra prueba similar se realizó el domingo pasado. Estas pruebas ayudan al calibrado de los sistemas implicados.VELO se encargará de medir de manera precisa (en millonésimas de metro) las trayectorias de las partículas resultantes de las colisiones de protones. Esta compuesto por 84 sensores en forma de media luna, cada uno conectado a la electrónica gracias a 5000 cables. El cometido de este detector es registrar quarks b, algo que puede ayudar a comprender la naturaleza de la materia y la antimateria. Todavía no se sabe muy bien por qué en el Universo se primó la materia sobre la antimateria. Los datos proporcionados por este detector ayudarán a explorar las diferencias de comportamiento entre ambas.

El LHC está cerca de Ginebra, en Suiza, y en él se hará colisionar a protones entre sí a unos niveles de energía nunca alcanzados antes en una acelerador de partículas. Los resultados obtenidos proporcionarán nuevas pistas sobre las fuerzas que gobiernan la Física a esas escalas. Quizás se descubra en este acelerador el tan ansiado bosón de Higgs que dotaría de masa al resto de las partículas.Se ha tardado 14 años en su construcción y ha costado 8000 millones de dólares. Es la mayor máquina jamás construida con 26659 m de circunferencia.
Consta de un sistema de bobinas superconductoras que necesitan de 10080 toneladas de nitrógeno líquido y 60 toneladas de helio líquido, con el que se consigue una temperatura final de -271,3°C (1,9 K). Por el anillo circularán billones de protones que darán 11245 vueltas en un segundo al 99,99% de la velocidad de luz. Con esta máquina se espera conseguir colisiones de 14 TeV, energía equivalente a la que tenía el Universo una fracción de segundo después del Big Bang. Los seis experimentos empleados son también de tamaños colosales y en ellos se tomarán los datos de 600 millones de colisiones por segundo gracias al sistema informático más potente del mundo.
Para hacerse una idea de estos detectores sólo señalar que el experimento Alice pesa 10.000 toneladas y el Atlas mide 46×25×25 metros. En este acelerador trabajaron y trabajarán miles de ingenieros y científicos.
Fuente: Neofronteras

Newton y Leibnitz: sobre hombros de gigantes

Sin duda Newton es el autor del primer paso de la carrera espacial.
Las Leyes descubiertas por él son las que han permitido al hombre poner un pie en la Luna o enviar naves a Marte y Venus, explorar los planetas exteriores: Júpiter, Saturno, Neptuno y Urano. Su modelo de telescopio ha permitido ver más lejos en cielo.
Sin duda los astrónomos le deben mucho a Newton. Pero los matemáticos y de paso el resto de los científicos le deben tanto a más.
Él junto a Leibniz, aunque sería mejor decir al mismo tiempo que Leibniz, son los descubridores de la más potente y maravillosa herramienta matemática: el Cálculo.
Newton tuvo en vida un prestigio y un reconocimiento social aún mayor que el que pudo tener Einstein en nuestro siglo. Como los reyes y muy pocos nobles fue enterrado en la abadía de Westminster. Leibniz murió sólo y abandonado por todos.
A su entierro en Hannover sólo asistió su criado. Hoy los dos comparten por igual la gloria de ser los padres de las dos herramientas más potentes del universo matemático: el cálculo diferencial y el cálculo integral. El instrumento ideal para entender y explicar el funcionamiento del mundo real, desde las cosas más próximas hasta el rincón más alejado del universo.

Orden y caos. La búsqueda de un sueño

Cosmos y Caos: orden y desorden.
Eso es lo que significan esas dos palabras griegas. La historia de la ciencia se reduce a esto: una lucha eterna por descubrir el funcionamiento de la Naturaleza, un intento interminable de poner orden en el caos. Y las matemáticas van a ser una herramienta imprescindible.
Asistiremos a las batallas matemáticas más importantes en esta eterna guerra.
Desde Pitágoras buscando en los números la armonía del Universo, hasta Platón asociando a los poliedros regulares el equilibrio universal. Nos detendremos en una batalla fundamental: la lucha de Copérnico, de Galileo y de Kepler por poner orden en le movimiento caótico de los planetas.
Y seremos testigos del gran triunfo de Newton descubriendo el sistema del mundo, poniendo al mismo nivel a la manzana y a la Luna. Desde que Newton publicara en 1687 sus Principia Mathematica una idea va a impregnar hasta el último rincón de todas las disciplinas científicas: La Naturaleza tiene sus leyes matemáticas y el ser humano puede encontrarlas. Pero por desgracia la Naturaleza se guarda siempre alguna baza.
Quién puede predecir cuándo y dónde se producirá un torbellino en una corriente de agua, cómo bailan las llamas de una hoguera, qué volutas va describir el humo de un cigarro, cuándo y dónde se formará una tormenta, dónde descargará un rayo, qué figura extraña dibujará en el cielo. Decididamente son fenómenos al otro lado de la frontera del caos.
Pero las Matemáticas ya han puesto su avanzadilla en esa otra orilla: la teoría de Caos y la Geometría fractal. Caos y orden, orden y caos. ¿No serán en el fondo las dos caras de una misma y maravillosa moneda: la Naturaleza?

Bombas «sucias»

Desde las guerras balcánicas de finales del siglo XX los ejércitos norteamericano y británico han venido usando materiales radiactivos de desecho para contaminar zonas pobladas mediante la ayuda de explosivos convencionales. Se las confunde con bombas nucleares cuando en realidad no tienen nada que ver unas con otras. Son las «bombas sucias», consistentes en la expansión mediante un explosivo convencional de material radiactivo sobre una área de terreno con el fin de provocar daños a la salud de las personas e impedir la habitabilidad de un territorio. Su forma más concreta vienen siendo los proyectiles con punta de uranio empobrecido, usado habitualmente por el ejército norteamericano fuera de sus fronteras, más como forma de deshacerse del material de desecho de sus centrales nucleares, al tiempo que mejora la eficacia de esos proyectiles, que como ataque intencionado contra la población de las zonas bombardeadas. Los daños a la salud de la población y al ecosistema de las zonas afectadas son considerados daños colaterales.
Se teme que, además de los ejércitos convencionales, haya grupos terroristas dispuestos a usar este tipo de armas, más accesibles que las verdaderas armas nucleares por su diseño mucho más sencillo, aunque con un elevado daño potencial para las víctimas que la sufran. Este tipo de artefacto no se puede calificar, sin embargo, como bomba nuclear ya que no hace uso de reacción nuclear alguna. Lo único que tienen en común las bombas sucias y las nucleares es el uso de elementos radiactivos en su dispositivo.

Bombas de neutrones

La bomba de neutrones, también llamada bomba N, bomba de radiación directa incrementada o bomba de radiación forzada, es un arma nuclear derivada de la bomba H que los Estados Unidos comenzaron a desplegar a finales de los años 70. En las bombas H normalmente el 50% de la energía liberada se obtiene por fisión nuclear y el otro 50% por fusión. En la bomba de neutrones se consigue hacer bajar el porcentaje de energía obtenida por fisión a menos del 50%, e incluso se ha llegado a hacerlo de cerca del 5%.
En consecuencia se obtiene una bomba que para una determinada magnitud de onda expansiva y pulso térmico produce una proporción de radiaciones ionizantes (radiactividad) hasta 7 veces mayor que las de una bomba H, fundamentalmente rayos X y gamma de alta penetración. En segundo lugar, buena parte de esta radiactividad es de mucha menor duración (menos de 48 horas) de la que se puede esperar de una bomba de fisión.
Las consecuencias prácticas son que al detonar una bomba N se produce poca destrucción de estructuras y edificios, pero mucha afectación y muerte de los seres vivos (tanto personas como animales), incluso aunque estos se encuentren dentro de vehículos o instalaciones blindadas o acorazadas. Por esto se ha incluido a estas bombas en la categoría de armas tácticas, pues permite la continuación de operaciones militares en el área por parte de unidades dotadas de protección ABQ.

Bombas de fusión nuclear

Las bombas de fusión consisten en la fusión de núcleos ligeros (isótopos del hidrógeno) en núcleos más pesados.
La bomba de hidrógeno (bomba H), bomba termica de fusión o bomba termonuclear se basa en la obtención de la energía desprendida al fusionarse dos núcleos atómicos, en lugar de la fisión de los mismos.
La energía se desprende al fusionarse los núcleos de deuterio (H²1) y de tritio (H³1), dos isótopos del hidrógeno, para dar un núcleo de helio. La reacción en cadena se propaga por los neutrones de alta energía desprendidos en la reacción.
Para iniciar este tipo de reacción en cadena es necesario un gran aporte de energía, por lo que todas las bombas de fusión contienen un elemento llamado iniciador o primario, que no es sino una bomba de fisión. A los elementos que componen la parte fusionable (deuterio, tritio, etc) se le conoce como secundario.
La primera bomba de este tipo se hizo estallar en Eniwetok (atolón de las Islas Marshall) el 1 de noviembre de 1952 con marcados efectos en el ecosistema de la región. La temperatura alcanzada en el «Punto Cero» (lugar de la explosión) fue de más de 15 millones de grados, tan caliente como el núcleo del Sol, por unos cuantos segundos. Literalmente vaporizó dicha isla.

Efectos de las armas nucleares

Las explosiones nucleares producen muy diversos tipos de efectos todos ellos tremendamente destructivos en todos los aspectos. Se distinguen en dos categorías.
Efectos inmediatos o primarios y efectos retardados o secundarios. Entre los inmediatos estarían la onda expansiva, el pulso de calor, la radiación ionizante y el pulso electromagnético (EMP).
En el grupo de los retardados estarían los efectos sobre el clima, el medio ambiente así como el daño generalizado a infraestructuras básicas para el sustento humano.
A pesar de la espectacularidad de los primeros son los daños secundarios los que ocasionarían el grueso de las muertes tras un ataque nuclear. Pero los daños no solo deben medirse por separado ya que en muchos casos actúan efectos sinérgicos es decir, que un daño potencia el otro. Por ejemplo, la radiación disminuye las defensas del organismo y, a su vez, agudiza la posibilidad de infección de las heridas causadas por la explosión aumentando así la mortalidad.
Es precisamente esa multitud de efectos y sinergias lo que hace de las armas nucleares el arma más destructiva que existe. La emisión inicial de energía se produce en un 80% o más en forma de rayos gamma pero éstos son rápidamente absorbidos y dispersados en su mayoría por el aire en poco más de un microsegundo convirtiendo la radiación gamma en radiación térmica (pulso térmico) y energía cinética (onda de choque) que son en realidad los dos efectos dominantes en los momentos iniciales de la explosión.
El resto de la energía se libera en forma de radiación retardada (lluvia radiactiva) y no siempre se suele contar a la hora de medir el rendimiento de la explosión. Las explosiones a gran altitud producen un mayor flujo de radiación extrema debido a la menor densidad del aire (los fotones encuentran menos oposición) y, consiguientemente se genera una menor onda expansiva.
Durante tiempo antes de la invención de la bomba algunos científicos creyeron que su detonación en superficie podría provocar la ignición de la atmósfera terrestre generándose una reacción en cadena global en la que los átomos de nitrógeno se unirían para formar carbono y oxígeno.
Este hecho pronto se demostró imposible ya que las densidades necesarias para que se produzcan dichas reacciones han de ser mucho más elevadas que las atmosféricas y si bien es posible que haya reacciones adicionales de fusión en el corazón de la explosión estas no aportan energía suficiente para amplificar y propagar la reacción nuclear al resto de la atmósfera y la producción de elementos pesados cesa enseguida.
A pesar de todo esta idea persiste en la actualidad como un rumor malentendido entre mucha gente.Explosiones nucleares hasta la fecha:2 bombas atómicas han sido detonadas en estado de guerra.
Se han realizado alrededor de 2.000 pruebas nucleares.
27 de las cuales han sido realizadas para construcción.

Kilotón

A modo introductorio, vamos a definir y explicar un poco que es el kilotón, para concluir con un siguiente post referido a armas nucleares.
Un kilotón o kilotonelada es una unidad de masa que equivale a mil toneladas. Sus múltiplos y nomenclaturas derivan también de la tonelada. Otras unidades derivadas de la tonelada son los megatones o megatoneladas (106 t), y gigatones o gigatoneladas (109 t).
Su principal uso es para designar el potencial destructivo de un arma, sobre todo armas nucleares, expresando la equivalencia de la energía explosiva en toneladas de TNT.
Las bombas nucleares con energías del orden de los kilotones (1 kt = 4,184×1012 J = 4,184 TJ) se llaman bombas nucleares tácticas. Las bombas nucleares con energías del orden de los megatones (1 Mt = 4,184×1015 J = 4,184 PJ) reciben el nombre de bombas nucleares estratégicas. La bomba más grande jamás detonada fue la bomba del Zar con un rendimiento estimado en 50 Mt.
También se usan a menudo dichas unidades para cuantificar sucesos catastróficos de la naturaleza como grandes erupciones volcánicas, terremotos o impactos de meteoritos. Por ejemplo el impacto de un gran meteorito en Chicxulub (Yucatán) hace unos 65 millones de años se estima que liberó una energía equivalente a 192 millones de megatones.

Curva cerrada de tipo tiempo

En la variedad Lorentziana de la geometría diferencial, se llama curva cerrada de tipo tiempo o curva temporal cerrada (closed timelike curve, o abreviadamente CTC, en inglés) a la línea de universo de una partícula material que está cerrada en el espacio-tiempo, es decir, que es susceptible de regresar al mismo estado del que partió en el tiempo.

Esta posibilidad fue planteada por Willem Jacob van Stockum en 1937 y por Kurt Gödel en 1949. De probarse la existencia de la CTC, el hecho podría implicar al menos la posibilidad teórica de construir una máquina del tiempo, así como una reformulación de la paradoja del abuelo.

La CTC está relacionada con la deformación gravitatoria y con el cilindro de Tipler, (en referencia al físico Frank J. Tipler), capaces teóricamente de posibilitar el viaje en el tiempo, todo ello contemplado por la relatividad general.

Consecuencias
Un rasgo de las curvas cerradas de tipo tiempo es que abren la posibilidad de una línea de universo que no esté conectada a tiempos anteriores, y así de la existencia de eventos que puedan no ser debidos a una causa anterior a ellos mismos. Ordinariamente, la causalidad exige que cada evento en el espacio-tiempo sea producido por su causa, en todo marco de referencia en reposo. Este principio es crítico en el determinismo, el cual, en el lenguaje de la relatividad general, establece que a partir de un conocimiento completo del universo en una superficie de Cauchy de tipo espacio es posible determinar o “predecir” cualquier estado posterior del espacio-tiempo.

Sin embargo, en una CTC, la causalidad se rompe porque un evento puede ser simultáneo con su causa, de modo que el evento en realidad se convierte en su propia causa. Basados sólo en el conocimiento del pasado, es imposible determinar si algo existe en la CTC que pueda interferir con otros objetos en el espacio-tiempo. Una curva cerrada de tipo tiempo, por consiguiente, resulta en un horizonte de Cauchy, y una región de espacio-tiempo que no puede ser predicha a partir de un conocimiento perfecto de algún momento pasado.

La existencia de CTC impone restricciones a los estados de campos de materia-energía que permite la física. Si propagamos la configuración de un campo a lo largo de una familia de líneas de universo cerradas de tipo tiempo, debemos obtener un estado que es idéntico al original. Este es el enfoque que ha sido propuesto por algunos científicos para descartar la existencia de curvas cerradas de tipo tiempo.

lunes, 1 de septiembre de 2008

UM Científica

Luego de 4 meses desde que nació este blog, nos urge la necesidad de compartir con ustedes que ha sobrepasado las expectativas esperadas.

Contamos con mas de 2000 visitas reales. Un flujo que hoy supera ampliamente las 80 visitas diarias.

Este blog nació con el propósito de reunir documentos científicos, avances tecnológicos, curiosidades referidas a matemáticas, a las leyes físicas cotidianas, y teóricas. Como se comentó en el primer post, se trata solamente de contribuir con la divulgación científica.No se busca ningún beneficio personal ni económico. No contiene publicidades de ningún tipo, y está escrito en modo impersonal.

Sigue la invitación a aportar ideas, notas, comentarios, y sobre todo críticas, que es donde mas se aprende.

Que siga habiendo click!

El comienzo de Arquímedes

Cuando los fenómenos de la naturaleza se vuelven parte de nuestra vida cotidiana, como por ejemplo, ir a la verdulería, cargar con un bebé, caminar, subir escaleras, recostarse, viajar en colectivo, etc. terminamos haciéndonos una idea bastante clara de lo que nos está sucediendo en el momento de realizar estas acciones.

Quizás por ser una propiedad común de todo lo que nos rodea, y de nosotros mismos, el peso sea uno de los conceptos más claros que hayamos asimilado en nuestra manera de pensar. Si bien la razón por la cual un objeto es más pesado que otro requiere cierto grado de elaboración, semejante al que hizo Newton después de observar la caída de su manzana, ni bien alzamos dos objetos, uno más pesado que el otro, y por separado, experimentamos en nuestro cuerpo una sensación bastante difícil de describir con palabras pero que nos conducirá, sin dudas, a la respuesta correcta.

Existen otros fenómenos, un poco más complejos, en los que no basta simplemente con pesar cada objeto por separado. Supongamos que tenemos dos líquidos distintos y queremos saber cual es más denso que el otro --para el que no lo recuerda, la densidad de un objeto es la masa del objeto dividida por el volumen que éste ocupa--. Podemos, o bien pesar y medir el volumen de cada una por separado o sino hacer algo un poco más excitante, mezclar ambos líquidos y esperar cuál de ellos se va al fondo. Así, valiéndonos de nuestra vista, podríamos afirmar, sin dudas, que el aceite es menos denso que el agua y por eso flota.

Pero por suerte los fenómenos que nos rodean pueden ser cada vez más complejos y llevarnos más allá de las fronteras de nuestro sentido común.

Si seguimos con nuestra idea sobre la densidad de las cosas podríamos cambiar nuestro aceite flotante por bolitas de hierro y ver cómo éstas van cayendo lentamente hasta ocupar por completo el fondo del agua. Nuevamente, las bolitas de hierro caen al fondo porque son más densas que el agua, pero también podemos analizar su caída concentrándonos en las fuerzas que actúan sobre ellas: hay una fuerza hacia abajo que ejerce la Tierra, su peso, y otra fuerza hacia arriba que ejerce el agua, cuyo valor es igual al peso del volumen del agua desalojada por la bolita. Esto último es el principio que Arquímedes descubrió 300 años antes de Cristo, que dice así:

Todo cuerpo sólido que se sumerge en un líquido recibe una fuerza de abajo hacia arriba cuya magnitud es igual al peso del volumen de líquido desalojado.

Como el peso de la bolita es mayor que el de la bolita de agua desalojada, la bolita de hierro cae al fondo. Hasta aquí viene todo bien. Pero ya que estamos, tomémonos la libertad de imaginarnos algo mucho más divertido. Supongamos que una de nuestras bolitas de hierro comienza a crecer, tal vez porque se come a las otras bolitas, hasta un tamaño de miles de metros cúbicos. y porqué no, un peso de unas cuantas toneladas. Ahora, para que todo empiece a tener sentido, supongamos que nuestro recipiente de agua es el océano Atlántico.

Nuestro gigante de hierro seguirá allá, en el fondo del mar, porque al igual que antes el peso de nuestra bola gigante de hierro sigue siendo mayor que el de la bola gigante de agua desalojada. Finalmente imaginemos un astillero submarino con miles de hombres ranas trabajando sin parar sobre el gigante de hierro hasta lograr un inmenso transatlántico que bien podría ser la nueva versión hundida del Titanic. Una vez finalizado el trabajo, inmensas grúas lo sacarán a la superficie y luego de vaciarse de toda el agua –y algún hombre rana- que quedó en su interior las grúas depositarán sobre la superficie del océano a este gigante de hierro, material mucho más denso que el agua, pero que ahora sorprendentemente se mantendrá solito y flotando!

¿Qué ocurrió para que el barco de hierro, mucho más denso que el agua, flote? Pues bien, al construirse el barco se tallaron salas de máquinas, chimeneas, cubiertas, habitaciones, etc. Todos estos trabajos hicieron que con la misma cantidad de hierro se lograra un volumen mayor, aumentando así el volumen de líquido desalojado. Ahora la fuerza de Arquímedes, que va de abajo hacia arriba, aumentó al punto tal que superó el peso del mismo barco, manteniéndolo en la superficie del océano.

El método que utilizan distintos animales o artefactos para modificar sus niveles de flotación consiste justamente en el cambio controlado del peso o del empuje recibido desde el fluido. Así, por ejemplo, los submarinos varían su peso mediante el llenado con agua de sus tanques de lastre; mientras que los cocodrilos ingieren piedras para aumentar su peso. Los peces, en cambio, utilizan sus vejigas natatorias, llenas de oxígeno y de nitrógeno procedente de la sangre, para cambiar su volumen, y así también, el empuje recibido desde el agua.

Toda esta historia que acabamos de imaginarnos puede reproducirse muy fácilmente con una bolita de plastilina y un vaso lleno de agua. Si se deja caer la bolita de plastilina en el vaso irá hacia el fondo. Pero si tomamos la bolita y la moldeamos de la misma forma que un casco de barco, al depositarla en el agua flotará. La razón de ello es que el peso del agua desalojada por el casco es mayor que el peso completo de la plastilina.

Celebremos, entonces, este hermoso fenómeno que desafía nuestros sentidos y, a la manera de Arquímedes, gritemos bien fuerte EUREKA!

Mujeres matemáticas

¿Entienden las Matemáticas de sexos? ¿Son los grandes misterios de las Matemáticas algo exclusivo de los hombres? ¿Por qué, a lo largo de la historia, hay tan pocas mujeres que hayan destacado en una disciplina científica tan antigua? Aunque parece que en la actualidad existe un equilibrio entre el número de chicos y de chicas que estudian matemáticas, esto es un fenómeno relativamente reciente. Desde luego hace cuarenta años esto no ocurría.

Para descubrir la presencia de las mujeres en el Universo de las Matemáticas haremos un recorrido histórico que comienza con el nacimiento de las matemáticas, con Pitágoras y su mujer Teano, y que continua con Hypatia en Alejandría, con Madame de Chatelet en Francia y con María Caetana Agnesi en Bolonia en el siglo XVIII. Incluso en el siglo XIX, Sophie Germain tuvo que adoptar la identidad de un antiguo alumno de la Escuela Politécnica de París, Monsieur Leblanc, para conseguir los materiales y problemas y para presentar sus propios resultados y trabajos. Sus trabajos sorprendieron a matemáticos de la altura de Lagrange y de Gauss.

Ya a finales del siglo Sophia Kovaleskaya sufrió la marginación de la mujer en el mundo académico a pesar de ser uno de los mejores cerebros de la época. Sólo a las puertas del siglo XIX, una mujer Marie Curie va a realizar uno de los descubrimientos más importantes de la historia de la humanidad, un descubrimiento que va a cambiar la vida de ser humano en el siglo XX en muchos aspectos: la radioactividad. Y consiguió algo quizás tan importante: por primera vez en la historia la humanidad los círculos científicos abrían sus puertas de par en par a una mujer. Y con ella a tantas tan injustamente ignoradas durante siglos.

Capicúa

La palabra capicúa (en matemáticas, número palindrómico) se refiere a cualquier número que se lee igual de izquierda a derecha y de derecha a izquierda (Ejemplos: 212, 7.540.550.457). El término se origina en la expresión catalana cap i cua (cabeza y cola).

Definición matemática

Un número palindrómico es un número simétrico escrito en cualquier base a tal que a1a2a3...|... a3a2a1.

Todos los números de base 10 con un dígito {0, 1, 2, 3, 4, 5, 6, 7, 8, 9} son palindrómicos.

  • Existen nueve números palindrómicos de dos dígitos:
{11, 22, 33, 44, 55, 66, 77, 88, 99}.
  • Noventa de tres dígitos:
{101, 111, 121,..., 181, 191, 202, 212,..., 292, 303, 313,..., 898, 909, 919, 929,..., 979, 989, 999}
  • Noventa con cuatro dígitos:
{1001, 1111, 1221, 1331, 1441, 1551, 1661, 1771, 1881, 1991,..., 9009, 9119, 9229, 9339, 9449, 9559, 9669, 9779, 9889, 9999},
  • Novecientos de cinco dígitos:
{10001, 11011, 11111, 11211, 11311, 11411, 11511,...,

Doble 0 o "00"

0 puede referirse a:

  • Una forma de representar un número 0. Esta forma es empleada en:
    • poner atención sobre los dos últimos dígitos para indicar que se trata de un número grande;
    • alinear un número con sólo un dígito (añadiendo y cero extra a la izquierda). Por ejemplo en las listas de números;
  • 00s Puede hacer referencia a la primera década de un siglo (por ejemplo: 0s, 100s, 200s ... 1900s, 2000s, etc.);
  • El 00 es el prefijo de llamada internacional empleado en muchos países.
  • escala 00, un nombre alternativo para la escala OO de un modelo de vía ferroviaria;
  • Un tipo de pincel muy fino;
  • Un toilet;
  • 00, una marca de Papel higiénico en Alemania;
  • La trigesimo octava posición (o compartimento) de la ruleta Americana;
  • Robert Parish, o cualquier otro deportista que figura con 00 en su jersey;
  • Un grado harina italiana;
  • Hachís de gran calidad comercial con una alta concentración de THC.
  • Serie de anime Mobile Suit Gundam 00

Péndulo de Foucault


Un péndulo de Foucault es un péndulo esférico largo que puede oscilar libremente en cualquier plano vertical y capaz de oscilar durante horas. Se utiliza para demostrar la rotación de la Tierra y la fuerza de Coriolis. Se llama así en honor de su inventor, León Foucault.

Un péndulo de Foucault situado en el ecuador no rota. Un péndulo situado en uno de los polos rota una vez al día. Un péndulo situado en cualquier otro punto de la Tierra rota con una velocidad inversamente proporcional al seno de su latitud, o bien proporcional a la cosecante de la latitud; de modo que si se sitúa a 45° rota una vez cada 1,4 días y a 30° cada 2 días.

Los péndulos de Foucault no utilizan ninguna fuerza motríz, estando suspendidos de un resorte mecánico para facilitar su oscilación y garantizar siempre la misma amplitud de oscilación. Para contrarrestar las perdidas de energía por la fricción del aire, se crean pequeños campos electromagnéticos en la base, consiguiendo así la oscilación continua, sin intervención humana o mecánica.

Primera Demostración

La primera demostración tuvo lugar en 1851, el péndulo se fijó al techo del Panteón de París, debido a su gran altura, que permite colocar un péndulo de grandes dimensiones y observar mejor el fenómeno. La originalidad de este experimento consiste en la demostración de que la rotación de la Tierra se realiza localmente, en el interior de un recinto cerrado. Igualmente, este experimento permite determinar la latitud del lugar sin ninguna observación astronómica.

El péndulo instalado en el Panteón en 1851 medía 67 metros y llevaba una masa de 28 kg. Una vez lanzado, el péndulo oscilaba durante 6 horas. El periodo (ida y vuelta) era de 16,5 segundos; el péndulo se desviaba 11° por hora. Desde 1995 este péndulo está de nuevo en el Panteón.

Investigadores japoneses crean una piel suave y sensible para robots

El robot que le preparará pronto el baño cada noche no será un monstruo frío, sino un ser cariñoso de piel suave y sensible a la temperatura gracias al genio de unos investigadores japoneses.

Un equipo de investigadores de la Universidad de Tokio, que desea hacer más agradables los objetos electrónicos, ha creado un nuevo material elástico que, según el director del grupo, Takao Soneya, es el primero en ser flexible y a la vez un excelente portador de corriente eléctrica.

Este nuevo material es flexible, se puede extender a más del doble de su tamaño normal, y posee una capacidad conductora 570 veces superior a la del caucho.

Estas propiedades le dan en teoría al nuevo material un amplio abanico de aplicaciones, empezando por la piel para los robots destinados a compartir la vida cotidiana de los seres humanos.

“Los seres cibernéticos, los nuevos compañeros de hombre, deben estar recubiertos de componentes electrónicos para medir la temperatura, presión y otros factores ambientales, con el fin de vivir en armonía con los humanos” , dijo Tsuyoshi Sekitani, uno de los investigadores. Androides insensibles serían sin duda peligrosos congéneres.

La silicona y otros polímeros que ya se utilizan para simular la piel humana son muy maleables, pero inadecuados para la electrónica. En cuanto a los materiales conductores todos se descartan porque es imposible hacerlos pasar por una piel suave.

El material diseñado por los especialistas japoneses en nanotecnología está basado en nanotubos de carbono -un estado del carbono descubierto por los japoneses hace casi veinte años- en un líquido iónico para poder ser mezclados con la goma.

Los nanotubos de carbono tienen por particularidad una gran movilidad electrónica, a diferencia de los compuestos orgánicos ya utilizados como transistores elementales en diferentes superficies.

Además de su aplicación en los robots, el nuevo material creado por la Universidad de Tokio, que parece ser muy barato de fabricar, podría ser utilizado, por ejemplo, como funda de un volante de automóvil capaz de captar y analizar diversos parámetros y evaluar si el conductor está realmente capacitado físicamente para conducir.

También puede uno imaginarse un colchón cubierto con este material para analizar las posturas del sueño e identificar las razones de diversas patologías o evitar su aparición.

Podría utilizarse además en la fabricación de ropa deportiva y profesional que exige medir parámetros fisiológicos.

La fabricación de pantallas flexibles a partir de esta sustancia tampoco es una utopía, según Sekitani, que cree que “los objetos electrónicos deben ser agradables al tacto” .

Aún serán necesarios varios años de trabajo antes de un uso industrial de este polímero elástico conductor a base de nanotubos de carbono. Sobre todo porque estos últimos, por naturaleza muy rígidos y ya utilizados en algunos sectores, están siendo investigados por su toxicidad para el medio ambiente y los seres humanos.