viernes, 26 de diciembre de 2008

Gato de Schrödinger


El experimento del gato de Schrödinger o paradoja de Schrödinger es un experimento imaginario, concebido en 1935 por el físico Erwin Schrödinger para exponer uno de los aspectos más extraños, a priori, de la mecánica cuántica.

Schrödinger nos propone que supongamos un sistema formado por una caja cerrada y opaca que contiene un gato, una botella de gas venenoso, una partícula radiactiva con un 50% de probabilidades de desintegrarse en un tiempo dado y un dispositivo tal que, si la partícula se desintegra, se rompe la botella y el gato muere.

Al depender todo el sistema del estado final de un único átomo que actúa según las leyes de la mecánica cuántica, tanto la partícula como la vida del gato estarán sometidos a ellas. De acuerdo a dichas leyes, el sistema gato-dispositivo no puede separarse en sus componentes originales (gato y dispositivo) a menos que se haga una medición sobre el sistema. El sistema gato-dispositivo está en un "estado entrelazado", entangled state, en inglés.

Siguiendo la interpretación de Copenhague, mientras no abramos la caja, el sistema, descrito por una función de onda, tiene aspectos de un gato vivo y aspectos de un gato muerto, por tanto, sólo podemos predicar sobre la potencialidad del estado final del gato y nada del propio gato. En el momento en que abramos la caja, la sola acción de observar modifica el estado del sistema tal que ahora observamos un gato vivo o un gato muerto. Esto se debe a una propiedad física llamada superposición cuántica que explica que el comportamiento de las partículas a nivel subatómico no puede ser determinado por una regla estricta que defina su función de onda. La física cuántica postula que es posible calcular la trayectoria o la posición de una partícula, pero no los dos factores de manera simultanea; por consiguiente la pregunta sobre la vida del gato sólo puede responderse probabilísticamente.

La paradoja ha sido objeto de tanta controversia (y de discusión no sólo científica, sino hasta filosófica) que Stephen Hawking llegó a afirmar que "cada vez que escucho hablar de ese gato, empiezo a sacar mi pistola".

Experimento mental

Un experimento mental es un recurso de la imaginación empleado para investigar la naturaleza de las cosas. En su sentido más amplio es el empleo de un escenario hipotético que nos ayude a comprender cierto razonamiento o algún aspecto de la realidad. Existe una gran diversidad de experimentos mentales, sin embargo todos emplean una metodología racional independiente de consideraciones empíricas, en el sentido de que no se procede por observación o experimentación física (otra forma de realizar la misma distinción sería entre lo apriori y lo a posteriori). Famosos ejemplos de experimentos mentales son el demonio de Maxwell y el gato de Schrödinger.

Gran parte de la ética, la filosofía del lenguaje y la filosofía de la mente están fundamentados firmemente en los resultados de experimentos mentales: el violinista de Thompson, la habitación china de Searle, la tierra gemela de Putnam, las personas que se dividen como una ameba de Parfit.

Puede mencionarse su importancia para campos tan variados como la filosofía, el derecho, la física y la matemática.

En filosofía se han empleado por lo menos desde la Antigüedad clásica, algunos anteriores a Sócrates, y eran igualmente bien conocidos en el derecho romano. El siglo XVII fue testigo de algunas de sus puestas en práctica más brillantes en Galileo, Descartes, Newton y Leibniz. Y en nuestros tiempos, la creación de la mecánica cuántica y la relatividad son casi impensables sin el papel crucial jugado por los experimentos mentales.

Gravedad cuántica

La gravedad cuántica es el campo de la física teórica que procura unificar la teoría cuántica de campos, la cual describe tres de las fuerzas fundamentales de la naturaleza, con la relatividad general, la teoría de la cuarta fuerza fundamental: la gravedad. La meta es lograr establecer una base matemática unificada que describa el comportamiento de todas las fuerzas de las naturalezas, conocida como la Teoría del campo unificado.


Dificultades en el desarrollo de una teoría cuántica

Una teoría cuántica de la gravedad (Teoría cuántica de campos) debe generalizar dos teorías de supuestos y formulación radicalmente diferentes:

  • La mecánica cuántica que es una teoría no determinista (Determinismo) sobre campos de partículas asentados en el espacio-tiempo plano de la relatividad especial que no es afectado en su geometría por las partículas.
  • La teoría de la relatividad general que es una teoría determinista que modela la gravedad como curvatura dentro de un espacio-tiempo que cambia con el movimiento de la masa.

Las maneras más obvias de combinar mecánica cuántica y relatividad general, sin usar teorías de gauge, tales como tratar la gravedad como simplemente otro campo de partículas, conducen rápidamente a lo que se conoce como el problema de la renormalización. Esto está en contraste con la electrodinámica cuántica y las otras teorías de gauge que son en general renormalizables y donde el cálculo perturbativo mediante diagramas de Feynman pueden ser acomodados para dar lugar a resultados finitos, eliminando los infinitos divergentes asociados a ciertos diagramas vía renormalización.

En cuanto a los detalles formales, hay que señalar que las teorías cuánticas existosas de las interacciones electromagnética, débil y fuerte en forma de teorías de gauge usan un grupo de gauge finito, pero que el tratamiento del campo gravitatorio como campo de gauge requeriría un grupo de gauge infinito, ya que el conjunto de difeomorfismos (Ver: Homeomorfismo) del espacio-tiempo no es un grupo finito.

La incompatibilidad entre la Mecánica Cuántica y la Relatividad General

Otra dificultad viene del éxito de la mecánica cuántica y la relatividad general. Ambas han sido altamente exitosas y no hay fenómeno conocido que contradiga a las dos. Actualmente, el problema más profundo de la física teórica es armonizar la teoría de la relatividad general (RG), con la cual se describe la gravitación y se aplica a las estructuras en grande (estrellas, planetas, galaxias), con la Mecánica cuántica (MC), que describe las otras tres fuerzas fundamentales y que actúan en la escala microscópica.

Las energías y las condiciones en las cuales la gravedad cuántica es probable que sea importante son hoy por hoy inaccesibles a los experimentos de laboratorio. El resultado de esto es que no hay observaciones experimentales que proporcionen cualquier indicación en cuanto a cómo combinar las dos.

La lección fundamental de la relatividad general es que no hay substrato fijo del espacio-tiempo, según lo admitido en la mecánica newtoniana y la relatividad especial. Aunque fácil de agarrar en principio, éste es la idea más díficil de entender sobre la relatividad general, y sus consecuencias son profundas y no completamente exploradas aún en el nivel clásico. Hasta cierto punto, la relatividad general se puede considerar como una teoría totalmente relacional, en la cual la única información físicamente relevante es la relación entre diversos acontecimientos en el espacio-tiempo.

Por otra parte, los mecánicos del quántum han dependido desde su invención de una estructura (no-dinámica) fija como substrato. En el caso de la mecánica cuántica, es el tiempo el que se da y no es dinámico, exactamente como en la mecánica clásica newtoniana. En teoría relativista de campos cuánticos, lo mismo que en teoría clásica de campos, el espacio tiempo de Minkowski es el substrato fijo de la teoría. Finalmente, la teoría de las cuerdas, comenzada como una generalización de la teoría de campos cuánticos donde, en vez de partículas puntuales, se propagan en un fondo fijo del espacio-tiempo objetos semejantes a cuerdas.

La teoría cuántica de campos en un espacio (no minkowskiano) curvo, aunque no es una teoría cuántica de la gravedad, ha mostrado que algunas de las asunciones de la base de la teoría de campos cuánticos no se pueden transportar al espacio-tiempo curvado, aún menos, entonces, a la verdadera gravedad cuántica. En particular, el vacío, cuando existe, se demuestra dependiente de la trayectoria del observador en el espacio-tiempo. Asimismo, el concepto de campo se ve como fundamental sobre el concepto de partícula (que se presenta como una manera conveniente de describir interacciones localizadas).

Históricamente, ha habido dos reacciones a la inconsistencia evidente de las teorías cuánticas con la substrato-independencia obligatoria de la relatividad general. El primero es que la interpretación geométrica de la relatividad general no es fundamental, sino apenas una cualidad emergente de una cierta teoría substrato-dependiente. Esto se remarca explícitamente, por ejemplo, en el texto clásico Gravitation and Cosmology de Steven Weinberg. La visión opuesta es que la independencia del substrato es fundamental, y la mecánica cuántica precisa generalizarse a contextos donde no hay tiempo especificado a-priori. El punto de vista geométrico es expuesto en el texto clásico Gravitation, por Misner, Thorne y Wheeler. Es interesante que dos libros escritos por gigantes de la física teórica expresando puntos de vista totalmente opuestos del significado de la gravitación fueran publicados casi simultáneamente al comienzo de los años 1970. Simplemente, se había alcanzado un callejón sin salida. No obstante, desde entonces el progreso ha sido rápido en ambos frentes, conduciendo en última instancia a ST (String Theory o teoría de cuerdas) y a LQG.

Requerimientos de una teoría cuántica de la gravedad

El enfoque general tomado en derivar una teoría de la gravedad cuántica es asumir que la teoría subyacente será simple y elegante y entonces mirar las teorías actuales buscando las simetrías y las indicaciones sobre cómo combinarlas elegantemente en una teoría abarcadora. Un problema con este enfoque es que no se sabe si la gravedad cuántica será una teoría simple y elegante.

Tal teoría se requiere para entender los problemas que implican la combinación de masas o de energías muy grandes y de dimensiones muy pequeñas del espacio, tales como el comportamiento de los agujeros negros, y el origen del universo.

Una teoría cuántica de la gravitación debería poder ayudarnos a resolver varios problemas físicos no resueltos como:

  • El problema de las singularidades, que nos explique cual es el fin último de una partícula que cae en un agujero negro siguiendo una geodésica que acaba en una "singularidad" espaciotemporal y cuál es la naturaleza física de las singularidades.
  • El problema del origen del universo, que explique el proceso conocido como inflación cuántica que al parecer podría explicar también el problema cosmológico del horizonte.

Roger Penrose ha propuesto algunos hechos que la teoría cuántica de gravitación podría (o debería) explicar:

  • El problema del colapso de la función de onda cuántica: como es sabido, la mecánica cuántica postula dos clases de evolución temporal. De un lado tenemos una evolución temporal suave, determinista y lineal dada por una ecuación tipo ecuación de Schrödinger (cuando el sistema se deja evolucionar sin afectarlo mediante ninguna medida), tal como se recoge en la postulado V . Y de otro lado tenemos una evolución abrupta, aleatoria y no lineal recogida en la postulado IV y que ocurre cuando hacemos una medida de una magnitud física del sistema. De acuerdo con Penrose, estos dos tipos de evolución podrían ser casos límites de un mismo tipo de evolución no-lineal que en ciertas ocasiones se presenta como lineal o cuasi-lineal, quedando así explicada la ambigüedad de la teoría cuántica sobre cuándo realmente ocurre o no una medida.
  • La asimetría temporal relacionada con la segunda ley de la termodinámica que Penrose argumenta razonadamente se remonta a que la singularidad inicial del Big Bang fue de un tipo especial con tensor de curvatura de Weyl nulo. Penrose explica que todas las singularidades finales, como las de los agujeros negros, por el contrario, conllevan un tensor de Weyl que tiende a infinito.
  • La naturaleza de la conciencia humana, que Penrose opina no es de naturaleza puramente algorítmica sino que incluiría elementos no computables. Penrose apunta que una teoría cuántica de la gravitación debería ser no-lineal, y si bien podría ser realmente determinista sería claramente no computable lo que explicaría que los fenómenos cuánticos de medición nos parecieran impredecibles tal como realmente observamos.

También una teoría cuántica de la gravedad debería ampliar nuestro conocimiento de efectos cuánticos predichos por enfoques tentativos de otras teorías cuánticas, como la existencia de radiación de Hawking.

Intentos de teorías cuánticas de la gravedad

Hay un número de teorías y de proto-teorías propuestas de la gravedad cuántica incluyendo:

  • Teoría de cuerdas y supergravedad
  • Gravedad cuántica de lazos de Ashtekar, Smolin y de Rovelli
  • Geometría no conmutativa de Alain Connes
  • Teoría de Twistores de Roger Penrose
  • Conjuntos causales, de Rafael Sorkin
  • Triangulación dinámica causal (abreviadamente CDT)
  • Expansión cósmica en escala de Johan Masreliez
  • Geometrodinamica de John Wheeler

Número perfecto

Un número perfecto es un natural que es igual a la suma de sus divisores propios positivos, sin incluirse él mismo.

Así, 6 es un número perfecto, porque sus divisores propios son 1, 2 y 3; y 6 = 1 + 2 + 3. Los siguientes números perfectos son 28, 496 y 8128.

El matemático Euclides descubrió que los cuatro primeros números perfectos vienen dados por la fórmula 2n-1 × (2n – 1):

n = 2: 21 × (22 – 1) = 6

n = 3: 22 × (23 – 1) = 28

n = 5: 24 × (25 – 1) = 496

n = 7: 26 × (27 – 1) = 8128

Al darse cuenta de que 2n – 1 es un número primo en cada caso, Euclides demostró que la fórmula 2n–1(2n – 1) genera un número perfecto par siempre que 2n 1 es primo.

Los matemáticos de la Antigüedad hicieron muchas suposiciones sobre los números perfectos basándose en los cuatro que ya conocían. Muchas de estas suposiciones han resultado ser falsas. Una de ellas era que, como 2, 3, 5 y 7 eran precisamente los cuatro primeros números primos, el quinto número perfecto se obtendría con n = 11, el quinto número primo. Sin embargo, 211 – 1 = 2047 = 23 × 89 no es primo y por tanto n = 11 no genera un número perfecto. Dos de las otras suposiciones equivocadas eran:

  • El quinto número perfecto tendría cinco dígitos, ya que los cuatro primeros tienen 1, 2, 3 y 4, respectivamente.
  • Los números perfectos terminarían alternativamente en 6 y en 8.

El quinto número perfecto (33550336) tiene 8 dígitos, contradiciendo así la primera suposición. En cuanto a la segunda, el quinto número perfecto acaba en 6, pero también el sexto (8589869056) termina en 6. (El que la última cifra de un número perfecto par expresado en base 10 siempre sea 6 u 8 no es difícil de demostrar.)

Es verdad que si 2n – 1 es un número primo, entonces 2n–1(2n – 1) es un número perfecto, pero el recíproco no es necesariamente cierto. Hoy en día, a los números primos generados por la fórmula 2n – 1 se los conoce como números primos de Mersenne, en honor al monje del siglo XVII Marin Mersenne, quien estudió teoría de números y números perfectos.

Posteriormente, Euler demostró en el siglo XVIII que todos los números perfectos pares se generan a partir de la fórmula que ya descubrió Euclides.

No se conoce la existencia de números perfectos impares. Sin embargo, existen algunos resultados parciales. Si existe un número perfecto impar debe ser mayor que 10300, debe tener al menos 8 factores primos distintos (y al menos 11 si no es divisible por 3). Uno de esos factores debe ser mayor que 107, dos de ellos deben ser mayores que 10.000 y tres factores deben ser mayores que 100.

Considerando la suma de los divisores propios existen otros tipos de números.

  • Números defectivos: la suma de los divisores propios es menor que el número.
  • Números abundantes: la suma es mayor que el número.
  • Números amigos: a y b tales que a es la suma de los divisores de b y viceversa.
  • Números sociables: como los amigos, pero con un ciclo mayor de números.

Se puede decir que el número perfecto es un número amigo de sí mismo.

viernes, 12 de diciembre de 2008

Número Defectivo

Un número defectivo o deficiente es un número natural que es mayor que la suma de sus divisores propios exceptuándose a sí mismo.

Todos los números primos son defectivos, y también lo son las potencias de los números primos y los divisores propios de los números defectivos y perfectos. Si la suma es mayor, entonces se considera al número como abundante.

Es fácil ver que existen infinitos números defectivos, ya que existen infinitos números primos, y estos son sólo algunos de los números defectivos.

Esfera cornuda de Alexander

En topología, la esfera cornuda de alexander, cuyo exterior no es homeorfo al exterior de la 2-esfera canónica en R3. Es una 2-esfera embebida en R.

Fue descubierta en 1924 por el matemático James Alexander como un ejemplo patológico que mostraba la imposibilidad de generalizar el Teorema de la curva de Jordan-Schönflies a dimensiones superiores.

Descripción informal

Descrita de modo informal, se construye, como muestra la figura, sacando dos "cuernos" a una esfera, aproximándolos, dividiendo en dos cada uno de los cuernos anteriores y volviéndolos a aproximar, repitiendo el proceso indefinidamente.
Representa un objeto topológicamente equivalente a la 2-esfera canónica de R3, pero embebido en R3 de forma muy diferente. Si nos fijamos en el exterior de la esfera cornuda de Alexander, encontraremos que la esfera se encuentra anudada. En una esfera canónica siempre podremos liberar una cuerda atada en su exterior, pero en la esfera cornuda de Alexander será imposible liberar una cuerda que tenga que pasar a través de los cuernos entrelazados.
Así, del mismo modo que todos los nudos como espacios topológicos son homeomorfos a una circunferencia, pero nudos no equivalentes pueden tener exteriores no homeomorfos, la esfera canónica de R3 y la esfera cornuda de Alexander son homeomorfas y sus exteriores no.

Un poco de historia

En 1909 se completó la demostración del Teorema de la curva de Jordan-Schönflies. Como consecuencia directa del mismo, quedaba demostrado que cualquier curva cerrada simple dividía el plano en dos regiones: la interior, homeomorfa al interior del disco unidad, y la exterior, homeomorfa al exterior del mismo disco.
En 1921, J. W. Alexander buscaba un análogo en dimensión superior de este teorema. Cuando creía tener probado este resultado, descubrió un fallo. En 1924 descubrió como contraejemplo la esfera cornuda: su exterior no era homeomorfo al exterior de la esfera canónica.

Ars Magna (Libro)

Artis magnae, sive de regulis algebraicis, más conocido como Ars Magna (en latín: Gran Obra), es un importante libro de matemática escrito originalmente en latín por Gerolamo Cardano en 1545.

El libro contiene la primera solución publicada para las ecuaciones de tercer grado mediante un método creado por los matemáticos Tartaglia y Scipione del Ferro, de la misma época, y el primer cálculo explícito con números complejos.

Cardano, mediante adulaciones a Tartaglia, consiguió el método para resolver ecuaciones cúbicas, que publicó a pesar de prometer a Tartaglia que no lo difundiría.

Paradoja de Parrondo



La paradoja de Parrondo, descrita por el físico español Juan Parrondo dice que si jugamos a dos ciertos juegos según un orden aleatorio, con una alta posibilidad de perder en cada uno de ellos, es posible construir una ganancia contínua.

Paradoja de Banach-Tarski


La paradoja de Banach-Tarski es en realidad un teorema que afirma que es posible dividir una esfera (llena) de radio 1 en ocho partes disjuntas dos a dos, de modo que, aplicando movimientos oportunos a cinco de ellas, obtengamos nuevos conjuntos que constituyan una partición de una esfera (llena) de radio 1, y lo mismo ocurra con las tres partes restantes.

En palabras más sencillas, se supone que es posible fabricar un rompecabezas tridimensional de un total de ocho piezas, las cuales, combinadas de una determinada manera, formarían una esfera completa y rellena (sin agujeros) y, combinadas de otra manera, formarían dos esferas rellenas (sin agujeros) del mismo radio que la primera.

El teorema de Banach–Tarski recibe el nombre de paradoja por contradecir nuestra intuición geométrica básica. Las operaciones básicas que se realizan preservan el volumen siempre que los fragmentos sean medibles, pero precisamente las ocho partes citadas en el teorema son conjuntos no medibles. La construcción de estos conjuntos hace uso del axioma de elección para realizar una cantidad no numerable de elecciones arbitrarias.

Teorema de los cuatro cuadrados

El teorema de los cuatro cuadrados de Lagrange , también conocido como la conjetura de Bachet se demostró en 1770 por Joseph Louis Lagrange.

Dice que cada número entero positivo puede expresarse como la suma de cuatro cuadrados de enteros. Por ejemplo,

31 = 5 2 + 2 2 + 1 2 + 1 2

310 = 17 2 + 4 2 + 2 2 + 1 2

Más formalmente, para cada entero positivo n existen números enteros no negativos a,b,c,d tales que

n = a 2 + b 2 + c 2 + d 2

Adrien-Marie Legendre mejoró el teorema en 1798 demostrando que un entero positivo puede expresarse como la suma de tres cuadrados si y sólo si no es de la forma 4 k (8 m + 7). Su prueba estaba incompleta, dejando un hueco que después llenó Carl Friedrich Gauss.

En 1834, Carl Gustav Jakob Jacobi encontró la fórmula exacta para el número total de maneras en que un número entero positivo n dado puede representarse como la suma de cuatro cuadrados. Este número es ocho veces la suma de los divisores de n si n es impar y 24 veces la suma de los divisores impares de n si n es par.

El teorema de los cuatro cuadrados de Lagrange es un caso especial del teorema del número poligonal de Fermat y del problema de Waring.

Conjetura de Catalan

La conjetura de Catalan (también conocida como teorema de Mihăilescu) es un teorema de teoría de números propuesto por el matemático Eugène Charles Catalan en 1884 y demostrado por primera vez por Preda Mihăilescu en abril de 2002.

Para entender esta conjetura, nótese que 2³ = 8 y 3² = 9 son dos números que son potencias consecutivas de números naturales. La conjetura de Catalan dice que éste es el único caso de dos potencias consecutivas.

Es decir, que la conjetura de Catalan afirma que la única solución en el conjunto de los números naturales de

xa − yb = 1

para x, a, y, b > 1 es x = 3, a = 2, y = 2, b = 3

En particular, nótese que no tiene importancia que los mismos números 2 y 3 estén repetidos en la ecuación 3² − 2³ = 1.

Grupo de Lie

En matemática, un grupo de Lie (nombrado así por Sophus Lie) es una variedad diferenciable real o compleja que es también un grupo tal que las operaciones de grupo: multiplicación e inversión son funciones analíticas.
Los grupos de Lie son importantes en análisis matemático, física y geometría porque sirven para describir la simetría de estructuras analíticas. Fueron introducidos por Sophus Lie en 1870 para estudiar simetrías de ecuaciones diferenciales.

Mientras que el espacio euclídeo Rn es un grupo de Lie real (con la adición ordinaria de vectores como operación de grupo), ejemplos más típicos son grupos de matrices inversibles (multiplicación de matrices), por ejemplo el grupo SO(3) de todas las rotaciones en el espacio de 3 dimensiones.

Número feliz

La verdad que no tenía idea de que existían los números felices. Se definen por el siguiente procedimiento. Empezando con cualquier número entero positivo, se reemplaza el número por la suma de los cuadrados de sus dígitos, y se repite el proceso hasta que el número es igual a 1 o hasta que se entra en un bucle infinito que no incluye el 1. Los números que al finalizar el proceso terminan con 1, son conocidos como números felices, pero aquellos que no terminan con un 1 son conocidos como números infelices (tampoco sabía de la existencia de estos).
Definición
Más formalmente, dado un número n = n0, se define una secuencia n1, n2, ... donde ni + 1 es la suma de los cuadrados de los dígitos de ni. Entonces n es feliz si y sólo si existe i de tal modo que ni = 1.

A continuación se muestran algunos ejemplos. 7 es un número feliz:

72 = 49
42 + 92 = 97
92 + 72 = 130
12 + 32 + 02 = 10
12 + 02 = 1

Si n no es feliz la secuencia no terminará en 1, sino que entrará en un bucle infinito:
4, 16, 37, 58, 89, 145, 42, 20, 4, ...

Los números felices entre 1 y 500 son:

1, 7, 10, 13, 19, 23, 28, 31, 32, 44, 49, 68, 70, 79, 82, 86, 91, 94, 97, 100, 103, 109, 129, 130, 133, 139, 167, 176, 188, 190, 192, 193, 203, 208, 219, 226, 230, 236, 239, 262, 263, 280, 291, 293, 301, 302, 310, 313, 319, 320, 326, 329, 331, 338, 356, 362, 365, 367, 368, 376, 379, 383, 386, 391, 392, 397, 404, 409, 440, 446, 464, 469, 478, 487, 490 y 496.

martes, 9 de diciembre de 2008

Juego del Oso



El juego del oso es un juego de lápiz y papel de estrategia que se juega normalmente con una hoja de papel cuadriculado. Es un juego que requiere poca concentración y se juega mucho en los colegios, incluso durante las horas de clase.


Reglas

Por turnos, cada jugador puede escribir una O o una S en uno de los cuadrados. El objetivo es formar la palabra OSO: el jugador que forma más veces la palabra OSO gana.
Cuando un jugador consigue poner la palabra OSO repite turno colocando otra letra. Al principio se van distribuyendo alternativamente las letras y es difícil caer en un error y que el otro se apunte un tanto, pero a medida que se van rellenando los cuadraditos y queda menos espacio se van reduciendo las opciones de evitar la formación de palabras. Y a menudo se termina con una avalancha de OSOs consecutivos.

El jugador que comienza tiene una ligera desventaja respecto al segundo, por lo que suele sortearse esta posición al inicio. Y si se echan varias partidas consecutivas se alterna.
El juego termina cuando se han rellenado todos los cuadraditos de la cuadrícula. El tamaño de esta cuadrícula es variable dependiendo del tiempo que se quiere que dure el juego, y puede ser tanto cuadrada como rectangular.
Existen dos formas de jugar, puntuando sólo los OSO escritos en horizontal y vertical en la cuadrícula o puntuando también los OSO escritos en diagonal, esta opción es un poco más difícil y requiere un poco más de atención para no cometer errores. Ambos jugadores acuerdan la forma de juego antes de comenzar la partida.
Estrategias de juego
Hay varias estrategias para ganar:
Poner las letras lo más separadamente posible sobre el recuadro de juego, sobre todo al principio, para que el oponente no forme palabras.
Poniendo muchas eses o muchas oes juntas se corre menos peligro de cometer errores y se pueden bloquear areas.
Colocando varias eses en linea se forma una cadena de palabras consecutivas si el rival comete un error.
Poniendo letras con una separación de 2 cuadritos tanto en linea como en L de las demás letras no se corre peligro, pero progresivamente el tablero se va convirtiendo en un campo minado.
Estructura matemática
A pesar de su aparente sencillez el juego del oso es un juego abstracto de estrategia que tiene una estructura matemática. Según la teoría de juegos puede clasificarse como un juego simétrico, secuencial, de suma cero y de información perfecta.
Actualmente existen versiones del juego para ordenador y videojuegos, ya que su estructura matemática lo hace fácilmente programable.

Conjetura de los números primos gemelos

Dos números primos se denominan gemelos si uno de ellos es igual al otro más dos unidades. Así pues, los números primos 3 y 5 forman una pareja de primos gemelos. Otros ejemplos de pares de primos gemelos son 11 y 13 ó 29 y 31.

Conforme se van considerando primos más grandes la frecuencia de aparición de pares de primos gemelos va disminuyendo, pero aun así se ha visto computacionalmente que siguen surgiendo pares de primos gemelos aun entre números de tamaños enormes.
La conjetura de los primos gemelos postula la existencia de infinitos pares de primos gemelos. Dado que es una conjetura, está todavía sin demostrar.
Existe un número infinito de primos p tales que p + 2 también es primo.
La conjetura ha sido investigada por muchos teóricos de números. La mayoría de matemáticos cree que la conjetura es cierta, y se basan en evidencias numéricas y razonamientos heurísticos sobre la distribución probabilística de los números primos.
En 1849, Alphonse de Polignac formuló una conjetura más general según la cual, para todo número natural k existen infinitos pares de primos cuya diferencia es 2·k. El caso k=1 es la conjetura de los números primos gemelos.
Resultados parciales
En 1940, Erdös mostró que existe una constante c <>0.
En 1973, Jing-run Chen publicó una prueba que existen infinitos números primos p tales que p+2 es un producto de, a lo más, dos factores primos. Para conseguir este resultado se basó en la llamada teoría de cribas, y consiguió tratar la conjetura de los primos gemelos y la conjetura de Goldbach de forma similar.

martes, 25 de noviembre de 2008

Al-Khorezmi: Un matemático olvidado


Cuando en una resta nada queda, entonces escribe un pequeño círculo para que ese lugar no permanezca vacío (Al-Khorezmi explicando el cero, Siglo IX).

Muchos se preguntarán quién es Al-Khorezmi. Posiblemente adivinen su origen árabe, pero Al-Khorezmi debiera ser tan conocido como Pitágoras o Euclides. Gracias a él, la matemática moderna usa el sistema numérico actual, proveniente de la India. Mas aún, las palabras guarismo (cifra, número) y algoritmo provienen de su nombre, que en árabe significa, "el de Khorezm" por su lugar de origen. Un algoritmo, según el diccionario de la Real Academia, es una secuencia o conjunto ordenado de operaciones o pasos que permite hallar la solución de un problema (otra acepción es un método y notación en las distintas formas del cálculo). Aunque los algoritmos datan de tiempos babilónicos y los griegos diseñaron algoritmos aún famosos (por ejemplo, el de Euclides para calcular el máximo común divisor de dos números), fue Al-Khorezmi el primero que diseñó algoritmos pensando en su eficiencia, en particular, para el cálculo de raíces de ecuaciones. La algoritmia es uno de los pilares fundamentales de la ciencia de la computación, ni siquiera soñada mil años atrás.

Hay muchas variantes para el nombre de Al-Khorezmi al usar el alfabeto latino, tales como al-Khwarizmi, Al-Khawarizmi, Al-Khawaritzmi o al-Khowarizmi. Hemos elegido usar la más simple, lo que no significa que es necesariamente la mejor.

Su vida

Muhammad ibn Musa abu Djafar Al-Khorezmi nació alrededor del 780 DC (otros citan 800 DC) en Khorezm, al sur del Mar de Aral (hoy Khiva, Uzbekistán), que había sido conquistado 70 años antes por los árabes. Su nombre ya dice mucho, pues significa "Mohamed, hijo de Moisés, padre de Jafar, el de Khorezm". Su fama debió ser muy grande para que todo el mundo lo conociera por su lugar de origen. Hacia el 820, Al-Khorezmi fue llamado a Bagdad por el califa abasida Al-Mamun, segundo hijo de Harun ar-Rashid, por todos conocido gracias a las "Mil y unas Noches". Al-Mamun continuó el enriquecimiento de la ciencia árabe y de la Academia de Ciencias creada por su padre, llamada la Casa de la Sabiduría, lo que traería importantes consecuencias en el desarrollo de la ciencia en Europa, principalmente a través de España. Poco se sabe de su vida, pero realizó viajes a Afganistán, el sur de Rusia y Bizancio (hoy Turquía). Falleció en Bagdad hacia el 850 DC (también se menciona 840 DC).

Su Obra

La mayoría de sus diez obras son conocidas en forma indirecta o por traducciones hechas más tarde al latín (muchas de ellas en Toledo) y de algunas sólo se conoce el título. Al-Khorezmi fue un recopilador de conocimiento de los griegos y de la India, principalmente matemáticas, pero también astronomía (incluyendo el calendario Judío), astrología, geografía e historia. Su trabajo más conocido y usado fueron sus Tablas Astronómicas, basadas en la astronomía india. Incluyen algoritmos para calcular fechas y las primeras tablas conocidas de las funciones trigonométricas seno y cotangente. Lo más increíble es que no usó los números negativos (que aún no se conocían), ni el sistema decimal ni fracciones, aunque sí el concepto del cero. Su Aritmética, traducida al latín como "Algoritmi de numero Indorum" introduce el sistema numérico indio (sólo conocido por los árabes unos 50 años antes) y los algoritmos para calcular con él. Finalmente tenemos el Algebra, una introducción compacta al cálculo, usando reglas para completar y reducir ecuaciones. Además de sistematizar la resolución de ecuaciones cuadráticas, también trata geometría, cálculos comerciales y de herencias. Quizás éste es el libro árabe más antiguo conocido y parte de su título "Kitab al-jabr wa'l-muqabala" da origen a la palabra álgebra. Aunque los historiadores no se han puesto de acuerdo en la mejor traducción del título, éste significa "El libro de restaurar e igualar" o "El arte de resolver ecuaciones".

Su impacto

El trabajo de Al-Khorezmi permitió preservar y difundir el conocimiento de los griegos (con la notable excepción del trabajo de Diofanto) e indios, pilares de nuestra civilización. Rescató de los griegos la rigurosidad y de los indios la simplicidad (en vez de una larga demostración, usar un diagrama junto a la palabra "Mira"). Sus libros son intuitivos y prácticos y su principal contribución fue simplificar las matemáticas a un nivel entendible por no expertos. En particular muestran las ventajas de usar el sistema decimal indio, un atrevimiento para su época, dado lo tradicional de la cultura árabe. La exposición clara de cómo calcular de una manera sistemática a través de algoritmos diseñados para ser usados con algún tipo de dispositivo mecánico similar a un ábaco, más que con lápiz y papel, muestra la intuición y el poder de abstracción de Al-Khorezmi. Hasta se preocupaba de reducir el número de operaciones necesarias en cada cálculo. Por esta razón, aunque no haya sido él el inventor del primer algoritmo, merece que este concepto esté asociado a su nombre. Al-Khorezmi fue sin duda el primer pensador algorítmico.

Fuente

domingo, 23 de noviembre de 2008

Emmy Noether


Emmy Noether (23/03/1882 - 14/04/1935)

«A juicio de los matemáticos más competentes de la actualidad, la señorita Noether fue el genio matemático más importante y creativo producido hasta el momento, desde que comenzó la educación superior de las mujeres», según palabras de Albert Einstein.


Considerada como la creadora del álgebra moderna, fue una matemática alemana de origen judío. l Senado de la Universidad de Erlangen había declarado en 1898 que la admisión de mujeres estudiantes "destrozaría todo orden académico" , sin embargo se les autorizaba a asistir a clase con un permiso especial, que no les daba derecho a examinarse. Fue la única alumna entre 984 estudiantes. Después de pasar los exámenes en Nuremberg en 1903, fue a Göttingen donde asistió a cursos impartidos por Hilbert, Klein y Minkowski y en 1904 regresó a Erlangen donde habían cambiado los estatutos de la Universidad y pudo proseguir sus estudios de doctorado. En 1907 obtuvo el grado de doctora “cum laude” con la memoria titulada: “Sobre los sistemas completos de invariantes para las formas bicuadráticas ternarias”, que fue publicada en 1908.

En 1915 fue invitada por David Hilbert (1862-1943) y Félix Klein (1849-1925) a trabajar con ellos en la universidad de Göttingen, que en aquella época era el principal centro matemático de Alemania y probablemente de Europa. Este periodo de la vida de Emmy (1915-1933) estuvo marcado por una intensa producción científica que determinó su aportación a las matemáticas y a la física.

En esta época también colaboró en la edición de la revista Mathematische Annalen. Sin embargo, el reglamento vigente de la Universidad de Göttingen indicaba explícitamente que los candidatos debían ser hombres por lo que Noether no pudo presentarse a oposiciones como docente universitario. Hilbert quiso corregir esa injusticia, pero sus esfuerzos no tuvieron éxito, pues ciertos miembros de la facultad, no matemáticos, se opusieron. Se cuenta, como anécdota, que Hilbert dijo en un Consejo de la Universidad de Göttingen, "no veo por qué el sexo de la candidata es un argumento contra su nombramiento como docente. Después de todo no somos un establecimiento de baños".

Hilbert y Noether encontraron una triquiñuela para que ella pudiera impartir como docente: las clases se anunciaban bajo el nombre de Hilbert y ella figuraba como ayudante. Así pudo probar su competencia y ser mejor conocida. Finalizada la Primera Guerra Mundial, Alemania pasó a ser una república. Por primera vez las mujeres tuvieron derecho a voto y fue derogado el anterior reglamento de oposiciones. En 1922 fue nombrada “profesor extraordinario y no oficial”. No tenía derecho a sueldo, pero pudo obtener pequeñas retribuciones, por su grado de experta en álgebra, que en ese momento le eran imprescindibles, ya que la inflación de la posguerra estaba acabando con su pequeña herencia.

Emmy consiguió demostrar dos teoremas esenciales para la teoría de la relatividad que permitieron resolver el problema de la conservación de la energía. Su aportación más importante a la investigación matemática fueron sus resultados sobre la axiomatización y el desarrollo de la teoría algebraica de anillos, módulos, ideales, grupos con operadores, etc. En este contexto, que se llamó álgebra moderna, aplicó sus conocimientos sobre invariantes dando rigor y generalidad a la geometría algebraica. El calificativo noetheriano se utiliza para designar muchos conceptos en álgebra. Los anillos noetherianos recibieron este nombre en su honor, ya que fue ella la que introdujo la condición de cadena ascendente , pero también se habla de grupos noetherianos, módulos noetherianos, espacios topológicos noetherianos, etc.

Sus investigaciones crearon un cuerpo de principios que unificaron el álgebra, la geometría, la topología y la lógica. En su época su genialidad fue ampliamente reconocida por la comunidad matemática, siendo alabado su talento por ilustres científicos como Hilbert, H. Weyl, Einstein, Alexandroff, Van der Waerden, Jacobson... Sin duda Emmy Noether figurará siempre como una de las personalidades matemáticas más importantes del siglo XX. Actualmente, muchas personas por todo el mundo continúan su trabajo en álgebra. No obstante, durante los casi treinta años que estuvo dedicada a la enseñanza y a la investigación nunca consiguió un salario digno para su trabajo por el mero hecho de ser mujer.

Cúmulo Bala



El Cúmulo Bala consiste de dos cúmulos de galaxias en colisión.
Estrictamente hablando, el nombre de «Cúmulo Bala» se refiere a un pequeño subcúmulo que se aleja de un cúmulo mayor.



Propiedades

El Cúmulo Bala es uno de los cúmulos de galaxias más calientes que se conocen. Visto desde la Tierra, una de las componentes pasó a través del centro del cúmulo hace unos 150 millones de años, con lo que se creó una onda de choque en forma de arco localizada sobre el lado derecho del cúmulo. Esta onda de choque se formó al pasar gas a 70 millones de grados centígrados contenidos en el subcúmulo a través de gas a una temperatura de unos 100 millones de grados en el centro del cúmulo a una velocidad de unos 10 millones de kilómetros por hora.

El cúmulo bala como evidencia a favor de la materia oscura

Las principales componentes del cúmulo, estrellas, gas y la materia oscura se comportan de forma diferente durante una colisión, de tal forma que es posible estudiar cada una de ellas de manera separada. Las estrellas en las galaxias, observadas en luz visible, no se alteran cuando ocurre una colisión, aunque su movimiento sí se modifica, siendo desacelerado gravitacionalmente. El gas caliente de las dos componentes que chocan y que es observado en rayos X representa la mayor parte de la masa de la materia ordinaria, conocida como materia bariónica. La tercera componente, la materia oscura, se detectó indirectamente por medio del fenómeno conocido como lente gravitacional que afecta a los objetos en el fondo. En teorías que no toman en cuenta la materia oscura, como la Dinámica newtoniana modificada, se esperaría que la lente gravitacional ocurriera gracias a la materia bariónica como el gas emisor de rayos X. Sin embargo, este fenómeno es más acentuado en dos regiones separadas cerca de las galaxias visibles. Este hecho fortalece la idea de que la mayor parte de la masa en el sistema consite de materia oscura no afectada por colisiones.

Los resultados más concluyentes fueron inferidos a partir de las observaciones del satélite Chandra en este cúmulo, publicados por Markevitch et al. y Clowe et al., ambos en 2004. Estos autores reportan que el cúmulo experimenta una alta velocidad de fusión, la cual resulta evidente de la distribución espacial del gas caliente emisor de rayos X. El gas se encuentra detrás de los subcúmulos, mientras que el conjunto de materia oscura se encuentra delante del gas.

Plasma (Estado de la materia)

En física y química, se dice plasma a un gas constituído por partículas cargadas (iones) libres y cuya dinámica presenta efectos colectivos dominados por las interacciones electromagnéticas de largo alcance entre las mismas. Con frecuencia se habla del plasma como un estado de agregación de la materia con características propias, diferenciándolo de este modo del estado gaseoso, en el que no existen efectos colectivos importantes.

Parámetros de un Plasma

Puesto que existen plasmas en contextos muy diferentes y con características muy diversas, la primera tarea de la física del plasma es definir apropiadamente los parámetros que deciden el comportamiento de un plasma. El conocimiento de estos parámetros permite al investigador escoger la descripción más apropiada para su sistema. Los principales parámetros son los siguientes:

Neutralidad y especies presentes

Generalmente un plasma está formado por igual número de cargas positivas y negativas, lo que anula la carga total del sistema. En tal caso se habla de un plasma neutro o casi-neutro. También existen plasmas no neutros o inestables, como el flujo de electrones dentro de un acelerador de partículas, pero requieren algún tipo de confinamiento externo para vencer las fuerzas de repulsión electrostática.

Los plasmas más comunes son los formados por electrones e iones. En general puede haber varias especies de iones dentro del plasma, como moléculas ionizadas positivas (cationes) y otras que han capturado un electrón y portan una carga negativa (aniones).

La frecuencia de plasma

Así como la longitud de Debye proporciona una medida de las longitudes típicas en un plasma, la frecuencia de este, de plasma (ωp) describe sus tiempos característicos. Supóngase que en un plasma en equilibrio y sin densidades de carga se introduce un pequeño desplazamiento de todos los electrones en una dirección. Éstos sentirán la atracción de los iones en la dirección opuesta, se moverán hacia ella y comenzarán a oscilar en torno a la posición original de equilibrio. La frecuencia de tal oscilación es lo que se denomina frecuencia de plasma. La frecuencia de plasma de los electrones es:

\omega_{pe} = (4\pi n_ee^2/m_e)^{1/2} \,

donde me es la masa del electrón y e su carga.

Temperatura: Velocidad térmica

Por lo general las partículas de una determinada especie localizadas en un punto dado no tienen igual velocidad: presentan por el contrario una distribución que en el equilibrio térmico es descrita por la distribución de Maxwell-Boltzmann. A mayor temperatura, mayor será la dispersión de velocidades (más ancha será la curva que la representa).

Una medida de tal dispersión es la velocidad cuadrática media que, en el equilibrio, se denomina también velocidad térmica. Es frecuente, aunque formalmente incorrecto, hablar también de velocidad térmica y de temperatura en plasmas lejos del equilibrio termodinámico. En tal caso, se menciona la temperatura que correspondería a una velocidad cuadrática media determinada. La velocidad térmica de los electrones es:

v_{Te} = (kT_e/m_e)^{1/2} \,

El parámetro de plasma

El parámetro de plasma (Γ) indica el número medio de partículas contenidas en una esfera cuyo radio es la longitud de Debye (esfera de Debye). La definición de plasma, según la cual la interacción electromagnética de una partícula con la multitud de partículas distantes domina sobre la interacción con los pocos vecinos próximos, puede escribirse en términos del parámetro de plasma como \Gamma \gg 1. Esto es: hay un gran número de partículas contenidas en una esfera de Debye. Es común referirse a esta desigualdad como "condición de plasma".

Algunos autores adoptan una definición inversa del parámetro de plasma (g = 1 / Γ), con lo que la condición de plasma resulta ser g \ll 1.

El parámetro de plasma de los electrones es

\Gamma = (4\pi/3)n_e\lambda_D^3 \,

Modelos teóricos

Tras conocer los valores de los parámetros descritos en la sección anterior, el estudioso de los plasmas deberá escoger el modelo más apropiado para el fenómeno que le ocupe. Las diferencias entre diferentes modelos residen en el detalle con el que describen un sistema, de modo que se puede establecer así jerarquía en la que descripciones de nivel superior se deducen de las inferiores tras asumir que algunas de las variables se comportan de forma prescrita. Estas asunciones o aproximaciones razonables no son estrictamente ciertas pero permiten entender fenómenos que serían difíciles de tratar en modelos más detallados.

Por supuesto, no todas las especies han de ser descritas de una misma forma: por ejemplo, debido a que los iones son mucho más pesados que los electrones, es frecuente analizar la dinámica de los últimos tomando a los iones como inmóviles o estudiar los movimientos de los iones suponiendo que los electrones reaccionan mucho más rápido y por tanto están siempre en equilibrio termodinámico.

Puesto que las fuerzas electromagnéticas de largo alcance son dominantes, todo modelo de plasma estará acoplado a las ecuaciones de Maxwell, que determinan los campos electromagnéticos a partir de las cargas y corrientes en el sistema.

Los modelos fundamentales más usados en la física del plasma, listados en orden decreciente de detalle, es decir de microscópicos a macroscópicos, son los modelos discretos, los modelos cinéticos continuos y los modelos de fluidos o hidrodinámicos.

Modelos discretos

El máximo detalle en el modelado de un plasma consiste en describir la dinámica de cada una de sus partículas según la segunda ley de Newton. Para hacer esto con total exactitud en un sistema de N partículas habría que calcular del orden de N2 interacciones. En la gran mayoría de los casos, esto excede la capacidad de cálculo de los mejores ordenadores actuales.

Sin embargo, gracias al carácter colectivo de los plasmas, reflejado en la condición de plasma, es posible una simplificación que hace mucho más manejable el cálculo. Esta simplificación es la que adoptan los llamados modelos numéricos Particle-In-Cell (PIC; Partícula-En-Celda): el espacio del sistema se divide en un número no muy grande de pequeñas celdas. En cada instante de la evolución se cuenta el número de partículas y la velocidad media en cada celda, con lo que se obtienen densidades de carga y de corriente que, insertadas en las ecuaciones de Maxwell permiten calcular los campos electromagnéticos. Tras ello, se calcula la fuerza ejercida por estos campos sobre cada partícula y se actualiza su posición, repitiendo este proceso tantas veces como sea oportuno.

Los modelos PIC gozan de gran popularidad en el estudio de plasmas a altas temperaturas, en los que la velocidad térmica es comparable al resto de velocidades características del sistema.

Modelos cinéticos contínuos

Cuando la densidad de partículas del plasma es suficientemente grande es conveniente reducir la distribución de las mismas a una función de distribución promediada. Ésta representa la densidad de partículas contenida en una región infinitesimal del espacio de fases, es decir el espacio cuyas coordenadas son posiciones y cantidades de movimiento. La ecuación que gobierna la evolución temporal de las funciones de distribución es la ecuación de Boltzmann. En el caso particular en el que las colisiones son despreciables la ecuación de Boltzmann se reduce a la ecuación de Vlasov.

Los modelos físicos cinéticos suelen emplearse cuando la densidad numérica de partículas es tan grande que un modelado discreto resulta inabordable. Por otra parte, los modelos cinéticos constituyen la base de los estudios analíticos sobre plasmas calientes.

Modelos de fluidos o hidrodinámicos

Para plasmas a bajas temperaturas, en los que estudiamos procesos cuyas velocidades características son mucho mayores que la velocidad térmica del plasma, podemos simplificar el modelo y asumir que todas las partículas de una especie en un punto dado tienen igual velocidad o que están suficientemente cerca del equilibrio como para suponer que sus velocidades siguen la distribución de Maxwell-Boltzmann con una velocidad media dependiente de la posición. Entonces se puede derivar unas ecuaciones de fluidos para cada especie que, en su forma más general, son llamadas ecuaciones de Navier-Stokes. Lamentablemente en muchos casos estas ecuaciones son excesivamente complejas e inmanejables; hay que recurrir entonces a simplificaciones adicionales.

Ejemplos de plasmas

Los plasmas forman el estado de agregación, más abundante de la naturaleza. De hecho, la mayor parte de la materia en el Universo visible se encuentra en estado de plasma. Algunos ejemplos de plasmas son:

  • Producidos artificialmente:
    • En el interior de los tubos fluorescentes (iluminación de bajo consumo).
    • En las pantallas planas.
    • Materia expulsada para la propulsión de cohetes.
    • La región que rodea al escudo térmico de una nave espacial durante su entrada en la atmósfera.
    • El interior de los reactores de fusión.
    • Las descargas eléctricas de uso industrial.
    • Las bolas de plasma.
  • Plasmas terrestres:
    • Los rayos durante una tormenta.
    • La ionosfera.
    • La aurora boreal.
  • Plasmas espaciales y astrofísicos:
    • Las estrellas (por ejemplo, el Sol).
    • Los vientos solares.
    • El medio interplanetario (la materia entre los planetas del Sistema Solar), el medio interestelar (la materia entre las estrellas) y el medio intergaláctico (la materia entre las galaxias).
    • Los discos de acrecimiento.
    • Las nebulosas intergalácticas.
    • Ambiplasma

martes, 18 de noviembre de 2008

Búmerangs


Interesado en el "efecto" de retorno de un búmerang, encontré lo siguiente que me pareció muy interesante, se los comparto:

Muchas son las versiones que se han difundido, desde las que dicen que se usó como artefacto de caza, hasta las que dicen que se utilizó como juego o elemento deportivo, tal como se lo usa actualmente. La cuestión es que, como casi todo descubrimiento, el encuentro con el búmerang se debe haber producido por casualidad.

Los hombres siempre han arrojado proyectiles con la mano (piedras, palos), y entre tantos lanzamientos, más de una vez habrán lanzado algún objeto plano, un hueso, una laja, alguna astilla de madera. Como resultado del tiro, ese objeto habrá planeado y volado más allá de lo que lo hubiera hecho de no haber sido plano.

El azar o la casualidad también hicieron lo suyo con el retorno. Alguno de esos artefactos arrojadizos, que seguramente ya eran producidos por la mano humana, con una forma particular y lanzado en un ángulo determinado habrá volado de manera diferente arribando a un punto más o menos cercano al lugar del lanzamiento. Lo brillante de esas mentes fue relacionar ese vuelo con lo plano (planeo) del objeto y el tipo de lanzamiento más la forma particular del búmerang, con el retorno.

Entonces, primero se habrían desarrollado los palos matadores. Estos planeaban, pudiendo abatir a una presa o a un enemigo de guerra, a distancias de hasta 150 metros. El búmerang propiamente dicho se habría utilizado para cazar presas chicas (pájaros en bandada), para bajar frutos de árboles y en alguna forma de entretenimiento. Se desarrolló en Australia (origen más conocido) y en Egipto donde se lo relaciona con la figura sagrada del gato.

Con retorno y sin retorno
El búmerang con retorno, en su corta historia de algo más de doscientos años, fue inventado y desarrollado por los pueblos indígenas australianos y usado como auxiliar de caza, en el adiestramiento de los lanzadores y como objeto de recreación.

Lo precedieron en el tiempo otros tipos de búmerangs que no volvían. Se utilizaba su planeo para llegar lejos, a distancias de tal vez 150 metros. Existen dataciones de esta clase de proyectiles que lo remontan a unos 10.000 años antes del presente.

Los búmerangs sin retorno o palos voladores, fueron utilizados como artefacto de caza por culturas de Sudamérica y Norteamérica, de Egipto y otros pueblos africanos y también por algunos pueblos de la India. Actualmente el lanzamiento del búmerang se encuentra difundido como deporte en Australia, Japón, Europa, Estados Unidos y Canadá.


lunes, 17 de noviembre de 2008

Brahmagupta

Hace varios días que estoy pensando en el número cero (0), como apareció, o quien lo inventó. Existen algunas hipótesis de que fué Brahmagupta. Aquí una reseña.
Brahmagupta (598 - 670) fue un matemático y astrónomo indio. Su padre fue Jisnugupta. Nació en el año 598, posiblemente en Ujjain, donde vivió. En esta ciudad de la zona central de la India se encontraba el más famoso y antiguo observatorio de astronomía del que Brahmagupta era el director.
Está considerado el más grande de los matemáticos de esta época. Murió en el año 670. Es posible que Brahmagupta haya sido el idealizador del concepto del "cero" ya que en su obra Brahmasphutasiddhanta del año 628 aparece por primera vez esta idea. La obra trataba también sobre aritmética y números negativos en términos muy parecidos a los de la moderna matemática.

domingo, 16 de noviembre de 2008

Explosión sónica

Se denomina explosión sónica, boom sónico o estampido sónico al componente audible de la onda de choque provocada por un avión cuando sobrepasa la velocidad Mach 1. Se observa con frecuencia en aviones militares, aunque también lo pueden provocar aviones civiles, como el ya retirado de servicio Concorde, capaz de alcanzar Mach 2,03, o la Lanzadera espacial, que llega a Mach 27.

El fenómeno se relaciona con el efecto Doppler, el cual describe los cambios en la frecuencia percibida por un observador cuando éste o la fuente emisora de sonido se encuentra en movimiento. Al leer y comprender este efecto en las ondas sonoras, surge la pregunta sobre qué pasará con la frecuencia percibida cuando la velocidad de la fuente se acerque, viaje y sobrepase la velocidad del sonido.

Causas del fenómeno

La explosión sónica sucede porque, al ser la velocidad de la fuente próxima a Mach 1, los frentes de onda que genera comienzan a solaparse el uno contra el otro. Si la velocidad de la fuente supera la velocidad del sonido se producirá una "conificación" de las ondas detrás de ella. En el caso del avión caza, el piloto no puede oír esa explosión ni el ruido del motor viajando por el aire, ya que este es dejado atrás por el avión. La siguiente imagen ilustra las 3 situaciones.

Los estampidos sónicos disipan enormes cantidades de energía, lo que produce un ruido muy semejante al de una explosión. Típicamente el frente de choque puede alcanzar los 167 megavatios por metro cuadrado (MW/m²), y pueden incluso exceder los 200 decibelios.