Preguntas sobre ciencia y sus respuestas - Parte 1
¿Qué es el método científico?
Evidentemente, el método científico es el método que utilizan los científicos para hacer descubrimientos científicos. Pero esta definición no parece muy útil. ¿Podemos dar más detalles?
Pues bien, cabría dar la siguiente versión ideal de dicho método:
Detectar la existencia de un problema, como puede ser, por ejemplo, la cuestión de por qué los objetos se mueven como lo hacen, acelerando en ciertas condiciones y decelerando en otras.
Separar luego y desechar los aspectos no esenciales del problema. El olor de un objeto, por ejemplo, no juega ningún papel en su movimiento.
Reunir todos los datos posibles que incidan en el problema. En los tiempos antiguos y medievales equivalía simplemente a la observación sagaz de la naturaleza, tal como existía. A principios de los tiempos modernos empezó a entreverse la posibilidad de ayudar a la naturaleza en ese sentido.
Cabía planear deliberadamente una situación en la cual los objetos se comportaran de una manera determinada y suministraran datos relevantes para el problema. Uno podía, por ejemplo, hacer rodar una serie de esferas a lo largo de un plano inclinado, variando el tamaño de las esferas, la naturaleza de su superficie, la inclinación del plano, etc. Tales situaciones deliberadamente planeadas son experimentos, y el papel del experimento es tan capital para la ciencia moderna, que a veces se habla de "ciencia experimental" para distinguirla de la ciencia de los antiguos griegos.
Reunidos todos los datos elabórese una generalización provisional que los describa a todos ellos de la manera más simple posible: un enunciado breve o una relación matemática. Esto es una hipótesis.
Con la hipótesis en la mano se pueden predecir los resultados de experimentos que no se nos habían ocurrido hasta entonces. Intentar hacerlos y mirar si la hipótesis es válida.
Si los experimentos funcionan tal como se esperaba, la hipótesis sale reforzada y puede adquirir el status de una teoría o incluso de un "ley natural".
Está claro que ninguna teoría ni ley natural tiene carácter definitivo. El proceso se repite una y otra vez. Continuamente se hacen y obtienen nuevos datos, nuevas observaciones, nuevos experimentos. Las viejas leyes naturales se ven constantemente superadas por otras más generales que explican todo cuanto explicaban las antiguas y un poco más.
Todo esto, como digo, es una versión ideal del método científico. En la práctica no es necesario que el científico pase por los distintos puntos como si fuese una serie de ejercicios caligráficos, y normalmente no lo hace.
Más que nada son factores como la intuición, la sagacidad y la suerte, a secas, los que juegan un papel. La historia de la ciencia está llena de casos en los que un científico da de pronto con una idea brillante basada en datos insuficientes y en poca o ninguna experimentación, llegando así a una verdad útil cuyo descubrimiento quizá hubiese requerido años mediante la aplicación directa y estricta del método científico.
F. A. Kekulé dio con la estructura del benceno mientras descabezaba un sueño en el autobús. Otto Loewi despertó en medio de la noche con la solución del problema de la conducción sináptica. Donald Glaser concibió la idea de la cámara de burbujas mientras miraba ociosamente su vaso de cerveza.
¿Quiere decir esto que, a fin de cuentas, todo es cuestión de suerte y no de cabeza? No, no y mil veces no. Esta clase de "suerte" sólo se da en los mejores cerebros; sólo en aquellos cuya "intuición" es la recompensa de una larga experiencia, una comprensión profunda y un pensamiento disciplinado.
¿Por qué dos o más científicos, ignorantes del trabajo de los otros, dan a menudo simultáneamente con la misma teoría?
La manera más simple de contestar a esto es decir que los científicos no trabajan en el vacío. Están inmersos, por así decirlo, en la estructura y progreso evolutivo de la ciencia, y todos ellos encaran los mismos problemas en cada momento.
Así, en la primera mitad del siglo XIX el problema de la evolución de las especies estaba "en el candelero". Algunos biólogos se oponían acaloradamente a la idea misma, mientras que otros especulaban ávidamente con sus consecuencias y trataban de encontrar pruebas que la apoyaran. Pero lo cierto es que, cada uno a su manera, casi todos los biólogos pensaban sobre la misma cuestión. La clave del problema era ésta: Si la evolución es un hecho, ¿qué es lo que la motiva?
En Gran Bretaña, Charles Darwin pensaba sobre ello. En las Indias Orientales, Alfred Wallace, inglés también, pensaba sobre el mismo problema. Ambos habían viajado por todo el mundo; ambos habían hecho observaciones similares; y sucedió que ambos, en un punto crucial de su pensamiento, leyeron un libro de Thomas Malthus que describía los efectos de la presión demográfica sobre los seres humanos. Tanto Darwin como Wallace empezaron a pensar sobre la presión demográfica en todas las especies. ¿Qué individuos sobrevivirían y cuáles no? Ambos llegaron a la teoría de la evolución por selección natural.
Lo cual no tiene en realidad nada de sorprendente. Dos hombres que trabajan sobre el mismo problema y con los mismos métodos, encarados con los mismos hechos a observar y disponiendo de los mismos libros de consulta, es muy probable que lleguen a las mismas soluciones. Lo que ya me sorprende más es que el segundo nombre de Darwin, Wallace y Malthus empezase en los tres casos por R.
A finales del siglo XIX eran muchos los biólogos que trataban de poner en claro la mecánica de la genética. Tres hombres, trabajando los tres en el mismo problema, al mismo tiempo y de la misma manera, pero en diferentes países, llegaron a las mismas conclusiones. Pero entonces los tres, repasando la literatura, descubrieron que otro, Gregor Mendel, había obtenido treinta y cuatro años antes las leyes de la herencia y habían pasado inadvertido.
Una de las aspiraciones más ambiciosas de los años 1880-1889 era la producción barata de aluminio. Se conocían los usos y la naturaleza del metal, pero resultaba difícil prepararlo a partir de sus minerales. Millones de dólares dependían literalmente de la obtención de una técnica sencilla. Es difícil precisar el número de químicos que se hallaban trabajando en el mismo problema, apoyándose en las mismas experiencias de otros científicos.
Dos de ellos: Charles Hall en los Estados Unidos y Paul Héroult en Francia, obtuvieron la misma respuesta en el mismo año de 1886. Nada más natural. Pero ¿y esto?: los apellidos de ambos empezaban por H, ambos nacieron en 1863 y ambos murieron en 1914.
Hoy día son muchos los que tratan de idear teorías que expliquen el comportamiento de las partículas subatómicas. Murray Gell-Man y Yuval Ne'emen, uno en América y otro en Israel, llegaron simultáneamente a teorías parecidas. El principio del máser se obtuvo simultáneamente en Estados Unidos y en la Unión Soviética. Y estoy casi seguro que el proceso clave para el aprovechamiento futuro de la potencia de la fusión nuclear será obtenido independiente y simultáneamente por dos o más personas.
Naturalmente, hay veces en que el rayo brilla una sola vez. Gregor Mendel no tuvo competidores, ni tampoco Newton ni Einstein. Sus grandes ideas sólo se les ocurrieron a ellos y el resto del mundo les siguió.
¿Qué dice el teorema de Gödel? ¿Demuestra que la verdad es inalcanzable?
Desde los tiempos de Euclides, hace ya dos mil doscientos años, los matemáticos han intentado partir de ciertos enunciados llamados "axiomas" y deducir luego de ellos toda clase de conclusiones útiles.
En ciertos aspectos es casi como un juego, con dos reglas. En primer lugar, los axiomas tienen que ser los menos posibles. En segundo lugar, los axiomas tienen que ser consistentes. Tiene que ser imposible deducir dos conclusiones que se contradigan mutuamente.
Cualquier libro de geometría de bachillerato comienza con un conjunto de axiomas:
por dos puntos cualesquiera sólo se puede trazar una recta
el total es la suma de las partes, etc.
Durante mucho tiempo se supuso que los axiomas de Euclides eran los únicos que podían constituir una geometría consistente y que por eso eran "verdaderos".
Pero en el siglo XIX se demostró que modificando de cierta manera los axiomas de Euclides se podían construir geometrías diferentes, "no euclidianas". Cada una de estas geometrías difería de las otras, pero todas ellas eran consistentes. A partir de entonces no tenía ya sentido preguntar cuál de ellas era "verdadera". En lugar, de ello había que preguntar cuál era útil.
De hecho, son muchos los conjuntos de axiomas a partir de los cuales se podría construir un sistema matemático consistente: todos ellos distintos y todos ellos consistentes.
En ninguno de esos sistemas matemáticos tendría que ser posible deducir, a partir de sus axiomas, que algo es a la vez así y no así, porque entonces las matemáticas no serían consistentes, habría que desecharlas. ¿Pero qué ocurre si establecemos un enunciado y comprobamos que no podemos demostrar que es o así o no así?
Supongamos que digo: "El enunciado que estoy haciendo es falso."
¿Es falso? Si es falso, entonces es falso que esté diciendo algo falso y tengo que estar diciendo algo verdadero. Pero si estoy diciendo algo verdadero, entonces es cierto que estoy diciendo algo falso y sería verdad que estoy diciendo algo falso. Podría estar yendo de un lado para otro indefinidamente. Es imposible demostrar que lo que he dicho es o así o no así.
Supongamos que ajustamos los axiomas de la lógica a fin de eliminar la posibilidad de hacer enunciados de ese tipo. ¿Podríamos encontrar otro modo de hacer enunciados del tipo "ni así ni no así"?
En 1931 el matemático austriaco Kurt Gödel presentó una demostración válida que para cualquier conjunto de axiomas siempre es posible hacer enunciados que, a partir de esos axiomas, no puede demostrarse ni que son así ni que no son así. En ese sentido, es imposible elaborar jamás un conjunto de axiomas a partir de los cuales se pueda deducir un sistema matemático completo.
¿Quiere decir esto que nunca podremos encontrar la "verdad"? ¡Ni hablar!
Primero: el que un sistema matemático no sea completo no quiere decir que lo que contiene sea "falso". El sistema puede seguir siendo muy útil, siempre que no intentemos utilizarlo más allá de sus límites.
Segundo: el teorema de Gödel sólo se aplica a sistemas deductivos del tipo que se utiliza en matemáticas. Pero la deducción no es el único modo de descubrir la "verdad". No hay axiomas que nos permitan deducir las dimensiones del sistema solar. Estas últimas fueron obtenidas mediante observaciones y medidas, otro camino hacia la "verdad"
¿Qué diferencia hay entre los números ordinarios y los números binarios y cuáles son las ventajas de cada uno?
Los números ordinarios que utilizamos normalmente están escritos "en base 10". Es decir, están escritos como potencias de diez. Lo que escribimos como 7.291 es en realidad
7 x 103 + 2 x 102 + 9 x 101 + 1 x 100
Recuérdese que 103 = 10 x 10 x 10 = 1.000; que 102 =10 x 10 = 100; que 101 = 10, y que 100 = 1.
Por tanto, 7.291 es 7 x 1.000 más 2 x 100 más 9 x 10 más 1, que es lo que decimos cuando leemos el número en voz alta: "siete mil doscientos noventa (nueve decenas) y uno".
Estamos ya tan familiarizados con el uso de las potencias de diez que sólo escribimos las cifras por las que van multiplicadas (7.291 en este caso) e ignoramos el resto.
Pero las potencias de diez no tienen nada de especial. Igual servirían las potencias de cualquier otro número mayor que uno. Supongamos, por ejemplo, que queremos escribir el número 7.291 en potencias de ocho.
Recordemos que
80 = 1;
81 = 8;
82 = 8 x 8 = 64
83 = 8 x 8 x 8 = 512
84 = 8 x 8 x 8 x 8 = 4.096
El número 7.291 se podría escribir entonces como:
1 x 8 4 + 6 x 8 3 + 1 x 8 2 + 7 x 8 1 + 3 x 8 0
(El lector lo puede comprobar haciendo los cálculos pertinentes.) Si escribimos sólo las cifras tenemos 16.173. Podemos decir entonces que
16.173 (en base 8) = 7.291 (en base 10).
La ventaja del sistema en base 8 es que sólo hay que recordar siete dígitos aparte del 0. Si intentásemos utilizar el dígito 8, llegaríamos a obtener alguna vez 8 x 83, que es igual a 1 x 84, con lo cual siempre podemos utilizar un 1 en lugar de un 8. Así, 8 (en base 10) = 10 (en base 8); 89 (en base 10) = 131 (en base 8); etc. Por otro lado, los números tienen más dígitos en el sistema de base 8 que en el de base 10.
Cuanto más pequeña es la base, tantos menos dígitos diferentes se manejan, pero tantos más entran en la composición de los números.
Si utilizamos el sistema de base 20, el número 7.291 se convierte en
18 x 20 2 + 4 x 20 1 + 11 x 20 0
Si escribimos el 18 como # y el 11 como %, podemos decir que # 4 % (en base 20) = 7.291 (en base 10). En un sistema de base 20 tendríamos que tener 19 dígitos diferentes, pero a cambio tendríamos menos dígitos por número.
El 10 es una base conveniente. No exige recordar demasiados dígitos diferentes y tampoco da demasiados dígitos en un número dado.
¿Y los números basados en potencias de dos, es decir los números en base 2? Esos son los "números binarios", de la palabra latina que significa "dos de cada vez".
El número 7.291 es igual a
1 x 212 + 1 x 211 + 1 x 210 + 0 x 29 + 0 x 28 + 0 x 27 + 1 x 26 + 1 x 25 + 1 x 24 + 1 x 23 + 0 x 22 + 1 x 21 + 1 x 20
(El lector puede comprobarlo, recordando que 29, por ejemplo, es 2 multiplicado por sí mismo nueve veces: 2 x 2 x 2 x 2 x 2 x 2 x 2 x 2 x 2 = 512). Si nos limitamos a escribir los dígitos tenemos
1110001111011 (en base 2) = 7.291 (en base 10).
Los números binarios contienen sólo unos y ceros, de modo que la adición y la multiplicación son fantásticamente simples. Sin embargo, hay tantos dígitos en números incluso pequeños, como el 7.291, que es muy fácil que la mente humana se confunda.
Los computadores, por su parte, pueden utilizar conmutadores de dos posiciones. En una dirección, cuando pasa la corriente, puede simbolizar un 1; en la otra dirección, cuando no pasa corriente, un 0.
Disponiendo los circuitos de manera que los conmutadores se abran y cierren de acuerdo con las reglas binarias de la adición y de la multiplicación, el computador puede realizar cálculos aritméticos a gran velocidad. Y puede hacerlo mucho más rápido que si tuviese que trabajar con ruedas dentadas marcadas del 0 al 9 como en las calculadoras de mesa ordinarias basadas en el sistema de base 10 o decimal.
Hay dos clases de números con las que la mayoría de nosotros está familiarizado: los números positivos (+5, +17,5) y los números negativos (-5, -17,5). Los números negativos fueron introducidos en la Edad Media para poder resolver problemas como 3 - 5.
A los antiguos les parecía imposible restar cinco manzanas de tres manzanas. Pero los banqueros medievales tenían una idea muy clara de la deuda. "Dame cinco manzanas. Sólo tengo dinero para tres, de modo que te dejo a deber dos", que es como decir
(+3) - (+5)= (-2).
Los números positivos y negativos se pueden multiplicar según reglas bien definidas. Un número positivo multiplicado por otro positivo da un producto positivo. Un número positivo multiplicado por otro negativo da un producto negativo. Y lo que es más importante, un número negativo multiplicado por otro negativo da un producto positivo. Así:
(+1) x (+1) = (+1);
(+1) x (-1) = (-1)
(-1) x (-1) = (+1).
Supongamos ahora que nos preguntamos: ¿Qué número multiplicado por sí mismo da +1? O expresándolo de manera más matemática: ¿Cuál es la raíz cuadrada de +1?
Hay dos soluciones. Una es +1, puesto que (+1) x (+1) = (+ 1). La otra es -1, puesto que (-1) x (-1) = (+1). Los matemáticos lo expresan en su jerga escribiendo
= ± 1
Sigamos ahora preguntando: ¿Cuál es la raíz cuadrada de -1?
Aquí nos ponen en un brete. No es + 1, porque multiplicado por sí mismo da +1. Tampoco es -1, porque multiplicado por sí mismo da también +1. Cierto que (+1) x (-1) = (-1), pero esto es la multiplicación de dos números diferentes y no la de un número por sí mismo.
Podemos entonces inventar un número y darle un signo especial, por ejemplo # 1, definiéndolo como sigue: # 1 es un número tal que (# 1) x (# 1) = (-1).
Cuando se introdujo por vez primera esta noción, los matemáticos se referían a ella como un "número imaginario" debido simplemente a que no existía en el sistema de números a que estaban acostumbrados. De hecho no es más imaginario que los "números reales" ordinarios. Los llamados números imaginarios tienen propiedades perfectamente definidas y se manejan con tanta facilidad como los números que ya existían antes.
Y, sin embargo, como se pensaba que los nuevos números eran "imaginarios", se utilizó el símbolo "i". Podemos hablar de números imaginarios positivos (+i) y números imaginarios negativos (-i), mientras que (+1) es un número real positivo y (-1) un número real negativo. Así pues, podemos decir = +i.
El sistema de los números reales tiene una contrapartida similar en el sistema de los números imaginarios. Si tenemos +5, -17,32, +3/10, también podemos tener +5i, -17,32i, +3i/10.
Incluso podemos representar gráficamente el sistema de números imaginarios.
Supóngase que representamos el sistema de los números reales sobre una recta, con el 0 (cero) en el centro. Los números positivos se hallan a un lado del cero y los negativos al otro.
Podemos entonces representar el sistema imaginario de números a lo largo de otra recta que corte a la primera en ángulo recto en el punto cero, con los imaginarios positivos a un lado y los negativos al otro. Utilizando ambos tipos al mismo tiempo se pueden localizar números en cualquier lugar del plano: (+2) + (+3i) ó (+3) + (-2i). Estos son "números complejos".
Para los matemáticos y los físicos resulta utilísimo poder asociar todos los puntos de un plano con un sistema de números. No podrían pasarse sin los llamados números imaginarios.
¿Qué son los números primos y por qué les interesan a los matemáticos?
Un número primo es un número que no puede expresarse como producto de dos números distintos de sí mismo y uno.
El 15 = 3 x 5, con lo cual 15 no es un número primo;
12 = 6 x 2 = 4 x 3, con lo cual 12 tampoco es un número primo.
En cambio 13 = 13 x 1 y no es el producto de ningún otro par de números, por lo cual 13 es un número primo.
Hay números de los que no hay manera de decir a simple vista si son primos o no. Hay ciertos tipos, en cambio, de los cuales se puede decir inmediatamente que no son primos. Cualquier número, por largo que sea, que termine en 2, 4, 5, 6, 8 ó 0 o cuyos dígitos sumen un número divisible por 3, no es primo. Sin embargo, un número que acabe en 1, 3, 7 ó 9 y cuyos dígitos sumen un número no divisible por 3, puede que sea primo, pero puede que no. No hay ninguna fórmula que nos lo diga. Hay que ensayar y ver si se puede escribir como producto de dos números más pequeños.
Una manera de encontrar números primos consiste en escribir todos los números del 2 al más alto posible, por ejemplo el 10.000. El primero es 2, que es primo. Lo dejamos donde está y recorremos toda la lista tachando uno de cada dos números, con lo cual eliminamos todos los números divisibles por dos, que no son primos. De los que quedan, el número más pequeño después del 2 es el 3. Este es el siguiente primo. Dejándolo donde está, tachamos a partir de él uno de cada tres números, deshaciéndonos así de todos los divisibles por 3. El siguiente número sin tachar es el 5, por lo cual tachamos uno de cada cinco números a partir de él. El siguiente es el 7, uno de cada siete; luego el 11, uno de cada once; luego el 13..., etc.
Podría pensarse que después de tachar y tachar números llegará un momento en que todos los números mayores que uno dado estarán tachados y que por tanto no quedará ningún número primo superior a un cierto número primo máximo. En realidad no es así. Por mucho que subamos en los millones y billones, siempre quedan números primos que han escapado a todas las tachaduras.
El matemático griego Euclides ya en el año 300 a. C. demostró que por mucho que subamos siempre tiene que haber números primos superiores a esos. Tomemos los seis primeros números primos y multipliquémoslos: 2 x 3 x 5 x 7 x 11 x 13 = 30.030. Sumando 1 obtenemos 30.031. Este número no es divisible por 2, 3, 5, 7, 11 ni 13, puesto que al dividir siempre dará un resto de 1. Si 30.031 no se puede dividir por ningún número excepto él mismo, es que es primo. Si se puede, entonces los números de los cuales es producto tienen que ser superiores a 13. De hecho 30.031 = 59 x 509.
Esto mismo lo podemos hacer para el primer centenar de números primos, para el primer billón o para cualquier número. Si calculamos el producto y sumamos 1, el número final o bien es un número primo o bien es el producto de números primos mayores que los que hemos incluido en la lista. Por mucho que subamos siempre habrá números primos aún mayores, con lo cual el número de números primos es infinito.
De cuando en cuando aparecen parejas de números impares consecutivos, ambos primos: 5, 7; 11, 13; 17, 19; 29, 31; 41, 43. Tales parejas de primos aparecen por doquier hasta donde los matemáticos han podido comprobar. ¿Es infinito el número de tales parejas de primos? Nadie lo sabe. Los matemáticos, creen que sí, pero nunca lo han podido probar. Por eso están interesados en los números primos. Los números primos presentan problemas aparentemente inocentes pero que son muy difíciles de resolver, y los matemáticos no pueden resistir el desafío.
¿Qué utilidad tiene eso? Ninguna; pero eso precisamente parece aumentar el interés.
¿Qué ocurriría si una fuerza irresistible se enfrentase con un cuerpo inamovible?
He aquí un rompecabezas clásico sobre el que han debido verter su palabrería millones y millones de argumentos.
Pero antes de dar mi solución pongamos algunas cosas en claro. El juego de explorar el universo mediante técnicas racionales hay que jugarlo, como todos los juegos, de acuerdo con ciertas reglas. Si dos personas quieren conversar inteligentemente tienen que ponerse de acuerdo acerca del significado de los símbolos que utilizan (palabras o cualesquiera otros) y sus comentarios han de tener sentido en función de ese significado.
Todas las preguntas que no tengan sentido en función de las definiciones convenidas se las echa fuera de casa. No hay respuesta porque la pregunta no ha debido ser formulada.
Supongamos por ejemplo que pregunto: "¿Cuánto pesa la justicia?" (Quizá esté pensando en la estatua de la justicia con la balanza en la mano).
Pero el peso es una propiedad de la masa, y sólo tienen masa las cosas materiales. (De hecho, la definición más simple de materia es "aquello que tiene masa".)
La justicia no es una cosa material, sino una abstracción. Por definición, la masa no es una de sus propiedades, y preguntar por el peso de la justicia es formular una pregunta sin sentido. No existe respuesta.
Por otro lado, mediante una serie de manipulaciones algebraicas muy simples es posible demostrar que 1 = 2. Lo malo es que en el curso de la demostración hay que dividir por cero. A fin de evitar una igualdad tan inconveniente (por no hablar de otras muchas demostraciones que destruirían la utilidad de las matemáticas), los matemáticos han decidido excluir la división por cero en cualquier operación matemática. Así pues, la pregunta "¿cuánto vale la fracción 2/0?" viola las reglas del juego y carece de sentido. No precisa de respuesta.
Ahora ya estamos listos para vérnoslas con esa fuerza irresistible y ese cuerpo inamovible.
Una "fuerza irresistible" es, por definición (si queremos que las palabras tengan significado), una fuerza que no puede ser resistida; una fuerza que moverá o destruirá cualquier cuerpo que encuentre, por grande que sea, sin debilitarse ni desviarse perceptiblemente. En un universo que contiene una fuerza irresistible no puede haber ningún cuerpo inamovible, pues acabamos de definir esa fuerza irresistible como una fuerza capaz de mover cualquier cosa.
Un "cuerpo inamovible" es, por definición (si queremos que las palabras tengan algún significado), un cuerpo que no puede ser movido; un cuerpo que absorberá cualquier fuerza que encuentre, por muy grande que sea, sin cambiar ni sufrir daños perceptibles en el encuentro. En un universo que contiene un cuerpo inamovible no puede haber ninguna fuerza irresistible porque acabamos de definir ese cuerpo inamovible como un cuerpo capaz de resistir cualquier fuerza.
Si formulamos una pregunta que implique la existencia simultánea de una fuerza irresistible y de un cuerpo inamovible, estamos violando las definiciones implicadas por las frases mismas. Las reglas del juego de la razón no lo permiten. Así pues, la pregunta "¿Qué ocurriría si una fuerza irresistible se enfrentase con un cuerpo inamovible?" carece de sentido y no precisa de respuesta.
El lector quizá se pregunte si es posible construir las definiciones de modo que no quepa formular preguntas incontestables. La respuesta es que no, como ya expliqué en la Pregunta 4.
8.-¿Cuántas partículas hay en el universo?
En realidad no hay una respuesta concreta a esta pregunta, porque de entrada no sabemos cómo es de grande el universo. Sin embargo hagamos algunas hipótesis.
Uno de los cálculos es que hay unas 100.000.000.000 (ó 1011 , un 1 seguido de 11 ceros) de galaxias en el universo. Cada una de estas galaxias tiene por término medio una masa 100.000.000.000 (ó 1011 ) mayor que la del Sol.
Quiere decirse que la cantidad total de materia en el universo es igual a 1011 x 1011 ó 1022 veces la masa del Sol. Dicho con otras palabras, en el universo hay materia suficiente para hacer 10.000.000.000.000.000.000.000 (diez mil trillones) de soles como el nuestro.
La masa del Sol es de 2 x 1033 gramos. Esto significa que la cantidad total de materia en el universo tiene una masa de 1022 x 2 x 1033 gramos. Lo cual puede escribirse como
20.000.000.000.000.000.000.000.000.000.000.000.000.000.000. 000.000.000.000.
Dicho con palabras, veinte nonillones.
Procedamos ahora desde el otro extremo. La masa del universo está concentrada casi por entero en los nucleones que contiene. (Los nucleones son las partículas que constituyen los componentes principales del núcleo atómico.) Los nucleones son cosas diminutas y hacen falta 6 x 1023 de ellos para juntar una masa de 1 gramo.
Pues bien, si 6 x 1023 nucleones hacen 1 gramo y si hay 2 x 1055 gramos en el universo, entonces el número total de nucleones en el universo es 6 x 1023 x 2 x 1055 ó 12 x 1078 , que de manera más convencional se escribiría 1,2 x 1079 .
Los astrónomos opinan que el noventa por ciento de los átomos del universo son hidrógeno, el 9 por ciento es helio y el uno por ciento son elementos más complicados. Una muestra típica de 100 átomos consistiría entonces en 90 átomos de hidrógeno, 9 átomos de helio y 1 átomo de oxígeno (por ejemplo). Los núcleos de los átomos de hidrógeno contendrían 1 nucleón cada uno: 1 protón. Los núcleos de los átomos de helio contendrían 4 nucleones cada uno: 2 protones y 2 neutrones. El núcleo del átomo de oxígeno contendría 16 nucleones: 8 protones y 8 neutrones.
Los cien átomos juntos contendrían, por tanto, 142 nucleones: 116 protones y 26 neutrones.
Existe una diferencia entre estos dos tipos de nucleones. El neutrón no tiene carga eléctrica y no es preciso considerar ninguna partícula que lo acompañe. Pero el protón tiene una carga eléctrica positiva y como el universo es, según se cree, eléctricamente neutro en su conjunto, tiene que existir un electrón (con una carga eléctrica negativa) por cada protón.
Así pues, por cada 142 nucleones hay 116 electrones (para compensar los 116 protones). Para mantener la proporción, los 1,2 x 1079 nucleones del universo tienen que ir acompañados de 1 x 1079 electrones. Sumando los nucleones y electrones, tenemos un número total de 2,2 x 1079 partículas de materia en el universo. Lo cual se puede escribir como
22.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000. 000.000.000.000.000.000.000.000.000.000.000 (ó 22 tredecillones).
Si el universo es mitad materia y mitad antimateria, entonces la mitad de esas partículas son antinucleones y antielectrones. Pero esto no afectaría al número total.
De las demás partículas, las únicas que existen en cantidades importantes en el universo son los fotones, los neutrinos y posiblemente los gravitones. Pero como son partículas sin masa no las contaré. Veintidós tredecíllones es después de todo suficiente y constituye un universo apreciable.
¿Por qué se habla de la "baja temperatura del espacio"? ¿Cómo puede tener el espacio vacío una temperatura?
Ni debería hablarse de "baja temperatura del espacio" ni puede el espacio vacío tener una temperatura. La temperatura es el contenido térmico medio por átomo de una cantidad de materia, y sólo la materia puede tener temperatura.
Supongamos que un cuerpo como la Luna flotase en el espacio, a años luz de la estrella más cercana. Si al principio la superficie está a 25º C, perdería continuamente calor por radiación, pero también lo ganaría de la radiación de las estrellas lejanas. Sin embargo, la radiación que llegaría hasta ella desde las estrellas sería tan pequeña, que no compensaría la pérdida ocasionada por su propia radiación, y la temperatura de la superficie comenzaría a bajar al instante.
A medida que la temperatura de la superficie lunar bajase iría decreciendo el ritmo de pérdida de calor por radiación, hasta que finalmente, cuando la temperatura fuese suficientemente baja, la pérdida por radiación sería lo suficientemente pequeña como para ser compensada por la absorción de la radiación de las lejanas estrellas. En ese momento, la temperatura de la superficie lunar sería realmente baja: ligeramente superior al cero absoluto.
Esta baja temperatura de la superficie lunar, lejos de las estrellas, es un ejemplo de lo que la gente quiere decir cuando habla de la "baja temperatura del espacio".
En realidad, la Luna no está lejos de todas las estrellas. Está bastante cerca, menos de 100 millones de millas, de una de ellas: el Sol. Si la Luna diese al Sol siempre la misma cara, esta cara iría absorbiendo calor solar hasta que su temperatura en el centro de la cara sobrepasara con mucho el punto de ebullición del agua. Sólo a esa temperatura tan alta estarían equilibrados el gran influjo solar y su propia pérdida por radiación.
El calor solar avanzaría muy despacio a través de la sustancia aislante de la Luna, de suerte que la cara opuesta recibiría muy poco calor y este poco lo radiaría al espacio. La cara nocturna se hallaría por tanto a la "baja temperatura del espacio".
Ahora bien, la Luna gira con respecto al Sol, de suerte que cualquier parte de la superficie recibe sólo el equivalente de dos semanas de luz solar de cada vez. Con este período de radiación tan limitado la temperatura superficial, de la Luna apenas alcanza el punto de ebullición del agua en algunos lugares. Durante la larga noche, la temperatura permanece nada menos que a 120º por encima del cero absoluto (más bien frío para nosotros) en todo momento, porque antes que siga bajando vuelve a salir el Sol.
La Tierra es un caso completamente diferente, debido a que tiene una atmósfera y océanos. El océano se traga el calor de manera mucho más eficaz que la roca desnuda y lo suelta más despacio. Actúa como un colchón térmico: su temperatura no sube tanto en presencia del Sol ni baja tampoco tanto, comparado con la Tierra, en ausencia suya. La Tierra gira además tan rápido, que en la mayor parte de su superficie el día y la noche sólo duran horas. Por otro lado, los vientos atmosféricos transportan el calor de la cara diurna a la nocturna y de los trópicos a los polos.
Todo esto hace que la Tierra esté sometida a una gama de temperaturas mucho más pequeñas que la Luna, pese a que ambos cuerpos distan lo mismo del Sol.
¿Qué le pasaría a una persona que se viera expuesta a las temperaturas subantárticas de la cara nocturna de la Luna? No tanto como uno diría. Aquí, en la Tierra, aun yendo abrigados con vestidos aislantes, el cuerpo humano pierde rápidamente calor, que se disipa en la atmósfera y sus vientos, que a su vez se encargan de llevárselo lejos. La situación en la Luna es muy diferente. Un hombre, enfundado en su traje y botas espaciales, experimentaría una pérdida muy escasa, ya fuese por conducción a la superficie o por convección al espacio vacío en ausencia de viento. Es como si se hallase dentro de un termo en el vacío y radiando sólo pequeñas cantidades de infrarrojos. El proceso de enfriamiento sería muy lento. Su cuerpo estaría produciendo naturalmente calor todo el tiempo, y es más probable que sintiese calor que no frío.
¿Qué es, en pocas palabras, la teoría de la relatividad de Einstein?
Según las leyes del movimiento establecidas por primera vez con detalle por Isaac Newton hacia 1680 - 1689, dos o más movimientos se suman de acuerdo con las reglas de la aritmética elemental. Supongamos que un tren pasa a nuestro lado a 20 kilómetros por hora y que un niño tira desde el tren una pelota a 20 kilómetros por hora en la dirección del movimiento del tren. Para el niño, que se mueve junto con el tren, la pelota se mueve a 20 kilómetros por hora. Pero para nosotros, el movimiento del tren y el de la pelota se suman, de modo que la pelota se moverá a la velocidad de 40 kilómetros por hora.
Como veis, no se puede hablar de la velocidad de la pelota a secas. Lo que cuenta es su velocidad con respecto a un observador particular. Cualquier teoría del movimiento que intente explicar la manera en que las velocidades (y fenómenos afines) parecen variar de un observador a otro sería una "teoría de la relatividad".
La teoría de la relatividad de Einstein nació del siguiente hecho: lo que funciona para pelotas tiradas desde un tren no funciona para la luz. En principio podría hacerse que la luz se propagara, o bien a favor del movimiento terrestre, o bien en contra de él. En el primer caso parecería viajar más rápido que en el segundo (de la misma manera que un avión viaja más aprisa, en relación con el suelo, cuando lleva viento de cola que cuando lo lleva de cara). Sin embargo, medidas muy cuidadosas demostraron que la velocidad de la luz nunca variaba, fuese cual fuese la naturaleza del movimiento de la fuente que emitía la luz.
Einstein dijo entonces: supongamos que cuando se mide la velocidad de la luz en el vacío, siempre resulta el mismo valor (unos 299.793 kilómetros por segundo), en cualesquiera circunstancias. ¿Cómo podemos disponer las leyes del universo para explicar esto?
Einstein encontró que para explicar la constancia de la velocidad de la luz había que aceptar una serie de fenómenos inesperados.
Halló que los objetos tenían que acortarse en la dirección del movimiento, tanto más cuanto mayor fuese su velocidad, hasta llegar finalmente a una longitud nula en el límite de la velocidad de la luz; que la masa de los objetos en movimiento tenía que aumentar con la velocidad, hasta hacerse infinita en el límite de la velocidad de la luz; que el paso del tiempo en un objeto en movimiento era cada vez más lento a medida que aumentaba la velocidad, hasta llegar a pararse en dicho límite; que la masa era equivalente a una cierta cantidad de energía y viceversa.
Todo esto lo elaboró en 1905 en la forma de la "teoría especial de la relatividad", que se ocupaba de cuerpos con velocidad constante. En 1915 extrajo consecuencias aún más sutiles para objetos con velocidad variable, incluyendo una descripción del comportamiento de los efectos gravitatorios. Era la "teoría general de la relatividad".
Los cambios predichos por Einstein sólo son notables a grandes velocidades. Tales velocidades han sido observadas entre las partículas subatómicas, viéndose que los cambios predichos por Einstein se daban realmente, y con gran exactitud. Es más, sí la teoría de la relatividad de Einstein fuese incorrecta, los aceleradores de partículas no podrían funcionar, las bombas atómicas no explotarían y habría ciertas observaciones astronómicas imposibles de hacer.
Pero a las velocidades corrientes, los cambios predichos son tan pequeños que pueden ignorarse. En estas circunstancias rige la aritmética elemental de las leyes de Newton; y como estamos acostumbrados al funcionamiento de estas leyes, nos parecen ya de "sentido común", mientras que la ley de Einstein se nos antoja "extraña".
¿De dónde vino el aire que respiramos?
La opinión de los astrónomos es que los planetas nacieron de torbellinos de gas y polvo, constituidos en general por los diversos elementos presentes, en proporciones correspondientes a su abundancia cósmica. Un 90% de los átomos eran hidrógeno y otro 9% helio. El resto incluía todos los demás elementos, principalmente neón, oxígeno, carbono, nitrógeno, carbón, azufre, silicio, magnesio, hierro y aluminio.
El globo sólido de la Tierra en sí nació de una mezcla rocosa de silicatos y sulfuros de magnesio, hierro y aluminio, cuyas moléculas se mantenían firmemente unidas por fuerzas químicas. El exceso de hierro fue hundiéndose lentamente a través de la roca y formó un núcleo metálico incandescente. Durante este proceso de aglomeración, la materia sólida de la Tierra atrapó una serie de materiales gaseosos y los retuvo en los vanos que quedaban entre las partículas sólidas o bien mediante uniones químicas débiles. Estos gases contendrían seguramente átomos de helio, neón y argón, que no se combinaron con nada; y átomos de hidrógeno, que o bien se combinaron entre sí por parejas para formar moléculas de hidrógeno (H2), o bien se combinaron con otros átomos: con oxígeno para formar agua (H2O ), con nitrógeno para formar amoníaco (NH3) o con carbono para formar metano (CH4). A medida que el material de este planeta en ciernes se fue apelotonando, el efecto opresor de la presión y el aún más violento de la acción volcánica fueron expulsando los gases. Las moléculas de hidrógeno y los átomos de helio y neón, al ser demasiado ligeros para ser retenidos, escaparon rápidamente. La atmósfera de la Tierra quedó constituida por lo que quedaba: vapor de agua, amoníaco, metano y algo de argón. La mayor parte del vapor de agua, pero no todo, se condensó y formó un océano. Tal es, en la actualidad, la clase de atmósfera que poseen algunos planetas como Júpiter y Saturno, los cuales, sin embargo, son bastante grandes para retener hidrógeno, helio y neón. Por su parte, la atmósfera de los planetas interiores comenzó a evolucionar químicamente. Los rayos ultravioletas del cercano Sol rompieron las moléculas de vapor de agua en hidrógeno y oxígeno. El hidrógeno escapó, pero el oxígeno fue acumulándose y combinándose con amoníaco y metano. Con el primero formó nitrógeno y agua; con el segundo, anhídrido carbónico y agua. Poco a poco, la atmósfera de los planetas interiores pasó de ser una mezcla de amoníaco y metano a una mezcla de nitrógeno y anhídrido carbónico. Marte y Venus tienen hoy día atmósferas compuestas por nitrógeno y anhídrido carbónico, mientras que la Tierra debió de tener una parecida hace miles de millones de años, cuando empezó a surgir la vida. Esa atmósfera es además estable. Una vez formada, la ulterior acción de los rayos ultravioletas sobre el vapor de agua hace que se vaya acumulando oxígeno libre (moléculas formadas por dos átomos de oxígeno, O2). Una acción ultravioleta aún más intensa transforma ese oxígeno en ozono (con tres átomos de oxígeno por molécula, O3). El ozono absorbe la radiación ultravioleta y actúa de barrera. La radiación ultravioleta que logra atravesar la capa de ozono en la alta atmósfera y romper las moléculas de agua más abajo es muy escasa, con lo cual se detiene la evolución química de la atmósfera..., al menos hasta que aparezca algo nuevo. Pues bien, en la Tierra apareció de hecho algo nuevo. Fue el desarrollo de un grupo de formas de vida capaces de utilizar la luz visible para romper las moléculas de agua. Como la capa de ozono no intercepta la luz visible, ese proceso (la fotosíntesis) podía proseguir indefinidamente. A través de la fotosíntesis se consumía anhídrido carbónico y se liberaba oxígeno. Así, pues, hace 500 millones de años, la atmósfera empezó a convertirse en una mezcla de nitrógeno y oxígeno, que es la que existe hoy.
¿Qué es el efecto "invernadero"?
Cuando decimos que un objeto es "transparente" porque podemos ver a través de él, no queremos necesariamente decir que lo puedan atravesar todos los tipos de luz. A través de un cristal rojo, por ejemplo, se puede ver, siendo, por tanto, transparente. Pero, en cambio, la luz azul no lo atraviesa. El vidrio ordinario es transparente para todos los colores de la luz, pero muy poco para la radiación ultravioleta y la infrarroja.
Pensad ahora en una casa de cristal al aire libre y a pleno sol. La luz visible del Sol atraviesa sin más el vidrio y es absorbida por los objetos que se hallen dentro de la casa. Como resultado de ello, dichos objetos se calientan, igual que se calientan los que están fuera, expuestos a la luz directa del Sol.
Los objetos calentados por la luz solar ceden de nuevo ese calor en forma de radiación. Pero como no están a la temperatura del Sol, no emiten luz visible, sino radiación infrarroja, que es mucho menos energética. Al cabo de un tiempo, ceden igual cantidad de energía en forma de infrarrojos que la que absorben en forma de luz solar, por lo cual su temperatura permanece constante (aunque, naturalmente, están más calientes que si no estuviesen expuestos a la acción directa del Sol).
Los objetos al aire libre no tienen dificultad alguna para deshacerse de la radiación infrarroja, pero el caso es muy distinto para los objetos situados al sol dentro de la casa de cristal. Sólo una parte pequeña de la radiación infrarroja que emiten logra traspasar el cristal. El resto se refleja en las paredes y va acumulándose en el interior. La temperatura de los objetos interiores sube mucho más que la de los exteriores. Y la temperatura del interior de la casa va aumentando hasta que la radiación infrarroja que se filtra por el vidrio es suficiente para establecer el equilibrio.
Esa es la razón por la que se pueden cultivar plantas dentro de un invernadero, pese a que la temperatura exterior bastaría para helarlas. El calor adicional que se acumula dentro del invernadero, gracias a que el vidrio es bastante transparente a la luz visible pero muy poco a los infrarrojos, es lo que se denomina "efecto invernadero".
La atmósfera terrestre consiste casi por entero en oxígeno, nitrógeno y argón. Estos gases son bastante transparentes tanto para la luz visible como para la clase de radiación infrarroja que emite la superficie terrestre cuando está caliente. Pero la atmósfera contiene también un 0,03% de anhídrido carbónico, que es transparente para la luz visible pero no demasiado para los infrarrojos. El anhídrido carbónico de la atmósfera actúa como el vidrio del invernadero.
Como la cantidad de anhídrido carbónico que hay en nuestra atmósfera es muy pequeña, el efecto es relativamente secundario. Aun así, la Tierra es un poco más caliente que en ausencia de anhídrido carbónico. Es más, si el contenido en anhídrido carbónico de la atmósfera fuese el doble, el efecto invernadero, ahora mayor, calentaría la Tierra un par de grados más, lo suficiente para provocar la descongelación gradual de los casquetes polares.
Un ejemplo de efecto invernadero a lo grande lo tenemos en Venus, cuya densa atmósfera parece consistir casi toda ella en anhídrido carbónico. Dada su mayor proximidad al Sol, los astrónomos esperaban que Venus fuese más caliente que la Tierra. Pero, ignorantes de la composición exacta de su atmósfera, no habían contado con el calentamiento adicional del efecto invernadero. Su sorpresa fue grande cuando comprobaron que la temperatura superficial de Venus estaba muy por encima del punto de ebullición del agua, cientos de grados más de lo que se esperaban.
Evidentemente, el método científico es el método que utilizan los científicos para hacer descubrimientos científicos. Pero esta definición no parece muy útil. ¿Podemos dar más detalles?
Pues bien, cabría dar la siguiente versión ideal de dicho método:
Detectar la existencia de un problema, como puede ser, por ejemplo, la cuestión de por qué los objetos se mueven como lo hacen, acelerando en ciertas condiciones y decelerando en otras.
Separar luego y desechar los aspectos no esenciales del problema. El olor de un objeto, por ejemplo, no juega ningún papel en su movimiento.
Reunir todos los datos posibles que incidan en el problema. En los tiempos antiguos y medievales equivalía simplemente a la observación sagaz de la naturaleza, tal como existía. A principios de los tiempos modernos empezó a entreverse la posibilidad de ayudar a la naturaleza en ese sentido.
Cabía planear deliberadamente una situación en la cual los objetos se comportaran de una manera determinada y suministraran datos relevantes para el problema. Uno podía, por ejemplo, hacer rodar una serie de esferas a lo largo de un plano inclinado, variando el tamaño de las esferas, la naturaleza de su superficie, la inclinación del plano, etc. Tales situaciones deliberadamente planeadas son experimentos, y el papel del experimento es tan capital para la ciencia moderna, que a veces se habla de "ciencia experimental" para distinguirla de la ciencia de los antiguos griegos.
Reunidos todos los datos elabórese una generalización provisional que los describa a todos ellos de la manera más simple posible: un enunciado breve o una relación matemática. Esto es una hipótesis.
Con la hipótesis en la mano se pueden predecir los resultados de experimentos que no se nos habían ocurrido hasta entonces. Intentar hacerlos y mirar si la hipótesis es válida.
Si los experimentos funcionan tal como se esperaba, la hipótesis sale reforzada y puede adquirir el status de una teoría o incluso de un "ley natural".
Está claro que ninguna teoría ni ley natural tiene carácter definitivo. El proceso se repite una y otra vez. Continuamente se hacen y obtienen nuevos datos, nuevas observaciones, nuevos experimentos. Las viejas leyes naturales se ven constantemente superadas por otras más generales que explican todo cuanto explicaban las antiguas y un poco más.
Todo esto, como digo, es una versión ideal del método científico. En la práctica no es necesario que el científico pase por los distintos puntos como si fuese una serie de ejercicios caligráficos, y normalmente no lo hace.
Más que nada son factores como la intuición, la sagacidad y la suerte, a secas, los que juegan un papel. La historia de la ciencia está llena de casos en los que un científico da de pronto con una idea brillante basada en datos insuficientes y en poca o ninguna experimentación, llegando así a una verdad útil cuyo descubrimiento quizá hubiese requerido años mediante la aplicación directa y estricta del método científico.
F. A. Kekulé dio con la estructura del benceno mientras descabezaba un sueño en el autobús. Otto Loewi despertó en medio de la noche con la solución del problema de la conducción sináptica. Donald Glaser concibió la idea de la cámara de burbujas mientras miraba ociosamente su vaso de cerveza.
¿Quiere decir esto que, a fin de cuentas, todo es cuestión de suerte y no de cabeza? No, no y mil veces no. Esta clase de "suerte" sólo se da en los mejores cerebros; sólo en aquellos cuya "intuición" es la recompensa de una larga experiencia, una comprensión profunda y un pensamiento disciplinado.
¿Por qué dos o más científicos, ignorantes del trabajo de los otros, dan a menudo simultáneamente con la misma teoría?
La manera más simple de contestar a esto es decir que los científicos no trabajan en el vacío. Están inmersos, por así decirlo, en la estructura y progreso evolutivo de la ciencia, y todos ellos encaran los mismos problemas en cada momento.
Así, en la primera mitad del siglo XIX el problema de la evolución de las especies estaba "en el candelero". Algunos biólogos se oponían acaloradamente a la idea misma, mientras que otros especulaban ávidamente con sus consecuencias y trataban de encontrar pruebas que la apoyaran. Pero lo cierto es que, cada uno a su manera, casi todos los biólogos pensaban sobre la misma cuestión. La clave del problema era ésta: Si la evolución es un hecho, ¿qué es lo que la motiva?
En Gran Bretaña, Charles Darwin pensaba sobre ello. En las Indias Orientales, Alfred Wallace, inglés también, pensaba sobre el mismo problema. Ambos habían viajado por todo el mundo; ambos habían hecho observaciones similares; y sucedió que ambos, en un punto crucial de su pensamiento, leyeron un libro de Thomas Malthus que describía los efectos de la presión demográfica sobre los seres humanos. Tanto Darwin como Wallace empezaron a pensar sobre la presión demográfica en todas las especies. ¿Qué individuos sobrevivirían y cuáles no? Ambos llegaron a la teoría de la evolución por selección natural.
Lo cual no tiene en realidad nada de sorprendente. Dos hombres que trabajan sobre el mismo problema y con los mismos métodos, encarados con los mismos hechos a observar y disponiendo de los mismos libros de consulta, es muy probable que lleguen a las mismas soluciones. Lo que ya me sorprende más es que el segundo nombre de Darwin, Wallace y Malthus empezase en los tres casos por R.
A finales del siglo XIX eran muchos los biólogos que trataban de poner en claro la mecánica de la genética. Tres hombres, trabajando los tres en el mismo problema, al mismo tiempo y de la misma manera, pero en diferentes países, llegaron a las mismas conclusiones. Pero entonces los tres, repasando la literatura, descubrieron que otro, Gregor Mendel, había obtenido treinta y cuatro años antes las leyes de la herencia y habían pasado inadvertido.
Una de las aspiraciones más ambiciosas de los años 1880-1889 era la producción barata de aluminio. Se conocían los usos y la naturaleza del metal, pero resultaba difícil prepararlo a partir de sus minerales. Millones de dólares dependían literalmente de la obtención de una técnica sencilla. Es difícil precisar el número de químicos que se hallaban trabajando en el mismo problema, apoyándose en las mismas experiencias de otros científicos.
Dos de ellos: Charles Hall en los Estados Unidos y Paul Héroult en Francia, obtuvieron la misma respuesta en el mismo año de 1886. Nada más natural. Pero ¿y esto?: los apellidos de ambos empezaban por H, ambos nacieron en 1863 y ambos murieron en 1914.
Hoy día son muchos los que tratan de idear teorías que expliquen el comportamiento de las partículas subatómicas. Murray Gell-Man y Yuval Ne'emen, uno en América y otro en Israel, llegaron simultáneamente a teorías parecidas. El principio del máser se obtuvo simultáneamente en Estados Unidos y en la Unión Soviética. Y estoy casi seguro que el proceso clave para el aprovechamiento futuro de la potencia de la fusión nuclear será obtenido independiente y simultáneamente por dos o más personas.
Naturalmente, hay veces en que el rayo brilla una sola vez. Gregor Mendel no tuvo competidores, ni tampoco Newton ni Einstein. Sus grandes ideas sólo se les ocurrieron a ellos y el resto del mundo les siguió.
¿Qué dice el teorema de Gödel? ¿Demuestra que la verdad es inalcanzable?
Desde los tiempos de Euclides, hace ya dos mil doscientos años, los matemáticos han intentado partir de ciertos enunciados llamados "axiomas" y deducir luego de ellos toda clase de conclusiones útiles.
En ciertos aspectos es casi como un juego, con dos reglas. En primer lugar, los axiomas tienen que ser los menos posibles. En segundo lugar, los axiomas tienen que ser consistentes. Tiene que ser imposible deducir dos conclusiones que se contradigan mutuamente.
Cualquier libro de geometría de bachillerato comienza con un conjunto de axiomas:
por dos puntos cualesquiera sólo se puede trazar una recta
el total es la suma de las partes, etc.
Durante mucho tiempo se supuso que los axiomas de Euclides eran los únicos que podían constituir una geometría consistente y que por eso eran "verdaderos".
Pero en el siglo XIX se demostró que modificando de cierta manera los axiomas de Euclides se podían construir geometrías diferentes, "no euclidianas". Cada una de estas geometrías difería de las otras, pero todas ellas eran consistentes. A partir de entonces no tenía ya sentido preguntar cuál de ellas era "verdadera". En lugar, de ello había que preguntar cuál era útil.
De hecho, son muchos los conjuntos de axiomas a partir de los cuales se podría construir un sistema matemático consistente: todos ellos distintos y todos ellos consistentes.
En ninguno de esos sistemas matemáticos tendría que ser posible deducir, a partir de sus axiomas, que algo es a la vez así y no así, porque entonces las matemáticas no serían consistentes, habría que desecharlas. ¿Pero qué ocurre si establecemos un enunciado y comprobamos que no podemos demostrar que es o así o no así?
Supongamos que digo: "El enunciado que estoy haciendo es falso."
¿Es falso? Si es falso, entonces es falso que esté diciendo algo falso y tengo que estar diciendo algo verdadero. Pero si estoy diciendo algo verdadero, entonces es cierto que estoy diciendo algo falso y sería verdad que estoy diciendo algo falso. Podría estar yendo de un lado para otro indefinidamente. Es imposible demostrar que lo que he dicho es o así o no así.
Supongamos que ajustamos los axiomas de la lógica a fin de eliminar la posibilidad de hacer enunciados de ese tipo. ¿Podríamos encontrar otro modo de hacer enunciados del tipo "ni así ni no así"?
En 1931 el matemático austriaco Kurt Gödel presentó una demostración válida que para cualquier conjunto de axiomas siempre es posible hacer enunciados que, a partir de esos axiomas, no puede demostrarse ni que son así ni que no son así. En ese sentido, es imposible elaborar jamás un conjunto de axiomas a partir de los cuales se pueda deducir un sistema matemático completo.
¿Quiere decir esto que nunca podremos encontrar la "verdad"? ¡Ni hablar!
Primero: el que un sistema matemático no sea completo no quiere decir que lo que contiene sea "falso". El sistema puede seguir siendo muy útil, siempre que no intentemos utilizarlo más allá de sus límites.
Segundo: el teorema de Gödel sólo se aplica a sistemas deductivos del tipo que se utiliza en matemáticas. Pero la deducción no es el único modo de descubrir la "verdad". No hay axiomas que nos permitan deducir las dimensiones del sistema solar. Estas últimas fueron obtenidas mediante observaciones y medidas, otro camino hacia la "verdad"
¿Qué diferencia hay entre los números ordinarios y los números binarios y cuáles son las ventajas de cada uno?
Los números ordinarios que utilizamos normalmente están escritos "en base 10". Es decir, están escritos como potencias de diez. Lo que escribimos como 7.291 es en realidad
7 x 103 + 2 x 102 + 9 x 101 + 1 x 100
Recuérdese que 103 = 10 x 10 x 10 = 1.000; que 102 =10 x 10 = 100; que 101 = 10, y que 100 = 1.
Por tanto, 7.291 es 7 x 1.000 más 2 x 100 más 9 x 10 más 1, que es lo que decimos cuando leemos el número en voz alta: "siete mil doscientos noventa (nueve decenas) y uno".
Estamos ya tan familiarizados con el uso de las potencias de diez que sólo escribimos las cifras por las que van multiplicadas (7.291 en este caso) e ignoramos el resto.
Pero las potencias de diez no tienen nada de especial. Igual servirían las potencias de cualquier otro número mayor que uno. Supongamos, por ejemplo, que queremos escribir el número 7.291 en potencias de ocho.
Recordemos que
80 = 1;
81 = 8;
82 = 8 x 8 = 64
83 = 8 x 8 x 8 = 512
84 = 8 x 8 x 8 x 8 = 4.096
El número 7.291 se podría escribir entonces como:
1 x 8 4 + 6 x 8 3 + 1 x 8 2 + 7 x 8 1 + 3 x 8 0
(El lector lo puede comprobar haciendo los cálculos pertinentes.) Si escribimos sólo las cifras tenemos 16.173. Podemos decir entonces que
16.173 (en base 8) = 7.291 (en base 10).
La ventaja del sistema en base 8 es que sólo hay que recordar siete dígitos aparte del 0. Si intentásemos utilizar el dígito 8, llegaríamos a obtener alguna vez 8 x 83, que es igual a 1 x 84, con lo cual siempre podemos utilizar un 1 en lugar de un 8. Así, 8 (en base 10) = 10 (en base 8); 89 (en base 10) = 131 (en base 8); etc. Por otro lado, los números tienen más dígitos en el sistema de base 8 que en el de base 10.
Cuanto más pequeña es la base, tantos menos dígitos diferentes se manejan, pero tantos más entran en la composición de los números.
Si utilizamos el sistema de base 20, el número 7.291 se convierte en
18 x 20 2 + 4 x 20 1 + 11 x 20 0
Si escribimos el 18 como # y el 11 como %, podemos decir que # 4 % (en base 20) = 7.291 (en base 10). En un sistema de base 20 tendríamos que tener 19 dígitos diferentes, pero a cambio tendríamos menos dígitos por número.
El 10 es una base conveniente. No exige recordar demasiados dígitos diferentes y tampoco da demasiados dígitos en un número dado.
¿Y los números basados en potencias de dos, es decir los números en base 2? Esos son los "números binarios", de la palabra latina que significa "dos de cada vez".
El número 7.291 es igual a
1 x 212 + 1 x 211 + 1 x 210 + 0 x 29 + 0 x 28 + 0 x 27 + 1 x 26 + 1 x 25 + 1 x 24 + 1 x 23 + 0 x 22 + 1 x 21 + 1 x 20
(El lector puede comprobarlo, recordando que 29, por ejemplo, es 2 multiplicado por sí mismo nueve veces: 2 x 2 x 2 x 2 x 2 x 2 x 2 x 2 x 2 = 512). Si nos limitamos a escribir los dígitos tenemos
1110001111011 (en base 2) = 7.291 (en base 10).
Los números binarios contienen sólo unos y ceros, de modo que la adición y la multiplicación son fantásticamente simples. Sin embargo, hay tantos dígitos en números incluso pequeños, como el 7.291, que es muy fácil que la mente humana se confunda.
Los computadores, por su parte, pueden utilizar conmutadores de dos posiciones. En una dirección, cuando pasa la corriente, puede simbolizar un 1; en la otra dirección, cuando no pasa corriente, un 0.
Disponiendo los circuitos de manera que los conmutadores se abran y cierren de acuerdo con las reglas binarias de la adición y de la multiplicación, el computador puede realizar cálculos aritméticos a gran velocidad. Y puede hacerlo mucho más rápido que si tuviese que trabajar con ruedas dentadas marcadas del 0 al 9 como en las calculadoras de mesa ordinarias basadas en el sistema de base 10 o decimal.
Hay dos clases de números con las que la mayoría de nosotros está familiarizado: los números positivos (+5, +17,5) y los números negativos (-5, -17,5). Los números negativos fueron introducidos en la Edad Media para poder resolver problemas como 3 - 5.
A los antiguos les parecía imposible restar cinco manzanas de tres manzanas. Pero los banqueros medievales tenían una idea muy clara de la deuda. "Dame cinco manzanas. Sólo tengo dinero para tres, de modo que te dejo a deber dos", que es como decir
(+3) - (+5)= (-2).
Los números positivos y negativos se pueden multiplicar según reglas bien definidas. Un número positivo multiplicado por otro positivo da un producto positivo. Un número positivo multiplicado por otro negativo da un producto negativo. Y lo que es más importante, un número negativo multiplicado por otro negativo da un producto positivo. Así:
(+1) x (+1) = (+1);
(+1) x (-1) = (-1)
(-1) x (-1) = (+1).
Supongamos ahora que nos preguntamos: ¿Qué número multiplicado por sí mismo da +1? O expresándolo de manera más matemática: ¿Cuál es la raíz cuadrada de +1?
Hay dos soluciones. Una es +1, puesto que (+1) x (+1) = (+ 1). La otra es -1, puesto que (-1) x (-1) = (+1). Los matemáticos lo expresan en su jerga escribiendo
= ± 1
Sigamos ahora preguntando: ¿Cuál es la raíz cuadrada de -1?
Aquí nos ponen en un brete. No es + 1, porque multiplicado por sí mismo da +1. Tampoco es -1, porque multiplicado por sí mismo da también +1. Cierto que (+1) x (-1) = (-1), pero esto es la multiplicación de dos números diferentes y no la de un número por sí mismo.
Podemos entonces inventar un número y darle un signo especial, por ejemplo # 1, definiéndolo como sigue: # 1 es un número tal que (# 1) x (# 1) = (-1).
Cuando se introdujo por vez primera esta noción, los matemáticos se referían a ella como un "número imaginario" debido simplemente a que no existía en el sistema de números a que estaban acostumbrados. De hecho no es más imaginario que los "números reales" ordinarios. Los llamados números imaginarios tienen propiedades perfectamente definidas y se manejan con tanta facilidad como los números que ya existían antes.
Y, sin embargo, como se pensaba que los nuevos números eran "imaginarios", se utilizó el símbolo "i". Podemos hablar de números imaginarios positivos (+i) y números imaginarios negativos (-i), mientras que (+1) es un número real positivo y (-1) un número real negativo. Así pues, podemos decir = +i.
El sistema de los números reales tiene una contrapartida similar en el sistema de los números imaginarios. Si tenemos +5, -17,32, +3/10, también podemos tener +5i, -17,32i, +3i/10.
Incluso podemos representar gráficamente el sistema de números imaginarios.
Supóngase que representamos el sistema de los números reales sobre una recta, con el 0 (cero) en el centro. Los números positivos se hallan a un lado del cero y los negativos al otro.
Podemos entonces representar el sistema imaginario de números a lo largo de otra recta que corte a la primera en ángulo recto en el punto cero, con los imaginarios positivos a un lado y los negativos al otro. Utilizando ambos tipos al mismo tiempo se pueden localizar números en cualquier lugar del plano: (+2) + (+3i) ó (+3) + (-2i). Estos son "números complejos".
Para los matemáticos y los físicos resulta utilísimo poder asociar todos los puntos de un plano con un sistema de números. No podrían pasarse sin los llamados números imaginarios.
¿Qué son los números primos y por qué les interesan a los matemáticos?
Un número primo es un número que no puede expresarse como producto de dos números distintos de sí mismo y uno.
El 15 = 3 x 5, con lo cual 15 no es un número primo;
12 = 6 x 2 = 4 x 3, con lo cual 12 tampoco es un número primo.
En cambio 13 = 13 x 1 y no es el producto de ningún otro par de números, por lo cual 13 es un número primo.
Hay números de los que no hay manera de decir a simple vista si son primos o no. Hay ciertos tipos, en cambio, de los cuales se puede decir inmediatamente que no son primos. Cualquier número, por largo que sea, que termine en 2, 4, 5, 6, 8 ó 0 o cuyos dígitos sumen un número divisible por 3, no es primo. Sin embargo, un número que acabe en 1, 3, 7 ó 9 y cuyos dígitos sumen un número no divisible por 3, puede que sea primo, pero puede que no. No hay ninguna fórmula que nos lo diga. Hay que ensayar y ver si se puede escribir como producto de dos números más pequeños.
Una manera de encontrar números primos consiste en escribir todos los números del 2 al más alto posible, por ejemplo el 10.000. El primero es 2, que es primo. Lo dejamos donde está y recorremos toda la lista tachando uno de cada dos números, con lo cual eliminamos todos los números divisibles por dos, que no son primos. De los que quedan, el número más pequeño después del 2 es el 3. Este es el siguiente primo. Dejándolo donde está, tachamos a partir de él uno de cada tres números, deshaciéndonos así de todos los divisibles por 3. El siguiente número sin tachar es el 5, por lo cual tachamos uno de cada cinco números a partir de él. El siguiente es el 7, uno de cada siete; luego el 11, uno de cada once; luego el 13..., etc.
Podría pensarse que después de tachar y tachar números llegará un momento en que todos los números mayores que uno dado estarán tachados y que por tanto no quedará ningún número primo superior a un cierto número primo máximo. En realidad no es así. Por mucho que subamos en los millones y billones, siempre quedan números primos que han escapado a todas las tachaduras.
El matemático griego Euclides ya en el año 300 a. C. demostró que por mucho que subamos siempre tiene que haber números primos superiores a esos. Tomemos los seis primeros números primos y multipliquémoslos: 2 x 3 x 5 x 7 x 11 x 13 = 30.030. Sumando 1 obtenemos 30.031. Este número no es divisible por 2, 3, 5, 7, 11 ni 13, puesto que al dividir siempre dará un resto de 1. Si 30.031 no se puede dividir por ningún número excepto él mismo, es que es primo. Si se puede, entonces los números de los cuales es producto tienen que ser superiores a 13. De hecho 30.031 = 59 x 509.
Esto mismo lo podemos hacer para el primer centenar de números primos, para el primer billón o para cualquier número. Si calculamos el producto y sumamos 1, el número final o bien es un número primo o bien es el producto de números primos mayores que los que hemos incluido en la lista. Por mucho que subamos siempre habrá números primos aún mayores, con lo cual el número de números primos es infinito.
De cuando en cuando aparecen parejas de números impares consecutivos, ambos primos: 5, 7; 11, 13; 17, 19; 29, 31; 41, 43. Tales parejas de primos aparecen por doquier hasta donde los matemáticos han podido comprobar. ¿Es infinito el número de tales parejas de primos? Nadie lo sabe. Los matemáticos, creen que sí, pero nunca lo han podido probar. Por eso están interesados en los números primos. Los números primos presentan problemas aparentemente inocentes pero que son muy difíciles de resolver, y los matemáticos no pueden resistir el desafío.
¿Qué utilidad tiene eso? Ninguna; pero eso precisamente parece aumentar el interés.
¿Qué ocurriría si una fuerza irresistible se enfrentase con un cuerpo inamovible?
He aquí un rompecabezas clásico sobre el que han debido verter su palabrería millones y millones de argumentos.
Pero antes de dar mi solución pongamos algunas cosas en claro. El juego de explorar el universo mediante técnicas racionales hay que jugarlo, como todos los juegos, de acuerdo con ciertas reglas. Si dos personas quieren conversar inteligentemente tienen que ponerse de acuerdo acerca del significado de los símbolos que utilizan (palabras o cualesquiera otros) y sus comentarios han de tener sentido en función de ese significado.
Todas las preguntas que no tengan sentido en función de las definiciones convenidas se las echa fuera de casa. No hay respuesta porque la pregunta no ha debido ser formulada.
Supongamos por ejemplo que pregunto: "¿Cuánto pesa la justicia?" (Quizá esté pensando en la estatua de la justicia con la balanza en la mano).
Pero el peso es una propiedad de la masa, y sólo tienen masa las cosas materiales. (De hecho, la definición más simple de materia es "aquello que tiene masa".)
La justicia no es una cosa material, sino una abstracción. Por definición, la masa no es una de sus propiedades, y preguntar por el peso de la justicia es formular una pregunta sin sentido. No existe respuesta.
Por otro lado, mediante una serie de manipulaciones algebraicas muy simples es posible demostrar que 1 = 2. Lo malo es que en el curso de la demostración hay que dividir por cero. A fin de evitar una igualdad tan inconveniente (por no hablar de otras muchas demostraciones que destruirían la utilidad de las matemáticas), los matemáticos han decidido excluir la división por cero en cualquier operación matemática. Así pues, la pregunta "¿cuánto vale la fracción 2/0?" viola las reglas del juego y carece de sentido. No precisa de respuesta.
Ahora ya estamos listos para vérnoslas con esa fuerza irresistible y ese cuerpo inamovible.
Una "fuerza irresistible" es, por definición (si queremos que las palabras tengan significado), una fuerza que no puede ser resistida; una fuerza que moverá o destruirá cualquier cuerpo que encuentre, por grande que sea, sin debilitarse ni desviarse perceptiblemente. En un universo que contiene una fuerza irresistible no puede haber ningún cuerpo inamovible, pues acabamos de definir esa fuerza irresistible como una fuerza capaz de mover cualquier cosa.
Un "cuerpo inamovible" es, por definición (si queremos que las palabras tengan algún significado), un cuerpo que no puede ser movido; un cuerpo que absorberá cualquier fuerza que encuentre, por muy grande que sea, sin cambiar ni sufrir daños perceptibles en el encuentro. En un universo que contiene un cuerpo inamovible no puede haber ninguna fuerza irresistible porque acabamos de definir ese cuerpo inamovible como un cuerpo capaz de resistir cualquier fuerza.
Si formulamos una pregunta que implique la existencia simultánea de una fuerza irresistible y de un cuerpo inamovible, estamos violando las definiciones implicadas por las frases mismas. Las reglas del juego de la razón no lo permiten. Así pues, la pregunta "¿Qué ocurriría si una fuerza irresistible se enfrentase con un cuerpo inamovible?" carece de sentido y no precisa de respuesta.
El lector quizá se pregunte si es posible construir las definiciones de modo que no quepa formular preguntas incontestables. La respuesta es que no, como ya expliqué en la Pregunta 4.
8.-¿Cuántas partículas hay en el universo?
En realidad no hay una respuesta concreta a esta pregunta, porque de entrada no sabemos cómo es de grande el universo. Sin embargo hagamos algunas hipótesis.
Uno de los cálculos es que hay unas 100.000.000.000 (ó 1011 , un 1 seguido de 11 ceros) de galaxias en el universo. Cada una de estas galaxias tiene por término medio una masa 100.000.000.000 (ó 1011 ) mayor que la del Sol.
Quiere decirse que la cantidad total de materia en el universo es igual a 1011 x 1011 ó 1022 veces la masa del Sol. Dicho con otras palabras, en el universo hay materia suficiente para hacer 10.000.000.000.000.000.000.000 (diez mil trillones) de soles como el nuestro.
La masa del Sol es de 2 x 1033 gramos. Esto significa que la cantidad total de materia en el universo tiene una masa de 1022 x 2 x 1033 gramos. Lo cual puede escribirse como
20.000.000.000.000.000.000.000.000.000.000.000.000.000.000. 000.000.000.000.
Dicho con palabras, veinte nonillones.
Procedamos ahora desde el otro extremo. La masa del universo está concentrada casi por entero en los nucleones que contiene. (Los nucleones son las partículas que constituyen los componentes principales del núcleo atómico.) Los nucleones son cosas diminutas y hacen falta 6 x 1023 de ellos para juntar una masa de 1 gramo.
Pues bien, si 6 x 1023 nucleones hacen 1 gramo y si hay 2 x 1055 gramos en el universo, entonces el número total de nucleones en el universo es 6 x 1023 x 2 x 1055 ó 12 x 1078 , que de manera más convencional se escribiría 1,2 x 1079 .
Los astrónomos opinan que el noventa por ciento de los átomos del universo son hidrógeno, el 9 por ciento es helio y el uno por ciento son elementos más complicados. Una muestra típica de 100 átomos consistiría entonces en 90 átomos de hidrógeno, 9 átomos de helio y 1 átomo de oxígeno (por ejemplo). Los núcleos de los átomos de hidrógeno contendrían 1 nucleón cada uno: 1 protón. Los núcleos de los átomos de helio contendrían 4 nucleones cada uno: 2 protones y 2 neutrones. El núcleo del átomo de oxígeno contendría 16 nucleones: 8 protones y 8 neutrones.
Los cien átomos juntos contendrían, por tanto, 142 nucleones: 116 protones y 26 neutrones.
Existe una diferencia entre estos dos tipos de nucleones. El neutrón no tiene carga eléctrica y no es preciso considerar ninguna partícula que lo acompañe. Pero el protón tiene una carga eléctrica positiva y como el universo es, según se cree, eléctricamente neutro en su conjunto, tiene que existir un electrón (con una carga eléctrica negativa) por cada protón.
Así pues, por cada 142 nucleones hay 116 electrones (para compensar los 116 protones). Para mantener la proporción, los 1,2 x 1079 nucleones del universo tienen que ir acompañados de 1 x 1079 electrones. Sumando los nucleones y electrones, tenemos un número total de 2,2 x 1079 partículas de materia en el universo. Lo cual se puede escribir como
22.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000. 000.000.000.000.000.000.000.000.000.000.000 (ó 22 tredecillones).
Si el universo es mitad materia y mitad antimateria, entonces la mitad de esas partículas son antinucleones y antielectrones. Pero esto no afectaría al número total.
De las demás partículas, las únicas que existen en cantidades importantes en el universo son los fotones, los neutrinos y posiblemente los gravitones. Pero como son partículas sin masa no las contaré. Veintidós tredecíllones es después de todo suficiente y constituye un universo apreciable.
¿Por qué se habla de la "baja temperatura del espacio"? ¿Cómo puede tener el espacio vacío una temperatura?
Ni debería hablarse de "baja temperatura del espacio" ni puede el espacio vacío tener una temperatura. La temperatura es el contenido térmico medio por átomo de una cantidad de materia, y sólo la materia puede tener temperatura.
Supongamos que un cuerpo como la Luna flotase en el espacio, a años luz de la estrella más cercana. Si al principio la superficie está a 25º C, perdería continuamente calor por radiación, pero también lo ganaría de la radiación de las estrellas lejanas. Sin embargo, la radiación que llegaría hasta ella desde las estrellas sería tan pequeña, que no compensaría la pérdida ocasionada por su propia radiación, y la temperatura de la superficie comenzaría a bajar al instante.
A medida que la temperatura de la superficie lunar bajase iría decreciendo el ritmo de pérdida de calor por radiación, hasta que finalmente, cuando la temperatura fuese suficientemente baja, la pérdida por radiación sería lo suficientemente pequeña como para ser compensada por la absorción de la radiación de las lejanas estrellas. En ese momento, la temperatura de la superficie lunar sería realmente baja: ligeramente superior al cero absoluto.
Esta baja temperatura de la superficie lunar, lejos de las estrellas, es un ejemplo de lo que la gente quiere decir cuando habla de la "baja temperatura del espacio".
En realidad, la Luna no está lejos de todas las estrellas. Está bastante cerca, menos de 100 millones de millas, de una de ellas: el Sol. Si la Luna diese al Sol siempre la misma cara, esta cara iría absorbiendo calor solar hasta que su temperatura en el centro de la cara sobrepasara con mucho el punto de ebullición del agua. Sólo a esa temperatura tan alta estarían equilibrados el gran influjo solar y su propia pérdida por radiación.
El calor solar avanzaría muy despacio a través de la sustancia aislante de la Luna, de suerte que la cara opuesta recibiría muy poco calor y este poco lo radiaría al espacio. La cara nocturna se hallaría por tanto a la "baja temperatura del espacio".
Ahora bien, la Luna gira con respecto al Sol, de suerte que cualquier parte de la superficie recibe sólo el equivalente de dos semanas de luz solar de cada vez. Con este período de radiación tan limitado la temperatura superficial, de la Luna apenas alcanza el punto de ebullición del agua en algunos lugares. Durante la larga noche, la temperatura permanece nada menos que a 120º por encima del cero absoluto (más bien frío para nosotros) en todo momento, porque antes que siga bajando vuelve a salir el Sol.
La Tierra es un caso completamente diferente, debido a que tiene una atmósfera y océanos. El océano se traga el calor de manera mucho más eficaz que la roca desnuda y lo suelta más despacio. Actúa como un colchón térmico: su temperatura no sube tanto en presencia del Sol ni baja tampoco tanto, comparado con la Tierra, en ausencia suya. La Tierra gira además tan rápido, que en la mayor parte de su superficie el día y la noche sólo duran horas. Por otro lado, los vientos atmosféricos transportan el calor de la cara diurna a la nocturna y de los trópicos a los polos.
Todo esto hace que la Tierra esté sometida a una gama de temperaturas mucho más pequeñas que la Luna, pese a que ambos cuerpos distan lo mismo del Sol.
¿Qué le pasaría a una persona que se viera expuesta a las temperaturas subantárticas de la cara nocturna de la Luna? No tanto como uno diría. Aquí, en la Tierra, aun yendo abrigados con vestidos aislantes, el cuerpo humano pierde rápidamente calor, que se disipa en la atmósfera y sus vientos, que a su vez se encargan de llevárselo lejos. La situación en la Luna es muy diferente. Un hombre, enfundado en su traje y botas espaciales, experimentaría una pérdida muy escasa, ya fuese por conducción a la superficie o por convección al espacio vacío en ausencia de viento. Es como si se hallase dentro de un termo en el vacío y radiando sólo pequeñas cantidades de infrarrojos. El proceso de enfriamiento sería muy lento. Su cuerpo estaría produciendo naturalmente calor todo el tiempo, y es más probable que sintiese calor que no frío.
¿Qué es, en pocas palabras, la teoría de la relatividad de Einstein?
Según las leyes del movimiento establecidas por primera vez con detalle por Isaac Newton hacia 1680 - 1689, dos o más movimientos se suman de acuerdo con las reglas de la aritmética elemental. Supongamos que un tren pasa a nuestro lado a 20 kilómetros por hora y que un niño tira desde el tren una pelota a 20 kilómetros por hora en la dirección del movimiento del tren. Para el niño, que se mueve junto con el tren, la pelota se mueve a 20 kilómetros por hora. Pero para nosotros, el movimiento del tren y el de la pelota se suman, de modo que la pelota se moverá a la velocidad de 40 kilómetros por hora.
Como veis, no se puede hablar de la velocidad de la pelota a secas. Lo que cuenta es su velocidad con respecto a un observador particular. Cualquier teoría del movimiento que intente explicar la manera en que las velocidades (y fenómenos afines) parecen variar de un observador a otro sería una "teoría de la relatividad".
La teoría de la relatividad de Einstein nació del siguiente hecho: lo que funciona para pelotas tiradas desde un tren no funciona para la luz. En principio podría hacerse que la luz se propagara, o bien a favor del movimiento terrestre, o bien en contra de él. En el primer caso parecería viajar más rápido que en el segundo (de la misma manera que un avión viaja más aprisa, en relación con el suelo, cuando lleva viento de cola que cuando lo lleva de cara). Sin embargo, medidas muy cuidadosas demostraron que la velocidad de la luz nunca variaba, fuese cual fuese la naturaleza del movimiento de la fuente que emitía la luz.
Einstein dijo entonces: supongamos que cuando se mide la velocidad de la luz en el vacío, siempre resulta el mismo valor (unos 299.793 kilómetros por segundo), en cualesquiera circunstancias. ¿Cómo podemos disponer las leyes del universo para explicar esto?
Einstein encontró que para explicar la constancia de la velocidad de la luz había que aceptar una serie de fenómenos inesperados.
Halló que los objetos tenían que acortarse en la dirección del movimiento, tanto más cuanto mayor fuese su velocidad, hasta llegar finalmente a una longitud nula en el límite de la velocidad de la luz; que la masa de los objetos en movimiento tenía que aumentar con la velocidad, hasta hacerse infinita en el límite de la velocidad de la luz; que el paso del tiempo en un objeto en movimiento era cada vez más lento a medida que aumentaba la velocidad, hasta llegar a pararse en dicho límite; que la masa era equivalente a una cierta cantidad de energía y viceversa.
Todo esto lo elaboró en 1905 en la forma de la "teoría especial de la relatividad", que se ocupaba de cuerpos con velocidad constante. En 1915 extrajo consecuencias aún más sutiles para objetos con velocidad variable, incluyendo una descripción del comportamiento de los efectos gravitatorios. Era la "teoría general de la relatividad".
Los cambios predichos por Einstein sólo son notables a grandes velocidades. Tales velocidades han sido observadas entre las partículas subatómicas, viéndose que los cambios predichos por Einstein se daban realmente, y con gran exactitud. Es más, sí la teoría de la relatividad de Einstein fuese incorrecta, los aceleradores de partículas no podrían funcionar, las bombas atómicas no explotarían y habría ciertas observaciones astronómicas imposibles de hacer.
Pero a las velocidades corrientes, los cambios predichos son tan pequeños que pueden ignorarse. En estas circunstancias rige la aritmética elemental de las leyes de Newton; y como estamos acostumbrados al funcionamiento de estas leyes, nos parecen ya de "sentido común", mientras que la ley de Einstein se nos antoja "extraña".
¿De dónde vino el aire que respiramos?
La opinión de los astrónomos es que los planetas nacieron de torbellinos de gas y polvo, constituidos en general por los diversos elementos presentes, en proporciones correspondientes a su abundancia cósmica. Un 90% de los átomos eran hidrógeno y otro 9% helio. El resto incluía todos los demás elementos, principalmente neón, oxígeno, carbono, nitrógeno, carbón, azufre, silicio, magnesio, hierro y aluminio.
El globo sólido de la Tierra en sí nació de una mezcla rocosa de silicatos y sulfuros de magnesio, hierro y aluminio, cuyas moléculas se mantenían firmemente unidas por fuerzas químicas. El exceso de hierro fue hundiéndose lentamente a través de la roca y formó un núcleo metálico incandescente. Durante este proceso de aglomeración, la materia sólida de la Tierra atrapó una serie de materiales gaseosos y los retuvo en los vanos que quedaban entre las partículas sólidas o bien mediante uniones químicas débiles. Estos gases contendrían seguramente átomos de helio, neón y argón, que no se combinaron con nada; y átomos de hidrógeno, que o bien se combinaron entre sí por parejas para formar moléculas de hidrógeno (H2), o bien se combinaron con otros átomos: con oxígeno para formar agua (
¿Qué es el efecto "invernadero"?
Cuando decimos que un objeto es "transparente" porque podemos ver a través de él, no queremos necesariamente decir que lo puedan atravesar todos los tipos de luz. A través de un cristal rojo, por ejemplo, se puede ver, siendo, por tanto, transparente. Pero, en cambio, la luz azul no lo atraviesa. El vidrio ordinario es transparente para todos los colores de la luz, pero muy poco para la radiación ultravioleta y la infrarroja.
Pensad ahora en una casa de cristal al aire libre y a pleno sol. La luz visible del Sol atraviesa sin más el vidrio y es absorbida por los objetos que se hallen dentro de la casa. Como resultado de ello, dichos objetos se calientan, igual que se calientan los que están fuera, expuestos a la luz directa del Sol.
Los objetos calentados por la luz solar ceden de nuevo ese calor en forma de radiación. Pero como no están a la temperatura del Sol, no emiten luz visible, sino radiación infrarroja, que es mucho menos energética. Al cabo de un tiempo, ceden igual cantidad de energía en forma de infrarrojos que la que absorben en forma de luz solar, por lo cual su temperatura permanece constante (aunque, naturalmente, están más calientes que si no estuviesen expuestos a la acción directa del Sol).
Los objetos al aire libre no tienen dificultad alguna para deshacerse de la radiación infrarroja, pero el caso es muy distinto para los objetos situados al sol dentro de la casa de cristal. Sólo una parte pequeña de la radiación infrarroja que emiten logra traspasar el cristal. El resto se refleja en las paredes y va acumulándose en el interior. La temperatura de los objetos interiores sube mucho más que la de los exteriores. Y la temperatura del interior de la casa va aumentando hasta que la radiación infrarroja que se filtra por el vidrio es suficiente para establecer el equilibrio.
Esa es la razón por la que se pueden cultivar plantas dentro de un invernadero, pese a que la temperatura exterior bastaría para helarlas. El calor adicional que se acumula dentro del invernadero, gracias a que el vidrio es bastante transparente a la luz visible pero muy poco a los infrarrojos, es lo que se denomina "efecto invernadero".
La atmósfera terrestre consiste casi por entero en oxígeno, nitrógeno y argón. Estos gases son bastante transparentes tanto para la luz visible como para la clase de radiación infrarroja que emite la superficie terrestre cuando está caliente. Pero la atmósfera contiene también un 0,03% de anhídrido carbónico, que es transparente para la luz visible pero no demasiado para los infrarrojos. El anhídrido carbónico de la atmósfera actúa como el vidrio del invernadero.
Como la cantidad de anhídrido carbónico que hay en nuestra atmósfera es muy pequeña, el efecto es relativamente secundario. Aun así, la Tierra es un poco más caliente que en ausencia de anhídrido carbónico. Es más, si el contenido en anhídrido carbónico de la atmósfera fuese el doble, el efecto invernadero, ahora mayor, calentaría la Tierra un par de grados más, lo suficiente para provocar la descongelación gradual de los casquetes polares.
Un ejemplo de efecto invernadero a lo grande lo tenemos en Venus, cuya densa atmósfera parece consistir casi toda ella en anhídrido carbónico. Dada su mayor proximidad al Sol, los astrónomos esperaban que Venus fuese más caliente que la Tierra. Pero, ignorantes de la composición exacta de su atmósfera, no habían contado con el calentamiento adicional del efecto invernadero. Su sorpresa fue grande cuando comprobaron que la temperatura superficial de Venus estaba muy por encima del punto de ebullición del agua, cientos de grados más de lo que se esperaban.
Comments
Post a Comment