La teoría del todo

publicado en la revista «nexos»
# 392, agosto de 2010

 

Esta nota tiene por finalidad dar una idea, así sea algo pálida, de la constante revisión que la ciencia hace de sus más preciados modelos y de sus más sólidas convicciones. A algunos legos estas búsquedas de los científicos nos llevan a dudar acerca de la capacidad humana, cerebral, cognitiva, para alcanzar algún día el conocimiento total del universo.

Lo digo con un ejemplo que ya he usado: puedo distinguir la música que le gusta a un perro inteligente. Luego, con sencillas técnicas conductistas lo puedo entrenar a que reconozca el CD, lo saque y ponga (si adapto los controles de los aparatos para ser usados con sus patas). Pero nunca, nunca, nunca lograré explicarle que esa música es una 1) grabación 2) digital 3) leída por un 4) láser, esto es, por un 5) rayo de 6) luz, usualmente 7) monocromática y 8) coherente; es coherente la que tiene 9) ondas de idéntica 10) frecuencia, 11) fase y 12) polarización. A usted le bastará con buscar los términos en su Británica o googlearlos. El obstáculo es uno y uno solo: el cerebro del perro.

¿Por qué estamos previamente convencidos de que nuestro hardware (cerebro) y software (sistema cognitivo) son ante el universo mejores que los del perro ante un CD? En fin, no es sino otra forma de hacer referencia al Misterio y quien más concisamente lo expresó fue Leibnitz: ¿Por qué hay algo en vez de nada?

Desde el surgimiento de la ciencia, en la Jonia helénica del siglo VI antes de Cristo, el sueño humano ha sido explicar la Naturaleza, explicarlo todo: desde la caída de las piedras, la subida de las mareas, los terremotos, las estrellas y la vida: por qué las plantas, hongos y peces aumentan su número, pero no las piedras. Demócrito y Leucipo fueron de la idea, sin comprobación alguna, de que todo estaba compuesto de partículas minúsculas imposibles de dividir; de ahí su nombre: á-tomos: sin-división. Pero la mente humana se ha resistido desde entonces a ese concepto: si tengo algo muy pequeño siempre lo puedo partir a la mitad o no puedo por falta de medios, pero, en principio, es partible.

La humanidad debió esperar dos mil 500 años para toparse de nuevo con algo indivisible: el quántum propuesto por Planck en 1900 como simple artificio aritmético para que las cuentas de la energía le salieran correctas, pero remachado luego por Einstein, en 1905, al instalarlo en la luz, y por Bohr, quien lo llevó al interior del átomo. Éste había resultado divisible y compuesto: núcleo de protones y nube de electrones. Pero no era divisible la energía necesaria para que un electrón cambiara de nivel: cambia a saltos de quántum en quántum… sin pasar por los puntos intermedios. Lo cual horrorizó a Einstein, para quien lo instantáneo era inaceptable porque toda velocidad tiene por límite la de la luz. El átomo de Bohr, con sus electrones que cambian de nivel sin pasar por puntos intermedios, presentaba una catástrofe.

En 1927, la nueva física estaba casi terminada con las aportaciones del veinteañero Werner Heisenberg y de Erwin Schrödinger. En 1928, el inglés y también veinteañero Paul Dirac combinó la cuántica, recién nacida, con la relatividad planteada en 1905 por Einstein y el resultado fue una física cuántica relativista que se propuso, como los jonios dos y medio milenios antes, explicarlo todo, y eso significa todo. A ese modelo, perfeccionado a lo largo del siglo XX, lo llamamos Modelo Estándar… es una maravilla nunca antes igualada en la precisión de sus cálculos, pero hace agua por varios agujeros.

Uno, y no pequeño, es que exige algo tan inconcebible para la mente humana como la no divisibilidad: la no extensión, que el electrón sea absolutamente puntual, esto es, que pueda tener características tales como carga eléctrica, espín o giro, masa, pero no radio. Todo intento de dar un radio al electrón, así sea tan infinitesimal como se desee, acaba en un derrumbe de ecuaciones sin sentido. El electrón es perfectamente puntual o el Modelo Estándar deja de ser la más precisa aproximación a la naturaleza. De ahí el interés por someterlo a prueba y taponar las vías por donde hace agua.

La física clásica era determinista: conocido el estado presente de un sistema y las fuerzas externas “se podía predecir con cualquier nivel de exactitud, su evolución futura, o, alternativamente, extrapolar el pasado”, señalan Bogdan Mielnik y Óscar Rosas Ortiz, del Cinvestav, en Quantum Mechanical Laws. “El universo parecía como un enorme e infinitamente preciso reloj, en el que el estado del día de hoy se define, hasta el más pequeño detalle, por el estado de ayer…”. Con la mecánica de Newton es posible, conocida la posición de un planeta hoy, calcular la de mañana y la de hace un millón de años: nada más se adelanta o se atrasa la película.

Este modelo mecánico se vino al suelo con la nueva física. Pero “debemos recordar que el Modelo Estándar no es una teoría final de todos los fenómenos y que es incompleto de forma inherente”, dice Dmitry Budker, del Lawrence Berkeley National Laboratory, autor con Valery Yashchuk y Damon English del reporte acerca del comportamiento de las partículas a escala atómica que el 25 de junio pasado publicó Physical Review Letters. “Pusimos a prueba uno de los pilares mayores de la teoría cuántica de campo” (la cuántica más la relatividad propuesta por Dirac), dice English, ex alumno de Budker, y menciona el teorema según el cual todas las partículas fundamentales (electrón, quark, fotón, gluón y otras) deben poderse clasificar en una de dos familias: o son fermiones o son bosones, materia o energía simplificando de más, pues la regla no se aplica siempre.

Los fermiones (en honor al italiano Enrico Fermi) siguen el principio de exclusión de Pauli: no les gusta estar amontonados; los bosones (en honor al indio Satyendra Nath Bose) pueden ocupar el mismo estado cuántico en número indefinido, y esto hace posibles los rayos láser. Un ejemplo de fermión es el electrón; de bosón, el fotón. Pero en ese pandemónium de partículas, señala English, “la pregunta esencial que nos hacemos es si los fotones son en realidad bosones perfectos”.

¿Y eso qué? Sencillo: de no ser así, se afecta cuanto suponemos “acerca de la estructura del espacio-tiempo y hasta de la causalidad misma”, concluye English.

El experimento para responder esa pregunta, con rayos láser que excitan electrones en átomos de bario, es complejo en su descripción, pero English pone en pocas y sencillas palabras el objetivo: buscan “bosones que actúen como fermiones”. ¿Cómo ocurre que la unidad de luz, el fotón, actué como la unidad de materia, el electrón, y siga en ocasiones el principio de exclusión de Pauli y la sensatez aristotélica por la que dos cosas no pueden ocupar el mismo lugar? Que no lo siguen es prueba cualquier láser; pero las excepciones al comportamiento del fotón (que dos se comporten como electrones), son del orden de una ocasión en cien mil millones: de lejos, la prueba más sensible a bajas energías. “Un verdadero experimento hecho sobre una mesa”, enfatiza Budker, y capaz de hacer descubrimientos significativos en física de partículas sin gastar miles de millones de dólares.

“Seguimos buscando, porque las pruebas experimentales a cada vez mayor sensibilidad tienen por motivo la importancia fundamental de la estadística cuántica”, dice Budker. Hasta un replanteamiento del Modelo Estándar, quizás. Y en este caso, se están poniendo a prueba los supuestos básicos de las leyes fundamentales de la naturaleza.

Contacto: Paul Preuss, paul_preuss@lbl.gov DOE/Lawrence Berkeley National Laboratory.

 

la talacha fue realizada por: eltemibledani

0 animados a opinar:

 

 

ÍNDICE DEL BLOG

milenio diario

la crónica de hoy

la jornada

revistas

misceláneo

 

etiquetas:


pasaron por aquí


la plantilla de este blog es el "pizarrin" donde, durante sus ratos de ocio, eltemibledani hace sus pininos modificando el xhtml fuente.

páginas vistas

desquehacerados