Dr. José Manuel Nieto Jalil
Director del Departamento Regional de Ciencias en la Región Centro-Sur Tecnológico de Monterrey Campus Puebla
Los antiguos griegos llamaron átomo a las partículas de menor tamaño posible a las que se
pudiera llegar dividiendo la materia. Este concepto puramente teórico e impreciso logró
conservarse hasta mediados del siglo XIX, cuando se empezó a pensar que el átomo estaba
formado por otras partículas. Joseph John Thomson, científico británico, en 1887 descubrió
el electrón como partícula elemental con carga eléctrica negativa, que formaba parte del átomo.
Ernest Rutherford, físico neozelandés, dio un paso de gigante en 1911 cuando descubrió
el protón en el núcleo del átomo; por este descubrimiento recibió el Premio Nobel de Química.
Por su parte, Niels-Bohr, físico danés, perfeccionó el modelo atómico existente y lo describió como
un minisistema planetario, en el que los electrones negativos giraban alrededor del núcleo positivo.
La mecánica cuántica consolidó la idea que se tenía acerca del átomo. En 1928, el físico Paul Dirac hizo una extraordinaria predicción: todas y cada una de las partículas fundamentales del Universo tienen una antipartícula, un gemelo idéntico a ellas, pero con carga eléctrica opuesta. Cuando una partícula se encuentra con su antipartícula, ambas se aniquilan, produciendo un breve destello de energía.
Apenas unos años después, se descubrió la primera antipartícula de antimateria, el positrón (opuesta al electrón), y la antimateria pasó rápidamente a formar parte de la cultura popular. Por su parte, con la fisión del uranio se comienzan a explorar las piezas que resultan de la destrucción del átomo. Se descubren más y más partículas (hasta un parde centenas), dando origen a un caos que se ha calificado como el zoo de partículas.
Finalmente, el físico Murray Gell-Mann, aportó orden al caos que surgió al descubrirse cerca de 100 partículas en el interior del núcleo atómico. En la década de los sesenta, los científicos trataban de comprender cómo funcionaban los protones y los neutrones por dentro, y las teorías no terminaban de encajar. Por ejemplo, no entendían a qué se debían las enormes diferencias de masa entre las distintas partículas elementales. Por ejemplo, el quark cima (o quark t del inglés Quark Top, uno de los seis tipos que existen) es mucho más pesado que un electrón, su masa es 350 mil veces mayor.
En 1964 el físico británico Peter Higgs propuso, junto a otros colegas, una solución. Presentaron una teoría que aseguraba que todo el espacio está relleno de un campo que interacciona con las partículas elementales y es esto lo que les confiere masa. Según el modelo propuesto, esta partícula no posee espín, carga eléctrica o color, es muy inestable y se desintegra rápidamente: su vida media es del orden del zeptosegundo (mil trillonésimas parte de un segundo).
El Modelo Estándar de la Física de Partículas es una teoría relativista de campos cuánticos que describe la estructura fundamental de la materia y el vacío considerando las partículas elementales como entes irreducibles y es la mejor teoría que los físicos tienen actualmente para describir los bloques fundamentales del edificio del Universo. Es uno de los logros más grandes de la ciencia del siglo XX. En ella, las partículas se dividen en dos grandes grupos: las que tienen masa y las que transmiten alguna de las fuerzas de la naturaleza.
Las partículas con masa son las que forman los protones y neutrones del núcleo atómico y también forman los electrones que giran alrededor del núcleo. Las partículas transmisoras de fuerza no tienen, en principio, masa y su nombre genérico es el de bosones. La Gravedad está incluida solamente en el Modelo Estándar como hipótesis especulativa, pues los gravitones no se han observados directamente aún. Tras casi 50 años de búsqueda, en el 2012 fue encontrada la partícula de Higgs o partícula de Dios cerrando un capítulo importante en nuestra comprensión de la materia y las leyes que la gobiernan.
El Modelo Estándar ha demostrado una y otra vez, prueba tras prueba, sus bondades y su capacidad para explicar hasta el mínimo detalle todas las partículas y leyes que contiene. Pero resulta evidente que, de alguna forma que aún no comprendemos, se trata de una teoría incompleta Durante los últimos sesenta años, los físicos experimentales han estado utilizando las sucesivas generaciones de colisionadores para ratificar, o refutar, las predicciones del Modelo Estándar. En todas las ocasiones para los rangos concretos de energías de colisión surgían determinadas partículas subatómicas jamás vistas hasta ese momento. No importaba que fuera necesario esperar años, o décadas enteras, para ser capaces de construir el acelerador que se necesitaba. Al final, una vez tras otra, lo predicho por la gran teoría de la Física se terminaba cumpliendo casi a rajatabla.
Han pasado diez años, los físicos acapararon la atención del mundo entero de una forma que no se ha repetido.
El 4 de julio de 2012, un gigantesco equipo formado por 5 mil investigadores del mayor acelerador de partículas del mundo, el Gran Colisionador de Hadrones (LHC) de la Organización Europea para la Investigación Nuclear (CERN), anunció el descubrimiento del bosón de Higgs o la partícula de Dios, partícula que es considerada responsable de dar masa a todas las demás y sin ella el Universo no existiría tal y como lo conocemos.
Después de 3 años de paro del Gran Colisionador de Hadrones, debido entre otras cosas a los retrasos por la pandemia y a las actualizaciones y mantenimiento realizadas por parte de los científicos, el Gran Colisionador de Hadrones comenzará su tercera ronda de actividad. Con nuevos instrumentos y capacidades, este gran dispositivo tendrá como objetivo en los próximos tres años intentar explicar fenómenos de la física que aún no están claros. Para dar solución a este gran atolladero, actualmente los físicos de los aceleradores de partículas han empezado a considerar otros métodos y enfoques para dar con alguna pista que los lleve hasta esa nueva física.
Se trata, fundamentalmente, de una forma alternativa de buscar entre la enorme cantidad de datos creados por el colisionador, con la esperanza de que en alguna parte logre detectar un comportamiento anómalo que vaya más allá del Modelo Estándar.
Este nuevo tipo de búsquedas podrían alcanzar su pleno potencial cuando se incorporen a ella los cada vez más sofisticados algoritmos de inteligencia artificial.
Durante un experimento convencional, los aceleradores destruyen millones de protones por segundo, haciéndoles chocar a energías colosales para estudiar las partículas que surgen de su descomposición, que son registradas por los grandes detectores. Existe, sin embargo, la posibilidad de que haya partículas exóticas que produzcan firmas en las que nadie había pensado (y que no están, por lo tanto, incluidas en una teoría) y esas partículas tienen muchas más probabilidades de ser encontradas usando búsquedas generales, y no específicas.
El Modelo Estándar de la Física, la teoría que reúne a todos los componentes de la materia junto a las interacciones a las que están sometidos, en efecto, ha marcado nuestra comprensión del Universo durante más de medio siglo y es sin duda, una de las teorías más exitosas que existen, capaz de hacer predicciones extraordinariamente precisas. Sin embargo, pero no está exento de problemas ya deja sin explicar cuestiones importantes, entre ellas la gravedad, cuya partícula asociada, si es que existe, jamás ha sido descubierta, la materia y la energía oscuras o la inexplicable falta de antimateria en el Universo.