© The Nobel Foundation Por el desarrollo de una tecnología de alta presión totalmente nueva en la época, Carl Bosch recibiría el premio Nóbel de Química en 1931, pero tres hechos ensombrecieron esta distinción: Mittasch, su colega, fue injustamente olvidado; una década antes, el 21 de setiembre de 1921, una horrible explosión de una fábrica de amoníaco en Oppau del Rhin causó 561 muertos y dejó a 7.000 personas sin hogar; gracias a esta tecnología la Alemania de la Primera Guerra Mundial dispuso de la materia prima para la obtención de los explosivos nitrogenados.
© The Nobel Foundation Fritz Haber, Premio Nobel en 1919 por la síntesis del amoníaco, contribuyó como director del Instituto Kaiser Wilhelm, durante la primera Guerra Mundial, al desarrollo de armas químicas. En vísperas de la primera utilización del gas contra las tropas aliadas en 1915, su esposa atormentada por la horrorosa contribución de su marido a la guerra se suicidó. Irónicamente, con el arribo de los nazis al poder, por el origen judío de Haber, fue desplazado de la universidad y se refugió en Inglaterra. Murió poco tiempo después, en la miseria.
© The Nobel Foundation El mexicano – estadounidense, Mario J. Molina, Premio Nóbel de Química en 1995, confiesa en su autobiografía que durante sus primeros años en Berkeley sintió un profundo rechazo a la posibilidad de emplear los láser químicos de alta potencia para producir armas. Deseaba por entonces dedicarse a una investigación que fuera útil a la sociedad, y lo logró. El 28 de junio de 1974 publicó, junto a su asesor F. Sherwood Rowland, en la Revista Nature un primer informe alertando a la comunidad científica y a la opinión pública de los peligros en que se encontraba la capa estratosférica de ozono.
La lluvia natural contiene un considerable número de especies en disolución. Entre ellas se encuentran componentes de la atmósfera como el CO2 que le confieren un cierto grado de acidez. Pero el consumo de combustibles fósiles y en particular de carbón supone la incorporación de enormes cantidades de CO2 y de SO2 a la atmósfera así como de diferentes óxidos de nitrógeno NOx y de SH2. Estos compuestos en contacto con el vapor de agua forma oxiácidos que retornan a la superficie terrestre arrastrados por la lluvia. Se rompe un ciclo de precipitaciones asentado durante millones de años en la memoria geológica de la Tierra. ¿Detendremos estos comportamientos irresponsables?
© The Nobel Foundation Francis Aston fue invitado por J.J. Thomson a trabajar en el Laboratorio de Cavendish durante la primera década del XX. Con motivo de la primera Guerra Mundial se ve obligado a abandonar sus investigaciones fundamentales y no es hasta 1919 que se reincorpora al trabajo en Cambridge. En estos años desarrolla la espectrometría de masas y con su aplicación descubre más de 200 isótopos de ocurrencia natural. Harold C. Urey (1893 -1981) descubre en 1934 con ayuda de esta técnica el deuterio (el isótopo de masa doble del H). El deuterio es el elemento clave en la fabricación de las armas de fusión nuclear (la llamada bomba de hidrógeno).
© The Nobel Foundation Koichi Tanaka (1959- ), joven ingeniero de la Compañía japonesa Shimadzu Instrumental, reportó en 1987 una técnica totalmente diferente para salvar la primera etapa crítica. La propuesta de Tanaka consistió en someter la muestra en estado sólido o viscoso al bombardeo con rayos láser, lo que llamó deserción suave por láser (soft laser desortion, SLD). Cuando la muestra absorbe la energía de la pulsación láser “explota suavemente” en pequeños fragmentos. Las moléculas se liberan unas de otras quedando intactas como moléculas cargadas suspendidas que son aceleradas por un campo eléctrico en una cámara de vacío dónde el tiempo de vuelo (TOF, time of flight) es medido. Con el empleo de la técnica de Tanaka los tests para determinar diferentes enfermedades como la malaria y los cánceres de próstata y mama, se verifican con total fiabilidad en unos minutos..
© The Nobel Foundation El químico estadounidense Linus Pauling mereció el Premio Nobel en dos oportunidades, en 1954 por sus aportaciones trascendentes en el campo del enlace químico y en 1962 por su relevante labor en favor de la paz.
Henry Moseley (1887-1915), discípulo de Rutherford, desarrolló brillantemente la aplicación de los espectros de rayos X al estudio de la estructura atómica y arribó a una nueva formulación de la ley periódica de los elementos químicos 50 años después de Mendeleev. La carga nuclear y no la masa atómica era la propiedad clave para explicar la periodicidad de las propiedades de los elementos químicos. No había cumplido aún los treinta años cuando muere en los campos de batalla de la Primera Guerra Mundial, tras enrolarse en la Royal Army. Otra vez la guerra cegaba la vida de un científico. ¿Cuántas vidas irrepetibles se han perdido?
Procedencia de la imagen: Departamento de Física Universidad de Maryland www.physics.umd.edu/.../ Rutherford_Big.jpg
© The Nobel Foundation Frederic Joliot e Irene Curie constituyen una pareja que logra asaltar el olimpo de la ciencias. Comparten el premio Nóbel de Química de 1935 por el descubrimiento de la radioactividad artificial. Frederic merece algo más que la frase común de ser “un hombre de una intensa actividad pública”. Su adhesión a la heroica Resistencia francesa contra la ocupación nazi y su consagrada lucha por la paz, lo convierten en un paradigma de hombre de ciencias comprometido con las causas más nobles de su época.
Procedencia de la imagen: American Institute of Physics aip.org/history/newsletter/ spring2003/photos-larger.htm
En el otoño de 1907 empezó una fructífera colaboración entre Otto Hahn y Lise Meitner. Por entonces, Hahn laboraba en el Instituto Fischer de Berlín y para ingresar a Meitner, por su condición de mujer, tuvo que solicitar una autorización especial. Luego continuaron en el pequeño departamento de radiación del Instituto de Química de la Sociedad Kaiser Guillermo inaugurado en 1912, hasta 1938. Entonces por su origen judío, la austriaca Meitner, se vio obligada a emigrar a Suecia. El resto es conocido, Hahn descubre las condiciones en que el núcleo de uranio se escinde; la propia Meitner con su sobrino Otto Frisch, desde Estocolmo, se encargan de apoyarlo en la interpretación física del fenómeno. Pero Meitner, que acuño el término de ¨fisión nuclear¨, es despojada de todo reconocimiento sobre el fabuloso descubrimiento.
Desde 1942, Oppenheimer, físico norteamericano, de origen judío, actúa como director científico del proyecto Manhattan para la fabricación de la bomba atómica. Oppenheimer mostró una incuestionable capacidad de liderazgo en el círculo de científicos participantes del proyecto. Estimuló una atmósfera de confianza y respeto que produjo enormes progresos. Con consagración se mantuvo al frente del complejo proyecto, aunque su vida privada se resintió enormemente. Una vez detonada la bomba atómica sobre Japón declaró que la humanidad condenaría la fabricación de esta arma. Luego, aunque aceptó la dirección de la Comisión de Energía Atómica (CEA) de los EEUU, se opuso públicamente al nuevo plan para fabricar la bomba de Hidrógeno. En 1954, J. Edgar Hoover, director del FBI, redactó un informe para la Casa Blanca apoyando la acusación de que Oppenheimer era un "agente de espionaje". Por esta acusación el comité de seguridad de la CEA, aunque sin hallarlo culpable lo separó de toda participación en los nuevos proyectos investigativos.
La contribución de Glenn Seaborg al desarrollo de la radioquímica ha sido impresionante. Su equipo de investigación participó en el descubrimiento de 10 elementos transuránicos, entre ellos el plutonio, elemento esencial en la fisión nuclear. En 1942 del laboratorio de metalurgia de la Universidad de Chicago salió el Pu- 239 en cantidades suficientes para la fabricación de las bombas que se lanzarían sobre Hiroshima y Nagasaki. Una amplia variedad de radionúclidos empleados en la lucha contra el cáncer y otros fines médicos como el I-131 y el cobalto -60 fueron también "fabricados" por su equipo. Recientemente los descubridores del elemento 106 propusieron nombrarlo como Seaborgium.
|
Productos sintéticos para necesidades apremiantes Los primeros años del siglo apuntan a la conquista de productos sintéticos que traerían soluciones a problemas relacionados con la presión demográfica y al mismo tiempo conducirían a nuevos desafíos en las relaciones del hombre con la naturaleza. La producción de alimentos para una población mundial creciente, problema que se planteaba desde inicios del siglo, demandaba una revolución verde en los rendimientos agrícolas. Fertilizar adecuadamente las tierras era una exigencia y la reserva natural existente de sales nitrogenadas no permitía dar respuesta a esta necesidad. Así las cosas, la fijación del nitrógeno atmosférico mediante una adecuada transformación química se erigía como un problema de muy difícil realización. La síntesis del amoníaco, precursor de los fertilizantes nitrogenados, mediante la reacción entre el dinitrógeno y el dihidrógeno chocaba con dificultades prácticas. Fritz Haber, con la ayuda de su joven colaborador inglés Le Rossignol encontró en la primavera de 1909 las condiciones, en pequeña escala, para obtener poco más de una gota del amoniaco por minuto. Estos resultados experimentales fueron expuestos ante los dirigentes de la Badische Anilin und Soda Fabriken, la mayor empresa de productos químicos de la época. Los directivos de la sociedad Badische terminaron por apostar, sin límite de tiempo ni de crédito, a la solución del problema del escalado, confiando esta tarea a dos expertos en el escalado Carl Bosch y Aldwin Mittasch. Las perspectivas que alentaban el proyecto cubrían un doble propósito: la producción de abonos y de explosivos nitrogenados. Luego de cuatro años en que realizarían más de 10 000 pruebas de síntesis y evaluarían mas de 4 000 catalizadores en el laboratorio, Bosch y Mittasch levantaron la industria que producía unas mil veces la producción inicial de Haber, es decir unas cuatro toneladas de amoniaco diariamente. Hoy se produce más de cien mil veces esta cantidad de amoniaco pero el catalizador propuesto por Mittasch no ha podido ser superado en eficiencia y costo. Otro problema en el orden del día de las necesidades alimentarias del mundo lo era – y lo sigue siendo aún hoy- encontrar aquellas sustancias insecticidas que combatieran las plagas causantes de enormes pérdidas al arrasar cosechas enteras de las principales fuentes energéticas nutritivas de la población. En esta realidad se inserta la polémica página de la síntesis y aplicación de uno de los más potentes insecticidas fabricados por el hombre: el D.D.T. Existen los testimonios de que el dicoloro-difenil-tricloroetano fue sintetizado por primera vez en 1873, por un joven estudiante austríaco, Othmar Zeidler, pero el producto carece de interés hasta que el químico industrial suizo Paul Hermann Müller (1899 – 1965) descubre en 1936 la fuerte acción insecticida por contacto que exhibe y luego de cuatro años de intensa labor obtiene la patente industrial en 1940. Dos productos el Gesarol y el Niocide fueron comercializados a ambos lados del Atlántico al probar su eficaz acción en el combate del tifus, la malaria y en la agricultura. Müller recibe por este trabajo el premio Nóbel de Fisiología o Medicina en 1948. Décadas después se exigía el cese de su aplicación por el impacto global que había provocado en diferentes ecosistemas al reducir dramáticamente la población de insectos que se insertan en la cadena alimentaria de diferentes especies. A pesar del incuestionable valor social que presentan la síntesis industrial de fertilizantes nitrogenados y la producción de insecticidas, la evaluación del impacto que ha venido provocando su empleo irracional, promueve a partir de los años ochenta una corriente de pensamiento relacionada con las nociones de biocompatibilidad, fuentes renovables de recursos, y el desarrollo de una conciencia que reconoce la necesidad apremiante de una actuación más racional de convivencia con el entorno.
La Química del medioambiente En la década de los setenta, los científicos de la Universidad de California, Irvine, F. Sherwood (1927- ) y el mexicano – estadounidense Mario Molina (1943- ) determinaron, luego de un exhaustivo estudio, que los clorofluorcarbonos empleados masivamente como propulsores en todo tipo de “spray” y como refrigerantes, tienen potencial para destruir la capa de ozono. Y en efecto, en años recientes, se ha confirmado el enrarecimiento de la capa de ozono en diferentes latitudes del planeta. Este adelgazamiento ocasiona un aumento de los niveles de la radiación ultravioleta dura que penetra en la atmósfera e incide sobre la superficie del planeta. Esta radiación puede ser responsable del incremento de la frecuencia del cáncer en la piel observada en los países nórdicos desarrollados, así como de la disminución del plancton marino, primer eslabón en la cadena alimentaria de los peces. La importancia concedida a estos problemas por la comunidad científica se expresa en el premio Nóbel concedido de forma compartida a Sherwood, Molina y al químico holandés Paul Crutzen (1933- ) en 1995. Este último había predicho que el óxido de nitroso podría ser responsable de la destrucción del ozono estratosférico, participando en una reacción en cadena. A este problema se suma el peligroso deterioro causado por las lluvias ácidas que afectan diversas regiones del orbe. La primera señal de alarma seria se dio a comienzos del setenta cuando en Escocia se reportó precipitaciones con un índice de acidez comparable al del vinagre. El origen de las lluvias ácidas está directamente relacionado con la actividad industrial. Las investigaciones realizadas en los glaciares de Groenlandia demuestran inobjetablemente que hace unos 500 años el pH oscilaba entre 6 y 7 (el índice de acidez de una solución neutra se corresponde con un pH de 7), es decir a mitad del milenio anterior la lluvia era sólo ligeramente ácida. Hace aproximadamente 190 años se produce un descenso notable de este pH que se sitúa entre 5,8 y 6,0 lo que coincide con la revolución industrial, el advenimiento de la máquina de vapor de Watt y un aumento considerable en la combustión de diferentes carbones. Hacia 1955 el promedio del pH de la lluvia se desplaza hacia 5,6 lo que se califica de descenso espectacular lo que coincide con el no menos espectacular aumento de la actividad industrial en el mundo desarrollado de la postguerra. El mecanismo de formación de las lluvias ácidas se conoce desde 1975. La opinión pública ha sido informada. La voluntad política de los países con la máxima responsabilidad por este grave trastorno de un ciclo de precipitaciones que ha recibido la Tierra durante millones de años está preñada de fariseísmos. La comunidad científica viene gestando los contornos de una Química del Medio Ambiente, que exige del concurso de otras disciplinas de la Química, en particular de la Química de los radicales libres, la Cinética en cuanto demanda del desarrollo de nuevos sistemas catalíticos, y la intervención de las técnicas de análisis más refinadas y fiables. Será necesario un financiamiento y el desplazamiento de recursos para una política de monitoreo y de búsquedas de soluciones a los problemas industriales y de los equipos de transporte. El desarrollo del instrumental analítico Las potencialidades que brindan los espectros de difracción de rayos X fueron explotadas para la determinación de complejas estructuras cristalinas de compuestos biológicos. Un baluarte en la aplicación y desarrollo de estos métodos lo encontramos en el Laboratorio Cavendish de Cambridge. En este laboratorio se concentraron recursos materiales y capital humano que forjó una comunidad con un nivel de primera línea. Trascendentales revelaciones sobre la estructura y la síntesis de valiosos productos naturales vieron la luz en este grupo. En la década de los cincuenta, una contribución extraordinaria al campo del análisis estructural de las sustancias orgánicas fue realizada por el físico estadounidense Félix Bloch (1905 – 1983), premio Nóbel de Física en 1952, al desarrollar la Resonancia Magnética Nuclear. Pronto esta técnica se difundió por los laboratorios de investigación, contribuyendo de manera especial a este esfuerzo de expansión el también suizo Richard Ernst (1933 - ), premio Nóbel de Química en 1991, por el diseño y construcción de una nueva generación de equipos de alta resolución, y el desarrollo paralelo de la teoría para ampliar el alcance de su aplicación. Un nuevo salto se produciría durante la década de los ochenta cuando el químico suizo Kurt Wuthrich (1938- ), premio Nóbel de Química del 2002, desarrolló la idea sobre cómo extender la técnica de Resonancia Magnética Nuclear al estudio de las proteínas. En muchos aspectos el método de RMN complementa la cristalografía de rayos X, pero presenta la ventaja de estudiar la molécula gigante de la proteína en solución, es decir en un medio que se asemeja a cómo ella se encuentra y cómo funciona en el organismo viviente. Un ejemplo de la aplicación del método propuesto por Wuthrich para orientar las investigaciones clínicas la encontramos en el reciente estudio de las proteínas implicadas en un número de enfermedades peligrosas tales como “la enfermedad de las vacas locas”. Ahora la técnica de RMN puede también usarse para los estudios estructurales y dinámicos de otros biopolímeros tales como los ácidos nucleicos que dirigen el dominio de la información hereditaria. En la década del 30, el físico e ingeniero electrónico alemán Ernst A. Ruska (1906 – 1988), premio Nóbel de Física en 1986, elaboró los principios de funcionamiento y diseñó el primer microscopio electrónico. Al comienzo del 45, cerca de 35 instituciones científicas fueron equipadas con este equipo. Los modernos microscopios electrónicos capaces de ampliar la imagen del objeto unos dos millones de veces se fundamentan en las propuestas técnicas de Ruska. Una nueva generación de microscopios fue propuesta hacia la década de los sesenta, cuando el físico suizo H. Rohrer (1933- ), quien compartió el premio Nóbel de Física en 1986 con Ruska, desarrollara la técnica de microscopía electrónica de barrido por efecto túnel en el laboratorio IBM de Zurich. Con esta técnica se detectan imágenes con resolución atómica. Las posibilidades brindadas por la microscopía electrónica fueron aprovechadas para la obtención de imágenes tridimensionales de virus, proteínas y enzimas. En este propósito sobresale la obra de Aaron Klug (1926- ), biólogo molecular, lituano de nacimiento, surafricano por crianza, y británico según adopción, que mereció el Nóbel de Química en 1991. La espectrometría de masas es en la actualidad una de las más potentes técnicas analíticas con que cuenta el químico. El inicio de su aplicación data del registro de los espectros de masas de moléculas sencillas de bajo peso molecular obtenidas por J.J. Thomson en 1912. Los primeros prototipos de espectrógrafos, siguiendo los mismos principios básicos de los empleados hoy día fueron principalmente desarrollados por Francis W. Aston (1877 – 1945), quien descubrió un gran número de isótopos (elementos con igual carga nuclear pero que difieren en los índices de masas) y fue laureado por estas aportaciones con el premio Nóbel de Química de 1922. El equipo para obtener tales espectros debía ser capaz de: a) producir iones gaseosos a partir de las moléculas a investigar; b) separar estos iones de acuerdo con la relación carga : masa; y c) medir la abundancia relativa de cada ión. En la década del cuarenta ya se habían fabricado espectrógrafos para analizar sustancias orgánicas de peso molecular medio; a finales de los cincuenta se demostró el papel de los grupos funcionales sobre la fragmentación directa ampliándose la capacidad de los equipos para determinar estructuras orgánicas; y ya hacia los setenta el perfeccionamiento de los equipos alcanzaba una sensibilidad que permitía trabajar con masas de muestras del orden de una millonésima de gramo. Pero hasta esta altura la espectrometría de masas no servía para la determinación de estructuras de moléculas gigantes como lo son importantes biopolímeros. La primera etapa de la técnica exige el paso de las macromoléculas a la fase gaseosa lo cual implica la ocurrencia de indeseables transformaciones estructurales que empañaban los resultados. Dos investigadores en la década de los ochenta propusieron los procedimientos para burlar este obstáculo. El estadounidense John B. Fenn (1917- ) propuso dispersar la proteína bajo estudio en un solvente y luego atomizar la muestra sometiéndolas a un campo eléctrico. Cómo el solvente se evapora las microgotas se convierten en moléculas de las proteínas totalmente desnudas. El método se conoce como ionización por electrodispersión (en inglés se emplean las siglas ESI, correspondientes a electrospray ionization). La aplicación de la espectrometría de masa, sobre todo acoplada a la Cromatografía Gaseosa, técnica capaz de separar componentes de una muestra, se extiende en la actualidad al análisis de sustancias dopantes o drogas; el control de los alimentos; y los ensayos ultrarrápidos para determinar los niveles de contaminación ambiental.
Una ojeada al desarrollo de la teoría del enlace químico El descubrimiento de la estructura electrónica de los átomos, la descripción del modelo nuclear y de los estados estacionarios de los electrones en la envoltura atómica, y la formulación de una nueva ley periódica para las propiedades de los elementos químicos basada en la carga nuclear de los átomos, constituyeron premisas para penetrar en la naturaleza del enlace químico que esperaba por una coherente explicación desde mediados del siglo pasado. En 1916 se publican los trabajos del físico alemán W. Kossel (1888 -1956) y del químico físico de la Universidad de California G. N. Lewis (1876 – 1946) que presentaron una notable resonancia en el tratamiento posterior de este problema. Kossel desde la Universidad de Munich fue el primero en postular la posible transferencia electrónica desde un átomo electropositivo hacia otro electronegativo como mecanismo de formación del llamado enlace iónico, que supone su fortaleza por la fuerza electrostática desarrollada entre las especies cargadas con signo opuesto. La idea de la posible existencia de dos tipos de compuestos con enlaces polares y apolares expuesta inicialmente por Lewis en el 1916, fue complementada en los años siguientes cuando formula la tesis de que el enlace en las sustancias moleculares es el resultado del compartimiento de un par de electrones por parte de los átomos unidos, que expresan tendencia a alcanzar la configuración electrónica del gas noble que le sucede en la Tabla Periódica de los elementos (la famosa regla del octeto para la última capa de la envoltura atómica). Estos modelos, en sus aspectos cualitativos, llegan hasta nuestros días como un a primera visión acerca del enlace químico. Pero la necesaria profundización llegó a partir de 1927 cuando se introducen en el pensamiento químico las ideas de la mecánica cuántica. En 1927, un año después de la publicación del artículo de Schrödinger en el cual fue propuesta la ecuación de onda que lleva su nombre, el físico alemán W. Heitler (1905 – 1981) y F. London (1900 – 1954) desarrollaron el cálculo mecánico cuántico de la molécula de dihidrógeno, que dio una explicación cuantitativa del enlace químico. En esencia el cálculo vino a demostrar que durante el acercamiento de dos átomos con electrones de spines opuestos ocurre un aumento de la densidad de la nube electrónica en el espacio entre los núcleos, que se acompaña con una disminución considerable de la energía del sistema. Surge el enlace con la formación así de un sistema más estable. Comenzaría a desarrollarse un nuevo sistema de categorías para explicar las características del enlace químico. Algunos de los conceptos que emergen con un contenido cualitativamente distinto son los de orbital atómico y orbital molecular que ahora designan regiones que con determinada probabilidad se encuentra la nube de electrones; las nociones de energía de enlace para indicar su fortaleza, radio o distancia internuclear promedio para señalar las posiciones relativas de los núcleos, densidad electrónica relativa para denotar la existencia de los sitios activos responsables de la reactividad, y orden de enlace para advertir la multiplicidad que presentan los átomos al enlazarse. Las representaciones de Heitler y London sobre el mecanismo de la formación del enlace sirvieron de base para la explicación y el cálculo por aproximación del enlace en moléculas más complejas. Estas representaciones fueron desarrolladas por el método de enlaces de valencia o de pares electrónicos introducidos por los estadounidenses J. Slater (1900 – 1975) y L. Pauling (1901 -1994). La formación del enlace es comprendido como la cobertura de las funciones de ondas de los electrones en juego. La orientación espacial que adoptan estos enlaces y que determinan la forma geométrica de la molécula, obedece a la máxima posibilidad de sobreposición de las funciones de ondas que participan en la formación del enlace. Sobre la base de estos principios desarrollan la productiva teoría de hibridación de los orbitales atómicos que explica la capacidad de combinación mostrada por los átomos y la geometría que exhiben las moléculas. A pesar de la fertilidad mostrada por el método de los enlaces valentes, sus presupuestos fueron incapaces de dar explicación a determinados hechos experimentales como el paramagnetismo mostrado por el dioxígeno. Más fructífero para la explicación y el cálculo del enlace covalente resultó el método de orbitales moleculares elaborado en sus fundamentos por R. Millikan (1868 – 1953). Hay diversas variantes del método de orbitales moleculares. Mereció una especial atención la propuesta de E. Hückel ( (1896 - 1980) para las moléculas orgánicas, el llamado método de combinación lineal de los orbitales atómicos. Como resultado de la utilización de este método se formaron tres conceptos de gran significado en la química orgánica moderna, el orden de enlace, la densidad electrónica π y el índice de valencia libre. El desarrollo de la capacidad predictiva de ambas teorías del enlace químico no sólo han sustentado las propiedades de los nuevos materiales sintéticos sino que han orientado el diseño de complicadas estructuras moleculares en el campo de los complejos metal-orgánicos y de los polímeros biológicos abriendo paso a la compresión de los mecanismos, al nivel molecular, de los procesos que definen la génesis hereditaria y la inmunidad biológica y abren paso a nuevas conquistas de las Ciencias en el campo de la Biología Molecular y la Ingeniería Genética. La transmutación de los elementos: Radioactividad y fisión nuclear. El átomo indivisible había nacido en el ámbito químico mientras el mundo subatómico aparecía vinculado a la física contemporánea. De cualquier manera una enorme resonancia tendría sobre la Química el conocimiento de la estructura atómica. De hecho el trabajo conjunto de radioquímicos y físicos experimentadores condujo a relevantes descubrimientos sobre todo en el campo de la desintegración radiactiva. El descubrimiento del electrón y la radioactividad fueron prácticamente coincidentes en el tiempo. La práctica demostraba la complejidad del átomo, por lo menos los electrones y las partículas alfa (emitidas por los radioelementos) entraban en la estructura atómica. Casi desde estos primeros momentos comenzaron las tentativas por describir un modelo atómico. William Thomsom (Lord Kelvin) ya en 1902 concebía la carga positiva distribuida uniformemente por todo el átomo mientras los electrones en número que compensaba esta carga se encuentran en el interior de esta nube positiva. Un año más tarde, J.J Thomsom concibe a los electrones en movimiento dentro de la carga positiva distribuida en una esfera. Luego de otros intentos para describir un modelo que explicara el espectro de rayas y de bandas y el fenómeno de la radioactividad, aparece en 1911 la publicación del físico neozelandés Ernest Rutherford (1872 – 1937) “La dispersión por parte de la materia, de las partículas alfa y beta, y la estructura del átomo” en la que propone el modelo nuclear del átomo. Según Rutherford la carga positiva y la masa del átomo se confinan en una porción muy reducida, 104 veces menor que las dimensiones del átomo, mientras los electrones quedan alojados en una envoltura extranuclear difusa. La carga positiva nuclear es igual a Ze, siendo e, la carga del electrón y Z aproximadamente la mitad del peso atómico. Rutherford fue más allá y en diciembre de 1913 expone la hipótesis de que la carga nuclear es una constante fundamental que determina las propiedades químicas del átomo. Esta conjetura fue plenamente confirmada por su discípulo H. Moseley (1887 – 1915), quien demuestra experimentalmente la existencia en el átomo de una magnitud fundamental que se incrementa en una unidad al pasar al elemento siguiente en la Tabla Periódica. Esto puede explicarse si se admite que el número de orden del elemento en el sistema periódico, el número atómico, es igual a la carga nuclear. Durante este primer período la atención de la mayor parte de la vanguardia de los físicos teóricos se concentraba en extender los razonamientos cuánticos iniciados por Planck; mientras, la construcción de un modelo para el núcleo atómico era un problema relativamente relegado y frente al cual se levantaban enormes obstáculos teóricos y prácticos. Rutherford había sugerido desde sus primeras investigaciones que muy probablemente el núcleo estaría constituido por las partículas alfa emitidas durante la desintegración radioactiva. Ya para entonces el propio Rutherford había cuidadosamente comprobado que las partículas alfa correspondían a núcleos del Helio, es decir, partículas de carga +2 y masa 4. Otra línea de pensamiento conducía a suponer que los electrones (partículas beta) emitidos durante la desintegración radioactiva eran lanzados desde el mismo núcleo. Frederick Soddy (1877 –1956), uno de los primeros y más sobresalientes radioquímicos, premio Nobel en 1921, al pretender ubicar el creciente número de productos de la desintegración radioactiva en la Tabla Periódica colocó los elementos que mostraban propiedades químicas idénticas en la misma posición aunque presentaran diferentes masas atómicas. Al hacerlo estaba ignorando la ley de Mendeleev y modificando el propio concepto de elemento químico. Ahora surgía una nueva categoría para los átomos, el concepto de isótopos (del griego iso: único, topo: lugar). Poco después, el descubrimiento de Moseley apoyaría su decisión, al demostrar que la propiedad fundamental determinante de las propiedades químicas y de la propia identidad de los átomos era la carga nuclear. Con la Primera Guerra Mundial se levantaron obstáculos para el progreso de los estudios fundamentales recién iniciados, quedarían interrumpidos los intercambios científicos, detenidas las publicaciones, el campo de acción de las investigaciones desplazado a la práctica de la tecnología militar. Pero en Berlín una pareja de investigadores, Lise Meitner (1879 – 1968) y Otto Hahn (1878 – 1968), una física y un químico, venían investigando sobre el aislamiento y la identificación de radioelementos y de productos de la desintegración radioactiva. Ante el alistamiento de Hahn en el ejército para llevar a cabo estudios vinculados con la naciente guerra química, Meitner continúa las investigaciones y descubre en 1918 el protactinio. En 1919, Rutherford, que encabeza a partir de este año el laboratorio Cavendish en Cambridge, al estudiar el bombardeo con partículas alfa sobre átomos de nitrógeno, descubre la emisión de una nueva partícula, positiva, y evidentemente responsable de la carga nuclear del átomo. La existencia en el núcleo de partículas positivas y de los electrones emitidos como radiaciones beta, llevó a este relevante investigador a concebir una partícula que constituyese una formación neutral, un doblete comprendido como una unión estrecha de un protón y un electrón. Durante más de 10 años Rutherford y su principal asistente James Chadwick (1891 – 1974) intentaron en vano demostrar experimentalmente la existencia del neutrón. Las señales alentadoras vendrían de París, del laboratorio de los Joliot. Jean Frederick (1900 – 1958) e Irene Joliot- Curie (1897 – 1956) reportaron en 1932 que al bombardear con partículas alfa, provenientes de una fuente de polonio, átomos de berilio se producía una radiación de alto poder de penetración que ellos asociaron a rayos γ. Pero Chadwick no compartió este supuesto y procedió a verificar que estas partículas eran los escurridizos neutrones. Chadwick fue acreditado para la Historia como el descubridor de los neutrones. La nueva oportunidad que se les presentó dos años más tarde a los Joliot fue esta vez convenientemente aprovechada. Ellos encontraron que al bombardear aluminio con partículas alfa, la emisión de positrones continuaba después de retirar la fuente de plutonio, y además el blanco continuaba emitiendo conforme a la ley exponencial de la descomposición de radionúclidos. Se había descubierto la radioactividad artificial. Inmediatamente después del descubrimiento del neutrón, W.Heinseberg propone el modelo del núcleo del protón – neutrón. Conforme con este modelo los isótopos descubiertos por Soddy se distinguen sólo por el número de neutrones presentes en el núcleo. Este modelo se verificó minuciosamente y obtuvo una aprobación universal de la comunidad científica. Sin embargo numerosas interrogantes quedaban en pie, entre otras flotaba la pregunta: ¿de dónde proceden los electrones resultantes de la desintegración radiactiva? Para responder a esta pregunta el eminente físico teórico suizo Wolfgang Pauli (1900 – 1978) supuso, en el propio 1932, que durante la desintegración beta junto con los electrones se emite otra partícula que acompaña la conversión del neutrón en un protón y un electrón y que porta la energía correspondiente al defecto de masa observado según la ecuación relativista de Einstein. Lo trascendente en la hipótesis de Pauli es que semejante partícula, necesaria para que el proceso obedeciera la ley de conservación y transformación de la energía, no presentaba carga ni masa en reposo. Esta vez fueron 24 años, la espera necesaria para que la partícula postulada por Pauli y bautizada por Enrico Fermi (1901 - 1954) con el nombre de neutrino, fuera observada mediante experimentos indirectos conducidos de modo irrefutable por el físico norteamericano F. Reines (1918 - ). Con este descubrimiento se respaldaba la teoría desarrollada por Fermi sobre la desintegración beta y las llamadas fuerzas de interacción débil entre las partículas nucleares. Pero antes de esta espectacular verificación de la teoría, aún en la memorable y triste década de los 30, el propio Fermi y su grupo de la Universidad de Roma, inició el camino hacia la fisión nuclear, considerando por el contrario que se dirigía hacia el descubrimiento de nuevos elementos más pesados. En Berlín, un equipo de investigación compuesto por Otto Hahn, Fritz Strassmann y Lise Meitner, pretendió verificar los estudios del grupo de Roma e inició el bombardeo de átomos de uranio con neutrones, esperando poder descubrir nuevos elementos más pesados. En vez de esto, a finales de 1938, Hahn y Strassmann (la Meitner había sido clandestinamente sacada de Alemania ya que peligraba su integridad por su origen judío) descubren no un elemento más pesado como resultado del bombardeo nuclear del uranio sino un elemento más ligero, llamado bario. Sin poder darles una explicación, envían estos resultados inmediatamente a Meitner, entonces en Estocolmo, donde ella y su sobrino, el físico Otto Frisch (1904 – 1979), investigaron el misterio. Llegaron a la conclusión de que el núcleo del uranio, en vez de emitir una partícula o un pequeño grupo de partículas como se suponía, se rompía en dos fragmentes ligeros, cuyas masas, unidas, pesaban menos que el núcleo original del uranio. El defecto de masa, según la ecuación de Einstein, podía transformarse en energía. Dos años después, en la Universidad de Berkeley, California, un grupo de jóvenes científicos demostraron que algunos átomos de uranio, en vez de dividirse, absorbían los neutrones y se convertían en las sustancias que había predicho Fermi. Los investigadores de Berkeley, Edwin McMillan (1907 – 1991) y P.H. Abelson (1940- ) realizaron experimentos en los que obtuvieron un elemento que poseía un protón más que el uranio, de modo que su número atómico era 93. Se le llamó neptunio, por el planeta Neptuno, más allá de Urano. Luego, Glenn Seaborg (1912 – 1999) dirigió un colectivo del propio Berkeley, que demostró la conversión de los átomos de neptunio en un elemento cuyo número atómico era 94. Este elemento fue llamado plutonio recordando al último planeta de nuestro sistema solar. El primer isótopo descubierto fue el plutonio 238. Un segundo isótopo, el plutonio 239, resultó ser tres veces más fisionable que el uranio 235 (el material que finalmente se utilizó en la bomba de Hiroshima). En teoría, 300 gramos podían generar una carga explosiva equivalente a 20.000 toneladas de TNT. En octubre de 1942, un equipo de científicos dirigido por Fermi empezó a construir una pila atómica (uranio colocado entre ladrillos de grafito puro) bajo las gradas de un estadio en la Universidad de Chicago. La investigación formaba parte del proyecto Manhattan para la fabricación de la bomba atómica y pretendía demostrar que los neutrones liberados en la fisión de un átomo de uranio podían “disparar” un mecanismo en cadena que generaría una enorme cantidad de energía. La pila atómica de Fermi es precursora de los reactores termonucleares para generar energía eléctrica. Una nueva fuente energética plantearía nuevos desafíos. Nueve años después de inventada la pila atómica, y a seis años del holocausto de Hiroshima y Nagasaki, científicos estadounidenses emplearon por primera vez la tecnología nuclear para generar electricidad. En 1951, bajo la supervisión de la Comisión de Energía Atómica se iniciaron las pruebas del funcionamiento de un reactor nuclear experimental instalado en una central eléctrica construida por los Laboratorios Nacionales Argonne en Idaho. El reactor experimental produjo energía suficiente para poner en funcionamiento su propio sistema de puesta en marcha; como llegaría a ser común en todas las plantas de energía atómica, el calor del núcleo haría hervir agua y el vapor impulsaría una turbina. En 1954, los soviéticos abrieron la primera planta nuclear civil. Dos años después, los británicos inauguraron la segunda planta industrial. Pronto empezaron a
funcionar centrales nucleares en todo el mundo. A partir de ahora uno de los grandes retos de la civilización contemporánea será emplear racionalmente y orientar sobre una base ética las conquistas de las nuevas ciencias que se refunden e integran en medio de una revolución informática y de la Ingeniería Genética. ¿Seremos capaces de lograrlo? Tal vez una comprensión de la Historia, contribuya a proyectar correctamente el rumbo de nuestra nave planetaria hacia el futuro. |
BIBLIOGRAFÍA
Bosch Pedro y otros(1994): Pioneros de las Ciencias Nucleares. Fondo de Cultura Económica. México.
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/120/htm/pioneros.htm
IDEM: La fisión nuclear: Otto Hahn y la escuela alemana
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/120/htm/sec_8.htm
Carl Bosch Museum Heidelberg (1997): Section Biography.
http://www.museum.villa-bosch.de/englisch/station1.html
Figurovski N.A. (1989): 25. Direcciones fundamentales del desarrollo de la Química Orgánica en el siglo XX. Historia de la Química. Editorial Pueblo y Educación. La Habana.
IDEM: 26. Las direcciones del desarrollo de la Química – Física en el siglo XX.
García-Colin L., Mazari M., Moshnsky M. et al (1997): Niels Bohr: científico, filósofo, humanista. Fondo de Cultura Económica.
http://omega.ilce.edu.mx:3000/sites/ciencia/volumen1/ciencia2/14/htm/bohr.htm
Groom Charles (1996): La línea del tiempo de la física de partículas. Contemporary Physics Education Project.
http://particleadventure.org/particleadventure/spanish/history/mains.html