UNIDAD. ELEMENTOS DE FÍSICA CUÁNTICA.




Objetivos de la Unidad



- Conocer el fracaso de la Física Clásica a la hora de explicar fenómenos que parecían tener una relación inmediata con la constitución más elemental de la materia (radiación del cuerpo negro y espectros atómicos).
- Conocer el fracaso de la electrodinámica a la hora de explicar el efecto fotoeléctrico.
- Entender que los fracasos de la Física Clásica llevaban una revisión profunda de las leyes físicas y el nacimiento de la nueva física: la Física Cuántica.
- Describir de forma general los hechos más importantes que ayudaban al establecimiento de la física cuántica: radiación del cuerpo negro y la hipótesis de Planck, el efecto fotoeléctrico y la explicación de Einstein y los espectros atómicos y la explicación de Bohr.
- Conocer y entender el concepto de cuerpo negro, la ley de Stefan-Boltzman y la ley del desplazamiento de Wien.
- Conocer la hipótesis de Planck sobre la cuantización de la energía.
- Conocer las leyes experimentales del efecto fotoeléctrico y entender que no es posible interpretarlo dentro del marco de la Física Clásica.
- Entender la teoría de Einstein sobre el efecto fotoeléctrico.
- Conocer alguna de las aplicaciones del efecto fotoeléctrico.
- Entender el concepto de espectro y la incompatibilidad de la física clásica para explicar los espectros discretos.
- Asimilar el concepto de fotón como cuanto de energía.
- Completar el concepto de fotón como ente capaz de poseer cantidad de movimiento.
- Entender que los fotones no son partículas de luz y que la teoría cuántica de la luz no significa una vuelta a la teoría de Newton.
- Asimilar el carácter dual de la naturaleza de la luz y ver que esa dualidad radica en el intento de querer reducir su esencia a los conceptos, familiares en el mundo macroscópico, de onda y corpúsculo.
- Conocer la hipótesis de De Broglie para ver que la dualidad onda-corpúsculo se da también en las partículas materiales.
- Saber y comprender las relaciones de indeterminación de Heisenberg y comprender así que el concepto de trayectoria de un fotón carece de significado.
- Comprender que la luz o un haz de electrones ni son ondas ni son corpúsculos, sino entes cuya descripción exige un formalismo nuevo que es el que utiliza la mecánica cuántica mediante el uso de la función de onda.
- Conocer el carácter probabilístico de la función de onda.
- Entender el importante desarrollo científico y técnico que supuso la Física moderna.
- Resolver con corrección cuestiones y problemas relacionados con los contenidos explicados.
- Dominar las unidades correspondientes.


1. Introducción.



En la actualidad los descubrimientos en Física Cuántica se plasman en importantes adelantes tecnológicos en Electrónica, Medicina, Química, Óptica, Fotónica, etc… Así se habla de ingeniería cuántica (dopado de semiconductores, espectroscopia, microelectrónica, etc…), propiedades eléctricas y magnéticas de materiales, máseres y láseres, computación cuántica, nanotecnología, fluidos cuánticos, superconductividad, reacciones nucleares, energías alternativas…

Si bien es cierto que la Mecánica Cuántica es muy abstracta y compleja, no viene mal recordar que más del 25% del producto mundial bruto depende de nuestra comprensión de esta ciencia; donde haya un transistor, un láser, una resonancia magnética, ahí estará la presencia de la Mecánica Cuántica. Podemos decir que la Mecánica Cuántica y la Teoría de la Relatividad son nuestras mejores herramientas para entender los fenómenos de la Naturaleza y del Universo en general. Son desde luego esenciales para entender nuestro mundo a escala atómica y molecular, por un lado, y a escala planetaria, por otro. A pesar de este hecho irrefutable, la Mecánica Cuántica es desconocida para el público en general. Para el subconsciente popular, “cuántico” es sinónimo de complicado, incomprensible. En un artículo escrito con motivo del centenario, en el año 2000, de la explicación de Max Planck de la distribución de la energía en la radiación del cuerpo negro, el acontecimiento que marcó el inicio de la Teoría Cuántica, Rolf Tarrach (ex presidente del Consejo Superior de Investigaciones Científicas, CSIC) se preguntaba: “En este mundo ahogado en la información, ¿cómo es [posible] que casi nadie sepa casi nada de la revolución científica del siglo XX más profunda y más determinante de nuestro mundo actual? Quizá sea un problema de formación, o acaso de dificultad, pero es una pena que la sociedad no disfrute más con algo tan relevante para nuestra actualidad tecnológica y, a la vez, tan irreal, tan sorprendente y provocador como el mundo de los fenómenos cuánticos”.

La Teoría Cuántica ha permitido adelantos extraordinarios en nuestra comprensión de la Naturaleza, lo cual se ha plasmado en importantes avances en Electrónica, Física del Estado Sólido, Fotónica, etc… Los ordenadores, los móviles y los MP3 no podrían existir sin el desarrollo de la teoría microscópica de la conducción eléctrica, por ejemplo. En los últimos años se han ido desarrollando los mimbres de la denominada computación cuántica.

Mención especial merece la Química Cuántica, materia en la cual se especializan muchos químicos y físicos. En esta interfase entre la Química y la Física (Química Cuántica, Espectroscopia, Física Molecular, etc…) se tratan temas de interés físico, químico y biológico (fototerapia y fotoquimioterapia, reacciones de interés bioquímico, química atmosférica, catálisis, estado sólido, propiedades electrónicas y ópticas de compuestos orgánicos, magnetismo en materiales, etc…).

El paso de la Mecánica Clásica a la Mecánica Cuántica supone el paso del determinismo al probabilismo. La Mecánica Clásica es determinista: sólo es cuestión de conocer las condiciones iniciales del sistema físico y las leyes que regulan su evolución para poder prever su estado en cualquier instante. Pero esto sólo es cierto en el mundo macroscópico, dónde la Mecánica Clásica es una buena aproximación. En cambio, los átomos y las moléculas no tienen un comportamiento determinista. El mundo microscópico debe ser estudiado con la Mecánica Cuántica.

Podemos decir que la Mecánica Cuántica supone que toda la información acerca de las propiedades físicas de un sistema cuántico puede derivarse de una o varias funciones denominadas funciones de onda. Si en Mecánica Clásica el estado de un sistema lo especificamos conociendo la posición y la velocidad de cada partícula en algún instante de tiempo más la especificación de las fuerzas que actúan sobre las partículas, en Mecánica Cuántica se postula que el estado de un sistema queda descrito por una función de onda.

A finales del siglo XIX tres grandes ramas de conocimiento explicaban satisfactoriamente la mayor parte de fenómenos físicos conocidos, a saber:
  • La mecánica de Newton
  • La electrodinámica de Maxwell
  • La termodinámica de Clausius y Boltzmann


2. Antecedentes de la Física Cuántica.



Si bien a finales del siglo XIX se pensaba que toda la Física estaba ya descubierta, y de que sólo se trataba de ajustar las constantes básicas y refinar algunas explicaciones, existían ciertos fenómenos que no se podían explicar en el marco de la mecánica clásica, y fue necesario el desarrollo de la mecánica cuántica y la mecánica relativista para poder comprender mejor la Naturaleza y el Universo.

2.1. Radiación del cuerpo negro.



Una de las primeras indicaciones de que la evolución de la física no había ni mucho menos llegado a su apogeo surgió del estudio de la radiación del cuerpo negro: aquel que absorbe todas las radiaciones; en consecuencia, es también el emisor ideal.
A finales del siglo XIX se sabía que la radiación de un cuerpo negro seguía dos leyes:

Ley de Stefan-Boltzman:



Ley del desplazamiento de Wien:


Las observaciones experimentales no pudieron ser explicadas por la mecánica clásica. De acuerdo con las leyes en las que se creía en aquel tiempo, un cuerpo negro debería irradiar una gran cantidad de energía en la región de alta frecuencia del espectro (catástrofe ultravioleta). Considerando el campo electromagnético como un conjunto de osciladores de todas las frecuencias posibles, los osciladores de longitud de onda corta serían fuertemente excitados incluso a temperatura ambiente, con lo que los objetos fríos tendrían que irradiar en la región UV-VIS y resplandecer en la oscuridad, lo cual no tiene sentido. Primeramente Wien y posteriormente Rayleigh y Jean trataron de explicar (sin éxito) las observaciones experimentales.

cuan2.jpg
Densidad de energía monocromática (energía por unidad de volumen y unidad de frecuencia) de la radiación del cuerpo negroa una temperatura T.

Max Planck sugirió en 1900 que la radiación no podía ser emitida en cantidades arbitrarias, sino sólo en ciertos paquetes de energía o cuantos, convirtiéndose así en el pionero de la Mecánica Cuántica y llegando a su célebre fórmula para la energía de cada cuanto de radiación: E = h•f, siendo h la constante que hoy lleva su nombre (y que vale 6.6260775•10-34 J•s) y f la frecuencia.

La absorción y la emisión de radiación se asocia a la transición entre dos niveles diferentes de energía permitida del oscilador. Se gana o pierde una energía de magnitud hf, siendo f la frecuencia de la radiación absorbida o emitida. Aparece por vez primera una cuantización de la energía: La energía no se transfiere en forma continua, sino mediante cantidades discretas o cuantos de energía, que son proporcionales a la frecuencia de la radiación.

Éste es un concepto fundamental: dado un sistema físico, existen restricciones acerca de la energía que pueden tener sus diferentes estados. Aunque en el mundo cotidiano podemos suponer que la energía cinética de un coche puede adquirir cualquier valor posible, ya que puede avanzar a cualquier velocidad dentro de los límites que le impone su motor, esta aproximación no es válida en el mundo microscópico, cuando estudiamos átomos y moléculas.


cuan11.jpg
Placa en memoria de Planck en la Humboldt-Universität (Berlin).


2.2. El efecto fotoeléctrico. Teoría de Einstein.



El efecto fotoeléctrico consiste en la emisión de electrones de la superficie de un metal al hacer incidir un rayo de luz.

Heinrich Hertz observó durante el bienio 1886-1887 la descarga eléctrica entre dos electrodos cuando se recibían ondas electromagnéticas. Comprobó que la descarga se efectuaba más fácilmente si se iluminaba uno de los electrodos. Después descubrió que la luz más eficaz para producir este efecto era la ultravioleta. A partir de 1900 Lenard realizó estudios sistemáticos de este efecto, denominado efecto fotoeléctrico, y obtuvo las siguientes leyes empíricas:

a) No se detecta paso de corriente para cualquier tipo de luz; para un metal dado, la frecuencia de la luz debe sobrepasar un límite, llamado frecuencia umbral.
b) La fotocorriente depende de la tensión o voltaje aplicado V, de tal modo que si V crece la intensidad alcanza un límite constante o corriente de saturación, is.
c) Si V se hace negativo, la fotocorriente disminuye rápidamente y llega a anularse para V = - V0, tensión llamada potencial de corte. Si se repite el experimento con intensidades luminosas diferentes se comprueba que cuanto mayores son éstas mayor es la fotocorriente, pero en todos los casos ésta se anula para el potencial de corte.
d) La intensidad de saturación de la fotocorriente, is, es proporcional a la intensidad I de la luz incidente en la fotocélula.
e) La energía de los electrones arrancados al metal depende de la frecuencia de la luz incidente y de la propia naturaleza del metal.
f) Cuando el efecto se produce, lo hace instantáneamente, incluso para bajas intensidades luminosas.

En 1905 Einstein publicó un artículo en el que suponía que la energía de la luz estaba distribuida espacialmente de forma discontinua, formada por partículas independientes llamadas fotones, de energía E = h•f. Aunque otros fenómenos sólo se podían explicar entendiendo la luz como una onda continua, el efecto fotoeléctrico no puede ser explicado con un modelo ondulatorio , sino que hay que considerar que la luz está constituida por fotones. Así, cuando un fotón penetra en el material fotoeléctrico interacciona con un electrón y le transfiere su energía. Parte de la energía que adquiere el electrón sirve para separarlo de la sustancia, y el resto es su energía cinética cuando deja la superficie metálica. Este fenómeno no puede ser explicado con un modelo ondulatorio sino que, en su lugar, hay que utilizar un modelo cuántico en el que la radiación se contempla como un flujo de haces discretos de energía (fotones). Por ejemplo, los cálculos indican que ningún electrón podría adquirir la suficiente energía para su expulsión, si la radiación que impacta en la superficie se distribuyera uniformemente por toda la superficie del electrodo como sucede en el modelo ondulatorio; ni podría acumular tan rápidamente la energía suficiente para originar las corrientes casi instantáneas que se observan.

Se puede observar el efecto fotoeléctrico en cualquier laboratorio de física. Se suele emplear un metal electropositivo como cátodo (por ejemplo, el Cs o el K). Un cátodo es un electrodo (conductor metálico) que adquiere carga negativa y hacia él se dirigen los cationes. Por el contrario un ánodo es un electrodo positivo, esto es, aquél donde hay defecto de electrones al aplicarle un potencial, y hacia el mismo se dirigen los aniones. Como acabamos de decir, al iluminarlo con radiación de una frecuencia adecuada, f, se origina un flujo de electrones desde el cátodo hasta el ánodo: éste es el efecto fotoeléctrico, regido por la ecuación:



siendo m la masa del electrón, v la velocidad de los electrones emitidos y W es la función trabajo o trabajo mínimo necesario para arrancar un electrón del metal. Esto es, la función trabajo es la energía de ionización del metal.

cuan4.jpg
Efecto fotoeléctrico: Millikan demostró que una gráfica de V0·e en ordenadas frente a la frecuencia en abscisas daba lugar a una línea recta de pendiente exactamente igual a la constante de Planck fuera cual fuera el material utilizado en el experimento. Y el punto de corte de la recta con el eje de abscisas daba lugar a la frecuencia de corte, diferente de un metal a otro.

En defitiva, la energía incidente es igual a la energía umbral (o trabajo de extracción) más el trabajo para frenar la emisión. Las energías cinéticas máximas de los fotoelectrones se pueden determinar midiendo el potencial electrostático mínimo o de frenado V0 requerido para impedir el paso de corriente (potencial umbral). Éste corresponde al potencial en el que los electrones más energéticos procedentes del cátodo son repelidos por el ánodo. Dicho de otro modo:



Fijémonos en que la expresión de la izquierda no es más que la carga del electrón multiplicada por el potencial, esto es, la energía potencial eléctrica.


2.3. Los espectros atómicos. Explicación de Bohr.



La espectroscopia estudia la energía absorbida o emitida por un átomo o molécula cuando interacciona con el campo electromagnético de la radiación. La naturaleza y los fenómenos derivados de dicha interacción dependerán del tipo de radiación empleada, pero principalmente de la estructura atómica y molecular.

Un espectro atómico es el registro de la radiación emitida por un átomo cuando se hace pasar corriente eléctrica a través de un gas a presión muy baja. Al dispersar la radiación se produce un espectro discontinuo cuyas líneas se pueden recoger en una placa fotográfica. Cada línea corresponde a una emisión de energía E a una determinada frecuencia f, liberada por los electrones que previamente han sido excitados por la descarga eléctrica. La física clásica tenía dificultades para explicar los espectros discretos característicos de ciertos gases

En 1885 J. J. Balmer observó que las líneas del espectro visible de emisión del hidrógeno formaban una serie que parecía seguir una cierta secuencia. En 1908, Johannes R. Rydberg obtuvo empíricamente una expresión que justificaba la relación entre las distintas longitudes de onda de las líneas. Posteriormente T. Lyman, mediante espectrógrafos de mayor resolución, descubrió más líneas en la zona del ultravioleta. Parchen, Brackett y Pfund encontrarían nuevas líneas en la zona del infrarrojo. Todas las líneas encontradas se podían justificar mediante la expresión:



donde Rh es la denominada constante de Rydberg y n y n' son dos números enteros correspondientes a los estados más bajo y más alto entre los que tiene lugar la transición espectroscópica que da lugar a la emisión.

En otras palabras, la serie de Lyman se corresponde con las excitaciones 1-->2, 1-->3, 1-->4, etc. (que se encuentran en el ultravioleta), la serie de Balmer con las excitaciones 2-->3, 2-->4, 2-->5, etc. (que se hallan en el visible) y la serie de Paschen con las excitaciones 3-->4, 3-->5, 3-->6, etc. (que se hallan en el infrarrojo).

En 1913 Niels Bohr propuso un nuevo modelo atómico, mejor que el que habían propuesto años antes Thomson y Rutherford. Su gran error, no obstante, es que mezcló la Física Clásica con postulados cuánticos. No obstante, su modelo era capaz de justificar correctamente el espectro del átomo de hidrógeno (a excepción de la estructura hiperfina) y de los átomos hidrogenoides (especies con un solo electrón, como He+ o Li2+). El modelo de Bohr permitió obtener un valor teórico de las longitudes de onda de las líneas del espectro prácticamente igual al experimental, pero fracasó a la hora de explicar el espectro de átomos con más de un electrón.

Suponiendo que los electrones describían órbitas circulares estacionarias (sin emitir energía) y que no todas las órbitas estaban permitidas (introduciendo una expresión que cuantizaba el momento angular de las mismas), consideró que la energía liberada por un electrón al saltar de una órbita a otra se emitía en forma de fotones de frecuencia proporcional a la diferencia de energía entre las dos órbitas. Pese a las deficiencias de su modelo atómico quedaba patente que la Espectroscopia era una parte de la Mecánica Cuántica, y además introdujo otro postulado cuántico: el momento angular orbital del sistema está cuantizado, y sólo son posibles valores que sean múltiplos enteros de (h/2p). Bohr asumió también que la absorción y emisión de radiación implica transiciones de un estado cuántico del átomo a otro, cuya diferencia de energía ha de cumplir la relación:



A partir de esta relación se infiere que la emisión implica la producción de fotones de energía E = h•n, y que la absorción de un fotón sólo puede ocurrir si dicho fotón tiene una energía que se corresponde exactamente con la diferencia de energía de dos estados del átomo, DE, pasando el átomo a un estado excitado.

cuan6_.jpg
Diagrama de niveles de energía para el átomo de hidrógeno basado en el modelo de Bohr. Las series de Lyman caen en el ultravioleta, las de Balmer en el visible e infrarrojo cercano, y las de Parchen y Brackett en el infrarrojo.


Como conclusión a los resultados de estos tres experimentos, la antigua polémica sobre la naturaleza de la luz se zanjó considerando que presenta una naturaleza dual.


cuan10.jpg
Conmemoración en GOOGLE del 127º aniversario del nacimiento de Bohr (07/10/2012).



3. Dualidad onda-partícula. Hipótesis de De Broglie.



En 1924 el físico francés Louis de Broglie se preguntó si la naturaleza corpuscular de la luz (tal y como sugería Einstein al explicar el efecto fotoeléctrico) no implicaba un comportamiento recíproco por parte de las partículas, esto es, si los electrones y otras partículas exhibían naturaleza ondulatoria. Se percató de que todos los fenómenos naturales implican dos entidades: la materia (descrita por la Mecánica) y la radiación (descrita por el Electromagnetismo). De Broglie estudió las analogías existentes ente la mecánica clásica y la óptica geométrica, relacionando el comportamiento de las partículas con el principio de Fermat.

Por ejemplo, la trayectoria de una partícula es análoga al camino seguido por un rayo de luz, y el potencial de una partícula (función de la posición) es análogo al índice de refracción (también función de la posición). Es más, hay dos importantes principios en Mecánica y Óptica que son análogos: el principio de mínima acción y el principio de Fermat. Según el primero, entre todos los caminos posibles, con los mismos estados inicial y final fijos, el camino que sigue el sistema es aquél que hace la acción (integral a lo largo del camino de la función Lagrangiana) mínima. Este principio pone de manifiesto la íntima correspondencia entre el movimiento de un cuerpo material y el movimiento de un rayo de luz (recordemos el principio de Fermat), conectando la mecánica con la óptica. En cierto sentido, tanto el rayo de luz como el cuerpo material siguen el camino más “fácil” disponible.

Esto podía resolverse del mismo modo que con la luz, atribuyendo a la partícula una onda asociada: las ondas asociadas con la partícula explorarían todos los caminos posibles entre dos puntos, y sólo los correspondientes a la línea recta sufrirían interferencia constructiva. De Broglie mostró que las ondas que siguen la misma trayectoria que las partículas a las cuales están asociadas cumplen la relación de que su longitud de onda es igual al cociente entre la constante de Planck y el momento lineal de la partícula:



Esta ecuación es compatible con la naturaleza corpuscular de la luz (fotones) y también tiene en cuenta la cuantización del momento angular que aparece en el modelo de Bohr de un átomo monoelectrónico y, por ende, modifica el concepto arcaico de un electrón puramente corpuscular orbitando alrededor de un núcleo. La confirmación experimental de las ondas de materia de De Broglie fue proporcionada en 1927 por dos científicos de los Bell Laboratories, C. Davisson y L.H. Germer, al bombardear la superficie de un cristal de níquel con un haz de electrones y encontrar que estos eran difractados igual que los rayos X por la red cristalina. En el mismo año, G.P. Thomson descubrió el mismo fenómeno haciendo pasar un haz de electrones a través de una finísima lámina de oro.

La dualidad onda-partícula es un concepto de la mecánica cuántica según el cual no hay diferencias fundamentales entre partículas y ondas: las partículas pueden comportarse como ondas y viceversa.


4. Principio de Incertidumbre de Heisenberg.



Para medir una propiedad debemos interaccionar con el sistema que estamos midiendo. Y eso, inevitablemente, introduce un pequeño cambio en el sistema. Para medir la temperatura del agua caliente de una bañera introducimos un termómetro. Dado que el termómetro estará más frío, su presencia enfría un poco el agua. Si queremos medir la presión de un neumático, utilizamos una especie de barrita que es empujada hacia fuera por una cierta cantidad del aire que antes estaba en el neumático. Pero el hecho de que se escape un poco de aire significa que la presión ha disminuido un poco el mismo acto de medirla. No obstante, en el mundo macroscópico podemos ignorar estas pequeñas pérdidas asociadas al acto de la medida.

¿Qué ocurre en el mundo microscópico, donde esos “pequeños” cambios sí son significativos dado el tamaño de nuestro sistema? La pequeñez de un dispositivo de medida tiene un límite: podría ser tan pequeño como una partícula subatómica, pero no más; y podría utilizar tan sólo un cuanto de energía, pero no menos. Una sola partícula y un solo cuanto de energía son suficientes para introducir ciertos cambios en nuestro sistema.

Teniendo en cuenta la dualidad onda-partícula podemos representar una partícula como una superposición de ondas. Consideremos primero el caso de una única partícula, libre para moverse por cualquier lugar del espacio. Si la partícula no está localizada la podemos representar por una onda de longitud de onda, l. En este caso el momento de a partícula (p = h / l) es conocido de forma precisa, pero la posición x de la partícula es completamente desconocida (porque la función de onda es muy suave, no está claro dónde está el pico o máximo).

Ahora consideremos el caso opuesto: si empleamos una superposición de todas las posibles longitudes de onda entre 0 e infinito, las ondas pueden reforzarse a un valor definido de x y ser cero en cualquier otro lugar. En este caso la posición x es conocida exactamente (porque la función de onda de la partícula es un diente con un pico muy pronunciado y amplitud nula salvo en el lugar que ocupa la partícula), pero no sabemos nada del momento p ya que podríamos utilizar cualquiera de los valores de longitud de onda empleados para formar ese paquete de ondas (superposición de funciones de onda) que da lugar a ese pico. De hecho, una onda con un pico pronunciado no tiene una longitud de onda definida porque no es una onda extendida.

cuan7.jpg
Principio de Incertidumbre.

En el caso general, un número finito de ondas de longitud de onda variable son superpuestas para formar un pulso (un tren de ondas de longitud finita, cuya anchura sería Dx). Si queremos una amplitud nula fuera de la región del pulso es necesario que:



Y como se cumple que:




donde hemos tenido en cuenta el número de ondas en el pulso, la anchuna del pulso y la relación de De Broglie. Con lo que obtenemos la relación propuesta por Heisenberg, conocida como el principio de incertidumbre:



Este principio se enuncia así:

No podemos medir simultáneamente y con precisión la posición y el momento de una partícula.

Este límite en nuestro conocimiento no depende de la forma en que uno trata de medir la posición o la velocidad de la partícula, o del tipo de partícula: el Principio de Incertidumbre de Heisenberg es una propiedad fundamental, ineludible, del mundo.



5. Física Cuántica. Función de onda.



Uno de los grandes logros de Niels Bohr fue establecer el denominado Principio de Correspondencia, que reconoce que todas las leyes de la Mecánica Cuántica se pueden reducir a las ecuaciones de la Mecánica Clásica en el mundo macroscópico (esto es, bajo las condiciones en que la Mecánica Clásica es válida).

La existencia de ondas de materia sugirió la existencia de una ecuación de ondas que las describiera. Dicha ecuación fue propuesta por Erwin Schrödinger en 1926. Uno de los aspectos más destacados de esta ecuación es que conduce de forma natural a los números cuánticos. Schrödinger razonó que la característica más importante de las ondas es la interferencia, y pensó que era factible empezar con una ecuación de onda clásica e ir construyendo un puente que, comenzando con la Óptica Clásica, pudiese llegar a una Mecánica Ondulatoria capaz de describir los fenómenos cuánticos.


cuan8.jpg
La ecuación de Schrödinger como extensión de la analogía de De Broglie entre Óptica y Mecánica.


La ecuación de Schrödinger es una ecuación de valores propios de la forma:



El operador Hamiltoniano, H, es el operador asociado con la energía total del sistema. En mecánica cuántica cada observable (propiedad física medible) lleva asociado un operador (que no es nada más que un conjunto de operaciones matemáticas que transforman un vector o función en otro vector o función diferente: por ejemplo el operador "elevar al cuadrado" o el operador "multiplicar por 2x"; el operador Hamiltoniano es más complicado, porque es la suma de los operadores correspondeintes a las energías cinéticas y potenciales de núcleos y electrones). Las funciones de onda,Y, son las funciones propias del operador Hamiltoniano, y las energías correspondientes a estas funciones de onda, E, son sus valores propios.

La resolución de la ecuación de Schrödinger es la clave para entender los sistemas físicos y químicos.

La función de onda, por sí misma, no tiene significado físico. En cambio, su cuadrado, esto es, |Y(x,y,z,t)|2, es una función de distribución de probabilidad (o densidad de probabilidad) de que una partícula tenga una coordenada x entre x y x+dx, una coordenada y entre y e y+dy, y una coordenada z entre z y z+dz, en un tiempo t.

El cuadrado del módulo de la función de onda estima la probabilidad de que el electrón se encuentre en un determinado punto del espacio y estima también la densidad electrónica en un determinado punto del espacio. El cuadrado de la función de onda nos suministra una información estadística sobre la partícula. Ésta es la Interpretación Probabilística de la Mecánica Cuántica, propuesta en 1927 por Max Born. De acuerdo con la misma deberíamos renunciar a saber dónde está la partícula, pues la función de onda sólo nos proporciona la densidad de probabilidad de encontrarla en cada lugar del espacio. Esto unido al Principio de Incertidumbre muestra claramente cómo la versión planetaria del átomo, con electrones orbitando alrededor del núcleo en órbitas, adolece de falta de rigor. En aras de la claridad se sigue conservando esta imagen errónea, si bien debemos abandonar la idea de que el electrón ocupa una órbita, pues ello violaría el Principio de Incertidumbre. En cambio, el electrón se encuentra ocupando un determinado orbital o zona del espacio donde la probabilidad de encontrar el electrón es máxima.

Born había apreciado que, en términos de onda clásicos, la intensidad de la luz es proporcional al cuadrado de la amplitud de la onda electromagnética, mientras que en términos cuánticos de fotones la intensidad es proporcional a la probabilidad de hallar un fotón presente en una región del espacio. Si se duplica la amplitud de una onda de luz, su intensidad se cuadruplica y tenemos una probabilidad cuatro veces mayor de hallar un fotón presente una región particular. Y extendió este análisis a las funciones de onda: si una función de onda presenta el doble de amplitud en una ubicación que en otra, la probabilidad de hallar la partícula es cuatro veces mayor en la primera localización que en la segunda. Podemos concluir que cuando el cuadrado de una función de onda es grande, existe una gran probabilidad de hallar una partícula, y cuando es pequeño, la probabilidad es baja. Debe advertirse que esta interpretación significa que las regiones donde una función de onda tiene valor negativo tienen el mismo significado físico que una región donde es positiva, porque cuando tomamos el cuadrado de la función de onda, todas las regiones negativas se hacen también positivas. Dicho de otro modo:



cuan1.jpg
Función de onda.

En definitiva, podemos decir que:

Para todo sistema aislado existe una función matemática de las coordenadas espaciales y del tiempo que contiene toda la información del sistema.

Esta función matemática ha de cumplir ciertas propiedades algebraicas. No nos valdría, a priori, la función de onda de un alambre. En general, las ondas de materia de De Broglie son diferentes de las “ondas de Schrödinger”. Las ondas de De Broglie son tridimensionales, incluso para un sistema constituido por N partículas. En cambio, las ondas de Schrödinger son N-dimensionales. Las ondas de De Broglie constituyen una guía para el sistema, mientras que las ondas de Schrödinger son el sistema. La ecuación de Schrödinger nos informa sobre la curvatura de la función de onda. La curvatura es más pronunciada donde la energía cinética de la partícula es grande, y es menor donde dicha energía es baja. Por ejemplo, la función de onda del peso del extremo de un péndulo presenta una curva más pronunciada cerca del punto medio de su oscilación (donde se mueve más rápido) y presenta una mayor amplitud cerca de los puntos de giro o retorno (porque ahí se mueve más lentamente y es más probable encontrar ahí el peso).

La cuantización aparece de una forma interesante en el péndulo. En primer lugar, consideremos la función de onda para la localización del peso que se balancea con una energía definida con exactitud (pues está en un estado cuántico definido). La energía potencial aumenta cuando el peso se balancea a cada lado, por lo que su energía cinética disminuye para mantener constante la energía total, y desde la perspectiva clásica podemos esperar que las funciones de onda presenten su mayor amplitud en los extremos del balanceo donde el peso se queda más tiempo. Las únicas funciones de onda permitidas son las que encajan en el rango de valores permitidos del balanceo, de un punto de retorno al otro. Puesto que sólo algunas de las funciones de onda concebibles se comportan adecuadamente y cada una corresponde a una energía diferente, se infiere que sólo se permiten ciertos valores de la energía, separados unos de otros por una cantidad . Para un péndulo de 1 metro de longitud en la superficie terrestre, la frecuencia es de 0.5 Hz, por lo que la separación entre niveles es el orden de 3•10-34 J.

cuan9.jpg
Funciones de onda de un péndulo.


Estas funciones de onda pueden ser los orbitales que usamos para entender los procesos químicos. El concepto de orbital molecular es el más importante dentro del marco de la Química Cuántica contemporánea. Todo físico y todo químico tiene una idea intuitiva de lo que es un orbital, pero es un término difícil de definir. Sin embargo, es imprescindible entender este concepto. Casi todo nuestro conocimiento sobre “lo que hacen los electrones en las moléculas” está basada en el concepto de orbital molecular. Es más, la mayoría de los métodos computacionales empleados en la actualidad para el análisis de la estructura electrónica de las moléculas comienzan con un cálculo de los orbitales moleculares del sistema empleando métodos químico-cuánticos. El orbital molecular describe el “movimiento” de un electrón en el campo eléctrico generado por el núcleo y por una distribución promedio del resto de los electrones de la molécula. En su modelo más simple el OM está ocupado por cero, uno o dos electrones.

El electrón no puede ocupar por igual cualquier lugar del espacio en torno al núcleo, sino que tiene preferencia por unas determinadas regiones. Si pudiéramos tomar una serie de fotografías de un electrón a una energía dada, en su movimiento veríamos que en cada fotografía el electrón aparece como un pequeño punto. Al superponer todas las fotografías obtendríamos una nube tridimensional, que representa la probabilidad electrónica. En las zonas donde la nube sea más densa existe una mayor probabilidad de encontrar el electrón. Como la nube electrónica es difusa y no tiene límites definidos, se suele limitar por una superficie. En el volumen así encerrado existe la máxima probabilidad de encontrar el electrón. Esto es un orbital.
Ahora bien, debemos aplicar la Mecánica Cuántica para definir mejor lo que es un orbital. Un orbital viene definido por los valores de los números cuánticos n (número cuántico principal: tamaño del orbital; sus valores posibles son 0,1,2…), l (número cuántico secundario: forma del orbital: l = 0, 1, 2, 3 son respectivamente orbitales s, p, d y f; en general su rango de valores abarca entre 0 y n-1) y ml (número cuántico magnético: orientación en el espacio del orbital; sus valores son -l, -l+1, -l+2, ..., 0, ..., 1, 2, +l). Los números cuánticos imponen restricciones tanto a las funciones de onda como a los valores permitidos de la energía del electrón.

Para cada una de las combinaciones permitidas de estos tres números cuánticos existe una función de onda que es solución de la ecuación de Schrödinger.

El número cuántico secundario o azimutal también se denomina número cuántico del momento angular orbital, pues especifica el momento angular del electrón en su movimiento alrededor del núcleo. Los orbitales que pertenecen a una capa (designada por n) están agrupados en subcapas (designadas por l). Así tenemos orbitales 1s pero también 2s y 2p. Estos últimos pertenecen a la capa 2 pero a diferentes subcapas. Cada subcapa está a su vez formada por 2l+1 orbitales individuales, designados por el número cuántico magnético
ml. Verbigracia: para los orbitales de la capa p, con l=1, los valores posibles de ml son +1, 0 y -1, por lo que existen tres orbitales en esta subcapa p1, p0 y p-1. Es posible predecir la configuración electrónica de mínima energía de un átomo empleando el principio de construcción, teniendo en cuenta la energía cinética de los electrones, la fuerza con que el núcleo los atrae y la repulsión de los electrones entre sí. El principio especifica el orden en que deben ocuparse los orbitales a medida que se van añadiendo electrones de uno en uno, hasta completar los Z electrones presentes. En cada orbital sólo puede haber dos electrones con espines opuestos, de tal modo que no pueden existir dos electrones con los cuatro números cuánticos iguales: los tres que especifican el orbital y el cuarto que especifica el espín. El número cuántico de espín es una propiedad intrínseca del electrón que puede tomar los valores +1/2 o -1/2.

Los fermiones se caracterizan por presentar un espín semientero, y las bosones por presentar un espín entero. El espín es una propiedad que no tiene analogía clásica, y por consiguiente es difícil que nos la podamos imaginar. Nos basta con saber que el espín es un momento angular y, por ende, un vector. Desde luego, no se debe al giro del electrón sobre su propio eje, como se suele decir, como si de una peonza se tratase. La relación entre el límite superior del radio del electrón y la magnitud del momento magnético experimental hace imposible tal relación. El momento magnético es directamente proporcional al momento angular, y como el momento magnético experimental es muy elevado, consecuentemente el momento angular también debería serlo. Pero como la masa es constante y el radio de giro de un electrón sobre su propio eje es tan pequeño (es una partícula muy pequeña), para que el momento angular sea elevado la velocidad angular debería ser enorme, mayor incluso que la velocidad de la luz, lo cual es imposible. Además, nuestra noción de la rotación nos hace suponer que si giramos 360º volvemos a estar en nuestra posición inicial. Si estamos enfrente de una mesa y giro esa cantidad, volveré a estar de frente. Si giro 180º, estaré de espaldas a la mesa. Pues bien, para que un electrón (de espín ) regrese a una posición indistinguible de la inicial debe girar ¡¡720º!!. Por tanto, la definición simplista de que el espín se debe a un giro del electrón sobre su propio eje es absurda e incoherente. El espín es simplemente una propiedad más que nos permite definir una partícula, como la masa y la carga. Es más, como la Mecánica Cuántica nos dice que las partículas no tienen ningún eje definido, no podemos imaginar al electrón girando sobre su propio eje. El eje del espín no está orientado en ninguna dirección privilegiada.

Podemos definir un orbital como una función de onda monoelectrónica. Pero para describir completamente un electrón, también es necesario especificar su espín. El producto de una función espacial (orbital) por una función de espín (a o b) , según la orientación del vector) se denomina espín-orbital. Es decir, la función de onda ha de contener el espín, porque una partícula como el electrón no es descrita totalmente por sus coordenadas espaciales, también necesitamos conocer su espín. Otra condición que debe cumplir la función de onda es la antisimetría: una función de onda polielectrónica debe ser antisimétrica con respecto al intercambio de las coordenadas espaciales y de espín de dos electrones cualesquiera. Es decir:

Y(1,2) = - Y(2,1)

Este requerimiento, denominado principio de antisimetría, es una generalización del principio de exclusión de Pauli, por el cual no puede haber dos electrones con los cuatro números cuánticos iguales.

Una posible función de onda (muy simple, aunque no demasiado útil para estudios mecano-cuánticos precisos) es un determinante de Slater. Esta función debe cumplir, por tanto, tanto con el principio de antisimetría como con el hecho de que no puede haber dos electrones con los mismos números cuánticas, lo que es equivalente a decir que no puede haber dos electrones con espines paralelos en el mismo orbital. En un determinante de Slater, los electrones están distribuidos en espín-orbitales c (producto de la función de onda espacial por la función de espín). Este determinante de Slater tiene N electrones ocupando N espín-orbitales, sin especificar qué electrón ocupa cada orbital. En las filas del determinante tenemos los electrones y en las columnas, los espín-orbitales. Intercambiando las coordenadas de dos electrones implica permutar dos filas del determinante, con lo cual el determinante cambia de signo (principio de antisimetría). Si existieran dos electrones ocupando el mismo espín-orbital, dos columnas del determinante serían iguales, con lo cual el valor del determinante sería nulo (principio de exclusión de Pauli). Es decir, todos los espín-orbitales moleculares deben ser linealmente independientes.

El uso del determinante como generador de la función de ondas garantiza la antisimetría con respecto al intercambio de partículas así como la imposibilidad de que dos partículas estén en el mismo estado cuántico, aspecto crucial al tratar con fermiones.




El factor que multiplica al determinante es el factor de normalización, necesario para que la función de onda esté normalizada. Esto significa que que la probabilidad de encontrar la partícula en algún punto del espacio ha de ser igual a la unidad.





La mecánica cuántica es muy abstracta y compleja, pero no debemos olvidar que constituye la base
de los adelantos que disfrutamos en la actualidad: láseres, transistores, ordenadores, células solares, diodos emisores de luz... Esto no quita que el grado de abstracción de la mecánica cuántica sea elevado, así como sus interpretaciones.


Por ejemplo, imaginemos que tomamos un naipe con un borde impecable y lo colocamos en equilibrio sobre una mesa. Según la Física Clásica el naipe permanecerá en equilibrio indefinidamente. Según la ecuación de Schrödinger, caerá a los pocos segundos aunque esté perfectamente equilibrado, y lo hará en ambos sentidos, a derecha y a izquierda, en superposición. Si acometiéramos este experimento ideal con un naipe de verdad concluiríamos que la Física Clásica está equivocada y que el naipe cae; siempre lo veríamos caer al azar a la derecha o la izquierda, pero nunca en ambos sentidos a la vez, como pretende la ecuación de Schrödinger. ¿Cómo solucionar esta aparente paradoja? La Interpretación de Copenhague de la Mecánica Cuántica, que se fraguó en las discusiones mantenidas por Bohr y Heisenberg a finales de los años 20 del siglo XX, aborda este misterio a partir del carácter especial de las observaciones o las mediciones. Mientras no observamos el naipe en equilibrio, su función de onda evoluciona de acuerdo con la ecuación de Schrödinger; se trata de una evolución continua y natural que recibe el nombre matemático de “unitaria” y que tiene diversas propiedades interesantes. La evolución unitaria produce la superposición en la cual el naipe ha caído tanto a la izquierda como la derecha, pero el acto mismo de observarlo provoca un cambio brusco en la función de onda, lo que se conoce como un colapso: el observador ve el naipe en un estado clásico determinado (cara arriba o cara abajo) y a partir de ese momento sólo subsiste la parte correspondiente de la función de onda. Es como si la Naturaleza seleccionara un estado al azar, de acuerdo con las probabilidades que determina la función de onda.

Vamos a profundizar un poco más en el problema de la medida en Física Cuántica. La interpretación de Copenhague insiste en que un instrumento de medida actúa de forma clásica, pues debe representar el mundo cuántico en cantidades con las que nosotros, entes macroscópicos, podamos relacionarnos. Supongamos que tenemos un detector que emite una luz roja si un electrón está ausente, y verde si está presente. Un electrón es descrito mediante una función de onda que se extiende por el espacio y nos indica mediante su cuadrado la probabilidad de que el electrón se encuentre en cada punto del espacio. Si insertamos nuestro detector en la región donde sospechamos que está el electrón, es más probable que obtengamos una luz verde donde la función de onda es grande que donde es pequeña y el cuadrado de la función de onda nos indicará la probabilidad (por ejemplo, una vez cada diez intentos) de que obtengamos una luz verde. Si aparece una luz verde cuando encendemos el detector, sabemos con certeza que la partícula está en esa posición. Inmediatamente después de este suceso de detección, solo conocemos la probabilidad de que el electrón estuviera ahí. Así pues, en un sentido muy real, la función de onda se ha colapsado de su forma extendida a un pico muy agudo localizado en el detector. Es decir, el área subtendida bajo el pico de la banda, de la función matemática que representa la onda, ha disminuido enormemente. Este cambio en la función de onda como resultado de la investigación que emplea un aparato clásico se denomina colapso de la función de onda. Siempre que como observadores realizamos una observación, la función de onda se colapsa en una localización definida que corresponde a la lectura del detector macroscópico. Este hecho elimina el determinismo, puesto que no hay modo de predecir, antes de efectuar la medida, si la función de onda colapsará o no en un punto particular, pues todo lo que podemos hacer es calcular la probabilidad de que ello suceda.


Quizás se vea mejor esta cuestión con una fábula cuántica: la del famoso gato de Schrödinger. Schrödinger se imaginó un gato encerrado dentro de una caja opaca junto con un mecanismo de envenenamiento activado por descomposición radiactiva. La descomposición radiactiva es aleatoria, así que, para un intervalo determinado, es igual de probable que haya descomposición o no la haya. De la misma forma, según la Mecánica Cuántica, el estado del gato es una mezcla igual de sus estados vivo y muerto, esto es estado del gato = estado vivo + estado muerto. Esta suma es la análoga a la superposición de funciones de onda que empleamos para construir paquetes de ondas, con la única diferencia de que los estados superpuestos del impulso son los estados superpuestos del gato.

La descripción de estados como superposiciones nos impide predecir si en una observación posterior del gato obtendremos el resultado “vivo” o “muerto”. Tan pronto como abrimos la caja, descubrimos de inmediato si el gato está vivo o muerto, por lo cual, en cierto sentido, la función de onda del gato se colapsa en una u otra de las dos funciones de onda. Pero no sabemos en qué punto se colapsa la función de onda del gato: antes de abrir la caja, justo en el momento de abrirla, al ver al gato…, todo lo que nos proporciona la Mecánica Cuántica es especificar reglas para predecir las probabilidades de esos estados.

En resumen, el acto mismo de la medida interfiere en la naturaleza de tal modo que sólo podemos conocer algo por el modo en que interactúa con el detector. El detector, al interaccionar con el sistema en estudio, cambia sus propiedades (trayectoria, etc…). Sencillamente, la Naturaleza actúa de cierta forma, y según las leyes del universo cuántico, no podemos tener toda la información que desearíamos (principio de incertidumbre), no por impedimentos técnicos, no por necesitar mejores aparatos de medida, sino por un impedimento natural.

CUADERNO DE EJERCICIOS




MONOGRAFÍAS/TRABAJOS


Los trabajos podrán presentarse en cualquier formato. No obstante todos deberán incluir una presentación (PowerPoint, vídeo...) que permita su exposición en clase. Una vez entregados quedarán expuestos en el apartado MONOGRAFÍAS.

A continuación se proponen temáticas posibles relacionadas directamente con los criterios de evaluación.

A) TEMÁTICA 1:
Analizar el láser desde la naturaleza cuántica de la materia y de la luz, justificando su funcionamiento de manera sencilla, reconociendo su papel en la sociedad actual, y comparando las características de la radiación láser con las de la radiación térmica.