¿Qué es la mecánica cuántica?

la mecánica cuántica es la rama de la física relacionada con lo muy pequeño.

resulta en lo que puede parecer ser algunas conclusiones muy extrañas sobre el mundo físico. En la escala de átomos y electrones, muchas de las ecuaciones de la mecánica clásica, que describen cómo las cosas se mueven a velocidades y tamaños cotidianos, dejan de ser útiles. En la mecánica clásica, los objetos existen en un lugar específico en un momento específico., Sin embargo, en la mecánica cuántica, los objetos en cambio existen en una neblina de probabilidad; tienen una cierta posibilidad de estar en el punto a, otra posibilidad de estar en el punto B y así sucesivamente.

tres principios revolucionarios

la mecánica cuántica (MC) se desarrolló durante muchas décadas, comenzando como un conjunto de explicaciones matemáticas controvertidas de experimentos que la matemática de la mecánica clásica no podía explicar., Comenzó a principios del siglo XX, casi al mismo tiempo que Albert Einstein publicó su teoría de la relatividad, una revolución matemática separada en la física que describe el movimiento de las cosas a altas velocidades. Sin embargo, a diferencia de la relatividad, los orígenes de la MC no pueden atribuirse a ningún científico. Más bien, varios científicos contribuyeron a la fundación de tres principios revolucionarios que gradualmente ganaron aceptación y verificación experimental entre 1900 y 1930., Son:

propiedades cuantizadas: ciertas propiedades, como la posición, la velocidad y el color, a veces solo pueden ocurrir en cantidades específicas, establecidas, al igual que un dial que «hace clic» de número a número. Esto desafió una suposición fundamental de la mecánica clásica, que decía que tales propiedades deberían existir en un espectro liso y continuo. Para describir la idea de que algunas propiedades » hacen clic «como un dial con configuraciones específicas, los científicos acuñaron la palabra «cuantizado».»

partículas de luz: la luz a veces puede comportarse como una partícula., Esto fue recibido inicialmente con duras críticas, ya que iba en contra de 200 años de experimentos que mostraban que la luz se comportaba como una ola; al igual que las ondas en la superficie de un lago tranquilo. La luz se comporta de manera similar en que rebota en las paredes y se dobla alrededor de las esquinas, y que las crestas y valles de la ola pueden acumularse o cancelarse. Las crestas de onda añadidas dan como resultado una luz más brillante, mientras que las ondas que se cancelan producen oscuridad. Una fuente de luz puede considerarse como una bola en un palo que se sumerge rítmicamente en el Centro de un lago., El color emitido corresponde a la distancia entre las crestas, que está determinada por la velocidad del ritmo de la bola.

ondas de materia: la materia también puede comportarse como una onda. Esto iba en contra de los aproximadamente 30 años de experimentos que muestran que la materia (como los electrones) existe como partículas.

¿propiedades cuantizadas?

en 1900, el físico alemán Max Planck trató de explicar la distribución de los Colores emitidos sobre el espectro en el resplandor de los objetos al rojo vivo y al blanco caliente, como los filamentos de las bombillas., Al dar sentido físico a la ecuación que había derivado para describir esta distribución, Planck se dio cuenta de que implicaba que solo se emitían combinaciones de ciertos colores (aunque un gran número de ellos), específicamente aquellos que eran múltiplos de números enteros de algún valor base. De alguna manera, los colores fueron cuantificados! Esto fue inesperado porque se entendió que la luz actuaba como una onda, lo que significa que los valores de color debían ser un espectro continuo. ¿Qué podría estar prohibiendo a los átomos producir los colores entre estos múltiplos de números enteros?, Esto parecía tan extraño que Planck consideraba la cuantización como nada más que un truco matemático. Según Helge Kragh en su artículo de 2000 en la revista Physics World, «Max Planck, The Reluctant Revolutionary», » si una revolución ocurría en física en diciembre de 1900, nadie parecía notarla. Planck no fue una excepción

la ecuación de Planck también contenía un número que más tarde sería muy importante para el desarrollo futuro de QM; hoy en día, se conoce como «la constante de Planck.»

la cuantización ayudó a explicar otros misterios de la física., En 1907, Einstein usó la hipótesis de cuantización de Planck para explicar por qué la temperatura de un sólido cambiaba en diferentes cantidades si se ponía la misma cantidad de calor en el material pero se cambiaba la temperatura inicial.

desde principios de 1800, La Ciencia de la espectroscopia había demostrado que diferentes elementos emiten y absorben colores específicos de luz llamados «líneas espectrales».»Aunque la espectroscopia era un método confiable para determinar los elementos contenidos en objetos tales como estrellas distantes, los científicos estaban perplejos acerca de por qué cada elemento emitía esas líneas específicas en primer lugar., En 1888, Johannes Rydberg derivó una ecuación que describía las líneas espectrales emitidas por el hidrógeno, aunque nadie podía explicar por qué la ecuación funcionaba. Esto cambió en 1913 cuando Niels Bohr aplicó la hipótesis de cuantización de Planck al modelo «planetario» del átomo de Ernest Rutherford de 1911, que postulaba que los electrones orbitaban el núcleo de la misma manera que los planetas orbitaban el sol. Según Physics 2000 (un sitio de la Universidad de Colorado), Bohr propuso que los electrones estaban restringidos a órbitas «especiales» alrededor del núcleo de un átomo., Podían «saltar» entre órbitas especiales, y la energía producida por el salto causaba colores específicos de luz, observados como líneas espectrales. Aunque las propiedades cuantizadas se inventaron como un simple truco matemático, explicaron tanto que se convirtieron en el principio fundador de QM.

¿partículas de luz?

en 1905, Einstein publicó un artículo,» Concerning an Heuristic Point of View Toward the Emission and Transformation of Light», en el que imaginaba que la luz viajaba no como una onda, sino como una especie de «cuantos de energía».,»Este paquete de energía, sugirió Einstein, podría «ser absorbido o generado solo como un todo», específicamente cuando un átomo «salta» entre las tasas de vibración cuantizadas. Esto también se aplicaría, como se demostraría unos años más tarde, cuando un electrón «salta» entre órbitas cuantizadas. Bajo este modelo, el «quanta de energía» de Einstein contenía la diferencia de energía del salto; cuando se divide por la constante de Planck, esa diferencia de energía determina el color de la luz transportada por esos quanta.,

Con esta nueva forma de visualizar la luz, Einstein ofreció información sobre el comportamiento de nueve fenómenos diferentes, incluidos los colores específicos que Planck describió que se emitían desde un filamento de bombilla. También explicó cómo ciertos colores de luz podrían expulsar electrones de las superficies metálicas, un fenómeno conocido como el «efecto fotoeléctrico».»Sin embargo, Einstein no estaba totalmente justificado en dar este salto, dijo Stephen Klassen, Profesor Asociado de física en la Universidad de Winnipeg., En un artículo de 2008, «the Photoelectric Effect: Rehabilitating the Story for the Physics Classroom», Klassen afirma que los cuantos de energía de Einstein no son necesarios para explicar todos esos nueve fenómenos. Ciertos tratamientos matemáticos de la luz como onda todavía son capaces de describir tanto los colores específicos que Planck describió que se emitían desde un filamento de bombilla como el efecto fotoeléctrico., De hecho, en la polémica victoria de Einstein del Premio Nobel de 1921, El Comité Nobel solo reconoció» su descubrimiento de la ley del efecto fotoeléctrico», que específicamente no se basó en la noción de cuantos de energía.

aproximadamente dos décadas después del artículo de Einstein, el término «fotón» se popularizó para describir los cuantos de energía, gracias al trabajo de 1923 de Arthur Compton, quien mostró que la luz dispersada por un haz de electrones cambiaba de color. Esto mostró que las partículas de luz (fotones) estaban colisionando con partículas de materia (electrones), confirmando así la hipótesis de Einstein., Por ahora, estaba claro que la luz podía comportarse tanto como una onda como una partícula, colocando la «dualidad onda-partícula» de la luz en la base de QM.

¿ondas de materia?

desde el descubrimiento del electrón en 1896, la evidencia de que toda la materia existía en forma de partículas se estaba construyendo lentamente. Aún así, la demostración de la dualidad onda-partícula de la luz hizo que los científicos cuestionaran si la materia se limitaba a actuar solo como partículas. ¿Quizás la dualidad onda-partícula podría sonar verdadera para la materia también?, El primer científico en hacer progresos sustanciales con este razonamiento fue un físico francés llamado Louis De Broglie. En 1924, De Broglie usó las ecuaciones de la teoría de la relatividad especial de Einstein para mostrar que las partículas pueden exhibir características similares a las ondas, y que las ondas pueden exhibir características similares a las partículas. Luego, en 1925, dos científicos, trabajando independientemente y utilizando líneas separadas de pensamiento matemático, aplicaron el razonamiento de De Broglie para explicar cómo los electrones zumbaban alrededor de los átomos (un fenómeno que era inexplicable usando las ecuaciones de la mecánica clásica)., En Alemania, el físico Werner Heisenberg (en equipo con Max Born y Pascual Jordan) logró esto desarrollando «mecánica matricial». El físico austriaco Erwin Schrödinger desarrolló una teoría similar llamada «mecánica ondulatoria». Schrödinger demostró en 1926 que estos dos enfoques eran equivalentes (aunque el físico suizo Wolfgang Pauli envió un resultado no publicado a Jordan mostrando que la mecánica matricial era más completa).,

el modelo de Heisenberg-Schrödinger del átomo, en el que cada electrón actúa como una onda (a veces referida como una «nube») alrededor del núcleo de un átomo reemplazó al modelo de Rutherford-Bohr. Una estipulación del nuevo modelo era que los extremos de la onda que forma un electrón deben encontrarse. In » Quantum Mechanics in Chemistry, 3rd Ed.»(W. A. Benjamin, 1981), Melvin Hanna escribe, » la imposición de las condiciones de frontera ha restringido la energía a valores discretos.,»Una consecuencia de esta estipulación es que solo se permiten números enteros de crestas y valles, lo que explica por qué algunas propiedades se cuantizan. En el modelo Heisenberg-Schrödinger del átomo, los electrones obedecen a una » función de onda «y ocupan» orbitales » en lugar de órbitas. A diferencia de las órbitas circulares del modelo Rutherford-Bohr, los orbitales atómicos tienen una variedad de formas que van desde esferas hasta mancuernas y margaritas.,

en 1927, Walter Heitler y Fritz London desarrollaron la mecánica ondulatoria para mostrar cómo los orbitales atómicos podían combinarse para formar orbitales moleculares, mostrando efectivamente por qué los átomos se unen entre sí para formar moléculas. Este fue otro problema que había sido irresoluble utilizando la matemática de la mecánica clásica. Estas ideas dieron lugar al campo de la » química cuántica.»

el principio de incertidumbre

También en 1927, Heisenberg hizo otra importante contribución a la física cuántica., Razonó que dado que la materia actúa como ondas, algunas propiedades, como la posición y la velocidad de un electrón, son «complementarias», lo que significa que hay un límite (relacionado con la constante de Planck) a lo bien que se puede conocer la precisión de cada propiedad. Bajo lo que se llamaría el «principio de incertidumbre de Heisenberg», se razonó que cuanto más precisamente se conoce la posición de un electrón, menos precisamente se puede conocer su velocidad, y viceversa. Este principio de incertidumbre se aplica también a objetos de tamaño cotidiano, pero no se nota porque la falta de precisión es extraordinariamente pequeña., Según Dave Slaven de Morningside College (Sioux City, IA), si la velocidad de una pelota de béisbol se conoce dentro de una precisión de 0.1 mph, la precisión máxima a la que es posible saber la posición de la pelota es de 0.00000000000000000000008 milímetros.

hacia adelante

los principios de cuantización, dualidad onda-partícula y el principio de incertidumbre marcaron el comienzo de una nueva era para QM., En 1927, Paul Dirac aplicó una comprensión cuántica de los campos eléctricos y magnéticos para dar lugar al estudio de la «teoría cuántica de campos» (QFT), que trataba partículas (como fotones y electrones) como estados excitados de un campo físico subyacente. El trabajo en QFT continuó durante una década hasta que los científicos se toparon con un obstáculo: muchas ecuaciones en QFT dejaron de tener sentido físico porque produjeron resultados de infinito. Después de una década de estancamiento, Hans Bethe hizo un gran avance en 1947 utilizando una técnica llamada «renormalización».,»Aquí, Bethe se dio cuenta de que todos los resultados infinitos se relacionaban con dos fenómenos (específicamente «autoenergía de electrones» y «polarización del vacío») de tal manera que los valores observados de la masa de electrones y la carga de electrones podrían usarse para hacer desaparecer todos los infinitos.

desde el avance de la renormalización, QFT ha servido como la base para el desarrollo de teorías cuánticas sobre las cuatro fuerzas fundamentales de la naturaleza: 1) electromagnetismo, 2) la fuerza nuclear débil, 3) la fuerza nuclear fuerte y 4) gravedad., La Primera Visión proporcionada por QFT fue una descripción cuántica del electromagnetismo a través de la «electrodinámica cuántica» (QED), que avanzó a finales de la década de 1940 y principios de la década de 1950. luego fue una descripción cuántica de la fuerza nuclear débil, que se unificó con el electromagnetismo para construir la «teoría electrodébil» (EWT) a lo largo de la década de 1960. finalmente llegó un tratamiento cuántico de la fuerza nuclear fuerte utilizando la «cromodinámica cuántica» (QCD) en las décadas de 1960 y 1970. QED, EWT y QCD juntos forman la base del modelo estándar de física de partículas., Desafortunadamente, QFT aún no ha producido una teoría cuántica de la gravedad. Esa búsqueda continúa hoy en los estudios de la teoría de cuerdas y la gravedad cuántica de bucles.

Robert Coolman es un investigador graduado en la Universidad de Wisconsin-Madison, terminando su doctorado en Ingeniería Química. Escribe sobre matemáticas, ciencia y cómo interactúan con la historia. Sigue A Robert @ PrimeViridian. Síguenos en @ LiveScience, Facebook & Google+.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Ir a la barra de herramientas