Whisky Art

Estándar

149fc53d601El efecto Marangoni (también llamado efecto Gibbs-Marangoni) es la transferencia de materia en una interfase entre dos fluidos debido a un gradiente de tensión superficial. Una consecuencia de este efecto se puede ver en el fondo de un vaso de whisky usado vacío. Donde se puede contemplar los patrones complejos de flujos circulantes que dipositan diversos compuestos sólidos dentro del whisky con patrones peculiares.

El alcohol etílico de una gota de whisky con hielo, que en realidad es una mezcla binaria de alcohol etílico del wisky y el agua del hielo, se evapora rápidamente aumentando así la fracción de agua y cambiando la tensión superficial. Esto conlleva que tenga lugar el efecto Marangoni y se vea esos patrones peculiares (ver la foto de arriba).

Ernie Button es un fotografo de Phoenix, USA que aprovechando este efecto ha realizado experimentos con diferentes whiskies obteniendo unas fotografias espectáculares. Os dejo un ejemplo de éstas pero podréis ver más clicando aquí o a la foto de Ernie Button.

The Balvenie 140. Ernie Button

 Fuentes:

Dos investigadores del CSIC prueban una conjetura centenaria de Lord Kelvin

Estándar

Lord_Kelvin_photographEn 1875 Lord Kelvin, matemático y físico británico conocido por desarrollar la escala de temperatura Kelvin, planteó un enigma matemático que ha desafiado a la comunidad científica desde 140 años.

Con el fin de entender la estructura atómica de la materia, Lord Kelvin conjuró que en los fluidos estacionarios podrían aparecer tubos anudados, lo que aplicaba para explicar la composición de la materia: estaría formada por estas mismas estructuras en forma de lazo (los átomos) que flotaban en el éter. Los diferentes tipos de átomos vendrían determinados por variaciones en la geometría de los nudos. Kelvin hizo esta conjetura basándose en las observaciones de otro físico, James Clerk Maxwell, que ya identificó estas formas en el siglo XIX, pero Kelvin no logró demostrarlo, tan sólo pudo intuirlo.

Lo que se imaginó Kelvin, aunque su concepción atómica era errónea, si que se corresponde a la configuración de la materia fluida. Esto es lo que recientemente han probado, matemáticamente, dos investigadores del Consejo Superior de Investigaciones Científicas (CSIC), Alberto Enciso y Daniel Peralta, del Instituto de Ciencias Matemáticas (ICMAT): los fluidos en equilibrio, como el agua que fluye constante por una cañería, a los que se supondría un comportamiento simple, pueden esconder estructuras en forma de donut retorcido de manera compleja. Estas formas, conocidas como tubos de vorticidad anudados, se relacionan además con la turbulencia del fluido.

El problema de Kelvin aparece en el estudio de fluidos turbulentos y de los campos magnéticos responsables de las fulguraciones de las estrellas.

“En la superficie del Sol aparecen lenguas de plasma en forma de arcos, que son tubos de vorticidad … Los físicos ya habían observado estos fenómenos, pero nosotros hemos aportado información sólida: hemos probado que matemáticamente son posibles estructuras como las observadas y otras mucho más complicadas”, afirman Enciso y Peralta

“además de su interés en Física, esta cuestión ha ejercido una profunda influencia en varias áreas de las matemáticas puras, en particular impulsando el desarrollo de la llamada Teoría de Nudos” concluyen los dos investigadores.

O.V. (ElMundo)

Como os he comentado al principio, el primero en observar estas estructuras físicas fue James Clerk Maxwell en el siglo XIX, pero no fue hasta el año pasado cuando se obtuvieron resultados experimentales precisos. En el laboratorio Irvine del Instituto James Franck de la Universidad de Chicago consiguieron reproducir algunas de estas estructuras complejas en fluidos, lo que supone una confirmación experimental del trabajo de Enciso y Peralta.

Para resolver la conjetura de Lord Kelvin, los autores han tenido que desarrollar nuevas herramientas adaptadas a la dificultades del problema.

“Es una demostración muy sofisticada y ha requerido un detallado análisis de las ecuaciones de la mecánica de fluidos, empleando conceptos en los que hemos trabajado durante los últimos 10 años”, declaran.

El pasado octubre el trabajo de Enciso y Peralta fue aceptado para su publicación por la prestigiosa revista Acta Mathematica, publicada por el Instituto Mittag-Leffler de la Real Academia de Ciencias de Suecia. Los expertos consideran el resultado como un hito en el estudio de la geometría de los fluidos.

Fuentes:

  • Nota de prensa del CSIC
  • A. Enciso y D. Peralta-Salas, “Existence of knotted vortex tubes in steady Euler flows”, Acta Mathematica, en prensa. Preprint en arXiv:1210.6271.
  • A. Enciso y D. Peralta-Salas, “Knots and links in steady solutions of the Euler equation”, Annals of Mathematics 175 (2012) 345–367. doi:10.4007/annals.2012.175.1.9

Otras estequiometrías inesperadas

Estándar

En los post «Estequiometrías inesperadas del cloruro de sodio (NaCl)» y «Un poco más de estequiometrías inesperadas del NaCl» os hablaba de una serie de combinaciones atípicas entre el sodio (Na) y el cloro (Cl) a altas presiones. En la gráfica podéis ver el diagrama del sistema Na-Cl en función de la variación de la entalpía (ΔH, eV/átomo) a diversas presiones. Según la gráfica, son estables el Na, Cl y NaCl en todas las condiciones (las cruces verdes) pero también Na3Cl, NaCl3 (las cruces azules) Na2Cl, Na3Cl2, y NaCl7 (las cruces rojas) a presiones elevadas. La gráfica es artículo comentado en «Estequiometrías inesperadas del cloruro de sodio (NaCl)» y «Un poco más de estequiometrías inesperadas del NaCl» (aquí).

Recientes hallazgos del mismo grupo de investigación también se podría encontrar estructuras y compuestos atípicos estables en condiciones extremas en los sitemas de K-Cl (K3Cl, K2Cl, K3Cl2, K4Cl3, K5Cl4, K3Cl5, KCl3, KCl7) y Mg-O (MgO2 Y Mg3O2).

Fuentes:

El Material de Referencia conocido más pequeño jamás creado

Estándar

El National Institude of Standard and Technology (NIST)  es un laboratorio de estándares de medidión. Conocido, entre 1901 y 1988, como National Bureau of Standards (NBS). Suministra a la industria, Universidades, gobierno de US y a otros usuarios materiales de referencia estándard (Standard Reference Material, SRMs). Estos artefactos certificados tienen características específicas o componentes que son utilizados como patrones de calibración de equipos y procedimientos. Son punto de referencia de control de calidad para procesos industriales y muestras de control experimental de medición.

Recientemente el NIST ha publicado un material de referencia (RM) 8027, el material de referencia conocido más pequeño jamás creado para validar las mediciones de partículas ultrafinas hechas por el hombre entre 1 y 100 nanómetros (nm) de tamaño. RM 8027 consta de 5 ampollas herméticamente cerradas que contienen un mililitro de nanopartículas de silicio en suspensión en tolueno. Todos están certificadas para estar cerca de 2 nm de diámetro.

Las nanopartículas están grabadas de una oblea de silicio, es decir, de una hoja fina de un material semiconductor (el silicio) que actúan como sustrato para la fabricación, generalmente, de circuitos integrados y otros microcontroladores en electrónica. Posteriromente, son separadas por ultrasonidos y estabilizadas con un capa orgánica. El tamaño de partícula y la composición químicase determinan por dispersión dinámica de luz, centrifugación analítica, microscopía electrónica y espectrometría de masas de plasma acoplado inductivamente  (ICP-MS).

«Para cualquiera que trabaje con los nanomateriales de 5 ó menos  nanómetros, nuestras nanopartículas bien caracterizadas pueden garantizar la confianza de que sus medidas son exactas» dice Vytas Reipa, investigador químico de NIST y líder del equipo que desarrolló y caractetizó el RM 8027.

Las nanopartículas de silicio, como las de RM 8027, se están estudiando como materiales semiconductores alternativos para las células solares fotovoltaicas de última generación y la iluminación de estado sólido, y como un reemplazo para el carbono en los cátodos de baterías de litio. Otra aplicación potencial, viene del hecho de que los cristales de silicio en dimensiones de 5 o menos nanómetros  fluoresten bajo la luz ultravioleta. Debido a esta propiedad, las nanopartículas de silicio pueden servir algún día de «etiquetas» para el seguimiento de sustancias de tamaño nanométrico en los sistemas dinámicos biológicos, ambientales o de otro tipo.

 Fuentes:

Cada vez más dudas en el principio de todo

Estándar

A mediados de marzo científicos de EE.UU detectaron la primera evidencia de las ondas gravitacionales primordiales. Es decir, las ondulaciones que la inflacción generó en eel espacio hace 13,8 mil millones de años cuando el Universo empezó a expandirse y que podrían ser la primera evidencia directa de la inflacción cósmica ( momento histórico en el que, en menos de un segundo, el Universo pasó de ser un punto diminuto a convertirse en una inmensidad – Teoria del Big Bang-).

Albert Einstein predijo que cuando algo realmente violento tenia lugar, como la rápida expansión del Universo después del Big Bang, se creaban ondulaciones en el espacio-tiempo, ondas gravitacionales, que se propagaban a través del Universo comprimiendolo en una dirección y estirandolo en otras. Pero pensaba que estas serían tan débiles que nunca serían detectadas.

Según los autores, los cambios en la polarización de la radiación de fondo de microondas (el ruido de fondo dejado por el Big Bang en forma de partículas que aún pululan por el Universo) , que fueron detectados por el telescopio BICEP2, solo se podían explicar por la modificación causada por las ondas gravitacionales primordiales (aquí). Pero pronto fueron criticados y los propios autores reconocieron la polémica y admitieron que la señal que captaron podría ser un falso positivo creado por el polvo de nuestra propia galaxia, que se habría interpuesto en sus observaciones (aquí).

Recientemente se han publicados los datos de Planck, una sonda europea. Estos reducen sustancialmente la posibilidad de que BICEP2 detectara las huellas de las ondas gravitacionales. Muestran que los aurores estadonidenses subestimaron el polvo de nuestra propia galaxia y que en realidad toda la señal puede deberse al polvo. Por lo que el descubrimiento podría quedarse en nada.

El mapa, elaborado por el equipo de Planck, muestra la polarización debido al polvo en todo el cielo incluyendo la región examinada por BICEP2. En la imagen de abajo podéis ver dicho mapa. Las regiones de clor azul corresponden a las de más baja cantidad de polvo interesteral y las de rojo , las de más alta cantidad. La región marcada con un rectangulo corresponde a la observada por el telescopio BICEP2. Esta no corresponde a las de menos cantidadde polvo. Izquierda: hemisferio galáctico norte; Derecha: hemisferio galáctico sur.

David Spergel, un astrofísico teórico de la Universidad de Princeton, New Jersey dice que algunas pequeñas regiones residuales de BICEP2, que quedan después de restar la polarización debiso el polvo, todavía podría ser resultado de las ondas gravitacionales primordiales. Para aclara todo esto se estan combinando los datos de Planck y BICEP2 en un análisis conjunto. Se espera que los resultados se publiquen a finales de noviembre.

Más Información:

Fuentes:

La microencapsulación acelera la evolución dirigida de las enzimas

Estándar

En el post de ayer os hablé de la encapsulación molecular y de un artículo publicado recientemente de ese campo (aquí). Pero también existe la microencapsulación : un proceso en el que pequeñas partículas o gotitas se rodean por un revestimiento formando así pequeñas capsulas de múltiples propiedades (microcápsulas).

En general se utiliza para incorporar ingredientes alimentarios, enzimas, células u otros materiales en una escala micrométrica. La microencapsulación también se utiliza para encerrar sólidos, líquidos o gases en un revestimiento formado por una películas soluble, dura o blanda, con el fin de reducir la frecuencia de dosificación  y evitar la degradación de los productos farmacéuticos. En la foto podéis ver un ejemplo de microencapsulación (para explicación clicad la foto).

Los lipidos y los polímeros como el alginato son algunos de los materiales que se suele utilizar para atrapar el material de interés en el interior. Otros materiales son: etilcelulosa, alcohol de polivinilo, gelatina, alginato sódico.

Como ya he comentado, uno de los materiales que se suele encapsular en microcápsulas son las enzimas, moléculas de naturaleza proteica que catalizan reacciones químicas. Estas, las enzimas, son utilizadas comercialmente, por ejemplo, en la síntesis de antibióticos y productos domésticos de limpieza. Además, son ampliamente utilizadas en diversos procesos industriales, como la fabricación de alimentos, destinción de vaqueros o producción de biocombustibles.

Evolución dirigida

Mediante evolución dirigida, una técnica utilizada en biotecnología e ingeniería de proteínas que imita el proceso de la selección natural para generar y seleccionar variantes de proteínas de interés industrial, se puede producir enzimas comerciales con mejor actividad catalítica e incluso proteínas terapéuticas con una selectividad refinada.

La evolución dirigida imita la evolución biológica mediante la mutación de biomoléculas, la selección de mutantes que mejor se adapten al perfil de actividad deseado, y repitiendo el proceso varias veces, optimizando así.

Florian Hollfelder de la Universidad de Cambridge y sus colegas han desarrollado un método que podría hacer la evolución dirigida más accesible y permitir la deteccción de un mayor número de variantes y lo utilizaron para hacer una fosfotriesterasa 20 veces más rápida en menos de una hora.

El método utiliza la microfluídica para hacer perlas de gel con recubrimiento (Gel-Shell Breads, GSBs), que encapsulan biomoléculas en evolución y las secuencias de ADN que las codifican, y células activas por fluorescencia (FACS) para seleccionar las variantes más activas.

Generador de gotas

 Las bacterias están modificadas genéticamente para albergar un plásmido que codifica una versión modificada del gen para que la enzima sea mejorada. Un generador de gotas de microfluidos (ver foto de arriba) incorpora plásmidos y enzimas expresadas por bacterias individuales en gotas que contienen un gel-líquido. El sustrato de la enzima se modificó, previamente, de modo que la reacción enzimática produce un producto fluorescente y después de la reacción enzima-sustrato, el gel se solidifica por enfriamiento, girando las gotitas. A continuación, Las perlas resultantes del enfriamiento de las gotitas se recubren con capas de polielectrolitos, formando GSBs que contienen la enzima, el ADN que lo codifica y el producto de reacción fluorescente.

Formación GSBs

Explicación de la foto:

a) La formación de GSBs: las gotitas de emulsión que albergan agarosa y un polianión (alginato) son producidas por el generador de emulsión. Después de enfriarse el gel de agarosa la emulsión monodispersa se mezcla con un exceso de emulsión polidispersa que contiene un policatiñon (Poli(allyl-amine hidrocloride), PAH) y se vortea para asegurarse la mezcla de las dos emulsiones. Seguidamente se añade perfluorooctanol (PFO, un surfactante débil) y se vortea de nuevo. El PFO provoca la desintegracion de la emulsión y el alginato que estaba contenido dentro del compartimento de la gotita original (y el cordón de agarosa resultante) se difunde hacia fuera en dirección opuesta a la perla de agarosa y como consecuencia el polielectrolito recubre la perla.

b) La automatización y la producción en continuo se hace en una secuencia de tres chip de microfluidos juntos: las emulsiones monodispersas que contienen agarosa y alginato se produce en el promer generador de emulsión. El tubo de la toma se enfrís en hielo para gelificar la agarosa antes de entrar en el segundo chip donde se mezcla con una segunda emulsión, polidispersa, que contiene el policatión. Posteriormente, la mezcla se añade a una corriente de PFO. En la salida, las dos fases se separan.

Las enzimas con más actividad producen más fluorencencia (FACS) por lo que son seleccionadas. Los plásmidos de los GSBs seleccionados se extraen y se introducen en las siguientes rondas de evolución dirigida, hasta obtener una enzima optimizada.

Microcapsulación

Fuentes:

Sacudida el mundo de la química de los semiconductores

Estándar

El diamante es un alótropo del carbono dande los átomos de carbono están dispuestos en una variante de la estructura cristalina cúbica centrada en las caras denominada «red de diamante». Es la segunda forma más estable de carbono después del grafito. El diamante debido a su estructura extremadamente rígida, puede ser contaminada por pocos tipos de impurezas. El boro (B) es una de los pocos tipos de impurezas, que le induce, al diamante, un color azul. Este tipo de diamante dopado, es un buen ejemplo de semiconductor de tipo P ya que la impureza aumenta el número de portadores de carga libre positivos o huecos. Estos huecos/vacantes tienen un nivel energético ligeramente superior al de la banda de valencia por lo que los electones saltarán con más facilidad a la vacante que a la banda de conducción, dejando huecos en la banda de valencia . En el post del 16 de Mayo explico más detalladamente este tipo de semiconductor, entre otros, el uso de los semiconductores en las células fotovoltaicas … (aquí). Hoy explicaré otro uso.

El diamante azul (dopado con B) es un buen ejemplo de semiconductor de tipo P , que se produce de forma natural. Pero si se ponen muestras de diamante azul dentro de una cámara de deposición química de vapor (Chemical Vapor Deposition, CVD) con plasma de hidrógeno (H) durante una hora y después se enfrían en una atmósfera de H2 puro, añadimos H en su superficie. El diamante con H en su superficie, además de continuar siendo semiconductor, se caracteriza por emitir electrones cuando se les irradian con luz ultravioleta.

Aprovechando esta propiedad un grupo de la Universidad de Wisconsin, Madison ha realizado una reacción que por otros medios es muy difícil: La reducción de dióxido de Carbono (CO2) por activación directa de un electrón es extraordinariamente difícil ya que su potencial de reducción es de -1,9V.

El diamante con H en su superficie (rojo y gris) irradiado con luz ultravioleta (flechas onduladas) libera electrones que interactúan rápidamente con las moléculas de agua (verde y rojo) y se convierten en electrones solvatados. Estas especies energéticas sirven como potentes agentes reductores ya que pueden reaccionar con el CO2 (gris y verde) y convertirlo en CO.

Los procesos electroquímicos y fotoquímicos convencionales, que se han estudiado para la reducción de CO2, requieren que los reactivos se unan a una superficie para reaccionar. En este método, los electrones solvatados no requieren la adsorción superficial. Se basa en una emisión directa de electrones en el agua y la química tiene lugar en fase acuosa.

Según este estudio, la reducción inducida por luz ultravioleta presenta una elevada selectividad (> 95%) y produce una mínima cantidad de hidrógeno (subproducto). Los investigadores llegan a la conclusión de que la reacción se produce por medio de un mecanismo de reducción de un electrón (relativamente poco común). Este proceso, que convierte el CO2 en anión radical CO2 (CO2.−) en el camino a la formación de CO, tiene una gran barrera de potencial y es inaccesible por otros métodos.

Los investigadores han sacudido el mundo de la química de los semiconductores, mostrando que los electrones fotoemitidos pueden estimular reacciones de superficie, en el caso de la reducción de CO2 de forma muy selectiva. Muestran, también, una nueva posible estrategia económica para convertir el CO2, el gas invernadero, en productos con valor comercial como CO, un compuesto usado en la síntesi química y otros procesos industriales.

Fuentes:

 

 

¿Dudas en la velocidad de la luz?

Estándar

En 1915, Albert Einstein publicó la teoria de la relatividad general que sugiere que la luz viaja a una velocidad constante de 299.792.458 m/s en el vacío. Pero recientemente un físico de la Universidad de Maryland, James Franson, la ha puesto en duda en un artículo publicado en la revista científica New Journal of Physics. Franson, afirma que ha encontrado evidencias que sugieren que la velocidad de la luz es en relidad más lenta de lo que se había pensado.

Su conclusión es resultado de su estudio sobre las observaciones realizadas a la supernova SN1987A, que estalló en febrero de 1987. Recogieron medidas de la llegada a la Tierra de los dos fotones y neutrinos. Pero los fotones llegaron más tarde de lo esperado, por 4,7 horas. Los científicos de entonces atribuyeron, ese hecho, a la probabilidad de que los fotones vinieran de otra fuente.

Pero, ¿y si no fuera así? – se pregunta Franson – ¿y si fuera debido a la ralentización de la luz?. Los fotones tienen una propiedad conocida como polarización del vacío por la que se dividen en un positrón y un electrón por un corto período de tiempo antes de recombinarse de nuevo en un fotón. Esto debe crear un diferencial gravitario, señala, entre el par de partículas que, teoriza, tendría un impacto pequeño de energía al recombinarse pero lo suficiente como para causar una ligera desaceleración durante el viaje. Debajo podéis ver un diagrama de Feynman que representa la división del fotón en un positrón y un electrón y la posterior recombinación. t representa el tiempo y x, la posición en las tres dimensiones (en unidades arbitrarias).

polarización del vacío Si la división y la posterior recombianción tiene lugar muchas veces con muchos fotones, en un viaje de 168.000 años luz, la distancia entre la Tierra y SN 1987A, puede añadir fácilmente 4,7 horas de demora, sugiere.

Si las ideas de Franson resultan ser correctas, virtualmente cada medida tomada y utilizada como base para la teoría cosmológica está equivocada. La luz del sol, por ejemplo, podría tardar más tiempo en llegar de lo que se pensaba, y la luz que viene de objetos que están mucho más lejos, como la de la galaxia Bode, a 12 millones de años luz tardaría dos semanas más de llegar. Si la teoria de Franson fuera correcta, se tendría que volver a calcular la distancia de los cuerpos celestes y reformular de nuevo teorías. En algunos casos, los astrofísicos tendrían que empezar de nuevo desde cero.

Fuentes:

 

Dudas en el principio de todo

Estándar

Telescopio BICEP2, Antártida

El pasado mes de marzo de este año saltó la noticia de que un grupo de científicos habían detectado la primera evidencia de la existencia de las ondas gravitacionales primordiales y por lo tanto, la primera evidencia directa de la inflación cósmica, es decir, del momento (menos de un segundo) en el que el Universo pasó de ser un punto diminuto a convertirse en una inmensidad hace unos 13,8 millones de años (Teoria del Big Bang).

Albert Einstein predijo que cuando algo realmente violento tenia lugar, como la rápida expansión del Universo después del Big Bang, se creaban ondulaciones en el espacio-tiempo, ondas gravitacionales, que se propagaban a través del Universo comprimiendolo en una dirección y estirandolo en otras. Pero pensaba que estas serían tan débiles que nunca serían detectadas.

Según los autores, los cambios en la polarización de la radiación de fondo de microondas (el ruido de fondo dejado por el Big Bang en forma de partículas que aún pululan por el Universo) , que fueron detectados por el telescopio BICEP2, solo se podían explicar por la modificación causada por las ondas gravitacionales primordiales («El principio de todo«).

Pero pronto, el supuesto descubrimiento comenzó a recibir criticas (aquí). Ahora los propios autores del hallazgo reconocen la polémica y admiten que la señal que captaron puede ser un falso positivo creado por el polvo de nuestra propia galaxia, que se habría interpuesto en sus observaciones.

«No se puede excluir la posibilidad de que el brillo del polvo sea responsable de toda la señal detectada» dicen en un artículo publicado los mismos autores en el Physical Review Letters.

La próxima semana, en Valencia, se celebrará la 37ª Conferencia Internacional de Física de Altas Energías (ICHEP) donde se discutirán, entre otros temas, los datos de BICEP2 y se presentarán nuevos resultados de otros observatorios que podrían confirmar o desmentir el hallazgo.

Fuentes:

Materia a partir de luz

Estándar

Hace 80 años, Gregory Breit y John A. Wheeler sugerieron la posibilidad de convertir la luz en materia chocando dos partículas de luz (fotones) para crear un electrón y un positrón. El método más simple de convertir la luz en materia. Pero aunque los científicos aceptaron su teoría, dijeron que no esperaban que se pudiera demostrar en el laboratorio ya que requería la adición de partículas masivas de alta energía (Collision of Two Light Quanta).

No ha sido hasta recientemente cuando se ha sabido cómo llevar a la prácticar con la tecnología ya existente. Físicos del Imperial College London, Reino Unido han diseñado un experimento para probar esta teoría. El experimento recrearía un proceso que fue muy importante en los primeros 100 segundos del Universo y también se ve en los estallidos de rayos gamma, una son las mayores explosiones del Universo, y uno de los mayores misterios sin resolver de la física.

Los investigadores estaban investigando problemas con la energía de fusión no relacionados con esto cuando se dieron cuenta de que su trabajo se podría aplicar en la teoría de Breit-Wheeler.

Experimento Colisionador Fotón-Fotón

Primer Paso. Utilización de un láser de alta intensidad extremadamente potente para accelerar los electrones hasta justo debajo de la velocidad de la luz y lanzamiento de estos hacia una placa de oro para crear un haz de fotones mil millones de veces más energéticos que la luz visible.

Hohlraum

Hohlraum

Segundo Paso. Implicación de una pequeña cápsula de oro llamado Hohlraum («cuarto vacío» en alemán). Los científicos dispararían un láser de alta energía en la superficie interna de este recipiente de oro para crear un campo de radiación térmica que generaría un luz similar a la luz emitida por las estrellas. Posteriormente, el haz de fotones del primer paso se dirigiría al centro de la cápsula haciendo que los fotones de las dos fuentes chocaran y formaran electrones y positrones.

Fuentes: