El principio de todo

Estándar

Este es el video (en inglés con opción de subtítulos en inglés) explicativo de la revista Nature de una de las noticias más comentadas de ayer y hoy: Científicos de EEUU han detectado la primera evidencia de las ondas gravitacionales primordiales, es decir, de las ondulaciones en el espacio que la inflación generó hace 13,8 mil millones de años cuando el universo empezó a expandirse. Estas ondas gravitacionales podrían ser la primera evidencia directa de la inflación Cósmica: el momento histórico del Universo en el que, en menos de un segundo, este pasó de ser un punto diminuto a convertirse en una inmensidad (Teoria del Big Bang).

De acuerdo con Einstein cuando algo realmente violento ocurre, como la rápida expansión del Universo después del Big Bang, se crea ondulaciones en el espacio-tiempo, ondas gravitacionales, que se propagan a través del universo comprimiendolo en una dirección y estirandolo en otras. Pero pensaba que estas serían tan débiles que nunca sería detectadas.

Como las olas del mar que dejan su marca en la arena al retroceder con la marea, las ondas gravitacionales dejan su marca en una cosa del que está lleno el Universo, la radiación de fondo de microondas (CMB), es decir, el ruido de fondo dejado por el Big Bang en forma de partículas que aún pululan por el universo. Se trata de una radiación débil y constante que, sin embargo, llega a toda la Tierra.

En el polo Sur, donde se encuentra el telescopio BICEP2 y se detecta mejor la CMB, los cientifícos observaron un cambio en la polarización de esas microondas llegadas desde el origen del universo y que fue creado justo en el momento de Big Bang. En otras palabras, han detectado un cambio en la orientación de las partículas que forman las microondas. En concreto, han captado microondas con una determinada orientación conocida como B mode. Según sus cálculos, esa polarización sólo puede deberse a que, en su largo camino hasta la Tierra, esas partículas del Big Bang han sido modificadas por las ondas gravitacionales igual que el símil del video (1:33-1:55) y que yo he citado antes («las olas de mar …»).

Según las observaciones del BICEP2, este tipo de polarización solo pudo ser causada por un tipo concreto de onda gravitacional: una muy débil y muy antigua que se formó como fruto de la inflación que hizo crecer el universo más de 70 órdenes de magnitud en fracciones de segundo.

En el siguiente gráfico podéis ver cómo las ondas gravitacionales surgen tras la inflación en un periodo anterior a que hubiese luz visible en el universo.

Fuentes:

Desarrollan células de silicio capaces de captar la radiación infrarroja del Sol

Estándar

Las células fotovoltaicas o células solares, más habituales, son dispositivos electrónicos que absorben luz (energía solar) y la convierte energía eléctrica (energía fotovoltaica). Esta generación de energía, de manera general, se basa en el efecto fotoeléctrico.

El efecto fotoeléctrico consiste en la emisión de electrones por parte de  un material cuando se hace incidir sobre él una radiación electromagnética (luz visible, ultravioleta, infrarojos …) Este efecto fue descubierto y descrito por Heinrich Hertz en 1887 pero fue Albert Einstein, en 1905, quien dió una explicación teórica del efecto en el artículo “Heurística de la generación y conversión de la luz”. Os aconsejo que veáis el siguiente video de Quimiotube.com explicativo del efecto fotoeléctrico.La energía absorbida del fotón (hν) es igual a la energía necesaria para arrancar un electrón (hν₀) más la energía cinética del electrón emitido (½mv²).

Las células fotovoltaicas se fabrican esencialmente con semiconductores, por ejemplo el silicio, se caracterizan por un diferencia energética pequeña entre la banda de conducción vacía y la banda valencia llena (ver post del 22 enero, 2014) por lo que los electrones de la banda de valencia pueden ser excitados a la de conducción mediante el efecto fotoeléctrico. Allí los electrones pueden moverse libremente. Esta conductividad se puede incrementar dopando al semiconductor puro, es decir, añadiendo impurezas que forman parte de la estructura cristalina del semiconductor ya que sustituyen átomos de la red original. Podemos distingir dos tipos de semiconductores dopados (seminconductor extrínseco):

  • Semiconductor Tipo N: Se obtiene mediante un proceso de dopaje añadiendo un cierto tipo de átomo al semiconductor para poder aumentar el número de portadores de carga libres negativos o electrones. Los electrones aportados están más débilmente vinculados a los átomos del semiconductor por lo que la energía necesaria para separarlo del átomo será menor. Por ejemplo si el Silicio fuese dopado por un elemento pentavalente (As, Sb o P), la energía necesaria para arranca el electrón aportado en el dopaje sería del orden de la centésima parte de la energía correspondiente a los electrones de los enlaces covalentes (entorno a 0,001 eV).

Semiconductor tipo n.png

  • Semiconductor tipo P: Se obtiene mediante un proceso de dopaje añadiendo un cierto tipo de átomos al semiconductor para aumentar el número de portadores de carga libres positivos o huecos. Las impurezas aportan vacantes (no huecos consecuencias del salto de un electrón) que tienen un nivel energético ligeramente superior al de la banda de valencia por lo que los electones saltarán con más facilidad a la vacante que a la banda de conducción, dejando huecos en la banda de valencia . Por ejemplo si el silicio fuese dopado con un elemento trivalente, este aportaría una vacante con un nivell energético superior ligeramente a la banda de valencia, del orden de 0,01 eV.

Semiconductor tipo p.png

El principio de una célula fotovoltaica es obligar a los electrones y a los huecos a avanzar hacia el lado opuesto del material en lugar de simplemente recombinarse en él: así, se producirá una diferencia de potencial. Como consecuencia las células fotovoltaicas más habituales son sistemas formados por un semiconductor n y un semiconductor p. Cuando se unen un semiconductor n y un semiconductor p se genera una región llamada de carga espacial (en la unión n-p) en el cual aparece un campo eléctrico permanente producido por la reordenación de las cargas. Al poner en contacto los dos semiconductores, los electrones de la zona n se mueven a la zona p, donde la concentración de electrones es mucho menor, por difusión y los huecos se difunden a la zona n. Este movimiento genera un desenquilibrio de cargas en ambos lados . En la zona n, al haber menos electrones hay un exceso de carga positiva y en la zon p, hay un exceso de carga negativa. Esto produce un campo eléctrico interno.

https://i0.wp.com/www.ujaen.es/investiga/solar/07cursosolar/home_main_frame/03_celula/01_basico/images/func_cel.gif

Cuando un fotón incide sobre la región de carga espacial de la unión n-p  se produce, por efecto fotoeléctrico, un par hueco-electrón que son separados por el campo eléctrico existente. El campo eléctrico hace de la región de carga espacial un diodo ya que solo permite el flujo de corriente en una dirección: los electrones pueden moverse de  la región p a la n, pero no en la dirección opuesta y los huecos no pasan más que de la n a la p.

Estos dispositivos pueden solucionar las grandes problemas energéticos actuales ya que el sol es una fuente de energía inagotable. Sim embargo el uso de las células fotovoltaicas no está generalizado debido su coste elevado y su baja eficacia, por debajo del 17%. Es decir, de cada vatio que recibimos del sol, sólo aprovechamos una pequeña parte: los 0,17 vatios que corresponden al espectro visible.

El motivo de la baja eficacia de las células fotovoltaicas convencionales reside en los materiales básicos usados en su fabricación, como el silicio, sólo pueden absorber y aprovechar una pequeña parte del espectro solar. El resto de la radicación solar, que corresponde a la zona infraroja, no es aprovechada y se pierde.

Un equipo de investigación liderado por el Consejo Superior de Indestigadores Científicas (CSIC) ha creado una célula fotovoltaica de silicio capaz de transformar en electricidad la radiación infraroja del sol. El trabajo aparece publicado el lunes 10 de Mazo en la revista Nature Communications.

«Lo que hemos hecho ha sido crear una célula fotovoltaica sobre microcavidades esféricas de Silicio donde la luz infraroja queda atrapada y da vueltas en su interior hasta que es transformada en electricidad.» dice Moisés Garín, investigador del CSIC y de la Universitat Politécnica de Catalunya.

Esto abre una puerta para el desarrollo de células solares y fotodetectores que puedan utilizar la luz infrarroja de manera más eficiente que los dispositivos fotovoltaicos de silicio que hasta ahora se han desarrollado.

Fuentes:

 

 

 

 

Descubrimiento de la Teoría perdida de Albert Einstein

Estándar
Teoría de Big Bang

Teoría de Big Bang (iStockphoto/Thinkstock)

Cuando pienso en el origen del universo lo primero que me viene a la cabeza es un explosión en el medio de la nada. La Teoría del Big Bang (Teoría de la Gran Explosión) es una de las teorías más aceptadas y populares en la actualidad sobre el origen del Universo. Esta dice que el Universo nació hace 13.800 miliones de años de una «singularidad» infinitamente pequeña que se expandió violenta y rápidamente. Por lo tanto, no es que hubiese, según esta teoría, una explosión en el sentido extricto de la palabra sino, yo diría, «como una explosión» -violenta y rápidad-.

Fred Hoyle.jpg

Fred Hoyle (en.wikipedia.org)

Pero la teoría del Big Bang no es la única teoría sobre el orígen del Universo: La Teoría Inflacionaria, del Universo oscilante y la Teoría del Estado Estacionario. Esta última, planteada a finales de los años 40 del siglo XX por el británico astrofísico Fred Hoyle, se opone a la tesis de un Universo de evolucionario. Este modelo sostiene que el universo nunca tuvo un origen, sino que siempre existió de la misma manera como lo conocemos hoy. Hoyle argumentó que , el espacio podría estar expandiéndose eternemente y mantener una densidad más o menos constante. Esto se podría hacer, añadiendo continuamente nueva materia que al condersarse, formaría nuevas galaxias, estrella etc.

Pero a finales de los años 60 a la Teoría del Estado Estacionario le comenzaron a surgir problemas. Las evidencias observacionales empezaron a mostrar que el Universo estaba cambiando y que había variaciones en la radiación del Universo con el paso del tiempo (radiación de fondo de microondas). Estos hechos y otros hicieron que la Teoría  de Hoyle fuese descartada por la mayor parte de la comunidad científica.

Einstein1921 by F Schmutzer 2.jpg

Albert Einstein 1921 (wikipedia)

Recientemente se ha descubierto un manuscrito de Albert Einstein: Zum Kosmologischen Problem hasta ahora desconocido ya que fue clasificado, por error, como el primer borrador de un artículo. Pero en realidad es una Teoría alternativa a la del Big Bang. Este documento del 1931, describe una idea similar a la de Hoyle mucho antes.

«Para que la densidad se mantenga constante, nuevas partículas de materia deben formarse continuamente» escribió Einstein

Cormac O’Raifeartaigh y su equipo han estudiado el manuscrito de Einstein y creen que este se arrepentió pronto de la idea. Por lo visto, se dió cuenta de un error en sus cálculos, lo corrrigió -tachó un número con un bolígrafo de un color diferente- y probablemente, según los investigadores, decidió que la idea no iva a funcionar y lo dejó de lado. Ningún otro documento de Einsyein recoge los mismos cálculos.

Albert Einstein Archives, Hebrew University of Jerusalem, Israel

Sin embargo el manuscrito revela su continua reticencia a aceptar que el universo fuese creado durante un único evento explosivo. Pero cuando los astrónomos encontraron evidencias de la expansión cósmica, Einstein tuvo que abandonar el sesgo hacia un Universo estático.

Helge Kragh, un historiador de la Ciencia en la Universidad de Aarhus en Dinamarca, está deacuerdo:

«Lo que el manuscrito muestra es que, aunque para entonces él aceptó la expansión del Universo, Einstein era infeliz con un Universo cambiante en el tiempo» dice Kragh

Este documento de Albert Einstein está guardado en los Archivos Albert Einstein de Jerusalén – en cuya web podéis consultar el documento gratuitamente.

Simon Mitton, coautor del estudio, historiador de la Ciencia en la Universidad de Cambrigde (Reino Unido) y escritor de una biografía de Fred Hoyle en 2005 («Una vida en la Ciencia») dijó:

«Este hallazgo confirma que Hoyle no fue un loco»

Si se hubiese sabido que el propio Einstein había jugado con un modelo de estado estacionario, Hoyle hubiese tenido más credibilidad.

«Sin dudad lo habría usado para golpear sus oponentes» dice O’Raifeartaigh.

Fuentes:

Un paso hacia la Fusión Nuclear eficiente

Estándar

Desde la década de los años 50 del siglo pasado, los científicos investigan en una fuente de energía ilimitada que podría acabar con los problemas energéticos del mundo, la Fusión Nuclear.

La fusión nuclear es el proceso por el cual varios núcleos atómicos de carga similar se unen y forman un núcleo más pesado. Simultáneamente se libera o absorbe una cantidad enorme de energía, que permite a la materia entrar en un estado plasmático, es decir , un estado fluido similar al estado gaseoso pero en el que determinada proporción de sus partículas están cargadas eléctricamente y no poseen equilibrio electromagnético. En el dibujo podéis ver la fusión de deuterio con tritio, dos isótopos del hidrógeno, y cuyos productos son helio 4, un neutrón y 17,59 MeV de energía.

Para que pueda ocurrir la fusión, se debe superar una importante barrera de energía producida por la fuerza electrostática (barrera culombiana). A grandes distancias, dos núcleos se repelen debido a la fuerza de repulsión electrostática entre sus protones, cargados positivamente. Sin embargo, si se pueden acercar dos núcleos lo suficiente, debido a la interacción nuclear fuerte, que en distancias cortas es mayor, se puede superar la repulsión electrostática. Así, una de las mayores dificultades técnica para la fusión es conseguir que los núcleos se acerquen lo suficiente para que ocurra este fenómeno.

Otra dificultad es debido al estado plasmático de la materia (combustible -Deuterio y Tritio-) que se utiliza en la fusión. Dado que no existe en el mundo un material capaz de contener plasma, los «contenedores» del combustibles no pueden ser físicos, sino magnéticos o, más recientemente, generados por láser. El problema, conocido como de «confinamiento del plasma» requiere de una gran cantidad de energía para funcionar. De hecho, más energía de la que el reactor es capaz de producir. Por lo que es difícil lograr que los reactores generen más energía de la que consumen.

Unos  científicos del Livermore National Laboratory (LLNL), en Estados Unidos, han conseguido al menos una parte de este objetivo: por primera vez, han logrado en una reacción de fusión liberar más energía que la que absorbe el combustible utilizado (de deuterio-tritio o DT) en el proceso.

En un artículo publicado en la revista Nature, los autores del avance detallan una serie de experimentos realizados en el National Ignition Facility (NIF), en los que se ha constatado una mejora en el rendimiento, alrededor de 10 veces superior, al conseguido en experimentos anteriores.

Los experimentos desarrollados en el NIF se hicieron con un tipo de confinamiento del combustible conocido como confinamiento inercial (FCI) que consiste en conseguir las condiciones necesarias para que se produzca la fusión nuclear dotando a las partículas del combustible de la cantidad de movimiento necesaria para que con el choque de las mismas se venza la barrera culombiana y así se pueda producir la reacción nuclear de fusión.

Caja metálica llamada hohlraum que sostiene la cápsula de combustible en los experimentos del NIF.

El combustible (DT) se introduce en una esfera, que a su vez, está dentro de una cavidad donde se desarrolla la reacción. Una vez dentro, la esfera con el combustible, se les hace incidir un haz de láser que aumenta la energía de su capa externa. Esta energía transcurre hacia el interior de la esfera en forma de partículas alfa, y provoca la implosión del combustible, lo que a su vez produce más partículas alfa. Este proceso de retroalimentación es el mecanismo que propicia la ignición. La radiación emitida se va depositando en las paredes de la cavidad y luego es transferida a un líquido refrigerante. Así se consigue la energía.

Dibujo20140214 inertially confined fusion - nif - indirectly driven target - nature13008-f1

Los experimentos fueron cuidadosamente diseñados para evitar la desintegración del armazón plástico que rodea y confina el combustible DT, a medida que es comprimido por la energía vertida sobre él. Los investigadores habían teorizado que dicha desintegración podría ser la causa del rendimiento degradado de los procesos de fusión, observado en experimentos previos. Lo consiguieron modificando el haz de láser utilizado, hasta suprimir la inestabilidad que causa la desintegración del armazón.

Fuentes:

Una nueva era en el cronometraje

Estándar

Primer reloj atómico del NIST

Todos los relojes deben tener un proceso regular , constante o repetitivo o una acción que marque los incrementos iguales de tiempo. Por ejemplo el movimiento diario del sol a través del cielo, un péndulo o un cristal que vibra. En el caso de los relojes atómicos, utilizan la frecuencia de transición electrónica entre dos niveles energéticos de un átomo como frecuencia estándar en el tiempo. Esta es más estable y precisa que los dispositivos mecánicos. Las frecuencias pueden corresponden a la región de microondas, óptica o ultravioleta del espectro electromagnético de los átomos.

El principio de funcionamiento de un reloj atómico se basa, entonces, de la física atómica. Utiliza la señal que emiten los electrones cuando cambian de niveles de energía. El primer reloj átomico lo construyó Willard Frank Libby en 1949 y se basaba, como todos los primeros que se hiceron, en máseres a temperatura ambiente. Un máser (Microwave Amplification by Stimulated Emision of Radiation) es un amplificador similar a láser que opera en la región de microondas del espectro electromagnético y sirve para recibir señales muy débiles. Cuando un átomo se halla en un estado energético adecuado y pasa cerca de una onda electromagnética adecuada esta puede inducirles a emitir energía en forma de otra radiación electromagnética con la misma longitud onda que refuerza la onda de paso y desencadena una escala de fenómenos que llevan a aumentar mucho la intensitad del impulso original.

En la actualidad los relojes atómicos más precisos se  enfrian los átomos deteniéndolos  con láseres. Un haz de luz láser moviéndose en dirección opuesta a un haz de átomos, interaccionan con ellos de manera que estos absorben energía de los fotones del haz láser. Esto ocurre cuando la energía de los fotones es exactamente igual a la diferencia entre los niveles de energía de los átomos. Pero cuando el átomo está en movimiento, por el efecto Doppler, «ve» una frecuencia ligeramente diferente a la de los fotones incidentes. Por lo que la frecuencia del haz láser se elige de manera que sea muy próxima a la frecuencia de absorción del átomo, pero no idéntica a esta. Se utliza más de un láser en direcciones opuestas (por ejemplo 6 láseres). Cada vez que el átomo comienza a moverse hacia uno de los los haces, el efecto Doppler provoca que la radiación del haz sea absorbida por el átomo y este retome a su sitio.

NIST F1

NIST F1

Los átomos son enfriados a temperaturas próximas al cero absoluto, atrapándolos. Una vez atrapados, dos láseres verticales impulsan al alza los átomos (Fuente Átomos) dentro de una cámara de microondas. El reloj atómico NIST F1 una el «movimiento Fuente» de los átomos de Cesio para dterminar la longitud del segundo con tanta precisiónque si fuera a funcionar continuadamente no perdería ni ganaría un segundo en 80 millones de años.

Funcionamiento del NIST F1

Funcionamiento del NIST F1

Se introduce un gas de átomos de Cesio en la cámara de vacío del reloj. A continuación 6 rayos láser de infrarojo son dirigidos en ángulo recto entre sí al centro de la cámara. Los láseres empujan suavemente los átomos de Cesio juntos en una bola. En el proceso de creación de la bola, los láseres ralentizan el movimiento de los átomos y los enfría a temperatura cercana al cero absoluto. Dos láseres certicales son utilizados para tirar suavemente la bola hacia arriba (la acción «fuente») y , a continuación todos los láseres son apagados. Este pequeño empujón es suficiente para lanzar la bola hacia arriba alrededor de 1 metro de altura a través de una cavidad llena de microondas. Pero por influencia de la gravedad, esta cae hacia abajo a través de la cavidad de microondas. La ida y vuelta a través de la cavidad de microondas tiene una duración de 1 segundo. Durante el viaje , los estados se pueden o alterar por la interacción con la señal de microondas. Cuando el viaje acaba, otro láser apunta a los átomos. Los que han sido alterados por la señal de microondas emiten luz que es detectada por le detector. Os recomiendo que vayáis a la siguiente página del National Institute of Standards and Technology (NIST) y veáis el video explicativo de funcionamiento del NIST F1.

Los avances tecnológicos han permitido mejorar cada vez más los relojes atómicos. La exactitud (accuracy) y la estabilidad son dos características clave que evalúan el rendimiento de un reloj atómico. La exactitud se refiere a la capacidad de un reloj para medir el valor aceptado de la frecuencia en la que los átomos del reloj vibran. Aunque en la literatura general NIST utiliza a veces el término preciso prar describir el rendimiento porque es menos técnico y tiene connotaciones más positivas que la incertidumbre. Por lo que a partir de ahora también lo usaré como ellos. La estabilidad se define como el grado en que cada tick coincide con la duración de cada otro tick.

Recientemente un grupo de investigación dirigido por NIST ha dado a conocer un nuevo reloj atómico de estroncio experimental que ha establecido nuevos récords mundiales de precisión y estabilidad. El reloj está en un lanoratorio del JILA, un instituto asociado al NIST y a la University of Colorado Boulder. Este nuevo reloj atómico de estroncio es aproximadamente 50% más preciso que el poseedor del récord de los últimos años, NIST’s quantum logic clock. El nuevo reloj es tan preciso que no ganaría ni perdería un segundo en unos 5000 milliones de años. En cuanto estabilidad, esta es casi la misma que el otro líder mundial, NIST’s ytterbium atomic clock. Si queréis saber cómo funciona este reloj atómico, os recomiendo que veáis el siguiente video.

Reloj atómico de estroncio experimental de JILA .
Credit: Ye group and Baxley/JILA

Fuentes:

Nuevo Método de dopaje para el Óxido de Titanio (IV)

Estándar

Enegía (E) en función del número de átomos (N)

La Teoría de Bandas es la teoría según la cual se describe la estructura electrónica de un sólido com una estructura de bandas electrónicas o de energías. Al igual que en una molécula los orbitales de los átomos que la forman se solapan produciendo un número discreto de orbitales moleculares, en los sólidos, los orbitales de valencia de los átomos se solapan. Pero como el número de átomos que se unen es muy grande, el número de orbitales de valencia también y la diferencia de energías entre cada uno de los orbitales resultantes es muy pequeña. Tanto que se puede considerar como si los niveles de energía conjunta formaran bandas continuas más que niveles de energía como ocurre en átomos aislados. Sin embargo, debido a que algunos intervalos de energía no contienen orbitales, independientemente del número de átomos agregados, se crean ciertas brechas de energéticas entre diferentes bandas.

En cualquier sólido hay un gran número de bandas pero solo dos son de gran importancia:

Representación esquemática de las bandas energéticas de un sólido.

  • La banda de valencia: es la última banda ocupada por electrones (aquellos que ocupan la última capa o nivel energético de los átomos, electrones de valencia) Esta puede estar parcialmente o llena de electrones.
  • La banda de conducción: es la primera banda vacía. Esta puede estar ocupada por electrones libres, es decir, aquellos que se han desligado de sus átomos y pueden moverse fácilmente.

Según la posición de las bandas de valencia y de conducción podemos encontrarnos en tres situaciones:

Bandas de valencia y de conducción en un sólido conductor, semiconductor y aislante

  1. Un banda de valencia semillena de electrones (en el caso de los elementos alcalinos) o llena pero con la banda de conducción solapada en cierta extensión. Es la situación de los metales. Tanto si la banda de valencia está llena o no, los electrones tienen espacio para moverse libremente, explicándose así la conductividad electrónica de los conductores (metales).  En los semimetales el limite inferior de la banda de conducción se encuentra ligeramente por debajo del limite superior de la banda de valencia.
  2. La banda de conducción no se solapa con la banda de valencia llena. Entre ambas bandas existen una zona de energía prohibidas para los electrones (banda prohibida). La separación entre ambas, o lo que es lo mismo, la amplitud de la banda prohibida, suficientemente pequeña para que a temperaturas superiores al 0K (dependiendo del material en particular), la propis energía térmica de los electrones sea suficiente para promocionar a los electrones más energéticos de la banda de valencia (llena a 0K) a la de conducción (vacía a 0K). A temperaturas superiores al 0K existen suficientes electrones en la banda de conducción y los mismos «huecos» en la banda de valencia para que haya conductibilidad electrónica. Los materiales que estan en este caso se llaman materiales semiconductores.
  3. Si la separación energética entre la banda de valencia completamente llena y la de conducción vacía (amplitud de banda prohibida) es suficientemente grande para que, a temperaturas razonables, la energía térmica de los electrones no sea suficiente para promocionarse a niveles superiores. Los sólidos, en este caso, se les llaman, aislantes.

Niveles energéticos y procesos de excitación de electrones en las muestras N- TiO2 .

El óxido de Titanio (IV) o dióxido de Titanio (TiO
2
) es un atractivo semiconductor fotocatalizador de bajo coste utilizado en la purificación del agua, la disociación del agua y la energía solar. Cuando se irradia luz ultravioleta sobre TiO
2
, se genera un par electrón-hueco. La energía correspondiente a la luz ultravioleta (E=hv) es igual o superior a la energía del salto de banda  del TiO
2
(banda prohibida, 3eV) como semiconductor, por lo que se promueve un electrón de la banda de valencia hacía la banda de conducción generando un hueco (h+) en la banda de valencia. En el gráfico, presente en estas lineas, se representa los niveles energéticos y los procesos de excitación de electrones propuestos en las muestras N- TiO
2
. En las muestras irradiadas con UV , todas las excitaciones se verán facilitadas , mientras que las ( 2 ) – ( 4 ) solo son posibles bajo la luz visible (ver gráfica de los niveles energéticos y los procesos de excitación) .

El fuerte potencial oxidativo de los agujeros positivos creados (h+) oxida el agua para crear radicales hidroxilos (radicales libres) capaces de desencadenas otras reaciones, accelerando la reacción. Por lo tanto podemos decir que un process fotocatalítico se basa en la tranferencia de carga entre un semiconductor iluminado y una solución acuosa, «una reacción redox».

Pero el TiO
2
tiene un pega, que solo cataliza las reacciones después de ser irradiado con luz ultravioleta. Esto se puede solucionar dopándolo. Como semiconductor, el TiO
2
, puede cambiar sus propiedades al añadirle pequeñas impurezas (dopándolo). Se ha visto que dopándolo con nitrogeno o trióxido de tungsteno también fotocataliza bajo luz visible (se reduce la banda probihida a menos de 2eV). La deposició catódica por magnetrón y el bombardeo de iones de alta energía son métodos de dopaje pero estos crean defectos en el TiO
2
reduciendo así la eficiencia fotocatalítica de este material.

Recientemente un grupo de científicos de Singapur han encontrado una nueva forma de dopar el TiO
2
con nitrógeno dirigiendole un haz de átomos de nitrógeno de baja energía y depositando así el nitrógeno en la superfície y manteniendo el material libre de defectos. El TiO
2
mostró fotoactividad cuando era iluminado con luz visible a diferencia del TiO
2
sin dopar y mostró mucho mayor fotoactividad bajo la iluminación de la ultraviolada en comparación con el TiO
2
dopado con otros métodos.

Fuentes:

Un extraño trío de estrellas pone a prueba la teoría de la relatividad

Estándar

Astrónomos que usan el Telescopio Green Bank de la Fundación Nacional de Ciencia (GBT) han descubierto un sistema estelar único de dos estrellas enanas blancas y una estrella de neutrones superdensa (pulsar), todo ello incluido en un espacio más pequeño que la órbita de la Tierra alrededor del sol.

La cercanía de las estrellas, junto con su naturaleza, ha permitido a los científicos hacer las mejores mediciones de las complejas interacciones gravitacionales en un sistema de este tipo. Además, los estudios detallados de este sistema pueden proporcionar una pista clave para resolver uno de los principales problemas pendientes de la física fundamental, la verdadera naturaleza de la gravedad.

De las tres estrellas, la más importante y la que nos da la clave es el pulsar. Un púlsar es una estrella de neutrones que emite radiación periódica. Los púlsares poseen un intenso campo magnético que induce la emisión de estos pulsos de radiación electromagnética a intervalos regulares relacionados con el periodo de rotación del objeto. El pulsar de este triple sistema  está a unos 4.200 años luz y gira casi 366 veces por segundo. Estos tipos de púlsares se les llaman púlsares de milisegundos y pueden ser usados por los astrónomos como herramientas de precisión para el estudio de una variedad de fenómenos, entre ellos las ondas gravitacionales.

Observaciones posteriores mostraron que el púlsar se encuentra en una órbita cercana a una estrella enana blanca y ese par está en órbita con otra enana blanca más lejana. «Las perturbaciones gravitacionales impuestas a cada miembro de este sistema por parte de los demás son increíblemente puras y fuertes. El púlsar de milisegundos sirve como una herramienta extremadamente poderosa para medir esas perturbaciones increíblemente bien» explica Scott Ransom, del ‘National Radio Astronomy Observatory’ (NRAO).

La estrella púlsar (izquierda) orbitada por una enana blanca caliente (centro), y ambas orbitadas por una enana blanca más fría y lejana (derecha) Bill Saxton/NRAO

Al registrar con precisión el tiempo de llegada de los pulsos del pulsar, los científicos fueron capaces de calcular la geometría del sistema y las masas de las estrellas con una precisión sin precedentes. El sistema da a los científicos la mejor oportunidad para descubrir una violación de un concepto llamado el Principio de Equivalencia, que establece que el efecto de la gravedad sobre un cuerpo no depende de la naturaleza o la estructura interna de ese cuerpo.

Los experimentos más famosos que ilustran este principio es el reputado de Galileo sobre la caída de dos bolas de diferentes pesos desde la torre inclinada de Pisa y el del comandante del Apolo 15 David Scott que dejó caer un martillo y una pluma de halcón mientras estaba de pie en la superficie sin aire de la Luna en 1971.

«Mientras que la Teoría de la Relatividad General de Einstein hasta ahora ha sido confirmado por todos los experimentos, no es compatible con la teoría cuántica. Debido a eso, los físicos esperan que se descomponga bajo condiciones extremas», explica Ransom. «Este sistema triple de estrellas compactas nos da una gran oportunidad para buscar una violación de una forma específica del Principio de Equivalencia llamado el Fuerte Principio de Equivalencia», agrega.

Cuando explota una estrella masiva en forma de supernova y sus restos se colapsan en una estrella de neutrones superdensa, parte de su masa se convierte en energía de enlace gravitacional que mantiene la estrella densa junta. El fuerte Principio de Equivalencia dice que esta energía de enlace todavía reaccionará gravitacionalmente como si fuera masa. Prácticamente todas las alternativas a la relatividad general sostienen que no lo hará. «Este sistema ofrece la mejor prueba hasta ahora de que eso es así», afirma Ransom.

Bajo el fuerte principio de equivalencia, el efecto gravitatorio de la enana blanca externa sería idéntico tanto para la enana blanca interior y la estrella de neutrones. Si el fuerte principio de equivalencia no es válido en las condiciones de este sistema, el efecto gravitatorio de la estrella exterior en la enana blanca interior y la estrella de neutrones sería ligeramente diferente y las observaciones de alta precisión del pulsar podrían mostrarlo fácilmente.

«Encontrar una desviación del fuerte principio de equivalencia indicaría un desglose de la Relatividad General y nos apuntaría hacia una nueva, la teoría correcta de la gravedad», añade. «Este es un sistema fascinante de muchas maneras, incluyendo lo que debe haber sido una historia de formación completamente loca y tenemos mucho trabajo por hacer para comprenderlo plenamente», apunta Ransom.

Los resultados aparecen en la revista Nature y fueron presentados el lunes día 6 en la 223 ª reunión de la American Astronomical Society y que tiene lugar el 5-9 de enero en Washington DC .

Fuentes:

Resuelto el misterio de la Tetera silbante

Estándar

Una de las primeras cosas que te viene a la mente cuando piensas en la cultura y las tradiciones británicas es el Té de las cinco de la tarde. Otra cosa típica, y relacionada con el Té, son las teteras y el silbido de estas.

El físico inglés Lord Rayleigh propusó en 1877 que las moléculas de agua ivan rebotando, de ida y vuelta, en pico produciendo el sonido carcterístico de las teteras. Pero unos ingenieron de la Universidad de Cambridge han demostrado, recientemente, que los responsables del sonido son los pequeños remolinos de vapor.

Movimiento del Vapor en una Tetera: el vapor a presión se mueve más allá de las placas (negro) en pico de una tetera, se produce vórtices que se desprenden y se generan ondas acústicas (naranja) , creando un sonido silbante .

Los ingenieros imitaron las teteras de vapor en el laboratorio usando tubos y una serie de sensores de presión y micrófonos. Y obsevaron que el comportamiento del silbido se dividia en dos fases. La primera fase tiene lugar al principio, el agua esta empezando a hervir y el vapor vibra dentro de la boquilla produciendo un tono débil como el sonido que se genera cuando se sopla una botella vacía. Después, en la segunda fase, la presión se va acumulando y un fuerte chorro de vapor se escapa por la abertura de la tapa. Los pequeños vórtices de vapor rompen y crean ondas de presión en el aire que oímos como un silbido agudo.

Henrywood, uno de los ingenieron, dice que la investigación podría ayudar a los ingenieros a reducir los ruidos molestos causados ​​por el fluido corriendo a través de tuberías de la vivienda y tuberías industriales .

Fuentes:

Un poco más de estequiometrías inesperadas del NaCl

Estándar

Este post es un post complementario al de 21 de diciembre donde explico el hallazgo de Oganov y su equipo a altas presiones. Jordi Ibánez Insa de Consejo de Investigación Nacional Español ubicado en Barcelona lo resume prefectamente:

«El aspecto más interesante de este trabajo es que representa la caída de un ídolo de los libros de texto. Bajo alta presión , las reglas conocidas de la química se modifican y la simplicidad de compuestos altamente iónicos, tales como NaCl se pierde totalmente . «

En este post quiero añadir un poco más de información que he encontrado recientemente.

La mezcla de NaCl con exceso de Na (púrpura) o Cl (verde) a altas presiones (celda de yunque de diamante) da lugar a nuevos compuestos como NaCl3 y Na3Cl

La mezcla de NaCl con exceso de Na (púrpura) o Cl (verde) a altas presiones (celda de yunque de diamante) da lugar a nuevos compuestos como NaCl3 y Na3Cl

Como ya sabéis Oganov y su equipo encontró que el Na y el Cl se podía combinar a altas presiones dando lugar a una serie de compuestos estables con una estequiometría nada tradicional: Na3Cl , Na2Cl , Na3Cl2 , NaCl3 , y NaCl7

Estos compuestos tienen interesantes características estructurales. Con la excepción de una forma de NaCl3 (hay dos formas), que es un semiconductor , todos los compuestos son metales . La forma semiconductor de NaCl3 contiene unidades de tricloruro lineales . La estructura cristalina de NaCl7 es similar a la de NaCl3 metálico , excepto que el cloro y el sodio están en posiciones centrales , respectivamente . La estructura de Na3Cl consiste en capas de sodio que se alternan con capas aislantes de NaCl.

Fuente: Chemical & Engineering News de ACS

Un nuevo detector podría ampliar el rango de trabajo de las técnicas analíticas de RMN

Estándar

Una imagen por resonancia magnética (IRM) es uno de los pilares del diagnóstico médico ya que se puede obtener imágenes, de alta resolución, de dentro de objetos opacos de forma no invasiva. Es utilizada principalmente en medicina para observar alteraciones en los tejidos y detectar cáncer y otras patologías. También es utilizada en la indústria para analizar la estructura de los materiales tanto orgánicos como inorgánicos.

Está técnica no destructiva utiliza el fenómeno de la resonancia magnética nuclear (RMN) para obtener información sobre la estructura y composición del objeto a analizar. Esta información es procesada por ordenadores y transformada en imágenes del interior de lo que se ha analizado.

La IRM no debe ser confundida con la espectroscopia de resonancia magnética nuclear que utiliza el mismo principio de la resonancia magnética para obtener información sobre la composición de los materiales. Usa los campos magnéticos para alinear la magnetización nuclear de (usualmente) núcleos de hidrógeno del agua en el cuerpo. Los campos de radiofrecuencia (RF) se usan para sistemáticamente alterar el alineamiento de esa magnetización, causando que los núcleos de hidrógeno produzcan un campo magnético rotacional detectable por el escanner. Esa señal puede ser manipulada con adicionales campos magnéticos y así construir con más información imágenes del objeto.

Esquema de la red cristalina de un diamante con el defecto «Nitrogen-Vacancy Centre» (NC). V – vacante/vacancy; C – átomos de Carbono próximos a la vacante; N – átomo de Nitrogeno

Ha habido muchos intentos de utilizar la IRM para obtener  imágenes de objetos pequeños como células vivas , ya que la resolución puede estar muy por debajo del límite de difracción óptica. Sin embargo , la sensibilidad de detección de la IRM convencional cae rápidamente para objetos pequeños , por lo que es imposible resolver objetos más pequeños que unos pocos micrómetros, con esta técnica. Pero esto ha sido hasta ahora. Dos grupos (Manim et al. y Staudacher et al.) independientes han conseguido detectar volúmenes de unos pocos nm³ , tamaño comparable al de las moléculas grandes de proteína a temperatura ambiente. En lugar de utilizar un detector de bobina eléctrica , que no es lo suficientemente sensible para ir por debajo de la microescala , los investigadores usaron un detector de campo magnético hecho de diamante con un defecto de sitio del cristal llamado «single nitrogen-vacancy center» (NV). El defecto consiste en un átomo de nitrógeno y un orificio de red cristalina que reemplazan dos átomos de carbono adyacentes . En trabajos previos se había determinado que los NV eran sensibles a los campos magnéticos internos del diamante. Ahora se ha demostrado que los NV detecta las fluctuaciones del campo (nanotesla) de los protones que provienen la muestra orgánica situada en la superficie del detector de diamante. El diamante con el NV es un sensor de campo magnético átomico.

Aunque es necesario más trabajo para convertir la señal en información estructural y química, los investigadores prevén que la técnica podría ser usada para determinar las estructuras de pequeñas cantidades de proteínas que no se pueden cristalizar o incluso de biomoléculas en células vivas, así como la identidad y la posición de los átomos individuales en transistores a nanoescala en dispositivos electrónicos de próxima generación .

Fuentes: