sábado, 24 de dezembro de 2011

Universo teve 10 dimensões no Big Bang

Um grupo de pesquisadores do High Energy Research Accelerator Organization (KEK), da Universidade de Shizuoka e da Universidade de Osaka revelou que o Universo nasceu com três dimensões espaciais a partir de dez dimensões descrita pela teoria das supercordas.

Universo Primordial

© NASA/Adolf Schaller (Universo Primordial)

A teoria das supercordas descreve que o espaço-tempo tem nove direções espaciais e um sentido temporal.

Segundo o "Modelo Padrão" na cosmologia, o Universo se originou de uma expansão de um ponto invisível minúsculo (singularidade). Esta teoria é fortemente apoiada pela observação da radiação cósmica de fundo e a abundância relativa de elementos. No entanto, uma situação em que o Universo é um ponto minúsculo excede o alcance da teoria geral da relatividade de Einstein, e por isso não foi possível confirmar como o Universo se originou.
Na teoria das supercordas, que é considerada a "teoria de tudo", todas as partículas elementares são representados como vários modos de oscilação das diminutas cordas. Entre os modos de oscilação, há um que corresponde a uma partícula que medeia a gravidade, e, portanto, a teoria geral da relatividade pode ser naturalmente estendida para a escala das partículas elementares.
Portanto, espera-se que a teoria das supercordas permita a investigação do nascimento do Universo. No entanto, o cálculo real tem sido difícil porque a interação entre as cordas é forte, por isso toda a investigação até agora tem sido restrita na indagação de vários modelos.
A teoria das supercordas prevê um espaço com nove dimensões, o que coloca o grande enigma de como isso pode ser consistente com o espaço tridimensional que nós vivemos.
Um grupo de três pesquisadores, Jun Nishimura (professor associado da KEK), Asato Tsuchiya (professor associado da Universidade de Shizuoka) e Sang-Woo Kim (pesquisador da Universidade de Osaka) conseguiu simular o nascimento do Universo, usando um supercomputador para cálculos com base na teoria das supercordas. Isso mostrou que o Universo teve nove dimensões espaciais no início, mas apenas três destas foram submetidas à expansão em algum ponto no tempo.
Neste estudo, a equipe estabeleceu um método para calcular as matrizes de grandes dimensões (no modelo de matriz IKKT), que representam as interações de cordas.

Nos primordios do Universo o espaço é de fato estendido em nove direções, mas, em seguida, em algum momento apenas três dessas direções começam a expandir-se rapidamente. Este resultado demonstra, pela primeira vez, que o espaço tridimensional emerge a partir do espaço nonodimensional que a teoria das supercordas prevê.
Este cálculo foi realizado por simulação numérica com auxílio do supercomputador Hitachi SR16000 do Instituto Yukawa de Física Teórica da Universidade de Kyoto, que possui um desempenho teórico de 90,3 TFLOPS (Teraflops).
O estabelecimento de um novo método para analisar a teoria das supercordas por intermédio de computadores abre a possibilidade de aplicar essa teoria a diversos problemas. Por exemplo, agora deve ser possível fornecer uma compreensão teórica da inflação que se acredita ter ocorrido no início do Universo, e também a expansão acelerada do Universo.

Espera-se que a teoria das supercordas continuará evoluindo e desempenhando um papel importante na resolução de problemas em física de partículas, tais como a existência da matéria escura que é sugerida por observações cosmológicas, e a partícula de Higgs, que está prestes a ser descoberta pelos experimentos do LHC.

Fonte: High Energy Research Accelerator Organization

quinta-feira, 22 de dezembro de 2011

Descoberta nova partícula subatômica

O Grande Colisor de Hádrons (LHC), acelerador de partículas engajado na busca pelo bóson de Higgs, encontrou uma variedade mais pesada de uma partícula subatômica descoberta inicialmente um quarto de século atrás.

This is an offline reconstructed event from the GRID, showing tracks from the Inner Tracking System and the Time Projection Chamber of ALICE.

© LHC (íons pesados gerados no LHC)

A nova partícula, um bóson denominado Chi-b(3P), foi descoberta por intermédio da colisão de prótons.

Mas embora não se acredite que o bóson de Higgs seja feito de partículas menores, o Chi-b(3P) compreende duas partículas relativamente pesadas: o quark bottom e seu antiquark. Eles são ligados pela denominada força forte, que também faz os núcleos atômicos ficarem unidos. A Chi-b(3P) é uma versão mais pesada de uma partícula observada pela primeira vez cerca de 25 anos atrás.

A Chi-b(3P) é uma partícula que foi prevista por muitos teóricos, mas não foi observada em experimentos anteriores.

Correntes de prótons são disparadas em direções opostas e paralelas no túnel. Os feixes são, então, subjugados por poderosos ímãs de forma que alguns dos prótons colidam, alinhados com detectores para registrar os destroços subatômicos resultantes.

A teoria por trás do bóson é que a massa não deriva das partículas. Ao invés disso, vem de um bóson que interage fortemente com algumas partículas e menos, quando interage, com outras. Encontrar a Chi-b(3P) será um teste futuro para a potência do LHC, que se tornou o maior colisor de partículas do mundo, quando foi concluído, em 2008.

"Nossas novas medições são uma grande forma de testar cálculos teóricos das forças que atuam em partículas fundamentais, e nos levará mais perto do entendimento de como o Universo se mantém unido", explicou Miriam Watson, cientista britânica que trabalha na pesquisa com o CHi-b(3P).

A massa do Chi-b(3P) ou cb(3P) é de cerca de 10,5 GeV. Os outros dois estados, detectados previamente em outras experiências de colisão de partículas, são os estados cb(1P) e cb(2P) com massas de 9,90 e 10,26 GeV respectivamente.

Fonte: CERN

quarta-feira, 14 de dezembro de 2011

Sinais da existência do bóson de Higgs

A organização europeia para a pesquisa nuclear CERN, através dos experimentos ATLAS e CMS no LHC (Large Hadron Collider) divulgou sinais da existência do bóson de Higgs.

representação de sinal da existência do bóson de Higgs

© CERN (representação de sinal da existência do bóson de Higgs)

Seus resultados são baseados na recente análise de dados, mas não o suficiente para fazer qualquer declaração conclusiva sobre a existência ou não da elusiva partícula de Higgs. A principal conclusão é que de acordo com o Modelo Padrão para o bóson de Higgs existir, é mais provável que possua uma massa restrita à faixa de 116-130 GeV (gigaelétron-volt) pelo experimento ATLAS e 115-127 GeV pelo experimento CMS. Foram vistos picos de energia nestas regiões em ambos os experimentos na região de massa propícia, mas estes ainda não são relevantes o bastante para reivindicar uma descoberta.
O modelo padrão da física de partículas implica na existência do chamado Campo de Higgs que permeia todo o espaço. As partículas que interagem com este campo mais fortemente experimentam uma resistência maior ao seu movimento e por isso parecem mais pesadas. Algumas partículas, porém, como os fótons não interagem com o campo e por isso não possuem massa.

Os bósons de Higgs, se eles existem, têm uma vida muito curta e podem decair de diferentes maneiras. Caso seja produzido a partir das bilhões de colisões no LHC, o bóson rapidamente se transformará em partículas de massa menor e mais estáveis. Serão essas partículas os indícios que poderão comprovar a sua existência, que aparecerão como ligeiras variações em gráficos produzidos pelos detectores.

Dados do ATLAS e do CMS foram analisados em alguns canais de decaimento, e os experimentos puderam gerar pequenos excessos na região de baixa massa que ainda não foram excluídos.

Porém, nenhum desses excessos observados possuem um significado estatístico razoável. Entretanto, foram encontradas evidências da existência da partícula no intervalo de massa entre 124 e 126 GeV - cerca de 130 vezes mais pesado do que os prótons encontrados no núcleo dos átomos. É muito cedo ainda para dizer se o ATLAS e o CMS descobriram o bóson de Higgs, mas algumas conclusões e números apresentados proporcionaram grande interesse da comunidade da física de partículas.

O excesso de massa encontrado em torno de 125 GeV pode caracterizar a existência do bóson de Higgs, mas também poderia ser uma flutuação.

Não pode ser excluída também a presença da partícula entre 115 e 127 GeV por causa de modestos eventos de excesso de massa nessa região. O Modelo Padrão é a teoria que descreve o comportamento das partículas fundamentais e as forças que atuam entre elas. Esse modelo descreve a matéria ordinária, a matéria constituinte do nosso Universo visível. Porém o Modelo Padrão não descreve 96% do Universo que é invisível (matéria escura e energia escura). Um dos principais objetivos do programa de pesquisa do LHC é ir além do Modelo Padrão, e o bóson de Higgs é fundamental para ultrapassar essa fronteira.

O Modelo Padrão de Higgs confirmaria uma teoria colocada na década de 1960, mas existem outras formas possíveis que o bóson de Higgs poderia existir integrando teorias e indo além do Modelo Padrão. Este modelo poderia ainda apontar o caminho para uma nova física, através de sutilezas nesse comportamento que só emergiriam depois de se estudar uma grande quantidade de decaimentos de partículas de Higgs.

Caso se comprove que o Bóson de Higgs não exista, a teoria do Modelo Padrão teria de ser reescrita. Isso poderia abrir caminho para novas linhas de pesquisa, que poderão se tornar revolucionárias na compreensão do Universo.

Fonte: CERN

sexta-feira, 2 de dezembro de 2011

Neutrinos roubam a cena mais uma vez

Os neutrinos voltam à cena com os primeiros resultados do experimento Double Chooz, colaboração internacional, com participação brasileira, que tem por objetivo observar o seu estranho comportamento.

ilustração do sumiço dos neutrinos

© Fermilab (ilustração do sumiço dos neutrinos)

O experimento mostrou, com sucesso, o curioso desaparecimento de neutrinos e conseguiu encontrar um valor para o parâmetro físico que explica esse fenômeno.

Neutrinos são partículas subatômicas sem carga que de tão pequenas conseguem passar através de sólidos sem causar alterações. De fato, somos atravessados por neutrinos emitidos pelo Sol toda hora.

Existem três tipos de neutrinos: os do elétron, do tau e do múon. Recentemente, descobriu-se que essas partículas têm a curiosa propriedade de se transformar uma na outra durante sua propagação.

Os neutrinos também são produzidos, artificialmente, durante a fissão do urânio em reatores nucleares ou em aceleradores, como o LHC (Grande Colisor de Hádrons). Desde março deste ano, um detector de neutrinos do elétron está em funcionamento na usina de Chooz, na França, medindo as partículas que são emitidas e as que chegam a 1 km do reator.

usina nuclear de Chooz

© Double Chooz (usina nuclear de Chooz)

Depois de 100 dias de medição, os pesquisadores envolvidos no projeto observaram o desaparecimento dos neutrinos do elétron, o que significa que, em sua viagem do reator até o ponto onde está localizado o detector, eles devem ter se transformado em neutrinos do tau ou do múon, não identificáveis pelo equipamento usado.

Em reunião realizada no Centro Brasileiro de Pesquisas Físicas (CBPF) em outubro, pesquisadores do mundo inteiro compararam a quantidade de partículas emitidas pelo reator com o número de partículas que sumiram e chegaram ao valor mais preciso já obtido até hoje para o chamado “ângulo de mistura teta 13” (lê-se ‘um três’), um importante parâmetro envolvido na transformação dos neutrinos em curtas distâncias.

Alguns experimentos com aceleradores, como o japonês T2K, recentemente sugeriram valores para o teta 13, mas não com a precisão de 92% obtida pelo Double Chooz. “Quando falamos desse ângulo de mistura, estamos falando de medir algo muito pequeno, por isso sempre foi muito difícil encontrar esse valor”, conta o físico João dos Anjos, coordenador da equipe do CBPF no projeto.

A medida precisa do teta 13 é necessária para se chegar ao valor de outra incógnita de nome complicado na física de partículas, a chamada violação de carga paridade, que pode ajudar a explicar o mistério do sumiço da antimatéria, prevista na teoria do Big Bang sobre a origem do Universo.

E o fim desse mistério pode estar próximo. Em meados do ano que vem, o Double Chooz já terá um ano inteiro de medições, o que pode tornar o valor de teta 13 mais preciso ainda.

A medida do teta 13 é necessária para se chegar ao valor de uma incógnita da física que pode ajudar a explicar o mistério do sumiço da antimatéria

Esses resultados devem ser apresentados durante o congresso de Neutrinos 2012 em julho, em Tóquio, Japão, e espera-se que eles ajudem os pesquisadores do experimento T2K a encontrar o valor do parâmetro que pode explicar o sumiço da antimatéria.

Fonte: Ciência Hoje

domingo, 27 de novembro de 2011

Transístor quântico diminui consumo de energia

Um avanço demonstrado por pesquisadores da IBM e do Instituto Politécnico Federal de Lausanne, na Suíça, através dos fenômenos quânticos será possível diminuir o consumo de energia dos equipamentos eletrônicos por um fator de 100.

ilustração de um transistor quântico

© IBM (ilustração de um transístor quântico com nanotubos)

Como o grande limitador ao aumento de velocidade dos processadores é justamente o elevado consumo de energia, econsequentemente o calor dissipado por eles, é de se esperar um aumento equivalente na velocidade de processamento.

Recentemente, a IBM anunciou uma tecnologia que usa metal líquido para retirar calor dos processadores, afirmando que isso permitiria colocar um supercomputador atual dentro de um celular em breve.

O segredo está em um novo tipo de transístor, o elemento fundamental de toda a eletrônica, chamado Túnel-FET, ou TFET.

O termo túnel se refere ao fenômeno do tunelamento quântico, pelo qual uma partícula consegue atravessar uma barreira física - este fenômeno já é largamente utilizado, por exemplo, nos microscópios eletrônicos de tunelamento.

A tecnologia atual é baseada nos transistores de efeito de campo (FET, da sigla em inglês), onde um fluxo de elétrons ativa ou desativa o transístor - um fluxo de bilhões de elétrons, que esquenta tudo por onde passam.

No transístor, duas câmaras são separadas por uma barreira de energia. Na primeira, uma multidão de elétrons fica esperando quando o transístor está desligado. Quando é aplicada uma tensão, eles cruzam a barreira de energia, ativando o transístor. É o que se chama de injeção termal.

Ocorre que alguns elétrons acabam cruzando essa barreira antes da hora, mesmo que aparentemente não tivessem energia para tanto. Esse é o efeito túnel, que sempre atrapalhou o funcionamento dos transistores.

Estreitando a barreira do transístor torna-se possível amplificar o efeito quântico e passar a basear o funcionamento do transístor inteiro nesse tunelamento, que é a chamada injeção por tunelamento. A energia necessária para que os elétrons cruzem a barreira é reduzida drasticamente.

"Substituindo o princípio do transístor de efeito de campo tradicional pelo efeito túnel, pode-se reduzir a tensão dos transistores de 1 volt para 0,2 volt," afirmou o Dr. Adrian M. Ionescu, que está desenvolvendo o Túnel-FET juntamente com Heike Riel.

Sua adoção é viável, uma vez que os processadores poderão ser construídos com FETs e Túnel-FETs convivendo no mesmo chip.

"Os protótipos atuais foram construídos em ambiente pré-industrial. Nós podemos razoavelmente esperar vê-los em produção em massa por volta de 2017," disse Ionescu.

Fonte: Nature

sexta-feira, 18 de novembro de 2011

Luz gerada pelo vácuo

Um experimento, previsto há mais de 40 anos,  produziu luz a partir do vácuo.

ilustração do efeito Casimir dinâmico

© Philip Krantz/ U. Chalmers (ilustração do efeito Casimir dinâmico)

O grupo formado por Christopher Wilson e seus colegas da Universidade Chalmers, na Suécia, conseguiu capturar fótons que oriundos do vácuo quântico, aparecendo e desaparecendo continuamente.

O experimento é baseado num dos mais estranhos e importantes princípios da mecânica quântica: o princípio de que o vácuo não é um vazio "repleto de nada".

Na verdade, o vácuo é composto de partículas que estão flutuando continuamente entre a existência e a inexistência: elas surgem do vácuo quântico e têm uma vida efêmera e desaparecem novamente.

Seu tempo de vida é tão curto que esses fótons são mais comumente conhecidos como partículas virtuais.

O que os pesquisadores fizeram foi obter alguns desses fótons e dar-lhes a eternidade em termos quânticos, ou seja, transformá-los em fótons reais, luz que pode ser detectada por um sensor e medida.

Para capturar os fótons virtuais, os pesquisadores simularam um espelho movendo-se a uma fração significativa da velocidade da luz. O fenômeno, conhecido como efeito de Casimir dinâmico, foi observado experimentalmente pela primeira vez.

"Como não é possível fazer um espelho mover-se rápido o suficiente, nós desenvolvemos outra técnica para obter o mesmo efeito," explica o professor Per Delsing, coordenador da equipe. "Em vez de variar a distância física até um espelho, nós variamos a distância elétrica de um circuito elétrico que funciona como um espelho para microondas".

O espelho consiste em um sensor quântico conhecido como SQUID (Superconducting Quantum Interference Device), que é extremamente sensível a campos magnéticos.

Alterando a direção do campo magnético vários bilhões de vezes por segundo, os cientistas fizeram o espelho vibrar a uma velocidade equivalente a 25% a velocidade da luz.

Isto é cinco vezes mais do que a tentativa anterior, quando os cientistas afirmaram pela primeira vez ter produzido luz a partir do nada - aquele artigo, contudo, ainda não havia sido aceito para publicação em uma revista científica, o que significa que outros cientistas não haviam avaliado o experimento.

"O resultado foi que os fótons apareceram em pares do vácuo, e nós pudemos medi-los na forma de radiação de microondas," disse Delsing, ou seja, exatamente como a teoria previa.

O que acontece durante o experimento é que o espelho transfere uma parte de sua energia cinética para os fótons virtuais, o que os ajuda a se "materializarem".

Segundo a mecânica quântica, vários tipos de partículas estão presentes no vácuo quântico. Os cientistas acreditam que foram capazes de detectar os fótons porque eles não têm massa.

"É necessário relativamente pouca energia para excitá-los e tirá-los do estado virtual. Em princípio, pode-se criar outras partículas do vácuo, como elétrons e prótons, mas isso vai exigir um bocado mais de energia," disse Delsing.

Agora os cientistas querem estudar em detalhes esses fótons emergentes: como eles surgem aos pares, os cientistas acreditam que eles possam ser úteis para o desenvolvimento de computadores quânticos, com seus qubits de partículas entrelaçadas.

Fonte: Nature

sexta-feira, 4 de novembro de 2011

Leis da Física variam ao longo do Universo

Uma pesquisa afirma que as leis da natureza podem variar ao longo do Universo.

variação da constante alfa

© John Webb (variação da constante alfa)

O gráfico mostra medições feita pelo telescópio Keck e VLT (Very Large Telescope). Os quadrados são dados do VLT, os círculos do Keck, e os triângulos são quasares observados em ambos.

O estudo concluiu que uma das quatro forças fundamentais, o eletromagnetismo, parece variar de um lugar para outro.

O eletromagnetismo é medido por meio da chamada constante de estrutura fina, simbolizada pela letra grega alfa (α).

Esta constante é uma combinação de três outras constantes: a velocidade da luz (c), a carga do elétron (e) e a constante de Planck (h), onde α = e2/hc.

O resultado é cerca de 1/137, um número sem dimensão, o que a torna ainda mais fundamental do que as outras constantes, como a gravidade, a velocidade da luz ou a carga do elétron.

Em termos gerais, a constante alfa mede a magnitude da força eletromagnética, ou seja, a intensidade das interações entre a luz e a matéria.

Agora, John Webb e pesquisadores das universidades de Nova Gales do Sul e Swinburne, na Austrália, e Cambridge, no Reino Unido, mediram o valor de alfa em cerca de 300 galáxias distantes, usando dados do VLT do ESO, no Chile.

Observaram que numa direção, a partir de nossa localização no Universo, a constante alfa vai ficando gradualmente mais fraca, e gradualmente mais forte na direção oposta.

Isso mostra uma espécie de "eixo preferencial" para o Universo, de certa forma coincidente com medições anteriores que deram origem à teoria do chamado Fluxo Escuro, que indica que uma parte da matéria do nosso Universo estaria vazando por uma espécie de "ralo cósmico", sugada por alguma estrutura de um outro universo.

A descoberta, se confirmada, terá profundas implicações para o nosso entendimento do espaço e do tempo, e viola um dos princípios fundamentais da teoria da Relatividade Geral de Einstein, o princípio da equivalência de Einstein.

Essas violações são de fato esperadas por algumas “teorias de tudo”, que tentam unificar todas as forças fundamentais. Uma alteração suave e contínua de alfa pode implicar que o Universo seja muito maior do que a parte dele que conseguimos observar, possivelmente infinito.

O professor Webb afirma que esta descoberta também pode dar uma resposta muito natural para uma questão que tem intrigado os cientistas há décadas: por que as leis da física parecem tão bem ajustadas para a existência da vida?

"A resposta pode ser que outras regiões do Universo não são tão favoráveis à vida como nós a conhecemos, e que as leis da física que medimos em nossa parte do Universo são meramente 'regras locais'. Neste caso, não seria uma surpresa encontrar a vida aqui," afirma o cientista.

Isto porque basta uma pequena variação nas leis da física para que, por exemplo, as estrelas deixem de produzir carbono, o elemento básico da vida como a conhecemos.

Para chegar às suas conclusões, os cientistas usaram a luz de quasares muito distantes como faróis.

O espectro da luz que chega até nós, vinda de cada quasar, traz consigo sinais dos átomos nas nuvens de gás que a luz atravessou em seu caminho até a Terra.

Isto porque uma parte da luz é absorvida por estes átomos, em comprimentos de onda específicos que revelam a identidade desses átomos.

Essas linhas de absorção são então comparadas com as mesmas assinaturas encontradas em laboratório aqui na Terra para ver se a constante alfa é mesmo constante.

Os resultados mostraram que não, que alfa varia ao longo de um eixo que parece atravessar o Universo, assim como um eixo magnético atravessa a Terra.

Se há variação em uma das constantes, é de se esperar que as outras constantes fundamentais também variem.

Portanto, é preciso projetar experimentos que possam verificar variações na gravidade, na carga do elétron ou na velocidade da luz.

Fonte: Physical Review Letters

sábado, 29 de outubro de 2011

Rumo a estrela artificial controlada

Usando 60 raios lasers de alta potência, combinados para atingir uma cápsula minúscula, físicos produziram um plasma com condições de densidade de energia extremas.

© LLNL (Omega Laser)

Essas condições incluem uma pressão de 100 bilhões de atmosferas, uma temperatura de 200 milhões Kelvin e uma densidade 20 vezes maior que a do ouro.

Antes desse super disparo de laser, essas condições só podiam ser encontradas no núcleo de planetas gigantes, como Júpiter e Saturno, ou no interior das estrelas.

O experimento é um dos caminhos rumo à construção de uma "estrela artificial" controlada, onde a fusão nuclear poderá ser explorada para a geração sustentável de energia.

Muitos físicos acreditam que a fusão nuclear a laser seja a melhor saída para essa fonte de energia limpa.

O laboratório Omega Laser Facility, localizado na Universidade de Rochester, nos Estados Unidos, onde o recorde acaba de ser batido, é um dos que trabalham nesse sentido.

Os pesquisadores normalmente usam aceleradores para estudar as reações nucleares.

Neste laboratório, a equipe usou uma abordagem diferente, criando um plasma quente e denso, no qual elétrons são arrancados dos átomos para criar um plasma, o quarto estado da matéria.

O estado de plasma está presente nas estrelas, nos relâmpagos e até nas lâmpadas fluorescentes, na verdade 99% do Universo visível é composto de plasma.

Para obter esse plasma, todos os 60 feixes de laser do Laboratório Ômega foram dirigidos simultaneamente para a superfície de uma cápsula de vidro de um milímetro de diâmetro, cheia de isótopos pesados de hidrogênio - deutério e trítio.

laser sobre uma esfera de vidro com deutério e trítio

© LLNL (laser sobre uma esfera de vidro com deutério e trítio)

Os feixes de laser geram um plasma em rápida expansão, de alta temperatura, na superfície da cápsula, fazendo-a implodir.

Esta implosão, por sua vez, cria um plasma extremamente quente (100 milhões Kelvin) de íons de deutério e trítio, e de elétrons, dentro da cápsula.

Uma pequena fração dos íons de deutério e trítio se fundem, um processo que gera um nêutron viajando a um sexto da velocidade da luz, com cerca de 14,1 milhões de elétron-volts de energia - em comparação, a combustão de uma substância química comum, como a madeira ou o carvão, gera cerca de 1 elétron-volt de energia.

Conforme esses nêutrons energizados escapam da cápsula que está implodindo, uma pequena fração colide com os íons de deutério e trítio.

A partir dessas colisões, bastante raras, e da correspondente transferência de energia dos nêutrons para os íons, os pesquisadores podem obter uma medição precisa do processo de fusão nuclear.

Fonte: Physical Review Letters

Os buracos Kondo na supercondutividade

Pesquisadores usaram um composto de urânio, rutênio e silício (URu2Si2), que é conhecido como um "sistema de férmions pesados"  para obter efeitos sobre a supercondutividade, a capacidade de alguns materiais de transportar correntes elétricas sem resistência.

efeitos dos buracos Kondo na supercondutividade

© Davis Group (efeitos dos buracos Kondo na supercondutividade)

Os resultados revelaram como a substituição de apenas alguns átomos pode causar perturbações generalizadas das delicadas interações que dão ao material suas propriedades únicas, incluindo a supercondutividade.

É um sistema onde os elétrons que trafegam através do material param periodicamente para interagir com os elétrons localizados nos átomos de urânio que compõem a estrutura do cristal.

Essas interações magnéticas desaceleram os elétrons, fazendo com que pareça que eles têm uma massa extra, mas também contribui para a supercondutividade do material.

Em 2010, Séamus Davis, físico do Laboratório Nacional Brookhaven, dos Estados Unidos, e um grupo de colaboradores visualizaram esses férmions pesados pela primeira vez, usando a técnica de obtenção de imagens espectroscópicas por microscopia de tunelamento (STM-SI), que mede o comprimento de onda dos elétrons do material em relação à sua energia.

A ideia deste novo estudo foi "destruir" o sistema de férmions pesados, substituindo o tório por alguns dos átomos de urânio. O tório, ao contrário do urânio, não é magnético, portanto, em teoria, os elétrons deveriam ser capazes de se mover livremente ao redor dos átomos de tório, em vez de parar para os breves encontros magnéticos que têm com cada átomo de urânio.

Estas áreas onde os elétrons deveriam fluir livremente são conhecidas como "buracos Kondo", uma homenagem ao físico Jun Kondō que descreveu o espalhamento dos elétrons condutores devido as impurezas magnéticas.

Os elétrons fluindo livremente podem auxiliar na corrente elétrica sem resistência, mas os buracos Kondo acabam se tornando bastante destrutivos para a supercondutividade.

Trabalhando com amostras de tório dopado, feitas pelo físico Graeme Luke, na Universidade McMaster, a equipe de Davis usou sua ferramenta STM-SI para visualizar o comportamento dos elétrons.

Foram identificados inicialmente os locais dos átomos de tório na rede, e consequentemente as funções de onda da mecânica quântica dos elétrons em torno desses locais.

As medições confirmaram várias das previsões teóricas, incluindo a ideia proposta no ano passado pelo físico Dirk Morr, da Universidade de Illinois, de que as ondas de elétrons iriam oscilar descontroladamente ao redor dos buracos Kondo.

Assim, destruindo os férmions pesados, que devem emparelhar-se para o material agir como um supercondutor, os buracos Kondo interrompem a supercondutividade do material.

A técnica de visualização também revelou como apenas alguns poucos buracos Kondo podem provocar uma destruição generalizada.

O que os cientistas descobriram ao estudar esse exótico sistema de férmions pesados pode também valer para o mecanismo de outros supercondutores que operam em temperaturas mais altas.

Fonte: Proceedings of the National Academy of Sciences

sábado, 22 de outubro de 2011

Usando o Sol para testar teorias alternativas

Um grupo de físicos portugueses está propondo que o Sol seja usado para testar algumas teorias alternativas à Teoria da Relatividade Geral de Einstein.

Sol

© NASA/SOHO (Sol)

Jordi Casanellas e seus colegas da Universidade Técnica de Lisboa afirmam que uma teoria proposta há mais de um século por Arthur Eddington não foi totalmente descartada pelas observações recentes dos neutrinos solares e das ondas acústicas solares.

E, segundo eles, uma variante da teoria de Eddington pode ajudar a resolver algumas das deficiências das teorias atuais.

A Teoria da Relatividade Geral, que descreve a gravidade como a curvatura do espaço-tempo por corpos celestes de grande massa, tem passado por todos os testes aos quais tem sido submetida ao longo dos anos. Mas existem problemas para serem resolvidos.

Além da bem conhecida dificuldade de unificação com a mecânica quântica e das ainda pendentes explicações para a matéria e a energia escuras, há o problema bem mais sério das singularidades, onde as leis da física simplesmente se esfacelam.

Em 2010, Máximo Bañados (Universidade Católica do Chile) e Pedro Ferreira (Universidade de Oxford) propuseram uma variante da teoria de Eddington que adiciona um termo gravitacional repulsivo para a teoria da relatividade.

Mas o que parece ser a simples adição de mais um membro a uma equação tem um efeito devastador sobre o entendimento mais geral do cosmo.

Esse termo gravitacional repulsivo não apenas elimina a necessidade das singularidades, ele descarta a formação dos buracos negros e a ideia de que o Universo teria surgido de um Big Bang.

Quando tenta interpretar um campo gravitacional em um vácuo, essa teoria inspirada em Eddington é equivalente à Teoria da Relatividade. Mas ela prevê efeitos diferentes para a gravidade agindo no interior da matéria.

O lugar ideal para testar essas diferenças seria o interior de estrelas de nêutrons. Embora se acredite que estrelas de nêutrons possam ativar o vácuo quântico, não se sabe o suficiente a respeito delas para comparar as duas teorias. Por exemplo, recentemente foi encontrada uma estrela de nêutrons cuja existência parecia ser impossível.

O Sol é uma fonte de gravidade muito menos extrema do que uma estrela de nêutrons, porém o funcionamento do seu interior já é razoavelmente bem descrito pelos modelos solares.

O grupo de Casanellas calculou que, mesmo em sua forma newtoniana, não-relativística, a teoria derivada de Eddington prevê diferenças quantificáveis nas emissões solares em comparação com a teoria gravitacional padrão, desenvolvida por Einstein.

O termo gravitacional repulsivo na teoria de Bañados e Ferreira seria equivalente a dar um valor diferente para a constante gravitacional no interior da matéria.

E intensidades diferentes da gravidade no interior do Sol devem resultar em diferenças em sua temperatura interna, uma vez que se assume que o Sol está em equilíbrio hidrostático, ou seja, a pressão para dentro de sua massa é equilibrada pela pressão para fora gerada pelas reações de fusão nuclear em seu interior.

Uma temperatura mais elevada implica uma maior taxa de fusão nuclear, implicando em uma maior taxa de emissão de neutrinos solares, algo diretamente mensurável.

Uma força da gravidade maior no interior do Sol propicia numa variação na sua distribuição de densidade, o que deve modificar a propagação das ondas acústicas em seu interior, podendo ser medida com as técnicas da heliossismologia.

Todos esses dados já estão disponíveis. Contudo, eles colocam sérias restrições à nova teoria, impondo limites muito estreitos para seus valores.

Um teste mais rigoroso exigiria melhorias nos modelos solares, incluindo a abundância de hélio na superfície do Sol, ou medições mais precisas dos fluxos de neutrinos.

Paolo Pani, um dos membros da equipe, sugere um teste alternativo, aqui na Terra mesmo.

Para ele, tanto a teoria derivada de Eddington, quanto outras teorias alternativas da gravidade, poderiam ser testadas medindo a atração gravitacional entre uma esfera de metal inserida em um buraco no solo e a massa da Terra ao seu redor.

A ideia é fazer um buraco onde coubesse apenas a esfera, e nada mais, com uma precisão gigantesca, de forma que a medição mostrasse apenas a intensidade da gravidade no interior da matéria, e não no vazio ao seu redor.

Entretanto, tal experimento apresenta desafios consideráveis.

Fonte: Physics World

sábado, 8 de outubro de 2011

A pura luz do laser de raios X

Pesquisadores analisaram os primeiros resultados do LCLS (Linac Coherent Light Source), uma fonte de laser de raios X recém-inaugurada na Universidade de Stanford, nos Estados Unidos.
estação de espalhamento de raios X ressonante
© SLAC (estação de espalhamento de raios X ressonante)
Na medida da coerência do laser, que é o grau em que as ondas de luz são sincronizadas, descobriu-se que o LCLS produz a mais coerente radiação de raios X já medida.
Com um feixe de tão alta qualidade, a máquina é capaz de determinar a estrutura atômica de materiais com um nível de precisão sem precedentes.
Isto será útil em campos tão diversos quanto a descoberta de novos medicamentos, a engenharia de materiais e até a arqueologia.
Desde a invenção do maser, em 1957 - o antecessor de micro-ondas do raio laser de luz visível - cientistas têm desenvolvido lasers com comprimentos de onda cada vez mais curtos, aplicando-os a uma crescente variedade de propósitos.
Mas fazer lasers com comprimentos de onda muito curtos é um desafio. Para que uma fonte de luz seja um laser, a maioria dos seus fótons deve ser coerente, e eles devem oscilar em sincronia.
Uma alta coerência significa que a luz vai difratar mais precisamente, o que, para um feixe de raios X, significa imagens mais nítidas da estrutura atômica que está sendo estudada.
Feixes de laser também têm vários modos de oscilação, assim como instrumentos de cordas e tambores, e o feixe ideal tem todos os seus fótons contribuindo para um único modo.
detector Linac Coherent Light Source
© SLAC (detector Linac Coherent Light Source)
Quando o LCLS começou a operar, a evidência para uma luz verdadeiramente laser foi a presença de pulsos de raios X brilhantes, monocromáticos e altamente focados.
No entanto, até agora, as estimativas da coerência da luz eram baseadas unicamente em simulações.
Agora, os cientistas mediram na prática um tempo de coerência de 0,55 femtossegundo, o que significa que o pulso tem efetivamente a mesma cor e intensidade durante esse intervalo de tempo, equivalente a uma distância de cerca de 150 nanômetros ao longo da direção do feixe.
Assim, uma amostra de 150 nanômetros de profundidade pode ser iluminada com luz coerente de uma única vez, gerando uma fotografia da amostra com um grande campo de visão, da largura de milhares de átomos.
Ter este nível de coerência significa que a maioria dos fótons está confinada a um único modo espacial.
Cerca de 78% dos fótons do laser de raios X estavam no modo dominante, em comparação com menos de 1% em uma fonte de luz síncrotron de raios X típica.
Um artigo sobre a pesquisa foi publicado na revista Physical Review Letters.
Fonte: SLAC National Accelerator Laboratory

quinta-feira, 6 de outubro de 2011

Resfriamento luminoso

Um grupo internacional de pesquisadores, com participação brasileira, conseguiu pela primeira vez, utilizando um laser, resfriar um nano-objeto mecânico até o seu estado de mais baixa energia possível, a chamada energia de ponto zero.
resfriamento a laser
© Nature (resfriamento a laser)
De acordo com os autores, ao empregar a luz para colocar um sistema mecânico sólido no estado de energia de ponto zero - e no qual ele se comporta de acordo com as leis da mecânica quântica - o estudo abre caminho para o desenvolvimento de detectores de massa e força extremamente sensíveis, além de abrir perspectivas para a realização de experimentos quânticos em sistemas macroscópicos.
O trabalho foi realizado por pesquisadores do Instituto de Tecnologia da Califórnia (Caltech), dos Estados Unidos, em colaboração com uma equipe da Universidade de Viena, na Áustria.
Um dos autores é o brasileiro Thiago Alegre, atualmente professor do Departamento de Física Aplicada da Universidade Estadual de Campinas (Unicamp). Nos últimos três anos, Alegre esteve no Caltech como pós-doutorando, depois de concluir o doutorado na Unicamp, com bolsa da FAPESP.
Com o uso de um laser, o grupo resfriou a microcavidade de um nano-objeto até seu estado de energia de ponto zero. O feito só havia sido alcançado anteriormente em sistemas de armadilhas ópticas contendo poucos átomos.
"Usamos um recurso óptico, o laser, para resfriar um sistema mecânico sólido ao estado de mais baixa energia possível. Isso só havia sido feito com poucos átomos ou íons, mas conseguimos fazê-lo com um sistema composto por bilhões de átomos. O estudo abre caminho para realizar experimentos quânticos em sistemas macroscópicos, o que é um sonho dos cientistas há quase uma década", disse Alegre.
Para o experimento, os cientistas projetaram e fabricaram uma cavidade óptica nanométrica, composta de uma pequena viga feita de silício, na qual buracos da ordem de 200 nanômetros são cuidadosamente posicionados. A estrutura tem dimensões de cerca de 560 nanômetros de largura e 15 mícrons de comprimento. O mícron e o nanômetro são, respectivamente, a milionésima e a bilionésima parte do metro.
"Essa geometria forma uma cavidade óptica onde apenas uma frequência - ou cor - de um laser pode ser confinada. O sistema tem a capacidade de servir como oscilador mecânico, podendo também aprisionar fônons - as partículas associadas com oscilações mecânicas, assim como os fótons estão associados com as oscilações eletromagnéticas, ou luz", explicou.
Por confinar em um mesmo local fótons e fônons, a pequena estrutura intensifica a interação entre vibrações mecânicas e luz. "Trata-se de um sistema optomecânico. A luz que atravessa essa cavidade, carregando informação sobre a amplitude de oscilação do sistema, ou número de fônons, pode ser associada à temperatura desse modo de oscilação", disse Alegre.
Ao escolher cuidadosamente a frequência do laser de excitação, os pesquisadores conseguem extrair energia mecânica por meio da luz que sai da cavidade, resfriando o sistema, segundo o cientista. Com isso, criam uma interface eficiente entre um sistema óptico e um sistema mecânico onde a informação pode fluir de um para outro.
Estabelecer o "diálogo" entre o mundo mecânico e o mundo óptico tem desdobramentos científicos importantes, segundo Alegre. Em outro estudo também publicado na Nature, no início de 2011, o mesmo grupo demonstrou os efeitos do modo mecânico sobre a luz, interação que possibilita em tese a criação de memórias ópticas.
"Já no trabalho que acaba de ser publicado, demonstramos o efeito da parte óptica sobre a parte mecânica. Demonstrando a interação pelos dois lados, abrimos a possibilidade de conseguir um controle muito maior sobre ela", afirmou Alegre.
Um dos recursos utilizados por cientistas para estudar efeitos quânticos em escala macroscópica tem sido os experimentos que utilizam a condensação de Bose-Einstein - uma fase da matéria formada por átomos em temperaturas próximas do zero absoluto.
Mas, segundo Alegre, para se trabalhar dessa maneira, o primeiro passo é levar o sistema ao estado fundamental, isto é, baixar sua temperatura global até poucas dezenas de milikelvins.
"Para chegar ao estado fundamental é preciso trabalhar com as temperaturas próximas de zero kelvin, o que é bastante complexo e caro. No nosso experimento, não baixamos a temperatura global do sistema. Trabalhamos com uma temperatura de cerca de 20 kelvin. Em vez de baixar toda a temperatura do sistema, criamos um caminho óptico para que apenas o modo vibracional chegasse próximo de zero kelvin", explicou.
Segundo Alegre, os cientistas criaram um caminho de fuga para os fônons através da luz. "Aprisionada na cavidade óptica, a luz tenta mudar de cor toda vez que a cavidade se move, absorvendo energia mecânica do sistema, que é assim resfriado", disse.
Fonte: Nature e FAPESP

terça-feira, 4 de outubro de 2011

Qual será o destino final do Universo?

Os americanos Saul Perlmutter, Brian P. Schmidt e Adam G. Riess são os ganhadores do Prêmio Nobel de Física 2011 por seus trabalhos sobre a expansão acelerada do Universo, informou nesta terça-feira a Real Academia de Ciências da Suécia.
8x10.ai
© NASA/ESA (SN 1604 - supernova de Kepler)
Saul Perlmutter, nascido em 1959 nos Estados Unidos,  é astrofísico no Laboratório Nacional Lawrence Berkeley e coordena o Projeto Cosmológico Supernova, na Universidade da Califórnia. Foi eleito membro da Associação Americana para o Avanço da Ciência.
Brian P. Schmidt , nascido também nos Estados Unidos em 1967 e com nacionalidade australiana, é astrofísico do observatório Mount Stromlo da Universidade Nacional da Austrália.
Adam G. Riess, nascido em Washington em 1969, é astrofísico no Instituto Científico de Telescópios Espaciais da Universidade John Hopkins. Foi nomeado membro da Academia Nacional das Ciências dos Estados Unidos.
Saul Permutter, Adam Riess e Brian Schmidt
© AFP (Saul Permutter, Adam Riess e Brian Schmidt)
O prêmio de 10 milhões de coroas suecas, (cerca de R$ 2,8 milhões), será dividido em duas partes. Uma para Perlmutter e, a outra, entre Schmidt e Riess.
O Supernova Cosmology Project, da Universidade de Berkeley, e o High-z Supernova Search Team, da Universidade Nacional da Austrália, estavam mapeando o Universo em busca de suas supernovas (um tipo específico de estrelas no fim de sua vida) mais distantes, para tentar demonstrar que a expansão do Universo estava se desacelerando.
As observações feitas em 1998 por estes astrônomos, associados em duas equipes diferentes, sobre a explosão de supernovas e a análise da luz emitida nessas situações permitiu demonstrar que o Universo cresce de forma acelerada e não cada vez mais devagar, como se achava.
A descoberta da expansão acelerada do Universo foi possível através da observação de um tipo muito especial de supernova: a supernova Ia.
Trata-se da explosão de uma estrela muito antiga e compacta, tão pesada quanto o Sol, mas de tamanho relativamente pequeno, como o da Terra. Uma única supernova pode emitir, durante algumas semanas, tanta luz quanto uma galáxia inteira.
Os dois times de pesquisa descobriram mais de 50 dessas supernova e detectaram que a luz delas era mais fraca do que o esperado, um sinal de que a expansão do Universo estava acelerando.
Embora os resultados contrariassem todas as previsões, ambos os grupos chegaram às mesmas conclusões sobre a aceleração.
Acredita-se que o fenômeno seja causado pela energia escura, que compõe cerca de 70% do Universo e sobre a qual ainda quase não se sabe nada.
As pesquisas realizadas também mostram como as equações da teoria da relatividade geral, desenvolvida em 1915 pelo físico alemão Albert Einstein, estão corretas.
A constante cosmológica foi um recurso usado por Einstein para tentar equacionar a expansão do Universo com apenas a matéria visível disponível.
Antes de morrer, em 1953, Einstein reconheceu a constante cosmológica como um erro. Ele também admitiu que o Universo, de fato, estava se expandindo.
Agora, a constante cosmológica é utilizada para provar o aumento do Universo. Diferente da ideia inicial de Einstein, mas salvando um conceito que era tido como errado há mais de meio século.
No entanto, a descoberta de que essa expansão está se acelerando é espantosa. Se ela continuar acelerando, o Universo  vai acabar em gelo!
Fonte: The Royal Swedish Academy of Sciences

domingo, 2 de outubro de 2011

O Tevatron parou de acelerar partículas

O maior acelerador de partículas dos Estados Unidos, o Tevatron, localizado no estado de Illinois, encerrou suas atividades no dia 30 de setembro de 2011 depois de 25 anos recriando as condições do Big Bang.

Tevatron

© Fermilab (Tevatron)

O Tevatron ficou obsoleto após o aparecimento do Grande Colisor de Hádrons (LHC), um acelerador de partículas mais poderoso, o maior do mundo, construído na fronteira franco-suíça, pelo Centro Europeu de Pequisa Nuclear (CERN), um consórcio de 20 países.
Por causa da crise econômica, dificilmente os Estados Unidos, que já dominaram a área e colheram os louros de descobertas e inovações tecnológicas, serão capazes de reunir os recursos necessários para construir um substituto mais moderno para o Tevatron.
Por isso, físicos americanos se concentrarão em questões internas mais específicas e menos caras. Também trabalharão em conjunto com o CERN em projetos de alta energia, como a busca pelo Bóson de Higgs, batizada de "partícula de Deus".

Os cientistas do Fermilab dizem não poder prever o que os EUA perderão cedendo o domínio da física de alta energia para a Europa. Já os ganhos obtidos com o Tevatron são muito mais fáceis de quantificar. O Tevatron deu contribuições fenomenais para a Física de partículas, cuja principal descoberta foi o quark top em 1995.
Além de aprofundar nosso conhecimento sobre os mistérios fundamentais do Universo, o Tevatron também levou a uma série de avanços concretos. Entre eles está o uso generalizado da geração de imagens por ressonância magnética (MRI) para diagnósticos médicos. Os supercondutores utilizados nos magnetos das máquinas de MRI eram raros e caros demais até que o Fermilab criou uma indústria com o Tevatron, gerando uma demanda de fios de supercondução suficientes para dar a volta na Terra 2,3 vezes.
Atualmente, os cientistas estão construindo uma câmera de energia escura, que será capaz de varrer a galáxia mais rápido do que qualquer outro telescópio. Sua função será descobrir porque a expansão do Universo acelera ao invés de recuar. Eles também trabalham na construção do feixe de neutrinos mais poderoso do mundo, que ajudará a explicar porque o Universo tem mais matéria do que antimatéria e aprofundar nosso conhecimento sobre suas partículas mais abundantes.

cavidades para acelerar partículas de alta intensidade

© Fermilab (cavidades para acelerar partículas de alta intensidade)

Além disso, existe o projeto do acelerador de neutrinos mais intenso do mundo, batizado Projeto X, tornando a melhor máquina para experimentos na fronteira de alta energia.

O feixe de partículas produzira káon, múon, além de neutrinos que tentariam desvendar questões importantes do século 21 na Física: O que aconteceu com a antimatéria? Como unificar todas as forças? Como o Universo surgiu?

Fonte: Fermilab e Veja

sexta-feira, 23 de setembro de 2011

Neutrinos podem superar a velocidade da luz

Os neutrinos podem alcançar uma velocidade superior à da luz, segundo os primeiros resultados divulgados pelo experimento OPERA (Oscillation Project with Emulsion-tRacking Apparatus), após testes realizados no laboratório de física CERN.
neutrinos mais rápidos que a luz
© Revista Física (neutrinos mais velozes que a luz)
A informação foi dada pelo Centro Francês de Pesquisas Científicas (CNRS), a experiência lançou neutrinos desde as instalações do CERN, em Genebra, em direção ao laboratório italiano Gran Sasso a 730 km de distância.
Os neutrinos chegaram a seu destino, em Gran Sasso, 60 nanosegundos mais rápidos que a luz, que cobre essa distância em 2,4 milisegundos. E isso só pode ser possível se eles estiverem viajando a uma velocidade maior do que 299.792.458 metros por segundo, que é a velocidade exata da luz.
Para checar seus resultados, os cientistas usaram relógios atômicos e avançados sistemas de GPS, conseguindo com isso reduzir a incerteza da distância percorrida pelos neutrinos para 20 centímetros - em relação aos 730 km do feixe.
O tempo de chegada dos neutrinos foi medido com uma incerteza de 10 nanossegundos. Os resultados se baseiam na observação de mais de 15 mil neutrinos.
Até agora, a velocidade da luz foi considerada um limite intransponível, e esta nova experiência pode abrir perspectivas teóricas completamente novas.
A experiência foi iniciada em 2006 para estudar as transformações raras (oscilações) dos neutrinos muônicos em neutrinos tauônicos, uma das quais pôde ser observada em 2010, comprovando a capacidade única do programa para detectar esses sinais.
Novas medições são necessárias para confirmar ou refutar este experimento. Creio que a teoria da relatividade não será abalada, mas se o resultado for confirmado provocará uma extensão desta teoria.
Fonte: CNRS

terça-feira, 20 de setembro de 2011

Energia gerada por fusão nuclear a laser

O sonho de dominar a energia das estrelas continua prosperando.
laser implode a esfera contendo hidrogênio pesado
© LLNL/NIF (laser implode a esfera contendo hidrogênio pesado)
A fusão a laser é uma tecnologia diferente da chamada "fusão magneticamente induzida", usada no ITER e em outros experimentos.
Esta tecnologia está sendo usada no projeto Hiper, que pretende iniciar a fusão nuclear usando um equipamento de raio laser, e no projeto JET (Joint European Torus).
Agora, pelo menos três parceiros de peso acabam de anunciar um esforço conjunto para tentar domar a fusão nuclear a laser.
A equipe será formada pelo Laboratório Nacional Lawrence Livermore (EUA), Laboratório Rutherford Appleton (Grã-Bretanha) e pela empresa privada AWE.
Em altas temperaturas e pressões, os núcleos dos isótopos pesados de hidrogênio - deutério e trítio - formam um plasma, podendo ser fundidos para formar hélio, liberando energia e um nêutron.
Disparando feixes sincronizados de laser pulsado é possível vaporizar a superfície de uma esfera cheia desses isótopos, forçando a esfera a implodir, produzindo assim as condições de fusão em seu interior durante alguns bilionésimos de segundo.
O efeito físico se assemelha à detonação de uma bomba termonuclear (bomba de hidrogênio), embora em uma escala muito menor.
Os reatores de fusão magnética disparam um poderoso pulso elétrico sobre o hidrogênio pesado para produzir um plasma. Um forte campo magnético é então usado para confinar o plasma, antes que a fusão possa ocorrer. Isso não é fácil, porque o plasma pode tornar-se instável e mesmo vazar.
Por outro lado, a fusão a laser produz temperaturas e pressões muito mais elevadas, de modo que a fusão ocorre mais rápido - com isto, o plasma precisa ser confinado por apenas alguns bilionésimos de segundo, o que é muito mais simples.
A fusão nuclear de qualquer um dos dois tipos é atraente como fonte de energia porque seu combustível é mais abundante, e o processo não produz os isótopos altamente radioativos gerados pela divisão de átomos de urânio.
Mas os nêutrons da fusão são perigosos e tornarão radioativos os materiais usados no interior do reator - estima-se que as placas internas de um reator tokamak precisarão ser constantemente trocadas.
O trítio no combustível também é radioativo: ele emite partículas beta, mas tem a vantagem de ter uma meia-vida de apenas 12,5 anos.
A fusão a laser vem sendo estudada desde a década de 1960, com fins bélicos.
Hoje, o maior laser de fusão é o NIF (National Ignition Facility) em Livermore, que é um dos participantes do acordo agora anunciado.
Até o final do próximo ano, o laboratório espera atingir a "ignição", produzindo mais energia a partir da fusão nuclear do que é necessário para gerar o pulso de laser.
Enquanto isso, não se espera que o ITER - que usa a fusão magnética - atinja a ignição antes de 2020.
Lasers menores estão sendo usados em programas de fusão no Rutherford Appleton (outro parceiro do novo acordo), na Universidade de Rochester (EUA) e na Universidade de Osaka (Japão).
A França está construindo um sistema do mesmo porte do NIF chamado Laser Megajoule.
Mike Dunne, do Laboratório Lawrence Livermore, diz que, se tudo correr bem, uma usina de fusão de 440 megawatts poderá ser instalada em uma década. Projetos futuros, maiores, poderiam atingir até 1 GW (1.000.000.000 W).
Mas é bom não confiar muito nessas previsões. Tudo é novo na área, e os físicos e os engenheiros nem mesmo sabem os problemas que terão pela frente.
Como esta aplicação é nova na área, muitos problemas surgirão. Portanto, ainda não há previsão consistente dos resultados.
Fonte: New Scientist

sexta-feira, 16 de setembro de 2011

Sonho de Einstein vira realidade

Uma equipe de pesquisadores europeus conseguiu pela primeira vez estabilizar um estado quântico de forma constante.
emissões de fótons
© CNRS (emissões de fótons)
Este foi um sonho várias vezes manifestado por Albert Einstein, que afirmava que se contentaria em observar um fóton preso por um segundo - Einstein não se dava muito bem com as predições pouco usuais da mecânica quântica, que ele nunca aceitou por completo.
Clément Sayrin e seus colegas do Laboratório Kastler Brossel, na França, fizeram bem mais do que isso: eles mantiveram um número constante de fótons aprisionados dentro de uma cavidade de micro-ondas "de forma permanente".
Essa caixa de fótons é uma cavidade de ressonância formada por dois espelhos supercondutores, onde os fótons ficam presos de forma contínua, sem precisar que eles sejam continuamente transferidos de uma armadilha para outra.
Normalmente um fóton, a unidade básica da luz, somente pode ser observado quando ele desaparece.
Por exemplo, quando atinge as células fotorreceptoras do nosso olho, o fóton deixa de existir e sua "informação" é traduzida na forma de um impulso elétrico que nos dá consciência de sua finada existência.
Seu aprisionamento ou estabilização permite que eles sejam estudados de forma direta, eventualmente sem serem afetados, algo que passou a ser cogitado há pouco tempo com a chamada "medição fraca".
Fótons e outras partículas subatômicas obedecem às regras da mecânica quântica, um tanto esquisita em relação à mecânica clássica. Mas deve haver uma fronteira entre as duas, um momento de transição onde as duas atuam de uma maneira ainda não compreendida.
Para estudar essa transição, os cientistas precisam parar, ou estabilizar, as partículas quânticas.
Além do entendimento do funcionamento básico da natureza, esses experimentos têm ligação direta com a computação quântica e com a spintrônica, duas abordagens que surgem no horizonte como sucessoras da atual era da informática eletrônica.
Fonte: Nature

quinta-feira, 15 de setembro de 2011

Neutrinos e antineutrinos parecem ter a mesma massa

A edição de 8 de julho passado da prestigiada revista científica Physical Review Letters (PRL) trouxe um artigo polêmico para a comunidade de físicos de partículas.
detector de Soudan
© Universidade de Minnesota (detector de Soudan)
Um trabalho feito no Fermilab por uma equipe internacional de pesquisadores, entre os quais quatro brasileiros, fornecia indícios de que os neutrinos do múon e seus respectivos antineutrinos poderiam não se comportar exatamente da mesma maneira e apresentar até massas distintas. O estudo sinalizava que talvez as diferenças entre a matéria e a antimatéria fossem maiores do que postula o modelo padrão, o arcabouço teórico erigido nos últimos 50 anos para explicar as interações entre as partículas subatômicas, os blocos que formam a matéria. Era um resultado surpreendente, que se baseava na análise de informações preliminares obtidas até junho de 2010 pelo experimento Minos (Main Injector Neutrino Oscillation Search), um dos projetos científicos tocados no laboratório americano, situado em Batavia, nos arredores de Chicago. O conteúdo do artigo, aparentemente em desacordo com algumas leis da física, conforme seus próprios autores, deve ser interpretado com cautela. Afinal, havia 2% de chance de os inusitados dados iniciais do Minos se deverem a uma flutuação estatística momentânea e não espelharem a realidade de neutrinos e antineutrinos.
Em 25 de agosto, no entanto, depois de quase dobrar a quantidade de informação processada pelo experimento em relação aos dados do artigo na PRL, o Fermilab divulgou um comunicado ao público. “Medidas mais precisas nos mostram que, muito provavelmente, essas partículas e suas antipartículas não são tão diferentes como indicamos antes. Dentro de nosso atual campo de visão, parece agora que o Universo está se comportando da maneira que a maioria das pessoas pensa que ele se comporta”, disse, em nota à imprensa, Rob Plunkett, cientista do Fermilab e um dos porta-vozes do Minos. De acordo com o estudo publicado na PRL, referendado pelo tradicional processo de revisão pelos pares (peer review) antes de ser aceito, o quadrado da massa dos antineutrinos – os pesquisadores usam como parâmetro de comparação o valor da massa elevada à segunda potência, e não apenas a medida da massa – parecia ser cerca de 40% maior do que o dos neutrinos. “Passamos quase um ano procurando algum efeito de instrumentação que pudesse ter causado essa diferença. É reconfortante saber que a estatística era a culpada”, afirmou outra porta-voz do experimento, a física Jenny Thomas, da University College London. Segundo as novas informações revisadas internamente pelos pesquisadores do Fermilab no fim do mês passado, mas ainda não submetidas ao escrutínio de uma revista com peer review, essa diferença se reduziu hoje para 16%. Há, portanto, uma grande possibilidade de as massas de neutrinos e antineutrinos serem iguais, como sustentam os modelos físicos atualmente aceitos.
Um dos participantes do Minos, o físico brasileiro Carlos Escobar explica que a revisão dos resultados do experimento foi encaminhada de forma a evitar qualquer tipo de análise enviesada. “Tudo foi feito às cegas e de forma automatizada”, afirma Escobar, hoje professor colaborador da Universidade Estadual de Campinas (Unicamp) e pesquisador do Fermilab. “Os dados são soberanos.” Ele, no entanto, admite que o novo cenário trouxe alívio para os físicos. “A comunidade científica está mais tranquila”, diz Escobar. Vários experimentos internacionais que trabalham com partículas e antipartículas pressupõem que neutrinos e antineutrinos têm a mesma massa para realizar seus cálculos. Quando aparece um estudo que contradiz tal preceito, caso do artigo do Minos na PRL, algum pilar da física pode ter sido arranhado.
Desaparecimento e oscilação – O objetivo do projeto do Fermilab é comparar a ocorrência de um fenômeno conhecido como oscilação em neutrinos e em antineutrinos do múon. No jargão dos físicos, quando um tipo de neutrino ou de antineutrino se transforma em outro ao se deslocar, ocorre uma oscilação. Há três formas ou sabores de neutrinos e antineutrinos: os do múon, os do tau e os do elétron. Esse trio de partículas com carga elétrica é chamado genericamente de léptons (neutrinos são léptons neutros). No Minos, os cientistas compararam a frequência com que neutrinos e antineutrinos do múon desapareceram e, supostamente, transformaram-se em neutrinos e antineutrinos do tau. “É a primeira vez que algum grupo de pesquisa mede a oscilação de antineutrinos do múon”, diz Philippe Gouffon, do Instituto de Física da Universidade de São Paulo (IF-USP), que também participa do experimento feito nos Estados Unidos.
Conceitualmente, a antimatéria é definida como uma espécie de cópia da matéria, com a qual divide basicamente as mesmas propriedades, inclusive a massa. Mas há uma diferença fundamental entre ambas: as antipartículas que moldam a antimatéria apresentam carga elétrica com sinal invertido em relação às suas respectivas partículas de matéria. Com carga positiva, o pósitron é a antipartícula do elétron, cuja carga é negativa. Fazendo jus a seu nome, neutrinos e antineutrinos são eletricamente neutros. No entanto, os primeiros estão ligados aos léptons de carga negativa e os segundos, aos de carga positiva. Os físicos acreditam que matéria e antimatéria devem existir na mesma proporção no Universo, embora a quantidade detectada de ambas esteja longe de ser a mesma. De forma grosseira, é nesse contexto teórico que os físicos estudam as propriedades de neutrinos e antineutrinos.
Embora sejam considerados as segundas partículas mais abundantes do Universo, atrás apenas dos fótons (partículas de luz), os neutrinos são virtualmente imperceptíveis. Não possuem carga elétrica, têm uma massa quase desprezível, deslocam-se a uma velocidade muito próxima à da luz e praticamente não interagem com a matéria. São capazes de simplesmente atravessar corpos enormes, como o planeta Terra, sem alterar seu deslocamento ou sofrer algum efeito perceptível. O Big Bang, a explosão primordial que, segundo a teoria mais aceita, criou o Universo há pouco menos de 14 bilhões de anos, deve ter sido a principal fonte de neutrinos. A atividade solar e os raios cósmicos são as fontes naturais mais conhecidas de neutrinos, que se formam a partir de processos como o decaimento radioativo (quando o núcleo de um átomo estável perde espontaneamente energia e emite partículas ionizadas) e as reações nucleares.
Ruído e informação - A comparação de parâmetros entre partículas e antipartículas só foi possível porque o experimento do Fermilab é um dos poucos no mundo, ao lado do T2K (Tokai to Kamioka) no Japão, capaz de produzir feixes específicos, constituídos apenas de neutrinos ou somente de antineutrinos, com níveis mínimos de contaminação. A maioria das iniciativas científicas trabalha com feixes que são um misto de partículas e antipartículas, limitação que dificulta a obtenção de dados detalhados a respeito do fenômeno da oscilação. “Produzir um sistema que gere partículas em quantidade suficiente para separarmos o ruído da informação é uma de nossas grandes dificuldades”, explica o físico João Coelho, aluno de doutorado da Unicamp que passou um ano no Fermilab com bolsa da FAPESP.
A primeira etapa do experimento Minos consiste em gerar as partículas que os físicos querem estudar. Com esse fim, o Main Injector – um anel de 3,2 quilômetros de circunferência que é um dos seis aceleradores de partículas do Fermilab – produz um pulso de prótons de alta energia destinado a se chocar contra um alvo de grafite. A colisão faz surgirem partículas instáveis, píons e káons, que vão gerar múons e neutrinos. Em seguida, o feixe é direcionado para uma parede que barra suas impurezas. Múons e outras partículas indesejadas são retirados e permanecem apenas os neutrinos do múon.
A segunda parte do experimento é o coração do Minos. O feixe de neutrinos purificado é direcionado para dois detectores subterrâneos, o primeiro a um quilômetro de distância do Fermilab e o segundo a 735 quilômetros, na mina desativada de Soudan, no estado de Minnesota. O detector mais próximo, que foi montado pouco mais de 100 metros abaixo do Fermilab e pesa mil toneladas, verifica a pureza e a intensidade do feixe. Suas medições servem para dar as características centrais do pulso. O detector mais longínquo pesa 6 mil toneladas e se encontra escondido 716 metros abaixo da superfície, numa caverna. Apenas 2,5 milissegundos depois de sair do Fermilab o feixe de neutrinos é detectado em Soudan. “As oscilações dos neutrinos ocorrem durante o percurso feito pelas partículas entre o primeiro e o segundo detector”, explica o físico Ricardo Gomes, da Universidade Federal de Goiás, que também participa do Minos.
Ao medirem pela primeira vez o desaparecimento de antineutrinos do múon, os cientistas do Fermilab inicialmente acharam que as oscilações dessas antipartículas e de suas partículas poderiam ser distintas, como está insinuado no artigo da PRL. Agora, com mais dados analisados, a equipe do Minos acredita que esse parâmetro seja igual para neutrinos e antineutrinos. “A física é uma ciência essencialmente experimental”, comenta Marcelo Guzzo, físico teórico da Unicamp que estuda neutrinos. “Qualquer resultado deve ser confirmado por vários grupos antes de termos a palavra definitiva”, diz Orlando Peres, outro especialista no tema, também da Unicamp. Segundo a física Renata Zukanovich Funchal, da USP, flutuações estatísticas são frequentes em experimentos com altas energias:“Por isso, devemos ter cautela quando encontramos resultados que não conseguimos compreender”.
Fonte: FAPESP (Pesquisa)

sexta-feira, 9 de setembro de 2011

Isolando pedaços de luz

Ondas possuem picos e vales, sejam elas as ondas do mar ou as ondas eletromagnéticas.
pulsos no ultravioleta, visível e infravemelho próximo
© Thorsten Naeser (pulsos no ultravioleta, visível e infravemelho)
Quando duas ondas, com diferentes comprimentos de onda, se sobrepõem precisamente, esses padrões de picos e vales se tornam mais complexos e menos repetitivos.
Eventualmente, na sequência da interação, não haverá mais nenhum ciclo, apenas um ponto isolado, apontando em alguma direção específica.
Mas Adrian Wirth e seus colegas do Instituto Max Planck de Óptica Quântica, na Alemanha, acabam de confinar um feixe de luz de grande espectro em pulsos que são mais curtos do que um único ciclo óptico.
A luz original é um feixe de laser branco, que contém comprimentos de onda que vão do infravermelho próximo ao ultravioleta, passando pelo espectro visível, uma espécie de arco-íris.
Esse laser branco é dirigido para o "sintetizador luminoso", o novo aparato criado pelos pesquisadores. De forma similar a um sintetizador de som, que superpõe as ondas sonoras de diferentes frequências para criar sons e ritmos diferentes, o sintetizador de luz superpõe ondas ópticas de diferentes cores e fases para criar vários formatos de onda. Os feixes são visualizados com a ajuda de vapor de nitrogênio.
protótipo do sintetizador de campo luminoso
© Thorsten Naeser (protótipo do sintetizador de campo luminoso)
O resultado é um pacote único de luz, mais curto do que uma onda completa da luz.
Essa "luz sem ciclo" compacta todas as interações entre os diversos comprimentos de onda em um único ponto luminoso.
Essa aplicação cria deverá viabilizar o estudo da dinâmica dos elétrons de uma forma que não era possível até agora, porque essas alterações eletrônicas acontecem em escalas temporais muito pequenas.
Isso permitirá, por exemplo, que os cientistas acompanhem os detalhes das reações químicas, hoje basicamente restritas ao "antes e depois" da própria reação.
A produção de transientes ópticos de sub-ciclo abre novas perspectivas para dirigir o movimento dos elétrons em escala atômica com a força elétrica da luz, assim como para conduzir complexas dinâmicas nas camadas de valência de moléculas.
Essa ferramenta será crucial para o desenvolvimento da chamada fotossíntese artificial, que depende da compreensão detalhada das reações químicas que os fótons do Sol induzem nas plantas, que possibilitará criar uma nova fonte de energia limpa, de alta eficiência e totalmente renovável.
No primeiro experimento realizado usando esse processo, os cientistas arrancaram o elétron da camada mais externa de um átomo do gás criptônio. O processo levou 700 attossegundos - o processo mais rápido já induzido opticamente até hoje.
Fonte: Science

segunda-feira, 5 de setembro de 2011

As leis da óptica são alteradas

Cientistas desenvolveram um novo método para controlar a luz usando a nanotecnologia. E, devido à descoberta, as leis da óptica foram literalmente mudadas.
espelho com nanoantenas
© Eliza Grinnell e Nanfang Yu (espelho com nanoantenas)
A técnica poderá ajudar os cientistas a projetar novas lentes planas e polarizadores, como os utilizados em câmeras e telas LCD.
Trata-se de um fenômeno óptico bizarro, que desafiou as leis da reflexão e refração, permitindo controlar a luz para que ela reflita e refrate de uma forma que não ocorre na natureza.
A nova técnica, chamada descontinuidade de fase, levou a uma reformulação das leis matemáticas que predizem o caminho de um raio de luz refletindo de uma superfície ou viajando de um meio para outro; por exemplo, do ar para o vidro.
"Usando superfícies construídas artificialmente, nós criamos os efeitos de uma casa dos espelhos de um parque de diversões em uma superfície plana," diz Federico Capasso, da Universidade de Harvard, coordenador da equipe. "Nossa descoberta leva a óptica a um novo território e abre as portas para desenvolvimentos instigantes na tecnologia fotônica."
nanoantenas alterando a direção da luz
 © Nanfang Yu (nanoantenas alterando a direção da luz)
Em seu experimento, o pesquisador Nanfang Yu e seus colegas criaram uma fina película metálica repleta de nanoantenas ópticas, que jogam a luz para frente e para trás sobre a superfície de uma pastilha de silício.
Projetando um feixe de luz sobre essa superfície nanoestruturada, as antenas induzem mudanças abruptas nas ondas de luz, fazendo-as dobrar e refletir na direção "errada", em comparação à reflexão e à refração comuns.
Até hoje, esses efeitos só haviam sido obtidos com metamateriais.
A técnica, baseada na forma como a luz viaja através de diferentes meios, cria uma interface artificial, que "engana" a luz, fazendo-a se comportar de uma forma totalmente não-usual.
As leis da óptica preveem os ângulos de reflexão e refração com base no ângulo de incidência da luz e nas propriedades dos dois meios.
Ao estudar o comportamento da luz nas suas superfícies nanoestruturadas, os pesquisadores perceberam que as equações atuais eram insuficientes para descrever os fenômenos bizarros que eles estavam observando no laboratório.
Para obter novas leis, mais gerais, eles tiveram que considerar que, se a fronteira entre dois meios tiver padronagens especiais, ela na verdade funciona como um terceiro meio de propagação.
Isto significa que, ao contrário de um sistema óptico convencional, a interface artificial entre o ar e o silício induz uma abrupta mudança de fase nas cristas das ondas de luz que a atravessa.
Cada nanoantena funciona como um minúsculo ressonador, que aprisiona a luz, segurando sua energia por um determinado período de tempo e, a seguir, liberando-a.
Um gradiente de diferentes tipos de ressonadores ao longo de toda a superfície de silício pode efetivamente curvar a luz antes mesmo que ela comece a se propagar através do novo meio.
O fenômeno resultante quebra as antigas leis da óptica, criando feixes de luz que refletem e refratam de forma arbitrária, dependendo do padrão da superfície.
A fim de generalizar as leis de reflexão e de refração nos livros-texto, os pesquisadores adicionaram um novo termo para as equações, representando o gradiente de alteração de fase induzida pela interface.
Se não existir tal interface artificial, basta zerar o gradiente que as novas leis produzem os mesmos resultados que suas versões já bem conhecidas.
Fonte: Science

sexta-feira, 2 de setembro de 2011

Internet mais rápida movida com grafeno

Uma colaboração entre cientistas das universidades de Manchester e de Cambridge, no Reino Unido, resultou na descoberta de um método que poderá levar à melhoria das características de dispositivos à base de grafeno para uso em fotodetectores em sistemas ópticos de comunicação em alta velocidade.
grafeno
© The University of Manchester (grafeno)
Os pesquisadores Andre Geim e Konstantin Novoselov, da Universidade de Manchester, que ganharam o prêmio Nobel de Física de 2010 por pesquisas com o grafeno, fazem parte do novo estudo.
O grafeno é formado por uma camada única de carbono, agrupada em uma grade em colmeia e na qual os átomos mantêm entre eles uma distância específica. Por meio da combinação de grafeno com nanoestruturas metálicas, os cientistas conseguiram uma melhoria de 20 vezes na transmissão de luz.
Ao colocarem essas estruturas metálicas, na forma de fios, em cima do grafeno e iluminar a estrutura, os cientistas observaram que o resultado era a geração de energia. O dispositivo funciona como uma célula solar básica.
O mais importante resultado da pesquisa é que o dispositivo apresentou potencial de transmitir dados em taxas de transferência muito mais rápidas – dezenas ou centenas de vezes – do que os mais rápidos cabos de internet disponíveis na atualidade. O motivo é a natureza única dos elétrons no grafeno, incluindo a alta mobilidade e velocidade.
A pesquisa resolve um grande problema do grafeno até então, que era a baixa eficiência. O grafeno absorve pouca luz, cerca de 3%, sendo que o resto é dissipado sem que contribua para a geração de eletricidade.
A combinação com as estruturas metálicas, chamadas de nanoestruturas plasmônicas, ampliou essa eficiência em 20 vezes nos testes feitos nos laboratórios britânicos, sem sacrificar a velocidade de transferência. Segundo os autores do estudo, no futuro a eficiência deverá aumentar muito mais.
Fonte: Nature Communications

quinta-feira, 1 de setembro de 2011

Registrada primeira imagem de um elétron orbitando uma molécula

A movimentação dos elétrons sempre foi difícil de ser registrada em imagem. Dessa vez, entretanto, cientistas da IBM Research Zurich e da University of Liverpool finalmente foram os primeiros a capturar a trajetória que um elétron realiza em torno de um núcleo.
orbitais do pentaceno
© Science (orbitais do pentaceno)
A substância em questão é o pentaceno, um hidrocarboneto composto por um agrupamento de cinco aneis benzênicos com 22 átomos de carbono e 14 átomos de hidrogênio. As regiões escurecidas da imagem, que parecem dividir a molécula em várias partes, consistem no caminho percorrido pelo elétron, no que é chamado de órbita.
A imagem nomeada como HOMO simboliza o caminho mais provável feito pelo elétron, enquanto LUMO mostra a trajetória que ele deve percorrer com menor frequência.
O registro só foi possível graças a um microscópio de força atômica (AFM), que é capaz de retratar imagens muito menores do que os aparelhos tradicionais, a própria agulha do instrumento necessita de outro microscópio para ser visualizada!
A tarefa é ainda mais difícil quando lembramos que o comportamento de um elétron é diferente de uma partícula comum, pois para determinar sua posição em um orbital exige cálculos baseados apenas em probabilidades.
Fonte: Science

terça-feira, 23 de agosto de 2011

A fonte definitiva de energia

Em busca de uma alternativa para a matriz energética mundial, muitos cientistas acreditam que só a energia das estrelas pode representar um passo decisivo para a humanidade.
ilustração de um reator de fusão nuclear
© RSC (ilustração de um reator de fusão nuclear)
Às voltas com a sujeira e os riscos causados pela fissão nuclear, ainda debatendo se os biocombustíveis valem a pena ou não, o mundo se vê às voltas com uma matriz essencialmente baseada no petróleo e seus parentes próximos, o carvão e o gás natural.
Para achar uma saída desse beco, as duas únicas tecnologias com potencial disruptivo são a fotossíntese artificial e a fusão nuclear.
Os experimentos com folhas artificiais estão apenas começando. Mas o homem sonha em domar a fusão nuclear desde que Hans Bethe explicou de onde as estrelas tiravam tanta energia.
A primeira tentativa de produzir a fusão nuclear na Terra não é de boa lembrança: em 1º de Novembro de 1952, os Estados Unidos usaram uma bomba similar à usada em Hiroshima apenas para dar a ignição na primeira bomba de hidrogênio. Funcionou, mas a coisa se mostrou tão perigosamente descontrolada que o projeto foi deixado de lado.
O recorde mundial de fusão nuclear hoje pertence ao reator tokamak do JET (Joint European Torus), no Reino Unido. Com 15 metros de diâmetro e 12 metros de altura, ele consumiu 20 MW (megawatts) para produzir 16 MW - mas a fusão nuclear se sustentou por menos de 10 segundos.
Hoje, todos os esforços para bater esse recorde e gerar energia são pacíficos - ao menos os que se conhece. E os projetos de fusão nuclear não são mais exclusividade dos governos e suas universidades: já há empresas privadas trabalhando na área.
ITER
O maior desses esforços é o ITER, sigla em inglês de Reator Internacional Termonuclear Experimental, que começou a ser erguido em Cadarache, na França.
Com um investimento planejado de US$21 bilhões, o projeto pretende consumir 50 MW de energia para dar partida em uma produção de 500 MW. Em 2027, se tudo der certo.
O problema é que ninguém sabe se vai dar certo. Muitos físicos dizem que não vai funcionar. Outros afirmam que o ITER funcionará como um excelente laboratório de física, mas nunca será uma usina de geração de energia eficiente.
O ITER usará um reator do tipo tokamak, que usa um gigantesco campo magnético para confinar um plasma que deverá atingir uma temperatura de 45 milhões de graus Celsius para dar partida na fusão de deutério-trítio.
Se funcionar, um quilograma (kg) de combustível de fusão vai gerar tanta energia quanto 10 milhões de kg de carvão.
Outro experimento já atingiu 25 milhões de graus Celsius, ainda abaixo do ponto de partida da fusão. Mas os projetistas do ITER confiam em seus 18 gigantescos ímãs supercondutores, cada um pesando 360 toneladas, para confinar uma quantidade de plasma suficiente para chegar lá.
Ignitor
O Ignitor é um projeto conjunto entre a Itália e a Rússia, bem menos ambicioso que o ITER.
O Ignitor será na verdade uma versão ampliada do Alcator C-Mod, desenvolvido pela equipe do professor Bruno Coppi, do MIT.
O reator, que está sendo erguido nas proximidades de Moscou, terá aproximadamente o dobro do tamanho do Alcator, com uma câmara principal em forma de anel com 1,3 metro de diâmetro - a câmara do ITER terá 6,2 metros de diâmetro.
O Alcator não nasceu para gerar energia, mas como um laboratório para estudar as estrelas.
Ao longo dos anos, os cientistas foram aprimorando seus detalhes técnicos, a ponto de atingirem um estágio no qual eles acreditam ser viável usar a tecnologia para produzir temperaturas suficientes para iniciar a fusão nuclear.
Como estão trabalhando em uma área desconhecida, os cientistas parecem mais interessados em trocar experiências do que em competir. Evgeny Velikhov, responsável pelo lado russo do projeto, também é membro do conselho do ITER.
Mas o Dr. Coppi diz que, mesmo que o Ignitor nunca gere mais energia do que consumir, ainda assim a astrofísica terá muito a ganhar com o experimento.
Sterellator
Stellarator
© Max Planck Institute (Stellarator)
O tokamak não é o único caminho para tentar domar a fusão nuclear.
O projeto Wendelstein 7-X, do Instituto Max Planck, da Alemanha, está construindo um reator de fusão do tipo stellarator - ele será o maior do mundo desse tipo.
Um tokamak é alimentado por uma corrente de plasma. Essa corrente fornece uma parte do campo magnético responsável por isolar o próprio plasma das paredes do reator. O grande problema é evitar as "disrupções", as instabilidades do plasma circulante pelo torus.
Um reator do tipo stellarator não tem corrente, eliminando de pronto o problema das instabilidades do plasma. Esse tipo de reator tem um desenho esquisito, mas também tem seus próprios problemas, como uma tendência a perder energia.
Cada stellarator foge à sua própria maneira do tipo "clássico", fazendo modificações e otimizações que tentam coibir os defeitos o obter um funcionamento contínuo.
O Wendelstein 7-X terá 50 bobinas supercondutoras, medindo 3,5 metros de altura cada uma, para gerar o campo magnético primário. Para completar o sistema de contenção do plasma será usada uma camada adicional com 20 bobinas planares, colocadas sobre as primeiras, que terão o papel adicional de permitir o controle da intensidade do campo magnético.
O conjunto todo é contido dentro de uma estrutura de 16 metros de diâmetro. Uma usina de refrigeração fornecerá 5.000 Watts de hélio líquido para manter a supercondução dos fios que formam as bobinas.
O Wendelstein 7-X será um reator de pesquisa, sem intenção de produzir energia. Na verdade, a intenção é demonstrar a viabilidade da construção de uma usina de fusão nuclear usando um reator do tipo stellarator. Se tudo ocorrer segundo o cronograma, o reator deverá entrar em funcionamento em 2014.
Fusão nuclear com laser
O projeto europeu Hiper (sigla em inglês de Pesquisa de Energia Laser de Alta Potência) pretende atingir as altas temperaturas necessárias para iniciar a fusão nuclear usando um equipamento de raio laser do tamanho de um estádio de futebol.
Um laser de alta potência vai comprimir átomos de hidrogênio para conseguir uma densidade 30 vezes maior do que a do chumbo.
Um segundo laser vai aumentar a temperatura do hidrogênio comprimido acima dos 100 mihões de graus Celsius.
Nessas condições, os núcleos do hidrogênio deverão se fundir para formar hélio.
Iniciado em 2008, o Hiper é financiado pela Comissão Europeia e envolve 26 instituições de dez países.
Motor de fusão
Os cientistas da empresa privada Helion Energy são bem mais comedidos do que seus parceiros institucionais.
Seu reator de fusão nuclear é um equipamento cilíndrico de 16 metros de comprimento e pouco mais de um metro de diâmetro.
Chamado de "motor de fusão", o reator não usará supermagnetos supercondutores mantidos em temperaturas criogênicas: ele usará um processo conhecido como configuração de campo reverso.
Em vez de confinar o plasma em uma estrutura toroidal, como no tokamak, o motor de fusão vai acelerar duas pequenas bolas de plasma uma em direção à outra.
Manter o plasma isolado em um aparato linear é muito mais simples do que o formato toroidal, exigindo um campo magnético menos intenso e mais fácil de controlar. É por isso que o reator é tão menor do que seus concorrentes.
Se os cálculos estiverem corretos, a colisão deverá gerar calor suficiente para fundir os núcleos dos átomos, aquecê-los e iniciar a fusão de forma sustentada.
Como a fusão ocorre em um ponto determinado no espaço é mais fácil também recolher os nêutrons gerados. Os nêutrons são essenciais para gerar o combustível da fusão.
E, se eles escaparem, podem tornar radioativas as peças metálicas do equipamento com as quais entrarem em contato - isso acontecerá no ITER, que deverá trocar as partes internas do seu reator periodicamente.
O protótipo do motor de fusão atingiu uma temperatura de 25 milhões de graus Celsius, bem abaixo do necessário. Mas os cientistas calculam que a temperatura necessária será alcançada com um equipamento apenas três vezes maior.
A NASA e o Departamento de Defesa dos Estados Unidos já investiram US$5 milhões na empresa, que agora está procurando parceiros privados para levantar mais US$20 milhões, necessários para construir a versão final do seu motor de fusão.
Fusão geral
A empresa canadense General Fusion está usando uma outra abordagem para tentar obter a fusão nuclear sustentada.
A técnica chama-se fusão de plasma magnetizado e consiste em iniciar a fusão em um plasma comprimido de forma intensa e rápida no interior de uma esfera giratória de metal líquido.
O reator funciona em ciclos sequenciais, com cada compressão do plasma magnetizado produzindo um "disparo" de energia gerada pela fusão.
São quatro ciclos: criação do plasma de deutério e trítio, aprisionamento do plasma em um campo magnético, compressão do plasma magnetizado, gerando a fusão e, finalmente, captura do calor gerado pela fusão para uso em uma usina termoelétrica.
Os resultados ainda são modestos: segundo a empresa, o aparato produziu uma temperatura de 5 milhões de graus Celsius durante 1 microssegundo.
Mas a General Fusion tem mais dinheiro para construir versões maiores do seu reator: os US$30 milhões foram levantados entre investidores privados, entre os quais Jeff Bezos, da Amazon.
Fusão secreta
Há uma outra empresa privada na área, chamada Tri Alpha Energy, que não gosta de aparecer e nem divulga seus projetos, mas que aparentemente está usando um conceito criado pelos físicos Norman Rostoker e Hendrik Monkhorst.
A ideia é misturar hidrogênio e boro-11 em um plasma de alta temperatura para gerar a fusão.
O processo de confinamento usa a mesma configuração de campo reverso, mas aparentemente mantendo toda a energia de entrada dentro do reator - os elétrons do combustível seriam confinados eletrostaticamente e os íons seriam aprisionados magneticamente.
Os pesquisadores acreditam que, com o calor e a densidade adequadas, esses íons vão se fundir para liberar energia.
Recentemente circularam boatos de que a empresa teria levantado US$90 milhões, tendo entre seus investidores Paul Allen, cofundador da Microsoft. Mas as empresas de capital de risco apontadas nos boatos não listam a empresa em sua carteira de investimentos.
Em um artigo científico publicado em 2010, seus cientistas afirmam ter alcançado uma temperatura de 5 milhões de graus Celsius durante 2 milissegundos.
Já houve vários boatos sobre a iminência de um teste "no ano que vem", que ainda não aconteceu. Os mais otimistas opinam que uma versão comercial do reator Rostoker/Monkhorst - capaz de produzir mais energia do que consome - não sairá antes de 2020.
Fusão nuclear a frio
Há também propostas mais controversas para a fusão nuclear, embora não voltadas especificamente para a produção de energia.
A principal delas é a chamada fusão nuclear a frio, ou fusão de baixa energia, que mostra os indícios da fusão por meio dos nêutrons gerados no processo - pouquíssimos nêutrons, em comparação com os experimentos que pensam em gerar energia.
A ideia surgiu em 1989, quando Martin Fleishmann e Stanley Pons afirmaram ter verificado a fusão nuclear em uma célula eletrolítica. Mas nenhum outro grupo conseguiu reproduzir o experimento.
A esperança renasceu em 2009, quando Pamela Mosier-Boss e sua equipe modificaram ligeiramente a célula eletrolítica de Fleishmann e Pons e tiveram resultados animadores, ainda que frágeis demais para qualquer uso prático.
Mas a fusão nuclear a frio só voltou a ser levada a sério em 2010, quando a Sociedade Americana de Química promoveu um evento de dois dias exclusivamente para discutir o assunto. Desde o fiasco inicial, quem se atrevia a pesquisar na área preferia trabalhar em silêncio.
Foram mais 50 apresentações de experimentos que apresentaram resultados significativos, suficientes para colocar o assunto em pauta novamente. Mas ninguém sonha em usar a fusão a frio para geração de energia.
Fusão por cavitação
Pelo menos três grupos se envolveram em uma pretensa fusão nuclear em um equipamento de mesa, desde que Rusi Taleyarkhan e seus colegas do Laboratório Nacional Oak Ridge afirmaram ter conseguido iniciar a fusão pelo colapso de microbolhas.
Seth Putterman, da Universidade da Califórnia, fez uma demonstração semelhante em 2005, mas usando o aquecimento de um cristal em um ambiente de deutério. A produção de nêutrons, contudo, foi muito pequena, e os cientistas nunca chegaram a afirmar que a técnica seria útil para a geração de energia.
No mesmo ano, uma equipe da Universidade Purdue afirmou ter confirmado o experimento de Taleyarkhan, baseado na cavitação de microbolhas.
Contudo, depois da contestação de outros cientistas, a Universidade fez uma sindicância e concluiu que Yiban Xu e Adam Butt haviam falseado os resultados.
Fonte: Inovação Tecnológica