Renormalizando Divergências Infinitas… (‘Higgs’)

“Não estamos simplesmente no universo… – somos parte dele!… Nascemos nele, e pode-se até dizer que o universo nos tornou capazes de imaginá-lo (aqui…em nosso cantinho do cosmos)… – E… nós estamos apenas começando a fazê-lo…”  (Neil de Grasse Tyson)

Para que haja uma ‘interação’ entre corpos é preciso que cada um deles saiba o que está acontecendo … ou, o que foi mudado no outro… assim, é preciso uma troca de informações entre eles… – Por exemplo, quando um deles se move…de algum modo, esta informação deve ser levada até o outro corpo… – que então reage à  mudança… – por “leis físicas” afins.

De acordo com a teoria newtoniana, pensava-se que esta informação era instantânea…ou seja, que a propagação da informação se dava com ‘velocidade infinita’. Basicamente, este era o conceito de ‘ação-à-distância. No entanto, a partir do pressuposto ‘einsteiniano’ de uma velocidade máxima para corpos materiais (a velocidade da luz…) esta informação não poderia se propagar com velocidade infinita… o que levou à introdução do conceito de um ‘campo mediador’.

Tal formalismo se estende tanto para fenômenos elétricos quanto magnéticos… Sendo que, graças aos trabalhos de Maxwell, o conceito de campo já ocupava um papel de destaque na descrição fenomenológica da realidade… Ele havia mostrado — através de um conjunto de equações que recebem seu nome… que fenômenos magnéticos e elétricos estão associados intrinsecamente, devendo ser descritos por uma única entidade: o campo eletromagnético.

O conceito de força – ou interação…por sua vez, está intimamente associado ao de campo. Todas interações fundamentais se revelam por meio da ação dos campos por elas gerados sobre outros corpos… – Dessa forma… após a física ter abandonado o conceito de ação-à-distância, foi introduzido o conceito físico de “campo“…considerando que cada partícula cria à sua volta uma perturbação, que é experimentada pelas outras partículas do sistema.

Segundo este conceito fundamental, todo corpo cria uma perturbação no espaço ao redor,  que é o campo gerado por alguma propriedade intrínseca que ele possui.  –  Por exemplo, todo corpo que tem massa gera um campo gravitacional à sua volta – todo corpo que tem carga elétrica cria um campo elétrico à sua volta, etc…É este campo que irá interagir com   o campo criado pelo outro corpo  —  de modo que informações sejam trocadas entre eles.

Campos, mediadores & função de onda

Aceitando a divisão entre partículas genuínas, e quanta de campo (na fronteira bóson-férmion), podemos distinguir entre matéria fermiônica – feita de partículas (quarks e léptons), e campos de força bosônicos (campos de calibre). Estes, são os ingredientes fundamentais do universo, a partir dos quais, todos os observáveis devem se originar.

Feynmann_Diagram_Gluon_Radiation

Neste ‘Diagrama de Feynman’, um elétron e um pósitron anulam-se, produzindo um fóton virtual, que se transforma num par quark/ antiquark…depois, um deles emite um glúon… (o tempo decorre da esquerda para a direita)

Para a física moderna um campo interage com outro … por intermédio da troca de partículas, partículas mediadoras, que se incumbem de transmitir a força entre si.

Assim, sendo cada uma das forças existentes na natureza mediada pela troca de uma partícula – 2 partículas com cargas elétricas… por exemplo, criam campos à sua volta…  –  e este campo (de força eletromagnética) interage através de uma troca de fótons…A ‘força gravitacional’, por sua vez é mediada por grávitons; a ‘força forte’ por glúons; e as ‘forças fracas’, pelas partículas W± e Z0…ditas… ‘bósons vetoriais intermediários’.

Uma partícula ou ‘quantum‘ é uma excitação quantizada do campo (‘pacote de energia’), para a qual se atribui uma variedade de propriedades, tais como…momento, e localização espaço-temporal…Já um campo clássico ‘real’ é tido como um sistema mecânico, com um número infinito de graus de liberdade – correspondente ao nº de osciladores harmônicos desacoplados – em termos de modos normais – por meio de uma ‘análise de Fourier.

Pela ‘análise de Fourier’ … cada componente separado de uma onda pode ser tratado como um oscilador harmônico independente… e, em seguida, quantificado. Este procedimento é conhecido como “2ª quantização”… A teoria quântica dos campos é uma 2ª quantização, na medida em que realiza uma quantização de campos, enquanto a Mecânica Quântica apenas realiza a quantização da matéria.

A transformada de Fourier pode ser útil na Mecânica Quântica…ao mudarmos o modo de representar o estado de uma partícula – de uma função posição de onda, para uma função de impulso de onda. Isto porque, ela postula a existência de pares de variáveis conjugadas – ligados pelo princípio da incerteza de Heisenberg. Por exemplo…a variável espacial q de uma partícula só é medida pelo operador de posição à custa da perda de informação sobre o momento p da partícula. Desse modo, o estado físico da partícula é descrito, ou por uma “função de onda” de q, ou por uma função de pmas, não por uma função das 2 variáveis.

Na ‘Mecânica Clássica’, o estado físico de uma partícula é dado, atribuindo valores para ambos p e q, simultaneamente (variáveis canônicas)… Dessa forma, o conjunto de todos estados físicos possíveis… é o espaço vetorial real, bidimensional, com um eixo (abcissa) e outro eixo ortogonal q.

Espaço de fases & Quantização

As ‘coordenadas canônicas’…usadas na geometria euclidiana, e mecânica clássica são coordenadas que podem representar um sistema físico  –  em qualquer ponto dado no tempo…São empregadas – dentro da formulação hamiltoniana, como coordenadas no espaço de fases… – de um espaço de configuração.

—  Uma das características distintas da mecânica quântica é que o estado físico de um sistema ‘não determina’ o resultado de qualquer medida que possa fazer-se sobre ele. Em termos mais simples, o resultado de uma medida sobre 2 sistemas quânticos que tenham o mesmo estado físico… nem sempre resulta nos mesmos resultados. Assim, ao descrever a evolução temporal dos sistemas físicos…a mecânica quântica só pode prever a probabilidade de que, ao medir uma determinada grandeza física, se obtenha determinado valor.

Isto quer dizer que a mecânica quântica realmente é uma teoria que explica como varia a distribuição de probabilidade das possíveis medidas de um sistema… Assim, o estado quântico de um sistema não se parece em nada ao estado clássico de uma partícula, ou sistema de partículas… – sendo representável mediante uma função de onda.

A relação entre espaço de fase e ‘função de onda’ é que o quadrado do módulo desta função é proporcional a uma distribuição de probabilidade definida sobre o ‘espaço fásico.  Isto significa que, para se construir o conjunto de certos estados quânticos (espaço de Hilbert), considera-se inicialmente o espaço fásico que se usaria em sua descrição clássica. – A este procedimento dá-se o nome de quantização. Ou seja, é um método matemático para certo ‘sistema físico’, de construção do seu ‘modelo quântico’, a partir de sua ‘descrição clássica’.

Os procedimentos de 1ª quantização são métodos que permitem construir modelos de uma partícula dentro da mecânica quântica a partir da correspondente descrição clássica do espaço de fases dessa partícula…Sua quantização canônica é o procedimento informal que assinala a magnitude física em termos de coordenadas canônicas do sistema clássico.

Os procedimentos de 2ª quantização são métodos para construir teorias quânticas de campo a partir de uma teoria clássica. Sua quantização canônica é dada pela extensão do procedimento usado na 1ª quantização…estendido – neste caso, a mais de uma partícula.

O campo de Schrödinger – por exemplo… é visto como uma 1ª quantização…então, o tratamos como se fosse um campo clássico…e o quantizamos (de novo). – Este truque é chamado 2ª quantização. Entretanto, um campo quântico não é uma função de onda quantizada… Como, certamente, o campo de Maxwell não é a função de onda do fóton.

Na mecânica quântica não-relativística, a equação de Schrödinger para uma função de onda variável no tempo…não sujeita a forças externas… possui “soluções elementares”       – os chamados “estados estacionários ” da partícula…  A ‘transformada de Fourier’ é utilizada para resolver a equação de onda aplicável… e o algoritmo de Fourier pode           ser usado — eventualmente… — nos problemas de contorno da evolução do sistema.

Já na mecânica quântica relativística, a equação de Schrödinger torna-se uma equação de onda comum da física clássica. Neste caso, a função de onda é uma função destes campos, e não das coordenadas da partícula, sujeita à quantização canônica, cuja amplitude de campo é interpretada como um ‘operador’.

A procura por uma visão mais unificada da natureza… – do que a antiga interpretação dualista, em termos tanto de campos, quanto de partículas, levou físicos modernos à elaboração de uma ‘Teoria Quântica de Campos’.

Teoria Quântica de Campos

teoria quântica de campos é a aplicação conjunta da mecânica quântica e da relatividade aos campos… – que fornece uma ‘estrutura teórica’ usada na física de partículas e na física da matéria condensada. Em particular…a teoria quântica do campo eletromagnético, mais conhecida como “eletrodinâmica quântica” (QED, do inglês “Quantum EletroDynamics”), é a teoria provada experimentalmente com maior precisão na Física. – Em suma…pode-se dizer que a teoria quântica dos campos é uma teoria que, na denominação mais antiga, se chama “segunda quantização”, isto é, realiza a “quantização dos campos”…ao passo que a mecânica quântica apenas realiza a quantização da matéria. A teoria quântica dos campos considera tanto matéria (hadrons/leptons), quanto os condutores de força (bosons) como excitações de um campo fundamental de energia mínima não-nula (vácuo).

A ‘simetria de Lorentz‘ é essencial na descrição das forças e partículas elementares. Ao ser combinada com os princípios da ‘Mecânica Quântica‘, ela produz uma estrutura chamada ‘Teoria Quântica de Campos‘ (TQC) … na qual — toda partícula ou força é descrita por um campo que permeia o espaçotempo, com uma ‘simetria de Lorentz’ apropriada. O ‘modelo padrão‘ da física de partículas — que descreve todas partículas e forças não gravitacionais conhecidas, é uma ‘teoria quântica de campo‘.

A TQC considera – tanto a matéria (hadrons e leptons)…quanto os bósons condutores de força (mensageiros) como ‘excitações’ de um campo fundamental de energia mínima não-nula (vácuo)…Sua origem é atribuída aos estudos de Max Born, Pascual Jordan e Werner Heisenberg, que em 1926 descreveram o campo eletromagnético, na ausência de cargas e correntes, como um sistema de osciladores…com frequência ω – concluindo assim, que a energia do campo seria quantizada.

A seguir, em 1927, Paul M. Dirac formulou o método da 2ª quantização, dando início à 1ª Teoria Quântica de Campo – a eletrodinâmica quântica (QED)… que permitiu tratar, por exemplo… — da emissão e absorção de radiação — como uma criação e destruição de partículas (fótons, no caso) a partir de excitações do vácuo pelos operadores quantizados de campo.

Já em 1928…Jordan e Wigner estenderam o método da 2ª quantização – inicialmente formulado para bósons (relações de comutação), para descrever férmions (relações de anticomutação); Jordan e Pauli tornaram o método relativístico, ainda em 1928. Após essas realizações, os anos 30 foram de grande progresso no desenvolvimento da TQC.

Historicamente, a teoria quântica de campos nasceu da descrição quântica da interação eletromagnética, através da QED. A partir do sucesso desta teoria…o programa de TQC   foi estendido com sucesso à força fraca – unificando-a com a eletromagnética, numa ‘teoria eletrofraca… O programa da TQC obteve vários sucessos empíricos – até se deparar com um problema sério…

O ‘problema dos infinitos’

Foi na QED que o ‘problema dos infinitos‘ apareceu pela 1ª vez… e nela que a renormalização surgiu.

Em muitas situações…cálculos que deveriam resultar em quantidades finitas e observáveis como carga e massa de partículas, tipo elétrons, davam ‘quantidades divergentes‘.

Um bom exemplo disso é a assim conhecida catástrofe ultravioleta’ que surge ao calcularmos os efeitos da auto-energia do elétron, ou da polarização do vácuo. Ambos os efeitos estão relacionados com a criação de partículas virtuais.

A ‘auto-energia do elétron’ resulta do fato de que há uma contínua emissão e reabsorção de fótons virtuais por qualquer carga elétrica (… consequência desta ser a geradora da interação eletromagnética, que envolve fótons virtuais como agentes de troca interativa). Assim, o elétron fica envolto por esta nuvem de fótons virtuais produzidos por si mesmo.

Um observador, olhando o elétron do lado de fora de sua nuvem, detetaria sua massa m como a energia total…meo + m(nuvem). – Esta auto-interação tem portanto, o efeito de esconder a energia do elétron inicial eo… Assim, obtemos então o valor de massa efetiva (elétron inicial + nuvem = elétron medido).

Já na ‘polarização do vácuo, o campo eletrostático de um elétron leva à assimetria na distribuição de pares elétron-pósitron virtuais que são criados a partir dos fótons virtuais (processo permitido pela QED) advindos da nuvem em volta do elétron eo

O campo elétrico do elétron provoca o afastamento mútuo entre elétrons e pósitrons de seus pares (e +,  e −)… os elétrons virtuais são repelidos pela carga negativa original – à medida que os pósitrons são atraídos. Por causa dessa assimetria, o elétron original fica envolto por uma nuvem de pósitrons virtuais, que blinda parte de sua carga, resultando em uma carga efetiva menor do que a carga original.

renormalização

Algo semelhante ocorre em um ‘meio dielétrico  —  em que um campo externo polariza o meio inicialmente… não-polarizado.

Assim, portanto, ao invés de uma blindagem de carga, podemos dizer que o campo elétrico (envolto ao elétron) gera uma assimetria no meio dielétrico… que são os fótons     (e +, e −) de sua nuvem…que, por sua vez gerará um campo elétrico em sentido contrário ao do elétron; então, contrabalançando parte do campo elétrico do elétron (eo) envolto – resultando no mesmo efeito que a descrição anterior… — para um ‘observador externo’.

As divergências da QED levavam a previsões absurdas em resultados experimentais, tais como espaçamento de linhas espectrais. Esse tipo de divergência traz resultados infinitos para seções de choque… invalidando previsões referentes ao espalhamento.

Renormalização da QED 

Uma das peças-chave no triunfo da TQC foi a elaboração da teoria de renormalização  como uma condição racional de simplicidade – que explicava não só por que o elétron possui momento magnético, mas também (junto com as simetrias de calibre) todos os aspectos detalhados do ‘modelo padrão’…das interações fraca, eletromagnética e forte.

Nos anos 30 e 40, diversas técnicas haviam sido desenvolvidas para eliminar – ou pelo menos contornar as divergências da QED. Todas técnicas possuíam a característica de serem métodos ad-hoc… e – ainda não estavam inclusas numa abordagem sistemática.

Além disso… elas envolviam certas operações com quantidades infinitas que eram difíceis de justificar rigorosamente em termos matemáticos. Por isso, a atitude que prevalecia nos anos 40 entre os físicos… era, basicamente… a de continuar empregando a teoria quântica de campos… — de uma maneira bem cautelosa…  –  na falta de uma abordagem melhor.

A solução para o problema foi encontrada nas técnicas de renormalização, através do cancelamento dos infinitos que surgem no cálculo de algumas quantidades físicas, como carga e massa, em teorias quânticas de campo… Seu conceito baseia-se na ideia de que a massa efetiva de — por exemplo — um elétron… deve ser entendida como formada por 2 componentes – uma massa ‘pura’ (sem contar fótons virtuais) infinita – e, também uma auto-massa (que resulta ao levarmos em conta fótons virtuais)…que pode ser calculada na teoria, e que assume um valor infinito.

A ideia é que uma quantidade infinita “cancela” a outra…de forma que a massa observada experimentalmente seja uma massa efetiva finita. Assim, a renormalização é um processo de eliminação de divergências…absorvendo-as em novas definições de parâmetros físicos, nesse caso, a massa…O processo aplica-se também na redefinição de outro parâmetro – a carga.

Julian Schwinger e Richard Feynman deram… – entre 1947 e 1949 – os toques finais em uma eletrodinâmica quântica (QED) sob método sistemático, que era ao mesmo tempo renormalizável e covariante relativisticamente. Com efeito, Sin-Itiro Tomonaga já havia desenvolvido no Japão uma teoria deste tipo em 1943… só publicada em inglês em 1946.

Em seguida – em 1949… – Freeman Dyson demonstrou que os formalismos de Feynman, Schwinger e Tomonaga eram equivalentes, e conseguiu classificar os tipos de divergências da QED… provando que elas eram precisamente do tipo que poderia ser removido através da renormalização.

Renormalização… solução, ou problema?

Nos anos seguintes, a QED provocou um grande entusiasmo entre os físicos…e os cálculos foram sendo efetuados  –  com aproximações cada vez maiores…Hoje em dia, os mais pormenorizados cálculos, usando esta teoria…conseguem atingir uma precisão de até 10 casas decimais.

Desse modo… a QED fez nascer a esperança de       que as outras interações da natureza pudessem       ser descritas por meio de Teorias Quânticas de Campos renormalizáveis… – como ela própria.

Todavia… durante os progressos neste projeto, percebeu-se que esse avanço dificilmente seria conseguido em relação às  forças fraca e forte.

No caso da interação fraca, as divergências que surgiam eram de um tipo que não se conseguia eliminar por meio das técnicas de renormalização existentes até então. — Já no caso da interação forte, era impossível aplicar a ‘teoria de perturbação’, pela qual cálculos eram efetuados na QED.

Evidentemente, a subtração de uma quantidade infinita de outra quantidade infinita não parece ser uma operação matematicamente bem definida…Na verdade, a redefinição dos parâmetros é obtida por um processo de corte nas integrais divergentes … – inclusão das mesmas na redefinição do parâmetro a considerar … – e subsequente passagem ao limite.

Porém, restava o problema de como executar esse corte, e ao mesmo           tempo – preservar a invariância de calibre da teoria… E… para isso:

1.Era preciso encontrar uma maneira de classificar os tipos de infinitos que apareciam nos cálculos, uma vez que, para a técnica de renormalização ser aplicada, os infinitos precisam aparecer de uma maneira específica – ou seja… na redefinição de parâmetros já existentes.

2. Também era indispensável descobrir como executar o procedimento de                             renormalização… de modo que não se destruísse a ‘invariância de calibre’.

3. E havia a escassez de dados experimentais, capazes de permitir uma                                   discriminação fina entre as várias técnicas de ‘eliminação de infinitos‘.

Essas, entre outras dificuldades levaram o programa da teoria quântica de campos a um impasse na década de 50, situação esta, que prevaleceria até a década de 60. A aceitação da renormalização pela comunidade científica – na verdade…sempre esteve cercada por dúvidas, e nunca livre de polêmicas… Isso, graças à percepção da renormalização como  um procedimento inconsistente do ponto de vista matemático e lógico de muitos físicos.

As operações para renormalização – redefinição de parâmetros como massa e carga, por subtração de infinitos gerando quantidade finita, parecem duvidosas do ponto de vista lógico…  –  Pode-se argumentar também, que a inconsistência de que se acusa a renormalização possui raízes físicas…

ação-a-distancia

Divergência dos Infinitos

Um dos pressupostos básicos da teoria quântica de campos… – é que o campo possui caráter local… e, desse modo as equações que governam a evolução de um campo num ponto do espaçotempo dependem apenas do ‘comportamento’ do campo, e de suas derivadas naquele ponto…Esse pressuposto de localidade implica em pontuais interações e excitações destes campos…

O que, por sua vez, acarreta, nos cálculos, a necessidade de se levar em conta os ‘quanta virtuais‘ com momentos arbitrariamente altos…Porém, a inclusão desses limites leva ao aparecimento de quantidades infinitas… Assim, as ‘divergências ultravioletas‘ estariam ligadas, de certa forma, à ‘localidade’ imposta aos campos.

Nesse caso…o aparecimento de infinitos poderia ser uma indicação segura das limitações intrínsecas ao ponto de vista local da interação. Ou seja, o uso da renormalização poderia estar sendo feito – sem restrições sobre sua origem, e conceitos sobre ele implicitamente impostos, e mesmo assim tendo-se resultados totalmente compatíveis com a experiência.

A pergunta então seria…se, realmente, os físicos precisariam substituir a renormalização, até então frutífera – mas com dificuldades conceituais… por outra teoria que remediasse esses problemas. À primeira vista, não deveríamos nos preocupar com reformulações da QED, pois…como dissemos, ela gera frutos – e, não são poucos… mas, temos que pensar num âmbito mais geral e perguntar…será que essa reformulação nos elevará ao patamar que nos possibilite alçar vôos mais altos?

Levando em conta relatos 2 de físicos que participaram ativamente da produção da teoria quântica de campos…R. Feynman, que usava regularmente ‘renormalização’ para contornar erros na teoria…dizia que esta não seria inteiramente satisfatória…       …mesmo a utilizando em seus trabalhos.

Ao descrever o desenvolvimento conceitual da teoria… em sua conferência ao Nobel de 1965, ele explica:

“Acredito que não haja uma eletrodinâmica quântica realmente satisfatória… Penso – embora não tenha certeza disso… que a teoria da renormalização é apenas uma maneira de “varrer” dificuldades com as divergências para debaixo do tapete.”

Já P. Dirac – crítico profundo e constante da renormalização, argumenta que ela constitui, por si só, um indício de que algo está muito errado com a teoria… Sobre isso, ele escreveu:

“Precisamos aceitar o fato de que existe algo fundamentalmente errado com nossa teoria da interação do campo eletromagnético com os elétrons…Por fundamentalmente errado, quero dizer que… ou a mecânica, ou a força de interação está errada.  –  São necessárias novas equações relativísticas, e mais outros tipos de interação devem ser postos em jogo. Quando essas novas equações e interações forem imaginadas, os problemas que hoje nos confundem serão automaticamente solucionados, e não mais teremos que lançar mão de processos ilógicos como a renormalização de infinitos. Porque, a despeito dos seus êxitos, trata-se apenas de uma regra prática que produz resultados, e precisamos nos preparar para abandoná-la…do mesmo modo que os êxitos da teoria de Bohr foram considerados meramente acidentais, mesmo que corretos.”

Teorias de calibre Yang/Mills 

Em meio ao descrédito em que havia caído a teoria quântica de campos, a partir da década de 50, foi criada a ideia que… posteriormente… permitiria o seu renascimento. Trata-se da teoria de calibre não-abeliana proposta por C. N. Yang e R. L. Mills em 1954. – Essa teoria viria a desempenhar papel crucial em todo o desenvolvimento da TQC… E aqui tem início o 2º episódio… – no qual a renormalização viria a desempenhar um papel fundamental.

O termo ‘teoria de calibre refere-se a um tipo particular de invariância — ou simetria, que ‘certas teorias‘ possuem.

A invariância de calibre,  no caso clássico de Maxwell do eletromagnetismo funda-se em manter inalteradas as previsões experimentais da teoria somando o gradiente da função arbitrária f(x), ao seu próprio potencial.

No caso dos ‘campos quânticos’…a invariância de calibre consiste em se poder manter esta invariância quando se efetua, além da adição do gradiente, também uma rotação arbitrária na fase do campo, mantendo a mesma forma de Lagrangiano após essas 2 transformações.

A ‘teoria de Yang-Mills se refere ao ‘spin isotópico‘… que é uma quantidade conservada na interação forte, e é atribuído a neutrons e prótons. – A hipótese feita por eles foi de que o spin isotópico obedeceria a uma simetria de calibre local não-abeliana.

Uma simetria é dita ‘global‘ quando as equações são transformadas da mesma maneira em todos os pontos do espaçotempo – e ‘local‘, quando       a transformação pode ser diferente… – em diferentes pontos do mesmo.

O fato da simetria de spin isotópico utilizada por Yang e Mills ser do tipo local significa, em termos físicos, a possibilidade de transformar prótons em neutrons, e vice-versa, de maneira independente para cada partícula – isto é, as transformações não precisam ser executadas do mesmo jeito… – em todos os pontos do espaçotempo — além disso… por Yang/Mills não ser abeliana, o resultado de uma sequência de transformações depende     da ordem em que elas são efetuadas.

Uma vez imposta a invariância de calibre, Yang e Mills determinaram qual seria o campo correspondente – executaram o processo de quantização… e obtiveram quanta com spin unitário e spin isotópico unitário… — e carga…que poderia ser nula, positiva ou negativa.

Entretanto, 2 questões acerca da teoria tiveram que ser deixadas em aberto pelos autores – devido a dificuldades técnicas… – o problema da massa dos quanta do campo, e a questão da ‘renormalidade’.

Por causa das dificuldades encontradas, a teoria de calibre não-abeliana não parecia ser aplicável à ‘interação forte‘. Entretanto, havia a possibilidade de que a ‘interação fraca‘ fosse descrita por meio de uma teoria do tipo Yang/Mills. E, para isso, foram propostas     2 novas ‘teorias de calibre’ unificando o ‘eletromagnetismo’ e a ‘interação fraca’ — por Sheldon Glashow (1961); e por Abdus Salam e John Ward (1964)… do tipo SU(2)×U(1).

Nessas teorias, o lagrangiano da interação previa a existência de 4 bósons… o fóton, e mais 3 bósons vetoriais fracos (um com carga positiva… outro negativa… e mais outro neutro). Porém, havia o problema da diferença de massa – que é nula para o fóton, mas deveria ser não-nula para as outras 3 partículas… – As massas das partículas precisavam ser inseridas manualmente na teoria…E, além disso, restava a questão de como se ter bósons massivos sem destruir a invariância de calibre…

Campo eletromagnético vetorial (fóton s/massa); campo gravitacional tensorial (gráviton s/massa) ==> Campo de Higgs (bóson c/ massa ?)

TQC e a ‘Quebra de Simetria’

—  Para se construir uma determinada Teoria Quântica de Campo, é preciso acrescentar aos princípios gerais satisfeitos em qualquer TQC, mais alguma informação física. Uma maneira muito comum de se fazer isso é especificando as simetrias obedecidas por tal sistema físico. Para isso ocorrer, pesquisam-se quais as ‘leis de conservação‘ respeitadas pelos processos físicos de interesse, e a partir daí descobrem-se as simetrias do sistema.

Tal procedimento não é apenas eficaz, mas reflete o antigo princípio estético de que a natureza é essencialmente simples em seu funcionamento último… Todavia, também considera que os fenômenos físicos observados raramente espelham tal simplicidade           e regularidade – sendo preciso, portanto… a um só tempo construir uma teoria física     com simetria intrínseca, e encontrar um meio de quebrar a simetria – para dar conta     dos variados aspectos do mundo.

Toda equação diferencial (ou integral), tem um conjunto de simetrias. Se as soluções para essa equação possuírem as mesmas simetrias da equação – então…diz-se que a simetria é preservada (não é quebrada). – Porém, se a simetria das soluções não estiver presente na equação… diz-se então que as soluções quebram a simetria (da equação que as originou).

Até o presente há 2 mecanismos de quebra de simetria disponíveis: quebra espontânea de simetria, na qual a dinâmica seleciona as soluções não-simétricas por causa da menor energia que estas devem ter quando comparadas à solução simétrica; e quebra anômala (ou quântica) de simetria, na qual os infinitos da TQC são usados para violar o ‘princípio de correspondência’ – por conta do procedimento de ‘renormalização‘.

Quebra espontânea de simetria

Em 1961…o físico Jeffrey Goldstone propôs um mecanismo para obter a ‘quebra espontânea de simetria‘ na teoria quântica de campos…Porém, Steven Weinberg, Salam e o próprio Goldstone mostraram em 1962, que     uma quebra espontânea de simetria seria acompanhada do surgimento de partículas de spin unitário … e massa nula…  —  (os ‘bósons de Goldstone‘).

Isso constituía um problema, uma vez que tais partículas de massa nula não foram observadas, nem poderiam desempenhar um papel em interações de curto alcance.

Peter Higgs, então, completou o mecanismo entre 1964 e 1966, valendo-se da invariância de calibre…para mostrar como as partículas podem ganhar massa via quebra espontânea de simetria – sem o aparecimento de partículas de massa nula. Pelo mecanismo que leva seu nome (Mecanismo de Higgs)… desaparecem os ‘bósons de Goldstone’…os quanta de campo adquirem massa… e aparece também uma partícula massiva – chamada então de ‘bóson de Higgs.

O mecanismo de Higgs também funciona para teorias baseadas no grupo não-abeliano SU(2)×U(1), o que abriu o caminho para uma teoria de calibre unificada das interações eletromagnética e fraca…teoria que seria formulada independentemente por Weinberg   em 1967, e Salam, 1968, usando o mecanismo Higgs ao explicar a massa das partículas.

A teoria eletrofraca de Weinberg/Salam não despertou interesse nos primeiros anos após sua formulação…uma vez que a teoria quântica de campos ainda atravessava uma fase de reclusão na época. Mas, em 1971, Gerard ’tHooft  conseguiu demonstrar que as teorias de calibre massivas com quebra espontânea de simetria são renormalizáveis. Esta era a peça que faltava no quebra-cabeças teórico.  texto base (pdf) (Ernany Rossi Schmitz /UFRGS)     !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!(texto complementar)!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!

Decaimento do bóson de Higgs em componentes da matéria (02/07/2014)

O decaimento direto do bóson de Higgs em férmions… corroborando a hipótese de ser o gerador das massas das partículas constituintes da matéria… foi comprovado no Grande Colisor de Hádrons (LHC), o enorme complexo experimental mantido pela Organização Europeia para a Pesquisa Nuclear (CERN) na fronteira da Suíça com a França.

bhiggs

Comprovação corrobora a hipótese de que o bóson é o gerador das massas das partículas constituintes da matéria. Descoberta foi anunciada na Nature Physics por grupo com participação brasileira (CMS)

O anúncio da descoberta acaba de ser publicado na revista “Nature Physics pelo grupo de pesquisadores… ligado ao detetor… “Solenoide Compacto de Múons” (CMS…na sigla em inglês).

Da equipe internacional do CMS, de cerca de 4.300 integrantes…(físicos, engenheiros, técnicos, estudantes…e pessoal administrativo)… participam 2 grupos de cientistas brasileiros, um sediado na Unesp, São Paulo, e outro no CBPF…e na Uerj – Rio de Janeiro.

O experimento mediu…pela 1ª vez, os decaimentos do bóson de Higgs em ‘quarks bottom‘ e ‘léptons tau‘…E mostrou que estes são consistentes com a hipótese das massas dessas partículas também serem geradas por meio do “mecanismo de Higgs”, como explicou o físico Sérgio Novaes – líder do grupo da UNESP…no experimento CMS.

O novo resultado reforçou a convicção de que o objeto, cuja descoberta foi oficialmente anunciada em 4 de julho de 2012 é realmente o bóson de Higgs, a partícula que confere massa às demais partículas, de acordo com o ‘Modelo Padrão‘ da Física de Partículas.

Desde o anúncio oficial da descoberta do bóson de Higgs, muitas evidências foram coletadas, mostrando que a partícula correspondia às predições do Modelo Padrão.         Estes estudos – fundamentalmente… envolviam seu decaimento em outros bósons (partículas responsáveis pelas interações da matéria), como os fótons (bósons da interação eletromagnética) e o W e o Z (bósons da interação fraca).

Porém… – mesmo admitindo o bóson de Higgs como responsável pela geração das massas do W e do Z… não era óbvio que devesse também gerar as massas dos férmions (partículas que constituem a matéria…como os quarks e os léptons), porque o mecanismo é um pouco diverso, envolvendo o ‘acoplamento de Yukawa’ entre essas partículas e o campo de Higgs.

Os pesquisadores buscavam uma evidência direta de que o decaimento do bóson de Higgs nesses campos de matéria obedeceria à receita do Modelo Padrão… – Porém, essa não era uma tarefa fácil, porque, exatamente pelo fato de conferir massa, o Higgs tem a tendência de decair nas partículas mais massivas, como os bósons W e Z por exemplo, que possuem massas cerca de 80 e 90 vezes superiores à do próton, respectivamente.

Quantum-Entanglement

No caso particular do quark bottom, um par bottom-antibottom pode ser produzido de diversas outras maneiras, além do “decaimento Higgs”.

Foi então… preciso filtrar todas essas outras possibilidades. — E, no caso do lépton tau, a probabilidade de ‘decaimento do Higgs’ nele é muito pequena…

A cada trilhão de colisões realizadas no LHC, existe 1 evento com ‘bóson de Higgs’. Destes, menos de 10% podem corresponder ao “par de taus“. – Ademais, este também pode ser produzido de outras formas…como, a partir de um fóton… – com frequência bem maior. 

Para provar de forma segura… o decaimento do bóson de Higgs no quark bottom e lépton tau, a equipe do CMS… – precisou coletar, e processar… uma quantidade descomunal de dados. Como afirmou Novaes…

“Por isso nosso artigo na Nature demorou tanto tempo para sair…Foi, literalmente… – mais difícil do que procurar uma agulha no palheiro”.

Mas o interessante, segundo o pesquisador, foi que, mesmo nesses casos, em que se considerava que o Higgs poderia fugir à receita do Modelo Padrão, isso não ocorreu.         Os experimentos foram muito coerentes com as predições teóricas… E, ele concluiu:

“É sempre surpreendente verificar o acordo entre o experimento e a teoria… – Por anos, o bóson de Higgs foi considerado apenas um ‘artifício matemático’…para dar coerência interna ao ‘Modelo Padrão’. – Muitos físicos apostavam que ele jamais seria descoberto. Essa partícula foi procurada por quase meio século, e acabou sendo admitida pela falta de uma proposta alternativa, capaz de responder por todas as predições, com a mesma margem de acerto. – Então … esses resultados que estamos obtendo agora no LHC, são realmente espetaculares. – A gente costuma se espantar quando a ciência não dá certo. Mas o verdadeiro espanto é quando ela dá certo… Em 2015, o LHC deverá rodar com o dobro de energia…A expectativa é chegar a 14 teraelétrons-volt (TeV)…Nesse patamar, feixes de prótons serão acelerados a mais de 99,99% da velocidade da luz”. (texto base)

O artigo original ‘Evidence for the direct decay of the 125 GeV Higgs boson to fermions’ da colaboração CMS/CERN, pode ser lido em ‘Nature Physics’. ***********************************************************************

Higgs, qual Higgs?                                                                                                                         Agora é esperar os resultados para ver se a ‘aparente descoberta’ se torna autêntica”.

ChargePartículaHiggsMariano

Você… certamente, se lembra da “descoberta” do bóson de Higgs, anunciada em 2012… – François Englert e Peter Higgs receberam o Nobel de Física um ano depois de terem previsto sua existência.

E…talvez você também se lembre de como o anúncio foi feito… Um anúncio cheio de senões, onde se dizia uma coisa (“Descobrimos o Bóson de Higgs”), mas se escrevia outra (“Descobrimos ‘um’ bóson de Higgs“)… — Vários anos depois, e com muito mais dados coletados, os físicos continuam sem saber ‘ao certo’    o que encontraram… — como explicou Usha Mallik, física da Universidade de Iowa, EUA:

“Até agora não temos certeza se a partícula encontrada pelo LHC é o Higgs do Modelo Padrão, ou um impostor misturado com algum outro tipo de Higgs. Estamos ansiosos para descobrir o que está além do Modelo Padrão. E o Higgs é a nossa janela para lá”. 

Para tentar tirar as dúvidas…e assumir de vez o Bóson de Higgs, ou abrir essa janela para um novo mundo da física, Mallik está à frente de um esforço para que o LHC procure por outra partícula, a única que pode tirar de vez a dúvida sobre o que foi observado em 2012. – Acontece que o Bóson de Higgs autêntico…ao decair – e ele decai muito rapidamente – deve produzir um par de quarks específicos (tipo bottom) em 60% das vezes.

Só que tem um problema… – desde a ‘aparente descoberta’ do Higgs, como Mallik a chama, o LHC não conseguiu detetar os tais quarks nenhuma vez.

Certamente a tarefa não é fácil; o bóson observado é gerado uma vez a cada 10 trilhões de colisões do LHC…e ele decai quase instantaneamente em outras partículas…o que torna a deteção, e a definição dos elementos constituintes desse decaimento – um desafio e tanto. Aliás…este é um dos motivos pelos quais está sendo construído novo LHC… mais potente.

Mallik e sua equipe estão trabalhando agora em um subdetetor – sensor que será anexado a um dos grandes detectores do LHC…o Atlas, projetado para detetar, justamente o par de quarks bottom que o Bóson de Higgs deveria gerar… – E Mallik confiante, assim concluiu:

“A esperança é observar os tais quarks na confusão de partículas pós-colisão que surge do decaimento do Higgs ou de outras novas partículas pesadas semelhantes. – É pegar aquela agulha no palheiro… sem se enganar. – Esse é o desafio”. (texto base)  jan/2017 **********************************************************************************

Bóson de Higgs e Função de Onda (Carlos Bonin)                                                 Especula-se que ao contrario da gravidade, onde o campo se amplifica com maior presença de massa, o bóson de Higgs seria como um campo…chamado “campo de   Higgs”… — que é uniforme… Essa uniformidade poderia ser a “energia escura“.

Ao tentarmos descrever uma partícula através da mecânica quântica — atribuímos a ela     uma função de onda. A fase global da função de onda (que não tem significado físico) matematicamente é descrita através de um ‘funcional’… denominado ‘Lagrangiana.

Essa Lagrangiana deve ser invariante sob transformações na fase global da função de onda. Isso significa que podemos escolher qualquer valor para a fase… mas, uma vez escolhido, esse valor deve ser o mesmo em todo ponto do espaço e instante de tempo.

Saber que a Lagrangiana original deixa de ser invariante, com a escolha de uma fase que dependa de um ponto no espaço – e do instante de tempo… significa a necessidade de se introduzir um campo vetorial sem massa que interaja com a função de onda da partícula.

No caso mais simples, esse campo vetorial é o campo eletromagnético, e a partícula em questão é eletricamente carregada. Em casos mais complicados, surgem os campos que dão origem às outras 2 interações fundamentais da natureza – descritas pela mecânica quântica: a interação forte e a interação fraca.

Esse método de se encontrar a interação é chamado de Princípio de Gauge. Nos 3 casos, os campos vetoriais (bosônicos) que surgem para descrever as interações eletromagnética, fraca e forte são campos sem massa. Contudo, os campos que medem a interação fraca são campos com massa…A eles estão associados os bósons Zo, W+ e W-… todos partículas com massa.  —  A solução para resolver esta questão é……….. o  “mecanismo de Higgs”.

Mas, como descrevemos matematicamente um campo sem massa?… – Basta não adicionar nenhum termo de massa na Lagrangiana. Se colocarmos um termo de massa para o campo vetorial na Lagrangiana para os casos acima, ela deixa de ser invariante… – Desse modo, a solução encontrada foi fazer o campo vetorial da interação fraca interagir com um campo escalar (portanto, também um bóson) num potencial de ‘auto-interação’ muito particular. Esse bóson é o chamado bóson de Higgs.

O valor esperado da maioria dos campos no vácuo é nulo. Contudo, devido a esse potencial de auto-interação peculiar… – o valor esperado no vácuo do campo de Higgs não é nulo… Escrevendo esse campo como sendo o valor esperado no vácuo… mais flutuações em torno desse valor – surge, naturalmente, um termo de massa para o campo vetorial da interação fraca…Esse é o mecanismo de Higgs para a quebra espontânea de simetria no modelo de Weinberg-Salam da interação eletrofraca.

Questões em aberto…

1) o Bóson de Higgs pode ser considerado ‘gráviton’ (por ser responsável pela massa; signo relativístico de gravidade)?

_ Não. O gráviton teria spin 2. O bóson de Higgs, spin 0. – Embora ambos sejam bósons, suas características são muito distintas. Além do mais, nos níveis experimentais atuais, a gravidade não desempenha nenhum ‘papel apreciável’ no comportamento das partículas quânticas… Assim, a teoria quântica de campos tradicional (na qual foi proposta o bóson de Higgs) desconsidera a gravitação…Portanto, o bóson de Higgs não pode ser o gráviton.

2) qual seria a influência do encurvamento do campo na “produção” da massa?…

_ Encurvamento de qual campo?… Do campo de Higgs?…  –  Se você se refere ao fato do encurvamento do espaçotempo (isto é, da gravidade) ele não interfere significativamente na massa das partículas…pelo menos não em um acelerador. Agora, nas proximidades de um buraco-negro eu não sei. ### ‘O Bóson de Higgs’ ### O Higgs gera a massa de tudo?’

Anúncios
Publicado em cosmologia, física | Marcado com , , , | 1 Comentário

Aleatoriedade (quântica) / Criptografia (caótica)

“A física clássica simplesmente não permite a aleatoriedade… Ou seja, o resultado de qualquer processo clássico pode – em última instância – ser determinado … tendo-se informações suficientes das ‘condições iniciais’. – Apenas processos quânticos podem    ser, de fato, aleatórios.” (Christopher Monroe) … já fenômenos caóticos se situam no meio-termo entre ‘determinismo’, e o aleatório e intrínseco indeterminismo quântico.  

nºs aleatórios

Em princípio, todos os eventos, incluindo a jogada de um dado … ou o resultado de um jogo de roleta, todos podem ser explicados em termos matemáticos.

Ou seja, aquilo a que chamamos acaso é apenas uma questão de desconhecimento: se soubéssemos a localização…velocidade, e todas as demais características de todas partículas no Universo – tudo com absoluta certeza, seríamos capazes de… praticamente, prever todos os processos que ocorrem no mundo.

Mas isto só vale no reino da física clássica – onde, por trás de cada coincidência, parece haver um “plano“… uma interligação sutil de fenômenos, que acaba naquilo que chama nossa atenção pela casualidade… e, que em última instância, pode ser descrito por uma equação matemática precisa, que revela o “plano” secreto.

Terra sem deuses …                                                                                                              “Não, nem o próprio ‘acaso’ é absolutamente aleatório. Ele sofre influências do meio, e graças a essas restrições causais, a ciência…por suas leis naturais, existe. E, existindo, deve ser humilde o suficiente para compreender que a verdade final, afinal é mutável,     e sempre abrangente…de acordo com nossa capacidade adaptativa de compreensão”.

Teoricamente… pode-se obter “números aleatórios” através de uma série de medições quânticas que sejam totalmente independentes umas das outras. Essa sequência seria natural, e intrinsecamente aleatória.

Tudo, porém… é diferente no reino da ‘mecânica quântica. Nela, propriedades específicas dos objetos (como a posição de um elétron, ou a polarização de um fóton) são por natureza incertas. Embora a probabilidade de qualquer propriedade particular possa ser calculada a priori, estas propriedades – quando medidas – assumem valores específicos… os quais são intrinsecamente aleatórios.

Na demonstração mais cabal dessas diferenças, um grupo de cientistas do Instituto Max Planck, na Alemanha, usou a física quântica para construir um dispositivo que funciona sob o princípio de uma aleatoriedade verdadeira, totalmente imune a ‘planos’, previsões, ou fórmulas matemáticas descritivas.

criptografiaquântica

…Esse ‘dado quântico gera números aleatórios que não podem ser previstos com antecedência… já que as medições baseadas na física quântica — somente produzem determinado resultado com certo grau de probabilidade — isto é… de forma aleatória.

Números verdadeiramente aleatórios são necessários para a criptografia de dados, e para permitir a simulação de processos econômicos, de mudanças no clima, etc. Porém, os geradores de números aleatórios usados hoje, através de programas computacionais projetados especialmente para esse fim…estão longe de serem aleatórios; como explica Christoph Marquardt, um dos autores da pesquisa:

Eles apenas simulam a aleatoriedade — mas… com a ajuda de testes adequados… e um volume suficiente de dados, pode-se identificar padrões… Identificado o padrão, passa a ser possível prever o próximo número produzido pelo gerador desses números pseudo-aleatórios…  —  O certo é que… a verdadeira aleatoriedade somente existe no mundo da mecânica quântica…Uma partícula quântica permanecerá em um lugar ou noutro, e se moverá a uma velocidade ou outra – mas, apenas com um certo grau de probabilidade. Essa aleatoriedade dos ‘processos quânticos’ é explorada para gerar nºs aleatórios“.

Gerador de nºs aleatórios                                                                                                    

As ‘flutuações de vácuo’ foram usadas como um dado quântico. Estas flutuações são mais   uma característica do mundo quântico… – É como se, na prática, fosse ‘impossível‘ não existir alguma coisa lá… Mesmo na escuridão absoluta, está disponível a energia de meio fóton — e… embora continue a ser invisível, deixa pistas que são detetáveis por medições suficientemente sofisticadas.

Estas pistas assumem a forma de um ‘ruído quântico‘… totalmente aleatório — que só surge ao se tentar medi-lo. Para tornar visível o ruído quântico, os cientistas recorreram de novo ao “cinto de utilidades da física quântica. Inicialmente, eles dividiram um feixe de laser em partes iguais… – utilizando um ‘divisor de feixe‘.

dado-quantico

Para obter o número verdadeiramente aleatório os pesquisadores dividiram a curva em forma de sino em seções, com áreas de tamanho igual, e atribuíram um nº a cada seção. [Gabriel et al./Nature Photonics]

Um divisor de feixe tem 2 portas de entrada e 2 portas de saída… A 2ª porta de entrada foi  coberta pelos pesquisadores, impedindo a entrada da luz. Contudo, as flutuações do vácuo quântico ainda estavam lá, influenciando a saída dos 2 feixes parciais de laser. — A seguir, os 2 feixes foram dirigidos aos detectores – medindo-se a intensidade do fluxo de fótons… (cada fóton produz um elétron… e a corrente elétrica resultante é registrada pelo detector)

Ao subtrair a medição das 2 curvas produzidas pelos 2 detectores – o resultado seria zero, se estivéssemos tratando com o mundo clássico. Porém, no mundo quântico, resta o ruído quântico… — como explica Christian Gabriel… pesquisador responsável pelo experimento:

Durante a medição, a função de onda da mecânica quântica é convertida num valor… A estatística é pré-definida, mas a intensidade medida continua a ser uma questão de puro acaso. Quando plotados em uma curva de Gauss, valores mais fracos surgem com muita frequência, enquanto os mais fortes só ocorrem muito raramente“.

O experimento é promissor para usos práticos. — Combinações de números aleatórios são necessárias para criptografar dados durante transferências bancárias. Números aleatórios também são usados para simular processos complexoscom resultados probabilísticos.

Por exemplo, os economistas usam as chamadas simulações de Monte Carlo para tentar prever o comportamento e evolução dos mercados financeiros…e, os meteorologistas as utilizam para alimentar seus modelos do clima…inserindo algumas variações aleatórias.

Criptografia quântica é demonstrada pela 1ª vez                                                       Estudos envolvendo criptografia quântica – métodos de segurança invioláveis, feitos por meio da manipulação das propriedades quânticas de partículas/ondas – vinham sempre acompanhados de expressões reticentes…  —  Agora, porém … tudo isso começa a mudar.

cripto

Pesquisadores da Universidade de Toronto, Canadá…realizaram o 1º  experimento prático — utilizando equipamentos … comercialmente disponíveis, demonstrando como implementar ‘sistemas quânticos criptográficos’.

Eles apresentaram a primeira prova experimental – do uso da técnica de iscas quânticas na criptografia de dados transmitidos através de fibras ópticas… – Esta técnica consiste em variar a intensidade dos fótons introduzindo ‘iscas fotônicas… que são fótons disfarçados de dados reais… – Após os sinais enviados… outra transmissão diz ao computador receptor quais dados são verdadeiros, e quais os falsos.

Neste método de ‘criptografia quântica’, os fótons – de um raio laser…carregam complexas chaves de criptografia por meio de fibras ópticas.

A criptografia convencional se fundamenta na complexidade dessas chaves – algoritmos matemáticos difíceis de se quebrar…mas não impossíveis. – Já a criptografia quântica se baseia nas leis fundamentais da física – mais especificamente, no ‘Princípio da Incerteza’ de Heisenberg, para o qual – a observação de uma partícula quântica já é suficiente para alterá-la. – Ou seja, o simples ato de alguém ler os dados para tentar quebrar uma chave de criptografia, altera as iscas fotônicas… um claro sinal para o receptor de que os dados foram interceptados.

Vêm aí a criptografia caótica…                                                                                                Com base na teoria do caos, um grupo de pesquisadores da Universidade de São Paulo (USP) desenvolveu um novo sistema de criptografia que – mesmo sendo mais seguro… mantém a velocidade e operacionalidade dos sistemas tradicionais.

Pesquisadores da USP de São Carlos… e de Ribeirão Preto, desenvolveram novo sistema de criptografia que promete maior segurança às transações bancárias via internet. A iniciativa irá dificultar a ação de hackers espiões em suas tentativas de quebrar códigos de segurança na internet, bem como, por exemplo…codificar arquivos em notebooks – que poderiam ser extraviados. Para o professor Odemir Martinez Bruno, do Instituto de Física de São Carlos, da USP… O sistema é inovador, pois combina o método tradicional de criptografia, com uma parametrização dinâmica obtida dos ‘sistemas caóticos’…Com isso, produzimos um algoritmo computacional com melhorias na segurança — e também na velocidade… Um dos aspectos inovadores do novo sistema… é justamente a integração entre conceitos da física e da matemática à computação.

criptografia-e-caos-2

Esta animação mostra uma mensagem criptografa no sistema caótico. A mensagem “lorenz” foi cifrada com a senha “ifsc”. A senha determina os parâmetros iniciais do atrator e os saltos onde armazenar a mensagem. Cada esfera representa um dos 6 caracteres da palavra “lorenz” cifrados no atrator. [Imagem: Odemir Martinez Bruno]

Como a criptografia funciona

A criptografia embaralha números, letras e símbolos a fim de codificar textos – e…só podem decodificar e recuperar o texto original, pessoas autorizadas.

Tradicionalmente, a criptografia clássica utiliza operações lógicas,     ou aritméticas…simples…para o embaralhamento.

Na prática, quando um usuário digita os dados de seu cartão de crédito, em uma transação comercial…através da internet, suas informações são desde logo “embaralhadas” de maneira que um invasor não consiga decifrar seus códigos… – Somente o banco deveria ser capaz de decifrar as informações. Porém… hoje em dia… boa parte dos algoritmos aplicados na criptografia já foram quebrados – como explica o pesquisador:

Esse duelo entre códigos estabelecidos, e os que tentam quebrá-los… dura mais de 2 mil anos. Tanto que a criptografia já foi amplamente usada em operações militares. Muitas batalhas e guerras foram vencidas ou perdidas pelo sucesso ou fracasso da criptografia. Atualmente…a criptografia desempenha importante papel na economia moderna. Ela é responsável, entre outras funções, pela segurança eletrônica nas transações comerciais“.

Nas últimas décadas…pesquisas envolvendo a criptografia de sistemas caóticos têm sido objeto de estudos – sendo que, inclusive, alguns algoritmos de criptografia baseados na ‘teoria no caos‘ já foram criados… – Entretanto, esses métodos utilizados até então, apresentavam severas limitações — tornando-os inseguros … e, demasiado lentos para aplicações comerciais… como assim argumenta Bruno: A combinação agora aplicada entre a criptografia clássica e sistemas caóticos – dá agilidade ao embaralhamento de operações algorítmicas – o que traz melhorias na segurança, e velocidade do sistema“.

Sequências pseudo-aleatórias  Cada vez mais sistemas criptográficos estão sendo ‘quebrados’  —  o que tem motivado a busca por … novas formas de produção de ‘algoritmos’.

A “teoria do caos pode explicar o comportamento … — aparentemente errático e imprevisível … — de certos sistemas naturais. O comportamento desses ‘sistemas não-lineares’… onde pequenas diferenças, são fortemente amplificadas (pelo efeito borboleta) depende de suas ‘condições iniciais’.

O método caótico utiliza uma matemática bem mais sofisticada do que os tradicionais. O sistema se baseia na geração de sequências ‘pseudo-aleatórias’. Se os parâmetros iniciais do sistema caótico forem exatamente os mesmos … — a sequência será sempre a mesma.

Na criptografia caótica usada pelos pesquisadores brasileiros – estas sequências são utilizadas para embaralhar as mensagens… sendo impossível que alguém gere a mesma sequência aleatória… – a não ser que tenha acesso ao sistema caótico…com parâmetros iniciais idênticos.

Com a criptografia tradicional…de acordo com Bruno, leva-se cerca de 5 minutos para criptografar a quantidade de informação equivalente a um CD. Os métodos anteriores baseados na teoria do caos levariam cerca de 1 hora e meia para criptografar a mesma quantidade de informação…  O novo algoritmo faz o serviço em cerca de 8 minutos.    

Portas lógicas booleanas                                                                                                   

Com todas as maravilhas que seu computador lhe permite, no fundo, no fundo, ele é feito de minúsculas chaves, chamadas transistores, arranjadas na forma de pequenos circuitos, chamados portas lógicas. Para que seu computador funcione da maneira que você espera, essas portas lógicas devem dar resultados muito precisos. Uma porta AND, por exemplo, só deve dar resultado 1 quando ela receber 2 entradas 1. – Já uma porta OR dará sempre resultado 1, a menos que haja 2 entradas 0.

Se parece confuso, saiba que, juntando meia dúzia de “maquininhas” capazes de tomar decisões desse tipo, você nem precisa de transistores, e pode construir um computador     de qualquer coisa – de varetas e cordas – ou de copos e canos com água… por exemplo.     E, suas ‘maquininhas‘…ou suas portas lógicas… deverão sempre dar respostas simples, precisas e unidirecionais – ou 0, ou 1; dependendo dos 2 valores que entram. Depois é     só montar tudo numa estrutura hierárquica bem definida, e você terá um ‘computador’.

caosgate-1

As portas caóticas permitem construir dispositivos de computação com a capacidade de se reconfigurar em uma série de portas lógicas diferentes. [Ditto et al./Chaos]

Portas caóticas 

Mas, agora … um grupo científico de várias universidades dos EUA está propondo uma mudança radical nesse enfoque. Em vez do determinismo e precisão das portas lógicas tradicionais…eles acreditam que é possível construir computadores melhores, usando “portas caóticas” – ou, portas que tomam       suas decisões  –  com base nos fenômenos descritos pela eminente ‘teoria do caos‘.

De forma bem simplificada… eles utilizaram padrões caóticos para codificar, e manipular       as entradas, de forma a produzir a saída desejada… Selecionando os padrões almejados,     a partir da infinita variedade oferecida por um sistema caótico, um subconjunto desses padrões foi então usado para mapear as entradas do sistema (as ‘condições iniciais’) —       de acordo com os resultados pré-estabelecidos.

O mais interessante é que esse processo permite construir dispositivos de computação com a capacidade de se reconfigurar em uma série de portas lógicas diferentes… Eles batizaram essas portas capazes de se metamorfosear de Chaogates… E – como sempre acontece nas universidades dos EUA (e deveria também acontecer nas brasileiras)… eles fundaram uma empresa, a ‘ChaoLogix‘, para tentar vender a ideia  —  como vislumbra William Ditto…da Universidade do Arizona, e um dos autores da nova técnica:

Imagine um computador capaz de mudar seu próprio comportamento interno…a fim de criar 1 bilhão de chips customizados a cada segundo, baseado no que o usuário está fazendo naquele segundo… 1 computador que possa reconfigurar a si mesmo…para se tornar mais rápido para a sua aplicação.

caosgate-3

[Ditto/Chaos]

Computador metamórfico

Segundo Ditto  –  a ChaoLogix já está montando os primeiros protótipos de computador caótico … e, já é possível verificar que a abordagem poderá ser útil em diversos sentidos.

De acordo com o pesquisador  –  os processadores caóticos não apenas poderão ser fabricados com mesma tecnologia atual … – bem como ser incluídos emcircuitos mistosque mesclem os processadores lógicos convencionais com processadores caóticos  —  “As portas caóticas são os blocos básicos de novos sistemas computacionais baseados no ‘caos‘ … que explorarão — em benefício da ‘computação’ — a extraordinária  capacidade dos sistemas caóticos… para a formação de padrões“.

Mapa logístico 

Ao contrário do que se possa imaginar – sistemas caóticos não são nem aleatórios, e nem imprevisíveis…eles apresentam padrões irregulares extremamente sensíveis às condições iniciais. Um sistema caótico gera uma saída, em resposta a uma dada entrada – de forma muito parecida com um circuito booleano tradicional – mas, a saída é muito sensível aos valores de entrada, e às condições iniciais da rede.

Ditto e seus colegas descobriram que a adição de mecanismos de controle bastante simples permite definir o padrão de saída de forma muito segura – o que significa que uma mesma porta caótica pode executar várias funções lógicas.

A chave para a geração de múltiplas saídas…a partir do mesmo conjunto de entradas é baseada num conceito chamado  “mapa logístico” — que descreve… uma ‘função não-linear‘.

Mapeando entradas…para uma saída específica, desenvolve-se uma função de mapeamento logístico, utilizando-se das propriedades não-lineares de um transístor  ‘CMOS‘ — de modo a ser possível criar uma ‘célula caótica’ bem eficiente.

Computadores híbridos 

Circuitos de interfaces simples permitem que uma célula caótica seja interconectada com outros circuitos caóticos, ou com portas lógicas booleanas tradicionais…abrindo caminho para a tecnologia, e a viabilização de computadores híbridos. Uma das vantagens das portas caóticas é que elas possuem uma “assinatura de potência” que é independente do estado lógico de entrada…

Este é um importante aspecto de segurança, que permite, por exemplo, a utilização de técnicas de ‘análise diferencial’ para determinar ‘chaves de criptografia’… monitorando a corrente elétrica consumida pelo circuito.

Computação sistêmica — O conjunto de sistemas interage… aleatoriamente… em paralelo, e o resultado de uma computação, simplesmente… emerge dessas interações”.

Uma nova arquitetura computacional, baseada no aparente caos da natureza, é capaz de reprogramar a si mesma ao se deparar com uma falha de software.

Foi o que demonstrou C. Sakellariou, e seu colega Peter Bentley… – da College London  University…A dupla batizou a arquitetura de ‘computador sistêmico.

Computadores atuais são inadequados para modelar ‘processos naturais’ – tais como a forma como os neurônios trabalham… ou como as abelhas formam enxames – porque eles trabalham sequencialmente, executando uma instrução de cada vez… como explica Bentley:

A natureza não é assim… Seus processos são descentralizados e probabilísticos… E são tolerantes a falhas… capazes de curar-se… Um computador deve ser capaz de fazer isso também. Mas, os computadores tradicionais trabalham de forma sequencial, enquanto     a natureza trabalha de forma paralela. – Mesmo quando parece que o seu computador está executando todos seus programas ao mesmo tempo, ele está apenas fingindo fazer isso, desviando a atenção muito rapidamente entre cada programa“.

O computador sistêmico imita justamente a aleatoriedade da natureza. Para isso, ele atrela a cada dado as instruções sobre o que fazer com esse dado – essas entidades digitais são os chamados “sistemas“… que dão o nome à arquitetura. – Cada sistema tem uma memória contendo dados sensíveis ao contexto, o que significa que ele só pode interagir com outros sistemas similares a ele próprio.

No computador tradicional, as instruções são executadas numa sequência que acompanha as batidas de um relógio interno – o famoso “clock” do computador…Já os novos sistemas são executados em momentos determinados  —  por um gerador de nºs pseudo-aleatórios, projetado para imitar a aleatoriedade da natureza.

Como cada sistema tem seu próprio conjunto de instruções…as instruções são replicadas em todos os sistemas onde são necessárias – não havendo precedência entre eles… como conclui Bentley… Se houver problema em um dos sistemas, o computador recupera as instruções do sistema relacionado, remontando o bloco perdido… Assim, virtualmente, ele nunca trava por problemas de software. Por estranho que pareça a coisa funciona,     e melhor do que o previsto. 

‘gerador quântico nºs aleatórios’ (abr/2010) ‘dado-quantico de nºs-aleatorios’ (set/2010) criptografia quântica (fev/2006) usp-criptografia-caotica (jun/2010) Criptografia caótica (jul/2010) ‘Vêm aí computadores caóticos’ (nov/2010) ‘computador-sistemico’ (fev/2013) <<<<<<<<<<<<<<<<<<<<<(texto complementar)<<<<<<<<<<<<<<<<<<<<<<<<< 

CAOS EM UM CHIP (jan/2007)

Pela 1ª vez… físicos demonstraram que um caos bem estruturado pode se iniciar em um circuito integrado fotônico… – E ainda, representar o começo do estudo do caos óptico, em frequências de gigahertz.

A vazão de um laser semicondutor é normalmente regular…  Entretanto, se certos parâmetros do laser forem distorcidos – tal como modulando a corrente eletrônica, ou sua realimentação…a partir de um espelho externo – sua vazão média total se tornará caótica – isto é … será imprevisível.

Para tornar o caos ainda mais dramático (e explorável) Mirvais Yousefi e seus colegas na Technische Universiteit Eindhoven (Holanda) utilizam lasers emparelhados…ou seja,  colocados em um chip, muito próximos entre si…de modo que o comportamento de cada um é afetado pelo do outro.

O “chip de Eindhoven“…que usa lasers emparelhados (mutuamente perturbativos) para chegar ao caos — é o primeiro a exibir — num dado instante…os característicosestranhos atratores‘ em sequencias temporais de plotagens de potência do laser – em vez de exibi-lo indiretamente, pela gravação de seus espectros.

Olhando à frente… para o dia em que os chips ‘optofotônicos forem manufaturados com milhares… ou, milhões de lasers — a abordagem de Eindhoven poderá permitir a precisa localização da vizinhança de lasers defeituosos – mas, não somente isso… possivelmente, até explorar efeitos caóticos localizados para seu proveito.

De acordo com Yousefi, outros possíveis usos para o caos em chips serão…criptografia, tomografia…e até, possivelmente, o estabelecimento de protocolos lógicos multicamadas, aqueles baseados, não apenas na lógica binária de 0s e 1s… – mas nos diversos níveis de intensidade similares à vazão em banda larga do sistema caótico de lasers. (texto base) ************************************************************************************

ruído quântico

Ruído quântico [Institute Of Physics].

Ordenando o Caos na Computação (mar/2010)

Ao discordar da então nascente Mecânica Quântica Einstein afirmou que… — aceitar suas bizarras leis, seria igual a afirmar que ‘Deus jogava dados com o Universo’.

Luis Ceze, cientista da computação, e professor da Universidade de Washington…restringe um pouco mais as preocupações…para ele computadores não podem jogar dados – ou seja…se você inserir o mesmo comando no computador – ele deve sempre dar a mesma resposta… Mas, na verdade o que acontece… é que essa certeza – está longe de ser verdade… Segundo Ceze, os computadores modernos costumam se comportar de forma altamente imprevisível… como ele próprio afirma:

“Com os sistemas mais antigos, com apenas um processador, os computadores – dados os mesmos comandos – se comportavam exatamente da mesma forma…Entretanto, os computadores atuais…muito mais rápidos e econômicos (por múltiplos processadores) são não-determinísticos… Mesmo para um conjunto igual de comandos, pode-se obter resultados totalmente diferentes”.

Atualmente, as coisas até que melhoraram…múltiplos processadores rodam programas mais rapidamente – sendo mais econômicos…em todos sentidos…(e isso, sem falar dos supercomputadores… — com milhares de processadores rodando paralelamente.)

Por outro lado ‘multiprocessadores’ são responsáveis por erros difíceis de rastrear, que frequentemente fazem navegadores e outros programas travarem de repente. Segundo Ceze…  Com os sistemas múltiplos, a tendência é ter mais bugs, porque é mais difícil escrever códigos para todos. E, lidar com estes bugs simultâneos é bem complicado.”

Neste caso – o que acontece… é o mesmo clássico problema do caos, frequentemente exemplificado pelo bater das asas de uma borboleta, iniciando um processo…que vai   acabar num furacão, do outro lado do mundo. O compartilhamento de memória dos computadores modernos exige que as tarefas sejam continuamente transferidas…de       um lugar para outro.

A velocidade na qual essas informações viajam…pode ser afetada por pequenos detalhes, como a distância entre as peças do computador, ou mesmo, a temperatura dos fios. Com isto, a informação pode chegar ao destino numa ordem diferente, causando inesperados erros – difíceis de prever…até para instruções que já rodaram centenas de vezes antes.

Incomodado com essa incerteza – Ceze…e colegas… afirmam ter desenvolvido uma nova técnica para fazer com que sistemas mais modernos se comportem numa forma também previsível. Eles repartiram os ‘conjuntos de comandos’ do processador os enviando para locais específicos – de onde são calculados simultaneamente… Assim, o programa segue rodando mais rápido, do que aconteceria a um único processador.

Um dos grandes méritos desse novo programa é que ele permite reproduzir os erros, facilitando o processo de sua atualização e localização – seguindo o funcionamento – passo a passo … de forma rápida e segura.  (texto base)  **********************************************************************

Circuito integrado quântico mais complexo já construído  (14/01/2014)

ci-quantico

A grande vantagem da fotônica baseada no silício é que os chips podem ser construídos com as técnicas usadas para a atual microeletrônica baseada no processo CMOS. [Imagem: Thompson Group/Bristol University]

Em 2011 uma equipe de físicos e engenheiros da GRB, Japão e Holanda, criou o primeiro chip fotônico quântico multiuso. No ano passado… eles colocaram a 1ª versão do seu — processador quântico disponível na internet gratuitamente .

Agora a equipe obteve um grau adicional de integração… nesse ramo…construindo um circuito quântico fotônico…plenamente integrado  e o fizeram usando as mesmas técnicas que foram empregadas na fabricação dos circuitos integrados usuais…O que torna este dispositivo … o “circuito integrado quânticomais complexo já construído a partir de um único material… – o silício.

O chip é capaz de gerar fótons e entrelaçá-los ao mesmo tempo… — o “entrelaçamento quântico”…juntamente com a “superposição” são os fenômenos essenciais… ao processamento e transmissão quântica de informações.

O circuito consiste de 2 fontes de fótons individuais…já gerados entrelaçados entre si, o que torna o chip adequado para, virtualmente, qualquer experimento de processamento quântico… — além de experimentos em ótica quântica e fotônica…  (Gerar os 2 fótons já entrelaçados significa que, além de serem produzidos por fontes idênticas, eles próprios são virtualmente idênticos em todas as propriedades imagináveis.) ********(texto base)

Publicado em Computação | Marcado com , | 1 Comentário

Alan Turing – O Homem que Computava…

A computação quântica é uma nova fronteira a ser explorada do ponto de vista científico, industrial e comercial. A questão é estratégica – a ponto de não poder ser negligenciada em nenhum aspecto, ainda mais quando as limitações impostas pela chamada Lei de Moore se fazem presentes (Walter Carnielli)

Alan Turing

ALAN TURING (1912-1954) © NPL ARCHIVE, SCIENCE MUSEUM

A palavra computador era usada somente em um sentido até as primeiras décadas do século XX. O significado indicava apenas uma pessoa que fazia cálculos — um profissional, envolvido no uso dos algoritmos.

Computar exigia muitas horas de trabalho…com grande concentração  —  e o auxílio, somente, de instrumentos como ábaco, ou máquina de somar.

Em 1936, o inglês Alan Mathison Turing, nascido há 100 anos, escreveu um trabalho acadêmico de lógica propondo uma estrutura matemática abstrata – que chamou de “máquina universal”… – capaz de fazer qualquer tipo de cálculo.

Seu artigo … ‘On computable numbers, with an application to the Entscheidungsproblempublicado no início de 1937…é considerado como fundador da ‘ciência da computação’.

Quando escreveu ‘On computable numbers’, ele não estava pensando em uma máquina que poderia vir a ser construída – o objetivo era apenas resolver um problema de lógica. Segundo o matemático Ubiratan D’Ambrosio…professor da Universidade Estadual de Campinas (Unicamp)…

“Sua máquina universal – conhecida como ‘máquina de Turing’ – na verdade era uma metáfora das ideias fundamentais que viriam a ser usadas para se construir o computador”.

No mesmo artigo Turing apresentou uma solução para a questão matemática do ‘problema da decisão’ (Entscheidungsproblem) … alegando que, determinados problemas não podem ser resolvidos por máquinas ou computadores teóricos.

Mas, ele não foi o único a pensar nisso… Também em 1936, o lógico Alonzo Church, já Ph.D., escreveu e publicou, de modo independente, um artigo com a mesma conclusão. Assim, Turing…então com 25 anos, foi fazer seu doutorado sob a orientação de Church,     na Universidade de Princeton, EUA.

Em 1939 ele voltou à Inglaterra, e passou a trabalhar para o governo. Tudo começou porque os militares ingleses — sabendo de seu gosto por criar e decifrar códigos — o convocaram para trabalhar com um grupo de cientistas… em um ‘projeto secreto‘. O objetivo era decifrar ordens alemãs, codificadas pela máquina chamada ‘Enigma’…e enviadas aos submarinos nazistas que patrulhavam o Atlântico.

A questão era capital para os ingleses. Os submarinos alemães impediam a circulação dos navios britânicos, quase isolando a Inglaterra… — Turing conseguiu quebrar o código…ao aperfeiçoar uma enorme máquina decodificadora chamada ‘Bomba’, cuja primeira versão havia sido construída por cientistas poloneses. Com isso a esquadra inglesa deixou de ser surpreendida pelos ataques do Terceiro Reich.

Máquina ACE - Turing

Protótipo da máquina ACE, de 1952, projeto de Turing © NATIONAL PHYSICAL LABORATORY © CROWN COPYRIGHT / SCIENCE PHOTO LIBRARY

Segundo Newton da Costa  –  matemático da Universidade de São Paulo, e professor de filosofia da U.F. de Santa Catarina…

Turing… – além de um teórico brilhante, tinha um lado prático forte. Entre outros projetos, p. exemplo…ele criou a máquina ACE (Automatic Computing Engine), uma espécie de ancestral do computador, para ‘atacar’ problemas complexos”.

Em 1950 o matemático publicou seu artigo ‘Computing machinery and intelligence’… e, escreveu ele na primeira linha do texto…‘Proponho que consideremos a questão… – as máquinas podem pensar?’. Turing introduz uma discussão sobre se é justificável chamar um computador de cérebro eletrônico… — lançando assim, as bases do que viria a ser o seminal campo da inteligência artificial.

Lógica paraconsistente na criação de ‘algoritmos quânticos’                                 Os sistemas de criptografia atuais se baseiam em um código formado por um nº enorme, que, para ser quebrado, deve ser decomposto em números primos… Quanto maior forem esses fatores primos, mais difícil será a descoberta do código. No entanto, com o advento do modelo de processamento quântico, essa criptografia tradicional poderá ser ‘atacada’ com muita facilidade.

A pesquisa desenvolvida pelo Professor Walter Carnielli, do Departamento de Filosofia da Universidade Estadual de Campinas (Unicamp), e por seu orientando de doutorado, Juan Carlos Agudelo, dá pistas para o avanço da informática quântica – ao utilizar a lógica paraconsistente como fundamento, para a elaboração de algoritmos dentro desse modelo.

operadores_lógicos

A computação quântica é baseada em conceitos da física quântica — como o da ‘superposição(quando a partícula está em simultâneas condições contraditórias) e ‘entrelaçamento‘ (quando a alteração numa partícula provoca mesmo efeito em outra……que se encontra muito distante).

Para Carnielli, assim como a física clássica não apresenta resposta para várias situações de contradição em sistemas físicos – tampouco a lógica booleana… na qual os computadores atuais se baseiam, pode responder configurações em que as cláusulas sejam contraditórias.

Controle racional da contradição 

A solução encontrada pelos pesquisadores foi usar a chamada lógica paraconsistente, capaz de obter resultados racionais — mesmo nos casos em que 2 ou mais condições não possam ocorrer (na lógica clássica) ao mesmo tempo… Por exemplo – um comando que indique virar à esquerda e à direitasimultaneamente; conforme comentou Carnielli…

Ou, mais dramaticamente, a transmissão de informações contraditórias de velocidade ao computador de bordo, como no caso da queda do vôo 447 da ‘Air France’.  A falta de controle racional da contradição tem como consequência, nesses casos, o desligamento do piloto automático — obrigando o comandante a pilotar sem nenhum instrumento, o que é extremamente difícil“.

Em sua tese de doutorado, intitulada “ Computação Paraconsistente: Uma Abordagem Lógica à Computação Quântica”, Agudelo criou um modelo teórico que pode inspirar a criação de softwares para os computadores quânticos – como ele próprio explicou…”Ao elaborar circuitos paraconsistentes, simulamos uma proposta de circuitos quânticos“.

simulacao-matrix

[Imagem: CQT/National University of Singapore]

Máquina de Turing quântica 

Agudelo idealizou um computador usando alógica paraconsistente’. Utilizando o esquema idealizado pelo matemático Alan Turing…o cientista da computação esboçou uma máquina na qual corre uma fita dividida em células.

A cabeça de leitura lê apenas uma célula por vez – a qual contém um sinal gráfico – e um comando que corresponde a correr para a direita, ou para a esquerda.

Na versão quântica, essa concepção moderna da máquina de Turing admite não 1, mas um conjunto de posições, que seriam inconcebíveis para a lógica clássica… como, por exemplo, um comando que faça a fita correr para esquerda, e para a direita, simultaneamente, como disse Agudelo…”Na lógica paraconsistente esses estados são superpostos…como se fossem empilhados“.

Criptografia quântica 

Segundo Carnielli, a originalidade do trabalho está na associação da lógica paraconsistente à computação quântica. Mesmo com modelos iniciais básicos, eles poderão abrir caminhos para a produção de programas para computadores quânticos.

A mera expectativa da computação quântica já tem aquecido o mercado de software, ressalta o professor da Unicamp. — Universidades já começam a esboçar programas quânticos, e empresas anunciam sistemas de criptografia nesse novo paradigma… e, Carnielli complementa:

O esquema criptográfico conhecido como RSA, bastante utilizado no comércio digital, em bancos e compras com cartões de crédito pela internet — baseia-se no fato de que é computacionalmente muito difícil conseguir fatorar um número grande no produto de 2 números primos. – O tempo estimado, por exemplo, para se conseguir fatorar um nº de 20e48 bits (chave de uma criptografia RSA)…ultrapassaria a idade da Terra… Um algoritmo quântico, no entanto, realizaria essa tarefa em menos de 6 horas. Dessa forma, com os computadores quânticos as chaves RSA perderiam completamente sua eficácia. Esse problema motivou a criação da criptografia quântica a fim de criar   um sistema de codificação praticamente inexpugnável“.

Quem irá programar os computadores quânticos?                                                     Os promissores computadores quânticos estão se mostrando mais difíceis de serem conquistados do que se imaginava a princípio. Por outro lado, uma vez construídos, parece que sua utilização será muito mais revolucionária do que se previa. 

caos-no-computador

– É comum nos referirmos aos computadores quânticos como uma nova geração…por assim dizer, de “super supercomputadores”, capazes de fazer tudo o que os computadores clássicos atuais fazem, só que mais rapidamente… Mas, não é só isso… coisas muito estranhas, porém, extremamente úteis…sob todos os aspectos – ocorrem no mundo quântico.

Em um computador clássico, o programador se preocupa em saber se cada bit tem valor 0 ou 1. Em um computador quântico, um bit quântico, ou qubit… – pode representar 0 e 1 ao mesmo tempo – dois qubits podem representar 4 valores simultaneamente, três qubits 8, e assim por diante.

Apesar de, em 2009 ter sido construído o 1º processador quântico programável – rodar algumas rotinas lógicas é uma coisa; fazer programas para eles, construindo algoritmos quânticos completos – é outra muito diferente.

Não é que a tarefa seja apenas difícil: ela parece desafiar a maneira comum de pensar…Por exemplo, usando o fenômeno da superposição, cientistas demonstraram que um programa quântico pode encontrar uma informação em uma base de dados sem nem mesmo precisar rodar o programa.

Simulações quânticas

Os computadores quânticos estão, cada vez mais, se tornando uma necessidade, a medida que a ciência cresce… e usa cada vez mais intensamente os fenômenos em escala quântica. A simulação de fenômenos quânticos, por meio da solução das equações de muitos corpos de Schrodinger tem aplicações no desenvolvimento de novos medicamentos, por exemplo.

Usando os computadores atuais, porém, essas equações só podem ser resolvidas para poucos corpos. E os resultados são apenas aproximações… Mas, os cientistas querem chegar mais perto nessas aproximações… e avançar para problemas mais complexos;     por exemplo… descobrindo uma forma de criar mecanismos de fotossíntese artificial,     que poderão resolver o problema energético do mundo.

Contudo – há um problema fundamental, quando se tenta simular a mecânica quântica em um computador clássico: o chamado “problema do sinal”. Nos cálculos da mecânica quântica…deve-se levar em conta não apenas as probabilidades – mas a amplitude das probabilidades – e essas amplitudes podem se tornar negativas.

Metropolis quântico

algoritmo-metropole

Nesse circuito quântico, o 1º passo (E) prepara um auto-estado do Hamiltoniano. O 2º passo (U) indica se queremos aceitar ou rejeitar a atualização proposta. No caso de rejeição, o circuito completo inclui uma sequência de medições das projeções Hermitianas U(i) e P(i). A recursividade será abortada sempre que o resultado P1 é obtido, o qual indica o retorno a um estado com a mesma energia de entrada… Como cada iteração tem uma probabilidade de sucesso constante, a probabilidade total de se obter o resultado (P) se aproxima exponencialmente de 1, à medida que o número de aplicações aumenta.

Um grupo de físicos teóricos da Áustria, Canadá e Alemanha, demonstrou que, de fato, as alterações de um sistema quântico podem ser reproduzidas em um computador quântico universal… Para isso, eles criaram uma versão quântica do algoritmo clássico Metrópolis.

Esse algoritmo foi desenvolvido por Nicholas Metropolis – em 1953…e permaneceu como uma curiosidade  –  até o advento dos computadores.  –  Sua versão clássica utiliza mapas estocásticos que, ao longo de inúmeras iterações, convergem para um estado de equilíbrio.

Incluído no chamado Método Monte Carlo, este é um dos algoritmos mais utilizados hoje na Física para obter os valores esperados de um sistema que se está simulando. Na versão quântica, a equipe apenas usou mapas positivos… em vez de amplitudes de probabilidade.

Isso traz problemas  —  como erros nos cálculos quando se introduzem transições de fase quânticas. Mas, ainda assim, a implementação do algoritmo quântico pode ter aplicações importantes nos campos da química…da física da matéria condensada…da física de altas energias… — e também para resolver as equações de Schrodinger para sistemas mais complexos, nos quais interagem muitas partículas… como afirmam os pesquisadores:

“Ainda que uma implementação desse algoritmo para problemas quânticos de muitos corpos em larga escala esteja fora do alcance …  —  com os meios tecnológicos de hoje, o algoritmo é escalável para tamanhos de sistema que são interessantes para simulações físicas reais”.

computação quantica

O que se deve destacar…contudo, é que o grupo demonstrou que o esforço para a construção do hardware dos computadores quânticos, sempre será bem pago  –  um computador quântico  – usando esse algoritmo… poderá ser usado para resolver problemas … exponencialmente mais rápido do que os computadores atuais.

No futuro…quem sabe o artigo que descreve a criação do Metropolis Quântico seja lembrado como um marco na história da programação quântica.

Inteligência Artificial

A computação quântica promete resolver problemas de forma exponencialmente mais rápida do que os computadores clássicos. Como ainda não se sabe exatamente como, e quem vai programar os computadores quânticos… o funcionamento dos 1ºs protótipos   tem sido demonstrado com a fatoração de números.

Em 2009, Seth Lloyd — o mesmo que garante que as máquinas do tempo do futuro podem ser detectadas hoje, criou um algoritmo quântico p/resolver sistemas de equações lineares, assim como determinar 2 variáveis desconhecidas — aparecidas em 2 equações diferentes.

Esse é tipicamente um problema de álgebra usado pelos professores em sala de aula, mas aumente o problema para 1 milhão de variáveis, e estaremos frente a frente com a mesma matemática usada na previsão do tempo e processamento de imagens…A equipe de Lloyd demonstrou que…enquanto o número de passos no algoritmo clássico cresce com o nº de equações – na versão quântica ele cresce com o logaritmo desse número… Isso equivale a resolver 1 trilhão de equações com algumas centenas de passos… mostrando o verdadeiro potencial dos computadores quânticos.

Criado 1º algoritmo quântico de inteligência artificial

—  Embora os  1ºs processadores quânticos já estejam no mercado, ninguém sabe ainda … quem vai programar esses computadores quânticos.

Ocorre que, só agora estão sendo desenvolvidos…os 1ºs algoritmos quânticos, a sequência de passos lógicos que um processador usa para resolver um problema. Os resultados — felizmente… são animadores.

É o que garante uma equipe liderada por Seth Lloyd … o mesmo que elaborou a Teoria do Construtor, que afirma que o Universo é um ‘transformer‘ – e que ajudou a revelar a rede capitalista que domina o mundo. A conclusão do grupo é que, os computadores quânticos deverão dar um novo impulso ao campo da inteligência artificial, porque seus sistemas de aprendizado permitirão enfrentar os grandes conjuntos de dados, de maneira muito mais eficiente do que os computadores clássicos.

Inteligência quântica artificial 

Deixando de lado problemas como a quebra de senhas de segurança, que parecem ter um apelo especial junto aos cientistas da computação…Lloyd e seus colegas voltaram-se para problemas que exigem um pouco menos de força bruta, e mais de inteligência.

O resultado é a 1ª versão quântica do aprendizado de máquina — um tipo de inteligência artificial na qual os programas podem aprender com a experiência, tornando-se cada vez mais capazes de encontrar padrões em grandes volumes de dados.

Os dados… assim… podem ser agrupados  –  uma ‘tarefa central‘, em aplicações como o reconhecimento de voz e de imagens – ou serem varridos em sequência… algo que pode ser feito com um número muito pequeno de qubits… como garante o Dr. Lloyd:

Nós podemos mapear o Universo inteiro – toda a informação criada desde o Big Bang, em 300 qubits. No lado mais prático…com um número menor de qubits já dá para lidar de maneira otimizada com tarefas como o reconhecimento de imagens, necessário para viabilizar carros autônomos“.

Agora é só esperar que esteja disponível um processador quântico com pelo menos 12 qubits… – o mínimo que os pesquisadores afirmam ser necessário para começar a testar na prática a inteligência artificial quântica.

Computação evolutiva

‘Árvores de Decisão são programas que dão aos computadores a capacidade de fazer previsões a partir da análise de dados históricos. A técnica pode, por exemplo, auxiliar o diagnóstico médico, ou a análise de risco de aplicações financeiras.

Para ter a melhor previsão… é necessário o melhor programa gerador de Árvores de Decisão. Para alcançar esse objetivo … pesquisadores do Instituto de Ciências Matemáticas  —  e da Computação…USP/São Carlos, usaram a teoria evolucionista de Charles Darwin — como explica o doutorando do Laboratório de Computação do ICMC…Rodrigo Coelho Barros:

A ‘computação evolutiva’ é uma das várias técnicas bioinspiradas, isto é, que buscam na natureza soluções para problemas computacionais… – Nesse sentido, desenvolvemos um ‘algoritmo evolutivo’  —  que imita o processo de evolução humana para gerar soluções… — É notável como a natureza acha soluções para problemas extremamente complicados. Não há dúvidas de que precisamos aprender com ela“.

De acordo com Rodrigo, o software desenvolvido em seu doutorado é capaz de criar…automaticamente…programas geradores de ‘Árvores de Decisão’. Para isso… – ele faz cruzamentos aleatórios entre códigos de programas já existentes, gerando ‘filhos’… que podem, eventualmente, sofrer mutações, e evoluir… E, assim concluiu:

é esperado que os programas de geração de Árvores de Decisão evoluídos, com o passar do tempo… sejam cada vez melhores  —  e 0 nosso algoritmo seleciona o melhor de todos. Mas…enquanto o processo de seleção natural na espécie humana leva centenas — ou até milhares de anos… na ‘computação evolutiva’ só dura algumas horas  –  dependendo do problema a ser resolvido“.

Heurística 

Em Ciência da Computação  —  se denomina ‘heurística’ à capacidade de um sistema fazer inovações, e desenvolver técnicas para alcançar determinado fim. O software desenvolvido por Rodrigo se insere na área de ‘hiper-heurísticas’, tópico recente na área de computação evolutiva, que tem como objetivo a geração automática de heurísticas personalizadas para uma determinada aplicação ou conjunto de aplicações. É um passo preliminar em direção ao grande objetivo da ‘inteligência artificial’… o de criar máquinas capazes de desenvolver soluções para problemas, sem que sejam explicitamente programadas para tal.

Diferentemente da ‘programação convencional’ — em que um programa executa sempre a mesma função com dados diferentes, a adaptabilidade propõe um comportamento diverso, diante de cada nova circunstância… Como explica o professor João José Neto, da Escola Politécnica da USP…

Um ‘programa adaptativo‘ possui uma crítica sobre aquilo que ele fez… e o resultado que obteve. Quando isso acontece, ele modifica o seu próprio comportamento, e começa a operar com aquele aprendizado que conseguiu a partir da experiência anterior“. **********************************************************************************  ‘o-homem-que-computava’ (Jul/2012) ‘em-busca-da-computacao-quantica'(1) ‘em-busca-da-computacao-quantica'(2) (jan/2010) # quem-vai-programar-computadores-quanticos (mar/2011) ‘robos-1ºs-sinais-consciencia’ (abr/2011) # fisica-quantica-matrix (mar/2012) computador-super-turing(abr/2012) # computacao-evolutiva-arvores-decisao (ago/2012) Modularidade biológica (fev/2013) computadores-quanticos-fazem-sua-licao-matematica (02/2013) algoritmo-inteligencia-artificial-quantica (2013)#processador auto-organizado  *****************************(texto complementar)**********************************

Inteligência artificial vai nos levar a uma Singularidade Tecnológica?             Será que os programas de computador realmente se tornarão tão inteligentes quanto o homem…e estamos realmente caminhando para a chamada singularidade tecnológica?

singularidade-tecnologica

Uma recente conferência…realizada em Berlim/Alemanha — reuniu os maiores especialistas do mundo em inteligência artificial…para debater a questão que… cientistas, futurólogos… e especialistas,          em geral…se fazem há décadas… — até         onde pode ir a ‘inteligência artificial’?

A ‘singularidade tecnológica‘ é definida como uma data no futuro quando a inteligência das máquinas supera a nossa própria inteligência… – e passa a melhorar-se a um ritmo exponencial… – não dependendo mais do ser humano.

Danko Nikolic, neurocientista do Instituto Max Planck de Pesquisas do Cérebro não se amedrontou de estar diante de uma plateia formada pelos principais pesquisadores da ‘inteligência artificial’… e — durante esta mesma reunião — fez uma afirmação ousada:

“Nunca faremos uma máquina mais inteligente do que nós. – Não se pode exceder a inteligência humana… jamais!… – Podemos… assintoticamente, nos aproximarmos dela… – mas nunca excedê-la”. 

Nikolic está convencido de que, muitos pesquisadores de inteligência artificial que acreditam o contrário estão negligenciando um aspecto importante da inteligência humana — o cérebro não é o único hardware que os seres humanos precisam para         serem bons em aprender as coisas. – Para ele…as ferramentas mais básicas para o aprendizado são as instruções contidas em nossos genes, aprimoradas ao longo de       bilhões de anos de evolução.

Técnicas de aprendizado de máquina podem imitar o cérebro, mas não contam com os elementos mais profundos que nos ajudam a aprender… conforme argumenta Nikolic:

“A única maneira de chegarmos perto de uma mente artificial que          aprenda tão bem quanto nós… – é repetindo a evolução humana”.

Mas talvez a singularidade chegue em outras configurações… Para vários dos especialistas que participaram do debate, a singularidade tecnológica pode ser melhor imaginada como uma aceleração do progresso humano… – alimentada por imediatos avanços tecnológicos. Para eles trata-se de colocar as mentes humana e artificial juntas para resolver problemas do mundo real. O que aliás parece já estar acontecendo, conforme há pouco demonstrado.

Outro ponto levantado pelos especialistas é que – sendo a singularidade atingida por inteligências artificiais formadas a partir de grandes quantidades de dados humanos, então devemos esperar que sejam tão diversas quanto nós somos — se pretendermos  trabalhar ao lado dessas inteligências sintéticas.

Mas, no frigir dos ovos, é difícil prever… não apenas qual seria o grande avanço que faria a inteligência artificial dar um salto tecnológico que a levaria à singularidade, como também o que poderia acontecer depois disso… pois, tornando-se as máquinas mais inteligentes do que nós, nossas mentes tornam-se incapazes – ou inadequadas – para imaginar o que elas seriam capazes de fazer…como assim alertou o artista, e cientista da computação Mehmet Akten:

“A razão pela qual se chama de ‘singularidade‘, é que é um ponto além do qual se consegue enxergar. Uma vez que máquinas atinjam níveis humanos de inteligência…não se pode mais imaginar o que acontecerá”…(texto base)  *********************(complemento analógico)**************************

uma máquina analógica deve:                                       

1º – Reunir todas as observações possíveis a respeito de um caso;                   2º – Estabelecer a lista das relações constantes entre seus multi-aspectos;   3º – Ser o próprio caso, assimilando a essência…descobrindo seu destino.

No nosso cérebro – ao contrário dos computadores atuais … que somente operam sequencialmente, impulsos elétricos formam vastas redes dinâmicas, que evoluem constantemente, operando coletivamente. Por isso é tão difícil de se transportar a     forma de resolver os problemas… — do cérebro humano … para os computadores.

‘processador analógico como cérebro’ # memristores # cérebro eletrônico # ‘sinapse eletrônica’ ## ‘computação caótica’ ### ‘comportamento computacional emergente’ ‘computadores analógicos’ #### ‘Inteligência Artificial em computadores quânticos’

Publicado em Computação | Marcado com , , | 1 Comentário

Ilya Prigogine… e ‘Os fundamentos do Caos’

“Estruturas dissipativas” são próprias de processos irreversíveis… e revelam a criação de ordem longe do equilíbrio termodinâmico. Fenômenos caóticos ou irreversíveis não   se reduzem a um aumento de desordem, mas…ao contrário, têm um importante papel construtivo.

ilya_prigogine

“A realidade é um fenômeno complexo, pelo qual uma causa pode gerar diversos efeitos. Não há uma linearidade entre causa e efeito – assim como não há divisão nas dualidades, pois são variantes de um mesmo mundo complexo”.

Ilya Prigogine (1917-2003) ganhou o “Nobel de Química”…em 1977 – por seu trabalho sobre Sistemas dissipativos, Complexidadee Irreversibilidade, visto por muitos, como uma ponte entre as Ciências Naturais…e Ciências Sociais.

Sua formalização do conceito de “auto-organização” serviu também, como um elo entre a Teoria Geral de Sistemas…e a Termodinâmica.

Sistemas dissipativos

São sistemas abertos…do ponto de vista termodinâmico – isto é … podem trocar energia e matéria com o meio ambiente em que estão imersos, e no qual operam fora do “equilíbrio termodinâmico“. Na verdade,   a maioria dos sistemas encontrados na Natureza não estão em equilíbrio termodinâmico, estando em constante mudança, trocando matéria e energia com sistemas vizinhos. Aliás, todos seres vivos são exemplos de sistemas fora do equilíbrio.

Duas das maiores dificuldades com sistemas fora do equilíbrio termodinâmico são que, devido às suas ‘inomogeneidades’…fica difícil definir a entropia e a temperatura desses sistemas … por estas serem grandezas termodinâmicas globais … geralmente definidas considerando o corpo como um todo, homogêneo.

Irreversibilidade

Irreversibilidade significa a impossibilidade de um sistema retornar ao seu estado inicial, com seu meio ambiente também retornado ao seu estado inicial. – Geralmente é possível retornar o sistema ao ‘estado inicial’… às custas de nova alteração em seu meio ambiente. Isso implica numa assimetria temporal do sistema… daí a existência da ‘flecha do tempo‘.

Um ‘sistema termodinâmico’ é, necessariamente, um sistema com um enorme número de partes, até para poder ser tratado estatisticamente. Todas as leis físicas são reversíveis em escala microscópica, para as partes individuais. – Porém…uma mudança de estado em tal sistema – como um todo – significa uma mudança muito complicada no arranjo de todas essas partes, a qual inclui uma certa energia necessária para essa transformação, além de alguma dissipação de energia em forma de calor.

Essa ‘energia dissipada‘ não pode ser recuperada, e portanto não é possível trazer o sistema de volta, à sua inicial configuração sem que o meio em que está inserido reponha essa energia. – Conforme Boltzmann demonstrou, a ‘irreversibilidade do sistema está associada…à sua… ‘complexidade.

Além disso… o aumento da ‘complexidade’ do sistema leva a uma maior sensibilidade do sistema às suas condições iniciais – de forma que… como Poincaré demonstrou em 1890, pequenas perturbações no estado inicial, tais como ligeira mudança na posição inicial do corpo, levariam a estados finais radicalmente diferentes, tornando impossível predizer a evolução e o estado final do sitema… – antecipando a fundamentação da Teoria do Caos.

Todos processos complexos naturais são irreversíveis. Sistemas complexos, no entanto, referem-se não apenas a sistemas com um número muito grande de partes, com pouca interação entre elas, tais como gases (…As partes desses sistemas têm comportamento aleatório, e podem ser bem descritas pela estatística e termodinâmica. – Tais sistemas     têm apenas uma “complexidade desorganizada”.)

Há sistemas, com efeito, que mesmo não tendo um número muito grande de partes, apresentam vínculos e correlações tão fortes…e não aleatórias entre as partes – que,   reduzem a independência entre elas… – enquanto criam regimes mais uniformes de correlações e interações… Esses sistemas manifestam propriedades que não podem         ser descritas em termos das suas partes.

Esta forma auto-organizada de complexidade – auto-referencial – no sentido de que a sua ordem interna é gerada a partir da interação dos suas próprias partes, ‘emerge‘ do sistema como um todo, sem qualquer “mão invisível”… – dispensando explicações ‘teológicas‘…ou ‘teleológicas‘. Diz-se que tais sistemas possuem uma “complexidade organizada”… Dentre os sistemas complexos, se destacam os seguintes…

sistemas caóticos, caracterizados por extrema sensibilidade às condições iniciais, isto é, estados iniciais muito próximos podem levar… a estados finais completamente diferentes;

sistemas não-lineares, em que o ‘princípio de superposição’ não se aplica – e assim, o comportamento do sistema não pode ser descrito como a soma dos comportamentos das suas partes.

A emergência na interação

Emergência é o processo de ‘padrões’ e sistemas complexos formarem-se a partir de uma grande quantidade de elementos relativamente simples em interação.

Este conceito tem sido aplicado… em Filosofia, em Teoria de Sistemas, nas Ciências, e nas Artes.

Vale enfatizar que, em geral, a propriedade… ou padrão de um sistema não corresponde a nenhuma propriedade de qualquer elemento em particular, não podendo ser previstos ou deduzidos das interações individuais desses elementos… – Ao contrário do que propunha Descartes não se compreende o todo estudando as partes. Aplica-se aqui o dito popular… o todo é maior do que a soma das partes“.

Não é o mero conjunto das partes que proporciona a emergência, mas sua interrelação. – Embora semelhantes, os fenômenos de emergência, e auto-organização são distintos… podendo um ocorrer sem o outro. (Texto base) **********************************************************************

A ‘COMPLEXIDADE’ DOS SISTEMAS AUTO-ORGANIZADOS                             “Em uma nova descrição do universo… – o ‘indeterminismo’  de Prigogine se faz necessário porque,  longe do equilíbrio, as flutuações (quânticas) ao ‘escolherem’                 um, dos possíveis regimes de funcionamento do sistema… colocam em jogo seus  ‘mecanismos irreversíveis’… – fazendo a matéria adquirir novas propriedades”.

Earth_Moon_Sun

O matemático Henri Poincaré (1854-1912) demonstrou que é fundamentalmente diferente o cálculo da trajetória — de uma pedra que cai, descrita pela lei de Newton… – da tentativa de calcular…o movimento de um sistema instável de 3 (ou mais) corpos; como por exemplo… o Sol, a Terra e a Lua. – Quando tratamos de muitas partículas, existem muitas possibilidades diferentes de representar um sistema (que não pode mais ser expresso por um único ponto, mas por um conjunto… uma nuvem de pontos).

Nesse caso, o estado inicial de um objeto é dado pela posição (coordenada representada pela letra q), e pelo momento (representado pela letra p). Assim… p e q – as chamadas coordenadas canônicas…definem um ponto em um espaço chamado “espaço de fases”,   e a função [ρ = ρ(p,q)] representa a distribuição de probabilidade de encontrar os pontos nesse espaço de fases.

Na termodinâmica clássica… o equilíbrio é definido como o estado em que essa função de distribuição de probabilidades ρ independe do tempo; ou seja…só depende       da energia total do sistema. Já a energia total expressa em termos das coordenadas momento p e posição q… é chamada hamiltoniano [H(p, q)] do sistema.

O conjunto canônico é aquele em que todos sistemas interagem com uma temperatura constante (T)… – Neste caso… – a função de distribuição de probabilidades (ρ) depende… exponencialmente do hamiltoniano… – E, quando a função de distribuição é dada… todas propriedades termodinâmicas de equilíbrio (pressão, calor específico, etc.) são calculadas.

No equilíbrio termodinâmico a entropia tende a um máximo, e a energia atinge um mínimo. Em ambos os casos, o extremo da entropia, ou da energia, garante que flutuações que apareçam nos sistemas microscópicos (compostos de muitas partículas, em interação) possam ser amortecidas… e que assim – ocorra um retorno ao “estado de equilíbrio“.

Por outro lado… no domínio do que é chamado termodinâmica de equilíbrio não- linear, em situações próximas do equilíbrio,  a produção de entropia é mínima… levando o sistema a estados estacionários (ordem, que não ocorreria no equilíbrio).

Já em situações longe do equilíbrio, estudos recentes têm mostrado surpreendentes resultados… – os sistemas não levam as “funções de estado” (energia livre ou entropia) a extremos…e não é certo que ‘flutuações’ sejam amortecidas, de modo que ‘instabilidades’   passam a desempenhar ‘papel fundamental’.

Sistemas Dinâmicos Instáveis                                                                                       Tenho consciência de que o abandono da noção de trajetória corresponde a uma ruptura radical com o passado… – Veremos situações em que as trajetórias se desmoronam. Esse colapso significa que as trajetórias não são mais objetos submetidos a leis deterministas. Como no movimento browniano, se fazem probabilidade, objetos aleatórios. [Prigogine]

Até bem pouco tempo, entendia-se que a introdução de probabilidades era apenas uma questão técnica, um instrumento de cálculo quando as condições iniciais das partículas não eram conhecidas (essa foi a posição assumida por Gibbs e Einstein). – Desse modo, probabilidade traduzia ignorância ou falta de informação de todas as condições iniciais para se obter as trajetórias individuais de cada partícula.

As probabilidades (a nível estatístico) eram interpretadas como uma aproximação, pois descrever o sistema através das trajetórias individuais, ou obter a evolução da função de distribuição de probabilidades (ρ) eram procedimentos equivalentes. Mas, em sistemas instáveis isso não é bem assim… Estudos detalhados mostram que neles, a equivalência entre o nível individual e o estatístico é destruída.

A ruptura da equivalência entre a descrição estatística e o nível  individual (em termos de trajetórias) conduz… segundo Prigogine – para além da ‘mecânica de Newton’. A equação fundamental de Newton (F = ma) liga a aceleração (dv/dt) de uma massa pontual, à força a ela aplicada. Essa força, determina a mudança da trajetória através de uma 2ª derivada em relação ao tempo, e por isso é invariante à sua inversão (e por isso, a ‘seta do tempo‘).

Um exemplo simples de sistema dinâmico instável… – explicitado por Prigogine…é oescoamento de Bernoulli”… Neste tipo de aplicação trajetórias calculadas a partir de pontos inicialmente vizinhos… se afastam    ao longo do tempo…e a divergência nesse caso, torna-se proporcional à exponencial [exp(λt)]…onde λ é chamado ‘expoente de Lyapounov’. 

(… – “sistemas caóticos” têm… – pelo menos um “expoente de Lyapounov“).

Operadores & ‘função de onda                                                                                           A busca das autofunções e autovalores de H leva a perturbações, e estas                     levam a divergências… – que identificam o ‘colapso’ das funções de onda”.

O advento da mecânica quântica está ligado ao ‘postulado da quantização’…onde os níveis de energia de… por exemplo – um “oscilador”… são quantizados – formando um conjunto discreto de valores. O intuito foi o de associar os vários níveis observados, aos autovalores de um operador. O ‘estado‘ de um sistema quântico é descrito por uma função de onda (ψ), sobre a qual atua o operador hamiltoniano que determina sua evolução no tempo.

Um operador é uma prescrição matemática que transforma uma função em uma outra diferente (multiplicada, diferenciada, etc.)…Cada um possui funções… que, quando atua sobre elas…as mantêm invariantes. São as chamadas ‘autofunções‘…e os números que   as multiplicam são ‘autovalores‘. A soma das autofunções e autovalores do “operador” define seu espaço funcional… (como o “espaço de Hilbert” da mecânica quântica).

Para o caso de N massas pontuais as coordenadas de posição (q) e de momento (p) são variáveis independentes. O hamiltoniano (H), como já referido…é a energia do sistema expressa em termos dessas variáveis. No caso de uma partícula livre o hamiltoniano só depende da energia cinética, mas em conjuntos de N partículas, H é a soma da energia cinética (dependente de p) com a energia potencial de interação (dependente de q).

Assim, H passa a ser uma função do tipo H = Ho(p) + λV(q), em que Ho(p) é o hamiltoniano associado à energia cinética de partículas livres (integrável) e λV(q) é o termo de energia potencial devido às interações…O fator λ mede a importância das interações entre as partículas.

Sistemas NÃO-Integráveis                                                                                                     A ruptura da equivalência entre a descrição individual (trajetórias) e a estatística é         o ponto central da abordagem de Prigogine. – Evidências de novas propriedades da matéria…associadas ao ‘não-equilíbrio’…o levou a propor uma dinâmica estendida, baseada em ‘sistemas instáveis‘ … – para as mecânicas clássica e quântica‘.

A noção de “probabilidade”… empiricamente introduzida pelo físico Ludwig Boltzmann (1844-1906) foi incompreendida a sua época, pois a ‘teoria cinética’ por ele elaborada dizia respeito a ‘processos irreversíveis’ … – sendo altamente incompatível… com relação às leis reversíveis — da ‘dinâmica clássica’ de então.

Poincaré, também ao final do século XIX, mostrou que existem sistemas chamados ‘integráveis – mas… a maior parte dos sistemas dinâmicos é…’não-integrável‘.

Sistema integrável é aquele para o qual N quantidades independentes são conservadas, para N graus de liberdade… de forma que, as soluções podem estar em termos de “funções analíticas“, do tempo…condições iniciais, etc.

A célebre ‘sensibilidade às condições iniciais’, nada mais é… – do que uma manifestação da descontinuidade das ‘funções não analíticas’, que, em geral, controlam ‘sistemas não integráveis’.

Uma classe de sistemas não-integráveis de interesse são os chamados ‘Grandes Sistemas de Poincaré’ (GSP). Nestes sistemas a frequência varia de forma contínua em relação ao comprimento de onda. A descrição do sistema é obtida introduzindo-se, como nos casos anteriores, uma função de distribuição de probabilidades ρ(p, q, t) sobre a qual atua um operador já conhecido na mecânica clássica… – chamado operador de Liouville (L).

Quando atua no espaço de Hilbert, o operador de Liouville é do tipo hermitiano, ou seja, tem como autovalores apenas nºs reais. Porém, para descrever sistemas irreversíveis o espaço de Hilbert precisa ser abandonado, e portanto … os ‘autovalores de L‘ devem ser complexos (do tipo ln = wn + iγn)…Isso acarreta que as contribuições exponenciais de evolução temporal para a distribuição de probabilidades (ρ) progressivamente, somem no futuro (t > 0), e se amplificam no passado (t < 0)… (quebrando a simetria do tempo).

Ressonâncias de Poincaré                                                                                                      A não-integrabilidade se deve à ressonâncias… que exprimem condições que devem ser satisfeitas pelas frequências…Não sendo eventos locais que ocorrem num ponto dado do espaço, e num dado instante… – elas introduzem… desse modo, um elemento estranho à noção de ‘trajetória’…que representa uma descrição local de espaçotempo”. [Prigogine]

Poincaré identificou a existência de ressonâncias (acoplamentos) entre as frequências (modos de oscilação) que caracterizam cada um dos N graus de liberdade de um sistema de partículas. Nos pontos de ressonância ocorrem ‘divergências’ (descontinuidades) que tornam impossível o cálculo das trajetórias (estes são sistemas ditos não-integráveis.)

A validade das equações utilizadas na mecânica clássica revela-se extremamente limitada. A maioria dos sistemas dinâmicos correspondentes aos fenômenos que nos rodeiam…são “não integráveis”, no sentido de Poincaré, e ‘GSP’…apresentando ‘interações persistentes’. Esses fenômenos têm descrição termodinâmica incompatível… em termos de ‘trajetórias’.

Também na mecânica quântica ‘ressonâncias de Poincaré’ introduzem eventos dinâmicos novos que acoplam a criação e destruição de correlações, e descrevem processos difusivos. Portanto, faz-se necessário uma nova formulação da teoria quântica, não mais em termos de “funções de onda“…mas sim, baseada na lógica de uma “probabilidade irredutível“.

As ”ressonâncias de Poincaré” … segundo Prigogine, representaram por muito tempo enorme dificuldade em integração nas equações da mecânica… pelas divergências, ou descontinuidades que surgiam. Prigogine todavia atribuiu às divergências um sentido físico construtivo…procurando mostrar que estas assinalam a barreira entre sistemas dinâmicos reversíveis…e dissipativos, com uma simetria temporal quebrada.

Atualmente, as ressonâncias desempenham um papel fundamental na física. A absorção e emissão da luz devem-se a elas… – O fato de poder superar seus próprios obstáculos, à descrição dinâmica dos sistemas… pode, com razão… ser considerado uma extensão que escapa ao modelo estático e determinista…aplicável aos sistemas dinâmicos integráveis.

Sistemas Dinâmicos Caóticos                                                                                            Não mais se tratam de certezas – mas sim… de probabilidades”.

Vivemos em um universo em evolução…onde os sistemas complexos que nos rodeiam, impõem uma ruptura da equivalência entre a descrição individual (trajetórias ou funções de onda) e a descrição estatística… – É neste nível estatístico…que podemos incorporar a instabilidade às leis fundamentais – e elas então, passam a adquirir um novo significado.

borboleta-e-o-caos

Divergências‘ não aparecem ao nível estatístico. Assim a estatística é usada na resolução da “não-integralidade” do sistema. Em pontos críticos, cada ponto espaço de fases é associado — não a um ponto (pτ) — que seria previsto como o estado do sistema, após um decurso de tempo τ; mas a um conjunto de pontos (p1, p2, p3,…) onde cada um deles tem chance não nula de exprimir o sistema.

Se… ao invés de considerarmos pontos individuais – associados a trajetórias no espaço de fases, considerarmos um conjunto de pontos descritos pela distribuição de probabilidade ρ, teremos que a evolução do sistema corresponde à atuação de um operador de evolução temporal (U), chamado operador de Perron-Frobenius, sobre a função de distribuição (ρ).

Esse procedimento gera o seguinte contraste… – enquanto as trajetórias permanecem instáveis (erráticas), a função ρ tende rapidamente a um valor constante (‘atrator’). E desse modo, a equivalência entre os pontos de vista individual e estatístico é rompida.

Sistemas que apresentam tais propriedades são ‘sistemas dinâmicos caóticos‘. O simples estudo de vários destes sistemas… mostrou que instabilidade e irreversibilidade são partes integrantes de sua descrição ao nível fundamental… Estas, rompem a equivalência entre a descrição individual (em termos de trajetórias, ou funções de onda) e a estatística.

O uso de ‘operadores’… – como aqueles utilizados na ‘mecânica quântica’, está em curso, e em expansão. A novidade no estudo de sistemas caóticos, no entanto…é a de se fazer necessário ir além do “espaço de Hilbert“…

Para Além do Espaço de Hilbert                                                                                    Como na mecânica clássica, as funções de distribuição quânticas ρ que correspondem a interações persistentes são ‘não-localizadas’… Isto leva a ‘funções singulares’, nos forçando a sair do espaço de Hilbert.

Funções de distribuição contínuas sob integração não podem ser aplicadas a trajetórias. O que significa que as trajetórias são eliminadas da descrições probabilística. (…) A ‘seta do tempo aparece no plano das funções de distribuição contínuas…Será que isso representa então, uma limitação do nosso método?… – Talvez seja o contrário…a existência da seta… tão evidente a nível macroscópico…se harmonize com sua própria descrição microscópica.

Eliminada a noção de trajetória da nossa descrição microscópica, esta corresponde a uma descrição realista…nenhuma medida, nenhum cálculo leva estritamente a um ponto, ou à consideração de uma trajetória única; estamos sempre diante de conjuntos de trajetórias,   e a descrição em termos estatísticos leva a melhor…é bem mais rica do que a descrição de trajetórias individuais, pois trata da evolução de conjunto.

Os fenômenos de ruptura de simetria são sempre fenômenos coletivos em que estão em jogo bilhões de moléculas. Esse indeterminismo, entretanto, não significa ausência… – mas sim… – “limites de previsibilidade“.

atmosfera

Atmosfera terrestre [Imagem: NASA]

Como são conhecidas poucas soluções das equações de movimento (somente os casos integráveis)… – geralmente… recorre-se a métodos de perturbação, e aí surgem as ‘ressonâncias’ entre os diferentes “graus de liberdade do sistema, e… – por consequência … as dificuldade de integração.

Mas, por que motivo é necessário abandonar o espaço de Hilbert?…

A resposta exige a distinção entre funções ‘normais’ e ‘singulares’… O espaço de Hilbert lida apenas com funções “normais”, contínuas. – Qualitativamente falando…é porque o mundo, em especial os sistemas microscópicos apresenta interações persistentes, e não apenas transitórias…Por exemplo, as moléculas na atmosfera estão continuamente   em colisão, mas… não podemos entender esse processo contínuo de colisões a partir de uma idealização que consiste em só considerar algumas moléculas no vácuo. – Uma tal idealização corresponderia às interações transitórias.

Interações transitórias x Interações persistentes                                                       O mundo não é tão simples assim… Se conjuntos de muitas partículas microscópicas não interagissem de forma persistente o universo seria ‘isomorfo’, não haveria lugar para a ‘auto-organização‘ … nem para a ‘vida‘ … nem para a flecha do tempo“.  

Em geral, a mecânica newtoniana considera movimentos em que as interações são transitórias, ao passo que a irreversibilidade só faz sentido, se considerarmos as partículas mergulhadas em um meio onde as interações não param nunca… – são persistentes. Enquanto as interações transitórias são descritas por distribuições           localizadas… interações persistentes se associam à probabilidades não-localizadas.

Estas, por sua vez, conduzem afunções singulares– onde, mais uma vez…o ‘espaço de Hilbert’ é abandonado…levando em conta as ressonâncias de Poincaré. Isso implica que,   a nível estatístico… – a solução de tal problema dinâmico pressupõe uma representação espectral irredutível e complexa do operador de evolução de Liouville… (“complexa”, no sentido de que essa representação quebra a simetria temporal; e “irredutível” … para significar que não se aplica a trajetórias, as quais correspondem interações transitórias.)

As interações dinâmicas transitórias, como o espalhamento, não são representativas das situações que encontramos na natureza. Nesta, as interações são persistentes…e processos de colisão correspondentes às ressonâncias de Poincaré são a maioria. Desse modo, a nível microscópico… o indeterminismo é a regra, enquanto “sistemas estáveis” são exceção. Situação idêntica ocorre com “sistemas caóticos quânticos“…onde não é possível exprimir sua evolução… em termos de funções de onda – que obedeçam à ‘equação de Schrödinger’.

O Surgimento da ‘Incerteza    A ‘probabilidade está ligada à incerteza, exprimindo o possível,   e não o certo. – Abandonando as trajetórias… deixamos de lado as certezas da dinâmica tradicional. Dessa maneira…a probabilidade, ligada ao indeterminismo ganha um significado intrínseco. 

Prigogine demorou 20 anos para  alcançar o conceito de “estrutura dissipativa e perceber que longe do “equilíbrio termodinâmico“… a matéria comum… – adquire novas propriedades…

‘Sensibilidade’… e movimentos coerentes de grande alcance…a chance de estados múltiplos,     e desse modo, uma história das escolhas feitas pelo sistema… são propriedades típicas da física matemática não-linear.

Um aspecto fundamental que Prigogine nos propõe — é o surgimento do elemento “incerteza”…uma vez que os sistemas aonde surgem fenômenos instáveis não são explicados através de partículas e trajetórias individuais, ou funções de onda…mas         sim, através da evolução de um conjunto de N partículas…tornando necessária sua descrição estatística, fundamentalmente probabilística.

Essa nova abordagem toca em um dos pontos fracos da “interpretação de Copenhague” da mecânica quântica, ou seja… – Como descrever um aparelho de medida…em termos clássicos…em um mundo regido por leis quânticas?…

Introduzindo um tempo comum entre o observador…e o aparelho que realiza medidas, ambos devem obedecer leis que incluem uma quebra de simetria temporal (…ou seja, a direção do tempo é comum a ambos… – já que, a medição é um modo de comunicação).

CONCLUSÃO                                                                                                                              A descrição dinâmica de não-equilíbrio proposta por Prigogine, permite construir funções no nível microscópico que são análogos dinâmicos da entropia. Em outras palavras, incorpora a dinâmica na termodinâmica’.

Prigogine não cessou, ao longo de sua carreira de aprofundar as temáticas envolvidas     com o conceito de ‘estruturas dissipativas’, estendendo seus estudos a outros campos, como biologia e meteorologia. – O resultado foi uma nova imagem da ciência, que ele sempre procurou disseminar… – O “novo estado da matéria” (longe do equilíbrio… e, descrito por equações não lineares) nos faz entender melhor o mundo que nos rodeia.

Para Prigogine, a marca do nosso tempo é uma ciência em que o ser e a estabilidade     deram passagem para a evolução e a mudança… – as escolhas, possibilidades… e as incertezas, são ao mesmo tempo…propriedade do universo, e da existência humana.       Elas abrem novas perspectivas para a ciência, através de uma nova racionalidade –       onde verdade científica não mais é sinônimo de certo ou determinado…e onde o     incerto e o indeterminado não estão baseados na ignorância… no desconhecimento.

Uma reformulação das leis fundamentais da física como propõe Prigogine, colocando em evidência o “caráter imprevisível do desenvolvimento da ciência”… é uma transformação, sem dúvida, arrojada e inovadora… – Através da recuperação da importância do tempo e dos processos irreversíveis…Prigogine nos mostra que é possível reconstruir uma aliança entre o homem (sua cultura, sua sociedade e seus saberes) e a aventura de exploração da natureza (o saber científico).

“O respeito à vida tem um grande significado. – A vida não é somente química… ela expressa melhor do que qualquer outro fenômeno físico algumas leis essenciais da natureza… A vida é o reino do “não linear”,       da autonomia do tempo…e multiplicidade de estruturas”. (texto base)  ******************(texto complementar)***************************       

A íntima relação entre Caos e Mecânica Quântica                                                        As dificuldades epistemológicas da ‘mecânica quântica’                                                         estão…intimamente vinculadas ao “problema do caos”.         

A equação fundamental da mecânica quântica (de ‘Schrödinger’) apenas transforma uma função de onda em outra. Em nenhum momento verifica-se sua repartição… Esta apenas será obtida no momento da medição … através de um ‘colapso da função de onda’. A mecânica quântica tem pois, uma ‘estrutura dual’. – Por um lado, a equação determinista   e reversível no tempo (Schrödinger), e por outro…um colapso da função de onda ligado à sua medição, que introduz uma ruptura da simetria temporal, isto é, a ‘irreversibilidade’, pelo observador. Assim, seríamos nós os responsáveis por atualizar suas potencialidades.

De certo modo então, voltamos à ideia (antropocêntrica) de que a irreversibilidade é um elemento introduzido pelo homem, vivendo         numa natureza fundamentalmente reversível…

Mas, independente do problema da irreversibilidade, a exigência de introduzir um observador leva a algumas dificuldades lógicas… por exemplo… Há uma natureza ‘inobservada’ diferente da ‘observada’?

No colapso da função de onda obtemos um conjunto de funções, que nos encaminha a uma descrição probabilística, necessária para se falar de “equilíbrio termodinâmico“… – E, com efeito… observamos no universo situações de equilíbrio – como a famosa radiação residual cósmica de fundo em microondas (RCFM), testemunha do início cosmológico… Mas, como é absurda a ideia de que essa radiação se deva às medições, é preciso na mecânica quântica que exista um mecanismo intrínseco que conduza aos aspectos estatísticos observados… E, esse mecanismo é precisamente a ’instabilidade caótica’. Ilya Prigogine (“As leis do Caos”)

Ilya Prigogine – trechos do livro “Ciência, Razão & Paixão”                                         As flutuações podem, através de forças dissipativas, gerar novas estruturas espaciais e temporais… – Mas, para isso… é necessário que as leis da evolução sejam não-lineares.

Entropia…que corresponde à ‘2ª lei da termodinâmica’ – representa a ‘seta-do-tempo’  formada pela quebra de simetria temporal dos fenômenos irreversíveis. Se encontra por toda parte: nos fenômenos de propagação de calor e massa, na química, física e biologia.

Com efeito, as ‘leis reversíveis‘ de movimento não se aplicam…senão a uma ínfima fração do mundo em que vivemos. As leis de Kepler e Newton – por exemplo, fornecem uma adequada descrição do movimento dos planetas; porém, o que se passa em sua superfície, assim como na geologia, clima… e a própria vida, requer a introdução de leis que incluam fenômenos irreversíveis.

Perto do equilíbrio, a termodinâmica descreve um mundo estável. – Se há flutuações, o sistema responde a elas retornando ao seu ‘estado de equilíbrio’, caracterizado no extremo da entropia, ou de qualquer ‘potencial termodinâmico’… – O fato novo que ocorre…porém, é que essa situação muda radicalmente… – quando nos colocamos longe do equilíbrio.

É graças ao fluxo de energia proveniente do Sol… por exemplo,                     que vivemos em um mundo longe do equilíbrio termodinâmico. ************************************************************

‘A Ordem do Universo’… (texto p/ consulta)

O universo surgiu de 2 processos consecutivos… o 1º não foi uma explosão de ordem, mas uma difusão gigantesca de entropia. – O 2º, apenas usou dessa entropia para criar ordem. Mas… – como poderia essa enorme entropia produzir ordem…sem um “fluxo externo”?…

Toda criação ocorre de forma irreversível – criar é dar forma ao que não tem forma…é por ordem na desordem. Quanto mais fluxo de energia impomos ao acaso, mais dele podemos extrair ordem… – Assim…a ordem pode surgir do acaso, por uma “ação transformadora”.

Para todo sistema aberto, não-linear, longe do equilíbrio…sob a influência de um fluxo de energia externo, é a conectividade entre as partes que pode gerar sua própria organização.  Mas, ordem e desordem podem coexistir em qualquer sistema…Assim, na emergência da auto-organização… – para se obter ordem…basta introduzir um pouco mais de desordem. 

Publicado em Teoria do Caos | Marcado com , | 1 Comentário

Design atômico para ‘Computadores quânticos’

Há diversas abordagens possíveis a fim de se tentar armazenar dados em qubits… – em chaves ‘liga/desliga’ feitas de luz – em íons – pontos quânticos – nos estados de energia de elétrons  – ou até em spins magnéticos (de elétrons… ou mesmo… núcleos atômicos).  

Cada uma dessas abordagens gerou o que se convencionou chamar de ‘designs, ou seja, princípios de funcionamento de ‘computadores quânticos’.

Um desses designs é chamado arquitetura Kane, em uma homenagem ao seu criador…o físico Bruce Kane.

Em 1998, ele lançou a ideia de se construir um “computador quântico” que guardasse suas próprias informações, dentro  de ‘átomos dopantes’ colocados no interior de uma pastilha de silício…

Átomos dopantes estão na base de toda eletrônica atual… — São eles que modificam as propriedades eletrônicas do silício, e permitem que esse semicondutor funcione como um transístor, ou um diodo, por exemplo.

spin-quantico_kane

Christoph Boehme trabalha no equipamento usado para demonstrar a viabilidade de um computador quântico super rápido que lê informações guardadas na forma de “spins” magnéticos de átomos de fósforo. [Imagem: John Lupton/University of Utah]

Porém, havia um problema com a ideia de Kane: até hoje, ninguém havia conseguido ler as informações armazenadas no átomo dopante. Teoricamente seria possível, mas a prática vinha contestando, tenazmente, a teoria…

Até que a equipe do pesquisador Christoph Boehme – Universidade de Utah, ao dopar o silício com átomos de fósforo… elemento não comumente utilizado na dopagem pela indústria eletrônica, conseguiu codificar as informações digitais dentro do spin desses núcleos atômicos.

Campos elétricos aplicados externamente foram, então, utilizados para processar, e ler os dados.

Lendo dados armazenados como spins                                                                 Cientistas conseguem pela primeira vez, controlar o spin de um único elétron no interior de uma nanoestrutura… – Eles foram capazes de rotacionar o spin em todas as direções possíveis, e registrar o movimento.

Além de uma carga elétrica, o elétron se comporta como um ímã minúsculo…graças à sua rotação intrínseca (spin) sobre o próprio eixo – o que permite sua utilização para guardar informações binárias. Dessa forma, espera-se que esse spin possa funcionar como um bit quântico – ou qubit – na construção de um computador quântico, que funcione com base – não na carga, mas nos spins dos elétrons.

polarizacao-spin

Como a maioria dessas experiências é feita utilizando-se “pontos quânticos”, uma espécie de ‘armadilha magnética’ que aprisiona vários elétrons juntos… manipular um único elétron até agora, permanecia um desafio a ser vencido.

A razão para isso é que — o mesmo campo magnético, que oscila muito rapidamente…(alguns bilionésimos      de segundo), utilizado para girar o spin do elétron, gera “padrões de interferência“… que tornam difícil manter o elétron preso.

Porém agora – pela 1ª vez, foi possível manipular o spin de um único elétron, de uma forma ‘totalmente controlada’.

A experiência foi feita com 2 pontos quânticos…cada um com um único elétron. A equipe do Dr. Frank Koppens do ‘Instituto de Ciências Fotônicas’ (ICFO) utilizou um 2º elétron para ler a direção do spin do outro elétron…Por meio de um princípio básico da mecânica quântica, estabelecendo que 2 elétrons só podem ficar juntos, se tiverem spins diferentes, era checado o estado de um elétron, cada vez que um campo magnético era ativado sobre   o outro – fazendo-o girar…

 Se fosse detectada repulsão nesse elétron, significaria                                        que a ‘rotação induzida do spin‘ teve sucesso.

spintrônica

Dispositivo spintrônico em silício

Cientistas da Universidade de Delaware, EUA… — desenvolveram um dispositivo spintrônico baseado em silício, que abre espaço a nova geração de computadores nos quais os dados serão armazenados… não mais na forma de chaves, que ligam, e desligam a corrente elétrica (1 e 0) mas no spin dos elétrons

Os pesquisadores conseguiram injetar elétrons com spins polarizados de um lado do componente de silício … manipulá-los no interior deste – por meio de um campo magnético – e medi-los, quando saíam do outro lado.

Componentes spintrônicos podem transportar, ou manipular informações por meio de uma corrente de spins  —  que consiste de elétrons com spins opostos…se movendo em direções opostas. Estes novos dispositivos poderiam permitir a construção de circuitos integrados menores, mais rápidos, e com menor consumo de energia… de modo que – funções distintas de ‘processamento’ e ‘memória’ … se juntem no mesmo componente.

Chip quântico fotônico                                                                                                             A grande vantagem da fotônica baseada no silício é que os chips podem                         ser construídos com as técnicas utilizadas na atual microeletrônica CMOS.

chip-quantico-3

Representação gráfica da caminhada quântica de 2 fótons. O tamanho, a cor e a intensidade dos pontos correspondem à probabilidade dos 2 fótons aparecerem em cada local. As 2 áreas de maior probabilidade são uma marca registrada do comportamento quântico. [Proctor & Stevenson]

Um grupo internacional de pesquisas elaborou uma nova abordagem – que poderá – em breve…’revolucionar’ os avanços na ‘computação quântica‘.

– O princípio utiliza 2 partículas idênticas de luz (fótons) … movendo-se ao longo de uma rede de circuitos ópticos…no interior de um chip de silício, num experimento conhecido como caminhada quântica‘.

Caminhadas aleatórias (clássicas) já são usadas há vários anos, na otimização de algoritmos na computação…O potencial das ‘caminhadas quânticas’ por seu lado, só há pouco começou a ser explorado — inclusive…  —  no desenvolvimento dos atuais computadores eletrônicos.

E, por que em um chip?… – O chip pode gerar fótons entrelaçados…E o entrelaçamento quântico, juntamente com a superposição…são fenômenos essenciais no ‘processamento quântico’, e na transmissão dessas informações. Assim, será possível construir múltiplos circuitos quânticos funcionando em série, de forma similar aos circuitos lógicos…dentro   dos processadores eletrônicos tradicionais.

No longo prazo…um computador quântico baseado em ‘caminhada quântica de múltiplos fótons’ poderá simular os próprios processos regidos pela ‘mecânica quântica’.. — como a supercondutividade e a fotossíntese…complexos demais para qualquer supercomputador atual… – E, assim complementou Jeremy O’Brien, da Universidade de Bristol, Inglaterra:

“Agora que podemos gerar e observar diretamente caminhadas quânticas de 2 fótons – passar para 3 fótons, ou mais… é relativamente simples. Isto porque já foi resolvido o problema mais desafiador … o da interação entre partículas no interior do dispositivo”.

chip-quantico-fotonico

Esquema do chip fotônico quântico, mostrando o circuito de guias de onda (branco) e os inversores de fase controlados eletricamente (contatos metálicos). Os pares de fótons tornam-se entrelaçados ao passarem através do circuito.[University of Bristol]

Circuito quântico

Um ‘circuito quântico fotônico de estado sólido’ é apenas uma das diversas plataformas…hoje em pesquisa para a construção de um ‘computador quântico‘.

Cálculos com qubits empregam supercondutores ultra-frios… e neles, para se manterem estáveis os qubits precisam ser isolados… o que é uma barreira para que 2, ou mais deles interajam…

Mas agora… — superado esse problema, ficou demonstrado que 2 ‘transistores de silício’ operando como qubits…podem — efetivamente — executar cálculos simultaneamente.

Porta lógica quântica

O componente mede o spin de 2 elétrons, e segue as instruções — se o primeiro estiver girando em uma direção particular, inverta o spin do segundo elétron. Se não, não faça nada… Este é um exemplo de uma porta lógica – unidade fundamental do computador.

Repetir essa mesma lógica simples, criando sequências de portas, permite realizar cálculos mais e mais complexos – é assim que todos os processadores eletrônicos funcionam…disse Menno Veldhorst, da Universidade de Nova Gales do Sul, Austrália:

Nós transformamos esses transistores de silício em bits quânticos, ao garantir que cada um tem apenas 1 elétron associado. Em seguida, armazenamos o código binário (0 ou 1) no spin do elétron, o qual está associado com um pequeno campo magnético do elétron“.

Transístor quântico (de silício)                                                                                     Transistores são indispensáveis porque, amplificando os sinais, permitem que           estes atravessem intactos uma longa série de portas, em um microprocessador.            

Se de um lado, os efeitos quânticos destroem as regras do comportamento clássico dos transistores eletrônicos – por outro, trazem comportamentos aplicáveis à computação quântica…Em um efeito que pode ser considerado como a fronteira final da eletrônica;   uma fronteira larga, mais parecida com uma ‘zona neutra’ onde eletrônica, spintrônica         e computação quântica convivem quase harmoniosamente, construiu-se um transístor     (de silício) cuja região ativa é formada por um único átomo (de fósforo).

Observe-se que, em realizações anteriores, um transístor atômico e um transístor molecular foram construídos… – mas…em configurações de laboratório, de difícil reprodução.

Ao construir um transístor com base em princípios quânticos — é explorado um domínio entre as computações eletrônica e quântica que, na verdade, é o grande empecilho para a miniaturização contínua dos transistores. Isso porque, abaixo de certas dimensões…hoje calculadas em torno dos 10 nanômetros, os transistores passam a sofrer a influência dos efeitos da mecânica quântica – alterando seu funcionamento.

transistor-de-tunelamento

Os elétrons saltam precisamente de ponto quântico em ponto quântico, por tunelamento, sem perda de corrente.[Imagem: Yoke Khin Yap]

Transístor de tunelamento quântico

Computadores baseam-se em processadores, que são feitos de transistores – utilizando-se  semicondutores…principalmente… o silício.

Esta tem sido a espinha dorsal da nossa atual ‘Era Tecnológica’, com apenas um detalhe a mais… – o motor dessa era é a miniaturização, que em última instância, acelera os computadores…cada vez mais.

Mas há algumas pedras nesse caminho. Uma delas…é que não vai dar para diminuir muito mais os transistores. Outra… é que os semicondutores têm sido muito eficazes…mas pouco econômicos, desperdiçando energia demais na forma de calor. – Nesse sentido, Chee Huei Lee, da Universidade Tecnológica de Michigan, EUA, acaba de apresentar uma alternativa.

Sua nova técnica traz 2 avanços importantes. O primeiro é atropelar a miniaturização, e, em vez de tentar esculpir transistores cada vez menores — em grandes pastilhas, utilizar ‘nanotubos‘… que são tipicamente “montados” de para baixo para cima, partindo do nível molecular… O segundo avanço é a própria arquitetura do ‘transístor‘ – que sai dos semicondutores, passando a mesclar materiais isolantes com condutores.

transistor-tunelamento-quantico

O transístor sem semicondutor (esquerda) e a estrutura do nanotubo de nitreto de boro (direita). [Imagem: Yap Lab/MTU]

Huei Lee usou nanotubos de nitreto de boro… – que são isolantes…recobrindo-os com pontos de ouro, cada um com diâmetro de 3 nanômetros. 

Os nanotubos de nitreto de boro, um dos materiais mais duros do mundo…são isolantes…servindo como “suporte ideal” no arranjo espacial dos ‘pontos quânticos‘, por sua “micro-uniformidade“.

A propósito, pontos quânticos são estrutura que conseguem aprisionar partículas individuais – elétrons, por exemplo… Embora isso os faça funcionar como se fossem semicondutores. Como a corrente não flui continuamente, mas vai “aos saltos”…eles são uma categoria à parte… um híbrido entre ‘semicondutor‘ e ‘molécula individual‘.

Quando uma tensão é aplicada às 2 pontas do nanotubo … em temperatura ambiente — os elétrons não saem correndo pelo tubo, porque ele é isolante. Em vez disso ocorre algo bem mais interessante… os elétrons saltam precisamente de ponto quântico em ponto quântico, por meio do fenômeno do tunelamento…Como explica Yoke Khin Yap – coordenador do trabalho:

“Imagine que os nanotubos são um rio, com um eletrodo em cada margem… – E agora, suponha que há um caminho de pedras até o outro lado do rio. Os elétrons pulam sobre as pedras de ouro. As pedras são tão pequenas…que só se pode ter um elétron, em cada pedra, de cada vez. – Todos elétrons atravessam da mesma forma…fazendo com que o dispositivo seja sempre estável”. 

Quando a tensão é forte o suficiente, o transístor entra em estado condutor; o estado “ligado”, ou “1”. Quando a tensão cai ou chega a zero, ele volta ao seu estado isolante natural — o estado “desligado“, ou “0“. Como os elétrons não têm como escapar pelo nanotubo (que é isolante) não há vazamento de corrente…o que torna o transístor de tunelamento metal-isolante muito eficiente, não perdendo energia na forma de calor.

O próximo passo será colocar vários transistores de tunelamento…em conjunto – para demonstrar seu funcionamento em condições reais – garantindo que o tunelamento de um não interfira no tunelamento que está ocorrendo no vizinho.  (texto base)  jul/2013

tunelamento

Esta imagem (de cerca de 5 nm) tirada com um microscópio de corrente de tunelamento  mostra uma superfície de cobre, onde esses átomos estão contidos dentro de um recinto quântico de 48 átomos de ferro. A barreira circular do ferro tem um raio de 71,3 Angstroms (71,3 x10-10) metros. Nós vemos os elétrons se comportando como ondas. © IBM Almaden Visualization Lab

Tunelamento quântico

‘Tunelamento’ é um efeito quântico que permite… – por exemplo – um elétron atravessar uma ‘barreira’. Isso acontece porque os elétrons apresentam um comportamento tanto de partícula, quanto onda.

Ao se deparar com uma barreira clássica, uma partícula é sempre refletida…na mecânica quântica, porém…a função de onda dessa partícula/onda não assume um valor zero instantaneamente; o que significa que, em função de sua energia (e da espessura da barreira), ela irá atravessá-la.

Um transístor clássico somente pode assumir um dentre 2 estados – ligado ou desligado, cada um deles representando zero ou 1… – O transístor de um único átomo – entretanto, funciona com base no tunelamento sequencial de elétrons individuais… entre o átomo, e   os eletrodos do transístor…Dessa forma, o tunelamento pode ser liberado, ou suprimido, controlando-se a tensão no ‘eletrodo… que possui a largura de dezenas de nanômetros.

A ideia é utilizar o grau de liberdade do spin de um elétron, cedido pelo átomo de fósforo, como um bit quântico – como esse spin pode ser “up” ou “down”, ele pode ser usado para representar os (0 e 1) digitais, formando um bit quântico, ou qubit. E de fato, a equipe foi capaz de medir os estados “para cima” e “para baixo” dos elétrons tunelando pelo átomo de fósforo – demonstrando – portanto…  a possibilidade de sua utilização prática.

fio-quantico

[Imagem: Andrew Houck Lab]

Informações quânticas dentro do chip

Os cientistas Robert Schoelkopf e Steven Girvin, pesquisadores da Universidade de Yale, EUA, já conseguiam armazenar informação de forma quântica – agora… o feito deles foi transmitir a informação quântica entre 2 qubits… usando um fio como meio de comunicação.

Os 2 pesquisadores já vinham trabalhando há anos com dispositivos de estado sólido para a construção de computadores quânticos. Agora, conseguiram que átomos artificiais… ou qubits supercondutores, se comunicassem no interior do chip.

Barramento quântico

O barramento funciona como uma ‘rodovia’ na qual os dados trafegam dentro de um computador, passando da memória para o processador, discos de armazenamento, e outros periféricos… – quanto mais faixas essa rodovia tiver…maior é a velocidade do computador… (Esse é o primeiro ‘barramento-quantico’ que se tem notícia.)

Para fazer com que os qubits se comunicassem à distância… – 2 avanços revolucionários foram feitos de uma só vez. – No 1º, foram produzidos fótons individuais de microondas, de forma controlável e sob demanda. – São esses fótons … que transportam informações quânticas, fazendo o papel dos elétrons…na eletrônica tradicional; como explica Andrew Houck, pesquisador da equipe…

Não é muito difícil gerar sinais com um fóton em média, mas é dificílimo gerar, exatamente, um fóton de cada vez…Para codificar informações em fótons é preciso ter exatamente, um deles. — Para se ter ideia da precisão alcançada…um telefone celular, por exemplo, emite 1023 fótons/segundo“.

Esta é contudo, apenas uma primeira parte da comunicação quântica. Com ela, torna-se possível pegar a informação gravada no qubit, codificá-la no fóton, e transmiti-la. Agora,   é necessário recebê-la no outro lado…e este foi o 2º avanço alcançado. Os pesquisadores guiaram o fóton de microondas num fio – da mesma forma que um fóton de luz visível é guiado ao longo das fibras ópticas.

Assim, ele pode atingir o 2º qubit, passando a informação codificada… A possibilidade de comunicação entre os qubits à distância – é essencial no processamento quântico de informações. (‘avanços rumo ao computador quântico’ – set/2007)

‘design para computador quântico’ (07/2002) ‘Manipulando o spin de um único elétron’ (ago/2006) ‘Lendo dados armazenados como spins’ (dez/2006) ‘dispositivo spintrônico’ (maio/2007)  ‘transistor-atomico’ (dez/2009)  ‘transistor-optico-quantico’ (maio/2010) ‘chip-optico-quantico’ (set/2010) chip-fotonico-multi-uso (2011) ‘chip-nanotubo-carbono’  (2012) BIOS-comp.quânticos(2013) ‘circuito quantico’(2014) comp-quantica-silicio(2015) *******************************(texto complementar)********************************

Spin atômico é fotografado pela 1ª vez   (27/04/2010)                                                 Nas imagens registradas pelos cientistas, os átomos de cobalto aparecem como uma saliência única, se a direção do spin estiver apontando “para cima”… — e como uma saliência dupla. se estiver apontando “para baixo.”

spin

As diferenças no formato e na aparência de cada um dos átomos de cobalto são causadas pelas diferenças na direção dos seus spins.[Imagem: Saw-Wai Hla]

O spin é uma propriedade quântica fundamental das partículas elementares.

Embora o termo seja usado em várias acepções  –  para efeitos experimentais spin é entendido, como se fosse um minúsculo ímã – com uma orientação, que pode ser “para cima” ou “para baixo“.

Os termos “para cima” e “para baixo” são apenas convenções — utilizadas para representar a orientação do spin.  —  O importante…é que ele pode ser usado para armazenar um bit de informação – assumindo um valor que pode ser 0 ou 1.

Spintrônica 

Fazer um spin passar de 0 para 1…e vice-versa, requer pouquíssima energia – bem menos do que o fluxo de elétrons usado nos computadores atuais. Isso tem levado os cientistas a apostarem no advento da spintrônica… – complementando…ou mesmo substituindo a eletrônica atual  –  viabilizando a construção de computadores menores, mais rápidos…e com consumo de energia muito menor. Apesar dos progressos recentes na área, contudo, até hoje ninguém havia realmente visto um spin.

Para conseguir o feito, os cientistas das universidades de Ohio, EUA, e Hamburgo…na Alemanha, tiveram que construir um microscópio eletrônico sob medida para a tarefa.       O microscópio de varredura por tunelamento (STM: Scanning Tunneling Microscopy) recebeu uma ponta recoberta com ferro… — para poder manipular átomos de cobalto colocados sobre uma placa de manganês. Ao reposicionar os átomos de cobalto sobre         a superfície — eles então … alteraram a direção dos spins dos elétrons desses átomos.

1 bit por átomo 

O estudo sugere que é possível não apenas observar, mas também manipular diretamente o spin, uma descoberta que poderá ter impacto no desenvolvimento futuro de sistemas de armazenamento magnético de computadores quânticos…e, dos dispositivos spintrônicosComo assim explicou Saw-Wai Hla, um dos autores do estudo…

“Diferentes direções do spin, podem representar diferentes estados para o armazenamento de dados. Cada bit magnético registrado no disco rígido de um computador utiliza dezenas de milhares de átomos… — No futuro, poderemos usar 1 só átomo, guardando o bit em seu spin…multiplicando a capacidade dos computadores por milhares de vezes”… (texto base)  ************************************************************************************

Processador fotônico usa fótons individuais como bits  (12/07/2016)

Nada parece rápido o suficiente ou impressionante o bastante para arrefecer os ânimos das equipes que trabalham no campo da computação quântica. Há poucos dias…físicos alemães conseguiram fazer com que feixes de luz “sentissem” uns aos outros… — o que promete eliminar os equipamentos intermediários entre…a ‘transmissão de dados’ por fibras ópticas e os computadores eletrônicos e – mais tarde… viabilizar computadores totalmente fotônicos, que não só trocam dados — como processam dados, usando luz.

porta-logica-fotons-isolados

Agora, outra equipe também da Alemanha foi ainda mais fundo, construindo uma porta lógica que envolve, não feixes de luz… mas ‘fótons individuais‘ — que podem assim…funcionar como qubits, processando dados por luz.

Interação entre fótons

Os fótons são ideais para a transmissão de informações porque não interagem entre si, passando uns pelos outros sem perder suas informações. Isso contudo os torna pouco adequados para o processamento das informações, quando   os bits precisam interagir uns com os outros.

Bastian Hacker superou este obstáculo utilizando uma 3ª partícula auxiliar… – um único átomo preso dentro de um ressonador óptico, que assume o papel de um mediador entre os dois fótons. – De forma independente…mas em rápida sucessão os 2 fótons atingem o ressonador, que consiste de 2 espelhos de alta reflexividade, e no centro um único átomo de rubídio aprisionado, formando um sistema fortemente acoplado.

O ressonador amplifica o campo luminoso do fóton, permitindo uma interação direta átomo-fóton. Como resultado, o estado atômico é alterado pelo fóton quando ele está sendo refletido pelo espelho… Essa alteração é detectada pelo 2º fóton quando chega         ao espelho pouco tempo depois.

CPU óptica

“Os dois fótons nunca estão no mesmo lugar ao mesmo tempo e, portanto, eles não veem uns aos outros diretamente. No entanto, conseguimos uma interação máxima entre eles” explica Bastian Hacker, do Instituto Max Planck de Óptica Quântica. A equipe afirma que essa ‘porta lógica de fótons‘ pode viabilizar o processamento óptico de informações – como explicou o professor Gerhard Rempe, coordenador da equipe…concluindo o artigo:

“A distribuição de fótons através de uma ‘rede quântica óptica’ permitiria ligar qualquer número de ‘nós de rede’ – e assim, realizar a configuração de um computador quântico óptico escalável…no qual a porta fóton/fóton assuma o papel de unidade central de processamento (CPU)”. (texto base)

computador-quantico-ibm-internet

Diagrama do processador quântico de cinco qubits que está sendo disponibilizado online. [Imagem: IBM Research]

Processador quântico online

Seguindo os passos dos pesquisadores da Universidade de Bristol…GRB, que em 2013 ofereceram, pela internet um processador quântico, a IBM acaba de anunciar a disponibilização, de acesso gratuito … ao seu próprio processador quântico.

Enquanto o chip da Universidade de Bristol conta com 2 qubits…a versão que a IBM colocará online…possui 5  qubits.

As 2 equipes já estão trabalhando em versões mais aprimoradas, com dezenas de qubits, por isso resolveram tirar vantagem de suas versões mais simples, mas mais estáveis… A expectativa é que – quando os usuários…especializados ou não… tentarem programar o processador quântico online — os pesquisadores obterão informações importantes para ajudá-los no desenvolvimento de versões maiores.

“Estamos ansiosos para sermos surpreendidos pelos algoritmos testados pelos usuários externos. Queremos ver onde as coisas não funcionam tão bem, e a estabilidade do experimento com o tempo”… (Jerry Chow, IBM)

computador-quantico-ibm-internet-1

A interface de programação do processador quântico (visto à direita) lembra uma partitura musical. [Imagem: IBM Research]

O processador quântico da IBM poderá ser programado por um serviço web… – o ‘Composer‘ – assim chamado … porque a sua interface se assemelha… a uma partitura musical… – Tutoriais explicam como arrastar e soltar ‘portas lógicas quânticas’…para criar um algoritmo, que poderá então rodar no “processador”…

No ano passado…a IBM recebeu financiamento para desenvolver um processador de 17 qubits  — capaz de executar códigos de correção de erros, essenciais para a criação de computadores quânticos maiores e com aplicações práticas. A solicitação de acesso ao processador quântico da IBM pode ser feita no seguinte endereço. (mai/2016) *************************************************************************************

Projeto prático para a construção de um computador quântico 02/02/2017

projeto-computador-quantico-erros

Módulo ilustrando como os dados e os qubits de medição interagem nas portas lógicas para executar o código. Os qubits de dados são estáticos e os qubits de medição trafegam entre as portas. [Bjoern Lekitsch]

Uma ‘equipe internacional‘ divulgou o 1º ‘projeto prático’ para a construção de um computador quântico em larga escala.

A equipe já se prepara para construir um protótipo – em miniatura – para testar o conceito. A máquina completa – quando construída de acordo com o projeto, terá o tamanho de um ‘campo de futebol’ … e poderá custar cerca de US$ 120 milhões.

O tamanho é um problema, mas o custo não o coloca muito distante… dos atuais ‘supercomputadores eletrônicos‘… – se,  sobretudo considerarmos o que se pode esperar de seu desempenho…  A grande expectativa é que os computadores quânticos revolucionem a indústria… a ciência… e, as transações comerciais e bancárias…em uma escala semelhante à da passagem dos papéis para os computadores atuais.

O projeto, disponibilizado para outras equipes tentar construir seus próprios protótipos, é resultado do trabalho da equipe composta por pesquisadores da Google (EUA) … e das universidades de Sussex (GRB), Aarhus (Dinamarca), Riken (Japão), Siegen (Alemanha).

projeto-computador-quantico-camaras

Estas são as câmaras de vácuo onde os qubits ficarão. É por causa delas que o computador quântico será tão grande: cada uma medirá 4,5 x 4,5 metros.[Bjoern Lekitsch et al.]

O plano se baseia no uso de qubits gerados por átomos eletricamente carregados (íons)…confinados em uma ‘armadilha eletromagnética’.

A vantagem desta abordagem… é permitir que o funcionamento do computador…a uma temperatura ambiente, não requerendo assim, que todo o sistema seja resfriado a temperaturas frias, ao extremo.

As ‘portas lógicas’ — blocos básicos de cálculo… são bem mais simples do que os sistemas largamente usados, baseados em laser. O problema é que isso exigiria alinhar um feixe de laser individual em cada qubit, o que é tecnicamente muito problemático quando se parte para um número de qubits capazes de fazer cálculos práticos. — Assim…a equipe preferiu usar micro-ondas, o que simplificou muito o sistema.

Outra inovação é um sistema de correção de erros — já que os qubits são muito frágeis, tendendo a perder dados rapidamente. – Para resolver esse problema, a equipe propõe   usar ‘qubits estáticos’ para manter a coerência, e ‘qubits de medição’ para transferir os dados – esses qubits transportarão os dados… – empurrados por ‘campos elétricos‘.

Para a comunicação interna a abordagem mais comum, mas igualmente desafiadora, era interligar os módulos de cálculo usando conexões de fibra ótica… Em vez disso o projeto prevê o uso de conexões criadas por campos elétricos — que permitem que os íons sejam transportados, de um módulo para outro… Esta nova abordagem permite velocidades de conexão individual entre módulos de computação quântica…100.000 vezes mais rápidas, em comparação com tecnologia de fibra, embora resulte num equipamento muito maior.

projeto-computador-quantico-modulo

Ilustração dos módulos básicos de cálculo, cada um contendo 36 x 36 junções, cada uma controlada por mesas coordenadas X-Y-Z para manter o alinhamento. [Bjoern Lekitsch et al.]

Desta forma, o computador quântico terá uma estrutura modular, com pequenos circuitos sendo acrescentados até atingir o poder computacional desejado…Se tudo funcionar como previsto não deve haver limites ao poder de processamento, além do tamanho da máquina.

Em termos práticos, um computador quântico modular – como o agora projetado, deverá ocupar um enorme barracão de alta tecnologia, repleto de sofisticados aparelhos de vácuo necessários para manter os qubits livres de interferência dentro de circuitos integrados de silício. — A instalação deverá lembrar os prédios dos supercomputadores atuais, mas com um aspecto mais parecido com o de um laboratório.

Agora…é esperar para ver se o protótipo que a equipe está começando a construir funcionará conforme o projeto. Se funcionar, poderemos estar entrando definitivamente na era da computação quântica…(texto base)

Computação atômica x Lógica binária  (27/03/2017)                                                         ‘Pequenas máquinas lógicas…construídas com átomos individuais, podem criar uma forma mais eficiente de computação do que os supercomputadores atuais, e mais simples do que os tão esperados computadores quânticos’.

maquinas-nano-logica

Os quatro estados do átomo (esquerda) representam as quatro salas do problema. O tunelamento dos elétrons simula o movimento das pessoas entre as salas (direita). [Imagem: Fresch et al.]

Uma colaboração internacional… liderada por Barbara Fresch – da Universidade de Liége, Bélgica, afirma que suas nanomáquinas podem superar a computação binária para uma grande gama de problemas…Como explicou a pesquisadora: “A implementação aproveita a ‘natureza estocástica’ do tunelamento dos elétrons, enquanto a saída permanece como uma corrente macroscópica cuja leitura pode ser feita com técnicas padrão.”

Computação atômica

As nanomáquinas são átomos de fósforo individuais – posicionados por meio de uma técnica padrão da indústria conhecida como ‘dopagem’…em um cristal de silício, com densidade de aproximadamente 200 bilhões de átomos, por centímetro quadrado. Os elétrons se movem aleatoriamente entre os átomos de fósforo devido ao fenômeno do tunelamento – vistos como ondas… os elétrons simplesmente “se transmitem” de um átomo para outro, sem se incomodar com qualquer barreira sólida.

Como cada átomo de fósforo pode manter 1 ou 2 desses elétrons, e cada elétron pode ocupar diferentes ‘níveis de energia’ – cada átomo pode ocupar … pelo menos um de 4 estados possíveis… e fica “transicionando” de um para outro – obedecendo a certo conjunto calculável de probabilidades.

Ou seja, o tão temido “ruído“, que tanto atrapalha experimentos em       nível atômico – aqui…é a própria base de funcionamento do circuito.

Ficou assim demonstrado que esse sistema pode ser usado para simular alguns problemas computacionais … na forma de um novo tipo de simulador quântico.

maquinas-nano-logica-2

(A) Imagem topográfica da pastilha de silício mostrando o átomo de fósforo. (B) Função de onda do elétron ligado ao átomo. [Imagem: Fresch et al.]

Computação natural

Como prova de conceito…a equipe analisou um fluxo de visitantes em um labirinto, composto por 4 salas conectadas por portas. – A tarefa é encontrar a melhor combinação de ‘frequência da abertura’ das portas a fim de maximizar o tempo … que os visitantes gastam, em cada sala.

Solucionar esse tipo de problema com a computação convencional, requer uma quantidade significativa de cálculos… pois envolve a análise da dinâmica dos visitantes no labirinto para coletar informações — ainda antes da otimização do ritmo de abertura das portas.

Usando “dispositivos lógicos atômicos“…porém… é possível encontrar a solução mais diretamente, porque o problema está fisicamente incorporado pelo próprio hardware atômico…para este problema em particular, a topologia do labirinto corresponde aos estados de um átomo … e o movimento dos visitantes – ao tunelamento dos elétrons.

Os resultados são lidos em um microscópio de tunelamento, por correntes elétricas – ou seja, trata-se essencialmente de uma computação analógica.

“Sua dinâmica é governada por uma ‘lei probabilística’… – devido à natureza estocástica fundamental dos processos quânticos, e termalmente ativados. A aplicação mais direta é então… – usar ‘dispositivos de nanoescala’… – para a implementação de… “algoritmos probabilísticos“… que possam requer uma sobrecarga significativa, em um hardware determinístico convencional. – Por exemplo, a mera amostragem de um número pseudo-aleatório de uma ‘distribuição de probabilidade’ … requer centenas de instruções, em um computador moderno; enquanto o tunelamento de elétrons em tempos verdadeiramente aleatórios é um processo natural”… concluiu Francoise Remacle. (Inovação Tecnológica)

Publicado em Computação | Marcado com , , | 1 Comentário

No ‘ASSOMBROSO’ Mundo da Computação Quântica

Além da física clássica, existe a física quântica…desenvolvida no começo do século XX.   É uma física desconcertante – e, se a física quântica é assim…computadores baseados nela não seriam muito diferentes… Computando inúmeras possibilidades e resultados   de uma só vez – são capazes de realizar…literalmente… ‘tudo ao mesmo tempo agora’.

computadorpessoal

Computador pessoal completa 25 anos…          Este é o computador para todos que desejam um sistema pessoal no escritório, no campus…ou, até mesmo… em casa’

O primeiro computador pessoal – o ‘PC’… foi lançado pela IBM, no dia 12 de agosto de 1981, causando uma revolução – tanto no ambiente de trabalho, como nas residências.

Ele foi lançado com jogos e ferramentas rudimentares, incluindo um tutorial de música – gráficos em 4 cores diferentes…24 em texto; e linguagem de programação Microsoft BASIC.

A versão mais barata vinha com CPU e teclado, sem incluir monitor, e o drive de disquete, mais um alto-falante mono embutido, para música e áudio – com apenas 16k de memória; o que corresponde, hoje, à capacidade de 2 e-mails convencionais.

Havia também um jogo de aventura  –  que não usava gráficos, apenas texto … chamado Microsoft Adventure. A Microsoft também fornecia o sistema operacional das máquinas originais, o DOS. Os drives de disquete eram opcionais…e um de 5.25 polegadas poderia armazenar outros 160k de informação.

Já o consumidor atual tem disponível, por exemplo, um processador duplo de 1.8 GHZ – acima de 765 vezes mais potente do que o PC original…Com 1GB de memória, ela tem 65 mil vezes mais capacidade do que o IBM original…O disco rígido de 160GB é equivalente     a mais de 1 milhão de disquetes dos usados nas máquinas de 1981.

Dessa forma, o PC ajudou a padronizar a informação mundialmente… Seus dados passaram a ser lidos em outros PCs… e  –  existem mais de um bilhão deles em operação no mundo de hoje. (16/11/2006)

Computadores quânticos

Se você possui um computador, esteja certo de que ele é um ‘clássico’… Não que seja velho, ou de um modelo venerado pelo estilo, mas porque funciona basicamente de acordo com a chamada física clássica criada pelo inglês Isaac Newton há 300 anos… – Nesse sentido, ele não difere muito de um ‘ábaco‘ de mais de 2.500 anos atrás… que era pouco mais que um amontoado de pedrinhas movidas manualmente para efetuar cálculos. – A diferença é que, ao invés de pedras, os computadores de hoje lidam com elétrons…e, em lugar de mãos… — possuem milhões de chips repletos de minúsculos componentes para mover esses elétrons à velocidade da luz.

Existem 3 maneiras de fazer um computador trabalhar mais rápido…Uma é usando vários computadores para um mesmo fim. Outra, é construindo novos computadores (hardware) mais eficientes… – E a 3ª é elaborar ‘algoritmos computacionais’ (software) que permitam maior rapidez em suas atividades.

computação-quântica

Um algoritmo é qualquer ‘equação computacional’  –  que recebe algum valor… ou conjunto de valores como entrada — e produz algum valor, ou conjunto de valores como resultado; levando em conta todas as variáveis que possam surgir.

Os ‘algoritmos’ utilizados nos atuais computadores (algoritmos clássicos) são baseados em procedimento passo a passo… – ainda que muitos milhões de procedimentos sejam feitos em 1 segundo, por meio de milhões de transistores – que são ligados e desligados… para representar os valores 0 e 1.

Os computadores quânticos, usando, por exemplo… – átomos como bits quânticos, ou qubits... podem ter alterado seu magnetismo, ou outras de suas propriedades, a fim de representar 0 e 1… ou mesmo, os 2 estados sobrepostos. – Sendo capazes de executar muitos procedimentos em um único passo… – por meio de ‘algoritmos quânticos(muito diferentes da lógica utilizada nos programas atuais) poderão fatorar grandes números, revolucionar a ‘criptografia’, e ajudar em projetos intensivos de cálculos – em assuntos tão complexos… como ‘previsão meteorológica’. 

Processamento quântico

Os computadores atuais têm em sua menor unidade de armazenagem um dígito binário – ou bit, que é a unidade fundamental de informação…só podendo assumir 2 valores… zero ou 1… – Eles formam a base da armazenagem de informação usada na computação digital.

Uma série de bits em conjunto formam valores que, quando combinados em grupos de 8 – em um computador pessoal… esses bits se tornam bytes. Já computadores quânticos não são baseados em bits, mas sim em qubits (bit quântico), que representa sua unidade fundamental de informação.

Nesse caso – em vez de operarmos apenas com os números 0 e 1 – há uma gama maior de possibilidades… – Além do qubit poder estar em um estado de ‘superposição‘…que é ao mesmo tempo 0 e 1, ele também podem oscilar no espaço intermediário destas posições – como interruptores de luz que pudessem estar 1/2 desligados…Essa flexibilidade os torna úteis para armazenar e processar dados, quanticamente.

Pares de átomos, quando forçados a conviver em espaços limitados em um computador quântico, podem ser manipulados para estar em diferentes estados simultaneamente – enquanto se entrelaçam, e assim, processar exponencialmente mais informação do que       um computador tradicional.

Para se ter uma ideia da eficiência de seu desempenho, enquanto os computadores atuais processam dados em blocos de 64 bits de cada vez… um ‘computador quântico’ – no qual um qubit consegue guardar os valores 0 e 1 ao mesmo tempo – com os mesmos 64 qubits – será nada menos do que 264 vezes mais rápido.

Para desenvolver o processamento na computação quântica, porém, é preciso descobrir como fazer para que cada par de átomos oscile, e se mova independente dos demais… – como 2 moedas que estivessem girando, simultaneamente no ar… – correlacionadas de modo a que – sempre que uma delas tem o lado cara para cima…a outra assume coroa. Essas propriedades na computação quântica correspondem aos clássicos ‘transistores’  (chaves liga-desliga em um circuito eletrônico).

Superposição quântica

A “superposição quântica representa a possibilidade de um objeto quântico assumir uma combinação peculiar de propriedades que… — de acordo com nossa velha intuição clássica, seriam mutuamente excludentes.

Ou seja, a superposição é uma lei da mecânica quântica que postula que, para qualquer ‘sistema quântico‘ no qual exista uma certa quantidade de informação observável, ocorre sempre uma sobreposição de 2 ou mais estados possíveis.

Isso implica, para a computação quântica, que o qubit pode assumir os valores 0 e 1, além de uma sobreposição destes 2 valores…Tomando como exemplo uma bola de gude, que só pode ser inserida em 2 buracos diferentes, os quais chamaremos de buraco 0 e buraco 1 – este formato clássico, usando apenas um bit de informação, nos deixa ver completamente a situação da bola de gude, que só pode assumir o valor 0 ou 1.

Idealizemos agora, um análogo microscópico dessa bola de gude – um pequeno objeto que satisfaça às leis da mecânica quântica…Há alguns anos já é possível colocar microeletrodos numa placa de silício, de maneira a prender o elétron individual em uma de 2 posições próximas

Essas 2 regiões onde o elétron pode estar são ditos pontos quânticos – e, como no caso da bola de gude, chamamos de ponto 0…e o outro de ponto 1.

Segundo a mecânica quântica…é possível colocarmos o elétron numa situação em que 2 propriedades mutuamente excludentes se combinem de uma forma especial. No caso do elétron, além de podermos colocá-lo no ponto 0, ou no 1, podemos também colocá-lo em uma situação na qual ele se comporte, de certa forma como se estivesse nos 2 pontos ao mesmo tempo. Diz-se então que o elétron está num estado de superposição entre os 2 pontos.

Amplitudes de probabilidade

Essa superposição pode ser criada com várias gradações – ou seja – podemos escolher o “peso” de cada uma das possibilidades clássicas de posição. Esses pesos são conhecidos como amplitudes de probabilidade. Essas amplitudes descrevem completamente     a situação de superposição do elétron (ou ‘estado do elétron‘)… Se colocarmos a bola de gude no buraco 0…p. exemplo, sabemos que nada do que fizermos no buraco 1 afetará a bola de gude.

É neste ponto que a condição do elétron é diferente. — Num estado de superposição das 2 posições  –  o elétron é afetado pelo que se faz nos 2 pontos quânticos … Suas  propriedades mensuráveis se alteram, de acordo com aquilo que se faz com os 2 conjuntos de eletrodos  –  aqueles que controlam o ponto 0… e os do ponto 1.

Isto porque o elétron é … “quanticamente” descrito por ‘amplitudes de probabilidade’, e estas são afetadas por manipulações dos eletrodos em cada ponto.

Inexplicavelmente, se for aferida a posição depois da criação da superposição, o elétron será encontrado em um dos pontos – e, daí para a frente… passará a ser influenciado só pelos eletrodos desse ponto. – Em outras palavras… ao medirmos a posição do elétron, destruímos a superposição – e, daí em diante, o elétron volta a ser como a bola de gude, com sua posição estável.

Essa fragilidade dos ‘estados quânticos’ — com efeito — é uma questão fundamental para a confiabilidade dos computadores quânticos do futuro. Uma das principais razões para isso é que os sistemas quânticos — os qubits aí incluídos — podem ser alterados por ruídos eletromagnéticos mínimos…Construí-los, portanto…provou ser um grande desafio, pois a propriedade que lhes garante efetuar cálculos simultâneos é fruto dessa delicada condição de ‘sobreposição de estados‘.

Para que a computação quântica atinja seu máximo potencial, é pois…necessário preservar o “estado quântico puro nos sistemas quânticos… tornando os qubits imunes à influência do meio ambiente. Este é, aliás, o grande gargalo de estudo nesta área; chamado de ruído ou “mistura estatística“…termo cunhado para descrever a ausência desseestado puro’Como diz Miled Hassan Youssef Moussa … professor do Instituto de Física da IFSC-USP:

“O meio ambiente – necessariamente – conduz o estado puro do           sistema quântico à uma mistura estatística (caótica) de estados”.  

superposição-quantica

[Imagem: Irfan Siddiqi/ UC-Berkeley]

‘Trajetória das partículas quânticas  A definição entre a vida e a morte do Gato de Schrodinger não é instantânea – ainda que não seja tão suave e contínua, quanto um evento clássico. 

Se você joga uma bola para outra pessoa — a bola seguirá sua rota de forma contínua e direta… Mas, se a bola for pequena demais, um átomo ou uma molécula…por exemplo, ela obedecerá às leis da mecânica quântica, e não da mecânica clássica – o que tornará as coisas um pouco mais complicadas.

Partículas quânticas podem existir em uma ‘sobreposição de estados’ – como estarem em dois lugares ao mesmo tempo, só “escolhendo” um deles quando se tenta medir onde elas realmente estão. Assim, parecia impossível estabelecer uma trajetória contínua para uma partícula quântica… – só podendo localizar pontos bem discretos de sua rota…ou lá ou cá.

O exemplo mais conhecido desse fenômeno é o famoso experimento mental conhecido como Gato de Schrodinger, em que um gato é posto em uma caixa…onde um frasco de veneno pode ser aberto pelo estado de uma partícula quântica. – O gato estaria em um estado de superposição, vivo e morto ao mesmo tempo… já que sua condição definitiva       só se determinaria quando a caixa fosse aberta… – o que equivale a fazer uma medição     da partícula quântica.

Mas agora, uma equipe de físicos das universidades de Rochester, Berkeley e Washington, todas nos EUA demonstrou que não é bem assim… – estabelecendo um caminho provável entre a vida e a morte do gato… O evento não seria instantâneo, com o gato seguindo uma rota contínua de sua vida até sua morte… – o gato morre suavemente… – por assim dizer.

esfera-bloch

Os dados mostram o caminho “mais provável” (em vermelho) entre estados quânticos iniciais e finais (pontos pretos). As medições são mostradas em uma representação conhecida como esfera de Bloch. [Areeya Chantasri]

Conforme um estado quântico colapsa, saindo de uma superposição, e assumindo um estado clássico… ou, até uma superposição diferente, ele segue um caminho…conhecido como uma ‘trajetória quântica’.

Para cada estado origem, e estado final, há um caminho “mais provável” ótimo. O problema é que é complicado prever esse caminho … – ou mesmo rastreá-lo experimentalmente.

Para conseguir isso — a equipe criou um qubit supercondutor com propriedades de coerência muito precisas… Esse tipo de sistema quântico é chamado de “átomo artificial“… podendo ele permanecer em uma “superposição quântica” durante um monitoramento contínuo.

O experimento tirou proveito do fato de que…  —  qualquer medição perturba um sistema quântico…exceto as chamadas medições fracas. Isto torna possível traçar o caminho ideal da partícula…efetuando medições contínuas, ou seja, forçando-a a passar, continuamente, de um estado quântico para outro. Como explicou Andrew Jordan, pesquisador da equipe:

“O experimento mostra que, para qualquer escolha de estado quântico final, o ‘caminho ideal’ mais provável em um determinado momento pode ser encontrado e previsto. Isto confirma a teoria… — e abre caminho para novas técnicas de controle quântico ativas.”

Controle quântico das reações químicas                                                                             Os químicos controlam o campo quântico com o laser, e                                                            esse campo controla a dinâmica de uma reação química”.

Kater Murch, coautor do estudo, ressalta que esse “controle quântico ativo” é de especial interesse para os químicos, já que estes, nos últimos 20 anos desenvolveram uma técnica chamada “controle quântico“… na qual pulsos de laser são usados para dirigir reações químicas – ou seja… conduzi-las entre 2 estados quânticos. E ainda confidenciou o físico:

“Eventualmente, seremos capazes de controlar a dinâmica das reações químicas com lasers – em vez de apenas misturar um reagente (1) com     um reagente (2)… – e deixar a reação evoluir por conta própria”.

rota-quantica

O qubit supercondutor usado no experimento – um átomo artificial – é mantido a uma temperatura de 7 milliKelvin. Com o ruído termal suprimido a esse nível, o dispositivo entra naquilo que os físicos chamam de “espaço quântico”. [Imagem: Joe Angeles/WUSTL]

Interpretação de Copenhague

O resultado também tem impacto sobre a “computação quântica“…desafiando a interpretação clássica da teoria…também conhecida, interpretação de Copenhague, que estabelece a “passagem instantânea” entre os estados clássico e quântico.

Mas, o monitoramento em tempo real de um ‘sistema quântico’ mostra, que este é um processo contínuo … e que podemos, constantemente, extrair informações do sistema conforme ele “passa de estado”; detalhe aliás que nunca foi considerado acessível, pelos fundadores originais da teoria quântica.

‘Computador pessoal’ # ‘Superposição Quântica’ # ‘acoplamento de átomos à laser’  ‘1º cálculo de programa quântico’  ‘estado-quantico-puro’ ‘trajetoria-particulas-quanticas’ *********************************************************************************  Qubits positivos – Os spins das lacunas, quando comparados aos spins dos elétrons, permitem guardar dados no mesmo estado físico por um tempo 10 vezes maior.  —  Ao contrário dos spins dos elétrons, spins de cargas positivas não interagem com spins do núcleo, o que os torna muito mais estáveis. ‘qubit-positivo’  (18/03/2013) ***********************************************************************************   Qubits codificados no tempo – Apesar das estranhezas da mecânica quântica, é fácil ver que o qubit está implementado em um sistema físico real – um cristal, uma nuvem de átomos de rubídio, uma vacância de nitrogênio no diamante etc. Nos fótons, por exemplo, a informação pode ser codificada na polarização, no momento angular…ou em outro grau de liberdade da luz… Assim, os qubits podem vir em vários “sabores” – eles podem ser de estado sólido, nuvens de átomos superfrios, defeitos no interior de diamantes…ou fótons. Mas, as possibilidades não estão esgotadas… A mais nova adição ao arsenal à disposição dos projetistas de computadores quânticos é o ‘qubits-codificado-no-tempo’ (out/2013) **********************(texto complementar)***************************************

Simulando um futuro quântico 

No mundo virtual do filme Matrix, não há realmente… cidades, e nem prédios, que, assim como as colheres e os gatos, são bits … no “processamento” de um programa de simulação, rodando num computador ‘incrivelmente‘ poderoso.

A vida não acontece numa ‘realidade’ tipo Modelo Padrão da física clássica, mas sim…virtualmente…na memória desse supercomputador.

Talvez soe como disparate para alguns — mas o fato é que muito das nossas vidas atuais já acontece apenas no mundo virtual, na forma de bits: as músicas que ouvimos, as fotos que olhamos, as mensagens que trocamos não existem mais em discos, porta-retratos e papéis. Tudo se reduz a uma fileira de bits armazenada em uma “nuvem computacional” — cuja localização é incerta… — e, embora não gostemos muito disso… essencialmente volátil.

Assim, simular um mundo virtual do tipo Matrix não deve mais soar tão estranho quanto o seria há alguns anos – por exemplo…hoje já existem esforços no sentido de simular a Terra inteira, embora sem os meandros das vidas pessoais.

O conceito não é difícil de entender… — O que é fundamental numa simulação do tipo Matrix é a criação de um programa que contenha, e seja capaz de simular todas leis da física, de forma a recriar um mundo como o que os nossos sentidos experimentam…E,   para isso, será então necessário criar interfaces que possam transferir informações de todos nossos sentidos para o computador, e vice-versa.

É claro que é tudo especulativo, em termos de realização prática…             mas, não em termos de verificação matemática das possibilidades.

circuito-quantico

Modelo do simulador quântico de processos estocásticos projetado pelos pesquisadores. [Nature]

E… é exatamente isso o que estão fazendo Mile Gu, Elisabeth Rieper e Vlatko Vedral, da Universidade Nacional de Cingapura… e Karoline Wiesner … (Bristol University).

Embora ‘simuladores computacionais’ já sejam essenciais na pesquisa científica… no desenvolvimento de novos produtos e materiais e até para lidar com o mercado financeiro, sabe-se que os computadores clássicos, não são páreo para simulações da vida real.

Para isso, os pesquisadores desenvolveram uma nova maneira pela qual os computadores baseados na física quântica poderão superar o desempenho dos computadores clássicos – sim, porque, se ainda não conseguimos fazer programas para computadores comuns, sem erros… — nem mesmo sabemos como ou quem irá programar os computadores quânticos.

O trabalho agora divulgado implica que uma simulação da realidade do tipo Matrix exigiria menos memória de um computador quântico do que,   de um computador clássico… – Mas, o melhor está por vir…

emulador-quantico-1

Os simuladores quânticos já estão se aproximando do uso prático – aqui estão ilustrados 3 tipos deles. [Riken Research]

Os resultados deixam uma enorme lacuna, mostrando a possibilidade…de uma teoria mais básica e geral… que a teoria quântica.

E a pesquisa tem ainda outro aspecto para mexer com a imaginação…essa descoberta emerge da ‘consideração fundamental‘ de quanta informação é exigida…na predição  do futuro.

Com um pouco de imaginação, é possível dizer que … numa simulação quântica da realidade – do tipo Matrix…parece haver espaço para algum “Escolhido” entrar na simulação e atuar de modo mais eficiente.

Mas, para isso… é preciso seguir os passos do Arquiteto,                                                             e tentar descobrir a maneira como ele projetou o mundo.

Processos estocásticos

O grupo de cientistas analisou a simulação de ‘processos estocásticos’, onde existem vários resultados possíveis para uma certa conduta, cada qual com uma probabilidade calculável. Muitos fenômenos… de movimentos do mercado de ações – até difusão de gases … podem ser modelados como processos estocásticos. Os detalhes de como simular esses processos, são a chave da questão.

A quantidade mínima de informação necessária para simular determinado processo estocástico…é importante tema de estudo no campo da ‘teoria da complexidade‘… — sendo conhecido como “complexidade estatística“.

Os pesquisadores sabem como calcular a quantidade de informações inerentemente transferidas em qualquer processo estocástico. – Teoricamente, isso define a menor quantidade de informação necessária para simular o processo. Na realidade, porém, simulações clássicas de processos estocásticos, pedem mais armazenamento do que     esses cálculos indicam.

simulador-quantico

No simulador quântico aberto, um íon interage com o sistema quântico e, ao mesmo tempo, estabelece um contato controlado com o ambiente. [Harald Ritsch]

Além da física quântica

O que o grupo agora demonstrou…é que os ‘simuladores quânticos precisam armazenar bem menos informação — do que os clássicos… — e…mesmo os ideais.

Isto porque, as ‘simulações quânticas‘ podem codificar informações sobre as probabilidades em uma ‘superposição’, onde um bit quântico de informação… representa mais … que um bit clássico.

Mas, então veio a surpresa…Os cálculos revelaram que as ‘simulações quânticas’ ainda não são tão eficientes… — quanto poderiam ser… – elas ainda necessitam armazenar mais informações do que o processo parece precisar… – Isto então, sugere que a teoria quântica pode ainda não estar tão “otimizada”… — como assim comentou Vedral:

“O que é fascinante para nós é que ainda há lacunas… Isso faz                           pensar na possibilidade de uma teoria além da física quântica.”

Então…se for assim… – antes de pensar em programar um computador quântico para criar sua própria Matrix, será necessário descobrir essas leis mais fundas da natureza, para que então elas possam ser simuladas num computador…e dê o senso de realidade esperado… Afinal, se não forem compreendidos todos meandros da realidade — não se pode candidatar a Arquiteto. (texto base)  (31/03/2012) **********************************************************************************

primeiro-simulador-quantico

O chip de 4 qubits foi capaz de simular um dos eventos mais intrigantes da mecânica quântica, quando partículas e antipartículas emergem virtualmente “do nada” – do chamado vácuo quântico.[IQOQI/Harald Ritsch]

Simulador quântico vira realidade

Estamos ainda muito longe de compreender totalmente… as partículas elementares — os átomos, e seus constituintes — porque estes se comportam segundo as leis da ‘mecânica quântica’… apresentando comportamentos probabilísticos muito difíceis de monitorar.

Se não dá para monitorar ao vivo…a saída é simulá-las em computador. Contudo, como as partículas não obedecem às leis da ‘física clássica’  –  simular seu comportamento em um computador clássico é tarefa impossível.

A saída então… é construir ‘simuladores quânticos‘, para rodar em computadores quânticos, capazes de reproduzir qualquer comportamento de partículas subatômicas, pois seus componentes básicos funcionam com base no mesmo princípio. A ideia é ótima, e físicos vêm trabalhando nela há algum tempo, aperfeiçoando experimentos… e, passo a passo… aproximando-se de um simulador quântico prático.

Matéria e antimatéria surgem do vácuo

Agora, a primeira simulação de um evento quântico real utilizando um simulador quântico foi executada. – Sua construção, e uso prático foi anunciada por Esteban Martinez… e uma equipe de físicos da Universidade de Innsbruck/Áustria… — em um experimento inédito, e histórico…  —  A simulação mostrou como pares de partículas e antipartículas emergem do vácuo quântico…usando para isso, um processador quântico básico – com apenas 4 qubits.

Como disse a pesquisadora Christine Muschik … “Nós desenvolvemos agora um novo conceito que nos permite simular num computador quântico a criação espontânea de pares elétron-pósitron a partir do vácuo” … (pósitrons são a antimatéria do elétron).

O processador quântico é composto por 4 íons de cálcio presos eletromagneticamente… e controlados por pulsos de laser. Cada par de íons é formado de partícula/antipartícula. E, como explicou Martinez:

“Usamos pulsos de laser ao simular o campo eletromagnético do vácuo… assim pudemos observar os pares criados pela ‘flutuação quântica’ de energia do campo… Observando a fluorescência do íon, sabemos se partículas e antipartículas foram criadas. Modificamos os parâmetros do sistema quântico – e estudamos então o processo dinâmico da criação do par”.

Isto confirma grande parte das expectativas quanto aos simuladores quânticos. Muito embora computadores quânticos vão exigir muitos mais qubits – mesmo os primeiros processadores que já estão sendo construídos…serão, de fato, extremamente úteis nas pesquisas fundamentais da física. Afinal, um sistema simples com apenas 4 bits, já foi capaz de simular um dos eventos mais intrigantes da mecânica quântica…partículas e antipartículas fugazes emergindo virtualmente “do nada” do chamado vácuo quântico.

primeiro-simulador-quantico-2

As partículas (elétrons) e antipartículas (pósitrons) são “sentidas” pelos 4 qubits do simulador, que denunciam sua presença por meio de variações no feixe de laser. [Imagem: Esteban A. Martinez et al.]

Esta demonstração também estabelece uma ponte entre 2 campos da física — um teste     de ‘física atômica‘ foi utilizado…para estudar questões da ‘física de alta energia‘.

Enquanto milhares de físicos trabalham nas teorias de alta complexidade do ‘Modelo Padrão’ e os experimentos propostos são executados em laboratórios grandes e caros,     como o LHC, simulações quânticas podem ser realizadas em laboratórios pequenos –     em experimentos de mesa… E, assim complementou o professor Peter Zoller, um dos pioneiros no campo dos simuladores quânticos:

“Estas 2 abordagens se complementam perfeitamente… — Não podemos substituir os experimentos que são feitos com aceleradores de partículas. Contudo, com o desenvolvimento dos simuladores quânticos poderemos     ser capazes de compreender… — no futuro… melhor essas experiências”.

“Além disso…estudamos novos processos utilizando a simulação quântica… Por exemplo, em nosso experimento também investigamos o entrelaçamento de partículas produzidas durante a criação do par, o que não é possível num acelerador de partículas”completou seu colega Rainer Blatt. 

A equipe diz estar convencida de que os futuros simuladores quânticos, maiores e mais poderosos serão capazes de resolver questões importantes na física de alta energia, que não podem ser resolvidas por métodos convencionais… ou, simplesmente, construindo aceleradores e colisores ainda maiores. ********* (texto base) *****(24/06/2016)***** *********************************************************************************

Simulador quântico mais rápido do mundo

simulador-quantico-rapido (1)

O simulador quântico fez em um bilionésimo de segundo algo que o supercomputador mais rápido não conseguirá fazer nem com todo o tempo do mundo.[Imagem: NINS/IMS]

Uma equipe do Japão e da Alemanha desenvolveu o simulador quântico mais rápido do mundo…capaz de simular a dinâmica de um grande número de átomos interagindo uns com os outros em intervalos de um bilionésimo de segundo.

Grupos de partículas interagentes são chamados “sistemas fortemente correlacionados”. Compreender as propriedades desses sistemas é um dos maiores desafios atuais, já que     a dinâmica de muitos elétrons…ou outras partículas quânticas, interagindo uns com os outros governa uma variedade de importantes fenômenos físicos e químicos, incluindo       a ‘supercondutividade’, o ‘magnetismo’, e as ‘reações químicas’.

No entanto, é extremamente difícil prever as propriedades de um desses sistemas, mesmo usando os supercomputadores mais rápidos já construídos, ou projetados.           O supercomputador ‘Post-K’, por exemplo, que está sendo construído no Japão…e           deverá ficar pronto em 2020, não conseguirá calcular exatamente, nem mesmo a energia… — propriedade mais básica da matéria — quando o nº de partículas no     sistema for superior a 30.

Simulador quântico

Um conceito alternativo… ao uso de computadores clássicos envolve um “simulador quântico” no qual as partículas como átomos ou elétrons, são montadas em um sistema, cujas propriedades são ‘controláveis‘ — e triviais… tais como um condensado de “Bose-Einstein”… ou um “átomo de Rydberg“.

Este sistema é, então… – usado para simular as ‘propriedades’ do sistema fortemente correlacionado que se pretende estudar, cujas propriedades são desconhecidas.

Nobuyuki Takei e seus colegas montaram a partir daí, um simulador quântico capaz de replicar a dinâmica de um sistema fortemente correlacionado de mais de 40 átomos em apenas 1 bilionésimo de segundo – algo que o supercomputador ‘Post-K’ quando estiver pronto, não conseguirá fazer nem “com todo o tempo do mundo”…

A construção desse simulador foi possível usando uma nova abordagem na qual um pulso ultracurto de laser – cada pulso dura apenas 100 bilionésimos de segundo…é usado para controlar um conjunto muito denso de átomos  —  resfriados a uma temperatura próxima do zero absoluto. – Como prova de conceito a equipe simulou o movimento em conjuntos de elétrons, alterando a força das interações entre seus átomos. Como primeira aplicação prática, eles pretendem estudar como os elétrons interagem entre si … para dar origem à supercondutividade.(texto base) p/consulta: Simulador quântico permite pilotar átomos

Publicado em Computação | Marcado com , , | 1 Comentário

Enigmas & Circunstâncias de um ‘Planeta Vermelho’

“Combinaram religião, arte e ciência…pois, na verdade, a ciência não é mais do que a investigação de um milagre inexplicável… e,  a arte… – a interpretação deste milagre.”   (Ray Bradbury – ‘Crônicas Marcianas’)

terra-marte (2)

geologia planetária comparada

Estar cada dia mais perto de Marte, sem precisar de uma nave espacial é, para o geólogo Carlos Roberto Souza Filho, do Instituto  de Geociências da Unicamp — uma das peculiaridades interessantes do seu trabalho atual. 

O docente, alunos do Instituto, e uma numerosa equipe de pesquisadores… nacionais e internacionais…  –  estão há tempos…envolvidos num projeto de  ‘planetologia comparada… estudando ambientes análogos aos planetas Terra e Marte…  —  sob o patrocínio da NASA.

Além do mérito e impacto do trabalho, ele tem revelado várias descobertas científicas, ainda que ‘à distância’… Foi um trabalho desse tipo – que revelou que pode ter havido oceano em Marte… correspondendo a 30% de sua superfície. 

As pesquisas desenvolvidas pelo grupo são fundamentadas em dados…e, métodos de sensoriamento remoto (SR), ramo da ciência que aborda a obtenção de informações sobre determinado alvo através de um dispositivo qualquer (sensor) – sem que haja contato direto com o fenômeno sob investigação.

Em Marte…o SR é utilizado para extração de informações sobre a composição mineralógica de solos e rochas presentes na superfície,               a partir de suas respostas espectrais – a capacidade de refletir ou absorver luz solar em diferentes comprimentos de onda do espectro eletromagnético.

Estas respostas são estudadas analogamente na Terra… — e, vice-versa — na tentativa de compreender o ambiente de formação dos minerais… e, de mapear materiais favoráveis à preservação de bioassinaturas (fósseis), ou até para manutenção de alguma forma de vida.

Os primeiros trabalhos foram conduzidos em uma área da Serra dos Carajás, no Pará, que reúne um conjunto de rochas muito antigas – portadoras de microrganismos fossilizados, cujos registros aparecem em imagens de SR – o que potencializa sua detecção análoga na superfície de Marte...   —   caso um conjunto similar de rochas exista naquele planeta.

Outros 2 ambientes, na Terra, que têm sido abordados como análogos… são lagos salinos e crateras de impacto…

O geólogo explica que… lagos salinos…  envolvem situações extremas – para a sustentação da vida na Terra…porém, a do tipo microbiana é amplamente observada… em lagos situados nas áreas desérticas presentes em quase todos os continentes.

Várias evidências reveladas em Marte nos últimos anos apontam para a ocorrência desse tipo de ambiente durante a sua evolução, onde água líquida acumulada em amplas áreas no planeta teria evaporado, propiciando o acúmulo de minerais hidratados na superfície.

Estudos sobre a origem desses minerais formados na presença de água líquida, justamente considerando a presença de sais e argilas…levaram à hipótese de que, em algum momento, houve uma mudança em escala global no ambiente de Marte – que passou de condições de alteração aquosa em condições “quasi-neutras” (o que favorece a formação de argilas) no período denominado Noachiano… – para um sistema evaporítico ácido (o que favorece a decantação de sais) no período Hesperiano.

Essa hipótese defendida pelos pesquisadores europeus teve grande impacto e aceitação na comunidade internacional. – Perdurou inquestionável por anos… até que uma importante descoberta realizada pela equipe de Carlos Roberto foi publicada em outubro de 2009, na revista Geophysical Research Letters.

O trabalho – liderado pela pesquisadora Alice Baldridge (pós-doutoranda da NASA, e orientanda do professor) – revelou que os lagos salinos da Austrália têm como principal característica uma grande variação de pHs…  entre ácido, neutro e alcalino – separados vertical, e horizontalmente por poucos metros.

Os dados foram suficientes para demonstrar que ambientes aquosos mais diversos e variáveis podem ter coexistido em Marte… — numa associação geográfica de argilas e sais…  —  em analogia ao que se verifica na Terra.

crateras marcianas

Carlos Roberto explica que, 2 minerais marcam as diferenças ambientais mais importantes para os lagos australianos: sulfatos (sais), e filossilicatos (argilas).

E o mais interessante, é que ambos são detectáveis a distância, por sistemas de sensoriamento remoto em satélites, ou aviões — como dimensiona o geólogo:

“Descobrimos…a partir de observações no terreno, e com base em imagens hiperespectrais obtidas a partir de aviões e satélites – que as argilas e sais presentes nos lagos salinos australianos… se formam em ambientes super dinâmicos; e, sua decomposição pode ocorrer de forma quase simultânea.

… Situações similares em Marte foram mapeadas por outros grupos, com base em dados gerados pelos robôs Spirit e Opportunity, e por satélites – mas, nossa interpretação do sistema é o que muda tudo – e, isso terá um impacto significativo para as futuras missões em Marte…

Por exemplo, vista a comum associação de microorganismos com ambientes de lagos salinos ricos em argilas e sais na Terra… – por que não podemos ter microrganismos marcianos equivalentes? Acredito também que, com esse trabalho, abrimos um leque     de opções sobre locais – para onde próximas sondas deverão ser enviadas à Marte.”

Crateras de impacto de meteoritos são ambientes que também têm sido explorados como análogos. O estudo sobre impactos na Terra, e a analogia do processo ocorrido em outros planetas é um tema que passou a ocupar um espaço especial na “agenda de interesses planetários” de Carlos Roberto – desde que publicou seu 1º artigo – na revista ‘Science‘, em maio de 2002, sobre o tema.

Essas pesquisas visam – não somente conhecer os processos, e produtos de impacto na Terra, que têm implicações para a prospecção de minerais, óleo e gás, e aquíferos…mas também, estabelecer comparações com crateras de Marte – e, outros planetas rochosos.

Entre outras consequências positivas, os impactos revelam o substrato rochoso de Marte —  o qual se encontra muitas vezes encoberto por solo e poeira  —  impedindo o acesso à informação sobre sua composição mineralógica… — a partir de sensores remotamente situados… como esclarece o geólogo:

“A investigação das crateras na Terra pode subsidiar a interpretação sobre quais são as rochas transformadas por impacto; e, quais as pouco afetadas pelo choque – sendo, portanto, mais próximas da rocha primordial… – que pode conter análogos terrestres mais interessantes”.

Jipes robóticos

Carlos Roberto sugere que – do ponto de vista dos custos…e dos riscos – é muito melhor enviar numerosas missões não-tripuladas à Marte… — particularmente as que incluam a locação de robôs – em veículos automatizados…no terreno – e, aéreos não-tripulados de baixa altitude… para o conhecimento detalhado do planeta.  —  A exploração através de programas robóticos proporcionará os conhecimentos fundamentais para exploração mais segura e previsível de Marte por humanos.

O problema é que, mesmo Marte tendo uma dimensão cerca de 50% menor que a Terra,  o planeta ainda assim é enorme. – Os robôs, mesmo das gerações futuras, dificilmente terão autonomia suficiente de energia e robustez para cobrir grandes extensões num terreno tão heterogêneo, e mesmo inóspitoNesse caso, considera o professor:

“Será fundamental manter os trabalhos que nós e outros especialistas estamos fazendo quanto ao estudo de ambientes análogos Terra-Marte. Estes estudos nortearão o envio de missões robóticas futuras para locais relevantes que possam mostrar cada vez mais evidências sobre a presença de água líquida passada e presente, e talvez algum tipo de vida naquele planeta”.

Em julho de 1997, a missão Mars Pathfinder obteve sucesso na colocação do pequeno jipe robótico Sojourner na superfície de Marte. Esta foi a primeira sonda terrestre que pousou em solo marciano, desde a era das sondas Vikings 1 e 2 (americanas) e das sondas Mars 2,   e 3 (russas), na década de 70. Embora tenham gerado uma coleção de imagens inéditas da região em torno do pouso, a chance de locomoção desses jipes robóticos era bem limitada.

Mas, foi a partir de 2004, com a chegada dos ‘jipes robóticos’ Spirit e Opportunity… que um salto substancial ocorreu nos estudos sobre Marte.

A missão dos jipes robóticos era prevista para durar, no máximo 6 meses… mas eles continuam se locomovendo pela superfície marciana…   há 6 anos.

Essa foi a 1ª missão com robôs móveis, com possibilidade de locomoção a maiores distâncias. Ambos os jipes robóticos foram dotados de instrumentos de análises microscópicas, e espectrais —     bem como aparelhos para calcular o desgaste abrasivo dos materiais.

Quando os jipes robóticos chegaram a Marte, um deles – o ‘Opportunity‘, acidentalmente caiu dentro de uma cratera. O que parecia um problema, logo se revelou como um achado de sorte. Esta cratera – gerada pelo impacto de um meteorito, apresentava uma formação rochosa…exposta em seu interior – que continha numerosas evidências geológicas de que a rocha observada era de origem sedimentar… – alterada superficialmente, em ambiente evaporítico… – ou seja – 2 processos em que a profusão de água líquida é fundamental. 

“Essa foi uma das principais descobertas, dos últimos tempos… em Ciências Planetárias… Com tantas situações favoráveis para o surgimento de algum tipo de vida em Marte, há uma boa possibilidade de que sejam encontrados indícios num futuro próximo”… comentou Carlos Roberto. 

O futuro da exploração em Marte

Marte é um dos planetas mais perto da Terra  —  em distância… e constituição, compreendendo condições locais ainda “habitáveis”.

Considerando a melhor situação entre órbitas relativas (o que ocorre a cada 25 meses na Terra)  e, com o plano de uso mínimo de combustível…somente cerca de 7 meses são necessários para atingir o planeta.

É um planeta coberto por sedimentos transportados pelo vento, possuindo fina atmosfera saturada em CO2. Algumas regiões são tão frias que o CO2 condensa-se sobre a superfície. Durante muito tempo, sustentou-se uma crença de que Marte seria um planeta “desértico e morto”. Entretanto, Marte não foi, e não é o que parece. — Quase 40 anos de pesquisas, baseadas em sensores imageadores e não-imageadores revelaram que o planeta pode ter sido similar a alguns ambientes conhecidos na Terra, com água líquida correndo em sua superfície.

Tudo indica que Marte teve uma história muito parecida com a Terra até determinado ponto de sua evolução geológica, incluindo a presença de amplas redes de água (talvez oceanos) em sua superfície… É um planeta rochoso com atmosfera, hidrosfera e clima.

Apresenta registros de condições, e materiais…a partir dos quais a vida poderia ter surgido (ou ainda existir) naquele planeta, em analogia à Terra. Portanto, entender quando e o que aconteceu, para efetivamente explicar a sua distinta condição atual em relação à Terra — é um desafio que pode trazer repercussões relevantes para o futuro.

O registro da presença – no passado – de água líquida… em abundancia no planeta, foi destacada  –  pela 1ª vez  –  a partir de imagens do satélite Mars Global Surveyor, que proporcionaram a visão de formas de relevo na superfície marciana …  —  como grandes canais e ravinas  —  os quais… só poderiam ter sido formados – por erosão, em fluxos de água.

Com a chegada ao solo marciano dos jipes robóticos Spirit e Opportunity… em 2004, evidências incontestáveis da presença de água líquida no passado de Marte foram reveladas…incluindo a deteção de vários tipos de argilasais… e, recentemente, carbonatos.

Marte dá indícios de ter – como a Terra – cerca de 4,5 bilhões de anos, período quando se formou boa parte dos planetas do sistema solar. Na época da Guerra Fria – na corrida espacial entre americanos e russos, uma série de sondas, de ambas as partes, foram enviadas a Marte…e – efetivamente – pelo menos 3  delas pousaram em sua superfície.

Paralelamente, as missões Viking compreenderam imageadores orbitais que enviaram as primeiras imagens mais detalhadas de um planeta distante…Hoje, a tecnologia envolvida na exploração é muito maior…

Além da maior densidade de programas em Marte, os jipes robóticos e sondas estáticas, como a Phoenix (atualmente em operação no pólo norte de Marte)  —  são verdadeiros laboratórios ambulantes e, segundo Carlos Roberto: “Novidades são produzidas quase diariamente em Marte com tantas missões em andamento”.

As próximas missões envolverão jipes robóticos e sondas ainda mais completas e complexas. O Mars Science Laboratory – jipe robótico que deve iniciar suas operações em 2011, incluirá instrumentos específicos para a detecção de matéria   orgânica na superfície marciana.

As avaliações estão se tornando cada vez mais sofisticadas, revelando novos dados sobre Marte, sua mineralogia, e história evolutiva geológica, mas sem perder um dos objetivos principais de todas as missões – encontrar evidências de algum tipo de vida no planeta vermelho… E, isso tem impacto em várias esferas – conforme concluiu Carlos Roberto:

“Se conseguirmos comprovar a existência de vida em qualquer outro planeta — esta será a 2ª evidência conhecida na história —  …  e isso, modificará definitivamente a probabilidade da existência de vida no Universo… Mas,  por enquanto… nós  –  seres vivos que habitamos a   Terra, somos a única evidência conhecida.” — ‘texto original’ (2009)

P.S.  O roverCuriosity, como parte da missãoMars Science Laboratory‘   foi lançado em novembro de 2011…chegando à Marte em agosto de 2012. *******************[texto complementar] *****************************

Meteorito contém minerais da pré-história de Marte

meteorito-marte-1

O pequeno meteorito, de 84 gramas, contém minerais com idades que vão de 2 a 4 bilhões de anos. [Imagem: Luc Labenne]

Uma minúscula rocha — encontrada no deserto do Saara parece ser o meteorito de Marte mais antigo já descoberto.

Pesquisas anteriores já sugeriam que a rocha tinha cerca de 2 bilhões de anos, mas…novas análises indicam minerais       em seu interior com mais de 4 bilhões       de anos.

O meteorito negro e brilhante, pesando apenas 89 gramas,,, recebeu o nome de “Beleza Negra” – mas… oficialmente, é NWA 7533 (Northwest Africa 7533).

Com essa idade, pelo menos uma parte da rocha teria se formado ainda na infância de Marte…Como assim afirmou o autor da pesquisa… Munir Humayan, da Universidade Estadual da Flórida, EUA:

 “Esta rocha nos conta, sobre uma das épocas                                                          mais importantes da (pré) história de Marte”.

Já foram encontrados cerca de 100 meteoritos marcianos na Terra. A grande maioria deles é bem mais jovem, datados entre 150 milhões, e 600 milhões de anos. Eles teriam caído na Terra depois de um asteroide ou cometa ter-se chocado contra Marte… – desprendendo as rochas, que viajaram pelo espaço até acabarem no nosso planeta.

O “Beleza Negra” é formada por cinco fragmentos. Um deles, o NWA 7034, foi examinado no passado e sua idade foi calculada em 2 bilhões de anos. Porém… pesquisa mais recente descobriu que outro pedaço, o NWA 7533, tem 4,4 bilhões de anos…Se isto estiver correto, essa rocha pode ter-se formado quando Marte tinha apenas 100 milhões de anos de idade.

Foi o professor Carl Agee, da Universidade do Novo México quem na análise anterior concluiu que a rocha NWA 7034 tinha 2 bilhões de anos de idade. Mas agora com sua equipe também encontrando partes da rocha com cerca de 4,4 bilhões de anos … – ele afirma que a diferença entre idades das rochas pode ter ocorrido…porque o meteorito     é na verdade, uma mistura de componentes… – “Com toda certeza há um componente antigo na rocha…mas acreditamos que pode haver uma mistura de eras”. (texto base)  **********************************************************************************

Brasileiros desenvolvem modelo da formação de Marte  (junho/2014)                     Embora ainda não saibam quase nada em relação à origem e formação da Lua,                 astrônomos dão os 1ºs passos significativos… para entender a origem de Marte. 

marte

Os modelos de formação dos planetas rochosos do Sistema Solar elaborados nas últimas 2 décadas, têm sido bem-sucedidos na explicação da origem de Vênus… e da Terra — com tamanhos similares, e de Mercúrio, com apenas 5% da massa da Terra. – No entanto, simulações computacionais…de alta resolução  —  ainda não explicaram como Marte se formou, nem por que tem apenas 10% da massa da Terra.

Segundo pesquisadores, a questão é intrigante, já que os 4 planetas são constituídos pelos mesmos embriões planetários…  –  corpos celestes com dimensões similares aos planetas atuais, que se fundiram ao longo de dezenas de milhões de anos.

A novidade é que o tamanho de Marte pode estar relacionado à densidade da nebulosa protossolar  –  a nuvem de gás e poeira que deu origem ao Sistema Solar  –  na região orbital onde se formaria o planeta vermelho… Essa ideia está sendo defendida por uma equipe internacional de astrônomos – liderada pelo Grupo de Planetologia & Dinâmica Orbital da Universidade Estadual Paulista (UNESP), no campus de Guaratinguetá…  E, assim comentou Othon Winter, coordenador do projeto:

“A maioria das simulações de formação dos planetas terrestres do Sistema Solar não consegue gerar um objeto do tamanho, e na órbita de Marte…que está a 1,5 unidades astronômicas [1ua… equivalente a aproximadamente 150 milhões de quilômetros] de distância do Sol. Quando a simulação computacional termina de rodar… aparece na       tela um planeta do tamanho da Terra – seu vizinho próximo”.

Há também um modelo alternativo – chamado Grand Tack (vide figura abaixo), mas que envolve idas e vindas orbitais de Júpiter – que parecem muito fora da realidade. Apesar de um modelo válido, é muito questionável – por ser improvável que tenha assim acontecido.

teorias-formacao-marte

No Grand Tack (direita), Júpiter precisaria ter “varrido” o material que falta em Marte. Na nova teoria (esquerda) o processo de “depleção” de forma mais suave – explica a menor massa de Marte. [Imagem: P. Huey/Science]

Tendo em vista a necessidade de se desenvolver um modelo alternativo ao Grand Tack, a equipe liderada por pesquisadores brasileiros…realizou uma série de simulações do fluxo de gás e poeira dentro da nebulosa protossolar durante a sua formação.

As simulações sugerem que o material fluiu em direção ao Sol, movendo-se a velocidades diversas, em diferentes distâncias da estrela…Na região entre 1 e 3 UA do Sol, a nebulosa protossolar pode ter sofrido perda, ou redução (depleção) de matéria equivalente a entre 50% e 75% de sua densidade.

A perda desse volume de “blocos de construção planetários” pela nebulosa protossolar nessa região – próxima da órbita de Marte – teria causado a redução da massa final de Marte, e o crescimento da Terra e de Vênus, supõe o modelo…E, Winter assim explica:

“Estudamos diversos parâmetros, e concluímos que, se houve uma depleção de matéria entre 50% e 75% da nebulosa protossolar…na região entre 1 e 3 UA, há mais de 50% de chance de ter sido formado um planeta – com massa similar, na atual órbita de Marte, além da Terra, Vênus, e alguns poucos objetos no cinturão de asteroides. – O modelo é bem completo, pois abrange não só o problema da formação de Marte, mas mantém e consegue gerar os outros planetas terrestres…  –  com suas massas…  e órbitas atuais”.

Na avaliação de Winter — o novo modelo preencheu uma lacuna, que havia no modelo de formação… — do Sistema Solar, indicando que o perfil de  ‘densidade de massa‘ da nuvem protossolar não era uniforme…e sofreu depleções. Esse dado afetaria estudos da formação do… – “cinturão de asteroides” … – por exemplo.

O modelo também poderá contribuir em pesquisas na área da astrobiologia – interface entre astronomia, biologia, química, geologia, e ciências atmosféricas… entre outras  – relacionadas a objetos vindos de Marte rumo a Terra; bem como… estudos de planetas extrassolares, ou exoplanetas.

“Os objetos e planetas extrassolares já descobertos atingiram a casa do milhar, e têm uma distribuição muito variada e diferente dos corpos do Sistema Solar. – O modelo que desenvolvemos pode auxiliar a entender como eles foram formados”, concluiu Winter…‘texto base’ (junho/2014)

O sonho (possível) de tornar Marte habitável  – (09/mar/2017)

terraformação-marte

Qualquer semelhança com a Terra é mera coincidência: à esquerda é como os cientistas imaginam que Marte era no passado; à direita, como ele é hoje.[NASA]

Seus próprios criadores reconhecem se tratar de uma estratégia parecida com uma obra de ‘ficção científica‘…mas também acreditam já ser possível sonhar com esse efeito… de….. — ‘terraformação‘.

Cientistas da Nasa dizem que Marte já poderia ser habitável…se fosse criada artificialmente algo que a Terra ainda tem… campo magnético protetor.

Esse escudo é essencial para evitar o impacto da radiação, e ventos solares, que assolam continuamente a atmosfera dos planetas. E, de acordo com pesquisadores da Divisão de Ciência Planetária…é possível gerar um campo parecido ao redor do ‘Planeta Vermelho’.

Hoje, Marte é um planeta dominado pelos extremos. A falta de atmosfera, por exemplo, faz com que a temperatura média seja de -63°C… – mas com variações que vão de 35°C durante o dia até -140°C durante a noite…Mas, Marte era muito diferente no passado…

Dados das missões Maven, da Nasa, e Mars Express, da ESA (agência espacial europeia) sugerem que havia um campo magnético natural. – Essa proteção sumiu há cerca de 4,2 bilhões de anos eventualmente pelo resfriamento do núcleo do planeta. Como resultado,   a atmosfera marciana desapareceu gradualmente ao longo do tempo, varrida pelo vento solar. (Na Terra, a magnetosfera impede essa varredura cósmica.)

O que os pesquisadores estão propondo agora é recuperar a atmosfera marciana usando tecnologia para criar uma magnetosfera artificial, e restaurar, em parte, o planeta Marte do passado, com sua atmosfera, temperaturas mais altas, e eventualmente, até com parte de seus antigos oceanos…como disse Jim Green, da divisão de ciência planetária da Nasa.

“No futuro, é bem possível que ela (a tecnologia) possa gerar                             um campo magnético de 1 a 2 Teslas … contra o vento solar”.

Green e seus colegas propõem a instalação de um dipolo magnético… na forma de 2 satélites, acompanhando o planeta em sua órbita, produzindo um campo magnético dipolar (2 polos magnéticos opostos)…protegendo-o.

O cientista lembra que estão em andamento projetos para criar magnetosferas artificiais em miniatura para proteger tripulantes de naves espaciais e mesmo escudos magnéticos para proteger naves na reentrada. – De acordo com as simulações, um campo magnético implantado no ponto de Lagrange L1 – ponto de equilíbrio gravitacional entre Marte e o Sol, ampliaria a espessura da atmosfera … elevando em 4°C sua temperatura superficial.

O aumento na temperatura do planeta é bem menor, daquele que os cientistas esperavam… mas é possível que este efeito possa se multiplicar… — Isso porque…com o aquecimento,      o dióxido de carbono no polo norte do planeta derreteria… criando um efeito estufa, que aqueceria ainda mais … até a temperaturas compatíveis à  presença de água no estado líquido…Como disse Green:

“Uma atmosfera marciana com maior temperatura e pressão…permitiria a existência de água em estado líquido na superfície suficiente para melhorar a exploração humana na década de 2040”.

Para ele… se fosse criado um campo magnético artificial – as novas condições em Marte permitiriam que os pesquisadores e exploradores estudassem o planeta com muito mais detalhes… Se isso for alcançado, a colonização de Marte não estará muito longe. Porém,   os planos para colocar o homem em Marte em 2039… ainda estão parados. (texto base)

O Paradoxo marciano (22/03/2017)

Alguma coisa não está batendo… Marte tem calotas de gelo de água nos polos e há marcas no solo indicando que a água fluiu em rios e lagos, há bilhões de anos.

Recentemente, a ‘ESA’…agência espacial europeia apresentou…’estudo detalhado’ sobre uma “mega-inundação em Marte“. De fato…temos alguma compreensão de como a água se comporta na Terra, e não há razão pra pensar que leis físicas ou geológicas  sejam diferentes em Marte… – Contudo, mais do que não encontrar água hoje, no planeta vermelho…ninguém consegue explicar, sequer, como a água poderia ter existido em forma líquida em Marte, mesmo no passado.

Este mistério é conhecido como o “Paradoxo de Marte” – os dados e as teorias mostram que parece ter havido água lá, mas os dados e as teorias também indicam que nunca houve condições de ter havido água lá… Se, e quando esse paradoxo for resolvido, provavelmente será necessário jogar fora um monte de livros didáticos.

Sinais de água sem água

O atual terreno frio e rochoso de Marte…seco e coberto de poeira, apresenta minerais de argila… e ‘sedimentos’ que devem ter sido depositados… — por lagos e rios, de 3,5…a 4 bilhões de anos atrás.

O problema começa … quando se olha para as condições em Marte naquele tempo… – Ainda hoje, a fina atmosfera do planeta, e a distância do Sol…mantêm-no a uma temperatura média em torno dos -60° C, frio o suficiente para água congelada em permanentes depósitos polares.

Há bilhões de anos, contudo, quando a água deveria estar fluindo pela superfície, o Sol era mais jovem e mais frio… significando que Marte também era ainda mais frio do que é hoje. Assim, dado que o ponto de congelamento da água é o mesmo aqui e lá…como Marte pode ter sido algum dia quente o suficiente para que a “água líquida” fluísse em sua superfície e formasse o relevo e as rochas que encontramos lá hoje?…

Efeito estufa improvável

Uma hipótese plausível seria que os gases de efeito estufa prenderiam o calor como na Terra…O problema é que nenhuma quantidade de CO2… poderia aquecer Marte, o suficiente, para manter a água líquida. Mesmo com uma “atmosfera pura” de CO2, sua temperatura só subiria… – até próximo dos -33° C.

Mas, mesmo este cenário hipotético é impensável… – Thomas Bristow e colegas da ‘NASA calcularam…com base em sedimentos formados há 3,5 bilhões de anos…que a atmosfera marciana naquela época continha apenas quantidades-traço de dióxido de carbono.

Se adicionássemos um pouco de metano ou hidrogênio – também não daria certo, pois com essa escassez de CO2, não importa quanto hidrogênio ou metano, ou outros gases sejam adicionados à equação, seria preciso uma atmosfera enormemente espessa para blindar esses gases de ‘efeito estufa’ sensíveis contra a radiação solar.

Bristow e seus colegas apresentam agora uma outra alternativa… – “água salgada”, o suficiente para permanecer líquida… – mesmo a temperaturas muito abaixo de 0º C. Nesse caso, a atmosfera não precisaria de muito CO2…Porém, esta hipótese também       não parece suficientemente plausível. – Uma água ‘ultrassalina’ pode até fluir… – na Terra, pelo menos… – mas o frio de Marte não permitiria chuvas suficientes… – para explicar a água parada gravada no arenito e xisto de Marte…durante milhões de anos.

moleculas-da-agua

Mistérios da água

Então, será que existe algum mecanismo planetário ainda desconhecido? Uma mistura de gases de efeito estufa que ainda não identificamos?…

Talvez o verdadeiro problema seja a nossa compreensão da própria água. Sabemos que a água tem mais de 70 anomalias, muitas delas incomodando algumas das nossas bem-amadas leis da física — como quando a água mais fria flui para o topo de um copo, por exemplo.

Seja qual for a resposta – estamos ficando sem soluções óbvias para o Paradoxo de Marte. Quando ele for resolvido… talvez nos vejamos em territórios mais estranhos e desafiadores que os de Marte. (texto base)

Publicado em astronomia | Marcado com , | 1 Comentário