Lembranças Eternas de um Futuro Inacabado

O conhecimento atual acerca da Natureza vem demonstrando ser o universo uma vasta e imensa rede informacional quantum-holográfica, harmonicamente organizada em todos os níveis da complexidade cósmica. Esta interconectividade universal não é limitada pelo espaçotempo… se constituindo num ‘campo de informação não-local’ que a tudo permeia, e nos interliga instantaneamente a todo o cosmos.

David Bohm postulou … em sua teoria quântico-holográfica que o universo possui características não-locais de indivisibilidade as quais podem ser observadas em sistemas – tão diferentes entre si, quanto a distribuição de matéria no Universo, as redes neurais, os padrões climáticos, a formação das galáxias… – a frequência dos terremotos… a radiação cósmica de fundo, em microondas… os sistemas sociais e econômicos, fluxo de trânsito, bolsa de valores… — e… até mesmo, na internet.

Padrões harmônicos“… – geometricamente fragmentados e ‘autossemelhantes’…subjazem a todos estes fenômenos…se repetindo em escalas cada vez maiores e menores… em todo universo.

Foi o matemático Benoit Mandelbrot – ao estudar sistemas aparentemente sem relação entre si…como as formas das linhas litorâneas, e flutuações dos preços nos mercados de ações… quem descobriu essas “relações harmônicas holográficas”… a quem Mandelbrot denominou ‘fractais‘. – Dava-se início assim…ao novo campo da ‘geometria fractal‘, mostrando a profunda e harmônica ordem holográfica fractal, permeando todo cosmos.

Porém, sob o aparente caos dos “sistemas complexos“…existem harmônicos de natureza holográfica que já haviam sido intuídos e demonstrados…No século XIII, por exemplo, o matemático italiano Fibonacci demonstrou a existência de uma relação harmônica entre   a soma de cada numero pelo anterior…na sequência que passou a ser conhecida pelo seu nome…(0,1,1,2,3,5,8,13,21,34,55,89..).

vitru

Esta relação universal, encontrada por toda a natureza; nas espirais das conchas… nos redemoinhos, na forma como os galhos das árvores surgem nos troncos, nos embriões e nas galáxias…é chamada “razão áurea”… ou “proporção áurea”, nome cunhado por Fra Luca Pacioli, no século XV … que a ensinou a Leonardo da Vinci — que a utilizou no “Homem Vitruviano“. – Revelando esta relação… nas proporções da ‘anatomia humana’ … Fra Luca então afirmava…  –  “ser a proporção áurea, assim como Deus… sempre semelhante   a si mesma”.

Na matemática a proporção Phi (1,61803) é definida como um número transcendental, sendo considerada uma constante universal de crescimento e evolução da natureza. Os harmônicos de Φ são um exemplo dosprincípios holográficossubjacentes a todo Cosmos. Em todos os sistemas da natureza constatamos esta invariância em relação à escala, e padrões harmônicos geométrico-fractais subjacentes.

Sistemas holográficos                                                                                                   Fractais são a assinatura dos “padrões holográficos” — presentes em todos                         os níveis de organização…revelando um universo harmônico e holográfico,                   pleno de autossimilaridades, em todas escalas de complexidade do cosmos. 

Tais sistemas são geradores de imagens tridimensionais, onde uma ‘imagem virtual‘, ou ‘holograma’ é criada quando…por exemplo, a luz de um laser incide sobre certo objeto, e este o reflete sobre uma ‘placa receptora‘… Se sobre essa placa incidir um segundo laser, produzindo uma mistura das ondas do 1º laser… com as do 2º, o padrão de interferência     de ondas resultante… armazenará a informação acerca da forma e volume do objeto — e, será refletido pela placa no espaço… — gerando uma “imagem tridimensional” do objeto.

Nos sistemas holográficos cada parte do sistema contém a informação do todo, e portanto, a informação completa sobre o objeto… Se quebrarmos uma placa holográfico em pedaços, cada um desses pedaços refletirá no espaço, a imagem tridimensional do objeto… — assim mostrando que o todo está nas partes… onde cada parte representa um pedaço desse todo.

Esta propriedade fundamental dos sistemas holográficos, foi descrita por Dennis Gabor, ganhador do Prêmio Nobel de Física (1971), com uma descrição matemática holográfica, cujo avanço tecnológico se deu – a partir dos anos 60. – Metaforicamente falando…“um cosmos holográfico simboliza uma ‘infinita interrelação’ entre todas suas partes…com cada uma delas definindo todas as outras. Pode-se assim, considerar o universo como um organismo ‘auto-referente’ e ‘auto-sustentável’. Nesta concepção… é também ‘não-teleológico’ – pois…não existe um início do tempo, nem um conceito de criador, muito menos questionamento sobre a razão de tudo… O universo concebido sem hierarquia, não tem centro, ou talvez supondo sua existência — este centro esteja em toda parte”.

‘Ruptura espontânea de simetria’                                                                  instabilidade’ (caos) -> ‘probabilidade’ -> ‘irreversibilidade’

A altas temperaturas, um sistema magnético se mostra ‘paramagnético’, onde pequenos ímãs se orientam ao acaso. A baixas temperaturas porém, temos ‘ferromagnetos‘… com todos estes “micro-ímãs”…privilegiando uma única direção… – em uma menor simetria das equações iniciais. – Na física quântica… partículas e antipartículas desempenham o mesmo papel, com um início aleatório (caótico) em elevada temperatura e uma ‘quebra   de simetria’, com a prevalência de partículas no nosso universo atual — em um sistema caótico, com leis probabilísticas irreversíveis.

As divergências (infinitos) de Poincaré são eliminadas introduzindo-se as propriedades dissipativas temporais (autovalores complexos) tornando suas equações integráveis, ao nível das funções de distribuição de probabilidades… – Quanto maior a ‘complexidade’, maior a irreversibilidade (seta do tempo).

A “atualização das potencialidades” portanto, não depende mais do observador, mas sim da instabilidade do sistema… — O “colapso da função de onda” é causado pelo efeito das “ressonâncias de Poincaré” no sistema físico, tornando assim, a descrição probabilística irredutível, e levando o sistema, de quântico a clássico. (Ilya Prigogine, “As leis do Caos”) **********************************************************************************

Um Universo de Informação e Entropia                                                                             O estado inicial do universo antes do Big Bang era um estado informacional             extremamente desordenado…a partir do qual…toda a existência se originou.

Holograma é a forma mais compacta conhecida na Natureza de se armazenar informação, permitindo o desenvolvimento de uma extraordinária ‘memória holográfica’…dependente da ‘entropia’…propriedade fundamental, descrita por Boltzmann, e definida à época como a unidade que mede o grau de desordem de um sistema.

Quanto maior a entropia, maior o grau de desordem do sistema… – e inversamente, quanto menor… maior a sua organização.

A entropia em nosso universo cosmológico vem crescendo desde o Big Bang por meio de uma “seta do tempo”…direcionada do passado ao futuro… – A tendência assim, é concluir que o início do universo ocorreu a partir de um estado de ‘entropia mínima’… ou informação máxima.

Aí…poderíamos então perguntar – como se estruturaram os sistemas biológicos e a consciência que evoluem sempre para formas mais ordenadas e complexas de informação, a partir de uma célula embrionária?… – A evolução dos sistemas biológicos em direção a uma complexificação informacional cada vez maior… ocorre por estes sistemas se desenvolverem em ‘bolsões de ordem’… – ricos em átomos de carbono, nitrogênio e oxigênio … em pequenos planetas situados a certa distância de suas estrelas, que permitam temperaturas amenas… – para assim, induzir ao aparecimento de moléculas d’água.

Teoria (clássica) da informação

Em 1948, Claude Shannon publicou “A Mathematical Theory of Communication”, importante artigo científico enfocando o problema de qual é a melhor forma para         codificar a informação que um emissor queira transmitir para um receptor. Neste       artigo – trabalhando inclusive, com as ferramentas teóricas utilizadas por Wiener,             na origem da teoria das comunicações, Shannon propôs com sucesso uma medida             de incerteza (entropia da informação) em uma mensagem.

Já em 1949… – em co-autoria com o também matemático Warren Weaver… – publicou o livro Teoria Matemática da Comunicação (The Mathematical Theory of Communication), contendo reimpressões do seu artigo científico de 1948 de forma acessível também a não-especialistas – popularizando assim os seus próprios conceitos.

Posteriormente, Leon Brillouin (1959), a partir de trabalhos de Leó Szilard, desenvolveu um célebre teorema, que demonstra a equivalência entre informação (ordem) e entropia negativa… que também representa ordem. O grau de ordem – portanto… se relaciona ao conteúdo de ‘informação‘ do sistema. Norbert Wiener havia colocado esta identidade na base conceitual da Cibernética, afirmando que ‘informação representa entropia negativa’,   e profeticamente enfatizando que “informação é informação, não é matéria nem energia”.

Até que, ao final do século XX…o filósofo da mente David Chalmers, retomando as ideias do filósofo e antropólogo Gregory Bateson, desenvolve os conceitos antagônicos de “hard problem” e “easy problem”…relativos à questão da “consciência” – afirmando ser este…o caminho natural para a conexão entre ‘sistemas físicos‘ e ‘estados informacionais‘.

Na “Teoria clássica da Informação” de Shannon, as definições de ordem e informação são probabilísticas, e dependem do conceito de ‘entropia’…numa ‘homogeneização estatística’. Como consequência, deixam ausente, ou bem reduzida a imensa riqueza das significações naturais (que não são de natureza estatística). Nessa teoria, organização (ordem expressa pela quantidade de informação do sistema, representada pela função H de Shannon)…é   a medida da informação que nos falta…ou a incerteza sobre o sistema. – Além do que…

A noção de ‘informação’ implica em uma certa ambiguidade; podendo significar a capacidade em bits de um ‘sistema físico’ (como na teoria da informação clássica…Shannon) e/ou o conteúdo semântico (significado) conduzido pelos bits durante uma comunicação. 

A Complexidade na Informação                                                                                                “a entropia não deve ser compreendida como uma medida da desordem, mas muito mais como a medida da complexidade de uma dialética, entre informação e ordem molecular”.

Ao relacionar a ambiguidade e incerteza da informaçãoà variedade e não-homogeneidade do sistema, Henri Atlan conseguiu resolver certos paradoxos lógicos da auto-organização e complexidade, ampliando o alcance da “teoria de Shannon”… – Ele definiu a ‘organização‘ de modo quantitativamente formal, mostrando que uma ordem do sistema, corresponde a um vínculo entre o conteúdo informacional máximo (variedade máxima), e a redundância máxima do sistema.

Esta “ambiguidade” também pode ser descrita como uma “função do ruído” (no sentido de desordem), ou mesmo do tempo … considerando seus efeitos como relacionados a fatores aleatórios acumulados pela ação do ambiente. 

Esta ambiguidade…característica dos sistemas auto-organizadores biológicos, pode se manifestar de forma negativa (‘ambiguidade-destrutiva’) com o significado clássico de efeito desorganizador… ou de forma positiva (‘ambiguidade produtora de autonomia’)    que aumenta a autonomia relativa de uma parte do sistema em relação às outras…isto         é… diminui a redundância geral do sistema, ao aumentar seu conteúdo informacional.

Além de ser entendida como uma medida da desordem, e da quantidade de informação, a entropia pode também ser descrita, como a probabilidade de um sistema se encontrar em um “estado energético” … desde o nível quântico de Planck … até ao nível cosmológico de todo universo. Levando-se em conta uma mesma equação holográfica descrevendo todos estes modelos, demonstra-se ser informação, mais fundamental do que a própria energia.

A ‘teoria auto-organizadora‘ de Atlan foi desenvolvida para explicar a complexidade dos sistemas biológicos. Erich Jantsch, estudando o universo, provou que a “evolução cósmica” é também um processo auto-organizador, onde a microevolução dos sistemas individuais… co-evolui para estruturas macrosistêmicas coletivas mais organizadas.

É importante ainda lembrar, que as probabilidades descritivas de um sistema…nunca são aleatórias, como é frequente, e erroneamente interpretado – demonstrando sempre, uma quantidade harmônica de informação…seja a nível quântico ou cosmológico. – Todo este processo auto-organizador representa, portanto, uma expressão universal de uma maior aquisição de variedade, ou conteúdo informacional, devido à redução da redundância na totalidade do sistema.

A equivalência…identidade entre ordem, entropia, e informação… – é a “trilha”, que nos permitirá fundamentar e compreender todo o fluxo irredutível e natural de transmissão de ordem e informação quântico-holográfica a se auto-organizar de forma significativa e inteligente no universo, se manifestando de uma forma autoconsciente – na vida…nas sociedades, e organizações.

Auto-organização, Consciência & Informação                                                              A conceituação mais abrangente dos conceitos de ordem, organização, e informação é essencial para o desenvolvimento de um modelo informacional quantum-holográfico e auto-organizador do universo e da consciência’. 

Para levarmos essa ‘aventura’ do conhecimento adiante, devemos ultrapassar a “visão clássica” de informação, elaborada nos anos 40 do século XX… por Shannon, com sua ‘Teoria da Informação’; que na verdade se trata de uma ‘teoria das comunicações’, criada para melhorar a transmissão nas linhas telefônicas do cabo transatlântico.

Shannon demonstrou que a ‘quantidade máxima de informação‘ em um sistema pode ser descrita pela mesma equação de Boltzmann que descreve a ‘entropia energética’. Brillouin então…a completou com o ‘teorema de equivalência’ entre informação e entropia negativa. Esta equação, que descreve tanto a entropia energética de Boltzmann, como a quantidade de informação de Shannon…é logarítmica (‘matematicamente’…harmônica e holográfica).

Relações holográficas são expressas de modo logarítmico, e possuem ‘leis de potência’, que são invariantes em relação à escala. Um exemplo muito conhecido é a Escala Richter de terremotos em que a potência de energia que estes fenômenos naturais liberam…é proporcional à uma frequência.

Segundo William Seager (1995)… utilizando como fundamento…a capacidade em bits do sistema, a teoria de Shannon é incapaz de fornecer uma conexão adequada à uma ciência da Informação Quântica. – Consciência, auto-organização e informação…se conectam ao nível da significação semântica, e não ao nível da capacidade em bits… – e, como a teoria clássica se situa a nível da capacidade em bits, seria incapaz de se conectar à consciência. Dessa forma…seria preciso uma visão mais radical da informação – para uma percepção mais fundamental da natureza da consciência.

Seager ainda nos faz notar que no clássico experimento quântico das ‘2 fendas’, o que está em jogo não é a capacidade em bits, mas a significatividade da correlação semântica entre sistemas físicos distintos, informacionalmente carregados de modo não-causal. Esta visão tem sustentação nos atuais desenvolvimentos de Wojciech Zurek – na chamada “física da informação“, com o conceito de informação não-local, e unidade ‘observador-processo de observação-observado’. Zureck propõe que a “entropia física” é uma combinação dessas 2 magnitudes, que se compensam uma à outra:

1- a ignorância do observador medida pela entropia estatística de Shannon;

2- o grau de desordem do sistema observado medido pela entropia algorítmica…que é o menor número de bits necessário para registrá-la na memória. Durante a mensuração a ignorância do observador é reduzida como resultado do aumento do numero de bits em sua memória, permanecendo contudo constante a soma destas 2 magnitudes, ou seja, a entropia física.

Teoria Holo-informational da Consciência                                                 “Consciência é um aspecto irredutível do universo, assim como espaço, tempo e matéria” 

holografia

David Bohm argumentou que o universo unificado, possui uma natureza holográfica – em uma totalidade não-local indivisível.

John Wheeler… compreendendo como a informação é importante neste contexto…descreveu então um elegante modelo de universo informacional-participativo … que é o mais brilhante e fundamental modelo de interação cérebro/mente & cosmos descrito na ciência da consciência. Com seu famoso conceito “it from bit” conseguiu unir a teoria da informação quântica… – à consciência… – e, à física.

Wheeler desenvolveu seu modelo “it from bitestudando as “teorias unificadas” de gravidade quântica nos ‘buracos negros’. Dessa maneira, tal como proposto por Tom Stonier, e David Chalmers… ele considera a “informação quântica” como sendo mais fundamental que energia, matéria, e ‘espaçotempo’… – De acordo com suas palavras:

“Cada coisa…cada partícula…cada campo de força…mesmo o continuum espaço-tempo deriva sua função…sua verdadeira existência… às questões de escolhas binárias… “sim-ou-não”, ou seja… bits. – “It from bit”… simboliza a ideia de que cada item do mundo físico tem… bem lá no fundo – uma fonte de explicação imaterial… – que faz com que a chamada “realidade” surja, em última análise, da colocação da questão ‘sim/não’, e do registro de respostas detectadas por um aparelho. Em suma…que todas ‘coisas físicas’, na realidade… – são ‘informações teóricas’… – e que este é um universo participativo”.

Nesta visão “informacional quântico-holográfica não-local do universo”  —  o observador permanece como parte do sistema – enquanto o universo se transforma … porque a mente desse observador desencadeia uma transferência de informação, a nível subatômico… cujo resultado é uma Lei de Conservação da Informação, tão ou mais fundamental do que a Lei de Conservação da Energia.

Podemos dizer então, como afirma Tom Stonier (1993) que “Informação é o Princípio Organizacional Cósmico… com ‘status’ igual à matéria e energia”.

Chalmers define consciência (“consciousness”)… – como… “um aspecto irredutível do universo, assim como espaço, tempo e massa”; sendo a informação…“sua propriedade intrínseca não-local, capaz de gerar ordem, auto-organização e complexidade”… Em um universo gerador de vida e consciência…podemos entender melhor aspectos paradoxais   da consciência pela dualidade energia/informação; estados quânticos/consciência … tal como no início do século XX, físicos modernos conceberam a dualidade ‘onda/partícula’.

O universo concebido como informação quântica não-local nos revela uma visão muito mais abrangente da natureza…do que a clássica concepção científica cartesiana. Por sua natureza quantum-holística – capaz de integrar mente/universo… um cosmos quântico-holográfico não-local é interconectado continuamente – em cada ato consciente … auto-organizando (e criando) nós mesmos e o próprio cosmos, de um modo “autoconsciente”.

A “Teoria Holo-informational da Consciência” propõe uma natureza informacional quântico-holográfica para a consciência… como uma propriedade intrínseca, irredutível, e não-local do universo… capaz             de gerar ordem, auto-organização…e complexidade.

No momento mesmo de sua geração, já se manifesta como informação não-local, sendo uma dimensão primária tão básica… e incorporada à organização do universo, quanto a energia, a matéria, e o espaço-tempo. – A teoria fundamenta-se na física da informação quântica, na física holográfica, e ‘neurociência‘ da consciência…conforme demonstrado experimentalmente por Karl Pribram… neurocientista – professor emérito da ‘Stanford University’ … e criador da Teoria Holonômica (holográfica) do funcionamento cerebral.

O fato da física quântica demonstrar ser o observador, com sua consciência uma unidade indivisível…com o processo observação/observado influenciando as medidas, demonstra   a correlação direta – comprovada experimentalmente…da consciência com a informação quântica não-local – o que conduz à constatação que ‘consciência‘, em sua emergência, é geração espontânea de informação…e evidencia uma correlação íntima e profunda, entre informação não-local, consciência e o processo de auto-organização do cosmos, e da vida.

Caos, Estruturas Dissipativas e Ordem por Flutuações                                             “A ciência é obra humana… e não um destino implacável – uma obra que não pára de inventar o sentido da dupla imposição que provoca e que a fecunda, a herança da sua tradição e o mundo que ela interroga” ……………….ILYA PRIGOGINE……………………….

Para explicar a consciência, necessitamos…além de uma nova concepção de informação, também de um desenvolvimento unificado da física quântica…capaz de explicar a auto-organização dos sistemas complexos dinâmicos “longe-do-equilíbrio“. Este formalismo, que unificou física quântica, sistemas auto-organizadores ‘fora do equilíbrio’, ‘teoria do Caos’, ‘lógica da complexidade’, e consciência … foi a proeza intelectual, e o trabalho de vida de uma das maiores inteligências do século XX… – o físico-químico Ilya Prigogine, Prêmio Nobel de Química em 1977.

Seus estudos sobre processos irreversíveis, fenômenos não-lineares, e sistemas complexos, permitiram o desenvolvimento de uma extensão da termodinâmica clássica… criando toda um nova física, e uma nova matemática acerca do comportamento dos sistemas ‘longe-do-equilíbrio’. – Sua “Teoria dos Sistemas Dissipativos” explica como sistemas complexos são estruturados durante a formação de um estado de dissipação energética…a partir do ‘caos’.

Demonstrou assim, como a 2ª lei da termodinâmica (lei da entropia sobre a desordem de um sistema) pode conduzir – nos processos auto-organizadores…à emergência de novas estruturas de ordem a partir do caos. Este tipo de auto-organização gera estruturas – por ele denominadas… “estruturas dissipativas“, criadas e mantidas através de intercâmbios de energia com o ambiente, em condições de não-equilíbrio…São processos dependentes de uma nova ordem, denominada por Prigogine…”ordem por flutuações”… — que vem a corresponder a uma… ‘flutuação gigante’… estabilizada afinal… pelas trocas com o meio.

Nestes processos auto-organizadores…a estrutura é mantida por meio de uma dissipação de energia, na qual a energia se desloca gerando simultaneamente a estrutura, através de um ‘processo contínuo’…Quanto mais complexa a estrutura dissipativa, mais informação   é necessária para manter interconexões… tornando-a assim mais vulnerável à flutuações internas – gerando maior potencial de instabilidade … e possibilidades de reorganização.

Se as flutuações são pequenas… o sistema as acomoda, não modificando a sua estrutura organizacional. – Se, no entanto…as flutuações atingem um tamanho crítico, desencadeiam um desequilíbrio no sistema, ocasionando novas interações, e reorganizações intra-sistêmicas.

‘Estranhos Atratores’                                                                                                             “Antigos padrões interagem entre si de novas maneiras, e estabelecem novas conexões. As partes se reorganizam em um novo todo… – E o sistema alcança…uma ordem mais elevada.” (Ilya Prigogine, 1979).

chaoscope

No processo de desenvolvimento de sua teoria Prigogine percebeu a necessidade de criar um modelo de “teoria quântica” que pudesse explicar os fenômenos que surgiam, e assim unificou o conceito de não-localidade à física da informação… complementando aí a teoria ‘quântico-holográfica‘ de David Bohm.

O modo como ‘informação/energia’ gera fenômenos físicos harmônicos quântico-holográficos, e fractais no universo… – é dependente de padrões arquetípicos pré-existentes, chamados ‘atratores’… Sendo que… existem 4 tipos de atratores…ou 4 modos de comportamento dos sistemas em geral, seja ele um sistema físico, humano, organizacional ou político:

1-Atrator Linear, em que o processo repete o comportamento anterior, diferentemente do ser humano que nunca repete exatamente um comportamento… – Tarefas industriais repetitivas tentam imitar este tipo de comportamento.

2-AtratorTórus–Símile … em que o sistema evolui com pequenas variações previsíveis.  Comportamentos individuais e sociais que podem variar discreta e previsivelmente, como por exemplo o comportamento diário, repetitivo, de barbear.

3-Atratores tipo Borboleta, ocorrem quando o sistema é capaz de se adaptar a novos comportamentos conduzidos por atratores denominados “estranhos”. Nestes sistemas o potencial para interferência humana é mais elevado… – entrelaçando linearidade e não-linearidade, com comportamentos adaptativos.

4-Caos profundo… — quando o processo extrapola todas probabilidades evolutivas possíveis, ultrapassando a possibilidade de interferência humana, e emergindo numa forma inteiramente nova de ordem e complexidade.

Num cosmos evolutivo como o nosso… a complexificação progressiva das estruturas que fundamentam esse universo – incluído aí a informação… a energia… a matéria… a vida e consciência, depende da geração de códigos informacionais auto-organizadores, capazes de gerar ordem a partir do caos. – Esta complexificação informacional tem significado, e reflete a relação entre a organização (entropia)… e a capacidade de variedade do sistema.

A ‘complexidade’ no universo cresce progressivamente…a partir das forças gravitacionais e nucleares, intensificando-se com a emergência dos sistemas macromoleculares (DNA,RNA e Proteínas)…incluídos na ‘biosfera‘ – até alcançar um “estado altamente ordenado“… de grande complexidade… variedade… e de um ‘conteúdo informacional’ quase infinito…com a emergência da ‘consciência‘, e da ‘noosfera (o mundo das ideias…do conhecimento).

Não-localidade & Teorias quântico-holográficas

Para compreender como a informação, a energia e a matéria vão se complexificando progressivamente, e adquirindo significação cada vez mais complexa…até alcançar a hipercomplexidade da “consciência“…precisamos de uma teoria quântica que inclua,   além de interações mecanicísticas locais comuns, um desdobramento informacional quântico não-local, instantâneo.

Esta teoria é a teoria quântico-holográfica do universo desenvolvida por David Bohm que em seu arcabouço conceitual inclui um processamento informacional não-local, chamado “holomovimento”…que auto-organiza de forma holográfica e significativa a informação, a energia, a matéria, a vida, e a consciência.

Recentemente Vlatko Vedral sugeriu… em seu livro “Decoding Reality”  –  que o universo é estruturado como informação, e que tudo o que existe, inclusive nós…pode ser entendido em termos informacionais. Ele assim … retoma a “profunda correlação” entre o conceito de entropia (como desordem), e o conceito de informação (ordem) segundo Brillouin… e aplica esta analogia reformulada ao ‘universo quântico.

Na Teoria da Informação Quântica…o ‘bit(definido pelas escolhas binárias sim/não) é transformado em ‘qbit(quantum bit)…que permite possibilidades de escolher ambos (sim e não), devido ao fenômeno do ‘emaranhamento quântico’ (entanglement), que faz com que partículas que interagiram em certa época, permaneçam correlacionadas (“entrelaçadas”) para sempre, por uma informação instantânea não-local.

A existência deste tipo de informação foi negada por Einstein, que a denominava “ação fantasmagórica à distância”. – Hoje sabemos que a não-localidade é uma propriedade fundamental do universo, comprovada experimentalmente no mundo quântico, e mais recentemente … no “mundo macroscópico” … demonstrando a existência de interações instantâneas (não-locais) entre todos os fenômenos do universo.

Karl Pribram propôs sua ‘hipótese holográfica’ de criação da memória no início da década de 1960, introduzindo a noção de ‘coerência’. Hiroomi Umezawa, em analogia à formação do laser propôs uma teoria do campo quântico de “memória” em 1967…incluindo tanto as noções de ‘campo’ quanto a de ‘coerência’… — É uma consequência desta teoria quântico-fractal (não-local) … – desenvolvida por Umezawa – unificar os campos eletromagnético, nuclear e gravitacional em uma ‘totalidade indivisível subjacente’. Desse modo, sua teoria explica fenômenos microscópicos e macroscópicos…como o laser, e a supercondutividade.

O campo quântico não existe fisicamente no ‘espaçotempo’, como os campos gravitacional e eletromagnético da física newtoniana clássica, apesar de ser matematicamente similar a eles. Isto lhe dá um caráter peculiar não-local, ou seja, não se localiza em nenhuma região do espaçotempo. Com efeito, quando um fenômeno não-local acontece, instantaneamente influencia o que ocorre em qualquer outra região do espaço-tempo, sem que para isso seja necessário nenhuma troca de energia, ou informação entre essas regiões.

Segundo a física clássica, a ‘relatividade’, e o nosso bom senso… – seria impossível existir a ‘não-localidade’… – Isso gerou a célebre controvérsia ‘Einstein/Bohr‘, em 1927, na ‘5ª Conferência Solvay’, Bélgica. Einstein não admitia os fenômenos ‘não-locais’…pois em sua “Teoria Especial da Relatividade” — publicada em 1905 — a velocidade da luz, cerca de 300 mil km/s foi definida numa constante universal ‘c‘, impossível de se ultrapassar fisicamente.

Esta controvérsia acabou originando o célebre ‘Paradoxo Einstein-Podolski-Rosen’, no qual Einstein e seus colaboradores demonstraram, com um ‘experimento mental’…que devido à esta impossibilidade de uma partícula viajar mais rápido do que a luz, a física quântica estaria incompleta… Postularam ainda a existência de ‘variáveis ocultas’, que seriam propriedades desconhecidas daqueles sistemas que explicassem a discrepância.

Mas, contrariamente ao esperado, foi demonstrado matematicamente por John Bell em 1964, que Einstein estava errado… – pois, após um átomo emitir 2 partículas com spins opostos… – se o spin de uma delas for alterado…mesmo que elas estejam separadas por anos-luz de distância…o spin da outra se modifica instantaneamente – revelando assim, uma ‘interação não-local’ entre elas…e a existência de uma unidade cósmica subjacente.

Desde então, a existência da “não-localidade” têm sido convincentemente comprovada nos experimentos da física moderna. – O ‘golpe de misericórdia’ foi dado em 1982 pelo físico francês Alain Aspect – que comprovou experimentalmente, a existência de ações não-locais entre 2 fótons emitidos por um átomo. – Já em julho de 1997, Nicolas Gisin demonstrou a existência desta ‘ação quântica não-local’ em escala macroscópica…em uma “transmissão instantânea” entre 2 localidades na Europa.

Potencial Quântico, e o ‘Código Cósmico Holográfico’                                                 O potencial quântico é descrito por Bohm como um novo tipo                                                   de campo… – ‘não-local’… – que não decai com a distância, e                                                 não depende da amplitude, mas da forma da função de onda.  

David Bohm aplicou a matemática da organização holográfica à teoria quântica… ao desenvolver um modelo de universo no qual o espaço e o tempo estão ‘embrulhados’     numa dimensão espectral de frequências (…ordem oculta… implícita… sem relações espaço-temporais)… – Quando neste “campo de frequências” surgem flutuações, as ondulações mais intensas – com padrões semelhantes aos holográficos, estruturam       uma dimensão espaço-temporal (ordem explícita) similar a este universo manifesto.

Bohm afirma que na ordem implícita, tudo está introjetado em tudo. Todo universo está introjetado em cada uma de suas partes, por meio do “holomovimento“. – O processo de introjeção não é meramente superficial ou passivo, e cada parte está fundamentalmente, inter-relacionada em suas atividades básicas … ao todo … e a todas as suas outras partes.

De acordo com Bohm, em seu modelo da mecânica quântica De Broglie descreve um novo tipo de campo…no qual a atividade depende do conteúdo informacional que é conduzido a todo o campo experimental. Adicionando às equações deste campo um Potencial Quântico que satisfaz à “equação de Schrödinger”, Bohm elaborou um modelo quântico-holográfico, no qual este potencial conduz a “informação ativa”…que guia a partícula em sua trajetória.

Nesse modelo quântico-holográfico…a ‘evolução cósmica’ se processa por meio da emergência de códigos informacionais não-locais, que auto-organizam os padrões         básicos da estrutura do universo. Este ‘código cósmico’ se constitui por patamares evolutivos… – correspondendo…cada um…ao surgimento no universo de um novo mecanismo de memória mais complexo … com códigos informacionais específicos.

Estes códigos constituem um vasto reservatório de informação, uma ordem informacional significativa…comparável a uma “consciência universal“.

A partir do Big Bang…ou o que tenha iniciado esta imensa cosmogênese… essa linguagem informacional cósmica se complexificou progressivamente e se auto-organizou em alguns bilhões de anos, em termos de energia, matéria, vida e consciência – numa embriogênese cósmica… – que já dura cerca de 13,8 bilhões de anos… e da qual somos parte consciente.

Cada um destes códigos informacionais corresponde a uma ruptura evolutiva no surgimento de um sistema de memória auto-organizador no universo, onde cada             um deles gera um domínio cósmico específico… – os reinos da ‘evolução cósmica’. 

edgar-morin1

Os Reinos da Evolução Cósmica 

1-A Cosmosfera (nível físico)

Neste 1º nível de ‘complexificação’… temos a emergência de um processo auto-organizador baseado no código atômico-nuclear… – um processo de memória ‘quântico-holográfica‘ que estrutura a energia, informação… e matéria no universo.

2-A Biosfera (nível biológico e biossocial)

É o 2º nível de complexificação do universo, onde observamos a emergência de um processo auto-organizador baseado na interação de 2 tipos de macromoléculas…os       ácidos nucléicos (DNA e RNA) e as proteínas (estruturais e funcionais), controlado         por um tipo de memória ou código genético… – que estrutura… – e mantém a vida.

3- A Noosfera (nível tecno-social)

É o domínio das ideias… o 3º nível de complexificação cósmica, que emerge na evolução da vida como um processo auto-organizador… baseado no “código neural”. – É também dependente do DNA e do RNA, acrescido dos neurotransmissores, e de íons como sódio, potássio, cálcio e magnésio, que permitem a interconectividade neuronal. Este processo que organiza e mantém o funcionamento do cérebro e da mente — corresponde ao nível neuropsicológico, histórico, e sociocultural. Em nossa época… este nível de organização vem se bifurcando em uma Tecnosfera estruturada em nanotecnologias, biotecnologias,     e nano-robótica…com a informação armazenada em hardwares, softwares e na internet.

4- A Conscienciosfera (nível espiritual)

O mais elevado e complexo nível de evolução alcançado pelo universo. É um processo auto-organizador gerador de consciência…baseado em campos quântico-holográficos constituídos pelos dendrons (redes de dendritos gerando campos eletromagnéticos)      de John Eccles… – e os teledendrons de fibras finas… – descritos por Karl Pribram.

Estes campos são os responsáveis pela interconectividade holoinformacional… – local (newtoniana clássica) e não-local (quântica holística), entre o cérebro-mente humano         e a mente-universo. Todo este fluxo universal de holoinformação, ou seja, esta ordem transmitida de modo significativo … por todos os níveis de complexidade do universo, modela os processos auto-organizadores, geradores de consciência na mente humana.

O reencontro entre ‘Ciência & Consciência’ Existe toda uma experiência interna em jogo nos nossos corações e mentes (o “hard problem”) que não é físico, mas fenomenológico, mais kantiano do que científico. 

O “hard problem”… – (dualismo mente/matéria) como descrito pelo filósofo David Chalmers, vem se arrastando na cultura ocidental desde quando Descartes…no século XVII, dividiu o homem em ‘corpo mental’ e ‘corpo material’ (‘res cogitans’ e ‘res extensa’)…Esta dicotomia, desencadeou um ‘esquizofrênico’ movimento filosófico-cultural… que penetrando de forma sub-reptícia em todos     ‘meandros tecnológicos’ da civilização ocidental, nos isolou do cosmos.

E hoje…ela ainda subjaz nas produções científicas e culturais… – que transformaram esta filosofia, e suas variantes, em complexo linguajar dogmático.

Contudo… desde os anos 70 do século XX… vem ocorrendo um renascimento do interesse científico sobre a natureza da consciência, que se acelerou imensamente nos anos 90, com a moderna tecnologia de ‘neuro-imagem’, que utiliza sistemas de tomografia com emissão de pósitrons, ressonância magnética, etc… e que nos descortinou o “fluxo da  consciência”, descrito por William James, no século XIX.

E, nesses mesmos anos 90, filósofos da mente, como David Chalmers, clamaram que o “substrato neural” da consciência, não é a mesma coisa que a consciência em si… e que devemos estar alertas para o “hard problem” e o “easy problem”. Este último, que aliás, não é tão fácil assim,­ como pensam os filósofos … refere-se ao que entendemos sobre o funcionamento do cérebro, e a ‘experiência consciente’…no uso da moderna tecnologia.

Já o “hard problem” se trata da nossa experiência interior, ao vermos, por exemplo, uma rosa vermelha, ou seja…a qualidade da nossa experiência consciente. — A rosa vermelha que admiramos…tocamos e percebemos seu odor característico… – não é o mesmo que o substrato neural desta experiência. A ‘vermelhitude’ e a forma da rosa, não são somente os comprimentos de onda (easy problem) que nossos computadores estão descrevendo!!

cppe-imagem

Modelo Holoinformacional da Consciência Leibinitz, em sua ‘Monadologia’…foi o 1º a propor um modelo matemático ‘holográfico’ da realidade.

Neste modelo…fenômenos paranormais, mediúnicos e religiosos passam a ser entendidos como processos normais da própria estrutura “quantum-holográfica” do universo – e assim…consciência e espiritualidade são compreendidas como um fluxo de informação de natureza quantum-holográfica que religa de imediato, o cérebro ao Cosmos.

Este modelo unifica as neurociências e abordagens psicoterapêuticas transpessoais, com tradições espirituais, fundamentando cientificamente uma nova cosmovisão holística da consciência, mais abrangente do que o “paradigma cartesiano”…predominante ainda na ciência acadêmica do século XXI. – Ao ser capaz de explicar todos desenvolvimentos do antigo paradigma, e ir além explicando o fenômeno da consciência, podemos…tal como descrito por Kuhn, estar vivendo uma troca de “visão de mundo” na história da Ciência.

Nesta nova visão paradigmática, nosso cérebro é compreendido como parte de uma vasta mente espectral quântico-holográfica, que assemelha-se à própria organização do cosmo, mas de modo diferente ao proposto pelo panpsiquismo. Somos muito mais vastos do que nossas consciências individuais, e partes ativas de uma complexa estrutura holística… na qual cada consciência contém a informação do todo…e pode acessá-la através de estados elevados de consciência que otimizam o tratamento holográfico da informação neuronal.

Nestes estados alterados de consciência podemos interagir com a ordem espectral ‘oculta’, descrita na ‘Teoria da Ordem Implícita’ de David Bohm, e ainda com uma ordem superior ‘superimplícita’, proposta por ele… – talvez o objeto final de nossa busca… da qual somos feitos… “à imagem e semelhança”… – tal como…o “objeto real”…que gera o holograma!…

Este tipo de interpretação da consciência é baseada em um modelo quantum-holográfico da interação ‘cérebro-consciência-universo’, e se apoia em 3 pilares da ciência moderna:

1- O modelo dos campos neurais quântico-holográficos… de John Eccles e Karl Pribram; 2- A interpretação causal holográfica da teoria quântica desenvolvida por David Bohm; 3- As propriedades não-locais do campo quântico… elaboradas por Hiroomi Umesawa.

O conceito dinâmico de consciência baseado em um fluxo de informação não-local quântico-holográfico interconecta as redes neurais clássicas e a dinâmica quântica cerebral holográfica com a natureza quântico-holográfica do universo… Este fluxo       auto-organizador é gerado pelo “modo holográfico” da informação neuronal… que         pode ser harmonizado, por ex… em práticas de meditação profunda… entre outras.

Estudos de mapeamento cerebral realizados durante a ocorrência desses estados elevados de consciência, demonstram um estado altamente sincronizado e perfeitamente ordenado das ondas cerebrais, que formam ondas harmônicas únicas…como se todas as frequências de todos os neurônios…  –  de todos os centros cerebrais…  –  tocassem a mesma sinfonia.

Este estado cerebral… altamente coerente… gera o campo informacional e holográfico cortical não-local, interconectando o cérebro humano ao cosmos quântico-holográfico descrito na teoria quântica de Bohm…A informação holográfica é distribuída por todo sistema, tal como nas transmissões de rádio e TV…em que toda a informação de todas estações de rádio, e canais de televisão estão distribuídas em toda rede — podendo ser acessada em qualquer local onde houver um receptor.

Campos neurais holográficos

Karl Pribram dedicou toda sua vida à comprovação experimental, de que o funcionamento cerebral — além das conhecidas “redes neurais”… possui também uma “natureza holográfica”.

Sua teoria holonômica da atividade cerebral comprovou a existência de um modo de análise holográfica da informação no “córtex cerebral“, denominado “holograma neural multiplex“…que utiliza neurônios   de circuitos locais, cujos finos prolongamentos… – os “teledendrons” … não transmitem impulsos nervosos comuns… “São neurônios que agem no ‘modo ondulatório’…sendo…sobretudo… – responsáveis pelas conexões horizontais das camadas do ‘tecido neural’, nas quais… ‘padrões holográficos de interferência’… podem ser construídos”.

Pribram descreveu uma “equação de onda neural”, resultante do funcionamento das redes neurais holográficas, similar à equação de onda de Schrödinger, a equação fundamental da teoria quântica. Este holograma neural é feito pela interação dos campos eletromagnéticos dos ‘teledendrons’ e dos ‘dendritos’ dos neurônios…de um modo semelhante ao que ocorre durante a interação das ondas sonoras em um piano.

Quando tocamos as teclas de um piano, estas percutem as cordas provocando vibrações sonoras que se misturam…gerando um padrão de interferência de ondas. A mistura das frequências sonoras é o que cria a harmonia, a música que ouvimos. Pois bem, Pribram demonstrou que um processo similar está ocorrendo continuamente no córtex cerebral, pela interpenetração dos campos eletromagnéticos dos neurônios adjacentes… gerando     um campo harmônico de frequências eletromagnéticas.

Este campo, constituído por padrões de interferência de ondas harmônicas, tal como no exemplo do piano descrito acima, pode ser calculado pelas transformações de Fourier, e funciona tal como o holograma descrito pelo método de Gabor, que se baseia no cálculo inverso… — É um “campo holográfico” distribuído simultaneamente por todo o cérebro, codificando e armazenando em vasto ‘biocampo’ de informação, memória e consciência.

Tal como no piano, a harmonia da música que ouvimos, não está localizada no piano, mas no campo ressonante que o circunda… – as memórias de um indivíduo não estão localizadas somente no cérebro … mas, também no campo de informação holográfica que o envolve, se interconectando de modo não-local ao campo holográfico universal.

Uma Teoria Unificadora da Mente e Matéria

As formulações matemáticas que descrevem a curva harmônica…resultante das interferências das ondas, são transformações de Fourier as quais Denis Gabor aplicou na criação do ‘holograma‘ – realçando estas transformações com um modelo … no qual o padrão de interferência…refaz a “imagem virtual” do objeto, pela aplicação do processo matemático inverso… Ou seja… — de uma ‘dimensão espectral’ de frequências, refaz-se…matematicamente e experimentalmente, o objeto na dimensão espaço-temporal.

Segundo Denis Gabor …  —  Um novo método de se formar imagens óticas pode ser obtido em 2 etapas. Inicialmente…um objeto é iluminado por uma onda monocromática coerente … sendo o padrão de difração resultante da interferência da onda secundária, proveniente do objeto com o fundo coerente, registrado numa placa fotográfica…Se a placa, devidamente processada, é a seguir colocada em sua posição original, e iluminada só com o fundo coerente, aparecerá uma imagem do objeto por detrás dela” (…dando a sensação de profundidade.)

Como Pribram demonstra de forma brilhante… – “Um modo de interpretar o diagrama de Fourier é ver a matéria como sendo uma “ex-formação”, uma forma de fluxo externalizada (extrusa)… Por outro lado, o pensamento, e sua comunicação (mentalização) seriam como a consequência de uma forma ‘internalizada’ (“negentrópica”) de fluxo, sua “in-formação”.

Pribram considera esta dimensão informacional espectral do pensamento uma “dimensão pré-espaço-temporal”…e, segundo ele, existem 2 importantes vantagens conceituais nesta formulação: 1) a mente ‘inefável’ se transforma em ‘in-formação’ definida pelas descrições quantitativas de Gabor e Shannon relacionadas à termodinâmica; e 2) a compreensão que a matéria como a experienciamos é uma ‘ex-formação’: conceitualização espaço-temporal, definida em um contexto mental específico.

E assim, os processos quânticos distribuídos por todo cérebro e organismo nos permitem conceber uma teoria unificada da mente e matéria — tal como a ‘totalidade indivisível’ de David Bohm, e interpretar… o universo…nosso corpo…e a consciência, como uma vasta e dinâmica rede holo-informacional inteligente de troca de informações, energia e matéria.

akashic-field

Photo credit: NASA’s Goddard Space Flight Center

Walter Schemp… criador da teoria ‘quantum-holonômica’, que hoje é a base da técnica de  “imagens por ressonância magnética” … postula que todas as informações sobre os objetos no universo…mesmo suas formas tridimensionais…derivam de flutuações no chamado Campo de “Energia do Ponto Zero” … um gigantesco campo de energia de vácuopreconizado por Puthoff.

Na “Teoria Info-Holográfica” esse campo de energia é informacional, correspondendo ao campo quântico-holográfico universal, ou campo ‘akashico‘…conforme a terminologia de Ervin Laszlo… onde o ‘vácuo quântico’, por conter toda informação…do ‘Big Bang‘ até os dias de hoje… – é também considerado… – assim como uma…”consciência cósmica“.

Schempp conseguiu calcular… recuperar e reestruturar essas informações, codificadas no campo holoinformacional em forma de imagens, nas máquinas de ressonância magnética usando, além das transformações de Fourier, e a matemática holográfica de Gabor… uma complicada matemática que ele denominou “simpletic spinor vector”. E assim… constrói um gráfico mostrando como a informação é processada no cérebro; confirmando a teoria de Pribram.

Schemp e Marcer acreditam que nossas memórias, seriam o fluxo dinâmico holoinformacional entre cérebro e cosmos, no ‘Campo quântico-holográfico do Ponto-Zero’.

Lynne McTaggart, em seu livro “The Field” afirma que Pribram poderia, perfeitamente,   ter proposto que nossas memórias fossem uma emissão coerente de ondas vindas desse Campo… e que as memórias… – a longo prazo, seriam grupos estruturados de ondas de informação. – Isso poderia explicar a instantaneidade deste tipo de memórias, que não precisam de mecanismos de rastreamento para localizar informação ao longo do tempo.

Seja qual for o mecanismo de recepção no cérebro, que como demonstraram Pribram, Yasue e Scott Hagan, está distribuído também por todo o corpo humano, por meio da função holográfica de Gabor, ele está continuamente acessando e sendo acessado por       um Campo Cósmico Holoinformacional.

A interação cérebro-universo   

Por esta interação, obrigatoriamente, ter que ser uma “conexão não-local“, isso nos conduz em direção ao modo “holoinformacional”… onde padrões quânticos cerebrais, com suas redes neurais e campos holográficos… são parte ativa do campo informacional quântico-holográfico cósmico… Por isso… — mantêm uma interconexão conjuntamente “quântico-holística” (não-local), e clássica (local), isto é, “holoinformacional.

Aplicando a propriedade matemática básica dos sistemas holográficos… em que cada parte do sistema contem a informação de todo ele, mais dados matemáticos da física quântica de Bohm… com dados experimentais das teorias quântica e holográfica de John Eccles, e Karl Pribram, foi proposto que esta interconectividade universal baseada em campos quânticos não-locais de Umezawa, nos permite  acessar toda a informação codificada nos padrões de interferência de ondas existentes no universo… — desde sua origem… — pois… a ‘natureza holográfica’ distribuída do universo…faz com que cada parte – cada “cérebro-consciência”, contenha a informação do todo… — tal como nas “mônadas” de Leibnitz.

Este fluxo holo-informacionalmente/universo” modela os processos auto-organizadores, geradores de inteligência, consciência e espiritualidade na mente humana. Sendo que, esta última é aqui definida como aquilo que nos religa (do latim ‘religio‘, ‘religare‘ – origem da palavra ‘religião’) à nossa fonte cósmica – podendo… portanto – ser interpretada como de natureza informacional quantum-holográfica. Assim, podemos estar conseguindo, pela 1ª vez, explicar cientificamente a espiritualidade!

Participamos da co-criação desse universo que habitamos, por meio de uma programação cósmica em que o cérebro humano, assim como um teclado, faz a interface informacional mente-universo. Somos parte interativa deste universo quântico-holográfico…e, na teoria ‘holoinformacional’ da consciência…confirmamos a afirmação de John Wheeler — de que este é um universo participativo.

Bergson

Campo unificado da consciência

O cosmos é constituído por… matéria vida e consciência, que são atividades significativas… referentes a processos informacionais, ordenados através da evolução cósmica. Um universo auto-organizado…”holo-quanticamente”… pleno de informação local e não-local (‘holoinformacional’) é um universo inteligente, que funciona mais como uma mente, do que uma grande máquina.

Este campo ‘quântico-holográfico’ universal pode ser compreendido como uma rede cósmica inteligente. Poderíamos então, compreender esta rede inteligente universal     como uma Mente Cósmica?… Ou talvez uma “Consciência Holográfica Universal”…     similar à uma ‘Consciência Cósmica’?

Nesta concepção ‘holoinformacional’ do cérebro e do universo, consciência e inteligência são compreendidos como informação… “ordem significativa” no processo mesmo de sua geração, que se auto-organiza e se complexifica progressivamente durante a evolução do Cosmos. Consciência e inteligência são possivelmente níveis de complexidade diferentes, mas podemos afirmar que a dimensão ‘inteligência-informação‘ sempre esteve presente, em todos os níveis de organização da natureza.

Matéria, vida e consciência não são entidades separadas, capazes de serem analisadas em um arcabouço conceitual cartesiano, ‘analítico-reducionista‘…mas uma unidade holística indivisível… um campo quântico ‘holoinformacional’, inteligente e auto-organizador, que vem se desdobrando há bilhões de anos, em uma infinita e dinâmica “evolução cósmica“.

Einstein costumava dizer… “conhecendo os pensamentos de Deus… o resto são detalhes”. Estes códigos informacionais que in-formam o Universo são os verdadeiros pensamentos de Deus; aquilo que verdadeiramente nos religa à nossa fonte!…Foram colocados à nossa disposição…oferecidos como uma dádiva que não temos como entender!… Sua utilização correta pela espécie humana, imersa neste todo gerador de vida e consciência, deve estar direcionada para a preservação desta linguagem universal … por meio de uma Ética pela Vida!… Esta é a nossa grande responsabilidade moral! (Francisco Di Biase)…(texto base) **********************************************************************************

Bibliografia: Francisco Di Biase… “Information Self-Organization and Consciousness — Toward a Holoinformational Theory of Consciousness”, artigo publicado em 1999 — no “The Noetic Journal”/USA e “World Futures, The Journal of General Systems”, Europa; editada por Erwin Laszlo, tido como a maior autoridade mundial em sistemas. Também publicado em 2000, como capítulo, no livro “Science and the Primacy of Consciousness, Intimation to a XXI Century Revolution”, pela Noetic Press,USA. **************************(texto complementar)***********************************

Fractais: A Chave do Universo                                                                                             Os mistérios por trás dos fractais podem trazer à tona uma evidência sobre a realidade que nos rodeia…Eles podem ser o primeiro passo da Teoria Unificada, que a Física tanto almeja, como também… – a resposta para ‘questões universais’ que nos atormentam?”

fractal1

Imagem gerada utilizando fractais através da infinita repetição de padrões similares. Cada pequena parte é similar ao todo.

A ‘ciência fractal‘ apresenta estruturas geométricas de grande complexidade e beleza infinita…ligadas às formas da natureza… ao desenvolvimento da vida… – e à própria compreensão do universo… Imagens de objetos abstratos possuem o caráter de onipresença…pela característica do todo… – infinitamente multiplicada dentro de cada parte, escapando assim da compreensão em sua totalidade pela mente humana.

Essa geometria nada convencional, tem raízes no século XIX… e algumas indicações neste sentido vêm de muito antes na Grécia Homérica, Índia, China, etc…  Contudo, somente há pouco vem se consolidando… com o auxílio dos computadores, e de novas teorias da física, biologia, astronomia e matemática… O termo “fractal” foi criado     em 1975 por Benoît Mandelbrot… – o “pai dos fractais”.

Diferentes definições de Fractais surgiram com o aprimoramento de sua teoria. A noção que serve de fio condutor foi introduzida por Mandelbrot pelo neologismo ‘Fractal‘, que surgiu do adjetivo latino ‘fractus’, que significa ‘irregular’…’quebrado’. Uma 1ª definição matemática, pelo próprio Mandelbrot, diz: – “Um conjunto é dito Fractal se a dimensão Hausdorff-Besicovitch deste conjunto for maior do que sua dimensão topológica”…Com     o passar do tempo verificou-se que esta definição, apesar de pertinente…era por demais restritiva. Uma definição simples seria… “Fractais são objetos gerados na repetição de   um mesmo processo recursivo – exibindo auto-semelhança e complexidade infinitas.”

Os fractais podem apresentar uma infinidade de formas diferentes, não existindo uma aparência consensual. Contudo, existem 2 características muito frequentes nesta geometria:

Complexidade Infinita: Uma propriedade dos ‘fractais’… – que significa que nunca conseguiremos representá-los completamente, pois a quantidade de detalhes é infinita. Sempre existirão reentrâncias e saliências cada vez menores.

Auto-similaridade: Um fractal costuma apresentar cópias aproximadas de si mesmo em seu interior…Um pequeno pedaço é similar ao todo…Vista em diferentes escalas, a imagem de um fractal sempre parece similar.

curva-de-koch

A imagem ao lado (“A Curva de Koch”) é um bom exemplo geométrico da construção de um fractal…

Um mesmo procedimento é aplicado por diversas vezes sobre um mesmo simples objeto, gerando uma imagem complexa.

Cada pedaço da linha foi dividido em 4 partes menores, idênticas ao pedaço original, com cada um  deles sendo 3 vezes menor que o tamanho original… Assim, usando o novo conceito dimensional… – calcula-se a dimensão fractal deste objeto como sendo:

D = log(n.cópias)/log(escala) = log(4)/log(3) = 1,26185.

Desse modo, uma nova geometria (fractal) e um novo conceito de dimensão (fractal) precisaram ser criados para explicar a natureza … dessas intrincadas formas geométricas.

CAOS E ORDEM – “O Caos não pode ser imaginado; é um espaço que só pode ser conhecido pelas coisas que nele existem, e ele contém o universo infinito.” (F. Yates)

Chaos (do grego…khaos) na mitologia grega, refere-se ao vazio sem forma ou estado, que precede à criação do universo … ou cosmos,       pela separação original entre o céu e a terra.

O estudo dos fractais se liga à teoria do caos que busca “padrões organizados de comportamento” dentro de um sistema ‘aparentemente’ aleatório.

Nos dias de hoje … com o desenvolvimento das ciências matemáticas, a ‘Teoria do Caos’ surgiu para compreender as “flutuações erráticas“…e irregulares da natureza…resíduos da formação primordial vinda do… “grande ovocaótico.

Sistemas caóticos são encontrados em padrões que mostram “estrutura ordenada” no sistema.

Uma característica de um sistema caótico é que ele sempre mostra…“sensibilidade às condições iniciais”, isto é, qualquer perturbação no estado inicial do sistema…não importando quão pequena seja…levará rapidamente a uma grande mudança no estado final – fazendo com que a previsão do futuro torne-se muito difícil… Mas, entender o comportamento caótico, torna possível entender como o sistema se comportará como um todo ao longo do tempo.

Apesar das inúmeras aplicações e utilidades…os fractais ainda têm um longo caminho pela frente. Faltam muitas ferramentas e vários problemas continuam sem solução. Uma teoria completa e unificada se faz necessária … e a pesquisa prossegue neste sentido. (texto base)

Publicado em cosmobiologia, filosofia, Teoria do Caos | Marcado com | 1 Comentário

Esboço para uma ‘Termodinâmica Quântica’

“É visão corrente entre vários cientistas que a mecânica quântica não nos fornece qualquer retrato da realidade… E, que o seu arcabouço teórico deve ser encarado simplesmente como um formalismo matemático…que não nos diz essencialmente       nada sobre uma realidade efetiva do mundo… Mas, nos permite calcular, de fato, probabilidades alternativas dela ocorrer.” (Roger Penrose, ‘The Road to Reality’)

sol.gif

Cosmologistas postulam que, ao redor de 10-43 segundos após o Big Bang… a temperatura cósmica era da ordem de 1032 ºK (mesmo o núcleo do Solhoje com 15 milhões de ºC … é gelado, em comparação com essa temperatura).

Quando um material se torna muito quente  –  suas partículas absorvem uma grande quantidade de ‘energia térmica’. Os sólidos se fundem, e os líquidos vaporizam…pois a energia termal supera a força que mantém juntos  –  seus átomos e moléculas. 

Com temperaturas ainda maiores – os átomos se dissociam em elétrons e plasma de íons, que…por sua vez – é um outro estado da matéria… E, quanto mais energia for adicionada ao sistema, mais sua temperatura continua a subir…No entanto, considerando que há um limite para a energia total no universo, há… também, uma temperatura mais alta possível.

Mas, será que poderíamos conceber fisicamente o outro extremo da escala – ou seja, o zero absoluto?… – Na verdade, podemos chegar muito perto, mas nunca ao zero absoluto…para trazer algo à ordem perfeita teríamos que nos livrar de toda desordem. – Porém, à medida que o sistema se aproxima do zero absoluto…torna-se mais e mais difícil excluí-la.

motion-of-molecules1

Temperatura x Velocidade 

Para um gás cujos átomos são bósons – a este gás atribuímos valores de “grandezas físicas” que o representam macroscopicamente, sem nos preocupar com sua constituição interna.

Algumas dessas variáveis são… — o volume ocupado pelo gás, a pressão do gás sobre as paredes do seu recipiente, sua temperatura. Esta última…  –  se relaciona com a energia cinética – a energia devido à velocidade de movimento das partículas que compõem o gás.

Assim, quando se mede a temperatura de um gás, se está realmente medindo a velocidade média das partículas que o compõem. – Quanto maior a temperatura do gás, mais rápido estas partículas se movem, independente da direção ou sentido de seus movimentos, que sempre possuem uma distribuição arbitrária.

boltzdist-t

Mas, graças a Maxwell e Boltzmann… entre outros — também sabemos que a uma dada temperatura… corresponde um valor médio de velocidade mais frequente, em um maior nº de partículas.

Isso pode ser visto ao traçarmos um gráfico, com o ‘número de moléculas’ (eixo vertical)      do gás em função da ‘velocidade’ média das partículas (eixo horizontal). – Quanto mais baixa a temperatura, menor a velocidade média, e mais partículas, átomos ou moléculas.

O pico de distribuição de partículas aumentando, se move para a esquerda, e a velocidade mais provável é menor… Em contrapartida, quanto maior a temperatura, sua distribuição se torna aleatória…e é maior a probabilidade de encontrarmos velocidades mais elevadas.

Condensado de Bose-Einstein 

Nos anos 1920 – os físicos Satyendra Bose e Albert Einstein previram, que a temperaturas muito baixas átomos de uma substância, se aglomerariam com o mesmo estado quântico, da menor energia possível.

Esse novo estado da matéria… – é o ‘Condensado de Bose-Einstein’ (BEC, em inglês)… E, em 1995… ao se resfriar “átomos de rubídio”…na fase ‘vapor’, até a temperatura de 50 nanoKelvins acima do zero absoluto, esse fenômeno foi, afinal, observado em laboratório.

A pesquisa com temperaturas muito baixas alcançou outro importante avanço em 2004, ao se descobrir que o ‘hélio sólido’ também apresenta propriedades do tipo superfluido, abaixo de 0,2 ºK – indicando assim, que os 3 estados mais comuns da matéria – vapor, líquido e sólido…podem se tornar BEC… Consideremos agora, o que acontece quando diminuímos a temperatura do gás…

  • Quando baixamos a temperatura de um gás, sabemos que é mais provável que seus constituintes – os átomos do gás tenham a mesma velocidade…e, portanto, mesma ‘energia cinética (correspondente à velocidade mais provável).
  • Quando reduzimos a temperatura de um gás, o comprimento de onda associado com suas partículas – átomos, neste caso… aumenta. Se o comprimento de onda aumenta, resulta que a ‘incerteza na posição também aumenta. Mas, como sabemos cada vez melhor qual a velocidade das partículas de gás…a diminuição da temperatura reduz a incerteza na velocidade…O que é coerente ao princípio da incerteza (Heisenberg).

condensado-bec

Se os átomos do gás são bósons, podem estar todos no mesmo estado… – Neste caso…a única variável que determina o estado de energia das partículas de gás – é a ‘velocidade’…que define a energia cinética.

Portanto…  —  se reduzirmos bastante a temperatura… saberemos que a maioria das partículas do gás estarão no mesmo estado de energia — condensando-se no estado de energia mais baixo.

Este é o principal fenômeno, que ocorre em um condensado, mas a imagem não está completa. O fato essencial é que as ‘partículas individuais’ de gás…perdem sua identidade… e todas que estão no menor ‘nível de energia’, se comportando de forma coerente como se fossem apenas uma ‘única partícula‘ … – descrita por uma única função… — Essa é a característica mais incrível do “condensado de Bose-Einstein.

Da figura acima, podemos deduzir que a maioria das partículas do ‘gás de bósons’ ao baixar a temperatura…atingem um mesmo estado – o estado de energia mínima. Nesse caso, o ‘condensado’ age como um único sistema quântico, com características próprias… sendo impossível individualizar as partículas que o compõem. 

condensacion1

Temperatura crítica

Considerando a imagem à direita…de um gás com ‘partículas pontuais’… movendo-se aleatoriamente…e colidindo umas com as outraspode-se considerá-las pontuais, já que a distância média entre elas supera o ‘comprimento de onda’ associado (quão menor a temperatura do gás… – maior a “distância média” entre cada partícula.)

condensacion2

Diminuindo a temperatura, cada vez mais, chega-se a um nível (imagem à esquerda) em que o comprimento de onda associado às partículas pontuais faz-se comparável à distância média entre elas. Nesse instante, as partículas passam, então… a apresentar seu caráter ondulatório com suas ondas se combinando, e se sobrepondo. Esse ponto corresponde à ‘temperatura crítica, que faz com que o sistema altera seu comportamento drasticamente.

condensacion3

Quando isso acontece — o sistema passa a ser descrito por uma única onda…onde partículas individuais não são mais percebidas… – Além do que, temperaturas mais baixas significam… menores velocidades médias, sendo portanto ocupados “níveis de energia” cada vez mais baixos (imagem à direita).

Diz-se que se tem um ‘condensado‘ quando uma fração significativa do número total de partículas está no seu estado de mais baixa energia – estando suas ondas…combinadas de modo que todo sistema é descrito por uma única função… revelando que o ‘condensado  é um sistema eminentemente quântico (mas, podendo ter tamanho macroscópico).

condensacion4

Obviamente, se formos capazes de reduzir a temperatura de um gás de bósons à zero ºK, todas as partículas do gás (imagem ao lado) formariam o ‘condensado‘. Por isso este é um sistema que pode ter enorme ‘número de partículas – todas no mesmo ‘estado’, no qual o conjunto se comporta de forma consistente… (sem ‘partículas individuais’). Diz-se então…que esta é a manifestação macroscópica de um estado totalmente quântico.

Violações da 2ª Lei Termodinâmica (em nanoescala)

A maioria dos processos na natureza não pode ser revertido… o que se caracteriza por umaseta do tempo‘. A lei da física para tal é a 2ª Lei da Termodinâmica…que postula que…a entropia de um sistema (medida de sua desordem) nunca diminui espontaneamente…o que implica naturalmente numa alta entropia…em vez de ‘ordenado’ (com baixa entropia).

Quando, porém…damos um ‘zoom’ até o mundo nanoscópico                         dos átomos e moléculas… — esta lei perde seu rigor absoluto.

Apesar da 2ª Lei da Termodinâmica geralmente permanecer válida, mesmo nos sistemas em nanoescala… há alguns eventos raros que questionam a irreversibilidade temporal em nanoescala – por exemplo… causalidade-quantica-questiona-lei-causa-efeito, ou… Ondas de spin transportam energia do frio para o calor. – Um teorema para tentar explicar essas exceções incômodas foi recém-proposto por Jan Gieseler e equipe, da Harvard University.

nanoviolacao-segunda-lei-termodinamica-1

[Imagem: Iñaki Gonzalez/Jan Gieseler]

Os pesquisadores colocaram seu teorema à prova usando uma nanoesfera de vidro, de diâmetro inferior a 100 nanômetros… levitando em uma armadilha de laser, na qual a ‘nanoesfera’ é agitada por colisões com moléculas do ar ao seu redor.

Mantendo a ‘nanoesfera’ estática…esse aparato permitiu que fosse medida sua posição…em todas 3 direções espaciais, com elevada precisão.

Usando resfriamento também a laser, os cientistas esfriaram a nanoesfera abaixo da temperatura do gás circundante… colocando-a num estado de não-equilíbrio. Desligaram então o resfriamento, a monitorando, enquanto era aquecida… no sentido da temperatura mais elevada do gás ao seu redor.

O experimento confirmou as limitações da 2ª Lei… – em escala atômica e molecular, quando – ao substituir o determinismo da lei em macroescala pela imprecisão probabilística (típica da nanoescala) – a nanoesfera, ao invés de absorver… — então libera calor … para o ambiente mais quente.

Assim, o quadro experimental demonstra que… — conforme a miniaturização avança para escalas cada vez menores… as condições são cada vez mais aleatórias… inaugurando assim nova área de pesquisas em física de sistemas em nanoescala fora do equilíbrio. (texto base)

Questionando a 3ª Lei Termodinâmica

A ‘3ª Lei Termodinâmica’ estabelece que… à medida que a temperatura de uma substância move-se em direção ao zero absoluto – matematicamente, a menor temperatura possível – sua entropia… ou, o comportamento desordenado de suas moléculas, também se aproxima de zero… e, as moléculas deverão se alinhar em um padrão ordenado… – Porém… recentes pesquisas de John Cumings, da Universidade de Maryland – EUA…acabam de demonstrar que a coisa não é tão simples assim.

ice-crystals

No processo de cristalização da água, por exemplo, sua transformação em gelo não é um processo totalmente entendido…Os livros-texto afirmam que — as moléculas d’água movem-se cada vez mais devagar,  quando a temperatura começa a cair…

Até que…ao atingir 0º C elas assumem posições fixas, fazendo com que a água passe do estado líquido…para o estado sólido – formando gelo.

O que acontece ao nível molecular, porém… é muito mais complicado do que isso, afirma Cumings… E – mais importante… parece estar em contradição com aquela que é uma das mais fundamentais leis da Física… a ‘3ª Lei Termodinâmica’. – Muito embora os átomos de oxigênio fixem-se para formar uma estrutura cristalina bem ordenada… o mesmo não acontece com os átomos de hidrogênio… Como explica o cientista:

“Os átomos de hidrogênio param de se mover – mas, eles simplesmente param no lugar onde estão – em configurações diferentes ao longo do cristal…sem nenhuma correlação entre si, e nenhum deles baixa sua energia o suficiente para reduzir sua entropia a zero”.

Pela 3ª Lei termodinâmica, vimos que a entropia de todos materiais cristalinos puros move-se em direção a zero…quando suas temperaturas movem-se em direção ao zero absoluto. Ora, o gelo é uma substância cristalina pura, mas parece que apenas os seus átomos de oxigênio obedecem à Lei.

Pode ser que o gelo venha a ordenar-se totalmente… depois de longos períodos de tempo, sujeitos a temperaturas muito baixas… Mas, isto é apenas uma suposição e ainda não foi demonstrado experimentalmente.

agua-gelo

Transição de fase quântica…

Coloque um cubo de gelo em uma vasilha d’água quente, e ele perderá estabilidade, fundindo-se totalmente. As moléculas do gelo … e as moléculas da água vão atingir equilíbrio termal — alcançando a mesma temperatura, tornando-as indistinguíveis.

Assim, um cristal sólido bem ordenado acaba na ‘forma caótica‘ de um líquido.

No mundo quântico porém, essa transição para um equilíbrio termal é mais interessante,   e bem mais complicada do que os físicos acreditavam até agora. Entre o estado ordenado inicial e o estado amorfo final… emerge algo como um “estado intermediário quase estacionário“.

As transições de fase mais conhecidas são aquelas que marcam a passagem do gelo para a água, e da água para o vapor… Nessas transições – a matéria muda entre estados mais ou menos ordenados — dependendo se a temperatura desce ou sobe… Entretanto, para uma temperatura hipoteticamente fixada no zero absoluto… e com um outro parâmetro, como   a pressão variando…essa transição de estado ocorrerá sem qualquer variação de entropia, ou seja – numa transição de “ordem para ordem“.

Apenas para destacar a importância prática disso – é na vizinhança do zero absoluto que uma ‘transição de fase’ com entropia zero apresenta a emergência de um fenômeno bem conhecido  —  a supercondutividade…  Contudo, há outras possibilidades… Os materiais ferroelétricos contêm dipolos elétricos nas “células” de sua rede cristalina.

Devido às interações entre eles… – os dipolos podem alinhar-se,                     resultando em campos elétricos ordenados permeando o cristal.

Variando a pressão ou a química, os ferroelétricos podem ser ajustados para um “regime quântico crítico“… – no qual as flutuações dos dipolos passam a ocorrer em um ‘espaço quadridimensional’… – e assim, além das coordenadas espaciais x, y e z, deve-se levar em conta o tempo envolvido nas vibrações da rede cristalina.

relogio-de-fogo

Pode o calor ser usado para marcar o tempo? Em caso positivo, isso poderá ajudar a unificar a relatividade com a quântica.[Konstantin Yuganov]

Tempo, termodinâmica e gravidade

Graças às teorias relativísticas de Einstein, a capacidade do tempo de ‘esticamento‘… bem como contração…em resposta à força da gravidade ou à velocidade de um corpo, já nos é familiar.

Mas, enquanto as teorias de Einstein funcionam perfeitamente em grande escala, não é fácil incluir a gravidade,         e a ‘natureza relativa do tempo‘, em     uma escala atômica.

No regime quântico  —  o  ‘princípio da incerteza‘ impede a definição de espaço e tempo com muita precisão. Diz-se que são algo granuloso… e de certa forma, agitados   e barulhentos…ao invés de suaves e fluidos. Por isso, para tentar alinhavar gravidade à teoria quântica, o normal tem sido tentar identificar algo físico na teoria…que funcione como uma aproximação do tempo.

Nesse sentido, os físicos Gerard Milburn e Nick Menicucci – da Universidade de Sidney, Austrália argumentam que o “tempo térmico” serve perfeitamente bem, em ambos os regimes…cósmico e quântico – porque se baseia na ‘física termodinâmica‘ – que usa estatística para descrever um sistema… onde fluxos de calor e trabalho ‘retransformam‘ sua temperatura, volume e pressão… – E assim complementaram seus argumentos:

“A termodinâmica é uma teoria tão fundamental, que se aplica em todas as teorias físicas – incluindo qualquer possível teoria quântica da gravidade”.

coolouterspace.gif

A ideia de relacionar o tempo com a termodinâmica foi a princípio, proposta por Carlo Rovelli e Smerlak Matteo do Centro de Física Teórica de Marselha/FR.

A ‘Hipótese do Tempo Termal foi delineada em um artigo intitulado… “Esqueça o Tempo“… Nele, o ‘tempo térmico‘ seria regulado ao se atingir uma temperatura uniforme – sendo esta tendência… uma característica do estado de equilíbrio termodinâmico.

Maais recentemente…alguns cientistas, como o físico Erik Verlinde – da Universidade de Amsterdã…acharam sinais de uma ligação subjacenteentre a termodinâmica, gravidade…e a teoria da ‘relatividade geral’ de Einstein…Segundo ele… “A termodinâmica pode fornecer um modo natural para descrever a agitação do espaçotempo em escalas quânticas…pois sua estrutura matemática está bem formulada, para poder detalhar como “flutuações termais” fazem átomos e moléculas se agitarem”.

Considerando um sistema gravitacional em equilíbrio termodinâmico – ou seja, um estado…simultaneamente… em equilíbrio térmico, químico e mecânico, onde nenhuma mudança macroscópica é mensurável no sistema, existe a probabilidade de encontrá-lo com uma energia específica. Por outro lado…a maneira como a energia de um sistema quântico evolui…é conhecida por meio do termo matemático chamado ‘hamiltoniano’,      o qual, por sua vez, determina completamente o fluxo de tempo para o sistema – desde  que este seja empurrado para fora do seu estado inicial de “equilíbrio termodinâmico“.

Uma nova definição de temperatura e calor   

O calor difere do som na frequência das suas vibrações… enquanto o som é formado por vibrações de baixa frequência – até a faixa dos kilohertz (milhares de vibrações por seg),   o calor é formado por vibrações de altíssima frequência…na faixa dos terahertz (trilhões   de vibrações por segundo).

Assim como o som, o calor é uma vibração da matéria – tecnicamente ele é uma vibração da rede atômica de um material… Essas vibrações podem ser descritas como um feixe de fônons – uma espécie de “partícula virtual” – análoga aos fótons que transmitem a luz. 

O ‘Sistema Internacional de Unidades’ definiu a unidade de temperatura — a temperatura Kelvin… – o grau Celsius etc. pela temperatura do ‘ponto triplo’ da água  –  o ponto no qual a água no estado líquido, bem como gelo sólido, e vapor…podem existir em equilíbrio. Esta temperatura padrão foi definida exatamente como 273,16ºK. – Todas medições de temperatura feitas…são uma avaliação de, quão mais quente, ou mais frio um objeto está, quando comparado a este valor.

Porém…conforme se tornou necessária precisão crescente na medição da temperatura, fixar uma única temperatura como padrão tem-se tornado cada vez mais problemático, especialmente quando se trata da medição de temperaturas extremamente quentes, ou extremamente frias… – A solução então, é redefinir o ‘Kelvin’…usando uma constante   fixa da natureza.

A sugestão hoje mais aceita consiste em usar a constante de Boltzmann, calculada pela técnica chamada ‘termometria acústica’. Para isso, Michael de Podesta e sua equipe do Laboratório Nacional de Física da Grã Bretanha, fizeram medições – surpreendentemente precisas, da velocidade do som no gás argônio, por meio de um ‘ressonador acústico‘.

A ‘constante de Boltzmann’ estabelece a quantidade de energia ao nível das partículas individuais … que corresponde a cada ‘grau de temperatura’. As medições permitiram calcular a velocidade média das moléculas do gás — e assim, o valor médio da energia cinética delas. A partir daí, a constante de Boltzmann foi calculada com uma precisão         sem precedentes… – Como assim comentou Podesta:

“É fascinante que os seres humanos descobriram um jeito de medir a temperatura muito antes de sabermos o que, realmente ela é… Agora, entendemos que a temperatura de um objeto se relaciona à “energia de movimento” de seus átomos… e moléculas constituintes. Quando você toca um objeto…e ele lhe parece ‘quente’…você está literalmente sentindo o ‘zumbido’ das vibrações atômicas. De fato, a nova definição liga diretamente, a unidade de temperatura a esta realidade física básica”.

Corpos Negros…’Lei da Radiação’  

Em 1900 o físico Max Planck havia estruturado uma fórmula — “lei da radiação dos corpos negros“… que descreve a radiação de calor que os corpos emitem… como uma função   da sua temperatura, estabelecendo     as bases para a física quântica. Sua teoria descreve a ‘radiação’ de uma ampla variedade de objetos; da luz emitida por estrelas, até a invisível radiação de calor…registrada pelas ‘câmeras do infravermelho’.

Contudo, embora a teoria possa ser aplicada a muitos sistemas diferentes, o próprio Planck já sabia que não era universal, tendo que ser substituída por uma teoria mais geral, quando partículas diminutas fossem incluídas.

Sob esse ponto de vista…Christian Wuttke e Arno Rauschenbeutel da Universidade de Tecnologia de Viena – trabalhando não com distâncias… mas…especificamente com a dimensão e geometria das partículas  —  conforme previsto por Planck  —  verificaram experimentalmente que, em objetos menores que o comprimento de onda da radiação termal (os fônons)… o calor não se irradia da “forma eficiente”…como é verificado nos corpos maiores… E, assim concluiu Rauschenbeutel:

“A radiação térmica de um pedaço de carvão pode ser descrita perfeitamente pela lei de Planck, mas o comportamento das partículas de fuligem na atmosfera, por exemplo, só pode ser descrito por uma teoria mais geral – pois…micropartículas levam muito mais tempo para alcançar a temperatura de equilíbrio, do que uma simples aplicação da lei   de Planck poderia sugerir”.

A relatividade do zero absoluto

Zero ABSOLUTO é um termo que impressiona… Soa como um limite inviolável, além do qual é impossível pensar em qualquer experimento…Mas, na realidade, há um estranho reino de ‘temperaturas negativas absolutas’…abaixo do “zero absoluto”…que não só são previstas pela teoria, como também já se mostraram alcançáveis na prática.

A temperatura termodinâmica é definida pela forma como a adição ou remoção de energia afeta a quantidade de desordem, ou entropia, em um sistema.

Para os sistemas com as temperaturas positivas que estamos acostumados, o acréscimo de energia…faz aumentar a desordem… Por exemplo, aquecer um cristal de gelo vai fazer com que ele se derreta… em um líquido desordenado.

Continuando a remover energia… iremos chegar cada vez mais perto do zero graus, na escala absoluta — ou ‘escala de Kelvin‘,  onde é estabelecido – 273,15 ° C…  para o mínimo da entropia, e energia do sistema. Já para sistemas de temperatura negativa abaixo do ‘zero absoluto’ – somar energia reduz sua desordem, ou sua temperatura. Porém, eles não são frios … no sentido de que o calor irá fluir para eles…a partir de sistemas com temperaturas positivas.

Na verdade, os sistemas com temperaturas absolutas negativas têm mais átomos em estados de alta energia do que é possível, mesmo nas mais elevadas temperaturas na escala das “absolutas positivas”. Desse modo, o calor deve sempre fluir deles, para os sistemas acima de zero Kelvin. Portanto…não dá para criar sistemas de temperatura negativa de forma suave e contínua sempre baixando a temperatura, já que não será possível romper a barreira do zero absoluto da maneira usual. Entretanto, é possível saltar sobre essa barreira…passando diretamente de uma determinada temperatura absoluta positiva, acima do zero absoluto, para uma temperatura absoluta negativa, abaixo do zero absoluto.

Experimentando temperaturas negativas

zero-absoluto

Esquema da entropia como uma função da energia para sistemas com limites superior e inferior de energia. [Rapp et al./PRL]

Em 2005, o físico Allard Mosk, da Universidade de Twente, Holanda, idealizou um experimento… – que ofereceria mais chances de estudo sobre as temperaturas negativas…

Inicialmente… lasers são usados para agrupar átomos, até formar uma bola bem coesa, que estaria num estado altamente ordenado, ou seja, de baixa entropia…

Logo após… são disparados outros lasers sobre os átomos… para criar uma matriz de luz… a ‘grade ótica’, que circundaria os átomos… – com uma série de poços de baixa energia.

O 1º conjunto de lasers é então reajustado de modo que eles passam a tentar desconstruir a ‘bola de átomos’, deixando os átomos em um estado instável – como se equilibrados no pico de uma montanha, prestes a rolar ladeira abaixo.

A ‘grade ótica’…por sua vez, funciona como uma série de fendas ao longo da montanha, travando a “descida” dos átomos montanha abaixo… Neste estado  —  remover parte da energia potencial dos átomos, levando-os a rolar, e se distanciar uns dos outros, levaria     à maior desordem – e…à definição de um sistema de temperaturas absolutas negativas.

Isso já havia sido feito em experimentos com ‘núcleos atômicos‘ colocados em um campo magnético – sob o qual estes agem como minúsculos ímãs… alinhando-se com o campo…Quando o campo é subitamente revertido – os núcleos momentaneamente se alinham na direção oposta àquela que corresponde ao seu menor ‘estado de energia’… – Na fração de tempo em que permanecem nesse ‘estado transitório’ – se comportam de forma coerente com a de um sistema com temperaturas absolutas negativas…

Porém, como os núcleos só podem alternar entre 2 estados possíveis (paralelo, ou oposto ao campo) … – logo se realinham com o campo.

A ideia de Mosk foi posteriormente refinada pelo físico alemão Achim Rosch…e colegas, da Universidade de Colônia. O grande avanço é uma nova maneira de testar se o experimento realmente produzirá temperaturas negativas absolutas. – Assim…segundo explicou Rosch:

“Como os átomos no estado de temperaturas negativas têm energias relativamente altas, eles deverão se mover mais rapidamente… – quando liberados da ‘armadilha’… – do que ocorreria com uma nuvem de átomos com temperatura positiva…Pode-se usar isto para estudar a criação de novos estados da matéria…em regimes ainda não bem conhecidos”.

“Antes que o inferno congele…” 

Aprendemos desde cedo que a temperatura de um gás se relaciona com a energia cinética das partículas – isto é…com a velocidade com que elas se movem… Pensando assim, deve existir um limite no qual as partículas têm o mínimo de energia cinética e estão ‘paradas’. Esse limite foi definido em 1849 por William Thomson, mais conhecido por Lord Kelvin, como sendo o zero absoluto, correspondente à -273,15 ºC.

Bom…então, o que significaria ter uma temperatura abaixo do zero absoluto?… – Pensando na física clássica, essa ideia não faz sentido,       mas, para sistemas quânticos… a definição clássica de temperatura   também não faz sentido…

Entropia‘ é um conceito que tem a ver com a ‘desordem’ de um sistema – e…uma lei fundamental da termodinâmica diz que esta sempre aumenta… – Isto é, o aumento da entropia determina o fluxo dos acontecimentos. Como a definição de temperatura leva     em conta a distribuição energética das partículas do gás… esta determina sua entropia. 

temperatura

Para baixas temperaturas…usamos a temperatura termodinâmica definida em termos da “variação de entropia“.

Então, nesse caso…pode-se atingir a temperatura negativa quando a variação de energia é positiva (ou seja … todas partículas estão em um estado de máxima energia)… e, a entropia decresce (nesse caso… – só   há 1 estado de ‘máxima energia).

Em um sistema sem energia máxima pode-se adicionar energia, que as partículas vão se espalhando entre os níveis (cada vez para os mais altos)…o que representa uma situação em que a temperatura aumenta. Porém, em um sistema com uma ‘energia máxima fixa’, conforme acrescentamos energia — as partículas tendem a ficar juntas … diminuindo a entropia nesse estado de energia máxima…o que representa uma temperatura negativa.

O importante é salientar que a ‘temperatura negativa‘ é um estado formal, pois um estado com temperatura negativa sempre tem muito mais energia que um outro com temperatura positiva (qualquer) – e, portanto… sempre cede calor a este… Assim, temperatura negativa é muito… mas, muito quente!…  E, além disso…apenas são alcançadas…por meio de uma ‘transição brusca‘… – não passando pelo zero absoluto…que continua sendo inatingível.

‘O Grande Resfriamento’                                                                                                         Se a teoria estiver correta… o Universo pode ter trincas                                                             em sua estrutura, geradas quando do seu congelamento. 

Físicos australianos estão propondo que o início do Universo – aqueles primeiríssimos e problemáticos femtossegundos…  —  quando nada do que se conhece em física funciona, podem ter-se parecido com o congelamento da água. Segundo eles, esses 1ºs momentos poderiam ser modelados de uma forma que lembra a água se congelando… — o que eles chamaram de ‘Big Chill’ (Grande Resfriamento), que teria ocorrido imediatamente após     o famoso Big Bang.

gelo_quebrado

O ‘Big Bang‘ é imaginado como um tipo de expansão que gerou algo similar ao plasma, extremamente quente e denso, que desde o início começou a esfriar. Mas, a forma como algo esfria, depende da estrutura desse algo.

James Quach e seus colegas afirmam que o nosso entendimento da natureza do Cosmo pode melhorar – se prestarmos atenção às trincas e rachaduras, comuns em todos os cristais, incluindo gelo d’água. Pra Quach:

“Einstein assumiu… o espaço e o tempo contínuos, fluindo uniformemente, mas agora acreditamos que esta hipótese não pode ser válida em escalas reduzidas. Uma nova teoria — conhecida como ‘Quantum Graphity‘… sugere que o espaço pode ser formado por blocos indivisíveis, como os átomos…Esses ‘blocos de construção do espaço’ podem ser pensados como semelhantes aos ‘pixels‘…que formam uma imagem em uma tela… porém, tão pequenos, que é impossível vê-los diretamente”. 

A teoria ‘Quantum Graphity‘ – proposta em 2006… estabelece que o espaço emerge de estados de baixa energia dos graus de liberdade de uma rede dinâmica. Dessa maneira, propriedades como a velocidade da luz, e o nº de dimensões do Universo…emergiriam     de interações (… como a massa das partículas emerge do campo do bóson de Higgs.)

Os pontos no ‘espaçotempo’ – os pixels usados na comparação do pesquisador – são representados por diminutos ‘nós’ conectados por links que podem estar “ligados” ou “desligados”… os nós “ligados” possuem variáveis de estado adicionais que definem o Universo resultante. – A novidade é que Quach e colegas acreditam ter achado agora,       uma forma de ver essas “partículas de espaço” indiretamente…Como Quach explica:

“Pense no início do Universo como sendo um líquido. Então, conforme o Universo vai se esfriando, ele ‘cristaliza’ para as 3 dimensões espaciais, e uma temporal que vemos hoje. Teorizado desta forma…conforme o universo esfria… seria de se esperar que se formem rachaduras, semelhantes às fendas que se formam quando a água se converte em gelo.”

Se assim for… acreditam eles, alguns desses defeitos na estrutura do espaço poderiam ser detetáveis. Afinal, se o Universo passou por uma fase de congelamento, com suas ‘trincas’  decorrentes, então estas poderiam ser detetadas – já que… em princípio… elas deveriam interferir com a propagação da luz; como defende Andrew Greentree, um dos autores da teoria:

“A luz deveria se curvar, ou ser refletida nessas ‘reentrâncias’,                         e… assim – em teoria – poderíamos ser capazes de detetá-las”.

////////////////////////////////////////////////////////////////////////////////// ‘limites para a temperatura?’ # condensado-de-bose-einstein # ‘3ª Lei Termodinâmica falha’ # ‘mundo-quântico-funde-se-parcialmente’ # transicao-fase-quantica # ‘tempo-termico-unificacao-relatividade-quantica’#‘nova-definicao-temperatura’‘Calor – luz’  ‘radiacao-calor-planck’ # abaixo-zero-absoluto(1) # abaixo-zero-absoluto(2) # abaixo-zero-absoluto(3)  ###  ‘antes-que-o-inferno-congele’  ###  big-bang-seguido-big-chill    *************************** (texto complementar)********************************

radiação.png

Testando a Termodinâmica Quântica 

Uma equipe coordenada pelo físico Roberto Serra da Universidade Federal do ABC…em um experimento surpreendente, mensurou a quantidade de energia… que um ‘núcleo atômico‘ pode ganhar, ou perder… ao ser atingido por um ‘pulso de ondas de rádio’.

A maioria dos pesquisadores estava certa do comportamento imprevisível do núcleo. Jamais se poderia conhecer suas probabilidades de absorver energia das ondas… ao tornar-se mais quente – ou de esfriar… ao transmitir parte de sua energia para elas.

As novas experiências realizadas no Centro Brasileiro de Pesquisas Físicas (CBPF) — Rio de Janeiro, mostraram que essa troca de energia obedece a leis da física que nunca antes haviam sido testadas no mundo subatômico… — Segundo o pesquisador Roberto Serra:

“Essas leis podem ajudar a entender melhor reações químicas — como a fotossíntese das plantas; e determinar quanta energia os computadores quânticos usarão para funcionar…Sendo esse, o 1º experimento de uma nova área da física – a termodinâmica quântica”.

Termodinâmica Clássica

Computadores quânticos‘ prometem empregar leis da mecânica quântica para superar exponencialmente o poder de cálculo dos computadores convencionais… – Mas, quanta energia esse novo tipo de computação gastará na prática? Quanto calor essas máquinas produzirão ao funcionar?…Vão precisar de refrigeração?…

Perguntas semelhantes pairavam no ar durante a Revolução Industrial, no século XIX… Qual o mínimo de carvão que os fornos precisariam consumir… e, a que temperatura as caldeiras chegariam para que as máquinas a vapor alcançassem sua eficiência máxima?

Os cientistas da época perceberam então…que tanto o calor – quanto a capacidade das máquinas de trabalharem…são formas diferentes de uma mesma quantidade física – a energia… que, nunca é criada a partir do nada…nem destruída – apenas transformada.

Ao investigar a conversão de uma forma de energia em outra, eles descobriram as leis da termodinâmica clássica. E, esta impõe limites a qualquer tecnologia. De acordo com suas leis, a energia flui espontaneamente…de um volume com temperatura quente, para outro mais frio… E, uma máquina, mesmo que ideal, só pode converter parte da energia disponível na forma de calor em energia capaz de realizar movimentos mecânicos… isto     é, realizar o que se conhece em física como trabalho.

Os engenheiros vitorianos resolveram seus problemas, à custa de um pequeno truque… Seus cálculos só funcionavam quando se considerava que as máquinas estavam isoladas termicamente do resto do mundo, trocando…em ritmo lento – um pouco de calor com o ambiente. – No entanto… essas aproximações não servem, na maioria das situações que ocorrem na natureza.

Por exemplo…em muitas das reações químicas, quando é impossível isolar termicamente um objeto de seu ambiente por muito tempo…a temperatura aumenta e diminui de modo imprevisível; diferente do que ocorre em sistemas isolados, onde tudo tende ao equilíbrio.

fotossintese

Sistemas abertos  (fora do equilíbrio) 

Foi apenas em 1997 que o físico-químico Christopher Jarzynski desenvolveu uma expressão matemática capaz de calcular as variações mecânicas … de trabalho, e energia…que se dão fora do equilíbrio. A equação de Jarzynski, e outros teoremas de flutuação, permitem que os químicos possam medir variação na energia de uma molécula – antes, e depois de uma reação.

O próprio Jarzynski confirmou sua equação em 2005…observando o trabalho mecânico de uma molécula de RNA esticada e comprimida como uma mola…Apesar de microscópico, o movimento da molécula de RNA era grande o suficiente para poder ser calculado usando a fórmula derivada das leis da mecânica de Newton…“Trabalho é força vezes deslocamento”.

As equações da termodinâmica, seja dentro ou fora do equilíbrio, foram deduzidas usando a ‘mecânica de Newton’. Mas, as leis de Newton perdem sentido para vários processos que acontecem nas moléculas – e para todos os que ocorrem no interior dos átomos … por não ser possível medir forças e deslocamentos com precisão…Nessas escalas valem outras leis,  as da mecânica quântica.

Roberto Serra queria saber se equações, como a de Jarzinsky, ainda valeriam nesse mundo subatômico. Esse conhecimento ajudaria a entender reações químicas como a fotossintese. Nela, moléculas nas células das folhas funcionam como máquinas quânticas que absorvem energia das partículas de luz e a armazenam na forma de moléculas de açúcar…O processo é muito eficiente  —  quase não gera calor…  E, estudos sugerem ser um processo quântico.

A máquina quântica de spins 

No centro do laboratório de ressonância magnética nuclear do ‘CBPFexiste um pequeno tubo de ensaio” … contendo uma solução puríssima de clorofórmio, diluído em água. Cada uma, das cerca de 1 trilhão de moléculas de clorofórmio da solução possui um átomo de carbono-13.

O núcleo desse tipo de carbono tem uma propriedade quântica chamada spin, que lembra a agulha de uma ‘bússola magnética‘, e pode ser representada por uma seta… – Sob um forte campo magnético, paralelo ao tubo (apontando de baixo para cima) as setas desses spins tendem a se alinhar com o campo; metade delas apontando para baixo… e, a outra metade para cima.

O ‘campo magnético‘ também faz com que os spins apontando                     para baixo tenham mais energia que os spins voltados para cima.

Os físicos manipulam os spins por meio de campos eletromagnéticos – oscilando com uma frequência de 125 megahertz (o equipamento precisa ser isolado das estações de rádio FM que transmitem nessa frequência). Essas manipulações são feitas por pulsos de onda…não durando mais que alguns microssegundos. O experimento acontece tão rapidamente que é como se, por alguns instantes… cada átomo de carbono no tubo de ensaio estivesse isolado do resto do mundo – submetido à temperatura muito próxima do zero absoluto (-273º C).

termodinamicaQuando reduzem ou aumentam a amplitude das ondas de rádio, os pesquisadores podem diminuir ou aumentar a diferença de energia entre os spins…  —  para baixo e para cima. Quando essa mudança de amplitude é muito rápida  –  os spins saem de seu isolamento térmico… e começam… tanto a absorver energia das ondas de rádio – situação em que as ondas realizam trabalho sobre os spins…quanto a transmitir parte de sua energia para as ondasrealizando trabalho sobre elas… E, o físico Roberto Serra assim complementa: 

“Podemos explorar essa variação, para criar uma ‘máquina térmica quântica‘. — A máquina funcionaria… – alternando pulsos de amplitude reduzida e aumentada…entre 2 estados de ‘equilíbrio térmico’, cada um com uma temperatura diferente. Funcionaria de maneira parecida com um motor a combustão… – realizando trabalho mecânico, com parte da energia química transformada em calor – pela explosão do combustível”.

O físico Lucas Céleri… — da Universidade Federal de Goiás… que… – em parceria com os colegas Paulo Souto Ribeiro e Stephen Walborn da UFRJ, trabalha na termodinâmica de uma única partícula de luz – também comentou..“A técnica aplicada nesse experimento tem grande potencial… — Avanços experimentais são raros na termodinâmica quântica, devido à necessidade de se controlar o sistema quântico em seu isolamento do ambiente”. (texto base) (DEZ/2014) p/consulta: ‘Efeitos quânticos termodinâmicos em experimento’

Publicado em física | Marcado com , , , | 1 Comentário

Renormalizando Divergências Infinitas… (‘Higgs’)

“Não estamos simplesmente no universo… – somos parte dele!… Nascemos nele, e pode-se até dizer que o universo nos tornou capazes de imaginá-lo (aqui…em nosso cantinho do cosmos)… – E… nós estamos apenas começando a fazê-lo…”  (Neil de Grasse Tyson)

Para que haja uma ‘interação’ entre corpos é preciso que cada um deles saiba o que está acontecendo … ou, o que foi mudado no outro… assim, é preciso uma troca de informações entre eles… – Por exemplo, quando um deles se move…de algum modo, esta informação deve ser levada até o outro corpo… – que então reage à  mudança… – por “leis físicas” afins.

De acordo com a teoria newtoniana, pensava-se que esta informação era instantânea…ou seja, que a propagação da informação se dava com ‘velocidade infinita’. Basicamente, este era o conceito de ‘ação-à-distância. No entanto, a partir do pressuposto ‘einsteiniano’ de uma velocidade máxima para corpos materiais (a velocidade da luz…) esta informação não poderia se propagar com velocidade infinita… o que levou à introdução do conceito de um ‘campo mediador’.

Tal formalismo se estende tanto para fenômenos elétricos quanto magnéticos… Sendo que, graças aos trabalhos de Maxwell, o conceito de campo já ocupava um papel de destaque na descrição fenomenológica da realidade… Ele havia mostrado — através de um conjunto de equações que recebem seu nome… que fenômenos magnéticos e elétricos estão associados intrinsecamente, devendo ser descritos por uma única entidade: o campo eletromagnético.

O conceito de força – ou interação…por sua vez, está intimamente associado ao de campo. Todas interações fundamentais se revelam por meio da ação dos campos por elas gerados sobre outros corpos… – Dessa forma… após a física ter abandonado o conceito de ação-à-distância, foi introduzido o conceito físico de “campo“…considerando que cada partícula cria à sua volta uma perturbação, que é experimentada pelas outras partículas do sistema.

Segundo este conceito fundamental, todo corpo cria uma perturbação no espaço ao redor,  que é o campo gerado por alguma propriedade intrínseca que ele possui.  –  Por exemplo, todo corpo que tem massa gera um campo gravitacional à sua volta – todo corpo que tem carga elétrica cria um campo elétrico à sua volta, etc…É este campo que irá interagir com   o campo criado pelo outro corpo  —  de modo que informações sejam trocadas entre eles.

Campos, mediadores & função de onda

Aceitando a divisão entre partículas genuínas, e quanta de campo (na fronteira bóson-férmion), podemos distinguir entre matéria fermiônica – feita de partículas (quarks e léptons), e campos de força bosônicos (campos de calibre). Estes, são os ingredientes fundamentais do universo, a partir dos quais, todos os observáveis devem se originar.

Feynmann_Diagram_Gluon_Radiation

Neste ‘Diagrama de Feynman’, um elétron e um pósitron anulam-se, produzindo um fóton virtual, que se transforma num par quark/ antiquark…depois, um deles emite um glúon… (o tempo decorre da esquerda para a direita)

Para a física moderna um campo interage com outro … por intermédio da troca de partículas, partículas mediadoras, que se incumbem de transmitir a força entre si.

Assim, sendo cada uma das forças existentes na natureza mediada pela troca de uma partícula – 2 partículas com cargas elétricas… por exemplo, criam campos à sua volta…  –  e este campo (de força eletromagnética) interage através de uma troca de fótons…A ‘força gravitacional’, por sua vez é mediada por grávitons; a ‘força forte’ por glúons; e as ‘forças fracas’, pelas partículas W± e Z0…ditas… ‘bósons vetoriais intermediários’.

Uma partícula ou ‘quantum‘ é uma excitação quantizada do campo (‘pacote de energia’), para a qual se atribui uma variedade de propriedades, tais como…momento, e localização espaço-temporal…Já um campo clássico ‘real’ é tido como um sistema mecânico, com um número infinito de graus de liberdade – correspondente ao nº de osciladores harmônicos desacoplados – em termos de modos normais – por meio de uma ‘análise de Fourier.

Pela ‘análise de Fourier’ … cada componente separado de uma onda pode ser tratado como um oscilador harmônico independente… e, em seguida, quantificado. Este procedimento é conhecido como “2ª quantização”… A teoria quântica dos campos é uma 2ª quantização, na medida em que realiza uma quantização de campos, enquanto a Mecânica Quântica apenas realiza a quantização da matéria.

A transformada de Fourier pode ser útil na Mecânica Quântica…ao mudarmos o modo de representar o estado de uma partícula – de uma função posição de onda, para uma função de impulso de onda. Isto porque, ela postula a existência de pares de variáveis conjugadas – ligados pelo princípio da incerteza de Heisenberg. Por exemplo…a variável espacial q de uma partícula só é medida pelo operador de posição à custa da perda de informação sobre o momento p da partícula. Desse modo, o estado físico da partícula é descrito, ou por uma “função de onda” de q, ou por uma função de pmas, não por uma função das 2 variáveis.

Na ‘Mecânica Clássica’, o estado físico de uma partícula é dado, atribuindo valores para ambos p e q, simultaneamente (variáveis canônicas)… Dessa forma, o conjunto de todos estados físicos possíveis… é o espaço vetorial real, bidimensional, com um eixo (abcissa) e outro eixo ortogonal q.

Espaço de fases & Quantização

As ‘coordenadas canônicas’…usadas na geometria euclidiana, e mecânica clássica são coordenadas que podem representar um sistema físico  –  em qualquer ponto dado no tempo…São empregadas – dentro da formulação hamiltoniana, como coordenadas no espaço de fases… – de um espaço de configuração.

—  Uma das características distintas da mecânica quântica é que o estado físico de um sistema ‘não determina’ o resultado de qualquer medida que possa fazer-se sobre ele. Em termos mais simples, o resultado de uma medida sobre 2 sistemas quânticos que tenham o mesmo estado físico… nem sempre resulta nos mesmos resultados. Assim, ao descrever a evolução temporal dos sistemas físicos…a mecânica quântica só pode prever a probabilidade de que, ao medir uma determinada grandeza física, se obtenha determinado valor.

Isto quer dizer que a mecânica quântica realmente é uma teoria que explica como varia a distribuição de probabilidade das possíveis medidas de um sistema… Assim, o estado quântico de um sistema não se parece em nada ao estado clássico de uma partícula, ou sistema de partículas… – sendo representável mediante uma função de onda.

A relação entre espaço de fase e ‘função de onda’ é que o quadrado do módulo desta função é proporcional a uma distribuição de probabilidade definida sobre o ‘espaço fásico.  Isto significa que, para se construir o conjunto de certos estados quânticos (espaço de Hilbert), considera-se inicialmente o espaço fásico que se usaria em sua descrição clássica. – A este procedimento dá-se o nome de quantização. Ou seja, é um método matemático para certo ‘sistema físico’, de construção do seu ‘modelo quântico’, a partir de sua ‘descrição clássica’.

Os procedimentos de 1ª quantização são métodos que permitem construir modelos de uma partícula dentro da mecânica quântica a partir da correspondente descrição clássica do espaço de fases dessa partícula…Sua quantização canônica é o procedimento informal que assinala a magnitude física em termos de coordenadas canônicas do sistema clássico.

Os procedimentos de 2ª quantização são métodos para construir teorias quânticas de campo a partir de uma teoria clássica. Sua quantização canônica é dada pela extensão do procedimento usado na 1ª quantização…estendido – neste caso, a mais de uma partícula.

O campo de Schrödinger – por exemplo… é visto como uma 1ª quantização…então, o tratamos como se fosse um campo clássico…e o quantizamos (de novo). – Este truque é chamado 2ª quantização. Entretanto, um campo quântico não é uma função de onda quantizada… Como, certamente, o campo de Maxwell não é a função de onda do fóton.

Na mecânica quântica não-relativística, a equação de Schrödinger para uma função de onda variável no tempo…não sujeita a forças externas… possui “soluções elementares”       – os chamados “estados estacionários ” da partícula…  A ‘transformada de Fourier’ é utilizada para resolver a equação de onda aplicável… e o algoritmo de Fourier pode           ser usado — eventualmente… — nos problemas de contorno da evolução do sistema.

Já na mecânica quântica relativística, a equação de Schrödinger torna-se uma equação de onda comum da física clássica. Neste caso, a função de onda é uma função destes campos, e não das coordenadas da partícula, sujeita à quantização canônica, cuja amplitude de campo é interpretada como um ‘operador’.

A procura por uma visão mais unificada da natureza… – do que a antiga interpretação dualista, em termos tanto de campos, quanto de partículas, levou físicos modernos à elaboração de uma ‘Teoria Quântica de Campos’.

Teoria Quântica de Campos

teoria quântica de campos é a aplicação conjunta da mecânica quântica e da relatividade aos campos… – que fornece uma ‘estrutura teórica’ usada na física de partículas e na física da matéria condensada. Em particular…a teoria quântica do campo eletromagnético, mais conhecida como “eletrodinâmica quântica” (QED, do inglês “Quantum EletroDynamics”), é a teoria provada experimentalmente com maior precisão na Física. – Em suma…pode-se dizer que a teoria quântica dos campos é uma teoria que, na denominação mais antiga, se chama “segunda quantização”, isto é, realiza a “quantização dos campos”…ao passo que a mecânica quântica apenas realiza a quantização da matéria. A teoria quântica dos campos considera tanto matéria (hadrons/leptons), quanto os condutores de força (bosons) como excitações de um campo fundamental de energia mínima não-nula (vácuo).

A ‘simetria de Lorentz‘ é essencial na descrição das forças e partículas elementares. Ao ser combinada com os princípios da ‘Mecânica Quântica‘, ela produz uma estrutura chamada ‘Teoria Quântica de Campos‘ (TQC) … na qual — toda partícula ou força é descrita por um campo que permeia o espaçotempo, com uma ‘simetria de Lorentz’ apropriada. O ‘modelo padrão‘ da física de partículas — que descreve todas partículas e forças não gravitacionais conhecidas, é uma ‘teoria quântica de campo‘.

A TQC considera – tanto a matéria (hadrons e leptons)…quanto os bósons condutores de força (mensageiros) como ‘excitações’ de um campo fundamental de energia mínima não-nula (vácuo)…Sua origem é atribuída aos estudos de Max Born, Pascual Jordan e Werner Heisenberg, que em 1926 descreveram o campo eletromagnético, na ausência de cargas e correntes, como um sistema de osciladores…com frequência ω – concluindo assim, que a energia do campo seria quantizada.

A seguir, em 1927, Paul M. Dirac formulou o método da 2ª quantização, dando início à 1ª Teoria Quântica de Campo – a eletrodinâmica quântica (QED)… que permitiu tratar, por exemplo… — da emissão e absorção de radiação — como uma criação e destruição de partículas (fótons, no caso) a partir de excitações do vácuo pelos operadores quantizados de campo.

Já em 1928…Jordan e Wigner estenderam o método da 2ª quantização – inicialmente formulado para bósons (relações de comutação), para descrever férmions (relações de anticomutação); Jordan e Pauli tornaram o método relativístico, ainda em 1928. Após essas realizações, os anos 30 foram de grande progresso no desenvolvimento da TQC.

Historicamente, a teoria quântica de campos nasceu da descrição quântica da interação eletromagnética, através da QED. A partir do sucesso desta teoria…o programa de TQC   foi estendido com sucesso à força fraca – unificando-a com a eletromagnética, numa ‘teoria eletrofraca… O programa da TQC obteve vários sucessos empíricos – até se deparar com um problema sério…

O ‘problema dos infinitos’

Foi na QED que o ‘problema dos infinitos‘ apareceu pela 1ª vez… e nela que a renormalização surgiu.

Em muitas situações…cálculos que deveriam resultar em quantidades finitas e observáveis como carga e massa de partículas, tipo elétrons, davam ‘quantidades divergentes‘.

Um bom exemplo disso é a assim conhecida catástrofe ultravioleta’ que surge ao calcularmos os efeitos da auto-energia do elétron, ou da polarização do vácuo. Ambos os efeitos estão relacionados com a criação de partículas virtuais.

A ‘auto-energia do elétron’ resulta do fato de que há uma contínua emissão e reabsorção de fótons virtuais por qualquer carga elétrica (… consequência desta ser a geradora da interação eletromagnética, que envolve fótons virtuais como agentes de troca interativa). Assim, o elétron fica envolto por esta nuvem de fótons virtuais produzidos por si mesmo.

Um observador, olhando o elétron do lado de fora de sua nuvem, detetaria sua massa m como a energia total…meo + m(nuvem). – Esta auto-interação tem portanto, o efeito de esconder a energia do elétron inicial eo… Assim, obtemos então o valor de massa efetiva (elétron inicial + nuvem = elétron medido).

Já na ‘polarização do vácuo, o campo eletrostático de um elétron leva à assimetria na distribuição de pares elétron-pósitron virtuais que são criados a partir dos fótons virtuais (processo permitido pela QED) advindos da nuvem em volta do elétron eo

O campo elétrico do elétron provoca o afastamento mútuo entre elétrons e pósitrons de seus pares (e +,  e −)… os elétrons virtuais são repelidos pela carga negativa original – à medida que os pósitrons são atraídos. Por causa dessa assimetria, o elétron original fica envolto por uma nuvem de pósitrons virtuais, que blinda parte de sua carga, resultando em uma carga efetiva menor do que a carga original.

renormalização

Algo semelhante ocorre em um ‘meio dielétrico  —  em que um campo externo polariza o meio inicialmente… não-polarizado.

Assim, portanto, ao invés de uma blindagem de carga, podemos dizer que o campo elétrico (envolto ao elétron) gera uma assimetria no meio dielétrico… que são os fótons     (e +, e −) de sua nuvem…que, por sua vez gerará um campo elétrico em sentido contrário ao do elétron; então, contrabalançando parte do campo elétrico do elétron (eo) envolto – resultando no mesmo efeito que a descrição anterior… — para um ‘observador externo’.

As divergências da QED levavam a previsões absurdas em resultados experimentais, tais como espaçamento de linhas espectrais. Esse tipo de divergência traz resultados infinitos para seções de choque… invalidando previsões referentes ao espalhamento.

Renormalização da QED 

Uma das peças-chave no triunfo da TQC foi a elaboração da teoria de renormalização  como uma condição racional de simplicidade – que explicava não só por que o elétron possui momento magnético, mas também (junto com as simetrias de calibre) todos os aspectos detalhados do ‘modelo padrão’…das interações fraca, eletromagnética e forte.

Nos anos 30 e 40, diversas técnicas haviam sido desenvolvidas para eliminar – ou pelo menos contornar as divergências da QED. Todas técnicas possuíam a característica de serem métodos ad-hoc… e – ainda não estavam inclusas numa abordagem sistemática.

Além disso… elas envolviam certas operações com quantidades infinitas que eram difíceis de justificar rigorosamente em termos matemáticos. Por isso, a atitude que prevalecia nos anos 40 entre os físicos… era, basicamente… a de continuar empregando a teoria quântica de campos… — de uma maneira bem cautelosa…  –  na falta de uma abordagem melhor.

A solução para o problema foi encontrada nas técnicas de renormalização, através do cancelamento dos infinitos que surgem no cálculo de algumas quantidades físicas, como carga e massa, em teorias quânticas de campo… Seu conceito baseia-se na ideia de que a massa efetiva de — por exemplo — um elétron… deve ser entendida como formada por 2 componentes – uma massa ‘pura’ (sem contar fótons virtuais) infinita – e, também uma auto-massa (que resulta ao levarmos em conta fótons virtuais)…que pode ser calculada na teoria, e que assume um valor infinito.

A ideia é que uma quantidade infinita “cancela” a outra…de forma que a massa observada experimentalmente seja uma massa efetiva finita. Assim, a renormalização é um processo de eliminação de divergências…absorvendo-as em novas definições de parâmetros físicos, nesse caso, a massa…O processo aplica-se também na redefinição de outro parâmetro – a carga.

Julian Schwinger e Richard Feynman deram… – entre 1947 e 1949 – os toques finais em uma eletrodinâmica quântica (QED) sob método sistemático, que era ao mesmo tempo renormalizável e covariante relativisticamente. Com efeito, Sin-Itiro Tomonaga já havia desenvolvido no Japão uma teoria deste tipo em 1943… só publicada em inglês em 1946.

Em seguida – em 1949… – Freeman Dyson demonstrou que os formalismos de Feynman, Schwinger e Tomonaga eram equivalentes, e conseguiu classificar os tipos de divergências da QED… provando que elas eram precisamente do tipo que poderia ser removido através da renormalização.

Renormalização… solução, ou problema?

Nos anos seguintes, a QED provocou um grande entusiasmo entre os físicos…e os cálculos foram sendo efetuados  –  com aproximações cada vez maiores…Hoje em dia, os mais pormenorizados cálculos, usando esta teoria…conseguem atingir uma precisão de até 10 casas decimais.

Desse modo… a QED fez nascer a esperança de       que as outras interações da natureza pudessem       ser descritas por meio de Teorias Quânticas de Campos renormalizáveis… – como ela própria.

Todavia… durante os progressos neste projeto, percebeu-se que esse avanço dificilmente seria conseguido em relação às  forças fraca e forte.

No caso da interação fraca, as divergências que surgiam eram de um tipo que não se conseguia eliminar por meio das técnicas de renormalização existentes até então. — Já no caso da interação forte, era impossível aplicar a ‘teoria de perturbação’, pela qual cálculos eram efetuados na QED.

Evidentemente, a subtração de uma quantidade infinita de outra quantidade infinita não parece ser uma operação matematicamente bem definida…Na verdade, a redefinição dos parâmetros é obtida por um processo de corte nas integrais divergentes … – inclusão das mesmas na redefinição do parâmetro a considerar … – e subsequente passagem ao limite.

Porém, restava o problema de como executar esse corte, e ao mesmo           tempo – preservar a invariância de calibre da teoria… E… para isso:

1.Era preciso encontrar uma maneira de classificar os tipos de infinitos que apareciam nos cálculos, uma vez que, para a técnica de renormalização ser aplicada, os infinitos precisam aparecer de uma maneira específica – ou seja… na redefinição de parâmetros já existentes.

2. Também era indispensável descobrir como executar o procedimento de                             renormalização… de modo que não se destruísse a ‘invariância de calibre’.

3. E havia a escassez de dados experimentais, capazes de permitir uma                                   discriminação fina entre as várias técnicas de ‘eliminação de infinitos‘.

Essas, entre outras dificuldades levaram o programa da teoria quântica de campos a um impasse na década de 50, situação esta, que prevaleceria até a década de 60. A aceitação da renormalização pela comunidade científica – na verdade…sempre esteve cercada por dúvidas, e nunca livre de polêmicas… Isso, graças à percepção da renormalização como  um procedimento inconsistente do ponto de vista matemático e lógico de muitos físicos.

As operações para renormalização – redefinição de parâmetros como massa e carga, por subtração de infinitos gerando quantidade finita, parecem duvidosas do ponto de vista lógico…  –  Pode-se argumentar também, que a inconsistência de que se acusa a renormalização possui raízes físicas…

ação-a-distancia

Divergência dos Infinitos

Um dos pressupostos básicos da teoria quântica de campos… – é que o campo possui caráter local… e, desse modo as equações que governam a evolução de um campo num ponto do espaçotempo dependem apenas do ‘comportamento’ do campo, e de suas derivadas naquele ponto…Esse pressuposto de localidade implica em pontuais interações e excitações destes campos…

O que, por sua vez, acarreta, nos cálculos, a necessidade de se levar em conta os ‘quanta virtuais‘ com momentos arbitrariamente altos…Porém, a inclusão desses limites leva ao aparecimento de quantidades infinitas… Assim, as ‘divergências ultravioletas‘ estariam ligadas, de certa forma, à ‘localidade’ imposta aos campos.

Nesse caso…o aparecimento de infinitos poderia ser uma indicação segura das limitações intrínsecas ao ponto de vista local da interação. Ou seja, o uso da renormalização poderia estar sendo feito – sem restrições sobre sua origem, e conceitos sobre ele implicitamente impostos, e mesmo assim tendo-se resultados totalmente compatíveis com a experiência.

A pergunta então seria…se, realmente, os físicos precisariam substituir a renormalização, até então frutífera – mas com dificuldades conceituais… por outra teoria que remediasse esses problemas. À primeira vista, não deveríamos nos preocupar com reformulações da QED, pois…como dissemos, ela gera frutos – e, não são poucos… mas, temos que pensar num âmbito mais geral e perguntar…será que essa reformulação nos elevará ao patamar que nos possibilite alçar vôos mais altos?

Levando em conta relatos 2 de físicos que participaram ativamente da produção da teoria quântica de campos…R. Feynman, que usava regularmente ‘renormalização’ para contornar erros na teoria…dizia que esta não seria inteiramente satisfatória…       …mesmo a utilizando em seus trabalhos.

Ao descrever o desenvolvimento conceitual da teoria… em sua conferência ao Nobel de 1965, ele explica:

“Acredito que não haja uma eletrodinâmica quântica realmente satisfatória… Penso – embora não tenha certeza disso… que a teoria da renormalização é apenas uma maneira de “varrer” dificuldades com as divergências para debaixo do tapete.”

Já P. Dirac – crítico profundo e constante da renormalização, argumenta que ela constitui, por si só, um indício de que algo está muito errado com a teoria… Sobre isso, ele escreveu:

“Precisamos aceitar o fato de que existe algo fundamentalmente errado com nossa teoria da interação do campo eletromagnético com os elétrons…Por fundamentalmente errado, quero dizer que… ou a mecânica, ou a força de interação está errada.  –  São necessárias novas equações relativísticas, e mais outros tipos de interação devem ser postos em jogo. Quando essas novas equações e interações forem imaginadas, os problemas que hoje nos confundem serão automaticamente solucionados, e não mais teremos que lançar mão de processos ilógicos como a renormalização de infinitos. Porque, a despeito dos seus êxitos, trata-se apenas de uma regra prática que produz resultados, e precisamos nos preparar para abandoná-la…do mesmo modo que os êxitos da teoria de Bohr foram considerados meramente acidentais, mesmo que corretos.”

Teorias de calibre Yang/Mills 

Em meio ao descrédito em que havia caído a teoria quântica de campos, a partir da década de 50, foi criada a ideia que… posteriormente… permitiria o seu renascimento. Trata-se da teoria de calibre não-abeliana proposta por C. N. Yang e R. L. Mills em 1954. – Essa teoria viria a desempenhar papel crucial em todo o desenvolvimento da TQC… E aqui tem início o 2º episódio… – no qual a renormalização viria a desempenhar um papel fundamental.

O termo ‘teoria de calibre refere-se a um tipo particular de invariância — ou simetria, que ‘certas teorias‘ possuem.

A invariância de calibre,  no caso clássico de Maxwell do eletromagnetismo funda-se em manter inalteradas as previsões experimentais da teoria somando o gradiente da função arbitrária f(x), ao seu próprio potencial.

No caso dos ‘campos quânticos’…a invariância de calibre consiste em se poder manter esta invariância quando se efetua, além da adição do gradiente, também uma rotação arbitrária na fase do campo, mantendo a mesma forma de Lagrangiano após essas 2 transformações.

A ‘teoria de Yang-Mills se refere ao ‘spin isotópico‘… que é uma quantidade conservada na interação forte, e é atribuído a neutrons e prótons. – A hipótese feita por eles foi de que o spin isotópico obedeceria a uma simetria de calibre local não-abeliana.

Uma simetria é dita ‘global‘ quando as equações são transformadas da mesma maneira em todos os pontos do espaçotempo – e ‘local‘, quando       a transformação pode ser diferente… – em diferentes pontos do mesmo.

O fato da simetria de spin isotópico utilizada por Yang e Mills ser do tipo local significa, em termos físicos, a possibilidade de transformar prótons em neutrons, e vice-versa, de maneira independente para cada partícula – isto é, as transformações não precisam ser executadas do mesmo jeito… – em todos os pontos do espaçotempo — além disso… por Yang/Mills não ser abeliana, o resultado de uma sequência de transformações depende     da ordem em que elas são efetuadas.

Uma vez imposta a invariância de calibre, Yang e Mills determinaram qual seria o campo correspondente – executaram o processo de quantização… e obtiveram quanta com spin unitário e spin isotópico unitário… — e carga…que poderia ser nula, positiva ou negativa.

Entretanto, 2 questões acerca da teoria tiveram que ser deixadas em aberto pelos autores – devido a dificuldades técnicas… – o problema da massa dos quanta do campo, e a questão da ‘renormalidade’.

Por causa das dificuldades encontradas, a teoria de calibre não-abeliana não parecia ser aplicável à ‘interação forte‘. Entretanto, havia a possibilidade de que a ‘interação fraca‘ fosse descrita por meio de uma teoria do tipo Yang/Mills. E, para isso, foram propostas     2 novas ‘teorias de calibre’ unificando o ‘eletromagnetismo’ e a ‘interação fraca’ — por Sheldon Glashow (1961); e por Abdus Salam e John Ward (1964)… do tipo SU(2)×U(1).

Nessas teorias, o lagrangiano da interação previa a existência de 4 bósons… o fóton, e mais 3 bósons vetoriais fracos (um com carga positiva… outro negativa… e mais outro neutro). Porém, havia o problema da diferença de massa – que é nula para o fóton, mas deveria ser não-nula para as outras 3 partículas… – As massas das partículas precisavam ser inseridas manualmente na teoria…E, além disso, restava a questão de como se ter bósons massivos sem destruir a invariância de calibre…

Campo eletromagnético vetorial (fóton s/massa); campo gravitacional tensorial (gráviton s/massa) ==> Campo de Higgs (bóson c/ massa ?)

TQC e a ‘Quebra de Simetria’

—  Para se construir uma determinada Teoria Quântica de Campo, é preciso acrescentar aos princípios gerais satisfeitos em qualquer TQC, mais alguma informação física. Uma maneira muito comum de se fazer isso é especificando as simetrias obedecidas por tal sistema físico. Para isso ocorrer, pesquisam-se quais as ‘leis de conservação‘ respeitadas pelos processos físicos de interesse, e a partir daí descobrem-se as simetrias do sistema.

Tal procedimento não é apenas eficaz, mas reflete o antigo princípio estético de que a natureza é essencialmente simples em seu funcionamento último… Todavia, também considera que os fenômenos físicos observados raramente espelham tal simplicidade           e regularidade – sendo preciso, portanto… a um só tempo construir uma teoria física     com simetria intrínseca, e encontrar um meio de quebrar a simetria – para dar conta     dos variados aspectos do mundo.

Toda equação diferencial (ou integral), tem um conjunto de simetrias. Se as soluções para essa equação possuírem as mesmas simetrias da equação – então…diz-se que a simetria é preservada (não é quebrada). – Porém, se a simetria das soluções não estiver presente na equação… diz-se então que as soluções quebram a simetria (da equação que as originou).

Até o presente há 2 mecanismos de quebra de simetria disponíveis: quebra espontânea de simetria, na qual a dinâmica seleciona as soluções não-simétricas por causa da menor energia que estas devem ter quando comparadas à solução simétrica; e quebra anômala (ou quântica) de simetria, na qual os infinitos da TQC são usados para violar o ‘princípio de correspondência’ – por conta do procedimento de ‘renormalização‘.

Quebra espontânea de simetria

Em 1961…o físico Jeffrey Goldstone propôs um mecanismo para obter a ‘quebra espontânea de simetria‘ na teoria quântica de campos…Porém, Steven Weinberg, Salam e o próprio Goldstone mostraram em 1962, que     uma quebra espontânea de simetria seria acompanhada do surgimento de partículas de spin unitário … e massa nula…  —  (os ‘bósons de Goldstone‘).

Isso constituía um problema, uma vez que tais partículas de massa nula não foram observadas, nem poderiam desempenhar um papel em interações de curto alcance.

Peter Higgs, então, completou o mecanismo entre 1964 e 1966, valendo-se da invariância de calibre…para mostrar como as partículas podem ganhar massa via quebra espontânea de simetria – sem o aparecimento de partículas de massa nula. Pelo mecanismo que leva seu nome (Mecanismo de Higgs)… desaparecem os ‘bósons de Goldstone’…os quanta de campo adquirem massa… e aparece também uma partícula massiva – chamada então de ‘bóson de Higgs.

O mecanismo de Higgs também funciona para teorias baseadas no grupo não-abeliano SU(2)×U(1), o que abriu o caminho para uma teoria de calibre unificada das interações eletromagnética e fraca…teoria que seria formulada independentemente por Weinberg   em 1967, e Salam, 1968, usando o mecanismo Higgs ao explicar a massa das partículas.

A teoria eletrofraca de Weinberg/Salam não despertou interesse nos primeiros anos após sua formulação…uma vez que a teoria quântica de campos ainda atravessava uma fase de reclusão na época. Mas, em 1971, Gerard ’tHooft  conseguiu demonstrar que as teorias de calibre massivas com quebra espontânea de simetria são renormalizáveis. Esta era a peça que faltava no quebra-cabeças teórico.  texto base (pdf) (Ernany Rossi Schmitz /UFRGS)     !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!(texto complementar)!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!

Decaimento do bóson de Higgs em componentes da matéria (02/07/2014)

O decaimento direto do bóson de Higgs em férmions… corroborando a hipótese de ser o gerador das massas das partículas constituintes da matéria… foi comprovado no Grande Colisor de Hádrons (LHC), o enorme complexo experimental mantido pela Organização Europeia para a Pesquisa Nuclear (CERN) na fronteira da Suíça com a França.

bhiggs

Comprovação corrobora a hipótese de que o bóson é o gerador das massas das partículas constituintes da matéria. Descoberta foi anunciada na Nature Physics por grupo com participação brasileira (CMS)

O anúncio da descoberta acaba de ser publicado na revista “Nature Physics pelo grupo de pesquisadores… ligado ao detetor… “Solenoide Compacto de Múons” (CMS…na sigla em inglês).

Da equipe internacional do CMS, de cerca de 4.300 integrantes…(físicos, engenheiros, técnicos, estudantes…e pessoal administrativo)… participam 2 grupos de cientistas brasileiros, um sediado na Unesp, São Paulo, e outro no CBPF…e na Uerj – Rio de Janeiro.

O experimento mediu…pela 1ª vez, os decaimentos do bóson de Higgs em ‘quarks bottom‘ e ‘léptons tau‘…E mostrou que estes são consistentes com a hipótese das massas dessas partículas também serem geradas por meio do “mecanismo de Higgs”, como explicou o físico Sérgio Novaes – líder do grupo da UNESP…no experimento CMS.

O novo resultado reforçou a convicção de que o objeto, cuja descoberta foi oficialmente anunciada em 4 de julho de 2012 é realmente o bóson de Higgs, a partícula que confere massa às demais partículas, de acordo com o ‘Modelo Padrão‘ da Física de Partículas.

Desde o anúncio oficial da descoberta do bóson de Higgs, muitas evidências foram coletadas, mostrando que a partícula correspondia às predições do Modelo Padrão.         Estes estudos – fundamentalmente… envolviam seu decaimento em outros bósons (partículas responsáveis pelas interações da matéria), como os fótons (bósons da interação eletromagnética) e o W e o Z (bósons da interação fraca).

Porém… – mesmo admitindo o bóson de Higgs como responsável pela geração das massas do W e do Z… não era óbvio que devesse também gerar as massas dos férmions (partículas que constituem a matéria…como os quarks e os léptons), porque o mecanismo é um pouco diverso, envolvendo o ‘acoplamento de Yukawa’ entre essas partículas e o campo de Higgs.

Os pesquisadores buscavam uma evidência direta de que o decaimento do bóson de Higgs nesses campos de matéria obedeceria à receita do Modelo Padrão… – Porém, essa não era uma tarefa fácil, porque, exatamente pelo fato de conferir massa, o Higgs tem a tendência de decair nas partículas mais massivas, como os bósons W e Z por exemplo, que possuem massas cerca de 80 e 90 vezes superiores à do próton, respectivamente.

Quantum-Entanglement

No caso particular do quark bottom, um par bottom-antibottom pode ser produzido de diversas outras maneiras, além do “decaimento Higgs”.

Foi então… preciso filtrar todas essas outras possibilidades. — E, no caso do lépton tau, a probabilidade de ‘decaimento do Higgs’ nele é muito pequena…

A cada trilhão de colisões realizadas no LHC, existe 1 evento com ‘bóson de Higgs’. Destes, menos de 10% podem corresponder ao “par de taus“. – Ademais, este também pode ser produzido de outras formas…como, a partir de um fóton… – com frequência bem maior. 

Para provar de forma segura… o decaimento do bóson de Higgs no quark bottom e lépton tau, a equipe do CMS… – precisou coletar, e processar… uma quantidade descomunal de dados. Como afirmou Novaes…

“Por isso nosso artigo na Nature demorou tanto tempo para sair…Foi, literalmente… – mais difícil do que procurar uma agulha no palheiro”.

Mas o interessante, segundo o pesquisador, foi que, mesmo nesses casos, em que se considerava que o Higgs poderia fugir à receita do Modelo Padrão, isso não ocorreu.         Os experimentos foram muito coerentes com as predições teóricas… E, ele concluiu:

“É sempre surpreendente verificar o acordo entre o experimento e a teoria… – Por anos, o bóson de Higgs foi considerado apenas um ‘artifício matemático’…para dar coerência interna ao ‘Modelo Padrão’. – Muitos físicos apostavam que ele jamais seria descoberto. Essa partícula foi procurada por quase meio século, e acabou sendo admitida pela falta de uma proposta alternativa, capaz de responder por todas as predições, com a mesma margem de acerto. – Então … esses resultados que estamos obtendo agora no LHC, são realmente espetaculares. – A gente costuma se espantar quando a ciência não dá certo. Mas o verdadeiro espanto é quando ela dá certo… Em 2015, o LHC deverá rodar com o dobro de energia…A expectativa é chegar a 14 teraelétrons-volt (TeV)…Nesse patamar, feixes de prótons serão acelerados a mais de 99,99% da velocidade da luz”. (texto base)

O artigo original ‘Evidence for the direct decay of the 125 GeV Higgs boson to fermions’ da colaboração CMS/CERN, pode ser lido em ‘Nature Physics’. ***********************************************************************

Higgs, qual Higgs?                                                                                                                         Agora é esperar os resultados para ver se a ‘aparente descoberta’ se torna autêntica”.

ChargePartículaHiggsMariano

Você… certamente, se lembra da “descoberta” do bóson de Higgs, anunciada em 2012… – François Englert e Peter Higgs receberam o Nobel de Física um ano depois de terem previsto sua existência.

E…talvez você também se lembre de como o anúncio foi feito… Um anúncio cheio de senões, onde se dizia uma coisa (“Descobrimos o Bóson de Higgs”), mas se escrevia outra (“Descobrimos ‘um’ bóson de Higgs“)… — Vários anos depois, e com muito mais dados coletados, os físicos continuam sem saber ‘ao certo’    o que encontraram… — como explicou Usha Mallik, física da Universidade de Iowa, EUA:

“Até agora não temos certeza se a partícula encontrada pelo LHC é o Higgs do Modelo Padrão, ou um impostor misturado com algum outro tipo de Higgs. Estamos ansiosos para descobrir o que está além do Modelo Padrão. E o Higgs é a nossa janela para lá”. 

Para tentar tirar as dúvidas…e assumir de vez o Bóson de Higgs, ou abrir essa janela para um novo mundo da física, Mallik está à frente de um esforço para que o LHC procure por outra partícula, a única que pode tirar de vez a dúvida sobre o que foi observado em 2012. – Acontece que o Bóson de Higgs autêntico…ao decair – e ele decai muito rapidamente – deve produzir um par de quarks específicos (tipo bottom) em 60% das vezes.

Só que tem um problema… – desde a ‘aparente descoberta’ do Higgs, como Mallik a chama, o LHC não conseguiu detetar os tais quarks nenhuma vez.

Certamente a tarefa não é fácil; o bóson observado é gerado uma vez a cada 10 trilhões de colisões do LHC…e ele decai quase instantaneamente em outras partículas…o que torna a deteção, e a definição dos elementos constituintes desse decaimento – um desafio e tanto. Aliás…este é um dos motivos pelos quais está sendo construído novo LHC… mais potente.

Mallik e sua equipe estão trabalhando agora em um subdetetor – sensor que será anexado a um dos grandes detectores do LHC…o Atlas, projetado para detetar, justamente o par de quarks bottom que o Bóson de Higgs deveria gerar… – E Mallik confiante, assim concluiu:

“A esperança é observar os tais quarks na confusão de partículas pós-colisão que surge do decaimento do Higgs ou de outras novas partículas pesadas semelhantes. – É pegar aquela agulha no palheiro… sem se enganar. – Esse é o desafio”. (texto base)  jan/2017 **********************************************************************************

Bóson de Higgs e Função de Onda (Carlos Bonin)                                                 Especula-se que ao contrario da gravidade, onde o campo se amplifica com maior presença de massa, o bóson de Higgs seria como um campo…chamado “campo de   Higgs”… — que é uniforme… Essa uniformidade poderia ser a “energia escura“.

Ao tentarmos descrever uma partícula através da mecânica quântica — atribuímos a ela     uma função de onda. A fase global da função de onda (que não tem significado físico) matematicamente é descrita através de um ‘funcional’… denominado ‘Lagrangiana.

Essa Lagrangiana deve ser invariante sob transformações na fase global da função de onda. Isso significa que podemos escolher qualquer valor para a fase… mas, uma vez escolhido, esse valor deve ser o mesmo em todo ponto do espaço e instante de tempo.

Saber que a Lagrangiana original deixa de ser invariante, com a escolha de uma fase que dependa de um ponto no espaço – e do instante de tempo… significa a necessidade de se introduzir um campo vetorial sem massa que interaja com a função de onda da partícula.

No caso mais simples, esse campo vetorial é o campo eletromagnético, e a partícula em questão é eletricamente carregada. Em casos mais complicados, surgem os campos que dão origem às outras 2 interações fundamentais da natureza – descritas pela mecânica quântica: a interação forte e a interação fraca.

Esse método de se encontrar a interação é chamado de Princípio de Gauge. Nos 3 casos, os campos vetoriais (bosônicos) que surgem para descrever as interações eletromagnética, fraca e forte são campos sem massa. Contudo, os campos que medem a interação fraca são campos com massa…A eles estão associados os bósons Zo, W+ e W-… todos partículas com massa.  —  A solução para resolver esta questão é……….. o  “mecanismo de Higgs”.

Mas, como descrevemos matematicamente um campo sem massa?… – Basta não adicionar nenhum termo de massa na Lagrangiana. Se colocarmos um termo de massa para o campo vetorial na Lagrangiana para os casos acima, ela deixa de ser invariante… – Desse modo, a solução encontrada foi fazer o campo vetorial da interação fraca interagir com um campo escalar (portanto, também um bóson) num potencial de ‘auto-interação’ muito particular. Esse bóson é o chamado bóson de Higgs.

O valor esperado da maioria dos campos no vácuo é nulo. Contudo, devido a esse potencial de auto-interação peculiar… – o valor esperado no vácuo do campo de Higgs não é nulo… Escrevendo esse campo como sendo o valor esperado no vácuo… mais flutuações em torno desse valor – surge, naturalmente, um termo de massa para o campo vetorial da interação fraca…Esse é o mecanismo de Higgs para a quebra espontânea de simetria no modelo de Weinberg-Salam da interação eletrofraca.

Questões em aberto…

1) o Bóson de Higgs pode ser considerado ‘gráviton’ (por ser responsável pela massa; signo relativístico de gravidade)?

_ Não. O gráviton teria spin 2. O bóson de Higgs, spin 0. – Embora ambos sejam bósons, suas características são muito distintas. Além do mais, nos níveis experimentais atuais, a gravidade não desempenha nenhum ‘papel apreciável’ no comportamento das partículas quânticas… Assim, a teoria quântica de campos tradicional (na qual foi proposta o bóson de Higgs) desconsidera a gravitação…Portanto, o bóson de Higgs não pode ser o gráviton.

2) qual seria a influência do encurvamento do campo na “produção” da massa?…

_ Encurvamento de qual campo?… Do campo de Higgs?…  –  Se você se refere ao fato do encurvamento do espaçotempo (isto é, da gravidade) ele não interfere significativamente na massa das partículas…pelo menos não em um acelerador. Agora, nas proximidades de um buraco-negro eu não sei. ### ‘O Bóson de Higgs’ ### O Higgs gera a massa de tudo?’

Publicado em cosmologia, física | Marcado com , , , | 1 Comentário

Aleatoriedade (quântica) / Criptografia (caótica)

“A física clássica simplesmente não permite a aleatoriedade… Ou seja, o resultado de qualquer processo clássico pode – em última instância – ser determinado … tendo-se informações suficientes das ‘condições iniciais’. – Apenas processos quânticos podem    ser, de fato, aleatórios.” (Christopher Monroe) … já fenômenos caóticos se situam no meio-termo entre ‘determinismo’, e o aleatório e intrínseco indeterminismo quântico.  

nºs aleatórios

Em princípio, todos os eventos, incluindo a jogada de um dado … ou o resultado de um jogo de roleta, todos podem ser explicados em termos matemáticos.

Ou seja, aquilo a que chamamos acaso é apenas uma questão de desconhecimento: se soubéssemos a localização…velocidade, e todas as demais características de todas partículas no Universo – tudo com absoluta certeza, seríamos capazes de… praticamente, prever todos os processos que ocorrem no mundo.

Mas isto só vale no reino da física clássica – onde, por trás de cada coincidência, parece haver um “plano“… uma interligação sutil de fenômenos, que acaba naquilo que chama nossa atenção pela casualidade… e, que em última instância, pode ser descrito por uma equação matemática precisa, que revela o “plano” secreto.

Terra sem deuses …                                                                                                              “Não, nem o próprio ‘acaso’ é absolutamente aleatório. Ele sofre influências do meio, e graças a essas restrições causais, a ciência…por suas leis naturais, existe. E, existindo, deve ser humilde o suficiente para compreender que a verdade final, afinal é mutável,     e sempre abrangente…de acordo com nossa capacidade adaptativa de compreensão”.

Teoricamente… pode-se obter “números aleatórios” através de uma série de medições quânticas que sejam totalmente independentes umas das outras. Essa sequência seria natural, e intrinsecamente aleatória.

Tudo, porém… é diferente no reino da ‘mecânica quântica. Nela, propriedades específicas dos objetos (como a posição de um elétron, ou a polarização de um fóton) são por natureza incertas. Embora a probabilidade de qualquer propriedade particular possa ser calculada a priori, estas propriedades – quando medidas – assumem valores específicos… os quais são intrinsecamente aleatórios.

Na demonstração mais cabal dessas diferenças, um grupo de cientistas do Instituto Max Planck, na Alemanha, usou a física quântica para construir um dispositivo que funciona sob o princípio de uma aleatoriedade verdadeira, totalmente imune a ‘planos’, previsões, ou fórmulas matemáticas descritivas.

criptografiaquântica

…Esse ‘dado quântico gera números aleatórios que não podem ser previstos com antecedência… já que as medições baseadas na física quântica — somente produzem determinado resultado com certo grau de probabilidade — isto é… de forma aleatória.

Números verdadeiramente aleatórios são necessários para a criptografia de dados, e para permitir a simulação de processos econômicos, de mudanças no clima, etc. Porém, os geradores de números aleatórios usados hoje, através de programas computacionais projetados especialmente para esse fim…estão longe de serem aleatórios; como explica Christoph Marquardt, um dos autores da pesquisa:

Eles apenas simulam a aleatoriedade — mas… com a ajuda de testes adequados… e um volume suficiente de dados, pode-se identificar padrões… Identificado o padrão, passa a ser possível prever o próximo número produzido pelo gerador desses números pseudo-aleatórios…  —  O certo é que… a verdadeira aleatoriedade somente existe no mundo da mecânica quântica…Uma partícula quântica permanecerá em um lugar ou noutro, e se moverá a uma velocidade ou outra – mas, apenas com um certo grau de probabilidade. Essa aleatoriedade dos ‘processos quânticos’ é explorada para gerar nºs aleatórios“.

Gerador de nºs aleatórios                                                                                                    

As ‘flutuações de vácuo’ foram usadas como um dado quântico. Estas flutuações são mais   uma característica do mundo quântico… – É como se, na prática, fosse ‘impossível‘ não existir alguma coisa lá… Mesmo na escuridão absoluta, está disponível a energia de meio fóton — e… embora continue a ser invisível, deixa pistas que são detetáveis por medições suficientemente sofisticadas.

Estas pistas assumem a forma de um ‘ruído quântico‘… totalmente aleatório — que só surge ao se tentar medi-lo. Para tornar visível o ruído quântico, os cientistas recorreram de novo ao “cinto de utilidades da física quântica. Inicialmente, eles dividiram um feixe de laser em partes iguais… – utilizando um ‘divisor de feixe‘.

dado-quantico

Para obter o número verdadeiramente aleatório os pesquisadores dividiram a curva em forma de sino em seções, com áreas de tamanho igual, e atribuíram um nº a cada seção. [Gabriel et al./Nature Photonics]

Um divisor de feixe tem 2 portas de entrada e 2 portas de saída… A 2ª porta de entrada foi  coberta pelos pesquisadores, impedindo a entrada da luz. Contudo, as flutuações do vácuo quântico ainda estavam lá, influenciando a saída dos 2 feixes parciais de laser. — A seguir, os 2 feixes foram dirigidos aos detectores – medindo-se a intensidade do fluxo de fótons… (cada fóton produz um elétron… e a corrente elétrica resultante é registrada pelo detector)

Ao subtrair a medição das 2 curvas produzidas pelos 2 detectores – o resultado seria zero, se estivéssemos tratando com o mundo clássico. Porém, no mundo quântico, resta o ruído quântico… — como explica Christian Gabriel… pesquisador responsável pelo experimento:

Durante a medição, a função de onda da mecânica quântica é convertida num valor… A estatística é pré-definida, mas a intensidade medida continua a ser uma questão de puro acaso. Quando plotados em uma curva de Gauss, valores mais fracos surgem com muita frequência, enquanto os mais fortes só ocorrem muito raramente“.

O experimento é promissor para usos práticos. — Combinações de números aleatórios são necessárias para criptografar dados durante transferências bancárias. Números aleatórios também são usados para simular processos complexoscom resultados probabilísticos.

Por exemplo, os economistas usam as chamadas simulações de Monte Carlo para tentar prever o comportamento e evolução dos mercados financeiros…e, os meteorologistas as utilizam para alimentar seus modelos do clima…inserindo algumas variações aleatórias.

Criptografia quântica é demonstrada pela 1ª vez                                                       Estudos envolvendo criptografia quântica – métodos de segurança invioláveis, feitos por meio da manipulação das propriedades quânticas de partículas/ondas – vinham sempre acompanhados de expressões reticentes…  —  Agora, porém … tudo isso começa a mudar.

cripto

Pesquisadores da Universidade de Toronto, Canadá…realizaram o 1º  experimento prático — utilizando equipamentos … comercialmente disponíveis, demonstrando como implementar ‘sistemas quânticos criptográficos’.

Eles apresentaram a primeira prova experimental – do uso da técnica de iscas quânticas na criptografia de dados transmitidos através de fibras ópticas… – Esta técnica consiste em variar a intensidade dos fótons introduzindo ‘iscas fotônicas… que são fótons disfarçados de dados reais… – Após os sinais enviados… outra transmissão diz ao computador receptor quais dados são verdadeiros, e quais os falsos.

Neste método de ‘criptografia quântica’, os fótons – de um raio laser…carregam complexas chaves de criptografia por meio de fibras ópticas.

A criptografia convencional se fundamenta na complexidade dessas chaves – algoritmos matemáticos difíceis de se quebrar…mas não impossíveis. – Já a criptografia quântica se baseia nas leis fundamentais da física – mais especificamente, no ‘Princípio da Incerteza’ de Heisenberg, para o qual – a observação de uma partícula quântica já é suficiente para alterá-la. – Ou seja, o simples ato de alguém ler os dados para tentar quebrar uma chave de criptografia, altera as iscas fotônicas… um claro sinal para o receptor de que os dados foram interceptados.

Vêm aí a criptografia caótica…                                                                                                Com base na teoria do caos, um grupo de pesquisadores da Universidade de São Paulo (USP) desenvolveu um novo sistema de criptografia que – mesmo sendo mais seguro… mantém a velocidade e operacionalidade dos sistemas tradicionais.

Pesquisadores da USP de São Carlos… e de Ribeirão Preto, desenvolveram novo sistema de criptografia que promete maior segurança às transações bancárias via internet. A iniciativa irá dificultar a ação de hackers espiões em suas tentativas de quebrar códigos de segurança na internet, bem como, por exemplo…codificar arquivos em notebooks – que poderiam ser extraviados. Para o professor Odemir Martinez Bruno, do Instituto de Física de São Carlos, da USP… O sistema é inovador, pois combina o método tradicional de criptografia, com uma parametrização dinâmica obtida dos ‘sistemas caóticos’…Com isso, produzimos um algoritmo computacional com melhorias na segurança — e também na velocidade… Um dos aspectos inovadores do novo sistema… é justamente a integração entre conceitos da física e da matemática à computação.

criptografia-e-caos-2

Esta animação mostra uma mensagem criptografa no sistema caótico. A mensagem “lorenz” foi cifrada com a senha “ifsc”. A senha determina os parâmetros iniciais do atrator e os saltos onde armazenar a mensagem. Cada esfera representa um dos 6 caracteres da palavra “lorenz” cifrados no atrator. [Imagem: Odemir Martinez Bruno]

Como a criptografia funciona

A criptografia embaralha números, letras e símbolos a fim de codificar textos – e…só podem decodificar e recuperar o texto original, pessoas autorizadas.

Tradicionalmente, a criptografia clássica utiliza operações lógicas,     ou aritméticas…simples…para o embaralhamento.

Na prática, quando um usuário digita os dados de seu cartão de crédito, em uma transação comercial…através da internet, suas informações são desde logo “embaralhadas” de maneira que um invasor não consiga decifrar seus códigos… – Somente o banco deveria ser capaz de decifrar as informações. Porém… hoje em dia… boa parte dos algoritmos aplicados na criptografia já foram quebrados – como explica o pesquisador:

Esse duelo entre códigos estabelecidos, e os que tentam quebrá-los… dura mais de 2 mil anos. Tanto que a criptografia já foi amplamente usada em operações militares. Muitas batalhas e guerras foram vencidas ou perdidas pelo sucesso ou fracasso da criptografia. Atualmente…a criptografia desempenha importante papel na economia moderna. Ela é responsável, entre outras funções, pela segurança eletrônica nas transações comerciais“.

Nas últimas décadas…pesquisas envolvendo a criptografia de sistemas caóticos têm sido objeto de estudos – sendo que, inclusive, alguns algoritmos de criptografia baseados na ‘teoria no caos‘ já foram criados… – Entretanto, esses métodos utilizados até então, apresentavam severas limitações — tornando-os inseguros … e, demasiado lentos para aplicações comerciais… como assim argumenta Bruno: A combinação agora aplicada entre a criptografia clássica e sistemas caóticos – dá agilidade ao embaralhamento de operações algorítmicas – o que traz melhorias na segurança, e velocidade do sistema“.

Sequências pseudo-aleatórias  Cada vez mais sistemas criptográficos estão sendo ‘quebrados’  —  o que tem motivado a busca por … novas formas de produção de ‘algoritmos’.

A “teoria do caos pode explicar o comportamento … — aparentemente errático e imprevisível … — de certos sistemas naturais. O comportamento desses ‘sistemas não-lineares’… onde pequenas diferenças, são fortemente amplificadas (pelo efeito borboleta) depende de suas ‘condições iniciais’.

O método caótico utiliza uma matemática bem mais sofisticada do que os tradicionais. O sistema se baseia na geração de sequências ‘pseudo-aleatórias’. Se os parâmetros iniciais do sistema caótico forem exatamente os mesmos … — a sequência será sempre a mesma.

Na criptografia caótica usada pelos pesquisadores brasileiros – estas sequências são utilizadas para embaralhar as mensagens… sendo impossível que alguém gere a mesma sequência aleatória… – a não ser que tenha acesso ao sistema caótico…com parâmetros iniciais idênticos.

Com a criptografia tradicional…de acordo com Bruno, leva-se cerca de 5 minutos para criptografar a quantidade de informação equivalente a um CD. Os métodos anteriores baseados na teoria do caos levariam cerca de 1 hora e meia para criptografar a mesma quantidade de informação…  O novo algoritmo faz o serviço em cerca de 8 minutos.    

Portas lógicas booleanas                                                                                                   

Com todas as maravilhas que seu computador lhe permite, no fundo, no fundo, ele é feito de minúsculas chaves, chamadas transistores, arranjadas na forma de pequenos circuitos, chamados portas lógicas. Para que seu computador funcione da maneira que você espera, essas portas lógicas devem dar resultados muito precisos. Uma porta AND, por exemplo, só deve dar resultado 1 quando ela receber 2 entradas 1. – Já uma porta OR dará sempre resultado 1, a menos que haja 2 entradas 0.

Se parece confuso, saiba que, juntando meia dúzia de “maquininhas” capazes de tomar decisões desse tipo, você nem precisa de transistores, e pode construir um computador     de qualquer coisa – de varetas e cordas – ou de copos e canos com água… por exemplo.     E, suas ‘maquininhas‘…ou suas portas lógicas… deverão sempre dar respostas simples, precisas e unidirecionais – ou 0, ou 1; dependendo dos 2 valores que entram. Depois é     só montar tudo numa estrutura hierárquica bem definida, e você terá um ‘computador’.

caosgate-1

As portas caóticas permitem construir dispositivos de computação com a capacidade de se reconfigurar em uma série de portas lógicas diferentes. [Ditto et al./Chaos]

Portas caóticas 

Mas, agora … um grupo científico de várias universidades dos EUA está propondo uma mudança radical nesse enfoque. Em vez do determinismo e precisão das portas lógicas tradicionais…eles acreditam que é possível construir computadores melhores, usando “portas caóticas” – ou, portas que tomam       suas decisões  –  com base nos fenômenos descritos pela eminente ‘teoria do caos‘.

De forma bem simplificada… eles utilizaram padrões caóticos para codificar, e manipular       as entradas, de forma a produzir a saída desejada… Selecionando os padrões almejados,     a partir da infinita variedade oferecida por um sistema caótico, um subconjunto desses padrões foi então usado para mapear as entradas do sistema (as ‘condições iniciais’) —       de acordo com os resultados pré-estabelecidos.

O mais interessante é que esse processo permite construir dispositivos de computação com a capacidade de se reconfigurar em uma série de portas lógicas diferentes… Eles batizaram essas portas capazes de se metamorfosear de Chaogates… E – como sempre acontece nas universidades dos EUA (e deveria também acontecer nas brasileiras)… eles fundaram uma empresa, a ‘ChaoLogix‘, para tentar vender a ideia  —  como vislumbra William Ditto…da Universidade do Arizona, e um dos autores da nova técnica:

Imagine um computador capaz de mudar seu próprio comportamento interno…a fim de criar 1 bilhão de chips customizados a cada segundo, baseado no que o usuário está fazendo naquele segundo… 1 computador que possa reconfigurar a si mesmo…para se tornar mais rápido para a sua aplicação.

caosgate-3

[Ditto/Chaos]

Computador metamórfico

Segundo Ditto  –  a ChaoLogix já está montando os primeiros protótipos de computador caótico … e, já é possível verificar que a abordagem poderá ser útil em diversos sentidos.

De acordo com o pesquisador  –  os processadores caóticos não apenas poderão ser fabricados com mesma tecnologia atual … – bem como ser incluídos emcircuitos mistosque mesclem os processadores lógicos convencionais com processadores caóticos  —  “As portas caóticas são os blocos básicos de novos sistemas computacionais baseados no ‘caos‘ … que explorarão — em benefício da ‘computação’ — a extraordinária  capacidade dos sistemas caóticos… para a formação de padrões“.

Mapa logístico 

Ao contrário do que se possa imaginar – sistemas caóticos não são nem aleatórios, e nem imprevisíveis…eles apresentam padrões irregulares extremamente sensíveis às condições iniciais. Um sistema caótico gera uma saída, em resposta a uma dada entrada – de forma muito parecida com um circuito booleano tradicional – mas, a saída é muito sensível aos valores de entrada, e às condições iniciais da rede.

Ditto e seus colegas descobriram que a adição de mecanismos de controle bastante simples permite definir o padrão de saída de forma muito segura – o que significa que uma mesma porta caótica pode executar várias funções lógicas.

A chave para a geração de múltiplas saídas…a partir do mesmo conjunto de entradas é baseada num conceito chamado  “mapa logístico” — que descreve… uma ‘função não-linear‘.

Mapeando entradas…para uma saída específica, desenvolve-se uma função de mapeamento logístico, utilizando-se das propriedades não-lineares de um transístor  ‘CMOS‘ — de modo a ser possível criar uma ‘célula caótica’ bem eficiente.

Computadores híbridos 

Circuitos de interfaces simples permitem que uma célula caótica seja interconectada com outros circuitos caóticos, ou com portas lógicas booleanas tradicionais…abrindo caminho para a tecnologia, e a viabilização de computadores híbridos. Uma das vantagens das portas caóticas é que elas possuem uma “assinatura de potência” que é independente do estado lógico de entrada…

Este é um importante aspecto de segurança, que permite, por exemplo, a utilização de técnicas de ‘análise diferencial’ para determinar ‘chaves de criptografia’… monitorando a corrente elétrica consumida pelo circuito.

Computação sistêmica — O conjunto de sistemas interage… aleatoriamente… em paralelo, e o resultado de uma computação, simplesmente… emerge dessas interações”.

Uma nova arquitetura computacional, baseada no aparente caos da natureza, é capaz de reprogramar a si mesma ao se deparar com uma falha de software.

Foi o que demonstrou C. Sakellariou, e seu colega Peter Bentley… – da College London  University…A dupla batizou a arquitetura de ‘computador sistêmico.

Computadores atuais são inadequados para modelar ‘processos naturais’ – tais como a forma como os neurônios trabalham… ou como as abelhas formam enxames – porque eles trabalham sequencialmente, executando uma instrução de cada vez… como explica Bentley:

A natureza não é assim… Seus processos são descentralizados e probabilísticos… E são tolerantes a falhas… capazes de curar-se… Um computador deve ser capaz de fazer isso também. Mas, os computadores tradicionais trabalham de forma sequencial, enquanto     a natureza trabalha de forma paralela. – Mesmo quando parece que o seu computador está executando todos seus programas ao mesmo tempo, ele está apenas fingindo fazer isso, desviando a atenção muito rapidamente entre cada programa“.

O computador sistêmico imita justamente a aleatoriedade da natureza. Para isso, ele atrela a cada dado as instruções sobre o que fazer com esse dado – essas entidades digitais são os chamados “sistemas“… que dão o nome à arquitetura. – Cada sistema tem uma memória contendo dados sensíveis ao contexto, o que significa que ele só pode interagir com outros sistemas similares a ele próprio.

No computador tradicional, as instruções são executadas numa sequência que acompanha as batidas de um relógio interno – o famoso “clock” do computador…Já os novos sistemas são executados em momentos determinados  —  por um gerador de nºs pseudo-aleatórios, projetado para imitar a aleatoriedade da natureza.

Como cada sistema tem seu próprio conjunto de instruções…as instruções são replicadas em todos os sistemas onde são necessárias – não havendo precedência entre eles… como conclui Bentley… Se houver problema em um dos sistemas, o computador recupera as instruções do sistema relacionado, remontando o bloco perdido… Assim, virtualmente, ele nunca trava por problemas de software. Por estranho que pareça a coisa funciona,     e melhor do que o previsto. 

‘gerador quântico nºs aleatórios’ (abr/2010) ‘dado-quantico de nºs-aleatorios’ (set/2010) criptografia quântica (fev/2006) usp-criptografia-caotica (jun/2010) Criptografia caótica (jul/2010) ‘Vêm aí computadores caóticos’ (nov/2010) ‘computador-sistemico’ (fev/2013) <<<<<<<<<<<<<<<<<<<<<(texto complementar)<<<<<<<<<<<<<<<<<<<<<<<<< 

CAOS EM UM CHIP (jan/2007)

Pela 1ª vez… físicos demonstraram que um caos bem estruturado pode se iniciar em um circuito integrado fotônico… – E ainda, representar o começo do estudo do caos óptico, em frequências de gigahertz.

A vazão de um laser semicondutor é normalmente regular…  Entretanto, se certos parâmetros do laser forem distorcidos – tal como modulando a corrente eletrônica, ou sua realimentação…a partir de um espelho externo – sua vazão média total se tornará caótica – isto é … será imprevisível.

Para tornar o caos ainda mais dramático (e explorável) Mirvais Yousefi e seus colegas na Technische Universiteit Eindhoven (Holanda) utilizam lasers emparelhados…ou seja,  colocados em um chip, muito próximos entre si…de modo que o comportamento de cada um é afetado pelo do outro.

O “chip de Eindhoven“…que usa lasers emparelhados (mutuamente perturbativos) para chegar ao caos — é o primeiro a exibir — num dado instante…os característicosestranhos atratores‘ em sequencias temporais de plotagens de potência do laser – em vez de exibi-lo indiretamente, pela gravação de seus espectros.

Olhando à frente… para o dia em que os chips ‘optofotônicos forem manufaturados com milhares… ou, milhões de lasers — a abordagem de Eindhoven poderá permitir a precisa localização da vizinhança de lasers defeituosos – mas, não somente isso… possivelmente, até explorar efeitos caóticos localizados para seu proveito.

De acordo com Yousefi, outros possíveis usos para o caos em chips serão…criptografia, tomografia…e até, possivelmente, o estabelecimento de protocolos lógicos multicamadas, aqueles baseados, não apenas na lógica binária de 0s e 1s… – mas nos diversos níveis de intensidade similares à vazão em banda larga do sistema caótico de lasers. (texto base) ************************************************************************************

ruído quântico

Ruído quântico [Institute Of Physics].

Ordenando o Caos na Computação (mar/2010)

Ao discordar da então nascente Mecânica Quântica Einstein afirmou que… — aceitar suas bizarras leis, seria igual a afirmar que ‘Deus jogava dados com o Universo’.

Luis Ceze, cientista da computação, e professor da Universidade de Washington…restringe um pouco mais as preocupações…para ele computadores não podem jogar dados – ou seja…se você inserir o mesmo comando no computador – ele deve sempre dar a mesma resposta… Mas, na verdade o que acontece… é que essa certeza – está longe de ser verdade… Segundo Ceze, os computadores modernos costumam se comportar de forma altamente imprevisível… como ele próprio afirma:

“Com os sistemas mais antigos, com apenas um processador, os computadores – dados os mesmos comandos – se comportavam exatamente da mesma forma…Entretanto, os computadores atuais…muito mais rápidos e econômicos (por múltiplos processadores) são não-determinísticos… Mesmo para um conjunto igual de comandos, pode-se obter resultados totalmente diferentes”.

Atualmente, as coisas até que melhoraram…múltiplos processadores rodam programas mais rapidamente – sendo mais econômicos…em todos sentidos…(e isso, sem falar dos supercomputadores… — com milhares de processadores rodando paralelamente.)

Por outro lado ‘multiprocessadores’ são responsáveis por erros difíceis de rastrear, que frequentemente fazem navegadores e outros programas travarem de repente. Segundo Ceze…  Com os sistemas múltiplos, a tendência é ter mais bugs, porque é mais difícil escrever códigos para todos. E, lidar com estes bugs simultâneos é bem complicado.”

Neste caso – o que acontece… é o mesmo clássico problema do caos, frequentemente exemplificado pelo bater das asas de uma borboleta, iniciando um processo…que vai   acabar num furacão, do outro lado do mundo. O compartilhamento de memória dos computadores modernos exige que as tarefas sejam continuamente transferidas…de       um lugar para outro.

A velocidade na qual essas informações viajam…pode ser afetada por pequenos detalhes, como a distância entre as peças do computador, ou mesmo, a temperatura dos fios. Com isto, a informação pode chegar ao destino numa ordem diferente, causando inesperados erros – difíceis de prever…até para instruções que já rodaram centenas de vezes antes.

Incomodado com essa incerteza – Ceze…e colegas… afirmam ter desenvolvido uma nova técnica para fazer com que sistemas mais modernos se comportem numa forma também previsível. Eles repartiram os ‘conjuntos de comandos’ do processador os enviando para locais específicos – de onde são calculados simultaneamente… Assim, o programa segue rodando mais rápido, do que aconteceria a um único processador.

Um dos grandes méritos desse novo programa é que ele permite reproduzir os erros, facilitando o processo de sua atualização e localização – seguindo o funcionamento – passo a passo … de forma rápida e segura.  (texto base)  **********************************************************************

Circuito integrado quântico mais complexo já construído  (14/01/2014)

ci-quantico

A grande vantagem da fotônica baseada no silício é que os chips podem ser construídos com as técnicas usadas para a atual microeletrônica baseada no processo CMOS. [Imagem: Thompson Group/Bristol University]

Em 2011 uma equipe de físicos e engenheiros da GRB, Japão e Holanda, criou o primeiro chip fotônico quântico multiuso. No ano passado… eles colocaram a 1ª versão do seu — processador quântico disponível na internet gratuitamente .

Agora a equipe obteve um grau adicional de integração… nesse ramo…construindo um circuito quântico fotônico…plenamente integrado  e o fizeram usando as mesmas técnicas que foram empregadas na fabricação dos circuitos integrados usuais…O que torna este dispositivo … o “circuito integrado quânticomais complexo já construído a partir de um único material… – o silício.

O chip é capaz de gerar fótons e entrelaçá-los ao mesmo tempo… — o “entrelaçamento quântico”…juntamente com a “superposição” são os fenômenos essenciais… ao processamento e transmissão quântica de informações.

O circuito consiste de 2 fontes de fótons individuais…já gerados entrelaçados entre si, o que torna o chip adequado para, virtualmente, qualquer experimento de processamento quântico… — além de experimentos em ótica quântica e fotônica…  (Gerar os 2 fótons já entrelaçados significa que, além de serem produzidos por fontes idênticas, eles próprios são virtualmente idênticos em todas as propriedades imagináveis.) ********(texto base)

Publicado em Computação | Marcado com , | 1 Comentário

Alan Turing – O Homem que Computava…

A computação quântica é uma nova fronteira a ser explorada do ponto de vista científico, industrial e comercial. A questão é estratégica – a ponto de não poder ser negligenciada em nenhum aspecto, ainda mais quando as limitações impostas pela chamada Lei de Moore se fazem presentes (Walter Carnielli)

Alan Turing

ALAN TURING (1912-1954) © NPL ARCHIVE, SCIENCE MUSEUM

A palavra computador era usada somente em um sentido até as primeiras décadas do século XX. O significado indicava apenas uma pessoa que fazia cálculos — um profissional, envolvido no uso dos algoritmos.

Computar exigia muitas horas de trabalho…com grande concentração  —  e o auxílio, somente, de instrumentos como ábaco, ou máquina de somar.

Em 1936, o inglês Alan Mathison Turing, nascido há 100 anos, escreveu um trabalho acadêmico de lógica propondo uma estrutura matemática abstrata – que chamou de “máquina universal”… – capaz de fazer qualquer tipo de cálculo.

Seu artigo … ‘On computable numbers, with an application to the Entscheidungsproblempublicado no início de 1937…é considerado como fundador da ‘ciência da computação’.

Quando escreveu ‘On computable numbers’, ele não estava pensando em uma máquina que poderia vir a ser construída – o objetivo era apenas resolver um problema de lógica. Segundo o matemático Ubiratan D’Ambrosio…professor da Universidade Estadual de Campinas (Unicamp)…

“Sua máquina universal – conhecida como ‘máquina de Turing’ – na verdade era uma metáfora das ideias fundamentais que viriam a ser usadas para se construir o computador”.

No mesmo artigo Turing apresentou uma solução para a questão matemática do ‘problema da decisão’ (Entscheidungsproblem) … alegando que, determinados problemas não podem ser resolvidos por máquinas ou computadores teóricos.

Mas, ele não foi o único a pensar nisso… Também em 1936, o lógico Alonzo Church, já Ph.D., escreveu e publicou, de modo independente, um artigo com a mesma conclusão. Assim, Turing…então com 25 anos, foi fazer seu doutorado sob a orientação de Church,     na Universidade de Princeton, EUA.

Em 1939 ele voltou à Inglaterra, e passou a trabalhar para o governo. Tudo começou porque os militares ingleses — sabendo de seu gosto por criar e decifrar códigos — o convocaram para trabalhar com um grupo de cientistas… em um ‘projeto secreto‘. O objetivo era decifrar ordens alemãs, codificadas pela máquina chamada ‘Enigma’…e enviadas aos submarinos nazistas que patrulhavam o Atlântico.

A questão era capital para os ingleses. Os submarinos alemães impediam a circulação dos navios britânicos, quase isolando a Inglaterra… — Turing conseguiu quebrar o código…ao aperfeiçoar uma enorme máquina decodificadora chamada ‘Bomba’, cuja primeira versão havia sido construída por cientistas poloneses. Com isso a esquadra inglesa deixou de ser surpreendida pelos ataques do Terceiro Reich.

Máquina ACE - Turing

Protótipo da máquina ACE, de 1952, projeto de Turing © NATIONAL PHYSICAL LABORATORY © CROWN COPYRIGHT / SCIENCE PHOTO LIBRARY

Segundo Newton da Costa  –  matemático da Universidade de São Paulo, e professor de filosofia da U.F. de Santa Catarina…

Turing… – além de um teórico brilhante, tinha um lado prático forte. Entre outros projetos, p. exemplo…ele criou a máquina ACE (Automatic Computing Engine), uma espécie de ancestral do computador, para ‘atacar’ problemas complexos”.

Em 1950 o matemático publicou seu artigo ‘Computing machinery and intelligence’… e, escreveu ele na primeira linha do texto…‘Proponho que consideremos a questão… – as máquinas podem pensar?’. Turing introduz uma discussão sobre se é justificável chamar um computador de cérebro eletrônico… — lançando assim, as bases do que viria a ser o seminal campo da inteligência artificial.

Lógica paraconsistente na criação de ‘algoritmos quânticos’                                 Os sistemas de criptografia atuais se baseiam em um código formado por um nº enorme, que, para ser quebrado, deve ser decomposto em números primos… Quanto maior forem esses fatores primos, mais difícil será a descoberta do código. No entanto, com o advento do modelo de processamento quântico, essa criptografia tradicional poderá ser ‘atacada’ com muita facilidade.

A pesquisa desenvolvida pelo Professor Walter Carnielli, do Departamento de Filosofia da Universidade Estadual de Campinas (Unicamp), e por seu orientando de doutorado, Juan Carlos Agudelo, dá pistas para o avanço da informática quântica – ao utilizar a lógica paraconsistente como fundamento, para a elaboração de algoritmos dentro desse modelo.

operadores_lógicos

A computação quântica é baseada em conceitos da física quântica — como o da ‘superposição(quando a partícula está em simultâneas condições contraditórias) e ‘entrelaçamento‘ (quando a alteração numa partícula provoca mesmo efeito em outra……que se encontra muito distante).

Para Carnielli, assim como a física clássica não apresenta resposta para várias situações de contradição em sistemas físicos – tampouco a lógica booleana… na qual os computadores atuais se baseiam, pode responder configurações em que as cláusulas sejam contraditórias.

Controle racional da contradição 

A solução encontrada pelos pesquisadores foi usar a chamada lógica paraconsistente, capaz de obter resultados racionais — mesmo nos casos em que 2 ou mais condições não possam ocorrer (na lógica clássica) ao mesmo tempo… Por exemplo – um comando que indique virar à esquerda e à direitasimultaneamente; conforme comentou Carnielli…

Ou, mais dramaticamente, a transmissão de informações contraditórias de velocidade ao computador de bordo, como no caso da queda do vôo 447 da ‘Air France’.  A falta de controle racional da contradição tem como consequência, nesses casos, o desligamento do piloto automático — obrigando o comandante a pilotar sem nenhum instrumento, o que é extremamente difícil“.

Em sua tese de doutorado, intitulada “ Computação Paraconsistente: Uma Abordagem Lógica à Computação Quântica”, Agudelo criou um modelo teórico que pode inspirar a criação de softwares para os computadores quânticos – como ele próprio explicou…”Ao elaborar circuitos paraconsistentes, simulamos uma proposta de circuitos quânticos“.

simulacao-matrix

[Imagem: CQT/National University of Singapore]

Máquina de Turing quântica 

Agudelo idealizou um computador usando alógica paraconsistente’. Utilizando o esquema idealizado pelo matemático Alan Turing…o cientista da computação esboçou uma máquina na qual corre uma fita dividida em células.

A cabeça de leitura lê apenas uma célula por vez – a qual contém um sinal gráfico – e um comando que corresponde a correr para a direita, ou para a esquerda.

Na versão quântica, essa concepção moderna da máquina de Turing admite não 1, mas um conjunto de posições, que seriam inconcebíveis para a lógica clássica… como, por exemplo, um comando que faça a fita correr para esquerda, e para a direita, simultaneamente, como disse Agudelo…”Na lógica paraconsistente esses estados são superpostos…como se fossem empilhados“.

Criptografia quântica 

Segundo Carnielli, a originalidade do trabalho está na associação da lógica paraconsistente à computação quântica. Mesmo com modelos iniciais básicos, eles poderão abrir caminhos para a produção de programas para computadores quânticos.

A mera expectativa da computação quântica já tem aquecido o mercado de software, ressalta o professor da Unicamp. — Universidades já começam a esboçar programas quânticos, e empresas anunciam sistemas de criptografia nesse novo paradigma… e, Carnielli complementa:

O esquema criptográfico conhecido como RSA, bastante utilizado no comércio digital, em bancos e compras com cartões de crédito pela internet — baseia-se no fato de que é computacionalmente muito difícil conseguir fatorar um número grande no produto de 2 números primos. – O tempo estimado, por exemplo, para se conseguir fatorar um nº de 20e48 bits (chave de uma criptografia RSA)…ultrapassaria a idade da Terra… Um algoritmo quântico, no entanto, realizaria essa tarefa em menos de 6 horas. Dessa forma, com os computadores quânticos as chaves RSA perderiam completamente sua eficácia. Esse problema motivou a criação da criptografia quântica a fim de criar   um sistema de codificação praticamente inexpugnável“.

Quem irá programar os computadores quânticos?                                                     Os promissores computadores quânticos estão se mostrando mais difíceis de serem conquistados do que se imaginava a princípio. Por outro lado, uma vez construídos, parece que sua utilização será muito mais revolucionária do que se previa. 

caos-no-computador

– É comum nos referirmos aos computadores quânticos como uma nova geração…por assim dizer, de “super supercomputadores”, capazes de fazer tudo o que os computadores clássicos atuais fazem, só que mais rapidamente… Mas, não é só isso… coisas muito estranhas, porém, extremamente úteis…sob todos os aspectos – ocorrem no mundo quântico.

Em um computador clássico, o programador se preocupa em saber se cada bit tem valor 0 ou 1. Em um computador quântico, um bit quântico, ou qubit… – pode representar 0 e 1 ao mesmo tempo – dois qubits podem representar 4 valores simultaneamente, três qubits 8, e assim por diante.

Apesar de, em 2009 ter sido construído o 1º processador quântico programável – rodar algumas rotinas lógicas é uma coisa; fazer programas para eles, construindo algoritmos quânticos completos – é outra muito diferente.

Não é que a tarefa seja apenas difícil: ela parece desafiar a maneira comum de pensar…Por exemplo, usando o fenômeno da superposição, cientistas demonstraram que um programa quântico pode encontrar uma informação em uma base de dados sem nem mesmo precisar rodar o programa.

Simulações quânticas

Os computadores quânticos estão, cada vez mais, se tornando uma necessidade, a medida que a ciência cresce… e usa cada vez mais intensamente os fenômenos em escala quântica. A simulação de fenômenos quânticos, por meio da solução das equações de muitos corpos de Schrodinger tem aplicações no desenvolvimento de novos medicamentos, por exemplo.

Usando os computadores atuais, porém, essas equações só podem ser resolvidas para poucos corpos. E os resultados são apenas aproximações… Mas, os cientistas querem chegar mais perto nessas aproximações… e avançar para problemas mais complexos;     por exemplo… descobrindo uma forma de criar mecanismos de fotossíntese artificial,     que poderão resolver o problema energético do mundo.

Contudo – há um problema fundamental, quando se tenta simular a mecânica quântica em um computador clássico: o chamado “problema do sinal”. Nos cálculos da mecânica quântica…deve-se levar em conta não apenas as probabilidades – mas a amplitude das probabilidades – e essas amplitudes podem se tornar negativas.

Metropolis quântico

algoritmo-metropole

Nesse circuito quântico, o 1º passo (E) prepara um auto-estado do Hamiltoniano. O 2º passo (U) indica se queremos aceitar ou rejeitar a atualização proposta. No caso de rejeição, o circuito completo inclui uma sequência de medições das projeções Hermitianas U(i) e P(i). A recursividade será abortada sempre que o resultado P1 é obtido, o qual indica o retorno a um estado com a mesma energia de entrada… Como cada iteração tem uma probabilidade de sucesso constante, a probabilidade total de se obter o resultado (P) se aproxima exponencialmente de 1, à medida que o número de aplicações aumenta.

Um grupo de físicos teóricos da Áustria, Canadá e Alemanha, demonstrou que, de fato, as alterações de um sistema quântico podem ser reproduzidas em um computador quântico universal… Para isso, eles criaram uma versão quântica do algoritmo clássico Metrópolis.

Esse algoritmo foi desenvolvido por Nicholas Metropolis – em 1953…e permaneceu como uma curiosidade  –  até o advento dos computadores.  –  Sua versão clássica utiliza mapas estocásticos que, ao longo de inúmeras iterações, convergem para um estado de equilíbrio.

Incluído no chamado Método Monte Carlo, este é um dos algoritmos mais utilizados hoje na Física para obter os valores esperados de um sistema que se está simulando. Na versão quântica, a equipe apenas usou mapas positivos… em vez de amplitudes de probabilidade.

Isso traz problemas  —  como erros nos cálculos quando se introduzem transições de fase quânticas. Mas, ainda assim, a implementação do algoritmo quântico pode ter aplicações importantes nos campos da química…da física da matéria condensada…da física de altas energias… — e também para resolver as equações de Schrodinger para sistemas mais complexos, nos quais interagem muitas partículas… como afirmam os pesquisadores:

“Ainda que uma implementação desse algoritmo para problemas quânticos de muitos corpos em larga escala esteja fora do alcance …  —  com os meios tecnológicos de hoje, o algoritmo é escalável para tamanhos de sistema que são interessantes para simulações físicas reais”.

computação quantica

O que se deve destacar…contudo, é que o grupo demonstrou que o esforço para a construção do hardware dos computadores quânticos, sempre será bem pago  –  um computador quântico  – usando esse algoritmo… poderá ser usado para resolver problemas … exponencialmente mais rápido do que os computadores atuais.

No futuro…quem sabe o artigo que descreve a criação do Metropolis Quântico seja lembrado como um marco na história da programação quântica.

Inteligência Artificial

A computação quântica promete resolver problemas de forma exponencialmente mais rápida do que os computadores clássicos. Como ainda não se sabe exatamente como, e quem vai programar os computadores quânticos… o funcionamento dos 1ºs protótipos   tem sido demonstrado com a fatoração de números.

Em 2009, Seth Lloyd — o mesmo que garante que as máquinas do tempo do futuro podem ser detectadas hoje, criou um algoritmo quântico p/resolver sistemas de equações lineares, assim como determinar 2 variáveis desconhecidas — aparecidas em 2 equações diferentes.

Esse é tipicamente um problema de álgebra usado pelos professores em sala de aula, mas aumente o problema para 1 milhão de variáveis, e estaremos frente a frente com a mesma matemática usada na previsão do tempo e processamento de imagens…A equipe de Lloyd demonstrou que…enquanto o número de passos no algoritmo clássico cresce com o nº de equações – na versão quântica ele cresce com o logaritmo desse número… Isso equivale a resolver 1 trilhão de equações com algumas centenas de passos… mostrando o verdadeiro potencial dos computadores quânticos.

Criado 1º algoritmo quântico de inteligência artificial

—  Embora os  1ºs processadores quânticos já estejam no mercado, ninguém sabe ainda … quem vai programar esses computadores quânticos.

Ocorre que, só agora estão sendo desenvolvidos…os 1ºs algoritmos quânticos, a sequência de passos lógicos que um processador usa para resolver um problema. Os resultados — felizmente… são animadores.

É o que garante uma equipe liderada por Seth Lloyd … o mesmo que elaborou a Teoria do Construtor, que afirma que o Universo é um ‘transformer‘ – e que ajudou a revelar a rede capitalista que domina o mundo. A conclusão do grupo é que, os computadores quânticos deverão dar um novo impulso ao campo da inteligência artificial, porque seus sistemas de aprendizado permitirão enfrentar os grandes conjuntos de dados, de maneira muito mais eficiente do que os computadores clássicos.

Inteligência quântica artificial 

Deixando de lado problemas como a quebra de senhas de segurança, que parecem ter um apelo especial junto aos cientistas da computação…Lloyd e seus colegas voltaram-se para problemas que exigem um pouco menos de força bruta, e mais de inteligência.

O resultado é a 1ª versão quântica do aprendizado de máquina — um tipo de inteligência artificial na qual os programas podem aprender com a experiência, tornando-se cada vez mais capazes de encontrar padrões em grandes volumes de dados.

Os dados… assim… podem ser agrupados  –  uma ‘tarefa central‘, em aplicações como o reconhecimento de voz e de imagens – ou serem varridos em sequência… algo que pode ser feito com um número muito pequeno de qubits… como garante o Dr. Lloyd:

Nós podemos mapear o Universo inteiro – toda a informação criada desde o Big Bang, em 300 qubits. No lado mais prático…com um número menor de qubits já dá para lidar de maneira otimizada com tarefas como o reconhecimento de imagens, necessário para viabilizar carros autônomos“.

Agora é só esperar que esteja disponível um processador quântico com pelo menos 12 qubits… – o mínimo que os pesquisadores afirmam ser necessário para começar a testar na prática a inteligência artificial quântica.

Computação evolutiva

‘Árvores de Decisão são programas que dão aos computadores a capacidade de fazer previsões a partir da análise de dados históricos. A técnica pode, por exemplo, auxiliar o diagnóstico médico, ou a análise de risco de aplicações financeiras.

Para ter a melhor previsão… é necessário o melhor programa gerador de Árvores de Decisão. Para alcançar esse objetivo … pesquisadores do Instituto de Ciências Matemáticas  —  e da Computação…USP/São Carlos, usaram a teoria evolucionista de Charles Darwin — como explica o doutorando do Laboratório de Computação do ICMC…Rodrigo Coelho Barros:

A ‘computação evolutiva’ é uma das várias técnicas bioinspiradas, isto é, que buscam na natureza soluções para problemas computacionais… – Nesse sentido, desenvolvemos um ‘algoritmo evolutivo’  —  que imita o processo de evolução humana para gerar soluções… — É notável como a natureza acha soluções para problemas extremamente complicados. Não há dúvidas de que precisamos aprender com ela“.

De acordo com Rodrigo, o software desenvolvido em seu doutorado é capaz de criar…automaticamente…programas geradores de ‘Árvores de Decisão’. Para isso… – ele faz cruzamentos aleatórios entre códigos de programas já existentes, gerando ‘filhos’… que podem, eventualmente, sofrer mutações, e evoluir… E, assim concluiu:

é esperado que os programas de geração de Árvores de Decisão evoluídos, com o passar do tempo… sejam cada vez melhores  —  e 0 nosso algoritmo seleciona o melhor de todos. Mas…enquanto o processo de seleção natural na espécie humana leva centenas — ou até milhares de anos… na ‘computação evolutiva’ só dura algumas horas  –  dependendo do problema a ser resolvido“.

Heurística 

Em Ciência da Computação  —  se denomina ‘heurística’ à capacidade de um sistema fazer inovações, e desenvolver técnicas para alcançar determinado fim. O software desenvolvido por Rodrigo se insere na área de ‘hiper-heurísticas’, tópico recente na área de computação evolutiva, que tem como objetivo a geração automática de heurísticas personalizadas para uma determinada aplicação ou conjunto de aplicações. É um passo preliminar em direção ao grande objetivo da ‘inteligência artificial’… o de criar máquinas capazes de desenvolver soluções para problemas, sem que sejam explicitamente programadas para tal.

Diferentemente da ‘programação convencional’ — em que um programa executa sempre a mesma função com dados diferentes, a adaptabilidade propõe um comportamento diverso, diante de cada nova circunstância… Como explica o professor João José Neto, da Escola Politécnica da USP…

Um ‘programa adaptativo‘ possui uma crítica sobre aquilo que ele fez… e o resultado que obteve. Quando isso acontece, ele modifica o seu próprio comportamento, e começa a operar com aquele aprendizado que conseguiu a partir da experiência anterior“. **********************************************************************************  ‘o-homem-que-computava’ (Jul/2012) ‘em-busca-da-computacao-quantica'(1) ‘em-busca-da-computacao-quantica'(2) (jan/2010) # quem-vai-programar-computadores-quanticos (mar/2011) ‘robos-1ºs-sinais-consciencia’ (abr/2011) # fisica-quantica-matrix (mar/2012) computador-super-turing(abr/2012) # computacao-evolutiva-arvores-decisao (ago/2012) Modularidade biológica (fev/2013) computadores-quanticos-fazem-sua-licao-matematica (02/2013) algoritmo-inteligencia-artificial-quantica (2013)#processador auto-organizado  *****************************(texto complementar)**********************************

Inteligência artificial vai nos levar a uma Singularidade Tecnológica?             Será que os programas de computador realmente se tornarão tão inteligentes quanto o homem…e estamos realmente caminhando para a chamada singularidade tecnológica?

singularidade-tecnologica

Uma recente conferência…realizada em Berlim/Alemanha — reuniu os maiores especialistas do mundo em inteligência artificial…para debater a questão que… cientistas, futurólogos… e especialistas,          em geral…se fazem há décadas… — até         onde pode ir a ‘inteligência artificial’?

A ‘singularidade tecnológica‘ é definida como uma data no futuro quando a inteligência das máquinas supera a nossa própria inteligência… – e passa a melhorar-se a um ritmo exponencial… – não dependendo mais do ser humano.

Danko Nikolic, neurocientista do Instituto Max Planck de Pesquisas do Cérebro não se amedrontou de estar diante de uma plateia formada pelos principais pesquisadores da ‘inteligência artificial’… e — durante esta mesma reunião — fez uma afirmação ousada:

“Nunca faremos uma máquina mais inteligente do que nós. – Não se pode exceder a inteligência humana… jamais!… – Podemos… assintoticamente, nos aproximarmos dela… – mas nunca excedê-la”. 

Nikolic está convencido de que, muitos pesquisadores de inteligência artificial que acreditam o contrário estão negligenciando um aspecto importante da inteligência humana — o cérebro não é o único hardware que os seres humanos precisam para         serem bons em aprender as coisas. – Para ele…as ferramentas mais básicas para o aprendizado são as instruções contidas em nossos genes, aprimoradas ao longo de       bilhões de anos de evolução.

Técnicas de aprendizado de máquina podem imitar o cérebro, mas não contam com os elementos mais profundos que nos ajudam a aprender… conforme argumenta Nikolic:

“A única maneira de chegarmos perto de uma mente artificial que          aprenda tão bem quanto nós… – é repetindo a evolução humana”.

Mas talvez a singularidade chegue em outras configurações… Para vários dos especialistas que participaram do debate, a singularidade tecnológica pode ser melhor imaginada como uma aceleração do progresso humano… – alimentada por imediatos avanços tecnológicos. Para eles trata-se de colocar as mentes humana e artificial juntas para resolver problemas do mundo real. O que aliás parece já estar acontecendo, conforme há pouco demonstrado.

Outro ponto levantado pelos especialistas é que – sendo a singularidade atingida por inteligências artificiais formadas a partir de grandes quantidades de dados humanos, então devemos esperar que sejam tão diversas quanto nós somos — se pretendermos  trabalhar ao lado dessas inteligências sintéticas.

Mas, no frigir dos ovos, é difícil prever… não apenas qual seria o grande avanço que faria a inteligência artificial dar um salto tecnológico que a levaria à singularidade, como também o que poderia acontecer depois disso… pois, tornando-se as máquinas mais inteligentes do que nós, nossas mentes tornam-se incapazes – ou inadequadas – para imaginar o que elas seriam capazes de fazer…como assim alertou o artista, e cientista da computação Mehmet Akten:

“A razão pela qual se chama de ‘singularidade‘, é que é um ponto além do qual se consegue enxergar. Uma vez que máquinas atinjam níveis humanos de inteligência…não se pode mais imaginar o que acontecerá”…(texto base)  *********************(complemento analógico)**************************

uma máquina analógica deve:                                       

1º – Reunir todas as observações possíveis a respeito de um caso;                   2º – Estabelecer a lista das relações constantes entre seus multi-aspectos;   3º – Ser o próprio caso, assimilando a essência…descobrindo seu destino.

No nosso cérebro – ao contrário dos computadores atuais … que somente operam sequencialmente, impulsos elétricos formam vastas redes dinâmicas, que evoluem constantemente, operando coletivamente. Por isso é tão difícil de se transportar a     forma de resolver os problemas… — do cérebro humano … para os computadores.

‘processador analógico como cérebro’ # memristores # cérebro eletrônico # ‘sinapse eletrônica’ ## ‘computação caótica’ ### ‘comportamento computacional emergente’ ‘computadores analógicos’ #### ‘Inteligência Artificial em computadores quânticos’

Publicado em Computação | Marcado com , , | 1 Comentário

Ilya Prigogine… e ‘Os fundamentos do Caos’

“Estruturas dissipativas” são próprias de processos irreversíveis… e revelam a criação de ordem longe do equilíbrio termodinâmico. Fenômenos caóticos ou irreversíveis não   se reduzem a um aumento de desordem, mas…ao contrário, têm um importante papel construtivo.

ilya_prigogine

“A realidade é um fenômeno complexo, pelo qual uma causa pode gerar diversos efeitos. Não há uma linearidade entre causa e efeito – assim como não há divisão nas dualidades, pois são variantes de um mesmo mundo complexo”.

Ilya Prigogine (1917-2003) ganhou o “Nobel de Química”…em 1977 – por seu trabalho sobre Sistemas dissipativos, Complexidadee Irreversibilidade, visto por muitos, como uma ponte entre as Ciências Naturais…e Ciências Sociais.

Sua formalização do conceito de “auto-organização” serviu também, como um elo entre a Teoria Geral de Sistemas…e a Termodinâmica.

Sistemas dissipativos

São sistemas abertos…do ponto de vista termodinâmico – isto é … podem trocar energia e matéria com o meio ambiente em que estão imersos, e no qual operam fora do “equilíbrio termodinâmico“. Na verdade,   a maioria dos sistemas encontrados na Natureza não estão em equilíbrio termodinâmico, estando em constante mudança, trocando matéria e energia com sistemas vizinhos. Aliás, todos seres vivos são exemplos de sistemas fora do equilíbrio.

Duas das maiores dificuldades com sistemas fora do equilíbrio termodinâmico são que, devido às suas ‘inomogeneidades’…fica difícil definir a entropia e a temperatura desses sistemas … por estas serem grandezas termodinâmicas globais … geralmente definidas considerando o corpo como um todo, homogêneo.

Irreversibilidade

Irreversibilidade significa a impossibilidade de um sistema retornar ao seu estado inicial, com seu meio ambiente também retornado ao seu estado inicial. – Geralmente é possível retornar o sistema ao ‘estado inicial’… às custas de nova alteração em seu meio ambiente. Isso implica numa assimetria temporal do sistema… daí a existência da ‘flecha do tempo‘.

Um ‘sistema termodinâmico’ é, necessariamente, um sistema com um enorme número de partes, até para poder ser tratado estatisticamente. Todas as leis físicas são reversíveis em escala microscópica, para as partes individuais. – Porém…uma mudança de estado em tal sistema – como um todo – significa uma mudança muito complicada no arranjo de todas essas partes, a qual inclui uma certa energia necessária para essa transformação, além de alguma dissipação de energia em forma de calor.

Essa ‘energia dissipada‘ não pode ser recuperada, e portanto não é possível trazer o sistema de volta, à sua inicial configuração sem que o meio em que está inserido reponha essa energia. – Conforme Boltzmann demonstrou, a ‘irreversibilidade do sistema está associada…à sua… ‘complexidade.

Além disso… o aumento da ‘complexidade’ do sistema leva a uma maior sensibilidade do sistema às suas condições iniciais – de forma que… como Poincaré demonstrou em 1890, pequenas perturbações no estado inicial, tais como ligeira mudança na posição inicial do corpo, levariam a estados finais radicalmente diferentes, tornando impossível predizer a evolução e o estado final do sitema… – antecipando a fundamentação da Teoria do Caos.

Todos processos complexos naturais são irreversíveis. Sistemas complexos, no entanto, referem-se não apenas a sistemas com um número muito grande de partes, com pouca interação entre elas, tais como gases (…As partes desses sistemas têm comportamento aleatório, e podem ser bem descritas pela estatística e termodinâmica. – Tais sistemas     têm apenas uma “complexidade desorganizada”.)

Há sistemas, com efeito, que mesmo não tendo um número muito grande de partes, apresentam vínculos e correlações tão fortes…e não aleatórias entre as partes – que,   reduzem a independência entre elas… – enquanto criam regimes mais uniformes de correlações e interações… Esses sistemas manifestam propriedades que não podem         ser descritas em termos das suas partes.

Esta forma auto-organizada de complexidade – auto-referencial – no sentido de que a sua ordem interna é gerada a partir da interação dos suas próprias partes, ‘emerge‘ do sistema como um todo, sem qualquer “mão invisível”… – dispensando explicações ‘teológicas‘…ou ‘teleológicas‘. Diz-se que tais sistemas possuem uma “complexidade organizada”… Dentre os sistemas complexos, se destacam os seguintes…

sistemas caóticos, caracterizados por extrema sensibilidade às condições iniciais, isto é, estados iniciais muito próximos podem levar… a estados finais completamente diferentes;

sistemas não-lineares, em que o ‘princípio de superposição’ não se aplica – e assim, o comportamento do sistema não pode ser descrito como a soma dos comportamentos das suas partes.

A emergência na interação

Emergência é o processo de ‘padrões’ e sistemas complexos formarem-se a partir de uma grande quantidade de elementos relativamente simples em interação.

Este conceito tem sido aplicado… em Filosofia, em Teoria de Sistemas, nas Ciências, e nas Artes.

Vale enfatizar que, em geral, a propriedade… ou padrão de um sistema não corresponde a nenhuma propriedade de qualquer elemento em particular, não podendo ser previstos ou deduzidos das interações individuais desses elementos… – Ao contrário do que propunha Descartes não se compreende o todo estudando as partes. Aplica-se aqui o dito popular… o todo é maior do que a soma das partes“.

Não é o mero conjunto das partes que proporciona a emergência, mas sua interrelação. – Embora semelhantes, os fenômenos de emergência, e auto-organização são distintos… podendo um ocorrer sem o outro. (Texto base) **********************************************************************

A ‘COMPLEXIDADE’ DOS SISTEMAS AUTO-ORGANIZADOS                             “Em uma nova descrição do universo… – o ‘indeterminismo’  de Prigogine se faz necessário porque,  longe do equilíbrio, as flutuações (quânticas) ao ‘escolherem’                 um, dos possíveis regimes de funcionamento do sistema… colocam em jogo seus  ‘mecanismos irreversíveis’… – fazendo a matéria adquirir novas propriedades”.

Earth_Moon_Sun

O matemático Henri Poincaré (1854-1912) demonstrou que é fundamentalmente diferente o cálculo da trajetória — de uma pedra que cai, descrita pela lei de Newton… – da tentativa de calcular…o movimento de um sistema instável de 3 (ou mais) corpos; como por exemplo… o Sol, a Terra e a Lua. – Quando tratamos de muitas partículas, existem muitas possibilidades diferentes de representar um sistema (que não pode mais ser expresso por um único ponto, mas por um conjunto… uma nuvem de pontos).

Nesse caso, o estado inicial de um objeto é dado pela posição (coordenada representada pela letra q), e pelo momento (representado pela letra p). Assim… p e q – as chamadas coordenadas canônicas…definem um ponto em um espaço chamado “espaço de fases”,   e a função [ρ = ρ(p,q)] representa a distribuição de probabilidade de encontrar os pontos nesse espaço de fases.

Na termodinâmica clássica… o equilíbrio é definido como o estado em que essa função de distribuição de probabilidades ρ independe do tempo; ou seja…só depende       da energia total do sistema. Já a energia total expressa em termos das coordenadas momento p e posição q… é chamada hamiltoniano [H(p, q)] do sistema.

O conjunto canônico é aquele em que todos sistemas interagem com uma temperatura constante (T)… – Neste caso… – a função de distribuição de probabilidades (ρ) depende… exponencialmente do hamiltoniano… – E, quando a função de distribuição é dada… todas propriedades termodinâmicas de equilíbrio (pressão, calor específico, etc.) são calculadas.

No equilíbrio termodinâmico a entropia tende a um máximo, e a energia atinge um mínimo. Em ambos os casos, o extremo da entropia, ou da energia, garante que flutuações que apareçam nos sistemas microscópicos (compostos de muitas partículas, em interação) possam ser amortecidas… e que assim – ocorra um retorno ao “estado de equilíbrio“.

Por outro lado… no domínio do que é chamado termodinâmica de equilíbrio não- linear, em situações próximas do equilíbrio,  a produção de entropia é mínima… levando o sistema a estados estacionários (ordem, que não ocorreria no equilíbrio).

Já em situações longe do equilíbrio, estudos recentes têm mostrado surpreendentes resultados… – os sistemas não levam as “funções de estado” (energia livre ou entropia) a extremos…e não é certo que ‘flutuações’ sejam amortecidas, de modo que ‘instabilidades’   passam a desempenhar ‘papel fundamental’.

Sistemas Dinâmicos Instáveis                                                                                       Tenho consciência de que o abandono da noção de trajetória corresponde a uma ruptura radical com o passado… – Veremos situações em que as trajetórias se desmoronam. Esse colapso significa que as trajetórias não são mais objetos submetidos a leis deterministas. Como no movimento browniano, se fazem probabilidade, objetos aleatórios. [Prigogine]

Até bem pouco tempo, entendia-se que a introdução de probabilidades era apenas uma questão técnica, um instrumento de cálculo quando as condições iniciais das partículas não eram conhecidas (essa foi a posição assumida por Gibbs e Einstein). – Desse modo, probabilidade traduzia ignorância ou falta de informação de todas as condições iniciais para se obter as trajetórias individuais de cada partícula.

As probabilidades (a nível estatístico) eram interpretadas como uma aproximação, pois descrever o sistema através das trajetórias individuais, ou obter a evolução da função de distribuição de probabilidades (ρ) eram procedimentos equivalentes. Mas, em sistemas instáveis isso não é bem assim… Estudos detalhados mostram que neles, a equivalência entre o nível individual e o estatístico é destruída.

A ruptura da equivalência entre a descrição estatística e o nível  individual (em termos de trajetórias) conduz… segundo Prigogine – para além da ‘mecânica de Newton’. A equação fundamental de Newton (F = ma) liga a aceleração (dv/dt) de uma massa pontual, à força a ela aplicada. Essa força, determina a mudança da trajetória através de uma 2ª derivada em relação ao tempo, e por isso é invariante à sua inversão (e por isso, a ‘seta do tempo‘).

Um exemplo simples de sistema dinâmico instável… – explicitado por Prigogine…é oescoamento de Bernoulli”… Neste tipo de aplicação trajetórias calculadas a partir de pontos inicialmente vizinhos… se afastam    ao longo do tempo…e a divergência nesse caso, torna-se proporcional à exponencial [exp(λt)]…onde λ é chamado ‘expoente de Lyapounov’. 

(… – “sistemas caóticos” têm… – pelo menos um “expoente de Lyapounov“).

Operadores & ‘função de onda                                                                                           A busca das autofunções e autovalores de H leva a perturbações, e estas                     levam a divergências… – que identificam o ‘colapso’ das funções de onda”.

O advento da mecânica quântica está ligado ao ‘postulado da quantização’…onde os níveis de energia de… por exemplo – um “oscilador”… são quantizados – formando um conjunto discreto de valores. O intuito foi o de associar os vários níveis observados, aos autovalores de um operador. O ‘estado‘ de um sistema quântico é descrito por uma função de onda (ψ), sobre a qual atua o operador hamiltoniano que determina sua evolução no tempo.

Um operador é uma prescrição matemática que transforma uma função em uma outra diferente (multiplicada, diferenciada, etc.)…Cada um possui funções… que, quando atua sobre elas…as mantêm invariantes. São as chamadas ‘autofunções‘…e os números que   as multiplicam são ‘autovalores‘. A soma das autofunções e autovalores do “operador” define seu espaço funcional… (como o “espaço de Hilbert” da mecânica quântica).

Para o caso de N massas pontuais as coordenadas de posição (q) e de momento (p) são variáveis independentes. O hamiltoniano (H), como já referido…é a energia do sistema expressa em termos dessas variáveis. No caso de uma partícula livre o hamiltoniano só depende da energia cinética, mas em conjuntos de N partículas, H é a soma da energia cinética (dependente de p) com a energia potencial de interação (dependente de q).

Assim, H passa a ser uma função do tipo H = Ho(p) + λV(q), em que Ho(p) é o hamiltoniano associado à energia cinética de partículas livres (integrável) e λV(q) é o termo de energia potencial devido às interações…O fator λ mede a importância das interações entre as partículas.

Sistemas NÃO-Integráveis                                                                                                     A ruptura da equivalência entre a descrição individual (trajetórias) e a estatística é         o ponto central da abordagem de Prigogine. – Evidências de novas propriedades da matéria…associadas ao ‘não-equilíbrio’…o levou a propor uma dinâmica estendida, baseada em ‘sistemas instáveis‘ … – para as mecânicas clássica e quântica‘.

A noção de “probabilidade”… empiricamente introduzida pelo físico Ludwig Boltzmann (1844-1906) foi incompreendida a sua época, pois a ‘teoria cinética’ por ele elaborada dizia respeito a ‘processos irreversíveis’ … – sendo altamente incompatível… com relação às leis reversíveis — da ‘dinâmica clássica’ de então.

Poincaré, também ao final do século XIX, mostrou que existem sistemas chamados ‘integráveis – mas… a maior parte dos sistemas dinâmicos é…’não-integrável‘.

Sistema integrável é aquele para o qual N quantidades independentes são conservadas, para N graus de liberdade… de forma que, as soluções podem estar em termos de “funções analíticas“, do tempo…condições iniciais, etc.

A célebre ‘sensibilidade às condições iniciais’, nada mais é… – do que uma manifestação da descontinuidade das ‘funções não analíticas’, que, em geral, controlam ‘sistemas não integráveis’.

Uma classe de sistemas não-integráveis de interesse são os chamados ‘Grandes Sistemas de Poincaré’ (GSP). Nestes sistemas a frequência varia de forma contínua em relação ao comprimento de onda. A descrição do sistema é obtida introduzindo-se, como nos casos anteriores, uma função de distribuição de probabilidades ρ(p, q, t) sobre a qual atua um operador já conhecido na mecânica clássica… – chamado operador de Liouville (L).

Quando atua no espaço de Hilbert, o operador de Liouville é do tipo hermitiano, ou seja, tem como autovalores apenas nºs reais. Porém, para descrever sistemas irreversíveis o espaço de Hilbert precisa ser abandonado, e portanto … os ‘autovalores de L‘ devem ser complexos (do tipo ln = wn + iγn)…Isso acarreta que as contribuições exponenciais de evolução temporal para a distribuição de probabilidades (ρ) progressivamente, somem no futuro (t > 0), e se amplificam no passado (t < 0)… (quebrando a simetria do tempo).

Ressonâncias de Poincaré                                                                                                      A não-integrabilidade se deve à ressonâncias… que exprimem condições que devem ser satisfeitas pelas frequências…Não sendo eventos locais que ocorrem num ponto dado do espaço, e num dado instante… – elas introduzem… desse modo, um elemento estranho à noção de ‘trajetória’…que representa uma descrição local de espaçotempo”. [Prigogine]

Poincaré identificou a existência de ressonâncias (acoplamentos) entre as frequências (modos de oscilação) que caracterizam cada um dos N graus de liberdade de um sistema de partículas. Nos pontos de ressonância ocorrem ‘divergências’ (descontinuidades) que tornam impossível o cálculo das trajetórias (estes são sistemas ditos não-integráveis.)

A validade das equações utilizadas na mecânica clássica revela-se extremamente limitada. A maioria dos sistemas dinâmicos correspondentes aos fenômenos que nos rodeiam…são “não integráveis”, no sentido de Poincaré, e ‘GSP’…apresentando ‘interações persistentes’. Esses fenômenos têm descrição termodinâmica incompatível… em termos de ‘trajetórias’.

Também na mecânica quântica ‘ressonâncias de Poincaré’ introduzem eventos dinâmicos novos que acoplam a criação e destruição de correlações, e descrevem processos difusivos. Portanto, faz-se necessário uma nova formulação da teoria quântica, não mais em termos de “funções de onda“…mas sim, baseada na lógica de uma “probabilidade irredutível“.

As ”ressonâncias de Poincaré” … segundo Prigogine, representaram por muito tempo enorme dificuldade em integração nas equações da mecânica… pelas divergências, ou descontinuidades que surgiam. Prigogine todavia atribuiu às divergências um sentido físico construtivo…procurando mostrar que estas assinalam a barreira entre sistemas dinâmicos reversíveis…e dissipativos, com uma simetria temporal quebrada.

Atualmente, as ressonâncias desempenham um papel fundamental na física. A absorção e emissão da luz devem-se a elas… – O fato de poder superar seus próprios obstáculos, à descrição dinâmica dos sistemas… pode, com razão… ser considerado uma extensão que escapa ao modelo estático e determinista…aplicável aos sistemas dinâmicos integráveis.

Sistemas Dinâmicos Caóticos                                                                                            Não mais se tratam de certezas – mas sim… de probabilidades”.

Vivemos em um universo em evolução…onde os sistemas complexos que nos rodeiam, impõem uma ruptura da equivalência entre a descrição individual (trajetórias ou funções de onda) e a descrição estatística… – É neste nível estatístico…que podemos incorporar a instabilidade às leis fundamentais – e elas então, passam a adquirir um novo significado.

borboleta-e-o-caos

Divergências‘ não aparecem ao nível estatístico. Assim a estatística é usada na resolução da “não-integralidade” do sistema. Em pontos críticos, cada ponto espaço de fases é associado — não a um ponto (pτ) — que seria previsto como o estado do sistema, após um decurso de tempo τ; mas a um conjunto de pontos (p1, p2, p3,…) onde cada um deles tem chance não nula de exprimir o sistema.

Se… ao invés de considerarmos pontos individuais – associados a trajetórias no espaço de fases, considerarmos um conjunto de pontos descritos pela distribuição de probabilidade ρ, teremos que a evolução do sistema corresponde à atuação de um operador de evolução temporal (U), chamado operador de Perron-Frobenius, sobre a função de distribuição (ρ).

Esse procedimento gera o seguinte contraste… – enquanto as trajetórias permanecem instáveis (erráticas), a função ρ tende rapidamente a um valor constante (‘atrator’). E desse modo, a equivalência entre os pontos de vista individual e estatístico é rompida.

Sistemas que apresentam tais propriedades são ‘sistemas dinâmicos caóticos‘. O simples estudo de vários destes sistemas… mostrou que instabilidade e irreversibilidade são partes integrantes de sua descrição ao nível fundamental… Estas, rompem a equivalência entre a descrição individual (em termos de trajetórias, ou funções de onda) e a estatística.

O uso de ‘operadores’… – como aqueles utilizados na ‘mecânica quântica’, está em curso, e em expansão. A novidade no estudo de sistemas caóticos, no entanto…é a de se fazer necessário ir além do “espaço de Hilbert“…

Para Além do Espaço de Hilbert                                                                                    Como na mecânica clássica, as funções de distribuição quânticas ρ que correspondem a interações persistentes são ‘não-localizadas’… Isto leva a ‘funções singulares’, nos forçando a sair do espaço de Hilbert.

Funções de distribuição contínuas sob integração não podem ser aplicadas a trajetórias. O que significa que as trajetórias são eliminadas da descrições probabilística. (…) A ‘seta do tempo aparece no plano das funções de distribuição contínuas…Será que isso representa então, uma limitação do nosso método?… – Talvez seja o contrário…a existência da seta… tão evidente a nível macroscópico…se harmonize com sua própria descrição microscópica.

Eliminada a noção de trajetória da nossa descrição microscópica, esta corresponde a uma descrição realista…nenhuma medida, nenhum cálculo leva estritamente a um ponto, ou à consideração de uma trajetória única; estamos sempre diante de conjuntos de trajetórias,   e a descrição em termos estatísticos leva a melhor…é bem mais rica do que a descrição de trajetórias individuais, pois trata da evolução de conjunto.

Os fenômenos de ruptura de simetria são sempre fenômenos coletivos em que estão em jogo bilhões de moléculas. Esse indeterminismo, entretanto, não significa ausência… – mas sim… – “limites de previsibilidade“.

atmosfera

Atmosfera terrestre [Imagem: NASA]

Como são conhecidas poucas soluções das equações de movimento (somente os casos integráveis)… – geralmente… recorre-se a métodos de perturbação, e aí surgem as ‘ressonâncias’ entre os diferentes “graus de liberdade do sistema, e… – por consequência … as dificuldade de integração.

Mas, por que motivo é necessário abandonar o espaço de Hilbert?…

A resposta exige a distinção entre funções ‘normais’ e ‘singulares’… O espaço de Hilbert lida apenas com funções “normais”, contínuas. – Qualitativamente falando…é porque o mundo, em especial os sistemas microscópicos apresenta interações persistentes, e não apenas transitórias…Por exemplo, as moléculas na atmosfera estão continuamente   em colisão, mas… não podemos entender esse processo contínuo de colisões a partir de uma idealização que consiste em só considerar algumas moléculas no vácuo. – Uma tal idealização corresponderia às interações transitórias.

Interações transitórias x Interações persistentes                                                       O mundo não é tão simples assim… Se conjuntos de muitas partículas microscópicas não interagissem de forma persistente o universo seria ‘isomorfo’, não haveria lugar para a ‘auto-organização‘ … nem para a ‘vida‘ … nem para a flecha do tempo“.  

Em geral, a mecânica newtoniana considera movimentos em que as interações são transitórias, ao passo que a irreversibilidade só faz sentido, se considerarmos as partículas mergulhadas em um meio onde as interações não param nunca… – são persistentes. Enquanto as interações transitórias são descritas por distribuições           localizadas… interações persistentes se associam à probabilidades não-localizadas.

Estas, por sua vez, conduzem afunções singulares– onde, mais uma vez…o ‘espaço de Hilbert’ é abandonado…levando em conta as ressonâncias de Poincaré. Isso implica que,   a nível estatístico… – a solução de tal problema dinâmico pressupõe uma representação espectral irredutível e complexa do operador de evolução de Liouville… (“complexa”, no sentido de que essa representação quebra a simetria temporal; e “irredutível” … para significar que não se aplica a trajetórias, as quais correspondem interações transitórias.)

As interações dinâmicas transitórias, como o espalhamento, não são representativas das situações que encontramos na natureza. Nesta, as interações são persistentes…e processos de colisão correspondentes às ressonâncias de Poincaré são a maioria. Desse modo, a nível microscópico… o indeterminismo é a regra, enquanto “sistemas estáveis” são exceção. Situação idêntica ocorre com “sistemas caóticos quânticos“…onde não é possível exprimir sua evolução… em termos de funções de onda – que obedeçam à ‘equação de Schrödinger’.

O Surgimento da ‘Incerteza    A ‘probabilidade está ligada à incerteza, exprimindo o possível,   e não o certo. – Abandonando as trajetórias… deixamos de lado as certezas da dinâmica tradicional. Dessa maneira…a probabilidade, ligada ao indeterminismo ganha um significado intrínseco. 

Prigogine demorou 20 anos para  alcançar o conceito de “estrutura dissipativa e perceber que longe do “equilíbrio termodinâmico“… a matéria comum… – adquire novas propriedades…

‘Sensibilidade’… e movimentos coerentes de grande alcance…a chance de estados múltiplos,     e desse modo, uma história das escolhas feitas pelo sistema… são propriedades típicas da física matemática não-linear.

Um aspecto fundamental que Prigogine nos propõe — é o surgimento do elemento “incerteza”…uma vez que os sistemas aonde surgem fenômenos instáveis não são explicados através de partículas e trajetórias individuais, ou funções de onda…mas         sim, através da evolução de um conjunto de N partículas…tornando necessária sua descrição estatística, fundamentalmente probabilística.

Essa nova abordagem toca em um dos pontos fracos da “interpretação de Copenhague” da mecânica quântica, ou seja… – Como descrever um aparelho de medida…em termos clássicos…em um mundo regido por leis quânticas?…

Introduzindo um tempo comum entre o observador…e o aparelho que realiza medidas, ambos devem obedecer leis que incluem uma quebra de simetria temporal (…ou seja, a direção do tempo é comum a ambos… – já que, a medição é um modo de comunicação).

CONCLUSÃO                                                                                                                              A descrição dinâmica de não-equilíbrio proposta por Prigogine, permite construir funções no nível microscópico que são análogos dinâmicos da entropia. Em outras palavras, incorpora a dinâmica na termodinâmica’.

Prigogine não cessou, ao longo de sua carreira de aprofundar as temáticas envolvidas     com o conceito de ‘estruturas dissipativas’, estendendo seus estudos a outros campos, como biologia e meteorologia. – O resultado foi uma nova imagem da ciência, que ele sempre procurou disseminar… – O “novo estado da matéria” (longe do equilíbrio… e, descrito por equações não lineares) nos faz entender melhor o mundo que nos rodeia.

Para Prigogine, a marca do nosso tempo é uma ciência em que o ser e a estabilidade     deram passagem para a evolução e a mudança… – as escolhas, possibilidades… e as incertezas, são ao mesmo tempo…propriedade do universo, e da existência humana.       Elas abrem novas perspectivas para a ciência, através de uma nova racionalidade –       onde verdade científica não mais é sinônimo de certo ou determinado…e onde o     incerto e o indeterminado não estão baseados na ignorância… no desconhecimento.

Uma reformulação das leis fundamentais da física como propõe Prigogine, colocando em evidência o “caráter imprevisível do desenvolvimento da ciência”… é uma transformação, sem dúvida, arrojada e inovadora… – Através da recuperação da importância do tempo e dos processos irreversíveis…Prigogine nos mostra que é possível reconstruir uma aliança entre o homem (sua cultura, sua sociedade e seus saberes) e a aventura de exploração da natureza (o saber científico).

“O respeito à vida tem um grande significado. – A vida não é somente química… ela expressa melhor do que qualquer outro fenômeno físico algumas leis essenciais da natureza… A vida é o reino do “não linear”,       da autonomia do tempo…e multiplicidade de estruturas”. (texto base)  ******************(texto complementar)***************************       

A íntima relação entre Caos e Mecânica Quântica                                                        As dificuldades epistemológicas da ‘mecânica quântica’                                                         estão…intimamente vinculadas ao “problema do caos”.         

A equação fundamental da mecânica quântica (de ‘Schrödinger’) apenas transforma uma função de onda em outra. Em nenhum momento verifica-se sua repartição… Esta apenas será obtida no momento da medição … através de um ‘colapso da função de onda’. A mecânica quântica tem pois, uma ‘estrutura dual’. – Por um lado, a equação determinista   e reversível no tempo (Schrödinger), e por outro…um colapso da função de onda ligado à sua medição, que introduz uma ruptura da simetria temporal, isto é, a ‘irreversibilidade’, pelo observador. Assim, seríamos nós os responsáveis por atualizar suas potencialidades.

De certo modo então, voltamos à ideia (antropocêntrica) de que a irreversibilidade é um elemento introduzido pelo homem, vivendo         numa natureza fundamentalmente reversível…

Mas, independente do problema da irreversibilidade, a exigência de introduzir um observador leva a algumas dificuldades lógicas… por exemplo… Há uma natureza ‘inobservada’ diferente da ‘observada’?

No colapso da função de onda obtemos um conjunto de funções, que nos encaminha a uma descrição probabilística, necessária para se falar de “equilíbrio termodinâmico“… – E, com efeito… observamos no universo situações de equilíbrio – como a famosa radiação residual cósmica de fundo em microondas (RCFM), testemunha do início cosmológico… Mas, como é absurda a ideia de que essa radiação se deva às medições, é preciso na mecânica quântica que exista um mecanismo intrínseco que conduza aos aspectos estatísticos observados… E, esse mecanismo é precisamente a ’instabilidade caótica’. Ilya Prigogine (“As leis do Caos”)

Ilya Prigogine – trechos do livro “Ciência, Razão & Paixão”                                         As flutuações podem, através de forças dissipativas, gerar novas estruturas espaciais e temporais… – Mas, para isso… é necessário que as leis da evolução sejam não-lineares.

Entropia…que corresponde à ‘2ª lei da termodinâmica’ – representa a ‘seta-do-tempo’  formada pela quebra de simetria temporal dos fenômenos irreversíveis. Se encontra por toda parte: nos fenômenos de propagação de calor e massa, na química, física e biologia.

Com efeito, as ‘leis reversíveis‘ de movimento não se aplicam…senão a uma ínfima fração do mundo em que vivemos. As leis de Kepler e Newton – por exemplo, fornecem uma adequada descrição do movimento dos planetas; porém, o que se passa em sua superfície, assim como na geologia, clima… e a própria vida, requer a introdução de leis que incluam fenômenos irreversíveis.

Perto do equilíbrio, a termodinâmica descreve um mundo estável. – Se há flutuações, o sistema responde a elas retornando ao seu ‘estado de equilíbrio’, caracterizado no extremo da entropia, ou de qualquer ‘potencial termodinâmico’… – O fato novo que ocorre…porém, é que essa situação muda radicalmente… – quando nos colocamos longe do equilíbrio.

É graças ao fluxo de energia proveniente do Sol… por exemplo,                     que vivemos em um mundo longe do equilíbrio termodinâmico. ************************************************************

‘A Ordem do Universo’… (texto p/ consulta)

O universo surgiu de 2 processos consecutivos… o 1º não foi uma explosão de ordem, mas uma difusão gigantesca de entropia. – O 2º, apenas usou dessa entropia para criar ordem. Mas… – como poderia essa enorme entropia produzir ordem…sem um “fluxo externo”?…

Toda criação ocorre de forma irreversível – criar é dar forma ao que não tem forma…é por ordem na desordem. Quanto mais fluxo de energia impomos ao acaso, mais dele podemos extrair ordem… – Assim…a ordem pode surgir do acaso, por uma “ação transformadora”.

Para todo sistema aberto, não-linear, longe do equilíbrio…sob a influência de um fluxo de energia externo, é a conectividade entre as partes que pode gerar sua própria organização.  Mas, ordem e desordem podem coexistir em qualquer sistema…Assim, na emergência da auto-organização… – para se obter ordem…basta introduzir um pouco mais de desordem. 

Publicado em Teoria do Caos | Marcado com , | 1 Comentário

Design atômico para ‘Computadores quânticos’

Há diversas abordagens possíveis a fim de se tentar armazenar dados em qubits… – em chaves ‘liga/desliga’ feitas de luz – em íons – pontos quânticos – nos estados de energia de elétrons  – ou até em spins magnéticos (de elétrons… ou mesmo… núcleos atômicos).  

Cada uma dessas abordagens gerou o que se convencionou chamar de ‘designs, ou seja, princípios de funcionamento de ‘computadores quânticos’.

Um desses designs é chamado arquitetura Kane, em uma homenagem ao seu criador…o físico Bruce Kane.

Em 1998, ele lançou a ideia de se construir um “computador quântico” que guardasse suas próprias informações, dentro  de ‘átomos dopantes’ colocados no interior de uma pastilha de silício…

Átomos dopantes estão na base de toda eletrônica atual… — São eles que modificam as propriedades eletrônicas do silício, e permitem que esse semicondutor funcione como um transístor, ou um diodo, por exemplo.

spin-quantico_kane

Christoph Boehme trabalha no equipamento usado para demonstrar a viabilidade de um computador quântico super rápido que lê informações guardadas na forma de “spins” magnéticos de átomos de fósforo. [Imagem: John Lupton/University of Utah]

Porém, havia um problema com a ideia de Kane: até hoje, ninguém havia conseguido ler as informações armazenadas no átomo dopante. Teoricamente seria possível, mas a prática vinha contestando, tenazmente, a teoria…

Até que a equipe do pesquisador Christoph Boehme – Universidade de Utah, ao dopar o silício com átomos de fósforo… elemento não comumente utilizado na dopagem pela indústria eletrônica, conseguiu codificar as informações digitais dentro do spin desses núcleos atômicos.

Campos elétricos aplicados externamente foram, então, utilizados para processar, e ler os dados.

Lendo dados armazenados como spins                                                                 Cientistas conseguem pela primeira vez, controlar o spin de um único elétron no interior de uma nanoestrutura… – Eles foram capazes de rotacionar o spin em todas as direções possíveis, e registrar o movimento.

Além de uma carga elétrica, o elétron se comporta como um ímã minúsculo…graças à sua rotação intrínseca (spin) sobre o próprio eixo – o que permite sua utilização para guardar informações binárias. Dessa forma, espera-se que esse spin possa funcionar como um bit quântico – ou qubit – na construção de um computador quântico, que funcione com base – não na carga, mas nos spins dos elétrons.

polarizacao-spin

Como a maioria dessas experiências é feita utilizando-se “pontos quânticos”, uma espécie de ‘armadilha magnética’ que aprisiona vários elétrons juntos… manipular um único elétron até agora, permanecia um desafio a ser vencido.

A razão para isso é que — o mesmo campo magnético, que oscila muito rapidamente…(alguns bilionésimos      de segundo), utilizado para girar o spin do elétron, gera “padrões de interferência“… que tornam difícil manter o elétron preso.

Porém agora – pela 1ª vez, foi possível manipular o spin de um único elétron, de uma forma ‘totalmente controlada’.

A experiência foi feita com 2 pontos quânticos…cada um com um único elétron. A equipe do Dr. Frank Koppens do ‘Instituto de Ciências Fotônicas’ (ICFO) utilizou um 2º elétron para ler a direção do spin do outro elétron…Por meio de um princípio básico da mecânica quântica, estabelecendo que 2 elétrons só podem ficar juntos, se tiverem spins diferentes, era checado o estado de um elétron, cada vez que um campo magnético era ativado sobre   o outro – fazendo-o girar…

 Se fosse detectada repulsão nesse elétron, significaria                                        que a ‘rotação induzida do spin‘ teve sucesso.

spintrônica

Dispositivo spintrônico em silício

Cientistas da Universidade de Delaware, EUA… — desenvolveram um dispositivo spintrônico baseado em silício, que abre espaço a nova geração de computadores nos quais os dados serão armazenados… não mais na forma de chaves, que ligam, e desligam a corrente elétrica (1 e 0) mas no spin dos elétrons

Os pesquisadores conseguiram injetar elétrons com spins polarizados de um lado do componente de silício … manipulá-los no interior deste – por meio de um campo magnético – e medi-los, quando saíam do outro lado.

Componentes spintrônicos podem transportar, ou manipular informações por meio de uma corrente de spins  —  que consiste de elétrons com spins opostos…se movendo em direções opostas. Estes novos dispositivos poderiam permitir a construção de circuitos integrados menores, mais rápidos, e com menor consumo de energia… de modo que – funções distintas de ‘processamento’ e ‘memória’ … se juntem no mesmo componente.

Chip quântico fotônico                                                                                                             A grande vantagem da fotônica baseada no silício é que os chips podem                         ser construídos com as técnicas utilizadas na atual microeletrônica CMOS.

chip-quantico-3

Representação gráfica da caminhada quântica de 2 fótons. O tamanho, a cor e a intensidade dos pontos correspondem à probabilidade dos 2 fótons aparecerem em cada local. As 2 áreas de maior probabilidade são uma marca registrada do comportamento quântico. [Proctor & Stevenson]

Um grupo internacional de pesquisas elaborou uma nova abordagem – que poderá – em breve…’revolucionar’ os avanços na ‘computação quântica‘.

– O princípio utiliza 2 partículas idênticas de luz (fótons) … movendo-se ao longo de uma rede de circuitos ópticos…no interior de um chip de silício, num experimento conhecido como caminhada quântica‘.

Caminhadas aleatórias (clássicas) já são usadas há vários anos, na otimização de algoritmos na computação…O potencial das ‘caminhadas quânticas’ por seu lado, só há pouco começou a ser explorado — inclusive…  —  no desenvolvimento dos atuais computadores eletrônicos.

E, por que em um chip?… – O chip pode gerar fótons entrelaçados…E o entrelaçamento quântico, juntamente com a superposição…são fenômenos essenciais no ‘processamento quântico’, e na transmissão dessas informações. Assim, será possível construir múltiplos circuitos quânticos funcionando em série, de forma similar aos circuitos lógicos…dentro   dos processadores eletrônicos tradicionais.

No longo prazo…um computador quântico baseado em ‘caminhada quântica de múltiplos fótons’ poderá simular os próprios processos regidos pela ‘mecânica quântica’.. — como a supercondutividade e a fotossíntese…complexos demais para qualquer supercomputador atual… – E, assim complementou Jeremy O’Brien, da Universidade de Bristol, Inglaterra:

“Agora que podemos gerar e observar diretamente caminhadas quânticas de 2 fótons – passar para 3 fótons, ou mais… é relativamente simples. Isto porque já foi resolvido o problema mais desafiador … o da interação entre partículas no interior do dispositivo”.

chip-quantico-fotonico

Esquema do chip fotônico quântico, mostrando o circuito de guias de onda (branco) e os inversores de fase controlados eletricamente (contatos metálicos). Os pares de fótons tornam-se entrelaçados ao passarem através do circuito.[University of Bristol]

Circuito quântico

Um ‘circuito quântico fotônico de estado sólido’ é apenas uma das diversas plataformas…hoje em pesquisa para a construção de um ‘computador quântico‘.

Cálculos com qubits empregam supercondutores ultra-frios… e neles, para se manterem estáveis os qubits precisam ser isolados… o que é uma barreira para que 2, ou mais deles interajam…

Mas agora… — superado esse problema, ficou demonstrado que 2 ‘transistores de silício’ operando como qubits…podem — efetivamente — executar cálculos simultaneamente.

Porta lógica quântica

O componente mede o spin de 2 elétrons, e segue as instruções — se o primeiro estiver girando em uma direção particular, inverta o spin do segundo elétron. Se não, não faça nada… Este é um exemplo de uma porta lógica – unidade fundamental do computador.

Repetir essa mesma lógica simples, criando sequências de portas, permite realizar cálculos mais e mais complexos – é assim que todos os processadores eletrônicos funcionam…disse Menno Veldhorst, da Universidade de Nova Gales do Sul, Austrália:

Nós transformamos esses transistores de silício em bits quânticos, ao garantir que cada um tem apenas 1 elétron associado. Em seguida, armazenamos o código binário (0 ou 1) no spin do elétron, o qual está associado com um pequeno campo magnético do elétron“.

Transístor quântico (de silício)                                                                                     Transistores são indispensáveis porque, amplificando os sinais, permitem que           estes atravessem intactos uma longa série de portas, em um microprocessador.            

Se de um lado, os efeitos quânticos destroem as regras do comportamento clássico dos transistores eletrônicos – por outro, trazem comportamentos aplicáveis à computação quântica…Em um efeito que pode ser considerado como a fronteira final da eletrônica;   uma fronteira larga, mais parecida com uma ‘zona neutra’ onde eletrônica, spintrônica         e computação quântica convivem quase harmoniosamente, construiu-se um transístor     (de silício) cuja região ativa é formada por um único átomo (de fósforo).

Observe-se que, em realizações anteriores, um transístor atômico e um transístor molecular foram construídos… – mas…em configurações de laboratório, de difícil reprodução.

Ao construir um transístor com base em princípios quânticos — é explorado um domínio entre as computações eletrônica e quântica que, na verdade, é o grande empecilho para a miniaturização contínua dos transistores. Isso porque, abaixo de certas dimensões…hoje calculadas em torno dos 10 nanômetros, os transistores passam a sofrer a influência dos efeitos da mecânica quântica – alterando seu funcionamento.

transistor-de-tunelamento

Os elétrons saltam precisamente de ponto quântico em ponto quântico, por tunelamento, sem perda de corrente.[Imagem: Yoke Khin Yap]

Transístor de tunelamento quântico

Computadores baseam-se em processadores, que são feitos de transistores – utilizando-se  semicondutores…principalmente… o silício.

Esta tem sido a espinha dorsal da nossa atual ‘Era Tecnológica’, com apenas um detalhe a mais… – o motor dessa era é a miniaturização, que em última instância, acelera os computadores…cada vez mais.

Mas há algumas pedras nesse caminho. Uma delas…é que não vai dar para diminuir muito mais os transistores. Outra… é que os semicondutores têm sido muito eficazes…mas pouco econômicos, desperdiçando energia demais na forma de calor. – Nesse sentido, Chee Huei Lee, da Universidade Tecnológica de Michigan, EUA, acaba de apresentar uma alternativa.

Sua nova técnica traz 2 avanços importantes. O primeiro é atropelar a miniaturização, e, em vez de tentar esculpir transistores cada vez menores — em grandes pastilhas, utilizar ‘nanotubos‘… que são tipicamente “montados” de para baixo para cima, partindo do nível molecular… O segundo avanço é a própria arquitetura do ‘transístor‘ – que sai dos semicondutores, passando a mesclar materiais isolantes com condutores.

transistor-tunelamento-quantico

O transístor sem semicondutor (esquerda) e a estrutura do nanotubo de nitreto de boro (direita). [Imagem: Yap Lab/MTU]

Huei Lee usou nanotubos de nitreto de boro… – que são isolantes…recobrindo-os com pontos de ouro, cada um com diâmetro de 3 nanômetros. 

Os nanotubos de nitreto de boro, um dos materiais mais duros do mundo…são isolantes…servindo como “suporte ideal” no arranjo espacial dos ‘pontos quânticos‘, por sua “micro-uniformidade“.

A propósito, pontos quânticos são estrutura que conseguem aprisionar partículas individuais – elétrons, por exemplo… Embora isso os faça funcionar como se fossem semicondutores. Como a corrente não flui continuamente, mas vai “aos saltos”…eles são uma categoria à parte… um híbrido entre ‘semicondutor‘ e ‘molécula individual‘.

Quando uma tensão é aplicada às 2 pontas do nanotubo … em temperatura ambiente — os elétrons não saem correndo pelo tubo, porque ele é isolante. Em vez disso ocorre algo bem mais interessante… os elétrons saltam precisamente de ponto quântico em ponto quântico, por meio do fenômeno do tunelamento…Como explica Yoke Khin Yap – coordenador do trabalho:

“Imagine que os nanotubos são um rio, com um eletrodo em cada margem… – E agora, suponha que há um caminho de pedras até o outro lado do rio. Os elétrons pulam sobre as pedras de ouro. As pedras são tão pequenas…que só se pode ter um elétron, em cada pedra, de cada vez. – Todos elétrons atravessam da mesma forma…fazendo com que o dispositivo seja sempre estável”. 

Quando a tensão é forte o suficiente, o transístor entra em estado condutor; o estado “ligado”, ou “1”. Quando a tensão cai ou chega a zero, ele volta ao seu estado isolante natural — o estado “desligado“, ou “0“. Como os elétrons não têm como escapar pelo nanotubo (que é isolante) não há vazamento de corrente…o que torna o transístor de tunelamento metal-isolante muito eficiente, não perdendo energia na forma de calor.

O próximo passo será colocar vários transistores de tunelamento…em conjunto – para demonstrar seu funcionamento em condições reais – garantindo que o tunelamento de um não interfira no tunelamento que está ocorrendo no vizinho.  (texto base)  jul/2013

tunelamento

Esta imagem (de cerca de 5 nm) tirada com um microscópio de corrente de tunelamento  mostra uma superfície de cobre, onde esses átomos estão contidos dentro de um recinto quântico de 48 átomos de ferro. A barreira circular do ferro tem um raio de 71,3 Angstroms (71,3 x10-10) metros. Nós vemos os elétrons se comportando como ondas. © IBM Almaden Visualization Lab

Tunelamento quântico

‘Tunelamento’ é um efeito quântico que permite… – por exemplo – um elétron atravessar uma ‘barreira’. Isso acontece porque os elétrons apresentam um comportamento tanto de partícula, quanto onda.

Ao se deparar com uma barreira clássica, uma partícula é sempre refletida…na mecânica quântica, porém…a função de onda dessa partícula/onda não assume um valor zero instantaneamente; o que significa que, em função de sua energia (e da espessura da barreira), ela irá atravessá-la.

Um transístor clássico somente pode assumir um dentre 2 estados – ligado ou desligado, cada um deles representando zero ou 1… – O transístor de um único átomo – entretanto, funciona com base no tunelamento sequencial de elétrons individuais… entre o átomo, e   os eletrodos do transístor…Dessa forma, o tunelamento pode ser liberado, ou suprimido, controlando-se a tensão no ‘eletrodo… que possui a largura de dezenas de nanômetros.

A ideia é utilizar o grau de liberdade do spin de um elétron, cedido pelo átomo de fósforo, como um bit quântico – como esse spin pode ser “up” ou “down”, ele pode ser usado para representar os (0 e 1) digitais, formando um bit quântico, ou qubit. E de fato, a equipe foi capaz de medir os estados “para cima” e “para baixo” dos elétrons tunelando pelo átomo de fósforo – demonstrando – portanto…  a possibilidade de sua utilização prática.

fio-quantico

[Imagem: Andrew Houck Lab]

Informações quânticas dentro do chip

Os cientistas Robert Schoelkopf e Steven Girvin, pesquisadores da Universidade de Yale, EUA, já conseguiam armazenar informação de forma quântica – agora… o feito deles foi transmitir a informação quântica entre 2 qubits… usando um fio como meio de comunicação.

Os 2 pesquisadores já vinham trabalhando há anos com dispositivos de estado sólido para a construção de computadores quânticos. Agora, conseguiram que átomos artificiais… ou qubits supercondutores, se comunicassem no interior do chip.

Barramento quântico

O barramento funciona como uma ‘rodovia’ na qual os dados trafegam dentro de um computador, passando da memória para o processador, discos de armazenamento, e outros periféricos… – quanto mais faixas essa rodovia tiver…maior é a velocidade do computador… (Esse é o primeiro ‘barramento-quantico’ que se tem notícia.)

Para fazer com que os qubits se comunicassem à distância… – 2 avanços revolucionários foram feitos de uma só vez. – No 1º, foram produzidos fótons individuais de microondas, de forma controlável e sob demanda. – São esses fótons … que transportam informações quânticas, fazendo o papel dos elétrons…na eletrônica tradicional; como explica Andrew Houck, pesquisador da equipe…

Não é muito difícil gerar sinais com um fóton em média, mas é dificílimo gerar, exatamente, um fóton de cada vez…Para codificar informações em fótons é preciso ter exatamente, um deles. — Para se ter ideia da precisão alcançada…um telefone celular, por exemplo, emite 1023 fótons/segundo“.

Esta é contudo, apenas uma primeira parte da comunicação quântica. Com ela, torna-se possível pegar a informação gravada no qubit, codificá-la no fóton, e transmiti-la. Agora,   é necessário recebê-la no outro lado…e este foi o 2º avanço alcançado. Os pesquisadores guiaram o fóton de microondas num fio – da mesma forma que um fóton de luz visível é guiado ao longo das fibras ópticas.

Assim, ele pode atingir o 2º qubit, passando a informação codificada… A possibilidade de comunicação entre os qubits à distância – é essencial no processamento quântico de informações. (‘avanços rumo ao computador quântico’ – set/2007)

‘design para computador quântico’ (07/2002) ‘Manipulando o spin de um único elétron’ (ago/2006) ‘Lendo dados armazenados como spins’ (dez/2006) ‘dispositivo spintrônico’ (maio/2007)  ‘transistor-atomico’ (dez/2009)  ‘transistor-optico-quantico’ (maio/2010) ‘chip-optico-quantico’ (set/2010) chip-fotonico-multi-uso (2011) ‘chip-nanotubo-carbono’  (2012) BIOS-comp.quânticos(2013) ‘circuito quantico’(2014) comp-quantica-silicio(2015) *******************************(texto complementar)********************************

Spin atômico é fotografado pela 1ª vez   (27/04/2010)                                                 Nas imagens registradas pelos cientistas, os átomos de cobalto aparecem como uma saliência única, se a direção do spin estiver apontando “para cima”… — e como uma saliência dupla. se estiver apontando “para baixo.”

spin

As diferenças no formato e na aparência de cada um dos átomos de cobalto são causadas pelas diferenças na direção dos seus spins.[Imagem: Saw-Wai Hla]

O spin é uma propriedade quântica fundamental das partículas elementares.

Embora o termo seja usado em várias acepções  –  para efeitos experimentais spin é entendido, como se fosse um minúsculo ímã – com uma orientação, que pode ser “para cima” ou “para baixo“.

Os termos “para cima” e “para baixo” são apenas convenções — utilizadas para representar a orientação do spin.  —  O importante…é que ele pode ser usado para armazenar um bit de informação – assumindo um valor que pode ser 0 ou 1.

Spintrônica 

Fazer um spin passar de 0 para 1…e vice-versa, requer pouquíssima energia – bem menos do que o fluxo de elétrons usado nos computadores atuais. Isso tem levado os cientistas a apostarem no advento da spintrônica… – complementando…ou mesmo substituindo a eletrônica atual  –  viabilizando a construção de computadores menores, mais rápidos…e com consumo de energia muito menor. Apesar dos progressos recentes na área, contudo, até hoje ninguém havia realmente visto um spin.

Para conseguir o feito, os cientistas das universidades de Ohio, EUA, e Hamburgo…na Alemanha, tiveram que construir um microscópio eletrônico sob medida para a tarefa.       O microscópio de varredura por tunelamento (STM: Scanning Tunneling Microscopy) recebeu uma ponta recoberta com ferro… — para poder manipular átomos de cobalto colocados sobre uma placa de manganês. Ao reposicionar os átomos de cobalto sobre         a superfície — eles então … alteraram a direção dos spins dos elétrons desses átomos.

1 bit por átomo 

O estudo sugere que é possível não apenas observar, mas também manipular diretamente o spin, uma descoberta que poderá ter impacto no desenvolvimento futuro de sistemas de armazenamento magnético de computadores quânticos…e, dos dispositivos spintrônicosComo assim explicou Saw-Wai Hla, um dos autores do estudo…

“Diferentes direções do spin, podem representar diferentes estados para o armazenamento de dados. Cada bit magnético registrado no disco rígido de um computador utiliza dezenas de milhares de átomos… — No futuro, poderemos usar 1 só átomo, guardando o bit em seu spin…multiplicando a capacidade dos computadores por milhares de vezes”… (texto base)  ************************************************************************************

Processador fotônico usa fótons individuais como bits  (12/07/2016)

Nada parece rápido o suficiente ou impressionante o bastante para arrefecer os ânimos das equipes que trabalham no campo da computação quântica. Há poucos dias…físicos alemães conseguiram fazer com que feixes de luz “sentissem” uns aos outros… — o que promete eliminar os equipamentos intermediários entre…a ‘transmissão de dados’ por fibras ópticas e os computadores eletrônicos e – mais tarde… viabilizar computadores totalmente fotônicos, que não só trocam dados — como processam dados, usando luz.

porta-logica-fotons-isolados

Agora, outra equipe também da Alemanha foi ainda mais fundo, construindo uma porta lógica que envolve, não feixes de luz… mas ‘fótons individuais‘ — que podem assim…funcionar como qubits, processando dados por luz.

Interação entre fótons

Os fótons são ideais para a transmissão de informações porque não interagem entre si, passando uns pelos outros sem perder suas informações. Isso contudo os torna pouco adequados para o processamento das informações, quando   os bits precisam interagir uns com os outros.

Bastian Hacker superou este obstáculo utilizando uma 3ª partícula auxiliar… – um único átomo preso dentro de um ressonador óptico, que assume o papel de um mediador entre os dois fótons. – De forma independente…mas em rápida sucessão os 2 fótons atingem o ressonador, que consiste de 2 espelhos de alta reflexividade, e no centro um único átomo de rubídio aprisionado, formando um sistema fortemente acoplado.

O ressonador amplifica o campo luminoso do fóton, permitindo uma interação direta átomo-fóton. Como resultado, o estado atômico é alterado pelo fóton quando ele está sendo refletido pelo espelho… Essa alteração é detectada pelo 2º fóton quando chega         ao espelho pouco tempo depois.

CPU óptica

“Os dois fótons nunca estão no mesmo lugar ao mesmo tempo e, portanto, eles não veem uns aos outros diretamente. No entanto, conseguimos uma interação máxima entre eles” explica Bastian Hacker, do Instituto Max Planck de Óptica Quântica. A equipe afirma que essa ‘porta lógica de fótons‘ pode viabilizar o processamento óptico de informações – como explicou o professor Gerhard Rempe, coordenador da equipe…concluindo o artigo:

“A distribuição de fótons através de uma ‘rede quântica óptica’ permitiria ligar qualquer número de ‘nós de rede’ – e assim, realizar a configuração de um computador quântico óptico escalável…no qual a porta fóton/fóton assuma o papel de unidade central de processamento (CPU)”. (texto base)

computador-quantico-ibm-internet

Diagrama do processador quântico de cinco qubits que está sendo disponibilizado online. [Imagem: IBM Research]

Processador quântico online

Seguindo os passos dos pesquisadores da Universidade de Bristol…GRB, que em 2013 ofereceram, pela internet um processador quântico, a IBM acaba de anunciar a disponibilização, de acesso gratuito … ao seu próprio processador quântico.

Enquanto o chip da Universidade de Bristol conta com 2 qubits…a versão que a IBM colocará online…possui 5  qubits.

As 2 equipes já estão trabalhando em versões mais aprimoradas, com dezenas de qubits, por isso resolveram tirar vantagem de suas versões mais simples, mas mais estáveis… A expectativa é que – quando os usuários…especializados ou não… tentarem programar o processador quântico online — os pesquisadores obterão informações importantes para ajudá-los no desenvolvimento de versões maiores.

“Estamos ansiosos para sermos surpreendidos pelos algoritmos testados pelos usuários externos. Queremos ver onde as coisas não funcionam tão bem, e a estabilidade do experimento com o tempo”… (Jerry Chow, IBM)

computador-quantico-ibm-internet-1

A interface de programação do processador quântico (visto à direita) lembra uma partitura musical. [Imagem: IBM Research]

O processador quântico da IBM poderá ser programado por um serviço web… – o ‘Composer‘ – assim chamado … porque a sua interface se assemelha… a uma partitura musical… – Tutoriais explicam como arrastar e soltar ‘portas lógicas quânticas’…para criar um algoritmo, que poderá então rodar no “processador”…

No ano passado…a IBM recebeu financiamento para desenvolver um processador de 17 qubits  — capaz de executar códigos de correção de erros, essenciais para a criação de computadores quânticos maiores e com aplicações práticas. A solicitação de acesso ao processador quântico da IBM pode ser feita no seguinte endereço. (mai/2016) *************************************************************************************

Projeto prático para a construção de um computador quântico 02/02/2017

projeto-computador-quantico-erros

Módulo ilustrando como os dados e os qubits de medição interagem nas portas lógicas para executar o código. Os qubits de dados são estáticos e os qubits de medição trafegam entre as portas. [Bjoern Lekitsch]

Uma ‘equipe internacional‘ divulgou o 1º ‘projeto prático’ para a construção de um computador quântico em larga escala.

A equipe já se prepara para construir um protótipo – em miniatura – para testar o conceito. A máquina completa – quando construída de acordo com o projeto, terá o tamanho de um ‘campo de futebol’ … e poderá custar cerca de US$ 120 milhões.

O tamanho é um problema, mas o custo não o coloca muito distante… dos atuais ‘supercomputadores eletrônicos‘… – se,  sobretudo considerarmos o que se pode esperar de seu desempenho…  A grande expectativa é que os computadores quânticos revolucionem a indústria… a ciência… e, as transações comerciais e bancárias…em uma escala semelhante à da passagem dos papéis para os computadores atuais.

O projeto, disponibilizado para outras equipes tentar construir seus próprios protótipos, é resultado do trabalho da equipe composta por pesquisadores da Google (EUA) … e das universidades de Sussex (GRB), Aarhus (Dinamarca), Riken (Japão), Siegen (Alemanha).

projeto-computador-quantico-camaras

Estas são as câmaras de vácuo onde os qubits ficarão. É por causa delas que o computador quântico será tão grande: cada uma medirá 4,5 x 4,5 metros.[Bjoern Lekitsch et al.]

O plano se baseia no uso de qubits gerados por átomos eletricamente carregados (íons)…confinados em uma ‘armadilha eletromagnética’.

A vantagem desta abordagem… é permitir que o funcionamento do computador…a uma temperatura ambiente, não requerendo assim, que todo o sistema seja resfriado a temperaturas frias, ao extremo.

As ‘portas lógicas’ — blocos básicos de cálculo… são bem mais simples do que os sistemas largamente usados, baseados em laser. O problema é que isso exigiria alinhar um feixe de laser individual em cada qubit, o que é tecnicamente muito problemático quando se parte para um número de qubits capazes de fazer cálculos práticos. — Assim…a equipe preferiu usar micro-ondas, o que simplificou muito o sistema.

Outra inovação é um sistema de correção de erros — já que os qubits são muito frágeis, tendendo a perder dados rapidamente. – Para resolver esse problema, a equipe propõe   usar ‘qubits estáticos’ para manter a coerência, e ‘qubits de medição’ para transferir os dados – esses qubits transportarão os dados… – empurrados por ‘campos elétricos‘.

Para a comunicação interna a abordagem mais comum, mas igualmente desafiadora, era interligar os módulos de cálculo usando conexões de fibra ótica… Em vez disso o projeto prevê o uso de conexões criadas por campos elétricos — que permitem que os íons sejam transportados, de um módulo para outro… Esta nova abordagem permite velocidades de conexão individual entre módulos de computação quântica…100.000 vezes mais rápidas, em comparação com tecnologia de fibra, embora resulte num equipamento muito maior.

projeto-computador-quantico-modulo

Ilustração dos módulos básicos de cálculo, cada um contendo 36 x 36 junções, cada uma controlada por mesas coordenadas X-Y-Z para manter o alinhamento. [Bjoern Lekitsch et al.]

Desta forma, o computador quântico terá uma estrutura modular, com pequenos circuitos sendo acrescentados até atingir o poder computacional desejado…Se tudo funcionar como previsto não deve haver limites ao poder de processamento, além do tamanho da máquina.

Em termos práticos, um computador quântico modular – como o agora projetado, deverá ocupar um enorme barracão de alta tecnologia, repleto de sofisticados aparelhos de vácuo necessários para manter os qubits livres de interferência dentro de circuitos integrados de silício. — A instalação deverá lembrar os prédios dos supercomputadores atuais, mas com um aspecto mais parecido com o de um laboratório.

Agora…é esperar para ver se o protótipo que a equipe está começando a construir funcionará conforme o projeto. Se funcionar, poderemos estar entrando definitivamente na era da computação quântica…(texto base)

Computação atômica x Lógica binária  (27/03/2017)                                                         ‘Pequenas máquinas lógicas…construídas com átomos individuais, podem criar uma forma mais eficiente de computação do que os supercomputadores atuais, e mais simples do que os tão esperados computadores quânticos’.

maquinas-nano-logica

Os quatro estados do átomo (esquerda) representam as quatro salas do problema. O tunelamento dos elétrons simula o movimento das pessoas entre as salas (direita). [Imagem: Fresch et al.]

Uma colaboração internacional… liderada por Barbara Fresch – da Universidade de Liége, Bélgica, afirma que suas nanomáquinas podem superar a computação binária para uma grande gama de problemas…Como explicou a pesquisadora: “A implementação aproveita a ‘natureza estocástica’ do tunelamento dos elétrons, enquanto a saída permanece como uma corrente macroscópica cuja leitura pode ser feita com técnicas padrão.”

Computação atômica

As nanomáquinas são átomos de fósforo individuais – posicionados por meio de uma técnica padrão da indústria conhecida como ‘dopagem’…em um cristal de silício, com densidade de aproximadamente 200 bilhões de átomos, por centímetro quadrado. Os elétrons se movem aleatoriamente entre os átomos de fósforo devido ao fenômeno do tunelamento – vistos como ondas… os elétrons simplesmente “se transmitem” de um átomo para outro, sem se incomodar com qualquer barreira sólida.

Como cada átomo de fósforo pode manter 1 ou 2 desses elétrons, e cada elétron pode ocupar diferentes ‘níveis de energia’ – cada átomo pode ocupar … pelo menos um de 4 estados possíveis… e fica “transicionando” de um para outro – obedecendo a certo conjunto calculável de probabilidades.

Ou seja, o tão temido “ruído“, que tanto atrapalha experimentos em       nível atômico – aqui…é a própria base de funcionamento do circuito.

Ficou assim demonstrado que esse sistema pode ser usado para simular alguns problemas computacionais … na forma de um novo tipo de simulador quântico.

maquinas-nano-logica-2

(A) Imagem topográfica da pastilha de silício mostrando o átomo de fósforo. (B) Função de onda do elétron ligado ao átomo. [Imagem: Fresch et al.]

Computação natural

Como prova de conceito…a equipe analisou um fluxo de visitantes em um labirinto, composto por 4 salas conectadas por portas. – A tarefa é encontrar a melhor combinação de ‘frequência da abertura’ das portas a fim de maximizar o tempo … que os visitantes gastam, em cada sala.

Solucionar esse tipo de problema com a computação convencional, requer uma quantidade significativa de cálculos… pois envolve a análise da dinâmica dos visitantes no labirinto para coletar informações — ainda antes da otimização do ritmo de abertura das portas.

Usando “dispositivos lógicos atômicos“…porém… é possível encontrar a solução mais diretamente, porque o problema está fisicamente incorporado pelo próprio hardware atômico…para este problema em particular, a topologia do labirinto corresponde aos estados de um átomo … e o movimento dos visitantes – ao tunelamento dos elétrons.

Os resultados são lidos em um microscópio de tunelamento, por correntes elétricas – ou seja, trata-se essencialmente de uma computação analógica.

“Sua dinâmica é governada por uma ‘lei probabilística’… – devido à natureza estocástica fundamental dos processos quânticos, e termalmente ativados. A aplicação mais direta é então… – usar ‘dispositivos de nanoescala’… – para a implementação de… “algoritmos probabilísticos“… que possam requer uma sobrecarga significativa, em um hardware determinístico convencional. – Por exemplo, a mera amostragem de um número pseudo-aleatório de uma ‘distribuição de probabilidade’ … requer centenas de instruções, em um computador moderno; enquanto o tunelamento de elétrons em tempos verdadeiramente aleatórios é um processo natural”… concluiu Francoise Remacle. (Inovação Tecnológica)

Publicado em Computação | Marcado com , , | 1 Comentário