Ruído & Redundância na Entropia da Informação

A tendência das coisas para se desordenarem espontaneamente é uma característica fundamental da natureza. Para que a organização‘ ocorra, é necessária alguma ação       que restabeleça a ordem… É o que acontece nas grandes cidades — despoluir um rio, melhorar a condição de vida de seus habitantes, e diminuir a violência, por exemplo,       são tarefas que exigem muito trabalho … e não acontecem espontaneamente. Se não houver qualquer ação nesse sentido … a tendência é que prevaleça a desorganização.MODELO ENTROPIA

Em nosso cotidiano… percebemos que é mais fácil deixar as coisas desorganizadas, do que ordená-las: ‘Organizar é sempre mais difícil que bagunçar’…A dualidade ordem/desordem  se relaciona com uma característica fundamental da natureza, chamadaentropia…Esta, por sua vez, se relaciona à quantidade de informação exigida para caracterizar um sistema, de modo que, quanto maior a entropia, mais informações são necessárias para descrevê-lo.

A tendência ao aumento da entropia – está intimamente relacionada à 1ª lei da termodinâmica. Essa lei mostra que  –  toda vez que realizamos algum trabalho, parte da energia empregada é perdida para o ambiente… — não se transformando em…”trabalho útil“.

A ‘energia liberada’…(‘calor’)…servirá para desorganizar as moléculas de ar ao nosso redor…aumentando assim a entropia do ambiente… – Logo…para diminuir a entropia – em certo lugar,  é preciso… – aumentá-la … em outro.

A manutenção da vida é um embate constante contra a entropia (desorganização), travada a cada momento por nós. Desde o momento da nossa concepção, a partir da fecundação do óvulo pelo espermatozoide, nosso organismo, ao se desenvolver … se torna mais complexo. Partimos de uma única célula, e chegamos à fase adulta com trilhões delas…especializadas para determinadas funções… (A “vida” é… – ‘de fato’… – uma ‘aventura’ muito especial!…)

A ‘entropia’ nos mostra que a ordem que vemos na natureza — é fruto da “ação de forças fundamentais”, que – interagindo com a matéria…causam sua organização.  Desde a formação do nosso planeta – há 4,5 bilhões de anos…a vida só conseguiu se desenvolver, às custas de transformar a energia recebida do Sol … numa forma útil … capaz de manter sua ‘organização’.  No processo… boa parte dessa energia é perdida, basicamente na forma de calor

Assim – para existirmos…pagamos o preço de aumentar a desorganização do nosso          planeta…Quando o Sol não puder mais fornecer essa energia…dentro de mais uns 5            bilhões de anos … esperamos que a vida na Terra já esteja noutro lugar. (texto base****************************************************************************

download

Entropia e Informação                                Uma importante característica da ‘entropia’ na teoria da informação, é estar diretamente relacionada ao grau de similaridade‘…entre as inúmeras probabilidades de  distribuição”.  (Mattos & Veiga…”Otimização da Entropia”)

A entropia da informação é equivalente à falta de conteúdo informativoum “grau      de incerteza”, contido numa mensagem.

Entropia não é um conceito fácil, e nem único. O conceito mais antigo…chamado entropia termodinâmica, remonta a Rudolph Clausius… no século XIX. Na formulação moderna da termodinâmica – a entropia é uma ‘função do estado’                de um sistema termodinâmico (no caso de um gás simples, por exemplo…função                da energia interna, volume – e, do seu nº de partículas) — cujo saber… completo,      fornece toda informação possível sobre tal sistema (clássico). Além do mais, essa        função é extensiva, ou seja, dobrando volume, energia e nº de partículas ela deve      também dobrar…E ela possui a propriedade de que, em qualquer transformação, suficientemente lenta, de um sistema fechado – deve sempre crescer… ou ficar a      mesma. Na termodinâmica atual essas consequências são tidas como ‘axiomas‘;              ou seja: ‘existe entropia — ela é extensiva — e nunca deve diminuir’.

A “termodinâmica” não se propõe a fazer modelos específicos sobre a estrutura da          matéria. Ela é um quadro de como deve ser qualquer sistema onde se possa definir        uma quantidade chamada ‘entropia’. Ela não fala de átomos, moléculas ou estados            de energia…pois é uma estrutura matemática formal que deve ser satisfeita pelos        ‘estados de equilíbrio’ de qualquer sistema que satisfaça certas premissas… – Uma compreensão microscópica do que a ‘entropia’ mede, quando a termodinâmica… é aplicada a “sistemas físicos”…(de átomos, moléculas e afins) demorou a ser obtida.        Para isto acontecer – foi preciso Boltzmann recorrer à… “Mecânica Estatística“.

A ‘mecânica estatística’ é uma teoria com fins diversos da termodinâmica. Ao criar ‘modelos específicos para a ‘estrutura microscópica’ da matéria, ela tenta obter,                a partir daí, por ‘leis estatísticas’, seu ‘comportamento macroscópico’…A mecânica estatística dita como de equilíbrio‘, tem como postulado fundamental, o princípio            de máxima ignorância…isto é … “uma vez que não sou capaz de acompanhar todos      estados microscópicos do sistemaassumirei que eles sejam todos equiprováveis”. 

Ocorre que tais estados macroscópicos, originados da aplicação de princípios estatísticos  aos modelos com base no comportamento microscópico da matériasatisfazem todas as condições para serem considerados “estados termodinâmicos” … e assim, há uma função que satisfaz todos requisitos para ser identificada como…’entropia termodinâmica‘…  E essa função é a entropia de Boltzmann. Para simplificar, vamos pensar em um ‘gás simples’…O modelo microscópico adotado é que o gás seja composto por moléculas, que se movem de acordo com as leis da ‘mecânica newtoniana’. — A ‘entropia de Boltzman’ é definida como…dado um certo número de moléculas…com uma certa ‘energia mecânica’ total — de quantas formas possíveis…(variando as posições e velocidades das moléculas), posso arranjá-las em uma região com um determinado volume?

Formula_entropA entropia de Boltzmann                      “Estados quânticos discretos fazem        da…informação— uma genuína quantidade física.” (Lee Smolin)

Conforme Boltzmann demonstrou, em 1877, podemos dizer que a entropia (S) do sistema cresce na mesma proporção do número de arranjos possíveis (N)    dos próprios elementos…deste sistema.

Seu grande legado é provar que a ‘entropia’ da mecânica estatística é termodinâmica. Em termos de sistemas físicos formados por moléculas, átomosetc. – a ‘entropia de Boltzmann‘ corresponde à quantidade de microestados“, associados a cada estado macroscópico. Como esses ‘estados‘ foram postulados como “equiprováveis sua entropia mede quão provável, macroscopicamente, se manifestam…Este princípio faz a entropia de Boltzmann satisfazer uma propriedade básica da ‘entropia termodinâmica’:

A termodinâmica diz que quando um sistema satisfaz certos vínculos (por exemplo, ter certa energia interna, volume, e nº de partículas) seu “estado de equilíbrio”ao tempo suficienteé o que possui maior entropia. Como a entropia de Boltzmann satisfaz esse requisito, então…O estado macroscópico mais provável é aquele com maior entropia”.    Mas isto introduz a noção estranha de que o estado macroscópico do sistema não é um único estado bem determinadomas pode flutuar, ou seja, tem certa probabilidade de    ser. Isso é reflexo de que, ‘intimamente’, o sistema satisfaz uma…”dinâmica temporal”,  que desprezamos, ao assumirmosestados microscópicos equiprováveis“, pois    não saberíamos como seguir essa dinâmica, com um número absurdamente grande de partículas em jogo. E isso traz como consequência…que a entropia de Boltzmann não precisa sempre crescer. – Ela pode diminuir…porém, isso é extremamente improvável.

Dizer então que um sistema tem entropia S significa dizer que este sistema          macroscópico possui a mesma aparência para N ‘macro-formas’ diferentes.                      Isto é, a ‘irreversibilidade’ de um sistema S é função de sua complexidade

incertezaConceito de ‘entropia’ na ‘informação’

Originária de estudos de “termodinâmica”, onde foi introduzida para caracterizar o grau de desordem de um sistemaa “entropia” já foi objeto de muitas controvérsias e diversas formulações Conforme o conceito adotado por Shannon (1948), refere-se à incerteza da distribuição de probabilidade medida por funções intrinsecamente não-lineares.

Na verdade, o conceito de incerteza é mais geral, podendo-se falar, basicamente, em três tipos de incerteza: a incerteza determinística, em que não são conhecidos os estados que      o sistema pode assumir; a incerteza entrópica, em que se conhecem os estados possíveis, mas não as chances de ocorrência de cada um deles; e a incerteza probabilística, em que são conhecidos não só os estados possíveis mas também a distribuição de probabilidade para eles (todavia… não é possível determinar – com absoluta certeza…qual irá ocorrer).

De um modo geral, quanto mais espalhada a distribuição de probabilidade, maior incerteza irá refletir. Por exemplo, se alguém lança um dado de 6 faces, sem saber se          ele é viciado, ou nãoa probabilidade mais razoável a ser atribuída a cada resultado possível é 1/6, ou seja, representar a incerteza, usando a distribuição uniforme. Esta atitude segue o conhecido princípio da razão insuficiente de Laplace, onde atribuir chances iguais aos eventos possíveis é a maneira mais razoável de alguém refletir,        sua ignorância… (e sua incerteza)… quanto às chances de ocorrência de cada evento.

Uma importante característica da entropia na teoria da informação…ou incerteza probabilística…é que ela está diretamente associada ao “grau de similaridade”            entre as probabilidades de uma distribuição – que sob esta perspectiva – serve            para medir igualdade, espalhamento, diversidade, complexidade dos sistemas…e        outros conceitos que surgem em diversas áreas do conhecimento…ainda que tais        conceitos não tenham uma relação direta com alguma noção clássica de entropia.

‘Entropia da Informação’                                                                                                        A entropia é o grau de indeterminação que algo possui. Quanto maior a informação,          maior a probabilidade de escolha, maior a incerteza, maior a entropia…e vice-versa. 

entropia da informaçãoEntropia, quando relacionada à termodinâmica, é a medida do grau de “irreversibilidade” de um determinado sistema Quanto menor a chance do sistema voltar ao seu estado originalmaior será o grau de entropia… Mas também pode ser definida como medida da ‘incerteza’ que flui na informação presente em um sistema… Assim,  o conceito de entropia se associa à ideia de que, quanto mais “incerto”  é o resultado de um experimento aleatório…maior é a informação que se obtém ao observar a sua ocorrência.

O engenheiro e matemático Claude Shannon é considerado o pai da teoria da informação; tendo introduzido em seu trabalho de 1948: “A Mathematical Theory of Communication”, conceitos primordiais que deram origem à teoria da informação, entre eles – entropia e ruído. Nesse trabalho, Shannon desenvolve um modelo teórico envolvendo transmissão de mensagens digitais, partindo do pressuposto de que uma mensagem transmitida para um receptor é invariavelmente recebida com ruídos, isto é, ao passar por um canal, para chegar ao receptor, a informação sofre distorções…precisando por isso…ser decodificada.  Shannon então demonstrou matematicamente que – considerando a transmissão de um sinal ruidoso como uma conversa barulhenta – este pode ser recuperado no transmissor sem distorção, segundo a capacidade de transmissão daquele canal…ao se empregar um  código corretor de erros adequado – de modo a reduzir probabilidade de erro dos sinais.

As definições de Shannon tiveram impacto direto no desenvolvimento das comunicações, da criptografia…da computação digital…da codificação de sinais (vídeo, imagem & texto), bem como em problemas da linguística, psicologia e fonética. A linguagem…por exemplo, é um mecanismo de comunicação…com “código de correção de erros” embutido em suas regras de sintaxe, ortografia e semântica. Nessa mesma época Norbert Wiener associava entropia ao processo de comunicação/informação afirmando que nos processos onde há perda de informação…persiste uma situação similar aos processos que ganham entropia.

A “teoria da informação” afirma que, quanto menos informações sobre um sistema, maior será sua entropia, e que a quantidade de informação de uma mensagem é entendida como sendo o menor número de bits, unidade de informação, necessários para conter todos os valores, ou significados desta mensagem. – Portanto, a quantidade de informação de uma mensagem é medida pela entropia dessa mensagem, a qual mede também a sua incerteza, expressa pelo nº de bits que precisam ser recuperados – quando a mensagem está cifrada. 

Teoria da Informação – Conceitos e Elementos                                          Para Shannon, a teoria da informação, como teoria do rendimento informacional, destina-se a melhorar a velocidade de transmissão das mensagens – diminuindo suas…distorções. É uma teoria sobre a “transmissão ótima”…onde a transferência de informação é efetuada da fonte ao destinatário…e a transferência de energia se dá – do transmissor…ao receptor.    TEORIA DA INFORMAÇÃO

Situada dentro da ‘cibernética’ – onde a informação se mostra como uma medida probabilística… a “Teoria da Informação” — através do funcionamento dos sinais (codificação/decodificação), e também operando por transformações energéticas,      através de conceitos como…’ruído’, ‘redundância’, ‘entropia’ e ‘imprevisibilidade’,              foi uma das primeiras a distinguir com nitidez… “informação” … do “significado”. 

No trabalho desenvolvido por Shannon em “A Teoria Matemática da Comunicação”,        onde é abordada a relação entre entropia e informação, ele afirma que a informação contida em uma mensagem pode ser medida pela quantidade de entropia…que, por          sua vez se relaciona à frequência dos grupo de símbolos transmitidos. Como a fonte contínua precisaria de um vasto repertório de símbolos…e consequentemente, uma      grande capacidade de transmissão – por não existir um canal livre de ruídos… toda codificação da informação gera ruído na mensagem…Por outro lado, o conceito de redundância é relacionado à “entropia” no sentido de algo complementar…isto é,      tudo aquilo não fundamental de ser entendido em uma mensagem … e desse modo,      uma “variação de entropia”, para que a mensagem atinja sua “entropia máxima“.

A teoria da informação não estuda uma língua pelo número de símbolos alfabéticos        que a compõem, mas sim, pela análise de sua…”redundância”…Considerando que o inverso da entropia é a redundância, ou seja…a organização do sistema em questão;          uma ‘língua entrópica’ dispõe de um vocabulário rico… com palavras diferenciadas,        que mostram o poder de combinações; já uma pouco entrópica é pobre e repetitiva.

Em relação à “imprevisibilidade”, quanto maior esta for, menor será a chance de            apreensão por parte do receptor – que depende da ordem em que as mensagens são transmitidas. Imprevisibilidade total é informação nula. (texto base 1) (texto base 2) ******************************************************************************

Considerações sobre a seta (‘quântica’) do tempo                                                            “Viver é a mobilidade intuitiva do tempo” (H. Bergson)

Num experimento mental do século 19…um poderoso ‘diabinho’ chamadoDemônio de Maxwellconseguiu, no interior de uma caixacom uma partição, separar uma a uma as moléculas de um gás– ao conhecer a posição e velocidade de cada uma delas Usando um obturador no buraco da partição o ‘demônio’ reteve as moléculas de alta energia de um lado… permitindo moléculas de baixa energia se juntarem do outro lado.

Para isso, no entanto, ele foi obrigado a gastar energia, aumentando, portanto, sua própria entropia, de modo que, a entropia total do Universo continuasse subindo.

Embora há milênios, os filósofos se perguntem por que o tempo não anda para trás, as leis conhecidas da física são perfeitamente simétricas com relação ao tempo, não necessitando de algo, como uma “seta do tempo“…Ou seja, para a física moderna, os processos físicos poderiam ser rebobinados no tempo, e continuariam fazendo sentido (‘leis matemáticas da física funcionam tão bem – para eventos seguindo seu curso inexorável rumo ao futuro, quanto retornando ao passado’).A realidade porém, não bate com a teoria…e a primeira verificação experimental direta de exceção a essa simetria do tempofoi medida por meio do decaimento de ‘partículas subatômicas’…chamadas “mésons B” – demonstrando assim, que… — “mesmo ao nível microscópico”… – o tempo flui…em uma…”direção preferencial”.

Termodinamicamente falando…sempre que  2 corpos com temperaturas desiguais são colocados juntos, a energia flui entre eles até igualar as duas temperaturas…Associado à essa difusão de calor está um aumento na quantidade conhecida por entropia. Tanto quanto saibamos, o calor nunca flui espontaneamente no sentido inverso, e a entropia     do Universo está sempre aumentando…Reverter a flecha do tempo… seria portanto, o equivalente a diminuir a entropia do sistema (‘fechado’). – Todavia, acontece que…no “mundo quântico” … o “demônio redutor de entropia” teria uma tarefa diferente,    pois na versão entrópica da mecânica quântica… – não é o calor que flui, quando a entropia se altera, mas sim…a ‘informação‘. (texto base) jan/2010  *********************** (Michel Serres – O 3º Instruído) ************************  Perder calor é condição necessária para que um sistema funcione significa que o sistema não entrará em colapso…Portanto, ser um ‘sistema aberto‘ – é condição de existência para o sistema…Na comunicação…os elementos essenciais são…um canal        de comunicação e sua mensagem. Aliado a isso, em toda comunicação há ruído, que inutilmente se tenta retirar ‘fechando o sistema’; tentando se fazer uma comunicação     sem perdas. Porém, para que haja comunicação o ruído é essencial…é o ‘3º elemento’. Buscar um sistema de comunicação sem ruído – como a filosofia tentou fazer…a base        de sistemas puramente formais…é escravizar-se na razão…fechando-se em si mesmo”.  ******************************************************************************* 

Teoria da informação reinventa-se para computação quântica (fev/2015)              A teoria da informação lida com a quantificação da informaçãoe envolve áreas como matemática engenharia elétrica e ciência da computação… — Teve como fundador  Claude Shannon, primeiro a considerar a comunicação como um problema matemático.

A perspectiva dos ‘computadores quânticos’, com capacidade de processamento muito superior aos atuais, tem levado ao aprimoramento de uma das áreas mais versáteis da ciência com aplicações, em todas áreas do conhecimento a “teoria da informação“…Tais “computadores futurísticos” poderão realizar…simultaneamente…quantidade enorme de cálculos conforme se desenvolvam técnicas deprogramação quântica…como assim explica a professora Sueli Irene Rodrigues Costa, ‘Universidade Estadual de Campinas’…Unicamp:

“Essa perspectiva quântica da informação atribui toda complexidadeà sua codificação. Mas, ao mesmo tempo em que análises complexas, que levariam décadas, séculos ou até milhares de anos para serem feitas em computadores comuns, poderiam ser executadas em minutos por computadores quânticos, também essa tecnologia ameaçaria o sigilo de informações, que não foram ainda devidamente protegidas contra tal tipo de novidade”. 

Criptografia pós-quântica

A maior ameaça dos computadores quânticos à criptografia atual está na sua capacidade de quebrar os códigos usados na proteção de informações importantes, como as de cartões de crédito. — Para evitar esse tipo de risco, é preciso desenvolver também novos “sistemas criptográficos” visando maior segurança em relação à capacidade da computação quântica. “Nesse caso…a teoria da informação e a codificação precisam estar um passo à frente do uso comercial da computação quântica” disse Sueli, que em 2015 coordenou um evento na Unicamp, reunindo pesquisadores de 70 universidades e 25 países para discutir o assunto.

Como já foi demonstrado no final dos anos 1990 – os procedimentos criptográficos atuais não sobreviverão aos computadores quânticos por não serem tão seguros. E essa urgência pelo desenvolvimento de soluções preparadas para a capacidade da ‘computação quântica’ também impulsiona a teoria da informação a avançar cada vez mais em diversas direções. Algumas dessas soluções foram tratadas ao longo do evento – com muitas delas…visando sistemas mais eficientes para a aplicação na ‘computação clássica’, como o uso de códigos corretores de erros e de reticulados para ‘criptografia’…Para Sueli, a escalada da teoria da informação – em paralelo ao avanço da computação quântica … provocará revoluções em várias áreas do conhecimento… – A exemplo das múltiplas aplicações atuais da ‘teoria da informação’…a codificação quântica também elevaria diversas áreas da ciência a novos patamares, por possibilitar simulações ainda mais precisas do mundo físico, lidando com quantidade exponencialmente maior de variáveis em relação aos computadores clássicos.

Algoritmos para transmissão de dados                                                                                “O aumento do volume de dados digitais, e a necessidade de uma comunicação                cada vez mais rápida fazem crescer a susceptibilidade a vários tipos de ruído, e                também o consumo de energia. É preciso buscar novas soluções nesse cenário”.

Enquanto se prepara para os computadores quânticos – a teoria da informação promove grandes modificações na codificação e transmissão de informações. — Amin Shokrollahi, da Escola Politécnica Federal de Lausanne, Suíça, mostrou novas técnicas de codificação para resolver problemas como ruídos na informação — e consumo elevado de energia no processamento de dados, inclusive na comunicação ‘chip/chip’ no interior dos aparelhos.  Shokrollahi é conhecido na área por ter inventado os ‘códigos Raptore coinventado os ‘códigos Tornadoempregados em padrões de transmissão móveis de informação, com incrementos em sistemas sem fio, satélites e método de transmissão de sinais televisivos IPTV – que usa o protocolo de internet (IP, na sigla em inglês) para transmitir conteúdo.  Shokrollahi também apresentou inovações desenvolvidas na sua empresa “Kandou Bus”:

“Utilizamos algoritmos especiais para codificar os sinais, todos transferidos simultaneamente…até um decodificador recuperar os sinais originais…Isso é                        feito evitando que fios vizinhos interfiram entre si … gerando assim um nível                      de ruído muito menor…Os sistemas também reduzem o tamanho dos ‘chips’,                      aumentam a velocidade de transmissão…e diminuem o consumo de energia”.

De acordo com Sueli — soluções semelhantes também estão sendo desenvolvidas em várias tecnologias…largamente utilizadas pela sociedade. “Os celulares, por exemplo, tiveram um grande aumento de capacidade de processamento…e versatilidade…mas        uma das queixas mais frequentes dos usuários é a duração da bateria…A estratégia é descobrir meios de codificar de modo mais eficiente para economizar energia” disse.

Aplicações biológicas da teoria da informação                                                                “Não existe apenas uma teoria da informação, e suas abordagens, entre computacionais      e probabilísticas…podem ser aplicadas a praticamente todas as áreas do conhecimento”.

Não são só problemas de natureza tecnológica que podem ser abordados ou solucionados por meio da ‘teoria da informação’. Vinay Vaishampayanprofessor na “Universidade de Nova Iorque” tratou de várias aplicaçõese dentre elas destacou a Biologia como área de grande potencial nesse cenário: “A neurociência apresenta questionamentos importantes que podem ser respondidos com a ajuda da teoria da informação. Ainda não sabemos em profundidade como os neurônios se comunicam entre si, ou como o cérebro funciona em sua plenitude e as redes neurais são um campo de estudo muito promissor também do ponto de vista matemático, assim como a Biologia Molecular”. Isso porque…de acordo com Max Costa – professor da Faculdade de Engenharia Elétrica e também Computação da Unicampos seres vivos também são feitos de informação: “Somos codificados por meio do DNA das nossas células. Descobrir o segredo desse código, o mecanismo que há por trás dos mapeamentos que são feitos e registrados neste contexto, é um problema de enorme interesse…para a compreensão mais profunda do processo da vida.” (texto base*******************************(texto complementar)*******************************

Entropia e a Seta quântica do tempo                                                                                  Teorias atuais estabelecem que uma micropartícula individual deverá obedecer à 2ª lei termodinâmica. – Físicos brasileiros e europeus no entanto, demonstraram pela 1ª vez, que um núcleo atômico também sofre os “efeitos irreversíveis”…da passagem do tempo.

images1Em física, o grau de desordem é medido pela entropia, que quase sempre – nos fenômenos do mundo macroscópico… é crescente…ou no máximo se mantém estável… – mas nunca diminui…num sistema dito isolado. Uma das consequências disso, é que quanto maior a desordem… mais difícil se torna reverter um fenômeno totalmente. No dia a dia, associamos essa irreversibilidade à passagem do tempo… e às noções de passado e futuro…A noção de irreversibilidade, inclusive, levou o astrônomo e matemático inglês Arthur Eddington, a afirmar – em 1928… que a única lei física irreversível…era o aumento da ‘entropia’ no Universo (‘2ª lei termodinâmica’).

Muitos físicos porém, pensavam que esse aumento da entropia fosse um fenômeno exclusivo do mundo macro; isso porque, no século XIX, o físico Ludwig Boltzmann explicou a 2ª lei termodinâmica através de uma quantidade absurdamente elevada            de átomos…se movimentando de todas as formas possíveis… – a maior parte delas aleatórias e incontroláveis. Há 60 anos porém, que muito se trabalha para ampliar              a ‘teoria de Boltzmann’, usando-se sistemas com poucos…ou mesmo, um só átomo.            Com efeito, as propriedades da seta do tempo, e do aumento da entropia…já foram confirmadas fisicamente em diversos ambientes e situações todavia…sempre em circunstâncias macroscópicas. No mundo microscópico, porém…a ‘emergência’ da irreversibilidade do tempo intriga os físicos – porque as leis da ‘mecânica quântica’              não têm um sentido preferencial (no mundo quântico, o futuro afeta o passado).

“Embora a percepção de que o tempo não para e caminha sempre para o                          futuro…seja óbvia em nosso cotidiano, isso não é trivial do ponto de vista                          físico. Isso ocorre…porque as leis da natureza, no nível microscópico, são                          simétricas no tempo, e assim… reversíveis. Isso significa que não haveria                          diferença entre ir do passado ao futuro… – e vice-versa”. (Roberto Serra) 

Ainda que não se tenha nenhuma teoria sobre o que seja fundamentalmente o tempo, essa aparente incompatibilidade entre uma direção preferencial do tempo, e a leis quânticas da Física tem gerado muitos debates ao longo de décadas, e promete gerar muitos mais…Isso porque… a partir de um experimento utilizando equipamento do laboratório do CBPF/RJ, foi registrado um aumento irreversível do ‘grau de desordem’ no interior de um ‘átomo de carbono’, demonstrando pela 1ª vez a “irreversibilidade quântica” da “seta do tempo”.

O professor Roberto Menezes Serra…e sua equipe – da Universidade Federal do ABC, estudou o comportamento do ‘spin‘ (uma propriedade similar…ao pólo magnético”    de um ímã)…do núcleo de 1 único átomo, o isótopo carbono 13 – numa molécula de clorofórmio. Após o resfriamento … a uns bilionésimos de grau acima de “Zero ºK“, os núcleos atômicos de carbono sofreram um pulso de radiofrequência de 125 MHz.    E sobre isso – o professor assim explicou:

“A temperatura do sistema é conhecida por ‘temperatura de spin’…e o sistema permanece nesse estado por frações de segundo durante o experimento. Quando os spins dos núcleos interagem com as ondas de rádio…cuja intensidade cresce com o tempo – eles mudam de estado, aumentando sua energia interna… Esse aumento se dá rapidamente, fazendo com que parte da energia absorvida se mostre aleatoriamente – como se os spins tremessem”.

Quando o pulso de radiofrequência é desligado, parte da energia absorvida pelos núcleos de carbono (aquela na forma desorganizada) precisa ser dissipada no meio ambiente…na forma de calor. – Quando isso acontece, o sistema volta ao ‘estado original’chamado de ‘equilíbrio térmico’. Para revelar a ‘seta do tempo’, a estratégia do experimento foi ligar e desligar as ondas de radiofrequência num ritmo alucinante…na ordem dos milésimos de segundo…Como assim explicou Serra…“Fizemos esse processo tão rapidamente que não dava tempo para o sistema trocar energia (…na forma de ‘calor‘) com o meio ambiente”.

A seguir, o mesmo processo foi realizado modulando as ondas de rádio…de forma reversa, diminuindo a energia das ondas de forma bem rápida…e, consequentemente, reduzindo a energia do sistema de spins…Comparando com os núcleos de carbono durante o processo de ‘acréscimo/redução‘ da energia das ondas de rádio…foi possível detetar uma diferença sutil… mas mensurável entre os 2 processos. — Ora… se as leis que governam os ‘sistemas quânticos isolados’ fossem “simétricas no tempo” – esse processo também deveria ser simétrico, mas não foi isso que o experimento mostrou. Portanto, concluiu o pesquisador:

“De fato, foi detetada uma leve assimetria durante o processo de aumento e redução da energia no núcleo de carbono…graças às flutuações quânticas“.

O que se observou no experimento, foi um fenômeno no qual flutuações quânticas estão associadas às transições entre estados quânticos do spin nuclear… Em resumo, a equipe constatou a emergência da “seta do tempo” no ambiente quântico, ao detetar assimetria, entre um processo e seu reverso. Essa assimetria tem origem na transição entre estados quânticos. – Desse modo, a entropia do sistema aumenta, e foi assim que o aumento da entropia microscópica em um sistema quântico foi detetado. (texto 1, texto 2) nov/2015 ********************************************************************************

Experimento inverte o sentido do fluxo de calor – e do tempo (jun/2019)              Correlações quânticas afetam o modo como a entropia se distribui entre as partes,              em contato térmico…mudando o sentido da…“seta termodinâmica do tempo”

fluxo-do-calor-e-do-tempo

O calor flui de objetos quentes para os frios. Quando um objeto quente entra em contato térmico com um frio, ambos evoluem a uma configuração de equilíbrio…O quente esfria,    e o frio esquenta. Esse é um fenômeno da natureza constatado pela experiência diária, e explicado pela 2ª lei termodinâmica, onde a entropia de qualquer sistema isolado tende sempre a aumentar com o tempo, até alcançar um valor máximo. Considera-se entropia como a grandeza que descreve o grau de indiferenciação de um sistema, o qual…quando isolado, evolui espontaneamente para estados cada vez mais indiferenciados. – Noutras palavras o calor aqui pode fluir espontaneamente do corpo frio para o quente sem a necessidade de se investir energia no processo – como ocorre em uma geladeira comum.

Nesse surpreendente experimento, efetuado por uma equipe internacional liderada por físicos brasileiros, a inversão do sentido do calor demonstra que o conceito de…”seta do tempo” pode também ser considerado como relativo…não necessariamente viajando do passado para o futuro…como assim explica o físico Roberto Serra, professor da UFABC: “No mundo macroscópico … descrito pela física clássica … para correlações vistas como informações compartilhadas entre sistemas diversos…o aporte de energia externa pode inverter o sentido do fluxo de calor de um sistema…fazendo-o escoar do frio ao quente”.

Nesse experimento nanoscópico…é possível dizer que as correlações quânticas produziram um efeito análogo ao da energia. O sentido do fluxo foi invertido, sem que isso constituísse uma violação da segunda lei da termodinâmica. Ao contrárioincorporando elementos da “teoria da informação” na descrição do transporte de calor … foi possível achar uma forma generalizada da segunda lei desvendando o papel das correlações quânticas no processo.

seta-do-tempo-relativa-1

Quando as partículas estão correlacionadas, a energia térmica vai do frio ao quente. [Kaonan Micadei (2017)]

Invertendo calor e tempo

O experimento foi realizado com uma amostra de moléculas de ‘clorofórmio’      (1 átomo de hidrogênio…1 de carbono,      e 3 de cloro), assinada pelo isótopo 13      do carbono…A amostra foi diluída em solução e estudada por“ressonância magnética nuclear”…empregando um aparelho similar ao usado em exames hospitalares de imagem — mas… com campo magnético muito mais intenso.

Segundo Serra…“Investigamos mudanças na temperatura dos spins dos núcleos de hidrogênio e de carbono. Átomos de cloro não se destacaram no experimentoCom pulsos de radiofrequência… spins de cada núcleo de hidrogênio e de carbono, foram colocados em temperaturas diferentes … um mais frio, outro mais quente. As variações de temperatura foram muito pequenas, da ordem de dezenas de bilionésimos de kelvin…mas técnicas modernas permitem manipular e medir ‘sistemas quânticos’…a enorme precisão”.

Nesse caso, o que se mediu foram oscilações de radiofrequência produzidas por núcleos atômicos… – Os pesquisadores exploraram 2 situações – uma em que os dois núcleos (hidrogênio e carbono) iniciavam o processo descorrelacionados, e outra em que ambos estavam correlacionados de forma quântica. No 1º caso dos núcleos descorrelacionados, foi observado o calor fluindo no sentido usual – do quente para o frio – até os 2 núcleos    se encontrarem na mesma temperatura… — No 2º casocom os 2 núcleos inicialmente correlacionados – o calor fluiu no sentido inverso – ou sejado frio para o quente. Este efeito durou alguns milésimos de segundo…até que a correlação inicial fosse consumida.

“O mais interessante nesse resultado”, disse Serra, “é que ele possibilita pensar num processo de refrigeração quântico – no qual o aporte de energia externa (recurso em          uso nas geladeiras e aparelhos de ar condicionado – para esfriar um dado ambiente)      seja substituído por correlações – ou sejauma troca de informações entre objetos”.

Demônio de Maxwell

A ideia de que a… “informação poderia ser usada para inverter    o sentido do fluxo de calor – ou mais especificamente… — para possibilitar uma…redução local da ‘entropia’ surgiu na Física clássica do fim do século 19, em uma épocaem que ainda nem havia … “teoria da informação”.

Isso ocorreu em um experimento mental proposto por James Clerk Maxwell (1831-1879), autor…entre outras coisas, das famosas equações do eletromagnetismo clássico. Maxwell, nesse experimento mental, afirmou que, existindo um ser capaz de conhecer a velocidade individual de cada molécula de um gás, e sobre ela atuar em escala microscópica, poderia separar essas moléculas em 2 recipientes… De um lado, colocaria moléculas mais velozes, criando um compartimento quente. – Do outro, colocaria moléculas mais lentas, criando um compartimento frio. – Assim, o gás, inicialmente em equilíbrio térmico, pela mistura de moléculas rápidas e lentas, evoluiria para um estado diferenciado…de menor entropia.

A ideia de Maxwell com esse experimento mental, era provar que a 2ª lei termodinâmica tem caráter meramente estatístico. – O ser proposto por ele, capaz de intervir no mundo material em escala molecular ou atômica – ficou conhecido como…’demônio de Maxwell‘. Era uma figura fictícia, que Maxwell inventou para apresentar seu ponto de vista. – Mas, hoje, somos capazes efetivamente de atuar nessas escalas…e até em escalas menores, modificando expectativas usuais. O experimento…agora publicado…é a prova disso. — O estudo produziu resultado análogo ao experimento mental de Maxwell. E Serra concluiu:

“Hoje, quando falamos em informação, não estamos nos referindo a algo imponderável.    A informação precisa de um substrato físico – de uma memória…Para apagar um bit de memória de um ‘pendrive’  gastamos 10 mil vezes uma quantidade mínima de energia, constituída pela constante de Boltzmann vezes a temperatura absoluta. Este mínimo de energia necessária para apagar informação é o ‘Princípio de Landauer‘. Por isso, apagar informação gera calor – e aquecimento…é o que mais consome a bateria dos notebooks.

O que os pesquisadores então observaram, foi que a informação presente nas correlações quânticas pode ser usada para produzir uma tarefa que no caso… foi transferir calor de um objeto mais frio para outro mais quente, sem consumo de energia externa. – E assim, disse Serra…“Do ponto de vista prático – o efeito estudado pode vir a ser empregado…no futuro, para resfriar parte do processador de um computador quântico quantificando a correlação de 2 sistemas em bits”. Conectar mecânica quântica com teoria da informação está criando hoje o que cientistas chamam “ciência da informação quântica. (texto base)    **********************************************************************************

            Simetria (de “entrelaçamento”) à prova de ruídos (dez/2020)simetria-entrelacamento

Uma das maiores dificuldades para se construir um processador quântico, com número suficiente de qubits…é proteger os qubits do ambiente … uma vez que qualquer mínima radiação (um fóton, elétron ou átomo são suficientes)faz com que percam seus dados.    Mas Shovan Dutta e Nigel Cooper, da Universidade de Cambridge, GRB acreditam ter solucionado esse problema. – Os 2 descobriram uma simetria nunca antes detetada em partículas quânticas, e mais importanteencontraram um modo de tirar proveito dela:

Usando esta simetria – as partículas microscópicas, ou qubits, podem            se manter intrinsecamente ligadas (entrelaçadas) a longas distâncias, mesmo que haja… “perturbações aleatórias”… acontecendo entre elas.

Com a matemática da teoria quântica, eles descobriram uma configuração simples,            onde…’partículas entrelaçadas’…podem ser preparadas e estabilizadas…mesmo na          presença de ruído pois a simetria conserva o nº de pares de qubits entrelaçados.

Qubits “silenciosos”                                                                                                              “Não esperávamos esse tipo de… — ‘emaranhamento estabilizado‘… — Nós                      tropeçamos nessa simetria oculta, o que é muito raro em sistemas ruidosos.”

Lidar com o ruído, que faz os qubits perderem seus dados…é certamente o último dos grandes desafios para a construção de grandes “processadores quânticos”…realmente poderosos. Até que possamos encontrar um jeito de estabilizar os sistemas quânticos,        suas aplicações no mundo real serão limitadas. E foi isso justamente, que a dupla fez,      ao modelar um ‘sistema atômico’ numa formação de rede, onde os átomos interagem fortemente uns com os outros saltando de um local da rede para outro…Quando se adiciona ruído no meio da rede os qubits entrelaçados entre os dois lados, não são afetados. Esta simetriaentão desconhecida…conserva o nº de pares entrelaçados.

A simetria protege os pares emaranhados e permite que seu número seja controlado            de zero a um valor máximo muito grande. As conclusões então, podem ser aplicadas            a uma ampla classe de sistemas físicos…empregados nas plataformas experimentais, abrindo caminho ao “entrelaçamento controlável em ambiente ruidoso“. (texto base)

Sobre Cesarious

estudei Astronomia na UFRJ no período 1973/1979.
Esse post foi publicado em física, Teoria do Caos e marcado , , . Guardar link permanente.

Uma resposta para Ruído & Redundância na Entropia da Informação

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair /  Alterar )

Foto do Google

Você está comentando utilizando sua conta Google. Sair /  Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair /  Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair /  Alterar )

Conectando a %s