Ruído & Redundância na Entropia da Informação

“Perder calor é condição necessária para que um sistema funcione … significa que o sistema não entrará em colapso. – Portanto, ser um ‘sistema aberto‘… é condição de existência para o sistema. – Na comunicação…os elementos essenciais são…um canal      de comunicação, e sua mensagem. Aliado a isso, em toda comunicação há ‘ruído‘, que inutilmente se tenta tirar – fechando o sistema – tentando se fazer uma comunicação     sem perdas. Porém, para que haja comunicação o ruído é essencial … é o ‘3º elemento’. Buscar um sistema de comunicação sem ruído … como a filosofia tentou fazer – a base        de sistemas puramente formais – é escravizar-se na razão…fechando-se em si mesmo”.  *********************** (Michel Serres – ‘O 3º Instruído’) *************************

A tendência das coisas para se desordenarem espontaneamente é uma característica fundamental da natureza. Para que a organização‘ ocorra, é necessária alguma ação       que restabeleça a ordem… É o que acontece nas grandes cidades — despoluir um rio, melhorar a condição de vida de seus habitantes, e diminuir a violência, por exemplo,       são tarefas que exigem muito trabalho … e não acontecem espontaneamente. Se não houver qualquer ação nesse sentido … a tendência é que prevaleça a desorganização.MODELO ENTROPIA

Em nosso cotidiano… percebemos que é mais fácil deixar as coisas desorganizadas, do que ordená-las: ‘Organizar é sempre mais difícil que bagunçar’…A dualidade ordem/desordem  se relaciona com uma característica fundamental da natureza, chamadaentropia…Esta, por sua vez, se relaciona à quantidade de informação exigida para caracterizar um sistema, de modo que, quanto maior a entropia, mais informações são necessárias para descrevê-lo.

A tendência ao aumento da entropia – está intimamente relacionada à 1ª lei da termodinâmica. Essa lei mostra que  –  toda vez que realizamos algum trabalho, parte da energia empregada é perdida para o ambiente… — não se transformando em…”trabalho útil“.

A ‘energia liberada’…(‘calor’)…servirá para desorganizar as moléculas de ar ao nosso redor…aumentando assim a entropia do ambiente… – Logo…para diminuir a entropia – em certo lugar,  é preciso… – aumentá-la … em outro.

A manutenção da vida é um embate constante contra a entropia (desorganização), travada a cada momento por nós. Desde o momento da nossa concepção, a partir da fecundação do óvulo pelo espermatozoide, nosso organismo, ao se desenvolver … se torna mais complexo. Partimos de uma única célula, e chegamos à fase adulta com trilhões delas…especializadas para determinadas funções… (A “vida” é… – ‘de fato’… – uma ‘aventura’ muito especial!…)

A entropia nos mostra que a ordem que vemos na natureza – é fruto da…’ação de forças fundamentais’…que interagindo com a matéria…causam sua organização.  Desde a formação do nosso planeta – há 4,5 bilhões de anos…a vida só conseguiu se desenvolver, às custas de transformar a energia recebida do Sol … numa forma útil … capaz de manter sua ‘organização’.  No processo… boa parte dessa energia é perdida, basicamente na forma de calor. 

Assim – para existirmos…pagamos o preço de aumentar a desorganização do nosso          planeta…Quando o Sol não puder mais fornecer essa energia…dentro de mais uns 5            bilhões de anos…a vida na Terra… esperamos… já estar em outro lugar. (texto base****************************************************************************

Entropia e Informação                                                                                                  A entropia da informação é equivalente à falta de conteúdo                                                  informativo – um ‘grau de incerteza’ … em uma mensagem.                                            

Entropia não é um conceito fácil, e nem único. O conceito mais antigo…chamado entropia termodinâmica, remonta a Rudolph Clausius… no século XIX. Na formulação moderna da termodinâmica – a entropia é uma ‘função do estado’                de um sistema termodinâmico (no caso de um gás simples, por exemplo…função                da energia interna, volume – e, do seu nº de partículas) — cujo saber… completo,      fornece toda informação possível sobre tal sistema (clássico). Além do mais, essa        função é extensiva, ou seja, dobrando volume, energia e nº de partículas ela deve      também dobrar…E ela possui a propriedade de que, em qualquer transformação, suficientemente lenta, de um sistema fechado – deve sempre crescer… ou ficar a      mesma. Na termodinâmica atual essas consequências são tidas como ‘axiomas‘;              ou seja: ‘existe entropia — ela é extensiva — e nunca deve diminuir’.

A “termodinâmica” não se propõe a fazer modelos específicos sobre a estrutura da          matéria. Ela é um quadro de como deve ser qualquer sistema onde se possa definir        uma quantidade chamada ‘entropia’. Ela não fala de átomos, moléculas ou estados            de energia…pois é uma estrutura matemática formal que deve ser satisfeita pelos        ‘estados de equilíbrio’ de qualquer sistema que satisfaça certas premissas… – Uma compreensão microscópica do que a ‘entropia’ mede, quando a termodinâmica… é aplicada a “sistemas físicos”…(de átomos, moléculas e afins) demorou a ser obtida.        Para isto acontecer – foi preciso Boltzmann recorrer à… “Mecânica Estatística“.

download

Uma importante característica da ‘entropia’ na teoria da informação, é estar diretamente relacionada ao grau de similaridade‘…entre as inúmeras probabilidades de  distribuição”.  (Mattos & Veiga…”Otimização da Entropia”)

A ‘mecânica estatística’ é uma teoria com fins diversos da termodinâmica. Ao criar ‘modelos específicos para a ‘estrutura microscópica’ da matéria, ela tenta obter,        a partir daí… por ‘leis estatísticas’… seu ‘comportamento macroscópico’ A mecânica estatística, dita como ‘de equilíbrio’…tem como ‘postulado fundamental’, o princípio      de máxima ignorância…isto é… – “uma vez que não sou capaz de acompanhar todos estados microscópicos do sistema… assumirei que eles sejam todos equiprováveis“. 

Ocorre que tais estados macroscópicos, originados da aplicação de princípios estatísticos  aos modelos com base no comportamento microscópico da matéria… satisfazem todas as condições para serem considerados “estados termodinâmicos” … e assim, há uma função que satisfaz todos requisitos para ser identificada como…’entropia termodinâmica‘…  E essa função é a entropia de Boltzmann. Para simplificar, vamos pensar em um ‘gás simples’…O modelo microscópico adotado é que o gás seja composto por moléculas, que se movem de acordo com as leis da ‘mecânica newtoniana’. — A ‘entropia de Boltzman’ é definida como…dado um certo número de moléculas…com uma certa ‘energia mecânica’ total — de quantas formas possíveis…(variando as posições e velocidades das moléculas), posso arranjá-las em uma região com um determinado volume?

Formula_entropA entropia de Boltzmann                      “Estados quânticos discretos fazem da ‘informação’ uma genuína quantidade física.” (Lee Smolin)

Conforme Boltzmann demonstrou, em 1877, podemos dizer que a entropia (S) do sistema cresce na mesma proporção do número de arranjos possíveis (N)    dos próprios elementos…deste sistema.

Seu grande legado é provar que a entropia da mecânica estatística é termodinâmica. Em termos de sistemas físicos formados por moléculas, átomosetc. – a “entropia de ‘Boltzmann” corresponde à quantidade de microestados“, associados a cada estado macroscópico. Como esses ‘estados‘ foram postulados como “equiprováveis sua entropia mede quão provável, macroscopicamente, se manifestam…Este princípio faz a entropia de Boltzmann satisfazer uma propriedade básica da ‘entropia termodinâmica’:

A termodinâmica diz que quando um sistema satisfaz certos vínculos (por exemplo, ter certa energia interna, volume, e nº de partículas) seu “estado de equilíbrio”ao tempo suficienteé o que possui maior entropia. Como a entropia de Boltzmann satisfaz esse requisito, então…O estado macroscópico mais provável é aquele com maior entropia”.

Mas isso introduz uma noção estranha – a de que o estado macroscópico do sistema não é um único estado bem determinado, mas pode flutuar…ou seja, tem certa probabilidade de ser assim, ou assado. E isso é reflexo do fato de que, ‘intimamente’, o sistema satisfaz uma dinâmica temporal, que desprezamos…quando assumimos “estados microscópicos equiprováveis“… – já que não saberíamos como seguir essa dinâmica…com um número absurdamente grande de partículas em jogo. E isso traz como consequência, o fato de que a ‘entropia de Boltzmann’ não precisa sempre crescer. – Ela, de fato pode diminuir… Mas isso é extremamente improvável. – Então, dizer que um sistema tem entropia S, significa dizer que este sistema macroscópico possui a mesma aparência… para N “macro-formas” diferentes. Ou seja, a “irreversibilidade” de um sistema S é função de sua “complexidade”.  ***********************************************************************************

Entropia e a Seta quântica do tempo                                                                                  Teorias atuais estabelecem que uma micropartícula individual deverá obedecer à 2ª lei termodinâmica. – Físicos brasileiros e europeus no entanto, demonstraram pela 1ª vez, que um núcleo atômico também sofre os “efeitos irreversíveis”…da passagem do tempo.

images1Em física, o grau de desordem é medido pela entropia, que quase sempre – nos fenômenos do mundo macroscópico… é crescente…ou no máximo se mantém estável… – mas nunca diminui…num sistema dito isolado. Uma das consequências disso, é que quanto maior a desordem… mais difícil se torna reverter um fenômeno totalmente. No dia a dia, associamos essa irreversibilidade à passagem do tempo… e às noções de passado e futuro…A noção de irreversibilidade, inclusive, levou o astrônomo e matemático inglês Arthur Eddington, a afirmar – em 1928… que a única lei física irreversível…era o aumento da ‘entropia’ no Universo (‘2ª lei termodinâmica’).

Muitos físicos porém, pensavam que esse aumento da entropia fosse um fenômeno exclusivo do mundo macro; isso porque, no século XIX, o físico Ludwig Boltzmann explicou a 2ª lei termodinâmica através de uma quantidade absurdamente elevada            de átomos…se movimentando de todas as formas possíveis… – a maior parte delas aleatórias e incontroláveis. Há 60 anos porém, que muito se trabalha para ampliar              a ‘teoria de Boltzmann’, usando-se sistemas com poucos…ou mesmo, um só átomo.            Com efeito, as propriedades da seta do tempo, e do aumento da entropia…já foram confirmadas fisicamente em diversos ambientes e situações todavia…sempre em circunstâncias macroscópicas. No mundo microscópico, porém…a ‘emergência’ da irreversibilidade do tempo intriga os físicos – porque as leis da ‘mecânica quântica’              não têm um sentido preferencial (no mundo quântico, o futuro afeta o passado).

“Embora a percepção de que o tempo não para e caminha sempre para o                          futuro…seja óbvia em nosso cotidiano, isso não é trivial do ponto de vista                          físico. Isso ocorre…porque as leis da natureza, no nível microscópico, são                          simétricas no tempo, e assim… reversíveis. Isso significa que não haveria                          diferença entre ir do passado ao futuro… – e vice-versa”. (Roberto Serra) 

Ainda que não se tenha nenhuma teoria sobre o que seja fundamentalmente o tempo, essa aparente incompatibilidade entre uma direção preferencial do tempo, e a leis quânticas da Física tem gerado muitos debates ao longo de décadas, e promete gerar muitos mais…Isso porque… a partir de um experimento utilizando equipamento do laboratório do CBPF/RJ, foi registrado um aumento irreversível do ‘grau de desordem’ no interior de um ‘átomo de carbono’, demonstrando pela 1ª vez a “irreversibilidade quântica” da “seta do tempo”.

O professor Roberto Menezes Serra…e sua equipe – da Universidade Federal do ABC, estudou o comportamento do ‘spin‘ (uma propriedade similar…ao pólo magnético”    de um ímã)…do núcleo de 1 único átomo, o isótopo carbono 13 – numa molécula de clorofórmio. Após o resfriamento … a uns bilionésimos de grau acima de “Zero ºK“, os núcleos atômicos de carbono sofreram um pulso de radiofrequência de 125 MHz.    E sobre isso – o professor assim explicou:

“A temperatura do sistema é conhecida por ‘temperatura de spin’…e o sistema permanece nesse estado por frações de segundo durante o experimento. Quando os spins dos núcleos interagem com as ondas de rádio…cuja intensidade cresce com o tempo – eles mudam de estado, aumentando sua energia interna… Esse aumento se dá rapidamente, fazendo com que parte da energia absorvida se mostre aleatoriamente – como se os spins tremessem”.

Quando o pulso de radiofrequência é desligado, parte da energia absorvida pelos núcleos de carbono (aquela na forma desorganizada) precisa ser dissipada no meio ambiente…na forma de calor. – Quando isso acontece, o sistema volta ao ‘estado original’chamado de ‘equilíbrio térmico’. Para revelar a ‘seta do tempo’, a estratégia do experimento foi ligar e desligar as ondas de radiofrequência num ritmo alucinante…na ordem dos milésimos de segundo…Como assim explicou Serra…“Fizemos esse processo tão rapidamente que não dava tempo para o sistema trocar energia (…na forma de ‘calor‘) com o meio ambiente”.

A seguir, o mesmo processo foi realizado modulando as ondas de rádio…de forma reversa, diminuindo a energia das ondas de forma bem rápida…e, consequentemente, reduzindo a energia do sistema de spins…Comparando com os núcleos de carbono durante o processo de ‘acréscimo/redução‘ da energia das ondas de rádio…foi possível detetar uma diferença sutil… mas mensurável entre os 2 processos. — Ora… se as leis que governam os ‘sistemas quânticos isolados’ fossem “simétricas no tempo” – esse processo também deveria ser simétrico, mas não foi isso que o experimento mostrou. Portanto, concluiu o pesquisador:

“De fato, foi detetada uma leve assimetria durante o processo de aumento e redução da energia no núcleo de carbono…graças às flutuações quânticas“.

O que se observou no experimento, foi um fenômeno no qual flutuações quânticas estão associadas às transições entre estados quânticos do spin nuclear… Em resumo, a equipe constatou a emergência da “seta do tempo” no ambiente quântico, ao detetar assimetria, entre um processo e seu reverso. Essa assimetria tem origem na transição entre ‘estados quânticos’. – Desse modo, a entropia do sistema aumenta, e foi assim que o aumento da entropia microscópica em um sistema quântico foi detetado. (texto 1 / texto 2) dez/2015  **********************************************************************************

Considerações sobre a seta (quântica) do tempo                                                            “Viver é a mobilidade intuitiva do tempo” (H. Bergson)

Num experimento mental do século 19…um poderoso ‘diabinho’ chamadoDemônio de Maxwellconseguiu, no interior de uma caixa…com uma partição, separar uma a uma as moléculas de um gás… – ao conhecer a posição e velocidade de cada uma delas… Usando um obturador no buraco da partição… o ‘demônio’ reteve as moléculas de alta energia de um lado… permitindo moléculas de baixa energia se juntarem do outro lado.

Para isso, no entanto, ele foi obrigado a gastar energia, aumentando, portanto, sua própria entropia, de modo que, a entropia total do Universo continuasse subindo.

Embora há milênios, os filósofos se perguntem por que o tempo não anda para trás, as leis conhecidas da física são perfeitamente simétricas com relação ao tempo, não necessitando de algo, como uma “seta do tempo“…Ou seja, para a física moderna, os processos físicos poderiam ser rebobinados no tempo, e continuariam fazendo sentido… (‘leis matemáticas da física funcionam tão bem para eventos seguindo seu curso inexorável rumo ao futuro, quanto retornando ao passado’). realidade porém…não bate com a teoria…e a primeira verificação experimental direta de exceção a essa simetria do tempo…foi medida por meio do decaimento de “partículas subatômicas”… chamadas mésons B – demonstrando assim, que… — mesmo ao “nível microscópico”… — o tempo flui… em uma “direção preferencial”.

Termodinamicamente falando…sempre que  2 corpos com temperaturas desiguais são colocados juntos, a energia flui entre eles até igualar as duas temperaturas…Associado à essa difusão de calor está um aumento na quantidade conhecida por entropia. Tanto quanto saibamos, o calor nunca flui espontaneamente no sentido inverso, e a entropia     do Universo está sempre aumentando…Reverter a flecha do tempo… seria portanto, o equivalente a diminuir a entropia do sistema (‘fechado’). – Todavia, acontece que…no “mundo quântico” … o “demônio redutor de entropia” teria uma tarefa diferente,    pois na versão entrópica da mecânica quântica… – não é o calor que flui, quando a entropia se altera, mas sim…a ‘informação‘. (texto base) jan/2010  ******************************************************************************

Entropia e formação da complexidade no Universo                                                        “A mecânica quântica estabelece um limite pra a informação que pode existir em um sistema…através do nº de estados distinguíveis em que este pode estar”. (Carlo Rovelli) 

Pela 2ª lei termodinâmica a entropia é sempre crescente. A pergunta natural então é… Como foi possível ao universo formar estruturas como galáxias…estrelas…planetas… e depois a vida na Terra… quando formar estruturas complexas parece desafiar a 2ª lei?

rede-cósmica

rede cósmica, simulação computacional – Distribuição de massa no universo prevista pela Relatividade Geral. As cores indicam densidade de massa. A escala indica ~ 44 Mpc. Uma galáxia tem ~ 10 Kpc de diâmetro.

A Termodinâmica é uma aproximação para descrever sistemas, quando estes atingem estados em que suas variáveis não dependem mais do tempo. Muitas vezes porém…isso é impossível – e ela não se aplica – é quando então, temos ‘fenômenos fora do equilíbrio térmico’. 

Por exemplo… – a termodinâmica não se aplica na formação das galáxias – porque o campo gravitacional depende do tempo. E o processo é complicado, pela contínua aglomeração de massa…devido ao campo gravitacional (a formação das galáxias se deve à dinâmica do campo gravitacional.)

Outros 2 exemplos importantes… são a formação dos núcleos atômicos, e a formação da radiação cósmica de fundo… Se fossemos aplicar a Termodinâmica em Cosmologia para descrever esses processos iríamos obter respostas incorretas. Na formação do hélio, por exemplo, vê-se que a sua abundância em “equilíbrio termodinâmico” se torna relevante quando a temperatura é cerca de 3.5×10e9ºK; a Termodinâmica prevê que cerca de 31% dos bárions deveria estar na forma de hélio hoje… (O valor correto… é próximo de 26%)

A Termodinâmica falha porque a formação do hélio precisa competir com o fato de que a densidade de prótons e neutrons está decaindo no tempo… Os prótons e neutrons vão se tornando menos densos devido à expansão do universo…Assim, a densidade se torna tão baixa que não permite mais a ocorrência de reações nucleares. – Além disso, a formação do hélio depende da presença de neutrons… que decaem rapidamente – à medida que as reações nucleares perdem força para converter prótons em neutrons… Se abdicarmos da termodinâmica, calculando o processo dependente do tempo, chegamos ao valor de 27%.

A ‘radiação cósmica de fundo por sua vez…se forma por um processo similar de competição em que os elétrons livres (que ainda espalham fótons por ‘efeito Compton’)  vão desaparecendo … ao serem capturados aos núcleos dos átomos neutros de H e He.

Quando não podemos usar a termodinâmica para reações físicas…mas ainda se quer fazer contas para um grande nº de partículas, se usa física estatística fora do equilíbrio…onde a dinâmica é comandada pelas ‘equações de Boltzmann’Assim, não é necessária nenhuma mágica para entender como se formam estruturas complexas no universo…onde vale a 2ª Lei Termodinâmica, basta aplicar leis físicas ao processo microscópico – física nuclear na formação dos núcleos; e Relatividade Geral na formação das galáxias. texto base abr 2011 *****************************(texto complementar)**********************************

incertezaConceito de ‘entropia’ na ‘informação’

Originária de estudos de “termodinâmica”, onde foi introduzida para caracterizar o grau de desordem de um sistemaa “entropia” já foi objeto de muitas controvérsias e diversas formulações Conforme o conceito adotado por Shannon (1948), refere-se à incerteza da distribuição de probabilidade medida por funções intrinsecamente não-lineares.

Na verdade, o conceito de incerteza é mais geral, podendo-se falar, basicamente, em três tipos de incerteza: a incerteza determinística, em que não são conhecidos os estados que      o sistema pode assumir; a incerteza entrópica, em que se conhecem os estados possíveis, mas não as chances de ocorrência de cada um deles; e a incerteza probabilística, em que são conhecidos não só os estados possíveis mas também a distribuição de probabilidade para eles (todavia… não é possível determinar – com absoluta certeza…qual irá ocorrer).

De um modo geral, quanto mais espalhada a distribuição de probabilidade, maior incerteza irá refletir. Por exemplo, se alguém lança um dado de 6 faces, sem saber se          ele é viciado, ou nãoa probabilidade mais razoável a ser atribuída a cada resultado possível é 1/6, ou seja, representar a incerteza, usando a distribuição uniforme. Esta atitude segue o conhecido princípio da razão insuficiente de Laplace, onde atribuir chances iguais aos eventos possíveis é a maneira mais razoável de alguém refletir,        sua ignorância… (e sua incerteza)… quanto às chances de ocorrência de cada evento.

Uma importante característica da entropia na teoria da informação…ou incerteza probabilística…é que ela está diretamente associada ao “grau de similaridade”            entre as probabilidades de uma distribuição – que sob esta perspectiva – serve            para medir igualdade, espalhamento, diversidade, complexidade dos sistemas…e        outros conceitos que surgem em diversas áreas do conhecimento…ainda que tais        conceitos não tenham uma relação direta com alguma noção clássica de entropia.

‘Entropia da Informação’                                                                                                        A entropia é o grau de indeterminação que algo possui. Quanto maior a informação,          maior a probabilidade de escolha, maior a incerteza, maior a entropia…e vice-versa. 

entropia da informaçãoEntropia, quando relacionada à termodinâmica, é a medida do grau de “irreversibilidade” de um determinado sistema Quanto menor a chance do sistema voltar ao seu estado originalmaior será o grau de entropia… Mas também pode ser definida como medida da ‘incerteza’ que flui na informação presente em um sistema… Assim,  o conceito de entropia se associa à ideia de que, quanto mais “incerto”  é o resultado de um experimento aleatório…maior é a informação que se obtém ao observar a sua ocorrência.

O engenheiro e matemático Claude Shannon é considerado o pai da teoria da informação; tendo introduzido em seu trabalho de 1948: “A Mathematical Theory of Communication”, conceitos primordiais que deram origem à teoria da informação, entre eles – entropia e ruído. Nesse trabalho, Shannon desenvolve um modelo teórico envolvendo transmissão de mensagens digitais, partindo do pressuposto de que uma mensagem transmitida para um receptor é invariavelmente recebida com ruídos, isto é, ao passar por um canal, para chegar ao receptor, a informação sofre distorções…precisando por isso…ser decodificada.  Shannon então demonstrou matematicamente que – considerando a transmissão de um sinal ruidoso como uma conversa barulhenta – este pode ser recuperado no transmissor sem distorção, segundo a capacidade de transmissão daquele canal…ao se empregar um  código corretor de erros adequado – de modo a reduzir probabilidade de erro dos sinais.

As definições de Shannon tiveram impacto direto no desenvolvimento das comunicações, da criptografia…da computação digital…da codificação de sinais (vídeo, imagem & texto), bem como em problemas da linguística, psicologia e fonética. A linguagem…por exemplo, é um mecanismo de comunicação…com “código de correção de erros” embutido em suas regras de sintaxe, ortografia e semântica. Nessa mesma época Norbert Wiener associava entropia ao processo de comunicação/informação afirmando que nos processos onde há perda de informação…persiste uma situação similar aos processos que ganham entropia.

A “teoria da informação” afirma que, quanto menos informações sobre um sistema, maior será sua entropia, e que a quantidade de informação de uma mensagem é entendida como sendo o menor número de bits, unidade de informação, necessários para conter todos os valores, ou significados desta mensagem. – Portanto, a quantidade de informação de uma mensagem é medida pela entropia dessa mensagem, a qual mede também a sua incerteza, expressa pelo nº de bits que precisam ser recuperados – quando a mensagem está cifrada. 

Teoria da Informação – Conceitos e Elementos                                          Para Shannon, a teoria da informação, como teoria do rendimento informacional, destina-se a melhorar a velocidade de transmissão das mensagens – diminuindo suas…distorções. É uma teoria sobre a “transmissão ótima”…onde a transferência de informação é efetuada da fonte ao destinatário…e a transferência de energia se dá – do transmissor…ao receptor.    TEORIA DA INFORMAÇÃO

Situada dentro da ‘cibernética’ – onde a informação se mostra como uma medida probabilística… a “Teoria da Informação” — através do funcionamento dos sinais (codificação/decodificação), e também operando por transformações energéticas,      através de conceitos como…’ruído’, ‘redundância’, ‘entropia’ e ‘imprevisibilidade’,              foi uma das primeiras a distinguir com nitidez… “informação” … do “significado”. 

No trabalho desenvolvido por Shannon em “A Teoria Matemática da Comunicação”,        onde é abordada a relação entre entropia e informação, ele afirma que a informação contida em uma mensagem pode ser medida pela quantidade de entropia…que, por          sua vez se relaciona à frequência dos grupo de símbolos transmitidos. Como a fonte contínua precisaria de um vasto repertório de símbolos…e consequentemente, uma      grande capacidade de transmissão – por não existir um canal livre de ruídos… toda codificação da informação gera ruído na mensagem…Por outro lado, o conceito de redundância é relacionado à “entropia” no sentido de algo complementar…isto é,      tudo aquilo não fundamental de ser entendido em uma mensagem … e desse modo,      uma “variação de entropia”, para que a mensagem atinja sua “entropia máxima“.

A teoria da informação não estuda uma língua pelo número de símbolos alfabéticos        que a compõem, mas sim, pela análise de sua…”redundância”…Considerando que o inverso da entropia é a redundância, ou seja…a organização do sistema em questão;          uma ‘língua entrópica’ dispõe de um vocabulário rico… com palavras diferenciadas,        que mostram o poder de combinações; já uma pouco entrópica é pobre e repetitiva.

Em relação à “imprevisibilidade”, quanto maior esta for, menor será a chance de            apreensão por parte do receptor – que depende da ordem em que as mensagens são transmitidas. Imprevisibilidade total é informação nula. (texto base 1) (texto base 2) ******************************************************************************

“Bit-espaçotempo”                                                                                                                Quais os blocos de construção básicos do cosmos?…Átomos, energia, partículas e massa?  Mecânica quântica, forças, campos, espaço-tempo? Microcordas com muitas dimensões?  Segundo recente estudo…a “informação“…é que seria a base fundamental da realidade.

quanticspacetime1.gifO físico John Wheeler caracterizava essa ideia como…”It do bit” – “it” referindo-se a todas as coisas do universo, e ‘bit’ significa informação. “It do bit” seria algo como ‘O universo feito de informação’. De fato não é nenhuma novidade que a ‘informação‘ está mudando a sociedade.  O novo é que a ciência também está mudando com a informação. Então a pergunta é… como entendê-la; ou melhor, será ela (‘informação’)      a constituinte básica que construiu o cosmos?

Para o físico Paul Davies, da Arizona State University: “Historicamente, tal questão tem estado na base da ‘cadeia explicativa’…e a informação tem sido uma espécie de derivada secundária dela… Mas agora, há entre certos físicos um interesse crescente de dizer que, talvez… no ‘fundo’… – o Universo seja feito de…”informações” – e por elas processado.”

spinSeth Lloyd, professor do MIT, defende esta ideia, ao comparar o…”universo”…a um “computador”: ‘sistema físico que despedaça informação; invertendo bits de forma sistemática’Ele explica que, spins de elétrons, descritos por leis quânticas só podem assumir 2 valores… girando p/cima ou p/baixo; como uma base binária (bit). 

Para Lloyd…“no fundoo Universo é composto de informações carregadas por cada partícula elementar”. Portanto, informação não é apenas uma forma aproximada de apreciar a atividade do universo – mas, a “resposta” mais fundamental, de como ele ‘realmente‘ funciona… Sendo o universo um sistema físico que contém, e processa informações metodicamente, pode fazer tudo o que um computador faz…Porém, ele  não considera metaforicamente o universo propriamente um computador…mas sim,      um evento científico…onde todas alterações no Universo, são à base de…”cálculos“.

Todo Universo escrito em “binário”

“A Informação não é a modelagem do sistema, é próprio sistema…A realidade só funciona, se  a…’informação’…for autêntica… – verdadeira”.

Para Raphael Bousso, físico teórico da UCLA/ Berkeley, a informação não é só “ferramenta” de medida, é um elemento principal…do que acontece agora no mundo…E Lloyd explicou:

“Pense numa ‘onda do mar’ quebrando na praia…Todas as moléculas de água… por sua configuração, sua rotação, e posição em relação às outras ‘moléculas d’água’, carregam consigo ‘bits’ de informação. – Portanto… sempre que quaisquer 2 moléculas de água se chocam, mudam de direção…processando esses bits. Agora, imagine que cada molécula d’água…essencialmente…esteja dizendo às outras moléculas…o que fazer…Combinando inúmeras moléculas interagindo umas com as outraschegamos assima uma onda“.

Alegações extraordinárias exigem evidências extraordinárias                  Reconhecendo a diferença entre…modelo e realidade…não devemos                              imaginar…que o universo funcione – apenas…pela simples operação de                            programas similares… em execução dentro de cada partícula”.

Mas ainda é opinião minoritária que a ‘informação seja mais fundamental do que a física.  O físico Stephen Wolfram, por exemplo, a considera… – “o fenômeno mais importante de nossos tempos”, e postula que… — “regras simples” … geram o que vemos na natureza. Desse modo…descreve uma “representação” do universo em termos, fundamentalmente, “computacionais“… – E…embora afirme que essas regras simples possam ser ainda mais fundamentais que a própria matemática — não considera cada elétron, como executando um programa… — e agindo como um objeto… que possa interagir com outros programas.  

Já para Alan Guth, físico teórico do MIT, e criador da ‘teoria inflacionária’… – a noção de informação como…”princípio”… não é convincente – pelo menos, não ainda – e explicou:  “Não encontro justificativa para tal afirmação… embora talvez possa ser convencido dela no futuro. A menos que bits fizessem algo de diferente das leis físicas…não vejo nada de extraordinário. São modos equivalentes, não dá para afirmar qual é mais fundamental”.

A abordagem ‘equilibrada’ de Guth…descreve matéria, energia e informação…como quase idênticos. Segundo ele, isso se deve em parte, à possibilidade de que nosso universo possa vir a ser explicado, um dia… – numa ‘simulação’…em um computador (quântico) cósmico.  Se a informação é primária… e o Universo é fundamentalmente, um computador, então deve ser possível…pelo menos teoricamente viável a princípio, simular o cosmos inteiro em supercomputadores futuros. Portanto, não poderíamos rejeitar a possibilidade de que nosso Universo atual seja um…’simulacro’…um tipo de ‘matrix‘. Disso porém, surge outra consequência. Um universo totalmente simulado confirmaria a ideia reducionista, de que tudo, inclusive a consciência, poderia ser explicado pela física…ou, por “eventos digitais”.  Além do que, se a estrutura básica consistir de informação, então deve haver maneiras de usá-la para melhorar o “modelo padrão da física, incluindo ‘parâmetros livres’, até agora “indemonstráveis“, e carentes de coerência interna (exs. ‘matéria escura’ e ‘gravidade’.) A pergunta então que resta a ser feita é: poderiam estas teorias (“abstratas”) da informação serem testadas?…Mesmo sendo o Universo uma…”simulação”…esta nunca seria perfeita; então, talvez seja possível detetar, a níveis extremos de precisão, falhas, ou mesmo erros em medições físicas, tais como desvios em constantes nucleares, ou na velocidade da luz.

Outro teste possível para a informação como parâmetro…pode incluir a confirmação          da teoria de que o universo é um holograma (imagem 3D…projetada a partir de uma      fonte 2D)…e que o espaço não é suave e contínuo – mas, como uma grade, e discreto (como “informação”). ##### (texto base) ##### (texto original) ##### maio/2015      *******************************************************************************

            Simetria (de “entrelaçamento”) à prova de ruídos (dez/2020)simetria-entrelacamento

Uma das maiores dificuldades para se construir um processador quântico, com número suficiente de qubits…é proteger os qubits do ambiente … uma vez que qualquer mínima radiação (um fóton, elétron ou átomo são suficientes)faz com que percam seus dados.    Mas Shovan Dutta e Nigel Cooper, da Universidade de Cambridge, GRB acreditam ter solucionado esse problema. – Os 2 descobriram uma simetria nunca antes detetada em partículas quânticas, e mais importanteencontraram um modo de tirar proveito dela:

Usando esta simetria – as partículas microscópicas, ou qubits, podem            se manter intrinsecamente ligadas (entrelaçadas) a longas distâncias, mesmo que haja… “perturbações aleatórias”… acontecendo entre elas.

Com a matemática da teoria quântica, eles descobriram uma configuração simples,            onde…’partículas entrelaçadas’…podem ser preparadas e estabilizadas…mesmo na          presença de ruído pois a simetria conserva o nº de pares de qubits entrelaçados.

Qubits “silenciosos”                                                                                                              “Não esperávamos esse tipo de… — ‘emaranhamento estabilizado‘… — Nós                      tropeçamos nessa simetria oculta, o que é muito raro em sistemas ruidosos.”

Lidar com o ruído, que faz os qubits perderem seus dados…é certamente o último dos grandes desafios para a construção de grandes “processadores quânticos”…realmente poderosos. Até que possamos encontrar um jeito de estabilizar os sistemas quânticos,        suas aplicações no mundo real serão limitadas. E foi isso justamente, que a dupla fez,      ao modelar um ‘sistema atômico’ numa formação de rede, onde os átomos interagem fortemente uns com os outros saltando de um local da rede para outro…Quando se adiciona ruído no meio da rede os qubits entrelaçados entre os dois lados, não são afetados. Esta simetriaentão desconhecida…conserva o nº de pares entrelaçados.

A simetria protege os pares emaranhados e permite que seu número seja controlado            de zero a um valor máximo muito grande. As conclusões então, podem ser aplicadas            a uma ampla classe de sistemas físicos…empregados nas plataformas experimentais, abrindo caminho ao “entrelaçamento controlável em ambiente ruidoso“. (texto base)

Sobre Cesarious

estudei Astronomia na UFRJ no período 1973/1979.
Esse post foi publicado em física, Teoria do Caos e marcado , , . Guardar link permanente.

Uma resposta para Ruído & Redundância na Entropia da Informação

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair /  Alterar )

Foto do Google

Você está comentando utilizando sua conta Google. Sair /  Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair /  Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair /  Alterar )

Conectando a %s