Sábado, 14 de Outubro, 2017

 

O que é a vida?

Estou olhando pra ela...

Ela me olha bem profundamente, sinto que ela me enxerga ainda que com dificuldade. Ela me reconhece, respira com dificuldade com a boca aberta parecendo com medo e nervosa. Vou acalmando essa pobre alma, segurando sua mão e relembrando fatos que ocorreram conosco. Sua cabeça sempre tenta virar para ver televisão, ela sempre gostou de programas de auditórios.

Passo a lembrar comigo mesmo, meu tempo de infância quando ela brincava de futebol comigo. Minha avó sempre ralhava dizendo que tia não poderia nunca brincar de futebol, pois ela era mulher. Eu retrucava e quando minha avó não estava por perto, nós dois saíamos escondidos para brincar. Jogávamos pingpong que ela insistia em chamar de "basquete".

Olhando para a face da morte, ela no quarto à espera de dizer adeus, me pergunto para onde vai todos os bits de informação que ela adquiriu esse tempo todo. Sim, porque quer queiramos ou não, informações ficaram o tempo todo ali, no cérebro onde os impulsos vão e vem com dificuldades agora em seu fim.

Grandes autores escreveram no passado, que vida é informação adquirida e reprocessada diversas vezes para conhecimento e evolução do organismo biológico. Temos a tendência em não aceitar essa definição, visto que não apenas células estão ali na cama, mas células que fazem com que partes biológicas tenham a experiência da consciência.

A Teoria da Informação nos provoca sempre, para sempre lembrarmos que não somos nada. Ainda deparamos todos os dias com pessoas que se acham as mais importantes do planeta. Gerentes, diretores, CEO, chefes, generais, presidentes, etc. Bastaria todos serem um pouco mais inteligentes para perceberem que dinheiro e poder não faz deles, nem de ninguém, mais importante que outros.

Muitos cientistas já provocaram as populações de suas épocas com livros fantásticos sobre os questionamentos entre a vida e a morte, ou ainda, mostrando que apenas somos uma combinação de quatro letras que deu certo aqui, nesse planeta. Mas um importante cientista chamou a atenção de maneira séria e revolucionária no século passado.

O livro "O que é a vida ?" (What is life?) de Erwin Schrodinger é fantástico e bastante recomendado como leitura inicial sobre os questionamentos sobre o que somos. O livro é tão popular que existem diversas versões em pdf livre na internet para download.

Sua provocação inspirou e deu origem aos estudos do pai da Teoria da Informação, professor Claude Shannon. Shanon encontrou uma maneira matemática de medir a informação e como ela se dissipa. A dissipação dessa informação no início recebeu o nome de "perda de informação". Mas incentivado por colegas, Shannon precisava buscar outro nome para sua medida. E então resolveu emprestar o termo "entropia" de Schrodinger para mostrar como nossa informação do dia a dia se esvazia.

Claude Shannon

Shannon criou diversas máquinas para mostrar como elas poderiam "aprender" com experimentos escolhidos de forma correta. Existem videos mostrando suas máquinas jogando bolinhas sozinhas, equilibrando coisas, enfim, como se fossem crianças aprendendo com os experimentos.

Assim, Shannon passou a ser considerado também um dos primeiros a criar o termo "machine learning" (aprendizado de máquina), ou seja, o princípio da Inteligência Artificial.

O termo tão utilizado nos últimos 50 anos ("bit") foi criando por Shannon. Ao se referir a informação que poderia ser passada usando apenas os números zero e um (0 e 1), ele criou a nomenclatura de Bynary digIT. Daí o termo popular "bit" para menor informação possível dentro de uma linguagem de máquina.

E mediu tudo o que podia, influenciando trabalhos modernos sobre trading usando entropia (ver nosso texto "Trading com Entropia Vencedora"). Já contamos mais sobre Shannon em outro texto "Sabendo mais do que os outros".

Para medir o quanto de informação estaremos perdendo quando enviamos mensagens de um lado a outro, Shannon pensou primeiramente em moedas.

Quantas perguntas fazemos num lançamento, para saber se temos cara ou coroa?

Apenas uma.

Assim, se lançarmos 10 vezes uma moeda, teremos 10 perguntas. Nesse canal do youtube a explicação está muito boa (How do we measure information?).

Se a resposta for cara podemos assumir como sinal "1" e se for coroa podemos assumir como "0". Assim, precisamos fazer apenas uma pergunta no lançamento, para sabermos se a resposta é cara ou coroa.

Ao número mínimo de perguntas em uma mensagem, Shannon deu o nome de "entropia". E como são sempre perguntas feitas com as respostas sendo "sim" ou "não" correspondentes a zero ou um, Shannon utilizou o logaritmo na base dois.

Então, para um lance de moeda, teremos que Log 2 =1. Para um alfabeto com 26 letras, qual o mínimo necessário de perguntas para descobrir uma letra secreta?

Nesse caso, Log(26)=4.7 bits, usando sempre a base 2. E no caso de 52 cartas? Encontraremos 5.7 bits.

Ou seja, num jogo de cartas, precisamos de apenas 5 ou 6 perguntas para descobrir uma carta secreta.

Então, o que Shannon nos ensinou, é que quando jogamos moedas, perdemos um bit, no alfabeto perdemos 4.7 bits e num jogo de cartas sempre perderemos 5.2 bits de informação.

 

CARA = 1

COROA = 0

 

 

 

 

 

Fórnula da Entropia de Shannon

 

 

 

 

 

 

Relação 1 bit para energia

 

 

 

 

 

Relação biológica entre bit e molécula

 

Shannon condensou sua fórmula para o caso não apenas de jogos, mas de tudo que se possa transformar em informação. E sua fórmula (ao lado) com algumas transformações, deixou de usar logaritmo na base dois para o logaritmo natural, ou LN.

A fórmula da Entropia de Shannon nos permite até hoje tratar informação do ponto de vista quantitativo. Ela ajuda a descobrir virus em mensagens de imagens, ajuda a descobrir mensagens de terroristas codificadas em textos que parecem "sem sentido", evita ataques de hackers, enfim, uma fórmula pra lá de atual.

E a Entropia nos faz pensar como retemos informações em nossa vida.

Estudos nos mostram e quantificam o quanto de informação nossas células podem estocar para sempre.

Por exemplo, ao lado, podemos ver a relação entre 1 bit e a quantidade de energia e temperatura em graus Kelvin.

Quando se trata de moléculas, podemos dividir tudo pelo número de Avogrado e tratar sob o ponto de vista de quanto de informação uma molécula pode guardar.

A relação ao lado nos diz que cada energia por temperatura guarda 0.17 bits por molécula. E podemos transformar e relacionar essa informação binária com as calorias do corpo humano.

Sabe-se, por exemplo, que 1 cal = 4,18 Joules. Sabemos que todos nós precisamos de 2.000.000 calorias por dia (ver mais informação nesse site). Significa dizer que todo ser humano precisa se abastecer de

2.000.000. cal x 4,18 J = 8.360.000 Joules (energia)

Se multiplicarmos isso por 0,17352 teremos:

1.450.627 bits/molécula

Poderemos agrupar isso, como nosso computador. Nesse caso, se transformarmos bits em Bytes, teremos no corpo humano

181.328 Bytes/molécula ou aproximadamente:

181 Kbytes/molécula.

Sim, é isso!

Todos nós precisamos todos os dias armazenar 181 Kbytes/molécula para viver. Essa é o mínimo para uma vida.

Uma vida como ela existe seria um pequeno grão em um CD ou DVD atual.

E para continuar mostrando que não somos nada, e que basta apenas um estalar de dedos para perdermos tudo, nosso suor nos faz perder 540 calorias de água por grama. Isso dá aproximadamente 2.000 Joules por grama. Suponhamos que perdemos 200 gramas de suor, perderemos então:

200 x 2.000 x 0.17 = 68.000 bits/molécula

Transformando, teremos então 8,5 Kbytes/molécula, ou seja, perdemos 8,5 Kbytes a cada 200 gramas de suor. Se imaginarmos andando por horas sem água num deserto, ou presos embaixo de escombros por dias, sem água, com menos de 50 Kbytes de perda de informação estaremos mortos.

Meros 50 Kbytes nos fazem morrer. Tudo o que reservamos, vivemos, alegramos, chateamos, saboreamos, criamos, tudo se perderá por apenas 50 Kb/molécula de informação.

Numa vida inteira, contando 365 dias durante 85 anos, uma pessoa poderá ter armazenado 5.615.525 Kbytes, ou 5,61 Gbytes. Dentro desses 5,61 Gbytes muita coisa aconteceu, muito de vida se viveu, muitas alegrias e trsitezas aconteceram.

Então, por que pessoas acham que com seus meros 5 Gb de um pendrive são mais importantes que outros?

A morte custa 5 Gb, ela leva uma vida inteira que cabe em apenas um pendrive. Mas ela não leva o que fica, não leva as relações, não leva o carinho, não leva a memória. Shannon foi excelente em quantificar a informação, mas ninguém poderá quantificar a saudade.

Nem em Gbytes, nem no coração...