Uma das grandes fronteiras da ciência no século 21 é o desenvolvimento de materiais e dispositivos na escala de átomos individuais. Embora hoje a principal área de pesquisa seja o desenvolvimento de materiais, como os famosos nanotubos de carbono e o grafeno, conforme os pesquisadores começam a adquirir a tecnologia para manipular átomos individuais, a imaginação logo começa a voar, com a imagem de robôs tão pequenos que possam entrar em células vivas e ali produzir curas miraculosas, hoje impensáveis para a medicina.
Esses mesmos robôs, lamentavelmente, poderiam produzir tragédias impensáveis, como extinguir a vida na Terra. Exagero? Esse foi o cenário sugerido pelo nanotecnólogo americano Eric Drexler, um dos pioneiros na área, em seu livro Engines of Creation, publicado em 1986. Imagine, por exemplo, uma máquina capaz de usar praticamente qualquer material para se replicar. Ela seria responsável por colher esses materiais e construir réplicas de si mesma.
Agora pense no que aconteceria se essa pequena maravilha escapasse do laboratório e se multiplicasse descontroladamente por aí, “comendo” tudo que encontrasse pela frente para usar de matéria-prima para a autorreplicação. Terminaríamos com o planeta inteiro recoberto dessas maquininhas – sob uma “gosma cinza” (grey goo), nas palavras de Drexler.
Atualmente, até ele acha que esse é um cenário improvável, uma vez que um dispositivo desses, capaz apenas de produzir réplicas de si mesmo, seria completamente inútil. A não ser, é claro, que o objetivo seja mesmo o de destruir a vida na Terra. Só um louco faria isso, é verdade. Mas os loucos existem. Para a nossa sorte, eles não costumam ser exímios nanocientistas.
Uma coisa que joga contra uma catástrofe nanotecnológica é o custo envolvido nesses trabalhos. A exemplo da bomba atômica, os nanodispositivos são de desenvolvimento caríssimo, o que significa que poucos terroristas terão interesse neles. Por outro lado, ainda não está claro o efeito que pecinhas tão pequenas, construídas em laboratório, poderiam ter na saúde humana, caso fossem acidentalmente engolidas, inaladas ou absorvidas. É isso aí. Mesmo sem um grey goo cataclísmico, coisas como nanotubos de carbono podem ser perigosas.
Estudos mostram que fulerenos (as chamadas buckyballs, substâncias nanoscópicas feitas com átomos de carbono, cuja forma molecular lembra uma cúpula geodésica) podem facilmente atravessar a barreira que protege o cérebro de partículas invasoras. Um estudo assustador feito pela toxicologista Eva Oberdöster, da Universidade Metodista do Sul, no Texas, mostrou que peixes expostos a fulerenos, na modesta dose de meia parte por milhão (PPM), durante apenas 48 horas, apresentaram extensos danos cerebrais. Claro, ninguém resolveu testar para ver se o efeito era igual em humanos. Dá para arriscar?
Ainda assim, as pesquisas seguem a todo vapor. E é inegável que têm enorme valor. Tome o caso do grafeno, por exemplo. É basicamente a substância mais resistente conhecida, além de ser ótimo condutor de eletricidade e de calor. Fora isso, ele é transparente, durável e impermeável. Com tantas qualidades, é natural que esteja na mira dos desenvolvedores de tecnologia. Especula-se que ele permita desenvolver conexões de fibra óptica cem vezes mais velozes que as atuais. O grafeno poderia ser aplicado no desenvolvimento de telas flexíveis, e sua resistência física já é aproveitada até mesmo na fabricação de raquetes de tênis.
Muitos países – inclusive o Brasil – estão investindo grandes somas de dinheiro em pesquisas desse tipo. Elas parecem inofensivas. Mas será que saberemos colocar freios quando a coisa começar a se mostrar perigosa? Ou teremos tanto desejo de enxergar os potenciais benefícios – como os cientistas costumam ter – que iremos ignorar os perigos subjacentes?
Outro campo de atuação dos cientistas em que as coisas podem acabar azedando é na física de altas energias. Tivemos recentemente um sucesso extraordinário com o LHC (Grande Colisor de Hádrons), o acelerador de partículas mais poderoso do mundo. Em 2012, ele descobriu o bóson de Higgs, a partícula que faltava para completar o chamado modelo-padrão: uma tabela que inclui todos as constituintes da matéria e das forças da natureza, salvo a gravidade.
Mas dá um certo frio na espinha quando pensamos que o LHC, pelo menos numa fração de segundo, recria condições que só foram vistas antes no Universo logo após o Big Bang, o grande evento que gerou o cosmos tal qual o conhecemos hoje. Na época em que o grande acelerador foi ligado, alguns manifestantes tentaram obter na Justiça uma decisão que o impedisse de operar, argumentando que havia risco de que ele criasse um buraco negro artificial capaz de engolir a Terra ou mesmo desestabilizasse o Universo. Felizmente, não aconteceu – como os cientistas já previam que não aconteceria.
Que fique claro: é altamente improvável que colisões produzidas por aceleradores de partículas gerem eventos tão grandiosos quanto à produção de novos universos, ou mesmo de buracos negros capazes de engolir a Terra e toda a massa circundante. A rigor, no entorno de objetos astrofísicos como estrelas de nêutrons, acontecem eventos muito mais energéticos que as colisões de prótons produzidas no LHC.
Se o Universo estivesse em risco, já teria se explodido muito antes que o primeiro homem fizesse uso do fogo. Ainda assim, temos de lidar com especulações baseadas em nossas próprias teorias físicas, que não colocariam o cosmos em perigo, mas representariam uma séria ameaça ao nosso planeta.
Segundo Martin Rees, cosmólogo e astrônomo real britânico, algumas teorias sugerem que aceleradores como o LHC poderiam, por exemplo, forçar a criação de um novo arranjo de quarks (partículas que formam prótons e nêutrons), chamado strangelet. Cada um deles poderia ter uma espécie de toque de Midas, contaminando a matéria com que entrasse em contato. Logo, todo o planeta teria sido consumido, e a vida, destruída.
Em troca, ficaríamos com um punhado de strangelets. Toda vez que os físicos pretendem realizar um experimento novo num acelerador, calculam a probabilidade de que alguma coisa catastrófica desse tipo possa ocorrer, levando em conta mesmo as mais desvairadas teorias. Até agora, tudo o que eles fizeram foi considerado seguro – as chances de uma tragédia cósmica eram quase nulas, chegando a 1 em 1 trilhão.
O astrônomo real britânico, entretanto, apresenta uma pergunta fundamental: quando o que está em risco é o futuro do Universo, quem é capaz de decidir qual risco pode ser considerado aceitável? E as coisas ficam mais dramáticas em campos da ciência em que nem é possível estimar o tamanho do risco existencial à humanidade. Estamos falando da inteligência artificial.