No burburinho diário de "crises" atuais
que a humanidade enfrenta, nos esquecemos de muitas gerações, esperamos ainda a
que estão por vir. Não aqueles que vão viver 200 anos a partir de agora, mas
1.000 ou 10.000 anos. Eu uso a palavra "esperança", porque nós
enfrentamos riscos, chamados riscos existenciais, que ameaçam acabar com a
humanidade. Estes riscos não são apenas para grandes desastres, mas para os
desastres que poderiam terminar a história. Embora nem todo mundo ignorou a
longo futuro. Místicos como Nostradamus têm tentado antever o fim do mundo. HG
Wells tentou desenvolver uma ciência da previsão de um futuro distante da
humanidade, em seu livro A Máquina do Tempo. Outros escritores construíram
outros futuros de longo prazo para avisar, divertir ou especular. Mas havia
esses pioneiros ou futurólogos que não pensou sobre o futuro da humanidade, não
teria mudado o resultado. Não havia muito seres humanos em seu lugar que poderia
ter feito para nos salvar de uma crise existencial ou até mesmo causar uma. Estamos
em uma posição mais privilegiada hoje. A atividade humana tem vindo a moldar o
futuro do nosso planeta. E apesar de estarmos longe de controlar desastres
naturais, estamos desenvolvendo tecnologias que podem ajudar a reduzir, ou pelo
menos, lidar com eles. O
Futuro Imperfeito - foto -1. No
entanto , esses riscos permanecem escassos. Há uma sensação de impotência e
fatalismo sobre eles. As pessoas têm falado de apocalipses há milênios, mas
poucos tentaram impedi-los . Os seres humanos também são ruins de fazer
qualquer coisa sobre os problemas que ainda não ocorreram (parcialmente por
causa da disponibilidade heurística - a tendência a superestimar a
probabilidade de eventos dos quais conhecemos exemplos e subestimar eventos que
não podemos lidar prontamente). Se a humanidade tornar-se extinta, pelo menos, a perda
é equivalente à perda de todos os indivíduos que vivem e da frustração de seus
objetivos. Mas a perda seria provavelmente muito maior do que isso. Extinção
humana significa a perda de sentido gerada pelas gerações passadas, a vida de
todas as gerações futuras (e poderia haver um número astronômico de vidas
futuras) e todo o valor que poderia ter sido capaz de criar. Se a consciência
ou inteligência são perdidas, isso pode significar que o próprio valor torna-se
ausente do universo. Esta é uma razão moral enorme para trabalhar duro para
evitar ameaças existenciais de se tornar realidade. E não devemos prevaricar
sequer uma vez nesta busca. Com isso em mente, eu selecionei o que eu considero as
cinco maiores ameaças à existência da humanidade. Ao longo do século passado,
descobriram ou criaram novos riscos existenciais - supervulcões foram
descobertos na década de 1970, e antes da guerra nuclear, Projeto Manhattan,
era impossível - por isso, devemos esperar que os outros apareçam. Além disso, alguns
riscos que parecem sérios hoje podem desaparecer à medida que aprendemos mais.
As probabilidades também mudam ao longo do tempo - às vezes porque estamos
preocupados em corrigir os riscos. Por fim, só porque algo é possível e
potencialmente perigoso, não significa que vale a pena se preocupar com eles .
Existem alguns riscos pelos quais não podemos fazer nada a respeito, tais como
explosões de raios gama que resultam das explosões de galáxias. Mas se nós aprendemos
que podemos fazer alguma coisa, as prioridades mudam. Por exemplo, com
saneamento, vacinas e antibióticos, pestes que passaram de um ato de Deus à má
saúde pública. Guerra Nuclear – Foto 2. Embora apenas duas armas
nucleares foram usadas em guerra até agora - em Hiroshima e Nagasaki na Segunda
Guerra Mundial - e arsenais nucleares que estão abaixo de seu pico chegaram na
Guerra Fria, é um erro pensar que a guerra nuclear é impossível. Na verdade,
ela pode não ser improvável. A crise dos mísseis cubanos esteve muito perto de
virar nuclear. Se assumirmos um desses eventos a cada 69 anos e uma chance em
três de que poderia percorrer todo o caminho para se ter uma guerra nuclear, a
chance de uma tal catástrofe aumenta para cerca de um em 200 por ano. Pior
ainda, a crise dos mísseis cubanos foi apenas o caso mais conhecido. A história
da dissuasão nuclear entre União Soviética e EUA é cheia de ligações estreitas
e erros perigosos. A probabilidade mudou dependendo das tensões internacionais,
mas parece improvável que as possibilidades seriam muito menores do que um em
1000 por ano. Uma guerra nuclear em larga escala entre grandes potências iria
matar centenas de milhões de pessoas diretamente ou através das próximas conseqüências
- um desastre inimaginável. Mas isso não é suficiente para torná-lo um risco
existencial. Da mesma forma os riscos de consequências são muitas vezes
exagerados - potencialmente mortal localmente, mas globalmente um problema
relativamente limitado. Bombas de cobalto foram propostos como uma arma
hipotética apocalíptica que iria matar todo mundo com precipitação, mas são, na
prática difícil e caro para construir. E elas são apenas mal fisicamente
possível. A verdadeira ameaça é o inverno nuclear - ou seja, a fuligem deixada
para a estratosfera causando um resfriamento e secagem do mundo em multi- ano.
Simulações climáticas modernas mostram que ele poderia impedir a agricultura em
grande parte do mundo durante anos. Se ocorrer esse cenário, bilhões morreriam
de fome, deixando apenas os sobreviventes espalhados que podem ser apanhados
por outras ameaças, como doença. A principal incerteza é como a fuligem se
comportaria: dependendo do tipo de fuligem os resultados podem ser muito
diferentes, e no momento não temos boas maneiras de estimar isso. A
Pandemia da Bioengenharia – Foto 3. Pandemias
naturais mataram mais pessoas do que as guerras. No entanto, as pandemias
naturais não são suscetíveis de ser ameaças existenciais: geralmente há algumas
pessoas resistentes ao patógeno, e a geração de sobreviventes seriam mais
resistentes. A evolução também não favorece parasitas que acabam com seus
anfitriões, que é por isso que a sífilis foi um assassino virulento de uma
doença crônica como ele se espalhou na Europa.
Infelizmente, agora podemos fazer doenças mais desagradáveis. Um dos
exemplos mais famosos é a forma como a introdução de um gene extra no mousepox
- a versão do rato da varíola - tornou muito mais letal e capaz de infectar
indivíduos vacinados. Trabalhos recentes sobre a gripe das aves tem demonstrado
que o contágio de uma doença pode ser deliberadamente potenciado. Neste
momento, o risco de alguém deliberadamente liberar algo devastador é baixo.
Mas, como a biotecnologia fica melhor e mais barata, mais grupos serão capazes
de transformar as doenças piores. A maioria dos trabalhos sobre armas
biológicas têm sido feito pelos governos que procuram algo controlável, pois
acabando com a humanidade não é militarmente útil. Mas há sempre algumas
pessoas que possam querer fazer as coisas clandestinamente. Outros têm
propósitos mais elevados. Por exemplo, o culto Aum Shinrikyo tentou apressar o
apocalipse usando armas biológicas ao lado de seu mais bem sucedido ataque de gás
dos nervos. Algumas pessoas pensam que a Terra seria melhor sem os seres
humanos, e assim por diante. O número de mortes por ataques de armas biológicas
e surtos epidêmicos parece que tem uma distribuição da lei de potência - a
maioria dos ataques têm poucas vítimas, mas alguns matam muitos. Dado os
números atuais, o risco de uma pandemia global de bioterrorismo parece muito
pequena. Mas este é apenas o bioterrorismo: os governos mataram muito mais
gente do que os terroristas com armas biológicas (até 400.000 podem ter morrido
no programa biowar – japoneses da Segunda Guerra Mundial). E como a tecnologia
se torna mais poderosa no futuro, patógenos mais desagradáveis se
tornam mais fáceis de projetar. Superinteligência – Foto – 4. A inteligência é muito poderosa. Um pequeno incremento
na capacidade de resolução de problemas e coordenação do grupo deixou os outros
macacos na poeira. Agora a sua existência depende de decisões humanas, não o
que eles fazem. Ser inteligente é uma vantagem real para pessoas e organizações,
para que haja muito esforço para descobrir formas de melhorar a nossa inteligência
individual e coletiva: a partir de drogas que aumentam a cognição de software
de inteligência artificial. O problema é que entidades inteligentes são boas em
conseguir seus objetivos, mas se os objetivos são mal definidos eles podem usar
seu poder de forma inteligente em alcançar fins desastrosos. Não há nenhuma
razão para pensar que a própria inteligência vai fazer algo bom e se comportar
moralmente. Na verdade, é possível provar que certos tipos de sistemas de
superinteligentes não obedecem as regras morais, mesmo que fosse verdade. Ainda
mais preocupante é que, ao tentar explicar as coisas para uma inteligência
artificial nos deparamos com profundos problemas práticos e filosóficos. Os
valores humanos são difusos, as coisas complexas que não são boas em se expressar,
e mesmo se nós pudéssemos fazer, não compreenderíamos todas as implicações do
que desejamos. Inteligência
baseada em software pode rapidamente superar a humana torna-se-á assustadoramente
poderosa. A razão é que pode ser escalada de maneiras diferentes da
inteligência biológica: pode correr mais rápida em computadores mais rápidos,
as peças podem ser distribuídas em mais computadores, diferentes versões
testadas e atualizadas em tempo real, novos algoritmos incorporados que dão um
salto no desempenho. Foi proposto que uma "explosão de inteligência"
é possível quando o software torna-se bom o suficiente em fazer melhor
software. Se tal salto ocorrer haveria uma grande diferença de potencial de
energia entre o sistema inteligente (ou as pessoas dizendo o que fazer) e o
resto do mundo. Isto tem um claro potencial para o desastre se os objetivos são
mal definidos. A única coisa incomum sobre superinteligência é que não sabemos
se as explosões de inteligência rápidas e poderosas são possíveis: talvez a
nossa atual civilização como um todo está melhorando a si mesma no ritmo mais
rápido possível. Mas há boas razões para pensar que algumas tecnologias podem
acelerar as coisas muito mais rápido do que as sociedades atuais podem lidar.
Da mesma forma que não temos um bom controle sobre quão diferentes formas
perigosas de superinteligência seriam, ou o que a mitigação estratégica
realmente funciona. É muito difícil de raciocinar sobre a tecnologia no futuro
que ainda não temos , ou inteligências maiores do que nós mesmos. Dos riscos
nesta lista, este é o mais provável de acontecer, ou maciço, ou apenas uma
miragem. Esta é uma área surpreendentemente pouco pesquisada. Mesmo nas décadas
dos anos 50 e 60, quando as pessoas estavam extremamente confiantes de que a
superinteligência poderia ser alcançada" dentro de uma geração", que
não parecia muito em questões de segurança. Talvez eles não levaram a sério as
suas previsões, mas o mais provável é que eles só viram isso como um problema em
um futuro remoto. Nanotecnologia –
Foto – 5. A nanotecnologia é o controle sobre a matéria com precisão atômica ou
molecular. Isso em
si não é perigoso - em vez disso,
seria uma notícia muito boa para a
maioria das aplicações. O
problema é que, como a biotecnologia, aumentando-se
o poder também aumenta o potencial de
abusos que são difíceis de defender. O
grande problema não é
o famoso "grey goo" de nanomáquinas auto-replicantes comer tudo. Isso
exigiria um design inteligente para
este fim. É difícil fazer uma
réplica da máquina: a biologia é muito melhor no que faz, por padrão. Talvez algum maníaco iria
suceder, mas há uma abundância de
frutas penduradas mais de baixo na árvore da tecnologia destrutiva. O
risco mais óbvio é que a fabricação atomicamente precisa parece ideal para um
rápida e barata fabricação de coisas como armas. Em um mundo onde qualquer
governo poderia "imprimir" grandes quantidades de armas autônomas ou
semi-autônomas (incluindo facilidades), as corridas armamentistas poderiam tornar-se
muito rápidas - e, portanto, instáveis, uma vez fazendo um primeiro ataque
antes que o inimigo recebesse uma grande vantagem pode ser tentador. As armas também podem ser pequenas, coisas de
precisão: um "veneno inteligente" que age como um gás de nervos, mas
procura vítimas, ou sistemas de vigilância onipresentes "gnatbot"
para manter populações obedientes parece inteiramente possível. Além disso,
pode haver formas de obtenção de proliferação nuclear e engenharia climática
nas mãos de alguém que quer. Não podemos
julgar a probabilidade de risco existencial do futuro da nanotecnologia, mas
parece que ela poderia ser potencialmente perturbadora só porque ela pode nos
dar tudo o que desejar. Ainda desconhecidos – A possibilidade mais inquietante é que há algo
lá fora que é muito mortal, e
não temos nenhuma pista sobre isso.
O silêncio no céu pode ser uma
evidência para isso. É a ausência de extraterrestres devido a que a vida ou a inteligência é extremamente rara, ou que a vida inteligente tende a se exterminar? Se houver grande filtro no futuro, deve ter sido notado por outras civilizações também, e mesmo que não ajudasse. Seja qual for a ameaça,
teria que ser algo que é quase inevitável, mesmo quando você sabe que está lá,
não importa quem e o que você é. Nós não sabemos sobre tais ameaças, mas elas
podem existir. Note-se que só porque algo é desconhecido, isso não significa
que não podemos raciocinar sobre isso. Em um trabalho notável Max Tegmark e
Nick Bostrom mostram que um determinado conjunto de riscos deve ser inferior a uma
chance em um bilhão por ano, com base na idade relativa da Terra. Você pode se
perguntar por que as mudanças climáticas ou impactos de meteoros foram deixadas
de fora desta lista. A mudança climática, não importa o quão assustadora seja,
é pouco provável que faça todo o planeta inabitável ( mas pode agravar outras
ameaças se nossas defesas contra ela falharem). Meteoros certamente poderiam
nos eliminar, mas teria que ser muito azarado. O espécies de mamíferos sobrevive
em média por cerca de um milhão de anos. Assim, a taxa de extinção natural de
fundo é de aproximadamente uma em um milhão por ano. Isso é muito mais baixo do
que o risco de guerra-nuclear, que depois de 70 anos ainda é a maior ameaça à
nossa existência. A disponibilidade heurística nos faz superestimar os riscos
muitas vezes nos meios de comunicação, e descontados os riscos sem precedentes.
Se queremos ter em torno de um milhão de anos, precisamos corrigir isso. Editor
Paulo Gomes de Araújo Pereira.
Nenhum comentário:
Postar um comentário