Translate

segunda-feira, 20 de julho de 2015

As 5 maiores ameaças à existência humana

No burburinho diário de "crises" atuais que a humanidade enfrenta, nos esquecemos de muitas gerações, esperamos ainda a que estão por vir. Não aqueles que vão viver 200 anos a partir de agora, mas 1.000 ou 10.000 anos. Eu uso a palavra "esperança", porque nós enfrentamos riscos, chamados riscos existenciais, que ameaçam acabar com a humanidade. Estes riscos não são apenas para grandes desastres, mas para os desastres que poderiam terminar a história. Embora nem todo mundo ignorou a longo futuro. Místicos como Nostradamus têm tentado antever o fim do mundo. HG Wells tentou desenvolver uma ciência da previsão de um futuro distante da humanidade, em seu livro A Máquina do Tempo. Outros escritores construíram outros futuros de longo prazo para avisar, divertir ou especular. Mas havia esses pioneiros ou futurólogos que não pensou sobre o futuro da humanidade, não teria mudado o resultado. Não havia muito seres humanos em seu lugar que poderia ter feito para nos salvar de uma crise existencial ou até mesmo causar uma. Estamos em uma posição mais privilegiada hoje. A atividade humana tem vindo a moldar o futuro do nosso planeta. E apesar de estarmos longe de controlar desastres naturais, estamos desenvolvendo tecnologias que podem ajudar a reduzir, ou pelo menos, lidar com eles.  O Futuro Imperfeito - foto -1. No entanto , esses riscos permanecem escassos. Há uma sensação de impotência e fatalismo sobre eles. As pessoas têm falado de apocalipses há milênios, mas poucos tentaram impedi-los . Os seres humanos também são ruins de fazer qualquer coisa sobre os problemas que ainda não ocorreram (parcialmente por causa da disponibilidade heurística - a tendência a superestimar a probabilidade de eventos dos quais conhecemos exemplos e subestimar eventos que não podemos lidar prontamente). Se a humanidade tornar-se extinta, pelo menos, a perda é equivalente à perda de todos os indivíduos que vivem e da frustração de seus objetivos. Mas a perda seria provavelmente muito maior do que isso. Extinção humana significa a perda de sentido gerada pelas gerações passadas, a vida de todas as gerações futuras (e poderia haver um número astronômico de vidas futuras) e todo o valor que poderia ter sido capaz de criar. Se a consciência ou inteligência são perdidas, isso pode significar que o próprio valor torna-se ausente do universo. Esta é uma razão moral enorme para trabalhar duro para evitar ameaças existenciais de se tornar realidade. E não devemos prevaricar sequer uma vez nesta busca. Com isso em mente, eu selecionei o que eu considero as cinco maiores ameaças à existência da humanidade. Ao longo do século passado, descobriram ou criaram novos riscos existenciais - supervulcões foram descobertos na década de 1970, e antes da guerra nuclear, Projeto Manhattan, era impossível - por isso, devemos esperar que os outros apareçam. Além disso, alguns riscos que parecem sérios hoje podem desaparecer à medida que aprendemos mais. As probabilidades também mudam ao longo do tempo - às vezes porque estamos preocupados em corrigir os riscos. Por fim, só porque algo é possível e potencialmente perigoso, não significa que vale a pena se preocupar com eles . Existem alguns riscos pelos quais não podemos fazer nada a respeito, tais como explosões de raios gama que resultam das explosões de galáxias. Mas se nós aprendemos que podemos fazer alguma coisa, as prioridades mudam. Por exemplo, com saneamento, vacinas e antibióticos, pestes que passaram de um ato de Deus à má saúde pública. Guerra Nuclear – Foto 2. Embora apenas duas armas nucleares foram usadas em guerra até agora - em Hiroshima e Nagasaki na Segunda Guerra Mundial - e arsenais nucleares que estão abaixo de seu pico chegaram na Guerra Fria, é um erro pensar que a guerra nuclear é impossível. Na verdade, ela pode não ser improvável. A crise dos mísseis cubanos esteve muito perto de virar nuclear. Se assumirmos um desses eventos a cada 69 anos e uma chance em três de que poderia percorrer todo o caminho para se ter uma guerra nuclear, a chance de uma tal catástrofe aumenta para cerca de um em 200 por ano. Pior ainda, a crise dos mísseis cubanos foi apenas o caso mais conhecido. A história da dissuasão nuclear entre União Soviética e EUA é cheia de ligações estreitas e erros perigosos. A probabilidade mudou dependendo das tensões internacionais, mas parece improvável que as possibilidades seriam muito menores do que um em 1000 por ano. Uma guerra nuclear em larga escala entre grandes potências iria matar centenas de milhões de pessoas diretamente ou através das próximas conseqüências - um desastre inimaginável. Mas isso não é suficiente para torná-lo um risco existencial. Da mesma forma os riscos de consequências são muitas vezes exagerados - potencialmente mortal localmente, mas globalmente um problema relativamente limitado. Bombas de cobalto foram propostos como uma arma hipotética apocalíptica que iria matar todo mundo com precipitação, mas são, na prática difícil e caro para construir. E elas são apenas mal fisicamente possível. A verdadeira ameaça é o inverno nuclear - ou seja, a fuligem deixada para a estratosfera causando um resfriamento e secagem do mundo em multi- ano. Simulações climáticas modernas mostram que ele poderia impedir a agricultura em grande parte do mundo durante anos. Se ocorrer esse cenário, bilhões morreriam de fome, deixando apenas os sobreviventes espalhados que podem ser apanhados por outras ameaças, como doença. A principal incerteza é como a fuligem se comportaria: dependendo do tipo de fuligem os resultados podem ser muito diferentes, e no momento não temos boas maneiras de estimar isso. A Pandemia da Bioengenharia – Foto 3. Pandemias naturais mataram mais pessoas do que as guerras. No entanto, as pandemias naturais não são suscetíveis de ser ameaças existenciais: geralmente há algumas pessoas resistentes ao patógeno, e a geração de sobreviventes seriam mais resistentes. A evolução também não favorece parasitas que acabam com seus anfitriões, que é por isso que a sífilis foi um assassino virulento de uma doença crônica como ele se espalhou na Europa.  Infelizmente, agora podemos fazer doenças mais desagradáveis. Um dos exemplos mais famosos é a forma como a introdução de um gene extra no mousepox - a versão do rato da varíola - tornou muito mais letal e capaz de infectar indivíduos vacinados. Trabalhos recentes sobre a gripe das aves tem demonstrado que o contágio de uma doença pode ser deliberadamente potenciado. Neste momento, o risco de alguém deliberadamente liberar algo devastador é baixo. Mas, como a biotecnologia fica melhor e mais barata, mais grupos serão capazes de transformar as doenças piores. A maioria dos trabalhos sobre armas biológicas têm sido feito pelos governos que procuram algo controlável, pois acabando com a humanidade não é militarmente útil. Mas há sempre algumas pessoas que possam querer fazer as coisas clandestinamente. Outros têm propósitos mais elevados. Por exemplo, o culto Aum Shinrikyo tentou apressar o apocalipse usando armas biológicas ao lado de seu mais bem sucedido ataque de gás dos nervos. Algumas pessoas pensam que a Terra seria melhor sem os seres humanos, e assim por diante. O número de mortes por ataques de armas biológicas e surtos epidêmicos parece que tem uma distribuição da lei de potência - a maioria dos ataques têm poucas vítimas, mas alguns matam muitos. Dado os números atuais, o risco de uma pandemia global de bioterrorismo parece muito pequena. Mas este é apenas o bioterrorismo: os governos mataram muito mais gente do que os terroristas com armas biológicas (até 400.000 podem ter morrido no programa biowar – japoneses da Segunda Guerra Mundial). E como a tecnologia se torna mais poderosa no futuro, patógenos mais desagradáveis ​​se tornam mais fáceis de projetar. Superinteligência – Foto – 4. A inteligência é muito poderosa. Um pequeno incremento na capacidade de resolução de problemas e coordenação do grupo deixou os outros macacos na poeira. Agora a sua existência depende de decisões humanas, não o que eles fazem. Ser inteligente é uma vantagem real para pessoas e organizações, para que haja muito esforço para descobrir formas de melhorar a nossa inteligência individual e coletiva: a partir de drogas que aumentam a cognição de software de inteligência artificial. O problema é que entidades inteligentes são boas em conseguir seus objetivos, mas se os objetivos são mal definidos eles podem usar seu poder de forma inteligente em alcançar fins desastrosos. Não há nenhuma razão para pensar que a própria inteligência vai fazer algo bom e se comportar moralmente. Na verdade, é possível provar que certos tipos de sistemas de superinteligentes não obedecem as regras morais, mesmo que fosse verdade. Ainda mais preocupante é que, ao tentar explicar as coisas para uma inteligência artificial nos deparamos com profundos problemas práticos e filosóficos. Os valores humanos são difusos, as coisas complexas que não são boas em se expressar, e mesmo se nós pudéssemos fazer, não compreenderíamos todas as implicações do que desejamos. Inteligência baseada em software pode rapidamente superar a humana torna-se-á assustadoramente poderosa. A razão é que pode ser escalada de maneiras diferentes da inteligência biológica: pode correr mais rápida em computadores mais rápidos, as peças podem ser distribuídas em mais computadores, diferentes versões testadas e atualizadas em tempo real, novos algoritmos incorporados que dão um salto no desempenho. Foi proposto que uma "explosão de inteligência" é possível quando o software torna-se bom o suficiente em fazer melhor software. Se tal salto ocorrer haveria uma grande diferença de potencial de energia entre o sistema inteligente (ou as pessoas dizendo o que fazer) e o resto do mundo. Isto tem um claro potencial para o desastre se os objetivos são mal definidos. A única coisa incomum sobre superinteligência é que não sabemos se as explosões de inteligência rápidas e poderosas são possíveis: talvez a nossa atual civilização como um todo está melhorando a si mesma no ritmo mais rápido possível. Mas há boas razões para pensar que algumas tecnologias podem acelerar as coisas muito mais rápido do que as sociedades atuais podem lidar. Da mesma forma que não temos um bom controle sobre quão diferentes formas perigosas de superinteligência seriam, ou o que a mitigação estratégica realmente funciona. É muito difícil de raciocinar sobre a tecnologia no futuro que ainda não temos , ou inteligências maiores do que nós mesmos. Dos riscos nesta lista, este é o mais provável de acontecer, ou maciço, ou apenas uma miragem. Esta é uma área surpreendentemente pouco pesquisada. Mesmo nas décadas dos anos 50 e 60, quando as pessoas estavam extremamente confiantes de que a superinteligência poderia ser alcançada" dentro de uma geração", que não parecia muito em questões de segurança. Talvez eles não levaram a sério as suas previsões, mas o mais provável é que eles só viram isso como um problema em um futuro remoto. Nanotecnologia – Foto – 5. A nanotecnologia é o controle sobre a matéria com precisão atômica ou molecular. Isso em si não é perigoso - em vez disso, seria uma notícia muito boa para a maioria das aplicações. O problema é que, como a biotecnologia, aumentando-se o poder também aumenta o potencial de abusos que são difíceis de defender.  O grande problema não é o famoso "grey goo" de nanomáquinas auto-replicantes comer tudo. Isso exigiria um design inteligente para este fim. É difícil fazer uma réplica da máquina: a biologia é muito melhor no que faz, por padrão. Talvez algum maníaco iria suceder, mas há uma abundância de frutas penduradas mais de baixo na árvore da tecnologia destrutiva. O risco mais óbvio é que a fabricação atomicamente precisa parece ideal para um rápida e barata fabricação de coisas como armas. Em um mundo onde qualquer governo poderia "imprimir" grandes quantidades de armas autônomas ou semi-autônomas (incluindo facilidades),  as corridas armamentistas poderiam tornar-se muito rápidas - e, portanto, instáveis, uma vez fazendo um primeiro ataque antes que o inimigo recebesse uma grande vantagem pode ser tentador.  As armas também podem ser pequenas, coisas de precisão: um "veneno inteligente" que age como um gás de nervos, mas procura vítimas, ou sistemas de vigilância onipresentes "gnatbot" para manter populações obedientes parece inteiramente possível. Além disso, pode haver formas de obtenção de proliferação nuclear e engenharia climática nas mãos de alguém que quer.  Não podemos julgar a probabilidade de risco existencial do futuro da nanotecnologia, mas parece que ela poderia ser potencialmente perturbadora só porque ela pode nos dar tudo o que desejar. Ainda desconhecidosA possibilidade mais inquietante é que há algo lá fora que é muito mortal, e não temos nenhuma pista sobre isso.  O silêncio no céu pode ser uma evidência para isso. É a ausência de extraterrestres devido a que a vida ou a inteligência é extremamente rara, ou que a vida inteligente tende a se exterminar? Se houver grande filtro no futuro, deve ter sido notado por outras civilizações também, e mesmo que não ajudasse. Seja qual for a ameaça, teria que ser algo que é quase inevitável, mesmo quando você sabe que está lá, não importa quem e o que você é. Nós não sabemos sobre tais ameaças, mas elas podem existir. Note-se que só porque algo é desconhecido, isso não significa que não podemos raciocinar sobre isso. Em um trabalho notável Max Tegmark e Nick Bostrom mostram que um determinado conjunto de riscos deve ser inferior a uma chance em um bilhão por ano, com base na idade relativa da Terra. Você pode se perguntar por que as mudanças climáticas ou impactos de meteoros foram deixadas de fora desta lista. A mudança climática, não importa o quão assustadora seja, é pouco provável que faça todo o planeta inabitável ( mas pode agravar outras ameaças se nossas defesas contra ela falharem). Meteoros certamente poderiam nos eliminar, mas teria que ser muito azarado. O espécies de mamíferos sobrevive em média por cerca de um milhão de anos. Assim, a taxa de extinção natural de fundo é de aproximadamente uma em um milhão por ano. Isso é muito mais baixo do que o risco de guerra-nuclear, que depois de 70 anos ainda é a maior ameaça à nossa existência. A disponibilidade heurística nos faz superestimar os riscos muitas vezes nos meios de comunicação, e descontados os riscos sem precedentes. Se queremos ter em torno de um milhão de anos, precisamos corrigir isso. Editor Paulo Gomes de Araújo Pereira.  

Nenhum comentário:

Postar um comentário