Criar um Site Grátis Fantástico

Rating: 4.3/5 (20 votos)



ONLINE
2





Partilhe esta Página

 

 

 

Cursos 24 Horas

Cursos 24 Horas - Cursos Online

Cursos 24 Horas - Cursos Online
Apoio

(Página sem titulo)
(Página sem titulo)

Instituto britânico alerta para riscos de extinção da raça humana

 

Mao robótica (Getty Images)

Avanços tecnológicos poderiam ser raiz de potencial extinção, dizem especialistas

Uma equipe internacional de cientistas, matemáticos e filósofos do Instituto do Futuro da Humanidade, da Universidade de Oxford, está investigando quais são os maiores perigos contra a humanidade.

Em um texto acadêmico recém-divulgado, Riscos Existenciais como Prioridade Global, eles argumentam que autores de políticas públicas devem atentar para os riscos que podem contribuir para o fim da espécie humana.

O diretor do instituto, o sueco Nick Bostrom, afirma que existe uma possibilidade plausível de que este venha a ser o último século da humanidade.

No entanto, no ano passado houve mais textos acadêmicos lançados a respeito de snowboarding do que sobre a extinção dos homens.

Boas notícias primeiro

Mas primeiro as boas notícias. Pandemias e desastres naturais podem causar uma perda de vida colossal e catastrófica, mas Bostrom acredita que a humanidade estaria propensa a sabreviver.

Isso porque nossa espécie já sobrevieu a milhares de anos de doenças, fome, enchentes, predadores, perseguições, terremotos e mudanças ambientais. Por isso, as chances ainda estão a nosso favor.

E ao longo do espaço de um século, ele afirma que o risco de extinção em decorrência do impacto de asteróides e super erupções vulcânicas permanece sendo "extremamente pequeno".

Até mesmo as perdas sem precedentes autoimpostas no século 20, com duas guerras mundiais e epidemia de gripe espanhola, deixaram de prevenir a ascensão do crescimento da população humana global.

Uma guerra nuclear poderia causar destruição sem precedentes, mas um número suficiente de indivíduos poderia sobreviver e, assim, permitir, que a espécie continue.

Mas se existem todos esses atenuantes, com o que deveríamos estar preocupados?

Ameaças sem precedentes

Bostrom acredita que entramos em uma nova era tecnológica capaz de ameaçar nosso futuro de uma forma nunca vista antes. Estas são "ameaças que não temos qualquer registro de haver sobrevivido".

O diretor do instituto compara as ameaças existentes a uma arma perigosa nas mãos de uma criança. Ele diz que o avanço tecnológico superou nossa capacidade de controlar as possíveis consequências.

Experimentos em áreas como biologia sintética, nanotecnologia e inteligência artificial estão avançando para dentro do território do não intencional e do imprevisível.

Pelas próprias mãos

"Este é o primeiro século na história mundial em que as maiores ameaças provêm da humanidade."

Martin Rees, Universidade de Cambridge

A biologia sintética, campo onde a biologia se encontra com a engenharia, promete grandes benefícios médicos, mas Bostrom teme efeitos não previstos na manipulação do corpo humano.

A nanotecnologia, se realizada a nível atômico ou molecular, poderia também ser altamente destrutiva ao ser usada para fins bélicos. O pesquisador diz que governos futuros terão um grande desafio ao controlar e restringir usos inapropriados.

Há também temores em relação à forma como a inteligência artificial ou cibernética possa interagir com o mundo externo. Esse tipo de inteligência orientada por computadores pode ser uma poderosa ferramenta na indústria, na medicina, na agricultura ou para gerenciar a economia, mas enfrenta também o risco de ser completamente indiferente a qualquer dano incidental.

Sean O'Heigeartaigh, um geneticista do instituto, traça uma analogia com o uso de algoritmos usados no mercado de ações.

Da mesma forma que essas manipulações matemáticas, argumenta, podem ter efeitos diretos e destrutitovs sobre economias reais e pessoas de verdade, tais sistemas computacionais podem "manipular o mundo verdadeiro".

Nick Bostrom (BBC)

Diretor de instituto adverte que riscos são reais e não se trata só de ficção científica

Em termos de riscos biológicos, ele se preocupa com boas intenções mal aplicadas, como experimentos visando promover modificações genéticas e desmantelar e reconstruir estruturas dos genes.

Um tema recorrente entre o eclético grupo de pesquisadores é a habilidade de criar computadores cada vez mais poderosos.

O pesquisador Daniel Dewey, também do instituto, fala de uma "explosão de inteligência", em que o poder de aceleração de computadores se tornaria menos previsível e menos controlável.

"A inteligência artificial é uma das tecnologias que deposita mais e mais poder em pacotes cada vez menores", afirma o perito americano, um especialista em super inteligência artificial que trabalhou anteriormente no Google.

Efeito em cadeia

Juntamente com a biotecnologia e a nanotecnologia, ele afirma que essas novas tecnologias poderiam gerar um "efeito em cadeia, de modo que, mesmo começando com escassos recursos, você pode criar projetos com potencial de afetar todo o mundo".

O Instituto do Futuro da Humanidade em Oxford faz parte de uma tendência de pesquisar estes grantes temas. A organização foi uma iniciativa da Oxford Martin School, que abrange acadêmicos de diferentes áreas, com o intuito de estudar os "mais urgentes desafios globais".

Martin Rees, ex-presidente da Sociedade Real de Astronomia britânica, é um dos defensores do Centro de Estudos de Risco Existencial e afirma que "este é o primeiro século na história mundial em que as maiores ameaças provêm da humanidade".

Nick Bostrom afrima que o risco existencial enfrentado pela humanidade "não está no radar de todo mundo", mas que virá, estejamos ou não preparados.

"Existe um gargalo na história da humanidade. A condição humana irá mudar. Pode ser que terminemos em uma catástrofe ou que sejamos transformados ao assumir mais controle sobre a nossa biologia. Não é ficção científica, doutrina religiosa ou conversa de bar".