I. A. – Inteligência Artificial – EXTINÇÃO

Carlos Fernando S. Andrade – 30_Dez/2023

Os escritos de dois cientistas de formação em Física nascidos na Suécia têm tirado o sono desse cientista biólogo que vos escreve, aposentado e nascido no Brasil. Max Erik Tegmark Shapiro nasceu em Estocolmo em 1967. E seis anos depois, em 1973, nasceu Niklas (Nick) Boström em Helsingborg. Tegmark trabalha hoje em Cambridge no renomado Massachusetts Institute of Technology (MIT) e Bostrom é professor na faculdade de Filosofia da Universidade de Oxford. Eu, já disse que sou aposentado.

Os dois suecos são preocupados com a extinção. Bostrom criou e é diretor do INSTITUTO PARA O FUTURO DA HUMANIDADE[1] em Oxford na Inglaterra. Tegmark criou e é presidente do INSTITUTO PARA O FUTURO DA VIDA[2] com escritórios nos EUA e na Bélgica. Tegmark figura esse ano entre as 100 pessoas mais influentes em IA da revista TIME[3] e em março publicou uma carta aberta alertando sobre os “PROFUNDOS RISCOS PARA A SOCIEDADE E A HUMANIDADE” representados pelos recentes avanços na IA. Conseguiu para esse alerta uma carta assinada por mais de 30.000 figuras proeminentes da IA.

Institutos. Futuro! Da humanidade e da vida!

Bem, o futuro é coisa do tempo, que nós sabemos é o nome dado à 4ª dimensão, pois as outras três são do espaço. Tempo: sua unidade de medida é o segundo, o minuto, hora, séculos… eras…etc. Coisa de Físicos mesmo. Humanidade e vida já estão mais para a Sociologia e Biologia.

Por falar nisso, escorregões desses dois físicos, Tegmark e Bostrom, são bem documentadas na Wikipedia. Fazem 26 anos Bostrom escreveu ideias racistas em uma lista de discussão e mais recentemente (09 jan. 2023) ele se explica e se desculpa. E no ano passado Tegmark causou controvérsia na mídia por seu Instituto ter oferecido US$ 100mil ao jornal sueco de extrema direita Nya Dagbladet[4]. Depois ele explicou que fizeram uma ‘devida diligência’ e retiraram a oferta, e que seu instituto “considera nazista, neonazista ou pró-grupos ou ideologias nazistas desprezíveis e nunca os apoiariam conscientemente”. Beleza! O futuro agradece as desculpas.

Por cerca de 15 anos eu perguntei aos meus alunos de engenharia por quando tempo eles achavam que a espécie Homo sapiens iria ainda existir. Hem??? Como assim???

Charles Darwin e Alfred Wallace ajudaram muito na compreensão da origem das espécies. E desde os primórdios da Vida 1.0 já devem ter se originado mais de 5 bilhões de espécies, de todo tipo. No entanto mais de 99% estão extintas! Sim, esse é o destino de toda e qualquer espécie – A EXTINÇÃO! É assim que funciona a evolução.  Hoje temos algo entre 10 e 50 milhões de espécies, sendo que das 21 espécies de humanos (Gênero Homo) só nós os H. sapiens não fomos à extinção, ainda. A pergunta aborrecia os futuros engenheiros, e muitos respondiam: vamos existir para sempre! E eu retrucava: Não! Não mesmo. Ou seja, só se for nossas mentes existindo nas máquinas do futuro, na forma de quantum bits, sei lá.

Nick Bostrom acha que nossas chances de extinção ainda esse século é algo entre 10% e 20%[5]. Ok, e digamos, nos próximos 3 séculos? Seria 90% as chances de nossa extinção?

GORILAS E ELEFANTES.

No capítulo “RESULTADO: OS PRÓXIMOS 10 MIL ANOS” do livro Vida 3.0 Tegmark explora vários cenários futuros da IA na nossa vida, crescendo desde uma ‘Utopia Libertária’ até a ‘Autodestruição’. Quase no meio desse crescente tem lá o cenário: ‘CONQUISTADORES’. Hum… pensando na Sociologia e na História da humanidade essa categoria remete a péssimas lembranças, e nesse caso das máquinas movidas pela IA o resultado é que elas conquistam e matam todos os serem humanos! E assim Tegmark vai explicando o ‘como’ e o ‘porque’ isso poderia acontecer. Para exemplificar um ‘porque’, ele diz que a IA simplesmente pode desaprovar nossa administração imprudente (eu diria ‘de viés suicida’) do planeta. Claro, não precisa ser muito inteligente para ver isso, pois afinal só a Rússia e os EUA controlam cerca de 6 mil bombas nucleares, cada um. E os elefantes? ele comenta que 100 mil anos atras eles poderiam estar conjecturando sobre que risco nós recém-chegados humanoides de polegar opositores e telencéfalo desenvolvido poderíamos trazer a eles? Risco? Aquele macaco pelado? E Tegmark explica que “quando o diferencial de inteligência é grande o suficiente, não se tem uma batalha, mas um massacre. Até agora, nós, seres humanos exterminamos oito das onze espécies de elefantas e matamos a grande maioria das três restantes”. Conseguiríamos fácil a extinção dessas três restantes com um esforço elefantocida coordenado! E se uma IA superinteligente decidir exterminar a humanidade será ainda mais rápida, Tegmark pondera. E vai fazer isso de maneira tão inteligente que nem vamos entender o ‘como?’. Para as duas espécies de gorilas hoje, já dissemos aqui, a sua não extinção depende de nós humanos e não deles mesmo. Está nas nossas mãos, menores, mais fracas e menos peludas.

Tegmark e Bostrom já publicaram juntos sobre a extinção dos humanos, mas foi sobre riscos específicos como o decaimento do vácuo (um fenômeno hipotético onde o espaço decai para um estado de energia mais baixo), uma bolha que se propaga à velocidade da luz e destruiria todas as estruturas no seu caminho causando uma catástrofe que nenhum observador poderia ver, porque chegaria na velocidade da luz, sem aviso prévio. Eu nem comento!

Quem leu o livro O Mundo Sem Nós (2007) do jornalista estadunidense Alan Weisman pode ter achado interessante saber quais outras espécies dependem tanto dos humanos, que também iriam desaparecer. O trigo, os ratos e as baratas certamente seriam extintos. Cães, talvez. Gatos, provavelmente não. Vai saber!? a quem isso interessa?

Assisti em um seminário da Eletronuclear na Unicamp um engenheiro da empresa eufórico, dizendo à plateia que até Lovelock era amplamente a favor da energia nuclear. Nossa! Aquele super ambientalista, da Teoria de Gaia!? Eu pensava…Gaia, hipótese da ecologia profunda! E rapidamente lá do fundo do auditório um ativista gritou irritado: “Claro! Lovelock defende que esse mundo é das bactérias! Tanto faz um macaco a mais ou a menos”. O químico e matemático britânico James Lovelock nasceu e morreu no mesmo dia do ano (26 de julho) separados por 103 anos bem vividos. Morreu em 2022 dizendo que a humanidade já tinha passado do ‘ponto de não retorno no processo de autodestruição’ (extinção). E olha que o alerta dele era sobre o aquecimento global, e nada a ver com a I.A. Mas veja que fortuitamente, pode-se imaginar que uma superinteligência evite o aquecimento global antrópico, exatamente eliminando os humanos. Vai ser isso? Como? Quando? Vai saber!?

Adicionar aos favoritos o Link permanente.

Sobre fldom

Editor Flitoral

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *