Muito antes de Elon Musk e o cofundador da Apple, Steve Wozniak, assinarem uma carta alertando que a inteligência artificial representa “riscos profundos” para a Humanidade, o físico teórico britânico Stephen Hawking vinha soando o alarme sobre a tecnologia em rápida evolução.
“O desenvolvimento de inteligência artificial completa pode significar o fim da raça humana“, disse Hawking à BBC em uma entrevista em 2014.
Hawking, que sofria de esclerose lateral amiotrófica (ELA) há mais de 55 anos, morreu em 2018, aos 76 anos. Embora ele tivesse comentários críticos sobre IA, ele também usou uma forma muito básica da tecnologia para se comunicar devido à sua doença, que enfraquece os músculos e exigiu que Hawking usasse uma cadeira de rodas.
Leia também: Cientistas desenvolvem IA que transforma pensamentos em texto
Hawking ficou incapaz de falar em 1985 e dependeu de várias maneiras de se comunicar, incluindo um dispositivo gerador de fala executado pela Intel, que lhe permitiu usar movimentos faciais para selecionar palavras ou letras que foram sintetizadas para a fala.
O comentário de Hawking à BBC em 2014 de que a IA poderia “significar o fim da raça humana” foi uma resposta a uma pergunta sobre potencialmente renovar a tecnologia de voz na qual ele confiava. Ele disse à BBC que formas muito básicas de IA já se mostraram poderosas, mas criar sistemas que rivalizem com a inteligência humana ou a superem pode ser desastroso para a raça humana.
“Ele decolaria por conta própria e se redesenharia a um ritmo cada vez maior”, disse ele.
“Os humanos, que são limitados pela evolução biológica lenta, não poderiam competir e seriam superados”, acrescentou Hawking.
IA entre os grandes temas que Hawking abordava
Meses após sua morte, a última obra de Hawking chegou ao mercado. Intitulado “Breves Respostas às Grandes Perguntas”, seu livro fornece aos leitores respostas a perguntas que lhe eram feitas com frequência. O livro de ciência discutiu o argumento de Hawking contra a existência de Deus, como os humanos provavelmente viverão no espaço um dia e seus temores sobre a engenharia genética e o aquecimento global.
A inteligência artificial também ocupou um lugar de destaque em sua lista de “grandes questões”, argumentando que os computadores “provavelmente ultrapassarão os humanos em inteligência” dentro de 100 anos.
“Podemos enfrentar uma explosão de inteligência que, em última análise, resulta em máquinas cuja inteligência excede a nossa em mais do que a nossa excede a dos caracóis“, escreveu.
Ele argumentou que os computadores precisam ser treinados para se alinharem com os objetivos humanos, acrescentando que não levar os riscos associados à IA a sério pode ser “nosso pior erro de todos os tempos”.
“É tentador descartar a noção de máquinas altamente inteligentes como mera ficção científica, mas isso seria um erro – e potencialmente nosso pior erro de todos os tempos.”
Grandes nomes da tecnologia assinaram carta de alerta
As declarações de Hawking ecoam as preocupações deste ano do gigante da tecnologia Elon Musk e do cofundador da Apple, Steve Wozniak, em uma carta divulgada em março. Os dois, junto com milhares de outros especialistas, assinaram uma carta que pedia uma pausa de pelo menos seis meses na construção de sistemas de IA mais poderosos do que o modelo de linguagem GPT-4 da OpenAI.
“Sistemas de IA com inteligência competitiva humana podem representar riscos profundos para a sociedade e a Humanidade, como mostrado por uma extensa pesquisa e reconhecido pelos principais laboratórios de IA”, diz a carta, publicada pela organização sem fins lucrativos Future of Life.
Leia também: Temperatura dos oceanos aumenta e preocupa cientistas
O ChatGPT da OpenAI se tornou a base de usuários que mais cresceu, com 100 milhões de usuários ativos mensais em janeiro, à medida que pessoas em todo o mundo corriam para usar o chatbot, que simula conversas semelhantes a humanos com base em prompts que são dados. O laboratório lançou a última iteração da plataforma, GPT-4, em março.
Apesar dos apelos para pausar a pesquisa em laboratórios de IA que estão trabalhando em tecnologia que superaria o GPT-4, o lançamento do sistema serviu como um divisor de águas que reverberou em toda a indústria de tecnologia e catapultou várias empresas para competir na construção de seus próprios sistemas de IA.
IA pode ser benéfica se treinada corretamente
O Google está trabalhando para reformular seu mecanismo de busca e até mesmo criar um novo que depende de IA; A Microsoft lançou o “novo mecanismo de busca Bing” descrito como o “copiloto alimentado por IA para a web” dos usuários; e Musk disse que lançará um sistema de IA rival que descreveu como “busca máxima da verdade”.
Hawking aconselhou no ano anterior à sua morte que o mundo precisava “aprender a se preparar e evitar os riscos potenciais” associados à IA, argumentando que os sistemas “poderiam ser o pior evento da história de nossa civilização”. Ele observou, no entanto, que o futuro ainda é desconhecido e a IA pode ser benéfica para a humanidade se treinada corretamente.
“O sucesso na criação de IA eficaz pode ser o maior evento da história da nossa civilização. Ou o pior. Nós simplesmente não sabemos. Portanto, não podemos saber se seremos infinitamente ajudados pela IA, ou ignorados por ela e deixados de lado, ou possivelmente destruídos por ela”, disse Hawking durante um discurso na conferência tecnológica Web Summit, em Portugal, em 2017.
Via New York Post.
Jornalista pioneiro no campo da internet brasileira, Mario Cavalcanti começou a trabalhar com conteúdo online em 1996, tendo passado por portais de destaque como Cadê?, StarMedia Brasil, iBest, Globo.com e Click21. Gosta de assuntos como mistérios, criptozoologia, expedições e descobertas científicas. É editor do portal Mundo & História.