Por que não celebro a IA como um simples aprimoramento tecnológico

Nick Bostrom, Yuval Noah Harari, Elon Musk e outros pensadores não devem estar errados: há muitas coisas a se fazer antes de introduzir a Inteligência Artificial (IA) como algo realmente bom para a Civilização Humana

Edson Perin

Esta é a primeira vez que vejo algo relacionado ao aprimoramento tecnológico que não celebro apenas como uma nova evolução ou conquista. Estou cobrindo tecnologia há mais de 35 anos e é a primeira vez que isso acontece. Eu disse algo assim no mais recente RFID Talks (click aqui para assistir), com meus colegas Claire Swedberg e Mark Roberti (veja os comentários deles abaixo), superespecialistas em identificação por radiofrequência (RFID) e sua utilização para solucionar problemas de negócios. Para mim, a Inteligência Artificial (IA) não é tão simples quanto mais um aprimoramento tecnológico e promoverá grandes desafios à Civilização Humana.

É um pouco difícil assumir isso, especialmente sendo um jornalista como eu, que está sempre fascinado – e fascinando as pessoas – com novas ferramentas tecnológicas para facilitar a nossa vida ou para fazer o nosso trabalho de uma maneira melhor. Agora, com a evolução da IA, sinto-me diferente, assustado e muito preocupado. A razão é que vejo que a IA tem o poder de se comportar como uma criança sozinha diante de um painel de controle cheio de botões de destruição e sem compreensão sobre as consequências de apertar um, outro ou todos eles.

E isto não é uma simples suposição ou uma crença religiosa. Baseio-me no que cientistas e pessoas inteligentes como Nick Bostrom, Yuval Noah Harari, Elon Musk e outros estão dizendo sobre a IA e suas consequências. Eles têm estudos e previsões reais sobre o desenvolvimento e uso da IA em nossa civilização.

Nick Bostrom, por exemplo, é filósofo da University of Oxford, conhecido por seu trabalho sobre risco existencial, princípio antrópico, ética do aprimoramento humano, emulação do cérebro inteiro, riscos de superinteligência e teste de reversão. É o diretor fundador da Future of Humanity Institute, na Oxford.

blank
Por que não celebro a IA como um simples aprimoramento tecnológico

Bostrom acredita que os avanços na inteligência artificial podem levar à superinteligência, que ele define como “qualquer intelecto que exceda em muito o desempenho cognitivo dos humanos em praticamente todos os domínios de interesse”. Ele vê isso como uma importante fonte de oportunidades e riscos existenciais.

O maximizador de clipe de papel é um experimento mental descrito por Bostrom, em 2003. Ele ilustra o risco existencial que uma inteligência artificial generativa pode representar para os seres humanos se for projetada com sucesso para perseguir até mesmo objetivos aparentemente inofensivos e a necessidade de incorporar a ética da máquina em projeto de inteligência artificial.

O cenário descreve uma inteligência artificial avançada encarregada de fabricar clipes de papel. Se tal máquina não fosse programada para valorizar a vida humana, e não tivesse poder suficiente sobre o seu ambiente, tentaria transformar toda a matéria do universo, incluindo os seres humanos, em clipes de papel ou em máquinas que fabricam clipes de papel.

“Suponhamos que temos uma IA cujo único objetivo é fazer o maior número possível de clipes de papel”, propõe Bostrom. “A IA perceberá rapidamente que seria muito melhor se não existissem humanos, porque os humanos podem decidir desligá-la. Porque se os humanos fizessem isso, haveria menos clipes de papel. Além disso, os corpos humanos contêm muitos átomos que poderiam ser transformados em clipes de papel. O futuro que a IA estaria tentando alcançar seria aquele em que houvesse muitos clipes de papel, mas nenhum ser humano”.

Bostrom enfatizou que não acredita que o cenário do maximizador de clipes de papel por si só ocorrerá; em vez disso, ele pretende ilustrar os perigos de criar máquinas superinteligentes sem saber como programá-las para eliminar com segurança o risco existencial aos seres humanos. O exemplo do maximizador de clipes de papel ilustra o amplo problema do gerenciamento de sistemas poderosos que carecem de valores humanos. O experimento mental tem sido usado como um símbolo da IA na cultura pop.

Yuval Noah Harari, nascido em 1976, é um autor, historiador e professor israelense do Departamento de História da Hebrew University of Jerusalem. Ele é o autor dos best-sellers científicos populares Sapiens: A Brief History of Humankind (2014), Homo Deus: A Brief History of Tomorrow (2016), e 21 Lessons for the 21st Century (2018). Seus escritos examinam o livre arbítrio, a consciência, a inteligência, a felicidade e o sofrimento.

Em evento organizado pelo The New York Times, em 2018, Harari deu suas previsões. “Os humanos”, alertou ele, “criaram um mundo tão complicado que não conseguimos mais entender o que está acontecendo. A inteligência artificial e a automação criarão uma classe global inútil (useless people).”

Tal como a Revolução Industrial criou a classe trabalhadora, a automação poderia criar uma “classe global inútil”, disse Harari. E a história política e social das próximas décadas girará em torno das esperanças e dos medos desta nova classe. As tecnologias disruptivas, que ajudaram a trazer enormes progressos, poderão ser desastrosas se ficarem fora de controle.

“Toda tecnologia tem um potencial bom e um potencial ruim”, disse ele. “A guerra nuclear é obviamente terrível. Ninguém quer isso. A questão é como evitá-la. Com a tecnologia disruptiva, o perigo é muito maior porque tem um potencial maravilhoso. Há muitas forças que nos empurram cada vez mais rápido para desenvolver estas tecnologias disruptivas e é muito difícil saber antecipadamente quais serão as consequências, em termos de comunidade, em termos de relações com as pessoas, em termos de política.”

Elon Musk é empresário e investidor, fundador, presidente, CEO e CTO da SpaceX; investidor anjo, CEO, arquiteto de produto e ex-presidente da Tesla, Inc.; proprietário, presidente executivo e CTO da X Corp.; fundador da Boring Company e xAI; co-fundador da Neuralink e OpenAI; e presidente da Musk Foundation. Ele é uma das pessoas mais ricas do mundo, com um patrimônio líquido estimado em US$ 190 bilhões em março de 2024, de acordo com o Bloomberg Billionaires Index, e US$ 195 bilhões, segundo a Forbes, principalmente de suas participações acionárias na Tesla e na SpaceX.

De acordo com Musk, haverá cada vez menos empregos no mundo que um robô não conseguirá realizar melhor. “O que fazer com o desemprego em massa? Este será um enorme desafio social”, disse Musk no World Government Summit, em 2023. “E penso que, em última análise, teremos de ter algum tipo de rendimento básico universal. Não creio que possamos ter escolha. Acho que vai ser necessário porque não terá emprego. A máquina-robô está assumindo o controle.”

“Essas não são coisas que eu gostaria que acontecessem”, disse Musk. “Essas são simplesmente coisas que acho que provavelmente acontecerão. Agora a produção de bens e serviços será extremamente elevada, com a automação. Haverá abundância. Quase tudo ficará muito barato.”

Musk acrescentou: “O desafio mais difícil – um desafio muito mais difícil – será como as pessoas encontrarão significado para a vida, já que muitas pessoas derivam seu significado de seu emprego. Se você não é necessário, se não há necessidade do seu trabalho, como você fará sentido para si mesmo? Você se sentirá inútil? Esse é um problema muito mais difícil de lidar. Haverá cada vez menos trabalhos que um robô não possa realizar.”

Para mim, como jornalista especializado em tecnologia e com mais de 30 anos de experiência cobrindo a evolução dos dispositivos eletrônicos e o uso de soluções de alta tecnologia nos negócios, a Inteligência Artificial é algo que podemos perder o controle muito rapidamente – considerando que estamos controlando agora, o que eu duvido.

E com base na citação de Harari em 21 Lessons for the 21st Century, eu lhe pergunto: “O que podemos esperar das máquinas inteligentes se elas aprenderem com os Humanos como lidar com os Humanos?”

Edson Perin é editor do IoP Journal e RFID Talks Videocast

Comentários

“As etiquetas RFID e os sensores IoT estão preparados para ajudar a impulsionar a tomada de decisões de IA de forma significativa. A IA pode capturar automaticamente dados dessas tags e sensores para entender melhor onde e como as coisas estão em nosso mundo. A maneira como a IA usa esses dados é algo que deve ser gerenciado tendo em mente os resultados de curto e longo prazos” – Claire Swedberg, editora sênior, RFID Journal.

“A IA tem potencial para aproveitar a enorme quantidade de dados em tempo real que a RFID fornece. As empresas que descobrirem como usar IA e RFID de maneiras inovadoras terão uma vantagem competitiva. Mas precisam tomar cuidado com promessas de curto prazo que são exageradas” – Mark Robert, fundador e ex-editor do RFID Journal.

- PUBLICIDADE - blank