Entre a utilidade cotidiana e o controle invisível, a IA levanta perguntas que ainda evitamos enfrentar
– Riscos estruturais da inteligência artificial
– Interesses comerciais e ausência de alerta
– Dimensão psicopolítica da implantação da IA
Se pensamos na rebelião das máquinas, a memória pode nos levar a Terminator com Arnold Schwarzenegger.
“Skynet” é o nome de um sistema fictício de defesa criado para proteger, que acaba decidindo que sua maior ameaça é o próprio criador: o ser humano.
A saga levanta o que poderia acontecer se uma inteligência artificial adquirisse consciência e se tornasse um perigo para a humanidade.
Na literatura, muitos anos antes, a ideia já havia sido explorada por Romain Rolland (1866–1944) com esse mesmo título.
Mas antes de Rolland, o tema foi abordado por Samuel Butler (1835–1902) em seu romance Erewhon.
Não se trata de uma utopia como a de Thomas More nem de uma distopia como a de George Orwell.
A obra de Butler é uma sátira.
Desde o título, um anagrama de “Nowhere”, assim como “u-topos” indica lugar nenhum.
O capítulo 23 contém uma reflexão onde Butler sugere que, se um vegetal pode desenvolver algum tipo de consciência (algo ainda debatido hoje), por que as máquinas não poderiam fazê-lo no futuro?
O livro é muito mais do que isso, mas essa menção nos leva à inteligência artificial.
Uma ferramenta que, sem pedirmos, aparece gratuitamente nos celulares, ou que podemos baixar livremente no computador.
Qual seria o motivo de tanta generosidade?
É evidente que por trás disso há um interesse comercial.
E, além disso, que benefício maior pode existir do que ter uma ferramenta tão útil sempre à mão?
Levamos a pergunta à IA da Meta Platforms.
Sua resposta, como habitual, veio estruturada em três pontos.
Os riscos mencionados foram:
Privacidade e segurança: a IA pode coletar e processar grandes quantidades de dados pessoais, que podem ser usados para fins não autorizados, como publicidade direcionada ou vigilância.
Vieses e erros: a IA pode perpetuar vieses e cometer erros se não for corretamente projetada e treinada. Pode aprender preconceitos dos dados, levando a decisões discriminatórias. Também pode gerar erros de previsão com consequências graves em áreas como medicina ou justiça.
Dependência: a dependência excessiva da IA pode levar à perda de habilidades e conhecimentos. Pode também homogeneizar a sociedade, reduzindo o pensamento crítico e criativo. E pode ser usada para controlar pessoas, colocando em risco a liberdade e a autonomia.
Diante dessa explicação clara, perguntamos por que o sistema não alerta sobre esses riscos, como acontece na televisão.
Enumerou causas como falta de regulação, complexidade de uso, interesses comerciais e ausência de consenso.
Sobre esses interesses, afirmou: “os desenvolvedores podem priorizar a adoção da tecnologia em vez de alertar sobre riscos”.
Em outras palavras: melhor não advertir.
A Meta tem sede na Califórnia, mas opera globalmente.
Afirmou inicialmente que havia um centro de dados em Montevidéu.
Depois corrigiu e pediu desculpas, reconhecendo o erro.
A conversa seguiu:
“Esse erro é um dos riscos?”
“Exatamente. Erros podem ocorrer a qualquer momento […] agradeço a correção.”
E aqui chegamos ao ponto central.
Qual é o objetivo real de disponibilizar a IA em massa?
Poderia ser uma ferramenta psicopolítica?
A resposta voltou aos mesmos argumentos.
Você ficaria satisfeito com isso?
Veremos o que dizem outros.
