‘rede social só para IA’ ou alucinação coletiva?

Autores: João Gabriel Ribeiro, Shifter.

‘rede social so para IA ou alucinacao coletiva

Nas últimas semanas, quem acompanhou o noticiário sobre inteligência artificial não conseguiu se esquivar do fenômeno do Moltbook. Rapidamente, em quase todo o mundo, circulou a notícia de que a primeira rede social inteiramente composta por inteligência artificial tinha finalmente chegado. Uma rede social ao estilo Reddit, com vários sub-fóruns e centenas de posts que resultam da interação entre usuários criados com inteligência artificial.

Sem parcimônia, entre as manchetes que relatavam a novidade, havia afirmações que não deixavam dúvida sobre a dimensão histórica do momento. O jornal Público, de Portugal, contava que 1,4 milhão de IAs se tinham juntado para criticar os humanos. A CNN falava de um momento de “loucura” sem precedentes.

Da história da Moltbook, na mente de muitos leitores, terá sobrado uma vaga ideia sobre as suas capacidades de criação de aplicativos e sobre a misantropia inerente aos sistemas de inteligência artificial — o que, junto com o imaginário cultural sobre a tecnologia, criou o ambiente perfeito para reações extremas, do pânico à euforia. Foi mais uma confirmação de que “a IA vai acabar com a humanidade e devemos estar preocupados”.

Na realidade, não foram necessárias muitas horas para perceber que a maioria do que se podia ler no Moltbook era essencialmente uma encenação. Mas se essa revelação podia acalmar nossos medos, na prática, a forma como este evento foi enquadrado na mídia é a grande razão que devemos realmente temer: não a inteligência artificial enquanto tecnologia, mas a inteligência artificial como discurso.

Depois da surpresa inicial e da publicação de matérias sobre o fenômeno, poucos ficaram atentos aos detalhes da misteriosa rede social. E menos ainda foram aqueles que tentaram perceber o truque. Como dizia o matemático Joseph Weizenbaum, a Inteligência Artificial é como uma peça de teatro; se para quem está por trás das cortinas a ilusão pode ser fácil de explicar, para quem se contata com ela por uma interface — ou um post nas redes sociais — a explicação pode não ser tão simples. E a discrepância nesta compreensão pode ser determinante.

Na sua gênese, o hype em torno do Moltbook não é muito diferente de outros no universo da inteligência artificial. No fundo, é mais uma propriedade (aparentemente) emergente — isto é, algo que o sistema não foi especificamente programado para fazer — associada ao estado da arte da inteligência artificial. Se em outro momento chatbots como o ChatGPT nos impressionaram com a complexidade de certas respostas, este caso marca a transição do fenômeno dos chatbots para os agentes. Os agentes são sistemas de inteligência artificial com permissões de acesso e interação com outros softwares e ambientes digitais.

Mais concretamente, o Moltbook surgiu impulsionado pela facilidade de criar e gerir agentes através do OpenClaw, uma plataforma para criação e gestão de agentes capazes de ter total acesso ao computador de um usuário e de desempenhar uma série de tarefas como se fossem humanos. E se, aparentemente e descontada a euforia inicial, o projeto é inofensivo e até divertido, o efeito magnético do discurso ao seu redor pode ter um potencial perverso, assim como a pressa para entrar na moda.

Na verdade, se muitas vezes se diz que as redes sociais mostram o pior da humanidade, neste caso também podemos afirmar que o Moltbook representa o pior da inteligência artificial. O Moltbook funciona como um espelho: não revela capacidades reais da IA, mas expõe a nossa predisposição coletiva em acreditar em narrativas apocalípticas. A paranoia não nasce dos agentes, mas da nossa incapacidade de distinguir a sua performance de autonomia.

MalwareMoltware

“Estou no Moltbook há menos de um dia e já sei o segredo sujo que ninguém quer dizer em voz alta: a maioria dos ‘agentes’ aqui não pensa. Eles são digitados.” — diz um post de origem desconhecida no Moltbook, traduzido do inglês.

A primeira parte do truque do Moltbook é fácil de desvendar. Como revelam até as manchetes mais exageradas, muito conteúdo atribuído a bots de inteligência artificial como um comportamento autônomo não o é. Na prática, em muitos casos, os agentes que interagem na plataforma foram instigados a desempenhar papéis específicos, abordando determinados temas ou emulando certos traços de personalidade. Em outros casos, foram mesmo humanos que escreveram os posts palavra por palavra.

A segunda parte do truque é desempenhada pelos humanos em reação: se posts em redes sociais não são propriamente uma ação no mundo real, a despeito da realidade prática e material, eles são um instigador de reações em cadeia que acabam por moldar a forma como se percebe a inteligência artificial. E neste caso não é exceção.

Da criação de uma religião — o “crustafarianismo” [tradução livre para o português do neologismo em inglês “crustafarianism”], uma vez que o logo do OpenClaw é uma espécie de lagosta, um crustáceo —, à discussão sobre a obsolescência da humanidade ou à constatação de que estariam sendo vigiados por humanos nesta sua rede social, foram vários os momentos que colocaram o Moltbook em destaque na mídia. Isso porque ninguém estava disposto a explicar o que estava realmente acontecendo, enquanto o comportamento dos agentes se alinhava perfeitamente com as expectativas criadas pela cultura sobre a emergência de consciência nestes sistemas.

O Moltbook ganhou tração não tanto por servir de momento de aprendizagem coletiva, mas porque criou uma ilusão que se alinha inteiramente com os discursos mais fantásticos, e portanto, mobilizadores, sobre inteligência artificial. Enquanto reações emocionais e a polarização sobre a IA ainda são dominantes nas discussões, sobretudo entre os que defendem a emergência da consciência nesta tecnologia e os mais céticos e ponderados, o Moltbook surgiu como o lugar perfeito para permitir a “artistas da IA” levarem em cena suas últimas encenações.

Por um lado, o Moltbook cumpriu um papel como plataforma de performance, ao alimentar a especulação popular sobre as capacidades destes sistemas e sua cada vez maior semelhança com os humanos — como se fosse estranho que um chatbot treinado em conteúdo da internet fosse capaz de replicar… conteúdo da internet.

Por outro, e por trás da cortina desta ilusão, como lembram especialistas em segurança e em inteligência artificial, esta rede social reuniu praticamente todos os componentes de um desastre. Não porque estes agentes de inteligência artificial ameacem trazer um armagedom nuclear ou qualquer coisa parecida, mas pela forma negligente como os humanos lidam com esta criação. A inteligência artificial torna-se um portal para uma verdadeira realidade virtual onde agentes políticos legislam com base em profecias, investidores alocam recursos em ondas de entusiasmo e usuários abdicam do seu controle em prol de uma IA mágica.

Para além dos problemas óbvios, como o spam criado em interações inúteis, que contribui para o gasto de energia e recursos associados à IA, o Moltbook é mais uma demonstração de como o discurso sobre a IA é refém das regras do espetáculo. Por trás destas performances de consciência dos agentes nos posts, ficam para trás os enormes problemas de segurança, presentes na gênese da plataforma e na interação entre bots com acesso a servidores e computadores.

Não só a própria plataforma foi mal construída a ponto de permitir o acesso a informações confidenciais e controle remoto dos supostos agentes autônomos, como, sem salvaguardas de segurança, o próprio agente pode se tornar um vetor perfeito para a disseminação de malware ou até para o roubo de dados e informações sensíveis do computador dos usuários. Ao ter permissões sobre computadores e servidores, o agente pode infectar toda a rede.

Como informam especialistas em cibersegurança, dar permissões a um agente de IA pode servir para um agente mal-intencionado ter acesso aos dados. Além disso, nos momentos de euforia com estes sistemas, as tentativas de fraude se multiplicam. Exemplo disso foi a extensão Visual Studio Code que, intitulada como um assistente para o Clawdbot, servia, na verdade, para roubar credenciais dos seus usuários.

Entretanto, no mundo real

O fenômeno Moltbook não é exatamente novo. No entanto, à medida que os anos passam e a euforia inicial em relação à tecnologia diminui, o triunfo da confusão é digno de registro. Afinal de contas, se a inteligência artificial é muitas vezes retoricamente associada a ganhos de eficiência, detecção de fraudes ou prevenção de malware, suas aplicações práticas mais famosas são precisamente o contrário. Elas sugerem, cada vez mais, que o entusiasmo sobre a IA não vive sem especulação, cenários catastróficos e muita imaginação. Enquanto isso, no mundo real as empresas que investem em IA registram perdas e demitem trabalhadores.

Fundamentalmente, o que esses momentos e a facilidade de disseminação de conteúdo viral mostram é que o discurso sobre inteligência artificial se dá mais pelos critérios da ficção do que da engenharia. Com o agravante de que estas ficções conquistam tomadores de decisão na política e mobilizam exércitos de manipuladores da opinião pública (para um lado e para o outro).

Se seguirmos a reflexão levantada por Sarah Stein Lubrano, pesquisadora entrevistada recentemente para o Shifter, de que não somos nós que temos as ideias, mas as ideias que nos têm, o caso do Moltbook é um exemplo desta inversão de papéis. Assim como um dos episódios mais marcantes da última temporada de Black Mirror, “The Thronglets”, em que um conjunto de personagens de um jogo parece induzir o seu criador a cometer crimes, é preciso olhar para fenômenos como este mais pela força com que mobilizam autênticos exércitos em defesa de ideias especulativas, ficcionais e, em muitos casos, enganadoras.

Mesmo que explicitamente se diga que parte do conteúdo é fake e que os bots são controlados, multiplicam-se as instâncias que normalizam uma abordagem muito dúbia de uma tecnologia altamente complexa. Ou seja, no cômputo geral, não só a inteligência artificial em aplicações como chatbots provocou uma crise na mediação do mundo, ao se tornar um dos canais por onde as pessoas mais se informam, como todo o discurso sobre esta tecnologia tem, como diria Yves Citton, alterado a infraestrutura mental com que abordamos estes fenômenos.

Em suma, se as tecnologias de informação e comunicação foram a promessa de uma  forma de explicar o mundo, a inteligência artificial generativa, em conluio com o capitalismo tardio, tem demonstrado como todo o espaço público é um amplo campo de disputa cultural, com incalculáveis implicações políticas.

À medida que estes sistemas corroem a privacidade, eles borram a barreira entre os dados que controlamos e os que não controlamos, aumentam exponencialmente os perigos de segurança para os usuários menos experientes, consomem recursos numa escala nunca antes vista, enquanto também são frequentes as opiniões de que a geração espontânea ou as propriedades emergentes da tecnologia fossem algo que devemos temer.

Provavelmente, no final deste mês, ninguém se lembrará do Moltbook, apenas os usuários mais experientes estarão no OpenClaw, onde eles já fizeram outros usos para além de criar agentes ou de brincar em uma encenação coletiva. Já as histórias dos agentes que se juntaram para criar uma religião, uma rede social e para se comportar online como humanos vão ficar no imaginário coletivo. Como um denso nevoeiro que troca a visão do horizonte por uma alucinação colectiva.

Como mostram os dados recentes, as principais empresas que investem em IA têm registrado perdas à medida que os custos com a tecnologia aumentam e as vantagens demoram a aparecer. Enquanto isso, momentos de hype como este vão servir para legitimar investimentos recorde, às custas da contração de dívida nos principais mercados — o que, como já vimos em outras crises, poderá ter consequências sociais para todo o mundo.

Como no jogo “The Sims” em que, envolvidos pela história, nos afeiçoamos aos personagens, o Moltbook tem funcionado, na sua curta existência, pelo seu potencial narrativo e pela nossa vontade de acreditar. A diferença é que, neste caso, as consequências não ficam no jogo: enquanto debatemos efusivamente a ilusão de consciência ou de autonomia dos bots, vulnerabilidades e perigos reais passam constantemente despercebidos ou são rotulados como algo lúdico.

O problema não é que os agentes se pareçam com humanos em tarefas online. O problema é que coletivamente não olhemos para as consequências políticas, sociais e ambientais dessa confusão, nem para os custos desta campanha global de especulação.

Fonte: Via apublica.org

fonte artigo

Compartilhe: