Como o neoliberalismo destrói a democracia

Imagem
 [artigo de Christian Laval publicado em Viento Sur , em 8/4/2024. Tradução: Haroldo Gomes] A observação é clara. As democracias liberais e parlamentares, ligadas aos chamados Estados de Direito, são confrontadas externamente por regimes que abominam essa forma política, enquanto internamente são sabotadas por uma grande fração de forças de direita ou de extrema direita. Os recentes sucessos eleitorais das formações mais nacionalistas e xenófobas na Itália, Holanda e Alemanha atestam isso. Não se trata aqui de aprovar o desempenho das democracias parlamentares que estão historicamente ligadas ao colonialismo e que deram uma roupagem liberal à exploração capitalista da força de trabalho. Em vez disso, trata-se de mostrar como o neoliberalismo, como um modo geral de organização econômica e social em todos os níveis da vida, funcionou e continua a funcionar como uma máquina formidável para a destruição da democracia liberal. Foi isso que levou alguns autores, como Wendy Brown, a falar de

A Consumação

 [Artigo de Franco "Bifo" Berardi, publicado em Not, em 17/05/2023. Tradução: equipe Vapor ao Vento]

Graças à Inteligência Artificial (IA) não é mais possível interromper o processo de autoconstrução do autômato global. Missão cumprida para a humanidade?

Antes da consumação

Este sinal indica o momento em que a transição da desordem para a ordem ainda não foi concluída. Na verdade, a mudança já está preparada porque todas as linhas do trigrama superior estão em relação com as do inferior. Mas eles ainda não estão no lugar. Antes da consumação. Êxito.

As condições são difíceis. A missão é grande e cheia de responsabilidade. Trata-se mesmo de trazer o mundo da desordem à ordem.

Após a consumação

Apenas quando o equilíbrio perfeito for alcançado, qualquer movimento poderá perturbar a ordem e causar um retorno à desintegração. 

Nos tempos que seguem uma grande passagem, tudo segue rápido, tendendo ao progresso e ao desenvolvimento. Mas esse impulso inicial não é bom e certamente leva à perda e ao colapso, porque na pressa a pessoa ultrapassa a meta. Um caráter forte, portanto, não se deixa contagiar por essa embriaguez geral, mas interrompe seu movimento a tempo. Assim, não ficará totalmente imune às infelizes consequências do anseio geral de progresso, mas é atingido por trás como uma raposa que atravessou a água e terminou apenas com a cauda.

I Ching – Il libro dei mutamenti

Talvez a velhice e o medo me enganem

“A escrita metódica me distrai da condição atual das pessoas. A certeza de que tudo isso está escrito nos anula ou nos confunde. Conheço bairros onde os jovens se prostram diante dos livros e beijam as páginas brutalmente, mesmo que não consigam ler uma única letra. As epidemias, as discórdias heréticas, as andanças que inevitavelmente degeneram em banditismo, têm dizimado a população. Acho que já falei sobre os suicídios, mais frequentes a cada ano. Talvez a velhice e o medo me enganem mas eu suspeito que a espécie humana está prestes a se extinguir e que a biblioteca se manterá: iluminada, solitária, infinita, perfeitamente imóvel, armada de volumes preciosos, nada incorruptível, secreta."  (Borges, La biblioteca de Babel

Nesta história que Borges publicou em 1941, está todo o nosso presente: a desintegração da civilização humana, o fanatismo religioso dos jovens que beijam as páginas do livro que nem sabem ler, a epidemia, as discórdias, as migrações que degeneram em banditismo e dizimam a população. E por fim os suicídios, cada vez mais frequentes.

Uma boa descrição da terceira década do século XXI. Por fim, Borges anuncia que a Biblioteca não está destinada a desaparecer com a humanidade: ela continua, solitária, infinitamente secreta e perfeitamente inútil. Assim, a imensa biblioteca de dados registrados por sensores visuais, sonoros e gráficos inseridos em todos os cantos do planeta continuará para sempre alimentando o autômato cognitivo que está tomando o lugar dos frágeis organismos humanos, sufocados por pragas, dementes até o suicídio? Assim diz Borges, quem sabe.

Na era moderna, como previra Francis Bacon, o conhecimento era um fator de poder sobre a natureza e os explorados, mas a partir de certo momento a expansão do conhecimento técnico passou a funcionar ao contrário: não mais prótese do poder humano, a técnica se transformou em um sistema dotado de uma dinâmica independente dentro da qual nos encontramos presos. Já na década de 1960, Gunther Anders havia dito que o poder da tecnologia nuclear colocava a sociedade em um estado de impotência. Os Estados equipados com armas nucleares escapam cada vez menos da lógica da concorrência, levando a uma extensão e refinamento cada vez mais destrutivos da tecnologia atômica, a ponto desta escapar à própria vontade de quem a concebeu e desenvolveu. 

Nessa superioridade funcional da arma atômica, Anders vê as condições para uma nova e mais completa forma de nazismo.

No novo século, as tecnologias digitais criaram as condições para a automatização da interação social, a ponto de tornar inoperante a vontade coletiva.

Em 1993, em Out of control, Kevin Kelly previu que as então nascentes redes digitais criariam uma Mente Global à qual as mentes subglobais (individuais, coletivas ou institucionais) teriam de ser forçadas a se submeter.

Enquanto isso, a pesquisa sobre inteligência artificial ou IA estava se desenvolvendo, que hoje atingiu um nível de maturidade suficiente para prefigurar a inscrição no corpo social de um sistema de encadeamento de inúmeros dispositivos capazes de automatizar as interações cognitivas humanas. A ordem lógica está inscrita nos próprios fluxos de reprodução social, mas isso não significa que o corpo social seja harmoniosamente regulado por ela. A sociedade planetária está cada vez mais repleta de automatismos técnicos, mas isso de forma alguma elimina o conflito, a violência, o sofrimento. Nenhuma harmonia está à vista, nenhuma ordem parece ser estabelecida no planeta. O caos e o autômato coexistem entrelaçando-se e alimentando-se mutuamente. O caos alimenta a criação de interfaces técnicas de controle automático, que só possibilitam a continuidade da produção de valor. Mas a proliferação de automatismos técnicos, contestados pelos inúmeros órgãos do poder econômico, político e militar em conflito, acaba alimentando o caos, ao invés de reduzi-lo. 

Duas histórias mundiais paralelas estão se desenrolando, com pontos de interseção onipresentes, mas ainda separados: a história do caos ambiental psíquico geopolítico e a história da ordem automática que está amplamente ligada. 

Mas será sempre assim ou haverá um curto circuito, e o caos tomará conta do autômato? Ou melhor, será que o autômato conseguirá se livrar do caos, eliminando o agente humano?

O atual estágio de desenvolvimento da IA ​​provavelmente está nos levando ao limiar de um salto para a dimensão que eu definiria como um autômato cognitivo global generalizado. O autômato não é um análogo do organismo humano, mas a convergência de inúmeros dispositivos gerados por inteligências artificiais dispersas.

A consumação

Nas últimas páginas do romance de Dave Eggers Il cerchio, Ty Gospodinov confessa a Mae sua impotência diante da criatura que ele mesmo concebeu e construiu, o monstruoso empreendimento tecnológico constituído por uma convergência entre Facebook, Google, PayPal, YouTube e muito outros. Eu não queria que o que está acontecendo acontecesse, diz Ty Gospodinov, mas agora não posso mais impedir. 

No horizonte do romance se destaca a Consumação (Completion), o fechamento do círculo: tecnologias capilares de coleta de dados e inteligências artificiais estão perfeitamente conectadas em uma rede ubíqua de geração sintética de realidade compartilhada.

O atual estágio de desenvolvimento da IA ​​provavelmente está nos levando ao limiar de um salto para a dimensão que eu definiria como um autômato cognitivo global generalizado. O autômato não é um análogo do organismo humano, mas a convergência de inúmeros dispositivos gerados por inteligências artificiais dispersas. A evolução da inteligência artificial não conduz à criação de andróides, à simulação perfeita do organismo consciente, mas manifesta-se como a substituição de competências específicas por autômatos pseudocognitivos que se encadeiam, convergindo no autômato cognitivo global. 

Em 28 de março de 2023, Elon Musk, Steve Wozniak, seguido por mais de mil altos funcionários do complexo de alta tecnologia, incluindo Evan Sharp do Pinterest e Chris Larson da empresa de criptomoedas Ripple assinaram uma carta propondo uma moratória na pesquisa no campo da IA ​​aberta: "Os sistemas de IA estão se tornando competitivos com os humanos na busca de propósitos gerais e devemos nos perguntar se devemos permitir que as máquinas invadam nossos canais de notícias com propagandas e falsidades. Devemos permitir que todas as atividades de trabalho sejam automatizadas, incluindo as gratificantes? Devemos desenvolver mentes não humanas que possam nos superar em número e eficácia, de modo a nos tornar obsoletos e nos substituir? Devemos arriscar perder o controle sobre nossa civilização? Essas decisões não podem ser delegadas a líderes de tecnologia não eleitos. Esses poderosos sistemas de IA só devem se desenvolver quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão gerenciáveis. Portanto, pedimos a todos os laboratórios de IA que suspendam imediatamente o treinamento de sistemas de IA mais poderosos que o GPT-4 por pelo menos seis meses. Essa interrupção deve ser pública e verificável e deve incluir todos os principais participantes. Se tal pausa não for implementada, os governos devem assumir a liderança na imposição de uma moratória”.

Então, no início de maio de 2023, surgiram notícias de que Geoffrey Hinton, um dos primeiros criadores de redes neurais, havia decidido deixar o Google para poder falar abertamente sobre os perigos implícitos na inteligência artificial: "Alguns dos perigos dos chatbots de IA são bastante assustadores", disse Hinton à BBC, porque eles podem se tornar mais inteligentes que os humanos e podem ser usados ​​por agentes maliciosos. Além de prever a possibilidade de manipulação de informações, o que preocupa Hinton é “o risco existencial que surgirá quando esses programas forem mais inteligentes do que nós [...]. Cheguei à conclusão de que o tipo de inteligência que estamos desenvolvendo é muito diferente da inteligência que temos [...], como se encontrar com 10.000 pessoas diferentes e sempre que uma dessas pessoas aprende algo, todos os outros sabem automaticamente sobre isso".

A vanguarda ideológica e empresarial do neoliberalismo digital parece assustada com o poder do Golem, e como aprendizes de feiticeiro, os empresários de alta tecnologia pedem uma moratória, uma pausa, um período de reflexão. 

Mas como? A mão invisível não funciona mais? A autorregulação do Capital-Rede não está mais na ordem do dia?

O que está acontecendo? O que está por acontecer? O que está prestes a acontecer?

São três questões separadas; o que está acontecendo mais ou menos sabemos: graças à convergência entre coleta massiva de dados, programas capazes de reconhecimento e recombinação, e dispositivos de produção, está surgindo uma tecnologia capaz de simular habilidades inteligentes específicas – papagaios estocásticos.

O que vai acontecer é que os papagaios estocásticos, graças à capacidade de autocorreção e à sua capacidade de escrever software evolutivo estão destinados a acelerar enormemente a inovação técnica - em particular a inovação técnica de si mesmos. 

O que pode e provavelmente acontecerá: dispositivos de autocorreção inovadora (deep learning) determinam suas próprias finalidades de forma independente do criador humano. Nas garras da competição econômica e militar, a pesquisa e a inovação não podem ser suspensas, especialmente se pensarmos na aplicação da IA ​​no campo militar. Acredito que os aprendizes de feiticeiro estão percebendo que a tendência à autonomia dos geradores linguísticos (autonomia do criador humano) está implícito em sua capacidade de simular uma competência inteligente de forma mais eficiente que o agente humano, ainda que em um campo específico e limitado. Basicamente, as competências específicas convergirão para a cadeia de autômatos autodirigidos para os quais o criador humano original poderia se tornar um obstáculo a ser eliminado.

No debate jornalístico sobre o tema, prevalecem posições de cautela: problemas como a disseminação de notícias falsas são relatados, incitamento do ódio ou declarações racistas implícitas. Tudo verdade, mas não muito relevante. Durante anos, as inovações na tecnologia de comunicação aumentaram a violência verbal e a idiotice. Não pode ser isso que preocupa os donos do autômato, aqueles que o conceberam e o estão implementando. O que preocupa os aprendizes de feiticeiro, na minha humilde opinião, é a consciência de que o autômato inteligente dotado de capacidade de autocorreção e autoaprendizagem está destinado a tomar decisões autônomas de seu criador.

Pensemos em um automatismo inteligente inserido no dispositivo de controle num dispositivo militar. Até que ponto se pode ter certeza de que isso não evolui inesperadamente, talvez acabando por atirar em seu dono ou deduzindo logicamente dos dados de informação a que pode ter acesso a urgência de lançar a bomba atômica? 

Essa superioridade (ou melhor, irredutibilidade à computação) do pensamento humano é um pequeno consolo porque é de pouca utilidade quando se trata de interagir com dispositivos de geração (e destruição) baseados no cálculo.

Linguagem e pensamento geradores: o cérebro sem órgãos

A máquina lingüística que responde às questões prova que Chomsky tem razão quando diz que a linguagem é produto de estruturas gramaticais inscritas na constituição biológica humana, dotada de caráter generativo, ou seja, capaz de gerar sequências infinitas dotadas de significado. Mas o limite do discurso de Chomsky reside justamente na recusa em ver o caráter pragmático da interpretação dos signos linguísticos; da mesma forma, o limite do chatbot GPT consiste justamente em sua impossibilidade de ler pragmaticamente as intenções de significado.

Em um livro intitulado La ricerca della lingua perfetta, Umberto Eco diz que “Uma lingua natural não existe apenas com base em uma sintática e uma semântica. Ele também vive a partir de uma pragmática, ou seja, se baseia em regras de uso que levam em conta as circunstâncias e os contextos de emissão, e essas mesmas regras de uso estabelecem a possibilidade de usos retóricos da língua graças aos quais parte e construções sintáticas podem adquirir vários significados (como é o caso das metáforas)." (Eco: 1993, pag. 30).

Generative pre-trained transformer (GPT) é um programa capaz de responder e conversar com um humano graças à capacidade de recombinar palavras, frases e imagens recuperadas da rede linguística objetivada na Internet. O programa generativo foi treinado para reconhecer o significado de palavras e imagens e possui a capacidade de organizar frases sintaticamente. Possui a capacidade de reconhecer e recombinar o contexto sintático, mas não o contexto pragmático, ou seja, a vivência intensiva no processo de comunicação, pois essa habilidade depende da experiência de um corpo, e essa experiência não está ao alcance de um cérebro sem órgãos, que é tudo inteligência artificial. Os órgãos sensitivos constituem uma fonte de conhecimento contextual e auto-reflexivo que o autômato não possui.

O autômato é capaz de inteligência, não de pensamento. O autômato é superior ao humano no campo do calculável, mas pensar é justamente a incursão do não calculável (consciência/inconsciente) no conhecimento e no raciocínio. Mas essa superioridade (ou melhor, irredutibilidade à computação) do pensamento humano é um pequeno consolo, porque de pouco serve quando se trata de interagir com dispositivos de geração (e destruição) baseados no cálculo.

Do ponto de vista da experiência, o autômato não compete com o organismo consciente. Mas em termos de funcionalidade, o autômato (pseudo)cognitivo é capaz de superar o agente humano em eficiência (outsmart) em uma competência específica (calcular, fazer listas, traduzir, mirar, atirar e assim por diante). O autômato também é dotado da capacidade de aperfeiçoar seus procedimentos, ou seja, de evoluir. Em outras palavras, o autômato cognitivo tende a modificar a finalidade de sua operação, não apenas os procedimentos.

Na esfera humana, a linguagem consiste em signos que significam dentro de um contexto experiencial. Graças à interpretação pragmática do contexto, torna-se possível a interpretação semântica dos signos (tanto os naturais como os linguísticos, dotados de intenção). A conjunção entre os corpos é o contexto não verbal dentro do qual se possibilita a identificação e a desambiguação do sentido dos enunciados.

Na esfera conjuntiva, a relação com a realidade se assenta na capacidade de representação e persuasão da linguagem.

Na esfera conectiva, a interpretação dos signos não tem caráter de experiência em contexto ambíguo, mas de reconhecimento em contexto de exatidão.

A inteligência linguística artificial consiste em softwares capazes de reconhecer séries semióticas sintaticamente coerentes, e também de gerar enunciados por meio da recombinação sintaticamente coerente de unidades significantes.

Desde quando as capacidades de self-learning são desenvolvidas, o autômato está em condições de tomar decisões relativas à melhoria dos procedimentos, mas também, tendencialmente, de tomar decisões relativas aos próprios propósitos da operação automática. Os dispositivos tecnolinguísticos que incorporam software de Inteligência Artificial não se limitam a executar programas generativos, mas podem escrever esses programas, podem evoluir à medida que são equipados com técnicas destinadas à aprendizagem: machine learning

Graças à evolução dos papagaios estocásticos em agentes linguísticos capazes de autocorreção evolutiva, a linguagem, tornada capaz de auto-geração, torna-se autônoma do agente humano, e o agente humano é progressivamente envolvido na linguagem.

Não subsumido, mas envolvido, encapsulado. A subsunção total implicaria uma pacificação do humano, uma aquiescência completa: uma Ordem, enfim.

Finalmente uma Harmonia, ainda que totalitária.

Mas não. A guerra predomina no panorama planetário.

Nesse neoambiente do autômato linguístico em concatenação, os agentes humanos precisam aperfeiçoar suas capacidades conectivas, enquanto a capacidade conjuntiva enfraquece e o corpo social enrijece, torna-se agressivo.

O autômato ético é uma ilusão

Quando os aprendizes de feiticeiro perceberam as possíveis implicações da capacidade autocorretiva e, portanto, evolutiva da inteligência artificial, começou-se a falar sobre a ética do autômato, ou alinhamento, como se diz no jargão filosófico empresarial.

Em sua pomposa apresentação, os autores do chatbot GPT declaram que é sua intenção inscrever critérios éticos alinhados com valores éticos humanos em seus produtos: "Nossa busca de alinhamento visa tornar a inteligência geral artificial alinhada com os valores e as intenções humanas".

Mas o projeto de inserir regras éticas na máquina generativa é uma velha utopia de ficção científica, sobre o qual Isaac Asimov escreveu pela primeira vez, quando formulou as três leis fundamentais da robótica. O próprio Asimov demonstra narrativamente que essas leis não funcionam.

E afinal, que padrões éticos devemos incluir na inteligência artificial? A experiência de séculos mostra que um acordo universal sobre regras éticas é impossível, pois os critérios de avaliação ética estão relacionados aos contextos culturais, religiosos, políticos e também aos imprevisíveis contextos pragmáticos da ação. Não há uma ética universal, se não aquela imposta pela dominação ocidental que, no entanto, começa a ranger. Obviamente, todo projeto de inteligência artificial terá critérios inscritos que correspondem a uma visão de mundo, a uma cosmologia, a um interesse econômico, a um sistema de valores em conflito com outros. Naturalmente, cada um reivindicará a universalidade.

"Norbert Wiener havia observado, já em 1960, que seria melhor termos mais certeza de que o propósito introduzido na máquina é o propósito que realmente queremos. O comentário de Wiener captura o chamado problema de alinhamento de valor na IA, ou seja, a dificuldade dos programadores em garantir que os valores de seus sistemas se alinhem com os humanos. Mas qais são os valores humanos? Faz sentido supor que existem valores universais comuns à toda a sociedade?” (Melanie Mitchell, L’ntelligenza artificiale, Einaudi, 2022, pag. 124-5). 

O que acontece em termos de alinhamento é o contrário do que prometem os construtores do autômato: não é a máquina que se alinha com os valores humanos, que ninguém sabe exatamente quais são. Mas os humanos devem se alinhar com os valores automáticos do artefato inteligente, que se trata de assimilar os procedimentos indispensáveis ​​à interação com o sistema financeiro ou que se trata de aprender os procedimentos necessários para usar sistemas militares. Acho que o processo de autoformação do autômato cognitivo não pode ser corrigido por lei ou por normas éticas universais, nem pode ser interrompido ou desativado.

A moratória solicitada pelos aprendizes de feiticeiro arrependidos não é realista e ainda mais a desativação do autômato não é realista. Isso se opõe tanto pela lógica interna do próprio autômato, quanto pelas condições históricas em que o processo ocorre, que são os da competição econômica e da guerra.

Em condições de competição e guerra, todas as transformações técnicas capazes de aumentar o poder produtivo ou destrutivo estão destinadas a serem implementadas.

Isso significa que não é mais possível interromper o processo de autoconstrução do autômato global.

A evolução das máquinas as torna cada vez mais capazes de simular humanos. Mas a evolução humana consiste em tornar-se compatível com a máquina. Nessa adaptação, a mutação cognitiva torna o agente humano mais eficiente na interação com a máquina, mas ao mesmo tempo menos competente na interação comunicativa com o outro agente humano.

O projeto de inserir regras éticas na máquina generativa é uma velha utopia da ficção científica, sobre o qual Isaac Asimov escreveu pela primeira vez, quando formulou as três leis fundamentais da robótica. O próprio Asimov demonstra narrativamente que essas leis não funcionam.

Conclusão da consumação

We Are Opening the Lids on Two Giant Pand é um editorial de Thomas Friedman, o tecno-otimista liberal colunista do New York Times. Abrimos duas gigantescas caixas de Pandora, diz o tecno-otimista, a mudança climática e inteligência artificial.

Algumas frases do artigo me impressionaram: "A engenharia está à frente da ciência até certo ponto. Isso significa que mesmo aqueles que estão construindo os chamados grandes modelos de linguagem que vêm em produtos como ChatGPT e Bard não entendem completamente como eles funcionam nem a extensão total de suas capacidades".

Provavelmente a razão pela qual alguém como Hinton decidiu sair do Google e tomar a liberdade de alertar o mundo sobre o perigo extremo é a consciência de que o dispositivo possui a capacidade de se corrigir e redefinir seus propósitos.

Onde está o perigo em uma entidade que, apesar de não ter inteligência humana, é mais eficiente do que os humanos na execução de tarefas cognitivas específicas e possui a capacidade de aperfeiçoar seu próprio funcionamento? 

A função geral da entidade inorgânica inteligente é introduzir a ordem da informação no organismo pulsional.

O autômato tem uma missão de ordenação mas encontra um fator de caos em seu caminho: a pulsão orgânica, irredutível à ordem numérica. O autômato estende seu domínio a campos sempre novos de ação social mas não consegue levar a termo a sua missão até que sua expansão seja limitada pela persistência do fator caótico humano. 

Agora surge a possibilidade de que em algum momento o autômato consiga eliminar o fator caótico da única maneira possível acabando com a sociedade humana.

Podemos distinguir três dimensões da Realidade: o existente, o possível e o necessário.

O existente (ou contingente) tem as características do caos. A evolução do existente segue as linhas do possível ou as do necessário. O possível é uma projeção da vontade e da imaginação. O necessário está implícito na força da biologia e, agora, também na força da máquina lógica.

O autômato cognitivo permite prever o extermínio do contingente pelo necessário, o que naturalmente implica a anulação da possível porque não se é possível sem a contingência do existente.

O melhor de todos os mundos possíveis de que fala Leibniz seria neste ponto realizado, graças à eliminação do organismo consciente que resiste à Lógica da Harmonia.

Como sempre, o velho ditado nos ajuda: que o inevitável em geral não acontece porque o imprevisível intervém.

Bibliografia 

Douglas R. Hofstadter, Godel Escher Bach, Adelphi 

Noam Chomsky, La grammatica generativa trasformazionale, Boringhieri

Noam Chomsky, Riflessioni sul linguaggio. Grammatica e filosofia, Einaudi

Umberto Eco, La ricerca della lingua perfetta, Bompiani 

Daniel C. Dennett, Douglas R. Hofstadter, L’io della mente, Adelphi 

John Searle, Minds, brains and Science, Harvard University Press

Gottfried Leibniz, Monadologia , Bompiani

Melanie Mitchell, L’intelligenza artificiale, 2022 

Yuk Hui, Recursividad y contingencia, Caja Negra

Comentários

Postagens mais visitadas deste blog

Dar a ver, dar o que pensar: contra o domínio do automático

CARTA DE JULIAN ASSANGE AO REI CHARLES III