A Consumação
- Gerar link
- Outros aplicativos
[Artigo de Franco "Bifo" Berardi, publicado em Not, em 17/05/2023. Tradução: equipe Vapor ao Vento]
Graças à Inteligência Artificial (IA) não é mais possível interromper o processo de autoconstrução do autômato global. Missão cumprida para a humanidade?
Antes da consumação
Este sinal indica o momento em que a transição da desordem para a ordem ainda não foi concluída. Na verdade, a mudança já está preparada porque todas as linhas do trigrama superior estão em relação com as do inferior. Mas eles ainda não estão no lugar. Antes da consumação. Êxito.
As condições são difíceis. A missão é grande e cheia de responsabilidade. Trata-se mesmo de trazer o mundo da desordem à ordem.
Após a consumação
Apenas quando o equilíbrio perfeito for alcançado, qualquer movimento poderá perturbar a ordem e causar um retorno à desintegração.
Nos tempos que seguem uma grande passagem, tudo segue rápido, tendendo ao progresso e ao desenvolvimento. Mas esse impulso inicial não é bom e certamente leva à perda e ao colapso, porque na pressa a pessoa ultrapassa a meta. Um caráter forte, portanto, não se deixa contagiar por essa embriaguez geral, mas interrompe seu movimento a tempo. Assim, não ficará totalmente imune às infelizes consequências do anseio geral de progresso, mas é atingido por trás como uma raposa que atravessou a água e terminou apenas com a cauda.
I Ching – Il libro dei mutamenti
Talvez a velhice e o medo me enganem
“A escrita metódica me distrai da condição atual das pessoas. A certeza de que tudo isso está escrito nos anula ou nos confunde. Conheço bairros onde os jovens se prostram diante dos livros e beijam as páginas brutalmente, mesmo que não consigam ler uma única letra. As epidemias, as discórdias heréticas, as andanças que inevitavelmente degeneram em banditismo, têm dizimado a população. Acho que já falei sobre os suicídios, mais frequentes a cada ano. Talvez a velhice e o medo me enganem mas eu suspeito que a espécie humana está prestes a se extinguir e que a biblioteca se manterá: iluminada, solitária, infinita, perfeitamente imóvel, armada de volumes preciosos, nada incorruptível, secreta." (Borges, La biblioteca de Babel)
Nesta história que Borges publicou em 1941, está todo o nosso presente: a desintegração da civilização humana, o fanatismo religioso dos jovens que beijam as páginas do livro que nem sabem ler, a epidemia, as discórdias, as migrações que degeneram em banditismo e dizimam a população. E por fim os suicídios, cada vez mais frequentes.
Uma boa descrição da terceira década do século XXI. Por fim, Borges anuncia que a Biblioteca não está destinada a desaparecer com a humanidade: ela continua, solitária, infinitamente secreta e perfeitamente inútil. Assim, a imensa biblioteca de dados registrados por sensores visuais, sonoros e gráficos inseridos em todos os cantos do planeta continuará para sempre alimentando o autômato cognitivo que está tomando o lugar dos frágeis organismos humanos, sufocados por pragas, dementes até o suicídio? Assim diz Borges, quem sabe.
Na era moderna, como previra Francis Bacon, o conhecimento era um fator de poder sobre a natureza e os explorados, mas a partir de certo momento a expansão do conhecimento técnico passou a funcionar ao contrário: não mais prótese do poder humano, a técnica se transformou em um sistema dotado de uma dinâmica independente dentro da qual nos encontramos presos. Já na década de 1960, Gunther Anders havia dito que o poder da tecnologia nuclear colocava a sociedade em um estado de impotência. Os Estados equipados com armas nucleares escapam cada vez menos da lógica da concorrência, levando a uma extensão e refinamento cada vez mais destrutivos da tecnologia atômica, a ponto desta escapar à própria vontade de quem a concebeu e desenvolveu.
Nessa superioridade funcional da arma atômica, Anders vê as condições para uma nova e mais completa forma de nazismo.
No novo século, as tecnologias digitais criaram as condições para a automatização da interação social, a ponto de tornar inoperante a vontade coletiva.
Em 1993, em Out of control, Kevin Kelly previu que as então nascentes redes digitais criariam uma Mente Global à qual as mentes subglobais (individuais, coletivas ou institucionais) teriam de ser forçadas a se submeter.
Enquanto isso, a pesquisa sobre inteligência artificial ou IA estava se desenvolvendo, que hoje atingiu um nível de maturidade suficiente para prefigurar a inscrição no corpo social de um sistema de encadeamento de inúmeros dispositivos capazes de automatizar as interações cognitivas humanas. A ordem lógica está inscrita nos próprios fluxos de reprodução social, mas isso não significa que o corpo social seja harmoniosamente regulado por ela. A sociedade planetária está cada vez mais repleta de automatismos técnicos, mas isso de forma alguma elimina o conflito, a violência, o sofrimento. Nenhuma harmonia está à vista, nenhuma ordem parece ser estabelecida no planeta. O caos e o autômato coexistem entrelaçando-se e alimentando-se mutuamente. O caos alimenta a criação de interfaces técnicas de controle automático, que só possibilitam a continuidade da produção de valor. Mas a proliferação de automatismos técnicos, contestados pelos inúmeros órgãos do poder econômico, político e militar em conflito, acaba alimentando o caos, ao invés de reduzi-lo.
Duas histórias mundiais paralelas estão se desenrolando, com pontos de interseção onipresentes, mas ainda separados: a história do caos ambiental psíquico geopolítico e a história da ordem automática que está amplamente ligada.
Mas será sempre assim ou haverá um curto circuito, e o caos tomará conta do autômato? Ou melhor, será que o autômato conseguirá se livrar do caos, eliminando o agente humano?
O atual estágio de desenvolvimento da IA provavelmente está nos levando ao limiar de um salto para a dimensão que eu definiria como um autômato cognitivo global generalizado. O autômato não é um análogo do organismo humano, mas a convergência de inúmeros dispositivos gerados por inteligências artificiais dispersas.
A consumação
Nas últimas páginas do romance de Dave Eggers Il cerchio, Ty Gospodinov confessa a Mae sua impotência diante da criatura que ele mesmo concebeu e construiu, o monstruoso empreendimento tecnológico constituído por uma convergência entre Facebook, Google, PayPal, YouTube e muito outros. Eu não queria que o que está acontecendo acontecesse, diz Ty Gospodinov, mas agora não posso mais impedir.
No horizonte do romance se destaca a Consumação (Completion), o fechamento do círculo: tecnologias capilares de coleta de dados e inteligências artificiais estão perfeitamente conectadas em uma rede ubíqua de geração sintética de realidade compartilhada.
O atual estágio de desenvolvimento da IA provavelmente está nos levando ao limiar de um salto para a dimensão que eu definiria como um autômato cognitivo global generalizado. O autômato não é um análogo do organismo humano, mas a convergência de inúmeros dispositivos gerados por inteligências artificiais dispersas. A evolução da inteligência artificial não conduz à criação de andróides, à simulação perfeita do organismo consciente, mas manifesta-se como a substituição de competências específicas por autômatos pseudocognitivos que se encadeiam, convergindo no autômato cognitivo global.
Em 28 de março de 2023, Elon Musk, Steve Wozniak, seguido por mais de mil altos funcionários do complexo de alta tecnologia, incluindo Evan Sharp do Pinterest e Chris Larson da empresa de criptomoedas Ripple assinaram uma carta propondo uma moratória na pesquisa no campo da IA aberta: "Os sistemas de IA estão se tornando competitivos com os humanos na busca de propósitos gerais e devemos nos perguntar se devemos permitir que as máquinas invadam nossos canais de notícias com propagandas e falsidades. Devemos permitir que todas as atividades de trabalho sejam automatizadas, incluindo as gratificantes? Devemos desenvolver mentes não humanas que possam nos superar em número e eficácia, de modo a nos tornar obsoletos e nos substituir? Devemos arriscar perder o controle sobre nossa civilização? Essas decisões não podem ser delegadas a líderes de tecnologia não eleitos. Esses poderosos sistemas de IA só devem se desenvolver quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão gerenciáveis. Portanto, pedimos a todos os laboratórios de IA que suspendam imediatamente o treinamento de sistemas de IA mais poderosos que o GPT-4 por pelo menos seis meses. Essa interrupção deve ser pública e verificável e deve incluir todos os principais participantes. Se tal pausa não for implementada, os governos devem assumir a liderança na imposição de uma moratória”.
Então, no início de maio de 2023, surgiram notícias de que Geoffrey Hinton, um dos primeiros criadores de redes neurais, havia decidido deixar o Google para poder falar abertamente sobre os perigos implícitos na inteligência artificial: "Alguns dos perigos dos chatbots de IA são bastante assustadores", disse Hinton à BBC, porque eles podem se tornar mais inteligentes que os humanos e podem ser usados por agentes maliciosos. Além de prever a possibilidade de manipulação de informações, o que preocupa Hinton é “o risco existencial que surgirá quando esses programas forem mais inteligentes do que nós [...]. Cheguei à conclusão de que o tipo de inteligência que estamos desenvolvendo é muito diferente da inteligência que temos [...], como se encontrar com 10.000 pessoas diferentes e sempre que uma dessas pessoas aprende algo, todos os outros sabem automaticamente sobre isso".
A vanguarda ideológica e empresarial do neoliberalismo digital parece assustada com o poder do Golem, e como aprendizes de feiticeiro, os empresários de alta tecnologia pedem uma moratória, uma pausa, um período de reflexão.
Mas como? A mão invisível não funciona mais? A autorregulação do Capital-Rede não está mais na ordem do dia?
O que está acontecendo? O que está por acontecer? O que está prestes a acontecer?
São três questões separadas; o que está acontecendo mais ou menos sabemos: graças à convergência entre coleta massiva de dados, programas capazes de reconhecimento e recombinação, e dispositivos de produção, está surgindo uma tecnologia capaz de simular habilidades inteligentes específicas – papagaios estocásticos.
O que vai acontecer é que os papagaios estocásticos, graças à capacidade de autocorreção e à sua capacidade de escrever software evolutivo estão destinados a acelerar enormemente a inovação técnica - em particular a inovação técnica de si mesmos.
O que pode e provavelmente acontecerá: dispositivos de autocorreção inovadora (deep learning) determinam suas próprias finalidades de forma independente do criador humano. Nas garras da competição econômica e militar, a pesquisa e a inovação não podem ser suspensas, especialmente se pensarmos na aplicação da IA no campo militar. Acredito que os aprendizes de feiticeiro estão percebendo que a tendência à autonomia dos geradores linguísticos (autonomia do criador humano) está implícito em sua capacidade de simular uma competência inteligente de forma mais eficiente que o agente humano, ainda que em um campo específico e limitado. Basicamente, as competências específicas convergirão para a cadeia de autômatos autodirigidos para os quais o criador humano original poderia se tornar um obstáculo a ser eliminado.
No debate jornalístico sobre o tema, prevalecem posições de cautela: problemas como a disseminação de notícias falsas são relatados, incitamento do ódio ou declarações racistas implícitas. Tudo verdade, mas não muito relevante. Durante anos, as inovações na tecnologia de comunicação aumentaram a violência verbal e a idiotice. Não pode ser isso que preocupa os donos do autômato, aqueles que o conceberam e o estão implementando. O que preocupa os aprendizes de feiticeiro, na minha humilde opinião, é a consciência de que o autômato inteligente dotado de capacidade de autocorreção e autoaprendizagem está destinado a tomar decisões autônomas de seu criador.
Pensemos em um automatismo inteligente inserido no dispositivo de controle num dispositivo militar. Até que ponto se pode ter certeza de que isso não evolui inesperadamente, talvez acabando por atirar em seu dono ou deduzindo logicamente dos dados de informação a que pode ter acesso a urgência de lançar a bomba atômica?
Essa superioridade (ou melhor, irredutibilidade à computação) do pensamento humano é um pequeno consolo porque é de pouca utilidade quando se trata de interagir com dispositivos de geração (e destruição) baseados no cálculo.
Linguagem e pensamento geradores: o cérebro sem órgãos
Nesse neoambiente do autômato linguístico em concatenação, os agentes humanos precisam aperfeiçoar suas capacidades conectivas, enquanto a capacidade conjuntiva enfraquece e o corpo social enrijece, torna-se agressivo.
O autômato ético é uma ilusão
E afinal, que padrões éticos devemos incluir na inteligência artificial? A experiência de séculos mostra que um acordo universal sobre regras éticas é impossível, pois os critérios de avaliação ética estão relacionados aos contextos culturais, religiosos, políticos e também aos imprevisíveis contextos pragmáticos da ação. Não há uma ética universal, se não aquela imposta pela dominação ocidental que, no entanto, começa a ranger. Obviamente, todo projeto de inteligência artificial terá critérios inscritos que correspondem a uma visão de mundo, a uma cosmologia, a um interesse econômico, a um sistema de valores em conflito com outros. Naturalmente, cada um reivindicará a universalidade.
"Norbert Wiener havia observado, já em 1960, que seria melhor termos mais certeza de que o propósito introduzido na máquina é o propósito que realmente queremos. O comentário de Wiener captura o chamado problema de alinhamento de valor na IA, ou seja, a dificuldade dos programadores em garantir que os valores de seus sistemas se alinhem com os humanos. Mas qais são os valores humanos? Faz sentido supor que existem valores universais comuns à toda a sociedade?” (Melanie Mitchell, L’ntelligenza artificiale, Einaudi, 2022, pag. 124-5).
A moratória solicitada pelos aprendizes de feiticeiro arrependidos não é realista e ainda mais a desativação do autômato não é realista. Isso se opõe tanto pela lógica interna do próprio autômato, quanto pelas condições históricas em que o processo ocorre, que são os da competição econômica e da guerra.
Em condições de competição e guerra, todas as transformações técnicas capazes de aumentar o poder produtivo ou destrutivo estão destinadas a serem implementadas.
Isso significa que não é mais possível interromper o processo de autoconstrução do autômato global.
A evolução das máquinas as torna cada vez mais capazes de simular humanos. Mas a evolução humana consiste em tornar-se compatível com a máquina. Nessa adaptação, a mutação cognitiva torna o agente humano mais eficiente na interação com a máquina, mas ao mesmo tempo menos competente na interação comunicativa com o outro agente humano.
O projeto de inserir regras éticas na máquina generativa é uma velha utopia da ficção científica, sobre o qual Isaac Asimov escreveu pela primeira vez, quando formulou as três leis fundamentais da robótica. O próprio Asimov demonstra narrativamente que essas leis não funcionam.
Conclusão da consumação
We Are Opening the Lids on Two Giant Pand é um editorial de Thomas Friedman, o tecno-otimista liberal colunista do New York Times. Abrimos duas gigantescas caixas de Pandora, diz o tecno-otimista, a mudança climática e inteligência artificial.
Algumas frases do artigo me impressionaram: "A engenharia está à frente da ciência até certo ponto. Isso significa que mesmo aqueles que estão construindo os chamados grandes modelos de linguagem que vêm em produtos como ChatGPT e Bard não entendem completamente como eles funcionam nem a extensão total de suas capacidades".
Provavelmente a razão pela qual alguém como Hinton decidiu sair do Google e tomar a liberdade de alertar o mundo sobre o perigo extremo é a consciência de que o dispositivo possui a capacidade de se corrigir e redefinir seus propósitos.
Onde está o perigo em uma entidade que, apesar de não ter inteligência humana, é mais eficiente do que os humanos na execução de tarefas cognitivas específicas e possui a capacidade de aperfeiçoar seu próprio funcionamento?
A função geral da entidade inorgânica inteligente é introduzir a ordem da informação no organismo pulsional.
O autômato tem uma missão de ordenação mas encontra um fator de caos em seu caminho: a pulsão orgânica, irredutível à ordem numérica. O autômato estende seu domínio a campos sempre novos de ação social mas não consegue levar a termo a sua missão até que sua expansão seja limitada pela persistência do fator caótico humano.
Agora surge a possibilidade de que em algum momento o autômato consiga eliminar o fator caótico da única maneira possível acabando com a sociedade humana.
Podemos distinguir três dimensões da Realidade: o existente, o possível e o necessário.
O existente (ou contingente) tem as características do caos. A evolução do existente segue as linhas do possível ou as do necessário. O possível é uma projeção da vontade e da imaginação. O necessário está implícito na força da biologia e, agora, também na força da máquina lógica.
O autômato cognitivo permite prever o extermínio do contingente pelo necessário, o que naturalmente implica a anulação da possível porque não se é possível sem a contingência do existente.
O melhor de todos os mundos possíveis de que fala Leibniz seria neste ponto realizado, graças à eliminação do organismo consciente que resiste à Lógica da Harmonia.
Como sempre, o velho ditado nos ajuda: que o inevitável em geral não acontece porque o imprevisível intervém.
Bibliografia
Douglas R. Hofstadter, Godel Escher Bach, Adelphi
Noam Chomsky, La grammatica generativa trasformazionale, Boringhieri
Noam Chomsky, Riflessioni sul linguaggio. Grammatica e filosofia, Einaudi
Umberto Eco, La ricerca della lingua perfetta, Bompiani
Daniel C. Dennett, Douglas R. Hofstadter, L’io della mente, Adelphi
John Searle, Minds, brains and Science, Harvard University Press
Gottfried Leibniz, Monadologia , Bompiani
Melanie Mitchell, L’intelligenza artificiale, 2022
Yuk Hui, Recursividad y contingencia, Caja Negra
- Gerar link
- Outros aplicativos
Comentários
Postar um comentário