×
logo labcriativo
×

A corrida para entender o mundo emocionante e perigoso da IA de linguagem

Centenas de cientistas em todo o mundo estão trabalhando juntos para compreender uma das tecnologias emergentes mais poderosas antes que seja tarde demais.

Tempo de leitura estimado: 12 min

Para começar, o Google planeja integrar o LaMDA em seu portal de busca principal, seu assistente de voz, e Workplace, sua coleção de software de trabalho baseado em nuvem que inclui Gmail, Docs e Drive. Mas o objetivo final, disse Pichai, é criar uma interface de conversação que permita às pessoas recuperar qualquer tipo de informação - texto, visual, áudio - em todos os produtos do Google apenas perguntando.

O lançamento do LaMDA sinaliza mais uma maneira pela qual as tecnologias de linguagem estão se tornando enredadas em nosso dia-a-dia. Mas a apresentação chamativa do Google desmentiu o debate ético que agora envolve esses sistemas de ponta. LaMDA é o que é conhecido como modelo de linguagem grande (LLM) - um algoritmo de aprendizado profundo treinado em enormes quantidades de dados de texto.

Estudos já mostraram como ideias racistas, sexistas e abusivas estão embutidas nesses modelos. Eles associam categorias como médicos com homens e enfermeiras com mulheres; boas palavras com brancos e más palavras com negros. Sondá-los com as instruções certas e eles também começarão a encorajar coisas como genocídio, automutilação e abuso sexual infantil. Devido ao seu tamanho, eles têm uma pegada de carbono chocantemente alta. Por causa de sua fluência, eles facilmente confundem as pessoas fazendo-as pensar que um humano escreveu suas saídas, o que os especialistas alertam que pode permitir a produção em massa de desinformação.

Em dezembro, o Google afastou seu co-líder ético de IA, Timnit Gebru, depois que ela se recusou a retratar um artigo que fazia muitos desses pontos. Poucos meses depois, após denúncia em larga escala do que uma carta aberta dos funcionários do Google chamou de "censura de pesquisa sem precedentes" da empresa, ela demitiu também a co-autora e co-líder de Gebru, Margaret Mitchell.

Não é apenas o Google que está implantando essa tecnologia. Os modelos de linguagem de maior perfil até agora foram GPT-2 e GPT-3 da OpenAI, que emitem trechos de texto notavelmente convincentes e podem até mesmo ser reaproveitados para terminar composições musicais e código de computador. A Microsoft agora licencia exclusivamente o GPT-3 para incorporar em produtos ainda não anunciados. O Facebook desenvolveu seus próprios LLMs para tradução e moderação de conteúdo. E as startups estão criando dezenas de produtos e serviços com base nos modelos dos gigantes da tecnologia. Em breve, todas as nossas interações digitais - quando enviamos e-mail, pesquisamos ou postamos nas redes sociais - serão filtradas por LLMs.

Infelizmente, muito pouca pesquisa está sendo feita para entender como as falhas dessa tecnologia podem afetar as pessoas em aplicativos do mundo real, ou para descobrir como projetar LLMs melhores que mitiguem esses desafios. Como o Google ressaltou em seu tratamento de Gebru e Mitchell, as poucas empresas ricas o suficiente para treinar e manter LLMs têm grande interesse financeiro em se recusar a examiná-los cuidadosamente. Em outras palavras, os LLMs estão cada vez mais integrados à infraestrutura linguística da Internet sobre bases científicas instáveis.

Mais de 500 pesquisadores em todo o mundo estão agora competindo para aprender mais sobre as capacidades e limitações desses modelos. Trabalhando juntos no projeto BigScience liderado por Huggingface, uma startup que adota uma abordagem de "ciência aberta" para entender o processamento de linguagem natural (PNL), eles buscam construir um LLM de código aberto que servirá como um recurso compartilhado para a comunidade científica . O objetivo é gerar o máximo de bolsas possível em um único ano focado. Sua questão central: como e quando os LLMs devem ser desenvolvidos e implantados para colher seus benefícios sem suas consequências prejudiciais?

“Não podemos realmente parar essa loucura em torno de grandes modelos de linguagem, onde todos querem treiná-los”, diz Thomas Wolf, o diretor de ciências da Huggingface, que co-lidera a iniciativa. “Mas o que podemos fazer é tentar empurrar isso em uma direção que no final seja mais benéfica.”

Papagaios estocásticos

No mesmo mês em que o BigScience iniciou suas atividades, uma startup chamada Cohere saiu discretamente do sigilo. Iniciado por ex-pesquisadores do Google, ele promete trazer LLMs para qualquer empresa que queira um - com uma única linha de código. Ela desenvolveu uma técnica para treinar e hospedar seu próprio modelo com as sobras ociosas de recursos computacionais em um data center, o que reduz os custos de aluguel do espaço necessário na nuvem para manutenção e implantação.

Entre seus primeiros clientes está a startup Ada Support, uma plataforma para construção de chatbots de suporte ao cliente sem código, que por sua vez tem clientes como Facebook e Zoom. E a lista de investidores da Cohere inclui alguns dos maiores nomes da área: o pioneiro da visão computacional Fei-Fei Li, o vencedor do Prêmio Turing Geoffrey Hinton e o chefe de IA da Apple, Ian Goodfellow.

A Cohere é uma das várias startups e iniciativas que agora buscam levar LLMs a vários setores. Há também Aleph Alpha, uma startup com sede na Alemanha que busca construir um GPT-3 alemão; um unnamed empreendimento iniciado por vários ex-pesquisadores da OpenAI; e a iniciativa de código aberto Eleuther, que lançou recentemente o GPT-Neo, uma reprodução gratuita (e um pouco menos poderosa) do GPT-3.

Mas é a lacuna entre o que os LLMs são e o que aspiram ser que preocupa um número crescente de pesquisadores. LLMs são efetivamente as tecnologias de preenchimento automático mais poderosas do mundo. Ao ingerir milhões de frases, parágrafos e até mesmo amostras de diálogo, eles aprendem os padrões estatísticos que governam como cada um desses elementos deve ser montado em uma ordem sensata. Isso significa que os LLMs podem aprimorar certas atividades: por exemplo, eles são bons para criar chatbots mais interativos e fluidos de conversação que seguem um script bem estabelecido. Mas eles não entendem realmente o que estão lendo ou dizendo. Muitos dos recursos mais avançados dos LLMs hoje também estão disponíveis apenas em inglês.

Entre outras coisas, é sobre isso que Gebru, Mitchell e cinco outros cientistas alertaram em seu artigo, que chama os LLMs de “papagaios estocásticos”. “A tecnologia da linguagem pode ser muito, muito útil quando tem o escopo, a localização e o enquadramento adequados”, diz Emily Bender, professora de lingüística da Universidade de Washington e uma das co-autoras do artigo. Mas a natureza de uso geral dos LLMs - e a persuasão de seu mimetismo - incentiva as empresas a usá-los em áreas para as quais não estão necessariamente equipados.

Em uma palestra recente em uma das maiores conferências de IA, Gebru vinculou essa implantação apressada de LLMs às consequências que ela experimentou em sua própria vida. Gebru nasceu e foi criado na Etiópia, onde uma escalada de guerra devastou a região mais ao norte de Tigray. A Etiópia também é um país onde são falados 86 idiomas, quase todos inexistentes nas tecnologias linguísticas convencionais.

Apesar dos LLMs terem essas deficiências linguísticas, o Facebook depende muito deles para automatizar sua moderação de conteúdo globalmente. Quando a guerra em Tigray estourou pela primeira vez em novembro, Gebru viu a plataforma se atrapalhar para controlar a enxurrada de desinformações. Isso é emblemático de um padrão persistente que os pesquisadores observaram na moderação de conteúdo. Comunidades que falam idiomas não priorizados pelo Vale do Silício sofrem os ambientes digitais mais hostis.

Gebru observou que não é aqui que o dano termina também. Quando notícias falsas, discurso de ódio e até ameaças de morte não são moderados, eles são coletados como dados de treinamento para construir a próxima geração de LLMs. E esses modelos, repetindo aquilo em que são treinados, acabam regurgitando esses padrões linguísticos tóxicos na internet.

Em muitos casos, os pesquisadores não investigaram completamente o suficiente para saber como essa toxicidade pode se manifestar em aplicações downstream. Mas existe alguma bolsa de estudos. Em seu livro Algorithms of Oppression de 2018, Safiya Noble, professora associada de informação e estudos afro-americanos na Universidade da Califórnia, em Los Angeles, documentou como preconceitos embutidos na pesquisa do Google perpetuam o racismo e, em casos extremos, talvez até motivem a violência racial .

“As consequências são bastante graves e significativas”, diz ela. O Google não é apenas o principal portal de conhecimento para o cidadão comum. Também fornece infraestrutura de informações para instituições, universidades e governos estaduais e federais.

O Google já usa um LLM para otimizar alguns de seus resultados de pesquisa. Com seu último anúncio do LaMDA e uma recente proposta publicada em um papel pré-impresso, a empresa deixou claro que só aumentará sua confiança na tecnologia. Noble teme que isso possa tornar os problemas que ela descobriu ainda piores: “O fato de que a equipe de IA ética do Google foi demitida por levantar questões muito importantes sobre os padrões racistas e sexistas de discriminação embutidos em grandes modelos de linguagem deveria ter sido um sinal de alerta”.

BigScience

O projeto BigScience começou em resposta direta à necessidade crescente de escrutínio científico de LLMs. Ao observar a rápida proliferação da tecnologia e a tentativa de censura de Gebru e Mitchell pelo Google, Wolf e vários colegas perceberam que era hora de a comunidade de pesquisa resolver o problema por conta própria.

Inspirados por colaborações científicas abertas como o CERN em física de partículas, eles conceberam uma ideia para um LLM de código aberto que poderia ser usado para conduzir pesquisas críticas independentemente de qualquer empresa. Em abril deste ano, o grupo recebeu uma bolsa para construí-lo usando o supercomputador do governo francês.

Em empresas de tecnologia, os LLMs costumam ser construídos por apenas meia dúzia de pessoas que possuem especialização principalmente técnica. A BigScience queria trazer centenas de pesquisadores de uma ampla gama de países e disciplinas para participar de um processo de construção de modelos verdadeiramente colaborativo WL. Wolf, que é francês, abordou primeiro a comunidade francesa de PNL. A partir daí, a iniciativa tornou-se uma bola de neve em uma operação global que abrange mais de 500 pessoas.

A colaboração está agora livremente organizada em uma dúzia de grupos de trabalho e contando, cada um abordando diferentes aspectos do desenvolvimento e investigação do modelo. Um grupo medirá o impacto ambiental do modelo, incluindo a pegada de carbono do treinamento e execução do LLM e levando em consideração os custos do ciclo de vida do supercomputador. Outro se concentrará no desenvolvimento de maneiras responsáveis ​​de obter os dados de treinamento - buscando alternativas para simplesmente extrair dados da web, como transcrever arquivos históricos de rádio ou podcasts. O objetivo aqui é evitar linguagem tóxica e coleta não consensual de informações privadas.

Outros grupos de trabalho são dedicados a desenvolver e avaliar a "multilinguidade" do modelo. Para começar, o BigScience selecionou oito idiomas ou famílias de idiomas, incluindo inglês, chinês, árabe, índico (incluindo hindi e urdu) e bantu (incluindo suaíli). O plano é trabalhar em estreita colaboração com cada comunidade linguística para mapear o maior número possível de dialetos regionais e garantir que suas normas distintas de privacidade de dados sejam respeitadas. “Queremos que as pessoas opinem sobre como seus dados são usados”, diz Yacine Jernite, pesquisador do Huggingface.

O objetivo não é construir um LLM comercialmente viável para competir com GPT-3 ou LaMDA. O modelo será muito grande e muito lento para ser útil às empresas, diz Karën Fort, professora associada da Sorbonne. Em vez disso, o recurso está sendo projetado exclusivamente para pesquisa. Cada ponto de dados e cada decisão de modelagem estão sendo cuidadosamente e publicamente documentados, então é mais fácil analisar como todas as peças afetam os resultados do modelo. “Não se trata apenas de entregar o produto final”, diz Angela Fan, pesquisadora do Facebook. “Nós imaginamos cada peça dele como um ponto de entrega, como um artefato.”

O projeto é, sem dúvida, ambicioso - mais globalmente expansivo e colaborativo do que qualquer outra comunidade de IA jamais vista. A logística de coordenar tantos pesquisadores é em si um desafio. (Na verdade, há um grupo de trabalho para isso também.) Além disso, cada pesquisador está contribuindo como voluntário. A concessão do governo francês cobre apenas recursos computacionais, não humanos.

Mas os pesquisadores dizem que a necessidade compartilhada que uniu a comunidade galvanizou um nível impressionante de energia e impulso. Muitos estão otimistas de que até o final do projeto, que será executado até maio do próximo ano, eles terão produzido não apenas estudos mais profundos sobre as limitações dos LLMs, mas também melhores ferramentas e práticas para construí-los e implantá-los de forma responsável.

Os organizadores esperam que isso inspire mais pessoas dentro da indústria a incorporar essas práticas em sua própria estratégia de LLM, embora sejam os primeiros a admitir que estão sendo idealistas. Na verdade, o grande número de pesquisadores envolvidos, incluindo muitos de gigantes da tecnologia, ajudará a estabelecer novas normas dentro da comunidade da PNL.

Em alguns aspectos, as normas já mudaram. Em resposta às conversas sobre a demissão de Gebru e Mitchell, a Cohere ouviu de vários de seus clientes que eles estavam preocupados com a segurança da tecnologia. Em seu site, inclui uma página em seu site com o compromisso de investir continuamente em pesquisas técnicas e não técnicas para mitigar os possíveis danos do seu modelo. Ela diz que também vai montar um conselho consultivo formado por especialistas externos para ajudá-la a criar políticas sobre o uso permitido de suas tecnologias.

“A PNL está em um ponto de inflexão muito importante”, diz Fort. É por isso que BigScience é empolgante. Ele permite que a comunidade impulsione a pesquisa e forneça uma alternativa promissora ao status quo dentro da indústria: “Diz:‘ Vamos dar outro passo. Vamos fazer isso juntos - descobrir todas as maneiras e todas as coisas que podemos fazer para ajudar a sociedade. '”

“Quero que a PNL ajude as pessoas”, diz ela, “não as rebaixe”.

Postado em May 31, 2021, 7 p.m.

Digital Disruption
Canal

Conheça e se inspire com soluções e inovações que simplificam a maneira como as pessoas se comunicam, produzem, ensinam e transmitem conhecimento.



Canais
  • Lucas Foster |
    Partner, LabCriativo

    Especialista em criatividade e empresário da economia criativa

  • Digital Disruption
    Canal

    Conheça e se inspire com soluções e inovações que simplificam a maneira como as pessoas se comunicam, produzem, ensinam e …

  • New World, New Skills
    Canal

    Apresentamos novas referências de como produzir melhor usando novas tecnologias e como trabalhar de forma mais consciente, levando em consideração …

  • Corp Meets Planet
    Canal

    Inspirar, trazer referências e instruir líderes e tomadores de decisões ampliando seu repertório com casos, ideias e notícias que comprovam …

  • LabCriativo
    | Destaques

    Redação do LabCriativo

Últimas postagens

Veja também

Nasce o motor elétrico independente de terras-raras

Inovação alemã torna produção global menos dependente da China, responsável por 90% da produção dos metais de terras-raras. A Mahle anunciou …

Facebook está investindo US$1 bilhão em criadores

O dono das maiores redes sociais do mundo está implementando programas de bônus para criadores de conteúdo. Até o fim de …

Trouxemos 8 dicas para você fazer mais e melhor

Os princípios mais importantes que você pode seguir para o crescimento do corpo e da mente. Inspirado por Ray Dalio e …