27/09/2022

Modelos de base: a nova fronteira da IA

Na última década, poderosos sistemas de IA igualaram ou superaram os níveis humanos de desempenho em várias tarefas específicas, como reconhecimento de imagem e fala, classificação de câncer de pele e detecção de câncer de mama e jogos altamente complexos como o Go. Esses avanços da IA baseiam-se no Deep Learning (DL), uma técnica que está vagamente baseada na estrutura de rede de neurônios no cérebro humano. Os sistemas DL adquirem conhecimento sendo treinados com milhões a bilhões de textos, imagens e outros dados, em vez de serem programados explicitamente.

Esses sistemas DL geralmente contam com aprendizado supervisionado, um método de treinamento em que os dados devem ser cuidadosamente rotulados, – por exemplo: gato, não-gato – exigindo, portanto, um grande investimento de tempo e dinheiro para produzir um modelo que seja estritamente focado em uma tarefa específica e não pode ser facilmente reaproveitado. Os custos crescentes para o treinamento de sistemas DL cada vez maiores e com foco restrito geraram preocupações de que a técnica estivesse perdendo força.

Os modelos de base prometem contornar essas preocupações de DL, trazendo para o mundo da IA a reutilização e a extensibilidade que têm sido tão bem-sucedidas em sistemas de software de TI, desde os sistemas operacionais como iOS e Android até o crescente número e variedades de plataformas baseadas na Internet.

“A IA está passando por uma mudança de paradigma com o surgimento de modelos que são treinados em grande qualidade de dados em escala e são adaptáveis a uma ampla gama de tarefas downstream”, disse On the Opportunities and Risks of Foundation Models, um relatório recente do Center for Research on Foundation Models, uma iniciativa interdisciplinar do Stanford Institute for Human-Centered Artificial Intelligence (HAI), fundada em 2021, focada em avanços fundamentais no estudo, desenvolvimento e implantação de modelos de base. Os modelos de base visam substituir os modelos específicos de tarefas que dominaram a IA na última década por modelos que são treinados com grandes quantidades de dados não rotulados e podem ser adaptados a muitas tarefas diferentes com o mínimo de ajustes. Exemplos atuais de modelos de base incluem grandes modelos de linguagem como GPT-3 e BERT.

Pouco depois de o GPT-3 estar online em 2020, seus criadores, da empresa de pesquisa de IA OpenAI descobriram que o GPT-3 não apenas poderia gerar frases e parágrafos inteiros em inglês em vários estilos, mas também havia desenvolvido habilidades surpreendentes para escrever software de computador. embora os dados de treinamento estivessem focados no idioma inglês, não em exemplos de código de computador. Mas, como se viu, a grande quantidade de páginas da Web usadas em seu treinamento incluía muitos exemplos de programação de computadores acompanhados de descrições do que o código foi projetado para fazer, permitindo assim que o GPT-3 aprendesse a programar sozinho. O GPT-3 também pode gerar documentos legais, como contratos de licenciamento ou arrendamentos, bem como documentos em vários outros campos.

“Ao mesmo tempo, os modelos de base existentes têm o potencial de causar danos e suas características são em geral mal compreendidas”, alerta o relatório de Stanford. Uma grande descoberta do Relatório do Índice de IA de 2022 foi que, embora grandes modelos de linguagem como o GPT-3 estejam estabelecendo novos recordes em benchmarks técnicos, eles também são mais propensos a refletir os preconceitos que podem ter sido incluídos em seus dados de treinamento, incluindo temas racistas, linguagem sexista, extremista e outras coisas nocivas, bem como padrões de linguagem abusivas e ideologias nocivas.

Embora os modelos de base sejam baseados em tecnologias DL, eles foram habilitados por dois avanços mais recentes, transferência de aprendizado e escala. Ao contrário do treinamento específico de tarefa dos sistemas DL anteriores, o aprendizado por transferência pega o conhecimento aprendido no treinamento de uma tarefa e o aplica a tarefas diferentes, mas relacionadas, – como usar o treinamento em reconhecimento de objetos em imagens e aplicá-lo ao reconhecimento de atividades em vídeos, ou usando o conhecimento adquirido ao aprender a reconhecer carros e aplicá-lo ao reconhecimento de caminhões. Com o aprendizado de transferência “um modelo é treinado em uma tarefa substituta (geralmente apenas como um meio para um fim) e depois adaptado à tarefa de interesse a jusante por meio de ajuste fino”.

“A aprendizagem de transferência é o que torna os modelos de base possíveis, mas a escala é o que os torna poderosos”, acrescenta o relatório. A escala é ativada por três avanços recentes de IA:Melhorias no hardware do computador, – de acordo com o AI Index Report 2022, “Desde 2018, o custo para treinar um sistema de classificação de imagens diminuiu 63,6%, enquanto os tempos de treinamento melhoraram 94,4%.”;
Enormes quantidades de dados de treinamento, – de acordo com o artigo recente no The Economist, GPT-2, – predecessor do GPT-3, – foi treinado com 40 gigabytes de dados, enquanto o GPT-3 foi treinado com 570 gigabytes de dados, incluindo um grande pedaço da internet, toda a Wikipedia e muitos livros digitais; e
Arquiteturas altamente paralelas, – arquiteturas de transformador permitem que as redes de aprendizado profundo muito maiores em modelos de base aproveitem o paralelismo inerente do hardware.

“O significado dos modelos de base pode ser resumido em duas palavras: emergência e homogeneização”, observa o relatório.

“Embora os modelos de base sejam baseados em aprendizado profundo e aprendizado de transferência, sua escala resulta em novos recursos emergentes.” A emergência ocorre quando um sistema muito grande exibe comportamentos que não poderiam ter sido previstos pelos comportamentos de seus componentes individuais e só emergem como resultado de suas interações altamente complexas. “Emergência significa que o comportamento de um sistema é implicitamente induzido ao invés de explicitamente construído; é tanto a fonte da excitação científica quanto da ansiedade sobre consequências imprevistas”.

“Por exemplo, o GPT-3, com 175 bilhões de parâmetros comparados aos 1,5 bilhão do GPT-2, permite o aprendizado em contexto, no qual o modelo de linguagem pode ser adaptado a uma tarefa downstream simplesmente fornecendo-lhe um prompt (uma descrição em linguagem natural da tarefa), uma propriedade emergente que não foi especificamente treinada nem prevista para surgir”. É por isso que descobrir que o GPT-3 aprendeu sozinho a programar e gerar documentos legais sem ser explicitamente treinado para isso pegou seus criadores de surpresa.

A eficácia dos modelos de base também levou a um nível de homogeneização sem precedentes. Por exemplo, quase todos os modelos de PNL de última geração agora são adaptados de um dos poucos modelos de base, por exemplo, BERT, GPT-3.

“Embora essa homogeneização produza alavancagem extremamente alta (qualquer melhoria nos modelos de base pode levar a benefícios imediatos em toda a PNL), também é um passivo; todos os sistemas de IA podem herdar os mesmos vieses problemáticos de alguns modelos de base.”

A implantação generalizada iminente de modelos de base exige cautela, alerta o relatório. Junto com sua poderosa alavancagem, a homogeneização também significa que os defeitos de um modelo de fundação são herdados por todos os modelos de downstream adaptados. E devido às suas propriedades emergentes, atualmente não temos uma compreensão clara de como os modelos de fundação funcionam, do que são capazes e quando e como falham. “Para enfrentar essas questões, acreditamos que grande parte da pesquisa crítica sobre modelos de fundação exigirá uma colaboração interdisciplinar profunda proporcional à sua natureza fundamentalmente sociotécnica”.

Com mais de 200 páginas e mais de 100 autores, o relatório de Stanford representa uma visão abrangente do estado dos modelos de base, destacando seu excitante potencial bruto, mas lembrando-nos que deve ser visto como uma tecnologia de pesquisa em seus primeiros anos. As 26 seções diferentes do relatório estão agrupadas em quatro áreas inter-relacionadas: capacidades, aplicativos, tecnologia e sociedade, observando que “as tecnologias e capacidades são desenvolvidas de uma maneira que é sensível às preocupações sociais reais, ao mesmo tempo em que são inspiradas e fundamentadas em aplicativos.”

“Existem incentivos econômicos para impulsionar as capacidades e a escala dos modelos de base, por isso prevemos um progresso tecnológico constante nos próximos anos”, conclui o relatório.

“Mas a adequação de uma tecnologia que depende amplamente do comportamento emergente para implantação generalizada para as pessoas não é clara. O que está claro é que precisamos ser cautelosos e que agora é a hora de estabelecer as normas profissionais que permitirão a pesquisa responsável e a implantação de modelos de fundação. A academia e a indústria precisam colaborar nisso: a indústria, em última análise, toma decisões concretas sobre como os modelos de fundação serão implantados, mas também devemos nos apoiar na academia, com sua diversidade disciplinar e incentivos não comerciais em torno da produção de conhecimento e benefício social, para fornecer orientação diferenciada no desenvolvimento e implantação de modelos de base que sejam fundamentados técnica e eticamente”.

08/09/2022

O escopo da Linux Foundation na economia do século XXI

Há alguns dias, a Linux Foundation realizou seu North America Open Source Summit em Austin. A reunião de uma semana incluiu um grande número de sessões de discussão, bem como várias palestras. O Open Source Summit Europe acontecerá em Dublin em setembro e o Open Source Summit Japan em Yokohama em dezembro.

Sempre estive muito envolvido com inovação colaborativa aberta e comunidades de código aberto desde a década de 1990. Em particular, fui administrador de servidores Open Source, em uma iniciativa da antiga empresa Impsat, lançada em setembro de 2001 para adotar o Linux em muitos dos produtos e serviços da empresa.

Na época, o Linux já havia sido adotado pelas comunidades de pesquisa, internet e supercomputação, mas muitos no mercado comercial ainda mostravam alguma perplexidade com esse tipo de decisão. Nos anos seguintes, empregamos muito esforço, explicando à comunidade empresarial por que estávamos apoiando o Linux.

No final dos anos 2000, o Linux atravessou o abismo para a adoção do mainstream, tendo sido adotado por um grande número de empresas ao redor do mundo.

Em 2000, a IBM, a HP, a Intel e várias outras empresas formaram um consórcio para apoiar o desenvolvimento contínuo do Linux e fundaram uma nova organização sem fins lucrativos, os Open Source Development Labs (OSDL). Em 2007, a OSDL fundiu-se com o Free Standards Group (FSG) e tornou-se a Linux Foundation (LF). Em 2011, o LF marcou o 20º aniversário do Linux em sua conferência anual LinuxCon North America.

Na década seguinte, a LF passou por uma grande expansão. Em 2017, suas conferências anuais foram renomeadas como Open Source Summits para estarem mais ligadas a missão de código aberto mais geral da LF, além do Linux. Então, em abril de 2021, o LF anunciou a formação da Linux Foundation Research, uma nova organização para entender melhor as oportunidades de colaboração nas muitas atividades de código aberto nas quais o LF estava envolvido. Hilary Carter ingressou no LF como vice-presidente de pesquisa e líder da nova iniciativa.

Alguns meses depois, Carter criou um Conselho Consultivo para fornecer insights sobre tendências tecnológicas emergentes que poderiam ter um grande impacto no número crescente de projetos de código aberto LF, bem como explorar o papel do código aberto para ajudar a abordar alguns dos problemas mundiais.

Após 2007, eu deixei de ser um profissional puramente técnico e me envolvi em várias novas áreas, como nuvem, blockchain, IA e a economia digital emergente. Como resultado, deixei de me envolver com o Linux e na década de 2010, continuei a ver o LF de longe; sem deixar de acompanhar sua impressionante evolução e trajetória. Deixe-me resumir o que aprendi.

De acordo com seu site, o LF agora tem mais de 1.260 membros da empresa, incluindo 14 Platinum e 19 Gold, e suporta centenas de projetos de código aberto. Alguns dos projetos estão focados em tecnologias horizontais, outros em verticais da indústria e muitos são subprojetos dentro de um grande projeto de código aberto.

As áreas horizontais de tecnologia incluem: IA, ML, dados e análises; manufatura aditiva; realidade aumentada e virtual; blockchain; contêineres em nuvem e virtualização; IoT & incorporado; core Linux; rede & borda; hardware aberto; sistemas críticos de segurança; segurança; armazenar; administração do Sistema; e desenvolvimento da Web e de aplicativos. Projetos de infraestrutura específicos incluem OpenSSF, – Open Source Software Security Foundation; LF AI & Data, – cuja missão é construir e apoiar inovações de código aberto nos domínios de IA e dados; e a Hyperledger Foundation, – que hospeda vários subprojetos de blockchain de nível empresarial, como o Hyperledger Cactus, – para ajudar a integrar com segurança diferentes blockchains; Hyperledger Besu, – um cliente Ethereum para blockchains autorizados; e Hyperledger Caliper, – uma ferramenta de benchmark blockchain para medir o desempenho.

As áreas verticais da indústria incluem: automotivo e aviação; educação e treinamento; recursos energéticos; agências governamentais e reguladoras; assistência médica; fabricação e logística; mídia e entretenimento; produtos embalados; retalho; tecnologia; e telecomunicações.

Os projetos focados na indústria incluem: LFEnergy, – visando a digitalização do setor de energia para ajudar a atingir as metas de descarbonização; Automotive Grade Linux, – para acelerar o desenvolvimento e adoção de uma pilha de software totalmente aberta para o carro conectado; Chips Alliance, – para acelerar o desenvolvimento de hardware de código aberto; Plataforma de Infraestrutura Civil, – para permitir o desenvolvimento e uso de blocos de construção de software para infraestrutura civil; LF Saúde Pública, – melhorar a equidade e a inovação em saúde global; e Academy Software Foundation, – que se concentra na criação de um ecossistema de código aberto para a indústria de animação e efeitos visuais e hospeda vários subprojetos relacionados, como OpenColorIO, – uma estrutura de gerenciamento de cores; OpenCue, – um sistema de gerenciamento de renderização; e OpenEXR, – o formato de armazenamento de imagem de nível profissional da indústria cinematográfica.

A LF estima que seus projetos desenvolveram mais de um bilhão de linhas de código-fonte aberto que suportam uma porcentagem significativa das infraestruturas de missão crítica do mundo. Esses projetos criaram mais de US$ 54 bilhões em valor econômico. Um estudo recente da Comissão Europeia estimou que, em 2018, o impacto econômico do código aberto em todos os seus estados membros foi entre € 65 e € 95 bilhões. Para entender melhor o impacto econômico global do código aberto, a LF Research está patrocinando um estudo liderado por Henry Chesbrough, professor da UC Berkeley e membro do Conselho Consultivo.

Os avanços de código aberto são totalmente dependentes das contribuições de profissionais altamente qualificados. A LF estima que mais de 750 mil desenvolvedores de cerca de 18 mil empresas contribuintes estiveram envolvidos em seus vários projetos em todo o mundo. Para ajudar a treinar desenvolvedores de código aberto, o LF oferece mais de 130 cursos diferentes em diversas áreas, incluindo administração de sistemas, nuvem e contêineres, blockchain e desenvolvimento integrado e IoT, além de 25 programas de certificação.

Além disso, a LF, em parceria com a edX, – a organização de aprendizado online aberta criada por Harvard e MIT, – vem realizando uma pesquisa anual na web com profissionais de código aberto e gerentes de contratação para identificar as últimas tendências em carreiras de código aberto, as habilidades que são mais procurados, o que motiva os profissionais de código aberto, como os empregadores podem atrair e reter os melhores talentos, bem como questões de diversidade na indústria.

O 10º Relatório Anual de Empregos de Código Aberto foi publicado em junho de 2022. O relatório constatou que ainda há escassez de talentos qualificados:93% dos gerentes de contratação têm dificuldade em encontrar profissionais experientes em código aberto; a remuneração tornou-se um fator de diferenciação,
58% dos gerentes deram aumentos salariais para reter talentos de código aberto; as certificações atingiram um novo nível de importância,
69% dos gerentes de contratação são mais propensos a contratar profissionais certificados de código aberto;
63% dos profissionais de código aberto acreditam que o código aberto executa a tecnologia mais moderna; e
Habilidades em nuvem são as mais procuradas, seguidas por Linux, DevOps e segurança.

Finalmente, em sua palestra em Austin, Hilary Carter apresentou 10 fatos rápidos sobre código aberto da LF Research:53% dos entrevistados contribuem para o código aberto porque “é divertido”;86% dos gerentes de contratação dizem que contratar talentos de código aberto é uma prioridade para 2022;
2/3 dos desenvolvedores precisam de mais treinamento para realizar seus trabalhos;
O software de código aberto mais utilizado é desenvolvido por apenas um punhado de colaboradores, – 136 desenvolvedores foram responsáveis por mais de 80% das linhas de código adicionadas aos 50 principais pacotes;
45% dos entrevistados relataram que seus empregadores restringem fortemente ou proíbem contribuições para projetos de código aberto, sejam eles privados ou relacionados ao trabalho;
47% das organizações pesquisadas estão usando listas de materiais de software (SBOMs) hoje;
“Você sente um senso de comunidade e responsabilidade para pastorear este trabalho e torná-lo o melhor possível;
1 em cada 5 profissionais foi discriminado por se sentir mal recebido;
As pessoas que não se sentem bem-vindas no código aberto são de grupos desproporcionalmente sub-representados;
“Quando temos várias pessoas com origens e opiniões variadas, obtemos um software melhor”.

“Os projetos de código aberto estão aqui para ficar e desempenham um papel crítico na capacidade da maioria das organizações de fornecer produtos e serviços aos clientes”, disse o LF em seu site. “Como organização, se você deseja influenciar os projetos de código aberto que impulsionam o sucesso do seu negócio, você precisa participar. Ter uma sólida estratégia de contribuição e um plano de implementação para sua organização o coloca no caminho para ser um bom cidadão corporativo de código aberto.”

Além da Guerra de Preços: O Oceano Azul na Conectividade Brasileira

Introdução Lançado em 2005 por W. Chan Kim e Renée Mauborgne, A Estratégia do Oceano Azul revolucionou o pensamento estratégico...