“Os sistemas de IA não operam como software tradicional – eles exigem processos distintos e dependem de recursos especializados, que atualmente são caros e estão nas mãos de algumas grandes empresas de tecnologia”, escreveram David Gray Widder, Meredith Whittaker e Sarah Myers West, no artigo: “Open (for Business): Big Tech, Concentrated Power, and the Political Economy of Open AI”. “Mesmo assim, muitas das promessas originais do movimento de Open Source, estão sendo projetadas na IA 'aberta'. Uma das promessas, era de que o código aberto ou o Open Source poderia democratizar o desenvolvimento de software, na perspectiva de que, o código aberto nivela a competição, permitindo que os mais inovadores consigam destaque. O Open Source já fez muito pela comunidade da Internet, em várias modalidades e instâncias. Mas com a IA 'aberta', a história é diferente.”
Ao tentar entender como as promessas originais do Open Source agora se aplicam a esta nova geração de sistemas de IA, achei o artigo acima citado, bastante útil e aqui seguem meus comentários:
O que é (e o que não é) aberto na IA de código aberto
O artigo observa que o código aberto na IA é um conceito difícil de definir, em parte, porque a própria IA não está claramente definida, o que é "aberto" em sistemas altamente complexos como a IA. "De fato, ainda não há uma definição clara de IA 'aberta' ou 'de código aberto', mesmo que a atenção ao tópico tenha aumentado muito", observam os autores.
A inteligência artificial surgiu pela primeira vez em meados da década de 1950 como uma nova disciplina acadêmica que visava desenvolver máquinas inteligentes capazes de lidar com tarefas semelhantes às humanas, como processamento de linguagem natural. A IA se tornou uma das áreas mais empolgantes nas ciências da computação nas décadas de 1960, 1970 e 1980, mas depois de anos de promessas não cumpridas e exageros, houve um inverno da IA, com interesses e financiamentos reduzidos, que quase matou está área de estudo.
A IA renasceu na década de 1990 com um paradigma totalmente diferente baseado na análise de grandes quantidades de dados com algoritmos sofisticados e computadores poderosos. Esse paradigma de IA centrado em dados continuou a avançar nos últimos 20 anos com grandes inovações em diversas áreas como big data, análise preditiva, aprendizado de máquina e, recentemente, os grandes odelos de linguagem (LLMs) e chatbots generativos. A IA agora tem uma das, se não a principal tecnologia definidora do século XXI.
“Como os sistemas de IA grandes e generativos, são os que mais claramente perturbam os limites e questionam as ideologias tradicionais de Open Source e ciência aberta, focamos principalmente nesses sistemas, neste artigo”, escreveram os autores. “Quando usamos o termo IA, estamos usando-o para nos referir a esses grandes sistemas.”
“De modo geral, os termos 'aberto' e 'código aberto' são usados no contexto da IA de várias maneiras para se referir a capacidades que podem ser amplamente agrupadas como: (1) atributos de oferta de transparência — a capacidade de acessar e examinar código-fonte, documentação e dados; (2) reutilização — a capacidade e o licenciamento necessários para permitir que terceiros reutilizem código-fonte e/ou dados; e (3) extensibilidade — a capacidade de construir sobre modelos prontos existentes, 'ajustando-os' para um ou outro propósito específico.
Os termos 'aberto' e 'código aberto' são usados de forma variável para se referir a esses atributos, na prática há diferentes graus de 'abertura' que oferecem níveis de acesso muito diferentes.”
“Embora existam alguns sistemas de IA abertos ao máximo, que oferecem transparência intencional e extensa — os recursos necessários para construir IA do zero e implantar grandes sistemas de IA em escala permanecem 'fechados' — disponíveis apenas para empresas com recursos significativos (quase sempre corporativos).” O artigo ainda faz referência a outro artigo “The Gradient of Generative AI Release: Methods and Considerations”, que define seis pontos principais de abertura em sistemas de IA generativos atuais.
Os argumentos a favor e contra a IA 'aberta'
“A IA aberta está sendo referenciada atualmente por atores poderosos, com discursos políticos para moldar a trajetória regulatória em torno da IA”, observam os autores. “Conversas sobre IA 'aberta' têm implicações significativas e de alto risco além dos termos restritos de licenças e mecanismos de transparência estão sendo implantados para moldar o cenário geral da política de IA. Como em qualquer situação de lobby e influência, a retórica em torno da defesa da política de IA 'aberta' está sendo lida à luz dos interesses particulares da entidade que os faz. E, como no passado, a abertura está sendo usada hoje por empresas na forma de uma política retórica para fazer lobby, consolidar e reforçar suas posições.”
A adoção do Linux por grandes empresas nos anos 2000 foi acompanhada por desafios semelhantes a estes recentes da IA. Algumas das empresas que viam o Linux como uma ameaça competitiva atacaram fortemente as empresas que usavam Linux, bem como a comunidade Linux em geral. Ameaças contra o Linux e contra as empresas que o adotaram continuaram por anos, chegando a processos multimilionarios.
O artigo Open IA discutiu algumas das alegações feitas a favor e contra a IA de código aberto. E aqui estão duas das alegações, uma a favor: segurança por meio da transparência; e uma contra: aumento da insegurança .
A IA aberta cria segurança por meio da transparência
No final da década de 1990, algumas empresas americanas, que passaram a fazer uso de soluções de software Open Source em sistemas altamente sensíveis, criaram um Painel de discussão sobre Software Open Source, que incluía representantes de universidades, agências federais, laboratórios de pesquisas e fornecedores de supercomputação. O Painel realizou uma série de reuniões e na sequência, divulgou seu relatório em outubro de 2000 e as descobertas são particularmente relevantes para as discussões atuais:
“Acreditamos que o modelo de desenvolvimento Open Source representa uma estratégia viável para produzir software de alta qualidade por meio de uma mistura de parcerias públicas, privadas e acadêmicas. … O software Open Source pode oferecer potenciais vantagens de segurança sobre o modelo de desenvolvimento proprietário tradicional. Especificamente, o acesso dos desenvolvedores ao código fonte, que permite um exame completo e que diminui potencial falhas de segurança. Além disso, o modelo de código aberto aumenta o número de programadores buscando por bugs e, subsequentemente, desenvolvendo correções, reduzindo assim áreas potenciais para exploração maliciosas.”
Da mesma forma, o artigo Open AI observa que “a IA Open Source promove a segurança ao permitir que pesquisadores e autoridades auditem o desempenho do modelo, identifiquem riscos e estabeleçam mitigações ou contramedidas”. No entanto, os autores acrescentam que “a eficácia da auditoria como medida de segurança é fortemente baseada em garantir que recursos estejam disponíveis e incentivos alinhados de forma que auditorias realmente ocorram e sejam robustas o suficiente para levar em conta os riscos reais representados pela implantação de modelos de IA”.
IA aberta aumenta a insegurança
“Argumentos na direção oposta posicionam a IA Open Source como uma fonte de insegurança, ao tornar uma tecnologia tão poderosa amplamente disponível para reutilização, potencialmente colocando-a nas mãos de maus atores.”
“Preocupações sobre a insegurança da proliferação de modelos de IA Open Source são justificadas, entre outras razões, porque os modelos de código aberto permitem que a IA seja ajustada em pequena escala sem uma curva de aprendizado. Há poucos comentários e poucos claros sobre esse argumento, especialmente considerando aqueles que o fazem; é por que o acesso aos mesmos modelos ou modelos igualmente poderosos aos obtidos por meio de um contrato de nuvem da Microsoft ou Google — que é o padrão atual — representa menos perigo do que reutilizar um modelo de IA lançado abertamente. … Um pequeno número de empresas gigantes não garante, por si só, uma IA mais segura.”
Conclusão
“Mesmo em suas máximas instâncias, nas quais sistemas de IA 'abertos' fornecem transparência robusta, reutilização e extensibilidade, tais características não garantem, por si só, acesso democrático ou competição significativa em IA”, escreveram os autores na conclusão. “Nem tendo uma IA aberta sozinha resolve o problema da informação democrática ou segura. Mesmo assim, a retórica e a promessa de abertura em sistemas de IA estão sendo tratadas por empresas poderosas que tentam reforçar suas posições diante do crescente interesse na regulamentação da IA.”
“Os formuladores de políticas precisam abordar a regulamentação da IA com uma compreensão clara de coisas que a IA 'é' e 'não é', e com um reconhecimento fundamentado do que a IA 'aberta' pode e não pode entregar. Isso produzirá uma imagem muito diferente das possibilidades da IA 'aberta' do que aquela que está sendo desenhada atualmente. Também exigirá foco nas diferenças significativas entre software de código aberto e IA 'aberta', e reconhecimento de que os processos de desenvolvimento, requisitos de recursos e centralização inerente da IA significam que ela não pode ser facilmente descrita ou definida em termos forjados originalmente para promover e definir software de código aberto.”


