11/01/2025

Os impactos da IA sobre a economia


Há algumas semanas, o MIT News publicou um artigo sobre “O que sabemos sobre a economia da IA?”. O artigo é baseado na pesquisa do professor Daron Acemoglu, ganhador do Prêmio Nobel de Ciências Econômicas de 2024, juntamente com Simon Johnson,do MIT e o economista da Universidade de Chicago, James Robinson. “Apesar de toda a conversa sobre a inteligência artificial estar mexendo com o mundo, seus efeitos econômicos permanecem incertos”, disse o artigo. “Há um investimento massivo em IA, mas pouca clareza sobre o que ela produzirá.”

O professor Acemoglu há muito tempo realiza pesquisas sobre o impacto da tecnologia na economia."A inteligência artificial (IA) cativou a imaginação das pessoas, com promessas de crescimento rápido da produtividade, bem como novos caminhos para complementar os humanos", escreveu ele em "A Simples Macroeconomia da IA", um artigo publicado em maio de 2024.
A IA terá implicações para a macroeconomia, produtividade, salários e desigualdades, mas tudo ainda é muito difíceis de se prever. Isso não impede uma série de previsões, muitas centradas nos ganhos de produtividade que a IA irá gerar. Alguns especialistas acreditam que implicações verdadeiramente transformadoras, incluindo a inteligência artificial geral (IAG), que permitirá à IA realizar essencialmente todas as tarefas humanas, podem estar próximas. Outros analistas são mais sensatos, mas ainda preveem grandes efeitos na produção.

Deixe-me discutir alguns dos principais tópicos abordados no artigo do MIT News.

Quais são os efeitos mensuráveis da IA?
De acordo com o professor Acemoglu, os avanços da IA provavelmente não ocorrerão tão rapidamente quanto muitos acreditam. A IA contribuirá apenas com melhorias modestas na produtividade dos trabalhadores. Cerca de 1% à produção econômica dos EUA na próxima década. Com base em sua pesquisa, ele se mostra cético em relação às estimativas mais altas feitas pelos defensores da IA. O crescimento do PIB dos EUA tem sido em média de 3% ao ano desde 1947, enquanto o crescimento da produtividade tem sido em média de 2% ao ano. Algumas das previsões mais otimistas afirmam que a IA dobrará o crescimento do PIB e da produtividade na próxima década.

Prevê-se que grande parte desse crescimento venha da implantação de novas aplicações de IA em todas as economias.

De onde virão o crescimento do PIB e da produtividade baseados em IA?
"Acho que ainda não sabemos disso, e essa é a questão. Quais são os aplicativos que realmente vão mudar a forma como fazemos as coisas?" Alguns estudos descobriram que apenas cerca de 20% das tarefas em empregos nos EUA podem ser expostas à IA. Outros estudos descobriram que cerca de 23% das tarefas de visão computacional podem ser automatizadas de forma lucrativa nos próximos 10 anos e que a economia média de custos com a IA é de cerca de 27%. "Não acho que devamos menosprezar 0,5% em 10 anos. É melhor do que zero", disse Acemoglu. "Mas é decepcionante em comparação com as promessas que as pessoas, na indústria e no jornalismo de tecnologia estão fazendo."

Quão diferente será a economia dos EUA em 2030 por causa da IA?
Muitas previsões da IA descrevem seu impacto como revolucionário. "Você poderia ser um completo otimista em relação à IA e pensar que milhões de pessoas teriam perdido seus empregos por causa dos chatbots, ou talvez que algumas pessoas se tornaram trabalhadores superprodutivos porque, com a IA, podem fazer 10 vezes mais coisas do que faziam antes. Eu não acredito. Acho que a maioria das empresas continuará fazendo mais ou menos as mesmas coisas. Algumas ocupações serão impactadas, mas ainda teremos jornalistas, analistas financeiros e funcionários de RH."

Até 2030, a IA provavelmente impactará principalmente tarefas em empregos administrativos que lidam com grandes volumes de dados, onde a IA pode analisar muitas entradas significativamente mais rápido do que os humanos. Mas esses empregos representam cerca de 5% da economia.

Aumentar a produtividade dos trabalhadores ou substituí-los?
Acemoglu argumenta que atualmente estamos na direção errada para a IA. Estamos usando-a demais para automação com o objetivo de substituir trabalhadores, em vez de usar a IA para fornecer conhecimento especializado e informações aos trabalhadores, a fim de torná-los mais produtivos. "É a diferença entre, fornecer novas informações a um biotecnólogo e substituir um funcionário de atendimento ao cliente por tecnologia automatizada de call center. Até agora, ele acredita, as empresas têm se concentrado neste último tipo de caso."

Em um artigo de 2019, Acemoglu e o professor Pascual Restrepo da Universidade de Boston alertaram sobre o surgimento de tecnologias medianas, que eles definiram como tecnologias de automação que são boas o suficiente para serem adotadas, mas não mais produtivas do que os trabalhadores que estão substituindo. Seu artigo alerta que "à medida que nos aprofundamos cada vez mais na automação baseada em IA, estamos nos movendo para áreas nas quais o trabalho humano é muito bom, e a produtividade das máquinas, pelo menos para começar, nem sempre é impressionante, para dizer o mínimo. As tecnologias de automação destinadas a substituir máquinas por humanos nessas tarefas provavelmente serão do tipo mediano. Como resultado, não podemos nem mesmo contar com ganhos de produtividade poderosos para aumentar nossos padrões de vida e contribuir para a demanda por mão de obra".

Qual é a melhor velocidade para inovação?
Em geral, pode-se presumir que, se uma tecnologia ajuda a gerar crescimento econômico, a inovação em ritmo acelerado pode parecer ideal, proporcionando crescimento mais rápido. Será que esse seria o caso da IA?

Em outro artigo, Acemoglu e seu aluno de doutorado no MIT, Todd Lensman, desenvolveram uma estrutura para analisar a estratégia de adoção ideal para uma grande tecnologia transformadora como a GenAI, que promete acelerar o crescimento da produtividade em quase todos os setores da economia, mas que também apresenta novos riscos importantes para a sociedade devido ao seu potencial uso indevido.

A análise concluiu que “se ocorrer um desastre, alguns dos setores que utilizam a nova tecnologia podem não conseguir retornar à tecnologia antiga e segura. Não se sabe se um desastre ocorrerá, e a sociedade aprende sobre isso gradualmente ao longo do tempo. Consequentemente, a adoção deve ser gradual, … inicialmente crescendo lentamente antes de acelerar posteriormente. O mais surpreendente é que uma taxa de crescimento mais rápida da nova tecnologia deve levar a uma adoção mais lenta quando os danos potenciais forem grandes.

Seu modelo de adoção de inovação é "uma resposta a uma tendência da última década, em que muitas tecnologias são alardeadas como inevitáveis e celebradas por sua disrupção. Em contrapartida, Acemoglu e Lensman sugerem que podemos avaliar razoavelmente as compensações envolvidas em tecnologias específicas e visam estimular discussões adicionais sobre isso".

Como podemos atingir a velocidade certa para adoção da IA?
Acemoglu oferece algumas sugestões no artigo do MIT News. Um possível papel é a regulamentação governamental da IA. "No entanto, não está claro que tipo de diretrizes de longo prazo para IA poderiam ser adotadas nos EUA ou em todo o mundo."
Mas, se o entusiasmo em torno da IA diminuir, a pressa em implementá-la naturalmente diminuirá. Essa possibilidade pode ser mais provável do que a regulamentação, pois as empresas e os mercados financeiros não estão obtendo os retornos que justificam seus grandes investimentos em IA, como costuma acontecer nos primeiros anos de uma nova tecnologia de ponta — lembre-se da bolha das pontocom dos anos 1990 .

Vários especialistas financeiros compartilham essas preocupações . Por exemplo, um artigo do NYT , "Será que a IA será um fracasso?", aborda as opiniões de Jim Covello, chefe de Pesquisa de Ações Globais do Goldman Sachs. Covello abalou os mercados com base em uma entrevista publicada em um relatório do Goldman Sachs Research de junho de 2024, " IA Gen.: Gastos Demais, Benefícios Demais?".

Na entrevista, Covello questionou se empresas e investidores obteriam retorno suficiente sobre o que, segundo algumas estimativas, seria mais de US$ 1 trilhão em investimentos em IA nos próximos anos. Ele argumentou que, para obter um retorno sobre o investimento (ROI) razoável, as aplicações de IA devem resolver problemas empresariais altamente complexos e importantes, considerando os investimentos de capital necessários em chips especializados, grandes data centers e concessionárias de energia elétrica. A questão crucial é: "Qual problema de US$ 1 trilhão a IA resolverá?", questionou. "Substituir empregos de baixa remuneração por tecnologia extremamente custosa é basicamente o oposto das transições tecnológicas anteriores que testemunhei em meus trinta anos de acompanhamento atento da indústria de tecnologia."

Covello acrescentou que invenções verdadeiramente transformadoras, como a internet, permitiram que soluções de baixo custo rompessem com soluções de alto custo, mesmo em seus estágios iniciais, ao contrário da custosa tecnologia de IA atual. Embora possamos debater se a IA cumprirá a promessa que entusiasma muitas pessoas, "o ponto menos discutível é que a tecnologia de IA é excepcionalmente cara e, para justificar esses custos, a tecnologia deve ser capaz de resolver problemas complexos, o que não foi projetada para fazer".

O hype é um aspecto tangível da economia da IA, disse Acemoglu em suas observações finais no MIT News, “uma vez que impulsiona o investimento em uma visão específica da IA, que influencia as ferramentas de IA que podemos encontrar. Quanto mais rápido você anda e quanto mais hype você tem, menos provável é que haja uma correção de curso. É muito difícil, se você estiver dirigindo a 320 km/h, fazer uma curva de 180 graus.”

15/09/2024

As Discussões sobre Inteligência Artificial (IA) e Seus Limites Éticos

Nos últimos anos, as discussões sobre inteligência artificial (IA) e seus limites éticos têm se intensificado. A IA, com seu potencial transformador, trouxe benefícios significativos, mas também levantou preocupações éticas profundas. Este artigo explora esses desafios, destacando a importância de práticas responsáveis no desenvolvimento e uso da IA.

1. O Crescimento da IA e Seus Impactos

A inteligência artificial tem se tornado uma parte integral de nossas vidas, desde assistentes virtuais até sistemas de recomendação em plataformas de streaming. No entanto, o uso crescente de IA em decisões críticas, como recrutamento, crédito e segurança, trouxe à tona questões sobre vieses algorítmicos e discriminação.

Vieses Algorítmicos e Discriminação

Os vieses algorítmicos ocorrem quando os sistemas de IA reproduzem ou amplificam preconceitos existentes na sociedade. Isso pode resultar em decisões injustas e discriminatórias, afetando negativamente indivíduos e grupos marginalizados. Por exemplo, sistemas de reconhecimento facial têm mostrado taxas de erro mais altas para pessoas de cor, levando a preocupações sobre sua utilização em contextos de segurança pública. Além disso, algoritmos de recrutamento podem favorecer candidatos de determinados perfis, excluindo outros igualmente qualificados, mas pertencentes a minorias.

A discriminação algorítmica é um problema complexo que exige uma abordagem multifacetada para ser resolvido. Uma das soluções propostas é a implementação de auditorias regulares e independentes dos algoritmos para identificar e corrigir vieses. Além disso, é crucial que as equipes de desenvolvimento de IA sejam diversas e incluam pessoas de diferentes origens e perspectivas, para que possam identificar e mitigar vieses que poderiam passar despercebidos em grupos homogêneos.

Outro aspecto importante é a transparência. As empresas e organizações que utilizam IA devem ser transparentes sobre como seus algoritmos funcionam e quais dados são utilizados. Isso permite que os usuários entendam como as decisões são tomadas e questionem possíveis injustiças. A transparência também facilita a responsabilização, pois torna mais fácil identificar e corrigir problemas quando eles surgem.

Impactos Sociais e Econômicos

O crescimento da IA também tem implicações significativas para a sociedade e a economia. Por um lado, a IA tem o potencial de aumentar a eficiência e a produtividade em diversos setores, desde a manufatura até os serviços financeiros. Isso pode levar a um crescimento econômico e à criação de novos empregos em áreas como desenvolvimento de software e análise de dados.

Por outro lado, a automação impulsionada pela IA pode levar à perda de empregos em setores que dependem de trabalho manual ou tarefas repetitivas. Isso pode exacerbar as desigualdades econômicas e sociais, especialmente se os trabalhadores afetados não tiverem acesso a oportunidades de requalificação ou educação continuada. Portanto, é essencial que governos e empresas trabalhem juntos para desenvolver políticas que promovam a inclusão e a equidade no mercado de trabalho.

Além disso, a IA pode ter impactos significativos na privacidade e na segurança dos dados. Com a crescente coleta e análise de grandes volumes de dados, há preocupações sobre como esses dados são armazenados, protegidos e utilizados. A privacidade dos indivíduos deve ser uma prioridade, e medidas robustas de segurança cibernética devem ser implementadas para proteger os dados contra acessos não autorizados e ataques cibernéticos.

2. Modelos de Negócios e Responsabilidade

A crescente dependência de IA em decisões empresariais e governamentais nos obriga a reavaliar os modelos de negócios atuais. Empresas que utilizam IA devem adotar práticas transparentes e responsáveis, garantindo que seus sistemas sejam justos e equitativos. Isso inclui a implementação de auditorias regulares e a inclusão de diversas perspectivas no desenvolvimento de algoritmos.

Boas Práticas no Uso da IA

Para mitigar os riscos associados à IA, várias boas práticas podem ser adotadas:

1. Transparência: As empresas devem ser transparentes sobre como seus sistemas de IA funcionam e quais dados são utilizados. Isso inclui a divulgação de informações sobre os algoritmos e os critérios de decisão utilizados. A transparência permite que os usuários entendam como as decisões são tomadas e questionem possíveis injustiças.

2. Auditorias Regulares: Realizar auditorias para identificar e corrigir vieses nos algoritmos. Essas auditorias devem ser conduzidas por equipes independentes e especializadas, garantindo uma análise imparcial e detalhada. Além disso, as auditorias devem ser periódicas para acompanhar as mudanças nos dados e nos algoritmos ao longo do tempo.

3. Inclusão de Diversidade: Envolver equipes diversas no desenvolvimento de IA para garantir que diferentes perspectivas sejam consideradas. A diversidade nas equipes de desenvolvimento pode ajudar a identificar e mitigar vieses que poderiam passar despercebidos em grupos homogêneos. Isso inclui a participação de pessoas de diferentes gêneros, etnias, idades e formações acadêmicas.

4. Educação e Sensibilização: Promover a educação sobre os impactos éticos da IA entre desenvolvedores e usuários. Isso inclui treinamentos regulares sobre ética e responsabilidade no uso da IA, além de campanhas de sensibilização para o público em geral. A educação contínua ajuda a criar uma cultura de responsabilidade e conscientização sobre os impactos da IA na sociedade.

Responsabilidade Corporativa

A responsabilidade corporativa no uso da IA vai além da implementação de boas práticas. As empresas devem adotar uma abordagem proativa para garantir que seus sistemas de IA sejam utilizados de maneira ética e responsável. Isso inclui a criação de comitês de ética para revisar e monitorar o uso da IA, bem como a implementação de políticas claras sobre privacidade e segurança dos dados.

Além disso, as empresas devem estar preparadas para responder a incidentes e problemas que possam surgir no uso da IA. Isso inclui a criação de mecanismos de feedback para que os usuários possam relatar problemas e preocupações, bem como a implementação de processos para investigar e resolver esses problemas de maneira rápida e eficaz.

A responsabilidade corporativa também envolve a colaboração com outras partes interessadas, incluindo governos, organizações não governamentais e a sociedade civil. As empresas devem trabalhar em conjunto com essas partes para desenvolver e implementar políticas e práticas que promovam o uso ético e responsável da IA.

3. Casos Reais e Medidas Internacionais

Diversos casos reais ilustram os desafios éticos da IA. Nos Estados Unidos, um estudo revelou que algoritmos usados para prever reincidência criminal eram tendenciosos contra afro-americanos. Em resposta, alguns países têm adotado medidas para regular o uso da IA. A União Europeia, por exemplo, propôs uma legislação abrangente para garantir que a IA seja utilizada de forma ética e segura. Essas medidas incluem a criação de diretrizes para o desenvolvimento de IA, a exigência de avaliações de impacto ético e a implementação de mecanismos de supervisão.

Exemplos de Casos Reais

Um exemplo notável de discriminação algorítmica ocorreu no sistema de justiça criminal dos Estados Unidos. Um estudo revelou que algoritmos usados para prever a reincidência criminal eram tendenciosos contra afro-americanos, resultando em taxas mais altas de falsas previsões de reincidência para esse grupo em comparação com outros grupos raciais. Esse caso destacou a necessidade de uma revisão crítica e contínua dos algoritmos utilizados em decisões críticas, como a justiça criminal, para garantir que eles não perpetuem ou amplifiquem preconceitos existentes.

Outro exemplo é o uso de IA em processos de recrutamento e seleção de pessoal. Algumas empresas adotaram algoritmos para analisar currículos e identificar os melhores candidatos para vagas de emprego. No entanto, esses algoritmos podem inadvertidamente favorecer candidatos de determinados perfis, excluindo outros igualmente qualificados, mas pertencentes a minorias. Isso pode ocorrer devido a vieses nos dados de treinamento ou na forma como os algoritmos são desenvolvidos. Para mitigar esse risco, é essencial que as empresas realizem auditorias regulares e implementem medidas para garantir a equidade nos processos de recrutamento.

Medidas Internacionais

Em resposta aos desafios éticos da IA, vários países e organizações internacionais têm adotado medidas para regular o uso da tecnologia. A União Europeia, por exemplo, propôs uma legislação abrangente conhecida como Regulamento de IA, que visa garantir que a IA seja utilizada de forma ética e segura. Esse regulamento inclui a criação de diretrizes para o desenvolvimento de IA, a exigência de avaliações de impacto ético e a implementação de mecanismos de supervisão para monitorar o uso da tecnologia.

Além disso, a UNESCO aprovou a Recomendação sobre a Ética da Inteligência Artificial, o primeiro instrumento global de definição de normas sobre a IA. Essa recomendação estabelece princípios e diretrizes para o desenvolvimento e uso responsável da IA, incluindo a transparência, a equidade, a privacidade e a responsabilidade. A UNESCO também promove a cooperação internacional para enfrentar os desafios éticos da IA e garantir que a tecnologia beneficie a humanidade de maneira justa e equitativa.

Colaboração Global

A colaboração global é essencial para enfrentar os desafios éticos da IA. Países e organizações internacionais devem trabalhar juntos para desenvolver e implementar políticas e práticas que promovam o uso responsável da tecnologia. Isso inclui a criação de fóruns e plataformas para a troca de informações e melhores práticas, bem como a promoção de pesquisas e estudos sobre os impactos éticos da IA.

Além disso, é importante que a sociedade civil e outras partes interessadas estejam envolvidas nas discussões sobre a ética da IA. A participação ativa de cidadãos, organizações não governamentais e outras partes interessadas pode ajudar a garantir que as políticas e práticas desenvolvidas sejam inclusivas e reflitam as necessidades e preocupações de todos os grupos da sociedade

Fonte:
(1) Ética e Inteligência Artificial: qual a relação e os desafios ... - Alura. https://www.alura.com.br/artigos/etica-e-inteligencia-artificial.
(2) Inteligência artificial: quais são os limites éticos? - Blog da Alelo. https://blog.alelo.com.br/inteligencia-artificial-quais-sao-os-limites-eticos/.
(3) A Ética na Inteligência Artificial: tudo o que você precisa saber. https://rockcontent.com/br/blog/a-etica-na-inteligencia-artificial/.
(4) Princípios Éticos da Inteligência Artificial (IA): navegando no .... https://www.impacta.com.br/blog/principios-eticos-da-inteligencia-artificial/.
(5) Direito, Tecnologia e Inteligência Artificial: limites e aspectos éticos. https://www.jusbrasil.com.br/artigos/direito-tecnologia-e-inteligencia-artificial-limites-e-aspectos-eticos/1764752313.
(6) Ética da Inteligência Artificial (IA) no Brasil | UNESCO. https://www.unesco.org/pt/fieldoffice/brasilia/expertise/artificial-intelligence-brazil.
(7) Ética na Inteligência Artificial: Desafios e Considerações Éticas. https://cientistasdigitais.com/inteligencia-artificial/etica-na-inteligencia-artificial-desafios-e-consideracoes-eticas/.
(8) Ética e Inteligência Artificial: Desafios e Responsabilidades.. https://blog.casadodesenvolvedor.com.br/etica-e-inteligencia-artificial/.
(9) Ética na Inteligência Artificial: Desafios e Responsabilidades. https://techexplorer.blog/etica-na-inteligencia-artificial-desafios-e-responsabilidades/.
(10) A INTELIGÊNCIA ARTIFICIAL NO PODER JUDICIÁRIO: PRINCÍPIOS ÉTICOS .... https://revistaft.com.br/a-inteligencia-artificial-no-poder-judiciario-principios-eticos-normas-e-a-resolucao-332-2020/.

O novo conteúdo do trabalho na Era Digital: Transformações, Desafios e Oportunidades

Introdução O mundo do trabalho está passando por profundas transformações, impulsionadas pela digitalização, automação, inteligência artificial (IA) e mudanças nas relações laborais. O chamado "novo conteúdo do trabalho" refere-se não apenas às novas profissões que surgem, mas também à reconfiguração das atividades tradicionais, à demanda por novas habilidades e à forma como as pessoas se relacionam com o emprego. Neste artigo, exploraremos as principais mudanças no conteúdo do trabalho, os impactos da tecnologia, as competências exigidas no mercado atual e os desafios enfrentados por trabalhadores e empresas nesse novo cenário. 1. As Principais Transformações no Mundo do Trabalho 1.1. Digitalização e Automação A Quarta Revolução Industrial trouxe consigo a robotização, a Internet das Coisas (IoT) e sistemas de IA capazes de executar tarefas antes exclusivamente humanas. Isso tem levado à: Eliminação de postos de trabalho repetitivos (ex.: operários em linhas de montagem, caixas de supermercado). Criação de novas funções (ex.: cientistas de dados, especialistas em cibersegurança). Mudança na natureza das profissões tradicionais (ex.: médicos usando diagnósticos por IA, advogados utilizando análise de contratos automatizada). 1.2. Trabalho Remoto e Híbrido A pandemia de COVID-19 acelerou a adoção do home office, consolidando um modelo que antes era exceção. Hoje, muitas empresas adotam regimes híbridos, impactando: A organização do tempo (flexibilidade vs. desafios de produtividade). A cultura empresarial (como manter o engajamento à distância?). A geografia do trabalho (profissionais podem trabalhar para empresas em outros países sem sair de casa). 1.3. Economia de Plataformas e Gig Economy A ascensão de plataformas como Uber, Airbnb, iFood e Upwork criou uma nova classe de trabalhadores: os "gig workers", que atuam sob demanda, sem vínculo empregatício tradicional. Isso traz: Flexibilidade (escolha de horários e projetos). Insegurança (falta de benefícios como previdência e seguro-desemprego). 2. Novas Competências Exigidas no Mercado Com a mudança no conteúdo do trabalho, as habilidades valorizadas também se transformaram. Além do conhecimento técnico (hard skills), as soft skills ganharam destaque: 2.1. Habilidades Técnicas (Hard Skills) Programação e análise de dados (Python, SQL, Power BI). Domínio de ferramentas digitais (CRM, marketing automation, design gráfico). Conhecimento em IA e machine learning (para áreas como finanças, saúde e logística). 2.2. Habilidades Comportamentais (Soft Skills) Adaptabilidade e resiliência (capacidade de lidar com mudanças rápidas). Pensamento crítico e criatividade (máquinas não substituem a inovação humana). Inteligência emocional (gestão de equipes remotas exige empatia). Colaboração virtual (trabalhar em times distribuídos globalmente). 2.3. Lifelong Learning (Aprendizado Contínuo) A velocidade das mudanças exige que profissionais se atualizem constantemente, seja através de: Cursos online (Coursera, Udemy). Microcertificações (Google Certifications, AWS Training). Pós-graduações focadas em tecnologia. 3. Desafios do Novo Mundo do Trabalho 3.1. Desigualdade e Exclusão Digital Enquanto alguns se beneficiam das novas oportunidades, outros grupos enfrentam dificuldades: Profissionais mais velhos podem ter dificuldade em se adaptar. Populações com acesso limitado à internet ficam à margem do mercado digital. 3.2. Saúde Mental e Burnout A pressão por produtividade, somada à falta de limites entre vida pessoal e profissional no home office, tem aumentado casos de: Síndrome de burnout. Solidão e ansiedade em trabalhadores remotos. 3.3. Regulação Trabalhista e Direitos A legislação ainda não acompanhou totalmente as mudanças, gerando debates sobre: Direitos dos gig workers (eles devem ser considerados empregados ou autônomos?). Tributação e proteção social para nômades digitais. 4. Oportunidades no Futuro do Trabalho Apesar dos desafios, o novo conteúdo do trabalho também traz possibilidades empolgantes: 4.1. Empreendedorismo e Carreiras Não-Lineares Mais pessoas estão criando negócios online (e-commerce, consultorias digitais). A economia criativa (influenciadores, designers, produtores de conteúdo) ganha espaço. 4.2. Trabalho com Propósito As novas gerações (Millennials e Gen Z) buscam: Empresas alinhadas a valores sociais e ambientais (ESG). Flexibilidade para equilibrar vida pessoal e profissional. 4.3. Globalização do Talento Profissionais qualificados podem trabalhar para empresas em qualquer lugar do mundo, aumentando: Diversidade nas equipes. Oportunidades para países em desenvolvimento. Conclusão O novo conteúdo do trabalho reflete uma era de disrupção, onde tecnologia, flexibilidade e aprendizado contínuo são essenciais. Se, por um lado, há riscos como desemprego tecnológico e precarização, por outro, surgem oportunidades inéditas para quem souber se adaptar. Para navegar nesse cenário, trabalhadores devem investir em requalificação, empresas precisam repensar modelos de gestão, e governos devem garantir proteção social em um mercado em transformação. O futuro do trabalho já começou – e ele será moldado por quem estiver preparado para abraçar a mudança.

10/08/2024

Inteligência humana semelhante à da IA?

Quando a empresa OpenAI lançou o ChatGPT em novembro de 2022, uma coisa ficou clara: a IA está vindo para roubar empregos. Mas, ainda não descarte os humanos.” texto do artigo “Os novos empregos na era da IA”, do WSJ de outubro 2023. Como tem sido com as principais tecnologias nos últimos dois séculos, — energia a vapor, eletricidade, internet, — a IA ameaçará e trará novos empregos. Embora ainda esteja nos estágios iniciais, “a IA já está criando novas oportunidades”, disse o artigo, mencionando algumas dessas novas oportunidades.

Dois desses novos empregos são particularmente intrigantes: Engenheiro de prompt e Psicoterapeuta de IAIA generativa e os granfes modelos de linguagem (LLM) são um novo tipo de inteligência alienígena semelhante à humana que até mesmo as pessoas que os constroem não entendem realmente como funcionam. Pesquisadores estão tentando desbloquear a caixa-preta da IA ​​na esperança de entender como trabalhar melhor com essas tecnologias poderosas.

Deixe-me discutir cada um desses dois trabalhos.

Engenheiro de Prompt

A Wikipédia define engenharia de prompt  como “o processo de estruturação de texto que pode ser interpretado e compreendido por um modelo de IA generativo. Um prompt é um texto em linguagem natural que descreve a tarefa que uma IA deve executar. … A engenharia de prompt envolve a formulação de uma consulta, a especificação de um estilo, o fornecimento de contexto ou a atribuição de uma função à IA, como "Falar como um nativo de francês".

Engenheiros de Prompt exigem múltiplas habilidades, disse o artigo do WSJ. “Essa Engenharia de Prompt é uma classe emergente de trabalho que está em algum lugar entre programação e gerenciamento. Em vez de usar linguagens de programação como Python ou Java, engenheiros de prompt soletrarão suas instruções para sistemas de IA, criando novas maneiras de aproveitar o poder dos sistemas de IA.” 

Os linguistas há muito estudam a natureza inerente da compreensão da linguagem natural (NLU). Em um artigo de 2020 Em direção à NLU: formas de compreensão na era dos dados dos professores de linguística Emiliy Bender e Alexander Koller. Alegações em publicações acadêmicas e populares que mostram que os modelos de IA realmente entendem ou compreendem a linguagem natural, são alegações exageradas causadas por um mal-entendido da relação entre forma linguística e significado. O artigo observou que, embora os LLMs sejam ferramentas de linguagem inovadoras — como corretores ortográficos ou processadores de texto altamente avançados — o artigo rejeitou as alegações de que eles têm a capacidade de raciocinar e entender o significado da linguagem que estão gerando.

Os LLMs foram treinados com grandes quantidades de texto e fala, dos quais eles são capazes de aprender a sintaxe ou forma expressiva da linguagem, como palavras, morfemas e regras gramaticais se combinam para formar frases e sentenças. No entanto, os LLMs são incapazes de capturar a intenção comunicativa, — o propósito pretendido a ser alcançado por meio da linguagem, ou seja, transmitir informações a outra pessoa. Transmitir significado por meio da linguagem e evocar a intenção de comunicação no leitor ou ouvinte requer um conhecimento do mundo físico e social ao nosso redor. Apesar de sua crescente fluência, o texto gerado por um LLM ou chatbot não pode carregar nenhuma intenção comunicativa, modelo do mundo ou modelo do estado de espírito do leitor porque não é para isso que eles foram treinados.

Em “Dissociating Language and Thought in Large Language Models: a Cognitive Perspective”, um artigo publicado em janeiro de 2023, que explica como a ciência cognitiva e a neurociência podem nos ajudar a entender as capacidades potenciais dos LLMs e chatbots. O artigo aponta que há uma relação estreita entre linguagem e pensamento em humanos. Quando ouvimos ou lemos uma frase, normalmente presumimos que ela foi produzida por uma pessoa racional com base em seu conhecimento do mundo real, pensamento crítico e habilidades de raciocínio. Geralmente vemos as declarações de outras pessoas não apenas como um reflexo de suas habilidades linguísticas, mas como uma janela para suas mentes.

O artigo explicou a diferença entre a competência linguística necessária para produzir e compreender a linguagem e as funções cognitivas não específicas da linguagem que são necessárias quando usamos a linguagem em situações concretas do mundo real. A pesquisa sobre a arquitetura funcional do cérebro humano estabeleceu que "a maquinaria dedicada ao processamento da linguagem é separada da maquinaria responsável pela memória, raciocínio e habilidades sociais". Com base nessa distinção, LLMs e chatbots são muito promissores em uma parte da caixa de ferramentas cognitiva humana — o processamento formal da linguagem — mas ficam aquém, pelo menos até agora, em sua capacidade de modelar o pensamento humano.

A engenharia de prompts é agora considerada um dos empregos de tecnologia mais procurados, pois as empresas buscam obter o máximo dos LLMs, evitando resultados incorretos ou inapropriados. Como o artigo do WSJ observou: “Os melhores engenheiros de prompts são pessoas que podem dar instruções muito claras, mas que também entendem os princípios da codificação. Em outras palavras, eles geralmente são ótimos gerentes técnicos. Exceto com engenheiros de prompts, não é um funcionário que eles estão gerenciando, — é uma IA.”

Psicoterapeuta de IA

O que significa ser um psicoterapeuta de IA? De acordo com o artigo do WSJ : “Psicoterapeutas de IA  avaliarão a criação de um modelo, examinando seus dados de treinamento em busca de erros e fontes de viés.”

Como se preocupar sabiamente com a inteligência artificial” foi o tema da edição de 22 de abril de 2023 do The Economist, com vários artigos sobre o assunto. “O rápido progresso na IA está despertando medo e também entusiasmo. Quão preocupado você deveria estar?”, perguntou o artigo da edição. Os defensores da IA ​​argumentam que a IA surgiu como uma das, se não a principal tecnologia definidora do século XXI, com o potencial de nos ajudar a abordar e resolver grandes problemas. Mas outros acreditam que uma IA superinteligente, descontrolada e de rápido avanço representa uma ameaça para a humanidade.

A edição do The Economist incluiu também o ensaio, “Como a IA poderia mudar a computação, a cultura e o curso da história”. O ensaio observa que: “Uma tecnologia não precisa acabar com o mundo para mudá-lo”. Para nos dar uma ideia das transformações que mudam o mundo que podemos esperar da IA, o ensaio cita três fatos históricos: o navegador, a imprensa e as teorias psicanalíticas de Sigmund Freud .

A analogia da prensa tipográfica é bastante direta. A prensa tipográfica , inventada por Johannes Gutenberg por volta de 1440, acelerou a disseminação do conhecimento e da alfabetização na Europa renascentista e influenciou e revolucionou a vida nos séculos seguintes. A própria amplitude da prensa tipográfica torna a comparação com os LLMs quase inevitável. Os livros impressos expandiram o conhecimento ao qual todos nós tivemos acesso, ajudando-nos a gerar mais conhecimento e novos tipos de disciplinas. Da mesma forma, os LLMs treinados em um determinado corpo de conhecimento podem derivar e gerar todos os tipos de conhecimento adicional.

A analogia do navegador é igualmente direta. A internet e a World Wide Web possibilitaram o acesso a uma enorme variedade de informações e aplicativos digitais para qualquer pessoa com um computador pessoal e uma conexão com a internet. O navegador logo se tornou a porta de entrada para a Web. Empresas e instituições do setor público puderam, portanto, se envolver em suas atividades principais de uma forma muito mais produtiva. Chatbots como o ChatGPT podem agora se tornar um novo tipo de interface de conversação para informações e aplicativos.

A terceira grande mudança discutida no ensaio, as teorias psicanalíticas de Freud, requer mais explicações. “Aceitar que LLMs aparentemente humanos são cálculos, estatísticas e nada mais poderia influenciar como as pessoas pensam sobre si mesmas.” Mas até agora, não somos nem mestres dos LLMs e chatbots que criamos. Pesquisadores de IA podem explicar como os algoritmos matemáticos subjacentes às redes neurais profundas funcionam, mas são incapazes de explicar, em termos que um humano geralmente entenderia, como esses algoritmos chegaram a uma resposta específica para nossas perguntas. Em outras palavras, realmente não sabemos como eles funcionam.

Isso levanta duas preocupações: 1) que as IAs têm algum tipo de funcionamento interno que os cientistas ainda não conseguem perceber; ou 2) que é possível passar por humano no mundo social sem qualquer tipo de compreensão interna.”

Freud percebeu que a mente consciente não era o único condutor dos comportamentos humanos. Havia outro condutor, a mente inconsciente , que existe abaixo da superfície da consciência consciente e que pode exercer uma forte influência sobre nossas emoções e ações gerais. Não é preciso subscrever as explicações freudianas do comportamento humano para concordar que as pessoas fazem coisas das quais não têm consciência.

Embora a mente inconsciente possa não ser um modelo satisfatório para ajudar a explicar como os LLMs funcionam, a sensação de que há algo abaixo da superfície da IA ​​que precisa ser compreendida é bem poderosa. Mas, se nossos LLMs e chatbots sem vida continuarem a exibir comportamentos cada vez mais humanos, e ainda não entendermos os motivadores desse comportamento, "então será hora de fazer pela IA algo do que Freud pensou que estava fazendo pelos humanos".

Psicoterapeutas de IA “podem colocar modelos de IA no sofá, sondando-os com perguntas de teste”, disse o artigo do WSJ . “Empresas como IBM, Google e Microsoft estão correndo para lançar novas ferramentas que quantificam e mapeiam os processos de pensamento de uma IA, mas, como os testes de Rorschach, elas exigem que as pessoas interpretem seus resultados. Entender o raciocínio de uma IA será apenas metade do trabalho; ... A outra metade estará aprovando a aptidão mental de um modelo para a tarefa em questão”, porque, como o artigo nos lembra: “Não importa o quão sofisticados os modelos e sistemas se tornem, ... nós, como humanos, somos os responsáveis ​​finais pelos resultados do uso desses sistemas.”   

03/08/2024

A IA pode acabar com a desigualdade nos mercados de trabalho?


Nas últimas três décadas, empregos que exigem qualificação especializada e habilidades complexas de comunicação aumentaram significativamente, com os ganhos dos trabalhadores com ensino superior, necessários para preencher tais empregos, aumentando de forma constante. Por outro lado, as oportunidades e os salários diminuíram para empregos de qualificação média e e para empregos administrativos, cujas carreiras foram impactadas pela automação.

Mas o novo tipo de automação — sistemas de inteligência artificial chamados grandes modelos de linguagem, como ChatGPT e Gemini do Google — estão mudando isso”, observou o artigo do NY Times, “In Reversal Because of AI, Office Jobs Are Now More at Risk. “Essas ferramentas podem processar e sintetizar informações rapidamente e gerar novos conteúdos. Os empregos mais expostos à automação, são os de escritório, que exigem poucas habilidades cognitivas, criatividade e níveis de educação. Os trabalhadores mais afetados são os mais bem pagos e há um pouco mais de probabilidade de serem mulheres, segundo pesquisas.”

O artigo do NYT faz referência a outros dois artigos que analisaram as ocupações mais expostas à IA, um do Pew Research Center e o outro do Goldman Sachs Research .

Historicamente, mudanças na tecnologia automatizaram tarefas físicas, como as realizadas em fábricas”, disse o relatório Pew, “Quais trabalhadores dos EUA estão mais expostos à IA em seus empregos?

A IA funciona como o poder cerebral humano e, à medida que seu alcance cresce, isso levanta questões sobre seu impacto em empregos médios e em empregos de alto nível – questões que o Pew Research Center busca abordar em uma nova análise, considerando dados governamentais.” A análise Pew é baseada em dados sobre 41 atividades de trabalho essenciais em 873 ocupações da Rede de Informações Ocupacionais do Departamento de Trabalho dos EUA (O*NET)

Aqui está um resumo das principais conclusões do relatório Pew.

  • Em 2022, cerca de 20% dos trabalhadores americanos estavam em empregos com alta exposição à IA — ou seja, atividades que podem ser substituídas ou auxiliadas pela IA — enquanto 23% dos trabalhadores estavam em empregos com menos expostas à IA.
  • Empregos com alta exposição à IA incluem análise de orçamento, preparadores de impostos, redatores técnicos e desenvolvedores web; os empregos de média exposição incluem diretores executivos, veterinários, designers de interiores e gerentes de vendas; e os empregos de baixa exposição incluem cuidadores de crianças, lavadores de pratos, barbeiros e bombeiros.
  • Empregos com alto nível de exposição à IA tendem a estar em áreas com salários mais altos; trabalhadores em empregos mais expostos ganhavam US$ 33 por hora, em média, em comparação com US$ 20 em empregos com menor exposição.
  • Trabalhadores com bacharelado ou mais (27%) têm mais que o dobro de probabilidade de enfrentar alta exposição à IA do que aqueles com apenas o ensino médio (12%).
  • A maioria dos trabalhadores provavelmente estará em empregos com menos exposição à IA do que em empregos com mais exposição, especialmente homens, trabalhadores mais jovens, aqueles com menos educação formal e trabalhadores negros e hispânicos.
  • Uma parcela maior de mulheres (21%) do que de homens (17%) provavelmente será mais exposta à IA, devido às diferenças nos tipos de empregos ocupados por homens e mulheres.
  • Trabalhadores americanos em setores mais expostos não sentem que seus empregos estejam em risco; por exemplo, cerca de 1/3 dos trabalhadores em tecnologia da informação dizem que a IA os ajudará mais do que os prejudicará, em comparação com 11% que dizem que ela prejudicará mais do que ajudará.

Vamos agora olhar para o relatório do Goldman Sachs, “Os efeitos potencialmente grandes da inteligência artificial no crescimento econômico”. 

Apesar das incertezas em torno do potencial da IA, ela reflete um grande avanço com efeitos potencialmente grandes”, disse o relatório. 

A capacidade da IA ​​de (1) gerar novo conteúdo indistinguível da produção criada por humanos e (2) quebrar barreiras de comunicação entre humanos e máquinas reflete um grande avanço com efeitos macroeconômicos potencialmente grandes”.

Para avaliar a parcela do trabalho exposto à automação baseada em IA, o relatório do Goldman Sachs analisou dados sobre mais de 900 ocupações nos EUA do banco de dados O*NET , bem como dados sobre mais de 2.000 ocupações do banco de dados ESCO da Comissão Europeia .

Se a IA entregar suas capacidades prometidas, o mercado de trabalho pode enfrentar uma grave interrupção. Usando dados sobre tarefas ocupacionais nos EUA e na Europa, descobriu-se que, cerca de 2/3 dos empregos estão expostos a algum grau de automação de IA, e que a IA pode substituir até 1/4 do trabalho atual.” 

Estimativas globais sugerem que a IA pode ter um impacto em 18% dos empregos ao redor do mundo, o equivalente a 300 milhões de empregos de tempo integral.

Aqui estão algumas das principais conclusões do relatório sobre o impacto da IA no trabalho:

  • Silvicultura e pesca (21%); e ocupações nas forças armadas (22%).
  • A maioria dos empregos e indústrias estão apenas parcialmente expostos à automação e, portanto, têm mais probabilidade de serem complementados do que substituídos pela IA: espera-se que 63% dos empregos atuais nos EUA sejam complementados, 7% sejam substituídos e 30% não sejam afetados.
  • No geral, espera-se que a IA melhore a produtividade da grande maioria das ocupações; o maior impacto da automação da IA ​​é esperado nos campos jurídico e administrativo; e o menor impacto é esperado em trabalhos manuais e ao ar livre.

A IA tem o potencial para um boom na produtividade do trabalho e um aumento significativo na produção global. “[A] maioria dos trabalhadores está empregada em ocupações que são parcialmente expostas à automação da IA ​​e, após a adoção da IA, provavelmente aplicarão pelo menos parte de sua capacidade em atividades produtivas que aumentam a produção.

Além disso, “muitos trabalhadores que são deslocados pela automação da IA ​​acabarão sendo reempregados — e, portanto, aumentarão a produção total — em novas ocupações que surgem diretamente da adoção da IA ​​ou em resposta ao maior nível de demanda agregada e de mão de obra” gerado pelo aumento da produtividade da IA.

O momento de um boom de produtividade do trabalho de IA é difícil de prever, mas, com base no histórico de tecnologias transformadoras anteriores, o boom geralmente começa cerca de duas décadas após o avanço tecnológico, quando cerca de metade das empresas dos EUA adotaram a tecnologia. Mas o boom de produtividade do trabalho de IA pode acontecer mais rápido porque grande parte da infraestrutura necessária para adquirir e começar a usar novas tecnologias digitais já está em uso, incluindo a internet, computação em nuvem, software como serviço, lojas de aplicativos e outros avanços. “Nossa principal conclusão é que o impulso final para a produtividade do trabalho é incerto, mas na maioria dos cenários, permaneceria economicamente significativo”, disse o relatório do Goldman Sachs em conclusão.

O artigo do NY Times ainda discutiu mais implicações da IA, que, em vez de substituir cerca de 2/3 das ocupações dos EUA, de repente, muitos trabalhadores terão um assistente de IA ajudando-os a aprender novas habilidades e progredir mais rápido em suas carreiras. O artigo faz referência a outros dois documentos que citam que a IA é particularmente útil para funcionários juniores.

Generative AI at Work, um artigo do professor de Stanford Erik Brynjolfsson e seus colaboradores, descobriu que usar uma ferramenta baseada em AI aumentou a produtividade geral dos agentes de suporte ao cliente em 14% em média. O maior impacto, cerca de 35%, foi em trabalhadores novatos e pouco qualificados, enquanto o impacto em trabalhadores experientes e altamente qualificados foi mínimo.

O segundo artigo, “Evidência Experimental sobre os Efeitos de Produtividade da Inteligência Artificial,” foi baseado em um teste randômico com 444 profissionais de nível médio com ensino superior para avaliar o impacto da produtividade da IA em tarefas em áreas como relações humanas e marketing. Seus resultados mostraram que o ChatGPT aumentou substancialmente a produtividade média daqueles que usaram a tecnologia em 37%. Além disso, o uso do ChatGPT reduziu a desigualdade ao beneficiar mais os trabalhadores de baixa qualificação do que os de alta qualificação.

No último setor de automação analisado, o setor da indústria, houve aumento da desigualdade de renda ao privar trabalhadores sem ensino universitário de acesso a empregos de melhor remuneração, mostrou a pesquisa”, disse o artigo do NYT em conclusão. 

Este último trecho é a resposta do MS Copilot à pergunta: "A IA pode causar desemprego no mundo?"

Sim, a inteligência artificial (IA) tem o potencial de afetar significativamente o mercado de trabalho em todo o mundo. Economistas do Goldman Sachs estimam que até 300 milhões de empregos em tempo integral podem ser automatizados de alguma forma pela nova onda de IA, que gerou plataformas como o ChatGPT1. Além disso, o Fundo Monetário Internacional (FMI) prevê que quase 40% dos empregos em todo o mundo serão afetados pelo avanço da IA, substituindo alguns e complementando outros. No entanto, é importante observar que a adoção da IA também pode aumentar a produtividade do trabalho e impulsionar o PIB global em 7% ao ano durante um período de 10 anos. Portanto, embora a IA possa causar perturbações no mercado de trabalho, muitos empregos provavelmente serão complementados, em vez de substituídos.

IA e o futuro dos Sistemas de Saúde


Um importante Simpósio do MIT sobre sistemas comprexos, incluiu palestras sobre sistemas financeiros, energéticos e de saúde. Em particular, a palestra de Denis Cortese , que foi o presidente e CEO da Mayo Clinic, professor na Arizona State University e diretor do Centro de Prestação e Política de Saúde, me chamou a atenção. O Dr. Cortese explica que a assistência médica é um sistema dentro de  outros sistemas e é composta por três domínios principais: 

(1) Conhecimento — o domínio da pesquisa médica, onde novas ideias, invenções e abordagens são desenvolvidas; 

(2) Prestação de cuidados — o domínio dos médicos e hospitais onde os pacientes são tratados; e

(3) Pagadores — o domínio do seguro e dos governos que pagam pela prestação de assistência médica.

Cada um desses domínios é complexo por si só, mas suas interações são uma das principais razões pelas quais os sistemas de assistência médica são tão complexos.

A IA poderia a ajudar a lidar melhor com a complexidade dos sistemas de saúde? 

Após décadas de promessas e exageros, a IA se tornou a tecnologia definidora da nossa era. Nas últimas duas décadas, os elementos se uniram para impulsionar a IA além das universidades e laboratórios de pesquisa, para o mercado: tecnologias de computação; algoritmos e modelos avançados; e enormes quantidades de todos os tipos de dados, têm sido o elemento-chave para os principais avanços da IA ​​nos últimos 20 anos, incluindo big data e ciência de dados (anos 2000), aprendizado de máquina (anos 2010) e Large Language Models (LLMs) (anos 2020) e IA generativa, já em nossos dias.

Ao tentar entender o uso da IA ​​em sistemas de saúde, cheguei até o trabalho de John Halamka, presidente da Mayo Clinic Platform, uma organização que visa impulsionar inovações em diagnóstico, tratamento e melhorias operacionais em sistemas de saúde. John também é escritor, tendo vários artigos e livros sobre o assunto.

“No século XXI, é impossível definir a medicina sem levar em conta os avanços na ciência da computação e na inteligência artificial em particular, pois ambos impactam profundamente médicos e pacientes”, escreveram Halamka e Paul Cerrato no livro Redefining the Boundaries of Medicine.

No primeiro capítulo, “A promessa e o perigo da inteligência artificial”, os autores discutem os principais impulsionadores da transformação digital na saúde, incluindo:

  • A quantidade de novas informações médicas e técnicas, que são tão grandes que o cérebro humano é incapaz de processá-las, muito menos de aplicá-las à pacientes. Estima-se que quase 2 milhões de novos artigos científicos sejam publicados a cada ano.
  • As habilidades analíticas, a alfabetização computacional e a experiência clínica para chegar a diagnósticos precisos em cenários  de pacientes complexos.
  • A capacidade dos aplicativos de computador de melhorar a eficiência e reduzir erros ao lidar com muitos processos e procedimentos administrativos e operacionais, e
  • O reconhecimento na comunidade de saúde de que o atendimento ao paciente é tendencioso contra certos segmentos marginalizados da sociedade.

A crescente complexidade da medicina, combinada às limitações humanas, contribuem para a epidemia de diagnósticos errados que atormentam a profissão médica. Como Halamka e Cerrato escreveram em seu livro, Reinventing Clinical Decision Support, “todo ano, cerca de 5% dos pacientes ambulatoriais adultos nos Estados Unidos sofrem um erro de diagnóstico; os erros de diagnóstico contribuem para cerca de 1 em cada 10 mortes de pacientes, causando até 17% dos eventos adversos relatados em pacientes hospitalizados e afetam aproximadamente 12 milhões de pacientes ambulatoriais adultos por ano (1 em cada 20 americanos).”

Dado o papel central dos dados nos sistemas de IA, os registros eletrônicos de saúde (EHRs) desempenham um papel fundamental no desenvolvimento de sistemas de IA capazes de lidar com os desafios do mundo real no setor de saúde.

Conforme explicado no CMS.gov : “Um Registro Eletrônico de Saúde (EHR) é uma versão eletrônica do histórico médico de um paciente, que é mantido ao longo do tempo e pode incluir todos os principais dados clínicos administrativos relevantes para o atendimento dessa pessoa sob um provedor específico, incluindo dados demográficos, notas de progresso, problemas, medicamentos, sinais vitais, histórico médico, imunizações, dados laboratoriais e relatórios de radiologia.”

Os EHRs são o próximo passo no progresso contínuo da assistência médica que pode fortalecer o relacionamento entre pacientes e clínicos. Os dados, e a pontualidade e disponibilidade deles, permitirão que os provedores tomem melhores decisões e forneçam melhor atendimento.” Além disso, os EHRs podem melhorar o atendimento ao paciente e reduzir a incidência de erros médicos ao melhorar a precisão e a clareza dos registros.

Nos últimos anos, houve um avanço na adoção de padrões de EHR, como o Fast Healthcare Interoperability Resources (FHIR), um padrão para compartilhamento de informações entre clínicos e organizações, independente das formas como os EHRs apresentam ou armazenam os dados. Também houve um progresso significativo na redução das barreiras de interoperabilidade entre aplicativos de saúde de diferentes fornecedores. Como resultado, um número crescente de hospitais e práticas médicas agora implantaram aplicativos de EHR interoperáveis ​​e padronizados.

Um próximo passo importante é usar ferramentas baseadas em IA para analisar esse volume crescente de dados de EHR e fornecer conhecimento acionável aos médicos. De acordo com o artigo AI in healthcare da Wikipedia, algoritmos de IA mostraram resultados promissores em uma série de aplicações clínicas, incluindo o diagnóstico mais preciso e a estratificação de risco de pacientes com sintomas de doença arterial coronária, além do processamento de imagens para auxiliar dermatologistas na detecção de câncer de pele e a rápida identificação de tecido anormal em colonoscopias e endoscopias e detecção de câncer de mama e próstata.

As ferramentas de IA também podem ajudar os médicos a diagnosticar pacientes com sintomas raros, analisando dados de EHR em muitas instituições. “As condições médicas se tornaram mais complexas e, com um amplo histórico de registros médicos eletrônicos, a probabilidade de duplicação de casos é alta. Embora, alguém hoje com uma doença rara tenha menos probabilidade de ser a única pessoa a ter tido uma determinada doença, a incapacidade de acessar casos de origens sintomáticas semelhantes é um grande obstáculo para os médicos. A implementação de IA para ajudar não apenas a encontrar casos e tratamentos semelhantes, como por meio de preditores precoces da doença de Alzheimer e demências, mas também levar em consideração os principais sintomas e ajudar os médicos a fazer as perguntas mais apropriadas, ajuda o paciente a receber o diagnóstico e o tratamento mais precisos possíveis.”

Em uma época em que cada clique pode ser rastreado e os registros médicos são totalmente eletrônicos, os médicos devem ser capazes de referenciar digitalmente as decisões tomadas por outros clínicos para descobrir: O que aconteceu com outros pacientes como o meu?,” observou “Como os registros médicos podem fechar a lacuna de informações no atendimento ao paciente”, um artigo da Harvard Business Review (HBR) de 2023, coautorado por Halamka.

Considere este exemplo da vida real (a mãe de John Halamka): Uma mulher idosa que apresenta um estado mental prejudicado, febre e um baixo nível de sódio sérico. Ela é atendida e hospitalizada por um médico clínico geral, que reconhece que o paciente provavelmente tem uma infecção do trato urinário (ITU) e inicia o tratamento com antibióticos e redutores de febre. No entanto, uma ITU não explica inteiramente os baixos níveis de sódio do paciente. Embora o baixo sódio possa ser resultado da depuração renal de sódio, os pacientes com ITUs raramente apresentam baixo sódio, deixando o médico sem respostas.

Infelizmente, não há muitas respostas disponíveis porque um ensaio clínico envolvendo mulheres de 80 anos com estado mental prejudicado e sódio anormalmente baixo, não foi realizado no hospital onde a referida senhora está sendo tratada. Mas, com milhões de registros eletrônicos de pacientes disponíveis, uma consulta de banco de dados pode permitir que o médico diagnostique e trate o paciente com mais precisão, em vez de apenas tentar adivinhar.”

Mesmo médicos altamente treinados e qualificados vivenciam uma lacuna de evidências que prejudica sua capacidade de diagnosticar e tratar com precisão certos pacientes, o que é uma das razões pelas quais essa análise precisa ser feita rotineiramente. Consultas regulares a bancos de dados podem responder a perguntas clínicas críticas como”:

  • Qual é o diagnóstico correto?
  • Quais exames diagnósticos devem ser solicitados?
  • Qual é a implicação desse resultado laboratorial anormal ou marcador genômico?
  • Qual é o prognóstico típico para pacientes como esse?
  • Quais medicamentos ou outras modalidades de tratamento devem ser tomados, em que ordem, para otimizar os resultados?
  • Este procedimento valerá o risco e/ou custo para este paciente?
  • A vida do paciente pode ser prolongada ou melhorada com tratamentos alternativos?

Está claro que o futuro da assistência médica depende da democratização do conhecimento especializado por meio do aumento das habilidades humanas com algoritmos de IA”, escreveram Halamka e Cerrato em Redefining the Boundaries of Medicine . “No entanto, deve haver políticas claras sobre isso. Devemos garantir que sempre que a IA for usada para suporte à decisão, ela seja apropriada para o paciente que está sendo tratado. Devemos ter padrões internacionais que quantifiquem o viés, a utilidade e a adequação à finalidade. A explosão da pesquisa e o surgimento de novas fontes de dados — wearables, genômica e imagens avançadas — criaram um desafio de tomada de decisão que está além da escala humana. Garantir que essas novas ferramentas sejam usadas de forma ética depende de nós.”

25/07/2024

Código aberto e Sistemas de IA



Os sistemas de IA não operam como software tradicional – eles exigem processos distintos e dependem de recursos especializados, que atualmente são caros e estão nas mãos de algumas grandes empresas de tecnologia”, escreveram David Gray WidderMeredith Whittaker e Sarah Myers West, no artigo: “Open (for Business): Big Tech, Concentrated Power, and the Political Economy of Open AI”. “Mesmo assim, muitas das promessas originais do movimento de Open Source,  estão sendo projetadas na IA 'aberta'. Uma das promessas, era de que o código aberto ou o Open Source poderia democratizar o desenvolvimento de software, na perspectiva de que, o código aberto nivela a competição, permitindo que os mais inovadores consigam destaque. O Open Source já fez muito pela comunidade da Internet, em várias modalidades e instâncias. Mas com a IA 'aberta', a história é diferente.”

Estou pessoalmente envolvido com Open Source, projetos livres de licenças e outras iniciativas relacionadas nas últimas décadas. No final da década de 1990, liderei iniciativas para uso de sistemas e aplicações de código aberto em escolas e empresas, o que, na época, ajudou a fomentar o uso da Internet e da World Wide Web. Já, no início dos anos 2000, liderei iniciativas Linux Day, que desempenham, até hoje, um papel importante na divulgação e uso de soluções de código aberto tanto para usuários domésticos quanto para empresas, que ajudam a desenvolver e a divulgar a Linux Foundation.

Ao tentar entender como as promessas originais do Open Source agora se aplicam a esta nova geração de sistemas de IA, achei o artigo acima citado, bastante útil e aqui seguem meus comentários:

O que é (e o que não é) aberto na IA de código aberto

O artigo observa que o código aberto na IA é um conceito difícil de definir, em parte, porque a própria IA não está claramente definida, o que é "aberto" em sistemas altamente complexos como a IA. "De fato, ainda não há uma definição clara de IA 'aberta' ou 'de código aberto', mesmo que a atenção ao tópico tenha aumentado muito", observam os autores.

A inteligência artificial surgiu pela primeira vez em meados da década de 1950 como uma nova disciplina acadêmica que visava desenvolver máquinas inteligentes capazes de lidar com tarefas semelhantes às humanas, como processamento de linguagem natural. A IA se tornou uma das áreas mais empolgantes nas ciências da computação nas décadas de 1960, 1970 e 1980, mas depois de anos de promessas não cumpridas e exageros, houve um inverno da IA, com interesses e financiamentos reduzidos, que quase matou está área de estudo.

A IA renasceu na década de 1990 com um paradigma totalmente diferente baseado na análise de grandes quantidades de dados com algoritmos sofisticados e computadores poderosos. Esse paradigma de IA centrado em dados continuou a avançar nos últimos 20 anos com grandes inovações em diversas áreas como big dataanálise preditivaaprendizado de máquina e, recentemente, os grandes odelos de linguagem (LLMs) e chatbots generativos. A IA agora tem uma das, se não a principal tecnologia definidora do século XXI.

Como os sistemas de IA grandes e generativos, são os que mais claramente perturbam os limites e questionam as ideologias tradicionais de Open Source e ciência aberta, focamos principalmente nesses sistemas, neste artigo”, escreveram os autores. “Quando usamos o termo IA, estamos usando-o para nos referir a esses grandes sistemas.”

De modo geral, os termos 'aberto' e 'código aberto' são usados ​​no contexto da IA ​​de várias maneiras para se referir a capacidades que podem ser amplamente agrupadas como: (1) atributos de oferta de transparência — a capacidade de acessar e examinar código-fonte, documentação e dados; (2) reutilização — a capacidade e o licenciamento necessários para permitir que terceiros reutilizem código-fonte e/ou dados; e (3) extensibilidade — a capacidade de construir sobre modelos prontos existentes, 'ajustando-os' para um ou outro propósito específico.

Os termos 'aberto' e 'código aberto' são usados ​​de forma variável para se referir a esses atributos, na prática há diferentes graus de 'abertura' que oferecem níveis de acesso muito diferentes.”

“Embora existam alguns sistemas de IA abertos ao máximo, que oferecem transparência intencional e extensa — os recursos necessários para construir IA do zero e implantar grandes sistemas de IA em escala permanecem 'fechados' — disponíveis apenas para empresas com recursos significativos (quase sempre corporativos).” O artigo ainda faz referência a outro artigo “The Gradient of Generative AI Release: Methods and Considerations”, que define seis pontos principais de abertura em sistemas de IA generativos atuais.

Os argumentos a favor e contra a IA 'aberta'

A IA aberta está sendo referenciada atualmente por atores poderosos, com discursos políticos para moldar a trajetória regulatória em torno da IA”, observam os autores. “Conversas sobre IA 'aberta' têm implicações significativas e de alto risco além dos termos restritos de licenças e mecanismos de transparência estão sendo implantados para moldar o cenário geral da política de IA. Como em qualquer situação de lobby e influência, a retórica em torno da defesa da política de IA 'aberta' está sendo lida à luz dos interesses particulares da entidade que os faz. E, como no passado, a abertura está sendo usada hoje por empresas na forma de uma política retórica para fazer lobby, consolidar e reforçar suas posições.”

A adoção do Linux por grandes empresas nos anos 2000 foi acompanhada por desafios semelhantes a estes recentes da IA. Algumas das empresas que viam o Linux como uma ameaça competitiva atacaram fortemente as empresas que usavam Linux, bem como a comunidade Linux em geral. Ameaças contra o Linux e contra as empresas que o adotaram continuaram por anos, chegando a processos multimilionarios.

O artigo Open IA discutiu algumas das alegações feitas a favor e contra a IA de código aberto. E aqui estão duas das alegações, uma a favor: segurança por meio da transparência; e uma contra: aumento da insegurança .

A IA aberta cria segurança por meio da transparência

No final da década de 1990, algumas empresas americanas, que passaram a fazer uso de soluções de software Open Source em sistemas altamente sensíveis, criaram um Painel de discussão sobre Software Open Source, que incluía representantes de universidades, agências federais, laboratórios de pesquisas e fornecedores de supercomputação. O Painel realizou uma série de reuniões e na sequência, divulgou seu relatório em outubro de 2000 e as descobertas são particularmente relevantes para as discussões atuais:

Acreditamos que o modelo de desenvolvimento Open Source representa uma estratégia viável para produzir software de alta qualidade por meio de uma mistura de parcerias públicas, privadas e acadêmicas. … O software Open Source pode oferecer potenciais vantagens de segurança sobre o modelo de desenvolvimento proprietário tradicional. Especificamente, o acesso dos desenvolvedores ao código fonte, que permite um exame completo e que diminui potencial falhas de segurança. Além disso, o modelo de código aberto aumenta o número de programadores buscando por bugs e, subsequentemente, desenvolvendo correções, reduzindo assim áreas potenciais para exploração maliciosas.

Da mesma forma, o artigo Open AI observa que “a IA Open Source promove a segurança ao permitir que pesquisadores e autoridades auditem o desempenho do modelo, identifiquem riscos e estabeleçam mitigações ou contramedidas”. No entanto, os autores acrescentam que “a eficácia da auditoria como medida de segurança é fortemente baseada em garantir que recursos estejam disponíveis e incentivos alinhados de forma que auditorias realmente ocorram e sejam robustas o suficiente para levar em conta os riscos reais representados pela implantação de modelos de IA”.

IA aberta aumenta a insegurança

“Argumentos na direção oposta posicionam a IA Open Source como uma fonte de insegurança, ao tornar uma tecnologia tão poderosa amplamente disponível para reutilização, potencialmente colocando-a nas mãos de maus atores.”

“Preocupações sobre a insegurança da proliferação de modelos de IA Open Source são justificadas, entre outras razões, porque os modelos de código aberto permitem que a IA seja ajustada em pequena escala sem uma curva de aprendizado. Há poucos comentários e poucos claros sobre esse argumento, especialmente considerando aqueles que o fazem; é por que o acesso aos mesmos modelos ou modelos igualmente poderosos aos obtidos por meio de um contrato de nuvem da Microsoft ou Google — que é o padrão atual — representa menos perigo do que reutilizar um modelo de IA lançado abertamente. … Um pequeno número de empresas gigantes não garante, por si só, uma IA mais segura.”

Conclusão

“Mesmo em suas máximas instâncias, nas quais sistemas de IA 'abertos' fornecem transparência robusta, reutilização e extensibilidade, tais características não garantem, por si só, acesso democrático ou competição significativa em IA”, escreveram os autores na conclusão. “Nem tendo uma IA aberta sozinha resolve o problema da informação democrática ou segura. Mesmo assim, a retórica e a promessa de abertura em sistemas de IA estão sendo tratadas por empresas poderosas que tentam reforçar suas posições diante do crescente interesse na regulamentação da IA.”

“Os formuladores de políticas precisam abordar a regulamentação da IA com uma compreensão clara de coisas que a IA 'é' e 'não é', e com um reconhecimento fundamentado do que a IA 'aberta' pode e não pode entregar. Isso produzirá uma imagem muito diferente das possibilidades da IA ​​'aberta' do que aquela que está sendo desenhada atualmente. Também exigirá foco nas diferenças significativas entre software de código aberto e IA 'aberta', e reconhecimento de que os processos de desenvolvimento, requisitos de recursos e centralização inerente da IA ​​significam que ela não pode ser facilmente descrita ou definida em termos forjados originalmente para promover e definir software de código aberto.”


23/07/2024

Produtividade: crescimento lento x avanços tecnológicos vertiginosos


A produtividade, na economia, é considerada a relação entre aquilo o que é produzido e os meios empregados (mão-de-obra, materiais, energia, etc.). Produtividade tem a ver com eficiência e tempo: quanto menor for o tempo levado para obter o resultado pretendido, mais produtivo será o sistema.

Um dos quebra-cabeças mais difíceis de se resolver nas últimas décadas é a desaceleração no crescimento da produtividade em nações industrializadas, apesar dos avanços vertiginosos nas tecnologias de informação e comunicação (TIC) e na eletrônica”, escreveram os economistas Daron Acemoglu, David Autor e Christina Patterson em seu artigo Bottlenecks: Sectoral Imbalance and the US Productivity Paradox.

Nas últimas três décadas, as patentes de TIC e eletrônica e o crescimento da produtividade têm se movido em direções totalmente opostas. O número total de patentes concedidas entre 1990 e 2010 cresceu de 99.000 para 208.000, com as patentes de TIC e eletrônica respondendo por 80% desse aumento. E, enquanto o Fator Total de Produtividade (FTP), — geralmente considerada o principal contribuinte para o crescimento do PIB, — cresceu 1,7% nos EUA entre 1997 e 2005, sendo o crescimento mínimo, cerca de 0,4% desde 2005. Veja o gráfico dos últimos 10 anos.

Como esses fatos antagônicos podem ser resolvidos?”, perguntam os autores. Estamos em uma “nova era de abundância impulsionada por nossas máquinas cada vez mais inteligentes? Ou entramos em “uma era de crescimento mais lento porque as tecnologias de maior impacto já foram desenvolvidas e exploradas?”

Em artigo de 2018, The Productivity J-Curve, Erik Brynjolfsson, Daniel Rock e Chad Syverson explicam que tecnologias transformadoras — por exemplo, a máquina a vapor, eletricidade, semicondutores, internet, IA — são tecnologias definidoras de seus tempos. Mas, historicamente, alguns padrões nos dizem que há um atraso entre a aceitação do mercado de uma tecnologia transformadora e seu impacto mais amplo nas indústrias, economias e sociedades. Embora essas tecnologias tenham grande potencial desde o início, perceber esse potencial requer grandes investimentos, incluindo o redesenho de processos de negócios; novos produtos, aplicativos e modelos de negócios inovadores; a requalificação da força de trabalho; e um repensar da própria natureza da produção.

Em seu artigo, Acemoglu, Autor e Patterson ofereceram uma estrutura conceitual que explica as tendências conflitantes entre avanços tecnológicos e crescimento da produtividade: avanços tecnológicos e inovação em qualquer indústria dependem de inovações complementares nos insumos e ideias das indústrias fornecedoras em seu setor. Quando a inovação está desequilibrada em um setor, ela retém o crescimento da produtividade e gera obstáculos à inovação. “Nossa estrutura conceitual, portanto, enfatiza que uma distribuição equilibrada de avanços tecnológicos entre setores é importante para a viabilidade de inovações futuras. … Nossa perspectiva também enfatiza como uma distribuição mais equilibrada do progresso tecnológico (e pesquisa e desenvolvimento) pode melhorar o desempenho da produtividade.”

O artigo ilustra como os obstáculos surgem e como sua resolução acelera a inovação e o crescimento, com exemplos concretos de três tecnologias relativamente recentes: baterias recarregáveis, transistores e GPS.

Baterias recarregáveis. Baterias recarregáveis desempenharam um papel importante na alimentação de laptops, dispositivos móveis pessoais, carros elétricos e outras inovações importantes do século XXI. Baterias recarregáveis ​​foram um obstáculo tecnológico até a década de 1970 porque, por mais de cem anos, as melhores baterias disponíveis, baterias de chumbo, tinham baixa densidade de energia, uma taxa de carregamento lenta, um ciclo de vida curto e o potencial de liberar gás hidrogênio explosivo durante a recarga. O gargalo da bateria recarregável foi finalmente superado pelas baterias de íons de lítio, inventadas em 1973 e melhoradas ao longo da década de 1980. Em 1991, a Sony começou a produzir e vender as primeiras baterias de íons de lítio recarregáveis ​​do mundo.

Transistores. Embora na década de 1950, dispositivos eletrônicos, linhas telefônicas, rádios, transmissores, amplificadores de áudio e os primeiros computadores fossem grandes, frágeis e lentos porque os interruptores eletromecânicos e válvulas de vácuo que esses produtos usavam eram tecnologias de gargalo. O transistor, inventado nos Laboratórios Bell da ATT em 1947, foi comercializado pela primeira vez na década de 1950 em produtos simples como rádios transistorizados. Os transistores então permitiram o rápido crescimento dos computadores a partir da década de 1960. A Lei de Moore captura sucintamente os avanços impressionantes dos transistores e circuitos integrados nas décadas seguintes. "Estima-se que o transistor seja o dispositivo mais fabricado na história, com 13 sextilhões (1021) de unidades até o momento, com bilhões a mais produzidos a cada dia."

Sistema de Posicionamento Global. “A navegação tradicional foi complementada com sistemas de posicionamento de rádio na década de 1970, mas essas ferramentas sofriam de baixa precisão ou cobertura geográfica limitada e, portanto, não iam além das aplicações de transporte militar e comercial.” O GPS foi desenvolvido pelos militares dos EUA para superar essas deficiências. Os satélites GPS foram lançados pela primeira vez em 1978 e abertos ao uso público mundial em 1983. Ao longo dos anos, o GPS permitiu uma série de inovações importantes, incluindo “agricultura de precisão, mineração e exploração de petróleo; informações de tempo de precisão atômica para sincronização de sistemas de transmissão de energia; levantamento remoto para geologia e previsão do tempo; e inúmeros serviços voltados para o consumidor, como transporte por aplicativo, publicidade direcionada e rastreadores de objetos.”

Os autores desenvolveram um modelo matemático para formalizar sua estrutura conceitual, a saber, que o crescimento lento decorre em parte de uma distribuição desequilibrada de inovação. Eles então validaram empiricamente sua hipótese usando dados de uma variedade de fontes, incluindo links de citação, patentes e dados de crescimento de produtividade de 462 indústrias de manufatura e 42 indústrias não manufatureiras e aqui estão suas principais descobertas.

  • Por meio de uma variedade de abordagens de medição, resultados de produtividade e países, verificamos a previsão primária desta hipótese: o crescimento da produtividade de uma indústria é aumentado pelo crescimento médio da produtividade de seus fornecedores (medido pelo PTF ou inovação) e, crucialmente, é prejudicado pela variância do crescimento de sua produtividade.”
  • Há uma ligação poderosa entre a capacidade de inovação de um setor ou empresa e os desequilíbrios que ela enfrenta em seus setores a montante (ideia-fornecedor). Quanto maior a dispersão, ou seja, a variação ou a distribuição do crescimento da produtividade entre os fornecedores de uma indústria, maior a influência negativa que ela tem nas oportunidades de crescimento dessa indústria. Dobrar a variação do crescimento do FTP dos fornecedores em um setor está associado a um crescimento de produtividade aproximadamente 0,9 ponto percentual mais lento para esse setor.
  • A dispersão do crescimento do FTP entre as principais indústrias aumentou significativamente nas últimas décadas.” Essa dispersão maior explica essencialmente toda a desaceleração da produtividade agregada na manufatura entre as décadas de 1970 e 2007. Por exemplo, se a variação no crescimento do FTP na manufatura tivesse permanecido em seu nível de 1977–1987 nas duas décadas subsequentes, a produtividade da manufatura dos EUA teria crescido duas vezes mais rápido em 1997–2007 do que cresceu.
  • “A variação do FTP do fornecedor na indústria aumentou durante este período, tanto porque as indústrias atrasadas não conseguiram crescer quanto porque as indústrias líderes se afastaram das demais.”

As indústrias de crescimento mais rápido, definidas como aquelas que tiveram o maior impacto na variação do FTP do fornecedor entre 1997 e 2007, incluem computadores eletrônicos, dispositivos de armazenamento de computador e semicondutores. As indústrias de crescimento lento que se tornaram os maiores gargalos no mesmo período incluem refinarias de petróleo, preparação farmacêutica, montagem de circuitos impressos e geradores de turbina. E as indústrias com mais gargalos, definidas como aquelas retidas pela inovação desigual entre seus fornecedores, incluem instrumentos cirúrgicos e médicos, motores a gás e válvulas industriais. 

Esses resultados empíricos valem para toda a economia e, dentro do setor de manufatura (onde o FTP é melhor medido), eles estão presentes em diferentes sub períodos e com medidas alternativas de dispersão de produtividade. “Também verificamos que esses padrões não são impulsionados por outliers, nem são exclusivamente devidos aos rápidos avanços nos setores de computadores e eletrônicos (embora esses setores desempenhem um papel central em nossos resultados).” Além disso, “documentamos padrões análogos usando dados internacionais e estabelecemos que a dispersão na produtividade entre as principais indústrias fornecedoras nacionais e internacionais também tem sido um grande impedimento ao crescimento da produtividade para várias economias líderes da OCDE.

Vemos nossos resultados como sugestivos de uma ligação potencialmente importante entre gargalos de produtividade e crescimento de produtividade. … Nossa análise sugere ainda que, após avanços em setores que atuam como gargalos, deve haver uma aceleração do crescimento da produtividade agregada e da indústria.




21/07/2024

O valor do conhecimento humano x IA ​​generativa

No início de 2021, o então editor e contribuidor da Wikipédia Jon Gertner viu algo na internet que lhe chamou a atenção: a ascensão do GPT-3, um precursor dos novos chatbots da OpenAI, e ele decidiu escrever o artigo “Wikipedia's Moment of Truth”, para a NY Times Magazine . “Quando experimentei a nova tecnologia, me pareceu não tão confiável. O bot misturava elementos fictícios em respostas factuais e coerentes. Mas não tive dúvidas sobre seu potencial.”

O artigo chamou minha atenção porque há muito tempo uso a Wikipédia como meu site de referência para pesquisar tópicos sobre os quais quero aprender, além de usar links para artigos da Wikipédia como referências nos blog que publico desde 2005.

Na última década, a Wikipédia se tornou muito mais do que uma enciclopédia, — “um tipo de comunidade que mantém todo o mundo digital unido”. Google, Bing, Siri, Alexa e outros mecanismos de busca e assistentes digitais frequentemente contam com a Wikipédia para obter as informações necessárias para responder às perguntas dos usuários. A Wikipédia também tem sido uma das maiores fontes de dados, — estimada em cerca de 3% a 5%, — para treinamento de Large Language Models (LLMs) e chatbots relacionados. A Wikipédia tem desempenhado um papel importante no mundo digital porque suas grandes quantidades de dados são gratuitas, facilmente acessíveis, de alta qualidade e bem selecionadas.

Depois de experimentar o ChatGPT em 2021, um outro usuário, escreveu um ensaio com o título “Morte da Wikipédia”, no qual ele cita como a Wikipédia poderia perder seu lugar como a enciclopédia digital dominante. “Para alguma outra enciclopédia vencer a Wikipédia, ela teria que ser capaz de igualar algumas das vantagens construídas ao longo dos anos. Ou seja, que ter milhões de artigos e que esses artigos sejam atualizados rapidamente.”

Ele acrescentou que era improvável que uma enciclopédia sucessora tivesse os compromissos da Wikipédia com a transparência, objetivos não comerciais e a livre reutilização de seu conteúdo por meio de sua licença. “Esses valores ajudam na reputação e criam valor para os leitores no mundo todo.”

Eu, particularmente falando, não acreditava ser provável alcançar os feitos humanos da Wikipedia. Mas agora acredito que a inteligência artificial pode. A IA está melhorando exponencialmente a cada dia. No momento em que escrevo este artigo, já testei ser capaz de escrever um texto bastante competente, usando a IA. A longo prazo a IA pode substituir a Wikipédia e seus editores humanos, assim como a Wikipédia venceu a Enciclopédia Britånica.

“Na comunidade da Wikipédia, há cautela quando se fala em IA. Se administrada corretamente, ajudará a organização a melhorar em vez de quebrar”, citação do artigo da NYT Magazine . “Mesmo que os editores vençam a curto prazo, as máquinas vencerão no final”

Já houveram outras previsões sobre o fim da Wikipédia desde que foi fundada em 2001. Em comemoração ao 20º aniversário da Wikipédia, o professor Joseph Reagle da Northeastern University escreveu “As muitas (relatadas) mortes da Wikipédia”, um ensaio que explorou como a Wikipedia teve sua morte anunciada repetidas vezes nas últimas duas décadas e como ela encontrou maneiras de se adaptar e perdurar.

Reagle observou que, em seus primeiros anos, os críticos da Wikipédia e seus fundadores, exemplificaram três maneiras de pensar sobre o futuro:

1. Eles olharam para projetos de enciclopédia semelhantes para ter uma ideia do que é viável e aprenderam que, mesmo projetos bem financiados, como o Encarta da Microsoft, falharam em criar uma enciclopédia on-line sustentável.

2. Eles presumiram que os primeiros meses seriam muito difíceis - como no caso da Wikipédia.

O único modelo que não usamos foi justamente o crescimento exponencial, que caracterizou a criação de artigos da Wikipédia até 2007”, escreveu Reagle. 

Em seu primeiro ano, a Wikipedia esperava ter, um dia, 100.000 artigos, o que seria um pouco maior do que a maioria das enciclopédias impressas. Eles estimaram que se produzissem 1.000 artigos por mês, chegariam perto da meta em sete anos. E em 2007, a Wikipédia atingiu o inimaginável feito de ter dois milhões de artigos, — 20 vezes a estimativa original.

Mas em 2009, a inserção de novos artigos na Wikipédia diminuiu ou estagnou-se, e a atividade passou a tender cada vez para editores experientes em vez de continuar atraindo novos editores. O número de editores ativos caiu de 53.000 em 2007 para 30.000 em 2014.

Wikipédia pode sobreviver?, perguntou um outro artigo de opinião do NYT de 2015. Sim. "Parece que o número de editores ativos tem se mantido estável desde 2014, não caindo abaixo de 29 mil", escreveu Reagle.

“A única previsão que eu arriscaria para os próximos dez anos é que a Wikipédia ainda existirá”, ele acrescentou. “A plataforma e a comunidade têm um ímpeto que nenhuma alternativa, a curto prazo, vencerá. A comunidade Wikipédia sem dúvida enfrentará desafios e crises, como sempre enfrentou.”

Em setembro de 2023, a Wikipédia tinha mais de 6,7 milhões de artigos e mais de 118.000 editores ativos — que fizeram uma ou mais edições nos últimos 30 dias. E, de acordo com o artigo da Gertner na NYT Magazine , “a Wikipédia tem versões em 334 idiomas e um total de mais de 61 milhões de artigos. Ela está classificada entre os 10 sites mais visitados do mundo, no seleto grupo cujos líderes habituais, que são Google, YouTube e Facebook, mas é única em evitar o motivo lucro.”

O valor mais crítico da Wikipédia para a IA Generativa é o fato de que seu conhecimento é criado por humanos.

"Os chatbots de IA geralmente só vomitam o que engoliram da Wikipédia”, escreveu Gertner. “Incorporado em suas respostas o conhecimento que foi compilado ao longo de anos de trabalho meticuloso por colaboradores humanos.” 

Garantir que os sistemas de IA generativos sejam treinados com conteúdo meticulosamente criado por humanos é muito mais do que um caso de idealismo humano anti-IA. Acontece que, sem dados de treinamento gerados por humanos, os sistemas de IA inevitavelmente não funcionarão bem. Um outro artigo publicado em maio de 2023 definiu esse fenômeno em detalhes e o nomeou colapso do modelo.

Encontrei uma explicação mais simples sobre o colapso do modelo em um artigo recente da TechTarget “O colapso do modelo explicado: como os dados de treinamento sintético quebram a IA ”.

O colapso do modelo ocorre quando novos modelos generativos treinam em conteúdo gerado por IA e gradualmente degeneram seus resultados. Nesse cenário, os modelos começam literalmente a esquecer a verdadeira distribuição de dados. Isso significa que os modelos perdem a referência de informações sobre os aspectos menos comuns — mas ainda importantes — dos dados. À medida que as gerações de modelos de IA progridem, os modelos começam a produzir saídas cada vez mais semelhantes e menos diversas.”

Modelos de IA generativa precisam treinar em dados produzidos por humanos para funcionar de forma adequada. Quando treinados em conteúdo gerado por modelos, esses novos modelos exibem defeitos irreversíveis. Suas saídas se tornam cada vez mais 'erradas' e homogêneas. Pesquisadores descobriram que, mesmo nas melhores condições de aprendizado, o colapso do modelo era inevitável.”

" Estudar e entender o colapso do modelo é importante porque a IA generativa está pronta para trazer mudanças significativas no mundo digital. Mais e mais comunicações online estão sendo geradas usando ferramentas de IA. E esse fenômeno tem o potencial de criar poluição de dados em larga escala. Embora a criação de grandes quantidades de texto seja mais eficiente do que nunca, o estudo do colapso do modelo afirma que nenhum desses dados será valioso para treinar a próxima geração de modelos de IA.” 

Além da Guerra de Preços: O Oceano Azul na Conectividade Brasileira

Introdução Lançado em 2005 por W. Chan Kim e Renée Mauborgne, A Estratégia do Oceano Azul revolucionou o pensamento estratégico...