11/12/2022

O Potencial Econômico da Internet das Coisas

Em junho de 2015, o McKinsey Global Institute publicou um relatório sobre a Internet das Coisas (IoT). O relatório analisou o potencial econômico de longo prazo da IoT examinando mais de cem casos de uso e as soluções baseadas em IoT nas quais elas foram implantadas, como fábricas, residências, escritórios e cidades. Em seguida, estimou que o potencial econômico da IoT até 2025 seria de aproximadamente US$ 3,9 trilhões a US$ 11,1 trilhões.

A estimativa foi baseada na provável evolução da tecnologia e na taxa de adoção de soluções de IoT entre 2015 e 2025, bem como nas tendências econômicas e demográficas. O intervalo estimado era tão amplo porque havia muitas incógnitas naquele estágio inicial do desenvolvimento da IoT, incluindo os custos da tecnologia, a taxa de desenvolvimento e implantação dessas soluções altamente complexas, seu nível de aceitação por consumidores e trabalhadores e as políticas e regulamentações promulgadas pelos governos.

Seis anos depois, a McKinsey publicou um novo relatório, The Internet of Things: Catching up to an accelerating opportunities, que atualizou a análise de 2015. O relatório avaliou quanto de seu valor projetado no relatório anterior foi capturado e estimou o potencial econômico da IoT até 2030, bem como os principais eventos contrários que retardariam seu progresso e os principais eventos favoráveis que o impulsionariam.

“Embora o valor econômico potencial da IoT seja grande e crescente, capturar esse valor provou ser um desafio”, reportou o relatório mais recente. “Nossa pesquisa mais recente mostra que o valor total capturado em 2020 (US$ 1,6 trilhão) está no limite inferior da faixa dos cenários que mapeamos em 2015. Atualizamos nossas estimativas para 2025 e além, ajustando as condições atuais e desenvolveram cenários que respondem pela gama de várias incertezas. No total, os cenários de baixo e alto nível são inferiores às estimativas originais de 2015: cerca de US$ 2,8 trilhões a US$ 6,3 trilhões em valor econômico potencial da IoT em 2025, em comparação com cerca de US$ 3,9 trilhões a US$ 11,1 trilhões do trabalho de 2015.”

“As revisões refletem um mundo que mudou significativamente desde 2015”, explicou o relatório, citando cinco fatores principais que diminuíram a adoção de soluções de IoT:Mudar a gestão. Empresas e governos têm tratado a IoT como um projeto de tecnologia sem a devida consideração pelas mudanças necessárias nos processos de governança, talentos e gestão de desempenho.
Interoperabilidade. As soluções de IoT exigem padrões comuns e estrutura operacional para superar arquiteturas proprietárias e outras barreiras do sistema.
Instalações. Instalações complexas e caras são um dos maiores problemas na implantação de soluções de IoT. “Quase todas as implantações em escala requerem personalização, se não uma solução totalmente sob medida.”

Cíber segurança. A segurança deve ser incorporada em todas as camadas de uma solução de IoT para atender às crescentes preocupações de segurança cibernética de consumidores, empresas e governos.
Privacidade. As empresas estão lutando para responder às crescentes preocupações com a privacidade dos consumidores.

O novo relatório da McKinsey estima que, até 2030, a IoT poderá permitir US$ 5,5 trilhões a US$ 12,6 trilhões em valor econômico global. O relatório divide suas estimativas econômicas por soluções baseadas em IoT e por clusters de casos de uso.

Soluções baseadas em IoT

Assim como no relatório de 2015, a McKinsey analisou 9 soluções ou configurações diferentes baseadas em IoT. Deixe-me discutir as quatro soluções com maior potencial.

Fábricas – definidas como ambientes de produção padronizados e dedicados – têm o maior potencial econômico: cerca de US$ 1,4 trilhão a US$ 3,3 trilhões por ano até 2030. O gerenciamento de operações na manufatura é o principal caso de uso, respondendo por 32% a 39% da estimativa total. É seguido pela manutenção preditiva e produção de alimentos nas fazendas.

Saúde – Os aplicativos de saúde humana têm o segundo maior potencial de IoT em cerca de US$ 0,55 trilhão a US$ 1,8 trilhão por ano até 2030. Os aplicativos de saúde incluem o monitoramento de pacientes com doenças crônicas, como diabetes e doenças cardíacas, e a melhoria do bem-estar geral dos indivíduos, como o acompanhamento de sua atividade física. As informações de saúde também podem ser fornecidas a seguradoras e governos para serem usadas para melhorar os resultados dos pacientes. “A pandemia do COVID-19 acelerou potencialmente o uso de soluções de IoT na área da saúde, enquanto o mundo luta contra a contenção de vírus e um retorno seguro ao local de trabalho.”

Trabalho – Os locais de trabalho – definidos como ambientes de produção personalizados – são outra grande área de aplicação com um potencial econômico de US$ 0,40 trilhão a US$ 1,73 trilhão por ano até 2030. Os principais casos de uso incluem construção, exploração de petróleo e gás e mineração. O trabalho nessas áreas está em constante mudança, imprevisível e às vezes perigoso. Como não há dois locais ou projetos iguais, cada um apresenta desafios únicos, dificultando a simplificação das operações.

Cidades – As cidades têm um potencial econômico de US$ 1,0 trilhão a US$ 1,7 trilhão por ano até 2030. O maior caso de uso nas cidades é o controle de tráfego centralizado e adaptativo, cujo valor vem da redução do tempo gasto no trânsito e da correspondente redução de CO2. O uso de IoT em veículos inteligentes e autônomos é outro caso de uso muito importante, com potencial para reduzir significativamente o número de acidentes com veículos resultando em morte ou ferimentos graves, bem como danos materiais.

Clusters de casos de uso

Os clusters de casos de uso são outra maneira de analisar o valor econômico da IoT. O relatório avaliou mais de 120 casos de uso em 9 soluções IoT diferentes e os agrupou em 11 clusters de casos de uso diferentes.

Os clusters de casos de uso com maior potencial econômico em 2030 são:Otimização de operações (41%),
Produtividade humana (15%),
Saúde (15%) e
Manutenção (12%).

O relatório também estimou a taxa de crescimento de cada cluster de casos de uso entre 2020 e 2030. Embora seu potencial econômico total seja relativamente pequeno, as tecnologias de veículos inteligentes e autônomos têm o potencial de crescimento mais rápido (37% CGR entre 2020 e 2030). É seguido por produtividade humana (27% CGR), manutenção baseada em condição (26%), gerenciamento de estoque (25%), segurança e proteção (24%), capacitação de vendas (24%) e otimização de operações (23%).

Os mesmos fatores, citados acima, que amorteceram a adoção de soluções de IoT entre 2015 e 2020 podem continuar a fazê-lo até 2030.

Minha opinião sobre os três principais ventos favoráveis que, de acordo com o relatório, poderiam acelerar significativamente a adoção de soluções de IoT no mundo:

Proposta de valor. “Os clientes veem valor real na implantação da IoT, um passo significativo em comparação com nossas descobertas em 2015. A IoT é um facilitador essencial das transformações digitais e dos impulsos de sustentabilidade em andamento em empresas e instituições públicas em todo o mundo. O valor econômico de US$ 1,6 trilhão gerado pelas soluções de IoT em 2020 exemplifica a capacidade da tecnologia de agregar valor em escala.”

Tecnologia. “Os últimos cinco anos viram avanços notáveis em tecnologia. Para a grande maioria dos casos de uso de IoT, existe uma tecnologia acessível que permite a implantação em escala. Os sensores agora cobrem todo o espectro, do visual ao acústico e tudo mais; a computação é mais do que rápida o suficiente; o armazenamento é onipresente; a carga da bateria melhorou. O progresso em hardware foi acompanhado por desenvolvimentos significativos em análises avançadas, IA e aprendizado de máquina que permitem insights mais rápidos e granulares e tomadas de decisão automatizadas a partir de dados fornecidos por sensores”.

Redes. “As redes atuam como a espinha dorsal que dá vida à IoT e torna tudo isso possível. As redes de quarta geração (4G) das empresas de telecomunicações se espalharam para cobrir mais pessoas com maior desempenho, e as redes 5G estão sendo implantadas rapidamente. Combinado com melhorias em outros protocolos de rede, os clientes têm uma ampla gama de opções de conectividade que podem atender aos seus requisitos, sejam eles associados a capacidade, velocidade, latência ou confiabilidade”

01/12/2022

As poderosas forças que impulsionam o fim da globalização

“Lembro-me de uma época – cerca de um quarto de século atrás – quando o mundo parecia estar se unindo”, escreveu o colunista do NY Times David Brooks em um ensaio recente, Globalization Is Over. As Guerras Culturais Globais Já Começaram. “A grande disputa da Guerra Fria entre o comunismo e o capitalismo parecia ter acabado. A democracia ainda estava se firmando. As nações estavam se tornando mais economicamente interdependentes. A internet parecia pronta para promover as comunicações mundiais. Parecia que haveria uma convergência global em torno de um conjunto de valores universais – liberdade, igualdade, dignidade pessoal, pluralismo, direitos humanos”.

“Chamamos esse processo de convergência de globalização”, acrescentou. “Foi, antes de tudo, um processo econômico e tecnológico – sobre o crescimento do comércio e investimento entre as nações e a disseminação de tecnologias que colocaram, digamos, a Wikipedia ao nosso alcance.”

A década de 1990 marcou o início de uma era de ouro da globalização, quando o mundo parecia realmente estar se unindo. The World is Flat, de Thomas Friedman, tornou-se um best-seller internacional em 2005, explicando bem o que era a globalização, incluindo as principais forças que contribuíram para achatar o mundo, desde o colapso do Muro de Berlim em novembro de 1989 e o IPO da Netscape em agosto de 1995, para a ascensão da terceirização, offshoring e cadeias de suprimentos globais.

Mas, desde a crise financeira global de 2008, a globalização e o comércio global começaram a desacelerar. “A globalização desacelerou da velocidade da luz para o ritmo de um caracol na última década por vários motivos”, escreveu The Economist em um artigo de 2019. “O custo da movimentação de mercadorias parou de cair. As empresas multinacionais descobriram que a expansão global queima dinheiro e que os rivais locais costumam comê-los vivos. A atividade está mudando para serviços, que são mais difíceis de vender além fronteiras: tesouras podem ser exportadas em contêineres, cabeleireiros não.”

Três grandes choques remodelaram ainda mais a globalização nos últimos anos: as crescentes guerras comerciais e tarifas dos últimos cinco anos, especialmente entre os EUA e a China; o impacto perturbador do Covid-19 nas cadeias de suprimentos globais; e, mais recentemente, a guerra na Ucrânia, que ameaça dissociar ainda mais a economia mundial em um bloco comercial ocidental e chinês.

Muitos acreditavam que o fim da Guerra Fria daria início a uma visão de progresso e convergência global. À medida que as nações se desenvolviam em todo o mundo, elas se esforçavam para se tornar mais parecidas com o Ocidente a fim de alcançar seu sucesso econômico. “Infelizmente, essa visão não descreve o mundo em que vivemos hoje”, disse Brooks. “O mundo não está mais convergindo; está divergindo.”

“Olhando para trás, provavelmente colocamos muita ênfase no poder das forças materiais, como a economia e a tecnologia, para conduzir os eventos humanos e nos unir”, acrescentou. “O fato é que o comportamento humano é muitas vezes impulsionado por forças muito mais profundas do que o auto-interesse econômico e político, pelo menos como os racionalistas ocidentais normalmente entendem essas coisas. São essas motivações mais profundas que estão conduzindo os eventos agora – e estão enviando a história para direções totalmente imprevisíveis”.

Deixe-me resumir as forças citadas no ensaio de Brooks.

1. O ser humano precisa ser respeitado e apreciado.

Se as pessoas se sentirem desrespeitadas e desvalorizadas, elas ficarão ressentidas, vingativas, “e responderão com indignação agressiva”. Nas últimas décadas, já vimos importantes motivos de preocupação, especialmente a crescente polarização do emprego e da distribuição de salários, que beneficiou desproporcionalmente os profissionais altamente qualificados e reduziu as oportunidades para os menos qualificados. Isso levou a um aumento da desigualdade econômica e social. As elites urbanas, com acesso à melhor educação, desfrutam de rendas e oportunidades de trabalho significativamente mais altas e passaram a dominar a mídia, as universidades, a cultura e muitas vezes o poder político. Por outro lado, grupos com menos condições, muitas vezes vivendo em comunidades, ou cidades de médio porte e áreas rurais, viram suas rendas e oportunidades de trabalho declinar, ficando para trás e se sentindo menosprezados e ignorados.

“Em país após país, foram surgindo líderes populistas para explorar esses ressentimentos: Donald Trump nos Estados Unidos, Narendra Modi na Índia, Marine Le Pen na França. Enquanto isso, autoritários como Putin e Xi Jinping praticam essa política de ressentimento em escala global. Eles tratam o Ocidente coletivo como as elites globais e declaram sua revolta aberta contra ele”.

2. A maioria das pessoas tem uma forte lealdade ao seu lugar e à sua nação.

“No auge da globalização, organizações multilaterais e corporações globais pareciam estar eclipsando os estados-nação.” Grandes avanços nas tecnologias de comunicação e informação possibilitaram que empresas globais operassem além das fronteiras nacionais em um mundo cada vez mais integrado, enquanto organizações multilaterais como a Organização Mundial do Comércio, a União Européia e o NAFTA visavam reduzir as barreiras ao comércio e investimento globais.

O escopo da governança sempre cresceu juntamente com o tamanho dos problemas a serem resolvidos. Mudanças climáticas, imigração, pandemias globais e outros problemas existenciais do século 21 só podem ser resolvidos de maneira eficaz por meio de uma ação global. Alguns argumentaram que os Estados-nação podem ser condenados ao longo do tempo porque não estão preparados para a ação global necessária. Mas, não funcionou bem dessa maneira.

“Em país após país, surgiram movimentos altamente nacionalistas para insistir na soberania nacional e restaurar o orgulho nacional. Para o inferno com o cosmopolitismo e a convergência global, eles dizem. Vamos tornar nosso próprio país grande novamente à nossa maneira. Muitos globalistas subestimaram completamente o poder do nacionalismo para conduzir a história”.

3. As pessoas são motivadas pelo apego aos seus próprios valores culturais, que defendem ferozmente quando parecem estar sob ataque.

À medida que a cultura ocidental se espalhou pelo mundo por meio de filmes, músicas, sites e mídias sociais, muitos presumiram que os valores da cultura ocidental seriam adotados em todo o mundo. “O problema é que os valores ocidentais não são os valores do mundo. Na verdade, nós, no Ocidente, somos totalmente atípicos culturais” – altamente individualistas, inconformistas e focados em nossas realizações e aspirações, e não em nossos relacionamentos e papéis sociais. “Apesar das suposições da globalização, a cultura mundial não parece estar convergindo e, em alguns casos, parece estar divergindo”, acrescentou Brooks, citando descobertas recentes da World Values Survey:

“As normas relativas ao casamento, família, gênero e orientação sexual mostram mudanças dramáticas, mas praticamente todas as sociedades industriais avançadas estão se movendo na mesma direção, em velocidades semelhantes. Isso trouxe um movimento paralelo, sem convergência. Além disso, enquanto as sociedades economicamente avançadas vêm mudando rapidamente, os países que permaneceram economicamente estagnados apresentaram pouca mudança de valor. Como resultado, tem havido uma divergência crescente entre os valores predominantes em países de baixa renda e países de alta renda”.

4. As pessoas são poderosamente impulsionadas por um desejo de ordem.

De acordo com a Freedom House, uma organização que pesquisa a liberdade política e as liberdades civis em todo o mundo, o número de nações consideradas livres ou parcialmente livres aumentou significativamente após o fim da Guerra Fria. O mundo não parecia estar apenas convergindo econômica e culturalmente, mas também politicamente.

Mas sua última pesquisa mostra um quadro muito diferente: “Em países com democracias estabelecidas há muito tempo, forças internas exploraram as deficiências de seus sistemas, distorcendo a política nacional para promover o ódio, a violência e o poder desenfreado. Os países que lutaram no espaço entre a democracia e o autoritarismo, entretanto, estão cada vez mais inclinados para o último. A ordem global está chegando a um ponto crítico e, se os defensores da democracia não trabalharem juntos para ajudar a garantir a liberdade para todas as pessoas, o modelo autoritário prevalecerá. A presente ameaça à democracia é o produto de 16 anos consecutivos de declínio da liberdade global”.

“Isso não é o que pensávamos que aconteceria na era de ouro da globalização”, observou Brooks. “Hoje, muitas democracias parecem menos estáveis do que antes e muitos regimes autoritários parecem mais estáveis. A democracia americana, por exemplo, deslizou para a polarização e a disfunção. Enquanto isso, a China mostrou que nações altamente centralizadas podem ser tão avançadas tecnologicamente quanto o Ocidente”.

“Perdi a confiança em nossa capacidade de prever para onde a história está indo e na ideia de que, à medida que as nações se modernizam, elas se desenvolvem ao longo de uma linha previsível”, escreveu Brooks em conclusão. “Acho que é hora de abrir nossas mentes para a possibilidade de que o futuro pode ser muito diferente de tudo o que esperávamos. Mas tenho fé nas ideias e nos sistemas morais que herdamos. O que chamamos de Ocidente não é uma designação étnica ou um clube de campo elitista; … é uma conquista moral e, ao contrário de seus rivais, aspira a estender dignidade, direitos humanos e autodeterminação a todos. Vale a pena reformar, trabalhar, defender e compartilhar nas próximas décadas”.

06/11/2022

O que é computação de borda e por que precisamos dela?

Estamos vivendo na era do “mais forte, melhor, mais rápido”, onde cada software ou tecnologia passa por constantes atualizações e melhorias para ampliar seu escopo de atuação. O advento da computação em nuvem revolucionou a maneira como lidamos e processamos dados, pois nos deu uma plataforma quase infinita para armazenar dados e poder computacional. Mas a banda larga, o armazenamento e velocidade de nossa estrada tecnológica está se tornando confusa e obstruída, pois há muitos veículos de dados compartilhando os mesmos fluxos. O aumento extraordinário de dispositivos conectados à Internet (a IoT) e o desenvolvimento de aplicativos que exigem poder de processamento em tempo real é a principal causa do congestionamento. Isso está levando a velocidades lentas e atrasos, o que está se tornando cada vez mais irritante para alguns e prejudicial para outros.

Então, como os especialistas de dados em todo o mundo estão tentando resolver esse problema? A resposta está na computação de borda.
Afinal, o que é computação de borda?

A computação de borda é um paradigma relativamente novo que visa aproximar a computação e o armazenamento de dados da fonte de onde os dados estão sendo coletados e usados. Isso é útil porque evita a necessidade de os dispositivos dependerem de fontes de dados centralizadas (nuvens) situadas a milhares de quilômetros de distância, causando problemas de latência e desempenho decorrentes de largura de banda de rede lenta ou baixa.

Em termos mais simples, a computação de borda significa executar menos processos na nuvem e mover esses processos para outros locais e liberar espaço em nossa estrada de banda larga global. Ao aproximar a computação da “borda” da rede, reduz a quantidade de comunicação de longa distância necessária entre usuários e provedores de serviços. Ele ajuda o processamento de dados em tempo real a ter o melhor desempenho sem sofrer problemas de latência.
Qual é a borda da rede?

Este é o local onde um dispositivo de rede, ou uma rede que contém dispositivos, se conecta e se comunica com a Internet. Ao contrário dos servidores e da nuvem que estão geograficamente distantes, a borda da rede está localizada muito próxima da fonte de dados. Por exemplo, seu computador ou um processador de um dispositivo IoT são considerados a borda da rede.
Um exemplo de computação de borda

Antes da computação de borda, o software de reconhecimento facial em seu smartphone (e todos os processos em que seu telefone tira uma foto do seu rosto e correlaciona os vários pontos nodais em seu rosto para fazer uma correspondência positiva) enviava os dados para a nuvem para processamento.

As informações são enviadas do seu telefone a milhares de quilômetros de distância para a rede de nuvem centralizada, que é processada e, em seguida, os dados atualizados são devolvidos ao seu dispositivo. Isso consome muita banda, para um aplicativo, e pense em quantas vezes isso é feito por quantas pessoas globalmente a cada hora. Isso é um monte de dados causando congestionamento de tráfego e consumindo banda. A computação de borda permite que a maior parte desse processo seja tratada no dispositivo ou muito próximo dele, consolidando os dados e o processamento computacional, enquanto apenas os dados relevantes são enviados para a nuvem. Isso acelera os processos e libera a banda para outros usos.

Vamos ver isso com um pouco mais de detalhes…
Internet das Coisas (IoT)

Parece que todos os dispositivos com os quais entramos em contato hoje em dia estão se tornando mais inteligentes, melhores e mais rápidos. Geladeiras e torradeiras agora podem se conectar à internet e realizar funções muito mais elaboradas do que simplesmente manter produtos perecíveis frescos e seu pão torrado. Os dispositivos IoT se conectam à Internet para receber ou para entregar informações à nuvem. Alguns desses dispositivos criam grandes quantidades de dados durante sua vida útil, o que aumenta o congestionamento da largura de banda global. Isso desenvolveu a necessidade de mover dados e processamento computacional para longe da nuvem e mais perto do próprio dispositivo, na tentativa de não depender tanto da largura de banda.
5G

O mundo está ansioso pela chegada do 5G e a espera já está acabando. A tecnologia de rede ultrarrápida do 5G promete permitir que os sistemas de computação de borda acelerem as coisas para demandas em tempo real, como processamento e análise de vídeo, robótica, inteligência artificial e até carros autônomos. O 5G permitirá que a computação de borda tenha um desempenho mais rápido e sem problemas de latência, pois os dados cada vez mais sofisticados e os processos de informações podem ser tratados na borda da rede, em vez da nuvem. Isso, combinado com tecnologias como IA, reconhecimento facial, aprendizado de máquina e carros autônomos, a banda larga terá uma tecnologia muito mais sofisticada, contando com recursos de rede e processamento autônomos. O objetivo é mover a maioria dos dispositivos prontos para a Internet para a borda da rede para manter a banda larga global reservada para processos maiores.
Custo-beneficio

Todo negócio tem um conceito central – ganhar dinheiro enquanto reduz custos. Os custos da banda larga podem ser debilitantes para empresas que utilizam a nuvem para aplicativos de grande escala. A computação de borda permite que as empresas economizem dinheiro fazendo o processamento de dados localmente, o que reduz a quantidade de dados que precisam ser processados em um local centralizado ou baseado em nuvem. Isso resulta em uma diminuição na necessidade de recursos de servidor e nos múltiplos custos que o acompanham.
Por que precisamos de computação de borda?

A principal vantagem da computação de borda é que ela ajuda a reduzir o uso da banda larga e minimiza os recursos do servidor, o que economiza tempo e dinheiro. A produção e o uso de dispositivos inteligentes IoT aumentarão exponencialmente nos próximos anos. Para dar suporte a esses dispositivos, uma quantidade significativa de computação terá que ser movida para a borda da rede.

Também precisamos reservar direitos de banda larga para tecnologias futuras que serão avançadas demais para operar na borda da rede, mas terão que utilizar de banda larga global e de nuvens para operar, pelo menos inicialmente. Processos menores, como os requisitos de dispositivos inteligentes e IoT, podem ocupar o espaço de computação de borda por enquanto e deixar algumas pistas livres de banda larga, fluindo livremente para os requisitos técnicos do futuro.
Vivendo na borda

Apesar de todos os seus benefícios óbvios e pretendidos, a computação de borda tem seu próprio conjunto de desvantagens. Quando se trata de privacidade e segurança, a natureza da computação de borda se abre para a ameaça de ataques cibernéticos de players mal-intencionados. Os dados na borda podem causar alguns problemas, pois podem ser manipulados por vários dispositivos que não são tão seguros quanto um sistema centralizado ou baseado em nuvem. Os fabricantes de IoT precisam estar cientes das preocupações de segurança de seus dispositivos e garantir que cada um tenha a capacidade de proteger os dados com segurança, incluindo criptografias e processos corretos de controle de acesso.

O Hardware mais aprimorado em cada dispositivo IoT é o caminho natural da computação de borda. Para que a computação de borda acompanhe as demandas de novas tecnologias (como processamento de vídeo), os dispositivos inteligentes exigirão hardware mais sofisticado para utilizar os benefícios da computação de borda.

O crescimento de dispositivos IoT e software de aplicativos em tempo real que exigem processamento e armazenamento local continuará a impulsionar a computação de borda no futuro. E como vivemos em uma era em que exigimos que nossa tecnologia seja continuamente mais forte, melhor e mais rápida, essa mentalidade de visão de futuro nos forçou a encontrar novas maneiras de definir eficiência. — A computação de borda é uma maneira infalível de acompanhar a velocidade de nossas inovações.

30/10/2022

A IA aberta e o ecossistema de dados

“A disponibilidade de software Open Source (OSS) de nível empresarial está mudando a forma como as organizações desenvolvem, mantêm e entregam produtos”, escreveu Ibrahim Haddad no relatório, Artificial Intelligence and Data in Open Source. Haddad é vice-presidente de programas estratégicos da Linux Foundation (LF) e diretor executivo da iniciativa LF AI & Data. “Adotar e usar OSS pode oferecer muitos benefícios, incluindo custos de desenvolvimento reduzidos, desenvolvimento mais rápido de produtos, padrões de qualidade de código e muito mais. A metodologia Open Source Software oferece benefícios importantes e exclusivos para os domínios de IA e dados, especificamente em áreas de justiça, robustez, explicabilidade, linhagem, disponibilidade de dados e governança.”

No início deste ano, Stanford divulgou o relatório 2022 AI Index, seu quinto estudo anual sobre o impacto e o progresso da IA. O relatório de Stanford observa que “2021 foi o ano em que a IA passou de uma tecnologia emergente para uma tecnologia madura – não estamos mais lidando com uma parte especulativa da pesquisa científica, mas com algo que tem impacto no mundo real, tanto positivo quanto negativo.”

Algumas semanas atrás eu escrevi sobre o escopo da Linux Foundation. O LF suporta um grande e crescente número de projetos Open Source em uma ampla variedade de áreas. A IA não é diferente de outros domínios de tecnologia, portanto, não é de surpreender que o Open Source Software agora desempenhe um papel importante, pois a IA está sendo cada vez mais integrada à economia.

“O ecossistema de dados e IA Open Source apresenta várias oportunidades para P&D, startups e inovações”, disse Haddad. “A infusão de IA em produtos e serviços criou oportunidades para melhorar a vida das pessoas em todo o mundo. Ele também levantou preocupações sobre a justiça, explicabilidade e segurança desses aplicativos e sistemas. Várias iniciativas nacionais e globais estão trabalhando para lidar com essas preocupações. A LF AI & Data e suas organizações membros consideram a IA confiável e responsável como um domínio crítico e como um grupo global que trabalha em políticas, diretrizes e casos de uso para garantir o desenvolvimento de sistemas e processos de IA confiáveis.”

O relatório se concentrou em seis áreas de IA e dados onde as metodologias de código aberto podem trazer benefícios exclusivos:Justiça. “Métodos para detectar e mitigar viés em conjuntos de dados e modelos, por exemplo, preconceito contra populações protegidas conhecidas”;
Robustez. “Métodos para detectar alterações e adulterações em conjuntos de dados e modelos, por exemplo, modificações de ataques adversários conhecidos”;

Explicabilidade. “Métodos para melhorar a capacidade da persona ou da função de entender e interpretar resultados, decisões e recomendações do modelo de IA, por exemplo, classificação e debate de resultados e opções”;

Linhagem. “Métodos para garantir a proveniência de conjuntos de dados e modelos de IA, por exemplo, reprodutibilidade de conjuntos de dados gerados e modelos de IA”;

Dados. “As licenças específicas de dados de código aberto tornam os dados livremente acessíveis para uso sem mecanismos de controle”; e

Governança. “Uma estrutura de governança e ferramentas para limpar, classificar, marcar, rastrear e controlar dados e conjuntos de dados.”

Deixe-me discutir brevemente três dessas áreas: justiça, explicabilidade e dados.

Justiça. Uma grande descoberta do Relatório de Índice de IA de 2022 foi que, embora grandes modelos de linguagem como GPT-3 e BERT estejam estabelecendo novos recordes em benchmarks técnicos, eles também são mais propensos a refletir os vieses que podem ter sido incluídos em seus dados de treinamento, incluindo racistas, sexistas, extremistas e outras linguagens nocivas, bem como padrões de linguagem abertamente abusivos e ideologias nocivas. É por isso que métodos para reduzir preconceitos e comportamentos abusivos são tão importantes.

O AI Fairness 360, por exemplo, é um kit de ferramentas de código aberto para ajudar a examinar, relatar e mitigar a discriminação e o preconceito em modelos de aprendizado de máquina em todo o ciclo de vida do aplicativo de IA. “O pacote AI Fairness 360 Python inclui um conjunto abrangente de métricas para conjuntos de dados e modelos para testar vieses, explicações para essas métricas e algoritmos para mitigar o viés em conjuntos de dados e modelos. A demonstração interativa do AI Fairness 360 fornece uma introdução suave aos conceitos e recursos. Os tutoriais e outros notebooks oferecem uma introdução mais profunda e orientada para os cientistas de dados.”

Explicabilidade. Apesar de sua ampla adoção, os modelos de ML permanecem principalmente caixas pretas. Os métodos por trás de uma previsão de ML – ajustes sutis nos pesos numéricos que interligam seu grande número de neurônios artificiais – são muito difíceis de explicar porque são muito diferentes dos métodos usados por humanos. Quanto maior o conjunto de dados de treinamento, mais precisa a previsão, mas mais difícil será fornecer uma explicação detalhada e compreensível para um humano de como a previsão foi feita. Compreender as razões por trás das previsões é muito importante para avaliar se deve-se confiar em um modelo de ML, o que é fundamental se alguém planeja realizar ações importantes com base na previsão, como um diagnóstico médico ou uma decisão judicial.

O AI Explanability 360 é uma biblioteca de código aberto que oferece suporte à interpretabilidade e explicabilidade de conjuntos de dados e modelos de aprendizado de máquina em todo o ciclo de vida do aplicativo de IA. “A demonstração interativa do AI Explainability 360 fornece uma introdução suave aos conceitos e recursos, percorrendo um exemplo de caso de uso da perspectiva de diferentes personas do consumidor. Os tutoriais e outros notebooks oferecem uma introdução mais profunda e orientada para os cientistas de dados.”

Dados. “Estamos todos familiarizados com a expressão, lixo dentro, lixo fora, referindo-se à importância de inserir bons dados para obter informações valiosas. Com a digitalização global e a transformação de indústrias e economias, os dados se tornaram bastante abundantes; o desafio mudou da localização de dados para a seleção de dados de qualidade, mineração eficiente dos dados para insights acionáveis e conversão eficaz desses insights em valor comercial. A comunidade LF AI & Data reconhece a importância dos dados e está interessada em hospedar e apoiar projetos-chave que abrangem linhagem de dados, formato, armazenamento, operações, engenharia de recursos, governança, processamento de fluxo e gerenciamento de pipeline.”

As comunidades de software de código aberto mostraram o poder da colaboração aberta para a construção de algumas das infraestruturas mais importantes do mundo. As comunidades de IA também procuram construir conjuntos de dados abertos de forma colaborativa que podem ser compartilhados. Isso é particularmente importante devido à enorme quantidade de dados de treinamento necessários para novos avanços de IA de ponta, como modelos de base. No entanto, a propriedade intelectual de dados geralmente é tratada de maneira diferente do que a propriedade intelectual de software. Como resultado, as licenças de software Open Source não podem ser aplicadas prontamente aos dados.

Um dos projetos de IA e dados mais importantes é o Community Data License Agreement (CDLA). CDLA é uma estrutura legal para o desenvolvimento de contratos de licença para permitir o acesso, compartilhamento e uso de dados abertamente entre indivíduos e organizações. O CDLA-Permissive-2.0, por exemplo, é “um contrato de licença curto, facilmente compreensível para cientistas de dados e advogados, para permitir que os destinatários usem, analisem, modifiquem e compartilhem dados amplamente. … Os conjuntos de dados proprietários continuarão a existir, mas a disponibilidade de dados sob as licenças CDLA (existem duas versões) deve permitir que todos criem produtos confiáveis, incluindo players menores.”

“O código aberto já ganhou em IA e dados”, escreveu Haddad em conclusão. “Somos muito mais inovadores em colaboração do que isoladamente. Evidente pelos dados disponíveis para nós hoje, o código aberto como metodologia e prática alimentou nossos enormes avanços em IA. Estamos passando agora pelo processo de IA de código aberto dominando o mundo do software. Essa situação é o novo normal. Vamos celebrá-lo e continuar nossa busca por avanços tecnológicos de maneira justa, transparente e ética”.

16/10/2022

Projetos disruptivos – Decisões ousadas

O Predictions 21, um evento online organizado pela Forrester Research apontou que “Diante da pandemia, as empresas fizeram coisas que antes pareciam impossíveis – às vezes da noite para o dia”, disse a Forrester, acrescentando que “2021 foi o ano em que todas as empresas – não apenas os 15% das empresas que já eram digitalmente experientes – dobram em experiências, operações, produtos e ecossistemas alimentados por tecnologia”

Já o Predictions 22 me deixou particularmente curioso para ver como as coisas mudaram de um ano para outro. “Projetos disruptivos – decisões ousadas” foi a mensagem principal do guia do evento deste ano. “As velhas formas de trabalhar não funcionam mais. O futuro está em jogo. As empresas líderes usarão seus casos de uso de 2020 e 2021 para traçar um caminho para um amanhã ágil, criativo e resiliente”.

Deixe-me resumir algumas das principais previsões da Forrester em três áreas: tecnologia, experiência do cliente e tendências do setor.

Tecnologia

Computação em Nuvem. Em 2020, a Forrester previu que a mudança para a nuvem aumentaria em 2021, gerando maior adoção corporativa e acelerando a transformação da TI corporativa tradicional, ao mesmo tempo em que aumentava as receitas dos provedores de nuvem. Este ano: “Veremos uma mudança para o desenvolvimento de aplicativos modernos e nuvens específicas do setor, mesmo que as tensões geopolíticas reformulem o mercado de provedores de serviços de nuvem (CSP) em todo o mundo. … Tendo visto os hiperescaladores derrubarem indústrias inteiras – talvez incluindo as suas próprias – as empresas vão acelerar sua mudança para aplicativos em escala de nuvem para enfrentar seus desafios competitivos.”

Especificamente, a Forrester prevê que a nuvem está passando por uma transição de infraestruturas genéricas e intercambiáveis para nuvens focadas no setor, especialmente para setores altamente regulamentados, como serviços financeiros, saúde e governo, onde a segurança é fundamental. “Para os compradores de nuvem, o diferencial não será mais qual hiperescalador tem mais serviços, mas qual entrega conformidade, permitindo que os desenvolvedores de aplicativos façam seu trabalho mais rápido e melhor em sua vertical específica.”

Além disso, veremos o surgimento do nacionalismo da nuvem, com as nações intervindo sobre onde e como os provedores de nuvem podem operar. “Reguladores e funcionários do governo em Washington e Pequim estão pressionando suas respectivas grandes empresas de tecnologia para se alinharem com uma competição EUA-China por influência global, econômica e política”.

Inteligência artificial. “Especialmente quando se trata de inovação em IA, havia muitos conjuntos de grandes ondas para aproveitar este ano, como os avanços em visão computacional, IA de ponta e codificação de software orientada por IA. Essas ondas continuarão a abalar os conselhos daqueles que tentam adotar a IA”. Espera-se que 2022 traga grandes ondas em IA incorporada, responsável e criativa.IA incorporada: 20% das organizações adotarão a IA interna, ou seja, a IA incorporada em tudo, desde a arquitetura até as operações. Uma abordagem interna de IA deve ajudar as empresas a reduzir a latência entre insights, decisões e resultados.

IA responsável: “Algumas indústrias regulamentadas começaram a adotar soluções de IA responsáveis que ajudam as empresas a transformar princípios de IA, como justiça e transparência, em práticas consistentes”. Essas soluções provavelmente serão estendidas a outros setores que usam IA para decisões críticas de negócios.

IA criativa: Até recentemente, apenas humanos podiam receber patentes, mas isso está começando a mudar. Espera-se que as inovações e produtos criados por sistemas de IA comecem a ganhar dezenas de patentes. Esse reconhecimento legal incentivará o desenvolvimento de sistemas criativos de IA.

Automação. “A pandemia COVID-19, embora esteja diminuindo, mudou permanentemente o curso dos negócios para muitas empresas e indústrias. Entre essas mudanças, forçou as empresas a adotar programas de automação mais sofisticados que têm a capacidade de reorganizar as prioridades, usando as análises mais recentes”.

A Forrester prevê que 35% das empresas começarão a introduzir robôs físicos para suprir a crescente escassez de trabalhadores em serviços de saúde, preparação de alimentos, empregos em armazéns, manutenção de terrenos, vigilância, apoio de zeladoria e outros empregos com baixos salários e difíceis condições de trabalho. Ao mesmo tempo, espera-se que 5% das empresas da Fortune 500 dependam de programas avançados de automação para estimular inovações extremas. Para fazer isso, as empresas devem desenvolver uma força de trabalho híbrida de trabalhadores humanos e digitais e definir uma malha de automação que vincule componentes de automação tradicionais e baseados em IA.

Experiência do consumidor

Os consumidores, “depois de anos vivendo diante da incerteza, estão cautelosos com seus gastos e acostumados a constantemente redefinir suas expectativas e adaptar seus padrões de atividade. … O medo persistente em torno da saúde física e financeira, juntamente com o otimismo moderado para uma recuperação pós-pandemia, obrigará os consumidores a encontrar marcas, produtos e experiências que proporcionem uma sensação imediata – mesmo que temporária – de felicidade, conforto e alívio.”

Cerca de 80% dos consumidores verão o mundo como totalmente digital, sem divisões. “Desde o início do COVID-19, 49% do Reino Unido e mais de 60% dos adultos online dos EUA começaram a fazer transações online pela primeira vez; 35% dos consumidores do Reino Unido e 44% dos EUA atualizaram sua tecnologia doméstica. Alguns tipos de consumidores, que antes eram considerados relutantes digitais, mudaram seu comportamentos online, que adquiriram durante a pandemia”. No geral, os consumidores têm grandes expectativas de que as experiências digitais funcionem bem. 60% dos consumidores dos EUA e do Reino Unido esperam que, as empresas já devem ter aprendido a lidar com problemas relacionados à pandemia e estar melhor preparadas para uma futura emergência de saúde pública.

Expectativas da Força de Trabalho. Os trabalhadores estão emergindo dos anos turbulentos da pandemia em um estado de espírito diferente. Como se imagina, que o pior da pandemia tenha ficado para trás, os executivos precisam se preparar “para desafios emergentes de experiência do funcionário (EX – Employee eXperience). … E, olhando ao redor, eles veem evidências sugerindo que podem pedir e receber as coisas razoáveis que desejam.”

As empresas têm muitas decisões a tomar, incluindo onde e quando as pessoas podem trabalhar e quais ferramentas devem estar disponíveis. 48% das grandes organizações dos EUA têm programas EX dedicados, um número que deve subir para 65%, já que as taxas mensais chegam a 2%.

Tendências do setor

Varejo. “A pandemia continua a moldar como varejistas e marcas criam estratégias para expandir seus negócios. 2022 está sendo um ano de investimentos e novas parcerias, à medida que os varejistas posicionam seu modelo de negócios, estratégia, marketing, lojas e operações para crescer em um mundo pós-pandemia.”

A Forrester prevê um crescimento e investimentos significativos na chamada economia circular, ou seja, uma economia em que os produtos devem ser compartilhados, alugados, reutilizados, reparados, reformados e reciclados o máximo possível, ao contrário da economia linear clássica onde antes eram usados, os produtos estão destinados a se tornarem resíduos. “Os consumidores gostam de comprar produtos de segunda mão porque são únicos e mais baratos – e pela diversão de encontrar uma pechincha ou um item especial. Para varejistas e marcas, faz sentido tanto para o planeta quanto para os negócios: 60% dos adultos online na França, 49% no Reino Unido e 41% nos EUA preferem comprar produtos ambientalmente sustentáveis.”

Além disso, as devoluções se tornarão uma grande diferenciação competitiva no setor de varejo. Os consumidores on-line temem que as devoluções influenciem suas escolhas e muitas vezes os desencorajam a fazer compras on-line. Cerca de 60% dos adultos nos EUA, Reino Unido e França preferem fazer negócios com varejistas on-line que oferecem frete de devolução gratuito e 40% também preferem varejistas que fornecem reembolsos pela forma de pagamento original.

Bancos. Para competir e sobreviver em um mundo pós-pandemia cada vez mais imprevisível, os bancos investirão pesadamente em tecnologia, talento e novos modelos de negócios, enquanto aceleram sua transformação digital de ponta a ponta.

A Forrester prevê que 2022 será o ano em que as finanças abertas e incorporadas começarão a remodelar os serviços financeiros, com um número crescente de bancos experimentando e evoluindo seus modelos de negócios para abordagens mais abertas e colaborativas. “Enquanto alguns bancos tentarão participar da corrida para construir o próximo superaplicativo de estilo de vida do mundo, outros aproveitarão sua conectividade de banco aberto e concentrarão seus esforços na entrega de recursos selecionados como serviço.”

“Em tempos de crise, todas as decisões contam”, conclui a Forrester. “Em 2022, o novo normal será mais novo do que o normal. Criatividade, resiliência e agilidade alimentadas por uma forte compreensão do cliente e investimento em tecnologia inteligente separarão líderes e retardatários, independentemente do setor”.

08/10/2022

Web3 – Protegendo identidade e dados pessoais no mundo digital


As tecnologias transformadoras geralmente são acompanhadas por uma mistura de excitação e confusão em seus primeiros anos. Mas algo importante está acontecendo, embora ainda não haja consenso sobre o que é. Uma das principais razões para a falta de consenso é que não há uma dimensão única em torno da qual definir uma tecnologia emergente ou modelo de negócios. É como a fábula dos cegos e do elefante. Cada um toca uma parte diferente do elefante. Eles então comparam notas sobre o que sentiram e descobrem que estão em completo desacordo. Isso foi o que aconteceu com a internet.
Muita coisa estava começando a acontecer na internet, mas não tínhamos certeza para onde as coisas estavam indo. Estava bem claro que uma revolução nas comunicações estava em andamento: afinal, a internet era fundamentalmente uma rede de redes, e o e-mail era uma de suas primeiras e mais populares aplicações. Foi também uma revolução da informação: qualquer pessoa com um navegador, um PC e uma conexão com a internet agora poderia acessar todos os tipos de conteúdo na nova World Wide Web. E, acima de tudo, ela prometia ser uma revolução econômica: a internet inaugurou uma transição histórica para um novo tipo de economia digital, incluindo muitas aplicações de e-business.

Nas últimas décadas, o termo internet passou a abranger uma série de tecnologias relacionadas, incluindo redes de banda larga, dispositivos móveis, mídias sociais, computação em nuvem, plataformas de comércio eletrônico, big data, IA e muito mais. Mais recentemente, vimos o surgimento de um novo conjunto de tecnologias e modelos de negócios que mais uma vez estão gerando entusiasmo, confusão e várias opiniões sobre o que são: a Web3.

Há alguns dias, escrevi sobre web3, fazendo referência a dois livros recentes: o recém-publicado Digital Asset Revolution de Alex Tapscott e o Think Blockchain de Jerry Cuomo.

Escrevi que a web3 visa inaugurar uma internet mais aberta e empreendedora e uma economia digital, substituindo as megaplataformas corporativas de hoje por redes descentralizadas baseadas em blockchain. A Web3 daria assim aos criadores, desenvolvedores e usuários uma maneira de monetizar suas contribuições, envolvendo-os em governança e na tomada de decisões das plataformas que suportam seu trabalho e dando aos indivíduos mais privacidade e controle sobre seus dados.

Como este tema é extenso, agora quero discutir outra perspectiva sobre a web3 baseada em The Emerging New Economy: Causes and Consequences of Web 3.0, um recente seminário de Stanford de Alex (Sandy) Pentland, professor do MIT e diretor do corpo docente da iniciativa MIT Connection Science Research.

No seminário, Pentland citou vários projetos relacionados à web3 nos quais seu grupo de pesquisa esteve envolvido nos últimos anos. Gostaria de focar minha discussão em dois projetos-chave, interligados: proteger a identidade digital de um indivíduo e proteger seus dados pessoais.

A identidade desempenha um papel importante na vida cotidiana. Pense em entrar em um site, fazer uma compra online ou pegar um avião. Conforme explicado em A Blueprint for Digital Identity, um relatório do Fórum Econômico Mundial (WEF), a identidade é essencialmente uma coleção de atributos de dados associados a um indivíduo, permitindo que ele participe de transações específicas, provando que possui os atributos necessários para fazer assim. Os atributos de identidade se enquadram principalmente em três categorias principais: inerentes, – por exemplo, altura, idade, data de nascimento, biometria; acumulado, – histórico de trabalho, registros de saúde, endereços residenciais, educação; e atribuídos, – por exemplo, IDs de e-mail, números de telefone, previdência social, carteira de motorista, passaporte.

“No paradigma da Web 2, terceiros como bancos, empresas de mídia social e conglomerados digitais nos dão nossas identidades e nos permitem acessar seus serviços”, escreveu Tapscott em Digital Asset Revolution. A barganha faustiana da Web 2 foi entregar nossos próprios dados a esses intermediários (por meio de seus termos de uso e serviço). Demos a eles o direito de usar nossos dados para seu próprio benefício e eles minaram nossa privacidade no processo. Nós nunca conseguimos possuir nossa identidade. Em vez disso, simplesmente alugamos nos jardins murados.”

A identidade auto-soberana dá aos indivíduos controle sobre sua identidade digital, – um dos objetivos mais importantes do paradigma web3. “O logon único anônimo permitirá um nome de usuário e método de autenticação em todos os sites e contas, em vez de logins individuais para cada site”, escreveu Cuomo no Think Blockchain. “Esse login não exigiria que você abandonasse o controle de dados pessoais confidenciais.” Com carteiras web3 apoiadas pelo tipo apropriado de rede blockchain, os usuários sempre mantêm o controle de suas informações de identidade pessoal (PII) e credenciais de login.

No entanto, os vários atributos de dados necessários para estabelecer uma identidade digital auto-soberana são isolados em diferentes instituições do setor público e privado. Essas instituições não vão querer ceder seus dados por uma série de razões competitivas e legais. Assim, para atingir o nível de privacidade e segurança previsto em um framework web3, é necessário estabelecer um ecossistema federado de instituições que possam acessar os atributos necessários para validar uma identidade preservando a privacidade dos dados. Quanto mais fontes de dados esse ecossistema tiver acesso, maior será a probabilidade de detectar fraudes e roubo de identidade, reduzindo os falsos positivos.

O Open Algorithms (OPAL) é uma estrutura de governança para validar identidades desenvolvida por Pentland e seus alunos e colaboradores. O OPAL permite que as instituições em um ecossistema federado executem cálculos em conjunto nos dados, mantendo os dados completamente privados. A estrutura OPAL é descrita em Open Algorithms for Identity Federation, um artigo de 2017 da Pentland e do CTO da Connection Science, Thomas Hardjono.

“O problema de identidade hoje é um problema de compartilhamento de dados”, escreveram os autores. “Hoje, a abordagem de atributos fixos adotada pelo setor de gerenciamento de identidade do consumidor fornece apenas informações limitadas sobre um indivíduo e, portanto, tem valor limitado para os provedores de serviços e outros participantes do ecossistema de identidade. Este artigo propõe o uso do paradigma Open Algorithms (OPAL) para atender à crescente necessidade de indivíduos e organizações compartilharem dados de maneira preservadora de privacidade. Em vez de trocar atributos estáticos ou fixos, os participantes do ecossistema poderão obter melhores insights por meio de um compartilhamento coletivo de algoritmos, governados por uma rede de confiança. Algoritmos para conjuntos de dados específicos devem ser examinados para preservar a privacidade, ser justos e livres de viés.”

OPAL é o tipo de inovação técnica e de governança necessária para desenvolver uma estrutura web3 confiável e baseia-se em vários princípios fundamentais, incluindo:Mover o algoritmo para os dados. Em vez de coletar dados brutos em um local central para processamento, os algoritmos ou consultas devem ser enviados aos repositórios e processá-los lá.
Arquitetura de dados descentralizada. Os dados brutos devem sempre permanecer em seu repositório permanente sob o controle dos proprietários do repositório. Somente os resultados da aplicação do algoritmo ou da consulta aos dados são retornados.
Algoritmos abertos e verificados. Os algoritmos devem ser publicados abertamente, aceitos e examinados por especialistas para evitar violações de privacidade, preconceitos e outras consequências não intencionais.

Consentimento do sujeito. Os repositórios de dados devem obter o consentimento explícito dos titulares cujos dados detêm para a execução de um algoritmo contra os seus dados; os algoritmos verificados devem ser disponibilizados e compreensíveis para os sujeitos.
Federação de dados. Em um ecossistema de rede de confiança baseado em grupo, os algoritmos devem ser avaliados coletivamente por todos os membros do ecossistema; cada membro deve observar os princípios e marcos legais da OPAL. Os dados estão sempre em um estado criptografado. Os dados devem ser criptografados enquanto armazenados, transmitidos e quando algoritmos são aplicados a eles.
Transparência e conformidade regulatória. Todas as solicitações e respostas devem ser armazenadas em um blockchain público para fornecer um log de eventos compartilhado e imutável que permite a auditoria de todas as interações, bem como prova de conformidade regulatória.

“O paradigma OPAL oferece um caminho possível para a indústria e o governo começarem a abordar as questões centrais em torno do compartilhamento de dados preservando a privacidade”, observaram Hardjono e Pentland. “Alguns desses desafios incluem dados em silos, o tipo/domínio limitado de dados e a situação proibitiva de compartilhamento de dados brutos entre organizações. Em vez de compartilhar atributos fixos em relação a um usuário ou assunto, o paradigma OPAL oferece uma maneira para Provedores de Identidade, Partes Confiáveis e Provedores de Dados compartilharem algoritmos verificados. Isso, por sua vez, fornece uma melhor visão do comportamento do usuário, com seu consentimento”.

“Também permite o desenvolvimento de um ecossistema de rede de confiança composto por essas entidades, fornecendo novas fontes de receita, regidas por acordos e contratos legais relevantes que formam a base para uma estrutura de confiança legal de compartilhamento de informações. Finalmente, um novo conjunto de regras legais e regras específicas do sistema devem ser concebidos que devem articular claramente a combinação necessária de padrões e sistemas técnicos, processos e procedimentos de negócios e regras legais que, em conjunto, estabeleçam um sistema confiável para compartilhamento de informações em uma federação baseada no modelo OPAL.”

04/10/2022

O potencial impacto da Web3 na Internet e na economia digital

Algumas semanas atrás, o Blockchain Research Institute (BRI) anunciou que sua conferência global anual seria renomeada para Web3 Blockchain World e que o Enterprise Blockchain Awards agora seria chamado de Web3 & Blockchain Transformation Awards.

Acompanho o BRI e suas evoluções há vários anos. Essas mudanças preocupam um pouco a comunidade, pois, como geralmente acontece com as novas tecnologias em seus estágios iniciais, existem várias visões do que é a web3. Os críticos veem a web3 como pouco mais do que hype, um esforço de rebranding para eliminar parte da bagagem cultural e política da criptomoeda, enquanto os defensores acreditam que a web3 representa o futuro da internet, derrubando suas vertentes tradicionais e inaugurando uma economia digital livre de intermediários.

Um dos fundadores do BRI, Don Tapscott, comentou que o BRI deveria adotar a web3 em suas pesquisas e eventos. Li recentemente o Think Blockchain, um livro do IBM Fellow e VP da Blockchain Technologies, Jerry Cuomo, e o livro recém publicado, que fala sobre a Nova Internet de Valor na Revolução de Ativos Digitais, um livro do cofundador do BRI, Alex Tapscott e eu olhei para uma série de artigos de apoiadores e críticos da web3.

No final, fiquei convencido de que a web3 é agora onde a internet comercial estava no início dos anos 1990, a computação em nuvem no final dos anos 2000 e o blockchain em meados dos anos 2010: um conjunto muito promissor de tecnologias e aplicativos em seus primeiros anos. Embora, nesta fase, ainda não esteja claro como ela evoluirá, é hora de começar a prestar muita atenção à web3 e tentar influenciar seus rumos.

O impacto potencial de uma web3 baseada em blockchain, acontecerá porque a blockchain desempenhará um papel importante na evolução da internet. “A Web3 tentará substituir a confiança e as boas intenções por uma rede baseada em blockchain, onde transparência e irrevogabilidade são incorporadas à tecnologia”.

O que quer a web3?

Uma boa maneira de entender o web3 é compará-la com web1 e web2.

A Web1 refere-se à internet original dos anos 1990 e início dos anos 2000, onde a grande maioria dos usuários eram consumidores, não produtores de conteúdo. A Web1 inaugurou um alto grau de inovação à medida que startups e empresas estabelecidas experimentaram novos modelos de negócios – alguns, bem-sucedidos e outros não.

A Web2, que surgiu no início dos anos 2000, tornou mais fácil para os usuários se conectarem, interagirem e fazerem transações on-line, e lhes deu a capacidade de criar e publicar seu próprio conteúdo em sites pessoais, blogs e plataformas de mídia social como Facebook, Twitter e Youtube. Com o tempo, a internet baseada na web2 tornou-se dominada por um pequeno número de empresas superstars globais que capturaram a maior parte de seu valor monetário.

A Web3 visa substituir as megaplataformas corporativas de hoje por redes descentralizadas baseadas em blockchain que combinam a infraestrutura aberta da web1 com a participação pública da web2 e, assim, lideram o caminho para uma internet mais aberta e empreendedora e uma economia digital. Os apoiadores acreditam que a web3 dará aos criadores, desenvolvedores e usuários uma maneira de monetizar suas contribuições; que os envolverá na governança e na tomada de decisões das plataformas que apoiam seu trabalho; e que dará aos indivíduos mais privacidade e controle sobre seus dados, sendo menos dependentes de modelos de negócios baseados em publicidade e anúncios direcionados.

“A teoria é que em um mundo Web3, atividades e dados confidenciais seriam hospedados em uma rede de computadores usando blockchain em vez de servidores corporativos”, escreveu Cuomo no Think Blockchain. “A internet provavelmente teria a mesma aparência, pelo menos inicialmente, mas suas atividades na internet seriam representadas por sua carteira de criptomoedas e sites hospedados por meio de aplicativos descentralizados (DApps) executados em uma rede blockchain.” Embora existam várias definições de web3, ele acrescentou, elas geralmente incluem esses recursos:

Logon autônomo: “O logon único anônimo permitirá um nome de usuário e método de autenticação em todos os sites e contas, em vez de logins individuais para cada site. Esse login não exigiria que você abandonasse o controle de dados pessoais confidenciais.” Com carteiras de criptografia web3 apoiadas por redes blockchain, os usuários sempre mantêm o controle de suas informações de identidade pessoal (PII) e credenciais de login. “À medida que os serviços de carteira criptográfica evoluem, existirão opções sobre que tipo de rede blockchain suportará sua carteira.”

Economia baseada em tokens: “As atividades que contribuem para a Web3 são recompensadas por um token (NFT ou fungível) para incentivar a participação e distribuir a propriedade. Por exemplo, ao postar uma nova mensagem social, uma NFT representando essa postagem pode ser “cunhada” (gerada) e armazenada como um ativo em uma carteira de criptomoedas. Esse token representa a propriedade da mensagem, que pode ser negociada com outras pessoas por meio de suas carteiras.”

Auto governança: “Junto com a distribuição da propriedade está a distribuição do poder de decisão. Sem uma autoridade central, as blockchains dependem de toda a rede para verificar uma atividade por meio de consenso. No entanto, sistemas específicos, como aqueles usados em organizações autônomas descentralizadas (DAOs) podem ser estabelecidos para democratizar a tomada de decisões com base na qualidade ou volume do investimento de um usuário em um site ou DApp.”

Além disso, o web3 é frequentemente vinculada a finanças descentralizadas (DeFi), criptomoedas, metaverso e outros aplicações descentralizadas relativamente novas que estão igualmente em seus estágios iniciais e, portanto, carecem de definições bem formadas e acordadas. E, como foi o caso das inovações pontocom nos anos 90, algumas se tornarão bastante importantes ao longo dos anos, enquanto outras serão esquecidas em pouco tempo.

Uma internet mais descentralizada e uma economia empresarial são claramente os principais objetivos da web3. O mesmo acontece com a criação de uma internet stateful baseada em blockchain, ou seja, uma internet que lembra eventos anteriores e interações do usuário, em oposição à atual internet stateless que depende dos servidores de muitas instituições conectadas à internet, – por exemplo, bancos, e plataformas de comércio, agências governamentais, – para acompanhar as informações de seus usuários e processar suas transações. Isso foi bem explicado no livro de Alex Tapscott, Digital Asset Revolution.

“Na Revolução Blockchain, previmos que as blockchains inaugurariam uma nova era da Internet que chamamos de Internet de valor, onde os indivíduos poderiam realizar transações, fazer negócios e criar valor de maneira confiável e ponto a ponto sem a necessidade para intermediários e gatekeepers tradicionais. Esta foi uma ideia radical e um grande afastamento das velhas formas de fazer as coisas.”

“Com a Web 2, contamos com intermediários – não apenas bancos, mas também gigantes de mídia social e conglomerados digitais – para executar muitas funções essenciais, desde mover e armazenar valor até verificar identidades e executar lógica de negócios básica como manutenção de registros, contratação, e assim por diante, tudo para estabelecer confiança nas transações online. Essa confiança é problemática por vários motivos. Por um lado, esses intermediários são centralizados, o que os torna vulneráveis a ataques cibernéticos e corrupção. Os intermediários financeiros também adicionam atrito às transações on-line, adicionando atrasos de dias ou semanas, cobrando taxas de até 20% para transferências internacionais de dinheiro e engajando-se em outros comportamentos de busca de renda”.

“Bancos, empresas de mídia social e provedores de serviços de Internet são guardiões que excluem muitas pessoas. No setor bancário, mais de um bilhão de pessoas não têm acesso a serviços financeiros. Esses gatekeepers também capturam todos os dados e grande parte do valor criado online – as maiores empresas do mundo são conglomerados digitais como a Apple e empresas de mídia social como o Facebook, que construíram seus impérios em parte ou no todo com dados de usuários.”


“A Web3 será construído em cima de redes blockchain”, acrescenta Tapscott. “O Blockchain nos dá uma maneira de digitalizar e gerenciar nossos direitos de propriedade online ponto a ponto. Os ativos digitais ao portador, comumente chamados de tokens, nos permitem manter e transportar bens digitais valiosos de plataforma para plataforma online. Esses bens podem ser moedas, títulos e outros ativos financeiros, bem como colecionáveis, propriedade intelectual, identidades e o que ainda não foi imaginado”.

Por fim, tenhamos em mente que a web3 não substitui a internet web1 e web2, mas contribui para sua evolução contínua, ajudando-nos a criar uma internet de valor mais empreendedora e inclusiva para o benefício de comunidades e economias em todo o mundo. Grandes instituições continuarão a desempenhar papéis importantes para muitos, como administradores confiáveis de blockchain e provedores de identidade e outros serviços críticos da web3. Temos muito a aprender nos próximos anos.

27/09/2022

Modelos de base: a nova fronteira da IA

Na última década, poderosos sistemas de IA igualaram ou superaram os níveis humanos de desempenho em várias tarefas específicas, como reconhecimento de imagem e fala, classificação de câncer de pele e detecção de câncer de mama e jogos altamente complexos como o Go. Esses avanços da IA baseiam-se no Deep Learning (DL), uma técnica que está vagamente baseada na estrutura de rede de neurônios no cérebro humano. Os sistemas DL adquirem conhecimento sendo treinados com milhões a bilhões de textos, imagens e outros dados, em vez de serem programados explicitamente.

Esses sistemas DL geralmente contam com aprendizado supervisionado, um método de treinamento em que os dados devem ser cuidadosamente rotulados, – por exemplo: gato, não-gato – exigindo, portanto, um grande investimento de tempo e dinheiro para produzir um modelo que seja estritamente focado em uma tarefa específica e não pode ser facilmente reaproveitado. Os custos crescentes para o treinamento de sistemas DL cada vez maiores e com foco restrito geraram preocupações de que a técnica estivesse perdendo força.

Os modelos de base prometem contornar essas preocupações de DL, trazendo para o mundo da IA a reutilização e a extensibilidade que têm sido tão bem-sucedidas em sistemas de software de TI, desde os sistemas operacionais como iOS e Android até o crescente número e variedades de plataformas baseadas na Internet.

“A IA está passando por uma mudança de paradigma com o surgimento de modelos que são treinados em grande qualidade de dados em escala e são adaptáveis a uma ampla gama de tarefas downstream”, disse On the Opportunities and Risks of Foundation Models, um relatório recente do Center for Research on Foundation Models, uma iniciativa interdisciplinar do Stanford Institute for Human-Centered Artificial Intelligence (HAI), fundada em 2021, focada em avanços fundamentais no estudo, desenvolvimento e implantação de modelos de base. Os modelos de base visam substituir os modelos específicos de tarefas que dominaram a IA na última década por modelos que são treinados com grandes quantidades de dados não rotulados e podem ser adaptados a muitas tarefas diferentes com o mínimo de ajustes. Exemplos atuais de modelos de base incluem grandes modelos de linguagem como GPT-3 e BERT.

Pouco depois de o GPT-3 estar online em 2020, seus criadores, da empresa de pesquisa de IA OpenAI descobriram que o GPT-3 não apenas poderia gerar frases e parágrafos inteiros em inglês em vários estilos, mas também havia desenvolvido habilidades surpreendentes para escrever software de computador. embora os dados de treinamento estivessem focados no idioma inglês, não em exemplos de código de computador. Mas, como se viu, a grande quantidade de páginas da Web usadas em seu treinamento incluía muitos exemplos de programação de computadores acompanhados de descrições do que o código foi projetado para fazer, permitindo assim que o GPT-3 aprendesse a programar sozinho. O GPT-3 também pode gerar documentos legais, como contratos de licenciamento ou arrendamentos, bem como documentos em vários outros campos.

“Ao mesmo tempo, os modelos de base existentes têm o potencial de causar danos e suas características são em geral mal compreendidas”, alerta o relatório de Stanford. Uma grande descoberta do Relatório do Índice de IA de 2022 foi que, embora grandes modelos de linguagem como o GPT-3 estejam estabelecendo novos recordes em benchmarks técnicos, eles também são mais propensos a refletir os preconceitos que podem ter sido incluídos em seus dados de treinamento, incluindo temas racistas, linguagem sexista, extremista e outras coisas nocivas, bem como padrões de linguagem abusivas e ideologias nocivas.

Embora os modelos de base sejam baseados em tecnologias DL, eles foram habilitados por dois avanços mais recentes, transferência de aprendizado e escala. Ao contrário do treinamento específico de tarefa dos sistemas DL anteriores, o aprendizado por transferência pega o conhecimento aprendido no treinamento de uma tarefa e o aplica a tarefas diferentes, mas relacionadas, – como usar o treinamento em reconhecimento de objetos em imagens e aplicá-lo ao reconhecimento de atividades em vídeos, ou usando o conhecimento adquirido ao aprender a reconhecer carros e aplicá-lo ao reconhecimento de caminhões. Com o aprendizado de transferência “um modelo é treinado em uma tarefa substituta (geralmente apenas como um meio para um fim) e depois adaptado à tarefa de interesse a jusante por meio de ajuste fino”.

“A aprendizagem de transferência é o que torna os modelos de base possíveis, mas a escala é o que os torna poderosos”, acrescenta o relatório. A escala é ativada por três avanços recentes de IA:Melhorias no hardware do computador, – de acordo com o AI Index Report 2022, “Desde 2018, o custo para treinar um sistema de classificação de imagens diminuiu 63,6%, enquanto os tempos de treinamento melhoraram 94,4%.”;
Enormes quantidades de dados de treinamento, – de acordo com o artigo recente no The Economist, GPT-2, – predecessor do GPT-3, – foi treinado com 40 gigabytes de dados, enquanto o GPT-3 foi treinado com 570 gigabytes de dados, incluindo um grande pedaço da internet, toda a Wikipedia e muitos livros digitais; e
Arquiteturas altamente paralelas, – arquiteturas de transformador permitem que as redes de aprendizado profundo muito maiores em modelos de base aproveitem o paralelismo inerente do hardware.

“O significado dos modelos de base pode ser resumido em duas palavras: emergência e homogeneização”, observa o relatório.

“Embora os modelos de base sejam baseados em aprendizado profundo e aprendizado de transferência, sua escala resulta em novos recursos emergentes.” A emergência ocorre quando um sistema muito grande exibe comportamentos que não poderiam ter sido previstos pelos comportamentos de seus componentes individuais e só emergem como resultado de suas interações altamente complexas. “Emergência significa que o comportamento de um sistema é implicitamente induzido ao invés de explicitamente construído; é tanto a fonte da excitação científica quanto da ansiedade sobre consequências imprevistas”.

“Por exemplo, o GPT-3, com 175 bilhões de parâmetros comparados aos 1,5 bilhão do GPT-2, permite o aprendizado em contexto, no qual o modelo de linguagem pode ser adaptado a uma tarefa downstream simplesmente fornecendo-lhe um prompt (uma descrição em linguagem natural da tarefa), uma propriedade emergente que não foi especificamente treinada nem prevista para surgir”. É por isso que descobrir que o GPT-3 aprendeu sozinho a programar e gerar documentos legais sem ser explicitamente treinado para isso pegou seus criadores de surpresa.

A eficácia dos modelos de base também levou a um nível de homogeneização sem precedentes. Por exemplo, quase todos os modelos de PNL de última geração agora são adaptados de um dos poucos modelos de base, por exemplo, BERT, GPT-3.

“Embora essa homogeneização produza alavancagem extremamente alta (qualquer melhoria nos modelos de base pode levar a benefícios imediatos em toda a PNL), também é um passivo; todos os sistemas de IA podem herdar os mesmos vieses problemáticos de alguns modelos de base.”

A implantação generalizada iminente de modelos de base exige cautela, alerta o relatório. Junto com sua poderosa alavancagem, a homogeneização também significa que os defeitos de um modelo de fundação são herdados por todos os modelos de downstream adaptados. E devido às suas propriedades emergentes, atualmente não temos uma compreensão clara de como os modelos de fundação funcionam, do que são capazes e quando e como falham. “Para enfrentar essas questões, acreditamos que grande parte da pesquisa crítica sobre modelos de fundação exigirá uma colaboração interdisciplinar profunda proporcional à sua natureza fundamentalmente sociotécnica”.

Com mais de 200 páginas e mais de 100 autores, o relatório de Stanford representa uma visão abrangente do estado dos modelos de base, destacando seu excitante potencial bruto, mas lembrando-nos que deve ser visto como uma tecnologia de pesquisa em seus primeiros anos. As 26 seções diferentes do relatório estão agrupadas em quatro áreas inter-relacionadas: capacidades, aplicativos, tecnologia e sociedade, observando que “as tecnologias e capacidades são desenvolvidas de uma maneira que é sensível às preocupações sociais reais, ao mesmo tempo em que são inspiradas e fundamentadas em aplicativos.”

“Existem incentivos econômicos para impulsionar as capacidades e a escala dos modelos de base, por isso prevemos um progresso tecnológico constante nos próximos anos”, conclui o relatório.

“Mas a adequação de uma tecnologia que depende amplamente do comportamento emergente para implantação generalizada para as pessoas não é clara. O que está claro é que precisamos ser cautelosos e que agora é a hora de estabelecer as normas profissionais que permitirão a pesquisa responsável e a implantação de modelos de fundação. A academia e a indústria precisam colaborar nisso: a indústria, em última análise, toma decisões concretas sobre como os modelos de fundação serão implantados, mas também devemos nos apoiar na academia, com sua diversidade disciplinar e incentivos não comerciais em torno da produção de conhecimento e benefício social, para fornecer orientação diferenciada no desenvolvimento e implantação de modelos de base que sejam fundamentados técnica e eticamente”.

08/09/2022

O escopo da Linux Foundation na economia do século XXI

Há alguns dias, a Linux Foundation realizou seu North America Open Source Summit em Austin. A reunião de uma semana incluiu um grande número de sessões de discussão, bem como várias palestras. O Open Source Summit Europe acontecerá em Dublin em setembro e o Open Source Summit Japan em Yokohama em dezembro.

Sempre estive muito envolvido com inovação colaborativa aberta e comunidades de código aberto desde a década de 1990. Em particular, fui administrador de servidores Open Source, em uma iniciativa da antiga empresa Impsat, lançada em setembro de 2001 para adotar o Linux em muitos dos produtos e serviços da empresa.

Na época, o Linux já havia sido adotado pelas comunidades de pesquisa, internet e supercomputação, mas muitos no mercado comercial ainda mostravam alguma perplexidade com esse tipo de decisão. Nos anos seguintes, empregamos muito esforço, explicando à comunidade empresarial por que estávamos apoiando o Linux.

No final dos anos 2000, o Linux atravessou o abismo para a adoção do mainstream, tendo sido adotado por um grande número de empresas ao redor do mundo.

Em 2000, a IBM, a HP, a Intel e várias outras empresas formaram um consórcio para apoiar o desenvolvimento contínuo do Linux e fundaram uma nova organização sem fins lucrativos, os Open Source Development Labs (OSDL). Em 2007, a OSDL fundiu-se com o Free Standards Group (FSG) e tornou-se a Linux Foundation (LF). Em 2011, o LF marcou o 20º aniversário do Linux em sua conferência anual LinuxCon North America.

Na década seguinte, a LF passou por uma grande expansão. Em 2017, suas conferências anuais foram renomeadas como Open Source Summits para estarem mais ligadas a missão de código aberto mais geral da LF, além do Linux. Então, em abril de 2021, o LF anunciou a formação da Linux Foundation Research, uma nova organização para entender melhor as oportunidades de colaboração nas muitas atividades de código aberto nas quais o LF estava envolvido. Hilary Carter ingressou no LF como vice-presidente de pesquisa e líder da nova iniciativa.

Alguns meses depois, Carter criou um Conselho Consultivo para fornecer insights sobre tendências tecnológicas emergentes que poderiam ter um grande impacto no número crescente de projetos de código aberto LF, bem como explorar o papel do código aberto para ajudar a abordar alguns dos problemas mundiais.

Após 2007, eu deixei de ser um profissional puramente técnico e me envolvi em várias novas áreas, como nuvem, blockchain, IA e a economia digital emergente. Como resultado, deixei de me envolver com o Linux e na década de 2010, continuei a ver o LF de longe; sem deixar de acompanhar sua impressionante evolução e trajetória. Deixe-me resumir o que aprendi.

De acordo com seu site, o LF agora tem mais de 1.260 membros da empresa, incluindo 14 Platinum e 19 Gold, e suporta centenas de projetos de código aberto. Alguns dos projetos estão focados em tecnologias horizontais, outros em verticais da indústria e muitos são subprojetos dentro de um grande projeto de código aberto.

As áreas horizontais de tecnologia incluem: IA, ML, dados e análises; manufatura aditiva; realidade aumentada e virtual; blockchain; contêineres em nuvem e virtualização; IoT & incorporado; core Linux; rede & borda; hardware aberto; sistemas críticos de segurança; segurança; armazenar; administração do Sistema; e desenvolvimento da Web e de aplicativos. Projetos de infraestrutura específicos incluem OpenSSF, – Open Source Software Security Foundation; LF AI & Data, – cuja missão é construir e apoiar inovações de código aberto nos domínios de IA e dados; e a Hyperledger Foundation, – que hospeda vários subprojetos de blockchain de nível empresarial, como o Hyperledger Cactus, – para ajudar a integrar com segurança diferentes blockchains; Hyperledger Besu, – um cliente Ethereum para blockchains autorizados; e Hyperledger Caliper, – uma ferramenta de benchmark blockchain para medir o desempenho.

As áreas verticais da indústria incluem: automotivo e aviação; educação e treinamento; recursos energéticos; agências governamentais e reguladoras; assistência médica; fabricação e logística; mídia e entretenimento; produtos embalados; retalho; tecnologia; e telecomunicações.

Os projetos focados na indústria incluem: LFEnergy, – visando a digitalização do setor de energia para ajudar a atingir as metas de descarbonização; Automotive Grade Linux, – para acelerar o desenvolvimento e adoção de uma pilha de software totalmente aberta para o carro conectado; Chips Alliance, – para acelerar o desenvolvimento de hardware de código aberto; Plataforma de Infraestrutura Civil, – para permitir o desenvolvimento e uso de blocos de construção de software para infraestrutura civil; LF Saúde Pública, – melhorar a equidade e a inovação em saúde global; e Academy Software Foundation, – que se concentra na criação de um ecossistema de código aberto para a indústria de animação e efeitos visuais e hospeda vários subprojetos relacionados, como OpenColorIO, – uma estrutura de gerenciamento de cores; OpenCue, – um sistema de gerenciamento de renderização; e OpenEXR, – o formato de armazenamento de imagem de nível profissional da indústria cinematográfica.

A LF estima que seus projetos desenvolveram mais de um bilhão de linhas de código-fonte aberto que suportam uma porcentagem significativa das infraestruturas de missão crítica do mundo. Esses projetos criaram mais de US$ 54 bilhões em valor econômico. Um estudo recente da Comissão Europeia estimou que, em 2018, o impacto econômico do código aberto em todos os seus estados membros foi entre € 65 e € 95 bilhões. Para entender melhor o impacto econômico global do código aberto, a LF Research está patrocinando um estudo liderado por Henry Chesbrough, professor da UC Berkeley e membro do Conselho Consultivo.

Os avanços de código aberto são totalmente dependentes das contribuições de profissionais altamente qualificados. A LF estima que mais de 750 mil desenvolvedores de cerca de 18 mil empresas contribuintes estiveram envolvidos em seus vários projetos em todo o mundo. Para ajudar a treinar desenvolvedores de código aberto, o LF oferece mais de 130 cursos diferentes em diversas áreas, incluindo administração de sistemas, nuvem e contêineres, blockchain e desenvolvimento integrado e IoT, além de 25 programas de certificação.

Além disso, a LF, em parceria com a edX, – a organização de aprendizado online aberta criada por Harvard e MIT, – vem realizando uma pesquisa anual na web com profissionais de código aberto e gerentes de contratação para identificar as últimas tendências em carreiras de código aberto, as habilidades que são mais procurados, o que motiva os profissionais de código aberto, como os empregadores podem atrair e reter os melhores talentos, bem como questões de diversidade na indústria.

O 10º Relatório Anual de Empregos de Código Aberto foi publicado em junho de 2022. O relatório constatou que ainda há escassez de talentos qualificados:93% dos gerentes de contratação têm dificuldade em encontrar profissionais experientes em código aberto; a remuneração tornou-se um fator de diferenciação,
58% dos gerentes deram aumentos salariais para reter talentos de código aberto; as certificações atingiram um novo nível de importância,
69% dos gerentes de contratação são mais propensos a contratar profissionais certificados de código aberto;
63% dos profissionais de código aberto acreditam que o código aberto executa a tecnologia mais moderna; e
Habilidades em nuvem são as mais procuradas, seguidas por Linux, DevOps e segurança.

Finalmente, em sua palestra em Austin, Hilary Carter apresentou 10 fatos rápidos sobre código aberto da LF Research:53% dos entrevistados contribuem para o código aberto porque “é divertido”;86% dos gerentes de contratação dizem que contratar talentos de código aberto é uma prioridade para 2022;
2/3 dos desenvolvedores precisam de mais treinamento para realizar seus trabalhos;
O software de código aberto mais utilizado é desenvolvido por apenas um punhado de colaboradores, – 136 desenvolvedores foram responsáveis por mais de 80% das linhas de código adicionadas aos 50 principais pacotes;
45% dos entrevistados relataram que seus empregadores restringem fortemente ou proíbem contribuições para projetos de código aberto, sejam eles privados ou relacionados ao trabalho;
47% das organizações pesquisadas estão usando listas de materiais de software (SBOMs) hoje;
“Você sente um senso de comunidade e responsabilidade para pastorear este trabalho e torná-lo o melhor possível;
1 em cada 5 profissionais foi discriminado por se sentir mal recebido;
As pessoas que não se sentem bem-vindas no código aberto são de grupos desproporcionalmente sub-representados;
“Quando temos várias pessoas com origens e opiniões variadas, obtemos um software melhor”.

“Os projetos de código aberto estão aqui para ficar e desempenham um papel crítico na capacidade da maioria das organizações de fornecer produtos e serviços aos clientes”, disse o LF em seu site. “Como organização, se você deseja influenciar os projetos de código aberto que impulsionam o sucesso do seu negócio, você precisa participar. Ter uma sólida estratégia de contribuição e um plano de implementação para sua organização o coloca no caminho para ser um bom cidadão corporativo de código aberto.”

Além da Guerra de Preços: O Oceano Azul na Conectividade Brasileira

Introdução Lançado em 2005 por W. Chan Kim e Renée Mauborgne, A Estratégia do Oceano Azul revolucionou o pensamento estratégico...