27/09/2022

Modelos de base: a nova fronteira da IA

Na última década, poderosos sistemas de IA igualaram ou superaram os níveis humanos de desempenho em várias tarefas específicas, como reconhecimento de imagem e fala, classificação de câncer de pele e detecção de câncer de mama e jogos altamente complexos como o Go. Esses avanços da IA baseiam-se no Deep Learning (DL), uma técnica que está vagamente baseada na estrutura de rede de neurônios no cérebro humano. Os sistemas DL adquirem conhecimento sendo treinados com milhões a bilhões de textos, imagens e outros dados, em vez de serem programados explicitamente.

Esses sistemas DL geralmente contam com aprendizado supervisionado, um método de treinamento em que os dados devem ser cuidadosamente rotulados, – por exemplo: gato, não-gato – exigindo, portanto, um grande investimento de tempo e dinheiro para produzir um modelo que seja estritamente focado em uma tarefa específica e não pode ser facilmente reaproveitado. Os custos crescentes para o treinamento de sistemas DL cada vez maiores e com foco restrito geraram preocupações de que a técnica estivesse perdendo força.

Os modelos de base prometem contornar essas preocupações de DL, trazendo para o mundo da IA a reutilização e a extensibilidade que têm sido tão bem-sucedidas em sistemas de software de TI, desde os sistemas operacionais como iOS e Android até o crescente número e variedades de plataformas baseadas na Internet.

“A IA está passando por uma mudança de paradigma com o surgimento de modelos que são treinados em grande qualidade de dados em escala e são adaptáveis a uma ampla gama de tarefas downstream”, disse On the Opportunities and Risks of Foundation Models, um relatório recente do Center for Research on Foundation Models, uma iniciativa interdisciplinar do Stanford Institute for Human-Centered Artificial Intelligence (HAI), fundada em 2021, focada em avanços fundamentais no estudo, desenvolvimento e implantação de modelos de base. Os modelos de base visam substituir os modelos específicos de tarefas que dominaram a IA na última década por modelos que são treinados com grandes quantidades de dados não rotulados e podem ser adaptados a muitas tarefas diferentes com o mínimo de ajustes. Exemplos atuais de modelos de base incluem grandes modelos de linguagem como GPT-3 e BERT.

Pouco depois de o GPT-3 estar online em 2020, seus criadores, da empresa de pesquisa de IA OpenAI descobriram que o GPT-3 não apenas poderia gerar frases e parágrafos inteiros em inglês em vários estilos, mas também havia desenvolvido habilidades surpreendentes para escrever software de computador. embora os dados de treinamento estivessem focados no idioma inglês, não em exemplos de código de computador. Mas, como se viu, a grande quantidade de páginas da Web usadas em seu treinamento incluía muitos exemplos de programação de computadores acompanhados de descrições do que o código foi projetado para fazer, permitindo assim que o GPT-3 aprendesse a programar sozinho. O GPT-3 também pode gerar documentos legais, como contratos de licenciamento ou arrendamentos, bem como documentos em vários outros campos.

“Ao mesmo tempo, os modelos de base existentes têm o potencial de causar danos e suas características são em geral mal compreendidas”, alerta o relatório de Stanford. Uma grande descoberta do Relatório do Índice de IA de 2022 foi que, embora grandes modelos de linguagem como o GPT-3 estejam estabelecendo novos recordes em benchmarks técnicos, eles também são mais propensos a refletir os preconceitos que podem ter sido incluídos em seus dados de treinamento, incluindo temas racistas, linguagem sexista, extremista e outras coisas nocivas, bem como padrões de linguagem abusivas e ideologias nocivas.

Embora os modelos de base sejam baseados em tecnologias DL, eles foram habilitados por dois avanços mais recentes, transferência de aprendizado e escala. Ao contrário do treinamento específico de tarefa dos sistemas DL anteriores, o aprendizado por transferência pega o conhecimento aprendido no treinamento de uma tarefa e o aplica a tarefas diferentes, mas relacionadas, – como usar o treinamento em reconhecimento de objetos em imagens e aplicá-lo ao reconhecimento de atividades em vídeos, ou usando o conhecimento adquirido ao aprender a reconhecer carros e aplicá-lo ao reconhecimento de caminhões. Com o aprendizado de transferência “um modelo é treinado em uma tarefa substituta (geralmente apenas como um meio para um fim) e depois adaptado à tarefa de interesse a jusante por meio de ajuste fino”.

“A aprendizagem de transferência é o que torna os modelos de base possíveis, mas a escala é o que os torna poderosos”, acrescenta o relatório. A escala é ativada por três avanços recentes de IA:Melhorias no hardware do computador, – de acordo com o AI Index Report 2022, “Desde 2018, o custo para treinar um sistema de classificação de imagens diminuiu 63,6%, enquanto os tempos de treinamento melhoraram 94,4%.”;
Enormes quantidades de dados de treinamento, – de acordo com o artigo recente no The Economist, GPT-2, – predecessor do GPT-3, – foi treinado com 40 gigabytes de dados, enquanto o GPT-3 foi treinado com 570 gigabytes de dados, incluindo um grande pedaço da internet, toda a Wikipedia e muitos livros digitais; e
Arquiteturas altamente paralelas, – arquiteturas de transformador permitem que as redes de aprendizado profundo muito maiores em modelos de base aproveitem o paralelismo inerente do hardware.

“O significado dos modelos de base pode ser resumido em duas palavras: emergência e homogeneização”, observa o relatório.

“Embora os modelos de base sejam baseados em aprendizado profundo e aprendizado de transferência, sua escala resulta em novos recursos emergentes.” A emergência ocorre quando um sistema muito grande exibe comportamentos que não poderiam ter sido previstos pelos comportamentos de seus componentes individuais e só emergem como resultado de suas interações altamente complexas. “Emergência significa que o comportamento de um sistema é implicitamente induzido ao invés de explicitamente construído; é tanto a fonte da excitação científica quanto da ansiedade sobre consequências imprevistas”.

“Por exemplo, o GPT-3, com 175 bilhões de parâmetros comparados aos 1,5 bilhão do GPT-2, permite o aprendizado em contexto, no qual o modelo de linguagem pode ser adaptado a uma tarefa downstream simplesmente fornecendo-lhe um prompt (uma descrição em linguagem natural da tarefa), uma propriedade emergente que não foi especificamente treinada nem prevista para surgir”. É por isso que descobrir que o GPT-3 aprendeu sozinho a programar e gerar documentos legais sem ser explicitamente treinado para isso pegou seus criadores de surpresa.

A eficácia dos modelos de base também levou a um nível de homogeneização sem precedentes. Por exemplo, quase todos os modelos de PNL de última geração agora são adaptados de um dos poucos modelos de base, por exemplo, BERT, GPT-3.

“Embora essa homogeneização produza alavancagem extremamente alta (qualquer melhoria nos modelos de base pode levar a benefícios imediatos em toda a PNL), também é um passivo; todos os sistemas de IA podem herdar os mesmos vieses problemáticos de alguns modelos de base.”

A implantação generalizada iminente de modelos de base exige cautela, alerta o relatório. Junto com sua poderosa alavancagem, a homogeneização também significa que os defeitos de um modelo de fundação são herdados por todos os modelos de downstream adaptados. E devido às suas propriedades emergentes, atualmente não temos uma compreensão clara de como os modelos de fundação funcionam, do que são capazes e quando e como falham. “Para enfrentar essas questões, acreditamos que grande parte da pesquisa crítica sobre modelos de fundação exigirá uma colaboração interdisciplinar profunda proporcional à sua natureza fundamentalmente sociotécnica”.

Com mais de 200 páginas e mais de 100 autores, o relatório de Stanford representa uma visão abrangente do estado dos modelos de base, destacando seu excitante potencial bruto, mas lembrando-nos que deve ser visto como uma tecnologia de pesquisa em seus primeiros anos. As 26 seções diferentes do relatório estão agrupadas em quatro áreas inter-relacionadas: capacidades, aplicativos, tecnologia e sociedade, observando que “as tecnologias e capacidades são desenvolvidas de uma maneira que é sensível às preocupações sociais reais, ao mesmo tempo em que são inspiradas e fundamentadas em aplicativos.”

“Existem incentivos econômicos para impulsionar as capacidades e a escala dos modelos de base, por isso prevemos um progresso tecnológico constante nos próximos anos”, conclui o relatório.

“Mas a adequação de uma tecnologia que depende amplamente do comportamento emergente para implantação generalizada para as pessoas não é clara. O que está claro é que precisamos ser cautelosos e que agora é a hora de estabelecer as normas profissionais que permitirão a pesquisa responsável e a implantação de modelos de fundação. A academia e a indústria precisam colaborar nisso: a indústria, em última análise, toma decisões concretas sobre como os modelos de fundação serão implantados, mas também devemos nos apoiar na academia, com sua diversidade disciplinar e incentivos não comerciais em torno da produção de conhecimento e benefício social, para fornecer orientação diferenciada no desenvolvimento e implantação de modelos de base que sejam fundamentados técnica e eticamente”.

08/09/2022

O escopo da Linux Foundation na economia do século XXI

Há alguns dias, a Linux Foundation realizou seu North America Open Source Summit em Austin. A reunião de uma semana incluiu um grande número de sessões de discussão, bem como várias palestras. O Open Source Summit Europe acontecerá em Dublin em setembro e o Open Source Summit Japan em Yokohama em dezembro.

Sempre estive muito envolvido com inovação colaborativa aberta e comunidades de código aberto desde a década de 1990. Em particular, fui administrador de servidores Open Source, em uma iniciativa da antiga empresa Impsat, lançada em setembro de 2001 para adotar o Linux em muitos dos produtos e serviços da empresa.

Na época, o Linux já havia sido adotado pelas comunidades de pesquisa, internet e supercomputação, mas muitos no mercado comercial ainda mostravam alguma perplexidade com esse tipo de decisão. Nos anos seguintes, empregamos muito esforço, explicando à comunidade empresarial por que estávamos apoiando o Linux.

No final dos anos 2000, o Linux atravessou o abismo para a adoção do mainstream, tendo sido adotado por um grande número de empresas ao redor do mundo.

Em 2000, a IBM, a HP, a Intel e várias outras empresas formaram um consórcio para apoiar o desenvolvimento contínuo do Linux e fundaram uma nova organização sem fins lucrativos, os Open Source Development Labs (OSDL). Em 2007, a OSDL fundiu-se com o Free Standards Group (FSG) e tornou-se a Linux Foundation (LF). Em 2011, o LF marcou o 20º aniversário do Linux em sua conferência anual LinuxCon North America.

Na década seguinte, a LF passou por uma grande expansão. Em 2017, suas conferências anuais foram renomeadas como Open Source Summits para estarem mais ligadas a missão de código aberto mais geral da LF, além do Linux. Então, em abril de 2021, o LF anunciou a formação da Linux Foundation Research, uma nova organização para entender melhor as oportunidades de colaboração nas muitas atividades de código aberto nas quais o LF estava envolvido. Hilary Carter ingressou no LF como vice-presidente de pesquisa e líder da nova iniciativa.

Alguns meses depois, Carter criou um Conselho Consultivo para fornecer insights sobre tendências tecnológicas emergentes que poderiam ter um grande impacto no número crescente de projetos de código aberto LF, bem como explorar o papel do código aberto para ajudar a abordar alguns dos problemas mundiais.

Após 2007, eu deixei de ser um profissional puramente técnico e me envolvi em várias novas áreas, como nuvem, blockchain, IA e a economia digital emergente. Como resultado, deixei de me envolver com o Linux e na década de 2010, continuei a ver o LF de longe; sem deixar de acompanhar sua impressionante evolução e trajetória. Deixe-me resumir o que aprendi.

De acordo com seu site, o LF agora tem mais de 1.260 membros da empresa, incluindo 14 Platinum e 19 Gold, e suporta centenas de projetos de código aberto. Alguns dos projetos estão focados em tecnologias horizontais, outros em verticais da indústria e muitos são subprojetos dentro de um grande projeto de código aberto.

As áreas horizontais de tecnologia incluem: IA, ML, dados e análises; manufatura aditiva; realidade aumentada e virtual; blockchain; contêineres em nuvem e virtualização; IoT & incorporado; core Linux; rede & borda; hardware aberto; sistemas críticos de segurança; segurança; armazenar; administração do Sistema; e desenvolvimento da Web e de aplicativos. Projetos de infraestrutura específicos incluem OpenSSF, – Open Source Software Security Foundation; LF AI & Data, – cuja missão é construir e apoiar inovações de código aberto nos domínios de IA e dados; e a Hyperledger Foundation, – que hospeda vários subprojetos de blockchain de nível empresarial, como o Hyperledger Cactus, – para ajudar a integrar com segurança diferentes blockchains; Hyperledger Besu, – um cliente Ethereum para blockchains autorizados; e Hyperledger Caliper, – uma ferramenta de benchmark blockchain para medir o desempenho.

As áreas verticais da indústria incluem: automotivo e aviação; educação e treinamento; recursos energéticos; agências governamentais e reguladoras; assistência médica; fabricação e logística; mídia e entretenimento; produtos embalados; retalho; tecnologia; e telecomunicações.

Os projetos focados na indústria incluem: LFEnergy, – visando a digitalização do setor de energia para ajudar a atingir as metas de descarbonização; Automotive Grade Linux, – para acelerar o desenvolvimento e adoção de uma pilha de software totalmente aberta para o carro conectado; Chips Alliance, – para acelerar o desenvolvimento de hardware de código aberto; Plataforma de Infraestrutura Civil, – para permitir o desenvolvimento e uso de blocos de construção de software para infraestrutura civil; LF Saúde Pública, – melhorar a equidade e a inovação em saúde global; e Academy Software Foundation, – que se concentra na criação de um ecossistema de código aberto para a indústria de animação e efeitos visuais e hospeda vários subprojetos relacionados, como OpenColorIO, – uma estrutura de gerenciamento de cores; OpenCue, – um sistema de gerenciamento de renderização; e OpenEXR, – o formato de armazenamento de imagem de nível profissional da indústria cinematográfica.

A LF estima que seus projetos desenvolveram mais de um bilhão de linhas de código-fonte aberto que suportam uma porcentagem significativa das infraestruturas de missão crítica do mundo. Esses projetos criaram mais de US$ 54 bilhões em valor econômico. Um estudo recente da Comissão Europeia estimou que, em 2018, o impacto econômico do código aberto em todos os seus estados membros foi entre € 65 e € 95 bilhões. Para entender melhor o impacto econômico global do código aberto, a LF Research está patrocinando um estudo liderado por Henry Chesbrough, professor da UC Berkeley e membro do Conselho Consultivo.

Os avanços de código aberto são totalmente dependentes das contribuições de profissionais altamente qualificados. A LF estima que mais de 750 mil desenvolvedores de cerca de 18 mil empresas contribuintes estiveram envolvidos em seus vários projetos em todo o mundo. Para ajudar a treinar desenvolvedores de código aberto, o LF oferece mais de 130 cursos diferentes em diversas áreas, incluindo administração de sistemas, nuvem e contêineres, blockchain e desenvolvimento integrado e IoT, além de 25 programas de certificação.

Além disso, a LF, em parceria com a edX, – a organização de aprendizado online aberta criada por Harvard e MIT, – vem realizando uma pesquisa anual na web com profissionais de código aberto e gerentes de contratação para identificar as últimas tendências em carreiras de código aberto, as habilidades que são mais procurados, o que motiva os profissionais de código aberto, como os empregadores podem atrair e reter os melhores talentos, bem como questões de diversidade na indústria.

O 10º Relatório Anual de Empregos de Código Aberto foi publicado em junho de 2022. O relatório constatou que ainda há escassez de talentos qualificados:93% dos gerentes de contratação têm dificuldade em encontrar profissionais experientes em código aberto; a remuneração tornou-se um fator de diferenciação,
58% dos gerentes deram aumentos salariais para reter talentos de código aberto; as certificações atingiram um novo nível de importância,
69% dos gerentes de contratação são mais propensos a contratar profissionais certificados de código aberto;
63% dos profissionais de código aberto acreditam que o código aberto executa a tecnologia mais moderna; e
Habilidades em nuvem são as mais procuradas, seguidas por Linux, DevOps e segurança.

Finalmente, em sua palestra em Austin, Hilary Carter apresentou 10 fatos rápidos sobre código aberto da LF Research:53% dos entrevistados contribuem para o código aberto porque “é divertido”;86% dos gerentes de contratação dizem que contratar talentos de código aberto é uma prioridade para 2022;
2/3 dos desenvolvedores precisam de mais treinamento para realizar seus trabalhos;
O software de código aberto mais utilizado é desenvolvido por apenas um punhado de colaboradores, – 136 desenvolvedores foram responsáveis por mais de 80% das linhas de código adicionadas aos 50 principais pacotes;
45% dos entrevistados relataram que seus empregadores restringem fortemente ou proíbem contribuições para projetos de código aberto, sejam eles privados ou relacionados ao trabalho;
47% das organizações pesquisadas estão usando listas de materiais de software (SBOMs) hoje;
“Você sente um senso de comunidade e responsabilidade para pastorear este trabalho e torná-lo o melhor possível;
1 em cada 5 profissionais foi discriminado por se sentir mal recebido;
As pessoas que não se sentem bem-vindas no código aberto são de grupos desproporcionalmente sub-representados;
“Quando temos várias pessoas com origens e opiniões variadas, obtemos um software melhor”.

“Os projetos de código aberto estão aqui para ficar e desempenham um papel crítico na capacidade da maioria das organizações de fornecer produtos e serviços aos clientes”, disse o LF em seu site. “Como organização, se você deseja influenciar os projetos de código aberto que impulsionam o sucesso do seu negócio, você precisa participar. Ter uma sólida estratégia de contribuição e um plano de implementação para sua organização o coloca no caminho para ser um bom cidadão corporativo de código aberto.”

29/08/2022

Resiliência organizacional frente a ataques cibernéticos

Fiquei bastante interessado em segurança cibernética desde 2007, quando ainda atuava com administrador de redes de computadores, dada as crescentes ameaças de ataques cibernéticos por grupos criminosos a governos e empresas e à população civil. Desde então, acompanho as principais evoluções e tendências deste mercado. O CAMS, Consórcio Interdisciplinar de Segurança Cibernética do MIT oferece seminários semanais online e é uma excelente referência para o cenário global de segurança da informação. Algumas semanas atrás, em um seminário do CAMS sobre resiliência cibernética, Manuel Hepfer, afiliado de pesquisa da Universidade de Oxford e analista de pesquisa da ISTARI, uma empresa de gerenciamento de riscos cibernéticos, fez uma excelente palestra sobre o tema:

O que é resiliência cibernética?

Enquanto a segurança cibernética é a prática de proteger sistemas críticos e informações confidenciais contra ataques digitais, a resiliência cibernética é a capacidade de se preparar, resistir e se recuperar rapidamente de qualquer grande interrupção, seja um ataque cibernético intencional ou um desastre natural.

O seminário foi baseado em um estudo de Hepfer e colegas sobre os ataques de ransomware NotPetya de 2017, uma série de ataques cibernéticos poderosos que causaram mais de US$ 10 bilhões em danos econômicos globais em vários setores. O estudo foi focado principalmente em três empresas globais que foram alvo de ataques NotPetya: uma empresa de logística com mais de 60.000 funcionários, uma de manufatura com mais de 20.000 funcionários e uma terceira em serviços profissionais com mais de 5.000 funcionários.

O estudo realizou cerca de 50 entrevistas com executivos seniores das três empresas, incluindo CEOs, CFOs, CIOs e CISOs. Além disso, revisou documentos internos, apresentações, comunicados à imprensa, cobertura de jornais e arquivos de áudio e vídeo relacionados a eventos antes, durante e após o ataque. Seu estudo foi publicado em dois artigos no MIT Sloan Management Review, o primeiro em 2020, o segundo em 2022.

O primeiro artigo, Make Cybersecurity a Strategic Asset, observou que “a resiliência organizacional a ataques cibernéticos requer uma mudança fundamental de mentalidade: os executivos devem ver a segurança cibernética como estratégica e não operacional, e como uma oportunidade e não uma despesa. … Ao elevar a segurança cibernética de uma necessidade operacional a uma fonte de oportunidades, os líderes podem aumentar a resiliência e a vantagem comercial.”

O artigo cita várias razões pelas quais os executivos tratam a segurança cibernética como uma prioridade operacional em vez de estratégica.

Tradicionalmente, a segurança cibernética foi delegada às operações de TI onde reside o conhecimento técnico, embora a tecnologia agora permeie praticamente todas as funções da empresa. Muitos executivos veem os ataques cibernéticos como um evento aleatório e imprevisível, em oposição ao tipo de risco previsível e gerenciável que explora as fraquezas organizacionais em toda a empresa. E, quando um ataque cibernético acontece, as empresas geralmente se concentram no controle interno de danos, em vez de se envolver abertamente com todas as partes interessadas.

Com base em sua pesquisa, Hepfer e seus colaboradores desenvolveram um modelo para melhorar a resiliência organizacional a ataques cibernéticos que alavanca seus esforços de segurança cibernética para capturar oportunidades estratégicas. O modelo é baseado em quatro capacidades estratégicas:Proteger o negócio,
Ampliar a conscientização,
Gerenciar as consequências e
Responder e recuperar.

“Cada um dos quatro elementos levanta questões que os executivos podem usar para liderar discussões sobre a abordagem da empresa à estratégia de segurança cibernética. Embora algumas dessas discussões estejam preocupadas com eventos após um ataque cibernético, todas as discussões devem acontecer agora, como parte do planejamento estratégico – antes de um ataque cibernético.”

Deixe-me resumir os quatro recursos e listar algumas das questões que devem ser abordadas por cada recurso:

Protegendo o negócio. “Embora continue sendo importante manter e fortalecer as defesas, as empresas em nosso estudo reconheceram que os ataques são inevitáveis”. As defesas perfeitas são impossíveis porque os ataques e as defesas estão em constante evolução. Uma abordagem estratégica de proteção deve abranger “uma compreensão mais profunda dos principais processos de negócios e como eles podem ser projetados para minimizar a vulnerabilidade de uma organização a ataques”. Esse plano estratégico deve abordar estas questões:

1) Quais são nossos principais processos de negócios e quão vulneráveis eles são a ataques cibernéticos?
2) Como podemos projetar nossos processos de negócios para minimizar nossa vulnerabilidade a ataques?
3) Quais recursos internos temos para nos proteger contra ataques cibernéticos?

Ampliar a conscientização “exige que a alta administração assuma a responsabilidade de olhar para fora da empresa para entender as ameaças atuais e desenvolver uma estratégia mais abrangente para adquirir inteligência. Essas ações incluem estabelecer melhores conexões com a rede de inteligência de ameaças, como comunicar-se com pesquisadores de segurança cibernética em fornecedores de antimalware e construir relacionamentos com colegas em organizações com os recursos mais fortes nessa área.” Para ajudar a ampliar a conscientização, as empresas devem discutir:

1) Quão significativa é a ameaça de ataque cibernético e de onde é mais provável que venha?
2) Quais recursos temos para detectar ameaças externas?
3) Como os ataques cibernéticos estão evoluindo?

Gerenciar as consequências “exige que os líderes olhem para fora para planejar os efeitos potenciais de um ataque cibernético em clientes, fornecedores, mercados financeiros e na reputação da empresa. … A decisão de se comunicar abertamente com clientes, acionistas e o público em geral provou ser especialmente valiosa, de acordo com um CEO em nosso estudo. Gerou não apenas feedback positivo dos clientes, mas também inúmeras ofertas de ajuda de clientes, fornecedores e até concorrentes.” Para gerenciar melhor as consequências de um ataque, as empresas devem levantar estas questões:

1) Como nossas principais partes interessadas responderiam e o que podemos fazer para moldar essas respostas?
2) Que recursos temos para antecipar como as partes interessadas podem responder?
3) Como nossos clientes seriam afetados?

Responder e recuperar “Requer a compreensão das capacidades da organização para tomar as medidas adequadas em caso de um ataque cibernético e identificar potenciais pontos fracos nos processos, habilidades de liderança e planos de backup. Os executivos em nosso estudo aconselharam que a resposta deve se concentrar primeiro na recuperação e falaram sobre a importância de ter o suporte da liderança para as equipes de tecnologia durante todo o esforço de recuperação.” Estas perguntas devem ser úteis no planejamento da resposta a um ataque:

1) Quais recursos temos para responder a um ataque cibernético e como podemos melhorá-los?
2) Que fraquezas impediriam nossa resposta?
3) Qual é o nosso plano para a continuidade dos negócios em caso de um ataque cibernético?

Em 2022, Hepfer e seus colaboradores publicaram um segundo artigo baseado em sua pesquisa, Construindo a resiliência cibernética antes que o próximo ataque ocorra. “Lições e insights de ataques cibernéticos anteriores podem ajudar as empresas a se prepararem e responderem com mais sucesso a ameaças futuras”, disseram os autores. Para entender as melhores práticas e os erros a serem evitados na resposta a ataques cibernéticos, eles analisaram suas entrevistas com executivos seniores cujas empresas sofreram ataques cibernéticos graves e coletaram dados de centros de treinamento em segurança cibernética que ajudam os executivos a se preparar para crises simulando ataques cibernéticos realistas em suas empresas. Deixe-me resumir suas descobertas.

Quando um ataque cibernético acontece, os líderes empresariais geralmente são confrontados com problemas desconhecidos, esmagadores e aparentemente aleatórios. A experiência mostra que eles devem evitar alguns erros comuns: em vez de definir prazos irreais para a recuperação, espere até entender a escala total e o impacto do ataque; em vez de tentar lidar com o ataque por conta própria, procure apoio externo e ajuda especializada; e não tente analisar e corrigir erros que possam ter tornado o ataque possível até que a estabilidade seja restaurada e o negócio esteja funcionando.

Por fim, aqui estão algumas boas práticas baseadas nas ações das empresas mais resilientes:

Planeje e prepare-se. Como não há praticamente nada que uma empresa possa fazer para evitar um ataque cibernético, o importante é estar o mais preparado possível quando um ataque acontecer. “Infelizmente, nossa pesquisa mostra que a maioria das empresas gasta a maior parte de seu tempo, dinheiro e atenção na proteção de sua infraestrutura de TI enquanto negligencia outros elementos de resiliência organizacional.”

Não delegue, lidere. Uma resposta bem-sucedida é uma questão de liderança organizacional e responsabilidade coletiva, bem como coordenação e tomada de decisões eficazes durante a crise. “Em nossa experiência, os executivos seniores que guiaram suas empresas por meio de ataques cibernéticos passam por uma grande mudança de mentalidade. Em particular, eles deixam de lado qualquer crença anterior de que o ônus de responder a ataques cibernéticos recai principalmente sobre seus especialistas em tecnologia”.

Forneça uma comunicação aberta e consistente. Tentar manter um ataque em segredo não funciona. “Em nossa pesquisa, encontramos vários exemplos de funcionários dando dicas a pessoas de fora – em muitos casos, inadvertidamente. Em contraste, expor os fatos ajuda a moldar a narrativa em torno da história e pode ajudar a proteger a reputação da empresa.”

“Como o risco de futuros ataques cibernéticos continua a aumentar, as apostas para empresas e líderes não poderiam ser maiores”, escreveram os autores em conclusão. “As principais descobertas de nossa pesquisa – que o sucesso ou fracasso na sequência de um ataque cibernético depende da liderança em toda a organização, da experiência prática de crise com antecedência e da comunicação consistente – fornecem orientação para os executivos seniores enfrentarem ameaças futuras com sucesso.”

17/08/2022

Podemos confiar nos modelos de linguagem de IA?

Uma das principais descobertas do Relatório de Índice de IA de 2022 foi que grandes modelos de linguagem (em inglês Large Language Models – ou LLMs) estão estabelecendo recordes em benchmarks técnicos graças aos avanços em redes neurais profundas e poder computacional, que permite que algoritmos sejam treinados usando grandes quantidades de dados. Os LLMs agora estão superando as linhas de base humanas em várias tarefas de linguagem complexas, incluindo compreensão do idioma inglês, resumo de texto, inferência de linguagem natural e tradução automática.


Este é o título de um artigo recente da New York Times Magazine do escritor de ciências Steven Johnson, que deu uma olhada de perto em um desses LLMs, o Generative Pre-Trained Transformer 3, referido como GPT-3. O GPT-3 foi criado pela empresa de pesquisa de Inteligência Artificial – OpenAI. Ele foi treinado com mais de 700 gigabytes de dados de toda a web, juntamente com uma grande coleção de texto de livros digitalizados. “Desde o lançamento do GPT-3, a internet está repleta de exemplos da estranha facilidade do software com a linguagem – junto com seus pontos cegos e pontos fracos e outras tendências mais sinistras”, disse Johnson.

[Um exemplo desse poder computacional é este blog, que é transcrito diretamente de texto para áudio em um podcast, totalmente automatizado e com recursos de fala incrivelmente satisfatório].

“Até agora, os experimentos com grandes modelos de linguagem foram principalmente esses: experimentos sondando o modelo em busca de sinais de verdadeira inteligência, explorando seus usos criativos e expondo seus preconceitos. Mas o potencial comercial final é enorme. Se a trajetória existente continuar, softwares como o GPT-3 podem revolucionar a forma como buscamos informações nos próximos anos.”

Em vez de digitar algumas palavras-chave no Google e receber de volta uma longa lista de links que podem ter a resposta, você pergunta ao GPT-3 o que está procurando em inglês e recebe uma resposta bem escrita e precisa. “O atendimento ao cliente pode ser totalmente transformado: qualquer empresa com um produto que atualmente exija uma equipe de suporte técnico humano pode treinar um LLM para substituí-los”.

O conceito-chave do GPT-3 é a previsão da próxima palavra, com a qual estamos bastante familiarizados ao digitar um documento, email ou mensagem e o recurso de preenchimento automático, que tenta prever as próximas prováveis palavras. Mas o GPT-3 não é apenas capaz de prever as próximas palavras. Ele pode gerar frases e parágrafos inteiros no estilo do texto original. Logo após o GPT-3 estar online em 2020, “a equipe da OpenAI descobriu que a rede neural havia desenvolvido habilidades surpreendentemente eficazes para escrever software de computador, mesmo que os dados de treinamento não incluíssem deliberadamente exemplos de código. Descobriu-se que a web está cheia de inúmeras páginas que incluem exemplos de programação de computadores, acompanhados de descrições do que o código foi projetado para fazer; a partir dessas pistas elementares, o GPT-3 efetivamente aprendeu a programar“. O GPT-3 já pode gerar documentos legais, como contratos de licenciamento ou arrendamentos, e pode fazê-lo de forma semelhante os humanos, em qualquer campo que envolva documentos estruturados.

Por mais impressionante que seja o GPT-3, seus recursos são estatísticos e mecanicistas. “A Inteligência Artificial tem uma longa história de criar a ilusão de inteligência ou compreensão sem realmente entregar esses valores.” As primeiras conquistas, como mecanismos de inferência e sistemas especialistas, levaram os pesquisadores a concluir que as máquinas alcançariam inteligência no nível humano dentro de algumas décadas. Mas esse otimismo inicial entrou em colapso, levando aos chamados Invernos de Inteligência Artificial nas décadas de 1970 e 1980. A atual onda de entusiasmo é a maior até agora, devido a conquistas como o AlphaGo do Google, que derrotou inesperadamente um dos melhores jogadores de Go do mundo em 2016. Esse é o contexto do desempenho notável do GPT-3 e outros grandes modelos de linguagem. Alguns temem que, se outro surto de expectativas infladas for seguido por uma desilusão com os limites práticos da Inteligência Artificial, algum tipo de outono da Inteligência Artificial possa acontecer.

“Parecia quase impossível que uma máquina pudesse gerar um texto tão lúcido e responsivo baseado inteiramente no treinamento elementar da previsão da próxima palavra”, escreveu Johnson. “Como podemos determinar se o GPT-3 está realmente gerando suas próprias ideias ou apenas parafraseando a sintaxe da linguagem que escaneou dos servidores da Wikipedia, ou qualquer outra base de informação?”

“Este não é apenas um debate esotérico”, acrescenta. “Se, de fato, os grandes modelos de linguagem já estão exibindo algum tipo de inteligência emergente, isso pode até sugerir um caminho para a verdadeira inteligência artificial”. Mas se os LLMs e modelos semelhantes de Inteligência Artificial baseados em deep learning acabarem prometendo mais do que podem entregar, “então a Inteligência Artificial pode recuar, mais uma vez, para um horizonte distante”.

O artigo levanta uma série de contra argumentos de advertência, considerando as conquistas dos LLMs como evidência de progresso ao longo do caminho para a Inteligência Artificial, e aqui está, resumidamente, alguns desses argumentos.

Os LLMs são apenas papagaios

Esse termo “papagaio”, foi cunhado em um artigo provocativo, On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?, de Emily Bender e Timnit Gebru. Seu artigo argumentou que os LLMs estavam apenas remixando o enorme número de frases de autoria humana usadas em seu treinamento. Sua impressionante capacidade de gerar frases convincentes e articuladas nos dá a ilusão de que estamos lidando com um humano bem educado e inteligente, e não com um papagaio que não tem uma compreensão humana das ideias subjacentes às frases que está montando.

Outro desafio importante com grandes sistemas de aprendizado profundo é sua natureza de caixa preta. É muito difícil explicar em termos humanos por que os algoritmos escolhem uma resposta ou uma saída em detrimento de outras. Os LLMs têm um grande número de parâmetros dentro de suas redes neurais complexas, tornando muito difícil avaliar as contribuições individuais humanas para uma decisão em termos que um humano entenderá. “Esta é uma razão pela qual existe o debate sobre grandes modelos de linguagem”, disse Johnson. “Algumas pessoas argumentam que a compreensão de alto nível está surgindo, graças às camadas profundas da rede neural. Outros pensam que o programa, por definição, não pode chegar ao verdadeiro entendimento simplesmente tentando o tempo todo ‘adivinhar a palavra que falta’. Mas ninguém realmente sabe como isso funciona.”

Além disso, quanto maiores os conjuntos de dados de treinamento, maior a probabilidade de incluir preconceitos racistas, sexistas, extremistas e outros nocivos, bem como padrões de linguagem abertamente abusivas e ideologias nocivas. Uma grande descoberta do Relatório de Índice de Inteligência Artificial de 2022 foi que: “Os grandes modelos de linguagem estão estabelecendo novos recordes em benchmarks técnicos, mas novos dados mostram que modelos maiores também são mais capazes de refletir vieses de seus dados de treinamento. Um modelo de 280 bilhões de parâmetros desenvolvido em 2021 mostra um aumento de 29% na toxicidade eliciada em relação a um modelo de 117 milhões de parâmetros considerado o estado da arte em 2018.”

Além de ser preciso e articulado, deve haver um processo para adaptar os modelos de linguagem à sociedade para que eles sejam treinados para filtrar preconceitos e toxicidade, assim como ensinamos valores sociais a nossos filhos. “Nunca tivemos que ensinar valores às nossas máquinas antes”, observou Johnson.

Falta de conhecimento do senso comum

Os LLMs também carecem do conhecimento de senso comum sobre o mundo do qual a inteligência humana depende. Johnson faz referência a uma coluna recente de Melanie Mitchell, onde ela escreveu que “entender a linguagem requer entender o mundo, e uma máquina exposta apenas à linguagem não pode obter tal entendimento”.

O conhecimento do senso comum inclui o tipo de habilidades cognitivas que nossos cérebros biológicos dão como certo. Embora o aprendizado profundo exija grandes quantidades de dados de treinamento para funcionar no nível humano, as crianças podem aprender com um pequeno número de exemplos. “Algumas fotos de livros de histórias podem ensiná-los não apenas sobre gatos e cães, mas também sobre onças, rinocerontes e unicórnios”, escreveu a professora da UC Berkeley, Alison Gopney, em um ensaio do WSJ de 2019, The Ultimate Learning Machines. “Um dos segredos da aprendizagem das crianças é que elas constroem modelos ou teorias do mundo. … até bebês de 1 ano sabem muito sobre objetos: ficam surpresos se veem um carrinho de brinquedo pairar no ar ou passar por uma parede, mesmo que nunca tenham visto o carro ou a parede antes.”

Os LLMs são confiáveis?

“O debate mais acalorado sobre grandes modelos de linguagem não gira em torno da questão de saber se eles podem ser treinados para entender o mundo”, escreveu Johnson. “Em vez disso, gira em torno de saber se eles podem ser confiáveis.”

Os sistemas de aprendizado profundo se saem melhor ao analisar dados que se assemelham aos dados usados em seu treinamento. Mas ao tentar generalizar ou ir além destes, eles podem apresentar um tipo de problema de alucinação, sendo enganados por pequenas perturbações em suas entradas que não enganariam os humanos.

Além disso, os LLMs têm propensões ainda mais preocupantes, como usar linguagem abertamente racista; gerando desinformação conspiratória; e oferecendo aconselhamento sobre risco de vida para questões de saúde ou segurança.

“Todas essas falhas decorrem de um fato inescapável”, acrescenta Johnson: “Para obter um conjunto de dados grande o suficiente para fazer o trabalho de um LLM, você precisa ir fundo na web mais ampla. E a web mais ampla é, infelizmente, uma representação do nosso estado mental coletivo, como espécie, que continua a ser atormentado por preconceitos, desinformação e outras toxinas”.

“No entanto, o problema de treinamento será resolvido nos próximos anos, o GPT-3 e seus pares deixaram uma coisa surpreendente clara: as máquinas adquiriram linguagem”, escreveu Johnson em conclusão. “Se você passar bastante tempo com o GPT-3, conjurando novos prompts para explorar suas capacidades e suas falhas, acaba se sentindo como se estivesse interagindo com uma espécie de criança prodígio cujo brilho é obscurecido por algumas limitações óbvias: capaz de saltos surpreendentes de inferência; possuindo profundo conhecimento de domínio em uma vasta gama de campos, mas chocantemente ignorante sobre muitos fatos básicos; propenso a digressões estranhas e sem sentido; livre de etiqueta e normas sociais”.

“Não sei se essa mistura complicada de qualidades constitui um ‘vislumbre’ de inteligência geral, mas sei que interagir com ela é qualitativamente diferente de qualquer experiência que tive com uma máquina antes. A própria premissa de que agora estamos tendo um debate sério sobre a melhor maneira de incutir valores morais e cívicos em nossos softwares deve deixar claro que cruzamos um limite importante”.

16/08/2022

Inteligência Artificial segura, controlável e compatível com humanos

“Mesmo em seu estado atual, a tecnologia da inteligência artificial levanta muitas preocupações à medida que passa da pesquisa para o uso generalizado”, escreveu Stuart Russell, professor da UC Berkeley, em um ensaio recente, If We Succeed. “Essas preocupações incluem possíveis usos indevidos, como crimes cibernéticos, vigilância, desinformação e manipulação política; a exacerbação da desigualdade e de muitas formas de preconceito na sociedade; a criação e implantação de armas autônomas letais; e a usurpação dos papéis humanos na economia e nas relações sociais”.

“Minha preocupação aqui, no entanto, é com as possíveis consequências do sucesso na criação de IA de propósito geral: ou seja, sistemas capazes de aprender rapidamente a ter um desempenho de alto nível em qualquer ambiente de tarefa em que humanos (ou coleções de humanos) possam ter um bom desempenho.” Décadas atrás, Alan Turing expressou uma preocupação semelhante. Ao responder a uma pergunta durante uma palestra em 1951, Turing disse: “Parece provável que, uma vez iniciado o método de pensamento da máquina, não demoraria muito para superar nossos fracos poderes. … Em algum momento, portanto, devemos esperar que as máquinas assumam o controle.” Ao longo da última década, várias figuras públicas como Stephen Hawking e Nick Bostrom argumentaram que uma IA superinteligente pode se tornar difícil ou impossível para os humanos controlarem, e pode até representar uma ameaça existencial para a humanidade.

Até recentemente, não precisávamos nos preocupar com as consequências de tais IAs sobre-humanas porque os aplicativos de IA não eram tão inteligentes e eram principalmente confinados a laboratórios de pesquisa. Mas, sistemas de IA poderosos agora igualaram ou superaram os níveis humanos de desempenho em várias tarefas específicas de aplicativos, como reconhecimento de imagem e fala, classificação de câncer de pele, detecção de câncer de mama e jogos complexos como Jeopardy e Go. Embora esses avanços específicos de aplicativos – geralmente chamados de IA suave ou estreita – já tenham sido vistos como domínio exclusivo dos humanos, a IA ainda carece da inteligência humana mais profunda e de propósito geral que há muito é medida em testes de QI.

“A IA de uso geral tem sido o objetivo de longo prazo do campo desde o seu início”, observou Russell. “Dados os enormes níveis de investimento em pesquisa e desenvolvimento de IA e o influxo de pesquisadores talentosos no campo, é razoável supor que avanços fundamentais continuarão a ocorrer à medida que encontrarmos novas aplicações para as quais as técnicas e conceitos existentes são inadequados. … Os benefícios potenciais da IA de uso geral seriam muito maiores do que os de uma coleção de sistemas de IA restritos e específicos de aplicativos. Por esse motivo, a perspectiva de criar IA de uso geral está gerando investimentos maciços e rivalidades geopolíticas”.

Russell não está preocupado que sistemas de IA cada vez mais poderosos se tornem espontaneamente conscientes e decidam ferir ou eliminar humanos em algum momento no futuro. Sua preocupação é com o dano potencial que pode ser infligido por uma IA poderosa que os humanos são incapazes de controlar, não porque seja maliciosa, mas porque foi mal desenvolvida e testada inadequadamente. Vimos desastres devido a tecnologias mal desenvolvidas e gerenciadas em várias áreas, como os reatores nucleares de Chernobyl e Fukushima.

As preocupações de Russell com a IA e suas propostas para superá-las são o assunto de seu livro de 2019 Human Compatible: Artificial Intelligence and the Problem of Control, e estão bem resumidos neste periódico do NY Times e neste excelente seminário da Stanford.

De acordo com noções de longa data do comportamento humano, uma ação racional é aquela que pode ser esperada para alcançar os objetivos de alguém. Quando a IA surgiu na década de 1950, os pesquisadores tomaram emprestado essas noções de comportamento racional em humanos para definir a inteligência da máquina: uma máquina é inteligente na medida em que suas ações podem alcançar seus objetivos. Russell chama isso de modelo padrão em IA.

No entanto, diferentemente dos humanos, as máquinas não têm objetivos próprios, então cabe a nós não apenas criar as máquinas, mas definir os objetivos que queremos que elas alcancem. “Quanto mais inteligente a máquina, maior a probabilidade de completar esse objetivo.”

“Infelizmente, este modelo padrão é um erro”, disse Russell. “Não faz sentido projetar máquinas que sejam benéficas para nós apenas se anotarmos nossos objetivos de forma completa e correta.” O que acontece se as máquinas estão perseguindo os objetivos fixos que lhes demos, mas esses objetivos estão desalinhados com o benefício humano? Não há necessidade de assumir que as máquinas estão fora de controle devido a alguma consciência emergente que gerou espontaneamente seus próprios objetivos. “Tudo o que é necessário para supor uma catástrofe é uma máquina altamente competente combinada com humanos que têm uma capacidade imperfeita de especificar as preferências humanas de forma completa e correta. É por isso que, quando um gênio nos concede três desejos, nosso terceiro desejo é sempre desfazer os dois primeiros desejos.” As consequências de desencadear forças que entendemos inadequadamente foram retratadas no segmento O Aprendiz de Feiticeiro – filme clássico dos anos 1940, Fantasia.

“O modelo padrão, então, apesar de todas as suas conquistas, é um erro. O erro vem de transferir uma definição perfeitamente razoável de inteligência de humanos para máquinas. Não é racional para humanos implantar máquinas que perseguem objetivos fixos quando há uma possibilidade significativa de que esses objetivos divirjam dos nossos.” Tal futuro é quase inevitável porque há pouca chance de que possamos especificar nossos objetivos de forma completa e correta. “Na verdade, podemos perder o controle completamente, pois as máquinas tomam medidas preventivas para garantir que o objetivo declarado seja alcançado.”

Em vez disso, devemos projetar sistemas de IA que sejam benéficos para os humanos, não apenas inteligentes. Em vez de desenvolver máquinas para atingir seus próprios objetivos, devemos adotar um modelo de IA diferente: as máquinas são benéficas na medida em que suas ações podem alcançar nossos objetivos. Isso significa que as máquinas necessariamente estarão incertas sobre nossos objetivos, sendo obrigadas a persegui-los em nosso nome. Essa chance pode parecer pequena, mas é crucial.

“A incerteza sobre os objetivos pode parecer contraproducente, mas na verdade é uma característica essencial de sistemas inteligentes seguros. Isso implica que não importa o quão inteligentes elas se tornem, as máquinas sempre se submeterão aos humanos. Eles pedirão permissão quando apropriado, aceitarão a correção e, o mais importante, permitirão que sejam desligados – precisamente porque querem evitar fazer o que quer que dê aos humanos uma razão para desligá-los. Uma vez que o foco mude da construção de máquinas inteligentes para aquelas que são benéficas, controlá-las se tornará uma tarefa muito mais fácil.”

Colocar esse modelo em prática exigirá muita pesquisa nas próximas décadas, disse Russell em conclusão. “Isso não será fácil. Mas está claro que esse modelo deve estar em vigor antes que as habilidades da IA. sistemas excedem os humanos nas áreas que importam. Se conseguirmos fazer isso, o resultado será uma nova relação entre humanos e máquinas, que espero que nos permita navegar com sucesso nas próximas décadas.”

03/08/2022

O Podcast do MIT

No início desta semana, a Initiative on the Digital Economy do MIT lançou um novo podcast, The Digital Insider, com Sinan Aral. Aral é professor na MIT Sloan School of Management e diretor da Initiative on the Digital Economy. Ele também é o autor do livro de 2020 The Hype Machine.

Gosto de caminhar todos os dias com meus cães, e quando o tempo permite, gosto de caminhar e ouvir um bom podcast. Acabei de ouvir o primeiro episódio de The Digital Insider e foi realmente muito bom.

No episódio, Sinan entrevistou Maria Ressa, jornalista e autora filipino-americana, cofundadora e CEO do Rappler, um novo site online filipino. Maria tem sido uma crítica proeminente dos abusos dos direitos humanos do presidente filipino Rodrigo Duterte, pelos quais foi presa e condenada. Junto com o jornalista russo Dmitry Muratov, Maria recebeu o Prêmio Nobel da Paz de 2021 por “seus esforços para salvaguardar a liberdade de expressão, que é uma pré-condição para a democracia e a paz duradoura”.

O podcast Digital Insider visa explorar a ciência por trás da economia digital, bem como como a economia digital realmente funciona. “Do viés da IA aos NFTs; notícias falsas para mercados de dois lados; criptomoedas à computação quântica, Sinan e convidados entendem as mudanças rápidas que ocorrem no mundo impulsionado pela tecnologia.”

30/07/2022

A dívida digital no uso da Internet

O seminário do MIT de Esteban Moro, professor da Universidad Carlos III em Madri e professor visitante do MIT discutiu a dívida digital socioeconômico com base em como usamos a internet, com foco em duas questões-chave:Quão profunda é a lacuna de uso digital em nossa sociedade?; e
Como podemos usar o tráfego de telefones celulares para inferir o status socioeconômico?

Seu seminário foi baseado em um artigo recentemente publicado no Journal of the Royal Society Interface em co-autoria com outros colaboradores, – A Divisão socioeconômica do consumo de serviços móveis.

“A desigualdade é um problema, especialmente em áreas urbanas em rápida expansão”, escreveram os autores. “Embora seja um fator crucial para o crescimento econômico, a progressiva aglomeração de trabalhadores, indústrias, empresas e serviços nas cidades, isso tem um custo tremendo em termos de segregação e discriminação. Esse custo não é apenas econômico: em uma mesma cidade, diferentes áreas podem ter um desequilíbrio de 10 a 15 anos na expectativa de vida e níveis de educação altamente divergentes, com poucas chances de mobilidade social.”

“O desenho e a implementação bem-sucedida de políticas para aliviar esses problemas exigem informações detalhadas e atualizadas com frequência sobre renda, educação ou desigualdade nas áreas metropolitanas”, acrescentaram. “Entretanto, a maioria das fontes de dados hoje empregadas, como censos ou pesquisas demográficas, padecem de escassa cobertura populacional ou de atualização pouco frequente, não permitindo acompanhar a rápida evolução que as sociedades urbanas vivenciam atualmente. Assim, as formas tradicionais de entender as cidades tendem a explicar o que aconteceu 5 anos antes, em vez de prever ou antever as transformações urbanas.”

Em seu seminário, Moro referiu-se a dívida socioeconômico baseado em como usamos a internet como a segunda dívida digital, em contraste com a dívida digital original que era baseado no acesso à internet.

Estar online na década de 1990 exigia um computador pessoal e uma conta com um provedor de serviços, e as transações de comércio eletrônico exigiam um cartão de crédito e uma conta bancária. À medida que nossa economia foi se tornando cada vez mais digital, grandes novas desigualdades estavam surgindo porque muitos ao redor do mundo não podiam comprar um PC ou ter uma conta na Internet e não tinham relacionamento bancário ou cartão de crédito. O alcance e a conectividade com os quais estávamos tão empolgados nesta fase inicial da era da internet não eram, na realidade, tão inclusivos. Embora a Internet tenha sido realmente empoderadora para aqueles com meios para usá-la, ela levou a uma crescente divisão digital em todo o mundo. A internet estava inaugurando uma revolução digital global, mas era desconcertante ter uma revolução digital global que deixou de fora a maioria da população mundial.

Esse quadro começou a mudar nos anos 2000. Os avanços tecnológicos contínuos estavam agora trazendo os benefícios de capacitação da revolução digital para a maioria da população do planeta. Os telefones celulares e o acesso sem fio à Internet passaram de um luxo a uma necessidade que a maioria das pessoas agora podia pagar, inicialmente nas economias avançadas e depois na maior parte do do mundo. Estávamos em transição da economia conectada de PCs, navegadores e servidores web para uma economia digital cada vez mais hiperconectada de dispositivos móveis onipresentes, poderosos e baratos, aplicativos baseados em nuvem e redes sem fio de banda larga.

Embora a lacuna original de acesso à internet seja agora mínima nas economias desenvolvidas, Moro e seus colaboradores descobriram que agora surgiu uma lacuna de uso digital, representando os usos distintos da internet por diferentes grupos socioeconômicos com base principalmente em sua renda e status educacional.

Para medir essa lacuna de uso digital, seu artigo argumentou que o consumo específico de serviços móveis por cada grupo era um indicador adequado para analisar a desigualdade econômica e social nas economias avançadas, uma vez que os padrões de consumo eram um reflexo direto dos interesses pessoais e digitais dos usuários. Consequentemente, seu estudo é baseado na análise de 3,7 bilhões de registros de tráfego móvel coletados pela principal operadora móvel da França nos 45 dias ou mais entre meados de maio e junho de 2017. Os registros foram marcados com data e hora e vinculados a estações base de rede de onde se originou o acesso à Internet.

Os registros capturaram o comportamento móvel de cerca de 15 milhões de indivíduos em todo o país enquanto acessavam diferentes aplicativos, – por exemplo, YouTube, Facebook, Netflix, – de seus dispositivos Apple ou Android. Para investigar as diferenças no uso relativo de aplicativos móveis específicos por grupos de renda e escolaridade, a análise considerou apenas o uso da internet registrado entre 20h e 7h durante a semana, – as horas em que os indivíduos tinham maior probabilidade de estar em suas casas ou perto de suas casas. Seu uso de telefone celular foi então vinculado aos dados demográficos de sua área de origem com base no censo da França de 2014-2015.

“Vale a pena notar que nossos resultados são baseados em uma análise de dados de telefones celulares que preserva totalmente a privacidade. Enquanto outras métricas baseadas na mobilidade do usuário e nas comunicações precisam de dados individuais ou de alta resolução, nossas variáveis são construídas usando agregados de tráfego na rede.”

O estudo encontrou evidências quantitativas de uma divisão digital significativa no uso da internet entre dois grupos socioeconômicos, cada um com renda e nível educacional diferentes. Em princípio, todos os indivíduos tinham acesso à mesma internet. Mas, o estudo descobriu que cada grupo geralmente acessava sua própria versão distinta da internet, e seu comportamento socioeconômico foi influenciado pelos serviços e informações bastante diferentes aos quais foram expostos. Ao analisar os fluxos de tráfego móvel, o estudo identificou os principais serviços que cada grupo acessou:Maior renda e dados demográficos de educação – O tráfego de busca de informações predomina, por exemplo, notícias, e-mail, pesquisa; Instagram, WhatsApp e Twitter são os aplicativos de mídia social dominantes; jogos como Clash of Clans são os mais usados,…
Baixa renda e dados demográficos de educação – O tráfego de entretenimento predomina, por exemplo, streaming de vídeo, jogos, serviços para adultos; Facebook e Snapchat são os aplicativos de mídia social dominantes; jogos como Candy Crush são os mais usados, …

“A lacuna de uso digital é tão profunda entre áreas de baixa e alta renda ou de baixa ou alta escolaridade que pode ser usada para distinguir claramente entre elas ou mesmo identificar a composição relativa desses grupos em uma determinada área”, escreveram os autores. “Áreas de alta renda ou com acesso ao ensino superior apresentam uma utilização mais acentuada de dispositivos móveis para consumir notícias, trocar e-mails, buscar informações ou ouvir música. Ao mesmo tempo, eles apresentam um uso reduzido de algumas plataformas de mídia social ou serviços de streaming de vídeo. Esses resultados são válidos mesmo quando controlamos a composição etária e outras variáveis do censo, como uma população imigrante”. Além disso, as descobertas destacam “uma singularidade espacial pronunciada no consumo de cada aplicativo, quando o uso relativo é comparado em diferentes unidades geográficas em escala nacional”.

“A lacuna de uso digital é tão grande que podemos inferir com precisão o status socioeconômico de uma pequena área ou mesmo seu coeficiente Gini [uma medida de desigualdade de renda] apenas a partir do tráfego de dados agregados. Nossos resultados defendem uma maneira barata, de preservação da privacidade, em tempo real e escalável de entender a divisão do uso digital e, por sua vez, a pobreza, o desemprego ou o crescimento econômico em nossas sociedades por meio de dados de telefones celulares”.

27/07/2022

Tendências de trabalho: como obter o híbrido certo?

“As pessoas que retornam ao escritório não são as mesmas que saíram em março de 2020”, escreveu Jared Spataro, vice-presidente corporativo da Microsoft para Trabalho Moderno, no artigo da Harvard Business Review (HBR), 5 principais tendências que os líderes precisam entender para trabalho híbrido. O artigo resumiu as descobertas do Índice de Tendências de Trabalho de 2022 da Microsoft, um relatório baseado em várias fontes de informação, incluindo uma pesquisa com 31.000 pessoas em 31 países, tendências trabalhistas do LinkedIn e trilhões de sinais do pacote Microsoft 365 de aplicativos de produtividade.

“Os dados mostram que os últimos dois anos deixaram uma marca indelével na psique dos trabalhadores, alterando suas expectativas e mudando fundamentalmente a forma como o trabalho é feito”, disse Spataro. “Este é um momento crucial, onde a liderança importa mais do que nunca. Aqueles que adotam uma nova mentalidade e mudam as normas culturais irão posicionar melhor seu pessoal e seus negócios para o sucesso a longo prazo. Adaptar-se ao influxo de mudanças neste ambiente de negócios não é tarefa fácil.”

“Depois de muitos falsos começos, as organizações estão finalmente mudando para um verdadeiro modelo de trabalho híbrido. Como todos os outros pontos de virada nos últimos dois anos, não faltam perspectivas sobre como será essa próxima fase.” No entanto, não há como voltar ao modo como o trabalho era antes. Adaptar-se às muitas mudanças neste ambiente de negócios é um desafio enfrentado por todos os líderes. Para navegar na transição para o trabalho híbrido, os líderes precisam entender cinco tendências principais.

Os funcionários têm prioridades diferentes quando se trata de trabalho e vida

“Quando se trata de trabalho, os funcionários estão redefinindo sua equação de valor: o que eles querem do trabalho e o que estão dispostos a dar em troca”, escreveu Spataro. Os últimos dois anos reformularam suas prioridades, traçando uma linha clara entre o que é mais importante – família, saúde, bem-estar pessoal – e o que não é. Ter uma mesa no escritório, pode não ser mais o que as pessoas mais valorizam.

47% dos entrevistados disseram que agora estão mais propensos a colocar a vida familiar e pessoal em detrimento do trabalho do que antes da pandemia; e

53% disseram que são mais propensos a priorizar a saúde e o bem-estar, principalmente os pais (55%) e as mulheres (56%).

Essas expectativas em mudança podem ajudar a explicar a chamada Grande Reorganização.

18% de todos os entrevistados deixaram o emprego nos últimos 12 meses, citando bem-estar pessoal ou saúde mental (24%) equilíbrio entre vida profissional e pessoal (24%), risco de contrair Covid (21%), falta de confiança na alta administração (21%) e falta de flexibilidade no horário de trabalho ou local (21%) como os cinco principais motivos para desistir.

Ilustrando a mudança de prioridades está o fato de que a falta de promoções e aumentos foi ainda mais baixa em 19%.

“Quando perguntados o que eles queriam de um novo empregador, no topo da lista estava a cultura positiva (46%), com benefícios de bem-estar (42%), um senso de propósito e significado (40%), horários flexíveis (38%), e mais de duas semanas de férias (35%) não muito atrás.”

Os gerentes se sentem presos entre as expectativas da liderança e dos funcionários.

Os gerentes estão se sentindo presos entre essas novas expectativas de funcionários e a liderança de suas empresas.

54% dos gerentes sentem que sua liderança está fora de sintonia com as mudanças nas prioridades dos funcionários nos últimos dois anos.

Por exemplo, 50% dos líderes planejam exigir que os funcionários retornem ao escritório em tempo integral, enquanto 52% dos funcionários esperam mudar para o trabalho híbrido ou remoto no próximo ano. Outros estudos concluíram da mesma forma que o trabalho híbrido permanecerá por muito tempo após o término da pandemia e projetam que cerca de 20% dos dias de trabalho completos dos trabalhadores americanos serão em casa, cerca de quatro vezes o nível pré-Covid.

Os desejos de trabalhar em casa parte da semana são difundidos entre os grupos, independentemente da idade, educação, sexo, renda e circunstâncias familiares. O relatório da Microsoft observou que os empregos remotos no LinkedIn atraíram quase 3 vezes mais aplicativos do que os cargos no local. E de acordo com esta pesquisa de 2021, mais de 40% dos entrevistados disseram que deixariam ou começariam a procurar um novo emprego se fossem forçados a voltar ao escritório em tempo integral, e 56% disseram que estariam mais propensos a considerar um novo emprego que permitiu-lhes trabalhar em casa parte da semana.

“Com mais de dois anos de trabalho remoto ou híbrido, os funcionários sentem que não apenas sobreviveram ao trabalho flexível – eles ficaram muito bons nisso”, escreveu Spataro.

“80% acreditam que sua produtividade permaneceu a mesma ou melhorou, em contraste com 54% dos líderes de negócios que temem que sua equipe tenha sido menos produtiva desde a mudança para remoto ou híbrido. Com 74% dos gerentes dizendo que não têm a influência ou os recursos necessários para fazer mudanças em nome de sua equipe, há uma lacuna clara que precisa ser abordada.”

Os líderes precisam fazer com que o escritório valha a pena

Qual o papel do escritório na economia pós-pandemia?

Para os trabalhadores de escritório, ir trabalhar era equivalente a ir a um evento. Mas, isso não é mais o caso. Como as organizações agora tentam incentivar os funcionários a voltar ao escritório, elas precisam explicar por que estão fazendo isso.

Mais de 1/3 (38%) dos entrevistados da pesquisa da Microsoft disseram que “seu maior desafio é saber quando e por que entrar no escritório”, mas relativamente poucas empresas (28%) definiram claramente as novas normas para o trabalho híbrido. E, enquanto mais de 40% dos funcionários híbridos ou remotos disseram que não se sentem incluídos nas reuniões, apenas 27% das empresas definiram a etiqueta necessária para reuniões híbridas para garantir que todos se sintam incluídos e engajados.

“Para fazer com que o escritório valha a pena e criar uma experiência envolvente para todos, os líderes precisam ser intencionais sobre quem, onde e por que se reunir pessoalmente e definir uma nova etiqueta de reunião que dê a todos um lugar à mesa.”

Trabalho flexível não precisa significar “sempre ativo”

Parte do motivo do aumento da produtividade nos últimos dois anos é que as pessoas estão trabalhando mais do que nunca, incluindo reuniões, bate-papos, horas mais longas e trabalho de fim de semana. Os dados do Microsoft Teams mostram um aumento na duração da jornada de trabalho para o usuário médio (13%), mais trabalho após o expediente (28%) e fim de semana (14%), mais tempo gasto em reuniões (252%) e um aumento no número de reuniões semanais (153%) e chats (32%).

Ao mesmo tempo, as pessoas reformularam seu dia de trabalho para melhor atender às suas necessidades, como reuniões que começam mais tarde na segunda-feira e terminam mais cedo na sexta-feira, menos reuniões na hora do almoço e um aumento de 10% no tempo fora do escritório para atender questões pessoais.

“Embora esses sejam sinais promissores de esforços individuais para manter o equilíbrio, para tornar o trabalho flexível sustentável, as equipes devem estabelecer novas normas que estabeleçam limites para que a flexibilidade de uma pessoa não se torne a de outra sempre.”

A reconstrução do capital social parece diferente em um mundo híbrido

Uma das consequências mais importantes do trabalho remoto e híbrido tem sido seu impacto nas relações no local de trabalho. Os dados mostram que 58% dos funcionários híbridos conseguiram manter fortes laços de equipe, cerca de 50% dos totalmente remotos conseguiram e 42% disseram manter bons relacionamentos fora de suas equipes imediatas. 43% dos líderes disseram que a construção de relacionamentos é o maior desafio no trabalho híbrido e remoto. Este é um problema particular para os novos funcionários, que se destacam como um grupo que precisa de relacionamentos mais fortes no local de trabalho, com 56% dizendo que provavelmente considerarão mudar de emprego no próximo ano.

“As organizações não podem ver o retorno ao escritório como a única maneira de reconstruir o capital social que perdemos nos últimos dois anos. Ao criar o tempo e o espaço para que a construção de relacionamento aconteça e incentivar as equipes (especialmente os funcionários remotos e novos) a priorizar a rede e a conexão pessoal, os funcionários podem recuperar o terreno perdido.”

“Estes últimos dois anos deixaram uma marca duradoura que será sentida nos próximos anos”, escreveu Spataro em conclusão. “À medida que os líderes navegam pelos efeitos cascata, a disposição de se adaptar e adotar novas formas de pensar e trabalhar será uma vantagem competitiva que colocará organizações prósperas à frente do grupo.”

24/07/2022

Podemos confiar nas previsões dos grandes modelos de aprendizado de máquina?

A inteligência artificial emergiu como a tecnologia definidora de nossa era, tão transformadora ao longo do tempo quanto a máquina a vapor, a eletricidade, os computadores e a Internet. As tecnologias de Inteligência Artificial estão se aproximando ou superando os níveis humanos de desempenho em visão, reconhecimento de fala, tradução de idiomas e outros domínios humanos. Os avanços do aprendizado de máquina (Machine Learn), como o aprendizado profundo (Deep Learn), desempenharam um papel central nas conquistas recentes da Inteligência Artificial, dando aos computadores a capacidade de serem treinados ingerindo e analisando grandes quantidades de dados em vez de serem programados explicitamente.

O aprendizado profundo é uma técnica estatística poderosa para classificar padrões usando grandes conjuntos de dados de treinamento e redes neurais de IA de várias camadas. Cada unidade neural artificial é conectada a muitas outras unidades, e os links podem ser estatisticamente reforçados ou diminuídos com base nos dados usados para treinar o sistema. Mas esses métodos estatísticos não são igualmente adequados para todas as tarefas. Tarefas particularmente adequadas para aprendizado de máquina exibem vários critérios importantes, como a disponibilidade de grandes conjuntos de dados de pares de entrada-saída bem definidos para treinamento de classificadores de Machine Learn, – por exemplo, imagens de gato e não-gato cuidadosamente rotuladas para classificadores de reconhecimento de gato e pares de documentos inglês-francês para algoritmos de tradução automática.

Os métodos por trás de uma previsão de aprendizado de máquina – ajustes sutis nos pesos numéricos que interconectam seu grande número de neurônios artificiais – são muito difíceis de explicar porque são muito diferentes dos métodos usados por humanos. Quanto maior o conjunto de dados de treinamento, mais precisa será a previsão, mas mais difícil será fornecer uma explicação detalhada e compreensível para um humano de como a previsão foi feita.

Algumas semanas atrás, participei do seminário on-line, – Como você pode confiar no aprendizado de máquina? Ministrado pelo professor de Stanford Carlos Guestrin, – sobre a dificuldade de entender as previsões de aprendizado de máquina. O seminário de Guestrin foi baseado em um artigo de 2016 que ele escreveu em coautoria com Marco Tulio Ribeiro e Sameer Singh, “Why Should I Trust You?” (Por que eu deveria acreditar em você?).

“Apesar da ampla adoção, os modelos de aprendizado de máquina permanecem principalmente caixas pretas”, disse o artigo. “Entender as razões por trás das previsões é, no entanto, muito importante para avaliar a confiança, que é fundamental se alguém planeja agir com base em uma previsão ou ao escolher se deseja implantar um novo modelo. Esse entendimento também fornece insights sobre o modelo, que pode ser usado para transformar um modelo ou previsão não confiável em um modelo confiável.”

“Infelizmente, o importante papel dos humanos é um aspecto muitas vezes esquecido no campo. Se os humanos estão usando classificadores de aprendizado de máquina diretamente como ferramentas ou implantando modelos em outros produtos, uma preocupação vital permanece: se os usuários não confiarem em um modelo ou previsão, eles não o usarão”.

É importante entender a diferença entre um modelo e as várias previsões individuais que esse modelo pode fazer. Um usuário confiará em uma previsão individual o suficiente para tomar alguma ação se confiar que o modelo que fez a previsão está se comportando de maneira razoável.

“Ambos são diretamente impactados pelo quanto o humano entende o comportamento de um modelo, em vez de vê-lo como uma caixa preta”.

Determinar se uma previsão é confiável é particularmente importante quando um modelo de aprendizado de máquina é usado em diagnóstico médico, diretrizes de condenação, detecção de terrorismo e aplicativos semelhantes que exigem julgamento humano. Nesses casos, as consequências de não entender o comportamento do modelo e apenas agir em sua previsão com base na fé cega podem ser muito graves.

“Além de confiar nas previsões individuais, também é necessário avaliar o modelo como um todo antes de implantá-lo na natureza. Para tomar essa decisão, os usuários precisam estar confiantes de que o modelo terá um bom desempenho em dados do mundo real, de acordo com as métricas de interesse. Atualmente, os modelos são avaliados usando métricas de precisão em um conjunto de dados de validação disponível. No entanto, os dados do mundo real geralmente são significativamente diferentes e, além disso, a métrica de avaliação pode não ser indicativa do objetivo do produto. Inspecionar previsões individuais e suas explicações é uma solução que vale a pena, além de tais métricas. Nesse caso, é importante ajudar os usuários sugerindo quais instâncias devem ser inspecionadas, especialmente para grandes conjuntos de dados.”

O artigo apresenta o LIME, – Local Interpretable Model-Agnostic Explanations, – um novo método para explicar as previsões de qualquer classificador de Machine Learn para aumentar a confiança e o entendimento humanos.

“Ao explicar uma previsão, queremos dizer apresentar artefatos textuais ou visuais que fornecem compreensão qualitativa da relação entre os componentes da instância (por exemplo, palavras em texto, patches em uma imagem) e a previsão do modelo.”

Usando o LIME, você pode aproximar o comportamento de qualquer modelo de aprendizado de máquina, por mais complexo que seja, com uma série de modelos locais mais simples cujas previsões são semelhantes às do modelo original. E você pode selecionar os modelos locais perturbando ou variando as entradas, vendo como as previsões mudam e, em seguida, selecionando os modelos locais mais simples cujas previsões estão mais próximas da previsão do modelo original. Sendo consideravelmente mais simples, os modelos locais devem ser compreensíveis e fazer sentido para os seres humanos. Assim, embora entender o modelo de aprendizado de máquina original seja uma tarefa assustadora, deve ser muito mais fácil entender os modelos locais mais simples cujas previsões são semelhantes ao original.

Para uma explicação detalhada do LIME, assista ao seminário de Guestrin aqui.

De acordo com o artigo, uma explicação eficaz deve apresentar quatro características principais:Para garantir que as explicações do LIME sejam compreensíveis e aumentem a confiança, os autores validaram a utilidade do LIME. “através de novos experimentos, tanto simulados quanto com seres humanos, em vários cenários que exigem confiança: decidir se devemos confiar em uma previsão, escolher entre modelos, melhorar um classificador não confiável e identificar por que um classificador não deve ser confiável”.

Interpretável. A explicação deve fornecer um entendimento qualitativo e compreensível entre as variáveis de entrada e a previsão, que leve em consideração as limitações do público-alvo. “Por exemplo, se centenas ou milhares de recursos contribuem significativamente para uma previsão, não é razoável esperar que qualquer usuário compreenda por que a previsão foi feita, mesmo que pesos individuais possam ser inspecionados”.

Fidelidade local. Este é o conceito central do LIME. “Embora muitas vezes seja impossível que uma explicação seja completamente fiel a menos que seja a descrição completa do próprio modelo, para que uma explicação seja significativa ela deve ser pelo menos localmente fiel, ou seja, deve corresponder a como o modelo se comporta na vizinhança da instância que está sendo prevista. … características que são globalmente importantes podem não ser importantes no contexto local e vice-versa.”
Modelo-agnóstico. O método de explicação deve tratar o modelo original de aprendizado de máquina como uma caixa preta e, assim, ser capaz de explicar qualquer modelo existente e futuro.
Perspectiva global. Em vez de explicar apenas uma previsão, várias explicações representativas do modelo geral devem ser apresentadas ao usuário.

Para garantir que as explicações do LIME sejam compreensíveis e aumentem a confiança, os autores validaram a utilidade do LIME “através de novos experimentos, tanto simulados quanto com seres humanos, em vários cenários que exigem confiança: decidir se devemos confiar em uma previsão, escolher entre modelos, melhorar um classificador não confiável e identificar por que um classificador não deve ser confiável”.

26/06/2022

Além do PIB: medindo o progresso econômico

“O que se entende por progresso econômico e como ele deve ser medido?”.

Essa foi a pergunta que os economistas Diane Coyle e Leonard Nakamura fizeram, no artigo entitulado: Uso do tempo e medição de bem-estar centrada na família na economia digital.

“A resposta convencional a essa pergunta é: o crescimento econômico deve ser medido através do Produto Interno Bruto ou PIB real, ao longo do tempo, que é uma medida monetária global, ajustada para a taxa geral de aumento dos preços. Porém, há um interesse crescente em desenvolver uma compreensão alternativa do progresso econômico, particularmente no contexto da digitalização da economia e das consequentes mudanças que o uso da Internet está trazendo na produção e na atividade doméstica.”

O Produto Interno Bruto (PIB) tornou-se o padrão internacional aceito de medição do progresso econômico, na década de 1940. Foi um bom padrão de medida, para uma economia industrial dominada pela produção de bens físicos, mas o PIB não reflete importantes atividades econômicas, como: renda, consumo e qualidade de vida; nem projeta as informações de bem-estar econômico ou utilidades. Então, até que ponto um bem ou serviço satisfaz os desejos e necessidades de um indivíduo e como ele pode ser medido?

Como citado, o PIB não inclui o valor das quantidades crescentes de bens de informação gratuitos, agora disponíveis na economia digital baseada na Internet, incluindo e-mail, textos, mídias sociais, mapas, aplicativos e vídeos.

Em seu artigo, Coyle e Nakamura propõem uma abordagem alternativa para medir o progresso econômico com base em quanto tempo as pessoas gastam em diferentes atividades diárias – por exemplo, trabalho remunerado, tarefas domésticas, lazer e consumo – combinadas com medidas de sensação de bem-estar. “Em uma economia que é quatro quintos de serviços em vez de bens, com tempo para consumir, portanto, inerente à maioria da atividade econômica, a utilidade dos diferentes usos do tempo parece fundamental para entender o bem-estar econômico, bem como a produtividade.”

“As mudanças atuais na alocação de tempo das pessoas devido à tecnologia digital estão ocorrendo no contexto das principais tendências seculares.” O tempo de lazer aumentou significativamente desde a década de 1950.

O número de horas que os homens trabalharam em seus empregos diminuiu, enquanto as mulheres gastaram menos horas no trabalho doméstico à medida que sua participação no trabalho aumentou. O aumento do tempo de lazer tem sido desigual, com indivíduos em ocupações de baixa renda trabalhando menos horas e, portanto, tendo mais tempo de lazer, enquanto aqueles em ocupações de maior renda trabalham mais horas e têm menos tempo de lazer. A tendência de longo prazo é que o tempo gasto no mercado e no trabalho doméstico continue a diminuir devido aos avanços na tecnologia, automação e produtividade; e por um aumento no tempo gasto em atividades de lazer e consumo, mediadas digitalmente, como pesquisa online, mídia social, compras e entretenimento.

“Embora a teoria econômica normalmente ignore o tempo necessário para consumir bens e serviços, o fato de que o tempo disponível é limitado a 24 horas por dia, essa é, a restrição definitiva na economia – e na vida. Na verdade, é uma identidade: todo o tempo disponível será ‘gasto’ de alguma forma.” As escolhas que as pessoas fazem sobre como gastar seu tempo, bem como as considerações de bem-estar que influenciam essas escolhas são, portanto, uma boa medida do progresso econômico. Mas, como você pode fazer essas medições?

As aplicações digitais estão impactando diretamente na forma como gastamos o tempo, especialmente na compra e consumo de serviços. Por exemplo, o tempo economizado usando compras on-line ou serviços bancários em vez de ir pessoalmente a uma loja ou banco pode ser usado em uma atividade de lazer, como streaming de um filme ou série de TV. Ou, em vez de perder tempo esperando por um compromisso em longas filas, os aplicativos móveis podem ajudar a transformar esses períodos de tédio ou descontentamento em oportunidades para recuperar o atraso no trabalho ou nas atividades pessoais.

“Uma característica desafiadora é que substituições desse tipo podem ser difíceis de definir por meio de estudos de uso do tempo. … Autorrelatos são uma forma de explorar essas dimensões. Em princípio, as pesquisas de uso do tempo podem capturar as atividades primárias e alternativas em que as pessoas estão envolvidas em um determinado momento, mas isso é claramente um pouco mais difícil do que verificar se alguém está passando roupa e assistindo TV ao mesmo tempo”.

Uma abordagem alternativa para pesquisas de uso do tempo é perguntar às pessoas quanto tempo elas estariam dispostas a gastar em cada atividade, como uma medida da utilidade ou valor que atribuem à atividade.

“A forma como nos sentimos trabalhando por remuneração, produzindo em casa ou no lazer engloba todas as nossas possibilidades de bem-estar. De fato, o tempo gasto oferece uma maneira potencialmente mais equitativa de avaliar bens não mercantis. Perguntar às pessoas quanto elas estariam dispostas a pagar por algo é sempre distorcido pela renda que elas têm (assim como os mercados representam excessivamente as preferências das pessoas ricas). Mas como o tempo é o grande nivelador, perguntar às pessoas quanto tempo elas estariam dispostas a gastar poderia fornecer avaliações mais equitativas.”

Em seu artigo, os autores discutem ainda uma série de desafios-chave que precisam ser trabalhados para implementar uma medida de bem-estar econômico baseada no tempo.

Deixe-me resumir brevemente alguns dos desafios.

1) A dificuldade de medir o bem-estar.

Sentimentos de bem-estar em relação ao trabalho remunerado e doméstico ou mesmo a atividades de lazer são intrinsecamente subjetivos, difíceis de quantificar e podem mudar ao longo do tempo. Os trabalhos podem ser agradáveis ou não, dependendo do que estamos fazendo atualmente, nossos vínculos sociais, status, remuneração e oportunidades futuras. Da mesma forma, algumas atividades domésticas são agradáveis e podem parecer mais como lazer, como cozinhar um prato favorito, enquanto outras parecem mais como tarefas que não gostamos, mas que devem ser feitas, como lavar a roupa.

2) O lazer pode ser agradável e produtivo.

A título pessoal, venho postando um blog semanalmente desde 2020, não porque sou pago para isso, mas como forma de acompanhar novas ideias e inovações, além de compartilhar o que aprendi com outras pessoas.

3) Medidas monetárias de bem-estar.

“Apesar dessas complexidades, em uma primeira aproximação, poderíamos pensar que as reduções de tempo (mantendo a produção constante) no trabalho remunerado e na produção doméstica – ou seja, no que chamamos de ‘trabalho’ – são uma melhoria no bem-estar.” Em outras palavras, tornar-se mais produtivo na realização do trabalho é uma melhoria no bem-estar. Por outro lado, levar mais tempo para realizar o trabalho, – por exemplo, ser menos produtivo – diminui o bem-estar.

“Na medida em que a felicidade pode ser relacionada à renda real e, portanto, traduzida em uma métrica monetária, as mudanças na felicidade podem ser interpretadas como equivalentes às mudanças na renda real”, disseram os autores. No entanto, eles acrescentaram que interações sociais, propósitos e outras métricas não monetárias podem ser dimensões alternativas para quantificar nossos sentimentos de bem-estar.

“É improvável que o esforço para chegar a uma medida adicional de bem-estar econômico tenha uma quantificação tão nítida ou incontroversa quanto nossas atuais medidas de PIB até que esta agenda de pesquisa esteja muito mais avançada”, escreveram Coyle e Nakamura em conclusão.

“Se há uma diferença crescente entre a resposta fornecida por medidas de PIB e medidas baseadas em bem-estar, então pode ser que uma medida de bem-estar deva se tornar parte do sistema de contas nacionais. Estabelecer essa contabilidade adicional pode ser crucial para que os economistas possam discutir questões de política econômica de forma significativa, em um contexto em que há um crescente questionamento público sobre se o crescimento real do PIB é uma medida adequada do amplo progresso econômico. No entanto, essa tarefa exigirá um diálogo sustentado entre os estatísticos do governo e a profissão de economia em geral”.

Além da Guerra de Preços: O Oceano Azul na Conectividade Brasileira

Introdução Lançado em 2005 por W. Chan Kim e Renée Mauborgne, A Estratégia do Oceano Azul revolucionou o pensamento estratégico...