03/08/2024

A IA pode acabar com a desigualdade nos mercados de trabalho?


Nas últimas três décadas, empregos que exigem qualificação especializada e habilidades complexas de comunicação aumentaram significativamente, com os ganhos dos trabalhadores com ensino superior, necessários para preencher tais empregos, aumentando de forma constante. Por outro lado, as oportunidades e os salários diminuíram para empregos de qualificação média e e para empregos administrativos, cujas carreiras foram impactadas pela automação.

Mas o novo tipo de automação — sistemas de inteligência artificial chamados grandes modelos de linguagem, como ChatGPT e Gemini do Google — estão mudando isso”, observou o artigo do NY Times, “In Reversal Because of AI, Office Jobs Are Now More at Risk. “Essas ferramentas podem processar e sintetizar informações rapidamente e gerar novos conteúdos. Os empregos mais expostos à automação, são os de escritório, que exigem poucas habilidades cognitivas, criatividade e níveis de educação. Os trabalhadores mais afetados são os mais bem pagos e há um pouco mais de probabilidade de serem mulheres, segundo pesquisas.”

O artigo do NYT faz referência a outros dois artigos que analisaram as ocupações mais expostas à IA, um do Pew Research Center e o outro do Goldman Sachs Research .

Historicamente, mudanças na tecnologia automatizaram tarefas físicas, como as realizadas em fábricas”, disse o relatório Pew, “Quais trabalhadores dos EUA estão mais expostos à IA em seus empregos?

A IA funciona como o poder cerebral humano e, à medida que seu alcance cresce, isso levanta questões sobre seu impacto em empregos médios e em empregos de alto nível – questões que o Pew Research Center busca abordar em uma nova análise, considerando dados governamentais.” A análise Pew é baseada em dados sobre 41 atividades de trabalho essenciais em 873 ocupações da Rede de Informações Ocupacionais do Departamento de Trabalho dos EUA (O*NET)

Aqui está um resumo das principais conclusões do relatório Pew.

  • Em 2022, cerca de 20% dos trabalhadores americanos estavam em empregos com alta exposição à IA — ou seja, atividades que podem ser substituídas ou auxiliadas pela IA — enquanto 23% dos trabalhadores estavam em empregos com menos expostas à IA.
  • Empregos com alta exposição à IA incluem análise de orçamento, preparadores de impostos, redatores técnicos e desenvolvedores web; os empregos de média exposição incluem diretores executivos, veterinários, designers de interiores e gerentes de vendas; e os empregos de baixa exposição incluem cuidadores de crianças, lavadores de pratos, barbeiros e bombeiros.
  • Empregos com alto nível de exposição à IA tendem a estar em áreas com salários mais altos; trabalhadores em empregos mais expostos ganhavam US$ 33 por hora, em média, em comparação com US$ 20 em empregos com menor exposição.
  • Trabalhadores com bacharelado ou mais (27%) têm mais que o dobro de probabilidade de enfrentar alta exposição à IA do que aqueles com apenas o ensino médio (12%).
  • A maioria dos trabalhadores provavelmente estará em empregos com menos exposição à IA do que em empregos com mais exposição, especialmente homens, trabalhadores mais jovens, aqueles com menos educação formal e trabalhadores negros e hispânicos.
  • Uma parcela maior de mulheres (21%) do que de homens (17%) provavelmente será mais exposta à IA, devido às diferenças nos tipos de empregos ocupados por homens e mulheres.
  • Trabalhadores americanos em setores mais expostos não sentem que seus empregos estejam em risco; por exemplo, cerca de 1/3 dos trabalhadores em tecnologia da informação dizem que a IA os ajudará mais do que os prejudicará, em comparação com 11% que dizem que ela prejudicará mais do que ajudará.

Vamos agora olhar para o relatório do Goldman Sachs, “Os efeitos potencialmente grandes da inteligência artificial no crescimento econômico”. 

Apesar das incertezas em torno do potencial da IA, ela reflete um grande avanço com efeitos potencialmente grandes”, disse o relatório. 

A capacidade da IA ​​de (1) gerar novo conteúdo indistinguível da produção criada por humanos e (2) quebrar barreiras de comunicação entre humanos e máquinas reflete um grande avanço com efeitos macroeconômicos potencialmente grandes”.

Para avaliar a parcela do trabalho exposto à automação baseada em IA, o relatório do Goldman Sachs analisou dados sobre mais de 900 ocupações nos EUA do banco de dados O*NET , bem como dados sobre mais de 2.000 ocupações do banco de dados ESCO da Comissão Europeia .

Se a IA entregar suas capacidades prometidas, o mercado de trabalho pode enfrentar uma grave interrupção. Usando dados sobre tarefas ocupacionais nos EUA e na Europa, descobriu-se que, cerca de 2/3 dos empregos estão expostos a algum grau de automação de IA, e que a IA pode substituir até 1/4 do trabalho atual.” 

Estimativas globais sugerem que a IA pode ter um impacto em 18% dos empregos ao redor do mundo, o equivalente a 300 milhões de empregos de tempo integral.

Aqui estão algumas das principais conclusões do relatório sobre o impacto da IA no trabalho:

  • Silvicultura e pesca (21%); e ocupações nas forças armadas (22%).
  • A maioria dos empregos e indústrias estão apenas parcialmente expostos à automação e, portanto, têm mais probabilidade de serem complementados do que substituídos pela IA: espera-se que 63% dos empregos atuais nos EUA sejam complementados, 7% sejam substituídos e 30% não sejam afetados.
  • No geral, espera-se que a IA melhore a produtividade da grande maioria das ocupações; o maior impacto da automação da IA ​​é esperado nos campos jurídico e administrativo; e o menor impacto é esperado em trabalhos manuais e ao ar livre.

A IA tem o potencial para um boom na produtividade do trabalho e um aumento significativo na produção global. “[A] maioria dos trabalhadores está empregada em ocupações que são parcialmente expostas à automação da IA ​​e, após a adoção da IA, provavelmente aplicarão pelo menos parte de sua capacidade em atividades produtivas que aumentam a produção.

Além disso, “muitos trabalhadores que são deslocados pela automação da IA ​​acabarão sendo reempregados — e, portanto, aumentarão a produção total — em novas ocupações que surgem diretamente da adoção da IA ​​ou em resposta ao maior nível de demanda agregada e de mão de obra” gerado pelo aumento da produtividade da IA.

O momento de um boom de produtividade do trabalho de IA é difícil de prever, mas, com base no histórico de tecnologias transformadoras anteriores, o boom geralmente começa cerca de duas décadas após o avanço tecnológico, quando cerca de metade das empresas dos EUA adotaram a tecnologia. Mas o boom de produtividade do trabalho de IA pode acontecer mais rápido porque grande parte da infraestrutura necessária para adquirir e começar a usar novas tecnologias digitais já está em uso, incluindo a internet, computação em nuvem, software como serviço, lojas de aplicativos e outros avanços. “Nossa principal conclusão é que o impulso final para a produtividade do trabalho é incerto, mas na maioria dos cenários, permaneceria economicamente significativo”, disse o relatório do Goldman Sachs em conclusão.

O artigo do NY Times ainda discutiu mais implicações da IA, que, em vez de substituir cerca de 2/3 das ocupações dos EUA, de repente, muitos trabalhadores terão um assistente de IA ajudando-os a aprender novas habilidades e progredir mais rápido em suas carreiras. O artigo faz referência a outros dois documentos que citam que a IA é particularmente útil para funcionários juniores.

Generative AI at Work, um artigo do professor de Stanford Erik Brynjolfsson e seus colaboradores, descobriu que usar uma ferramenta baseada em AI aumentou a produtividade geral dos agentes de suporte ao cliente em 14% em média. O maior impacto, cerca de 35%, foi em trabalhadores novatos e pouco qualificados, enquanto o impacto em trabalhadores experientes e altamente qualificados foi mínimo.

O segundo artigo, “Evidência Experimental sobre os Efeitos de Produtividade da Inteligência Artificial,” foi baseado em um teste randômico com 444 profissionais de nível médio com ensino superior para avaliar o impacto da produtividade da IA em tarefas em áreas como relações humanas e marketing. Seus resultados mostraram que o ChatGPT aumentou substancialmente a produtividade média daqueles que usaram a tecnologia em 37%. Além disso, o uso do ChatGPT reduziu a desigualdade ao beneficiar mais os trabalhadores de baixa qualificação do que os de alta qualificação.

No último setor de automação analisado, o setor da indústria, houve aumento da desigualdade de renda ao privar trabalhadores sem ensino universitário de acesso a empregos de melhor remuneração, mostrou a pesquisa”, disse o artigo do NYT em conclusão. 

Este último trecho é a resposta do MS Copilot à pergunta: "A IA pode causar desemprego no mundo?"

Sim, a inteligência artificial (IA) tem o potencial de afetar significativamente o mercado de trabalho em todo o mundo. Economistas do Goldman Sachs estimam que até 300 milhões de empregos em tempo integral podem ser automatizados de alguma forma pela nova onda de IA, que gerou plataformas como o ChatGPT1. Além disso, o Fundo Monetário Internacional (FMI) prevê que quase 40% dos empregos em todo o mundo serão afetados pelo avanço da IA, substituindo alguns e complementando outros. No entanto, é importante observar que a adoção da IA também pode aumentar a produtividade do trabalho e impulsionar o PIB global em 7% ao ano durante um período de 10 anos. Portanto, embora a IA possa causar perturbações no mercado de trabalho, muitos empregos provavelmente serão complementados, em vez de substituídos.

IA e o futuro dos Sistemas de Saúde


Um importante Simpósio do MIT sobre sistemas comprexos, incluiu palestras sobre sistemas financeiros, energéticos e de saúde. Em particular, a palestra de Denis Cortese , que foi o presidente e CEO da Mayo Clinic, professor na Arizona State University e diretor do Centro de Prestação e Política de Saúde, me chamou a atenção. O Dr. Cortese explica que a assistência médica é um sistema dentro de  outros sistemas e é composta por três domínios principais: 

(1) Conhecimento — o domínio da pesquisa médica, onde novas ideias, invenções e abordagens são desenvolvidas; 

(2) Prestação de cuidados — o domínio dos médicos e hospitais onde os pacientes são tratados; e

(3) Pagadores — o domínio do seguro e dos governos que pagam pela prestação de assistência médica.

Cada um desses domínios é complexo por si só, mas suas interações são uma das principais razões pelas quais os sistemas de assistência médica são tão complexos.

A IA poderia a ajudar a lidar melhor com a complexidade dos sistemas de saúde? 

Após décadas de promessas e exageros, a IA se tornou a tecnologia definidora da nossa era. Nas últimas duas décadas, os elementos se uniram para impulsionar a IA além das universidades e laboratórios de pesquisa, para o mercado: tecnologias de computação; algoritmos e modelos avançados; e enormes quantidades de todos os tipos de dados, têm sido o elemento-chave para os principais avanços da IA ​​nos últimos 20 anos, incluindo big data e ciência de dados (anos 2000), aprendizado de máquina (anos 2010) e Large Language Models (LLMs) (anos 2020) e IA generativa, já em nossos dias.

Ao tentar entender o uso da IA ​​em sistemas de saúde, cheguei até o trabalho de John Halamka, presidente da Mayo Clinic Platform, uma organização que visa impulsionar inovações em diagnóstico, tratamento e melhorias operacionais em sistemas de saúde. John também é escritor, tendo vários artigos e livros sobre o assunto.

“No século XXI, é impossível definir a medicina sem levar em conta os avanços na ciência da computação e na inteligência artificial em particular, pois ambos impactam profundamente médicos e pacientes”, escreveram Halamka e Paul Cerrato no livro Redefining the Boundaries of Medicine.

No primeiro capítulo, “A promessa e o perigo da inteligência artificial”, os autores discutem os principais impulsionadores da transformação digital na saúde, incluindo:

  • A quantidade de novas informações médicas e técnicas, que são tão grandes que o cérebro humano é incapaz de processá-las, muito menos de aplicá-las à pacientes. Estima-se que quase 2 milhões de novos artigos científicos sejam publicados a cada ano.
  • As habilidades analíticas, a alfabetização computacional e a experiência clínica para chegar a diagnósticos precisos em cenários  de pacientes complexos.
  • A capacidade dos aplicativos de computador de melhorar a eficiência e reduzir erros ao lidar com muitos processos e procedimentos administrativos e operacionais, e
  • O reconhecimento na comunidade de saúde de que o atendimento ao paciente é tendencioso contra certos segmentos marginalizados da sociedade.

A crescente complexidade da medicina, combinada às limitações humanas, contribuem para a epidemia de diagnósticos errados que atormentam a profissão médica. Como Halamka e Cerrato escreveram em seu livro, Reinventing Clinical Decision Support, “todo ano, cerca de 5% dos pacientes ambulatoriais adultos nos Estados Unidos sofrem um erro de diagnóstico; os erros de diagnóstico contribuem para cerca de 1 em cada 10 mortes de pacientes, causando até 17% dos eventos adversos relatados em pacientes hospitalizados e afetam aproximadamente 12 milhões de pacientes ambulatoriais adultos por ano (1 em cada 20 americanos).”

Dado o papel central dos dados nos sistemas de IA, os registros eletrônicos de saúde (EHRs) desempenham um papel fundamental no desenvolvimento de sistemas de IA capazes de lidar com os desafios do mundo real no setor de saúde.

Conforme explicado no CMS.gov : “Um Registro Eletrônico de Saúde (EHR) é uma versão eletrônica do histórico médico de um paciente, que é mantido ao longo do tempo e pode incluir todos os principais dados clínicos administrativos relevantes para o atendimento dessa pessoa sob um provedor específico, incluindo dados demográficos, notas de progresso, problemas, medicamentos, sinais vitais, histórico médico, imunizações, dados laboratoriais e relatórios de radiologia.”

Os EHRs são o próximo passo no progresso contínuo da assistência médica que pode fortalecer o relacionamento entre pacientes e clínicos. Os dados, e a pontualidade e disponibilidade deles, permitirão que os provedores tomem melhores decisões e forneçam melhor atendimento.” Além disso, os EHRs podem melhorar o atendimento ao paciente e reduzir a incidência de erros médicos ao melhorar a precisão e a clareza dos registros.

Nos últimos anos, houve um avanço na adoção de padrões de EHR, como o Fast Healthcare Interoperability Resources (FHIR), um padrão para compartilhamento de informações entre clínicos e organizações, independente das formas como os EHRs apresentam ou armazenam os dados. Também houve um progresso significativo na redução das barreiras de interoperabilidade entre aplicativos de saúde de diferentes fornecedores. Como resultado, um número crescente de hospitais e práticas médicas agora implantaram aplicativos de EHR interoperáveis ​​e padronizados.

Um próximo passo importante é usar ferramentas baseadas em IA para analisar esse volume crescente de dados de EHR e fornecer conhecimento acionável aos médicos. De acordo com o artigo AI in healthcare da Wikipedia, algoritmos de IA mostraram resultados promissores em uma série de aplicações clínicas, incluindo o diagnóstico mais preciso e a estratificação de risco de pacientes com sintomas de doença arterial coronária, além do processamento de imagens para auxiliar dermatologistas na detecção de câncer de pele e a rápida identificação de tecido anormal em colonoscopias e endoscopias e detecção de câncer de mama e próstata.

As ferramentas de IA também podem ajudar os médicos a diagnosticar pacientes com sintomas raros, analisando dados de EHR em muitas instituições. “As condições médicas se tornaram mais complexas e, com um amplo histórico de registros médicos eletrônicos, a probabilidade de duplicação de casos é alta. Embora, alguém hoje com uma doença rara tenha menos probabilidade de ser a única pessoa a ter tido uma determinada doença, a incapacidade de acessar casos de origens sintomáticas semelhantes é um grande obstáculo para os médicos. A implementação de IA para ajudar não apenas a encontrar casos e tratamentos semelhantes, como por meio de preditores precoces da doença de Alzheimer e demências, mas também levar em consideração os principais sintomas e ajudar os médicos a fazer as perguntas mais apropriadas, ajuda o paciente a receber o diagnóstico e o tratamento mais precisos possíveis.”

Em uma época em que cada clique pode ser rastreado e os registros médicos são totalmente eletrônicos, os médicos devem ser capazes de referenciar digitalmente as decisões tomadas por outros clínicos para descobrir: O que aconteceu com outros pacientes como o meu?,” observou “Como os registros médicos podem fechar a lacuna de informações no atendimento ao paciente”, um artigo da Harvard Business Review (HBR) de 2023, coautorado por Halamka.

Considere este exemplo da vida real (a mãe de John Halamka): Uma mulher idosa que apresenta um estado mental prejudicado, febre e um baixo nível de sódio sérico. Ela é atendida e hospitalizada por um médico clínico geral, que reconhece que o paciente provavelmente tem uma infecção do trato urinário (ITU) e inicia o tratamento com antibióticos e redutores de febre. No entanto, uma ITU não explica inteiramente os baixos níveis de sódio do paciente. Embora o baixo sódio possa ser resultado da depuração renal de sódio, os pacientes com ITUs raramente apresentam baixo sódio, deixando o médico sem respostas.

Infelizmente, não há muitas respostas disponíveis porque um ensaio clínico envolvendo mulheres de 80 anos com estado mental prejudicado e sódio anormalmente baixo, não foi realizado no hospital onde a referida senhora está sendo tratada. Mas, com milhões de registros eletrônicos de pacientes disponíveis, uma consulta de banco de dados pode permitir que o médico diagnostique e trate o paciente com mais precisão, em vez de apenas tentar adivinhar.”

Mesmo médicos altamente treinados e qualificados vivenciam uma lacuna de evidências que prejudica sua capacidade de diagnosticar e tratar com precisão certos pacientes, o que é uma das razões pelas quais essa análise precisa ser feita rotineiramente. Consultas regulares a bancos de dados podem responder a perguntas clínicas críticas como”:

  • Qual é o diagnóstico correto?
  • Quais exames diagnósticos devem ser solicitados?
  • Qual é a implicação desse resultado laboratorial anormal ou marcador genômico?
  • Qual é o prognóstico típico para pacientes como esse?
  • Quais medicamentos ou outras modalidades de tratamento devem ser tomados, em que ordem, para otimizar os resultados?
  • Este procedimento valerá o risco e/ou custo para este paciente?
  • A vida do paciente pode ser prolongada ou melhorada com tratamentos alternativos?

Está claro que o futuro da assistência médica depende da democratização do conhecimento especializado por meio do aumento das habilidades humanas com algoritmos de IA”, escreveram Halamka e Cerrato em Redefining the Boundaries of Medicine . “No entanto, deve haver políticas claras sobre isso. Devemos garantir que sempre que a IA for usada para suporte à decisão, ela seja apropriada para o paciente que está sendo tratado. Devemos ter padrões internacionais que quantifiquem o viés, a utilidade e a adequação à finalidade. A explosão da pesquisa e o surgimento de novas fontes de dados — wearables, genômica e imagens avançadas — criaram um desafio de tomada de decisão que está além da escala humana. Garantir que essas novas ferramentas sejam usadas de forma ética depende de nós.”

25/07/2024

Código aberto e Sistemas de IA



Os sistemas de IA não operam como software tradicional – eles exigem processos distintos e dependem de recursos especializados, que atualmente são caros e estão nas mãos de algumas grandes empresas de tecnologia”, escreveram David Gray WidderMeredith Whittaker e Sarah Myers West, no artigo: “Open (for Business): Big Tech, Concentrated Power, and the Political Economy of Open AI”. “Mesmo assim, muitas das promessas originais do movimento de Open Source,  estão sendo projetadas na IA 'aberta'. Uma das promessas, era de que o código aberto ou o Open Source poderia democratizar o desenvolvimento de software, na perspectiva de que, o código aberto nivela a competição, permitindo que os mais inovadores consigam destaque. O Open Source já fez muito pela comunidade da Internet, em várias modalidades e instâncias. Mas com a IA 'aberta', a história é diferente.”

Estou pessoalmente envolvido com Open Source, projetos livres de licenças e outras iniciativas relacionadas nas últimas décadas. No final da década de 1990, liderei iniciativas para uso de sistemas e aplicações de código aberto em escolas e empresas, o que, na época, ajudou a fomentar o uso da Internet e da World Wide Web. Já, no início dos anos 2000, liderei iniciativas Linux Day, que desempenham, até hoje, um papel importante na divulgação e uso de soluções de código aberto tanto para usuários domésticos quanto para empresas, que ajudam a desenvolver e a divulgar a Linux Foundation.

Ao tentar entender como as promessas originais do Open Source agora se aplicam a esta nova geração de sistemas de IA, achei o artigo acima citado, bastante útil e aqui seguem meus comentários:

O que é (e o que não é) aberto na IA de código aberto

O artigo observa que o código aberto na IA é um conceito difícil de definir, em parte, porque a própria IA não está claramente definida, o que é "aberto" em sistemas altamente complexos como a IA. "De fato, ainda não há uma definição clara de IA 'aberta' ou 'de código aberto', mesmo que a atenção ao tópico tenha aumentado muito", observam os autores.

A inteligência artificial surgiu pela primeira vez em meados da década de 1950 como uma nova disciplina acadêmica que visava desenvolver máquinas inteligentes capazes de lidar com tarefas semelhantes às humanas, como processamento de linguagem natural. A IA se tornou uma das áreas mais empolgantes nas ciências da computação nas décadas de 1960, 1970 e 1980, mas depois de anos de promessas não cumpridas e exageros, houve um inverno da IA, com interesses e financiamentos reduzidos, que quase matou está área de estudo.

A IA renasceu na década de 1990 com um paradigma totalmente diferente baseado na análise de grandes quantidades de dados com algoritmos sofisticados e computadores poderosos. Esse paradigma de IA centrado em dados continuou a avançar nos últimos 20 anos com grandes inovações em diversas áreas como big dataanálise preditivaaprendizado de máquina e, recentemente, os grandes odelos de linguagem (LLMs) e chatbots generativos. A IA agora tem uma das, se não a principal tecnologia definidora do século XXI.

Como os sistemas de IA grandes e generativos, são os que mais claramente perturbam os limites e questionam as ideologias tradicionais de Open Source e ciência aberta, focamos principalmente nesses sistemas, neste artigo”, escreveram os autores. “Quando usamos o termo IA, estamos usando-o para nos referir a esses grandes sistemas.”

De modo geral, os termos 'aberto' e 'código aberto' são usados ​​no contexto da IA ​​de várias maneiras para se referir a capacidades que podem ser amplamente agrupadas como: (1) atributos de oferta de transparência — a capacidade de acessar e examinar código-fonte, documentação e dados; (2) reutilização — a capacidade e o licenciamento necessários para permitir que terceiros reutilizem código-fonte e/ou dados; e (3) extensibilidade — a capacidade de construir sobre modelos prontos existentes, 'ajustando-os' para um ou outro propósito específico.

Os termos 'aberto' e 'código aberto' são usados ​​de forma variável para se referir a esses atributos, na prática há diferentes graus de 'abertura' que oferecem níveis de acesso muito diferentes.”

“Embora existam alguns sistemas de IA abertos ao máximo, que oferecem transparência intencional e extensa — os recursos necessários para construir IA do zero e implantar grandes sistemas de IA em escala permanecem 'fechados' — disponíveis apenas para empresas com recursos significativos (quase sempre corporativos).” O artigo ainda faz referência a outro artigo “The Gradient of Generative AI Release: Methods and Considerations”, que define seis pontos principais de abertura em sistemas de IA generativos atuais.

Os argumentos a favor e contra a IA 'aberta'

A IA aberta está sendo referenciada atualmente por atores poderosos, com discursos políticos para moldar a trajetória regulatória em torno da IA”, observam os autores. “Conversas sobre IA 'aberta' têm implicações significativas e de alto risco além dos termos restritos de licenças e mecanismos de transparência estão sendo implantados para moldar o cenário geral da política de IA. Como em qualquer situação de lobby e influência, a retórica em torno da defesa da política de IA 'aberta' está sendo lida à luz dos interesses particulares da entidade que os faz. E, como no passado, a abertura está sendo usada hoje por empresas na forma de uma política retórica para fazer lobby, consolidar e reforçar suas posições.”

A adoção do Linux por grandes empresas nos anos 2000 foi acompanhada por desafios semelhantes a estes recentes da IA. Algumas das empresas que viam o Linux como uma ameaça competitiva atacaram fortemente as empresas que usavam Linux, bem como a comunidade Linux em geral. Ameaças contra o Linux e contra as empresas que o adotaram continuaram por anos, chegando a processos multimilionarios.

O artigo Open IA discutiu algumas das alegações feitas a favor e contra a IA de código aberto. E aqui estão duas das alegações, uma a favor: segurança por meio da transparência; e uma contra: aumento da insegurança .

A IA aberta cria segurança por meio da transparência

No final da década de 1990, algumas empresas americanas, que passaram a fazer uso de soluções de software Open Source em sistemas altamente sensíveis, criaram um Painel de discussão sobre Software Open Source, que incluía representantes de universidades, agências federais, laboratórios de pesquisas e fornecedores de supercomputação. O Painel realizou uma série de reuniões e na sequência, divulgou seu relatório em outubro de 2000 e as descobertas são particularmente relevantes para as discussões atuais:

Acreditamos que o modelo de desenvolvimento Open Source representa uma estratégia viável para produzir software de alta qualidade por meio de uma mistura de parcerias públicas, privadas e acadêmicas. … O software Open Source pode oferecer potenciais vantagens de segurança sobre o modelo de desenvolvimento proprietário tradicional. Especificamente, o acesso dos desenvolvedores ao código fonte, que permite um exame completo e que diminui potencial falhas de segurança. Além disso, o modelo de código aberto aumenta o número de programadores buscando por bugs e, subsequentemente, desenvolvendo correções, reduzindo assim áreas potenciais para exploração maliciosas.

Da mesma forma, o artigo Open AI observa que “a IA Open Source promove a segurança ao permitir que pesquisadores e autoridades auditem o desempenho do modelo, identifiquem riscos e estabeleçam mitigações ou contramedidas”. No entanto, os autores acrescentam que “a eficácia da auditoria como medida de segurança é fortemente baseada em garantir que recursos estejam disponíveis e incentivos alinhados de forma que auditorias realmente ocorram e sejam robustas o suficiente para levar em conta os riscos reais representados pela implantação de modelos de IA”.

IA aberta aumenta a insegurança

“Argumentos na direção oposta posicionam a IA Open Source como uma fonte de insegurança, ao tornar uma tecnologia tão poderosa amplamente disponível para reutilização, potencialmente colocando-a nas mãos de maus atores.”

“Preocupações sobre a insegurança da proliferação de modelos de IA Open Source são justificadas, entre outras razões, porque os modelos de código aberto permitem que a IA seja ajustada em pequena escala sem uma curva de aprendizado. Há poucos comentários e poucos claros sobre esse argumento, especialmente considerando aqueles que o fazem; é por que o acesso aos mesmos modelos ou modelos igualmente poderosos aos obtidos por meio de um contrato de nuvem da Microsoft ou Google — que é o padrão atual — representa menos perigo do que reutilizar um modelo de IA lançado abertamente. … Um pequeno número de empresas gigantes não garante, por si só, uma IA mais segura.”

Conclusão

“Mesmo em suas máximas instâncias, nas quais sistemas de IA 'abertos' fornecem transparência robusta, reutilização e extensibilidade, tais características não garantem, por si só, acesso democrático ou competição significativa em IA”, escreveram os autores na conclusão. “Nem tendo uma IA aberta sozinha resolve o problema da informação democrática ou segura. Mesmo assim, a retórica e a promessa de abertura em sistemas de IA estão sendo tratadas por empresas poderosas que tentam reforçar suas posições diante do crescente interesse na regulamentação da IA.”

“Os formuladores de políticas precisam abordar a regulamentação da IA com uma compreensão clara de coisas que a IA 'é' e 'não é', e com um reconhecimento fundamentado do que a IA 'aberta' pode e não pode entregar. Isso produzirá uma imagem muito diferente das possibilidades da IA ​​'aberta' do que aquela que está sendo desenhada atualmente. Também exigirá foco nas diferenças significativas entre software de código aberto e IA 'aberta', e reconhecimento de que os processos de desenvolvimento, requisitos de recursos e centralização inerente da IA ​​significam que ela não pode ser facilmente descrita ou definida em termos forjados originalmente para promover e definir software de código aberto.”


23/07/2024

Produtividade: crescimento lento x avanços tecnológicos vertiginosos


A produtividade, na economia, é considerada a relação entre aquilo o que é produzido e os meios empregados (mão-de-obra, materiais, energia, etc.). Produtividade tem a ver com eficiência e tempo: quanto menor for o tempo levado para obter o resultado pretendido, mais produtivo será o sistema.

Um dos quebra-cabeças mais difíceis de se resolver nas últimas décadas é a desaceleração no crescimento da produtividade em nações industrializadas, apesar dos avanços vertiginosos nas tecnologias de informação e comunicação (TIC) e na eletrônica”, escreveram os economistas Daron Acemoglu, David Autor e Christina Patterson em seu artigo Bottlenecks: Sectoral Imbalance and the US Productivity Paradox.

Nas últimas três décadas, as patentes de TIC e eletrônica e o crescimento da produtividade têm se movido em direções totalmente opostas. O número total de patentes concedidas entre 1990 e 2010 cresceu de 99.000 para 208.000, com as patentes de TIC e eletrônica respondendo por 80% desse aumento. E, enquanto o Fator Total de Produtividade (FTP), — geralmente considerada o principal contribuinte para o crescimento do PIB, — cresceu 1,7% nos EUA entre 1997 e 2005, sendo o crescimento mínimo, cerca de 0,4% desde 2005. Veja o gráfico dos últimos 10 anos.

Como esses fatos antagônicos podem ser resolvidos?”, perguntam os autores. Estamos em uma “nova era de abundância impulsionada por nossas máquinas cada vez mais inteligentes? Ou entramos em “uma era de crescimento mais lento porque as tecnologias de maior impacto já foram desenvolvidas e exploradas?”

Em artigo de 2018, The Productivity J-Curve, Erik Brynjolfsson, Daniel Rock e Chad Syverson explicam que tecnologias transformadoras — por exemplo, a máquina a vapor, eletricidade, semicondutores, internet, IA — são tecnologias definidoras de seus tempos. Mas, historicamente, alguns padrões nos dizem que há um atraso entre a aceitação do mercado de uma tecnologia transformadora e seu impacto mais amplo nas indústrias, economias e sociedades. Embora essas tecnologias tenham grande potencial desde o início, perceber esse potencial requer grandes investimentos, incluindo o redesenho de processos de negócios; novos produtos, aplicativos e modelos de negócios inovadores; a requalificação da força de trabalho; e um repensar da própria natureza da produção.

Em seu artigo, Acemoglu, Autor e Patterson ofereceram uma estrutura conceitual que explica as tendências conflitantes entre avanços tecnológicos e crescimento da produtividade: avanços tecnológicos e inovação em qualquer indústria dependem de inovações complementares nos insumos e ideias das indústrias fornecedoras em seu setor. Quando a inovação está desequilibrada em um setor, ela retém o crescimento da produtividade e gera obstáculos à inovação. “Nossa estrutura conceitual, portanto, enfatiza que uma distribuição equilibrada de avanços tecnológicos entre setores é importante para a viabilidade de inovações futuras. … Nossa perspectiva também enfatiza como uma distribuição mais equilibrada do progresso tecnológico (e pesquisa e desenvolvimento) pode melhorar o desempenho da produtividade.”

O artigo ilustra como os obstáculos surgem e como sua resolução acelera a inovação e o crescimento, com exemplos concretos de três tecnologias relativamente recentes: baterias recarregáveis, transistores e GPS.

Baterias recarregáveis. Baterias recarregáveis desempenharam um papel importante na alimentação de laptops, dispositivos móveis pessoais, carros elétricos e outras inovações importantes do século XXI. Baterias recarregáveis ​​foram um obstáculo tecnológico até a década de 1970 porque, por mais de cem anos, as melhores baterias disponíveis, baterias de chumbo, tinham baixa densidade de energia, uma taxa de carregamento lenta, um ciclo de vida curto e o potencial de liberar gás hidrogênio explosivo durante a recarga. O gargalo da bateria recarregável foi finalmente superado pelas baterias de íons de lítio, inventadas em 1973 e melhoradas ao longo da década de 1980. Em 1991, a Sony começou a produzir e vender as primeiras baterias de íons de lítio recarregáveis ​​do mundo.

Transistores. Embora na década de 1950, dispositivos eletrônicos, linhas telefônicas, rádios, transmissores, amplificadores de áudio e os primeiros computadores fossem grandes, frágeis e lentos porque os interruptores eletromecânicos e válvulas de vácuo que esses produtos usavam eram tecnologias de gargalo. O transistor, inventado nos Laboratórios Bell da ATT em 1947, foi comercializado pela primeira vez na década de 1950 em produtos simples como rádios transistorizados. Os transistores então permitiram o rápido crescimento dos computadores a partir da década de 1960. A Lei de Moore captura sucintamente os avanços impressionantes dos transistores e circuitos integrados nas décadas seguintes. "Estima-se que o transistor seja o dispositivo mais fabricado na história, com 13 sextilhões (1021) de unidades até o momento, com bilhões a mais produzidos a cada dia."

Sistema de Posicionamento Global. “A navegação tradicional foi complementada com sistemas de posicionamento de rádio na década de 1970, mas essas ferramentas sofriam de baixa precisão ou cobertura geográfica limitada e, portanto, não iam além das aplicações de transporte militar e comercial.” O GPS foi desenvolvido pelos militares dos EUA para superar essas deficiências. Os satélites GPS foram lançados pela primeira vez em 1978 e abertos ao uso público mundial em 1983. Ao longo dos anos, o GPS permitiu uma série de inovações importantes, incluindo “agricultura de precisão, mineração e exploração de petróleo; informações de tempo de precisão atômica para sincronização de sistemas de transmissão de energia; levantamento remoto para geologia e previsão do tempo; e inúmeros serviços voltados para o consumidor, como transporte por aplicativo, publicidade direcionada e rastreadores de objetos.”

Os autores desenvolveram um modelo matemático para formalizar sua estrutura conceitual, a saber, que o crescimento lento decorre em parte de uma distribuição desequilibrada de inovação. Eles então validaram empiricamente sua hipótese usando dados de uma variedade de fontes, incluindo links de citação, patentes e dados de crescimento de produtividade de 462 indústrias de manufatura e 42 indústrias não manufatureiras e aqui estão suas principais descobertas.

  • Por meio de uma variedade de abordagens de medição, resultados de produtividade e países, verificamos a previsão primária desta hipótese: o crescimento da produtividade de uma indústria é aumentado pelo crescimento médio da produtividade de seus fornecedores (medido pelo PTF ou inovação) e, crucialmente, é prejudicado pela variância do crescimento de sua produtividade.”
  • Há uma ligação poderosa entre a capacidade de inovação de um setor ou empresa e os desequilíbrios que ela enfrenta em seus setores a montante (ideia-fornecedor). Quanto maior a dispersão, ou seja, a variação ou a distribuição do crescimento da produtividade entre os fornecedores de uma indústria, maior a influência negativa que ela tem nas oportunidades de crescimento dessa indústria. Dobrar a variação do crescimento do FTP dos fornecedores em um setor está associado a um crescimento de produtividade aproximadamente 0,9 ponto percentual mais lento para esse setor.
  • A dispersão do crescimento do FTP entre as principais indústrias aumentou significativamente nas últimas décadas.” Essa dispersão maior explica essencialmente toda a desaceleração da produtividade agregada na manufatura entre as décadas de 1970 e 2007. Por exemplo, se a variação no crescimento do FTP na manufatura tivesse permanecido em seu nível de 1977–1987 nas duas décadas subsequentes, a produtividade da manufatura dos EUA teria crescido duas vezes mais rápido em 1997–2007 do que cresceu.
  • “A variação do FTP do fornecedor na indústria aumentou durante este período, tanto porque as indústrias atrasadas não conseguiram crescer quanto porque as indústrias líderes se afastaram das demais.”

As indústrias de crescimento mais rápido, definidas como aquelas que tiveram o maior impacto na variação do FTP do fornecedor entre 1997 e 2007, incluem computadores eletrônicos, dispositivos de armazenamento de computador e semicondutores. As indústrias de crescimento lento que se tornaram os maiores gargalos no mesmo período incluem refinarias de petróleo, preparação farmacêutica, montagem de circuitos impressos e geradores de turbina. E as indústrias com mais gargalos, definidas como aquelas retidas pela inovação desigual entre seus fornecedores, incluem instrumentos cirúrgicos e médicos, motores a gás e válvulas industriais. 

Esses resultados empíricos valem para toda a economia e, dentro do setor de manufatura (onde o FTP é melhor medido), eles estão presentes em diferentes sub períodos e com medidas alternativas de dispersão de produtividade. “Também verificamos que esses padrões não são impulsionados por outliers, nem são exclusivamente devidos aos rápidos avanços nos setores de computadores e eletrônicos (embora esses setores desempenhem um papel central em nossos resultados).” Além disso, “documentamos padrões análogos usando dados internacionais e estabelecemos que a dispersão na produtividade entre as principais indústrias fornecedoras nacionais e internacionais também tem sido um grande impedimento ao crescimento da produtividade para várias economias líderes da OCDE.

Vemos nossos resultados como sugestivos de uma ligação potencialmente importante entre gargalos de produtividade e crescimento de produtividade. … Nossa análise sugere ainda que, após avanços em setores que atuam como gargalos, deve haver uma aceleração do crescimento da produtividade agregada e da indústria.




21/07/2024

O valor do conhecimento humano x IA ​​generativa

No início de 2021, o então editor e contribuidor da Wikipédia Jon Gertner viu algo na internet que lhe chamou a atenção: a ascensão do GPT-3, um precursor dos novos chatbots da OpenAI, e ele decidiu escrever o artigo “Wikipedia's Moment of Truth”, para a NY Times Magazine . “Quando experimentei a nova tecnologia, me pareceu não tão confiável. O bot misturava elementos fictícios em respostas factuais e coerentes. Mas não tive dúvidas sobre seu potencial.”

O artigo chamou minha atenção porque há muito tempo uso a Wikipédia como meu site de referência para pesquisar tópicos sobre os quais quero aprender, além de usar links para artigos da Wikipédia como referências nos blog que publico desde 2005.

Na última década, a Wikipédia se tornou muito mais do que uma enciclopédia, — “um tipo de comunidade que mantém todo o mundo digital unido”. Google, Bing, Siri, Alexa e outros mecanismos de busca e assistentes digitais frequentemente contam com a Wikipédia para obter as informações necessárias para responder às perguntas dos usuários. A Wikipédia também tem sido uma das maiores fontes de dados, — estimada em cerca de 3% a 5%, — para treinamento de Large Language Models (LLMs) e chatbots relacionados. A Wikipédia tem desempenhado um papel importante no mundo digital porque suas grandes quantidades de dados são gratuitas, facilmente acessíveis, de alta qualidade e bem selecionadas.

Depois de experimentar o ChatGPT em 2021, um outro usuário, escreveu um ensaio com o título “Morte da Wikipédia”, no qual ele cita como a Wikipédia poderia perder seu lugar como a enciclopédia digital dominante. “Para alguma outra enciclopédia vencer a Wikipédia, ela teria que ser capaz de igualar algumas das vantagens construídas ao longo dos anos. Ou seja, que ter milhões de artigos e que esses artigos sejam atualizados rapidamente.”

Ele acrescentou que era improvável que uma enciclopédia sucessora tivesse os compromissos da Wikipédia com a transparência, objetivos não comerciais e a livre reutilização de seu conteúdo por meio de sua licença. “Esses valores ajudam na reputação e criam valor para os leitores no mundo todo.”

Eu, particularmente falando, não acreditava ser provável alcançar os feitos humanos da Wikipedia. Mas agora acredito que a inteligência artificial pode. A IA está melhorando exponencialmente a cada dia. No momento em que escrevo este artigo, já testei ser capaz de escrever um texto bastante competente, usando a IA. A longo prazo a IA pode substituir a Wikipédia e seus editores humanos, assim como a Wikipédia venceu a Enciclopédia Britånica.

“Na comunidade da Wikipédia, há cautela quando se fala em IA. Se administrada corretamente, ajudará a organização a melhorar em vez de quebrar”, citação do artigo da NYT Magazine . “Mesmo que os editores vençam a curto prazo, as máquinas vencerão no final”

Já houveram outras previsões sobre o fim da Wikipédia desde que foi fundada em 2001. Em comemoração ao 20º aniversário da Wikipédia, o professor Joseph Reagle da Northeastern University escreveu “As muitas (relatadas) mortes da Wikipédia”, um ensaio que explorou como a Wikipedia teve sua morte anunciada repetidas vezes nas últimas duas décadas e como ela encontrou maneiras de se adaptar e perdurar.

Reagle observou que, em seus primeiros anos, os críticos da Wikipédia e seus fundadores, exemplificaram três maneiras de pensar sobre o futuro:

1. Eles olharam para projetos de enciclopédia semelhantes para ter uma ideia do que é viável e aprenderam que, mesmo projetos bem financiados, como o Encarta da Microsoft, falharam em criar uma enciclopédia on-line sustentável.

2. Eles presumiram que os primeiros meses seriam muito difíceis - como no caso da Wikipédia.

O único modelo que não usamos foi justamente o crescimento exponencial, que caracterizou a criação de artigos da Wikipédia até 2007”, escreveu Reagle. 

Em seu primeiro ano, a Wikipedia esperava ter, um dia, 100.000 artigos, o que seria um pouco maior do que a maioria das enciclopédias impressas. Eles estimaram que se produzissem 1.000 artigos por mês, chegariam perto da meta em sete anos. E em 2007, a Wikipédia atingiu o inimaginável feito de ter dois milhões de artigos, — 20 vezes a estimativa original.

Mas em 2009, a inserção de novos artigos na Wikipédia diminuiu ou estagnou-se, e a atividade passou a tender cada vez para editores experientes em vez de continuar atraindo novos editores. O número de editores ativos caiu de 53.000 em 2007 para 30.000 em 2014.

Wikipédia pode sobreviver?, perguntou um outro artigo de opinião do NYT de 2015. Sim. "Parece que o número de editores ativos tem se mantido estável desde 2014, não caindo abaixo de 29 mil", escreveu Reagle.

“A única previsão que eu arriscaria para os próximos dez anos é que a Wikipédia ainda existirá”, ele acrescentou. “A plataforma e a comunidade têm um ímpeto que nenhuma alternativa, a curto prazo, vencerá. A comunidade Wikipédia sem dúvida enfrentará desafios e crises, como sempre enfrentou.”

Em setembro de 2023, a Wikipédia tinha mais de 6,7 milhões de artigos e mais de 118.000 editores ativos — que fizeram uma ou mais edições nos últimos 30 dias. E, de acordo com o artigo da Gertner na NYT Magazine , “a Wikipédia tem versões em 334 idiomas e um total de mais de 61 milhões de artigos. Ela está classificada entre os 10 sites mais visitados do mundo, no seleto grupo cujos líderes habituais, que são Google, YouTube e Facebook, mas é única em evitar o motivo lucro.”

O valor mais crítico da Wikipédia para a IA Generativa é o fato de que seu conhecimento é criado por humanos.

"Os chatbots de IA geralmente só vomitam o que engoliram da Wikipédia”, escreveu Gertner. “Incorporado em suas respostas o conhecimento que foi compilado ao longo de anos de trabalho meticuloso por colaboradores humanos.” 

Garantir que os sistemas de IA generativos sejam treinados com conteúdo meticulosamente criado por humanos é muito mais do que um caso de idealismo humano anti-IA. Acontece que, sem dados de treinamento gerados por humanos, os sistemas de IA inevitavelmente não funcionarão bem. Um outro artigo publicado em maio de 2023 definiu esse fenômeno em detalhes e o nomeou colapso do modelo.

Encontrei uma explicação mais simples sobre o colapso do modelo em um artigo recente da TechTarget “O colapso do modelo explicado: como os dados de treinamento sintético quebram a IA ”.

O colapso do modelo ocorre quando novos modelos generativos treinam em conteúdo gerado por IA e gradualmente degeneram seus resultados. Nesse cenário, os modelos começam literalmente a esquecer a verdadeira distribuição de dados. Isso significa que os modelos perdem a referência de informações sobre os aspectos menos comuns — mas ainda importantes — dos dados. À medida que as gerações de modelos de IA progridem, os modelos começam a produzir saídas cada vez mais semelhantes e menos diversas.”

Modelos de IA generativa precisam treinar em dados produzidos por humanos para funcionar de forma adequada. Quando treinados em conteúdo gerado por modelos, esses novos modelos exibem defeitos irreversíveis. Suas saídas se tornam cada vez mais 'erradas' e homogêneas. Pesquisadores descobriram que, mesmo nas melhores condições de aprendizado, o colapso do modelo era inevitável.”

" Estudar e entender o colapso do modelo é importante porque a IA generativa está pronta para trazer mudanças significativas no mundo digital. Mais e mais comunicações online estão sendo geradas usando ferramentas de IA. E esse fenômeno tem o potencial de criar poluição de dados em larga escala. Embora a criação de grandes quantidades de texto seja mais eficiente do que nunca, o estudo do colapso do modelo afirma que nenhum desses dados será valioso para treinar a próxima geração de modelos de IA.” 

19/05/2024

Guia de preços de conectividade WAN

Este artigo aborda como os serviços WAN mais comuns (P2P, Wave, Dark Fiber, MPLS e SD-WAN) são precificados, incluindo insights de preços destes serviços.

Em telecomunicações, as redes de longa distância (WANs) são responsáveis pela transmissão de informações entre vários locais e/ou data centers utilizando redes privadas. Basicamente uma WAN é uma rede, formada de várias redes, e permite que as empresas compartilhem dados, aplicativos e recursos entre as unidades da empresa; e essa a tecnologia WAN está se tornando cada vez mais complexa.

As WANs estão disponíveis em uma ampla variedade de provedores, sejam empresas de telecomunicações tradicionais, ISPs, operadoras de cabos, CLECs ou agregadores de telecomunicações. Neste artigo, mostrarei algumas tendências de preços dos produtos WAN mais comuns: P2Pwave, MPLSDark Fiber e SD-WAN. Cada um desses tipos de rede de longa distância vem com seu próprio conjunto de vantagens e desvantagens. Também compartilho aqui informações sobre preços para referência e suporte à decisão.

Preços

A indústria de telecomunicações, como tantas outras, não é transparente quando se trata de preços. E, devido à vasta disponibilidade de serviços, as estruturas de preços podem, à primeira vista, parecer complicadas, mas aqui estão algumas dicas importantes, relacionadas ao meu próprio trabalho como Pricing manager:

  • Com cerca de 5 mil cotações nos últimos 10 anos, costumo eliminar valores discrepantes (preços ridiculamente altos/baixos)
  • Nos casos de cotações mais altas e mais baixas, na maioria das vezes, elas representavam casos anormais, variação e incertezas, comums a qualquer mercado.
  • Como um pricing manager, tenho a oportunidade de consultar centenas de provedores de conectividade de todas as principais operadoras, locais e regionais e globais.
  • As cotações foram realizadas com maior foco por todas as Américas e normalmente referem-se a áreas urbanas.

Fatores que influenciam os preços das WANs

Existem muitos fatores que impactam ou influenciam o preço da conectividade WAN, independentemente do local e do tipo de WAN:

  • Largura de banda;
  • Conectividade no data center ou fora do data center;
  • Dentro da rede ou fora da rede;
  • Duração do prazo de serviço.

Largura de banda

Largura de banda é a quantidade de informação que passa de um ponto a outro em uma rede em um determinado momento. Aumentar a largura de banda é aumentar a quantidade de informações que podem ser enviadas, o que é cada vez mais importante à medida que cresce a demanda por rich media (streaming de filmes, videoconferências, etc). A largura de banda é medida em bits por segundo, geralmente Megabits por segundo (Mbps) ou Gigabits por segundo (Gbps). Para circuitos P2P e Wave, a largura de banda ainda pode ser oferecida como fixa ou expansível.

Em um data center

A conectividade, geralmente, é mais barata, quando adquirida em um Data Center. Isso se deve ao fato de que os Data Centers geralmente concentram vários provedores de telecomunicações – e consequentemente, mais opções, levando a custos mais baixos. Isto é especialmente verdade em Data Centers de colocation, que estão muito bem preparados para o Peer-to-peer entre operadoras.

On-net x Off-net

O serviço WAN On-net significa que a operadora que fornece o serviço já tem conectividade no edifício ou no site, e é capaz de atender todo o projeto com sua própria rede existente, sem necessidade de investimentos adicionais. De modo geral, uma operadora que tem rede disponível a até 100 metros de um site é considerada On-net. Já o modelo Off-net, refere-se a qualquer coisa além do alcance de 100 metros, normalmente exigindo um projeto ou construção (ou seja, um investimento ou contratação de rede de terceiros) para poder oferecer conectividade a esse local.

Os custos de construção são exatamente isso: a quantidade de investimentos necessários para estabelecer fisicamente uma rede ou parte de uma rede. Uma vez concluída a construção da rede, uma empresa de telecomunicações recuperará os seus investimentos através do serviço que a rede fornece aos consumidores. Por esta razão, os custos de construção são muitas vezes proibitivos em áreas remotas e rurais, devido ao tempo necessário para recuperar estes investimentos.

Em relação às WANs, o custo de construção pode ser considerado como:

  • OPEX, (Operational Expenditure) e significa despesas operacionais, como energia elétrica, matérias-primas, salários, despesas de manutenção e outras despesas correntes. Esses gastos são necessários para manter o negócio em operação e são consideradas como despesas de curto prazo, ou
  • CAPEX (Capital Expendituresignifica despesas de capital e se refere a investimentos maiores, feitos por empresas como compra de equipamentos, galpões industriais, etc.

Duração do prazo de serviço

Os serviços WAN são adquiridos sob contratos de longo prazo (12, 24 ou 36 meses). Em geral, quanto maior o prazo do serviço, mais barato ele será. Na minha experiência, os preços com prazos de três anos ou mais são muitas vezes parecidos, enquanto os preços com prazos inferiores a três anos são normalmente mais caros.

Conclusões sobre preços WAN

  • MPLS – Tradicional, gerenciado por operadora e normalmente mais caro;
  • P2P – os custos estão caindo ano a ano, devido ao crescimento da demanda e da oferta;
  • Wave – Fornece largura de banda ultra-alta a um custo eficiente (geralmente mais barato que MPLS e P2P);
  • Dark Fiber – pode parecer bastante econômico à primeira vista, mas é necessário critério ao comprar e gerenciar os componentes (equipamentos de interconexão) por conta própria ou com terceiros especializados;
  • SD-WAN – Potencialmente o mais econômico, mas a implementação ainda tem muitas nuances e pontos de atenção.

P2P

A conectividade P2P refere-se aos endereços ponta A e ponta Z, interligados por uma única rede. O modelo de topologia desta rede, impede que terceiros compartilhem a banda e cada ponta da rede atua como remetente e destinatário dos dados.

A tecnologia WAN “Legado P2P”, com os antigos serviços E1/T1 e E3/T3, apesar de perder espaço ao longo do tempo para as novas tecnologias de telecomunicações, ainda tem no cabo de cobre, uma boa parte da infra-estrutura global de banda larga. Os P2Ps modernos são provisionados por fibra ótica/ethernet e estão disponíveis em velocidades de até 100 Gbps.

Vantagens do P2P

P2P é um padrão de conectividade há anos. Está amplamente disponível e é  relativamente fácil de entender para a maioria das equipes de infraestrutura.

  • Disponível em velocidades que variam de 1 Mbps a 100 Gbps;
  • Tipo de rede “plana” que permite aos usuários finais controle total sobre roteamento, tráfego, etc., sem intervenção da operadora;
  • Muitos provedores permitem que as empresas optem por recursos especiais como roteamento dinâmico, CoS e até criptografia;
  • Tende a ter latência baixa;
  • Podem ser utilizadas para facilitar a conectividade a nuvem

Desafios P2P

Como um tipo de conectividade legado, existem certos desafios com ao P2P que podem torná-la menos atraente para ações nativas da nuvem.

  • Pode ser caro e complexo escalar, especialmente em uma topologia de um para muitos sites;
  • Os provedores de telecomunicações têm capacidades limitadas de solução de problemas.

Fatores de preços P2P

Os serviços P2P servem de padrão para preços de conectividade, mas sua posição legada afeta o preço em vários tópicos, incluindo:

  • Classe de serviço (CoS) – garantias superiores de latência, jitter e perda de pacotes;
  • Circuitos Protegidos x Não Protegidos – roteamento dinâmico através do backbone da operadora para contornar problemas do provedor de rede e garantir a disponibilidade;
  • Criptografia – camada adicional de segurança fornecida pela operadora;
  • E, claro, os quatro fatores padrão já mencionados: largura de banda, se construção necessária, se está dentro ou fora de um data center e a duração do prazo de contratação.

Ponto de vista sobre o preço P2P

É importante notar que as redes P2P e os serviços de wave são muito parecidos, sendo o modo de transmissão a única diferença. Os serviços P2P são tradicionais, enquanto o wave é uma solução um pouco mais moderna. Os preços do legado P2P estão caindo para competir com o Wave.

Por exemplo: uma operadora que está praticando preços muito agressivos em conectividade P2P quando o projeto estiver “on-net” e estando ela presente  em vários estados do país, essa operadora consegue oferecer 10 Gigabit P2P por US$ 1/Mbps o que é uma tarifa muito boa.

Wave & P2P

Comumente conhecidos como “serviços de fibra óptica”, os serviços wave transmitem dados através de fibra óptica, criando conexões dedicadas de grande largura de banda (muitas vezes chamadas de conexões iluminadas). A adoção da fibra óptica cresce exponencialmente e as operadoras estão construindo infraestrutura de rede para atender aos principais mercados metropolitanos com serviços de alta capacidade e latência super baixa.

Este crescimento ajuda a reduzir os custos das tecnologias P2P legadas. Os serviços wave são fornecidos por fibra, na maioria dos casos usando a tecnologia DWDM, que suporta quase 200 ondas separadas de até 100 Gbps em um único fio de fibra.

Waves têm baixa latência porque são roteadas no backbone da operadora por meio de uma infraestrutura dedicada para esse fim, geralmente de maneira estática. Isso é bom porque geralmente usa-se o caminho mais rápido. A desvantagem é que, se houver um problema na rede da operadora que a wave tenha que atravessar, não será possível contorná-la. Algumas operadoras fornecem serviços de wave “protegidos”, mas estes podem ser caros e limitados.

Vantagens da wave

A conectividade Wave pode ser cara e só será uma boa opção se sua empresa tiver requisitos de alta capacidade.

As camadas de serviço e a taxa de transferência são limitadas a 1, 10, 100, 1.000 e 100.000 Mbps na maioria dos casos.

A maioria das operadoras ainda está desenvolvendo capacidade para oferecer ondas em todos os mercados; a disponibilidade pode ser limitada, especialmente nos mercados de nível 2 e 3.

Fatores de preços Wave

A conectividade Wave é mais comum para transporte WAN de alta capacidade e é  mais rentável quando oferecida a partir de Giga. Os seguintes fatores impactam o preço do circuito wave:

  • Proteção
  • Tamanho do mercado
  • E, claro, os quatro fatores padrão que já definimos acima: requisitos de largura de banda, se uma construção é necessária, se você está dentro ou fora de um data center e a duração do prazo de serviço

Ponto de vista de preços Wave

Observo ano após ano que os preços P2P continuam diminuindo, à medida que a concorrência com o wave e o Dark Fiber aumentam, e outros tipos de conectividade crescem em popularidade.

O Wave é mais barato porque é um novo tipo de produto projetado especificamente para WANs de alta capacidade. A procura por estas WANs está atualmente limitada a mercados muito específicos, como as grandes cidades, e as operadoras estão construindo infraestruturas para suportar a baixa latência. Outro fator que reduz os preços dos serviços de wave em relação a outras alternativas de WAN é o seu modo eficiente de transporte – uma operadora pode fornecer vários circuitos wave em um único fio de fibra.

Um provedor cotou US$ 0,90 MRC /Mbps para uma conexão wave de 100 Gbps. Nota: esse foi um projeto de conexão de data center para data center, mas ainda assim é uma boa referência de caso de uso.

Dark Fiber

Quando as operadoras instalam cabos de fibra óptica, geralmente superestimam a quantidade necessária. Isso resulta em uma boa quantidade de cabos não utilizados ou “escuros”. Às vezes, esses cabos também são chamados de “apagados”. Muitas empresas encaram a fibra escura não como um serviço, mas sim como um ativo ou imóvel. E o valor da fibra escura é quase que 100% determinado pela sua localização, precificado pelos kilometros de fibra ofertada.

Usar esses cabos pode ser tentador, pois oferecem enorme largura de banda (mais de 800 Gigabytes em alguns casos), mas na maioria dos casos, existem alternativas mais práticas. Por exemplo, comprar fibra escura e operá-la com apenas 10 Gigabytes muitas vezes não faz sentido. Neste caso, os serviços wave podem fazer mais sentido. Vale sempre pergunta aos clientes que procuram fibra escura se eles também considerariam uma alternativa iluminada.

Vantagem da Dark Fiber

A fibra escura tem o potencial de fornecer uma quantidade considerável de largura de banda para o seu projeto. Quanto maiores forem as suas necessidades de conectividade, mais atraente será esta opção.

  • Excelente potencial de largura de banda;
  • Com base na localização física e na utilização, algumas economias são possíveis;
  • As empresas controlam totalmente todos os elementos dos serviços.

Desafios da Dark Fiber

A fibra escura geralmente vem com maior disponibilidade de largura de banda que supera as necessidades de sua empresa. E você precisará dedicar algum tempo trabalhando com fornecedores para entender exatamente quais preços serão mais adequados para o seu projeto.

  • A disponibilidade pode ser muito difícil. Muitas operadoras não oferecem fibra escura porque não é realmente um “serviço”;
  • Serviço totalmente não gerenciado que exige que as empresas forneçam todos os equipamentos ópticos em ambas as extremidades;
  • A relação custo/utilização pode ser proibitiva;
  • Embora o preço seja baseado na distância, podem haver outros elementos arbitrários considerados quando os prestadores cotam este serviço, como quem vai utilizá-lo, se o edifício é comercial ou residencial, tipo de mercado, etc.

Fatores de preços da Dark Fiber

  • Altamente variável;
  • Distância de conexão;
  • Custo de equipamentos (não incluído no custo do circuito).

Ponto de vista de preços da Dark Fiber

Um fornecedor cobrou por dois fios de fibra escura na mesma cidade, US$ 400 MRC, e também participei de projetos com operadoras que cobraram milhares de dólares por projetos semelhantes.

A melhor conclusão é que o preço da fibra escura é, na maioria dos casos, feita uma estimativa com base na distância em Km entre os sites da interconexão.

MPLS

Uma WAN Multiprotocol Label Switching (MPLS) é construída no backbone privado de um provedor – isso garante largura de banda e, sendo uma rede privada virtual (VPN), o tráfego MPLS não é roteado pela Internet. Está localizado na rede privada de uma operadora, tornando o MPLS um ambiente muito previsível.

O MPLS é amplamente aproveitado como uma tecnologia WAN para suportar o processamento centralizado de VoIP distribuídas. Para este caso de uso, já em declínio, ainda não há nada melhor. No entanto, com a migração para VoIP/UCaaS / CCaaS baseado em nuvem, tende-se a ver cada vez menos MPLS.

Desafios MPLS

Como um tipo de conectividade apoiada por operadora e projetada para suportar redes centralizadas do tipo data center privado, o MPLS não é a melhor escolha para ambientes em nuvem. Você também enfrenta custos de otimização potencialmente altos e problemas de personalização dos servicos.

  • É otimizada para hub de data center, redes privadas e redes de voz;
  • São mais caras que as opções Ethernet tradicionais, pois o mesmo provedor deve fornecer conexões MPLS em todos os locais da rede, mesmo que não estejam otimizados para fazê-lo. Ou seja, uma operadora ‘A’ pode fornecer uma conexão MPLS em uma área de serviço da operadora ‘B’, mas o alinhamento entre estas operadoras pode custar tempo e recursos;
  • O provedor de serviços controla as configurações de rede e fornece relatórios/análises limitadas;
  • A otimização da WAN para agilizar a entrega acrescenta custos extras;
  • Não há otimização para nuvens públicas;
  • Alto custo por Mbps quando comparado ao P2P e ao wave.

Fatores de preços MPLS

A conectividade MPLS compartilha vários fatores de preços com a conectividade Wave. Certifique-se de fazer referência cruzada às necessidades específicas de infraestrutura da sua empresa ao descobrir qual tipo de conectividade faz mais sentido para o seu negócio;

  • Gerenciamento de roteador;
  • Qualidade de serviço/enfileiramento de tráfego;
  • Termos de serviços com pouca flexibilidade de otimização;
  • E, claro, os quatro fatores padrão que já definidos acima: requisitos de largura de banda, se uma construção é necessária, se você está dentro ou fora de um data center e a duração do prazo de serviço

Ponto de vista de preços do MPLS

Os problemas com os preços fora da rede quando utiliza uma rede MPLS, exige que se use o mesmo provedor em cada uma de suas localidades; se sua empresa quiser se expandir para uma nova geografia onde sua operadora de rede MPLS não seja a LEC, os preços serão muito mais altos.

SD-WAN

O SD-WAN é a solução mais moderna de todas as soluções apresentadas e usa software para controle e direcionamento eficiente de tráfego de uma WAN com base nas necessidades do seu projeto. As SD-WANs podem permitir muitos dos mesmos benefícios de qualidade, experiência e segurança da MPLS ou P2P com transmissão de dados pela Internet pública em vez de rotas dedicadas – por isso que muitas pessoas pensam na SD-WAN como uma opção de WAN mais barata.

Uma diferença importante é que todos os outros tipos de WAN mostrados neste artigo dependem de ter sua própria forma física de transporte, enquanto que a SD-WAN fornece uma desconexão da rede física, de modo que a rede é completamente independente do fornecedor, enquanto o software de gerencia da rede atua essencialmente como uma “VPN inteligente

Vantagens da SD-WAN

Com funcionalidades nativas da nuvem, SD-WAN apresenta diversas vantagens sobre outros tipos de conectividade. Compreender essas vantagens ajuda a determinar se sua infraestrutura está ou não pronta para isso.

  • Melhora a agilidade dos negócios e a capacidade de dimensionar a ocupação da rede, sem depender de transporte dedicado;
  • A camada de software fornece gerenciamento inteligente de rede e relatórios granulares de desempenho, utilização de aplicativos, principais interlocutores, etc.;
  • Por ser uma rede agnóstica ao transporte, ela pode, muitas vezes, reduzir os custos;
  • Projetado para maior dependência de serviços em nuvem, muitas vezes elas já nascem integradas com peering dedicado nas nuvens públicas e SaaS;
  • Capacidade de gerenciar o tráfego, realizar correção de erros e definir filas de prioridade para o tráfego;
  • Integrações de API em muitas plataformas, permitindo ações personalizadas, relatórios e monitoramento granular;
  • Garantias em nível de servicos e experiência do usuário consistente.

Desafios SD-WAN

A SD-WAN ainda enfrenta alguns desafios que outros tipos de WAN não enfrentam:

  • Cenário fragmentado com menos certeza nas métricas de desempenho versus MPLS/P2P;
  • Não é tão capaz quanto o MPLS em alguns ambientes de hub e voz;
  • Rede tecnicamente pública em muitos casos, o que levanta preocupações de segurança para alguns perfis de clientes.

Fatores de preços SD-WAN

Deve ficar claro que o preço da SD-WAN é tão específico que realmente merece seu próprio artigo sobre “como precificar da SD-WAN”, que farei em breve…

  • Existem vários modelos de implantação de SD-WAN que afetam os preços, incluindo gerenciamento, terceirização e autoatendimento;
  • Capacidade dos dispositivos de hardware SD-WAN (número de dispositivos, número de fontes de alimentação, número de interfaces WAN, etc.)
  • O nível de segurança necessário entre sites principais e remotos. Pode-se emparelhar sua solução SD-WAN com Secure Access Service Edge, também conhecido como SASE, para garantir os padrões de segurança mais rígidos;
  • Largura de banda ou taxa de transferência.

Ponto de vista de preços SD-WAN

SD-WAN é uma alternativa poderosa a outras soluções WAN devido à sua capacidade de rotear através de várias redes de vários provedores e à visibilidade de rede que fornece. Poderia muito bem ser a resposta à maioria dos problemas relacionados a redes, no entanto, o escopo e a implementação adequada de uma SD-WAN são complexos.

Resumo sobre redes WAN

Apresentei aqui alguns prós e contras dos principais tipos de conectividade WAN e como elas são precificadas. No restante do artigo, falarei sobre os principais termos que afetam os preços (e algumas definições adicionais).

Estruturas de custos da WAN

Os impostos ou taxas de conectividade WAN podem ser divididas em duas categorias: custo recorrente mensal (MRC) e custo não recorrente (NRC). O MRC é claramente definido em qualquer pacote de conectividade que você adquirir.

Vale a pena notar que o NRC é um pouco mais complicado e às vezes podem ser evitados. A maioria das operadoras podem renunciar um NRC abaixo de US$ 200 no interesse de fechar negócio. Os NRCs geralmente custam, em média, o mesmo valor do MRC, mas podem custar mais caro, quando uma solução for off-net e é necessária uma construção. O custo da construção é sempre específico do local, mas pode ser amortizado como despesa operacional (OPEX) ou despesa de capital (CAPEX).

Finalmente, as empresas devem ter cuidado com as “taxas de agilização”, ou o ‘expedite’  que supostamente aceleram o tempo de instalação, mas raramente são garantidas. Essas taxas também são negociáveis e dispensadas com frequência.

fatores que não afetam os preços da WAN

Há muitos fatos que impactam os preços da conectividade WAN, mas os fatores a seguir não deveriam fazer parte deste cenário. Em um projeto moderno de conectividade, alguns recursos obsoletos devem ser ignorados:

  • Os acordos de nível de serviço são documentos juridicamente vinculativos que descrevem o desempenho da rede e as métricas de uso para ISPs e TSPs. Eles definem o relacionamento entre duas partes comerciais e garantem determinados tipos de serviço de forma geral. A presença de um SLA não deve afetar o preço da WAN, pois hoje em dia é visto como um componente do serviço e não um diferencial;
  • No cenário atual de conectividade WAN, praticamente tudo é transportado por fibra. Dada essa prevalência, o tipo de transporte (cobre vs. fibra) que sua WAN utiliza, não deveria afetar substancialmente os preços;
  • O handoff determina onde a conexão da rede da operadora termina e onde começa a gestão por parte do cliente (hardware do cliente). Se será em Fibra ou elétrica – por elétrica entende-se Ethernet. E isso raramente tem implicações no preço. Mas às vezes há inflexibilidade; Portanto, se você tiver uma rede antiga com caixas antigas, seu transporte elétrico poderá não conseguir fazer peering com a operadora e podem querer te cobrar por isso.

Fatores que afetam os preços da WAN

  • Classe de serviço (CoS) é uma forma de gerenciar o tráfego em uma rede. Tipos semelhantes de tráfego, como e-mail ou conteúdo de streaming, podem ser agrupados. Cada um desses grupos obtém então uma prioridade específica na rede. Embora a priorização de CoS não possa garantir a largura de banda ou os tempos de entrega em uma rede, ela pode melhorar o tempo de processamento para grupos críticos de informações quando a rede está congestionada;
  • Roteadores gerenciados são roteadores acessados, monitorados e manipulados remotamente por uma entidade independente, que pode ou não estar relacionada aos proprietários de uma rede ou a quem a utiliza;
  • Circuitos protegidos são componentes de proteção de redes, cujo objetivo é garantir que falhas em determinados pontos de uma rede sejam atenuados ou minimizados para os usuários. Circuitos protegidos são circuitos que contêm caminhos de redes distintos. Ou seja, se um caminho do circuito falhar, o circuito em si não falhará. Embora seja uma ótima opção para garantir a disponibilidade do serviço, os circuitos protegidos geralmente custam mais do que os circuitos não protegidos;
  • Qualidade de Serviço (QoS) refere-se ao conceito de moldar e priorizar o tráfego de rede como um todo. A aplicação de QoS em uma rede envolve um conjunto de tecnologias que agrupam e priorizam de forma inteligente tipos de tráfego semelhantes, colocando todo o tráfego não prioritário em uma fila, garantindo que o tráfego prioritário chegue ao seu destino antes que qualquer outra coisa seja enviada. Esse grau mais refinado de controle reduz diretamente a perda de pacotes, a latência e a instabilidade em uma rede;
  • Provedores de serviços Tier 1 possuem tanto a infraestrutura na qual a rede é construída quanto o serviço que ela fornece. Os provedores de WAN Tier 2 não possuem a infraestrutura que seus serviços fornecem. Em vez disso, os fornecedores de WAN Tier 2 alugam a infra-estrutura de rede a terceiros, o que deverá ser claramente identificado nos seus SLAs.
Ao adquirir circuitos Tier 2, certifique-se de verificar o custo. Como os fornecedores do Tier 2 são essencialmente revendedores, é provável que haja uma margem de lucro MRC.

Outras considerações sobre WAN

  • Latência: Embora a largura de banda seja a quantidade de informações que podem ser transmitidas entre os pontos de uma rede, a velocidade de conectividade se refere à taxa com que as informações podem viajar (ou a rapidez). As expectativas de velocidade serão definidas no SLA, em termos de latência, que é uma medida do tempo que uma informação (um pacote de dados) leva para fazer uma viagem de ida e volta entre dois pontos. Esse tempo geralmente é medido em milissegundos (ms). E, embora a latência zero (ou seja, transmissão instantânea) possa ser impossível, as configurações de rede ideais produzem a menor latência possível;
  • Topologia de rede: uma rede é a conexão entre dois ou mais pontos, chamados de nós da rede. A topologia de rede, por sua vez, é o termo que define como todos os nós de uma rede são organizados para que ela funcione;
  • Circuitos redundantes: ao contrário de múltiplas rotas dentro de um circuito, os circuitos redundantes são failovers projetados para assumir automaticamente o controle se o circuito primário falhar. O fato de sua rede ser redundante ou não, não afeta o custo do circuito primário que você está adquirindo, mas é importante ressaltar que às vezes o circuito secundário, também conhecido como redundante, pode ser mais barato que o circuito primário. Pode-se também adquirir opções de custo mais baixo que sejam menos confiáveis, de menor banda ou que tenham uma estrutura de faturamento diferente, onde você paga por utilização (isso está mais presente em circuitos redundantes 5G).

WAN: Saiba mais, economize mais

Seja para comprar ou para vender WAN é importante entender a mecânica da precificação ao começar a investigar a infraestrutura da Internet e outras redes da sua empresa. É importante conhecer os fatores que não afetam o preço da WAN. Mas, é preciso ter um bom entendimento das necessidades específicas da sua empresa, incluindo requisitos de largura de banda, redundância, criptografia, gerenciamento de roteador e muitos outros. É muito importante entender que, em termos de conectividade WAN, não existe uma solução única. Pretendo ainda escrever um guia completo sobre o design WAN,  caso você queira se aprofundar neste tema. E se você quiser saber mais sobre conectividade WAN, se está gastando muito ou outras maneiras de economizar em conectividade, entre em contato e eu te ajudo com isso.

22/04/2024

Empregos, Competências e Economia.

No início deste ano, o Fórum conômico Mundial (WEF) publicou o “Relatório sobre o Futuro do Emprego 2023”. O WEF tem publicado Relatórios sobre o Futuro dos Empregos desde 2016 para explorar como as tendências socioeconômicas e tecnológicas poderão moldar a evolução dos empregos e das competências nos próximos anos.

Em 2023, as transformações do mercado de trabalho impulsionadas por avanços tecnológicos, como a inteligência artificial (IA), estão sendo agravadas por perturbações econômicas e geopolíticas e por crescentes pressões sociais e ambientais”, escreveu Saadia Zahidi, Diretora Geral do WEF, no Prefácio do Relatório, que explora a probabilidade de evolução dos empregos e das competências no período de 2023-2027. As tendências e previsões baseiam-se em pesquisa a mais de 800 grandes empresas que empregam mais de 11,3 milhões de trabalhadores em 27 industriais e 45 economias de todo o mundo.

Deixe-me discutir algumas das principais conclusões e previsões do relatório.

Mercado de trabalho entre países de rendimento baixo, médio e alto.

“As crises econômicas e geopolíticas dos últimos anos criaram uma perspectiva divergente e incerta para os mercados de trabalho, aumentando as disparidades entre economias desenvolvidas e emergentes e entre os trabalhadores.” Com 4,9%, a taxa de desemprego em 2022 nos países da OCDE está no seu nível mais baixo desde 2001, enquanto as taxas de desemprego em três quartos dos países da OCDE estão abaixo dos níveis pré-pandemia. Por outro lado, a recuperação do mercado de trabalho face às perturbações da COVID-19 tem sido significativamente mais lenta em muitas economias em desenvolvimento.

Os níveis de emprego também têm divergido. Os trabalhadores com apenas o ensino básico foram os mais atingidos em 2020 e demoraram a recuperar para os níveis de emprego anteriores à pandemia. “Em muitos países, o aumento do desemprego entre 2019 e 2021 dos trabalhadores com nível de educação básico foi mais do dobro do impacto sobre os trabalhadores com educação avançada.” As mulheres registaram uma maior perda de emprego e uma recuperação mais lenta do que os homens durante a pandemia, tal como os trabalhadores mais jovens. Além disso, a economia global registou os maiores níveis de inflação em quase 40 anos, conduzindo a uma crise no custo de vida que afetou mais duramente os mais vulneráveis.

A adoção da tecnologia continuará a ser um fator-chave da transformação empresarial nos próximos anos. Mais de 85% das organizações entrevistadas identificaram o aumento da adoção de tecnologias novas e inovadoras e a ampliação do acesso digital como as macrotendências com maior probabilidade de impulsionar a transformação das suas empresas.

Quarta Revolução Industrial , comentada pela primeira vez no Fórum Anual de Davos de 2016, está acelerando o ritmo de adopção de tecnologia e mudando a fronteira entre humanos e máquinas em todos os sectores e geografias. Baseando-se numa fusão de tecnologias que confundem as fronteiras entre as esferas física, digital e biológica, a tecnologia não está apenas alterando a forma como trabalhamos, mas também o conteúdo do trabalho, as competências e os empregos que estão sendo substituídos.

75% das empresas planejam adotar big data, computação em nuvem e IA nos próximos anos. As plataformas e aplicativos digitais lideraram a lista, a escolha de mais de 86% dos entrevistados, seguidas por tecnologias educacionais e de força de trabalho (81%), análise de big data (80%), IoT e dispositivos conectados (77%), computação em nuvem (77%). %), criptografia e segurança cibernética (76%), comércio eletrônico e comércio digital (75%) e inteligência artificial (75%).

Espera-se que o impacto da maioria das tecnologias nos empregos seja positivo nos próximos cinco anos. A análise de big data foi selecionada por 58% dos entrevistados como o trabalho com maior probabilidade de crescer até 2027, seguido pela mitigação das mudanças climáticas (50%) e tecnologias de gestão ambiental (46%), criptografia e segurança cibernética (43%), biotecnologia ( 43%), tecnologias agrícolas (41%), plataformas e aplicativos digitais (41%), tecnologias de saúde e cuidados (40%) e tecnologias de educação e desenvolvimento de força de trabalho (40%).

Espera-se que a IA resulte numa perturbação significativa do mercado de trabalho, com uma deslocação substancial do emprego compensada pelo crescimento do emprego noutros locais da organização, resultando num resultado líquido positivo. “A IA tem recebido especial atenção, com alegações de que 19% da força de trabalho poderia ter mais de 50% das suas tarefas automatizadas pela IA e a perda de empregos chegando às manchetes, enquanto outros esperam que a tecnologia melhore os empregos.

A aplicação mais ampla dos padrões Ambientais, Sociais e de Governança (ESG) foi identificada por 81% das organizações como tendo um impacto significativo na condução da transformação dos negócios. “A adaptação às alterações climáticas e o dividendo demográfico nas economias em desenvolvimento e emergentes também têm uma elevada classificação como criadores líquidos de emprego.”

A fronteira homem-máquina mudou, com as empresas introduzindo a automação nas suas operações a um ritmo mais lento do que o previsto anteriormente. As organizações estimam que cerca de um terço de todas as tarefas relacionadas aos negócios são executadas por máquinas, enquanto os dois terços restantes são executados por humanos. Isto é quase o mesmo que o nível de automação estimado pelos entrevistados no “Relatório sobre o Futuro dos Empregos de 2020” do WEF.

Em geral, os empregadores têm uma baixa em relação às perspectivas sobre as suas previsões para a automação daqui a cinco anos, de uma previsão de 47% de automação no relatório de 2020 para uma previsão de 42% de automação no relatório de 2023. As previsões de automação de tarefas variam de 35% para raciocínio e tomada de decisão, 47% para execução de atividades complexas e técnicas e 65% para processamento de informações e dados.

O escopo potencial da automação e do aumento se expandirá ainda mais nos próximos anos, com as técnicas de IA amadurecendo e encontrando aplicações convencionais em todos os setores. Resta saber como as tecnologias que passam pelas mudanças mais rápidas, como a tecnologia de IA generativa, podem alterar ainda mais a composição das tarefas automatizáveis durante o período 2023-2027, com alguns estudos recentes a descobrir que os Grandes Modelos de Linguagem já podem automatizar 15 % de tarefas. Quando combinada com aplicações que podem corrigir problemas conhecidos com os Grandes Modelos de Linguagem existentes (como imprecisões factuais), esta percentagem pode aumentar para 50%.

Os empregadores estimam que 44% das competências dos trabalhadores serão prejudicadas nos próximos cinco anos. As competências cognitivas continuarão a aumentar em importância, refletindo a importância crescente da resolução de problemas complexos no local de trabalho e na economia. Não é de surpreender que o pensamento criativo tenha sido mencionado como uma competência cada vez mais importante por 73% dos entrevistados, seguido de perto pelo pensamento analítico, mencionado por 72%. Eles foram seguidos por alfabetização tecnológica (68%), curiosidade e aprendizagem ao longo da vida (67%), resiliência, flexibilidade e agilidade (66%), pensamento sistêmico (60%), IA e big data (60%), motivação e autoconhecimento. -conscientização (59%), gestão de talentos (56%), orientação para serviços e atendimento ao cliente (55%), liderança e influência social (53%) e empatia e escuta ativa (52%).

Os entrevistados expressam confiança no desenvolvimento da sua força de trabalho existente, no entanto, estão menos optimistas relativamente às perspectivas de disponibilidade de talentos nos próximos cinco anos. 60% das organizações destacam a dificuldade de colmatar lacunas de competências nos seus mercados de trabalho locais como a principal barreira que impede a transformação da sua indústria e da força de trabalho, enquanto 53% identificam a sua incapacidade de atrair talentos como as suas principais barreiras.

A transformação de empregos e competências tem impactos significativos nas empresas, governos e trabalhadores em todo o mundo. É crucial desenvolver previsões de insights, identificar os talentos apropriados para promover o crescimento e tomar decisões informadas sobre a gestão das perturbações significativas nos empregos e nas competências, tanto para empregadores como para trabalhadores.

Após a instabilidade generalizada nos últimos anos em todo o mundo, esperamos que as perspectivas apresentadas neste relatório contribuam para uma agenda multilateral para preparar melhor os trabalhadores, as empresas, os governos, os educadores e a sociedade civil para as perturbações e oportunidades que virão e capacitá-los a navegar nessas transições sociais, ambientais e tecnológicas. Chegou o momento de os líderes empresariais e os decisores políticos moldarem de forma decisiva estas transformações e garantirem que os investimentos futuros se traduzam em melhores empregos e oportunidades para todos.”

Além da Guerra de Preços: O Oceano Azul na Conectividade Brasileira

Introdução Lançado em 2005 por W. Chan Kim e Renée Mauborgne, A Estratégia do Oceano Azul revolucionou o pensamento estratégico...