25/07/2024

Código aberto e Sistemas de IA



Os sistemas de IA não operam como software tradicional – eles exigem processos distintos e dependem de recursos especializados, que atualmente são caros e estão nas mãos de algumas grandes empresas de tecnologia”, escreveram David Gray WidderMeredith Whittaker e Sarah Myers West, no artigo: “Open (for Business): Big Tech, Concentrated Power, and the Political Economy of Open AI”. “Mesmo assim, muitas das promessas originais do movimento de Open Source,  estão sendo projetadas na IA 'aberta'. Uma das promessas, era de que o código aberto ou o Open Source poderia democratizar o desenvolvimento de software, na perspectiva de que, o código aberto nivela a competição, permitindo que os mais inovadores consigam destaque. O Open Source já fez muito pela comunidade da Internet, em várias modalidades e instâncias. Mas com a IA 'aberta', a história é diferente.”

Estou pessoalmente envolvido com Open Source, projetos livres de licenças e outras iniciativas relacionadas nas últimas décadas. No final da década de 1990, liderei iniciativas para uso de sistemas e aplicações de código aberto em escolas e empresas, o que, na época, ajudou a fomentar o uso da Internet e da World Wide Web. Já, no início dos anos 2000, liderei iniciativas Linux Day, que desempenham, até hoje, um papel importante na divulgação e uso de soluções de código aberto tanto para usuários domésticos quanto para empresas, que ajudam a desenvolver e a divulgar a Linux Foundation.

Ao tentar entender como as promessas originais do Open Source agora se aplicam a esta nova geração de sistemas de IA, achei o artigo acima citado, bastante útil e aqui seguem meus comentários:

O que é (e o que não é) aberto na IA de código aberto

O artigo observa que o código aberto na IA é um conceito difícil de definir, em parte, porque a própria IA não está claramente definida, o que é "aberto" em sistemas altamente complexos como a IA. "De fato, ainda não há uma definição clara de IA 'aberta' ou 'de código aberto', mesmo que a atenção ao tópico tenha aumentado muito", observam os autores.

A inteligência artificial surgiu pela primeira vez em meados da década de 1950 como uma nova disciplina acadêmica que visava desenvolver máquinas inteligentes capazes de lidar com tarefas semelhantes às humanas, como processamento de linguagem natural. A IA se tornou uma das áreas mais empolgantes nas ciências da computação nas décadas de 1960, 1970 e 1980, mas depois de anos de promessas não cumpridas e exageros, houve um inverno da IA, com interesses e financiamentos reduzidos, que quase matou está área de estudo.

A IA renasceu na década de 1990 com um paradigma totalmente diferente baseado na análise de grandes quantidades de dados com algoritmos sofisticados e computadores poderosos. Esse paradigma de IA centrado em dados continuou a avançar nos últimos 20 anos com grandes inovações em diversas áreas como big dataanálise preditivaaprendizado de máquina e, recentemente, os grandes odelos de linguagem (LLMs) e chatbots generativos. A IA agora tem uma das, se não a principal tecnologia definidora do século XXI.

Como os sistemas de IA grandes e generativos, são os que mais claramente perturbam os limites e questionam as ideologias tradicionais de Open Source e ciência aberta, focamos principalmente nesses sistemas, neste artigo”, escreveram os autores. “Quando usamos o termo IA, estamos usando-o para nos referir a esses grandes sistemas.”

De modo geral, os termos 'aberto' e 'código aberto' são usados ​​no contexto da IA ​​de várias maneiras para se referir a capacidades que podem ser amplamente agrupadas como: (1) atributos de oferta de transparência — a capacidade de acessar e examinar código-fonte, documentação e dados; (2) reutilização — a capacidade e o licenciamento necessários para permitir que terceiros reutilizem código-fonte e/ou dados; e (3) extensibilidade — a capacidade de construir sobre modelos prontos existentes, 'ajustando-os' para um ou outro propósito específico.

Os termos 'aberto' e 'código aberto' são usados ​​de forma variável para se referir a esses atributos, na prática há diferentes graus de 'abertura' que oferecem níveis de acesso muito diferentes.”

“Embora existam alguns sistemas de IA abertos ao máximo, que oferecem transparência intencional e extensa — os recursos necessários para construir IA do zero e implantar grandes sistemas de IA em escala permanecem 'fechados' — disponíveis apenas para empresas com recursos significativos (quase sempre corporativos).” O artigo ainda faz referência a outro artigo “The Gradient of Generative AI Release: Methods and Considerations”, que define seis pontos principais de abertura em sistemas de IA generativos atuais.

Os argumentos a favor e contra a IA 'aberta'

A IA aberta está sendo referenciada atualmente por atores poderosos, com discursos políticos para moldar a trajetória regulatória em torno da IA”, observam os autores. “Conversas sobre IA 'aberta' têm implicações significativas e de alto risco além dos termos restritos de licenças e mecanismos de transparência estão sendo implantados para moldar o cenário geral da política de IA. Como em qualquer situação de lobby e influência, a retórica em torno da defesa da política de IA 'aberta' está sendo lida à luz dos interesses particulares da entidade que os faz. E, como no passado, a abertura está sendo usada hoje por empresas na forma de uma política retórica para fazer lobby, consolidar e reforçar suas posições.”

A adoção do Linux por grandes empresas nos anos 2000 foi acompanhada por desafios semelhantes a estes recentes da IA. Algumas das empresas que viam o Linux como uma ameaça competitiva atacaram fortemente as empresas que usavam Linux, bem como a comunidade Linux em geral. Ameaças contra o Linux e contra as empresas que o adotaram continuaram por anos, chegando a processos multimilionarios.

O artigo Open IA discutiu algumas das alegações feitas a favor e contra a IA de código aberto. E aqui estão duas das alegações, uma a favor: segurança por meio da transparência; e uma contra: aumento da insegurança .

A IA aberta cria segurança por meio da transparência

No final da década de 1990, algumas empresas americanas, que passaram a fazer uso de soluções de software Open Source em sistemas altamente sensíveis, criaram um Painel de discussão sobre Software Open Source, que incluía representantes de universidades, agências federais, laboratórios de pesquisas e fornecedores de supercomputação. O Painel realizou uma série de reuniões e na sequência, divulgou seu relatório em outubro de 2000 e as descobertas são particularmente relevantes para as discussões atuais:

Acreditamos que o modelo de desenvolvimento Open Source representa uma estratégia viável para produzir software de alta qualidade por meio de uma mistura de parcerias públicas, privadas e acadêmicas. … O software Open Source pode oferecer potenciais vantagens de segurança sobre o modelo de desenvolvimento proprietário tradicional. Especificamente, o acesso dos desenvolvedores ao código fonte, que permite um exame completo e que diminui potencial falhas de segurança. Além disso, o modelo de código aberto aumenta o número de programadores buscando por bugs e, subsequentemente, desenvolvendo correções, reduzindo assim áreas potenciais para exploração maliciosas.

Da mesma forma, o artigo Open AI observa que “a IA Open Source promove a segurança ao permitir que pesquisadores e autoridades auditem o desempenho do modelo, identifiquem riscos e estabeleçam mitigações ou contramedidas”. No entanto, os autores acrescentam que “a eficácia da auditoria como medida de segurança é fortemente baseada em garantir que recursos estejam disponíveis e incentivos alinhados de forma que auditorias realmente ocorram e sejam robustas o suficiente para levar em conta os riscos reais representados pela implantação de modelos de IA”.

IA aberta aumenta a insegurança

“Argumentos na direção oposta posicionam a IA Open Source como uma fonte de insegurança, ao tornar uma tecnologia tão poderosa amplamente disponível para reutilização, potencialmente colocando-a nas mãos de maus atores.”

“Preocupações sobre a insegurança da proliferação de modelos de IA Open Source são justificadas, entre outras razões, porque os modelos de código aberto permitem que a IA seja ajustada em pequena escala sem uma curva de aprendizado. Há poucos comentários e poucos claros sobre esse argumento, especialmente considerando aqueles que o fazem; é por que o acesso aos mesmos modelos ou modelos igualmente poderosos aos obtidos por meio de um contrato de nuvem da Microsoft ou Google — que é o padrão atual — representa menos perigo do que reutilizar um modelo de IA lançado abertamente. … Um pequeno número de empresas gigantes não garante, por si só, uma IA mais segura.”

Conclusão

“Mesmo em suas máximas instâncias, nas quais sistemas de IA 'abertos' fornecem transparência robusta, reutilização e extensibilidade, tais características não garantem, por si só, acesso democrático ou competição significativa em IA”, escreveram os autores na conclusão. “Nem tendo uma IA aberta sozinha resolve o problema da informação democrática ou segura. Mesmo assim, a retórica e a promessa de abertura em sistemas de IA estão sendo tratadas por empresas poderosas que tentam reforçar suas posições diante do crescente interesse na regulamentação da IA.”

“Os formuladores de políticas precisam abordar a regulamentação da IA com uma compreensão clara de coisas que a IA 'é' e 'não é', e com um reconhecimento fundamentado do que a IA 'aberta' pode e não pode entregar. Isso produzirá uma imagem muito diferente das possibilidades da IA ​​'aberta' do que aquela que está sendo desenhada atualmente. Também exigirá foco nas diferenças significativas entre software de código aberto e IA 'aberta', e reconhecimento de que os processos de desenvolvimento, requisitos de recursos e centralização inerente da IA ​​significam que ela não pode ser facilmente descrita ou definida em termos forjados originalmente para promover e definir software de código aberto.”


23/07/2024

Produtividade: crescimento lento x avanços tecnológicos vertiginosos


A produtividade, na economia, é considerada a relação entre aquilo o que é produzido e os meios empregados (mão-de-obra, materiais, energia, etc.). Produtividade tem a ver com eficiência e tempo: quanto menor for o tempo levado para obter o resultado pretendido, mais produtivo será o sistema.

Um dos quebra-cabeças mais difíceis de se resolver nas últimas décadas é a desaceleração no crescimento da produtividade em nações industrializadas, apesar dos avanços vertiginosos nas tecnologias de informação e comunicação (TIC) e na eletrônica”, escreveram os economistas Daron Acemoglu, David Autor e Christina Patterson em seu artigo Bottlenecks: Sectoral Imbalance and the US Productivity Paradox.

Nas últimas três décadas, as patentes de TIC e eletrônica e o crescimento da produtividade têm se movido em direções totalmente opostas. O número total de patentes concedidas entre 1990 e 2010 cresceu de 99.000 para 208.000, com as patentes de TIC e eletrônica respondendo por 80% desse aumento. E, enquanto o Fator Total de Produtividade (FTP), — geralmente considerada o principal contribuinte para o crescimento do PIB, — cresceu 1,7% nos EUA entre 1997 e 2005, sendo o crescimento mínimo, cerca de 0,4% desde 2005. Veja o gráfico dos últimos 10 anos.

Como esses fatos antagônicos podem ser resolvidos?”, perguntam os autores. Estamos em uma “nova era de abundância impulsionada por nossas máquinas cada vez mais inteligentes? Ou entramos em “uma era de crescimento mais lento porque as tecnologias de maior impacto já foram desenvolvidas e exploradas?”

Em artigo de 2018, The Productivity J-Curve, Erik Brynjolfsson, Daniel Rock e Chad Syverson explicam que tecnologias transformadoras — por exemplo, a máquina a vapor, eletricidade, semicondutores, internet, IA — são tecnologias definidoras de seus tempos. Mas, historicamente, alguns padrões nos dizem que há um atraso entre a aceitação do mercado de uma tecnologia transformadora e seu impacto mais amplo nas indústrias, economias e sociedades. Embora essas tecnologias tenham grande potencial desde o início, perceber esse potencial requer grandes investimentos, incluindo o redesenho de processos de negócios; novos produtos, aplicativos e modelos de negócios inovadores; a requalificação da força de trabalho; e um repensar da própria natureza da produção.

Em seu artigo, Acemoglu, Autor e Patterson ofereceram uma estrutura conceitual que explica as tendências conflitantes entre avanços tecnológicos e crescimento da produtividade: avanços tecnológicos e inovação em qualquer indústria dependem de inovações complementares nos insumos e ideias das indústrias fornecedoras em seu setor. Quando a inovação está desequilibrada em um setor, ela retém o crescimento da produtividade e gera obstáculos à inovação. “Nossa estrutura conceitual, portanto, enfatiza que uma distribuição equilibrada de avanços tecnológicos entre setores é importante para a viabilidade de inovações futuras. … Nossa perspectiva também enfatiza como uma distribuição mais equilibrada do progresso tecnológico (e pesquisa e desenvolvimento) pode melhorar o desempenho da produtividade.”

O artigo ilustra como os obstáculos surgem e como sua resolução acelera a inovação e o crescimento, com exemplos concretos de três tecnologias relativamente recentes: baterias recarregáveis, transistores e GPS.

Baterias recarregáveis. Baterias recarregáveis desempenharam um papel importante na alimentação de laptops, dispositivos móveis pessoais, carros elétricos e outras inovações importantes do século XXI. Baterias recarregáveis ​​foram um obstáculo tecnológico até a década de 1970 porque, por mais de cem anos, as melhores baterias disponíveis, baterias de chumbo, tinham baixa densidade de energia, uma taxa de carregamento lenta, um ciclo de vida curto e o potencial de liberar gás hidrogênio explosivo durante a recarga. O gargalo da bateria recarregável foi finalmente superado pelas baterias de íons de lítio, inventadas em 1973 e melhoradas ao longo da década de 1980. Em 1991, a Sony começou a produzir e vender as primeiras baterias de íons de lítio recarregáveis ​​do mundo.

Transistores. Embora na década de 1950, dispositivos eletrônicos, linhas telefônicas, rádios, transmissores, amplificadores de áudio e os primeiros computadores fossem grandes, frágeis e lentos porque os interruptores eletromecânicos e válvulas de vácuo que esses produtos usavam eram tecnologias de gargalo. O transistor, inventado nos Laboratórios Bell da ATT em 1947, foi comercializado pela primeira vez na década de 1950 em produtos simples como rádios transistorizados. Os transistores então permitiram o rápido crescimento dos computadores a partir da década de 1960. A Lei de Moore captura sucintamente os avanços impressionantes dos transistores e circuitos integrados nas décadas seguintes. "Estima-se que o transistor seja o dispositivo mais fabricado na história, com 13 sextilhões (1021) de unidades até o momento, com bilhões a mais produzidos a cada dia."

Sistema de Posicionamento Global. “A navegação tradicional foi complementada com sistemas de posicionamento de rádio na década de 1970, mas essas ferramentas sofriam de baixa precisão ou cobertura geográfica limitada e, portanto, não iam além das aplicações de transporte militar e comercial.” O GPS foi desenvolvido pelos militares dos EUA para superar essas deficiências. Os satélites GPS foram lançados pela primeira vez em 1978 e abertos ao uso público mundial em 1983. Ao longo dos anos, o GPS permitiu uma série de inovações importantes, incluindo “agricultura de precisão, mineração e exploração de petróleo; informações de tempo de precisão atômica para sincronização de sistemas de transmissão de energia; levantamento remoto para geologia e previsão do tempo; e inúmeros serviços voltados para o consumidor, como transporte por aplicativo, publicidade direcionada e rastreadores de objetos.”

Os autores desenvolveram um modelo matemático para formalizar sua estrutura conceitual, a saber, que o crescimento lento decorre em parte de uma distribuição desequilibrada de inovação. Eles então validaram empiricamente sua hipótese usando dados de uma variedade de fontes, incluindo links de citação, patentes e dados de crescimento de produtividade de 462 indústrias de manufatura e 42 indústrias não manufatureiras e aqui estão suas principais descobertas.

  • Por meio de uma variedade de abordagens de medição, resultados de produtividade e países, verificamos a previsão primária desta hipótese: o crescimento da produtividade de uma indústria é aumentado pelo crescimento médio da produtividade de seus fornecedores (medido pelo PTF ou inovação) e, crucialmente, é prejudicado pela variância do crescimento de sua produtividade.”
  • Há uma ligação poderosa entre a capacidade de inovação de um setor ou empresa e os desequilíbrios que ela enfrenta em seus setores a montante (ideia-fornecedor). Quanto maior a dispersão, ou seja, a variação ou a distribuição do crescimento da produtividade entre os fornecedores de uma indústria, maior a influência negativa que ela tem nas oportunidades de crescimento dessa indústria. Dobrar a variação do crescimento do FTP dos fornecedores em um setor está associado a um crescimento de produtividade aproximadamente 0,9 ponto percentual mais lento para esse setor.
  • A dispersão do crescimento do FTP entre as principais indústrias aumentou significativamente nas últimas décadas.” Essa dispersão maior explica essencialmente toda a desaceleração da produtividade agregada na manufatura entre as décadas de 1970 e 2007. Por exemplo, se a variação no crescimento do FTP na manufatura tivesse permanecido em seu nível de 1977–1987 nas duas décadas subsequentes, a produtividade da manufatura dos EUA teria crescido duas vezes mais rápido em 1997–2007 do que cresceu.
  • “A variação do FTP do fornecedor na indústria aumentou durante este período, tanto porque as indústrias atrasadas não conseguiram crescer quanto porque as indústrias líderes se afastaram das demais.”

As indústrias de crescimento mais rápido, definidas como aquelas que tiveram o maior impacto na variação do FTP do fornecedor entre 1997 e 2007, incluem computadores eletrônicos, dispositivos de armazenamento de computador e semicondutores. As indústrias de crescimento lento que se tornaram os maiores gargalos no mesmo período incluem refinarias de petróleo, preparação farmacêutica, montagem de circuitos impressos e geradores de turbina. E as indústrias com mais gargalos, definidas como aquelas retidas pela inovação desigual entre seus fornecedores, incluem instrumentos cirúrgicos e médicos, motores a gás e válvulas industriais. 

Esses resultados empíricos valem para toda a economia e, dentro do setor de manufatura (onde o FTP é melhor medido), eles estão presentes em diferentes sub períodos e com medidas alternativas de dispersão de produtividade. “Também verificamos que esses padrões não são impulsionados por outliers, nem são exclusivamente devidos aos rápidos avanços nos setores de computadores e eletrônicos (embora esses setores desempenhem um papel central em nossos resultados).” Além disso, “documentamos padrões análogos usando dados internacionais e estabelecemos que a dispersão na produtividade entre as principais indústrias fornecedoras nacionais e internacionais também tem sido um grande impedimento ao crescimento da produtividade para várias economias líderes da OCDE.

Vemos nossos resultados como sugestivos de uma ligação potencialmente importante entre gargalos de produtividade e crescimento de produtividade. … Nossa análise sugere ainda que, após avanços em setores que atuam como gargalos, deve haver uma aceleração do crescimento da produtividade agregada e da indústria.




21/07/2024

O valor do conhecimento humano x IA ​​generativa

No início de 2021, o então editor e contribuidor da Wikipédia Jon Gertner viu algo na internet que lhe chamou a atenção: a ascensão do GPT-3, um precursor dos novos chatbots da OpenAI, e ele decidiu escrever o artigo “Wikipedia's Moment of Truth”, para a NY Times Magazine . “Quando experimentei a nova tecnologia, me pareceu não tão confiável. O bot misturava elementos fictícios em respostas factuais e coerentes. Mas não tive dúvidas sobre seu potencial.”

O artigo chamou minha atenção porque há muito tempo uso a Wikipédia como meu site de referência para pesquisar tópicos sobre os quais quero aprender, além de usar links para artigos da Wikipédia como referências nos blog que publico desde 2005.

Na última década, a Wikipédia se tornou muito mais do que uma enciclopédia, — “um tipo de comunidade que mantém todo o mundo digital unido”. Google, Bing, Siri, Alexa e outros mecanismos de busca e assistentes digitais frequentemente contam com a Wikipédia para obter as informações necessárias para responder às perguntas dos usuários. A Wikipédia também tem sido uma das maiores fontes de dados, — estimada em cerca de 3% a 5%, — para treinamento de Large Language Models (LLMs) e chatbots relacionados. A Wikipédia tem desempenhado um papel importante no mundo digital porque suas grandes quantidades de dados são gratuitas, facilmente acessíveis, de alta qualidade e bem selecionadas.

Depois de experimentar o ChatGPT em 2021, um outro usuário, escreveu um ensaio com o título “Morte da Wikipédia”, no qual ele cita como a Wikipédia poderia perder seu lugar como a enciclopédia digital dominante. “Para alguma outra enciclopédia vencer a Wikipédia, ela teria que ser capaz de igualar algumas das vantagens construídas ao longo dos anos. Ou seja, que ter milhões de artigos e que esses artigos sejam atualizados rapidamente.”

Ele acrescentou que era improvável que uma enciclopédia sucessora tivesse os compromissos da Wikipédia com a transparência, objetivos não comerciais e a livre reutilização de seu conteúdo por meio de sua licença. “Esses valores ajudam na reputação e criam valor para os leitores no mundo todo.”

Eu, particularmente falando, não acreditava ser provável alcançar os feitos humanos da Wikipedia. Mas agora acredito que a inteligência artificial pode. A IA está melhorando exponencialmente a cada dia. No momento em que escrevo este artigo, já testei ser capaz de escrever um texto bastante competente, usando a IA. A longo prazo a IA pode substituir a Wikipédia e seus editores humanos, assim como a Wikipédia venceu a Enciclopédia Britånica.

“Na comunidade da Wikipédia, há cautela quando se fala em IA. Se administrada corretamente, ajudará a organização a melhorar em vez de quebrar”, citação do artigo da NYT Magazine . “Mesmo que os editores vençam a curto prazo, as máquinas vencerão no final”

Já houveram outras previsões sobre o fim da Wikipédia desde que foi fundada em 2001. Em comemoração ao 20º aniversário da Wikipédia, o professor Joseph Reagle da Northeastern University escreveu “As muitas (relatadas) mortes da Wikipédia”, um ensaio que explorou como a Wikipedia teve sua morte anunciada repetidas vezes nas últimas duas décadas e como ela encontrou maneiras de se adaptar e perdurar.

Reagle observou que, em seus primeiros anos, os críticos da Wikipédia e seus fundadores, exemplificaram três maneiras de pensar sobre o futuro:

1. Eles olharam para projetos de enciclopédia semelhantes para ter uma ideia do que é viável e aprenderam que, mesmo projetos bem financiados, como o Encarta da Microsoft, falharam em criar uma enciclopédia on-line sustentável.

2. Eles presumiram que os primeiros meses seriam muito difíceis - como no caso da Wikipédia.

O único modelo que não usamos foi justamente o crescimento exponencial, que caracterizou a criação de artigos da Wikipédia até 2007”, escreveu Reagle. 

Em seu primeiro ano, a Wikipedia esperava ter, um dia, 100.000 artigos, o que seria um pouco maior do que a maioria das enciclopédias impressas. Eles estimaram que se produzissem 1.000 artigos por mês, chegariam perto da meta em sete anos. E em 2007, a Wikipédia atingiu o inimaginável feito de ter dois milhões de artigos, — 20 vezes a estimativa original.

Mas em 2009, a inserção de novos artigos na Wikipédia diminuiu ou estagnou-se, e a atividade passou a tender cada vez para editores experientes em vez de continuar atraindo novos editores. O número de editores ativos caiu de 53.000 em 2007 para 30.000 em 2014.

Wikipédia pode sobreviver?, perguntou um outro artigo de opinião do NYT de 2015. Sim. "Parece que o número de editores ativos tem se mantido estável desde 2014, não caindo abaixo de 29 mil", escreveu Reagle.

“A única previsão que eu arriscaria para os próximos dez anos é que a Wikipédia ainda existirá”, ele acrescentou. “A plataforma e a comunidade têm um ímpeto que nenhuma alternativa, a curto prazo, vencerá. A comunidade Wikipédia sem dúvida enfrentará desafios e crises, como sempre enfrentou.”

Em setembro de 2023, a Wikipédia tinha mais de 6,7 milhões de artigos e mais de 118.000 editores ativos — que fizeram uma ou mais edições nos últimos 30 dias. E, de acordo com o artigo da Gertner na NYT Magazine , “a Wikipédia tem versões em 334 idiomas e um total de mais de 61 milhões de artigos. Ela está classificada entre os 10 sites mais visitados do mundo, no seleto grupo cujos líderes habituais, que são Google, YouTube e Facebook, mas é única em evitar o motivo lucro.”

O valor mais crítico da Wikipédia para a IA Generativa é o fato de que seu conhecimento é criado por humanos.

"Os chatbots de IA geralmente só vomitam o que engoliram da Wikipédia”, escreveu Gertner. “Incorporado em suas respostas o conhecimento que foi compilado ao longo de anos de trabalho meticuloso por colaboradores humanos.” 

Garantir que os sistemas de IA generativos sejam treinados com conteúdo meticulosamente criado por humanos é muito mais do que um caso de idealismo humano anti-IA. Acontece que, sem dados de treinamento gerados por humanos, os sistemas de IA inevitavelmente não funcionarão bem. Um outro artigo publicado em maio de 2023 definiu esse fenômeno em detalhes e o nomeou colapso do modelo.

Encontrei uma explicação mais simples sobre o colapso do modelo em um artigo recente da TechTarget “O colapso do modelo explicado: como os dados de treinamento sintético quebram a IA ”.

O colapso do modelo ocorre quando novos modelos generativos treinam em conteúdo gerado por IA e gradualmente degeneram seus resultados. Nesse cenário, os modelos começam literalmente a esquecer a verdadeira distribuição de dados. Isso significa que os modelos perdem a referência de informações sobre os aspectos menos comuns — mas ainda importantes — dos dados. À medida que as gerações de modelos de IA progridem, os modelos começam a produzir saídas cada vez mais semelhantes e menos diversas.”

Modelos de IA generativa precisam treinar em dados produzidos por humanos para funcionar de forma adequada. Quando treinados em conteúdo gerado por modelos, esses novos modelos exibem defeitos irreversíveis. Suas saídas se tornam cada vez mais 'erradas' e homogêneas. Pesquisadores descobriram que, mesmo nas melhores condições de aprendizado, o colapso do modelo era inevitável.”

" Estudar e entender o colapso do modelo é importante porque a IA generativa está pronta para trazer mudanças significativas no mundo digital. Mais e mais comunicações online estão sendo geradas usando ferramentas de IA. E esse fenômeno tem o potencial de criar poluição de dados em larga escala. Embora a criação de grandes quantidades de texto seja mais eficiente do que nunca, o estudo do colapso do modelo afirma que nenhum desses dados será valioso para treinar a próxima geração de modelos de IA.” 

19/05/2024

Guia de preços de conectividade WAN

Este artigo aborda como os serviços WAN mais comuns (P2P, Wave, Dark Fiber, MPLS e SD-WAN) são precificados, incluindo insights de preços destes serviços.

Em telecomunicações, as redes de longa distância (WANs) são responsáveis pela transmissão de informações entre vários locais e/ou data centers utilizando redes privadas. Basicamente uma WAN é uma rede, formada de várias redes, e permite que as empresas compartilhem dados, aplicativos e recursos entre as unidades da empresa; e essa a tecnologia WAN está se tornando cada vez mais complexa.

As WANs estão disponíveis em uma ampla variedade de provedores, sejam empresas de telecomunicações tradicionais, ISPs, operadoras de cabos, CLECs ou agregadores de telecomunicações. Neste artigo, mostrarei algumas tendências de preços dos produtos WAN mais comuns: P2Pwave, MPLSDark Fiber e SD-WAN. Cada um desses tipos de rede de longa distância vem com seu próprio conjunto de vantagens e desvantagens. Também compartilho aqui informações sobre preços para referência e suporte à decisão.

Preços

A indústria de telecomunicações, como tantas outras, não é transparente quando se trata de preços. E, devido à vasta disponibilidade de serviços, as estruturas de preços podem, à primeira vista, parecer complicadas, mas aqui estão algumas dicas importantes, relacionadas ao meu próprio trabalho como Pricing manager:

  • Com cerca de 5 mil cotações nos últimos 10 anos, costumo eliminar valores discrepantes (preços ridiculamente altos/baixos)
  • Nos casos de cotações mais altas e mais baixas, na maioria das vezes, elas representavam casos anormais, variação e incertezas, comums a qualquer mercado.
  • Como um pricing manager, tenho a oportunidade de consultar centenas de provedores de conectividade de todas as principais operadoras, locais e regionais e globais.
  • As cotações foram realizadas com maior foco por todas as Américas e normalmente referem-se a áreas urbanas.

Fatores que influenciam os preços das WANs

Existem muitos fatores que impactam ou influenciam o preço da conectividade WAN, independentemente do local e do tipo de WAN:

  • Largura de banda;
  • Conectividade no data center ou fora do data center;
  • Dentro da rede ou fora da rede;
  • Duração do prazo de serviço.

Largura de banda

Largura de banda é a quantidade de informação que passa de um ponto a outro em uma rede em um determinado momento. Aumentar a largura de banda é aumentar a quantidade de informações que podem ser enviadas, o que é cada vez mais importante à medida que cresce a demanda por rich media (streaming de filmes, videoconferências, etc). A largura de banda é medida em bits por segundo, geralmente Megabits por segundo (Mbps) ou Gigabits por segundo (Gbps). Para circuitos P2P e Wave, a largura de banda ainda pode ser oferecida como fixa ou expansível.

Em um data center

A conectividade, geralmente, é mais barata, quando adquirida em um Data Center. Isso se deve ao fato de que os Data Centers geralmente concentram vários provedores de telecomunicações – e consequentemente, mais opções, levando a custos mais baixos. Isto é especialmente verdade em Data Centers de colocation, que estão muito bem preparados para o Peer-to-peer entre operadoras.

On-net x Off-net

O serviço WAN On-net significa que a operadora que fornece o serviço já tem conectividade no edifício ou no site, e é capaz de atender todo o projeto com sua própria rede existente, sem necessidade de investimentos adicionais. De modo geral, uma operadora que tem rede disponível a até 100 metros de um site é considerada On-net. Já o modelo Off-net, refere-se a qualquer coisa além do alcance de 100 metros, normalmente exigindo um projeto ou construção (ou seja, um investimento ou contratação de rede de terceiros) para poder oferecer conectividade a esse local.

Os custos de construção são exatamente isso: a quantidade de investimentos necessários para estabelecer fisicamente uma rede ou parte de uma rede. Uma vez concluída a construção da rede, uma empresa de telecomunicações recuperará os seus investimentos através do serviço que a rede fornece aos consumidores. Por esta razão, os custos de construção são muitas vezes proibitivos em áreas remotas e rurais, devido ao tempo necessário para recuperar estes investimentos.

Em relação às WANs, o custo de construção pode ser considerado como:

  • OPEX, (Operational Expenditure) e significa despesas operacionais, como energia elétrica, matérias-primas, salários, despesas de manutenção e outras despesas correntes. Esses gastos são necessários para manter o negócio em operação e são consideradas como despesas de curto prazo, ou
  • CAPEX (Capital Expendituresignifica despesas de capital e se refere a investimentos maiores, feitos por empresas como compra de equipamentos, galpões industriais, etc.

Duração do prazo de serviço

Os serviços WAN são adquiridos sob contratos de longo prazo (12, 24 ou 36 meses). Em geral, quanto maior o prazo do serviço, mais barato ele será. Na minha experiência, os preços com prazos de três anos ou mais são muitas vezes parecidos, enquanto os preços com prazos inferiores a três anos são normalmente mais caros.

Conclusões sobre preços WAN

  • MPLS – Tradicional, gerenciado por operadora e normalmente mais caro;
  • P2P – os custos estão caindo ano a ano, devido ao crescimento da demanda e da oferta;
  • Wave – Fornece largura de banda ultra-alta a um custo eficiente (geralmente mais barato que MPLS e P2P);
  • Dark Fiber – pode parecer bastante econômico à primeira vista, mas é necessário critério ao comprar e gerenciar os componentes (equipamentos de interconexão) por conta própria ou com terceiros especializados;
  • SD-WAN – Potencialmente o mais econômico, mas a implementação ainda tem muitas nuances e pontos de atenção.

P2P

A conectividade P2P refere-se aos endereços ponta A e ponta Z, interligados por uma única rede. O modelo de topologia desta rede, impede que terceiros compartilhem a banda e cada ponta da rede atua como remetente e destinatário dos dados.

A tecnologia WAN “Legado P2P”, com os antigos serviços E1/T1 e E3/T3, apesar de perder espaço ao longo do tempo para as novas tecnologias de telecomunicações, ainda tem no cabo de cobre, uma boa parte da infra-estrutura global de banda larga. Os P2Ps modernos são provisionados por fibra ótica/ethernet e estão disponíveis em velocidades de até 100 Gbps.

Vantagens do P2P

P2P é um padrão de conectividade há anos. Está amplamente disponível e é  relativamente fácil de entender para a maioria das equipes de infraestrutura.

  • Disponível em velocidades que variam de 1 Mbps a 100 Gbps;
  • Tipo de rede “plana” que permite aos usuários finais controle total sobre roteamento, tráfego, etc., sem intervenção da operadora;
  • Muitos provedores permitem que as empresas optem por recursos especiais como roteamento dinâmico, CoS e até criptografia;
  • Tende a ter latência baixa;
  • Podem ser utilizadas para facilitar a conectividade a nuvem

Desafios P2P

Como um tipo de conectividade legado, existem certos desafios com ao P2P que podem torná-la menos atraente para ações nativas da nuvem.

  • Pode ser caro e complexo escalar, especialmente em uma topologia de um para muitos sites;
  • Os provedores de telecomunicações têm capacidades limitadas de solução de problemas.

Fatores de preços P2P

Os serviços P2P servem de padrão para preços de conectividade, mas sua posição legada afeta o preço em vários tópicos, incluindo:

  • Classe de serviço (CoS) – garantias superiores de latência, jitter e perda de pacotes;
  • Circuitos Protegidos x Não Protegidos – roteamento dinâmico através do backbone da operadora para contornar problemas do provedor de rede e garantir a disponibilidade;
  • Criptografia – camada adicional de segurança fornecida pela operadora;
  • E, claro, os quatro fatores padrão já mencionados: largura de banda, se construção necessária, se está dentro ou fora de um data center e a duração do prazo de contratação.

Ponto de vista sobre o preço P2P

É importante notar que as redes P2P e os serviços de wave são muito parecidos, sendo o modo de transmissão a única diferença. Os serviços P2P são tradicionais, enquanto o wave é uma solução um pouco mais moderna. Os preços do legado P2P estão caindo para competir com o Wave.

Por exemplo: uma operadora que está praticando preços muito agressivos em conectividade P2P quando o projeto estiver “on-net” e estando ela presente  em vários estados do país, essa operadora consegue oferecer 10 Gigabit P2P por US$ 1/Mbps o que é uma tarifa muito boa.

Wave & P2P

Comumente conhecidos como “serviços de fibra óptica”, os serviços wave transmitem dados através de fibra óptica, criando conexões dedicadas de grande largura de banda (muitas vezes chamadas de conexões iluminadas). A adoção da fibra óptica cresce exponencialmente e as operadoras estão construindo infraestrutura de rede para atender aos principais mercados metropolitanos com serviços de alta capacidade e latência super baixa.

Este crescimento ajuda a reduzir os custos das tecnologias P2P legadas. Os serviços wave são fornecidos por fibra, na maioria dos casos usando a tecnologia DWDM, que suporta quase 200 ondas separadas de até 100 Gbps em um único fio de fibra.

Waves têm baixa latência porque são roteadas no backbone da operadora por meio de uma infraestrutura dedicada para esse fim, geralmente de maneira estática. Isso é bom porque geralmente usa-se o caminho mais rápido. A desvantagem é que, se houver um problema na rede da operadora que a wave tenha que atravessar, não será possível contorná-la. Algumas operadoras fornecem serviços de wave “protegidos”, mas estes podem ser caros e limitados.

Vantagens da wave

A conectividade Wave pode ser cara e só será uma boa opção se sua empresa tiver requisitos de alta capacidade.

As camadas de serviço e a taxa de transferência são limitadas a 1, 10, 100, 1.000 e 100.000 Mbps na maioria dos casos.

A maioria das operadoras ainda está desenvolvendo capacidade para oferecer ondas em todos os mercados; a disponibilidade pode ser limitada, especialmente nos mercados de nível 2 e 3.

Fatores de preços Wave

A conectividade Wave é mais comum para transporte WAN de alta capacidade e é  mais rentável quando oferecida a partir de Giga. Os seguintes fatores impactam o preço do circuito wave:

  • Proteção
  • Tamanho do mercado
  • E, claro, os quatro fatores padrão que já definimos acima: requisitos de largura de banda, se uma construção é necessária, se você está dentro ou fora de um data center e a duração do prazo de serviço

Ponto de vista de preços Wave

Observo ano após ano que os preços P2P continuam diminuindo, à medida que a concorrência com o wave e o Dark Fiber aumentam, e outros tipos de conectividade crescem em popularidade.

O Wave é mais barato porque é um novo tipo de produto projetado especificamente para WANs de alta capacidade. A procura por estas WANs está atualmente limitada a mercados muito específicos, como as grandes cidades, e as operadoras estão construindo infraestruturas para suportar a baixa latência. Outro fator que reduz os preços dos serviços de wave em relação a outras alternativas de WAN é o seu modo eficiente de transporte – uma operadora pode fornecer vários circuitos wave em um único fio de fibra.

Um provedor cotou US$ 0,90 MRC /Mbps para uma conexão wave de 100 Gbps. Nota: esse foi um projeto de conexão de data center para data center, mas ainda assim é uma boa referência de caso de uso.

Dark Fiber

Quando as operadoras instalam cabos de fibra óptica, geralmente superestimam a quantidade necessária. Isso resulta em uma boa quantidade de cabos não utilizados ou “escuros”. Às vezes, esses cabos também são chamados de “apagados”. Muitas empresas encaram a fibra escura não como um serviço, mas sim como um ativo ou imóvel. E o valor da fibra escura é quase que 100% determinado pela sua localização, precificado pelos kilometros de fibra ofertada.

Usar esses cabos pode ser tentador, pois oferecem enorme largura de banda (mais de 800 Gigabytes em alguns casos), mas na maioria dos casos, existem alternativas mais práticas. Por exemplo, comprar fibra escura e operá-la com apenas 10 Gigabytes muitas vezes não faz sentido. Neste caso, os serviços wave podem fazer mais sentido. Vale sempre pergunta aos clientes que procuram fibra escura se eles também considerariam uma alternativa iluminada.

Vantagem da Dark Fiber

A fibra escura tem o potencial de fornecer uma quantidade considerável de largura de banda para o seu projeto. Quanto maiores forem as suas necessidades de conectividade, mais atraente será esta opção.

  • Excelente potencial de largura de banda;
  • Com base na localização física e na utilização, algumas economias são possíveis;
  • As empresas controlam totalmente todos os elementos dos serviços.

Desafios da Dark Fiber

A fibra escura geralmente vem com maior disponibilidade de largura de banda que supera as necessidades de sua empresa. E você precisará dedicar algum tempo trabalhando com fornecedores para entender exatamente quais preços serão mais adequados para o seu projeto.

  • A disponibilidade pode ser muito difícil. Muitas operadoras não oferecem fibra escura porque não é realmente um “serviço”;
  • Serviço totalmente não gerenciado que exige que as empresas forneçam todos os equipamentos ópticos em ambas as extremidades;
  • A relação custo/utilização pode ser proibitiva;
  • Embora o preço seja baseado na distância, podem haver outros elementos arbitrários considerados quando os prestadores cotam este serviço, como quem vai utilizá-lo, se o edifício é comercial ou residencial, tipo de mercado, etc.

Fatores de preços da Dark Fiber

  • Altamente variável;
  • Distância de conexão;
  • Custo de equipamentos (não incluído no custo do circuito).

Ponto de vista de preços da Dark Fiber

Um fornecedor cobrou por dois fios de fibra escura na mesma cidade, US$ 400 MRC, e também participei de projetos com operadoras que cobraram milhares de dólares por projetos semelhantes.

A melhor conclusão é que o preço da fibra escura é, na maioria dos casos, feita uma estimativa com base na distância em Km entre os sites da interconexão.

MPLS

Uma WAN Multiprotocol Label Switching (MPLS) é construída no backbone privado de um provedor – isso garante largura de banda e, sendo uma rede privada virtual (VPN), o tráfego MPLS não é roteado pela Internet. Está localizado na rede privada de uma operadora, tornando o MPLS um ambiente muito previsível.

O MPLS é amplamente aproveitado como uma tecnologia WAN para suportar o processamento centralizado de VoIP distribuídas. Para este caso de uso, já em declínio, ainda não há nada melhor. No entanto, com a migração para VoIP/UCaaS / CCaaS baseado em nuvem, tende-se a ver cada vez menos MPLS.

Desafios MPLS

Como um tipo de conectividade apoiada por operadora e projetada para suportar redes centralizadas do tipo data center privado, o MPLS não é a melhor escolha para ambientes em nuvem. Você também enfrenta custos de otimização potencialmente altos e problemas de personalização dos servicos.

  • É otimizada para hub de data center, redes privadas e redes de voz;
  • São mais caras que as opções Ethernet tradicionais, pois o mesmo provedor deve fornecer conexões MPLS em todos os locais da rede, mesmo que não estejam otimizados para fazê-lo. Ou seja, uma operadora ‘A’ pode fornecer uma conexão MPLS em uma área de serviço da operadora ‘B’, mas o alinhamento entre estas operadoras pode custar tempo e recursos;
  • O provedor de serviços controla as configurações de rede e fornece relatórios/análises limitadas;
  • A otimização da WAN para agilizar a entrega acrescenta custos extras;
  • Não há otimização para nuvens públicas;
  • Alto custo por Mbps quando comparado ao P2P e ao wave.

Fatores de preços MPLS

A conectividade MPLS compartilha vários fatores de preços com a conectividade Wave. Certifique-se de fazer referência cruzada às necessidades específicas de infraestrutura da sua empresa ao descobrir qual tipo de conectividade faz mais sentido para o seu negócio;

  • Gerenciamento de roteador;
  • Qualidade de serviço/enfileiramento de tráfego;
  • Termos de serviços com pouca flexibilidade de otimização;
  • E, claro, os quatro fatores padrão que já definidos acima: requisitos de largura de banda, se uma construção é necessária, se você está dentro ou fora de um data center e a duração do prazo de serviço

Ponto de vista de preços do MPLS

Os problemas com os preços fora da rede quando utiliza uma rede MPLS, exige que se use o mesmo provedor em cada uma de suas localidades; se sua empresa quiser se expandir para uma nova geografia onde sua operadora de rede MPLS não seja a LEC, os preços serão muito mais altos.

SD-WAN

O SD-WAN é a solução mais moderna de todas as soluções apresentadas e usa software para controle e direcionamento eficiente de tráfego de uma WAN com base nas necessidades do seu projeto. As SD-WANs podem permitir muitos dos mesmos benefícios de qualidade, experiência e segurança da MPLS ou P2P com transmissão de dados pela Internet pública em vez de rotas dedicadas – por isso que muitas pessoas pensam na SD-WAN como uma opção de WAN mais barata.

Uma diferença importante é que todos os outros tipos de WAN mostrados neste artigo dependem de ter sua própria forma física de transporte, enquanto que a SD-WAN fornece uma desconexão da rede física, de modo que a rede é completamente independente do fornecedor, enquanto o software de gerencia da rede atua essencialmente como uma “VPN inteligente

Vantagens da SD-WAN

Com funcionalidades nativas da nuvem, SD-WAN apresenta diversas vantagens sobre outros tipos de conectividade. Compreender essas vantagens ajuda a determinar se sua infraestrutura está ou não pronta para isso.

  • Melhora a agilidade dos negócios e a capacidade de dimensionar a ocupação da rede, sem depender de transporte dedicado;
  • A camada de software fornece gerenciamento inteligente de rede e relatórios granulares de desempenho, utilização de aplicativos, principais interlocutores, etc.;
  • Por ser uma rede agnóstica ao transporte, ela pode, muitas vezes, reduzir os custos;
  • Projetado para maior dependência de serviços em nuvem, muitas vezes elas já nascem integradas com peering dedicado nas nuvens públicas e SaaS;
  • Capacidade de gerenciar o tráfego, realizar correção de erros e definir filas de prioridade para o tráfego;
  • Integrações de API em muitas plataformas, permitindo ações personalizadas, relatórios e monitoramento granular;
  • Garantias em nível de servicos e experiência do usuário consistente.

Desafios SD-WAN

A SD-WAN ainda enfrenta alguns desafios que outros tipos de WAN não enfrentam:

  • Cenário fragmentado com menos certeza nas métricas de desempenho versus MPLS/P2P;
  • Não é tão capaz quanto o MPLS em alguns ambientes de hub e voz;
  • Rede tecnicamente pública em muitos casos, o que levanta preocupações de segurança para alguns perfis de clientes.

Fatores de preços SD-WAN

Deve ficar claro que o preço da SD-WAN é tão específico que realmente merece seu próprio artigo sobre “como precificar da SD-WAN”, que farei em breve…

  • Existem vários modelos de implantação de SD-WAN que afetam os preços, incluindo gerenciamento, terceirização e autoatendimento;
  • Capacidade dos dispositivos de hardware SD-WAN (número de dispositivos, número de fontes de alimentação, número de interfaces WAN, etc.)
  • O nível de segurança necessário entre sites principais e remotos. Pode-se emparelhar sua solução SD-WAN com Secure Access Service Edge, também conhecido como SASE, para garantir os padrões de segurança mais rígidos;
  • Largura de banda ou taxa de transferência.

Ponto de vista de preços SD-WAN

SD-WAN é uma alternativa poderosa a outras soluções WAN devido à sua capacidade de rotear através de várias redes de vários provedores e à visibilidade de rede que fornece. Poderia muito bem ser a resposta à maioria dos problemas relacionados a redes, no entanto, o escopo e a implementação adequada de uma SD-WAN são complexos.

Resumo sobre redes WAN

Apresentei aqui alguns prós e contras dos principais tipos de conectividade WAN e como elas são precificadas. No restante do artigo, falarei sobre os principais termos que afetam os preços (e algumas definições adicionais).

Estruturas de custos da WAN

Os impostos ou taxas de conectividade WAN podem ser divididas em duas categorias: custo recorrente mensal (MRC) e custo não recorrente (NRC). O MRC é claramente definido em qualquer pacote de conectividade que você adquirir.

Vale a pena notar que o NRC é um pouco mais complicado e às vezes podem ser evitados. A maioria das operadoras podem renunciar um NRC abaixo de US$ 200 no interesse de fechar negócio. Os NRCs geralmente custam, em média, o mesmo valor do MRC, mas podem custar mais caro, quando uma solução for off-net e é necessária uma construção. O custo da construção é sempre específico do local, mas pode ser amortizado como despesa operacional (OPEX) ou despesa de capital (CAPEX).

Finalmente, as empresas devem ter cuidado com as “taxas de agilização”, ou o ‘expedite’  que supostamente aceleram o tempo de instalação, mas raramente são garantidas. Essas taxas também são negociáveis e dispensadas com frequência.

fatores que não afetam os preços da WAN

Há muitos fatos que impactam os preços da conectividade WAN, mas os fatores a seguir não deveriam fazer parte deste cenário. Em um projeto moderno de conectividade, alguns recursos obsoletos devem ser ignorados:

  • Os acordos de nível de serviço são documentos juridicamente vinculativos que descrevem o desempenho da rede e as métricas de uso para ISPs e TSPs. Eles definem o relacionamento entre duas partes comerciais e garantem determinados tipos de serviço de forma geral. A presença de um SLA não deve afetar o preço da WAN, pois hoje em dia é visto como um componente do serviço e não um diferencial;
  • No cenário atual de conectividade WAN, praticamente tudo é transportado por fibra. Dada essa prevalência, o tipo de transporte (cobre vs. fibra) que sua WAN utiliza, não deveria afetar substancialmente os preços;
  • O handoff determina onde a conexão da rede da operadora termina e onde começa a gestão por parte do cliente (hardware do cliente). Se será em Fibra ou elétrica – por elétrica entende-se Ethernet. E isso raramente tem implicações no preço. Mas às vezes há inflexibilidade; Portanto, se você tiver uma rede antiga com caixas antigas, seu transporte elétrico poderá não conseguir fazer peering com a operadora e podem querer te cobrar por isso.

Fatores que afetam os preços da WAN

  • Classe de serviço (CoS) é uma forma de gerenciar o tráfego em uma rede. Tipos semelhantes de tráfego, como e-mail ou conteúdo de streaming, podem ser agrupados. Cada um desses grupos obtém então uma prioridade específica na rede. Embora a priorização de CoS não possa garantir a largura de banda ou os tempos de entrega em uma rede, ela pode melhorar o tempo de processamento para grupos críticos de informações quando a rede está congestionada;
  • Roteadores gerenciados são roteadores acessados, monitorados e manipulados remotamente por uma entidade independente, que pode ou não estar relacionada aos proprietários de uma rede ou a quem a utiliza;
  • Circuitos protegidos são componentes de proteção de redes, cujo objetivo é garantir que falhas em determinados pontos de uma rede sejam atenuados ou minimizados para os usuários. Circuitos protegidos são circuitos que contêm caminhos de redes distintos. Ou seja, se um caminho do circuito falhar, o circuito em si não falhará. Embora seja uma ótima opção para garantir a disponibilidade do serviço, os circuitos protegidos geralmente custam mais do que os circuitos não protegidos;
  • Qualidade de Serviço (QoS) refere-se ao conceito de moldar e priorizar o tráfego de rede como um todo. A aplicação de QoS em uma rede envolve um conjunto de tecnologias que agrupam e priorizam de forma inteligente tipos de tráfego semelhantes, colocando todo o tráfego não prioritário em uma fila, garantindo que o tráfego prioritário chegue ao seu destino antes que qualquer outra coisa seja enviada. Esse grau mais refinado de controle reduz diretamente a perda de pacotes, a latência e a instabilidade em uma rede;
  • Provedores de serviços Tier 1 possuem tanto a infraestrutura na qual a rede é construída quanto o serviço que ela fornece. Os provedores de WAN Tier 2 não possuem a infraestrutura que seus serviços fornecem. Em vez disso, os fornecedores de WAN Tier 2 alugam a infra-estrutura de rede a terceiros, o que deverá ser claramente identificado nos seus SLAs.
Ao adquirir circuitos Tier 2, certifique-se de verificar o custo. Como os fornecedores do Tier 2 são essencialmente revendedores, é provável que haja uma margem de lucro MRC.

Outras considerações sobre WAN

  • Latência: Embora a largura de banda seja a quantidade de informações que podem ser transmitidas entre os pontos de uma rede, a velocidade de conectividade se refere à taxa com que as informações podem viajar (ou a rapidez). As expectativas de velocidade serão definidas no SLA, em termos de latência, que é uma medida do tempo que uma informação (um pacote de dados) leva para fazer uma viagem de ida e volta entre dois pontos. Esse tempo geralmente é medido em milissegundos (ms). E, embora a latência zero (ou seja, transmissão instantânea) possa ser impossível, as configurações de rede ideais produzem a menor latência possível;
  • Topologia de rede: uma rede é a conexão entre dois ou mais pontos, chamados de nós da rede. A topologia de rede, por sua vez, é o termo que define como todos os nós de uma rede são organizados para que ela funcione;
  • Circuitos redundantes: ao contrário de múltiplas rotas dentro de um circuito, os circuitos redundantes são failovers projetados para assumir automaticamente o controle se o circuito primário falhar. O fato de sua rede ser redundante ou não, não afeta o custo do circuito primário que você está adquirindo, mas é importante ressaltar que às vezes o circuito secundário, também conhecido como redundante, pode ser mais barato que o circuito primário. Pode-se também adquirir opções de custo mais baixo que sejam menos confiáveis, de menor banda ou que tenham uma estrutura de faturamento diferente, onde você paga por utilização (isso está mais presente em circuitos redundantes 5G).

WAN: Saiba mais, economize mais

Seja para comprar ou para vender WAN é importante entender a mecânica da precificação ao começar a investigar a infraestrutura da Internet e outras redes da sua empresa. É importante conhecer os fatores que não afetam o preço da WAN. Mas, é preciso ter um bom entendimento das necessidades específicas da sua empresa, incluindo requisitos de largura de banda, redundância, criptografia, gerenciamento de roteador e muitos outros. É muito importante entender que, em termos de conectividade WAN, não existe uma solução única. Pretendo ainda escrever um guia completo sobre o design WAN,  caso você queira se aprofundar neste tema. E se você quiser saber mais sobre conectividade WAN, se está gastando muito ou outras maneiras de economizar em conectividade, entre em contato e eu te ajudo com isso.

22/04/2024

Empregos, Competências e Economia.

No início deste ano, o Fórum conômico Mundial (WEF) publicou o “Relatório sobre o Futuro do Emprego 2023”. O WEF tem publicado Relatórios sobre o Futuro dos Empregos desde 2016 para explorar como as tendências socioeconômicas e tecnológicas poderão moldar a evolução dos empregos e das competências nos próximos anos.

Em 2023, as transformações do mercado de trabalho impulsionadas por avanços tecnológicos, como a inteligência artificial (IA), estão sendo agravadas por perturbações econômicas e geopolíticas e por crescentes pressões sociais e ambientais”, escreveu Saadia Zahidi, Diretora Geral do WEF, no Prefácio do Relatório, que explora a probabilidade de evolução dos empregos e das competências no período de 2023-2027. As tendências e previsões baseiam-se em pesquisa a mais de 800 grandes empresas que empregam mais de 11,3 milhões de trabalhadores em 27 industriais e 45 economias de todo o mundo.

Deixe-me discutir algumas das principais conclusões e previsões do relatório.

Mercado de trabalho entre países de rendimento baixo, médio e alto.

“As crises econômicas e geopolíticas dos últimos anos criaram uma perspectiva divergente e incerta para os mercados de trabalho, aumentando as disparidades entre economias desenvolvidas e emergentes e entre os trabalhadores.” Com 4,9%, a taxa de desemprego em 2022 nos países da OCDE está no seu nível mais baixo desde 2001, enquanto as taxas de desemprego em três quartos dos países da OCDE estão abaixo dos níveis pré-pandemia. Por outro lado, a recuperação do mercado de trabalho face às perturbações da COVID-19 tem sido significativamente mais lenta em muitas economias em desenvolvimento.

Os níveis de emprego também têm divergido. Os trabalhadores com apenas o ensino básico foram os mais atingidos em 2020 e demoraram a recuperar para os níveis de emprego anteriores à pandemia. “Em muitos países, o aumento do desemprego entre 2019 e 2021 dos trabalhadores com nível de educação básico foi mais do dobro do impacto sobre os trabalhadores com educação avançada.” As mulheres registaram uma maior perda de emprego e uma recuperação mais lenta do que os homens durante a pandemia, tal como os trabalhadores mais jovens. Além disso, a economia global registou os maiores níveis de inflação em quase 40 anos, conduzindo a uma crise no custo de vida que afetou mais duramente os mais vulneráveis.

A adoção da tecnologia continuará a ser um fator-chave da transformação empresarial nos próximos anos. Mais de 85% das organizações entrevistadas identificaram o aumento da adoção de tecnologias novas e inovadoras e a ampliação do acesso digital como as macrotendências com maior probabilidade de impulsionar a transformação das suas empresas.

Quarta Revolução Industrial , comentada pela primeira vez no Fórum Anual de Davos de 2016, está acelerando o ritmo de adopção de tecnologia e mudando a fronteira entre humanos e máquinas em todos os sectores e geografias. Baseando-se numa fusão de tecnologias que confundem as fronteiras entre as esferas física, digital e biológica, a tecnologia não está apenas alterando a forma como trabalhamos, mas também o conteúdo do trabalho, as competências e os empregos que estão sendo substituídos.

75% das empresas planejam adotar big data, computação em nuvem e IA nos próximos anos. As plataformas e aplicativos digitais lideraram a lista, a escolha de mais de 86% dos entrevistados, seguidas por tecnologias educacionais e de força de trabalho (81%), análise de big data (80%), IoT e dispositivos conectados (77%), computação em nuvem (77%). %), criptografia e segurança cibernética (76%), comércio eletrônico e comércio digital (75%) e inteligência artificial (75%).

Espera-se que o impacto da maioria das tecnologias nos empregos seja positivo nos próximos cinco anos. A análise de big data foi selecionada por 58% dos entrevistados como o trabalho com maior probabilidade de crescer até 2027, seguido pela mitigação das mudanças climáticas (50%) e tecnologias de gestão ambiental (46%), criptografia e segurança cibernética (43%), biotecnologia ( 43%), tecnologias agrícolas (41%), plataformas e aplicativos digitais (41%), tecnologias de saúde e cuidados (40%) e tecnologias de educação e desenvolvimento de força de trabalho (40%).

Espera-se que a IA resulte numa perturbação significativa do mercado de trabalho, com uma deslocação substancial do emprego compensada pelo crescimento do emprego noutros locais da organização, resultando num resultado líquido positivo. “A IA tem recebido especial atenção, com alegações de que 19% da força de trabalho poderia ter mais de 50% das suas tarefas automatizadas pela IA e a perda de empregos chegando às manchetes, enquanto outros esperam que a tecnologia melhore os empregos.

A aplicação mais ampla dos padrões Ambientais, Sociais e de Governança (ESG) foi identificada por 81% das organizações como tendo um impacto significativo na condução da transformação dos negócios. “A adaptação às alterações climáticas e o dividendo demográfico nas economias em desenvolvimento e emergentes também têm uma elevada classificação como criadores líquidos de emprego.”

A fronteira homem-máquina mudou, com as empresas introduzindo a automação nas suas operações a um ritmo mais lento do que o previsto anteriormente. As organizações estimam que cerca de um terço de todas as tarefas relacionadas aos negócios são executadas por máquinas, enquanto os dois terços restantes são executados por humanos. Isto é quase o mesmo que o nível de automação estimado pelos entrevistados no “Relatório sobre o Futuro dos Empregos de 2020” do WEF.

Em geral, os empregadores têm uma baixa em relação às perspectivas sobre as suas previsões para a automação daqui a cinco anos, de uma previsão de 47% de automação no relatório de 2020 para uma previsão de 42% de automação no relatório de 2023. As previsões de automação de tarefas variam de 35% para raciocínio e tomada de decisão, 47% para execução de atividades complexas e técnicas e 65% para processamento de informações e dados.

O escopo potencial da automação e do aumento se expandirá ainda mais nos próximos anos, com as técnicas de IA amadurecendo e encontrando aplicações convencionais em todos os setores. Resta saber como as tecnologias que passam pelas mudanças mais rápidas, como a tecnologia de IA generativa, podem alterar ainda mais a composição das tarefas automatizáveis durante o período 2023-2027, com alguns estudos recentes a descobrir que os Grandes Modelos de Linguagem já podem automatizar 15 % de tarefas. Quando combinada com aplicações que podem corrigir problemas conhecidos com os Grandes Modelos de Linguagem existentes (como imprecisões factuais), esta percentagem pode aumentar para 50%.

Os empregadores estimam que 44% das competências dos trabalhadores serão prejudicadas nos próximos cinco anos. As competências cognitivas continuarão a aumentar em importância, refletindo a importância crescente da resolução de problemas complexos no local de trabalho e na economia. Não é de surpreender que o pensamento criativo tenha sido mencionado como uma competência cada vez mais importante por 73% dos entrevistados, seguido de perto pelo pensamento analítico, mencionado por 72%. Eles foram seguidos por alfabetização tecnológica (68%), curiosidade e aprendizagem ao longo da vida (67%), resiliência, flexibilidade e agilidade (66%), pensamento sistêmico (60%), IA e big data (60%), motivação e autoconhecimento. -conscientização (59%), gestão de talentos (56%), orientação para serviços e atendimento ao cliente (55%), liderança e influência social (53%) e empatia e escuta ativa (52%).

Os entrevistados expressam confiança no desenvolvimento da sua força de trabalho existente, no entanto, estão menos optimistas relativamente às perspectivas de disponibilidade de talentos nos próximos cinco anos. 60% das organizações destacam a dificuldade de colmatar lacunas de competências nos seus mercados de trabalho locais como a principal barreira que impede a transformação da sua indústria e da força de trabalho, enquanto 53% identificam a sua incapacidade de atrair talentos como as suas principais barreiras.

A transformação de empregos e competências tem impactos significativos nas empresas, governos e trabalhadores em todo o mundo. É crucial desenvolver previsões de insights, identificar os talentos apropriados para promover o crescimento e tomar decisões informadas sobre a gestão das perturbações significativas nos empregos e nas competências, tanto para empregadores como para trabalhadores.

Após a instabilidade generalizada nos últimos anos em todo o mundo, esperamos que as perspectivas apresentadas neste relatório contribuam para uma agenda multilateral para preparar melhor os trabalhadores, as empresas, os governos, os educadores e a sociedade civil para as perturbações e oportunidades que virão e capacitá-los a navegar nessas transições sociais, ambientais e tecnológicas. Chegou o momento de os líderes empresariais e os decisores políticos moldarem de forma decisiva estas transformações e garantirem que os investimentos futuros se traduzam em melhores empregos e oportunidades para todos.”

17/03/2024

Qual o provável benefício da IA a longo prazo?

Desde o advento da Revolução Industrial, as tecnologias de uso geral (GPTs) têm sido as tecnologias mais impactantes de sua época. A capacidade de suportar uma grande variedade de aplicações pode, a longo prazo, transformar radicalmente as economias e as instituições sociais. As tecnologias GPT têm um grande potencial, mas a concretização do seu potencial exige grandes investimentos tangíveis e intangíveis e uma reformulação fundamental das empresas e indústrias, incluindo novos processos, estruturas de gestão, modelos de negócios e formação de profissionais. Como resultado, concretizar o potencial de uma GPT leva tempo considerável, talvez, até décadas. A eletricidade, o motor de combustão interna, os computadores e a Internet são exemplos de GPTs historicamente transformadores.

Por exemplo, após a introdução da energia elétrica no início da década de 1880, as empresas demoraram cerca de quatro décadas, até se descobrir como reestruturar as fábricas para aproveitarem a energia elétrica com inovações de fabricação, como a linha de montagem. Demorou ainda mais para desenvolver produtos domésticos elétricos populares, como geladeiras, torradeiras, máquinas de lavar e aparelhos de ar condicionado.

A precursora da Internet, a ARPANET, foi desenvolvida pelo Departamento de Defesa dos EUA no final da década de 1960 para aplicações militares e de pesquisa. Só na década de 1990 é que a Internet foi aberta às empresas e aos consumidores, tornando-se a plataforma de inovação mais significativa que o mundo já viu e inaugurando uma nova economia digital do século XXI.

Da mesma forma, a inteligência artificial surgiu pela primeira vez em meados da década de 1950 como uma nova disciplina acadêmica, que visava desenvolver máquinas inteligentes capazes de realizar tarefas semelhantes às humanas, como a linguagem natural e jogar xadrez. A IA tornou-se uma das áreas mais interessantes das ciências da computação nas décadas de 1960, 1970 e 1980, mas depois de anos de exageros e promessas não cumpridas, entramos no chamado inverno de IA, de investimentos reduzidos, que quase interromperam por completo as pesquisas em todos os lugares.

A IA ressurgiu na década de 1990 com um paradigma orientado a dados totalmente diferente, baseado na análise de grandes quantidades de dados com algoritmos sofisticados e computadores poderosos. A IA centrada em dados continuou a avançar nos últimos 20 anos com grandes inovações em diversas áreas, como big dataanálise preditiva, algoritmos de aprendizado de máquina e, mais recentemente, grandes modelos de linguagem (LLMs) e chatbots generativos. A IA emergiu agora como uma das, senão a principal tecnologia definidora do século XXI.

Ao longo dos últimos dois séculos e meio, o surgimento de uma nova tecnologia historicamente transformadora foi acompanhado por receios de perda de empregos através da automação. Mas sempre que esses receios surgiram no passado, os avanços tecnológicos acabaram por criar mais empregos ao longo do tempo, do que aqueles que destruíram e tais temores de automação aumentaram compreensivelmente nos últimos anos, à medida que máquinas cada vez mais inteligentes estão sendo aplicadas a atividades que exigem inteligência e capacidades cognitivas que não há muito tempo eram vistas como domínio exclusivo dos humanos.

Em 2018, o então presidente do MIT, Rafael Reif, encomendou uma força-tarefa para todo o MIT para abordar o impacto da IA nos empregos, nas economias e na sociedade. Depois de trabalhar durante dois anos, o grupo de trabalho divulgou o seu relatório final, “O trabalho do futuro: Construindo Melhores Empregos numa Era de Máquinas Inteligentes”, em Novembro de 2020.

A conclusão do relatório foi que “a mudança tecnológica está simultaneamente substituindo o trabalho existente e criando novos postos de trabalho. Nenhuma evidência histórica ou contemporânea convincente sugere que os avanços tecnológicos estejam sendo conduzidos para um futuro sem emprego. Pelo contrário, prevemos que, nas próximas duas décadas, os países industrializados terão mais vagas de emprego do que trabalhadores para as preencher, e que a robótica e a automação desempenharão um papel cada vez mais crucial no preenchimento destas lacunas. No entanto, o impacto da robótica e da automação aos trabalhadores não será benigno. Estas tecnologias, em conjunto com incentivos económicos, escolhas políticas e forças institucionais, irão alterar o conjunto de empregos disponíveis e as competências que estes exigem.”

“Os impactos da mudança tecnológica estão a revelar-se gradualmente”, foi a segunda importante conclusão do grupo de trabalho. “Na verdade, os efeitos mais profundos das novas tecnologias no mercado de trabalho que descobrimos foram menos devidos à robótica e à IA do que à difusão contínua de tecnologias de décadas (embora muito melhoradas), como a Internet, a computação móvel e em nuvem, e os telefones móveis,”, disse o relatório. “Esta escala temporal de mudança proporciona a oportunidade de elaborar políticas, desenvolver competências e fomentar investimentos para moldar construtivamente a trajetória de mudança em direção ao maior benefício social e econômico.

A força-tarefa do MIT foi conduzida entre 2018 e 2020, antes dos avanços impressionantes e do interesse explosivo do mercado em LLMs e dos chatbots generativos. O ChaGPT, lançado pela OpenAI em 30 de novembro de 2022, impulsionou a IA a um nível totalmente novo de expectativas, algumas realistas, outras exageradas e tem sido acompanhado por uma corrida do ouro da IA que está atraindo muita atenção de startups e investidores. Como resultado, existe a expectativa de que a IA generativa avance e amadureça consideravelmente mais rápido do que o inicialmente previsto para uma tecnologia tão nova e complexa.

Tendo em vista os recentes avanços e investimentos na IA generativa, como ela provavelmente irá impactar a evolução a longo prazo da IA, especialmente quando comparada com tecnologias historicamente transformadoras anteriores?

Embora as revoluções tecnológicas anteriores tenham sido acompanhadas por uma corrida do ouro semelhante, — lembremo-nos da bolha pontocom da Internet na década de 1990, — a IA pode muito bem pertencer a uma classe à parte devido às sérias preocupações que foram levantadas sobre o impacto potencial das máquinas que podem igualar ou superar os níveis humanos de inteligência.

Alguns acreditam que a IA generativa acelerará a evolução em direção à inteligência artificial geral (AGI), quando a IA será capaz de realizar qualquer tarefa humana, possivelmente até melhor do que os humanos ao longo do tempo. Esta perspectiva é acompanhada por receios de que uma IA cada vez mais poderosa, altamente inteligente e fora de controle possa levar a mudanças imprevisíveis na civilização humana e tornar-se uma ameaça existencial para a humanidade. Embora as tecnologias anteriores tenham aumentado principalmente os receios sobre a automatização do trabalho, nenhuma gerou o tipo de receio existencial de que a IA alcançasse a chamada singularidade.

Quão realistas são esses medos?

Em primeiro lugar, podemos esperar que o impacto da IA generativa se desenvolva muito mais rapidamente do que o esperado, em vez de gradualmente, como foi o caso com tecnologias transformadoras anteriores? Sinceramente, todos duvidam que possa ser assim.

Um estudo da Mckinsey de junho de 2023, O potencial econômico da IA generativa: a próxima fronteira de produtividade”, analisou o impacto econômico potencial da IA generativa e concluiu que “Embora a IA generativa seja uma tecnologia empolgante e de rápido avanço, as outras aplicações da IA discutidas no relatório continuam a representar a maior parte do valor potencial global da IA. Os algoritmos tradicionais de análise avançada e aprendizado de máquina são altamente eficazes na execução de tarefas numéricas e de otimização, como modelagem preditiva, e continuam a encontrar novas aplicações em uma ampla variedade de setores. No entanto, à medida que a IA generativa continua a desenvolver-se e a amadurecer, tem o potencial de abrir fronteiras totalmente novas em criatividade e inovação.

Em outras palavras, a maior parte do impacto econômico da IA nos períodos iniciais e intermédios virá provavelmente das versões mais maduras e mais bem compreendidas da IA, como a análise e a aprendizagem automática, e não das versões muito mais recentes, menos bem compreendidas e altamente complexas, como IA generativa. A conclusão da McKinsey é semelhante à conclusão do grupo de trabalho do MIT – de que os impactos econômicos mais profundos dos avanços tecnológicos se devem principalmente à difusão de tecnologias mais antigas, como a Internet, a mobilidade e a computação em nuvem, e não à IA de ponta. E, como observou o estudo do MIT, uma escala de tempo de mudança mais lenta oferece a oportunidade de elaborar políticas e regulamentações adequadas para mitigar as desvantagens da IA e moldar construtivamente a trajetória da mudança em apoio aos seus maiores benefícios econômicos e sociais.

Há muito, muito trabalho a ser feito. As aplicações de consumo previstas para IA generativa e chatbots, como assistentes de IA, mentores, tutores, treinadores, conselheiros, terapeutas e, portanto, são ainda mais complicadas e menos compreendidas do que os processos de negócios onde, — conforme identificado no recente estudo da Mckinsey, — a IA generativa poderá ter o maior impacto econômico a curto e médio prazo: operações de clientes, marketing e vendas, engenharia de software e investigação e desenvolvimento.

Os processos de negócios são melhor compreendidos do que as tarefas e comportamentos humanos. Faremos grandes progressos na melhoria de tarefas bastante compreendidas, como a pesquisa com IA generativa, e provavelmente haverá grandes inovações em aplicações mais focadas e personalizadas para paramédicos, enfermeiros, tutores de matemática e assistentes de trabalho. Mas aplicações pessoais mais gerais, como terapeutas e treinadores de carreira, provavelmente levarão muito mais tempo para serem desenvolvidas porque não entendemos realmente como os humanos realizam essas funções.

Finalmente, todas as pesquisas sobre tecnologias, historicamente transformadoras, descobriram que quanto mais complexa a tecnologia, mais tempo levará para concretizar o seu potencial de mercado devido ao aumento dos investimentos e à grande reestruturação das indústrias, economias e empresas que provavelmente exigirá. A IA generativa, os LLMs e os chatbots são tecnologias muito complexas, uma vez que não podemos explicar como é que as suas enormes redes neurais tomam as suas decisões em termos que um ser humano possa compreender. No final, a IA continuará avançando e melhorando, confiando na inteligência de seus desenvolvedores humanos e colaboradores, e não na sua própria inteligência.

04/02/2024

Gerenciamento de projetos na era da IA

“Os projetos substituíram as operações como o motor econômico dos nossos tempos”, escreveu Antonio Nieto-Rodriguez em “The project Exonomy Has Arrival”, um artigo de dezembro de 2021 na Harvard Business Review (HBR). Nieto-Rodriguez é ex-presidente global do Project Management Institute e autor do Harvard Business Review Project Management Handbook: How to Launch, Lead, and Sponsor Successful Projects, no qual o artigo da HBR se baseia.

Embora essa mudança demore um pouco para acontecer, ainda temos um longo caminho a percorrer. “Segundo a empresa de pesquisa Standish Group, apenas cerca de 35% dos projetos realizados em todo o mundo são bem-sucedidos. Dado que estamos falando de dezenas de biliões de dólares e do trabalho de milhões de funcionários, esse é um número alarmante e nos diz que, não estamos apenas desperdiçando 65% do tempo e dinheiro que investimos nos nossos projetos, mas também perdendo biliões de dólares em valor para as organizações e para a sociedade em geral.”

Uma pesquisa da McKinsey sobre o estado da IA nas empresas descobriu que a adoção da IA mais que dobrou nos últimos cinco anos. Dado que a pesquisa foi realizada em 2022, antes do lançamento do ChatGPT, que levou a IA a um nível totalmente novo de interesse, podemos esperar um grande aumento nos projetos com esse foco nos próximos anos. O artigo de Nieto-Rodriguez na HBR é, portanto, relevante à medida que entramos na era da IA.

“O que é exatamente um projeto? ”, ele perguntou no artigo. Embora projeto seja uma palavra que todos usamos comumente, o artigo aponta que a palavra significa coisas diferentes para pessoas diferentes. “Isso é um problema. À medida que os projetos geram cada vez mais valor, todos precisam ter um entendimento comum sobre o que são projetos e gerenciamento de projetos”:

“Os projetos envolvem uma série de atividades planejadas destinadas a gerar uma entrega (um produto, um serviço, um evento). Estas atividades – que podem ser qualquer coisa, desde uma grande iniciativa estratégica a um pequeno mudança – são limitadas no tempo. Projetos têm início, meio e fim claros; exigem um investimento, na forma de capital e recursos humanos; e são projetados para criar formas predeterminadas de valor, impacto e benefícios. Cada projeto possui elementos únicos. Essa é a chave: cada um contém algo que não foi feito antes.”

“O gerenciamento de projetos, envolve um conjunto de competências, técnicas e ferramentas que ajudam as pessoas a definir, planejar e implementar projetos para atingir seus objetivos. A maioria dos métodos de gerenciamento de projetos que usamos hoje foram desenvolvidos nas décadas de 1970 e 1980 e refletem a eficiência e os métodos de padronização usados para o gerenciamento de operações. As organizações normalmente adotavam uma metodologia padronizada de gerenciamento de projetos e a aplicavam de forma consistente a todos os seus projetos. Com o tempo, o que era projeto e gerenciamento de projetos precisava ser diferenciado. As organizações evoluíram e, embora o número de projetos tenha aumentado exponencialmente, a gestão de projetos, de alguma forma, ficou no passado.”

Observe o contraste nessas definições entre gerenciamento de projetos e gerenciamento de operações. As operações envolvem “o funcionamento de organizações”, enquanto os projetos envolvem “a mudança de organizações”. Administrar a organização significa gerenciar suas funções principais, — por exemplo, vendas, atendimento ao cliente, finanças, manufatura, TI; melhorar a eficiência da empresa e das suas principais funções e processos de negócios; e criação de valor através da geração e aumento de receita. “O foco é de curto prazo, os objetivos são orientados ao desempenho e a estrutura é hierárquica. Culturalmente, o modelo é comando e controle.”

Mudar a organização significa ser responsável pelo futuro da empresa, impulsionando iniciativas estratégicas, incluindo a adoção de novas tecnologias, produtos e serviços inovadores e modelos de negócios transformadores. “O foco é de médio a longo prazo, os objetivos são mais estratégicos, a estrutura é plana e baseada em projetos e os resultados são menos quantificáveis do que os resultados operacionais. Culturalmente, o modelo é o empreendedorismo e a colaboração.”

Para ter sucesso em tempos de mudança, as empresas precisam ser organizacionalmente ambidestras para alcançar o equilíbrio certo entre gestão e mudança, — “elas devem equilibrar a exploração de suas capacidades atuais (operações) com a exploração de novas competências (projetos)”. Isto é difícil, porque os líderes empresariais geralmente se sentem mais confortáveis em melhorar a eficiência das suas operações do que em impulsionar mudanças estratégicas de longo prazo, – um legado da economia industrial do século 20, quando as empresas produziam principalmente bens físicos, aumentavam a produção através da padronização e automatização de processos, e cresceu através de melhorias incrementais em seus produtos.

“A maior mudança na estrutura das empresas no século passado é que, há um século, a grande maioria dos funcionários estava em chão de fábricas, e agora a maioria dos funcionários e a grande maioria da massa salarial estão em torres de escritórios ou parques”, escreveu a Universidade. do professor Roger Martin de Toronto em um artigo recente na Fast Company. “Se perguntarmos o que essas pessoas fazem, fica claro que elas não produzem produtos ou serviços. O que eles fabricam são decisões. Eles decidem o que produzir, onde produzir, onde vender, como definir o preço, etc. Eles estão nas Fábricas de Decisão.”

A natureza do trabalho nas chamadas fábricas de decisão é completamente diferente da produção em grande volume de produtos ou serviços. “A necessidade de uma determinada decisão fica evidente, é trabalhada, resultando em uma decisão, e depois vai embora, muitas vezes para nunca mais ser vista — por exemplo, a decisão de como lançar determinado novo produto. Em uma Fábrica de Decisões, o trabalho é organizado em torno de projetos – projetos relacionados a decisões que vêm e vão.” Esses trabalhos devem ser altamente adaptáveis com base nos requisitos de um projeto específico. Eficiência significa adequar pessoas com as habilidades necessárias às demandas de um projeto específico. Pensar em projetos em vez de empregos permite que uma organização seja mais inovadora, mais produtiva e um lugar melhor para trabalhar.

“Num mundo impulsionado pela mudança, as empresas não podem aplicar apenas uma metodologia a todos os seus projetos”, escreveu Nieto-Rodriguez no artigo da HBR. “Em vez disso, eles precisam de uma caixa de ferramentas de abordagens – entre elas o gerenciamento de projetos ágil e tradicional, certamente, mas também o design thinking, o gerenciamento de mudanças e o desenvolvimento de produtos – e então devem desenvolver competências em todos eles em suas organizações. Mas para tornar isso possível, eles primeiro precisam de uma estrutura que permita que todos na organização vejam, entendam e trabalhem de forma produtiva nos elementos-chave de qualquer projeto.”

Nieto-Rodriguez criou essa estrutura para ajudar a explicar os principais elementos e objetivos do gerenciamento de projetos para profissionais e executivos. A estrutura é descrita detalhadamente em seu Manual de Gerenciamento de Projetos e resumida no artigo da HBR. Para ilustrar os seus elementos principais, ele criou um modelo de uma página, o project canvas, como uma introdução simples e passo a passo à estrutura, que considerei particularmente relevante dada a natureza transformadora dos projetos baseados em IA.

O Project Canvas visa garantir que cada projeto tenha um propósito bem compreendido e alinhado com a estratégia da organização. É composto por apenas três domínios: fundação, pessoas e criação. Cada domínio possui três blocos de construção, cada um com o objetivo de fornecer respostas a questões vitais para o sucesso de qualquer projeto:
Fundação

Objetivo: Por que estamos fazendo o projeto?;
Investimento: Quanto custará o projeto?;
Benefícios: Que benefícios e impacto o projeto gerará e como saberemos se o projeto foi bem-sucedido?
Pessoas

Patrocínio: Quem é o responsável pelo projeto;
Partes Interessadas: Quem se beneficiará e será afetado pelo projeto?;
Recursos: Quem irá gerenciar o projeto e quais habilidades são necessárias para entregá-lo?
Criação

Entregáveis: O que o projeto produzirá, construirá ou entregará?;
Plano: Como e quando o trabalho será realizado?;
Mudança: Como iremos envolver as partes interessadas e gerir os riscos?

A tela inicial do projeto orienta cada etapa do processo. “a tela tem que funcionar para todos, por isso deve ser construída com base no consenso. O gerente do projeto deve começar convocando um workshop de definição do projeto – uma reunião onde o patrocinador do projeto, as principais partes interessadas e os especialistas, e outras pessoas que possam fornecer informações relevantes, incluindo clientes e fornecedores.”

Uma vez concluído o kickoff, o canvas do projeto é compartilhado com as partes interessadas a fim de obter e incorporar comentários. “o Canvas é um documento vivo, e deve ser revisitado regularmente. Consultá-lo sempre é dever de todos os envolvidos, em momentos de decisão importante e mantê-lo atualizado, é dever do gerente principal do projeto, sempre que fizer alterações na natureza do projeto ou em seus objetivos.”

“até 2027, cerca de 88 milhões de pessoas em todo o mundo estarão provavelmente trabalhando na gestão de projetos, e o valor da atividade econômica orientada para projetos terá atingido 20 biliões de dólares”, escreveu Nieto-Rodriiguez no resumo do artigo. “mas a investigação mostra que apenas 35% dos projetos realizados em todo o mundo são bem-sucedidos – o que significa que estamos a desperdiçar uma quantidade exorbitante de tempo, dinheiro e oportunidades. Para tirar vantagem da nova economia baseada em projetos, as empresas precisam de uma nova abordagem à gestão de projetos: devem adotar uma estrutura organizacional orientada para projetos, garantir que os executivos tenham capacidades para patrocinar projetos de forma eficaz e formar gestores em gestão de projetos modernos.”

Além da Guerra de Preços: O Oceano Azul na Conectividade Brasileira

Introdução Lançado em 2005 por W. Chan Kim e Renée Mauborgne, A Estratégia do Oceano Azul revolucionou o pensamento estratégico...