29/03/2020

1/4 de século na era digital

A era digital nasceu há cerca de 25 anos com o lançamento público do navegador Netscape em 1994. O navegador tornou muito mais fácil para as pessoas comuns acessar informações pela Internet, provocando o crescimento explosivo de usuários, sites e aplicativos e serviços online. Esse foi um marco verdadeiramente histórico, marcando a transição da economia industrial dos últimos dois séculos para um novo tipo de economia: a chamada economia digital. Desde então, a era digital continua avançando, impulsionada por um fluxo de novas tecnologias e modelos de negócios, de smartphones e computação em nuvem a big data e aprendizado de máquina.

Há alguns meses, o McKinsey Global Institute publicou o artigo Vinte e cinco anos de digitalização, um documento na forma de relatório que oferece insights para ajudar líderes de negócios a navegar neste mundo digital ainda relativamente novo. Estas foram as principais ideias do relatório:

  • O grande potencial econômico para o mundo, está ligado à digitalização da economia – e muito ainda há para ser feito;
  • As super empresas digitais estão crescendo muito; além das quatro grandes dos EUA e das três grandes da China;
  • Os nativos digitais estão mandando no mundo;
  • O digital mudará tudo – até os limites da indústria;
  • Jogar a economia da plataforma é uma opção in-the-money;
  • Agilidade é a nova maneira de competir;
  • Autocanibalização e inovação são uma necessidade para a reinvenção digital;
  • É fundamental conseguir as fusões e aquisições certas;
  • O gerenciamento eficaz da transformação digital é vital – mas muito desafiador; e
  • Fazer a transição de tecnologias tradicionais para novas tecnologias digitais é um imperativo.

Um grande potencial econômico está ligado à era digital.

Um relatório anterior da McKinsey estimou que a digitalização, a automação e a IA têm potencial para adicionar de forma incremental cerca de US $ 13 trilhões até 2030 ao PIB global, à medida que seus ganhos de produtividade são reinvestidos para criar novas oportunidades de negócios.

A McKinsey quantificou o ritmo da digitalização nos EUA, Europa e China e descobriu que, em média, todas as três economias alcançaram apenas cerca de 20% do seu potencial digital total. A adoção de tecnologias digitais complexas e, em particular, das práticas organizacionais necessárias para atingir seu valor potencial, permanece lenta. Os dados mostraram que apenas 26% das vendas mundiais foram feitas por canais digitais, 30% das operações internas foram automatizadas digitalmente e 25% das interações nas cadeias de suprimentos foram digitalizadas.

Os setores com um alto nível de digitalização alcançaram o maior crescimento de produtividade, mas todos os setores ainda têm um caminho a percorrer. Não é de surpreender que as indústrias orientadas a serviços, bem como aquelas cujos produtos sejam mais imateriais (digitais) do que físicos, estejam à frente na digitalização. Mídia e finanças estão entre as indústrias mais avançadas, enquanto produtos farmacêuticos e cosméticos são os retardatários.

O digital muda tudo – até os limites da indústria

A pesquisa da McKinsey constatou que apenas 10% das empresas estão investindo em tecnologias digitais, sendo os maiores investidores, são empresas de mídias digitais; os bancos de varejo, estão em último.

Estratégia e competição são bem diferentes em um negócio baseado em plataforma digital, em comparação com um negócio de produto tradicional. Em vez de aderir a categorias de produtos bem definidas, as plataformas estão focadas no desenvolvimento de ecossistemas digitais. Em um negócio digital, os limites do setor podem mudar rapidamente devido à dinâmica de seu ecossistema, transformando os concorrentes em parceiros complementares, que agora oferecem seus produtos ou serviços na plataforma.

Amazon e Alibaba, por exemplo, começaram como plataformas de comércio eletrônico. Desde então, a AWS da Amazon se tornou o maior provedor de serviços de computação em nuvem, enquanto a Ant Financial da Alibaba é agora uma das maiores empresas de pagamentos financeiros e digitais do mundo. Ambos oferecem uma ampla variedade de serviços adicionais por meio de suas plataformas.

O surgimento de uma nova classe de produtos inteligentes é outra força importante que está reformulando os limites da indústria, expondo as empresas a novas oportunidades e ameaças competitivas. Impulsionadas pelos avanços na Internet das Coisas, Big Data, IA e outras grandes inovações, as infraestruturas digitais e físicas do mundo estão basicamente convergindo, com a TI agora se tornando parte integrante dos próprios produtos. À medida que os produtos de conexão inteligente continuam a expandir os limites do setor, a concorrência está mudando de produtos físicos individuais para sistemas cada vez mais abrangentes que abrangem vários produtos e serviços relacionados.

O gerenciamento eficaz da transformação digital é vital – mas desafiador

“Mesmo quando a estratégia digital correta está em vigor, a execução é vital. Infelizmente, as evidências sugerem que a falta de eficácia acontece cinco vezes mais que o sucesso.”

Uma incidência tão alta de falhas pode ser encontrada em todos os setores, independentemente dos objetivos da transformação digital, incluindo a experiência do cliente, o tipo mais comum de transformação.

O relatório recomenda cinco ações principais para melhorar as chances de uma transformação digital bem-sucedida:

  • Responsabilidade compartilhada e prestação de contas;
  • Clareza de objetivos e compromisso;
  • Recursos suficientes;
  • Investimentos em talentos digitais; e
  • Flexibilidade e agilidade.

“As empresas precisam atingir todos esses aspectos para aumentar suas chances de exceder a intenção e a ambição da transformação digital para mais de 50%. No entanto, hoje apenas 10% das empresas estão cumprindo as cinco tarefas”

Aproveitar e fazer a transição de tecnologias digitais para novas fronteiras é um imperativo

As próximas ondas de tecnologias de fronteira, como IoT, AI, blockchain, dependem de um forte backbone digital.

Por exemplo, em uma pesquisa on-line da McKinsey sobre o estado de adoção da IA descobriu que um fator crítico de sucesso para a implantação da IA é o progresso da empresa ao longo de sua jornada de digitalização. Os mesmos players que lideraram as primeiras ondas de digitalização agora lideram a onda da IA. 67% dos entrevistados das empresas mais digitalizadas dizem que suas organizações incorporaram a IA nos processos de negócios padrão, em comparação com 43% para todas as outras empresas. 39% das empresas mais digitalizadas adotaram recursos de aprendizado de máquina e outros 31% estão realizando pilotos de aprendizado de máquina, em comparação com 16% e 24%, respectivamente, para todas as empresas. E 37% das empresas mais digitalizadas já estão usando agentes virtuais, enquanto outros 31% estão realizando pilotos, em comparação com 15% e 26%, respectivamente, para todas as empresas.

“A IA pode ser o chavão de hoje, mas essa é uma nova área a ser dominada para que empresas, setores e economias prosperem no futuro. A jornada para a digitalização começou há um quarto de século, mas continua sendo um desafio sempre presente que precisa ser enfrentado para o sucesso.”

27/03/2020

A Indústria 4.0

Neste excelente artigo da Forbes, Bernard Marr dá uma excelente visão sobre estarmos no meio de uma transformação muito significativa na maneira como produzimos e fabricamos coisas, graças à digitalização e automação inteligente da fabricação.

Essa transição é tão radical que está sendo chamada de Indústria 4.0 para representar a quarta revolução que ocorreu na indústria de manufatura.

  • A primeira revolução industrial proveu a mecanização através da água e vapor.
  • A segunda revolução industrial trouxe as linhas de produção e montagem em massa usando energia elétrica.
  • A terceira revolução industrial, com a adoção de computadores, Internet, automação e processos, ampliou de forma exponencial os benefícios da segunda revolução.
  • A quarta revolução industrial terá o que foi iniciado na terceira, exponencialmente ampliado, com especial aplicação de inteligência artificial e sistemas autônomos alimentados por lagos de dados, aprendizado de máquina e computação quântica distribuída.

Embora alguns descartem a Indústria 4.0 como meramente um chavão de marketing, estão ocorrendo mudanças, que merecem nossa atenção.

Indústria 4.0 otimiza a informatização da Indústria 3.0

Quando os computadores foram introduzidos na indústria 3.0, foi perturbador, pois adicionou uma tecnologia totalmente nova. Agora, e no futuro, à medida que a Indústria 4.0 se desenrola, os computadores estão conectados e se comunicam entre si para tomar decisões sem o envolvimento humano.

Uma combinação de sistemas ciber-físicos, a Internet das Coisas e a Internet dos Sistemas tornam possível a Indústria 4.0 e a fábrica inteligente. Como resultado, as fábricas vão se tornar inteligentes e ficam cada vez mais inteligentes à medida que acessam mais dados. As fábricas se tornam mais eficientes, produtivas e com menos desperdício. Por fim, as redes dessas máquinas que são conectadas digitalmente entre si e criam e compartilham informações que resultam no verdadeiro poder da Indústria 4.0.

Aplicações da indústria 4.0 hoje

Embora muitas organizações ainda possam negar como a Indústria 4.0 poderia impactar seus negócios ou se esforçar para encontrar o talento ou o conhecimento para saber como adotá-la da melhor maneira para seus casos de uso exclusivos, várias outras empresas estão implementando mudanças hoje e se preparando para um futuro onde as tecnologias e as máquinas melhoram seus negócios. Aqui estão apenas algumas das aplicações possíveis:

Identificar oportunidades: como as máquinas conectadas coletam um enorme volume de dados que podem informar a manutenção, o desempenho e outros problemas, além de analisá-los para identificar padrões e insights que seriam impossíveis para um ser humano em um prazo razoável, a Indústria 4.0 oferece a oportunidade para os fabricantes otimizarem suas operações de maneira rápida e eficiente, sabendo o que precisa de atenção. Ao usar os dados dos sensores em seus equipamentos, uma mina de ouro africana identificou um problema com os níveis de oxigênio durante a lixiviação. Uma vez fixados, eles foram capazes de aumentar seu rendimento em 3,7%, o que economizou US $ 20 milhões por ano.

Otimizar a logística e as cadeias de suprimentos: uma cadeia de suprimentos conectada pode ajustar e acomodar novas informações. Se um atraso climático vincular uma remessa, um sistema conectado e inteligente poderá se ajustar proativamente a essa realidade e modificar os padrões e o ritmo de produção.

Equipamentos e veículos autônomos: Existem pátios de expedição que estão desenvolvendo guindastes, caminhões e trens autônomos para otimizar as operações.

Robôs: antes era possível apenas para grandes empresas com orçamentos igualmente grandes; hoje a robótica está mais acessível e disponível para organizações de todos os tamanhos. Desde a escolha dos produtos em um armazém até a sua entrega, os robôs autônomos podem oferecer suporte rápido e seguro aos fabricantes. Os robôs movimentam mercadorias pelos armazéns da Amazon, além de reduzir custos e permitir melhor uso da área útil para o varejista on-line.

Impressão 3D: Essa tecnologia melhorou tremendamente na última década e passou de ser usada principalmente para prototipagem e para produção real. Os avanços no uso da fabricação de aditivos metálicos abriram muitas possibilidades de produção.

Internet das Coisas e computação em nuvem: Um componente essencial da Indústria 4.0 é a Internet das Coisas, caracterizada por dispositivos conectados. Isso não apenas ajuda as operações internas, mas pelo uso do ambiente em nuvem onde os dados são armazenados, os equipamentos e as operações podem ser otimizados, aproveitando as ideias de outras pessoas usando o mesmo equipamento ou permitindo que empresas menores acessem a tecnologia que não seriam capaz por conta própria.

Enquanto a Indústria 4.0 ainda está evoluindo, podemos não ter uma visão completa até quando pudermos olhar para trás, daqui a 30 anos, as empresas que estão adotando as tecnologias, então poderá se percebe o potencial da Indústria 4.0. Essas mesmas empresas também estão discutindo como aprimorar sua força de trabalho atual para assumir novas responsabilidades de trabalho e recrutar novos funcionários com as habilidades certas.

26/03/2020

Ataques DDoS estão se tornando mais avançados


Os ataques cibernéticos do tipo Negação de Serviço Distribuída – do inglês, Distributed Denial of Service (DDoS) é considerado um dos ciberataques mais críticos ao funcionamento das redes.

Um dos primeiros ataques DDoS conhecidos ocorreu há 20 anos, na Universidade de Minnesota. Foi usado um script que fez com que mais de 100 computadores enviassem pacotes de lixo eletrônico para a rede da universidade, o que sobrecarregou e derrubou os computadores. Com o sucesso desse ataque, não demorou muito para que imitadores fizessem o mesmo com o Yahoo, Amazon e CNN.

Estamos em 2020 e o DDoS ainda dá trabalho. Vimos muitos ataques em larga escala; alguns se tornaram famosos, como o Spamhaus em 2013, a interrupção do GitHub em 2018 e o ataque ao provedor de DNS Dyn, que usou a botnet; então vieram Twitter, Netflix, CNN, Reddit e muitos outros sites de grandes sites. Esses ataques visavam interromper serviços de rede e quando obtiveram sucesso, em larga escala, seus efeitos foram muito nocivos aos mantenedores e usuários.

Ao longo do tempo os ataques vão se tornando mais sofisticados. Os invasores estão deixando o simples envio de tráfego de broadcast para uma interrupção maciça, muito mais complexa e direcionada que operam na camada de aplicação da rede (camada 7 do modelo OSI), com a capacidade de derrubar aplicativos ou serviços específicos. Esses ataques são mais complexos de detectar, pois o tráfego parece legítimo e podem ser mais prejudiciais porque o resultado final é a perda de negócios devido à indisponibilidade do aplicação.

Para proteger adequadamente sua rede contra ataques DDoS, é necessário haver monitoramento de rede automatizado na extremidade para detectar atividade anormal e proteção de perímetro através de firewalls. Essa combinação é a melhor maneira de garantir que as redes permaneçam em funcionamento, mantendo o tráfego prejudicial à distância.

Ataque de todos os lados

Ataques avançados de DDoS podem vir de fontes distribuídas, e não mais de um único IP, tornando-se cada vez mais difíceis de identificar. Por exemplo, em um ataque DDoS de camada 7, a botnet usada fará muitas milhares de requisições a um serviço de uma aplicação – como uma página de login -, mas não necessariamente tenta se autenticar. Cada uma dessas requisições será prontamente atendida pelas APIs do aplicativo, consumindo os recursos de computação e processamento. O resultado final é que a API do aplicativo estará sobrecarregada com solicitações, passando a falhar, tornando o serviço offline ou indisponível.

Um sistema de monitoramento escalável na borda da rede pode se adaptar rapidamente ao tamanho do ataque e redirecionar o ataque para uma infraestrutura de segurança apropriada.

Informação em risco

Outra consideração é que um ataque DDoS pode não apenas ser iniciado para colocar os serviços offline, mas para comprometer informações. Os ataques estão se tornando mais complexos – eles podem ser usados como embuste para causar confusão e oferecer aos atacantes a oportunidade de roubar dados da rede. Esse roubo pode não ser percebido até que o DDoS tenha sido mitigado ou interrompido e, nesse momento, já será tarde demais. O dano já foi feito.

À medida que esses ataques se tornam mais avançados, é essencial que as ferramentas de detecção adequadas estejam disponíveis para revelar comportamentos maliciosos. Isso pode ser conseguido através da filtros em tempo real que separa a atividade normal da rede do comportamento de risco.

CAPTCHA não é tudo

O botnet Mirai foi usado pela primeira vez em 2016 para vários ataques DDoS e ainda está em uso hoje. Ele primeiramente, contava com nomes de usuário e senhas fracas para obter acesso a dispositivos IoT, que poderiam ser usados para gerar ataques DDoS em grande escala. Para aplicativos do usuário, como e-mail ou mídia social, é possível usar técnicas como CAPTCHA ou Verificação de Mensagem de Texto para impedir o acesso não autorizado. No entanto, existem muitas centenas de milhões de dispositivos IoT, controlando tudo, desde coisas simples como acender luzes, a centros hospitalares, para os quais esses métodos não são adequados.

Estes não são dispositivos com interface do usuário e não podem ser tratados como tal. Sistemas de controles de dados da própria rede permitem monitorar o comportamento dos dispositivos IoT. Se os dispositivos começarem a se comportar de maneira incomum – por exemplo, transmitindo dados não requisitados a rede ou tentando enviar solicitações de conexão aos serviços da aplicação -, as políticas de segurança poderão ser aplicadas automaticamente e a equipe de segurança é alertada.

Desenvolvendo uma estratégia DDoS

Hoje, as empresas precisam de uma estratégia de prevenção de DDoS que responda a esses vetores de ataque e forneça proteção em locais onde há pouca ou nenhuma interação humana. No mínimo, isso inclui detecção automatizada e roteamento de tráfego de ameaças. Como os ataques DDoS continuam a crescer, a intervenção manual não é mais uma opção.

Com a oportunidade e a capacidade oferecidas pela transição para a nuvem e as próximas redes 5G, também haverá ainda mais chances de cibercriminosos lançarem ataques DDoS em larga escala em serviços online. Qualquer que seja o destino, independentemente do resultado pretendido, todo o tráfego envolvido em uma tentativa de ataque DDoS deve atravessar a rede e obter entrada através de dispositivos de rede. A rede precisa ser melhor protegida contra esses ataques de escala volumétrica e o melhor lugar para começar é alavancando a inteligência na própria rede com serviços Anti DDoS, para detecção, mitigação e análise contra ataques, serviço automatizado de segurança gerenciado 7×24, fornecendo serviço de monitoramento, alerta e mitigação contra DDoS, incluindo relatórios automatizados e portal de acesso e monitoramento.

24/03/2020

Processos ágeis para soluções baseadas em IA


No modelo de desenvolvimento em cascata, um projeto é dividido em um conjunto de fases sequenciais – por exemplo, concepção, análise, design, construção, teste, implantação, manutenção -, cada um dependente da conclusão da fase anterior. Esse modelo é mais apropriado para projetos de engenharia complexos, como pontes, aviões e hardware de computador. Também é bastante aplicável a projetos de infraestrutura e software de missão crítica, nos quais segurança, disponibilidade, escalabilidade e outras entidades são fundamentais.

Mas uma abordagem serial e ordenada não é apropriada para projetos em que tempo de lançamento no mercado, usabilidade e flexibilidade são as principais prioridades. Para esses projetos, uma abordagem de desenvolvimento ágil é muito mais adequada. A chave da abordagem ágil é o envolvimento dos usuários finais do produto no início do processo, para garantir que o produto em desenvolvimento responda aos requisitos.

O desenvolvimento ágil é de natureza evolutiva, com base na disponibilidade antecipada de protótipos experimentais, feedback do usuário, melhorias contínuas e respostas rápidas às exigências de tecnologia, mercado e usuário. Não é de surpreender que o desenvolvimento ágil de software tenha decolado na década de 1990, quando o aumento explosivo da Internet colocou milhões e milhões de usuários on-line, muitos novos aplicativos orientados ao usuário e ciclos curtos de colocação no mercado em resposta à concorrência acirrada.

Nossas máquinas inteligentes cada vez mais sofisticadas trazem consigo um novo conjunto de desafios de desenvolvimento. Esses sistemas baseados em IA são geralmente intensivos em software, centrados no usuário e orientados a dados. A complexidade deles é muito mais inteligente que queremos que os sistemas sejam. O comportamento de um sistema de IA baseado no aprendizado de máquina depende das informações que usamos para treinar seus algoritmos, e não do conjunto preciso de instruções de software que informam ao computador o que fazer.

Os sistemas de IA são projetados para detectar, responder e se adaptar a um ambiente em mudança. O desenvolvimento desses sistemas é como criar e enviar um adolescente para o mundo. Dado que queremos que eles sejam capazes de lidar com situações imprevistas, eles devem ter um bom grau de flexibilidade e autonomia. Mas é difícil ter certeza de que o sistema (ou o adolescente) sempre se comportará da maneira que gostaríamos.

A Adobe anunciou o Technology Previews, uma abordagem de desenvolvimento ágil para a criação de soluções baseadas em IA. De acordo com a Adobe, o desenvolvimento ágil é particularmente adequado para produtos e sistemas baseados em IA, onde é importante envolver os usuários no início do ciclo de desenvolvimento para ajudar a testar, refinar e melhorar os recursos de IA do produto, compartilhando seus comentários em tempo real com as equipes de desenvolvimento.

Ao interagir diretamente com os usuários, o Technology Previews permite que os pesquisadores da Adobe validem rapidamente a qualidade e o valor de uma nova ideia antes de investir em desenvolvimento. Primeiro, os pesquisadores criam um protótipo de banco de testes dos novos recursos de IA na nuvem da Adobe. Cada usuário que participa da avaliação efetua login no protótipo, concorda com um Contrato de Não Divulgação e é mostrado um tutorial do produto e seus novos recursos. Uma vez prontos, os usuários começam a interagir com o protótipo.

O protótipo baseado em IA trabalha e é treinado pelos próprios dados de produção de cada usuário, para que cada usuário possa ter uma experiência diferente. Uma vez terminado de interagir com o protótipo, os usuários fornecem feedback específico sobre o valor do recurso e a facilidade de uso, respondendo a perguntas como: o protótipo atendeu às suas expectativas? foi fácil de entender e usar? e você gostaria que esse recurso fosse incorporado em uma versão futura do produto? Com base no feedback geral dos usuários, as equipes de desenvolvimento da Adobe estão mais aptas a decidir se o novo recurso deve ser incorporado ao roteiro do produto e, em caso afirmativo, que prioridade deve ser dada em relação a outros recursos na fila de desenvolvimento.

“Nos aplicativos herdados, o teste é focado na operação lógica e de recursos, os quais são bastante finitos”, observou John Bates, diretor de gerenciamento de produtos da Adobe. No entanto, com aplicativos baseados em IA, o processo de teste deve mudar radicalmente. A otimização de algoritmos exige que eles sejam testados por muitos usuários para garantir que funcionem em muitos cenários diferentes …

“O processo de desenvolvimento para a próxima geração de software aprimorado para IA ou Machine Learning teve que evoluir para incluir a capacidade de testar e coletar informações de maneira a fornecer consistentemente soluções excelentes. Passamos do processo em cascata para os processos ágeis. Com as Previews de tecnologia, agora podemos usar processos ágeis para soluções baseadas em IA. ”

Inicialmente, as Pré-visualizações de Tecnologia serão usadas para avaliar soluções baseadas em três tipos de recursos de IA:

  • Ajudar as marcas a entender como seus clientes interagem com seus produtos à medida que se movem pelas telas, exibindo informações que podem não ser claras a olho nu;
  • Identificar o público ideal para o produto de uma empresa, alavancando o aprendizado de máquina para agrupar automaticamente os clientes em grupos com base nas preferências e comportamentos esperados; e
  • Acelerar a capacidade da marca de prever as necessidades e desejos futuros de um cliente usando recursos de aprendizado profundo.

As pré-visualizações de tecnologia são ganha-ganha, disse Bates. Os clientes obtêm acesso antecipado às tecnologias mais recentes, enquanto a Adobe se beneficia com seus comentários.

“Ajudamos nossos usuários a ter mais influência e a se tornar um gerente de produto virtual. Podemos ver onde vamos inovar e investir ainda mais em soluções futuras. Tudo depende do feedback dos nossos usuários.”

23/03/2020

Novos propósitos para os objetivos das empresas

Em setembro de 1997, a Business Roundtable (BRT), uma associação de CEOs das principais empresas americanas, emitiu uma Declaração sobre Governança Corporativa que tinha o seguinte argumento:

“O dever primordial dos conselhos de administração, dos acionistas da corporação e os interesses de outras partes, são relevantes como um derivado do principal dever para com os acionistas.”

Vinte dois anos depois, o BRT divulgou uma atualização sobre os objetivos de uma corporação, que se difere em muito de seu compromisso anterior, que tinha foco, a primazia dos dos interesses dos acionistas; porém, agora, passaram a enfatizar um novo conceito:

“compromisso com todos os interessados” e “uma economia que serve a todos”.

Essa nova declaração, assinada por quase 200 CEOs, agora coloca os interesses dos acionistas no mesmo nível que os interesses de todos os seus outros acionistas, incluindo clientes, funcionários, fornecedores e comunidades.

A recente declaração do BRT foi recebida com positivismo.

“As empresas têm obrigações para com a sociedade e devem levar em conta os funcionários, clientes e comunidade, para a mesa de negociações”, disse o The Wall Street Journal em seu artigo.

Ainda falando sobre a mudança, a Fortune fez o seguinte comentário:

“O capitalismo, pelo menos o praticado pelas grandes corporações globais, esta sob ataque de todos os lados, e os CEOs estão recebendo a mensagem em voz alta e clara. Parece que o capitalismo está desesperadamente precisando de um fator modificador”.

Porém, há um ponto de discórdia. A resposta do Conselho de Investidores, expressou preocupações com relação a declaração do BRT:

“Isso prejudica as noções de responsabilidade gerencial para com os acionistas”.

Dado o transtorno causado a muitos pela crise financeira global de 2008, a pior desde a Grande Depressão, restaurar a confiança nos negócios e nos sistema econômico capitalista deveria ter sido uma das principais prioridades dos líderes corporativos.

Para ajudar a entender por que o BRT levou mais de uma década para afirmar que as empresas têm obrigações com a sociedade, vamos dar uma olhada no contexto econômico e político nos últimos 50 anos.

Como vários artigos apontaram, a noção de que maximizar o valor para o acionista deve ser o objetivo principal dos gerentes corporativos é relativamente recente, uma ideia formulada principalmente por economistas acadêmicos há cerca de cinco décadas, principalmente os associados à Chicago School of Economics.

Em um artigo de 1970, que fala sobre A responsabilidade social dos negócios é aumentar seus lucros, Milton Friedman, economista de Chicago e ganhador do Prêmio Nobel, escreveu:

“Em um sistema de empresa de propriedade privada, um executivo é um funcionário dos proprietários do negócio. Ele tem responsabilidade direta com seus empregadores. Essa responsabilidade é conduzir os negócios de acordo com seus desejos, que geralmente serão ganhar o máximo de dinheiro possível, em conformidade com as regras básicas da sociedade, tanto as incorporadas na lei quanto as incorporadas no costume ético.”

Friedman acreditava que as preocupações dos negócios além de obter lucro – como “promover fins sociais desejáveis” ou “proporcionar emprego, eliminar a discriminação, evitar a poluição e tudo o mais” – equivaliam a “pregar o socialismo puro e não adulterado.

É importante observar que nas décadas anteriores, às décadas de 1930 a 1970, as empresas, em sua maioria, eram dirigidas pelo seu maior interessado. Era uma época em que os interesses dos negócios e da sociedade estavam estreitamente alinhados, resultando em altos lucros e meios de vida decentes, possibilitando que grandes porções da população, alcançasse um estilo de vida da classe média (EUA) e aspirassem ao que pensamos como ‘O modo de vida americano’. A Economia keynesiana, baseada nos conceitos do economista britânico John Maynard Keynes, foi o modelo econômico padrão durante esse período de aproximadamente 50 anos. Era um modelo pragmático e misto de capitalismo, baseado em uma economia predominantemente do setor privado, mas com um papel apropriado para o governo, como o New Deal durante a Grande Depressão e o Sistema de Rodovias da Internet e o GI Bill nos anos pós-Segunda Guerra Mundial.

A economia keynesiana começou a cair em desuso, com a ascensão da Escola de Chicago na década de 1970, cujas opiniões se tornaram altamente influentes nas décadas seguintes, especialmente com o ex-presidente dos EUA Ronald Reagan e o presidente do Federal Reserve Alan Greenspan. Além da primazia do valor para os acionistas, a Escola de Chicago defendia uma confiança quase universal nos mercados e um papel secundário para o governo. Compreensivelmente, sua influência diminuiu consideravelmente após a crise financeira de 2008.

Vamos dar uma olhada na Declaração do BRT sobre os objetivos da corporação, que se baseia em cinco compromissos fundamentais para todas as partes interessadas:

  • Entregando valor aos clientes. Continuaremos a tradição das empresas americanas liderando o caminho para atender ou exceder as expectativas dos clientes.
  • Investindo em nossos funcionários. Uma compensação justa e com benefícios importantes. Também inclui apoiá-los por meio de treinamento e educação que ajudam a desenvolver novas habilidades para um mundo em rápida mudança, promovendo diversidade, inclusão, dignidade e respeito.
  • Lidar de forma justa e ética com nossos fornecedores. Dedicamo-nos a servir como bons parceiros para outras empresas, grandes e pequenas, que nos ajudam a cumprir nossas missões.
  • Apoiar as comunidades em que trabalhamos. Respeitamos as pessoas em nossas comunidades e protegemos o meio ambiente adotando práticas sustentáveis em nossos negócios.
  • Gerar valor a longo prazo para os acionistas, que fornecem o capital que permite às empresas investir, crescer e inovar. Estamos comprometidos com a transparência e o engajamento efetivo com os acionistas.

Tudo isso remonta às raízes do capitalismo de livre mercado e livre comércio, conforme articulado pela primeira vez por Adam Smith, economista e filósofo escocês do século 18, em seus dois principais trabalhos: A riqueza das nações e a Teoria dos sentimentos morais.

Smith acreditava que, em um mercado livre, um indivíduo que busca seus próprios interesses também tendem a promover o bem de sua comunidade como um todo, e que o mercado livre, embora pareça caótico e irrestrito, é realmente orientado a produzir os resultados certos pela mão invisível.

Mas, apesar de acreditar que nossas ações são guiadas pelo interesse próprio, Smith também defendia que nossas ações deveriam ser guiadas pela capacidade humana de ter fortes sentimentos de preocupação por outra pessoa sem levar em consideração os retornos financeiros – não vendo contradição entre essas duas posições.

Concluindo o artigo, fica a menção do ditado de Winston Churchill sobre democracia:

“O capitalismo é a pior forma de sistema econômico, exceto por todos os outros que aparecem de tempos em tempos”.

Mas, como escrevi em outro artigo, o capitalismo de livre mercado e livre comércio está em uma encruzilhada. Uma economia capitalista que funcione bem exige confiança em suas diversas instituições, para que, juntas, elas possam não apenas trabalhar com mais eficiência, mas também contribuir para uma sociedade mais decente. Embora a principal responsabilidade dos líderes de negócios continue sendo a viabilidade e prosperidade de suas próprias empresas e a geração de valor a longo prazo para seus acionistas, eles não podem mais ignorar os interesses de clientes, funcionários, fornecedores e comunidades.

Encerro deixando menção da Business Roundtable (BRT) em sua recente declaração:

“Cada um de nossos stakeholders é essencial … para o sucesso futuro de nossas empresas, comunidades e país”.

21/03/2020

O dilema de inovar

Dilema: raciocínio que parte de premissas contraditórias e excludentes, mas que paradoxalmente terminam por fundamentar uma mesma conclusão [Em um dilema, ocorre a necessidade de uma escolha entre alternativas opostas A e B, que resultará em uma conclusão ou consequência C, que deriva necessariamente tanto de A quanto de B.]. Fonte: Google dicionário.

De Clayton Christensen:

  • Tenha dois modelos de incubação de inovação.
  • Observe como os clientes estão realmente usando o produto.
  • Tenha um planejamento orientado à descoberta que seja adaptável a vários fatores de mudança.
  • Seja criativo ao encontrar os clientes certos que podem se beneficiar diretamente da sua inovação, em vez de um mercado grande e menos direcionado.
  • Trabalhe com tentativa e erro para que uma nova organização possa falhar desde o início e sem grandes despesas.
  • Não desenvolva produtos e serviços com base no que os clientes dizem que gostariam. Faça com base no que eles precisam.
  • Não inove em uma qualidade singular, como excesso de oferta de desempenho. Pense em funcionalidade, confiabilidade, conveniência e preço.
  • Empresas também já podem estar trabalhando em diferentes tipos de inovações mais sustentáveis para manter sua posições de mercado e margens de lucro. No entanto, elas ainda podem perdem o domínio do mercado por causa de seu foco na manutenção de lucros e ignorando novos mercados trazidos por tecnologias disruptivas.
  • Saiba o que os clientes desejam por meio de pesquisas, grupos focais e entrevistas, visando melhorias incrementais, ao longo do tempo.
  • A busca por uma margem de lucro deve ser moderada com expectativas de longo prazo.
  • A dificuldade de prever mercados emergentes significa que uma empresa não pode justificar o investimento, consequentemente, geralmente perde-se as tecnologias disruptivas e o mercado emergente que a acompanha.
  • Às vezes, as empresas são muito inflexíveis com sua estrutura de Recursos / Processos / Valores (RPV) para se adaptarem às condições de mudanças.
  • Modelos teóricos para inovação raramente funcionam no mundo real.
  • Inovações disruptivas geralmente são variações nas tecnologias existentes que abrem uma nova base de clientes.
  • A melhor maneira de uma empresa estabelecida tirar proveito de uma tecnologia disruptiva é criar ou adquirir uma organização pequena, mas que utiliza processos flexíveis.

19/03/2020

Comentários sobre as nuvens AWS, AZURE e GCP

A tecnologia conhecida como Cloud Computing ou computação em nuvem, têm em seu principal expoente as nuvens públicas, que nos últimos anos, romperam a consciência corporativa dominante. Mesmo que as empresas não apostem tudo na nuvem, a adoção da tecnologia é, de uma forma ou de outra, parte integrante da estratégia da maioria das empresas.

Para as empresas que estão prestes a embarcar nessa jornada, as perguntas são:

  • Qual plataforma de nuvem devo adotar?
  • Qual plataforma de nuvem fornece serviços econômicos e adequados para mim? E
  • Como devo proceder sobre minha jornada de adoção da nuvem?

Vamos tenta responder às duas primeiras perguntas. Neste artigo, foram comparados os principais serviços de infraestrutura entre os provedores de nuvem mais populares, como Amazon Web Services (AWS), Microsoft Azure e Google Cloud Platform (GCP).

Além dos principais serviços, cada provedor de nuvem (Cloud Service Provider – CSP) traz ofertas exclusivas de SQL, Big Data, Analytics, ML e outros.

O esforço aqui é para destacar os aspectos exclusivos de cada nuvem que podem influenciar a escolha por uma arquitetura / solução, com base em seus requisitos técnicos e comerciais específicos.

Amazon Web Services (AWS)

A AWS é o mais antigo provedor de nuvem pública com a mais ampla variedade de produtos, opções de computação, armazenamento de dados e serviços gerenciados.

  • O AWS Marketplace também é o maior mercado para aplicativos e dispositivos de terceiros.
  • Eles também trabalham de forma muito ágil para rapidamente adicionar novos recursos ao produto.
  • Altamente motivados pelo feedback do cliente, seus serviços fornecem ainda uma integração estreita com outros serviços como IAM, KMS etc.
  • Possuem forte foco nas práticas recomendadas de segurança e arquitetura.
  • Suas estruturas corporativas, Arquitetutas de negócios e a Estrutura de Adoção em Nuvem, foram desenvolvidas a partir de sua expeVPCriência com grandes clientes corporativos.
  • Além de seus serviços convencionais, eles também são conhecidos por lançar serviços não convencionais como SnowMobile (dispositivo de transferência de dados em container), RoboMaker (estrutura de aplicativos e APIs para robótica) e o Ground Station (para download gerenciado de dados por satélite). Isso mantém o interesse do cliente e tem potencial para abrir setores inteiros. Sua participação de 51% no mercado é uma prova disso.

A AWS não é o serviço de nuvem mais barato do mercado. E eles também parecem não estar tão preocupados com isso. Em vez disso, eles parecem querer apostar mais em MicroVMs (Firecracker) e funções gerenciadas.

Ultimamente, eles parecem realinhar seu foco para a nuvem híbrida e anunciaram ofertas como Outposts (em parceria com a VMware) que permitirão que os clientes usem APIs e serviços da AWS em seus data centers privados.

Quando escolher AWS

A AWS é uma ótima opção para startups e demais empresas, para trabalhos desde cargas analíticas, até migrações de data center em grande escala. Para ajudar os clientes startups de todas as classes e categorias, a AWS lançou serviços de nicho, como o RoboMaker e o LightSail (servidor privado virtual) para ajudar a processar até as menores cargas de trabalho.

Quando se trata de computação em nuvem, a AWS fornece a maior variedade de tipos de VMs. Atualmente, a AWS também possui as mais altas opções de computação e armazenamento disponíveis no mercado. Sua ampla variedade de tipos de VMs (hoje, em 136 tipos de VMs em mais de 26 famílias) permite que os clientes executem tudo, desde pequenas cargas de trabalho na Web até as cargas de trabalho maiores, como HPC e SAP.

Para aprendizado de máquina e cargas de trabalho de IA, a AWS também fornece as configurações de VMs habilitadas para GPU. Para cargas de trabalhos que exigem alocação por motivos de conformidade e regulamentares, a AWS agora também fornece Bare-Metal-as-a-Service. Para cargas de trabalho virtualizadas, a AWS fornece recursos como grupos de posicionamento para garantir que as cargas de trabalho sejam executadas em um hardware subjacente designado.

A AWS espera que os vários tamanhos de VMs correspondam aos requisitos de carga de trabalho dos clientes. Portanto, a AWS não suporta a criação de tamanhos personalizados de VMs (vCPU, vRAM). Ao contrário de outros provedores de nuvem (CSPs), ela fornece apenas um conjunto específico de famílias de VMs que acompanham as GPUs. Não permite anexar GPUs a um ou a todos os tipos de VMs em seu portfólio.

O armazenamento em bloco vem com uma variedade de opções, como redimensionamento dinâmico, diferentes tipos de disco (magnético e SSD). Diferente de outros CSPs, a AWS não restringe IOPS por tamanho de volume. Você pode provisionar IOPS por um custo extra até para discos pequenos.

Na parte de banco de dados relacional, a AWS oferece suporte a bancos de dados gerenciados para MySQL, PostgreSQL, MariaDB, Oracle (SE e EE) e MS SQL (edições Web e Enterprise) em sua oferta RDS. Além disso, eles têm seu próprio banco de dados compatível com MySQL e PostgreSQL, que oferece desempenho semelhante ao Oracle por uma fração do custo. Eles estão investindo muito nisso e também anunciaram as versões Multi-Master e Serverless.

Para bancos de dados NoSQL, a AWS disponibiliza seu produto DynamoDB há mais de meia década, que evoluiu do SimpleDB. A AWS é um defensor e fornece uma variedade de bancos de dados NoSQL criados para esse fim. Isso inclui DynamoDB (valor e documento da chave), Netuno (Gráfico) e Elasticache (cache do valor da chave).

A AWS aprimorou seu portfólio de serviços de rede na última década. Tudo começou com a VPC e recursos de rede relacionados, como grupos de segurança, ACLs de rede e gateways da Internet. Na época, os usuários ainda precisavam configurar seus próprios servidores NAT, hosts bastiões etc. A AWS ouviu os comentários dos clientes e gradualmente os adicionou como serviços de rede gerenciados ao seu portfólio. Agora, a AWS fornece um gateway NAT gerenciado, gateway VPN, gateway de trânsito, gateway de conexão direta etc. Eles recentemente também anunciaram um serviço de VPN cliente gerenciado. Isso elimina a necessidade de os clientes implantarem servidores OpenVPN para gerenciar o acesso às VMs na nuvem.

Para segurança de rede, a AWS lançou serviços gerenciados para proteção contra DDoS (AWS Shield) e Web Application Firewall (WAF), juntamente com o AWS Inspector, AWS Config e CloudTrail para gerenciamento e auditoria de inventário, políticas e o GuardDuty fornece detecção de ameaças.

Para segurança dos dados, a AWS fornece criptografia em repouso para a maioria de seus serviços de armazenamento. A AWS também possui serviços KMS e CloudHSM para gerenciamento de chaves. A Macie fornece um serviço de prevenção de perda de dados (DLP) orientado a IA.

A AWS fornece ainda serviço compatível com AMQP (Amazon MQ), além de sua oferta SQS. Para Pub / Sub, a AWS ofereceu o Kinesis e recentemente adicionou uma oferta gerenciada do Kafka. O SNS fornece serviços de notificação integrados em vários canais que permitem notificações de clientes por SMS, celular, SMS e notificações por e-mail. Internamente, ele também se conecta a outros serviços para habilitar arquiteturas acopladas, orientadas a eventos.

A AWS atende a cargas de trabalho do governo dos EUA em regiões separadas do GovCloud nos EUA. Os clientes que precisam prestar serviços a clientes na China podem confiar na região chinesa da AWS, que é fornecida por meio de parceria com fornecedores terceirizados.

Em suma, a AWS fornece uma variedade de serviços e recursos adequados para um número substancial de empresas.

Microsoft Azure

A Microsoft ficou para trás da AWS no jogo de nuvem pública, pois se concentrou primeiro nas ofertas de SaaS e PaaS, já que seus pontos fortes estão nos softwares corporativos e de consumo. A Microsoft se concentrou inicialmente nos serviços de PaaS para o Azure. Eles estavam focados em sua base de desenvolvedores. Com o tempo, a Microsoft expandiu o foco para os serviços Linux e IaaS. Isso também se refletiu na renomeação do Windows Azure para o Microsoft Azure. Com o tempo, a Microsoft também tornou o Azure mais amigável para inicialização e criou suporte de API para seus vários serviços. No entanto, apesar da amplitude de seus serviços, a Microsoft fica substancialmente atrás da AWS na adoção corporativa. As grandes empresas que já possuem relacionamentos existentes com a Microsoft continuam sendo uma grande parte da base de usuários, embora o Azure esteja vendo um crescimento robusto na receita ano a ano.

Quando escolher o Azure

O Azure é uma plataforma de nuvem madura com uma variedade de recursos, que pode ser uma plataforma preferida para clientes que já estão usando produtos da Microsoft de alguma forma. Embora o Azure ofereça suporte a vários serviços baseados em produtos de código aberto, o portfólio da Microsoft na nuvem é o que o diferencia seus serviços aos clientes.

O Azure tem mais de 151 tipos de VMs e 26 famílias de VMs que oferecem suporte a tudo, desde pequenas cargas de trabalho da Web até as cargas de trabalho HPC, Oracle e SAP. O Azure tem o Windows (lógico) e vários tipos de Linux (RHEL, CentOS, SUSE, Ubuntu). O Azure tem uma família separada de instâncias para cargas de trabalho de ML / AI.

Se você precisar executar cargas de trabalho de última geração que exijam até 128 vCPU e memória de 3,5 TB, o Azure é uma boa aposta. Se você possui licenças existentes para Windows OS, MS-SQL e as traz para a nuvem (BYOL) por meio do Microsoft License Mobility Program, o Azure é a nuvem a ser escolhida. Os custos de licença constituem uma parte substancial das despesas de infraestrutura e serão uma consideração importante para os clientes que executam grandes implantações do MS-SQL etc.

O Azure também foi o primeiro player de nuvem a reconhecer a tendência em direção à nuvem híbrida e teve uma das primeiras ofertas de nuvem híbrida e Cloud-in-your-Datacenter (Azure stack). Os clientes que desejavam a interface do Azure, mas desejavam executar serviços em seus próprios datacenters, podiam usar o Azure stack. Outros players de nuvem estão apenas alcançando o Azure neste espaço. O Azure também forneceu suporte para dispositivos de armazenamento híbridos como o StorSimple, que era único no espaço da nuvem pública.

Se você possui um data center com cargas de trabalho predominantemente da Microsoft e precisa fazer uma migração em grande escala para a nuvem, aproveitando ferramentas que já lhe são familiares, o Azure fornece ferramentas e serviços, como o Azure Site Recovery.

Quando se trata de bancos de dados SQL e NoSQL, o Azure tem um conjunto de serviços bastante eficaz. Ele fornece o MS SQL Server e o SQL com Datawarehouse gerenciados. O Azure também fornece bancos de dados gerenciados para MySQL, PostgreSQL e MariaDB. A Tabela de dados do Azure tem um armazenamento de valores-chave gerenciado, enquanto o CosmosDB fornece um banco de dados NoSQL com vários modelos e distribuído globalmente, com vários modelos. Ele fornece também uma API compatível com MongoDB, Cassandra e Gremlin (Graphs). Se você precisar executar vários modelos de dados gerenciados, incluindo modelos de dados de documentos, gráficos, valores-chave, tabelas e famílias de colunas em uma única nuvem, o Cosmos pode ser o caminho. O cache do Azure para Redis compoe as ofertas se serviços com um cache gerenciado.

Além do modelo de cobrança PAYG com cartão de crédito e modos de faturamento, os clientes com contas corporativas, podem comprar pré-assinaturas do Azure como parte de suas renovações anuais. Isso é útil para clientes que desejam orçamentar o gasto anual da nuvem com antecedência. Isso evita a incerteza e as aprovações adicionais de orçamento. Ao fazer isso, as empresas devem dimensionar suas cargas de trabalho projetadas com alguma precisão, para que nenhum crédito pré-pago seja desperdiçado no final do ano.

A mobilidade de licenças na nuvem para produtos da Microsoft também é relativamente fácil para clientes com vários produtos da Microsoft em execução no local.

Google Cloud Platform (GCP)

O Google Cloud Platform (GCP), apesar de atrasado no jogo e com a menor participação de mercado dos provedores de nuvem pública comparados aqui (participação atual de mercado em cerca de 4,6% Q1 2020), está mostrando um crescimento percentual robusto. Possui vários recursos que o colocam à frente de seus concorrentes em determinadas áreas. O GCP também está pegando onda, não apenas os novos clientes que já fazem parte do ecossistema, mas também os pioneiros na adoção de nuvens que desejam expandir seu cenário para o Google como parte de uma estratégia de várias nuvens. O Google também começou com serviços de PaaS, mas vem expandindo constantemente seu portfólio de produtos.

Juntamente com os recursos inovadores, o Google possui o menor preço de tabela em infraestrutura, em comparação com todos os outros provedores de nuvem. Obviamente, o gasto total de qualquer empresa depende dos serviços utilizados e das medidas de governança de custos em vigor.

Quando escolher o GCP

Do ponto de vista da computação, o Google tem o menor número de tamanhos de VM (cerca de 28 tipos de instância em 4 categorias). No entanto, ele tem uma característica que torna esses números um pouco irrelevantes. O Google permite que os usuários criem seus próprios tamanhos personalizados (CPU, memória) para que os clientes possam combinar o tamanho das cargas de trabalho na nuvem. Eles também faturam clientes com base no total de CPU e memória usada, em vez de VMs individuais. Isso reduz o desperdício de capacidade não utilizada.

Outro recurso exclusivo é que o GCP permite que quase todos os tipos de instância conectem GPUs. Isso pode transformar qualquer instância padrão ou personalizada em uma VM pronta para ML. O Google também foi líder em cobrança por segundo, o que forçou outros CSPs a seguir o exemplo. Comparado à norma usual do faturamento por hora, o faturamento por segundo reduz muito qualquer desperdício de capacidade. Isso resulta em uma economia de até 40% no total, em comparação com o uso de VM padrão e o faturamento por hora.

Os tempos de inicialização das VMs no GCP são fenomenalmente rápidos e deixam outros CSPs para trás. Isso torna o dimensionamento muito rápido e responsivo. O GCP também permite o redimensionamento dinâmico de discos, para que você não precise fazer mudanças ou cálculos de sysops quando os discos estiverem cheios. Os IOPS são atribuídos com base nos tamanhos de disco e não podem ser provisionados separadamente. Isso pode ser problemático para clientes que desejam IOPS alto em um pequeno conjunto de dados, que podem resultar em desperdício de dólares em armazenamento indesejado.

O Google também vinculou ou comprou ferramentas de migração para a nuvem de terceiros. Essas ferramentas, como CloudEndure, Velostrata e CloudPhysics, ajudam os clientes a avaliar, planejar e migrar ao vivo suas VMs para o GCP essencialmente de graça. Em outros provedores de nuvem, algumas dessas ferramentas custam várias centenas de dólares por VM. O Google está claramente tornando a migração para o GCP o mais fácil possível.

Na Rede é onde brilha o GCP. Eles têm uma rede global de baixa latência. Mesmo da perspectiva do cliente, uma rede VPC abrange todas as suas regiões. Outros CSPs limitam as redes VPC a uma região. Isso facilita para os clientes do GCP a criação de aplicativos que atendam aos clientes globalmente, sem a criação de mecanismos complexos de design de infraestrutura entre regiões e replicação de dados.

O armazenamento de objetos também suporta um modo multirregional, onde os dados são replicados automaticamente pelas regiões. Para clientes que consideram uma migração da AWS ou uma estratégia de várias nuvens, o GCP oferece suporte à importação de armazenamento de objetos da AWS.

Para bancos de dados relacionais, o GCP fornece suporte para bancos de dados MySQL e PostgreSQL. Para clientes que desejam um banco de dados distribuído globalmente que ainda suporte consistência imediata e propriedades ACID, o GCP criou o Spanner. O Spanner usa algoritmos de consenso e relógios atômicos para sincronizar transações. Essa oferta é exclusiva do GCP e torna o Spanner muito atraente para grandes clientes corporativos que possuem esses requisitos em seu armazenamento de dados relacionais. De fato, outro banco de dados de código aberto, o CockroachDB, é baseado no artigo da Spanner, publicado pelo Google.

Da perspectiva do NoSQL, o GCP tem um produto chamado BigTable. O BigTable é um banco de dados NoSQL gerenciado em escala de petabytes, usado pelo Google em seus próprios produtos, como o Gmail.

Do ponto de vista de cobrança, o Google oferece descontos automáticos, como descontos de uso sustentado, que reduzem o preço sob demanda se uma VM executar mais de um determinado número de horas em um mês. Se você deseja o provedor de nuvem mais econômico do mercado hoje, o GCP é uma boa escolha.

Embora possa não ter a profundidade de recursos de alguns dos outros CSPs, ele possui alguns produtos exclusivos em seu portfólio e é uma opção atraente por ser líder de preços no mercado.

Conclusão e Perspectivas Futuras

Conforme detalhado acima, cada nuvem possui recursos e vantagens que atendem às necessidades específicas do cliente. Embora todos os provedores de nuvem continuem a fornecer certos serviços comuns (como banco de dados MySQL gerenciado), cada CSP continuará a criar serviços diferenciados e exclusivos (por exemplo, Aurora, Cosmos, Spanner) criados especificamente para solucionar necessidades muito específicas dos clientes. Os CSPs esperam que isso aumente a sua aderência e amplie o seu ecossistema de produtos e serviços.

Da perspectiva do cliente, esses serviços também se tornarão um driver para adotar uma estratégia de várias nuvens.

Como exemplo, um cliente pode querer usar o GCP para um aplicativo que precise dos recursos do Spanner, enquanto usa a AWS para seus serviços de IA e o Azure para cargas de trabalho específicas do Windows.

Mesmo para serviços futuros, como visão por computador e reconhecimento de fala, as necessidades do cliente podem levá-los a cada vez mais combinar serviços em plataformas nas nuvens, para atender aos requisitos de seus aplicativos. O Cliente provavelmente usará uma nuvem como plataforma principal, enquanto usará serviços de outras pessoas para aplicativos específicos.

17/03/2020

A ameaça ao Capitalismo de livre mercado e comércio

A economia global passou por mudanças consideráveis nas últimas duas décadas e os resultados foram variados.

Do lado positivo, a revolução digital melhorou significativamente a vida das pessoas em todo o mundo. Os avanços tecnológicos, como o smartphone, a Internet sem fio e o desenvolvimento econômico gerado pela globalização, trouxeram um declínio da pobreza extrema em todo o mundo.

No entanto, esses benefícios foram acompanhados por grandes desbalanceamentos nos mercados de trabalho, beneficiando trabalhadores de países em desenvolvimento e impactando severamente os trabalhadores de economias avançadas.

A promessa do progresso tecnológico e da globalização como impulsionadores do crescimento e da prosperidade tem sido uma realidade para muitos, mas também provocou muita desigualdade econômica ao redor do mundo.

O que está acontecendo?

Parte da resposta a essa pergunta, pode ser encontrada olhando o passado, especificamente para a evolução do capitalismo de livre mercado e livre comércio, ao longo dos últimos dois séculos.

Adam Smith, economista e filósofo escocês do século XVIII, pai do livre mercado, do capitalismo de livre comércio e uma das principais figuras do Iluminismo, em seu trabalho The Wealth of Nations (A riqueza das Nações), que é considerado o primeiro trabalho moderno da economia, explicou que, em um mercado livre, um indivíduo que busca seus próprios interesses tende a promover também o bem de sua comunidade como um todo e que o mercado livre, embora pareça caótico e desenfreado, é realmente orientado a produzir os resultados certos com a chamada mão invisível.

Nos últimos 200 anos, assistimos a muitas variantes do capitalismo. Geralmente, todas elas baseiam-se na mesma vertente: a propriedade privada dos meios de produção, a operação com fins lucrativos e a acumulação de capital. A economia neoclássica, formulada pela primeira vez no século 19, levou a um modelo de capitalismo laissez-faire, com base na premissa de que, com todas as informações relevantes, as pessoas tomarão decisões racionais, os mercados por si mesmos alcançarão os resultados certos e as intervenções dos governos, – como por exemplo, regulamentações, subsídios e tarifas – são, quase sempre, aplicados de forma não adequada.

A fé nas economias neoclássicas foi abalada na década de 1930 pela Grande Depressão, dando origem à Economia keynesiana, do economista britânico John Maynard Keynes. Seu modelo, mais pragmático e de capitalismo misto, baseado em uma economia predominantemente do setor privado, mas com um papel apropriado para o setor público, dominou o pensamento econômico pelas próximas quatro décadas.

A partir da década de 1970, no entanto, a economia keynesiana começou a cair em desuso com o retorno ao neoclassicismo liderado pela Chicago School of Economics, que defendia uma confiança quase universal nos mercados, um papel mais limitado para o governo e uma crença de que maximizar o valor para os acionistas deveria ser objetivo primordial de uma empresa.

A Escola de Chicago teve grande influência para o mundo, na segunda metade do século XX, especialmente com o ex-presidente dos EUA Ronald Reagan e o presidente do Federal Reserve, Alan Greenspan. Porém, sua influência diminuiu consideravelmente após a crise financeira global de 2008, que muitos acreditam ser em grande parte, o resultado de suas visões restritas de empresas e governo.

Em um artigo do Financial Times de 2009, Amartya Sen, economista de Harvard e ganhador do Prêmio Nobel, escreveu sobre o futuro do capitalismo após a crise financeira de 2008.

“O que exatamente é o capitalismo?”

“A definição padrão parece ser a confiança nos mercados para transações econômicas como uma qualificação necessária para que uma economia seja vista como capitalista. De maneira semelhante, a dependência do lucro e dos direitos individuais baseados na propriedade privada são vistos como características arquetípicas do capitalismo. No entanto, se esses são requisitos necessários, os sistemas econômicos que temos atualmente, por exemplo, na Europa e na América, são genuinamente capitalistas? Todos os países ricos do mundo – tanto na Europa quanto nos EUA, Canadá, Japão, Cingapura, Coréia do Sul, Taiwan, Austrália e outros – dependem há algum tempo de transações que ocorrem em grande parte fora dos mercados, como seguro desemprego, benefícios, pensões públicas e outras características da seguridade social, não deixando de mencionar educação e saúde pública”.

O professor Sen observou que em países ricos, onde o capitalismo teve mais sucesso, ele é pragmático, não ideologicamente puro, e que esse pragmatismo remonta ao próprio Adam Smith.

“É frequentemente esquecido que Smith não considerou o mecanismo de mercado puro um executor independente de excelência, nem considerou o motivo do lucro como tudo o que é necessário … As pessoas buscam o comércio por interesses próprios – nada mais; como discutiu Smith repetidamente, explicando por que padeiros, cervejeiros, açougueiros e consumidores buscam o comércio. No entanto, uma economia precisa de outros valores e compromissos, como confiança mútua e confiança para trabalhar com eficiência.”

Em um sistema capitalista, a desconfiança e a falta de confiança nos outros têm consequências de longo alcance e contribuíram muito para gerar a crise financeira de 2008 e dificultar sua recuperação.

“As dificuldades econômicas de hoje não exigem um novo capitalismo, mas exigem uma compreensão aberta das ideias antigas sobre o alcance e os limites da economia de mercado. O que é necessário, acima de tudo, é uma apreciação clara de como as diferentes instituições funcionam, além de uma compreensão de como uma variedade de organizações – de Empresas ao Estado – podem juntas contribuir para produzir um mundo econômico mais decente.”

Uma combinação recente de fatores – como por exemplo, o crescimento explosivo da Internet e o mercado global intensamente competitivo – torna obrigatório que uma empresa opere de maneira cada vez mais uniforme, usando talentos, recursos, custos e oportunidades de inovação para se destacar e conseguir autonomia de mercado.

A globalização precisa ser vista e revista, caso contrário, só trará o descontentamento generalizado.

Em última análise, as pessoas podem optar por eleger governos mais impositivos, com medidas regulatórias mais restritivas sobre comércio e o trabalho, talvez de um tipo mais ‘protecionista’; que por outro lado, leva ao nacionalismo extremo e isso também não é bom. A mudança em sí, deve oferecer para empresas a oportunidade de promover o crescimento dos negócios e o progresso da sociedade. Mas isso levanta questões grandes demais e muitas vezes polarizadas, apenas para negócios ou apenas para o governo resolver.

“Hoje, o mundo está em uma encruzilhada. um coro crescente de nacionalismo ecoa nos países desenvolvidos; exigindo fronteiras mais rígidas e restrições à imigração. As negociações comerciais globais estão prejudicadas e os acordos comerciais regionais enfrentam fortes ventos de oposição.”

O capitalismo de livre mercado e livre comércio está em uma encruzilhada. Embora a principal responsabilidade dos líderes continue sendo a viabilidade e a prosperidade de suas próprias empresas, eles não podem mais se concentrar exclusivamente em seus acionistas, ignorando os interesses de clientes, funcionários e comunidades em que vivem. As empresas devem trabalhar em estreita colaboração com os governos de todo o mundo para ajudar a formular um modelo mais inclusivo para o desenvolvimento econômico global e o progresso tecnológico – uma espécie de novo Iluminismo do século XXI.

História: Veja o filme/documentário A grande depressão.

15/03/2020

De onde vem a motivação?


Um gerente de negócios chegou cedo a um seminário que seria apresentado naquele dia, falando sobre o tema Liderança. Ele estava vestindo camisa polo, calças brancas e tênis; pronto para ir jogar golfe. Ele caminhou até o palestrante, que se preparava para iniciar seu seminário e disse:

– Olha, essa sessão de hoje não é obrigatória, por isso não pretendo participar.

– Tudo bem, não tem problema. Mas por que você veio aqui tão cedo pra me dizer isso? Tem alguma coisa que você queira saber sobre o seminário?

– Bem, sim, tem um assunto que me interessa, confessou o gerente. Eu gostaria de saber como melhorar o desempenho do meu pessoal de vendas?

– Isso é tudo que você quer saber? Perguntou o palestrante.

– Sim. Respondeu o gerente.

– Bem, eu vou economizar seu tempo e garantir que você consiga participar do seu jogo de golfe.

O gerente então, inclinou para a frente e fez cara de atenção, esperando as palavras de sabedoria que o palestrante poderia lhe dizer sobre como melhor gerenciar seu pessoal.

– Você não pode. Foi a resposta do palestrante.

– O que?

– Você não pode gerenciar ninguém. Tenha um bom dia e um ótimo jogo.

– Como assim? O que você quer dizer com isso? Perguntou o gerente e o clima pareceu ficar um pouco tenso entre os participantes da conversa.

– Eu pensei que você pregasse a motivação em seus seminários. Como assim, não posso? ”

– Sim. O nosso seminário inteiro é sobre motivação. Mas uma das primeiras coisas que ensinamos aos gerentes é que eles não podem realmente controlar diretamente seu pessoal. A motivação sempre vem de dentro do seu funcionário, não de você.

– Então, o que você ensina? Perguntou o gerente intrigado.

– Ensinamos você a motivar pessoas. Esse é o ponto chave. E você faz isso gerenciando acordos, não pessoas. E isso é o que vamos discutir esta manhã.

O gerente então passou as mãos pelo rosto, depois as levou até os cabelos depois passou uma das mãos pelo queixo e sentou-se no primeiro banco, assento que ocupou, durante todo o resto do seminário.

14/03/2020

Os desafios da automação em uma economia em mudança


“A inovação tecnológica deve ser adotada”, observa o Automation and a Changing Economy, um relatório recentemente publicado pelo The Aspen Institute.

“A automação tem sido uma força econômica e social amplamente positiva e, olhando para o futuro, a automação será necessária para alimentar, abrigar e elevar os padrões de vida de uma população em crescimento e envelhecimento.” Porém, “embora seja importante observar que o efeito geral e de longo prazo da automação na economia tem sido positivo – mais empregos, mais crescimento, padrões de vida melhores – isso não nega o impacto perturbador da automação sobre indivíduos e comunidades, o que resulta em deslocamentos, mudanças nas necessidades de habilidades e desigualdade de renda.”

O relatório está dividido em duas seções: O Caso de Ação, que explora como a automação afeta a segurança e as oportunidades econômicas dos trabalhadores e as Políticas de Prosperidade Compartilhada, que descrevem uma agenda de políticas para enfrentar os desafios e as oportunidades da automação.

A seguir, um resumo das principais conclusões e recomendações em cada uma das duas seções do relatório.

Caso de Ação

O que é automação? “A automação geralmente se refere ao uso da tecnologia para reduzir o nível de atividade humana necessário para concluir uma tarefa específica, substituindo ou aumentando o trabalho. A chave para esse conceito é que a tarefa em si ainda está sendo executada, mas com menos trabalho humano necessário. Como a automação ocorre no nível da tarefa, geralmente muda os trabalhos parcialmente, em vez de os eliminar, embora em casos limitados, a tecnologia possa automatizar um trabalho inteiro.”

A automação é apenas uma das maneiras pelas quais o trabalho é interrompido. Às vezes, trabalhos inteiros são substituídos por uma nova tecnologia, em vez de serem automatizados. Por exemplo, o advento dos carros eliminou a maioria dos trabalhos envolvidos na condução de carruagens e no cuidado de cavalos. Os trabalhos de fabricação, vendas e reparo de máquinas de escrever desapareceram não porque foram automatizados, mas porque as máquinas de escrever se tornaram obsoletas. A tecnologia também afeta os empregos, transformando modelos de negócios inteiros, como foi o caso do advento das compras on-line no varejo e do streaming de música e vídeo na indústria do entretenimento.

“No geral, é difícil prever todo impacto que a tecnologia pode causar. Mas o uso da tecnologia para automatizar o trabalho é mais fácil de prever do que outros impactos, porque a automação é baseada em máquinas que executam tarefas atualmente identificáveis. Por esse motivo, a automação é o que tecnólogos, acadêmicos e outros profissionais usam para projetar o impacto futuro da tecnologia no trabalho, com o entendimento de que o real impacto disruptivo da tecnologia pode ser mais amplo e imprevisível.”

O Caso de Ação chegou a quatro conclusões principais.

1. Embora a automação estimule o crescimento econômico, crie empregos e melhore os padrões de vida, ela também apresenta sérios desafios para trabalhadores e comunidades. Vários estudos recentes analisaram atentamente o futuro do trabalho nos próximos 10 a 15 anos. Por exemplo, um relatório de dezembro de 2017 da McKinsey examinou detalhadamente o trabalho que provavelmente será deslocado pela automação até 2030, bem como os trabalhos que provavelmente serão criados no mesmo período. A conclusão geral do relatório foi que uma economia crescente baseada em tecnologia criará um número significativo de novas ocupações que mais do que compensará os declínios nas ocupações deslocadas pela automação. No entanto, muitos trabalhadores verão seus empregos mudarem, pois empregos futuros exigirão habilidades diferentes.

2. Além disso, dada a crescente importância do talento em nossa economia do conhecimento, super empresas e super cidades continuarão a atrair uma parcela desproporcional das pessoas mais ambiciosas e talentosas, apresentando sérios desafios para os trabalhadores e as comunidades deixadas para trás – interrompendo as economias locais, aumentando desigualdade de renda e exacerbando as divisões econômicas, políticas, geográficas e sociais. Como McKinsey observou,

“embora possa haver trabalho suficiente para manter o emprego pleno até 2030 na maioria dos cenários, as transições serão muito desafiadoras – sendo praticamente impossível igualar ou até exceder a escala de turnos das eras da agricultura e manufatura que vimos no passado”.

3. Os investimentos em educação, treinamento e rede de segurança social ajudaram a mitigar os impactos negativos da automação no passado. A tecnologia vem substituindo trabalhadores e melhorando a produtividade desde o advento da Revolução Industrial na segunda metade do século XVIII. Nas revoluções econômicas anteriores baseadas em tecnologia, os períodos de destruição criativa e alto desemprego acabaram se resolvendo. Com o tempo, essas mesmas tecnologias e inovações disruptivas levaram à transformação da economia e à criação de novas indústrias e novos empregos. Esses investimentos possibilitaram que um número crescente de trabalhadores alcançasse um estilo de vida de classe média e aspirassem viver como o modo de vida de classe média.

4. Desafios recentes destacam as consequências de apoios limitados para trabalhadores vulneráveis. Enquanto esperamos que os países se adaptem mais uma vez às interrupções tecnológicas; porém não há como saber com certeza.

“Os trabalhadores de hoje são especialmente vulneráveis aos impactos da automação. A insegurança financeira, a força de trabalho envelhecida e a queda da mobilidade geográfica dificultam a reciclagem e a transição para novas ocupações após o deslocamento.”

Além disso, “a história recente registrou uma inversão dos esforços para apoiar os trabalhadores por meio de perturbações econômicas. O desinvestimento no treinamento dos setores público e privado, uma rede de segurança pública enfraquecida e acesso reduzido a benefícios e proteções no local de trabalho contribuíram para o lento e doloroso ajuste econômico que muitos trabalhadores e comunidades experimentaram nas últimas décadas.”

A inteligência artificial e outras novas tecnologias podem levar a uma automação mais profunda, mais rápida, mais ampla e mais disruptiva. A tecnologia está sendo cada vez mais aplicada a atividades que exigem capacidades cognitivas e inteligência para solução de problemas que não faz muito tempo eram vistas como o domínio exclusivo dos seres humanos. À medida que tecnologias poderosas como IA, robótica e aprendizado de máquina continuam a avançar, o impacto da automação pode ser mais profundo – expandindo drasticamente os tipos de tarefas que podem ser automatizadas; mais rápido, – pois o aprendizado de máquina permite que as máquinas aprendam a uma taxa muito mais rápida; mais amplo, transformando praticamente todos os setores e ocupações; e mais perturbador – a automação pode não ser mais perturbadora do que no passado, mas, desta vez, pode ser realmente diferente

Políticas para prosperidade compartilhada

A segunda seção do relatório descreve uma agenda política concreta para abordar quatro objetivos gerais:

1. Incentivos aos empregadores a liderar uma abordagem centrada no ser humano para automação. Isso inclui a expansão de aprendizagens, créditos tributários para treinamento de trabalhadores, parcerias regionais da força de trabalho, promoção de novas formas de participação dos trabalhadores nas decisões de automação e estratégias proativas para identificar e tratar de possíveis problemas.

2. Permitir que os trabalhadores acessem treinamento de habilidades, bons empregos e novas oportunidades econômicas. Isso inclui acesso a treinamento de habilidades eficaz e acessível, desenvolvendo um sistema de aprendizagem ao longo da vida, subsídios salariais, conforme necessário, e programas para promover o empreendedorismo.

3. Ajudar pessoas e comunidades a se recuperarem dos deslocamentos. Apoiar os trabalhadores desempregados através de reciclagem, serviços de reemprego e seguro-desemprego; e promover o desenvolvimento econômico local e regional por meio de estratégias direcionadas para ajudá-los a recuperar e fazer a transição e por meio de investimentos em infraestrutura digital.

4. Entender o impacto da automação na força de trabalho. Coletar dados e fornecer melhores informações às principais partes interessadas, para que possam antecipar e se preparar melhor para o impacto da automação em seus setores, comunidades e ocupação.

“A tecnologia não é o destino – o impacto da inovação no trabalhador é mediado por escolhas de políticas e como instituições, empregadores, organizações de trabalhadores, organizações sem fins lucrativos e filantropos, respondem a esses desafios. Ao ajudar os trabalhadores a tirar proveito de novas oportunidades e ajudar os trabalhadores que são fortemente afetados pela automação a retornar ao trabalho estável, podemos promover mais oportunidades e prosperidade amplamente compartilhada para todos.”

12/03/2020

O processo de decisão em organizações complexas

Em um seminário do professor da Universidade de Toronto, Avi Goldfarb, que, juntamente com seus colegas da UoT, realizaram uma pesquisa sobre o valor econômico da IA. Goldfarb explicou que a melhor maneira de avaliar o impacto de uma nova tecnologia radical é observar como a tecnologia reduz o custo de uma função amplamente utilizada. Por exemplo, os computadores são calculadoras essencialmente poderosas, cujo custo das operações digitais diminuiu drasticamente nas últimas décadas, graças à Lei de Moore. Ao longo dos anos, aprendemos a definir tarefas em torno de operações digitais, como gerenciamento de inventários, transações financeiras, processamento de texto e fotografia. Da mesma forma, o valor econômico da Internet pode ser descrito como a redução o custo das comunicações e das pesquisas, permitindo encontrar e acessar todos os tipos de informações, incluindo texto, imagens, músicas e vídeos.

Visto por essa lente, a revolução da IA pode ser vista como uma redução do custo das previsões. O crescimento explosivo de big data e algoritmos avançados como o aprendizado de máquinas nos permitiram analisar e extrair insights de todos esses dados. Previsão, significa antecipar o que acontecerá no futuro e, dado o amplo papel das previsões nos negócios, no governo e em nossa vida cotidiana, a IA já está tendo um grande impacto em todos os tipos de atividades humanas. A tomada de decisão, o processo de identificação e escolha de alternativas, serão particularmente impactadas pelos avanços na IA.

As decisões geralmente envolvem duas tarefas principais: previsões e julgamento. O julgamento é a parte da tomada de decisão que, diferentemente da previsão, não pode ser explicitamente descrita e executada por uma máquina e é baseada em fatores humanos, como experiência, intuição e sentimentos inconscientes. À medida que as previsões de máquinas se tornarem baratas e comuns, o julgamento humano que alavanca e complementa as previsões, se tornará mais valioso, especialmente dada a crescente complexidade das decisões que nossas instituições são obrigadas a tomar.

“É o melhor e o pior dos tempos para os tomadores de decisão”, disse a McKinsey em seu artigo, Desembaraçando a tomada de decisão das organizações.

“Um grande número de dados, análises avançadas e algoritmos inteligentes estão fornecendo às organizações novas e poderosas entradas de dados e métodos para tomar todo tipo de decisão”.

Por outro lado, “os líderes corporativos também estão muito mais conscientes hoje do que há 20 anos atrás, dos vieses cognitivos – ancoragem, aversão à perda, viés de confirmação e muito mais – que prejudicam a tomada de decisão sem o nosso conhecimento”.

O que explica esse aparente paradoxo?

Nossa revolução emergente de dados e IA mantém a promessa de aumentar significativamente nosso julgamento e experiência e nos ajudar a tomar decisões mais inteligentes e eficazes.

Mas, explica a McKinsey, nossa crescente complexidade organizacional obscurece a responsabilidade pela tomada de decisões. O número de tomadores de decisão aumentou, dificultando o estabelecimento de linhas de responsabilidade clara. Além disso, a proliferação de comunicações digitais levou a muitas reuniões e discussões por e-mail e pouco diálogo de alta qualidade, contribuindo para o desengajamento, –

“ouvir uma apresentação muitas vezes; paralisa e frustra, por conter por muitos dados; gera ansiedade, por conter expectativas muito altas; e leva a decisões pobres, cada vez mais ruins”.

Como primeiro passo para entender a tomada de decisão, a McKinsey categorizou o tipo de decisão que está sendo tomada pela maioria das organizações:

  • As decisões de grandes apostas têm o potencial de moldar o futuro da empresa. Essas decisões pouco frequentes e de alto risco geralmente envolvem situações com escolhas certas ou erradas pouco claras;
  • As decisões transversais são relativamente frequentes e geralmente exigem ampla colaboração e um processo efetivo de tomada de decisão entre os diferentes grupos da organização;
  • As decisões delegadas são frequentes e de baixo risco, e podem ser tratadas por indivíduos ou equipes de trabalho com contribuições limitadas de outras pessoas na organização; e
  • Decisões ad hoc surgem episodicamente e geralmente são de baixo risco.

Para entender melhor a natureza da tomada de decisão, a McKinsey conduziu uma pesquisa on-line e obteve respostas de mais de 1.250 participantes de 91 países.

A amostra se inclinou para a alta gerência:

  • 1/3 dos entrevistados eram executivos de nível C e
  • 35% eram gerentes seniores.

A pesquisa se concentrou em grandes decisões, decisões transversais e delegadas, mas não perguntou sobre decisões ad hoc porque elas tendem a variar muito. Veja aqui os resultados da pesquisa.

Embora a maioria das organizações faça trocas entre velocidade (quão rápida a decisão foi tomada e executada?) E qualidade (quão boa foi a decisão?), A pesquisa mostrou que os vencedores da tomada de decisão tiveram um bom desempenho tanto em velocidade quanto em qualidade, além de obter melhores resultados financeiros.

Quanto tempo consome a tomada de decisão? De acordo com os entrevistados, mais da metade disse que gasta mais de 30% do seu tempo de trabalho na tomada de decisões e mais de 25% diz que a tomada de decisão ocupa a maior parte do tempo de trabalho.

Não é de surpreender que a parte do tempo aumente com a senioridade: 14% dos entrevistados do alto escalão dizem que passam mais de 70% do tempo tomando decisões. No entanto, 61% dos entrevistados disseram que seu tempo de tomada de decisão não é usado de maneira eficaz, incluindo 57% dos executivos de nível C.

A pesquisa também revelou que a velocidade é um desafio maior na tomada de decisão do que a qualidade.

  • 57% dos entrevistados disseram que suas organizações tomam decisões de alta qualidade, em comparação com
  • 48% que disseram que suas organizações tomam decisões de alta velocidade e
  • 37% que disseram que suas organizações tomaram decisões de alta qualidade e alta velocidade.

Os resultados variaram de acordo com o tipo de decisão, com as decisões de grandes apostas alcançando os mercados mais altos

  • 65% de alta qualidade;
  • 55% de alta velocidade;
  • 44% ambos;

e as decisões delegadas são as mais baixas: 

  • 46% de alta qualidade; 
  • 40% de alta velocidade; 
  • 27% ambos.

Embora se possa esperar que decisões de alta qualidade envolvam mais deliberação e, portanto, demorem mais, os resultados indicaram que os resultados de velocidade e qualidade são altamente inter-relacionados. “Segundo os entrevistados, as organizações que tomam decisões rapidamente têm duas vezes mais chances de tomar decisões de alta qualidade, em comparação com os tomadores de decisão lentos.”

Essa combinação de alta qualidade e alta velocidade é muito mais comum nas organizações vencedoras. Para entender como eles fazem isso, McKinsey analisou como essas organizações vencedoras tomam decisões em comparação com todas as outras e encontrou três práticas recomendadas fundamentais:

  • Tome decisões no nível certo, geralmente delegando para níveis mais baixos – uma prática 6,8x mais provável de fazer parte de uma empresa vencedora. “Esse resultado está intimamente relacionado a outra descoberta: decisões de alta qualidade e decisões rápidas são muito mais comuns em organizações com menos camadas de relatórios”.
  • Concentre-se incansavelmente no valor de nível empresarial – uma prática 2,9 vezes mais provável de ser encontrada em uma organização vencedora. No geral, apenas 41% dos entrevistados disseram que as decisões de suas organizações estão alinhadas com a estratégia corporativa e em apoio a projetos de alto valor.
  • Obtenha o comprometimento das partes interessadas relevantes – uma prática 6,8x mais provável de ser seguida pelas empresas vencedoras, que “construirão o compromisso de executar as decisões assim que forem tomadas, especialmente entre as pessoas que são responsáveis por uma determinada decisão”.

Além dessas práticas fundamentais, as organizações vencedoras também demonstram as melhores práticas específicas para cada tipo de decisão:

  • Decisões de obtenção de bits – 2,3 vezes mais provável. “Aumente a qualidade das interações durante a tomada de decisões, explorando alternativas, desafiando hipóteses iniciais e nomeando um advogado do diabo para apresentar contra-argumentos”.
  • Decisões transversais, – 4,5 vezes mais provável. “Concentre-se no processo e coordenação das reuniões de decisão para incentivar a colaboração entre os indivíduos e evitar silos.”
  • Decisões delegadas, – 3,9 vezes mais provável. “Capacite os funcionários a tomar decisões, criando um forte senso de propriedade e responsabilidade e incentivando uma maior inclinação para a ação.”

Além da Guerra de Preços: O Oceano Azul na Conectividade Brasileira

Introdução Lançado em 2005 por W. Chan Kim e Renée Mauborgne, A Estratégia do Oceano Azul revolucionou o pensamento estratégico...