Mostrando postagens com marcador Software. Mostrar todas as postagens
Mostrando postagens com marcador Software. Mostrar todas as postagens

19/04/2023

O software da mente

Semanas atrás, ouvi o podcast Freakonomics, apresentado por Stephen Dubner. O podcast trouxe comentários de cientistas sociais, mas focou no trabalho de Gert Jan Hofstede, professor de ciências sociais na Universidade de Wageningen, na Holanda, cujo trabalho é focado em sociabilidade artificial, – um estudo do comportamento social humano baseado em modelos de computação. Ele lidera um projeto de pesquisa sobre culturas, iniciado há mais de 50 anos por seu pai Geert Hofstede, que faleceu em 2020.

“Cada pessoa carrega em si, padrões de pensamento, sentimento e comportamento que foram aprendidos ao longo da vida”, escreveram os Hofstedes em seu livro de 2011 Cultures and Organizations: Software of the Mind, em coautoria com Michael Minkov. “Muito desse padrão é adquirido na primeira infância, porque nessa época a pessoa está mais suscetível ao aprendizado e à assimilação. Assim que certos padrões de pensamento, sentimento e ação se estabelecem na mente de uma pessoa, ela deve desaprender esses padrões antes de poder aprender algo diferente, e desaprender é mais difícil do que aprender pela primeira vez.”

Os padrões de pensamento que orientam nossos comportamentos podem ser vistos como programas da mente. “Isso não significa, é claro, que as pessoas são programadas da mesma forma que os computadores”, disseram os autores. “O comportamento de uma pessoa é apenas parcialmente predeterminado por seus programas mentais: ela tem uma capacidade básica de se desviar deles e reagir de maneiras diferentes novas, criativas, destrutivas ou inesperadas.” A cultura, o software da mente, “apenas indica quais reações são prováveis e compreensíveis, dado o passado de alguém”.

No podcast, Gert Jan Hofstede discutiu o poder da cultura: “ … Se você faz parte de uma sociedade, está inserido em uma cultura; como uma gota em um grande rio. Você pode decidir por seguir por vários caminhos, mas isso não faz o rio mudar. Portanto, estamos todos restringindo uns aos outros por meio de nossa cultura coletiva”.

O projeto de Hofstede identificou seis dimensões fundamentais que determinam a cultura geral de uma sociedade:

1. Individualismo versus Coletivismo: até que ponto os indivíduos se sentem independentes, em oposição a serem membros interdependentes de grupos sociais maiores;

2. Distância do Poder: até que ponto os membros menos poderosos da sociedade aceitam e esperam que o poder seja distribuído de forma desigual;

3. Masculinidade: até que ponto o uso da força é endossado socialmente;

4. Evitar Incertezas: a tolerância de uma sociedade para incertezas e ambiguidades;

5. Orientações de longo prazo: a capacidade de uma sociedade para lidar com a mudança; e

6. Imposição versus Restrição: a atitude de uma sociedade em relação à liberdade versus dever.

Deixe-me comentar brevemente cada um desses tópicos.

1. Individualismo versus Coletivismo

As sociedades individualistas têm uma consciência do “eu”, onde se espera que todos cuidem de si mesmos e de sua família imediata. Eles tendem a se concentrar em falar o que pensam, no direito à privacidade e na aquisição de novas habilidades para progredir. As sociedades coletivistas têm uma consciência do “nós”, na qual as pessoas desde o nascimento são integradas em famílias extensas e grupos fortes e coesos. Eles tendem a enfatizar a lealdade, os relacionamentos e a harmonia do grupo.

“Em uma sociedade individualista, uma pessoa é como um átomo em um gás, – Elas podem flutuar livremente por ai. E a melhor coisa que você pode se tornar é você mesmo. E em uma sociedade coletivista, uma pessoa é como um átomo em um cristal.”

O individualismo prevalece nos países desenvolvidos ocidentais, enquanto o coletivismo prevalece nos países menos desenvolvidos e orientais. Não surpreendentemente, os EUA têm o maior índice de individualismo (91), seguidos pela Austrália (90), Grã-Bretanha (89), Canadá (80), Hungria (80) e Holanda (80). A maioria dos países europeus tem um índice de individualismo acima de 50. A Índia tem um índice de 48, o Japão (46) e a Rússia (39); China, Cingapura, Tailândia e Vietnã têm um índice de 20, Coréia do Sul (18) e Indonésia (14). Na América Latina, o índice da Argentina é 46, Brasil (38), México (30) e Chile (23). A maioria dos outros países da América Latina tem um índice abaixo de 20.

2. Distância do poder

A distância do poder sugere que o nível de desigualdade de uma sociedade é aceito tanto pelos seguidores quanto pelos líderes. Poder e desigualdade são fatos fundamentais em qualquer sociedade porque sem a aceitação do governo e da liderança empresarial, as grandes sociedades de hoje não poderiam funcionar. Um alto índice de distância do poder significa que a hierarquia está bem estabelecida e aceita na sociedade; um índice mais baixo significa que as pessoas questionam a autoridade e preferem um poder mais distribuído.

Governos autocráticos como Rússia, China, Filipinas, Malásia, Indonésia, Índia, a maioria dos países muçulmanos e vários países latino-americanos têm índices de poder relativamente altos. Os EUA, Canadá, Europa Ocidental, Austrália e Nova Zelândia têm baixos índices de poder.

3. Masculinidade versus Feminilidade

A masculinidade é definida como uma preferência na sociedade por conquistas, assertividade, competição e recompensas materiais pelo sucesso. Sua contraparte, a feminilidade, significa preferência pela cooperação, modéstia, qualidade de vida e cuidado com os fracos. Em uma sociedade mais masculina, homens e mulheres aderem aos papéis de gênero mais patriarcais, por exemplo, finanças versus emoções. Sociedades mais femininas tendem a ter menos pobreza e taxas de alfabetização mais altas.

A masculinidade é alta no Japão (95), Áustria (79), Itália (70) e México (69); moderadamente alto na Alemanha (66), Grã-Bretanha (66), Estados Unidos (62) e Austrália (61); moderadamente baixa na França (43), Espanha (42), Coreia do Sul (39) e Tailândia (34); e baixa na Dinamarca (16), Holanda (14), Noruega (8) e Suécia (5).

4. Evitar Incertezas

Evitar incertezas está relacionado ao nível de tolerância de uma sociedade para a ambiguidade. “Ele indica até que ponto uma cultura programa seus membros para se sentirem desconfortáveis ou confortáveis em situações não estruturadas. Situações não estruturadas são novas, desconhecidas, surpreendentes e diferentes do habitual.”

Sociedades com alto grau de aversão à incerteza geralmente têm códigos rígidos de comportamento, diretrizes e leis. Aqueles com um índice mais baixo mostram mais aceitação de ideias divergentes e ambiguidades, e tendem a ter menos regulamentações.

As pontuações do Índice de Prevenção de Incertezas são altas na Rússia (95), Polônia (93), Sérvia (92) e outros países da Europa Central e Oriental; no Peru (86), Argentina (86), Chile (86), México (81) e outros países latino-americanos; e no Japão (92) e na Coreia do Sul (85). Eles são mais baixos no Canadá (48), nos Estados Unidos (46), na Grã-Bretanha (35) e em outros países de língua inglesa; na Suécia (29), Dinamarca (23) e outros países do norte da Europa; e na China (30), Vietnã (30) e Cingapura (8).

5. Orientações de longo prazo

“Em uma cultura orientada para o longo tempo, a noção básica sobre o mundo é que ele está em fluxo e a preparação para o futuro é sempre necessária. Em uma cultura orientada para o tempo curto, o mundo é essencialmente como foi criado, de modo que o passado fornece uma bússola moral e aderir a ela é moralmente bom”. Sociedades com alto índice de longo prazo veem a adaptação e a solução pragmática de problemas como uma necessidade. Os países pobres orientados para o curto prazo tendem a ter pouco ou nenhum desenvolvimento econômico.

A orientação de longo prazo é outra área em que os Estados Unidos (26) são uma exceção substancial entre as economias desenvolvidas. Vários países latino-americanos e africanos têm índices abaixo de 25. Os países do Leste Asiático ocupam os primeiros lugares na orientação de longo prazo, incluindo Coréia do Sul (100), Taiwan (93), Japão (88) e China (87); Os países do Leste Europeu também têm uma classificação alta, incluindo Ucrânia (86), Estônia (82), Rússia (81); assim como a Alemanha (83) e a Suíça (74).

Indulgência versus Restrição

Em uma cultura indulgente, é bom ser livre e fazer o que seus impulsos querem que você faça, enquanto em uma cultura contida a vida é difícil e o dever é o estado normal de ser. Uma sociedade indulgente é aquela que permite “gratificação relativamente livre dos desejos humanos básicos e naturais relacionados a aproveitar a vida e se divertir. Restrição representa uma sociedade que controla a gratificação das necessidades e a regula por meio de normas sociais estritas”.

Os países latino-americanos ocupam o primeiro lugar em indulgência, incluindo México (97), El Salvador (89) e Colômbia (83); o mesmo acontece com os países de língua inglesa, incluindo Nova Zelândia (75), Austrália (71), Grã-Bretanha (69), Canadá (68) e Estados Unidos (68); e países do norte da Europa, incluindo Suécia (78), Dinamarca (70), Holanda (68) e Islândia (67). A moderação prevalece na Europa Oriental, incluindo Hungria (31), Polônia (29) e Rússia (20); na Ásia, incluindo Coreia do Sul (29), Índia (26) e China (24); e no mundo muçulmano, incluindo Marrocos (25), Iraque (17), Egito (4) e Paquistão (0).

O que você aconselharia a um país que deseja mudar sua cultura, perguntou Dubner. “É inútil aconselhar alguém sobre qual deve ser sua cultura nacional, porque não há como mudá-la”, respondeu Hofstede. “[I] se você olhar 100 anos atrás e olhar para o mapa cultural do mundo, você pode ler escritores de diferentes países, você verá que há uma continuidade surpreendente.”

Que tal a convergência cultural em 20 a 50 anos? “Não há nenhuma evidência de convergência, a não ser que, se os países se tornarem igualmente ricos, todos se tornarão mais individualistas”, respondeu Hofstede. “Mas os chineses, mesmo ricos, serão muito mais coletivistas e muito mais orientados para o longo prazo do que os americanos.”

10/02/2023

Marketplaces – o futuro das telecomunicações

A saúde da indústria de telecomunicações é vital para o crescimento global, inovação e prosperidade. A maioria das indústrias, se não todas, usam e transmitem dados, voz, vídeo e mensagens todos os dias por conta de suas operações. Para isso, os provedores de serviços de comunicação (CSPs) têm a tarefa de fornecer soluções seguras, confiáveis e rápidas.

À medida que os setores crescem, a demanda por soluções também aumenta. Assim, o setor de telecomunicações encontra-se em constante evolução para responder à demanda de soluções cada mais avançadas. No entanto, junto com o aumento da demanda, também vêm os desafios. As operadoras estão sob imensa pressão devido ao aumento da concorrência e dos custos operacionais.

Há uma grande necessidade de inovar e obter agilidade operacional para atender às expectativas dos clientes. Isso ficou mais acentuado após a pandemia do COVID-19, pois as organizações estão cada vez mais confiando e apostando em modelos de negócios digitais.

O 5G oferece uma esperança para os CSPs e as projeções indicam que a tecnologia permitirá uma produção econômica global de US$ 13,2 trilhões até 2035. No entanto, a capacidade de gerar valor é o que mais beneficiará as operadoras. Até 2025, espera-se que o Everything as a Service (XaaS) cresça e atinja um valor de US$ 400 bilhões, muitos dos quais irão para operadoras de serviços de redes.

Antes de aproveitar as oportunidades, as empresas de telecomunicações precisam adotar uma abordagem mais colaborativa e redesenhar seus modelos operacionais. Isso significa evoluir de produtos tradicionais e sistemas legados para aqueles que oferecem suporte e entrega de recursos como serviço. Nesse processo de transformação, a mudança para um modelo operacional baseado em software é crucial.
A importância da abordagem de software

À medida que as tecnologias digitais evoluem, também evoluem as demandas dos clientes. Como resultado, o setor de telecomunicações se transformou nos últimos anos. Embora o 5G venha para agregar valor em muitos setores, as operadoras não têm garantia de participação. Nativos digitais como Google, Facebook, Alibaba, Tencent e Amazon apresentam o maior desafio. Isso porque eles já adotaram a moderna engenharia de software em seus modelos e continuam a melhorar suas tecnologias.

O papel que as operadoras de telecomunicações desempenharam para facilitar o crescimento dos modelos de negócios e serviços digitais é inquestionável. No entanto, apesar de desempenharem um papel de destaque, ainda não se beneficiaram desse crescimento. Um relatório publicado pelo Fórum Econômico Mundial em parceria com a Accenture fornece uma imagem clara. Entre 2010 e 2018, a proporção dos lucros da indústria das operadoras caiu de 58% para 45%.

Devido a resposta lenta às mudanças nas condições do mercado, espera-se que essa tendência continue nos próximos anos. Considerando que os custos operacionais também estão aumentando, uma participação nos lucros cada vez menor e concorrência crescente só aumentarão a pressão. É por isso que as operadoras devem fazer a transição para arquiteturas modulares, baseadas em software.
Novos requisitos para os CSPs

Oferecer maior valor aos clientes sempre tem um alto custo, pois é necessário investir em infraestrutura. Embora esses movimentos beneficiem muito os consumidores, as operadoras não desfrutam de ganhos proporcionais. Por exemplo, os consumidores se beneficiaram das velocidades de dados mais rápidas, melhor cobertura e menor latência. Isso também aconteceu com o surgimento do mercado de serviços em nuvem e que os provedores conseguiram apenas lucros comerciais marginais.

Comparado ao 4G, o 5G oferece maior potencial, mas riscos semelhantes. A falha em se ajustar de forma antecipada, fará com que as operadoras percam. Alguns dos novos fluxos de receita incluem cidades inteligentes, saúde, manufatura e automotivo. Para atender às necessidades desses setores, as operadoras precisarão operar, entregar, diversificar e aprimorar seus serviços em muitas vezes.

Conseguir isso requer grandes mudanças em infraestrutura e repensar as opções por completo. Os sistemas legados OSS/BSS foram projetados para funcionar em uma escala definida e para um conjunto de produtos específico. Eles terão que ser substituídos por Arquitetura Digital Aberta, compatível a multiplataforma, sem restrições de dimensionamento e com integração/implantação contínua (CI/CD).
O mercados de software

A um custo aproximado de US$ 1 bilhão, de acordo com o TM Forum, o processo de seleção e aquisição de software no setor de telecomunicações é caro. No entanto, isso mudará à medida que a Arquitetura Digital Aberta (ODA) tornar as coisas mais fácil para os CSPs descobrir, adquirir e implementar softwares, microsserviços e Open-APIs. Ao facilitar a transformação digital, esses mercados permitirão que os provedores testem novos elementos de software para desenvolver soluções que lhes atendam. Também será mais fácil e rápido integrar parceiros e suas ofertas. Como resultado, haverá menos barreiras à entrada e o ecossistema incentivará a inovação e o desenvolvimento de soluções de software.

À medida que os mercados se tornam mais integrados, eles se tornam mais populares, transformando a forma como os CSPs e seus parceiros vendem seus produtos (B2B). Os provedores que desejam oferecer recursos como serviços, terão uma boa plataforma para atingir seu mercado. Eles também podem expandir seu alcance para milhões de usuários corporativos (B2C), disponibilizando recursos de software baseados em nuvem para outros.

O mercado de software permitirá que os provedores dominem novos mercados, com a agilidade, velocidade e capacidade de inovação, podendo corresponder às expectativas dos B2C e B2B. Eles também eliminam a necessidade de investir muito durante os estágios iniciais do ciclo de vida de um produto.

Em resumo, o objetivo do mercado de software para os CSPs inclui:Acelerar a transformação de TI e negócios dos CSPs;
Reduzir o risco e o custo da transição para a arquitetura aberta;
Apoiar a conformidade com os padrões ODA e Open API;
Fornecer plataforma para produtos e servicos, reduzindo seus custos.

É necessário que novas plataformas e serviços se integrem a OSS, BSS e infraestrutura de rede existentes sem personalização em nível de código para que os mercados de software sejam bem-sucedidos.
Como o mercado de software podem funcionar

Os softwares atuarão como plataformas onde os provedores de serviços e outras organizações que oferecem serviços baseados em arquitetura digital, podem anunciar r prover seus produtos e serviços. Os provedores também podem usá-los para modelar e estruturar componentes de negócios de forma mais adequadas.

Existem cinco elementos principais nos componentes da Arquitetura Digital e eles incluem:Notificação e relatórios;
Funções core do negócio;
Funções dependentes do negócio;
Gestão e operadores;
Requisitos e segurança.

Existem dois modos que podem ser usados para operar mercados de software:

1) Como um mercado comercial aberto que ofereça suporte à distribuição de componentes comerciais e de código aberto para provedores de serviços em todo o mundo.

2) Como mercados fechados onde um grupo de provedores e parceiros podem distribuir componentes de software comuns.


Esses mercados poderão apoiar a colaboração e a competição saudável entre os participantes e terão as seguintes categorias de componentes:Aplicações para TI e telecomunicações;
Aplicativos diversos;
Ferramentas para a cadeia do ecossistema.
1. Aplicações para TI e Telco

Microsserviços e tecnologias como RPA e IA desempenharão um papel fundamental nas aplicações de conhecimento. Eles darão suporte à customização e diferenciação necessárias para determinar a propriedade dos aplicativos e identificar os novos serviços dos provedores.

Com o lançamento do 5G, os mercados de software estarão acessíveis a desenvolvedores, incluindo startups que podem criar aplicativos de nicho.
2. Aplicativos diversos

Há muito valor nos aplicativos para CSPs. Os provedores de serviços têm a oportunidade de criar aplicativos de forma independente ou com parceiros. Os componentes que substituirão o BSS/OSS serão desenvolvidos por fornecedores de nível 1 e 2.
3. Ferramentas do Ecossistema

Ambientes de produção e transação, como teste/interoperabilidade e ferramentas Canvas, que são construídas com ferramentas relacionadas a padrões predefinidos, estarão neste ecossistema. Ele também terá muitas opções de código aberto.
Implicações aos fornecedores

Existem muitos desafios no mercado de software de telecomunicações. Isso é ainda agravado por muitas barreiras de entrada que reduzem a capacidade de inovar. Quando surgem inovações, elas são adotadas primeiro em outros mercados, pois o risco é alto.

O mercado está insalubre para todos os provedores de serviços e há pouco espaço para aproveitar as oportunidades emergentes. A Arquitetura Digital Aberta (ODA) ajuda a oferecer uma nova perspectiva, pois reduz o risco de integração e custos do fornecedor. Isso lhes permite inovar e testar novos modelos de negócios.

Outros Mercados também surgirão, fornecendo aos CSPs fluxos adicionais de receita. Embora haja um risco significativo, ele será compensado pelo aumento das oportunidades. No entanto, tudo isso depende da capacidade do setor de telecomunicações de fazer a transição para a ODA rapidamente.
O Open Digital Framework e softwares de telecomunicações

Os sistemas monolíticos altamente personalizados levam muito tempo para serem adquiridos, são caros para implementar e não podem ser reutilizados. A moderna arquitetura baseada em software que os substituirá facilita a descoberta e aquisição, mesmo de vários fornecedores.

À medida que os custos e os riscos diminuírem, os provedores de serviços de comunicação terão mais recursos para investir em tecnologia e software. Isso levará a uma maior diferenciação entre os negócios dos CPSs e abrirá novos canais para alcançar o mercado global.

21/07/2021

A autoridade do motor de busca


Em 1998, dois estudantes da Universidade de Stanford publicaram um artigo intitulado “Anatomia de um sistema de busca on-line hipertextual em larga escala”. Por trás desse resumo, está o que pode ser considerada uma das ideias mais importantes da era digital: como trazer à tona um novo princípio de discernimento, em meio ao universo assustadoramente crescente de depósitos virtuais de informação.

Como, se perguntavam os autores, seria possível aliar uma mídia “desregulamentada”, onde “qualquer um pode publicar o que quiser”, a resultados de busca genuinamente satisfatórios, dizendo aos usuários não apenas onde encontrar a informação, mas indicando também quais delas têm maiores chances de ser precisas e úteis?

A resposta que eles encontraram – e a crença que tinham de que esta resposta não apenas existia, mas podia ser dimensionada para englobar bilhões de documentos publicados – contribuiria profundamente para mudar o mundo ao longo das décadas seguintes.

Os autores do estudo eram Sergei Brin e Larry Page, e o que eles propuseram foi um produto batizado de Google – uma brincadeira com o termo matemático “googol”, que representa o número um seguido por uma centena de zeros.

Ferramentas de busca na internet, existiam desde o início dos anos 1990. No entanto, Brin e Page perceberam que poucas pesquisas haviam sido feitas no sentido de melhorar a qualidade dos resultados que essas ferramentas ofereciam. A novidade mais significativa que eles apresentaram surgiu da percepção de que a própria metodologia acadêmica de pesquisa oferecia uma solução para o problema.

No meio acadêmico, sabe-se há muito tempo que o número de vezes que determinado trabalho é citado por outros, fornece um retrato de sua credibilidade em uma área específica. Um trabalho de pesquisa citado posteriormente em centenas de outros trabalhos pode ser considerado, de forma evidente, detentor de uma credibilidade maior do que um trabalho que jamais foi citado.

Traçando um paralelo, Brin e Page concluíram que o número de vezes que o link de uma página da internet era repetido em outras páginas, fornecia uma percepção útil de sua importância ou qualidade – e, de certa forma, era um tipo de avaliação que poderia ser conduzida de maneira automatizada por um algoritmo suficientemente sofisticado.

O algoritmo esboçado no artigo foi batizado de “PageRank” – e existe até hoje, no núcleo, do que talvez tenha se tornado o serviço digital mais influente do mundo. O PageRank cresceu de forma expressiva, em termos de sofisticação, desde seus primeiros dias, e sua fórmula exata é um segredo corporativo muito bem guardado. O princípio que o orienta, no entanto, permanece o mesmo. Uma observação extremamente precisa em larga escala fornece a chave da mais valiosa das qualidades – a qualidade, propriamente dita.

Em vez de exigir que seus criadores avaliem a qualidade dos recursos disponíveis na rede, um algoritmo como o PageRank observa automaticamente como todo o mundo está usando e construindo a internet. As variáveis-chave incluem o número de links que apontam para uma página, o número de visitantes que ela recebe, a frequência com que é atualizada e o tipo de conteúdo que oferece. Acima de tudo isso, estão dispostos sofisticados índices que incluem o tipo de visitantes que a página recebe, por quanto tempo e quão profundamente eles interagem nela, a relação de autoridade de todos os outros sites conectados a ela e se existe algum tipo de comportamento suspeito, que indique que alguém está tentando melhorar seu desempenho de modo artificial.

No mundo digital, o que significa o melhor?

A história da análise de estatísticas cada vez mais avançadas desenvolvidas pelo Google e por outras ferramentas de pesquisa e a corrida armamentista contra aqueles que tentam fraudar esses resultados seriam contos fascinantes por si só. Ainda mais significativa, no entanto, é a mudança de cultura que eles ilustram. No período de pouco mais de duas décadas, inovações no processamento de conjuntos de dados, cada vez maiores, alteraram nossa percepção quanto ao que significa autoridade, talvez de forma mais extensa do que em qualquer outro período na história – e com isso mexeram também com a maioria de nossas ideias sobre valor cultural e intelectual.

A palavra “autoridade” apareceu pela primeira vez na língua inglesa no início do século XIII, derivada do francês arcaico, com conotações especificamente literárias. Um “auctorite”, como se dizia na época, era um texto no qual se podia confiar – e que, portanto, podia ser utilizado como base para argumentos culturais e teológicos. Textos desse tipo, por excelência, vinham da Bíblia, seguida pelos mais venerados autores clássicos e religiosos. Esses textos continham sua própria garantia de veracidade, e a forma mais elevada de aplicação acadêmica envolvia esmiuçar seus significados e colocá-los em prática. O respeito à autoridade não era simplesmente uma questão de hábito; era a base de todo um sistema político e intelectual. Com o tempo, a palavra “autoridade” passou a ser usada também para se referir ao indivíduo que se dedica à leitura e pode ser considerado um especialista em determinado assunto ou a alguém que, devido à posição que ocupava – um lorde, um rei, etc – merecia a obediência dos demais. Em ambos os casos, uma espécie de fé está embutida no ato de deferência: acima de tudo, a fé na ideia de que aquela deferência era um bem social e cultural.

O Iluminismo, a democracia e a cultura de massa dissolveram, há muito tempo, esse comportamento. Apesar disso, um pequeno grau de fé na especialidade permanece como parte integrante de nossa vida cultural, com as figuras espelhadas do crítico e do criador ocupando seu centro. Do lado de fora do reino empírico do método científico (que tem sido radicalmente transformado pelo poder de enormes conjuntos de dados), há muito tempo toleramos – e até mesmo requisitamos – pessoas cuja função é nos aconselhar sobre o que devemos ou não devemos gostar; que almejam ao mesmo tempo representar e educar o gosto do público, batendo de frente com o cânone de um determinado campo do conhecimento. Mesmo a mais refinada das críticas foi sempre apenas mais um fator diante de muitos outros. Há muito tempo sabemos quais livros são os mais vendidos, quais filmes tiveram a maior audiência, quais obras de arte atingiram os preços mais altos e quem conseguiu o maior número de votos. Entretanto, o que não tínhamos até pouco mais de duas década atrás era um empirismo de escala e de aparência radicalmente novas, adaptadas à era digital. Hoje, temos na ponta dos dedos acesso instantâneo a um tipo de concurso popular de autoridade, muito mais sutil e onipresente do que qualquer lista de mais vendidos: aquele adaptado a praticamente qualquer forma de pesquisa que pode ser feita, formas essas em constante mutação. Não existe praticamente nenhuma palavra ou frase, de qualquer língua conhecida, para a qual uma ferramenta de busca moderna não exiba e classifique pelo menos um resultado.

Graças a serviços como a Amazon, não existe praticamente nenhum produto – seja cultural ou comercial – que não apareça com seus números de vendas convenientemente classificados, desde um até muitos milhões, e com as avaliações e opiniões de pessoas que já o compraram, disponíveis a apenas um clique. Até hoje nos valemos de opiniões críticas e do embate entre elas. Porém, quando todos nos tornamos capazes não só de ter nossas próprias opiniões, como também de publicá-las abertamente, meras proclamações individuais de conhecimento sobre um assunto começam a parecer frágeis como porcelana. Pense no que significa, exatamente, procurar alguma coisa na internet. É muito fácil aceitar que informações como a altura de uma montanha ou a população de um país possuem um valor empírico. Contudo, questões como

Picasso foi o maior artista do século XX?

estão passando a ser vistas sob uma
ótica parcialmente empírica com uma frequência cada vez maior. Basta perguntar à internet, e as respostas do mundo inteiro serão depositadas na sua frente, classificadas por relevância. A informação agregada está na ponta dos dedos: não na forma de uma resposta simples, mas sim uma resposta definitiva à pergunta implícita

quais são todas as coisas que já foram ditas sobre Picasso ser o maior artista do século XX – e quais delas possuem maior autoridade?”.

Esta é exatamente o tipo de avaliação que passamos a solicitar aos críticos; e não apenas a eles, mas aos detentores de todo tipo de conhecimento, de editores a jornalistas, passando por educadores, cientistas e formadores de opinião. Durante séculos, era impossível que qualquer indivíduo possuísse, consumisse ou pesquisasse de forma significativa sequer uma fração do conhecimento do mundo. Portanto, sempre tivemos que recorrer a outros para nos aconselhar e selecionar materiais – e para determinar o que merece ser alocado em posição de destaque nos campos de registro permanentes. Hoje, o processo de seleção não mais acontece antes que algo seja enviado ao mundo. Ao contrário, tornou-se uma operação constante e terceirizada. Praticamente toda e qualquer coisa está sob os olhares do mundo inteiro e é peneirada não pelos formadores de opinião, mas pelo gosto do público. Sem dúvida, este é o espírito central da maior parte dos modelos digitais de negócio.

Em vez de selecionar primeiro e publicar depois, publica-se primeiro e posteriormente reage-se às escolhas feitas pelo próprio público – enfatizando incessantemente as coisas que conseguem arrebatar alguma audiência e dedicando poucos esforços às demais. Se isso representa uma crise de valores e de autoridade, é também, sob diversas formas, uma crise extraordinariamente benéfica: a penetração em fortalezas antes assustadoras. Existem, no entanto, duas áreas que merecem atenção especial daqueles que buscam mais do que simplesmente navegar pelos novos rumos da cultura: a intelectual e a econômica.

– No campo intelectual, a preocupação é com o achatamento: o desaparecimento da noção de excelência, em meio a uma cápsula de amadorismo e de autopromoção. Escritores com Andrew Keen argumentam que – como deixa claro o subtítulo de seu livro O culto do
amador:

como blogs, Facebook, YouTube e a pirataria digital estão destruindo nossa economia, cultura e valores”,

sendo cultura neste caso algo divulgado e protegido por competentes detentores, trabalhando em harmonia com intelectuais e artistas. Falando sobre temas que vão desde a publicação de livros e revistas até música, cinema e discursos políticos, Keen defende a ideia de que a difusão das tecnologias digitais está corroendo a capacidade do excepcional e do significativo de provocarem impacto público ou tornarem-se tema de discussão. Em vez disso, transitamos à vontade da mesma forma tanto pelo banal quanto pelo profundo – permanecendo mais tempo naquele que for mais fácil de digerir.

O argumento de Keen é uma nova versão de antigas preocupações quanto à democratização, em sentido amplo. Ao substituir o filtro do especialista pela escolha da massa, ele diz, a internet deu poder à turba humana: sufocando vozes discordantes ou excepcionais e deslizando sobre uma maioria passiva, com argumentos de fácil digestão e recorrendo à cultura popular. Acompanhado dessa crítica cultural vem o argumento econômico, que é assustadoramente familiar para qualquer um que teve contato com alguma empresa de mídia tradicional na última década – talvez mais recente e poderosamente articulado no livro do escritor Robert Levine, Free Ride [Livre acesso]. Com um subtítulo esclarecedor

– “Como os parasitas digitais estão destruindo os negócios culturais, e como os negócios culturais podem reagir”–,

o livro se debruça sobre a estrutura das “indústrias culturais” modernas e os danos causados aos seus modelos de negócios pelas tecnologias digitais.

As empresas de mídia tradicionais não estão em apuros porque não estão dando o que seus clientes desejam, elas estão em apuros porque não conseguem receber dinheiro por isso”.

Pode ser difícil questionar a abordagem digital de conceitos como “aberto” e “gratuito”, comenta Levine,

mas o que eles significam, na prática, é o privilégio da infraestrutura, ao custo de tirar dos criadores qualquer possibilidade de controle sobre o que fazem – muito menos de sobreviver a partir disso”.

Poderíamos nos ater a minúcias e discutir as estatísticas detalhadas do colapso da mídia tradicional. Contudo, poucas pessoas discordariam do fato de que a emergência das mídias digitais provocou danos imensos tanto a muitos modelos de negócios já existentes quanto a alguns pressupostos culturais.

A verdadeira questão em jogo não é exatamente o que está entrando em cena, mas a relevância disso. É nesse ponto que a tese de Levine se encaixa perfeitamente à de Keen. Do ponto de vista dos dois, a tecnologia digital transferiu tanto a influência social quanto econômica daqueles empenhados em conceber obras culturais e intelectuais para aqueles que detêm a infraestrutura pela qual essas mídias e esses conceitos fluem incessantemente. Da mesma forma que a autoridade na internet tornou-se incrivelmente apartada do conhecimento específico, parece que a produção cultural está sendo apartada do talento. Esta é uma conclusão que soa profundamente perturbadora a qualquer um que se importe mais com qualidade do que com quantidade – e que aponta para um dos paradoxos mais embaraçosos do mundo digital: os caminhos pelos quais a diversidade e a abertura ajudaram a aumentar, em vez de reduzir, a influência de um número reduzido de agentes. Se antes o número de objetos competindo pela atenção do público estava na casa de milhares, agora ultrapassa os milhões.

O ambiente digital é rico em novas oportunidades para qualquer um que ocupe um nicho suficientemente bem-definido: a “cauda longa” dos interesses das minorias. Entretanto, talvez o impacto mais notável dessa mudança de escala não tenha sido a diversidade, mas o crescimento de uma minoria cada vez mais influente que ocupa o topo. Da mesma forma que empresas como a Amazon, o eBay, o AliExpress puderam, por meio da internet, conquistar um domínio global praticamente inimaginável na era prédigital, a guerra de culturas e ideias é mais do que nunca dominada pelos poucos que conseguiram arrebatar com êxito a atenção da massa.

Existe algo extremamente darwiniano nesse tipo de competição. Veja o caso
dos livros, por exemplo. Se você tem um livro físico em mãos, você tem um objeto que tem uma única finalidade: um objeto projetado exclusivamente para exibir palavras a seus leitores. Se, no entanto, você estiver lendo o mesmo livro, só que na versão digital, em seu computador, ele está ala, disponível a um programa de computador que combina pulsos elétricos para torna-lo visível e possível a leitura. As palavras que aparecem na tela do seu dispositivo notebook, tablet ou smartphone, então elas estarão ocupando o mesmo espaço físico não apenas que todos os outros livros eletrônicos em sua biblioteca, mas também o mesmo espaço que cada
música, filme, notícias, blogs e jogos você usa.

Faz parte da natureza da era digital que essas coisas cheguem a nós de forma cada vez mais paralela ao meio tradicional. É uma força desenhada a partir da nova autoridade, baseada na popularidade. Ao que parece, apenas os fortes sobrevivem.

Mas, Se o nosso comportamento digital se resumisse a isso, então o mundo de
hoje seria sem dúvida assustador para aqueles que esperam fazer mais do que
simplesmente ser levados pela corrente. De qualquer forma, acredito que argumentos como os de Keen e de Levine devem ser interpretados mais como alertas do que como fatos inexoráveis – e que, enquanto muitos modelos tradicionais de negócio podem ser arrasados, nossa percepção consolidada do que significa excelência, espírito crítico e lampejo de criatividade não irá desmoronar tão facilmente.

Algoritmos são capazes de quantificar o comportamento humano em uma
escala sobre-humana. Aí está a fonte de sua utilidade e seu poder. Porém, esse
distanciamento da dimensão humana é também um de seus maiores defeitos – e um dos principais motivos pelo qual, desde a criação do Facebook, em 2004, e do Twitter, em 2006, os dois serviços somados conseguiram reunir mais de 3
bilhões de usuários.

As críticas de Andrew Keen à cultura digital de forma geral, e de seu potencial para a condescendência, a apatia e o sufocamento da verdade e da
excelência, são alertas aos quais devemos prestar atenção, sem dúvida. Mas, classificá-los como o real estado das coisas me parece, ao mesmo tempo, uma perspectiva pessimista e passiva demais – e uma leitura equivocada do potencial individual que continua a existir mesmo durante as maiores aglomerações virtuais.

Quando se trata de autoridade, e da noção de excelência definida pela
observação crítica, mais do que por análises estatísticas, não podemos ajustar o relógio de volta a uma era pré-digital de formadores de opinião vigiando – e moldando – o gosto popular. Entretanto, somos cada vez mais capazes de olhar adiante e espalhar esse discernimento para além dos monólitos das ferramentas
de busca e da generalização; de compartilhar não apenas bobagens, mas evidências de que outros valores, além da euforia da massa, podem fazer sentido não apenas para uma maioria, mas também para uma minoria.

Para dar um exemplo, foi inaugurada em 2011 uma nova ferramenta chamada Unbound Books, que oferece uma plataforma para que escritores lancem suas ideias diretamente ao público leitor. Bastante parecido com o modelo de garantias do século XVIII, de assinaturas prévias à publicação, se os autores do Unbound Books conseguirem convencer um determinado número de leitores a contribuir com uma quantia para o projeto, eles podem continuar a escrever e, por fim, concluir o livro – editado cuidadosamente pela Unbound Books e enviado diretamente para seus leitores. É um exemplo modesto, mas, ainda assim, representa um voto de confiança na capacidade de que o público digital seja algo mais do que uma turba.

Nas palavras de Noam Chomsky, um admirador de longa data do modelo Unbound, “a significância pode ser bastante relevante” – principalmente se essas estratégias representarem a forma dos negócios que estão por surgir, e de modelos de negócios em que a lucratividade não for inimiga da qualidade. Em todos esses episódios de investimento em cultura e compartilhamento, as virtudes essenciais são confiança e respeito: os pilares de uma autoridade conquistada em uma época de igualdade. Mais de quatrocentos anos atrás, o Hotspur de Shakespeare já conhecia o valor da reputação, em uma era em que a palavra de um homem era a garantia do seu caráter. Ao longo dos séculos seguintes, escritores ousados ajudaram a construir culturas literárias de alta e de baixa qualidade da mesma forma, graças a um assíduo cortejo ao público.

Hoje, estamos repassando essa lição. O mundo está cheio de especialistas como nunca esteve antes. Mas tanto eles quanto seu público foram recentemente postos em igualdade de condições no desafio de promover a excelência propriamente dita: dependem da confiança um no outro e não podem confiar em qualquer noção de autoridade certificada por uma instituição ou um cargo mais do que naquela baseada no conhecimento profundo do campo em questão. Econômica e socialmente, é uma época de dificuldades para quem pretende se dedicar à cultura da forma como ela foi concebida. Entretanto, precisamos mais do que nunca ser capazes de distinguir – e aprender – os truques que nos permitirão fazer isso de forma conjunta.

05/07/2021

O custo do touch & play


Em 2019 tive a oportunidade de conhecer a região do Vale do Silício – Califórnia e ver as sedes de empresas que constantemente estão na tela do meu smartphone.

Hoje, quando olho para o Google, no meu navegador, consigo imaginar um lugar, pessoas, histórias que se sobrepõe à virtualidade dos dados. Consigo imaginar o edifício, pátios, cantinas, etc. e as pessoas que trabalham duro, executando seus projetos.

Alguns pontos são bem comuns para quem trabalha em grandes empresas de tecnologia, outros pontos, me dão a sensação de algo muito paternalista. Não vou fazer críticas… A baía de São Francisco, cercada por autoestradas e montanhas distantes corroboram para o positivismo. San Jose, Santa Clara, Palo Alto, Mountain View, Cupertino, Sunny Valley, San Mateo, São Francisco, respiram a tech cultura e um incansável modernismo que inspira as necessidades e os caprichos dos usuários, com elegâncias incessantemente ajustadas para se adaptar a qualquer coisa e a qualquer pessoa. Também existe uma lógica de negócios agressiva associada a tudo – todas as high Techs, são obstinadas por catalogação e análise de dados, e para a estratégia enormemente lucrativa de associar propaganda a termos, produtos e serviços.

Para mim, assim como para muitas outras pessoas, as high Techs do Vale do Silício, são empresas cujos valores estão voltados para a simplicidade, a eficiência e a consistência; e eu aproveito tudo isso da melhor forma possível; ainda assim, por trás da maravilhosa mecânica algorítmica, existem pessoas brilhantes, parciais e imperfeitas, assim como em qualquer outro lugar. Existem discussões e sentimentos controversos sobre projetos; problemas conhecidos e frustrações.

Acho que nem os funcionários mais geniais das high Techs levam em consideração a formidável obra da tecnologia que carregam em seus bolsos. Ao manusearmos algo tão complexo e compacto como um smartphone, é difícil imaginar as cadeias de fornecimento e de
manufatura que o trazem à luz:

  • A mineração de metais para os circuitos, baterias e processadores;
  • A destilação do petróleo para obtenção de plásticos de alta performance;
  • O trabalho braçal e a engenharia de programação;
  • O design, os protótipos e as patentes.

Para as pessoas que olham para o smartphone como um objeto que existe apenas ali, como uma ferramenta de pesquisa, aplicativos e câmera, fica ainda mais difícil de entender.

Nossos hábitos de tratar aparelhos digitais como se fossem naturais ou inevitáveis, nos levam a situá-los além da história e do erro humano. No Google, na Amazon, na Apple, na Adobe, cada bit é fruto de trabalho humano tanto quanto uma calça jeans ou uma pilha Duracell. E por trás de suas existências, há contextos humanos, culturais e históricos.

Como o escritor Jaron Lanier ressaltou em seu livro Gadget – Você não é um aplicativo! mesmo algo aparentemente simples, como o armazenamento de dados, depende de formatos e dispositivos tecnológicos particulares. Um livro, um filme ou uma música salvos como um arquivo de computador não são um registro físico: sem o software e o hardware adequados para convertê-los em som e imagem, eles não servem para nada.

Ter acesso a essas tecnologias nunca foi tão fácil. Apesar disso, compreendê-las se torna cada vez mais difícil; um processo do qual os fabricantes estão cada vez mais cientes, decididos e até obstinados, explicitamente a encorajar a venda de dispositivos e serviços que funcionam assim “touch and play”, com pouca margem para os usuários personalizem suas próprias experiências ou que enxerguem além dos pixels na tela, para entender o que acontece lá dentro.

Vender conveniência e segurança fazem parte do encanto que esses dispositivos provocam. Abrir a caixa de um smartphone novo, ligar e usar diretamente, levou a perda de algumas formas de controle; que os usuários aceitam muito bem, como sendo preço a pagar – mas os usuários estão realmente cientes do preço que está sendo pago? A relação hardware, software e usuário de smartphone, não é clara e tão pouco difundida.

  • Intermináveis páginas não lidas de Contratos de Licença do Usuário Final listam os direitos que estamos repassando quando usamos a maioria dos serviços;
  • Contratos de compra especificam que muitos produtos digitais não pertencem de fato a seus compradores, mas estão apenas sendo cedidos;
  • Em ambos os casos, se o serviço ou o suporte apropriados forem revogados, tudo o que sobra é informação inútil e inerte.

Desvendar o significado desses contextos é um importante desafio, em última instância porque ele pode obstruir de modo significativo a rotina casual de utilização simples de produtos e serviços.

Vale lembrar, no entanto, que, a não ser que nos debrucemos atentamente sobre as intenções e limitações escondidas em nossas ferramentas, podemos esperar apenas pouquíssimas melhorias e cada vez mais abusos.

Como John Naughton, professor de compreensão pública da tecnologia da Open University, escreveu em um artigo, publicado no The Observer,

ao utilizar serviços ‘gratuitos’, é preciso aceitar que você (ou, mais especificamente, a sua identidade) é o produto”.

Não existe almoço grátis, nem mesmo na internet.

Entender os problemas e os potenciais das tecnologias é se tornar mais forte. Podemos estar vivendo em uma era na qual serviços e dispositivos parecem mais próximos de uma estrutura ecológica do que meramente mecânica – e isso pode fazer com que seus fabricantes exijam que os tratemos dessa forma – mas a única natureza que moldou essas tecnologias foi a nossa própria. Se não formos capazes de compreender as histórias e complexidades por trás desse cenário em constante mutação que é o mundo digital, jamais alcançaremos aqueles que o construíram – nem suas críticas, seus avisos, propagandas e alternativas.

É provável que você não consiga imaginar uma alternativa ao Facebook da noite para o dia, ou uma loja virtual capaz de superar a Amazon. Mas você pode aprender a usar cada um deles de uma forma um pouco melhor – e a prestar atenção naquilo que ninguém pode fazer por você.

09/05/2021

A influência dos sistemas de recomendação


Há alguns anos, vi um vídeo no Ted talks sobre o valor econômico da IA onde o professor Avi Goldfarb explicava que a melhor maneira de avaliar o impacto de uma nova tecnologia é ver como a tecnologia reduz o custo de algo amplamente utilizado.

Os computadores, por exemplo, são calculadoras poderosas, que provocaram a drástica redução de custo de aritmética e outras operações digitais nas últimas décadas. Como resultado, aprendemos a definir todos os tipos de tarefas em termos de operações digitais, por exemplo, transações financeiras, gerenciamento de estoque, processamento de texto, fotografia. Da mesma forma, a Internet e a World Wide Web reduziram drasticamente o custo das comunicações e do acesso a todos os tipos de informações – incluindo números, textos, imagens, músicas e vídeos.

Visto por essa lente, os dados e a revolução da IA podem ser vistos como uma redução do custo das previsões.

As previsões significam antecipar o que provavelmente acontecerá no futuro. Na última década, computadores cada vez mais poderosos, algoritmos avançados de aprendizado de máquina e o crescimento explosivo de big data nos permitiram extrair insights dos dados e transformá-los em previsões valiosas. Como acontecia anteriormente com operações digitais, comunicações e acesso à informação, – agora somos capazes de reformular todos os tipos de aplicativos como problemas de previsão. Uma grande família de aplicativos são os motores de recomendação ou sistemas de recomendação, que a Wikipedia define como “uma subclasse de sistema de filtragem de informações que busca prever a ‘classificação’ ou ‘preferência’ que um usuário daria a um item”.

A função essencial dos sistemas de recomendação é predizer matematicamente a preferência pessoal”, escreve o acadêmico do MIT, Michael Schrage, em seu livro, Recommendation Engines. Mas,

os mecanismos de recomendação são muito mais intrigantes e importantes do que suas definições podem sugerir“,

pois eles não apenas prevêem, mas também moldam as preferências dos usuários. Ao longo do livro, Schrage explora o desejo humano de obter conselhos bons, práticos e acionáveis – seja dos deuses, da astrologia ou livros de autoajuda – e a evolução das recomendações em nossas tecnologias baseadas em algoritmos onipresentes até o ponto em que eles ‘Quase nos tornamos uma extensão de nossos cérebros.

Mais pessoas ao redor do mundo estão se tornando mais adeptos – até mesmo dependentes – dos mecanismos de recomendação para aconselhar, informar e inspirar.”

As recomendações influenciam cada vez mais como os indivíduos gastam seu tempo, dinheiro e energia para obter mais da vida. Isso explica por que organizações globais, como Alibaba, Netflix, Spotify, Amazon e Google, investem tanto neles”.

Essas plataformas poderosas são impulsionadas por suas enormes economias de escala, – que são amplamente baseadas em recomendações altamente personalizadas. Quanto maior a rede, mais dados estarão disponíveis para recomendar ofertas altamente personalizadas. É disso que se tratam os efeitos de rede: quanto mais produtos ou serviços uma plataforma oferece, mais usuários ela atrairá, ajudando-a a atrair mais ofertas, o que por sua vez traz mais usuários, gera mais dados e torna a plataforma ainda mais valiosa

Esses poderosos mecanismos de recomendação “não apenas antecipam algoritmicamente o que‘ pessoas como você’ desejam, eles estimulam os usuários a explorar opções e oportunidades que podem nunca ter passado por suas cabeças“.

Por exemplo, com base em recomendações personalizadas da Netflix, descobri uma série de ótimos filmes que nunca teria visto por conta própria, – uma parte importante do motivo pelo qual sou um assinante da Netflix há muito tempo. Na verdade, as recomendações personalizadas têm sido uma parte tão importante da marca e do modelo de negócios da Netflix, que a empresa estabeleceu o Prêmio Netflix, em 2006. Uma competição aberta para algoritmos que melhorariam os algoritmos que a Netflix usa para prever as avaliações do usuário de filmes baseados apenas em suas classificações anteriores. A competição terminou em 2009 com um grande prêmio de um milhão de dólares para uma equipe que superou os algoritmos da Netflix por 10,06%.

A recomendação inspira inovação: aquela sugestão fortuita – aquela surpresa – não apenas muda a forma como você vê o mundo, mas transforma a forma como você vê – e entende – a si mesmo”, argumenta Schrage.

Deixamos de nos perguntar ‘Como as pessoas podem criar inovações mais valiosas?’ Para perguntar ‘Como a inovação pode criar pessoas mais valiosas?’. Essa distinção é sutil, mas profunda. A ênfase muda da inovação como resultado para a inovação como um investimento em capital humano e capacidades.”

Dada sua crescente influência em nossas vidas diárias, os sistemas de recomendação são mal compreendidos e seus conselhos são subestimados. As recomendações agregam valor aos usuários ao longo de quatro dimensões principais:

1) ajudando-os a decidir o que podem ou devem fazer a seguir, como o caminho a seguir para evitar lentidão no tráfego;

2) ajudando-os a explorar uma variedade de opções contextualmente relevantes, por exemplo, prever quais itens de pesquisa são os mais prováveis que estamos realmente procurando;

3) ajudando-os a comparar as opções relevantes, como os custos e as avaliações dos usuários de diferentes marcas e modelos de um produto; e, talvez o mais crítico,

4) os sistemas de recomendação ajudam os usuários a descobrir opções e oportunidades que eles próprios podem não ter imaginado.

Coletivamente, essa ajuda potencial torna os recomendadores irresistivelmente atraentes para usuários e desenvolvedores.

De acordo com Schrage, recomendações bem-sucedidas devem ser baseadas em cinco princípios-chave:

  • Conselho. O conselho gerado por um sistema de recomendação deve ser “contextualizado e personalizado para o indivíduo ou grupo a que serve” e deve ser apresentado no formato que é mais provável de ser valorizado.
  • Conhecimento. As opções oferecidas devem criar consciência situacional, ou seja, ajudar as pessoas a compreender as opções e oportunidades ao seu redor. Isso é especialmente verdadeiro quando uma decisão bastante rápida é necessária, como a rota a seguir para evitar o tráfego.
  • Avaliação. “As recomendações funcionam bem? As pessoas seguem o conselho? Por que sim ou por que não? Seguir o conselho de forma confiável leva aos resultados desejáveis?” Quanto mais aspiracionais os recomendadores se tornam, mais eles devem fornecer ferramentas de avaliação eficazes.
  • Prestação de contas. Os recomendadores devem assumir qualquer responsabilidade por resultados ruins ou por conselhos manipulativos? Quanto mais pessoal e persuasivo for o recomendador, mais a responsabilidade é importante.
  • Agência. Apesar da sofisticação cada vez maior dos mecanismos de recomendação, os indivíduos devem manter o poder e a capacidade de agir de forma independente e exercitar a escolha. Mas, sua influência crescente em tantos aspectos de nossa vida cotidiana também leva a obrigações e expectativas desafiadoras.

Esses incluem:

Confiar. “Recomendadores desfrutam de seu maior poder, influência e valor quando têm a confiança dos usuários. Os usuários confiantes de que as recomendações respeitam seus melhores interesses estão abertos ao novo, inesperado e não comprovado. Eles não têm medo de se arriscar. Na verdade, eles vão dar uma chance desconhecida e não experimentada.”

Privacidade. “Por definição e padrão, uma maior personalização requer mais dados e informações pessoais. Conjuntos de dados aparentemente não relacionados podem combinar algoritmicamente para produzir percepções surpreendentes sobre as preferências pessoais. Com esta trajetória de inovação, a segurança e a confidencialidade se tornam ainda mais importantes … Assim como com a saúde, o ‘consentimento informado’ torna-se mais importante à medida que os recomendadores se tornam mais poderosos, abrangentes e preditivos”.

Escassez. A escassez significa falta de informações suficientes. “Mesmo em ambientes digitais com grande número de usuários e itens, a maioria dos usuários avalia apenas alguns itens. Uma variedade de filtragem colaborativa e outras abordagens algorítmicas são usadas para criar “vizinhanças” de perfis de similaridade. Mas quando os usuários avaliam apenas um punhado de itens, verificar gostos / preferências – e vizinhanças de recomendação apropriadas – torna-se matematicamente muito desafiador.”

Escalabilidade. “Conforme o número de usuários, itens e opções aumentam, os mecanismos de recomendação precisam de maior potência computacional para processar dados em tempo real. Determinar – com resolução e granularidade cada vez maiores – ‘pessoas como você’ e definir características e atributos cada vez mais sutis de itens e experiências para classificação e recomendação são problemas difíceis.”

Com a inovação contínua em aprendizado de máquina, inteligência artificial, sensores, realidade aumentada, tecnologias neurais e outras mídias digitais, o alcance da recomendação se torna mais abrangente, poderoso e importante”, conclui Schrage. “O futuro da recomendação promete ser não apenas mais pessoal, relevante e melhor informado, mas transformador de maneiras que garantem (persuasivamente) surpreender.

10/02/2021

Pensamento Sistêmico


No post, Preparando alunos para negócios complexos, abordei as questões que os alunos precisam estar preparados para atuar em situações que envolvem complexidade em suas decisões. Eles precisam, mais do que nunca, estar preparados para a aprender, adaptar e influenciar e nesse contexto a adaptabilidade, o pensamento 360º, a curiosidade intelectual, a competência cultural e a empatia são os pontos fortes de quem almeja não só ter uma formação acadêmica adequada ao novo contexto de competências, mas também estar preparado para ser líder e se destacar no mercado.

Isso tudo está de acordo com o que Peter Senge escreveu, em um dos seus principais trabalhos: A quinta disciplina, considerado pelo Financial Times um dos cinco maiores livros de negócios de todos os tempos, ele apresenta técnicas convincentes para uma organização empresarial de sucesso, onde o aprendizado é colocado como o ponto de vantagem competitiva, não só pessoal, mas de empresas e de países e o pensamento sistêmico, seria então o ponto chave para os melhores resultados, ao longo dos anos.

Vamos falar um pouco mais sobre pensamento sistêmico. A aplicação do pensamento sistêmico no trabalho lhe traz a possibilidade de olhar para os problemas de negócios de novas maneiras. O site The System Thinker, no artigo de Michael Goodman, traz dicas importantes, que oferecem suporte a essa abordagem.

O que envolve o pensamento sistêmico?

A disciplina de pensamento sistêmico é mais do que apenas uma coleção de métodos – é também uma filosofia. Muitos são atraídos por ferramentas, como diagramas e simuladores de gerenciamento, na esperança de que essas ferramentas os ajudem a lidar com problemas de negócios reais. Mas o pensamento sistêmico também é uma sensibilidade pessoal do mundo em que vivemos; uma consciência do papel da criação das condições que enfrentamos; um reconhecimento de que existem leis poderosas de sistemas operacionais, das quais não temos conhecimento e que existem consequências para nossas ações, as quais não percebemos.

O pensamento sistêmico também é uma ferramenta de diagnóstico. Como na área médica, o tratamento eficaz segue um diagnóstico completo. Nesse sentido, o pensamento sistêmico é uma abordagem disciplinada para examinar os problemas de forma mais completa e precisa, antes de agir. Isso nos permite fazer perguntas melhores antes de tirar conclusões precipitadas. Os japoneses são incríveis neste contexto. Veja o quadro abaixo:

Comparação do ciclo processual Plan, Do, Check, Act.
Contribuição: Grupo Whatsapp (Wenicia)

Temos muito que aprender com outras culturas. Os processos de negócios conduzidos pelos japoneses, por exemplo, dá muito valor a questão do planejamento; já os brasileiros, dão mais ênfase, ao fazer e agir. Ambos podem chegar ao mesmo resultado, mas a energia gasta em cada um deles determina, muitas vezes o sucesso ou não de cada projeto.

O pensamento sistêmico frequentemente envolve deixar de observar eventos ou dados para identificar padrões de comportamento ao longo do tempo, para trazer à tona as estruturas que conduzem esses eventos e padrões. Ao compreender e mudar as estruturas que não estão nos servindo bem (incluindo nossos modelos mentais e percepções), podemos expandir as opções disponíveis e criar soluções mais satisfatórias e de longo prazo para problemas crônicos.

Em geral, uma perspectiva de pensamento sistêmico requer curiosidade, clareza, compaixão, escolha e coragem. Esta abordagem inclui a vontade de ver uma situação mais plenamente, de reconhecer que estamos inter-relacionados, de reconhecer que muitas vezes existem várias intervenções para um problema e de defender intervenções que podem não ser populares.

Por que usar o pensamento sistêmico?

O pensamento sistêmico expande o leque de opções disponíveis para resolver um problema, ampliando nosso pensamento e ajudando-nos a articular problemas de maneiras novas e diferentes. Ao mesmo tempo, os princípios do pensamento sistêmico nos tornam conscientes de que não existem soluções perfeitas; as escolhas que fazemos terão impacto em outras partes do sistema. Ao antecipar o impacto de cada compensação, podemos minimizar sua gravidade ou até mesmo usá-la em nosso próprio benefício. O pensamento sistêmico, portanto, nos permite fazer escolhas informadas. Ele também é valioso para contar histórias reais que descrevem como um sistema funciona. Por exemplo, a prática de desenhar diagramas, força uma equipe a desenvolver e compartilhar imagens ou histórias de uma situação e como ela foi resolvida. Essa histórias são veículos eficazes para identificar, descrever e comunicar a compreensão dos sistemas, especialmente em grupos.

Quando usar o pensamento sistêmico?

Quanto temos problemas com as seguintes características lógicas:

A questão é importante.
O problema é crônico, não um evento único.
O problema é familiar e tem uma história conhecida.
As pessoas já tentaram sem sucesso resolver o problema antes.

Por onde começar?

Ao abordar um problema, evite atribuir culpas (isso gera discussão!). Em vez disso, concentre-se nos itens que as pessoas parecem estar ignorando e tente despertar a curiosidade do grupo sobre o problema em discussão. Para focar a conversa, pergunte: “O que há nesse problema que não entendemos?”

Além disso, enfatize a estrutura do iceberg. Peça ao grupo que descreva o problema de três ângulos ou perspectivas: eventos, padrões e estrutura (veja “O Iceberg”).

Muitas vezes presumimos que todos têm a mesma imagem do problema ou que possuem as mesmas informações. Portanto, é importante obter diferentes perspectivas para garantir que todos os pontos de vista sejam representados e que as soluções sejam aceitas pelas pessoas que precisam implementá-las. Ao investigar um problema, envolva pessoas de vários departamentos ou áreas funcionais; você pode se surpreender ao saber como os modelos mentais deles são diferentes dos seus.

Como usamos as ferramentas de pensamento sistêmico?

Diagramas de Loop Causal: Primeiro, lembre-se de que menos é mais. Comece pequeno e simples; adicione mais elementos à história conforme necessário. Mostre a história em partes. O número de elementos deve ser determinado pelas necessidades da história e das pessoas que usam o diagrama. Uma descrição simples pode ser suficiente para estimular o diálogo e fornecer uma nova maneira de ver um problema. Em outras situações, você pode precisar de mais loops para esclarecer as relações causais que estão surgindo.

Também tenha em mente que as pessoas geralmente pensam que um diagrama deve incorporar todas as variáveis ​​possíveis de uma história; Isto não é necessariamente verdade. Em alguns casos, existem elementos externos que não mudam muito lentamente ou cujas mudanças são irrelevantes para o problema em questão. Você pode complicar as coisas, incluindo muitos detalhes, especialmente aqueles sobre os quais você tem pouco ou nenhum controle. Alguns dos loops mais eficazes revelam conexões ou relacionamentos entre partes da organização ou sistema que o grupo pode não ter notado antes. Não se preocupe se um loop está “certo”; em vez disso, pergunte-se se o loop reflete com precisão a história que seu grupo está tentando retratar. Loops são descrições abreviadas do que percebemos como realidade atual; se refletem essa perspectiva, estão “certos” o bastante.

Como sabemos se estamos indo bem?

  • Você está fazendo perguntas diferentes das que fazia antes.
  • Ao ouvir um comentário, levanta uma bandeiras de advertência. Por exemplo, você se pega pensando na discussão: “O problema é que precisamos de mais (pessoas de vendas, receita)”.
  • Você está revelando modelos mentais (tanto os seus quanto os dos outros).
  • Você está reconhecendo os pontos de alavancagem das histórias de sistemas clássicos.
  • Depois de começar a usar o pensamento sistêmico para investigação e diagnóstico, você pode querer avançar para maneiras mais complexas de modelar sistemas e diagramas de fluxo, simuladores de gerenciamento ou software de simulação. Ou você pode descobrir que adotar uma perspectiva de pensamento sistêmico e usar diagramas de loop causal fornecem insights suficientes para ajudá-lo a resolver problemas. Não importa como você prossiga, o pensamento sistêmico mudará para sempre a maneira como você pensa sobre o mundo e aborda as questões.

Dicas

  • Pratique com frequência, usando artigos de jornal e manchetes do dia.
  • Use o pensamento sistêmico no trabalho e em casa.
  • Use o pensamento sistêmico para obter uma visão de como os outros podem ver um sistema de forma diferente.
  • Aceite as limitações de não ter experiência; pode demorar um pouco para se tornar hábil no uso das ferramentas.
  • Quanto mais prática, mais rápido será o processo!
  • Reconheça que o pensamento sistêmico é uma prática para toda a vida.

06/06/2020

O impacto econômico das tecnologias transformadoras

“As tecnologias de uso geral (General Purpose Techinologies) são motores de crescimento …”, isso foi escrito por Erik Brynjolfsson, Daniel Rock e Chad Syverson no The Productivity J-Curve, um documento publicado recentemente pelo National Bureau of Economic Research (NBER).

“Essas são as tecnologias definidoras de seu tempo e podem mudar radicalmente o ambiente econômico. Elas têm um grande potencial, mas explorar tal potencial requer investimentos intangivelmente maiores e, muitas vezes, não mensurados, sem um repensar fundamental da organização da própria produção.”

Como aprendemos nos últimos dois séculos, geralmente há um intervalo de tempo significativo entre a ampla aceitação de uma nova tecnologia transformadora importante e o consequente impacto sobre empresas, governos e outras instituições. Mesmo depois de atingir um ponto crítico da aceitação do mercado, leva um tempo considerável – muitas vezes décadas – para que essas novas tecnologias e modelos de negócios sejam amplamente adotados nas economias e sociedades – e para que todos os benefícios sejam alcançados.

Em seu livro de 2002, Revoluções Tecnológicas e Capital Financeiro, a historiadora econômica Carlota Perez escreveu que desde o advento da Revolução Industrial, tivemos uma grande revolução tecnológica a cada 60 anos.

A primeira foi a era das máquinas e fábricas na última parte do século XVIII. Ela foi seguida pela era do vapor, carvão e ferro no início e meados do século XIX; eletricidade e aço nos anos 1870-1880; automóveis, petróleo e produção em massa nas primeiras décadas do século XX. Então veio a revolução do computador e das comunicações na última parte do século XX, iniciando a transição da economia industrial dos últimos dois séculos para a atual economia digital.

Segundo Perez, as transformações econômicas que acompanham essas tecnologias são compostas por dois períodos distintos, cada um com duração de aproximadamente 20 a 30 anos. Primeiro, vem o período de instalação, quando as novas tecnologias emergem no mercado, os empreendedores lançam muitas novas startups e os capitalistas de risco incentivam a experimentação com novos modelos de negócios. Isso é seguido pelo período de implantação, quando as agora bem aceitas tecnologias e modelos de negócios se tornam a norma, levando a um crescimento econômico e de produtividade a longo prazo.

O trabalho do NBER também identifica duas fases, investimento e colheita, e explica sua evolução no ciclo de vida de uma tecnologia historicamente transformadora. Como essas tecnologias são de caráter geral, elas exigem investimentos complementares maciços, como redesenho de processos de negócios, co-invenção de novos produtos e modelos de negócios e a requalificação da força de trabalho. Além disso, quanto mais transformadoras as tecnologias, mais tempo leva para elas alcançarem a fase de colheita, quando são amplamente adotadas por empresas e indústrias em toda a economia.

As décadas de atraso entre os períodos de investimento e colheita levaram a um tipo de paradoxo da produtividade que intrigou os economistas que procuravam conciliar inovações tecnológicas emocionantes com lento crescimento da produtividade a curto e médio prazo.

Por exemplo, a produtividade nos EUA cresceu apenas 1,5% entre 1973 e 1995. Esse período de produtividade lenta coincidiu com o rápido crescimento do uso da TI nos negócios, dando origem ao paradoxo da produtividade de Solow, uma referência ao economista do MIT, Prêmio Nobel, Robert A Solow.

A piada de Solow em 1987:

“Você pode ver a era do computador em qualquer lugar, exceto nas estatísticas de produtividade”.

Porém, a partir de meados da década de 90, a produtividade da mão-de-obra nos EUA subiu para mais de 2,5%, com o rápido crescimento das tecnologias da Internet e a reengenharia de processos de negócios, ajudando a espalhar inovações que aumentam a produtividade na economia.

Da mesma forma, o crescimento da produtividade não aumentou até 40 anos após a introdução da energia elétrica no início da década de 1880, porque demorou até a década de 1920 para as empresas descobrirem como reestruturar suas fábricas para aproveitar a energia elétrica com novas inovações de fabricação, como a linha de montagem. E, enquanto o motor a vapor de James Watt inaugurou a Revolução Industrial na década de 1780, seu impacto na economia britânica foi imperceptível até a década de 1830, porque o crescimento da produtividade estava restrita a algumas indústrias.

Esse fenômeno de Produtividade é chamado de Curva J. O ‘J’ vem do formato do gráfico – como a curva cresce. O Propósito Geral da Tecnologia (ou em inglês General Purpose of Technology – GPT) diminui inicialmente, na fase de investimento e depois aumenta na fase de colheita. O artigo inclui um modelo que explica essas dinâmicas da curva J e aplica o modelo para ajudar a entender o paradoxo de Solow das últimas décadas, bem como analisar se os recentes avanços na IA, aprendizado de máquina e tecnologias relacionadas indicam o surgimento da IA como um GPT do século XXI.

Seu modelo leva em consideração insumos tangíveis e intangíveis na avaliação do crescimento total da produtividade, ou seja, a diferença entre as taxas de crescimento de todos os insumos e todos os produtos em um processo de produção. Os insumos de capital tangíveis, como equipamento físico, infraestrutura e despesas de mão-de-obra, são relativamente fáceis de medir. No entanto, juntamente com esses insumos tangíveis, uma empresa gasta capital em insumos intangíveis, como ofertas inovadoras, estratégias de negócios competitivas, processos simplificados, desenvolvimento de talentos e criação de classes de ativos totalmente novas. Os extensos investimentos intangíveis necessários para adotar uma GPT e transformar uma organização são muitas vezes esquecidos, porque são difíceis de quantificar e seus benefícios se acumulam ao longo de vários anos.

“Suponha que uma empresa queira se tornar mais” orientada a dados “e reorganizar seus processos de produção para aproveitar as novas tecnologias de previsão de aprendizado de máquina. Essa empresa pode querer, por exemplo, alterar seu mix de mão-de-obra para criar mais software e ensinar seus clientes a encomendar produtos on-line e não pessoalmente. Embora a empresa desenvolva aplicativos de pedidos de produtos on-line e processos de negócios para esse fim, não poderá usar esses recursos de investimento para produzir mais mercadorias. Ao mesmo tempo, porém, os ativos de capital que a empresa está construindo – conhecimento institucional de software na empresa, práticas de contratação, criação de organizações e reciclagem de clientes para usar sistemas digitais – são deixados sem medição no balanço patrimonial.”

“O valor desses ativos não medidos é igual aos custos incorridos para produzi-los. Mas durante o período em que essa produção é perdida, a produtividade (tradicionalmente medida) da empresa sofrerá porque parecerá que a empresa produz proporcionalmente menos, em relação a seus insumos. Mais tarde, quando esses investimentos intangíveis começarem a gerar um rendimento, parecerá que a reserva de capital medido e os trabalhadores empregados se tornaram muito mais produtivos. Portanto, nos primeiros períodos de investimento, a produtividade é subestimada, enquanto o contrário ocorre depois, quando os níveis de investimento diminuem.”

Eventualmente, as taxas de crescimento de entrada e saída atingem um estado estacionário e os problemas de medição da produtividade desaparecem.

Existe uma maneira de medir o valor e o impacto na produtividade dos investimentos intangíveis de uma empresa?

O artigo propõe um método baseado na ideia de que intangíveis ocultos ainda são capturados pelos mercados, e seu valor de investimento pode ser estimado usando medidas prospectivas derivadas de avaliações no mercado de ações. Ele usa esses métodos para estimar o impacto de investimentos de capital intangível em Pesquisa & Desenvolvimento, software e hardware de computador, comparando os investimentos observáveis de uma empresa à sua avaliação de mercado.

Os investimentos em pesquisa e desenvolvimento são grandes, mas, como é um tipo de ativo maduro que persiste a longo prazo, a dinâmica da curva J está nos níveis de estado estacionário. Por outro lado, os pesados investimentos de capital em software e hardware de computadores são um fenômeno mais recente; portanto, a dinâmica da curva J ainda está presente. Esse é particularmente o caso do software.

“O investimento em software tem crescido e continua crescendo mais rapidamente do que o investimento geral de capital, e seu nível é suficientemente grande para sugerir que parte da desaceleração da produtividade possa ser explicada por uma mudança de composição do investimento em direção aos ativos digitais”.

A curva J da produtividade explica por que um paradoxo da produtividade pode ser um fenômeno recorrente e esperado quando novas tecnologias importantes estão se difundindo por toda a economia”, escrevem Brynjolfsson, Rock e Syverson em conclusão.

“Ajustar processos produtivos para tirar proveito de novos tipos de capital requer o tipo de investimento que as estatísticas perdem. No futuro, depois de fazer os ajustes apropriados que representam a curva J da produtividade, podemos ver novas tecnologias em todos os lugares, incluindo as estatísticas de produtividade.” 

Além da Guerra de Preços: O Oceano Azul na Conectividade Brasileira

Introdução Lançado em 2005 por W. Chan Kim e Renée Mauborgne, A Estratégia do Oceano Azul revolucionou o pensamento estratégico...