10/08/2024

Inteligência humana semelhante à da IA?

Quando a empresa OpenAI lançou o ChatGPT em novembro de 2022, uma coisa ficou clara: a IA está vindo para roubar empregos. Mas, ainda não descarte os humanos.” texto do artigo “Os novos empregos na era da IA”, do WSJ de outubro 2023. Como tem sido com as principais tecnologias nos últimos dois séculos, — energia a vapor, eletricidade, internet, — a IA ameaçará e trará novos empregos. Embora ainda esteja nos estágios iniciais, “a IA já está criando novas oportunidades”, disse o artigo, mencionando algumas dessas novas oportunidades.

Dois desses novos empregos são particularmente intrigantes: Engenheiro de prompt e Psicoterapeuta de IAIA generativa e os granfes modelos de linguagem (LLM) são um novo tipo de inteligência alienígena semelhante à humana que até mesmo as pessoas que os constroem não entendem realmente como funcionam. Pesquisadores estão tentando desbloquear a caixa-preta da IA ​​na esperança de entender como trabalhar melhor com essas tecnologias poderosas.

Deixe-me discutir cada um desses dois trabalhos.

Engenheiro de Prompt

A Wikipédia define engenharia de prompt  como “o processo de estruturação de texto que pode ser interpretado e compreendido por um modelo de IA generativo. Um prompt é um texto em linguagem natural que descreve a tarefa que uma IA deve executar. … A engenharia de prompt envolve a formulação de uma consulta, a especificação de um estilo, o fornecimento de contexto ou a atribuição de uma função à IA, como "Falar como um nativo de francês".

Engenheiros de Prompt exigem múltiplas habilidades, disse o artigo do WSJ. “Essa Engenharia de Prompt é uma classe emergente de trabalho que está em algum lugar entre programação e gerenciamento. Em vez de usar linguagens de programação como Python ou Java, engenheiros de prompt soletrarão suas instruções para sistemas de IA, criando novas maneiras de aproveitar o poder dos sistemas de IA.” 

Os linguistas há muito estudam a natureza inerente da compreensão da linguagem natural (NLU). Em um artigo de 2020 Em direção à NLU: formas de compreensão na era dos dados dos professores de linguística Emiliy Bender e Alexander Koller. Alegações em publicações acadêmicas e populares que mostram que os modelos de IA realmente entendem ou compreendem a linguagem natural, são alegações exageradas causadas por um mal-entendido da relação entre forma linguística e significado. O artigo observou que, embora os LLMs sejam ferramentas de linguagem inovadoras — como corretores ortográficos ou processadores de texto altamente avançados — o artigo rejeitou as alegações de que eles têm a capacidade de raciocinar e entender o significado da linguagem que estão gerando.

Os LLMs foram treinados com grandes quantidades de texto e fala, dos quais eles são capazes de aprender a sintaxe ou forma expressiva da linguagem, como palavras, morfemas e regras gramaticais se combinam para formar frases e sentenças. No entanto, os LLMs são incapazes de capturar a intenção comunicativa, — o propósito pretendido a ser alcançado por meio da linguagem, ou seja, transmitir informações a outra pessoa. Transmitir significado por meio da linguagem e evocar a intenção de comunicação no leitor ou ouvinte requer um conhecimento do mundo físico e social ao nosso redor. Apesar de sua crescente fluência, o texto gerado por um LLM ou chatbot não pode carregar nenhuma intenção comunicativa, modelo do mundo ou modelo do estado de espírito do leitor porque não é para isso que eles foram treinados.

Em “Dissociating Language and Thought in Large Language Models: a Cognitive Perspective”, um artigo publicado em janeiro de 2023, que explica como a ciência cognitiva e a neurociência podem nos ajudar a entender as capacidades potenciais dos LLMs e chatbots. O artigo aponta que há uma relação estreita entre linguagem e pensamento em humanos. Quando ouvimos ou lemos uma frase, normalmente presumimos que ela foi produzida por uma pessoa racional com base em seu conhecimento do mundo real, pensamento crítico e habilidades de raciocínio. Geralmente vemos as declarações de outras pessoas não apenas como um reflexo de suas habilidades linguísticas, mas como uma janela para suas mentes.

O artigo explicou a diferença entre a competência linguística necessária para produzir e compreender a linguagem e as funções cognitivas não específicas da linguagem que são necessárias quando usamos a linguagem em situações concretas do mundo real. A pesquisa sobre a arquitetura funcional do cérebro humano estabeleceu que "a maquinaria dedicada ao processamento da linguagem é separada da maquinaria responsável pela memória, raciocínio e habilidades sociais". Com base nessa distinção, LLMs e chatbots são muito promissores em uma parte da caixa de ferramentas cognitiva humana — o processamento formal da linguagem — mas ficam aquém, pelo menos até agora, em sua capacidade de modelar o pensamento humano.

A engenharia de prompts é agora considerada um dos empregos de tecnologia mais procurados, pois as empresas buscam obter o máximo dos LLMs, evitando resultados incorretos ou inapropriados. Como o artigo do WSJ observou: “Os melhores engenheiros de prompts são pessoas que podem dar instruções muito claras, mas que também entendem os princípios da codificação. Em outras palavras, eles geralmente são ótimos gerentes técnicos. Exceto com engenheiros de prompts, não é um funcionário que eles estão gerenciando, — é uma IA.”

Psicoterapeuta de IA

O que significa ser um psicoterapeuta de IA? De acordo com o artigo do WSJ : “Psicoterapeutas de IA  avaliarão a criação de um modelo, examinando seus dados de treinamento em busca de erros e fontes de viés.”

Como se preocupar sabiamente com a inteligência artificial” foi o tema da edição de 22 de abril de 2023 do The Economist, com vários artigos sobre o assunto. “O rápido progresso na IA está despertando medo e também entusiasmo. Quão preocupado você deveria estar?”, perguntou o artigo da edição. Os defensores da IA ​​argumentam que a IA surgiu como uma das, se não a principal tecnologia definidora do século XXI, com o potencial de nos ajudar a abordar e resolver grandes problemas. Mas outros acreditam que uma IA superinteligente, descontrolada e de rápido avanço representa uma ameaça para a humanidade.

A edição do The Economist incluiu também o ensaio, “Como a IA poderia mudar a computação, a cultura e o curso da história”. O ensaio observa que: “Uma tecnologia não precisa acabar com o mundo para mudá-lo”. Para nos dar uma ideia das transformações que mudam o mundo que podemos esperar da IA, o ensaio cita três fatos históricos: o navegador, a imprensa e as teorias psicanalíticas de Sigmund Freud .

A analogia da prensa tipográfica é bastante direta. A prensa tipográfica , inventada por Johannes Gutenberg por volta de 1440, acelerou a disseminação do conhecimento e da alfabetização na Europa renascentista e influenciou e revolucionou a vida nos séculos seguintes. A própria amplitude da prensa tipográfica torna a comparação com os LLMs quase inevitável. Os livros impressos expandiram o conhecimento ao qual todos nós tivemos acesso, ajudando-nos a gerar mais conhecimento e novos tipos de disciplinas. Da mesma forma, os LLMs treinados em um determinado corpo de conhecimento podem derivar e gerar todos os tipos de conhecimento adicional.

A analogia do navegador é igualmente direta. A internet e a World Wide Web possibilitaram o acesso a uma enorme variedade de informações e aplicativos digitais para qualquer pessoa com um computador pessoal e uma conexão com a internet. O navegador logo se tornou a porta de entrada para a Web. Empresas e instituições do setor público puderam, portanto, se envolver em suas atividades principais de uma forma muito mais produtiva. Chatbots como o ChatGPT podem agora se tornar um novo tipo de interface de conversação para informações e aplicativos.

A terceira grande mudança discutida no ensaio, as teorias psicanalíticas de Freud, requer mais explicações. “Aceitar que LLMs aparentemente humanos são cálculos, estatísticas e nada mais poderia influenciar como as pessoas pensam sobre si mesmas.” Mas até agora, não somos nem mestres dos LLMs e chatbots que criamos. Pesquisadores de IA podem explicar como os algoritmos matemáticos subjacentes às redes neurais profundas funcionam, mas são incapazes de explicar, em termos que um humano geralmente entenderia, como esses algoritmos chegaram a uma resposta específica para nossas perguntas. Em outras palavras, realmente não sabemos como eles funcionam.

Isso levanta duas preocupações: 1) que as IAs têm algum tipo de funcionamento interno que os cientistas ainda não conseguem perceber; ou 2) que é possível passar por humano no mundo social sem qualquer tipo de compreensão interna.”

Freud percebeu que a mente consciente não era o único condutor dos comportamentos humanos. Havia outro condutor, a mente inconsciente , que existe abaixo da superfície da consciência consciente e que pode exercer uma forte influência sobre nossas emoções e ações gerais. Não é preciso subscrever as explicações freudianas do comportamento humano para concordar que as pessoas fazem coisas das quais não têm consciência.

Embora a mente inconsciente possa não ser um modelo satisfatório para ajudar a explicar como os LLMs funcionam, a sensação de que há algo abaixo da superfície da IA ​​que precisa ser compreendida é bem poderosa. Mas, se nossos LLMs e chatbots sem vida continuarem a exibir comportamentos cada vez mais humanos, e ainda não entendermos os motivadores desse comportamento, "então será hora de fazer pela IA algo do que Freud pensou que estava fazendo pelos humanos".

Psicoterapeutas de IA “podem colocar modelos de IA no sofá, sondando-os com perguntas de teste”, disse o artigo do WSJ . “Empresas como IBM, Google e Microsoft estão correndo para lançar novas ferramentas que quantificam e mapeiam os processos de pensamento de uma IA, mas, como os testes de Rorschach, elas exigem que as pessoas interpretem seus resultados. Entender o raciocínio de uma IA será apenas metade do trabalho; ... A outra metade estará aprovando a aptidão mental de um modelo para a tarefa em questão”, porque, como o artigo nos lembra: “Não importa o quão sofisticados os modelos e sistemas se tornem, ... nós, como humanos, somos os responsáveis ​​finais pelos resultados do uso desses sistemas.”   

Nenhum comentário:

Postar um comentário

Observação: somente um membro deste blog pode postar um comentário.

Além da Guerra de Preços: O Oceano Azul na Conectividade Brasileira

Introdução Lançado em 2005 por W. Chan Kim e Renée Mauborgne, A Estratégia do Oceano Azul revolucionou o pensamento estratégico...