“Mesmo em um mundo com superinteligência artificial, uma coisa é certa: sempre teremos a responsabilidade de tomar decisões difíceis ”, escrito por Bharat Chandar , — pesquisador de Economia Digital de Stanford , — em seu artigo “A IA não pode tomar suas decisões mais difíceis”. Quase todas as escolhas na vida dependem de duas coisas: inteligência e valores. A IA pode ajudar a melhorar nossa inteligência, mas não oferece nada para nossos valores ao tomar nossas decisões.
Em seu ensaio , Chandar observa que:
- Todas as escolhas importantes dependem tanto da inteligência quanto dos valores.
- Inteligência é a capacidade de compreender as consequências futuras de nossas ações.
- Valores — o que você gosta e não gosta, coisas que você acha certas e erradas — não são principalmente sobre inteligência, então não faz sentido delegar esse tipo de decisão a um computador só porque ele pode ser "mais inteligente" do que nós.
- Isso significa que devemos fazer nossas próprias escolhas, não apenas terceirizar a tomada de decisões para uma IA.
- O alinhamento da IA deve ser projetado para nos permitir fazer isso.
Mesmo em um mundo com superinteligência artificial, sempre teremos a responsabilidade de tomar decisões difíceis. E tomar decisões tão difíceis exige pensamento crítico.
Nos últimos anos, a necessidade de alinhar a inteligência das máquinas e a inteligência humana tem sido um tema comum na pesquisa em IA. Por exemplo, em uma série de artigos sobre o valor econômico da IA, Ajay Agrawal , Joshua Gans e Avi Goldfarb, da Universidade de Toronto, explicaram que as decisões normalmente envolvem duas atividades principais: previsões e julgamento.
Enquanto as previsões geralmente se baseiam em informações concretas e tecnologia, o julgamento se baseia em fatores subjetivos como intuição, sentimentos inconscientes ou analogias com situações semelhantes do nosso passado. O julgamento é a parte da tomada de decisão que, ao contrário da previsão, não pode ser explicitamente descrita e executada por uma máquina.
“Julgamento é a capacidade de tomar decisões ponderadas — de compreender o impacto que diferentes ações terão nos resultados à luz de previsões”, escreveram os autores em um artigo na MIT Sloan Management Review . “Tarefas em que o resultado desejado pode ser facilmente descrito e há necessidade limitada de julgamento humano são geralmente mais fáceis de automatizar. Para outras tarefas, descrever um resultado preciso pode ser mais difícil, especialmente quando o resultado desejado reside na mente humana e não pode ser traduzido em algo que uma máquina possa entender.”
Em “A ÉPOCA da IA”, Isabella Loaiza e Roberto Rigobon, do MIT, escreveram que, em vez de perguntar se as máquinas vão automatizar a maioria dos trabalhos, deveríamos mudar o foco das máquinas para os humanos, fazendo perguntas diferentes, como “como humanos e máquinas podem se complementar" e “quais capacidades humanas complementam as deficiências da IA?”
Com base em uma série de entrevistas com uma ampla gama de especialistas, Loaiza e Rigobon identificaram cinco grupos de capacidades que permitem aos humanos trabalhar em áreas onde as máquinas são limitadas: Empatia e Inteligência Emocional; Presença, Networking e Conectividade; Opinião , Julgamento e Ética; Criatividade e Imaginação; e Esperança, Visão e Liderança, que compõem a sigla EPOCH no título do artigo.
Em um segundo ensaio, “A IA criará uma geração de não pensadores?”, Chandar escreveu sobre suas preocupações de que uma geração de estudantes pode não desenvolver as habilidades críticas necessárias para pensar por si mesmos, porque eles têm confiado cada vez mais na IA para seus cursos e outras tarefas de aprendizagem.
Sabe aquela sensação de olhar para uma página em branco, lutando para encontrar uma resposta para um tópico de uma redação? Formular e articular um pensamento pode levar horas, revisando cada frase, depois lendo tudo para ver se faz sentido. Lidar com o bloqueio criativo para elaborar um argumento convincente era algo difícil. Um rito de passagem para um bom conteúdo e uma comunicação eficaz.
“Os alunos de hoje têm essa experiência?”. “Se a IA pode escrever nossas redações, o que acontece com o pensamento humano?” Ele fez referência a uma pesquisa de 2024 sobre o estado da IA em sala de aula realizada pela Common Sense Media, uma organização educacional sem fins lucrativos. Com base nas respostas de quase 1.050 pais ou responsáveis por adolescentes de 13 a 18 anos, a pesquisa mostrou que:
70% desses adolescentes usaram pelo menos um tipo de ferramenta de IA generativa para diversos fins.
40% dos adolescentes relataram usar IA generativa especificamente para trabalhos escolares, com
41% fazendo isso com a permissão do professor,
46% sem permissão e
12% sem saber se tinham a permissão do professor.
A pesquisa levanta questões problemáticas, disse Chandar. Se a IA estiver sendo usada por boa parte dos alunos para fazer a lição de casa, eles podem não aprender habilidades cruciais porque estão contando com a IA para fazer o trabalho por eles.
Preocupações semelhantes também foram levantadas em um artigo recente no The Economist , “A IA tornará você estúpido?”
O artigo começa descrevendo um estudo recente do MIT, “Seu Cérebro no ChatGPT: Acúmulo de Débito Cognitivo ao Usar um Assistente de IA para Tarefas de Redação”. O estudo descobriu que, embora contar com a ajuda da IA para escrever uma redação certamente aliviasse a carga mental dos alunos, essa ajuda teria um custo. “Ao longo de uma série de sessões de redação, alunos que trabalharam com (e sem) o ChatGPT foram conectados a eletroencefalogramas (EEGS) para medir sua atividade cerebral enquanto trabalhavam. Em geral, os usuários de IA exibiram atividade neural significativamente menor em partes do cérebro associadas às funções criativas e à atenção. Os alunos que escreveram com a ajuda do chatbot também acharam muito mais difícil fornecer uma citação precisa do artigo que acabaram de produzir.”
“As descobertas fazem parte de um trabalho sobre os efeitos potencialmente prejudiciais do uso da IA para a criatividade e a aprendizagem”, disse o The Economist . “Esta pesquisa aponta para questões importantes sobre se os impressionantes ganhos de curto prazo proporcionados pela IA generativa podem incorrer em uma dívida oculta de longo prazo.” Essas descobertas são semelhantes às de outros estudos recentes sobre a relação entre IA e pensamento crítico, como o da Microsoft Research e outro do professor Michael Gerlich da Swiss Business School. Os pesquisadores enfatizaram que essas são descobertas iniciais e muito mais trabalho é necessário para entender se há uma ligação definitiva entre o uso elevado da IA e menores habilidades de pensamento crítico.
Em seu ensaio sobre o impacto da IA na educação, Chandar fez referência a outro artigo no The Economist , “Como a IA dividirá os melhores dos demais”, que levantou uma questão muito importante: a IA poderia acabar ampliando as divisões sociais?
Quando a IA generativa se tornou popular pela primeira vez há alguns anos, havia uma expectativa de que o uso da IA nivelaria o campo de atuação em uma série de ocupações. Por exemplo, um estudo de 2023 descobriu que o acesso a recomendações geradas pela IA aumentou a produtividade de agentes de atendimento ao cliente menos qualificados e menos experientes em cerca de 30%, enquanto teve pouco impacto na proditividade de trabalhadores mais qualificados e experientes. E, em um artigo de 2024, “A IA poderia realmente ajudar a reconstruir a classe média”, o economista do MIT David Autor argumentou que a IA nos oferece a oportunidade de estender o valor da expertise humana a um conjunto maior de trabalhadores que têm o treinamento básico necessário para executar essas tarefas de alto nível.
“No entanto, descobertas mais recentes lançaram dúvidas sobre essa visão”, afirmou o The Economist . “Em vez disso, elas sugerem um futuro em que os que voam alto voam ainda mais alto — e os demais são deixados para trás. Em tarefas complexas como pesquisa e gestão, novas evidências indicam que profissionais de alto desempenho estão mais bem posicionados para trabalhar com IA. Avaliar o resultado de modelos exige expertise e bom senso. Em vez de reduzir as disparidades, a IA provavelmente ampliará as desigualdades na força de trabalho, assim como as revoluções tecnológicas do passado.”
Embora estudos iniciais sugerissem que profissionais com baixo desempenho poderiam se beneficiar simplesmente copiando os resultados da IA, estudos mais recentes analisam tarefas mais complexas, como pesquisa científica, gestão de negócios e investimentos. Nesses contextos, profissionais com alto desempenho se beneficiam muito mais do que seus pares com baixo desempenho. Em alguns casos, trabalhadores menos produtivos não veem nenhuma melhora ou até perdem terreno.
“O que devemos fazer em relação a uma potencial crise de pensamento?”, questionou Bharat Chandar em seu ensaio sobre o impacto da IA na educação. “Ainda é cedo para determinar se algo, deve ser feito para apoiar o pensamento crítico com a adoção da IA. Isso se deve, em parte, à sua rápida evolução e, em parte, à escassez de pesquisas experimentais de alta qualidade que estudem as consequências da IA generativa nas escolhas educacionais. Os dados a serem monitorados incluem tendências de longo prazo no desempenho em resultados de testes padronizados, que, por enquanto, permanecem em fluxo devido às consequências da pandemia. Se as evidências se tornarem preocupantes, devemos desenvolver sistemas para garantir que as gerações futuras tenham as ferramentas necessárias para pensar criticamente.”
Nenhum comentário:
Postar um comentário
Observação: somente um membro deste blog pode postar um comentário.