...
Bill Gates. Original public domain image from Flickr

Os riscos da IA são reais, mas administráveis Bill Gates

Os riscos criados pela inteligência artificial podem parecer esmagadores. O que acontece com as pessoas que perdem seus empregos para uma máquina inteligente? A IA poderia afetar os resultados de uma eleição? E se uma futura IA decidir que não precisa mais dos humanos e quiser se livrar de nós?

Todas essas são perguntas justas e as preocupações que elas levantam precisam ser levadas a sério. Mas há uma boa razão para pensar que podemos lidar com eles: não é a primeira vez que uma grande inovação introduz novas ameaças que precisam ser controladas. Já fizemos isso antes.

Seja a introdução dos carros ou a ascensão dos computadores pessoais e da Internet, as pessoas passaram por outros momentos transformadores e, apesar de muita turbulência, saíram-se melhor no final. Logo depois que os primeiros automóveis estavam na estrada, houve o primeiro acidente de carro. Mas não banimos os carros — adotamos limites de velocidade, padrões de segurança, requisitos de licenciamento, leis sobre dirigir embriagado e outras regras de trânsito.

Estamos agora no estágio inicial de outra mudança profunda, a Era da IA. É análogo àqueles tempos incertos antes dos limites de velocidade e dos cintos de segurança. A IA está mudando tão rapidamente que não está claro exatamente o que acontecerá a seguir. Estamos enfrentando grandes questões levantadas pela forma como a tecnologia atual funciona, como as pessoas a usarão para más intenções e como a IA nos mudará como sociedade e como indivíduos.

Num momento como este, é natural sentir-se inquieto. Mas a história mostra que é possível resolver os desafios criados pelas novas tecnologias.

Já escrevi antes sobre como a IA vai revolucionar nossas vidas. Isso ajudará a resolver problemas – em saúde, educação, mudança climática e muito mais – que costumavam parecer intratáveis. A Fundação Gates está tornando isso uma prioridade, e nosso CEO, Mark Suzman, compartilhou recentemente como ele está pensando sobre o papel dela na redução da desigualdade.

Terei mais a dizer no futuro sobre os benefícios da IA, mas neste post, quero reconhecer as preocupações que ouço e leio com mais frequência, muitas das quais compartilho, e explicar como penso sobre elas.

Uma coisa que ficou clara em tudo o que foi escrito até agora sobre os riscos da IA ​​— e muito já foi escrito — é que ninguém tem todas as respostas. Outra coisa que está clara para mim é que o futuro da IA ​​não é tão sombrio quanto algumas pessoas pensam ou tão otimista quanto outras pensam. Os riscos são reais, mas estou otimista de que podem ser administrados. À medida que passo por cada preocupação, voltarei a alguns temas:

  • Muitos dos problemas causados ​​pela IA têm um precedente histórico. Por exemplo, terá um grande impacto na educação, mas o mesmo aconteceu com as calculadoras portáteis há algumas décadas e, mais recentemente, com a permissão de computadores na sala de aula. Podemos aprender com o que funcionou no passado.
  • Muitos dos problemas causados ​​pela IA também podem ser gerenciados com a ajuda da IA.
  • Teremos que adaptar as leis antigas e adotar novas — assim como as leis existentes contra fraude tiveram que ser adaptadas ao mundo online.

Neste post, vou focar nos riscos que já estão presentes, ou logo estarão. Não estou lidando com o que acontece quando desenvolvemos uma IA que pode aprender qualquer assunto ou tarefa, em oposição às IAs de hoje construídas especificamente. Quer cheguemos a esse ponto em uma década ou em um século, a sociedade precisará contar com questões profundas. E se uma super IA estabelecer seus próprios objetivos? E se eles entrarem em conflito com os da humanidade? Deveríamos mesmo fazer uma super IA?

Mas pensar nesses riscos de longo prazo não deve prejudicar os mais imediatos. Vou recorrer a eles agora.

Deepfakes e informações erradas geradas pela IA podem prejudicar as eleições e a democracia.

A ideia de que a tecnologia pode ser usada para espalhar mentiras e inverdades não é nova. As pessoas fazem isso com livros e folhetos há séculos. Tornou-se muito mais fácil com o advento dos processadores de texto, impressoras a laser, e-mail e redes sociais.

A IA pega esse problema de texto falso e o estende, permitindo que praticamente qualquer pessoa crie áudio e vídeo falsos , conhecidos como deepfakes. Se você receber uma mensagem de voz que soe como seu filho dizendo “Fui sequestrado, envie $ 1.000 para esta conta bancária nos próximos 10 minutos e não chame a polícia”, isso terá um impacto emocional terrível além do efeito de um e-mail que diz a mesma coisa.

Em uma escala maior, os deepfakes gerados por IA podem ser usados ​​para tentar influenciar uma eleição. É claro que não é preciso tecnologia sofisticada para semear dúvidas sobre o legítimo vencedor de uma eleição, mas a IA tornará isso mais fácil.

Já existem vídeos falsos que apresentam imagens fabricadas de políticos conhecidos. Imagine que na manhã de uma grande eleição, um vídeo mostrando um dos candidatos roubando um banco se torne viral. É falso, mas os meios de comunicação e a campanha levam várias horas para provar isso. Quantas pessoas vão ver e mudar seus votos no último minuto? Isso pode fazer pender a balança, especialmente em uma eleição acirrada.

Quando o co-fundador da OpenAI, Sam Altman, testemunhou perante um comitê do Senado dos EUA recentemente, os senadores de ambos os partidos se concentraram no impacto da IA ​​nas eleições e na democracia. Espero que este assunto continue na agenda de todos.

Certamente não resolvemos o problema de desinformação e deepfakes. Mas duas coisas me deixam cautelosamente otimista. Uma delas é que as pessoas são capazes de aprender a não aceitar tudo pelo valor de face. Durante anos, os usuários de e-mail caíram em golpes em que alguém se passando por um príncipe nigeriano prometia uma grande recompensa em troca de compartilhar o número do seu cartão de crédito. Mas, eventualmente, a maioria das pessoas aprendeu a olhar duas vezes para esses e-mails. À medida que os golpes se tornavam mais sofisticados, o mesmo acontecia com muitos de seus alvos. Precisamos construir o mesmo músculo para deepfakes.

A outra coisa que me deixa esperançoso é que a IA pode ajudar a identificar deepfakes, bem como criá-los. A Intel, por exemplo, desenvolveu um detector de deepfake , e a agência governamental DARPA está trabalhando em tecnologia para identificar se o vídeo ou o áudio foi manipulado.

Este será um processo cíclico: alguém encontra uma maneira de detectar a falsificação, outra pessoa descobre como combatê-la, outra pessoa desenvolve contra-contra-medidas e assim por diante. Não será um sucesso perfeito, mas também não seremos desamparados.

A IA facilita o lançamento de ataques contra pessoas e governos.

Hoje, quando os hackers querem encontrar falhas exploráveis ​​no software, eles o fazem pela força bruta – escrevendo código que ataca as possíveis fraquezas até descobrir uma maneira de entrar. paciência.

Os especialistas em segurança que desejam combater os hackers precisam fazer a mesma coisa. Cada patch de software que você instala em seu telefone ou laptop representa muitas horas de pesquisa, por pessoas com boas e más intenções.

Os modelos de IA acelerarão esse processo ajudando os hackers a escrever códigos mais eficazes. Eles também poderão usar informações públicas sobre indivíduos, como onde trabalham e quem são seus amigos, para desenvolver ataques de phishing mais avançados do que os que vemos hoje.

A boa notícia é que a IA pode ser usada tanto para propósitos bons quanto para os ruins. As equipes de segurança do governo e do setor privado precisam ter as ferramentas mais recentes para encontrar e corrigir falhas de segurança antes que os criminosos possam se aproveitar delas. Espero que a indústria de segurança de software expanda o trabalho que já está fazendo nessa frente – deve ser uma das principais preocupações deles.

É também por isso que não devemos tentar impedir temporariamente que as pessoas implementem novos desenvolvimentos em IA, como alguns propuseram. Os cibercriminosos não param de criar novas ferramentas. Nem as pessoas que querem usar IA para projetar armas nucleares e ataques bioterroristas. O esforço para detê-los precisa continuar no mesmo ritmo.

Existe um risco relacionado em nível global: uma corrida armamentista por IA que pode ser usada para projetar e lançar ataques cibernéticos contra outros países. Todo governo deseja ter a tecnologia mais poderosa para impedir os ataques de seus adversários. Esse incentivo para não deixar ninguém avançar pode desencadear uma corrida para criar armas cibernéticas cada vez mais perigosas. Todos estariam em situação pior.

Esse é um pensamento assustador, mas temos a história para nos guiar. Embora o regime mundial de não-proliferação nuclear tenha suas falhas, ele evitou a guerra nuclear total da qual minha geração tanto temia quando éramos crianças. Os governos devem considerar a criação de um órgão global para IA semelhante à Agência Internacional de Energia Atômica .

A IA vai tirar os empregos das pessoas.

Nos próximos anos, o principal impacto da IA ​​no trabalho será ajudar as pessoas a trabalhar com mais eficiência. Isso será verdade quer eles trabalhem em uma fábrica ou em um escritório lidando com chamadas de vendas e contas a pagar. Eventualmente, a IA será boa o suficiente para expressar ideias que será capaz de escrever seus e-mails e gerenciar sua caixa de entrada para você. Você poderá escrever uma solicitação em inglês simples ou em qualquer outro idioma e gerar uma apresentação rica sobre seu trabalho.

Como argumentei em meu post de fevereiro, é bom para a sociedade quando a produtividade aumenta. Dá às pessoas mais tempo para fazer outras coisas, no trabalho e em casa. E a demanda por pessoas que ajudam os outros – ensinando, cuidando de pacientes e apoiando os idosos, por exemplo – nunca vai acabar. Mas é verdade que alguns trabalhadores precisarão de suporte e reciclagem enquanto fazemos essa transição para um local de trabalho com tecnologia de IA. Esse é um papel para governos e empresas, e eles precisarão administrá-lo bem para que os trabalhadores não sejam deixados para trás – para evitar o tipo de perturbação na vida das pessoas que aconteceu durante o declínio dos empregos na indústria nos Estados Unidos.

Além disso, lembre-se de que não é a primeira vez que uma nova tecnologia causa uma grande mudança no mercado de trabalho. Não acho que o impacto da IA ​​será tão dramático quanto a Revolução Industrial, mas certamente será tão grande quanto a introdução do PC. Os aplicativos de processamento de texto não acabaram com o trabalho de escritório, mas o mudaram para sempre. Empregadores e empregados tiveram que se adaptar, e o fizeram. A mudança causada pela IA será uma transição acidentada, mas há todos os motivos para pensar que podemos reduzir a interrupção da vida e dos meios de subsistência das pessoas.

A IA herda nossos preconceitos e inventa as coisas.

Alucinações – o termo para quando uma IA faz com confiança alguma afirmação que simplesmente não é verdadeira – geralmente acontecem porque a máquina não entende o contexto de sua solicitação. Peça a uma IA para escrever um conto sobre tirar férias na lua e ela pode lhe dar uma resposta muito imaginativa. Mas peça para ajudá-lo a planejar uma viagem para a Tanzânia, e ele pode tentar mandá-lo para um hotel que não existe.

Outro risco da inteligência artificial é que ela reflete ou até piora preconceitos existentes contra pessoas de certas identidades de gênero, raças, etnias e assim por diante.

Para entender por que alucinações e vieses acontecem, é importante saber como funcionam os modelos de IA mais comuns atualmente. Eles são essencialmente versões muito sofisticadas do código que permite que seu aplicativo de e-mail preveja a próxima palavra que você digitará: eles escaneiam enormes quantidades de texto – quase tudo disponível on-line, em alguns casos – e o analisam para encontrar padrões em linguagem humana.

Quando você faz uma pergunta para uma IA, ela analisa as palavras que você usou e procura trechos de texto frequentemente associados a essas palavras. Se você escrever “listar os ingredientes para panquecas”, pode notar que as palavras “farinha, açúcar, sal, fermento em pó, leite e ovos” geralmente aparecem com essa frase. Então, com base no que sabe sobre a ordem em que essas palavras costumam aparecer, ele gera uma resposta. (Os modelos de IA que funcionam dessa maneira estão usando o que é chamado de transformador. O GPT-4 é um desses modelos.)

Esse processo explica por que uma IA pode ter alucinações ou parecer tendenciosa. Não tem contexto para as perguntas que você faz ou para as coisas que você conta. Se você disser a alguém que cometeu um erro, ele pode dizer: “Desculpe, digitei errado”. Mas isso é uma alucinação – não digitou nada. Ele apenas diz isso porque digitalizou texto suficiente para saber que “Desculpe, digitei errado” é uma frase que as pessoas costumam escrever depois que alguém as corrige.

Da mesma forma, os modelos de IA herdam quaisquer preconceitos inseridos no texto em que são treinados. Se alguém lê muito sobre, digamos, médicos, e o texto menciona principalmente médicos do sexo masculino, então suas respostas assumirão que a maioria dos médicos são homens.

Embora alguns pesquisadores pensem que alucinações são um problema inerente, eu não concordo. Estou otimista de que, com o tempo, os modelos de IA podem ser ensinados a distinguir fato de ficção. A OpenAI, por exemplo, está fazendo um trabalho promissor nessa frente.

Outras organizações, incluindo o Instituto Alan Turing e o Instituto Nacional de Padrões e Tecnologia , estão trabalhando no problema do viés. Uma abordagem é incorporar valores humanos e raciocínio de alto nível na IA. É análogo ao modo como um ser humano autoconsciente funciona: talvez você presuma que a maioria dos médicos são homens, mas você está consciente o suficiente dessa suposição para saber que deve combatê-la intencionalmente. A IA pode operar de maneira semelhante, especialmente se os modelos forem projetados por pessoas de diversas origens.

Por fim, todos que usam IA precisam estar cientes do problema do viés e se tornar um usuário informado. O ensaio que você pede a uma IA para redigir pode estar tão cheio de preconceitos quanto de erros factuais. Você precisará verificar os vieses de sua IA, bem como os seus.

Os alunos não aprenderão a escrever porque a IA fará o trabalho por eles.

Muitos professores estão preocupados com as maneiras pelas quais a IA prejudicará seu trabalho com os alunos. Em uma época em que qualquer pessoa com acesso à Internet pode usar IA para escrever um primeiro rascunho respeitável de um ensaio, o que impedirá os alunos de entregá-lo como seu próprio trabalho?

Já existem ferramentas de IA que estão aprendendo a dizer se algo foi escrito por uma pessoa ou por um computador, para que os professores possam saber quando seus alunos não estão fazendo seu próprio trabalho. Mas alguns professores não estão tentando impedir que seus alunos usem IA em sua escrita – na verdade, eles estão incentivando isso.

Em janeiro, uma professora de inglês veterana chamada Cherie Shields escreveu um artigo na Education Week sobre como ela usa o ChatGPT em sua sala de aula. Ele ajudou seus alunos em tudo, desde começar um ensaio até escrever esboços e até mesmo dar-lhes feedback sobre seu trabalho.

“Os professores terão que adotar a tecnologia de IA como outra ferramenta à qual os alunos têm acesso”, escreveu ela. “Assim como ensinamos os alunos a fazer uma pesquisa adequada no Google, os professores devem criar lições claras sobre como o bot ChatGPT pode ajudar na redação de ensaios. Reconhecer a existência da IA ​​e ajudar os alunos a trabalhar com ela pode revolucionar a forma como ensinamos.” Nem todo professor tem tempo para aprender e usar uma nova ferramenta, mas educadores como Cherie Shields argumentam que aqueles que o fizerem se beneficiarão muito.

Isso me lembra a época em que as calculadoras eletrônicas se popularizaram nas décadas de 1970 e 1980. Alguns professores de matemática temiam que os alunos parassem de aprender aritmética básica, mas outros adotaram a nova tecnologia e se concentraram nas habilidades de raciocínio por trás da aritmética.

Há outra maneira pela qual a IA pode ajudar na escrita e no pensamento crítico. Especialmente nestes primeiros dias, quando alucinações e preconceitos ainda são um problema, os educadores podem fazer com que a IA gere artigos e depois trabalhar com seus alunos para verificar os fatos. Organizações sem fins lucrativos de educação, como a Khan Academy e o OER Project , que financio, oferecem aos professores e alunos ferramentas on-line gratuitas que dão grande ênfase ao teste de afirmações. Poucas habilidades são mais importantes do que saber distinguir o que é verdadeiro do que é falso.

Precisamos garantir que o software educacional ajude a fechar a lacuna de desempenho, em vez de piorá-la. O software de hoje é voltado principalmente para capacitar os alunos que já estão motivados. Ele pode desenvolver um plano de estudo para você, indicar bons recursos e testar seu conhecimento. Mas ainda não sabe como atraí-lo para um assunto no qual você ainda não está interessado. Esse é um problema que os desenvolvedores precisarão resolver para que alunos de todos os tipos possam se beneficiar da IA.

Qual é o próximo?

Acredito que há mais razões do que não para ser otimista de que podemos gerenciar os riscos da IA ​​enquanto maximizamos seus benefícios. Mas precisamos agir rápido.

Os governos precisam desenvolver conhecimentos em inteligência artificial para que possam fazer leis e regulamentos informados que respondam a essa nova tecnologia. Eles precisarão lidar com desinformação e deepfakes, ameaças de segurança, mudanças no mercado de trabalho e o impacto na educação. Para citar apenas um exemplo: a lei precisa ser clara sobre quais usos de deepfakes são legais e sobre como os deepfakes devem ser rotulados para que todos entendam quando algo que estão vendo ou ouvindo não é genuíno

Os líderes políticos precisarão estar equipados para ter um diálogo informado e ponderado com seus constituintes. Eles também precisarão decidir o quanto devem colaborar com outros países nessas questões em vez de fazê-lo sozinhos.

No setor privado, as empresas de IA precisam realizar seu trabalho com segurança e responsabilidade. Isso inclui proteger a privacidade das pessoas, garantindo que seus modelos de IA reflitam valores humanos básicos, minimizando preconceitos, espalhando os benefícios para o maior número possível de pessoas e evitando que a tecnologia seja usada por criminosos ou terroristas. Empresas em muitos setores da economia precisarão ajudar seus funcionários a fazer a transição para um local de trabalho centrado em IA, para que ninguém fique para trás. E os clientes sempre devem saber quando estão interagindo com uma IA e não com um ser humano.

Por fim, encorajo todos a acompanharem os desenvolvimentos da IA ​​tanto quanto possível. É a inovação mais transformadora que qualquer um de nós verá em nossas vidas, e um debate público saudável dependerá de todos estarem bem informados sobre a tecnologia, seus benefícios e seus riscos. Os benefícios serão enormes, e a melhor razão para acreditar que podemos administrar os riscos é que já o fizemos antes.

Fonte: Bill Gates – gatesnotes.com

Seraphinite AcceleratorOptimized by Seraphinite Accelerator
Turns on site high speed to be attractive for people and search engines.