Nova Iorque
CNN
—
Geoffrey Hinton, que foi chamado de ‘Padrinho da IA’, confirmou na segunda-feira que deixou seu cargo no Google na semana passada para falar sobre os “perigos” da tecnologia que ajudou a desenvolver.
O trabalho pioneiro de Hinton em redes neurais moldou os sistemas de inteligência artificial que alimentam muitos dos produtos atuais. Ele trabalhou meio período no Google por uma década nos esforços de desenvolvimento de IA da gigante da tecnologia, mas desde então passou a se preocupar com a tecnologia e seu papel em seu avanço.
“Eu me consolo com a desculpa normal: se eu não tivesse feito isso, outra pessoa teria feito”, disse Hinton ao New York Timesque foi o primeiro a relatar sua decisão.
Em um tweet na segunda-feira, Hinton disse que deixou o Google para poder falar livremente sobre os riscos da IA, e não devido ao desejo de criticar o Google especificamente.
“Saí para poder falar sobre os perigos da IA sem considerar como isso afeta o Google”, Hinton disse em um tweet. “O Google agiu com muita responsabilidade.”
Jeff Dean, cientista-chefe do Google, disse que Hinton “fez avanços fundamentais em IA” e expressou gratidão pela “década de contribuições de Hinton no Google”.
“Continuamos comprometidos com uma abordagem responsável da IA”, disse Dean em um comunicado fornecido à CNN. “Estamos continuamente aprendendo a entender os riscos emergentes enquanto também inovamos com ousadia.”
A decisão de Hinton de se afastar da empresa e falar sobre a tecnologia ocorre quando um número crescente de legisladores, grupos de defesa e especialistas em tecnologia levantam alarmes sobre o potencial de uma nova safra de chatbots com inteligência artificial para espalhar desinformação e demitir empregos.
A onda de atenção em torno do ChatGPT no final do ano passado ajudou a renovar uma corrida armamentista entre as empresas de tecnologia para desenvolver e implantar ferramentas de IA semelhantes em seus produtos. OpenAI, Microsoft e Google estão na vanguarda dessa tendência, mas IBM, Amazon, Baidu e Tencent estão trabalhando em tecnologias semelhantes.
Em março, algumas figuras proeminentes da tecnologia assinaram uma carta pedindo que os laboratórios de inteligência artificial interrompessem o treinamento dos sistemas de IA mais poderosos por pelo menos seis meses, citando “riscos profundos para a sociedade e a humanidade”. A carta, Publicados pelo Future of Life Institute, uma organização sem fins lucrativos Apoiado por Elon Musk, veio apenas duas semanas depois que a OpenAI anunciou o GPT-4, uma versão ainda mais poderosa da tecnologia que alimenta o ChatGPT. Nos primeiros testes e em uma demonstração da empresa, o GPT-4 foi usado para redigir ações judiciais, passar em exames padronizados e construir um site funcional a partir de um esboço feito à mão.
Na entrevista ao Times, Hinton ecoou as preocupações sobre o potencial da IA para eliminar empregos e criar um mundo onde muitos “não serão mais capazes de saber o que é verdade”. Ele também apontou para o impressionante ritmo de avanço, muito além do que ele e outros haviam previsto.
“A ideia de que essas coisas poderiam realmente ficar mais inteligentes do que as pessoas – algumas pessoas acreditaram nisso”, disse Hinton na entrevista.. “Mas a maioria das pessoas achou que estava errado. E eu pensei que estava longe. Eu pensei que era de 30 a 50 anos ou até mais longe. Obviamente, não penso mais nisso.”
Mesmo antes de deixar o Google, Hinton havia falado publicamente sobre o potencial da IA tanto para o mal quanto para o bem.
“Acredito que o rápido progresso da IA vai transformar a sociedade de maneiras que não entendemos totalmente e nem todos os efeitos serão bons”, disse Hinton em um comunicado. endereço de início de 2021 no Instituto Indiano de Tecnologia de Bombaim em Mumbai. Ele observou como a IA aumentará a assistência médica e, ao mesmo tempo, criará oportunidades para armas autônomas letais. “Acho essa perspectiva muito mais imediata e muito mais aterrorizante do que a perspectiva de robôs assumirem o controle, o que acho que está muito distante”.
Hinton não é o primeiro funcionário do Google a levantar uma bandeira vermelha na IA. Em julho, a empresa demitiu um engenheiro que alegou que um sistema de IA não lançado havia se tornado senciente, dizendo que ele violou as políticas de emprego e segurança de dados. Muitos na comunidade de IA rejeitaram fortemente a afirmação do engenheiro.