Indústria de IA e pesquisadores assinam declaração alertando sobre risco de ‘extinção’

Tecnologia



Washington
CNN

Dezenas de líderes da indústria de IA, acadêmicos e até algumas celebridades pediram na terça-feira a redução do risco de aniquilação global devido à inteligência artificial, argumentando em uma breve declaração que a ameaça de um evento de extinção da IA ​​deve ser uma prioridade global.

“Mitigar o risco de extinção da IA ​​deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear”, diz o comunicado publicado pelo Center for AI Safety.

A declaração foi assinada pelos principais funcionários da indústria, incluindo o CEO da OpenAI, Sam Altman; o chamado “padrinho” da IA, Geoffrey Hinton; altos executivos e pesquisadores do Google DeepMind e Anthropic; Kevin Scott, diretor de tecnologia da Microsoft; Bruce Schneier, o pioneiro da segurança e criptografia na Internet; defensor do clima Bill McKibben; e o músico Grimes, entre outros.

O declaração destaca preocupações abrangentes sobre o perigo final da inteligência artificial não controlada. Especialistas em IA disseram que a sociedade ainda está muito longe de desenvolver o tipo de inteligência artificial geral que é o material da ficção científica; os chatbots de ponta de hoje reproduzem em grande parte padrões com base em dados de treinamento que receberam e não pensam por si mesmos.

Ainda assim, a enxurrada de exageros e investimentos na indústria de IA levou a pedidos de regulamentação no início da era da IA, antes que ocorram grandes contratempos.

A declaração segue o sucesso viral do ChatGPT da OpenAI, que ajudou a aumentar uma corrida armamentista na indústria de tecnologia em relação à inteligência artificial. Em resposta, um número crescente de legisladores, grupos de defesa e especialistas em tecnologia levantaram alarmes sobre o potencial de uma nova safra de chatbots com IA para espalhar desinformação e demitir empregos.

Hinton, cujo trabalho pioneiro ajudou a moldar os sistemas de IA de hoje, disse anteriormente à CNN que decidiu deixar seu cargo no Google e “denunciar” a tecnologia depois de “de repente” perceber “que essas coisas estão ficando mais inteligentes do que nós”.

Dan Hendrycks, diretor do Center for AI Safety, disse em um tweet na terça-feira que a declaração proposta pela primeira vez por David Kreuger, professor de IA da Universidade de Cambridge, não impede a sociedade de abordar outros tipos de risco de IA, como viés algorítmico. ou desinformação.

Hendrycks comparou a declaração de terça-feira aos avisos de cientistas atômicos “emitindo avisos sobre as próprias tecnologias que eles criaram”.

“As sociedades podem gerenciar vários riscos ao mesmo tempo; não é ‘ou/ou’, mas ‘sim/e’”, Hendrycks tuitou. “Do ponto de vista da gestão de riscos, assim como seria imprudente priorizar exclusivamente os danos presentes, também seria imprudente ignorá-los.”



Fonte CNN

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *