CNN
—
A Microsoft se juntou a um amplo debate global sobre a regulamentação da inteligência artificial na quinta-feira, ecoando pedidos de uma nova agência federal para controlar o desenvolvimento da tecnologia e instando o governo Biden a aprovar novas restrições sobre como o governo dos EUA usa ferramentas de IA.
Em um discurso em Washington com a presença de vários membros do Congresso e grupos da sociedade civil, o presidente da Microsoft, Brad Smith, descreveu a regulamentação da IA como o desafio do século 21, delineando um plano de cinco pontos sobre como as nações democráticas poderiam lidar com os riscos da IA enquanto promovem uma visão liberal para a tecnologia que poderia rivalizar com os esforços concorrentes de países como a China.
As observações destacam como uma das maiores empresas do setor de IA espera influenciar o movimento acelerado dos governos, principalmente na Europa e nos Estados Unidos, para controlar a IA antes que ela cause grandes transtornos à sociedade e à economia.
Em uma aparição de aproximadamente uma hora que era partes iguais de apresentação de produto e proposta de política, Smith comparou a IA à imprensa e descreveu como ela poderia simplificar a formulação de políticas e o alcance dos legisladores, antes de pedir “o estado de direito” para governar a IA em cada parte de seu ciclo de vida e cadeia de suprimentos.
Os regulamentos devem se aplicar a tudo, desde os data centers que treinam grandes modelos de linguagem até os usuários finais, como bancos, hospitais e outros que podem aplicar a tecnologia para tomar decisões que alteram a vida, disse Smith.
Por décadas, “o estado de direito e o compromisso com a democracia mantiveram a tecnologia em seu devido lugar”, disse Smith. “Já fizemos isso antes; Podemos fazer isso de novo.”
Em seus comentários, Smith juntou-se aos apelos feitos na semana passada pela OpenAI – a empresa por trás do ChatGPT e na qual a Microsoft investiu bilhões – para a criação de um novo regulador governamental que possa supervisionar um sistema de licenciamento para desenvolvimento de IA de ponta, combinado com testes e padrões de segurança, bem como regras de divulgação exigidas pelo governo.
A necessidade de um novo regulador federal para policiar a IA está emergindo rapidamente como um ponto focal do debate em Washington; oponentes como a IBM argumentaram, incluindo em um artigo de quinta-feiraque a regulamentação da IA deve ser inserida em todas as agências federais existentes devido à sua compreensão dos setores que supervisionam e como a IA pode ter maior probabilidade de transformá-los.
Smith também pediu ao presidente Joe Biden que desenvolva e assine uma ordem executiva exigindo que as agências federais adquiram ferramentas de IA para implementar uma estrutura de gerenciamento de risco desenvolvida e publicado este ano pelo Instituto Nacional de Padrões e Tecnologia. Essa estrutura, que o Congresso ordenou pela primeira vez com legislação em 2020, abrange maneiras pelas quais as empresas podem usar a IA de maneira responsável e ética.
Tal pedido alavancaria o imenso poder de compra do governo dos EUA para moldar a indústria de IA e incentivar a adoção voluntária de melhores práticas, disse Smith.
A própria Microsoft planeja implementar a estrutura NIST “em todos os nossos serviços”, acrescentou Smith, um compromisso que ele descreveu como resultado direto de uma recente reunião na Casa Branca com CEOs de IA em Washington. Smith também se comprometeu a publicar um relatório anual de transparência de IA.
Como parte da proposta da Microsoft, Smith disse que quaisquer novas regras para IA devem incluir controles de exportação renovados, feitos sob medida para a era da IA, para evitar que a tecnologia seja abusada por entidades sancionadas.
E, disse ele, o governo deveria exigir disjuntores de IA redundantes que permitiriam que os algoritmos fossem desligados por provedores de infraestrutura crítica ou de dentro dos data centers dos quais eles dependem.
As observações de Smith e um documento de política relacionado vêm uma semana depois que o Google lançou suas próprias propostas pedindo cooperação global e padrões comuns para inteligência artificial.
“A IA é importante demais para não ser regulamentada e importante demais para não ser bem regulamentada”, disse Kent Walker, presidente de assuntos globais do Google, em um post de blog revelando o plano da empresa.