Governo
4 min read2 visualizações

Decodificando o RAISE Act de Nova York: Uma Nova Era para a Segurança e Regulamentação da IA

Nova York aprovou o Responsible AI Safety and Education (RAISE) Act, um projeto de lei histórico que visa grandes desenvolvedores de IA. Descubra o que esta nova legislação significa para a segurança da IA, a responsabilização e o futuro dos modelos de fronteira.

Decodificando o RAISE Act de Nova York: Uma Nova Era para a Segurança e Regulamentação da IA

Parece que toda semana ouvimos falar de um novo modelo de IA mais poderoso que pode escrever, codificar ou criar imagens melhor do que nunca. Esse progresso rápido é empolgante, mas também levanta questões importantes sobre segurança e responsabilização. Quem é responsável quando essas ferramentas poderosas falham? Nova York está se adiantando para responder a essa pergunta com uma legislação inovadora.

A legislatura de Nova York acaba de aprovar o Responsible AI Safety and Education Act, ou 'RAISE Act' para abreviar. Este projeto de lei, agora aguardando a assinatura da Governadora Kathy Hochul, estabelece um novo precedente para como os modelos de IA mais poderosos são gerenciados e implantados.

Quem o RAISE Act Visa?

A lei não se aplica a toda startup que experimenta com IA. Ela visa especificamente os grandes players, que ela chama de 'grandes desenvolvedores'. Uma empresa se enquadra nesta categoria se tiver treinado pelo menos um 'modelo de fronteira' e tiver gasto mais de US$ 100 milhões em poder computacional para isso.

Um 'modelo de fronteira' é definido como uma IA de alto nível, seja uma treinada usando uma imensa quantidade de poder computacional (mais de 10^26 operações) ou um modelo ligeiramente menor que foi treinado usando uma técnica chamada 'destilação de conhecimento' de um modelo maior, com um custo computacional excedendo US$ 5 milhões.

A Regra Central: Prevenindo 'Danos Críticos'

O pilar central do RAISE Act é uma proibição clara: grandes desenvolvedores não podem implantar um modelo de fronteira se ele criar um risco irracional de 'dano crítico'. A definição de dano crítico é específica e grave:

  • A morte ou lesão grave de 100 ou mais pessoas.
  • Pelo menos US$ 1 bilhão em danos a propriedades ou direitos financeiros.
  • A criação ou uso de uma arma química, biológica, radiológica ou nuclear (QBRN).
  • Um modelo de IA agindo por conta própria (sem intervenção humana significativa) para cometer um crime grave.

Novas Obrigações para as Grandes Empresas de Tecnologia

Para garantir a conformidade, o RAISE Act impõe várias obrigações importantes aos grandes desenvolvedores antes que possam lançar seus modelos ao público:

  1. Implementar Protocolos de Segurança: Os desenvolvedores devem criar e manter um protocolo detalhado de segurança e proteção por escrito. Este não é apenas um documento a ser arquivado; ele deve ser mantido por cinco anos após o modelo não estar mais em uso.
  2. Divulgação Pública e Governamental: Uma versão redigida deste plano de segurança deve ser publicada publicamente e enviada ao Procurador-Geral (PG) de Nova York e à Divisão de Segurança Interna e Serviços de Emergência (DHS). O PG também pode solicitar a versão completa e não redigida.
  3. Testes Transparentes: Registros de todos os testes de segurança e seus resultados devem ser mantidos, com detalhes suficientes para que um terceiro possa replicar os testes. Isso promove a transparência e a responsabilização.
  4. Salvaguardas Obrigatórias: Os desenvolvedores devem implementar salvaguardas concretas para evitar que o modelo cause danos críticos.

Supervisão Contínua e Relato de Incidentes

O trabalho não para assim que um modelo é implantado. O RAISE Act exige que grandes desenvolvedores realizem uma revisão anual de seus protocolos de segurança para acompanhar as capacidades em evolução do modelo e as melhores práticas da indústria.

Além disso, se ocorrer um 'incidente de segurança', os desenvolvedores têm apenas 72 horas para relatá-lo ao PG e ao DHS. Um incidente de segurança inclui não apenas danos críticos reais, mas também eventos que sinalizam um risco aumentado disso, tais como:

  • O modelo agindo autonomamente sem a solicitação de um usuário.
  • Roubo ou acesso não autorizado à programação central do modelo (seus 'pesos').
  • Uma falha crítica dos controles de segurança.

Uma vez sancionado, o RAISE Act entrará em vigor após 90 dias, marcando um passo significativo para garantir que, à medida que a IA se torna mais poderosa, ela também se torne mais segura e responsável.

Principais Pontos:

  • Regulamentação Direcionada: O RAISE Act foca nos maiores desenvolvedores de IA com os modelos mais poderosos.
  • Foco em Riscos Graves: A lei foi projetada para prevenir resultados catastróficos, definidos como 'dano crítico'.
  • Transparência é Fundamental: Os desenvolvedores devem documentar e divulgar seus protocolos de segurança e procedimentos de teste.
  • Relato Rápido: Um prazo de 72 horas para relatar incidentes de segurança garante uma supervisão governamental ágil.
  • Um Novo Precedente: A lei de Nova York pode servir de modelo para outros estados e até mesmo para a legislação federal sobre segurança da IA.
Artigo usado de inspiração