Governos estaduais em todo os EUA estão adotando a inteligência artificial para melhorar a eficiência e a eficácia, mas a cada nova proposta de IA surge uma questão crítica: quando o governo deve dizer “não”? A resposta, como se vê, muitas vezes depende de um fator chave — a privacidade dos dados.
A Ascensão dos "Sandboxes" de IA no Governo
Imagine um laboratório de inovação movimentado onde funcionários estaduais testam novas ferramentas de IA, na esperança de agilizar serviços ou aumentar a segurança pública. Esses "sandboxes" de IA estão se tornando mais comuns, oferecendo um espaço seguro para experimentação. Mas, como explica o Diretor de Informação do Colorado, David Edinger, nem toda ideia sai do sandbox.
O Processo de Avaliação: Mais do que Boas Intenções
A experiência do Colorado é reveladora. De cerca de 120 propostas de IA analisadas, a maioria das rejeições não foi sobre o propósito da tecnologia, mas sobre como os dados seriam tratados. O estado usa o framework NIST (Instituto Nacional de Padrões e Tecnologia) para classificar os níveis de risco — médio, alto ou proibido. Propostas classificadas como "alto risco" passam por uma análise extra, especialmente em relação ao compartilhamento e à privacidade dos dados.
Por exemplo, se um projeto exige o compartilhamento de informações pessoalmente identificáveis (PII), dados de saúde (HIPAA) ou informações do sistema de justiça criminal (CJIS) de maneiras que violem a lei estadual, ele é automaticamente descartado. A intenção por trás da ferramenta de IA pode ser nobre, mas se as práticas de dados não atenderem aos rigorosos padrões governamentais, a resposta é um "não" firme.
Privacidade de Dados: O Fator Decisivo
Esse foco nos dados não é exclusivo do Colorado. O Diretor de Tecnologia da Califórnia, Jonathan Porat, destaca três pilares para avaliar casos de uso de IA:
- Adequação do caso de uso
- Histórico da tecnologia
- Governança e segurança dos dados
A equipe de Porat faz perguntas difíceis: os conjuntos de dados são adequados para IA generativa? Eles são governados e protegidos adequadamente? Se a resposta for incerta, a proposta provavelmente será rejeitada.
Dicas Práticas para Inovadores de IA e Líderes do Setor Público
Se você é uma organização que deseja colaborar com o governo, ou um líder do setor público considerando a adoção de IA, aqui estão alguns passos práticos:
- Priorize a Privacidade dos Dados: Garanta que suas práticas de dados estejam em conformidade com todas as leis e regulamentos relevantes. Seja transparente sobre quais dados são coletados, como são usados e quem tem acesso.
- Use Frameworks Estabelecidos: Adote modelos de avaliação de risco como o framework NIST para avaliar projetos de IA de forma objetiva.
- Envolva Especialistas em Privacidade: Inclua profissionais jurídicos e de privacidade de dados desde o início para identificar possíveis problemas.
- Mantenha a Transparência: Mantenha as partes interessadas informadas sobre o uso dos dados e os processos de tomada de decisão da IA.
- Revise Políticas Regularmente: A tecnologia evolui rapidamente — suas políticas de governança de dados também devem evoluir.
A Conclusão: Inovação Responsável
O caminho para um governo impulsionado por IA é pavimentado tanto por oportunidades quanto por responsabilidades. Ao colocar a privacidade dos dados no centro da tomada de decisões, os estados estão estabelecendo um padrão elevado para uma inovação que realmente serve ao bem público.
Pontos-chave:
- A maioria das rejeições de IA pelo governo ocorre por preocupações com a privacidade dos dados, não pelo uso pretendido.
- Os estados usam frameworks como o NIST para avaliar riscos e orientar decisões.
- Governança, segurança e conformidade dos dados são inegociáveis para projetos de IA no setor público.
- Organizações podem aumentar as chances de aprovação priorizando privacidade e transparência.
- Revisão contínua de políticas é essencial para a adoção responsável da IA.