Já se perguntou se poderia usar o ChatGPT para ajudar a redigir um e-mail ou resumir um relatório para o seu trabalho no governo? Em Delaware, os funcionários estaduais agora têm uma resposta clara. O estado deu um passo proativo em direção ao futuro do trabalho, lançando uma política abrangente para orientar sua força de trabalho sobre o uso responsável da IA generativa.
O Departamento de Tecnologia e Informação de Delaware (DTI) revelou recentemente sua 'Política Empresarial sobre Inteligência Artificial Generativa', um documento projetado para desmistificar o uso de ferramentas poderosas como o ChatGPT em um ambiente governamental. À medida que os funcionários usam cada vez mais a IA em suas vidas pessoais, as perguntas sobre seu lugar no local de trabalho aumentaram. Esta nova política visa fornecer clareza e confiança.
Traçando uma Linha: IA Pública vs. IA Empresarial
A pedra angular das novas diretrizes é a distinção entre dois tipos de ferramentas de IA:
- Ferramentas GenAI Públicas: São as plataformas de nível de consumidor com as quais todos estamos familiarizados, como o ChatGPT. A política permite seu uso para aprendizado e tarefas não sensíveis, mas proíbe estritamente a inserção de quaisquer dados estaduais confidenciais. Uma regra fundamental é que quaisquer ferramentas proibidas incluem aquelas originadas ou localizadas fora dos Estados Unidos.
- Ferramentas GenAI Empresariais: São sistemas especificamente contratados e licenciados pelo estado. Eles são projetados para serem seguros, proteger dados estaduais e integrar-se com sistemas de gerenciamento de identidade governamentais. Pense neles como um ambiente seguro e privado para a inovação.
Anthony Collins, Diretor de Arquitetura Empresarial e Integração de Soluções do DTI, enfatizou o papel da política na salvaguarda das informações. “Este é o primeiro passo... para ajudar os funcionários a saber qual é o uso aceitável e como nós, juntos, podemos proteger os valiosos ativos de dados que temos dentro do estado”, explicou ele.
Capacitando Funcionários, com Responsabilidade
O objetivo não é sufocar a criatividade, mas canalizá-la com segurança. Antes que um funcionário possa usar uma ferramenta de IA empresarial poderosa, a tarefa deve passar por um processo de aprovação, garantindo que os responsáveis pelos dados compreendam os riscos e benefícios envolvidos. Isso estabelece um equilíbrio crucial entre capacitação e governança.
Autoridades estaduais saudaram a iniciativa. O membro da comissão Owen Lefkon notou o entusiasmo entre a equipe, afirmando: “Todo mundo está dizendo: ‘Quero usar IA para me ajudar a fazer meu trabalho.’ Nós, é claro, queremos capacitar nossa equipe. Mas queremos fazê-lo de forma compatível, com o treinamento apropriado.”
O Que Vem Por Aí para Delaware?
Esta política é apenas o começo. Um subcomitê da Comissão de IA de Delaware agora está encarregado de desenvolver programas de treinamento para funcionários para garantir que todos entendam como usar a IA de maneira “responsável e também com princípios”. Além disso, o estado está explorando a criação de um 'sandbox de IA agêntica' — um campo de testes para tecnologias de IA mais avançadas e autônomas.
A abordagem inovadora de Delaware fornece um modelo valioso para outros governos que navegam pelas complexidades da revolução da IA, provando que inovação e segurança podem andar de mãos dadas.
Principais Pontos:
- Diretrizes Claras: Delaware agora tem uma política formal para funcionários estaduais que usam IA generativa.
- Dados são Prioridade: Dados estaduais confidenciais são estritamente proibidos de serem usados em ferramentas de IA públicas, de nível de consumidor.
- Sistema de Dois Níveis: A política distingue entre IA pública e ferramentas de IA 'empresariais' seguras e aprovadas pelo estado.
- Aprovação para Uso Poderoso: O uso de IA empresarial para tarefas específicas requer aprovação para gerenciar riscos.
- Foco na Educação: O próximo passo envolve treinamento abrangente para todos os funcionários estaduais.