Home Chatbots de IA causam impacto no governo dos EUA e levantam preocupações 
Notícias

Chatbots de IA causam impacto no governo dos EUA e levantam preocupações 

Daniele Savietto

The Tech Report - Português Por Que Confiar em Tech Report Arrow down

O Tech Report é um dos sites de análise de hardware, notícias e tecnologia mais antigos da Internet. Escrevemos guias de tecnologia úteis, fazemos análises imparciais de produtos e trazemos até si as últimas notícias sobre tecnologia e criptografia. Mantemos a independência editorial e não abdicamos da qualidade do conteúdo e da precisão factual.

À medida que a IA se expande para diversas áreas da indústria, não é surpreendente que as agências governamentais também estejam adotando essa tecnologia. No entanto, o uso de IA generativa, como o ChatGPT, nas operações governamentais locais está gerando preocupações em todos os Estados Unidos.

O governo do Condado de Alameda tem educado seus funcionários sobre os riscos associados à IA generativa. No entanto, ainda não emitiu uma política formal.

Recentemente, a Agência de Proteção Ambiental dos Estados Unidos ganhou destaque ao proibir seus funcionários de usar o ChatGPT devido a preocupações com segurança cibernética.

Enquanto isso, o Departamento de Estado dos EUA na Guiné considerou seus funcionários culpados por usar chatbots de IA na criação de postagens em redes sociais e discursos. Esses desenvolvimentos destacam a complexa relação entre a IA generativa e os governos.

Por outro lado, o estado do Maine tomou uma medida incomum ao proibir seus funcionários do poder executivo de utilizar IA generativa pelo resto do ano, temendo problemas de segurança cibernética.

No entanto, Vermont está encorajando funcionários do governo a utilizar chatbots de IA para aprender novas linguagens de programação e criar código interno.

Já na Califórnia, San Jose tem tomado medidas pró-ativas nesse aspecto. A cidade desenvolveu um conjunto abrangente de diretrizes para regular o uso de IA generativa. Além disso, tornou obrigatório que os funcionários municipais preencham um formulário sempre que utilizarem ferramentas de IA.

Desafios de responsabilidade e transparência

A adoção de IA generativa no governo traz consigo uma série de desafios específicos. Dado que as agências governamentais precisam aderir a leis rigorosas para garantir a transparência e manter a responsabilidade cívica, é de suma importância que equilibrem os benefícios da IA com a obrigação de prestar contas.

Como afirmou Jim Loter, diretor de tecnologia interino de Seattle:

“Todos se preocupam com a responsabilidade, mas essa preocupação atinge um nível diferente quando se trata literalmente do governo.”

Além disso, um superintendente assistente em Mason City, Iowa, enfrentou um problema de segurança preocupante quando usou o ChatGPT para decidir quais livros retirar das bibliotecas do distrito. A controvérsia que se seguiu demonstrou os graves problemas de responsabilidade que os funcionários públicos enfrentam ao utilizar ferramentas de IA.

É importante considerar que qualquer entrada usada como prompt em ferramentas de IA está sujeita às leis de divulgação de registros públicos. As ferramentas de IA utilizam esses dados para aprimorar ainda mais seus modelos, o que pode resultar na divulgação de informações sensíveis.

Dessa forma, essa situação cria desafios específicos para agências que atuam nas áreas de saúde e justiça criminal.

Preocupações éticas e benefícios potenciais da IA generativa

Apesar das crescentes preocupações em relação ao uso de ferramentas de IA generativa, as agências governamentais estão explorando maneiras de aproveitar o potencial dessas tecnologias. Por exemplo, no Arizona, o Tribunal Superior do Condado de Maricopa está avaliando a possibilidade de utilizar a IA para tornar documentos legais mais compreensíveis para o público.

No entanto, em San Jose, eles consideram o uso de IA generativa na criação de documentos públicos como algo de “alto risco”. Isso porque essas ferramentas não estão isentas do risco de fornecer informações incorretas aos usuários.

As primeiras políticas regulamentando o uso de ferramentas de IA generativa surgiram em níveis municipais e estaduais. Os funcionários também estão ansiosos para aprender com a experiência uns dos outros.

Especialistas afirmam que o governo federal deve fornecer orientação apropriada para manter padrões éticos e garantir consistência nesse contexto.

The Tech Report - Editorial ProcessNosso processo editorial

A política editorial do Tech Report é centrada em fornecer conteúdo útil e preciso que ofereça verdadeiro valor aos nossos leitores. Trabalhamos apenas com escritores experientes que possuem conhecimento específico nos tópicos que cobrem, incluindo os últimos desenvolvimentos em tecnologia, privacidade online, criptomoedas, software e muito mais. Nossa política editorial garante que cada tópico seja pesquisado e selecionado por nossos editores internos. Mantemos padrões jornalísticos rigorosos e cada artigo é 100% escrito por autores reais.

Daniele Savietto

Daniele Savietto

Daniele Savietto é especialista em tecnopolíticas e sistemas de desinformação, com profundo entendimento da indústria de criptomoedas e mídia digital.

Graduada em Comunicação, possui mestrado em Jornalismo e pós-graduação em Comunicação e Mídia. Atualmente está cursando doutorado e sua pesquisa possui como foco as relações midiáticas.

Além de ter sido um investidor ativo, Daniele traz consigo anos de experiência. Apaixonada pelo papel transformador que a tecnologia pode ter na sociedade, suas habilidades de pesquisa e escrita destacam-no como um especialista na área, fornecendo informações detalhadas e bem fundamentadas sobre as últimas novidades no mundo da criptomoeda, cibersegurança e muito mais!