PORTAL DA TECNOLOGIA DA INFORMAÇÃO E COMUNICAÇÃO

Uso responsável da IA no IFFluminense

Como representantes do IFFluminense, temos o compromisso de proteger informações institucionais, preservar a privacidade dos cidadãos e garantir o uso ético das tecnologias digitais.

 

A Inteligência Artificial (IA) tem sido cada vez mais utilizada no setor público para apoiar atividades como elaboração de textos, criação de materiais e automação de tarefas.

Embora traga muitos benefícios, o uso dessas ferramentas exige atenção. Algumas soluções enviam informações para servidores externos, o que pode representar riscos à privacidade, à segurança das informações e à conformidade com a legislação brasileira.

Por isso, o IFFluminense incentiva o uso responsável da IA, aproveitando seu potencial para melhorar processos e serviços, sempre com cuidado na proteção de dados, na segurança da informação e na verificação dos conteúdos gerados.

 

Recomendações e boas práticas

Ao utilizar ferramentas de Inteligência Artificial, observe as seguintes orientações:

🚫 Evite inserir informações que você não compartilharia publicamente, pois algumas ferramentas podem utilizar os dados fornecidos para treinamento ou processamento;

🔎 Revise sempre as respostas geradas pela IA antes de utilizá-las em documentos ou comunicações institucionais;

👀 Avalie o conteúdo gerado para garantir que não haja discriminação ou vieses relacionados à raça, religião, gênero, nacionalidade, idade, deficiência ou orientação sexual;

🔗 Indique quando a IA foi utilizada, por exemplo incluindo em documentos a observação:
“Parte do conteúdo foi gerado com o auxílio de Inteligência Artificial”;

🔏 Evite utilizar contas institucionais para testes em ferramentas de IA generativa públicas como: o ChatGPT da OpenAI, o Gemini do Google, o Claude da Anthropic, e outros;

🎞️ Utilize dados fictícios ou simulados durante testes ou demonstrações;

🗣️ Faça testes com temas simples e conteúdos genéricos que você conheça, para entender como a ferramenta responde antes de utilizá-la em materiais institucionais.

📍 Lembre-se: Não insira informações internas da instituição em aplicativos de IA que não sejam soluções oficialmente aprovadas. 

 

Alguns pontos importantes

✔ Dados utilizados por sistemas de IA podem conter vieses ou representações inadequadas como tratamentos desiguais relacionados à idade, raça ou condição social.

✔ Modelos de IA podem gerar informações imprecisas ou fora de contexto.

✔ O uso de IA não substitui a revisão humana.

📍 Lembre-se: O uso inadequado de ferramentas de IA não exime o servidor da responsabilidade sobre o conteúdo produzido.

 

Riscos associados ao uso de IA

O uso inadequado de ferramentas de IA pode gerar riscos como:

  • Exposição de dados pessoais ou institucionais;
  • Vazamento de informações confidenciais;
  • Violações de propriedade intelectual;
  • Disseminação de informações incorretas;
  • Danos à reputação da instituição.

 

⚖ Uso em conformidade com a legislação

O uso de ferramentas de Inteligência Artificial deve respeitar a legislação vigente e os normativos institucionais, especialmente a Lei Geral de Proteção de Dados (LGPD). Isso significa que o uso da IA deve garantir:

  • Respeito à privacidade e aos dados pessoais;
  • Proteção de informações institucionais;
  • Uso ético e responsável das tecnologias;
  • Transparência na produção de conteúdos.

 

Esses cuidados refletem o compromisso do IFFluminense com a segurança da informação e a proteção dos direitos dos cidadãos.

 

Saiba mais

Este conteúdo foi elaborado com base nas orientações da cartilha:

📄 IA Generativa no Serviço Público — Definições, usos e boas práticas do Governo Federal do Brasil

Acesse a cartilha completa:

🔗 https://www.gov.br/governodigital/pt-br/infraestrutura-nacional-de-dados/inteligencia-artificial-1/ia-generativa-no-servico-publico.pdf

🔗 https://www.gov.br/governodigital/pt-br/infraestrutura-nacional-de-dados/inteligencia-artificial-1/publicacoes/cartilha-ia-generativa