PORTAL DA
TECNOLOGIA DA INFORMAÇÃO E COMUNICAÇÃO
Uso responsável da IA no IFFluminense
| Como representantes do IFFluminense, temos o compromisso de proteger informações institucionais, preservar a privacidade dos cidadãos e garantir o uso ético das tecnologias digitais. |
A Inteligência Artificial (IA) tem sido cada vez mais utilizada no setor público para apoiar atividades como elaboração de textos, criação de materiais e automação de tarefas.
Embora traga muitos benefícios, o uso dessas ferramentas exige atenção. Algumas soluções enviam informações para servidores externos, o que pode representar riscos à privacidade, à segurança das informações e à conformidade com a legislação brasileira.
Por isso, o IFFluminense incentiva o uso responsável da IA, aproveitando seu potencial para melhorar processos e serviços, sempre com cuidado na proteção de dados, na segurança da informação e na verificação dos conteúdos gerados.
Recomendações e boas práticas
Ao utilizar ferramentas de Inteligência Artificial, observe as seguintes orientações:
🚫 Evite inserir informações que você não compartilharia publicamente, pois algumas ferramentas podem utilizar os dados fornecidos para treinamento ou processamento;
🔎 Revise sempre as respostas geradas pela IA antes de utilizá-las em documentos ou comunicações institucionais;
👀 Avalie o conteúdo gerado para garantir que não haja discriminação ou vieses relacionados à raça, religião, gênero, nacionalidade, idade, deficiência ou orientação sexual;
🔗 Indique quando a IA foi utilizada, por exemplo incluindo em documentos a observação:
“Parte do conteúdo foi gerado com o auxílio de Inteligência Artificial”;
🔏 Evite utilizar contas institucionais para testes em ferramentas de IA generativa públicas como: o ChatGPT da OpenAI, o Gemini do Google, o Claude da Anthropic, e outros;
🎞️ Utilize dados fictícios ou simulados durante testes ou demonstrações;
🗣️ Faça testes com temas simples e conteúdos genéricos que você conheça, para entender como a ferramenta responde antes de utilizá-la em materiais institucionais.
📍 Lembre-se: Não insira informações internas da instituição em aplicativos de IA que não sejam soluções oficialmente aprovadas.
Alguns pontos importantes
✔ Dados utilizados por sistemas de IA podem conter vieses ou representações inadequadas como tratamentos desiguais relacionados à idade, raça ou condição social.
✔ Modelos de IA podem gerar informações imprecisas ou fora de contexto.
✔ O uso de IA não substitui a revisão humana.
📍 Lembre-se: O uso inadequado de ferramentas de IA não exime o servidor da responsabilidade sobre o conteúdo produzido.
Riscos associados ao uso de IA
O uso inadequado de ferramentas de IA pode gerar riscos como:
- Exposição de dados pessoais ou institucionais;
- Vazamento de informações confidenciais;
- Violações de propriedade intelectual;
- Disseminação de informações incorretas;
- Danos à reputação da instituição.
⚖ Uso em conformidade com a legislação
O uso de ferramentas de Inteligência Artificial deve respeitar a legislação vigente e os normativos institucionais, especialmente a Lei Geral de Proteção de Dados (LGPD). Isso significa que o uso da IA deve garantir:
- Respeito à privacidade e aos dados pessoais;
- Proteção de informações institucionais;
- Uso ético e responsável das tecnologias;
- Transparência na produção de conteúdos.
Esses cuidados refletem o compromisso do IFFluminense com a segurança da informação e a proteção dos direitos dos cidadãos.
Saiba mais
Este conteúdo foi elaborado com base nas orientações da cartilha:
📄 IA Generativa no Serviço Público — Definições, usos e boas práticas do Governo Federal do Brasil
Acesse a cartilha completa: