Bloco Associe-se

Associe-se ao Idec

Uso responsável de IA: por que você não deve ignorar isso

Conheça os impactos, os cuidados necessários e os seus direitos ao utilizar sistemas de IA, a fim de proteger a sua saúde e o nosso meio ambiente.

separador

Atualizado: 

11/05/2026
Uso responsável de IA: por que você não deve ignorar isso

A inteligência artificial (IA) já faz parte do nosso dia a dia. Ainda que não perceba, você interage com ela em boa parte do tempo: desde o transporte, quando solicita um carro por aplicativo até no aplicativo do banco, quando solicita limite de crédito. 

Hoje, também temos acesso direto para gerar textos, organizar tarefas, tirar dúvidas e comparar produtos com essas ferramentas. Isso traz praticidade, mas exige atenção. 

Entender como usar sistemas de IA de forma responsável, conhecer os limites éticos e quais cuidados tomar nos permite fazer escolhas bem informadas para lidar melhor com os impactos dessa tecnologia.

 

O que é inteligência artificial?

A inteligência artificial consegue executar tarefas que, antes, apenas pessoas eram capazes de fazer, como entender textos e organizar informações complexas, e ainda são capazes de reconhecer pessoas e padrões de comportamento. Alguns exemplos: os sistemas de reconhecimento facial e os filtros contra spam do seu e-mail. 

E há um tipo específico de IA: a inteligência artificial generativa (IAG), que é mais recente e se popularizou nos últimos anos com ChatGPT, DeepSeek, Gemini e Claude.

Ela é capaz de dar a resposta mais provável a determinado comando, a partir de treinamento de máquina com uma enorme quantidade de dados. Ou seja, ela simula a inteligência humana, mas não é uma inteligência humana. Por isso, é “artificial”.

 

E quais prejuízos a IAG pode causar?

Além de eventuais danos diretos ou indiretos que fornecedores podem causar a quem utiliza IA, também há uma dimensão de responsabilidade individual no uso dessa tecnologia. 

Cada pessoa deve usá-la com responsabilidade, evitando prejuízos adicionais (alguns dos principais conhecidos, demonstrados por dados e evidências científicas, estão listados a seguir). 

Dependência tecnológica 

O uso excessivo de ferramentas como ChatGPT diminui habilidades essencialmente humanas, como capacidade de reflexão, pensamento crítico, tomada de decisão, habilidade de escrita e criatividade. É a chamada “terceirização” do pensamento.  

Além disso, “criar com IA” não é o mesmo que “criar como um humano” — basta ver como a IA opera. O que a IAG faz é prever quais sequências de palavras, imagens ou ações que deve tomar são mais prováveis em um contexto no qual ela foi treinada para interagir e responder. O que nós, humanos, fazemos é bem diferente.

Perpetuação de discriminação

Os algoritmos que alimentam IAs são carregados de vieses, ou seja, de tendências ou distorções presentes nos dados utilizados em seu treinamento.

O caso do pedido de aumento de limite do cartão de crédito exemplifica bem o impacto dos vieses: se os dados que “alimentaram” a IA do aplicativo bancário mostrarem que, estatisticamente, moradores de determinados bairros têm menos acesso a crédito, o sistema seguirá negando aumento a pessoas dessas regiões. 

Além de uma prática discriminatória proibida pelo CDC (art. 6) e pela LGPD (art.20), esse viés mantém a exclusão social de pessoas que vivem em zonas periféricas.

Outra forma de discriminação que também pode ocorrer é envolvendo especificamente uma questão de gênero: se uma empresa que possui mais empregados homens decidir usar uma plataforma de IA para filtrar candidaturas em um processo seletivo, o sistema pode tender ao favorecimento de candidatos do gênero masculino. 

Funciona assim: ao analisar a base de dados da empresa, a IA entende que mulheres não são uma escolha padrão. Daí, acaba preferindo homens, a fim de manter os parâmetros da empresa. A discriminação de gênero vai contra o que diz a Constituição Federal (art. 5º, I), perpetua a desigualdade entre homens e mulheres e dificulta a inserção delas no mercado.

Para mudar o cenário, é preciso garantir que sistemas de IA sejam treinados com dados que representem as diversidades e que sua utilização seja inclusiva e não discriminatória

Desinformação e deepfakes

Com a popularização de IAs capazes de gerar imagens, vídeos e áudios ultrarrealistas, tornou-se fácil criar materiais falsos, inclusive deepfakes (aquele tipo que imita, muito próximo da realidade, a aparência ou a voz de uma pessoa). 

Isso favorece a desinformação, o que é ainda mais prejudicial na aplicação de golpes e em períodos eleitorais, por exemplo.

Violação de privacidade

Por onde quer que se vá, a solicitação de dados pessoais (CPF, endereço, reconhecimento facial para entrada e saída em estabelecimentos) tornou-se corriqueira. 

O uso inadequado desses dados, aliado à violação da privacidade,  seja por falha interna da empresa ou por ataques externos mal-intencionados, facilitam práticas criminosas, como a venda de dados biométricos, que não podem ser alterados pelas pessoas afetadas após um vazamento. 

Consumo de recursos

A necessidade elevada de recursos como água e eletricidade dos data centers torna o uso de inteligência artificial generativa insustentável. 

Além disso, registra um alto nível de emissões de CO2, geração de resíduos eletrônicos e extração de metais raros mundo afora. 

O avanço digital não vai parar e, nesse ritmo, deve agravar a crise ambiental. Para reduzir o uso de recursos naturais e o impacto ambiental, sistemas de IA precisam ser gerenciados racionalmente. Isto é: 

  • criados com intencionalidade por fornecedores comprometidos com a eficiência energética, o uso de fontes renováveis e a transparência no consumo de recursos, sempre em conformidade com normas governamentais; e
  • utilizados de forma moderada e consciente por consumidores responsáveis (que, embora representem impacto global inferior em comparação às grandes empresas, também contribuem para o desenvolvimento sustentável).

 

Como usar IA com responsabilidade?

Sites e aplicativos de IA têm sido utilizados de forma excessiva e irrestrita, como se fossem imparciais, extremamente eficientes e possuidores de todo o conhecimento humano. Isso não é verdade. 

A IA é apenas uma ferramenta, que precisa ser utilizada corretamente, como uma empilhadeira ou um medidor de pressão. Ela não deve substituir o trabalho nem o julgamento humano. 

Os sistemas de IA, especialmente do tipo generativa, foram difundidos há pouco tempo e ainda demandam mais compreensão por parte de quem os utiliza. Para um uso verdadeiramente ético e responsável, confira nossas sugestões de uso para chatbots e geradores de texto, imagem e som. 

Sobretudo, ética e transparência 

Nenhuma IA é neutra: elas são treinadas com dados e vieses que revelam valores e contextos do ambiente em que foram projetadas. 

O uso ético também envolve a transparência ao sinalizar quando uma parte ou a totalidade de um trabalho foi desenvolvida com apoio de IA, como na revisão de um relatório, na análise de dados de uma pesquisa ou na construção de uma apresentação profissional. 

Sempre que produzir conteúdo, solicite à IA que indique fontes, então cheque-as e mencione-as na sua produção. 

A transparência possibilita conhecer a origem das informações, evitando erros sobre a autoria (que podem eventualmente conter trechos derivados de obras protegidas, expondo a riscos quem reproduz sem critério). 

Assim, a transparência ainda viabiliza uma avaliação mais crítica e cuidadosa sobre a confiabilidade do material produzido. 

Utilize como ferramenta de apoio 

Chatbots podem automatizar tarefas operacionais, como transcrever reuniões, mas não tem todo o conhecimento necessário para finalizar a ata e indicar os encaminhamentos desse encontro. 

Nesse sentido, a recomendação é: se você utilizar IA, use-a como uma assistente. Em vez de delegar o processo todo, você dá os comandos e ela executa algumas tarefas básicas que otimizam o seu tempo, mas quem dá a palavra final é você. 

Dessa maneira, é possível aproveitar a otimização de processos que as IAs proporcionam e você direciona recursos (tempo, disposição) para atividades mais estratégicas, sem perder o domínio sobre a criação — e sem deixar a sua marca naquilo que produz. 

Interprete os resultados 

Sistemas de IA não são perfeitos e costumam fornecer informações erradas, seja por:

  • imprecisão (a pergunta foi ampla demais, a IA não possui tais informações no banco de dados) ou
  • alucinação (quando o sistema cria um conteúdo que não existe, apresentando-a como verdadeiro, uma vez que IAs não distinguem realidade de falsidade, apenas organizam as palavras em frases de um modo que parece adequado).

Por isso, receba as informações produzidas como um esboço a ser explorado. Revise dados, afirmações, endereços de sites etc. e use esse resultado como ponto de partida para a sua própria versão. Também vale o contrário: crie sozinho e depois peça uma revisão ou outros pontos de vista para enriquecer o material. 

Proteja informações sensíveis 

Informações pessoais (seu nome, endereço, histórico de saúde), além de números de contas bancárias e processos judiciais são alguns tipos de dados que não devem ser compartilhados com chatbots. 

E informações de terceiros (como fotografias e nomes de outras pessoas ou empresas) não podem ser compartilhadas, exceto diante de autorização. 

Siga orientações 

Para uso acadêmico ou profissional, verifique a existência de um guia ou, ao menos, orientações institucionais sobre o uso de IA. Principalmente, busque segui-las. 

E se você é o responsável ou tem espaço para lançar uma sugestão, fomente a proposta de criação de um guia próprio sobre como usar inteligência artificial, adequado aos valores e regras locais, com base em referências já elaboradas, como os guias do Governo Federal e de universidades federais. 

Tenha em mente a funcionalidade

A disponibilidade das IAs nas 24 horas do dia cria a ilusão de uma presença constante, como um amigo. Inclusive, alguns sistemas, como o ChatGPT, são intencionalmente treinados para simular uma linguagem “acolhedora”, o que cria a falsa impressão de se estar conversando com “alguém que te entende”. 

Isso favorece a dependência emocional de pessoas vulneráveis e, assim, cresce o uso de IA como “terapeuta” para apoio psicológico, o que pode inclusive agravar quadros de saúde mental. 

Um exemplo é a chamada “psicose de IA”, que desenvolve ou piora delírios e paranoias de indivíduos em vulnerabilidade psíquica que interagem excessivamente com sistemas de inteligência artificial generativa.

Nenhuma IA tem capacidade para agir como terapeuta ou consegue substituir vínculos sociais. Como vimos, ferramentas de IA funcionam com algoritmos de previsão, ou seja, selecionam palavra após palavra, baseados em comandos e em probabilidade. 

Elas não têm consciência nem sentimentos, portanto, não conversam, apenas obedecem a comandos pré-determinados. Isso é bem diferente de conversar com familiares, amigos e colegas.

Alguns sistemas de IA, como o ChatGpt, são deliberadamente treinados para simular uma linguagem ‘acolhedora’, o que cria a falsa impressão de se estar conversando com “alguém que te entende” e, assim, favorece a dependência emocional de pessoas vulneráveis. 

Atenção à saúde mental

Os algoritmos de IA reforçam bolhas de informação, prolongam o tempo de uso de telas e criam padrões sociais impossíveis de alcançar. Esses problemas estão escancarados nas redes sociais.

Além disso, no trabalho, a promessa de aumento da produtividade gerada pela automação com IAs pode ser uma cilada que leva a mais e mais sobrecarga de trabalho. 

E todos esses itens podem formar um combo perfeito que contribui com quadros de ansiedade, estresse e dificuldade de concentração. 

Restrinja o acesso de crianças e adolescentes

Os efeitos de dependência tecnológica podem ser ainda mais danosos em crianças e adolescentes, que estão construindo habilidades cognitivas, autoimagem e autonomia. 

Elas não sabem como usar inteligência artificial nem outros recursos da tecnologia. E ainda há os riscos de desinformação e exposição a deepfakes. 

Por esses motivos, a recomendação de especialistas é: proibir o uso de telas (com exceções para fins específicos, como trabalhos escolares e filmes esporadicamente) até, no mínimo, 12 anos de idade. Após, o uso pode ser permitido com limitações e supervisão dos adultos responsáveis.

 

Quais são seus direitos ao usar IA?

Ainda não existe uma legislação específica sobre inteligência artificial no Brasil, mas direitos, como Código de Defesa do Consumidor (CDC), Lei Geral de Proteção de Dados (LGPD), Marco Civil da Internet (MCI), ECA Digital e Constituição Federal podem ser aplicados aqui. 

Direitos do consumidor

As regras do CDC aplicam-se integralmente a produtos e serviços que utilizam IA para consumidores finais. Isso significa que práticas abusivas, como o uso indevido de dados e publicidade enganosa, são ilegais. Se acontecer, os fornecedores são responsáveis pelos prejuízos e cabe pedir reparação por danos morais e patrimoniais, conforme os arts. 6, 12, 14 e 20 do CDC.

Direito à transparência 

Toda pessoa tem direito de saber quando está em contato com IA, como esta é utilizada e como chegou a qualquer decisão que afete-a. 

Por exemplo, se você solicita aumento do limite do cartão de crédito pelo aplicativo bancário e ele é recusado por uma ferramenta de IA, o banco deverá explicar de maneira simples e clara quais critérios do sistema levaram à decisão. 

Isso porque os arts. 6º, VI; 9º; e 20, §1º da LGPD garantem o direito à informação clara e à revisão de decisões automatizadas. 

Direito de contestação e controle 

É o direito de questionar uma decisão feita unicamente por processo automatizado com IA. Previsto no art. 20 da LGPD, esse direito se aplica a qualquer decisão que afete os interesses das pessoas consumidoras

Já o direito de controle existe para proteger dados pessoais, permitindo ao usuário entender quais informações foram coletadas, solicitar que sejam corrigidas ou apagadas e até negar o uso de certos dados, como localização e histórico de saúde. 

Direito à proteção de dados

Como a inteligência artificial opera a partir do processamento de uma enorme quantidade de dados, sempre que isso inclui dados pessoais, aplicam-se as regras da LGPD

Assim, qualquer pessoa pode solicitar a confirmação da existência de tratamento de dados, a anonimização, a portabilidade de dados e a eliminação de dados. Diante de infração, cabe registrar queixa junto à Agência Nacional de Proteção de Dados (ANPD).

Direito à reparação

Prevê a responsabilização de fornecedores que oferecem produtos ou serviços com sistemas de IA, que geram prejuízos a quem consome, independentemente de culpa.

Fundamentado na responsabilidade objetiva do fornecedor, dos arts. 12, 14 e 20 do CDC, o direito à reparação engloba falhas técnicas, danos decorrentes de decisões automatizadas injustas, omissão de riscos, propaganda enganosa etc. 

No caso do aumento do limite de crédito negado, se comprovado ocorrência de prejuízo, constrangimento ou discriminação, o fornecedor responde pelos danos causados.

 

Para resumir

A inteligência artificial já está integrada ao dia a dia — e atravessa quase todos os setores das sociedades. 

Com base no seu perfil e nos dados de pessoas semelhantes, os sistemas de IA analisam padrões de consumo para prever suas preferências e recomendar opções. Desse modo, o que consumimos (vemos, ouvimos, compramos) é cada vez mais mediado por máquinas. 

Embora ainda não existam leis específicas, diversas normas já estabelecidas, como o CDC e a LGPD, protegem os direitos das pessoas consumidoras em contato com sistemas de IA. 

E, ao mesmo tempo que podem gerar avanços, IAs são altamente capazes de provocar danos em nível individual (dependência tecnológica, redução da criatividade, vazamento de dados) e coletivo (perpetuação de discriminações, consumo elevado de recursos do planeta). 

Para evitar isso, use inteligência artificial de forma responsável: com ética e transparência, como uma ferramenta de apoio, protegendo informações sensíveis, sua saúde mental e o acesso de crianças e adolescentes. 

 

Seja parte da mudança

O desenvolvimento adequado das tecnologias que envolvem IA demandam regulação e educação de todos os setores, inclusive das pessoas usuárias. 

O Idec é uma organização sem fins lucrativos que, há quase 40 anos, luta pelos direitos das pessoas nas relações de consumo. Exigimos o fortalecimento de leis, a transparência e o bom uso de qualquer ferramenta que tenha impacto sobre a nossa sociedade. 

Diga não ao uso abusivo dos dados pelo WhatsApp: defenda sua privacidade!