The Toxic Side of Counterfeiting

May 16, 2025

Counterfeiting is often seen merely as a commercial issue or a trademark infringement. However, there is a darker and less discussed side to this phenomenon: the real risks to consumer health and safety.

Counterfeit products, ranging from cosmetics and toys to electronics, clothing, and even automotive parts, may contain hazardous substances, defective components, and unsafe manufacturing processes. These factors pose significant risks to the well-being of those who use them.

Unlike legitimate products, which undergo rigorous quality and safety controls, counterfeit products are manufactured without regulation, often using toxic materials with no regard for public health standards. Therefore, understanding the impacts of counterfeiting goes far beyond brand protection; it is also about protecting lives.

Hazardous Chemicals in Counterfeit Products

Many consumers are unaware that a simple counterfeit lipstick may contain lead levels far exceeding the permitted limits. Or that the paints used in counterfeit toys can contain phthalates and heavy metals that affect children’s nervous systems. These products evade regulation, being manufactured in clandestine conditions without any technical oversight.

The situation becomes even more severe with cosmetics, creams, and perfumes, as these products are applied directly to the skin or mucous membranes. Prohibited ingredients, unidentified allergens, and preservatives at irregular concentrations are common in these products, with the potential to cause serious adverse reactions.

In the realm of children’s toys, the consequences can be particularly dangerous. Low-quality plastic, toxic paint, or small detachable parts are frequently found in counterfeit replicas. This compromises not only immediate safety but also the cognitive and physical development of children.

O que é o IA Act?

O IA Act é uma proposta legislativa da União Europeia que estabelece regras para o desenvolvimento, comercialização e utilização de sistemas de IA. Ao contrário de outras regulamentações tradicionais, o IA Act não impõe um conjunto único de regras para todos os sistemas, mas sim distingue os sistemas consoante o nível de risco que representam, permitindo uma abordagem flexível e proporcional.

Esta regulamentação define quatro categorias principais de risco:
– Riscos inaceitáveis
– Riscos elevados
– Riscos limitados
– Riscos mínimos

Esta categorização orienta as obrigações legais, requisitos de transparência, supervisão e monitorização aplicáveis a cada tipo de sistema de IA.

Counterfeiting in Electronic and Automotive Products

In the case of electronics, counterfeit mobile phone chargers, batteries, cables, and headphones pose risks of short circuits, fires, and even explosions. Without safety certifications, these items are manufactured with unstable components that cannot withstand daily use.

The result? Domestic accidents, injuries, and financial losses.

Similarly, counterfeit automotive parts, from brakes to airbags, directly compromise road safety. Often visually identical to the originals but lacking the same performance, these parts fail resistance and impact tests. A failure can cost a life.

Riscos inaceitáveis

Os sistemas classificados como de risco inaceitável são expressamente proibidos. Estes representam uma ameaça clara e grave aos direitos fundamentais ou à segurança dos indivíduos. Um exemplo é o sistema de pontuação social aplicado por alguns governos que avalia cidadãos e restringe direitos com base no comportamento social, podendo conduzir a discriminações sistemáticas e controlo excessivo.
Outro exemplo são as técnicas que manipulam o comportamento dos utilizadores de forma subliminar, sem que estes estejam conscientes desse facto, para influenciar decisões de forma prejudicial.

O IA Act visa impedir a circulação e utilização destes sistemas dentro do mercado europeu, por serem incompatíveis com os valores e direitos garantidos pela UE.

Risco elevado

Sistemas de risco elevado são aqueles que têm impacto direto sobre os direitos fundamentais, segurança e saúde das pessoas. Entre estes, estão incluídos sistemas usados em:

– Recrutamento e seleção de pessoal
– Avaliação de crédito
– Monitorização de infraestruturas críticas (energia, água, transporte)
– Identificação biométrica em tempo real (por exemplo, para vigilância)
– Diagnósticos médicos assistidos por IA
– Sistemas jurídicos automatizados

Para estes sistemas, o IA Act impõe uma série de requisitos rigorosos:
– Avaliação prévia de risco e mitigação de potenciais danos
– Garantias de transparência para que os utilizadores saibam que estão a interagir com IA
– Supervisão humana contínua para evitar decisões automatizadas injustas
– Registos e documentação detalhada para auditorias e responsabilização
– Testes de robustez, segurança e mitigação de vieses

Por exemplo, um sistema automatizado de triagem para recrutamento deverá garantir que não discrimina candidatos com base em género, idade ou etnia e que quaisquer decisões podem ser revistas e corrigidas por um responsável humano.

Riscos limitados

Estes sistemas apresentam riscos moderados e, por isso, são sujeitos a requisitos específicos de transparência. Exemplos comuns são os chatbots, que devem informar o utilizador de forma clara e explícita que estão a interagir com uma máquina. Este requisito garante que a comunicação é honesta e que não há engano sobre a natureza do interlocutor.
Este nível não implica obrigações extensas, mas visa manter a confiança dos utilizadores.

Risco mínimo

A grande maioria dos sistemas de IA enquadra-se nesta categoria, pois apresentam um impacto muito reduzido ou inexistente sobre direitos e segurança. Um exemplo de um sistema de IA de Risco Mínimo são aplicações para sugestão de ortografia. Estes sistemas não estarão sujeitos a obrigações específicas, mas a UE incentiva a aplicação de boas práticas e autorregulação.

The Threat to Consumer Trust

The presence of counterfeit products in the market also undermines consumer trust in legitimate brands. When a consumer unknowingly purchases a defective or dangerous replica, they tend to associate the poor experience with the original brand. This directly affects the brand’s reputation, customer loyalty, and market positioning.

Moreover, counterfeiting harms the competitiveness of companies that comply with regulations, invest in innovation, and adhere to standards. Legitimate products are penalized by unfair competition and uninformed consumers.

The Importance of Legal Protection and Digital Monitoring in Combating Counterfeiting

Dealing with counterfeiting requires a strategic and legal approach. Registering the trademark with the National Institute of Industrial Property (INPI) is only the first step. Active monitoring of the trademark’s use both on digital platforms and at points of sale is essential to detect and respond quickly to cases of misuse.

Desafios e futuro da regulamentação da IA

Smart Packaging: Innovation Against Counterfeiting

To combat counterfeiting, many brands are adopting so-called smart packaging, which helps ensure product authenticity. Technologies such as QR codes, RFID tags, and holographic seals allow consumers to quickly verify the origin and safety of the purchased item.

For example, by scanning a QR code, consumers can access detailed information about the product, such as its origin, composition, and certifications. RFID tags provide traceability by identifying deviations along the distribution chain. Holographic seals and tamper-evident labels also make product replication more difficult.

O IA Act representa um marco na regulação da inteligência artificial, definindo uma estrutura clara e flexível para garantir que a tecnologia serve o interesse público sem comprometer direitos e segurança. A abordagem baseada na definição de riscos é essencial para aplicar regras proporcionais, garantir transparência e fomentar a confiança.

Para todos os agentes envolvidos, desde os criadores até aos utilizadores finais, compreender este quadro legal é fundamental para navegar num futuro cada vez mais marcado pela IA e seguro.