Pesquisadores de extremismo digital e autoridades de segurança alertam para o uso crescente de códigos, sinais e linguagem cifrada em perfis do TikTok com o objetivo de exaltar o nazismo e ideologias supremacistas brancas, escapando da moderação automática da plataforma. O fenômeno é parte de um esforço deliberado de grupos neonazistas para contornar regras que proíbem discurso de ódio e apologia a crimes de ódio.
Códigos e sinais mais comuns
Especialistas identificam duas formas principais de conteúdo:
- Explícito: posts com imagens, vídeos e mensagens que exaltam símbolos históricos do nazismo, figuras como Adolf Hitler e slogans de supremacismo branco.
- Cifrado (“algospeak”): uso de números, emojis, hashtags e memes que apenas membros familiarizados com a ideologia conseguem decodificar. Entre eles: números 14 e 88, emojis de águia ou raio duplo, e combinações de palavras e símbolos que substituem frases de ódio.
Tabela prática: códigos e sinais neonazistas
| Código / Sinal | Significado / Contexto | Observações |
| 88 | “HH” → “Heil Hitler” | O número 8 corresponde à letra H no alfabeto. |
| 14 | Lema supremacista branco: “We must secure the existence of our people and a future for white children” | Frequentemente aparece com 88 → “14/88”. |
| 14/88 | Símbolo combinado de supremacismo branco e nazismo | Um dos códigos mais reconhecíveis da extrema-direita radical. |
| H8 | Substituição de “hate” (ódio) | Forma cifrada de linguagem para escapar de moderação automática. |
| Heil8 / HeilH | Referência ao “Heil Hitler” | Adaptado para burlar filtros de redes sociais. |
| RW | Right Wing → extrema-direita | Aparece em hashtags ou nomes de usuário. |
| Águia (🦅) | Símbolo associado ao Reich alemão | Uso contextual em memes ou posts neonazistas. |
| Raio duplo (⚡⚡) | Simbolismo das SS | Frequentemente usado em emojis ou imagens digitais. |
| Árvore / Planta (🌿 / 🌲) | Referência à “pureza racial” | Dog whistle visual; isoladamente parece inofensivo. |
| Sequências de emojis ou símbolos | Substituem palavras ou frases de ódio | Criadas para burlar sistemas de detecção automática. |
| Memes ou piadas históricas | Referências indiretas a Hitler ou ideologia nazista | Nem sempre explícito; exige conhecimento do contexto. |
Desafios de moderação
Plataformas como o TikTok tentam identificar e remover conteúdo extremista por meio de algoritmos, denúncia de usuários e monitoramento humano, mas a constante adaptação dos códigos e sinais torna a detecção automática complexa. Perfis que violam regras frequentemente reaparecem sob novos nomes ou hashtags, e o conteúdo pode alcançar milhões de visualizações antes de ser removido.
Como se proteger e identificar sinais
- Preste atenção ao contexto: nem todos os emojis ou números têm significado extremista isoladamente.
- Observe combinações suspeitas de números, hashtags e memes, especialmente se acompanhadas de linguagem radical.
- Use ferramentas de denúncia da plataforma; nunca compartilhe conteúdos de ódio.
- Educação digital é essencial: pais, professores e jovens devem ser orientados sobre símbolos e sinais de ódio sem exposição direta a material gráfico ou ofensivo.
A disseminação de mensagens neonazistas por meio de linguagem cifrada e códigos secretos é um desafio crescente na internet, exigindo atenção redobrada de usuários, educadores e órgãos de segurança, além de medidas mais robustas de moderação pelas plataformas de redes sociais.
Crescimento de conteúdo extremista e de ódio no Brasil
Crimes de ódio reportados online aumentaram significativamente em 2025 — segundo dados da SaferNet Brasil, as denúncias de conteúdos relacionados a neonazismo cresceram cerca de 64,7% no ano passado, juntamente com outras formas de discurso discriminatório e violento no ambiente digital.
Relatórios de organizações civis mostraram que grupos neonazistas no Brasil cresceram em número nas últimas décadas, com dezenas ou centenas de células organizadas, principalmente no Sul e Sudeste — com registros de crescimento de mais de 270% em poucos anos.
Redes sociais e moderação insuficiente
Pesquisas de veículos independentes e verificadores apontam que em plataformas com moderação menos rígida ou em comentários de vídeos, conteúdos extremistas, discursos odiosos e referências a símbolos proibidos circulam com mais facilidade — e muitos desses espaços são usados para disseminar ideias discriminatórias, inclusive fora do alcance imediato das regras oficiais das plataformas.
Contextos e consequências
A circulação de discursos de ódio não se limita a um único tipo de extremismo; xenofobia, racismo e misoginia tiveram aumentos expressivos nas denúncias no ambiente digital nos últimos anos.
A intersecção entre comunidades de ódio, teorias conspiratórias e grupos online (como em aplicativos de mensagens e fóruns privados) cria ambientes onde ideias extremistas podem se reforçar sem a mesma visibilidade pública ou moderação.
Em resposta, órgãos de segurança e inteligência como a (Serviços e Informações do Brasil) Agência Brasileira de Inteligência (ABIN) têm atualizado protocolos para prevenção de ameaças de extremismo violento, destacando a necessidade de enfrentar formas modernas de radicalização que ocorrem em plataformas mediadas por redes sociais.
O que isso significa
Em resumo, a presença e circulação de conteúdos associados a ideologias extremistas — incluindo neonazismo — têm aumentado no Brasil, tanto em plataformas grandes como TikTok quanto em espaços menos moderados como grupos de mensagem ou comunidades fechadas. Especialistas alertam que o fenômeno está ligado ao aumento de discurso de ódio em geral e à dificuldade das plataformas em moderar conteúdos de forma abrangente, além de refletir tensões sociais mais amplas que também se manifestam online.