Outro dia me deparei com um artigo sobre ataques que exploram a própria física como arma e imediatamente pensei: já vimos esse filme antes, apenas com personagens diferentes.
Nas décadas de 1970 e 1980, os phone phreakers ou phone phreaking – subcultura de hackers que surgiu nos anos 1960. O termo “phreaking” é uma junção das palavras “phone” (telefone) e “freak” (maluco ou excêntrico). O objetivo dos phone phreakers era explorar as redes de telefonia para entender como elas funcionavam e, em muitos casos, fazer ligações de longa distância de graça. Eles descobriram que tons específicos de áudio eram capazes de enganar os sistemas de telefonia. O caso mais famoso foi o do apito de brinquedo que acompanhava caixas de cereal e que, em mãos experientes, abria portas para ligações internacionais gratuitas. O episódio deixou claro que até a camada mais improvável de um sistema, a física, pode ser explorada.
Hoje, algo semelhante acontece em um contexto muito mais sofisticado. Em julho de 2025, pesquisadores da Universidade de Toronto (Canadá) apresentaram o GPUHammer, ataque que adapta a lógica do RowHammer para placas gráficas modernas. Ao acessar repetidamente certas linhas de memória GDDR6, eles conseguiram induzir alterações em bits vizinhos sem permissão direta para isso. Testes realizados em GPUs NVIDIA A6000 mostraram que, em poucos minutos, era possível corromper dados essenciais para o funcionamento de modelos de inteligência artificial. O resultado foi alarmante: redes neurais como ResNet50 e InceptionV3 tiveram sua acurácia reduzida de cerca de 80% para menos de 1%.
O impacto desse tipo de manipulação é evidente. Pesos de redes neurais podem ser corrompidos, decisões de classificação alteradas e sistemas de detecção de fraude induzidos a validar transações indevidas. Pior: tudo isso pode ocorrer sem deixar rastros óbvios, o que torna a investigação posterior quase impossível. A analogia com os phone phreakers é inevitável — se antes bastava soprar um tom para burlar a infraestrutura telefônica, agora é possível “soprar bits” para manipular a camada invisível que sustenta as IAs.
O alerta chegou oficialmente ao mercado em julho de 2025, quando a NVIDIA publicou um security advisory recomendando que usuários mantenham o ECC (Error Correcting Code) ativado em ambientes críticos. Essa tecnologia é capaz de detectar e corrigir falhas de memória em tempo real, mas tem um custo: exige mais processamento, pode reduzir a performance e encarece as operações. Ainda assim, até o momento, é a principal barreira contra ataques dessa natureza.
No campo da identidade digital e da prevenção a fraudes, esse cenário acende um sinal vermelho. É plausível imaginar um sistema biométrico sendo forçado a aceitar uma face ou voz falsa, algoritmos de análise de comportamento aprovando movimentações financeiras suspeitas ou até registros de auditoria corrompidos sem que ninguém perceba.
Se há algo que duas décadas de experiência em cibersegurança me ensinaram, é que não existe camada inteiramente segura, nem mesmo a física. A grande questão, daqui para frente, será o equilíbrio entre custo, performance e confiança. Até que ponto estamos dispostos a abrir mão de eficiência para garantir a integridade de sistemas que, cada vez mais, tomam decisões críticas em nosso lugar?
Escrito por: Raphael Saraiva
*Raphael Saraiva é Innovation Technology Partner da Netbr, empresa referência em soluções de identidade digital e segurança da informação.