Use este identificador para citar ou linkar para este item:
https://repositorio.ufms.br/handle/123456789/12204
Tipo: | Trabalho de Conclusão de Curso |
Título: | Avaliação Experimental de Métodos de Quantização em Reconhecimento Facial |
Autor(es): | CARLOS HENRIQUE MOITINHO MONTEIRO |
Primeiro orientador: | EDSON TAKASHI MATSUBARA |
Resumo: | Este trabalho realiza uma avaliação experimental dos impactos causados pela quantização de modelos de geração de embeddings aplicados ao reconhecimento facial, comparando dois modelos — FaceNet (baseado em Inception‑ResNet) e TransFace (baseado em Vision Transformer) — sob diferentes representações de precisão (FP32 e INT8) e plataformas de inferência (Torch e ONNX), com experimentos nos datasets LFW, VGGFace2 e CelebA e uso de acurácia Rank‑1 e distância cosseno como métricas de similaridade . Os resultados mostram que o FaceNet é mais robusto à quantização, mantendo sua acurácia mesmo em formatos reduzidos, enquanto o TransFace sofre degradação perceptível ao ser quantizado; além disso, a quantização dos embeddings permite reduzir em até 80% o espaço de armazenamento sem comprometer significativamente o desempenho, indicando a viabilidade da quantização como estratégia de otimização em ambientes com restrições de recursos . |
Abstract: | Este trabalho realiza uma avaliação experimental dos impactos causados pela quantização de modelos de geração de embeddings aplicados ao reconhecimento facial. São comparados dois modelos — FaceNet (baseado em Inception-ResNet) e TransFace (baseado em Vision Transformer) — sob diferentes representações de precisão (FP32 e INT8) e plataformas de inferência (Torch e ONNX). Os experimentos foram conduzidos nos datasets LFW, VGGFace2 e CelebA, com avaliação de acurácia Rank-1 e uso de distância cosseno como métrica de similaridade. Os resultados indicam que modelos mais estabelecidos, como o FaceNet, são mais robustos à quantização, mantendo a acurácia mesmo em formatos reduzidos, enquanto o TransFace sofre degradação perceptível ao ser quantizado. Além disso, a quantização dos vetores resultou em redução de até 80\% no espaço de armazenamento sem comprometer significativamente o desempenho. Estes achados destacam a viabilidade de quantização como estratégia para otimização de modelos em ambientes com restrições de recursos. |
Palavras-chave: | Facenet Transface Quantização LFW VGGFace2 CelebA Torch ONNX |
País: | |
Editor: | Fundação Universidade Federal de Mato Grosso do Sul |
Sigla da Instituição: | UFMS |
Tipo de acesso: | Acesso Aberto |
URI: | https://repositorio.ufms.br/handle/123456789/12204 |
Data do documento: | 2025 |
Aparece nas coleções: | Engenharia de Computação - Bacharelado (FACOM) |
Arquivos associados a este item:
Arquivo | Tamanho | Formato | |
---|---|---|---|
28035.pdf | 1,01 MB | Adobe PDF | Visualizar/Abrir |
Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.