Use este identificador para citar ou linkar para este item: https://repositorio.ufms.br/handle/123456789/13238
Tipo: Trabalho de Conclusão de Curso
Título: Análise e comparação de técnicas de processamento de linguagem natural aplicadas à tradução automática de texto
Autor(es): JOÃO JOSÉ DA COSTA JÚNIOR
Primeiro orientador: FABRICIO AUGUSTO RODRIGUES
Resumo: Este trabalho apresenta uma análise comparativa entre duas arquiteturas proeminentes de Tradução Automática Neural (NMT): Redes Neurais Recorrentes (RNN) com unidades GRU e a arquitetura Transformer. O estudo parte da hipótese de que os Transformers, devido ao uso de mecanismos de atenção, superam as abor dagens recorrentes em desempenho e capacidade de generalização. Para testar esta hipótese, foram implementados dois protótipos: um modelo RNN-GRU treinado do zero para a tradução de inglês para francês, que alcançou 93,89% de acurácia de va lidação, mas demonstrou limitações com vocabulário desconhecido e complexidade morfológica; e um modelo Transformer pré-treinado (mBART-50) para a mesma tarefa. Os resultados confirmaram a superioridade do Transformer, que obteve um desempenho superior em métricas como BLEU (0.8687) e METEOR (0.9329), ge rando traduções fluentes e precisas. A análise conclui que a arquitetura Transformer, amplamente reconhecida na literatura como o estado da arte em tradução automá tica (VASWANI et al., 2017), oferecendo uma solução mais robusta e eficiente para capturar as nuances sintáticas e semânticas dos idiomas.
Abstract: This work presents a comparative analysis between two prominent Neu ral Machine Translation (NMT) architectures: Recurrent Neural Networks (RNN) with GRU units and the Transformer architecture. The study starts from the hy pothesis that Transformers, due to their use of attention mechanisms, outperform recurrent approaches in terms of performance and generalization capacity. To test this hypothesis, two prototypes were implemented: an RNN-GRU model trained from scratch for English-to-French translation, which achieved 93.89% validation accuracy but showed limitations with unknown vocabulary and morphological com plexity; and a pre-trained Transformer model (mBART-50) for the same task. The results confirmed the superiority of the Transformer, which achieved higher per formance in metrics such as BLEU (0.8687) and METEOR (0.9329), generating fluent and accurate translations. The analysis concludes that the Transformer ar chitecture—widely recognized in the literature as the state of the art in machine translation (VASWANI et al., 2017)—offers a more robust and efficient solution for capturing the syntactic and semantic nuances of languages.
País: 
Editor: Fundação Universidade Federal de Mato Grosso do Sul
Sigla da Instituição: UFMS
Tipo de acesso: Acesso Restrito
URI: https://repositorio.ufms.br/handle/123456789/13238
Data do documento: 2025
Aparece nas coleções:Sistemas de Informação - Bacharelado (CPPP)

Arquivos associados a este item:
Arquivo TamanhoFormato 
25124.pdf932,18 kBAdobe PDFVisualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.