Use este identificador para citar ou linkar para este item:
https://repositorio.ufms.br/handle/123456789/13238| Tipo: | Trabalho de Conclusão de Curso |
| Título: | Análise e comparação de técnicas de processamento de linguagem natural aplicadas à tradução automática de texto |
| Autor(es): | JOÃO JOSÉ DA COSTA JÚNIOR |
| Primeiro orientador: | FABRICIO AUGUSTO RODRIGUES |
| Resumo: | Este trabalho apresenta uma análise comparativa entre duas arquiteturas proeminentes de Tradução Automática Neural (NMT): Redes Neurais Recorrentes (RNN) com unidades GRU e a arquitetura Transformer. O estudo parte da hipótese de que os Transformers, devido ao uso de mecanismos de atenção, superam as abor dagens recorrentes em desempenho e capacidade de generalização. Para testar esta hipótese, foram implementados dois protótipos: um modelo RNN-GRU treinado do zero para a tradução de inglês para francês, que alcançou 93,89% de acurácia de va lidação, mas demonstrou limitações com vocabulário desconhecido e complexidade morfológica; e um modelo Transformer pré-treinado (mBART-50) para a mesma tarefa. Os resultados confirmaram a superioridade do Transformer, que obteve um desempenho superior em métricas como BLEU (0.8687) e METEOR (0.9329), ge rando traduções fluentes e precisas. A análise conclui que a arquitetura Transformer, amplamente reconhecida na literatura como o estado da arte em tradução automá tica (VASWANI et al., 2017), oferecendo uma solução mais robusta e eficiente para capturar as nuances sintáticas e semânticas dos idiomas. |
| Abstract: | This work presents a comparative analysis between two prominent Neu ral Machine Translation (NMT) architectures: Recurrent Neural Networks (RNN) with GRU units and the Transformer architecture. The study starts from the hy pothesis that Transformers, due to their use of attention mechanisms, outperform recurrent approaches in terms of performance and generalization capacity. To test this hypothesis, two prototypes were implemented: an RNN-GRU model trained from scratch for English-to-French translation, which achieved 93.89% validation accuracy but showed limitations with unknown vocabulary and morphological com plexity; and a pre-trained Transformer model (mBART-50) for the same task. The results confirmed the superiority of the Transformer, which achieved higher per formance in metrics such as BLEU (0.8687) and METEOR (0.9329), generating fluent and accurate translations. The analysis concludes that the Transformer ar chitecture—widely recognized in the literature as the state of the art in machine translation (VASWANI et al., 2017)—offers a more robust and efficient solution for capturing the syntactic and semantic nuances of languages. |
| País: | |
| Editor: | Fundação Universidade Federal de Mato Grosso do Sul |
| Sigla da Instituição: | UFMS |
| Tipo de acesso: | Acesso Restrito |
| URI: | https://repositorio.ufms.br/handle/123456789/13238 |
| Data do documento: | 2025 |
| Aparece nas coleções: | Sistemas de Informação - Bacharelado (CPPP) |
Arquivos associados a este item:
| Arquivo | Tamanho | Formato | |
|---|---|---|---|
| 25124.pdf | 932,18 kB | Adobe PDF | Visualizar/Abrir |
Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.

