Use este identificador para citar ou linkar para este item:
https://repositorio.ufms.br/handle/123456789/13952| Tipo: | Trabalho de Conclusão de Curso |
| Título: | Análise de Alternativas para Mitigar Alucinações em Modelos de Linguagem de Larga Escala |
| Autor(es): | ANGELO HENRIQUE PERES CESTARI JUNIOR |
| Primeiro orientador: | RENATO PORFIRIO ISHII |
| Resumo: | Modelos de linguagem de larga escala (LLMs) têm se tornado centrais em aplicações que exigem geração de texto natural, resolução de problemas e apoio à tomada de decisão. Apesar de seus avanços, esses modelos permanecem suscetíveis ao fenômeno das alucinações, caracterizado pela produção de respostas incorretas ou não verificáveis, o que limita sua utilização em domínios sensíveis. Este trabalho investiga diferentes estratégias de mitigação de alucinações aplicadas ao modelo Llama3.2 3B, avaliando abordagens baseadas em recuperação de informação (RAG), reranqueamento (MMR e reranqueamento neural), verificação interna (Chain-of-Verification) e pós-edição com agente revisor (Answer + Reviewer). Para isso, foram conduzidos experimentos padronizados nos benchmarks TruthfulQA e ARC Challenge, que avaliam, respectivamente, veracidade e capacidade de raciocínio. Os resultados obtidos indicam que técnicas de recuperação de informação mostram ganhos relevantes no ARC Challenge, especialmente o RAG com reranqueamento. Por outro lado, a técnica de verificação interna, representada pelo CoVe, obteve resultados surpreendentes, em comparação com o modelo base, no TruthfulQA. Conclui-se, portanto, que a mitigação efetiva das alucinações depende da natureza da tarefa, e que combinações híbridas entre recuperação e verificação interna representam um caminho promissor para o desenvolvimento de modelos mais confiáveis. |
| Abstract: | Large Language Models (LLMs) have become central to applications requiring natural language generation, problem solving, and decision support. Despite recent advances, these models remain susceptible to the phenomenon of hallucinations, characterized by the production of incorrect or unverifiable responses, which limits their use in sensitive domains. This work investigates different hallucination-mitigation strategies applied to the Llama3.2 3B model, evaluating approaches based on information retrieval (RAG), reranking (MMR and neural reranking), internal verification (Chain-of-Verification), and post-editing with a reviewer agent (Answer + Reviewer). Standardized experiments were conducted on the TruthfulQA and ARC Challenge benchmarks, which evaluate accuracy and reasoning ability, respectively. The results indicate that information-retrieval techniques yield relevant gains in the ARC Challenge—particularly RAG with reranking. Conversely, the internal verification technique, represented by CoVe, achieved remarkably strong results on the TruthfulQA compared with the baseline model. Therefore, we conclude that effective hallucination mitigation depends on the nature of the task and that hybrid combinations of retrieval and internal verification represent a promising direction for developing more reliable language models. |
| Palavras-chave: | modelos de linguagem de larga escala mitigar alucinações RAG verificação interna |
| País: | |
| Editor: | Fundação Universidade Federal de Mato Grosso do Sul |
| Sigla da Instituição: | UFMS |
| Tipo de acesso: | Acesso Aberto |
| URI: | https://repositorio.ufms.br/handle/123456789/13952 |
| Data do documento: | 2025 |
| Aparece nas coleções: | Engenharia de Computação - Bacharelado (FACOM) |
Arquivos associados a este item:
| Arquivo | Tamanho | Formato | |
|---|---|---|---|
| 31178.pdf | 451,14 kB | Adobe PDF | Visualizar/Abrir |
Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.

