Use este identificador para citar ou linkar para este item: https://repositorio.ufms.br/handle/123456789/13952
Tipo: Trabalho de Conclusão de Curso
Título: Análise de Alternativas para Mitigar Alucinações em Modelos de Linguagem de Larga Escala
Autor(es): ANGELO HENRIQUE PERES CESTARI JUNIOR
Primeiro orientador: RENATO PORFIRIO ISHII
Resumo: Modelos de linguagem de larga escala (LLMs) têm se tornado centrais em aplicações que exigem geração de texto natural, resolução de problemas e apoio à tomada de decisão. Apesar de seus avanços, esses modelos permanecem suscetíveis ao fenômeno das alucinações, caracterizado pela produção de respostas incorretas ou não verificáveis, o que limita sua utilização em domínios sensíveis. Este trabalho investiga diferentes estratégias de mitigação de alucinações aplicadas ao modelo Llama3.2 3B, avaliando abordagens baseadas em recuperação de informação (RAG), reranqueamento (MMR e reranqueamento neural), verificação interna (Chain-of-Verification) e pós-edição com agente revisor (Answer + Reviewer). Para isso, foram conduzidos experimentos padronizados nos benchmarks TruthfulQA e ARC Challenge, que avaliam, respectivamente, veracidade e capacidade de raciocínio. Os resultados obtidos indicam que técnicas de recuperação de informação mostram ganhos relevantes no ARC Challenge, especialmente o RAG com reranqueamento. Por outro lado, a técnica de verificação interna, representada pelo CoVe, obteve resultados surpreendentes, em comparação com o modelo base, no TruthfulQA. Conclui-se, portanto, que a mitigação efetiva das alucinações depende da natureza da tarefa, e que combinações híbridas entre recuperação e verificação interna representam um caminho promissor para o desenvolvimento de modelos mais confiáveis.
Abstract: Large Language Models (LLMs) have become central to applications requiring natural language generation, problem solving, and decision support. Despite recent advances, these models remain susceptible to the phenomenon of hallucinations, characterized by the production of incorrect or unverifiable responses, which limits their use in sensitive domains. This work investigates different hallucination-mitigation strategies applied to the Llama3.2 3B model, evaluating approaches based on information retrieval (RAG), reranking (MMR and neural reranking), internal verification (Chain-of-Verification), and post-editing with a reviewer agent (Answer + Reviewer). Standardized experiments were conducted on the TruthfulQA and ARC Challenge benchmarks, which evaluate accuracy and reasoning ability, respectively. The results indicate that information-retrieval techniques yield relevant gains in the ARC Challenge—particularly RAG with reranking. Conversely, the internal verification technique, represented by CoVe, achieved remarkably strong results on the TruthfulQA compared with the baseline model. Therefore, we conclude that effective hallucination mitigation depends on the nature of the task and that hybrid combinations of retrieval and internal verification represent a promising direction for developing more reliable language models.
Palavras-chave: modelos de linguagem de larga escala
mitigar alucinações
RAG
verificação interna
País: 
Editor: Fundação Universidade Federal de Mato Grosso do Sul
Sigla da Instituição: UFMS
Tipo de acesso: Acesso Aberto
URI: https://repositorio.ufms.br/handle/123456789/13952
Data do documento: 2025
Aparece nas coleções:Engenharia de Computação - Bacharelado (FACOM)

Arquivos associados a este item:
Arquivo TamanhoFormato 
31178.pdf451,14 kBAdobe PDFVisualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.