Use este identificador para citar ou linkar para este item: https://repositorio.ufms.br/handle/123456789/13952
Registro completo de metadados
Campo DCValorIdioma
dc.creatorANGELO HENRIQUE PERES CESTARI JUNIOR-
dc.date.accessioned2025-12-07T15:06:21Z-
dc.date.available2025-12-07T15:06:21Z-
dc.date.issued2025pt_BR
dc.identifier.urihttps://repositorio.ufms.br/handle/123456789/13952-
dc.description.abstractLarge Language Models (LLMs) have become central to applications requiring natural language generation, problem solving, and decision support. Despite recent advances, these models remain susceptible to the phenomenon of hallucinations, characterized by the production of incorrect or unverifiable responses, which limits their use in sensitive domains. This work investigates different hallucination-mitigation strategies applied to the Llama3.2 3B model, evaluating approaches based on information retrieval (RAG), reranking (MMR and neural reranking), internal verification (Chain-of-Verification), and post-editing with a reviewer agent (Answer + Reviewer). Standardized experiments were conducted on the TruthfulQA and ARC Challenge benchmarks, which evaluate accuracy and reasoning ability, respectively. The results indicate that information-retrieval techniques yield relevant gains in the ARC Challenge—particularly RAG with reranking. Conversely, the internal verification technique, represented by CoVe, achieved remarkably strong results on the TruthfulQA compared with the baseline model. Therefore, we conclude that effective hallucination mitigation depends on the nature of the task and that hybrid combinations of retrieval and internal verification represent a promising direction for developing more reliable language models.-
dc.language.isopt_BRpt_BR
dc.publisherFundação Universidade Federal de Mato Grosso do Sulpt_BR
dc.rightsAcesso Abertopt_BR
dc.subjectmodelos de linguagem de larga escala-
dc.subjectmitigar alucinações-
dc.subjectRAG-
dc.subjectverificação interna-
dc.subject.classificationCiências Exatas e da Terrapt_BR
dc.titleAnálise de Alternativas para Mitigar Alucinações em Modelos de Linguagem de Larga Escalapt_BR
dc.typeTrabalho de Conclusão de Cursopt_BR
dc.contributor.advisor1RENATO PORFIRIO ISHII-
dc.description.resumoModelos de linguagem de larga escala (LLMs) têm se tornado centrais em aplicações que exigem geração de texto natural, resolução de problemas e apoio à tomada de decisão. Apesar de seus avanços, esses modelos permanecem suscetíveis ao fenômeno das alucinações, caracterizado pela produção de respostas incorretas ou não verificáveis, o que limita sua utilização em domínios sensíveis. Este trabalho investiga diferentes estratégias de mitigação de alucinações aplicadas ao modelo Llama3.2 3B, avaliando abordagens baseadas em recuperação de informação (RAG), reranqueamento (MMR e reranqueamento neural), verificação interna (Chain-of-Verification) e pós-edição com agente revisor (Answer + Reviewer). Para isso, foram conduzidos experimentos padronizados nos benchmarks TruthfulQA e ARC Challenge, que avaliam, respectivamente, veracidade e capacidade de raciocínio. Os resultados obtidos indicam que técnicas de recuperação de informação mostram ganhos relevantes no ARC Challenge, especialmente o RAG com reranqueamento. Por outro lado, a técnica de verificação interna, representada pelo CoVe, obteve resultados surpreendentes, em comparação com o modelo base, no TruthfulQA. Conclui-se, portanto, que a mitigação efetiva das alucinações depende da natureza da tarefa, e que combinações híbridas entre recuperação e verificação interna representam um caminho promissor para o desenvolvimento de modelos mais confiáveis.pt_BR
dc.publisher.countrynullpt_BR
dc.publisher.initialsUFMSpt_BR
Aparece nas coleções:Engenharia de Computação - Bacharelado (FACOM)

Arquivos associados a este item:
Arquivo TamanhoFormato 
31178.pdf451,14 kBAdobe PDFVisualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.