Use este identificador para citar ou linkar para este item: https://repositorio.ufms.br/handle/123456789/6170
Registro completo de metadados
Campo DCValorIdioma
dc.creatorLUIZ HENRIQUE DA SILVA SANTOS-
dc.creatorMATHEUS VYCTOR ARANDA ESPÍNDOLA-
dc.date.accessioned2023-07-03T13:23:19Z-
dc.date.available2023-07-03T13:23:19Z-
dc.date.issued2023pt_BR
dc.identifier.urihttps://repositorio.ufms.br/handle/123456789/6170-
dc.description.abstractIncremental Learning deals with a continuous increase in the number of classes over time. The main problem in this context is "catastrophic forgetting," where models lose the ability to solve tasks they originally learned when trained for new tasks, along with the increasing need for computational resources as new training occurs. To address this problem, the proposal evaluates the use of Deep Metric Learning models along with Instance Selection techniques on the CIFAR-100 dataset. In the experimental evaluation, the embeddings were assessed using K-Nearest Neighbor for performance analysis. The EfficientNetV2 Small model was chosen as the backbone. To generate high-dimensional numerical representations reflecting the similarity between classes, a Deep Metric Learning model, Zero-shot, was trained. Subsequently, fine-tuning of the Zero-shot model was performed to learn new classes added to the original dataset. To ensure that the model did not forget the old classes, Instance Selection techniques were employed, such as Random Mutation Hill Climbing (RMHC) and Gaussian Mixture (GM). The goal was to select representative instances of the old classes and reduce noise. The obtained result achieved an accuracy of 78.80% for the original dataset (Task 1) and an accuracy of 82.00% for the dataset with new classes (Task 2). Compared to the Baseline model, there was a reduction of 9.33% for Task 1, for which the Proposed model was initially trained, and a 2.12% increase in accuracy for Task 2. Moreover, the Proposed model required 81.00% fewer instances for training compared to the Baseline model, and the number of epochs was reduced by 87.50%. Thus, the study proposes a fast training approach with a limited training set size that avoids "catastrophic forgetting" of old classes.-
dc.language.isopt_BRpt_BR
dc.publisherFundação Universidade Federal de Mato Grosso do Sulpt_BR
dc.rightsAcesso Abertopt_BR
dc.subjectAprendizado de Métrica-
dc.subjectSeleção de Instâncias-
dc.subjectAprendizado de Máquina-
dc.subjectAprendizado Incremental-
dc.subjectAprendizado Profundo.-
dc.subject.classificationCiências Exatas e da Terrapt_BR
dc.titleEstudo de Seleção de Instâncias em Aprendizado de Métrica para o problema de classificação com Aprendizado Incrementalpt_BR
dc.typeTrabalho de Conclusão de Cursopt_BR
dc.contributor.advisor1EDSON TAKASHI MATSUBARA-
dc.description.resumoAprendizado Incremental lida com um aumento contínuo no número de classes ao longo do tempo. O principal problema nesse contexto é o "esquecimento catastrófico", em que os modelos perdem a capacidade de resolver as tarefas originalmente aprendidas ao serem treinados para novas tarefas; além da necessidade de cada vez mais recursos computacionais conforme novos treinos acontençam. Para contornar esse problema a proposta avalia o uso de modelos de Aprendizado Profundo de Métricas juntamente com técnicas de Seleção de Instâncias no conjunto de dados CIFAR-100. Na valiação experimental os embeddings foram avaliados com K-Nearest Neighbor para análise de desempenho. O modelo EfficientNetV2 Small foi escolhido como backbone. Para gerar representações numéricas de alta dimensionalidade que refletem a similaridade entre as classes foi treinado um modelo de Aprendizado Profundo de Métricas, chamado Zero-shot. Em seguida, o fine-tuning do modelo Zero-shot foi realizado para aprender novas classes adicionadas ao conjunto de dados original. Para garantir que o modelo não esquecesse as classes antigas, técnicas de Seleção de Instâncias foram utilizadas, como o Random Mutation Hill Climbing (RMHC) e o Gaussian Mixture (GM). O intuito é selecionar instâncias representativas das classes antigas e reduzir ruídos. O resultado obtido obteve uma acurácia de 78,80% para o conjunto de dados original (Tarefa 1), e uma acurácia de 82,00% para o conjunto com novas classes (Tarefa 2). Comparado com o modelo Baseline, houve uma redução de 9,33% para a Tarefa 1 -- a qual o modelo Proposto foi inicialmente treinado -- e um aumento em 2,12% de acurácia para a Tarefa 2. Já a quantidade de instâncias necessárias para o treino do modelo Proposto foi 81,00% menor do que o modelo Baseline, e a quantidade de épocas foi 87,50% menor. Dessa forma, o estudo propõem um treino rápido com tamanho limitado do conjunto de treino que evita o "esquecimento catastrófico" das classes antigas.pt_BR
dc.publisher.countrynullpt_BR
dc.publisher.initialsUFMSpt_BR
Aparece nas coleções:Engenharia de Computação - Bacharelado (FACOM)

Arquivos associados a este item:
Arquivo TamanhoFormato 
1900.pdf294,91 kBAdobe PDFVisualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.