Use este identificador para citar ou linkar para este item:
https://repositorio.ufms.br/handle/123456789/13904Registro completo de metadados
| Campo DC | Valor | Idioma |
|---|---|---|
| dc.creator | GABRIEL SILVEIRA DE OLIVEIRA | - |
| dc.creator | DAVI MORTARI VARGAS | - |
| dc.creator | ISRAEL RIBEIRO ALENCAR | - |
| dc.date.accessioned | 2025-12-06T01:13:45Z | - |
| dc.date.available | 2025-12-06T01:13:45Z | - |
| dc.date.issued | 2025 | pt_BR |
| dc.identifier.uri | https://repositorio.ufms.br/handle/123456789/13904 | - |
| dc.description.abstract | With the increasing demand for efficient Artificial Intelligence solutions, hardware acceleration using Field-Programmable Gate Arrays (FPGAs) has emerged as a powerful alternative to traditional software implementations. However, a significant limitation in many VHDL-based Neural Network designs is their static nature, where the network topology is fixed in the source code, restricting scalability and reuse. To address this rigidity, this work proposes a methodology for the procedural generation of flexible Multi-Layer Perceptron (MLP) architectures. Using VHDL generic parameters and generate statements, the proposed system allows the dynamic instantiation of layers and neurons at synthesis time, enabling rapid prototyping without manual code rewriting. The architecture utilizes fixed-point arithmetic (Q16.16) and offline training in Python to optimize hardware resources. Validation was performed through simulations using ModelSim and synthesis via Intel Quartus II, targeting a Cyclone IV GX device. The results demonstrated a bit-perfect match between the hardware simulation and the software reference model for an XOR problem. Although the generic architecture incurred a higher resource utilization (21\% of Logic Elements) compared to a static equivalent (17\%), the study concludes that this trade-off is justified by the significant gain in flexibility, allowing for the efficient reconfiguration of neural network topologies. | - |
| dc.language.iso | pt_BR | pt_BR |
| dc.publisher | Fundação Universidade Federal de Mato Grosso do Sul | pt_BR |
| dc.rights | Acesso Aberto | pt_BR |
| dc.subject | FPGA | - |
| dc.subject | VHDL | - |
| dc.subject | Redes Neurais | - |
| dc.subject | Aceleração em Hardware | - |
| dc.subject | Geração Procedural | - |
| dc.subject.classification | Engenharia / Tecnologia | pt_BR |
| dc.title | Geração Procedural de Redes Neurais Flexíveis em VHDL para Aceleração em FPGA | pt_BR |
| dc.type | Trabalho de Conclusão de Curso | pt_BR |
| dc.contributor.advisor1 | RENAN ALBUQUERQUE MARKS | - |
| dc.description.resumo | Com a crescente demanda por soluções eficientes de Inteligência Artificial, a aceleração em hardware utilizando Field-Programmable Gate Arrays (FPGAs) surgiu como uma alternativa poderosa às implementações tradicionais em software. No entanto, uma limitação significativa em muitos projetos de Redes Neurais baseados em VHDL é a sua natureza estática, onde a topologia da rede é fixada no código-fonte, restringindo a escalabilidade e o reuso. Para abordar essa rigidez, este trabalho propõe uma metodologia para a geração procedural de arquiteturas flexíveis de Multi-Layer Perceptron (MLP). Utilizando parâmetros generic e instruções generate do VHDL, o sistema proposto permite a instanciação dinâmica de camadas e neurônios em tempo de síntese, possibilitando a prototipagem rápida sem a necessidade de reescrita manual de código. A arquitetura utiliza aritmética de ponto fixo (Q16.16) e treinamento offline em Python para otimizar os recursos de hardware. A validação foi realizada através de simulações utilizando o ModelSim e síntese via Intel Quartus II, visando um dispositivo Cyclone IV GX. Os resultados demonstraram uma correspondência exata (bit-perfect) entre a simulação de hardware e o modelo de referência em software para um problema XOR. Embora a arquitetura genérica tenha apresentado uma maior utilização de recursos (21\% dos Elementos Lógicos) em comparação com um equivalente estático (17\%), o estudo conclui que essa troca (trade-off) é justificada pelo ganho significativo em flexibilidade, permitindo a reconfiguração eficiente de topologias de redes neurais. | pt_BR |
| dc.publisher.country | null | pt_BR |
| dc.publisher.initials | UFMS | pt_BR |
| Aparece nas coleções: | Engenharia de Computação - Bacharelado (FACOM) | |
Arquivos associados a este item:
| Arquivo | Tamanho | Formato | |
|---|---|---|---|
| 23621.pdf | 987,72 kB | Adobe PDF | Visualizar/Abrir |
Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.

