Use este identificador para citar ou linkar para este item:
https://repositorio.ifba.edu.br/jspui/handle/123456789/904
Registro completo de metadados
Campo DC | Valor | Idioma |
---|---|---|
dc.creator | Silva, Jeferson Caio Oliveira | - |
dc.date.accessioned | 2025-09-26T13:40:45Z | - |
dc.date.available | 2024-09-09 | - |
dc.date.available | 2025-09-26T13:40:45Z | - |
dc.date.issued | 2024-08-13 | - |
dc.identifier.uri | http://repositorio.ifba.edu.br/jspui/handle/123456789/904 | - |
dc.description.abstract | This work compares intelligent traffic lights, controlled by reinforcement learning, with fixed-time traffic lights according to the Brazilian Traffic Signaling Manual, aiming to evaluate their effectiveness in improving traffic flow and reducing congestion in Brazil. Q-learning and Deep Q-Network (DQN) algorithms were implemented in a simple intersection and a network with three aligned traffic lights. Simulations in the SUMO environment compared the performance of intelligent traffic lights and fixed-time traffic lights in terms of waiting time, number of stops, and average vehicle speed. The results indicated that, in the simple intersection, the DQN system presented a 25% reduction in total stops (7.01 stops) compared to the fixed-time system (9.33 stops). Q-learning presented 8.19 stops. In terms of total waiting time, DQN achieved an average of 39.24 seconds, representing a 58.8% reduction compared to the fixed-time system (95.29 seconds). Q-learning had an average of 66.61 seconds. In the network with three aligned traffic lights, DQN obtained the lowest average total stops (9.74 stops), a reduction of 20.1% compared to the fixed-time system (12.20 stops). Q-learning had an average of 10.96 stops. The total waiting time was lower in DQN (76.94 seconds) compared to the fixed-time system (94.94 seconds) and Q-learning (84.97 seconds). Thus, the implementation of intelligent traffic lights with reinforcement learning can improve traffic management in urban environments. | pt_BR |
dc.language | por | pt_BR |
dc.publisher | Instituto Federal de Educação, Ciência e Tecnologia da Bahia | pt_BR |
dc.rights | Acesso Aberto | pt_BR |
dc.subject | Semáforos inteligentes | pt_BR |
dc.subject | Aprendizado por reforço | pt_BR |
dc.subject | Q-learning | pt_BR |
dc.subject | Gerenciamento de tráfego | pt_BR |
dc.title | Controle adaptativo de tráfego: um estudo comparativo entre aprendizado por reforço e semáforos de tempo fixo | pt_BR |
dc.type | Trabalho de Conclusão de Curso | pt_BR |
dc.creator.Lattes | http://lattes.cnpq.br/5019159581182674 | pt_BR |
dc.contributor.advisor1 | Diaz Amado, Jose Alberto | - |
dc.contributor.advisor1ID | https://orcid.org/0000-0001-8447-784X | pt_BR |
dc.contributor.advisor1Lattes | http://lattes.cnpq.br/4676804219079636 | pt_BR |
dc.contributor.referee1 | Diaz Amado, Jose Alberto | - |
dc.contributor.referee1ID | https://orcid.org/0000-0001-8447-784X | pt_BR |
dc.contributor.referee1Lattes | http://lattes.cnpq.br/4676804219079636 | pt_BR |
dc.contributor.referee2 | Carvalho, Luis Paulo da Silva | - |
dc.contributor.referee2Lattes | http://lattes.cnpq.br/0311325080761195 | pt_BR |
dc.contributor.referee3 | Santos, Marcelo Mendonça dos | - |
dc.contributor.referee3Lattes | http://lattes.cnpq.br/4271397173667661 | pt_BR |
dc.description.resumo | Este trabalho compara semáforos inteligentes, controlados por aprendizado por reforço, com semáforos de tempo fixo conforme o Manual Brasileiro de Sinalização de Trânsito, visando avaliar a eficácia na melhoria do fluxo de tráfego e na redução de congestionamentos do Brasil. Foram implementados algoritmos de Q-learning e Deep Q-Network (DQN) em uma interseção simples e em uma rede com três semáforos alinhados. As simulações no ambiente SUMO compararam o desempenho dos semáforos inteligentes e dos semáforos de tempo fixo em termos de tempo de espera, número de paradas e velocidade média dos veículos. Os resultados indicaram que, na interseção simples, o sistema DQN apresentou uma redução significativa no tempo total de espera, alcançando uma média de 39.24 segundos, representando uma redução de 58.8% em relação ao sistema de tempo fixo (95.29 segundos). O Q-learning teve uma média de 66.61 segundos. Quanto ao número de paradas, o DQN também obteve melhor desempenho, com uma média de 7.01 paradas, uma redução de 24.86% em comparação com o sistema de tempo fixo (9.33 paradas). O Q-learning apresentou 8.19 paradas. Na rede com três semáforos alinhados, o DQN registrou o menor tempo total de espera, com 76.94 segundos, em comparação com o sistema de tempo fixo (94.94 segundos) e o Q-learning (84.97 segundos). Em termos de número de paradas, o DQN obteve a menor média, com 9.74 paradas, uma redução de 20.1% em comparação com o sistema de tempo fixo (12.20 paradas). O Q-learning teve uma média de 10.96 paradas. Assim, a implementação de semáforos inteligentes com aprendizado por reforço pode melhorar a gestão de tráfego em ambientes urbanos. | pt_BR |
dc.publisher.country | Brasil | pt_BR |
dc.publisher.department | Departamento de Ensino Superior/Bacharelado | pt_BR |
dc.publisher.initials | IFBA | pt_BR |
dc.subject.cnpq | CNPQ::ENGENHARIAS | pt_BR |
Aparece nas coleções: | Trabalhos de Conclusão de Cursos (TCCs) - Vitória da Conquista |
Arquivos associados a este item:
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
TCC___Jeferson_Caio.pdf | 3.17 MB | Adobe PDF | Visualizar/Abrir |
Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.
Ferramentas do administrador