Skip to content

The purpose of this repository is to share a good way to map and control the trajectory of a generic DDMR robot, using sensor fusion for a better estimate of your position.

Notifications You must be signed in to change notification settings

gabrielhvs/sensory-fusion-in-mobile-robot-location

Repository files navigation

Fusão Sensorial em um Robô Móvel

GitHub build

Português | English

Descrição

De forma geral, o projeto visa a aplicação dos conhecimentos adquiridos dentro do Laboratório eRobótica do Departamento de Engenharia Elétrica da Universidade Federal de Campina Grande a partir de aulas ministradas pelos professores doutores Antonio Marcus Nogueira Lima, Marcos Ricardo Alcântara Morais e Gutemberg Gonçalves dos Santos Júnior. Por meio da criação de uma plataforma robótica de tração diferencial com diferentes sensores, estudar e por fim solucionar o problema de localização. Realizado por meio da leitura e fusão de dados advindos dos sensores, tanto proprioceptivos quanto exteroceptivos, por exemplo, encoders ópticos, LiDAR, IMU, Câmera RGB-D. Esta fusão foi a priori, por meio do Filtro de Kalman Estendido(EKF - Extend Kalman Filter). As simulações e estudos iniciais foram realizadas na plataforma de simulação Gazebo, utilizando o software ROS para realizar a comunicação. Utilização e comparação de diferentes métodos de mapeamento e localização.

Planejamento

# Etapas Status
1 Implementação do modelo no Gazebo Finalizado
2 Inclusão dos sensores no modelo Finalizado
3 Uso dos atuadores e sensores fisícos Finalizado
4 Fusão dos dados dos sensores Finalizado
5 Mapeamento do ambiente por meio dos sensores exteroceptivos Finalizado
5 Localização da plataforma por meio de algoritmos de correspondencia de mapa Finalizado
6 Realizar a análise comparativa entre os resultados de diferentes algoritmos Finalizado

Sensores Utilizados

Outros Materiais

  • Jetson Nano 4 GB
  • Arduino Mega
  • Chassi do Robô
  • Conversor Buck-boost
  • Bateria de 12V

Requerimentos

Documentação

Este Readme.md contém apenas tópicos principais e gerais do desenvolvimento do projeto, cada seção possui Readme’s secundários que ilustram o funcionamento e como utilizar cada dispositivo e ferramenta que compõem o projeto.

Devices

Contém diretórios associados a cada sensor e atuador que foi aplicado no projeto. Possuindo arquivos para configuração do ambiente, exemplos e testes.

Ferramentas

Contém pacotes secundários usados em paralelo aos desenvolvidos para cada sensor. Seja para melhor visualização e auxiliar em cálculos feitos tomando como base os dados oferecidos pelos sensores.

Como utilizar

  1. Faça o clone deste repositório

    git clone https://github.com/gabrielhvs/sensory-fusion-in-mobile-robot-location.git

  2. Instale as bibliotecas necessárias

    Use a instalação padrão python:

    pip install (nome da biblioteca)

    pip3 install (nome da biblioteca)

    Ou use a instalação padrão do sistema LInux:

    sudo apt-get install (nome da biblioteca ou módulo)

Obs: Para melhores explicações sobre execuções de partes específicas do projeto, ou problemas na instalação entre em contato, por meio de nossas redes.

Equipe


Breno Meneses

Gabriel Henrique

Marina Batista

About

The purpose of this repository is to share a good way to map and control the trajectory of a generic DDMR robot, using sensor fusion for a better estimate of your position.

Topics

Resources

Contributing

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Contributors 3

  •  
  •  
  •