Mudanças entre as edições de "Planejamento da Volta-da-UFES"

De LCAD
Ir para: navegação, pesquisa
Linha 16: Linha 16:
 
# Um módulo Carmen capaz de determinar a posição do robô com relação aos limites da pista onde ele eventualmente estiver usando:
 
# Um módulo Carmen capaz de determinar a posição do robô com relação aos limites da pista onde ele eventualmente estiver usando:
 
## V-disparity obtido a partir de imagens de câmeras frontais
 
## V-disparity obtido a partir de imagens de câmeras frontais
## mapa de disparidade/profundidades computados a partir de imagens de câmeras laterais (V-disparity?)
+
## mapa de disparidade/profundidades computados a partir de imagens de câmeras laterais (V-disparity pode ser útil para localizar obstáculos nas laterais das pistas, por exemplo árvores, postes e arbustos que servem como exemplos negativos de pista, para treinar uma rede neural).CUIDADO: como visão estéreo não é perfeito, o negativo do mapa de obstáculos não é a pista.
 
## mapas 2D instantâneos de obstáculos e não obstáculos em torno do robô
 
## mapas 2D instantâneos de obstáculos e não obstáculos em torno do robô
 
# Um módulo Carmen capaz de extender a '''visão da pista''' para além da região à frente tocada pelos LIDAR de modo a ampliar os mapas 2D instantâneos de obstáculos e não obstáculos em torno do robô usando:
 
# Um módulo Carmen capaz de extender a '''visão da pista''' para além da região à frente tocada pelos LIDAR de modo a ampliar os mapas 2D instantâneos de obstáculos e não obstáculos em torno do robô usando:
 
## mapas 2D instantâneos de obstáculos e não obstáculos em torno do robô
 
## mapas 2D instantâneos de obstáculos e não obstáculos em torno do robô
## visão artificial (reconhecimento de imagens)
+
## visão artificial (reconhecimento de imagens) e algoritmos de Machine Learning (por exemplo, baseado em mistura de Gaussianas)
## projeção da pista identificada nas imagens das câmeras forntais em um mapa 2D e extensão dos mapas 2D instantâneos de obstáculos e não obstáculos em torno do robô de acordo
+
## projeção da pista identificada nas imagens das câmeras frontais em um mapa 2D e extensão dos mapas 2D instantâneos de obstáculos e não obstáculos em torno do robô de acordo
 
# Teste/extensão do módulo de SLAM de modo a extender o mapa de SLAM usando a informação obtida via visão artificial
 
# Teste/extensão do módulo de SLAM de modo a extender o mapa de SLAM usando a informação obtida via visão artificial
 
# Um módulo Carmen que permita a navegação suave do robô através das pistas do mapa da volta da UFES usando:
 
# Um módulo Carmen que permita a navegação suave do robô através das pistas do mapa da volta da UFES usando:

Edição das 18h30min de 28 de setembro de 2011

Para a volta da UFES precisamos de:

  1. Um robô e seus Sensores
  2. Um módulo Carmen que compute a posição 6D do robô com relação a pista onde ele estiver a partir dos dados dos sensores do robô
  3. Um módulo Carmen que compute mapas instantâneos 2D centrados no robô de obstáculos e não obstáculos em torno do robô usando:
    1. dados de LIDAR apontados para o chão
    2. a posição 6D do robô com relação ao chão
  4. Um módulo Carmen que, por meio de SLAM, compute o mapa da volta da UFES usando (módulo de SLAM):
    1. mapas 2D instantâneos de obstáculos e não obstáculos em torno do robô
    2. o ângulo do volante e a velocidade do robô
    3. dados de GPS
  5. Uma ferramenta que permita criar/editar um RDDF da volta da UFES (mapa da volta da UFES com anotações de velocidade em cada ponto e parâmetros dos algoritmos de navegação apropriado para cada ponto) a partir de um mapa da volta da UFES
  6. Um módulo Carmen que localize o robô no mapa da volta da UFES (módulo de localização) usando:
    1. mapas 2D instantâneos de obstáculos e não obstáculos em torno do robô
    2. o ângulo do volante e a velocidade do robô
    3. dados de GPS
  7. Um módulo Carmen capaz de determinar a posição do robô com relação aos limites da pista onde ele eventualmente estiver usando:
    1. V-disparity obtido a partir de imagens de câmeras frontais
    2. mapa de disparidade/profundidades computados a partir de imagens de câmeras laterais (V-disparity pode ser útil para localizar obstáculos nas laterais das pistas, por exemplo árvores, postes e arbustos que servem como exemplos negativos de pista, para treinar uma rede neural).CUIDADO: como visão estéreo não é perfeito, o negativo do mapa de obstáculos não é a pista.
    3. mapas 2D instantâneos de obstáculos e não obstáculos em torno do robô
  8. Um módulo Carmen capaz de extender a visão da pista para além da região à frente tocada pelos LIDAR de modo a ampliar os mapas 2D instantâneos de obstáculos e não obstáculos em torno do robô usando:
    1. mapas 2D instantâneos de obstáculos e não obstáculos em torno do robô
    2. visão artificial (reconhecimento de imagens) e algoritmos de Machine Learning (por exemplo, baseado em mistura de Gaussianas)
    3. projeção da pista identificada nas imagens das câmeras frontais em um mapa 2D e extensão dos mapas 2D instantâneos de obstáculos e não obstáculos em torno do robô de acordo
  9. Teste/extensão do módulo de SLAM de modo a extender o mapa de SLAM usando a informação obtida via visão artificial
  10. Um módulo Carmen que permita a navegação suave do robô através das pistas do mapa da volta da UFES usando:
    1. o RDDF da volta da UFES
    2. pose do robô obtida do módulo localizador
  11. Um módulo Carmen que permita a navegação suave do robô através de pistas de estacionamentos eventualmente presentes no mapa da volta da UFES usando:
    1. o RDDF da volta da UFES
    2. pose do robô obtida do módulo localizador
  12. Um módulo Carmen que controle o robô durante a navegação através do mapa da volta da UFES de modo que ele evite obstáculos que eventualmente apareçam durante a volta da UFES usando:
    1. o RDDF da volta da UFES
    2. mapas de SLAM extendidos com visão artificial ou não
    3. poses do robô obtidas do módulo localizador e de SLAM
    4. dados dos acelerômetros
  13. Um módulo Carmen que implemente uma máquina de estados que permita escolher dinamicamente algoritmos de navegação e seus parâmetros apropriados para cada setor do RDDF da volta da UFES usando:
    1. o RDDF da volta da UFES
    2. mapas de SLAM extendidos com visão artificial ou não
    3. poses do robô obtidas do módulo localizador e de SLAM
    4. dados dos acelerômetros


Atividades Essenciais

  1. Temporização dos eventos (time stamp) - Tiago, Alberto e Lucas Catabriga, até 06/09/2011
    1. Instalar e testar o código relevante no QNX
    2. Estudar o NTP e ver se ele garante skew menor que 1ms
  2. Mapeamento de obstáculos com lasers/câmeras apontados para o chão - Lauro e Lucas Catabriga, até 30/09/2011
  3. Fusão dos diversos sensores para a criação do mapa - Lucas Veronese, Lauro e Lucas Catabriga, até 30/09/2011
  4. SLAM para o RDDF - Mariella, Raphael, Lauro, Lucas e Alberto, até 29/09/2011
  5. Criação/edição do RDDF - Lucas Catabriga e Cayo, até 06/10/2011
  6. Detecção do centro da pista (lateral offset) - Vitor Azevedo, Jorcy e Alberto, até 29/09/2011
  7. Planejamento em tempo real de navegação em estradas - Michael, Cayo, Claudine, Rômulo, Avelino e Ranik, até 07/10/2011
  8. Planejamento em tempo real de navegação em estacionamentos - Rômulo, Claudine, Michael, Jairo e Avelino, até 14/10/2011
  9. Obstacle avoidance - Avelino, Claudine, Michael, Rômulo, Filipe e Juan, até 07/10/2011
  10. Máquina de estados do robô - Alberto e Lucas Catabriga, até 04/11/2011
    1. Problema da cancela e outros relacionados ao estado do robô - Alberto, até 04/11/2011

Outras Atividades Desejáveis

  1. Detecção e rastreamento de obstáculos móveis, Claudine, até 31/10/2011
  2. Detecção de placas - Victor Neves e Claudine, até 31/10/2011
  3. Detecção de semáforos e seu estado