<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="pt-BR">
		<id>http://www.lcad.inf.ufes.br/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Mberger</id>
		<title>LCAD - Contribuições do(a) usuário(a) [pt-br]</title>
		<link rel="self" type="application/atom+xml" href="http://www.lcad.inf.ufes.br/wiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Mberger"/>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php/Especial:Contribui%C3%A7%C3%B5es/Mberger"/>
		<updated>2026-04-08T06:51:40Z</updated>
		<subtitle>Contribuições do(a) usuário(a)</subtitle>
		<generator>MediaWiki 1.30.0</generator>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Instala%C3%A7%C3%A3o_para_Ubuntu&amp;diff=81110</id>
		<title>Instalação para Ubuntu</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Instala%C3%A7%C3%A3o_para_Ubuntu&amp;diff=81110"/>
				<updated>2015-10-13T14:33:38Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: /* Instalação do carmen */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[category:Carmen]]&lt;br /&gt;
Essa instalação é completa, mais é necessário testar todos os módulos. &lt;br /&gt;
&lt;br /&gt;
Testado na versão 12.04 LTS. A mesma para a DRC.&lt;br /&gt;
&lt;br /&gt;
'''&amp;lt;span style=&amp;quot;color:red;&amp;quot;&amp;gt;Caso você tenha o Ubuntu 12.04.3 LTS utilize o tutorial [http://www.lcad.inf.ufes.br/wiki/index.php/Instala%C3%A7%C3%A3o_Carmen_para_Ubuntu_12.04.3 aqui]&amp;lt;/span&amp;gt;'''&lt;br /&gt;
&lt;br /&gt;
= Preparação para a instalação do Carmen = &lt;br /&gt;
&lt;br /&gt;
Instale o SVN:&lt;br /&gt;
&lt;br /&gt;
 sudo apt-get install subversion&lt;br /&gt;
&lt;br /&gt;
Crie o diretório roboticaprobabilistica/code/ em sua home:&lt;br /&gt;
 $ mkdir ~/roboticaprobabilistica/&lt;br /&gt;
 $ mkdir ~/roboticaprobabilistica/code/&lt;br /&gt;
&lt;br /&gt;
Execute um checkout de http://www.lcad.inf.ufes.br/svn/roboticaprobabilistica/code/carmen na pasta ~/roboticaprobabilistica/code/&lt;br /&gt;
&lt;br /&gt;
 $ cd ~/roboticaprobabilistica/code/&lt;br /&gt;
 $ svn co http://www.lcad.inf.ufes.br/svn/roboticaprobabilistica/code/carmen &lt;br /&gt;
&lt;br /&gt;
Colocar no arquivo .bashrc do usuario:&lt;br /&gt;
 #CARMEN&lt;br /&gt;
 export JAVA_HOME=/usr/lib/jvm/java-1.6.0-openjdk-amd64&lt;br /&gt;
 export PKG_CONFIG_PATH=$PKG_CONFIG_PATH:/usr/local/lib/pkgconfig&lt;br /&gt;
 export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/lib:/usr/lib/x86_64-linux-gnu:/usr/lib/i386-linux-gnu/:/usr/lib/libkml&lt;br /&gt;
 export CARMEN_HOME=~/roboticaprobabilistica/code/carmen&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Instale as bibliotecas abaixo, com os seguintes comandos:&lt;br /&gt;
&lt;br /&gt;
 sudo apt-get install swig \&lt;br /&gt;
 libgtk2.0-dev \&lt;br /&gt;
 qt-sdk \&lt;br /&gt;
 libqt3-mt libqt3-mt-dev qt3-dev-tools \&lt;br /&gt;
 libimlib2 libimlib2-dev \&lt;br /&gt;
 imagemagick libmagick++-dev \&lt;br /&gt;
 libwrap0 libwrap0-dev tcpd \&lt;br /&gt;
 openjdk-6-jdk \&lt;br /&gt;
 libncurses5 libncurses5-dev \&lt;br /&gt;
 libgsl0-dev libgsl0ldbl \&lt;br /&gt;
 libdc1394-22 libdc1394-22-dev libdc1394-utils \&lt;br /&gt;
 cmake \&lt;br /&gt;
 libgtkglext1 libgtkglext1-dev \&lt;br /&gt;
 libgtkglextmm-x11-1.2-0 libgtkglextmm-x11-1.2-dev \&lt;br /&gt;
 libglade2-0 libglade2-dev \&lt;br /&gt;
 freeglut3 freeglut3-dev \&lt;br /&gt;
 libcurl3 libcurl3-nss libcurl4-nss-dev \&lt;br /&gt;
 libglew1.5 libglew1.5-dev libglewmx1.5 libglewmx1.5-dev glew-utils1.5 \&lt;br /&gt;
 libkml0 libkml-dev \&lt;br /&gt;
 liburiparser1 liburiparser-dev \&lt;br /&gt;
 git \&lt;br /&gt;
 libusb-1.0-0 libusb-1.0-0-dev libusb-dev \&lt;br /&gt;
 libxi-dev libxi6 \&lt;br /&gt;
 libxmu-dev libxmu6 \&lt;br /&gt;
 build-essential libforms-dev \&lt;br /&gt;
 byacc \&lt;br /&gt;
 flex \&lt;br /&gt;
 doxygen \&lt;br /&gt;
 libboost-dev libboost-thread-dev libboost-signals-dev \&lt;br /&gt;
 libespeak-dev libfann-dev&lt;br /&gt;
&lt;br /&gt;
Instale os pacotes da imlib herdados do Fedora, esses pacotes não existem nos repositórios do Ubuntu!! (eles se encontram em carmen/ubuntu_packages):&lt;br /&gt;
&lt;br /&gt;
 dpkg -i imlib_1.9.15-20_amd64.deb &lt;br /&gt;
 dpkg -i imlib-devel_1.9.15-20_amd64.deb&lt;br /&gt;
&lt;br /&gt;
Instale a biblioteca flycapture da PtGrey com os seguintes comandos:&lt;br /&gt;
 cd $CARMEN_HOME/ubuntu_packages/&lt;br /&gt;
 tar -xvf flycapture2-2.5.3.4-amd64-pkg.tgz&lt;br /&gt;
 cd flycapture2-2.5.3.4-amd64/&lt;br /&gt;
 sudo apt-get install libglademm-2.4-1c2a&lt;br /&gt;
 sudo apt-get install libglademm-2.4-dev&lt;br /&gt;
 sudo apt-get install libgtkmm-2.4-dev&lt;br /&gt;
 sudo sh install_flycapture.sh&lt;br /&gt;
&lt;br /&gt;
Faça os seguintes links:&lt;br /&gt;
&lt;br /&gt;
 ln -s /usr/lib64/libgdk_imlib.so.1.9.15 /usr/lib64/libgdk_imlib.a&lt;br /&gt;
 ln -s /usr/src/linux-headers-3.2.0-29/ /usr/src/linux&lt;br /&gt;
&lt;br /&gt;
Confira se o link funcionou:&lt;br /&gt;
 ls /usr/lib64/libgdk_imlib.a&lt;br /&gt;
&lt;br /&gt;
Instale o driver kvaser (Baixe-o [http://www.kvaser.com/software/7330130980754/V5_12_0/linuxcan.tar.gz aqui])&lt;br /&gt;
 mkdir /usr/local/Kvaser&lt;br /&gt;
 mv linuxcan.tar.gz /usr/local/Kvaser/&lt;br /&gt;
 cd /usr/local/Kvaser/&lt;br /&gt;
 tar xvzf linuxcan.tar.gz&lt;br /&gt;
 cd linuxcan/&lt;br /&gt;
 make&lt;br /&gt;
 make install&lt;br /&gt;
&lt;br /&gt;
Instale o OpenCV na versão 2.2 (Baixe-o [http://sourceforge.net/projects/opencvlibrary/files/opencv-unix/2.2/OpenCV-2.2.0.tar.bz2/download aqui])&lt;br /&gt;
(obs: ubuntu 12.04 instale o 2.4 com esse tutorial http://www.samontab.com/web/2012/06/installing-opencv-2-4-1-ubuntu-12-04-lts/)&lt;br /&gt;
(Se o link de download na página não estiver funcionando, você pode baixar o Open CV [http://sourceforge.net/projects/opencvlibrary/files/opencv-unix/2.4.10/opencv-2.4.10.zip/download aqui])&lt;br /&gt;
&lt;br /&gt;
Copie-o e descompacte-o para uma pasta, (OPENCV_HOME de preferência). Para instalar execute os seguintes comandos de dentro da pasta descompactada que você baixou:&lt;br /&gt;
 &lt;br /&gt;
 mkdir build&lt;br /&gt;
 cd build&lt;br /&gt;
 cmake -D CMAKE_BUILD_TYPE=RELEASE -D CMAKE_INSTALL_PREFIX=/usr/local -D BUILD_PYTHON_SUPPORT=ON -D BUILD_EXAMPLES=ON ..&lt;br /&gt;
 make&lt;br /&gt;
 make install (como root)&lt;br /&gt;
&lt;br /&gt;
Instale a Bullet Phisycs na Versão 2.78 (http://code.google.com/p/bullet/downloads/detail?name=bullet-2.78-r2387.tgz&amp;amp;can=2&amp;amp;q=)&lt;br /&gt;
 mkdir /usr/local/bullet&lt;br /&gt;
 mv bullet-2.78-r2387.tgz  /usr/local/bullet/&lt;br /&gt;
 cd /usr/local/bullet/&lt;br /&gt;
 tar xzvf bullet-2.78-r2387.tgz &lt;br /&gt;
 $ ./configure &lt;br /&gt;
 $ make&lt;br /&gt;
 # make install (como root)&lt;br /&gt;
&lt;br /&gt;
Instale a PCL (Point Cloud Library):&lt;br /&gt;
Instale os seguintes pacotes:&lt;br /&gt;
 $ sudo apt-get install libeigen3-dev libboost-all-dev libflann-dev libvtk5-dev cmake-qt-gui&lt;br /&gt;
&lt;br /&gt;
Instale os pacotes:&lt;br /&gt;
 $ sudo add-apt-repository ppa:v-launchpad-jochen-sprickerhof-de/pcl&lt;br /&gt;
 $ sudo apt-get update&lt;br /&gt;
 $ sudo apt-get install libpcl-all&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Instalação da biblioteca G2O:&lt;br /&gt;
 sudo apt-get install cmake libsuitesparse-dev libqt4-dev qt4-qmake libqglviewer-qt4-dev&lt;br /&gt;
 cd /usr/local/&lt;br /&gt;
 sudo svn co https://svn.openslam.org/data/svn/g2o&lt;br /&gt;
 cd /usr/local/g2o/trunk/build/&lt;br /&gt;
 sudo cmake ../ -DBUILD_CSPARSE=ON -DG2O_BUILD_DEPRECATED_TYPES=ON -DG2O_BUILD_LINKED_APPS=ON&lt;br /&gt;
 sudo make&lt;br /&gt;
 sudo make install&lt;br /&gt;
&lt;br /&gt;
= Instalação do carmen =&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Instale e configure a câmera Kinect no linux. Siga as instruções em [[ Configurando o Pioneer 3DX no CARMEN]]&amp;lt;/b&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Depois dos passos acima, no diretorio src de carmen:&lt;br /&gt;
 &lt;br /&gt;
 ./configure --nocuda --nojava&lt;br /&gt;
    Should the C++ tools be installed for CARMEN: [Y/n] Y&lt;br /&gt;
    Should Python Bindings be installed: [y/N] y&lt;br /&gt;
    Searching for Python2.4... Should the old laser server be used instead of the new one: [y/N] N&lt;br /&gt;
    Install path [/usr/local/]: &lt;br /&gt;
    Robot numbers [*]: 1,2&lt;br /&gt;
&lt;br /&gt;
Caso você tenha problemas com a libfann ao rodar o simulator_ackerman:&lt;br /&gt;
 sudo rm /usr/local/libfann.so*&lt;br /&gt;
 sudo apt-get install libfann-dev&lt;br /&gt;
&lt;br /&gt;
Caso você queira usar versões mais novas do IPC do que as que acompanham o Carmen, baixe de:&lt;br /&gt;
http://www.cs.cmu.edu/afs/cs/project/TCA/www/ipc/index.html&lt;br /&gt;
&lt;br /&gt;
Para instalar uma nova versão do IPC, logue como root e copie o .tar.gz para /usr/local e instale:&lt;br /&gt;
 cd /usr/local&lt;br /&gt;
 tar xzvf ipc-3.9.0.tar.gz&lt;br /&gt;
 cd ipc-3.9.0&lt;br /&gt;
 make install /* este comando pode gerar mas ainda assim estar tudo OK, ver abaixo (gmake não funciona no ubuntu use make)*/&lt;br /&gt;
 ln -s ipc-3.9.0 ipc&lt;br /&gt;
&lt;br /&gt;
Para saber se está tudo OK, verifique se a instalação produziu o central e libipc.a:&lt;br /&gt;
 ls /usr/local/ipc/bin/Linux-2.6/&lt;br /&gt;
 ls /usr/local/ipc/lib/Linux-2.6/&lt;br /&gt;
&lt;br /&gt;
Finalmente, para configurar Carmen com um IPC novo, use o comando configure:&lt;br /&gt;
 ./configure --nocuda --nojava --ipc=/usr/local/ipc&lt;br /&gt;
&lt;br /&gt;
Antes de compilar o CARMEN, precisamos que o módulo tracker seja compilado separadamente para que o navigator_spline funcione.&lt;br /&gt;
&lt;br /&gt;
 $ cd $CARMEN_HOME/src/tracker&lt;br /&gt;
 $ make&lt;br /&gt;
&lt;br /&gt;
Vai dar um erro de compilação, mas está tudo ok.&lt;br /&gt;
&lt;br /&gt;
Para compilar o carmen rode:&lt;br /&gt;
 make&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Configurando_o_Pioneer_3DX_no_CARMEN&amp;diff=81109</id>
		<title>Configurando o Pioneer 3DX no CARMEN</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Configurando_o_Pioneer_3DX_no_CARMEN&amp;diff=81109"/>
				<updated>2015-10-13T14:25:24Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: /* Instalação e configuração da câmera Kinect no linux */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[category:Carmen]]&lt;br /&gt;
== Configurando o Pioneer 3DX no CARMEN ==&lt;br /&gt;
&lt;br /&gt;
ATENÇÃO: Siga exatamente todos os passos abaixo, ou sua instalação poderá ficar prejudicada.&lt;br /&gt;
&lt;br /&gt;
=== Instalação e configuração da câmera Kinect no linux ===&lt;br /&gt;
&lt;br /&gt;
Entre em um terminal como usuário normal e execute os passos abaixo:&lt;br /&gt;
&lt;br /&gt;
 $ su&lt;br /&gt;
&lt;br /&gt;
 $ yum install git cmake gcc gcc-c++ libusb1 libusb1-devel libXi libXi-devel libXmu libXmu-devel freeglut freeglut-devel&lt;br /&gt;
&lt;br /&gt;
 $ apt-get install git cmake libxi-dev libxmu-dev&lt;br /&gt;
&lt;br /&gt;
É necessário ter instalada a libusb, mas as versões mais recentes do libfreenect não funcionam com o pacote oferecido nos repositórios do apt. A instalação deve ser feita manualmente.&lt;br /&gt;
Primeiro, baixe e extraia o código fonte de uma versão mais recente:&lt;br /&gt;
&lt;br /&gt;
 $ cd ~/&lt;br /&gt;
 $ mkdir libusb&lt;br /&gt;
 $ cd libusb&lt;br /&gt;
 $ wget http://sourceforge.net/projects/libusb/files/libusb-1.0/libusb-1.0.18/libusb-1.0.18.tar.bz2&lt;br /&gt;
 $ tar -xvf libusb-1.0.18.tar.bz2&lt;br /&gt;
&lt;br /&gt;
Em seguida, precisamos compilar e instalar a biblioteca:&lt;br /&gt;
&lt;br /&gt;
 $ cd libusb-1.0.18/&lt;br /&gt;
 $ ./configure --prefix=/usr --disable-static&lt;br /&gt;
 $ make&lt;br /&gt;
 $ sudo make install&lt;br /&gt;
&lt;br /&gt;
E agora precisamos fazer um link para o libfreenect encontrar a libusb. A instalação padrão é feita no diretório /usr/lib, mas a libfreenect irá procurar a biblioteca em /usr/lib/x86_64-linux-gnu.&lt;br /&gt;
&lt;br /&gt;
 $ cd /usr/lib&lt;br /&gt;
 $ sudo cp libusb-1.0* /usr/lib/x86_64-linux-gnu/&lt;br /&gt;
&lt;br /&gt;
Agora podemos compilar a libfreenect.&lt;br /&gt;
&lt;br /&gt;
 $ sudo su&lt;br /&gt;
 $ mkdir /usr/local/tplib&lt;br /&gt;
 $ cd /usr/local/tplib&lt;br /&gt;
 $ git clone git://github.com/OpenKinect/libfreenect.git&lt;br /&gt;
 $ cd libfreenect&lt;br /&gt;
 $ mkdir build&lt;br /&gt;
 $ cd build&lt;br /&gt;
 $ cmake ..&lt;br /&gt;
 $ cp src/libfreenect.pc /usr/local/tplib/&lt;br /&gt;
 $ make&lt;br /&gt;
 $ cp ../src/libfreenect.pc.in src/libfreenect.pc &lt;br /&gt;
 $ cp ../fakenect/fakenect.sh.in fakenect/fakenect.sh&lt;br /&gt;
 $ make install&lt;br /&gt;
&lt;br /&gt;
para sistema 64 bits, execute:&lt;br /&gt;
&lt;br /&gt;
 $ ldconfig /usr/local/lib64/&lt;br /&gt;
&lt;br /&gt;
para sistema 32 bits, execute:&lt;br /&gt;
&lt;br /&gt;
 $ ldconfig /usr/local/lib&lt;br /&gt;
&lt;br /&gt;
 $ exit&lt;br /&gt;
&lt;br /&gt;
 $ glview&lt;br /&gt;
&lt;br /&gt;
obs.:  caso dê o seguinte erro “glview: error while loading shared libraries: libfreenect.so.0.0: cannot open shared object file: No such file or directory” execute o comando abaixo:&lt;br /&gt;
&lt;br /&gt;
 $ su -c 'ldconfig /usr/local/lib64/'&lt;br /&gt;
&lt;br /&gt;
conecte a câmera e execute glview novamente&lt;br /&gt;
&lt;br /&gt;
 $ glview&lt;br /&gt;
&lt;br /&gt;
Se tiver problema de permissão com udev usb crie o arquivo: &lt;br /&gt;
&lt;br /&gt;
 $ cp /usr/local/tplib/libfreenect/platform/linux/udev/51-kinect.rules /etc/udev/rules.d&lt;br /&gt;
&lt;br /&gt;
Importante: No Fedora 11 32 bits use a sintaxe abaixo no lugar do arquivo acima.&lt;br /&gt;
&lt;br /&gt;
 $ nano /etc/udev/rules.d/66-kinect.rules&lt;br /&gt;
&lt;br /&gt;
SYSFS{idVendor}==&amp;quot;045e&amp;quot;, SYSFS{idProduct}==&amp;quot;02ae&amp;quot;, MODE=&amp;quot;0660&amp;quot;,GROUP=&amp;quot;video&amp;quot;&lt;br /&gt;
SYSFS{idVendor}==&amp;quot;045e&amp;quot;, SYSFS{idProduct}==&amp;quot;02ad&amp;quot;, MODE=&amp;quot;0660&amp;quot;,GROUP=&amp;quot;video&amp;quot;&lt;br /&gt;
SYSFS{idVendor}==&amp;quot;045e&amp;quot;, SYSFS{idProduct}==&amp;quot;02b0&amp;quot;, MODE=&amp;quot;0660&amp;quot;,GROUP=&amp;quot;video&amp;quot;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
E por fim adicione seu usuário ao grupo video (se já não fizer parte deste).&lt;br /&gt;
&lt;br /&gt;
Em caso de dúvidas esse roteiro foi baseado nas seguintes referência:&lt;br /&gt;
http://openkinect.org/wiki/Getting_Started#Manual_build_under_linux&lt;br /&gt;
&lt;br /&gt;
 /usr/local/tplib/libfreenect/README.asciidoc&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Instala%C3%A7%C3%A3o_para_Ubuntu&amp;diff=81108</id>
		<title>Instalação para Ubuntu</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Instala%C3%A7%C3%A3o_para_Ubuntu&amp;diff=81108"/>
				<updated>2015-10-13T14:07:47Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: /* Preparação para a instalação do Carmen */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[category:Carmen]]&lt;br /&gt;
Essa instalação é completa, mais é necessário testar todos os módulos. &lt;br /&gt;
&lt;br /&gt;
Testado na versão 12.04 LTS. A mesma para a DRC.&lt;br /&gt;
&lt;br /&gt;
'''&amp;lt;span style=&amp;quot;color:red;&amp;quot;&amp;gt;Caso você tenha o Ubuntu 12.04.3 LTS utilize o tutorial [http://www.lcad.inf.ufes.br/wiki/index.php/Instala%C3%A7%C3%A3o_Carmen_para_Ubuntu_12.04.3 aqui]&amp;lt;/span&amp;gt;'''&lt;br /&gt;
&lt;br /&gt;
= Preparação para a instalação do Carmen = &lt;br /&gt;
&lt;br /&gt;
Instale o SVN:&lt;br /&gt;
&lt;br /&gt;
 sudo apt-get install subversion&lt;br /&gt;
&lt;br /&gt;
Crie o diretório roboticaprobabilistica/code/ em sua home:&lt;br /&gt;
 $ mkdir ~/roboticaprobabilistica/&lt;br /&gt;
 $ mkdir ~/roboticaprobabilistica/code/&lt;br /&gt;
&lt;br /&gt;
Execute um checkout de http://www.lcad.inf.ufes.br/svn/roboticaprobabilistica/code/carmen na pasta ~/roboticaprobabilistica/code/&lt;br /&gt;
&lt;br /&gt;
 $ cd ~/roboticaprobabilistica/code/&lt;br /&gt;
 $ svn co http://www.lcad.inf.ufes.br/svn/roboticaprobabilistica/code/carmen &lt;br /&gt;
&lt;br /&gt;
Colocar no arquivo .bashrc do usuario:&lt;br /&gt;
 #CARMEN&lt;br /&gt;
 export JAVA_HOME=/usr/lib/jvm/java-1.6.0-openjdk-amd64&lt;br /&gt;
 export PKG_CONFIG_PATH=$PKG_CONFIG_PATH:/usr/local/lib/pkgconfig&lt;br /&gt;
 export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/lib:/usr/lib/x86_64-linux-gnu:/usr/lib/i386-linux-gnu/:/usr/lib/libkml&lt;br /&gt;
 export CARMEN_HOME=~/roboticaprobabilistica/code/carmen&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Instale as bibliotecas abaixo, com os seguintes comandos:&lt;br /&gt;
&lt;br /&gt;
 sudo apt-get install swig \&lt;br /&gt;
 libgtk2.0-dev \&lt;br /&gt;
 qt-sdk \&lt;br /&gt;
 libqt3-mt libqt3-mt-dev qt3-dev-tools \&lt;br /&gt;
 libimlib2 libimlib2-dev \&lt;br /&gt;
 imagemagick libmagick++-dev \&lt;br /&gt;
 libwrap0 libwrap0-dev tcpd \&lt;br /&gt;
 openjdk-6-jdk \&lt;br /&gt;
 libncurses5 libncurses5-dev \&lt;br /&gt;
 libgsl0-dev libgsl0ldbl \&lt;br /&gt;
 libdc1394-22 libdc1394-22-dev libdc1394-utils \&lt;br /&gt;
 cmake \&lt;br /&gt;
 libgtkglext1 libgtkglext1-dev \&lt;br /&gt;
 libgtkglextmm-x11-1.2-0 libgtkglextmm-x11-1.2-dev \&lt;br /&gt;
 libglade2-0 libglade2-dev \&lt;br /&gt;
 freeglut3 freeglut3-dev \&lt;br /&gt;
 libcurl3 libcurl3-nss libcurl4-nss-dev \&lt;br /&gt;
 libglew1.5 libglew1.5-dev libglewmx1.5 libglewmx1.5-dev glew-utils1.5 \&lt;br /&gt;
 libkml0 libkml-dev \&lt;br /&gt;
 liburiparser1 liburiparser-dev \&lt;br /&gt;
 git \&lt;br /&gt;
 libusb-1.0-0 libusb-1.0-0-dev libusb-dev \&lt;br /&gt;
 libxi-dev libxi6 \&lt;br /&gt;
 libxmu-dev libxmu6 \&lt;br /&gt;
 build-essential libforms-dev \&lt;br /&gt;
 byacc \&lt;br /&gt;
 flex \&lt;br /&gt;
 doxygen \&lt;br /&gt;
 libboost-dev libboost-thread-dev libboost-signals-dev \&lt;br /&gt;
 libespeak-dev libfann-dev&lt;br /&gt;
&lt;br /&gt;
Instale os pacotes da imlib herdados do Fedora, esses pacotes não existem nos repositórios do Ubuntu!! (eles se encontram em carmen/ubuntu_packages):&lt;br /&gt;
&lt;br /&gt;
 dpkg -i imlib_1.9.15-20_amd64.deb &lt;br /&gt;
 dpkg -i imlib-devel_1.9.15-20_amd64.deb&lt;br /&gt;
&lt;br /&gt;
Instale a biblioteca flycapture da PtGrey com os seguintes comandos:&lt;br /&gt;
 cd $CARMEN_HOME/ubuntu_packages/&lt;br /&gt;
 tar -xvf flycapture2-2.5.3.4-amd64-pkg.tgz&lt;br /&gt;
 cd flycapture2-2.5.3.4-amd64/&lt;br /&gt;
 sudo apt-get install libglademm-2.4-1c2a&lt;br /&gt;
 sudo apt-get install libglademm-2.4-dev&lt;br /&gt;
 sudo apt-get install libgtkmm-2.4-dev&lt;br /&gt;
 sudo sh install_flycapture.sh&lt;br /&gt;
&lt;br /&gt;
Faça os seguintes links:&lt;br /&gt;
&lt;br /&gt;
 ln -s /usr/lib64/libgdk_imlib.so.1.9.15 /usr/lib64/libgdk_imlib.a&lt;br /&gt;
 ln -s /usr/src/linux-headers-3.2.0-29/ /usr/src/linux&lt;br /&gt;
&lt;br /&gt;
Confira se o link funcionou:&lt;br /&gt;
 ls /usr/lib64/libgdk_imlib.a&lt;br /&gt;
&lt;br /&gt;
Instale o driver kvaser (Baixe-o [http://www.kvaser.com/software/7330130980754/V5_12_0/linuxcan.tar.gz aqui])&lt;br /&gt;
 mkdir /usr/local/Kvaser&lt;br /&gt;
 mv linuxcan.tar.gz /usr/local/Kvaser/&lt;br /&gt;
 cd /usr/local/Kvaser/&lt;br /&gt;
 tar xvzf linuxcan.tar.gz&lt;br /&gt;
 cd linuxcan/&lt;br /&gt;
 make&lt;br /&gt;
 make install&lt;br /&gt;
&lt;br /&gt;
Instale o OpenCV na versão 2.2 (Baixe-o [http://sourceforge.net/projects/opencvlibrary/files/opencv-unix/2.2/OpenCV-2.2.0.tar.bz2/download aqui])&lt;br /&gt;
(obs: ubuntu 12.04 instale o 2.4 com esse tutorial http://www.samontab.com/web/2012/06/installing-opencv-2-4-1-ubuntu-12-04-lts/)&lt;br /&gt;
(Se o link de download na página não estiver funcionando, você pode baixar o Open CV [http://sourceforge.net/projects/opencvlibrary/files/opencv-unix/2.4.10/opencv-2.4.10.zip/download aqui])&lt;br /&gt;
&lt;br /&gt;
Copie-o e descompacte-o para uma pasta, (OPENCV_HOME de preferência). Para instalar execute os seguintes comandos de dentro da pasta descompactada que você baixou:&lt;br /&gt;
 &lt;br /&gt;
 mkdir build&lt;br /&gt;
 cd build&lt;br /&gt;
 cmake -D CMAKE_BUILD_TYPE=RELEASE -D CMAKE_INSTALL_PREFIX=/usr/local -D BUILD_PYTHON_SUPPORT=ON -D BUILD_EXAMPLES=ON ..&lt;br /&gt;
 make&lt;br /&gt;
 make install (como root)&lt;br /&gt;
&lt;br /&gt;
Instale a Bullet Phisycs na Versão 2.78 (http://code.google.com/p/bullet/downloads/detail?name=bullet-2.78-r2387.tgz&amp;amp;can=2&amp;amp;q=)&lt;br /&gt;
 mkdir /usr/local/bullet&lt;br /&gt;
 mv bullet-2.78-r2387.tgz  /usr/local/bullet/&lt;br /&gt;
 cd /usr/local/bullet/&lt;br /&gt;
 tar xzvf bullet-2.78-r2387.tgz &lt;br /&gt;
 $ ./configure &lt;br /&gt;
 $ make&lt;br /&gt;
 # make install (como root)&lt;br /&gt;
&lt;br /&gt;
Instale a PCL (Point Cloud Library):&lt;br /&gt;
Instale os seguintes pacotes:&lt;br /&gt;
 $ sudo apt-get install libeigen3-dev libboost-all-dev libflann-dev libvtk5-dev cmake-qt-gui&lt;br /&gt;
&lt;br /&gt;
Instale os pacotes:&lt;br /&gt;
 $ sudo add-apt-repository ppa:v-launchpad-jochen-sprickerhof-de/pcl&lt;br /&gt;
 $ sudo apt-get update&lt;br /&gt;
 $ sudo apt-get install libpcl-all&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Instalação da biblioteca G2O:&lt;br /&gt;
 sudo apt-get install cmake libsuitesparse-dev libqt4-dev qt4-qmake libqglviewer-qt4-dev&lt;br /&gt;
 cd /usr/local/&lt;br /&gt;
 sudo svn co https://svn.openslam.org/data/svn/g2o&lt;br /&gt;
 cd /usr/local/g2o/trunk/build/&lt;br /&gt;
 sudo cmake ../ -DBUILD_CSPARSE=ON -DG2O_BUILD_DEPRECATED_TYPES=ON -DG2O_BUILD_LINKED_APPS=ON&lt;br /&gt;
 sudo make&lt;br /&gt;
 sudo make install&lt;br /&gt;
&lt;br /&gt;
= Instalação do carmen =&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Instale e configure a câmera Kinect no linux. Siga as instruções em [[ Configurando o Pioneer 3DX no CARMEN]]&amp;lt;/b&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Depois dos passos acima, no diretorio src de carmen:&lt;br /&gt;
 &lt;br /&gt;
 ./configure --nocuda --nojava&lt;br /&gt;
    Should the C++ tools be installed for CARMEN: [Y/n] Y&lt;br /&gt;
    Should Python Bindings be installed: [y/N] y&lt;br /&gt;
    Searching for Python2.4... Should the old laser server be used instead of the new one: [y/N] N&lt;br /&gt;
    Install path [/usr/local/]: &lt;br /&gt;
    Robot numbers [*]: 1,2&lt;br /&gt;
&lt;br /&gt;
Caso você tenha problemas com a libfann ao rodar o simulator_ackerman:&lt;br /&gt;
 sudo rm /usr/local/libfann.so*&lt;br /&gt;
 sudo apt-get install libfann-dev&lt;br /&gt;
&lt;br /&gt;
Caso você queira usar versões mais novas do IPC do que as que acompanham o Carmen, baixe de:&lt;br /&gt;
http://www.cs.cmu.edu/afs/cs/project/TCA/www/ipc/index.html&lt;br /&gt;
&lt;br /&gt;
Para instalar uma nova versão do IPC, logue como root e copie o .tar.gz para /usr/local e instale:&lt;br /&gt;
 cd /usr/local&lt;br /&gt;
 tar xzvf ipc-3.9.0.tar.gz&lt;br /&gt;
 cd ipc-3.9.0&lt;br /&gt;
 make install /* este comando pode gerar mas ainda assim estar tudo OK, ver abaixo (gmake não funciona no ubuntu use make)*/&lt;br /&gt;
 ln -s ipc-3.9.0 ipc&lt;br /&gt;
&lt;br /&gt;
Para saber se está tudo OK, verifique se a instalação produziu o central e libipc.a:&lt;br /&gt;
 ls /usr/local/ipc/bin/Linux-2.6/&lt;br /&gt;
 ls /usr/local/ipc/lib/Linux-2.6/&lt;br /&gt;
&lt;br /&gt;
Finalmente, para configurar Carmen com um IPC novo, use o comando configure:&lt;br /&gt;
 ./configure --nocuda --nojava --ipc=/usr/local/ipc&lt;br /&gt;
&lt;br /&gt;
Para compilar o carmen rode:&lt;br /&gt;
 make&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Constru%C3%A7%C3%A3o_de_um_Mapa_usando_o_Pionner,_JoyStick_e_Sensor_Sick_LMS&amp;diff=81078</id>
		<title>Construção de um Mapa usando o Pionner, JoyStick e Sensor Sick LMS</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Constru%C3%A7%C3%A3o_de_um_Mapa_usando_o_Pionner,_JoyStick_e_Sensor_Sick_LMS&amp;diff=81078"/>
				<updated>2015-09-17T20:37:29Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: /* Construção do Mapa em um Ambiente Simulado */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Controle do Pionner com JoyStick==&lt;br /&gt;
&lt;br /&gt;
1. Instale o pacote ROSARIA:&lt;br /&gt;
  cd ~/catkin_ws/src&lt;br /&gt;
  git clone https://github.com/amor-ros-pkg/rosaria.git&lt;br /&gt;
&lt;br /&gt;
2. Instale as dependências:&lt;br /&gt;
  rosdep update&lt;br /&gt;
  rosdep install rosaria&lt;br /&gt;
  cd ~/catkin_ws&lt;br /&gt;
  catkin_make&lt;br /&gt;
&lt;br /&gt;
3. Instale o pacote jstest-gtk:&lt;br /&gt;
  sudo apt-get install jstest-gtk&lt;br /&gt;
	&lt;br /&gt;
4. Identifique a porta atribuída ao joystick (e.g., js0). Para isso, liste o conteúdo do diretório /dev/input antes e depois de conectar o joystick: &lt;br /&gt;
  ls /dev/input/&lt;br /&gt;
	&lt;br /&gt;
5. Libere o acesso à porta do joystick:&lt;br /&gt;
  sudo chmod 777 /dev/input/js0&lt;br /&gt;
&lt;br /&gt;
Obs: Substitua js0 pela porta do joystick.&lt;br /&gt;
&lt;br /&gt;
6. Para testar o joystick:&lt;br /&gt;
  sudo jstest /dev/input/js0&lt;br /&gt;
	&lt;br /&gt;
A saída do joystick aparecerá na tela. &lt;br /&gt;
&lt;br /&gt;
7. Instale o pacote joy:&lt;br /&gt;
  sudo apt-get install ros-indigo-joy&lt;br /&gt;
&lt;br /&gt;
8. Para controlar o Pioneer:&lt;br /&gt;
&lt;br /&gt;
8.1. Execute o mestre:&lt;br /&gt;
  roscore&lt;br /&gt;
&lt;br /&gt;
8.2. Conecte o joystick.&lt;br /&gt;
&lt;br /&gt;
8.3. Em um novo terminal, configure os parâmetros do nó joy:&lt;br /&gt;
  rosparam set joy_node/dev &amp;quot;/dev/input/js0&amp;quot;&lt;br /&gt;
    &lt;br /&gt;
8.4. Execute o nó joy:&lt;br /&gt;
  rosrun joy joy_node&lt;br /&gt;
		&lt;br /&gt;
Para visualizar os dados enviados ao nó joy pelo joystick, execute em um novo terminal:	&lt;br /&gt;
  rostopic echo joy&lt;br /&gt;
&lt;br /&gt;
8.5.Conecte o Pioneer.&lt;br /&gt;
	&lt;br /&gt;
8.6. Em um novo terminal, libere a porta atribuída ao Pioneer:&lt;br /&gt;
  sudo chmod 777 /dev/ttyUSB*&lt;br /&gt;
	&lt;br /&gt;
Obs: Substitua ttyUSB* pela porta do Pioneer.&lt;br /&gt;
&lt;br /&gt;
8.7. Execute o programa ROSARIA:&lt;br /&gt;
  rosrun rosaria RosAria&lt;br /&gt;
&lt;br /&gt;
Caso ocorra algum erro com a porta do Pioneer, execute:&lt;br /&gt;
  rosrun rosaria RosAria _port:=/dev/ttyUSB*&lt;br /&gt;
&lt;br /&gt;
8.8. Crie um pacote para scripts auxiliares: &lt;br /&gt;
  cd ~/catkin_ws/src&lt;br /&gt;
  catkin_create_pkg scripts_aux &lt;br /&gt;
&lt;br /&gt;
8.9. Baixe o script auxiliar descrito abaixo para o diretório ~/catkin_make/src/scripts_aux:&lt;br /&gt;
&lt;br /&gt;
* RosAriaJoyTeleop.py: controla o Pioneer usando o joystick.&lt;br /&gt;
&lt;br /&gt;
Após baixá-lo, dê a ele permissão de execução:&lt;br /&gt;
  cd ~/catkin_ws/src/scripts_aux&lt;br /&gt;
  chmod 755 *&lt;br /&gt;
&lt;br /&gt;
8.10. Construa os pacotes:&lt;br /&gt;
  cd ~/catkin_ws&lt;br /&gt;
  catkin_make&lt;br /&gt;
&lt;br /&gt;
8.12.Em um novo terminal, execute o script RosAriaJoyTeleop.py:&lt;br /&gt;
  rosrun scripts_aux RosAriaJoyTeleop.py&lt;br /&gt;
&lt;br /&gt;
== Construção do Log de Dados Capturados pelo Sensor Sick LMS ==&lt;br /&gt;
&lt;br /&gt;
1. Instale os pacotes sicktoolbox e sicktoolbox_wrapper:&lt;br /&gt;
  sudo apt-get install ros-indigo-sicktoolbox&lt;br /&gt;
  sudo apt-get install ros-indigo-sicktoolbox-wrapper&lt;br /&gt;
&lt;br /&gt;
2. Baixe os scripts auxiliares descritos abaixo para o diretório ~/catkin_make/src/scripts_aux:&lt;br /&gt;
&lt;br /&gt;
* RosAriaKeyTeleop.py: controla o Pioneer usando o teclado; &lt;br /&gt;
* RosAriaLaserTf.py: publica a posição do sensor Sick LMS no Pioneer.&lt;br /&gt;
&lt;br /&gt;
Após baixá-los, dê a eles permissão de execução:&lt;br /&gt;
  cd ~/catkin_ws/src/scripts_aux&lt;br /&gt;
  chmod 755 *&lt;br /&gt;
&lt;br /&gt;
3. Construa os pacotes:&lt;br /&gt;
  cd ~/catkin_ws&lt;br /&gt;
  catkin_make&lt;br /&gt;
&lt;br /&gt;
=== Construção do Log em um Ambiente Real ===&lt;br /&gt;
&lt;br /&gt;
1. Crie um arquivo de log para armazenar os dados capturados pelo sensor Sick LMS:&lt;br /&gt;
  sudo chmod 777 /dev/input/js0 &lt;br /&gt;
  sudo chmod 777 /dev/ttyUSB0        &lt;br /&gt;
  sudo chmod 777 /dev/ttyUSB1          &lt;br /&gt;
  roscore&lt;br /&gt;
  rosrun rosaria RosAria _port:=/dev/ttyUSB0&lt;br /&gt;
  rosrun sicktoolbox_wrapper sicklms _port:=/dev/ttyUSB1 _baud=38400&lt;br /&gt;
  rosrun scripts_aux RosAriaLaserTf.py&lt;br /&gt;
  rosparam set joy_node/dev &amp;quot;/dev/input/js0&amp;quot;&lt;br /&gt;
  rosrun joy joy_node&lt;br /&gt;
  rosrun scripts_aux RosAriaJoyTeleop.py&lt;br /&gt;
  cd &amp;quot;diretorio para armazenar o log&amp;quot;&lt;br /&gt;
  rosbag record -O log_map /scan /tf&lt;br /&gt;
  rosrun rviz rviz&lt;br /&gt;
&lt;br /&gt;
Obs. 1: Nos comandos 1 e 8 acima, substitua js0 pela porta do joystick, ttyUSB0 pela porta do Pioneer e ttyUSB1 pela porta do sensor Sick LMS.&lt;br /&gt;
Obs. 2: No comando 11 acima, substitua log_map pelo nome que queria dar ao arquivo de log.&lt;br /&gt;
Obs. 3: O último comando executa o pacote rviz, uma ferramenta de visualização do ROS. &lt;br /&gt;
&lt;br /&gt;
===Construção do Mapa em um Ambiente Simulado===&lt;br /&gt;
&lt;br /&gt;
1. Instale o pacote gazebo-ros:&lt;br /&gt;
  sudo apt-get install libsdformat1 libsdformat-dev&lt;br /&gt;
  sudo apt-get install ros-indigo-gazebo-ros-pkgs ros-indigo-gazebo-ros-control&lt;br /&gt;
&lt;br /&gt;
2. Instale os pacotes ros-control e ros-controllers:&lt;br /&gt;
&lt;br /&gt;
  sudo apt-get install ros-indigo-ros-control ros-indigo-ros-controllers&lt;br /&gt;
&lt;br /&gt;
3. Baixe o arquivo descrito abaixo: &lt;br /&gt;
&lt;br /&gt;
* modeloCT7.zip: contém 3 diretórios que contém os modelos 3D das portas, molduras das portas e paredes do segundo andar do Prédio CT-VII.&lt;br /&gt;
&lt;br /&gt;
Após baixá-lo, descompacte-o e mova ou copie os diretórios resultantes para a pasta (oculta) de modelos do Gazebo:&lt;br /&gt;
  unzip modeloCT7.zip -d modeloCT7&lt;br /&gt;
  mv modeloCT7/* ~/.gazebo/models/&lt;br /&gt;
  &lt;br /&gt;
4. Baixe o arquivo descrito abaixo para o diretório catkin_ws/src:&lt;br /&gt;
&lt;br /&gt;
* PioneerModel.zip: pacotes com o modelo do pioneer utilizando o mapa do CT7&lt;br /&gt;
&lt;br /&gt;
Após baixá-lo, descompacte-o e construa os pacotes:&lt;br /&gt;
  cd ~/catkin_ws/src&lt;br /&gt;
  unzip PioneerModel.zip&lt;br /&gt;
  cd ..&lt;br /&gt;
  catkin_make&lt;br /&gt;
&lt;br /&gt;
5. Baixe o pacote descrito abaixo para o diretório catkin_ws/src:&lt;br /&gt;
&lt;br /&gt;
* p3dx_controller.zip: controla o Pioneer usando o teclado.&lt;br /&gt;
&lt;br /&gt;
Após baixá-lo, descompacte-o e construa os pacotes:&lt;br /&gt;
  cd ~/catkin_ws/src&lt;br /&gt;
  unzip p3dx_controller.zip&lt;br /&gt;
  cd ~/catkin_ws/src/p3dx_controller/scripts&lt;br /&gt;
  chmod 755 *&lt;br /&gt;
  cd ~/catkin_ws&lt;br /&gt;
  catkin_make&lt;br /&gt;
&lt;br /&gt;
6. Crie um arquivo de log para armazenar os dados capturados pelo sensor Sick LMS:&lt;br /&gt;
  roscore&lt;br /&gt;
  roslaunch p3dx_gazebo gazebo.launch  &lt;br /&gt;
  rosrun p3dx_controller move.py&lt;br /&gt;
  cd ~/bagfiles/&lt;br /&gt;
  roslaunch p3dx_description rviz.launch &lt;br /&gt;
  rosbag record -O log_map /p3dx/laser/scan /tf&lt;br /&gt;
&lt;br /&gt;
== Criação do Mapa Usando o Pacote slam_gmapping ==&lt;br /&gt;
&lt;br /&gt;
1. Instale o pacote slam_gmapping:&lt;br /&gt;
  sudo apt-get install ros-indigo-slam-gmapping&lt;br /&gt;
&lt;br /&gt;
2. Instale o pacote navigation:&lt;br /&gt;
  sudo apt-get install ros-indigo-navigation&lt;br /&gt;
	&lt;br /&gt;
Obs: O pacote navigation contém o pacote map_server.&lt;br /&gt;
&lt;br /&gt;
3. Execute o mestre, use o carimbo de tempo do log e execute o pacote slam_gmapping: &lt;br /&gt;
  roscore&lt;br /&gt;
  rosparam set use_sim_time true&lt;br /&gt;
  rosrun gmapping slam_gmapping scan:=p3dx/laser/scan&lt;br /&gt;
&lt;br /&gt;
4.Em um novo terminal, reproduza o log:&lt;br /&gt;
  cd ~/bagfiles/&lt;br /&gt;
  rosbag play --clock log_map.bag&lt;br /&gt;
&lt;br /&gt;
5. Assim que a reprodução do log terminar, salve o mapa no disco. Para isso, entre no diretório no qual deseja salvar o mapa e execute:&lt;br /&gt;
 rosrun map_server map_saver&lt;br /&gt;
&lt;br /&gt;
Congratz! Você agora terá o mapa salvo como map.pgm.&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Constru%C3%A7%C3%A3o_de_um_Mapa_usando_o_Pionner,_JoyStick_e_Sensor_Sick_LMS&amp;diff=81077</id>
		<title>Construção de um Mapa usando o Pionner, JoyStick e Sensor Sick LMS</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Constru%C3%A7%C3%A3o_de_um_Mapa_usando_o_Pionner,_JoyStick_e_Sensor_Sick_LMS&amp;diff=81077"/>
				<updated>2015-09-17T20:25:12Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Controle do Pionner com JoyStick==&lt;br /&gt;
&lt;br /&gt;
1. Instale o pacote ROSARIA:&lt;br /&gt;
  cd ~/catkin_ws/src&lt;br /&gt;
  git clone https://github.com/amor-ros-pkg/rosaria.git&lt;br /&gt;
&lt;br /&gt;
2. Instale as dependências:&lt;br /&gt;
  rosdep update&lt;br /&gt;
  rosdep install rosaria&lt;br /&gt;
  cd ~/catkin_ws&lt;br /&gt;
  catkin_make&lt;br /&gt;
&lt;br /&gt;
3. Instale o pacote jstest-gtk:&lt;br /&gt;
  sudo apt-get install jstest-gtk&lt;br /&gt;
	&lt;br /&gt;
4. Identifique a porta atribuída ao joystick (e.g., js0). Para isso, liste o conteúdo do diretório /dev/input antes e depois de conectar o joystick: &lt;br /&gt;
  ls /dev/input/&lt;br /&gt;
	&lt;br /&gt;
5. Libere o acesso à porta do joystick:&lt;br /&gt;
  sudo chmod 777 /dev/input/js0&lt;br /&gt;
&lt;br /&gt;
Obs: Substitua js0 pela porta do joystick.&lt;br /&gt;
&lt;br /&gt;
6. Para testar o joystick:&lt;br /&gt;
  sudo jstest /dev/input/js0&lt;br /&gt;
	&lt;br /&gt;
A saída do joystick aparecerá na tela. &lt;br /&gt;
&lt;br /&gt;
7. Instale o pacote joy:&lt;br /&gt;
  sudo apt-get install ros-indigo-joy&lt;br /&gt;
&lt;br /&gt;
8. Para controlar o Pioneer:&lt;br /&gt;
&lt;br /&gt;
8.1. Execute o mestre:&lt;br /&gt;
  roscore&lt;br /&gt;
&lt;br /&gt;
8.2. Conecte o joystick.&lt;br /&gt;
&lt;br /&gt;
8.3. Em um novo terminal, configure os parâmetros do nó joy:&lt;br /&gt;
  rosparam set joy_node/dev &amp;quot;/dev/input/js0&amp;quot;&lt;br /&gt;
    &lt;br /&gt;
8.4. Execute o nó joy:&lt;br /&gt;
  rosrun joy joy_node&lt;br /&gt;
		&lt;br /&gt;
Para visualizar os dados enviados ao nó joy pelo joystick, execute em um novo terminal:	&lt;br /&gt;
  rostopic echo joy&lt;br /&gt;
&lt;br /&gt;
8.5.Conecte o Pioneer.&lt;br /&gt;
	&lt;br /&gt;
8.6. Em um novo terminal, libere a porta atribuída ao Pioneer:&lt;br /&gt;
  sudo chmod 777 /dev/ttyUSB*&lt;br /&gt;
	&lt;br /&gt;
Obs: Substitua ttyUSB* pela porta do Pioneer.&lt;br /&gt;
&lt;br /&gt;
8.7. Execute o programa ROSARIA:&lt;br /&gt;
  rosrun rosaria RosAria&lt;br /&gt;
&lt;br /&gt;
Caso ocorra algum erro com a porta do Pioneer, execute:&lt;br /&gt;
  rosrun rosaria RosAria _port:=/dev/ttyUSB*&lt;br /&gt;
&lt;br /&gt;
8.8. Crie um pacote para scripts auxiliares: &lt;br /&gt;
  cd ~/catkin_ws/src&lt;br /&gt;
  catkin_create_pkg scripts_aux &lt;br /&gt;
&lt;br /&gt;
8.9. Baixe o script auxiliar descrito abaixo para o diretório ~/catkin_make/src/scripts_aux:&lt;br /&gt;
&lt;br /&gt;
* RosAriaJoyTeleop.py: controla o Pioneer usando o joystick.&lt;br /&gt;
&lt;br /&gt;
Após baixá-lo, dê a ele permissão de execução:&lt;br /&gt;
  cd ~/catkin_ws/src/scripts_aux&lt;br /&gt;
  chmod 755 *&lt;br /&gt;
&lt;br /&gt;
8.10. Construa os pacotes:&lt;br /&gt;
  cd ~/catkin_ws&lt;br /&gt;
  catkin_make&lt;br /&gt;
&lt;br /&gt;
8.12.Em um novo terminal, execute o script RosAriaJoyTeleop.py:&lt;br /&gt;
  rosrun scripts_aux RosAriaJoyTeleop.py&lt;br /&gt;
&lt;br /&gt;
== Construção do Log de Dados Capturados pelo Sensor Sick LMS ==&lt;br /&gt;
&lt;br /&gt;
1. Instale os pacotes sicktoolbox e sicktoolbox_wrapper:&lt;br /&gt;
  sudo apt-get install ros-indigo-sicktoolbox&lt;br /&gt;
  sudo apt-get install ros-indigo-sicktoolbox-wrapper&lt;br /&gt;
&lt;br /&gt;
2. Baixe os scripts auxiliares descritos abaixo para o diretório ~/catkin_make/src/scripts_aux:&lt;br /&gt;
&lt;br /&gt;
* RosAriaKeyTeleop.py: controla o Pioneer usando o teclado; &lt;br /&gt;
* RosAriaLaserTf.py: publica a posição do sensor Sick LMS no Pioneer.&lt;br /&gt;
&lt;br /&gt;
Após baixá-los, dê a eles permissão de execução:&lt;br /&gt;
  cd ~/catkin_ws/src/scripts_aux&lt;br /&gt;
  chmod 755 *&lt;br /&gt;
&lt;br /&gt;
3. Construa os pacotes:&lt;br /&gt;
  cd ~/catkin_ws&lt;br /&gt;
  catkin_make&lt;br /&gt;
&lt;br /&gt;
=== Construção do Log em um Ambiente Real ===&lt;br /&gt;
&lt;br /&gt;
1. Crie um arquivo de log para armazenar os dados capturados pelo sensor Sick LMS:&lt;br /&gt;
  sudo chmod 777 /dev/input/js0 &lt;br /&gt;
  sudo chmod 777 /dev/ttyUSB0        &lt;br /&gt;
  sudo chmod 777 /dev/ttyUSB1          &lt;br /&gt;
  roscore&lt;br /&gt;
  rosrun rosaria RosAria _port:=/dev/ttyUSB0&lt;br /&gt;
  rosrun sicktoolbox_wrapper sicklms _port:=/dev/ttyUSB1 _baud=38400&lt;br /&gt;
  rosrun scripts_aux RosAriaLaserTf.py&lt;br /&gt;
  rosparam set joy_node/dev &amp;quot;/dev/input/js0&amp;quot;&lt;br /&gt;
  rosrun joy joy_node&lt;br /&gt;
  rosrun scripts_aux RosAriaJoyTeleop.py&lt;br /&gt;
  cd &amp;quot;diretorio para armazenar o log&amp;quot;&lt;br /&gt;
  rosbag record -O log_map /scan /tf&lt;br /&gt;
  rosrun rviz rviz&lt;br /&gt;
&lt;br /&gt;
Obs. 1: Nos comandos 1 e 8 acima, substitua js0 pela porta do joystick, ttyUSB0 pela porta do Pioneer e ttyUSB1 pela porta do sensor Sick LMS.&lt;br /&gt;
Obs. 2: No comando 11 acima, substitua log_map pelo nome que queria dar ao arquivo de log.&lt;br /&gt;
Obs. 3: O último comando executa o pacote rviz, uma ferramenta de visualização do ROS. &lt;br /&gt;
&lt;br /&gt;
===Construção do Mapa em um Ambiente Simulado===&lt;br /&gt;
&lt;br /&gt;
1. Instale o pacote gazebo-ros:&lt;br /&gt;
  sudo apt-get install libsdformat1 libsdformat-dev&lt;br /&gt;
  sudo apt-get install ros-indigo-gazebo-ros-pkgs ros-indigo-gazebo-ros-control&lt;br /&gt;
&lt;br /&gt;
2. Instale os pacotes ros-control e ros-controllers:&lt;br /&gt;
&lt;br /&gt;
  sudo apt-get install ros-indigo-ros-control ros-indigo-ros-controllers&lt;br /&gt;
&lt;br /&gt;
3. Baixe o arquivo descrito abaixo: &lt;br /&gt;
&lt;br /&gt;
* modeloCT7.zip: contém 3 diretórios, cada qual contendo modelos 3D de malhas do segundo andar do Prédio CT-VII.&lt;br /&gt;
&lt;br /&gt;
Após baixá-lo, descompacte-o e mova ou copie os diretórios resultantes para a pasta (oculta) de modelos do Gazebo:&lt;br /&gt;
&lt;br /&gt;
  unzip modeloCT7.zip -d modeloCT7&lt;br /&gt;
  mv modeloCT7/* ~/.gazebo/models/&lt;br /&gt;
  &lt;br /&gt;
4. Baixe o arquivo descrito abaixo para o diretório catkin_ws/src:&lt;br /&gt;
&lt;br /&gt;
* PioneerModel.zip: Pacotes com o modelo do pioneer utilizando o mapa do CT7&lt;br /&gt;
&lt;br /&gt;
Após baixá-lo, descompacte-o e construa os pacotes:&lt;br /&gt;
  cd ~/catkin_ws/src&lt;br /&gt;
  unzip PioneerModel.zip&lt;br /&gt;
  cd ..&lt;br /&gt;
  catkin_make&lt;br /&gt;
&lt;br /&gt;
5. Baixe o pacote descrito abaixo para o diretório catkin_ws/src:&lt;br /&gt;
&lt;br /&gt;
* p3dx_controller.zip: controla o Pioneer usando o teclado.&lt;br /&gt;
&lt;br /&gt;
Após baixá-lo, descompacte-o e construa os pacotes:&lt;br /&gt;
  cd ~/catkin_ws/src&lt;br /&gt;
  unzip p3dx_controller.zip&lt;br /&gt;
  cd ~/catkin_ws/src/p3dx_controller/scripts&lt;br /&gt;
  chmod 755 *&lt;br /&gt;
  cd ~/catkin_ws&lt;br /&gt;
  catkin_make&lt;br /&gt;
&lt;br /&gt;
6. Crie um arquivo de log para armazenar os dados capturados pelo sensor Sick LMS:&lt;br /&gt;
  roscore&lt;br /&gt;
  roslaunch p3dx_gazebo gazebo.launch  &lt;br /&gt;
  rosrun p3dx_controller move.py&lt;br /&gt;
  cd ~/bagfiles/&lt;br /&gt;
  roslaunch p3dx_description rviz.launch &lt;br /&gt;
  rosbag record -O log_map /p3dx/laser/scan /tf&lt;br /&gt;
&lt;br /&gt;
== Criação do Mapa Usando o Pacote slam_gmapping ==&lt;br /&gt;
&lt;br /&gt;
1. Instale o pacote slam_gmapping:&lt;br /&gt;
  sudo apt-get install ros-indigo-slam-gmapping&lt;br /&gt;
&lt;br /&gt;
2. Instale o pacote navigation:&lt;br /&gt;
  sudo apt-get install ros-indigo-navigation&lt;br /&gt;
	&lt;br /&gt;
Obs: O pacote navigation contém o pacote map_server.&lt;br /&gt;
&lt;br /&gt;
3. Execute o mestre, use o carimbo de tempo do log e execute o pacote slam_gmapping: &lt;br /&gt;
  roscore&lt;br /&gt;
  rosparam set use_sim_time true&lt;br /&gt;
  rosrun gmapping slam_gmapping scan:=p3dx/laser/scan&lt;br /&gt;
&lt;br /&gt;
4.Em um novo terminal, reproduza o log:&lt;br /&gt;
  cd ~/bagfiles/&lt;br /&gt;
  rosbag play --clock log_map.bag&lt;br /&gt;
&lt;br /&gt;
5. Assim que a reprodução do log terminar, salve o mapa no disco. Para isso, entre no diretório no qual deseja salvar o mapa e execute:&lt;br /&gt;
 rosrun map_server map_saver&lt;br /&gt;
&lt;br /&gt;
Congratz! Você agora terá o mapa salvo como map.pgm.&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Constru%C3%A7%C3%A3o_de_um_Mapa_usando_o_Pionner,_JoyStick_e_Sensor_Sick_LMS&amp;diff=81076</id>
		<title>Construção de um Mapa usando o Pionner, JoyStick e Sensor Sick LMS</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Constru%C3%A7%C3%A3o_de_um_Mapa_usando_o_Pionner,_JoyStick_e_Sensor_Sick_LMS&amp;diff=81076"/>
				<updated>2015-09-17T20:01:20Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Controle do Pionner com JoyStick==&lt;br /&gt;
&lt;br /&gt;
1. Instale o pacote ROSARIA (http://wiki.ros.org/ROSARIA):&lt;br /&gt;
  cd ~/catkin_ws/src&lt;br /&gt;
  git clone https://github.com/amor-ros-pkg/rosaria.git&lt;br /&gt;
&lt;br /&gt;
2. Instale as dependências:&lt;br /&gt;
  rosdep update&lt;br /&gt;
  rosdep install rosaria&lt;br /&gt;
  cd ~/catkin_ws&lt;br /&gt;
  catkin_make&lt;br /&gt;
&lt;br /&gt;
3. Instale o pacote jstest-gtk para utilizar o joystick:&lt;br /&gt;
  sudo apt-get install jstest-gtk&lt;br /&gt;
	&lt;br /&gt;
4. Identifique a porta atribuída ao joystick (e.g., js0). Para isso, liste o conteúdo do diretório /dev/input antes e depois de conectar o joystick: &lt;br /&gt;
  ls /dev/input/&lt;br /&gt;
	&lt;br /&gt;
5. Libere o acesso à porta do joystick:&lt;br /&gt;
  sudo chmod 777 /dev/input/js0&lt;br /&gt;
&lt;br /&gt;
Obs: Substitua js0 pela porta do joystick.&lt;br /&gt;
&lt;br /&gt;
6. Para testar o joystick:&lt;br /&gt;
  sudo jstest /dev/input/js0&lt;br /&gt;
	&lt;br /&gt;
A saída do joystick aparecerá na tela. &lt;br /&gt;
&lt;br /&gt;
7. Instale o pacote joy (http://wiki.ros.org/joy/Tutorials/ConfiguringALinuxJoystick):&lt;br /&gt;
  sudo apt-get install ros-indigo-joy&lt;br /&gt;
&lt;br /&gt;
8. Para controlar o Pioneer:&lt;br /&gt;
&lt;br /&gt;
8.1. Inicie o roscore:&lt;br /&gt;
  roscore&lt;br /&gt;
&lt;br /&gt;
8.2. Conecte o joystick.&lt;br /&gt;
&lt;br /&gt;
8.3. Em um novo terminal, configure os parâmetros do nó joy:&lt;br /&gt;
  rosparam set joy_node/dev &amp;quot;/dev/input/js0&amp;quot;&lt;br /&gt;
    &lt;br /&gt;
8.4. Execute o nó joy:&lt;br /&gt;
  rosrun joy joy_node&lt;br /&gt;
		&lt;br /&gt;
Para visualizar os dados enviados ao nó joy pelo joystick, execute em um novo terminal:	&lt;br /&gt;
  rostopic echo joy&lt;br /&gt;
&lt;br /&gt;
8.5.Conecte o Pioneer.&lt;br /&gt;
	&lt;br /&gt;
8.6. Em um novo terminal, libere a porta atribuída ao Pioneer:&lt;br /&gt;
  sudo chmod 777 /dev/ttyUSB*&lt;br /&gt;
	&lt;br /&gt;
Obs: Substitua ttyUSB* pela porta do Pioneer.&lt;br /&gt;
&lt;br /&gt;
8.7. Execute o ROSARIA:&lt;br /&gt;
  rosrun rosaria RosAria&lt;br /&gt;
&lt;br /&gt;
Caso ocorra algum erro com a porta do Pioneer, execute:&lt;br /&gt;
  rosrun rosaria RosAria _port:=/dev/ttyUSB*&lt;br /&gt;
&lt;br /&gt;
8.8. Crie um pacote para scripts auxiliares: &lt;br /&gt;
  cd ~/catkin_ws/src&lt;br /&gt;
  catkin_create_pkg scripts_aux &lt;br /&gt;
&lt;br /&gt;
8.9. Baixe o script auxiliar descrito abaixo para o diretório ~/catkin_make/src/scripts_aux gerado acima.&lt;br /&gt;
&lt;br /&gt;
* RosAriaJoyTeleop.py: controla o Pioneer usando o joystick.&lt;br /&gt;
&lt;br /&gt;
8.10. Dê permissão de execução para o script auxiliar mencionado acima:&lt;br /&gt;
  cd ~/catkin_ws/src/scripts_aux&lt;br /&gt;
  chmod 755 *&lt;br /&gt;
&lt;br /&gt;
8.11. Construa os pacotes:&lt;br /&gt;
  cd ~/catkin_ws&lt;br /&gt;
  catkin_make&lt;br /&gt;
&lt;br /&gt;
8.12.Em um novo terminal, execute o programa para definir os controles do pioneer&lt;br /&gt;
  rosrun scripts_aux RosAriaJoyTeleop.py.&lt;br /&gt;
&lt;br /&gt;
== Construção do Log de Dados Capturados pelo Sensor Sick LMS ==&lt;br /&gt;
&lt;br /&gt;
1. Instale os pacotes sicktoolbox e sicktoolbox_wrapper:&lt;br /&gt;
  sudo apt-get install ros-indigo-sicktoolbox&lt;br /&gt;
  sudo apt-get install ros-indigo-sicktoolbox-wrapper&lt;br /&gt;
&lt;br /&gt;
2. Baixe os scripts auxiliares descritos abaixo para o diretório ~/catkin_make/src/scripts_aux.&lt;br /&gt;
&lt;br /&gt;
* RosAriaKeyTeleop.py: controla o Pioneer usando o teclado; e&lt;br /&gt;
* RosAriaLaserTf.py: publica a posição do sensor Sick LMS no Pioneer.&lt;br /&gt;
&lt;br /&gt;
3. Dê permissão de execução para os scripts mencionados acima:&lt;br /&gt;
  cd ~/catkin_ws/src/scripts_aux&lt;br /&gt;
  chmod 755 *&lt;br /&gt;
&lt;br /&gt;
4. Construa os pacotes:&lt;br /&gt;
  cd ~/catkin_ws&lt;br /&gt;
  catkin_make&lt;br /&gt;
&lt;br /&gt;
=== Construção do Log em um Ambiente Real ===&lt;br /&gt;
&lt;br /&gt;
1. Crie um arquivo de log para armazenar os dados capturados pelo sensor Sick LMS:&lt;br /&gt;
  sudo chmod 777 /dev/input/js0 &lt;br /&gt;
  sudo chmod 777 /dev/ttyUSB0        &lt;br /&gt;
  sudo chmod 777 /dev/ttyUSB1          &lt;br /&gt;
  roscore&lt;br /&gt;
  rosrun rosaria RosAria _port:=/dev/ttyUSB0&lt;br /&gt;
  rosrun sicktoolbox_wrapper sicklms _port:=/dev/ttyUSB1 _baud=38400&lt;br /&gt;
  rosrun scripts_aux RosAriaLaserTf.py&lt;br /&gt;
  rosparam set joy_node/dev &amp;quot;/dev/input/js0&amp;quot;&lt;br /&gt;
  rosrun joy joy_node&lt;br /&gt;
  rosrun scripts_aux RosAriaJoyTeleop.py&lt;br /&gt;
  cd &amp;quot;diretorio para armazenar o log&amp;quot;&lt;br /&gt;
  rosbag record -O log_map /scan /tf&lt;br /&gt;
  rosrun rviz rviz&lt;br /&gt;
&lt;br /&gt;
Obs. 1: Nos comandos 1 e 8 acima, substitua js0 pela porta do joystick, ttyUSB0 pela porta do Pioneer e ttyUSB1 pela porta do sensor Sick LMS.&lt;br /&gt;
Obs. 2: No comando 11 acima, substitua log_map pelo nome que queria dar ao arquivo de log.&lt;br /&gt;
Obs. 3: O último comando executa o pacote rviz, uma ferramenta de visualização do ROS. &lt;br /&gt;
&lt;br /&gt;
===Construção do Mapa em um Ambiente Simulado===&lt;br /&gt;
&lt;br /&gt;
1. Instale o pacote gazebo-ros:&lt;br /&gt;
  sudo apt-get install libsdformat1 libsdformat-dev&lt;br /&gt;
  sudo apt-get install ros-indigo-gazebo-ros-pkgs ros-indigo-gazebo-ros-control&lt;br /&gt;
&lt;br /&gt;
2. Instale os pacotes ros-control e ros-controllers para a interface de controle do robô entre o ROS e gazebo:&lt;br /&gt;
&lt;br /&gt;
  sudo apt-get install ros-indigo-ros-control ros-indigo-ros-controllers&lt;br /&gt;
&lt;br /&gt;
3. Para a simulação, será utilizado o modelo 3D do 2º andar do CT-VII (UFES). Faça o download dos modelos:&lt;br /&gt;
&lt;br /&gt;
* modeloCT7.zip: contém 3 pastas. Cada pasta corresponde a malhas que compõem o segundo andar do CT-VII.&lt;br /&gt;
&lt;br /&gt;
4. extraia essas 3 pastas e mova-as/copie para a pasta (oculta) de modelos do Gazebo:&lt;br /&gt;
  unzip modeloCT7.zip -d modeloCT7&lt;br /&gt;
  mv modeloCT7/* ~/.gazebo/models/&lt;br /&gt;
  &lt;br /&gt;
5. Baixe os arquivo abaixo para o diretório catkin_ws/src:&lt;br /&gt;
&lt;br /&gt;
* PioneerModel.zip: Pacotes com o modelo do pioneer utilizando o mapa do CT7&lt;br /&gt;
&lt;br /&gt;
6. Descompacte e construa os pacotes&lt;br /&gt;
  cd ~/catkin_ws/src&lt;br /&gt;
  unzip PioneerModel.zip&lt;br /&gt;
  cd ..&lt;br /&gt;
  catkin_make&lt;br /&gt;
&lt;br /&gt;
7. Baixe o pacote descrito abaixo para o diretório catkin_ws/src.&lt;br /&gt;
&lt;br /&gt;
* p3dx_controller.zip: controla o Pioneer usando o teclado.&lt;br /&gt;
&lt;br /&gt;
Após baixá-lo, descompacte-o e construa os pacotes:&lt;br /&gt;
  cd ~/catkin_ws/src&lt;br /&gt;
  unzip p3dx_controller.zip&lt;br /&gt;
  cd ~/catkin_ws/src/p3dx_controller/scripts&lt;br /&gt;
  chmod 755 *&lt;br /&gt;
  cd ~/catkin_ws&lt;br /&gt;
  catkin_make&lt;br /&gt;
&lt;br /&gt;
8. Crie um arquivo de log para armazenar os dados capturados pelo sensor Sick LMS:&lt;br /&gt;
  roscore&lt;br /&gt;
  roslaunch p3dx_gazebo gazebo.launch  &lt;br /&gt;
  rosrun p3dx_controller move.py&lt;br /&gt;
  cd ~/bagfiles/&lt;br /&gt;
  roslaunch p3dx_description rviz.launch &lt;br /&gt;
  rosbag record -O log_map /p3dx/laser/scan /tf&lt;br /&gt;
&lt;br /&gt;
== Criação do Mapa Usando o Pacote slam_gmapping ==&lt;br /&gt;
&lt;br /&gt;
1. Instale o pacote slam_gmapping:&lt;br /&gt;
  sudo apt-get install ros-indigo-slam-gmapping&lt;br /&gt;
&lt;br /&gt;
2. Instale o pacote navigation:&lt;br /&gt;
  sudo apt-get install ros-indigo-navigation&lt;br /&gt;
	&lt;br /&gt;
Obs: O pacote navigation contém o pacote map_server.&lt;br /&gt;
&lt;br /&gt;
3. Execute o mestre, use o carimbo de tempo do log e execute o pacote slam_gmapping: &lt;br /&gt;
  roscore&lt;br /&gt;
  rosparam set use_sim_time true&lt;br /&gt;
  rosrun gmapping slam_gmapping scan:=p3dx/laser/scan&lt;br /&gt;
&lt;br /&gt;
4.Em um novo terminal, reproduza o log:&lt;br /&gt;
  cd ~/bagfiles/&lt;br /&gt;
  rosbag play --clock log_map.bag&lt;br /&gt;
&lt;br /&gt;
5. Assim que a reprodução do log terminar, salve o mapa no disco. Para isso, entre no diretório no qual deseja salvar o mapa e execute:&lt;br /&gt;
 rosrun map_server map_saver&lt;br /&gt;
&lt;br /&gt;
Congratz! Você agora terá o mapa salvo como map.pgm.&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Constru%C3%A7%C3%A3o_de_um_Mapa_usando_o_Pionner,_JoyStick_e_Sensor_Sick_LMS&amp;diff=81075</id>
		<title>Construção de um Mapa usando o Pionner, JoyStick e Sensor Sick LMS</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Constru%C3%A7%C3%A3o_de_um_Mapa_usando_o_Pionner,_JoyStick_e_Sensor_Sick_LMS&amp;diff=81075"/>
				<updated>2015-09-17T19:58:07Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Controle do Pionner com JoyStick==&lt;br /&gt;
&lt;br /&gt;
1. Instale o pacote ROSARIA (http://wiki.ros.org/ROSARIA):&lt;br /&gt;
  cd ~/catkin_ws/src&lt;br /&gt;
  git clone https://github.com/amor-ros-pkg/rosaria.git&lt;br /&gt;
&lt;br /&gt;
2. Instale as dependências:&lt;br /&gt;
  rosdep update&lt;br /&gt;
  rosdep install rosaria&lt;br /&gt;
  cd ~/catkin_ws&lt;br /&gt;
  catkin_make&lt;br /&gt;
&lt;br /&gt;
3. Instale o pacote jstest-gtk para utilizar o joystick:&lt;br /&gt;
  sudo apt-get install jstest-gtk&lt;br /&gt;
	&lt;br /&gt;
4. Identifique a porta atribuída ao joystick (e.g., js0). Para isso, liste o conteúdo do diretório /dev/input antes e depois de conectar o joystick: &lt;br /&gt;
  ls /dev/input/&lt;br /&gt;
	&lt;br /&gt;
5. Libere o acesso à porta do joystick:&lt;br /&gt;
  sudo chmod 777 /dev/input/js0&lt;br /&gt;
&lt;br /&gt;
Obs: Substitua js0 pela porta do joystick.&lt;br /&gt;
&lt;br /&gt;
6. Para testar o joystick:&lt;br /&gt;
  sudo jstest /dev/input/js0&lt;br /&gt;
	&lt;br /&gt;
A saída do joystick aparecerá na tela. &lt;br /&gt;
&lt;br /&gt;
7. Instale o pacote joy (http://wiki.ros.org/joy/Tutorials/ConfiguringALinuxJoystick):&lt;br /&gt;
  sudo apt-get install ros-indigo-joy&lt;br /&gt;
&lt;br /&gt;
8. Para controlar o Pioneer:&lt;br /&gt;
&lt;br /&gt;
8.1. Inicie o roscore:&lt;br /&gt;
  roscore&lt;br /&gt;
&lt;br /&gt;
8.2. Conecte o joystick.&lt;br /&gt;
&lt;br /&gt;
8.3. Em um novo terminal, configure os parâmetros do nó joy:&lt;br /&gt;
  rosparam set joy_node/dev &amp;quot;/dev/input/js0&amp;quot;&lt;br /&gt;
    &lt;br /&gt;
8.4. Execute o nó joy:&lt;br /&gt;
  rosrun joy joy_node&lt;br /&gt;
		&lt;br /&gt;
Para visualizar os dados enviados ao nó joy pelo joystick, execute em um novo terminal:	&lt;br /&gt;
  rostopic echo joy&lt;br /&gt;
&lt;br /&gt;
8.5.Conecte o Pioneer.&lt;br /&gt;
	&lt;br /&gt;
8.6. Em um novo terminal, libere a porta atribuída ao Pioneer:&lt;br /&gt;
  sudo chmod 777 /dev/ttyUSB*&lt;br /&gt;
	&lt;br /&gt;
Obs: Substitua ttyUSB* pela porta do Pioneer.&lt;br /&gt;
&lt;br /&gt;
8.7. Execute o ROSARIA:&lt;br /&gt;
  rosrun rosaria RosAria&lt;br /&gt;
&lt;br /&gt;
Caso ocorra algum erro com a porta do Pioneer, execute:&lt;br /&gt;
  rosrun rosaria RosAria _port:=/dev/ttyUSB*&lt;br /&gt;
&lt;br /&gt;
8.8. Crie um pacote para scripts auxiliares: &lt;br /&gt;
  cd ~/catkin_ws/src&lt;br /&gt;
  catkin_create_pkg scripts_aux &lt;br /&gt;
&lt;br /&gt;
8.9. Baixe o script auxiliar descrito abaixo para o diretório ~/catkin_make/src/scripts_aux gerado acima.&lt;br /&gt;
&lt;br /&gt;
* RosAriaJoyTeleop.py: controla o Pioneer usando o joystick.&lt;br /&gt;
&lt;br /&gt;
8.10. Dê permissão de execução para o script auxiliar mencionado acima:&lt;br /&gt;
  cd ~/catkin_ws/src/scripts_aux&lt;br /&gt;
  chmod 755 *&lt;br /&gt;
&lt;br /&gt;
8.11. Construa os pacotes:&lt;br /&gt;
  cd ~/catkin_ws&lt;br /&gt;
  catkin_make&lt;br /&gt;
&lt;br /&gt;
8.12.Em um novo terminal, execute o programa para definir os controles do pioneer&lt;br /&gt;
  rosrun scripts_aux RosAriaJoyTeleop.py.&lt;br /&gt;
&lt;br /&gt;
== Construção do Log de Dados Capturados pelo Sensor Sick LMS ==&lt;br /&gt;
&lt;br /&gt;
1. Instale os pacotes sicktoolbox e sicktoolbox_wrapper:&lt;br /&gt;
  sudo apt-get install ros-indigo-sicktoolbox&lt;br /&gt;
  sudo apt-get install ros-indigo-sicktoolbox-wrapper&lt;br /&gt;
&lt;br /&gt;
2. Baixe os scripts auxiliares descritos abaixo para o diretório ~/catkin_make/src/scripts_aux.&lt;br /&gt;
&lt;br /&gt;
* RosAriaKeyTeleop.py: controla o Pioneer usando o teclado; e&lt;br /&gt;
* RosAriaLaserTf.py: publica a posição do sensor Sick LMS no Pioneer.&lt;br /&gt;
&lt;br /&gt;
3. Dê permissão de execução para os scripts mencionados acima:&lt;br /&gt;
  cd ~/catkin_ws/src/scripts_aux&lt;br /&gt;
  chmod 755 *&lt;br /&gt;
&lt;br /&gt;
4. Construa os pacotes:&lt;br /&gt;
  cd ~/catkin_ws&lt;br /&gt;
  catkin_make&lt;br /&gt;
&lt;br /&gt;
= Construção do Log em um Ambiente Real =&lt;br /&gt;
&lt;br /&gt;
1. Crie um arquivo de log para armazenar os dados capturados pelo sensor Sick LMS:&lt;br /&gt;
  sudo chmod 777 /dev/input/js0 &lt;br /&gt;
  sudo chmod 777 /dev/ttyUSB0        &lt;br /&gt;
  sudo chmod 777 /dev/ttyUSB1          &lt;br /&gt;
  roscore&lt;br /&gt;
  rosrun rosaria RosAria _port:=/dev/ttyUSB0&lt;br /&gt;
  rosrun sicktoolbox_wrapper sicklms _port:=/dev/ttyUSB1 _baud=38400&lt;br /&gt;
  rosrun scripts_aux RosAriaLaserTf.py&lt;br /&gt;
  rosparam set joy_node/dev &amp;quot;/dev/input/js0&amp;quot;&lt;br /&gt;
  rosrun joy joy_node&lt;br /&gt;
  rosrun scripts_aux RosAriaJoyTeleop.py&lt;br /&gt;
  cd &amp;quot;diretorio para armazenar o log&amp;quot;&lt;br /&gt;
  rosbag record -O log_map /scan /tf&lt;br /&gt;
  rosrun rviz rviz&lt;br /&gt;
&lt;br /&gt;
Obs. 1: Nos comandos 1 e 8 acima, substitua js0 pela porta do joystick, ttyUSB0 pela porta do Pioneer e ttyUSB1 pela porta do sensor Sick LMS.&lt;br /&gt;
Obs. 2: No comando 11 acima, substitua log_map pelo nome que queria dar ao arquivo de log.&lt;br /&gt;
Obs. 3: O último comando executa o pacote rviz, uma ferramenta de visualização do ROS. &lt;br /&gt;
&lt;br /&gt;
=Construção do Mapa em um Ambiente Simulado=&lt;br /&gt;
&lt;br /&gt;
1. Instale o pacote gazebo-ros:&lt;br /&gt;
  sudo apt-get install libsdformat1 libsdformat-dev&lt;br /&gt;
  sudo apt-get install ros-indigo-gazebo-ros-pkgs ros-indigo-gazebo-ros-control&lt;br /&gt;
&lt;br /&gt;
2. Instale os pacotes ros-control e ros-controllers para a interface de controle do robô entre o ROS e gazebo:&lt;br /&gt;
&lt;br /&gt;
  sudo apt-get install ros-indigo-ros-control ros-indigo-ros-controllers&lt;br /&gt;
&lt;br /&gt;
3. Para a simulação, será utilizado o modelo 3D do 2º andar do CT-VII (UFES). Faça o download dos modelos:&lt;br /&gt;
&lt;br /&gt;
* modeloCT7.zip: contém 3 pastas. Cada pasta corresponde a malhas que compõem o segundo andar do CT-VII.&lt;br /&gt;
&lt;br /&gt;
4. extraia essas 3 pastas e mova-as/copie para a pasta (oculta) de modelos do Gazebo:&lt;br /&gt;
  unzip modeloCT7.zip -d modeloCT7&lt;br /&gt;
  mv modeloCT7/* ~/.gazebo/models/&lt;br /&gt;
  &lt;br /&gt;
5. Baixe os arquivo abaixo para o diretório catkin_ws/src:&lt;br /&gt;
&lt;br /&gt;
* PioneerModel.zip: Pacotes com o modelo do pioneer utilizando o mapa do CT7&lt;br /&gt;
&lt;br /&gt;
6. Descompacte e construa os pacotes&lt;br /&gt;
  cd ~/catkin_ws/src&lt;br /&gt;
  unzip PioneerModel.zip&lt;br /&gt;
  cd ..&lt;br /&gt;
  catkin_make&lt;br /&gt;
&lt;br /&gt;
7. Baixe o pacote descrito abaixo para o diretório catkin_ws/src.&lt;br /&gt;
&lt;br /&gt;
* p3dx_controller.zip: controla o Pioneer usando o teclado.&lt;br /&gt;
&lt;br /&gt;
Após baixá-lo, descompacte-o e construa os pacotes:&lt;br /&gt;
  cd ~/catkin_ws/src&lt;br /&gt;
  unzip p3dx_controller.zip&lt;br /&gt;
  cd ~/catkin_ws/src/p3dx_controller/scripts&lt;br /&gt;
  chmod 755 *&lt;br /&gt;
  cd ~/catkin_ws&lt;br /&gt;
  catkin_make&lt;br /&gt;
&lt;br /&gt;
8. Crie um arquivo de log para armazenar os dados capturados pelo sensor Sick LMS:&lt;br /&gt;
  roscore&lt;br /&gt;
  roslaunch p3dx_gazebo gazebo.launch  &lt;br /&gt;
  rosrun p3dx_controller move.py&lt;br /&gt;
  cd ~/bagfiles/&lt;br /&gt;
  roslaunch p3dx_description rviz.launch &lt;br /&gt;
  rosbag record -O log_map /p3dx/laser/scan /tf&lt;br /&gt;
&lt;br /&gt;
== Criação do Mapa Usando o Pacote slam_gmapping ==&lt;br /&gt;
&lt;br /&gt;
1. Instale o pacote slam_gmapping:&lt;br /&gt;
  sudo apt-get install ros-indigo-slam-gmapping&lt;br /&gt;
&lt;br /&gt;
2. Instale o pacote navigation:&lt;br /&gt;
  sudo apt-get install ros-indigo-navigation&lt;br /&gt;
	&lt;br /&gt;
Obs: O pacote navigation contém o pacote map_server.&lt;br /&gt;
&lt;br /&gt;
3. Execute o mestre, use o carimbo de tempo do log e execute o pacote slam_gmapping: &lt;br /&gt;
  roscore&lt;br /&gt;
  rosparam set use_sim_time true&lt;br /&gt;
  rosrun gmapping slam_gmapping scan:=p3dx/laser/scan&lt;br /&gt;
&lt;br /&gt;
4.Em um novo terminal, reproduza o log:&lt;br /&gt;
  cd ~/bagfiles/&lt;br /&gt;
  rosbag play --clock log_map.bag&lt;br /&gt;
&lt;br /&gt;
5. Assim que a reprodução do log terminar, salve o mapa no disco. Para isso, entre no diretório no qual deseja salvar o mapa e execute:&lt;br /&gt;
 rosrun map_server map_saver&lt;br /&gt;
&lt;br /&gt;
Congratz! Você agora terá o mapa salvo como map.pgm.&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Constru%C3%A7%C3%A3o_de_um_Mapa_usando_o_Pionner,_JoyStick_e_Sensor_Sick_LMS&amp;diff=81074</id>
		<title>Construção de um Mapa usando o Pionner, JoyStick e Sensor Sick LMS</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Constru%C3%A7%C3%A3o_de_um_Mapa_usando_o_Pionner,_JoyStick_e_Sensor_Sick_LMS&amp;diff=81074"/>
				<updated>2015-09-17T19:55:53Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Controle do Pionner com JoyStick==&lt;br /&gt;
&lt;br /&gt;
1. Instale o pacote ROSARIA (http://wiki.ros.org/ROSARIA):&lt;br /&gt;
  cd ~/catkin_ws/src&lt;br /&gt;
  git clone https://github.com/amor-ros-pkg/rosaria.git&lt;br /&gt;
&lt;br /&gt;
2. Instale as dependências:&lt;br /&gt;
  rosdep update&lt;br /&gt;
  rosdep install rosaria&lt;br /&gt;
  cd ~/catkin_ws&lt;br /&gt;
  catkin_make&lt;br /&gt;
&lt;br /&gt;
3. Instale o pacote jstest-gtk para utilizar o joystick:&lt;br /&gt;
  sudo apt-get install jstest-gtk&lt;br /&gt;
	&lt;br /&gt;
4. Identifique a porta atribuída ao joystick (e.g., js0). Para isso, liste o conteúdo do diretório /dev/input antes e depois de conectar o joystick: &lt;br /&gt;
  ls /dev/input/&lt;br /&gt;
	&lt;br /&gt;
5. Libere o acesso à porta do joystick:&lt;br /&gt;
  sudo chmod 777 /dev/input/js0&lt;br /&gt;
&lt;br /&gt;
Obs: Substitua js0 pela porta do joystick.&lt;br /&gt;
&lt;br /&gt;
6. Para testar o joystick:&lt;br /&gt;
  sudo jstest /dev/input/js0&lt;br /&gt;
	&lt;br /&gt;
A saída do joystick aparecerá na tela. &lt;br /&gt;
&lt;br /&gt;
7. Instale o pacote joy (http://wiki.ros.org/joy/Tutorials/ConfiguringALinuxJoystick):&lt;br /&gt;
  sudo apt-get install ros-indigo-joy&lt;br /&gt;
&lt;br /&gt;
8. Para controlar o Pioneer:&lt;br /&gt;
&lt;br /&gt;
8.1. Inicie o roscore:&lt;br /&gt;
  roscore&lt;br /&gt;
&lt;br /&gt;
8.2. Conecte o joystick.&lt;br /&gt;
&lt;br /&gt;
8.3. Em um novo terminal, configure os parâmetros do nó joy:&lt;br /&gt;
  rosparam set joy_node/dev &amp;quot;/dev/input/js0&amp;quot;&lt;br /&gt;
    &lt;br /&gt;
8.4. Execute o nó joy:&lt;br /&gt;
  rosrun joy joy_node&lt;br /&gt;
		&lt;br /&gt;
Para visualizar os dados enviados ao nó joy pelo joystick, execute em um novo terminal:	&lt;br /&gt;
  rostopic echo joy&lt;br /&gt;
&lt;br /&gt;
8.5.Conecte o Pioneer.&lt;br /&gt;
	&lt;br /&gt;
8.6. Em um novo terminal, libere a porta atribuída ao Pioneer:&lt;br /&gt;
  sudo chmod 777 /dev/ttyUSB*&lt;br /&gt;
	&lt;br /&gt;
Obs: Substitua ttyUSB* pela porta do Pioneer.&lt;br /&gt;
&lt;br /&gt;
8.7. Execute o ROSARIA:&lt;br /&gt;
  rosrun rosaria RosAria&lt;br /&gt;
&lt;br /&gt;
Caso ocorra algum erro com a porta do Pioneer, execute:&lt;br /&gt;
  rosrun rosaria RosAria _port:=/dev/ttyUSB*&lt;br /&gt;
&lt;br /&gt;
8.8. Crie um pacote para scripts auxiliares: &lt;br /&gt;
  cd ~/catkin_ws/src&lt;br /&gt;
  catkin_create_pkg scripts_aux &lt;br /&gt;
&lt;br /&gt;
8.9. Baixe o script auxiliar descrito abaixo para o diretório ~/catkin_make/src/scripts_aux gerado acima.&lt;br /&gt;
&lt;br /&gt;
* RosAriaJoyTeleop.py: controla o Pioneer usando o joystick.&lt;br /&gt;
&lt;br /&gt;
8.10. Dê permissão de execução para o script auxiliar mencionado acima:&lt;br /&gt;
  cd ~/catkin_ws/src/scripts_aux&lt;br /&gt;
  chmod 755 *&lt;br /&gt;
&lt;br /&gt;
8.11. Construa os pacotes:&lt;br /&gt;
  cd ~/catkin_ws&lt;br /&gt;
  catkin_make&lt;br /&gt;
&lt;br /&gt;
8.12.Em um novo terminal, execute o programa para definir os controles do pioneer&lt;br /&gt;
  rosrun scripts_aux RosAriaJoyTeleop.py.&lt;br /&gt;
&lt;br /&gt;
==Construção do Log de Dados Capturados pelo Sensor Sick LMS==&lt;br /&gt;
&lt;br /&gt;
1. Instale os pacotes sicktoolbox e sicktoolbox_wrapper:&lt;br /&gt;
  sudo apt-get install ros-indigo-sicktoolbox&lt;br /&gt;
  sudo apt-get install ros-indigo-sicktoolbox-wrapper&lt;br /&gt;
&lt;br /&gt;
2. Baixe os scripts auxiliares descritos abaixo para o diretório ~/catkin_make/src/scripts_aux.&lt;br /&gt;
&lt;br /&gt;
* RosAriaKeyTeleop.py: controla o Pioneer usando o teclado; e&lt;br /&gt;
* RosAriaLaserTf.py: publica a posição do sensor Sick LMS no Pioneer.&lt;br /&gt;
&lt;br /&gt;
3. Dê permissão de execução para os scripts mencionados acima:&lt;br /&gt;
  cd ~/catkin_ws/src/scripts_aux&lt;br /&gt;
  chmod 755 *&lt;br /&gt;
&lt;br /&gt;
4. Construa os pacotes:&lt;br /&gt;
  cd ~/catkin_ws&lt;br /&gt;
  catkin_make&lt;br /&gt;
&lt;br /&gt;
=Construção do Log em um Ambiente Real=&lt;br /&gt;
&lt;br /&gt;
1. Crie um arquivo de log para armazenar os dados capturados pelo sensor Sick LMS:&lt;br /&gt;
  sudo chmod 777 /dev/input/js0 &lt;br /&gt;
  sudo chmod 777 /dev/ttyUSB0        &lt;br /&gt;
  sudo chmod 777 /dev/ttyUSB1          &lt;br /&gt;
  roscore&lt;br /&gt;
  rosrun rosaria RosAria _port:=/dev/ttyUSB0&lt;br /&gt;
  rosrun sicktoolbox_wrapper sicklms _port:=/dev/ttyUSB1 _baud=38400&lt;br /&gt;
  rosrun scripts_aux RosAriaLaserTf.py&lt;br /&gt;
  rosparam set joy_node/dev &amp;quot;/dev/input/js0&amp;quot;&lt;br /&gt;
  rosrun joy joy_node&lt;br /&gt;
  rosrun scripts_aux RosAriaJoyTeleop.py&lt;br /&gt;
  cd &amp;quot;diretorio para armazenar o log&amp;quot;&lt;br /&gt;
  rosbag record -O log_map /scan /tf&lt;br /&gt;
  rosrun rviz rviz&lt;br /&gt;
&lt;br /&gt;
Obs. 1: Nos comandos 1 e 8 acima, substitua js0 pela porta do joystick, ttyUSB0 pela porta do Pioneer e ttyUSB1 pela porta do sensor Sick LMS.&lt;br /&gt;
Obs. 2: No comando 11 acima, substitua log_map pelo nome que queria dar ao arquivo de log.&lt;br /&gt;
Obs. 3: O último comando executa o pacote rviz, uma ferramenta de visualização do ROS. &lt;br /&gt;
&lt;br /&gt;
=Construção do Mapa em um Ambiente Simulado=&lt;br /&gt;
&lt;br /&gt;
1. Instale o pacote gazebo-ros:&lt;br /&gt;
  sudo apt-get install libsdformat1 libsdformat-dev&lt;br /&gt;
  sudo apt-get install ros-indigo-gazebo-ros-pkgs ros-indigo-gazebo-ros-control&lt;br /&gt;
&lt;br /&gt;
2. Instale os pacotes ros-control e ros-controllers para a interface de controle do robô entre o ROS e gazebo:&lt;br /&gt;
&lt;br /&gt;
  sudo apt-get install ros-indigo-ros-control ros-indigo-ros-controllers&lt;br /&gt;
&lt;br /&gt;
3. Para a simulação, será utilizado o modelo 3D do 2º andar do CT-VII (UFES). Faça o download dos modelos:&lt;br /&gt;
&lt;br /&gt;
* modeloCT7.zip: contém 3 pastas. Cada pasta corresponde a malhas que compõem o segundo andar do CT-VII.&lt;br /&gt;
&lt;br /&gt;
4. extraia essas 3 pastas e mova-as/copie para a pasta (oculta) de modelos do Gazebo:&lt;br /&gt;
  unzip modeloCT7.zip -d modeloCT7&lt;br /&gt;
  mv modeloCT7/* ~/.gazebo/models/&lt;br /&gt;
  &lt;br /&gt;
5. Baixe os arquivo abaixo para o diretório catkin_ws/src:&lt;br /&gt;
&lt;br /&gt;
* PioneerModel.zip: Pacotes com o modelo do pioneer utilizando o mapa do CT7&lt;br /&gt;
&lt;br /&gt;
6. Descompacte e construa os pacotes&lt;br /&gt;
  cd ~/catkin_ws/src&lt;br /&gt;
  unzip PioneerModel.zip&lt;br /&gt;
  cd ..&lt;br /&gt;
  catkin_make&lt;br /&gt;
&lt;br /&gt;
7. Baixe o pacote descrito abaixo para o diretório catkin_ws/src.&lt;br /&gt;
&lt;br /&gt;
* p3dx_controller.zip: controla o Pioneer usando o teclado.&lt;br /&gt;
&lt;br /&gt;
Após baixá-lo, descompacte-o e construa os pacotes:&lt;br /&gt;
  cd ~/catkin_ws/src&lt;br /&gt;
  unzip p3dx_controller.zip&lt;br /&gt;
  cd ~/catkin_ws/src/p3dx_controller/scripts&lt;br /&gt;
  chmod 755 *&lt;br /&gt;
  cd ~/catkin_ws&lt;br /&gt;
  catkin_make&lt;br /&gt;
&lt;br /&gt;
8. Crie um arquivo de log para armazenar os dados capturados pelo sensor Sick LMS:&lt;br /&gt;
  roscore&lt;br /&gt;
  roslaunch p3dx_gazebo gazebo.launch  &lt;br /&gt;
  rosrun p3dx_controller move.py&lt;br /&gt;
  cd ~/bagfiles/&lt;br /&gt;
  roslaunch p3dx_description rviz.launch &lt;br /&gt;
  rosbag record -O log_map /p3dx/laser/scan /tf&lt;br /&gt;
&lt;br /&gt;
== Criação do Mapa Usando o Pacote slam_gmapping ==&lt;br /&gt;
&lt;br /&gt;
1. Instale o pacote slam_gmapping:&lt;br /&gt;
  sudo apt-get install ros-indigo-slam-gmapping&lt;br /&gt;
&lt;br /&gt;
2. Instale o pacote navigation:&lt;br /&gt;
  sudo apt-get install ros-indigo-navigation&lt;br /&gt;
	&lt;br /&gt;
Obs: O pacote navigation contém o pacote map_server.&lt;br /&gt;
&lt;br /&gt;
3. Execute o mestre, use o carimbo de tempo do log e execute o pacote slam_gmapping: &lt;br /&gt;
  roscore&lt;br /&gt;
  rosparam set use_sim_time true&lt;br /&gt;
  rosrun gmapping slam_gmapping scan:=p3dx/laser/scan&lt;br /&gt;
&lt;br /&gt;
4.Em um novo terminal, reproduza o log:&lt;br /&gt;
  cd ~/bagfiles/&lt;br /&gt;
  rosbag play --clock log_map.bag&lt;br /&gt;
&lt;br /&gt;
5. Assim que a reprodução do log terminar, salve o mapa no disco. Para isso, entre no diretório no qual deseja salvar o mapa e execute:&lt;br /&gt;
 rosrun map_server map_saver&lt;br /&gt;
&lt;br /&gt;
Congratz! Você agora terá o mapa salvo como map.pgm.&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Atividades_pr%C3%A1ticas&amp;diff=81073</id>
		<title>Atividades práticas</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Atividades_pr%C3%A1ticas&amp;diff=81073"/>
				<updated>2015-09-17T19:55:18Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[category:Disciplinas]]&lt;br /&gt;
== [[Instalação do ROS]] ==&lt;br /&gt;
== [[Construção de um Mapa usando o Pionner, JoyStick e Sensor Sick LMS]] ==&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Wiki_do_LCAD&amp;diff=81072</id>
		<title>Wiki do LCAD</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Wiki_do_LCAD&amp;diff=81072"/>
				<updated>2015-09-16T19:20:44Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: Desfeita a edição 81071 de Mberger (Discussão)&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Bem-vindo à página de documentação do LCAD.&lt;br /&gt;
&lt;br /&gt;
O objetivo deste Wiki é documentar todas as ferramentas, procedimentos de instalação e de suporte oferecidos no Laboratório de Computação de Alto Desempenho (LCAD).&lt;br /&gt;
&lt;br /&gt;
Abaixo você pode conferir alguns roteiros:&lt;br /&gt;
&lt;br /&gt;
:*[[Lista de Aquisições]]&lt;br /&gt;
:*[[Lista de Ocupação de Endereços IP da Rede LCAD]]&lt;br /&gt;
:*[[Carmen Robot Navigation Toolkit]]&lt;br /&gt;
:*[[Máquina Associadora de Eventos - MAE]]&lt;br /&gt;
:*[[Protocolo de Concessão de Contas no LCAD]]&lt;br /&gt;
:*[[Processo de Criação de Contas no LCAD]]&lt;br /&gt;
:*[[Hardwares e Serviços]]&lt;br /&gt;
:*[[:Media:Tutorial wiki.pdf|Guia de Utilização do Wiki LCAD]]&lt;br /&gt;
:*[[Guia de Utilização do Doxygen]]&lt;br /&gt;
:*[[Micro Manual de Utilização do Cluster]]&lt;br /&gt;
:*[[Processamento Paralelo]]&lt;br /&gt;
:*[[Como Funciona o Backup do LCAD]]&lt;br /&gt;
:*[[Como Utilizar a Rede Wireless no LCAD]]&lt;br /&gt;
:*[[Uso Básico do Subversion]]&lt;br /&gt;
:*[[Instalações Úteis]]&lt;br /&gt;
:*[[Dicas e Configurações]]&lt;br /&gt;
:*[[Construção de pacotes RPM|Como construir pacotes RPM - Exemplo básico]]&lt;br /&gt;
:*[[Telefones Úteis]]&lt;br /&gt;
:*[[Como preparar café]]&lt;br /&gt;
:*[[Planejamento de Atividades]]&lt;br /&gt;
:*[[Apresentações]]&lt;br /&gt;
:*[[Identidade Visual]]&lt;br /&gt;
:*[[Material de Consumo Específico]]&lt;br /&gt;
:*[[Como criar branches no SVN]]&lt;br /&gt;
:*[[Roteiro de Instalação do Fedora nos Blades para o Carro]]&lt;br /&gt;
:*[[Roteiro de como configurar NIS no FEDORA 17]]&lt;br /&gt;
:*[[Roteiro de Instalação do Apache e SVN com autenticação NIS]]&lt;br /&gt;
:*[[Instalar o Confirm Account no Wiki]]&lt;br /&gt;
:*[[Configurar SSH sem a necessidade de usar senha]]&lt;br /&gt;
:*[[Criando um repositório no SVN]]&lt;br /&gt;
:*[[Instalando/Conectando via VNC no Carro]]&lt;br /&gt;
:*[[Criando servidor NTP e atualizando as máquinas pela rede]]&lt;br /&gt;
:*[[Adicionando latência com tc no Linux]]&lt;br /&gt;
:*[[Criando Kernel RT linux]]&lt;br /&gt;
:*[[Como usar os pacotes ROS visual search thin e visual search webcam]]&lt;br /&gt;
:*[[Como usar o pacote ROS cyton]]&lt;br /&gt;
:*[[Criando mapas Carmen]]&lt;br /&gt;
:*[[Repetidor Wireless]]&lt;br /&gt;
:*[[Servidor DHCP]]&lt;br /&gt;
:*[[Servidor DHCP Wireless]]&lt;br /&gt;
:*[[Procedimento para Limpar Mapas do Carmen]]&lt;br /&gt;
:*[[Como obter GUID das câmeras PointGrey]]&lt;br /&gt;
:*[[Estrutura de Rede do LCAD]]&lt;br /&gt;
:*[[Roteiro de Instalação Python/Theano]]&lt;br /&gt;
&lt;br /&gt;
Para uma listagem mais completa dos artigos contidos neste Wiki, você pode [[Special:Categories|navegar pelas categorias.]]&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Wiki_do_LCAD&amp;diff=81071</id>
		<title>Wiki do LCAD</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Wiki_do_LCAD&amp;diff=81071"/>
				<updated>2015-09-16T19:19:30Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Bem-vindo à página de documentação do LCAD.&lt;br /&gt;
&lt;br /&gt;
O objetivo deste Wiki é documentar todas as ferramentas, procedimentos de instalação e de suporte oferecidos no Laboratório de Computação de Alto Desempenho (LCAD).&lt;br /&gt;
&lt;br /&gt;
Abaixo você pode conferir alguns roteiros:&lt;br /&gt;
&lt;br /&gt;
:*[[Lista de Aquisições]]&lt;br /&gt;
:*[[Lista de Ocupação de Endereços IP da Rede LCAD]]&lt;br /&gt;
:*[[Carmen Robot Navigation Toolkit]]&lt;br /&gt;
:*[[Máquina Associadora de Eventos - MAE]]&lt;br /&gt;
:*[[Protocolo de Concessão de Contas no LCAD]]&lt;br /&gt;
:*[[Processo de Criação de Contas no LCAD]]&lt;br /&gt;
:*[[Hardwares e Serviços]]&lt;br /&gt;
:*[[:Media:Tutorial wiki.pdf|Guia de Utilização do Wiki LCAD]]&lt;br /&gt;
:*[[Guia de Utilização do Doxygen]]&lt;br /&gt;
:*[[Micro Manual de Utilização do Cluster]]&lt;br /&gt;
:*[[Processamento Paralelo]]&lt;br /&gt;
:*[[Como Funciona o Backup do LCAD]]&lt;br /&gt;
:*[[Como Utilizar a Rede Wireless no LCAD]]&lt;br /&gt;
:*[[Uso Básico do SVN]]&lt;br /&gt;
:*[[Instalações Úteis]]&lt;br /&gt;
:*[[Dicas e Configurações]]&lt;br /&gt;
:*[[Construção de pacotes RPM|Como construir pacotes RPM - Exemplo básico]]&lt;br /&gt;
:*[[Telefones Úteis]]&lt;br /&gt;
:*[[Como preparar café]]&lt;br /&gt;
:*[[Planejamento de Atividades]]&lt;br /&gt;
:*[[Apresentações]]&lt;br /&gt;
:*[[Identidade Visual]]&lt;br /&gt;
:*[[Material de Consumo Específico]]&lt;br /&gt;
:*[[Como criar branches no SVN]]&lt;br /&gt;
:*[[Roteiro de Instalação do Fedora nos Blades para o Carro]]&lt;br /&gt;
:*[[Roteiro de como configurar NIS no FEDORA 17]]&lt;br /&gt;
:*[[Roteiro de Instalação do Apache e SVN com autenticação NIS]]&lt;br /&gt;
:*[[Instalar o Confirm Account no Wiki]]&lt;br /&gt;
:*[[Configurar SSH sem a necessidade de usar senha]]&lt;br /&gt;
:*[[Criando um repositório no SVN]]&lt;br /&gt;
:*[[Instalando/Conectando via VNC no Carro]]&lt;br /&gt;
:*[[Criando servidor NTP e atualizando as máquinas pela rede]]&lt;br /&gt;
:*[[Adicionando latência com tc no Linux]]&lt;br /&gt;
:*[[Criando Kernel RT linux]]&lt;br /&gt;
:*[[Como usar os pacotes ROS visual search thin e visual search webcam]]&lt;br /&gt;
:*[[Como usar o pacote ROS cyton]]&lt;br /&gt;
:*[[Criando mapas Carmen]]&lt;br /&gt;
:*[[Repetidor Wireless]]&lt;br /&gt;
:*[[Servidor DHCP]]&lt;br /&gt;
:*[[Servidor DHCP Wireless]]&lt;br /&gt;
:*[[Procedimento para Limpar Mapas do Carmen]]&lt;br /&gt;
:*[[Como obter GUID das câmeras PointGrey]]&lt;br /&gt;
:*[[Estrutura de Rede do LCAD]]&lt;br /&gt;
:*[[Roteiro de Instalação Python/Theano]]&lt;br /&gt;
&lt;br /&gt;
Para uma listagem mais completa dos artigos contidos neste Wiki, você pode [[Special:Categories|navegar pelas categorias.]]&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Constru%C3%A7%C3%A3o_de_um_Mapa_usando_o_Pionner,_JoyStick_e_Sensor_Sick_LMS&amp;diff=81070</id>
		<title>Construção de um Mapa usando o Pionner, JoyStick e Sensor Sick LMS</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Constru%C3%A7%C3%A3o_de_um_Mapa_usando_o_Pionner,_JoyStick_e_Sensor_Sick_LMS&amp;diff=81070"/>
				<updated>2015-09-10T19:36:39Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Instalação dos Pacotes para Controlar o Pionner com JoyStick==&lt;br /&gt;
&lt;br /&gt;
1. Instalar o pacote ROSARIA (http://wiki.ros.org/ROSARIA):&lt;br /&gt;
  cd ~/catkin_ws/src&lt;br /&gt;
  git clone https://github.com/amor-ros-pkg/rosaria.git&lt;br /&gt;
&lt;br /&gt;
2. Instalar as dependências:&lt;br /&gt;
  rosdep update&lt;br /&gt;
  rosdep install rosaria&lt;br /&gt;
  cd ~/catkin_ws&lt;br /&gt;
  catkin_make&lt;br /&gt;
&lt;br /&gt;
3. Instalar o pacote jstest-gtk para utilizar o joystick:&lt;br /&gt;
  sudo apt-get install jstest-gtk&lt;br /&gt;
	&lt;br /&gt;
4. Identificar a porta atribuída ao joystick (e.g., jsX). Para isso, liste o conteúdo do diretório /dev/input antes e depois de conectar o joystick: &lt;br /&gt;
  ls /dev/input/&lt;br /&gt;
	&lt;br /&gt;
5. Liberar o acesso à porta do joystick:&lt;br /&gt;
  sudo chmod 777 /dev/input/jsX&lt;br /&gt;
&lt;br /&gt;
Observação: Mude &amp;quot;X&amp;quot; pelo número referente a seu dispositiv&lt;br /&gt;
	&lt;br /&gt;
Para testar o joystic use:&lt;br /&gt;
		$ sudo jstest /dev/input/jsX&lt;br /&gt;
	A saída do joystick aparecerá na tela. Aperte os botões para ver a alteração nos dados&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*instalar o pacote joy do ROS:&lt;br /&gt;
		$ sudo apt-get install ros-indigo-joy&lt;br /&gt;
&lt;br /&gt;
	Mais informações: http://wiki.ros.org/joy/Tutorials/ConfiguringALinuxJoystick&lt;br /&gt;
&lt;br /&gt;
	*Faça o download do programa para definir os controles do Pioneer&lt;br /&gt;
	 (modificar para nosso link)&lt;br /&gt;
		http://wiki.lofarolabs.com/index.php/Setting_Up_joystick_to_control_Pioneer_3-DX_in_ROS	&lt;br /&gt;
&lt;br /&gt;
*Controlar o Pioneer&lt;br /&gt;
	1.Inicie o roscore&lt;br /&gt;
		$roscore&lt;br /&gt;
	2.Conecte o controle&lt;br /&gt;
	3.Em um novo terminal configure os paramentros para o nó joy com o caminho do seu dispositivo	&lt;br /&gt;
		$rosparam set joy_node/dev &amp;quot;/dev/input/jsX&amp;quot;&lt;br /&gt;
    4.Rode o nó joy_node&lt;br /&gt;
		$ rosrun joy joy_node&lt;br /&gt;
		*Opcional*:Para visualizar os dados enviados ao joy pelo controle use em um novo terminal:	&lt;br /&gt;
			$rostopic echo joy&lt;br /&gt;
	5.Conecte o robô&lt;br /&gt;
	6.Em um novo terminal Libere a porta do robô&lt;br /&gt;
		 sudo chmod 777 /dev/ttyUSB*&lt;br /&gt;
	7.Rode o Rosaria&lt;br /&gt;
		$ rosrun rosaria RosAria&lt;br /&gt;
		**caso ocorra algum erro com a porta use:&lt;br /&gt;
		 $ rosrun rosaria RosAria _port:=/dev/ttyUSB0&lt;br /&gt;
		 Substituindo ttyUSB0 pela porta do robô&lt;br /&gt;
	8.Em um novo terminal rode o programa para definir os controles do pioneer&lt;br /&gt;
		$ rosrun yourpackage Joystick_controller.cpp&lt;br /&gt;
&lt;br /&gt;
==Instalação do Drive do Sensor Sick LMS e Gerar um Log dos Dados Capturados pelo Sensor==&lt;br /&gt;
&lt;br /&gt;
==Construção do Mapa==&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Constru%C3%A7%C3%A3o_de_um_Mapa_usando_o_Pionner,_JoyStick_e_Sensor_Sick_LMS&amp;diff=81069</id>
		<title>Construção de um Mapa usando o Pionner, JoyStick e Sensor Sick LMS</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Constru%C3%A7%C3%A3o_de_um_Mapa_usando_o_Pionner,_JoyStick_e_Sensor_Sick_LMS&amp;diff=81069"/>
				<updated>2015-09-10T19:35:04Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Instalação dos Pacotes para Controlar o Pionner com JoyStick==&lt;br /&gt;
&lt;br /&gt;
1. Instalar o pacote ROSARIA (http://wiki.ros.org/ROSARIA):&lt;br /&gt;
  cd ~/catkin_ws/src&lt;br /&gt;
  git clone https://github.com/amor-ros-pkg/rosaria.git&lt;br /&gt;
&lt;br /&gt;
2. Instalar as dependências:&lt;br /&gt;
  rosdep update&lt;br /&gt;
  rosdep install rosaria&lt;br /&gt;
  cd ~/catkin_ws&lt;br /&gt;
  catkin_make&lt;br /&gt;
&lt;br /&gt;
3. Instalar o pacote jstest-gtk para utilizar o joystick:&lt;br /&gt;
  sudo apt-get install jstest-gtk&lt;br /&gt;
	&lt;br /&gt;
4. Verificar a porta atribuída ao joystick (e.g., jsX). Para isso, liste o conteúdo do diretório /dev/input antes e depois de conectar o joystick: &lt;br /&gt;
  ls /dev/input/&lt;br /&gt;
	&lt;br /&gt;
5. Liberar o acesso a porta,  mude &amp;quot;X&amp;quot; pelo numero referente a seu dispositivo:&lt;br /&gt;
		$ sudo chmod 777 /dev/input/jsX&lt;br /&gt;
&lt;br /&gt;
	Para testar o joystic use:&lt;br /&gt;
		$ sudo jstest /dev/input/jsX&lt;br /&gt;
	A saída do joystick aparecerá na tela. Aperte os botões para ver a alteração nos dados&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*instalar o pacote joy do ROS:&lt;br /&gt;
		$ sudo apt-get install ros-indigo-joy&lt;br /&gt;
&lt;br /&gt;
	Mais informações: http://wiki.ros.org/joy/Tutorials/ConfiguringALinuxJoystick&lt;br /&gt;
&lt;br /&gt;
	*Faça o download do programa para definir os controles do Pioneer&lt;br /&gt;
	 (modificar para nosso link)&lt;br /&gt;
		http://wiki.lofarolabs.com/index.php/Setting_Up_joystick_to_control_Pioneer_3-DX_in_ROS	&lt;br /&gt;
&lt;br /&gt;
*Controlar o Pioneer&lt;br /&gt;
	1.Inicie o roscore&lt;br /&gt;
		$roscore&lt;br /&gt;
	2.Conecte o controle&lt;br /&gt;
	3.Em um novo terminal configure os paramentros para o nó joy com o caminho do seu dispositivo	&lt;br /&gt;
		$rosparam set joy_node/dev &amp;quot;/dev/input/jsX&amp;quot;&lt;br /&gt;
    4.Rode o nó joy_node&lt;br /&gt;
		$ rosrun joy joy_node&lt;br /&gt;
		*Opcional*:Para visualizar os dados enviados ao joy pelo controle use em um novo terminal:	&lt;br /&gt;
			$rostopic echo joy&lt;br /&gt;
	5.Conecte o robô&lt;br /&gt;
	6.Em um novo terminal Libere a porta do robô&lt;br /&gt;
		 sudo chmod 777 /dev/ttyUSB*&lt;br /&gt;
	7.Rode o Rosaria&lt;br /&gt;
		$ rosrun rosaria RosAria&lt;br /&gt;
		**caso ocorra algum erro com a porta use:&lt;br /&gt;
		 $ rosrun rosaria RosAria _port:=/dev/ttyUSB0&lt;br /&gt;
		 Substituindo ttyUSB0 pela porta do robô&lt;br /&gt;
	8.Em um novo terminal rode o programa para definir os controles do pioneer&lt;br /&gt;
		$ rosrun yourpackage Joystick_controller.cpp&lt;br /&gt;
&lt;br /&gt;
==Instalação do Drive do Sensor Sick LMS e Gerar um Log dos Dados Capturados pelo Sensor==&lt;br /&gt;
&lt;br /&gt;
==Construção do Mapa==&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Constru%C3%A7%C3%A3o_de_um_Mapa_usando_o_Pionner,_JoyStick_e_Sensor_Sick_LMS&amp;diff=81068</id>
		<title>Construção de um Mapa usando o Pionner, JoyStick e Sensor Sick LMS</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Constru%C3%A7%C3%A3o_de_um_Mapa_usando_o_Pionner,_JoyStick_e_Sensor_Sick_LMS&amp;diff=81068"/>
				<updated>2015-09-10T19:34:27Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: Criou página com '==Instalação dos Pacotes para Controlar o Pionner com JoyStick==  1. Instalar o pacote ROSARIA (http://wiki.ros.org/ROSARIA):   cd ~/catkin_ws/src   git clone https://github...'&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Instalação dos Pacotes para Controlar o Pionner com JoyStick==&lt;br /&gt;
&lt;br /&gt;
1. Instalar o pacote ROSARIA (http://wiki.ros.org/ROSARIA):&lt;br /&gt;
  cd ~/catkin_ws/src&lt;br /&gt;
  git clone https://github.com/amor-ros-pkg/rosaria.git&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Atividades_pr%C3%A1ticas&amp;diff=81067</id>
		<title>Atividades práticas</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Atividades_pr%C3%A1ticas&amp;diff=81067"/>
				<updated>2015-09-10T19:28:04Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[category:Disciplinas]]&lt;br /&gt;
== [[Instalação do ROS]] ==&lt;br /&gt;
== [[Construção de um Mapa usando o Pionner, JoyStick e Sensor Sick LMS]] ==&lt;br /&gt;
== [[Instalação do Simulador]] ==&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Atividades_pr%C3%A1ticas&amp;diff=81066</id>
		<title>Atividades práticas</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Atividades_pr%C3%A1ticas&amp;diff=81066"/>
				<updated>2015-09-10T19:25:59Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: /* Instalar os Pacotes para Controlar o Pionner com JoyStick */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[category:Disciplinas]]&lt;br /&gt;
== [[Instalação do ROS]] ==&lt;br /&gt;
== [[Construção de um Mapa usando o Pionner, JoyStick e Sensor Sick LMS]] ==&lt;br /&gt;
&lt;br /&gt;
= Instalar o Drive do Sensor Sick LMS  e Gerar um Log dos Dados Capturados pelo Sensor =&lt;br /&gt;
&lt;br /&gt;
= Construir e Salvar o Mapa =&lt;br /&gt;
&lt;br /&gt;
== [[Instalação do Simulador]] ==&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Atividades_pr%C3%A1ticas&amp;diff=81065</id>
		<title>Atividades práticas</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Atividades_pr%C3%A1ticas&amp;diff=81065"/>
				<updated>2015-09-10T19:10:53Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: /* Criação do Mapa do CTVII */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[category:Disciplinas]]&lt;br /&gt;
== [[Instalação do ROS]] ==&lt;br /&gt;
== [[Construção de um Mapa usando o Pionner, JoyStick e Sensor Sick LMS]] ==&lt;br /&gt;
&lt;br /&gt;
= Instalar os Pacotes para Controlar o Pionner com JoyStick =&lt;br /&gt;
&lt;br /&gt;
1. Instalar o pacote ROSARIA&lt;br /&gt;
  cd ~/catkin_ws/src&lt;br /&gt;
  git clone https://github.com/amor-ros-pkg/rosaria.git&lt;br /&gt;
&lt;br /&gt;
	Dependencias necessárias:&lt;br /&gt;
	$rosdep update&lt;br /&gt;
    $rosdep install rosaria&lt;br /&gt;
    $cd ~/catkin_ws&lt;br /&gt;
    $catkin_make&lt;br /&gt;
&lt;br /&gt;
	Mais informações:http://wiki.ros.org/ROSARIA&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
- Instalar jstest-gtk para testar o joystick&lt;br /&gt;
		$ sudo apt-get install jstest-gtk&lt;br /&gt;
	Testando o joystick:&lt;br /&gt;
	Verifique como foi reconhecido seu joystic (normalmente jsX)&lt;br /&gt;
		$ ls /dev/input/&lt;br /&gt;
	Obs: liste antes de conectar o controle, logo após conecte e liste novamente para verificar qual nome reconhecido&lt;br /&gt;
	Libere o acesso a porta,  mude &amp;quot;X&amp;quot; pelo numero referente a seu dispositivo:&lt;br /&gt;
		$ sudo chmod 777 /dev/input/jsX&lt;br /&gt;
&lt;br /&gt;
	Para testar o joystic use:&lt;br /&gt;
		$ sudo jstest /dev/input/jsX&lt;br /&gt;
	A saída do joystick aparecerá na tela. Aperte os botões para ver a alteração nos dados&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*instalar o pacote joy do ROS:&lt;br /&gt;
		$ sudo apt-get install ros-indigo-joy&lt;br /&gt;
&lt;br /&gt;
	Mais informações: http://wiki.ros.org/joy/Tutorials/ConfiguringALinuxJoystick&lt;br /&gt;
&lt;br /&gt;
	*Faça o download do programa para definir os controles do Pioneer&lt;br /&gt;
	 (modificar para nosso link)&lt;br /&gt;
		http://wiki.lofarolabs.com/index.php/Setting_Up_joystick_to_control_Pioneer_3-DX_in_ROS	&lt;br /&gt;
&lt;br /&gt;
*Controlar o Pioneer&lt;br /&gt;
	1.Inicie o roscore&lt;br /&gt;
		$roscore&lt;br /&gt;
	2.Conecte o controle&lt;br /&gt;
	3.Em um novo terminal configure os paramentros para o nó joy com o caminho do seu dispositivo	&lt;br /&gt;
		$rosparam set joy_node/dev &amp;quot;/dev/input/jsX&amp;quot;&lt;br /&gt;
    4.Rode o nó joy_node&lt;br /&gt;
		$ rosrun joy joy_node&lt;br /&gt;
		*Opcional*:Para visualizar os dados enviados ao joy pelo controle use em um novo terminal:	&lt;br /&gt;
			$rostopic echo joy&lt;br /&gt;
	5.Conecte o robô&lt;br /&gt;
	6.Em um novo terminal Libere a porta do robô&lt;br /&gt;
		 sudo chmod 777 /dev/ttyUSB*&lt;br /&gt;
	7.Rode o Rosaria&lt;br /&gt;
		$ rosrun rosaria RosAria&lt;br /&gt;
		**caso ocorra algum erro com a porta use:&lt;br /&gt;
		 $ rosrun rosaria RosAria _port:=/dev/ttyUSB0&lt;br /&gt;
		 Substituindo ttyUSB0 pela porta do robô&lt;br /&gt;
	8.Em um novo terminal rode o programa para definir os controles do pioneer&lt;br /&gt;
		$ rosrun yourpackage Joystick_controller.cpp&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
= Instalar o Drive do Sensor Sick LMS  e Gerar um Log dos Dados Capturados pelo Sensor =&lt;br /&gt;
&lt;br /&gt;
= Construir e Salvar o Mapa =&lt;br /&gt;
&lt;br /&gt;
== [[Instalação do Simulador]] ==&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Instala%C3%A7%C3%A3o_do_ROS&amp;diff=81064</id>
		<title>Instalação do ROS</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Instala%C3%A7%C3%A3o_do_ROS&amp;diff=81064"/>
				<updated>2015-09-10T18:42:08Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Inicialmente, instale o Ubuntu 14.04.&lt;br /&gt;
&lt;br /&gt;
Siga o tutorial de instalação do ROS disponível no link abaixo.&lt;br /&gt;
 http://wiki.ros.org/indigo/Installation/Ubuntu&lt;br /&gt;
&lt;br /&gt;
Faça os tutoriais Beginner e Intermediate disponíveis no link a seguir.&lt;br /&gt;
 http://wiki.ros.org/ROS/Tutorials&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Instala%C3%A7%C3%A3o_do_ROS&amp;diff=81063</id>
		<title>Instalação do ROS</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Instala%C3%A7%C3%A3o_do_ROS&amp;diff=81063"/>
				<updated>2015-09-10T18:40:59Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: Criou página com 'Inicialmente, instale o Ubuntu 14.04.  Siga o tutorial de instalação do ROS disponível no link abaixo. http://wiki.ros.org/indigo/Installation/Ubuntu  Faça os tutoriais Be...'&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Inicialmente, instale o Ubuntu 14.04.&lt;br /&gt;
&lt;br /&gt;
Siga o tutorial de instalação do ROS disponível no link abaixo.&lt;br /&gt;
http://wiki.ros.org/indigo/Installation/Ubuntu&lt;br /&gt;
&lt;br /&gt;
Faça os tutoriais Beginner e Intermediate disponíveis no link a seguir.&lt;br /&gt;
http://wiki.ros.org/ROS/Tutorials&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Atividades_pr%C3%A1ticas&amp;diff=81062</id>
		<title>Atividades práticas</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Atividades_pr%C3%A1ticas&amp;diff=81062"/>
				<updated>2015-09-10T18:36:12Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: Criou página com 'category:Disciplinas == Instalação do ROS == == Criação do Mapa do CTVII == == Instalação do Simulador =='&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[category:Disciplinas]]&lt;br /&gt;
== [[Instalação do ROS]] ==&lt;br /&gt;
== [[Criação do Mapa do CTVII]] ==&lt;br /&gt;
== [[Instalação do Simulador]] ==&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=TEI_Rob%C3%B3tica_Probabilist%C3%ADca_2015/2&amp;diff=81061</id>
		<title>TEI Robótica Probabilistíca 2015/2</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=TEI_Rob%C3%B3tica_Probabilist%C3%ADca_2015/2&amp;diff=81061"/>
				<updated>2015-09-10T18:35:21Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: Criou página com 'category:Disciplinas == Atividades práticas =='&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[category:Disciplinas]]&lt;br /&gt;
== [[Atividades práticas]] ==&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Grupos_de_Estudos_Cient%C3%ADficos&amp;diff=81060</id>
		<title>Grupos de Estudos Científicos</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Grupos_de_Estudos_Cient%C3%ADficos&amp;diff=81060"/>
				<updated>2015-09-10T18:28:55Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[category:Disciplinas]]&lt;br /&gt;
:*[[Estudos em robótica probabilística]]&lt;br /&gt;
:*[[Estudos em programação paralela em CUDA]]&lt;br /&gt;
:*[[Fusão de Sensores]]&lt;br /&gt;
:*[[Computacao de Alto Desempenho em Financas]]&lt;br /&gt;
:*[[TEI Veículos Autônomos]]&lt;br /&gt;
:*[[TEI Robótica Probabilistíca Avançada e Fusão de Sensores]]&lt;br /&gt;
:*[[Planejamento da Volta-da-UFES]]&lt;br /&gt;
:*[[Cognição Visual 2012/1]]&lt;br /&gt;
:*[[TEI Robótica Probabilistíca 2015/2]]&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Amazon_Picking_Challenge&amp;diff=81046</id>
		<title>Amazon Picking Challenge</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Amazon_Picking_Challenge&amp;diff=81046"/>
				<updated>2015-06-29T15:01:36Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: /* Professor do LCAD obtém a sétima colocação na Amazon Picking Challenge */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
== Professor do LCAD obtém a sétima colocação na Amazon Picking Challenge==&lt;br /&gt;
&lt;br /&gt;
[[Arquivo:Photo-icra.jpg|480px|centro]]&lt;br /&gt;
&lt;br /&gt;
O professor Alberto F. De Souza, membro do Laboratório de Computação de Alto Desempenho, obteve a sétima colocação na Amazon Picking Challenge, uma competição de robótica autônoma promovida pela Amazon ([http://amazonpickingchallenge.org]). O professor Alberto, em parceria com o grupo do prof. Kostas Bekris, da Rutgers University (USA), como parte de suas atividades de pós-doutoramento, desenvolveu hardware e software para o robô Motoman (SDA10, Yaskawa) utilizando várias tecnologias previamente desenvolvidas no LCAD. O resultado obtido coloca o LCAD, o PPGI e a UFES em um time que se encontra entre os 10 melhores em manipulação robótica autônoma do mundo. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Reportagem da Bloomberg sobre a Amazon Picking Challenge com vídeo com entrevista do prof. Alberto.&lt;br /&gt;
&lt;br /&gt;
[http://www.bloomberg.com/news/articles/2015-05-28/robot-with-a-human-grasp-is-amazon-s-challenge-to-students http://www.bloomberg.com/news/articles/2015-05-28/robot-with-a-human-grasp-is-amazon-s-challenge-to-students]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentada a proposta inicial de sistema para o robô no início do projeto. A arquitetura do sistema final, utilizada na competição, é uma versão ligeiramente aprimorada.&lt;br /&gt;
&lt;br /&gt;
[[Image:1.jpg|thumb|600px|centro|nenhum|link=http://youtu.be/M7ktnz32BA0]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo, sao apresentados os sistemas de mapeamento, localização e detecção de objetos preliminares.&lt;br /&gt;
&lt;br /&gt;
[[Image:2.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/47_Bj3o9s-Y]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
O detector de objetos utilizado é uma versão melhorada do detector Linemod, desenvolvida pelo prof. Alberto. Este vídeo mostra um teste após algumas das melhorias realizadas na versão publicamente disponível de Linemod. A versão final desenvolvida pelo prof. e utilizada na competição será disponibilizada como software livre.&lt;br /&gt;
&lt;br /&gt;
[[Image:3.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/s_mtzXzKT7c]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentado o robô Baxter realizando todas as principais tarefas da competição. A Rutgers já possuia este robô, que foi utilizado na fase preliminar do projeto. O professor Alberto era o responsável pelos subsistemas de tomada de decisão, mapeamento, localização e detecção de objetos, equanto que a equipe do prof. Bekris era responsável pela parte de planejamento do movimento do robô (especialidade da equipe do prof. Bekris). Contudo, neste vídeo o sistema de planejamento dos movimentos do robô utilizado também foi desenvolvido pelo prof. Alberto com base no software MoveIt!, disponível na forma de software livre. A detecção de objetos ainda era viabilizada por uma versão preliminar do sistema utilizado na competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:4.jpg|thumb|600px|centro|nenhum|link=http://youtu.be/0K_PHgdauGo]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido à Amanzon em competição paralela promovida pela mesma para determinar a quem a empresa iria conceder uma estante e os objetos que seriam usados na competição. Nele é possível ver o planejador de movimentos do grupo do prof. Bekris em simulações.&lt;br /&gt;
&lt;br /&gt;
[[Image:5.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/eFRg8EhO2Uk]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido ao fabricante do robô que usado na competição, Motoman SDA10F, fabricado pela Yaskawa. Graças a este vídeo a Rutgers ganhou (por 6 meses) um robô de U$150,000.00.&lt;br /&gt;
&lt;br /&gt;
[[Image:6.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/-Lz8SbGRlmw]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido para a Amazon em uma competição paralela para receber apoio para transportar o robô para a competição (a Rutgers ganhou o apoio).&lt;br /&gt;
&lt;br /&gt;
[[Image:7.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/H33EeTi3FaI]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Versão mais avançada do sistema desenvolvido rodando no Baxter e pegando objetos na estante da competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:8.jpg|thumb|600px|centro|nenhum|link=http://youtu.be/kx6mFj9pjPU]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Este manipulador a vácuo foi projetado pelo professor Alberto especialmente para a competição.&lt;br /&gt;
&lt;br /&gt;
[[Arquivo:Photo_1.JPG|thumb|480px|centro|Rascunho a mão do projeto do manipulador vácuo desenvolvido para a competição]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Todos os pontos obtidos na competição vieram dele. A estrutura física básica dele foi implementada pela empresa Unigripper (http://www.unigripper.com). Mas o acionamento eletrônico, assim como o driver de acionamente computacional, foram implementados pelo prof. Alberto. A Rutgers ganhou o apoio da Unigripper após ela ter nos solecionado em uma competição paralela à Amazon Picking Challenge promovida pela empresa. &lt;br /&gt;
&lt;br /&gt;
[[Image:9.jpg|thumb|600px|centro|nenhum|link=https://www.youtube.com/watch?v=4hWTLhXAjyA]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo, o prof. Alberto apresenta o sistema completo que ele desenvolveu (inclusive o planejamento de movimento) rodando com a parte de mapeamento, localização e detecção de objetos no mundo real, mas simulando o robô utilizado na competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:10.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/4__ainsD0QI]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentada a versão final do sistema utilizado na competição sendo empregada no robô utilizado na competição. No vídeo, o robô Motoman SDA10F realiza com sucesso uma das tarefas da competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:11.jpg|thumb|600px|centro|nenhum|link=https://www.youtube.com/watch?v=tofuV3d3XW0]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é novamente apresentada a versão final do sistema utilizado na competição sendo empregada no robô utilizado na competição. No vídeo, o robô Motoman SDA10F realiza com sucesso várias das tarefas da competição: &lt;br /&gt;
&lt;br /&gt;
[[Image:12.jpg|thumb|600px|centro|nenhum|link=https://www.youtube.com/watch?v=ag6aSwCUzMA]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo 5x mais rápido:&lt;br /&gt;
&lt;br /&gt;
[[Image:13.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/8bXFiNWPc3E]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Apenas o robô, 5x:&lt;br /&gt;
&lt;br /&gt;
[[Image:14.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/_bEGktiyGSE]]&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Arquivo:14.jpg&amp;diff=81045</id>
		<title>Arquivo:14.jpg</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Arquivo:14.jpg&amp;diff=81045"/>
				<updated>2015-06-29T14:59:47Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Arquivo:13.jpg&amp;diff=81044</id>
		<title>Arquivo:13.jpg</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Arquivo:13.jpg&amp;diff=81044"/>
				<updated>2015-06-29T14:59:37Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Arquivo:12.jpg&amp;diff=81043</id>
		<title>Arquivo:12.jpg</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Arquivo:12.jpg&amp;diff=81043"/>
				<updated>2015-06-29T14:59:26Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Amazon_Picking_Challenge&amp;diff=81042</id>
		<title>Amazon Picking Challenge</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Amazon_Picking_Challenge&amp;diff=81042"/>
				<updated>2015-06-25T17:30:38Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: /* Professor do LCAD obtém a sétima colocação na Amazon Picking Challenge */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
== Professor do LCAD obtém a sétima colocação na Amazon Picking Challenge==&lt;br /&gt;
&lt;br /&gt;
[[Arquivo:Photo-icra.jpg|480px|centro]]&lt;br /&gt;
&lt;br /&gt;
O professor Alberto F. De Souza, membro do Laboratório de Computação de Alto Desempenho, obteve a sétima colocação na Amazon Picking Challenge, uma competição de robótica autônoma promovida pela Amazon ([http://amazonpickingchallenge.org]). O professor Alberto, em parceria com o grupo do prof. Kostas Bekris, da Rutgers University (USA), como parte de suas atividades de pós-doutoramento, desenvolveu hardware e software para o robô Motoman (SDA10, Yaskawa) utilizando várias tecnologias previamente desenvolvidas no LCAD. O resultado obtido coloca o LCAD, o PPGI e a UFES em um time que se encontra entre os 10 melhores em manipulação robótica autônoma do mundo. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Reportagem da Bloomberg sobre a Amazon Picking Challenge com vídeo com entrevista do prof. Alberto.&lt;br /&gt;
&lt;br /&gt;
[http://www.bloomberg.com/news/articles/2015-05-28/robot-with-a-human-grasp-is-amazon-s-challenge-to-students http://www.bloomberg.com/news/articles/2015-05-28/robot-with-a-human-grasp-is-amazon-s-challenge-to-students]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentada a proposta inicial de sistema para o robô no início do projeto. A arquitetura do sistema final, utilizada na competição, é uma versão ligeiramente aprimorada.&lt;br /&gt;
&lt;br /&gt;
[[Image:1.jpg|thumb|600px|centro|nenhum|link=http://youtu.be/M7ktnz32BA0]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo, sao apresentados os sistemas de mapeamento, localização e detecção de objetos preliminares.&lt;br /&gt;
&lt;br /&gt;
[[Image:2.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/47_Bj3o9s-Y]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
O detector de objetos utilizado é uma versão melhorada do detector Linemod, desenvolvida pelo prof. Alberto. Este vídeo mostra um teste após algumas das melhorias realizadas na versão publicamente disponível de Linemod. A versão final desenvolvida pelo prof. e utilizada na competição será disponibilizada como software livre.&lt;br /&gt;
&lt;br /&gt;
[[Image:3.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/s_mtzXzKT7c]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentado o robô Baxter realizando todas as principais tarefas da competição. A Rutgers já possuia este robô, que foi utilizado na fase preliminar do projeto. O professor Alberto era o responsável pelos subsistemas de tomada de decisão, mapeamento, localização e detecção de objetos, equanto que a equipe do prof. Bekris era responsável pela parte de planejamento do movimento do robô (especialidade da equipe do prof. Bekris). Contudo, neste vídeo o sistema de planejamento dos movimentos do robô utilizado também foi desenvolvido pelo prof. Alberto com base no software MoveIt!, disponível na forma de software livre. A detecção de objetos ainda era viabilizada por uma versão preliminar do sistema utilizado na competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:4.jpg|thumb|600px|centro|nenhum|link=http://youtu.be/0K_PHgdauGo]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido à Amanzon em competição paralela promovida pela mesma para determinar a quem a empresa iria conceder uma estante e os objetos que seriam usados na competição. Nele é possível ver o planejador de movimentos do grupo do prof. Bekris em simulações.&lt;br /&gt;
&lt;br /&gt;
[[Image:5.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/eFRg8EhO2Uk]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido ao fabricante do robô que usado na competição, Motoman SDA10F, fabricado pela Yaskawa. Graças a este vídeo a Rutgers ganhou (por 6 meses) um robô de U$150,000.00.&lt;br /&gt;
&lt;br /&gt;
[[Image:6.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/-Lz8SbGRlmw]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido para a Amazon em uma competição paralela para receber apoio para transportar o robô para a competição (a Rutgers ganhou o apoio).&lt;br /&gt;
&lt;br /&gt;
[[Image:7.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/H33EeTi3FaI]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Versão mais avançada do sistema desenvolvido rodando no Baxter e pegando objetos na estante da competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:8.jpg|thumb|600px|centro|nenhum|link=http://youtu.be/kx6mFj9pjPU]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Este manipulador a vácuo foi projetado pelo professor Alberto especialmente para a competição.&lt;br /&gt;
&lt;br /&gt;
[[Arquivo:Photo_1.JPG|thumb|480px|centro|Rascunho a mão do projeto do manipulador vácuo desenvolvido para a competição]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Todos os pontos obtidos na competição vieram dele. A estrutura física básica dele foi implementada pela empresa Unigripper (http://www.unigripper.com). Mas o acionamento eletrônico, assim como o driver de acionamente computacional, foram implementados pelo prof. Alberto. A Rutgers ganhou o apoio da Unigripper após ela ter nos solecionado em uma competição paralela à Amazon Picking Challenge promovida pela empresa. &lt;br /&gt;
&lt;br /&gt;
[[Image:9.jpg|thumb|600px|centro|nenhum|link=https://www.youtube.com/watch?v=4hWTLhXAjyA]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo, o prof. Alberto apresenta o sistema completo que ele desenvolveu (inclusive o planejamento de movimento) rodando com a parte de mapeamento, localização e detecção de objetos no mundo real, mas simulando o robô utilizado na competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:10.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/4__ainsD0QI]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentada a versão final do sistema utilizado na competição sendo empregada no robô utilizado na competição. No vídeo, o robô Motoman SDA10F realiza com sucesso uma das tarefas da competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:11.jpg|thumb|600px|centro|nenhum|link=https://www.youtube.com/watch?v=tofuV3d3XW0]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é novamente apresentada a versão final do sistema utilizado na competição sendo empregada no robô utilizado na competição. No vídeo, o robô Motoman SDA10F realiza com sucesso várias das tarefas da competição: &lt;br /&gt;
[https://www.youtube.com/watch?v=ag6aSwCUzMA https://www.youtube.com/watch?v=ag6aSwCUzMA]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo 5x mais rápido:&lt;br /&gt;
[https://youtu.be/8bXFiNWPc3E https://youtu.be/8bXFiNWPc3E]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Apenas o robô, 5x:&lt;br /&gt;
[https://youtu.be/_bEGktiyGSE https://youtu.be/_bEGktiyGSE]&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Amazon_Picking_Challenge&amp;diff=81041</id>
		<title>Amazon Picking Challenge</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Amazon_Picking_Challenge&amp;diff=81041"/>
				<updated>2015-06-25T15:05:13Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
== Professor do LCAD obtém a sétima colocação na Amazon Picking Challenge==&lt;br /&gt;
&lt;br /&gt;
[[Arquivo:Photo-icra.jpg|480px|centro]]&lt;br /&gt;
&lt;br /&gt;
O professor Alberto F. De Souza, membro do Laboratório de Computação de Alto Desempenho, obteve a sétima colocação na Amazon Picking Challenge, uma competição de robótica autônoma promovida pela Amazon ([http://amazonpickingchallenge.org]). O professor Alberto, em parceria com o grupo do prof. Kostas Bekris, da Rutgers University (USA), como parte de suas atividades de pós-doutoramento, desenvolveu hardware e software para o robô Motoman (SDA10, Yaskawa) utilizando várias tecnologias previamente desenvolvidas no LCAD. O resultado obtido coloca o LCAD, o PPGI e a UFES em um time que se encontra entre os 10 melhores em manipulação robótica autônoma do mundo. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Reportagem da Bloomberg sobre a Amazon Picking Challenge com vídeo com entrevista do prof. Alberto.&lt;br /&gt;
&lt;br /&gt;
[http://www.bloomberg.com/news/articles/2015-05-28/robot-with-a-human-grasp-is-amazon-s-challenge-to-students http://www.bloomberg.com/news/articles/2015-05-28/robot-with-a-human-grasp-is-amazon-s-challenge-to-students]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentada a proposta inicial de sistema para o robô no início do projeto. A arquitetura do sistema final, utilizada na competição, é uma versão ligeiramente aprimorada.&lt;br /&gt;
&lt;br /&gt;
[[Image:1.jpg|thumb|600px|centro|nenhum|link=http://youtu.be/M7ktnz32BA0]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo, sao apresentados os sistemas de mapeamento, localização e detecção de objetos preliminares.&lt;br /&gt;
&lt;br /&gt;
[[Image:2.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/47_Bj3o9s-Y]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
O detector de objetos utilizado é uma versão melhorada do detector Linemod, desenvolvida pelo prof. Alberto. Este vídeo mostra um teste após algumas das melhorias realizadas na versão publicamente disponível de Linemod. A versão final desenvolvida pelo prof. e utilizada na competição será disponibilizada como software livre.&lt;br /&gt;
&lt;br /&gt;
[[Image:3.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/s_mtzXzKT7c]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentado o robô Baxter realizando todas as principais tarefas da competição. A Rutgers já possuia este robô, que foi utilizado na fase preliminar do projeto. O professor Alberto era o responsável pelos subsistemas de tomada de decisão, mapeamento, localização e detecção de objetos, equanto que a equipe do prof. Bekris era responsável pela parte de planejamento do movimento do robô (especialidade da equipe do prof. Bekris). Contudo, neste vídeo o sistema de planejamento dos movimentos do robô utilizado também foi desenvolvido pelo prof. Alberto com base no software MoveIt!, disponível na forma de software livre. A detecção de objetos ainda era viabilizada por uma versão preliminar do sistema utilizado na competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:4.jpg|thumb|600px|centro|nenhum|link=http://youtu.be/0K_PHgdauGo]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido à Amanzon em competição paralela promovida pela mesma para determinar a quem a empresa iria conceder uma estante e os objetos que seriam usados na competição. Nele é possível ver o planejador de movimentos do grupo do prof. Bekris em simulações.&lt;br /&gt;
&lt;br /&gt;
[[Image:5.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/eFRg8EhO2Uk]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido ao fabricante do robô que usado na competição, Motoman SDA10F, fabricado pela Yaskawa. Graças a este vídeo a Rutgers ganhou (por 6 meses) um robô de U$150,000.00.&lt;br /&gt;
&lt;br /&gt;
[[Image:6.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/-Lz8SbGRlmw]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido para a Amazon em uma competição paralela para receber apoio para transportar o robô para a competição (a Rutgers ganhou o apoio).&lt;br /&gt;
&lt;br /&gt;
[[Image:7.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/H33EeTi3FaI]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Versão mais avançada do sistema desenvolvido rodando no Baxter e pegando objetos na estante da competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:8.jpg|thumb|600px|centro|nenhum|link=http://youtu.be/kx6mFj9pjPU]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Este manipulador a vácuo foi projetado pelo professor Alberto especialmente para a competição.&lt;br /&gt;
&lt;br /&gt;
[[Arquivo:Photo_1.JPG|thumb|480px|centro|Rascunho a mão do projeto do manipulador vácuo desenvolvido para a competição]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Todos os pontos obtidos na competição vieram dele. A estrutura física básica dele foi implementada pela empresa Unigripper (http://www.unigripper.com). Mas o acionamento eletrônico, assim como o driver de acionamente computacional, foram implementados pelo prof. Alberto. A Rutgers ganhou o apoio da Unigripper após ela ter nos solecionado em uma competição paralela à Amazon Picking Challenge promovida pela empresa. &lt;br /&gt;
&lt;br /&gt;
[[Image:9.jpg|thumb|600px|centro|nenhum|link=https://www.youtube.com/watch?v=4hWTLhXAjyA]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo, o prof. Alberto apresenta o sistema completo que ele desenvolveu (inclusive o planejamento de movimento) rodando com a parte de mapeamento, localização e detecção de objetos no mundo real, mas simulando o robô utilizado na competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:10.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/4__ainsD0QI]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentada a versão final do sistema utilizado na competição sendo empregada no robô utilizado na competição. No vídeo, o robô Motoman SDA10F realiza com sucesso uma das tarefas da competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:11.jpg|thumb|600px|centro|nenhum|link=https://www.youtube.com/watch?v=tofuV3d3XW0]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é novamente apresentada a versão final do sistema utilizado na competição sendo empregada no robô utilizado na competição. No vídeo, o robô Motoman SDA10F realiza com sucesso várias das tarefas da competição: &lt;br /&gt;
[https://www.youtube.com/watch?v=ag6aSwCUzMA https://www.youtube.com/watch?v=ag6aSwCUzMA]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo 5x mais rápido:&lt;br /&gt;
[https://youtu.be/8bXFiNWPc3E https://youtu.be/8bXFiNWPc3E]&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Amazon_Picking_Challenge&amp;diff=81040</id>
		<title>Amazon Picking Challenge</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Amazon_Picking_Challenge&amp;diff=81040"/>
				<updated>2015-06-25T14:29:28Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: /* Professor do LCAD obtém a sétima colocação na Amazon Picking Challenge */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
== Professor do LCAD obtém a sétima colocação na Amazon Picking Challenge==&lt;br /&gt;
&lt;br /&gt;
[[Arquivo:Photo-icra.jpg|480px|centro]]&lt;br /&gt;
&lt;br /&gt;
O professor Alberto F. De Souza, membro do Laboratório de Computação de Alto Desempenho, obteve a sétima colocação na Amazon Picking Challenge, uma competição de robótica autônoma promovida pela Amazon ([http://amazonpickingchallenge.org]). O professor Alberto, em parceria com o grupo do prof. Kostas Bekris, da Rutgers University (USA), como parte de suas atividades de pós-doutoramento, desenvolveu hardware e software para o robô Motoman (SDA10, Yaskawa) utilizando várias tecnologias previamente desenvolvidas no LCAD. O resultado obtido coloca o LCAD, o PPGI e a UFES em um time que se encontra entre os 10 melhores em manipulação robótica autônoma do mundo. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Reportagem da Bloomberg sobre a Amazon Picking Challenge com vídeo com entrevista do prof. Alberto.&lt;br /&gt;
&lt;br /&gt;
[http://www.bloomberg.com/news/articles/2015-05-28/robot-with-a-human-grasp-is-amazon-s-challenge-to-students http://www.bloomberg.com/news/articles/2015-05-28/robot-with-a-human-grasp-is-amazon-s-challenge-to-students]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentada a proposta inicial de sistema para o robô no início do projeto. A arquitetura do sistema final, utilizada na competição, é uma versão ligeiramente aprimorada.&lt;br /&gt;
&lt;br /&gt;
[[Image:1.jpg|thumb|600px|centro|nenhum|link=http://youtu.be/M7ktnz32BA0]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo, sao apresentados os sistemas de mapeamento, localização e detecção de objetos preliminares.&lt;br /&gt;
&lt;br /&gt;
[[Image:2.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/47_Bj3o9s-Y]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
O detector de objetos utilizado é uma versão melhorada do detector Linemod, desenvolvida pelo prof. Alberto. Este vídeo mostra um teste após algumas das melhorias realizadas na versão publicamente disponível de Linemod. A versão final desenvolvida pelo prof. e utilizada na competição será disponibilizada como software livre.&lt;br /&gt;
&lt;br /&gt;
[[Image:3.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/s_mtzXzKT7c]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentado o robô Baxter realizando todas as principais tarefas da competição. A Rutgers já possuia este robô, que foi utilizado na fase preliminar do projeto. O professor Alberto era o responsável pelos subsistemas de tomada de decisão, mapeamento, localização e detecção de objetos, equanto que a equipe do prof. Bekris era responsável pela parte de planejamento do movimento do robô (especialidade da equipe do prof. Bekris). Contudo, neste vídeo o sistema de planejamento dos movimentos do robô utilizado também foi desenvolvido pelo prof. Alberto com base no software MoveIt!, disponível na forma de software livre. A detecção de objetos ainda era viabilizada por uma versão preliminar do sistema utilizado na competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:4.jpg|thumb|600px|centro|nenhum|link=http://youtu.be/0K_PHgdauGo]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido à Amanzon em competição paralela promovida pela mesma para determinar a quem a empresa iria conceder uma estante e os objetos que seriam usados na competição. Nele é possível ver o planejador de movimentos do grupo do prof. Bekris em simulações.&lt;br /&gt;
&lt;br /&gt;
[[Image:5.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/eFRg8EhO2Uk]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido ao fabricante do robô que usado na competição, Motoman SDA10F, fabricado pela Yaskawa. Graças a este vídeo a Rutgers ganhou (por 6 meses) um robô de U$150,000.00.&lt;br /&gt;
&lt;br /&gt;
[[Image:6.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/-Lz8SbGRlmw]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido para a Amazon em uma competição paralela para receber apoio para transportar o robô para a competição (a Rutgers ganhou o apoio).&lt;br /&gt;
&lt;br /&gt;
[[Image:7.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/H33EeTi3FaI]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Versão mais avançada do sistema desenvolvido rodando no Baxter e pegando objetos na estante da competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:8.jpg|thumb|600px|centro|nenhum|link=http://youtu.be/kx6mFj9pjPU]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Este manipulador a vácuo foi projetado pelo professor Alberto especialmente para a competição.&lt;br /&gt;
&lt;br /&gt;
[[Arquivo:Photo_1.JPG|thumb|480px|centro|Rascunho a mão do projeto do manipulador vácuo desenvolvido para a competição]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Todos os pontos obtidos na competição vieram dele. A estrutura física básica dele foi implementada pela empresa Unigripper (http://www.unigripper.com). Mas o acionamento eletrônico, assim como o driver de acionamente computacional, foram implementados pelo prof. Alberto. A Rutgers ganhou o apoio da Unigripper após ela ter nos solecionado em uma competição paralela à Amazon Picking Challenge promovida pela empresa. &lt;br /&gt;
&lt;br /&gt;
[[Image:9.jpg|thumb|600px|centro|nenhum|link=https://www.youtube.com/watch?v=4hWTLhXAjyA]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo, o prof. Alberto apresenta o sistema completo que ele desenvolveu (inclusive o planejamento de movimento) rodando com a parte de mapeamento, localização e detecção de objetos no mundo real, mas simulando o robô utilizado na competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:10.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/4__ainsD0QI]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentada a versão final do sistema utilizado na competição sendo empregada no robô utilizado na competição. No vídeo, o robô Motoman SDA10F realiza com sucesso uma das tarefas da competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:11.jpg|thumb|600px|centro|nenhum|link=https://www.youtube.com/watch?v=tofuV3d3XW0]]&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é novamente apresentada a versão final do sistema utilizado na competição sendo empregada no robô utilizado na competição. No vídeo, o robô Motoman SDA10F realiza com sucesso várias das tarefas da competição: [https://www.youtube.com/watch?v=ag6aSwCUzMA https://www.youtube.com/watch?v=ag6aSwCUzMA]&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Amazon_Picking_Challenge&amp;diff=81039</id>
		<title>Amazon Picking Challenge</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Amazon_Picking_Challenge&amp;diff=81039"/>
				<updated>2015-06-25T14:27:34Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: /* Professor do LCAD obtém a sétima colocação na Amazon Picking Challenge */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
== Professor do LCAD obtém a sétima colocação na Amazon Picking Challenge==&lt;br /&gt;
&lt;br /&gt;
[[Arquivo:Photo-icra.jpg|480px|centro]]&lt;br /&gt;
&lt;br /&gt;
O professor Alberto F. De Souza, membro do Laboratório de Computação de Alto Desempenho, obteve a sétima colocação na Amazon Picking Challenge, uma competição de robótica autônoma promovida pela Amazon ([http://amazonpickingchallenge.org]). O professor Alberto, em parceria com o grupo do prof. Kostas Bekris, da Rutgers University (USA), como parte de suas atividades de pós-doutoramento, desenvolveu hardware e software para o robô Motoman (SDA10, Yaskawa) utilizando várias tecnologias previamente desenvolvidas no LCAD. O resultado obtido coloca o LCAD, o PPGI e a UFES em um time que se encontra entre os 10 melhores em manipulação robótica autônoma do mundo. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Reportagem da Bloomberg sobre a Amazon Picking Challenge com vídeo com entrevista do prof. Alberto.&lt;br /&gt;
&lt;br /&gt;
[http://www.bloomberg.com/news/articles/2015-05-28/robot-with-a-human-grasp-is-amazon-s-challenge-to-students http://www.bloomberg.com/news/articles/2015-05-28/robot-with-a-human-grasp-is-amazon-s-challenge-to-students]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentada a proposta inicial de sistema para o robô no início do projeto. A arquitetura do sistema final, utilizada na competição, é uma versão ligeiramente aprimorada.&lt;br /&gt;
&lt;br /&gt;
[[Image:1.jpg|thumb|600px|centro|nenhum|link=http://youtu.be/M7ktnz32BA0]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo, sao apresentados os sistemas de mapeamento, localização e detecção de objetos preliminares.&lt;br /&gt;
&lt;br /&gt;
[[Image:2.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/47_Bj3o9s-Y]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
O detector de objetos utilizado é uma versão melhorada do detector Linemod, desenvolvida pelo prof. Alberto. Este vídeo mostra um teste após algumas das melhorias realizadas na versão publicamente disponível de Linemod. A versão final desenvolvida pelo prof. e utilizada na competição será disponibilizada como software livre.&lt;br /&gt;
&lt;br /&gt;
[[Image:3.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/s_mtzXzKT7c]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentado o robô Baxter realizando todas as principais tarefas da competição. A Rutgers já possuia este robô, que foi utilizado na fase preliminar do projeto. O professor Alberto era o responsável pelos subsistemas de tomada de decisão, mapeamento, localização e detecção de objetos, equanto que a equipe do prof. Bekris era responsável pela parte de planejamento do movimento do robô (especialidade da equipe do prof. Bekris). Contudo, neste vídeo o sistema de planejamento dos movimentos do robô utilizado também foi desenvolvido pelo prof. Alberto com base no software MoveIt!, disponível na forma de software livre. A detecção de objetos ainda era viabilizada por uma versão preliminar do sistema utilizado na competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:4.jpg|thumb|600px|centro|nenhum|link=http://youtu.be/0K_PHgdauGo]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido à Amanzon em competição paralela promovida pela mesma para determinar a quem a empresa iria conceder uma estante e os objetos que seriam usados na competição. Nele é possível ver o planejador de movimentos do grupo do prof. Bekris em simulações.&lt;br /&gt;
&lt;br /&gt;
[[Image:5.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/eFRg8EhO2Uk]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido ao fabricante do robô que usado na competição, Motoman SDA10F, fabricado pela Yaskawa. Graças a este vídeo a Rutgers ganhou (por 6 meses) um robô de U$150,000.00.&lt;br /&gt;
&lt;br /&gt;
[[Image:6.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/-Lz8SbGRlmw]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido para a Amazon em uma competição paralela para receber apoio para transportar o robô para a competição (a Rutgers ganhou o apoio).&lt;br /&gt;
&lt;br /&gt;
[[Image:7.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/H33EeTi3FaI]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Versão mais avançada do sistema desenvolvido rodando no Baxter e pegando objetos na estante da competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:8.jpg|thumb|600px|centro|nenhum|link=http://youtu.be/kx6mFj9pjPU]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Este manipulador a vácuo foi projetado pelo professor Alberto especialmente para a competição.&lt;br /&gt;
&lt;br /&gt;
[[Arquivo:Photo_1.JPG|thumb|480px|centro|Rascunho a mão do projeto do manipulador vácuo desenvolvido para a competição]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Todos os pontos obtidos na competição vieram dele. A estrutura física básica dele foi implementada pela empresa Unigripper (http://www.unigripper.com). Mas o acionamento eletrônico, assim como o driver de acionamente computacional, foram implementados pelo prof. Alberto. A Rutgers ganhou o apoio da Unigripper após ela ter nos solecionado em uma competição paralela à Amazon Picking Challenge promovida pela empresa. &lt;br /&gt;
&lt;br /&gt;
[[Image:9.jpg|thumb|600px|centro|nenhum|link=https://www.youtube.com/watch?v=4hWTLhXAjyA]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo, o prof. Alberto apresenta o sistema completo que ele desenvolveu (inclusive o planejamento de movimento) rodando com a parte de mapeamento, localização e detecção de objetos no mundo real, mas simulando o robô utilizado na competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:10.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/4__ainsD0QI]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentada a versão final do sistema utilizado na competição sendo empregada no robô utilizado na competição. No vídeo, o robô Motoman SDA10F realiza com sucesso uma das tarefas da competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:11.jpg|thumb|600px|centro|nenhum|link=https://www.youtube.com/watch?v=tofuV3d3XW0]]&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Amazon_Picking_Challenge&amp;diff=81038</id>
		<title>Amazon Picking Challenge</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Amazon_Picking_Challenge&amp;diff=81038"/>
				<updated>2015-06-08T17:55:51Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: /* Professor do LCAD obtém a sétima colocação na Amazon Picking Challenge */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
== Professor do LCAD obtém a sétima colocação na Amazon Picking Challenge==&lt;br /&gt;
&lt;br /&gt;
[[Arquivo:Photo-icra.jpg|480px|centro]]&lt;br /&gt;
&lt;br /&gt;
O professor Alberto F. De Souza, membro do Laboratório de Computação de Alto Desempenho, obteve a sétima colocação na Amazon Picking Challenge, uma competição de robótica autônoma promovida pela Amazon ([http://amazonpickingchallenge.org]). O professor Alberto, em parceria com o grupo do prof. Kostas Bekris, da Rutgers University (USA), como parte de suas atividades de pós-doutoramento, desenvolveu hardware e software para o robô Motoman (SDA10, Yaskawa) utilizando várias tecnologias previamente desenvolvidas no LCAD. O resultado obtido coloca o LCAD, o PPGI e a UFES em um time que se encontra entre os 10 melhores em manipulação robótica autônoma do mundo. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Reportagem da Bloomberg sobre a Amazon Picking Challenge com vídeo com entrevista do prof. Alberto.&lt;br /&gt;
&lt;br /&gt;
[http://www.bloomberg.com/news/articles/2015-05-28/robot-with-a-human-grasp-is-amazon-s-challenge-to-students http://www.bloomberg.com/news/articles/2015-05-28/robot-with-a-human-grasp-is-amazon-s-challenge-to-students]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentada a proposta inicial de sistema para o robô no início do projeto. A arquitetura do sistema final, utilizada na competição, é uma versão ligeiramente aprimorada.&lt;br /&gt;
&lt;br /&gt;
[[Image:1.jpg|thumb|600px|centro|nenhum|link=http://youtu.be/M7ktnz32BA0]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo, sao apresentados os sistemas de mapeamento, localização e detecção de objetos preliminares.&lt;br /&gt;
&lt;br /&gt;
[[Image:2.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/47_Bj3o9s-Y]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
O detector de objetos utilizado é uma versão melhorada do detector Linemod, desenvolvida pelo prof. Alberto. Este vídeo mostra um teste após algumas das melhorias realizadas na versão publicamente disponível de Linemod. A versão final desenvolvida pelo prof. e utilizada na competição será disponibilizada como software livre.&lt;br /&gt;
&lt;br /&gt;
[[Image:3.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/s_mtzXzKT7c]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentado o robô Baxter realizando todas as principais tarefas da competição. A Rutgers já possuia este robô, que foi utilizado na fase preliminar do projeto. O professor Alberto era o responsável pelos subsistemas de tomada de decisão, mapeamento, localização e detecção de objetos, equanto que a equipe do prof. Bekris era responsável pela parte de planejamento do movimento do robô (especialidade da equipe do prof. Bekris). Contudo, neste vídeo o sistema de planejamento dos movimentos do robô utilizado também foi desenvolvido pelo prof. Alberto com base no software MoveIt!, disponível na forma de software livre. A detecção de objetos ainda era viabilizada por uma versão preliminar do sistema utilizado na competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:4.jpg|thumb|600px|centro|nenhum|link=http://youtu.be/0K_PHgdauGo]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido à Amanzon em competição paralela promovida pela mesma para determinar a quem a empresa iria conceder uma estante e os objetos que seriam usados na competição. Nele é possível ver o planejador de movimentos do grupo do prof. Bekris em simulações.&lt;br /&gt;
&lt;br /&gt;
[[Image:5.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/eFRg8EhO2Uk]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido ao fabricante do robô que usado na competição, Motoman SDA10F, fabricado pela Yaskawa. Graças a este vídeo a Rutgers ganhou (por 6 meses) um robô de U$150,000.00.&lt;br /&gt;
&lt;br /&gt;
[[Image:6.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/-Lz8SbGRlmw]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido para a Amazon em uma competição paralela para receber apoio para transportar o robô para a competição (a Rutgers ganhou o apoio).&lt;br /&gt;
&lt;br /&gt;
[[Image:7.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/H33EeTi3FaI]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Versão mais avançada do sistema desenvolvido rodando no Baxter e pegando objetos na estante da competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:8.jpg|thumb|600px|centro|nenhum|link=http://youtu.be/kx6mFj9pjPU]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Este manipulador a vácuo foi projetado pelo professor Alberto especialmente para a competição.&lt;br /&gt;
&lt;br /&gt;
[[Arquivo:Photo_1.JPG|thumb|480px|centro|Rascunho a mão do projeto do manipulador vácuo desenvolvido para a competição]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Todos os pontos obtidos na competição vieram dele. A estrutura física básica dele foi implementada pela empresa Unigripper (http://www.unigripper.com). Mas o acionamento eletrônico, assim como o driver de acionamente computacional, foram implementados pelo prof. Alberto. A Rutgers ganhou o apoio da Unigripper após ela ter nos solecionado em uma competição paralela à Amazon Picking Challenge promovida pela empresa. &lt;br /&gt;
&lt;br /&gt;
[[Image:9.jpg|thumb|600px|centro|nenhum|link=https://www.youtube.com/watch?v=4hWTLhXAjyA]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo, o prof. Alberto apresenta o sistema completo que ele desenvolveu (inclusive o planejamento de movimento) rodando com a parte de mapeamento, localização e detecção de objetos no mundo real, mas simulando o robô utilizado na competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:10.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/4__ainsD0QI]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentada a versão final do sistema utilizado na competição sendo empregada no robô utilizado na competição. No vídeo, o robô Motoman SDA10F realiza com sucesso uma das tarefas da competição {favor baixar este vídeo e colocar em destaque no canal do LCAD no Youtube}.&lt;br /&gt;
&lt;br /&gt;
[[Image:11.jpg|thumb|600px|centro|nenhum|link=https://www.youtube.com/watch?v=tofuV3d3XW0]]&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Amazon_Picking_Challenge&amp;diff=81037</id>
		<title>Amazon Picking Challenge</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Amazon_Picking_Challenge&amp;diff=81037"/>
				<updated>2015-06-08T17:54:17Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: /* Professor do LCAD obtém a sétima colocação na Amazon Picking Challenge */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
== Professor do LCAD obtém a sétima colocação na Amazon Picking Challenge==&lt;br /&gt;
&lt;br /&gt;
[[Arquivo:Photo-icra.jpg|600px|centro]]&lt;br /&gt;
&lt;br /&gt;
O professor Alberto F. De Souza, membro do Laboratório de Computação de Alto Desempenho, obteve a sétima colocação na Amazon Picking Challenge, uma competição de robótica autônoma promovida pela Amazon ([http://amazonpickingchallenge.org]). O professor Alberto, em parceria com o grupo do prof. Kostas Bekris, da Rutgers University (USA), como parte de suas atividades de pós-doutoramento, desenvolveu hardware e software para o robô Motoman (SDA10, Yaskawa) utilizando várias tecnologias previamente desenvolvidas no LCAD. O resultado obtido coloca o LCAD, o PPGI e a UFES em um time que se encontra entre os 10 melhores em manipulação robótica autônoma do mundo. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Reportagem da Bloomberg sobre a Amazon Picking Challenge com vídeo com entrevista do prof. Alberto.&lt;br /&gt;
&lt;br /&gt;
[http://www.bloomberg.com/news/articles/2015-05-28/robot-with-a-human-grasp-is-amazon-s-challenge-to-students http://www.bloomberg.com/news/articles/2015-05-28/robot-with-a-human-grasp-is-amazon-s-challenge-to-students]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentada a proposta inicial de sistema para o robô no início do projeto. A arquitetura do sistema final, utilizada na competição, é uma versão ligeiramente aprimorada.&lt;br /&gt;
&lt;br /&gt;
[[Image:1.jpg|thumb|600px|centro|nenhum|link=http://youtu.be/M7ktnz32BA0]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo, sao apresentados os sistemas de mapeamento, localização e detecção de objetos preliminares.&lt;br /&gt;
&lt;br /&gt;
[[Image:2.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/47_Bj3o9s-Y]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
O detector de objetos utilizado é uma versão melhorada do detector Linemod, desenvolvida pelo prof. Alberto. Este vídeo mostra um teste após algumas das melhorias realizadas na versão publicamente disponível de Linemod. A versão final desenvolvida pelo prof. e utilizada na competição será disponibilizada como software livre.&lt;br /&gt;
&lt;br /&gt;
[[Image:3.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/s_mtzXzKT7c]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentado o robô Baxter realizando todas as principais tarefas da competição. A Rutgers já possuia este robô, que foi utilizado na fase preliminar do projeto. O professor Alberto era o responsável pelos subsistemas de tomada de decisão, mapeamento, localização e detecção de objetos, equanto que a equipe do prof. Bekris era responsável pela parte de planejamento do movimento do robô (especialidade da equipe do prof. Bekris). Contudo, neste vídeo o sistema de planejamento dos movimentos do robô utilizado também foi desenvolvido pelo prof. Alberto com base no software MoveIt!, disponível na forma de software livre. A detecção de objetos ainda era viabilizada por uma versão preliminar do sistema utilizado na competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:4.jpg|thumb|600px|centro|nenhum|link=http://youtu.be/0K_PHgdauGo]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido à Amanzon em competição paralela promovida pela mesma para determinar a quem a empresa iria conceder uma estante e os objetos que seriam usados na competição. Nele é possível ver o planejador de movimentos do grupo do prof. Bekris em simulações.&lt;br /&gt;
&lt;br /&gt;
[[Image:5.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/eFRg8EhO2Uk]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido ao fabricante do robô que usado na competição, Motoman SDA10F, fabricado pela Yaskawa. Graças a este vídeo a Rutgers ganhou (por 6 meses) um robô de U$150,000.00.&lt;br /&gt;
&lt;br /&gt;
[[Image:6.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/-Lz8SbGRlmw]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido para a Amazon em uma competição paralela para receber apoio para transportar o robô para a competição (a Rutgers ganhou o apoio).&lt;br /&gt;
&lt;br /&gt;
[[Image:7.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/H33EeTi3FaI]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Versão mais avançada do sistema desenvolvido rodando no Baxter e pegando objetos na estante da competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:8.jpg|thumb|600px|centro|nenhum|link=http://youtu.be/kx6mFj9pjPU]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Este manipulador a vácuo foi projetado pelo professor Alberto especialmente para a competição.&lt;br /&gt;
&lt;br /&gt;
[[Arquivo:Photo_1.JPG|thumb|600px|centro|Rascunho a mão do projeto do manipulador vácuo desenvolvido para a competição]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Todos os pontos obtidos na competição vieram dele. A estrutura física básica dele foi implementada pela empresa Unigripper (http://www.unigripper.com). Mas o acionamento eletrônico, assim como o driver de acionamente computacional, foram implementados pelo prof. Alberto. A Rutgers ganhou o apoio da Unigripper após ela ter nos solecionado em uma competição paralela à Amazon Picking Challenge promovida pela empresa. &lt;br /&gt;
&lt;br /&gt;
[[Image:9.jpg|thumb|600px|centro|nenhum|link=https://www.youtube.com/watch?v=4hWTLhXAjyA]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo, o prof. Alberto apresenta o sistema completo que ele desenvolveu (inclusive o planejamento de movimento) rodando com a parte de mapeamento, localização e detecção de objetos no mundo real, mas simulando o robô utilizado na competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:10.jpg|thumb|600px|centro|nenhum|link=https://youtu.be/4__ainsD0QI]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentada a versão final do sistema utilizado na competição sendo empregada no robô utilizado na competição. No vídeo, o robô Motoman SDA10F realiza com sucesso uma das tarefas da competição {favor baixar este vídeo e colocar em destaque no canal do LCAD no Youtube}.&lt;br /&gt;
&lt;br /&gt;
[[Image:11.jpg|thumb|600px|centro|nenhum|link=https://www.youtube.com/watch?v=tofuV3d3XW0]]&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Amazon_Picking_Challenge&amp;diff=81036</id>
		<title>Amazon Picking Challenge</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Amazon_Picking_Challenge&amp;diff=81036"/>
				<updated>2015-06-08T17:49:13Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: /* Professor do LCAD obtém a sétima colocação na Amazon Picking Challenge */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
== Professor do LCAD obtém a sétima colocação na Amazon Picking Challenge==&lt;br /&gt;
&lt;br /&gt;
[[Arquivo:Photo-icra.jpg|600px|centro]]&lt;br /&gt;
&lt;br /&gt;
O professor Alberto F. De Souza, membro do Laboratório de Computação de Alto Desempenho, obteve a sétima colocação na Amazon Picking Challenge, uma competição de robótica autônoma promovida pela Amazon ([http://amazonpickingchallenge.org]). O professor Alberto, em parceria com o grupo do prof. Kostas Bekris, da Rutgers University (USA), como parte de suas atividades de pós-doutoramento, desenvolveu hardware e software para o robô Motoman (SDA10, Yaskawa) utilizando várias tecnologias previamente desenvolvidas no LCAD. O resultado obtido coloca o LCAD, o PPGI e a UFES em um time que se encontra entre os 10 melhores em manipulação robótica autônoma do mundo. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Reportagem da Bloomberg sobre a Amazon Picking Challenge com vídeo com entrevista do prof. Alberto.&lt;br /&gt;
&lt;br /&gt;
[http://www.bloomberg.com/news/articles/2015-05-28/robot-with-a-human-grasp-is-amazon-s-challenge-to-students http://www.bloomberg.com/news/articles/2015-05-28/robot-with-a-human-grasp-is-amazon-s-challenge-to-students]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentada a proposta inicial de sistema para o robô no início do projeto. A arquitetura do sistema final, utilizada na competição, é uma versão ligeiramente aprimorada.&lt;br /&gt;
&lt;br /&gt;
[[Image:1.jpg|thumb|nenhum|link=http://youtu.be/M7ktnz32BA0]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo, sao apresentados os sistemas de mapeamento, localização e detecção de objetos preliminares.&lt;br /&gt;
&lt;br /&gt;
[[Image:2.jpg|thumb|nenhum|link=https://youtu.be/47_Bj3o9s-Y]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
O detector de objetos utilizado é uma versão melhorada do detector Linemod, desenvolvida pelo prof. Alberto. Este vídeo mostra um teste após algumas das melhorias realizadas na versão publicamente disponível de Linemod. A versão final desenvolvida pelo prof. e utilizada na competição será disponibilizada como software livre.&lt;br /&gt;
&lt;br /&gt;
[[Image:3.jpg|thumb|nenhum|link=https://youtu.be/s_mtzXzKT7c]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentado o robô Baxter realizando todas as principais tarefas da competição. A Rutgers já possuia este robô, que foi utilizado na fase preliminar do projeto. O professor Alberto era o responsável pelos subsistemas de tomada de decisão, mapeamento, localização e detecção de objetos, equanto que a equipe do prof. Bekris era responsável pela parte de planejamento do movimento do robô (especialidade da equipe do prof. Bekris). Contudo, neste vídeo o sistema de planejamento dos movimentos do robô utilizado também foi desenvolvido pelo prof. Alberto com base no software MoveIt!, disponível na forma de software livre. A detecção de objetos ainda era viabilizada por uma versão preliminar do sistema utilizado na competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:4.jpg|thumb|nenhum|link=http://youtu.be/0K_PHgdauGo]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido à Amanzon em competição paralela promovida pela mesma para determinar a quem a empresa iria conceder uma estante e os objetos que seriam usados na competição. Nele é possível ver o planejador de movimentos do grupo do prof. Bekris em simulações.&lt;br /&gt;
&lt;br /&gt;
[[Image:5.jpg|thumb|nenhum|link=https://youtu.be/eFRg8EhO2Uk]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido ao fabricante do robô que usado na competição, Motoman SDA10F, fabricado pela Yaskawa. Graças a este vídeo a Rutgers ganhou (por 6 meses) um robô de U$150,000.00.&lt;br /&gt;
&lt;br /&gt;
[[Image:6.jpg|thumb|nenhum|link=https://youtu.be/-Lz8SbGRlmw]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido para a Amazon em uma competição paralela para receber apoio para transportar o robô para a competição (a Rutgers ganhou o apoio).&lt;br /&gt;
&lt;br /&gt;
[[Image:7.jpg|thumb|nenhum|link=https://youtu.be/H33EeTi3FaI]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Versão mais avançada do sistema desenvolvido rodando no Baxter e pegando objetos na estante da competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:8.jpg|thumb|nenhum|link=http://youtu.be/kx6mFj9pjPU]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Este manipulador a vácuo foi projetado pelo professor Alberto especialmente para a competição.&lt;br /&gt;
&lt;br /&gt;
[[Arquivo:Photo_1.JPG|thumb|nenhum|Rascunho a mão do projeto do manipulador vácuo desenvolvido para a competição&amp;quot;]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Todos os pontos obtidos na competição vieram dele. A estrutura física básica dele foi implementada pela empresa Unigripper (http://www.unigripper.com). Mas o acionamento eletrônico, assim como o driver de acionamente computacional, foram implementados pelo prof. Alberto. A Rutgers ganhou o apoio da Unigripper após ela ter nos solecionado em uma competição paralela à Amazon Picking Challenge promovida pela empresa. &lt;br /&gt;
&lt;br /&gt;
[[Image:9.jpg|thumb|nenhum|link=https://www.youtube.com/watch?v=4hWTLhXAjyA]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo, o prof. Alberto apresenta o sistema completo que ele desenvolveu (inclusive o planejamento de movimento) rodando com a parte de mapeamento, localização e detecção de objetos no mundo real, mas simulando o robô utilizado na competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:10.jpg|thumb|nenhum|link=https://youtu.be/4__ainsD0QI]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentada a versão final do sistema utilizado na competição sendo empregada no robô utilizado na competição. No vídeo, o robô Motoman SDA10F realiza com sucesso uma das tarefas da competição {favor baixar este vídeo e colocar em destaque no canal do LCAD no Youtube}.&lt;br /&gt;
&lt;br /&gt;
[[Image:11.jpg|thumb|nenhum|link=https://www.youtube.com/watch?v=tofuV3d3XW0]]&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Arquivo:10.jpg&amp;diff=81035</id>
		<title>Arquivo:10.jpg</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Arquivo:10.jpg&amp;diff=81035"/>
				<updated>2015-06-08T17:48:33Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Amazon_Picking_Challenge&amp;diff=81034</id>
		<title>Amazon Picking Challenge</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Amazon_Picking_Challenge&amp;diff=81034"/>
				<updated>2015-06-08T13:55:48Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: /* Professor do LCAD obtém a sétima colocação na Amazon Picking Challenge */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
== Professor do LCAD obtém a sétima colocação na Amazon Picking Challenge==&lt;br /&gt;
&lt;br /&gt;
[[Arquivo:Photo-icra.jpg|600px|centro]]&lt;br /&gt;
&lt;br /&gt;
O professor Alberto F. De Souza, membro do Laboratório de Computação de Alto Desempenho, obteve a sétima colocação na Amazon Picking Challenge, uma competição de robótica autônoma promovida pela Amazon ([http://amazonpickingchallenge.org]). O professor Alberto, em parceria com o grupo do prof. Kostas Bekris, da Rutgers University (USA), como parte de suas atividades de pós-doutoramento, desenvolveu hardware e software para o robô Motoman (SDA10, Yaskawa) utilizando várias tecnologias previamente desenvolvidas no LCAD. O resultado obtido coloca o LCAD, o PPGI e a UFES em um time que se encontra entre os 10 melhores em manipulação robótica autônoma do mundo. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Reportagem da Bloomberg sobre a Amazon Picking Challenge com vídeo com entrevista do prof. Alberto.&lt;br /&gt;
&lt;br /&gt;
[http://www.bloomberg.com/news/articles/2015-05-28/robot-with-a-human-grasp-is-amazon-s-challenge-to-students http://www.bloomberg.com/news/articles/2015-05-28/robot-with-a-human-grasp-is-amazon-s-challenge-to-students]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentada a proposta inicial de sistema para o robô no início do projeto. A arquitetura do sistema final, utilizada na competição, é uma versão ligeiramente aprimorada.&lt;br /&gt;
&lt;br /&gt;
[[Image:1.jpg|thumb|nenhum|link=http://youtu.be/M7ktnz32BA0]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo, sao apresentados os sistemas de mapeamento, localização e detecção de objetos preliminares.&lt;br /&gt;
&lt;br /&gt;
[[Image:2.jpg|thumb|nenhum|link=https://youtu.be/47_Bj3o9s-Y]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
O detector de objetos utilizado é uma versão melhorada do detector Linemod, desenvolvida pelo prof. Alberto. Este vídeo mostra um teste após algumas das melhorias realizadas na versão publicamente disponível de Linemod. A versão final desenvolvida pelo prof. e utilizada na competição será disponibilizada como software livre.&lt;br /&gt;
&lt;br /&gt;
[[Image:3.jpg|thumb|nenhum|link=https://youtu.be/s_mtzXzKT7c]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentado o robô Baxter realizando todas as principais tarefas da competição. A Rutgers já possuia este robô, que foi utilizado na fase preliminar do projeto. O professor Alberto era o responsável pelos subsistemas de tomada de decisão, mapeamento, localização e detecção de objetos, equanto que a equipe do prof. Bekris era responsável pela parte de planejamento do movimento do robô (especialidade da equipe do prof. Bekris). Contudo, neste vídeo o sistema de planejamento dos movimentos do robô utilizado também foi desenvolvido pelo prof. Alberto com base no software MoveIt!, disponível na forma de software livre. A detecção de objetos ainda era viabilizada por uma versão preliminar do sistema utilizado na competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:4.jpg|thumb|nenhum|link=http://youtu.be/0K_PHgdauGo]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido à Amanzon em competição paralela promovida pela mesma para determinar a quem a empresa iria conceder uma estante e os objetos que seriam usados na competição. Nele é possível ver o planejador de movimentos do grupo do prof. Bekris em simulações.&lt;br /&gt;
&lt;br /&gt;
[[Image:5.jpg|thumb|nenhum|link=https://youtu.be/eFRg8EhO2Uk]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido ao fabricante do robô que usado na competição, Motoman SDA10F, fabricado pela Yaskawa. Graças a este vídeo a Rutgers ganhou (por 6 meses) um robô de U$150,000.00.&lt;br /&gt;
&lt;br /&gt;
[[Image:6.jpg|thumb|nenhum|link=https://youtu.be/-Lz8SbGRlmw]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido para a Amazon em uma competição paralela para receber apoio para transportar o robô para a competição (a Rutgers ganhou o apoio).&lt;br /&gt;
&lt;br /&gt;
[[Image:7.jpg|thumb|nenhum|link=https://youtu.be/H33EeTi3FaI]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Versão mais avançada do sistema desenvolvido rodando no Baxter e pegando objetos na estante da competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:8.jpg|thumb|nenhum|link=http://youtu.be/kx6mFj9pjPU]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Este manipulador a vácuo foi projetado pelo professor Alberto especialmente para a competição.&lt;br /&gt;
&lt;br /&gt;
[[Arquivo:Photo_1.JPG|thumb|nenhum|Rascunho a mão do projeto do manipulador vácuo desenvolvido para a competição&amp;quot;]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Todos os pontos obtidos na competição vieram dele. A estrutura física básica dele foi implementada pela empresa Unigripper (http://www.unigripper.com). Mas o acionamento eletrônico, assim como o driver de acionamente computacional, foram implementados pelo prof. Alberto. A Rutgers ganhou o apoio da Unigripper após ela ter nos solecionado em uma competição paralela à Amazon Picking Challenge promovida pela empresa. &lt;br /&gt;
&lt;br /&gt;
[[Image:9.jpg|thumb|nenhum|link=https://www.youtube.com/watch?v=4hWTLhXAjyA]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo, o prof. Alberto apresenta o sistema completo que ele desenvolveu (inclusive o planejamento de movimento) rodando com a parte de mapeamento, localização e detecção de objetos no mundo real, mas simulando o robô utilizado na competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:9.jpg|thumb|nenhum|link=https://www.youtube.com/watch?v=4hWTLhXAjyA]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentada a versão final do sistema utilizado na competição sendo empregada no robô utilizado na competição. No vídeo, o robô Motoman SDA10F realiza com sucesso uma das tarefas da competição {favor baixar este vídeo e colocar em destaque no canal do LCAD no Youtube}.&lt;br /&gt;
&lt;br /&gt;
[[Image:11.jpg|thumb|nenhum|link=https://www.youtube.com/watch?v=tofuV3d3XW0]]&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Arquivo:11.jpg&amp;diff=81033</id>
		<title>Arquivo:11.jpg</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Arquivo:11.jpg&amp;diff=81033"/>
				<updated>2015-06-08T13:54:39Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Arquivo:9.jpg&amp;diff=81032</id>
		<title>Arquivo:9.jpg</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Arquivo:9.jpg&amp;diff=81032"/>
				<updated>2015-06-08T13:54:17Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Amazon_Picking_Challenge&amp;diff=81031</id>
		<title>Amazon Picking Challenge</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Amazon_Picking_Challenge&amp;diff=81031"/>
				<updated>2015-06-08T13:52:03Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: /* Professor do LCAD obtém a sétima colocação na Amazon Picking Challenge */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
== Professor do LCAD obtém a sétima colocação na Amazon Picking Challenge==&lt;br /&gt;
&lt;br /&gt;
[[Arquivo:Photo-icra.jpg|600px|centro]]&lt;br /&gt;
&lt;br /&gt;
O professor Alberto F. De Souza, membro do Laboratório de Computação de Alto Desempenho, obteve a sétima colocação na Amazon Picking Challenge, uma competição de robótica autônoma promovida pela Amazon ([http://amazonpickingchallenge.org]). O professor Alberto, em parceria com o grupo do prof. Kostas Bekris, da Rutgers University (USA), como parte de suas atividades de pós-doutoramento, desenvolveu hardware e software para o robô Motoman (SDA10, Yaskawa) utilizando várias tecnologias previamente desenvolvidas no LCAD. O resultado obtido coloca o LCAD, o PPGI e a UFES em um time que se encontra entre os 10 melhores em manipulação robótica autônoma do mundo. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Reportagem da Bloomberg sobre a Amazon Picking Challenge com vídeo com entrevista do prof. Alberto.&lt;br /&gt;
&lt;br /&gt;
[http://www.bloomberg.com/news/articles/2015-05-28/robot-with-a-human-grasp-is-amazon-s-challenge-to-students http://www.bloomberg.com/news/articles/2015-05-28/robot-with-a-human-grasp-is-amazon-s-challenge-to-students]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentada a proposta inicial de sistema para o robô no início do projeto. A arquitetura do sistema final, utilizada na competição, é uma versão ligeiramente aprimorada.&lt;br /&gt;
&lt;br /&gt;
[[Image:1.jpg|thumb|nenhum|link=http://youtu.be/M7ktnz32BA0]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo, sao apresentados os sistemas de mapeamento, localização e detecção de objetos preliminares.&lt;br /&gt;
&lt;br /&gt;
[[Image:2.jpg|thumb|nenhum|link=https://youtu.be/47_Bj3o9s-Y]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
O detector de objetos utilizado é uma versão melhorada do detector Linemod, desenvolvida pelo prof. Alberto. Este vídeo mostra um teste após algumas das melhorias realizadas na versão publicamente disponível de Linemod. A versão final desenvolvida pelo prof. e utilizada na competição será disponibilizada como software livre.&lt;br /&gt;
&lt;br /&gt;
[[Image:3.jpg|thumb|nenhum|link=https://youtu.be/s_mtzXzKT7c]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentado o robô Baxter realizando todas as principais tarefas da competição. A Rutgers já possuia este robô, que foi utilizado na fase preliminar do projeto. O professor Alberto era o responsável pelos subsistemas de tomada de decisão, mapeamento, localização e detecção de objetos, equanto que a equipe do prof. Bekris era responsável pela parte de planejamento do movimento do robô (especialidade da equipe do prof. Bekris). Contudo, neste vídeo o sistema de planejamento dos movimentos do robô utilizado também foi desenvolvido pelo prof. Alberto com base no software MoveIt!, disponível na forma de software livre. A detecção de objetos ainda era viabilizada por uma versão preliminar do sistema utilizado na competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:4.jpg|thumb|nenhum|link=http://youtu.be/0K_PHgdauGo]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido à Amanzon em competição paralela promovida pela mesma para determinar a quem a empresa iria conceder uma estante e os objetos que seriam usados na competição. Nele é possível ver o planejador de movimentos do grupo do prof. Bekris em simulações.&lt;br /&gt;
&lt;br /&gt;
[[Image:5.jpg|thumb|nenhum|link=https://youtu.be/eFRg8EhO2Uk]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido ao fabricante do robô que usado na competição, Motoman SDA10F, fabricado pela Yaskawa. Graças a este vídeo a Rutgers ganhou (por 6 meses) um robô de U$150,000.00.&lt;br /&gt;
&lt;br /&gt;
[[Image:6.jpg|thumb|nenhum|link=https://youtu.be/-Lz8SbGRlmw]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido para a Amazon em uma competição paralela para receber apoio para transportar o robô para a competição (a Rutgers ganhou o apoio).&lt;br /&gt;
&lt;br /&gt;
[[Image:7.jpg|thumb|nenhum|link=https://youtu.be/H33EeTi3FaI]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Versão mais avançada do sistema desenvolvido rodando no Baxter e pegando objetos na estante da competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:8.jpg|thumb|nenhum|link=http://youtu.be/kx6mFj9pjPU]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Este manipulador a vácuo foi projetado pelo professor Alberto especialmente para a competição.&lt;br /&gt;
&lt;br /&gt;
[[Arquivo:Photo_1.JPG|thumb|nenhum|Rascunho a mão do projeto do manipulador vácuo desenvolvido para a competição&amp;quot;]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Todos os pontos obtidos na competição vieram dele. A estrutura física básica dele foi implementada pela empresa Unigripper (http://www.unigripper.com). Mas o acionamento eletrônico, assim como o driver de acionamente computacional, foram implementados pelo prof. Alberto. A Rutgers ganhou o apoio da Unigripper após ela ter nos solecionado em uma competição paralela à Amazon Picking Challenge promovida pela empresa. &lt;br /&gt;
&lt;br /&gt;
[https://www.youtube.com/watch?v=4hWTLhXAjyA https://www.youtube.com/watch?v=4hWTLhXAjyA]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo, o prof. Alberto apresenta o sistema completo que ele desenvolveu (inclusive o planejamento de movimento) rodando com a parte de mapeamento, localização e detecção de objetos no mundo real, mas simulando o robô utilizado na competição.&lt;br /&gt;
&lt;br /&gt;
[https://www.youtube.com/watch?v=4hWTLhXAjyA https://www.youtube.com/watch?v=4hWTLhXAjyA]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentada a versão final do sistema utilizado na competição sendo empregada no robô utilizado na competição. No vídeo, o robô Motoman SDA10F realiza com sucesso uma das tarefas da competição {favor baixar este vídeo e colocar em destaque no canal do LCAD no Youtube}.&lt;br /&gt;
&lt;br /&gt;
[https://www.youtube.com/watch?v=tofuV3d3XW0 https://www.youtube.com/watch?v=tofuV3d3XW0]&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Amazon_Picking_Challenge&amp;diff=81030</id>
		<title>Amazon Picking Challenge</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Amazon_Picking_Challenge&amp;diff=81030"/>
				<updated>2015-06-08T13:48:05Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: /* Professor do LCAD obtém a sétima colocação na Amazon Picking Challenge */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
== Professor do LCAD obtém a sétima colocação na Amazon Picking Challenge==&lt;br /&gt;
&lt;br /&gt;
[[Arquivo:Photo-icra.jpg|600px|centro]]&lt;br /&gt;
&lt;br /&gt;
O professor Alberto F. De Souza, membro do Laboratório de Computação de Alto Desempenho, obteve a sétima colocação na Amazon Picking Challenge, uma competição de robótica autônoma promovida pela Amazon ([http://amazonpickingchallenge.org]). O professor Alberto, em parceria com o grupo do prof. Kostas Bekris, da Rutgers University (USA), como parte de suas atividades de pós-doutoramento, desenvolveu hardware e software para o robô Motoman (SDA10, Yaskawa) utilizando várias tecnologias previamente desenvolvidas no LCAD. O resultado obtido coloca o LCAD, o PPGI e a UFES em um time que se encontra entre os 10 melhores em manipulação robótica autônoma do mundo. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Reportagem da Bloomberg sobre a Amazon Picking Challenge com vídeo com entrevista do prof. Alberto.&lt;br /&gt;
&lt;br /&gt;
[http://www.bloomberg.com/news/articles/2015-05-28/robot-with-a-human-grasp-is-amazon-s-challenge-to-students http://www.bloomberg.com/news/articles/2015-05-28/robot-with-a-human-grasp-is-amazon-s-challenge-to-students]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentada a proposta inicial de sistema para o robô no início do projeto. A arquitetura do sistema final, utilizada na competição, é uma versão ligeiramente aprimorada.&lt;br /&gt;
&lt;br /&gt;
[[Image:1.jpg|thumb|nenhum|link=http://youtu.be/M7ktnz32BA0]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo, sao apresentados os sistemas de mapeamento, localização e detecção de objetos preliminares.&lt;br /&gt;
&lt;br /&gt;
[[Image:2.jpg|thumb|nenhum|link=https://youtu.be/47_Bj3o9s-Y]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
O detector de objetos utilizado é uma versão melhorada do detector Linemod, desenvolvida pelo prof. Alberto. Este vídeo mostra um teste após algumas das melhorias realizadas na versão publicamente disponível de Linemod. A versão final desenvolvida pelo prof. e utilizada na competição será disponibilizada como software livre.&lt;br /&gt;
&lt;br /&gt;
[[Image:3.jpg|thumb|nenhum|link=https://youtu.be/s_mtzXzKT7c]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentado o robô Baxter realizando todas as principais tarefas da competição. A Rutgers já possuia este robô, que foi utilizado na fase preliminar do projeto. O professor Alberto era o responsável pelos subsistemas de tomada de decisão, mapeamento, localização e detecção de objetos, equanto que a equipe do prof. Bekris era responsável pela parte de planejamento do movimento do robô (especialidade da equipe do prof. Bekris). Contudo, neste vídeo o sistema de planejamento dos movimentos do robô utilizado também foi desenvolvido pelo prof. Alberto com base no software MoveIt!, disponível na forma de software livre. A detecção de objetos ainda era viabilizada por uma versão preliminar do sistema utilizado na competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:4.jpg|thumb|nenhum|link=http://youtu.be/0K_PHgdauGo]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido à Amanzon em competição paralela promovida pela mesma para determinar a quem a empresa iria conceder uma estante e os objetos que seriam usados na competição. Nele é possível ver o planejador de movimentos do grupo do prof. Bekris em simulações.&lt;br /&gt;
&lt;br /&gt;
[[Image:5.jpg|thumb|nenhum|link=https://youtu.be/eFRg8EhO2Uk]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido ao fabricante do robô que usado na competição, Motoman SDA10F, fabricado pela Yaskawa. Graças a este vídeo a Rutgers ganhou (por 6 meses) um robô de U$150,000.00.&lt;br /&gt;
&lt;br /&gt;
[[Image:6.jpg|thumb|nenhum|link=https://youtu.be/-Lz8SbGRlmw]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido para a Amazon em uma competição paralela para receber apoio para transportar o robô para a competição (a Rutgers ganhou o apoio).&lt;br /&gt;
&lt;br /&gt;
[[Image:7.jpg|thumb|nenhum|link=https://youtu.be/H33EeTi3FaI]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Versão mais avançada do sistema desenvolvido rodando no Baxter e pegando objetos na estante da competição.&lt;br /&gt;
&lt;br /&gt;
[[Image:8.jpg|thumb|nenhum|link=http://youtu.be/kx6mFj9pjPU]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Este manipulador a vácuo foi projetado pelo professor Alberto especialmente para a competição.&lt;br /&gt;
&lt;br /&gt;
[[Arquivo:Photo_1.JPG|thumb|nenhum|Rascunho a mão do projeto do manipulador vácuo desenvolvido para a competição&amp;quot;]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Todos os pontos obtidos na competição vieram dele. A estrutura física básica dele foi implementada pela empresa Unigripper (http://www.unigripper.com). Mas o acionamento eletrônico, assim como o driver de acionamente computacional, foram implementados pelo prof. Alberto. A Rutgers ganhou o apoio da Unigripper após ela ter nos solecionado em uma competição paralela à Amazon Picking Challenge promovida pela empresa. &lt;br /&gt;
&lt;br /&gt;
[https://drive.google.com/file/d/0Bx72lgdcLPEpdzlObEs1SENNZ2M/view?usp=sharing https://drive.google.com/file/d/0Bx72lgdcLPEpdzlObEs1SENNZ2M/view?usp=sharing]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo, o prof. Alberto apresenta o sistema completo que ele desenvolveu (inclusive o planejamento de movimento) rodando com a parte de mapeamento, localização e detecção de objetos no mundo real, mas simulando o robô utilizado na competição.&lt;br /&gt;
&lt;br /&gt;
[https://drive.google.com/open?id=0Bx72lgdcLPEpdzlObEs1SENNZ2M&amp;amp;authuser=0 https://drive.google.com/open?id=0Bx72lgdcLPEpdzlObEs1SENNZ2M&amp;amp;authuser=0]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentada a versão final do sistema utilizado na competição sendo empregada no robô utilizado na competição. No vídeo, o robô Motoman SDA10F realiza com sucesso uma das tarefas da competição {favor baixar este vídeo e colocar em destaque no canal do LCAD no Youtube}.&lt;br /&gt;
&lt;br /&gt;
[https://drive.google.com/file/d/0Bx72lgdcLPEpUDZqc05hblpqdW8/view?usp=sharing https://drive.google.com/file/d/0Bx72lgdcLPEpUDZqc05hblpqdW8/view?usp=sharing]&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Arquivo:8.jpg&amp;diff=81029</id>
		<title>Arquivo:8.jpg</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Arquivo:8.jpg&amp;diff=81029"/>
				<updated>2015-06-08T13:31:50Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Arquivo:7.jpg&amp;diff=81028</id>
		<title>Arquivo:7.jpg</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Arquivo:7.jpg&amp;diff=81028"/>
				<updated>2015-06-08T13:31:43Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Arquivo:6.jpg&amp;diff=81027</id>
		<title>Arquivo:6.jpg</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Arquivo:6.jpg&amp;diff=81027"/>
				<updated>2015-06-08T13:31:35Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Arquivo:5.jpg&amp;diff=81026</id>
		<title>Arquivo:5.jpg</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Arquivo:5.jpg&amp;diff=81026"/>
				<updated>2015-06-08T13:31:27Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Arquivo:4.jpg&amp;diff=81025</id>
		<title>Arquivo:4.jpg</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Arquivo:4.jpg&amp;diff=81025"/>
				<updated>2015-06-08T13:31:19Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Arquivo:3.jpg&amp;diff=81024</id>
		<title>Arquivo:3.jpg</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Arquivo:3.jpg&amp;diff=81024"/>
				<updated>2015-06-08T13:31:08Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Arquivo:2.jpg&amp;diff=81023</id>
		<title>Arquivo:2.jpg</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Arquivo:2.jpg&amp;diff=81023"/>
				<updated>2015-06-08T13:30:59Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Arquivo:1.jpg&amp;diff=81022</id>
		<title>Arquivo:1.jpg</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Arquivo:1.jpg&amp;diff=81022"/>
				<updated>2015-06-08T13:30:36Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Amazon_Picking_Challenge&amp;diff=81021</id>
		<title>Amazon Picking Challenge</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Amazon_Picking_Challenge&amp;diff=81021"/>
				<updated>2015-06-05T18:01:29Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: /* Professor do LCAD obtém a sétima colocação na Amazon Picking Challenge */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
== Professor do LCAD obtém a sétima colocação na Amazon Picking Challenge==&lt;br /&gt;
&lt;br /&gt;
[[Arquivo:Photo-icra.jpg|600px|centro]]&lt;br /&gt;
&lt;br /&gt;
O professor Alberto F. De Souza, membro do Laboratório de Computação de Alto Desempenho, obteve a sétima colocação na Amazon Picking Challenge, uma competição de robótica autônoma promovida pela Amazon ([http://amazonpickingchallenge.org]). O professor Alberto, em parceria com o grupo do prof. Kostas Bekris, da Rutgers University (USA), como parte de suas atividades de pós-doutoramento, desenvolveu hardware e software para o robô Motoman (SDA10, Yaskawa) utilizando várias tecnologias previamente desenvolvidas no LCAD. O resultado obtido coloca o LCAD, o PPGI e a UFES em um time que se encontra entre os 10 melhores em manipulação robótica autônoma do mundo. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Reportagem da Bloomberg sobre a Amazon Picking Challenge com vídeo com entrevista do prof. Alberto.&lt;br /&gt;
&lt;br /&gt;
[http://www.bloomberg.com/news/articles/2015-05-28/robot-with-a-human-grasp-is-amazon-s-challenge-to-students http://www.bloomberg.com/news/articles/2015-05-28/robot-with-a-human-grasp-is-amazon-s-challenge-to-students]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentada a proposta inicial de sistema para o robô no início do projeto. A arquitetura do sistema final, utilizada na competição, é uma versão ligeiramente aprimorada.&lt;br /&gt;
&lt;br /&gt;
[http://youtu.be/M7ktnz32BA0 http://youtu.be/M7ktnz32BA0]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo, sao apresentados os sistemas de mapeamento, localização e detecção de objetos preliminares.&lt;br /&gt;
&lt;br /&gt;
[https://youtu.be/47_Bj3o9s-Y https://youtu.be/47_Bj3o9s-Y]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
O detector de objetos utilizado é uma versão melhorada do detector Linemod, desenvolvida pelo prof. Alberto. Este vídeo mostra um teste após algumas das melhorias realizadas na versão publicamente disponível de Linemod. A versão final desenvolvida pelo prof. e utilizada na competição será disponibilizada como software livre.&lt;br /&gt;
&lt;br /&gt;
[https://youtu.be/s_mtzXzKT7c https://youtu.be/s_mtzXzKT7c]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentado o robô Baxter realizando todas as principais tarefas da competição. A Rutgers já possuia este robô, que foi utilizado na fase preliminar do projeto. O professor Alberto era o responsável pelos subsistemas de tomada de decisão, mapeamento, localização e detecção de objetos, equanto que a equipe do prof. Bekris era responsável pela parte de planejamento do movimento do robô (especialidade da equipe do prof. Bekris). Contudo, neste vídeo o sistema de planejamento dos movimentos do robô utilizado também foi desenvolvido pelo prof. Alberto com base no software MoveIt!, disponível na forma de software livre. A detecção de objetos ainda era viabilizada por uma versão preliminar do sistema utilizado na competição.&lt;br /&gt;
&lt;br /&gt;
[http://youtu.be/0K_PHgdauGo http://youtu.be/0K_PHgdauGo] &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido à Amanzon em competição paralela promovida pela mesma para determinar a quem a empresa iria conceder uma estante e os objetos que seriam usados na competição. Nele é possível ver o planejador de movimentos do grupo do prof. Bekris em simulações.&lt;br /&gt;
&lt;br /&gt;
[https://youtu.be/eFRg8EhO2Uk https://youtu.be/eFRg8EhO2Uk]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido ao fabricante do robô que usado na competição, Motoman SDA10F, fabricado pela Yaskawa. Graças a este vídeo a Rutgers ganhou (por 6 meses) um robô de U$150,000.00.&lt;br /&gt;
&lt;br /&gt;
[https://youtu.be/-Lz8SbGRlmw https://youtu.be/-Lz8SbGRlmw]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido para a Amazon em uma competição paralela para receber apoio para transportar o robô para a competição (a Rutgers ganhou o apoio).&lt;br /&gt;
&lt;br /&gt;
[https://youtu.be/H33EeTi3FaI https://youtu.be/H33EeTi3FaI] &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Versão mais avançada do sistema desenvolvido rodando no Baxter e pegando objetos na estante da competição.&lt;br /&gt;
&lt;br /&gt;
[http://youtu.be/kx6mFj9pjPU http://youtu.be/kx6mFj9pjPU] &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Este manipulador a vácuo foi projetado pelo professor Alberto especialmente para a competição.&lt;br /&gt;
&lt;br /&gt;
[[Arquivo:Photo_1.JPG|thumb|nenhum|Rascunho a mão do projeto do manipulador vácuo desenvolvido para a competição&amp;quot;]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Todos os pontos obtidos na competição vieram dele. A estrutura física básica dele foi implementada pela empresa Unigripper (http://www.unigripper.com). Mas o acionamento eletrônico, assim como o driver de acionamente computacional, foram implementados pelo prof. Alberto. A Rutgers ganhou o apoio da Unigripper após ela ter nos solecionado em uma competição paralela à Amazon Picking Challenge promovida pela empresa. &lt;br /&gt;
&lt;br /&gt;
[https://drive.google.com/file/d/0Bx72lgdcLPEpdzlObEs1SENNZ2M/view?usp=sharing https://drive.google.com/file/d/0Bx72lgdcLPEpdzlObEs1SENNZ2M/view?usp=sharing]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo, o prof. Alberto apresenta o sistema completo que ele desenvolveu (inclusive o planejamento de movimento) rodando com a parte de mapeamento, localização e detecção de objetos no mundo real, mas simulando o robô utilizado na competição.&lt;br /&gt;
&lt;br /&gt;
[https://drive.google.com/open?id=0Bx72lgdcLPEpdzlObEs1SENNZ2M&amp;amp;authuser=0 https://drive.google.com/open?id=0Bx72lgdcLPEpdzlObEs1SENNZ2M&amp;amp;authuser=0]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentada a versão final do sistema utilizado na competição sendo empregada no robô utilizado na competição. No vídeo, o robô Motoman SDA10F realiza com sucesso uma das tarefas da competição {favor baixar este vídeo e colocar em destaque no canal do LCAD no Youtube}.&lt;br /&gt;
&lt;br /&gt;
[https://drive.google.com/file/d/0Bx72lgdcLPEpUDZqc05hblpqdW8/view?usp=sharing https://drive.google.com/file/d/0Bx72lgdcLPEpUDZqc05hblpqdW8/view?usp=sharing]&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Amazon_Picking_Challenge&amp;diff=81020</id>
		<title>Amazon Picking Challenge</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Amazon_Picking_Challenge&amp;diff=81020"/>
				<updated>2015-06-05T17:47:20Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: /* Professor do LCAD obtém a sétima colocação na Amazon Picking Challenge */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
== Professor do LCAD obtém a sétima colocação na Amazon Picking Challenge==&lt;br /&gt;
&lt;br /&gt;
[[Arquivo:Photo-icra.jpg|600px|centro]]&lt;br /&gt;
&lt;br /&gt;
O professor Alberto F. De Souza, membro do Laboratório de Computação de Alto Desempenho, obteve a sétima colocação na Amazon Picking Challenge, uma competição de robótica autônoma promovida pela Amazon ([http://amazonpickingchallenge.org]). O professor Alberto, em parceria com o grupo do prof. Kostas Bekris, da Rutgers University (USA), como parte de suas atividades de pós-doutoramento, desenvolveu hardware e software para o robô Motoman (SDA10, Yaskawa) utilizando várias tecnologias previamente desenvolvidas no LCAD. O resultado obtido coloca o LCAD, o PPGI e a UFES em um time que se encontra entre os 10 melhores em manipulação robótica autônoma do mundo. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Reportagem da Bloomberg sobre a Amazon Picking Challenge com vídeo com entrevista do prof. Alberto.&lt;br /&gt;
&lt;br /&gt;
[http://www.bloomberg.com/news/articles/2015-05-28/robot-with-a-human-grasp-is-amazon-s-challenge-to-students http://www.bloomberg.com/news/articles/2015-05-28/robot-with-a-human-grasp-is-amazon-s-challenge-to-students]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentada a proposta inicial de sistema para o robô no início do projeto. A arquitetura do sistema final, utilizada na competição, é uma versão ligeiramente aprimorada.&lt;br /&gt;
&lt;br /&gt;
[http://youtu.be/M7ktnz32BA0 http://youtu.be/M7ktnz32BA0] &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo, sao apresentados os sistemas de mapeamento, localização e detecção de objetos preliminares.&lt;br /&gt;
&lt;br /&gt;
[https://youtu.be/47_Bj3o9s-Y https://youtu.be/47_Bj3o9s-Y]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
O detector de objetos utilizado é uma versão melhorada do detector Linemod, desenvolvida pelo prof. Alberto. Este vídeo mostra um teste após algumas das melhorias realizadas na versão publicamente disponível de Linemod. A versão final desenvolvida pelo prof. e utilizada na competição será disponibilizada como software livre.&lt;br /&gt;
&lt;br /&gt;
[https://youtu.be/s_mtzXzKT7c https://youtu.be/s_mtzXzKT7c]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentado o robô Baxter realizando todas as principais tarefas da competição. A Rutgers já possuia este robô, que foi utilizado na fase preliminar do projeto. O professor Alberto era o responsável pelos subsistemas de tomada de decisão, mapeamento, localização e detecção de objetos, equanto que a equipe do prof. Bekris era responsável pela parte de planejamento do movimento do robô (especialidade da equipe do prof. Bekris). Contudo, neste vídeo o sistema de planejamento dos movimentos do robô utilizado também foi desenvolvido pelo prof. Alberto com base no software MoveIt!, disponível na forma de software livre. A detecção de objetos ainda era viabilizada por uma versão preliminar do sistema utilizado na competição.&lt;br /&gt;
&lt;br /&gt;
[http://youtu.be/0K_PHgdauGo http://youtu.be/0K_PHgdauGo] &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido à Amanzon em competição paralela promovida pela mesma para determinar a quem a empresa iria conceder uma estante e os objetos que seriam usados na competição. Nele é possível ver o planejador de movimentos do grupo do prof. Bekris em simulações.&lt;br /&gt;
&lt;br /&gt;
[https://youtu.be/eFRg8EhO2Uk https://youtu.be/eFRg8EhO2Uk]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido ao fabricante do robô que usado na competição, Motoman SDA10F, fabricado pela Yaskawa. Graças a este vídeo a Rutgers ganhou (por 6 meses) um robô de U$150,000.00.&lt;br /&gt;
&lt;br /&gt;
[https://youtu.be/-Lz8SbGRlmw https://youtu.be/-Lz8SbGRlmw]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido para a Amazon em uma competição paralela para receber apoio para transportar o robô para a competição (a Rutgers ganhou o apoio).&lt;br /&gt;
&lt;br /&gt;
[https://youtu.be/H33EeTi3FaI https://youtu.be/H33EeTi3FaI] &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Versão mais avançada do sistema desenvolvido rodando no Baxter e pegando objetos na estante da competição.&lt;br /&gt;
&lt;br /&gt;
[http://youtu.be/kx6mFj9pjPU http://youtu.be/kx6mFj9pjPU] &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Este manipulador a vácuo foi projetado pelo professor Alberto especialmente para a competição.&lt;br /&gt;
&lt;br /&gt;
[[Arquivo:Photo_1.JPG|thumb|nenhum|Rascunho a mão do projeto do manipulador vácuo desenvolvido para a competição&amp;quot;]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Todos os pontos obtidos na competição vieram dele. A estrutura física básica dele foi implementada pela empresa Unigripper (http://www.unigripper.com). Mas o acionamento eletrônico, assim como o driver de acionamente computacional, foram implementados pelo prof. Alberto. A Rutgers ganhou o apoio da Unigripper após ela ter nos solecionado em uma competição paralela à Amazon Picking Challenge promovida pela empresa. &lt;br /&gt;
&lt;br /&gt;
[https://drive.google.com/file/d/0Bx72lgdcLPEpdzlObEs1SENNZ2M/view?usp=sharing https://drive.google.com/file/d/0Bx72lgdcLPEpdzlObEs1SENNZ2M/view?usp=sharing]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo, o prof. Alberto apresenta o sistema completo que ele desenvolveu (inclusive o planejamento de movimento) rodando com a parte de mapeamento, localização e detecção de objetos no mundo real, mas simulando o robô utilizado na competição.&lt;br /&gt;
&lt;br /&gt;
[https://drive.google.com/open?id=0Bx72lgdcLPEpdzlObEs1SENNZ2M&amp;amp;authuser=0 https://drive.google.com/open?id=0Bx72lgdcLPEpdzlObEs1SENNZ2M&amp;amp;authuser=0]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentada a versão final do sistema utilizado na competição sendo empregada no robô utilizado na competição. No vídeo, o robô Motoman SDA10F realiza com sucesso uma das tarefas da competição {favor baixar este vídeo e colocar em destaque no canal do LCAD no Youtube}.&lt;br /&gt;
&lt;br /&gt;
[https://drive.google.com/file/d/0Bx72lgdcLPEpUDZqc05hblpqdW8/view?usp=sharing https://drive.google.com/file/d/0Bx72lgdcLPEpUDZqc05hblpqdW8/view?usp=sharing]&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	<entry>
		<id>http://www.lcad.inf.ufes.br/wiki/index.php?title=Amazon_Picking_Challenge&amp;diff=81019</id>
		<title>Amazon Picking Challenge</title>
		<link rel="alternate" type="text/html" href="http://www.lcad.inf.ufes.br/wiki/index.php?title=Amazon_Picking_Challenge&amp;diff=81019"/>
				<updated>2015-06-05T17:45:54Z</updated>
		
		<summary type="html">&lt;p&gt;Mberger: /* Professor do LCAD obtém a sétima colocação na Amazon Picking Challenge */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
== Professor do LCAD obtém a sétima colocação na Amazon Picking Challenge==&lt;br /&gt;
&lt;br /&gt;
[[Arquivo:Photo-icra.jpg|600px]]&lt;br /&gt;
&lt;br /&gt;
O professor Alberto F. De Souza, membro do Laboratório de Computação de Alto Desempenho, obteve a sétima colocação na Amazon Picking Challenge, uma competição de robótica autônoma promovida pela Amazon ([http://amazonpickingchallenge.org]). O professor Alberto, em parceria com o grupo do prof. Kostas Bekris, da Rutgers University (USA), como parte de suas atividades de pós-doutoramento, desenvolveu hardware e software para o robô Motoman (SDA10, Yaskawa) utilizando várias tecnologias previamente desenvolvidas no LCAD. O resultado obtido coloca o LCAD, o PPGI e a UFES em um time que se encontra entre os 10 melhores em manipulação robótica autônoma do mundo. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Reportagem da Bloomberg sobre a Amazon Picking Challenge com vídeo com entrevista do prof. Alberto.&lt;br /&gt;
&lt;br /&gt;
[http://www.bloomberg.com/news/articles/2015-05-28/robot-with-a-human-grasp-is-amazon-s-challenge-to-students http://www.bloomberg.com/news/articles/2015-05-28/robot-with-a-human-grasp-is-amazon-s-challenge-to-students]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentada a proposta inicial de sistema para o robô no início do projeto. A arquitetura do sistema final, utilizada na competição, é uma versão ligeiramente aprimorada.&lt;br /&gt;
&lt;br /&gt;
[http://youtu.be/M7ktnz32BA0 http://youtu.be/M7ktnz32BA0] &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo, sao apresentados os sistemas de mapeamento, localização e detecção de objetos preliminares.&lt;br /&gt;
&lt;br /&gt;
[https://youtu.be/47_Bj3o9s-Y https://youtu.be/47_Bj3o9s-Y]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
O detector de objetos utilizado é uma versão melhorada do detector Linemod, desenvolvida pelo prof. Alberto. Este vídeo mostra um teste após algumas das melhorias realizadas na versão publicamente disponível de Linemod. A versão final desenvolvida pelo prof. e utilizada na competição será disponibilizada como software livre.&lt;br /&gt;
&lt;br /&gt;
[https://youtu.be/s_mtzXzKT7c https://youtu.be/s_mtzXzKT7c]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentado o robô Baxter realizando todas as principais tarefas da competição. A Rutgers já possuia este robô, que foi utilizado na fase preliminar do projeto. O professor Alberto era o responsável pelos subsistemas de tomada de decisão, mapeamento, localização e detecção de objetos, equanto que a equipe do prof. Bekris era responsável pela parte de planejamento do movimento do robô (especialidade da equipe do prof. Bekris). Contudo, neste vídeo o sistema de planejamento dos movimentos do robô utilizado também foi desenvolvido pelo prof. Alberto com base no software MoveIt!, disponível na forma de software livre. A detecção de objetos ainda era viabilizada por uma versão preliminar do sistema utilizado na competição.&lt;br /&gt;
&lt;br /&gt;
[http://youtu.be/0K_PHgdauGo http://youtu.be/0K_PHgdauGo] &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido à Amanzon em competição paralela promovida pela mesma para determinar a quem a empresa iria conceder uma estante e os objetos que seriam usados na competição. Nele é possível ver o planejador de movimentos do grupo do prof. Bekris em simulações.&lt;br /&gt;
&lt;br /&gt;
[https://youtu.be/eFRg8EhO2Uk https://youtu.be/eFRg8EhO2Uk]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido ao fabricante do robô que usado na competição, Motoman SDA10F, fabricado pela Yaskawa. Graças a este vídeo a Rutgers ganhou (por 6 meses) um robô de U$150,000.00.&lt;br /&gt;
&lt;br /&gt;
[https://youtu.be/-Lz8SbGRlmw https://youtu.be/-Lz8SbGRlmw]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Vídeo submetido para a Amazon em uma competição paralela para receber apoio para transportar o robô para a competição (a Rutgers ganhou o apoio).&lt;br /&gt;
&lt;br /&gt;
[https://youtu.be/H33EeTi3FaI https://youtu.be/H33EeTi3FaI] &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Versão mais avançada do sistema desenvolvido rodando no Baxter e pegando objetos na estante da competição.&lt;br /&gt;
&lt;br /&gt;
[http://youtu.be/kx6mFj9pjPU http://youtu.be/kx6mFj9pjPU] &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Este manipulador a vácuo foi projetado pelo professor Alberto especialmente para a competição.&lt;br /&gt;
&lt;br /&gt;
[[Arquivo:Photo_1.JPG|thumb|nenhum|Rascunho a mão do projeto do manipulador vácuo desenvolvido para a competição&amp;quot;]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Todos os pontos obtidos na competição vieram dele. A estrutura física básica dele foi implementada pela empresa Unigripper (http://www.unigripper.com). Mas o acionamento eletrônico, assim como o driver de acionamente computacional, foram implementados pelo prof. Alberto. A Rutgers ganhou o apoio da Unigripper após ela ter nos solecionado em uma competição paralela à Amazon Picking Challenge promovida pela empresa. &lt;br /&gt;
&lt;br /&gt;
[https://drive.google.com/file/d/0Bx72lgdcLPEpdzlObEs1SENNZ2M/view?usp=sharing https://drive.google.com/file/d/0Bx72lgdcLPEpdzlObEs1SENNZ2M/view?usp=sharing]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo, o prof. Alberto apresenta o sistema completo que ele desenvolveu (inclusive o planejamento de movimento) rodando com a parte de mapeamento, localização e detecção de objetos no mundo real, mas simulando o robô utilizado na competição.&lt;br /&gt;
&lt;br /&gt;
[https://drive.google.com/open?id=0Bx72lgdcLPEpdzlObEs1SENNZ2M&amp;amp;authuser=0 https://drive.google.com/open?id=0Bx72lgdcLPEpdzlObEs1SENNZ2M&amp;amp;authuser=0]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Neste vídeo é apresentada a versão final do sistema utilizado na competição sendo empregada no robô utilizado na competição. No vídeo, o robô Motoman SDA10F realiza com sucesso uma das tarefas da competição {favor baixar este vídeo e colocar em destaque no canal do LCAD no Youtube}.&lt;br /&gt;
&lt;br /&gt;
[https://drive.google.com/file/d/0Bx72lgdcLPEpUDZqc05hblpqdW8/view?usp=sharing https://drive.google.com/file/d/0Bx72lgdcLPEpUDZqc05hblpqdW8/view?usp=sharing]&lt;/div&gt;</summary>
		<author><name>Mberger</name></author>	</entry>

	</feed>