• 欢迎访问开心洋葱网站,在线教程,推荐使用最新版火狐浏览器和Chrome浏览器访问本网站,欢迎加入开心洋葱 QQ群
  • 为方便开心洋葱网用户,开心洋葱官网已经开启复制功能!
  • 欢迎访问开心洋葱网站,手机也能访问哦~欢迎加入开心洋葱多维思维学习平台 QQ群
  • 如果您觉得本站非常有看点,那么赶紧使用Ctrl+D 收藏开心洋葱吧~~~~~~~~~~~~~!
  • 由于近期流量激增,小站的ECS没能经的起亲们的访问,本站依然没有盈利,如果各位看如果觉着文字不错,还请看官给小站打个赏~~~~~~~~~~~~~!

Apriltags+Ros+Ur5项目–gazebo模拟

人工智能 光头明明 1918次浏览 0个评论

首先说明一下,这里我们的摄像头和tag只是利用了他们的相对位姿,并没有按照实际模型那样布置摄像头和tag,但这并不影响我们观察整个系统的运行效果,布置如下:  
在这里插入图片描述   由于之前myrobot已经是一个很完整的包,本身有gazebo模型,所以我们运行以下指令  

roslaunch apriltags2_ros continuous_detection.launch
roslaunch myrobot2_gazebo myrobot2.launch
roslaunch apriltags2_launch setup.launch

  说一下setup.launch如下,一个是启动moveit的launch,还有一个启动了位姿订阅节点,在后续中加入了Descartes Path Planning,所以在github文件稍有不同。这一块主要参考网址:https://industrial-training-master.readthedocs.io/en/kinetic/_source/session4/Descartes-Path-Planning.html  

<?xml version="1.0" ?>
<launch>
  <include file="$(find myrobot2_moveit_config)/launch/myrobot2_moveit_planning_execution.launch"/>
  <node name="atnode_vision" pkg="apriltags2_node" type="atnode_vision" output="screen" />
</launch>

  最后启动服务器客户端,包含moveit运动规划  

rosrun apriltags2_node apriltags2_client 

  演示视频: 链接:https://github.com/harrycomeon/apriltags2_ros-and-ur5/blob/master/附录5附图.gif   ×××××××××××××××××××××××××××××××××× 8.15号更新: 修正了之前的模拟方案,首先进行了手眼标定,从而确定相机相对于机械手基坐标的位姿,具体方案,参考链接:https://blog.csdn.net/harrycomeon/article/details/94838983   完成手眼标定后,便可以在gazebo上进行模拟,选择了universal_robot下的ur_gazebo下的launch下的ur5.launch进行模拟,由于之前我们已经在ur_description下进行了urdf文件的修改,这里我们并不需要进行修改,因为内部是直接调用的urdf文件。  

roslaunch ur_gazebo ur5.launch
roslaunch ur5_moveit_config ur5_moveit_planning_execution.launch sim:=true
roslaunch ur5_moveit_config moveit_rviz.launch config:=true (用来观察)
roslaunch apriltags2_ros continuous_detection.launch
roslaunch apriltags2_launch setup.launch

  具体效果如下,这里并未录制gazebo下的模拟,只是演示了在rviz下的效果,是可以同步实现在rviz上的移动效果,以后有机会会补上:  
Apriltags+Ros+Ur5项目--gazebo模拟


开心洋葱 , 版权所有丨如未注明 , 均为原创丨未经授权请勿修改 , 转载请注明Apriltags+Ros+Ur5项目–gazebo模拟
喜欢 (0)

您必须 登录 才能发表评论!

加载中……