打印

移动抓取?场景识别?有什么要求,尽!管!提!

[复制链接]
933|0
手机看帖
扫描二维码
随时随地手机跟帖
跳转到指定楼层
楼主
IQR|  楼主 | 2019-12-5 15:25 | 只看该作者 |只看大图 回帖奖励 |倒序浏览 |阅读模式
移动抓取?场景识别?有什么要求,尽!管!提!
是这样的,本片**是在技术小哥被项目压的气喘吁吁的时候,我冒死争取了一点时间整理出来的。憋文不易,且行且珍惜。
本场的主角见下图:
客户需求:研究室外场景识别
设备清单
设备名称
用途
移动机器人
Mir  100
为机器人提供向前向后的移动功能、避障功能、导航功能,自主完成建图
机械臂
Kinova  gen2 7dof
7自由度机械臂,在三维空间进行移动
末端夹爪
Kinova  3 finger
安装在机械臂末端,提供抓取力
相机
Kinect2.0
  
Realsense
获取深度图像和RGB图像
  
通过识别二维码确定物体位置
云台
ELF-pan  tilt
扩大视觉相机的水平和俯仰角度
激光雷达
Sick  S300
用于建图和导航
硬件部分:
机械结构这部分,随着项目的积累,很多框架可以之前的基础上稍加修改,直接送去加工厂加工,给整体项目节约了很多时间。
软件部分:
(1)调试:
为适应移动抓取相对较高的精度要求,从建图、定位以及导航各环节进行测试优化,将定位精度控制在可用范围。调整机械臂在移动、观察、以及抓取过程中的位姿,避免移动中机械臂的磕碰,并确保Realsense在抓取过程中具有良好的视野,同时良好的视角可以弥补导航精度不足的问题。适当选用一些规划中间点,以及给机械臂关节速度、角度的限制,使臂的规划能够在尽量小范围内完成,更接近于理想状态。优化抓取流程,使整个过程更加流畅。
(2)组装ROS包:
1. 机器人模型的整体构建
2. mir_robot功能包的版本适配
3. 定位导航功能
4. Moveit!的配置
5. 移动抓取demo
图像识别部分:
使用Aruco的标记检测方法来获取物体位姿。Aruco marker是一个二进制平方标记,它由一个宽的黑色的边界和一个内部的二进制矩阵组成,内部的矩阵决定了它们的id。此方法易用并且准确度较高。黑色的边界有利于快速检测到图像,二进制编码可以验证id,并且可以应用错误检测和校正技术。
我们会根据需求提前打印出marker,并贴在被抓取物体,通过realsense获得图像信息,对marker进行检测,将获取的位姿给到机械臂末端,完成移动抓取。
此次培训内容包括:
1. 机器人结构:组成部分,以及各组成部分的参数,特点,功能,注意事项
2. 基础操作:MirWeb系统的使用,Kinova手控器以及SDK的使用
3. ROS功能:各ROS的功能以及使用,模型,Rviz显示
4. 移动抓取Demo:根据现场场景修改并演示,讲解使用修改流程
5. 使用安全规范:接口,上电顺序等
6. 指导现场使用
最后,希望大家积极举手发言,有什么问题随时咨询~

使用特权

评论回复

相关帖子

发新帖 我要提问
您需要登录后才可以回帖 登录 | 注册

本版积分规则

IQR

2

主题

2

帖子

1

粉丝