移动抓取?场景识别?有什么要求,尽!管!提! 是这样的,本片**是在技术小哥被项目压的气喘吁吁的时候,我冒死争取了一点时间整理出来的。憋文不易,且行且珍惜。 本场的主角见下图: 客户需求:研究室外场景识别 设备清单 | | | | | 为机器人提供向前向后的移动功能、避障功能、导航功能,自主完成建图 | | | | | | | | | 获取深度图像和RGB图像 通过识别二维码确定物体位置 | | | | | | |
硬件部分: 机械结构这部分,随着项目的积累,很多框架可以之前的基础上稍加修改,直接送去加工厂加工,给整体项目节约了很多时间。 软件部分: (1)调试: 为适应移动抓取相对较高的精度要求,从建图、定位以及导航各环节进行测试优化,将定位精度控制在可用范围。调整机械臂在移动、观察、以及抓取过程中的位姿,避免移动中机械臂的磕碰,并确保Realsense在抓取过程中具有良好的视野,同时良好的视角可以弥补导航精度不足的问题。适当选用一些规划中间点,以及给机械臂关节速度、角度的限制,使臂的规划能够在尽量小范围内完成,更接近于理想状态。优化抓取流程,使整个过程更加流畅。 (2)组装ROS包: 1. 机器人模型的整体构建 2. mir_robot功能包的版本适配 3. 定位导航功能 4. Moveit!的配置 5. 移动抓取demo 图像识别部分: 使用Aruco的标记检测方法来获取物体位姿。Aruco marker是一个二进制平方标记,它由一个宽的黑色的边界和一个内部的二进制矩阵组成,内部的矩阵决定了它们的id。此方法易用并且准确度较高。黑色的边界有利于快速检测到图像,二进制编码可以验证id,并且可以应用错误检测和校正技术。 我们会根据需求提前打印出marker,并贴在被抓取物体,通过realsense获得图像信息,对marker进行检测,将获取的位姿给到机械臂末端,完成移动抓取。 此次培训内容包括: 1. 机器人结构:组成部分,以及各组成部分的参数,特点,功能,注意事项 2. 基础操作:MirWeb系统的使用,Kinova手控器以及SDK的使用 3. ROS功能:各ROS的功能以及使用,模型,Rviz显示 4. 移动抓取Demo:根据现场场景修改并演示,讲解使用修改流程 5. 使用安全规范:接口,上电顺序等 6. 指导现场使用 最后,希望大家积极举手发言,有什么问题随时咨询~
|