当前位置 : 中国机器人峰会 >> 大会新闻
发布时间:2022-05-12发布人:中国机器人峰会
2018年,正值3D视觉和AI技术爆发元年,作为机器人的"眼睛",3D视觉市场火热十足,数据显示,2021年机器视觉热度延续,并将以20%-30%的速度持续增长,到2023年机器视觉市场规模有望达到155.6亿元。
视比特一直扎根3D视觉黄金赛道,从工业到物流,利用与生俱来的"AI+3D视觉"两大高科技基因,从市场的需求出发解决行业中的痛点,用一个又一个先进又高效的AI机器视觉产品赢得了行业的认可。
汽车制造是自动化程度最高的行业之一,但汽车主机厂、零部件厂超过一半的上下料、装配工序都是人工在作业,工作强度大、重复性高、招工困难;且由于汽车零部件种类多达数千种、人工送料偏差导致来料不规整等使得传统自动化无法应对柔性化的生产模式;汽车主机厂质量管控要求越来越严格,传统检具成本高,效率低,占用空间;人工质检质量不可控,无法形成质量工艺优化闭环控制;在线检测技术壁垒高,高精度、大尺寸视觉缺陷检测及测量基本被国外品牌垄断。越来越多汽车主机厂及零部件厂商开始布局AI机器视觉智能上下料、装配机器人、AI机器视觉缺陷检测、视觉尺寸测量等高精尖设备。
01上料装配工作站痛点
大部分汽车零部件上下料、装配采用人工作业,有以下痛点:
零件种类繁多:零件种类繁多导致无法通过简单的吸盘及夹具实现抓取,且抓取过程中不允许对零件表面擦伤或出现吸痕,故需专门设计柔性夹具并以超高的视觉识别精度在特定姿态下实现抓取;
零件反光、易形变:外饰件大多为高反光件,对3D视觉成像与识别容易造成干扰,且抓取过程中容易发生形变,机器人放置治具或装配难度极大;
来料位置不稳定:人工摆料偏差、料车精度偏差、AGV送料偏差会导致零件来料位置与姿态变化较大,AI机器视觉定位零件难度加大;
放置精度要求高:零件在下料之后要进行多道组装工序,需要以非常精确的姿态放置到下料治具上,零件形变导致机器人放置容易出现误差。
视比特机器人面向汽车主机厂、汽车零部件厂的上下料、分拣、装配等场景,自主研发了基于“AI+3D视觉”的机器人上料装配工作站(SpeedLoader-M),依托3D视觉高精度定位算法、3D视觉高精度纠偏算法,实现了对多品类、无序来料的汽车零部件高精度定位抓取及高精度纠偏放置,在汽车全自动柔性机器人生产线中该套系统可实现敏捷开发、快速部署。
此外,上料装配工作站(SpeedLoader-M)可对接MES、SCADA等系统,与AGV等下游设备联动,实现不同品类、多姿态摆放的零件高精度柔性抓取与放置。
精准纠偏放置零件
首创3D点云配准算法:
首次开创性的将 Transformer 网络运用到3D点云处理,实现高效实时的点云配准算法;通过此配准算法,可以获得待抓取零件的准确姿态,为机器人提供高精度抓取信息与放置信息;此外,基于深度学习网络的点云配准算法,具有抗干扰能力强、稳定性高、实时性强的特点,且针对因零件反光导致的点云缺失,有一定的兼容性。
基于3D点云的高精度定位抓取:
通过将零件的三维模型与实时拍摄的三维点云进行精确配准,可引导机器人对料箱中堆叠的高反光零件进行精准抓取;此外,视比特自主研发的机器人驱动程序可实时规划机器人运动轨迹,在对深达1.5m的料框内零件进行抓取的同时,主动避开固定工件的金属立柱与料箱四壁,此过程中视觉识别精度可达到0.1mm~0.2mm。
基于3D点云的高精度纠偏放置:
利用3D识别定位算法实现抓取过程逆运算,将机器人末端夹具上的零件按工序要求精确放置于治具中,并对零件进行高精度3D纠偏,此过程视觉识别精度同样可达0.1mm~0.2mm。
定制化柔性夹具:
工作站采用视比特自主设计的柔性夹具,可兼容多种规格汽车外饰件的灵活抓取,并融入脱料机构,确保上下层零件有效分离,且保障零件不被划伤。
3D视觉软件界面:
传统的检测方式采用人工检测,其主要痛点及难点如下:
间隙种类多:车身间隙类型种类多加上不同的评价和测量方法,增加了间隙面差检测难度;
人工检测费时费力:采用人工检测的方式每台车需要4个熟练的员工花费60秒,为了满足生产节拍需要两班人员轮流工作,耗费大量的人力、物力和时间;
人工检测标准无法统一:对于间隙面差人工检测无法保证一致性,且没有定量的结论和数据的统计分析,对于生产过程中的问题难以提出准确的反馈。
针对汽车行业间隙面差检测存在的需求,以及检测过程中存在的各种问题,视比特自主研发汽车车身间隙面差检测系统,该视觉测量系统综合运用了计算机三维视觉、机器人柔性控制、三维重建、点云匹配等技术为一体,可应用于焊装、总装车间对车身间隙面差进行100%全检。
专业的在线检测软件和独有的倾斜偏转矫正算法配合高性能处理器,能够保证测量结果精确的同时实现整车快速测量。该系统有效解决了手工测量误差及生产数据统计分析耗时问题。
①间隙测量基本原理:
扫描待测区域;
提取间隙点集;
间隙点集干扰抑制;
拟定间隙方向,测量间隙值。
②面差测量基本原理:
扫描待测区域;
提取面差点集;
自定义基准面与待测点;
计算面差值。
③间隙面差检测系统软件界面:
间隙面差检测系统核心技术参数:
单个点检测节拍:3~4s/点;
识别精度:0.1mm;
cg :>1.33;
检测数据溯源分析:可保存180天检测数据到云端,提供实时溯源和数据分析。
行业领先的算法优势:采用自主研发的点云深度学习边缘提取算法、基于局部自适应密度计算的轮廓提取算法、干扰抑制算法、三维基元间隙截面提取算法、间隙方向矫正纠偏算法、面差邻域智能提取算法等达到了行业领先的测量精度,同时具备对传感器要求更低、产品成本更低、灵活性更高等优势;
机器人柔性控制规划:可根据汽车外形、尺寸生成表面检测路径,并转化成机器人控制移动轨迹;同时根据目标位置、姿态实时动态优化检测路径,保证视觉传感器的最优成像效果与最快检测效率;
数据溯源与分析:白车身检测结果数据可反馈产线制造、装配工艺质量的水平以及稳定性。强大的检测软件系统可提供整年检测数据,并将本地数据与企业MES系统互联,辅助企业分析影响制造、装配精度不达标的原因;
双100%检测:在有限的生产时间内可以完成100%目标的在线检测;同时,在固定的检测节拍中可以完成对目标100%特征点的检测。
食品、医药、日化、快递、电子元器件等行业包装生产是一个典型的劳动密集型场景,主要涉及多层装箱、挑选打包、分拣、装袋、OCR检测等。而随着消费的升级,市场需求不断变化,新产品、新口味、新包装不断迭代,产品的个性化需求越来越高。市场的驱动力使得多品种、小批量的“柔性化生产”需求备受关注,AI、机器视觉与机器人结合的产品使得自动分拣装箱更具经济效益。
03“万物”分拣装箱工作站痛点
除部分企业采用人工进行分拣装箱外,其他大部分自动分拣装箱视觉方案是采用2D视觉-背景阈值分割的方式,通过包装旋转与边缘环境进行比对来识别包装,往往有以下几个痛点:
采用传统2D视觉对于打光要求更高;
多种类包装无法自动适应;
为达到视觉所需要的准确率,需要输送带颜色与包装有较高对比度;
严重的叠包环境无法适应,前端需要增加理料机构;
对于叠包场景,传统2D视觉无法给出正确的机器人抓取高度坐标。
①“万物”分拣装箱工作站: 两大产品系列
②SpeedML平台,深度学习:高性能、免注册:
视比特自主研发的SpeedML平台支持物体识别小样本训练,可实现包装袋、药品、百货商品、快递包裹、工业零件免注册,智能识别定位等功能。结合传统视觉和深度学习的优势,突破以往单一视觉技术面临的准确性和稳定性瓶颈,全面提升系统识别效果以及抗干扰能力。
③基于SpeedML平台,AI机器视觉系统软件:
④不同打光方式及2D、3D相机硬件不同情况,深度学习视觉识别效果:
想不到AI+3D视觉能解决多个行业痛点!期待视比特新的创新研发,为我们带来更多行业领先的技术产品!
中国机器人峰会转载