CN109461185B - 一种适用于复杂场景的机器人目标主动避障方法 - Google Patents

一种适用于复杂场景的机器人目标主动避障方法 Download PDF

Info

Publication number
CN109461185B
CN109461185B CN201811050807.0A CN201811050807A CN109461185B CN 109461185 B CN109461185 B CN 109461185B CN 201811050807 A CN201811050807 A CN 201811050807A CN 109461185 B CN109461185 B CN 109461185B
Authority
CN
China
Prior art keywords
target
camera
coordinate system
pixel
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811050807.0A
Other languages
English (en)
Other versions
CN109461185A (zh
Inventor
黄攀峰
陈路
孟中杰
刘正雄
张夷斋
董刚奇
张帆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201811050807.0A priority Critical patent/CN109461185B/zh
Publication of CN109461185A publication Critical patent/CN109461185A/zh
Application granted granted Critical
Publication of CN109461185B publication Critical patent/CN109461185B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Robotics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种适用于复杂场景的机器人目标主动避障方法,该方法由目标检测与分割、目标位置关系估计和路径规划三部分构成。本发明用于弥补现有主动视觉方法在运行效率和适应性上的不足,并且,采用本发明提供的适用于复杂场景的机器人目标主动避障方法,能够自适应规划相机移动路径,无需预先指定相机观测位置,具有更高的执行效率;而且,能够根据目标检测结果直接生成各目标的空间位置关系,为相机观测位置的调整提供较好的初值。

Description

一种适用于复杂场景的机器人目标主动避障方法
技术领域
本发明属于图像处理与计算机视觉领域,具体涉及一种适用于复杂场景的机器人目标主动避障方法。
背景技术
目标抓捕是机器人同外界交互的重要方式,通过安装在机械臂末端的操作手爪,机器人可实现对目标的抓捕操作,可用于流水线分拣、家庭服务等领域。为实施目标抓捕,机器人首先应完成目标所处环境的感知,并进行抓捕点检测,进而指导机械臂完成目标抓捕。然而,真实场景下的操作环境较为复杂,尤其存在遮挡的情况,给目标检测以及抓捕过程的实施带来挑战。
为提高遮挡情况下的目标检测效果,传统方法一般采用具有更强表达能力的检测方法,如Faster-RCNN等。但由于遮挡的存在,即使抓捕点能够被正确检测,其留给机器人操作的空间也较为狭窄,因此很难开展进一步的抓捕操作。在传统的目标检测领域,相机通常作为被动传感器,其被置于固定的位置,并获取不同物体的图像,因此需依赖于具有较强表达能力的目标检测算法。而在抓捕检测领域,相机通常置于机械臂末端作为手眼相机,能够通过机器人本身或机械臂的移动灵活地改变观测角度(主动视觉),从而最大限度的避开遮挡物体,提高物体检测以及抓捕点检测的精度。
现有的主动视觉方法通常将待抓捕物体看作球心,在上半球面上均匀采样,各采样点当作相机移动过程中的观测点。通过在各个观测点分别对目标进行成像,以得到更好的抓捕状态。但该方法存在运算效率低,无法根据目标的遮挡情况自适应地调整观测角度,在某些情况下无法得到最佳观测角度等问题,因此采用一种效率高,能够根据目标状态自适应规划相机移动路径的目标主动避障方法,具有十分重要的意义。
发明内容
本发明的目的在于弥补现有主动视觉方法在运行效率和适应性上的不足,提供了一种适用于复杂场景的机器人目标主动避障方法。
本发明采用如下技术方案来实现的:
一种适用于复杂场景的机器人目标主动避障方法,包括以下步骤:
1)目标检测与分割;
2)目标位置关系估计;
3)路径规划。
本发明进一步的改进在于,步骤1)的具体实现方法如下:
首先采用深度传感器Kinect对目标进行成像,获得光学图像xv和对应的深度图像xd;对于光学图像xv,采用Mask-RCNN算法检测图像中包含的所有物体oi,i=1,2,…,N,N表示图像中的物体总数,并采用包围盒对其进行标记,物体oi对应的包围盒为bi;同时,对于包围盒bi中的物体oi,对其进行分割,得到物体的像素级表示si,像素级si中的每一个像素均表示该点来自于物体oi,像素级si以外的像素点均来自于背景区域;
对于每一个包围盒bi内的物体分割si,结合深度图像xd,计算其中每一像素点对应图像位置的深度信息,对所有像素点的深度信息取平均,得到当前物体与相机的相对距离d(oi):
Figure BDA0001794493470000031
其中,|si|表示si中所包含的像素点数目,k表示si中的每一个像素,d(k)表示像素k所对应图像位置下的深度信息。
本发明进一步的改进在于,步骤2)的具体实现方法如下:
根据检测出的物体包围盒及其深度信息,得到当前相机视场内各物体的空间位置分布;以相机的光心作为圆心,光轴方向作为Z轴建立直角坐标系,X轴、Y轴分别与相机成像平面的水平和竖直方向平行;对于物体oi,其包围盒bi的尺寸和位置决定了其在XY平面内的坐标,其深度信息d(oi)决定了其在Z轴上坐标,因此可得oi在相机坐标系下的三维位置;将世界坐标系定义为与相机坐标系重合,得到各物体在世界坐标系下的位置。
本发明进一步的改进在于,步骤3)的具体实现方法如下:
为了便于描述目标移动过程中相机相对于目标的位置,采用极坐标定义目标坐标系,其中,目标与相机的连线,且指向相机的方向定义为X轴,相机在以目标为球心、半径为R的半球状区域的表面移动,对于表面上的任意一点,其与目标的连线在水平面上的投影与X轴的夹角定义为旋转角,与目标的连线与水平面上投影直线的夹角定义为高低角,如此,旋转角和高低角唯一确定了相机在半球状区域上的位置。
本发明进一步的改进在于,步骤3)的具体实现步骤如下:
3.1)旋转方向选取
在平面内,以目标中心为圆心,以R为半径形成圆形表示,将圆以18o间隔进行20等分,对于每一扇形区域,判断是否有其他目标落入其中,若有目标落入其中,该扇形区域的标识设为1,否则设为0;依次完成20个扇形区域的遍历,形成20维的向量表示;
其中,扇形区域的值为0表明该扇区不存在其他目标物体,若相机从该角度对目标进行成像,则不存在遮挡的情况;向量表示中0值分布越集中的位置,表明该角度下存在遮挡干扰的概率越低;因此,选择向量表示中连续出现0值最多的区域,将该角度作为相机的旋转角度θ;
3.2)移动方向选取
对于目标物体ok,其余的障碍物表示为oi,i=1,2,…,k-1,k+1,…,N;对于每一个障碍物oi,其最优的相机移动方向定义为:
Figure BDA0001794493470000041
其中,xk,yk表示物体ok对应包围盒的几何中心坐标,xi,yi表示障碍物oi对应包围盒的几何中心坐标,hi,wi表示障碍物oi对应包围盒的高度和宽度,ε表示一个极小值,定义为0.001,IoU(ok,oi)表示ok与oi的交并比,|ok∩oi|表示ok与oi交集的面积,|ok∪oi|表示ok与oi并集的面积;
将各障碍物确定的移动方向叠加,得到相机的移动方向:
Figure BDA0001794493470000042
进一步,相机移动位置的高低角由下式计算:
φ=arctan(vc)
根据上述结果,相机移动至目标坐标系下旋转角为θ,高低角为φ的位置,并指向目标方向;在此观测位置下对目标重新进行成像,能够避开障碍物的遮挡,进而取得更好的目标成像效果。
本发明具有如下有益的技术效果:
1、能够自适应规划相机移动路径,无需预先指定相机观测位置,具有更高的执行效率;
2、能够根据目标检测结果直接生成各目标的空间位置关系,为相机观测位置的调整提供较好的初值。
附图说明
图1为本发明对目标的检测与分割效果图;
图2为本发明的相机坐标系与目标坐标系示意图;
图3为本发明的相机移动方向示意图;
图4和图5为不同视角相机移动前后的成像对比图。
具体实施方式
以下结合附图对本发明进行详细的描述。应当指出的是,所描述的实施例仅旨在便于对本发明的理解,而对其不起任何限定作用。
本发明提出一种适用于复杂场景的机器人目标主动避障方法,其主要由目标检测与分割、目标位置关系估计和路径规划三部分构成。
该方法具体包括步骤如下:
1)目标检测与分割,如图1所示:
首先采用深度传感器Kinect对目标进行成像,获得光学图像xv和对应的深度图像xd;对于光学图像xv,采用Mask-RCNN[1]算法检测图像中包含的所有物体oi,i=1,2,…,N,N表示图像中的物体总数,并采用包围盒对其进行标记,物体oi对应的包围盒为bi;同时,对于包围盒bi中的物体oi,对其进行分割,得到物体的像素级表示si,像素级si中的每一个像素均表示该点来自于物体oi,像素级si以外的像素点均来自于背景区域。
对于每一个包围盒bi内的物体分割si,结合深度图像xd,计算其中每一像素点对应图像位置的深度信息,对所有像素点的深度信息取平均,得到当前物体与相机的相对距离d(oi):
Figure BDA0001794493470000061
其中,|si|表示si中所包含的像素点数目,k表示si中的每一个像素,d(k)表示像素k所对应图像位置下的深度信息。
[1].K.He,G.Gkioxari,P.Dollar,R.Girshick,"Mask R-CNN",arXiv preprintarXiv:1703.06870v2,2017.
2)目标位置关系估计,如图2所示:
根据检测出的物体包围盒及其深度信息,得到当前相机视场内各物体的空间位置分布;以相机的光心作为圆心,光轴方向作为Z轴建立直角坐标系,X轴、Y轴分别与相机成像平面的水平和竖直方向平行;对于物体oi,其包围盒bi的尺寸和位置决定了其在XY平面内的坐标,其深度信息d(oi)决定了其在Z轴上坐标,因此可得oi在相机坐标系下的三维位置;将世界坐标系定义为与相机坐标系重合,得到各物体在世界坐标系下的位置。
3)路径规划,如图3至图5所示:
为了便于描述目标移动过程中相机相对于目标的位置,采用极坐标定义目标坐标系,其中,目标与相机的连线,且指向相机的方向定义为X轴,相机在以目标为球心、半径为R的半球状区域的表面移动,对于表面上的任意一点,其与目标的连线在水平面上的投影与X轴的夹角定义为旋转角,与目标的连线与水平面上投影直线的夹角定义为高低角。不难看出,旋转角和高低角唯一确定了相机在半球状区域上的位置,具体定义见附图。
3.1)旋转方向选取
在平面内,以目标中心为圆心,以R为半径形成圆形表示,将圆以18o间隔进行20等分,对于每一扇形区域,判断是否有其他目标落入其中,若有目标落入其中,该扇形区域的标识设为1,否则设为0;依次完成20个扇形区域的遍历,形成20维的向量表示,如:110011000…0011。
扇形区域的值为0表明该扇区不存在其他目标物体,若相机从该角度对目标进行成像,则不存在遮挡的情况;向量表示中0值分布越集中的位置,表明该角度下存在遮挡干扰的概率越低;因此,选择向量表示中连续出现0值最多的区域,将该角度作为相机的旋转角度θ。
3.2)移动方向选取
相机的移动方向选取为除目标物体外障碍物分布密集较低的方向,此时在相机视场下,目标不受障碍物遮挡的概率较大。
对于目标物体ok,其余的障碍物表示为oi,i=1,2,…,k-1,k+1,…,N;对于每一个障碍物oi,其最优的相机移动方向定义为:
Figure BDA0001794493470000071
其中,xk,yk表示物体ok对应包围盒的几何中心坐标,xi,yi表示障碍物oi对应包围盒的几何中心坐标,hi,wi表示障碍物oi对应包围盒的高度和宽度,ε表示一个极小值,定义为0.001,IoU(ok,oi)表示ok与oi的交并比,|ok∩oi|表示ok与oi交集的面积,|ok∪oi|表示ok与oi并集的面积。
将各障碍物确定的移动方向叠加,得到相机的移动方向:
Figure BDA0001794493470000072
进一步,相机移动位置的高低角由下式计算:
φ=arctan(vc)
根据上述结果,相机移动至目标坐标系下旋转角为θ,高低角为φ的位置,并指向目标方向。在此观测位置下对目标重新进行成像,可避开障碍物的遮挡,取得更好的目标成像效果。
以上内容仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明权利要求书的保护范围之内。

Claims (4)

1.一种适用于复杂场景的机器人目标主动避障方法,其特征在于,包括以下步骤:
1)目标检测与分割,具体实现方法如下:
首先采用深度传感器Kinect对目标进行成像,获得光学图像xv和对应的深度图像xd;对于光学图像xv,采用Mask-RCNN算法检测图像中包含的所有物体oi,i=1,2,…,N,N表示图像中的物体总数,并采用包围盒对其进行标记,物体oi对应的包围盒为bi;同时,对于包围盒bi中的物体oi,对其进行分割,得到物体的像素级表示si,像素级si中的每一个像素点均表示该点来自于物体oi,像素级si以外的像素点均来自于背景区域;
对于每一个包围盒bi内的物体分割si,结合深度图像xd,计算其中每一像素点对应图像位置的深度信息,对所有像素点的深度信息取平均,得到当前物体与相机的相对距离d(oi):
Figure FDA0003074364600000011
其中,|si|表示si中所包含的像素点数目,k表示si中的每一个像素,d(k)表示像素k所对应图像位置下的深度信息;
2)目标位置关系估计;
3)路径规划。
2.根据权利要求1所述的一种适用于复杂场景的机器人目标主动避障方法,其特征在于,步骤2)的具体实现方法如下:
根据检测出的物体包围盒及其深度信息,得到当前相机视场内各物体的空间位置分布;以相机的光心作为圆心,光轴方向作为Z轴建立直角坐标系,X轴、Y轴分别与相机成像平面的水平和竖直方向平行;对于物体oi,其包围盒bi的尺寸和位置决定了其在XY平面内的坐标,其深度信息d(oi)决定了其在Z轴上坐标,因此可得oi在相机坐标系下的三维位置;将世界坐标系定义为与相机坐标系重合,得到各物体在世界坐标系下的位置。
3.根据权利要求2所述的一种适用于复杂场景的机器人目标主动避障方法,其特征在于,步骤3)的具体实现方法如下:
为了便于描述目标移动过程中相机相对于目标的位置,采用极坐标定义目标坐标系,其中,目标与相机的连线,且指向相机的方向定义为X轴,相机在以目标为球心、半径为R的半球状区域的表面移动,对于表面上的任意一点,其与目标的连线在水平面上的投影与X轴的夹角定义为旋转角,与目标的连线与水平面上投影直线的夹角定义为高低角,如此,旋转角和高低角唯一确定了相机在半球状区域上的位置。
4.根据权利要求3所述的一种适用于复杂场景的机器人目标主动避障方法,其特征在于,步骤3)的具体实现步骤如下:
3.1)旋转方向选取
在平面内,以目标中心为圆心,以R为半径形成圆形表示,将圆以18°间隔进行20等分,对于每一扇形区域,判断是否有其他目标落入其中,若有目标落入其中,该扇形区域的标识设为1,否则设为0;依次完成20个扇形区域的遍历,形成20维的向量表示;
其中,扇形区域的值为0表明该扇形区域不存在其他目标物体,若相机沿该扇形 区域的角平分线方向对目标进行成像,则不存在遮挡的情况;对于向量表示中0值分布越集中的扇形区域,沿该扇形区域角平分线方向的成像结果中存在遮挡干扰的概率越低;因此,选择向量表示中连续出现0值最多的区域,将该区域的角平分线方向与当前相机观测方向的夹角作为相机的旋转角度θ;
3.2)移动方向距离选取
对于目标物体ok,其余的障碍物表示为oi,i=1,2,…,k-1,k+1,…,N;对于每一个障碍物oi,其最优的相机移动方向定义为:
Figure FDA0003074364600000031
其中,xk,yk表示物体ok对应包围盒的几何中心坐标,xi,yi表示障碍物oi对应包围盒的几何中心坐标,hi,wi表示障碍物oi对应包围盒的高度和宽度,ε表示一个极小值,定义为0.001,IoU(ok,oi)表示ok与oi的交并比,|ok∩oi|表示ok与oi交集的面积,|ok∪oi|表示ok与oi并集的面积;
将各障碍物确定的移动方向叠加,得到相机的移动方向:
Figure FDA0003074364600000032
进一步,相机移动位置的高低角由下式计算:
φ=arctan(vc)
根据上述结果,相机移动至目标坐标系下旋转角为θ,高低角为φ的位置,并指向目标方向;在此观测位置下对目标重新进行成像,能够避开障碍物的遮挡,进而取得更好的目标成像效果。
CN201811050807.0A 2018-09-10 2018-09-10 一种适用于复杂场景的机器人目标主动避障方法 Active CN109461185B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811050807.0A CN109461185B (zh) 2018-09-10 2018-09-10 一种适用于复杂场景的机器人目标主动避障方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811050807.0A CN109461185B (zh) 2018-09-10 2018-09-10 一种适用于复杂场景的机器人目标主动避障方法

Publications (2)

Publication Number Publication Date
CN109461185A CN109461185A (zh) 2019-03-12
CN109461185B true CN109461185B (zh) 2021-08-17

Family

ID=65606643

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811050807.0A Active CN109461185B (zh) 2018-09-10 2018-09-10 一种适用于复杂场景的机器人目标主动避障方法

Country Status (1)

Country Link
CN (1) CN109461185B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110175523B (zh) * 2019-04-26 2021-05-14 南京华捷艾米软件科技有限公司 一种自移动机器人动物识别与躲避方法及其存储介质
CN111310637B (zh) * 2020-02-11 2022-11-11 山西大学 一种基于尺度不变网络的机器人目标抓取检测方法
CN112264989B (zh) * 2020-06-17 2023-06-06 华中科技大学 一种基于邻域遍历的双机械臂协同避障方法
CN113436241B (zh) * 2021-06-25 2023-08-01 兰剑智能科技股份有限公司 一种采用深度信息的干涉校验方法及系统
CN115840453B (zh) * 2023-02-10 2023-05-05 季华实验室 四足机器人自适应足端避障方法、装置、电子设备及介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103400392B (zh) * 2013-08-19 2016-06-22 山东鲁能智能技术有限公司 基于变电站巡检机器人的双目视觉导航系统及方法
CN104680525B (zh) * 2015-02-12 2017-05-10 南通大学 基于Kinect深度图像的人体摔倒自动检测方法
GB2537142A (en) * 2015-04-09 2016-10-12 Nokia Technologies Oy An arrangement for image segmentation
CN104850699B (zh) * 2015-05-19 2018-09-25 天津市天锻压力机有限公司 冲压线搬运机器人防碰撞控制方法
CN106680832B (zh) * 2016-12-30 2019-07-26 深圳优地科技有限公司 一种移动机器人的障碍物检测方法、装置和移动机器人
CN107688342B (zh) * 2017-03-27 2019-05-10 平安科技(深圳)有限公司 机器人的避障控制系统及方法
CN107092252A (zh) * 2017-04-11 2017-08-25 杭州光珀智能科技有限公司 一种基于机器视觉的机器人主动避障方法及其装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
动态环境下移动机器人实时避障研究;侯之旭;《中国优秀硕士学位论文全文数据库信息科技辑》;20170515;第I138-796页 *

Also Published As

Publication number Publication date
CN109461185A (zh) 2019-03-12

Similar Documents

Publication Publication Date Title
CN109461185B (zh) 一种适用于复杂场景的机器人目标主动避障方法
US20220270293A1 (en) Calibration for sensor
CN108445480B (zh) 基于激光雷达的移动平台自适应扩展目标跟踪系统及方法
CN103065323B (zh) 一种基于单应性变换矩阵的分段空间对准方法
CN111754552A (zh) 一种基于深度学习的多摄像头协同目标跟踪方法
CN110555878B (zh) 物体空间位置形态的确定方法、装置、存储介质及机器人
CN104217441A (zh) 一种基于机器视觉的机械臂定位抓取方法
CN112464812B (zh) 一种基于车辆的凹陷类障碍物检测方法
CN113984081B (zh) 定位方法、装置、自移动设备和存储介质
CN109828267A (zh) 基于实例分割和深度摄像头的变电站巡检机器人障碍物检测和测距方法
Cvišić et al. Recalibrating the KITTI dataset camera setup for improved odometry accuracy
CN112265463B (zh) 自移动设备的控制方法、装置、自移动设备和介质
Röfer et al. Particle-filter-based self-localization using landmarks and directed lines
JP3668769B2 (ja) 対象物体の位置・姿勢算出方法及び観測カメラの位置・姿勢算出方法
Yenıaydin et al. Sensor fusion of a camera and 2d lidar for lane detection
CN113610910B (zh) 一种移动机器人避障方法
Manivannan et al. Vision based intelligent vehicle steering control using single camera for automated highway system
Zhang et al. LB-L2L-Calib: Accurate and robust extrinsic calibration for multiple 3D LiDARs with long baseline and large viewpoint difference
US10248131B2 (en) Moving object controller, landmark, and moving object control method
Xu et al. A new monocular vision measurement method to estimate 3D positions of objects on floor
JP2007280387A (ja) 物体移動の検出方法及び検出装置
Maniatis et al. Best viewpoint tracking for camera mounted on robotic arm with dynamic obstacles
Pudics et al. Safe robot navigation using an omnidirectional camera
CN115797405A (zh) 一种基于车辆轴距的多镜头自适应跟踪方法
JP3237705B2 (ja) 障害物検出装置および障害物検出装置を搭載した移動体

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant