CN114564014A - 物体信息确定方法、移动机器人系统及电子设备 - Google Patents
物体信息确定方法、移动机器人系统及电子设备 Download PDFInfo
- Publication number
- CN114564014A CN114564014A CN202210168135.3A CN202210168135A CN114564014A CN 114564014 A CN114564014 A CN 114564014A CN 202210168135 A CN202210168135 A CN 202210168135A CN 114564014 A CN114564014 A CN 114564014A
- Authority
- CN
- China
- Prior art keywords
- target object
- mobile robot
- image
- frame
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 124
- 230000008569 process Effects 0.000 claims abstract description 50
- 230000003287 optical effect Effects 0.000 claims description 62
- 238000004891 communication Methods 0.000 claims description 19
- 230000000007 visual effect Effects 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 13
- 230000000875 corresponding effect Effects 0.000 description 52
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 8
- 238000010408 sweeping Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 239000010813 municipal solid waste Substances 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0242—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0259—Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means
- G05D1/0263—Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means using magnetic strips
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0285—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using signals transmitted via a public communication network, e.g. GSM network
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明实施例提供了物体信息确定方法、移动机器人系统及电子设备,应用于机器人技术领域。该方法包括:获取移动机器人在针对目标物体进行环绕运动的过程中,所采集的包含有目标物体的多帧图像;针对每一帧所获取的图像,识别移动机器人在采集该帧图像时,与目标物体之间的相对距离;基于移动机器人在采集各帧图像时与目标物体的相对距离以及在世界坐标系中的位置信息,确定目标物体的轮廓信息。通过本方案,可以确定环境中物体的轮廓信息。
Description
技术领域
本发明涉及移动机器人技术领域,特别是涉及物体信息确定方法、移动机器人系统及电子设备。
背景技术
近年来,随着机器人技术的不断发展,移动机器人在生活中扮演着越来越重要的角色,例如家用或商用的扫地机器人、迎宾机器人等。
为了避免在移动过程中碰撞物体,避障功能是移动机器人所需实现的基础功能,而避障功能的实现,需要移动机器人能够感知环境中物体的轮廓信息。因此,如何确定环境中物体的轮廓信息是亟需解决的技术问题。
发明内容
本发明实施例的目的在于提供物体信息确定方法、移动机器人系统及电子设备,以确定环境中物体的轮廓信息。具体技术方案如下:
第一方面,本发明实施例提供一种物体信息确定方法,所述方法包括:
获取移动机器人在针对目标物体进行环绕运动的过程中,所采集的包含有所述目标物体的多帧图像;
针对每一帧所获取的图像,识别所述移动机器人在采集该帧图像时,与所述目标物体之间的相对距离;
基于所述移动机器人在采集各帧图像时与所述目标物体的相对距离以及在世界坐标系中的位置信息,确定所述目标物体的轮廓信息。
可选的,所述针对每一帧所获取的图像,识别所述移动机器人在采集该帧图像时,与所述目标物体之间的相对距离,包括:
针对每一帧所获取的图像,确定该帧图像中的第一像素点与第二像素点,在垂直方向上的像素距离,作为第一距离;其中,所述第一像素点为所述目标物体的底部像素点,所述第二像素点为中心像素点;
基于所述第一距离和所述移动机器人中相机的第一内外参信息,确定所述移动机器人在采集该帧图像时,与所述目标物体的相对距离。
可选的,所述第一内外参信息包括:所述相机的垂直视角、所述相机采集图像的图像尺寸以及所述相机的光心高度;
所述基于所述第一距离和所述移动机器人中相机的第一内外参信息,确定所述移动机器人在采集该帧图像时,与所述目标物体的相对距离,包括:
基于所述第一距离、该帧图像的垂直分辨率以及所述相机的垂直视角,确定下视线夹角;其中,所述下视线夹角为下视线与所述相机的光轴线之间的夹角,所述下视线为:所述相机的光心与所述目标物体的底部之间的连线;
基于所述下视线夹角和所述相机的光心高度,计算所述移动机器人在采集该帧图像时,与所述目标物体的相对距离。
可选的,所述基于所述第一距离、该帧图像的垂直分辨率以及所述相机的垂直视角,确定下视线夹角,包括:
计算所述第一距离与所述垂直分辨率的比值,作为第一比值;
基于所述第一比值和所述垂直视角,确定下视线夹角。
可选的,所述基于所述第一比值和所述垂直视角,确定下视线夹角,包括:
计算所述第一比值与所述垂直视角的乘积,作为下视线夹角;或者,
根据预设的关于各像素点与调整系数之间的对应关系,确定与该帧图像中的指定像素点对应的目标调整系数,并计算所述调整系数与所述第一比值的乘积,作为第二比值,以及计算所述第二比值与所述垂直视角的乘积,作为下视线夹角;其中,所述各像素点为所述相机所采集图像中的像素点,所述指定像素点为从关于所述目标物体的底部像素点中所确定的像素点。
可选的,所述基于所述下视线夹角和所述相机的光心高度,计算所述移动机器人在采集该帧图像时,与所述目标物体的相对距离,包括:
采用如下公式计算所述移动机器人在采集该帧图像时,与所述目标物体的相对距离:
d=tan(90+k-m)*h
其中,d为所述相对距离,k为所述光轴线与所述移动机器人的移动平面之间的垂直夹角,m为所述下视线夹角,h为所述相机的光心高度。
可选的,所述基于所述移动机器人在采集各帧图像时与所述目标物体的相对距离以及在世界坐标系中的位置信息,确定所述目标物体的轮廓信息,包括:
针对每一帧图像,基于所述移动机器人在采集该帧图像时,在世界坐标系中的位置信息以及与所述目标物体的相对距离,确定所述目标物体的目标边缘点的位置,作为该帧图像对应的边缘位置;其中,所述目标边缘点为所述移动机器人在采集该帧图像时位于所述相机的拍摄范围的边缘点;
基于各帧图像对应的边缘位置,确定所述目标物体的轮廓信息。
可选的,所述基于各帧图像对应的边缘位置,确定所述目标物体的轮廓信息,包括:
将各帧图像对应的边缘位置,作为所述目标物体的轮廓信息;或者,
对各帧图像对应的边缘位置进行曲线拟合,以得到至少一条拟合曲线,并确定所述至少一条拟合曲线上各点的位置,将所确定的各位置,作为所述目标物体的轮廓信息。
可选的,在获取移动机器人在针对目标物体进行环绕运动的过程中,所采集的包含有所述目标物体的多帧图像之前,所述方法还包括:
对所述目标物体进行物体类型识别;
若所述目标物体的物体类型为待识别类型,则执行所述获取移动机器人在针对目标物体进行环绕运动的过程中,所采集的包含有所述目标物体的多帧图像的步骤;其中,所述待识别类型包括:未知的物体类型或非固定形态的物体类型。
可选的,所述方法还包括:
若所述目标物体的物体类型为固定形态的物体类型,则确定预设的与所述目标物体的物体类型对应的初始信息,作为待利用信息;其中,所述初始信息指示各边缘点的初始位置;
获取所述移动机器人针对所述目标物体采集的图像,并识别在采集所获取图像时,所述移动机器人与所述目标物体之间的相对距离;
基于识别到的相对位置,对所述待利用信息所指示的各边缘点的初始位置进行调整,得到所述各边缘点的调整后位置,作为所述目标物体的轮廓信息。
可选的,所述移动机器人针对所述目标物体进行环绕运动的方式包括:
在所述移动机器人的相机朝向与所述移动机器人的移动方向无关的情况下,所述移动机器人针对所述目标物体进行持续的环形运动;或,
在所述移动机器人的相机朝向与所述移动机器人的移动方向相关的情况下,所述移动机器人针对所述目标物体进行多段弧形运动。
可选的,在所述识别所述移动机器人在采集该帧图像时,与所述目标物体之间的相对距离之后,所述方法还包括:
基于所述移动机器人在采集该帧图像时与所述目标物体之间的相对距离、第二距离和所述相机的第二内外参信息,确定所述目标物体的高度;
其中,所述第二距离为:该帧图像中所述目标物体的顶部像素点与该帧图像的中心像素点,在垂直方向上的像素距离。
可选的,所述第二内外参信息包括:所述相机的垂直视角以及所述相机采集图像的垂直分辨率;
所述基于所述移动机器人在采集该帧图像时与所述目标物体之间的相对距离、第二距离和所述相机的第二内外参信息,确定所述目标物体的高度,包括:
采用如下公式确定所述目标物体的高度:
其中,x为所述目标物体的高度,θ为所述垂直视角,dv2_pixels为所述第二距离,V为所述垂直分辨率,d为所述移动机器人在采集该帧图像时与所述目标物体之间的相对距离。
可选的,在所述获取移动机器人在针对目标物体进行环绕运动的过程中,所采集的包含有所述目标物体的多帧图像之后,所述方法还包括:
针对每一帧所获取的图像,识别所述移动机器人在采集该帧图像时,与所述目标物体的水平偏转角度;其中,所述水平偏转角度为水平视线与所述移动机器人中相机的光轴线之间的水平夹角,所述水平视线为:所述相机的光心与所述目标物体的外侧之间的连线。
第二方面,本发明实施例提供一种移动机器人系统,包括:
图像获取模块,用于获取移动机器人在针对目标物体进行环绕运动的过程中,所采集的包含有所述目标物体的多帧图像;
处理器,于针对每一帧所获取的图像,识别所述移动机器人在采集该帧图像时,与所述目标物体之间的相对距离;基于所述移动机器人在采集各帧图像时与所述目标物体的相对距离以及在世界坐标系中的位置信息,确定所述目标物体的轮廓信息。
可选的,还包括:
动力模块,用于驱动所述移动机器人针对所述目标物体进行环绕运动。
第三方面,本发明实施例提供一种物体信息确定装置,包括:
图像获取模块,用于获取移动机器人在针对目标物体进行环绕运动的过程中,所采集的包含有所述目标物体的多帧图像;
信息计算模块,用于针对每一帧所获取的图像,识别所述移动机器人在采集该帧图像时,与所述目标物体之间的相对距离;
信息确定模块,用于基于所述移动机器人在采集各帧图像时与所述目标物体的相对距离以及在世界坐标系中的位置信息,确定所述目标物体的轮廓信息。
可选的,所述信息计算模块,包括:
第一子模块,用于针对每一帧所获取的图像,确定该帧图像中的第一像素点与第二像素点,在垂直方向上的像素距离,作为第一距离;其中,所述第一像素点为所述目标物体的底部像素点,所述第二像素点为中心像素点;
第二子模块,用于基于所述第一距离和所述移动机器人中相机的第一内外参信息,确定所述移动机器人在采集该帧图像时,与所述目标物体的相对距离。
可选的,所述第一内外参信息包括:所述相机的垂直视角、所述相机采集图像的图像尺寸以及所述相机的光心高度;
所述第二子模块,包括:
夹角确定单元,用于基于所述第一距离、该帧图像的垂直分辨率以及所述相机的垂直视角,确定下视线夹角;其中,所述下视线夹角为下视线与所述相机的光轴线之间的夹角,所述下视线为:所述相机的光心与所述目标物体的底部之间的连线;
距离确定单元,用于基于所述下视线夹角和所述相机的光心高度,计算所述移动机器人在采集该帧图像时,与所述目标物体的相对距离。
可选的,所述夹角确定单元,包括:
比值计算子单元,用于计算所述第一距离与所述垂直分辨率的比值,作为第一比值;
夹角确定子单元,用于基于所述第一比值和所述垂直视角,确定下视线夹角。
可选的,所述夹角确定子单元,具体用于计算所述第一比值与所述垂直视角的乘积,作为下视线夹角;或者,根据预设的关于各像素点与调整系数之间的对应关系,确定与该帧图像中的指定像素点对应的目标调整系数,并计算所述调整系数与所述第一比值的乘积,作为第二比值,以及计算所述第二比值与所述垂直视角的乘积,作为下视线夹角;其中,所述各像素点为所述相机所采集图像中的像素点,所述指定像素点为从关于所述目标物体的底部像素点中所确定的像素点。
可选的,所述距离确定单元,具体用于采用如下公式计算所述移动机器人在采集该帧图像时,与所述目标物体的相对距离:
d=tan(90+k-m)*h
其中,d为所述相对距离,k为所述光轴线与所述移动机器人的移动平面之间的垂直夹角,m为所述下视线夹角,h为所述相机的光心高度。
可选的,所述信息确定模块,包括:
位置确定子模块,用于针对每一帧图像,基于所述移动机器人在采集该帧图像时,在世界坐标系中的位置信息以及与所述目标物体的相对距离,确定所述目标物体的目标边缘点的位置,作为该帧图像对应的边缘位置;其中,所述目标边缘点为所述移动机器人在采集该帧图像时位于所述相机的拍摄范围的边缘点;
信息确定子模块,用于基于各帧图像对应的边缘位置,确定所述目标物体的轮廓信息。
可选的,所述信息确定子模块,具体用于将各帧图像对应的边缘位置,作为所述目标物体的轮廓信息;或者,对各帧图像对应的边缘位置进行曲线拟合,以得到至少一条拟合曲线,并确定所述至少一条拟合曲线上各点的位置,将所确定的各位置,作为所述目标物体的轮廓信息。
可选的,所述装置还包括:类型识别模块,用于在所述图像获取模块执行所述获取移动机器人在针对目标物体进行环绕运动的过程中,所采集的包含有所述目标物体的多帧图像之前,对所述目标物体进行物体类型识别;若所述目标物体的物体类型为待识别类型,则调用所述图像获取模块执行所述获取移动机器人在针对目标物体进行环绕运动的过程中,所采集的包含有所述目标物体的多帧图像的步骤;其中,所述待识别类型包括:未知的物体类型或非固定形态的物体类型。
可选的,所述类型识别模块,还用于:若所述目标物体的物体类型为固定形态的物体类型,则确定预设的与所述目标物体的物体类型对应的初始信息,作为待利用信息;获取所述移动机器人针对所述目标物体采集的图像,并识别在采集所获取图像时,所述移动机器人与所述目标物体之间的相对距离;基于识别到的相对位置,对所述待利用信息所指示的各边缘点的初始位置进行调整,得到所述各边缘点的调整后位置,作为所述目标物体的轮廓信息;其中,所述初始信息指示各边缘点的初始位置;。
可选的,所述移动机器人针对所述目标物体进行环绕运动的方式包括:在所述移动机器人的相机朝向与所述移动机器人的移动方向无关的情况下,所述移动机器人针对所述目标物体进行持续的环形运动;或,在所述移动机器人的相机朝向与所述移动机器人的移动方向相关的情况下,所述移动机器人针对所述目标物体进行多段弧形运动。
可选的,所述信息计算模块,还用于在所述识别所述移动机器人在采集该帧图像时,与所述目标物体之间的相对距离之后,基于所述移动机器人在采集该帧图像时与所述目标物体之间的相对距离、第二距离和所述相机的第二内外参信息,确定所述目标物体的高度;其中,所述第二距离为:该帧图像中所述目标物体的顶部像素点与该帧图像的中心像素点,在垂直方向上的像素距离。
可选的,所述第二内外参信息包括:所述相机的垂直视角以及所述相机采集图像的垂直分辨率;
所述信息计算模块,包括:
高度计算子模块,用于采用如下公式确定所述目标物体的高度:
其中,x为所述目标物体的高度,θ为所述垂直视角,dv2_pixels为所述第二距离,V为所述垂直分辨率,d为所述移动机器人在采集该帧图像时与所述目标物体之间的相对距离。
可选的,角度识别模块,用于在所述图像获取模块执行所述获取移动机器人在针对目标物体进行环绕运动的过程中,所采集的包含有所述目标物体的多帧图像之后,针对每一帧所获取的图像,识别所述移动机器人在采集该帧图像时,与所述目标物体的水平偏转角度;其中,所述水平偏转角度为水平视线与所述移动机器人中相机的光轴线之间的水平夹角,所述水平视线为:所述相机的光心与所述目标物体的外侧之间的连线。
可选的,所述角度识别模块,包括:
距离确定子模块,用于确定该帧图像中的第三像素点与第四像素点,在水平方向上的像素距离,作为第三距离;其中,所述第三像素点为关于所述目标物体的外侧像素点,所述第四像素点为中心像素点;
角度确定子模块,用于基于所述第三距离、该帧图像的水平分辨率以及所述相机的水平视角,所述移动机器人在采集该帧图像时,与所述目标物体的水平偏转角度。
可选的,所述角度确定子模块,具体用于计算所述第三距离与所述水平分辨率的比值,作为第三比值;基于所述第三比值和所述水平视角,确定所述移动机器人在采集该帧图像时,与所述目标物体的水平偏转角度。
第四方面,本发明实施例提供一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现第一方面任一所述的方法步骤。
第五方面,本发明实施例提供一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现第一方面任一项所述的方法步骤。
本发明实施例有益效果:
本发明实施例所提供的物体信息确定方法中,可以获取移动机器人在针对目标物体进行环绕运动的过程中,所采集的包含有目标物体的多帧图像;针对每一帧所获取的图像,识别移动机器人在采集该帧图像时,与目标物体之间的相对距离;基于移动机器人在采集各帧图像时与目标物体的相对距离以及在世界坐标系中的位置信息,确定目标物体的轮廓信息。由于所获取的多帧图像是移动机器人在对目标物体进行环绕运动的过程中所采集的,使得所获取的多帧图像是移动机器人采集的目标物体不同朝向的图像,而移动机器人在采集每一帧图像时与目标物体的相对距离,是移动机器人在采集该帧图像时与目标物体的轮廓边缘之间的距离,进而可以结合移动机器人在采集该帧图像时在世界坐标系中的位置信息,可以确定出目标物体的轮廓信息。可见,通过本方案,可以确定环境中物体的轮廓信息。
当然,实施本发明的任一产品或方法并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
图1为本发明实施例所提供的物体信息确定方法的流程图;
图2(a)为本发明实施例所提供的一种环形运动的示意图;
图2(b)为本发明实施例所提供的一种多段弧形运动的示意图;
图3为本发明实施例所提供的物体信息确定方法的另一流程图;
图4为本发明实施例所提供的一种包含目标物体的图像的示意图;
图5为本发明实施例所提供的物体信息确定方法的另一流程图;
图6为本发明实施例所提供的一种全局侧视的示意图;
图7为本发明实施例所提供的物体信息确定方法的另一流程图;
图8为本发明实施例所提供的另一种全局侧视的示意图;
图9为本发明实施例所提供的移动机器人系统的结构示意图;
图10为本发明实施例所提供的移动机器人系统的另一结构示意图;
图11为本发明实施例所提供的物体信息确定装置的结构示意图;
图12为本发明实施例所提供的电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
避障功能是移动机器人所需实现的基础功能,而避障功能的实现,需要移动机器人能够感知环境中物体的轮廓信息。因此,如何确定环境中物体的轮廓信息是亟需解决的技术问题。
为了确定环境中物体的轮廓信息,本发明实施例提供了一种物体信息确定方法、移动机器人系统及电子设备。
需要说明的,在具体应用中,本发明实施例所提供的物体信息确定方法可以应用于移动机器人,例如扫地机器人或迎宾机器人。或者,本发明实施例所提供的物体信息确定方法还可以应用于其他各类电子设备,例如,智能手机、个人电脑、服务器以及其他具有数据处理能力的设备,当应用于其他各类电子设备时,该电子书合并可以与移动机器人相互通信,从而可以从移动机器人中获取处理所需的图像。另外,可以理解的是,本发明实施例提供的物体信息确定方法可以通过软件、硬件或软硬件结合的方式实现。
其中,本发明实施例所提供的物体信息确定方法,可以包括:
获取移动机器人在针对目标物体进行环绕运动的过程中,所采集的包含有所述目标物体的多帧图像;
针对每一帧所获取的图像,识别所述移动机器人在采集该帧图像时,与所述目标物体之间的相对距离;
基于所述移动机器人在采集各帧图像时与所述目标物体的相对距离以及在世界坐标系中的位置信息,确定所述目标物体的轮廓信息。
本发明实施例所提供的上述方案中,由于所获取的多帧图像是移动机器人在对目标物体进行环绕运动的过程中所采集的,使得所获取的多帧图像是移动机器人采集的目标物体不同朝向的图像,而移动机器人在采集每一帧图像时与目标物体的相对距离,是移动机器人在采集该帧图像时与目标物体的轮廓边缘之间的距离,进而可以结合移动机器人在采集该帧图像时在世界坐标系中的位置信息,可以确定出目标物体的轮廓信息。可见,通过本方案,可以确定环境中物体的轮廓信息。
下面结合说明书附图,对本发明实施例所提供的物体信息确定方法进行详尽的阐述。
如图1所示,本发明实施例提供的一种物体信息确定方法,可以包括步骤S101-S103,其中:
S101,获取移动机器人在针对目标物体进行环绕运动的过程中,所采集的包含有目标物体的多帧图像;
其中,目标物体可以为移动机器人在运动过程中所探测到的尚未获取到物体信息的物体,例如,移动机器人为扫地机器人,当扫地机器人在移动过程中探测到移动路径被垃圾桶、玩具、凳子或拖鞋等障碍物阻碍时,则阻碍扫地机器人按照原移动路径进行运动的障碍物可被认为本发明所指的目标物体。当然,目标物体也可以为人工指定的物体,这都是可以的。
上述环绕运动指移动机器人环绕目标物体移动至少一圈的运动方式,而上述所获取的多帧图像可以为移动机器人在环绕运动的过程中,针对目标物体进行拍摄所获取的图像。
为了在针对目标物体进行环绕运动的过程中,采集到包含有目标物体的多帧图像,可以移动机器人可以采用多种运动方式,实现针对目标物体的环绕运动。
可选的,移动机器人可以针对目标物体进行持续的环形运动。
其中,持续的环形运动指不间断的围绕目标物体进行运动,如图2(a)所示,本发明实施例提供一种环形运动的示意图,图中不规则体为目标物体,圆弧所指方向指示移动机器人C对目标物体进行逆时针的环形运动,在环形运动过程中,移动机器人C在目标物体的不同方位采集目标物体的图像。
由于移动机器人需要在进行环形运动的过程中采集目标物体的图像,因此,移动机器人的相机朝向与其移动方向是不断变化的,从而采用环形运动的移动机器人,移动机器人的相机朝向与移动机器人的移动方向无关的,即在移动机器人的相机朝向与移动机器人的移动方向无关的情况下,移动机器人可以针对目标物体进行持续的环形运动。
而若移动机器人的相机朝向与移动机器人的移动方向相关,例如移动机器人的相机朝向为移动机器人的正前方,此时,若移动机器人仍采用环形运动,将导致移动机器人在运动过程中,无法采集到目标物体的图像,为了解决该问题,本发明还提供一种多段弧形运动的运动方式。
如图2(b)所示,本发明实施例提供一种多段弧形运动的示意图。移动机器人可以围绕目标机器人运动一段圆弧后,将相机朝向调整至面对目标物体,并采集一次目标物体的图像,再继续运动下一段圆弧,重复上述过程,直至围绕目标物体运动至少一圈。
可见,在移动机器人的相机朝向与移动机器人的移动方向相关的情况下,移动机器人针对目标物体进行多段弧形运动。当然,在移动机器人的相机朝向与移动机器人的移动方向无关的情况下,也可以采用多段弧形运动的方式完成对目标物体的环绕运动。
S102,针对每一帧所获取的图像,识别移动机器人在采集该帧图像时,与目标物体之间的相对距离;
其中,以图2(a)举例说明,当移动机器人所获取的图像是移动机器人移动至目标物体正下方时所采集的,则可以利用所获取的图像,确定移动机器人在采集该帧图像时与目标物体之间的相对距离为距离d1。
其中,当移动机器人包含深度相机,例如移动机器人包含结构光深度相机、双目相机、TOF(Time of Flight,光飞时间)深度相机以及双目立体视觉相机等,则所获取的图像中包含深度信息,从而针对每一帧所获取的图像,可以利用图像中记录的深度信息,识别移动机器人在采集该帧图像时与目标物体之间的相对距离。
当然,深度相机的硬件成本较高,为了节约硬件成本,本发明实施例还提供一种基于单目相机采集图像识别移动机器人在采集该帧图像时,与目标物体之间的相对距离的方式,将在后续实施例进行详细说明,在此不再赘述。
S103,基于移动机器人在采集各帧图像时与目标物体的相对距离以及在世界坐标系中的位置信息,确定目标物体的轮廓信息。
在识别移动机器人在采集各帧图像时与目标物体的相对距离之后,则可以基于移动机器人在采集各帧图像时与目标物体的相对距离以及在世界坐标系中的位置信息,确定目标物体的轮廓信息。
其中,移动机器人在世界坐标系中的位置信息可以为移动机器人在世界坐标系中的三维坐标。其中,世界坐标系是移动机器人在处于新环境时所建立的坐标系,一般情况下,以其移动初始点(例如扫地机器人的充电位置)为坐标原点,移动机器人在移动过程中,可以结合其移动过程中的距离、方向等信息,实时更新其自身在世界坐标系中的位置。
本发明实施例中,移动机器人在采集每一帧图像时,可以同时记录在采集该帧图像时,自身的在世界坐标系中的位置信息。若本发明实施例的执行主体为与移动机器人进行通信的电子设备,则该电子设备在获取移动机器人采集图像的同时,获取移动机器人采集各帧图像时在世界坐标系中的位置信息。
可选的,可以针对每一帧图像,基于移动机器人在采集该帧图像时,在世界坐标系中的位置信息以及与目标物体的相对距离,确定目标物体的目标边缘点的位置,作为该帧图像对应的边缘位置,进而基于各帧图像对应的边缘位置,确定目标物体的轮廓信息。
其中,目标边缘点为移动机器人在采集该帧图像时位于相机的拍摄范围的边缘点。示例性的,图2(a)中,当移动机器人位于目标物体的正下方时,则所确定的距离d1是移动机器人与目标物体正下方边缘点之间的距离,该边缘点是此时移动机器人即为相机的拍摄范围的边缘点。
在确定出每一目标物体的目标边缘点之后,可以基于各帧图像对应的边缘位置,确定目标物体的轮廓信息。
其中,基于各帧图像对应的边缘位置,确定目标物体的轮廓信息的方式有多种,可选的至少包括以下两种轮廓信息确定方式,包括:
第一种轮廓信息确定方式:将各帧图像对应的边缘位置,作为目标物体的轮廓信息;
本方式中,可以直接将各帧图像对应的边缘位置,作为目标物体的轮廓信息,目标物体的轮廓信息可以为边缘位置集合,将每一确定出的边缘位置作为边缘位置集合中的元素。示例性的,各帧图像对应的边缘位置分别为位置1、位置2、位置3、位置4、位置5和位置6,则目标物体的轮廓信息为{位置1,位置2,位置3,位置4,位置5,位置6}。
第二种轮廓信息确定方式:对各帧图像对应的边缘位置进行曲线拟合,以得到至少一条拟合曲线,并确定至少一条拟合曲线上各点的位置,将所确定的各位置,作为目标物体的轮廓信息。
可选的,上述曲线拟合方式可以为最小二乘法曲线拟合、RBF(Radial BasisFunction,径向基函数)的曲线拟合和三次样条曲线拟合等方法。在得到至少一条拟合曲线之后,则可以将该至少一条拟合曲线上各点的位置作为目标物体的轮廓信息。
本发明实施例所提供的上述方案中,由于所获取的多帧图像是移动机器人在对目标物体进行环绕运动的过程中所采集的,使得所获取的多帧图像是移动机器人采集的目标物体不同朝向的图像,而移动机器人在采集每一帧图像时与目标物体的相对距离,是移动机器人在采集该帧图像时与目标物体的轮廓边缘之间的距离,进而可以结合移动机器人在采集该帧图像时在世界坐标系中的位置信息,可以确定出目标物体的轮廓信息。可见,通过本方案,可以确定环境中物体的轮廓信息。
在图1所示实施例的基础上,如图3所示,本发明另一实施例所提供的物体信息确定方法,上述步骤S102,可以包括S102A-S102B,其中:
S102A,针对每一帧所获取的图像,确定该帧图像中的第一像素点与第二像素点,在垂直方向上的像素距离,作为第一距离;其中,第一像素点为目标物体的底部像素点,第二像素点为中心像素点;
如图4所示,为本发明实施例提供的一种包含目标物体的图像的示意图。其中,第一像素点可以为图中目标物体底部线段上的任意像素点,上述第二像素点为图中的中心像素点。
可以先从目标物体底部线段上选取任意一像素点,作为第一像素点,再确定第一像素点的第一像素坐标,进而确定第二像素点的第二像素坐标。进而可以计算第一像素坐标中的纵坐标与第二像素坐标中的纵坐标的差值,并将该差值的绝对值作为第一距离。示例性的,第一像素坐标为(x1,y1)、第二像素坐标为(x2,y2),则第一距离为y1-y2的绝对值。
S102B,基于第一距离和移动机器人中相机的第一内外参信息,确定移动机器人在采集该帧图像时,与目标物体的相对距离。
其中,在确定出第一距离之后,可以依据相机成像原理和成像过程中相机与目标物体之间的几何关系,基于第一距离和移动机器人中相机的第一内外参信息,确定移动机器人在采集该帧图像时,与目标物体的相对距离。
可选的,上述第一内外参信息可以包括:相机的垂直视角、相机采集图像的图像尺寸以及相机的光心高度。
其中,上述相机的垂直视角至相机在垂直方向的最大视角,例如150度。
上述图像尺寸可以为图像分辨率,例如1024*768,其表示图像在水平方向的直线上包含1024个像素点,在垂直方向的直线上包含768个像素点。可选的,图像分辨率可以包括水平分辨率和横向分辨率,仍以1024*768说明,其水平分辨率为1024,垂直分辨率为768。
上述相机的光心高度为移动机器人中相机的光心与移动机器人运动平面之间的距离。
此时,如图5所示,上述步骤S102B,可以包括S102B1-S102B2,其中:
S102B1,基于第一距离、该帧图像的垂直分辨率以及相机的垂直视角,确定下视线夹角;其中,下视线夹角为下视线与相机的光轴线之间的夹角,下视线为:相机的光心与目标物体的底部之间的连线;
如图6所示,为本发明实施例提供的一种全局侧视的示意图。移动机器人中相机的光心与目标物体的底部之间的连线与相机的光轴线的夹角为下视线夹角。
为了计算移动机器人与目标物体的相对距离,需要确定下视线夹角,从而可以利用三角函数基于下视线夹角和相机的光心高度,计算出移动机器人与目标物体的相对距离。
一种实现方式中,上述基于第一距离、该帧图像的垂直分辨率以及相机的垂直视角,确定下视线夹角,可以包括步骤A1-步骤A2:
步骤A1,计算第一距离与垂直分辨率的比值,作为第一比值;
结合图4和图6可知,第一距离在图像中垂直方向的占比,与下视线夹角占据垂直视角的比例正相关,当下视线夹角占据垂直视角的比例越大,第一距离在图像中垂直方向的占比也越大,因此,为了确定下视线夹角,可以先计算第一距离与垂直分辨率的比值,作为第一比值。
步骤A2,基于第一比值和垂直视角,确定下视线夹角。
可选的,可以近似认为,第一距离在图像中垂直方向的占比,与下视线夹角占据垂直视角的比例线性相关,此时,可以计算第一比值与垂直视角的乘积,作为下视线夹角;
或者,本发明提供另一种下视线夹角确定方式,可以根据预设的关于各像素点与调整系数之间的对应关系,确定与该帧图像中的指定像素点对应的目标调整系数,并计算调整系数与第一比值的乘积,作为第二比值,以及计算第二比值与垂直视角的乘积,作为下视线夹角。
其中,各像素点为相机所采集图像中的像素点,指定像素点为从关于目标物体的底部像素点中所确定的像素点。
上述预设的关于各像素点与调整系数之间的对应关系,可以通过对移动机器人中的相机进行标定确定,针对每一像素点而言,其对应的调整系数可以为该像素点与中心像素点之间的距离、与该像素点对应的实际物体与中心像素点对应实际物体之间的距离的比值。
从而,当需要确定下视线交局时,可以先从关于目标物体的底部像素点中选择任意一点像素点作为指定像素点,进而将该指定像素点对应的调整系数作为目标调整系数,在利用该目标调整系数对应第一比值进行调整,即计算调整系数与第一比值的乘积,作为第二比值,进而计算第二比值与垂直视角的乘积,作为下视线夹角。
S102B2,基于下视线夹角和相机的光心高度,计算移动机器人在采集该帧图像时,与目标物体的相对距离。
可选的,可以近似认为,移动机器人上相机的光线与目标物体底部所构成的三角形为直角三角形,此时,可以采用如下公式计算移动机器人在采集该帧图像时与目标物体的相对距离:
d=tan(90+m)*h
其中,d为相对距离,h为相机的光心高度。
可选的,为了准确地计算移动机器人在采集该帧图像时与目标物体的相对距离,还可以考虑光轴线与移动机器人的移动平面之间的垂直夹角,此时,可以采用如下公式计算移动机器人在采集该帧图像时与目标物体的相对距离:
d=tan(90+k-m)*h
其中,d为相对距离,k为光轴线与移动机器人的移动平面之间的垂直夹角,m为下视线夹角,h为相机的光心高度。
上述光轴线与移动机器人的移动平面之间的垂直夹角可以为预先标定确定的。
本发明实施例所提供的上述方案中,可以确定环境中物体的轮廓信息。并且可以计算下视线夹角,并利用下视线夹角和相机的光心高度,计算移动机器人在采集该帧图像时与目标物体的相对距离,从而为确定环境中物体的轮廓信息提供了实现基础。
本发明另一实施例所提供的物体信息确定方法,可以在执行步骤S101之前,对目标物体进行物体类型识别,若目标物体的物体类型为待识别类型,则执行步骤S101。其中,待识别类型包括:未知的物体类型或非固定形态的物体类型。
其中,进行物体类型识别的方式可以有多种,例如可以通过训练神经网络模型的方式,选了物体类型识别模型,进而在获取每一帧图像之后,可以利用物体类型识别模型对该帧图像进行处理,确定该帧图像中包含的目标物体的物体类别。
上述待识别类型包括未知的物体类型或非固定形态的物体类型,其中,未知的物体类型为未识别出物体类型的类型,上述非固定形态的物体类型为物体的形态是可变的,例如袜子、衣服等物体,其形态不是固定的,而是可变的。
在识别出目标物体的物体类型为待识别类型,则说明需要确定目标物体的轮廓信息,从而可以执行步骤S101。
在此情况下,如图7所示,本发明另一实施例所提供的物体信息确定方法,可以包括步骤S701-S707:
S701,对目标物体进行物体类型识别;
其中,对应目标物体而言,若目标物体为垃圾桶,鞋子等固定形态的物体类型的物体而言,其轮廓基本可以通过预设得出,从而为了减少计算量,对于此类物体可以通过预设的方式确定此类物体的轮廓信息,而对于未知的物体类型或非固定形态的物体类型,则可以采用图1所示的物体信息确定方法的方式,确定出目标物体的物体信息。
此时,在确定出目标物体之后,可以对目标物体进行物体类型识别。若目标物体的物体类型为待识别类型,则执行步骤S702,否则,若目标物体的物体类型为固定形态的物体类型,则执行步骤S705。
S702,获取移动机器人在针对目标物体进行环绕运动的过程中,所采集的包含有目标物体的多帧图像;
本步骤实现方式与步骤S101相同或相似,其实现方式可以参见步骤S101的相关描述,在此不再赘述。
S703,针对每一帧所获取的图像,识别移动机器人在采集该帧图像时,与目标物体之间的相对距离;
本步骤实现方式与步骤S102相同或相似,其实现方式可以参见步骤S102的相关描述,在此不再赘述。
S704,基于移动机器人在采集各帧图像时与目标物体的相对距离以及在世界坐标系中的位置信息,确定目标物体的轮廓信息。
本步骤实现方式与步骤S103相同或相似,其实现方式可以参见步骤S103的相关描述,在此不再赘述。
S705,确定预设的与目标物体的物体类型对应的初始信息,作为待利用信息;其中,初始信息指示各边缘点的初始位置;
若目标物体的物体类型为固定形态的物体类型,则可以确定预设的与目标物体的物体类型对应的初始信息。每一物体类型对应的初始信息可以包含该物体类型对应的物体各边缘点的初始位置。
S706,获取移动机器人针对目标物体采集的图像,并识别在采集所获取图像时,移动机器人与目标物体之间的相对距离;
可选的,本步骤中可以仅获取移动机器人针对目标物体采集的一帧图像,进而基于该一帧图像,识别在采集所获取图像时,移动机器人与目标物体之间的相对距离。其具体识别方式可以与步骤S102相似,具体实现方式,参见步骤S102相关描述。
S707,基于识别到的相对位置,对待利用信息所指示的各边缘点的初始位置进行调整,得到各边缘点的调整后位置,作为目标物体的轮廓信息。
由于已确定目标物体各边缘点的初始位置,进而在确定出移动机器人与目标物体之间的相对距离之后,可以利用识别到的相对位置,对待利用信息所指示的各边缘点的初始位置进行调整,从而得到各边缘点的调整后位置,作为目标物体的轮廓信息。
本发明实施例所提供的上述方案中,可以确定环境中物体的轮廓信息。并且可以在目标物体的物体类型为固定形态的物体类型的情况下,基于预设的初始信息确定目标物体的轮廓信息,不需要移动机器人针对目标对象进行环绕运动,并针对各帧图像均计算出相对位置,从而可以简化物体信息确定的流程,提高物体信息确定的效率。
本发明另一实施例所提供的物体信息确定方法,在识别移动机器人在采集该帧图像时,与目标物体之间的相对距离之后,还可以基于移动机器人在采集该帧图像时与目标物体之间的相对距离、第二距离和相机的第二内外参信息,确定目标物体的高度;
其中,第二距离为:该帧图像中目标物体的顶部像素点与该帧图像的中心像素点,在垂直方向上的像素距离。
如图4所示,第二距离为目标物体的顶部像素点与该帧图像的中心像素点,在垂直方向上的像素距离。该顶部像素点可以为目标物体顶部线段上的任意一像素点。
可以先从目标物体顶部线段上选取任意一像素点,作为顶部像素点,再确定顶部像素点的顶部像素坐标,进而确定中心像素点的中心像素坐标。进而可以计算顶部像素坐标中的纵坐标与中心像素坐标中的纵坐标的差值,并将该差值的绝对值作为第二距离。示例性的,顶部像素坐标为(x3,y3)、中心像素坐标为(x4,y4),则第一距离为y3-y4的绝对值。
可选的,上述第二内外参信息包括:相机的垂直视角以及相机采集图像的垂直分辨率。
如图8所示,本发明实施例提供的另一种全局侧视的示意图。光轴线和上视线夹角为n,则有tan(n)=(h-x)/d,其中x为目标物体的高度,x为目标物体的高度。而夹角n=θ*(dv2_pixels/V),dv2_pixels为第二距离,V为垂直分辨率,
此时,可以采用如下公式确定目标物体的高度:
其中,x为目标物体的高度,θ为垂直视角,dv2_pixels为第二距离,V为垂直分辨率,d为移动机器人在采集该帧图像时与目标物体之间的相对距离。
在计算出目标物体的高度之后,若目标物体的高度小于预设高度,则将目标物体判定为可跨越物体,若目标物体的高度不小于预设高度,则将目标物体判定为不可跨越物体,需要绕行。
本发明实施例所提供的上述方案中,可以确定环境中物体的轮廓信息。并且还可以计算出目标物体的高度,从而使得目标物体的物体信息更丰富。
本发明另一实施例所提供的物体信息确定方法,在获取移动机器人在针对目标物体进行环绕运动的过程中,所采集的包含有目标物体的多帧图像之后,还可以针对每一帧所获取的图像,识别移动机器人在采集该帧图像时,与目标物体的水平偏转角度;
其中,水平偏转角度为水平视线与移动机器人中相机的光轴线之间的水平夹角,水平视线为:相机的光心与目标物体的外侧之间的连线。可选的,上述识别移动机器人在采集该帧图像时,与目标物体的水平偏转角度,可以包括步骤B1-步骤B2,其中:
步骤B1,确定该帧图像中的第三像素点与第四像素点,在水平方向上的像素距离,作为第三距离。
其中,第三像素点为关于目标物体的外侧像素点,第四像素点为中心像素点。此时,可以先从目标物体外侧线段上选取任意一像素点,作为第三像素点,再确定第三像素点的第三像素坐标,进而确定第四像素点的第四像素坐标。进而可以计算第三像素坐标中的纵坐标与第四像素坐标中的横坐标的差值,并将该差值的绝对值作为第三距离。示例性的,第三像素坐标为(x5,y5)、第四像素坐标为(x6,y6),则第三距离为x5-x6的绝对值。
步骤B2,基于第三距离、该帧图像的水平分辨率以及相机的水平视角,移动机器人在采集该帧图像时,与目标物体的水平偏转角度。
与计算下视角夹角相似,可以计算第三距离与水平分辨率的比值,作为第三比值,进而基于第三比值和水平视角,确定移动机器人在采集该帧图像时,与目标物体的水平偏转角度。
本发明实施例所提供的上述方案中,可以确定环境中物体的轮廓信息。并且可以确定水平偏转角度,从而使得目标物体的物体信息更丰富。
相应于本发明上述实施例所提供的物体信息确定方法,如图9所示,本发明实施例还提供了一种移动机器人系统,包括:
图像获取模块901,用于获取移动机器人在针对目标物体进行环绕运动的过程中,所采集的包含有所述目标物体的多帧图像;
处理器902,于针对每一帧所获取的图像,识别所述移动机器人在采集该帧图像时,与所述目标物体之间的相对距离;基于所述移动机器人在采集各帧图像时与所述目标物体的相对距离以及在世界坐标系中的位置信息,确定所述目标物体的轮廓信息。
需要说明的是,上述图像获取模块901可以为相机,例如单目相机、结构光深度相机、双目相机、TOF深度相机以及双目立体视觉相机等。
可选的,处理器902针对每一帧所获取的图像,识别所述移动机器人在采集该帧图像时,与所述目标物体之间的相对距离,可以包括:
针对每一帧所获取的图像,确定该帧图像中的第一像素点与第二像素点,在垂直方向上的像素距离,作为第一距离;其中,所述第一像素点为所述目标物体的底部像素点,所述第二像素点为中心像素点;
基于所述第一距离和所述移动机器人中相机的第一内外参信息,确定所述移动机器人在采集该帧图像时,与所述目标物体的相对距离。
可选的,所述第一内外参信息包括:所述相机的垂直视角、所述相机采集该帧图像的图像尺寸以及所述相机的光心高度;
处理器902基于所述第一距离和所述移动机器人中相机的第一内外参信息,确定所述移动机器人在采集该帧图像时,与所述目标物体的相对距离,可以包括:
基于所述第一距离、该帧图像的垂直分辨率以及所述相机的垂直视角,确定下视线夹角;其中,所述下视线夹角为下视线与所述相机的光轴线之间的夹角,所述下视线为:所述相机的光心与所述目标物体的底部之间的连线;
基于所述下视线夹角和所述相机的光心高度,计算所述移动机器人在采集该帧图像时,与所述目标物体的相对距离。
可选的,处理器902基于所述第一距离、该帧图像的垂直分辨率以及所述相机的垂直视角,确定下视线夹角,可以包括:
计算所述第一距离与所述垂直分辨率的比值,作为第一比值;
基于所述第一比值和所述垂直视角,确定下视线夹角。
可选的,处理器902基于所述第一比值和所述垂直视角,确定下视线夹角,可以包括:
计算所述第一比值与所述垂直视角的乘积,作为下视线夹角;或者,
根据预设的关于各像素点与调整系数之间的对应关系,确定与该帧图像中的指定像素点对应的目标调整系数,并计算所述调整系数与所述第一比值的乘积,作为第二比值,以及计算所述第二比值与所述垂直视角的乘积,作为下视线夹角;其中,所述各像素点为所述相机所采集图像中的像素点,所述指定像素点为从关于所述目标物体的底部像素点中所确定的像素点。
可选的,处理器902基于所述下视线夹角和所述相机的光心高度,计算所述移动机器人在采集该帧图像时,与所述目标物体的相对距离,可以包括:
采用如下公式计算所述移动机器人在采集该帧图像时,与所述目标物体的相对距离:
d=tan(90+k-m)*h
其中,d为所述相对距离,k为所述光轴线与所述移动机器人的移动平面之间的垂直夹角,m为所述下视线夹角,h为所述相机的光心高度。
可选的,处理器902基于所述移动机器人在采集各帧图像时与所述目标物体的相对距离以及在世界坐标系中的位置信息,确定所述目标物体的轮廓信息,可以包括:
针对每一帧图像,基于所述移动机器人在采集该帧图像时,在世界坐标系中的位置信息以及与所述目标物体的相对距离,确定所述目标物体的目标边缘点的位置,作为该帧图像对应的边缘位置;其中,所述目标边缘点为所述移动机器人在采集该帧图像时位于所述相机的拍摄范围的边缘点;
基于各帧图像对应的边缘位置,确定所述目标物体的轮廓信息。
可选的,处理器902基于各帧图像对应的边缘位置,确定所述目标物体的轮廓信息,可以包括:
将各帧图像对应的边缘位置,作为所述目标物体的轮廓信息;或者,
对各帧图像对应的边缘位置进行曲线拟合,以得到至少一条拟合曲线,并确定所述至少一条拟合曲线上各点的位置,将所确定的各位置,作为所述目标物体的轮廓信息。
可选的,处理器902在获取移动机器人在针对目标物体进行环绕运动的过程中,所采集的包含有所述目标物体的多帧图像之前,还可以用于对所述目标物体进行物体类型识别;若所述目标物体的物体类型为待识别类型,则执行所述获取移动机器人在针对目标物体进行环绕运动的过程中,所采集的包含有所述目标物体的多帧图像的步骤;其中,所述待识别类型包括:未知的物体类型或非固定形态的物体类型。
可选的,处理器902,还用于若所述目标物体的物体类型为固定形态的物体类型,则确定预设的与所述目标物体的物体类型对应的初始信息,作为待利用信息;其中,所述初始信息指示各边缘点的初始位置;获取所述移动机器人针对所述目标物体采集的图像,并识别在采集所获取图像时,所述移动机器人与所述目标物体之间的相对距离;基于识别到的相对位置,对所述待利用信息所指示的各边缘点的初始位置进行调整,得到所述各边缘点的调整后位置,作为所述目标物体的轮廓信息。
可选的,所述移动机器人针对所述目标物体进行环绕运动的方式包括:
在所述移动机器人的相机朝向与所述移动机器人的移动方向无关的情况下,所述移动机器人针对所述目标物体进行持续的环形运动;或,
在所述移动机器人的相机朝向与所述移动机器人的移动方向相关的情况下,所述移动机器人针对所述目标物体进行多段弧形运动。
可选的,处理器902在识别所述移动机器人在采集该帧图像时,与所述目标物体之间的相对距离之后,还用于基于所述移动机器人在采集该帧图像时与所述目标物体之间的相对距离、第二距离和所述相机的第二内外参信息,确定所述目标物体的高度;其中,所述第二距离为:该帧图像中所述目标物体的顶部像素点与该帧图像的中心像素点,在垂直方向上的像素距离。
可选的,所述第二内外参信息包括:所述相机的垂直视角以及所述相机采集图像的垂直分辨率;
处理器902基于所述移动机器人在采集该帧图像时与所述目标物体之间的相对距离、第二距离和所述相机的第二内外参信息,确定所述目标物体的高度,可以包括:
采用如下公式确定所述目标物体的高度:
其中,x为所述目标物体的高度,θ为所述垂直视角,dv2_pixels为所述第二距离,V为所述垂直分辨率,d为所述移动机器人在采集该帧图像时与所述目标物体之间的相对距离。
可选的,处理器902在所述获取移动机器人在针对目标物体进行环绕运动的过程中,所采集的包含有所述目标物体的多帧图像之后,还用于针对每一帧所获取的图像,识别所述移动机器人在采集该帧图像时,与所述目标物体的水平偏转角度;其中,所述水平偏转角度为水平视线与所述移动机器人中相机的光轴线之间的水平夹角,所述水平视线为:所述相机的光心与所述目标物体的外侧之间的连线。
可选的,在图9所示实施例的基础上,如图10所示,本发明实施例还提供一种移动机器人系统移动机器人系统,还包括:
动力模块903,用于驱动所述移动机器人针对所述目标物体进行环绕运动。
其中,上述动力模块903可以为移动机器人所携带的移动部件,可以包括电机、轮胎等部件。
可选的,在所述移动机器人的相机朝向与所述移动机器人的移动方向无关的情况下,上述动力模块903可以驱动所述移动机器人针对所述目标物体进行持续的环形运动;或,在所述移动机器人的相机朝向与所述移动机器人的移动方向相关的情况下,上述动力模块903可以驱动所述移动机器人针对所述目标物体进行多段弧形运动。
本发明实施例所提供的上述方案中,由于所获取的多帧图像是移动机器人在对目标物体进行环绕运动的过程中所采集的,使得所获取的多帧图像是移动机器人采集的目标物体不同朝向的图像,而移动机器人在采集每一帧图像时与目标物体的相对距离,是移动机器人在采集该帧图像时与目标物体的轮廓边缘之间的距离,进而可以结合移动机器人在采集该帧图像时在世界坐标系中的位置信息,可以确定出目标物体的轮廓信息。可见,通过本方案,可以确定环境中物体的轮廓信息。
相应于本发明上述实施例所提供的物体信息确定方法,如图11所示,本发明实施例还提供了一种物体信息确定装置,包括:
图像获取模块1101,用于获取移动机器人在针对目标物体进行环绕运动的过程中,所采集的包含有所述目标物体的多帧图像;
信息计算模块1102,用于针对每一帧所获取的图像,识别所述移动机器人在采集该帧图像时,与所述目标物体之间的相对距离;
信息确定模块1103,用于基于所述移动机器人在采集各帧图像时与所述目标物体的相对距离以及在世界坐标系中的位置信息,确定所述目标物体的轮廓信息。
可选的,所述信息计算模块,包括:
第一子模块,用于针对每一帧所获取的图像,确定该帧图像中的第一像素点与第二像素点,在垂直方向上的像素距离,作为第一距离;其中,所述第一像素点为所述目标物体的底部像素点,所述第二像素点为中心像素点;
第二子模块,用于基于所述第一距离和所述移动机器人中相机的第一内外参信息,确定所述移动机器人在采集该帧图像时,与所述目标物体的相对距离。
可选的,所述第一内外参信息包括:所述相机的垂直视角、所述相机采集图像的图像尺寸以及所述相机的光心高度;
所述第二子模块,包括:
夹角确定单元,用于基于所述第一距离、该帧图像的垂直分辨率以及所述相机的垂直视角,确定下视线夹角;其中,所述下视线夹角为下视线与所述相机的光轴线之间的夹角,所述下视线为:所述相机的光心与所述目标物体的底部之间的连线;
距离确定单元,用于基于所述下视线夹角和所述相机的光心高度,计算所述移动机器人在采集该帧图像时,与所述目标物体的相对距离。
可选的,所述夹角确定单元,包括:
比值计算子单元,用于计算所述第一距离与所述垂直分辨率的比值,作为第一比值;
夹角确定子单元,用于基于所述第一比值和所述垂直视角,确定下视线夹角。
可选的,所述夹角确定子单元,具体用于计算所述第一比值与所述垂直视角的乘积,作为下视线夹角;或者,根据预设的关于各像素点与调整系数之间的对应关系,确定与该帧图像中的指定像素点对应的目标调整系数,并计算所述调整系数与所述第一比值的乘积,作为第二比值,以及计算所述第二比值与所述垂直视角的乘积,作为下视线夹角;其中,所述各像素点为所述相机所采集图像中的像素点,所述指定像素点为从关于所述目标物体的底部像素点中所确定的像素点。
可选的,所述距离确定单元,具体用于采用如下公式计算所述移动机器人在采集该帧图像时,与所述目标物体的相对距离:
d=tan(90+k-m)*h
其中,d为所述相对距离,k为所述光轴线与所述移动机器人的移动平面之间的垂直夹角,m为所述下视线夹角,h为所述相机的光心高度。
可选的,所述信息确定模块,包括:
位置确定子模块,用于针对每一帧图像,基于所述移动机器人在采集该帧图像时,在世界坐标系中的位置信息以及与所述目标物体的相对距离,确定所述目标物体的目标边缘点的位置,作为该帧图像对应的边缘位置;其中,所述目标边缘点为所述移动机器人在采集该帧图像时位于所述相机的拍摄范围的边缘点;
信息确定子模块,用于基于各帧图像对应的边缘位置,确定所述目标物体的轮廓信息。
可选的,所述信息确定子模块,具体用于将各帧图像对应的边缘位置,作为所述目标物体的轮廓信息;或者,对各帧图像对应的边缘位置进行曲线拟合,以得到至少一条拟合曲线,并确定所述至少一条拟合曲线上各点的位置,将所确定的各位置,作为所述目标物体的轮廓信息。
可选的,所述装置还包括:类型识别模块,用于在所述图像获取模块执行所述获取移动机器人在针对目标物体进行环绕运动的过程中,所采集的包含有所述目标物体的多帧图像之前,对所述目标物体进行物体类型识别;若所述目标物体的物体类型为待识别类型,则调用所述图像获取模块执行所述获取移动机器人在针对目标物体进行环绕运动的过程中,所采集的包含有所述目标物体的多帧图像的步骤;其中,所述待识别类型包括:未知的物体类型或非固定形态的物体类型。
可选的,所述类型识别模块,还用于:若所述目标物体的物体类型为固定形态的物体类型,则确定预设的与所述目标物体的物体类型对应的初始信息,作为待利用信息;获取所述移动机器人针对所述目标物体采集的图像,并识别在采集所获取图像时,所述移动机器人与所述目标物体之间的相对距离;基于识别到的相对位置,对所述待利用信息所指示的各边缘点的初始位置进行调整,得到所述各边缘点的调整后位置,作为所述目标物体的轮廓信息;其中,所述初始信息指示各边缘点的初始位置;。
可选的,所述移动机器人针对所述目标物体进行环绕运动的方式包括:在所述移动机器人的相机朝向与所述移动机器人的移动方向无关的情况下,所述移动机器人针对所述目标物体进行持续的环形运动;或,在所述移动机器人的相机朝向与所述移动机器人的移动方向相关的情况下,所述移动机器人针对所述目标物体进行多段弧形运动。
可选的,所述信息计算模块,还用于在所述识别所述移动机器人在采集该帧图像时,与所述目标物体之间的相对距离之后,基于所述移动机器人在采集该帧图像时与所述目标物体之间的相对距离、第二距离和所述相机的第二内外参信息,确定所述目标物体的高度;其中,所述第二距离为:该帧图像中所述目标物体的顶部像素点与该帧图像的中心像素点,在垂直方向上的像素距离。
可选的,所述第二内外参信息包括:所述相机的垂直视角以及所述相机采集图像的垂直分辨率;
所述信息计算模块,包括:
高度计算子模块,用于采用如下公式确定所述目标物体的高度:
其中,x为所述目标物体的高度,θ为所述垂直视角,dv2_pixels为所述第二距离,V为所述垂直分辨率,d为所述移动机器人在采集该帧图像时与所述目标物体之间的相对距离。
可选的,角度识别模块,用于在所述图像获取模块执行所述获取移动机器人在针对目标物体进行环绕运动的过程中,所采集的包含有所述目标物体的多帧图像之后,针对每一帧所获取的图像,识别所述移动机器人在采集该帧图像时,与所述目标物体的水平偏转角度;其中,所述水平偏转角度为水平视线与所述移动机器人中相机的光轴线之间的水平夹角,所述水平视线为:所述相机的光心与所述目标物体的外侧之间的连线。
可选的,所述角度识别模块,包括:
距离确定子模块,用于确定该帧图像中的第三像素点与第四像素点,在水平方向上的像素距离,作为第三距离;其中,所述第三像素点为关于所述目标物体的外侧像素点,所述第四像素点为中心像素点;
角度确定子模块,用于基于所述第三距离、该帧图像的水平分辨率以及所述相机的水平视角,所述移动机器人在采集该帧图像时,与所述目标物体的水平偏转角度。
可选的,所述角度确定子模块,具体用于计算所述第三距离与所述水平分辨率的比值,作为第三比值;基于所述第三比值和所述水平视角,确定所述移动机器人在采集该帧图像时,与所述目标物体的水平偏转角度。
本发明实施例所提供的上述方案中,由于所获取的多帧图像是移动机器人在对目标物体进行环绕运动的过程中所采集的,使得所获取的多帧图像是移动机器人采集的目标物体不同朝向的图像,而移动机器人在采集每一帧图像时与目标物体的相对距离,是移动机器人在采集该帧图像时与目标物体的轮廓边缘之间的距离,进而可以结合移动机器人在采集该帧图像时在世界坐标系中的位置信息,可以确定出目标物体的轮廓信息。可见,通过本方案,可以确定环境中物体的轮廓信息。
本发明实施例还提供了一种电子设备,如图12所示,包括处理器1201、通信接口1202、存储器1203和通信总线1204,其中,处理器1201,通信接口1202,存储器1203通过通信总线1204完成相互间的通信,
存储器1203,用于存放计算机程序;
处理器1201,用于执行存储器1203上所存放的程序时,实现本发明上述实施例所提供的物体信息确定方法步骤。
上述电子设备提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述电子设备与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本发明提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述任一物体信息确定方法的步骤。
在本发明提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中任一物体信息确定方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于移动机器人系统、装置、电子设备、计算机可读存储介质及计算机程序产品实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的较佳实施例,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。
Claims (18)
1.一种物体信息确定方法,其特征在于,所述方法包括:
获取移动机器人在针对目标物体进行环绕运动的过程中,所采集的包含有所述目标物体的多帧图像;
针对每一帧所获取的图像,识别所述移动机器人在采集该帧图像时,与所述目标物体之间的相对距离;
基于所述移动机器人在采集各帧图像时与所述目标物体的相对距离以及在世界坐标系中的位置信息,确定所述目标物体的轮廓信息。
2.根据权利要求1所述的方法,其特征在于,所述针对每一帧所获取的图像,识别所述移动机器人在采集该帧图像时,与所述目标物体之间的相对距离,包括:
针对每一帧所获取的图像,确定该帧图像中的第一像素点与第二像素点,在垂直方向上的像素距离,作为第一距离;其中,所述第一像素点为所述目标物体的底部像素点,所述第二像素点为中心像素点;
基于所述第一距离和所述移动机器人中相机的第一内外参信息,确定所述移动机器人在采集该帧图像时,与所述目标物体的相对距离。
3.根据权利要求2所述的方法,其特征在于,所述第一内外参信息包括:所述相机的垂直视角、所述相机采集该帧图像的图像尺寸以及所述相机的光心高度;
所述基于所述第一距离和所述移动机器人中相机的第一内外参信息,确定所述移动机器人在采集该帧图像时,与所述目标物体的相对距离,包括:
基于所述第一距离、该帧图像的垂直分辨率以及所述相机的垂直视角,确定下视线夹角;其中,所述下视线夹角为下视线与所述相机的光轴线之间的夹角,所述下视线为:所述相机的光心与所述目标物体的底部之间的连线;
基于所述下视线夹角和所述相机的光心高度,计算所述移动机器人在采集该帧图像时,与所述目标物体的相对距离。
4.根据权利要求3所述的方法,其特征在于,所述基于所述第一距离、该帧图像的垂直分辨率以及所述相机的垂直视角,确定下视线夹角,包括:
计算所述第一距离与所述垂直分辨率的比值,作为第一比值;
基于所述第一比值和所述垂直视角,确定下视线夹角。
5.根据权利要求4所述的方法,其特征在于,所述基于所述第一比值和所述垂直视角,确定下视线夹角,包括:
计算所述第一比值与所述垂直视角的乘积,作为下视线夹角;或者,
根据预设的关于各像素点与调整系数之间的对应关系,确定与该帧图像中的指定像素点对应的目标调整系数,并计算所述调整系数与所述第一比值的乘积,作为第二比值,以及计算所述第二比值与所述垂直视角的乘积,作为下视线夹角;其中,所述各像素点为所述相机所采集图像中的像素点,所述指定像素点为从关于所述目标物体的底部像素点中所确定的像素点。
6.根据权利要求3所述的方法,其特征在于,所述基于所述下视线夹角和所述相机的光心高度,计算所述移动机器人在采集该帧图像时,与所述目标物体的相对距离,包括:
采用如下公式计算所述移动机器人在采集该帧图像时,与所述目标物体的相对距离:
d=tan(90+k-m)*h
其中,d为所述相对距离,k为所述光轴线与所述移动机器人的移动平面之间的垂直夹角,m为所述下视线夹角,h为所述相机的光心高度。
7.根据权利要求1-6任一项所述的方法,其特征在于,所述基于所述移动机器人在采集各帧图像时与所述目标物体的相对距离以及在世界坐标系中的位置信息,确定所述目标物体的轮廓信息,包括:
针对每一帧图像,基于所述移动机器人在采集该帧图像时,在世界坐标系中的位置信息以及与所述目标物体的相对距离,确定所述目标物体的目标边缘点的位置,作为该帧图像对应的边缘位置;其中,所述目标边缘点为所述移动机器人在采集该帧图像时位于所述相机的拍摄范围的边缘点;
基于各帧图像对应的边缘位置,确定所述目标物体的轮廓信息。
8.根据权利要求7所述的方法,其特征在于,所述基于各帧图像对应的边缘位置,确定所述目标物体的轮廓信息,包括:
将各帧图像对应的边缘位置,作为所述目标物体的轮廓信息;或者,
对各帧图像对应的边缘位置进行曲线拟合,以得到至少一条拟合曲线,并确定所述至少一条拟合曲线上各点的位置,将所确定的各位置,作为所述目标物体的轮廓信息。
9.根据权利要求1-6任一项所述的方法,其特征在于,在获取移动机器人在针对目标物体进行环绕运动的过程中,所采集的包含有所述目标物体的多帧图像之前,所述方法还包括:
对所述目标物体进行物体类型识别;
若所述目标物体的物体类型为待识别类型,则执行所述获取移动机器人在针对目标物体进行环绕运动的过程中,所采集的包含有所述目标物体的多帧图像的步骤;其中,所述待识别类型包括:未知的物体类型或非固定形态的物体类型。
10.根据权利要求9所述的方法,其特征在于,所述方法还包括:
若所述目标物体的物体类型为固定形态的物体类型,则确定预设的与所述目标物体的物体类型对应的初始信息,作为待利用信息;其中,所述初始信息指示各边缘点的初始位置;
获取所述移动机器人针对所述目标物体采集的图像,并识别在采集所获取图像时,所述移动机器人与所述目标物体之间的相对距离;
基于识别到的相对位置,对所述待利用信息所指示的各边缘点的初始位置进行调整,得到所述各边缘点的调整后位置,作为所述目标物体的轮廓信息。
11.根据权利要求1-6任一项所述的方法,其特征在于,所述移动机器人针对所述目标物体进行环绕运动的方式包括:
在所述移动机器人的相机朝向与所述移动机器人的移动方向无关的情况下,所述移动机器人针对所述目标物体进行持续的环形运动;或,
在所述移动机器人的相机朝向与所述移动机器人的移动方向相关的情况下,所述移动机器人针对所述目标物体进行多段弧形运动。
12.根据权利要求1-6任一项所述的方法,其特征在于,在所述识别所述移动机器人在采集该帧图像时,与所述目标物体之间的相对距离之后,所述方法还包括:
基于所述移动机器人在采集该帧图像时与所述目标物体之间的相对距离、第二距离和所述相机的第二内外参信息,确定所述目标物体的高度;
其中,所述第二距离为:该帧图像中所述目标物体的顶部像素点与该帧图像的中心像素点,在垂直方向上的像素距离。
14.根据权利要求1-6任一项所述的方法,其特征在于,在所述获取移动机器人在针对目标物体进行环绕运动的过程中,所采集的包含有所述目标物体的多帧图像之后,所述方法还包括:
针对每一帧所获取的图像,识别所述移动机器人在采集该帧图像时,与所述目标物体的水平偏转角度;其中,所述水平偏转角度为水平视线与所述移动机器人中相机的光轴线之间的水平夹角,所述水平视线为:所述相机的光心与所述目标物体的外侧之间的连线。
15.一种移动机器人系统,其特征在于,包括:
图像获取模块,用于获取移动机器人在针对目标物体进行环绕运动的过程中,所采集的包含有所述目标物体的多帧图像;
处理器,于针对每一帧所获取的图像,识别所述移动机器人在采集该帧图像时,与所述目标物体之间的相对距离;基于所述移动机器人在采集各帧图像时与所述目标物体的相对距离以及在世界坐标系中的位置信息,确定所述目标物体的轮廓信息。
16.如权利要求15所述的移动机器人系统,其特征在于,还包括:
动力模块,用于驱动所述移动机器人针对所述目标物体进行环绕运动。
17.一种电子设备,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求1-14任一所述的方法步骤。
18.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-14任一项所述的方法步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210168135.3A CN114564014A (zh) | 2022-02-23 | 2022-02-23 | 物体信息确定方法、移动机器人系统及电子设备 |
PCT/CN2023/072179 WO2023160301A1 (zh) | 2022-02-23 | 2023-01-13 | 物体信息确定方法、移动机器人系统及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210168135.3A CN114564014A (zh) | 2022-02-23 | 2022-02-23 | 物体信息确定方法、移动机器人系统及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114564014A true CN114564014A (zh) | 2022-05-31 |
Family
ID=81713321
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210168135.3A Pending CN114564014A (zh) | 2022-02-23 | 2022-02-23 | 物体信息确定方法、移动机器人系统及电子设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN114564014A (zh) |
WO (1) | WO2023160301A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023160301A1 (zh) * | 2022-02-23 | 2023-08-31 | 杭州萤石软件有限公司 | 物体信息确定方法、移动机器人系统及电子设备 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106683173B (zh) * | 2016-12-22 | 2019-09-13 | 西安电子科技大学 | 一种基于邻域块匹配提高三维重建点云稠密程度的方法 |
JP2018136896A (ja) * | 2017-02-24 | 2018-08-30 | キヤノン株式会社 | 情報処理装置、システム、情報処理方法、および物品の製造方法 |
CN109544633B (zh) * | 2017-09-22 | 2021-08-27 | 华为技术有限公司 | 目标测距方法、装置及设备 |
CN108805940B (zh) * | 2018-06-27 | 2021-06-04 | 亿嘉和科技股份有限公司 | 一种变倍相机在变倍过程中跟踪定位的方法 |
CN110310371B (zh) * | 2019-05-27 | 2023-04-04 | 太原理工大学 | 一种基于车载单目聚焦序列图像构建对象三维轮廓的方法 |
CN112771576A (zh) * | 2020-05-06 | 2021-05-07 | 深圳市大疆创新科技有限公司 | 位置信息获取方法、设备及存储介质 |
CN112070782B (zh) * | 2020-08-31 | 2024-01-09 | 腾讯科技(深圳)有限公司 | 识别场景轮廓的方法、装置、计算机可读介质及电子设备 |
CN114564014A (zh) * | 2022-02-23 | 2022-05-31 | 杭州萤石软件有限公司 | 物体信息确定方法、移动机器人系统及电子设备 |
-
2022
- 2022-02-23 CN CN202210168135.3A patent/CN114564014A/zh active Pending
-
2023
- 2023-01-13 WO PCT/CN2023/072179 patent/WO2023160301A1/zh active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023160301A1 (zh) * | 2022-02-23 | 2023-08-31 | 杭州萤石软件有限公司 | 物体信息确定方法、移动机器人系统及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
WO2023160301A1 (zh) | 2023-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108765498B (zh) | 单目视觉跟踪方法、装置及存储介质 | |
CN108520536B (zh) | 一种视差图的生成方法、装置及终端 | |
CN110176032B (zh) | 一种三维重建方法及装置 | |
CN110363817B (zh) | 目标位姿估计方法、电子设备和介质 | |
CN106780550B (zh) | 一种目标跟踪方法及电子设备 | |
CN113052907B (zh) | 一种动态环境移动机器人的定位方法 | |
JP2008506953A5 (zh) | ||
JP7280385B2 (ja) | 視覚的ポジショニング方法および関連装置、機器並びにコンピュータ可読記憶媒体 | |
CN112083403B (zh) | 用于虚拟场景的定位追踪误差校正方法及系统 | |
CN112270719A (zh) | 相机标定方法、装置及系统 | |
JP2021531601A (ja) | ニューラルネットワーク訓練、視線検出方法及び装置並びに電子機器 | |
US20180137636A1 (en) | Depth image processing method and depth image processing system | |
CN109902675B (zh) | 物体的位姿获取方法、场景重构的方法和装置 | |
CN114179788A (zh) | 自动泊车方法、系统、计算机可读存储介质及车机端 | |
CN111383264A (zh) | 一种定位方法、装置、终端及计算机存储介质 | |
WO2023284358A1 (zh) | 相机标定方法、装置、电子设备及存储介质 | |
WO2023160301A1 (zh) | 物体信息确定方法、移动机器人系统及电子设备 | |
CN118230231A (zh) | 一种无人车的位姿构建方法、装置、电子设备及存储介质 | |
JP2023503750A (ja) | ロボットの位置決め方法及び装置、機器、記憶媒体 | |
WO2022174603A1 (zh) | 一种位姿预测方法、位姿预测装置及机器人 | |
CN113723432B (zh) | 一种基于深度学习的智能识别、定位追踪的方法及系统 | |
CN111223139A (zh) | 目标定位方法及终端设备 | |
KR102438093B1 (ko) | 객체를 연관시키는 방법 및 장치, 시스템, 전자 기기, 저장 매체 및 컴퓨터 프로그램 | |
CN112634377B (zh) | 扫地机器人的相机标定方法、终端和计算机可读存储介质 | |
CN112529943A (zh) | 一种物体检测方法、物体检测装置及智能设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |