WO2020103297A1 - 机器人的传感器布局系统 - Google Patents

机器人的传感器布局系统

Info

Publication number
WO2020103297A1
WO2020103297A1 PCT/CN2018/125146 CN2018125146W WO2020103297A1 WO 2020103297 A1 WO2020103297 A1 WO 2020103297A1 CN 2018125146 W CN2018125146 W CN 2018125146W WO 2020103297 A1 WO2020103297 A1 WO 2020103297A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor
robot
image sensor
layout system
robot according
Prior art date
Application number
PCT/CN2018/125146
Other languages
English (en)
French (fr)
Inventor
杨志钦
Original Assignee
炬星科技(深圳)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 炬星科技(深圳)有限公司 filed Critical 炬星科技(深圳)有限公司
Priority to CA3120403A priority Critical patent/CA3120403A1/en
Priority to SG11202105248QA priority patent/SG11202105248QA/en
Priority to KR2020207000057U priority patent/KR20200002742U/ko
Priority to US17/294,429 priority patent/US20210409647A1/en
Priority to EP18940501.2A priority patent/EP3885077A4/en
Priority to JP2021500384A priority patent/JP2021523496A/ja
Publication of WO2020103297A1 publication Critical patent/WO2020103297A1/zh

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/027Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2015/937Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles sensor installation details
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39091Avoid collision with moving obstacles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/49Nc machine tool, till multiple
    • G05B2219/49143Obstacle, collision avoiding control, move so that no collision occurs

Definitions

  • the existing robot sensing system has the technical problems that there are many sensing blind areas of the sensor group and the cooperation degree is low.
  • an object of the present invention is to provide a sensor layout system for a robot to solve the technical problem that the sensing system of the robot has many sensor blind spots and a low degree of cooperation.
  • the relative position of the image sensor (1001, 1002) and the first inertial sensor 1007 is determined, it does not change with changes in external physical conditions such as vibration and temperature changes, so the collected information of the determined position can be controlled,
  • Each sensor is responsible for its own collection range, and then sends the collected information to the robot system to improve the fusion operation, forming a stable division of labor cooperation relationship, which improves the accuracy of the sensor fusion algorithm, improves the robot's robustness, and is conducive to the robot's autonomous perception of the environment and execution task.
  • the visible light image sensor 1002 and the depth image sensor 1001 are fixed on at least one piece of rigid material, and the relative positions of the visible light image sensor 1002 and the depth image sensor 1001 can be determined.
  • rigid materials refer to materials that do not deform with changes in external physical conditions such as vibration and temperature changes. It should be understood that the rigid material fixing method is merely a preferred embodiment for determining the relative positions of the visible light image sensor 1002 and the depth image sensor 1001.
  • the sensor group includes: an optical ranging sensor 1004, a second inertial sensor 1006, and a mechanical odometer 1005 whose relative positions are determined relative to each other.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

一种机器人的传感器布局系统,通过在机器人本体(20)上分布至少一个传感器组,传感器组包括图像传感器(1001,1002)和第一惯性传感器(1007),再通过使图像传感器(1001,1002)和第一惯性传感器(1007)的相对位置确定,使得图像传感器和第一惯性传感器(1007)不随着震动、温度变化等外部物理条件的变化而发生变化,再通过使图像传感器(1001,1002)的位置与竖直方向的夹角处于第一角度区间,以确保机器人自主地感知周边环境,提升自主避障能力,从而实现提升机器人系统的鲁棒性的技术效果。

Description

机器人的传感器布局系统 技术领域
本发明属于机器人的传感技术领域,尤其涉及一种机器人的传感器布局系统。
背景技术
在货物流通领域,经常使用AGV(Auto Guided Vehicle:自动导引运输车)对货物进行接收、运输以及卸载。由于AGV的智能化程度比智能移动机器人的智能化程度低,因此AGV的本体上布局的传感器数量相对较少。通常,AGV的本体上布局用于识别地标图形码的图像传感器、用于读取磁条的磁力强度等信息的磁力传感器即可实现信息感测功能。
区别于AGV,机器人的本体则安装多种传感器,包括用于采集距离的激光传感器、用于获取周围环境信息的图像传感器、用于采集立体结构的深度图像传感器等以及非光学采集的超声波测距传感器等。多种传感器组成了一个机器人的感测系统,使得机器人能自主感知环境、执行任务。
虽然,现有的机器人的感测系统能使机器人自主感知环境、执行任务,但是其传感器组的布局不够合理,以致传感器组的传感盲区多且配合度较低,从而造成传感器组的融合算法精度较低,感测系统的鲁棒性较低。其中,鲁棒性来自于英语Robustness,是指系统可以避免发生异常以及从异常状态中恢复的能力。鲁棒性体现在机器人中,主要指机器人对周围环境的认知能力。如果认知能力高,则避免机器人发生碰撞等错误的可能性就高。因此,在给机器人布局传感器组时,需要尽量缩小传感器的感知盲区以提高机器人的鲁棒性。另外,传感器组中存在多个传感器采集同一物理量的情况,例如,激光测距传感器和超声波测距传感器同时对机器人周边的障碍物到机器人自身的距离进行采集,如果采集同一物理量的多个传感器的配合度低,将使得多传感器的融合算法的精度降低,不利于机器人自主地感知环境、执行任务。
综上,现有的机器人的感测系统存在传感器组的传感盲区多且配合度较低的技术问题。
技术问题
有鉴于此,本发明的目的在于提供一种机器人的传感器布局系统,以解决机器人的感测系统存在传感器组的传感盲区多且配合度较低的技术问题。
技术解决方案
为解决上述技术问题,本发明提供一种机器人的传感器布局系统,该机器人的传感器布局系统包括机器人本体,所述机器人本体上分布有至少一个传感器组,所述传感器组包括图像传感器和与所述图像传感器的相对位置确定的第一惯性传感器;
所述图像传感器的位置与竖直方向的夹角处于第一角度区间。
有益效果
本发明提供的机器人的传感器布局系统,通过在机器人本体上分布至少一个传感器组,传感器组包括图像传感器和第一惯性传感器,再通过使图像传感器和第一惯性传感器的相对位置确定,使得图像传感器和第一惯性传感器不随着震动、温度变化等外部物理条件的变化而发生变化,再通过使图像传感器的位置与竖直方向的夹角处于第一角度区间,以确保机器人自主地感知周边环境,提升自主避障能力,从而实现提升机器人系统的鲁棒性的技术效果。
附图说明
图1为一实施例提供的机器人的传感器布局系统的架构示意图。
本发明的实施方式
为了使本发明实施例的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明实施例进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明实施例,并不用于限定本发明实施例。在本发明实施例的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明实施例和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明实施例的限制。
此外,在本发明实施例的描述中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,还可以是两个元件内部的连通,可以是无线连接,也可以是有线连接。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明实施例中的具体含义。
此外,后续所描述的本发明实施例不同实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。
下面,本发明实施例提出部分优选实施例以教导本领域技术人员实现。
图1为一实施例提供的机器人的传感器布局系统的架构示意图,示出了一种机器人的传感器布局系统。
参见图1,一种机器人的传感器布局系统,包括机器人本体20,机器人本体20上分布有至少一个传感器组,传感器组包括图像传感器(1001,1002)和与图像传感器(1001,1002)的相对位置确定的第一惯性传感器1007。
图像传感器(1001,1002)的位置与竖直方向的夹角处于第一角度区间,以确保连续采集地面周边图像的相似纹理结构。
本实施例中,通过在机器人本体20上分布至少一个传感器组,传感器组包括图像传感器(1001,1002)和第一惯性传感器1007,再通过使图像传感器(1001,1002)和第一惯性传感器1007的相对位置确定,使得图像传感器(1001,1002)和第一惯性传感器1007不随着震动、温度变化等外部物理条件的变化而发生变化,再通过使图像传感器(1001,1002)的位置与竖直方向的夹角处于第一角度区间,以确保机器人自主地感知周边环境,提升自主避障能力,从而实现提升机器人系统的鲁棒性的技术效果。
需要说明的是,由于图像传感器(1001,1002)和第一惯性传感器1007的相对位置确定,不随震动、温度变化等外部物理条件的变化而发生变化,因此可以使得确定位置的采集信息可控,各个传感器负责自身的采集范围,然后将采集信息送至机器人系统进行提高融合运算,形成稳定分工配合关系,使得传感器融合算法精度提高,提升机器人的鲁棒性,有利于机器人自主地感知环境、执行任务。
还需要说明的是,图像传感器(1001,1002)的位置与竖直方向的夹角处于第一角度区间,以确保连续采集地面周边图像的相似纹理结构。其中,第一角度区间可以为5°-90°,优选角度值可以为10°。
图像传感器(1001,1002)采集的视频帧进行分析而计算得到机器人的位置和姿态变化。在这个过程中,对视频帧的连续性有一定要求,而连续型来自于对相似的纹理结构可以连续地进行拍摄。因此图像传感器(1001,1002)的位置与竖直方向的夹角处于第一角度区间。
在一具体实施例中,图像传感器(1001,1002)和第一惯性传感器1007固定在至少一片刚性材料上,以实现图像传感器(1001,1002)和与第一惯性传感器1007的相对位置确定。其中,刚性材料是指不随震动、温度变化等外部物理条件的变化而发生变形的材料。需要理解的是,刚性材料固定方式仅仅是实现图像传感器(1001,1002)和与第一惯性传感器1007的相对位置确定的一优选实施例。
进一步地,图像传感器(1001,1002)包括可见光图像传感器1002和与可见光图像传感器1002的相对位置确定的深度图像传感器1001。深度图像传感器1001与可见光图像传感器1002离地面的距离处于第一距离值区间,以使其可视区域覆盖采集范围。第一距离值区间为50㎝-160㎝。第一距离值区间的优选值为80㎝。
需要说明的是,深度图像传感器1001与可见光图像传感器1002离地面的距离处于第一距离值区间,以使其可视区域覆盖采集范围,可以使深度图像传感器1001与可见光图像传感器1002的可视区域覆盖范围大。其中,深度图像传感器1001和可见光图像传感器1002的FOV(Field Of View:可视区域)是一个空间中的圆锥体。机器人在室内作业时,FOV越大,深度图像传感器1001和可见光图像传感器1002的采集范围便越大。而深度图像传感器1001和可见光图像传感器1002与地面的距离不小于80cm时,可以实现较理想的FOV。
需要说明的是,深度图像传感器1001的工作原理为:利用双目摄像头形成的三角ToF或由可见光或者非可见光发射装置和接收装置形成的三角对障碍进行采集并可形成障碍物上的多个点到传感器的距离图像。
另外,深度图像传感器1001和可见光图像传感器1002采集图像数据以视频帧的形式传输至机器人,机器人通过对图像数据进行分析,可以对自身在空间中的位置进行定位,并且进行对周边环境进行三维重建;同时,通过分析图像还可以进行人脸识别、人体识别、障碍物识别、车线或标示识别等机器视觉感知。
具体地,可见光图像传感器1002和与深度图像传感器1001固定在至少一片刚性材料上,可以实现可见光图像传感器1002和与深度图像传感器1001的相对位置确定。其中,刚性材料是指不随震动、温度变化等外部物理条件的变化而发生变形的材料。需要理解的是,刚性材料固定方式仅仅是实现可见光图像传感器1002和与深度图像传感器1001的相对位置确定的一优选实施例。
在一改进实施例中,传感器组包括:彼此之间的相对位置确定的光学测距传感器1004、第二惯性传感器1006以及机械里程计1005。
机械里程计1005与固定于所述机器人轮子内部;光学测距传感器1004与第二惯性传感器1006的位置处于同一平面或者上、下垂直距离处于第二距离值区间。具体地,第二距离值区间为0-40㎝。第二距离值区间的优选值为20㎝。
需要说明的是,第二惯性传感器1006用于采集机器人本体20的惯性量,光学测距传感器1004用于采集机器人本体20与周边物体的相对距离,机械里程计1005用于采集机器人的轮子转速的运动量。其中,第二惯性传感器1006一般可以测量加速度、角速度、磁场这三个正方向正交的物理量。
另外,由于光学测距传感器1004、第二惯性传感器1006以及机械里程计1005彼此之间的相对位置确定,不随外部物理条件的变化而变化,因此可以使得确定位置的采集信息可控,各个传感器负责自身的采集范围,然后将采集信息送至机器人系统进行提高融合运算,形成稳定分工配合关系,使得传感器融合算法精度提高,提升机器人的鲁棒性,有利于机器人自主地感知环境、执行任务。
另外,机械里程计1005一般固定在轮子的轴上面,通过光栅或者电磁感应获取轮子的旋转速度,旋转速度通过轮子的半径可以转化为轮子的线速度。
另外,光学测距传感器1004可以选用激光测距传感器。激光测距传感器安装有激光的发射和接受装置,通过三角关系或者ToF(Time Of Flight:飞行时间)计算障碍物到传感器的距离。
另外,轮子只有在与地面充分接触充分摩擦的情况下才能精确的测量出轮子在单位时间内的转动圈数,从而利用轮子的半径根据上述测量值计算出相应的弧长,即单位时间内机器人相对于地面的移动距离,因此,机械里程计1005需要与地面接触。
光学测距传感器1004、第二惯性传感器1006以及机械里程计1005固定在至少一片刚性材料上,可以实现光学测距传感器1004、第二惯性传感器1006以及机械里程计1005的相对位置确定。其中,刚性材料是指不随震动、温度变化等外部物理条件的变化而发生变形的材料。需要理解的是,刚性材料固定方式仅仅是实现光学测距传感器1004、第二惯性传感器1006以及机械里程计1005的相对位置确定的一优选实施例。
光学测距传感器1004与第二惯性传感器1006的位置处于同一平面或者上、下垂直距离处于第二距离值区间,其目的在于:通常,光学测距传感器1004只能测量出的测量点同处于某一平面上,而第二惯性传感器1006的测量值只有也在这个平面上或者与该平面平行的平面上才可以将两者的测量值进行相互参照。
在一改进实施例中,传感器组包括:与光学测距传感器1004的相对位置确定的超声波传感器1003。超声波传感器1003的采集方向与光学测距传感器1004的采集方向相同。超声波传感器1003的位置以光学测距传感器1004的扫描平面为基准,离扫描平面的距离处于第三距离值区间,以使超声波传感器1003弥补光学测距传感器1004对透明物体的感测不足。具体地,第三距离值区间为0-40㎝。第三距离值区间的优选值为20㎝。
需要说明的是,超声波传感器1003利用声波对障碍物到机器人的距离进行估算。有别于光学传感器,此类传感器的测量值较为粗略,测量范围一般是空间中的锥体,具有大覆盖、粗精度的特点。更重要的是,此类传感器可以测量光学传感器无法感应的障碍物,例如玻璃。
还需要说明的是,第三距离值区间可以是能够使超声波传感器1003弥补光学测距传感器1004对透明物体的感测不足的任何距离值。其中,第三距离值区间可以为可以为0-40㎝。其中,优选20㎝。
还需要说明的是,由于超声波传感器1003和光学测距传感器1004负责自身的采集范围,超声波传感器1003采集透明物体的信息,然后将采集信息送至机器人系统进行提高融合运算,形成稳定分工配合关系,使得传感器融合算法精度提高,提升机器人的鲁棒性,有利于机器人自主地感知环境、执行任务。
在一改进实施例中,传感器组中的传感器均安装于刚体结构上并由刚体结构的至少一片构成整机。
需要说明的是,由于传感器组中的传感器均安装于刚体结构上并由刚体结构的至少一片构成整机,因此,传感器组中的传感器之间的相对位置确定,不随震动、温度变化等外部物理条件的变化而发生变化,因此可以使得确定位置的采集信息可控,各个传感器负责自身的采集范围,然后将采集信息送至机器人系统进行提高融合运算,形成稳定分工配合关系,使得传感器融合算法精度提高,提升机器人的鲁棒性,有利于机器人自主地感知环境、执行任务。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
工业实用性
本发明提供的机器人的传感器布局系统,通过在机器人本体上分布至少一个传感器组,传感器组包括图像传感器和第一惯性传感器,再通过使图像传感器和第一惯性传感器的相对位置确定,使得图像传感器和第一惯性传感器不随着震动、温度变化等外部物理条件的变化而发生变化,再通过使图像传感器的位置与竖直方向的夹角处于第一角度区间,以确保机器人自主地感知周边环境,提升自主避障能力,从而实现提升机器人系统的鲁棒性的技术效果。

Claims (10)

  1. 一种机器人的传感器布局系统,包括机器人本体,所述机器人本体上分布有至少一个传感器组,其中,所述传感器组包括图像传感器和与所述图像传感器的相对位置确定的第一惯性传感器;
    所述图像传感器的位置与竖直方向的夹角处于第一角度区间。
  2. 如权利要求1所述的机器人的传感器布局系统,其中,所述图像传感器包括可见光图像传感器和与所述可见光图像传感器的相对位置确定的深度图像传感器;所述深度图像传感器与所述可见光图像传感器离地面的距离处于第一距离值区间,以使其可视区域覆盖采集范围。
  3. 如权利要求2所述的机器人的传感器布局系统,其中,所述可见光图像传感器和所述第一惯性传感器固定在至少一片刚性材料上。
  4. 如权利要求1所述的机器人的传感器布局系统,其中,所述第一角度区间为5°-90°。
  5. 如权利要求2所述的机器人的传感器布局系统,其中,所述第一距离值区间为50㎝-160㎝。
  6. 如权利要求1-5任一项所述的机器人的传感器布局系统,其中,所述传感器组包括:彼此之间的相对位置确定的光学测距传感器、第二惯性传感器以及机械里程计;
    所述机械里程计固定于所述机器人轮子内部;所述光学测距传感器与所述第二惯性传感器的位置处于同一平面或者上、下垂直距离处于第二距离值区间。
  7. 如权利要求6所述的机器人的传感器布局系统,其中,所述第二距离值区间为0-40㎝。
  8. 如权利要求7所述的机器人的传感器布局系统,其中,所述传感器组包括:与所述光学测距传感器的相对位置确定的超声波传感器;所述超声波传感器的采集方向与所述光学测距传感器的采集方向相同;所述超声波传感器的位置以所述光学测距传感器的扫描平面为基准,离所述扫描平面的距离处于第三距离值区间,以使所述超声波传感器弥补所述光学测距传感器对透明物体的感测不足。
  9. 如权利要求8所述的机器人的传感器布局系统,其中,所述第三距离值区间为0-40㎝。
  10. 如权利要求9所述的机器人的传感器布局系统,其中,所述传感器组中的传感器均安装于刚体结构上并由所述刚体结构的至少一片构成整机。
PCT/CN2018/125146 2018-11-19 2018-12-29 机器人的传感器布局系统 WO2020103297A1 (zh)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CA3120403A CA3120403A1 (en) 2018-11-19 2018-12-29 Robot sensor arrangement system
SG11202105248QA SG11202105248QA (en) 2018-11-19 2018-12-29 Robot sensor arrangement system
KR2020207000057U KR20200002742U (ko) 2018-11-19 2018-12-29 로봇 센서 배치 시스템
US17/294,429 US20210409647A1 (en) 2018-11-19 2018-12-29 Robot sensor arrangement system
EP18940501.2A EP3885077A4 (en) 2018-11-19 2018-12-29 ROBOT SENSOR ARRANGEMENT SYSTEM
JP2021500384A JP2021523496A (ja) 2018-11-19 2018-12-29 ロボットのセンサ配置システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201821895318.0 2018-11-19
CN201821895318.0U CN209224071U (zh) 2018-11-19 2018-11-19 机器人的传感器布局系统

Publications (1)

Publication Number Publication Date
WO2020103297A1 true WO2020103297A1 (zh) 2020-05-28

Family

ID=67503401

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2018/125146 WO2020103297A1 (zh) 2018-11-19 2018-12-29 机器人的传感器布局系统

Country Status (8)

Country Link
US (1) US20210409647A1 (zh)
EP (1) EP3885077A4 (zh)
JP (2) JP2021523496A (zh)
KR (1) KR20200002742U (zh)
CN (1) CN209224071U (zh)
CA (1) CA3120403A1 (zh)
SG (1) SG11202105248QA (zh)
WO (1) WO2020103297A1 (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102596517A (zh) * 2009-07-28 2012-07-18 悠进机器人股份公司 移动机器人定位和导航控制方法及使用该方法的移动机器人
EP2590042B1 (en) * 2011-11-04 2014-09-10 Samsung Electronics Co., Ltd Walking robot performing position recognition using several local filters and a fusion filter
CN105222724A (zh) * 2015-09-10 2016-01-06 北京天远三维科技有限公司 多线阵列激光三维扫描系统及多线阵列激光三维扫描方法
CN105910604A (zh) * 2016-05-25 2016-08-31 武汉卓拔科技有限公司 一种基于多传感器的自主避障导航系统
CN105928514A (zh) * 2016-04-14 2016-09-07 广州智能装备研究院有限公司 基于图像与惯性技术的agv复合导引系统
CN106406311A (zh) * 2016-10-14 2017-02-15 西安电子科技大学 基于信息融合与环境感知的机器人行走避障方法
CN106843491A (zh) * 2017-02-04 2017-06-13 上海肇观电子科技有限公司 带增强现实的智能设备及电子设备
CN107850436A (zh) * 2015-05-23 2018-03-27 深圳市大疆创新科技有限公司 使用惯性传感器和图像传感器的传感器融合
CN108098799A (zh) * 2016-11-25 2018-06-01 株式会社东芝 机器人控制设备、机器人控制方法和拾取设备

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6771208B2 (en) * 2002-04-24 2004-08-03 Medius, Inc. Multi-sensor system
JP2009139325A (ja) * 2007-12-10 2009-06-25 Mazda Motor Corp 車両用走行路面検出装置
JP2010125582A (ja) * 2008-12-01 2010-06-10 Seiko Epson Corp ロボットアーム装置、ロボットアーム装置の制御方法および制御プログラム
JP5669195B2 (ja) * 2011-02-03 2015-02-12 国立大学法人 宮崎大学 表面形状計測装置、及び表面形状計測方法
US9279661B2 (en) * 2011-07-08 2016-03-08 Canon Kabushiki Kaisha Information processing apparatus and information processing method
JP2017515176A (ja) * 2014-02-10 2017-06-08 サビオーク インク 出入り口における認証システム
WO2016126297A2 (en) * 2014-12-24 2016-08-11 Irobot Corporation Mobile security robot
JP2017052045A (ja) * 2015-09-09 2017-03-16 株式会社Ihiエアロスペース 位置関係データ取得装置と遠隔操縦装置
WO2017076929A1 (en) * 2015-11-02 2017-05-11 Starship Technologies Oü Device and method for autonomous localisation
JP6108645B1 (ja) * 2016-01-31 2017-04-05 貴司 徳田 モーターモジュールシステム
US10575699B2 (en) * 2018-01-05 2020-03-03 Irobot Corporation System for spot cleaning by a mobile robot

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102596517A (zh) * 2009-07-28 2012-07-18 悠进机器人股份公司 移动机器人定位和导航控制方法及使用该方法的移动机器人
EP2590042B1 (en) * 2011-11-04 2014-09-10 Samsung Electronics Co., Ltd Walking robot performing position recognition using several local filters and a fusion filter
CN107850436A (zh) * 2015-05-23 2018-03-27 深圳市大疆创新科技有限公司 使用惯性传感器和图像传感器的传感器融合
CN105222724A (zh) * 2015-09-10 2016-01-06 北京天远三维科技有限公司 多线阵列激光三维扫描系统及多线阵列激光三维扫描方法
CN105928514A (zh) * 2016-04-14 2016-09-07 广州智能装备研究院有限公司 基于图像与惯性技术的agv复合导引系统
CN105910604A (zh) * 2016-05-25 2016-08-31 武汉卓拔科技有限公司 一种基于多传感器的自主避障导航系统
CN106406311A (zh) * 2016-10-14 2017-02-15 西安电子科技大学 基于信息融合与环境感知的机器人行走避障方法
CN108098799A (zh) * 2016-11-25 2018-06-01 株式会社东芝 机器人控制设备、机器人控制方法和拾取设备
CN106843491A (zh) * 2017-02-04 2017-06-13 上海肇观电子科技有限公司 带增强现实的智能设备及电子设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3885077A4 *

Also Published As

Publication number Publication date
EP3885077A4 (en) 2022-08-10
SG11202105248QA (en) 2021-06-29
KR20200002742U (ko) 2020-12-18
EP3885077A1 (en) 2021-09-29
US20210409647A1 (en) 2021-12-30
CN209224071U (zh) 2019-08-09
JP3222663U (ja) 2019-08-15
CA3120403A1 (en) 2020-05-28
JP2021523496A (ja) 2021-09-02

Similar Documents

Publication Publication Date Title
EP3603372B1 (en) Moving robot, method for controlling the same, and terminal
EP3168705B1 (en) Domestic robotic system
WO2020258721A1 (zh) 智能巡航车导航方法及系统
JP5588812B2 (ja) 画像処理装置及びそれを用いた撮像装置
KR102608046B1 (ko) 공항용 안내 로봇 및 그의 동작 방법
KR101776823B1 (ko) 외부 감시카메라를 이용한 모바일 로봇의 위치인식 방법 및 시스템
KR102502219B1 (ko) 로봇 운동시 카펫으로 인한 드리프트 제어방법, 칩 및 청소 로봇
KR20180080498A (ko) 공항용 로봇 및 그의 동작 방법
CN107153247A (zh) 无人设备的视觉传感装置以及具有其的无人设备
KR101319525B1 (ko) 이동 로봇을 이용하여 목표물의 위치 정보를 제공하기 위한 시스템
CN103472434B (zh) 一种机器人声音定位方法
JP6906821B6 (ja) 移動ロボット
KR20180031153A (ko) 공항 로봇 및 그와 연결되는 서버의 동작 방법
KR101319526B1 (ko) 이동 로봇을 이용하여 목표물의 위치 정보를 제공하기 위한 방법
KR101040528B1 (ko) 지형감지 센서조립체 및 이를 구비하는 자율이동 플랫폼
KR100784125B1 (ko) 단일 카메라를 이용한 이동 로봇의 랜드 마크의 좌표 추출방법
JP2002213920A (ja) 移動体の位置認識方法および装置
CN203053428U (zh) 一种光学成像式轮式移动机器人方位的检测装置
WO2020103297A1 (zh) 机器人的传感器布局系统
CN111007522A (zh) 一种移动机器人的位置确定系统
CN113156952B (zh) 基于导轨的无人移动设备及系统、移动控制装置和方法
CN114003041A (zh) 一种多无人车协同探测系统
CN112925326A (zh) 一种基于激光雷达和深度相机数据融合的agv避障方法
US20240231376A1 (en) System and magnetic marker detection method
CN219516119U (zh) 一种扫地机器人

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18940501

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021500384

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 3120403

Country of ref document: CA

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018940501

Country of ref document: EP

Effective date: 20210621