CN104117987B - 移动机器人 - Google Patents

移动机器人 Download PDF

Info

Publication number
CN104117987B
CN104117987B CN201310159582.3A CN201310159582A CN104117987B CN 104117987 B CN104117987 B CN 104117987B CN 201310159582 A CN201310159582 A CN 201310159582A CN 104117987 B CN104117987 B CN 104117987B
Authority
CN
China
Prior art keywords
light
mobile robot
unit
mobile
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201310159582.3A
Other languages
English (en)
Other versions
CN104117987A (zh
Inventor
陈豪宇
洪士哲
冷耀世
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MSI Computer Shenzhen Co Ltd
Original Assignee
MSI Computer Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MSI Computer Shenzhen Co Ltd filed Critical MSI Computer Shenzhen Co Ltd
Priority to CN201310159582.3A priority Critical patent/CN104117987B/zh
Priority to JP2013005414U priority patent/JP3187472U/ja
Priority to US14/139,343 priority patent/US9052720B2/en
Priority to DE202014100346.0U priority patent/DE202014100346U1/de
Publication of CN104117987A publication Critical patent/CN104117987A/zh
Application granted granted Critical
Publication of CN104117987B publication Critical patent/CN104117987B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Abstract

本发明公开了一种移动机器人,包括一光发射单元、一处理单元、一光学构件、一影像感测单元、一控制单元以及一移动单元。光发射单元用以发出一主光束。处理单元处理主光束,用以产生多个次光束。次光束构成一光线。当次光束的部分照射一第一物体时,第一物体产生多个环境反射光束。光学构件接收环境反射光束,用以产生一集中光束。影像感测单元接收集中光束并输出第一检测结果给控制单元,控制单元根据第一检测结果产生一第一深度资讯,并根据第一深度资讯,控制移动单元,用以控制移动机器人的行为模式。本发明可快速且有效率地测量景深。

Description

移动机器人
技术领域
本发明涉及一种移动机器人,特别涉及一种可快速且有效率地测量景深的移动机器人。
背景技术
移动机器人在未知环境中的移动是需要依靠感测装置测量的结果,如果测量的资讯不足,对于移动机器人来说移动是一件危险的事。
发明内容
本发明的目的在于提供一种移动机器人,包括一光发射单元、一处理单元、一光学构件、一影像感测单元、一控制单元以及一移动单元。光发射单元用以发出一主光束。处理单元处理主光束,用以产生多个次光束。次光束构成一光线,该光线具有一照射范围。当次光束的部分照射一第一物体时,第一物体产生多个环境反射光束。光学构件接收环境反射光束,用以产生一集中光束。影像感测单元接收集中光束并输出第一检测结果。控制单元根据第一检测结果产生一第一深度资讯,并通过移动单元控制移动机器人的一行为模式。
本发明的移动机器人,优选的,其中该光线平行一地面。
本发明的移动机器人,优选的,其中该处理单元朝一地面发射该多个次光束。
本发明的移动机器人,优选的,其中该处理单元根据该主光束,产生多个检测光束,该处理单元朝一地面发射该多个检测光束,该光线平行该地面。
本发明的移动机器人,优选的,其中当该多个检测光束的部分照射一第二物体时,该第二物体产生多个路面反射光束,该光学构件接收该多个路面反射光束,用以产生一第二集中光束,该影像感测单元根据该第二集中光束,产生一第二检测结果,该控制单元根据该第二检测结果产生一第二深度资讯,并通过该移动单元,调整移动机器人的行进路径。
本发明的移动机器人,优选的,其中该光线为一平面光或是一曲面光.。
本发明的移动机器人,优选的,其中该多个次光束依序被产生。
本发明的移动机器人,优选的,其中该多个次光束同时被产生。
本发明的移动机器人,优选的,其中该处理单元反射该主光束,用以产生该多个次光束。
本发明的移动机器人,优选的,其中该处理单元包括:一固定座;一镜面,连接该固定座,用以反射该主光束,其中该控制单元旋转该固定座。
本发明的移动机器人,优选的,其中该处理单元为一锥状镜面。
本发明的移动机器人,优选的,其中该处理单元折射该主光束。
本发明的移动机器人,优选的,其中该处理单元为一柱状透镜。
本发明的移动机器人,优选的,其中该柱状透镜具有一表面,该表面具有一第一区域以及一第二区域,该第一区域具有一第一反射膜,该第二区域具有一第二反射膜,该第一反射膜的厚度等于该第二反射膜的厚度。
本发明的移动机器人,优选的,其中该柱状透镜具有一表面,该表面具有一第一区域以及一第二区域,该第一区域具有一第一反射膜,该第二区域具有一第二反射膜,该第一反射膜的厚度不同于该第二反射膜的厚度。
本发明的移动机器人,优选的,其中该柱状透镜具有一表面,该表面具有一反射膜,该反射膜由一蒸镀方式所形成。
本发明的移动机器人,优选的,其中该处理单元绕射该主光束。
本发明的移动机器人,优选的,其中该处理单元为一光栅透镜。
本发明的移动机器人,优选的,其中该光发射单元包括一激光发射器。
本发明的移动机器人,优选的,其中该光线为一类线状光线。
本发明的移动机器人,优选的,其中该控制单元根据该深度资讯,从至少一预设行为模式中,选择一者作为该移动机器人的该行为模式、或是根据该深度资讯以及一随机方式,决定该移动机器人的该行为模式、或是根据该深度资讯以及一控制指令,决定该移动机器人的该行为模式,该控制指令由一使用者以直接或间接方式所设定。
本发明的移动机器人,优选的,其中该移动机器人根据该预设行为模式,直线移动、沿障碍物移动、随机数决定移动方向、定点旋转、漩涡式旋转、边走边转、加速、减速、倒退或停止。
本发明的移动机器人,优选的,其中使用者以视距外操控来调整该移动机器人的该行为模式。
本发明的有益效果在于,本发明的移动机器人,为可快速且有效率地测量景深的移动机器人,避免了移动机器人因测量资讯不足所带来的危险。
为让本发明的特征和优点能更明显易懂,下文特举出较佳实施例,并配合附图,作详细说明如下:
附图说明
图1A为本发明的移动机器人的一可能实施例。
图1B为本发明的移动机器人的另一可能实施例。
图2为本发明的移动机器人的主视图。
图3-图5为本发明的移动机器人的侧视图。
其中,附图标记说明如下:
100、100’:移动机器人;101:光发射单元;102、108:处理单元;103:光学构件;104:影像感测单元;105:控制单元;106:移动单元;110、12:曲面光;201、202:边界;203:角度;300:外壳;301:固定座;302:镜面;303:驱动器;304:滚轮;401:柱状透镜;501:光栅透镜;LM:主光束;LS1~LS5S:次光束;LR1~LR4:环境反射光束;SDT1、SDT2:集中光束;IFM1、IFM2:检测结果;SC1~SC2:控制信号;LS6~LS10:检测光束;LR5~LR8:路面反射光束。
具体实施方式
图1A为本发明的移动机器人的一可能实施例。如图所示,移动机器人100包括一光发射单元101、一处理单元102、一光学构件103、一影像感测单元104、一控制单元105以及一移动单元106。在本实施例中,移动机器人100发出一光束,并进行全域检测(即检测360°的周围环境),建立一深度资讯,再根据深度资讯,规划一行为模式(relevant behavior)。
光发射单元101发出一主光束LM。本发明并不限定主光束的种类。在一可能实施例中,主光束LM为一可见光或是一不可见光。另外,本发明亦不限定光发射单元101的内部电路架构。只要能够发出光束的电路架构,均可作为光发射单元101。在一可能实施例中,光发射单元101具有一激光发射器(未显示),用以发出激光。在其它实施例中,光发射单元101具有一红外线发射器(未显示)。
处理单元102处理主光束LM,用以产生多个次光束。为方便说明,图1A仅显示次光束LS1~LS5。次光束LS1~LS5构成一光线110,其中光线110具有一照射范围,即次光束LS1~LS5所涵括的范围。本发明并不限定处理单元102产生次光束LS1~LS5的顺序。在一可能实施例中,次光束LS1~LS5依序被产生。在另一可能实施例中,次光束LS1~LS5同时被产生。在其它实施例中,光线110为一类线状光线。当次光束LS1~LS5的部分照射一物体时,该物体将反射次光束,用以产生多个环境反射光束LR1~LR4。本发明并不限定处理单元102的内部架构。只要能够将一主光束转换成多个次光束的硬件架构,均可作为处理单元102。
将类线状光线照射到一平面所投影由光点所组成的图案中,从该群光点集合中取三点以上所成的子集合A,该子集合A计算线性回归得到决定系数(coefficient ofdetermination)大于0.9。
或该群光点集合中取四点以上所成的子集合B,该子集合B计算二次回归得到决定系数(coefficient of determination)大于0.9。
光学构件103接收多个环境反射光束,用以产生一集中光束SDT1。为方便说明,图1A仅显示环境反射光束LR1~LR4,其中环境反射光束LR1~LR4来自不同方向的反射光。在本实施例中,光学构件103具有全域视觉检测,可接收360°范围内的所有环境反射光束。本发明并不限定光学构件103的种类。在一可能实施例中,光学构件103为一反射镜面(mirror),用以反射环境反射光束。在另一可能实施例中,光学构件103为一环广域镜面(omnidirectional and wide angle lens)。
影像感测单元104耦接光学构件103,并感测光学构件103所产生的集中光束SDT1,用以产生一检测结果IFM1。本发明并不限定影像感测单元104如何感测光学构件103所产生的的集中光束SDT1。在一可能实施例中,影像感测单元104通过一电荷耦合元件(Charge-coupled Device;CCD)或是一互补性金属氧化物半导体(Complementary Metal-OxideSemiconductor;CMOS),感测光学构件103所产生的集中光束SDT1。另外,本发明并不限定影像感测单元104的种类。在一可能实施例中,影像感测单元104为一相机(camera)或是一摄影机。
控制单元105耦接影像感测单元104,用以根据影像感测单元104所产生的检测结果IFM1,产生一深度资讯,并根据深度资讯产生一控制信号SC1。控制单元105提供控制信号SC1予移动单元106,用以通过移动单元106,控制移动机器人100的行为模式,如控制移动机器人100的行进路径。在一可能实施例中,移动单元106耦接控制单元105,并具有多个滚轮(未显示)以及一驱动器(未显示)。移动单元106内的驱动器根据控制信号SC1,控制滚轮的转动方向,进而调整移动机器人100的行为模式。
在一可能实施例中,控制单元105具有至少一预设行为模式。控制单元105根据深度资讯,从至少一预设行为模式中,选择一者作为移动机器人100的行为模式。预设行为模式至少包括,直线移动、沿障碍物移动、随机数决定移动方向、定点旋转、漩涡式旋转、边走边转、加速、减速、倒退与停止…等。
在另一可能实施例中,控制单元105随机产生一行为模式。控制单元105根据所有感测信号反馈的结果及/或根据各传感器的权重或优先权条件,产出单一行为模式或多个行为模式的组合。在此例中,控制单元105所产生的行为模式并非预设值。
在另一实施例中,控制单元105根据一控制指令(未显示),产生一相对应行为模式。在此例中,控制指令可为使用者以直接或间接方式所设定。在一可能实施例中,使用者直接以接触方式,如按压移动机器人100附属的功能按键,调整移动机器人100的行为模式,或是非接触式方式,如遥控器,程序软件,视距外操控,调整移动机器人100的行为模式。
视距外操控指可以被障碍物阻挡所形成无法直接观察的情形下,仍可操控的方式。例如传输指令可通过互联\电话网络\无线电信号\光线\声音\气味\热传递\振动\幅射等方式传递。
在一些实施例中,控制单元105所产生的行为模式改变移动机器人100的运动位置、方向、角度、速度、角速度、加速度与角加速度…等。在其它实施例中,控制单元105所产生的行为模式改变移动机器人100与周围环境中至少一物体之间的相对关系,或是改变移动机器人100内部的元件相对状态、或是改变移动机器人100与周边配合装置的相对状态…等。
本发明并不限定控制单元105的内部电路架构。在一可能实施例中,控制单元105具有多个微控制器(micro-controller)、处理器(processor)、内存(memory)及逻辑电路(logic circuit)。在其它实施例中,控制单元105产生另一控制信号SC2,用以开启或关闭光发射单元101。举例而言,在一第一期间,控制单元105关闭光发射单元101。此时,光学构件103接收移动机器人100周围的反射光。影像感测单元104根据光学构件103的接收结果,产生一第一检测结果。控制单元105存储第一检测结果。在一第二期间,控制单元105开启光发射单元101。此时,处理单元102产生次光束LS1~LS5。当次光束LS1~LS5照射到物体时,物体反射次光束LS1~LS5,用以产生环境反射光束LR1~LR4。光学构件103接收环境反射光束LR1~LR4。影像感测单元104根据光学构件103的接收结果,产生一第二检测结果。控制单元105比较第一及第二检测结果,用以在第二检测结果中区分出反射光束LR1~LR4,并根据区分结果,得知移动机器人100与周围物体间的距离。在此例中,控制单元105适当地开启或关闭光发射单元101,并根据时间相近的两画面,求得移动机器人100与周围物体间的距离。
由于光学构件103具有全域视觉能力,也就是具有360°的检测角度,因此,光学构件103可接收移动机器人100周围的所有反射光。当移动机器人100进入一窄小的空间时,控制单元105可根据光学构件103的接收结果,调整滚轮的转动方向,用以快速离开窄小空间,以避免移动机器人100持续陷于窄小空间中。
图1B为本发明的移动机器人的另一可能实施例。图1B相似图1A,不同之处在于图1B的移动机器人100’多了一处理单元108。在本实施例中,处理单元108处理主光束LM,用以产生多个检测光束。为方便说明,图1B仅显示检测光束LS6~LS10。检测光束LS6~LS10构成一光线120,其中光线120具有一照射范围,即检测光束LS6~LS10所涵括的范围。
当检测光束LS6~LS10的部分照射一物体时,该物体产生多个路面反射光束LR5~LR8。光学构件103接收路面反射光束LR5~LR8,用以产生一集中光束SDT2。影像感测单元104根据集中光束SDT2,产生一检测结果IFM2。控制单元105根据检测结果IFM2,产生控制信号SC1,用以调整滚轮的转动方向。
在一可能实施中,当处理单元102产生光线110时,处理单元108停止产生光线120。因此,光学构件103只会接收到环境反射光束LR1~LR4。在另一可能实施例中,当处理单元108产生光线120时,处理单元102停止产生光线110。因此,光学构件103只会接收到路面反射光束LR5~LR8。在其它实施例中,处理单元102产生光线110的同时,处理单元108也产生光线120。因此,光学构件103会同时接收到环境反射光束LR1~LR4及路面反射光束LR5~LR8
本发明并不限定光线110及120的照射方向。在一可能实施例中,处理单元102所产生的光线110平行一地面,用以检测周围环境里的物体位置,而处理单元108朝地面发射检测光束LS6~LS10,用以检测路面的状况,如是否为凹凸不平的路面。通过光学构件103所接收到的环境反射光束LR1~LR4,可避免移动机器人100碰撞到周围环境里的障碍物。另外,通过光学构件103所接收到的路面反射光束LR5~LR8,可避免移动机器人100从高处摔下。
本发明并不限定光线110及120的形状。在一可能实施例中,光线110及120均为平面光线或是一曲面光线。另外,本发明亦不限定处理单元102及108产生光线110及120的方式。在本实施例中,处理单元102及108根据同一光发射单元(如101)所发出的主光束LM,产生光线110及120。举例而言,通过调整光发射单元101的位置,便可使主光束LM照射处理单元102或108,用以产生光线110或120。在其它实施例中,通过调整处理单元102及108的位置,便可接收到光发射单元101所发出的主光束LM。在另一可能实施例中,处理单元102及108分别根据不同的主光束产生光线110及120。在此例中,移动机器人100’具有两光发射单元。
图2为本发明的移动机器人的主视图。如图所示,移动机器人100所发出的次光束LS1~LS5可构成一光线110。光线110具有边界201及202。边界201及202之间具有一角度203。本发明并不限定角度203的大小。在一可能实施例中,边界201及202间的角度203大于180度。在另一可能实施例中,角度203接近360度。
图3为本发明的移动机器人的一侧视图。如图所示,移动机器人100包括一外壳300。光发射器101设置于外壳300之中,并发射一主光束LM。处理单元102设置于外壳300之外,用以接收并处理主光束LM。在本实施例中,处理单元102反射主光束LM,用以产生次光束LS1~LS5,其中次光束LS1~LS5形成光线110。在一可能实施例中,光线110平行地面305。
本发明并不限定处理单元102的内部架构。只要能够将一光束处理成多个次光束的架构,均可作为处理单元102。如图所示,处理单元102包括一固定座301以及一镜面302。镜面302具有一倾斜角度,并连接固定座301的中心。本发明并不限定镜面302的倾斜角度的大小。在一可能实施例中,镜面302的倾斜角度约45°。在其它实施例中,通过控制镜面302的倾斜角度,便可控制光线110的照射方向,如向地面305照射或是朝移动机器人100的前方照射(如图3所示)。
在本实施例中,控制单元105旋转固定座301。因此,镜面302可将主光束LM反射至不同方向,其中往不同方向延伸的反射光称为次光束。再者,镜面302所产生的反射光可构成光线110。在此例中,镜面302依序产生不同方向的反射光,也就是说镜面302所产生的多个次光并非同时产生。
光学构件103设置于外壳300的上方,用以接收反射光。本发明并不限定光学构件103与处理单元102之间的距离。只要光学构件103不位于光线110的照射范围内即可。在其它实施例中,当光学构件103与处理单元102之间的距离愈大时,则可得知较精确的深度资讯。
影像感测单元104设置于外壳300之中,并位于光学构件103的正下方,用以检测光学构件103所产生的的集中光束。控制单元105根据影像感测单元104的检测结果,产生控制信号SC1。移动单元106的驱动器303根据控制信号SC1,控制滚轮304的转动方向。为方便说明,图3仅显示单一滚轮,但并非用以限制本发明。在其它实施例中,移动机器人100具有多个滚轮。在本实施例中,滚轮304露出外壳300,并位于外壳300的下方。
在其它实施例中,可利用一锥状镜面(未显示)取代镜面302。由于锥状镜面可根据一主光束LM产生多个反射光束,并且不同的反射光束系往不同方向延伸,因此,控制单元105不需旋转固定座。在一可能实施例中,可省略固定座301。另外,锥状镜面同时产生多个反射光束。
图4为本发明的处理单元的另一实施例。图4相似图3,不同之处在于图4的处理单元102以折射的方式,处理主光束LM。由于图4的其它元件的动作原理与图3相同,故不再赘述。在本实施例中,处理单元102为一柱状透镜401。柱状透镜401折射主光束LM,用以产生多个发散光束,其中多个发散光束往不同方向延伸,并构成光线110。光线110具有一发散角度,约略120°。在一可能实施例中,柱状透镜401同时产生多个发散光束。
在另一可能实施例中,可在柱状透镜401的表面镀上一层反射膜,用以提高柱状透镜401的的发散角度。另外,通过调整光发射单元101及柱状透镜401的位置,便可控制光线110的照射方向。在本实施例中,光线110朝移动机器人100的前方照射。
本发明并不限定形成反射膜的方式。在一可能实施例中,通过一蒸镀方式(deposition),便可在柱状透镜401的表面形成一反射膜。另外,反射膜可能均匀或不均匀地形成在柱状透镜401的表面上。假设,柱状透镜401的一表面具有一第一区域以及一第二区域。第一区域具有一第一反射膜,而第二区域具有一第二反射膜。在一可能实施例中,第一反射膜的厚度不同或相同于第二反射膜的厚度。在其它实施例中,柱状透镜401的一表面上的反射膜的厚度不同或相同于柱状透镜401的另一表面上的反射膜的厚度。
图5为本发明的处理单元的另一实施例。图5相似图3,不同之处在于图5的处理单元102以绕射的方式,处理主光束LM。由于图5的其它元件与图3相同,故不再显示。在本实施例中,处理单元102为一光栅透镜501。光栅透镜501具有一特定图案(未显示),用以将主光束LM绕射成多个次光束。在此例中,光栅透镜501同时产生多个次光束。
在图3-图5中,移动机器人100仅具有单一处理单元102,用以产生一光线110,但并非用以限制本发明。在另一实施例中,可增加一处理单元108于图3-图5所示的移动机器人100中,用以产生另一光线120。通过调整光发射单元101及处理单元102、108的设置位置,便可控制光线110及120的照射方向,如朝移动机器人100的前方或下方照射。
在其它实施例中,移动机器人100可能具有两光发射单元及两处理单元。不同的处理单元处理不同的光发射单元所产生的主光束。在另一实施例中,移动机器人100可能具有两光发射单元及一处理单元。处理单元根据不同光发射单元所产生的主光束,提供不同方向的光线。在此例中,两光发射单元可能同时或不同时发射主光束。
除非另作定义,在此所有词汇(包含技术与科学词汇)均属本发明所属技术领域中的技术人员的一般理解。此外,除非明白表示,词汇于一般字典中的定义应解释为与其相关技术领域的文章中意义一致,而不应解释为理想状态或过分正式的语态。
虽然本发明已以较佳实施例揭示如上,然其并非用以限定本发明,任何所属技术领域中的技术人员,在不脱离本发明的精神和范围内,当可作些许的更动与润饰,因此本发明的保护范围当视权利要求所界定者为准。

Claims (23)

1.一种移动机器人,其特征在于,包括:
一光发射单元,用以发出一主光束;
一处理单元,处理该主光束,用以产生多个次光束,其中该多个次光束构成一光线,该光线具有一照射范围,当该多个次光束的部分照射一第一物体时,该第一物体产生多个环境反射光束;
一光学构件,接收该多个环境反射光束,用以产生一第一集中光束;
一影像感测单元,根据该第一集中光束,产生一第一检测结果;
一控制单元,根据该第一检测结果,产生一深度资讯;以及
一移动单元,用以移动该移动机器人,其中该控制单元根据该深度资讯,并通过该移动单元,控制该移动机器人的一行为模式。
2.如权利要求1所述的移动机器人,其中该光线平行一地面。
3.如权利要求1所述的移动机器人,其中该处理单元朝一地面发射该多个次光束。
4.如权利要求1所述的移动机器人,其中该处理单元根据该主光束,产生多个检测光束,该处理单元朝一地面发射该多个检测光束,该光线平行该地面。
5.如权利要求4所述的移动机器人,其中当该多个检测光束的部分照射一第二物体时,该第二物体产生多个路面反射光束,该光学构件接收该多个路面反射光束,用以产生一第二集中光束,该影像感测单元根据该第二集中光束,产生一第二检测结果,该控制单元根据该第二检测结果产生一第二深度资讯,并通过该移动单元,调整移动机器人的行进路径。
6.如权利要求1所述的移动机器人,其中该光线为一平面光或是一曲面光。
7.如权利要求1所述的移动机器人,其中该多个次光束依序被产生。
8.如权利要求1所述的移动机器人,其中该多个次光束同时被产生。
9.如权利要求1所述的移动机器人,其中该处理单元反射该主光束,用以产生该多个次光束。
10.如权利要求9所述的移动机器人,其中该处理单元包括:
一固定座;
一镜面,连接该固定座,用以反射该主光束,其中该控制单元旋转该固定座。
11.如权利要求1所述的移动机器人,其中该处理单元为一锥状镜面。
12.如权利要求1所述的移动机器人,其中该处理单元折射该主光束。
13.如权利要求12所述的移动机器人,其中该处理单元为一柱状透镜。
14.如权利要求13所述的移动机器人,其中该柱状透镜具有一表面,该表面具有一第一区域以及一第二区域,该第一区域具有一第一反射膜,该第二区域具有一第二反射膜,该第一反射膜的厚度等于该第二反射膜的厚度。
15.如权利要求13所述的移动机器人,其中该柱状透镜具有一表面,该表面具有一第一区域以及一第二区域,该第一区域具有一第一反射膜,该第二区域具有一第二反射膜,该第一反射膜的厚度不同于该第二反射膜的厚度。
16.如权利要求13所述的移动机器人,其中该柱状透镜具有一表面,该表面具有一反射膜,该反射膜由一蒸镀方式所形成。
17.如权利要求1所述的移动机器人,其中该处理单元绕射该主光束。
18.如权利要求17所述的移动机器人,其中该处理单元为一光栅透镜。
19.如权利要求1所述的移动机器人,其中该光发射单元包括一激光发射器。
20.如权利要求1所述的移动机器人,其中该光线为一类线状光线。
21.如权利要求1所述的移动机器人,其中该控制单元根据该深度资讯,从至少一预设行为模式中,选择一者作为该移动机器人的该行为模式、或是根据该深度资讯以及一随机方式,决定该移动机器人的该行为模式、或是根据该深度资讯以及一控制指令,决定该移动机器人的该行为模式,该控制指令由一使用者以直接或间接方式所设定。
22.如权利要求21所述的移动机器人,其中该移动机器人根据该预设行为模式,直线移动、沿障碍物移动、随机数决定移动方向、定点旋转、漩涡式旋转、边走边转、加速、减速、倒退或停止。
23.如权利要求22所述的移动机器人,其中使用者以视距外操控来调整该移动机器人的该行为模式。
CN201310159582.3A 2013-04-26 2013-04-26 移动机器人 Active CN104117987B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201310159582.3A CN104117987B (zh) 2013-04-26 2013-04-26 移动机器人
JP2013005414U JP3187472U (ja) 2013-04-26 2013-09-19 移動ロボット
US14/139,343 US9052720B2 (en) 2013-04-26 2013-12-23 Mobile robot
DE202014100346.0U DE202014100346U1 (de) 2013-04-26 2014-01-27 Mobiler Roboter

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310159582.3A CN104117987B (zh) 2013-04-26 2013-04-26 移动机器人

Publications (2)

Publication Number Publication Date
CN104117987A CN104117987A (zh) 2014-10-29
CN104117987B true CN104117987B (zh) 2017-05-10

Family

ID=50182213

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310159582.3A Active CN104117987B (zh) 2013-04-26 2013-04-26 移动机器人

Country Status (4)

Country Link
US (1) US9052720B2 (zh)
JP (1) JP3187472U (zh)
CN (1) CN104117987B (zh)
DE (1) DE202014100346U1 (zh)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9202353B1 (en) * 2013-03-14 2015-12-01 Toyota Jidosha Kabushiki Kaisha Vibration modality switching system for providing navigation guidance
GB2529847B (en) * 2014-09-03 2018-12-19 Dyson Technology Ltd A mobile Robot with Independently Adjustable Light Sources
GB2529846B (en) 2014-09-03 2019-02-20 Dyson Technology Ltd Illumination Control of a Vision System for a Mobile Robot
GB2529848B (en) * 2014-09-03 2018-12-19 Dyson Technology Ltd A mobile robot
DE102015109775B3 (de) 2015-06-18 2016-09-22 RobArt GmbH Optischer Triangulationssensor zur Entfernungsmessung
US9746852B1 (en) * 2015-08-17 2017-08-29 X Development Llc Using laser sensors to augment stereo sensor readings for robotic devices
US9886035B1 (en) * 2015-08-17 2018-02-06 X Development Llc Ground plane detection to verify depth sensor status for robot navigation
DE102015114883A1 (de) 2015-09-04 2017-03-09 RobArt GmbH Identifizierung und Lokalisierung einer Basisstation eines autonomen mobilen Roboters
DE102015119501A1 (de) 2015-11-11 2017-05-11 RobArt GmbH Unterteilung von Karten für die Roboternavigation
DE102015119865B4 (de) 2015-11-17 2023-12-21 RobArt GmbH Robotergestützte Bearbeitung einer Oberfläche mittels eines Roboters
DE102015121666B3 (de) 2015-12-11 2017-05-24 RobArt GmbH Fernsteuerung eines mobilen, autonomen Roboters
DE102016102644A1 (de) 2016-02-15 2017-08-17 RobArt GmbH Verfahren zur Steuerung eines autonomen mobilen Roboters
US10386847B1 (en) * 2016-02-19 2019-08-20 AI Incorporated System and method for guiding heading of a mobile robotic device
US11726490B1 (en) 2016-02-19 2023-08-15 AI Incorporated System and method for guiding heading of a mobile robotic device
US10901431B1 (en) * 2017-01-19 2021-01-26 AI Incorporated System and method for guiding heading of a mobile robotic device
DE102017205195A1 (de) * 2016-07-28 2018-02-01 Robert Bosch Gmbh Laserentfernungsmessgerät
EP3590014B1 (de) 2017-03-02 2021-11-17 Robart GmbH Verfahren zur steuerung eines autonomen, mobilen roboters
CN107097122A (zh) * 2017-06-27 2017-08-29 长春工程学院 一种自主研磨大型自由曲面的机器人
CN107726977A (zh) * 2017-09-26 2018-02-23 京东方科技集团股份有限公司 一种位置检测机构及位置检测方法
US10293489B1 (en) * 2017-12-15 2019-05-21 Ankobot (Shanghai) Smart Technologies Co., Ltd. Control method and system, and cleaning robot using the same
EP3584662B1 (en) 2018-06-19 2022-04-13 Panasonic Intellectual Property Management Co., Ltd. Mobile robot
US11627854B2 (en) 2018-10-22 2023-04-18 Sharkninja Operating Llc Docking station for robotic cleaner
US11597104B2 (en) * 2019-07-31 2023-03-07 X Development Llc Mobile robot sensor configuration
SE544524C2 (en) * 2019-12-06 2022-06-28 Husqvarna Ab Robotic work tool system and method for defining a working area perimeter
SE2051496A1 (en) * 2020-12-18 2022-06-19 Husqvarna Ab Concrete surface processing machines, systems, and methods for processing concrete surfaces
US20240061439A1 (en) * 2020-12-18 2024-02-22 Husqvarna Ab Concrete surface mapping robots, systems, and methods for processing concrete surfaces

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100474196C (zh) * 2005-07-22 2009-04-01 Lg电子株式会社 移动对象定向系统
CN102652654A (zh) * 2011-03-04 2012-09-05 三星电子株式会社 垃圾检测单元及具有该垃圾检测单元的机器人清洁装置
CN102727133A (zh) * 2012-06-28 2012-10-17 柯约瑟 全自动位移清洁装置的移位运作装置
CN103033819A (zh) * 2011-09-28 2013-04-10 三星电子株式会社 障碍传感器以及具有其的机器人清洁器
CN203650524U (zh) * 2013-04-26 2014-06-18 恩斯迈电子(深圳)有限公司 移动机器人

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006231477A (ja) * 2005-02-25 2006-09-07 Mitsubishi Heavy Ind Ltd 移動体における距離検出手段の校正方法
TWM294508U (en) * 2005-12-27 2006-07-21 Supply Internat Co Ltd E Self-moving device with obstacle-detecting function
US8242384B2 (en) * 2009-09-30 2012-08-14 International Business Machines Corporation Through hole-vias in multi-layer printed circuit boards
US9400503B2 (en) * 2010-05-20 2016-07-26 Irobot Corporation Mobile human interface robot
US8958911B2 (en) * 2012-02-29 2015-02-17 Irobot Corporation Mobile robot
US9483055B2 (en) * 2012-12-28 2016-11-01 Irobot Corporation Autonomous coverage robot

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100474196C (zh) * 2005-07-22 2009-04-01 Lg电子株式会社 移动对象定向系统
CN102652654A (zh) * 2011-03-04 2012-09-05 三星电子株式会社 垃圾检测单元及具有该垃圾检测单元的机器人清洁装置
CN103033819A (zh) * 2011-09-28 2013-04-10 三星电子株式会社 障碍传感器以及具有其的机器人清洁器
CN102727133A (zh) * 2012-06-28 2012-10-17 柯约瑟 全自动位移清洁装置的移位运作装置
CN203650524U (zh) * 2013-04-26 2014-06-18 恩斯迈电子(深圳)有限公司 移动机器人

Also Published As

Publication number Publication date
CN104117987A (zh) 2014-10-29
US9052720B2 (en) 2015-06-09
JP3187472U (ja) 2013-11-28
US20140324270A1 (en) 2014-10-30
DE202014100346U1 (de) 2014-02-12

Similar Documents

Publication Publication Date Title
CN104117987B (zh) 移动机器人
CN108141579B (zh) 3d相机
US10823818B2 (en) Detector for optically detecting at least one object
JP6979068B2 (ja) 少なくとも1つの物体を光学的に検出するための検出器
CN110178156A (zh) 包括可调节焦距成像传感器的距离传感器
US10406967B2 (en) Light control systems and methods
CN108603936B (zh) 激光扫描系统、激光扫描方法、非暂时性计算机可读存储介质
US11067692B2 (en) Detector for determining a position of at least one object
US11614524B2 (en) LiDAR system and method of operating the same
EP3440707A1 (en) Detector for optically detecting at least one object
CN109959942A (zh) 距离测量设备、识别设备和距离测量方法
JP2019514016A (ja) 少なくとも1個の物体を光学的に検出する検出器
EP3230691A1 (en) Optical detector
EP3167304A1 (en) Detector for determining a position of at least one object
JP6379277B2 (ja) 追跡方法及び追跡システム
CN203650524U (zh) 移动机器人
TWI444576B (zh) 利用感測器進行追日功能之裝置與方法
JP2018155658A (ja) 物体検出装置、物体検出方法、および物体検出プログラム
CN104792303B (zh) 测距装置及测距方法
US20200116338A1 (en) Optical-effect light, group of lights, arrangement and method
KR101594309B1 (ko) 3차원 거리 측정 시스템 및 이를 이용한 3차원 거리 측정 방법
Hsu et al. General dual wiimote 3D localization scheme: sensitivity analysis and its application on robot arm attitude detection
RU2016149575A (ru) Способ адаптивного сканирования подстилающей поверхности лучом лазерного локатора в режиме информационного обеспечения маловысотного полета
JP2022530349A (ja) 三角測量ライトカーテンを使用したアジャイルな深度感知

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant