CN103119529B - 移动体 - Google Patents
移动体 Download PDFInfo
- Publication number
- CN103119529B CN103119529B CN201180045329.4A CN201180045329A CN103119529B CN 103119529 B CN103119529 B CN 103119529B CN 201180045329 A CN201180045329 A CN 201180045329A CN 103119529 B CN103119529 B CN 103119529B
- Authority
- CN
- China
- Prior art keywords
- action
- moving body
- people
- robot
- moving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000009471 action Effects 0.000 claims abstract description 622
- 230000007246 mechanism Effects 0.000 claims abstract description 126
- 238000013459 approach Methods 0.000 claims abstract description 12
- 238000012360 testing method Methods 0.000 claims abstract description 10
- 230000004888 barrier function Effects 0.000 claims description 34
- 238000004364 calculation method Methods 0.000 claims description 25
- 230000033228 biological regulation Effects 0.000 claims description 14
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 4
- 241000222712 Kinetoplastida Species 0.000 claims description 3
- 230000033001 locomotion Effects 0.000 description 55
- 238000012545 processing Methods 0.000 description 53
- 238000000034 method Methods 0.000 description 43
- 238000004891 communication Methods 0.000 description 26
- 230000008569 process Effects 0.000 description 22
- 238000001514 detection method Methods 0.000 description 21
- 230000000694 effects Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 4
- 230000000452 restraining effect Effects 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000033764 rhythmic process Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 208000035475 disorder Diseases 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000012797 qualification Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 206010020772 Hypertension Diseases 0.000 description 1
- 230000010391 action planning Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000000739 chaotic effect Effects 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 230000007115 recruitment Effects 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D3/00—Control of position or direction
- G05D3/12—Control of position or direction using feedback
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1615—Programme controls characterised by special kind of manipulator, e.g. planar, scara, gantry, cantilever, space, closed chain, passive/active joints and tendon driven manipulators
- B25J9/162—Mobile manipulator, movable base with manipulator arm mounted on it
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39091—Avoid collision with moving obstacles
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40198—Contact with human allowed if under pain tolerance limit
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40203—Detect position of operator, create non material barrier to protect operator
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Human Computer Interaction (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
本发明的目的是提供一种移动体,所述移动体通过计划移动体的回避动作和对移动障碍物期待的期待回避动作,可以提高回避动作的效率,本发明的移动体是根据动作目标移动的移动体(1),配备有:检测存在于移动体(1)的周边的移动障碍物的移动障碍物检测机构(6)、(7);判定移动障碍物和移动体是否接近到规定间隔以内的接近判定机构(15);在接近判定机构(15)判定为移动障碍物和移动体(1)接近到规定间隔以内的情况下、计划移动体(1)的回避动作及对移动障碍物期待的期待回避动作的动作计划机构(16)。
Description
技术领域
本发明涉及机器人、机械手、以及移动装置等移动体。
背景技术
过去,作为该领域的技术文献,已知有日本特许2008-137127号公报。在该公报中记载了一种机器人的控制方法,所述控制方法在预测到发生自律型移动机器人与人的接触的情况下,限制机器人的动作,以便不与人的要害部位接触。
现有技术文献
专利文献
专利文献1:日本特许2008-137127号公报
发明内容
发明所要解决的课题
过去,基于极力使机器人不与人接触的原则,以人的动作为最优先,使机器人回避人的动作,或者进行限制机器人的动作的机器人控制,。在上述现有技术的机器人控制中,在预测到与人接触的情况下,限制机器人侧的动作,使之与人配合。
但是,在单方面地使机器人回避或者对其进行动作限制的现有技术的控制中,由于在杂乱的情况下,与人的接触的可能性高的状态持续发生,所以,存在着机器人不能高效率地实现自己的任务的担忧。
因此,本发明的目的是提供一种移动体,所述移动体通过计划移动体的回避动作和对移动障碍物所期待的期待回避动作,可以高效率地进行所给予的任务。
解决课题的手段
为了解决上述课题,本发明为一种移动体,所述移动体根据动作目标进行移动,其特征在于,所述移动体具备:移动障碍物检测机构,所述移动障碍物检测机构检测存在于移动体的周边的移动障碍物;接近判定机构,所述接近判定机构判定移动障碍物和移动体是否接近到规定间隔以内;动作计划机构,在接近判定机构判定为移动障碍物和移动体接近到规定间隔以内的情况下,所述动作计划机构计划移动体的回避动作以及对移动障碍物所期待的期待回避动作。
根据本发明的移动体,由于在人等移动障碍物接近到移动体的规定间隔(安全限度等)以内的情况下,通常不仅移动体、而且移动障碍物也进行回避动作,所以,通过和移动体的回避动作一起,计划作为对移动障碍物期待的回避动作的期待回避动作,与移动体单方面回避的情况相比,可以高效率地进行回避动作,可以高效率地进行所给予的任务。
在根据本发明的移动体中,优选地,所述移动体还具备驱使动作计划机构,所述驱使动作计划机构根据动作计划机构计划的期待回避动作,计划对移动障碍物的驱使动作。
根据本发明的移动体,通过进行引导移动障碍物的驱使动作以使移动障碍物进行期待回避动作,可以提高移动障碍物侧理解移动体的意图并进行期待回避动作的可能性。并且,通过移动体进行对应于期待回避动作的回避动作,可以在移动体与移动障碍物之间实现象人类彼此间进行的相互让步。这样,可以通过较少的动作高效率地进行回避或错开。
在根据本发明的移动体中,优选地,所述移动体还具备接触允许程度计算机构,所述接触允许程度计算机构计算移动体对移动障碍物的接触允许程度,动作计划机构根据接触允许程度计算机构计算出的接触允许程度,计划移动体的回避动作和对移动障碍物所期待的期待回避动作。
根据本发明的移动体,由于允许某种程度的接触并计划回避动作及期待回避动作,所以,与不允许接触的情况相比,可以使移动体的移动范围具有余量。因此,即使在杂乱的环境下,也能够容易地制订移动体能够高效率地移动的计划。
在根据本发明的移动体中,优选地,所述移动体还具备接触允许程度计算机构,所述接触允许程度计算机构计算移动体对移动障碍物的接触允许程度,驱使动作计划机构根据接触允许程度计算机构计算出的接触允许程度,计划包括对移动障碍物的接触动作在内的驱使动作。
根据本发明的移动体,通过计划包含对移动障碍物的接触动作在内的驱使动作,对转过身去的人等进行包含接触在内的驱使,借此,可以使其注意到移动体的存在。另外,通过调整力的施加方向或接触方向,可以直接告知想要向哪个方向、以何种程度移动,与非接触的通信相比,能够进行容易简单地传达的驱使。
在根据本发明的移动体中,优选地,所述移动体还具备优先关系判断机构,在接近判定机构判定为移动障碍物和移动体接近到规定间隔以内的情况下,所述优先关系判断机构判断移动障碍物和移动体的优先关系,动作计划机构根据优先关系判断机构的判断结果,计划移动体的回避动作和对移动障碍物所期待的期待回避动作。
根据本发明的移动体,通过根据移动体和移动障碍物的优先关系来计划动作,能够制订与情况相适应的恰当的动作计划。具体地说,能够在移动障碍物是拿着大的重物的人或者是老人的情况下,判定为移动障碍物的优先度高,制订移动体侧进行大的规避的动作计划。另外,能够在移动体为医疗等的紧急性高的目的移动的情况下,判定为移动体的优先度高,制订希望在移动障碍物侧进行大规避动作的动作计划。
在根据本发明的移动体中,优选地,所述移动体还具备优先关系判断机构,在接近判定机构判定为移动障碍物和移动体接近到规定间隔以内的情况下,所述优先关系判断机构判断移动障碍物和移动体的优先关系,驱使动作计划机构根据优先关系判断机构的判断结果,计划对移动障碍物的驱使动作。
根据本发明的移动体,通过根据移动体和移动障碍物的优先关系来计划驱使动作,能够计划与情况相适应的恰当的驱使动作。具体地说,可以通过对老人等优先的移动障碍物进行弱的主张的驱使,使移动障碍物侧的动作优先。另外,在移动体优先的情况下,可以通过进行强的主张的驱使,使移动障碍物采取期待回避动作,可以使移动体的动作优先。
在根据本发明的移动体中,优选地,所述移动体还具备优先关系判断机构,在接近判定机构判定为移动障碍物和移动体接近到规定间隔以内的情况下,所述优先关系判断机构判断移动障碍物和移动体的优先关系,接触允许程度计算机构根据优先关系判断机构的判断结果,计算接触允许程度。
根据本发明的移动体,由于可以根据移动体和移动障碍物的优先关系计算出接触允许程度,所以,通过对老人等优先的移动障碍物避免接触,可以使移动障碍物侧的动作优先。另外,在移动体优先的情况下,能够通过积极地允许接触使移动体的动作优先。
在根据本发明的移动体中,优选地,所述移动体还具备亲和性计算机构,在移动障碍物是人的情况下,所述亲和性计算机构计算该人对移动体的亲和性,动作计划机构根据亲和性计算机构计算出的亲和性,计划移动体的回避动作和对人所期待的期待回避动作。
根据本发明的移动体,可以通过根据人对移动体的亲和性来计划动作,不使人怀有不安感或者不快感地实现相互让步。具体地说,在移动体是自律移动型机器人的情况下,由于老人具有对机器人的亲和性低的倾向,所以,通过机器人侧进行大的回避,可以使老人不怀有不安感或不快感。
在根据本发明的移动体中,优选地,所述移动体还具备亲和性计算机构,在移动障碍物是人的情况下,所述亲和性计算机构计算该人对移动体的亲和性,驱使动作计划机构根据亲和性计算机构计算出的亲和性,计划对移动障碍物的驱使动作。
根据本发明的移动体,能够根据人对移动体的亲和性,计划不使人怀有不安感或不快感的驱使动作。具体地说,在移动体是自律移动型机器人的情况下,由于老人具有对机器人的亲和性低的倾向,所以,不进行通过接触或者大音量的声音实现的驱使动作,通过不进行驱使动作或者仅限于弱的驱使动作,可以不使老人怀有不安感或不快感。
在根据本发明的移动体中,优选地,所述移动体还具备动作目标生成机构,所述动作目标生成机构生成移动体的动作目标;动作预测机构,所述动作预测机构预测移动障碍物检测机构检测出的移动障碍物的动作,接近判定机构根据动作目标生成机构生成的动作目标和动作预测机构预测出的移动障碍物的动作,判定移动障碍物和移动体是否接近到规定间隔以内。
根据本发明的移动体,通过不掩盖(非隐)移动体的动作目标和移动障碍物的预测的动作,可以高精度地判定移动障碍物和移动体是否接近到规定间隔以内。
在根据本发明分移动体中,优选地,动作计划机构根据所计划的回避动作与动作目标生成机构生成的动作目标的偏离度,以及所计划的期待回避动作与动作预测机构预测出的移动障碍物的动作的偏离度,再次计划回避动作和期待回避动作。
根据本发明的移动体,通过根据所计划的回避动作与自己的动作目标的偏离度、和所计划的期待回避动作与预测的移动障碍物的动作的偏离度进行修正,能够以期待回避动作不成为移动障碍物的过分的负担、并且回避动作不过分偏离自己的动作目标的方式来计划动作。
在根据本发明的移动体中,动作计划机构也可以根据移动体的回避动作以及对移动障碍物所期待的期待回避动作,计划移动体的多个候补动作,预测多个候补动作的动作结果,并且,从多个候补动作中选出被预测为动作结果满足规定的制约条件的候补动作。
根据本发明的移动体,通过从多个候补动作中选出被预测为满足对移动障碍物接近或驱使的强度等的规定的制约条件的候补动作,避免进行驱使过强等实际上不恰当的动作,可以进行满足制约条件的恰当的动作。
根据本发明的移动体,可以是自律移动型机器人。
根据本发明的移动体,可以是机械手式机器人。
根据本发明的移动体,可以是个人移动装置。
发明的效果
根据本发明,通过计划移动体的回避动作和对移动障碍物期待的期待回避动作,可以高效率地进行所给予的任务。
附图说明
图1是表示根据本发明的移动体的第一种实施方式的结构的框图。
图2是表示根据第一种实施方式的控制装置的控制步骤的流程图。
图3是表示根据本发明的移动体的第二种实施方式的结构的框图。
图4是表示根据第二种实施方式的控制装置的控制步骤的流程图。
图5是表示根据本发明的移动体的第三种实施方式的结构的框图。
图6是表示根据第三种实施方式的控制装置的控制步骤的流程图。
图7是表示根据本发明的移动体的第四种实施方式的结构的框图。
图8是表示根据第四种实施方式的控制装置的控制步骤的流程图。
图9是表示根据本发明的移动体的第五种实施方式的结构的框图。
图10是表示根据第五种实施方式的控制装置的控制步骤的流程图。
图11是表示根据本发明的移动体的第六种实施方式的结构的框图。
图12是表示根据第六种实施方式的控制装置的控制步骤的流程图。
图13是表示根据本发明的移动体的第七种实施方式的结构的框图。
图14是表示根据第七种实施方式的控制装置的控制步骤的流程图。
图15是表示根据本发明的移动体的第八种实施方式的结构的框图。
图16是表示根据第八种实施方式的控制装置的控制步骤的流程图。
图17是表示根据本发明的移动体的第九种实施方式的结构的框图。
图18是表示根据第九种实施方式的控制装置的控制步骤的流程图。
图19是表示根据本发明的移动体的第十种实施方式的结构的框图。
图20是表示根据第十种实施方式的控制装置的控制步骤的流程图。
具体实施方式
下面,参照附图详细说明本发明的优选的实施方式。另外,在各个图中,对于相同或者相当的部分,赋予相同的标号,省略其重复说明。
[第一种实施方式]
在第一种实施方式中,作为根据本发明的移动体,说明自律移动型机器人1。对该自律移动型机器人1的用途及形式没有特定的限制。自律移动型机器人1可以是清扫用机器人或搬运用的机器人车。另外,自律移动型机器人1的移动方法可以是车轮,也可以是双脚步行。
自律移动型机器人1,在人的动作与机器人的动作相互干扰的情况下,和自己的回避动作一起,计划对人期待回避的期待回避动作,通过进行引导人的驱使以进行期待回避动作,在人与机器人之间实现在象人类相互之间进行的相互让步。采用这种自律移动型机器人1,即使在杂乱的环境中,也可以通过与周围的人的相互让步,达到自己的动作目标,可以实现人和机器人的共存。
即,在人相互之间,在通常时即使相当混乱,也能够照样自由地移动。另一方面,已知,在遇到灾害时,人相互之间到处发生拥挤(人体不能自由活动的状态),为了避免拥挤,有秩序地移动是至关重要的。这暗示着,作为在密度高的状态下人能够顺利地活动的理由,人常常必须能够不自觉地进行相互让步。因此,通过在人和机器人的双方的动作中引入人相互之间所具有的相互让步,可以实现高效率的回避动作。
这里,可以考虑机器人和人的相互让步通过下面三个步骤而成立:(A)人理解机器人的意图,(B)机器人理解人的意图,(C)调整两者的意图。在实现相互让步的过程中,重要的是做到人可以理解机器人的意图。即,优选地,机器人作为主体来判断与人以什么样的关系来错开好,并且,如何对人如何做出该主张,以实施行动。
因此,自律移动型机器人1,在计划自己的回避动作和对人期待的期待回避动作之后,计划用于引导人进行期待回避动作的驱使动作。作为驱使动作,可以列举出手势、光、声音等非语言沟通;利用语言的直接沟通等。这样,通过由自律移动型机器人1对人进行驱使动作,可以将自律移动型机器人1的意图(回避动作或期待回避动作)告知给人。并且,通过由理解了自律移动型机器人1的意图的人进行期待回避动作,并且机器人1自身也进行计划好的回避动作,可以实现相互让步。
其次,对于自律移动型机器人1的结构进行说明。
如图1所示,自律移动型机器人1配备有集中地控制整个机器人的控制装置2。控制装置2,例如,利用ECU(ElectricControlUnit:电子控制装置)等的微型计算机的硬件及软件构成。控制装置2与通信部3、位置检测部4、地图信息存储部5、雷达传感器6、及照相机7连接。
通信部3与机器人控制用的外部终端之间进行无线通信。通信部3通过无线通信接受输入到外部终端的任务(动作目标)。通信部3将接受到的任务信息发送到控制装置2。
位置检测部4检测自律移动型机器人1的现在所在地点。位置检测部4利用GPS(GlobalPositioningSystem:全球定位系统)或无线LAN(LocalAreaNetwork:局域网)进行位置检测。在位置检测中,也可以通过将利用雷达传感器或照相机等外界传感器取得的周边障碍物或路标的自律移动机器人的相对位置信息与地图的信息进行对照,求出现在所在地点。或者,也可以采用同时进行利用像SLAM(SimultaneouslyLocalizationandMapping:同步定位和绘图)这样地由外界传感器制成地图和现在所在地点的推定的方法。在地图信息存储部5中,存储有大范围的地图信息。位置检测部4根据地图信息存储部5的地图信息,进行现在所在地点的识别。位置检测部4将自律移动型机器人1的现在所在地点信息及现在所在地点周边的地图信息发送到控制装置2。
雷达传感器6利用出射的电波的反射波,检测出机器人周围的障碍物。作为障碍物,可以列举出建筑物等结构物、人、动物、汽车以及其它机器人等。这里,将人、动物、汽车及其它机器人等能够移动的障碍物称为移动障碍物。雷达传感器6将检测出的障碍物的位置信息发送给控制装置2。照相机7对自律移动型机器人1的周围摄像。照相机7将摄像的机器人周围的图像信息发送到控制装置2。雷达传感器6及照相机7具有权利要求范围内记载的移动障碍物检测机构的功能。另外,在本发明中所谓的雷达传感器不仅采用电波,可以采用光、电磁波、声波等,只要能够计测与障碍物的距离,可以采用任何手段。
控制装置2配备有机器人动作目标生成部10、人的动作预测部11、动作计划部12、移动控制部13及驱使控制部14。
机器人动作目标生成部10生成自律移动型机器人1的动作目标。机器人动作目标生成部10根据通信部3的任务信息和位置检测部4的现在所在地点信息及地图信息,生成动作目标。具体地说,在作为任务给予了目的地的情况下,机器人动作目标生成部10生成机器人移动用促动器(车轮等)的控制目标值,以便高效率地到达所给予的目的地。作为这样的目标值,可以列举出路径(位置的安排)或进路(位置和时间或者速度的安排)、加减速模式(加速度的安排)等。另外,在动作目标中,也有在特定的场所流连或者不伴随有移动的作业(脚下的地板的清扫等)。
人的动作预测部11预测存在于自律移动型机器人1周围的人的动作。人的动作预测部11首先根据雷达传感器6的障碍物的位置信息和照相机7的机器人周围的图像信息,判定在自律移动型机器人1的周围是否检测出人。人的位置信息的检测也可以只采用雷达传感器6的障碍物的位置信息和照相机的机器人周围的图像信息其中之一进行。或者,也可以通过通信取得人持有的GPS的数据。人的动作预测部11在判定为检测出人的情况下,由周围的人的位置信息的履历认识其进行方向及移动速度。人的动作预测部11预测人保持行进方向和移动速度的情况下的将来的动作。在该将来的动作中,除在规定方向上继续行进的动作之外,包括:减速站住的动作、改变方向的动作、以及在该场所继续流连的动作等。另外,人的动作预测部11通过辨别作为对象的人的外观及该人的周围的状况(与障碍物的位置关系或杂乱状况等),能够以更高的精度预测动作。
动作计划部12计划自律移动型机器人1的动作。动作计划部12由动作干扰判断部15、相互让步动作计划部16、及驱使动作计划部17构成。
动作干扰判断部15根据机器人动作目标生成部10生成的动作目标和人动作预测部11预测出的周围的人的动作,判断周围的人与自律移动型机器人1的动作是否干扰。在本发明中,在动作干扰判断部15中的动作干扰中,不仅包括人与自律移动型机器人1的接触,也包括接近到不能确保人和自律移动型机器人1安全限度的程度的状态。安全限度根据自律移动型机器人1的外观形状、用途等预先设定。在动作干扰判断部15判定为人与自律移动型机器人1接近于安全限度以内的情况下,判断为动作干扰。动作干扰判断部15具有在权利要求范围中记载的接近判定机构的功能。另外,自律移动型机器人1的安全限度相当于权利要求的范围中记载的规定间隔。
相互让步动作计划部16,在动作干扰判断部15判定为周围的人和自律移动型机器人1的动作相互干扰的情况下,计划相互让步动作。相互让步动作是由自律移动型机器人1的回避动作和对动作的干扰的人期待的期待回避动作构成的动作。回避动作是用于回避与人的干扰的自律移动型机器人1的动作。期待回避动作是用于回避与自律移动型机器人1接近到必要程度以上或接触的可以期待的人进行的回避动作。相互让步动作计划部16也可以利用过去的统计数据等计划期待回避动作。
相互让步动作计划部16根据所计划的期待回避动作和机器人动作目标生成部10生成的动作目标,计划既确保安全限度又可以高效率地回避的回避动作。另外,相互让步动作计划部16,也可以在计划了自律移动型机器人1的回避动作之后,根据计划的回避动作,计划人的期待回避动作。
另外,相互让步动作计划部16根据计划的回避动作与机器人动作目标生成部10生成的动作目标的偏离度、以及所计划的期待回避动作与人的动作预测部11预测的人的动作的偏离度,修正回避动作及期待回避动作。相互让步动作计划部16例如以两个偏离度尽可能变小的方式进行修正。借此,相互让步动作计划部16能够以期待回避动作不成为人的过度负担、并且回避动作不会过分脱离本身的动作目标的方式修正计划。相互让步动作计划部16也可以以两个偏离度之和变成最小的方式修正计划。相互让步动作计划部16具有作为权利要求的范围内记载的动作计划机构的功能。
驱使动作计划部17根据相互让步动作计划部16计划的期待回避动作,以进行期待回避动作的方式计划引导人的驱使动作。驱使动作计划部17利用语言或手势、光、声音等的通信来计划驱使动作,在利用语言驱使的情况下,可以根据回避动作的方向、程度和言词进行告知。在利用手势驱使的情况下,例如,可以利用机器人的臂部这样的可动部分,由移动可动部分的方向或者朝向可动部分的前端部的方向表示人回避的方向,由移动可动部分的速度或移动的范围的大小,表示回避的程度。在利用光驱使的情况下,例如,可以使并列地配置的多个光源并顺序发光,利用光传播看到的方向表示回避方向,利用光的强度表示回避的程度。在利用声音驱使的情况下,例如,可以利用音量告知回避的程度。另外,也可以组合地使用这些驱使的方法。以后,对于同样的情况省略其说明。
移动控制部13进行自律移动型机器人1的移动机构的控制。移动控制部13通过根据相互让步动作计划部16计划的回避动作控制移动机构,实施自律移动型机器人1的回避动作。另外,移动控制部13通过按照机器人动作目标生成部10生成的动作目标控制移动机构,实现动作目标。
驱使控制部14控制自律移动型机器人1的声音输出部或光生输出部、关节驱动部。驱使控制部14根据驱使动作计划部17计划的驱使动作,控制声音输出部或光输出部、关节驱动部,利用声音或光、上体部的姿势或动作进行的手势等,实施驱使动作。
其次,说明在上述控制装置2中的控制步骤。
如图2所示,在控制装置2中,首先,机器人动作目标生成部10进行生成自律移动型机器人1的动作目标的动作目标生成处理(S1)。机器人动作目标生成部10根据通信部3的任务信息和位置检测部4的现在所在地点信息及地图信息生成动作目标。
其次,人动作预测部11根据雷达传感器6的障碍物的位置信息和照相机7的机器人周围的图像信息,判定是否检测出自律移动型机器人1的周围的人(S2)。在人动作预测部11判定为未检测出自律移动型机器人1的周围的人的情况下,转移到步骤S5。另外,本发明的动作对象并不局限于人,对于全部机器人、汽车等自律移动的移动障碍物,都可以应用本发明。
在人动作预测部11判定为自律移动型机器人1的周围的人的情况下,进行预测检测出来的周围的人的动作的动作预测处理(S3)。人动作预测部11根据雷达传感器6的障碍物的位置信息和照相机7的机器人周围的图像信息,理解周围的人的行进方向及移动速度。人的动作预测部11预测在保持行进方向和移动速度的情况下的人的将来的动作。
动作干扰判断部15根据机器人动作目标生成部10生成的动作目标和人的动作预测部11预测的周围的人的动作,判断周围的人和自律移动型机器人1的动作是否干扰(S4)。在动作干扰判断部15判断为没有动作干扰的情况下,转到步骤S5。
在步骤S5,移动控制部13进行按照机器人动作目标生成部10生成的动作目标控制自律移动型机器人1的移动机构的通常时的机器人控制处理。
另一方面,在步骤S4,在动作干扰判断部15判断为有动作的干扰的情况下,相互让步动作计划部16进行计划相互让步动作的相互让步动作计划处理(S6)。作为相互让步动作,相互让步动作计划部16计划自律移动型机器人1的回避动作和对人期待的期待回避动作。之后,驱使动作计划部17根据相互让步动作计划部16计划的期待回避动作,进行计划对人的驱使动作的驱使动作计划处理(S7)。
在步骤S8,移动控制部13及驱使控制部14进行用于实现相互让步动作的干扰时机器人控制处理。在干扰时机器人控制处理中,移动控制部13根据相互让步动作计划部16计划的自律移动型机器人1的回避动作,控制移动机构。驱使控制部14控制自律移动型机器人1,实施驱使动作计划部17计划的驱使动作。
之后,控制装置2判定动作目标是否实现、自律移动型机器人1的动作是否结束(S9)。控制装置2在判定为自律移动型机器人1的动作未结束的情况下,从步骤S1起重复进行处理。控制装置2在判定为自律移动型机器人1的动作结束的情况下,结束控制。
接着,对于上述自律移动型机器人1的作用效果进行说明。
根据第一种实施方式的自律移动型机器人1,在人接近自律移动型机器人1的安全限度以内的情况下,不仅在自律移动型机器人1侧,而且也通常人侧也进行回避动作,所以,通过和自律移动型机器人1的回避动作一起计划作为对人期待的回避动作的期待回避动作,与自律移动型机器人1单方面地回避的情况相比,可以高效率地进行回避动作,可以高效率地进行所给予的任务。其结果是,由于移动效率得到改进,所以,自律移动型机器人1可以在短时间内完成任务,可以谋求自律移动型机器人1的工作效率的提高。
另外,采用自律移动型机器人1,通过实施引导人的驱使动作以使其进行期待回避动作的方式,可以提高人侧理解移动体的意图并进行期待回避动作的可能性。并且,自律移动型机器人1通过进行与期待回避动作对应的回避动作,可以在人与自律移动型机器人1之间实现在象人相互之间进行的相互让步。因此,采用自律移动型机器人1,即使在杂乱的环境下,通过与周围的人之间的相互让步,可以达到自身的动作目标,可以实现人与机器人的共存。
另外,对于接近的人来说,通过告知自律移动型机器人1的意图,不必回避超过需要的距离,在杂乱的环境下,也可以高效率地错开。进而,由于通过借助驱使动作告知自律移动型机器人1的意图,可以避免人向错误的方向避让而与自律移动型机器人1接触,所以,可以给予人以安心感。
[第二种实施方式]
如图3所示,与根据第一种实施方式的自律移动型机器人1相比,根据第二种实施方式的自律移动型机器人21在下述各点上不同,即,根据第二种实施方式的自律移动型机器人21配备有判断人与自律移动型机器人21的优先关系的优先关系判断部24,以及,根据第二种实施方式的自律移动型机器人21根据优先关系判断部24判断的优先关系,计划相互让步动作及驱使动作。
在根据第二种实施方式的自律移动型机器人21中,判断动作相互干扰的人和自律移动型机器人21的优先关系。这里,若将为了回避动作而计划的新的移动目标可以将原来的移动目标保持到何种程度定义为相互让步动作中的移动效率,则人和自律移动型机器人21的移动效率变成所谓的折中的关系。作为解决这种折中的指标,采用优先关系。例如,可以以人和自律移动型机器人21的移动效率之比与优先关系相一致的方式决定人和自律移动型机器人21的新的移动目标。在人侧的优先程度高的情况下,以比自律移动型机器人21的原来的移动目标高的比例维持人的原来的移动目标。
在自律移动型机器人21中,在控制装置22的优先关系判断部24中判断人和自律移动型机器人21的优先关系。优先关系判断部24比较自律移动型机器人21侧的状况和人侧的状况,判断哪一个应当优先到何种程度。
优先关系判断部24根据雷达传感器6的障碍物的位置信息和照相机7的图像信息,了解人的着急的状态或者拿着大的东西或者重的东西的状态等。可以由利用恰当的传感器计测或者推定表示运动量、质量、动能等运动的强度的物理量而得到的值来识别各个状态。优先关系判断部24将着急的人或拿着大的东西或重的东西的人的优先程度判断为高。另外,优先关系判断部24对年龄或性别等人的类别进行识别,对女性或儿童、老人的优先程度判断为高。另外,也可以对正在进行的作业的内容或人的状态进行识别,例如,将坐轮椅的人或人群中的引导员等的优先程度判断为高。
另外,优先关系判断部24根据动作目标的重要性及紧急性判断自律移动型机器人21的优先程度。优先关系判断部24对于动作目标的重要性或紧急性,从动作目标的内容或期限等进行判断。例如,动作目标的内容是像救助人的性命等有关人的安全的内容的情况或动作目标的完成期限紧迫的情况下,判断为机器人的优先程度高。另外,动作目标的重要性或紧急性也可以在给予动作目标时由人手动地设定。优先关系判断部24在动作目标的重要性或紧急性高的情况下,判断为自律移动型机器人21的优先程度高。另外,和人的优先程度的判断时的情况一样,在自律移动型机器人21的移动速度或搬运质量越大,即,在表示自己的运动强度的物理量大的情况下,优先关系判断部24判断为自己的优先程度越高。
相互让步动作计划部25根据优先关系判断部24的判断结果、机器人动作目标生成部10生成的动作目标、以及人的动作预测部11的预测的人的动作,计划自律移动型机器人21的回避动作和人的期待回避动作。在人的优先程度高的情况下,相互让步动作计划部25尽可能地维持原来的移动目标,计划接近于人的动作预测部11预测的人的动作的期待回避动作。即,以不成为优先程度高的人的负担的方式计划期待回避动作。另外,在自律移动型机器人21的优先程度高的情况下,为了优先地完成动作目标,相互让步动作计划部25计划尽可能地维持原来的移动目标的回避动作。优选地,根据回避动作相对于移动目标的的行进方向或速度的变化量、或者移动到特定地点所需要的时间或行进距离、消耗的能量等的增加量,对于回避动作在何种程度上维持移动目标进行定量化。
驱使动作计划部26根据优先关系判断部24的判断结果及相互让步动作计划部25计划的期待回避动作,计划驱使动作。在人的优先程度高的情况下,驱使动作计划部26计划弱的主张的驱使动作。在自律移动型机器人21的优先程度高的情况下,驱使动作计划部26计划强的主张的驱使动作。在本发明中,驱使动作的主张的强弱的调整,例如,如果是利用声音驱使则通过音量的大小来实现,如果是利用光驱使则利用光的亮度来实现,如果是通过接触驱使则利用接触时施加的力的大小来实现。下面,在同样的场合,省略其说明。
其次,对于根据第二种实施方式的控制装置22的控制步骤进行说明。
如图4所示,在控制装置22中,首先,进行机器人动作目标生成部10生成动作目标的动作目标生成处理(S11)。其次,人动作预测部11根据雷达传感器6的障碍物的位置信息和照相机7的机器人周围的图像信息,判定在周围是否检测出人(S12)。在未检测出人的情况下,人动作预测部11转到步骤S15。
人动作预测部11在判定为检测出人的情况下,进行预测检测出的人的动作的动作预测处理(S13)。之后,动作干扰判断部15根据机器人动作目标生成部10生成的动作目标和人动作预测部11预测的人的动作,判断周围的人和自律移动型机器人21的动作是否相互干扰(S14)。动作干扰判断部15在判断为没有动作的干扰的情况下,转到步骤S15。
在步骤S15,移动控制部13按照机器人动作目标生成部10生成的动作目标,进行控制自律移动型机器人21的移动机构的通常时的机器人控制处理。
另一方面,在步骤S14,当判断为动作干扰判断部15存在动作的干扰的情况下,优先关系判断部24进行判断自律移动型机器人21与人的优先关系的优先关系判断处理(S16)。
之后,让步动作计划部25根据优先关系判断部24的判断结果、机器人动作目标生成部10生成的动作目标、以及人动作预测部11预测的人的动作,进行让步动作计划处理(S17)。作为相互让步动作,相互让步动作计划部25计划自律移动型机器人21的回避动作和对人期待的期待回避动作。接着,驱使动作计划部26根据优先关系判断部24的判断结果及让步动作计划部25计划的期待回避动作,进行计划对人的驱使动作的驱使动作计划处理(S18)。
在步骤S19,移动控制部13及驱使控制部14进行用于实现相互让步动作的干扰时机器人控制处理。在干扰时机器人控制处理中,移动控制部13根据相互让步动作计划部25计划的自律移动型机器人21的回避动作来控制移动机构。驱使控制部14控制自律移动型机器人21,实施驱使动作计划部26计划的驱使动作。
之后,控制装置22判定动作目标是否被达到、自律移动型机器人21的动作是否结束(S20)。控制装置22在判定为自律移动型机器人21的动作未结束的情况下,从步骤S11起重复进行处理。控制装置22在判定为自律移动型机器人21的动作结束的情况下,结束控制。
根据上述第二种实施方式的自律移动型机器人21,通过根据自律移动型机器人21和人的优先关系来计划动作,可以制订与情况相适应的恰当的动作计划。具体地说,在对方是拿着大的东西的人或老人的情况下,判断为人侧的优先程度高,可以制订自律移动型机器人21侧进行大的退避的动作计划。另外,在自律移动型机器人21为了医疗等紧急性高的动作目的而移动的情况下,判断为自律移动型机器人21的优先程度高,可以制订请人侧进行大的退避的动作计划。
另外,采用自律移动型机器人21,由于可以根据自律移动型机器人21和人的优先关系来计划驱使动作,所以,通过对于优先程度高的老人等进行弱的主张的驱使动作,可以使人侧的动作优先。另外,在自律移动型机器人21的优先程度高的情况下,通过进行强的主张的驱使动作,可以使人侧采取期待回避动作,使自律移动型机器人21的动作优先。
[第三种实施方式]
如图5所示,根据第三种实施方式的自律移动型机器人31与根据第一种实施方式的自律移动型机器人1相比,在下述各点上不同:根据第三种实施方式的自律移动型机器人31,允许人与自律移动型机器人31接触;配备有接触传感器33;配备有计算人和自律移动型机器人31的接触允许程度的接触允许程度计算部35;根据接触允许程度计算部35计算出的接触允许程度,计划相互让步动作及驱使动作。
根据第三种实施方式的自律移动型机器人31允许人和自律移动型机器人21的接触并制定动作计划。这样,通过预先允许接触、缩小安全限度地制订计划,可以降低实际有效的杂乱密度,在路径中产生余量。但是,有必要即使接触也能够确保人侧的安全性。通过将安全限度设定为0或者负值,可以制订自律移动型机器人31主动与人接触的计划。其结果是,由于在路径中形成大的余量,所以,容易制订自律移动型机器人31能够高效率地移动的计划。
另外,在自律移动型机器人31中,作为对人的主动的沟通,利用接触作为驱使动作。例如,通过对转过身去的人等接触,可以使其注意到自律移动型机器人31的存在。另外,通过调整力的施加方向或接触方向,可以直接告知想要以“何种程度”向“哪个方向”移动,与非接触的沟通相比,可以简单地进行易于告知的驱使。
根据第三种实施方式的接触传感器33,例如,是压力传感器或力传感器等,检测有无障碍物对自律移动型机器人31的接触、接触压力的强度、接触方向等接触状态。接触传感器33将检测出的接触状态信息发送到控制装置32。
接触允许程度计算部35根据雷达传感器6的障碍物的位置信息、照相机7的图像信息及接触传感器33的接触状态信息,计算出接触允许程度。具体地说,接触允许程度计算部35通过图像处理了解人的脸的朝向或身体的朝向,根据人的脸的朝向或身体的朝向,进行接触允许程度的计算。这时,由于越是不朝向自律移动型机器人31的方向人,越难以注意到机器人31的存在,所以,计算出高的接触允许程度,并通过接触告知自律移动型机器人31的存在。或者,为了避免与未注意到自律移动型机器人31的人突然接触而使之受惊吓或者给予其不快感,也可以越是不朝向自律移动型机器人31的方向的人,将接触允许程度计算得越小,尽可能地避免接触。优选地,接触允许程度的计算方法对上述两种观点采取平衡,根据情况选择恰当的方法。
相互让步动作计划部36根据接触允许程度计算部35计算出的接触允许程度、机器人动作目标生成部10生成的动作目标、以及人动作预测部11预测的人的动作,计划自律移动型机器人31的回避动作和人的期待回避动作。相互让步动作计划部36可以接触允许程度越大则在路径计划中越减小对人设定的安全限度。这意味着减小人的实际有效的体格的大小,由于可以使路径具有余量,所以,可以计划更有效率的回避动作。
驱使动作计划部37根据接触允许程度计算部35计算出的接触允许程度及相互让步动作计划部36计划的期待回避动作,计划驱使动作。另外,驱使动作计划部37,在根据雷达传感器6的障碍物的位置信息、照相机7的图像信息及接触传感器33的接触状态信息,判断为由接触进行的驱使动作是有效的情况下,计划由接触进行的驱使动作。在由接触进行的驱使中,可以通过接触时施加的力的方向来告知人的回避方向,根据力的大小来告知回避的程度。下面,对于同样的情况,省略其说明。驱使动作计划部37通过计划利用由接触进行的直接沟通的驱使动作,能够更可靠地向人侧传达自律移动型机器人31的意图。
其次,对于根据第三种实施方式的控制装置32的控制步骤进行说明。
如图6所示,在控制装置32中,首先,进行机器人动作目标生成部10生成动作目标的动作目标生成处理(S31)。其次,人动作预测部11根据雷达传感器6的障碍物的位置信息、照相机7的机器人周围的图像信息及接触传感器33的接触状态信息,判断在周围是否检测出人(S32)。人动作预测部11在判定为未检测出人的情况下,转到步骤S35。
人动作预测部11在判定为检测出人的情况下,进行预测检测出的人的动作的动作预测处理(S33)。之后,动作干扰判断部15根据机器人动作目标生成部10生成的动作目标和人动作预测部11预测的人的动作,判断周围的人和自律移动型机器人31的动作是否相互干扰(S34)。动作干扰判断部15在判断为没有动作的干扰的情况下,转移到步骤S35。
在步骤S35,移动控制部13进行按照机器人动作目标生成部10生成的动作目标控制自律移动型机器人31的移动机构的通常时控制处理。
另一方面,在步骤S34,在动作干扰判断部15判断为有动作干扰的情况下,接触允许程度计算部35根据雷达传感器6的障碍物的位置信息、照相机7的图像信息及接触传感器33的接触状态信息,进行计算接触允许程度的接触允许程度计算处理(S36)。
之后,相互让步动作计划部36根据接触允许程度计算部35计算出的接触允许程度、机器人动作目标生成部10生成的动作目标及人动作预测部11预测的人的动作,进行相互让步动作计划处理(S37)。作为相互让步动作,相互让步动作计划部25计划自律移动型机器人31的回避动作和对有动作干扰的人期待的期待回避动作。接着,驱使动作计划部37根据接触允许计算部35计算出的接触允许程度及相互让步动作计划部36计划的期待回避动作,进行计划对人的驱使动作的驱使动作计划处理(S38)。
在步骤S39,移动控制部13及驱使控制部14,进行用于实现相互让步动作的干扰时机器人控制处理。在干扰时机器人控制处理中,通过移动控制部13根据相互让步动作计划部36计划的回避动作对移动机构进行控制,实施自律移动型机器人31的回避动作。驱使控制部14控制自律移动型机器人31,实施驱使动作计划部37计划的驱使动作。
之后,控制装置32判定动作目标是否达到、自律移动型机器人31的动作是否结束(S40)。控制装置32在判定为自律移动型机器人31的动作没有结束的情况下,从步骤31起重复进行处理。控制装置32在判定为自律移动型机器人31的动作结束的情况下,结束控制。
采用上述第三种实施方式的自律移动型机器人31,由于允许某种程度的接触地计划回避动作和期待回避动作,所以,与不允许接触的情况相比,可以使自律移动型机器人31能够移动的范围具有余量。其结果是,在杂乱的环境下,也能够在路径上形成余量,容易制订自律移动型机器人31能够高效率地移动的计划。
另外,采用自律移动型机器人31,特别是即使在接触不可避免的情况下,也能够通过路径。由于在驱使动作中利用接触作为对人的主动的沟通,所以,与非接触的沟通相比,可以简单地进行易于告知的驱使,能够更可靠地将自律移动型机器人31的意图传达给人。
[第四种实施方式]
如图7所示,根据第四种实施方式的自律移动型机器人41与根据第三种实施方式的自律移动型机器人31相比,在以下各点上不同:根据第三种实施方式的自律移动型机器人31,配备有判断人与自律移动型机器人41的优先关系的优先关系判断部44;根据优先关系判断部44判断的优先关系,计算出接触允许程度;以及,根据优先关系判断部44判断的优先关系,计划相互让步动作及驱使动作。
在根据第四种实施方式的自律移动型机器人41中,利用人与自律移动型机器人41的优先关系、和自律移动型机器人41对人的接触允许程度,计划相互让步动作及驱使动作。
根据第四种实施方式的控制装置42的优先关系判断部44,除了根据雷达传感器6的障碍物的位置信息及照相机7的图像信息之外,还根据接触传感器33的接触状态信息,判断动作相互干扰的人与自律移动型机器人41的优先关系。优先关系判断部44通过利用接触传感器33的接触状态信息,可以了解人拿着重的负荷等难以回避的状态,可以恰当地判断优先关系。
接触允许程度计算部45,除了根据雷达传感器6的障碍物的位置信息、照相机7的图像信息、及接触传感器33的接触状态信息之外,还根据优先关系判断部44的判断结果,计算接触允许程度。具体地说,由于对带着大的负荷的优先程度高的人进行接触是不好的,所以,接触允许程度计算部35计算出小的接触允许程度,或者,不允许接触。另一方面,接触允许程度计算部35,通过在自律移动型机器人41的优先程度高的情况下计算出高的接触允许程度,可以使路径具有余量,高效率地移动。作为接触的发出方,可以考虑接触的可能性或接触的程度。接触的发出方的调整可以通过改变人与自律移动型机器人41的运动关系来进行。
相互让步动作计划部46根据接触允许程度计算部45计算出的接触允许程度、机器人动作目标生成部10生成的动作目标、人动作预测部11预测的人的动作、以及优先关系判断部44的判断结果,计划自律移动型机器人41的回避动作和人的期待回避动作。同样地,驱使动作计划部47根据接触允许程度计算部45计算出的接触允许程度及相互让步动作计划部46计划的期待回避动作、以及优先关系判断部44的判断结果,计划驱使动作。
另外,驱使动作计划部37根据雷达传感器6的障碍物的位置信息、照相机7的图像信息、及接触传感器33的接触状态信息,在判断为通过接触进行的驱使动作是有效的情况下,计划通过接触进行的驱使动作。这样,通过计划利用通过接触进行的直接的沟通的驱使动作,能够更可靠地将自律移动型机器人41的意图传达给人。
其次,对于根据第四种实施方式的控制装置42的控制步骤进行说明。
如图8所示,在控制装置42中,首先,进行机器人动作目标生成部10生成动作目标的动作目标生成处理(S51)。其次,人的动作预测部11根据雷达传感器6的障碍物的位置信息、照相机7的机器人周围的图像信息、及接触传感器33的接触状态信息,判定在周围是否检测出人(S52)。人的动作预测部11在判定为未检测出人的情况下,转到步骤S55。
人的动作预测部11在判定为检测出人的情况下,进行预测检测出来的人的动作的动作预测处理(S53)。之后,动作干扰判断部15根据机器人动作目标生成部10生成的动作目标和人的动作预测部11预测的人的动作,判断周围的人和自律移动型机器人41的动作是否相互干扰(S54)。动作干扰判断部15在判断为没有动作的干扰的情况下,转到步骤S55。
在步骤S55,移动控制部13进行按照机器人动作目标生成部10生成的动作目标控制自律移动型机器人41的移动机构的通常时机器人控制处理。
另一方面,在步骤S54,在动作干扰判断部15判断为存在着动作的干扰的情况下,优先关系判断部44进行判断自律移动型机器人41和人的优先关系的优先关系判断处理(S56)。之后,接触允许程度计算部45根据雷达传感器6的障碍物的位置信息、照相机7的图像信息及接触传感器33的接触状态信息,进行计算出接触允许程度的接触允许程度计算处理(S57)。
接着,相互让步动作计划部46根据优先关系判断部44的判断结果、接触允许程度计算部45计算出的接触允许程度、机器人动作目标生成部10生成的动作目标、及人的动作预测部11预测的人的动作,进行相互让步动作计划处理(S58)。作为相互让步动作,相互让步动作计划部46计划自律移动型机器人41的回避动作和对存在动作干扰的人期待的期待回避动作。接着,驱使动作计划部47根据接触允许程度计算部45计算出的接触允许程度及相互让步动作计划部46计划的期待回避动作,进行计划对人的驱使动作的驱使动作计划处理(S59)。
在步骤S60,移动控制部13及驱使控制部14进行用于实现相互让步动作的干扰时机器人控制处理。在干扰时机器人控制处理中,移动控制部13根据相互让步动作计划部46计划的自律移动型机器人41的回避动作,控制移动机构。驱使控制部14控制自律移动型机器人41,实施驱使动作计划部47计划的驱使动作。
之后,控制装置42判定是否达到动作目标,自律移动型机器人41的动作是否结束(S61)。控制装置42在判定为自律移动型机器人41的动作未结束的情况下,从步骤S51起重复处理。控制装置42在判定为自律移动型机器人41的动作结束的情况下,结束控制。
根据上述第四种实施方式的自律移动型机器人41,可以获得和根据上述第二种实施方式及第三种实施方式的自动移动型机器人21、31同样的效果。另外,通过优先关系判断部44也考虑到接触状态信息对优先关系进行判断,能够进行可靠性更高的判断。进而,由于接触允许程度计算部45考虑到优先关系计算出接触允许程度,所以,可以计算出根据状况的接触允许程度,制订高效率的动作计划。
[第五种实施方式]
如图9所示,根据第五种实施方式的自律移动型机器人51与根据第一种实施方式的自律移动型机器人1相比,在以下各点上不同:根据第五种实施方式的自律移动型机器人51,允许人和自律移动型机器人51接触;配备有计算出人对自律移动型机器人51的亲和性的亲和性计算部54;根据亲和性计算部54计算出的亲和性,计划相互让步动作及驱使动作。
在根据第五种实施方式的自律移动型机器人51中,计算出人对自律移动型机器人51的亲和性。所谓亲和性是指从物理、信息、情绪、环境及经济方面来看,对于人来说,机器人的亲近容易度,人对于机器人所具有的恐惧感(害怕)或安心感。人之间的相互让步和人与机器人之间的相互让步之间最大的不同被认为是人对机器人的亲和性。亲和性依赖于每个人的价值观或对机器人的理解,也成为对对象产生驱使行动时的评价基准。在对机器人的好奇心旺盛的孩子们和对机械抱有警戒心的人们对于机器人的行动或看法不同。前者喜欢,会接近机器人,从移动的观点出发,对于机器人来说是不利的,另一方面,从安心的观点出发,即使距离稍稍接近,也不会感到不安,在路径的选择上具有余量。对于后者,由于人自然而然地采取远离的行动,所以,机器人的路径的确保变得容易,但是,即使与人的距离远离,也有会感到不安的担忧,路径的选择变窄。因此,通过根据亲和性调整人和机器人的运动关系以改变机器人的动作,可以制订不使人抱有不安感或不快感的动作计划。优选地,例如,在亲和性低的情况下,通过采用加大离开人的距离、或者降低接近人时的机器人的移动速度等来实现对应于亲和性的运动关系的调整。
自律移动型机器人51的控制装置52,在亲和性计算部54中,计算出人对自律移动型机器人51的亲和性。亲和性计算部54根据照相机7的图像信息计算出亲和性。
具体地说,亲和性计算部54首先根据照相机7的图像信息,识别人的大小、重量、老幼男女等类别。另外,亲和性计算部54预先储存有与自律移动型机器人51的大小或重量、颜色、机器人表面的接触危险性相关的参数。进而,亲和性计算部54存储有与人对自律移动型机器人51的亲和性相关的统计数据。在有关亲和性的统计数据中,优选包括在使人接近自律移动型机器人51时的距离和生理状态(心律、血压等)的数据等。在这种情况下,可以认为越是在距离远的状态下人的心律或血压上升,则亲和性越低。
亲和性计算部54根据人的大小和自律移动型机器人51的大小的比较、人的重量和自律移动型机器人51的重量的比较、性别或年龄等人的类别、自律移动型机器人51的颜色或表面的接触危险性、统计数据,计算出亲和性。自律移动型机器人51的大小与人的大小相比越大,则亲和性计算部54计算出越低的亲和性。另外,作为大小的参数,可以考虑身高、宽度、面积、体积等。例如,照相机7的图像中的人的面积一般认为是从自律移动型机器人51观察看到的投影面积,在这种情况下,可以通过将自律移动型机器人51的大小作为从作为对方的人观察到的投影面积进行计算,恰当地进行大小的比较。
另外,亲和性计算部54自律移动型机器人51的重量与人的重量相比越重,则计算出越低的亲和性。另外,机器人表面的接触危险性(边缘的锐利等)越高,则亲和性计算部54计算出越低的亲和性。另外,在机器人的颜色的亮度低的情况下,或者色度高的情况下,或者色调使人联想到危险或注意的情况下(红色或者黄色等),亲和性计算部54计算出越低的亲和性。另外,在人的类别是老人的情况下或者是女性的情况下,亲和性计算部54计算出低的亲和性。
相互让步动作计划部55根据亲和性计算部54计算出的亲和性、机器人动作目标生成部10生成的动作目标、以及人的动作预测部11预测的人的动作,计划自律移动型机器人51的回避动作和人的期待回避动作。在亲和性高的情况下,由于即使接近到一定程度或者以快的速度接近,也没有损害人的安心感的恐惧,所以,相互让步动作计划部55可以制订允许接触的效率高的动作计划。另外,在亲和性低的情况下,相互让步动作计划部55制订尽可能远离人、或者降低接近时的速度的动作计划,以便不使人抱有不安感或不快感。
驱使动作计划部56根据亲和性计算部54计算出的亲和性以及相互让步动作计划部55计划的期待回避动作,计划驱使动作。在亲和性高的情况下,驱使动作计划部56计划也包括接触在内的强的主张的驱使动作。在亲和性低的情况下,由于利用接触进行驱使具有损害人的安心感的恐惧,所以,驱使动作计划部56计划利用声音或光等非接触的沟通的弱的主张的驱使。例如,优选地,在亲和性高的情况下,选择声音或接触、手势等生物的、即近似人的方法的驱使方法,在亲和性低的情况下,选择报警声或警告声、警告灯等机械的驱使。在这种情况下,对于人来说,可以进行没有不舒服感的驱使。通过没有不舒服感的驱使,能够更有效地、不会使人更不安地进行驱使。下面,对于同样的情况,省略其说明。
其次,对于根据第五种实施方式的控制装置52的控制步骤进行说明。
如图10所示,在控制装置52中,首先,进行机器人动作目标生成部10生成动作目标的动作目标生成处理(S71)。其次,人的动作预测部11根据雷达传感器6的障碍物的位置信息和照相机7的图像信息,判定在周围是否检测出人(S72)。人的动作预测部11在判定为没有检测出人的情况下,转到步骤S75。
人的动作预测部11在判定为检测出人的情况下,进行预测检测出的人的动作的动作预测处理(S73)。之后,动作干扰判断部15根据机器人动作目标生成部10生成的动作目标和人的动作预测部11预测的人的动作,判断周围的人和自律移动型机器人51的动作是否相互干扰(S74)。动作干扰判断部15在判断为没有动作的干扰的情况下,转到步骤S75。
在步骤S75,移动控制部13进行按照机器人动作目标生成部10生成的动作目标控制自律移动型机器人51的移动机构的通常时机器人控制处理。
另一方面,在步骤S74,在动作干扰判断部15判断为有动作干扰的情况下,亲和性计算部54进行根据照相机7的图像信息计算人对自律移动型机器人51的亲和性的亲和性计算处理(S76)。
之后,相互让步动作计划部55根据亲和性计算部54计算出的亲和性、机器人动作目标生成部10生成的动作目标以及人的动作预测部11预测出的人的动作,进行相互让步动作计划处理(S77)。作为相互让步动作,相互让步动作计划部55计划自律移动型机器人51的回避动作和对人期待的期待回避动作。接着,驱使动作计划部56进行根据亲和性计算部54计算出的亲和性及相互让步动作计划部55计划的期待回避动作计划对人的驱使动作的驱使动作计划处理(S78)。
在步骤S79,移动控制部13及驱使控制部14进行用于实现相互让步动作的干扰时机器人控制处理。在干扰时机器人控制处理中,移动控制部13根据相互让步动作计划部55计划的自律移动型机器人51的回避动作,控制移动机构。驱使控制部14控制自律移动型机器人51,实施驱使动作计划部56计划的驱使动作。
之后,控制装置52判定动作目标是否达到、自律移动型机器人51的动作是否结束(S80)。控制装置52在判定为自律移动型机器人51的动作没有结束的情况下,从步骤S71起重复处理。控制装置52在判定为自律移动型机器人51的动作结束的情况下,结束控制。
根据上述第五种实施方式的自律移动型机器人51,通过根据人对自律移动型机器人51的亲和性来计划动作,能够以不使人抱有不安感或不快感的方式进行相互让步动作或驱使动作。另外,通过根据人对自律移动型机器人51的亲和性来计划驱使动作,可以使人不抱有不安感或不快感地进行。
[第六种实施方式]
如图11所示,根据第六种实施方式的自律移动型机器人61和根据第五种实施方式的的自律移动型机器人51相比,在下述各点上不同:根据第六种实施方式的自律移动型机器人61,配备有判定人和自律移动型机器人61的优先关系的优先关系判断部64;根据优先关系判断部64判断的优先关系,计划相互让步动作及驱使动作。
在根据第六种实施方式的自律移动型机器人61中,利用人和的自律移动型机器人61的优先关系和人对自律移动型机器人61的亲和性,计划相互让步动作及驱使动作。
根据第六种实施方式的控制装置62的优先关系判断部64,根据雷达传感器6的障碍物的位置信息及照相机7的图像信息,判断动作相互干扰的人和自律移动型机器人61的优先关系。
相互让步动作计划部65根据亲和性计算部54计算出的亲和性、机器人动作目标生成部10生成的动作目标、人的动作预测部11预测的人的动作、以及优先关系判断部64的判断结果,计划自律移动型机器人61的回避动作和人的期待回避动作。同样地,驱使动作计划部66根据亲和性计算部54计算出的亲和性及相互让步动作计划部65计划的期待回避动作、及优先关系判断部64的判断结果,计划驱使动作。
其次,对于根据第六种实施方式的控制装置62的控制步骤进行说明。
如图12所示,在控制装置62中,首先,进行机器人动作目标生成部10生成动作目标的动作目标生成处理(S91)。其次,人的动作预测部11根据雷达传感器6的障碍物的位置信息、照相机7的图像信息,判定在周围是否检测出人(S92)。人的动作预测部11在判断为没有检测出人的情况下,转到步骤S95。
人的动作预测部11在判定为检测出人的情况下,进行预测检测出的人的动作的动作预测处理(S93)。之后,动作干扰判断部15根据机器人动作目标生成部10生成的动作目标和人的动作预测部11预测的人的动作,判断周围的人和自律移动型机器人61的动作是否相互干扰(S94)。动作干扰判断部15在判断为没有动作干扰的情况下,转到步骤S95。
在步骤S95,移动控制部13进行按照机器人动作目标生成部10生成的动作目标控制自律移动型机器人61的移动机构的通常时机器人控制处理。
另一方面,在步骤S94,在动作干扰判断部15判断为有动作干扰的情况下,优先关系判断部64进行判断自律移动型机器人61和人的优先关系的优先关系判断处理(S96)。之后,亲和性计算部54根据照相机7的图像信息,进行计算亲和性的亲和性计算处理(S97)。
接着,相互让步动作计划部65根据优先关系判断部64的判断结果、亲和性计算部54计算出的亲和性、机器人动作目标生成部10生成的动作目标、以及人的动作预测部11预测的人的动作,进行相互让步动作计划处理(S98)。作为相互让步动作,相互让步动作计划部65计划自律移动型机器人61的回避动作和对动作干扰的人所期待的期待回避动作。之后,驱使动作计划部66根据优先关系判断部64的判断结果、亲和性计算部54计算出的亲和性、以及相互让步动作计划部65计划的期待回避动作,进行计划对人的驱使动作的驱使动作计划处理(S99)。
在步骤S100,移动控制部13及驱使控制部14进行用于实现相互让步动作的干扰时机器人控制处理。在干扰时机器人控制处理中,移动控制部13根据相互让步动作计划部65计划的自律移动型机器人61的回避动作,控制移动机构。驱使动作控制部14控制自律移动型机器人61,实施驱使动作计划部66计划的驱使动作。
之后,控制装置62判定动作目标是否达到、自律移动型机器人61的动作是否结束了(S101)。在判定为自律移动型机器人61的动作没有结束的情况下,控制装置62从步骤S91起重复进行处理。控制装置62在判定为自律移动型机器人61的动作结束了的情况下,结束控制。
采用上述第六种实施方式的自律移动型机器人61,可以获得和根据第二种实施方式及根据第五种实施方式的自律移动型机器人同样的效果。另外,通过根据人与自律移动型机器人61的优先关系及人对自律移动型机器人61的亲和性来计划相互让步动作及驱使动作,可以不使人抱有不安感和不快感地根据情况制订恰当的动作计划。
[第七种实施方式]
在第七种实施方式中,作为根据本发明的移动体,说明机械手机器人71。机械手机器人71是与作业者之间进行协调作业的机器人,例如,是在单元生产方式中进行作业者的作业支援的机器人。机械手机器人71通过使手指尖移动,进行工件的保持或移动、运送部件或工具的作业支援,通过配合作业者的运动以进行作业支援,实现减轻作业者的负担或作业效率的提高。机械手机器人71可以是能够相对于地面移动的移动型机械手,也可以是对地面固定基座的固定型机械手。
在作业支援中,即使使机器人的支援动作与作业者的运动相一致,由于作业者的作业方法(作业顺序或作业速度、作业对象物的把持方式等)的不同,也存在着不能恰当地进行机器人应当进行的支援的问题。特别是,在作业者交替的场合或在多个单元中并行地进行同样的作业的场合,在为每个作业者定做装置或控制程序方面也是有限度的。因此,机器人在考虑到作业者希望的方法的基础上,计划新的作业方法,进行驱使以便引导作业者。借助这种驱使,作业者理解机器人期待的工作方法,可以适应机器人期待的作业方法。其结果是,以人和机器人双方相互配合的形式进行协调作业。机器人的支援越是有效,与人随便地工作机器人不能支援的情况相比,在通过在一定程度上与机器人协调获得恰当的作业支援的情况下,作业的质量及效率提高。其结果是,可以谋求制品的品质或生产率的提高。
另外,在适合于多品种少量生产的单元生产方式中,尽管具有容易进行生产品种的变更、规格的变更的优点,但是,在频繁地进行变更的情况下,或者特别是在刚刚变更之后的作业中,容易发生组装部件的种类的差错或作业步骤遗漏等问题。对于这样的问题,通过提高机器人的优先程度,机器人主动引导作业者正确的安装构件或作业步骤,可以降低故障的发生和作业的差错。因此,在机械手机器人71中,不仅在作业支援中,而且在作业者进行与计划不同的动作的情况下,通过进行驱使动作以便进行正确的作业方法,可以谋求作业的质量及效率的提高。
如图13所示,机械手机器人71配备有对整体进行集中控制的控制装置72。控制装置72与位置传感器72、作业者用固定照相机74、及接触传感器75连接。
位置传感器73检测机械手机器人71的姿势(各个关节及手指尖的位置)。位置传感器73将检测出来的姿势信息发送给控制装置72。作业者用固定照相机74是对作为机械手机器人71的支援对象的作业者或作业对象物的状态进行摄像用的照相机。作业者用固定照相机74将作业者或作业对象物的图像信息发送给控制装置72。接触传感器75用于检测出对机械手机器人71的接触状态。接触传感器75将检测出来的接触状态信息发送给控制装置72。
控制装置72具有作业支援目标生成部76、作业者动作预测部77、动作计划部78、移动控制部79、及驱使控制部80。
作业支援目标生成部76生成机械手机器人71的作业支援目标。作业支援目标生成部76根据位置传感器73的姿势信息,生成移动目标等作业支援目标。
作业者动作预测部77根据作业者用固定照相机74的图像信息及接触传感器75的接触状态信息检测及预测作业者的动作。
动作计划部78具有作业者动作判断部81、优先关系判断部82、协调作业动作计划部83、及驱使动作计划部84。
作业者动作判断部81对作业者动作预测部77预测的动作与存储了标准作业的数据库进行比较,判断作业者的动作是否是恰当的作业内容。所谓作业者的动作是不恰当的作业内容的动作,例如,是违反指定的标准规格的作业步骤或拿错使用的工具或安装的部件的动作等。作业者动作判断部81在判断为作业者的动作是恰当的作业内容的情况下,根据作业支援目标生成部76生成的作业支援目标及作业者动作预测部77预测的动作,判断对于作业者的动作能否进行恰当的支援。所谓不能进行恰当的支援的情况,例如,是作业者或作业对象物的位置或姿势远离机械手机器人71的场所,或者,在机械手机器人71的结构上,是难以进行支援的方向的情况,或者,作业者的动作速度过快或者过慢的动作、作业者对作业对象物把持的手的位置是不恰当的情况等。
优先关系判断部82在作业者动作判断部81判断为作业者的动作不是恰当的作业内容的情况下,将作业者和机械手机器人71的优先关系判断为机械手机器人71优先。在作业者动作判断部81判断为作业者的动作是恰当的作业内容、进而判断为对作业者的动作能够进行恰当的支援的情况下,根据作业支援目标生成部76生成的作业支援目标及作业者动作预测部77预测的动作来判断优先关系。在这种情况下,优选地,根据作业支援内容的贡献程度判断优先程度。例如,在使能够大幅度减轻作业者的作业负荷的支援内容、或能够大幅度提高作业精度的支援内容的情况下,判断为机械手机器人71的优先程度高。或者,优选地,根据作业者的熟练程度判断优先程度。在作业者的熟练程度低的情况下,通过判断为机械手机器人71优先,机械手机器人71可以主动地进行引导人的作业支援,即使是不熟练的作业者,也可以抑制品质的降低或偏差的发生,可以不会大幅度降低生产率地应用于单元生产方式。在作业者的熟练程度高的情况下,通过判断为作业者优先,使作业方法的大部分适合于作业者想要进行的方法,在作业者没有必要由机械手机器人71进行作业支援的情况下,不会强行地进行支援,能够只有在作业者想要接受机械手机器人71的作业支援时,才进行作业支援。
协调作业动作计划部83,在作业者动作判断部81判断为作业者的动作不是恰当的作业内容的情况下,作为对作业者期待的期待动作,计划遵从标准作业的动作。协调作业动作计划部83,在判断为不能对作业者的动作进行恰当的支援的情况下,根据优先关系判断部82的判断结果、作业支援目标生成部76生成的作业支援目标、及作业者动作预测部77预测的动作,计划协调作业动作。在该支援动作中,包括在作业者和机械手机器人71会发生冲突的情况下进行回避用的回避动作,在期待动作中,包括期待作业者回避的期待回避动作。另外,在协调作业动作计划部83,制订允许作业者和机械手机器人71接触的动作计划。另外,第七种实施方式中的接触允许程度可以是固定值,也可以根据作业者的作业内容或作业状态而变动。即,例如,在作业者正在进行小的部件的组装等需要高精度的精密作业、或者正在进行处理刀具等危险物品的作业当中的情况下,通过降低接触允许程度,可以防止由接触造成的对作业者的作业的障碍,或者防止对作业者造成危险。
驱使动作计划部84根据优先关系判断部82的判断结果及协调作业动作计划部83计划的期待动作,计划驱使动作,所述驱使动作用于引导作业者进行遵从标准作业的动作或者进行机械手机器人71能够进行作业支援的动作。这种情况下的驱使动作,例如,有下述各种方法:通过接触对作业者施加力直接引导其动作的方法、或者通过发出声音的节奏或光的亮灭速度,告知动作过快或者过慢的方法等。
移动控制部79根据协调作业动作计划部83计划的支援动作,控制机械手机器人71的姿势。另外,驱使控制部80根据驱使动作计划部84计划的驱使动作,进行利用声音的输出或光的输出、接触等沟通的对作业者的驱使动作。
其次,对于根据第七种实施方式的控制装置72的控制步骤进行说明。
如图14所示,在控制装置72中,首先,进行作业支援目标生成部76生成作业支援目标的作业支援目标生成处理(S111)。其次,作业者动作预测部77根据作业者用固定照相机74的图像信息及接触传感器75的接触状态信息,预测作业者的动作(S112)。
之后,作业者动作判断部81对作业者动作预测部77预测的动作和存储标准作业的数据库进行比较,判断作业者的动作是否是恰当的作业内容(S113)。作业者动作判断部81在判断为作业者的动作是恰当的作业内容的情况下,根据作业支援目标生成部76生成的作业支援目标及作业者动作预测部77预测的动作,判断是否能够对作业者的动作进行恰当的支援(S114)。作业者动作判断部81在判断为能够对作业者的动作进行恰当的支援的情况下,转到步骤S115。
在步骤S115,移动控制部79按照作业支援目标生成部76生成的作业支援目标,进行控制机械手机器人71的姿势的通常时机器人控制处理。
另一方面,在步骤S113,在作业者动作判断部81判断为作业者的动作不是恰当的作业内容的情况下,或者在步骤S114中,判断为对作业者的动作不可能进行恰当的支援的情况下,优先关系判断部82进行判断人和机械手机器人71的优先关系的优先关系判断处理(S116)。
接着,协调作业动作计划部83根据优先关系判断部82的判断结果、作业支援目标生成部76生成的作业支援目标、及作业者动作预测部77预测的动作,进行计划协调作业动作的协调作业动作计划处理(S117)。协调作业动作计划部83计划作为协调作业动作的自己的支援动作和对作业者期待的期待动作。接着,驱使动作计划部84根据优先关系判断部82的判断结果及协调作业动作计划部83计划的期待动作,进行计划驱使动作的驱使动作计划处理,所述驱使动作用于引导作业者进行遵从标准作业的动作或者进行机械手机器人71能够进行作业支援的动作(S118)。
在步骤S119,移动控制部79及驱使控制部80进行用于实现协调作业动作的驱使时机器人控制处理。在驱使时机器人控制处理中,移动控制部79根据协调作业动作计划部83计划的支援动作,进行机械手机器人71的姿势控制。驱使控制部80根据驱使动作计划部84计划的驱使动作,通过控制机械手机器人71或外部的声音装置来实现驱使动作。
之后,控制装置72判定作业支援目标是否被达到、机械手机器人71的动作是否结束(S120)。控制装置72在判定为机械手机器人71的动作没有结束的情况下,从步骤S111起重复处理。控制装置72在判定为机械手机器人71的动作结束的情况下,结束控制。
根据第七种实施方式的机械手机器人71,在作业者进行与计划不同的动作的情况下,通过进行驱使动作以便实施正确的作业方法,可以减轻制品的毛病或作业的差错。另外,虽然引入各个作业者容易作业的作业方法,但是,通过引导作业者的动作以便机械手机器人71进行作业支援,可以实现高效率的协调作业,提高单元生产方式中的生产效率。
[第八种实施方式]
在第八种实施方式中,作为根据本发明的移动体,对汽车91进行说明。汽车91是具有进行自动驾驶到设定的目的地的自动驾驶功能的车辆。汽车91与自律移动型机器人1的大的不同点在于不允许步行者与汽车之间的接触。因此,汽车91以不与步行者接触的方式计划相互让步动作。另外,汽车91对于利用声音或光进行的非接触沟通对步行者的驱使动作进行计划。
汽车91与步行者的优先关系基本上以步行者优先。但是,通过根据道路状况或步行者的状态、周边状况而使优先关系变动,在自动驾驶过程中的汽车91能够安全地在有步行者的环境中通行。具体地说,在步行者离开道路的边缘步行的情况下、或者在多个步行者横向并列地步行的情况下、在具有步行道的道路中步行者在车道上步行等情况下,在步行者妨碍汽车91的安全通行的情况下,通过稍稍降低步行者的优先程度,进行促使步行者的移动的驱使,可以确保安全的通路。另一方面,在步行者是老人或孩子、或者推着轮椅或者儿童车、或者是拿着大的东西的情况下,通过判断为步行者的优先程度高,不进行驱使动作或者仅限于谨慎的驱使,等待步行者移动到安全的位置,汽车91再行进。另外,在汽车91是紧急车辆等的情况下,判断为汽车91的优先程度高,通过积极的驱使告知步行者回避方向等,在杂乱的场所也能够既腾出道路又安全地通行。
如图15所示,汽车91配备有对整体进行集中控制的控制装置92。控制装置92与通信部93、位置检测部94、地图信息存储部95、雷达传感器96及照相机97连接。
通信部93通过与外部管理中心的无线通信接受与自动驾驶相关的自动驾驶前进道路计划。通信部93将接受到的自动驾驶前进道路计划发送给控制装置92。位置检测部94通过GPS信号的接受。检测汽车91的现在所在地点。位置检测部94根据存储在地图信息存储部95内的地图信息,进行汽车91的现在所在地点的识别。位置检测部94将汽车91的现在所在地点信息及现在所在地点周边的地图信息发送给控制装置92。
雷达传感器96利用出射的电波的反射波检测出汽车91的周围的障碍物。雷达传感器96将检测出的障碍物的位置信息发送给控制装置92。照相机97对汽车91的周围摄像。照相机97将摄像的汽车91的周围的图像信息发送给控制装置92。
控制装置92具有自动驾驶前进道路生成部98、步行者前进道路预测部99、动作计划部100、行驶控制部101、及驱使控制部102。
自动驾驶前进道路生成部98根据通信部93的自动驾驶前进道路计划和位置检测部94的汽车91的现在所在地点信息及现在所在地点周边的地图信息,生成自动驾驶前进道路。步行者前进道路预测部99根据雷达传感器96的障碍物的位置信息及照相机97的图像信息,判定在周围是否检测出步行者。步行者前进道路预测部99在判定检测出步行者的情况下,根据雷达传感器96的障碍物的位置信息及照相机97的图像信息,预测检测出的步行者的前进道路。
动作计划部100具有安全限度判断部103、优先关系判断部104、亲和性计算部105、相互让步前进道路计划部106、及驱使动作计划部107。
安全限度判断部103根据自动驾驶前进道路生成部98生成的自动驾驶前进道路及步行者前进道路预测部99预测的步行者的前进道路,判定是否能够使步行者不干扰汽车91的前进道路地确保安全限度。
在安全限度判断部103判断为不能确保安全限度的情况下,优先关系判断部104判断步行者和汽车91的优先关系。优先关系判断部104根据雷达传感器96的障碍物的位置信息及照相机97的图像信息,判断步行者和汽车91的优先关系。优先关系判断部104在步行者成为汽车91的安全通行的妨碍的情况下,判断为步行者的优先程度低。在汽车91为紧急状态的情况下,优先关系判断部104判断为汽车91的优先程度高。
亲和性计算部105计算步行者对汽车91的亲和性。亲和性计算部105根据照相机97的图像信息,计算出亲和性。亲和性计算部105根据汽车91的种类或看起来的大小等,计算出亲和性。具体地说,在汽车91是大型货车或客车的情况下,亲和性计算部105计算出低的亲和性。在汽车91是小型车辆的情况下,亲和性计算部105计算出高的亲和性。
相互让步前进道路计划部106根据优先关系判断部104的判断结果、亲和性计算部105计算出的亲和性、自动驾驶前进道路生成部98生成的自动驾驶前进道路、以及步行者前进道路预测部99预测的步行者的前进道路,计划相互让步前进道路。作为相互让步前进道路,相互让步前进道路计划部106计划汽车91的回避前进道路和对步行者期待的期待回避前进道路。
驱使动作计划部107根据相互让步前进道路计划部106计划的期待回避前进道路、优先关系判断部104的判断结果、亲和性计算部105计算出的亲和性,计划将步行者向期待回避前进道路引导的驱使动作。
行驶控制部101根据相互让步前进道路计划部106计划的回避前进道路来自动驾驶汽车91。另外,驱使控制部102根据驱使动作计划部107计划的驱使动作,利用声音或光实施对步行者的驱使动作。
其次,对于根据第八种实施方式的控制装置92的控制步骤进行说明。
如图16所示,在控制装置92中,首先,进行自动驾驶前进道路生成部98生成自动驾驶前进道路的自动驾驶前进道路生成处理(S131)。其次,步行者前进道路预测部99根据雷达传感器96的障碍物的位置信息及照相机97的图像信息,判定是否检测出周围的步行者(S132)。在判定为没有检测出周围的步行者的情况下,步行者前进道路预测部99转到步骤S135。在判定为检测出周围的步行者的情况下,步行者前进道路预测部99进行预测步行者的前进道路的步行者前进道路预测处理(S133)。
之后,安全限度判断部103根据自动驾驶前进道路生成部98生成的自动驾驶前进道路及步行者前进道路预测部99预测的步行者的前进道路,判定是否能够使步行者不干扰汽车91的前进道路地确保安全限度(S134)。安全限度判断部103在判断为能够确保安全限度的情况下,转到步骤S135。
在步骤S135,行驶控制部101进行按照自动驾驶前进道路生成部98生成的自动驾驶前进道路来自动驾驶汽车91的通常时车辆控制处理。
另一方面,在步骤S134中安全限度判断部103判断为由于前进道路的干扰而不能确保安全限度的情况下,优先关系判断部104判断步行者和汽车91的优先关系(S136)。之后,亲和性计算部105计算步行者对汽车91的亲和性。亲和性计算部105根据照相机97的图像信息来计算亲和性(S137)。
接着,相互让步前进道路计划部106根据优先关系判断部104的判断结果、亲和性计算部105计算出的亲和性、自动驾驶前进道路生成部98生成的自动驾驶前进道路、及步行者前进道路预测部99预测的步行者的前进道路,进行计划相互让步前进道路的相互让步前进道路计划处理(S138)。
驱使动作计划部107根据相互让步前进道路计划部106计划的期待回避前进道路、优先关系判断部104的判断结果、亲和性计算部105计算出的亲和性,进行计划将步行者向期待的回避前进道路上引导的驱使动作的驱使动作计划处理(S139)。
在步骤S140,行驶控制部101及驱使控制部102进行用于实现相互让步的干扰时车辆控制处理。在干扰时车辆控制处理中,行驶控制部101根据相互让步前进道路计划部106计划的汽车91的回避前进道路进行自动驾驶。驱使控制部102根据驱使动作计划部107计划的驱使动作,通过控制汽车91的喇叭或灯,实施利用声音或者光的驱使动作。
之后,控制装置92判定自动驾驶前进道路的自动驾驶是否结束、是否到达目的地(S141)。控制装置92在判定为没有到达目的地的情况下,从步骤S131起重复进行处理。控制装置92在判定为已经到达目的地的情况下,结束控制。
根据第八种实施方式的汽车91,通过与步行者之间进行相互让步,即使在杂乱的环境下,也能够既腾出道路又安全地通行。另外,通过考虑到优先关系和亲和性来计划前进道路,可以计划出尽可能不使步行者不安并且与步行者及汽车91的状况相应的恰当的前进道路。
[第九种实施方式]
在第九种实施方式中,作为根据本发明的移动体,对于个人移动装置111进行说明。个人移动装置111是人乘坐并进行驾驶操作的一个人乘坐使用的机器人。
设想这样的个人移动装置在人行道或建筑物内等主要由步行者通行的场所行驶。但是,在杂乱的环境下,使个人移动装置不成为周围的妨碍地行驶并不是很简单的,需要某种程度的驾驶技巧,这成为一个课题。因此,在个人移动装置111中,通过实现相互让步动作,即使是对于驾驶不熟练的人,也能够实现在杂乱的环境下安全的移动。
如图17所示,个人移动装置111配备有对整体进行集中控制的控制装置112。控制装置112与驾驶操作输入部113、雷达传感器114、照相机115连接。
驾驶操作输入部113是驾驶者将驾驶操作输入给个人移动装置111中用的设备。驾驶操作输入部113,例如,由操纵杆或手柄、开关或踏板等构成。驾驶操作输入部113将驾驶者进行的驾驶操作输出给控制装置112。还考虑驾驶者没有乘坐在个人移动装置111上的情况,在这种情况下,借助采用遥控器等的通信进行遥控操作。在第九种实施方式中,个人移动装置111将驾驶操作输入作为动作目标进行移动。
雷达传感器114利用出射的电波的反射波检测个人移动装置111的周围的障碍物。雷达传感器114将检测出的障碍物的位置信息发送给控制装置112。照相机115对个人移动装置111的周围进行摄像。照相机115将摄像的周围的图像信息发送给控制装置112。
控制装置112具有步行者前进道路预测部116、动作计划部117、移动控制部118、以及驱使控制部119。
步行者前进道路预测部116根据雷达传感器114的障碍物的位置信息及照相机115的图像信息,判定是否检测出周围的步行者。在判定为检测出周围的步行者的情况下,步行者前进道路预测部116根据雷达传感器114的障碍物的位置信息及照相机115的图像信息,预测步行者的前进道路。
动作计划部117具有前进道路干扰判断部120、优先关系判断部121、亲和性计算部122、相互让步前进道路计划部123及驱使动作计划部124。前进道路干扰判断部120根据驾驶操作输入部113输出的驾驶操作及步行者前进道路预测部116预测的步行者的前进道路,判断步行者是否干扰个人移动装置111的前进道路。
在前进道路干扰判断部120判断为步行者干扰个人移动装置111的前进道路的情况下,优先关系判断部121判断步行者和个人移动装置111的优先关系。优先关系判断部121根据雷达传感器114的障碍物的位置信息及照相机115的图像信息,判断优先程度。另外,也可以在个人移动装置111上设置用于将驾驶者的紧急程度输入给控制装置112的切换开关或调整钮。在这种情况下,优先关系判断部121根据输入的紧急程度判断优先关系。亲和性计算部122根据照相机115的图像信息,计算步行者对个人移动装置111的亲和性。
相互让步前进道路计划部123根据优先关系判断部121的判断结果、亲和性计算部122计算出的亲和性、驾驶操作输入部113输出的驾驶操作、及步行者前进道路预测部116预测的步行者的前进道路,计划相互让步前进道路。作为相互让步前进道路,相互让步前进道路计划部123计划个人移动装置111的回避前进道路和对步行者期待的期待回避道路。
驱使动作计划部124根据相互让步前进道路计划部123计划的期待回避前进道路、优先关系判断部121的判断结果、亲和性计算部122计算出的亲和性,计划将步行者向期待回避前进道路引导的驱使动作。
移动控制部118根据相互让步前进道路计划部123计划的回避前进道路,控制个人移动装置111的移动机构。另外,驱使控制部119根据驱使动作计划部124计划的驱使动作,利用声音或光、接触实施对步行者的驱使动作。
其次,对于根据第九种实施方式的控制装置112的控制步骤进行说明。
如图18所示,在控制装置112中,首先,从驾驶操作输入部113输入驾驶者的驾驶操作(S151)。其次,步行者前进道路预测部116根据雷达传感器114的障碍物的位置信息及照相机115的图像信息,判定是否检测出周围的步行者(S152)。在判定为没有检测出周围的步行者的情况下,步行者前进道路预测部116转到步骤S155。在判定为检测出周围的步行者的情况下,步行者前进道路预测部116进行预测步行者的前进道路的步行者前进道路预测处理(S153)。
之后,前进道路干扰判断部120根据驾驶操作输入部113输出的驾驶操作及步行者前进道路预测部116预测的步行者的前进道路,判定步行者是否干扰个人移动装置111的前进道路(S154)。在判断为没有和步行者干扰的情况下,前进道路干扰判断部120转到步骤S155。
在步骤S155,移动控制部118进行与驾驶操作输入部113输出的驾驶操作相对应地控制个人移动装置111的移动机构的通常时个人移动装置控制处理。
另一方面,在步骤154中前进道路干扰判断部120判断为与步行者发生干扰的情况下,优先关系判断部121判断步行者和个人移动装置111的优先关系(S156)。之后,亲和性计算部122计算步行者对个人移动装置111的亲和性。亲和性计算部122根据照相机115的图像信息,计算亲和性(S157)。
接着,相互让步前进道路计划部123根据优先关系判断部121的判断结果、亲和性计算部122的计算出的亲和性、驾驶操作输入部113输出的驾驶操作、以及步行者前进道路预测部116预测的步行者的前进道路,进行计划相互让步前进道路的相互让步前进道路计划处理(S158)。
驱使动作计划部124根据相互让步前进道路计划部123计划的期待回避前进道路、优先关系判断部121的判断结果、亲和性计算部122计算出的亲和性,进行计划将步行者向期待回避前进道路引导的驱使动作的驱使动作计划处理(S159)。
在步骤S160,移动控制部118及驱使动作控制部119进行用于实现相互让步的干扰时个人移动装置控制处理。在干扰时个人移动装置控制处理中,移动控制部118根据相互让步前进道路计划部123计划的个人移动装置111的回避前进道路,控制移动机构。驱使控制部119根据驱使动作计划部124计划的驱使动作,利用由声音输出或光输出、接触进行的沟通,实施驱使动作。
之后,控制装置112判定个人移动装置111的驾驶是否结束(S161)。控制装置112在判定为驾驶没有结束的情况下,从步骤S151起重复处理。控制装置112在判定为驾驶结束的情况下结束控制。
根据第九种实施方式的个人移动装置111,通过与步行者之间进行相互让步,即使在杂乱的环境下,也能够既腾出道路又安全地通行。另外,通过考虑到优先关系或亲和性地计划前进道路,可以计划尽可能不使步行者不安并且与步行者及个人移动装置111的状况相适应的恰当的前进道路。
[第十种实施方式]
如图19所示,根据第十种实施方式的自律移动型机器人131与根据第一种实施方式的自律移动型机器人1相比,在以下各点上不同:配备有进行多个候补动作的动作结果的预测的动作结果预测部134;配备有从多个候补动作中选择出预测为满足规定的制约条件的候补动作的候补动作选出部135。
根据第十种实施方式的自律移动型机器人131的控制装置132配备有动作计划部133,所述动作计划部133具有动作结果预测部134及候补动作选出部135。动作结果预测部134对于多个计划的自律移动型机器人131的候补动作,预测在实际进行的情况下的动作结果。根据相互让步动作计划部25计划的自律移动型机器人131的回避动作及对人期待的期待回避动作,计划自律移动型机器人131的候补动作。这种候补动作包括自律移动型机器人131的回避动作及驱使动作。
动作结果预测部134利用人的运动模型(包含对机器人131的驱使动作的运动方法的模型)预测动作结果。动作结果预测部134,例如,对于道路交叉的机器人131及人,作为初始条件,设定位置及速度。之后,动作结果预测部134,对于机器人131考虑到其自身发生的加速度,对于人考虑到由机器人131给予的驱使动作的接触力产生的加速度,进行动作结果的预测。动作结果预测部134对于自律移动型机器人131的驱使动作的强度(接触力)或回避加速度的参数不同的多种候补动作,反复进行预测。
候补动作选出部135根据动作结果预测部134的动作结果的预测,判定是否能够选出预测为动作结果满足规定的制约条件的候补动作。作为规定的制约条件,可以列举出人和机器人131的距离或驱使强度(由光或声音进行驱使的强度、由接触进行的驱使的强度)等。
另外,在判定为能够选出候补动作的情况下,候补动作选出部135选出在预测为满足规定的制约条件的候补动作之中移动效率最大的候补动作。具体地说,候补动作选出部135根据动作结果预测部134的动作结果的预测,评价能够选出的候补动作的移动效率。例如,可以着眼于相互让步前后的速度变化来对移动效率进行评价。在相互让步的前后,速度变化越小,则候补动作选出部135为了维持相互让步之前的移动将移动效率评价得越高。
候补动作选出部135分别评价人的移动效率和机器人131的移动效率。候补动作选出部135选出人的移动效率及机器人131的移动效率之和成为最大的候补动作。
其次,对于根据第十种实施方式的控制装置132的控制步骤进行说明。
如图20所示,在控制装置132中,首先,进行机器人动作目标生成部10生成动作目标的动作目标生成处理(S171)。其次,人的动作预测部11根据雷达传感器6的障碍物的位置信息和照相机7的机器人周围的图像信息,判定在周围是否检测出人(S172)。人的动作预测部11,在判定为没有检测出人的情况下,转到步骤S175。
人的动作预测部11,在判定为检测出人的情况下,进行预测检测出的人的动作的动作预测处理(S173)。之后,动作干扰判断部15根据机器人动作目标生成部10生成的动作目标和人的动作预测部11预测的人的动作,判断周围的人和自律移动型机器人131的动作是否相互干扰(S174)。动作干扰判断部15在判断为没有动作的干扰的情况下,转到步骤S175。
在步骤S175,移动控制部13进行按照机器人动作目标生成部10生成的动作目标控制自律移动型机器人131的移动机构的通常时机器人控制处理。
另一方面,在步骤S174,在动作干扰判断部15判断为有动作的干扰的情况下,相互让步动作计划部25根据优先关系判断部24的判断结果、机器人动作目标生成部10生成的动作目标、及人的动作预测部11预测的人的动作,进行相互让步动作计划处理(S176)。相互让步动作计划部25,作为相互让步动作,计划自律移动型机器人131的回避动作和对人期待的期待回避动作。
接着,驱使动作计划部26根据优先关系判断部24的判断结果及相互让步动作计划部25计划的期待回避动作,进行计划对人的驱使动作的驱使动作计划处理(177)。将这些回避动作及驱使动作组合,作为候补动作。相互让步动作计划部25及驱使动作计划部26从多个种类的回避动作及驱使动作计划出多个候补动作。
之后,动作结果预测部134对于多个计划的自律移动型机器人131的候补动作,预测在实际进行的情况下的动作结果(S178)。动作结果预测部134利用人的运动模型(包括对机器人131的驱使动作的运动方式的模型),预测动作结果。
其次,候补动作选出部135根据动作结果预测部134的动作结果的预测,判定能否选出预测为动作结果满足规定的制约条件的候补动作(S179)。
在不存在预测为满足规定的制约条件的候补动作的情况下,候补动作选出部135判定为不能选出候补动作。在这种情况下,返回步骤S176,进行新的候补动作的制作。另一方面,在存在预测为预测的动作结果满足规定的制约条件的候补动作的情况下,候补动作选出部135判定为能够选出候补动作。
在判定为能够选出候补动作的情况下,候补动作选出部135选出预测为满足规定的制约条件的候补动作之中移动效率最大的候补动作(S180)。候补动作选出部135根据动作结果预测部134的动作结果的预测,评价多个候补动作的移动效率。候补动作选出部135对于人的移动效率及机器人131的移动效率分别进行评价,选出人的移动效率及机器人131的移动效率之和最大的动作结果。
之后,在步骤S181,移动控制部13及驱使控制部14根据候补动作选出部135选出的候补动作,进行用于实现相互让步动作的干扰时机器人控制处理。在干扰时机器人控制处理中,进行与候补动作选出部135选出的候补动作相对应的回避动作及驱使动作。
之后,控制装置132判定是否达到动作目标、自律移动型机器人131的动作是否结束(S182)。在判定为自律移动型机器人131的动作没有结束的情况下,控制装置132从步骤S131起重复进行处理。在判定为自律移动型机器人131的动作结束的情况下,控制装置132结束控制。
根据上述第十种实施方式的自律移动型机器人131,通过从多个候补动作之中选出预测为满足对人的接近或驱使的强度等规定的制约条件的候补动作,可以避免进行驱使过强等实际上不恰当的动作。
具体地说,在对人期待大的回避的情况下,强的驱使成为必要的,但是,从安全或安心感的观点出发,实施过强的驱使动作是不理想的。如果是通过接触行进的驱使,当过强时存在着使人感觉疼痛或者使身体姿势不稳定的担忧。另外,如果是利用声音或者光进行驱使,则存在着过强的刺激给予人过度的不快感的担忧。另一方面,在希望缩小能够对人期待的回避动作的情况下,机器人131的移动效率降低。
因此,在根据第十种实施方式的自律移动型机器人131中,通过采用从多个候补动作之中选出满足规定的制约条件、并且移动效率高的候补动作的探索的方法,可以实施能够实际上移动效率高地实现的相互让步动作。
本发明并不局限于上述实施方式。
例如,根据本发明的移动体,并不局限于自律移动型机器人、机械手、汽车、个人移动装置。另外,移动体并不一定局限于在地上移动的移动体、也可以是在空中或水中移动的移动体。
另外,作为机器人驱使的部位,与人接触的部位也可以仅限于手掌部。这是因为,由手掌部进行接触,与在其它部位的接触相比,可以由各传感器高精度地检测出的接触状态。另外,由手掌部进行的接触,在可以有效地利用手掌部的柔软的被覆及腕部的从动的柔软机构来降低冲击这一点上是优异的。
另外,在上述实施方式中,对于与人作为对象进行动作的情况进行了说明,但是,本发明对于人以外的对象,也能够很好地适用的。即,权利要求范围内记载的移动障碍物,除了人之外,也包括狗等动物或汽车等移动器、另外的机器人等。
工业上的利用可能性
本发明能够用于机器人、机械手及移动器等移动体。
附图标记说明
1、21、31、41、51、61、131···自律移动型机器人(移动体)2、22、32、42、52、62、72、92、112、132···控制装置,6、96、114···雷达传感器(移动障碍物检测机构)7、97、115···照相机(移动障碍物检测机构)10···机器人动作目标生成部(动作目标生成机构)11···人的动作预测部(动作预测机构)12、23、34、43、53、63、78、100、117、133···动作计划部(动作计划机构)15···动作干扰判断部(接近判定机构)16、25、36、46、55、65···相互让步动作计划部17、26、37、47、56、66、84、100、107、124···驱使动作计划部(驱使动作计划机构)24、44、64、82、104、121···优先关系判断部(优先关系判断机构)35、45···接触允许程度计算部(接触允许程度计算机构)54、105、122···亲和性计算部(亲和性计算机构)71···机械手机器人(移动体)74···作业者用固定照相机(移动障碍物检测机构)76···作业支援目标生成部(动作目标生成机构)77···作业者动作预测部(动作预测机构)81···作业者动作判断部(接近判定机构)83···协调作业动作计划部(动作计划部)91···汽车(移动体)98···自动驾驶前进道路生成部(动作目标生成机构)99、116···步行者前进道路预测部(动作预测机构)103···安全限度判断部(接近判定机构)106、123··相互让步前进道路计划部(动作计划部)111···个人移动装置(移动体)120···前进道路干扰判断部(接近判定机构)134···动作结果预测部135···候补动作选出部
Claims (16)
1.一种移动体,所述移动体根据动作目标进行移动,其特征在于,所述移动体具备:
移动障碍物检测机构,所述移动障碍物检测机构检测存在于所述移动体的周边的移动障碍物;
动作预测机构,所述动作预测机构基于所述移动障碍物检测机构的检测结果,预测所述移动障碍物的将来的动作;
接近判定机构,所述接近判定机构判定所述移动障碍物和所述移动体是否接近到规定间隔以内;
动作计划机构,在所述接近判定机构判定为所述移动障碍物和所述移动体接近到规定间隔以内的情况下,所述动作计划机构基于所述动作预测机构预测的所述移动障碍物的动作和所述移动体的所述动作目标,计划所述移动体的回避动作以及对所述移动障碍物所期待的期待回避动作,
所述期待回避动作是为了避免与所述移动体接近或接触而能够期待所述移动障碍物做出的动作。
2.如权利要求1所述的移动体,其特征在于,所述移动体还具备驱使动作计划机构,所述驱使动作计划机构根据所述动作计划机构计划的所述期待回避动作,计划对所述移动障碍物的驱使动作。
3.如权利要求1所述的移动体,其特征在于,
所述移动体还具备接触允许程度计算机构,所述接触允许程度计算机构计算所述移动体对所述移动障碍物的接触允许程度,
所述动作计划机构还根据所述接触允许程度计算机构计算出的所述接触允许程度,计划所述移动体的所述回避动作和对所述移动障碍物所期待的所述期待回避动作。
4.如权利要求2所述的移动体,其特征在于,
所述移动体还具备接触允许程度计算机构,所述接触允许程度计算机构计算所述移动体对所述移动障碍物的接触允许程度,
所述动作计划机构还根据所述接触允许程度计算机构计算出的所述接触允许程度,计划所述移动体的所述回避动作和对所述移动障碍物所期待的所述期待回避动作。
5.如权利要求2所述的移动体,其特征在于,
所述移动体还具备接触允许程度计算机构,所述接触允许程度计算机构计算所述移动体对所述移动障碍物的接触允许程度,
所述驱使动作计划机构还根据所述接触允许程度计算机构计算出的所述接触允许程度,计划包括对所述移动障碍物的接触动作在内的所述驱使动作。
6.如权利要求1~5中任何一项所述的移动体,其特征在于,
所述移动体还具备优先关系判断机构,在所述接近判定机构判定为所述移动障碍物和所述移动体接近到规定间隔以内的情况下,所述优先关系判断机构判断所述移动障碍物和所述移动体的优先关系,
所述动作计划机构还根据所述优先关系判断机构的判断结果,计划所述移动体的所述回避动作和对所述移动障碍物所期待的所述期待回避动作。
7.如权利要求2或5所述的移动体,其特征在于,
所述移动体还具备优先关系判断机构,在所述接近判定机构判定为所述移动障碍物和所述移动体接近到规定间隔以内的情况下,所述优先关系判断机构判断所述移动障碍物和所述移动体的优先关系,
所述驱使动作计划机构还根据所述优先关系判断机构的判断结果,计划对所述移动障碍物的所述驱使动作。
8.如权利要求3~5中任何一项所述的移动体,其特征在于,
所述移动体还具备优先关系判断机构,在所述接近判定机构判定为所述移动障碍物和所述移动体接近到规定间隔以内的情况下,所述优先关系判断机构判断所述移动障碍物和所述移动体的优先关系,
所述接触允许程度计算机构根据所述优先关系判断机构的判断结果,计算所述接触允许程度。
9.如权利要求1~5中任何一项所述的移动体,其特征在于,
所述移动体还具备亲和性计算机构,在所述移动障碍物是人的情况下,所述亲和性计算机构计算所述人对所述移动体的亲和性,
所述动作计划机构还根据所述亲和性计算机构计算出的亲和性,计划所述移动体的所述回避动作和对所述人所期待的所述期待回避动作。
10.如权利要求2或5所述的移动体,其特征在于,
所述移动体还具备亲和性计算机构,在所述移动障碍物是人的情况下,所述亲和性计算机构计算所述人对所述移动体的亲和性,
所述驱使动作计划机构还根据所述亲和性计算机构计算出的亲和性,计划对所述移动障碍物的所述驱使动作。
11.如权利要求1~5中任何一项所述的移动体,其特征在于,所述移动体还具备:动作目标生成机构,所述动作目标生成机构生成所述移动体的动作目标,
所述接近判定机构根据所述动作目标生成机构生成的所述动作目标和所述动作预测机构预测出的所述移动障碍物的动作,判定所述移动障碍物和所述移动体是否接近到规定间隔以内。
12.如权利要求11所述的移动体,其特征在于,所述动作计划机构根据所计划的所述回避动作与所述动作目标生成机构生成的所述动作目标的偏离度、以及所计划的所述期待回避动作与所述动作预测机构预测出的所述移动障碍物的动作的偏离度,修正所述回避动作以及所述期待回避动作。
13.如权利要求1~5中任何一项所述的移动体,其特征在于,所述动作计划机构根据所述移动体的回避动作以及对所述移动障碍物所期待的所述期待回避动作,计划所述移动体的多个候补动作,预测所述多个候补动作的动作结果,并且,从所述多个候补动作中选出被预测为所述动作结果满足规定的制约条件的所述候补动作。
14.如权利要求1~5中任何一项所述的移动体,其特征在于,所述移动体是自律移动型机器人。
15.如权利要求1~5中任何一项所述的移动体,其特征在于,所述移动体是机械手式机器人。
16.如权利要求1~5中任何一项所述的移动体,其特征在于,所述移动体是个人移动装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010210960 | 2010-09-21 | ||
JP2010-210960 | 2010-09-21 | ||
PCT/JP2011/070293 WO2012039280A1 (ja) | 2010-09-21 | 2011-09-06 | 移動体 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103119529A CN103119529A (zh) | 2013-05-22 |
CN103119529B true CN103119529B (zh) | 2016-05-25 |
Family
ID=45873769
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201180045329.4A Expired - Fee Related CN103119529B (zh) | 2010-09-21 | 2011-09-06 | 移动体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9075416B2 (zh) |
JP (1) | JP5409924B2 (zh) |
CN (1) | CN103119529B (zh) |
DE (1) | DE112011103155T5 (zh) |
WO (1) | WO2012039280A1 (zh) |
Families Citing this family (55)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013083143A1 (de) * | 2011-12-09 | 2013-06-13 | Daimler Ag | Verfahren zum betreiben einer produktionsanlage |
JP5901753B2 (ja) * | 2012-05-18 | 2016-04-13 | 株式会社日立製作所 | 自律移動装置、制御装置および自律移動方法 |
US9393695B2 (en) | 2013-02-27 | 2016-07-19 | Rockwell Automation Technologies, Inc. | Recognition-based industrial automation control with person and object discrimination |
US9798302B2 (en) | 2013-02-27 | 2017-10-24 | Rockwell Automation Technologies, Inc. | Recognition-based industrial automation control with redundant system input support |
US9498885B2 (en) | 2013-02-27 | 2016-11-22 | Rockwell Automation Technologies, Inc. | Recognition-based industrial automation control with confidence-based decision support |
US9804576B2 (en) * | 2013-02-27 | 2017-10-31 | Rockwell Automation Technologies, Inc. | Recognition-based industrial automation control with position and derivative decision reference |
WO2014148051A1 (ja) * | 2013-03-21 | 2014-09-25 | パナソニック株式会社 | 自律走行装置の自律走行制御方法及び装置並びに自律走行制御装置用プログラム |
US9286794B2 (en) | 2013-10-18 | 2016-03-15 | Elwha Llc | Pedestrian warning system |
US20150109148A1 (en) * | 2013-10-18 | 2015-04-23 | Elwha Llc | Pedestrian Warning System |
US9786178B1 (en) * | 2013-08-02 | 2017-10-10 | Honda Motor Co., Ltd. | Vehicle pedestrian safety system and methods of use and manufacture thereof |
JP6429368B2 (ja) | 2013-08-02 | 2018-11-28 | 本田技研工業株式会社 | 歩車間通信システムおよび方法 |
KR101901962B1 (ko) * | 2013-11-08 | 2018-11-07 | 한국전자통신연구원 | 내비게이션을 이용한 자율 주행 제어 장치 및 그 방법 |
WO2015072623A1 (ko) * | 2013-11-13 | 2015-05-21 | 엘지전자 주식회사 | 클리닝 디바이스 및 그 제어 방법 |
JP6397226B2 (ja) * | 2014-06-05 | 2018-09-26 | キヤノン株式会社 | 装置、装置の制御方法およびプログラム |
JP6140114B2 (ja) * | 2014-07-31 | 2017-05-31 | ファナック株式会社 | 移動式人協調型ロボット |
US9902061B1 (en) * | 2014-08-25 | 2018-02-27 | X Development Llc | Robot to human feedback |
DE102014223363B4 (de) | 2014-11-17 | 2021-04-29 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zur Lokalisation eines Kraftfahrzeugs in einer ortsfesten Referenzkarte |
US9623560B1 (en) * | 2014-11-26 | 2017-04-18 | Daniel Theobald | Methods of operating a mechanism and systems related therewith |
US10008111B1 (en) * | 2015-01-26 | 2018-06-26 | State Farm Mutual Automobile Insurance Company | Generating emergency vehicle warnings |
CN104552237B (zh) * | 2015-01-29 | 2016-06-22 | 重庆交通大学 | 机场跑道异物处理机器人 |
US10168699B1 (en) * | 2015-01-30 | 2019-01-01 | Vecna Technologies, Inc. | Interactions between a vehicle and a being encountered by the vehicle |
JP6824622B2 (ja) * | 2015-05-01 | 2021-02-03 | キヤノン株式会社 | ロボットの制御装置、制御方法およびシステム |
CN106325112B (zh) * | 2015-06-25 | 2020-03-24 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
JP6426547B2 (ja) | 2015-07-21 | 2018-11-21 | ファナック株式会社 | 人間協調型ロボットシステムのロボットシミュレーション装置 |
EP3380280A1 (fr) * | 2015-11-26 | 2018-10-03 | Institut de Recherche Technologique Jules Verne | Procédé et dispositif pour le pilotage d'un robot en co-activité |
US9645577B1 (en) * | 2016-03-23 | 2017-05-09 | nuTonomy Inc. | Facilitating vehicle driving and self-driving |
WO2018047392A1 (ja) | 2016-09-06 | 2018-03-15 | Cyberdyne株式会社 | モビリティ及びモビリティシステム |
JP6558393B2 (ja) * | 2017-04-06 | 2019-08-14 | トヨタ自動車株式会社 | 進路設定装置及び進路設定方法 |
US10882186B1 (en) * | 2017-05-11 | 2021-01-05 | AI Incorporated | Method for efficient operation of mobile robotic devices |
EP3403772B1 (en) * | 2017-05-18 | 2022-11-16 | KUKA Hungária Kft. | Robot motion planning for avoiding collision with moving obstacles |
DE102017111651A1 (de) * | 2017-05-29 | 2018-11-29 | Schunk Gmbh & Co. Kg Spann- Und Greiftechnik | Antriebseinheit einer Automationskomponente, insbesondere einer Greif-, Spann- und Wechsel- oder Schwenkeinheit |
US10509415B2 (en) * | 2017-07-27 | 2019-12-17 | Aurora Flight Sciences Corporation | Aircrew automation system and method with integrated imaging and force sensing modalities |
JP6711329B2 (ja) | 2017-08-09 | 2020-06-17 | トヨタ自動車株式会社 | 走行支援装置 |
DE102017123295A1 (de) * | 2017-10-06 | 2019-04-11 | Pilz Gmbh & Co. Kg | Sicherheitssystem zur Absicherung eines kooperativen Betriebs von Menschen, Robotern und Maschinen |
US20190111565A1 (en) * | 2017-10-17 | 2019-04-18 | True Systems, LLC | Robot trainer |
WO2019087478A1 (ja) * | 2017-10-30 | 2019-05-09 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP7036399B2 (ja) * | 2017-11-08 | 2022-03-15 | 学校法人早稲田大学 | 自律移動ロボット、並びに、その制御装置及び動作制御プログラム |
US10612934B2 (en) * | 2018-01-12 | 2020-04-07 | General Electric Company | System and methods for robotic autonomous motion planning and navigation |
WO2019181900A1 (ja) * | 2018-03-19 | 2019-09-26 | 本田技研工業株式会社 | 移動体及びその制御方法並びに優劣決定方法 |
CN108445501B (zh) * | 2018-04-02 | 2023-12-29 | 北醒(北京)光子科技有限公司 | 一种基于slam技术的多雷达防串扰系统及方法 |
JP7095427B2 (ja) * | 2018-06-15 | 2022-07-05 | トヨタ自動車株式会社 | 自律移動体、および自律移動体の制御プログラム |
JP2020004182A (ja) * | 2018-06-29 | 2020-01-09 | 株式会社国際電気通信基礎技術研究所 | ロボット、ロボット制御プログラムおよびロボット制御方法 |
US10810871B2 (en) * | 2018-06-29 | 2020-10-20 | Ford Global Technologies, Llc | Vehicle classification system |
JP7125743B2 (ja) * | 2018-09-14 | 2022-08-25 | 学校法人早稲田大学 | ロボット、並びに、その行動計画装置及び行動計画用プログラム |
US11393339B1 (en) * | 2018-10-31 | 2022-07-19 | United Services Automobile Association (Usaa) | Navigation system |
JP7439816B2 (ja) * | 2019-02-19 | 2024-02-28 | ソニーグループ株式会社 | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム |
JP7273566B2 (ja) | 2019-03-19 | 2023-05-15 | パナソニックホールディングス株式会社 | ロボット、ロボットの制御方法及びプログラム |
CN114206561A (zh) * | 2019-08-14 | 2022-03-18 | 索尼集团公司 | 机器人控制装置、方法和程序 |
WO2021039190A1 (ja) * | 2019-08-27 | 2021-03-04 | ソニー株式会社 | 情報処理装置、その制御方法及びプログラム |
US11123870B2 (en) * | 2019-09-27 | 2021-09-21 | HighRes Biosolutions, Inc. | Robotic transport system and method therefor |
JP7400371B2 (ja) * | 2019-11-13 | 2023-12-19 | オムロン株式会社 | ロボット制御モデル学習方法、ロボット制御モデル学習装置、ロボット制御モデル学習プログラム、ロボット制御方法、ロボット制御装置、ロボット制御プログラム、及びロボット |
JP7117650B1 (ja) | 2020-12-23 | 2022-08-15 | パナソニックIpマネジメント株式会社 | ロボットの制御方法、ロボット、及びプログラム |
CN118238112A (zh) * | 2020-12-23 | 2024-06-25 | 松下知识产权经营株式会社 | 机器人的控制方法、机器人以及程序 |
JP2022165164A (ja) * | 2021-04-19 | 2022-10-31 | 三菱電機株式会社 | 移動体の制御装置および設備連携制御システム |
WO2023153221A1 (ja) * | 2022-02-10 | 2023-08-17 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、およびプログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1782736A (zh) * | 2004-08-09 | 2006-06-07 | M/A-Com公司 | 检测迫近碰撞的系统和方法 |
CN101048296A (zh) * | 2004-10-28 | 2007-10-03 | 爱信精机株式会社 | 移动体周边监视装置 |
JP2008137127A (ja) * | 2006-12-04 | 2008-06-19 | Matsushita Electric Ind Co Ltd | ロボットの制御方法 |
JP2010034645A (ja) * | 2008-07-25 | 2010-02-12 | Nissan Motor Co Ltd | 駐車支援装置および駐車支援方法 |
Family Cites Families (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2661023B2 (ja) | 1986-12-16 | 1997-10-08 | 神鋼電機株式会社 | 自立型無人車システムにおける衝突回避方法 |
JPH09185412A (ja) * | 1995-12-28 | 1997-07-15 | Yaskawa Electric Corp | 自律移動装置 |
US6941199B1 (en) * | 1998-07-20 | 2005-09-06 | The Procter & Gamble Company | Robotic system |
JP2003241836A (ja) * | 2002-02-19 | 2003-08-29 | Keio Gijuku | 自走移動体の制御方法および装置 |
US6690208B2 (en) * | 2002-02-23 | 2004-02-10 | Ati Industrial Automation, Inc. | Robot crash protector |
US6678582B2 (en) * | 2002-05-30 | 2004-01-13 | Kuka Roboter Gmbh | Method and control device for avoiding collisions between cooperating robots |
US7332890B2 (en) * | 2004-01-21 | 2008-02-19 | Irobot Corporation | Autonomous robot auto-docking and energy management systems and methods |
JP4315872B2 (ja) | 2004-07-28 | 2009-08-19 | 本田技研工業株式会社 | 移動ロボットの制御装置 |
AT502286B1 (de) * | 2004-09-15 | 2008-09-15 | Wfl Millturn Tech Gmbh & Co Kg | Verfahren zur kollisionsvermeidung |
JP2006232247A (ja) | 2005-02-22 | 2006-09-07 | Kazushi Sakaitani | 自動車搭載用意思伝達装置。 |
WO2007041295A2 (en) * | 2005-09-30 | 2007-04-12 | Irobot Corporation | Companion robot for personal interaction |
JP4984499B2 (ja) | 2005-11-24 | 2012-07-25 | トヨタ自動車株式会社 | 運転支援装置 |
US7167799B1 (en) * | 2006-03-23 | 2007-01-23 | Toyota Technical Center Usa, Inc. | System and method of collision avoidance using intelligent navigation |
JP4699426B2 (ja) * | 2006-08-08 | 2011-06-08 | パナソニック株式会社 | 障害物回避方法と障害物回避移動装置 |
EP1972415B1 (en) * | 2007-03-23 | 2019-01-02 | Honda Research Institute Europe GmbH | Robots with collision avoidance functionality |
EP1972416B1 (en) * | 2007-03-23 | 2018-04-25 | Honda Research Institute Europe GmbH | Robots with occlusion avoidance functionality |
JP4477029B2 (ja) * | 2007-03-27 | 2010-06-09 | 株式会社東芝 | ロボット |
JP5080333B2 (ja) * | 2007-04-06 | 2012-11-21 | 本田技研工業株式会社 | 自律移動体のための物体認識装置 |
JP4576445B2 (ja) * | 2007-04-12 | 2010-11-10 | パナソニック株式会社 | 自律移動型装置および自律移動型装置用プログラム |
WO2008141186A2 (en) * | 2007-05-09 | 2008-11-20 | Irobot Corporation | Autonomous coverage robot |
FR2916893A1 (fr) * | 2007-05-30 | 2008-12-05 | Eurolum Soc Par Actions Simpli | Procede et dispositif d'assistance a la conduite pour un vehicule destine a parcourir un trajet defini entre un premier point et un deuxieme point |
US8170287B2 (en) * | 2007-10-26 | 2012-05-01 | Honda Motor Co., Ltd. | Real-time self collision and obstacle avoidance |
WO2009058693A1 (en) * | 2007-11-01 | 2009-05-07 | Honda Motors Co., Ltd. | Real-time self collision and obstacle avoidance using weighting matrix |
JP5190761B2 (ja) * | 2008-01-10 | 2013-04-24 | 株式会社Ihi | 移動ロボットの監視装置および監視方法 |
US8961695B2 (en) * | 2008-04-24 | 2015-02-24 | Irobot Corporation | Mobile robot for cleaning |
CN104248395B (zh) * | 2008-04-24 | 2018-06-22 | 艾罗伯特公司 | 用于机器人使能的移动产品的定位、位置控制和导航系统的应用 |
JP5215740B2 (ja) * | 2008-06-09 | 2013-06-19 | 株式会社日立製作所 | 移動ロボットシステム |
WO2010004744A1 (ja) * | 2008-07-09 | 2010-01-14 | パナソニック株式会社 | 経路危険性評価装置 |
JP4717105B2 (ja) * | 2008-08-29 | 2011-07-06 | 株式会社日立製作所 | 自律移動ロボット装置及びかかる装置における飛び出し衝突回避方法 |
US8675060B2 (en) * | 2009-08-28 | 2014-03-18 | Indian Institute Of Science | Machine vision based obstacle avoidance system |
US9014848B2 (en) * | 2010-05-20 | 2015-04-21 | Irobot Corporation | Mobile robot system |
WO2012061874A1 (en) * | 2010-11-08 | 2012-05-18 | Cmte Development Limited | A collision avoidance system and method for human commanded systems |
US8930019B2 (en) * | 2010-12-30 | 2015-01-06 | Irobot Corporation | Mobile human interface robot |
US8762044B2 (en) * | 2011-07-13 | 2014-06-24 | Dynamic Research, Inc. | System and method for testing crash avoidance technologies |
JP2015526309A (ja) * | 2012-08-31 | 2015-09-10 | リシンク ロボティクス インコーポレイテッド | 安全ロボット動作のためのシステムおよび方法 |
US8958937B2 (en) * | 2013-03-12 | 2015-02-17 | Intellibot Robotics Llc | Cleaning machine with collision prevention |
-
2011
- 2011-09-06 WO PCT/JP2011/070293 patent/WO2012039280A1/ja active Application Filing
- 2011-09-06 US US13/825,230 patent/US9075416B2/en not_active Expired - Fee Related
- 2011-09-06 DE DE201111103155 patent/DE112011103155T5/de active Pending
- 2011-09-06 CN CN201180045329.4A patent/CN103119529B/zh not_active Expired - Fee Related
- 2011-09-06 JP JP2012534989A patent/JP5409924B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1782736A (zh) * | 2004-08-09 | 2006-06-07 | M/A-Com公司 | 检测迫近碰撞的系统和方法 |
CN101048296A (zh) * | 2004-10-28 | 2007-10-03 | 爱信精机株式会社 | 移动体周边监视装置 |
JP2008137127A (ja) * | 2006-12-04 | 2008-06-19 | Matsushita Electric Ind Co Ltd | ロボットの制御方法 |
JP2010034645A (ja) * | 2008-07-25 | 2010-02-12 | Nissan Motor Co Ltd | 駐車支援装置および駐車支援方法 |
Also Published As
Publication number | Publication date |
---|---|
US20130184980A1 (en) | 2013-07-18 |
CN103119529A (zh) | 2013-05-22 |
JPWO2012039280A1 (ja) | 2014-02-03 |
DE112011103155T5 (de) | 2013-07-18 |
JP5409924B2 (ja) | 2014-02-05 |
US9075416B2 (en) | 2015-07-07 |
WO2012039280A1 (ja) | 2012-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103119529B (zh) | 移动体 | |
US11061398B2 (en) | Machine-learning systems and techniques to optimize teleoperation and/or planner decisions | |
JP7381539B2 (ja) | 自律車両の軌道修正のための遠隔操作システムおよび方法 | |
JP7330259B2 (ja) | 自律車両のためのシミュレーションシステム、方法、及び非一時的なコンピュータ可読記憶媒体 | |
US11314249B2 (en) | Teleoperation system and method for trajectory modification of autonomous vehicles | |
US20200371533A1 (en) | Autonomous vehicle fleet service and system | |
US10921811B2 (en) | Adaptive autonomous vehicle planner logic | |
US11301767B2 (en) | Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles | |
EP3371668B1 (en) | Teleoperation system and method for trajectory modification of autonomous vehicles | |
US9507346B1 (en) | Teleoperation system and method for trajectory modification of autonomous vehicles | |
US9734455B2 (en) | Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles | |
CN108475406B (zh) | 用于请求和控制自主车辆服务的软件应用 | |
US20170132934A1 (en) | Software application to request and control an autonomous vehicle service | |
CN118197035A (zh) | 派遣和维护自主车辆的车队的协调 | |
JP2022137160A (ja) | 遠隔操作および/またはプランナ決定を最適化するための機械学習システムおよび技法 | |
US20240028031A1 (en) | Autonomous vehicle fleet service and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160525 |