CN109643126A - 行为自主型机器人、服务器及行为控制程序 - Google Patents
行为自主型机器人、服务器及行为控制程序 Download PDFInfo
- Publication number
- CN109643126A CN109643126A CN201780053741.8A CN201780053741A CN109643126A CN 109643126 A CN109643126 A CN 109643126A CN 201780053741 A CN201780053741 A CN 201780053741A CN 109643126 A CN109643126 A CN 109643126A
- Authority
- CN
- China
- Prior art keywords
- robot
- planned orbit
- event
- behavior
- track
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 230000033001 locomotion Effects 0.000 claims abstract description 127
- 230000007246 mechanism Effects 0.000 claims abstract description 34
- 230000006870 function Effects 0.000 claims description 39
- 230000003542 behavioural effect Effects 0.000 claims description 19
- 230000006854 communication Effects 0.000 claims description 18
- 238000004891 communication Methods 0.000 claims description 16
- 238000012360 testing method Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 7
- 230000006399 behavior Effects 0.000 description 125
- 230000008451 emotion Effects 0.000 description 32
- 238000012545 processing Methods 0.000 description 30
- 230000009471 action Effects 0.000 description 29
- 238000000034 method Methods 0.000 description 29
- 238000007726 management method Methods 0.000 description 20
- 210000003128 head Anatomy 0.000 description 15
- 238000010586 diagram Methods 0.000 description 12
- 230000008859 change Effects 0.000 description 9
- 230000010485 coping Effects 0.000 description 9
- 230000004888 barrier function Effects 0.000 description 8
- 239000000284 extract Substances 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 230000035943 smell Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 239000011521 glass Substances 0.000 description 5
- 241000282326 Felis catus Species 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000007621 cluster analysis Methods 0.000 description 4
- 238000013500 data storage Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 206010012374 Depressed mood Diseases 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 230000033228 biological regulation Effects 0.000 description 3
- 239000000470 constituent Substances 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000036651 mood Effects 0.000 description 3
- 229920005989 resin Polymers 0.000 description 3
- 239000011347 resin Substances 0.000 description 3
- 101100465000 Mus musculus Prag1 gene Proteins 0.000 description 2
- 206010037180 Psychiatric symptoms Diseases 0.000 description 2
- 241000270295 Serpentes Species 0.000 description 2
- 206010044565 Tremor Diseases 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000036760 body temperature Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 239000011551 heat transfer agent Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 229910052751 metal Inorganic materials 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 238000012856 packing Methods 0.000 description 2
- 238000010187 selection method Methods 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 238000009423 ventilation Methods 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 206010015535 Euphoric mood Diseases 0.000 description 1
- 206010020751 Hypersensitivity Diseases 0.000 description 1
- 206010021033 Hypomenorrhoea Diseases 0.000 description 1
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 206010044074 Torticollis Diseases 0.000 description 1
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 208000026935 allergic disease Diseases 0.000 description 1
- 230000007815 allergy Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 210000002858 crystal cell Anatomy 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 229920001971 elastomer Polymers 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 229910052738 indium Inorganic materials 0.000 description 1
- 208000018197 inherited torticollis Diseases 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910001416 lithium ion Inorganic materials 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 239000002304 perfume Substances 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 229920002635 polyurethane Polymers 0.000 description 1
- 239000004814 polyurethane Substances 0.000 description 1
- 229920003225 polyurethane elastomer Polymers 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000005060 rubber Substances 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 230000009329 sexual behaviour Effects 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 230000002889 sympathetic effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/06—Safety devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/001—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/026—Acoustical sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
- Toys (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
机器人具备:动作控制部,决定作为机器人的移动路径的执行轨道;以及驱动机构,使机器人沿着执行轨道移动。机器人在事件发生前生成与事件对应的预定轨道。当在沿着执行轨道移动的过程中实际发生了事件时,机器人沿着预定轨道移动,而非沿着执行轨道移动。针对一个事件依次生成多条预定轨道,当事件发生时已生成了多条预定轨道时,从中任选一条预定轨道。
Description
技术领域
本发明涉及一种根据内部状态或外部环境自主地作出行为选择的机器人。
背景技术
人类通过感觉器官从外部环境获取各种信息并作出行为选择。既会有意识地作出行为选择,也会无意识地作出行为选择。重复行为很快会变为无意识的行为,而非重复行为将停留在意识区域。
人类相信自己有选择自身行为的意志,即自由意志。人类之所以对别人抱有爱、恨这些情感,是因为相信别人也有自由意志。拥有自由意志者、至少可以假设其拥有自由意志的存在也会成为慰藉人的寂寞的存在。
比起是否对人类有用,人类养宠物的原因更在于宠物会给予人类慰藉。宠物是或多或少会让人感受到自由意志的存在,正因如此,才能成为人类的理想伴侣。
另一方面,因为无法充分确保照顾宠物的时间、没有养宠物的居住环境、有过敏反应、难以忍受生离死别等各种理由而放弃养宠物的人很多。假如存在扮演宠物角色的机器人,可能会为不养宠物的人也带来像宠物所能给予的那种慰藉(参照专利文献1、2)。
现有技术文献
专利文献
专利文献1:日本特开2001-246580号公报
专利文献2:日本特开2006-39760号公报
发明内容
发明所要解决的问题
除了自由意志之外,“本能”也为生物的行为特性赋予特征。本能是指,由来自环境的刺激引起的反应而不伴随有意识的判断,避险是其代表例。生物一旦察觉到危险,就会无意识地、反射性地避险。可以认为在意识到危险时,如果能使机器人采取和生物一样的避险行为,就能提高机器人的“作为生物的存在感”。
但是,在机器人意识到危险之后立即执行适当的规避行为并不容易。在意识到危险之后,如果用于决定如何逃跑、逃到哪里的计算处理花费过多时间,就会变成不自然的行为。在机器人表现接近生物的行为特性这一点上,不仅是对危险事象,对某些事象迅速反应也是重要的。
本发明是基于上述课题认识而完成的发明,其主要目的在于提供一种用于高效地控制机器人对外部发生的各种事象的反射性行为的技术。
用于解决问题的方案
本发明的某一方案中的行为自主型机器人具备:动作控制部,决定作为机器人的移动路径的执行轨道;驱动机构,使所述机器人沿着所述执行轨道移动;以及轨道生成部,在事件发生前,生成与事件对应的预定轨道。
当机器人在执行轨道上移动时发生了事件的情况下,动作控制部使机器人沿着预定轨道移动,而非沿着执行轨道移动。
本发明的某一方案中的服务器经由通信线路与行为自主型机器人连接。
服务器具备:轨道生成部,生成与行为自主型机器人的位置以及事件对应的预定轨道;以及轨道通知部,在事件发生前,将预定轨道通知给行为自主型机器人。
本发明的另一方案中的行为自主型机器人具备:动作控制部,选择机器人的动作;驱动机构,执行由动作控制部选择的动作;以及安全地点检测部,检测出满足规定的安全条件的地点来作为安全地点。
规定的事件发生时,动作控制部使机器人移动到安全地点。
发明效果
根据本发明,容易提高对机器人的共鸣。
附图说明
图1的(a)是机器人的正面外观图。
图1的(b)是机器人的侧面外观图。
图2是概略地表示机器人的构造的剖面图。
图3是机器人系统的构成图。
图4是情感地图的概念图。
图5是机器人的硬件构成图。
图6是机器人系统的功能框图。
图7是动作选择表的数据结构图。
图8是预定轨道选择表的数据结构图。
图9是表示预定轨道的生成方法的示意图。
图10是说明移动中假定的事件和针对事件的预定轨道的示意图。
图11是表示预定轨道生成处理的处理过程的流程图。
图12是表示事件发生时的处理过程的流程图。
具体实施方式
图1的(a)是机器人100的正面外观图。图1的(b)是机器人100的侧面外观图。
本实施方式中的机器人100是基于外部环境以及内部状态来决定行为、举动(gesture)的行为自主型机器人。外部环境通过摄像头、热敏传感器(thermosensor)等各种传感器来识别。内部状态被量化为表现机器人100的情感的各种参数。对此将在后文加以说明。
机器人100以房屋内行动为前提,例如,以主人家的房屋内为行动范围。以下,将与机器人100有关联的人称为“用户”,将作为机器人100所属的家庭的成员的用户称为“主人”。
机器人100的主体104具有整体上圆滑的形状,包括由聚氨酯、橡胶、树脂、纤维等柔软而具有弹性的材料形成的外皮。可以给机器人100着装。通过采用圆滑而柔软的手感好的主体104,机器人100提供给用户安心感和舒服的触感。
机器人100总重量在15千克以下,优选10千克以下,进一步优选5千克以下。一半以上的婴儿直到出生后13个月才开始走路。出生后13个月的婴儿的平均体重为男孩略高于9千克、女孩略低于9千克。因此,如果机器人100的总重量为10千克以下,则用户只需耗费大致与抱起不会走路的婴儿同等的力气就能抱起机器人100。出生后2个月以内的婴儿的平均体重是男女均小于5千克。因此,如果机器人100的总重量在5千克以下,则用户耗费与抱起小婴同等的力气就能抱起机器人100。
通过适度的重量和圆滑感、柔软度、手感好等诸多属性,会实现用户容易抱起并且愿意抱起机器人100的效果。基于同样的理由,优选机器人100的身高在1.2米以下,理想的是0.7米以下。对本实施方式的机器人100而言,能抱起来是重要的设计理念。
机器人100具备用于进行三轮行进的三个轮子。如图所示,包括一对前轮102(左轮102a、右轮102b)和一个后轮103。前轮102为驱动轮,后轮103为从动轮。前轮102不具有转向机构,但能独立控制旋转速度、旋转方向。后轮103由所谓的全向轮(omni wheel)构成,能自由旋转以便使机器人100向前后左右移动。机器人100能通过使右轮102b的转速大于左轮102a来进行左转或逆时针旋转。机器人100能通过使左轮102a的转速大于右轮102b来进行右转或顺时针旋转。
前轮102以及后轮103能通过驱动机构(转动机构、连杆机构)而完全收纳于主体104。行进时各轮子的大部分隐藏在主体104中,而当各轮子完全收纳于主体104时,机器人100会变为不可移动的状态。即,随着轮子的收纳动作,主体104下降而就座于地面F。在该就座状态下,形成于主体104的底部的平坦状的就座面108(接地底面)与地面F抵接。
机器人100具有两只手106。手106不具有抓持物体的功能。手106能进行抬起、摆动、颤动等简单的动作。两只手106也能独立控制。
眼睛110内置有摄像头。眼睛110还能通过液晶元件或有机EL元件来进行图像显示。机器人100除了内置在眼睛110的摄像头之外,还搭载了能确定声源方向的麦克风阵列、超声波传感器等各种传感器。此外,还能内置扬声器来发出简单的声音。
机器人100的头部装配有角112。如上所述,机器人100重量轻,因此用户能通过抓住角112来提起机器人100。在角112装配有全景摄像头,能一次性拍摄机器人100的上部整个区域。
图2是概略地表示机器人100的构造的剖面图。
如图2所示,机器人100的主体104包括:基础框架308、主体框架310、一对树脂制的轮罩312、以及外皮314。基础框架308由金属构成,构成主体104的轴芯并且支承内部机构。基础框架308通过多个侧板336将上板332和下板334上下连结而构成。在多个侧板336间设有足够的间隔,以便能进行通气。在基础框架308的内侧容纳有电池118、控制电路342、以及各种驱动器。
主体框架310由树脂材料构成,包括头部框架316以及躯干部框架318。头部框架316呈中空半球状,形成机器人100的头部骨架。躯干部框架318呈分段筒状,形成机器人100的躯干部骨架。躯干部框架318与基础框架308固定为一体。头部框架316以可相对位移的方式组装于躯干部框架318的上端部。
头部框架316设有偏转(yaw)轴320、俯仰(pitch)轴322、横摆(roll)轴324这三个轴以及用于旋转驱动各轴的驱动器326。驱动器326包括用于独立驱动各轴的多个伺服马达。为了进行转头动作而驱动偏转轴320,为了进行点头动作而驱动俯仰轴322,为了进行歪头动作而驱动横摆轴324。
头部框架316的上部固定有支承偏转轴320的板325。板325上形成有多个用于确保上下之间的通气的通气孔327。
以从下方支承头部框架316以及其内部机构的方式设有金属制的基板328。基板328经由桥接(crosslink)机构329(缩放机构)与板325连结,另一方面,经由接头330与上板332(基础框架308)连结。
躯干部框架318容纳基础框架308和轮子驱动机构370。轮子驱动机构370包括转动轴378以及驱动器379。为了在躯干部框架318的下半部与轮罩312之间形成前轮102的收纳空间S而将躯干部框架318的下半部设置得窄。
外皮314由聚氨酯橡胶形成,从外侧覆盖主体框架310以及轮罩312。手106与外皮314一体成形。在外皮314的上端部设有用于导入外部空气的开口部390。
图3是机器人系统300的构成图。
机器人系统300包括:机器人100、服务器200、以及多个外部传感器114。在房屋内预先设置多个外部传感器114(外部传感器114a、114b、……、114n)。外部传感器114既可以固定在房屋的墙面上,也可以放置在地上。服务器200中录入了外部传感器114的位置坐标。位置坐标在被假定为机器人100的行动范围的房屋内被定义为x、y坐标。
服务器200设置于住宅内。本实施方式中的服务器200与机器人100一一对应。服务器200基于由机器人100的内置传感器以及多个外部传感器114获取的信息,来决定机器人100的基本行为。
外部传感器114用于加强机器人100的感觉器,服务器200用于加强机器人100的头脑。
外部传感器114定期发送包括外部传感器114的ID(以下,称为“信标ID”)的无线信号(以下,称为“机器人搜索信号”)。机器人100在接收到机器人搜索信号时会回复包括信标ID的无线信号(以下,称为“机器人应答信号”)。服务器200测量从外部传感器114发送机器人搜索信号开始到接收到机器人应答信号为止的时间,来测定从外部传感器114到机器人100的距离。通过测量多个外部传感器114与机器人100的各自距离,来确定机器人100的位置坐标。
当然,也可以采用机器人100定期向服务器200发送自身位置坐标的方式。
图4是情感地图116的概念图。
情感地图116是储存于服务器200的数据表。机器人100根据情感地图116来作出行为选择。图4所示的情感地图116表示机器人100对场所的好厌恶感的程度。情感地图116的x轴和y轴表示二维空间坐标。z轴表示好厌恶感的程度。z值为正值时表示对该场所的好感较高,z值为负值时表示厌恶该场所。
在图4的情感地图116中,坐标P1是作为机器人100的行动范围而由服务器200管理的屋内空间中好感高的地点(以下,称为“好感地点”)。好感地点可以是沙发的背面、桌子下等“安全场所”,也可以是像客厅这种经常聚人的场所、热闹的场所。此外,也可以是曾经被轻抚或触碰过的场所。
机器人100喜欢怎样的场所的定义是任意的,但一般而言理想的是将小孩或狗、猫等小动物喜欢的场所设定为好感地点。
坐标P2是厌恶感高的地点(以下,称为“厌恶地点”)。厌恶地点可以是电视机附近等声音大的场所、像浴缸和洗面台这种经常被弄湿的场所、密闭空间、暗处、会勾起被用户粗暴对待的不愉快记忆的场所等。
机器人100厌恶怎样的场所的定义也是任意的,但一般而言理想的是将小孩或狗、猫等小动物害怕的场所设定为厌恶地点。
坐标Q表示机器人100的当前位置。服务器200根据由多个外部传感器114定期发送的机器人搜索信号和与之对应的机器人应答信号,来确定机器人100的位置坐标。例如,在信标ID=1的外部传感器114和信标ID=2的外部传感器114分别检测到机器人100时,求出机器人100与两个外部传感器114的距离,并据此求出机器人100的位置坐标。
或者,信标ID=1的外部传感器114向多个方向发送机器人搜索信号,机器人100在接收到机器人搜索信号时回复机器人应答信号。由此,服务器200可以掌握机器人100在哪个方向距哪个外部传感器114多远的距离。此外,在其他实施方式中,可以根据前轮102或后轮103的转速来计算机器人100的移动距离而确定当前位置,也可以基于由摄像头获取到的图像来确定当前位置。
在被提供图4所示的情感地图116的情况下,机器人100会向靠近好感地点(坐标P1)的方向、远离厌恶地点(坐标P2)的方向移动。
情感地图116会动态变化。当机器人100到达坐标P1时,坐标P1处的z值(好感)会随时间降低。由此,机器人100能模拟出到达好感地点(坐标P1)而“情感得到满足”且最终会对该场所产生“厌倦”这样的生物式行为。同样,坐标P2处的厌恶感也会随时间而减轻。随着时间推移,会产生新的好感地点、厌恶地点,由此机器人100会进行新的行为选择。机器人100对新的好感地点有“兴趣”,会不断地作出行为选择。
作为机器人100的内部状态,情感地图116体现出情感的起伏。机器人100会靠近好感地点而避开厌恶地点,暂时停留在好感地点,最终会进行下一行为。通过这样的控制,能将机器人100的行为选择设计成人类/生物式的行为选择。
需要说明的是,影响机器人100的行为的地图(以下,统称为“行为地图”)不限于图4所示的类型的情感地图116。例如,能定义好奇、避免恐惧的情绪、寻求安心的情绪、以及寻求安静或昏暗、凉爽或温暖等肉体的舒适的情绪等各种行为地图。并且,可以通过对多个行为地图各自的z值进行加权平均,来确定机器人100的目的地点。
机器人100除了行为地图之外,还可以具有表示各种情感、感觉的程度的参数。例如,在寂寞这样的情感参数值变高时,可以将评估安心的场所的行为地图的加权系数设定得较大,并通过到达目标地点来降低该情感参数值。同样,在表示无聊这样的感觉的参数的值变高时,将评估满足好奇心的场所的行为地图的加权系数设定得较大即可。
图5是机器人100的硬件构成图。
机器人100包括:内部传感器128、通信器126、存储装置124、处理器122、驱动机构120、以及电池118。驱动机构120包括上述的轮子驱动机构370。处理器122和存储装置124包含在控制电路342中。各单元通过电源线130以及信号线132而相互连接。电池118经由电源线130向各单元供电。各单元通过信号线132来收发控制信号。电池118为锂离子二次电池,是机器人100的动力源。
内部传感器128是内置于机器人100的各种传感器的集合体。具体而言,是摄像头(高分辨率摄像头和全景摄像头)、麦克风阵列、红外线传感器、热敏传感器、触摸传感器、加速度传感器、嗅觉传感器等。嗅觉传感器是一种已知的传感器,其应用了电阻因作为气味源的分子的吸附而变化的原理。嗅觉传感器将各种气味分类为多种类别(以下,称为“气味类别”)。
通信器126是以服务器200、外部传感器114、用户持有的便携设备等各种外部设备为对象来进行无线通信的通信模块。存储装置124由非易失性存储器以及易失性存储器构成,存储计算机程序、各种设定信息。处理器122是计算机程序的执行单元。驱动机构120是控制内部机构的驱动器。除此之外,还搭载有显示器、扬声器等。
处理器122在经由通信器126与服务器200、外部传感器114进行通信的同时,进行机器人100的行为选择。由内部传感器128获取的各种外部信息也会影响行为选择。驱动机构120主要控制轮子(前轮102)和头部(头部框架316)。驱动机构120通过改变两个前轮102各自的旋转速度、旋转方向,来改变机器人100的移动方向、移动速度。此外,驱动机构120也能使轮子(前轮102以及后轮103)升降。当轮子上升时,轮子完全收纳在主体104中,机器人100通过就座面108与地面F抵接,变为就座状态。
图6是机器人系统300的功能框图。
如上所述,机器人系统300包括:机器人100、服务器200、以及多个外部传感器114。机器人100以及服务器200的各构成要素由硬件和软件来实现,其中,硬件包括中央处理器(Central Processing Unit:CPU)以及各种协处理器等运算器、内存(memory)和存储器(storage)等存储装置、将这些装置连结起来的有线或无线的通信线,软件存储于存储装置,将处理命令提供给运算器。计算机程序可以由设备驱动程序、操作系统、位于它们的上位层的各种应用程序、以及为这些程序提供共通功能的程序库构成。以下所说明的各区组不表示硬件单位的构成,而表示功能单位的区组。
机器人100的部分功能可以由服务器200来实现,服务器200的部分或全部功能也可以由机器人100来实现。
(服务器200)
服务器200包括:通信部204、数据处理部202以及数据储存部206。
通信部204负责与外部传感器114以及机器人100的通信处理。数据储存部206储存各种数据。数据处理部202基于由通信部204获取到的数据以及储存于数据储存部206的数据来执行各种处理。数据处理部202还作为通信部204以及数据储存部206的接口而发挥功能。
通信部204包括轨道通知部240。轨道通知部240将由后述的轨道生成部242生成的预定轨道以及预定轨道选择表通知给机器人100。关于预定轨道以及预定轨道选择表也在后文加以说明。
数据储存部206包括动作储存部232、地图储存部216、个人数据储存部218以及预定轨道储存部224。
机器人100具有多个动作模式(motion)。定义有抖手、蛇行接近主人、歪头注视主人等各种动作。
动作储存部232储存对动作的控制内容进行定义的“动作文件”。各动作通过动作ID而被识别。动作文件也下载到机器人100的动作储存部160。执行哪个动作有时由服务器200确定,有时由机器人100确定。
机器人100的动作大多构成为包括多个单位动作的复合动作。例如,可表现为在机器人100接近主人时转向主人的单位动作、一边抬手一边接近的单位动作、一边晃动身体一边接近的单位动作、以及抬起双手坐下的单位动作的组合。通过这样的四个动作的组合,会实现“接近主人、中途抬手、最后晃动身体坐下”这样的动作。动作文件中,与时间轴关联地定义了设于机器人100的驱动器的旋转角度、角速度等。依据动作文件(驱动器控制信息),随着时间经过来控制各驱动器,由此实现各种动作。
将从前一个单位动作变化到下一个单位动作时的过渡时间称为“间隔”。只要能根据单位动作变更所需的时间、动作的内容来定义间隔即可。间隔的长度可调整。
以下,将何时选择哪个动作、实现动作时各驱动器的输出调整等与机器人100的行为控制有关的设定统称为“行为特性”。机器人100的行为特性通过动作选择算法、动作选择概率、动作文件、预定轨道、预定轨道选择表等来定义。
动作储存部232除了动作文件以外,还储存对各种事件发生时应执行的动作进行定义的动作选择表。关于动作选择表,与图7关联地在后文加以说明。
地图储存部216除了多个行为地图以外,还储存表示椅子、桌子等障碍物的配置状况的地图。预定轨道储存部224储存预定轨道。预定轨道储存部224储存预定轨道以及预定轨道选择表(后述)。个人数据储存部218储存用户特别是主人的信息。具体而言,储存对用户的亲密度、用户的身体特征/行为特征等各种的参数。也可以储存年龄、性别等其他属性信息。
机器人系统300(机器人100以及服务器200)基于用户的身体特征、行为特征来识别用户。机器人100不断通过内置的摄像头来拍摄周围。然后,提取现于图像的人物的身体特征和行为特征。所谓身体特征,可以是身高、喜欢穿的衣服、是否戴眼镜、肤色、发色、耳朵大小等身体附带的视觉特征,也可以包括平均体温、气味、音质等其他特征。所谓行为特征,具体而言,是用户喜欢的场所、动作的活跃度、是否吸烟等行为附带的特征。例如,提取出被识别为父亲的主人经常不在家,在家时经常在沙发上不动弹,而母亲经常在厨房、行动范围广之类的行为上的特征。
机器人系统300基于根据大量的图像信息、其他传感信息而获取到的身体特征以及行为特征,将高频率出现的用户归类为“主人”。
通过用户ID来识别用户的方式简单可靠,但前提是用户持有能提供用户ID的设备。另一方面,虽然通过身体特征、行为特征来识别用户的方法的图像识别处理负担较大,但具有即使是不持有便携设备的用户也能被识别的优点。两种方法既可以仅采用一方,也可以互补地并用两种方法来进行用户确定。
在本实施方式中,根据身体特征和行为特征来对用户进行归类,并通过深度学习(多层神经网络)来识别用户。详细情况在后文加以说明。
机器人100按每个用户具有亲密度这样的内部参数。机器人100在识别出抱起自己、打招呼等对自己示好的行为时,对该用户的亲密度会提高。对与机器人100无关的用户、动粗的用户、见面频率低的用户的亲密度会降低。
数据处理部202包括:位置管理部208、地图管理部210、识别部212、动作控制部222、亲密度管理部220、情感管理部244以及轨道生成部242。
位置管理部208通过用图3说明过的方法来确定机器人100的位置坐标。位置管理部208也可以实际追踪用户的位置坐标。
情感管理部244管理表示机器人100的情感(寂寞、开心、害怕等)的各种情感参数。这些情感参数总是在波动。多个行为地图的重要度会根据情感参数而变化,机器人100的移动目标地点会根据行为地图而发生变化,情感参数会因机器人100的移动、时间经过而发生变化。例如,在表示寂寞的情感参数高时,情感管理部244将评价安心场所的行为地图的权重系数设定得较大。当机器人100到达该行为地图中能消除寂寞的地点时,情感管理部244会降低表示寂寞的情感参数。此外,各种情感参数也会因后述的应对行为而发生变化。例如,当被主人“抱着”时表示寂寞的情感参数会降低,在长时间没有看到主人时表示寂寞的情感参数会逐步上升。
地图管理部210通过与图4关联地进行过说明的方法,针对多个行动地图改变各坐标的参数。地图管理部210既可以选择多个行为地图中的任一个,也可以对多个行为地图的z值进行加权平均。例如,在行为地图A中坐标R1、坐标R2处的z值为4和3,在行为地图B中坐标R1、坐标R2处的z值为-1和3。在简单平均的情况下,坐标R1的合计z值为4-1=3,坐标R2的合计z值为3+3=6,因此,机器人100会前往坐标R2的方向,而非坐标R1的方向。
在使行为地图A五倍着重于行为地图B时,坐标R1的合计z值为4×5-1=19,坐标R2的合计z值为3×5+3=18,因此,机器人100会前往坐标R1的方向。
识别部212识别外部环境。外部环境的识别包括基于温度、湿度的气候、季节的识别;基于光量、温度的隐蔽处(安全地带)的识别等多种识别。机器人100的识别部156通过内部传感器128获取各种环境信息,并在对其进行了一次处理后转发至服务器200的识别部212。具体而言,机器人100的识别部156从图像提取与移动物体特别是人物、动物对应的图像,并将这些提取图像发送给服务器200。服务器200的识别部212提取现于提取图像的人物的特征。
识别部212还包括人物识别部214和应对识别部228。人物识别部214根据由机器人100的内置摄像头拍摄到的拍摄图像来识别人物,并提取出该人物的身体特征、行为特征。然后,基于录入个人数据储存部218的身体特征信息、行为特征信息,来判定拍摄到的用户即机器人100所看见的用户为父亲、母亲、长子等中的哪位人物。人物识别部214包括表情识别部230。表情识别部230通过对用户的表情进行图像识别来推定用户的情感。
需要说明的是,人物识别部214也对人物以外的移动物体例如作为宠物的猫、狗进行特征提取。
应对识别部228识别机器人100所受到的各种应对行为,并将其分类为愉快/不愉快行为。此外,应对识别部228还通过识别主人对机器人100的行为的应对行为,分类为肯定/否定反应。
愉快/不愉快行为根据用户的应对行为对生物而言是舒服的还是不愉快的来判别。例如,对于机器人100而言,被抱起是愉快行为,被踢是不愉快行为。根据用户的应对行为表现出了用户的愉快情感还是不愉快情感,来判别肯定/否定反应。例如,被抱起是表示用户的愉快情感的肯定反应,被踢是表示用户的不愉快情感的否定反应。
服务器200的动作控制部222与机器人100的动作控制部150相互配合,决定机器人100的动作。此外,服务器200的动作控制部222基于地图管理部210的行为地图选择,来制定机器人100的移动目标地点和移动至该移动目标地点的执行轨道(移动路线)。在本实施方式中,动作控制部222制定多条执行轨道,并在此基础上任选一条执行轨道。“执行轨道”是指定移动目标地点和到移动目标地点为止的路径的路线信息,机器人100沿着所选择的执行轨道移动。执行轨道除了移动目标地点等以外,还定义途经地点以及移动速度。
动作控制部222从动作储存部232的多个动作中选择机器人100的动作。各动作按情况与选择概率建立对应。例如,定义了如下的选择方法:当主人作出愉快行为时,以20%的概率执行动作A,当气温为30度以上时,以5%的概率执行动作B。
行为地图决定移动目标地点、执行轨道,并根据后述的各种事件选择动作。
轨道生成部242生成对发生了事件时的机器人100的移动路线进行定义的预定轨道、和指示预定轨道的选择方法的预定轨道选择表。关于预定轨道的生成方法,将在后文与图9、图10等关联地详细说明。“预定轨道”是指定移动目标地点和到移动目标地点为止的路径的路线信息。本实施方式中的预定轨道除了移动目标地点等以外,还定义途经地点以及移动速度。“执行轨道”是一旦选择就必然被采用的轨道,而“预定轨道”是如果不发生事件就不被采用的轨道。在生成预定轨道时,预定轨道储存部224的预定轨道选择表被更新,由轨道通知部240通知给机器人100。机器人100的预定轨道储存部154也保存预定轨道选择表。服务器200的预定轨道选择表的变更通过轨道通知部240反映在机器人100的预定轨道选择表中。
亲密度管理部220管理每个用户的亲密度。如上所述,亲密度作为个人数据的一部分被录入个人数据储存部218。在检测到愉快行为时,亲密度管理部220会增加对该主人的亲密度。在检测到不愉快行为时亲密度会下降。此外,长时间未见到的主人的亲密度会逐渐下降。
(机器人100)
机器人100包括:通信部142、数据处理部136、数据储存部148、内部传感器128以及驱动机构120。
通信部142与通信器126(参照图5)对应,负责与外部传感器114以及服务器200的通信处理。数据储存部148储存各种数据。数据储存部148与存储装置124(参照图5)对应。数据处理部136基于由通信部142获取到的数据以及储存在数据储存部148的数据来执行各种处理。数据处理部136与处理器122以及由处理器122执行的计算机程序对应。数据处理部136也作为通信部142、内部传感器128、驱动机构120、以及数据储存部148的接口来发挥功能。
数据储存部148包括定义机器人100的各种动作的动作储存部160,以及储存预定轨道数据的预定轨道储存部154。
各种动作文件从服务器200的动作储存部232下载到机器人100的动作储存部160。通过动作ID来识别动作。为了表现收起前轮102并坐下、抬起手106、通过使两个前轮102反转或仅使一个前轮102旋转来使机器人100作出旋转行为、通过在收起前轮102的状态下使前轮102旋转来颤动、在远离用户时一度停止并回头等各种各样的动作,在动作文件中按时序定义有各种驱动器(驱动机构120)的动作定时、动作时间、动作方向等。
机器人100的预定轨道由机器人100的轨道生成部172以及服务器200的轨道生成部242双方生成。由机器人100的轨道生成部172生成的预定轨道以及预定轨道选择表储存在预定轨道储存部154。由服务器200的轨道生成部242生成的预定轨道以及预定轨道选择表储存在预定轨道储存部224。储存在服务器200的预定轨道储存部224的定义预定轨道选择表以及预定轨道的数据由轨道通知部240随时下载到机器人100的预定轨道储存部154。
数据处理部136包括:识别部156、动作控制部150、安全地带检测部152以及轨道生成部172。
机器人100的动作控制部150与服务器200的动作控制部222相互配合,协作地决定机器人100的动作。可以是部分动作由服务器200来决定,其他动作由机器人100来决定。此外,也可以由机器人100来决定动作,但在机器人100的处理负荷高时也可以由服务器200来决定动作。也可以由服务器200来决定基础动作,并由机器人100来决定追加动作。根据机器人系统300的规格来设计在服务器200和机器人100中如何分担动作的决定处理即可。
机器人100的动作控制部150与服务器200的动作控制部222一起决定机器人100的移动方向。可以由服务器200来决定基于行为地图的移动,并由机器人100的动作控制部150来决定躲避障碍物等的立即移动。可以由动作控制部150来决定执行轨道。驱动机构120按照动作控制部150的指示来驱动前轮102,由此使机器人100前往移动目标地点。
机器人100的动作控制部150向驱动机构120指示执行所选择的动作。驱动机构120根据动作文件来控制各驱动器。
动作控制部150既能在亲密度高的用户接近时,执行抬起双手106的动作作为求“抱抱”的举动,也能在厌倦了“抱抱”时通过在收起左右前轮102的状态下交替反复进行反向旋转和停止来表现讨厌被抱着的动作。驱动机构120按照动作控制部150的指示来驱动前轮102、手106、头部(头部框架316),由此使机器人100表现出各种各样的动作。
轨道生成部172与服务器200的轨道生成部242一起生成机器人100的预定轨道,并更新预定轨道选择表。机器人100的轨道生成部172所生成的预定轨道和预定轨道选择表储存在预定轨道储存部154。储存于预定轨道储存部154的预定轨道中,有由机器人100的轨道生成部172生成的预定轨道、和由服务器200的轨道生成部242生成的预定轨道。此外,预定轨道储存部154的预定轨道选择表被轨道生成部172更新,也会被服务器200的轨道生成部242更新。
安全地带检测部152检测安全地带。关于安全地带及其检测方法在后文加以说明。
机器人100的识别部156对由内部传感器128获取的外部信息进行解释。识别部156能进行视觉识别(视觉部)、气味识别(嗅觉部)、声音识别(听觉部)、以及触觉识别(触觉部)。
识别部156通过内置摄像头(内部传感器128)来定期拍摄外界,检测人、宠物等移动物体。移动物体的图像被发送至服务器200,服务器200的人物识别部214提取出移动物体的身体特征。此外,也检测用户的气味、用户的声音。气味、音(声)通过已知的方法被分类为多个种类。
在机器人100受到强冲击时,识别部156通过内置的加速度传感器来对其进行识别,服务器200的应对识别部228识别出邻近的用户作出了“粗暴行为”。在用户抓住角112提起机器人100时,也可以识别为粗暴行为。在处于与机器人100正对的状态下的用户以特定音域以及特定频段发声时,服务器200的应对识别部228可以识别出对自己进行了“打招呼行为”。此外,在检测到体温级别的温度时识别为用户进行了“接触行为”,在已作出接触识别的状态下检测到向上方的加速度时识别为被“抱起”。可以感应用户提起主体104时的物理接触,也可以通过施加给前轮102的负荷降低来识别拥抱。
服务器200的应对识别部228识别用户对机器人100的各种应对。各种应对行为中的一部分典型的应对行为与愉快或不愉快、肯定或否定建立对应。一般而言作为愉快行为的应对行为几乎都为肯定反应,作为不愉快行为的应对行为几乎都为否定反应。愉快/不愉快行为与亲密度关联,肯定/否定反应会影响机器人100的行为选择。
包括检测、分析、判定的一系列的识别处理之中,机器人100的识别部156进行识别所需的信息的取舍选择、分类,分析、判定等解释处理通过服务器200的识别部212来执行。识别处理既可以仅通过服务器200的识别部212来进行,也可以仅通过机器人100的识别部156来进行,还可以如上所述双方分工来执行上述识别处理。
根据由识别部156识别出的应对行为,服务器200的亲密度管理部220使针对用户的亲密度改变。原则上讲,对进行过愉快行为的用户的亲密度会变高,对进行过不愉快行为的用户的亲密度会降低。
服务器200的识别部212根据应对来判定愉快/不愉快,地图管理部210可以改变表现“对场所的喜爱”的行为地图中经历愉快/不愉快行为的地点的z值。例如,在客厅经历了愉快行为时,地图管理部210可以高概率地将客厅设定为喜欢地点。在该情况下,实现了机器人100喜欢客厅并因在客厅受到愉快行为而越来越喜欢客厅这样的正反馈效果。
服务器200的人物识别部214根据由外部传感器114或内部传感器128获取的各种数据来检测移动物体,并提取其特征(身体特征和行为特征)。然后,基于这些特征来对多个移动物体进行集群分析。作为移动物体,不仅是人类,有时狗、猫等宠物也会成为分析对象。
机器人100定期进行图像拍摄,人物识别部214根据这些图像来识别移动物体,并提取移动物体的特征。在检测到移动物体时,也会由嗅觉传感器、内置的收音麦克风、温度传感器等来提取身体特征、行为特征。例如,在移动物体被拍摄入图像时,会提取出长胡子、在清晨活动、身穿红衣、香水味、声音大、戴眼镜、穿裙子、白发、个子高、胖、肤黑、在沙发上等各种特征。
如果长胡子的移动物体(用户)经常在清晨活动(早起)且不常穿红衣服,则能得出早起且长胡子且不怎么穿红衣服的集群(用户)这样的第一简档。另一方面,在戴眼镜的移动物体常穿裙子但该移动物体不长胡子的情况下,能得出戴眼镜且穿裙子但绝对不长胡子的集群(用户)这样的第二简档。
以上只是简单设例,但通过上述的方法,会形成与父亲对应的第一简档和与母亲对应的第二简档,机器人100会知道这个家至少有两位用户(主人)。
不过,机器人100不需要知道第一简档为“父亲”。归根结底,只要能识别出“长胡子且常早起且很少穿红衣服的集群”这样的人物形象即可。
在完成这种集群分析的状态下,机器人100会重新识别移动物体(用户)。
此时,服务器200的人物识别部214根据得自机器人100的图像等传感信息来进行特征提取,并通过深度学习(多层神经网络)来判断机器人100附近的移动物体对应于哪个集群。例如,在检测到长胡子的移动物体时,该移动物体是父亲的概率较高。如果该移动物体在清晨行动,更能确定其为父亲。另一方面,在检测到戴眼镜的移动物体时,则该移动物体也有可能是母亲。如果该移动物体不长胡子,由于既不是母亲也不是父亲,因此判定为是未进行过集群分析的新人物。
可以同时并行地执行基于特征提取的集群形成(集群分析)、和伴随特征提取的向集群的套用(深度学习)。
根据被移动物体(用户)施以怎样的行为,对该用户的亲密度会发生变化。
机器人100可以对经常遇到的人、经常接触的人、经常打招呼的人设定较高的亲密度。另一方面,对很少遇到的人、很少接触的人、粗暴的人、大声呵斥的人的亲密度会降低。机器人100也基于由传感器(视觉、触觉、听觉)检测到的各种外界信息来改变每个用户的亲密度。
实际的机器人100会按照行为地图来自主进行复杂的行为选择。机器人100会在基于寂寞程度、无聊程度、好奇等各种参数而受到多个行为地图的影响的同时作出行为。当排除了行为地图的影响时,或者当处于行为地图的影响小的内部状态时,原则上讲,机器人100会接近亲密度高的人,远离亲密度低的人。
机器人100的行为根据亲密度被分类如下。
(1)亲密度非常高的集群
机器人100通过接近用户(以下,称为“接近行为”)并且进行预先定义为对人示好的举动的爱意举动来强烈地表达亲昵之情。
(2)亲密度比较高的集群
机器人100仅进行接近行为。
(3)亲密度比较低的集群
机器人100不进行特别的动作。
(4)亲密度特别低的集群
机器人100进行逃离行为。
根据以上的控制方法,机器人100在看见亲密度高的用户时会接近该用户,相反,在看见亲密度低的用户时会远离该用户。通过这样的控制方法,能行为表现出“认生”。此外,在出现访客(亲密度低的用户A)时,机器人100有时也会远离访客而走向家人(亲密度高的用户B)。在该情况下,用户B能感觉到机器人100认生并感到不安、依赖自己。通过这样的行为表现,用户B会被唤起被选择、被依赖的喜悦以及随之而来的喜爱之情。
另一方面,当作为访客的用户A频繁来访、打招呼、触摸时,机器人100对用户A的亲密度会逐渐上升,机器人100不会对用户A作出认生行为(逃离行为)。用户A也能通过感受到机器人100逐渐与自己熟悉而对机器人100抱有喜爱。
需要说明的是,不限于始终执行以上的行为选择。例如,在表示机器人100的好奇心的内部参数变高时,寻求满足好奇心的场所的行为地图会被着重使用,因此机器人100也有可能不选择影响到了亲密度的行为。此外,在设置于门厅的外部传感器114检测到用户回家的情况下,有可能优先执行迎接用户的行为。
图7是动作选择表180的数据结构图。
动作选择表180定义各种事件发生时应执行的动作。机器人100在事件发生时,从多种动作中选择一个以上的动作。动作选择表180储存在服务器200的动作储存部232以及机器人100的动作储存部160双方中。服务器200的动作选择表180和机器人100的动作选择表180相互同步。“事件”作为机器人100执行动作的契机即事象被预先定义。视觉识别到主人时、被主人抱住时、被踢时、听到大的声音时、规定时间以上未视觉识别到任何人时等,事件的内容是任意的。
参照图7,在事件J1中,动作(C01)~动作(Cx)分别与选择概率建立对应。例如,在事件J1发生时,动作控制部222不选择动作(C01),而是以0.1%的概率选择动作(C02)。在事件J2发生时,动作控制部222以0.1%的概率选择动作(C01),以0.4%的概率选择动作(C02)。
既有由机器人100的识别部156检测出的简单事件,也有需要由服务器200的人物识别部214进行解释的复杂事件。当机器人100的识别部156识别到事件时,动作控制部150参照动作选择表180选择动作,并指示驱动机构120执行动作。当服务器200的识别部212识别到事件时,服务器200的动作控制部222参照储存于动作储存部232的动作选择表180选择动作,并将动作ID通知给机器人100。机器人100的动作控制部150指示驱动机构120执行与所通知的动作ID对应的动作。
动作选择表180中的选择概率不需要是固定值。动作控制部222在一定范围内随机地改变选择概率。当服务器200中的动作选择表180的选择概率被更新时,更新后的动作选择表180会被下载到机器人100。
事件被分类为积极事件和消极事件、中立事件。积极事件是产生愉快感、例如发生愉快行为时的事件。具体而言是被主人抚摸、喜欢的音乐被播放、在外部气温高时移动到凉爽地点等。消极事件是与不愉快、危险相关联的事件。具体而言是遭受到粗暴行为、检测到物体掉落或破坏等不舒服的声音、接触到极高温或极低温的物体等。也可以基于叱责声、惊叫声、尖叫声、斥责等声音识别来定义消极事件。中立事件是既非积极事件也非消极事件的其他的事件。
能对应于各事件定义凝视事件的发生方向、晃动手106、碰撞作为事件发生源的物体、将身体朝向事件发生方向等各种动作。
图8是预定轨道选择表162的数据结构图。
预定轨道选择表162定义各种事件发生时应选择的预定轨道。当发生了事件特别是消极事件时,机器人100在执行与事件对应的动作后沿着预定轨道移动。例如,当遭受到粗暴行为时(消极事件),机器人100逃离粗暴行为者(事件发生源)。其逃离线路也是预定轨道的一种。当发生了事件时,机器人100从一条以上的预定轨道中任选一条预定轨道。
特别是对于消极事件,大多需要即时移动。生物在识别到不愉快、危险等消极事件时,会立即想要脱离危险。在机器人100的情况下,如果在检测到消极事件之后计算逃跑路线的话,行动有可能产生延迟。在本实施方式中,通过在发生事件之前预先计算出一条以上的移动路线(预定轨道)来实现事件发生时的即时移动,而不是在发生了事件之后计算与事件对应的移动路线。
预定轨道根据机器人100在哪里时什么地方发生了什么样的事件而不同。在图8所示的预定轨道选择表162中,作为当机器人100位于位置坐标Q1时在与Q1相距E1(m)以内的近距离且从机器人100那里观察时在D1方向(例如,正面右方向)上发生了事件J1时的预定轨道,设定了R1~R3。这些预定轨道是在实际发生事件J1之前算出的。当实际发生了事件J1时,动作控制部150选择预定轨道R1~R3中的任一轨道,并使机器人100沿着所选择的预定轨道移动。可以对多条预定轨道设定选择概率。
以下,将在机器人100位于位置坐标Q1时在与Q1相距E1(m)以内的近距离且从机器人100那里观察时在D1方向上发生了事件J1这样的事件发生状况记作[Q1,(J1,E1,D1)]。
机器人100的轨道生成部172针对各种事件依次生成预定轨道。同样,服务器200的轨道生成部242也依次生成预定轨道。例如,可以在实际产生事件发生状况[Q1,(J1,E1,D1)]之前,由机器人100的轨道生成部172生成与该事件发生状况对应的预定轨道R1,并由服务器200的轨道生成部242生成其他的事件发生状况[Q1,(J1,E1,D2)]的预定轨道R4。在该情况下,机器人100的轨道生成部172将事件发生状况[Q1,(J1,E1,D1)]的预定轨道的生成指示(以下,称为“轨道生成指示”)发送给服务器200。服务器200以接收到轨道生成指示为条件,生成与由轨道生成指示所指示的事件发生状况对应的预定轨道。服务器200的轨道生成部242更新预定轨道储存部224的预定轨道以及预定轨道选择表,轨道通知部240将生成的预定轨道R4通知给机器人100。
机器人100可以自己生成预定轨道R1,并将预定轨道R2、R3的轨道生成指示发送给服务器200。既可以仅由机器人100的轨道生成部172计算预定轨道,也可以仅由服务器200的轨道生成部242计算预定轨道。根据机器人100以及服务器200的处理负荷分担预定轨道的计算即可。
在本实施方式中,对由服务器200的轨道生成部242生成基于行为地图的预定轨道,并由机器人100的安全地带检测部152生成不利用行为地图的简单的预定轨道的情况进行说明。
预定轨道数据定义了移动到哪里、通过什么样的路线移动、是快速移动还是慢慢移动等各种移动方法。此外,也可以设定沿着预定轨道移动时应该同时执行的动作。例如,可以设定举着双手106逃跑、稍微后退后冲刺等各种动作。
图9是表示预定轨道的生成方法的示意图。
图9示出事件发生状况[Q1,(J1,E1,D1)]。对应于该状况,生成预定轨道R1~R3(参照图8)。预定轨道R1是向事件的发生地点S1的反方向笔直逃跑的不考虑行为地图的简单的路线。当预定轨道R1上有障碍物时,机器人100以进行避障动作并且离开事件发生源规定距离以上的方式移动。预定轨道R2是确保与厌恶地点P2相距规定距离以上并且远离事件发生地点S1的移动路线。预定轨道R3是前往最近的好感地点P1的移动路线。
机器人100的轨道生成部172生成预定轨道R1。预定轨道R1简单,因此也可以预先设定为在发生了消极事件时肯定能选择的移动路线。预定轨道R2由服务器200的轨道生成部242生成。轨道生成部242参照情感地图116等行为地图,生成避开厌恶地点P2的移动路线。例如,在设定了条件以免进入厌恶地点P2的规定范围内的基础上,将预定轨道R2设定在使相距事件发生地点的距离扩大的方向上。预定轨道R3也由服务器200的轨道生成部242生成。轨道生成部242参照行为地图,生成远离事件发生地点S1且前往最接近当前地点Q1的好感地点P1的移动路线来作为预定轨道R3。预定轨道R3在预定轨道R2的生成完成后生成。
机器人100的轨道生成部172生成预定轨道R1并且将轨道生成指示发送给服务器200的轨道生成部242。轨道生成部242首先生成预定轨道R2,接着生成预定轨道R3。预定轨道R2、R3由服务器200依次通知给机器人100。其结果是,按顺序生成了预定轨道R1、R2以及R3。
当仅生成了预定轨道R1时发生了事件J1时,机器人100的动作控制部150使机器人100沿着预定轨道R1移动。当生成了预定轨道R1以及预定轨道R2双方时发生了事件J1时,机器人100的动作控制部150随机地选择预定轨道R1或预定轨道R2中的任一轨道。当生成预定轨道R1~R3之后发生了事件J1时,机器人100的动作控制部150随机地选择三条预定轨道R1~R3中的任一轨道。
根据这种控制方法,在出现事件发生状况[Q1,(J1,E1,D1)]之前,预先生成多条预定轨道,因此在实际发生了事件J1时,在发生时间点,能从可选择的预定轨道中任选一条预定轨道。作为执行优先级低的后台处理,机器人100以及服务器200随时生成预定轨道即可。
考虑了好感地点P1、厌恶地点P2的预定轨道R2、R3由服务器200参照行为地图而生成。
作为变形例,行为地图也可以下载到机器人100。在该情况下,机器人100还能基于行为地图生成预定轨道R2、R3。此外,不仅仅是远离事件发生地点S1,机器人100还可以生成绕当前地点Q1旋转、试着稍微接近事件发生地点S1等不依赖行为地图的各种预定轨道。
此外,也可以先计算简单且计算处理时间短的预定轨道,然后再计算考虑到行为地图的复杂的预定轨道。在该情况下,当事件发生时已经计算出完多条预定轨道时,可以采用最新的预定轨道,换言之可以采用最复杂的预定轨道。
通过与某事件发生状况对应地事先生成多条预定轨道,能使机器人100对事件的对应行为多样化。此外,通过基于行为地图生成预定轨道,能生成基于机器人100的行为特性的预定轨道。
服务器200对应于多种事件发生状况特别是多种事件,依次生成各种预定轨道。生成的预定轨道在事件未发生的阶段被通知给机器人100。通过这种控制方法,机器人100能为将来可能发生的事件做准备。
服务器200既可以以接收到轨道生成指示为条件生成预定轨道,也可以在未接收到轨道生成指示时也生成与各种事件发生状况对应的预定轨道,并将它们随时记录到机器人100的预定轨道储存部154。
预定轨道有时也作为躲向安全地点的路线而生成。安全地点是指主人身边、墙后、沙发后、浴室或厕所等小房间、桌子或桌下等有顶棚的地方等容易护身的地方。服务器200的地图储存部216储存预先记录了安全地点的位置坐标的地图。服务器200的轨道生成部242也可以生成以最近的安全地点作为移动目标地点的预定轨道。
机器人100能自己寻找安全地点。机器人100的安全地带检测部152检测出满足规定的安全条件的地点来作为“安全地点”。具体而言,是桌下这种有“顶棚”的地方、亲密度为规定值以上的“亲近的主人”所在的地方、沙发背面这种阴暗的地方、浴室这种被墙壁包围三个方向以上的地方等。机器人100通过内部传感器128特别是摄像头来识别主人、顶棚、墙壁,由此检测安全条件成立的场所。在常规行动时发现满足安全条件的场所时,安全地带检测部152向服务器200发出通知。机器人100的地图管理部210将通知时间点的机器人100的位置坐标记录为安全地点。
如上所述,当事件发生时,机器人100执行与事件对应的动作。然后,机器人100沿着任一预定轨道立即移动。例如,能表现出在听到大的破裂音时,在执行吓一跳的动作之后立即逃离声源这样的行为特性。也可以在预定轨道上移动的同时执行动作。例如,也能作出在凝视事件发生源后直接慢慢逃跑这样的行为表现。
图10是说明移动中假定的事件和针对事件的预定轨道的示意图。
在图10中,机器人100从起点Qs向终点Qe设定了常规移动(执行轨道)。有可能是以Qe为好感地点的移动,也有可能是以Qs附近为厌恶地点而离开Qs的移动。移动中有可能会发生各种事件。坐标S3存在电视机,有可能会发生电视机发出“大的声音”的事件。坐标S4存在小孩,小孩有可能会发出“大的声音”,可能会对机器人100施加粗暴行为。
为事件预先设定优先顺序。优先顺序根据发生频率、重要度,在设计时任意地初始设定即可。在此,假设存在可能会在坐标S3发生的事件J3和可能会在坐标S4发生的事件J4,并使事件J3的优先顺序高于事件J4。在该情况下,比起以事件J4为对象的预定轨道,机器人系统300先计算以事件J3为对象的预定轨道。
机器人100或服务器200首先计算与事件J3对应的预定轨道。例如,计算与事件发生状况[Qm,(J3,E1,D3)]对应的预定轨道。在此,Qm是从Qs到Qe的途经地点。在计算完成后,也可以计算与其他的事件发生状况[Qm,(J3,E1,D4)]、[Qm,(J4,E1,D2)]对应的预定轨道。这样,事先对应于各种状况生成多条预定轨道,在实际发生事件J3、J4的状况下有所准备。生成越多的预定轨道,越能够作出与事件对应的多种多样的行为表现。
图11是表示预定轨道生成处理的处理过程的流程图。
预定轨道生成处理由机器人100以及服务器200双方执行。在此,以服务器200的轨道生成部242为对象进行说明,对于机器人100的轨道生成部172也同样如此。服务器200的预定轨道生成处理的执行优先级低,因此在服务器200的处理负荷轻的时间段执行。预定轨道生成处理既可以定期执行,也可以在机器人100每移动规定距离时执行。
轨道生成部242选择事件发生时机器人100的位置坐标(S10)。如果机器人100在移动中或正要移动的话,则轨道生成部242确定机器人100将来可能位于的多个候选地点,并任选一个候选地点作为计算对象。接着,轨道生成部242从多种事件中选择作为计算对象的事件(S12)。如上所述,基于优先顺序依次选择事件即可。轨道生成部242从可能发生事件的地点中任选一个地点(S14)。如与图8、图9关联地说明的那样,从多个距离范围(例如,“小于E1”和“E1以上且小于E2”两种)和多个方向(例如,D1~D8八个方向)中任选一个事件的可能发生地点。
轨道生成部242对应于如上确定的事件发生状况生成预定轨道(S16)。对于预定轨道而言,在选择远离还是接近事件发生地点之后,随机地选择移动目标地点、移动速度等多个参数,并在考虑行为地图、屋内障碍物的存在的同时进行路线设定。接近移动目标地点的方法可以随机选择旋转、蛇行、直行等多个移动方法的组合。生成的预定轨道数据被记录到预定轨道储存部224,轨道生成部242更新预定轨道选择表162(S18)。此外,轨道生成部242也可以从预定轨道选择表162中删除过去计算出的不再需要的预定轨道。预定轨道储存部224的信息通过轨道通知部240随时反映至机器人100的预定轨道储存部154。
图12是表示事件发生时的处理过程的流程图。
图12所示的处理由机器人100执行。事件发生时,机器人100的动作控制部150参照动作选择表180选择动作(S20),并使驱动机构120执行所选择的动作(S22)。如果已生成了与出现的事件发生状况对应的一条以上的预定轨道(S24的是),则动作控制部150选择预定轨道(S26),并指示驱动机构120执行沿着预定轨道的移动(S28)。另一方面,在尚未生成与事件发生状况对应的预定轨道时(S24的否),动作控制部150使机器人100向笔直地离开事件发生源规定距离的方向移动(S30)。
这样,即使出现了尚未生成预定轨道的事件发生状况,也可以执行与事件发生对应的基本移动。也可以不执行与事件对应的动作,而使机器人100沿着预定轨道移动。
以上,基于实施方式对机器人100以及包括机器人100的机器人系统300进行了说明。
通过一个以上的行为地图表现出了无法模式化、难以预测且生物式的行为选择。与生物同样,机器人100不仅根据行为地图,还根据各种事件来改变行为。在本实施方式中,机器人100在执行了与事件对应的动作之后,沿着预定轨道移动。通过这样的控制方法,在识别到危险、不愉快事件时,能作出受惊逃跑这样的行为表现。
由服务器200和机器人100双方计算预定轨道,由此能减轻机器人100的计算负荷。也可以由服务器200计算所有的预定轨道。假定了各种事件发生状况并且生成/积累预定轨道,并在事件实际发生时使机器人100沿着预定轨道移动,因此能实现针对事件的即时行动。此外,针对某个事件发生状况生成多条预定轨道,由此,针对同一事件,机器人100的反应多样化。
无需在事件发生前事先生成许多的预定轨道,根据计算负荷状况在轻负荷时间依次生成多条预定轨道即可。然后,在事件发生时间点,从已生成的预定轨道中任选一条预定轨道。通过这样的控制方法,兼顾了行为的多样性和即时反应。
通过生成以安全地点为移动目标地点的预定轨道,能表现出在察觉到危险时向安全场所躲避的行为特性。机器人100可以在常规行动时寻找满足安全条件的安全地点。地图管理部210可以将这种安全地点在行为地图中记录为“带来安心感的场所”。在该情况下,能实现偏好安全地点的行为特性。
需要说明的是,本发明不限定于上述实施方式、变形例,可以在不脱离技术精神的范围内对构成要素进行变形来具体化。也可以通过适当组合上述实施方式、变形例中所公开的多个构成要素来形成各种发明。此外,也可以从上述实施方式、变形例中所示的全部构成要素中去掉若干构成要素。
对由一个机器人100和一个服务器200、多个外部传感器114构成机器人系统300的情况进行了说明,但机器人100的部分功能可以由服务器200来实现,服务器200的部分或全部功能也可以分配给机器人100。既可以是一个服务器200控制多个机器人100,也可以是多个服务器200协同控制一个以上的机器人100。
机器人100、服务器200以外的第三装置也可以承担部分功能。图6中所说明的机器人100的各功能和服务器200的各功能的集合体也可以整体作为一个“机器人”来掌握。关于怎样为一个或多个硬件分配实现本发明所需的多个功能,只要能鉴于各硬件的处理能力、机器人系统300所要求的规格等来决定即可。
如上所述,“狭义的机器人”是不包括服务器200的机器人100,而“广义的机器人”是机器人系统300。服务器200的很多功能将来也有可能会集成至机器人100。
可以由机器人100计算简单的预定轨道,并由服务器200计算复杂的预定轨道。例如,可以通过服务器200计算前往安全地点的预定轨道、基于行为地图的预定轨道。可以同时并行地执行由机器人100进行的预定轨道计算和由服务器200进行的预定轨道计算。可以由机器人100确定事件发生状况,并将想要计算预定轨道的事件发生状况通知给服务器200,由服务器200计算对应的预定轨道。
在机器人100的计算负荷大时、处理器122的发热量大时,机器人100也可以主动将预定轨道计算移交给服务器200。此外,机器人100没有必要一直对应事件进行移动。例如,可以在听到远方传来的冲击声时,通过当场呆立不动来行为表现出“惊吓”。
不只是简单地逃离消极事件,还能设定慢慢地靠近一些后快速离开、绕着事件发生源转圈等各种预定轨道。此外,不仅是消极事件,对于积极事件也可以事先生成预定轨道。例如,可以在主人回家时准备好直奔玄关、在玄关跟前等候、躲到厨房等各种预定轨道。
事件的优先顺序可以在设计机器人系统300时任意设定。在预先定义的多种事件中,服务器200的轨道生成部242可以将与人有关的事件特别是与亲密度高的主人有关的事件的优先顺序设定得高。轨道生成部242也可以对过去规定期间内发生较多的事件设定较高的优先顺序。通过对事件设定优先顺序,可以将用于计算预定轨道的计算资源重点分配给重要事件。
轨道生成部242也可以在经过规定时间后删除曾经计算出的预定轨道。
服务器200可以同时控制多个机器人100。服务器200的轨道生成部242根据各机器人100的行为地图、亲密度生成各机器人100的预定轨道。例如,在发生了“物体掉落受损”这样的事件时,第一台机器人100A可能会逃到父亲身后,第二台机器人100B可能会逃到沙发后面。
除了行为地图、亲密度以外,也可以基于机器人的尺寸、移动速度等各种参数计算预定轨道。能作出反映不易因消极事件而动摇的性格、马上逃到安全地点的胆怯性格等机器人100的个性的各种行为表现。
机器人系统300出厂时不需要具备预定轨道计算功能、安全地点检测功能等。可以在机器人系统300出厂后,通过经由通信网络下载实现预定轨道计算功能等的行为控制程序,实现机器人系统300的功能强化。
在本实施方式中,以由服务器200的动作控制部222或机器人100的动作控制部150生成执行轨道为例进行了说明。作为变形例,可以由服务器200的轨道生成部242或机器人100的轨道生成部172生成执行轨道而非预定轨道,并由动作控制部222等选择所生成的执行轨道。
[追加例]
服务器200的轨道生成部242或机器人100的轨道生成部172生成预定轨道数据并将其记录在预定轨道选择表162中。事件发生时,动作控制部150根据预定轨道数据设定移动目标地点。识别部156通过摄像头拍摄周围,检测可视觉识别的近距离存在的障碍物。“障碍物”被判定为具有规定高度的物体。当在预定轨道上检测到障碍物时,轨道生成部172计算用于避开障碍物而到达移动目标地点的新的预定轨道。当机器人100在执行轨道(常规移动路线)上移动时发现了障碍物时,动作控制部150同样生成避开障碍物的新的执行轨道。
此外,安全地带检测部152基于摄像头的摄像图像,定期检测安全地点。安全地带检测部152将距机器人100的当前地点规定范围内的安全地点记录在列表(以下,称为“安全地点列表”)中,并随着机器人100的移动随时更新安全地点列表。安全地点列表不仅包括由安全地带检测部152新检测到的安全地点,还包括预先记录在地图中的安全地点。在追加例中,在安全地点列表中,按距离机器人100由远到近的顺序记录有最多五处安全地点。安全地点列表是在发生事件时应该躲入的最近的安全地点的一览表。在追加例中,轨道生成部242等随时生成以记录在安全地点列表中的一个以上的安全地点作为移动目标地点的预定轨道。这些预定轨道按照每个事件、每个安全地点生成并储存。
当物体掉落、发出大声、被敲击等规定事件发生时,动作控制部150从安全地点列表中任选一个安全地点作为移动目标地点。当安全地点列表中记录有多个安全地点时,动作控制部150既可以选择距离当前地点最近的安全地点,也可以随机选择。此外,也可以对安全地点预先设定优先级。例如,可以预先设定“亲近的主人”所在处的优先级高于“沙发背面”。
当机器人100静止期间发生了规定事件例如消极事件时,动作控制部150从安全地点列表中选择安全地点,并设定以该安全地点作为移动目标地点的预定轨道。当安全地点列表中尚未记录安全地点时,动作控制部150将移动目标地点设定为远离事件发生方向的方向。当机器人100设定了移动目标地点A并在预定的移动过程中发生了事件的情况下,动作控制部150也从安全地点列表中选择安全地点并将其设定为新的移动目标地点B。这时,以移动目标地点A为对象的执行轨道被取消,机器人100朝向新的移动目标地点B(安全地点)移动。根据这样的控制方法,即使在静止期间或者移动过程中,也可以在事件发生时将目标变更为朝向安全地点的移动。需要说明的是,动作控制部150既可以在发生事件后选择安全地点,也可以在事件发生前预先选择好安全地点。无论在哪种情况下,通过在事件发生前选择安全地点并生成以安全地点作为移动目标地点的预定轨道,能使机器人100表现出在事件发生时迅速躲入安全地点的行为。
如上所述,在动作控制部150决定移动路径(执行轨道)时,轨道生成部172为事件生成预定轨道。如果机器人100在执行轨道上移动的过程中实际发生了事件,则动作控制部150使机器人100沿着预定轨道移动,而非沿着执行轨道移动。这时,执行轨道被取消。另一方面,随着机器人100的移动,在安全地点列表中的任一个安全地点被从候选移动目的地中删除时,与该安全地点对应地生成的预定轨道也被废弃。
权利要求书(按照条约第19条的修改)
1.一种行为自主型机器人,其特征在于,具备:
动作控制部,决定作为机器人的移动路径的执行轨道;
驱动机构,使所述机器人沿着所述执行轨道移动;以及
轨道生成部,在事件发生前,根据机器人的当前位置,生成与事件对应的预定轨道,
当所述机器人在所述执行轨道上移动时发生了所述事件的情况下,所述动作控制部使所述机器人沿着所述预定轨道移动,而非沿着所述执行轨道移动。
2.根据权利要求1所述的行为自主型机器人,其特征在于,
所述轨道生成部依次生成与所述事件对应的多条预定轨道,
当所述事件发生时已生成了多条预定轨道时,所述动作控制部选择所述多条预定轨道中的任一条预定轨道。
3.根据权利要求1所述的行为自主型机器人,其特征在于,
所述轨道生成部生成与多种事件对应的多条预定轨道,
当发生了所述多种事件中的任一种事件时,所述动作控制部使所述机器人沿着与已发生的事件对应的预定轨道移动。
4.根据权利要求3所述的行为自主型机器人,其特征在于,
所述轨道生成部基于多种事件的优先顺序,依次生成所述多条预定轨道。
5.根据权利要求1所述的行为自主型机器人,其特征在于,
所述轨道生成部与假定会发生事件的多个地点对应地生成多条预定轨道,
所述动作控制部使所述机器人沿着与所述事件的发生地点对应的预定轨道移动。
6.根据权利要求1所述的行为自主型机器人,其特征在于,
所述动作控制部在事件发生时执行预先规定的动作,并在执行所述动作后,使所述机器人沿着与所述事件对应的预定轨道移动。
7.根据权利要求1所述的行为自主型机器人,其特征在于,
还具备安全地点检测部,所述安全地点检测部检测出满足规定的安全条件的地点来作为安全地点,
所述轨道生成部生成以安全地点为移动目的地点的预定轨道。
8.一种服务器,其特征在于,
经由通信线路与行为自主型机器人连接,并具备:
轨道生成部,生成与所述行为自主型机器人的位置以及事件对应的预定轨道;以及
轨道通知部,在所述事件发生前,将所述预定轨道通知给所述行为自主型机器人。
9.根据权利要求8所述的服务器,其特征在于,
所述轨道生成部以从所述行为自主型机器人处接收到轨道生成指示为条件,生成预定轨道。
10.根据权利要求8所述的服务器,其特征在于,
所述轨道生成部生成与所述行为自主型机器人的行为特性相应的预定轨道。
11.根据权利要求8所述的服务器,其特征在于,
所述轨道生成部计算与多种事件对应的多条预定轨道,
所述多种事件均未发生时,所述轨道通知部也通知所述多条预定轨道。
12.根据权利要求8所述的服务器,其特征在于,
所述轨道生成部与假定会发生事件的多个地点对应地生成多条预定轨道,
所述轨道通知部在所述事件发生前通知与所述多个地点对应的所述多条预定轨道。
13.根据权利要求8所述的服务器,其特征在于,
所述轨道生成部将满足规定的安全条件的安全地点设定为所述预定轨道的移动目标地点。
14.一种行为自主型机器人,其特征在于,具备:
动作控制部,选择机器人的动作;
驱动机构,执行由所述动作控制部选择的动作;以及
安全地点检测部,通过判定作为机器人感到安心的场所应该满足的条件而预先定义的安全条件是否成立来检测安全地点,
当规定的事件发生时,所述动作控制部使所述机器人移动到所述安全地点。
15.根据权利要求14所述的行为自主型机器人,其特征在于,
所述安全地点检测部将所述检测到的安全地点记录在列表中,
当选择移动目标地点后直到机器人到达所述移动目标地点为止的期间发生了所述事件时,所述动作控制部将记录在所述列表中的安全地点中的任一个安全地点设定为新的移动目标地点。
16.根据权利要求14所述的行为自主型机器人,其特征在于,
当规定的事件发生时,所述动作控制部使所述机器人沿着在事件发生前确定出的预定轨道移动到所述安全地点。
17.一种行为控制程序,其为用于决定机器人的移动方向的计算机程序,其特征在于,使计算机发挥如下功能:
在事件发生前,根据机器人的当前位置,生成与事件对应的预定轨道的功能;以及
当所述事件发生时,使所述机器人沿着所述预定轨道移动,而非沿着事先决定好的移动路径移动的功能。
18.一种行为控制程序,其为用于决定机器人的移动方向的计算机程序,其特征在于,使计算机发挥如下功能:
通过判定作为机器人安心的场所应该满足的条件而预先定义的安全条件是否成立来检测安全地点的功能;
记录安全地点的位置坐标的功能;以及
当规定的事件发生时,使所述机器人移动到所述安全地点的功能。
19.一种行为控制程序,其特征在于,使计算机发挥如下功能:
检测行为自主型机器人的位置的功能;
计算与所述行为自主型机器人的位置以及事件对应的预定轨道的功能;以及
在所述事件发生前,将所述预定轨道通知给所述行为自主型机器人的功能。
Claims (19)
1.一种行为自主型机器人,其特征在于,具备:
动作控制部,决定作为机器人的移动路径的执行轨道;
驱动机构,使所述机器人沿着所述执行轨道移动;以及
轨道生成部,在事件发生前,生成与事件对应的预定轨道,
当所述机器人在所述执行轨道上移动时发生了所述事件的情况下,所述动作控制部使所述机器人沿着所述预定轨道移动,而非沿着所述执行轨道移动。
2.根据权利要求1所述的行为自主型机器人,其特征在于,
所述轨道生成部依次生成与所述事件对应的多条预定轨道,
当所述事件发生时已生成了多条预定轨道时,所述动作控制部选择所述多条预定轨道中的任一条预定轨道。
3.根据权利要求1所述的行为自主型机器人,其特征在于,
所述轨道生成部生成与多种事件对应的多条预定轨道,
当发生了所述多种事件中的任一种事件时,所述动作控制部使所述机器人沿着与已发生的事件对应的预定轨道移动。
4.根据权利要求3所述的行为自主型机器人,其特征在于,
所述轨道生成部基于多种事件的优先顺序,依次生成所述多条预定轨道。
5.根据权利要求1所述的行为自主型机器人,其特征在于,
所述轨道生成部与假定会发生事件的多个地点对应地生成多条预定轨道,
所述动作控制部使所述机器人沿着与所述事件的发生地点对应的预定轨道移动。
6.根据权利要求1所述的行为自主型机器人,其特征在于,
所述动作控制部在事件发生时执行预先规定的动作,并在执行所述动作后,使所述机器人沿着与所述事件对应的预定轨道移动。
7.根据权利要求1所述的行为自主型机器人,其特征在于,
还具备安全地点检测部,所述安全地点检测部检测出满足规定的安全条件的地点来作为安全地点,
所述轨道生成部生成以安全地点为移动目的地点的预定轨道。
8.一种服务器,其特征在于,
经由通信线路与行为自主型机器人连接,并具备:
轨道生成部,生成与所述行为自主型机器人的位置以及事件对应的预定轨道;以及
轨道通知部,在所述事件发生前,将所述预定轨道通知给所述行为自主型机器人。
9.根据权利要求8所述的服务器,其特征在于,
所述轨道生成部以从所述行为自主型机器人处接收到轨道生成指示为条件,生成预定轨道。
10.根据权利要求8所述的服务器,其特征在于,
所述轨道生成部生成与所述行为自主型机器人的行为特性相应的预定轨道。
11.根据权利要求8所述的服务器,其特征在于,
所述轨道生成部计算与多种事件对应的多条预定轨道,
所述多种事件均未发生时,所述轨道通知部也通知所述多条预定轨道。
12.根据权利要求8所述的服务器,其特征在于,
所述轨道生成部与假定会发生事件的多个地点对应地生成多条预定轨道,
所述轨道通知部在所述事件发生前通知与所述多个地点对应的所述多条预定轨道。
13.根据权利要求8所述的服务器,其特征在于,
所述轨道生成部将满足规定的安全条件的安全地点设定为所述预定轨道的移动目标地点。
14.一种行为自主型机器人,其特征在于,具备:
动作控制部,选择机器人的动作;
驱动机构,执行由所述动作控制部选择的动作;以及
安全地点检测部,检测出满足规定的安全条件的地点来作为安全地点,
当规定的事件发生时,所述动作控制部使所述机器人移动到所述安全地点。
15.根据权利要求14所述的行为自主型机器人,其特征在于,
所述安全地点检测部将所述检测到的安全地点记录在列表中,
当选择移动目标地点后直到机器人到达所述移动目标地点为止的期间发生了所述事件时,所述动作控制部将记录在所述列表中的安全地点中的任一个安全地点设定为新的移动目标地点。
16.根据权利要求14所述的行为自主型机器人,其特征在于,
当规定的事件发生时,所述动作控制部使所述机器人沿着在事件发生前确定出的预定轨道移动到所述安全地点。
17.一种行为控制程序,其为用于决定机器人的移动方向的计算机程序,其特征在于,使计算机发挥如下功能:
在事件发生前,生成与事件对应的预定轨道的功能;以及
当所述事件发生时,使所述机器人沿着所述预定轨道移动,而非沿着事先决定好的移动路径移动的功能。
18.一种行为控制程序,其为用于决定机器人的移动方向的计算机程序,其特征在于,使计算机发挥如下功能:
检测出满足规定的安全条件的地点来作为安全地点的功能;
记录安全地点的位置坐标的功能;以及
当规定的事件发生时,使所述机器人移动到所述安全地点的功能。
19.一种行为控制程序,其特征在于,使计算机发挥如下功能:
检测行为自主型机器人的位置的功能;
计算与所述行为自主型机器人的位置以及事件对应的预定轨道的功能;以及
在所述事件发生前,将所述预定轨道通知给所述行为自主型机器人的功能。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016171432 | 2016-09-02 | ||
JP2016-171432 | 2016-09-02 | ||
PCT/JP2017/030277 WO2018043274A1 (ja) | 2016-09-02 | 2017-08-24 | 自律行動型ロボット、サーバ及び行動制御プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109643126A true CN109643126A (zh) | 2019-04-16 |
Family
ID=61301389
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780053741.8A Withdrawn CN109643126A (zh) | 2016-09-02 | 2017-08-24 | 行为自主型机器人、服务器及行为控制程序 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20190202054A1 (zh) |
JP (2) | JP6557840B2 (zh) |
CN (1) | CN109643126A (zh) |
DE (1) | DE112017004414T5 (zh) |
GB (1) | GB2570405B (zh) |
WO (1) | WO2018043274A1 (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10427305B2 (en) * | 2016-07-21 | 2019-10-01 | Autodesk, Inc. | Robotic camera control via motion capture |
WO2018043274A1 (ja) * | 2016-09-02 | 2018-03-08 | Groove X株式会社 | 自律行動型ロボット、サーバ及び行動制御プログラム |
WO2019087478A1 (ja) * | 2017-10-30 | 2019-05-09 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US11590660B2 (en) * | 2018-09-26 | 2023-02-28 | Disney Enterprises, Inc. | Interactive autonomous robot configured for deployment within a social environment |
DE102019201045B4 (de) * | 2019-01-28 | 2020-11-26 | Robert Bosch Gmbh | Verfahren, Vorrichtung und Computerprogramm zum Ermitteln einer Aktion oder Trajektorie eines Roboters |
DE102019213032A1 (de) * | 2019-08-29 | 2021-03-04 | navel robotics GmbH | Roboter mit einer verhaltenssteuerungseinheit und verfahren zur verhaltenssteuerung eines roboters |
WO2022149496A1 (ja) * | 2021-01-05 | 2022-07-14 | ソニーグループ株式会社 | エンタテインメントシステムおよびロボット |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002244735A (ja) * | 2001-02-14 | 2002-08-30 | Sanyo Electric Co Ltd | 自律走行ロボット |
JP2005271152A (ja) * | 2004-03-25 | 2005-10-06 | Funai Electric Co Ltd | 自走式掃除機および自走ロボット |
CN101628412A (zh) * | 2008-07-14 | 2010-01-20 | 三星电子株式会社 | 用于与移动终端同步的机器人的事件执行方法和系统 |
CN101648378A (zh) * | 2008-08-11 | 2010-02-17 | 悠进机器人股份公司 | 基于机器人中间件结构及情节的控制系统 |
CN104125792A (zh) * | 2012-01-17 | 2014-10-29 | 夏普株式会社 | 吸尘器、控制程序以及记录有该控制程序的计算机可读取的记录介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2661873B2 (ja) * | 1994-04-08 | 1997-10-08 | 西松建設株式会社 | 遠隔操縦式建設車両およびその非常時運行方法 |
JP2001246580A (ja) | 2000-03-03 | 2001-09-11 | Sony Corp | 情報通信ロボット装置、情報通信方法および情報通信ロボットシステム |
JP2005304516A (ja) | 2004-04-16 | 2005-11-04 | Funai Electric Co Ltd | 自走式掃除機 |
JP2006039760A (ja) | 2004-07-23 | 2006-02-09 | Victor Co Of Japan Ltd | 移動ロボット |
JP2008158868A (ja) | 2006-12-25 | 2008-07-10 | Toyota Motor Corp | 移動体、及びその制御方法 |
WO2018043274A1 (ja) | 2016-09-02 | 2018-03-08 | Groove X株式会社 | 自律行動型ロボット、サーバ及び行動制御プログラム |
-
2017
- 2017-08-24 WO PCT/JP2017/030277 patent/WO2018043274A1/ja active Application Filing
- 2017-08-24 GB GB1902492.6A patent/GB2570405B/en not_active Expired - Fee Related
- 2017-08-24 DE DE112017004414.6T patent/DE112017004414T5/de not_active Withdrawn
- 2017-08-24 JP JP2018537194A patent/JP6557840B2/ja active Active
- 2017-08-24 CN CN201780053741.8A patent/CN109643126A/zh not_active Withdrawn
-
2019
- 2019-03-01 US US16/290,817 patent/US20190202054A1/en not_active Abandoned
- 2019-06-10 JP JP2019107940A patent/JP7236142B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002244735A (ja) * | 2001-02-14 | 2002-08-30 | Sanyo Electric Co Ltd | 自律走行ロボット |
JP2005271152A (ja) * | 2004-03-25 | 2005-10-06 | Funai Electric Co Ltd | 自走式掃除機および自走ロボット |
CN101628412A (zh) * | 2008-07-14 | 2010-01-20 | 三星电子株式会社 | 用于与移动终端同步的机器人的事件执行方法和系统 |
CN101648378A (zh) * | 2008-08-11 | 2010-02-17 | 悠进机器人股份公司 | 基于机器人中间件结构及情节的控制系统 |
CN104125792A (zh) * | 2012-01-17 | 2014-10-29 | 夏普株式会社 | 吸尘器、控制程序以及记录有该控制程序的计算机可读取的记录介质 |
Also Published As
Publication number | Publication date |
---|---|
GB201902492D0 (en) | 2019-04-10 |
WO2018043274A1 (ja) | 2018-03-08 |
DE112017004414T5 (de) | 2019-05-16 |
JP7236142B2 (ja) | 2023-03-09 |
GB2570405A (en) | 2019-07-24 |
JPWO2018043274A1 (ja) | 2018-10-25 |
US20190202054A1 (en) | 2019-07-04 |
JP6557840B2 (ja) | 2019-08-14 |
JP2019169189A (ja) | 2019-10-03 |
GB2570405B (en) | 2022-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109643126A (zh) | 行为自主型机器人、服务器及行为控制程序 | |
CN109644303A (zh) | 识别声源方向的行为自主型机器人 | |
CN109526208A (zh) | 活动量受控制的行为自主型机器人 | |
CN109153127A (zh) | 执行迎接行为的行为自主型机器人 | |
Nourbakhsh | Robot futures | |
CN110024000B (zh) | 使瞳部变化的行为自主型机器人 | |
CN109070330B (zh) | 认生的行为自主型机器人 | |
CN109690435A (zh) | 保持自然的距离感的行为自主型机器人 | |
JP6884401B2 (ja) | 服を着る自律行動型ロボット | |
Malfaz et al. | A biologically inspired architecture for an autonomous and social robot | |
CN109416541A (zh) | 寻求凉爽的行为自主型机器人 | |
Tulsulkar et al. | Can a humanoid social robot stimulate the interactivity of cognitively impaired elderly? A thorough study based on computer vision methods | |
WO2018084170A1 (ja) | 人を識別する自律行動型ロボット | |
CN113164822B (zh) | 穿衣服的机器人 | |
JPWO2018207908A1 (ja) | ロボット、装身具及びロボット制御プログラム | |
CN109070364A (zh) | 具有紧急停机功能的行为自主型机器人 | |
JP2024059719A (ja) | ロボット用充電ステーション | |
Barry | Adaptation, artificial intelligence, and physical medicine and rehabilitation | |
JP2019214119A (ja) | ロボットの関節に好適なジョイント構造 | |
Kitajima | Memory and Action Selection in Human-Machine Interaction | |
Urdiales | Collaborative Assistive Robot for Mobility Enhancement (CARMEN). | |
Wermter et al. | Learning robot actions based on self-organising language memory | |
Gandhi et al. | The Jet-IU: a biomimetic assistive robot for the visually impaired and elderly | |
JP7548621B2 (ja) | 日常生活を記録する自律行動型ロボット | |
Davenport | Robotics |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20190416 |