CN109690435A - 保持自然的距离感的行为自主型机器人 - Google Patents
保持自然的距离感的行为自主型机器人 Download PDFInfo
- Publication number
- CN109690435A CN109690435A CN201780054987.7A CN201780054987A CN109690435A CN 109690435 A CN109690435 A CN 109690435A CN 201780054987 A CN201780054987 A CN 201780054987A CN 109690435 A CN109690435 A CN 109690435A
- Authority
- CN
- China
- Prior art keywords
- robot
- behavior
- distance
- user
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008447 perception Effects 0.000 title description 19
- 230000033001 locomotion Effects 0.000 claims abstract description 101
- 230000006870 function Effects 0.000 claims description 30
- 230000006399 behavior Effects 0.000 description 76
- 210000003128 head Anatomy 0.000 description 46
- 230000007246 mechanism Effects 0.000 description 37
- 238000012545 processing Methods 0.000 description 29
- 230000009471 action Effects 0.000 description 26
- 238000003860 storage Methods 0.000 description 25
- 230000008451 emotion Effects 0.000 description 22
- 238000000034 method Methods 0.000 description 18
- 238000005259 measurement Methods 0.000 description 17
- 230000006854 communication Effects 0.000 description 14
- 238000007726 management method Methods 0.000 description 14
- 230000003542 behavioural effect Effects 0.000 description 13
- 230000001815 facial effect Effects 0.000 description 13
- 238000004891 communication Methods 0.000 description 12
- 229910052751 metal Inorganic materials 0.000 description 12
- 239000002184 metal Substances 0.000 description 12
- 230000000007 visual effect Effects 0.000 description 10
- 241001465754 Metazoa Species 0.000 description 9
- 230000008859 change Effects 0.000 description 8
- 230000010485 coping Effects 0.000 description 8
- 239000000284 extract Substances 0.000 description 8
- 230000035943 smell Effects 0.000 description 8
- 238000010276 construction Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 238000009826 distribution Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 239000000203 mixture Substances 0.000 description 6
- 241000009328 Perro Species 0.000 description 5
- 230000001276 controlling effect Effects 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 241000282414 Homo sapiens Species 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 239000000470 constituent Substances 0.000 description 4
- 238000013500 data storage Methods 0.000 description 4
- 230000036651 mood Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 239000000758 substrate Substances 0.000 description 4
- 206010012374 Depressed mood Diseases 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 3
- 206010044074 Torticollis Diseases 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000007621 cluster analysis Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 208000018197 inherited torticollis Diseases 0.000 description 3
- 238000012856 packing Methods 0.000 description 3
- 229920005989 resin Polymers 0.000 description 3
- 239000011347 resin Substances 0.000 description 3
- 101100465000 Mus musculus Prag1 gene Proteins 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000033228 biological regulation Effects 0.000 description 2
- 230000036760 body temperature Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000000151 deposition Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 239000011551 heat transfer agent Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000001105 regulatory effect Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 229910001285 shape-memory alloy Inorganic materials 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241000251468 Actinopterygii Species 0.000 description 1
- 206010015535 Euphoric mood Diseases 0.000 description 1
- 206010016654 Fibrosis Diseases 0.000 description 1
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 1
- 206010037180 Psychiatric symptoms Diseases 0.000 description 1
- 206010037660 Pyrexia Diseases 0.000 description 1
- 241000270295 Serpentes Species 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 238000009529 body temperature measurement Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000005282 brightening Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 230000007882 cirrhosis Effects 0.000 description 1
- 208000019425 cirrhosis of liver Diseases 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 210000002858 crystal cell Anatomy 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 229920001971 elastomer Polymers 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910001416 lithium ion Inorganic materials 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000002304 perfume Substances 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 229920002635 polyurethane Polymers 0.000 description 1
- 239000004814 polyurethane Substances 0.000 description 1
- 229920003225 polyurethane elastomer Polymers 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003014 reinforcing effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 239000005060 rubber Substances 0.000 description 1
- 238000007789 sealing Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000010008 shearing Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000002889 sympathetic effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000009423 ventilation Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/1653—Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
- Toys (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
机器人(100)具备:摄像部,拍摄周围;以及移动控制部,根据拍摄到的对象物(414)的大小来控制与对象物(414)的距离。机器人(100)可以进一步具备:动作控制部,控制头部的动作;以及识别部,识别拍摄到的对象物(414)的面部。动作控制部可以以使头部的视线呈朝向对象物(414)的面部的仰视角θ的方式控制头部的动作。移动控制部可以根据对象物(414)的高度来控制与对象物(414)的距离。
Description
技术领域
本发明涉及一种根据内部状态或外部环境自主地作出行为选择的机器人。
背景技术
类人机器人、宠物机器人等提供与人类的交流、慰藉的行为自主型机器人的开发已有进展(例如参照专利文献1)。这样的机器人按照控制程序进行动作,但有的机器人也通过基于周围状况自主学习而使行为进化,成为近似于生命体的存在。
现有技术文献
专利文献
专利文献1:日本特开2000-323219号公报
发明内容
发明所要解决的问题
近年来,这种机器人技术一直在迅速发展,但尚未实现作为宠物那样的伴侣的存在感。不论机器人变得怎样高性能,都不会具有生物那样的肉体温暖。这是因为基于这种固定观念而进行设计和动作控制。
本发明是基于上述课题认知而完成的发明,其主要目的在于提供一种用于赋予机器人生命感的控制技术。
用于解决问题的方案
本发明的某一方案是一种行为自主型机器人。该机器人具备:摄像部,拍摄周围;以及移动控制部,根据拍摄到的对象物的大小来控制与对象物的距离。
本发明的另一方案是一种行为自主型机器人的行为控制程序。该程序使计算机实现以下功能:获取机器人周围的拍摄图像的功能;在拍摄图像中确定出规定的对象物的功能;根据拍摄到的对象物的大小来计算机器人与对象物应采取的位置关系的功能;以及控制机器人的移动以实现计算出的位置关系的功能。
发明效果
根据本发明,能提供一种用于赋予机器人生命感的控制技术。
附图说明
图1是表示实施方式的机器人的外观的图。
图2是概略地表示机器人的构造的剖面图。
图3是以框架为中心来表示机器人的构造的侧视图。
图4是机器人系统的构成图。
图5是情感地图的概念图。
图6是机器人的硬件构成图。
图7是机器人系统的功能框图。
图8是表示控制与用户的距离的方法的示意图。
图9是表示仰视角的设定方法的一例的图。
图10是表示仰视角的设定方法的另一例的图。
图11是表示确定仰视角时所参照的设定表的图。
图12是举例说明机器人的动作控制的流程图。
具体实施方式
以下,参照附图对本发明的实施方式进行详细说明。需要说明的是,在以下的说明中,为了方便,有时以图示的状态为基准来表现各构造的位置关系。此外,对于以下实施方式及其变形例,有时候会对于大致相同的构成要素标注相同的附图标记,并适当省略其说明。
图1是表示实施方式的机器人100的外观的图。图1的(a)是主视图,图1的(b)是侧视图。
本实施方式中的机器人100是基于外部环境以及内部状态来决定行为、举动(gesture)的行为自主型机器人。外部环境通过摄像头、热敏传感器(thermosensor)等各种传感器来识别。内部状态被量化为表现机器人100的情感的各种参数。对此将在后文加以说明。
机器人100以房屋内行动为前提,例如,以主人家的房屋内为行动范围。以下,将与机器人100有关联的人称为“用户”,将作为机器人100所属的家庭的成员的用户称为“主人”。
机器人100的主体104具有整体上圆滑的形状,包括由聚氨酯、橡胶、树脂、纤维等柔软而具有弹性的材料形成的外皮。可以给机器人100着装。通过采用圆滑而柔软的手感好的主体104,机器人100提供给用户安心感和舒服的触感。
机器人100总重量在15千克以下,优选10千克以下,进一步优选5千克以下。一半以上的婴儿直到出生后13个月才开始走路。出生后13个月的婴儿的平均体重为男孩略高于9千克、女孩略低于9千克。因此,如果机器人100的总重量为10千克以下,则用户只需耗费大致与抱起不会走路的婴儿同等的力气就能抱起机器人100。出生后2个月以内的婴儿的平均体重是男女均小于5千克。因此,如果机器人100的总重量在5千克以下,则用户耗费与抱起小婴同等的力气就能抱起机器人100。
通过适度的重量和圆滑感、柔软度、手感好等诸多属性,会实现用户容易抱起并且愿意抱起机器人100的效果。基于同样的理由,优选机器人100的身高在1.2米以下,理想的是0.7米以下。对本实施方式的机器人100而言,能抱起来是重要的设计理念。
机器人100具备用于进行三轮行进的三个轮子。如图所示,包括一对前轮102(左轮102a、右轮102b)和一个后轮103。前轮102为驱动轮,后轮103为从动轮。前轮102不具有转向机构,但能独立控制旋转速度、旋转方向。后轮103由所谓的全向轮(omni wheel)构成,能自由旋转以便使机器人100向前后左右移动。机器人100能通过使右轮102b的转速大于左轮102a来进行左转或逆时针旋转。机器人100能通过使左轮102a的转速大于右轮102b来进行右转或顺时针旋转。
前轮102以及后轮103能通过后述的驱动机构(转动机构、连杆机构)而完全收纳于主体104。行进时各轮子的大部分也隐藏在主体104中,而当各轮子完全收纳于主体104时,机器人100会变为不可移动的状态。即,随着轮子的收纳动作,主体104下降而就座于地面。在该就座状态下,形成于主体104的底部的平坦状的就座面108(接地底面)与地面F抵接。
机器人100具有一双手106。手106不具有抓持物体的功能。手106能进行抬起、摆动、振动等简单的动作。两只手106也能独立控制。
机器人100的头部正面(面部)设有两只眼睛110。眼睛110内置有高分辨率摄像头402。眼睛110还能通过液晶元件或有机EL元件来进行图像显示。机器人100还能内置扬声器来发出简单的声音。机器人100的头顶部装配有角112。如上所述,机器人100重量轻,因此用户能通过抓住角112来提起机器人100。
本实施方式中的机器人100在角112中内置有全景摄像头400(第一摄像头)。全景摄像头400能通过鱼眼镜头一次性拍摄上下左右所有方位(360度:特别是机器人100上方的大致整个区域)(参照图8)。内置于眼睛110的高分辨率摄像头402(第二摄像头)只能拍摄机器人100的正面方向。全景摄像头400拍摄范围宽,但其分辨率低于高分辨率摄像头402。
除此之外,机器人100内置有:将周边温度分布成像的温度传感器(热敏传感器)、具有多个麦克风的麦克风阵列、能测定测量对象的形状的形状测定传感器(深度传感器)、超声波传感器等各种传感器。
图2是概略地表示机器人100的构造的剖面图。图3是以框架为中心来表示机器人100的构造的侧视图。图2对应于图3的A-A剖面。
如图2所示,机器人100的主体104包括:基础框架308、主体框架310、一对轮罩312以及外皮314。基础框架308由金属构成,构成主体104的轴心并且支承内部机构。基础框架308通过多个侧板336将上板332和下板334上下连结而构成。在多个侧板336间设有足够的间隔,以便能通气。在基础框架308的内侧容纳有电池118、控制电路342以及各种驱动器等。
主体框架310由树脂材料构成,包括头部框架316以及躯干部框架318。头部框架316呈中空半球状,形成机器人100的头部骨架。躯干部框架318呈分段筒状,形成机器人100的躯干部骨架。躯干部框架318与基础框架308固定为一体。头部框架316以可相对位移的方式组装于躯干部框架318的上端部。
头部框架316设有偏转(yaw)轴321、俯仰(pitch)轴322以及横摆(roll)轴323这三个轴以及旋转驱动各轴的驱动器324、325。驱动器324包括用于驱动偏转轴321的伺服马达。驱动器325包括用于分别驱动俯仰轴322以及横摆轴323的多个伺服马达。为了进行摆头动作而驱动偏转轴321,为了进行点头动作、仰视动作以及俯视动作而驱动俯仰轴322,为了进行歪头动作而驱动横摆轴323。
头部框架316的上部固定有支承于偏转轴321的板326。板326上形成有多个用于确保上下之间的通气的通气孔327。
以从下方支承头部框架316以及其内部机构的方式设有金属制的基板328。基板328经由接头330与上板332(基础框架308)连结。基板328设有支承台335,支承驱动器324、325以及桥接(crosslink)机构329(缩放机构)。桥接机构329将驱动器324、325上下连结,能使它们之间的间隔发生变化。
更详细而言,驱动器325的横摆轴323经由省略图示的齿轮机构与支承台335连结。驱动器325的俯仰轴322与桥接机构329的下端部连结。另一方面,在桥接机构329的上端部固定有驱动器324。驱动器324的偏转轴321与板326连结。需要说明的是,驱动器325设有用于伸缩驱动桥接机构329的省略图示的旋转驱动机构。
通过这样的构成,使横摆轴323旋转,由此能使驱动器325与头部框架316一体旋转(rolling),能实现歪头的动作。此外,通过使俯仰轴322旋转,能使桥接机构329与头部框架316一体旋转(pitching),能实现点头动作等。通过使偏转轴321旋转,能使板326与头部框架316一体旋转(yawing),能实现摆头动作。而且,通过使桥接机构329伸缩,能实现头部的伸缩动作。
躯干部框架318容纳基础框架308和轮子驱动机构370。图3中也示出了轮子驱动机构370包括前轮驱动机构374以及后轮驱动机构376。躯干部框架318的上半部380以使主体104的轮廓带有弧度的方式形成为平滑的曲面形状。上半部380形成为宽度朝向与颈部对应的上部逐渐变窄。躯干部框架318的下半部382为了在其与轮罩312之间形成前轮102的收纳空间S而宽度变窄。上半部380与下半部382的边界为阶梯形状。
构成下半部382的左右侧壁设为相互平行,贯穿前轮驱动机构374的后述的转动轴378,对其进行支承。设有下板334,以便关闭下半部382的下端开口部。换而言之,基础框架308固定于躯干部框架318的下端部并由其支撑。
一对轮罩312设置为从左右覆盖躯干部框架318的下半部382。轮罩312由树脂形成,以形成与躯干部框架318的上半部380连续的平滑的外表面(曲面)的方式被组装。轮罩312的上端部沿着上半部380的下端部被连结。由此,在下半部382的侧壁与轮罩312之间形成有朝向下方敞开的收纳空间S。
外皮314由聚氨酯橡胶形成,从外侧覆盖主体框架310以及轮罩312。手106与外皮314一体成形。在外皮314的上端部设有用于导入外部空气的开口部390。
前轮驱动机构374包括:旋转驱动机构,用于使前轮102旋转;以及收纳动作机构,用于使前轮102从收纳空间S进退。即,前轮驱动机构374包括转动轴378以及驱动器379。前轮102在其中心部具有直驱马达(以下记为“DD马达”)396。DD马达396具有外转子结构,定子固定于轮轴398,转子同轴状地固定于前轮102的轮毂397。轮轴398经由臂350与转动轴378一体化。在躯干部框架318的下部侧壁,埋设有贯通转动轴378且可转动地对其进行支承的轴承352。轴承352设有用于气密性地密封躯干部框架318的内外的密封构造(轴承密封)。通过驱动器379的驱动,能从收纳空间S向外部进退驱动前轮102。
后轮驱动机构376包括转动轴354以及驱动器356。两条臂358从转动轴354伸出,在其顶端一体地设有轮轴360。后轮103可旋转地支承于轮轴360。在躯干部框架318的下部侧壁,埋设有贯通转动轴354且可转动地对其进行支承的省略图示的轴承。该轴承也设有轴密封构造。通过驱动器356的驱动,能从收纳空间S向外部进退驱动后轮103。
收起轮子时,驱动器379、356向一个方向被驱动。此时,臂350以转动轴378为中心转动,前轮102从地面F上升。此外,臂358以转动轴354为中心转动,后轮103从地面F上升。由此,主体104降下,就座面108与地面F相接。由此,实现机器人100坐下的状态。通过反向驱动驱动器379、356,能使各轮子从收纳空间S伸出,使机器人站起来。
用于驱动手106的驱动机构包括埋设于外皮314的金属线134和其驱动电路340(通电电路)。在本实施方式中,金属线134由形状记忆合金线构成,被加热时收缩硬变,被缓慢加热时舒张伸长。从金属线134的两端引出的引线与驱动电路340连接。当驱动电路340的开关接通时,金属线134(形状记忆合金线)通电。
金属线134以从外皮314向手106延伸的方式模制(mold)或编入。引线从金属线134的两端引出至躯干部框架318的内侧。金属线134既可以在外皮314的左右各设置一根,也可以并列设置多根。通过对金属线134通电能抬起手106,通过切断通电能放下手106。
机器人100通过控制俯仰轴322的旋转角度,能调整视线(参照虚线箭头)的角度。需要说明的是,在本实施方式中为了方便说明,将通过俯仰轴322和眼睛110的假想直线的方向设为视线的方向。高分辨率摄像头402的光轴与视线一致。此外,为了便于后述的计算处理,设定为连接全景摄像头400和俯仰轴322的直线与视线呈直角。
头部框架316的前后设置有能插通躯干部框架318的上端部的狭缝362、364。因此,能将以俯仰轴322为中心的头部框架316的可动范围(旋转范围)设置得大。在本实施方式中,将该可动范围设为90度,从视线呈水平的状态向上向下各45度。即,机器人100的视线向上的角度(仰视角)的极限值为45度,视线向下的角度(俯视角)的极限值也为45度。
图4是机器人系统300的构成图。
机器人系统300包括:机器人100、服务器200以及多个外部传感器114。在房屋内预先设置多个外部传感器114(外部传感器114a、114b、……、114n)。外部传感器114既可以固定在房屋的墙面上,也可以放置在地上。服务器200中录入了外部传感器114的位置坐标。位置坐标在被假定为机器人100的行动范围的房屋内被定义为x、y坐标。
服务器200设置于住宅内。本实施方式中的服务器200与机器人100一一对应。服务器200基于由机器人100的内置传感器以及多个外部传感器114获取的信息,来决定机器人100的基本行为。外部传感器114用于加强机器人100的感觉器,服务器200用于加强机器人100的头脑。
外部传感器114定期发送包括外部传感器114的ID(以下,称为“信标ID”)的无线信号(以下,称为“机器人搜索信号”)。机器人100在接收到机器人搜索信号时会回复包含信标ID的无线信号(以下,称为“机器人应答信号”)。服务器200测量从外部传感器114发送机器人搜索信号开始到接收到机器人应答信号为止的时间,来测量出从外部传感器114到机器人100的距离。通过测量多个外部传感器114与机器人100的各自距离,来确定机器人100的位置坐标。当然,也可以采用机器人100定期向服务器200发送自身位置坐标的方式。
图5是情感地图116的概念图。
情感地图116是储存于服务器200的数据表。机器人100根据情感地图116来作出行为选择。情感地图116表示机器人100对场所的好恶情感的程度。情感地图116的x轴和y轴表示二维空间坐标。z轴表示好恶情感的程度。z值为正值时表示对该场所的好感高,z值为负值时表示厌恶该场所。
在情感地图116中,坐标P1是作为机器人100的行动范围而由服务器200管理的屋内空间中好感高的地点(以下,称为“好感地点”)。好感地点可以是沙发的背面、桌子下等“安全场所”,也可以是像客厅这种经常聚人的场所、热闹的场所。此外,也可以是曾经被轻抚或触碰过的场所。机器人100喜欢怎样的场所的定义是任意的,但一般而言理想的是将小孩或狗、猫等小动物喜欢的场所设定为好感地点。
坐标P2是厌恶感高的地点(以下,称为“厌恶地点”)。厌恶地点可以是电视机附近等声音大的场所、像浴缸和洗面台这种经常被弄湿的场所、密闭空间、暗处、会勾起被用户粗暴对待的不愉快记忆的场所等。机器人100厌恶怎样的场所的定义也是任意的,但一般而言理想的是将小孩或狗、猫等小动物害怕的场所设定为厌恶地点。
坐标Q表示机器人100的当前位置。服务器200根据由多个外部传感器114定期发送的机器人搜索信号和与之对应的机器人应答信号,来确定机器人100的位置坐标。例如,在信标ID=1的外部传感器114和信标ID=2的外部传感器114分别检测到机器人100时,求出机器人100与两个外部传感器114的距离,并据此求出机器人100的位置坐标。
或者,信标ID=1的外部传感器114向多个方向发送机器人搜索信号,机器人100在接收到机器人搜索信号时回复机器人应答信号。由此,服务器200可以掌握机器人100在哪个方向距哪个外部传感器114多远的距离。此外,在其他实施方式中,可以根据轮子(前轮102)的转速来计算机器人100的移动距离而确定当前位置,也可以基于由摄像头获取到的图像来确定当前位置。在被赋予了情感地图116的情况下,机器人100会向靠近好感地点(坐标P1)的方向、远离厌恶地点(坐标P2)的方向移动。
情感地图116会动态变化。当机器人100到达坐标P1时,坐标P1处的z值(好感)会随时间降低。由此,机器人100能模拟出到达好感地点(坐标P1)而“情感得到满足”且不久后会对该场所产生“厌倦”这样的生物行为。同样,坐标P2处的厌恶感也会随时间而减轻。随着时间推移,会产生新的好感地点、厌恶地点,由此机器人100会进行新的行为选择。机器人100对新的好感地点有“兴趣”,会不断地作出行为选择。
作为机器人100的内部状态,情感地图116体现出情感的起伏。机器人100会靠近好感地点而避开厌恶地点,暂时停留在好感地点,不久会进行下一行为。通过这样的控制,能将机器人100的行为选择设计成人类/生物式的行为选择。
需要说明的是,影响机器人100的行为的地图(以下,统称为“行为地图”)不限于图3所示的类型的情感地图116。例如,能定义好奇、避免恐惧的情绪、寻求安心的情绪、以及寻求安静或昏暗、凉爽或温暖等肉体的舒适的情绪等各种行为地图。并且,可以通过对多个行为地图各自的z值进行加权平均,来决定机器人100的目的地点。
机器人100除了行为地图之外,还可以具有表示各种情感、感觉的程度的参数。例如,在寂寞这样的情感参数值变高时,可以将评估安心的场所的行为地图的加权系数设定得大,并通过到达目标地点来降低该情感参数值。同样,在表示无聊这样的感觉的参数的值变高时,将评估满足好奇心的场所的行为地图的加权系数设定得大即可。
图6是机器人100的硬件构成图。
机器人100包括:内部传感器128、通信器126、存储装置124、处理器122、驱动机构120以及电池118。驱动机构120包括上述的轮子驱动机构370。处理器122和存储装置124包含于控制电路342。各单元通过电源线130以及信号线132而相互连接。电池118经由电源线130向各单元供电。各单元通过信号线132来收发控制信号。电池118为锂离子二次电池等二次电池,是机器人100的动力源。
内部传感器128是内置于机器人100的各种传感器的集合体。具体而言,除了是摄像头410(全景摄像头400和高分辨率摄像头402)、麦克风阵列404、温度传感器406、形状测定传感器408以外,还是红外线传感器、触摸传感器、加速度传感器、嗅觉传感器等。嗅觉传感器是一种已知的传感器,其应用了电阻因作为气味源的分子的吸附而变化的原理。嗅觉传感器将各种气味分类为多种类别(以下,称为“气味类别”)。
通信器126是以服务器200、外部传感器114、用户持有的便携设备等各种外部设备为对象来进行无线通信的通信模块。存储装置124由非易失性内存以及易失性内存构成,存储计算机程序、各种设定信息。处理器122是计算机程序的执行部。驱动机构120是控制内部机构的驱动器。除此之外,还搭载有显示器、扬声器等。
处理器122在经由通信器126与服务器200、外部传感器114进行通信的同时,进行机器人100的行为选择。由内部传感器128获取的各种外部信息也会影响行为选择。
驱动机构120主要控制轮子(前轮102)、头部(头部框架316)以及躯干部(手106)。驱动机构120通过改变两个前轮102各自的旋转速度、旋转方向,来改变机器人100的移动方向、移动速度。此外,驱动机构120也能使轮子(前轮102以及后轮103)升降。当轮子上升时,轮子完全收纳在主体104中,机器人100通过就座面108与地面抵接,变为就座状态。
驱动机构120能经由金属线134拉动手106,由此抬起手106。还能通过使手106摆动来实现摆手这种举动。如果利用许多金属线134则能表现更复杂的举动。
图7是机器人系统300的功能框图。
如上所述,机器人系统300包括:机器人100、服务器200、以及多个外部传感器114。机器人100以及服务器200的各构成要素由硬件和软件来实现,其中,硬件包括中央处理器(Central Processing Unit:CPU)以及各种协处理器等计算器、内存(memory)和存储器(storage)等存储装置、将这些装置连结起来的有线或无线的通信线,软件储存于存储装置,将处理命令提供给计算器。计算机程序可以由设备驱动程序、操作系统、位于它们的上位层的各种应用程序、以及为这些程序提供共通功能的程序库构成。以下所说明的各区组不表示硬件单位的构成,而表示功能单位的区组。机器人100的部分功能可以由服务器200来实现,服务器200的部分或全部功能也可以由机器人100来实现。
(服务器200)
服务器200包括:通信部204、数据处理部202以及数据储存部206。通信部204负责与外部传感器114以及机器人100的通信处理。数据储存部206储存各种数据。数据处理部202基于由通信部204获取到的数据以及储存在数据储存部206的数据来执行各种处理。数据处理部202也作为通信部204以及数据储存部206的接口来发挥功能。
数据储存部206包括:动作储存部232、地图储存部216以及个人数据储存部218。机器人100具有多个动作模式(motion)。定义有抖动手、蛇行接近主人、歪头注视主人等各种各样的动作。
动作储存部232储存对动作的控制内容进行定义的“动作文件”。各动作通过动作ID来识别。动作文件也被下载到机器人100的动作储存部160。执行哪一动作有时由服务器200来决定,有时由机器人100来决定。
机器人100的很多动作构成为包括多个单位动作的复合动作。例如,在机器人100接近主人时,可以表现为转向主人的单位动作、一边抬手一边接近的单位动作、一边晃动身体一边接近的单位动作、以及一边举起双手一边坐下的单位动作的组合。通过这样的四个动作的组合,会实现“接近主人、中途抬手、最后晃动身体坐下”的动作。动作文件中,与时间轴建立关联地定义了设于机器人100的驱动器的旋转角度、角速度等。依据动作文件(驱动器控制信息),随着时间经过来控制各驱动器,由此实现各种动作。
将从前一个单位动作变化到下一个单位动作时的过渡时间称为“间隔”。根据单位动作变更所需的时间、动作的内容来定义间隔即可。间隔的长度可调整。以下,将何时选择哪个动作、为了实现动作而进行的各驱动器的输出调整等与机器人100的行为控制有关的设定统称为“行为特性”。机器人100的行为特性由动作选择算法、动作的选择概率、动作文件等来定义。
地图储存部216储存多个行为地图。个人数据储存部218储存用户特别是主人的信息。具体而言,储存对用户的亲密度、用户的身体特征/行为特征等各种参数。也可以储存年龄、性别等其他属性信息。
机器人100基于用户的身体特征、行为特征来识别用户。机器人100不断通过内置的摄像头来拍摄周围。然后,提取现于图像的人物的身体特征和行为特征。所谓身体特征,可以是身高、喜欢穿的衣服、是否戴眼镜、肤色、发色、耳朵大小等身体附带的视觉特征,也可以包括平均体温、气味、音质等其他特征。所谓行为特征,具体而言,是用户喜欢的场所、动作的活跃度、是否吸烟等行为附带的特征。例如,提取出被识别为父亲的主人经常不在家,在家时经常在沙发上不动弹,而母亲经常在厨房、行动范围广之类的行为上的特征。机器人100基于根据大量的图像信息、其他传感信息而获取到的身体特征以及行为特征,将高频率出现的用户归类为“主人”。
通过用户ID来识别用户的方式简单可靠,但前提是用户持有能提供用户ID的设备。另一方面,虽然通过身体特征、行为特征来识别用户的方法的图像识别处理负担大,但具有即使是不持有便携设备的用户也能被识别的优点。两种方法既可以仅采用一方,也可以互补地并用两种方法来进行用户确定。在本实施方式中,根据身体特征和行为特征来对用户进行归类,并通过深度学习(多层神经网络)来识别用户。
机器人100按每个用户具有亲密度这样的内部参数。机器人100在识别出抱起自己、打招呼等对自己示好的行为时,对该用户的亲密度会提高。对与机器人100无关的用户、动粗的用户、见面频率低的用户的亲密度会降低。
数据处理部202包括:位置管理部208、地图管理部210、识别部212、动作判断部222以及亲密度管理部220。位置管理部208通过用图4说明过的方法来确定机器人100的位置坐标。位置管理部208也可以实时追踪用户的位置坐标。
地图管理部210通过与图5关联地进行过说明的方法,针对多个行为地图改变各坐标的参数。地图管理部210管理作为行为地图的一种的温度地图。
地图管理部210既可以选择多个行为地图中的任一个,也可以对多个行为地图的z值进行加权平均。例如,在行为地图A中坐标R1、坐标R2处的z值为4和3,在行为地图B中坐标R1、坐标R2处的z值为-1和3。在简单平均的情况下,坐标R1的合计z值为4-1=3,坐标R2的合计z值为3+3=6,因此,机器人100会前往坐标R2的方向,而不是坐标R1的方向。在使行为地图A五倍着重于行为地图B时,坐标R1的合计z值为4×5-1=19,坐标R2的合计z值为3×5+3=18,因此,机器人100会前往坐标R1的方向。
识别部212识别外部环境。外部环境的识别包括基于温度、湿度的气候、季节的识别;基于光量、温度的隐蔽处(安全地带)的识别等多种识别。识别部212还包括人物识别部214和应对识别部228。人物识别部214根据由机器人100的内置摄像头拍摄到的拍摄图像来识别人物,并提取出该人物的身体特征、行为特征。然后,基于录入个人数据储存部218的身体特征信息、行为特征信息,来判定拍摄到的用户即机器人100所看见的用户为父亲、母亲、长子等中的哪位人物。人物识别部214包括表情识别部230。表情识别部230通过对用户的表情进行图像识别来推定用户的情感。需要说明的是,人物识别部214也对人物以外的,例如作为宠物的猫、狗进行特征提取。
应对识别部228识别机器人100所受到的各种应对行为,并将其分类为愉快/不愉快行为。此外,应对识别部228还通过识别主人对机器人100的行为的应对行为,分类为肯定/否定反应。愉快/不愉快行为根据用户的应对行为对生物而言是舒服的还是不愉快的来判别。例如,对于机器人100而言,被抱起是愉快行为,被踢是不愉快行为。根据用户的应对行为表现出了用户的愉快情感还是不愉快情感,来判别肯定/否定反应。例如,被抱起是表示用户的愉快情感的肯定反应,被踢是表示用户的不愉快情感的否定反应。
动作判断部222与机器人100的控制部150相互配合,决定机器人100的动作。动作判断部222基于地图管理部210的行为地图选择,来制定机器人100的移动目标地点和移动至该移动目标地点的移动路线。动作判断部222可以制作多条移动路线,并在此基础上选择任一条移动路线。
动作判断部222从动作储存部232的多个动作中选择机器人100的动作。各动作根据不同的状况与选择概率建立对应。例如,定义了以下的选择方法:在从主人处受到愉快行为时有20%的概率执行动作A,在气温为30度以上时有5%的概率执行动作B。在行为地图中决定移动目标地点、移动路线,并根据后述的各种事件选择动作。
亲密度管理部220管理每个用户的亲密度。如上所述,亲密度作为个人数据的一部分被录入个人数据储存部218。在检测到愉快行为时,亲密度管理部220会增加对该主人的亲密度。在检测到不愉快行为时亲密度会下降。此外,长时间未见到的主人的亲密度会逐渐下降。
(机器人100)
机器人100包括:内部传感器128、通信部142、数据处理部136、数据储存部148以及驱动机构120。内部传感器128是各种传感器的集合体。内部传感器128包括:麦克风阵列404、摄像头410、温度传感器406以及形状测定传感器408。
麦克风阵列404是组合多个麦克风而成的单元,是检测声音的声音传感器。麦克风阵列404是能检测声音并检测声源方向的设备即可。麦克风阵列404内置于头部框架316。声源与各麦克风的距离不一致,因此集音的时间点会有偏差。因此,能根据各麦克风中的声音强度和相位来确定声源的位置。机器人100通过麦克风阵列404检测声源的位置,特别是声源的方向。
摄像头410是拍摄外部的设备。摄像头410包括全景摄像头400和高分辨率摄像头402。温度传感器406检测外部环境的温度分布并将其成像。形状测定传感器408是红外线深度传感器,其通过从发射器(projector)照射近红外线并用近红外线摄像头检测近红外线的反射光,来读取对象物体的深度,进而读取凹凸形状。
通信部142与通信器126(参照图6)对应,负责与外部传感器114以及服务器200的通信处理。数据储存部148储存各种数据。数据储存部148与存储装置124(参照图6)对应。数据处理部136基于由通信部142获取到的数据以及储存在数据储存部148的数据来执行各种处理。数据处理部136与处理器122以及由处理器122执行的计算机程序对应。数据处理部136也作为通信部142、内部传感器128、驱动机构120以及数据储存部148的接口来发挥功能。
数据储存部148包括定义机器人100的各种动作的动作储存部160。各种动作文件从服务器200的动作储存部232下载到动作储存部160。通过动作ID来识别动作。为了表现收起前轮102并坐下、抬起手106、通过使两个前轮102反转或仅使单侧的前轮102旋转来使机器人100作出旋转行为、通过在收起前轮102的状态下使前轮102旋转来颤动、在远离用户时一度停止并回头等各种各样的动作,在动作文件中按时序定义有各种驱动器(驱动机构120)的动作定时、动作时间、动作方向等。
数据处理部136包括:识别部156、控制部150以及传感器控制部172。控制部150包括:移动控制部152以及动作控制部154。移动控制部152与服务器200的动作判断部222一起决定机器人100的移动方向。可以由服务器200来决定基于行为地图的移动,并由机器人100来决定躲避障碍物等的即时移动。驱动机构120按照移动控制部152的指示来驱动前轮102,由此使机器人100前往移动目标地点。
动作控制部154与服务器200的动作判断部222相互配合,协作地决定机器人100的动作。可以是部分动作由服务器200来决定,其他动作由机器人100来决定。此外,也可以由机器人100来决定动作,但在机器人100的处理负荷高时也可以由服务器200来决定动作。也可以由服务器200来决定基础动作,并由机器人100来决定追加动作。根据机器人系统300的规格来设计在服务器200和机器人100中如何分担动作的决定处理即可。动作控制部154向驱动机构1200指示执行所选择的动作。驱动机构120根据动作文件来控制各驱动器。
动作控制部154既能在亲密度高的用户接近时,执行抬起双手106的动作作为求“抱抱”的举动,也能在厌倦了“抱抱”时通过在收起左右前轮102的状态下交替反复进行反向旋转和停止来表现厌恶拥抱的动作。驱动机构120按照动作控制部154的指示来驱动前轮102、手106、头部(头部框架316),由此使机器人100表现出各种各样的动作。
传感器控制部172控制内部传感器128。具体而言,控制高分辨率摄像头402、温度传感器406以及形状测定传感器408的测量方向。搭载于机器人100的头部的高分辨率摄像头402、温度传感器406以及形状测定传感器408的测量方向根据头部框架316的方向而发生变化。传感器控制部172控制高分辨率摄像头402的拍摄方向(就是说,配合其拍摄方向来控制头部的移动)。传感器控制部172以及摄像头410作为“摄像部”发挥功能。
识别部156对由内部传感器128获取的外部信息进行解释。识别部156能进行视觉识别(视觉部)、气味识别(嗅觉部)、声音识别(听觉部)、以及触觉识别(触觉部)。识别部156定期获取摄像头410、温度传感器406以及形状测定传感器408的检测信息,来检测人、宠物等移动物体。这些信息被发送给服务器200,服务器200的人物识别部214提取出移动物体的身体特征。此外,也检测用户的气味、用户的声音。气味、声音(声)通过已知的方法被分类为多个种类。
在机器人100受到强冲击时,识别部156通过内置的加速度传感器来对其进行识别,服务器200的应对识别部228识别出邻近的用户作出了“粗暴行为”。在用户抓住角112提起机器人100时,也可以识别为粗暴行为。在处于与机器人100正对的状态下的用户以特定音域以及特定频带发声时,服务器200的应对识别部228可以识别出对自己进行了“打招呼行为”。此外,在检测到体温级别的温度时识别为用户进行了“接触行为”,在已作出接触识别的状态下检测到向上方的加速度时识别为被“抱起”。可以感应用户提起主体104时的物理接触,也可以通过施加给前轮102的负荷降低来识别拥抱。
服务器200的应对识别部228识别用户对机器人100的各种应对。各种应对行为中的一部分典型的应对行为与愉快或不愉快、肯定或否定建立对应。一般而言作为愉快行为的应对行为几乎都为肯定反应,作为不愉快行为的应对行为几乎都为否定反应。愉快/不愉快行为与亲密度关联,肯定/否定反应会影响机器人100的行为选择。
包括检测、分析、判定的一系列的识别处理既可以仅通过服务器200的识别部212来进行,也可以仅通过机器人100的识别部156来进行,还可以双方分工来执行上述识别处理。
根据由识别部156识别出的应对行为,服务器200的亲密度管理部220使针对用户的亲密度改变。原则上讲,对进行过愉快行为的用户的亲密度会变高,对进行过不愉快行为的用户的亲密度会降低。
服务器200的识别部212根据应对来判定愉快/不愉快,地图管理部210可以改变表现“对场所的喜爱”的行为地图中经历愉快/不愉快行为的地点的z值。例如,在客厅经历了愉快行为时,地图管理部210可以高概率地将客厅设定为喜欢地点。在该情况下,实现了机器人100喜欢客厅并因在客厅受到愉快行为而越来越喜欢客厅这样的正反馈效果。
服务器200的人物识别部214根据由外部传感器114或内部传感器128获取的各种数据来检测移动物体,并提取其特征(身体特征和行为特征)。然后,基于这些特征来对多个移动物体进行集群分析。作为移动物体,不仅是人类,有时狗、猫等宠物也会成为分析对象。
机器人100定期进行图像拍摄,人物识别部214根据这些图像来识别移动物体,并提取移动物体的特征。在检测到移动物体时,也会由嗅觉传感器、内置的收音麦克风、温度传感器等来提取身体特征、行为特征。例如,在移动物体被拍摄入图像时,会提取出长胡子、在清晨活动、身穿红衣、香水味、声音大、戴眼镜、穿裙子、白发、个子高、胖、肤黑、在沙发上等各种特征。
在完成这种基于特征提取的集群分析的状态下,机器人100会重新识别移动物体(用户)。此时,服务器200的人物识别部214根据得自机器人100的图像等传感信息来进行特征提取,并通过深度学习(多层神经网络)来判断机器人100附近的移动物体对应于哪个集群。
基于特征提取的集群形成(集群分析)、和向伴随特征提取的集群的套用(深度学习)可以同时并行地执行。根据被移动物体(用户)施以怎样的行为,对该用户的亲密度会发生变化。
机器人100可以对经常遇到的人、经常接触的人、经常打招呼的人设定高的亲密度。另一方面,对很少遇到的人、很少接触的人、粗暴的人、大声呵斥的人的亲密度会降低。机器人100也基于由传感器(视觉、触觉、听觉)检测到的各种外界信息来改变每个用户的亲密度。
实际的机器人100会按照行为地图来自主地进行复杂的行为选择。机器人100会在基于寂寞程度、无聊程度、好奇等各种参数而受到多个行为地图的影响的同时进行行动。当排除了行为地图的影响时,或者当处于行为地图的影响小的内部状态时,原则上讲,机器人100会接近亲密度高的人,远离亲密度低的人。
机器人100的行为根据亲密度被分类如下。
(1)亲密度非常高的集群
机器人100通过接近用户(以下,称为“接近行为”)并且进行预先定义为对人示好的举动的爱意举动来强烈地表达亲昵之情。
(2)亲密度比较高的集群
机器人100仅进行接近行为。
(3)亲密度比较低的集群
机器人100不进行特别的动作。
(4)亲密度特别低的集群
机器人100进行逃离行为。
根据以上的控制方法,机器人100在看见亲密度高的用户时会接近该用户,相反,在看见亲密度低的用户时会远离该用户。通过这样的控制方法,能行为表现出所谓的“认生”。此外,在出现客人(亲密度低的用户A)时,机器人100有时也会远离客人而走向家人(亲密度高的用户B)。在该情况下,用户B能感觉到机器人100认生并感到不安、依赖自己。通过这样的行为表现,用户B会被唤起被选择、被依赖的喜悦以及随之而来的喜爱之情。
另一方面,当作为客人的用户A频繁来访、打招呼、触摸时,机器人100对用户A的亲密度会逐渐上升,机器人100不会对用户A作出认生行为(逃离行为)。用户A也能通过感受到机器人100逐渐与自己熟悉而对机器人100抱有喜爱。
需要说明的是,不限于始终执行以上的行为选择。例如,在表示机器人100的好奇心的内部参数变高时,寻求满足好奇心的场所的行为地图会被着重使用,因此机器人100也有可能不选择影响到了亲密度的行为。此外,在设置于门厅的外部传感器114检测到用户回家的情况下,有可能优先执行迎接用户的行为。
接着,对用于使机器人100与用户保持自然的距离感的控制进行说明。
本实施方式的机器人100根据进入视野的用户的属性、亲密度(偏好),来适当地保持与该用户的距离感,模拟生物上的自然行为。识别部156也作为“偏好判定部”发挥功能。此外,作出根据其距离以自然的角度仰视用户的面部的举动,由此使用户感受到喜爱。以下,对其详细情况进行说明。
图8是表示控制与用户的距离的方法的示意图。
机器人100从摄像头410的被拍摄对象提取用户(对象物)并分析其图像,并且,如果存在对应的用户信息则参照该用户信息,以使其与用户的距离变得合适的方式进行移动。本实施方式的机器人100的身高(高度)假定为50厘米左右。这个身高的机器人100在观察用户的面部时,必然会变为倾斜头部而仰视的状态。为了增大仰视角度来观察用户的面部,机器人100需要接近用户,如果减小仰视角度,则机器人100需要远离用户。可以将仰视角度设为固定,控制机器人100的前进后退动作,以维持此时的用户的面部的观察状态,从而维持与用户的自然的距离感的同时使机器人100跟随用户。就是说,即使不测定机器人100与用户的明确距离,也能维持自然的距离感。
在图8中,全景拍摄范围418是全景摄像头400的拍摄范围。全景摄像头400能一次性拍摄机器人100的上方半球大致整个区域。识别部156对全景拍摄范围418中包括对象物414的方向的规定范围即摄像区域420的图像(拍摄图像)进行分析。需要说明的是,在本实施方式中,将被拍摄对象中如人(用户)或动物(宠物)那样能进行对话、物理接触的对象的生物称为“对象物”,但也可以特别仅将人作为对象物。
识别部156进行摄像区域420中是否存在具有规定特征的被拍摄对象的图像分析。在本实施方式中,由机器人100的识别部156执行从摄像区域420中图像识别对象物414的处理。在变形例中,也可以由服务器200的识别部212执行该图像识别,也可以由服务器200的识别部212以及机器人100的识别部156双方执行。
在从被拍摄对象中确定对象物414时,识别部156通过温度传感器406测量该被拍摄对象的周边温度分布,判定该被拍摄对象是否为发热体,特别是,是否为摄氏30~40度左右的发热体。识别部156也作为“温度判定部”发挥功能。由于人类、宠物等恒温动物是发热体,因此能通过该温度测量从对象物414的候选中排除音响、电视机、墙壁、镜子等。
识别部156进一步通过形状测定传感器408测量被拍摄对象的三维形状,判定该被拍摄对象是否为具有规定形状的物体。例如,识别部156判定被拍摄对象是否具有凹凸形状。在不具有凹凸形状时,可以认为被拍摄对象是电视机、墙壁、镜子等平面体,因此能从对象物414的候选中排除它们。更优选的是,最好通过形状测定传感器408检测被拍摄对象的立体形状的特征。如果能识别出人类的脸、动物的脸的形状上的特征(鼻子的位置、嘴的形状等),则容易从对象物414的候选中更可靠地排除音响、电视机等非生物。在个人数据储存部218,还储存有由形状测定传感器408测量出的各集群的面部的特征信息。因此,进一步优选的是,可以通过形状测定传感器408确定对象物414是谁。
这样,当通过温度传感器406以及形状测定传感器408确定出对象物414的候选(称为“对象物候选”)时,用高分辨率摄像头402拍摄该对象物候选。此时,调整视场角以使画面中央包含该对象物候选的整体。如上所述,高分辨率摄像头402的光轴与视线一致。因此,在机器人100的视线方向存在对象物候选。识别部156基于该高分辨率摄像头402的图像,来确定该对象物候选是否为对象物414。
例如,具有相当于两只眼睛和一张嘴的部分的具有肤色、正在活动、穿着衣服等生物所特有的身体/行为特征的对象物候选被识别为对象物414。然后,为了确定该对象物414的面部,使用公知的面部识别技术。在该面部识别中,例如从对象物414的图像中检测面部的边缘部分来确定面部区域,并将预设的特征量的图形(眼睛、鼻子、嘴的配置等)与该面部区域的图像进行对比。如果该对比中的相似度为基准值以上,则能判断为面部。当存在多个对象物414时,确定出多个面部。
识别部156在这样确定出对象物414后,进一步确定对象物414的高度和面部大小。具体而言,从拍摄画面中提取对象物414的特征点,并将该特征点的高度确定为“对象物的高度”。在本实施方式中,提取在面部的中心向前方突出的鼻子作为特征点,来确定对象物414的高度。此外,提取面部的轮廓,将其纵向的长度确定为“面部的大小”。以使在拍摄画面中识别为面部的区域(也称为“面部区域”)的大小也就是面部区域的面积处于规定范围的方式控制机器人100的前进后退动作。如果增大面部区域的面积,则与对象物414的距离感变近,如果缩小面部区域的面积,则与对象物414的距离感变远。
当存在多个对象物414时,基于其高度以及面部的大小信息,来确定有距离感的成为调整对象的对象物414。在对象物414为单个时,将其作为调整对象。然后,根据成为调整对象的对象物414的属性、亲密度来设定仰视角,控制与对象物414的距离(也称为“面对距离”),使得面对着对象物414时对象物414的面部出现在该仰视角的视线上。例如,在父母与孩子聚在一起的状况下,难以在驶向孩子的情况下使用超声波传感器来测量与孩子的准确距离。但是,如果在视觉确认出孩子的面部并将仰视角设为固定的基础上,以孩子的面部区域的面积落在固定范围内的方式进行控制,则能配合孩子调整距离感。
图9是表示仰视角的设定方法的一例的图。
机器人100的视线的上下范围(就是说头部的可动范围)为相对于水平方向(参照双点划线)-45度~+45度(参照虚线)。像生物那样,再现了通过头部的可动区域将被拍摄对象放入舒适的视角的感觉。因此,机器人100的仰视角θ(相对于水平方向的向上的角度)在0~45度的范围内进行调整。为了使仰视的举动看起来自然,设定30度(参照单点划线)作为基准值。
在通过机器人100识别的亲密度相同的情况下,面对距离d根据对象物414是成人还是孩子、以及是男性还是女性等属性而不同。即,与成人414m、414f相比,孩子414c的距离更近。此外,如果是成人,则距离根据其身高而不同。在图示的例子中,比起与成人的男性414m的距离dm,与女性414f的距离df近,与孩子414c的距离dc更近。这样,在将仰视角设为固定的状态下,能通过进行前进后退控制以使面部区域的面积落在规定范围内这一统一处理来实现远离较大的物体、接近较小的物体这种动物本能的距离感的调整。
假设这三人横向排列的情况下(参照图8),机器人100优先考虑与高度低的孩子414c的距离dc。即,移动控制部152使机器人100移动,以使其与孩子414c距离为dc。此时,为了使机器人100的举动看起来自然,当机器人100接近至孩子414c的规定距离以内(例如5m以内)时,开始头部的驱动,以仰视角θ逐渐接近设定值的方式进行控制。
需要说明的是,机器人100接近对象物414的速度可以缓慢。由此,即使设定了面对距离,机器人100也能与对象物414接触。即,确保与响应用户的意向的机器人100的物理接触。
图10是表示仰视角的设定方法的另一例的图。图10的(a)表示存在多个对象物的情况,图10的(b)表示与亲密度相应的仰视角的变化。
如图10的(a)所示,例如在父亲414m蹲在孩子414c身边与机器人100打招呼的情况下,可以认为回应进行亲密表现的父亲414m是自然的,并且能获得共鸣。因此,在像这样存在多个对象物414的情况下,如果确定出的两者的高度差Δh为基准值以下(例如相当于20cm以下的画面上的高度),则将面部大的对象物414作为距离控制的基准。在图示的例子中,移动控制部152使机器人100正对着父亲414m,移动到仰视角θ达到设定值(例如30度)的位置。动作控制部154以在其移动过程中仰视角θ逐渐接近该设定值的方式驱动头部。“高度差Δh”和“基准值”可以通过图像处理中的像素数来进行设定。
仰视角θ根据对象物414的亲密度而可变。即,在对象物414的亲密度比以前高的情况下,如图10的(b)所示,仰视角θ设定变更为比以前的角度(例如30度:参照细单点划线)大的角度(例如40度:参照粗单点划线)。其结果是,机器人100与对象物414的距离从d1减小到d2。由此,与宠物习惯饲主而缩短距离感的情况相同,能表现出机器人100对对象物414抱有比以前更多的好感。
图11是表示确定仰视角时参照的设定表的图。
该设定表是定义有仰视角与亲密度的对应关系的数据表。在图示的例子中,将标准的亲密度(称为“标准亲密度”)设为21以上40以下,将与之对应的仰视角θ设为30度。当对象物414的亲密度比该标准亲密度高时,仰视角θ大于30度。此时,机器人100做出比以前更接近对象物414并注视的举动。由此,能表现出机器人100对对象物414抱有比以前更多的好感。
反之,当对象物414的亲密度比该标准亲密度低时,仰视角θ小于30度。此时,机器人100做出比以前更远离对象物414并注视的举动。由此,能表现出对对象物414的爱意不足的不满、警戒心。像这样根据亲密度使距离感发生变化,由此能使机器人100作出人类式/生物式的行为选择。
图12是举例说明机器人100的动作控制的流程图。
以规定的控制周期反复执行本图的处理。以下,以对象物414是用户的情况为例进行说明。
内部传感器128定期拍摄机器人100的周围,测量周边温度。当通过全景摄像头400捕捉到被拍摄对象时,识别部156基于温度传感器406以及形状测定传感器408的检测信息来判定该被拍摄对象是否为用户。在该被拍摄对象是用户的情况下(S10的是),识别部156通过高分辨率摄像头402识别用户的面部,并对其进行跟踪(S12)。
识别部156基于高分辨率摄像头402的图像来判定用户的高度h(S14),并判定该用户的面部的大小(S16)。当存在多个用户的情况下(S18的是),如果该多个用户的高度差Δh不在基准值以内(S20的否),则设定低的用户作为距离调整的对象(S22)。另一方面,如果高度差Δh在基准值以内(S20的是),则设定面部大的用户(S24)。在用户为一人的情况下(S18的否),跳过S20~S24的处理。也将此时设定的用户称为“设定用户”。
识别部156获取设定用户的信息,判定其亲密度(S26)。如果没有设定用户的信息,则将亲密度临时判定为标准亲密度。然后,使用该亲密度并参照设定表(图11)来设定仰视角θ(S28)。
移动控制部152使机器人100正对着设定用户(S30),并使其向该设定用户的方向移动(S32)。此时,动作控制部154以在其移动的过程中仰视角θ逐渐接近该设定值的方式驱动头部。需要说明的是,在用户比对应于该仰视角θ的距离更接近机器人100的情况下,移动控制部152使机器人100远离设定用户,以达到该距离。在未检测到用户的情况下(S10的否),跳过S12~S32的处理而暂时结束处理。
以上,基于实施方式对机器人100以及包括机器人100的机器人系统300进行了说明。根据本实施方式,机器人100根据用户的高度、面部的大小来控制与该用户的距离感。与较大的人保持距离,与较小的人拉近距离。通过这样的动作,从用户来看能保持与机器人100的自然的距离感。该距离感通过仰视角的设定来完成,机器人100以自然的角度将目光朝向用户。因此,也能使用户感到舒服。
为了像这样以仰视角为固定(设定值)的方式进行控制,当用户蹲下寻求与机器人100的接触时,机器人100采取接近该用户的行为。因此,能温顺地回应希望亲近机器人100的用户的心情。
此外,该仰视角根据亲密度的高低而发生变化。当亲密度变高时,仰视角向变大的方向变化。由此,也能表现出机器人100寻求与用户的物理接触这种举动。与之相反,当亲密度变低时,仰视角向变小的方向变化。由此,也能表现出机器人100对用户表现警戒感、或者怕生等举动。
例如在假定宠物等动物与人之间的关系的情况下,人站着的时候和动物保持一定程度的距离感是很自然的。动物接近人并与之嬉闹是非常有好感的时刻。根据本实施方式,根据亲密度来控制机器人100的仰视角,由此能模拟这种生物上自然的行为(感觉上朴素的行为)。
需要说明的是,本发明不限定于上述实施方式、变形例,可以在不脱离技术精神的范围内对构成要素进行变形来具体化。也可以通过适当组合上述实施方式、变形例中所公开的多个构成要素来形成各种发明。此外,也可以从上述实施方式、变形例中所示的全部构成要素中去掉若干构成要素。
对由一个机器人100和一个服务器200、多个外部传感器114构成机器人系统300的情况进行了说明,但机器人100的部分功能可以由服务器200来实现,服务器200的部分或全部功能也可以分配给机器人100。既可以是一个服务器200控制多个机器人100,也可以是多个服务器200协同控制一个以上的机器人100。
机器人100、服务器200以外的第三装置也可以承担部分功能。图7中所说明的机器人100的各功能和服务器200的各功能的集合体也可以整体作为一个“机器人”来掌握。关于怎样为一个或多个硬件分配实现本发明所需的多个功能,只要能鉴于各硬件的处理能力、机器人系统300所要求的规格等来决定即可。
如上所述,“狭义的机器人”是不包括服务器200的机器人100,而“广义的机器人”是机器人系统300。服务器200的很多功能将来也有可能会集成至机器人100。
在上述实施方式中,作为摄像头410,举例示出了包括全景摄像头400和高分辨率摄像头402的构成。在变形例中,为了降低成本等,可以省略高分辨率摄像头402。即,作为全景摄像头400的全景拍摄范围418的一部分,可以截取出包含对象物414的拍摄画面。但是,为了高精度地维持对象物414(用户)的面部识别,优选如上述实施方式那样一并使用高分辨率摄像头402。在上述本实施方式中,由于使高分辨率摄像头402的光轴与机器人100的视线一致,因此仰视角的调整也即光轴方向的调整,控制变得简单。
或者,反之,可以省略全景摄像头400而通过高分辨率摄像头402来确定对象物414。但是,在该情况下,一直需要驱动头部拍摄周围。此外,对象物414一进入高分辨率摄像头402的拍摄视野就要开始跟踪,机器人100的动作容易变得僵硬。关于这一点,通过全景摄像头400,即使不移动摄像头本身,也容易检测对象物414。因此,优选像上述实施方式那样一并使用全景摄像头400和高分辨率摄像头402。
在本实施方式中,通过摄像头410、温度传感器406以及形状测定传感器408感测对象物414,并通过机器人100的识别部156执行识别处理。在变形例中,也可以通过服务器200的识别部212执行识别处理的一部分或全部。此外,内部传感器128的部分功能可以搭载于外部传感器114。例如,也能如下实现:将摄像头410搭载于外部传感器114,通过服务器200分析外部传感器114的图像信息,机器人100基于该分析结果来确定对象物414的位置。
在上述实施方式中,将全景摄像头400设于角112,构成为与机器人100的头部一体活动。在变形例中,也可以将全景摄像头400设于独立于头部的部位(不受视线的移动影响的位置)。例如,也可以构成为:将全景摄像头400固定于基板328,向头部的上方突出。由此,能使全景摄像头400拍出的图像与头部的动作无关,简化用于确定对象物414的位置的计算处理,能降低其处理负荷。
虽然在本实施方式中未进行说明,但也可以一并使用麦克风阵列404,以识别对象物414。也可以通过麦克风阵列404检测对象物414并确定前往对象物414的方向。此外,也可以代替将麦克风阵列404装接于机器人100而在机器人100的多个部位配置麦克风。
在上述实施方式中,示出了机器人100正对着对象物414调整距离感(主要靠近)的例子。在变形例中,在机器人100离开对象物414时,也可以以获得同样的距离感的方式进行控制。例如,在机器人100被对象物414追时,可以以保持与该对象物414的高度对应的距离的同时逃离的方式进行控制。在该情况下,虽然机器人100背对着对象物414,但能使用全景摄像头400的图像来控制距离。或者,也可以执行如下控制:通过全景摄像头400检测到对象物414从机器人100的背后接近,使机器人100转身以使其正对着对象物414。然后,也可以根据该对象物414的亲密度,来执行使机器人100后退等控制。
在该情况下,机器人100的视线基本朝向对象物414的相反侧,但为了简化控制算法,也可以在计算上设定假定在后头部存在面部的“假想仰视角”。由此,能使用与正对着用户时相同的设定表。通过剪切全景摄像头400的拍摄画面,能容易地实现这样的控制。
在上述实施方式中,示出了根据对象物414的高度调整距离的例子。在变形例中,也可以根据包含对象物414的宽度的大小来控制距离。考虑到身体的大小不仅是身高,还能从宽度方向的体积来感知。以与身体较大的用户相对地增大距离、与身体较小的用户相对地接近的方式进行控制。这样的动作大致与生物式的动作相符。
在上述实施方式中,提取对象物414的鼻子作为特征点,将其鼻子的高度确定为对象物414的高度。在变形例中,也可以设定其他特征点来确定对象物414的高度。例如,也可以确定对象物414的头部(面部)的轮廓,将其头顶部的高度作为对象物414的高度。此外,在上述实施方式中,提取面部的轮廓,将其纵向的长度确定为“面部的大小”。在变形例中,例如也可以将根据面部的轮廓计算出的面部的面积确定为“面部的大小”。
在上述实施方式中,作为存在多个进入摄像头的摄像区域的对象物414的情况,示出了父子大致位于同一位置的例子,但在像多个对象物相互远离时那样应该考虑远近感的情况下,也能进行同样的控制。例如在用户C靠近机器人100、用户D远离机器人100的情况下,用户C在拍摄画面上更高,面部也更大。因此,对更近的用户执行距离控制。即使考虑到生物式动作,对靠近自身的物体作出反应也是自然合理的。
在上述实施方式中,示出了在机器人100接近对象物414时,当接近至规定距离以内时开始头部的驱动,使仰视角逐渐接近设定值的例子。在变形例中,也可以基本固定机器人100的仰视角,并以保持该仰视角的状态接近对象物414。然后,也可以在对象物414的全身进入高分辨率摄像头402的视场角(视角)时,使机器人100停止。通过这样的构成,能降低活动机器人100的头部的频率,降低控制负荷。
在上述实施方式中,以使机器人100的仰视角θ固定的方式控制了与对象物414的距离。具体而言,在机器人100相对于对象物414接近至规定距离以内时开始头部的驱动,使仰视角逐渐接近设定值,并且机器人100本身逐渐接近对象物414,在仰视角达到设定值时停止。因此,没有具体测量距离来控制机器人100的移动。在变形例中,也可以具备检测机器人100到被拍摄对象的距离的测距传感器。然后,也可以计算仰视角为设定值时的与对象物414的距离(设定距离)并以满足该设定距离的方式使机器人100移动。此时,也可以依次获取测距传感器的检测信息,从到达设定距离的紧前开始驱动头部,开始仰视对象物414的动作。然后,也可以以仰视角在达到设定距离的时间点达到设定值的方式进行控制。
在上述实施方式中,将对象物414设为用户(人类),但也可以包括狗、猫等动物。由此,能表现出机器人100以适当的距离面对动物这样的举动。
虽然在上述实施方式中没有进行说明,但是在机器人100做出仰视动作的情况下,摄像头的拍摄状态大多处于逆光状态。因此,可以对拍摄图像进行补偿处理,以便机器人100即使在逆光状态下也能准确识别对象物414。具体而言,可以以照亮拍摄图像整体的方式进行曝光补偿。或者,也可以进行去除拍摄图像的明亮部位而提高曝光(变亮)的补偿。也可以以对象物414的特征部分(面部等)为中心提高曝光。也可以进行基于HDR(High-dynamic-range rendering:高动态范围渲染)的补偿。识别部156也可以进行基于这样的补偿后的图像来提取对象物414的特征等上述的识别处理。该拍摄图像不提供给用户,而是用于机器人100的内部处理(图像识别),因此与对象物414无关的图像部分的“跳色”、“色损害”不会特别成问题。
在上述实施方式中,举例示出了全景摄像头400,但取而代之也可以采用半景摄像头。或者,也可以仅将全景摄像头400的上半球作为拍摄对象。但是,由于这些球型摄像头的拍摄图像(球形图像)的失真一般较大,因此,优选识别部156在以减小该球形图像的失真的方式进行补偿后进行图像识别。
在将机器人的仰视角设为固定并保持与对象物的距离的情况下,以维持画面上的对象物的特定部位(面部、特征点)的位置以及大小的方式控制机器人的前进以及后退。在此,“仰视角”与俯仰轴的旋转角度(也称为“俯仰视角”)对应。摄像头的上下方向(仰视/俯视方向)的拍摄范围能通过俯仰视角的调整而发生变化。即,在将机器人的仰视角设为固定并且控制与对象物的距离的情况下,在将俯仰视角设为固定的状态下,以将映入画面的对象物的特定部位维持在画面上的设定区域(设定位置以及设定范围)的方式移动控制机器人即可。
权利要求书(按照条约第19条的修改)
1.一种行为自主型机器人,其特征在于,具备:
摄像部,拍摄周围;
移动控制部,控制与拍摄到的对象物的距离;
动作控制部,控制头部的动作;以及
识别部,识别拍摄到的对象物的面部,
所述动作控制部以使所述头部呈仰视所述对象物的面部的角度的方式控制所述头部的动作,
所述移动控制部以使所述头部的仰视角落在预设的角度范围内的方式控制与所述对象物的距离。
2.根据权利要求1所述的行为自主型机器人,其特征在于,
在拍摄画面上存在多个对象物的情况下,
所述移动控制部根据低的对象物的高度来控制与所述对象物的距离。
3.根据权利要求1所述的行为自主型机器人,其特征在于,
在拍摄画面上存在多个对象物的情况下,
所述移动控制部根据面部大的对象物的高度来控制与所述对象物的距离。
4.根据权利要求2或3所述的行为自主型机器人,其特征在于,
所述移动控制部以与成为距离控制的基准的对象物正对的方式进行控制。
5.根据权利要求1至4中任一项所述的行为自主型机器人,其特征在于,
所述摄像部包括能拍摄周边的大致整个区域的摄像头,
所述摄像头设于不受所述头部的视线的移动影响的位置。
6.根据权利要求1至5中任一项所述的行为自主型机器人,其特征在于,
还具备偏好判定部,所述偏好判定部判定对对象物的偏好,
所述移动控制部根据所述对象物的偏好来变更所述对象物的大小与作为控制对象的距离的对应关系。
7.根据权利要求1至6中任一项所述的行为自主型机器人,其特征在于,
还具备温度判定部,所述温度判定部判定对象物的温度,
所述移动控制部基于所述对象物的温度来判定出距离控制的对象。
8.一种程序,用于使计算机实现以下功能:
获取机器人周围的拍摄图像的功能;
在所述拍摄图像中确定出规定的对象物的功能;
识别所述对象物的面部的功能;
以使所述机器人的头部呈仰视所述对象物的面部的角度的方式控制所述头部的动作的功能;
以使所述头部的仰视角落在预设的角度范围内的方式计算所述机器人与所述对象物应采取的位置关系的功能;以及
控制所述机器人的移动以实现计算出的位置关系的功能。
Claims (10)
1.一种行为自主型机器人,其特征在于,具备:
摄像部,拍摄周围;以及
移动控制部,根据拍摄到的对象物的大小来控制与所述对象物的距离。
2.根据权利要求1所述的行为自主型机器人,其特征在于,还具备:
动作控制部,控制头部的动作;以及
识别部,识别拍摄到的对象物的面部,
所述动作控制部以使所述头部呈仰视所述对象物的面部的角度的方式控制所述头部的动作,
所述移动控制部根据所述对象物的高度来控制与所述对象物的距离。
3.根据权利要求2所述的行为自主型机器人,其特征在于,
所述移动控制部以使所述头部的仰视角落在预设的角度范围内的方式控制与所述对象物的距离。
4.根据权利要求2或3所述的行为自主型机器人,其特征在于,
在拍摄画面上存在多个对象物的情况下,
所述移动控制部根据低的对象物的高度来控制与所述对象物的距离。
5.根据权利要求2或3所述的行为自主型机器人,其特征在于,
在拍摄画面上存在多个对象物的情况下,
所述移动控制部根据面部大的对象物的高度来控制与所述对象物的距离。
6.根据权利要求4或5所述的行为自主型机器人,其特征在于,
所述移动控制部以与成为距离控制的基准的对象物正对的方式进行控制。
7.根据权利要求2至6中任一项所述的行为自主型机器人,其特征在于,
所述摄像部包括能拍摄周边的大致整个区域的摄像头,
所述摄像头设于不受所述头部的视线的移动影响的位置。
8.根据权利要求1至7中任一项所述的行为自主型机器人,其特征在于,
还具备偏好判定部,所述偏好判定部判定对对象物的偏好,
所述移动控制部根据所述对象物的偏好来变更所述对象物的大小与作为控制对象的距离的对应关系。
9.根据权利要求1至8中任一项所述的行为自主型机器人,其特征在于,
还具备温度判定部,所述温度判定部判定对象物的温度,
所述移动控制部基于所述对象物的温度来判定出距离控制的对象。
10.一种程序,用于使计算机实现以下功能:
获取机器人周围的拍摄图像的功能;
在所述拍摄图像中确定出规定的对象物的功能;
根据拍摄到的对象物的大小来计算所述机器人与所述对象物应采取的位置关系的功能;以及
控制所述机器人的移动以实现计算出的位置关系的功能。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016175163 | 2016-09-08 | ||
JP2016-175163 | 2016-09-08 | ||
PCT/JP2017/031890 WO2018047802A1 (ja) | 2016-09-08 | 2017-09-05 | 自然な距離感を保つ自律行動型ロボット |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109690435A true CN109690435A (zh) | 2019-04-26 |
Family
ID=61562098
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780054987.7A Pending CN109690435A (zh) | 2016-09-08 | 2017-09-05 | 保持自然的距离感的行为自主型机器人 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11148294B2 (zh) |
JP (2) | JP6472113B2 (zh) |
CN (1) | CN109690435A (zh) |
DE (1) | DE112017004512T5 (zh) |
GB (1) | GB2570584B (zh) |
WO (1) | WO2018047802A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115428470A (zh) * | 2020-12-23 | 2022-12-02 | 松下知识产权经营株式会社 | 机器人控制方法、机器人、程序以及记录介质 |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10489638B2 (en) * | 2016-11-09 | 2019-11-26 | Nanjing Avatarmind Robot Technology Co., Ltd. | Visual tracking method and robot based on monocular gesture recognition |
JP2020017206A (ja) * | 2018-07-27 | 2020-01-30 | ソニー株式会社 | 情報処理装置、行動決定方法及びプログラム |
NL2022442B1 (nl) * | 2019-01-24 | 2020-01-07 | Lely Patent Nv | Positiebepalingsinrichting |
JP7320240B2 (ja) | 2019-04-01 | 2023-08-03 | 国立大学法人豊橋技術科学大学 | ロボット |
US11883963B2 (en) * | 2019-06-03 | 2024-01-30 | Cushybots Corporation | Robotic platform for interactive play using a telepresence robot surrogate |
CN110757477A (zh) * | 2019-10-31 | 2020-02-07 | 昆山市工研院智能制造技术有限公司 | 一种陪护机器人的高度方位自适应调整方法及陪护机器人 |
CN111300437B (zh) * | 2019-12-06 | 2022-01-04 | 西南石油大学 | 一种图书馆图书智能收集存储集运机器人 |
US11806881B1 (en) * | 2020-06-09 | 2023-11-07 | Multimedia Led, Inc. | Artificial intelligence system for automatic tracking and behavior control of animatronic characters |
US11297247B1 (en) * | 2021-05-03 | 2022-04-05 | X Development Llc | Automated camera positioning for feeding behavior monitoring |
WO2022259595A1 (ja) * | 2021-06-10 | 2022-12-15 | ソニーグループ株式会社 | 介護ロボット |
CN114489133B (zh) * | 2022-01-26 | 2023-12-26 | 深圳市奥拓电子股份有限公司 | 一种无人机自动校正led显示屏的距离保持方法 |
WO2024004623A1 (ja) * | 2022-06-29 | 2024-01-04 | ソニーグループ株式会社 | ロボット及びロボットの制御方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020049515A1 (en) * | 1999-05-10 | 2002-04-25 | Hiroshi Osawa | Robot and control method |
US20030055532A1 (en) * | 2001-08-22 | 2003-03-20 | Yoshiaki Sakagami | Autonomous action robot |
JP2003205482A (ja) * | 2002-01-08 | 2003-07-22 | Fuji Photo Film Co Ltd | ペット型ロボット |
US20070192910A1 (en) * | 2005-09-30 | 2007-08-16 | Clara Vu | Companion robot for personal interaction |
CN102134022A (zh) * | 2011-03-31 | 2011-07-27 | 浙江天下实业有限公司 | 紧急自锁宠物牵引器 |
US20120209433A1 (en) * | 2009-10-21 | 2012-08-16 | Thecorpora, S.L. | Social robot |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6367959A (ja) | 1986-09-10 | 1988-03-26 | Mitsubishi Electric Corp | プリンタ制御装置 |
JPH036710A (ja) * | 1989-06-05 | 1991-01-14 | Toshiba Corp | 追随移動ロボット制御装置 |
JP2000323219A (ja) | 1999-05-10 | 2000-11-24 | Sony Corp | 接続装置及びロボットシステム |
JP2003275976A (ja) * | 2002-03-22 | 2003-09-30 | Matsushita Electric Ind Co Ltd | 移動作業ロボット |
JP4131392B2 (ja) * | 2003-01-28 | 2008-08-13 | ソニー株式会社 | ロボット装置およびロボット制御方法、記録媒体、並びにプログラム |
JP2011054082A (ja) * | 2009-09-04 | 2011-03-17 | Hitachi Ltd | 自律移動装置 |
US9517559B2 (en) * | 2013-09-27 | 2016-12-13 | Honda Motor Co., Ltd. | Robot control system, robot control method and output control method |
CN106096373A (zh) * | 2016-06-27 | 2016-11-09 | 旗瀚科技股份有限公司 | 机器人与用户的交互方法及装置 |
-
2017
- 2017-09-05 JP JP2018538413A patent/JP6472113B2/ja active Active
- 2017-09-05 DE DE112017004512.6T patent/DE112017004512T5/de active Pending
- 2017-09-05 GB GB1902513.9A patent/GB2570584B/en active Active
- 2017-09-05 WO PCT/JP2017/031890 patent/WO2018047802A1/ja active Application Filing
- 2017-09-05 CN CN201780054987.7A patent/CN109690435A/zh active Pending
-
2019
- 2019-01-18 JP JP2019006775A patent/JP2019089197A/ja active Pending
- 2019-02-25 US US16/283,818 patent/US11148294B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020049515A1 (en) * | 1999-05-10 | 2002-04-25 | Hiroshi Osawa | Robot and control method |
US20030055532A1 (en) * | 2001-08-22 | 2003-03-20 | Yoshiaki Sakagami | Autonomous action robot |
JP2003205482A (ja) * | 2002-01-08 | 2003-07-22 | Fuji Photo Film Co Ltd | ペット型ロボット |
US20070192910A1 (en) * | 2005-09-30 | 2007-08-16 | Clara Vu | Companion robot for personal interaction |
US20120209433A1 (en) * | 2009-10-21 | 2012-08-16 | Thecorpora, S.L. | Social robot |
CN102134022A (zh) * | 2011-03-31 | 2011-07-27 | 浙江天下实业有限公司 | 紧急自锁宠物牵引器 |
Non-Patent Citations (1)
Title |
---|
方宝富 等: "《机器人足球仿真》", 30 September 2011, 合肥工业大学出版社 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115428470A (zh) * | 2020-12-23 | 2022-12-02 | 松下知识产权经营株式会社 | 机器人控制方法、机器人、程序以及记录介质 |
CN115428470B (zh) * | 2020-12-23 | 2023-12-26 | 松下知识产权经营株式会社 | 机器人控制方法、机器人、程序以及记录介质 |
Also Published As
Publication number | Publication date |
---|---|
GB2570584B (en) | 2021-12-08 |
GB201902513D0 (en) | 2019-04-10 |
GB2570584A (en) | 2019-07-31 |
JP2019089197A (ja) | 2019-06-13 |
US20190184572A1 (en) | 2019-06-20 |
JPWO2018047802A1 (ja) | 2018-10-18 |
DE112017004512T5 (de) | 2019-06-13 |
WO2018047802A1 (ja) | 2018-03-15 |
US11148294B2 (en) | 2021-10-19 |
JP6472113B2 (ja) | 2019-02-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109690435A (zh) | 保持自然的距离感的行为自主型机器人 | |
CN110024000B (zh) | 使瞳部变化的行为自主型机器人 | |
CN109644303A (zh) | 识别声源方向的行为自主型机器人 | |
CN109526208B (zh) | 活动量受控制的行为自主型机器人 | |
CN109153127A (zh) | 执行迎接行为的行为自主型机器人 | |
CN109414623A (zh) | 行为自主型机器人 | |
CN109475781A (zh) | 理解物理接触的行为自主型机器人 | |
US20190077021A1 (en) | Autonomously acting robot and computer program | |
JP2023009135A (ja) | ロボット、プログラム及び方法 | |
JP6671577B2 (ja) | 人を識別する自律行動型ロボット | |
CN109416541A (zh) | 寻求凉爽的行为自主型机器人 | |
JP7236142B2 (ja) | 自律行動型ロボット | |
CN110520258A (zh) | 具有柔软外皮的机器人 | |
CN109689174A (zh) | 接纳访客的行为自主型机器人 | |
CN110382181A (zh) | 适合机器人的关节的接头构造 | |
JP2024059719A (ja) | ロボット用充電ステーション | |
WO2019151387A1 (ja) | 経験に基づいて行動する自律行動型ロボット | |
CN110520257A (zh) | 具有柔软外皮的机器人 | |
US20230129746A1 (en) | Cognitive load predictor and decision aid | |
WO2018216710A1 (ja) | 天球画像の歪みを補正する画像処理装置とそれを備える自律行動型ロボット | |
JP7548621B2 (ja) | 日常生活を記録する自律行動型ロボット |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |