CN110202586A - 与用户交流的装置、机器人、方法以及程序 - Google Patents
与用户交流的装置、机器人、方法以及程序 Download PDFInfo
- Publication number
- CN110202586A CN110202586A CN201910121277.2A CN201910121277A CN110202586A CN 110202586 A CN110202586 A CN 110202586A CN 201910121277 A CN201910121277 A CN 201910121277A CN 110202586 A CN110202586 A CN 110202586A
- Authority
- CN
- China
- Prior art keywords
- user
- half line
- robot
- described device
- dead zone
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 10
- 230000007246 mechanism Effects 0.000 claims abstract description 12
- 230000000007 visual effect Effects 0.000 claims description 15
- 230000009471 action Effects 0.000 description 18
- 238000012545 processing Methods 0.000 description 11
- 230000007613 environmental effect Effects 0.000 description 6
- 239000000203 mixture Substances 0.000 description 6
- 239000000470 constituent Substances 0.000 description 4
- 230000004075 alteration Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 241001269238 Data Species 0.000 description 2
- 230000003042 antagnostic effect Effects 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000010355 oscillation Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011065 in-situ storage Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0033—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by having the operator tracking the vehicle either by direct line of sight or via one or more cameras located remotely from the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Remote Sensing (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electromagnetism (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
提供一种与用户交流的装置、机器人、方法以及程序。在基于第1用户的指示远程启动了所述装置的应用的情况下,基于所述影像,判断所述装置的当前位置是否包含于第2用户的死角区域,在判断为所述装置的当前位置不包含于所述死角区域的情况下,设定包含于所述死角区域的目标地点,控制所述驱动机构,使所述装置移动至所述目标地点,使所述扬声器输出与所述应用对应的声音。
Description
技术领域
本公开涉及能够远程操作的装置等。
背景技术
以往提出了远程操作机器人的各种方法。例如,在专利文献1中,公开了一种机器人控制系统,其以尽可能减少操作者的远程操作的次数为目的,基于远程操作时的机器人的动作历史信息来构筑数据库,检测对话对象与机器人的会话状况,参照与检测出的会话状况对应的数据库,基于所参照的数据库使机器人执行基于自主控制的会话行动。
专利文献1:日本特开2009-131914号公报
发明内容
但是,在专利文献1中,对于防止机器人的操作者对机器人的指示被成为机器人的对话对象的人物注意到这一情况的发生,没有采取任何措置,所以需要进一步的改善。
本公开的一个技术方案所涉及的装置是与用户交流的装置,其具备:
取得所述装置周边的影像的摄像头;
驱动所述装置的驱动机构;
扬声器;
存储器;和
处理器;
所述处理器,
在基于第1用户的指示远程启动了所述装置的应用的情况下,基于所述影像,判断所述装置的当前位置是否包含于第2用户的死角区域,所述死角区域是不包含所述第2用户的视线方向、且由第2半直线和第3半直线夹持而成的区域,所述第2半直线是以第1半直线为基准顺时针移动预定角度而得到的半直线,所述第3半直线是以所述第1半直线为基准逆时针移动所述预定角度而得到的半直线,所述第1半直线是使连结所述第1用户的位置与所述第2用户的位置的线段从所述第2用户向与所述第1用户相反的方向延伸而得到的半直线;
在判断为所述装置的当前位置不包含于所述死角区域的情况下,设定包含于所述死角区域的目标地点;
控制所述驱动机构,使所述装置移动至所述目标地点;
使所述扬声器输出与所述应用对应的声音。
根据本公开,能够防止第1用户对装置的指示被第2用户注意到。
附图说明
图1是表示安装有本公开的实施方式中的装置的机器人的构成的一例的图。
图2是表示图1所示的机器人的处理的一例的流程图。
图3是表示图2的S102的处理的详细内容的流程图。
图4是表示死角区域的一例的图。
图5是表示图1所示的机器人的外观的一例的图。
图6是从背后观察图5所示的机器人的内部得到的图。
具体实施方式
(实现发明本公开的一个技术方案的经过)
本发明人进行了辅助母亲等监护人管教孩子的机器人的研究。作为管教的辅助内容,例如,使机器人对孩子发出整理房间或督促学习的消息或使机器人执行给孩子讲绘本的内容。在使机器人采取这样的行动的情况下,例如监护人需要取出智能手机等便携终端,输入用于使机器人采取这样的行动的应用的启动指示。
但是,在监护人慢慢地取出智能手机并输入启动指示时,会导致孩子的注意力朝向于此,因此,存在孩子会注意到机器人的行动是基于监护人的指示这一问题。由此,不但给孩子带来扫性感,还反而会助长孩子对监护人的逆反心理,有可能无法期待充分的管教效果。
在上述的专利文献1中,操作者经由网络操作与机器人连接的终端装置,因此,成为机器人的对话对象的人物处于遥远的地方,不会处于能够视认操作者的操作的环境下。因此,上述的问题在专利文献1中不会产生。进而,本发明人认识到以往不存在上述的技术问题。
因此,本发明人得到以下见解:在作为操作者的第1用户输入了应用的启动指示的情况下,通过在指示之后马上使机器人采取使第2用户的注意力从第1用户转移到机器人这样的行动,能够解决上述的技术问题。
本公开是基于这样的见解而完成的,并提供一种能够防止第1用户对机器人(装置)的指示被第2用户注意到的技术。
本公开的一个技术方案的装置,是与用户交流的装置,具备:
取得所述装置周边的影像的摄像头;
驱动所述装置的驱动机构;
扬声器;
存储器;以及
处理器,
所述处理器,
在基于第1用户的指示远程启动了所述装置的应用的情况下,基于所述影像,判断所述装置的当前位置是否包含于第2用户的死角区域,所述死角区域是不包含所述第2用户的视线方向、且由第2半直线和第3半直线夹持而成的区域,所述第2半直线是以第1半直线为基准顺时针移动预定角度而得到的半直线,所述第3半直线是以所述第1半直线为基准逆时针移动所述预定角度而得到的半直线,所述第1半直线是使连结所述第1用户的位置与所述第2用户的位置的线段从所述第2用户向与所述第1用户相反的方向延伸而得到的半直线;
在判断为所述装置的当前位置不包含于所述死角区域的情况下,设定包含于所述死角区域的目标地点;
控制所述驱动机构,使所述装置移动至所述目标地点;
使所述扬声器输出与所述应用对应的声音。
根据本构成,在基于第1用户的指示启动了装置的应用的情况下,如果装置不存在于第2用户的死角区域,则装置向死角区域移动。由此,能够将第2用户的视线从能够视认第1用户的方向向不能视认第1用户的方向转移。其结果,能够将第2用户的注意力从第1用户向装置转移,并能够防止第1用户对装置的指示被第2用户注意到。
在上述构成中,所述第1用户也可以是所述第2用户的监护人。
根据本构成,能够防止监护人对装置的指示被第2用户注意到。
在上述构成中,也可以是,所述处理器在判断为所述装置的当前位置包含于所述死角区域的情况下,不使所述装置移动而使所述扬声器输出与所述应用对应的声音。
根据本构成,即使不使装置移动到死角区域、装置也输出声音,由此能够将第2用户的注意力从第1用户向装置转移。
本公开也能够作为安装这样的装置的机器人、具备这样的装置所包含的特征性的各步骤的方法、以及使计算机执行特征性的各步骤的计算机程序而实现。而且,不用说,能够经由CD-ROM等计算机能够读取的非瞬时性的记录介质或者互联网等通信网络使这样的计算机程序流通。
另外,以下说明的实施方式表示本公开的一个具体例。以下的实施方式所示的数值、形状、构成要素、步骤、步骤的顺序等是一例,并不意在限定本公开。另外,以下的实施方式中的构成要素中,对于在表示最上位概念的独立权利要求所没有记载的构成要素,设为任意的构成要素而进行说明。另外在所有的实施方式中,也能够将各个内容进行组合。
(实施方式)
(整体构成)
图1是表示本公开的实施方式中的机器人的构成的一例的图。图1所示的机器人具备传感器输入部100、行动执行部200以及输出部300。
传感器输入部100具备影像输入部101。影像输入部101由取得机器人的周边的影像的摄像头构成。在此,影像输入部101可以由能够对机器人取得360度的方位的影像的全景摄像头构成,也可以由能够取得预定的视角范围内的影像的通常的摄像头构成。在本公开中,影像输入部101以例如预定的帧率(例如每秒60帧)取得机器人的周边的影像。此外,影像输入部101例如也可以由能够计测到位于周围的物体为止的距离的立体摄像头或深度摄像头构成。深度摄像头为通过计测向周围照射的红外光由物体反射而返回为止的时间而能够按多个像素的每个像素检测物体的距离的摄像头。
行动执行部200具备指示接收部201、位置坐标取得部202、位置关系判断部203、行走位置判断部204、机器人行走部205、声音合成部206以及应用执行部207。
构成行动执行部200的要素例如通过CPU等处理器执行进行行动处理的程序而实现。进行行动处理的程序被保存于被组入机器人的存储器或被组入与机器人以能够通信的方式连接的终端的存储器,并通过处理器执行。另外,构成行动执行部200的所有的要素也可以被安装于同一机器人或同一终端。或者,构成行动执行部200的所有的要素也可以被个别地安装于通过光纤、无线以及公共电话线路等任意的网络连接的其他终端和/或服务器上,并通过进行通信而实现。另外,行动执行部200也可以将一部分要素安装于机器人,将剩余的要素安装于服务器。
指示接收部201具备用于与远程操作机器人的第1用户所持的便携终端通信的通信线路和控制该通信线路的处理器,并接收第1用户对机器人的指示。在本公开中,指示接收部201接收由第1用户发出的辅助向第2用户管教的应用的启动指示以及在该应用的执行中由第1用户对机器人的指示。在此,第1用户例如是第2用户的监护人(例如母亲、父亲、或祖父母等),第2用户是孩子。另外,在本公开中,作为孩子,特别假定幼儿。
辅助管教的应用例如是像督促孩子整理房间这样,使机器人执行用于使孩子掌握预定的生活习惯的行动的应用。在此,如果机器人突然进行“请整理房间”这样的发话,则反而有可能会引起第2用户的反感。
因此,辅助管教的应用不仅能够采用使机器人进行指示整理房间的发话这样的应用,还能够采用使机器人充分吸引第2用户的注意力之后,使机器人发出督促整理房间的消息这样的应用。具体地说,应用能够使机器人采取以下的行动。首先,机器人对第2用户进行猜谜或闲聊的发话,在将第2用户的注意力吸引到自身之后,对第2用户进行督促整理房间的发话。另外,机器人在第2用户的整理作业中也对第2用户发出鼓励的消息。而且,在整理结束时,机器人发出表扬第2用户的消息。
作为第1用户所持的便携终端,例如能够采用智能手机、平板电脑、或便携电话。此外,第1用户也可以使用固定式的个人计算机,输入应用的启动指示来取代便携终端。另外,便携终端与机器人例如通过Wifi(注册商标)或蓝牙(注册商标)等无线以能够通信的方式连接。但是,这是一例,便携终端与机器人也可以通过有线连接。
位置坐标取得部202从影像输入部101接受影像数据,从影像数据抽出特征量,根据抽出的特征量推定机器人的自身位置并且构筑机器人的周围的环境地图。另外,位置坐标取得部202从影像数据抽出第1用户以及第2用户,推定抽出的第1用户以及第2用户的位置。
此外,作为在未知的环境中一边推定自身位置一边生成环境地图的技术,已知SLAM(Simultaneous Localization and Mapping:同时定位与地图构筑)。因此,位置坐标取得部202使用SLAM进行自身位置的推定、第1用户以及第2用户的位置的推定和环境地图的构筑即可。
此外,SLAM也能够适用于通过单镜头摄像头、深度摄像头或立体摄像头取得的任意的影像数据。因此,即使影像输入部101由单镜头摄像头、深度摄像头以及立体摄像头中的任意的摄像头构成,位置坐标取得部202也能够适用SLAM并进行自身位置推定等。
在本公开中,环境地图由从正上方观察机器人时的包括纵×横这2轴的2维地图数据构成。因此,机器人的自身位置、第1用户以及第2用户的位置由2维坐标数据构成。但是,这是一例,环境地图也可以由包括纵×横×高度这3轴的3维地图数据构成。在该情况下,机器人的自身位置、第1用户以及第2用户的位置分别由3维坐标数据构成。
另外,位置坐标取得部202通过将预先存储于存储器的第1用户以及第2用户的特征量与影像数据对照,从影像数据抽出第1用户以及第2用户,根据抽出的影像数据上的坐标数据推定第1用户以及第2用户的位置即可。此外,作为第1用户以及第2用户的特征量,例如能够采用第1用户以及第2用户的脸部的特征量以及体型的特征量。
位置关系判断部203在通过应用执行部207启动了应用的情况下,判定机器人是否位于第2用户的死角区域。
图4是表示死角区域α的一例的图。死角区域α是不包含第2用户的视线方向41、且由第2半直线44和第3半直线45夹持而成的扇状的区域,所述第2半直线44是以第1半直线43为基准顺时针使第1半直线43移动预定角度θ/2而得到的半直线,所述第3半直线45是以第1半直线43为基准逆时针使第1半直线43移动预定角度θ/2而得到的半直线,所述第1半直线43是使连结第1用户的位置P1与第2用户的位置P2的线段42从第2用户的位置P2向与第1用户的位置P1相反的方向延伸而得到的半直线。
在此,死角区域α是在位置P2的位于与第1用户相反侧的区域,是在位于位置P2的第2用户的视线处于死角区域α内的情况下、第1用户从第2用户的视野内离开的区域。因此,第2半直线44与第3半直线45所成的预定角度θ能够采用第1用户不会进入到位于位置P2的第2用户的视野内的角度,例如能够采用30度、45度或60度等的值。
具体地说,位置关系判断部203在指示接收部201接收到应用的启动指示的情况下,在环境地图上分别描绘通过位置坐标取得部202取得的机器人的当前位置P3和第1用户以及第2用户的位置P1以及位置P2。而且,位置关系判断部203基于描绘出的位置P1以及位置P2而在位置P2设定死角区域α。而且,如果当前位置P3位于死角区域α外,则位置关系判断部203判定为机器人没有位于死角区域α内,如果当前位置P3位于死角区域α内,则判定为机器人位于死角区域α内。
将参照返回到图1。行走位置判断部204在通过位置关系判断部203判定为机器人没有位于死角区域α内的情况下,在死角区域α内设定机器人的目标位置P4。参照图4,作为目标位置P4,例如能够采用在第1半直线43上、从第2用户到机器人的距离相距了在机器人与第2用户进行对话方面适当的预先确定的距离的位置。例如,作为目标位置P4,能够采用在第1半直线43上、从第2用户的位置P2相距了50cm、1m、2m等距离的位置。但是,这是一例。
此外,在图4中,在第2用户的视线方向41处于线段42上的假定之下,为了使第2用户的视线朝向与第1用户正相反的方向,目标位置P4被设定于第1半直线43上,但实际的第2用户的视线方向未必处于线段42上。因此,在采用能够检测实际的第2用户的视线方向的构成的情况下,行走位置判断部204将以位置P2为起点向相对于检测出的视线方向的相反方向延伸的半直线设定为第1半直线43’,如果第1半直线43’包含在死角区域α内,则也可以将目标位置P4设定于第1半直线43’上。另一方面,如果第1半直线43’没有位于死角区域α内,则如果将目标位置P4设定于第1半直线43’上,则由于该目标位置P4变成位于死角区域α外,所以行走位置判断部204将目标位置P4设定于第1半直线43上即可。
此外,第2用户的实际的视线方向例如通过位置坐标取得部202适用视线检测处理而从影像数据抽出即可。
将参照返回到图1。机器人行走部205向致动器控制部302输出用于使机器人移动至通过行走位置判断部204设定的目标位置P4的行走命令。在此,行走命令例如是使机器人旋转以使得机器人的正面方向朝向第1半直线43的延伸方向并且使机器人从当前位置P3向目标位置P4行走的命令。
应用执行部207在通过指示接收部201接收到启动应用的指示的情况下,启动相应的应用。而且,应用执行部207根据需要,向机器人行走部205输出用于使机器人行走的行走命令、向声音合成部206输出使机器人发话的发话命令。
声音合成部206生成用于使机器人进行与从应用执行部207输出的发话命令对应的发话的声音数据,并输出至声音输出部301。
输出部300具备声音输出部301以及致动器控制部302。声音输出部301将由声音合成部206生成的声音数据转换为声音信号,并使其从扬声器输出。致动器控制部302控制机器人的致动器或马达,以使得机器人按照由应用执行部207或机器人行走部205生成的行走命令而行走。
此外,在将行动执行部200安装于相对于机器人以能够经由无线或有线进行通信的方式连接的终端、且将声音输出部301以及致动器控制部302安装于机器人的情况下,声音输出部301经由有线或无线接收从声音合成部206发送的声音数据即可。另外,致动器控制部302经由有线或无线接收从机器人行走部205发送的行走命令即可。
图2是表示图1所示的机器人的处理的一例的流程图。图3是表示图2的S102的处理的详细的流程图。
以下,参照图2、图3以及图4,对机器人启动应用时的处理进行说明。
在通过指示接收部201接收第1用户发出的应用的启动指示、并通过应用执行部207启动用于辅助第2用户的管教的应用时(在S101中为“是”),位置关系判断部203将处理进行到S102。另一方面,如果应用没有启动(在S101中为“否”),则处理在S101待机。在此,启动指示通过第1用户对于第1用户携带的便携终端进行输入的操作而从便携终端向机器人发送。
在S102中,如图4所示,位置关系判断部203判定机器人是否位于第2用户的死角区域α内。在机器人没有位于死角区域α内的情况下(在S101中为“否”),行走位置判断部204在死角区域α内设定机器人的目标位置P4,机器人行走部205使机器人移动到所设定的目标位置P4(S103)。
参照图4,机器人行走部205生成使机器人旋转以使得机器人的正面方向朝向第1半直线43的延伸方向、且使机器人从当前位置P3向目标位置P4移动的行走命令,并向致动器控制部302输出。由此,机器人在进行旋转的动作以使得正面方向朝向第1半直线43的延伸方向之后,开始向目标位置P4的移动。
接下来,机器人行走部205判定机器人是否到达了目标位置P4(S104)。在机器人到达目标位置P4时(在S104中为“是”),应用执行部207使机器人开始向第2用户的发话(S105)。另一方面,如果机器人没有到达目标位置P4(在S104中为“否”),则机器人行走部205使机器人的移动继续。在此,机器人行走部205在机器人的行走开始时,设定从当前位置P3到目标位置P4的机器人的速度的变动模式,并使机器人按照所设定的速度的变动模式移动到目标位置P4即可。在此,作为速度的变动模式,例如能够采用从当前位置P3到第1距离为止使机器人逐渐加速,从第1距离到目标位置P4的跟前的第2距离使机器人以一定速度行走,从第2距离到目标位置P4使机器人逐渐减速以使得在目标位置P4速度变为0的模式。由此,能够在使机器人平稳地向目标位置P4移动的同时使机器人准确地停止在目标位置P4。
接下来,使用图3对图2的S102的处理的详细内容进行说明。在S201中,位置关系判断部203从位置坐标取得部202取得位置坐标取得部202根据影像数据算出的机器人的当前位置P3的坐标数据。在S202中,位置关系判断部203从位置坐标取得部202取得位置坐标取得部202根据影像数据算出的第2用户的位置P2的坐标数据。在S203中,位置关系判断部203取得位置坐标取得部202根据影像数据算出的第1用户的位置P1的坐标数据。
在S204中,位置关系判断部203在位置坐标取得部202构筑而成的环境地图中,描绘第1用户以及第2用户的位置P1以及位置P2和机器人的当前位置P3,并且在位置P2设定死角区域α。然后,位置关系判断部203判定机器人的当前位置P3是否位于死角区域α内,如果没有位于死角区域α内(在S204中为“否”),则使处理转移至图2的S103。另一方面,如果机器人的当前位置P3位于死角区域α内(在S204中为“是”),则使处理转移至图2的S105。
接下来,对本公开的机器人的用例(usecase)进行说明。第1用户、第2用户与机器人处于能够相互视认的空间(例如同一房间),第2用户正在玩玩具。第1用户想让第2用户赶快收拾玩具,取出便携终端,输入用于对孩子督促进行整理的应用的启动指示。此时,第2用户的注意力会转移至第1用户取出的便携终端,将视线朝向第1用户。
在此,考虑机器人不存在于第2用户的死角区域α、且不向死角区域α移动的情况。在该情况下,在机器人按照启动指示启动应用并开始向第2用户发话时,由于第1用户位于第2用户的视野内,所以第2用户的注意力保持朝向第1用户的状态,第2用户很有可能不响应机器人的发话的可能性升高。另外,由于第2用户视认出第1用户进行便携终端的操作,所以也很有可能注意到之后进行的机器人的发话是由第1用户的指示引起的。在该情况下,会使第2用户萌生扫性感和/或对第1用户的逆反心理,第2用户很有可能不响应机器人的发话。
因此,在本公开中,在进行了应用的启动指示的情况下,如果机器人没有位于第2用户的死角区域α,则机器人向死角区域α移动。由此,机器人能够将第2用户的视线向位于与第1用户相反侧的死角区域α引导。因此,第1用户不再位于第2用户的视野内,第2用户的注意力立即从第1用户向机器人转移。而且,在该状态下,机器人开始发话,因此,机器人能够使第2用户专注地听取自己的发话。其结果,机器人能够成功地引导第2用户整理玩具,并能够顺利地进行管教的辅助。
另一方面,本公开在进行了应用的启动指示的情况下,如果机器人位于第2用户的死角区域α,则不使机器人移动地在原地发话。其原因在于,在机器人位于死角区域α内的情况下,第2用户因机器人的发话而转向机器人时,第1用户不再位于第2用户的视野内,即使不使机器人移动,也能够将第2用户的注意力从第1用户向机器人转移。
(机器人)
接下来,对图1所示的机器人的机械构成进行说明。图5是表示图1所示的机器人1的外观的一例的图。如图5所示,机器人1具备球带状的主框体401、第1球冠部402和第2球冠部406,主框体401、第1球冠部402和第2球冠部406作为整体而构成球体。即,机器人1具有球体形状。
另外,如图5所示,机器人1在第1球冠部402以及第2球冠部406分别具备一对摄像头101A,在第1球冠部402具备话筒102以及扬声器301A。摄像头101A相当于图1所示的影像输入部101,以光轴朝向例如机器人1的正面的方式设置于第1球冠部402以及第2球冠部406。
在图5中,示出了摄像头101A由立体摄像头构成的示例,但在摄像头101A由深度摄像头或单镜头摄像头构成的情况下,摄像头101A被设置于第1球冠部402以及第2球冠部406中的任一方。扬声器301A将从图1所示的声音输出部301输出的声音信号向外部空间输出。话筒102取得机器人1的周围的声音。
图6是从背后观察图5所示的机器人1的内部得到的图。第1球冠部402以及第2球冠部406通过在横向上延伸的轴115连结。另一方面,轴115与主框体401没有被固定在一起。
主框体401具备被固定的第1齿轮116、与第1齿轮116啮合的第2齿轮117、被连结于第2齿轮117的马达118以及固定马达118的框架119。由于框架119被悬挂于轴115,所以即使轴115旋转框架119也不旋转。
当马达118驱动时,被连结于马达118的第2齿轮117旋转,其动力向啮合于第2齿轮117的第1齿轮116传递。由此,固定有第1齿轮116的主框体401与马达118的驱动同步地旋转。因此,在马达118向前进方向旋转时,机器人1前进,在马达118向后退方向旋转时,机器人1后退。
马达118是致动器的一例,基于图1所示的致动器控制部302的控制而旋转。由此,致动器控制部302能够使机器人1前进或后退。主框体401、第1齿轮116、第2齿轮117以及马达118是移动机构的一例。
在框架119上,经由一对臂123安装有配重114。一对臂123通过下端夹持配重114,上端以相对于框架119能够在机器人1的移动方向上转动自如的方式安装于框架119。在框架119的内部,安装有使一对臂123在侧摆方向上摆动的马达(图略)。由此,在从背后观察使配重114向右侧摆动的状态下,如果使主框体401向前进方向旋转,则机器人1右转。另一方面,在从背后观察使配重114向左侧摆动的状态下,如果使主框体401向前进方向旋转,则机器人1左转。图1所示的致动器控制部302在使该马达(图略)向右侧旋转了预定角度的状态下,通过向前进方向驱动马达118,能够使机器人1右转。同样地,致动器控制部302通过在使该马达(图略)向左侧旋转了预定角度的状态下,通过向前进方向驱动马达118,能够使机器人1左转。
马达121是用于使轴115旋转的马达。在马达121向前方旋转时,其旋转力经由带122向轴115传递,轴115相对于俯仰(ピッチ)方向向下方旋转。另一方面,在马达向后方旋转时,其旋转力经由带122向轴115传递,轴115相对于俯仰方向向上方旋转。由此,被安装于轴115的第1球冠部402以及第2球冠部406和被安装于臂113的显示机器人1的眼以及口的显示部联动而旋转。其结果,机器人1的眼以及口的朝向与摄像头101A的光轴的朝向被向俯仰方向的下方或上方变更。
本公开能够采用下述的变形例。
(1)在上述实施方式中,作为机器人采用了图5以及图6所示的球体状,但本公开并不限定于此,也可以适用于其他的机器人。
(2)本公开适用于图1所示的机器人,但这是一例,也可以适用于包含机器人的一般装置。作为装置,包含例如电视或音响设备等家电设备。
(3)在上述实施方式中,作为应用采用了辅助管教的应用,但本公开并不限定于此,例如,也可以采用辅助包含管教的所有教育的应用。
(4)在上述实施方式中说明的应用也可以根据例如管教的内容而存在多种。在该情况下,第1用户从所述多种应用中选择任意1个即可。具体地说,机器人在存储器中存储有多种应用,在第1用户使用便携终端而输入某种应用的启动指示时,启动该应用即可。作为管教的内容,可列举例如整理、打扫、学习、洗澡以及上厕所等。
标号说明
41:视线方向,42:线段,43、43’:第1半直线,44:第2半直线,45:第3半直线,100:传感器输入部,101:影像输入部,101A:摄像头,115:轴,118:马达,200:行动执行部,201:指示接收部,202:位置坐标取得部,203:位置关系判断部,204:行走位置判断部,205:机器人行走部,206:声音合成部,207:应用执行部,300:输出部,301:声音输出部,301A:扬声器,302:致动器控制部,α:死角区域。
Claims (6)
1.一种与用户交流的装置,具备:
取得所述装置周边的影像的摄像头;
驱动所述装置的驱动机构;
扬声器;
存储器;以及
处理器,
所述处理器,
在基于第1用户的指示远程启动了所述装置的应用的情况下,基于所述影像,判断所述装置的当前位置是否包含于第2用户的死角区域,所述死角区域是不包含所述第2用户的视线方向、且由第2半直线和第3半直线夹持而成的区域,所述第2半直线是以第1半直线为基准顺时针移动预定角度而得到的半直线,所述第3半直线是以所述第1半直线为基准逆时针移动所述预定角度而得到的半直线,所述第1半直线是使连结所述第1用户的位置与所述第2用户的位置的线段从所述第2用户向与所述第1用户相反的方向延伸而得到的半直线;
在判断为所述装置的当前位置不包含于所述死角区域的情况下,设定包含于所述死角区域的目标地点;
控制所述驱动机构,使所述装置移动至所述目标地点;
使所述扬声器输出与所述应用对应的声音。
2.根据权利要求1所述的装置,
所述第1用户是所述第2用户的监护人。
3.根据权利要求1所述的装置,
所述处理器在判断为所述装置的当前位置包含于所述死角区域的情况下,不使所述装置移动而使所述扬声器输出与所述应用对应的声音。
4.一种与用户交流的机器人,具备:
取得所述装置周边的影像的摄像头;
驱动所述装置的驱动机构;
扬声器;
存储器;以及
处理器,
所述处理器,
在基于第1用户的指示远程启动了所述装置的应用的情况下,基于所述影像,判断所述装置的当前位置是否包含于第2用户的死角区域,所述死角区域是不包含所述第2用户的视线方向、且由第2半直线和第3半直线夹持而成的区域,所述第2半直线是以第1半直线为基准顺时针移动预定角度而得到的半直线,所述第3半直线是以所述第1半直线为基准逆时针移动所述预定角度而得到的半直线,所述第1半直线是使连结所述第1用户的位置与所述第2用户的位置的线段从所述第2用户向与所述第1用户相反的方向延伸而得到的半直线;
在判断为所述装置的当前位置不包含于所述死角区域的情况下,设定包含于所述死角区域的目标地点;
控制所述驱动机构,使所述装置移动至所述目标地点;
使所述扬声器输出与所述应用对应的声音。
5.一种与用户交流的装置中的方法,
所述装置具备摄像头、处理器、扬声器以及移动机构,
所述方法包括:
在基于第1用户的指示远程启动了所述装置的应用的情况下,基于通过所述摄像头取得的所述装置周边的影像,判断所述装置的当前位置是否包含于第2用户的死角区域,所述死角区域是不包含所述第2用户的视线方向、且由第2半直线和第3半直线夹持而成的区域,所述第2半直线是以第1半直线为基准顺时针移动预定角度而得到的半直线,所述第3半直线是以所述第1半直线为基准逆时针移动所述预定角度而得到的半直线,所述第1半直线是使连结所述第1用户的位置与所述第2用户的位置的线段从所述第2用户向与所述第1用户相反的方向延伸而得到的半直线;
在判断为所述装置的当前位置不包含于所述死角区域的情况下,设定包含于所述死角区域的目标地点;
控制所述驱动机构,使所述装置移动至所述目标地点;以及
使所述扬声器输出与所述应用对应的声音。
6.一种程序,用于使计算机执行权利要求5所述的方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018-035054 | 2018-02-28 | ||
JP2018035054A JP7102169B2 (ja) | 2018-02-28 | 2018-02-28 | 装置、ロボット、方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110202586A true CN110202586A (zh) | 2019-09-06 |
Family
ID=65494036
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910121277.2A Pending CN110202586A (zh) | 2018-02-28 | 2019-02-19 | 与用户交流的装置、机器人、方法以及程序 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10809715B2 (zh) |
JP (1) | JP7102169B2 (zh) |
CN (1) | CN110202586A (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7015711B2 (ja) * | 2018-03-08 | 2022-02-03 | パナソニック株式会社 | 装置、ロボット、方法、及びプログラム |
KR20200101221A (ko) * | 2019-02-19 | 2020-08-27 | 삼성전자주식회사 | 사용자 입력 처리 방법 및 이를 지원하는 전자 장치 |
US11619935B2 (en) | 2020-07-17 | 2023-04-04 | Blue Ocean Robotics Aps | Methods of controlling a mobile robot device from one or more remote user devices |
CN113568406A (zh) * | 2021-07-27 | 2021-10-29 | 北京京东乾石科技有限公司 | 装置移动方法、装置、电子设备和计算机可读介质 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4682217B2 (ja) | 2007-03-07 | 2011-05-11 | パナソニック株式会社 | 行動制御装置、方法、プログラム |
JP2009131914A (ja) | 2007-11-29 | 2009-06-18 | Advanced Telecommunication Research Institute International | ロボット制御システム |
JP5732632B2 (ja) | 2011-02-03 | 2015-06-10 | 株式会社国際電気通信基礎技術研究所 | ロボットシステムおよびそれに用いる空間陣形認識装置 |
US10366689B2 (en) | 2014-10-29 | 2019-07-30 | Kyocera Corporation | Communication robot |
US10405745B2 (en) | 2015-09-27 | 2019-09-10 | Gnana Haranth | Human socializable entity for improving digital health care delivery |
JP6402320B2 (ja) | 2016-04-08 | 2018-10-10 | Groove X株式会社 | 人見知りする自律行動型ロボット |
JP6735013B2 (ja) | 2016-05-31 | 2020-08-05 | パナソニック株式会社 | ロボット |
WO2018043115A1 (ja) * | 2016-08-29 | 2018-03-08 | ソニー株式会社 | 情報処理装置、情報処理方法、並びにプログラム |
JP6989395B2 (ja) * | 2018-01-10 | 2022-01-05 | パナソニック株式会社 | 相互作用装置、相互作用方法、相互作用プログラム及びロボット |
-
2018
- 2018-02-28 JP JP2018035054A patent/JP7102169B2/ja active Active
- 2018-10-24 US US16/169,024 patent/US10809715B2/en active Active
-
2019
- 2019-02-19 CN CN201910121277.2A patent/CN110202586A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
US10809715B2 (en) | 2020-10-20 |
JP2019147234A (ja) | 2019-09-05 |
US20190265692A1 (en) | 2019-08-29 |
JP7102169B2 (ja) | 2022-07-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110202586A (zh) | 与用户交流的装置、机器人、方法以及程序 | |
US20230305530A1 (en) | Information processing apparatus, information processing method and program | |
JP4822319B2 (ja) | コミュニケーションロボットおよびそれを用いた注意制御システム | |
JP4386367B2 (ja) | コミュニケーションロボット改良システム | |
JP7375748B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2007190641A (ja) | コミュニケーションロボット | |
WO2019138619A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2010231359A (ja) | 遠隔操作装置 | |
US20230266767A1 (en) | Information processing apparatus, information processing method, and program | |
WO2018100878A1 (ja) | 提示制御装置、提示制御方法およびプログラム | |
JP7375770B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2015066621A (ja) | ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法 | |
US20200269421A1 (en) | Information processing device, information processing method, and program | |
JP2007160427A (ja) | ロボット制御システム | |
WO2019123744A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2005131713A (ja) | コミュニケーションロボット | |
JP2017170568A (ja) | サービス提供ロボットシステム | |
WO2019138618A1 (ja) | 動物型の自律移動体、動物型の自律移動体の動作方法、およびプログラム | |
JP7363823B2 (ja) | 情報処理装置、および情報処理方法 | |
WO2020166373A1 (ja) | 情報処理装置および情報処理方法 | |
JP2021064299A (ja) | 制御システム、端末装置、制御方法及びコンピュータプログラム | |
US20230367312A1 (en) | Information processing apparatus, information processing method, and program | |
CN113438303A (zh) | 远程辅助工作系统及方法、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |