CN109227600A - 装置、机器人、方法以及程序 - Google Patents

装置、机器人、方法以及程序 Download PDF

Info

Publication number
CN109227600A
CN109227600A CN201810722645.4A CN201810722645A CN109227600A CN 109227600 A CN109227600 A CN 109227600A CN 201810722645 A CN201810722645 A CN 201810722645A CN 109227600 A CN109227600 A CN 109227600A
Authority
CN
China
Prior art keywords
display
described device
robot
height
expression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810722645.4A
Other languages
English (en)
Other versions
CN109227600B (zh
Inventor
黄志奇
田原康平
太田雄策
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of CN109227600A publication Critical patent/CN109227600A/zh
Application granted granted Critical
Publication of CN109227600B publication Critical patent/CN109227600B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/28Arrangements of sound-producing means in dolls; Means in dolls for producing sounds
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/003Manipulators for entertainment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45007Toy

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Abstract

本公开涉及装置、机器人、方法以及程序。在由用户移动的装置在铅垂方向上被移动了的情况下,在从位于与装置相同二维位置的装置的正下方的物体到装置为止的距离比与该二维位置对应的、在装置发生了掉落时可能对装置造成损伤的高度高时使显示器进行第1显示并且使扬声器输出第1声音,另一方面,在相等或短时使显示器进行第2显示并且使扬声器输出第2声音。

Description

装置、机器人、方法以及程序
技术领域
本公开涉及由用户移动的装置、机器人、方法以及程序。
背景技术
以往以来,提出了各种各样的利用表示从由用户移动的装置到基准水平面为止的铅垂方向上的距离(高度)的信息来控制所述装置的动作的方法。
例如,在专利文献1中提出了如下的方案:作业人员为了高效地对对象设备进行检查,测定作业人员从地面离开的高度,在测定出的高度接近检查部位的高度的情况下,通过声音向作业人员进行报告。
另外,在专利文献2中提出了如下的方案:为了可靠地避免在电动螺丝刀倾斜了的状态下的粗心大意的螺纹紧固操作,计测电动螺丝刀的倾斜度和高度,在电动螺丝刀倾斜到阈值角度以上且相对于螺纹紧固对象物接近了阈值高度以内的情况下,发出警报声。
现有技术文献
专利文献1:日本特开2011-44098号公报
专利文献2:日本特开2011-67885号公报
发明内容
发明要解决的技术问题
然而,在上述的现有技术中,需要进一步的改善。
用于解决问题的技术方案
为了解决上述技术问题,本公开的一个技术方案的装置是由用户移动的装置,具备:第1传感器,其检测所述装置的移动和移动的方向;第2传感器,其测定所述装置在铅垂方向上的移动距离;摄像头,其取得所述装置的周边的影像;处理器;显示器;以及扬声器,所述处理器,基于所述第1传感器的检测结果,判断所述装置是否在铅垂方向上被移动了,在判断为所述装置在铅垂方向上被移动了的情况下,基于所述第2传感器的检测结果,算出从位于所述装置的正下方的物体到所述装置为止的距离,基于从所述摄像头取得的影像,测定所述装置的二维位置,对第1表中的与所述测定出的二维位置对应的高度和所述算出的距离进行比较,所述第1表表示所述装置的二维位置和在所述二维位置处所述装置发生了掉落时可能对所述装置造成损伤的高度的对应关系,在所述算出的距离比所述对应的高度高的情况下,使所述显示器进行第1显示,并且使所述扬声器输出第1声音,在所述算出的距离为所述对应的高度以下的情况下,使所述显示器进行第2显示,并且使所述扬声器输出第2声音。
发明的效果
根据上述技术方案,能够实现进一步的改善。
附图说明
图1是示出本公开的第1实施方式的机器人的功能构成的一例的框图。
图2是示出第一房间地图信息的一例的图。
图3是示出位置危险高度表的一例的图。
图4是示出材质危险高度表的一例的图。
图5是示出表达表的一例的图。
图6是示出使本公开的第1实施方式的机器人的感情表达发生变化的控制的一例的流程图。
图7是示出位置危险高度表的制作处理的一例的流程图。
图8是示出第二房间地图信息的一例的图。
图9是示出第三房间地图信息的一例的图。
图10是示出用户动作判定处理的一例的流程图。
图11是示出本公开的第1实施方式的高度算出处理的一例的流程图。
图12是示出本公开的第1实施方式的表达决定处理的一例的流程图。
图13是示出表达执行处理的一例的流程图。
图14是示出本公开的第2实施方式的机器人的功能构成的一例的框图。
图15是示出使本公开的第2实施方式的机器人的感情表达发生变化的控制的一例的流程图。
图16是示出本公开的第2实施方式的高度计算处理的一例的流程图。
图17是示出本公开的第2实施方式的表达决定处理的一例的流程图。
图18是本公开的第3实施方式的机器人的外观立体图。
图19是本公开的第3实施方式的机器人的内部立体图。
图20是示出本公开的第3实施方式的机器人的感情表达的一例的图。
标号说明
1、2、3 机器人(装置)
101、101a 摄像头
103、103a 第1传感器、第2传感器、第3传感器
106 扬声器
108 显示器
108a 第1显示部(显示器)
108b 第2显示部(显示器)
108c 第3显示部(显示器)
T3 位置危险高度表(第1表、第2表)
X305 危险高度1(第1高度)
X306 危险高度2(第2高度)
T4 材质危险高度表(表)
X402 危险高度1(第3高度)
X403 危险高度2(第4高度)
具体实施方式
(成为本公开的基础的见解)
正在研究在被用户拿着的状态下与用户玩耍的机器人。这样的机器人在被用户拿起之后,在因用户的疏忽等而掉落于硬的地板的情况下,机器人有可能会损坏。已知有为了防止这种情况发生而测定机器人被拿起的高度,在测定出的高度变为阈值高度以上的情况下,通过表情、讲话等对用户发出警告的技术。
例如,在专利文献1中记载有如下技术:作业人员为了高效地对对象设备进行检查,而测定作业人员从地面离开的高度,在测定出的高度接近了检查部位的高度的情况下,通过声音向作业人员进行报告。
另外,在专利文献2中记载有如下技术:为了可靠地避免在电动螺丝刀倾斜了的状态下的粗心大意的螺纹紧固操作,计测电动螺丝刀的倾斜度和高度,在电动螺丝刀倾斜到阈值角度以上且相对于螺纹紧固对象物接近了阈值高度以内的情况下,发出警报声。
考虑将上述技术应用于上述机器人,在测定出的机器人的高度接近了机器人在掉落时可能会损坏的阈值高度的情况下,向用户发出警告。然而,该情况下,若将从地板面起的高度作为所述阈值高度而固定,则即使在机器人被拿起至距具有高度的物体(例如桌子、沙发等)的上表面和/或柔软的材质(例如地毯、榻榻米等)的地板面该阈值高度,机器人在掉落时也不会损坏的那样的时候,也向用户报告所需以上的警告。
为了解决这样的问题,本发明人研究适当地对用户报告上述机器人等由用户移动的装置在发生了掉落时是否可能受到损伤,想到了本公开涉及的各技术方案。
本公开的第一技术方案的装置,是由用户移动的装置,具备:第1传感器,其检测所述装置的移动和移动的方向;第2传感器,其测定所述装置在铅垂方向上的移动距离;摄像头,其取得所述装置的周边的影像;处理器;显示器;以及扬声器,所述处理器,基于所述第1传感器的检测结果,判断所述装置是否在铅垂方向上被移动了,在判断为所述装置在铅垂方向上被移动了的情况下,基于所述第2传感器的检测结果,算出从位于所述装置的正下方的物体到所述装置为止的距离,基于从所述摄像头取得的影像,测定所述装置的二维位置,对第1表中的与所述测定出的二维位置对应的高度和所述算出的距离进行比较,所述第1表表示所述装置的二维位置和在所述二维位置处所述装置发生了掉落时可能对所述装置造成损伤的高度的对应关系,在所述算出的距离比所述对应的高度高的情况下,使所述显示器进行第1显示,并且使所述扬声器输出第1声音,在所述算出的距离为所述对应的高度以下的情况下,使所述显示器进行第2显示,并且使所述扬声器输出第2声音。
根据本构成,在装置在铅垂方向上被移动了的情况下,当从装置的正下方的物体到装置为止的距离比与装置的二维位置对应的、在装置发生了掉落时可能对装置造成损伤的高度高时,进行第1显示并且输出第1声音。另一方面,当从装置的正下方的物体到装置为止的距离为与装置的二维位置对应的、在装置发生了掉落时可能对装置造成损伤的高度以下时,进行第2显示并且输出第2声音。
因此,在位于装置的正下方的物体的高度因装置的二维位置而异的空间中,在装置在铅垂方向上被移动了的情况下,能够根据到位于装置的正下方的物体为止的距离,适当地向用户报告在装置发生了掉落时是否会受到损伤。
另外,在上述第一技术方案中,也可以是,所述处理器,在判断为所述装置没有在铅垂方向上被移动的情况下,基于所述第1传感器的检测结果,判断所述装置是否在水平方向上被移动了,在判断为所述装置在水平方向上被移动了的情况下,基于所述影像,测定所述装置的二维位置,参照第2表,算出所述距离,所述第2表表示所述装置的二维位置和存在于所述二维位置的物体的高度的对应关系,对所述第1表中的与所述测定出的二维位置对应的高度和所述算出的距离进行比较,在所述算出的距离比所述对应的高度高的情况下,使所述显示器进行所述第1显示,并且使所述扬声器输出所述第1声音,在所述算出的距离为所述对应的高度以下的情况下,使所述显示器进行所述第2显示,并且使所述扬声器输出所述第2声音。
根据本构成,在装置在水平方向上被移动了的情况下,当从装置的正下方的物体到装置为止的距离比与装置的二维位置对应的、在装置发生了掉落时可能对装置造成损伤的高度高时,进行第1显示并且输出第1声音。另一方面,当从装置的正下方的物体到装置为止的距离为与装置的二维位置对应的、在装置发生了掉落时可能对装置造成损伤的高度以下时,进行第2显示并且输出第2声音。
因此,在位于装置的正下方的物体的高度因装置的二维位置而异的空间中,在装置在水平方向上被移动了的情况下,能够根据到位于装置的正下方的物体为止的距离,适当地向用户报告在装置发生了掉落时是否会受到损伤。
另外,在上述第一技术方案中,优选地,所述显示器通过双眼和嘴来显示所述装置的表情,所述第1显示表示恐惧或困惑的表情,所述第1声音通知危险或向所述用户请求使所述装置向更低的高度移动。
根据本构成,在装置发生了掉落时可能受到损伤的情况下,通过双眼和嘴显示恐惧或困惑的表情,输出通知危险或向用户请求使装置向更低的高度移动的声音。因此,能够通过上述的显示或声音,使用户容易地掌握在装置发生了掉落时可能受到损伤这一情况。
另外,在上述第一技术方案中,优选地,所述显示器通过双眼和嘴来显示所述装置的表情,所述第2显示表示喜悦的表情,所述第2声音对所述装置的高度进行肯定。
根据本构成,在装置发生了掉落时不会受到损伤的情况下,通过双眼和嘴显示喜悦的表情,输出对装置的高度进行肯定的声音。因此,能够通过上述的显示或声音,使用户容易地掌握在装置发生了掉落时不会受到损伤这一情况。
另外,在上述第一技术方案中,优选地,在所述第1表中,在所述二维位置处所述装置发生了掉落时可能对所述装置造成损伤的高度包括第1高度和第2高度,所述第2高度比所述第1高度高,所述第1显示包括第3显示和第4显示,所述第1声音包括第3声音和第4声音,所述显示器通过双眼和嘴来显示所述装置的表情,所述处理器,在所述算出的距离比与所述测定出的二维位置对应的所述第1高度高并且所述算出的距离为与所述测定出的二维位置对应的所述第2高度以下的情况下,使所述显示器进行所述第3显示,并且使所述扬声器输出所述第3声音,在所述算出的距离比与所述测定出的二维位置对应的所述第2高度高的情况下,使所述显示器进行所述第4显示,并且使所述扬声器输出所述第4声音,所述第3显示表示困惑的表情,所述第4显示表示恐惧的表情,所述第3声音向所述用户请求使所述装置向更低的高度移动,所述第4声音通知危险。
根据本构成,在装置在铅垂方向上被移动了的情况下,当从装置的正下方的物体到装置为止的距离比第1高度高、且为第2高度以下时,通过双眼和嘴显示困惑的表情,输出向用户请求使装置向更低的高度移动的声音。另一方面,当所述距离比第2高度高时,通过双眼和嘴显示恐惧的表情,输出通知危险的声音。
因此,能够通过上述的显示或声音,使用户容易地掌握在所述距离比第1高度高且为第2高度以下的情况下和所述距离比第2高度高的情况下在装置发生了掉落时可能受到损伤这一情况。另外,能够通过上述的显示或声音,使用户容易地掌握所述距离比第2高度高的情况与所述距离比第1高度高且为第2高度以下的情况相比、在装置发生了掉落时可能受到的损伤大这一情况。
另外,在上述第一技术方案中,也可以是,所述处理器,还参照存储了所述装置与所述用户的对话历史记录的数据库,判断所述对话历史记录中从当前起到预定时间之前为止所述装置是否向所述用户请求了使所述装置向铅垂上方向移动,在判断为所述装置向所述用户请求了使所述装置向铅垂上方向移动并且所述算出的距离比所述对应的高度高的情况下,使所述显示器进行第5显示,并且使所述扬声器输出第5声音。
根据本构成,即使在从装置的正下方的物体到装置为止的距离比与装置的二维位置对应的、在装置发生了掉落时可能对装置造成损伤的高度高的情况下,在从当前起到预定时间之前为止,装置向用户请求了使其向铅垂上方向移动时,进行第5显示并且输出第5声音。因此,在用户按照装置的请求进行了使装置向铅垂上方向移动的动作的情况下,能够防止如拒绝该动作那样的显示和/或声音的输出。
另外,在上述第一技术方案中,优选地,所述第5显示表示笑脸,所述第5声音表达感谢之意。
根据本构成,在用户将装置在铅垂方向上移动了的情况下,即使存在在装置发生了掉落时可能受到损伤的担忧,在从当前起到预定时间之前为止装置向用户请求了使其向铅垂上方向移动时,显示笑脸,输出表示感谢之意的声音。因此,能够使用户容易地掌握在用户按照装置的请求进行了使装置向铅垂上方向移动的动作的情况下,针对该动作装置表示出感谢和/或慰劳之意这一情况。
另外,在上述第一技术方案中,也可以是,所述第1传感器和所述第2传感器是对所述装置的水平方向和铅垂方向的加速度进行检测的加速度传感器。
根据本构成,能够将加速度传感器兼用作第1传感器和第2传感器。因此,与个别地设置第1传感器和第2传感器的情况相比,能够简化装置的构成,廉价地构成装置。
另外,本公开的一个技术方案的机器人,是由用户移动的机器人,具备:第1传感器,其检测所述机器人的移动和移动的方向;第2传感器,其测定所述机器人在铅垂方向上的移动距离;摄像头,其取得所述机器人的周边的影像;处理器;显示器;以及扬声器,所述处理器,基于所述第1传感器的检测结果,判断所述机器人是否在铅垂方向上被移动了,在判断为所述机器人在铅垂方向上被移动了的情况下,基于所述第2传感器的检测结果,算出从位于所述机器人的正下方的物体到所述机器人为止的距离,基于从所述摄像头取得的影像,测定所述机器人的二维位置,对第1表中的与所述测定出的二维位置对应的高度和所述算出的距离进行比较,所述第1表表示所述机器人的二维位置和在所述二维位置处所述机器人发生了掉落时可能对所述机器人造成损伤的高度的对应关系,在所述算出的距离比所述对应的高度高的情况下,使所述显示器进行第1显示,并且使所述扬声器输出第1声音,在所述算出的距离为所述对应的高度以下的情况下,使所述显示器进行第2显示,并且使所述扬声器输出第2声音。
根据本构成,在机器人在铅垂方向上被移动了的情况下,在从机器人的正下方的物体到机器人为止的距离比与机器人的二维位置对应的、在机器人发生了掉落时可能对机器人造成损伤的高度高时,进行第1显示并且输出第1声音。另一方面,在从机器人的正下方的物体到机器人为止的距离比与机器人的二维位置对应的、在机器人发生了掉落时可能对机器人造成损伤的高度以下时,进行第2显示并且输出第2声音。
因此,在位于机器人的正下方的物体的高度因机器人的二维位置而异的空间中,在机器人在铅垂方向上被移动了的情况下,能够根据到位于机器人的正下方的物体为止的距离,来适当地对用户报告在机器人发生了掉落时是否可能受到损伤。
另外,本公开的一个技术方案的方法,是使由用户移动的装置表达感情的方法,所述装置具备:第1传感器,其检测所述装置的移动和移动的方向;第2传感器,其测定所述装置在铅垂方向上的移动距离;摄像头,其取得所述装置的周边的影像;显示器;以及扬声器,基于所述第1传感器的检测结果,判断所述装置是否在铅垂方向上被移动了,在判断为所述装置在铅垂方向上被移动了的情况下,基于所述第2传感器的检测结果,算出从位于所述装置的正下方的物体到所述装置为止的距离,基于从所述摄像头取得的影像,测定所述装置的二维位置,对第1表中的与所述测定出的二维位置对应的高度和所述算出的距离进行比较,所述第1表表示所述装置的二维位置和在所述二维位置处所述装置发生了掉落时可能对所述装置造成损伤的高度的对应关系,在所述算出的距离比所述对应的高度高的情况下,使所述显示器进行第1显示,并且使所述扬声器输出第1声音,在所述算出的距离为所述对应的高度以下的情况下,使所述显示器进行第2显示,并且使所述扬声器输出第2声音。
另外,本公开不仅是执行上述那样的特征性处理的方法,还公开了使所述装置的处理器执行该方法所包含的特征性处理的程序。当然,也能够使这样的程序经由CD-ROM等计算机可读的非瞬时性记录介质或互联网等通信网络来流通。
另外,本公开的第二技术方案的装置,是由用户移动的装置,具备:第1传感器,其检测所述装置的移动和移动的方向;第3传感器,其测定到位于所述装置的正下方的物体为止的距离;摄像头,其取得所述装置的周边的影像;处理器;显示器;以及扬声器,所述处理器,基于所述第1传感器的检测结果,判断所述装置是否在铅垂方向上被移动了,在判断为所述装置在铅垂方向上被移动了的情况下,基于所述第3传感器的检测结果,算出从位于所述装置的正下方的物体到所述装置为止的距离,基于从所述摄像头取得的影像,判断位于所述装置的正下方的物体的材质,对表示物体的材质和在所述装置掉落于所述物体时可能对所述装置造成损伤的高度的对应关系的表中的与所述判断出的所述材质对应的高度和所述算出的距离进行比较,在所述算出的距离比所述对应的高度高的情况下,使所述显示器进行第1显示,并且使所述扬声器输出第1声音,在所述算出的距离为所述对应的高度以下的情况下,使所述显示器进行第2显示,并且使所述扬声器输出第2声音。
根据本构成,在装置在铅垂方向上被移动了的情况下,在从装置的正下方的物体到装置为止的距离比与位于装置的正下方的物体的材质对应的、在装置发生了掉落时可能对装置造成损伤的高度高时,进行第1显示并且输出第1声音。另一方面,在从位于装置的正下方的物体到装置为止的距离比与位于装置的正下方的物体的材质对应的、在装置发生了掉落时可能对装置造成损伤的高度以下时,进行第2显示并且输出第2声音。
因此,在位于装置的正下方的物体的高度因装置的二维位置而异的空间中,在装置在铅垂方向上被移动了的情况下,能够根据到位于装置的正下方的物体为止的距离和该物体的材质,来适当地对用户报告在装置发生了掉落时是否可能受到损伤。
另外,在上述第二技术方案中,也可以是,所述处理器,在判断为所述装置没有在铅垂方向上被移动的情况下,基于所述第1传感器的检测结果,判断所述装置是否在水平方向上被移动了,在判断为所述装置在水平方向上被移动了的情况下,基于所述第3传感器的检测结果,算出从位于所述装置的正下方的物体到所述装置为止的距离,基于所述影像,判断位于所述装置的正下方的物体的材质,对所述表中的与所述判断出的所述材质对应的高度和所述算出的距离进行比较,在所述算出的距离比所述对应的高度高的情况下,使所述显示器进行第1显示,并且使所述扬声器输出第1声音,在所述算出的距离为所述对应的高度以下的情况下,使所述显示器进行第2显示,并且使所述扬声器输出第2声音。
根据本构成,在装置在水平方向上被移动了的情况下,在从装置的正下方的物体到装置为止的距离比与位于装置的正下方的物体的材质对应的、在装置发生了掉落时可能对装置造成损伤的高度高时,进行第1显示并且输出第1声音。另一方面,在从装置的正下方的物体到装置为止的距离为与位于装置的正下方的物体的材质对应的、在装置发生了掉落时可能对装置造成损伤的高度以下时,进行第2显示并且输出第2声音。
因此,在位于装置的正下方的物体的高度和/或材质因装置的二维位置而异的空间中,在装置在水平方向上被移动了的情况下,能够根据到位于装置的正下方的物体为止的距离和该物体的材质,来适当地对用户报告在装置发生了掉落时是否可能受到损伤。
另外,在上述第二技术方案中,优选地,所述显示器通过双眼和嘴来显示所述装置的表情,所述第1显示表示恐惧或困惑的表情,所述第1声音通知危险或向所述用户请求使所述装置向更低的高度移动。
根据本构成,在装置发生了掉落时可能受到损伤的情况下,通过双眼和嘴来显示恐惧或困惑的表情,输出通知危险或向用户请求使装置向更低的高度移动的声音。因此,能够通过上述显示或声音,使用户容易地掌握在装置发生了掉落时可能受到损伤这一情况。
另外,在上述第二技术方案中,优选地,所述显示器通过双眼和嘴来显示所述装置的表情,所述第2显示表示喜悦的表情,所述第2声音对所述装置的高度进行肯定。
根据本构成,在装置发生了掉落时不会受到损伤的情况下,通过双眼和嘴显示喜悦的表情,输出对装置的高度进行肯定的声音。因此,能够通过上述显示或声音,使用户容易地掌握在装置发生了掉落时不会受到损伤这一情况。
另外,在上述第二技术方案中,优选地,在所述表中,在所述装置掉落于所述物体时可能对所述装置造成损伤的高度包括第3高度和第4高度,所述第4高度比所述第3高度高,所述第1显示包括第3显示和第4显示,所述第1声音包括第3声音和第4声音,所述显示器通过双眼和嘴来显示所述装置的表情,所述处理器,在所述算出的距离比所述对应的所述第3高度高并且所述算出的距离为与所述对应的所述第4高度以下的情况下,使所述显示器进行所述第3显示,并且使所述扬声器输出所述第3声音,在所述算出的距离比所述对应的所述第2高度高的情况下,使所述显示器进行所述第4显示,并且使所述扬声器输出所述第4声音,所述第3显示表示困惑的表情,所述第4显示表示恐惧的表情,所述第3声音向所述用户请求使所述装置向更低的高度移动,所述第4声音通知危险。
根据本构成,在装置在铅垂方向上被移动了情况下,在从装置的正下方的物体到装置为止的距离比第3高度高、且为第4高度以下时,通过双眼和嘴显示困惑的表情,输出请求用户使装置向更低的高度移动的声音。另一方面,在所述距离比第4高度高时,通过双眼和嘴显示恐惧的表情,输出通知危险的声音。
因此,能够通过上述的显示或声音,使用户容易地掌握在所述距离比第3高度高且为第4高度以下的情况和所述距离比第4高度高的情况下,在装置发生了掉落时可能受到损伤这一情况。另外,能够通过上述的显示或声音,使用户容易地掌握所述距离比第4高度高的情况与所述距离比第3高度且为第4高度以下的情况相比,在装置发生了掉落时可能受到的损伤大这一情况。
另外,在上述第二技术方案中,也可以是,所述处理器,还参照存储了所述装置与所述用户的对话历史记录的数据库,判断所述对话历史记录中从当前起到预定时间之前为止所述装置是否向所述用户请求了使所述装置向铅垂上方向移动,在判断为所述装置向所述用户请求了使所述装置向铅垂上方向移动并且所述算出的距离比所述对应的高度高的情况下,使所述显示器进行第5显示,并且使所述扬声器输出第5声音。
根据本构成,即使在从装置的正下方的物体到装置为止的距离比与处于装置的正下方的物体的材质对应的、在装置发生了掉落时可能对装置造成损伤的高度高的情况下,在从当前到预定时间之前为止装置向用户请求了使其向铅垂上方向移动时,也进行第5显示并且输出第5声音。因此,在用户按照装置的请求进行了使装置向铅垂上方向移动的动作的情况下,能够防止如拒绝该动作那样的显示和/或声音的输出。
另外,在上述第二技术方案中,优选地,所述第5显示表示笑脸,所述第5声音表达感谢之意。
根据本构成,在用户将装置在铅垂方向上移动了的情况下,即使存在在装置发生了掉落时可能受到损伤的担忧,在从当前起到预定时间之前为止、装置向用户请求了使其向铅垂上方向移动时,显示笑脸并且输出表示感谢之意的声音。因此,能够使用户容易地掌握在用户按照装置的请求进行了使装置向铅垂上方向的移动的动作的情况下,针对该动作装置表示出感谢和/或慰劳之意这一情况。
另外,本公开的一个技术方案的机器人,是由用户移动的机器人,具备:第1传感器,其检测所述机器人的移动和移动的方向;第3传感器,其测定到位于所述机器人的正下方的物体为止的距离;摄像头,其取得所述机器人的周边的影像;处理器;显示器;以及扬声器,所述处理器,基于所述第1传感器的检测结果,判断所述机器人是否在铅垂方向上被移动了,在判断为所述机器人在铅垂方向上被移动了的情况下,基于所述第3传感器的检测结果,算出从位于所述机器人的正下方的物体到所述机器人为止的距离,基于从所述摄像头取得的影像,判断位于所述机器人的正下方的物体的材质,对表示物体的材质和在所述机器人掉落于所述物体时可能对所述机器人造成损伤的高度的对应关系的表中的与所述判断出的所述材质对应的高度和所述算出的距离进行比较,在所述算出的距离比所述对应的高度高的情况下,使所述显示器进行第1显示,并且使所述扬声器输出第1声音,在所述算出的距离为所述对应的高度以下的情况下,使所述显示器进行第2显示,并且使所述扬声器输出第2声音。
根据本构成,在机器人在铅垂方向上被移动了的情况下,在从机器人的正下方的物体到机器人为止的距离比与位于机器人的正下方的物体的材质对应的、在机器人发生了掉落时可能给机器人造成损伤的高度高时,进行第1显示并且输出第1声音。另一方面,在从机器人的正下方的物体到机器人为止的距离为与位于机器人的正下方的物体的材质对应的、在机器人发生了掉落时可能对机器人造成损伤的高度以下时,进行第2显示并且输出第2声音。
因此,在位于机器人的正下方的物体的高度和/或材质因机器人的二维位置而异的空间中,在机器人在铅垂方向上被移动了的情况下,能够根据到位于机器人的正下方的物体为止的距离和该物体的材质,来适当地对用户报告在机器人发生了掉落时是否可能受到损伤。
另外,本公开的一个技术方案的方法,是使由用户移动的装置表达感情的方法,所述装置具备:第1传感器,其检测所述装置的移动和移动的方向;第3传感器,其测定到位于所述装置的正下方的物体为止的距离;摄像头,其取得所述装置的周边的影像;显示器;以及扬声器,基于所述第1传感器的检测结果,判断所述装置是否在铅垂方向上被移动了,在判断为所述装置在铅垂方向上被移动了的情况下,基于所述第3传感器的检测结果,算出从位于所述装置的正下方的物体到所述装置为止的距离,基于从所述摄像头取得的影像,判断位于所述装置的正下方的物体的材质,对表示物体的材质和在所述装置掉落于所述物体时可能对所述装置造成损伤的高度的对应关系的表中的与所述判断出的所述材质对应的高度和所述算出的距离进行比较,在所述算出的距离比所述对应的高度高的情况下,使所述显示器进行第1显示,并且使所述扬声器输出第1声音,在所述算出的距离为所述对应的高度以下的情况下,使所述显示器进行第2显示,并且使所述扬声器输出第2声音。
另外,本公开不仅公开了执行上述那样的特征性处理的方法,还公开了使所述装置的处理器执行该方法所包含的特征性处理的程序。当然,也能够使这样的程序经由CD-ROM等计算机可读的非瞬时性记录介质或互联网等通信网络来流通。
此外,下面要说明的实施方式均是表示本公开的一个具体例的方式。下面的实施方式中示出的数值、形状、构成要素、步骤、步骤的顺序等均是一例,主旨并非是限定本公开。另外,关于下面的实施方式中的构成要素中的、未记载于表示最上位概念的独立权利要求的构成要素,作为任意的构成要素进行说明。另外,在所有实施方式中,也能够将各自的内容进行组合。
(第1实施方式)
首先,对本公开的第1实施方式的机器人1(装置)进行说明。机器人1被用户拿着或搬动等,通过用户进行移动。另外,机器人1构成为能够在地板等上自主地行走。具体而言,机器人1由HDD、SSD等具有预定存储容量的未图示的存储装置、使机器人1行走的驱动机构及控制该驱动机构的驱动装置、经由无线LAN、便携信息终端载体的通信网等网络与外部装置进行通信的通信装置以及微型计算机等构成。微型计算机具备CPU(处理器)、ROM以及RAM等,通过使CPU执行ROM所存储的预定控制程序(程序),来进行预定控制。
图1是示出本公开的第1实施方式的机器人1的功能构成的一例的框图。如图1所示,机器人1作为摄像头101、图像处理部102、传感器103、传感器信息取得部104、主控制部105、扬声器106、声音信息输出控制部107、显示器108、显示信息输出控制部109、存储器110、对话历史记录DB111、房间地图DB112、位置危险高度DB113、材质危险高度DB114以及表达DB115来发挥功能。
摄像头101由拍摄静止画面的摄像头和/或拍摄动态画面的录像机构成,取得机器人1的周边的图像(影像)。摄像头101的拍摄方向由主控制部105来调整。不过,在第1实施方式中,成为摄像头101的拍摄方向无法向机器人1的铅垂方向下方(以下,正下方)调整的构成。
图像处理部102由微型计算机构成,基于由摄像头101取得的图像和后述的房间地图DB112所管理的各房间的房间地图信息,推定各房间之中的机器人1的相对位置(二维位置)。关于房间地图DB112、房间地图信息以及机器人1的相对位置的推定方法,在后叙述。另外,图像处理部102通过进行公知的图像识别处理,基于摄像头101所取得的图像所包含的地板及障碍物的图像来识别地板及障碍物各自的材质及高度。
传感器103例如由加速度传感器、陀螺仪传感器等检测机器人1的移动的有无(运动)及移动方向(运动方向)的传感器(第1传感器)、加速度传感器等检测机器人1的铅垂方向上的移动距离的传感器(第2传感器)、以及红外线距离传感器等检测从位于机器人1的正下方的地板或障碍物到机器人1为止的距离的传感器(第3传感器)中的、一个以上的传感器构成。
在第1实施方式中,传感器103设为由加速度传感器构成。也就是说,在第1实施方式中,传感器103能够基于由加速度传感器检测出的机器人1的水平方向及铅垂方向上的加速度,检测机器人1的移动的有无及移动方向、和机器人1在铅垂方向上的移动距离。
传感器信息取得部104由微型计算机构成,基于由传感器103检测到的信息判定用户对机器人1进行了的动作。用户对机器人1进行的动作中包括拿起机器人1的动作、搬动机器人1的动作以及放下机器人1的动作。以后,将用户对机器人1进行的动作简称为用户动作。
主控制部105由微型计算机构成,控制机器人1的动作。例如,主控制部105进行使机器人1向预定的行走方向行走的控制、和/或根据机器人1的当前位置而使机器人1的感情表达发生变化的控制等。
扬声器106通过在由声音信息输出控制部107进行的控制之下、将被输入了的声音信号变换成物理振动,从而输出该声音信号所表示的声音。
声音信息输出控制部107由微型计算机构成,在由主控制部105进行的控制之下,生成表示预定的讲话文本语句的声音信号,并使扬声器106输出该声音信号所表示的讲话文本语句的声音。
显示器108例如由多个发光二极管构成,在由显示信息输出控制部109进行的控制之下显示表示机器人1的表情的显示信息。
显示信息输出控制部109由微型计算机构成,在由主控制部105进行的控制之下使显示器108显示表示预定的表情的显示信息。由此,显示器108显示显示信息所表示的机器人1的表情。
存储器110由RAM等易失性的存储装置构成,存储机器人1的控制所用的各种数据、控制程序等。
对话历史记录DB111由HDD(Hard Disk Drive,硬盘驱动器)和/或SSD(SolidState Drives,固态硬盘)等非易失性的存储装置构成。对话历史记录DB111将表示一定期间内(例如1天等)的机器人1与用户的对话的内容的对话信息作为对话历史记录来进行管理。此外,对话信息既可以是表示机器人1与用户的对话内容的文本语句,也可以是对表示该对话的内容的声音信号进行变换并数字化而得的信息。
房间地图DB112由HDD、SSD等非易失性的存储装置构成。房间地图DB112管理各房间的房间地图信息。所谓各房间的房间地图信息是表示表示各房间的区域中地板及障碍物(物体)各自的配置区域的信息。图2中示出房间地图DB112所管理的房间地图信息的一例。例如,在图2所示的房间地图信息中,图示了在表示某个房间的矩形区域中、存在于下边的中央附近的“障碍物1”、存在于上边的中央附近的“障碍物2”以及存在于左下角的“障碍物3”的配置区域,剩余的区域作为“地板”的配置区域来图示。此外,各房间的房间地图信息通过主控制部105进行例如SLAM(Simultaneous Localization and Mapping,同步定位与地图构建)等公知的地图制作处理等而生成。
位置危险高度DB113由HDD、SSD等非易失性的存储装置构成。图3是示出位置危险高度表T3(第1表、第2表)的一例的图。位置危险高度DB113使用图3所示的位置危险高度表T3来管理在存在于各房间之中的机器人1掉落到位于正下方的地板或障碍物上的情况下机器人1可能发生故障时的、与机器人1的距该地板或障碍物的高度有关的信息(以后称为位置危险高度信息)。
具体而言,位置危险高度信息中包括房间名X301、位置范围X302、材质X303、高度X304、危险高度1X305以及危险高度2X306。位置危险高度DB113通过将位置危险高度信息所包含的各信息X301~306分别相关联地存储于位置危险高度表T3,来管理位置危险高度信息。
房间名X301是用于确定机器人1所在的房间的标识符。位置范围X302是表示房间之中的地板或障碍物的配置区域的信息。例如,关于位置范围X302,在地板或障碍物为矩形的情况下,由以房间的四角中的某一角为基准点(例如左上角)时的表示该地板或障碍物的四个顶点的相对位置(二维位置)的四个坐标信息构成。
材质X303是房间之中的地板或障碍物的材质的标识符。高度X304是房间之中的地板或障碍物的高度。所谓房间之中的地板或障碍物的高度表示从地板表面到地板或障碍物的铅垂方向上的最高点为止的距离。例如,在图3所示的位置危险高度表中,材质X303为“沙发”的障碍物的高度X304设定为作为从地板表面到该障碍物的铅垂方向上的最高点为止的距离的“30cm”。另外,材质X303为“地毯”、“木地板”等表示地板的材质即地板的高度X304设定为“0cm”。
危险高度1X305(第1高度)及危险高度2X306(第2高度)是表示在机器人1掉落到位于正下方的材质X303的地板或障碍物上时机器人1可能发生故障(能对机器人1造成损伤)时的、机器人1的距该地板或障碍物的高度的信息。
危险高度1X305表示机器人1发生故障的可能性低时的高度,危险高度2X306表示机器人1发生故障的可能性高时的高度。因此,危险高度2X306设定为比危险高度1X305所表示的高度高。例如,在图3所示的位置危险高度表T3中,用房间名X301“起居室”确定的房间之中的、与材质X303为“地毯”的地板对应的危险高度2X306“60cm”设定为比危险高度1X305“30cm”高。
也就是说,如果了解机器人1所在的房间及该房间之中的机器人1的相对位置,则能够在位置危险高度表T3中取得与该房间的房间名X301和包括该相对位置的位置范围X302相关联的危险高度1X305和危险高度2X306。关于位置危险高度表T3的制作方法在后叙述。
材质危险高度DB114由HDD、SSD等非易失性的存储装置构成。图4是示出材质危险高度表T4(表)的一例的图。材质危险高度DB114使用图4所示的材质危险高度表T4来管理材质危险高度信息,该材质危险高度信息是将可能存在于房间之中地板和障碍物的材质、和在机器人1掉落到该材质的地板或障碍物上时机器人1可能发生故障时的与机器人1距该地板或障碍物的高度有关的信息相关联的信息。
具体而言,材质危险高度信息中包括材质X401、危险高度1X402、以及危险高度2X403。材质危险高度DB114通过将材质危险高度信息所包含的各信息X401~403分别相关联地预先存储于材质危险高度表T4,来管理材质危险高度信息。
材质X401是可能存在于房间之中的地板或障碍物的材质的标识符。危险高度1X402和危险高度2X403是表示机器人1掉落到材质X401的地板或障碍物上的情况下机器人1可能发生故障时的、机器人1距该地板或障碍物的高度的信息。危险高度1X402(第3高度)表示机器人1发生故障的可能性低时的高度,危险高度2X403(第4高度)表示机器人1发生故障的可能性高时的高度。因此,危险高度2X403被预先设定为比危险高度1X402所表示的高度高。
例如,在图4所示的材质危险高度表T4中,与材质X401为“地毯”的地板对应的危险高度2X403“60cm”被预先设定为比危险高度1X402“30cm”高。
表达DB115由HDD、SSD等非易失性的存储装置构成。图5是示出表达表T5的一例的图。表达DB115使用图5所示的表达表T5来管理表达信息,该表达信息是将机器人1在表达恐惧、困惑、喜悦以及感谢等感情(以后称为进行感情表达)的情况下可能采用的一个以上的表情、和机器人1在进行该感情表达的情况下能够说出的分别表示一个以上的内容的一个以上的讲话文本语句相关联的信息。
具体而言,表达信息中包括表达X501、表情X502以及讲话内容X503。表达DB115通过将表达信息所包含的各信息X501~503分别相关联地预先存储于表达表T5,来管理表达信息。
表达X501是用于确定机器人1所进行的感情表达的标识符。表情X502是机器人1在正在进行表达X501所表示的感情表达时可能采用的一个以上的表情的标识符。讲话内容X503是机器人1在正在进行表达X501所表示的感情表达时可能说出的分别表示一个以上的内容的一个以上的讲话文本语句。
例如,主控制部105在要使机器人1进行感情表达的情况下,在表达表T5中取得与同该感情对应的表达X501相关联的表情X502和讲话内容X503。并且,主控制部105,从该取得的表情X502所包含的一个以上的表情的标识符中选择一个表情的标识符,从该取得的讲话内容X503所包含的一个以上的讲话文本语句中选择一个讲话文本语句。此外,主控制部105既可以例如随机地选择上述一个表情的标识符和一个讲话文本语句,也可以按照预先规定的顺序来选择。
并且,主控制部105控制显示信息输出控制部109(图1),使显示器108输出表示由所选择的一个表情的标识符确定的表情的显示信息。另外,主控制部105控制声音信息输出控制部107(图1),使其生成表示所选择的一个讲话文本语句的声音信号,并使扬声器106输出该声音信号所表示的讲话文本语句的声音。
例如,主控制部105,在使机器人1进行图5所示的表达表T5中的表达X501“恐惧表达”所表示的表达的情况下,在表达表T5中选择与表达X501“恐惧表达”相关联的表情X502“表情3”、讲话内容X503“啊,太可怕啦!太可怕啦!”。并且,主控制部105控制显示信息输出控制部109,使显示器108输出表示表情X502“表情3”的显示信息,控制声音信息输出控制部107(图1),使扬声器106输出讲话内容X503“啊,太可怕啦!太可怕啦!”的声音。
(使机器人1的感情表达变化的控制的整体动作)
接着,在第1实施方式中,对主控制部105根据机器人1的当前位置使机器人1的感情表达变化的控制的整体动作进行说明。图6是示出使本公开的第1实施方式的机器人1的感情表达发生变化的控制的一例的流程图。
如图6所示,主控制部105首先制作位置危险高度表T3(步骤S601)。接着,传感器信息取得部104基于从传感器103取得的信息来判定用户动作(步骤S602)。
在步骤S602中,若判定为用户动作(步骤S603:“是”),则主控制部105算出从机器人1的正下方的地板或障碍物到机器人1为止的高度(步骤S604)。在步骤S602中,在没有判定为用户动作的情况下(步骤S603:“否”)、处理回到步骤S602。
在步骤S604之后,主控制部105通过步骤S605执行表达决定处理(步骤S605)。在步骤S605的表达决定处理中,主控制部105基于将步骤S604中算出的从机器人1到正下方的地板或障碍物为止的高度和各房间中的与机器人1的相对位置对应的危险高度进行比较后的结果,来决定要使机器人1进行的感情表达。所谓各房间中的与机器人1的相对位置对应的危险高度,表示位置危险高度表T3(图3)中、将与机器人1所在的房间的标识符一致的房间名X301和包括表示机器人1在房间之中的相对位置的坐标信息的位置范围X302相关联的、危险高度1X305和危险高度2X306。
接着,主控制部105通过步骤S606来执行表达执行处理(步骤S606)。在步骤S606中,主控制部105判断是否使机器人1进行步骤S605中决定出的感情表达。并且,主控制部105,在判断为要使机器人1进行该感情表达的情况下,使机器人1进行该感情表达。另一方面,主控制部105,在判断为不使机器人1进行该感情表达的情况下,不使机器人1进行该感情表达。
在步骤S606之后,处理回到步骤S602,反复进行步骤S602以后的处理。
(位置危险高度表T3(图3)的制作处理的详细情况)
接着,对所述整体的流程图之中的各处理的详细情况进行说明。首先,对步骤S601中的位置危险高度表T3(图3)的制作处理的详细情况进行说明。图7是示出位置危险高度表T3的制作处理的一例的流程图。
如图7所示,主控制部105在开始位置危险高度表T3的制作处理时,首先,将房间地图DB112所管理的各房间(例如起居室、卧室等)的房间地图信息依次存储于存储器110。另外,主控制部105通过位置危险高度DB113将位置危险高度表T3(图3)所存储的所有位置危险高度信息删除。由此,主控制部105使位置危险高度表T3初始化(步骤S701)。
接着,主控制部105将变量i设为1进行初始化(步骤S702),执行步骤S703~步骤S709。
在步骤S703中,主控制部105从存储器110中读出在步骤S701中第i个存储于存储器110的房间地图信息(图2),并将其设定为第一房间地图信息M1。
接着,主控制部105判定与第一房间地图信息M1对应的房间的地板的材质(步骤S704)。具体而言,在步骤S704中,主控制部105例如通过使所述驱动装置控制所述驱动机构,来一边使机器人1行走、一边使摄像头101取得机器人1的周边的图像。并且,主控制部105通过对该取得的图像进行公知的图像识别处理,来判定该图像所包含的地板的材质。
此外,也可以是,主控制部105在无法从由摄像头101取得的地板的图像判定地板的材质的情况下,经由用户操作的智能手机等外部装置和所述通信装置来进行通信,以获取在外部装置中由用户输入的地板的材质。
并且,主控制部105将表示在步骤S704中判定出的地板的材质的信息追加于第一房间地图信息M1,并将其设定为第二房间地图信息M2(步骤S705)。此外,主控制部105,当在步骤S704中判定为房间的地板由多个种类的材质构成的情况下,在步骤S705中,将表示各种类的材质的地板的区域的图像追加于第一房间地图信息M1。
图8是示出第二房间地图信息M2的一例的图。例如,设为第一房间地图信息M1是图2所示的房间地图信息。另外,设为在步骤S704中主控制部105判定为房间的中央部附近的矩形的地板的区域的材质为地毯,其他地板区域的材质为木地板。
该情况下,如图8所示,主控制部105在第一房间地图信息M1(图2)中的房间的中央部附近追加表示所述矩形的地板区域的矩形图像,在该矩形图像的内侧追加表示该矩形的地板的材质的“地毯”。而且,如图8所示,主控制部105在第一房间地图信息M1(图2)中的表示所述其他的地板区域的图像的内侧追加表示地板的材质的“木地板”。
接着,主控制部105判定存在于与第二房间地图信息M2对应的房间之中的各障碍物的材质及该障碍物的高度(步骤S706)。具体而言,在步骤S706中,主控制部105,与步骤S704同样地例如通过使所述驱动装置控制所述驱动机构,来一边使机器人1行走、一边使摄像头101取得机器人1的周边的图像。并且,主控制部105通过对该取得的图像进行公知的图像识别处理,来判定该图像所包含的各障碍物的材质和高度。
此外,也可以是,主控制部105,在无法从由摄像头101取得的障碍物的图像判定障碍物的材质和高度的情况下,经由用户操作的智能手机等外部装置和所述通信装置来进行通信,以取得在外部装置中由用户输入的各障碍物的材质和高度。另外,也可以是,在步骤S706中,主控制部105判定障碍物的物体的种类(例如沙发、电视、书架等)来作为障碍物的材质。
并且,主控制部105将表示在步骤S706中判定出的障碍物的材质和高度的信息追加于第二房间地图信息M2,并将其设定为第三房间地图信息M3(步骤S707)。
图9是示出第三房间地图信息M3的一例的图。例如,设为第二房间地图信息M2是图8所示的房间地图信息。另外,设为在步骤S706中主控制部105判定为在表示房间的矩形区域中存在于下边的中央附近的“障碍物1”的材质和高度为“沙发”和“30cm”,判定为存在于上边的中央附近的“障碍物2”的材质和高度为“电视”和“80cm”,判定为存在于左下角的“障碍物3”的材质和高度为“书架”和“190cm”。
该情况下,如图9所示,主控制部105在第二房间地图信息M2(图8)中的表示“障碍物1”的配置区域的图像的内侧追加表示“障碍物1”的材质和高度的“沙发”和“30cm“,在表示“障碍物2”的配置区域的图像的内侧追加表示“障碍物2”的材质和高度的“电视”和“80cm”,在表示“障碍物3”的配置区域的图像的内侧追加表示“障碍物3”的材质和高度的“书架”和“190cm”。
接着,主控制部105将追加于第三房间地图信息M3的地板和障碍物的配置区域的、表示地板和障碍物的材质和高度的信息补写于位置危险高度表T3(图3)(步骤S708)。
具体而言,在步骤S708中,主控制部105在位置危险高度表T3(图3)的房间名X301存储与第三房间地图信息M3对应的房间的标识符、也就是与在步骤S703中从存储器110读出的第i个房间地图信息(图2)对应的房间的标识符。
主控制部105在位置范围X302存储表示第三房间地图信息M3所包含的地板和障碍物各自的配置区域的坐标信息。例如,在地板的配置区域为矩形的情况下,主控制部105存储表示以针对第三房间地图信息M3的房间的四个角中的某个角为基准点时的该地板的配置区域的四个顶点的相对位置的、四个坐标信息。
主控制部105在材质X303存储第三房间地图信息M3所包含的地板和障碍物各自的材质的标识符,在高度X304存储该地板和障碍物各自的高度。此外,主控制部105在第三房间地图信息M3中包含地板的材质的标识符(例如,木地板、地毯等)的情况下,在该材质的物体的高度X304存储“0cm”。
主控制部105在危险高度1X305和危险高度2X306分别存储材质危险高度表T4(图4)中与同材质X303(例如“地毯”)一致的材质X401相关联的危险高度1X402(例如“30cm”)和危险高度2X403(例如“60cm”)。
在步骤S708之后,主控制部105使变量i增加1(步骤S709),重复进行步骤S703以后的处理。如此,主控制部105基于房间地图DB112所管理的各房间的第一房间地图信息M1,将位置危险高度信息(X301~X306)依次追加于位置危险高度表T3(图3)。
(判定用户动作的处理的详细)
接着,对步骤S602(图6)中的判定用户动作的处理(以后称为用户动作判定处理)的详细进行说明。图10是示出用户动作判定处理的一例的流程图。
如图10所示,传感器信息取得部104若开始用户动作判定处理,则首先判定用户是否进行了拿起机器人1的动作(是否在铅垂方向上移动了)(步骤S1001)。
具体而言,在步骤S1001中,若构成传感器103的加速度传感器检测出的机器人1朝向铅垂方向上方的加速度(以后称为Z轴方向的加速度)成为正的第1阈值以上,则传感器103检测出机器人1向铅垂方向的上方移动了。该情况下,传感器信息取得部104判定为用户进行了拿起机器人1的动作(步骤S1001:“是”)。
在该情况下,传感器信息取得部104将表示用户动作的判定是否结束了的动作检测标志设定为表示用户动作的判定结束的“真(True)”,将用户动作的种类设定为“拿起”(步骤S1002)。
另一方面,在机器人1的Z轴方向的加速度不为第1阈值以上的情况下,传感器103不会检测出机器人1向铅垂方向的上方移动了。该情况下,传感器信息取得部104判定为用户没有进行拿起机器人1的动作(步骤S1001:“否”),判定用户是否进行了放下机器人1的动作(是否在铅垂方向上移动了)(步骤S1003)。
具体而言,在步骤S1003中,若所述加速度传感器检测出的机器人1的Z轴方向的加速度成为负的第2阈值以下,则传感器103检测出机器人1向铅垂方向的下方移动了。该情况下,传感器信息取得部104判定为用户进行了放下机器人1的动作(步骤S1003:“是”)。该情况下,传感器信息取得部104将动作检测标志设定为“真(True)”,将用户动作的种类设定为“放下”(步骤S1004)。
另一方面,在机器人1的Z轴方向的加速度不为第2阈值以下的情况下,传感器103不会检测出机器人1向铅垂方向的下方移动了。该情况下,传感器信息取得部104判定为用户没有进行放下机器人1的动作(S1003:“否”),判定用户是否进行了搬动机器人1的动作(是否在水平方向上移动了)(步骤S1005)。
具体而言,在步骤S1005中,若所述加速度传感器检测出的机器人1的水平方向且前进方向上的加速度(以后称为X轴方向的加速度)的绝对值或机器人1的水平方向且左右方向(与所述前进方向正交的方向)上的加速度(以后称为Y轴方向上的加速度)的绝对值成为预定的第3阈值以上,则传感器103检测出机器人1在水平方向上移动了。该情况下,传感器信息取得部104判定为用户进行了搬动机器人1的动作(步骤S1005:“是”),将动作检测标志设定为“真(True)”,将用户动作的种类设定为“搬动”(步骤S1006)。
另一方面,在机器人1的X轴方向和Y轴方向上的加速度的绝对值均不为第3阈值以上的情况下,传感器103不会检测出机器人1在水平方向上移动了。该情况下,传感器信息取得部104判定为用户没有进行放下机器人1的动作(S1005:“否”),将动作检测标志设定为表示用户动作的判定没有结束的“假(False)”(步骤S1007)。
(算出机器人1的高度的处理的详细)
接着,对步骤S604(图6)中的算出机器人1的高度的处理(以后称为高度算出处理)的详细情况进行说明。图11是示出本公开的第1实施方式的高度算出处理的一例的流程图。
如图11所示,主控制部105,在开始高度算出处理时,首先判定在步骤S602(图6)的用户动作判定处理中设定出的用户动作的种类是否为“搬动”(步骤S1101)。
主控制部105,在用户动作的种类不为“搬动”的情况下(步骤S1101:“否”),判断为用户进行了拿起或放下机器人1的动作,使机器人1在铅垂方向上移动了。该情况下,机器人1在铅垂方向上方离开位于机器人1的正下方的地板或障碍物的距离(从位于装置(机器人)的正下方的物体到装置(机器人)为止的距离)H1正在变化,因此主控制部105算出该距离H1的变化量dh(步骤S1104)。以后,将机器人1在铅垂方向上方离开位于机器人1的正下方的地板或障碍物的距离H1记载为机器人1距地板或障碍物的高度H1。
具体而言,主控制部105,在用户从开始进行拿起或放下机器人1的动作到完成动作为止的期间,对构成传感器103(图1)的加速度传感器所检测出的Z轴方向上的加速度进行两次积分,算出机器人1在铅垂方向上移动了的距离,并将该距离设为所述变化量dh。此外,所谓用户从开始进行拿起机器人1的动作到完成动作为止的期间是所述加速度传感器所检测出的Z轴方向上的加速度从0成为正的预定阈值以下为止的期间。所谓用户从开始进行放下机器人1的动作到完成动作为止的期间是所述加速度传感器检测出的Z轴方向上的加速度从0成为负的预定阈值以上为止的期间。
接着,主控制部105通过对机器人1距地板或障碍物的高度H1加上在步骤S1104中算出的变化量dh,来将机器人1距地板或障碍物的高度H1更新成“H1+dh”(步骤S1105)。此外,主控制部105,在步骤S1105开始时,机器人1距地板或障碍物的高度H1没有被初始化的情况下,在将该高度H1初始化成“0cm”后再加上变化量dh。
接着,主控制部105控制图像处理部102,使其基于摄像头101所取得的图像和房间地图DB112所管理的各房间的房间地图信息,推定房间之中的机器人1的相对位置(步骤S1106)。
具体而言,图像处理部102在步骤S1106中通过执行公知的图像识别处理,来对摄像头101所取得的图像所包含的地板和/或障碍物的配置区域与房间地图DB112所管理的各房间的房间地图信息所包含的地板和/或障碍物的配置区域进行比较。该比较的结果,图像处理部102确定在与摄像头101取得的图像所包含的地板和/或障碍物相同的配置区域配置有地板和/或障碍物的房间地图信息。并且,图像处理部102判断为在与该确定出的房间地图信息对应的房间之中存在机器人1。
并且,图像处理部102通过执行公知的图像识别处理,来根据摄像头101取得的图像所包含的房间的四角和/或地板和障碍物、与摄像头101取得的图像的中心等预定的基准点之间的距离等,算出表示房间之中的机器人1的相对位置的坐标信息。
由此,图像处理部102推定为在所述确定出的房间中的该算出的坐标信息所表示的相对位置存在机器人1,将该特定出的房间的标识符和该算出的坐标信息向主控制部105输出。
另一方面,在用户动作的种类为“搬动”的情况下(步骤S1101:“是”),主控制部105,与步骤S1106同样地推定房间中的机器人1的相对位置(步骤S1102)。
在由用户进行了搬动机器人1的动作的情况下,位于机器人1的正下方的地板或障碍物有可能发生变化,机器人1距地板或障碍物的高度H1有可能发生变化。因此,在步骤S1102之后,主控制部105基于用户进行搬动机器人1的动作之前位于机器人1的正下方的地板或障碍物的高度(以后称为上次高度)和位于机器人1的当前位置的正下方的地板或障碍物的高度,来更新机器人1距地板或障碍物的高度H1(步骤S1103)。
具体而言,在步骤S1103中,主控制部105从图像处理部102取得表示在步骤S1102中由图像处理部102推定出的机器人1的相对位置的、机器人1所在的房间的标识符和表示该房间中的机器人1的相对位置的坐标信息。
并且,主控制部105在位置危险高度表T3(图3)中取得与该所取得的机器人1所在的房间的标识符(例如“起居室”)一致的房间名X301和与包括该取得的坐标信息的位置范围X302相关联的材质X303(例如“沙发”)及高度X304(例如“30cm”)。
并且,主控制部105,在该取得的材质X303(例如“沙发”)与存储器110(图1)所存储的用户进行搬动机器人1的动作之前位于机器人1的正下方的地板或障碍物的材质(以后称为上次材质)(例如“地毯”)不同的情况下和存储器110(图1)中没有存储上次材质的情况下,判断为位于机器人1的正下方的地板或障碍物发生了变化。
该情况下,主控制部105从自上述的位置危险高度表T3(图3)取得的高度X304(例如“30cm”)中减去存储器110(图1)所存储的上次高度(例如“0cm”)。并且,主控制部105判断为机器人1距地板或障碍物的高度H1比用户动作前低该减法结果所表示的高度dh(例如“30cm”),利用从机器人1距地板或障碍物的高度H1中减去该减法结果所表示的高度dh而得的结果,来更新机器人1距地板或障碍物的高度H1(H1=H1-dh)。
另一方面,主控制部105,在从位置危险高度表T3(图3)取得的材质X303(例如“沙发”)与存储器110(图1)所存储的上次材质一致的情况下,判断为位于机器人1的正下方的地板或障碍物没有发生变化,不更新机器人1距地板或障碍物的高度H1。
并且,主控制部105将上述的从位置危险高度表T3(图3)取得的材质X303(例如“沙发”)和高度X304(例如“30cm”)作为上次材质和上次高度而存储于存储器110(图1)。
(表达决定处理的详细)
接着,对步骤S605(图6)中的表达决定处理的详细进行说明。图12是示出本公开的第1实施方式的表达决定处理的一例的流程图。如图12所示,主控制部105在开始表达决定处理时,首先,在位置危险高度表T3(图3)中取得危险高度1X305和危险高度2X306(与二维位置对应的高度),该危险高度1X305和危险高度2X306与同在步骤S1102或S1106(图11)中推定出的机器人1所在的房间的标识符一致的房间名X301以及包括表示在同一步骤中推定出的机器人1在房间中的相对位置的坐标信息的位置范围X302相关联。并且,主控制部105将该取得的危险高度1X305设定为变量H2(H2=危险高度1X305),将该取得的危险高度2X306设定为变量H3(H3=危险高度2X306)(步骤S1201)。
接着,主控制部105将在步骤S1103或S1105(图11)中更新了的机器人1距地板或障碍物的高度H1与在步骤S1201中设定的变量H3进行比较(步骤S1202)。在机器人1距地板或障碍物的高度H1比变量H3大的情况下(步骤S1202:“是”),主控制部105判断为当前机器人1掉落时发生故障的可能性高,将使机器人1进行的感情表达决定为“恐惧表达”(步骤S1203)。所谓“恐惧表达”是在表达表T5(图5)中由表达X501“恐惧表达”确定的感情表达。
在机器人1距地板或障碍物的高度H1不比变量H3大的情况下(步骤S1202:“否”),将机器人1距地板或障碍物的高度H1与在步骤S1201中设定出的变量H2进行比较(步骤S1204)。在机器人1距地板或障碍物的高度H1比变量H2大的情况下(步骤S1204:“是”),主控制部105判断为当前若机器人1掉落则有可能发生故障,将使机器人1进行的感情表达决定为“困惑表达”(步骤S1205)。所谓“困惑表达”是在表达表T5(图5)中由表达X501“困惑表达”确定的感情表达。
在机器人1距地板或障碍物的高度H1不比变量H2大的情况下(步骤S1204:“否”),主控制部105判断为当前即使机器人1掉落也不会发生故障,将使机器人1进行的感情表达决定为“喜悦表达”(步骤S1206)。所谓“喜悦表达”是在表达表T5(图5)中由表达X501“喜悦表达”确定的感情表达。
(表达执行处理的详细情况)
接着,对步骤S606(图6)中的表达执行处理的详细情况进行说明。图13是示出表达执行处理的一例的流程图。如图13所示,主控制部105,在开始表达执行处理时,首先参照表示在对话历史记录DB111所管理的最近的预定期间(例如10分钟)中进行了的对话的内容的对话信息,判断是否进行了机器人1请求用户将其拿起的内容的对话(步骤S1301)。
例如,机器人1构成为通过二次电池所储存的电力来工作。主控制部105,在使机器人1工作的电力不足等情况下,控制声音信息输出控制部107,使扬声器106输出请求用户抱着之意的声音。由此,在机器人1与用户之间,进行机器人1请求用户将其拿起的内容的对话。该情况下,由对话历史记录DB111将表示请求用户抱着之意的声音的对话信息作为对话历史记录来进行管理。
主控制部105,在判断为进行了机器人1请求用户将其拿起的内容的对话的情况下(步骤S1301:“是”),将使机器人1进行的感情表达决定为“感谢表达”来取代在表达决定处理(图12)中决定出的感情表达(步骤S1302)。所谓“感谢表达”是在表达表T5(图5)中由表达X501“感谢表达”确定的感情表达。
也就是说,主控制部105,在判断为进行了机器人1请求用户将其拿起的内容的对话的情况下(步骤S1301:“是”),即使在机器人1距地板或障碍物的高度H1比所述变量H2大的情况下(S1204:“是”或S1202:“是”),也将使机器人1进行的感情表达决定为“感谢表达”。
另一方面,主控制部105,在判断为没有进行机器人1请求用户将其拿起的内容的对话的情况下(步骤S1301:“否”)以及进行了步骤S1302的情况下,判断要使机器人1进行的感情表达是否与上次使机器人1进行了的感情表达为同一表达并且在最近的一定期间内(例如1小时内等)是否使机器人1进行了与上次相同的感情表达(步骤S1303)。
具体而言,主控制部105,在后述的步骤S1308中,向存储器110(图1)存储确定上次机器人1所进行的感情表达的标识符(例如:“恐惧表达”)和进行了该感情表达的日期及时刻。因此,在步骤S1303中,主控制部105参照存储器110所存储的确定上次机器人1所进行的感情表达的标识符和进行了该感情表达的日期及时刻来进行上述判断。
在步骤S1303中,设为主控制部105判断为要让机器人1进行的感情表达与在上次的表达决定处理中决定出的感情表达为同一表达且上次的表达决定处理在最近的一定期间内没有进行(步骤S1303:“是”)。该情况下,主控制部105结束表达执行处理。
另一方面,在步骤S1303中,设为主控制部105判断为要让机器人1进行的感情表达与上次让机器人1进行了的感情表达不为同一表达。或者,设为判断为上次的表达决定处理在最近的一定期间内没有进行(步骤S1303:“否”)。在上述的情况下,主控制部105通过执行步骤S1304以后的处理,使机器人1执行在表达决定处理中决定出的感情表达。
具体而言,在步骤S1304中,主控制部105参照表达表T5(图5)中与同表示让机器人1进行的感情表达的标识符一致的表达X501相关联的表情X502和讲话内容X503(步骤S1304)。
并且,主控制部105选择在步骤S1304中参照的表情X502所包含的一个以上的表情的标识符中的一个标识符,从在步骤S1304中参照了的讲话内容X503所包含的一个以上的讲话文本语句中选择一个讲话文本语句(步骤S1305)。此外,如上所述,在步骤S1305中,主控制部105既可以例如随机地选择一个表情的标识符和一个讲话文本语句,也可以按照预先规定的顺序进行选择。
接着,主控制部105控制显示信息输出控制部109(图1),使显示器108输出表示由在步骤S1305中选择出的一个表情的标识符来确定的表情的显示信息(步骤S1306)。另外,主控制部105控制声音信息输出控制部107(图1),生成表示在步骤S1305中选择出的一个讲话文本语句的声音信号,并使扬声器106输出该声音信号所表示的讲话文本语句的声音(步骤S1307)。
例如,设为让机器人1进行的感情表达为“恐惧表达”。该情况下,在步骤S1305中,主控制部105选择表达表T5(图5)中与表达X501“恐惧表达”相关联的表情X502“表情3”、讲话内容X503“啊,太可怕啦!太可怕啦!”。
该情况下,主控制部105,在步骤S1306中,控制显示信息输出控制部109(图1),使显示器108输出表示由表情X502“表情3”确定的表情的显示信息(进行第1显示)。另外,在步骤S1307中,主控制部105控制声音信息输出控制部107(图1),使扬声器106输出表示讲话内容X503“啊,太可怕啦!太可怕啦!”的声音(第1声音)。
同样地,在让机器人1进行的感情表达为“困惑表达”的情况下,主控制部105在步骤S1305~S1307中,使显示器108输出与表达表T5(图5)中的表达X501“困惑表达”相关联的、表示由表情X502“表情4”确定的表情的显示信息(进行第1显示),使扬声器106输出表示讲话内容X503“讨厌讨厌,放我下来!”的声音(第1声音)。
另外,在让机器人1进行的感情表达为“喜悦表达”的情况下,主控制部105,在步骤S1305~S1307中使显示器108输出与表达表T5(图5)中的表达X501“喜悦表达”相关联的、表示由表情X502“表情1”确定的表情的显示信息(进行第2显示),使扬声器106输出表示讲话内容X503“好!好!”的声音(第2声音)。
此外,在让机器人1进行的感情表达为“喜悦表达”的情况下,主控制部105,在步骤S1305~S1307中使显示器108输出与表达表T5(图5)中的表达X501“喜悦表达”相关联的、表示由表情X502“表达2”确定的表情的显示信息(进行第2显示),使扬声器106输出表示讲话内容X503“这儿真好啊!”的声音(第2声音)。
另外,在让机器人1进行的感情表达为“感谢表达”的情况下,主控制部105在步骤S1305~S1307中使显示器108输出与表达表T5(图5)中的表达X501“感谢表达”相关联的、表示由表情X502“表情5”确定的表情的显示信息(进行第5显示),使扬声器106输出表示讲话内容X503“谢谢!拿稳啦!”的声音(第5声音)。
在步骤S1307之后,主控制部105将用于确定这次让机器人1进行了的感情表达的标识符(例如:“喜悦表达”)和当前时刻保存于存储器110(图1)(步骤S1308)。
以上,根据第1实施方式的构成,在用户拿起了机器人1时,能够根据从位于机器人1的正下方的地板或障碍物到机器人1的位置为止的高度H1,使机器人1的感情表达发生变化。由此,在由于因用户的粗心大意等机器人1掉落并且与位于机器人1的正下方的地板或障碍物碰撞而可能发生故障的情况下,能够使机器人1进行表示该故障有可能发生之意的警告的感情表达。
(第2实施方式)
接着,对本公开的第2实施方式的机器人2进行说明。图14是示出本公开的第2实施方式的机器人2的功能构成的一例的框图。以下,对于与第1实施方式相同的构成要素标注相同的编号并省略说明,仅对与第1实施方式存在差异的部分进行说明。
首先,对机器人2的功能构成进行说明。机器人2构成为在机器人2被用户拿起之后对位于机器人2正下方的地板或障碍物的材质进行识别。因此,如图14所示,机器人2所具备的摄像头101a构成为能够取得机器人2的正下方的图像。
另外,机器人2构成为能够在机器人2被用户拿起之后对机器人2距地板或障碍物的高度H1进行测定。因此,机器人2所具备的传感器103a构成为不仅具备上述加速度传感器而且还具备上述距离传感器(第3传感器)。另外,推定机器人2的位置的必要性不复存在,因此机器人2不具备房间地图DB112(图1)和位置危险高度DB113(图1)。
(使机器人2的感情表达发生变化的控制的整体工作)
接着,对在第2实施方式中主控制部105a与机器人2的当前位置相应地使机器人2的感情表达发生变化的控制的整体工作进行说明。图15是示出使本公开的第2实施方式的机器人2的感情表达发生变化的控制的一例的流程图。
如图15所示,在第2实施方式中,与第1实施方式不同,主控制部105a不执行图6的步骤S601的位置危险高度表T3(图3)的制作处理,而执行与图6的步骤S602及S603同样的步骤S1501及S1502。并且,主控制部105a,执行与图6的步骤S604不同的处理内容的高度算出处理(步骤S1503),执行与图6的步骤S605不同的处理内容的表达决定处理(步骤S1504),并执行与步骤S606同样的步骤S1505(步骤S1505)。
(机器人2中的高度算出处理的详细情况)
接着,对步骤S1503(图15)中的高度算出处理的详细情况进行说明。图16是示出本公开的第2实施方式的高度计算处理的一例的流程图。
如图16所示,主控制部105a在开始高度算出处理时,判定在步骤S1501(图15)的用户动作判定处理中设定出的用户动作的种类是否为“搬动”(步骤S1601)。
在用户动作的种类为“搬动”的情况下(步骤S1601:“是”),主控制部105a,通过使图像处理部102执行公知的图像识别处理,从摄像头101a所取得的机器人2的正下方的图像,识别(判断)位于机器人2的正下方的地板或障碍物的材质(步骤S1603)。
另一方面,在用户动作的种类不是“搬动”的情况下(步骤S1601:“否”),主控制部105a判断为用户动作的种类为“拿起”或“放下”,直至用户动作完成为止进行待机(步骤S1602)。
具体而言,在步骤S1602中,主控制部105a,在用户动作的种类为“拿起”的情况下,在构成传感器103a(图14)的加速度传感器所检测出的Z轴方向上的加速度为正的预定阈值以下的情况下,判定为用户动作完成了。另一方面,主控制部105a,在用户动作的种类为“放下”的情况下,在所述加速度传感器所检测出的Z轴方向上的加速度成为负的预定阈值以上的情况下,判断为用户动作完成了。在用户动作完成时(步骤S1602:“是”),主控制部105a执行步骤S1603。
在步骤S1603之后,主控制部105a使构成传感器103a(图14)的距离传感器检测机器人2距地板或障碍物的高度,利用该检测出的机器人2距地板或障碍物的高度来更新所述高度H1(步骤S1604)。
(表达决定处理的详细情况)
接着,对步骤S1504(图15)中的表达决定处理的详细情况进行说明。图17是示出本公开的第2实施方式的表达决定处理的一例的流程图。如图17所示,主控制部105a在开始表达决定处理时,取得材质危险高度表T4(图4)中的与同在步骤S1603(图16)中识别出的位于机器人2的正下方的地板或障碍物的材质一致的材质X401相关联的危险高度1X402及危险高度2X403(与材质对应的高度)。并且,主控制部105a将该取得的危险高度1X402设定为变量H2(H2=危险高度1X402),将该取得的危险高度2X403设定为变量H3(H3=危险高度2X403)(步骤S1701)。
接着,主控制部105a使用在步骤S1604(图16)中更新后的机器人2距地板或障碍物的高度H1和在步骤S1701中设定出的变量H2及H3,进行与第1实施方式的步骤S1202~S1206同样的步骤S1702~步骤S1706,决定要让机器人2进行的感情表达(步骤S1702~步骤S1706)。
如以上那样,根据第2实施方式的构成,在用户拿起了机器人2时,能够与位于机器人2的正下方的地板或障碍物的材质和机器人2距该地板或障碍物的高度H1相应地使机器人2的感情表达发生变化。由此,在由于因用户的粗心大意等机器人2掉落并且与位于机器人2的正下方的地板或障碍物碰撞而可能发生故障的情况下,能够使机器人2进行表示该故障有可能发生之意的警告的感情表达。
(第3实施方式)
在第3实施方式中,对将第1实施方式的机器人1和第2实施方式的机器人2实际安装成球状的机器人3的例子进行说明。图18是本公开的第3实施方式的机器人3的外观立体图。如图18所示,机器人3具备球体状的壳体901。壳体901例如由透明的部件或半透明的部件构成。
图19是本公开的第3实施方式的机器人3的内部立体图。如图19所示,框架902配置于壳体901的内侧部。框架902具备第1旋转板903和第2旋转板904。第1旋转板903相对于第2旋转板904位于上方。
显示器108(图1、图14)具备第1显示部108a、第2显示部108b以及第3显示部108c。第1显示部108a和第2显示部108b安装在第1旋转板903的上表面。第3显示部108c安装在第2旋转板904的上表面。
第1显示部108a、第2显示部108b以及第3显示部108c例如由多个发光二极管构成。第1显示部108a、第2显示部108b以及第3显示部108c,在显示信息输出控制部109(图1、图14)的控制之下,显示表示机器人3的表情的显示信息。
具体而言,第1显示部108a、第2显示部108b以及第3显示部108c,通过独立地控制多个发光二极管的点亮,从而如图18所示,通过两眼和嘴来显示机器人3的表情。表示机器人3的表情的显示信息由机器人3的面部的左眼、右眼以及嘴的图像构成。第1显示部108a显示显示信息所包含的右眼的图像,第2显示部108b显示显示信息所包含的左眼的图像。第3显示部108c显示显示信息所包含的嘴的图像。该显示出的右眼、左眼以及嘴的图像,透射由透明或半透明的部件制成的壳体901而向外部放射。
如图19所示,摄像头101(图1、图14)安装在第1旋转板903的上表面,构成机器人3的面部的鼻子。
扬声器106(图1、图14),以输出面朝向正面的方式安装在框架902,配置于机器人3的面部的下颚的位置。如图18所示,在与机器人3的下颚相当的位置的壳体901,形成有多个小的孔。
如图19所示,在第1旋转板903的上表面安装有控制电路909。控制电路909中配置有构成图像处理部102、传感器信息取得部104、主控制部105(图1)、105a(图14)、声音信息输出控制部107(图1、图14)以及显示信息输出控制部109(图1、图14)的微型计算机。另外,控制电路909中配置有构成存储器110(图1、图14)、对话历史记录DB111(图1、图14)、房间地图DB112(图1)、位置危险高度DB113(图1)、材质危险高度DB114(图1、图14)以及表达DB115(图1、图14)的存储装置。另外,控制电路909中配置有传感器103(图1)、103a(图14)。
第1驱动轮910和第2驱动轮911分别安装在第2旋转板904的下表面,并与壳体901的内周面相接触。另外,第1驱动轮910具有使第1驱动轮910驱动的第1马达912。同样地,第2驱动轮911具有使第2驱动轮911驱动的第2马达913。即,第1驱动轮910和第2驱动轮911由分别独立的个别的马达驱动。第1驱动轮910和第2驱动轮911构成一组驱动轮。
在使第1驱动轮910和第2驱动轮911向前方方向旋转时,通过该动力,壳体901向前方方向旋转。由此,机器人3前进。相反地,在使第1驱动轮910和第2驱动轮911向后方方向旋转时,机器人3后退。另外,在使第1驱动轮910和第2驱动轮911向相互相反方向旋转时,通过该动力,壳体901进行绕通过其中心的铅垂轴旋转的旋转动作。即,机器人3就地逆时针或顺时针地进行旋转。机器人3通过这样的前进、后退或旋转动作来移动。
此外,主控制部105(图1)、105a(图14),通过控制第1马达912和第2马达913的驱动,来控制第1驱动轮910和第2驱动轮911的旋转方向和转速。由此,主控制部105(图1)、105a(图14)控制机器人3的行走。
对重914设置于第1旋转板903与第2旋转板904之间。对重914位于比壳体901的中心略靠下方的位置。因此,机器人3的重心位于壳体901的中心的下方。由此,能够使机器人3的动作稳定。此外,对重914中内置有未图示的配重驱动用马达。主控制部105(图1)、105a(图14),通过控制该驱动用马达来使对重914的位置移动,据此来控制机器人3的姿势。
另外,机器人3还具备由未图示的充电器进行充电的未图示的二次电源。
(感情表达的具体例)
以下,对机器人3的感情表达的具体例进行说明。图20是示出本公开的第3实施方式的机器人3的感情表达的一例的图。
在步骤S605(图6)、S1505(图15)的表达决定处理中,设为要让机器人3进行的感情表达被决定为表达表T5(图5)中的表达X501“恐惧表达”所表示的表达。该情况下,主控制部105(图1)、105a(图14),例如选择与表达表T5(图5)中的表达X501“恐惧表达”相关联的表情X502“表情3”、讲话内容X503“啊,太可怕啦!太可怕啦!”。
并且,主控制部105、105a控制显示信息输出控制部109(图1、图14),如图20的标号D11所图示的那样,使显示器108(第1显示部108a、第2显示部108b以及第3显示部108c)输出表示由表情X502“表情3”确定的恐惧的表情的显示信息。另外,主控制部105、105a控制声音信息输出控制部107(图1、图14),如图20的标号D11所图示的那样,使扬声器106输出表示通知危险的讲话内容X503“啊,太可怕啦!太可怕啦!”的声音。由此,机器人3进行表达X501“恐惧表达”所表示的感情表达。
另外,在步骤S605(图6)、S1505(图15)的表达决定处理中,设为要让机器人3进行的感情表达被决定为表达表T5(图5)中的表达X501“困惑表达”所表示的表达。该情况下,主控制部105(图1)、105a(图14),例如选择与表达表T5(图5)中的表达X501“困惑表达”相关联的表情X502“表情4”、讲话内容X503“讨厌讨厌,放我下来!”。
并且,主控制部105、105a控制显示信息输出控制部109(图1、图14),如图20的标号D12所图示的那样,使显示器108(第1显示部108a、第2显示部108b以及第3显示部108c)输出表示由表情X502“表情4”确定的困惑的表情的显示信息。另外,主控制部105、105a控制声音信息输出控制部107(图1、图14),如图20的标号D12所图示的那样,使扬声器106输出表示向用户请求使机器人3向更低的高度移动的讲话内容X503“讨厌讨厌,放我下来!”的声音。由此,机器人3进行表达X501“困惑表达”所表示的感情表达。
另外,在步骤S605(图6)、S1505(图15)的表达决定处理中,设为要让机器人3进行的感情表达被决定为表达表T5(图5)中的表达X501“喜悦表达”所表示的表达。该情况下,主控制部105(图1)、105a(图14)例如选择与表达表T5(图5)中的表达X501“喜悦表达”相关联的表情X502“表情1”、讲话内容X503“好!好!”。
并且,主控制部105、105a控制显示信息输出控制部109(图1、图14),如图20的标号D21所图示的那样,使显示器108(第1显示部108a、第2显示部108b以及第3显示部108c)输出表示由表情X502“表情1”确定的第1喜悦表情的显示信息。另外,主控制部105、105a控制声音信息输出控制部107(图1、图14),如图20的标号D21所图示的那样,使扬声器106输出表示对机器人3的高度进行肯定的第1讲话内容X503“好!好!”的声音。由此,机器人3进行表达X501“喜悦表达”所表示的感情表达。
此外,在步骤S605(图6)、S1505(图15)的表达决定处理中,在让机器人3进行的感情表达被决定为表达表T5(图5)中的表达X501“喜悦表达”所表示的表达的情况下,主控制部105(图1)、105a(图14)也可以例如选择与表达表T5(图5)中的表达X501“喜悦表达”相关联的表情X502“表情2”、讲话内容X503“这儿真好啊!”。
该情况下,主控制部105、105a控制显示信息输出控制部109(图1、图14),如图20的标号D22所图示的那样,使显示器108(第1显示部108a、第2显示部108b以及第3显示部108c)输出表示由表情X502“表情2”确定的第2喜悦表情的显示信息。另外,主控制部105、105a控制声音信息输出控制部107(图1、图14),如图20的标号D22所图示的那样,使扬声器106输出表示对机器人3的高度进行肯定的第2讲话内容X503“这儿真好啊!”的声音。
另外,在步骤S1302(图6)中设为要让机器人3进行的感情表达被决定为表达表T5(图5)中的表达X501“感谢表达”所表示的表达。该情况下,主控制部105(图1)、105a(图14)例如选择与表达表T5(图5)中的表达X501“感谢表达”相关联的表情X502“表情5”、讲话内容X503“谢谢!拿稳啦!”。
并且,主控制部105、105a控制显示信息输出控制部109(图1、图14),如图20的标号D3所图示的那样,使显示器108(第1显示部108a、第2显示部108b以及第3显示部108c)输出表示由表情X502“表情5”确定的笑脸的显示信息。另外,主控制部105、105a控制声音信息输出控制部107(图1、图14),如图20的标号D3所图示的那样,使扬声器106输出表示表达感谢之意的讲话内容X503“谢谢!拿稳啦!”的声音。由此,机器人3进行表达X501“感谢表达”所表示的感谢表达。
此外,上述第1至第3实施方式,只不过是本公开的实施方式的例示而已,主旨并非将本公开限定于上述第1至第3实施方式。例如,也可以是以下所示的变形实施方式。
(第1变形实施方式)
在上述第1或第2实施方式中,也可以省略步骤S1301、S1302(图13)。
(第2变形实施方式)
在第1实施方式中,也可以设为在使用位置危险高度表T3(图3)管理的位置危险高度信息中不包含危险高度2X306(图3),在使用材质危险高度表T4(图4)管理的材质危险高度信息中不包含危险高度2X403(图4)。与此相配合地,也可以省略图12所示的步骤S1202和S1203,省略步骤S1201中的变量H3的设定,并在该步骤S1201之后进行步骤1204。
同样地,在第2实施方式中,也可以设为在使用材质危险高度表T4(图4)管理的材质危险高度信息中不包含危险高度2X403(图4)。与此相配合地,也可以省略图17所示的步骤S1702、S1703,省略步骤S1701中的变量H3的设定,并在该步骤S1701之后进行步骤1704。
(第3变形实施方式)
在第1实施方式中,也可以省略图12所示的步骤S1206。同样地,在第2实施方式中,也可以省略图17所示的步骤S1706。
(第4变形实施方式)
本公开的装置不限于机器人1、2,也可以应用于由用户移动且具有与机器人1、2同样的构成的例如笔记本电脑、家电等装置。该情况下,在S601(图6)中使用的、使用位置危险高度表T3(图3)管理的位置危险高度信息和使用材质危险高度表T4(图4)管理的材质危险高度信息,也可以在外部装置中由用户编辑,通过该装置所具备的通信装置从该外部装置取得。

Claims (21)

1.一种装置,是由用户移动的装置,具备:
第1传感器,其检测所述装置的移动和移动的方向;
第2传感器,其测定所述装置在铅垂方向上的移动距离;
摄像头,其取得所述装置的周边的影像;
处理器;
显示器;以及
扬声器,
所述处理器,
基于所述第1传感器的检测结果,判断所述装置是否在铅垂方向上被移动了,
在判断为所述装置在铅垂方向上被移动了的情况下,基于所述第2传感器的检测结果,算出从位于所述装置的正下方的物体到所述装置为止的距离,
基于从所述摄像头取得的影像,测定所述装置的二维位置,
对第1表中的与所述测定出的二维位置对应的高度和所述算出的距离进行比较,所述第1表表示所述装置的二维位置和在所述二维位置处所述装置发生了掉落时可能对所述装置造成损伤的高度的对应关系,
在所述算出的距离比所述对应的高度高的情况下,使所述显示器进行第1显示,并且使所述扬声器输出第1声音,
在所述算出的距离为所述对应的高度以下的情况下,使所述显示器进行第2显示,并且使所述扬声器输出第2声音。
2.根据权利要求1所述的装置,
所述处理器,
在判断为所述装置没有在铅垂方向上被移动的情况下,
基于所述第1传感器的检测结果,判断所述装置是否在水平方向上被移动了,
在判断为所述装置在水平方向上被移动了的情况下,基于所述影像,测定所述装置的二维位置,
参照第2表,算出所述距离,所述第2表表示所述装置的二维位置和存在于所述二维位置的物体的高度的对应关系,
对所述第1表中的与所述测定出的二维位置对应的高度和所述算出的距离进行比较,
在所述算出的距离比所述对应的高度高的情况下,使所述显示器进行所述第1显示,并且使所述扬声器输出所述第1声音,
在所述算出的距离为所述对应的高度以下的情况下,使所述显示器进行所述第2显示,并且使所述扬声器输出所述第2声音。
3.根据权利要求1所述的装置,
所述显示器通过双眼和嘴来显示所述装置的表情,
所述第1显示表示恐惧或困惑的表情,
所述第1声音通知危险或向所述用户请求使所述装置向更低的高度移动。
4.根据权利要求1所述的装置,
所述显示器通过双眼和嘴来显示所述装置的表情,
所述第2显示表示喜悦的表情,
所述第2声音对所述装置的高度进行肯定。
5.根据权利要求1所述的装置,
在所述第1表中,在所述二维位置处所述装置发生了掉落时可能对所述装置造成损伤的高度包括第1高度和第2高度,所述第2高度比所述第1高度高,所述第1显示包括第3显示和第4显示,
所述第1声音包括第3声音和第4声音,
所述显示器通过双眼和嘴来显示所述装置的表情,
所述处理器,
在所述算出的距离比与所述测定出的二维位置对应的所述第1高度高并且所述算出的距离为与所述测定出的二维位置对应的所述第2高度以下的情况下,使所述显示器进行所述第3显示,并且使所述扬声器输出所述第3声音,
在所述算出的距离比与所述测定出的二维位置对应的所述第2高度高的情况下,使所述显示器进行所述第4显示,并且使所述扬声器输出所述第4声音,
所述第3显示表示困惑的表情,
所述第4显示表示恐惧的表情,
所述第3声音向所述用户请求使所述装置向更低的高度移动,
所述第4声音通知危险。
6.根据权利要求1所述的装置,
所述处理器,
还参照存储了所述装置与所述用户的对话历史记录的数据库,
判断所述对话历史记录中从当前起到预定时间之前为止所述装置是否向所述用户请求了使所述装置向铅垂上方向移动,
在判断为所述装置向所述用户请求了使所述装置向铅垂上方向移动并且所述算出的距离比所述对应的高度高的情况下,使所述显示器进行第5显示,并且使所述扬声器输出第5声音。
7.根据权利要求6所述的装置,
所述第5显示表示笑脸,
所述第5声音表达感谢之意。
8.根据权利要求1所述的装置,
所述第1传感器和所述第2传感器是对所述装置的水平方向和铅垂方向的加速度进行检测的加速度传感器。
9.一种机器人,是由用户移动的机器人,具备:
第1传感器,其检测所述机器人的移动和移动的方向;
第2传感器,其测定所述机器人在铅垂方向上的移动距离;
摄像头,其取得所述机器人的周边的影像;
处理器;
显示器;以及
扬声器,
所述处理器,
基于所述第1传感器的检测结果,判断所述机器人是否在铅垂方向上被移动了,
在判断为所述机器人在铅垂方向上被移动了的情况下,基于所述第2传感器的检测结果,算出从位于所述机器人的正下方的物体到所述机器人为止的距离,
基于从所述摄像头取得的影像,测定所述机器人的二维位置,
对第1表中的与所述测定出的二维位置对应的高度和所述算出的距离进行比较,所述第1表表示所述机器人的二维位置和在所述二维位置处所述机器人发生了掉落时可能对所述机器人造成损伤的高度的对应关系,
在所述算出的距离比所述对应的高度高的情况下,使所述显示器进行第1显示,并且使所述扬声器输出第1声音,
在所述算出的距离为所述对应的高度以下的情况下,使所述显示器进行第2显示,并且使所述扬声器输出第2声音。
10.一种方法,是使由用户移动的装置表达感情的方法,
所述装置具备:第1传感器,其检测所述装置的移动和移动的方向;第2传感器,其测定所述装置在铅垂方向上的移动距离;摄像头,其取得所述装置的周边的影像;显示器;以及扬声器,
所述方法包括:
基于所述第1传感器的检测结果,判断所述装置是否在铅垂方向上被移动了,
在判断为所述装置在铅垂方向上被移动了的情况下,基于所述第2传感器的检测结果,算出从位于所述装置的正下方的物体到所述装置为止的距离,
基于从所述摄像头取得的影像,测定所述装置的二维位置,
对第1表中的与所述测定出的二维位置对应的高度和所述算出的距离进行比较,所述第1表表示所述装置的二维位置和在所述二维位置处所述装置发生了掉落时可能对所述装置造成损伤的高度的对应关系,
在所述算出的距离比所述对应的高度高的情况下,使所述显示器进行第1显示,并且使所述扬声器输出第1声音,
在所述算出的距离为所述对应的高度以下的情况下,使所述显示器进行第2显示,并且使所述扬声器输出第2声音。
11.一种程序,是使所述装置的处理器执行权利要求10所述的方法的程序。
12.一种装置,是由用户移动的装置,具备:
第1传感器,其检测所述装置的移动和移动的方向;
第3传感器,其测定到位于所述装置的正下方的物体为止的距离;
摄像头,其取得所述装置的周边的影像;
处理器;
显示器;以及
扬声器,
所述处理器,
基于所述第1传感器的检测结果,判断所述装置是否在铅垂方向上被移动了,
在判断为所述装置在铅垂方向上被移动了的情况下,基于所述第3传感器的检测结果,算出从位于所述装置的正下方的物体到所述装置为止的距离,
基于从所述摄像头取得的影像,判断位于所述装置的正下方的物体的材质,
对表示物体的材质和在所述装置掉落于所述物体时可能对所述装置造成损伤的高度的对应关系的表中的与所述判断出的所述材质对应的高度、和所述算出的距离进行比较,
在所述算出的距离比所述对应的高度高的情况下,使所述显示器进行第1显示,并且使所述扬声器输出第1声音,
在所述算出的距离为所述对应的高度以下的情况下,使所述显示器进行第2显示,并且使所述扬声器输出第2声音。
13.根据权利要求12所述的装置,
所述处理器,
在判断为所述装置没有在铅垂方向上被移动的情况下,
基于所述第1传感器的检测结果,判断所述装置是否在水平方向上被移动了,
在判断为所述装置在水平方向上被移动了的情况下,基于所述第3传感器的检测结果,算出从位于所述装置的正下方的物体到所述装置为止的距离,
基于所述影像,判断位于所述装置的正下方的物体的材质,
对所述表中的与所述判断出的所述材质对应的高度和所述算出的距离进行比较,
在所述算出的距离比所述对应的高度高的情况下,使所述显示器进行第1显示,并且使所述扬声器输出第1声音,
在所述算出的距离为所述对应的高度以下的情况下,使所述显示器进行第2显示,并且使所述扬声器输出第2声音。
14.根据权利要求12所述的装置,
所述显示器通过双眼和嘴来显示所述装置的表情,
所述第1显示表示恐惧或困惑的表情,
所述第1声音通知危险或向所述用户请求使所述装置向更低的高度移动。
15.根据权利要求12所述的装置,
所述显示器通过双眼和嘴来显示所述装置的表情,
所述第2显示表示喜悦的表情,
所述第2声音对所述装置的高度进行肯定。
16.根据权利要求12所述的装置,
在所述表中,在所述装置掉落于所述物体时可能对所述装置造成损伤的高度包括第3高度和第4高度,所述第4高度比所述第3高度高,
所述第1显示包括第3显示和第4显示,
所述第1声音包括第3声音和第4声音,
所述显示器通过双眼和嘴来显示所述装置的表情,
所述处理器,
在所述算出的距离比所述对应的所述第3高度高并且所述算出的距离为所述对应的所述第4高度以下的情况下,使所述显示器进行所述第3显示,并且使所述扬声器输出所述第3声音,
在所述算出的距离比所述对应的所述第2高度高的情况下,使所述显示器进行所述第4显示,并且使所述扬声器输出所述第4声音,
所述第3显示表示困惑的表情,
所述第4显示表示恐惧的表情,
所述第3声音向所述用户请求使所述装置向更低的高度移动,
所述第4声音通知危险。
17.根据权利要求12所述的装置,
所述处理器,
还参照存储了所述装置与所述用户的对话历史记录的数据库,
判断所述对话历史记录中从当前起到预定时间之前为止所述装置是否向所述用户请求了使所述装置向铅垂上方向移动,
在判断为所述装置向所述用户请求了使所述装置向铅垂上方向移动并且所述算出的距离比所述对应的高度高的情况下,使所述显示器进行第5显示,并且使所述扬声器输出第5声音。
18.根据权利要求17所述的装置,
所述第5显示表示笑脸,
所述第5声音表达感谢之意。
19.一种机器人,是由用户移动的机器人,具备:
第1传感器,其检测所述机器人的移动和移动的方向;
第3传感器,其测定到位于所述机器人的正下方的物体为止的距离;
摄像头,其取得所述机器人的周边的影像;
处理器;
显示器;以及
扬声器,
所述处理器,
基于所述第1传感器的检测结果,判断所述机器人是否在铅垂方向上被移动了,
在判断为所述机器人在铅垂方向上被移动了的情况下,基于所述第3传感器的检测结果,算出从位于所述机器人的正下方的物体到所述机器人为止的距离,
基于从所述摄像头取得的影像,判断位于所述机器人的正下方的物体的材质,
对表示物体的材质和在所述机器人掉落于所述物体时可能对所述机器人造成损伤的高度的对应关系的表中的与所述判断出的所述材质对应的高度、和所述算出的距离进行比较,
在所述算出的距离比所述对应的高度高的情况下,使所述显示器进行第1显示,并且使所述扬声器输出第1声音,
在所述算出的距离为所述对应的高度以下的情况下,使所述显示器进行第2显示,并且使所述扬声器输出第2声音。
20.一种方法,是使由用户移动的装置表达感情的方法,
所述装置具备:第1传感器,其检测所述装置的移动和移动的方向;第3传感器,其测定到位于所述装置的正下方的物体为止的距离;摄像头,其取得所述装置的周边的影像;显示器;以及扬声器,
基于所述第1传感器的检测结果,判断所述装置是否在铅垂方向上被移动了,
在判断为所述装置在铅垂方向上被移动了的情况下,基于所述第3传感器的检测结果,算出从位于所述装置的正下方的物体到所述装置为止的距离,
基于从所述摄像头取得的影像,判断位于所述装置的正下方的物体的材质,
对表示物体的材质和在所述装置掉落于所述物体时可能对所述装置造成损伤的高度的对应关系的表中的与所述判断出的所述材质对应的高度、和所述算出的距离进行比较,
在所述算出的距离比所述对应的高度高的情况下,使所述显示器进行第1显示,并且使所述扬声器输出第1声音,
在所述算出的距离为所述对应的高度以下的情况下,使所述显示器进行第2显示,并且使所述扬声器输出第2声音。
21.一种程序,是使所述装置的处理器执行权利要求20所述的方法的程序。
CN201810722645.4A 2017-07-11 2018-07-04 装置、机器人、方法以及程序 Active CN109227600B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017135289A JP6854719B2 (ja) 2017-07-11 2017-07-11 装置、ロボット、方法及びプログラム
JP2017-135289 2017-07-11

Publications (2)

Publication Number Publication Date
CN109227600A true CN109227600A (zh) 2019-01-18
CN109227600B CN109227600B (zh) 2023-04-18

Family

ID=63209153

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810722645.4A Active CN109227600B (zh) 2017-07-11 2018-07-04 装置、机器人、方法以及程序

Country Status (4)

Country Link
US (1) US10507582B2 (zh)
EP (1) EP3428757A1 (zh)
JP (1) JP6854719B2 (zh)
CN (1) CN109227600B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111600528A (zh) * 2020-04-26 2020-08-28 深圳市威富智能设备有限公司 电批、电批控制方法、电批控制设备及存储介质

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7273566B2 (ja) * 2019-03-19 2023-05-15 パナソニックホールディングス株式会社 ロボット、ロボットの制御方法及びプログラム
JP6590393B1 (ja) * 2019-05-13 2019-10-16 M&Tプロジェクトパートナーズ株式会社 玩具
KR20210020312A (ko) * 2019-08-14 2021-02-24 엘지전자 주식회사 로봇 및 그의 제어 방법
US11699421B2 (en) * 2019-09-30 2023-07-11 Mr. Christmas Incorporated System for touchless musical instrument
CN117958664B (zh) * 2024-04-02 2024-06-11 追觅创新科技(苏州)有限公司 一种清洁机器人的主动越障控制方法、系统及清洁机器人

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070198128A1 (en) * 2005-09-30 2007-08-23 Andrew Ziegler Companion robot for personal interaction
CN101210800A (zh) * 2006-12-26 2008-07-02 三星电子株式会社 利用结构光来测量距离的设备和方法
CN101329362A (zh) * 2007-06-22 2008-12-24 精工爱普生株式会社 部件输送装置以及ic处理机
CN104070526A (zh) * 2013-03-29 2014-10-01 联想(北京)有限公司 智能机器
CN105818130A (zh) * 2014-12-04 2016-08-03 恩斯迈电子(深圳)有限公司 状态检测方法、机器人及移动装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5321614A (en) * 1991-06-06 1994-06-14 Ashworth Guy T D Navigational control apparatus and method for autonomus vehicles
US5995884A (en) * 1997-03-07 1999-11-30 Allen; Timothy P. Computer peripheral floor cleaning system and navigation method
WO2002094645A1 (en) * 2001-05-23 2002-11-28 Carnegie Mellon University Robotic apparatuses, systems and methods
JP2003346150A (ja) * 2002-05-24 2003-12-05 Sony Corp 床面認識装置及び床面認識方法並びにロボット装置
JP4363177B2 (ja) * 2003-01-31 2009-11-11 日本ビクター株式会社 移動ロボット
JP2004237392A (ja) * 2003-02-05 2004-08-26 Sony Corp ロボット装置、及びロボット装置の表現方法
US7689321B2 (en) * 2004-02-13 2010-03-30 Evolution Robotics, Inc. Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system
JP2005296511A (ja) * 2004-04-15 2005-10-27 Funai Electric Co Ltd 自走式掃除機
GB2414309B (en) * 2004-05-18 2009-02-25 Simon Richard Daniel Spherical display and control device
JP2009207633A (ja) * 2008-03-03 2009-09-17 Namco Bandai Games Inc 玩具
CN104248395B (zh) * 2008-04-24 2018-06-22 艾罗伯特公司 用于机器人使能的移动产品的定位、位置控制和导航系统的应用
US8961695B2 (en) * 2008-04-24 2015-02-24 Irobot Corporation Mobile robot for cleaning
KR101484940B1 (ko) * 2009-05-14 2015-01-22 삼성전자 주식회사 로봇청소기 및 그 제어방법
JP5186641B2 (ja) 2009-08-24 2013-04-17 トモデータサービス有限会社 作業支援装置および作業支援プログラム
JP5344243B2 (ja) * 2009-09-24 2013-11-20 富士通株式会社 電動ドライバの姿勢監視装置、および姿勢監視装置付き電動ドライバ
US8620489B2 (en) * 2010-12-24 2013-12-31 Microsoft Corporation Robotic drive system modularity
KR20160048492A (ko) * 2014-10-24 2016-05-04 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
KR102335186B1 (ko) * 2014-12-24 2021-12-03 삼성전자주식회사 렌즈 조립체, 이를 이용한 장애물 감지유닛, 및 이를 구비한 이동로봇
US9601007B2 (en) * 2015-01-29 2017-03-21 Floorbotics Inc. Self-propelled floor apparatus and system having a bactericidal function

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070198128A1 (en) * 2005-09-30 2007-08-23 Andrew Ziegler Companion robot for personal interaction
CN101210800A (zh) * 2006-12-26 2008-07-02 三星电子株式会社 利用结构光来测量距离的设备和方法
CN101329362A (zh) * 2007-06-22 2008-12-24 精工爱普生株式会社 部件输送装置以及ic处理机
CN104070526A (zh) * 2013-03-29 2014-10-01 联想(北京)有限公司 智能机器
CN105818130A (zh) * 2014-12-04 2016-08-03 恩斯迈电子(深圳)有限公司 状态检测方法、机器人及移动装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111600528A (zh) * 2020-04-26 2020-08-28 深圳市威富智能设备有限公司 电批、电批控制方法、电批控制设备及存储介质

Also Published As

Publication number Publication date
EP3428757A1 (en) 2019-01-16
CN109227600B (zh) 2023-04-18
JP2019014032A (ja) 2019-01-31
US20190015982A1 (en) 2019-01-17
JP6854719B2 (ja) 2021-04-07
US10507582B2 (en) 2019-12-17

Similar Documents

Publication Publication Date Title
CN109227600A (zh) 装置、机器人、方法以及程序
KR102357265B1 (ko) 게임 플레이를 통한 환경의 세부 데이터 세트 생성 방법 및 시스템
CN105407774B (zh) 自动清扫系统、清扫机器人和控制清扫机器人的方法
CN104520849B (zh) 使用外在物理表达的搜索用户界面
US20200027336A1 (en) Moving robot and control method thereof
CN109998429A (zh) 用于情境感知的移动清洁机器人人工智能
KR20200085142A (ko) 청소 공간의 지도 데이터를 생성하는 장치 및 방법
CN102622774B (zh) 起居室电影创建
CN108604118A (zh) 在增强/虚拟现实环境中的智能对象大小调整和布置
KR102463806B1 (ko) 이동이 가능한 전자 장치 및 그 동작 방법
CN107003728A (zh) 用于可穿戴可视化设备的虚拟测量工具
JP5318623B2 (ja) 遠隔操作装置および遠隔操作プログラム
KR20200078311A (ko) 로봇의 제어 방법
CN107636594A (zh) 用于处理触摸输入的设备和方法
WO2019240208A1 (ja) ロボットおよびその制御方法、ならびにプログラム
CN104364733A (zh) 注视位置检测装置、注视位置检测方法和注视位置检测程序
CN109719738A (zh) 信息处理装置、信息处理方法以及程序
JP2018510537A (ja) サーベイランス
WO2019138619A1 (ja) 情報処理装置、情報処理方法、およびプログラム
CN109859307A (zh) 一种图像处理方法及终端设备
KR20180074404A (ko) 공항용 로봇 및 그의 동작 방법
CN107533244A (zh) 头戴式设备位置监测组件
CN114432699A (zh) 虚拟房间的装饰方法、装置、设备及介质
KR20200014495A (ko) 카메라 모듈을 통해 획득한 영상에 기반하여 정보를 저장하는 방법 및 이를 사용하는 전자 장치
CN104908048A (zh) 动作推断装置、机器人以及动作推断方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant