CN111736585A - 机器人以及机器人的控制方法 - Google Patents

机器人以及机器人的控制方法 Download PDF

Info

Publication number
CN111736585A
CN111736585A CN202010064972.2A CN202010064972A CN111736585A CN 111736585 A CN111736585 A CN 111736585A CN 202010064972 A CN202010064972 A CN 202010064972A CN 111736585 A CN111736585 A CN 111736585A
Authority
CN
China
Prior art keywords
robot
action
user
obstacle
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010064972.2A
Other languages
English (en)
Other versions
CN111736585B (zh
Inventor
小川兼人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of CN111736585A publication Critical patent/CN111736585A/zh
Application granted granted Critical
Publication of CN111736585B publication Critical patent/CN111736585B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0225Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving docking at a fixed facility, e.g. base station or loading bay
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Abstract

提供一种机器人以及机器人的控制方法。处理器通过参照存储器,判断第1传感器检测到所述障碍物时机器人正执行的行动类别为多个行动类别中的哪个,判断由第1传感器检测到的障碍物的类别,基于第1传感器检测到所述障碍物时机器人正执行的行动类别以及由第1传感器检测到的障碍物的类别,决定用于增加与用户的交互的机会的第1行动和用于应对障碍物的第2行动中的某一个,控制机器人,使之执行所决定的行动。

Description

机器人以及机器人的控制方法
技术领域
本公开涉及通过与用户进行交互来相互进行意思沟通的机器人以及该机器人的控制方法。
背景技术
以往以来,提出了在机器人遇到人类的情况下决定机器人应该采取的行动的技术。
例如,专利文献1公开了如下技术:算出人类对于机器人的亲和性,基于该亲和性,计划机器人的躲避动作和对人类期待的期待躲避动作。具体而言,专利文献1公开了如下内容:老人存在对于机器人的亲和性低的倾向,因此,通过机器人侧进行大的躲避,使得不会让老人感到不安和/或不快(例如段落[0015])。
专利文献2公开了如下技术:为了减少在对机器人进行反应时行人失去步行平衡、跌倒的危险性,按照行人的脚的动作,决定机器人对行人的躲避行动以使得行人容易转换方向(例如段落[0016])。
现有技术文献
专利文献
专利文献1:日本专利第5409924号公报
专利文献2:日本特开2014-2514号公报
发明内容
然而,在上述的现有技术中,完全没有考虑增加机器人与用户意思沟通的机会,因此,需要进一步的改善。
本公开的目的在于,提供一种在尽可能增加机器人与用户意思沟通的机会的同时能够躲避障碍物的机器人以及机器人的控制方法。
本公开的一技术方案是一种机器人,通过与用户进行交互来相互进行意思沟通,具备:第1传感器,其用于检测障碍物;存储器;以及处理器,所述存储器存储多个行动类别,所述多个行动类别分别是用于使所述机器人执行预定的行动的程序,所述存储器还存储所述多个行动类别中所述机器人正在执行的行动类别,所述处理器,通过参照所述存储器,判断在所述第1传感器检测到所述障碍物时所述机器人正在执行的行动类别是所述多个行动类别中的哪个,判断由所述第1传感器检测到的所述障碍物的类别,基于在所述第1传感器检测到所述障碍物时所述机器人正执行的所述行动类别以及由所述第1传感器检测到的所述障碍物的类别,决定用于增加与所述用户的交互的机会的第1行动和用于应对所述障碍物的第2行动中的某一个,控制所述机器人,使之执行所决定的所述行动。
根据本公开,能够在尽可能增加机器人与用户意思沟通的机会同时躲避障碍物。
附图说明
图1是本公开的实施方式涉及的机器人的外观立体图。
图2是本公开的实施方式涉及的机器人的内部立体图。
图3是表示本公开的实施方式涉及的机器人以及机器人的充电中所使用的充电器的框图。
图4是表示接触信息数据库的数据构成的一例的图。
图5是表示本公开的实施方式涉及的机器人的障碍物应对处理的流程图。
图6是总结障碍物应对处理而得到的图。
标号说明
1 :机器人
100 :处理器
101 :摄像头
102 :影像处理部
103 :麦克风
104 :声音处理部
105 :传感器
106 :传感器信息处理部
107 :主控制部
108 :管理部
111 :显示部
112 :显示控制部
113 :扬声器
114 :声音控制部
115 :驱动机构
116 :驱动机构控制部
117 :充电控制部
130 :存储器
131 :接触信息数据库
132 :行动类别信息
131 :接触信息DB
具体实施方式
(发明本公开涉及的一技术方案的过程)
首先,对发明本公开涉及的一技术方案的着眼点进行说明。
本发明人研究了,通过与用户的交流,时而教育用户、时而批评用户、时而成为用户的游戏对象那样的面向幼儿的机器人。在这样的机器人中,例如尽可能增加如触碰、说话、注视、在身边、远程操作那样的机器人与用户意思沟通的机会是重要的。另一方面,检测到障碍物时,也需要采取对该障碍物进行躲避的行动。
但是,在检测到的障碍物为用户的情况下,当与障碍物为用户以外的物体的情况同样地躲避障碍物时,有可能会导致用户对机器人的亲近容易度降低,妨碍机器人与用户意思沟通的机会的增加。因此,这样的机器人在检测到障碍物的情况下,不是仅采取躲避行动,而是需要考虑障碍物是否为用户来采取适当的行动。
上述专利文献1和上述专利文献2涉及机器人的行动控制方法。
在上述专利文献1中,如上所述,当机器人与人类相遇时,基于该人类对所述机器人的亲和性,进行计划机器人的躲避动作和对人类期待的期待躲避动作的行动。
另外,在上述专利文献2中,如上所述,机器人当与行人相遇时,按照该行人的脚的动作,进行躲避该行人的行动以使得该行人容易转换方向。
然而,在上述专利文献1中,只不过公开了机器人进行考虑了与人类的亲和性的躲避行动。另外,在上述专利文献2中,只不过公开了机器人在障碍物为行人的情况下进行考虑了行人的方向转换的容易度的躲避行动。因此,专利文献1、2都完全没有考虑尽可能增加机器人与用户的意思沟通的机会。
于是,本发明人得到了如下的见解而想到了以下的本公开涉及的各技术方案,该见解是:通过根据障碍物检测时的机器人自身的行动类别的信息(例如随机行驶、向用户接近、向充电器移动、对话时的移动等)和障碍物的类别信息(例如用户、物体等)来决定机器人的行动,能够在尽可能增加机器人与用户的相互意思沟通的机会的同时使机器人躲避障碍物。
本公开的一技术方案是一种机器人,通过与用户进行交互来相互进行意思沟通,具备:第1传感器,其用于检测障碍物;存储器;以及处理器,所述存储器存储多个行动类别,所述多个行动类别分别是用于使所述机器人执行预定的行动的程序,所述存储器还存储所述多个行动类别中所述机器人正在执行的行动类别,所述处理器,通过参照所述存储器,判断在所述第1传感器检测到所述障碍物时所述机器人正在执行的行动类别是所述多个行动类别中的哪个,判断由所述第1传感器检测到的所述障碍物的类别,基于在所述第1传感器检测到所述障碍物时所述机器人正执行的所述行动类别以及由所述第1传感器检测到的所述障碍物的类别,决定用于增加与所述用户的交互的机会的第1行动和用于应对所述障碍物的第2行动中的某一个,控制所述机器人,使之执行所决定的所述行动。
根据本构成,基于在第1传感器检测到障碍物时机器人正在执行的行动类别以及由第1传感器检测到的障碍物的类别,决定用于增加与用户的交互的机会的第1行动和用于应对所述障碍物的第2行动中的某一个,通过机器人执行所决定的行动。
由此,例如能够根据障碍物的类别是用户还是物体来适当地对用于增加与用户的交互的第1行动和用于应对障碍物的第2行动进行切换。其结果,本构成能够在尽可能增加机器人与用户的意思沟通的机会的同时躲避障碍物。
在上述技术方案中,也可以为,所述处理器,在所述第1传感器检测到所述障碍物时所述机器人正在执行的所述行动类别为所述机器人向所述用户移动的行动、且由所述第1传感器检测到的障碍物的类别为所述用户以外的物体时,决定表示希望除去所述障碍物的所述第1行动。
根据本构成,在机器人执行向用户移动的行动期间检测到用户以外的物体时,不是就那样地直接采取躲避障碍物的行动,而是采取表示希望用户除去障碍物的第1行动。由此,机器人能够在实现与用户意思沟通的机会增加的同时躲避障碍物。
在上述技术方案中,也可以为,所述处理器,在所述第1传感器检测到所述障碍物时所述机器人正在执行的所述行动类别为所述机器人向所述用户移动的行动、且由所述第1传感器检测到的障碍物的类别为所述用户时,决定引起与所述用户的对话的所述第1行动。
根据本构成,在机器人执行向用户移动的行动的期间检测到用户时,不采取躲避用户的行动,而采取引起与用户的对话的第1行动。由此,能够在周围存在用户的状况下,使机器人与用户的意思沟通的机会增加。
在上述技术方案中,也可以为,所述处理器,在所述第1传感器检测到所述障碍物时所述机器人正在执行的所述行动类别为所述机器人向充电台移动的行动、且由所述第1传感器检测到的障碍物的类别为所述用户以外的物体时,决定躲避所述障碍物的所述第2行动。
根据本构成,在机器人例如因电力不足而向充电台移动的期间检测到用户以外的物体的情况下,采取躲避物体的第2行动。因此,能够在电力不足时躲避物体而迅速地向充电台移动,能够防止机器人的电池用尽。
在上述技术方案中,也可以为,所述处理器,在所述第1传感器检测到所述障碍物时所述机器人正在执行的所述行动类别为所述机器人向充电台移动的行动、且由所述第1传感器检测到的障碍物的类别为所述用户时,决定表示希望使所述机器人向所述充电台移动的所述第1行动。
根据本构成,在机器人例如因电力不足而向充电台移动的期间检测到用户的情况下,不采取躲避用户的行动,而采取催促用户使用户将机器人向充电台移动的第1行动。由此,能够对用户引起将机器人搬运到充电台,能够在增加与用户的意思沟通的机会的同时防止机器人的电池用尽。
在上述技术方案中,也可以为,所述处理器,在所述第1传感器检测到所述障碍物时所述机器人正在执行的所述行动类别为所述机器人随机地移动的行动、且由所述第1传感器检测到的障碍物的类别为所述用户以外的物体时,决定躲避所述障碍物的所述第2行动。
根据本构成,在随机行驶期间作为障碍物而检测到用户以外的物体的情况下,采取躲避障碍物的第2行动。由此,例如在机器人的周围没有用户的可能性高、机器人与用户实现意思沟通的必要性低的状况下,能够防止机器人与用户以外的物体碰撞而双方或者某一方损坏。
在上述技术方案中,也可以为,所述处理器,在所述第1传感器检测到所述障碍物时所述机器人正在执行的所述行动类别为所述机器人随机地移动的行动、且由所述第1传感器检测到的障碍物的类别为所述用户时,决定引起与所述用户的对话的所述第1行动。
根据本构成,在随机行驶期间作为障碍物而检测到用户的情况下,采取引起与用户的对话的第1行动。由此,例如在用户对于机器人的兴趣不那么高的状况下,从机器人一侧对用户实现意思沟通的接洽(approach),能够使用户对该接洽进行应答,由此,能够使机器人与用户意思沟通的机会增加。
在上述技术方案中,也可以为,所述处理器,在所述第1传感器检测到所述障碍物时所述机器人正在执行的所述行动类别为所述机器人与所述用户进行对话的行动、且由所述第1传感器检测到的障碍物的类别为所述用户以外的物体时,决定表示希望除去所述障碍物的所述第1行动。
根据本构成,在与用户对话期间作为障碍物而检测到物体的情况下,不采取躲避障碍物的行动,而采取表示希望除去障碍物的第1行动。由此,机器人能够对用户催促除去障碍物的行动,能够在实现与用户的意思沟通的同时躲避障碍物。
在上述技术方案中,也可以为,所述处理器,在所述第1传感器检测到所述障碍物时所述机器人正在执行的所述行动类别为所述机器人在与所述用户进行对话时前进的行动、且由所述第1传感器检测到的障碍物的类别为所述用户时,决定所述机器人为接近了所述用户感到喜悦的所述第1行动。
根据本构成,能够在与用户对话期间采取了机器人前进的行动时作为障碍物而检测到用户的情况下,使机器人采取对与用户的接近感到喜悦的第1行动。由此,能够使用户感到容易亲近,能够使用户与机器人的意思沟通的机会增加。
在上述技术方案中,所述处理器,在所述第1传感器检测到所述障碍物时所述机器人正在执行的所述行动类别为所述机器人随机地移动的行动、由所述第1传感器检测到的障碍物的类别为所述用户、且所述用户为成人时,决定表示希望从所述机器人离开的所述第1行动。
根据本构成,在随机行驶期间作为障碍物而检测到成人的用户的情况下,采取表示希望该用户从机器人离开的第1行动。由此,能够在实现与成人的意思沟通的同时躲避用户。
在上述技术方案中,也可以为,还具备:摄像头,其取得所述机器人周边的信息;麦克风,其取得所述机器人周边的声音;以及第2传感器,其用于对所述机器人正在被所述用户触碰这一情况进行检测,所述处理器,在所述第1传感器检测到所述障碍物时所述机器人正在执行的所述行动类别为所述机器人向所述用户移动的行动或所述机器人随机地移动的行动、由所述第1传感器检测到的障碍物的类别为所述用户、且基于由所述摄像头取得的信息、由所述麦克风取得的声音以及所述第2传感器的检测结果中的任一方算出的与所述用户的接触量为阈值以上时,决定所述机器人躲避所述用户的所述第2行动。
根据本构成,在向用户移动期间或者随机行驶期间作为障碍物而检测到用户、进而根据摄像头取得的信息、麦克风取得的声音以及对机器人正在被人类触碰进行检测的第2传感器的检测结果得到的用户与机器人的接触量为阈值以上的情况下,采取躲避用户的行动。由此,例如能够满足用户与机器人的接触量为阈值以上、且不希望机器人进一步对用户实现意思沟通的用户的保护者的期望。在此,接触量是表示用户与机器人的交互的多少的量,例如是接触时间、接触次数等。接触不仅包括触碰、抚摸等的物理上的接触,也包括谈话、位于旁边等的间接的接触。
在上述技术方案中,也可以为,表示希望从所述机器人离开的所述第1行动包括进行表示希望从所述机器人离开的举止。
根据本构成,采取了希望从机器人离开的举止来作为第1行动,因此,能够委婉地对用户传达该意思。
在上述技术方案中,也可以为,还具备:扬声器,其输出声音;和显示器,其显示信息,表示希望从所述机器人离开的所述第1行动包括(i)输出表示希望从所述机器人离开的声音以及(ii)输出表示希望从所述机器人离开的影像中的至少任一方。
根据本构成,使用声音和影像中的任一方对用户传达希望从机器人离开的意思,因此,能够对用户准确地传达该意思。
在上述技术方案中,也可以为,还具备:扬声器,其输出声音;和显示器,其显示信息,表示希望除去所述障碍物的所述第1行动包括进行表示希望除去所述障碍物的举止。
根据本构成,采用了表示希望除去障碍物的举止来作为第1行动,因此,能够委婉地对用户传达该意思。
在上述技术方案中,也可以为,还具备:扬声器,其输出声音;和显示器,其显示信息,表示希望除去所述障碍物的所述第1行动包括(i)从所述扬声器输出表示希望除去所述障碍物的声音以及(ii)在所述显示器显示表示希望除去所述障碍物的信息中的至少任一方。
根据本构成,使用声音和影像中的任一方,对用户传达希望除去障碍物的意思,因此,能够对用户准确地传达该意思。
在上述技术方案中,也可以为,引起与所述用户的对话的所述第1行动包括(i)使所述机器人接触所述用户以及(ii)使所述机器人左右摇晃中的至少任一方。
根据本构成,作为引起与用户的对话的第1行动,采用了机器人与用户接触、进行机器人左右摇晃的动作的行动,因此,通过使机器人采用如死乞白赖地请求那样的动作,能够引起与用户的对话。
在上述技术方案中,也可以为,还具备:扬声器,其输出声音;显示器,其显示信息;以及麦克风,其取得所述机器人周边的声音,引起与所述用户的对话的所述第1行动包括(i)从所述扬声器输出引起与所述用户的对话的声音、(ii)使所述显示器朝向所述用户以及(iii)使所述麦克风朝向所述用户中的至少任一方。
根据本构成,能够通过声音和影像中的至少一方来对用户准确地传达对话的意思表示,并且,能够通过使麦克风朝向用户来准确地取得来自用户的话语。
在上述技术方案中,也可以为,表示希望使所述机器人向所述充电台移动的所述第1行动包括进行表示希望使所述机器人向充电台移动的举止。
根据本构成,采用了表示希望向充电台移动的举止来作为第1行动,因此,能够委婉地对用户传达该意思。
在上述技术方案中,也可以为,还具备:扬声器,其输出声音;和显示器,其显示信息,表示希望使所述机器人移动到所述充电台的所述第1行动包括(i)从所述扬声器输出表示希望使所述机器人向所述充电台移动的声音以及(ii)在所述显示器显示表示希望使所述机器人向所述充电台移动的信息中的至少任一方。
根据本构成,利用声音和影像中的任一方,对用户传达希望将其向充电台移动的意思,因此,能够对用户准确地传达该意思。
在上述技术方案中,也可以为,所述机器人为接近了所述用户感到喜悦的所述第1行动包括(i)进行表示所述机器人为接近了所述用户感到喜悦的举止。
根据本构成,通过为接近了用户感到喜悦的举止,该喜悦被传达给用户,因此,能够委婉地向用户传达该喜悦。
在上述技术方案中,也可以为,还具备:扬声器,其输出声音;和显示器,其显示信息,所述机器人为接近了所述用户感到喜悦的所述第1行动包括(i)从所述扬声器输出表示所述机器人为接近了所述用户感到喜悦的声音以及(ii)在所述显示器显示表示所述机器人为接近了所述用户感到喜悦的信息中的至少任一方。
根据本构成,利用声音和影像中的任一方,向用户传达接近了用户的喜悦,因此,能够对用户准确地传达该喜悦。
本公开也可以作为使计算机执行这样的机器人所包含的特征性的各构成的程序或者通过该程序进行动作的机器人的控制方法来实现。另外,不言而喻,也可以使这样的程序经由CD-ROM等计算机可读取的非瞬时性的记录介质或者互联网等通信网络进行流通。
(实施方式)
以下,参照附图对本发明的实施方式进行说明。以下说明的实施方式表示本发明的一具体例。以下的实施方式中表示的数值、形状、构成要素、步骤、步骤的顺序等是一个例子,并不是意在限定本发明。另外,关于以下的实施方式的构成要素中的未记载于表示最上位概念的独立权利要求中的构成要素,作为任意的构成要素来进行说明。
首先,参照图1以及图2对本公开的实施方式涉及的机器人的外观的详情进行说明。图1是本公开的实施方式涉及的机器人的外观立体图,图2是本公开的实施方式涉及的机器人的内部立体图。
如图1所示,机器人1具备球体状的主壳体121、第1球冠部122以及第2球冠部123。主壳体121、第1球冠部122以及第2球冠部123作为整体构成球体。即,机器人1具有球体形状。机器人1一边在预定的空间中进行二维移动,一边与用户进行接触。第1球冠部122以及第2球冠部123由设置于主壳体121的轴(未图示)连结。另一方面,轴和主壳体121不固定。因此,通过使主壳体121绕轴旋转,机器人1前进或者后退。
另外,如图1所示,机器人1在第1球冠部122具备摄像头101和麦克风103。进一步,在主壳体121的内部设置有扬声器113。扬声器113输出机器人1的声音。摄像头101取得机器人1的周边环境的影像。麦克风103取得机器人1的周边环境的声音。此外,扬声器113也可以设置在第1球冠部122和第2球冠部123中的任一方。在本技术方案中,机器人1在第1球冠部122具备摄像头101,但不限于此,在第1球冠部122和第2球冠部123中的至少一方具备摄像头101即可,但通过对摄像头101的配置部位以及个数进行调整,能够取得机器人1的周围360度的影像。在本技术方案中,机器人1在第1球冠部122具备麦克风103,但不限于此,在第1球冠部122和第2球冠部123中的任一方具备麦克风103即可。
如图2所示,机器人1在主壳体121的内部具备第1显示部111a、第2显示部111b以及第3显示部111c。第1显示部111a、第2显示部111b、以及第3显示部111c配置于固定金属板125。固定金属板125经由臂126安装于轴。第1显示部111a、第2显示部111b以及第3显示部111c例如由多个发光二极管构成。第1显示部111a、第2显示部111b以及第3显示部111c显示机器人1的表情。具体而言,第1显示部111a、第2显示部111b以及第3显示部111c通过个别地控制多个发光二极管的点亮,如图1所示那样显示机器人1的面部的一部分、例如眼睛和嘴。在图1以及图2的例子中,第1显示部111a显示右眼的图像,第2显示部111b显示左眼的图像,第3显示部111c显示嘴的图像。并且,右眼、左眼以及嘴的图像通过由透明或者半透明的部件形成的主壳体121而出射到外部。
如图2所示,机器人1在主壳体121内部的下方具备重物127。因此,机器人1的重心位于比主壳体121的中心靠下方的位置。由此,能够使机器人1的动作稳定。
接着,参照图3对本公开的实施方式涉及的机器人1的内部电路的详情进行说明。图3是表示本公开的实施方式涉及的机器人1以及机器人1的充电中使用的充电器2的框图。
如图3所示,机器人1具备摄像头101、麦克风103、传感器105、电源109、显示部111、扬声器113、驱动机构115、处理器100以及存储器130。处理器100具备影像处理部102、声音处理部104、传感器信息处理部106、主控制部107、管理部108、电源控制部110、显示控制部112、声音控制部114、驱动机构控制部116。另外,充电器2具备充电控制部117。处理器100例如是CPU等的电子电路,存储器130例如是非易失性的半导体存储器。
摄像头101取得机器人1的周边环境的影像。麦克风103取得机器人1的周边环境的声音声音。传感器105例如由距离传感器、热图像传感器、照度传感器、陀螺仪传感器、加速度传感器、地磁传感器、感压传感器、接近传感器、指纹认证传感器、静脉认证传感器等构成。由传感器105取得的信息包括表示机器人1的周边环境的信息以及用户对机器人1的操作信息等。表示周边环境的信息例如从距离传感器、热图像传感器、照度传感器等获得,操作信息例如从陀螺仪传感器、加速度传感器、地磁传感器、感压传感器、接近传感器、指纹认证传感器、静脉认证传感器等获得。此外,构成传感器105的距离传感器、热图像传感器、指纹认证传感器、摄像头101、麦克风103是用于检测障碍物的第1传感器的一个例子。另外,构成传感器105的陀螺仪传感器、加速度传感器、地磁传感器、感压传感器、接近传感器、指纹认证传感器、静脉认证传感器是检测机器人正在被人类触碰的第2传感器的一个例子。
影像处理部102从由摄像头101取得的影像解析障碍物的类别(例如用户以及物体等)、位置、大小、障碍物为用户的情况下的表情的种类、属性信息(例如用户ID以及年龄段等),将解析结果作为影像解析结果存储于存储器130,由此从而对影像解析结果进行管理。表情的种类例如包括“笑的脸”以及“惊讶的脸”等的肯定性的表现、和“悲伤的脸”以及“讨厌的脸”等的否定性的表现。
声音处理部104从由麦克风103取得的声音解析用户声音的有无、声音的种类以及属性信息(例如用户ID、年龄段等),将解析结果作为声音解析结果存储于存储器130,由此对声音解析结果进行管理。声音的种类例如包括“喜欢”以及“再玩一会”等的肯定性的表现、和“讨厌”以及“去那边”等的否定性的表现等。
传感器信息处理部106从由传感器105取得的表示周边环境的信息,解析障碍物的类别(例如用户、物体等)、位置、大小以及从机器人1到障碍物的距离等。另外,传感器信息处理部106从由传感器105取得的操作信息,解析用户的操作时间、操作次数、操作的种类等。并且,传感器信息处理部106通过将这些解析结果作为传感器解析结果存储于存储器130,对传感器解析结果进行管理。操作的种类例如包括“触碰”、“抚摸”等的肯定性的表现和“拍打”、“弹拨”等的否定性的表现。操作的种类例如基于构成传感器105的感压传感器的波形模式而被识别。
例如根据由传感器信息处理部106得到的信息检测障碍物,通过影像处理部102解析包含该障碍物的影像,解析障碍物是为物体、还是为用户的类别。另外,在障碍物的类别为用户的情况下,通过由影像处理部102解析(例如面部认证、表情检测处理等)包含该用户的影像,从而解析用户的表情、用户的属性信息等。
但是,这是一个例子,用户的属性信息例如既可以通过由声音处理部104对由麦克风103取得的声音进行声纹认证来取得,也可以由传感器信息处理部106对构成传感器105的指纹认证传感器或者静脉传感器取得的信息进行解析来取得用户的属性信息。另外,对于障碍物是为用户、还是为物体的判别,例如也可以通过传感器信息处理部106解析由构成传感器105的热图像传感器取得的信息表示的障碍物的温度分布来进行。
另外,机器人1由充电器2充电。电源109例如是由充电器2充电的锂离子电池等的二次电池,是机器人1的电力源。电源控制部110通过充电器2的充电控制部117的控制,管理蓄积于电源109的电力。
具体而言,电源控制部110通过将表示机器人1的电力状态是否为充电中的充电中标志和电源109的电力剩余量的信息存储于存储器130,对电源109进行管理。进一步,电源控制部110从存储器130读出所述充电中标志和所述电力剩余量的信息并输出给主控制部107。进一步,电源控制部110在机器人1连接于充电器2的情况下与充电器2的充电控制部117一起控制对电源109的充电。
管理部108通过将表示机器人1当前的行动类别的行动类别信息132存储于存储器130,对机器人1的行动类别进行管理。在本实施方式中,行动类别例如区分为随机行驶、向用户接近、向充电器移动以及对话时的移动这四个,但本公开不限定于此,既可以区分为三个,也可以区分为五个以上。另外,行动类别不限定于上述四个,也可以采用其他行动类别。
在此,随机行驶例如是指:机器人1一边随机前后行进、左右转弯、改变行驶速度,一边进行行驶。随机行驶例如是在不给予机器人1任务的状况下执行的行动类别,是机器人1的基本状态。由此,机器人1即使是在没有被给予任务的状况下也为自主地进行行动,能够犹如宠物那样行动。此外,任务是指为了实现某些目的而让机器人1进行的工作,例如是与用户对话、向用户接近以及向充电台移动等。
向用户接近例如是指在机器人1发现了用户的情况下接近到用户的旁边。向用户接近例如在随机行驶期间机器人1检测到用户的情况下执行。在电源109的电力剩余量变为预定值以下的情况下执行向充电器2移动。在向充电器2移动中,机器人1为了对电源109进行充电,搜索充电器2来移动到充电器2。此外,对于向充电器2移动,例如为了防止机器人1的电池用尽而比其他行动类别更优先地执行。
对话时的移动例如是机器人1与用户对话的情况下的机器人1的移动。机器人1执行事先安装的由预定的表情、声音以及动作构成的谈话的程序或者游戏的程序,与用户进行对话。在此,谈话的程序例如包括将孩子作为对象的自我介绍、打招呼、天气预报、日程确认、闲谈等。游戏的程序例如包括将孩子作为对象的单词连珠游戏、猜谜、猜拳、绘本等的读讲、照料游戏、唱歌、捉迷藏、生活习惯行动的促进等。
进一步,管理部108将作为机器人1与用户的接触的历史记录的接触信息储存于接触信息DB(数据库)131,对接触信息进行管理。图4是表示接触信息数据库131的数据构成的一个例子的图。接触信息数据库131是对一行分配一个接触信息的数据库,将与成为机器人1的接触对方的用户有关的信息和接触内容相关联来进行存储。
在此,“接触”是指用户处于机器人1的旁边、用户看着机器人1、用户与机器人1说话、用户触碰机器人1、用户通过遥控器操作、手势操作、或者打拍子的声音等对机器人1进行远程操作。即,“接触”不仅包含用户与机器人1的物理上的接触,也包含用户与机器人1的间接的接触,是指为了实现意思沟通的用户与机器人的交互(interaction,互动)。
具体而言,接触信息DB131将“接触日期时间”、“接触对方”以及“接触内容”相关联并储。“接触日期时间”表示机器人1与用户接触时的开始时刻和结束时刻。从存储于“接触日期时间”的开始时刻到结束时刻为止的时间成为机器人1与用户的接触时间。
“接触对方”表示与同机器人1进行了接触的用户有关的信息,包括“用户ID”、“用户的种类”以及“用户的表情”的列。“用户ID”是与机器人1进行了接触的用户的标识符。“用户ID”例如是对居住在机器人1所在的家庭中的一个以上的用户分别事先赋予的ID。管理部108经由主控制部107取得影像处理部102的影像解析结果表示的用户ID并记录于“用户ID”的列。
“用户的种类”是与机器人1进行了接触的用户的属性信息。在此,作为“用户的种类”例如采用了孩子或者大人,但这是一个例子,例如既可以采用如母亲、父亲、长子、长女这样的属性信息,也可以采用年龄段,还可以采用男性以及女性。管理部108经由主控制部107取得影像处理部102的影像结果所包含的用户的种类,并记录于“用户的种类”的列。
“用户的表情”表示机器人1与用户接触时的用户的表情的种类。在此,作为“用户的表情”,例如包括“笑脸”、“惊讶的脸”等的肯定性的表现和“悲伤的脸”、“讨厌的脸”、“生气的脸”等的否定性的表现等。管理部108经由主控制部107取得影像处理部102的影像解析结果所包含的表情的种类,并记录于“用户的表情”的列。
“接触内容”表示用户与机器人1的接触的内容。在此,“接触内容”例如包括“拍打机器人”、“抚摸机器人”、“搓机器人”、“用遥控器操作机器人”等的用户对机器人1的操作、和“喜欢”、“再玩一会吧”、“讨厌”、“去那边”等的用户对机器人1的说话内容等。进一步,“接触内容”包括“看着机器人”、“位于机器人的旁边”、“打拍子”等的用于实现交互的用户相对于机器人1的行动等。管理部108例如经由主控制部107取得传感器信息处理部106的传感器解析结果所包含的操作的种类、声音处理部104的声音解析结果所包含的声音的种类以及影像处理部102的影像解析结果所包含的表情的种类,并记录于接触内容的列。
另外,接触信息数据库131也可以包括机器人1与用户的接触时间或者接触次数等的列。接触时间通过记录在“接触日期时间”的列的开始时刻与结束时刻之差来获得。接触次数例如是一次接触中的用户对机器人1的操作次数。例如,“拍打机器人”的接触次数是用户拍打机器人1的次数,“抚摸机器人”的接触次数是用户抚摸机器人1的次数。
显示部111由图2所示的第1显示部111a、第2显示部111b、第3显示部111c构成。显示部111例如由以预定间隔排列的多个发光二极管构成,输出表示机器人1的表情的显示信息。具体而言,显示部111通过个别地控制多个发光二极管的点亮,显示机器人1的面部的一部分、例如眼睛和嘴。
显示控制部112输出用于使得从显示部111输出与从主控制部107输出的行动控制命令相应的显示信息的显示信号。由此,显示部111输出机器人1的表情。
声音控制部114输出用于使得从扬声器113输出与从主控制部107输出的行动控制命令相应的声音的声音信号。由此,扬声器113输出机器人1的声音。
驱动机构115例如由多个马达、框架、齿轮、驱动带、轴等构成,使机器人1动作。具体而言,驱动机构115通过控制多个马达,改变机器人1的面部的方向,使之移动。
例如参照图2,多个马达包括使主壳体121旋转来使机器人1行驶的第1马达、使重物127绕前后方向旋转来使机器人1的姿势向左右方向倾斜的第2马达、使臂126绕轴旋转而使机器人的眼睛和嘴向上方或者下方倾斜的第3马达。框架悬挂于轴,容纳多个马达、齿轮以及驱动带。多个齿轮卷绕有驱动带,将第3马达的旋转力传递到臂126。
具体而言,驱动机构115通过按照来自驱动机构控制部116的驱动信号驱动第1马达~第3马达,使机器人1行驶,使机器人1转弯,使机器人1的眼睛和嘴向上方或者下方倾斜。此外,从后方向前方看,机器人1通过使重物127向右方倾斜并前进来进行右转弯,通过使重物向左方倾斜并前进来进行左转弯。
驱动机构控制部116根据从主控制部107输出的行动控制命令,输出用于使机器人1的驱动机构115运转的控制信号。由此,驱动机构115使机器人1进行与行动控制命令相应的动作。
主控制部107从影像处理部102取得影像解析结果。主控制部107从声音处理部104取得用户的声音解析结果。主控制部107从传感器信息处理部106取得传感器解析结果。主控制部107从管理部108取得行动类别信息132。
主控制部107根据从影像处理部102取得的影像解析结果所包含的用户的识别结果、从声音处理部104取得的用户的声音识别结果、以及从传感器信息处理部106取得的用户的操作识别结果,决定“接触日期时间”、“接触对方”以及“接触内容”而生成接触信息,并输出至管理部108。进一步,主控制部107在后述的障碍物应对处理时,从管理部108取得成为接触对方的用户的接触信息。
主控制部107从电源控制部110取得电源109的电力状态的充电中标志(flag)和电力剩余量的信息。
主控制部107基于来自影像处理部102的影像解析结果、来自传感器信息处理部106的传感器解析结果以及从管理部108取得的信息,生成行动控制命令,并输出至显示控制部112、声音控制部114、驱动机构控制部116。关于所述行动控制命令的内容的详情,将在后面进行说明。
主控制部107从电源控制部110定期地取得充电中标志,在充电中标志为OFF(非激活)的情况下、即机器人1的电力状态不是充电中的情况下,进行在后面用图5说明的障碍物应对处理。此外,进行障碍物应对处理的条件并不限于此。也可以为:除了充电中标志以外,主控制部107例如还从电源控制部110定期地取得电源109的电力剩余量的信息,在充电中标志为OFF、且电力剩余量的信息表示的电力剩余量为预定值以上的情况下,进行如下所述的障碍物应对处理。
接着,参照图5对本公开的实施方式涉及的机器人1的障碍物应对处理进行说明。图5是表示本公开的实施方式涉及的机器人1的障碍物应对处理的流程图。
首先,主控制部107从传感器信息处理部106取得传感器解析结果,判断是否由传感器105在距机器人1预定距离内检测到障碍物(S201)。作为预定距离,为机器人1能够与用户取得互动(interaction)的预先确定的距离。
主控制部107在由传感器105在距机器人1预定距离内未检测到障碍物的情况(S201中为“否”的情况)下,结束障碍物应对处理。
另一方面,主控制部107在由传感器105在距机器人1预定距离内检测到障碍物的情况(S201中为“是”的情况)下,向驱动机构控制部116输出停止机器人1的行驶的行动控制命令(S202)。在该情况下,主控制部107也可以在该行动控制命令的基础上,还分别向显示控制部112和声音控制部114输出用于使显示部111的位于再现预定表情(例如惊讶的脸、悲伤的脸等)的坐标的多个发光二极管点亮的行动控制命令、和使机器人1发出预定声音(例如“哎呀”、“危险、危险”、“好像有什么”等)的行动控制命令。
接着,主控制部107从管理部108取得步骤S202中的机器人1即将停止行驶之前的机器人1的行动类别信息132(例如随机行驶、向用户接近、向充电器移动、对话时的移动等)(S203)。
接着,主控制部107根据从影像处理部102取得的对于摄像头101取得的影像的影像解析结果所包含的障碍物的类别(例如用户、物体等),判断通过步骤S201检测到的障碍物的类别是否为用户(S204)。
在该流程中,在S204中,主控制部107只是停留在进行障碍物是人物、还是物体的判别,不需要连用户ID等的用户的属性信息都进行确定。但是,这是一个例子,在采用参照后述的接触信息DB131的技术方案的情况下,主控制部107在S204中确定用户的属性信息。
另外,在该流程中,如步骤S201和步骤S204所示,障碍物的检测和用户的检测是分开实施的,但这是一个例子,障碍物的检测和用户的检测也可以在步骤S201中同时实施。
例如,在步骤S201中,在由传感器105检测到障碍物的情况下,主控制部107使影像处理部102对摄像头101的影像进行解析,从影像处理部102取得该影像解析结果,判定由传感器105检测到的障碍物是否为用户即可。
或者设为:在步骤S201中,在由传感器105检测到障碍物时,作为障碍物的用户正在说话。在该情况下,主控制部107也可以根据声音解析结果所包含的属性信息识别用户。
在步骤S204的判断结果表示障碍物为用户的情况(S204中为“是”的情况)下,主控制部107根据通过步骤S203取得的行动类别信息132,判断机器人1当前的行动类别是否为“随机行驶”(S205)。
在步骤S205的判断结果为“随机行驶”的情况(S205中为“是”的情况)下,主控制部107对显示控制部112和声音控制部114输出机器人1对用户实施“对话诱导说话”的行动控制命令(S206),结束障碍物应对处理。
“随机行驶”中的“对话诱导说话”的具体例如下。如在图6的表H6的第1行第1列目所示,主控制部107对显示控制部112输出使显示部111的位于能够再现进行请求的表情(例如“^^”的形状的双眼等)的坐标的多个发光二极管点亮的行动控制命令。另外,如图6的表H6的第1行第1列所示,主控制部107例如向声音控制部114输出使机器人1说出“一起玩吧”等的机器人1诱导用户成为对话的对象的内容的声音的行动控制命令。并且,当全部行动控制命令的输出完成时,主控制部107结束障碍物应对处理。
这样,在本实施方式中,在“随机行驶”期间,机器人1检测到的障碍物为用户的情况下,不躲避障碍物、即用户而对用户进行促进对话的“对话诱导说话”。由此,能够尽可能增加机器人1与用户的意思沟通的机会。
此外,在此说明的机器人1的表情和声音是一个例子,并不限于此。例如,主控制部107也可以仅将使机器人1发出声音的行动控制命令输出给声音控制部114。在该情况下,单凭从扬声器113输出的声音,实现机器人1与用户的意思沟通。另外,主控制部107也可以向显示控制部112仅输出将机器人1要说的声音进行文本化后的文本信息作为表情来显示的行动控制命令。在该情况下,单凭显示于显示部111的文本信息,实现机器人1与用户的意思沟通。另外,主控制部107也可以向显示控制部112以及声音控制部114输出使机器人1要说的声音及其声音的文本信息这两方进行输出的行动控制命令。在该情况下,实现使用了声音以及文本信息的机器人1与用户的意思沟通。
进一步,主控制部107也可以在机器人1的声音和表情的基础上,向驱动机构控制部116输出使机器人1采取预定动作(例如左右摇晃、上下点头等)的行动控制命令。在该情况下,机器人1能够也使用动作来更有效地诱导用户成为对话的对象。另外,主控制部107也可以不仅输出诱导其成为对话的对象的行动控制命令,还输出以下的行动控制命令。即,主控制部107例如也可以输出使机器人1的主体温柔地触碰用户、机器人1通过使显示部111朝向用户一方来作出看用户的面部的表情、在用户的旁边摇晃、使机器人1的麦克风103(耳部)朝向用户的方向等、不伴随着说话的用于诱导意思沟通的行动控制命令。
另一方面,在步骤S205中的判断结果不是“随机行驶”的情况(S205中为“否”的情况)下,主控制部107根据通过步骤S203取得的行动类别信息132,判断机器人1当前的行动类别是否为“向用户接近”(S207)。
在步骤S207中的判断结果为“向用户接近”的情况(S207中为“是”的情况)下,在进入前述的步骤S206而进行了“对话诱导说话”之后,障碍物应对处理结束。
另一方面,在步骤S207中的判断结果不是“向用户接近”的情况(S207中为“否”的情况)下,主控制部107根据通过步骤S203取得的机器人1的行动类别信息132,判断机器人1当前的行动类别是否为“向充电器移动”(S208)。
在步骤S208中的判断结果为“向充电器移动”的情况(S208中为“是”的情况)下,主控制部107向显示控制部112和声音控制部114输出机器人1对用户实施“充电器设置诱导说话”的行动控制命令(S209),结束障碍物应对处理。
充电器设置诱导说话的具体例为以下那样。如图6的表H6的第3行第1列所示,主控制部107对显示控制部112输出使显示部111的位于能够再现请求帮助的表情(例如“><”的形状的双眼等)的坐标的多个发光二极管点亮的行动控制命令。另外,如图6的表H6的第3行第1列所示,主控制部107例如向声音控制部114输出使机器人1说出“回到充电器”等的机器人1诱导用户将其搬回到充电器2的内容的声音的行动控制命令。并且,当全部行动控制命令的输出完成时,主控制部107结束障碍物应对处理。
这样,在本实施方式中,在“向充电器移动”期间,机器人1检测到的障碍物为用户的情况下,不躲避障碍物、即用户,而催促用户将其搬到充电器2。由此,能够尽可能增加机器人1与用户的意思沟通的机会。
此外,在此说明的机器人1的表情和声音为一个例子,并不限于此。例如,主控制部107也可以仅将使机器人1发出声音的行动控制命令输出给声音控制部114。在该情况下,单凭从扬声器113输出的声音,实现机器人1与用户的意思沟通。另外,主控制部107也可以向显示控制部112仅输出对机器人1要说的声音进行文本化后的文本信息作为表情来进行显示的行动控制命令。在该情况下,单凭显示于显示部111的文本信息,实现机器人1与用户的意思沟通。另外,主控制部107也可以向声音控制部114以及显示控制部112输出使机器人1要说的声音及其声音的文本信息这两方进行输出的行动控制命令。在该情况下,实现使用了声音和文本信息的机器人1与用户的意思沟通。
进一步,主控制部107也可以在机器人1的声音和表情的基础上,向驱动机构控制部116输出使机器人1采取预定动作(例如左右摇晃、上下点头等)的行动控制命令,使机器人1进行表示使其移动到充电器2这一情况的举止。在该情况下,机器人1能够也使用动作来更有效地诱导用户将其搬到充电器。
另一方面,在步骤S208中的判断结果不是“向充电器移动”的情况(S208中为“否”的情况)下,即在不属于“随机行驶”、“向用户接近”、“向充电器移动”中的任一个、而是“对话时的移动”的情况下,主控制部107向显示控制部112和声音控制部114输出机器人1对用户实施反应(reaction)说话的行动控制命令(S210),结束障碍物应对处理。作为对话时的移动,包括机器人1的前进。
反应说话的具体如下。如图6的表H6的第4行第1列所示,主控制部107对显示控制部112输出使显示部111的位于能够再现喜悦的表情(例如“^^的形状的双眼等)的坐标的多个发光二极管点亮的命令来作为行动控制命令。另外,如图6的表H6的第4行第1列所示,主控制部107例如向声音控制部114输出使机器人1说出“很高兴能在你身边”等的成为对用户的反应的声音的行动控制命令。并且,当全部行动控制命令的输出完成时,主控制部107结束障碍物应对处理。
这样,在本实施方式中,在“对话时的移动”中机器人1检测到的障碍物为用户的情况下,不躲避障碍物、即用户而对用户进行“反应说话”,因此,能够尽可能增加机器人1与用户的意思沟通的机会。
此外,在此说明的机器人1的表情和声音是一个例子,并不限于此。例如,主控制部107也可以仅将使机器人1发出声音的行动控制命令向给声音控制部114输出。该情况下,单凭从扬声器113输出的声音,实现机器人1与用户的意思沟通。另外,也可以向显示控制部112仅输出将机器人1要说的声音进行文本化后的文本信息作为表情来显示的行动控制命令。该情况下,单凭显示于显示部111的文本信息,实现机器人1与用户的意思沟通。另外,主控制部107也可以向显示控制部112以及声音控制部114输出使机器人要说的声音及其声音的文本信息这两方进行输出的行动控制命令。在该情况下,实现使用了声音和文本信息的机器人1与用户的意思沟通。
进一步,主控制部107也可以在机器人1的声音和表情的基础上,通过向驱动机构控制部116输出使机器人1采取预定动作(例如左右摇晃上下点头等)的行动控制命令,使机器人1进行为接近了用户这一情况感到喜悦的举止。在该情况下,机器人1能够也利用动作来更有效地对用户进行反应。
另一方面,在步骤S204的判断结果为障碍物不是用户的情况(S204中为“否”的情况)下,即在障碍物为物体的情况下,主控制部107判断通过步骤S203取得的行动类别信息132是否为“随机行驶”(S211)。
在步骤S211中的判断结果为“随机行驶”的情况(S211中为“是”的情况)下,主控制部107向驱动机构控制部116输出机器人1躲避障碍物来行驶的行动控制命令(S212),结束障碍物应对处理。障碍物的躲避方法的一个例子例如为如下方法:将步骤S202中的机器人1的停止场所作为初始地点,在后退了预定距离量之后,向左或者右转弯而前进。障碍物的躲避方法的其他例子为在其位置转弯了预定的角度之后前进的方法等。障碍物的躲避方法又一其他例子为不后退而右转或者左转的方法等。但是,本公开并不限于这些方法。
这样,在本实施方式中,在机器人1检测到的障碍物为物体、障碍物检测时的机器人1的行动类别为“随机行驶”以及“向充电器移动”这样不知道周围是否存在用户的行动的情况下,增加机器人1与用户的意思沟通的机会是困难的。因此,作为最低限度的动作,主控制部107向驱动机构控制部116输出避免与物体碰撞这一情况的行动控制命令。由此,能够防止机器人1与物体碰撞、某一方或者两方的损坏。
此外,躲避障碍物时的行动控制命令并不限于此。例如,主控制部107也可以在该行动控制命令的基础上,分别向显示控制部112和声音控制部114输出使显示部111的位于再现预定表情(例如惊讶的脸、悲伤的脸等)的坐标的多个发光二极管点亮的行动控制命令和使机器人1发出预定声音(例如、“哎呀”、“危险、危险”、“好像有什么”等)的行动控制命令。
另一方面,在步骤S211中的判断结果不是“随机行驶”的情况(S211中为“否”的情况)下,主控制部107根据通过步骤S203取得的机器人1的行动类别信息132,判断机器人1当前的行动类别是否为“向用户接近”(S213)。
在步骤S213中的判断结果为“向用户接近”的情况(S213中为“是”的情况)下,主控制部107向显示控制部112和声音控制部114输出机器人1对用户实施“障碍物除去诱导说话”的行动控制命令(S214),结束障碍物应对处理。
“障碍物除去诱导说话”的具体例如下。如图6的表H6的第2行第2列所示,主控制部107向显示控制部112输出使位于显示部111位于能够再现请求帮助的表情(例如“><”的形状的双眼等)的坐标的多个发光二极管点亮的行动控制命令。另外,如图6的表H6的第2行第2列所示,主控制部107例如向声音控制部114输出使机器人1说出“请挪开障碍物”等的机器人1诱导用户挪开障碍物的内容的声音的行动控制命令。并且,当全部行动控制命令的输出完成时,主控制部107结束障碍物应对处理。
这样,在本实施方式中,在机器人1检测到的障碍物为物体、障碍物检测时的机器人1的行动为“向用户接近”或者“对话时的移动”这样的周围存在用户的概率高的行动的情况下,进行催促用户挪开障碍物的“障碍物除去诱导说话”。由此,能够尽可能增加机器人1与用户的意思沟通的机会。
此外,在此说明的机器人1的表情和声音是一个例子,并不限于此。例如,主控制部107也可以仅将使机器人1发出声音的行动控制命令输出给声音控制部114。在该情况下,单凭从扬声器113输出的声音,实现机器人1与用户的意思沟通。另外,主控制部107也可以向显示控制部112仅输出将机器人1要说的声音进行文本化后的文本信息作为表情来显示的行动控制命令。该情况下,单凭显示于显示部111的文本信息,实现机器人1与用户的意思沟通。另外,主控制部107也可以向显示控制部112以及声音控制部114输出使声音及其声音的文本信息这两方进行输出的行动控制命令。该情况下,实现使用了声音以及文本信息的机器人1与用户的意思沟通。
进一步,主控制部107也可以在机器人1的声音和表情的基础上或者代替机器人1的声音和表情,向驱动机构控制部116输出使机器人1采取预定动作(例如左右摇晃、上下点头等)的行动控制命令,由此使机器人1进行表示希望除去障碍物这一情况的举止。该情况下,机器人1能够也使用动作来更有效地诱导用户挪开障碍物。
另一方面,在步骤S213中的判断结果不是“向用户接近”的情况(S213中为“否”的情况)下,主控制部107根据通过步骤S203取得的行动类别信息132,判断机器人1当前的行动类别是否为“向充电器移动”(S215)。
在步骤S215中的判断结果为“向充电器移动”的情况(S215中为“是”的情况)下,进入前述的步骤S212,执行了躲避障碍物的行动之后,障碍物应对处理结束。
另一方面,在步骤S215中的判断结果不是“向充电器移动”的情况(S215中为“否”的情况)下,即不是“随机行驶”、“向用户接近”、“向充电器移动”中的任一方、而是为“对话时的移动”的情况下,进入前述的步骤S214,在执行障碍物除去诱导说话之后,障碍物应对处理结束。
接着,对图5的流程所示的障碍物应对处理的总结进行说明。图6是对障碍物应对处理进行总结的图。在图6中,左侧表示检测到障碍物时的机器人1的行动,在图6中,右侧表示对机器人1通过障碍物应对处理而能够采取的行动进行了总结的表H6。
在图6的步骤S601中,机器人1采取“随机行驶”、“向用户接近”、“向充电器移动”以及“对话时的移动”中的任一个行动。在步骤S602中,由于机器人1检测到障碍物,所以相对于障碍物停止在预定距离内。在步骤S603中,机器人1判别障碍物的类别属于用户和物体中的哪一个。并且,机器人1根据S601中的行动类别和通过S603检测到的障碍物的类别,采取表H6所示的行动。
如表H6的第1行所示,在行动类别为“随机行驶”的情况下,若障碍物为“用户”,则机器人1进行“一起玩吧”这样的对用户U1催促对话的“对话诱导说话”。其原因在于,在随机行驶期间发现了用户U1,因此,很清楚在机器人1的周围存在用户U1这一情况,对用户U1说话来实现增加与用户U1的意思沟通的机会。另一方面,若障碍物为“物体”,则机器人1躲避物体。其原因在于,在随机行驶期间没有发现用户U1,不清楚在机器人1的周围是否存在用户U1,实现与用户U1的意思沟通是很困难的。
如表H6的第2行所示,在行动类别为“向用户接近”的情况下,若障碍物为“用户”,则机器人1进行“对话诱导说话”。其原因在于,很清楚周围存在用户U1这一情况,从机器人1对用户U1积极地进行说话,实现增加与用户U1的意思沟通的机会。另一方面,若障碍物为“物体”,机器人1进行“请挪开障碍物”这样的催促用户U1挪开障碍物的“障碍物除去诱导说话”。其原因在于,很清楚在机器人1的周围存在用户U1,与机器人1仅仅进行躲避障碍物的行动相比,对用户U1催促了障碍物的除去能增加与用户U1的意思沟通的机会。
如表H6的第3行所示,在行动类别为“向充电器移动”的情况下,若障碍物为“用户”,则机器人1进行如“回到充电器”这样的促使用户U1将机器人1返回到充电器2的作业的“充电器设置诱导说话”。其原因在于,很清楚在机器人1的周围存在用户U1这一请,与自主地向充电器2移动相比,使用户U1将其返回到充电器2能增加与用户U1的意思沟通的机会。另一方面,在障碍物为“物体”的情况下,机器人1采取躲避障碍物的行动。其原因在于,不清楚机器人1的周围是否存在用户U1,实现与用户U1的意思沟通是很困难的。
如表H6的第4行所示,若行动类别为“对话时的移动”、障碍物为“用户”,则机器人1进行“能在你身边很高兴”这样的“反应说话”。其原因在于,用户U1与机器人1已经处于对话中,因此,从机器人1对用户U1积极地说话,实现机器人1与用户U1的意思沟通的机会的增加。另一方面,在障碍物为“物体”的情况下,机器人1进行“障碍物除去诱导说话”。其原因在于,机器人1处于与用户U1对话中,以“物体”的存在为契机激起与用户U1的对话,由此实现增加用户U1与机器人1的意思沟通的机会。
如表H6所示可知:机器人1与用户U1不进行意思沟通的是第1行第2列的模式和第3行第2列的模式这两个,除此以外,控制机器人1的行动,以使得在机器人1与用户U1之间实现一些意思沟通,尽可能增加意思沟通的机会。此外,在表H6中,“对话诱导说话”、“充电器设置诱导说话”、“反应说话”、“障碍物除去诱导说话”分别是增加与用户U1进行交互的机会的第1行动的一个例子。另外,“躲避”相当于用于应对障碍物的第2行动的一个例子。
如上所述,根据本实施方式,根据障碍物检测时的机器人1的行动类别和障碍物的类别,切换用于增加与用户交互的机会的第1行动、和用于躲避障碍物的第2行动。因此,本实施方式能够在尽可能增加机器人1与用户的意思沟通的机会的同时躲避障碍物。
此外,本公开可以采用以下的变形例。
(1)在本实施方式中,将孩子和父母一并作为用户来进行了说明,但这是一个例子,主控制部107也可以在用户为孩子的情况下和在用户为父母的情况下使前述的障碍物应对处理中的机器人1的说话内容发生变化。该情况下,主控制部107根据从影像处理部102取得的影像解析结果所包含的用户的属性信息(例如用户ID、年龄段等)来判断用户是父母还是孩子即可。
例如,在前述的“对话诱导说话”中,在用户为孩子的情况下,主控制部107如前所述那样实施“一起玩吧”等的说话。由此,能够尽可能增加机器人1与孩子进行意思沟通的机会。
另一方面,在“随机行驶”中检测到的用户为父母的情况下,主控制部107向声音控制部114输出实施“躲开那里”等的诱导帮助躲避机器人1的说话的行动控制命令。由此,机器人1能够在对父母实现意思沟通的同时躲避作为物体的障碍物。
此外,主控制部107也可以代替进行“躲开那里”这一说话,而输出使机器人1进行表示希望从机器人1离开这一情况的举止的行动控制命令。在该情况下,主控制部107向驱动机构控制部116输出使机器人1左右摇晃的行动控制命令即可。主控制部107例如也可以向显示控制部112输出用于使显示部111输出为难的脸的表情的行动控制命令。
(2)在图5的流程中,说明了未活用接触信息DB131的例子,但本公开不限定于此,也可以活用接触信息DB131,使对障碍物的应对方法变化。例如设为:在步骤S204中检测到用户的情况下,主控制部107基于接触信息DB131确定所检测到的用户与机器人1的在预定期间中的接触时间,该接触时间为预定的阈值以上。在该情况下,若机器人1的行动类别为“随机行驶”或者“向用户接近”,则主控制部107也可以不实施“对话诱导说话”,而实施躲避用户的行动。例如,在已经取得了足够的机器人1与孩子的接触时间的情况下,根据父母的不同,有可能不希望机器人1与孩子继续接触。于是,鉴于这样的父母的意向,使机器人1采取躲避用户的行动。
具体而言,主控制部107在步骤S204中判断为障碍物为用户的情况下,根据从影像处理部102输出的影像解析结果所包含的用户的属性信息确定相应的用户的用户ID。并且,主控制部107通过对管理部108请求从接触信息DB131提取相应的用户的从当前起过去一定期间(例如1天、半天、6小时等)内的接触信息的处理,取得从当前起过去一定期间的接触信息。并且,主控制部107使用在所取得的接触信息的“接触日期时间”的列中存储的数据,算出相应的用户的从当前起过去一定期间内的总接触时间。并且,主控制部107在总接触时间为预定的阈值以上的情况下,若机器人1当前的行动类别为“随机行驶”或者“向用户接近”,则向驱动机构控制部116输出躲避该用户的行动控制命令即可。
在此,利用了机器人1与孩子的接触时间,但本公开不限定于此。例如,主控制部107也可以采用机器人1与孩子的预定时间中的接触次数。在采用该方式的情况下,接触信息DB131具备上述的“接触次数”的列。主控制部107使用在从管理部108取得的相应的用户的从当前起过去一定期间内的接触信息的“接触次数”的列所存储的数据,求出相应的用户的过去一定期间内的总接触次数。并且,若总接触次数为预定的阈值以上,则主控制部107向驱动机构控制部116输出躲避该用户的行动控制命令即可。
另外,主控制部107也可以活用与机器人1接触时的孩子的表情、声音或者操作的种类,代替接触时间而利用肯定性的表现(例如“笑脸”、“惊讶的脸”等的表情、“喜欢”、“再玩一会吧”等的声音、“触碰”、“抚摸”等的操作等)。
在采用该技术方案的情况下,主控制部107通过参照从管理部108取得的相应的用户的从当前起过去一定期间内的接触信息的“接触内容”的列所存储的数据,对存储了肯定性的表现的接触信息的总个数进行合计。并且,若合计的总个数为预定的阈值以上时,则主控制部107向驱动机构控制部116输出躲避该用户的行动控制命令即可。
(3)也可以在步骤S201中同时进行了障碍物的检测和障碍物的类别的识别的情况下,根据障碍物的类别使到机器人1停止为止的时间发生变化。例如,主控制部107在所检测到的障碍物的类别为用户的情况下,若从当前位置到用户的距离远到为机器人1能够与用户进行互动的预定距离以上时,向驱动机构控制部116输出使机器人1以比通常的行驶速度快的速度行驶的行动控制命令。并且,当机器人1相对于用户到达预定距离的位置时,主控制部107向驱动机构控制部116输出使机器人1的行驶停止的行动控制命令。由此,机器人1能够以比通常快的速度接近用户,能够使机器人1采取犹如宠物跑到主人跟前那样的行动。另一方面,在检测到用户时的到用户的距离为预定距离以下的情况下,主控制部107向驱动机构控制部116输出使机器人1的行驶停止的行动控制命令,迅速地使机器人1的行驶停止即可。
(4)在上述实施方式中,机器人1是图1所示的球体机器人,但本公开不限定于此,也可以是球体机器人以外的两足步行机器人、四足步行机器人、用车轮来移动的机器人等。
根据本公开的例示性的实施方式涉及的机器人,对于在尽可能增加机器人与用户接触的机会的同时躲避障碍物是有用的。

Claims (22)

1.一种机器人,通过与用户进行交互来相互进行意思沟通,具备:
第1传感器,其用于检测障碍物;
存储器;以及
处理器,
所述存储器存储多个行动类别,所述多个行动类别分别是用于使所述机器人执行预定的行动的程序,
所述存储器还存储所述多个行动类别中所述机器人正在执行的行动类别,
所述处理器,
通过参照所述存储器,判断在所述第1传感器检测到所述障碍物时所述机器人正在执行的行动类别是所述多个行动类别中的哪一个,
判断由所述第1传感器检测到的所述障碍物的类别,
基于在所述第1传感器检测到所述障碍物时所述机器人正在执行的所述行动类别以及由所述第1传感器检测到的所述障碍物的类别,决定用于增加与所述用户的交互的机会的第1行动和用于应对所述障碍物的第2行动中的某一个,
控制所述机器人,使之执行所决定的所述行动。
2.根据权利要求1所述的机器人,
所述处理器,在所述第1传感器检测到所述障碍物时所述机器人正在执行的所述行动类别为所述机器人向所述用户移动的行动、且由所述第1传感器检测到的障碍物的类别为所述用户以外的物体时,决定表示希望除去所述障碍物的所述第1行动。
3.根据权利要求1所述的机器人,
所述处理器,在所述第1传感器检测到所述障碍物时所述机器人正在执行的所述行动类别为所述机器人向所述用户移动的行动、且由所述第1传感器检测到的障碍物的类别为所述用户时,决定引起与所述用户的对话的所述第1行动。
4.根据权利要求1所述的机器人,
所述处理器,在所述第1传感器检测到所述障碍物时所述机器人正在执行的所述行动类别为所述机器人向充电台移动的行动、且由所述第1传感器检测到的障碍物的类别为所述用户以外的物体时,决定躲避所述障碍物的所述第2行动。
5.根据权利要求1所述的机器人,
所述处理器,在所述第1传感器检测到所述障碍物时所述机器人正在执行的所述行动类别为所述机器人向充电台移动的行动、且由所述第1传感器检测到的障碍物的类别为所述用户时,决定表示希望使所述机器人向所述充电台移动的所述第1行动。
6.根据权利要求1所述的机器人,
所述处理器,在所述第1传感器检测到所述障碍物时所述机器人正在执行的所述行动类别为所述机器人随机地移动的行动、且由所述第1传感器检测到的障碍物的类别为所述用户以外的物体时,决定躲避所述障碍物的所述第2行动。
7.根据权利要求1所述的机器人,
所述处理器,在所述第1传感器检测到所述障碍物时所述机器人正在执行的所述行动类别为所述机器人随机地移动的行动、且由所述第1传感器检测到的障碍物的类别为所述用户时,决定引起与所述用户的对话的所述第1行动。
8.根据权利要求1所述的机器人,
所述处理器,在所述第1传感器检测到所述障碍物时所述机器人正在执行的所述行动类别为所述机器人与所述用户进行对话的行动、且由所述第1传感器检测到的障碍物的类别为所述用户以外的物体时,决定表示希望除去所述障碍物的所述第1行动。
9.根据权利要求1所述的机器人,
所述处理器,在所述第1传感器检测到所述障碍物时所述机器人正在执行的所述行动类别为所述机器人在与所述用户进行对话时前进的行动、且由所述第1传感器检测到的障碍物的类别为所述用户时,决定所述机器人为接近了所述用户感到喜悦的所述第1行动。
10.根据权利要求1所述的机器人,
所述处理器,在所述第1传感器检测到所述障碍物时所述机器人正在执行的所述行动类别为所述机器人随机地移动的行动、由所述第1传感器检测到的障碍物的类别为所述用户、且所述用户为成人时,决定表示希望从所述机器人离开的所述第1行动。
11.根据权利要求1所述的机器人,还具备:
摄像头,其取得所述机器人周边的信息;
麦克风,其取得所述机器人周边的声音;以及
第2传感器,其用于对所述机器人正在被所述用户触碰进行检测,
所述处理器,在所述第1传感器检测到所述障碍物时所述机器人正在执行的所述行动类别为所述机器人向所述用户移动的行动或所述机器人随机地移动的行动、由所述第1传感器检测到的障碍物的类别为所述用户、且基于由所述摄像头取得的信息、由所述麦克风取得的声音以及所述第2传感器的检测结果中的任一方算出的与所述用户的接触量为阈值以上时,决定所述机器人躲避所述用户的所述第2行动。
12.根据权利要求10所述的机器人,
表示希望从所述机器人离开的所述第1行动包括进行表示希望从所述机器人离开的举止。
13.根据权利要求10所述的机器人,还具备:
扬声器,其输出声音;和
显示器,其显示信息,
表示希望从所述机器人离开的所述第1行动包括(i)输出表示希望从所述机器人离开的声音以及(ii)输出表示希望从所述机器人离开的影像中的至少任一方。
14.根据权利要求2所述的机器人,还具备:
扬声器,其输出声音;和
显示器,其显示信息,
表示希望除去所述障碍物的所述第1行动包括进行表示希望除去所述障碍物的举止。
15.根据权利要求2所述的机器人,还具备:
扬声器,其输出声音;和
显示器,其显示信息,
表示希望除去所述障碍物的所述第1行动包括(i)从所述扬声器输出表示希望除去所述障碍物的声音以及(ii)在所述显示器显示表示希望除去所述障碍物的信息中的至少任一方。
16.根据权利要求3所述的机器人,
引起与所述用户的对话的所述第1行动包括(i)使所述机器人接触所述用户以及(ii)使所述机器人左右摇晃中的至少任一方。
17.根据权利要求3所述的机器人,还具备:
扬声器,其输出声音;
显示器,其显示信息;以及
麦克风,其取得所述机器人周边的声音,
引起与所述用户的对话的所述第1行动包括(i)从所述扬声器输出引起与所述用户的对话的声音、(ii)使所述显示器朝向所述用户以及(iii)使所述麦克风朝向所述用户中的至少任一方。
18.根据权利要求5所述的机器人,
表示希望使所述机器人向所述充电台移动的所述第1行动包括进行表示希望使所述机器人向充电台移动的举止。
19.根据权利要求5所述的机器人,还具备:
扬声器,其输出声音;和
显示器,其显示信息,
表示希望使所述机器人向所述充电台移动的所述第1行动包括(i)从所述扬声器输出表示希望使所述机器人向所述充电台移动的声音以及(ii)在所述显示器显示表示希望使所述机器人向所述充电台移动的信息中的至少任一方。
20.根据权利要求9所述的机器人,
所述机器人为接近了所述用户感到喜悦的所述第1行动包括(i)进行表示所述机器人为接近了所述用户感到喜悦的举止。
21.根据权利要求9所述的机器人,还具备:
扬声器,其输出声音;和
显示器,其显示信息,
所述机器人为接近了所述用户感到喜悦的所述第1行动包括(i)从所述扬声器输出表示所述机器人为接近了所述用户感到喜悦的声音以及(ii)在所述显示器显示表示所述机器人为接近了所述用户感到喜悦的信息中的至少任一方。
22.一种机器人的控制方法,是通过与用户进行交互来相互进行意思沟通的机器人的控制方法,包括:
通过传感器检测障碍物,
将多个行动类别预先存储于存储器,所述多个行动类别分别是用于使所述机器人执行预定的行动的程序,
将所述机器人正在执行的行动类别存储于所述存储器,
通过参照所述存储器,判断在所述传感器检测到所述障碍物时所述机器人正在执行的行动类别为所述多个行动类别中的哪一个,
判断由所述传感器检测到的所述障碍物的类别是所述用户还是所述用户以外的物体,
基于在所述传感器检测到所述障碍物时所述机器人正在执行的行动类别以及由所述传感器检测到的所述障碍物的类别,决定用于增加与所述用户的交互的机会的第1行动和用于应对所述障碍物的第2行动中的某一个,
控制所述机器人,使之执行所决定的所述行动。
CN202010064972.2A 2019-03-19 2020-01-20 机器人以及机器人的控制方法 Active CN111736585B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-051108 2019-03-19
JP2019051108A JP7273566B2 (ja) 2019-03-19 2019-03-19 ロボット、ロボットの制御方法及びプログラム

Publications (2)

Publication Number Publication Date
CN111736585A true CN111736585A (zh) 2020-10-02
CN111736585B CN111736585B (zh) 2024-06-25

Family

ID=

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113934211A (zh) * 2021-10-13 2022-01-14 安徽淘云科技股份有限公司 一种控制方法及其相关设备
CN115427126A (zh) * 2020-12-10 2022-12-02 松下知识产权经营株式会社 机器人控制方法以及信息提供方法

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003117866A (ja) * 2001-10-16 2003-04-23 Nec Corp ロボット装置及びその制御方法
KR20080075268A (ko) * 2007-02-12 2008-08-18 (주)아이티시에스 외부 자극에 반응하여 동작하는 로봇 완구
WO2009090807A1 (ja) * 2008-01-16 2009-07-23 Nec Corporation 移動装置、移動装置の移動方法、及び移動装置の移動制御プログラム
TW201038262A (en) * 2009-04-30 2010-11-01 Univ Nat Chiao Tung Interactive caretaking robot with the functions of obstacle avoidance and decision-making based on force-sensing
EP3082006A2 (en) * 2015-04-16 2016-10-19 Samsung Electronics Co., Ltd. Cleaning robot and method of controlling the same
CN106182037A (zh) * 2016-09-06 2016-12-07 广东工业大学 一种家庭监护机器人及其系统
CN106324619A (zh) * 2016-10-28 2017-01-11 武汉大学 一种变电站巡检机器人自动避障方法
US20170075348A1 (en) * 2015-09-11 2017-03-16 Fuji Xerox Co., Ltd. System and method for mobile robot teleoperation
CN108724206A (zh) * 2017-04-19 2018-11-02 松下知识产权经营株式会社 互动装置、互动方法、互动程序以及机器人
JP2018176383A (ja) * 2017-04-19 2018-11-15 パナソニックIpマネジメント株式会社 相互作用装置、相互作用方法、相互作用プログラム及びロボット
CN108818573A (zh) * 2018-09-11 2018-11-16 中新智擎科技有限公司 一种多功能服务机器人
US20190015982A1 (en) * 2017-07-11 2019-01-17 Panasonic Intellectual Property Management Co., Lt Apparatus, robot, method, and recording medium
CN109262606A (zh) * 2017-07-18 2019-01-25 松下知识产权经营株式会社 装置、方法、程序以及机器人

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003117866A (ja) * 2001-10-16 2003-04-23 Nec Corp ロボット装置及びその制御方法
KR20080075268A (ko) * 2007-02-12 2008-08-18 (주)아이티시에스 외부 자극에 반응하여 동작하는 로봇 완구
WO2009090807A1 (ja) * 2008-01-16 2009-07-23 Nec Corporation 移動装置、移動装置の移動方法、及び移動装置の移動制御プログラム
TW201038262A (en) * 2009-04-30 2010-11-01 Univ Nat Chiao Tung Interactive caretaking robot with the functions of obstacle avoidance and decision-making based on force-sensing
EP3082006A2 (en) * 2015-04-16 2016-10-19 Samsung Electronics Co., Ltd. Cleaning robot and method of controlling the same
US20170075348A1 (en) * 2015-09-11 2017-03-16 Fuji Xerox Co., Ltd. System and method for mobile robot teleoperation
CN106182037A (zh) * 2016-09-06 2016-12-07 广东工业大学 一种家庭监护机器人及其系统
CN106324619A (zh) * 2016-10-28 2017-01-11 武汉大学 一种变电站巡检机器人自动避障方法
CN108724206A (zh) * 2017-04-19 2018-11-02 松下知识产权经营株式会社 互动装置、互动方法、互动程序以及机器人
JP2018176383A (ja) * 2017-04-19 2018-11-15 パナソニックIpマネジメント株式会社 相互作用装置、相互作用方法、相互作用プログラム及びロボット
US20190015982A1 (en) * 2017-07-11 2019-01-17 Panasonic Intellectual Property Management Co., Lt Apparatus, robot, method, and recording medium
CN109262606A (zh) * 2017-07-18 2019-01-25 松下知识产权经营株式会社 装置、方法、程序以及机器人
CN108818573A (zh) * 2018-09-11 2018-11-16 中新智擎科技有限公司 一种多功能服务机器人

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115427126A (zh) * 2020-12-10 2022-12-02 松下知识产权经营株式会社 机器人控制方法以及信息提供方法
CN116234664A (zh) * 2020-12-10 2023-06-06 松下知识产权经营株式会社 机器人的控制方法、机器人、以及程序
CN115427126B (zh) * 2020-12-10 2023-12-26 松下知识产权经营株式会社 机器人控制方法以及信息提供方法
CN116234664B (zh) * 2020-12-10 2024-05-24 松下知识产权经营株式会社 机器人的控制方法、机器人、以及程序
CN113934211A (zh) * 2021-10-13 2022-01-14 安徽淘云科技股份有限公司 一种控制方法及其相关设备

Also Published As

Publication number Publication date
JP2020151070A (ja) 2020-09-24
JP2023095918A (ja) 2023-07-06
JP7502520B2 (ja) 2024-06-18
US11969876B2 (en) 2024-04-30
US20200298414A1 (en) 2020-09-24
US20240190012A1 (en) 2024-06-13
JP7273566B2 (ja) 2023-05-15

Similar Documents

Publication Publication Date Title
US11000952B2 (en) More endearing robot, method of controlling the same, and non-transitory recording medium
US10803376B2 (en) Interaction apparatus, interaction method, non-transitory recording medium, and robot
JP7363764B2 (ja) 情報処理装置、情報処理方法、およびプログラム
EP3550812B1 (en) Electronic device and method for delivering message by same
US20240190012A1 (en) Robot and control method of robot
US11780098B2 (en) Robot, robot control method, and recording medium
JP2020137549A (ja) 装置、方法、及びプログラム
CN108724206B (zh) 互动装置、互动方法、互动程序以及机器人
US20220288791A1 (en) Information processing device, information processing method, and program
US10719758B2 (en) Interaction apparatus, interaction method, non-transitory recording medium, and robot
KR102519599B1 (ko) 멀티모달 기반의 인터랙션 로봇, 및 그 제어 방법
CN111736585B (zh) 机器人以及机器人的控制方法
US20220410023A1 (en) Information processing device, control method of the same, and program
WO2021039190A1 (ja) 情報処理装置、その制御方法及びプログラム
WO2021039194A1 (ja) 情報処理装置、その制御方法及びプログラム
JP7501536B2 (ja) 情報処理装置、その制御方法及びプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant