CN107847807A - 机器人 - Google Patents

机器人 Download PDF

Info

Publication number
CN107847807A
CN107847807A CN201780001183.0A CN201780001183A CN107847807A CN 107847807 A CN107847807 A CN 107847807A CN 201780001183 A CN201780001183 A CN 201780001183A CN 107847807 A CN107847807 A CN 107847807A
Authority
CN
China
Prior art keywords
robot
user
image
framework
housing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201780001183.0A
Other languages
English (en)
Inventor
黄志奇
宫崎亮太
石井雅博
小川兼人
国武勇次
樋口圣弥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of CN107847807A publication Critical patent/CN107847807A/zh
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H33/00Other toys
    • A63H33/005Motorised rolling toys
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/0015Face robots, animated artificial faces for imitating human expressions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • H04R1/028Casings; Cabinets ; Supports therefor; Mountings therein associated with devices performing functions other than acoustics, e.g. electric candles
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Abstract

机器人在需要通过外部服务器来获取识别对象物的图像的识别结果的情况下,使一组驱动轮分别向相反方向旋转,从而使球体状的壳体旋转,在从所述外部服务器接收到所述识别对象物的图像的识别结果时,使显示部朝向用户并使所述球体状的壳体的旋转停止。

Description

机器人
技术领域
本公开涉及与用户对话的机器人。
背景技术
以往,提出了各种机器人。
专利文献1公开了交流机器人。在专利文献1中,所述机器人对于输入语音,基于语音识别部算出的可靠度,判定是否进行表示无法对于所述输入语音进行回答的无法回答行为,在判定为进行所述无法回答行为的情况下,从所述交流机器人能进行的预定的应答行为中,例如选择歪头等所述无法回答行为。由此,防止将自言自语、未知词或者语音以外的残音识别为语音并误说话(例如,第[0004]~[0007]段落、第[0113]段落)。
专利文献2涉及机器人控制装置。在专利文献2中,机器人通过语音识别部识别从麦克风(话筒)输入的语音,在该语音识别失败、或者其可靠性低的情况下,例如使机器人进行歪头或者以手贴耳等预定行为(例如,第[0003]~[0005]段落)。
现有技术文献
专利文献1:日本特开2011-227237号公报
专利文献2:日本特开2002-116792号公报
发明内容
发明所要解决的问题
在上述的现有技术中,需要进一步的改善。
用于解决问题的技术方案
为了解决上述问题,本公开的一个技术方案的机器人,具备:
球体状的壳体;
框架,其配置在所述壳体的内侧部;
输入装置,其安装于所述框架;
输出装置,其安装于所述框架;
通信电路,其安装于所述框架,与外部网络连接;
一组驱动轮,其安装于所述框架,与所述壳体的内周面接触,使所述壳体旋转;以及
控制电路,其在对于经由所述输入装置输入的用户的输入指示,基于需要预定时间或更长时间的预定处理来进行应答的情况下,使所述一组驱动轮分别向相反方向旋转,从而使所述球体状的壳体旋转,
在经由所述输出装置使基于所述预定处理的应答输出时,使通过所述一组驱动轮实现的前进方向朝向所述用户并使所述球体状的壳体的旋转停止。
发明效果
根据上述技术方案,能够实现进一步的改善。
附图说明
图1是本公开的第1实施方式涉及的机器人的外观立体图。
图2是本公开的第1实施方式涉及的机器人的内部立体图。
图3是图2的A视角下的本公开的第1实施方式涉及的机器人的内部侧视图。
图4是图2的A视角下的表示本公开的第1实施方式涉及的机器人的直行动作的侧视图。
图5是图2的B视角下的表示本公开的第1实施方式涉及的机器人的旋转动作的俯视图。
图6是表示本公开的第1实施方式涉及的机器人的旋转动作的立体图。
图7是在图3的侧视图中示出了对重(counterweight)的驱动机构的图。
图8A是表示将对重沿着预定的直线方向驱动时的对重的驱动机构的动作的立体图。
图8B是表示将对重沿着预定的直线方向驱动时的对重的驱动机构的动作的侧视图。
图8C是在图3的侧视图中表示对重沿着预定的直线方向往返移动的状态的侧视图。
图9A是表示使摆臂旋转时的对重的驱动机构的动作的立体图。
图9B是表示使摆臂旋转时的对重的驱动机构的动作的侧视图。
图9C是图2的B视角下的表示本公开的第1实施方式涉及的机器人的摆臂进行旋转的状态的俯视图。
图10是图2的A视角下的表示对重位于偏向前方的位置时的机器人的姿势的侧视图。
图11是图2的A视角下的表示对重位于偏向后方的位置时的机器人的姿势的侧视图。
图12是图2的C视角下的表示对重位于偏向右方的位置时的机器人的姿势的主视图。
图13是图2的C视角下的表示对重位于偏向左方的位置时的机器人的姿势的主视图。
图14是表示本公开的第1实施方式涉及的机器人的使用案例的一例的图。
图15是表示本公开的第1实施方式涉及的机器人所适用的机器人系统的整体构成的一例的图。
图16是表示本公开的第1实施方式涉及的机器人以及与机器人连接的云服务器的框图。
图17是表示本公开的第1实施方式涉及的机器人中的图像识别处理的流程图。
图18是表示在本公开的第1实施方式中,图17的S1709所示的图像识别处理的详情的流程图。
图19是表示在本公开的第1实施方式中,图17的S1707所示的进展表现处理的详情的流程图。
图20是表示在本公开的第2实施方式中,图17的S1709所示的图像识别处理的详情的流程图。
图21是表示机器人1的旋转速度与图像识别处理的阶段(stage)编号所示的阶段的关系的图。
图22是表示在本公开的第2实施方式中,图17的S1707所示的进展表现处理的详情的流程图。
具体实施方式
(发明本公开涉及的一个技术方案的经过)
首先,对得到本公开涉及的一个技术方案的着眼点进行说明。
专利文献1公开了一种双足行走的人型机器人。而且,该机器人具备头部、臂部、腿部、躯干等。因此,所述机器人能够基于所输入的语音的识别结果,使头部、臂部、腿部、躯干动作,对用户的语音进行应答。
专利文献2涉及犬型的宠物机器人。而且,所述宠物机器人在躯体部分具备头部、四个腿部、尾巴等。因此,所述宠物机器人能够基于所输入的语音的识别结果,使头部、四个腿部、尾巴动作,对用户的语音进行应答。
如此,各种机器人具备对来自用户的问题进行应答的功能。如上述专利文献1或2那样,在使用语音识别对来自用户的问题进行应答的情况下,需要将从用户说话到机器人应答为止的时间间隔设定为短间隔,以免给所述用户造成其与所述机器人之间的会话中断的感觉。因此,考虑设计为无论语音的识别结果的可靠度高或低,在从所述用户说话起较短的时间内,所述机器人做出应答。
对此,存在从用户说话到机器人应答为止的时间间隔较长的情况。作为一例,考虑向机器人询问用户所持的对象物是什么,所述机器人使用图像识别功能来进行应答的情况。
考虑针对用户的问题,所述机器人使用图像识别功能来进行应答的情况下,拍摄所述对象物,之后,例如将所述拍摄到的图像发送给具有图像识别功能的云服务器,在所述云服务器中识别所述图像,从所述云服务器接收所述识别出的识别结果,基于所述接收到的识别结果来回答所述对象物是什么。在该情况下,若从所述用户向所述机器人询问后,到所述机器人回答所述用户为止的时间例如需要15秒左右,则所述机器人为了回答将会让所述用户等待。
如此,存在如下问题:一旦所述机器人无法对所述用户的问题进行应答的时间持续预定秒以上,则所述用户仅从所述机器人的外观,无法判断所述机器人是正在进行处理还是由于故障而不动的。
另外,与上述专利文献1或2不同,假定不具有手、脚、颈等的球体状的机器人的情况下,则无法通过动动手脚或歪头来向用户传达所述机器人正在进行处理这一情况。另外,虽然考虑在所述球体状的机器人的表面进行表示正在处理这一情况的显示,但若在不具有手、脚、颈等的球体状的机器人的表面进行这一意思的显示,则会变为在所述球体状的机器人的面部进行要素与面部不同的显示,导致所述机器人的面部变得不自然。
如此,在不具有手、脚、颈等的球体状的机器人的情况下,相对于所述用户存在向所述用户传达内部处理的进展状况受限这一问题。
通过以上的考察,本发明人最终想到了以下的本公开涉及的各技术方案。
本公开的一个技术方案的机器人,具备:
球体状的壳体;
框架,其配置在所述壳体的内侧部;
输入装置,其安装于所述框架;
输出装置,其安装于所述框架;
通信电路,其安装于所述框架,与外部网络连接;
一组驱动轮,其安装于所述框架,与所述壳体的内周面接触,使所述壳体旋转;以及
控制电路,其在对于经由所述输入装置输入的用户的输入指示,基于需要预定时间或更长时间的预定处理来进行应答的情况下,使所述一组驱动轮分别向相反方向旋转,从而使所述球体状的壳体旋转,
在经由所述输出装置使基于所述预定处理的应答输出时,使通过所述一组驱动轮实现的前进方向朝向所述用户并使所述球体状的壳体的旋转停止。
根据本技术方案,在对于经由所述输入装置输入的用户的输入指示,基于需要预定时间或更长时间的预定处理来进行应答的情况下,使所述一组驱动轮分别向相反方向旋转,从而使所述球体状的壳体旋转。由此,能够利用所述球体状的机器人的形状,在与所述用户的对话期间,通过所述壳体的旋转来向所述用户传达所述机器人正在进行处理这一情况。
另外,若在接收到所述识别结果的情况下,仅简单地使所述球体状的壳体的旋转停止,则在所述机器人的前进方向为正面时,有时会在所述机器人正面没有朝向所述用户的状态下停止所述机器人。
根据本技术方案,在经由所述输出装置使基于所述预定处理的应答输出时,使通过所述一组驱动轮实现的前进方向朝向所述用户并使所述球体状的壳体的旋转停止。由此,能够使基于所述预定处理结果的应答朝向所述用户输出。因此,能够防止在所述机器人的正面没有朝向所述用户的状态下,输出基于所述预定处理结果的应答这一不良情况。
(实施方式)
以下,参照附图,对本发明的各实施方式进行说明。此外,在各附图中,对相同的构成要素使用相同的标号。
(第1实施方式)
(整体构成)
图1是本公开的第1实施方式涉及的机器人1的外观立体图。如图1所示,机器人1具备球体状的壳体101。壳体101例如由透明部件或者半透明的部件构成。
图2是本公开的第1实施方式涉及的机器人1的内部立体图。
在图2中,框架102配置在壳体101的内侧部。框架102具备第1旋转板103及第2旋转板104。第1旋转板103相对于第2旋转板104而位于上方。
如图2所示,第1显示部105及第2显示部106安装在第1旋转板103的上表面。另外,第3显示部107安装在第2旋转板104的上表面。第1显示部105、第2显示部106及第3显示部107例如由多个发光二极管构成。第1显示部105、第2显示部106及第3显示部107显示机器人的表情的显示信息。具体而言,第1显示部105、第2显示部106及第3显示部107通过个别地控制所述多个发光二极管的点亮,从而如图1所示那样显示机器人1的面部的一部分、例如眼和/或嘴。在图1的例子中,第1显示部105显示左眼的图像,第2显示部106显示右眼的图像,第3显示部107显示嘴的图像。而且,左眼、右眼、嘴的图像透过由透明或者半透明的部件构成的壳体101,放射到外部。
如图2所示,摄像头108安装在第1旋转板103的上表面。摄像头108取得机器人1的周边环境的影像。如图1所示,摄像头108构成机器人1的面部的一部分、例如鼻子。因此,摄像头108的光轴朝向机器人1的前方。由此,摄像头108能够拍摄出现在正面的识别对象物。
如图2所示,控制电路109安装在第1旋转板103的上表面。控制电路109控制机器人1的各种动作。将在后面参照图16来说明控制电路109的详情。
第1驱动轮110及第2驱动轮111分别安装在第2旋转板104的下表面,与壳体101的内周面接触。另外,第1驱动轮110具有使第1驱动轮110驱动的第1马达112。同样地,第2驱动轮111具有使第2驱动轮111驱动的第2马达113。即,第1驱动轮110及第2驱动轮111由分别独立的个别的马达来驱动。将在后面说明通过第1驱动轮110及第2驱动轮111的驱动所实现的机器人1的动作的详情。第1驱动轮110及第2驱动轮111构成一组驱动轮。
图3是图2的A视角下的本公开的第1实施方式涉及的机器人1的内部侧视图。在图3中,对重114(配重的一例)设置在第1旋转板103与第2旋转板104之间。对重114位于壳体101的中心的稍下方。因此,机器人1的重心位于壳体101的中心的下方。由此,能够使机器人1的动作稳定。
如图3所示,作为驱动对重114的机构,机器人1具备对对重114的移动方向进行规定的导向轴(guide shaft)115、对对重114的旋转方向的位置进行规定的摆臂(swing arm)116、使摆臂116旋转的旋转用马达117、在摆臂116及旋转用马达117之间进行连接的旋转轴118、在对重114的驱动中使用的带(belt)119(图8A及图8B)、与带119接触的马达带轮(motor pulley)120(图8A及图8B)、以及使马达带轮120旋转的未图示的配重驱动用马达。此外,在本技术方案中,所述驱动用马达内置于对重114。将在后面说明通过对重114的驱动所实现的机器人1的动作的详情。
旋转轴118相对于第1驱动轮110与第2驱动轮111的驱动轴而向垂直方向延伸。旋转轴118相当于安装于框架102的轴的一例。第1驱动轮110及第2驱动轮111在正面视角下以与地面隔着距离的方式进行安装。在该情况下,第1驱动轮110与第2驱动轮111的驱动轴例如是连结第1驱动轮110与第2驱动轮111彼此的中心的虚拟轴线。此外,只要第1驱动轮110与第2驱动轮111在正面视角下平行地安装,则实际的驱动轴即为第1驱动轮110与第2驱动轮111的驱动轴。
机器人1还具备省略图示的电源以及麦克风217(图16)。机器人1通过省略图示的充电器来充电。麦克风217取得机器人1的周边环境的语音(声音)。
接着,参照图4至图6,对使用了第1驱动轮110及第2驱动轮111的机器人1的动作进行说明。
图4是图2的A视角下的表示本公开的第1实施方式涉及的机器人1的直行动作的侧视图。图5是图2的B视角下的表示本公开的第1实施方式涉及的机器人1的旋转动作的俯视图。图6是表示本公开的第1实施方式涉及的机器人1的旋转动作的立体图。
如图4所示,若使第1驱动轮110及第2驱动轮111向前方方向旋转,则通过该动力,壳体101向前方方向旋转。由此,机器人1前进。反之,若使第1驱动轮110及第2驱动轮111向后方方向旋转,则机器人1后退。
另外,如图5及图6所示,若使第1驱动轮110及第2驱动轮111彼此向相反方向旋转,则通过该动力,壳体101进行绕通过其中心的铅垂轴的旋转动作。即,机器人1以原地左转或右转的方式旋转。机器人1通过这种前进、后退或旋转动作进行移动。
接着,参照图7至图9C,对使用了对重114的机器人1的基本动作进行说明。
图7是在图3的侧视图中示出了配重驱动机构的图。图8A是表示将对重114沿着预定的直线方向驱动时的对重114的驱动机构的动作的立体图。图8B是表示将对重114沿着预定的直线方向驱动时的对重114的驱动机构的动作的侧视图。图8C是在图3的侧视图中表示对重114沿着预定的直线方向往返移动的状态的侧视图。图9A是表示使摆臂116旋转时的对重114的驱动机构的动作的立体图。图9B是表示使摆臂116旋转时的配重驱动机构的动作的侧视图。图9C是图2的B视角下的表示本公开的第1实施方式涉及的机器人1的摆臂116进行旋转的状态的俯视图。
如图7所示,例如,摆臂116的中央位置是对重114的默认位置。对重114位于摆臂116的中央时,第1旋转板103及第2旋转板104与行驶面大致平行,成为构成机器人1的面部的例如眼、鼻、嘴朝向默认方向的状态。
如图8A及图8B所示,内置于对重114的未图示的配重驱动用马达使与所述配重驱动用马达连结的马达带轮120旋转。旋转的马达带轮120在带119上滚动,由此,对重114在摆臂116内移动。通过使马达带轮120的旋转方向、即所述配重驱动用马达的驱动方向发生变化,在摆臂116内,对重114沿着直线方向往返移动。
如图8C所示,对重114沿着导向轴115,在摆臂116内沿着直线方向往返移动。
如图9A及图9B所示,旋转用马达117使旋转轴118旋转,由此使与旋转轴118(图3)连接的摆臂116旋转。
如图9C所示,摆臂116能够沿着顺时针、逆时针的任意方向旋转。
再者,参照图10至图13,对使用了对重114的机器人1的动作的详情进行说明。图10是图2的A视角下的表示对重114位于偏向前方的位置时的机器人1的姿势的侧视图。图11是图2的A视角下的表示对重114位于偏向后方的位置时的机器人1的姿势的侧视图。图12是图2的C视角下的表示对重114位于偏向右方的位置时的机器人1的姿势的主视图。图13是图2的C视角下的表示对重114位于偏向左方的位置时的机器人1的姿势的主视图。
如图10所示,若在摆臂116与机器人1的正面垂直的状态下,使对重114从默认位置向摆臂116的一端(图10中为左端)、即偏向前方移动,则机器人1如箭头121所示向前方倾斜。另外,如图11所示,若在摆臂116与机器人1的正面垂直的状态下,使对重114从默认位置向摆臂116的另一端(图11中为右端)、即偏向后方移动,则机器人1如箭头122所示向后方倾斜。因此,若在摆臂116与机器人1的正面垂直的状态下,使对重114从摆臂116内的所述一端到所述另一端进行往返动作,则机器人1进行向箭头121所示的前方或者箭头122所示的后方倾斜的往返动作。即,机器人1在预定的角度内沿上下方向旋转。
如上所述,第1显示部105、第2显示部106及第3显示部107表示机器人1的面部的一部分、例如眼或嘴。因此,通过使用对重114来使机器人1进行向前方或后方倾斜的往返动作,例如能够表现机器人1气喘的状态或困倦的状态。如果将该控制例如在电源的电力余量变为预定值以下的情况下进行,则机器人1无需在第1显示部105、第2显示部106及第3显示部107显示关于与所述面部无关的电力余量的信息,就能够自然地向用户传达电源的电力余量正在变少这一情况。
如图12所示,若在摆臂116与机器人1的正面平行的状态下,使对重114从默认位置向摆臂116的一端(图12的右端)、即偏向右方移动,则机器人1向箭头123所示的右侧倾斜。另外,如图13所示,若在摆臂116与机器人1的正面平行的状态下,使对重114从默认位置向摆臂116的另一端(图13的左端)、即偏向左方移动,则机器人1向箭头124所示的左侧倾斜。因此,若在摆臂116与机器人1的正面平行的状态下,使对重114从摆臂116内的所述一端到所述另一端进行往返移动,则机器人1进行向箭头123所示的右侧或者箭头124所示的左侧倾斜的往返动作。即,机器人1在预定角度内沿左右方向旋转。
如上所述,第1显示部105、第2显示部106及第3显示部107表示机器人1的面部的一部分、例如眼或嘴。因此,通过使用对重114来使机器人1进行向右方或左方倾斜的往返运动,例如能够表现机器人1的心情好的状态或者表现机器人1正在思考。
图14是表示本公开的第1实施方式涉及的机器人1的使用案例的一例的图。如图14所示,机器人1连接于云服务器3。用户1401将女孩人偶1402伸到机器人1的正面,说:“这是什么?”。于是,机器人1根据用户1401的话语内容,判断为用户1401进行了对识别对象物的识别请求,拍摄识别对象物的图像(步骤ST1)。
接着,机器人1将拍摄到的识别对象物的图像发送给云服务器3(步骤ST2)。接着,云服务器3进行图像识别处理,识别出被发送来的图像所包含的识别对象物是人偶1402(步骤ST3)。接着,云服务器3将图像识别结果发送给机器人1,机器人1接收图像识别结果(步骤ST4)。接着,机器人1由于图像识别结果是“人偶”,因此说出“人偶”(步骤ST5)。
这种图像识别处理会在发送图像后到接收识别结果为止耗时15秒~30秒左右,因此,其间,如果机器人1不进行任何动作,则用户1401会对于机器人1是否真的受理了图像识别处理的请求、或者机器人1是不是出了故障而感到不安。于是,本公开采用以下的技术方案。
图15是表示本公开的第1实施方式涉及的机器人1所适用的机器人系统1500的整体构成的一例的图。机器人系统1500具备云服务器3、便携终端4以及机器人1。机器人1例如经由Wifi(注册商标)通信与互联网连接,并与云服务器3连接。另外,机器人1例如经由Wifi(注册商标)通信与便携终端4连接。用户1501例如是小孩,用户1502、1503例如是该小孩的父母。
便携终端4例如安装有与机器人1协同工作的应用程序。便携终端4能够通过应用程序对机器人1进行各种指示,或者显示图14中所说明的图像识别结果。
机器人1例如在从便携终端4收到将某本绘本读给小孩听的请求时,开始朗读该绘本,读给小孩听。机器人1例如若在读绘本的过程中从小孩受理到某些提问,则将该提问发送给云服务器3,并从云服务器3接收针对该提问的回答,发出表示回答的语音。
如此,用户1501将机器人1像宠物那样对待,能够通过与机器人1的接触,进行语言学习。
接着,参照图16,对本公开的第1实施方式涉及的机器人1的内部电路的详情进行说明。图16是表示本公开的第1实施方式涉及的机器人1以及与机器人1连接的云服务器3的框图。云服务器3相当于外部服务器的一例。
如图16所示,机器人1具备控制电路109、通信部210、显示部211、旋转轴118、壳体驱动轮212、轴控制部213、壳体驱动轮控制部214、配重驱动机构控制部215、扬声器216、摄像头108、麦克风217、配重驱动机构218。
控制电路109具备主控制部201、语音信息输出控制部202、面部识别处理部203、语音识别处理部204、显示信息输出控制部205以及存储器206。控制电路109通过包括CPU等处理器的计算机来构成。
主控制部201从语音识别处理部204取得用户的语音的识别结果。主控制部201从面部识别处理部203取得用户的脸部的识别结果。
主控制部201基于从语音识别处理部204及面部识别处理部203取得的信息来生成命令(command),并发送给语音信息输出控制部202、显示信息输出控制部205、轴控制部213、壳体驱动轮控制部214以及配重驱动机构控制部215等。将在后面说明所述命令的详情。
语音信息输出控制部202通过将与发送自主控制部201的命令相应的语音从扬声器216输出,使机器人1说话。
扬声器216以输出面朝向正面的方式安装于框架102,将语音的电信号变换为物理振动。扬声器216相当于输出装置的一例。
语音识别处理部204从由麦克风217取得的语音中识别用户语音的有无,将语音识别结果存储于存储器206,由此,管理语音识别结果。语音识别处理部204将存储器206所存储的语音识别用数据与取得语音进行比对,识别话语内容。
麦克风217安装于框架102,将声音变换为电信号,输出给语音识别处理部204。麦克风217例如可以安装在第1旋转板103的上表面,也可以安装在第2旋转板104的上表面。麦克风217相当于输入装置的一例。
面部识别处理部203从由摄像头108取得的影像中识别用户面部的有无、位置以及大小,将面部识别结果存储于存储器206,由此,管理面部识别结果。
显示信息输出控制部205将与从主控制部201发送来的命令相应的机器人1的表情的显示信息显示于显示部211。显示部211由在图2中说明的第1显示部105、第2显示部106以及第3显示部107构成。
存储器206例如通过非易失性的可改写的存储装置来构成,存储机器人1的控制程序等。
壳体驱动轮控制部214根据从主控制部201发送来的命令,使机器人1的壳体驱动轮212动作。壳体驱动轮控制部214通过在图2中说明的第1马达112以及第2马达113来构成。壳体驱动轮212由在图2中说明的第1驱动轮110以及第2驱动轮111构成。壳体驱动轮212相当于一组驱动轮的一例。
配重驱动机构控制部215根据从主控制部201发送来的命令,使机器人1的配重驱动机构218动作。配重驱动机构控制部215通过内置于对重114中的未图示的配重驱动用马达来构成。配重驱动机构218由在图3、图8A及图8B中说明的导向轴115、摆臂116、旋转用马达117、带119、马达带轮120以及未图示的配重驱动用马达构成。
轴控制部213根据从主控制部201发送来的命令,使在图9A及图9B中说明的旋转轴118旋转。轴控制部213由在图9A及图9B中说明的旋转用马达117构成。旋转轴118以及轴控制部213相当于旋转机构的一例。
通信部210通过用于使机器人1连接于云服务器3的通信装置来构成。作为通信部210,例如能够采用Wifi(注册商标)等的无线LAN的通信装置,但是这仅为一例。
云服务器3经由互联网(外部网络的一例)与机器人1连接。云服务器3具备通信部301以及处理部302。通信部301通过用于将云服务器3连接于互联网的通信装置来构成。处理部302按照来自机器人1的请求,执行各种处理,将处理结果经由通信部301发送给机器人1。
接着,参照图17,对本公开的第1实施方式涉及的机器人1中的图像识别处理进行说明。图17是表示本公开的第1实施方式涉及的机器人1中的图像识别处理的流程图。在此,在机器人1将图像识别处理委托给云服务器3后到接收图像识别结果为止的期间内,机器人1旋转,进行表现机器人1处于处理期间的处理。
首先,用户对机器人1说话(S1701)。例如,用户如在图14中说明的那样将人偶1402伸向机器人1,说出如“这是什么?”这样的话。
接着,机器人1的语音识别处理部204判断对话语的回答是否需要图像识别处理(S1703)。在此,在存储器206中,事先存储有表示回答需要进行图像识别处理的话语的特征量的1个以上的话语参照数据。因此,语音识别处理部204在用户发出的语音的特征量与存储器206所存储的某个话语参照数据的相似度为阈值以上时,判断为需要图像识别处理即可。
例如,作为需要图像识别处理的话语,可以采用如上述的“这是什么?”这样的询问识别对象物的话语和/或如“执行图像识别处理”这样的命令形式的话语。另外,为了答复如用户竖起食指与中指这两根手指说“这是多少?”这样的对数量的询问,也可以采用“这是多少?”作为需要图像识别处理的话语。
在S1703中,判定为回答需要进行图像识别处理的情况下(S1703:是),处理前进至S1704,判定为回答不需要进行图像识别处理的情况下(S1703:否),处理前进至S1708。
接着,摄像头108拍摄包含识别对象物的1枚图像(S1702、S1704)。在此,语音识别处理部204对主控制部201进行需要图像识别处理这一意思的通知,收到该通知的主控制部201向面部识别处理部203发送拍摄命令,由此使摄像头108拍摄识别对象物即可。
此外,主控制部201在由语音识别处理部204判断为需要进行图像识别处理的情况下,也可以对语音信息输出控制部202通知“请将想知道的东西朝向机器人的正面。”这一消息,并使该消息从扬声器216输出。由此,机器人1能够让用户将识别对象物伸向机器人1的正面,能够避免摄像头108的拍摄范围内不包含识别对象物的状态。
接着,主控制部201判定在S1704中拍摄到的图像是否需要向云服务器3请求进行图像识别处理(S1705)。在主控制部201判定为需要请求图像识别处理的情况下(S1705:是),通信部210将在S1704中拍摄到的图像发送给云服务器3(S1706)。另一方面,在主控制部201判定为无需请求图像识别处理的情况下(S1705:否),处理前进至S1708。
在此,在存储器206中,事先存储有无需请求图像识别处理的参照图像的特征量、即无需识别参照数据。因此,主控制部201,当在S1704中拍摄到的图像的特征量与无需识别参照数据的相似度为阈值以上时,判定为无需请求图像识别处理,当在S1704中拍摄到的图像的特征量与无需识别参照数据的相似度低于阈值时,判定为需要请求图像识别处理即可。
作为参照图像,例如包括用户的面部图像。作为用户的面部图像,例如也可以包括主要操作机器人1的小孩的面部图像和/或该小孩的家人的面部图像。这是考虑到,对于如识别用户的面部这样的高频的处理,若全都向云服务器3请求图像识别处理,则用户的等待时间会变长,用户压力会变得过大。另外,作为参照图像,也可以采用用户1根、两根这样地竖起1根以上手指的图像。
接着,机器人1进行进展表现处理,直至获得图像识别结果(S1707)。关于进展表现处理的详情,稍后进行说明。
在需要请求云服务器3进行图像识别处理的情况下,到获得图像识别结果为止会耗费预定时间或更长时间。在该情况下,如果机器人1不进行任何动作,可能会导致用户判断为机器人1是不是发生了故障。于是,在本技术方案中,在需要请求云服务器3进行图像识别处理的情况下,进行后述的进展表现处理(S1707)。
接着,云服务器3进行图像识别处理(S1709)。关于图像识别处理的详情,稍后进行说明。
当获得图像识别结果时,机器人1结束进展表现处理。
接着,语音信息输出控制部202将图像识别结果从扬声器216输出,通过话语进行图像识别结果的回答(S1708)。在该情况下,语音信息输出控制部202例如将表示识别对象物的名称的语音从扬声器216输出。例如如图14所示那样,识别出人偶1402后,从扬声器216输出语音“人偶”。
此外,在S1703中判定为否、在S1705中判定为否的情况下的S1708的处理例如如下所述。作为判定为对话语的回答无需图像识别处理的情况(S1703:否),例如设机器人1与用户进行对话这样的情形与之相符。在该情况下,在S1708中,语音信息输出控制部202在与用户的对话中从扬声器216输出应答的语音即可。
另外,作为在S1704中拍摄到的图像无需向云服务器3请求进行图像识别处理的情况(S1705:否),设向机器人1询问用户的名字,或用户竖起手指进行如“这是多少?”这样的询问的情形与之相符。在该情况下,在S1708中,语音信息输出控制部202从扬声器216输出如用户的名字、“是两根”这样的语音即可。
图18是表示在本公开的第1实施方式中,图17的S1709所示的图像识别处理的详情的流程图。首先,通信部301接收从机器人1发送来的图像(S1801)。
接着,处理部302执行图像识别处理(S1802)。例如,在图14所示的使用案例中,包含人偶1402的图像成为图像识别处理的对象。处理部302例如具备通过机器学习获得的、将物体的图像的特征量与物体的名称相关联并登记的物体模型数据库。处理部302根据从机器人1发送来的图像提取特征量,将提取到的特征量与物体模型数据库所登记的各物体的特征量进行比对,将相似度最高的物体判定为识别对象物即可。在图14的例子中,“人偶”成为图像识别结果。
接着,通信部301将由处理部302得出的图像识别结果发送给机器人1(S1803)。
图19是表示在本公开的第1实施方式中,图17的S1707所示的进展表现处理的详情的流程图。
首先,主控制部201准备第1旋转速度V1、比第1旋转速度V1慢的第2旋转速度V2、和作为用于设定当前的旋转速度的变量的旋转速度V(S1901)。在S1901中,旋转速度V设定为0作为默认值。
在此,第1旋转速度V1是将机器人1正在进行处理这一情况传达给用户时的机器人1的旋转速度。第2旋转速度V2是为了检测用户的位置,摄像头108连续拍摄周围环境时的机器人1的旋转速度。如果第2旋转速度V2过大,会导致周围环境的图像变得模糊,可能无法顺利检测到用户。另一方面,如果第2旋转速度V2过小,会导致检测用户位置的时间变得过长,给用户造成压力。于是,作为第2旋转速度V2,可以采用能够准确地拍摄周围环境的速度。在此,设为第2旋转速度V2比第1旋转速度V1低,但也可以比第1旋转速度V1高。
接着,主控制部201将旋转速度V设定为第1旋转速度V1(S1902)。
接着,壳体驱动轮控制部214从主控制部201受理将旋转速度V设定为第1旋转速度V1的命令,使机器人1以第1旋转速度V1进行旋转(S1903)。详细而言,壳体驱动轮控制部214驱动第1马达112及第2马达113以使构成壳体驱动轮212的第1驱动轮110及第2驱动轮111分别以第1旋转速度V1向相反方向旋转即可。
接着,如果通信部210没有接收到图像识别结果(S1904:否),主控制部201将处理返回至S1903,进行S1903~S1904的处理。由此,机器人1能够反复进行旋转动作,向用户传达正在进行图像识别处理这一情况,直至接收到图像识别结果。
另一方面,若通信部210接收到图像识别结果(S1904:是),则主控制部201将旋转速度V设定为第2旋转速度V2(S1905)。
接着,壳体驱动轮控制部214从主控制部201受理将旋转速度V设定为第2旋转速度V2的命令,使机器人1以第2旋转速度V2进行旋转(S1906)。详细而言,壳体驱动轮控制部214驱动第1马达112及第2马达113以使构成壳体驱动轮212的第1驱动轮110及第2驱动轮111分别以第2旋转速度V2向相反方向旋转即可。由此,进行用于检测用户位置的机器人1的旋转动作。
接着,面部识别处理部203从主控制部201接收用于执行连续拍摄的拍摄命令,使摄像头108连续拍摄周围环境的图像(S1907)。
接着,面部识别处理部203如果识别出了用户的面部(S1908:是),则将该情况通知给主控制部201,使摄像头108的连续拍摄停止(S1909)。另一方面,面部识别处理部203如果没有识别出用户的面部(S1908:否),则将处理返回至S1906。根据以上,机器人1会一边旋转,一边拍摄周围环境的图像,直至能识别出用户的面部为止。
在此,面部识别处理部203在检测出了包含相对于存储器206所存储的用户面部图像的特征量的相似度为阈值以上的物体的周围环境的图像时,判定为该周围环境的图像中存在用户即可。而且,面部识别处理部203根据检测出的周围环境的图像内的用户的面部位置及尺寸来检测现实空间中的用户的位置即可。在此,被检测的用户的位置例如根据在拍摄到该周围环境图像的时间点的机器人1的基准方向与用户的位置所成的角度、和从机器人1到用户的位置的距离来确定即可。作为基准方向,可以采用机器人1的行进方向(与机器人1的正面正交的方向)。再者,面部识别处理部203也可以根据该周围环境图像所包含的用户的面部形状等,检测用户的面部的方位。
此外,如果存储器206中存储有多个用户的面部图像的特征量,并且机器人1的周围存在其特征量存储于存储器206的多个用户,则有可能检测出与伸出识别对象物的用户不同的其他用户的位置。
为了防止该情况,面部识别处理部203在图像识别处理开始时,拍摄伸出识别对象物的用户的面部并提取用户的面部的特征量,预先存储于存储器206。而且,面部识别处理部203也可以在检测出了包含与存储器206所存储的特征量的相似度为阈值以上的物体的周围环境图像时,判定为该周围环境的图像中存在用户。例如,在图17的S1704中,面部识别处理部203拍摄识别对象物的图像以使得包含伸出识别对象物的用户面部,根据所获得的图像来提出用户的面部的特征量并预先存储于存储器206即可。
在S1910中,壳体驱动轮控制部214从主控制部201受理使机器人1的旋转停止的命令,使第1马达112及第2马达113的驱动停止,从而使机器人1的旋转停止。
在S1911中,壳体驱动轮控制部214从主控制部201取得使机器人1移动到在S1908中检测出的用户的位置附近的命令,使第1驱动轮110及第2驱动轮111驱动以使得机器人1移动到该位置附近。此时,主控制部201向壳体驱动轮控制部214输出命令以使机器人1的显示部211与用户的正面相对即可。
详细而言,主控制部201首先向壳体驱动轮控制部214输出使机器人1移动到该用户的位置附近的命令。然后,当机器人移动到该用户的位置附近时,主控制部201向壳体驱动轮控制部214输出使机器人1旋转以使得在S1908中检测出的用户的面部方位与显示部211正交的命令。
如此,根据本技术方案,在为了应答用户的问题而需要预定时间或更长时间的情况下,使第1驱动轮110及第2驱动轮111分别向相反方向旋转从而使球体状的壳体101旋转,使机器人1旋转。由此,能够利用球体状的机器人1的形状,在与用户的对话期间,通过机器人1的旋转来向用户传达机器人1正在进行处理这一情况。
另外,根据本技术方案,使机器人1的正面朝向用户地向用户输出图像识别处理的结果。因此,能够防止在机器人1的正面没有朝向用户的状态下输出图像识别处理结果的不良情况。
(第2实施方式)
第2实施方式的特征在于,随着图像识别处理的进展状况推进,使机器人1的旋转速度减速。此外,在第2实施方式中,对与第1实施方式相同的构成赋予同一标号,并省略说明。
在第2实施方式中,整体处理与图17相同,但S1709及S1707不同。
图20是表示在本公开的第2实施方式中,图17的S1709所示的图像识别处理的详情的流程图。S2001、S2008与图18的S1801、S1803相同,因而省略说明。
在S2002中,处理部302准备规定图像识别处理所需的阶段数M的参数。在此,阶段数M采用根据云服务器3所采用的图像识别处理的内容而事先确定的值。例如,如果云服务器3采用包括三个阶段的图像识别处理,则设定M=3。
在S2003中,处理部302将阶段编号N设定为初始值“0”。在此,阶段编号N是用于确定处理中的阶段的编号。
在S2004中,处理部302将阶段编号N增加1。
在S2005中,处理部302执行阶段编号N的图像识别处理。
在S2006中,处理部302判定阶段编号N是否达到了阶段数M。如果阶段编号N达到阶段数M(S2006:是),则处理部302由于获得了图像识别结果,因此使处理前进至S2008。
如果阶段编号N没有达到阶段数M(S2006:否),则处理部302使用通信部210,对机器人1进行完成了图像识别结果的一部分这一意思的通知(S2007)。此时,处理部302将处理结束了的阶段编号N与阶段数M发送给机器人1。
当S2007的处理结束时,处理返回至S2004。由此,执行下一阶段编号N的图像识别处理。
接着,对图像识别处理的阶段进行说明。图21是表示机器人1的旋转速度与图像识别处理的阶段编号N所示的阶段“N”的关系的图。在图21的例子中,图像识别处理通过由阶段编号N=1、2、3所表示的三个阶段“1”、“2”、“3”来构成。
阶段“1”是对识别对象物的颜色进行识别的阶段,阶段“2”是对识别对象物的品牌进行识别的阶段,阶段“3”是对识别对象物最终是什么进行识别的阶段。
例如,若假设识别对象物是市售的清凉饮料,在阶段“1”中,识别构成清凉饮料的颜色。例如,如果是水的清凉饮料,则识别结果为“透明”。处理部302例如根据从机器人1发送来的图像提取识别对象物,进行解析提取到的识别对象物的颜色的处理,由此对识别对象物的颜色进行识别即可。有时识别对象物由多种颜色构成。在该情况下,处理部302也可以将占一定比例以上的前几种颜色作为识别结果。
在阶段“2”中,处理部302例如识别清凉饮料的瓶子的标签上所记载的文字,由此识别品牌名。如果清凉饮料的瓶子的标签上记载有商品名“XXX”,则识别结果例如为“XXX”。
在阶段“3”中,处理部302例如使用上述的物体模型数据库,对识别对象物最终是什么进行识别。例如,如果识别出清凉饮料,则识别结果为“清凉饮料”。在此,如果进而识别出清凉饮料的种类,则识别结果例如为“清凉饮料:水”。
图22是表示在本公开的第2实施方式中,图17的S1707所示的进展表现处理的详情的流程图。
在图22中,S2101、S2102、S2103、S2104、S2107、S2108、S2109、S2110、S2111、S2112、S2113与图19的S1901、S1902、S1903、S1904、S1905、S1906、S1907、S1908、S1909、S1910、S1911相同,因而省略说明。
S2105是机器人1接收在图20的S2007中云服务器3发送的完成了图像识别处理的一部分这一意思的通知的处理。如果通信部210没有从云服务器3接收到完成了图像识别处理的一部分这一意思的通知(S2105:否),主控制部201使处理返回至S2103。另一方面,如果通信部210从云服务器3接收到完成了图像识别处理的一部分这一意思的通知(S2105:是),主控制部201使处理前进至S2106。在S2105中,机器人1接收处理结束了的阶段编号N与阶段数M。
在S2106中,主控制部201使用在S2105中接收到的处理结束了的阶段编号N与阶段数M,将旋转速度V设定为V=V1×(1-N/M),使旋转速度V减速。例如,当阶段“1”结束时,在S2105中,机器人1接收到N=1,因此在阶段“2”的处理中,旋转速度V被设定为V=V1×(1-1/M)。
由此,每当图像识别处理的阶段前进1步,主控制部201就将旋转速度V设定得低一级。
在图21的例子中,在阶段“1”的处理中,主控制部201将旋转速度V设定为V1。由此,第1驱动轮110、第2驱动轮111以旋转速度V1向彼此相反的方向旋转,机器人1以旋转速度V1进行旋转。
当阶段“1”的处理结束时,主控制部201将旋转速度V设定为V=V1×2/3。由此,在阶段“2”的处理中,第1驱动轮110、第2驱动轮111以旋转速度V1×2/3向彼此相反的方向旋转,机器人1以旋转速度V1×2/3进行旋转。
当阶段“2”的处理结束时,主控制部201将旋转速度V设定为V=V1×1/3。由此,在阶段“3”的处理中,第1驱动轮110、第2驱动轮111以旋转速度V1×1/3向彼此相反的方向旋转,机器人1以旋转速度V1×1/3进行旋转。
如此,根据本技术方案,随着图像识别处理的阶段推进,对重114的振幅减小,因而能够通过机器人1的动作,将图像识别处理的进展状况通知给用户。
在图22的S2104中,若接收到阶段“M”的图像识别处理的结果(S2104:是),则处理前进至S2107。S2107之后的处理与图19的S1905之后的处理相同。在此,在S2107中设定的旋转速度V2采用比图像识别处理的最终阶段“M”中的机器人1的旋转速度慢的值即可。由此,能够防止最终阶段“M”结束后机器人1的旋转速度V增大,给用户带来不协调的感觉。
如此,根据第2实施方式,随着图像识别处理的阶段推进,机器人1的旋转速度降低,因而能够通过机器人1的动作,将图像识别处理的进展状况通知给用户。
(变形例1)
在实施方式1、2中,在请求云服务器3进行图像识别处理的情况下,使机器人1旋转。本公开不限定于此,也可以在请求云服务器3进行图像识别处理以外的处理(例如语音识别处理)的情况下,使机器人1旋转。即使是图像识别处理以外的处理,在请求云服务器3进行处理的情况下,到获得处理结果为止有可能也需要预定时间或更长时间。在该情况下,通过使机器人1旋转直至获得处理结果,能够防止用户判断为机器人1发生了故障。
(变形例2)
在实施方式1、2中,具备显示部211,但这仅为一例,也可以省略显示部211。显示部211显示机器人面部的一部分,因此,有显示部211,能够更顺利地表现机器人1正在进行处理这一情况。然而,即使没有显示部211,只要使机器人1旋转直至获得处理结果,也能够充分地向用户传达机器人1正在进行处理这一情况。
(变形例3)
在第2实施方式中,随着图像识别处理的阶段推进,旋转速度V逐渐减少V1×[N/M],但这仅为一例,也可以随着阶段推进,以使旋转速度V的减速量变大或者变小的方式对旋转速度V进行减速。
(变形例4)
在第1、第2实施方式中,图像识别处理结束后,使用摄像头108来发现用户,但本公开不限定于此。例如,在用户发出请求图像识别处理的话语时,语音识别处理部204使用麦克风217取得该话语的语音,根据取得的语音的方向及强度来确定用户的位置,并存储于存储器206。而且,图像识别处理结束时,主控制部201将使机器人1向存储器206所存储的用户的位置移动的命令输出给壳体驱动轮控制部214即可。在此,有时用户会在发出请求图像识别处理的话语后到图像识别处理结束期间移动到其他地方。在该情况下,语音识别处理部204在取得了请求图像识别处理的话语的语音时,提取语音的特征量,并存储于存储器206。而且,语音识别处理部204可以使用存储于存储器206的特征量,监测该用户发出的语音,跟踪用户的位置,直至图像识别处理结束为止。
(本公开的实施方式的概要)
本公开的一个技术方案涉及的机器人具备:球体状的壳体;框架,其配置在所述壳体的内侧部;输入装置,其安装于所述框架;输出装置,其安装于所述框架;通信电路,其安装于所述框架,与外部网络连接;一组驱动轮,其安装于所述框架,与所述壳体的内周面接触,使所述壳体旋转;以及控制电路,其在对于经由所述输入装置输入的用户的输入指示,基于需要预定时间或更长时间的预定处理来进行应答的情况下,使所述一组驱动轮分别向相反方向旋转,从而使所述球体状的壳体旋转,在经由所述输出装置使基于所述预定处理的应答输出时,使通过所述一组驱动轮实现的前进方向朝向所述用户并使所述球体状的壳体的旋转停止。
根据本技术方案,在对于经由所述输入装置输入的用户的输入指示,基于需要预定时间或更长时间的预定处理来进行应答的情况下,使所述一组驱动轮分别向相反方向旋转,从而使所述球体状的壳体旋转。由此,能够利用所述球体状的机器人的形状,在与所述用户的对话期间,通过所述壳体的旋转来向所述用户传达所述机器人正在进行处理这一情况。
另外,若在接收到基于所述预定处理的应答的情况下,仅简单地使所述球体状的壳体的旋转停止,则在所述机器人的前进方向为正面时,有时会在所述机器人正面没有朝向所述用户的状态下停止所述机器人。
根据本技术方案,在经由所述输出装置使基于所述预定处理的应答输出时,使通过所述一组驱动轮实现的前进方向朝向所述用户并使所述球体状的壳体的旋转停止。由此,能够使基于所述预定处理结果的应答朝向所述用户输出。因此,能够防止在所述机器人的正面没有朝向所述用户的状态下,输出基于所述预定处理结果的应答这一不良情况。
另外,在上述技术方案中,例如也可以,还具备摄像头,该摄像头以拍摄方向朝向所述前进方向的方式安装于所述框架。
在该情况下,所述摄像头构成所述机器人的面部的一部分、例如嘴或鼻子。由此,在经由所述输出装置使基于所述预定处理的应答输出时,使所述摄像头朝向所述用户并使所述球体状的壳体的旋转停止。由此,能够使基于所述预定处理结果的应答朝向所述用户输出。因此,能够防止在所述机器人的面部没有朝向所述用户的状态下,输出基于所述预定处理结果的应答这一不良情况。
另外,在上述技术方案中,例如也可以,所述控制电路,在所述球体状的壳体旋转的期间,进行使用所述摄像头的拍摄,直到经由所述输出装置输出基于所述预定处理的结果的应答之前,基于由所述摄像头拍摄到的图像来识别所述用户的位置,在使所述显示部朝向所述识别出的用户的位置的状态下,使所述球体状的壳体的旋转停止。
根据本技术方案,基于由摄像头拍摄到的图像来识别用户的位置,因此,能够准确地识别用户的位置。
另外,在上述技术方案中,例如也可以,还具备显示部,该显示部以朝向所述前进方向的方式安装于所述框架,至少显示所述机器人面部的一部分。
在该情况下,所述显示部所显示的所述机器人的面部的一部分例如构成嘴或鼻子。由此,在经由所述输出装置使基于所述预定处理的应答输出时,使显示所述面部的至少一部分的显示部朝向所述用户并使所述球体状的壳体的旋转停止。由此,能够使基于所述预定处理结果的应答朝向所述用户输出。因此,能够防止在所述机器人的面部没有朝向所述用户的状态下,输出基于所述预定处理结果的应答这一不良情况。
另外,在上述技术方案中,例如也可以,所述控制电路,使所述球体状的壳体的旋转停止后,在使所述显示部朝向所述识别出的用户的位置的状态下,经由所述输出装置使基于所述预定处理的结果的应答输出。
根据本技术方案,在壳体的旋转停止后,显示部朝向用户的位置,输出基于预定处理结果的应答。
另外,在上述技术方案中,例如也可以,所述预定处理包括两个以上的步骤,所述控制电路,每当所述两个以上的步骤的每一个步骤结束时,控制所述一组驱动轮的旋转速度,降低使所述球体状的壳体旋转的速度。
根据本技术方案,随着所述预定处理步骤的推进,所述一组驱动轮的旋转速度降低,因而能够通过机器人的动作,将预定处理的进展状况通知给用户。
另外,在上述技术方案中,例如也可以,所述预定处理是经由所述外部网络所连接的外部服务器中的图像识别处理。
由于图像识别处理的处理负荷过大,因而多由外部服务器执行。在该情况下,会耗费预定时间或更长时间,直到获得处理结果为止。在本技术方案中,即使在预定处理由外部服务器执行的情况下,机器人进行旋转动作,直至获得处理结果。因此,能够向用户传达正在执行内部处理这一情况。
另外,在上述技术方案中,例如也可以,所述控制电路,在所述图像识别处理中,使用所述摄像头拍摄识别对象物,使用所述通信电路,经由所述外部网络将所述拍摄到的识别对象物的图像发送给所述外部服务器,使用所述通信电路,从所述外部服务器接收所述识别对象物的图像的识别结果,经由所述输出装置输出所述接收到的识别结果。
根据本技术方案,由于处理负荷过大的图像识别处理由外部服务器执行,因此,机器人只要进行对识别对象物的拍摄和从外部服务器接收识别结果即可,能够减轻机器人的处理负荷。
另外,在上述技术方案中,例如也可以,所述输入装置是麦克风,经由所述输入装置输入的用户的输入指示是语音指示。
根据本技术方案,用户无需手动输入输入指示,而仅仅通过发出输入指示的语音,就能够指示机器人进行预定处理。因此,减轻了用户输入输入指示时的负担。尤其对于如幼儿这样的难以进行手动输入的用户而言,本技术方案是有用的。
另外,在上述技术方案中,例如也可以,所述输出装置是扬声器。
在本技术方案中,通过扬声器输出处理结果,因而用户即使不看机器人,也能够知晓处理结果。
本公开的另一技术方案涉及的机器人具备:球体状的壳体;框架,其配置在所述壳体的内侧部;显示部,其安装于所述框架,至少显示机器人面部的一部分;输入装置,其安装于所述框架;输出装置,其安装于所述框架;通信电路,其安装于所述框架,与外部网络连接;一组驱动轮,其安装于所述框架,与所述壳体的内周面接触,使所述壳体旋转;以及控制电路,其在对于经由所述输入装置输入的用户的输入指示,基于需要预定时间或更长时间的预定处理来进行应答的情况下,使所述一组驱动轮分别向相反方向旋转,从而使所述球体状的壳体旋转,在经由所述输出装置使基于所述预定处理的应答输出时,使所述显示部朝向所述用户并使所述球体状的壳体的旋转停止。
根据本技术方案,在对于经由所述输入装置输入的用户的输入指示,基于需要预定时间或更长时间的预定处理来进行应答的情况下,使所述一组驱动轮分别向相反方向旋转,从而使所述球体状的壳体旋转。由此,能够利用所述球体状的机器人的形状,在与所述用户的对话期间,通过所述壳体的旋转来向所述用户传达所述机器人正在进行处理这一情况。
另外,所述显示部构成所述机器人的面部的一部分、例如嘴或鼻子。若在接收到基于所述预定处理的应答的情况下,仅简单地使所述球体状的壳体的旋转停止,则有时会在所述机器人的面部没有朝向所述用户的状态下停止所述机器人。
根据本技术方案,在经由所述输出装置使基于所述预定处理的应答输出时,使所述显示部朝向所述用户并使所述球体状的壳体的旋转停止。由此,能够使基于所述预定处理结果的应答朝向所述用户输出。因此,能够防止在所述机器人的面部没有朝向所述用户的状态下,输出基于所述预定处理结果的应答这一不良情况。
在上述技术方案中,例如也可以,还具备安装于所述框架的摄像头,所述控制电路,在所述球体状的壳体旋转的期间,进行使用所述摄像头的拍摄,直到经由所述输出装置输出基于所述预定处理的结果的应答之前,基于由所述摄像头拍摄到的图像来识别所述用户的位置,在使所述显示部朝向所述识别出的用户的位置的状态下,使所述球体状的壳体的旋转停止。
根据本技术方案,基于由摄像头拍摄到的图像来识别用户的位置,因此,能够准确地识别用户的位置。
在上述技术方案中,例如也可以,所述控制电路,使所述球体状的壳体的旋转停止后,在使所述显示部朝向所述识别出的用户的位置的状态下,经由所述输出装置使基于所述预定处理的结果的应答输出。
根据本技术方案,在壳体的旋转停止后,显示部朝向用户的位置,输出基于预定处理结果的应答。
在上述技术方案中,例如也可以,所述预定处理包括两个以上的步骤,所述控制电路,每当所述两个以上的步骤的每一个步骤结束时,控制所述一组驱动轮的旋转速度,降低使所述球体状的壳体旋转的速度。
根据本技术方案,随着所述预定处理步骤的推进,所述一组驱动轮的旋转速度降低,因而能够通过机器人的动作,将预定处理的进展状况通知给用户。
在上述技术方案中,例如也可以,设置安装于所述框架的摄像头,所述预定处理是经由所述外部网络所连接的外部服务器中的图像识别处理。
由于图像识别处理的处理负荷过大,因而多由外部服务器执行。在该情况下,会耗费预定时间或更长时间,直到获得处理结果为止。在本技术方案中,即使在预定处理由外部服务器执行的情况下,机器人进行旋转动作,直至获得处理结果。因此,能够向用户传达正在执行内部处理这一情况。
在上述技术方案中,例如也可以,所述控制电路,在所述图像识别处理中,使用所述摄像头拍摄识别对象物,使用所述通信电路,经由所述外部网络将所述拍摄到的识别对象物的图像发送给所述外部服务器,使用所述通信电路,从所述外部服务器接收所述识别对象物的图像的识别结果,经由所述输出装置输出所述接收到的识别结果。
根据本技术方案,由于处理负荷过大的图像识别处理由外部服务器执行,因此,机器人只要进行对识别对象物的拍摄和从外部服务器接收识别结果即可,能够减轻机器人的处理负荷。
本公开的另一技术方案涉及的机器人具备:球体状的壳体;框架,其配置在所述壳体的内侧部;显示部,其安装于所述框架,至少显示机器人面部的一部分;摄像头,其安装于所述框架;输入装置,其安装于所述框架;输出装置,其安装于所述框架;通信电路,其安装于所述框架,与外部网络连接;一组驱动轮,其安装于所述框架,与所述壳体的内周面接触,使所述壳体旋转;以及控制电路,其在判断为经由所述输入装置输入的用户的语音指示为需要进行图像识别的情况下,使用所述摄像头拍摄识别对象物,经由所述外部网络将所述拍摄到的识别对象物的图像发送给外部服务器,从所述外部服务器接收所述识别对象物的图像的识别结果,经由所述输出装置输出所述接收到的识别结果,所述控制电路,在需要通过所述外部服务器来获取所述识别对象物的图像的识别结果的情况下,使所述一组驱动轮分别向相反方向旋转,从而使所述球体状的壳体旋转,在从所述外部服务器接收到所述识别对象物的图像的识别结果时,使所述显示部朝向所述用户并使所述球体状的壳体的旋转停止。
根据本技术方案,在所述机器人为了对所述用户的问题进行应答,需要通过所述外部服务器来获取所述识别对象物的图像的识别结果的情况下,使所述一组驱动轮分别向相反方向旋转,从而使所述球体状的壳体旋转。由此,在需要进行所述图像识别的情况下,利用所述球体状的机器人的形状,在与所述用户的对话期间,通过所述壳体的旋转向所述用户传达所述机器人正在进行处理这一情况。
另外,所述显示部构成所述机器人的面部的一部分、例如嘴或鼻子。若在接收到所述识别结果的情况下,仅简单地使所述球体状的壳体的旋转停止,则有时会在所述机器人的面部没有朝向所述用户的状态下停止所述机器人。
根据本技术方案,当从所述外部服务器接收到所述识别对象物的图像的识别结果时,使所述显示部朝向所述用户并使所述球体状的壳体的旋转停止。由此,能够使所述识别结果朝向所述用户输出。因此,能够防止在所述机器人的面部没有朝向所述用户的状态下,输出所述识别结果这一不良情况。
在上述技术方案中,例如也可以,所述控制电路,在所述球体状的壳体旋转的期间,进行使用所述摄像头的拍摄,直到经由所述扬声器输出基于所述识别结果的应答之前,基于由所述摄像头拍摄到的图像来识别所述用户的位置,在使所述显示部朝向所述识别出的用户的位置的状态下,使所述球体状的壳体的旋转停止。
根据本技术方案,基于由摄像头拍摄到的图像来识别用户的位置,因而能够准确地识别用户的位置。
在上述技术方案中,例如也可以,设置存储图像识别用参照数据的存储器,所述控制电路,在判断为无需为了对所述用户的语音指示进行应答而通过所述外部服务器来获取所述识别对象物的图像的识别结果,能够通过基于所述存储器所存储的所述图像识别用参照数据的所述识别对象物的图像识别来进行所述应答的情况下,不进行通过所述一组驱动轮的旋转来使所述球体状的壳体旋转的控制,而是经由所述扬声器使基于所述参照数据的识别结果输出。
例如,用户的面部识别等能够通过在所述机器人的内部设置存储器,使用所述存储器所存储的图像识别用参照数据来进行。
在用户向所述机器人例如询问“我是谁?”的情况下,无需通过所述外部服务器来获取所述识别对象物的图像的识别结果,而只要参照在所述机器人的内部存储于存储器的图像识别用参照数据就够了。另外,若用户竖起食指和中指这两根手指,在所述用户向所述机器人询问“这是多少”的情况下,也无需通过所述云服务器获取所述识别对象物的图像的识别结果,而只要参照在所述机器人的内部存储于存储器的图像识别用参照数据就够了。在这种情况下,几乎不会让所述用户等待。
因此,在这种情况下,不进行通过所述一组驱动轮的旋转来使所述球体状的壳体旋转的控制,而是经由所述扬声器输出基于所述参照数据的识别结果。
在上述技术方案中,例如也可以,所述控制电路,使所述球体状的壳体的旋转停止后,在使所述显示部朝向所述识别出的用户的位置的状态下,经由所述输出装置使基于所述预定处理的结果的应答输出。
根据本技术方案,在壳体的旋转停止后,显示部朝向用户的位置,输出基于预定处理结果的应答。
在上述技术方案中,例如也可以,所述图像识别包括两个以上的步骤,所述控制电路,每当所述两个以上的步骤的每一个步骤结束时,控制所述一组驱动轮的旋转速度,降低使所述球体状的壳体旋转的速度。
根据本技术方案,随着所述预定处理步骤的推进,所述一组驱动轮的旋转速度降低,因而能够通过机器人的动作,将预定处理的进展状况通知给用户。
产业上的可利用性
根据本公开的例示性的实施方式涉及的机器人,为了向用户传达内部处理的进展状况是有用的。
标号说明
M阶段数;N阶段编号;1机器人;3云服务器;4便携终端;9控制电路;101壳体;102框架;103第1旋转板;104第2旋转板;105第1显示部;106第2显示部;107第3显示部;108摄像头;109控制电路;110第1驱动轮;111第2驱动轮;112第1马达;113第2马达;114对重;115导向轴;116摆臂;117旋转用马达;118旋转轴;119带;120马达带轮;201主控制部;202语音信息输出控制部;203面部识别处理部;204语音识别处理部;205显示信息输出控制部;206存储器;210通信部;211显示部;212壳体驱动轮;213轴控制部;214壳体驱动轮控制部;215配重驱动机构;215驱动机构控制部;216扬声器;217麦克风;218配重驱动机构;301通信部;302处理部;1500机器人系统。

Claims (21)

1.一种机器人,具备:
球体状的壳体;
框架,其配置在所述壳体的内侧部;
输入装置,其安装于所述框架;
输出装置,其安装于所述框架;
通信电路,其安装于所述框架,与外部网络连接;
一组驱动轮,其安装于所述框架,与所述壳体的内周面接触,使所述壳体旋转;以及
控制电路,其在对于经由所述输入装置输入的用户的输入指示,基于需要预定时间或更长时间的预定处理来进行应答的情况下,使所述一组驱动轮分别向相反方向旋转,从而使所述球体状的壳体旋转,在经由所述输出装置使基于所述预定处理的应答输出时,使通过所述一组驱动轮实现的前进方向朝向所述用户并使所述球体状的壳体的旋转停止。
2.根据权利要求1所述的机器人,
还具备摄像头,该摄像头以拍摄方向朝向所述前进方向的方式安装于所述框架。
3.根据权利要求2所述的机器人,
所述控制电路,
在所述球体状的壳体旋转的期间,进行使用所述摄像头的拍摄,
直到经由所述输出装置输出基于所述预定处理的结果的应答之前,基于由所述摄像头拍摄到的图像来识别所述用户的位置,在使所述显示部朝向所述识别出的用户的位置的状态下,使所述球体状的壳体的旋转停止。
4.根据权利要求3所述的机器人,
还具备显示部,该显示部以朝向所述前进方向的方式安装于所述框架,至少显示所述机器人面部的一部分。
5.根据权利要求4所述的机器人,
所述控制电路,使所述球体状的壳体的旋转停止后,在使所述显示部朝向所述识别出的用户的位置的状态下,经由所述输出装置使基于所述预定处理的结果的应答输出。
6.根据权利要求1所述的机器人,
所述预定处理包括两个以上的步骤,
所述控制电路,每当所述两个以上的步骤的每一个步骤结束时,控制所述一组驱动轮的旋转速度,降低使所述球体状的壳体旋转的速度。
7.根据权利要求2所述的机器人,
所述预定处理是经由所述外部网络所连接的外部服务器中的图像识别处理。
8.根据权利要求7所述的机器人,
所述控制电路,在所述图像识别处理中,
使用所述摄像头拍摄识别对象物,
使用所述通信电路,经由所述外部网络将所述拍摄到的识别对象物的图像发送给所述外部服务器,
使用所述通信电路,从所述外部服务器接收所述识别对象物的图像的识别结果,
经由所述输出装置输出所述接收到的识别结果。
9.根据权利要求1至8中任一项所述的机器人,
所述输入装置是麦克风,
经由所述输入装置输入的用户的输入指示是语音指示。
10.根据权利要求9所述的机器人,
所述输出装置是扬声器。
11.一种机器人,具备:
球体状的壳体;
框架,其配置在所述壳体的内侧部;
显示部,其安装于所述框架,至少显示机器人面部的一部分;
输入装置,其安装于所述框架;
输出装置,其安装于所述框架;
通信电路,其安装于所述框架,与外部网络连接;
一组驱动轮,其安装于所述框架,与所述壳体的内周面接触,使所述壳体旋转;以及
控制电路,其在对于经由所述输入装置输入的用户的输入指示,基于需要预定时间或更长时间的预定处理来进行应答的情况下,使所述一组驱动轮分别向相反方向旋转,从而使所述球体状的壳体旋转,在经由所述输出装置使基于所述预定处理的应答输出时,使所述显示部朝向所述用户并使所述球体状的壳体的旋转停止。
12.根据权利要求11所述的机器人,
还具备安装于所述框架的摄像头,
所述控制电路,
在所述球体状的壳体旋转的期间,进行使用所述摄像头的拍摄,
直到经由所述输出装置输出基于所述预定处理的结果的应答之前,基于由所述摄像头拍摄到的图像来识别所述用户的位置,在使所述显示部朝向所述识别出的用户的位置的状态下,使所述球体状的壳体的旋转停止。
13.根据权利要求11或12所述的机器人,
所述控制电路,使所述球体状的壳体的旋转停止后,在使所述显示部朝向所述识别出的用户的位置的状态下,经由所述输出装置使基于所述预定处理的结果的应答输出。
14.根据权利要求11所述的机器人,
所述预定处理包括两个以上的步骤,
所述控制电路,每当所述两个以上的步骤的每一个步骤结束时,控制所述一组驱动轮的旋转速度,降低使所述球体状的壳体旋转的速度。
15.根据权利要求11所述的机器人,
设置安装于所述框架的摄像头,
所述预定处理是经由所述外部网络所连接的外部服务器中的图像识别处理。
16.根据权利要求15所述的机器人,
所述控制电路,在所述图像识别处理中,
使用所述摄像头拍摄识别对象物,
使用所述通信电路,经由所述外部网络将所述拍摄到的识别对象物的图像发送给所述外部服务器,
使用所述通信电路,从所述外部服务器接收所述识别对象物的图像的识别结果,
经由所述输出装置输出所述接收到的识别结果。
17.一种机器人,具备:
球体状的壳体;
框架,其配置在所述壳体的内侧部;
显示部,其安装于所述框架,至少显示机器人面部的一部分;
摄像头,其安装于所述框架;
输入装置,其安装于所述框架;
输出装置,其安装于所述框架;
通信电路,其安装于所述框架,与外部网络连接;
一组驱动轮,其安装于所述框架,与所述壳体的内周面接触,使所述壳体旋转;以及
控制电路,其在判断为经由所述输入装置输入的用户的语音指示为需要进行图像识别的情况下,使用所述摄像头拍摄识别对象物,经由所述外部网络将所述拍摄到的识别对象物的图像发送给外部服务器,从所述外部服务器接收所述识别对象物的图像的识别结果,经由所述输出装置输出所述接收到的识别结果,
所述控制电路,
在需要通过所述外部服务器来获取所述识别对象物的图像的识别结果的情况下,使所述一组驱动轮分别向相反方向旋转,从而使所述球体状的壳体旋转,
在从所述外部服务器接收到所述识别对象物的图像的识别结果时,使所述显示部朝向所述用户并使所述球体状的壳体的旋转停止。
18.根据权利要求17所述的机器人,
所述控制电路,
在所述球体状的壳体旋转的期间,进行使用所述摄像头的拍摄,
直到经由所述扬声器输出基于所述识别结果的应答之前,基于由所述摄像头拍摄到的图像来识别所述用户的位置,在使所述显示部朝向所述识别出的用户的位置的状态下,使所述球体状的壳体的旋转停止。
19.根据权利要求17所述的机器人,
设置存储图像识别用参照数据的存储器,
所述控制电路,在判断为无需为了对所述用户的语音指示进行应答而通过所述外部服务器来获取所述识别对象物的图像的识别结果,能够通过基于所述存储器所存储的所述图像识别用参照数据的所述识别对象物的图像识别来进行所述应答的情况下,不进行通过所述一组驱动轮的旋转来使所述球体状的壳体旋转的控制,而是经由所述扬声器使基于所述参照数据的识别结果输出。
20.根据权利要求17至19中任一项所述的机器人,
所述控制电路,使所述球体状的壳体的旋转停止后,在使所述显示部朝向所述识别出的用户的位置的状态下,经由所述输出装置使基于所述预定处理的结果的应答输出。
21.根据权利要求17至19中任一项所述的机器人,
所述图像识别包括两个以上的步骤,
所述控制电路,每当所述两个以上的步骤的每一个步骤结束时,控制所述一组驱动轮的旋转速度,降低使所述球体状的壳体旋转的速度。
CN201780001183.0A 2016-05-19 2017-05-09 机器人 Pending CN107847807A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016-100222 2016-05-19
JP2016100222A JP2017205324A (ja) 2016-05-19 2016-05-19 ロボット
PCT/JP2017/017438 WO2017199782A1 (ja) 2016-05-19 2017-05-09 ロボット

Publications (1)

Publication Number Publication Date
CN107847807A true CN107847807A (zh) 2018-03-27

Family

ID=60325061

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780001183.0A Pending CN107847807A (zh) 2016-05-19 2017-05-09 机器人

Country Status (6)

Country Link
US (1) US20180154513A1 (zh)
EP (1) EP3459607A4 (zh)
JP (1) JP2017205324A (zh)
CN (1) CN107847807A (zh)
CA (1) CA2995671A1 (zh)
WO (1) WO2017199782A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108594669A (zh) * 2018-06-15 2018-09-28 河池学院 一种智能家居机器人控制系统

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017205313A (ja) * 2016-05-19 2017-11-24 パナソニックIpマネジメント株式会社 ロボット
USD903559S1 (en) 2017-03-16 2020-12-01 Nio Nextev Limited Voice assistant
JP7052546B2 (ja) * 2018-05-11 2022-04-12 トヨタ自動車株式会社 自律移動システム、自律移動体、充電ドック、制御方法、及びプログラム
US11343431B2 (en) * 2018-06-12 2022-05-24 The Trailer Buddy Pty Ltd Vehicle camera telemetry system
JP7495125B2 (ja) * 2018-12-03 2024-06-04 Groove X株式会社 ロボット、音声合成プログラム、及び音声出力方法
KR20210057582A (ko) * 2019-11-12 2021-05-21 삼성전자주식회사 잘못 흡입된 객체를 식별하는 로봇 청소기 및 그 제어 방법
CN111127998A (zh) * 2020-01-07 2020-05-08 北京小米移动软件有限公司 智能地球仪、及智能地球仪的控制方法及存储介质
DE102020127019B4 (de) 2020-10-14 2022-06-09 Deutsches Zentrum für Luft- und Raumfahrt e.V. Sphärischer Roboter

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100131078A1 (en) * 1999-10-27 2010-05-27 Brown David W Event driven motion systems
US20120168241A1 (en) * 2011-01-05 2012-07-05 Bernstein Ian H Self-propelled device for interpreting input from a controller device
CN202438152U (zh) * 2012-01-09 2012-09-19 南宁卓蓝电子科技有限公司 一种对唱舞蹈机器人
US20130123987A1 (en) * 2011-06-14 2013-05-16 Panasonic Corporation Robotic system, robot control method and robot control program
US20150224640A1 (en) * 2005-09-30 2015-08-13 Irobot Corporation Companion robot for personal interaction
US20150317511A1 (en) * 2013-11-07 2015-11-05 Orbeus, Inc. System, method and apparatus for performing facial recognition
CN105459126A (zh) * 2015-12-30 2016-04-06 深圳亿家智宝电子科技有限公司 一种机器人交流装置及其实现方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000274509A (ja) * 1999-03-26 2000-10-03 Recruit Co Ltd 球状駆動装置
CA2274770A1 (fr) * 1999-06-15 2000-12-15 Serge Caron Robot-boule
KR20020061961A (ko) * 2001-01-19 2002-07-25 사성동 지능형 애완로봇
JP2004148439A (ja) * 2002-10-30 2004-05-27 Sony Corp 球形ロボット及び球形ロボットの制御方法
SE0402672D0 (sv) * 2004-11-02 2004-11-02 Viktor Kaznov Ball robot
JP5751610B2 (ja) * 2010-09-30 2015-07-22 学校法人早稲田大学 会話ロボット
US9090214B2 (en) * 2011-01-05 2015-07-28 Orbotix, Inc. Magnetically coupled accessory for a self-propelled device
US10281915B2 (en) * 2011-01-05 2019-05-07 Sphero, Inc. Multi-purposed self-propelled device
US9218316B2 (en) * 2011-01-05 2015-12-22 Sphero, Inc. Remotely controlling a self-propelled device in a virtualized environment
US9429940B2 (en) * 2011-01-05 2016-08-30 Sphero, Inc. Self propelled device with magnetic coupling
US20120244969A1 (en) * 2011-03-25 2012-09-27 May Patents Ltd. System and Method for a Motion Sensing Device
US8894465B2 (en) * 2011-04-28 2014-11-25 Kids Ii, Inc. Eccentric motion toy
US8672062B2 (en) * 2011-05-26 2014-03-18 Gregory C Schroll Internal means for rotating an object between gravitationally stable states
US9259842B2 (en) * 2011-06-10 2016-02-16 Microsoft Technology Licensing, Llc Interactive robot initialization
US20130095725A1 (en) * 2011-10-06 2013-04-18 Paul J. von Mohr Figurine toy in combination with a portable, removable wireless computer device having a visual display screen
US9428019B1 (en) * 2013-07-09 2016-08-30 Guardbot Inc. Drive and stabilizaton system for amphibious robotic ball
FR3011375B1 (fr) * 2013-10-01 2017-01-27 Aldebaran Robotics Procede de dialogue entre une machine, telle qu'un robot humanoide, et un interlocuteur humain, produit programme d'ordinateur et robot humanoide pour la mise en œuvre d'un tel procede
US9829882B2 (en) * 2013-12-20 2017-11-28 Sphero, Inc. Self-propelled device with center of mass drive system
JP2015138147A (ja) * 2014-01-22 2015-07-30 シャープ株式会社 サーバ、対話装置、対話システム、対話方法および対話プログラム
WO2015179838A2 (en) * 2014-05-23 2015-11-26 Sphero, Inc. Causing gesture responses on connected devices
WO2016068262A1 (ja) * 2014-10-29 2016-05-06 京セラ株式会社 コミュニケーションロボット
US9390847B1 (en) * 2015-02-19 2016-07-12 The United States Of America As Represented By The Secretary Of The Navy System and method for electromagnetic-based propulsion
US9939913B2 (en) * 2016-01-04 2018-04-10 Sphero, Inc. Smart home control using modular sensing device
US20180089699A1 (en) * 2016-09-23 2018-03-29 Sphero, Inc. Systems and methods for managing a user experience for consumer products

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100131078A1 (en) * 1999-10-27 2010-05-27 Brown David W Event driven motion systems
US20150224640A1 (en) * 2005-09-30 2015-08-13 Irobot Corporation Companion robot for personal interaction
US20120168241A1 (en) * 2011-01-05 2012-07-05 Bernstein Ian H Self-propelled device for interpreting input from a controller device
US20130123987A1 (en) * 2011-06-14 2013-05-16 Panasonic Corporation Robotic system, robot control method and robot control program
CN202438152U (zh) * 2012-01-09 2012-09-19 南宁卓蓝电子科技有限公司 一种对唱舞蹈机器人
US20150317511A1 (en) * 2013-11-07 2015-11-05 Orbeus, Inc. System, method and apparatus for performing facial recognition
CN105459126A (zh) * 2015-12-30 2016-04-06 深圳亿家智宝电子科技有限公司 一种机器人交流装置及其实现方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108594669A (zh) * 2018-06-15 2018-09-28 河池学院 一种智能家居机器人控制系统

Also Published As

Publication number Publication date
CA2995671A1 (en) 2017-11-23
JP2017205324A (ja) 2017-11-24
US20180154513A1 (en) 2018-06-07
WO2017199782A1 (ja) 2017-11-23
EP3459607A4 (en) 2019-05-08
EP3459607A1 (en) 2019-03-27

Similar Documents

Publication Publication Date Title
CN107847807A (zh) 机器人
CN107635629A (zh) 机器人
CN107847806A (zh) 机器人
US20220020360A1 (en) System and method for dialogue management
US20190206402A1 (en) System and Method for Artificial Intelligence Driven Automated Companion
US11003860B2 (en) System and method for learning preferences in dialogue personalization
US11504856B2 (en) System and method for selective animatronic peripheral response for human machine dialogue
US11468885B2 (en) System and method for conversational agent via adaptive caching of dialogue tree
CN112262024B (zh) 用于增强数字体验的动态机器人配置的系统和方法
CN111201539A (zh) 由自主个人伴侣基于描述用户的情景环境的所识别标签来不断地选择场景以供由用户的人工智能模型执行
JP2016522465A (ja) 永続性コンパニオンデバイスを提供するための装置及び方法
US10994421B2 (en) System and method for dynamic robot profile configurations based on user interactions
CN210155626U (zh) 信息处理装置
US20190251957A1 (en) System and method for prediction based preemptive generation of dialogue content
US20190202061A1 (en) System and method for detecting physical proximity between devices
US20190251716A1 (en) System and method for visual scene construction based on user communication
WO2021003471A1 (en) System and method for adaptive dialogue management across real and augmented reality
US20220241977A1 (en) System and method for dynamic program configuration

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20180327