CN108055868B - 机器人 - Google Patents
机器人 Download PDFInfo
- Publication number
- CN108055868B CN108055868B CN201780001621.3A CN201780001621A CN108055868B CN 108055868 B CN108055868 B CN 108055868B CN 201780001621 A CN201780001621 A CN 201780001621A CN 108055868 B CN108055868 B CN 108055868B
- Authority
- CN
- China
- Prior art keywords
- acceleration
- robot
- axis direction
- user
- value indicating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000001133 acceleration Effects 0.000 claims abstract description 323
- 230000007246 mechanism Effects 0.000 claims description 58
- 238000005070 sampling Methods 0.000 claims description 43
- 238000000034 method Methods 0.000 description 90
- 230000008569 process Effects 0.000 description 83
- 238000012545 processing Methods 0.000 description 71
- 230000008451 emotion Effects 0.000 description 60
- 238000010586 diagram Methods 0.000 description 49
- 238000001514 detection method Methods 0.000 description 21
- 239000013598 vector Substances 0.000 description 18
- 230000005484 gravity Effects 0.000 description 13
- 238000004891 communication Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 9
- 238000012986 modification Methods 0.000 description 9
- 230000004044 response Effects 0.000 description 9
- 230000036642 wellbeing Effects 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 6
- 230000002093 peripheral effect Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 230000010354 integration Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000036651 mood Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 206010027940 Mood altered Diseases 0.000 description 1
- 206010041349 Somnolence Diseases 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 208000006673 asthma Diseases 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H33/00—Other toys
- A63H33/005—Motorised rolling toys
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H11/00—Self-movable toy figures
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H17/00—Toy vehicles, e.g. with self-drive; ; Cranes, winches or the like; Accessories therefor
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H29/00—Drive mechanisms for toys in general
- A63H29/08—Driving mechanisms actuated by balls or weights
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H29/00—Drive mechanisms for toys in general
- A63H29/22—Electric drives
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H3/00—Dolls
- A63H3/006—Dolls provided with electrical lighting
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H3/00—Dolls
- A63H3/28—Arrangements of sound-producing means in dolls; Means in dolls for producing sounds
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H30/00—Remote-control arrangements specially adapted for toys, e.g. for toy vehicles
- A63H30/02—Electrical arrangements
- A63H30/04—Electrical arrangements using wireless transmission
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H33/00—Other toys
- A63H33/26—Magnetic or electric toys
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01P—MEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
- G01P15/00—Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
- G01P15/18—Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration in two or more dimensions
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H2200/00—Computerized interactive toys, e.g. dolls
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Toys (AREA)
- Manipulator (AREA)
Abstract
机器人当在从加速度传感器输出的表示上下轴方向的加速度的第1值超过了预定的阈值后,判断为从加速度传感器输出的表示上下轴方向的加速度的第1值、表示前后轴方向的加速度的第2值和表示左右轴方向的加速度的第3值的某一个在一定期间内超过预定幅度地产生变动的情况下,判断为壳体被用户抱着。
Description
技术领域
本公开涉及判断自己的状态的机器人。
背景技术
以往,提出了各种机器人。
专利文献1公开一种具有四条腿的多足行走机器人(例如第8页第15-17行等)。在专利文献1中,多足行走机器人具备检测三个轴(X轴、Y轴、Z轴)方向的加速度的加速度传感器以及检测三个角(R角、P角、Y角)方向的旋转角速度的角速度传感器(例如第8页第26行-第9页第8行等)。在基于所述加速度传感器以及所述角速度传感器的检测结果(例如第9页第5-14行等),检测出用户将所述机器人抱起时,所述机器人停止各个腿的活动(例如第10页第13-20行等)。由此,防止发生用户受伤于未然(例如第6页第11-12行等)。
现有技术文献
专利文献1:国际公开第00/032360号
发明内容
发明所要解决的问题
在上述的现有技术中,需要进一步的改善。
用于解决问题的技术方案
为了解决上述问题,本公开的一个技术方案的机器人,具备:
球体状的壳体;
框架,其配置在所述壳体的内侧部;
显示部,其安装于所述框架,至少显示机器人的面部的一部分;
一组驱动轮,其安装于所述框架,与所述壳体的内周面接触,使所述壳体旋转;
配重驱动机构,其安装于所述框架,使配重在预定方向上往复移动;
加速度传感器,其检测上下轴方向、前后轴方向及左右轴方向的三个轴向的加速度;以及
控制电路,其当在从所述加速度传感器输出的表示所述上下轴方向的加速度的第1值超过了预定的阈值后,判断为表示所述上下轴方向的加速度的第1值、表示所述前后轴方向的加速度的第2值和表示所述左右轴方向的加速度的第3值的某一个在一定期间内超过预定幅度地产生变动的情况下,判断为所述壳体被用户抱着。
发明效果
根据上述技术方案,能够实现进一步的改善。
附图说明
图1A是表示抱了机器人时的加速度传感器的输出波形的一例的图。
图1B是表示抱了机器人时的加速度传感器的输出波形的一例的图。
图1C是表示抱了机器人时的加速度传感器的输出波形的一例的图。
图2A是本公开的第1实施方式涉及的机器人的外观立体图。
图2B是本公开的第1实施方式涉及的机器人的内部立体图。
图3是图2B的A视角下的本公开的第1实施方式涉及的机器人的内部侧视图。
图4是图2B的A视角下的表示本公开的第1实施方式涉及的机器人的直行动作的侧视图。
图5是图2B的B视角下的表示本公开的第1实施方式涉及的机器人的旋转动作的俯视图。
图6是表示本公开的第1实施方式涉及的机器人的旋转动作的立体图。
图7是在图3的侧视图中示出了对重(counterweight)的驱动机构的图。
图8A是表示将对重沿着预定的直线方向驱动时的对重的驱动机构的动作的立体图。
图8B是表示将对重沿着预定的直线方向驱动时的对重的驱动机构的动作的侧视图。
图8C是在图3的侧视图中表示对重沿着预定的直线方向往复移动的状态的侧视图。
图9A是表示使摆臂旋转时的对重的驱动机构的动作的立体图。
图9B是表示使摆臂旋转时的对重的驱动机构的动作的侧视图。
图9C是图2B的B视角下的表示本公开的第1实施方式涉及的机器人的摆臂进行旋转的状态的俯视图。
图10是图2B的A视角下的表示对重位于偏向前方的位置时的机器人的姿势的侧视图。
图11是图2B的A视角下的表示对重位于偏向后方的位置时的机器人的姿势的侧视图。
图12是图2B的C视角下的表示对重位于偏向右方的位置时的机器人的姿势的主视图。
图13是图2B的C视角下的表示对重位于偏向左方的位置时的机器人的姿势的主视图。
图14是表示本公开的第1实施方式涉及的机器人所适用的机器人系统的整体构成的一例的图。
图15是表示本公开的第1实施方式涉及的机器人的框图。
图16A是表示在本公开的第1实施方式涉及的机器人的情感表达处理中使机器人表达好感(好意,善意)的情感时的概要的图。
图16B是表示在本公开的第1实施方式涉及的机器人的情感表达处理中使机器人表达厌烦用户的情感时的概要的图。
图17是表示本公开的第1实施方式涉及的机器人的情感表达处理的流程图。
图18是表示本公开的第1实施方式中的图17的S200所示的拥抱检测处理的详情的流程图。
图19是表示本公开的第1实施方式中的图17的S300所示的方向算出处理的详情的流程图。
图20是表示图19的S302中的壳体的移动方向的算出处理的一例的图。
图21是表示本公开的第1实施方式中的图17的S400所示的驱动处理的详情的流程图。
图22是表示图21的S401中的使导向轴的朝向与壳体的移动方向相符的处理的一例的图。
图23A是表示图21的S402中的对重的移动处理的一例的图。
图23B是表示图21的S402中的对重的移动处理的一例的图。
图24是表示本公开的第2实施方式中的图17的S400所示的驱动处理的详情的流程图。
图25是表示图24的S412中的使由驱动轮实现的壳体的前进方向与移动方向平行的处理的一例的图。
图26A是表示由图24的S413以及S414实现的驱动轮的旋转处理的一例的图。
图26B是表示由图24的S413以及S414实现的驱动轮的旋转处理的一例的图。
图26C是表示由图24的S413以及S414实现的驱动轮的旋转处理的一例的图。
图27是表示本公开的第3实施方式中的图17的S300所示的方向算出处理的详情的流程图。
图28A是表示从背面抱了机器人时的加速度传感器的输出波形的一例的图。
图28B是表示从背面抱了机器人时的加速度传感器的输出波形的一例的图。
图28C是表示从背面抱了机器人时的加速度传感器的输出波形的一例的图。
图29是表示本公开的第4实施方式涉及的机器人的情感表达处理的概要的图。
图30是表示本公开的第4实施方式中的图17的S300所示的方向算出处理的详情的流程图。
图31是表示图30的S323中的壳体的移动方向的判断处理的一例的图。
图32是表示在本公开的第4实施方式中进行图24的S412的情况下的显示部的位置的一例的图。
图33是表示本公开的第4实施方式中的图17的S300所示的方向算出处理的详情的变形例的流程图。
图34A是表示在图21的S402以及图24的S413和S414中对使显示部211显示的表情进行变更的一例的图。
图34B是表示在图21的S402以及图24的S413和S414中对使显示部211显示的表情进行变更的一例的图。
图35是表示第1旋转板以及第2旋转板的旋转驱动机构的一例的图。
具体实施方式
(发明本公开涉及的一个技术方案的经过)
如上所述,专利文献1公开一种具备加速度传感器以及角速度传感器的具有四条腿的多足行走机器人。在专利文献1中,设置两个阈值(δ1、δ2),将加速度传感器以及角速度传感器的检测输出的方差值分为3类,判断机器人是正在地面上行动的状态,还是被抬起(搬起)的状态,或是被放下的状态(例如第9页第5-14行等)。
对此,本发明人研究了具备球体状的壳体且一组驱动轮与所述壳体的内周面接触而使所述壳体旋转的机器人。该机器人若具备手脚则会妨碍旋转,因而不具有手脚。在该机器人的内部,设置有框架,在所述框架上安装有至少显示所述机器人的面部的一部分的显示部。
在研究这种机器人的过程中,发现了以下见解。
即,本发明人在对所述机器人安装有加速度传感器的情况下,观察人将球体抱着的状态,如下对所述加速度传感器的输出波形如何变化进行了推测。
本发明人例如推测为,在用户将所述机器人从地板上抬起并将所述机器人抱住的情况下、和在用户将所述机器人从地板上抬起并将所述机器人例如置于椅子上的情况下,所述加速度传感器的输出波形是不同的。
图1A~图1C是表示抱了机器人时的加速度传感器的输出波形的一例的图。假设用户将所述机器人从地板上抬起并抱了所述机器人。在该情况下,推测为,所述加速度传感器输出的表示左右轴(X轴)方向、前后轴(Y轴)方向以及上下轴(Z轴)方向各自的加速度的值如图1A的输出波形Wx、图1B的输出波形Wy、图1C的输出波形Wz所示那样变化。下面,将所述左右轴方向表示为X轴方向,将所述前后轴方向表示为Y轴方向,将所述上下轴方向表示为Z轴方向。
如图1A~图1C所示,若在时刻t1,用户将静置状态的所述机器人从地板上抬起,则推测为所述加速度传感器的输出中的、特别是至少表示所述Z轴方向的加速度的值(第1值的一例)会如输出波形Wz所示那样变化直至超过预定的阈值TH。
而且,若用户将所述机器人拉近并拥抱所述机器人,则推测为所述机器人移动到用户的位置后,根据用户的活动进行摇晃。因此,推测为如从时刻t1到时刻t2的期间的输出波形Wx、Wy、Wz所示那样,根据所述机器人移动直至用户的位置,表示所述Z轴方向的加速度的值、表示所述Y轴方向的加速度的值(第2值的一例)和表示所述X轴方向的加速度的值(第3值的一例)的某一个会在一定期间内超过预定幅度TW地变动。
之后,若所述机器人被用户抱着,则推测为如在图1A~图1C中从时刻t2到时刻t3的期间的输出波形Wx、Wy、Wz所示那样,表示所述Z轴方向、所述Y轴方向和所述X轴方向的加速度的值分别根据用户的活动在预定幅度TW内变动。
另一方面,假设将所述机器人从地板上抬起并例如置于椅子上。在该情况下,也与抱了所述机器人的情况同样地,推测为因用户将所述机器人从地板上抬起,由此表示所述Z轴方向的加速度的值会变化直至超过预定的阈值TH。然而,当将所述机器人例如置于椅子上时,所述机器人的位置被固定在所述椅子上。因此,与所述机器人为静置状态的从时刻t0到时刻t1的期间同样地,推测为表示所述Z轴方向、所述Y轴方向和所述X轴方向的加速度的值均表示大致固定的值。由此,推测为几乎不存在与从时刻t1到时刻t2的期间同样地,表示所述Z轴方向、所述Y轴方向和所述X轴方向的加速度的值的某一个在一定期间内超过预定幅度TW地变动这一情况。
如此,关于在用户将所述机器人从地板上抬起并抱了所述机器人的情况下,所述加速度传感器的输出波形如何根据所述加速度传感器的输出波形的特性来变化的见解,上述专利文献1中也没有公开,发明人理解为以往不为所知。
另一方面,本发明人所研究的机器人如上所述是球体状的壳体的、一组驱动轮与所述壳体的内周面接触使所述壳体旋转的机器人。因此,无法在所述壳体的外周设置妨碍旋转的手脚等。因此,存在由于没有手脚等因而表达受制约这一问题。
本发明人利用上述见解,对判断小孩等用户是否抱着所述机器人,在用户抱着所述机器人的情况下,使所述机器人向所述用户作出各种反应进行了研究,最终想到了本公开涉及的各技术方案。
本公开的一个技术方案涉及的机器人,具备:
球体状的壳体;
框架,其配置在所述壳体的内侧部;
显示部,其安装于所述框架,至少显示机器人的面部的一部分;
一组驱动轮,其安装于所述框架,与所述壳体的内周面接触,使所述壳体旋转;
配重驱动机构,其安装于所述框架,使配重在预定方向上往复移动;
加速度传感器,其检测上下轴方向、前后轴方向及左右轴方向的三个轴向的加速度;以及
控制电路,其当在从所述加速度传感器输出的表示所述上下轴方向的加速度的第1值超过了预定的阈值后,判断为表示所述上下轴方向的加速度的第1值、表示所述前后轴方向的加速度的第2值和表示所述左右轴方向的加速度的第3值的某一个在一定期间内超过预定幅度地产生变动的情况下,判断为所述壳体被用户抱着。
本技术方案具备加速度传感器,当在从所述加速度传感器输出的表示所述上下轴方向的加速度的第1值超过了预定的阈值后,判断为表示所述上下轴方向的加速度的第1值、表示所述前后轴分量的加速度的第2值和表示所述左右轴方向的加速度的第3值的某一个在一定期间内超过预定幅度地产生变动的情况下,判断为所述壳体被用户抱着。
由此,能够简便地区分用户将所述机器人从地板上抬起并将所述机器人抱住的情况、和用户将所述机器人从地板上抬起并将所述机器人例如置于椅子上的情况。其结果,能够在判断为用户将所述机器人抱住的情况下,适当地使所述机器人向所述用户作出各种反应。
(实施方式)
以下,参照附图,对本发明的各实施方式进行说明。此外,在各附图中,对相同的构成要素使用相同的标号。
(第1实施方式)
(整体构成)
图2A是本公开的第1实施方式涉及的机器人1的外观立体图。图2B是本公开的第1实施方式涉及的机器人1的内部立体图。如图2A所示,机器人1具备球体状的壳体101。壳体101例如由透明部件或者半透明的部件构成。
在图2B中,框架102配置在壳体101的内侧部。框架102具备第1旋转板103(旋转板的一例)及第2旋转板104。第1旋转板103相对于第2旋转板104而位于上方。第1旋转板103和第2旋转板104通过连结轴131、132以及与连结轴131、132各自对向的图略(省略图示)的两个连结轴连结着。
如图2B所示,第1显示部105以及第2显示部106安装在第1旋转板103的上表面。另外,第3显示部107安装在第2旋转板104的上表面。第1显示部105、第2显示部106以及第3显示部107例如由多个发光二极管构成。第1显示部105、第2显示部106以及第3显示部107显示机器人的表情的显示信息。具体而言,第1显示部105、第2显示部106以及第3显示部107通过个别地控制所述多个发光二极管的点亮,从而如图2A所示那样显示机器人1的面部的一部分、例如眼和/或嘴。在图2A的例子中,第1显示部105显示左眼的图像,第2显示部106显示右眼的图像,第3显示部107显示嘴的图像。而且,左眼、右眼、嘴的图像透过由透明或者半透明的部件构成的壳体101,放射到外部。
如图2B所示,摄像头(camera)108安装在第1旋转板103的上表面。如图2A所示,摄像头108构成机器人1的面部的一部分、例如鼻子。如图2B所示,摄像头108的拍摄方向朝着机器人1的前方。由此,摄像头108能够拍摄机器人1的前方的影像。
下面,将图2B的C视角下的左方记载为左方或者X方向,将图2B的C视角下的右方记载为右方或者-X方向。另外,将图2B的A视角下的左方记载为前方或者Y方向,将图2B的A视角下的右方表示为后方或者-Y方向。另外,将图2B的A视角以及C视角下的上方表示为上方或者Z方向,将图2B的A视角以及C视角下的下方记载为下方或者-Z方向。
如图2B所示,控制电路109安装在第1旋转板103的上表面。控制电路109控制机器人1的各种动作。将在后面参照图15来说明控制电路109的详情。
第1驱动轮110以及第2驱动轮111分别安装在第2旋转板104的下表面,与壳体101的内周面接触。另外,第1驱动轮110具有使第1驱动轮110驱动的第1马达112。同样地,第2驱动轮111具有使第2驱动轮111驱动的第2马达113。即,第1驱动轮110以及第2驱动轮111由分别独立的个别的马达来驱动。将在后面说明通过第1驱动轮110以及第2驱动轮111的驱动所实现的机器人1的动作的详情。第1驱动轮110以及第2驱动轮111构成一组驱动轮。
图3是图2B的A视角下的本公开的第1实施方式涉及的机器人1的内部侧视图。在图3中,对重114(配重的一例)设置在第1旋转板103与第2旋转板104之间。对重114位于壳体101的中心的稍下方。因此,机器人1的重心位于壳体101的中心的下方。由此,能够使机器人1的动作稳定。
如图3所示,作为驱动对重114的机构,机器人1具备对对重114的移动方向进行规定的导向轴(guide shaft)115、对对重114的旋转方向的位置进行规定的摆臂(swing arm)116、使摆臂116旋转的旋转用马达117、在摆臂116及旋转用马达117之间进行连接的旋转轴118、在对重114的驱动中使用的带(belt)119(图8A及图8B)、与带119接触的马达带轮(motor pulley)120(图8A及图8B)、以及使马达带轮120旋转的未图示的配重驱动用马达。此外,在本技术方案中,所述驱动用马达内置于对重114。将在后面说明通过对重114的驱动所实现的机器人1的动作的详情。
旋转轴118相对于第1驱动轮110与第2驱动轮111的驱动轴而向垂直方向延伸。第1驱动轮110以及第2驱动轮111在正面视角下以与地面隔着距离的方式进行安装。在该情况下,第1驱动轮110与第2驱动轮111的驱动轴例如是连结第1驱动轮110与第2驱动轮111彼此的中心的虚拟轴线。此外,只要第1驱动轮110与第2驱动轮111在正面视角下平行地安装,则实际的驱动轴即为第1驱动轮110与第2驱动轮111的驱动轴。
机器人1还具备图略的电源。机器人1通过图略的充电器来充电。
接着,参照图4至图6,对使用了第1驱动轮110以及第2驱动轮111的机器人1的动作进行说明。
图4是图2B的A视角下的表示本公开的第1实施方式涉及的机器人1的直行动作的侧视图。图5是图2B的B视角下的表示本公开的第1实施方式涉及的机器人1的旋转动作的俯视图。图6是表示本公开的第1实施方式涉及的机器人1的旋转动作的立体图。
如图4所示,若使第1驱动轮110以及第2驱动轮111以相同的速度向前方方向旋转,则通过该动力,壳体101向前方方向旋转。由此,机器人1向与图5所示的虚拟线L1平行的Y方向前进。虚拟线L1是连接旋转轴118(图3)或者旋转轴118(图3)的沿着长度方向的延长线与第3显示部107的中心的直线。反之,若使第1驱动轮110以及第2驱动轮111以相同的速度向后方方向旋转,则机器人1向与所述虚拟线L1(图5)平行的-Y方向后退。下面,将使第1驱动轮110以及第2驱动轮111以相同的速度向前方方向旋转时的壳体101的前进方向(Y方向)表示为由第1驱动轮110以及第2驱动轮111实现的前进方向。将使第1驱动轮110以及第2驱动轮111以相同的速度向后方方向旋转时的壳体101的后退方向(-Y方向)表示为由第1驱动轮110以及第2驱动轮111实现的后退方向。另外,有时将前方方向表示为前进方向,将后方方向表示为后退方向。
另外,如图5以及图6所示,若使第1驱动轮110以及第2驱动轮111彼此向相反方向旋转,则通过该动力,壳体101进行绕通过其中心的铅垂轴的旋转动作。即,机器人1以原地左转或右转的方式旋转。例如,如图5以及图6所示,若进行使第1驱动轮110向前进方向旋转并且使第2驱动轮111向后退方向旋转的第1控制,则机器人1以左转的方式旋转。与此相反地,若进行使第1驱动轮110向后退方向旋转并且使第2驱动轮111向前进方向旋转的第2控制,则机器人1以右转的方式旋转。机器人1通过这种前进、后退或旋转动作进行移动。另外,若将所述第1控制与所述第2控制交替切换,则机器人1交替地以左转和右转的方式旋转。由此,例如能够表现机器人1不平静的样子。
接着,参照图7至图9C,对使用了对重114的机器人1的基本动作进行说明。
图7是在图3的侧视图中示出了配重驱动机构的图。图8A是表示将对重114沿着预定的直线方向驱动时的对重114的驱动机构的动作的立体图。图8B是表示将对重114沿着预定的直线方向驱动时的对重114的驱动机构的动作的侧视图。图8C是在图3的侧视图中表示对重114沿着预定的直线方向往复移动的状态的侧视图。图9A是表示使摆臂116旋转时的对重114的驱动机构的动作的立体图。图9B是表示使摆臂116旋转时的配重驱动机构的动作的侧视图。图9C是图2B的B视角下的表示本公开的第1实施方式涉及的机器人1的摆臂116进行旋转的状态的俯视图。
如图7所示,摆臂116的中央位置成为对重114的默认位置。在此,作为一例,摆臂116朝着与机器人1的正面垂直的方向。此外,摆臂116也可以朝着与机器人1的左右方向垂直的方向。以下,为便于说明,将与机器人1的正面垂直的方向称为默认方向。如此,对重114位于摆臂116的中央时,第1旋转板103以及第2旋转板104与行驶面大致平行,成为构成机器人1的面部的例如眼、鼻、嘴朝向默认方向的状态。
如图8A以及图8B所示,内置于对重114的未图示的配重驱动用马达使与所述配重驱动用马达连结的马达带轮120旋转。旋转的马达带轮120在带119上滚动,由此,对重114在摆臂116内移动。通过使马达带轮120的旋转方向、即所述配重驱动用马达的驱动方向变化,在摆臂116内,对重114沿着直线方向往复移动。
如图8C所示,对重114沿着导向轴115,在摆臂116内沿直线方向往复移动。
如图9A以及图9B所示,旋转用马达117使旋转轴118旋转,由此使与旋转轴118(图3)连接的摆臂116旋转。由此,导向轴115也与摆臂116沿相同的方向旋转。
如图9C所示,摆臂116以及导向轴115(图9A、图9B)能够沿着右转(顺时针)、左转(逆时针)的任意方向旋转。
再者,参照图10至图13,对使用了对重114的机器人1的动作的详情进行说明。图10是图2B的A视角下的表示对重114位于偏向前方的位置时的机器人1的姿势的侧视图。图11是图2B的A视角下的表示对重114位于偏向后方的位置时的机器人1的姿势的侧视图。图12是图2B的C视角下的表示对重114位于偏向右方的位置时的机器人1的姿势的主视图。图13是图2B的C视角下的表示对重114位于偏向左方的位置时的机器人1的姿势的主视图。
如图10所示,若在摆臂116与机器人1的正面垂直的状态下,使对重114从默认位置向摆臂116的一端(图10中为左端)、即偏向前方移动,则机器人1如箭头121所示向前方倾斜。另外,如图11所示,若在摆臂116朝向与机器人1的正面垂直的默认方向的状态下,使对重114从默认位置向摆臂116的另一端(图11中为右端)、即偏向后方移动,则机器人1如箭头122所示向后方倾斜。因此,若在摆臂116朝向默认方向的状态下,使对重114从摆臂116内的所述一端到所述另一端进行往复动作,则机器人1进行向箭头121所示的前方或者箭头122所示的后方倾斜的往复动作。即,机器人1在预定的角度内沿上下方向旋转。
如上所述,第1显示部105、第2显示部106以及第3显示部107表示机器人1的面部的一部分、例如眼或嘴。因此,通过使用对重114来使机器人1进行向前方或后方倾斜的往复动作,例如能够表现机器人1气喘的状态或困倦的状态。
如图12所示,若在摆臂116与机器人1的正面平行的状态下,使对重114从默认位置向摆臂116的一端(图12的右端)、即偏向右方移动,则机器人1向箭头123所示的右侧倾斜。另外,如图13所示,若在摆臂116与机器人1的正面平行的状态下,使对重114从默认位置向摆臂116的另一端(图13的左端)、即偏向左方移动,则机器人1向箭头124所示的左侧倾斜。因此,若在摆臂116与机器人1的正面平行的状态下,使对重114从摆臂116内的所述一端到所述另一端进行往复移动,则机器人1进行向箭头123所示的右侧或者箭头124所示的左侧倾斜的往复动作。即,机器人1在预定角度内沿左右方向旋转。
如上所述,第1显示部105、第2显示部106以及第3显示部107表示机器人1的面部的一部分、例如眼或嘴。因此,通过使用对重114来使机器人1进行向右方或左方倾斜的往复运动,例如能够表现机器人1的心情好的状态或者表现机器人1正在思考。
图14是表示本公开的第1实施方式涉及的机器人1所适用的机器人系统1500的整体构成的一例的图。机器人系统1500具备云服务器3、便携终端4以及机器人1。机器人1例如经由Wifi(注册商标)通信与互联网连接,并与云服务器3连接。另外,机器人1例如经由Wifi(注册商标)通信与便携终端4连接。用户1501例如是小孩,用户1502、1503例如是该小孩的父母。
便携终端4例如安装有与机器人1协同工作的应用程序。便携终端4能够通过应用程序从用户1501~1503受理对机器人1的各种指示,对机器人1进行该受理到的指示。
机器人1例如在从便携终端4收到将某本绘本读给小孩听的指示时,开始朗读该绘本,读给小孩听。机器人1例如若在读绘本的过程中从小孩受理到某些提问,则将该提问发送给云服务器3,并从云服务器3接收针对该提问的回答,发出表示回答的语音。
如此,用户1501~1503将机器人1像宠物那样对待,能够通过与机器人1的接触,进行语言学习。
另外,假设机器人1正在按照由用户1501发出的指示动作的时候,从相同的用户1501收到另外的指示。在这种情况下,机器人1也能够通过使用对重114来使机器人1进行向右方或左方倾斜的往复运动,或使用第1驱动轮110以及第2驱动轮111来向朝向用户1501的方向前进等,表现心情好的状态。与此相反地,假设机器人1正在按照由用户1501发出的指示动作的时候,从用户1502和/或用户1503等其他用户收到另外的指示。在这种情况下,机器人1也能够通过使用第1驱动轮110以及第2驱动轮111来后退以离开该其他用户,或交替切换所述第1控制与所述第2控制,表现心情差的状态或者表现不平静的样子。下面,在对用户1501~1503进行总称的情况下,记载为用户1501。
如此,机器人1能够表达对用户1501的情感,因此,用户1501能够将机器人1像宠物那样对待,与机器人1相接触。
接着,参照图15,对本公开的第1实施方式涉及的机器人1的内部电路的详情进行说明。图15是表示本公开的第1实施方式涉及的机器人1的框图。
如图15所示,机器人1具备控制电路109、显示部211、轴控制部213、旋转轴118、壳体驱动轮控制部214、壳体驱动轮212、配重驱动机构控制部215、配重驱动机构218、加速度传感器219、麦克风217、扬声器216、摄像头108以及通信部210。
控制电路109通过包括存储器206、由CPU等处理器构成的主控制部200、显示信息输出控制部205以及对时刻进行计时的图略的计时器等在内的计算机来构成。
存储器206例如通过非易失性的可改写的存储装置来构成,存储机器人1的控制程序等。
主控制部200执行存储器206所存储的机器人1的控制程序。由此,主控制部200作为加速度信息管理部201、保持状态判断部202、用户方向算出部203以及摄像头影像处理部204进行工作。将在后面说明加速度信息管理部201、保持状态判断部202、用户方向算出部203以及摄像头影像处理部204的详情。
加速度传感器219例如与控制电路109(图2B)同样安装在第1旋转板103的上表面,根据从主控制部200发送来的命令(command),检测机器人1的上下轴(Z轴)方向(图2B中的箭头B方向)、前后轴(Y轴)方向(图2B中的箭头C方向)以及左右轴(X轴)方向(图2B中的箭头A方向)的三个轴向的加速度。加速度传感器219将表示检测到的三个方向的加速度的值输出给主控制部200。将在后面说明所述命令的详情。加速度传感器219不限于安装在第1旋转板103(图2B)的上表面,也可以安装在第1旋转板103(图2B)的下表面和/或第2旋转板104(图2B)的上表面或者下表面等。
麦克风217安装于框架102,将声音变换为电信号,输出给主控制部200。麦克风217例如可以安装在第1旋转板103的上表面,也可以安装在第2旋转板104的上表面。主控制部200从由麦克风217取得的语音中识别用户1501的语音的有无,将语音识别结果存储于存储器206,由此,管理语音识别结果。主控制部200将存储器206所存储的语音识别用数据与取得语音进行比对,识别话语内容以及说话的用户1501。
扬声器216以输出面朝向正面的方式安装于框架102,将语音的电信号变换为物理振动。主控制部200通过将预定语音从扬声器216输出来使机器人1说话。
如图2B中说明的那样,摄像头108拍摄机器人1的前方(Y方向)的影像,将拍摄到的图像(以下称为拍摄图像)输出给主控制部200。主控制部200从由摄像头108取得的拍摄图像中识别用户面部的有无、位置以及大小,将面部识别结果存储于存储器206,由此,管理面部识别结果。
主控制部200基于语音识别结果和/或面部识别结果来生成命令,并输出给显示信息输出控制部205、轴控制部213、壳体驱动轮控制部214、配重驱动机构控制部215以及通信部210等。将在后面说明所述命令的详情。
显示信息输出控制部205将与从主控制部200发送来的命令相应的机器人1的表情的显示信息显示于显示部211。显示部211由在图2B中说明的第1显示部105、第2显示部106以及第3显示部107构成。
轴控制部213根据从主控制部200发送来的命令,使在图9A以及图9B中说明的旋转轴118旋转。轴控制部213由在图9A以及图9B中说明的旋转用马达117构成。
壳体驱动轮控制部214根据从主控制部200发送来的命令,使机器人1的壳体驱动轮212动作。壳体驱动轮控制部214通过在图2B中说明的第1马达112以及第2马达113来构成。壳体驱动轮212由在图2B中说明的第1驱动轮110以及第2驱动轮111构成。壳体驱动轮212相当于一组驱动轮的一例。
配重驱动机构控制部215根据从主控制部200发送来的命令,使机器人1的配重驱动机构218动作。配重驱动机构控制部215通过内置于对重114中的未图示的配重驱动用马达来构成。配重驱动机构218由在图3、图8A以及图8B中说明的导向轴115、摆臂116、旋转用马达117、带119、马达带轮120以及未图示的配重驱动用马达构成。
通信部210通过用于使机器人1连接于云服务器3(图14)的通信装置来构成。作为通信部210,例如能够采用Wifi(注册商标)等的无线LAN的通信装置,但是这仅为一例。通信部210根据从主控制部200发送来的命令,与云服务器3进行通信。
(情感表达处理)
接着,使用图16A以及图16B,对本公开的第1实施方式涉及的机器人1中的情感表达处理的概要进行说明。图16A是表示在本公开的第1实施方式涉及的机器人1的情感表达处理中使机器人1表达好感的情感时的概要的图。图16B是表示在本公开的第1实施方式涉及的机器人的情感表达处理中使机器人1表达厌烦用户1501的情感时的概要的图。情感表达处理指的是在判断为机器人1被用户1501抱着的情况下,使机器人1表达情感的处理。如图16A以及图16B所示,在本公开的第1实施方式涉及的机器人1的情感表达处理中,进行1)拥抱检测处理、2)方向算出处理以及3)驱动处理。
在拥抱检测处理中,检测机器人1被抬起的情况下的Z轴方向的移动,以此为触发,检测机器人1被抱着这一情况。
在方向算出处理中,算出在用户1501抱了机器人1时机器人1被用户1501拉近的方向、即包括X轴以及Y轴的平面(以下称为XY轴平面)内的壳体101(图2A)的移动方向D。
在驱动处理中,使导向轴115(图9A、图9B)的朝向与在方向算出处理中算出的移动方向D相符后,使对重114沿着导向轴115向与使机器人1表达的情感相应的方向移动(图8C、图10、图11)。例如,在使机器人1表达表示对用户1501的好感的情感的情况下,如图16A所示,使对重114沿着导向轴115向用户1501侧移动。另一方面,在使机器人1表达表示厌烦用户1501(不乐意)的情感的情况下,如图16B所示,使对重114沿着导向轴115向与用户1501侧相反的一侧移动。
如此,本公开的第1实施方式涉及的机器人1中的情感表达处理的特征在于,通过使对重114向机器人1被用户1501拉近的方向或者其相反方向移动来使机器人1表达情感。
以下,使用图17,对本公开的第1实施方式涉及的机器人1中的情感表达处理的处理流程进行说明。图17是表示本公开的第1实施方式涉及的机器人1的情感表达处理的流程图。
对机器人1接通电源时,主控制部200开始情感表达处理。如图17所示,情感表达处理开始时,加速度信息管理部201开始进行将加速度传感器219输出的表示X轴方向的加速度的值Ax、表示Y轴方向的加速度的值Ay以及表示Z轴方向的加速度的值Az与时刻关联并存储于存储器206的处理(以下称为加速度存储处理)(S100)。
S100以后,加速度信息管理部201继续进行所述加速度存储处理直至机器人1的电源被切断。此外,加速度信息管理部201也可以在电源切断时和/或定期地等预定的定时(timing),删除存储器206所存储的过去的与预定期间对应的表示三个方向的加速度的值Ax、Ay、Az。另外,在加速度传感器219输出三个方向的加速度的周期(抽样(sampling)周期)短的情况下,也可以将对多个抽样周期内的加速度传感器219的输出值在各个轴上进行平均而得到的值作为表示三个方向的加速度的值Ax、Ay、Az来与时刻关联并存储于存储器206,以使得变为适当的抽样周期。下面,将表示X轴方向的加速度的值Ax略记为加速度Ax,将表示Y轴方向的加速度的值Ay略记为加速度Ay,将表示Z轴方向的加速度的值Az略记为加速度Az。
接着,保持状态判断部202进行拥抱检测处理(图16A、图16B)(S200)。将在后面说明拥抱检测处理的详情。接着,用户方向算出部203进行方向算出处理(图16A、图16B)(S300)。将在后面说明方向算出处理的详情。接着,主控制部200进行驱动处理(图16A、图16B)(S400),结束情感表达处理。将在后面说明驱动处理的详情。
以下,说明图17的S200所示的拥抱检测处理的详情。图18是表示本公开的第1实施方式中的图17的S200所示的拥抱检测处理的详情的流程图。
如图18所示,保持状态判断部202在开始拥抱检测处理时,参照存储器206所存储的与最近的时刻对应的加速度Ax、Ay、Az(S201)。接着,保持状态判断部202判断所参照的加速度Az是否超过了预定的阈值TH(图1A)(S202)。由此,保持状态判断部202检测机器人1是否沿Z轴方向产生了移动。
保持状态判断部202在判断为所参照的加速度Az超过了阈值TH(图1A)的情况下(S202:是),检测为机器人1沿Z轴方向产生了移动,进行S203。另一方面,保持状态判断部202在判断为所参照的加速度Az没有超过预定的阈值TH(图1A)的情况下(S202:否),检测为机器人1没有沿Z轴方向移动。在该情况下,保持状态判断部202将处理返回到S201,进行S201以后的处理。
在S203中,保持状态判断部202判断机器人1是否自己在进行驱动(S203)。例如,保持状态判断部202在主控制部200向壳体驱动轮控制部214(图15)输出用于使壳体驱动轮212(图15)动作的命令(驱动指示的一例)的情况下,判断为机器人1自己在进行驱动。另一方面,保持状态判断部202在没有向壳体驱动轮控制部214(图15)输出所述命令的情况下,判断为机器人1并非处于自己在进行驱动的状态。由此,保持状态判断部202判别是机器人1因使壳体驱动轮212动作并自己开始在斜面上爬行从而沿Z轴方向产生了移动,还是机器人1因被用户1501抬起从而沿Z轴方向产生了移动。
保持状态判断部202在S203中判断为机器人1自己在进行驱动的情况下(S203:是),检测为机器人1没有被用户1501抬起。在该情况下,可认为机器人1没有被用户1501抱着,因此,保持状态判断部202将处理返回到S201,进行S201以后的处理。另一方面,保持状态判断部202在S203中判断为机器人1并非处于自己在进行驱动的状态的情况下(S203:否),检测为机器人1被用户1501抬起。在该情况下,机器人1有可能被用户1501抱着,因此,保持状态判断部202进行S204以后的处理。
在S204以后的处理中,保持状态判断部202在加速度Az超过了阈值TH(图1A)后,判断存储器206所存储的加速度Ax、Ay、Az的某一个是否在一定期间(以下称为一定期间Td)内超过预定幅度TW(图1A~图1C)地产生变动。而且,保持状态判断部202基于该判断结果来检测机器人1是否被用户1501抱着。
具体而言,在S204中,保持状态判断部202将参照时刻t设定为初始时刻T0(S204)。在此,参照时刻t是表示与存储器206所存储的加速度Ax、Ay、Az中的、保持状态判断部202参照的对象的加速度Ax、Ay、Az对应的时刻的参数。初始时刻T0是在S202中判断为加速度Az超过了阈值TH(图1A)的时刻。
然后,保持状态判断部202判断参照时刻t是否超过了预定时刻T(S205)。在此,预定时刻T是从初始时刻T0经过了所述一定期间Td的时刻(=T0+Td)。
保持状态判断部202在判断为参照时刻t没有超过预定时刻T时(S205:是),判断存储器206所存储的、从初始时刻T0到参照时刻t的与时刻对应的加速度Ax、Ay、Az的波动(变动)的某一方是否超过了预定幅度TW(S206)。在此,从初始时刻T0到参照时刻t的与时刻对应的加速度Ax、Ay、Az的波动例如是从初始时刻T0到参照时刻t的与时刻对应的加速度Ax、Ay、Az的标准差。此外,所述波动不限于所述标准差,也可以是从初始时刻T0到参照时刻t的与时刻对应的加速度Ax、Ay、Az的方差或者峰值(最大值以及最小值)。
假设保持状态判断部202在S206中判断为从初始时刻T0到参照时刻t的与时刻对应的加速度Ax、Ay、Az的波动的某一方超过了预定幅度TW(S206:是)。在该情况下,保持状态判断部202将参照时刻t设定为经过了与加速度传感器219输出加速度Ax、Ay、Az的周期(抽样间隔)Δt相当的时间的时刻(=t+Δt)(S207),将处理返回到S205,进行S205以后的处理。
另一方面,假设保持状态判断部202在S206中判断为从初始时刻T0到参照时刻t的与时刻对应的加速度Ax、Ay、Az的任一个的波动都没有超过预定幅度TW(S206:否)。在该情况下,保持状态判断部202判断为加速度Ax、Ay、Az的任一个的波动在从加速度Az超过了阈值TH(图1A)的初始时刻T0到经过预定时刻T为止的一定期间Td内,都处于预定幅度TW内。在该情况下,保持状态判断部202判断为机器人1被从地板上抬起后,例如被安置在了椅子上等预定地方,检测为机器人1没有被用户1501抱着。而且,保持状态判断部202将处理返回到S201,进行S201以后的处理。
之后,保持状态判断部202在判断为参照时刻t超过了预定时刻T时(S205:否),与S206同样地,判断存储器206所存储的、从初始时刻T0到参照时刻t的与时刻对应的加速度Ax、Ay、Az的波动的某一方是否超过了预定幅度TW(S208)。
假设保持状态判断部202在S208中判断为加速度Ax、Ay、Az的波动的某一方超过了预定幅度TW(S208:是)。在该情况下,保持状态判断部202判断为在从加速度Az超过了阈值TH(图1A)的初始时刻T0到经过预定时刻T为止的一定期间Td,加速度Ax、Ay、Az的波动的某一方超过了预定幅度TW。在该情况下,保持状态判断部202判断为机器人1被用户1501抱着,检测为机器人1被用户1501抱着。而且,保持状态判断部202结束拥抱检测处理。
另一方面,假设保持状态判断部202在S208中判断为加速度Ax、Ay、Az的任一个的波动都没有超过预定幅度TW(S208:否)。在该情况下,保持状态判断部202判断为在从加速度Az超过了预定的阈值TH(图1A)的初始时刻T0到经过预定时刻T为止的一定期间Td内,加速度Ax、Ay、Az的任一个的波动都处于预定幅度TW内。在该情况下,保持状态判断部202判断为机器人1被从地板上抬起后,例如被安置在了椅子上等预定地方,检测为机器人1没有被用户1501抱着。而且,保持状态判断部202将处理返回到S201,进行S201的处理。
此外,在S204以后的处理中,保持状态判断部202在加速度Az超过阈值TH(图1A)之前,存储器206所存储的加速度Ax、Ay、Az的某一个的波动已经超过了预定幅度TW的情况下,也可以追朔到该波动超过了预定幅度TW的时刻,从该时刻起在一定期间Td内确认是否超过了预定幅度TW。也就是说,所述初始时刻T0也可以是比在S202中被判断为加速度Az超过了阈值TH的时刻提前预定时间的时刻。在该情况下,在S204以后的处理中,保持状态判断部202在从比加速度Az超过了阈值TH的时刻提前预定时间的初始时刻T0起,加速度Ax、Ay、Az的波动的某一方在一定期间Td内超过了预定幅度TW的情况下,检测为机器人1被抱着。这样,也可以为,保持状态判断部202在用户1501通过将机器人1拉近后抬起从而抱住机器人1的情况下,也检测为机器人1被抱着。
接着,说明图17的S300所示的方向算出处理的详情。图19是表示本公开的第1实施方式中的图17的S300所示的方向算出处理的详情的流程图。
如图19所示,用户方向算出部203在开始方向算出处理时,从存储器206取得与包含在S202(图18)中被判断为加速度Az超过了阈值TH的时刻(以下称为抬起判断时刻)在内的预定的抽样期间TS对应的加速度Ax、Ay(S301)。然后,用户方向算出部203基于在S301中取得的加速度Ax、Ay,算出XY轴平面内的壳体101的移动方向D(S302),结束方向算出处理。
在此,抽样期间TS例如确定为从比所述抬起判断时刻早预定期间的时刻到经过了所述一定期间Td的时刻为止的期间。在该情况下,用户方向算出部203在S302中基于通过S301取得的与所述抬起判断时刻的前后的预定的抽样期间TS对应的加速度Ax、Ay,算出在所述抬起判断时刻的前后的预定的抽样期间TS,壳体101在XY轴平面内移动了的方向。由此,无论是在用户1501将机器人1抬起后拉近并抱住的情况和用户1501将机器人1拉近后抬起并抱住的情况的哪一情况下,都能够算出因机器人1被用户1501拉近,壳体101在XY轴平面内移动了的方向。
此外,抽样期间TS不限于此,也可以确定为从所述抬起判断时刻到经过了所述一定期间Td的时刻为止的期间。另外,也可以将抽样期间TS确定为从比所述抬起判断时刻早预定期间的时刻或者所述抬起判断时刻到经过了与所述一定期间Td不同的一定期间的时刻为止的期间。
图20是表示图19的S302中的壳体101的移动方向D的算出处理的一例的图。如图20的左图以及中图所示,用户方向算出部203在S302中算出向量Dxy,向量Dxy表示因壳体101从抽样期间TS开始时的位置P0移动到抽样期间TS结束时的位置P1,壳体101在XY轴平面内移动了的距离以及方向。
具体而言,用户方向算出部203算出对在S301中取得的加速度Ax进行二次积分而得到的结果的绝对值来作为壳体101从位置P0到位置P1沿X轴方向移动了的移动距离。另外,用户方向算出部203在所述二次积分得到的结果为正(+、plus)值的情况下,判断为壳体101沿X轴方向移动了的方向是X方向(左方),在所述二次积分得到的结果为负(-、minus)值的情况下,判断为壳体101沿X轴方向移动了的方向是-X方向(右方)。由此,如图20的右图所示,用户方向算出部203算出表示壳体101从位置P0到位置P1在X轴方向上移动了的移动距离以及方向的向量Dx。
同样地,用户方向算出部203算出对在S301中取得的加速度Ay进行二次积分而得到的结果的绝对值来作为壳体101从位置P0到位置P1沿Y轴方向移动了的移动距离。另外,用户方向算出部203在所述二次积分得到的结果为正(+、plus)值的情况下,判断为壳体101沿Y轴方向移动了的方向是Y方向(前方),在所述二次积分得到的结果为负(-、minus)值的情况下,判断为壳体101沿Y轴方向移动了的方向是-Y方向(后方)。由此,如图20的右图所示,用户方向算出部203算出表示壳体101从位置P0到位置P1在Y轴方向上移动了的移动距离以及方向的向量Dy。
接着,用户方向算出部203算出将所算出的向量Dx与向量Dy进行合成而得到的向量来作为表示在XY轴平面内壳体101移动了的距离以及方向的向量Dxy。而且,用户方向算出部203算出X方向与向量Dxy,以X方向为基准向左转而成的角度“θ”。由此,用户方向算出部203算出从X方向以左转的方式旋转了上述算出的角度“θ”后的方向作为XY轴平面内的壳体101的移动方向D。下面,将上述算出的角度“θ”记载为表示移动方向D的角度θ。
接着,说明图17的S400所示的驱动处理的详情。图21是表示本公开的第1实施方式中的图17的S400所示的驱动处理的详情的流程图。
如图21所示,主控制部200在开始驱动处理时,使导向轴115(图9A、图9B)的朝向与在S302(图19)中算出的移动方向D相符(S401)。
图22是表示图21的S401中的使导向轴115的朝向与壳体101的移动方向相符的处理的一例的图。在S401中,主控制部200例如如图22所示那样判断为从X方向以左转的方式旋转与表示移动方向D的角度θ相当的角度后的方向是壳体101的移动方向D。另外,主控制部200判断为图22的虚线部所示的导向轴115的默认方向即Y方向是从X方向以左转的方式旋转了90度后的方向。而且,主控制部200在表示Y方向与移动方向D的偏离的角度、即从90度减去表示移动方向D的角度θ所算出的结果(=90°-θ)为正值的情况下,将使旋转轴118(图9B)以右转的方式旋转与该结果的绝对值所示的角度相当的角度的命令输出给轴控制部213(图15)。此外,轴控制部213(图15)从内部所具备的图略的编码器取得旋转用马达117(图9A、图9B)的转速,并使旋转用马达117(图9A、图9B)沿命令所示的方向旋转,直至所取得的转速达到与命令所示的角度对应的转速。由此,朝着默认方向即Y方向的用虚线表示的导向轴115的朝向变得与移动方向D相符。另一方面,主控制部200在表示所述偏离的角度(=90°-θ)为负值的情况下,将使旋转轴118(图9B)进一步以左转的方式旋转与表示该偏离的角度的绝对值所示的角度(=|90°-θ|)相当的角度的命令输出给轴控制部213(图15)。此外,在S401中,主控制部200使导向轴115(图9A、图9B)的朝向与在S302(图19)中算出的移动方向D相符的方法不限于上述方法。
接着,主控制部200使对重114沿着导向轴115沿与使机器人1表达的情感相应的方向移动(图8A~图8C、图10、图11)(S402)。
例如,假设机器人1正在按照由用户1501发出的指示动作的时候,与指示了该动作的用户1501相同的用户1501抱住机器人1。在这种情况下,主控制部200使机器人1表达表示对用户1501的好感的情感。此外,主控制部200基于所述语音识别结果和/或所述面部识别结果,判断抱住机器人1的用户1501是否与指示了动作的用户1501相同即可。与此相反地,假设机器人1正在按照由用户1501发出的指示动作的时候,与指示了该动作的用户不同的其他用户1501抱住机器人1。在这种情况下,主控制部200使机器人1表达表示厌烦用户1501的情感。此外,主控制部200决定使机器人1表达的情感的方法不限于此,也可以用另外的方法决定使机器人1表达的情感。
图23A以及图23B是表示图21的S402中的对重114的移动处理的一例的图。例如,主控制部200在使机器人1表达表示对用户1501的好感的情感的情况下,将如图23A所示那样使对重114沿着导向轴115沿箭头D1所示的Y方向(前方)移动的命令输出给配重驱动机构控制部215(图15)。配重驱动机构控制部215根据所述命令使马达带轮120(图8A、图8B)旋转,使对重114沿着导向轴115沿Y方向(前方,图8C中的左方)移动。由此,对重114沿着与移动方向D相同朝向的导向轴115,沿机器人1被用户1501拉近的方向移动。也就是说,对重114沿朝向用户1501的方向移动。其结果,机器人1的重心偏向用户1501侧。由此,能够使用户1501感觉机器人1正在用户1501的手臂中向用户1501靠近。这样,主控制部200能够使机器人1表达对用户1501怀有好感。
与此相反地,假设在S401中,主控制部200使机器人1表达厌烦用户1501的情感(“不乐意”)。在该情况下,主控制部200将如图23B所示那样使对重114沿着导向轴115沿与箭头D1相反方向的箭头D2所示的-Y方向(后方,图8C中的右方)移动的命令输出给配重驱动机构控制部215(图15)。配重驱动机构控制部215根据所述命令使马达带轮120(图8A、图8B)旋转,使对重114沿着导向轴115沿-Y方向(后方,图8C中的右方)移动。由此,对重114沿着与移动方向D相同朝向的导向轴115,沿与机器人1被用户1501拉近的方向相反的方向移动。也就是说,对重114在离开用户1501的方向上移动。其结果,机器人1的重心偏向与用户1501相反的一侧。由此,能够使用户1501感觉机器人1正在用户1501的手臂中想要离开用户1501。这样,主控制部200能够使机器人1表达厌烦用户1501。
此外,在假定小孩作为用户1501的情况下,有时不能使对重114的重量太重。于是,在S401中,主控制部200在使机器人1表达表示对用户1501的好感的情感的情况下,也可以使对重114沿着导向轴115暂且沿箭头D2所示的方向移动后,再沿箭头D1所示的方向移动。在该情况下,即使在不能使对重114的重量太重的情况下,也能够使机器人1的重心猛地(用力地)偏向用户1501侧,使用户1501感觉机器人1正在用户1501的手臂中进一步向用户1501靠近。
与此同样地,主控制部200在使机器人1表达厌烦用户1501的情感(“不乐意”)的情况下,也可以使对重114沿着导向轴115沿箭头D1所示的方向移动后,再沿箭头D2所示的方向移动。在该情况下,即使在不能使对重114的重量太重的情况下,也能够使机器人1的重心猛地偏向与用户1501相反的一侧,使用户1501感觉机器人1正在用户1501的手臂中想要进一步离开用户1501。
另外,在S401中,主控制部200也可以通过对配重驱动机构控制部215(图15)输出将马达带轮120(图8A、图8B)的旋转速度设定为比通常时快的速度的命令,从而使对重114以比通常时快的速度移动。在该情况下,即使在不能使对重114的重量太重的情况下,也能够使机器人1的重心的移动的势力增强,更强地使用户1501感觉机器人1对用户1501的情感。
(第2实施方式)
第2实施方式的特征在于,通过使第1驱动轮110以及第2驱动轮111驱动来使机器人1表达情感。第2实施方式中的情感表达处理的整体处理与第1实施方式中的情感表达处理相同,但图17的S400所示的驱动处理的详情不同。此外,在第2实施方式中对与第1实施方式相同的构成赋予同一标号,并省去说明。
图24是表示本公开的第2实施方式中的图17的S400所示的驱动处理的详情的流程图。如图24所示,主控制部200在开始驱动处理时,通过进行S411以及S412,使由第1驱动轮110以及第2驱动轮111实现的壳体101的前进方向与在S302(图19)中算出的移动方向D相符。接着,主控制部200通过进行S413以及S414,根据使机器人1表达的情感,使壳体101沿移动方向D或其相反侧移动。
详细而言,主控制部200在S411中判断通过S302(图19)算出的移动方向D与由第1驱动轮110以及第2驱动轮111实现的壳体101的前进方向是否平行(S411)。具体而言,如上所述,由第1驱动轮110以及第2驱动轮111实现的壳体101的前进方向为Y方向。因此,在S411中,与S401(图21)同样地,主控制部200算出表示Y方向与移动方向D的偏离的角度(=90°-θ)(图22),在该表示偏离的角度(=90°-θ)(图22)为0度或-180度的情况下,判断为移动方向D与壳体101的前进方向(Y方向)平行即可。
此外,在S411中,主控制部200也可以考虑误差来判断移动方向D与壳体101的前进方向(Y方向)是否平行。也就是说,也可以为,如果表示Y方向与移动方向D的偏离的角度(=90°-θ)以0度或-180度为基准进入到表示预定误差的角度α(例如α=10°)的范围内(如果为0°-α≤90°-θ≤0°+α或者-180°-α≤90°-θ≤-180°+α),则判断为是平行的。
主控制部200在S411中判断为通过S302(图19)算出的移动方向D与由第1驱动轮110以及第2驱动轮111实现的壳体101的前进方向平行的情况下(S411:是),进行S413。
另一方面,主控制部200判断为通过S302(图19)算出的移动方向D与由第1驱动轮110以及第2驱动轮111实现的壳体101的前进方向不平行的情况下(S411:否),在使通过S302(图19)算出的移动方向D与由第1驱动轮110以及第2驱动轮111实现的壳体101的前进方向平行后(S412),进行S413。
S412例如如下这样实现即可。首先,基于实验值等来预先确定为了使壳体101沿预定方向旋转预定角度所需的、第1驱动轮110的转速以及旋转方向和第2驱动轮111的转速以及旋转方向,并存储于存储器206即可。
图25是表示图24的S412中的使由第1驱动轮110以及第2驱动轮111实现的壳体101的前进方向与移动方向D平行的处理的一例的图。而且,主控制部200例如如图25所示那样,在通过S411算出的表示Y方向(虚线部)与移动方向D的偏离的角度(=90°-θ)为正值的情况下,从存储器206取得为了使壳体101以右转的方式旋转与该表示偏离的角度(=90°-θ)相当的角度所需的第1驱动轮110以及第2驱动轮111各自的转速以及旋转方向即可。而且,主控制部200将指定该取得的第1驱动轮110的转速以及旋转方向和第2驱动轮111的转速以及旋转方向的命令输出给壳体驱动轮控制部214(图15)即可。壳体驱动轮控制部214(图15)根据所述命令,使第1马达112(图2B)旋转直至第1驱动轮110以所指定的转速沿所指定的旋转方向旋转,并使第2马达113(图2B)旋转直至第2驱动轮111以所指定的转速沿所指定的旋转方向旋转即可。由此,朝着Y方向的用虚线表示的壳体101的前进方向变得与移动方向D相符。另一方面,主控制部200在表示所述偏离的角度(=90°-θ)为负值的情况下,从存储器206取得为了使壳体101以左转的方式旋转与表示所述偏离的角度的绝对值所示的角度(=|90°-θ|)相当的角度所需的第1驱动轮110以及第2驱动轮111各自的转速以及旋转方向即可。而且,主控制部200将指定该取得的第1驱动轮110以及第2驱动轮111各自的转速以及旋转方向的命令输出给壳体驱动轮控制部214(图15)即可。此外,S412的实现方法不限于上述方法。例如,也可以使机器人1具备检测壳体101以Z轴为中心旋转时的角速度的角速度传感器。而且,也可以使主控制部200基于所述角速度传感器检测到的角速度,判断壳体101是否旋转了与表示所述偏离的角度(=90°-θ)相当的角度。
在S413中,主控制部200根据使机器人1表达的情感,决定第1驱动轮110以及第2驱动轮111的旋转方向以及旋转速度(S413)。然后,在S414中,主控制部200使第1驱动轮110以及第2驱动轮111以在S413中决定的旋转方向以及旋转速度进行旋转(S414)。
图26A~图26C是表示由图24的S413以及S414实现的第1驱动轮110以及第2驱动轮111的旋转处理的一例的图。例如,假设主控制部200使机器人1表达表示对用户1501的好感的情感。在该情况下,主控制部200在S413中,如图26A所示那样将第1驱动轮110以及第2驱动轮111的旋转方向决定为箭头D4所示的与Y方向平行的方向(前方)。另外,主控制部200使机器人1表达的对用户1501的好感的情感的程度越强,则将旋转速度设定为越快的速度。然后,在S414中,主控制部200将用于使第1驱动轮110以及第2驱动轮111以在S413中决定的旋转速度沿在S413中决定的旋转方向旋转的命令输出给壳体驱动轮控制部214(图15)。由此,壳体驱动轮控制部214(图15)根据所述命令,使第1马达112(图2B)以及第2马达113(图2B)以所指定的旋转速度沿箭头D4所示的与Y方向平行的方向旋转,使壳体101沿Y方向(前方)直行。在该情况下,在用户1501拥抱着机器人1的状态下,机器人1想要向用户1501侧前进。由此,能够使用户1501感觉机器人1正在用户1501的手臂中向用户1501靠近。这样,主控制部200能够使机器人1表达对用户1501怀有好感。
与此相反地,假设主控制部200使机器人1表达厌烦用户1501的情感(“不乐意”)。在该情况下,主控制部200在S413中,如图26B所示那样将第1驱动轮110以及第2驱动轮111的旋转方向决定为箭头D5所示的与-Y方向平行的方向(后方)。另外,主控制部200使机器人1表达的厌烦用户1501的情感的程度越强,则将旋转速度设定为越快的速度。然后,在S414中,主控制部200将用于使第1驱动轮110以及第2驱动轮111以在S413中决定的旋转速度沿在S413中决定的旋转方向旋转的命令输出给壳体驱动轮控制部214(图15)。壳体驱动轮控制部214(图15)根据所述命令,使第1马达112(图2B)以及第2马达113(图2B)以所指定的旋转速度沿箭头D5所示的与-Y方向平行的方向旋转,使壳体101沿-Y方向(后方)直行。在该情况下,在用户1501拥抱着机器人1的状态下,机器人1想要沿离开用户1501的方向前进。由此,能够使用户1501感觉机器人1正在用户1501的手臂中想要离开用户1501。这样,主控制部200能够使机器人1表达厌烦用户1501。
此外,在假定小孩作为用户1501的情况下,若使第1驱动轮110以及第2驱动轮111持续旋转,则给用户1501带来的负荷会增大。因此,主控制部200在S414中,也可以将用于使第1驱动轮110以及第2驱动轮111间歇式地以在S413中决定的旋转速度沿在S413中决定的旋转方向旋转的命令输出给壳体驱动轮控制部214(图15)。由此,也可以为,壳体驱动轮控制部214(图15)根据所述命令,使第1马达112(图2B)以及第2马达113(图2B)间歇式地以所指定的旋转速度沿与前方或者后方平行的方向旋转,使壳体101间歇式地沿Y方向(前方)或者-Y方向(后方)直行。在该情况下,能够减轻给用户1501带来的所述负荷。
另外,主控制部200在使机器人1表达厌烦用户1501的情感(“不乐意”)的情况下,为了进而使机器人1表达厌烦被抱的情感,也可以交替地进行所述第1控制和所述第2控制。也就是说,在所述第1控制中,如图26C所示那样,在S413中将第1驱动轮110的旋转方向决定为箭头D4所示的与Y方向平行的方向(前方),将第2驱动轮111的旋转方向决定为箭头D5所示的与-Y方向平行的方向(后方)后,进行S414,由此使壳体101以右转的方式旋转。在所述第2控制中,与所述第1控制相反地,在S413中将第1驱动轮110的旋转方向决定为箭头D5所示的与-Y方向平行的方向(后方),将第2驱动轮111的旋转方向决定为箭头D4所示的与Y方向平行的方向(前方)后,进行S414,由此使壳体101以左转的方式旋转。在该情况下,使得机器人1在用户1501的手臂中想要左右来回地动。由此,能够使用户1501感觉机器人1在用户1501的手臂中不平静的样子。这样,主控制部200能够使机器人1表达厌烦被抱。
(第3实施方式)
第3实施方式的特征在于,基于由摄像头108拍摄到的图像来判断在S200(图17)的拥抱检测处理中是否准确地检测到机器人1被用户1501抱着这一情况。第3实施方式中的情感表达处理的整体处理与第2实施方式中的情感表达处理相同,但图17的S300所示的方向算出处理的详情不同。此外,在第3实施方式中对与第2实施方式相同的构成赋予同一标号,并省去说明。
图27是表示本公开的第3实施方式中的图17的S300所示的方向算出处理的详情的流程图。如图27所示,用户方向算出部203在开始方向算出处理时,进行与S301(图19)内容相同的S311后(S311),进行与S302(图19)内容相同的S312(S312),由此,算出壳体101的移动方向D。
接着,用户方向算出部203使摄像头108的拍摄方向与在S312中算出的移动方向D相符(S313)。如在图2B中说明的那样,摄像头108的拍摄方向朝着作为由第1驱动轮110以及第2驱动轮111实现的壳体101的前进方向的Y方向。因此,在S313中,用户方向算出部203进行与S411以及S412(图24)相同的处理,使由第1驱动轮110以及第2驱动轮111实现的壳体101的前进方向与移动方向D相符。由此,用户方向算出部203使摄像头108的拍摄方向与移动方向D相符。
接着,摄像头影像处理部204(图15)使摄像头108进行拍摄,判断拍摄到的图像(以下称为拍摄图像)是否为接近于乌黑的图像(以下称为全黑图像)(S314)。例如,摄像头影像处理部204在S314中将拍摄图像加工为单色的图像。而且,摄像头影像处理部204在该加工后的拍摄图像所包含的表现黑色的像素的数量大于等于接近于拍摄图像的全部像素数的预定像素数的情况下,判断为拍摄图像是全黑图像(S314:是),在小于所述预定像素数的情况下,判断为拍摄图像不是全黑图像(S314:否)。此外,摄像头影像处理部204在S314中判断拍摄图像是否为全黑图像的方法不限于此。
在通过S312算出的移动方向D表示了机器人1被用户1501拉近的方向的情况下,认为由摄像头108在移动方向D进行拍摄而得到的图像成为从极近距离拍摄用户1501时所获得的全黑图像。因此,在S314中判断为拍摄图像是全黑图像的情况下(S314:是),用户方向算出部203判断为在通过S312算出的移动方向D上存在用户1501(S315)。在该情况下,用户方向算出部203判断为在S200(图17)的拥抱检测处理中,准确地检测到了机器人1被用户1501抱着这一情况,另外,判断为在S312中适当地算出了移动方向D,结束方向算出处理。
另一方面,在S314中判断为拍摄图像不是全黑图像的情况下(S314:否),用户方向算出部203判断为在算出的移动方向D上不存在用户1501(S316)。在该情况下,用户方向算出部203判断为在S200(图17)的拥抱检测处理中,误检测到了机器人1被用户1501抱着这一情况,另外,判断为该误检测的结果是在S312中没有适当地算出移动方向D,不进行S400(图17)的驱动处理,并结束情感表达处理。
根据本技术方案,还考虑摄像头108的拍摄图像来判断机器人1是否被用户1501抱着,因此能够更准确地判断机器人1被用户1501抱着这一情况。
(第4实施方式)
第4实施方式的特征在于,在判断为显示部211(图15)朝着与在图17的S300所示的方向算出处理中算出的壳体101的移动方向D相反的一侧的情况下,使显示部211(图15)的朝向与移动方向D相符。
图28A~图28C是表示从背面抱了机器人1时的加速度传感器219的输出波形的一例的图。图29是表示本公开的第4实施方式涉及的机器人1的情感表达处理的概要的图。假设在显示部211朝着与用户1501相反的一侧的状态下,用户1501从背面抱了机器人1。在该情况下,推测为加速度Ax、Ay、Az分别如图28A的输出波形Wx、图28B的输出波形Wy、图28C的输出波形Wz所示那样变化。
如图28A~图28C所示,若在时刻t1,用户1501将静置状态的机器人1从地板上抬起,则与图1A~图1C同样地,推测为至少加速度Az如输出波形Wz所示的那样发生变化直至超过预定的阈值TH。而且,假设在显示部211朝着与朝向用户1501的方向相反的一侧的状态下,用户1501将机器人1拉近并抱住。在该情况下,推测为根据机器人1沿后方移动到用户1501的位置,加速度Ay如图28B的椭圆部的输出波形Wy所示的那样在一定期间内超过预定幅度TW地沿作为后方的-Y方向变动。
于是,在本公开的第4实施方式涉及的机器人1的情感表达处理中,如图29的左图所示,当在显示部211朝着与朝向用户1501的方向相反的一侧的状态下,机器人1被用户1501从背面(后方)抱住的情况下,如图29的中图所示,与第2实施方式同样地,1)进行拥抱检测处理后,2)通过进行方向算出处理,算出XY轴平面内的壳体101的移动方向D。再者,在本公开的第4实施方式的情感表达处理中,如在图28B中说明的那样,3)在判断为该算出的移动方向D是-Y方向的情况下,判断为显示部211朝着与作为朝向用户1501的方向的移动方向D相反的一侧。而且,在进行了该判断的情况下,如图29的右图所示,4)在使显示部211朝向算出的移动方向D的状态下进行驱动处理。
第4实施方式中的情感表达处理的整体处理与第2实施方式中的情感表达处理相同,但图17的S300所示的方向算出处理的详情不同。此外,在第4实施方式中对与第2实施方式相同的构成赋予同一标号,并省去说明。图30是表示本公开的第4实施方式中的图17的S300所示的方向算出处理的详情的流程图。
如图30所示,用户方向算出部203在开始方向算出处理时,进行与S301(图19)内容相同的S321后(S321),进行与S302(图19、图20)内容相同的S322(S322),由此,算出壳体101的移动方向D。
接着,用户方向算出部203判断在S322中算出的壳体101的移动方向D是否朝着作为机器人1的背面方向的-Y方向(S323)。而且,用户方向算出部203在S323中判断为移动方向D朝着机器人1的背面方向(-Y方向)的情况下(S323:是),判断为显示部211朝着与作为朝向用户1501的方向的移动方向D相反的一侧后(S324),结束方向算出处理。
具体而言,如使用图19以及图20对S302说明的那样,用户方向算出部203在与S302相同的S322中,根据对在S321中取得的加速度Ax、Ay分别进行二次积分而得到的结果,算出分别表示壳体101沿X轴方向、Y轴方向移动了的距离以及方向的向量Dx、Dy,并算出将它们进行合成而得到的向量Dxy。
在此,假设在S322中算出的向量Dxy如图20的右图所示那样朝着X方向以及Y方向。在该情况下,在S323中,用户方向算出部203因在S322中算出的向量Dxy的表示Y轴方向的成分的向量Dy朝着Y方向,所以判断为壳体101的移动方向D不朝着-Y方向(S323:否)。在该情况下,用户方向算出部203判断为显示部211朝着移动方向D,结束方向算出处理。
图31是表示图30的S323中的壳体101的移动方向D的判断处理的一例的图。另一方面,如图31所示,设在S322中算出的向量Dxy朝着-X方向以及-Y方向。在该情况下,在S323中,用户方向算出部203因在S322中算出的向量Dxy的表示Y轴方向的成分的向量Dy朝着-Y方向,所以判断为壳体101的移动方向D朝着-Y方向(S323:是)。在该情况下,用户方向算出部203判断为显示部211朝着与作为朝向用户1501的方向的移动方向D相反的一侧后(S324),结束方向算出处理。
换言之,在S323中,用户方向算出部203判断对加速度Az超过了预定的阈值TH(图1A)的前后的抽样期间TS内的加速度Ay的变化进行表示的向量Dy(图20、图31)是否朝着将显示部211的显示方向作为Y方向的情况下的-Y方向。
方向算出处理结束后,主控制部200与第2实施方式同样地,按照图24所示的处理流程来进行S400(图17)所示的驱动处理。在方向算出处理中进行了S324的情况下,也就是说判断为显示部211朝着与移动方向D相反的一侧的情况下,主控制部200将会在S411以及S412(图24)中,使作为由第1驱动轮110以及第2驱动轮111实现的壳体101的前进方向的Y方向与在S322中算出的移动方向D相符。
图32是表示在本公开的第4实施方式中进行图24的S412的情况下的显示部211的位置的一例的图。在进行了S324的情况下,如图31所示,表示移动方向D的角度θ变得比180度大。在该情况下,主控制部200在上述的S412中,例如如图32所示,也判断为从X方向起以左转的方式旋转了与表示移动方向D的角度θ相当的角度后的方向是移动方向D。另外,主控制部200判断为作为由第1驱动轮110以及第2驱动轮111实现的壳体101的前进方向的Y方向是从X方向起以左转的方式旋转了90度后的方向。而且,主控制部200因表示Y方向与移动方向D的偏离的角度、即从90度减去表示移动方向D的角度θ(图31)所算出的结果(90°-θ)成为负值,所以将用于使壳体101进一步以左转的方式旋转与该结果的绝对值所示的角度(=|90°-θ|)相当的角度的命令输出给壳体驱动轮控制部214(图15)。由此,使得作为由第1驱动轮110以及第2驱动轮111实现的壳体101的前进方向的Y方向与移动方向D相符。如在图2B中说明的那样,显示部211朝着作为壳体101的前进方向的Y方向。因此,若使得作为壳体101的前进方向的Y方向与移动方向D相符,则朝着Y方向的显示部211的朝向也变为与移动方向D相符。
如上所述,根据本技术方案,在判断为显示部211朝着与壳体101的移动方向D相反的一侧的情况下,主控制部200通过使第1驱动轮110以及第2驱动轮111旋转来使显示部211的朝向与壳体101的移动方向相符。由此,即使在机器人1朝着与用户1501相反的一侧在地板上活动的情况下用户1501将机器人1抱住,也能够通过第1驱动轮110以及第2驱动轮111的旋转来使机器人1的面部朝向用户1501。
(变形例1)
第4实施方式中的图17的S300所示的方向算出处理也可以通过图33所示的处理流程取代图30所示的处理流程来实现。以下,详细说明图33所示的方向算出处理的处理流程。图33是表示本公开的第4实施方式中的图17的S300所示的方向算出处理的详情的变形例的流程图。
图33所示的方向算出处理的特征在于,基于摄像头108的拍摄图像来判断在S200(图17)的拥抱检测处理中是否准确地检测到机器人1被用户1501抱着这一情况,并且,基于根据摄像头108的拍摄图像对用户1501的面部进行识别而得到的结果,修正通过图30所示的方向算出处理算出的壳体101的移动方向D。在图33中,S331、S332、S333、S334与图30的S321、S322、S323、S324相同,因此省去说明。
如图33所示,用户方向算出部203在S332中算出壳体101的移动方向D后,使摄像头108(图2B)的拍摄方向与该算出的壳体101的移动方向D相符(S335)。如在图2B中说明的那样,摄像头108的拍摄方向朝着作为由第1驱动轮110以及第2驱动轮111实现的壳体101的前进方向的Y方向。因此,在S335中,用户方向算出部203进行与S411以及S412(图24)相同的处理,使由第1驱动轮110以及第2驱动轮111实现的壳体101的前进方向与移动方向D相符。由此,用户方向算出部203使摄像头108的拍摄方向与壳体101的移动方向D相符。
接着,摄像头影像处理部204(图15)使摄像头108进行拍摄,根据摄像头108的拍摄图像来识别用户1501的面部的有无。在没有由摄像头影像处理部204识别到用户1501的面部的情况下(S336:否),用户方向算出部203判断为在S332中算出的壳体101的移动方向D上不存在用户1501(S340)。在该情况下,用户方向算出部203判断为在S200(图17)的拥抱检测处理中,误检测到了机器人1被用户1501抱着这一情况,另外,判断为该误检测的结果是没有适当地算出壳体101的移动方向D,不进行S400(图17)的驱动处理,结束情感表达处理。
另一方面,摄像头影像处理部204在根据摄像头108的拍摄图像识别到了用户1501的面部的情况下(S336:是),进一步识别面部的大小,基于该识别到的面部的大小与拍摄图像的大小的比较结果,判断从摄像头108到面部的距离是否小于等于预定距离(S337)。此外,预定距离预先确定为如下距离,即该距离被认为是在机器人1由用户1501抱着的情况下的从摄像头108到用户1501的面部的位置的距离。
在S337中判断为从摄像头108到面部的距离不小于等于预定距离的情况下(S337:否),用户方向算出部203判断为在S332中算出的壳体101的移动方向D上不存在用户1501(S340),不进行S400(图17)的驱动处理,并结束情感表达处理。
例如,存在用户1501将机器人1从地板上抬起后,猛地置于椅子上等并离开的情况。在该情况下,机器人1沿Z轴方向移动后,在椅子上沿X轴方向或者Y轴方向滚转,由此,可能会导致在S200(图17)的拥抱检测处理中,误检测为机器人1被用户1501抱着。在该情况下,摄像头108的拍摄图像中可能会包含从椅子离开的用户1501的面部,但从摄像头108到用户1501的面部的距离比所述预定距离远,因此,在S337中,判断为从摄像头108到面部的距离不小于等于预定距离(S337:否)。也就是说,用户方向算出部203能够在用户1501将机器人1从地板上抬起后,猛地置于椅子上等并离开的情况下,判断出在S200(图17)的拥抱检测处理中误检测到机器人1被用户1501抱着这一情况,判断出其结果是没有适当地算出壳体101的移动方向D,从而不进行S400(图17)的驱动处理,结束情感表达处理。
另一方面,假设在S337中判断为从摄像头108到面部的距离小于等于预定距离(S337:是)。在该情况下,用户方向算出部203进行修正以使在S332中算出的壳体101的移动方向D成为从摄像头108的位置朝向该识别到的面部的位置的方向(以下称为识别到的面部的方向)(S338)。在该情况下,用户方向算出部203判断为作为壳体101的移动方向被适当地修正的结果,在修正后的移动方向上存在用户1501(S339),并结束方向算出处理。
此外,S338如下这样来实现即可。用户方向算出部203使摄像头影像处理部204识别用户1501的面部的位置即可。另外,用户方向算出部203使摄像头影像处理部204基于摄像头108的拍摄图像中的用户1501的面部的位置与预定位置(例如中心)的距离等,算出表示摄像头108的拍摄方向与识别到的面部的方向之间的偏离的方向以及角度即可。而且,用户方向算出部203将移动方向D沿表示所述偏离的方向修正与表示所述偏离的角度相当的角度即可。
根据本技术方案,还考虑摄像头108的拍摄图像来判断机器人1是否被用户1501抱着,因此能够更准确地判断机器人1被用户1501抱着这一情况。另外,在判断为机器人1被用户1501抱着的情况下,能够基于摄像头108的拍摄图像高精度地算出机器人1被用户1501拉近的方向。
(变形例2)
根据第1实施方式中的图17的S400所示的驱动处理,在S402(图21)中,主控制部200使对重114沿着导向轴115沿与使机器人1表达的情感相应的方向移动。另外,根据第2至第4实施方式中的图17的S400所示的驱动处理,在S413以及S414(图24)中,主控制部200使第1驱动轮110以及第2驱动轮111沿与使机器人1表达的情感相应的方向旋转。于是,在S402(图21)和/或S413以及S414(图24)中,主控制部200也可以进一步根据使机器人1表达的情感,变更使显示部211显示的机器人1的表情。
图34A以及图34B是表示在图21的S402以及图24的S413和S414中对使显示部211显示的表情进行变更的一例的图。例如,主控制部200在S402(图21)和/或S413以及S414(图24)中,使机器人1表达对用户1501怀有好感的情感的情况下,也可以使如图34A所示的笑脸表情显示于显示部211。另一方面,主控制部200在使机器人1表达厌烦用户1501的情感的情况下,也可以使如图34B所示的看起来不高兴的面部表情显示于显示部211。
根据本技术方案,通过改变使显示部211显示的表情,能够更明确地表达机器人1的情感。
(变形例3)
在上述的各实施方式中,如图2B所示,摄像头108和构成显示部211的第1显示部105、第2显示部106及第3显示部107安装于第1旋转板103。另外,机器人1虽然具备如图9A~图9C所示那样使摆臂116个别地旋转的机构,但是不具备使第1旋转板103个别地旋转的机构。
因此,在第3实施方式的图27的S313和/或第4实施方式的变形例1的图33的S335中,进行与S411以及S412(图24)相同的处理,由第1驱动轮110以及第2驱动轮111的驱动来变更壳体101的前进方向,由此,使摄像头108的拍摄方向与壳体101的移动方向D相符。另外,根据第4实施方式,在S411以及S412(图24)中,由第1驱动轮110以及第2驱动轮111的驱动来使壳体101的前进方向以及显示部211的朝向与壳体101的移动方向D相符。
然而,也可以为,使机器人1具备使第1旋转板103个别地旋转的旋转驱动机构,在第3实施方式的图27的S313和/或第4实施方式的变形例1的图33的S335中,由所述旋转驱动机构使第1旋转板103旋转,由此,使摄像头108的拍摄方向与壳体101的移动方向D相符。另外,也可以为,在第4实施方式的S411以及S412(图24)中,由第1驱动轮110以及第2驱动轮111的驱动来使壳体101的前进方向与壳体101的移动方向D相符,并且,通过由所述旋转驱动机构使第1旋转板103旋转,从而使显示部211的朝向与壳体101的移动方向D相符。
所述旋转驱动机构例如如下这样构成即可。图35是表示第1旋转板103以及第2旋转板104的旋转驱动机构的一例的图。如图35所示,对第2旋转板104设置比旋转轴118的直径大的中空部150,将具有同样的中空部的第5齿轮143安装在第2旋转板104的下方即可。而且,设置具有与第5齿轮143接合的马达带轮142的旋转用马达141,通过旋转用马达141,使马达带轮142与由旋转用马达117实现的旋转轴118的旋转相独立地进行旋转即可。由此,通过与旋转轴118的旋转独立地使第5齿轮143旋转,使第2旋转板104旋转,从而使连结于第2旋转板104的第1旋转板103(图2B)旋转即可。此外,所述旋转驱动机构的构成不限于图35所示的构成,也可以是其他构成。
(变形例4)
在上述的各实施方式及其变形例中,以所述前后轴方向作为Y轴方向,以所述左右轴方向作为X轴方向,但也可以取代此设定,以所述前后轴方向作为X轴方向,以所述左右轴方向作为Y轴方向。也就是说,也可以将图2B的A视角下的左方作为前方或者X方向,将图2B的A视角下的右方作为后方或者-X方向,将图2B的C视角下的左方作为左方或者Y方向,将图2B的C视角下的右方作为右方或者-Y方向。
在该情况下,导向轴115(图9A、图9B)的默认方向变为X方向。因此,主控制部200在S401(图21)中,将使旋转轴118(图9B)以左转的方式旋转与表示X方向与移动方向D的偏离的、表现移动方向D的角度θ相当的角度的命令输出给轴控制部213(图15)即可。另外,由第1驱动轮110以及第2驱动轮111实现的前进方向变为X方向。因此,主控制部200在S412(图24)中,将指定为了使壳体101以左转的方式旋转与表示X方向和移动方向D的偏离的、表现移动方向D的角度(=90°-θ)相当的角度所需的第1驱动轮110以及第2驱动轮111各自的转速以及旋转方向的命令输出给壳体驱动轮控制部214(图15)即可。
(本公开的实施方式的概要)
本公开的一个技术方案涉及的机器人,具备:球体状的壳体;框架,其配置在所述壳体的内侧部;显示部,其安装于所述框架,至少显示机器人的面部的一部分;一组驱动轮,其安装于所述框架,与所述壳体的内周面接触,使所述壳体旋转;配重驱动机构,其安装于所述框架,使配重在预定方向上往复移动;加速度传感器,其检测上下轴方向、前后轴方向及左右轴方向的三个轴向的加速度;以及控制电路,其当在从所述加速度传感器输出的表示所述上下轴方向的加速度的第1值超过了预定的阈值后,判断为表示所述上下轴方向的加速度的第1值、表示所述前后轴方向的加速度的第2值和表示所述左右轴方向的加速度的第3值的某一个在一定期间内超过预定幅度地产生变动的情况下,判断为所述壳体被用户抱着。
本技术方案具备加速度传感器,在当从所述加速度传感器输出的表示所述上下轴方向的加速度的第1值超过了预定的阈值后,判断为表示所述上下轴方向的加速度的第1值、表示所述前后轴分量的加速度的第2值和表示所述左右轴方向的加速度的第3值的某一个在一定期间内超过预定幅度地产生变动的情况下,判断为所述壳体被用户抱着。
由此,能够简便地区分用户将所述机器人从地板上抬起并将所述机器人抱住的情况、和用户将所述机器人从地板上抬起并将所述机器人例如置于椅子上的情况。其结果,能够在判断为用户将所述机器人抱住的情况下,适当地使所述机器人向所述用户作出各种反应。
另外,在上述技术方案中,例如也可以,所述控制电路,当在表示所述上下轴方向的加速度的第1值超过了所述预定的阈值后,判断为表示所述上下轴方向的加速度的第1值、表示所述前后轴方向的加速度的第2值和表示所述左右轴方向的加速度的第3值的任一个的变动在所述一定期间内都处于所述预定幅度内的情况下,判断为所述壳体沿上下方向移动后被安置在了预定地方。
根据本技术方案,当在表示所述上下轴方向的加速度的第1值超过了所述预定的阈值后,判断为表示所述上下轴方向的加速度的第1值、表示所述前后轴分量的加速度的第2值和表示所述左右轴方向的加速度的第3值的任一个的变动在所述一定期间内都处于所述预定幅度内的情况下,判断为所述壳体沿上下方向移动后被安置在了预定地方。
由此,能够准确地区分用户将所述机器人从地板上抬起并将所述机器人抱住的情况、和用户将所述机器人从地板上抬起并将所述机器人例如置于椅子上的情况。
另外,在上述技术方案中,例如也可以,所述控制电路,即使在从所述加速度传感器输出的表示所述上下轴方向的加速度的第1值超过了预定的阈值后,判断为表示所述上下轴方向的加速度的第1值、表示所述前后轴方向的加速度的第2值和表示所述左右轴方向的加速度的第3值的某一个在所述一定期间内超过所述预定幅度地产生变动的情况下,在对所述一组驱动轮输出驱动指示时,判断为所述壳体没有被用户抱着。
所述加速度传感器的输出值是容易变动的值。因此,在仅通过所述加速度传感器的输出值来判断的情况下,可能存在误判的风险。例如,也可以在更长的期间内对所述加速度传感器的输出值进行抽样从而提高判断的精度。然而,这样,判断需要时间。
另一方面,在作为所述机器人自己工作的结果,所述加速度传感器的输出波形产生变化的情况下,说来所述机器人被用户抱着的可能性不高。因此,通过预先排除所述机器人自己在工作的情况,能够回避对所述壳体被用户抱着的误判。
于是,在本技术方案中,对所述一组驱动轮输出驱动指示的情况下,所述机器人自己在工作,因此,判断为所述壳体没有被用户抱着。由此,能够使误判为所述机器人被用户抱着的可能性降低。
另外,在上述技术方案中,例如也可以,所述控制电路,在判断为所述壳体被用户抱着的情况下,控制所述配重驱动机构,使所述配重在朝向所述用户的方向上移动。
根据本技术方案,设置使配重在预定方向上往复移动的配重驱动机构,在判断为所述壳体被所述用户抱着的情况下,通过使所述配重朝向所述用户移动,使所述机器人的重心偏向所述用户侧。由此,能够使所述用户感觉所述机器人正在所述用户的手臂中向所述用户靠近。这样,根据本技术方案,能够使所述机器人表达对所述用户怀有好感。
另外,在上述技术方案中,例如也可以,所述控制电路,在判断为所述壳体被用户抱着的情况下,基于在表示所述上下轴方向的加速度的第1值超过了所述预定的阈值的时间点的前后的抽样期间内从所述加速度传感器输出的表示所述前后轴方向的加速度的第2值以及表示所述左右轴方向的加速度的第3值,判断所述壳体的移动方向,使所述配重进行往复移动的所述预定方向与所述判断出的壳体的移动方向相符,控制所述配重驱动机构,使所述配重在朝向所述用户的方向上移动。
所述用户例如抱所述机器人时,既有向正上方抬起后向用户侧拉近的情况,也有向所述用户侧拉近后在抬起的情况。
根据本技术方案,在所述加速度传感器的表示所述上下轴方向的加速度的第1值超过了所述预定的阈值的时间点的前后的抽样期间,基于所述加速度传感器的表示所述前后轴方向的加速度的第2值以及表示所述左右轴方向的加速度的第3值,判断所述壳体的移动方向、即在将所述机器人抬起前后拉近所述机器人的方向。
而且,本技术方案设置有使配重在预定方向上往复移动的配重驱动机构。
由此,使所述配重进行往复移动的所述预定方向与所述判断出的壳体的移动方向相符。之后,使所述配重在向所述用户靠近的方向上移动。
由此,能够在所述用户将所述机器人抱住的状态下,使所述机器人的重心偏向所述用户侧。其结果,能够使所述用户感觉所述机器人正在所述用户的手臂中进一步向所述用户靠近。这样,根据本技术方案,能够使所述机器人表达对所述用户怀有好感。
另外,在上述技术方案中,例如也可以,所述控制电路,控制所述配重驱动机构,在使所述配重在与朝向所述用户的方向相反的方向上移动后,使所述配重在朝向所述用户的方向上移动。
在假定小孩作为用户的情况下,有时不能使所述配重的重量太重。例如,在这种情况下,在使所述配重在与朝向所述用户的方向相反的方向上移动后,使所述配重在朝向所述用户的方向上移动。由此,即使在不能使所述配重的重量太重的情况下,也能够使所述机器人的重心偏向所述用户侧,使所述用户感觉所述机器人正在所述用户的手臂中进一步向所述用户靠近。
另外,在上述技术方案中,例如也可以,所述控制电路,在判断为所述壳体被用户抱着的情况下,控制所述配重驱动机构,使所述配重在离开所述用户的方向上移动。
根据本技术方案,在判断为所述壳体被所述用户抱着的情况下,通过使所述配重在离开所述用户的方向上移动,使所述机器人的重心偏向与所述用户相反的一侧。由此,能够使所述用户感觉所述机器人正在所述用户的手臂中想要离开所述用户。这样,根据本技术方案,能够使所述机器人表达厌烦被抱。
另外,在上述技术方案中,例如也可以,所述控制电路,在判断为所述壳体被用户抱着的情况下,基于在表示所述上下轴方向的加速度的第1值超过了所述预定的阈值的时间点的前后的抽样期间内从所述加速度传感器输出的表示所述前后轴方向的加速度的第2值以及表示所述左右轴方向的加速度的第3值,判断所述壳体的移动方向,使所述配重进行往复移动的所述预定方向与所述判断出的壳体的移动方向相符,控制所述配重驱动机构,使所述配重在离开所述用户的方向上移动。
根据本技术方案,在所述加速度传感器的表示所述上下轴方向的加速度的第1值超过了所述预定的阈值的时间点的前后的抽样期间,基于所述加速度传感器的表示所述前后轴方向的加速度的第2值以及表示所述左右轴方向的加速度的第3值,判断所述壳体的移动方向、即在将所述机器人抬起前后拉近所述机器人的方向。
而且,使所述配重进行往复移动的所述预定方向与所述判断出的壳体的移动方向相符。之后,使所述配重在离开所述用户的方向上移动。
由此,能够在所述用户将所述机器人抱住的状态下,使所述机器人的重心偏向与所述用户的相反侧。其结果,能够使所述用户感觉所述机器人正在所述用户的手臂中想要进一步离开所述用户。这样,根据本技术方案,能够使所述机器人表达厌烦被抱。
另外,在上述技术方案中,例如也可以,所述控制电路,在判断为所述壳体被用户抱着的情况下,使所述一组驱动轮旋转,从而使所述壳体在朝向所述用户的方向上移动。
根据本技术方案,设置与所述壳体的内周面接触,使所述壳体旋转的一组驱动轮,通过使所述一组驱动轮旋转,在所述用户抱着所述机器人的状态下使所述机器人朝向所述用户侧。由此,能够使所述用户感觉所述机器人正在所述用户的手臂中向所述用户靠近。这样,根据本技术方案,能够使所述机器人表达对所述用户怀有好感。
另外,在上述技术方案中,例如也可以,所述控制电路,在判断为所述壳体被用户抱着的情况下,基于在表示所述上下轴方向的加速度的第1值超过了所述预定的阈值的时间点的前后的抽样期间内从所述加速度传感器输出的表示所述前后轴方向的加速度的第2值以及表示所述左右轴方向的加速度的第3值,判断所述壳体的移动方向,使所述壳体通过所述一组驱动轮的旋转进行前进的方向与所述判断出的壳体的移动方向相符,使所述一组驱动轮旋转,从而使所述壳体在朝向所述用户的方向上移动。
根据本技术方案,在所述加速度传感器的表示所述上下轴方向的加速度的第1值超过了所述预定的阈值的时间点的前后的抽样期间,基于所述加速度传感器的表示所述前后轴方向的加速度的第2值以及表示所述左右轴方向的加速度的第3值,判断所述壳体的移动方向、即在将所述机器人抬起前后拉近所述机器人的方向。
而且,本技术方案设置有与所述壳体的内周面接触,使所述壳体旋转的一组驱动轮。
由此,使所述壳体通过所述一组驱动轮的旋转进行前进的方向与所述判断出的壳体的移动方向相符。之后,使所述一组驱动轮旋转。
由此,能够在所述用户将所述机器人抱住的状态下,使所述机器人朝向所述用户。其结果,能够使所述用户感觉所述机器人正在所述用户的手臂中进一步向所述用户靠近。这样,根据本技术方案,能够使所述机器人表达对所述用户怀有好感。
另外,在上述技术方案中,例如也可以,所述控制电路,使所述一组驱动轮间歇式地旋转。
在假定小孩作为用户的情况下,若使所述一组驱动轮持续旋转,则给所述用户带来的负荷会增大。根据本技术方案,在这种情况下,并非使所述一组驱动轮连续旋转,而能够使所述一组驱动轮间歇式地旋转。由此,能够减轻给所述用户带来的负荷。
另外,在上述技术方案中,例如也可以,所述控制电路,在判断为所述壳体被用户抱着的情况下,交替切换第1控制和第2控制,所述第1控制使所述一组驱动轮中的第1驱动轮沿前进方向旋转并且使第2驱动轮沿后退方向旋转,所述第2控制使所述一组驱动轮的所述第1驱动轮沿后退方向旋转并且使所述第2驱动轮沿前进方向旋转。
根据本技术方案,在判断为所述壳体被所述用户抱着的情况下,所述机器人在所述用户的手臂中左右来回地动。由此,能够使所述用户感觉所述机器人在所述用户的手臂中不平静的样子。这样,根据本技术方案,能够使所述机器人表达厌烦被抱。
另外,在上述技术方案中,例如也可以,所述控制电路,在判断为所述壳体被用户抱着的情况下,基于在表示所述上下轴方向的加速度的第1值超过了所述预定的阈值的时间点的前后的抽样期间内从所述加速度传感器输出的表示所述前后轴方向的加速度的第2值以及表示所述左右轴方向的加速度的第3值,判断所述壳体的移动方向,使所述壳体通过所述一组驱动轮的旋转进行前进的方向与所述判断出的壳体的移动方向相符,交替切换第1控制和第2控制,所述第1控制使所述一组驱动轮中的第1驱动轮沿前进方向旋转并且使第2驱动轮沿后退方向旋转,所述第2控制使所述一组驱动轮的所述第1驱动轮沿后退方向旋转并且使所述第2驱动轮沿前进方向旋转。
根据本技术方案,在所述加速度传感器的表示所述上下轴方向的加速度的第1值超过了所述预定的阈值的时间点的前后的抽样期间,基于所述加速度传感器的表示所述前后轴方向的加速度的第2值以及表示所述左右轴方向的加速度的第3值,判断所述壳体的移动方向、即在将所述机器人抬起前后拉近所述机器人的方向。
而且,使所述壳体通过所述一组驱动轮的旋转进行前进的方向与所述判断出的壳体的移动方向相符。之后,使所述一组驱动轮旋转。
由此,所述用户将所述机器人抱住时,所述机器人能够在使前进方向朝向所述用户的状态下,左右来回地动。其结果,能够使所述用户感觉所述机器人在所述用户的手臂中更加不平静的样子。这样,根据本技术方案,能够使所述机器人表达厌烦被抱。
另外,在上述技术方案中,例如也可以,所述控制电路,在判断为所述壳体被用户抱着的情况下,使所述一组驱动轮旋转,从而使所述壳体在离开所述用户的方向上移动。
根据本技术方案,设置与所述壳体的内周面接触,使所述壳体旋转的一组驱动轮,在判断为所述壳体被所述用户抱着的情况下,通过使所述一组驱动轮旋转,在所述用户抱着所述机器人的状态下使所述机器人在离开所述用户的方向上移动。由此,能够使所述用户感觉所述机器人正在所述用户的手臂中想要离开所述用户。这样,根据本技术方案,能够使所述机器人表达厌烦所述用户。
另外,在上述技术方案中,例如也可以,所述控制电路,在判断为所述壳体被用户抱着的情况下,基于在表示所述上下轴方向的加速度的第1值超过了所述预定的阈值的时间点的前后的抽样期间内从所述加速度传感器输出的表示所述前后轴方向的加速度的第2值以及表示所述左右轴方向的加速度的第3值,判断所述壳体的移动方向,使所述壳体通过所述一组驱动轮的旋转进行前进的方向与所述判断出的壳体的移动方向相符,使所述一组驱动轮反向旋转,从而使所述壳体在离开所述用户的方向上移动。
根据本技术方案,在所述加速度传感器的表示所述上下轴方向的加速度的第1值超过了所述预定的阈值的时间点的前后的抽样期间,基于所述加速度传感器的表示所述前后轴方向的加速度的第2值以及表示所述左右轴方向的加速度的第3值,判断所述壳体的移动方向、即在将所述机器人抬起前后拉近所述机器人的方向。
而且,本技术方案设置有与所述壳体的内周面接触,使所述壳体旋转的一组驱动轮。
由此,使所述壳体通过所述一组驱动轮的旋转进行前进的方向与所述判断出的壳体的移动方向相符。之后,使所述一组驱动轮反向旋转。
由此,能够在所述用户将所述机器人抱住的状态下,使所述机器人朝向离开所述用户的方向。其结果,能够使所述用户感觉所述机器人正在所述用户的手臂中想要进一步离开所述用户。这样,根据本技术方案,能够使所述机器人表达厌烦所述用户。
另外,在上述技术方案中,例如也可以,所述控制电路,当在表示所述上下轴方向的加速度的第1值超过了所述预定的阈值的时间点的前后的抽样期间内从所述加速度传感器输出的表示所述前后轴方向的加速度的第2值在将所述显示部的显示方向作为所述前后轴方向的前向的情况下的后向上变化时,判断为所述显示部朝着与所述壳体的移动方向相反的一侧。
根据本技术方案,当在表示所述上下轴方向的加速度的第1值超过了所述预定的阈值的时间点的前后的抽样期间内从所述加速度传感器输出的表示所述前后轴方向的加速度的第2值在将所述显示部的显示方向作为所述前后轴方向的前向的情况下的后向上变化时,判断为所述显示部朝着与所述壳体的移动方向相反的一侧。
由此,能够在所述机器人朝着与所述用户相反的一侧在地板上活动的情况下所述用户将所述机器人抱住时,判断为所述机器人的面部朝着与所述用户相反的一侧。
另外,在上述技术方案中,例如也可以,所述控制电路,在判断为所述显示部朝着与所述壳体的移动方向相反的一侧的情况下,基于表示所述前后轴方向的加速度的第2值以及表示所述左右轴方向的加速度的第3值,判断所述壳体的移动方向,使所述一组驱动轮中的第1驱动轮沿前进方向旋转并且使第2驱动轮沿后退方向旋转,从而使所述显示部的朝向与所述壳体的移动方向相符。
根据本技术方案,在判断为所述显示部朝着与所述壳体的移动方向相反的一侧的情况下,通过所述一组驱动轮的旋转来使所述显示部的朝向与所述壳体的移动方向相符。由此,即使在所述机器人朝着与所述用户相反的一侧在地板上活动的情况下所述用户将所述机器人抱住,也能够通过所述一组驱动轮的旋转来使所述机器人的面部朝向所述用户。
另外,在上述技术方案中,例如也可以,所述显示部安装于作为所述框架的一部分的旋转板,具备所述旋转板的旋转驱动机构,所述控制电路,在判断为所述显示部朝着与所述壳体的移动方向相反的一侧的情况下,基于表示所述前后轴方向的加速度的第2值以及表示所述左右轴方向的加速度的第3值,判断所述壳体的移动方向,控制所述旋转驱动机构,使所述显示部的朝向与所述壳体的移动方向相符。
根据本技术方案,在判断为所述显示部朝着与所述壳体的移动方向相反的一侧的情况下,通过所述旋转板的旋转来使所述显示部的朝向与所述壳体的移动方向相符。由此,即使在所述机器人朝着与所述用户相反的一侧在地板上活动的情况下所述用户将所述机器人抱住,也能够通过使安装有所述显示部的旋转板移动来使所述机器人的面部朝向所述用户。
另外,在上述技术方案中,例如也可以,所述框架包括旋转板,设置有安装于所述旋转板的摄像头,具备所述旋转板的旋转驱动机构,所述控制电路,基于在表示所述上下轴方向的加速度的第1值超过了所述预定的阈值的时间点的前后的抽样期间内从所述加速度传感器输出的表示所述前后轴方向的加速度的第2值以及表示所述左右轴方向的加速度的第3值,判断所述壳体的移动方向,使所述摄像头的拍摄方向与所述判断出的壳体的移动方向相符,在根据所述壳体的移动,由所述摄像头拍摄到的图像变为全黑图像的情况下,判断为所述壳体被用户抱着。
根据本技术方案,还考虑通过所述旋转板的旋转而使拍摄方向与所述壳体的移动方向相符的所述摄像头的拍摄图像,来判断所述机器人是否被用户抱着,因此,能够更准确地判断所述机器人被用户抱着这一情况。
另外,在上述技术方案中,例如也可以,设置有安装于所述框架的摄像头,所述控制电路,基于在表示所述上下轴方向的加速度的第1值超过了所述预定的阈值的时间点的前后的抽样期间内从所述加速度传感器输出的表示所述前后轴方向的加速度的第2值以及表示所述左右轴方向的加速度的第3值,判断所述壳体的移动方向,使所述一组驱动轮中的第1驱动轮沿前进方向旋转并且使第2驱动轮沿后退方向旋转,从而使所述摄像头的拍摄方向与所述壳体的移动方向相符,在根据所述壳体的移动,由所述摄像头拍摄到的图像变为全黑图像的情况下,判断为所述壳体被用户抱着。
根据本技术方案,还考虑通过所述一组驱动轮的旋转而使拍摄方向与所述壳体的移动方向相符的所述摄像头的拍摄图像,来判断所述机器人是否被用户抱着,因此,能够更准确地判断所述机器人被用户抱着这一情况。
本公开的一个技术方案涉及的机器人,具备:球体状的壳体;框架,其配置在所述壳体的内侧部;显示部,其安装于所述框架,至少显示机器人的面部的一部分;配重驱动机构,其安装于所述框架,使配重在预定方向上往复移动;加速度传感器,其检测上下轴方向、前后轴方向及左右轴方向的三个轴向的加速度;以及控制电路,其当在从所述加速度传感器输出的表示所述上下轴分量的加速度的第1值超过了预定的阈值后,判断为表示所述上下轴方向的加速度的第1值、表示所述前后轴方向的加速度的第2值和表示所述左右轴方向的加速度的第3值的某一个在一定期间内超过预定幅度地产生变动的情况下,使所述配重在基于在表示所述上下轴方向的加速度的第1值超过了所述预定的阈值的时间点的前后的抽样期间内从所述加速度传感器输出的表示所述前后轴方向的加速度的第2值以及表示所述左右轴方向的加速度的第3值所判断出的所述壳体的移动方向上移动。
本技术方案在当从所述加速度传感器输出的所述第1值超过了预定的阈值后,判断为所述第1值、所述第2值和所述第3值的某一个在一定期间内超过预定幅度地产生变动的情况下,基于所述第1值超过了所述预定的阈值的时间点的前后的抽样期间内的所述第2值以及所述第3值,判断壳体的移动方向。而且,本技术方案设置使配重在预定方向上往复移动的配重驱动机构,使所述配置在所述判断出的壳体的移动方向上移动。
因此,由于用户抱了所述机器人,所述第1值超过了预定的阈值后,所述第1值、所述第2值和所述第3值的某一个在一定期间内超过预定幅度地变动了的情况下,能够使所述机器人的重心偏向认为是在所述用户将所述机器人抬起前后的所述抽样期间内所述用户将所述机器人拉近的方向的所述壳体的移动方向。
由此,能够在所述用户将所述机器人抱住的状态下使所述机器人的重心偏向所述用户侧。其结果,能够使所述用户感觉所述机器人正在所述用户的手臂中进一步向所述用户靠近。这样,根据本技术方案,能够在所述用户将所述机器人抱住的情况下,使所述机器人表达对所述用户怀有好感。
本公开的一个技术方案涉及的机器人,具备:球体状的壳体;框架,其配置在所述壳体的内侧部;显示部,其安装于所述框架,至少显示面部的一部分;一组驱动轮,其安装于所述框架,与所述壳体的内周面接触,使所述壳体旋转;加速度传感器,其检测上下轴方向、前后轴方向及左右轴方向的三个轴向的加速度;以及控制电路,其当在从所述加速度传感器输出的表示所述上下轴方向的加速度的第1值超过了预定的阈值后,判断为表示所述上下轴方向的加速度的第1值、表示所述前后轴方向的加速度的第2值和表示所述左右轴方向的加速度的第3值的某一个在一定期间内超过预定幅度地产生变动的情况下,使所述一组驱动轮旋转,从而使所述壳体在基于在表示所述上下轴方向的加速度的第1值超过了所述预定的阈值的时间点的前后的抽样期间内从所述加速度传感器输出的表示所述前后轴方向的加速度的第2值以及表示所述左右轴方向的加速度的第3值所判断出的所述壳体的移动方向上移动。
本技术方案在当从所述加速度传感器输出的所述第1值超过了预定的阈值后,判断为所述第1值、所述第2值和所述第3值的某一个在一定期间内超过预定幅度地产生变动的情况下,基于所述第1值超过了所述预定的阈值的时间点的前后的抽样期间内的所述第2值以及所述第3值,判断壳体的移动方向。而且,本技术方案设置与所述壳体的内周面接触,使所述壳体旋转的一组驱动轮,并使所述一组驱动轮旋转,从而使所述壳体在所述判断出的壳体的移动方向上移动。
因此,由于用户将所述机器人抱住,所述第1值超过了预定的阈值后,所述第1值、所述第2值和所述第3值的某一个在一定期间内超过预定幅度地变动了的情况下,能够使所述壳体朝向在所述用户将所述机器人抬起前后的所述抽样期间内认为是所述用户将所述机器人拉近的方向的所述壳体的移动方向。
由此,能够在所述用户将所述机器人抱住的状态下使所述机器人朝向所述用户。其结果,能够使所述用户感觉所述机器人正在所述用户的手臂中进一步向所述用户靠近。这样,根据本技术方案,能够在所述用户将所述机器人抱住的情况下,使所述机器人表达对所述用户怀有好感。
产业上的可利用性
本公开的例示性的实施方式涉及的机器人对判断被用户抱着这一情况的机器人是有用的。
标号说明
1机器人;101壳体;102框架;103第1旋转板(旋转板);104第2旋转板;105第1显示部(显示部);106第2显示部(显示部);107第3显示部(显示部);108摄像头;109控制电路;110第1驱动轮(一组驱动轮);111第2驱动轮(一组驱动轮);112第1马达;113第2马达;114对重(配重);115导向轴;116摆臂;117旋转用马达;118旋转轴;119带;120马达带轮;131连结轴;132连结轴;200主控制部;201加速度信息管理部;202保持状态判断部;203用户方向算出部;204摄像头影像处理部;205显示信息输出控制部;206存储器;210通信部;211显示部;212壳体驱动轮;213轴控制部;214壳体驱动轮控制部;215配重驱动机构控制部;216扬声器;217麦克风;218配重驱动机构;219加速度传感器;1500机器人系统;1501用户;1502用户;1503用户;Ax加速度(第3值);Ay加速度(第2值);Az加速度(第1值);Td一定期间;TH阈值;TS抽样期间;TW预定幅度;D移动方向。
Claims (22)
1.一种机器人,具备:
球体状的壳体;
框架,其配置在所述壳体的内侧部;
显示部,其安装于所述框架,至少显示机器人的面部的一部分;
一组驱动轮,其安装于所述框架,与所述壳体的内周面接触,使所述壳体旋转;
配重驱动机构,其安装于所述框架,使配重在预定方向上往复移动;
加速度传感器,其检测上下轴方向、前后轴方向及左右轴方向的三个轴向的加速度;以及
控制电路,其判断在从所述加速度传感器输出的表示所述上下轴方向的加速度的第1值是否超过预定的阈值,在判断为所述第1值超过所述预定的阈值的情况下,判断表示所述上下轴方向的加速度的第1值、表示所述前后轴方向的加速度的第2值和表示所述左右轴方向的加速度的第3值的某一个在一定期间内是否超过预定幅度地产生变动,在判断为所述第1值、所述第2值和所述第3值的某一个在一定期间内超过预定幅度地产生变动的情况下,判断为所述壳体被用户抱着。
2.根据权利要求1所述的机器人,
所述控制电路,
当在表示所述上下轴方向的加速度的第1值超过了所述预定的阈值后,判断为表示所述上下轴方向的加速度的第1值、表示所述前后轴方向的加速度的第2值和表示所述左右轴方向的加速度的第3值的任一个的变动在所述一定期间内都处于所述预定幅度内的情况下,判断为所述壳体沿上下方向移动后被安置在了预定地方。
3.根据权利要求1所述的机器人,
所述控制电路,
即使在从所述加速度传感器输出的表示所述上下轴方向的加速度的第1值超过了预定的阈值后,判断为表示所述上下轴方向的加速度的第1值、表示所述前后轴方向的加速度的第2值和表示所述左右轴方向的加速度的第3值的某一个在所述一定期间内超过所述预定幅度地产生变动的情况下,在对所述一组驱动轮输出驱动指示时,判断为所述壳体没有被用户抱着。
4.根据权利要求1所述的机器人,
所述控制电路,
在判断为所述壳体被用户抱着的情况下,
控制所述配重驱动机构,使所述配重在朝向所述用户的方向上移动。
5.根据权利要求1所述的机器人,
所述控制电路,
在判断为所述壳体被用户抱着的情况下,
基于在表示所述上下轴方向的加速度的第1值超过了所述预定的阈值的时间点的前后的抽样期间内从所述加速度传感器输出的表示所述前后轴方向的加速度的第2值以及表示所述左右轴方向的加速度的第3值,判断所述壳体的移动方向,
使所述配重进行往复移动的所述预定方向与所述判断出的壳体的移动方向相符,
控制所述配重驱动机构,使所述配重在朝向所述用户的方向上移动。
6.根据权利要求4或5所述的机器人,
所述控制电路,
控制所述配重驱动机构,在使所述配重在与朝向所述用户的方向相反的方向上移动后,使所述配重在朝向所述用户的方向上移动。
7.根据权利要求1所述的机器人,
所述控制电路,
在判断为所述壳体被用户抱着的情况下,
控制所述配重驱动机构,使所述配重在离开所述用户的方向上移动。
8.根据权利要求1所述的机器人,
所述控制电路,
在判断为所述壳体被用户抱着的情况下,
基于在表示所述上下轴方向的加速度的第1值超过了所述预定的阈值的时间点的前后的抽样期间内从所述加速度传感器输出的表示所述前后轴方向的加速度的第2值以及表示所述左右轴方向的加速度的第3值,判断所述壳体的移动方向,
使所述配重进行往复移动的所述预定方向与所述判断出的壳体的移动方向相符,
控制所述配重驱动机构,使所述配重在离开所述用户的方向上移动。
9.根据权利要求1所述的机器人,
所述控制电路,
在判断为所述壳体被用户抱着的情况下,
使所述一组驱动轮旋转,从而使所述壳体在朝向所述用户的方向上移动。
10.根据权利要求1所述的机器人,
所述控制电路,
在判断为所述壳体被用户抱着的情况下,
基于在表示所述上下轴方向的加速度的第1值超过了所述预定的阈值的时间点的前后的抽样期间内从所述加速度传感器输出的表示所述前后轴方向的加速度的第2值以及表示所述左右轴方向的加速度的第3值,判断所述壳体的移动方向,
使所述壳体通过所述一组驱动轮的旋转进行前进的方向与所述判断出的壳体的移动方向相符,
使所述一组驱动轮旋转,从而使所述壳体在朝向所述用户的方向上移动。
11.根据权利要求9或10所述的机器人,
所述控制电路,
使所述一组驱动轮间歇式地旋转。
12.根据权利要求1所述的机器人,
所述控制电路,
在判断为所述壳体被用户抱着的情况下,
交替切换第1控制和第2控制,所述第1控制使所述一组驱动轮中的第1驱动轮沿前进方向旋转并且使第2驱动轮沿后退方向旋转,所述第2控制使所述一组驱动轮的所述第1驱动轮沿后退方向旋转并且使所述第2驱动轮沿前进方向旋转。
13.根据权利要求1所述的机器人,
所述控制电路,
在判断为所述壳体被用户抱着的情况下,
基于在表示所述上下轴方向的加速度的第1值超过了所述预定的阈值的时间点的前后的抽样期间内从所述加速度传感器输出的表示所述前后轴方向的加速度的第2值以及表示所述左右轴方向的加速度的第3值,判断所述壳体的移动方向,
使所述壳体通过所述一组驱动轮的旋转进行前进的方向与所述判断出的壳体的移动方向相符,
交替切换第1控制和第2控制,所述第1控制使所述一组驱动轮中的第1驱动轮沿前进方向旋转并且使第2驱动轮沿后退方向旋转,所述第2控制使所述一组驱动轮的所述第1驱动轮沿后退方向旋转并且使所述第2驱动轮沿前进方向旋转。
14.根据权利要求1所述的机器人,
所述控制电路,
在判断为所述壳体被用户抱着的情况下,
使所述一组驱动轮旋转,从而使所述壳体在离开所述用户的方向上移动。
15.根据权利要求1所述的机器人,
所述控制电路,
在判断为所述壳体被用户抱着的情况下,
基于在表示所述上下轴方向的加速度的第1值超过了所述预定的阈值的时间点的前后的抽样期间内从所述加速度传感器输出的表示所述前后轴方向的加速度的第2值以及表示所述左右轴方向的加速度的第3值,判断所述壳体的移动方向,
使所述壳体通过所述一组驱动轮的旋转进行前进的方向与所述判断出的壳体的移动方向相符,
使所述一组驱动轮反向旋转,从而使所述壳体在离开所述用户的方向上移动。
16.根据权利要求1所述的机器人,
所述控制电路,
当在表示所述上下轴方向的加速度的第1值超过了所述预定的阈值的时间点的前后的抽样期间内从所述加速度传感器输出的表示所述前后轴方向的加速度的第2值在将所述显示部的显示方向作为所述前后轴方向的前向的情况下的后向上变化时,
判断为所述显示部朝着与所述壳体的移动方向相反的一侧。
17.根据权利要求16所述的机器人,
所述控制电路,
在判断为所述显示部朝着与所述壳体的移动方向相反的一侧的情况下,
基于表示所述前后轴方向的加速度的第2值以及表示所述左右轴方向的加速度的第3值,判断所述壳体的移动方向,
使所述一组驱动轮中的第1驱动轮沿前进方向旋转并且使第2驱动轮沿后退方向旋转,从而使所述显示部的朝向与所述壳体的移动方向相符。
18.根据权利要求16所述的机器人,
所述显示部安装于作为所述框架的一部分的旋转板,
具备所述旋转板的旋转驱动机构,
所述控制电路,
在判断为所述显示部朝着与所述壳体的移动方向相反的一侧的情况下,
基于表示所述前后轴方向的加速度的第2值以及表示所述左右轴方向的加速度的第3值,判断所述壳体的移动方向,
控制所述旋转驱动机构,使所述显示部的朝向与所述壳体的移动方向相符。
19.根据权利要求1所述的机器人,
所述框架包括旋转板,
设置有安装于所述旋转板的摄像头,
具备所述旋转板的旋转驱动机构,
所述控制电路,
基于在表示所述上下轴方向的加速度的第1值超过了所述预定的阈值的时间点的前后的抽样期间内从所述加速度传感器输出的表示所述前后轴方向的加速度的第2值以及表示所述左右轴方向的加速度的第3值,判断所述壳体的移动方向,
使所述摄像头的拍摄方向与所述判断出的壳体的移动方向相符,
在根据所述壳体的移动,由所述摄像头拍摄到的图像变为全黑图像的情况下,判断为所述壳体被用户抱着。
20.根据权利要求1所述的机器人,
设置有安装于所述框架的摄像头,
所述控制电路,
基于在表示所述上下轴方向的加速度的第1值超过了所述预定的阈值的时间点的前后的抽样期间内从所述加速度传感器输出的表示所述前后轴方向的加速度的第2值以及表示所述左右轴方向的加速度的第3值,判断所述壳体的移动方向,
使所述一组驱动轮中的第1驱动轮沿前进方向旋转并且使第2驱动轮沿后退方向旋转,从而使所述摄像头的拍摄方向与所述壳体的移动方向相符,
在根据所述壳体的移动,由所述摄像头拍摄到的图像变为全黑图像的情况下,判断为所述壳体被用户抱着。
21.一种机器人,具备:
球体状的壳体;
框架,其配置在所述壳体的内侧部;
显示部,其安装于所述框架,至少显示机器人的面部的一部分;
配重驱动机构,其安装于所述框架,使配重在预定方向上往复移动;
加速度传感器,其检测上下轴方向、前后轴方向及左右轴方向的三个轴向的加速度;以及
控制电路,其判断在从所述加速度传感器输出的表示所述上下轴分量的加速度的第1值是否超过预定的阈值,在判断为所述第1值超过所述预定的阈值的情况下,判断表示所述上下轴方向的加速度的第1值、表示所述前后轴方向的加速度的第2值和表示所述左右轴方向的加速度的第3值的某一个在一定期间内是否超过预定幅度地产生变动,在判断为所述第1值、所述第2值和所述第3值的某一个在一定期间内超过预定幅度地产生变动的情况下,使所述配重在基于在表示所述上下轴方向的加速度的第1值超过了所述预定的阈值的时间点的前后的抽样期间内从所述加速度传感器输出的表示所述前后轴方向的加速度的第2值以及表示所述左右轴方向的加速度的第3值所判断出的所述壳体的移动方向上移动。
22.一种机器人,具备:
球体状的壳体;
框架,其配置在所述壳体的内侧部;
显示部,其安装于所述框架,至少显示面部的一部分;
一组驱动轮,其安装于所述框架,与所述壳体的内周面接触,使所述壳体旋转;
加速度传感器,其检测上下轴方向、前后轴方向及左右轴方向的三个轴向的加速度;以及
控制电路,其判断在从所述加速度传感器输出的表示所述上下轴方向的加速度的第1值是否超过预定的阈值,在判断为所述第1值超过所述预定的阈值的情况下,判断表示所述上下轴方向的加速度的第1值、表示所述前后轴方向的加速度的第2值和表示所述左右轴方向的加速度的第3值的某一个在一定期间内是否超过预定幅度地产生变动,在判断为所述第1值、所述第2值和所述第3值的某一个在一定期间内超过预定幅度地产生变动的情况下,使所述一组驱动轮旋转,从而使所述壳体在基于在表示所述上下轴方向的加速度的第1值超过了所述预定的阈值的时间点的前后的抽样期间内从所述加速度传感器输出的表示所述前后轴方向的加速度的第2值以及表示所述左右轴方向的加速度的第3值所判断出的所述壳体的移动方向上移动。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016147537A JP6695061B2 (ja) | 2016-07-27 | 2016-07-27 | ロボット |
JP2016-147537 | 2016-07-27 | ||
PCT/JP2017/022040 WO2018020889A1 (ja) | 2016-07-27 | 2017-06-15 | ロボット |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108055868A CN108055868A (zh) | 2018-05-18 |
CN108055868B true CN108055868B (zh) | 2022-05-27 |
Family
ID=61016432
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780001621.3A Active CN108055868B (zh) | 2016-07-27 | 2017-06-15 | 机器人 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10799806B2 (zh) |
EP (1) | EP3492155A4 (zh) |
JP (1) | JP6695061B2 (zh) |
CN (1) | CN108055868B (zh) |
CA (1) | CA2998307A1 (zh) |
WO (1) | WO2018020889A1 (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7199071B2 (ja) | 2017-07-06 | 2023-01-05 | 国立研究開発法人宇宙航空研究開発機構 | 移動型撮像装置 |
CN109241073A (zh) * | 2018-09-02 | 2019-01-18 | 重庆市南岸区瑜目网络科技有限责任公司 | 一种让人工智能机器人具有人类情感的方法 |
CN111067354B (zh) * | 2018-10-19 | 2022-06-07 | 佛山市顺德区美的饮水机制造有限公司 | 饮水机及其移动方法与装置 |
KR20200092120A (ko) * | 2019-01-24 | 2020-08-03 | 삼성전자주식회사 | 구형 구조체를 포함하는 전자 장치 |
CN113696989B (zh) * | 2021-08-30 | 2022-07-26 | 西安交通大学 | 一种可越障抗冲击的全向移动球形机器人驱动机构 |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3696557A (en) * | 1969-11-17 | 1972-10-10 | Reinhold Ruppel | Self-propelled toy |
US3722134A (en) * | 1971-10-12 | 1973-03-27 | C Merrill | Self-propelled continuously moving toy |
FI960103A0 (fi) * | 1996-01-09 | 1996-01-09 | Torsten Schoenberg | Roerlig robot |
US5692946A (en) * | 1996-01-11 | 1997-12-02 | Ku; Wang-Mine | Spherical steering toy |
US5720644A (en) * | 1996-11-04 | 1998-02-24 | Ku; Wane Ming | Voice-actuated spherical tumbler |
EP1155787B1 (en) * | 1998-11-30 | 2016-10-05 | Sony Corporation | Robot device and control method thereof |
JP2000218578A (ja) * | 1999-02-03 | 2000-08-08 | Sony Corp | 球形ロボット |
US7258591B2 (en) * | 2003-01-06 | 2007-08-21 | The Chinese University Of Hong Kong | Mobile roly-poly-type apparatus and method |
JP4623375B2 (ja) * | 2005-08-31 | 2011-02-02 | ソニー株式会社 | 入力装置及び入力方法 |
JP4867823B2 (ja) * | 2007-07-09 | 2012-02-01 | トヨタ自動車株式会社 | 倒立車輪型移動体、及びその制御方法 |
JP4743347B2 (ja) * | 2008-09-17 | 2011-08-10 | 株式会社村田製作所 | 転倒防止制御装置及びコンピュータプログラム |
SK50532009A3 (sk) * | 2009-08-28 | 2011-03-04 | Daniel Furka | Robotický systém určený na pohyb v ľubovoľnom prostredí |
US8137152B2 (en) * | 2010-05-25 | 2012-03-20 | Fun Tram Corporation | Remote control ball assembly |
US9429940B2 (en) * | 2011-01-05 | 2016-08-30 | Sphero, Inc. | Self propelled device with magnetic coupling |
US8751063B2 (en) * | 2011-01-05 | 2014-06-10 | Orbotix, Inc. | Orienting a user interface of a controller for operating a self-propelled device |
JP2013066954A (ja) * | 2011-09-21 | 2013-04-18 | Seiko Epson Corp | ロボット及びロボットの制御方法 |
US20140179197A1 (en) * | 2012-12-21 | 2014-06-26 | Dyana Bradley | Toy apparatus with simulated lcd screen face |
JP2016525973A (ja) * | 2013-05-06 | 2016-09-01 | スフィロ インコーポレイテッド | 多目的自己推進デバイス |
JP6314426B2 (ja) * | 2013-10-31 | 2018-04-25 | セイコーエプソン株式会社 | ロボット制御装置およびロボット制御方法 |
KR102072387B1 (ko) * | 2014-03-20 | 2020-02-03 | 삼성전자주식회사 | 로봇 청소기 및 로봇 청소기의 제어방법 |
WO2016068262A1 (ja) * | 2014-10-29 | 2016-05-06 | 京セラ株式会社 | コミュニケーションロボット |
JP6344523B2 (ja) * | 2015-03-12 | 2018-06-20 | 株式会社村田製作所 | 球乗りロボット |
US20160296851A1 (en) * | 2015-04-10 | 2016-10-13 | Kamini Udairaj | Children's Toy Assembly |
US10472008B2 (en) * | 2015-04-20 | 2019-11-12 | The Board Of Regents For Oklahoma State University | System and method for inducing motion in a rolling robot using a dual telescoping linear actuator |
US10397527B2 (en) * | 2015-07-08 | 2019-08-27 | Omar Barlas | Remotely controlled robotic sensor ball |
US10101739B2 (en) * | 2016-03-21 | 2018-10-16 | Sphero, Inc. | Multi-body self propelled device with induction interface power transfer |
-
2016
- 2016-07-27 JP JP2016147537A patent/JP6695061B2/ja active Active
-
2017
- 2017-06-15 CA CA2998307A patent/CA2998307A1/en not_active Abandoned
- 2017-06-15 CN CN201780001621.3A patent/CN108055868B/zh active Active
- 2017-06-15 EP EP17833899.2A patent/EP3492155A4/en not_active Withdrawn
- 2017-06-15 WO PCT/JP2017/022040 patent/WO2018020889A1/ja unknown
-
2018
- 2018-02-27 US US15/905,883 patent/US10799806B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018015211A (ja) | 2018-02-01 |
US20180178136A1 (en) | 2018-06-28 |
US10799806B2 (en) | 2020-10-13 |
CN108055868A (zh) | 2018-05-18 |
EP3492155A4 (en) | 2019-07-24 |
CA2998307A1 (en) | 2018-02-01 |
WO2018020889A1 (ja) | 2018-02-01 |
EP3492155A1 (en) | 2019-06-05 |
JP6695061B2 (ja) | 2020-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108055868B (zh) | 机器人 | |
CN109421066B (zh) | 机器人 | |
CN109531585B (zh) | 机器人 | |
US10589426B2 (en) | Robot | |
CN109108960B (zh) | 机器人、机器人的控制方法以及存储介质 | |
US11000952B2 (en) | More endearing robot, method of controlling the same, and non-transitory recording medium | |
JP5186723B2 (ja) | コミュニケーションロボットシステムおよびコミュニケーションロボットの視線制御方法 | |
WO2017199782A1 (ja) | ロボット | |
WO2017199783A1 (ja) | ロボット | |
WO2017187965A1 (ja) | ロボット | |
JP2006272471A (ja) | コミュニケーションロボット | |
KR20110016165A (ko) | 홍보 가능한 지능형 디스플레이 장치 및 그 홍보 방법 | |
JP2019005846A (ja) | ロボット、ロボットの制御方法及びプログラム | |
JP2023095918A (ja) | ロボット、ロボットの制御方法及びプログラム | |
US20180185764A1 (en) | Robot | |
JP2019111603A (ja) | ロボット、ロボット制御システム、ロボットの制御方法及びプログラム | |
JP2014144514A (ja) | 状態表示システム、状態表示方法、及びロボット装置 | |
JP2004151924A (ja) | 自律移動ロボット及びその制御方法 | |
CN110625607A (zh) | 机器人、机器人的控制方法及存储介质 | |
JP2018000845A (ja) | ロボット | |
JP2020179005A (ja) | ロボット及び方法 | |
JP2022051980A (ja) | 振り子装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |