CN107536697B - 行走辅助机器人和行走辅助方法 - Google Patents
行走辅助机器人和行走辅助方法 Download PDFInfo
- Publication number
- CN107536697B CN107536697B CN201710299960.6A CN201710299960A CN107536697B CN 107536697 B CN107536697 B CN 107536697B CN 201710299960 A CN201710299960 A CN 201710299960A CN 107536697 B CN107536697 B CN 107536697B
- Authority
- CN
- China
- Prior art keywords
- load
- robot
- walking
- user
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 16
- 238000001514 detection method Methods 0.000 claims abstract description 60
- 230000008859 change Effects 0.000 claims description 12
- 238000010586 diagram Methods 0.000 description 22
- 238000000605 extraction Methods 0.000 description 21
- 230000005484 gravity Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000004397 blinking Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H3/00—Appliances for aiding patients or disabled persons to walk about
- A61H3/04—Wheeled walking aids for patients or disabled persons
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
- B25J11/009—Nursing, e.g. carrying sick persons, pushing wheelchairs, distributing drugs
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/085—Force or torque sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H3/00—Appliances for aiding patients or disabled persons to walk about
- A61H3/04—Wheeled walking aids for patients or disabled persons
- A61H2003/043—Wheeled walking aids for patients or disabled persons with a drive mechanism
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/01—Constructive details
- A61H2201/0173—Means for preventing injuries
- A61H2201/0184—Means for preventing injuries by raising an alarm
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/01—Constructive details
- A61H2201/0188—Illumination related features
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/16—Physical interface with patient
- A61H2201/1657—Movement of interface, i.e. force application means
- A61H2201/1659—Free spatial automatic movement of interface within a working area, e.g. Robot
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5023—Interfaces to the user
- A61H2201/5043—Displays
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5058—Sensors or detectors
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5058—Sensors or detectors
- A61H2201/5061—Force sensors
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- General Health & Medical Sciences (AREA)
- Rehabilitation Therapy (AREA)
- Pain & Pain Management (AREA)
- Physical Education & Sports Medicine (AREA)
- Epidemiology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Human Computer Interaction (AREA)
- Nursing (AREA)
- Rehabilitation Tools (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
一种行走辅助机器人和行走辅助方法,在用户接受行走辅助机器人的辅助而行走中时,抑制该用户周围的第三者与行走辅助机器人和/或其用户接触。对用户的行走进行辅助的行走辅助机器人具有:能够在行走面上转动的旋转体;用户把持的把手部;对由用户施加给所述把手部的负荷进行检测的把手负荷检测部;以及将光投影到行走面上的投影部。从所述投影部投影到行走面上的光基于由所述把手负荷检测部检测到的把手负荷而变化。
Description
技术领域
本公开涉及对用户的行走进行辅助的行走辅助机器人和行走辅助方法。
背景技术
近年来,已知有对用户的行走进行辅助的行走辅助机器人。专利文献1所述的行走辅助机器人是对使用拐杖来行走的用户进行辅助的机器人,构成为示教用户迈步的位置。具体而言,机器人具备将脚掌形状的图像投影到应该放脚的行走面上的位置的投影机。
现有技术文献
专利文献
专利文献1:日本特开2011-229838号公报
发明内容
发明要解决的问题
另外,行走辅助机器人的用户有时会过于集中于行走而疏忽对周围的注意。在专利文献1所述的行走辅助机器人的情况下,由于一边看着由投影机投影于行走面上的脚掌形状的图像一边行走,因此用户容易疏忽对周围的注意。
此时,在周围的第三者没有注意到行走辅助机器人和/或其用户的情况下,第三者有可能与机器人和/或其用户接触。例如,在第三者一边视线向下使用便携终端一边行走的情况下,第三者有可能不会注意到前方的行走辅助机器人。
于是,本公开的目的在于,在用户正接受行走辅助机器人的辅助而行走时,抑制该用户周围的第三者与行走辅助机器人和/或其用户接触。
用于解决问题的技术方案
根据本公开的一技术方案,提供一种对用户的行走进行辅助的行走辅助机器人,该行走辅助机器人具有:能够在行走面上转动的旋转体;用户把持(握持)的把手部;对由用户施加给所述把手部的负荷进行检测的把手负荷检测部;以及将光投影到行走面上的投影部,从所述投影部投影到行走面上的光基于由所述把手负荷检测部检测到的把手负荷而变化。
根据本公开的另一技术方案,提供一种使用行走辅助机器人来对用户的行走进行辅助的行走辅助方法,对由用户施加给所述行走辅助机器人的把手部的负荷进行检测,由设置于所述行走辅助机器人的投影部将光投影到行走面上,基于检测到的对所述把手部施加的负荷,使由所述投影部投影到行走面上的光变化。
发明的效果
根据本公开,能够在用户正接受行走辅助机器人的辅助而行走时,抑制该用户周围的第三者与行走辅助机器人和/或其用户接触。
附图说明
图1是本公开的一实施方式的行走辅助机器人的外观图。
图2是表示接受本公开的一实施方式的行走辅助机器人的行走辅助的用户的情形的图。
图3是表示本公开的一实施方式的行走辅助机器人的构成的框图。
图4是表示由本公开的一实施方式中的把手检测部检测的把手负荷的检测方向的图。
图5是表示本公开的一实施方式的行走辅助机器人中的行走辅助的控制构成的控制框图。
图6是表示本公开的一实施方式中的负荷倾向图表部(map)的图。
图7表示本公开的一实施方式的行走辅助机器人的负荷倾向数据的生成处理的例示性的流程图。
图8表示本公开的一实施方式的行走辅助机器人的移动意图推定处理的例示性的流程图。
图9A是表示用户进行直行(直线前进)动作时的Fy方向上的过去的负荷数据的波形信息的一例的图。
图9B是表示图9A所示的Fy方向上的过去的负荷数据的平均负荷值的图。
图10A是表示用户进行直行动作时的Fy方向上的当前的负荷数据的波形信息的一例的图。
图10B是表示图10A所示的Fy方向上的当前的负荷数据的平均负荷值的图。
图11是表示修正后的负荷数据的波形信息的一例的图。
图12是表示与行走辅助机器人相关的安全确保区域的图。
图13是表示与本公开的一实施方式的行走辅助机器人的安全确保相关联的控制构成的控制框图。
图14是表示行走辅助机器人的安全确保区域的边界线的变化的一例的图。
图15是表示与行走辅助机器人相关的安全确保区域的边界线的变化的另一例的图。
图16是表示与行走辅助机器人相关的安全确保区域的边界线的变化的又一例的图。
图17是表示与行走辅助机器人相关的安全确保区域的边界线的变化的不同例的图。
图18是表示正在对用户促使对障碍物警戒的状态下的行走辅助机器人的图。
图19是表示与行走辅助机器人相关的安全确保区域的边界线的另一例的图。
图20是表示与行走辅助机器人相关的安全确保区域的边界线的又一例的图。
附图标记说明
1 行走辅助机器人
12 把手部
13 把手负荷检测部
16 旋转体
51 投影部
具体实施方式
本公开的一技术方案是对用户的行走进行辅助的行走辅助机器人,具有:能够在行走面上转动的旋转体;用户把持的把手部;对由用户施加给所述把手部的负荷进行检测的把手负荷检测部;以及将光投影到行走面上的投影部,从所述投影部投影到行走面上的光基于由所述把手负荷检测部检测到的把手负荷而变化。
根据这样的技术方案,能够在用户正接受行走辅助机器人的辅助而行走时,抑制该用户周围的第三者与行走辅助机器人和/或其用户接触。
例如,所述投影部将至少部分地包围所述行走辅助机器人的边界线投影到行走面上,所述边界线与所述行走辅助机器人之间的距离基于由所述把手负荷检测部检测到的把手负荷而变更。
例如,由所述把手负荷检测部检测到的把手负荷越大,则所述投影部投影与所述行走辅助机器人之间的距离越大的边界线。
例如,所述把手负荷检测部对水平方向上的负荷进行检测,由所述把手负荷检测部检测到的把手负荷越大,则所述投影部以使得与所述行走辅助机器人相对的边界线的部分与该行走辅助机器人之间的检测负荷方向上的距离变得比其他方向上的距离大得越多的方式,变更所述边界线的形状。
例如,基于由所述把手负荷检测部检测到的把手负荷的倾向来变更所述边界线与所述行走辅助机器人之间的距离。
例如,所述投影部在所述把手负荷检测部持续检测到向不同于移动方向的特定方向的负荷来作为把手负荷的倾向的情况下,以将所述边界线与所述行走辅助机器人之间的所述特定方向上的距离维持为比其他方向上的距离大的方式,投影所述边界线。
所述行走辅助机器人例如具有搭载物品的物品搭载部和对物品的重量进行检测的物品重量检测部,由物品重量检测部检测到的物品重量越大,则所述投影部投影与所述行走辅助机器人之间的距离越大的边界线。
所述行走辅助机器人例如具有对所述行走辅助机器人的移动速度进行检测的移动速度检测部,由移动速度检测部检测到的移动速度越高,则所述投影部投影与行走辅助机器人之间的距离越大的边界线。
所述行走辅助机器人例如具有:对在比所述边界线靠所述行走辅助机器人侧是否存在障碍物进行检测的障碍物检测部和向用户通知由所述障碍物检测部检测到了障碍物这一情况的通知部。
例如,在所述障碍物检测部检测到障碍物的情况下,所述投影部作为所述通知部将用于促使对障碍物的警戒的警戒图像投影到行走面上。
另外,本公开的另一技术方案是一种使用行走辅助机器人来对用户的行走进行辅助的行走辅助方法,对由用户施加给所述行走辅助机器人的把手部的负荷进行检测,由设置于所述行走辅助机器人的投影部将光投影到行走面上,基于检测到的对所述把手部的负荷,使由所述投影部投影到行走面上的光变化。
根据这样的技术方案,能够在用户正接受行走辅助机器人的辅助而行走时,抑制该用户周围的第三者与行走辅助机器人和/或其用户接触。
以下,参照附图对本公开的一实施方式进行说明。另外,在各图中,为了使得说明易于理解而夸大地示出了各要素。
图1概略性地表示一实施方式的行走辅助机器人1(以下称为“机器人1”)的外观图。图2表示用户正接受机器人1的行走辅助而行走的情形。图3是概略性地表示机器人1的构成的框图。
本实施方式的机器人1对在地板、地面、铺修路等行走面行走的用户Q进行辅助。为了对该行走进行辅助,如图1~图3所示,机器人1具备:主体部11、用户Q可把持的把手部12、对施加于把手部12的负荷进行检测的把手负荷检测部13、使主体部11移动的移动装置14以及负荷倾向数据生成部15。
把手部12设置于主体部11的上部,设置成行走中的用户Q的两手容易把持的形状和高度位置。
把手负荷检测部13对把持把手部12的用户Q施加于该把手部12的负荷(把手负荷)进行检测。具体而言,在用户Q把持把手部12而行走时,用户Q对把手部12施加把手负荷。把手负荷检测部13对用户Q施加于把手部12的把手负荷的方向和大小进行检测。
图4表示由把手负荷检测部13检测的把手负荷的检测方向。如图4所示,把手负荷检测部13例如是能够分别检测在互相正交的三轴方向上施加的力和绕三轴的力矩的六轴力传感器。互相正交的三轴是沿着机器人1的左右方向延伸的x轴、沿着机器人1的前后方向延伸的y轴以及沿着机器人1的高度方向延伸的z轴。在三轴方向上施加的力是在x轴方向上施加的力Fx、在y轴方向上施加的力Fy以及在z轴方向上施加的力Fz。在实施方式1中,将Fx中的在右方向上施加的力设为Fx+,将在左方向上施加的力设为Fx-。将Fy中的在前方向上施加的力设为Fy+,将在后方向上施加的力设为Fy-。将在Fz方向中的铅直下方向上施加的力设为Fz+,将在铅直上方向上施加的力设为Fz。绕三轴的力矩是绕x轴的力矩Mx、绕y轴的力矩My以及绕z轴的力矩Mz。
移动装置14基于由把手负荷检测部13检测到的把手负荷(力和力矩)的大小和方向使主体部11移动。在本实施方式中,移动装置14进行如下控制。此外,在本说明书中,有时将Fx、Fy、Fz、Mx、My、Mz称为负荷。
移动装置14在由把手负荷检测部13检测到Fy+的力的情况下,使主体部11向前方向移动。即,在由把手负荷检测部13检测到Fy+的力的情况下,机器人1进行前进动作。在机器人1进行前进动作的期间,当由把手负荷检测部13检测的Fy+的力变大时,移动装置14提高机器人1向前方向的移动速度。另一方面,在机器人1进行前进动作的期间,当由把手负荷检测部13检测的Fy+的力变小时,移动装置14降低机器人1向前方向的移动速度。
移动装置14在由把手负荷检测部13检测到Fy-的力的情况下,使主体部11向后方向移动。即,在由把手负荷检测部13检测到Fy-的力的情况下,机器人1进行后退动作。在机器人1进行后退动作的期间,当由把手负荷检测部13检测的Fy-的力变大时,移动装置14提高机器人1向后方向的移动速度。另一方面,在机器人1进行后退动作的期间,当由把手负荷检测部13检测的Fy-的力变小时,移动装置14降低机器人1向后方向的移动速度。
移动装置14在由把手负荷检测部13检测到Fy+的力和Mz+的力矩的情况下,使主体部11向右方向回转移动。即,在由把手负荷检测部13检测到Fy+的力和Mz+的力矩的情况下,机器人1进行右转动作。在机器人1进行右转动作的期间,当由把手负荷检测部13检测的Mz+的力矩变大时,机器人1的回转半径变小。另外,在机器人1进行右转动作的期间,当由把手负荷检测部13检测的Fy+的力变大时,回转速度变大。
移动装置14在由把手负荷检测部13检测到Fy+的力和Mz-的力矩的情况下,使主体部11向左方向回转移动。即,在由把手负荷检测部13检测到Fy+的力和Mz-的力矩的情况下,机器人1进行左转动作。在机器人1进行左转动作的期间,当由把手负荷检测部13检测的Mz-的力矩变大时,机器人1的回转半径变小。另外,在机器人1进行左转动作的期间,当由把手负荷检测部13检测的Fy+的力变大时,回转速度变大。
此外,移动装置14的控制并不限定于上述的例子。移动装置14例如也可以基于Fy和Fz的力来控制机器人1的前进动作和后退动作。另外,移动装置14例如也可以基于Mx或My的力矩来控制机器人1的回转动作。
此外,在本实施方式中,对把手负荷检测部13是六轴力传感器的例子进行了说明,但并不限定于此。把手负荷检测部13例如也可以使用三轴传感器或应变传感器等。
移动装置14具备作为设置于主体部11的下部的旋转体的车轮16和对车轮16进行驱动控制的驱动部17。
车轮16如图1所示,能够在行走面S上转动,在使主体部11自立(自行站立)的状态下对该主体部11进行支承,通过被驱动部17驱动旋转,在保持使主体部11自立的姿势的状态下,例如使主体部11向图2所示的箭头的方向(前方向或后方向)移动。此外,在本实施方式中,虽然以移动装置14具备使用了两个车轮16的移动机构的情况为例,但也可以是使用车轮以外的旋转体(行驶带、滚筒等)的情况。
驱动部17具备负荷修正部18、用户移动意图推定部19、驱动力算出部20、致动器控制部21以及致动器22。
负荷修正部18根据用户Q的负荷倾向来修正由把手负荷检测部13检测到的把手负荷。具体而言,负荷修正部18基于由负荷倾向数据生成部15生成的负荷倾向数据来修正由把手负荷检测部13检测到的把手负荷的值。此外,后面叙述该把手负荷的修正的详细情况。另外,负荷修正部18也可以基于机器人1的使用场所、使用时间以及用户Q的身体状况等来修正把手负荷的值。
用户移动意图推定部19基于由负荷修正部18修正后的把手负荷(以下称为“修正把手负荷”)来推定用户Q的移动意图。在此所说的用户的移动意图是用户的移动方向和移动速度,即用户的行走方向和行走速度。在本实施方式中,用户移动意图推定部19根据各移动方向上的修正把手负荷的值来推定用户Q的移动意图。例如,在由把手负荷检测部13检测的Fy+的力是预定的第1阈值以上的值、My+的力是小于预定的第2阈值的值的情况下,用户移动意图推定部19可推定用户Q的移动意图为直行动作。另外,例如,用户移动意图推定部19基于Fz方向上的修正把手负荷的值来推定移动速度。进一步,例如,在由把手负荷检测部13检测的Fy+的力是预定的第3阈值以上的值、My+的力是预定的第2阈值以上的值的情况下,用户移动意图推定部19可推定用户Q的移动意图为右转动作。此外,用户移动意图推定部19也可以基于Fz方向上的修正把手负荷的值来推定回转速度、基于My方向上的修正把手负荷的值来推定回转半径。
驱动力算出部20基于由负荷修正部18修正后的把手负荷的信息来算出驱动力。具体而言,驱动力算出部20基于根据修正把手负荷的信息推定得到的用户Q的移动意图即用户Q的移动方向和移动速度,来算出驱动力。例如,在用户Q的移动意图为前进动作或后退动作的情况下,以使得两个车轮16的旋转量相等的方式算出驱动力。在用户Q的移动意图为右转动作的情况下,以使两个车轮16中的右侧的车轮16的旋转量比左侧的车轮16的旋转量大的方式算出驱动力。另外,根据用户Q的移动速度来算出驱动力的大小。
致动器控制部21基于由驱动力算出部20算出的驱动力的信息来进行致动器22的驱动控制。另外,致动器控制部21能够从致动器22取得车轮16的旋转量的信息,并将车轮16的旋转量的信息发送到驱动力算出部20和用户负荷倾向抽取部(提取部)23。
致动器22例如是驱动车轮16旋转的马达等。致动器22经由齿轮机构或滑轮机构等与车轮16连接。通过致动器控制部21进行驱动控制,由此致动器22驱动车轮16旋转。
负荷倾向数据生成部15基于过去检测到的把手负荷的信息来生成用户Q的负荷倾向数据。负荷倾向数据是表示预定的动作时的用户Q的把手负荷的倾向的数据。预定的动作例如指的是直行动作、后退动作以及回转动作等。例如,在弯着腰的用户Q把持了把手部12的情况下,由于倚靠着机器人1,因此向铅直下方向的把手负荷即Fz+的力有变大的倾向。另外,在左右摇晃地行走的用户Q把持了把手部12的情况下,尽管正在进行前进动作,但向左右方向的把手负荷即My的力矩有变大的倾向。这样,在负荷倾向数据生成部15中,根据过去的负荷数据来生成每个预定的动作时的用户Q的负荷倾向。
对在具有这样的构成的行走辅助机器人1中用于进行用户Q的行走辅助的控制构成进行说明。
如图3所示,把手负荷检测部13对施加于把手部12的把手负荷进行检测。由把手负荷检测部13检测到的把手负荷的信息被发送到负荷修正部18。负荷修正部18基于由负荷倾向数据生成部15生成的负荷倾向数据来修正由把手负荷检测部13检测到的把手负荷的值。修正后的把手负荷(修正把手负荷)的信息被发送到用户移动意图推定部19。用户移动意图推定部19基于修正把手负荷的信息来推定用户Q的移动意图(移动方向和移动速度)。推定得到的用户的移动意图的信息被发送到驱动力算出部20。驱动力算出部20基于推定得到的用户Q的移动意图的信息来算出驱动力。算出了的驱动力的信息被发送到致动器控制部21。致动器控制部21基于由驱动力算出部20算出的驱动力的信息来进行致动器22的驱动控制。通过致动器控制部21进行驱动控制,由此致动器22驱动车轮16旋转,使主体部11移动。
另外,如图3所示,由把手负荷检测部13检测到的把手负荷的信息也被发送到负荷倾向数据生成部15。由把手负荷检测部13检测到的把手负荷的信息也被用于生成和更新负荷倾向数据。
使用图5对机器人1的行走辅助的详细的控制进行说明。图5是表示机器人1的行走辅助的详细的控制构成的控制框图。
如图5所示,负荷倾向数据生成部15具备:抽取与用户Q的移动方向相应的用户Q的负荷倾向的用户负荷倾向抽取部23和存储有用户Q的负荷倾向数据的负荷倾向图表部24。
用户负荷倾向抽取部23抽取与用户Q的移动方向相应的用户Q的负荷倾向。具体而言,用户负荷倾向抽取部23从负荷倾向图表部24中抽取与用户Q的移动方向相应的用户Q的负荷倾向数据。例如,在用户Q正进行直行动作(前方向前进)的情况下,用户负荷倾向抽取部23从负荷倾向图表部24中抽取与直行动作相应的用户Q的负荷倾向。用户负荷倾向抽取部23将从负荷倾向图表部24中抽取出的负荷倾向数据发送到负荷修正部18。
另外,用户负荷倾向抽取部23基于由把手负荷检测部13检测到的把手负荷的信息和由致动器控制部21取得的车轮16的旋转量的信息来生成用户Q的负荷倾向数据。所生成的负荷倾向数据被发送到负荷倾向图表部24。由此,负荷倾向图表部24的负荷倾向数据被更新。
负荷倾向图表部24是存储有用户Q的各移动方向的用户Q的负荷倾向数据的数据库。负荷倾向图表部24存储有每个移动方向的用户Q的负荷倾向数据。
图6表示负荷倾向图表部24的一例。如图6所示,负荷倾向图表部24将行走时的移动方向的平均负荷值和行走时的重心偏离方向的平均负荷值作为负荷倾向数据,按用户Q的每个移动方向进行存储。例如,参照图6,在用户Q与机器人1一起沿着前方向(y轴方向)直行时,以平均10N的负荷(力)对把手部12进行推压。另外,前方向之外的特定方向上的负荷(力)具体而言是1.0Nm的Mz的力矩持续作用于把手部12。这意味着:在用户Q沿着前方向直行时,重心总是偏向左侧。即,作为用户Q的行走倾向,在用户Q与机器人1一起沿着前方向直行时,将体重持续靠在机器人1的左侧。
使用图7对这样的负荷倾向数据的生成进行说明。图7表示机器人1的负荷倾向数据的生成处理的例示性的流程图。
如图7所示,在步骤ST1中,对由把手负荷检测部13检测的把手负荷的变化进行检测。在步骤ST1中,基于把手负荷来判断用户Q的移动方向是否发生了变化。在检测到把手负荷的变化的情况下,进入步骤ST2。在没有检测到把手负荷的变化的情况下,重复步骤ST1。
在步骤ST2中,用户负荷倾向抽取部23基于车轮16的旋转量的信息来推定用户Q的当前的移动方向。具体而言,在步骤ST1中检测把手负荷的变化时,致动器控制部21取得车轮16的旋转量的信息。由致动器控制部21取得的旋转量的信息被发送到用户负荷倾向抽取部23。例如,用户负荷倾向抽取部23基于在左右配置的两个车轮16的旋转量来推定用户Q的移动方向。
在步骤ST3中,用户负荷倾向抽取部23将在步骤ST1中检测到的把手负荷与推定得到的用户Q的移动方向上的过去的负荷数据相加。具体而言,用户负荷倾向抽取部23读取出存储于负荷倾向图表部24的过去的负荷数据,将在步骤ST1中检测到的把手负荷与读取出的过去的负荷数据相加。过去的负荷数据指的是到此为止检测到的全部负荷数据。
在步骤ST4中,用户负荷倾向抽取部23算出用户Q行走时的移动方向上的平均负荷值和偏离方向上的平均负荷值。
在步骤ST5中,用户负荷倾向抽取部23将算出的用户Q行走时的移动方向上的平均负荷值和偏离方向上的平均负荷值设定为负荷倾向数据。具体而言,用户负荷倾向抽取部23将算出的平均负荷值的信息发送到负荷倾向图表部24,更新负荷倾向图表部24的用户Q行走时的移动方向上的平均负荷值和偏离方向上的平均负荷值。
接着,使用图8对用户Q的移动意图的推定进行说明。图8表示用户Q的移动意图的推定处理的例示性的流程图。
如图8所示,在步骤ST11中,负荷修正部18取得由把手负荷检测部13检测到的当前的把手负荷的信息。
在步骤ST12中,负荷修正部18基于当前的把手负荷的信息来算出当前的平均负荷值。
在步骤ST13中,用户负荷倾向抽取部23读取出用户Q的负荷倾向数据。具体而言,用户负荷倾向抽取部23从负荷倾向图表部24读取出过去的平均负荷值,并将过去的平均负荷值发送到负荷修正部18。
在步骤ST14中,负荷修正部18基于当前的平均负荷值和过去的平均负荷值来算出修正系数。例如,负荷修正部18将过去的平均负荷值除以当前的平均负荷值,由此算出修正系数。
在步骤ST15中,负荷修正部18将修正系数与当前的把手负荷的信息相乘。即,负荷修正部18将在步骤ST14中算出的修正系数与在步骤ST11中取得的当前的把手负荷的信息相乘。由此,负荷修正部18对把手负荷的值进行修正。
在步骤ST16中,用户移动意图推定部19基于修正后的把手负荷的信息来推定用户Q的移动意图。
作为一例,对把手负荷的修正进行说明。在此,对针对在重心偏向右方向的状态下行走的用户的把手负荷的修正进行说明。
首先,对负荷倾向数据的算出进行说明。图9A表示用户Q进行直行动作时的Mz方向上的过去的负荷数据的波形信息的一例。图9B表示图9A所示的Mz方向上的过去的负荷数据的平均负荷值。如图9A所示,由于用户的重心偏向右方向,因此,即使在进行直行动作时,也可以由检测部13检测到向My方向的负荷(力矩)。在该情况下,尽管用户想要进行前方向直行,但机器人1向右方向移动,因此,用户一边向左方向细微地调整行进方向一边进行行走。用户负荷倾向抽取部23推定为是重心偏向右方向地进行行走的用户,并将向右方向的负荷作为负荷倾向数据使用。负荷修正部18使用负荷倾向数据来对向右方向的负荷的偏倚进行修正。以下,对修正的一例进行说明。
用户负荷倾向抽取部23对图9A所示的过去的负荷数据的波形信息进行平均计算。由此,算出如图9B所示的过去的负荷数据的平均负荷值作为负荷倾向数据。在图9B的情况下,过去的平均负荷值在Mz方向为-1.0Nm。
接着,根据当前的负荷数据算出平均负荷值。图10A表示用户Q进行直行动作时的Mz方向上的当前的负荷数据的波形信息的一例。图10B表示图10A所示的Mz方向上的当前的负荷数据的平均负荷值。
负荷修正部18对图10A所示的当前的负荷数据的波形信息进行平均计算。由此,算出如图10B所示的当前的负荷数据的平均负荷值。在图10B的情况下,当前的平均负荷值在Mz方向为-2.0Nm。
负荷修正部18将过去的平均负荷值除以当前的平均负荷值,由此算出修正系数。在该情况下,修正系数为(-1.0Nm/-2.0Nm)=0.5。负荷修正部18将该修正系数与当前的负荷数据的波形信息相乘,由此对把手负荷进行修正。即,通过将修正系数0.5与图10A所示的当前的负荷数据的波形信息相乘,由此修正由把手负荷检测部13检测到的Mz方向上的把手负荷的值。
图11表示修正后的负荷数据的波形信息的一例。如图11所示,由把手负荷检测部13检测到的把手负荷(参照图10A的波形信息)通过与修正系数相乘而被修正。
用户移动意图推定部19基于该修正后的把手负荷的信息来推定用户Q的移动意图。
此外,把手负荷的修正并不限定于上述的例子。例如,在机器人1的前进动作基于Fy方向和Fz方向上的把手负荷的值来进行的情况下,也可以使用Fy方向和Fz方向上的负荷平均值作为负荷倾向数据。即,在机器人1进行前进动作时,也可以使用Fy方向和Fz方向上的负荷平均值来修正把手负荷的值。另外,在机器人1的回转动作基于Mz方向上的负荷(力矩)来进行的情况下,也可以使用Mz方向上的负荷平均值作为负荷倾向数据。即,在机器人1进行回转动作时,也可以使用Mz方向上的负荷平均值来修正把手负荷的值。另外,还可以算出Fx、Fy、Fz、Mx、My、Mz这全部方向上的负荷平均值,使用全部方向上的负荷平均值来修正把手负荷的值。这样,通过使用多个方向上的负荷平均值来修正把手负荷,由此能够更准确地把握用户Q的负荷倾向,因此机器人1能够进行更适于用户Q的身体能力的动作。此外,在把手负荷的修正中,只要相应于机器人1的移动控制而算出Fx、Fy、Fz、Mx、My、Mz方向中的至少一个方向上的负荷平均值并使用算出的负荷平均值来修正把手负荷即可。
另外,把手负荷的修正,也可以从当前的负荷值减去过去的负荷倾向数据的负荷平均值的差值,还可以将当前的负荷值乘上与过去的负荷倾向数据相应的系数。在由Fz值与Fy值的合计值进行控制的情况下,也可以变更Fz值与Fy值进行合计时的比例。例如,也可以将以Fz:Fy=8:2的方式进行控制变更为以Fz:Fy=6:4的方式进行控制。另外,可以并非仅仅通过用户的负荷倾向数据来进行修正,还可以对用户的负荷倾向数据与该用户之外的多个用户的平均的负荷倾向数据进行比较,以减小差值部分的方式变更修正的比例。作为多个用户的平均的负荷倾向数据的算出方法,也可以按照以年代、性别、场所、行走能力(行走速度、步频、步幅、立位姿势、左右的摇晃)等组合分类而得的每个组而制作。
至此为止,对与用户Q的行走的辅助相关联的机器人1的构成要素进行了说明。以下,对用于安全地进行用户Q的行走的机器人1的构成要素进行说明。
如图3所示,作为用于安全地进行用户Q的行走的构成要素,机器人1进一步具备:投影部51、移动速度检测部52、物品重量检测部53、障碍物检测部54以及安全确保区域设定部55。
如图1所示,投影部51例如是投影机,其将光投影到用户Q行走的行走面S。在本实施方式的情况下,投影部51将提醒(唤起)注意图像R投影到行走面S上。提醒注意图像R是用于提醒处于机器人1的周边的第三者注意到机器人1的图像。
图12是从上方观察机器人1和用户Q所观察到的图,示出了圆形的提醒注意图像R。该提醒注意图像R,通过其的形状,示出了用于不仅确保用户Q的安全也确保第三者的安全的圆形的安全确保区域。具体而言,安全确保区域定义为:至少部分地包围机器人1、且从机器人1离开预定的距离的边界线(即,提醒注意图像R的轮廓线)BL的内侧的区域。
此外,图12示出了机器人1停止或机器人1的移动速度以低速(比预定的阈值速度低的速度)移动时的初始状态的边界线BLi。该边界线BLi到机器人1为止的前方向的距离dF、后方向的距离dB、左方向的距离dL以及右方向的距离dR大致相等,即,示出了大致圆环状的边界线BLi。
由投影部51投影的提醒注意图像R的轮廓线即边界线BL的形状,并非一定而根据状况进行各种变化。以下,对边界线BL的形状的各种变化进行说明。
图13是表示与安全的确保相关联的、即与提醒注意图像R相关的控制构成的控制框图。
如图13所示,投影部51投影由安全确保区域设定部55设定的安全确保区域即提醒注意图像R。该安全确保区域设定部55包括:安全确保区域算出部56,其算出适于各种状况的安全确保区域;和投影图像制作部57,其制作出表示由安全确保区域算出部56算出的安全确保区域且要由投影部51投影到行走面S上的提醒注意图像R。
安全确保区域算出部56算出适于各种状况的安全确保区域、即从机器人1到边界线BL为止的距离。
例如,作为从机器人1到边界线BL为止的距离,如图12所示,算出前方向距离dF、后方向距离dB、左方向距离dL以及右方向距离dR。例如,这些距离dF、dB、dL、dR如下地表示。
式1
idF、idB、idL以及idR是距离的初始值,例如为50cm。αF、αB、αL以及αR是根据状况而变化的变量。
安全确保区域算出部56基于由把手负荷检测部13检测到的把手负荷来算出从机器人1到安全确保区域的边界线BL为止的距离。具体而言,基于由用户移动意图推定部19推定得到的用户Q的移动方向和移动速度(行走方向和行走速度),安全确保区域算出部56算出从机器人1到边界线BL为止的距离。即,决定变量αF、αB、αL、αR。
作为一例,对用户Q的移动意图为向右斜前方的移动的情况进行说明。在该情况下,如图14所示,安全确保区域算出部56算出机器人1与边界线BL之间的前方向距离dF和右方向距离dR比初始值idF、idR长的安全确保区域。具体而言,将变量αF、αR分别设定为比1大且与移动速度成比例的值。用户Q意图的移动速度越大、即用户Q施加给把手部12的把手负荷越大,则变量αF、αR设定为比1大得越多的值。
基于由安全确保区域算出部56算出的机器人1与边界线BL之间的距离,投影图像制作部57决定边界线BL的形状,制作以该所决定的边界线BL为轮廓的提醒注意图像R。由于用户Q的移动意图为向右斜前方的移动,因此,制作:以从圆环状的初始状态的边界线BLi向右斜前方比向其他方向大地扩大变形所得的边界线BL为轮廓的、即具备向右斜前方延伸的长轴的大致椭圆形的提醒注意图像R。
基于用户Q的移动意图而由投影图像制作部57制作的提醒注意图像R,被投影部51投影到行走面S上。由此,相对于机器人1的安全确保区域不仅呈现给用户Q,也呈现给处于机器人1的周边的第三者。
由此,处于机器人1的周边的第三者、特别是处于右斜前方的第三者,通过视觉辨认投影到行走面S上的提醒注意图像R(即安全确保区域)而以不踩踏该提醒注意图像R的方式(即,在安全确保区域的外部)移动。其结果,能够避免向右斜前方转换了方向的机器人1(或用户Q)与第三者接触。
另外,如图13所示,安全确保区域算出部56基于存储于在图6中作为一例而示出的负荷倾向图表部24的负荷倾向数据,来算出从机器人1到安全确保区域的边界线BL为止的距离。作为一例,对用户Q在向前方(y轴方向)前进时具有将体重持续靠在机器人1的左侧的倾向的情况进行说明。即,对将1.0Nm的Mz的力矩作为不同于移动方向的特定方向的负荷存储于负荷倾向图表部24的情况进行说明。
在用户Q具有在移动期间将体重持续靠在机器人1的左侧的倾向的情况下,如图15所示,安全确保区域算出部56算出机器人1与边界线BL之间的左方向距离dL比初始值idL长的安全确保区域。即,将式1的变量αL设定为:比1大,且与存储于负荷倾向图表部24的Mz的力矩为1.0Nm的大小成比例的值。
基于由安全确保区域算出部56算出的机器人1与边界线BL之间的距离,投影图像制作部57制作:以从圆环状的初始状态的边界线BLi向左方向比向其他方向大地扩大变形的边界线BL为轮廓的提醒注意图像R。
基于用户Q的负荷倾向(即,把手负荷的倾向)而由投影图像制作部57制作的提醒注意图像R,被投影部51投影到行走面S上。
由此,处于机器人1的周边的第三者、特别是处于机器人1的左侧的第三者,通过视觉辨识投影到行走面S上的提醒注意图像R(即,安全确保区域)而以不踩踏该提醒注意图像R的方式(即,在安全确保区域的外部)移动。其结果,即使将体重靠在机器人1的左侧的用户Q不小心打破平衡而意外地使把手部12向左回转,也能够避免第三者与机器人1接触。
而且,如图13所示,安全确保区域算出部56基于由移动速度检测部52检测到的机器人1的移动速度来算出从机器人1到安全确保区域的边界线BL为止的距离。即,机器人1的移动速度越高,则第三者与该机器人1接触时受到的冲击变得越大,另外制动距离变得越长。因此,需要考虑机器人1的移动速度来设定安全确保区域。
移动速度检测部52例如是对旋转体16的旋转速度进行检测的编码器,其对机器人1的实际的移动速度进行检测。
作为一例,对机器人1以高速(比预定的阈值速度高的速度)向前方直行的情况进行说明。
在机器人1正高速移动时(移动速度检测部52正检测到高的速度时),如图16所示,安全确保区域算出部56算出机器人1与边界线BL之间的前方向距离dF比初始值idF长的安全确保区域。即,将式1的变量αF设定为:比1大,且与由移动速度检测部52检测到的机器人1的移动速度成比例的值。由移动速度检测部52检测到的机器人1的移动速度越高,则变量αF设定为比1大得越多的值。
基于由安全确保区域算出部56算出的机器人1与边界线BL之间的距离,投影图像制作部57制作:以从圆环状的初始状态的边界线BLi向前方向比向其他方向大地扩大变形的边界线BL为轮廓的提醒注意图像R。
基于机器人1的移动速度而由投影图像制作部57制作的提醒注意图像R被投影部51投影到行走面S上。
由此,处于机器人1的周边的第三者、尤其是处于机器人1的前方的第三者,通过视觉辨识投影到行走面S上的提醒注意图像R(即,安全确保区域)而以不踩踏该提醒注意图像R的方式(即,在安全确保区域的外部)移动。其结果,能够避免高速移动的机器人1与第三者接触。
此外,如图13所示,安全确保区域算出部56基于由物品重量检测部53检测到的物品的重量,来算出从机器人1到安全确保区域的边界线BL为止的距离。
在本实施方式的情况下,如图1所示,机器人1具备搭载物品的物品搭载部58。物品搭载部58例如是盘、筐等。搭载于该物品搭载部58的物品的重量越大,则第三者与该机器人1接触时受到的冲击越大,而且制动距离越长。因此,需要考虑物品重量来设定安全确保区域。此外,图1所示的物品搭载部58具有能够搭载于主体部11的尺寸,但是并不限定于此。例如,也可以是,主体部11自身为购物车等大的手推车,由此主体部11自身作为物品搭载部58而发挥功能。
物品重量检测部53基于由把手负荷检测部13检测到的把手负荷和由移动速度检测部52检测到的机器人1的移动速度(即,旋转体16的旋转速度),来推定搭载于物品搭载部58的物品的重量。
进行说明的话,则即使由用户Q施加给把手部12的把手负荷相同,也会因物品的有无而导致机器人1的移动速度不同。即,物品的重量越大,则搭载了该物品的机器人1的移动速度比没有搭载物品的情况时的移动速度低得越多。因此,通过对搭载了物品时的移动速度与没有搭载物品时的移动速度进行比较,由此能够推定搭载于机器人1的物品的重量。
此外,也可以代替基于机器人1的移动速度来推定物品重量,而使得物品重量检测部53是直接计量物品的重量的例如重量传感器。
在机器人1搭载了物品时(物品重量检测部53检测了物品重量时),如图17所示,安全确保区域算出部56算出机器人1与边界线BL之间的前方向距离dF、后方向距离dB、左方向距离dL以及右方向距离dR比初始值idF、idB、idL以及idR长的安全确保区域。即,将式1的变量αF、αB、αL以及αR设定为:比1大,且与由物品重量检测部53检测到的物品重量成比例的值。由物品重量检测部53检测到的物品重量越大,则这些变量αF、αB、αL以及αR设定为比1大得越多的值。
基于由安全确保区域算出部56算出的机器人1与边界线BL之间的距离,投影图像制作部57制作:以从圆环状的初始状态的边界线BLi向前方向扩大变形了的边界线BL为轮廓的提醒注意图像R。
基于搭载于机器人1的物品的重量而由投影图像制作部57制作的提醒注意图像R被投影部51投影到行走面S上。
由此,处于机器人1的周边的第三者通过视觉辨识投影到行走面S上的提醒注意图像R(即,安全确保区域),而以不踩踏该提醒注意图像R的方式(即,在安全确保区域的外部)移动。其结果,能够避免重量增加了的机器人1与第三者接触。
至此为止,对提醒处于机器人1的周围的第三者注意机器人1和/或用户Q的安全确保区域设定部55的功能进行了说明。在对第三者的功能的基础上,在本实施方式的情况下,安全确保区域设定部55构成为:促使机器人1的用户Q进行警戒(防范)。
具体而言,如图18所示,在存在可能与机器人1和/或用户Q接触的障碍物(也包括第三者)B的情况下,将检测到了障碍物B这一情况向用户Q通知来促使用户Q对该障碍物B进行警戒。因此,如图1所示,机器人1具备障碍物检测部54。
障碍物检测部54例如是超声波传感器,其对进入了安全确保区域内的障碍物B进行检测。例如,对进入到比图12所示的初始状态的边界线BLi靠机器人1侧的障碍物B进行检测。
如图13所示,当障碍物检测部54检测到障碍物B时,安全确保区域设定部55的投影图像制作部57制作用于促使用户Q对障碍物B进行警戒的警戒图像R’。
如图18所示,由投影图像制作部57制作的、用于促使用户Q对障碍物B进行警戒的警戒图像R’被投影部51投影到行走面S上。例如,警戒图像R’是由黄色和黑色的条纹全面涂抹安全确保区域的边界线BL内所得的图像。
由此,一边被机器人1辅助一边正行走的用户Q能够察觉可能与机器人1接触的障碍物B的存在,另外,能够采取避开障碍物B的行动。其结果,能够避免机器人1与障碍物B接触。
此外,在由障碍物检测部54检测到障碍物B的情况下,也可以代替使用警戒图像R’促使用户Q对障碍物B警戒这一手段、或者在这一手段的基础上,例如通过声音来促使警戒。在该情况下,机器人1具备输出声音的扬声器(未图示)。
根据这样的本实施方式,在用户接受行走辅助机器人的辅助而行走时,能够抑制该用户周围的第三者与行走辅助机器人和/或其用户接触。
以上,例举上述的实施方式对本公开进行了说明,但本公开不限定于此。
例如,在上述的实施方式的情况下,如图12所示,投影部51将以安全确保区域的边界线BL为轮廓的形状的提醒注意图像R投影到行走面上。取而代之,如图19所示,投影部51也可以将包围机器人1的环状的提醒注意图像R投影到行走面上。在该情况下,环状的提醒注意图像R作为整体表示安全确保区域的边界线。
另外,在上述的实施方式的情况下,如图12所示,安全确保区域的边界线BL是连续的。即,边界线BL遍及整体地包围机器人1。取而代之,如图20所示,安全确保区域的边界线BL也可以是断续的。安全确保区域的边界线BL只要是至少部分地包围机器人1的线即可。例如,也可以是包围机器人1的前侧部分的半圆状的边界线。
图12、图14~图20所示的边界线(提醒注意图像)和/或警戒图像并不限定于静止图像,也可以是与把手负荷无关而变化的动态图像。例如,边界线也可以以预定的周期闪烁。另外,例如,边界线也可以以预定的周期变化颜色和/或形状。在该情况下,能够更强地提醒机器人1周边的第三者对机器人1的注意。
另外,将边界线投影到行走面上的投影部除了投影机之外,也可以是将光照射到行走面上的例如LED等投光器。即,只要是从投影部投影到行走面上的光(图像)能够基于由把手负荷检测部检测到的把手负荷而变化的投影部即可。例如,也可以倾斜投影部的光轴而变更光(图像)的投影位置,由此使行走面上的光(图像)变化。另外,例如也可以有选择地使多个投影部闪烁,由此使行走面上的光(图像)变化。进一步,例如也可以变更亮度、闪烁周期、颜色,由此使行走面上的光(图像)变化。另外,也可以是:代替从投影部将光(图像)直接投影到行走面上的构成,而使得投影部具备镜和/或滤光器等光学要素、且这些光学要素将光(图像)间接地投影到行走面上而使该光变化。
而且,也可以在投影部的基础上或代替该投影部,而在机器人的主体部的四个方向或八个方向设置LED等显示装置,使得该显示装置的显示(发光)基于由把手负荷检测部检测到的把手负荷而变化。例如,显示装置也可以使发光强度变化以使得距离机器人很远的第三者也能够看到、也可以发出与机器人周边的颜色不同的颜色而进行强调显示。
另外,在机器人按照路径计划自主移动的情况下,也可以是:投影部照射在该机器人的移动预定方向上扩大的边界线,或者显示装置在所述方向上进行强调显示。另外,也可以基于用户施加于机器人的把手部的把手负荷来使投影部的投影范围变化、基于机器人的自主移动的内容使投影部的投影光的颜色变化。或者,也可以基于把手负荷和自主移动的内容这两方来使投影部的投影范围变化。同样地,也可以是:设置于机器人的主体部的LED等显示装置通过不同颜色将用户对把手部的操作方向(用户想要移动的方向)和机器人自主移动的方向(机器人的移动预定方向)向第三者呈现。由此,能够与机器人自主移动的情况和用户想要向不同于机器人的自主移动的方向的方向移动的情况这两方对应,能够进一步提醒第三者注意。
而且,在上述的实施方式的情况下,行走辅助机器人具备基于用户对把手部的操作而移动的、也就是使旋转体旋转的致动器,但并不限定于此。例如,也可以是:不具备致动器等使旋转体旋转的驱动源,通过用户推压把手部而在行走面上移动的行走辅助机器人。
如以上那样,作为本公开的技术的例示,对实施方式进行了说明。为此,提供了附图和详细的说明。因此,在附图和详细的说明中所记载的构成要素中,不仅包括用于解决问题所必需的构成要素,还包括为了例示所述技术而并非在解决问题时所必需的构成要素。因此,不应该认为:由于这些并非必需的构成要素记载于附图和/或详细的说明中,而直接将这些并非必需的构成要素认定为必需的构成要素。
另外,上述的实施方式是用于例示本公开的技术的实施方式,因此能够在技术方案或与其同等的范围内进行各种变更、替换、添加、省略等。
例如,图3、图5以及图13所示的行走辅助机器人1中的负荷倾向数据生成部15、负荷修正部18、用户移动意图推定部19、致动器控制部21、用户负荷倾向抽取部23、负荷倾向图表部24、安全确保区域算出部56以及投影图像制作部57,能够通过各种形态实现。例如,这些构成要素能够通过CPU、存储器等存储装置、保存于存储装置的用于控制CPU的适当的程序以及保存于存储装置的用于程序的适当的数据来实现。
产业上的可利用性
本公开能够应用于对用户的稳定的行走进行辅助的行走辅助机器人和行走辅助方法。
Claims (10)
1.一种行走辅助机器人,对用户的行走进行辅助,具有:
能够在行走面上转动的旋转体;
用户把持的把手部;
对由用户施加给所述把手部的负荷进行检测的把手负荷检测部;以及
将光投影到行走面上的投影部,
从所述投影部投影到行走面上的光基于由所述把手负荷检测部检测到的把手负荷而变化,
所述投影部将至少部分地包围所述行走辅助机器人的边界线投影到行走面上,
所述边界线与所述行走辅助机器人之间的距离基于由所述把手负荷检测部检测到的把手负荷而变更。
2.根据权利要求1所述的行走辅助机器人,
由所述把手负荷检测部检测到的把手负荷越大,则所述投影部投影与所述行走辅助机器人之间的距离越大的边界线。
3.根据权利要求1或2所述的行走辅助机器人,
所述把手负荷检测部对水平方向上的负荷进行检测,
由所述把手负荷检测部检测到的把手负荷越大,则所述投影部以使得与所述行走辅助机器人相对的边界线的部分与该行走辅助机器人之间的检测负荷方向上的距离比其他方向上的距离大得越多的方式,变更所述边界线的形状。
4.根据权利要求1或2所述的行走辅助机器人,
基于由所述把手负荷检测部检测到的把手负荷的倾向来变更所述边界线与所述行走辅助机器人之间的距离。
5.根据权利要求4所述的行走辅助机器人,
在所述把手负荷检测部持续检测到向与移动方向不同的特定方向的负荷来作为把手负荷的倾向的情况下,所述投影部以使得所述边界线与所述行走辅助机器人之间的所述特定方向上的距离维持为比其他方向上的距离大的方式,投影所述边界线。
6.根据权利要求1或2所述的行走辅助机器人,具有:
搭载物品的物品搭载部;和
对物品的重量进行检测的物品重量检测部,
由物品重量检测部检测到的物品重量越大,则所述投影部投影与所述行走辅助机器人之间的距离越大的边界线。
7.根据权利要求1或2所述的行走辅助机器人,具有:
对所述行走辅助机器人的移动速度进行检测的移动速度检测部,
由移动速度检测部检测到的移动速度越高,则所述投影部投影与行走辅助机器人之间的距离越大的边界线。
8.根据权利要求1或2所述的行走辅助机器人,具有:
对在比所述边界线靠所述行走辅助机器人侧是否存在障碍物进行检测的障碍物检测部;和
将由所述障碍物检测部检测到了障碍物这一情况向用户通知的通知部。
9.根据权利要求8所述的行走辅助机器人,
在所述障碍物检测部检测到了障碍物的情况下,所述投影部作为所述通知部将用于促使对障碍物的警戒的警戒图像投影到行走面上。
10.一种行走辅助方法,使用行走辅助机器人来对用户的行走进行辅助,包括:
对由用户施加给所述行走辅助机器人的把手部的负荷进行检测,
通过设置于所述行走辅助机器人的投影部将光投影到行走面上,以及
基于检测到的向所述把手部施加的负荷,使得由所述投影部投影到行走面上的光变化,
所述投影部将至少部分地包围所述行走辅助机器人的边界线投影到行走面上,
所述边界线与所述行走辅助机器人之间的距离基于检测到的所述负荷而变更。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016129238A JP6799789B2 (ja) | 2016-06-29 | 2016-06-29 | 歩行支援ロボット及び歩行支援方法 |
JP2016-129238 | 2016-06-29 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107536697A CN107536697A (zh) | 2018-01-05 |
CN107536697B true CN107536697B (zh) | 2021-03-09 |
Family
ID=60806231
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710299960.6A Active CN107536697B (zh) | 2016-06-29 | 2017-05-02 | 行走辅助机器人和行走辅助方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10449108B2 (zh) |
JP (1) | JP6799789B2 (zh) |
CN (1) | CN107536697B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110192968B (zh) * | 2018-02-27 | 2023-03-07 | 株式会社捷太格特 | 步行辅助装置 |
US20190358821A1 (en) * | 2018-05-25 | 2019-11-28 | Panasonic Corporation | Walking training robot |
CN108836765B (zh) * | 2018-07-11 | 2021-03-26 | 国家康复辅具研究中心 | 智能助行装置以及用于控制其提供助行的方法 |
CN109157381B (zh) * | 2018-07-24 | 2020-08-04 | 华中科技大学 | 一种扶手式智能跌倒防护助行康复机器人 |
CN110231827B (zh) * | 2019-06-12 | 2022-03-18 | 哈尔滨工程大学 | 一种uuv地理围栏的离线初始构建与在线滚动更新方法 |
JP7405575B2 (ja) * | 2019-11-19 | 2023-12-26 | ファナック株式会社 | ロボットの制御装置、ロボットの制御方法、および協働作業ユニット |
KR20210119742A (ko) * | 2020-03-25 | 2021-10-06 | 엘지전자 주식회사 | 카트부 및 그 제어 방법 |
US20220054346A1 (en) * | 2020-08-21 | 2022-02-24 | James L. King | Powered Walking Assistance Device With Cane Portion Used as Joystick Controller |
KR20220027746A (ko) * | 2020-08-27 | 2022-03-08 | 네이버랩스 주식회사 | 로봇 주행에 따른 안전 가이드 라인을 제공하는 건물 |
WO2024075461A1 (ja) * | 2022-10-07 | 2024-04-11 | 清水建設株式会社 | 自律移動ロボット |
JP7475539B1 (ja) * | 2022-10-19 | 2024-04-26 | 三菱電機株式会社 | 照明制御システム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102307492A (zh) * | 2008-12-15 | 2012-01-04 | 兰德尔·A·那瓦罗 | 可调节的发光助步器 |
CN102906347A (zh) * | 2010-05-24 | 2013-01-30 | 日立建机株式会社 | 作业机械的安全装置 |
JP2016008025A (ja) * | 2014-06-26 | 2016-01-18 | フジマイクロ株式会社 | キャリーカート |
EP3154499A1 (en) * | 2014-06-14 | 2017-04-19 | Lise S Pape | Mobility aid |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6745786B1 (en) * | 2002-05-31 | 2004-06-08 | Rayneda Davis | Walking aid with supplementary features |
CN2907641Y (zh) * | 2006-03-06 | 2007-06-06 | 张益� | 导盲杖 |
US7708120B2 (en) * | 2007-08-17 | 2010-05-04 | Eli Einbinder | Electronically controlled brakes for walkers |
CN201510473U (zh) * | 2009-09-14 | 2010-06-23 | 张鸿森 | 多功能手扶杖 |
JP5504272B2 (ja) * | 2009-09-18 | 2014-05-28 | 本田技研工業株式会社 | 倒立振子型車両の制御装置 |
WO2011130223A1 (en) * | 2010-04-12 | 2011-10-20 | Mayo Foundation For Medical Education And Research | System and method for alleviating freezing gait and gait hypokinesia in users with extrapyramidal disorders |
JP5633779B2 (ja) * | 2010-04-30 | 2014-12-03 | 国立大学法人九州工業大学 | 自立式の歩行支援装置 |
JP5429427B2 (ja) * | 2011-02-23 | 2014-02-26 | 株式会社村田製作所 | 歩行補助車 |
US8608183B2 (en) * | 2011-11-01 | 2013-12-17 | Kiho Woo | Walker with integrated illumination means and alarm |
WO2014045857A1 (ja) * | 2012-09-18 | 2014-03-27 | 株式会社村田製作所 | 移動体 |
JP2014230681A (ja) * | 2013-05-30 | 2014-12-11 | 船井電機株式会社 | パワーアシスト装置及び歩行補助車 |
JP6187049B2 (ja) * | 2013-08-30 | 2017-08-30 | 船井電機株式会社 | 歩行アシスト移動体 |
US9131753B2 (en) * | 2013-09-03 | 2015-09-15 | Li-Sheng Chien | Walking stick handle structure |
WO2015063765A1 (en) * | 2013-10-29 | 2015-05-07 | Milbat - Giving Quality To Life | Walker-assist device |
US9386830B2 (en) * | 2014-10-02 | 2016-07-12 | Hurryworks Llc | Walking aid device |
US9523983B2 (en) * | 2015-04-08 | 2016-12-20 | Peter Chamberlain | Automated ambulatory rehabilitation device |
US9468272B1 (en) * | 2015-04-13 | 2016-10-18 | Elwha Llc | Smart cane with extensions for navigating stairs |
US9675515B2 (en) * | 2015-04-27 | 2017-06-13 | Chimei Medical Center | Mobility aid with rehabilitative and guiding functions and rehabilitation and guiding method thereof |
DE202015006199U1 (de) * | 2015-09-08 | 2015-12-10 | Alexander Bressel | Gehhilfenachrüstsatz |
CN205126751U (zh) * | 2015-11-29 | 2016-04-06 | 张浩杰 | 一种多功能盲人用拐杖 |
US9930941B1 (en) * | 2016-09-23 | 2018-04-03 | Rodney Philip Sarauer | Walking aid system and method |
-
2016
- 2016-06-29 JP JP2016129238A patent/JP6799789B2/ja active Active
-
2017
- 2017-05-02 CN CN201710299960.6A patent/CN107536697B/zh active Active
- 2017-06-15 US US15/623,414 patent/US10449108B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102307492A (zh) * | 2008-12-15 | 2012-01-04 | 兰德尔·A·那瓦罗 | 可调节的发光助步器 |
CN102906347A (zh) * | 2010-05-24 | 2013-01-30 | 日立建机株式会社 | 作业机械的安全装置 |
EP3154499A1 (en) * | 2014-06-14 | 2017-04-19 | Lise S Pape | Mobility aid |
JP2016008025A (ja) * | 2014-06-26 | 2016-01-18 | フジマイクロ株式会社 | キャリーカート |
Also Published As
Publication number | Publication date |
---|---|
JP6799789B2 (ja) | 2020-12-16 |
US20180000683A1 (en) | 2018-01-04 |
JP2018000383A (ja) | 2018-01-11 |
CN107536697A (zh) | 2018-01-05 |
US10449108B2 (en) | 2019-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107536697B (zh) | 行走辅助机器人和行走辅助方法 | |
US8676420B2 (en) | Electric vehicle and method for controlling the same | |
EP3000456B1 (en) | Electric walking assistance device, program for controlling electric walking assistance device, and method of controlling electric walking assistance device | |
EP2823795A1 (en) | Electric assisted walker | |
US20150066242A1 (en) | Walking assistance moving vehicle | |
EP2093100A1 (en) | Travel gear and its controlling method | |
US9242561B2 (en) | Manually propelled vehicle | |
US20150066328A1 (en) | Walking assistance moving vehicle | |
JP6812189B2 (ja) | 電動車両およびその制御方法 | |
US9745004B2 (en) | Inverted vehicle and control method thereof | |
JP2015050837A (ja) | 歩行アシスト移動体 | |
JP2015047938A (ja) | 移動体 | |
JP2015047937A (ja) | 手動推進車両 | |
US9474678B2 (en) | Pushcart | |
JP2009119014A (ja) | 歩行補助装置 | |
JP2017006580A (ja) | 電動アシスト車、制御方法、およびプログラム | |
JP2016024766A (ja) | 案内用ロボット | |
WO2017166296A1 (zh) | 一种双轮电动平衡车 | |
JP2018120524A (ja) | 案内用ロボット | |
JPWO2016035726A1 (ja) | 手押し車 | |
JP5905553B1 (ja) | 歩行補助車 | |
JP2010149577A (ja) | 同軸二輪車 | |
JP2012115312A (ja) | 歩行支援装置、及び歩行支援プログラム | |
JP2021154061A (ja) | 杖、杖の制御方法、及びプログラム | |
JP5958546B2 (ja) | 手押し車 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |