JP6799789B2 - 歩行支援ロボット及び歩行支援方法 - Google Patents

歩行支援ロボット及び歩行支援方法 Download PDF

Info

Publication number
JP6799789B2
JP6799789B2 JP2016129238A JP2016129238A JP6799789B2 JP 6799789 B2 JP6799789 B2 JP 6799789B2 JP 2016129238 A JP2016129238 A JP 2016129238A JP 2016129238 A JP2016129238 A JP 2016129238A JP 6799789 B2 JP6799789 B2 JP 6799789B2
Authority
JP
Japan
Prior art keywords
load
robot
walking
user
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016129238A
Other languages
English (en)
Other versions
JP2018000383A (ja
Inventor
山田 和範
山田  和範
真悠 横矢
真悠 横矢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2016129238A priority Critical patent/JP6799789B2/ja
Priority to CN201710299960.6A priority patent/CN107536697B/zh
Priority to US15/623,414 priority patent/US10449108B2/en
Publication of JP2018000383A publication Critical patent/JP2018000383A/ja
Application granted granted Critical
Publication of JP6799789B2 publication Critical patent/JP6799789B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/04Wheeled walking aids for disabled persons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/009Nursing, e.g. carrying sick persons, pushing wheelchairs, distributing drugs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/04Wheeled walking aids for disabled persons
    • A61H2003/043Wheeled walking aids for disabled persons with a drive mechanism
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/01Constructive details
    • A61H2201/0173Means for preventing injuries
    • A61H2201/0184Means for preventing injuries by raising an alarm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/01Constructive details
    • A61H2201/0188Illumination related features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/16Physical interface with patient
    • A61H2201/1657Movement of interface, i.e. force application means
    • A61H2201/1659Free spatial automatic movement of interface within a working area, e.g. Robot
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5023Interfaces to the user
    • A61H2201/5043Displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5061Force sensors
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Rehabilitation Therapy (AREA)
  • Pain & Pain Management (AREA)
  • Animal Behavior & Ethology (AREA)
  • Epidemiology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Human Computer Interaction (AREA)
  • Nursing (AREA)
  • Rehabilitation Tools (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本開示は、ユーザの歩行を支援する歩行支援ロボット及び歩行支援方法に関する。
近年、ユーザの歩行を支援する歩行支援ロボットが知られている。特許文献1に記載された歩行支援ロボットは、杖を用いて歩行するユーザを補助するロボットであって、ユーザが足を踏む出す位置を教示するように構成されている。具体的には、ロボットは、足を置くべき歩行面上の位置に足裏形状の画像を投影するプロジェクタを備える。
特開2011−229838号公報
ところで、歩行支援ロボットのユーザが歩行に集中するあまり、周囲に対する注意がおろそかになることがある。特許文献1に記載された歩行支援ロボットの場合、プロジェクタによって歩行面上の投影された足裏形状の画像を見ながら歩行するので、ユーザは周囲に対する注意がおろそかになりやすい。
このとき、周囲の第三者が歩行支援ロボットやそのユーザに気づいていない場合、第三者がロボットやそのユーザに接触する可能性がある。例えば、第三者が視線を下に向けて携帯端末を使用しながら歩行している場合、第三者は前方の歩行支援ロボットに気付かない可能性がある。
そこで、本開示は、ユーザが歩行支援ロボットの支援を受けて歩行しているときに、その周囲の第三者が歩行支援ロボットやそのユーザに接触することを抑制することを課題とする。
本開示の一態様によれば、
ユーザの歩行を支援する歩行支援ロボットであって、
歩行面上を転動可能な回転体と、
ユーザが把持するハンドル部と、
ユーザから前記ハンドル部に加えられた荷重を検知するハンドル荷重検知部と、
歩行面上に光を投影する投影部と、を有し、
前記投影部から歩行面上に投影された光が、前記ハンドル荷重検知部によって検知されたハンドル荷重に基づいて変化される、歩行支援ロボットが提供される。
本開示の別態様によれば、
歩行支援ロボットを用いてユーザの歩行を支援する歩行支援方法であって、
ユーザから前記歩行支援ロボットのハンドル部に加えられた荷重を検知し、
前記歩行支援ロボットに設けられた投影部によって歩行面上に光を投影し、
検知された前記ハンドル部への荷重に基づいて、前記投影部によって歩行面上に投影される光を変化させる、歩行支援方法が提供される。
本開示によれば、ユーザが歩行支援ロボットの支援を受けて歩行しているときに、その周囲の第三者が歩行支援ロボットやそのユーザに接触することを抑制することができる。
図1は、本開示の一実施の形態に係る歩行支援ロボットの外観図である。 図2は、本開示の一実施の形態に係る歩行支援ロボットに歩行支援を受けているユーザの様子を示す図である。 図3は、本開示の一実施の形態における歩行支援ロボットの構成を示すブロック図である。 図4は、本開示の一実施の形態におけるハンドル検知部で検知するハンドル荷重の検知方向を示す図である。 図5は、本開示の一実施の形態に係る歩行支援ロボットにおける歩行支援の制御構成を示す制御ブロック図である。 図6は、本開示の一実施の形態における荷重傾向マップを示す図である。 図7は、本開示の一実施の形態に係る歩行支援ロボットの荷重傾向データの生成処理の例示的なフローチャートを示す。 図8は、本開示の一実施の形態に係る歩行支援ロボットの移動意図推定処理の例示的なフローチャートを示す。 図9Aは、ユーザの直進動作時のFy方向における過去の荷重データの波形情報の一例を示す図である。 図9Bは、図9Aに示すFy方向における過去の荷重データの平均荷重値を示す図である。 図10Aは、ユーザの直進動作時のFy方向における現在の荷重データの波形情報の一例を示す図である。 図10Bは、図10Aに示すFy方向における現在の荷重データの平均荷重値を示す図である。 図11は、補正された荷重データの波形情報の一例を示す図である。 図12は、歩行支援ロボットに関する安全確保領域を示す図である。 図13は、本開示の一実施の形態に係る歩行支援ロボットにおける安全確保に関連する制御構成を示す制御ブロック図である。 図14は、歩行支援ロボットの安全確保領域の境界線の変化の一例を示す図である。 図15は、歩行支援ロボットに関する安全確保領域の境界線の変化の別例を示す図である。 図16は、歩行支援ロボットに関する安全確保領域の境界線の変化のさらなる別例を示す図である。 図17は、歩行支援ロボットに関する安全確保領域の境界線の変化の異なる例を示す図である。 図18は、障害物への警戒をユーザに対して促している状態の歩行支援ロボットを示す図である。 図19は、歩行支援ロボットに関する安全確保領域の境界線の別例を示す図である。 図20は、歩行支援ロボットに関する安全確保領域の境界線のさらなる別例を示す図である。
本開示の一態様は、ユーザの歩行を支援する歩行支援ロボットであって、歩行面上を転動可能な回転体と、ユーザが把持するハンドル部と、ユーザから前記ハンドル部に加えられた荷重を検知するハンドル荷重検知部と、歩行面上に光を投影する投影部と、を有し、前記投影部から歩行面上に投影された光が、前記ハンドル荷重検知部によって検知されたハンドル荷重に基づいて変化される。
このような態様によれば、ユーザが歩行支援ロボットの支援を受けて歩行しているときに、その周囲の第三者が歩行支援ロボットやそのユーザに接触することを抑制することができる。
例えば、前記投影部が、前記歩行支援ロボットを少なくとも部分的に囲む境界線を歩行面上に投影し、前記境界線と前記歩行支援ロボットとの間の距離が、前記ハンドル荷重検知部によって検知されたハンドル荷重に基づいて変更される。
例えば、前記投影部が、前記ハンドル荷重検知部によって検知されたハンドル荷重が大きいほど、前記歩行支援ロボットとの間の距離が大きい境界線を投影する。
例えば、前記ハンドル荷重検知部が、水平方向の荷重を検知し、前記投影部が、前記ハンドル荷重検知部によって検知されたハンドル荷重が大きいほど、前記歩行支援ロボットに対して対向する境界線の部分と該歩行支援ロボットとの間の検知荷重方向の距離が他の方向の距離に比べて大きくなるように、前記境界線の形状を変更する。
例えば、前記ハンドル荷重検知部によって検知されたハンドル荷重の傾向に基づいて、前記境界線と前記歩行支援ロボットとの間の距離が変更される。
例えば、前記投影部が、前記ハンドル荷重検知部がハンドル荷重の傾向として移動方向と異なる特定方向への荷重を検知し続ける場合、前記境界線と前記歩行支援ロボットとの間の前記特定方向の距離が他の方向の距離に比べて大きく維持されるように、前記境界線を投影する。
前記歩行支援ロボットが、例えば、荷物を搭載する荷物搭載部と、荷物の重量を検知する荷物重量検知部と、を有し、前記投影部が、荷物重量検知部によって検知された荷物重量が大きいほど、前記歩行支援ロボットとの間の距離が大きい境界線を投影する。
前記歩行支援ロボットが、例えば、前記歩行支援ロボットの移動速度を検知する移動速度検知部を有し、前記投影部が、移動速度検知部によって検知された移動速度が高いほど、歩行支援ロボットとの間の距離が大きい境界線を投影する。
前記歩行支援ロボットが、例えば、前記境界線より前記歩行支援ロボット側に障害物が存在するか否かを検知する障害物検知部と、前記障害物検知部によって障害物が検知されたことをユーザに通知する通知部と、を有する。
例えば、前記投影部が、前記障害物検知部が障害物を検知した場合、前記通知部として、障害物に対する警戒を促すための警戒画像を歩行面上に投影する。
また、本開示の別の態様は、歩行支援ロボットを用いてユーザの歩行を支援する歩行支援方法であって、ユーザから前記歩行支援ロボットのハンドル部に加えられた荷重を検知し、前記歩行支援ロボットに設けられた投影部によって歩行面上に光を投影し、検知された前記ハンドル部への荷重に基づいて、前記投影部によって歩行面上に投影される光を変化させる。
このような態様によれば、ユーザが歩行支援ロボットの支援を受けて歩行しているときに、その周囲の第三者が歩行支援ロボットやそのユーザに接触することを抑制することができる。
以下、本開示の一実施の形態について、添付の図面を参照しながら説明する。また、各図においては、説明を容易なものとするため、各要素を誇張して示している。
図1は、一実施の形態に係る歩行支援ロボット1(以下、「ロボット1」と称する)の外観図を概略的に示す。図2は、ロボット1による歩行支援を受けてユーザが歩行している様子を示す。図3は、ロボット1の構成を概略的に示すブロック図である。
本実施の形態に係るロボット1は、床、地面、舗装路などの歩行面を歩行するユーザQを支援する。その歩行の支援のために、図1〜図3に示すように、ロボット1は、本体部11と、ユーザQが把持可能なハンドル部12と、ハンドル部12にかかる荷重を検知するハンドル荷重検知部13と、本体部11を移動させる移動装置14と、荷重傾向データ生成部15と、を備える。
ハンドル部12は、本体部11の上部に設けられており、歩行中のユーザQの両手が把持しやすい形状及び高さ位置に設けられている。
ハンドル荷重検知部13は、ハンドル部12を把持するユーザQが該ハンドル部12に加える荷重(ハンドル荷重)を検知する。具体的には、ユーザQがハンドル部12を把持して歩行するときに、ユーザQはハンドル部12にハンドル荷重をかける。ハンドル荷重検知部13は、ユーザQがハンドル部12にかけるハンドル荷重の向き及び大きさを検知する。
図4は、ハンドル荷重検知部13で検知するハンドル荷重の検知方向を示す。図4に示すように、ハンドル荷重検知部13は、例えば、互いに直交する三軸方向にかかる力、及び三軸の軸回りのモーメントをそれぞれ検出可能な六軸力センサである。互いに直交する三軸とは、ロボット1の左右方向に延在するx軸、ロボット1の前後方向に延在するy軸、及びロボット1の高さ方向に延在するz軸である。三軸方向にかかる力とは、x軸方向にかかる力Fx、y軸方向にかかる力Fy、及びz軸方向にかかる力Fzである。実施の形態1では、Fxのうち右方向にかかる力をFxとし、左方向にかかる力をFxとしている。Fyのうち前方向にかかる力をFyとし、後方向にかかる力をFyとしている。Fz方向のうち鉛直下方向にかかる力をFzとし、鉛直上方向にかかる力をFzとしている。三軸の軸回りのモーメントとは、x軸の軸回りのモーメントMx、y軸の軸回りのモーメントMy、及びz軸の軸回りのモーメントMzである。
移動装置14は、ハンドル荷重検知部13で検知されたハンドル荷重(力及びモーメント)の大きさ及び向きに基づいて、本体部11を移動させる。本実施の形態では、移動装置14は、以下のような制御を行っている。なお、本明細書においては、Fx、Fy、Fz、Mx、My、Mzを荷重と称する場合がある。
移動装置14は、ハンドル荷重検知部13でFyの力が検知された場合、本体部11を前方向に移動させる。即ち、ハンドル荷重検知部13でFyの力が検知された場合、ロボット1は前進動作を行う。ロボット1が前進動作を行っている間、ハンドル荷重検知部13で検知されるFyの力が大きくなると、移動装置14は、ロボット1の前方向への移動の速度を上げる。一方、ロボット1が前進動作を行っている間、ハンドル荷重検知部13で検知されるFyの力が小さくなると、移動装置14は、ロボット1の前方向への移動速度を下げる。
移動装置14は、ハンドル荷重検知部13でFyの力が検知された場合、本体部11を後方向に移動させる。即ち、ハンドル荷重検知部13でFyの力が検知された場合、ロボット1は後退動作を行う。ロボット1が後退動作を行っている間、ハンドル荷重検知部13で検知されるFyの力が大きくなると、移動装置14は、ロボット1の後方向への移動の速度を上げる。一方、ロボット1が後退動作を行っている間、ハンドル荷重検知部13で検知されるFyの力が小さくなると、移動装置14は、ロボット1の後方向への移動速度を下げる。
移動装置14は、ハンドル荷重検知部13でFyの力とMzのモーメントとが検知された場合、本体部11を右方向に旋回移動させる。即ち、ハンドル荷重検知部13でFyの力とMzのモーメントが検知された場合、ロボット1は右旋回動作を行う。ロボット1が右旋回動作を行っている間、ハンドル荷重検知部13で検知されるMzのモーメントが大きくなると、ロボット1の旋回半径が小さくなる。また、ロボット1が右旋回動作を行っている間、ハンドル荷重検知部13で検知されるFyの力が大きくなると、旋回速度が大きくなる。
移動装置14は、ハンドル荷重検知部13でFyの力とMzのモーメントとが検知された場合、本体部11を左方向に旋回移動させる。即ち、ハンドル荷重検知部13でFyの力とMzのモーメントが検知された場合、ロボット1は左旋回動作を行う。ロボット1が左旋回動作を行っている間、ハンドル荷重検知部13で検知されるMzのモーメントが大きくなると、ロボット1の旋回半径が小さくなる。また、ロボット1が左旋回動作を行っている間、ハンドル荷重検知部13で検知されるFyの力が大きくなると、旋回速度が大きくなる。
なお、移動装置14の制御は、上述した例に限定されない。移動装置14は、例えば、Fy及びFzの力に基づいて、ロボット1の前進動作及び後退動作を制御してもよい。また、移動装置14は、例えば、Mx又はMyのモーメントに基づいて、ロボット1の旋回動作を制御してもよい。
なお、本実施の形態では、ハンドル荷重検知部13は、六軸力センサである例を説明したが、これに限定されない。ハンドル荷重検知部13は、例えば、三軸センサ、又は歪みセンサ等を用いてもよい。
移動装置14は、本体部11の下部に設けられた回転体である車輪16と、車輪16を駆動制御する駆動部17と、を備える。
車輪16は、図1に示すように歩行面S上を転動可能であって、本体部11を自立させた状態で支持し、駆動部17により回転駆動されることにより、自立させた姿勢を保った状態で、例えば、本体部11を図2に示す矢印の方向(前方向または後方向)に移動させる。なお、本実施の形態において、移動装置14が2つの車輪16を用いた移動機構を備える場合を例としたが、車輪以外の回転体(走行ベルト、ローラなど)が用いられるような場合であってもよい。
駆動部17は、荷重補正部18と、ユーザ移動意図推定部19と、駆動力算出部20と、アクチュエータ制御部21と、アクチュエータ22と、を備える。
荷重補正部18は、ユーザQの荷重傾向に応じてハンドル荷重検知部13で検知されたハンドル荷重を補正する。具体的には、荷重補正部18は、荷重傾向データ生成部15で生成された荷重傾向データに基づいて、ハンドル荷重検知部13で検知されたハンドル荷重の値を補正する。なお、このハンドル荷重の補正についての詳細は後述する。また、荷重補正部18は、ロボット1の使用場所、使用時間、及びユーザQの体調などに基づいて、ハンドル荷重の値を補正してもよい。
ユーザ移動意図推定部19は、荷重補正部18で補正されたハンドル荷重(以下、「補正ハンドル荷重」と称する)に基づいてユーザQの移動意図を推定する。ここでのユーザの移動意図は、ユーザの移動方向及び移動速度、すなわちユーザの歩行方向及び歩行速度を言う。本実施の形態において、ユーザ移動意図推定部19は、各移動方向における補正ハンドル荷重の値から、ユーザQの移動意図を推定する。例えば、ハンドル荷重検知部13で検知されるFyの力が所定の第1閾値以上の値であり、Myの力が所定の第2閾値未満の値である場合、ユーザ移動意図推定部19は、ユーザQの移動意図が直進動作であると推定する。また例えば、ユーザ移動意図推定部19は、Fz方向における補正ハンドル荷重の値に基づいて、移動速度を推定する。さらに例えば、ハンドル荷重検知部13で検知されるFyの力が所定の第3閾値以上の値であり、Myの力が所定の第2閾値以上の値である場合、ユーザ移動意図推定部19は、ユーザQの移動意図が右旋回動作であると推定する。なお、ユーザ移動意図推定部19は、Fz方向における補正ハンドル荷重の値に基づいて旋回速度を推定し、My方向における補正ハンドル荷重の値に基づいて旋回半径を推定してもよい。
駆動力算出部20は、荷重補正部18で補正されたハンドル荷重の情報に基づいて、駆動力を算出する。具体的には、駆動力算出部20は、補正ハンドル荷重の情報から推定されたユーザQの移動意図、即ちユーザQの移動方向及び移動速度に基づいて、駆動力を算出する。例えば、ユーザQの移動意図が前進動作又は後退動作である場合、2つの車輪16の回転量が均等になるように駆動力を算出する。ユーザQの移動意図が右旋回動作である場合、2つの車輪16のうち右側の車輪16の回転量を左側の車輪16の回転量よりも大きくなるように駆動力を算出する。また、ユーザQの移動速度に応じて、駆動力の大きさを算出する。
アクチュエータ制御部21は、駆動力算出部20で算出された駆動力の情報に基づいて、アクチュエータ22の駆動制御を行う。また、アクチュエータ制御部21は、アクチュエータ22から車輪16の回転量の情報を取得し、駆動力算出部20及びユーザ荷重傾向抽出部23に車輪16の回転量の情報を送信することができる。
アクチュエータ22は、例えば、車輪16を回転駆動させるモータ等である。アクチュエータ22は、歯車機構又はプーリー機構等を介して車輪16と接続されている。アクチュエータ22は、アクチュエータ制御部21に駆動制御されることによって、車輪16を回転駆動している。
荷重傾向データ生成部15は、過去に検知したハンドル荷重の情報に基づいて、ユーザQの荷重傾向データを生成する。荷重傾向データとは、所定の動作におけるユーザQのハンドル荷重の傾向を示すデータである。所定の動作とは、例えば、直進動作、後退動作、及び旋回動作等を意味する。例えば、腰の曲がったユーザQは、ハンドル部12を把持した場合、ロボット1に寄りかかってしまうため、鉛直下方向へのハンドル荷重、即ちFzの力が大きくなる傾向がある。また、左右に揺れて歩行するユーザQは、ハンドル部12を把持した場合、前進動作を行っているにも関わらず、左右方向へのハンドル荷重、即ちMyのモーメントが大きくなる傾向がある。このように、荷重傾向データ生成部15では、所定の動作毎のユーザQの荷重傾向を過去の荷重データから生成している。
このような構成を有する歩行支援ロボット1において、ユーザQの歩行支援をするための制御構成について説明する。
図3に示すように、ハンドル荷重検知部13は、ハンドル部12にかかるハンドル荷重を検知する。ハンドル荷重検知部13で検知されたハンドル荷重の情報は、荷重補正部18に送信される。荷重補正部18は、荷重傾向データ生成部15で生成された荷重傾向データに基づいて、ハンドル荷重検知部13で検知されたハンドル荷重の値を補正する。補正されたハンドル荷重(補正ハンドル荷重)の情報は、ユーザ移動意図推定部19に送信される。ユーザ移動意図推定部19は、補正ハンドル荷重の情報に基づいて、ユーザQの移動意図(移動方向及び移動速度)を推定する。推定されたユーザの移動意図の情報は、駆動力算出部20に送信される。駆動力算出部20は、推定されたユーザQの移動意図の情報に基づいて、駆動力を算出する。算出された駆動力の情報は、アクチュエータ制御部21に送信される。アクチュエータ制御部21は、駆動力算出部20で算出された駆動力の情報に基づいてアクチュエータ22の駆動制御を行う。アクチュエータ22は、アクチュエータ制御部21に駆動制御されることによって、車輪16を回転駆動し、本体部11を移動させる。
また、図3に示すように、ハンドル荷重検知部13で検知されたハンドル荷重の情報は、荷重傾向データ生成部15にも送信される。ハンドル荷重検知部13で検知されたハンドル荷重の情報は、荷重傾向データを生成及び更新するためにも使用される。
ロボット1の歩行支援の詳細な制御について、図5を用いて説明する。図5は、ロボット1の歩行支援の詳細な制御構成を示す制御ブロック図である。
図5に示すように、荷重傾向データ生成部15は、ユーザQの移動方向に対応するユーザQの荷重傾向を抽出するユーザ荷重傾向抽出部23と、ユーザQの荷重傾向データを記憶した荷重傾向マップ24と、を備える。
ユーザ荷重傾向抽出部23は、ユーザQの移動方向に対応するユーザQの荷重傾向を抽出する。具体的には、ユーザ荷重傾向抽出部23は、ユーザQの移動方向に対応するユーザQの荷重傾向データを荷重傾向マップ24から抽出する。例えば、ユーザQが直進動作(前方向前進)をしている場合、ユーザ荷重傾向抽出部23は、荷重傾向マップ24から直進動作に対応するユーザQの荷重傾向を抽出する。ユーザ荷重傾向抽出部23は、荷重傾向マップ24から抽出した荷重傾向データを荷重補正部18に送信する。
また、ユーザ荷重傾向抽出部23は、ハンドル荷重検知部13で検知されたハンドル荷重の情報とアクチュエータ制御部21で取得された車輪16の回転量の情報とに基づいて、ユーザQの荷重傾向データを生成する。生成された荷重傾向データは、荷重傾向マップ24に送信される。これにより、荷重傾向マップ24の荷重傾向データが更新される。
荷重傾向マップ24は、ユーザQのそれぞれの移動方向におけるユーザQの荷重傾向データを記憶しているデータベースである。荷重傾向マップ24は、移動方向毎のユーザQの荷重傾向データを記憶している。
図6は、一例の荷重傾向マップ24を示す。図6に示すように、荷重傾向マップ24は、ユーザQの移動方向毎に、歩行時の移動方向の平均荷重値と歩行時の重心の偏り方向の平均荷重値とを、荷重傾向データとして記憶している。例えば、図6を参照すると、ユーザQは、ロボット1とともに前方向(y軸方向)に直進しているとき、平均10Nの荷重(力)でハンドル部12を押している。また、前方向以外の特定方向の荷重(力)、具体的には1.0NmのMzのモーメントがハンドル部12に作用し続けている。これは、ユーザQが前方向に直進しているとき、重心が左側に常に偏っていることを意味する。すなわち、ユーザQは、その歩行傾向として、ロボット1とともに前方向に直進しているとき、ロボット1の左側に体重を預け続けている。
このような荷重傾向データの生成について、図7を用いて説明する。図7は、ロボット1の荷重傾向データの生成処理の例示的なフローチャートを示す。
図7に示すように、ステップST1において、ハンドル荷重検知部13で検知されるハンドル荷重の変化を検知する。ステップST1では、ユーザQの移動方向が変化したか否かをハンドル荷重に基づいて判断する。ハンドル荷重の変化を検知した場合、ステップST2へ進む。ハンドル荷重の変化を検知しない場合、ステップST1を繰り返す。
ステップST2において、ユーザ荷重傾向抽出部23は、車輪16の回転量の情報に基づいてユーザQの現在の移動方向を推定する。具体的には、ステップST1でハンドル荷重の変化が検知されると、アクチュエータ制御部21が車輪16の回転量の情報を取得する。アクチュエータ制御部21で取得された回転量の情報は、ユーザ荷重傾向抽出部23に送信される。例えば、ユーザ荷重傾向抽出部23は、左右に配置される2つの車輪16の回転量に基づいて、ユーザQの移動方向を推定する。
ステップST3において、ユーザ荷重傾向抽出部23は、推定したユーザQの移動方向における過去の荷重データに、ステップST1で検知したハンドル荷重を加算する。具体的には、ユーザ荷重傾向抽出部23は、荷重傾向マップ24に記憶されている過去の荷重データを読み出し、読み出した過去の荷重データに、ステップST1で検知したハンドル荷重を加算する。過去の荷重データとは、これまでに検知した全ての荷重データを意味する。
ステップST4において、ユーザ荷重傾向抽出部23は、ユーザQの歩行時の移動方向の平均荷重値と偏り方向の平均荷重値とを算出する。
ステップST5において、ユーザ荷重傾向抽出部23は、算出したユーザQの歩行時の移動方向の平均荷重値と偏り方向の平均荷重値とを荷重傾向データとして設定する。具体的には、ユーザ荷重傾向抽出部23は、算出した平均荷重値の情報を荷重傾向マップ24に送信し、荷重傾向マップ24のユーザQの歩行時の移動方向の平均荷重値と偏り方向の平均荷重値とを更新する。
次に、ユーザQの移動意図の推定について、図8を用いて説明する。図8は、ユーザQの移動意図の推定処理の例示的なフローチャートを示す。
図8に示すように、ステップST11において、荷重補正部18は、ハンドル荷重検知部13で検知された現在のハンドル荷重の情報を取得する。
ステップST12において、荷重補正部18は、現在のハンドル荷重の情報に基づいて現在の平均荷重値を算出する。
ステップST13において、ユーザ荷重傾向抽出部23は、ユーザQの荷重傾向データを読み出す。具体的には、ユーザ荷重傾向抽出部23は、荷重傾向マップ24から過去の平均荷重値を読み出し、過去の平均荷重値を荷重補正部18へ送信する。
ステップST14において、荷重補正部18は、現在の平均荷重値と過去の平均荷重値とに基づいて、補正係数を算出する。例えば、荷重補正部18は、過去の平均荷重値を現在の平均荷重値で除算することによって、補正係数を算出する。
ステップST15において、荷重補正部18は、現在のハンドル荷重の情報に補正係数を乗算する。即ち、荷重補正部18は、ステップST11で取得した現在のハンドル荷重の情報に、ステップST14で算出した補正係数を乗算する。これにより、荷重補正部18は、ハンドル荷重の値を補正する。
ステップST16において、ユーザ移動意図推定部19は、補正したハンドル荷重の情報に基づいて、ユーザQの移動意図を推定する。
一例として、ハンドル荷重の補正について説明する。ここでは、重心が右方向に偏った状態で歩行するユーザについてのハンドル荷重の補正について説明する。
まず、荷重傾向データの算出について説明する。図9Aは、ユーザQの直進動作時のMz方向における過去の荷重データの波形情報の一例を示す。図9Bは、図9Aに示すMz方向における過去の荷重データの平均荷重値を示す。図9Aに示すように、ユーザは右方向へ重心が偏っているため、直進動作時においても、検知部13でMy方向への荷重(モーメント)が検知される。この場合、ユーザは前方向直進を意図しているにもかかわらず、ロボット1が右方向に移動するため、ユーザは細かく進行方向を左方向へ調整しながら歩行することになる。ユーザ荷重傾向抽出部23は、右方向に重心が偏って歩行するユーザであると推定し、右方向への荷重を、荷重傾向データとして使用する。荷重補正部18は、荷重傾向データを用いて、右方向への荷重の偏りを補正する。以下、補正の一例について説明する。
ユーザ荷重傾向抽出部23は、図9Aに示す過去の荷重データの波形情報に対して平均計算を行う。これにより、荷重傾向データとして、図9Bに示すような過去の荷重データの平均荷重値を算出している。図9Bの場合、過去の平均荷重値は、Mz方向に−1.0Nmである。
次に、現在の荷重データから平均荷重値を算出する。図10Aは、ユーザQの直進動作時のMz方向における現在の荷重データの波形情報の一例を示す。図10Bは、図10Aに示すMz方向における現在の荷重データの平均荷重値を示す。
荷重補正部18は、図10Aに示す現在の荷重データの波形情報に対して平均計算を行う。これにより、図10Bに示すような現在の荷重データの平均荷重値を算出している。図10Bの場合、現在の平均荷重値は、Mz方向に−2.0Nmである。
荷重補正部18は、過去の平均荷重値を現在の平均荷重値で除算することよって、補正係数を算出する。この場合、補正係数は、(−1.0Nm/−2.0Nm)=0.5となる。荷重補正部18は、この補正係数を現在の荷重データの波形情報に乗算することによって、ハンドル荷重を補正する。即ち、図10Aに示す現在の荷重データの波形情報に対して、補正係数0.5を乗算することによって、ハンドル荷重検知部13で検知されたMz方向のハンドル荷重の値を補正する。
図11は、補正された荷重データの波形情報の一例を示す。図11に示すように、ハンドル荷重検知部13で検知されたハンドル荷重(図10Aの波形情報参照)が補正係数の乗算によって補正されている。
ユーザ移動意図推定部19は、この補正されたハンドル荷重の情報に基づいて、ユーザQの移動意図を推定する。
なお、ハンドル荷重の補正は、上述した例に限定されない。例えば、ロボット1の前進動作がFy方向及びFz方向のハンドル荷重の値に基づいて行われる場合、荷重傾向データとしてFy方向及びFz方向の荷重平均値を用いてもよい。即ち、ロボット1の前進動作時において、Fy方向及びFz方向の荷重平均値を用いて、ハンドル荷重の値を補正してもよい。また、ロボット1の旋回動作がMz方向の荷重(モーメント)に基づいて行われる場合、荷重傾向データとしてMz方向の荷重平均値を用いてもよい。即ち、ロボット1の旋回動作時において、Mz方向の荷重平均値を用いて、ハンドル荷重の値を補正してもよい。また、Fx,Fy,Fz,Mx,My,Mzの全て方向の荷重平均値を算出し、全て方向の荷重平均値を用いてハンドル荷重の値を補正してもよい。このように、複数の方向における荷重平均値を用いてハンドル荷重を補正することによって、ユーザQの荷重傾向をより正確に把握することができるため、更にユーザQの身体能力に適したロボット1の動作が可能になる。なお、ハンドル荷重の補正では、ロボット1の移動制御に応じて、Fx,Fy,Fz,Mx,My,Mz方向のうち少なくとも1つの荷重平均値を算出し、算出した荷重平均値を用いてハンドル荷重を補正すればよい。
また、ハンドル荷重の補正は、現在の荷重値から過去の荷重傾向データの荷重平均値の差分を減算してもよいし、現在の荷重値から過去の荷重傾向データに応じた係数で乗算してもよい。Fz値とFy値の合算値で制御を行っている場合は、FzとFy値の合算する際の割合を変更してもよい。例えば、Fz:Fy=8:2で制御していたのを、Fz:Fy=6:4に変更してもよい。また、ユーザの荷重傾向データだけで補正をするのではなく、ユーザの荷重傾向データと、当該ユーザ以外の複数ユーザの平均の荷重傾向データを比較し、差分部分を低減するように補正の割合を変更してもよい。複数ユーザの平均の算出方法としては、年代、性別、場所、歩行能力(歩行速度、歩行率、歩幅、立位姿勢、左右の揺れ)等の組み合わせで分類されたグループ毎に作成してもよい。
ここまでは、ユーザQの歩行の支援に関連するロボット1の構成要素について説明してきた。ここからは、ユーザQの歩行を安全に行うためのロボット1の構成要素について説明する。
図3に示すように、ロボット1はさらに、ユーザQの歩行を安全に行うための構成要素として、投影部51と、移動速度検知部52と、荷物重量検知部53と、障害物検知部54と、安全確保領域設定部55を備える。
図1に示すように、投影部51は、例えばプロジェクタであって、ユーザQが歩行する歩行面Sに光を投影する。本実施の形態の場合、投影部51は、注意喚起画像Rを歩行面S上に投影する。注意喚起画像Rは、ロボット1の周辺にいる第三者に対して、ロボット1に注意するように喚起するための画像である。
図12は、ロボット1及びユーザQを上方から見た図であって、円形状の注意喚起画像Rを示している。その注意喚起画像Rは、その形状によって、ユーザQのみならず第三者の安全を確保するための円形状の安全確保領域を表している。具体的には、安全確保領域は、ロボット1を少なくとも部分的に囲み、ロボット1から所定の距離離れた境界線(すなわち注意喚起画像Rの輪郭線)BLの内側の領域で定義される。
なお、図12は、ロボット1が停止しているまたはロボット1の移動速度が低速(所定のしきい速度に比べて低い速度)で移動しているときの初期状態の境界線BLiを示している。ロボット1までの前方向の距離dF、後方向の距離dB、左方向の距離dL、および右方向の距離dRが略等しい、すなわち略円環状の境界線BLiを示している。
投影部51によって投影される注意喚起画像Rの輪郭線、すなわち境界線BLの形状は、一定ではなく、状況に応じて様々に変化する。以下、境界線BLの形状の様々な変化について説明する。
図13は、安全の確保に関連する、すなわち注意喚起画像Rに関する制御構成を示す制御ブロック図である。
図13に示すように、投影部51は、安全確保領域設定部55によって設定された安全確保領域、すなわち注意喚起画像Rを投影する。その安全確保領域設定部55は、様々な状況に適した安全確保領域を算出する安全確保領域算出部56と、安全確保領域算出部56によって算出された安全確保領域を表し且つ投影部51によって歩行面S上に投影される注意喚起画像Rを作成する投影画像作成部57とを含んでいる。
安全確保領域算出部56は、様々な状況に適した安全確保領域、すなわち、ロボット1から境界線BLまでの距離を算出する。
例えば、ロボット1から境界線BLまでの距離として、図12に示すように、前方向距離dF、後方向距離dB、左方向距離dL、および右方向距離dRが算出される。例えば、これらの距離dF、dB、dL、dRは、以下のように表現される。
Figure 0006799789
idF、idB、idL、およびidRは、距離の初期値であり、例えば50cmである。αF、αB、αL、およびαRは、状況に応じて変化する変数である。
安全確保領域算出部56は、ハンドル荷重検知部13によって検知されたハンドル荷重に基づいて、ロボット1から安全確保領域の境界線BLまでの距離を算出する。具体的には、ユーザ移動意図推定部19によって推定されたユーザQの移動方向及び移動速度(歩行方向及び歩行速度)に基づいて、安全確保領域算出部56は、ロボット1から境界線BLまでの距離を算出する。すなわち、変数αF、αB、αL、αRを決定する。
一例として、ユーザQの移動意図が右斜め前方への移動である場合を説明する。この場合、図14に示すように、安全確保領域算出部56は、ロボット1と境界線BLとの間の前方向距離dFと右方向距離dRが初期値idF、idRに比べて長い安全確保領域を算出する。具体的には、変数αF、αRそれぞれを、1より大きく、且つ移動速度に比例した値に設定する。ユーザQが意図する移動速度が大きいほど、すなわちユーザQがハンドル部12に加えたハンドル荷重が大きいほど、変数αF、αRは1から離れた大きい値に設定される。
安全確保領域算出部56によって算出されたロボット1と境界線BLとの間の距離に基づいて、投影画像作成部57は、境界線BLの形状を決定し、その決定した境界線BLを輪郭とする注意喚起画像Rを作成する。ユーザQの移動意図が右斜め前方への移動であるため、円環状の初期状態の境界線BLiから右斜め前方に他方向に比べて大きく拡大変形した境界線BLを輪郭とする、すなわち右斜め前方に延在する長軸を備える概ね楕円形状の注意喚起画像Rが作成される。
ユーザQの移動意図に基づいて投影画像作成部57によって作成された注意喚起画像Rは、投影部51によって歩行面S上に投影される。これにより、ロボット1に対する安全確保領域が、ユーザQのみならず、ロボット1の周辺にいる第三者にも呈示される。
それにより、ロボット1の周辺にいる第三者、特に右斜め前方にいる第三者は、歩行面S上に投影された注意喚起画像R(すなわち安全確保領域)を視認することにより、その注意喚起画像Rを踏まないように(すなわち安全確保領域の外部に)移動する。その結果、右斜め前方に方向転換したロボット1(またはユーザQ)と第三者との接触を回避することができる。
また、図13に示すように、安全確保領域算出部56は、図6に一例として示されている荷重傾向マップ24に記憶されている荷重傾向データに基づいて、ロボット1から安全確保領域の境界線BLまでの距離を算出する。一例として、ユーザQが前方向(y軸方向)に前進しているときにロボット1の左側に体重を預け続ける傾向がある場合を説明する。すなわち、荷重傾向マップ24に、移動方向と異なる特定方向の荷重として1.0NmのMzのモーメントが記憶されている場合を説明する。
ユーザQが移動中にロボット1の左側に体重を預け続ける傾向がある場合、図15に示すように、安全確保領域算出部56は、ロボット1と境界線BLとの間の左方向距離dLが初期値idLに比べて長い安全確保領域を算出する。すなわち、数式1の変数αLを、1より大きく、且つ、荷重傾向マップ24に記憶されているMzのモーメントの1.0Nmの大きさに比例した値に設定する。
安全確保領域算出部56によって算出されたロボット1と境界線BLとの間の距離に基づいて、投影画像作成部57は、円環状の初期状態の境界線BLiから左方向に他方向に比べて大きく拡大変形した境界線BLを輪郭とする注意喚起画像Rを作成する。
ユーザQの荷重傾向(すなわちハンドル荷重の傾向)に基づいて投影画像作成部57によって作成された注意喚起画像Rは、投影部51によって歩行面S上に投影される。
それにより、ロボット1の周辺にいる第三者、特にロボット1の左側にいる第三者は、歩行面S上に投影された注意喚起画像R(すなわち安全確保領域)を視認することにより、その注意喚起画像Rを踏まないように(すなわち安全確保領域の外部に)移動する。その結果、ロボット1の左側に体重を預けているユーザQがバランスを崩して意図せず不意にハンドル部12を左に旋回させても、第三者はロボット1との接触を回避することができる。
さらに、図13に示すように、安全確保領域算出部56は、移動速度検知部52によって検知されたロボット1の移動速度に基づいて、ロボット1から安全確保領域の境界線BLまでの距離を算出する。すなわち、ロボット1の移動速度が高いほど、そのロボット1に接触したときに第三者に与える衝撃が大きくなり、また制動距離が長くなる。そのため、ロボット1の移動速度を考慮して安全確保領域を設定する必要がある。
移動速度検知部52は、例えば回転体16の回転速度を検知するエンコーダであって、ロボット1の実際の移動速度を検知する。
一例として、ロボット1が高速(所定のしきい速度に比べた高い速度)で前方向に直進している場合を説明する。
ロボット1が高速で移動しているとき(移動速度検知部52が高い速度を検知しているとき)、図16に示すように、安全確保領域算出部56は、ロボット1と境界線BLとの間の前方向距離dFが初期値idFに比べて長い安全確保領域を算出する。すなわち、数式1の変数αFを、1より大きく、且つ、移動速度検知部52によって検知されたロボット1の移動速度に比例した値に設定する。変数αFは、移動速度検知部52によって検知されたロボット1の移動速度が高いほど、1から離れた大きい値に設定される。
安全確保領域算出部56によって算出されたロボット1と境界線BLとの間の距離に基づいて、投影画像作成部57は、円環状の初期状態の境界線BLiから前方向に他方向に比べて大きく拡大変形した境界線BLを輪郭とする注意喚起画像Rを作成する。
ロボット1の移動速度に基づいて投影画像作成部57によって作成された注意喚起画像Rは、投影部51によって歩行面S上に投影される。
それにより、ロボット1の周辺にいる第三者、特にロボット1の前方にいる第三者は、歩行面S上に投影された注意喚起画像R(すなわち安全確保領域)を視認することにより、その注意喚起画像Rを踏まないように(すなわち安全確保領域の外部に)移動する。その結果、高速で移動するロボット1と第三者との接触を回避することができる。
さらにまた、図13に示すように、安全確保領域算出部56は、荷物重量検知部53によって検知された荷物の重量に基づいて、ロボット1から安全確保領域の境界線BLまでの距離を算出する。
本実施の形態の場合、図1に示すように、ロボット1は、荷物を搭載する荷物搭載部58を備える。荷物搭載部58は、例えばトレイやかごなどである。この荷物搭載部58に搭載される荷物の重量が大きいほど、そのロボット1に接触したときに第三者に与える衝撃が大きくなり、また制動距離が長くなる。そのため、荷物重量を考慮して安全確保領域を設定する必要がある。なお、図1示す荷物搭載部58は、本体部11に搭載可能なサイズであるが、これに限らない。例えば、本体部11自体がショッピングカートなどの大きなカートであって、それにより本体部11自体が荷物搭載部58として機能してもよい。
荷物重量検知部53は、ハンドル荷重検知部13によって検知されたハンドル荷重と、移動速度検知部52によって検知されたロボット1の移動速度(すなわち回転体16の回転速度)とに基づいて、荷物搭載部58に搭載された荷物の重量を推定する。
説明すると、ユーザQによってハンドル部12に加えられるハンドル荷重が同一であっても、荷物の有無によってロボット1の移動速度が異なる。すなわち、荷物を搭載しているロボット1の移動速度は、その荷物の重量が大きくなるほど、荷物を搭載していない場合に比べて低くなる。したがって、荷物を搭載しているときの移動速度と荷物を搭載していないときの移動速度とを比較することにより、ロボット1に搭載された荷物の重量を推定することができる。
なお、ロボット1の移動速度に基づいて荷物重量を推定することに代わって、荷物重量検知部53は、荷物の重量を直接的に計量する、例えば重量センサであってもよい。
ロボット1が荷物を搭載しているとき(荷物重量検知部53が荷物重量を検知しているとき)、図17に示すように、安全確保領域算出部56は、ロボット1と境界線BLとの間の前方向距離dF、後方向距離dB、左方向距離dL、および右方向距離dRが初期値idF、idB、idL、およびidRに比べて長い安全確保領域を算出する。すなわち、数式1の変数αF、αB、αL、およびαRを、1より大きく、且つ、荷物重量検知部53によって検知された荷物重量に比例した値に設定する。これらの変数αF、αB、αL、およびαRは、荷物重量検知部53によって検知された荷物重量が大きいほど、1から離れた大きい値に設定される。
安全確保領域算出部56によって算出されたロボット1と境界線BLとの間の距離に基づいて、投影画像作成部57は、円環状の初期状態の境界線BLiから前方向に拡大変形した境界線BLを輪郭とする注意喚起画像Rを作成する。
ロボット1に搭載された荷物の重量に基づいて投影画像作成部57によって作成された注意喚起画像Rは、投影部51によって歩行面S上に投影される。
それにより、ロボット1の周辺にいる第三者は、歩行面S上に投影された注意喚起画像R(すなわち安全確保領域)を視認することにより、その注意喚起画像Rを踏まないように(すなわち安全確保領域の外部に)移動する。その結果、重量が増加したロボット1と第三者との接触を回避することができる。
ここまでは、ロボット1の周囲にいる第三者に対して、ロボット1やユーザQに対する注意を喚起する安全確保領域設定部55の機能について説明してきた。第三者に対する機能に加えて、本実施の形態の場合、安全確保領域設定部55は、ロボット1のユーザQに対して警戒を促すように構成されている。
具体的には、図18に示すように、ロボット1やユーザQに接触しうる障害物(第三者も含む)Bが存在する場合、障害物Bが検知されたことをユーザQに通知して該障害物Bに対する警戒をユーザQに促す。そのために、図1に示すように、ロボット1は、障害物検知部54を備える。
障害物検知部54は、例えば超音波センサであって、安全確保領域内に侵入した障害物Bを検知する。例えば、図12に示す初期状態の境界線BLiよりロボット1側に侵入した障害物Bを検知する。
図13に示すように、安全確保領域設定部55の投影画像作成部57は、障害物検知部54によって障害物Bが検知されると、ユーザQに対して障害物Bに対する警戒を促すための警戒画像R’を作成する。
図18に示すように、投影画像作成部57によって作成された、障害物Bに対する警戒をユーザQに促すための警戒画像R’が、投影部51によって歩行面S上に投影される。例えば、警戒画像R’は、安全確保領域の境界線BL内が黄色と黒色とのストライプで塗りつぶされた画像である。
それにより、ロボット1に支援されながら歩行中のユーザQは、ロボット1と接触しうる障害物Bの存在を知ることができ、また障害物Bを回避する行動をとることができる。その結果、ロボット1と障害物Bとの接触を回避することができる。
なお、障害物検知部54によって障害物Bが検知された場合、警戒画像R’を用いてユーザQに障害物Bに対する警戒を促すことに代わってまたは加えて、例えば音声によって警戒を促してもよい。その場合、ロボット1は、音声を出力するスピーカ(図示せず)を備える。
このような本実施の形態によれば、ユーザが歩行支援ロボットの支援を受けて歩行しているときに、その周囲の第三者が歩行支援ロボットやそのユーザに接触することを抑制することができる。
以上、上述の実施の形態を挙げて本開示を説明してきたが、本開示はこれに限らない。
例えば、上述の実施の形態の場合、図12に示すように、投影部51は、安全確保領域の境界線BLを輪郭とする形状の注意喚起画像Rを歩行面上に投影する。これに代わって、図19に示すように、投影部51は、ロボット1を囲む環状の注意喚起画像Rを歩行面上に投影してもよい。この場合、環状の注意喚起画像Rが全体として安全確保領域の境界線を表す。
また、上述の実施の形態の場合、図12に示すように、安全確保領域の境界線BLは、連続している。すなわち、境界線BLは、ロボット1を全体にわたって囲んでいる。これに代わって、図20に示すように、安全確保領域の境界線BLは、断続的であってもよい。安全確保領域の境界線BLは、ロボット1を少なくとも部分的に囲む線であればよい。例えば、ロボット1の前側部分を囲む半円状の境界線であってもよい。
図12、図14〜図20に示す境界線(注意喚起画像)や警戒画像は、静止画像に限らず、ハンドル荷重に関係なく変化する動画画像であってもよい。例えば、境界線は、所定の周期で点滅してもよい。また例えば、境界線は、所定の周期で色や形状が変化してもよい。この場合、ロボット1周辺の第三者に対して、ロボット1に対する注意をより強く喚起することができる。
また、境界線を歩行面上に投影する投影部は、プロジェクタ以外にも、歩行面上に光を照射する、例えばLEDなどの投光器であってもよい。すなわち、投影部から歩行面上に投影された光(画像)がハンドル荷重検知部によって検知されたハンドル荷重に基づいて変化することができる投影部であればよい。例えば、投影部の光軸を傾けて光(画像)の投影位置を変更することにより、歩行面上の光(画像)を変化させてもよい。また例えば、複数の投影部を選択的に点滅することにより、歩行面上の光(画像)を変化させてもよい。さらに例えば、輝度、点滅周期、色を変更することにより、歩行面上の光(画像)を変化させてもよい。さらにまた、投影部から歩行面上に直接的に光(画像)を投影することに代わって、投影部がミラーやフィルタなどの光学要素を備え、その光学要素が間接的に光(画像)を歩行面上に投影して該光を変化させてもよい。
さらに、投影部に加えてまたは代わって、ロボットの本体部の四方または八方にLEDなどの表示装置を設け、その表示装置の表示(発光)がハンドル荷重検知部によって検知されたハンドル荷重に基づいて変化してもよい。例えば、表示装置は、ロボットから遠い第三者にも見えるように発光強度を変化させたり、ロボット周辺の色と異なる色で発色することにより、強調表示を行ってもよい。
さらにまた、ロボットが経路計画にしたがって自立移動する場合、その移動予定の方向に拡大する境界線を投影部は照射してもよい、またはその方向に表示装置が強調表示を行ってもよい。また、ユーザがロボットのハンドル部に加えるハンドル荷重に基づいて投影部の投影範囲を変化させ、ロボットの自律移動の内容に基づいて投影部の投影光の色を変化させてもよい。または、ハンドル荷重と自律移動の内容との両方に基づいて、投影部の投影範囲を変化させてもよい。同様に、ロボットの本体部に設けられたLEDなどの表示装置が、ユーザがハンドル部の操作方向(ユーザが移動したい方向)とロボットが自律移動する方向(ロボットの移動予定方向)とを異なる色で第三者に呈示してもよい。これにより、ロボットが自律移動する場合と、ユーザがロボットの自律移動の方向と異なる方向に移動しようとする場合の両方に対応することができ、第三者により注意喚起することができる。
さらに、上述の実施の形態の場合、歩行支援ロボットは、ユーザのハンドル部に対する操作に基づいて移動する、すなわち回転体を回転させるアクチュエータを備えるが、これに限らない。例えば、アクチュエータなどの回転体を回転させる駆動源を備えず、ユーザがハンドル部を押すことによって歩行面上を移動する歩行支援ロボットであってもよい。
以上のように、本開示における技術の例示として、実施形態を説明した。そのために、添付図面及び詳細な説明を提供した。したがって、添付図面及び詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、前記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
また、上述の実施形態は、本開示における技術を例示するためのものであるから、特許請求の範囲又はその均等の範囲において種々の変更、置き換え、付加、省略等を行うことができる。
例えば、図3、図5、および図13に示す歩行支援ロボット1における荷重傾向データ生成部15、荷重補正部18、ユーザ移動意図推定部19、アクチュエータ制御部21、ユーザ荷重傾向抽出部23、荷重傾向マップ24、安全確保領域算出部56、および投影画像作成部57は、様々な形態で実現可能である。例えば、これらの構成要素は、CPUと、メモリなどの記憶装置と、記憶装置に保存されてCPUを制御するための適当なプログラムと、記憶装置に保存されてプログラムに使用される適当なデータとによって実現することができる。
本開示は、ユーザの安定した歩行を支援する歩行支援ロボット及び歩行支援方法に適用可能である。
1 歩行支援ロボット
12 ハンドル部
13 ハンドル荷重検知部
16 回転体
51 投影部

Claims (10)

  1. ユーザの歩行を支援する歩行支援ロボットであって、
    歩行面上を転動可能な回転体と、
    ユーザが把持するハンドル部と、
    ユーザから前記ハンドル部に加えられた荷重を検知するハンドル荷重検知部と、
    歩行面上に光を投影する投影部と、を有し、
    前記投影部から歩行面上に投影された光の投影位置、投影範囲、輝度、点滅周期、発光強度、および色の少なくとも1つが、前記ハンドル荷重検知部によって検知されたハンドル荷重に基づいて変化され
    前記投影部が、前記歩行支援ロボットを少なくとも部分的に囲む境界線を歩行面上に投影し、
    前記境界線と前記歩行支援ロボットとの間の距離が、前記ハンドル荷重検知部によって検知されたハンドル荷重に基づいて変更される、
    歩行支援ロボット。
  2. 前記投影部が、前記ハンドル荷重検知部によって検知されたハンドル荷重が大きいほど、前記歩行支援ロボットとの間の距離が大きい境界線を投影する、請求項に記載の歩行支援ロボット。
  3. 前記ハンドル荷重検知部が、水平方向の荷重を検知し、
    前記投影部が、前記ハンドル荷重検知部によって検知されたハンドル荷重が大きいほど、前記歩行支援ロボットに対して対向する境界線の部分と該歩行支援ロボットとの間の検知荷重方向の距離が他の方向の距離に比べて大きくなるように、前記境界線の形状を変更する、請求項またはに記載の歩行支援ロボット。
  4. 前記ハンドル荷重検知部によって検知された、少なくともハンドル荷重の向きの傾向に基づいて、前記境界線と前記歩行支援ロボットとの間の距離が変更される、請求項からのいずれか一項に記載の歩行支援ロボット。
  5. 前記投影部が、前記ハンドル荷重検知部がハンドル荷重の向きの傾向として移動方向と異なる特定方向への荷重を検知し続ける場合、前記境界線と前記歩行支援ロボットとの間の前記特定方向の距離が他の方向の距離に比べて大きく維持されるように、前記境界線を投影する、請求項に記載の歩行支援ロボット。
  6. 荷物を搭載する荷物搭載部と、
    荷物の重量を検知する荷物重量検知部と、を有し、
    前記投影部が、荷物重量検知部によって検知された荷物重量が大きいほど、前記歩行支援ロボットとの間の距離が大きい境界線を投影する、請求項からのいずれか一項に記載の歩行支援ロボット。
  7. 前記歩行支援ロボットの移動速度を検知する移動速度検知部を有し、
    前記投影部が、移動速度検知部によって検知された移動速度が高いほど、歩行支援ロボットとの間の距離が大きい境界線を投影する、請求項からのいずれか一項に記載の歩行支援ロボット。
  8. 前記境界線より前記歩行支援ロボット側に障害物が存在するか否かを検知する障害物検知部と、
    前記障害物検知部によって障害物が検知されたことをユーザに通知する通知部と、を有する、請求項からのいずれか一項に記載の歩行支援ロボット。
  9. 前記投影部が、前記障害物検知部が障害物を検知した場合、前記通知部として、障害物に対する警戒を促すための警戒画像を歩行面上に投影する、請求項に記載の歩行支援ロボット。
  10. 歩行支援ロボットを用いてユーザの歩行を支援する歩行支援方法であって、
    ユーザから前記歩行支援ロボットのハンドル部に加えられた荷重を検知し、
    前記歩行支援ロボットに設けられた投影部によって歩行面上に光を投影し、
    検知された前記ハンドル部への荷重に基づいて、前記投影部によって歩行面上に投影される光の投影位置、投影範囲、輝度、点滅周期、発光強度、および色の少なくとも1つを変化させ
    前記歩行支援ロボットを少なくとも部分的に囲む境界線を歩行面上に投影し、
    前記境界線と前記歩行支援ロボットとの間の距離が、前記ハンドル荷重検知部によって検知されたハンドル荷重に基づいて変更される、歩行支援方法。
JP2016129238A 2016-06-29 2016-06-29 歩行支援ロボット及び歩行支援方法 Active JP6799789B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016129238A JP6799789B2 (ja) 2016-06-29 2016-06-29 歩行支援ロボット及び歩行支援方法
CN201710299960.6A CN107536697B (zh) 2016-06-29 2017-05-02 行走辅助机器人和行走辅助方法
US15/623,414 US10449108B2 (en) 2016-06-29 2017-06-15 Robot and method of supporting walking using robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016129238A JP6799789B2 (ja) 2016-06-29 2016-06-29 歩行支援ロボット及び歩行支援方法

Publications (2)

Publication Number Publication Date
JP2018000383A JP2018000383A (ja) 2018-01-11
JP6799789B2 true JP6799789B2 (ja) 2020-12-16

Family

ID=60806231

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016129238A Active JP6799789B2 (ja) 2016-06-29 2016-06-29 歩行支援ロボット及び歩行支援方法

Country Status (3)

Country Link
US (1) US10449108B2 (ja)
JP (1) JP6799789B2 (ja)
CN (1) CN107536697B (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110192968B (zh) * 2018-02-27 2023-03-07 株式会社捷太格特 步行辅助装置
US20190358821A1 (en) * 2018-05-25 2019-11-28 Panasonic Corporation Walking training robot
CN108836765B (zh) * 2018-07-11 2021-03-26 国家康复辅具研究中心 智能助行装置以及用于控制其提供助行的方法
CN109157381B (zh) * 2018-07-24 2020-08-04 华中科技大学 一种扶手式智能跌倒防护助行康复机器人
CN110231827B (zh) * 2019-06-12 2022-03-18 哈尔滨工程大学 一种uuv地理围栏的离线初始构建与在线滚动更新方法
JP7405575B2 (ja) * 2019-11-19 2023-12-26 ファナック株式会社 ロボットの制御装置、ロボットの制御方法、および協働作業ユニット
KR20210119742A (ko) * 2020-03-25 2021-10-06 엘지전자 주식회사 카트부 및 그 제어 방법
US20220054346A1 (en) * 2020-08-21 2022-02-24 James L. King Powered Walking Assistance Device With Cane Portion Used as Joystick Controller
KR20220027746A (ko) 2020-08-27 2022-03-08 네이버랩스 주식회사 로봇 주행에 따른 안전 가이드 라인을 제공하는 건물
WO2024075461A1 (ja) * 2022-10-07 2024-04-11 清水建設株式会社 自律移動ロボット
WO2024084606A1 (ja) * 2022-10-19 2024-04-25 三菱電機株式会社 照明制御システム

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6745786B1 (en) * 2002-05-31 2004-06-08 Rayneda Davis Walking aid with supplementary features
CN2907641Y (zh) * 2006-03-06 2007-06-06 张益� 导盲杖
US7708120B2 (en) * 2007-08-17 2010-05-04 Eli Einbinder Electronically controlled brakes for walkers
US7784479B2 (en) * 2008-12-15 2010-08-31 Randal A. Navarro Adjustable lighted walking aid
CN201510473U (zh) * 2009-09-14 2010-06-23 张鸿森 多功能手扶杖
WO2011033595A1 (ja) * 2009-09-18 2011-03-24 本田技研工業株式会社 倒立振子型車両の制御装置
US9125790B2 (en) * 2010-04-12 2015-09-08 Mayo Foundation For Medical Education And Research System and method for alleviating freezing gait and gait hypokinesia in users with extrapyramidal disorder
JP5633779B2 (ja) * 2010-04-30 2014-12-03 国立大学法人九州工業大学 自立式の歩行支援装置
JP5491627B2 (ja) * 2010-05-24 2014-05-14 日立建機株式会社 作業機械の安全装置
KR101689430B1 (ko) * 2011-02-23 2016-12-23 가부시키가이샤 무라타 세이사쿠쇼 보행 보조차
US8608183B2 (en) * 2011-11-01 2013-12-17 Kiho Woo Walker with integrated illumination means and alarm
WO2014045857A1 (ja) * 2012-09-18 2014-03-27 株式会社村田製作所 移動体
JP2014230681A (ja) * 2013-05-30 2014-12-11 船井電機株式会社 パワーアシスト装置及び歩行補助車
JP6187049B2 (ja) * 2013-08-30 2017-08-30 船井電機株式会社 歩行アシスト移動体
US9131753B2 (en) * 2013-09-03 2015-09-15 Li-Sheng Chien Walking stick handle structure
US10733866B2 (en) * 2013-10-29 2020-08-04 The Sheba Fund For Health Services And Research Walker-assist device
GB201410648D0 (en) * 2014-06-14 2014-07-30 Pape Lise S Walking aid providing tactile and visual cues to trigger and improve mobility
JP6422047B2 (ja) * 2014-06-26 2018-11-14 フジマイクロ株式会社 キャリーカート
US9386830B2 (en) * 2014-10-02 2016-07-12 Hurryworks Llc Walking aid device
US9523983B2 (en) * 2015-04-08 2016-12-20 Peter Chamberlain Automated ambulatory rehabilitation device
US9468272B1 (en) * 2015-04-13 2016-10-18 Elwha Llc Smart cane with extensions for navigating stairs
US9675515B2 (en) * 2015-04-27 2017-06-13 Chimei Medical Center Mobility aid with rehabilitative and guiding functions and rehabilitation and guiding method thereof
DE202015006199U1 (de) * 2015-09-08 2015-12-10 Alexander Bressel Gehhilfenachrüstsatz
CN205126751U (zh) * 2015-11-29 2016-04-06 张浩杰 一种多功能盲人用拐杖
US9930941B1 (en) * 2016-09-23 2018-04-03 Rodney Philip Sarauer Walking aid system and method

Also Published As

Publication number Publication date
JP2018000383A (ja) 2018-01-11
CN107536697B (zh) 2021-03-09
US20180000683A1 (en) 2018-01-04
CN107536697A (zh) 2018-01-05
US10449108B2 (en) 2019-10-22

Similar Documents

Publication Publication Date Title
JP6799789B2 (ja) 歩行支援ロボット及び歩行支援方法
US20180148121A1 (en) Pressure Control Steering
US10086890B2 (en) Robot and method for use of robot
EP2865364A2 (en) Manually propelled vehicle
US8676420B2 (en) Electric vehicle and method for controlling the same
JP4577442B2 (ja) 走行装置及びその制御方法
JP4197052B1 (ja) 脚車輪型移動機構
JP4246534B2 (ja) 二足歩行移動体の床反力作用点推定方法及び二足歩行移動体の関節モーメント推定方法
KR101342009B1 (ko) 능동형 보행보조 및 기립보조기, 및 능동 보행보조 및 기립보조방법
JP6984000B2 (ja) 手押し電動化移動装置
KR20020010152A (ko) 개인용 이동 차량 및 방법
US20160074262A1 (en) Intelliwalker, an intelligent, sensor equipped, motorized robotic walking assistance device.
JP2007202924A (ja) 身体状態判定システム及び運動状態判定システム並びにこれらシステムを備える移動台車
JP6887274B2 (ja) 歩行支援ロボット及び歩行支援方法
JP2009119014A (ja) 歩行補助装置
JP2017070744A (ja) 電動車両およびその制御方法
JP2007336785A (ja) 走行装置及びその制御方法
JP2010215043A (ja) 電動アシストカート
JP4246535B2 (ja) 二足歩行移動体の床反力作用点推定方法及び二足歩行移動体の関節モーメント推定方法
JP2018120524A (ja) 案内用ロボット
JP2011207277A (ja) 倒立二輪車、その姿勢制御方法及びプログラム
US8949010B2 (en) Inverted pendulum type vehicle
JP2012115312A (ja) 歩行支援装置、及び歩行支援プログラム
JP2021154061A (ja) 杖、杖の制御方法、及びプログラム
JP7220811B2 (ja) 電動制動機構付き車両、車輪ユニット、及び車輪ユニットの制御用プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190604

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201105

R151 Written notification of patent or utility model registration

Ref document number: 6799789

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151