JP2015093188A - 歩行補助ロボット及び歩行補助ロボットの制御方法 - Google Patents

歩行補助ロボット及び歩行補助ロボットの制御方法 Download PDF

Info

Publication number
JP2015093188A
JP2015093188A JP2014159869A JP2014159869A JP2015093188A JP 2015093188 A JP2015093188 A JP 2015093188A JP 2014159869 A JP2014159869 A JP 2014159869A JP 2014159869 A JP2014159869 A JP 2014159869A JP 2015093188 A JP2015093188 A JP 2015093188A
Authority
JP
Japan
Prior art keywords
ground
information
walking
comparison
walking assist
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014159869A
Other languages
English (en)
Other versions
JP6472959B2 (ja
Inventor
碩 浚 尹
Suk June Yoon
碩 浚 尹
慶 植 盧
Kyoung-Sig Roh
慶 植 盧
榮 輔 沈
Eiho Chin
榮 輔 沈
寧 道 權
Young Do Kwon
寧 道 權
成 桓 安
Seong Hwan Ahn
成 桓 安
孝 錫 黄
Hyo Seok Huang
孝 錫 黄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2015093188A publication Critical patent/JP2015093188A/ja
Application granted granted Critical
Publication of JP6472959B2 publication Critical patent/JP6472959B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/50Prostheses not implantable in the body
    • A61F2/68Operating or control means
    • A61F2/70Operating or control means electrical
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/50Prostheses not implantable in the body
    • A61F2/60Artificial legs or feet or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H1/00Apparatus for passive exercising; Vibrating apparatus; Chiropractic devices, e.g. body impacting devices, external devices for briefly extending or aligning unbroken bones
    • A61H1/02Stretching or bending or torsioning apparatus for exercising
    • A61H1/0237Stretching or bending or torsioning apparatus for exercising for the lower limbs
    • A61H1/024Knee
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H1/00Apparatus for passive exercising; Vibrating apparatus; Chiropractic devices, e.g. body impacting devices, external devices for briefly extending or aligning unbroken bones
    • A61H1/02Stretching or bending or torsioning apparatus for exercising
    • A61H1/0237Stretching or bending or torsioning apparatus for exercising for the lower limbs
    • A61H1/0244Hip
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H1/00Apparatus for passive exercising; Vibrating apparatus; Chiropractic devices, e.g. body impacting devices, external devices for briefly extending or aligning unbroken bones
    • A61H1/02Stretching or bending or torsioning apparatus for exercising
    • A61H1/0237Stretching or bending or torsioning apparatus for exercising for the lower limbs
    • A61H1/0266Foot
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H2003/001Appliances for aiding patients or disabled persons to walk about on steps or stairways
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H2003/007Appliances for aiding patients or disabled persons to walk about secured to the patient, e.g. with belts
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5007Control means thereof computer controlled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5061Force sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5092Optical sensor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40305Exoskeleton, human robot interaction, extenders
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Rehabilitation Therapy (AREA)
  • Pain & Pain Management (AREA)
  • Epidemiology (AREA)
  • Transplantation (AREA)
  • Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Cardiology (AREA)
  • Vascular Medicine (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Rehabilitation Tools (AREA)
  • Manipulator (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)

Abstract

【課題】 周辺の環境を認識し、周辺環境によって迅速に対応することができる歩行補助ロボット及び歩行補助ロボットの制御方法を提供すること。【解決手段】 歩行補助ロボット及び歩行補助ロボットの制御方法に関し、歩行補助ロボットの制御方法は、歩行方向の地面に対する情報である地面情報を獲得する地面情報獲得段階と、前記生成した地面情報を分析し、歩行補助ロボットに対する制御パターンを決定する制御パターン決定段階と、前記決定した制御パターンに基づいて歩行補助ロボットを制御する歩行補助ロボット制御段階とを含むことができる。【選択図】 図1

Description

歩行補助ロボット及び歩行補助ロボットの制御方法に関する。
歩行補助器具というのは、弱い足筋力などの多様な理由で歩行が不便な人が容易に歩行を行うことができるようにするために補助する器具を意味する。人の歩行の不便は、遺伝的結合のような先天的理由や、疾病や事故などのような後天的理由で発生することができる。
このような歩行補助器具としては、所定の回転手段と人を支持する支持台が設置され、人の押す力によって移動する歩行補助車が人体の足に固定されて、歩行時に必要な力を人体の筋肉に印加し、歩行に必要な力の不足分を補充する歩行補助ロボットなどが存在し得る。
歩行補助ロボットは、人体の大腿部や向こうずねなどに固定され、所定のモーターなどのような各種機械的手段によって筋肉及び関節の運動を補助することによって、人が容易に歩行することができるようにする。
本発明の目的は、周辺の環境を認識し、周辺環境によって迅速に対応することができる歩行補助ロボット及び歩行補助ロボットの制御方法を提供することにある。
上記目的を達成するために、歩行補助ロボット及び歩行補助ロボットの制御方法が提供される。
歩行補助ロボットは、地面に対する複数の地面データを収集する地面データ収集部と、前記複数の地面データに基づいて地面に対する情報である地面情報を生成し、前記生成した地面情報を分析し、歩行補助ロボットに対する制御パターンを決定し、前記決定した制御パターンに基づいて歩行補助ロボットを制御する制御部とを含むことができる。
また、歩行補助ロボットは、地面情報を受信する地面情報受信部と、前記収集した地面情報を分析し、歩行補助ロボットに対する制御パターンを決定し、前記決定した制御パターンに基づいて歩行補助ロボットを制御する制御部とを含むことができる。
一方、歩行補助ロボットの制御方法は、地面情報を獲得する地面情報獲得段階と、前記獲得した地面情報を分析し、歩行補助ロボットに対する制御パターンを決定する制御パターン決定段階と、前記決定した制御パターンに基づいて前記歩行補助ロボットを制御する歩行補助ロボット制御段階とを含むことができる。
前述した歩行補助ロボット及び歩行補助ロボットの制御方法によれば、歩行補助ロボットが周辺歩行環境が変化する場合にも迅速に対処することができる効果を得ることができる。
また、歩行補助ロボットの場合、歩行補助ロボットで加えられる力や圧力などによって誘発された歩行補助ロボットの着用者が感じる抵抗感を最小化することができる。
また、歩行補助ロボットを利用する着用者が多様な地形でも自然に歩行することができる効果を得ることができる。
また、前述した歩行補助ロボット、歩行補助ロボットの制御方法によれば、歩行補助ロボットを利用する着用者が地面上の凹凸などのような障害物が存在するか、地面が階段、傾斜などのように特異地形である場合においても安全に歩行を行うことができる効果を得ることができる。
また、前述した歩行補助ロボット及び歩行補助ロボットの制御方法によれば、歩行補助ロボットの着用者は、歩行補助ロボットの抵抗感なしに補助を受けることができ、着用者が歩行をさらに便利にすることができる効果を得ることができる。
図1は、歩行補助ロボットの一実施形態に対する正面図である。 図2は、歩行補助ロボットの一実施形態に対する側面図である。 図3は、歩行補助ロボットの一実施形態に対する背面図である。 図4は、歩行補助ロボットの一実施形態に対する構成図である。 視覚的走行距離測定方法を説明するための図である。 視覚的走行距離測定方法を説明するための図である。 視覚的走行距離測定方法を説明するための図である。 図8は、エゴモーションの一実施形態を示す図である。 図9は、地面情報の一例である歩行方向の地図を生成する方法の一実施形態を説明するための図である。 図10は、地面情報の一例である歩行方向の地図を生成する方法の一実施形態を説明するための図である。 図11は、地面情報の一例である歩行方向の地図を生成する方法の一実施形態を説明するための図である。 図12は、地面情報の一例である歩行方向の地図を生成する方法の一実施形態を説明するための図である。 図13は、地面情報の一例である歩行方向の地図を生成する方法の一実施形態を説明するための図である。 図14は、地面情報の一例である歩行方向の地図を生成する方法の一実施形態を説明するための図である。 図15は、歩行方向の地図を管理する方法の一実施形態を説明するための図である。 図16は、基準地面及び比較地面を説明するための図である。 図17は、基準地面及び比較地面を説明するためのさらに他の図である。 図18は、基準地面及び比較地面によって少なくとも1つの地面形態を決定する方法の一実施形態を説明するための図である。 図19は、基準地面及び比較地面によって少なくとも1つの地面形態を決定する方法の一実施形態を説明するための図である。 図20は、基準地面及び比較地面によって少なくとも1つの地面形態を決定する方法の一実施形態を説明するための図である。 図21は、歩行補助ロボットの他の一実施形態に対する構成図である。 図22は、歩行補助ロボット制御方法の一実施形態に対する流れ図である。 図23は、地面情報獲得方法の一実施形態に対する流れ図である。 図24は、歩行補助ロボットを制御する方法の一実施形態に対する流れ図である。
以下、図1〜図21を参照して歩行補助装置の一実施形態について説明する。図1〜図21には、歩行補助装置の一例として人体に装着可能な歩行補助ロボットの一実施形態が示されている。
図1〜図3は、歩行補助ロボットの一実施形態に対する正面図、側面図及び背面図である。図1〜図3に示されるように、歩行補助ロボット1は、本体部10及び歩行動作部20〜40を含むことができる。
本体部10は、各種部品が内蔵可能なハウジング10aを含むことができる。ハウジング10aは、内蔵される各種部品を安全に保護すると共に、安定的に固定させる機能を提供することができる。ハウジング10aは、内部に中央処理装置(CPU、central processing unit)やグラフィック処理装置(GPU、graphic processing unit)などのような多様な処理装置及びプリント回路基板などが内蔵されていてもよく、必要に応じて多様な種類の記憶装置が内蔵されていてもよい。
ハウジング10aに設置された中央処理装置は、マイクロプロセッサであってよい。マイクロプロセッサは、シリコーンチップに算術論理演算器、レジスタ、プログラムカウンター、命令デコーダーや制御回路などが設置されている処理装置である。中央処理装置は、歩行動作部20〜40の動作を制御するための制御信号を生成し、生成した制御信号を歩行動作部20〜40に伝達する。中央処理装置は、実施形態によって地面データ収集部13で収集した地面データに基づいて所定の地面情報を生成し、生成された地面情報によって制御信号を生成することもできる。
地面情報は、地面の凹凸や形態などに対する情報を含むことができる。地面情報は、歩行補助ロボット1の一定の範囲内の地面に対する情報を含むことができる。また、地面情報は、着用者が歩行する方向の地面に対する情報を含むこともできる。また、地面情報は、着用者の後方または側方に位置する地面に対する情報を含むこともできる。一実施形態によれば、地面情報は、歩行方向の地図であってもよい。
グラフィック処理装置は、マイクロプロセッサのうち主にグラフィックに関連した情報を処理する処理装置を意味する。グラフィック処理装置は、中央処理装置のグラフィック処理機能を補助するかまたは単独でグラフィック処理を行うようにすることができる。グラフィック処理装置は、実施形態によって地面データ収集部13で収集した映像データに基づいて所定の映像処理を行うこともできる。また、グラフィック処理装置は、地面データ収集部13で収集した地面データに基づいて所定の地面情報を生成することもできる。
プリント回路基板は、所定の回路が印刷されている基板であって、プリント回路基板には、中央処理装置やグラフィック処理装置、多様な記憶装置が設置されていてもよい。プリント回路基板は、ハウジング10aの内側面に固定され、中央処理装置などが安定的に固定されることができるようにする機能を提供することができる。
ハウジング10aは、多様な記憶装置を内蔵していてもよい。記憶装置は、磁気ディスク表面を磁化させてデータを格納する磁気ディスク記憶装置であってもよく、多様な種類のメモリ半導体を利用してデータを格納する半導体メモリ装置であっもよい。記憶装置には、地面情報または地面データなどが格納されることもできる。ハウジング10aは、また、ハウジング内部の各種部品または歩行動作部20〜40に動力を供給するための電源がさらに内蔵されていてもよい。また、ハウジング10aは、歩行動作部20〜40の動作を制御するかまたは駆動させるための所定のアクチュエーター(actuator)がさらに設置されていてもよい。
実施形態によって本体部10は、着用者の腰を支持するための腰支持部11をさらに含むこともできる。腰支持部11は、着用者の腰を支持するために湾曲された平面板の形状を具備することができる。
また、本体部10は、着用者とハウジング10aまたは腰支持部11を固定するために1つまたは複数の固定手段12a、12bをさらに含むことができる。固定手段12a、12bとしては、ハウジング10aを腰や尻などに固定させることができる多様な種類の手段が利用されるてよい。例えば、固定手段12a、12bは、弾性力を具備したバンドや各種多様な種類のストラップ(strap)であってもよい。
一方、本体部10は、地面に対する複数の地面データを収集する1つまたは複数の地面データ収集部13を含むことができる。地面データ収集部13は、着用者歩行経路上の障害物の存在や地形の変化を早期に収集することによって、障害物の存在や地形の変化によって歩行動作部20〜40が適切に制御される得る。
地面データ収集部13は、地面で反射するか、発生した可視光線や赤外線などを収集し、データを収集することができる。地面データ収集部13は、可視光線、赤外線、レーザーなどの光線を利用してデータを収集することもでき、超短波や極超短波などの電磁気波を利用してデータを収集することもでき、超音波などを利用してデータを収集することもできる。
地面データ収集部13は、歩行補助ロボット1の一定の範囲内の地面に対するデータを収集することができる。例えば、地面データ収集部13は、着用者と近距離に位置する地形に対するデータを収集することもできる。実施形態によって着用者と遠距離に位置する地形のデータまでも収集することもできる。一実施形態によれば、地面データ収集部13は、着用者の歩行方向前方の地面に対するデータを収集することができる。また、着用者の歩行方向の後方または側方の地面に対するデータを収集することもできる。このような地面データの収集範囲は、地面データ収集部13のカメラまたは3次元深さセンサーの方向や画角などによって決定され得る。地面データの収集範囲は、歩行補助ロボット1の設計者によって任意的に決定されてよく、使用者の選択によって決定されてもよい。
一実施形態によれば、地面データ収集部13は、外部から伝達される可視光線または赤外線を変換し、地面に対する映像データを収集するカメラなどのような映像撮影装置であってもよい。例えば、カメラは、汎用静止画像カメラ、動画カメラ、ステレオカメラ、パノラマカメラ及び赤外線カメラのうち少なくとも1つを含むことができる。この場合、地面データ収集部13で収集される地面データは、可視光線映像データ及び赤外線映像データを含むこともできる。
また、他の一実施形態によれば、地面データ収集部13は、3次元深さセンサー(3D depth sensor)であってもよい。3次元深さセンサーは、所定の光線を利用して地面に対する情報を収集することができる。例えば、3次元深さセンサーは、所定の赤外線を被写体、一例として地面に照射し、被写体で反射する赤外線を受光した後、受光した赤外線に基づいて被写体の形態や位置などを感知することができる。
前述したカメラやセンサー以外にも、映像をキャプチャーして収集することができる多様な映像装置が前述した地面データ収集部13に利用され得る。
地面データ収集部13は、図1〜図3に示されるように、ハウジング10aに設置されていてもよい。
地面データ収集部13は、ハウジング10aの外部に突出して設置されることもできる。地面データ収集部13は、ハウジング10aの地面データを容易に収集するために、ハウジング10aの1つまたは複数の側面に設置されていてもよい。また、地面データ収集部13は、ハウジング10aに埋め込まれて設置されてもよい。もし地面データ収集部13がハウジング10aに埋め込まれて設置される場合、ハウジング10aの外面には、地面データ収集部13のレンズなどが外部の光を受光することができるように所定の切欠孔が形成してもよい。歩行補助ロボット1には、ただ1つの地面データ収集部13だけが設置されてもよく、図1に示されるように、複数個の地面データ収集部13a、13bが設置されてもよい。
地面データ収集部13がハウジング10aの外側面に設置される場合、地面データ収集部13aは、センサーハウジング13c、センサー13d及び回転手段13eを含み得る。
センサーハウジング13cは、センサー13dを内蔵することができ、センサー13dを固定しながら保護する機能を提供することができる。
センサー13dは、前述したように、カメラなどの映像撮影装置や3次元深さセンサーであってよい。
回転手段13eは、センサーハウジング13c及びハウジング10aを連結すると同時に、センサーハウジング13cを1つまたは複数の方向に回転することができる。回転手段13eは、ボールやローラーなどを具備したベアリングを含むことができる。ベアリングの種類は、設計者の選択によって多様に決定されてよい。回転手段13eは、モーター(motor)やシリンダー装置の駆動によって自動で回転することもでき、着用者によって手動で回転することもできる。
一実施形態によれば、地面データ収集部13は、歩行方向の前方、後方及び側方のうち1つまたは複数の方向に向いてもよい。例えば、地面データ収集部13は、歩行方向の前方の地面に対する地面データ収集のために歩行方向の前方に向いてもよく、歩行方向の側方または後方の地面データ収集のために歩行方向の側方または後方に向いてもよい。また、地面データ収集部13は、地面データ収集部13のハウジング10aなどが所定の回動軸、一例として回転手段13eを中心に回転しながら複数の方向のデータを収集することもできる。
本体部10は、1つまたは複数の慣性測定装置(IMU、inertial measurement unit)を含むことができる。慣性測定装置は、ハウジング10a内部または外部に設置されていてもよく、より具体的には、慣性測定装置は、ハウジング10aの内側に固定されたプリント回路基板に設置されていてもよい。慣性測定装置は、複数軸の慣性センサー(inertial sensor)、例えば3軸慣性センサー及びジャイロセンサー(gyro sensor)のうち少なくとも1つを含むことができる。慣性測定装置によって測定された慣性などに基づいて本体部10の中央処理装置などのような制御装置は、歩行動作部20〜40の動作を制御する。
歩行動作部20〜40は、図1〜図3に示されるように、第1構造部20、第2構造部30及び第3構造部40を含み得る。第1構造部20は、歩行動作において着用者の大腿部及び股関節の動きを補助することができる。第2構造部30は、歩行動作において着用者の下腿部及び膝関節の動きを補助することができる。また、第3構造部40は、歩行動作において着用者の足首関節及び関連筋肉の動きを補助することができる。
一実施形態によれば、第1構造部20、第2構造部30及び第3構造部40は、歩行補助ロボット1にそれぞれ1つだけ存在し得る。この場合、着用者の左足及び右足のうちいずれか1つで第1構造部20、第2構造部30及び第3構造部40が着用され得る。また、他の実施形態によれば、第1構造部20、第2構造部30及び第3構造部40は、二足歩行を補助するために左足及び右足に設置され得るようにペアで存在することができる(図1の20a、20b、30a、30b、40a、40b参照)。第1構造部20、第2構造部30及び第3構造部40が1つだけ存在するかまたは複数で存在する場合であっても、第1構造部20、第2構造部30及び第3構造部40の機能や動作は大同小異である。
以下では、説明の便宜のために複数の第1構造部20、第2構造部30及び第3構造部40を含む歩行補助ロボット1について説明する。
複数の第1構造部20a、20bは、それぞれ第1駆動部21a、21b及び第1支持部22a、22bを含むことができる。第1駆動部21a、21bは、回転しながら多様なサイズの回転力を発生させることができる。第1駆動部21a、21bで発生した回転力は、第1支持部22a、22bに印加され得る。第1駆動部21a、21bは、人体の股関節の動作範囲内で回転駆動するように設定され得る。
一実施形態によれば、第1駆動部21a、21bは、本体部10などで供給される電気エネルギーなどによって所定トルクの回転力を発生させるモーターを含むこともできる。また、本体部10などで供給される電気エネルギーまたは流体の圧力、一例として油圧や空気圧などの圧力によって動作し、回転力を発生させるピストンやシリンダー装置を含むでもよい。実施形態によって、第1駆動部21a、21bは、モーター、ピストン及びシリンダー装置をすべて含むことができる。
少なくとも1つの第1支持部22a、22bは、第1駆動部21a、21bと物理的に連結されていてもよく、第1駆動部21a、21bで発生した回転力によって所定の方向に回転することができる。
第1支持部22a、22bは、図1〜図3に示されるように、1つまたは複数の支持台によって具現されることができる。第1支持部22a、22bは、必要に応じて多様な形状を具備することができる。例えば、第1支持部22a、22bは、六面体の形状を具備することもできる。もちろん第1支持部22a、22bは、複数の支持台が結合されて具現されることも可能である。
また、第1支持部22a、22bは、複数の節が互いに連結されている形態で具現されてもよい。この場合、複数の節の間には、複数の節を連結する複数の関節が結合されていてもよい。複数の関節は、所定の方向に回転することができる。これにより、第1支持部22a、22bは、複数の関節の回転範囲によって所定の方向に一定の範囲内で曲がることができる。実施形態によって、複数の節のうち2つの節を1つの関節が連結することができ、複数の関節が連結することもできる。2つの節を複数の関節が連結する場合、それぞれの関節は、互いに異なる方向に回転することができる。これにより、第1支持部22a、22bは、多様な方向に一定の範囲内で曲がることができる。
実施形態によって第1支持部22a、22bは、可撓性がある素材で形成されてよく、素材の可撓性によって一定の範囲内で曲がり得る。
複数の第1構造部20a、20bは、第1支持部22a、22bを着用者の大腿部に固定させるための第1固定手段23a、23bを含むことができる。第1支持部22a、22bは、第1固定手段23a、23bを通じて着用者の大腿部の内側または外側に固定される得る。第1駆動部21a、21bの駆動によって第1支持部22a、22bが回転するようになれば、第1支持部22a、22bが固定された大腿部は、同一の方向に股関節を軸として回転することができる。
第1固定手段23a、23bは、金属素材で形成されたものであってもよく、またはゴムなどのような各種弾性力ある素材で形成されたものであってもよい。第1固定手段23a、23bは、図1に示されるように、所定のチェーン(chain)であってもよい。また、第1固定手段23a、23bは、弾性力を具備したバンドまたは各種ストラップであってもよい。その他、第1支持部22a、22bが大腿部などに固定され得るようにするための多様な固定手段が、第1固定手段23a、23bの一例に利用される。
第1固定手段23a、23bが大腿部などに固定されることによって、第1構造部20a、20bは、大腿部を持ち上げるか、または、下す着用者の動作を補助するように所定の回転力を着用者の大腿部や股関節などに印加することができるようになる。これにより、着用者は、足を持ち上げる動作をするか、または歩行動作をする場合に、便宜を提供されることができる。
第1構造部20には、1つまたは複数の慣性測定装置が設置されていてもよい。慣性測定装置は、第1駆動部21a、21bに設置されてもよく、第1支持部22a、22bに設置されてもよく、両方に設置されてもよい。
第2構造部30は、図1〜図3に示されるように、第2駆動部31、第2支持部32及び第2固定部33を含むことができる。
第2駆動部31a、31bは、所定の方向に多様なサイズの回転力を発生させることができる。第2駆動部31a、31bは、人体の膝関節の動作範囲内で駆動するように設定され得る。
一実施形態によれば、第2駆動部31a、31bは、本体部10などで直接供給される電力または流体の圧力、もしくは、第1構造部20a、20bなどを通じて間接的に伝達される電力や流体の圧力などによって所定トークの回転力を発生させるモーター、ピストンまたはシリンダー装置を含むこともできる。前述したものと同様に、第2駆動部31a、31bは、モーター、ピストン及びシリンダー装置をすべて含んでもよい。
少なくとも1つの第2支持部32a、32bは、第2駆動部31a、31bと物理的に連結されていてもよく、第2駆動部31a、31bで発生した回転力によって所定の方向に回転し得る。第2支持部32a、32bの構成、構造及び素材などは、前述した第1支持部22a、22bと同一であってもよく、異なっていてもよい。
第2構造部30a、30bは、第2支持部32a、32bを着用者の下腿部に固定させるための第2固定手段33a、33bを含むことができる。第2支持部32a、32bは、第2固定手段33a、33bを通じて着用者の大腿部の内側または外側に固定されることができる。第2固定手段33a、33bの構成、構造及び素材などは、前述した第1固定手段23a、23bと同一であってもよく、異なっていてもよい。
第2固定手段33a、33bによって下腿部が第2支持部32a、32bなどに固定され、第2構造部30a、30bは、所定の回転力を着用者の下腿部や膝関節などに印加することができる。これにより、第2構造部30a、30bは、下腿部を持ち上げるか、または、下す着用者の動作を補助することができる。
第2構造部30には、1つまたは複数の慣性測定装置が設置されてもよい。実施形態によって第1構造部20の代わりに第2構造部30にのみ慣性測定装置が設置されることも可能である。
第3構造部40は、歩行動作において着用者の足首の動作を補助することができる。第3構造部40は、図1に示されるように、第3固定手段41a、41b、足保持部42a、42b、及び、第4固定手段43a、43bなどを含むことができる。
第3固定手段41a、41bは、前述した第2支持部32a、32bなどと連結されていてもよく、着用者の足首と第2支持部32a、32bなどを固定する機能を提供することができる。第3固定手段41a、41bの構成、構造及び素材などは、前述した第1固定手段23a、23bと同一であってもよく、異なっていてもよい。
足保持部42a、42bは、着用者の足裏に装着されることができる。足保持部42a、42bには、所定の圧力センサーが設置されていてもよい。所定の圧力センサーは、着用者の重さを感知し、着用者が歩行補助ロボット1を着用したか否か、または着用者が立ち上がったか否かなどを感知することができる。また、足保持部42a、42bには、着用者が歩行する場合、着用者の足に伝達される地面反力(GRF、ground reaction force)を感知するための所定の圧力センサーである地面反力センサーが設置されていてもよい。重さを感知する圧力センサー及び地面反力センサーは、互いに異なる独立的なセンサーで具現されてよく、必要に応じて1つのセンサーで具現されてもよい。
第4固定手段43a、43bは、足保持部42a、42bに保持された着用者の足と足保持部42a、42bを相互固定させることによって、着用者が安定的に足を足保持部42a、42bに保持できるようにする機能を提供することができる。
実施形態によって、第3構造部40は、モーターやシリンダーなどのように所定の駆動手段を含むことができ、第3構造部40の駆動手段は、足首関節及び足首周辺の筋肉と関連した着用者動作を補助することができる。
また、第3構造部40には、前述したものと同様に、1つまたは複数の慣性測定装置が設置されていてもよい。もちろん実施形態によって第3構造部40にのみ慣性測定装置が設置されることも可能である。
実施形態によって、歩行補助ロボット1の固定手段23a、23b、33a、33b、41a、41b、43a、43bの個数は、歩行補助ロボット1の設計者の設計意図によって前述したものよりさらに多いことがあり、またはさらに少ないことがある。
一実施形態によれば、前述した第1構造部〜第3構造部20〜40の駆動及び動作は、本体部10などに設置されたアクチュエーターによって始動されるか、または、制御されることができる。また、第1構造部〜第3構造部20〜40それぞれが互いに別に制御信号を伝達され、それぞれ別に始動及び動作することも可能である。
以上説明した各種部品及びこれらの動作によって、歩行補助ロボット1は、使用者の歩行を補助することができる。
以下、図4〜図21を参照して歩行補助ロボット1の歩行動作部20〜40を制御するための歩行補助ロボット1の各構成について説明する。
図4は、歩行補助ロボットの一実施形態に対する構成図である。図4を参照すれば、歩行補助ロボット1の本体部10は、地面データ収集部13及び制御部14を含む。歩行補助ロボット1は、地面データ収集部13及び制御部14を利用して歩行補助ロボット1を制御することができる。地面データ収集部13は、複数の地面データを獲得することができる。地面データ収集部13は、前述したように、本体部10の外部または内部に設置されることができ、外部の地面から所定の地面データを収集することができる。
図4を参照すれば、具体的に、地面データ収集部13は、レンズ1310、撮像素子1311及び格納部1312を含むことができる。レンズ1310は、可視光線レンズ及び赤外線レンズのうち少なくとも1つを含み、外部の物体で照射されるか、または、反射した可視光線または赤外線を受光することができる。この場合、外部の物体で反射した可視光線または赤外線は、地面データ収集部13で生成され、外部の物体に照射されたものであってもよい。
撮像素子1311は、受光した可視光線または赤外線を、受光した可視光線または赤外線に相当する電気的信号に変換することができる。撮像素子1311は、電荷結合素子(CCD、charge coupled device)であってもよく、CMOS(complementary metal−oxide semiconductor)であってもよい。その他、フォベオンなどであってもよい。このような撮像素子1311の種類や個数、サイズなどは、設計者の必要に応じて任意的に選択されたものであってよい。
撮像素子1311によって変換された電気的信号は、別途の処理なしにすぐ地面データに利用されてよい。一方、撮像素子1311によって変換された電気的信号は、地面データの生のデータ(raw data)に利用されてもよい。この場合、撮像素子1311によって変換された電気的信号は、増幅されることもでき、アナログ−デジタル変換(analog−digital conversion)過程を経ることもできる。このような過程を経た電気的信号が地面データに利用されてもよい。
格納部1312は、地面データを一時的または非一時的に格納することができる。実施形態によって、格納部1312は省略され得る。
前述した地面データ収集部13によって、歩行方向の前方、後方、及び、側方のうち1つまたは複数の方向に対する複数の地面データが獲得され得る。獲得された複数の地面データは、図4に示されるように制御部14に伝達され得る。
制御部14は、撮像素子1311で変換された電気的信号や格納部1312で伝達される電気的信号に基づいて所定の制御命令を生成した後、歩行動作部20〜40を制御するための制御信号を生成することができる。制御部14は、前述した中央処理装置、キャッシュ(cache)やバッファー(buffer)などの格納媒体及び各種回路によって具現され得る。必要に応じて、制御部14は、グラフィック処理装置をさらに利用して具現されてもよい。制御部14は、地面データ収集部13で収集したデータに基づいて各種演算を行い、行った演算の結果によって所定の制御命令を生成し、生成した制御命令を歩行動作部20〜40に伝達し、歩行動作部20〜40が着用者の歩行を補助することができるように制御することができる。
制御部14は、図4に示されるように、エゴモーション演算部1411及び地面情報生成部1412を含むことができる。エゴモーション演算部1411及び地面情報生成部1412を利用して制御部14は、地面データを利用して図23に示されたエゴモーションの演算乃至地面情報獲得過程s120〜s140を行うことができる。
制御部14のエゴモーション演算部1411は、図4の地面データ収集部13のエゴモーションを演算することができる。所定の環境内でカメラなどのセンサーの動きであるエゴモーションは、2次元平面上でのセンサーの動きまたは3次元空間上でのセンサーの動きを含んでよい。
エゴモーション演算部1411は、視覚的走行距離測定方法(visual odometry)を利用して地面データ収集部13のエゴモーションを測定することができる。視覚的走行距離測定方法は、動くセンサー、一例として地面データ収集部13により収集された一連の複数の可視光線映像または赤外線映像を利用してカメラなどのセンサーのエゴモーションを獲得する方法である。
図5〜図7は、視覚的走行距離測定方法を説明するための図である。図5〜図7では、映像の一例として可視光線映像を示すが、赤外線映像の場合にも、後述するものと同様に、動きに対するベクトルを演算することができる。
図5に示されるように、地面データ収集部13は、特定時間tに周辺の被写体を撮影し、第1時点tでの第1映像i1を獲得することができる。地面データ収集部13は、所定の時間ΔΔtが経過した後、第2時点t+Δtに周辺の被写体を撮影し、図6に示されるように、第2時点t+Δtでの第2映像i2を獲得することができる。
もし地面データ収集部13が移動中の場合なら、第1時点tで獲得した第1映像i1に表示された被写体の位置や形態と第2時点t+Δtで獲得した第2映像i2に表示された被写体の位置や形態は、図5及び図6に示されるように異なり得る。この場合、2つの映像i1、i2間の差異点を利用して映像を撮影したセンサーである地面データ収集部13の移動を推定及び測定することができる。例えば2つの映像i1、i2それぞれで特徴点(feature point)などを検出し、各特徴点の差異、例えば、各特徴点のサイズ変化または位置変化などを測定することによって、各特徴点の移動ベクトルを測定することができる。その結果、図7に示されるように、複数の特徴点それぞれに相当する複数の移動ベクトルの獲得が可能になる。エゴモーション演算部1411は、このような複数の移動ベクトルを演算及び獲得し、地面データ収集部13のエゴモーションを演算することができる。
図8は、エゴモーションの一実施形態を示す図である。もし地面データ収集部13が持続的に移動する場合、エゴモーション演算部1411は、続いてエゴモーションを演算することができる。エゴモーション演算部1411は、あらかじめ定義された所定の周期ごとにエゴモーションを演算することもできる。所定の周期ごとにエゴモーションが演算されれば、図8に示されるように、複数の移動ベクトルv1〜v6を獲得することができる。獲得された複数の移動ベクトルv1〜v6を組み合わせて、結果的に地面データ収集部13の移動であるエゴモーションを獲得することができる。
エゴモーションが演算される周期は、設計者または着用者によって任意的に決定されてよい。例えば、図8に示された移動ベクトルv1〜v6は、1秒以内の周期で獲得されたものであってもよく、1分の周期で獲得されたものであってもよい。また、エゴモーションが演算される周期は、必ずいつも一定である必要はない。例えば、エゴモーション演算部1411は、歩行補助ロボット1の着用者の歩行速度が早い場合、相対的に短い周期でエゴモーションを演算し、着用者の歩行速度が遅い場合、相対的に長い周期でエゴモーションを演算することも可能である。
制御部14の地面情報生成部1412は、地面データ収集部13で収集した地面データを利用して地面情報を生成することができる。一実施形態によれば、地面情報生成部1412は、獲得した地面データを組み合わせて地面情報を生成することができる。生成される地面情報は、地面に対する地図を含むことができる。一実施形態によれば、地面に対する地図は、3次元地図を含むことができる。また、地面に対する地図は、歩行方向の前方に対する地図を含むことができ、歩行方向の側方または後方に対する地図を含むこともできる。地面情報生成部1412は、エゴモーション演算部1411で獲得したエゴモーションを利用して地面情報を生成することもできる。
図9〜図13は、地面データを合成して地面情報、具体的に地図を獲得する過程の一実施形態を説明するための図である。
地面データ収集部13は、前述したように、歩行補助ロボット1の一定範囲内の地面データz1を第1時点tで収集することができる。収集した一定範囲内の地面データz1は、図9に示されるように、3次元で示され得る。着用者が移動すれば、地面データ収集部13は、第2時点t+Δtで新しい範囲内の地面データz2を収集することができる。第2時点t+Δtは、第1時点tで所定の時間Δtが経過した後の時点を意味する。新たに収集された新しい範囲内の地面データz2は、図10に示されるように3次元で示され得る。
図11を参照すれば、第1時点tで収集された地面データz1及び第2時点t+Δtで収集された地面データz2は、一定の領域z12で重畳され得る。地面情報生成部1412は、重畳された部分z12を利用して第1時点tに収集された地面データz1及び第2時点t+Δtで収集された地面データz2を合成することができる。その結果、地面情報生成部1412は、図12に示されるように、合成された地面データznを獲得することができる。合成された地面データznは、一定範囲内の地面に対する地図であり得る。
一実施形態によれば、第1時点tで収集された地面データz1及び第2時点t+Δtで収集された地面データz2を合成するために、地面情報生成部1412は、反復最近接点(ICP、iterative closet point)アルゴリズムを利用することができる。反復最近接点アルゴリズムは、複数の点群(clouds of point)間の異なることを最小化するためのアルゴリズムであって、複数の点群内の複数の点間の変換係数を獲得し、複数の点群間の関係を獲得するアルゴリズムである。
より具体的に、反復最近接点アルゴリズムによれば、まず、複数の点群のうちいずれか1つの点群内の少なくとも1つの点が選択され、他の点群中で選択された少なくとも1つの点と最も近接した少なくとも1つの点が検出される。次いで、いずれか1つの点群内で選択された点と他の点群内で検出された点との間の変換係数が推定される。この場合、変換係数は、所定の変換関数、例えば平均二乗費用関数(mean square cost function)などを利用して推定され得る。獲得された変換係数を利用してそれぞれの点を変換し、新しい変換された点群を獲得し、さらに変換された点群内の複数の点または変換された点群と元々の点群内の複数の点に対して前述した過程を繰り返して最終的な変換係数を獲得し、複数の点群間の関係を獲得することができる。
このような反復最近接点アルゴリズムによれば、複数の点群をマッチングするためのサイズ変換、回転、移動などに関連した変換関数を演算することができる。反復最近接点アルゴリズムは、リアルタイム(real−time)で行われ得るので、迅速に地面情報を生成することができるという長所を得ることができる。
一実施形態によれば、地面情報生成部1412は、エゴモーション演算部1411で演算されたエゴモーション値を初期値として反復最近接点アルゴリズムを行うことができる。
結果的に、地面情報生成部1412は、複数の地面データを組み合わせて地面情報を生成することができる。一方、地面情報生成部1412は、図9〜図12に示されるように、2つの時点t、t+Δtでの地面データz1及びz2を利用して地面情報を生成することもでき、図13に示されるように、3以上の時点での地面データz1〜z3を利用して地面情報を生成することもできる。
3以上の時点での地面データz1〜z3を利用して地面情報を生成する場合、多様な方法によって地面情報を生成及び獲得することができる。一実施形態によれば、まず、2つの時点での地面データz1及びz2を組み合わせた後、組み合わせられた地面情報とさらに他の地面データz3を組み合わせて、最終的な地面情報を獲得することができる。他の一実施形態によれば、3以上の時点での地面データを同時に組み合わせて、最終的な地面情報を獲得することもできる。
前述した反復最近接点アルゴリズムは、3以上の時点での地面データを組み合わせる場合にも利用することができる。
図14は、地面情報の一例として歩行方向前方の地面に対する地図の一例を示す図である。以下、説明の便宜のために歩行方向の前方の地面に対する地図を利用して地面情報の一例を説明するが、歩行方向の側方または後方の地面に対する地図は、地面情報の一例に利用され得る。
地面情報生成部1412は、前述したように、複数の地面データを組み合わせて、着用者の歩行方向の地面情報、一例として図14に示されるような地面に対する地図Lを生成することができる。
生成した地面情報Lは、一定範囲の地面の全部または一部の高さに対する情報を含むことができる。具体的に、図14を参照すれば、地面情報Lのうち明るい部分は、他の区域に比べて相対的に高い区域を意味し、暗い部分は、他の区域に比べて相対的に低い区域を意味する。言い替えれば、地面情報Lのうち明るい部分は、地面で突出した部分を、暗い部分は、地面で凹設された部分を意味する。
生成された地面情報は、地面形態決定部1413に伝達され得る。実施形態によって生成された地面情報は、地面形態決定部1413に伝達される前に、所定の格納空間、例えば中央処理装置のバッファーメモリ装置などに一時的に格納されてもよい。もちろん生成された地面情報が別途の記憶装置に非一時的に格納されることも可能である。
地面情報生成部1412は、一定の周期ごとに地面情報を生成することができる。これは、着用者が歩行をする場合、歩行の進行によって歩行方向の地面の形態などが続いて変更され得るからである。この場合、地面情報生成部1412は、地面データが収集される度に毎度地面情報を生成することもできる。しかし、地面情報生成部1412が必ず地面データが収集される度に地面情報を生成しなければならないものではない。この場合、一部の地面データは、地面情報収集に利用されずに、廃棄されてもよい。地面情報生成部1412が生成した地面情報は、一定周期ごとに廃棄されてもよい。
図15は、地面情報を管理する方法の一実施形態を説明するための図である。図15を参照すれば、制御部14の地面情報生成部1412は、最初に第1地面情報L1を生成し、所定の時間が経過した後、新しい第2地面情報L2を生成することができる。また、さらに所定の時間が経過すれば、また新しい第3地面情報L3を生成することができる。さらに所定の時間が経過すれば、新しい第4地面情報L4を生成することができる。
一方、着用者は、続いて歩行しているので、生成した地面情報は、一定時間が経過すれば、これ以上は、不要になり得る。例えば、図15に示されるように、時間の経過によって第1地面情報L1は、着用者が既に通過した地面に対する情報であることがある。したがって、第1地面情報L1は、これ以上不要な地面情報になることもある。この場合、制御部14は、従来の地面情報である第1地面情報L1は廃棄されてよい。第1地面情報L1の廃棄は、バッファーメモリ装置などの記憶装置から削除されるもので具現され得る。
制御部14は、生成した地面情報に基づいて歩行動作部20〜40を制御するための制御信号を生成し、歩行補助ロボット1を制御することができる。
一実施形態によれば、制御部14は、生成した地面情報に基づいて歩行補助ロボット1に対する制御パターンを決定し、決定した制御パターンによって歩行補助ロボット1を制御するための制御信号を生成することができる。
具体的に、制御部14は、図4に示されるように、地面形態決定部1413及び制御パターン決定部1414をさらに含むことができる。地面形態決定部1413は、生成した地面情報を利用して地面の形態を決定することができる。
図16は、基準地面及び比較地面を説明するための図である。一実施形態によれば、地面形態決定部1413は、図16に示されるように、生成された地面情報Lから基準地面p1及び比較地面p2を抽出し、抽出した基準地面p1と比較地面p2を利用して、一例として歩行方向の前方の地面がどんな種類の地面であるかを決定することができる。例えば、地面形態決定部1413は、歩行方向の前方の地面が平地地面であるか、階段地面であるかまたは上り坂地面や下り坂地面であるかを区分して決定することができる。
基準地面p1は、地面情報Lのうち地面の比較のための基準になる領域を意味する。地面情報が歩行方向の地面に対する情報の場合、基準地面p1は、歩行方向の地面のうち一部の地面であり得る。
地面形態決定部1413は、地面情報Lで所定の領域を選択した後、選択した所定の領域を基準地面p1として決定することができる。一実施形態において地面形態決定部1413は、地面情報Lで任意の領域を選択し、選択した領域を基準地面p1として決定することができる。他の一実施形態において、地面形態決定部1413は、地面情報Lで最も広い範囲を占有している領域を選択した後、選択した領域を基準地面p1として決定することもできる。
地面形態決定部1413は、地面情報Lを方向及び高さによって分類し、分類された複数の領域のうちいずれか1つを基準地面p1として決定するようにできる。したがって、基準地面p1は、ただ1つの方向及び高さに対する値を具備することもできる。複数回数の地面情報L1〜L4が生成された場合、地面形態決定部1413は、既に利用された地面情報L1で抽出された基準地面を新たに地面形態を決定するための地面情報L2の基準地面p1として選択することができる。言い替えれば、新しい地面情報L2から新たに抽出される基準地面p1は、既に利用された地面情報L1から抽出された地面情報の基準地面と同一であり得る。
比較地面p2は、地面情報Lのうち基準地面p1と比較されて地面の形態を判断するための領域である。地面情報が歩行方向の地面に対する情報である場合、比較地面p2は、前記歩行方向の地面のうち基準地面p1と異なる一部の地面であり得る。
地面形態決定部1413は、基準地面p1に該当しない他の区域の全部または一部を選択し、選択した区域を比較地面p2として決定することができる。この場合、地面形態決定部1413は、基準地面p1として選択されないすべての地面を比較地面p2として決定することができる。
一実施形態によれば、地面形態決定部1413は、図16に示されるように、1つの地面情報のうち特定の1つの区域のみを比較地面として決定することができる。他の実施形態によれば、地面形態決定部1413は、複数の区域を比較地面として決定することもできる。
図17は、基準地面及び比較地面を説明するためのさらに他の図である。
地面形態決定部1413は、RANSAC(RANdom SAmple Consensus)アルゴリズムを利用して、基準地面p1及び比較地面p2のうち少なくとも1つを決定することができる。
RANSACアルゴリズムは、位相を含む複数のデータ集団から数学的モデルを反復処理を通じて導出するためのアルゴリズムである。ここで、導出される数学的モデルは、一次元方程式であってもよく、二次元方程式であってもよく、さらに高い高次元方程式であってもよい。もちろん指数方程式やログ方程式であってもよい。
一実施形態によれば、地面形態決定部1413は、RANSACアルゴリズムを利用して生成された地面情報に含まれる複数のデータ集団から複数の方程式を獲得することができる。RANSACアルゴリズムによって獲得される複数の方程式は、互いに異なる高さまたは方向を具備した複数の区域を意味することができる。地面形態決定部1413は、獲得した複数の方程式によって表現される複数の互いに異なる区域のうちいすれか1つの区域を基準地面p1として決定し、他の区域を比較地面p2として決定することができる。この場合、基準地面p1を表現する所定の方程式は、下記の数式(1)のように表現され得る。
Figure 2015093188
数式(1)で、a、b及びcは、基準地面p1の方向を示す。数式(1)で、dは、基準地面p1の位置、一例として高さによって決定され得る値である。前述した数式(1)の係数は、図17の基準地面p1に示されるように、ベクトル形式で表現され得る。この場合、数式(1)は、下記の数式(2)のようにさらに使用され得る。
Figure 2015093188
また、比較地面p2を表現する所定の方程式は、下記の数式(3)のように表現され得る。
Figure 2015093188
数式(3)で、a、b及びcは、比較地面p2の方向を示し、dは、比較地面p2の位置、一例として高さによって決定され得る値である。前述したものと同様に、数式(3)の係数は、図17の比較地面p2に示されるようにベクトル形式で表現され得る。この場合、数式(3)は、下記の数式(4)のようにさらに使用され得る。
Figure 2015093188
他の実施形態によれば、地面形態決定部1413は、まず、基準地面p1と比較地面p2を決定し、RANSACアルゴリズムを利用して生成された地面情報のうち基準地面p1に含まれる複数のデータ集団のうち基準地面p1を表現するための所定の方程式を獲得し、同一の方法で生成された地面情報のうち比較地面p2に含まれる複数のデータ集団のうち比較地面p2を表現するための所定の方程式を獲得することができる。基準地面p1を表現するための所定の方程式及び比較地面p2を表現するための所定の方程式は、前述した数式(1)及び数式(3)で使用され得る。もちろん基準地面p1を表現するための所定の方程式及び比較地面p2を表現するための所定の方程式は、数式(2)及び数式(4)で使用され得る。
地面形態決定部1413は、このように決定された基準地面p1及び比較地面p2を利用して地面形態を決定することができる。地面形態決定部1413は、地面形態の決定のために別途の地面データベース1420を参照することもできる。具体的に、地面形態決定部1413は、基準地面p1及び比較地面p2に対する情報を獲得した後、地面データベース1420で獲得した情報に対応する部分があるか否かを検索し、地面形態を決定することができる。
図18は、基準地面及び比較地面によって決定される地面の一例を説明するための図である。前述したように、基準地面p1及び比較地面p2が決定されれば、地面形態決定部1413は、基準地面p1と比較地面p2のサイズを比較し、比較結果によって地面形態を決定することができる。もし比較地面p2の広さが基準地面p1の広さよりあらかじめ定められた値または比率より小さいかを判断し、比較地面p2の広さが基準地面p1の広さよりあらかじめ定められた値または比率より小さい場合、地面形態決定部1413は、比較地面p2を障害物、一例として凹凸として判断することができる。この場合、あらかじめ定められた値または比率は、別途の地面データベース1420に格納されていてもよい。
または、地面形態決定部1413は、比較地面p2の絶対的広さを演算し、演算された絶対的広さがあらかじめ定められた値より小さいか否かを判断した後、比較地面p2の絶対的広さがあらかじめ定められた値より小さい場合、比較地面p2を障害物、一例として凹凸として判断することができる。地面形態決定部1413は、比較地面p2が障害物、例えば凹凸として判断される場合、比較地面p2の位置やサイズなどに対する情報を地面情報などから抽出し、抽出した比較地面p2の位置やサイズなどに対する情報を歩行補助ロボット1を制御するのに反映することができる。
一実施形態によれば、地面形態決定部1413は、獲得した基準地面p1に対する方程式またはベクトル値と比較地面p2に対する方程式またはベクトル値を利用して地面形態を決定することができる。
図19は、基準地面及び比較地面によって決定される地面の他の例を説明するための図である。図19に示されるように、1つの基準地面p1と複数の比較地面p2〜p4が決定された場合、地面形態決定部1413は、各地面の方向及び高さを比較することができる。もし図19に示されるように、基準地面p1と複数の比較地面p2〜p4の方向a、b、cがすべて同一であり、且つただ地面の位置によって決定され得る値dだけが異なっている場合、地面形態決定部1413は、地面の形態を階段に決定することができる。
図19を参照すれば、基準地面p1と複数の比較地面p2〜p4の方向が同一であれば、基準地面p1と複数の比較地面p2〜p4は、互いに平行であることを意味する。しかし、地面の位置によって決定され得る値dが互いに異なっているので、基準地面p1と複数の比較地面p2〜p4間の位置、すなわち高さは、互いに異なっていてよい。したがって、地面情報は、互いに平行であり、且つ高さが異なる複数の地面を含んでいることが分かり、これに対応する地面の形態は、階段地形であるから、地面形態決定部1413は、地面の形態を階段に決定することができる。
図19では、上り坂階段である場合のみが示されているが、地面形態決定部1413は、下り坂階段である場合にも同一に地面の形態を階段に決定することができる。この場合、地面の位置によって決定され得る値dは、上り坂階段である場合と異なっているように与えられる。したがって、地面形態決定部1413は、地面の位置によって決定され得る値dによって歩行方向の階段が上り坂階段であるか、または下り坂階段であるかを決定することができる。
図20は、基準地面及び比較地面によって決定される地面のさらに他の例を説明するための図である。図20に示されるように、1つの基準地面p1と複数の比較地面p2及びp3が決定された場合、前述したものと同様に、地面形態決定部1413は、各地面の方向及び高さを比較することができる。もし図20に示されるように、いずれか1つの比較地面p2の方向a2、b2、c2が基準地面p1の方向a1、b1、c1と異なっている場合、地面形態決定部1413は、地面の形態を上り坂傾斜または下り坂傾斜に決定することができる。
図20を参照すれば、基準地面p1といずれか1つの比較地面p2の方向が異なる場合、基準地面p1と他のいずれか1つの比較地面p2は、互いに平行しないことを意味することができる。したがって、基準地面p1と他のいずれか1つの比較地面p2との間の角度は、0ではない他の値を有することができる。このように基準地面p1といずれか1つの比較地面p2ととの間の角度が0ではない場合、両地面の傾斜は、互いに異なるものなので、地面形態決定部1413は、地面の形態を上り坂傾斜または下り坂傾斜に決定することができる。もし基準地面p1が平地である場合、比較地面p2は、上り坂傾斜または下り坂傾斜に決定されることができる。もし基準地面p1が平地ではない上り坂傾斜または下り坂傾斜である場合、比較地面p2は、平地に決定されることもでき、上り坂傾斜または下り坂傾斜に決定され得る。基準地面p1が上り坂傾斜または下り坂傾斜である場合、比較地面がどんな種類の地面であるか否かは、基準地面p1と比較地面p2との間の角度によって決定され得る。基準地面p1と比較地面p2との間の角度は、複数ベクトルの角度を求める多様な公式を利用して演算され得る。
この場合、上り坂傾斜であるかまたは下り坂傾斜である否かは、傾斜地面に該当する比較地面p2のd値に基づいて判断することができる。または、いずれか1つの比較地面p2が上り坂傾斜であるかまたは下り坂傾斜であるか否かは、基準地面p1と他の比較地面p3の位置、言い替えれば、比較地面p3の高さによって決定されてもよい。もし他の比較地面p3の位置が基準地面p1の位置よりさらに高い所に存在すれば、いずれか1つの比較地面p2は、上り坂傾斜と判断することができる。逆に、他の比較地面p3の位置が基準地面p1の位置よりさらに低い所に存在すれば、いずれか1つの比較地面p2は、下り坂傾斜と判断することができる。
一方、図20に示されるように、さらに他の比較地面p3の方向a1、b1、c1が基準地面p1の方向a1、b1、c1と同一であり、ただd値だけが異なっている場合、基準地面p1とさらに他の比較地面p3は、互いに平行であり、且つ高さだけが異なる場合なので、地面形態決定部1413は、さらに他の比較地面p3で上り坂傾斜または下り坂傾斜が終わると判断することができる。
以上、図18〜図20を通じて説明した地面形態を決定する方法の一例は、地面データベース1420に格納されていてもよい。
地面形態決定部1413が地面形態を決定すれば、決定された地面形態は、制御部14の制御パターン決定部1414に伝達され得る。
制御部14の制御パターン決定部1414は、地面形態決定部1413に決定した地面形態によって歩行補助ロボット1の制御パターンを決定することができる。例えば、図18に示されるように、地面に障害物が存在する場合なら、制御パターン決定部1414は、地面に存在する障害物を回避することができるように歩行補助ロボット1の制御パターンを決定することができる。もし図19に示されるように地面の形態が階段である場合、制御パターン決定部1414は、着用者が階段を上がるかまたは下がることを補助することができるように歩行補助ロボット1の制御パターンを決定することができる。もし図20に示されるように地面の形態が上り坂傾斜または下り坂傾斜である場合、制御パターン決定部1414は、着用者の上り坂傾斜または下り坂傾斜の歩行を補助することができるように歩行補助ロボット1の制御パターンを決定することができる。
一実施形態によれば、制御パターン決定部1414は、歩行環境に相当する制御パターンに構築された制御パターンデータベース1421を閲覧し、地面形態に相当する制御パターンを制御パターンデータベース1421で検出し、歩行補助ロボット1の制御パターンを決定することもできる。
制御パターンデータベース1421は、着用者が歩行する歩行環境である地面の形態によって着用者を補助するための多様な制御パターンが格納されていてもよい。下記の表1は、制御パターンデータベース1421に格納されることができる多様なパターンの一例を示すものである。
Figure 2015093188
制御部14は、制御信号生成部1415を含むことができる。制御パターン決定部1414が歩行補助ロボット1に対する制御パターンを決定すれば、制御信号生成部1415は、決定された制御パターンによって所定の制御信号を生成し、生成した制御信号を第1駆動部21a、21b及び第2駆動部31a、31bのうち少なくとも1つに伝達することができる。制御信号生成部1415で伝達される制御信号によって歩行補助ロボット1の歩行動作部20〜40は、着用者の歩行を支持できるように駆動することができる。以下、制御信号によって歩行補助ロボット1が駆動する一例について説明する。以下説明する歩行補助ロボット1の一例は、単純に例示に過ぎず、設計者または着用者の任意的選択によって多様な駆動例が存在し得る。
表1に示されるように、歩行補助ロボット1は平地である場合、一般的な歩行サイクルにしたがって歩行を補助することができるように制御されることができる。
もし障害物が地面に存在する場合、障害物が存在する位置に歩行する足に着用された第1駆動部21a、21bは、平常時の歩行よりさらに大きい回転力を発生させるように制御され得る。その結果、着用者は、容易に大腿部を平常時の歩行よりさらに高く持ち上げて障害物を回避することができる。
もし着用者が歩行中であるか、または、歩行する地面が上り坂傾斜である場合、第1駆動部21a、21bは、傾斜度によって平常時の歩行よりさらに大きい回転力で所定の方向に回転し、使用者が容易に大腿部を持ち上げるようにする。次いで、第1駆動部21a、21bは、所定の方向の反対方向に平常時の歩行よりさらに短く回転しながら、大腿部を持ち上げる前に触れた地面よりさらに高い位置の地面に足が触れるようにすることができる。
もし着用者が階段を上がるか、または、上がる直前の場合、第1駆動部21a、21bは、平常時の歩行よりさらに大きい回転力で所定の方向に回転し、使用者が容易に大腿部を持ち上げる。次いで、第1駆動部21a、21bは、平常時の歩行より反対方向にさらに短く回転し、且つ第2駆動部31a、31bは、階段の上面に着用者の足が保持することができるように一定の角度で回転し、使用者が容易に階段を上がるように補助することができる。
一方、歩行補助ロボット1の本体部10は、必要に応じて前述した地面データ収集部13及び制御部14に電力を供給するためのバッテリー15をさらに含むことができる。バッテリー15は、実施形態によって1次電池であってもよく、2次電池であってもよい。実施形態によって、本体部10は、バッテリー15の代わりに、別途の発電機をさらに含むこともできる。
以下、図21を参照して歩行補助ロボットの他の一実施形態について説明する。図21は、歩行補助ロボットの他の一実施形態に対する構成図である。
図21に示されるように、歩行補助ロボット1は、通信モジュール16をさらに含むことができる。通信モジュール16は、有線または無線通信ネットワークを利用して所定のデータを外部の装置に送信するか、または、外部の装置から所定のデータを受信することができる。通信モジュール16は、外部の装置から地面情報を受信することができる。
一実施形態によれば、設計者や着用者が所定の位置に対する地面情報を事前に獲得し、データベースの形態で構築した後、サーバー装置などに設けられた場合、歩行補助ロボット1の通信モジュール16は、地面情報で構築されたデータベースが設けられたサーバー装置などから地面情報を受信することができる。さらに他の一実施形態によれば、特定区域を移動する着用者の歩行補助ロボット1の通信モジュール16が、特定区域をあらかじめ移動した他の着用者の歩行補助ロボット1で生成された地面情報を受信することもできる。この場合、他の着用者の歩行補助ロボット1の通信モジュール16は、生成された地面情報を着用者の歩行補助ロボット1の通信モジュール16に伝送することもできる。
着用者があらかじめ地面に対する地面情報が獲得された場所に位置すれば、通信モジュール16は、着用者が地面情報が獲得された場所に相当する地面情報を受信し、受信した地面情報を地面形態決定部1413に伝達することができる。この場合、衛星航法装置(GPS、global positioning system)のような各種位置確認装置(location system)を利用すれば、着用者があらかじめ地面に対する地面情報が獲得された場所に位置するか否かを確認することができる。
以上、地面情報、一例として歩行方向の地図が地面データ収集部13a、13bによって収集された地面データに基づいて生成されるか、または通信モジュール16を通じて受信する一実施形態について説明したが、地面情報は、他の実施形態によれば、歩行補助ロボット1の所定の記憶装置にあらかじめ格納されていてもよい。この場合、地面情報は、着用者が所定の区域を歩行する前にあらかじめ生成及び獲得されたものであってもよい。
以下、図22〜図24を参照して歩行補助ロボットを制御する方法の一実施形態について説明する。図22は、歩行補助ロボット制御方法の一実施形態に対する流れ図である。図22に示されるように、歩行補助ロボット1の制御方法は、まず、地面情報を獲得する段階(s100)と、獲得した地面情報に基づいて歩行補助ロボット1に対する制御パターンを決定する段階(s200)と、決定した制御パターンによって歩行補助ロボット1を制御する段階(s300)とを含むことができる。
地面情報を獲得する段階(s100)は、前述した地面データ収集部13及び制御部14によって行われ得る。他の実施形態によれば、地面情報を獲得する段階(s100)は、前述した通信モジュール16及び制御部14によって行われ得る。
図23は、地面情報を獲得する段階の一実施形態を説明するための流れ図である。図23に示されるように、地面情報を獲得する段階(s100)は、まず、複数の地面データを獲得する段階(s110)と、地面データ収集部13のエゴモーションを演算する段階(s120)と、複数の地面データを組み合わせて(s130)、地面情報を獲得する段階(s140を含むことができる。
複数の地面データの獲得は、図1〜図4に示された地面データ収集部13によって行われ得る。複数の地面データは、地面データ収集部13が収集した可視光線または赤外線を電気的信号に変換して獲得されたものであってもよい。複数の地面データは、歩行方向の前方、後方及び側方のうち地面に対する地面データを含んでよい。
歩行方向の地面に対する複数の地面データが獲得されれば、図5〜図8に示されるように、獲得された地面データを利用して地面データ収集部13のエゴモーション値が演算され得る(s120)。エゴモーションの演算段階は、複数の地面データ合成段階(s130)の前に行われることもでき、複数の地面データ合成段階(s130)の後にも行われ得る。
複数の地面データが獲得されれば、図9〜図13に示されるように、複数の地面データが合成され(s130)、地面情報が獲得され得る(s140)。ここで、地面情報は、図14に示されるように地図であってよい。地面情報は、一定の周期で獲得されることができ、これ以上使用されない地面情報は除去され得る。
前述したエゴモーション演算段階(s120)、地面データ組合段階(s130)及び地面情報を獲得段階(s140)は、中央処理装置やグラフィック処理装置などを含む制御部14によって行われることができる。
以上説明したように、地面情報が獲得されれば、図22に示されるように、獲得した地面情報に基づいて歩行補助ロボット1に対する制御パターンを決定し(s200)、決定した制御パターンによって歩行補助ロボット1が制御され得る。制御パターンの決定(s200)及び歩行補助ロボット1の制御は、前述した制御部14で行われ得る。
図24は、歩行補助ロボットを制御する方法の一実施形態に対する流れ図である。図24に示されるように、前述のように、地面情報、一例として図15に示されたような地図が獲得された後、地図で基準地面が抽出され得る(s210)。基準地面の抽出と同時にまたは基準地面が抽出された後に、地図で比較地面が抽出され得る(s220)。
基準地面は、地図から任意に選択された所定の領域であってよい。また、基準地面は、地図から最も広い範囲を占有している領域であってもよい。比較地面は、地図で基準地面に該当しない他の区域であり得る。比較地面は、地図からただ1つだけ抽出されることもでき、複数個が抽出され得る。
基準地面及び比較地面が抽出されれば、基準地面及び比較地面のうち少なくとも1つを利用して制御パターンを決定することができる。
まず、比較地面の面積の広さとあらかじめ定義された値を比較し(s230)、比較地面の面積があらかじめ定義された値より小さい場合、比較地面を障害物、一例として凹凸地面に決定することができる(s231)。そして、比較地面の位置及びサイズなどを獲得し、障害物、一例として凹凸の位置及び凹凸と関連した情報を抽出することができる(s232)。次いで、抽出された比較地面の位置及びサイズなどによって障害物を回避するための新しい制御パターンが決定され得る(s270)。新しい制御パターンが決定される場合、新しい制御パターンによって歩行補助ロボット1が制御され得る。
まず、比較地面の面積の広さとあらかじめ定義された値を比較し、比較地面の面積があらかじめ定義された値より大きい場合、基準地面の方向と比較地面の方向を互いに比較し、基準地面及び比較地面の方向が平行であるかを決定することができる(s240)。基準地面の方向と比較地面の方向の比較のために、前述したRANSACアルゴリズムによって獲得された基準地面及び比較地面の方程式の係数が利用され得る。
もし基準地面の方向と比較地面の方向が互いに異なっていて、基準地面が平地である場合、比較地面傾斜地面に決定され得る(s241)。もし基準地面の方向と比較地面の方向が互いに異なっていて、基準地面が傾斜地面である場合、比較地面は、傾斜地面または平地地面に決定され得る。傾斜地面は、上り坂地面であってもよく、下り坂地面であってもよい。次いで、抽出された比較地面の傾斜度などによって傾斜地面で歩行するための新しい制御パターンが決定され得る(s270)。新しい制御パターンが決定される場合、新しい制御パターンによって歩行補助ロボット1が制御され得る。
もし基準地面の方向と比較地面の方向が互いに同一である場合、基準地面及び比較地面の高さが同一であるか否かを判断することができる(s250)。もし基準地面の方向と比較地面の方向が互いに同一であるが、基準地面及び比較地面の高さが互いに異なる場合、比較値面は、階段地面に決定され得る(s251)。もし基準地面の位置が比較地面の位置より高い場合、比較地面は、下り坂階段地面に決定され得る。逆に、基準地面の位置が比較地面の位置より低い場合、比較地面は、上り坂階段地面に決定され得る。そして、階段それぞれの広さや階段の間の高さなどによって階段地面で歩行するための新しい制御パターンが決定され得る(s270)。新しい制御パターンが決定される場合、新しい制御パターンによって歩行補助ロボット1が制御され得る。
もし基準地面の方向と比較地面の方向が互いに同一であり、基準地面の位置と比較地面の高さが同一である場合、地面は、変化がない同一地形に決定され得る(s260)。地面は、変化がない同一地形であるから、別に新しい制御パターンを獲得する必要がない。したがって、既存の制御パターンによって歩行補助ロボット1を制御することができる(s261)。
このような制御過程s210〜s271は、歩行補助ロボット1が停止するまで続いて繰り返され得る(s280)。
10 本体部
11 腰支持部
12 固定手段
20 歩行動作部
21 第1駆動部
22 第1支持部
23 第1固定手段
30 第2構造部
31 第2駆動部
32 第2支持部
33 第2固定手段
40 第3構造部
41 第3固定手段
42 足保持部
43 第4固定手段

Claims (20)

  1. 地面情報を獲得する地面情報獲得段階と;
    前記獲得した地面情報を分析し、歩行補助ロボットに対する制御パターンを決定する制御パターン決定段階と;
    前記決定した制御パターンに基づいて前記歩行補助ロボットを制御する歩行補助ロボット制御段階と;を含む
    ことを特徴とする歩行補助ロボットの制御方法。
  2. 前記地面情報は、前記歩行補助ロボットの歩行方向の前方、後方及び側方のうち少なくとも1つの方向に位置する地面に対する情報を含む
    請求項1に記載の歩行補助ロボットの制御方法。
  3. 前記地面情報獲得段階は、地面データ収集装置が複数の地面データを獲得する地面データ獲得段階と;前記獲得した地面データに基づいて前記地面情報を生成する地面情報生成段階と;を含む
    請求項1または2に記載の歩行補助ロボットの制御方法。
  4. 前記地面情報は、地面に対する地図である
    請求項1乃至3いずれか一項に記載の歩行補助ロボットの制御方法。
  5. 前記地面情報獲得段階は、前記地面データ収集装置のエゴ−モーション(ego−motion)を演算する段階;をさらに含む
    請求項3に記載の歩行補助ロボットの制御方法。
  6. 前記地面情報生成段階は、前記獲得された複数の地面データを組み合わせて地図を生成する段階;を含む
    請求項3に記載の歩行補助ロボットの制御方法。
  7. 前記制御パターン決定段階は、前記獲得した地面情報を分析し、複数の地面形態のうち少なくとも1つの地面形態を決定する地面形態決定段階と;前記決定された地面形態によって前記歩行補助ロボットに対する制御パターンを決定する制御パターン決定段階と;を含む
    請求項1乃至6いずれか一項に記載の歩行補助ロボットの制御方法。
  8. 前記複数の地面形態は、平地地面、上り坂傾斜地面、下り坂傾斜地面、上り坂階段地面、下り坂階段地面及び障害物地面のうち少なくとも1つを含む
    請求項7に記載の歩行補助ロボットの制御方法。
  9. 前記地面情報は、基準地面及び少なくとも1つの比較地面に対する情報を含む
    請求項7に記載の歩行補助ロボットの制御方法。
  10. 前記地面形態決定段階は、前記基準地面及び少なくとも1つの前記比較地面を決定し、前記決定された基準地面及び前記比較地面のうち少なくとも1つを利用して前記複数の地面形態のうち少なくとも1つの地面形態を決定する段階;を含み、
    前記地面形態決定段階は、
    前記少なくとも1つの比較地面のサイズがあらかじめ定義された値より小さい場合、前記少なくとも1つの比較地面の地面を凹凸地形に決定する段階;
    前記基準地面の方向及び前記比較地面の方向が互いに平行であり、地面の高さが異なっている場合、階段地形に決定する段階;または、
    前記地面形態決定段階は、
    前記基準地面の方向及び前記比較地面の方向が互いに異なっている場合、傾斜地形に決定する段階;を含む
    請求項9に記載の歩行補助ロボットの制御方法。
  11. 地面に対する複数の地面データを収集する地面データ収集部と;
    前記複数の地面データに基づいて地面に対する情報である地面情報を生成し、前記生成した地面情報を分析し、歩行補助ロボットに対する制御パターンを決定する制御部と;を含む
    ことを特徴とする歩行補助ロボット。
  12. 前記地面データ収集部は、前記歩行補助ロボットの歩行方向の前方、後方及び側方のうち少なくとも1つの方向に位置する地面に対する複数の地面データを収集する
    請求項11に記載の歩行補助ロボット。
  13. 前記地面情報は、地面に対する地図である
    請求項11または12に記載の歩行補助ロボット。
  14. 前記制御部は、前記地面データ収集部のエゴ−モーションを演算する
    請求項11または12に記載の歩行補助ロボット。
  15. 前記制御部は、前記収集した複数の地面データを組み合わせて地図を生成する
    請求項11または12に記載の歩行補助ロボット。
  16. 前記制御部は、前記生成した地面情報を分析し、複数の地面形態のうち少なくとも1つの地面形態を決定し、前記決定された地面形態によって前記歩行補助ロボットに対する制御パターンを決定する
    請求項11乃至15いずれか一項に記載の歩行補助ロボット。
  17. 前記複数の地面形態は、平地地面、上り坂傾斜地面、下り坂傾斜地面、上り坂階段地面、下り坂階段地面及び障害物地面のうち少なくとも1つを含む
    請求項16に記載の歩行補助ロボット。
  18. 前記地面情報は、基準地面及び少なくとも1つの比較地面に対する情報を含むことを特徴とする請求項16に記載の歩行補助ロボット。
  19. 前記制御部は、前記基準地面及び少なくとも1つの前記比較地面を決定し、前記決定された基準地面及び前記比較地面のうち少なくとも1つを利用して前記複数の地面形態のうち少なくとも1つの地面形態を決定し、
    前記制御部は、
    前記少なくとも1つの比較地面のサイズがあらかじめ定義された値より小さい場合、前記少なくとも1つの比較地面の地面を凹凸地形に決定し、
    前記基準地面の方向及び前記比較地面の方向が互いに平行であり、地面の高さが異なっている場合、階段地形に決定し、または、
    前記基準地面の方向及び前記比較地面の方向が互いに異なっている場合、傾斜地形に決定する
    請求項16乃至18いずれか一項に記載の歩行補助ロボット。
  20. 地面情報を受信する地面情報受信部と;
    前記受信した地面情報を分析し、歩行補助ロボットに対する制御パターンを決定し、前記決定した制御パターンに基づいて歩行補助ロボットを制御する制御部と;
    を含む歩行補助ロボット。
JP2014159869A 2013-11-08 2014-08-05 歩行補助ロボット及び歩行補助ロボットの制御方法 Active JP6472959B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020130135777A KR102172954B1 (ko) 2013-11-08 2013-11-08 보행 보조 로봇 및 보행 보조 로봇의 제어 방법
KR10-2013-0135777 2013-11-08

Publications (2)

Publication Number Publication Date
JP2015093188A true JP2015093188A (ja) 2015-05-18
JP6472959B2 JP6472959B2 (ja) 2019-02-20

Family

ID=51870884

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014159869A Active JP6472959B2 (ja) 2013-11-08 2014-08-05 歩行補助ロボット及び歩行補助ロボットの制御方法

Country Status (5)

Country Link
US (1) US9861501B2 (ja)
EP (1) EP2894011B1 (ja)
JP (1) JP6472959B2 (ja)
KR (1) KR102172954B1 (ja)
CN (1) CN104635732B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018052144A1 (ja) * 2016-09-16 2018-03-22 株式会社 東芝 動作支援方法及び動作支援装置
JP2018047547A (ja) * 2016-09-16 2018-03-29 株式会社東芝 動作支援方法及び動作支援装置

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8828093B1 (en) * 2008-04-15 2014-09-09 Rehabilitation Institute Of Chicago Identification and implementation of locomotion modes using surface electromyography
KR102275241B1 (ko) * 2013-12-06 2021-07-12 삼성전자주식회사 신호의 변환 및 복원 방법, 신호의 변환 및 복원 시스템, 원본 신호 변환 방법, 원본 신호 변환 장치 및 원본 신호 복원 방법
US9259838B1 (en) * 2014-07-24 2016-02-16 Google Inc. Systems and methods for ground plane estimation
US9907722B2 (en) * 2014-08-15 2018-03-06 Honda Motor Co., Ltd. Admittance shaping controller for exoskeleton assistance of the lower extremities
US9618937B1 (en) * 2014-08-25 2017-04-11 Google Inc. Slip detection using robotic limbs
KR102292683B1 (ko) 2014-09-12 2021-08-23 삼성전자주식회사 보행 환경 인식 방법 및 장치
US20160158593A1 (en) * 2014-12-04 2016-06-09 Florida Institute for Human and Machine Cognition Exoskeleton-Based Exercise and Training Device
US9594377B1 (en) * 2015-05-12 2017-03-14 Google Inc. Auto-height swing adjustment
KR102034021B1 (ko) * 2015-08-10 2019-10-18 한국전자통신연구원 헬스케어 유닛 기반 시뮬레이터 및 이를 이용한 시뮬레이션 방법
KR102452632B1 (ko) * 2015-08-17 2022-10-07 삼성전자주식회사 운동 보조 장치 및 그 제어 방법
KR102482436B1 (ko) * 2015-09-02 2022-12-28 삼성전자주식회사 보행 보조 장치 및 그 동작 방법
CN105404302A (zh) * 2015-12-03 2016-03-16 联想(北京)有限公司 一种移动装置及控制方法
US10195099B2 (en) 2016-01-11 2019-02-05 Bionic Power Inc. Method and system for intermittently assisting body motion
TW201727418A (zh) * 2016-01-26 2017-08-01 鴻海精密工業股份有限公司 分析地面紋理並結合資料記錄的自動行走建議系統及方法
CN105795571B (zh) * 2016-04-13 2018-02-27 电子科技大学 一种用于外骨骼压力鞋的数据采集系统及方法
JP6697768B2 (ja) * 2016-06-29 2020-05-27 パナソニックIpマネジメント株式会社 歩行支援ロボット及び歩行支援方法
EP3308912B1 (en) * 2016-08-17 2020-09-09 Power Assist International Corporation Wearable assistance robot device
CN109789048A (zh) * 2016-10-07 2019-05-21 重新行走机器人技术有限公司 用于外骨骼系统中的压力检测的装置、系统和方法
US10300609B2 (en) * 2016-12-15 2019-05-28 Boston Dynamics, Inc. Motor and controller integration for a legged robot
KR20180096241A (ko) 2017-02-21 2018-08-29 삼성전자주식회사 보행 보조 장치의 제어 방법 및 장치
FR3069664B1 (fr) * 2017-07-31 2019-08-30 Safran Electronics & Defense Procede d’assistance d’au moins un mouvement d’un utilisateur et dispositif correspondant
US20210369533A1 (en) * 2017-09-22 2021-12-02 North Carolina State University Hip exoskeleton
CN108297964A (zh) * 2018-02-11 2018-07-20 坎德拉(深圳)科技创新有限公司 双足机器人及其行走控制方法
CN109242038A (zh) * 2018-09-25 2019-01-18 安徽果力智能科技有限公司 一种用于标签不足情况的机器人地形分类器训练方法
TWI702039B (zh) * 2018-10-05 2020-08-21 楊進松 關節退化輔助器
US11141344B2 (en) 2018-12-27 2021-10-12 Chin-Sung Yang Assistant apparatus for degenerative joint
CN112223253B (zh) * 2019-07-15 2022-08-02 上海中研久弋科技有限公司 外骨骼系统、外骨骼识别控制方法、电子装置及储存介质
TWI773947B (zh) * 2019-12-06 2022-08-11 緯創資通股份有限公司 控制裝置、外骨骼系統及控制方法
CN111000567B (zh) * 2019-12-26 2021-07-20 浙江福祉科创有限公司 一种用于可穿戴式设备的人体行走状态识别方法及该设备
CN111230888A (zh) * 2020-03-23 2020-06-05 江苏科技大学 一种基于rgbd相机的上肢外骨骼机器人避障方法
CN111930135B (zh) * 2020-08-12 2023-09-05 深圳航天科技创新研究院 基于地形判断的主动助力控制方法、装置及外骨骼机器人
CN112558599B (zh) * 2020-11-06 2024-04-02 深圳拓邦股份有限公司 机器人工作控制方法、装置及机器人
CN112587378B (zh) * 2020-12-11 2022-06-07 中国科学院深圳先进技术研究院 基于视觉的外骨骼机器人足迹规划系统、方法及存储介质
CN112754872A (zh) * 2020-12-29 2021-05-07 珠海新天地科技有限公司 一种辅助机器人行走的方法
CN113211428B (zh) * 2021-04-07 2022-05-17 长春工业大学 一种变刚度串联弹性驱动装置
CN113681541B (zh) * 2021-08-12 2022-11-25 杭州程天科技发展有限公司 一种基于物联网的外骨骼控制系统及方法
CN116872179B (zh) * 2023-07-17 2024-05-24 电子科技大学 一种基于深度摄像头的外骨骼机器人可行域参数分析系统

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001212782A (ja) * 2000-01-31 2001-08-07 Sony Corp ロボット装置及びロボット装置の制御方法
JP2005092820A (ja) * 2003-09-19 2005-04-07 Sony Corp 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置
JP2009266224A (ja) * 2008-04-22 2009-11-12 Honeywell Internatl Inc リアルタイム・ビジュアル・オドメトリの方法およびシステム
JP2010110381A (ja) * 2008-11-04 2010-05-20 Toyota Motor Corp 歩行補助装置
JP2012501739A (ja) * 2008-09-04 2012-01-26 アイウォーク・インコーポレーテッド ハイブリッド型地形適応下肢システム
JP2012115314A (ja) * 2010-11-29 2012-06-21 Equos Research Co Ltd 歩行支援装置、及び歩行支援プログラム
JP2012205826A (ja) * 2011-03-30 2012-10-25 Equos Research Co Ltd 歩行支援装置、及び歩行支援プログラム
US20130093852A1 (en) * 2011-10-12 2013-04-18 Board Of Trustees Of The University Of Arkansas Portable robotic device
JP2013070785A (ja) * 2011-09-27 2013-04-22 Equos Research Co Ltd 歩行支援装置
JP2013075044A (ja) * 2011-09-30 2013-04-25 Equos Research Co Ltd つまずき検知装置、歩行補助装置、及びつまずき検知方法
JP2013206237A (ja) * 2012-03-29 2013-10-07 Denso It Laboratory Inc 自律走行ロボット及び自律走行ロボットの走行制御方法

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE526913C2 (sv) * 2003-01-02 2005-11-15 Arnex Navigation Systems Ab Förfarande i form av intelligenta funktioner för fordon och automatiska lastmaskiner gällande kartläggning av terräng och materialvolymer, hinderdetektering och styrning av fordon och arbetsredskap
US7645246B2 (en) * 2004-08-11 2010-01-12 Omnitek Partners Llc Method for generating power across a joint of the body during a locomotion cycle
US8579771B2 (en) * 2004-08-11 2013-11-12 Omnitek Partners Llc Walk-assist devices and methods
JP4178187B2 (ja) 2005-01-26 2008-11-12 国立大学法人 筑波大学 装着式動作補助装置及び制御用プログラム
US20070123997A1 (en) 2005-03-31 2007-05-31 Massachusetts Institute Of Technology Exoskeletons for running and walking
US10080672B2 (en) * 2005-03-31 2018-09-25 Bionx Medical Technologies, Inc. Hybrid terrain-adaptive lower-extremity systems
US8512415B2 (en) * 2005-03-31 2013-08-20 Massachusetts Institute Of Technology Powered ankle-foot prothesis
US8500823B2 (en) * 2005-03-31 2013-08-06 Massachusetts Institute Of Technology Powered artificial knee with agonist-antagonist actuation
US8577538B2 (en) * 2006-07-14 2013-11-05 Irobot Corporation Method and system for controlling a remote vehicle
US8775066B2 (en) * 2006-07-05 2014-07-08 Topcon Positioning Systems, Inc. Three dimensional terrain mapping
CN1943531B (zh) * 2006-10-19 2010-05-12 上海大学 基于仿生学的多功能电动助步轮椅
KR100917377B1 (ko) 2007-03-30 2009-09-16 성균관대학교산학협력단 인식/추론 수준에 따른 계층적 구조의 실내 정보를 가지는서비스 로봇의 중앙 정보처리 시스템 및 방법
KR100926760B1 (ko) * 2007-12-17 2009-11-16 삼성전자주식회사 이동 로봇의 위치 인식 및 지도 작성 방법
KR100927335B1 (ko) 2008-02-27 2009-11-19 성균관대학교산학협력단 3차원 회전대칭형 물체의 자가 모델링 방법 및 장치
US8096965B2 (en) 2008-10-13 2012-01-17 Argo Medical Technologies Ltd. Locomotion assisting device and method
US20100208981A1 (en) * 2009-02-13 2010-08-19 Harris Corporation Method for visualization of point cloud data based on scene content
US20100238161A1 (en) 2009-03-19 2010-09-23 Kenneth Varga Computer-aided system for 360º heads up display of safety/mission critical data
WO2011002306A1 (en) * 2009-07-01 2011-01-06 Rex Bionics Limited Control system for a mobility aid
US8532924B2 (en) * 2009-09-02 2013-09-10 Alpine Electronics, Inc. Method and apparatus for displaying three-dimensional terrain and route guidance
US20110169923A1 (en) * 2009-10-08 2011-07-14 Georgia Tech Research Corporatiotion Flow Separation for Stereo Visual Odometry
JP5588724B2 (ja) 2010-04-23 2014-09-10 本田技研工業株式会社 歩行運動補助装置
CA2812792C (en) 2010-10-06 2018-12-04 Ekso Bionics Human machine interfaces for lower extremity orthotics
US9097538B1 (en) * 2011-01-12 2015-08-04 Steve Bush Rover
US9687377B2 (en) * 2011-01-21 2017-06-27 Bionx Medical Technologies, Inc. Terrain adaptive powered joint orthosis
CN102125488B (zh) * 2011-04-18 2012-10-10 中国科学院自动化研究所 行星轮式爬楼梯电动轮椅
JP2013070787A (ja) * 2011-09-27 2013-04-22 Equos Research Co Ltd 歩行支援装置
US9117281B2 (en) 2011-11-02 2015-08-25 Microsoft Corporation Surface segmentation from RGB and depth images
CN202397747U (zh) * 2011-12-08 2012-08-29 华南理工大学 助老与助残机器人
CN102614055B (zh) * 2012-04-13 2014-06-25 北京理工大学 轮/履耦合式自平衡无障碍轮椅
CN107346061B (zh) * 2012-08-21 2020-04-24 快图有限公司 用于使用阵列照相机捕捉的图像中的视差检测和校正的系统和方法
US9623561B2 (en) * 2012-10-10 2017-04-18 Kenneth Dean Stephens, Jr. Real time approximation for robotic space exploration
US9675512B2 (en) * 2013-03-14 2017-06-13 Elwha Llc Leg locomotion devices
CN203217374U (zh) * 2013-05-10 2013-09-25 国家电网公司 一种四支臂六履带关节式机器人控制系统
KR102193768B1 (ko) * 2014-01-14 2020-12-22 삼성전자주식회사 로봇 및 로봇의 제어 방법
US10059004B2 (en) * 2015-06-22 2018-08-28 Ricoh Company, Ltd. Robot, information processing system, and storage medium
JP6450273B2 (ja) * 2015-07-08 2019-01-09 本田技研工業株式会社 移動ロボットの動作環境情報生成装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001212782A (ja) * 2000-01-31 2001-08-07 Sony Corp ロボット装置及びロボット装置の制御方法
JP2005092820A (ja) * 2003-09-19 2005-04-07 Sony Corp 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置
JP2009266224A (ja) * 2008-04-22 2009-11-12 Honeywell Internatl Inc リアルタイム・ビジュアル・オドメトリの方法およびシステム
JP2012501739A (ja) * 2008-09-04 2012-01-26 アイウォーク・インコーポレーテッド ハイブリッド型地形適応下肢システム
JP2010110381A (ja) * 2008-11-04 2010-05-20 Toyota Motor Corp 歩行補助装置
JP2012115314A (ja) * 2010-11-29 2012-06-21 Equos Research Co Ltd 歩行支援装置、及び歩行支援プログラム
JP2012205826A (ja) * 2011-03-30 2012-10-25 Equos Research Co Ltd 歩行支援装置、及び歩行支援プログラム
JP2013070785A (ja) * 2011-09-27 2013-04-22 Equos Research Co Ltd 歩行支援装置
JP2013075044A (ja) * 2011-09-30 2013-04-25 Equos Research Co Ltd つまずき検知装置、歩行補助装置、及びつまずき検知方法
US20130093852A1 (en) * 2011-10-12 2013-04-18 Board Of Trustees Of The University Of Arkansas Portable robotic device
JP2013206237A (ja) * 2012-03-29 2013-10-07 Denso It Laboratory Inc 自律走行ロボット及び自律走行ロボットの走行制御方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018052144A1 (ja) * 2016-09-16 2018-03-22 株式会社 東芝 動作支援方法及び動作支援装置
JP2018047547A (ja) * 2016-09-16 2018-03-29 株式会社東芝 動作支援方法及び動作支援装置

Also Published As

Publication number Publication date
EP2894011B1 (en) 2021-01-06
KR102172954B1 (ko) 2020-11-02
US20150134079A1 (en) 2015-05-14
CN104635732B (zh) 2020-09-11
EP2894011A1 (en) 2015-07-15
KR20150053854A (ko) 2015-05-19
CN104635732A (zh) 2015-05-20
JP6472959B2 (ja) 2019-02-20
US9861501B2 (en) 2018-01-09

Similar Documents

Publication Publication Date Title
JP6472959B2 (ja) 歩行補助ロボット及び歩行補助ロボットの制御方法
Liu et al. Vision-assisted autonomous lower-limb exoskeleton robot
Hu et al. 3D Pose tracking of walker users' lower limb with a structured-light camera on a moving platform
KR102150297B1 (ko) 보행 보조 로봇 및 보행 보조 로봇의 제어 방법
JP7266032B2 (ja) Vr歩行機構及び仮想現実シーンにおける歩行方法
KR102193768B1 (ko) 로봇 및 로봇의 제어 방법
JP5898199B2 (ja) 姿勢推定装置、姿勢推定方法、および姿勢推定プログラム
US20120155775A1 (en) Walking robot and simultaneous localization and mapping method thereof
WO2016031105A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2015042241A (ja) 動作情報処理装置及び方法
JP5868426B2 (ja) 停立人物の向き推定方法
KR20110084028A (ko) 이미지 데이터를 이용한 거리 측정 장치 및 방법
Page et al. Fast embedded feet pose estimation based on a depth camera for smart walker
KR101908176B1 (ko) 보행 보조기를 위한 보행 상태 추정 방법 및 장치
Weon et al. Intelligent robotic walker with actively controlled human interaction
JP2018513496A (ja) 足接地位置追随装置、その動きを制御する方法、コンピュータ実行可能なプログラム、及びそれを格納したコンピュータ読取可能な非一時的な情報記録媒体
Cai et al. Single-camera-based method for step length symmetry measurement in unconstrained elderly home monitoring
CN117529278A (zh) 步态监测方法及机器人
CN115862124A (zh) 视线估计方法、装置、可读存储介质及电子设备
KR102556001B1 (ko) 보행데이터 기반 파킨슨 증후군 중증도 판별 시스템 및 방법
Paulo et al. An innovative robotic walker for mobility assistance and lower limbs rehabilitation
TW202132949A (zh) 姿態檢測系統與方法
Zong et al. An embedded human motion capture system for an assistive walking robot
JP2009042147A (ja) 物体認識装置および物体認識方法
JP7477033B1 (ja) 歩容解析システムおよびその学習手法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180423

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181025

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20181102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190124

R150 Certificate of patent or registration of utility model

Ref document number: 6472959

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250