JP2020069376A - 使用意図を判定可能な歩行器及びその操作方法 - Google Patents
使用意図を判定可能な歩行器及びその操作方法 Download PDFInfo
- Publication number
- JP2020069376A JP2020069376A JP2019039737A JP2019039737A JP2020069376A JP 2020069376 A JP2020069376 A JP 2020069376A JP 2019039737 A JP2019039737 A JP 2019039737A JP 2019039737 A JP2019039737 A JP 2019039737A JP 2020069376 A JP2020069376 A JP 2020069376A
- Authority
- JP
- Japan
- Prior art keywords
- movable member
- sensor
- handle
- stopper
- walker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 21
- 238000010801 machine learning Methods 0.000 claims description 21
- 238000012549 training Methods 0.000 claims description 20
- 230000006870 function Effects 0.000 claims description 8
- 238000007781 pre-processing Methods 0.000 claims description 5
- 230000009467 reduction Effects 0.000 claims description 4
- 238000012360 testing method Methods 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 2
- 210000002569 neuron Anatomy 0.000 claims description 2
- 230000004044 response Effects 0.000 claims 1
- 238000012545 processing Methods 0.000 description 7
- 239000003795 chemical substances by application Substances 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 238000012706 support-vector machine Methods 0.000 description 4
- 206010061296 Motor dysfunction Diseases 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 241001272996 Polyphylla fullo Species 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H3/00—Appliances for aiding patients or disabled persons to walk about
- A61H3/04—Wheeled walking aids for patients or disabled persons
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H3/00—Appliances for aiding patients or disabled persons to walk about
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H3/00—Appliances for aiding patients or disabled persons to walk about
- A61H3/04—Wheeled walking aids for patients or disabled persons
- A61H2003/043—Wheeled walking aids for patients or disabled persons with a drive mechanism
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/16—Physical interface with patient
- A61H2201/1602—Physical interface with patient kind of interface, e.g. head rest, knee support or lumbar support
- A61H2201/1635—Hand or arm, e.g. handle
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5058—Sensors or detectors
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5058—Sensors or detectors
- A61H2201/5061—Force sensors
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5058—Sensors or detectors
- A61H2201/5071—Pressure sensors
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Rehabilitation Therapy (AREA)
- Pain & Pain Management (AREA)
- Animal Behavior & Ethology (AREA)
- Physical Education & Sports Medicine (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Epidemiology (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Mathematical Analysis (AREA)
- Probability & Statistics with Applications (AREA)
- Algebra (AREA)
- Computational Mathematics (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Rehabilitation Tools (AREA)
- Handcart (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
Description
グレン・ワッソン(Glenn Wasson)氏等が発表した「歩行者の運動補助に用いられる共有制御フレームワークにおける使用者の意図(User Intent in a Shared Control Framework for Pedestrian Mobility Aids)」は国際会議IEEE/RSJ IROS2003の会議録(Proceedings 2003 IEEE RSJ International Conference on Intelligent Robots and Systems(IROS 2003))において刊行されている。これは2つの6DoFモーメントセンサーが2つのハンドルにそれぞれ設置され、使用者の移動意図を判定させるために用いられている。
図1Aに例示されるように、前記第1接合箇所13Aは右前方に位置され、前記第2接合箇所13Bは右後方に位置される。同様に、前記第2可動部材11Bの端110C及び端110Dは第3接合箇所13C及び第4接合箇所13Dにおいて前記固定部材12にそれぞれスライド可能に接合される。
図1Aに例示されるように、前記第3接合箇所13Cは左前方に位置され、前記第4接合箇所13Dは左後方に位置される。
前記第1可動部材11A及び前記第2可動部材11Bは対応する第2ストッパー121に対向させるフランジ形状の第2ストッパー111を有し、且つ前記第2ストッパー111は前記第1可動部材12A及び前記固定部材12が互いに接合される前記接合箇所13A及び13B、並びに前記第2可動部材12B及び前記固定部材12が互いに接合される前記接合箇所13C及び前記接合箇所13Dの表面から延出されるように設置される。
図1Eは本発明の他の実施形態に係る図1Aの断面線1B−1B’に沿う傾斜図の縮尺図を示す。環状のセンサー14は各接合箇所13A、13B、13C、または13Dに設置される。
図1Bに例示されるように、3つのセンサー14が前記第2ストッパー111の表面1111に等間隔で配置される。本実施形態に係る第1ストッパー121の前記フランジ121Aは前記第2ストッパー111の前記表面1111に対向し、且つ前記センサー14にそれぞれ対向するバンプ1212を有する。本実施形態では、前記第1可動部材11Aまたは前記第2可動部材11Bを前記センサー14を押す前の位置である初期位置に戻すための複数の(例えば、3つの)弾性部材15(例えば、スポンジまたはばね)が前記第1ストッパー121と前記第2ストッパー111との間に設置される。
図1Fは前記第2ストッパー111の上面図の縮尺図を示す。前記弾性部材15は前記第2ストッパー111の前記表面1111に固設(例えば、貼付)されると共に前記センサー14の間にそれぞれ設置される。前記センサー14、前記バンプ1212、及び前記弾性部材15の設置位置及び数量は本実施形態に示されるものに制限されない。例えば、他の実施形態(図示省略)では、前記センサー14が前記第1ストッパー121の前記フランジ121Aの前記表面1211に固設されてもよく、前記バンプ1212が前記第2ストッパー111の前記表面1111に設置されて前記センサー14に対向させてもよく、前記弾性部材15が前記第1ストッパー121の前記フランジ121Aの前記表面1211に設置され、前記センサー14の間にそれぞれ設置されてもよい。
図1Gの表は前記センサー1乃至前記センサー12の前記センサー値とそれに対応する意図する各移動方向を示す。相対的に比較された前記センサー値が大、中、小に大別される。
前記エージェント31はエージェントソフトウェアを実行してデジタル形式のセンサー値を収集するためのプロセッサ(例えば、マイクロプロセッサ)312を具備する。前記エージェント31は収集されセンサー値をコンピューター32に伝送させるためのUART(universal asynchronous receiver−transmitter,UART)等の通信装置313を備える。
前記コンピューター32は通常前記歩行器10の前記ハンドル100から離間するように設置され、例えば、前記歩行器10の下方に設置される。前記コンピューター32は少なくとも1つの中央処理装置(CPU)321及びデータベース322を含む。中央処理装置321は収集されたセンサー値を処理すると共に特定のフォーマットのデータファイルに変換するために用いられ、その後に前記データファイルが前記データベース322に保存される。
ステップ22は、観察及び後続の処理のために前記センサー値の次元が次元削減法により減次されるサブステップ223を更に含む。本実施形態では、限定されないが、前記センサー値の次元を削減するためにt−SNE(T−distributed stochastic neighbor embedding, t−SNE)アルゴリズム及び主成分分析(PCA)アルゴリズムが採用される。
図5Bは図5Aのロジスティックユニット51を図示し、w11、w21…w12_1は対応するウェイトをそれぞれ示す。
図5A及び図5Bは人工ニューラルネットワークの構成を図示し、前記ロジスティックユニット51は前記人工ニューラルネットワークにおけるロジスティック回帰を実行するためのニューロンとして使用される。前記構成によると、センサー値xn及びウェイトwnの線型結合はx1w11+x2w21+…+x12w12_1等の計算式によって得られる。次いで、前記線型結合の値は前記ロジスティックユニット51に適用され、これは活性化関数(例えば、シグモイド関数)を含み、ロジスティック関数が活性化されたか否かが判定される。次に、前記(トレーニング)センサー値を図5A及び図5Bの構成に適用することによって前記ウェイトwnが前記機械学習モデルとして獲得される。なお、前記機械学習モデル(例えば、ウェイト)の獲得後に、前記モデルが精確であるか否かを確かめるために、前記モデルに対して前記(テスト)センサー値が適用される。
100 ハンドル
11A 第1可動部材
11B 第2可動部材
110A 端
110B 端
110C 端
110D 端
111 第2ストッパー
1111 表面
12 固定部材
120 中心軸
121 第1ストッパー
121A フランジ
121B 固定プレート
1211 表面
1212 バンプ
13A 第1接合箇所
13B 第2接合箇所
13C 第3接合箇所
13D 第4接合箇所
14 センサー
15 弾性部材
200 意図する移動方向を確定する方法
21 トレーニングセンサー値の収集
22 トレーニングセンサー値の前処理
221 トレーニングセンサー値の正規化
222 意図する移動方向に基づいたトレーニング感覚のラベル化
223 トレーニングセンサー値の減次
23 モデリング
24 意図の予測
241 測定されたセンサー値の収集
242 測定されたセンサー値の前処理
243 測定されたセンサー値とウェイトを得る線型結合
244 アクティベーションの判定
245 意図する移動方向の確率の生成
300 意図する移動方向決定システム
31 エージェント
311 アナログ・デジタル変換器
312 プロセッサ
313 通信装置
32 コンピューター
321 中央処理装置
322 データベース
51 ロジスティックユニット
ADC アナログ・デジタル変換器
CPU 中央処理装置
x1 センサー値
x2 センサー値
x12 センサー値
a1 ロジスティックユニット
a2 ロジスティックユニット
a12 ロジスティックユニット
w11 ウェイト
w12 ウェイト
w1_12 ウェイト
w21 ウェイト
w12_1 ウェイト
Claims (5)
- 少なくとも1つの可動部材と、
前記少なくとも1つの可動部材にそれぞれスライド可能に接合される複数の固定部材と、
前記固定部材と前記少なくとも1つの可動部材との接合箇所にそれぞれ設置される複数の圧力センサーと、を備えることを特徴とする、
使用意図を判定可能な歩行器のハンドル。 - 前記圧力センサーは単軸力覚センサーを備え、前記少なくとも1つの可動部材は第1可動部材及び第2可動部材を含み、前記第1可動部材の両端は第1接合箇所及び第2接合箇所において前記固定部材にそれぞれスライド可能に結合され、前記第2可動部材の両端は第3接合箇所及び第4接合箇所において前記固定部材にそれぞれスライド可能に接合され、少なくとも1つの前記圧力センサーは前記第1接合箇所、前記第2接合箇所、前記第3接合箇所、及び前記第4接合箇所に各々設置されることを特徴とする請求項1に記載の使用意図を判定可能な歩行器のハンドル。
- 前記固定部材及び前記可動部材が互いに接合される前記接合箇所において前記固定部材の表面から延出されるように設置される第1ストッパーと、前記第1ストッパーに対向させ、前記固定部材及び前記可動部材が互いに接合される前記接合箇所において前記可動部材の表面から延出される第2ストッパーと、前記第1ストッパーと前記第2ストッパーとの間に設置される複数の弾性部材と、を更に備え、前記圧力センサーは前記第2ストッパーまたは前記第1ストッパーの表面に固設され、前記第1ストッパーまたは前記第2ストッパーの表面には対応する前記圧力センサーに対向させる少なくとも1つのバンプを有することを特徴とする請求項1に記載の使用意図を判定可能な歩行器のハンドル。
- ハンドルの移動方向に従って歩行器のハンドルの複数の圧力センサーのトレーニングセンサー値の収集を行うステップと、
前記トレーニングセンサー値の前処理を行うステップと、
前処理された前記トレーニングセンサー値の機械学習モデリングを行って機械学習モデルを獲得させるステップと、
前記機械学習モデルに基づいて前記ハンドルの前記圧力センサーにより測定されたセンサー値に応じて意図する移動方向を予測するステップと、
前記ハンドルの移動方向に基づいて複数の前記圧力センサーのテストセンサー値の収集を行うステップと、を含み、
前記トレーニングセンサー値の前処理ステップは、
前記トレーニングセンサー値の平均値及び標準偏差に基づいて前記トレーニングセンサー値の正規化を行うステップと、
前記ハンドルの移動方向に基づいて前記トレーニングセンサー値に対してラベル化を行うステップと、
次元削減法により前記トレーニングセンサー値の減次を行うステップと、を含み、
前記機械学習モデリングステップは、
ロジスティックモデリングアルゴリズムを用いて機械学習を行うステップを含むことを特徴とする、
使用意図を判定可能な歩行器の操作方法。 - 歩行器のハンドルの複数の圧力センサーから収集されたトレーニングセンサー値に対する機械学習モデリングを実行することによって得られた機械学習モデルを提供するステップと、
前記機械学習モデルに基づいて前記ハンドルの前記圧力センサーによって測定されたセンサー値に応じて意図する移動方向を予測するステップと、を含み、
前記機械学習モデルは、
人工ニューラルネットワークにおいてニューロンとして使用され、前記測定されたセンサー値及びウェイトの線型結合を出力させるための活性化関数を含む少なくとも1つのロジスティックユニットを備え、
前記意図する移動方向を予測するステップは、
前記測定されたセンサー値及び前記ウェイトの前記線型結合を獲得するステップと、
前記ロジスティックユニットに前記線型結合値を適用することで前記ロジスティックユニットがアクティベートされたか否かを判定させるステップと、
前記ロジスティックユニットの結果に基づいて前記意図する移動方向の確率を生成するステップと、を含み、
前記確率を生成するステップは、
一対他分類(OVR)法または多項法を用いて前記意図する移動方向の前記確率を生成するステップと、
L2正則化法を適用して過剰適合問題を防止するステップと、を含むことを特徴とする、
使用意図を判定可能な歩行器の操作方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW107138128 | 2018-10-29 | ||
TW107138128A TWI719353B (zh) | 2018-10-29 | 2018-10-29 | 具判斷使用意圖的助行器及其操作方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020069376A true JP2020069376A (ja) | 2020-05-07 |
JP6796673B2 JP6796673B2 (ja) | 2020-12-09 |
Family
ID=70327519
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019039737A Active JP6796673B2 (ja) | 2018-10-29 | 2019-03-05 | 使用意図を判定可能な歩行器及びその操作方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20200129366A1 (ja) |
JP (1) | JP6796673B2 (ja) |
CN (1) | CN111096878B (ja) |
TW (1) | TWI719353B (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108811514B (zh) | 2017-03-03 | 2022-03-01 | 谷歌有限责任公司 | 用于检测在客户端设备上执行的应用不当地实施对内容项的呈现的系统和方法 |
TWI761971B (zh) | 2020-09-28 | 2022-04-21 | 緯創資通股份有限公司 | 主動式助行器 |
CN112826711A (zh) * | 2021-01-07 | 2021-05-25 | 国家康复辅具研究中心 | 一种辅助起立助行器系统 |
CN113081703A (zh) * | 2021-03-10 | 2021-07-09 | 上海理工大学 | 一种助行器使用者方向意图判别方法及装置 |
CN113768760B (zh) * | 2021-09-08 | 2022-12-20 | 中国科学院深圳先进技术研究院 | 助行器的控制方法、系统和驱动设备 |
CN114707399B (zh) * | 2022-03-01 | 2024-09-20 | 浙江大学 | 一种六维力传感器的解耦方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100717397B1 (ko) * | 2006-07-19 | 2007-05-11 | 한국산업기술대학교산학협력단 | 로드셀을 이용한 노약자의 보행보조로봇에 장착되는보행의지파악 시스템 |
KR100807300B1 (ko) * | 2007-01-26 | 2008-03-03 | 고등기술연구원연구조합 | 힘의 세기에 의해 속도가 조절되는 보행보조기기 |
JP2009136489A (ja) * | 2007-12-06 | 2009-06-25 | Toyota Motor Corp | 歩行補助装置 |
JP2015033505A (ja) * | 2013-08-09 | 2015-02-19 | 船井電機株式会社 | 手動推進車両 |
KR20180106351A (ko) * | 2017-03-20 | 2018-10-01 | 경희대학교 산학협력단 | 보행 보조를 위한 조향 제어장치 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101058319A (zh) * | 2007-05-21 | 2007-10-24 | 林士云 | 基于智能控制的电动助力转向系统 |
US8162808B2 (en) * | 2009-03-05 | 2012-04-24 | Cook Matthew R | Compressible curl bar |
JP2010215043A (ja) * | 2009-03-16 | 2010-09-30 | Bridgestone Cycle Co | 電動アシストカート |
TW201038262A (en) * | 2009-04-30 | 2010-11-01 | Univ Nat Chiao Tung | Interactive caretaking robot with the functions of obstacle avoidance and decision-making based on force-sensing |
CN101581718B (zh) * | 2009-06-26 | 2012-07-25 | 陕西科技大学 | 陶瓷坯泥内应力在线软测量方法 |
TW201212904A (en) * | 2010-09-29 | 2012-04-01 | Univ Chaoyang Technology | Electric walking aid with pressure sensing device |
TWI383788B (zh) * | 2010-12-17 | 2013-02-01 | Univ Nat Chiao Tung | 力感應握持裝置 |
CN202015325U (zh) * | 2010-12-21 | 2011-10-26 | 西安交通大学苏州研究院 | 带触滑觉传感器的多功能助老助行机器人 |
CN102551994B (zh) * | 2011-12-20 | 2013-09-04 | 华中科技大学 | 一种康复助行机器人及其控制系统 |
TWI492743B (zh) * | 2012-12-11 | 2015-07-21 | Univ Nat Taiwan | 復健裝置 |
CN103279039A (zh) * | 2013-05-17 | 2013-09-04 | 安徽工业大学 | 一种机器人神经网络式计算力矩控制器训练平台及训练方法 |
JP6187049B2 (ja) * | 2013-08-30 | 2017-08-30 | 船井電機株式会社 | 歩行アシスト移動体 |
CN105939646B (zh) * | 2013-12-02 | 2019-01-18 | 三星电子株式会社 | 吸尘器和控制该吸尘器的方法 |
JP2017512619A (ja) * | 2014-03-24 | 2017-05-25 | アーマッド・アルサエド・エム・アルガジAhmad Alsayed M. ALGHAZI | 多機能スマート移動補助装置及び利用方法 |
JP6349975B2 (ja) * | 2014-06-03 | 2018-07-04 | 日本精工株式会社 | 電動パワーステアリング装置およびこれを使用した車両 |
JP6620326B2 (ja) * | 2015-07-02 | 2019-12-18 | Rt.ワークス株式会社 | 手押し車 |
CN105354445A (zh) * | 2015-11-17 | 2016-02-24 | 南昌大学第二附属医院 | 一种基于血液标志物的人工神经网络智能判别系统 |
CN105588669B (zh) * | 2015-12-11 | 2021-03-16 | 广西柳工机械股份有限公司 | 一种轴销式三向测力传感器 |
KR102021861B1 (ko) * | 2017-10-17 | 2019-11-04 | 엘지전자 주식회사 | 진공 청소기 및 청소기의 핸들 |
CN108236562A (zh) * | 2018-03-29 | 2018-07-03 | 五邑大学 | 一种老年人助行器及其控制方法 |
-
2018
- 2018-10-29 TW TW107138128A patent/TWI719353B/zh active
- 2018-11-22 CN CN201811396661.5A patent/CN111096878B/zh active Active
- 2018-12-24 US US16/231,847 patent/US20200129366A1/en not_active Abandoned
-
2019
- 2019-03-05 JP JP2019039737A patent/JP6796673B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100717397B1 (ko) * | 2006-07-19 | 2007-05-11 | 한국산업기술대학교산학협력단 | 로드셀을 이용한 노약자의 보행보조로봇에 장착되는보행의지파악 시스템 |
KR100807300B1 (ko) * | 2007-01-26 | 2008-03-03 | 고등기술연구원연구조합 | 힘의 세기에 의해 속도가 조절되는 보행보조기기 |
JP2009136489A (ja) * | 2007-12-06 | 2009-06-25 | Toyota Motor Corp | 歩行補助装置 |
JP2015033505A (ja) * | 2013-08-09 | 2015-02-19 | 船井電機株式会社 | 手動推進車両 |
KR20180106351A (ko) * | 2017-03-20 | 2018-10-01 | 경희대학교 산학협력단 | 보행 보조를 위한 조향 제어장치 |
Also Published As
Publication number | Publication date |
---|---|
CN111096878A (zh) | 2020-05-05 |
TW202015642A (zh) | 2020-05-01 |
CN111096878B (zh) | 2022-08-05 |
TWI719353B (zh) | 2021-02-21 |
US20200129366A1 (en) | 2020-04-30 |
JP6796673B2 (ja) | 2020-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020069376A (ja) | 使用意図を判定可能な歩行器及びその操作方法 | |
Bicchi et al. | Contact sensing from force measurements | |
Artemiadis et al. | An EMG-based robot control scheme robust to time-varying EMG signal features | |
Ben-Tzvi et al. | The design evolution of a sensing and force-feedback exoskeleton robotic glove for hand rehabilitation application | |
Wang et al. | A flexible lower extremity exoskeleton robot with deep locomotion mode identification | |
Choi et al. | A hybrid dynamic model for the AMBIDEX tendon-driven manipulator | |
Efthimiou et al. | The MOBOT rollator human-robot interaction model and user evaluation process | |
Khan et al. | Estimation of desired motion intention and compliance control for upper limb assist exoskeleton | |
Hsieh et al. | Motion guidance for a passive robot walking helper via user's applied hand forces | |
Ceccarelli et al. | Design issues for human-machine platform interface in cable-based parallel manipulators for physiotherapy applications | |
Grewal et al. | Autonomous wheelchair navigation in unmapped indoor environments | |
Parikh et al. | Performance evaluation of an indigenously-designed high performance dynamic feeding robotic structure using advanced additive manufacturing technology, machine learning and robot kinematics | |
Ennaiem et al. | Cable-Driven parallel robot workspace identification and optimal design based on the upper limb functional rehabilitation | |
Dometios et al. | Real-time end-effector motion behavior planning approach using on-line point-cloud data towards a user adaptive assistive bath robot | |
Verdezoto et al. | Smart rollators aid devices: Current trends and challenges | |
Ketkar et al. | Design and development of a spherical 5-bar thumb exoskeleton mechanism for poststroke rehabilitation | |
Yazdani et al. | Ergonomically intelligent physical human-robot interaction: Postural estimation, assessment, and optimization | |
Fotinea et al. | The mobot human-robot interaction: Showcasing assistive hri | |
Dometios et al. | Towards ICT-supported bath robots: Control architecture description and localized perception of user for robot motion planning | |
Suzuki et al. | Motion support during the swing phase using cooperative walking support system | |
Xu et al. | Multi-sensor based human motion intention recognition algorithm for walking-aid robot | |
Papageorgiou et al. | Human-centered service robotic systems for assisted living | |
Laribi et al. | Optimal design of cable driven robot for rehabilitation with prescribed workspace | |
Molano et al. | Robotic walker with high maneuverability through deep learning for sensor fusion | |
Xu et al. | Study of reinforcement learning based shared control of walking-aid robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190306 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200303 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200522 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201116 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6796673 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |