TWI719353B - 具判斷使用意圖的助行器及其操作方法 - Google Patents

具判斷使用意圖的助行器及其操作方法 Download PDF

Info

Publication number
TWI719353B
TWI719353B TW107138128A TW107138128A TWI719353B TW I719353 B TWI719353 B TW I719353B TW 107138128 A TW107138128 A TW 107138128A TW 107138128 A TW107138128 A TW 107138128A TW I719353 B TWI719353 B TW I719353B
Authority
TW
Taiwan
Prior art keywords
intention
judging
walking aid
handle
joint
Prior art date
Application number
TW107138128A
Other languages
English (en)
Other versions
TW202015642A (zh
Inventor
黃奕禧
楊琇惠
Original Assignee
緯創資通股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 緯創資通股份有限公司 filed Critical 緯創資通股份有限公司
Priority to TW107138128A priority Critical patent/TWI719353B/zh
Priority to CN201811396661.5A priority patent/CN111096878B/zh
Priority to US16/231,847 priority patent/US20200129366A1/en
Priority to JP2019039737A priority patent/JP6796673B2/ja
Publication of TW202015642A publication Critical patent/TW202015642A/zh
Application granted granted Critical
Publication of TWI719353B publication Critical patent/TWI719353B/zh

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/04Wheeled walking aids for patients or disabled persons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/04Wheeled walking aids for patients or disabled persons
    • A61H2003/043Wheeled walking aids for patients or disabled persons with a drive mechanism
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/16Physical interface with patient
    • A61H2201/1602Physical interface with patient kind of interface, e.g. head rest, knee support or lumbar support
    • A61H2201/1635Hand or arm, e.g. handle
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5061Force sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5071Pressure sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Pain & Pain Management (AREA)
  • Epidemiology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Rehabilitation Therapy (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Algebra (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Rehabilitation Tools (AREA)
  • Handcart (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

一種具判斷使用意圖的助行器,其把手包含至少一可動件;複數固定件,分別和可動件滑動接合;及複數壓力感測器,分別設於固定件與可動件的接合處。

Description

具判斷使用意圖的助行器及其操作方法
本發明係有關一種助行器,特別是關於一種具判斷使用意圖的助行器的把手及其操作方法。
行動不便(mobility disability)是老年人或者下肢殘障人士亟需解決的問題,因此推出有各式各樣的行動輔助裝置或助行器以改善或解決行動不便的問題。行動輔助裝置可大致分為主動式與被動式兩大類。主動式行動輔助裝置主要是以馬達來驅使使用者的行動,而被動式行動輔助裝置則是主要由使用者提供原動力(motive force)。
行動輔助裝置的一個首要功能在於預測使用者的意圖(intent)移動方向,據以後續對行動輔助裝置作進一步的控制。葛倫•瓦森(Glenn Wasson)等人提出“用於行動輔助的分享控制架構的使用者意圖(User Intent in a Shared Control Framework for Pedestrian Mobility Aids)”,刊於電機電子工程師學會2003年智慧機器人與系統國際會議公報(Proceedings 2003 IEEE RSJ International Conference on Intelligent Robots and Systems (IROS 2003)),2003年,其使用二個六-自由度的力矩感測器(6-DOF moment sensor),分別設於助行器的二個把手上,用以決定使用者的移動意圖。
葛倫•瓦森(Glenn Wasson)等人提出“用於分享控制行動輔助之基於物理模型以預測使用者意圖(A Physics-Based Model for Predicting User Intent in Shared-Control Pedestrian Mobility Aids)”,刊於電機電子工程師學會2004年智慧機器人與系統國際會議(2004 IEEE RSJ International Conference on Intelligent Robots and Systems (IROS)),2004年,其使用二個六-自由度的力矩感測器(6-DOF moment sensor)分別設於助行器的二個把手上,用以量測力矩,據以決定使用者的移動意圖。
馬修•史賓克(Matthew Spenko)等人提出“用於老年人行動與監控的機器人輔助(Robotic Personal Aids for Mobility and Monitoring for the Elderly)”,刊於電機電子工程師學會神經系統與復健工程公報(IEEE TRANSACTIONS ON NEURAL SYSTEMS AND REHABILITATION ENGINEERING),第14冊,第3號,2006年九月,其使用六軸力矩感測器(six-axis torque sensor),以量測使用者施於把手的力矩。
亞倫•莫里斯(Aaron Morris)等人提出“提供引導的機器人助行器(A Robotic Walker That Provides Guidance)”,刊於2003年電機電子工程師學會機器人與自動化國際會議(2003 IEEE International Conference on Robotics and Automation),2003年9月,其使用力感測電阻器(force-sensing resistor),並將讀出值轉換為移動(translational)與轉動(rotational)速度。
楊翔斌(Hsiang-Pin Yang)提出“基於使用者意圖之行動輔具設計(On the Design of a Robot Walking Helper Based on Human Intention)”,國立交通大學碩士論文(National Chiao Tung University master thesis),2010年,其使用力感測器並使用讀出值以推論出使用者意圖與旋轉力矩間的關係。
傳統行動輔助裝置主要係使用多軸力感測器(multi-axis force sensor),以得知使用者意圖移動的方向。目前行動輔助裝置在硬體結構設計、應用軟體開發與感測系統整合正在持續發展中。
本發明實施例之一提出一種具判斷使用意圖的助行器,該助行器的把手設有壓力感測器(特別是單軸力感測器)於固定件與可動件的接合處。根據各接合處所收集之壓力感測器的感測值,可據以判斷意圖移動的方向。相較於傳統助行器使用多軸力感測器,上述實施例使用單軸力感測器作為助行器之把手的感測器,可簡化系統架構。
本發明另一實施例提出一種具判斷使用意圖的助行器的操作方法,收集各種意圖移動方向的相應感測值,對其進行機器學習的模型化運算,以得到機器學習的模型。根據本發明又一實施例,根據所得到之機器學習的模型,可據以預測得到意圖移動方向。上述實施例使用機器學習技術以處理感測值,可免去繁複的程式撰寫。
第一A圖顯示本發明實施例之助行器(walker)10的把手(handle)100的俯視圖的比例圖示,第一B圖顯示沿第一A圖之剖面線1B-1B’的立體圖的比例圖示,第一C圖顯示第一A圖之把手100的部分分解圖的比例圖示,第一D圖顯示應用把手100之助行器10的立體圖的比例圖示。本實施例之助行器10可為主動式助行器或被動式助行器。
在本實施例中,把手100包含第一可動件(moving part)11A與第二可動件11B,分別用以讓右手、左手握持。把手100還包含複數固定件12,分別和第一可動件11A及第二可動件11B滑動接合,使得第一可動件11A及第二可動件11B可滑動於該些固定件12之間,且使得第一可動件11A及第二可動件11B可沿著固定件12的中心軸120作往復滑動。在本實施例中,基於結構強度與重量考量,第一可動件11A、第二可動件11B與固定件12為中空管狀,但不限定於此。
如第一A圖所示,於第一接合處13A與第二接合處13B,第一可動件11A的兩端110A、110B分別與固定件12滑動接合。在所示例子中,第一接合處13A位於右前方,第二接合處13B位於右後方。類似的情形,於第三接合處13C與第四接合處13D,第二可動件11B的兩端110C、110D分別與固定件12滑動接合。在所示例子中,第三接合處13C位於左前方,第四接合處13D位於左後方。
在本實施例中,於固定件12與第一可動件11A的接合處13A、13B,以及於固定件12與第二可動件11B的接合處13C、13D,固定件12的表面套設有第一制動件(stopper)121。第一制動件121主要包含環狀的凸緣121A,垂直於固定件12的中心軸120向外延伸。第一制動件121還包含固定片121B,連接於凸緣121A,作為和固定件12固定之用。於第一可動件11A與固定件12的接合處13A、13B,以及於第二可動件11B與固定件12的接合處13C、13D,第一可動件11A及第二可動件11B的表面向外延伸有凸緣狀的第二制動件111,與第一制動件121的凸緣121A相向。
本實施例之把手100包含複數感測器14,例如壓力感測器(pressure sensor),特別是單軸力感測器(single-axis force sensor),分別設於第一可動件11A與固定件12的接合處13A、13B,以及第二可動件11B與固定件12的接合處13C、13D,每一接合處設有至少一感測器14。在一實施例中,基於壓力感測器數量考量,各接合處13A、13B、13C、13D分別設有三個感測器14。其中,第一接合處13A設有感測器1、感測器2、感測器3,第二接合處13B設有感測器4、感測器5、感測器6,第三接合處13C設有感測器7、感測器8、感測器9,第四接合處13D設有感測器10、感測器11、感測器12。第一E圖顯示另一實施例沿第一A圖之剖面線的立體圖的比例圖示,第一可動件11A與固定件12的接合處13A、13B,且於第二可動件11B與固定件12地的接合處13C、13D,分別設有一個環狀的感測器14。
在本實施例中,感測器14固設(例如貼附)於第二制動件111的表面1111,其面向第一制動件121。如第一B圖所例示,三個感測器14平均(equally)且等距設於第二制動件111的表面1111。本實施例之第一制動件121的凸緣121A面向第二制動件111的表面1111,面向感測器14可分別設有凸點1212。本實施例於第一制動件121與第二制動件111之間還可設有複數(例如三個) 彈性(elastic)件15(例如海綿、彈簧等),使得第一可動件11A或第二可動件11B於移動之後可回復至初始位置,亦即感測器14未受壓之前的位置。第一F圖顯示第二制動件111的俯視圖的比例圖示,其中彈性件15固定(例如貼附)於第二制動件111的表面1111且介於感測器14之間。上述感測器14、凸點1212與彈性件15的設定位置及數目並不限定於圖示。例如,在另一實施例中(未圖示),感測器14可固設於第一制動件121的凸緣121A的表面1211,凸點1212設於第二制動件111的表面1111並面向感測器14,且彈性件15設於第一制動件121的凸緣121A的表面1211且介於感測器14之間。
當使用者的右手、左手分別握持第一可動件11A、第二可動件11B,並意圖(intent)往一特定方向移動時,各接合處13A、13B、13C、13D的感測器14即會感測得到不同的特定感測值。舉例而言,若以一序列的要素(element)來分別表示感測器1至感測器12的感測值,當意圖向前方移動時,感測值序列可為[3010, 2511, 2133, 3, 15, 2, 3201, 2004, 3121, 1, 5, 7];當意圖向左前方移動時,感測值序列可為[4012, 3400, 2311, 2, 4, 10, 3, 2, 7, 1291, 1311, 1412];當意圖向右前方移動時,感測值序列可為[1, 2, 11, 1302, 1231, 1212, 2311, 3211, 4033, 21, 12, 15]。第一G圖顯示一表格,表示各意圖移動方向的相應感測器1~感測器12的感測值,其粗略以大、中、小來表示感測值的相對大小。
第二圖顯示本發明實施例之決定意圖(intent)移動方向的方法200的流程圖,可適用於助行器10。於步驟21,以右手、左手分別握持第一可動件11A、第二可動件11B,意圖往一特定方向移動,並相應收集該些感測器14的(訓練)感測值,作為訓練資料(training data)。此外,還可額外收集(測試)感測值,作為測試資料(test data)。在本實施例中,總共進行六個方向的意圖移動,亦即前方、左前方、右前方、後方、左後方、右後方,並相應收集該些感測器14的感測值。此外,於停止(不作動)時,也相應收集該些感測器14的感測值。所收集得到的感測值可儲存於資料庫。意圖移動方向的數目並不限定於前述六個,可根據特定應用而設定不同數目的意圖移動方向。
第三圖顯示本發明實施例之決定意圖移動方向的系統300的方塊圖。在本實施例中,決定意圖移動方向的系統(以下簡稱系統)300包含代理器(agent)31,用以收集感測器14所產生的感測值。代理器31通常設於助行器10的把手100附近。代理器31可包含類比至數位轉換器(ADC)311,用以將感測值從類比形式轉換為數位形式。代理器31可包含處理器(例如微處理器)312,其可執行代理程式(agent software),用以收集經轉換為數位形式的感測值。代理器31可包含通訊裝置313,例如通用非同步接收發送器(universal asynchronous receiver-transmitter, UART),用以將所收集的感測值傳送至電腦32。電腦32通常設於助行器10遠離把手100處,例如設於助行器10的底部。電腦32至少包含中央處理單元(CPU)321與資料庫322,其中中央處理單元321將所接收的感測值處理為特定格式的資料檔案,再儲存於資料庫322。
回到第二圖的決定意圖移動方向的方法(以下簡稱方法)200,於步驟22,對資料庫322所儲存的感測值進行預處理(preprocess)。第四圖顯示第二圖之步驟22的細部流程圖,其執行順序不限定於圖示順序。於次步驟221,根據感測值的平均值(mean)與標準差(standard deviation),常態化(normalize)感測值,藉以消除雜訊。於次步驟222,依意圖移動方向相應標記(label)感測值。在本實施例中,依照意圖移動的方向—前方、左前方、右前方、後方、左後方、右後方、停止,將相應感測值依序分別標記為0、1、2、3、4、5、6。步驟22可額外包含次步驟223,使用維度(dimension)降低技術,藉由降低感測值的維度,以利觀察及後續處理。在本實施例中,可使用分散隨機相鄰內嵌(T-distributed Stochastic Neighbor Embedding, t-SNE)演算法與主成分分析(Principal component analysis, PCA)演算法以降低感測值的維度,但不限定於此。
回到第二圖所示的方法200,於步驟23,針對預處理後的感測值進行機器學習(machine learning)的模型化(modeling),以得到機器學習的模型。在一實施例中,可使用支持向量機(support vector machines, SVMs)演算法以進行機器學習。由於支持向量機(SVMs)演算法的運算量較大,因此通常無法達到即時(real time)的應用。在本實施例中,使用邏輯模型化(logistic modeling)演算法以進行機器學習,其運算量遠較支持向量機(SVMs)演算法來得小,因此可以達到即時的應用。
第五A圖例示本實施例使用邏輯模型化演算法處理感測值以進行機器學習的架構示意圖,其中x1 、x2 …x12 分別代表感測器1、感測器2…感測器12的感測值,a1 、a2 …a12 分別代表邏輯單元(logistic unit)51,w11 、w12 …w1_12 ...等分別代表權重。第五B圖顯示第五A圖的其中一個邏輯單元51,其中w11 、w21 …w12_1 分別代表相應權重。第五A圖及第五B圖顯示一種人工神經網路(artificial neural network)的架構,邏輯單元51係作為人工神經網路當中的一個神經細胞(neuron),以執行邏輯回歸(logistic regression)。根據此架構,可得到感測值(xn )與權重(wn )的線性組合(linear combination),例如x1 ·w11 +x2 ·w21 +…+x12 ·w12_1 。接著,將線性組合的值輸入至邏輯單元51,其具有觸發(activate)函數(例如S形(sigmoid)函數),以判定該邏輯單元51是否被觸發。藉此,將(訓練)感測值帶入第五A圖及第五B圖所示的架構中,可得到權重(wn ),作為機器學習的模型。此外,於得到機器學習的模型(亦即權重)後,還可將(測試)感測值帶入模型當中,以驗證所得到的模型是否正確。
回到第二圖所示的方法200,於步驟24,根據(步驟23)所得到機器學習的模型,輸入助行器10之把手100的感測器14的(量測)感測值,即可輸出得到意圖移動的方向。所得到意圖移動方向可於後續據以控制助行器10的其他元件,例如伺服煞車器或馬達。
第六圖顯示第二圖之步驟24的細部流程圖。於次步驟241,以右手、左手分別握持第一可動件11A、第二可動件11B,意圖往一特定方向移動,並相應收集該些感測器14的(量測)感測值,作為量測資料(measured data)。次步驟241類似於第二圖之步驟21,其細節因此不予贅述。
接著,於次步驟242,對(量測)感測值進行預處理。類似於第四圖之次步驟221,根據(量測)感測值的平均值(mean)與標準差(standard deviation),常態化(normalize)感測值,藉以消除雜訊。
於次步驟243,根據(步驟23所得到的)前述的模型(亦即權重),計算以得到(量測)感測值與權重的線性組合,如第五A圖及第五B圖所示。接著,於次步驟244,將線性組合的值輸入至邏輯單元51,其具有觸發(activate)函數(例如S形(sigmoid)函數),以判定該邏輯單元51是否被觸發。
於次步驟245,根據邏輯單元51的觸發結果,以產生各意圖移動方向的機率值,作為預測值,據以得知所量測的感測值所對應的意圖移動方向。在一實施例中,使用多元分類(one-vs-rest, OVR)技術以產生各個意圖移動方向的機率值。在另一實施例中,使用多項式(multinomial)技術以產生各個意圖移動方向的機率值。在本次步驟245當中,還可使用權重衰減(weight decay或L2或L2 )正規化(regularization)技術以避免過擬合(overfitting)問題,用以提高預測準確度。
以上所述僅為本發明之較佳實施例而已,並非用以限定本發明之申請專利範圍;凡其它未脫離發明所揭示之精神下所完成之等效改變或修飾,均應包含在下述之申請專利範圍內。
10:助行器100:把手11A:第一可動件11B:第二可動件110A:端110B:端110C:端110D:端111:第二制動件1111:表面12:固定件120:中心軸121:第一制動件121A:凸緣121B:固定片1211:表面1212:凸點13A:第一接合處13B:第二接合處13C:第三接合處13D:第四接合處14:感測器15:彈性件200:決定意圖移動方向的方法21:收集訓練感測值22:預處理訓練感測值221:常態化訓練感測值222:依意圖移動方向標記訓練感測值223:降低訓練感測值的維度23:模型化24:預測意圖241:收集量測感測值242:預處理量測感測值243:得到量測感測值與權重的線性組合244:判定觸發245:產生各意圖移動方向的機率值300:決定意圖移動方向的系統31:代理器311:類比至數位轉換器312:處理器313:通訊裝置32:電腦321:中央處理單元322:資料庫51:邏輯單元ADC:類比至數位轉換器CPU:中央處理單元x1~x12:感測值a1~a12:邏輯單元w11~w1_12:權重w21~w12_1:權重
第一A圖顯示本發明實施例之助行器的把手的俯視圖的比例圖示。 第一B圖顯示沿第一A圖之剖面線的立體圖的比例圖示。 第一C圖顯示第一A圖之把手的部分分解圖的比例圖示。 第一D圖顯示應用把手之助行器的立體圖的比例圖示。 第一E圖顯示另一實施例沿第一A圖之剖面線的立體圖的比例圖示。 第一F圖顯示第二制動件的俯視圖的比例圖示。 第一G圖顯示一表格,表示各意圖移動方向的相應感測器的感測值。 第二圖顯示本發明實施例之決定意圖移動方向的方法的流程圖。 第三圖顯示本發明實施例之決定意圖移動方向的系統的方塊圖。 第四圖顯示第二圖之步驟22的細部流程圖。 第五A圖例示本實施例使用邏輯模型化演算法處理感測值以進行機器學習的架構示意圖。 第五B圖顯示第五A圖的其中一個邏輯單元。 第六圖顯示第二圖之步驟24的細部流程圖。
10:助行器
100:把手

Claims (23)

  1. 一種具判斷使用意圖的助行器的把手,包含:至少一可動件;複數固定件,分別和該至少一可動件滑動接合;複數壓力感測器,分別設於該固定件與該至少一可動件的接合處;一第一制動件,延伸套設於該固定件的表面,且位於該固定件與該至少一可動件的接合處;及一第二制動件,相向於該第一制動件,該第二制動件延伸設於該至少一可動件的表面,且位於該至少一可動件與該固定件的接合處。
  2. 如請求項1之具判斷使用意圖的助行器的把手,其中該壓力感測器包含單軸力感測器。
  3. 如請求項1之具判斷使用意圖的助行器的把手,其中該至少一可動件包含一第一可動件與一第二可動件。
  4. 如請求項3之具判斷使用意圖的助行器的把手,其中該第一可動件的兩端包含一第一接合處與一第二接合處,該第一可動件分別於該第一接合處與該第二接合處與該些固定件滑動接合;該第二可動件的兩端包含一第三接合處與一第四接合處,該第二可動件分別於該第三接合處與該第四接合處與該些固定件滑動接合;且該第一接合處、該第二接合處、該第三接合處與該第四接合處分別設有至少一個所述壓力感測器。
  5. 如請求項1之具判斷使用意圖的助行器的把手,其中該壓力感測器固設於該第二制動件或該第一制動件的表面。
  6. 如請求項1之具判斷使用意圖的助行器的把手,其中該第一制動件或該第二制動件的表面設有凸點,其面向該壓力感測器。
  7. 如請求項1之具判斷使用意圖的助行器的把手,更包含複數彈性件,設於該第一制動件與該第二制動件之間。
  8. 一種具判斷使用意圖的助行器的操作方法,包含:根據該助行器的把手的特定移動方向,從設於該把手的複數壓力感測器相應收集訓練感測值;預處理該訓練感測值;針對預處理後的該訓練感測值進行機器學習的模型化,以得到機器學習的模型;及輸入該把手的複數壓力感測器的量測感應值,根據該模型以預測得到意圖移動方向。
  9. 如請求項8之具判斷使用意圖的助行器的操作方法,其中該壓力感測器包含單軸力感測器。
  10. 如請求項8之具判斷使用意圖的助行器的操作方法,更包含:根據該助行器的把手的特定移動方向,從該些壓力感測器相應收集測試資料。
  11. 如請求項8之具判斷使用意圖的助行器的操作方法,其中該訓練感測值的預處理步驟包含:根據該訓練感測值的平均值與標準差,常態化該訓練感測值。
  12. 如請求項8之具判斷使用意圖的助行器的操作方法,其中該訓練感測值的預處理步驟包含:依特定移動方向相應標記該訓練感測值。
  13. 如請求項8之具判斷使用意圖的助行器的操作方法,其中該訓練感測值的預處理步驟包含:使用維度降低技術,以降低訓練感測值的維度。
  14. 如請求項8之具判斷使用意圖的助行器的操作方法,其中該機器學習的模型化步驟包含:使用邏輯模型化演算法以進行機器學習。
  15. 如請求項8之具判斷使用意圖的助行器的操作方法,其中該機器學習的模型包含:至少一邏輯單元,作為人工神經網路當中的一個神經細胞,該邏輯單元具有觸發函數,其輸出為該訓練感測值與權重的線性組合。
  16. 一種具判斷使用意圖的助行器的操作方法,包含:提供機器學習的模型,其係根據該助行器的把手的複數壓力感測器相應收集的訓練感測值,經機器學習的模型化而得到;及輸入該把手的複數壓力感測器的量測感應值,根據該模型以預測得到意圖移動方向。
  17. 如請求項16之具判斷使用意圖的助行器的操作方法,其中該壓力感測器包含單軸力感測器。
  18. 如請求項16之具判斷使用意圖的助行器的操作方法,其中該預測得到意圖移動方向的步驟包含:根據該量測感測值的平均值與標準差,常態化該量測感測值。
  19. 如請求項16之具判斷使用意圖的助行器的操作方法,其中該機器學習的模型包含:至少一邏輯單元,作為人工神經網路當中的一個神經細胞,該邏輯單元具有觸發函數,其輸出為該量測感測值與權重的線性組合。
  20. 如請求項19之具判斷使用意圖的助行器的操作方法,其中該預測得到意圖移動方向的步驟包含:得到該量測感測值與該權重的線性組合;將該線性組合的值輸入至該邏輯單元,以判定該邏輯單元是否被觸發;及根據該邏輯單元的觸發結果,以產生各意圖移動方向的機率值。
  21. 如請求項20之具判斷使用意圖的助行器的操作方法,其中該產生機率值的步驟包含:使用多元分類(OVR)技術以產生各個意圖移動方向的機率值。
  22. 如請求項20之具判斷使用意圖的助行器的操作方法,其中該產生機率值的步驟包含:使用多項式技術以產生各個意圖移動方向的機率值。
  23. 如請求項20之具判斷使用意圖的助行器的操作方法,其中該產生機率值的步驟包含: 使用權重衰減正規化(L2 regularization)技術處理該量測感應值以避免過擬合(overfitting)。
TW107138128A 2018-10-29 2018-10-29 具判斷使用意圖的助行器及其操作方法 TWI719353B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
TW107138128A TWI719353B (zh) 2018-10-29 2018-10-29 具判斷使用意圖的助行器及其操作方法
CN201811396661.5A CN111096878B (zh) 2018-10-29 2018-11-22 具有判断使用意图的助行器及其操作方法
US16/231,847 US20200129366A1 (en) 2018-10-29 2018-12-24 Walker capable of determining use intent and a method of operating the same
JP2019039737A JP6796673B2 (ja) 2018-10-29 2019-03-05 使用意図を判定可能な歩行器及びその操作方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW107138128A TWI719353B (zh) 2018-10-29 2018-10-29 具判斷使用意圖的助行器及其操作方法

Publications (2)

Publication Number Publication Date
TW202015642A TW202015642A (zh) 2020-05-01
TWI719353B true TWI719353B (zh) 2021-02-21

Family

ID=70327519

Family Applications (1)

Application Number Title Priority Date Filing Date
TW107138128A TWI719353B (zh) 2018-10-29 2018-10-29 具判斷使用意圖的助行器及其操作方法

Country Status (4)

Country Link
US (1) US20200129366A1 (zh)
JP (1) JP6796673B2 (zh)
CN (1) CN111096878B (zh)
TW (1) TWI719353B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2568323A (en) 2017-03-03 2019-05-15 Google Llc Systems and methods for detecting improper implementation of presentation of content items by applications executing on client devices
TWI761971B (zh) 2020-09-28 2022-04-21 緯創資通股份有限公司 主動式助行器
CN112826711A (zh) * 2021-01-07 2021-05-25 国家康复辅具研究中心 一种辅助起立助行器系统
CN113081703A (zh) * 2021-03-10 2021-07-09 上海理工大学 一种助行器使用者方向意图判别方法及装置
CN113768760B (zh) * 2021-09-08 2022-12-20 中国科学院深圳先进技术研究院 助行器的控制方法、系统和驱动设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100807300B1 (ko) * 2007-01-26 2008-03-03 고등기술연구원연구조합 힘의 세기에 의해 속도가 조절되는 보행보조기기
CN202015325U (zh) * 2010-12-21 2011-10-26 西安交通大学苏州研究院 带触滑觉传感器的多功能助老助行机器人
TWI364277B (zh) * 2009-04-30 2012-05-21 Univ Nat Chiao Tung
CN102551994A (zh) * 2011-12-20 2012-07-11 华中科技大学 一种康复助行机器人
TWI383788B (zh) * 2010-12-17 2013-02-01 Univ Nat Chiao Tung 力感應握持裝置
TWI492743B (zh) * 2012-12-11 2015-07-21 Univ Nat Taiwan 復健裝置
WO2015148578A2 (en) * 2014-03-24 2015-10-01 Alghazi Ahmad Alsayed M Multi-functional smart mobility aid devices and methods of use
CN105588669A (zh) * 2015-12-11 2016-05-18 广西柳工机械股份有限公司 一种轴销式三向测力传感器

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100717397B1 (ko) * 2006-07-19 2007-05-11 한국산업기술대학교산학협력단 로드셀을 이용한 노약자의 보행보조로봇에 장착되는보행의지파악 시스템
CN101058319A (zh) * 2007-05-21 2007-10-24 林士云 基于智能控制的电动助力转向系统
JP2009136489A (ja) * 2007-12-06 2009-06-25 Toyota Motor Corp 歩行補助装置
US8162808B2 (en) * 2009-03-05 2012-04-24 Cook Matthew R Compressible curl bar
JP2010215043A (ja) * 2009-03-16 2010-09-30 Bridgestone Cycle Co 電動アシストカート
CN101581718B (zh) * 2009-06-26 2012-07-25 陕西科技大学 陶瓷坯泥内应力在线软测量方法
TW201212904A (en) * 2010-09-29 2012-04-01 Univ Chaoyang Technology Electric walking aid with pressure sensing device
CN103279039A (zh) * 2013-05-17 2013-09-04 安徽工业大学 一种机器人神经网络式计算力矩控制器训练平台及训练方法
JP2015033505A (ja) * 2013-08-09 2015-02-19 船井電機株式会社 手動推進車両
JP6187049B2 (ja) * 2013-08-30 2017-08-30 船井電機株式会社 歩行アシスト移動体
CN105939646B (zh) * 2013-12-02 2019-01-18 三星电子株式会社 吸尘器和控制该吸尘器的方法
JP6349975B2 (ja) * 2014-06-03 2018-07-04 日本精工株式会社 電動パワーステアリング装置およびこれを使用した車両
JP6620326B2 (ja) * 2015-07-02 2019-12-18 Rt.ワークス株式会社 手押し車
CN105354445A (zh) * 2015-11-17 2016-02-24 南昌大学第二附属医院 一种基于血液标志物的人工神经网络智能判别系统
KR101963953B1 (ko) * 2017-03-20 2019-07-31 경희대학교 산학협력단 보행 보조를 위한 조향 제어장치
KR102021861B1 (ko) * 2017-10-17 2019-11-04 엘지전자 주식회사 진공 청소기 및 청소기의 핸들
CN108236562A (zh) * 2018-03-29 2018-07-03 五邑大学 一种老年人助行器及其控制方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100807300B1 (ko) * 2007-01-26 2008-03-03 고등기술연구원연구조합 힘의 세기에 의해 속도가 조절되는 보행보조기기
TWI364277B (zh) * 2009-04-30 2012-05-21 Univ Nat Chiao Tung
TWI383788B (zh) * 2010-12-17 2013-02-01 Univ Nat Chiao Tung 力感應握持裝置
CN202015325U (zh) * 2010-12-21 2011-10-26 西安交通大学苏州研究院 带触滑觉传感器的多功能助老助行机器人
CN102551994A (zh) * 2011-12-20 2012-07-11 华中科技大学 一种康复助行机器人
TWI492743B (zh) * 2012-12-11 2015-07-21 Univ Nat Taiwan 復健裝置
WO2015148578A2 (en) * 2014-03-24 2015-10-01 Alghazi Ahmad Alsayed M Multi-functional smart mobility aid devices and methods of use
CN105588669A (zh) * 2015-12-11 2016-05-18 广西柳工机械股份有限公司 一种轴销式三向测力传感器

Also Published As

Publication number Publication date
CN111096878A (zh) 2020-05-05
CN111096878B (zh) 2022-08-05
US20200129366A1 (en) 2020-04-30
TW202015642A (zh) 2020-05-01
JP2020069376A (ja) 2020-05-07
JP6796673B2 (ja) 2020-12-09

Similar Documents

Publication Publication Date Title
TWI719353B (zh) 具判斷使用意圖的助行器及其操作方法
CN109953761B (zh) 一种下肢康复机器人运动意图推理方法
Ikeda et al. Grip force control for an elastic finger using vision-based incipient slip feedback
Wang et al. A flexible lower extremity exoskeleton robot with deep locomotion mode identification
JP2018514409A (ja) ロボットのモータの制御および/または調整
Taghvaei et al. Control of a passive walker using a depth sensor for user state estimation
Hsieh et al. Motion guidance for a passive robot walking helper via user's applied hand forces
Sakr et al. On the estimation of isometric wrist/forearm torque about three axes using Force Myography
Yazdani et al. Ergonomically intelligent physical human-robot interaction: Postural estimation, assessment, and optimization
Dometios et al. Real-time end-effector motion behavior planning approach using on-line point-cloud data towards a user adaptive assistive bath robot
Miyata et al. A limb compliant sensing strategy for robot collision reaction
Yazdani et al. Is the leader robot an adequate sensor for posture estimation and ergonomic assessment of a human teleoperator?
Gutierrez et al. Perception of tactile directionality via artificial fingerpad deformation and convolutional neural networks
Sedighi et al. EMG-Based Intention Detection Using Deep Learning for Shared Control in Upper-Limb Assistive Exoskeletons
Xu et al. Multi-sensor based human motion intention recognition algorithm for walking-aid robot
Fotinea et al. The mobot human-robot interaction: Showcasing assistive hri
Papageorgiou et al. Human-centered service robotic systems for assisted living
Chen et al. Learning and planning of stair ascent for lower-limb exoskeleton systems
Verdezoto et al. Smart rollators aid devices: Current trends and challenges
Gerez et al. A Hybrid, Soft Robotic Exoskeleton Glove with Inflatable, Telescopic Structures and a Shared Control Operation Scheme
Geier et al. End-to-end tactile feedback loop: from soft sensor skin over deep GRU-autoencoders to tactile stimulation
Yazdani et al. Occlusion-Robust Multi-Sensory Posture Estimation in Physical Human-Robot Interaction
Molano et al. Robotic walker with high maneuverability through deep learning for sensor fusion
Jiang et al. A novel direction control method for walking support with an omnidirectional walker
Paulo et al. Classification of reaching and gripping gestures for safety on walking aids