CN111096878A - 具有判断使用意图的助行器及其操作方法 - Google Patents

具有判断使用意图的助行器及其操作方法 Download PDF

Info

Publication number
CN111096878A
CN111096878A CN201811396661.5A CN201811396661A CN111096878A CN 111096878 A CN111096878 A CN 111096878A CN 201811396661 A CN201811396661 A CN 201811396661A CN 111096878 A CN111096878 A CN 111096878A
Authority
CN
China
Prior art keywords
handle
values
joint
training
walker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811396661.5A
Other languages
English (en)
Other versions
CN111096878B (zh
Inventor
黄奕禧
杨琇惠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wistron Corp
Original Assignee
Wistron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wistron Corp filed Critical Wistron Corp
Publication of CN111096878A publication Critical patent/CN111096878A/zh
Application granted granted Critical
Publication of CN111096878B publication Critical patent/CN111096878B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/04Wheeled walking aids for patients or disabled persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/04Wheeled walking aids for patients or disabled persons
    • A61H2003/043Wheeled walking aids for patients or disabled persons with a drive mechanism
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/16Physical interface with patient
    • A61H2201/1602Physical interface with patient kind of interface, e.g. head rest, knee support or lumbar support
    • A61H2201/1635Hand or arm, e.g. handle
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5061Force sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5071Pressure sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Pain & Pain Management (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Rehabilitation Therapy (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Epidemiology (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Rehabilitation Tools (AREA)
  • Handcart (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明公开一种具有判断使用意图的助行器及其操作方法,该具有判断使用意图的助行器,其把手包含至少一可动件;多个固定件,分别和可动件滑动接合;及多个压力传感器,分别设于固定件与可动件的接合处。

Description

具有判断使用意图的助行器及其操作方法
技术领域
本发明涉及一种助行器,特别是涉及一种具有判断使用意图的助行器的把手及其操作方法。
背景技术
行动不便(mobility disability)是老年人或者下肢残障人士亟需解决的问题,因此推出有各式各样的行动辅助装置或助行器以改善或解决行动不便的问题。行动辅助装置可大致分为主动式与被动式两大类。主动式行动辅助装置主要是以马达来驱使使用者的行动,而被动式行动辅助装置则是主要由使用者提供原动力(motive force)。
行动辅助装置的一个首要功能在于预测使用者的意图(intent)移动方向,据以后续对行动辅助装置作进一步的控制。葛伦·瓦森(Glenn Wasson)等人提出“用于行动辅助的分享控制架构的使用者意图(User Intent in a Shared Control Framework forPedestrian Mobility Aids)”,刊于电机电子工程师学会 2003年智能机器人与系统国际会议公报(Proceedings 2003IEEE RSJ International Conference on IntelligentRobots and Systems(IROS 2003)),2003 年,其使用二个六-自由度的力矩传感器(6-DOFmoment sensor),分别设于助行器的二个把手上,用以决定使用者的移动意图。
葛伦·瓦森(Glenn Wasson)等人提出“用于分享控制行动辅助的基于物理模型以预测使用者意图(A Physics-Based Model for Predicting User Intent in Shared-Control Pedestrian Mobility Aids)”,刊于电机电子工程师学会2004年智能机器人与系统国际会议(2004IEEE RSJ International Conference on Intelligent Robots andSystems(IROS)),2004年,其使用二个六-自由度的力矩传感器(6-DOF moment sensor)分别设于助行器的二个把手上,用以测量力矩,据以决定使用者的移动意图。
马修·史宾克(Matthew Spenko)等人提出“用于老年人行动与监控的机器人辅助(Robotic Personal Aids for Mobility and Monitoring for the Elderly)”,刊于电机电子工程师学会神经系统与复健工程公报(IEEE TRANSACTIONS ON NEURAL SYSTEMS ANDREHABILITATION ENGINEERING),第14 册,第3号,2006年九月,其使用六轴力矩传感器(six-axis torque sensor),以测量使用者施于把手的力矩。
亚伦·莫里斯(Aaron Morris)等人提出“提供引导的机器人助行器(A RoboticWalker That Provides Guidance)”,刊于2003年电机电子工程师学会机器人与自动化国际会议(2003IEEE International Conference on Robotics and Automation),2003年9月,其使用力感测电阻器(force-sensing resistor),并将读出值转换为移动(translational)与转动(rotational)速度。
杨翔斌(Hsiang-Pin Yang)提出“基于使用者意图之行动辅具设计(On theDesign of a Robot Walking Helper Based on Human Intention)”,中国台湾交通大学硕士论文,2010年,其使用力传感器并使用读出值以推论出使用者意图与旋转力矩间的关系。
传统行动辅助装置主要是使用多轴力传感器(multi-axis force sensor),以得知使用者意图移动的方向。目前行动辅助装置在硬件结构设计、应用软体开发与感测系统整合正在持续发展中。
发明内容
本发明实施例之一提出一种具有判断使用意图的助行器,该助行器的把手设有压力传感器(特别是单轴力传感器)于固定件与可动件的接合处。根据各接合处所收集的压力传感器的感测值,可据以判断意图移动的方向。相较于传统助行器使用多轴力传感器,上述实施例使用单轴力传感器作为助行器的把手的传感器,可简化系统架构。
本发明另一实施例提出一种具有判断使用意图的助行器的操作方法,收集各种意图移动方向的相应感测值,对其进行机器学习的模型化运算,以得到机器学习的模型。根据本发明又一实施例,根据所得到的机器学习的模型,可据以预测得到意图移动方向。上述实施例使用机器学习技术以处理感测值,可免去繁复的程序撰写。
附图说明
图1A为本发明实施例的助行器的把手的俯视图;
图1B为沿图1A的剖面线的立体图;
图1C为图1A的把手的部分分解图;
图1D为应用把手的助行器的立体图;
图1E为另一实施例沿图1A的剖面线的立体图;
图1F为第二制动件的俯视图;
图1G为一表格图,表示各意图移动方向的相应传感器的感测值;
图2为本发明实施例的决定意图移动方向的方法的流程图;
图3为本发明实施例的决定意图移动方向的系统的方块图;
图4为图2的步骤22的细部流程图;
图5A为本实施例使用逻辑模型化演算法处理感测值以进行机器学习的架构示意图;
图5B为图5A的其中一个逻辑单元的示意图;
图6为图2的步骤24的细部流程图。
符号说明
10 助行器
100 把手
11A 第一可动件
11B 第二可动件
110A 端
110B 端
110C 端
110D 端
111 第二制动件
1111 表面
12 固定件
120 中心轴
121 第一制动件
121A 凸缘
121B 固定片
1211 表面
1212 凸点
13A 第一接合处
13B 第二接合处
13C 第三接合处
13D 第四接合处
14 传感器
15 弹性件
200 决定意图移动方向的方法
21 收集训练感测值
22 预处理训练感测值
221 常态化训练感测值
222 依意图移动方向标记训练感测值
223 降低训练感测值的维度
23 模型化
24 预测意图
241 收集测量感测值
242 预处理测量感测值
243 得到测量感测值与权重的线性组合
244 判定触发
245 产生各意图移动方向的机率值
300 决定意图移动方向的系统
31 代理器
311 模拟至数字转换器
312 处理器
313 通信装置
32 计算机
321 中央处理单元
322 数据库
51 逻辑单元
ADC 模拟至数字转换器
CPU 中央处理单元
x1~x12 感测值
a1~a12 逻辑单元
w11~w1_12 权重
w21~w12_1 权重
具体实施方式
图1A显示本发明实施例的助行器(walker)10的把手(handle)100的俯视图的比例图示,图1B显示沿图1A的剖面线1B-1B’的立体图的比例图示,图1C显示图1A的把手100的部分分解图的比例图示,图1D显示应用把手 100的助行器10的立体图的比例图示。本实施例的助行器10可为主动式助行器或被动式助行器。
在本实施例中,把手100包含第一可动件(moving part)11A与第二可动件11B,分别用以让右手、左手握持。把手100还包含多个固定件12,分别和第一可动件11A及第二可动件11B滑动接合,使得第一可动件11A及第二可动件11B可滑动于该些固定件12之间,且使得第一可动件11A及第二可动件11B可沿着固定件12的中心轴120作往复滑动。在本实施例中,基于结构强度与重量考虑,第一可动件11A、第二可动件11B与固定件12为中空管状,但不限定于此。
如图1A所示,在第一接合处13A与第二接合处13B,第一可动件11A 的两端110A、110B分别与固定件12滑动接合。在所示例子中,第一接合处13A位于右前方,第二接合处13B位于右后方。类似的情形,在第三接合处13C与第四接合处13D,第二可动件11B的两端110C、110D分别与固定件12滑动接合。在所示例子中,第三接合处13C位于左前方,第四接合处13D位于左后方。
在本实施例中,在固定件12与第一可动件11A的接合处13A、13B,以及在固定件12与第二可动件11B的接合处13C、13D,固定件12的表面套设有第一制动件(stopper)121。第一制动件121主要包含环状的凸缘121A,垂直于固定件12的中心轴120向外延伸。第一制动件121还包含固定片 121B,连接于凸缘121A,作为和固定件12固定之用。在第一可动件11A与固定件12的接合处13A、13B,以及在第二可动件11B与固定件12的接合处13C、13D,第一可动件11A及第二可动件11B的表面向外延伸有凸缘状的第二制动件111,与第一制动件121的凸缘121A相向。
本实施例的把手100包含多个传感器14,例如压力传感器(pressure sensor),特别是单轴力传感器(single-axis force sensor),分别设于第一可动件 11A与固定件12的接合处13A、13B,以及第二可动件11B与固定件12的接合处13C、13D,每一接合处设有至少一传感器14。在一实施例中,基于压力传感器数量考虑,各接合处13A、13B、13C、13D分别设有三个传感器 14。其中,第一接合处13A设有传感器1、传感器2、传感器3,第二接合处13B设有传感器4、传感器5、传感器6,第三接合处13C设有传感器7、传感器8、传感器9,第四接合处13D设有传感器10、传感器11、传感器 12。图1E显示另一实施例沿图1A的剖面线的立体图的比例图示,第一可动件11A与固定件12的接合处13A、13B,且在第二可动件11B与固定件 12地的接合处13C、13D,分别设有一个环状的传感器14。
在本实施例中,传感器14固设(例如贴附)于第二制动件111的表面1111,其面向第一制动件121。如图1B所例示,三个传感器14平均(equally)且等距设于第二制动件111的表面1111。本实施例的第一制动件121的凸缘121A 面向第二制动件111的表面1111,面向传感器14可分别设有凸点1212。本实施例于第一制动件121与第二制动件111之间还可设有多个(例如三个)弹性(elastic)件15(例如海绵、弹簧等),使得第一可动件11A或第二可动件11B于移动之后可回复至初始位置,亦即传感器14未受压之前的位置。图1F显示第二制动件111的俯视图的比例图示,其中弹性件15固定(例如贴附)于第二制动件111的表面1111且介于传感器14之间。上述传感器14、凸点1212 与弹性件15的设定位置及数目并不限定于图示。例如,在另一实施例中(未图示),传感器14可固设于第一制动件121的凸缘121A的表面1211,凸点 1212设于第二制动件111的表面1111并面向传感器14,且弹性件15设于第一制动件121的凸缘121A的表面1211且介于传感器14之间。
当使用者的右手、左手分别握持第一可动件11A、第二可动件11B,并意图(intent)往一特定方向移动时,各接合处13A、13B、13C、13D的传感器 14即会感测得到不同的特定感测值。举例而言,若以一序列的要素(element) 来分别表示传感器1至传感器12的感测值,当意图向前方移动时,感测值序列可为[3010,2511,2133,3,15,2,3201,2004,3121,1,5,7];当意图向左前方移动时,感测值序列可为[4012,3400,2311,2,4,10,3,2,7,1291,1311,1412];当意图向右前方移动时,感测值序列可为[1,2,11,1302,1231,1212, 2311,3211,4033,21,12,15]。图1G显示一表格,表示各意图移动方向的相应传感器1~传感器12的感测值,其粗略以大、中、小来表示感测值的相对大小。
图2显示本发明实施例的决定意图(intent)移动方向的方法200的流程图,可适用于助行器10。于步骤21,以右手、左手分别握持第一可动件11A、第二可动件11B,意图往一特定方向移动,并相应收集该些传感器14的(训练)感测值,作为训练数据(training data)。此外,还可额外收集(测试)感测值,作为测试数据(test data)。在本实施例中,总共进行六个方向的意图移动,亦即前方、左前方、右前方、后方、左后方、右后方,并相应收集该些传感器 14的感测值。此外,在停止(不作动)时,也相应收集该些传感器14的感测值。所收集得到的感测值可存储于数据库。意图移动方向的数目并不限定于前述六个,可根据特定应用而设定不同数目的意图移动方向。
图3显示本发明实施例的决定意图移动方向的系统300的方块图。在本实施例中,决定意图移动方向的系统(以下简称系统)300包含代理器 (agent)31,用以收集传感器14所产生的感测值。代理器31通常设于助行器 10的把手100附近。代理器31可包含模拟至数字转换器(ADC)311,用以将感测值从模拟形式转换为数字形式。代理器31可包含处理器(例如微处理器)312,其可执行代理程序(agent software),用以收集经转换为数字形式的感测值。代理器31可包含通信装置313,例如通用非同步接收发送器 (universalasynchronous receiver-transmitter,UART),用以将所收集的感测值传送至计算机32。计算机32通常设于助行器10远离把手100处,例如设于助行器10的底部。计算机32至少包含中央处理单元(CPU)321与数据库322,其中中央处理单元321将所接收的感测值处理为特定格式的数据档案,再存储于数据库322。
回到图2的决定意图移动方向的方法(以下简称方法)200,于步骤22,对数据库322所存储的感测值进行预处理(preprocess)。图4显示图2的步骤 22的细部流程图,其执行顺序不限定于图示顺序。于次步骤221,根据感测值的平均值(mean)与标准差(standarddeviation),常态化(normalize)感测值,用于消除噪声。在次步骤222,依意图移动方向相应标记(label)感测值。在本实施例中,依照意图移动的方向—前方、左前方、右前方、后方、左后方、右后方、停止,将相应感测值依序分别标记为0、1、2、3、4、5、6。步骤 22可额外包含次步骤223,使用维度(dimension)降低技术,通过降低感测值的维度,以利观察及后续处理。在本实施例中,可使用分散随机相邻内嵌 (T-distributed Stochastic NeighborEmbedding,t-SNE)演算法与主成分分析 (Principal component analysis,PCA)演算法以降低感测值的维度,但不限定于此。
回到图2所示的方法200,于步骤23,针对预处理后的感测值进行机器学习(machine learning)的模型化(modeling),以得到机器学习的模型。在一实施例中,可使用支持向量机(support vector machines,SVMs)演算法以进行机器学习。由于支持向量机(SVMs)演算法的运算量较大,因此通常无法达到即时(real time)的应用。在本实施例中,使用逻辑模型化(logistic modeling)演算法以进行机器学习,其运算量远较支持向量机(SVMs)演算法来得小,因此可以达到即时的应用。
图5A例示本实施例使用逻辑模型化演算法处理感测值以进行机器学习的架构示意图,其中x1、x2…x12分别代表传感器1、传感器2…传感器12 的感测值,a1、a2…a12分别代表逻辑单元(logistic unit)51,w11、w12…w1_12... 等分别代表权重。图5B显示图5A的其中一个逻辑单元51,其中w11、 w21…w12_1分别代表相应权重。图5A及图5B显示一种人工神经网络(artificial neural network)的架构,逻辑单元51作为人工神经网络当中的一个神经细胞 (neuron),以执行逻辑回归(logistic regression)。根据此架构,可得到感测值(xn)与权重(wn)的线性组合(linear combination),例如x1·w11+x2·w21+…+x12·w12_1。接着,将线性组合的值输入至逻辑单元51,其具有触发(activate)函数(例如S 形(sigmoid)函数),以判定该逻辑单元51是否被触发。由此,将(训练)感测值带入图5A及图5B所示的架构中,可得到权重(wn),作为机器学习的模型。此外,在得到机器学习的模型(亦即权重)后,还可将(测试)感测值带入模型当中,以验证所得到的模型是否正确。
回到图2所示的方法200,于步骤24,根据(步骤23)所得到机器学习的模型,输入助行器10的把手100的传感器14的(测量)感测值,即可输出得到意图移动的方向。所得到意图移动方向可于后续据以控制助行器10的其他元件,例如伺服刹车器或马达。
图6显示图2的步骤24的细部流程图。于次步骤241,以右手、左手分别握持第一可动件11A、第二可动件11B,意图往一特定方向移动,并相应收集该些传感器14的(测量)感测值,作为测量数据(measured data)。次步骤 241类似于图2的步骤21,其细节因此不予赘述。
接着,于次步骤242,对(测量)感测值进行预处理。类似于图4的次步骤221,根据(测量)感测值的平均值(mean)与标准差(standard deviation),常态化(normalize)感测值,用于消除噪声。
于次步骤243,根据(步骤23所得到的)前述的模型(亦即权重),计算以得到(测量)感测值与权重的线性组合,如图5A及图5B所示。接着,于次步骤244,将线性组合的值输入至逻辑单元51,其具有触发(activate)函数(例如 S形(sigmoid)函数),以判定该逻辑单元51是否被触发。
于次步骤245,根据逻辑单元51的触发结果,以产生各意图移动方向的机率值,作为预测值,据以得知所测量的感测值所对应的意图移动方向。在一实施例中,使用多元分类(one-vs-rest,OVR)技术以产生各个意图移动方向的机率值。在另一实施例中,使用多项式(multinomial)技术以产生各个意图移动方向的机率值。在本次步骤245当中,还可使用权重衰减(weight decay 或L2或L2)正规化(regularization)技术以避免过拟合(overfitting)问题,用以提高预测准确度。
以上所述仅为本发明的优选实施例而已,并非用以限定本发明的权利要求;凡其它未脱离发明所揭示的精神下所完成的等效改变或修饰,均应包含在附上的权利要求内。

Claims (24)

1.一种具有判断使用意图的助行器的把手,其特征在于,包含:
至少一可动件;
多个固定件,分别和该至少一可动件滑动接合;及
多个压力传感器,分别设于该固定件与该至少一可动件的接合处。
2.根据权利要求1所述的具有判断使用意图的助行器的把手,其中该压力传感器包含单轴力传感器。
3.根据权利要求1所述的具有判断使用意图的助行器的把手,其中该至少一可动件包含第一可动件与第二可动件。
4.根据权利要求3所述的具有判断使用意图的助行器的把手,其中在第一接合处与第二接合处,该第一可动件的两端分别与该些固定件滑动接合;在第三接合处与第四接合处,该第二可动件的两端分别与该些固定件滑动接合;且该第一接合处、该第二接合处、该第三接合处与该第四接合处分别设有至少一该压力传感器。
5.根据权利要求1所述的具有判断使用意图的助行器的把手,还包含:
第一制动件,延伸套设于该固定件的表面,且位于该固定件与该至少一可动件的接合处;及
第二制动件,相向于该第一制动件,该第二制动件延伸设于该至少一可动件的表面,且位于该至少一可动件与该固定件的接合处。
6.根据权利要求5所述的具有判断使用意图的助行器的把手,其中该压力传感器固设于该第二制动件或该第一制动件的表面。
7.根据权利要求5所述的具有判断使用意图的助行器的把手,其中该第一制动件或该第二制动件的表面设有凸点,其面向该压力传感器。
8.根据权利要求5所述的具有判断使用意图的助行器的把手,还包含多个弹性件,设于该第一制动件与该第二制动件之间。
9.一种具有判断使用意图的助行器的操作方法,包含:
根据该助行器的把手的特定移动方向,从设于该把手的多个压力传感器相应收集训练感测值;
预处理该训练感测值;
针对预处理后的该训练感测值进行机器学习的模型化,以得到机器学习的模型;及
输入该把手的多个压力传感器的测量感应值,根据该模型以预测得到意图移动方向。
10.根据权利要求9所述的具有判断使用意图的助行器的操作方法,其中该压力传感器包含单轴力传感器。
11.根据权利要求9所述的具有判断使用意图的助行器的操作方法,还包含:
根据该助行器的把手的特定移动方向,从该些压力传感器相应收集测试数据。
12.根据权利要求9所述的具有判断使用意图的助行器的操作方法,其中该训练感测值的预处理步骤包含:
根据该训练感测值的平均值与标准差,常态化该训练感测值。
13.根据权利要求9所述的具有判断使用意图的助行器的操作方法,其中该训练感测值的预处理步骤包含:
依特定移动方向相应标记该训练感测值。
14.根据权利要求9所述的具有判断使用意图的助行器的操作方法,其中该训练感测值的预处理步骤包含:
使用维度降低技术,以降低训练感测值的维度。
15.根据权利要求9所述的具有判断使用意图的助行器的操作方法,其中该机器学习的模型化步骤包含:
使用逻辑模型化演算法以进行机器学习。
16.根据权利要求9所述的具有判断使用意图的助行器的操作方法,其中该机器学习的模型包含:
至少一逻辑单元,作为人工神经网络当中的一个神经细胞,该逻辑单元具有触发函数,其输出为该训练感测值与权重的线性组合。
17.一种具有判断使用意图的助行器的操作方法,包含:
提供机器学习的模型,其根据该助行器的把手的多个压力传感器相应收集的训练感测值,经机器学习的模型化而得到;及
输入该把手的多个压力传感器的测量感应值,根据该模型以预测得到意图移动方向。
18.根据权利要求17所述的具有判断使用意图的助行器的操作方法,其中该压力传感器包含单轴力传感器。
19.根据权利要求17所述的具有判断使用意图的助行器的操作方法,其中该预测得到意图移动方向的步骤包含:
根据该测量感测值的平均值与标准差,常态化该测量感测值。
20.根据权利要求17所述的具有判断使用意图的助行器的操作方法,其中该机器学习的模型包含:
至少一逻辑单元,作为人工神经网络当中的一个神经细胞,该逻辑单元具有触发函数,其输出为该测量感测值与权重的线性组合。
21.根据权利要求20所述的具有判断使用意图的助行器的操作方法,其中该预测得到意图移动方向的步骤包含:
得到该测量感测值与该权重的线性组合;
将该线性组合的值输入至该逻辑单元,以判定该逻辑单元是否被触发;及
根据该逻辑单元的触发结果,以产生各意图移动方向的机率值。
22.根据权利要求21所述的具有判断使用意图的助行器的操作方法,其中该产生机率值的步骤包含:
使用多元分类(OVR)技术以产生各个意图移动方向的机率值。
23.根据权利要求21所述的具有判断使用意图的助行器的操作方法,其中该产生机率值的步骤包含:
使用多项式技术以产生各个意图移动方向的机率值。
24.根据权利要求21所述的具有判断使用意图的助行器的操作方法,其中该产生机率值的步骤包含:
使用权重衰减正规化(L2regularization)技术处理该测量感应值以避免过拟合(overfitting)。
CN201811396661.5A 2018-10-29 2018-11-22 具有判断使用意图的助行器及其操作方法 Active CN111096878B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW107138128A TWI719353B (zh) 2018-10-29 2018-10-29 具判斷使用意圖的助行器及其操作方法
TW107138128 2018-10-29

Publications (2)

Publication Number Publication Date
CN111096878A true CN111096878A (zh) 2020-05-05
CN111096878B CN111096878B (zh) 2022-08-05

Family

ID=70327519

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811396661.5A Active CN111096878B (zh) 2018-10-29 2018-11-22 具有判断使用意图的助行器及其操作方法

Country Status (4)

Country Link
US (1) US20200129366A1 (zh)
JP (1) JP6796673B2 (zh)
CN (1) CN111096878B (zh)
TW (1) TWI719353B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112826711A (zh) * 2021-01-07 2021-05-25 国家康复辅具研究中心 一种辅助起立助行器系统
CN113081703A (zh) * 2021-03-10 2021-07-09 上海理工大学 一种助行器使用者方向意图判别方法及装置
CN113768760A (zh) * 2021-09-08 2021-12-10 中国科学院深圳先进技术研究院 助行器的控制方法、系统和驱动设备

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE212017000015U1 (de) 2017-03-03 2018-02-27 Google Llc Systeme zum Detektieren einer unzweckmässigen Implementierung einer Präsentation von Inhaltselementen durch Anwendungen, die auf Client-Geräten ablaufen
TWI761971B (zh) 2020-09-28 2022-04-21 緯創資通股份有限公司 主動式助行器

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101058319A (zh) * 2007-05-21 2007-10-24 林士云 基于智能控制的电动助力转向系统
KR100807300B1 (ko) * 2007-01-26 2008-03-03 고등기술연구원연구조합 힘의 세기에 의해 속도가 조절되는 보행보조기기
CN101581718A (zh) * 2009-06-26 2009-11-18 陕西科技大学 陶瓷坯泥内应力在线软测量方法
JP2010215043A (ja) * 2009-03-16 2010-09-30 Bridgestone Cycle Co 電動アシストカート
TW201212904A (en) * 2010-09-29 2012-04-01 Univ Chaoyang Technology Electric walking aid with pressure sensing device
CN102551994A (zh) * 2011-12-20 2012-07-11 华中科技大学 一种康复助行机器人
CN103279039A (zh) * 2013-05-17 2013-09-04 安徽工业大学 一种机器人神经网络式计算力矩控制器训练平台及训练方法
JP2015229380A (ja) * 2014-06-03 2015-12-21 日本精工株式会社 電動パワーステアリング装置およびこれを使用した車両
CN105354445A (zh) * 2015-11-17 2016-02-24 南昌大学第二附属医院 一种基于血液标志物的人工神经网络智能判别系统
JP2017012546A (ja) * 2015-07-02 2017-01-19 Rt.ワークス株式会社 手押し車
CN108236562A (zh) * 2018-03-29 2018-07-03 五邑大学 一种老年人助行器及其控制方法
KR20180106351A (ko) * 2017-03-20 2018-10-01 경희대학교 산학협력단 보행 보조를 위한 조향 제어장치

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100717397B1 (ko) * 2006-07-19 2007-05-11 한국산업기술대학교산학협력단 로드셀을 이용한 노약자의 보행보조로봇에 장착되는보행의지파악 시스템
JP2009136489A (ja) * 2007-12-06 2009-06-25 Toyota Motor Corp 歩行補助装置
US8162808B2 (en) * 2009-03-05 2012-04-24 Cook Matthew R Compressible curl bar
TW201038262A (en) * 2009-04-30 2010-11-01 Univ Nat Chiao Tung Interactive caretaking robot with the functions of obstacle avoidance and decision-making based on force-sensing
TWI383788B (zh) * 2010-12-17 2013-02-01 Univ Nat Chiao Tung 力感應握持裝置
CN202015325U (zh) * 2010-12-21 2011-10-26 西安交通大学苏州研究院 带触滑觉传感器的多功能助老助行机器人
TWI492743B (zh) * 2012-12-11 2015-07-21 Univ Nat Taiwan 復健裝置
JP2015033505A (ja) * 2013-08-09 2015-02-19 船井電機株式会社 手動推進車両
JP6187049B2 (ja) * 2013-08-30 2017-08-30 船井電機株式会社 歩行アシスト移動体
US10881257B2 (en) * 2013-12-02 2021-01-05 Samsung Electronics Co., Ltd. Cleaner and method for controlling cleaner
EP3122201A4 (en) * 2014-03-24 2017-12-20 Ahmad Alsayed M. Alghazi Multi-functional smart mobility aid devices and methods of use
CN105588669B (zh) * 2015-12-11 2021-03-16 广西柳工机械股份有限公司 一种轴销式三向测力传感器
KR102021861B1 (ko) * 2017-10-17 2019-11-04 엘지전자 주식회사 진공 청소기 및 청소기의 핸들

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100807300B1 (ko) * 2007-01-26 2008-03-03 고등기술연구원연구조합 힘의 세기에 의해 속도가 조절되는 보행보조기기
CN101058319A (zh) * 2007-05-21 2007-10-24 林士云 基于智能控制的电动助力转向系统
JP2010215043A (ja) * 2009-03-16 2010-09-30 Bridgestone Cycle Co 電動アシストカート
CN101581718A (zh) * 2009-06-26 2009-11-18 陕西科技大学 陶瓷坯泥内应力在线软测量方法
TW201212904A (en) * 2010-09-29 2012-04-01 Univ Chaoyang Technology Electric walking aid with pressure sensing device
CN102551994A (zh) * 2011-12-20 2012-07-11 华中科技大学 一种康复助行机器人
CN103279039A (zh) * 2013-05-17 2013-09-04 安徽工业大学 一种机器人神经网络式计算力矩控制器训练平台及训练方法
JP2015229380A (ja) * 2014-06-03 2015-12-21 日本精工株式会社 電動パワーステアリング装置およびこれを使用した車両
JP2017012546A (ja) * 2015-07-02 2017-01-19 Rt.ワークス株式会社 手押し車
CN105354445A (zh) * 2015-11-17 2016-02-24 南昌大学第二附属医院 一种基于血液标志物的人工神经网络智能判别系统
KR20180106351A (ko) * 2017-03-20 2018-10-01 경희대학교 산학협력단 보행 보조를 위한 조향 제어장치
CN108236562A (zh) * 2018-03-29 2018-07-03 五邑大学 一种老年人助行器及其控制方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112826711A (zh) * 2021-01-07 2021-05-25 国家康复辅具研究中心 一种辅助起立助行器系统
CN113081703A (zh) * 2021-03-10 2021-07-09 上海理工大学 一种助行器使用者方向意图判别方法及装置
CN113768760A (zh) * 2021-09-08 2021-12-10 中国科学院深圳先进技术研究院 助行器的控制方法、系统和驱动设备

Also Published As

Publication number Publication date
TW202015642A (zh) 2020-05-01
CN111096878B (zh) 2022-08-05
JP6796673B2 (ja) 2020-12-09
US20200129366A1 (en) 2020-04-30
TWI719353B (zh) 2021-02-21
JP2020069376A (ja) 2020-05-07

Similar Documents

Publication Publication Date Title
CN111096878B (zh) 具有判断使用意图的助行器及其操作方法
Xu et al. Feedback deep deterministic policy gradient with fuzzy reward for robotic multiple peg-in-hole assembly tasks
Wang et al. Controlling object hand-over in human–robot collaboration via natural wearable sensing
Li et al. Asymmetric bimanual control of dual-arm exoskeletons for human-cooperative manipulations
Pastor et al. Bayesian and neural inference on lstm-based object recognition from tactile and kinesthetic information
Khan et al. Passivity based adaptive control for upper extremity assist exoskeleton
Wang et al. A flexible lower extremity exoskeleton robot with deep locomotion mode identification
Choi et al. A hybrid dynamic model for the AMBIDEX tendon-driven manipulator
Ge et al. A real-time gesture prediction system using neural networks and multimodal fusion based on data glove
Funabashi et al. Tactile transfer learning and object recognition with a multifingered hand using morphology specific convolutional neural networks
Sedighi et al. Emg-based intention detection using deep learning for shared control in upper-limb assistive exoskeletons
Huang et al. Human intention recognition for robot walking helper using ANFIS
CN116214522B (zh) 基于意图识别的机械臂控制方法、系统及相关设备
Gutierrez et al. Perception of tactile directionality via artificial fingerpad deformation and convolutional neural networks
Chen et al. Modeling of rider-bicycle interactions with learned dynamics on constrained embedding manifolds
Kurnia et al. A control scheme for typist robot using Artificial Neural Network
Dimeas et al. Robot collision detection based on fuzzy identification and time series modelling
Gerez et al. A Hybrid, Soft Robotic Exoskeleton Glove with Inflatable, Telescopic Structures and a Shared Control Operation Scheme
El-Hussieny et al. Incremental learning of reach-to-grasp behavior: A PSO-based Inverse optimal control approach
Pavlic et al. RobotScale: A Framework for Adaptable Estimation of Static and Dynamic Object Properties with Object-dependent Sensitivity Tuning
Bauman et al. Gait phase detection in walking and stairs using machine learning
Molano et al. Robotic walker with high maneuverability through deep learning for sensor fusion
Kwiatkowski et al. The good grasp, the bad grasp, and the plateau in tactile-based grasp stability prediction
Berdell A machine learning approach to intended motion prediction for upper extremity exoskeletons
Lim et al. Wheelchair mountable robot arm (WMRA) technologies as the market destructive innovation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant