CN111267129B - 陪护机器人的控制装置 - Google Patents

陪护机器人的控制装置 Download PDF

Info

Publication number
CN111267129B
CN111267129B CN202010113344.9A CN202010113344A CN111267129B CN 111267129 B CN111267129 B CN 111267129B CN 202010113344 A CN202010113344 A CN 202010113344A CN 111267129 B CN111267129 B CN 111267129B
Authority
CN
China
Prior art keywords
device body
accompanying robot
pressing
mode
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010113344.9A
Other languages
English (en)
Other versions
CN111267129A (zh
Inventor
宋爱国
秦超龙
祝佳航
魏林琥
赵玉
李会军
徐保国
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN202010113344.9A priority Critical patent/CN111267129B/zh
Priority to PCT/CN2020/085881 priority patent/WO2021169008A1/zh
Priority to US17/280,305 priority patent/US11478937B2/en
Publication of CN111267129A publication Critical patent/CN111267129A/zh
Application granted granted Critical
Publication of CN111267129B publication Critical patent/CN111267129B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/009Nursing, e.g. carrying sick persons, pushing wheelchairs, distributing drugs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/02Hand grip control means
    • B25J13/025Hand grip control means comprising haptic means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/084Tactile sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05GCONTROL DEVICES OR SYSTEMS INSOFAR AS CHARACTERISED BY MECHANICAL FEATURES ONLY
    • G05G9/00Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously
    • G05G9/02Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only
    • G05G9/04Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously
    • G05G9/047Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously the controlling member being movable by hand about orthogonal axes, e.g. joysticks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0338Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of limited linear or angular displacement of an operating part of the device from a neutral position, e.g. isotonic or isometric joysticks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03548Sliders, in which the moving part moves in a plane
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05GCONTROL DEVICES OR SYSTEMS INSOFAR AS CHARACTERISED BY MECHANICAL FEATURES ONLY
    • G05G9/00Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously
    • G05G9/02Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only
    • G05G9/04Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously
    • G05G9/047Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously the controlling member being movable by hand about orthogonal axes, e.g. joysticks
    • G05G2009/0474Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously the controlling member being movable by hand about orthogonal axes, e.g. joysticks characterised by means converting mechanical movement into electric signals
    • G05G2009/04744Switches
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05GCONTROL DEVICES OR SYSTEMS INSOFAR AS CHARACTERISED BY MECHANICAL FEATURES ONLY
    • G05G9/00Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously
    • G05G9/02Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only
    • G05G9/04Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously
    • G05G9/047Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously the controlling member being movable by hand about orthogonal axes, e.g. joysticks
    • G05G2009/04774Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously the controlling member being movable by hand about orthogonal axes, e.g. joysticks with additional switches or sensors on the handle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/015Force feedback applied to a joystick

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Nursing (AREA)
  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种陪护机器人的控制装置,其中:装置本体,包括滑轨、指槽滑块和摇杆,所述指槽滑块活动设置于滑轨,用于接受按压;所述摇杆,用于控制所述陪护机器人;姿态解析装置,用于解析所述装置本体的三维姿态,当所述装置本体的三维姿态符合预设姿态时,控制所述陪护机器人进行对应的动作;触觉感知装置,用于感知所述指槽滑块接受的按压,并启动与按压信息对应的用户模式,控制装置本体进行相应的振动反馈。实现用户对控制装置的高效、便携控制,提高控制正确率,实现人机之间的有效交互。

Description

陪护机器人的控制装置
技术领域
本发明涉及机械控制领域,尤其涉及一种陪护机器人的控制装置。
背景技术
近年来,我国人口老龄化程度不断加深,卧床老人陪护需求不断增长,此外,由于车祸、事故等引起的肢体受伤患者的数量也在迅速增加,社会和家庭需要花费极大的代价来治疗和陪护这些患者,给家庭和社会带来了沉重的负担,为了满足卧床老人、患者等的基本生活需要,提高生活质量,智能陪护机器人成为当下的研究热点。
而由于陪护机器人的工作环境比较复杂、操作对象和操作方式等具有不确定性,机器人与人之间、机器人与环境之间的交互复杂、甚至危险,容易对用户及所处环境造成危害;随着技术的发展,单一的交互方式已不能满足人们的需求。
现有技术中陪护机器人自主导航、物品识别、物品抓取等独立的智能算法还不够成熟,难以很好的实现机器人和人之间、机器人和环境之间自然、安全、有效的沟通,难以实现对未知的、变化的居家环境局部区域的详细探索、抓取未识别物品等多样化、复杂的陪护需求。
发明内容
发明目的:本发明旨在提供一种陪护机器人的控制装置。
技术方案:本发明实施例中提供一种陪护机器人的控制装置,包括:装置本体、姿态解析装置和触觉感知装置,其中:
所述装置本体,分别与陪护机器人、姿态解析装置和触觉感知装置连接,包括滑轨、指槽滑块和摇杆,所述指槽滑块活动设置于滑轨,用于接受按压;所述摇杆,用于控制所述陪护机器人;
所述姿态解析装置,用于解析所述装置本体的三维姿态,当所述装置本体的三维姿态符合预设姿态时,控制所述陪护机器人进行对应的动作;
所述触觉感知装置,用于感知所述指槽滑块接受的按压,并启动与按压信息对应的用户模式,控制装置本体进行相应的振动反馈。
具体的,所述装置本体包括填充滑块、四条环绕设置于装置本体的滑轨,各滑轨均对应指槽滑块和至少一个填充滑块,指槽滑块和填充滑块形成圆环,活动设置于滑轨。
具体的,所述装置本体还包括第一按钮和第二按钮,在第一按钮和第二按钮同时接受按压时,所述触觉感知装置激活所述装置本体,并控制第一按钮和第二按钮进行振动反馈。
具体的,所述触觉感知装置用于在装置本体激活后,控制四条滑轨上的四个指槽滑块进行振动反馈,之后感知所述指槽滑块接受的按压,若按压模式与已存储的用户模式对应,则启动对应的用户模式,调动对应的感知反馈模型进行按压力度感知和振动反馈力度控制;若按压模式与已存储的用户不对应,则记录按压模式并新建对应的用户模式,控制各指槽滑块进行振动反馈,记录各个指槽滑块感知到的按压力度和当前对应的振动反馈力度,并依此训练初始感知反馈模型。
具体的,所述触觉感知装置预设与工作模式对应的按压规律,在用户模式下,第一按钮接受按压后,若感知到的按压规律存在对应的工作模式,则启动控制装置进入对应的工作模式。
具体的,所述工作模式包括陪护机器人移动控制模式,所述控制装置处于陪护机器人移动控制模式时,所述摇杆在周向摇动后激活,所述装置本体在周向转动后激活,所述姿态解析装置解析所述装置本体的倾斜角度θ,若θ满足:预设阈值α<θ<预设阈值β,计算倾斜角度θ对应的移动方向和移动速度,据此控制陪护机器人移动。
具体的,所述工作模式包括陪护机器人手臂控制模式,所述控制装置处于陪护机器人手臂控制模式时,所述摇杆在周向摇动后激活,所述装置本体在周向转动后激活,所述姿态解析装置解析所述装置本体的倾斜角度θ,若θ满足:预设阈值α<θ<预设阈值β,当装置本体倾斜方向落在预设的第一扇形范围内,依据倾斜角度θ控制陪护机器人手臂末端向下或向上移动;当装置本体倾斜方向落在预设的第二扇形范围内,依据倾斜角度θ控制陪护机器人手臂末端水平平面内正、反方向旋转。
具体的,所述工作模式包括陪护机器人夹爪控制模式,在控制装置处于陪护机器人手臂控制模式时,当第二按钮接受按压,则控制装置进入陪护机器人夹爪控制模式,所述姿态解析装置解析所述装置本体的倾斜角度θ,若θ满足:预设阈值α<θ<预设阈值β,当装置本体倾斜方向落在预设的第一扇形范围内,依据倾斜角度θ控制陪护机器人手臂夹爪抓握或松开;当装置本体倾斜方向落在预设的第二扇形范围内,依据倾斜角度θ控制陪护机器人手臂末端竖直平面内正、反方向旋转。
具体的,第一按钮和第二按钮接受按压指令后进行振动反馈,指槽滑块接受按压作为指令输入后由触觉感知装置调用感知反馈模型控制指槽滑块进行振动反馈。
具体的,所述感知反馈模型用于学习特定用户模式下的各个指槽滑块接受的按压力度范围及其按压力度组合,并依据按压力度范围及其按压力度组合调整各个指槽滑块进行振动反馈的按压阈值。
有益效果:与现有技术相比,本发明具有如下显著优点:指槽滑块可进行位置调节,不同用户对应不同的用户模式并予以振动反馈,通过控制装置的三维姿态确定陪护机器人对应的动作,同时避免因各个用户使用习惯之间的差异所导致的人机之间交互的障碍、低效,实现用户对控制装置的高效、便携控制,提高控制正确率,实现人机之间的自然、有效交互;
进一步的,采用不同手指多通道信号融合识别模式,不断学习改进感知反馈模型参数,避免用户使用方式随时间推移而产生变化以及不同手指间力触觉感知耦合的干扰所导致的人机之间交互的障碍。
附图说明
图1为本发明实施例中提供的陪护机器人的控制装置的结构示意图;
图2为本发明实施例中提供的装置本体的结构示意图;
图3为本发明实施例中提供的填充滑块的结构示意图;
图4为本发明实施例中提供的指槽滑块的结构示意图;
图5为本发明实施例中提供的姿态解析装置有效作用的空间示意图;
图6为本发明实施例中装置本体的有效作用区域在水平面内投影的示意图;
1-第一按钮;2-第二按钮;3-食指指槽滑块;4-中指指槽滑块;5-无名指指槽滑块;6-小指指槽滑块;7-摇杆;8-装置本体;9~12-填充滑块。
具体实施方式
下面结合附图对本发明的技术方案作进一步说明。
参阅图1,其为本发明实施例中提供的陪护机器人的控制装置的结构示意图,包括具体结构,以下结合附图进行详细说明。
本发明实施例中提供一种陪护机器人的控制装置,包括:装置本体8、姿态解析装置和触觉感知装置,其中:
所述装置本体8,分别与陪护机器人、姿态解析装置和触觉感知装置连接,包括滑轨、指槽滑块3~6和摇杆7,所述指槽滑块3~6活动设置于滑轨,用于接受按压;所述摇杆7,用于控制所述陪护机器人;
所述姿态解析装置,用于解析所述装置本体8的三维姿态,当所述装置本体8的三维姿态符合预设姿态时,控制所述陪护机器人进行对应的动作;
所述触觉感知装置,用于感知所述指槽滑块3~6接受的按压,并启动与按压信息对应的用户模式,控制装置本体8进行相应的振动反馈。
在具体实施中,控制装置是用于控制陪护机器人,其中装置本体8通常可以为手柄机构。滑轨设置于装置本体8上,通常为凹道。指槽滑块3~6活动设置于滑块,可以沿着滑轨移动,最大程度上适应不同用户在手持装置本体8时指尖发力的位置,同时提高手指对力触觉的感知效果,增强卧床用户对控制装置的控制。
在具体实施中,摇杆7可以用于控制陪护机器人,在不同的模式下或情况下,可以控制陪护机器人本身的移动或者控制陪护机器人的机械臂的操作。
在具体实施中,姿态解析装置可以依据装置本体8在三维空间中的移动姿态、摆动姿态等动作姿态是否满足预设动作姿态,即判定用户对于装置本体8的控制是否为有效控制,在有效控制的情况下控制陪护机器人进行对应的动作,避免误操作的情况发生。通常姿态解析装置对陪护机器人进行粗略控制,摇杆7对陪护机器人进行精确控制,两者相结合能够满足用户对陪护机器人控制的速度和精度需要,实现用户对控制装置的高效、便携控制,提高控制正确率,实现人机之间的有效交互。
在具体实施中,按压信息通常表现为用户按压指槽滑块3~6的力度、节奏、顺序、组合、时间间隔等信息。在用户使用控制装置后,控制装置会记录该用户的使用习惯,形成对应的用户模式,该用户模式与特定按压信息形成对应关系,当触觉感知装置感知到特定按压信息后,便会启动对应的用户模式。若新用户未曾使用过控制装置且不能输入已经记录的特定按压信息,则无法启动已经存储的用户模式,控制装置需要对新按压信息进行学习记录,并得到该新用户的新使用习惯,形成对应的新用户模式,该新用户模式与新按压信息形成对应关系,供后续该新用户使用时启动。因此,不同的用户模式对应不同的用户,提升每个用的控制时的人机交互有效性。
在具体实施中,每当启动用户模式时,装置本体8进行振动反馈,可以是装置本体8整体进行振动反馈,也可以指槽滑块3~6进行振动反馈,通过振动反馈用户可以判断操作的有效输入与否,进一步提升人机交互有效性。
参阅图2,其为本发明实施例中提供的装置本体8的结构示意图,参阅图3,其为四条环绕本发明实施例中提供的填充滑块9~12的结构示意图,参阅图4,其为本发明实施例中提供的指槽滑块3~6的结构示意图。
本发明实施例中,所述装置本体8包括填充滑块9~12、四条环绕设置于装置本体8的滑轨,各滑轨均对应指槽滑块(3~6中的一个)和至少一个填充滑块,指槽滑块和填充滑块形成圆环,活动设置于滑轨。
在具体实施中,四条环绕设置于装置本体8的滑轨,以及分别设置于滑轨上的指槽滑块3~6,可以对应用户的四指,即食指指槽滑块3、中指指槽滑块4、无名指指槽滑块5和小指指槽滑块6。适应不同用户在手持装置本体8时指尖发力的位置。
在具体实施中,装置本体8(图2所示)是可以由两个半圆柱体(也可以是其他例如形状的柱体)组成的,因此通过在每个滑轨上设置填充滑块9~12,通过填充滑块9~12与指槽滑块3~6、滑轨的配合,在方便装置本体8的安装和拆卸的基础上,不仅可以在指槽滑块3~6两边形成指槽,引导用户手指在指槽位置抓握,而且能够组成一个可滑动的圆环形结构,方便调整指槽滑块3~6的位置。
本发明实施例中,所述装置本体8还包括第一按钮1和第二按钮2,在第一按钮1和第二按钮2同时接受按压时,所述触觉感知装置激活所述装置本体8,并控制第一按钮1和第二按钮2进行振动反馈。
在具体实施中,通过同时按压第一按钮1和第二按钮2,可以激活装置本体8进行工作,第一按钮1和第二按钮2予以振动反馈,可以提示用户指令输入成功。
本发明实施例中,所述触觉感知装置用于在装置本体8激活后,控制四条滑轨上的四个指槽滑块3~6进行振动反馈,之后感知所述指槽滑块3~6接受的按压,若按压模式与已存储的用户模式对应,则启动对应的用户模式,调动对应的感知反馈模型进行按压力度感知和振动反馈力度控制;若按压模式与已存储的用户不对应,则记录按压模式并新建对应的用户模式,控制各指槽滑块3~6进行振动反馈,记录各个指槽滑块3~6感知到的按压力度和当前对应的振动反馈力度,并依此训练初始感知反馈模型。
本发明实施例中,所述触觉感知装置预设与工作模式对应的按压规律,在用户模式下,第一按钮1接受按压后,若感知到的按压规律存在对应的工作模式,则启动控制装置进入对应的工作模式。
在具体实施中,为了进行对陪护机器人的精细控制,设置多样的工作模式。按压规律可以由用户进行预设自定义,例如按压第一按钮1,获按钮振动反馈后,食指连续按压两次对应的指槽滑块3,进入控制陪护机器人移动的工作模式;中指连续按压两次对应的指槽滑块4,进入控制机械臂运动的工作模式。
参阅图5,其为本发明实施例中提供的姿态解析装置有效作用的空间示意图。
本发明实施例中,所述工作模式包括陪护机器人移动控制模式,所述控制装置处于陪护机器人移动控制模式时,所述摇杆7在周向摇动后激活,所述装置本体8在周向转动后激活,所述姿态解析装置解析所述装置本体8的倾斜角度θ,若θ满足:预设阈值α<θ<预设阈值β,计算倾斜角度θ对应的移动方向和移动速度,据此控制陪护机器人移动。
在具体实施中,摇杆7在周向摇动后激活,激活后可以用于陪护机器人的控制,避免误操作带来的危险性。
在具体实施中,预设阈值α和预设阈值β可以由用户依据实际应用场景进行设定,倾斜角度θ是倾斜后的装置本体8的中轴线和竖直方向之间的角度,θ满足:预设阈值α<θ<预设阈值β,可以是指装置本体8倾斜后,装置本体8落在α和β的范围内,其中β+δ=90°,倾斜角度θ位于区间(α,β)有效。通过设置有效控制的范围,可以提升人机交互有效性,避免误操作带来的危险性。一般的,通过装置本体8的姿态动作负责控制大范围的移动,而摇杆7控则负责避障距离内和复杂环境的精确操控。
参阅图6,其为本发明实施例中装置本体8的有效作用区域在水平面内投影的示意图。
本发明实施例中,所述工作模式包括陪护机器人手臂控制模式,所述控制装置处于陪护机器人手臂控制模式时,所述摇杆7在周向摇动后激活,所述装置本体8在周向转动后激活,所述姿态解析装置解析所述装置本体8的倾斜角度θ,若θ满足:预设阈值α<θ<预设阈值β,当装置本体8倾斜方向落在预设的第一扇形范围内,依据倾斜角度θ控制陪护机器人手臂末端向下或向上移动;当装置本体8倾斜方向落在预设的第二扇形范围内,依据倾斜角度θ控制陪护机器人手臂末端水平平面内正、反方向旋转。
在具体实施中,用户对装置本体8的姿态操作满足两个条件,属于指令的有效输入,即(1)θ满足:预设阈值α<θ<预设阈值β;(2)装置本体8倾斜方向落在预设的第一扇形范围或者第二扇形范围。
在具体实施中,第一扇形范围为θ1内或θ3内,第二扇形范围为θ2或θ4内,两两间隔角度γ,具体的角度大小可以由用户依据实际应用场景进行设定。在不进行操作时,可以将装置本体8朝向间隔角度γ范围内,避免误操作。
本发明实施例中,所述工作模式包括陪护机器人夹爪控制模式,在控制装置处于陪护机器人手臂控制模式时,当第二按钮2接受按压,则控制装置进入陪护机器人夹爪控制模式,所述姿态解析装置解析所述装置本体8的倾斜角度θ,若θ满足:预设阈值α<θ<预设阈值β,当装置本体8倾斜方向落在预设的第一扇形范围内,依据倾斜角度θ控制陪护机器人手臂夹爪抓握或松开;当装置本体8倾斜方向落在预设的第二扇形范围内,依据倾斜角度θ控制陪护机器人手臂末端竖直平面内正、反方向旋转。
本发明实施例中,第一按钮1和第二按钮2接受按压指令后进行振动反馈,指槽滑块3~6接受按压作为指令输入后由触觉感知装置调用感知反馈模型控制指槽滑块3~6进行振动反馈。
本发明实施例中,所述感知反馈模型用于学习特定用户模式下的各个指槽滑块3~6接受的按压力度范围及按压力度组合,并依据按压力度范围及按压力度组合调整各个指槽滑块3~6进行振动反馈的按压阈值。
在具体实施中,感知反馈模型可以是基于神经网络算法等算法构建,用于学习用户的用户习惯,用户习惯通常包括用户输入指令时不同手指按压时施加的力度大小,某一手指在按压时其他手指潜意识下施加的力度大小等信息,由此来调整在用户施加何种程度范围的按压力度及按压力度组合时,是属于该用户的有效输入指令并予以振动反馈表面按压指令的有效输入(振动反馈表示按压指令已经有效输入),由此提升人机交互有效性,提升控制的正确率。

Claims (10)

1.一种陪护机器人的控制装置,其特征在于,包括:装置本体、姿态解析装置和触觉感知装置,其中:
所述装置本体,分别与陪护机器人、姿态解析装置和触觉感知装置连接,包括滑轨、指槽滑块和摇杆,所述指槽滑块活动设置于滑轨,用于接受按压;所述摇杆,用于控制所述陪护机器人;
所述姿态解析装置,用于解析所述装置本体的三维姿态,当所述装置本体的三维姿态符合预设姿态时,控制所述陪护机器人进行对应的动作;
所述触觉感知装置,用于感知所述指槽滑块接受的按压,并启动与按压信息对应的用户模式,控制装置本体进行相应的振动反馈。
2.根据权利要求1所述的陪护机器人的控制装置,其特征在于,所述装置本体包括填充滑块、四条环绕设置于装置本体的滑轨,各滑轨均对应指槽滑块和至少一个填充滑块,指槽滑块和填充滑块形成圆环,活动设置于滑轨。
3.根据权利要求2所述的陪护机器人的控制装置,其特征在于,所述装置本体还包括第一按钮和第二按钮,在第一按钮和第二按钮同时接受按压时,所述触觉感知装置激活所述装置本体,并控制第一按钮和第二按钮进行振动反馈。
4.根据权利要求3所述的陪护机器人的控制装置,其特征在于,所述触觉感知装置用于在装置本体激活后,控制四条滑轨上的四个指槽滑块进行振动反馈,之后感知所述指槽滑块接受的按压,若按压模式与已存储的用户模式对应,则启动对应的用户模式,调动对应的感知反馈模型进行按压力度感知和振动反馈力度控制;若按压模式与已存储的用户不对应,则记录按压模式并新建对应的用户模式,控制各指槽滑块进行振动反馈,记录各个指槽滑块感知到的按压力度和当前对应的振动反馈力度,并依此训练初始感知反馈模型。
5.根据权利要求4所述的陪护机器人的控制装置,其特征在于,所述触觉感知装置预设与工作模式对应的按压规律,在用户模式下,第一按钮接受按压后,若感知到的按压规律存在对应的工作模式,则启动控制装置进入对应的工作模式。
6.根据权利要求5所述的陪护机器人的控制装置,其特征在于,所述工作模式包括陪护机器人移动控制模式,所述控制装置处于陪护机器人移动控制模式时,所述摇杆在周向摇动后激活,所述装置本体在周向转动后激活,所述姿态解析装置解析所述装置本体的倾斜角度θ,若θ满足:预设阈值α<θ<预设阈值β,计算倾斜角度θ对应的移动方向和移动速度,据此控制陪护机器人移动。
7.根据权利要求5所述的陪护机器人的控制装置,其特征在于,所述工作模式包括陪护机器人手臂控制模式,所述控制装置处于陪护机器人手臂控制模式时,所述摇杆在周向摇动后激活,所述装置本体在周向转动后激活,所述姿态解析装置解析所述装置本体的倾斜角度θ,若θ满足:预设阈值α<θ<预设阈值β,当装置本体倾斜方向落在预设的第一扇形范围内,依据倾斜角度θ控制陪护机器人手臂末端向下或向上移动;当装置本体倾斜方向落在预设的第二扇形范围内,依据倾斜角度θ控制陪护机器人手臂末端水平平面内正、反方向旋转。
8.根据权利要求7所述的陪护机器人的控制装置,其特征在于,所述工作模式包括陪护机器人夹爪控制模式,在控制装置处于陪护机器人手臂控制模式时,当第二按钮接受按压,则控制装置进入陪护机器人夹爪控制模式,所述姿态解析装置解析所述装置本体的倾斜角度θ,若θ满足:预设阈值α<θ<预设阈值β,当装置本体倾斜方向落在预设的第一扇形范围内,依据倾斜角度θ控制陪护机器人手臂夹爪抓握或松开;当装置本体倾斜方向落在预设的第二扇形范围内,依据倾斜角度θ控制陪护机器人手臂末端竖直平面内正、反方向旋转。
9.根据权利要求4~8任一项所述的陪护机器人的控制装置,其特征在于,第一按钮和第二按钮接受按压指令后进行振动反馈,指槽滑块接受按压作为指令输入后由触觉感知装置调用感知反馈模型控制指槽滑块进行振动反馈。
10.根据权利要求9所述的陪护机器人的控制装置,其特征在于,所述感知反馈模型用于学习特定用户模式下的各个指槽滑块接受的按压力度范围及其按压力度组合,并依据按压力度范围及其按压力度组合调整各个指槽滑块进行振动反馈的按压阈值。
CN202010113344.9A 2020-02-24 2020-02-24 陪护机器人的控制装置 Active CN111267129B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202010113344.9A CN111267129B (zh) 2020-02-24 2020-02-24 陪护机器人的控制装置
PCT/CN2020/085881 WO2021169008A1 (zh) 2020-02-24 2020-04-21 陪护机器人的控制装置
US17/280,305 US11478937B2 (en) 2020-02-24 2020-04-21 Care robot controller

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010113344.9A CN111267129B (zh) 2020-02-24 2020-02-24 陪护机器人的控制装置

Publications (2)

Publication Number Publication Date
CN111267129A CN111267129A (zh) 2020-06-12
CN111267129B true CN111267129B (zh) 2022-07-29

Family

ID=70993996

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010113344.9A Active CN111267129B (zh) 2020-02-24 2020-02-24 陪护机器人的控制装置

Country Status (3)

Country Link
US (1) US11478937B2 (zh)
CN (1) CN111267129B (zh)
WO (1) WO2021169008A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11610459B2 (en) * 2020-04-13 2023-03-21 Google Llc Factory and user calibration of haptic systems

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4795296A (en) * 1986-11-17 1989-01-03 California Institute Of Technology Hand-held robot end effector controller having movement and force control
CN101258389A (zh) * 2005-09-05 2008-09-03 Ew系统有限公司 触觉传感器和触觉传感器应用装置
EP2299344A2 (de) * 2009-09-17 2011-03-23 KUKA Roboter GmbH Eingabevorrichtung und -verfahren für einen Manipulator
CN204622064U (zh) * 2015-05-29 2015-09-09 济宁中科先进技术研究院有限公司 机器人柔性自适应末端装置
CN106826877A (zh) * 2017-02-23 2017-06-13 上海大学 一种易操控机器人示教器
CN107003750A (zh) * 2014-09-01 2017-08-01 李隐波 多表面控制器
CN108095939A (zh) * 2017-12-05 2018-06-01 福尔智能科技南通有限公司 一种具有把手的智能床椅
CN109202942A (zh) * 2017-06-30 2019-01-15 发那科株式会社 手控制装置、手控制方法以及手的模拟装置
CN208488655U (zh) * 2018-04-16 2019-02-12 深圳市小龙电器有限公司 一种基于防误操作装置的影像仪操纵杆控制器
CN109927056A (zh) * 2017-12-19 2019-06-25 合肥欣奕华智能机器有限公司 一种示教摇杆及机器人示教方法、机器人控制系统

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002001589A1 (en) * 2000-06-29 2002-01-03 Sk Developments Limited A user input device for a game simulation apparatus
EP1942323A4 (en) 2005-09-05 2011-01-26 Ewsystem Co Ltd TOUCH SENSOR AND DEVICE FOR APPLYING THE TOUCH SENSOR
US20110037695A1 (en) * 2009-08-16 2011-02-17 Bor Igal Ergonomic control unit for providing a pointing function
US10534447B2 (en) * 2014-09-01 2020-01-14 Yinbo Li Multi-surface controller
US10434659B2 (en) * 2016-03-02 2019-10-08 Kindred Systems Inc. Systems, devices, articles, and methods for user input
DE102018116833A1 (de) * 2018-07-11 2020-01-16 Bcs Automotive Interface Solutions Gmbh Kapazitives Kraftfahrzeugbediensystem

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4795296A (en) * 1986-11-17 1989-01-03 California Institute Of Technology Hand-held robot end effector controller having movement and force control
CN101258389A (zh) * 2005-09-05 2008-09-03 Ew系统有限公司 触觉传感器和触觉传感器应用装置
EP2299344A2 (de) * 2009-09-17 2011-03-23 KUKA Roboter GmbH Eingabevorrichtung und -verfahren für einen Manipulator
CN107003750A (zh) * 2014-09-01 2017-08-01 李隐波 多表面控制器
CN204622064U (zh) * 2015-05-29 2015-09-09 济宁中科先进技术研究院有限公司 机器人柔性自适应末端装置
CN106826877A (zh) * 2017-02-23 2017-06-13 上海大学 一种易操控机器人示教器
CN109202942A (zh) * 2017-06-30 2019-01-15 发那科株式会社 手控制装置、手控制方法以及手的模拟装置
CN108095939A (zh) * 2017-12-05 2018-06-01 福尔智能科技南通有限公司 一种具有把手的智能床椅
CN109927056A (zh) * 2017-12-19 2019-06-25 合肥欣奕华智能机器有限公司 一种示教摇杆及机器人示教方法、机器人控制系统
CN208488655U (zh) * 2018-04-16 2019-02-12 深圳市小龙电器有限公司 一种基于防误操作装置的影像仪操纵杆控制器

Also Published As

Publication number Publication date
CN111267129A (zh) 2020-06-12
WO2021169008A1 (zh) 2021-09-02
US11478937B2 (en) 2022-10-25
US20220111536A1 (en) 2022-04-14

Similar Documents

Publication Publication Date Title
EP2917001B1 (en) Hybrid gesture control haptic system
US10891050B2 (en) Method and apparatus for variable impedance touch sensor arrays in non-planar controls
KR101941844B1 (ko) 로봇 및 그 제어방법
US20240017407A1 (en) Control method, apparatus, and system of a composite robot
CN105117003A (zh) 智能穿戴设备及其工作方法
CN111267129B (zh) 陪护机器人的控制装置
US5982353A (en) Virtual body modeling apparatus having dual-mode motion processing
US7517327B1 (en) Massaging system and method
CN205068294U (zh) 机器人人机交互装置
CN109498375B (zh) 一种人体运动意图识别控制装置及控制方法
Zhang et al. Asynchronous brain-computer interface shared control of robotic grasping
CN102729254A (zh) 基于触觉临场感的遥操作机器人肌电控制方法
Wu et al. Development of smartphone-based human-robot interfaces for individuals with disabilities
Salvietti et al. Bilateral haptic collaboration for human-robot cooperative tasks
EP3949912A1 (en) Thumb-based hand motion control system for myoelectric hand and control method thereof
JP2558943B2 (ja) ニューラルネットワークを用いた人間の動作自動認識装置
CN113876556A (zh) 一种三维激光扫描按摩机器人系统
Li et al. An egocentric computer vision based co-robot wheelchair
Vogel et al. Flexible, semi-autonomous grasping for assistive robotics
CN108127667B (zh) 一种基于关节角增量的机械臂体感交互控制方法
KR101838889B1 (ko) 조이스틱 기반의 전동 휠체어 제어 시스템 및 방법
CN114131635B (zh) 融合视触觉主动感知的多自由度辅助抓握外肢体机器人系统
EP3954339A1 (en) Motion-mode- and thumb-position-based motion control system and method of myoelectric hand
CN215687857U (zh) 一种传感器手套及手功能康复设备
Rybarczyk et al. Contribution of neuroscience to the teleoperation of rehabilitation robot

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant