CN115605932A - 系统以及操作方法 - Google Patents

系统以及操作方法 Download PDF

Info

Publication number
CN115605932A
CN115605932A CN202180034660.XA CN202180034660A CN115605932A CN 115605932 A CN115605932 A CN 115605932A CN 202180034660 A CN202180034660 A CN 202180034660A CN 115605932 A CN115605932 A CN 115605932A
Authority
CN
China
Prior art keywords
error
user
limb
contact
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180034660.XA
Other languages
English (en)
Inventor
黄守仁
山川雄司
石川正俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Original Assignee
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC filed Critical University of Tokyo NUC
Publication of CN115605932A publication Critical patent/CN115605932A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/003Repetitive work cycles; Sequence of movements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/24Use of tools

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Rehabilitation Tools (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

[课题]提供一种不依赖于使用者的年龄或动机而能够帮助使用者有效地学习预定动作的技术。[解决方案]根据本发明的一个方面,提供一种系统。所述系统包括第1接触部、传感器部、以及第2接触部。第1接触部与被操作部位连接,并且配置成通过与使用者的第1肢体接触来相应于第1肢体的动作而使由被操作部位规定的目标位置可变。传感器部配置成测量目标位置与预定轨道的误差。第2接触部包括误差感觉提示部,并且配置成与不同于使用者的第1肢体的第2肢体接触。误差感觉提示部配置成通过将基于误差的力觉或触觉施加至第2肢体来向使用者提示误差。

Description

系统以及操作方法
技术领域
本发明涉及一种系统以及操作方法。
背景技术
在很多情况下,人类使用其肢体来执行关于预定动作的任务。专利文献1公开了一种用于训练这种预定动作的技能训练装置。
现有技术文献
专利文献
专利文献1:日本特开2020-12858号公报
发明内容
发明所要解决的问题
由于专利文献1中公开的技能训练装置是在进行与规定不同的动作时将其作为信息进行报知的装置,因此使用者必须有意识地读取所述信息。由此,根据使用者的年龄或动机不同,学习效果会下降。
本发明鉴于以上情况所完成,其目的在于提供一种不依赖于使用者的年龄或动机而能够帮助使用者有效地学习预定动作的技术。
用于解决课题的方案
根据本发明的一个方面,提供一种系统。所述系统包括第1接触部、传感器部、以及第2接触部。第1接触部与被操作部位连接,并且配置成通过与使用者的第1肢体接触来相应于第1肢体的动作而使由被操作部位规定的目标位置可变。传感器部配置成测量目标位置与预定轨道的误差。第2接触部包括误差感觉提示部,并且配置成与不同于使用者的第1肢体的第2肢体接触。误差感觉提示部配置成通过将基于误差的力觉或触觉施加至第2肢体来向使用者提示误差。
这样一来,无论使用者的年龄或动机如何,使用者都能够有效地学习预定动作。
附图说明
图1是表示系统1的整体结构的概要图。
图2是表示系统1的整体结构的概要图。
图3是表示控制装置3的硬件结构的框图。
图4是表示主装置4的硬件结构的概要图。
图5是表示控制装置3(控制部33)的功能结构的框图。
图6是表示系统1的操作方法的活动图。
图7是表示图像处理部332进行图像处理的图像IM的示例的概要图。
图8是表示误差矢量v1的概要图。
具体实施方式
以下将结合附图对本发明的实施例进行说明。以下所示实施例中的各种特征事项均可互相组合。
用于实现本实施例中出现的软件的程序可以作为由计算机读取的非暂时存储介质(Non-transitory Computer Readable Medium)进行提供,也可以由外部服务器下载提供,还可以由外部计算机启动该程序,在客户终端上实现功能(即所谓的云计算)。
在本实施例中,″部″可以是包含了例如广义上的电路实现的硬件资源和由这些硬件资源具体实现的软件信息处理的组合的概念。此外,在本实施例中涉及了各种信息,这些信息可通过例如表示电压或电流的信号值的物理值,或是作为由0或1所组成的二进制位集的信号值的高低,又或者是量子叠加(即所谓的量子比特)来表示,并且可以在广义的电路上执行通信及计算。
此外,广义上的电路是通过至少适当地组合电路(Circuit)、电路类(Circuitry)、处理器(Processor)、以及存储器(Memory)等来实现的电路。即,包含了面向特定用途的集成电路(ASIC:Application Specific Integrated Circuit),可编程逻辑设备(例如简单可编程逻辑设备(SPLD:Simple Programmable Logical Device)、复合可编程逻辑设备(CPLD:Complex Programmable Logic Device))以及现场可编程门阵列(FPGA:FieldProgrammable Gate Array)等等。
1.1硬件结构
本节将介绍关于实施例的系统1的硬件结构。
1.1系统1
图1和图2是表示系统1的整体结构的概要图。如图1所示,使用者U可以使用系统1来执行预定动作的训练。这里所说的训练可以是用于健康的使用者U学习预定动作的训练,也可以是受伤的使用者U以康复为目的进行的训练。此外,如图2所示,系统1包括摄像装置2(传感器部的示例)、控制装置3以及主装置4,并且这些构成要素进行电连接。
1.2摄像装置2
摄像装置2是配置成能够拍摄外界信息的所谓视觉传感器(照相机),特别优选采用被称为高速视觉的帧速率较高的摄像装置。
摄像装置2(传感器部)配置成测量目标位置TP与预定轨道的误差E。这一点将在后面详细说明。优选的是,摄像装置2(传感器部)的帧速率(取得速率)为100fps(赫兹)以上,更具体而言,可例如为100、125、150、175、200、225、250、275、300、325、350、375、400、425、450、475、500、525、550、575、600、625、650、675、700、725、750、775、800、825、850、875、900、925、950、975、1000、1025、1050、1075、1100、1125、1150、1175、1200、1225、1250、1275、1300、1325、1350、1375、1400、1425、1450、1475、1500、1525、1550、1575、1600、1625、1650、1675、1700、1725、1750、1775、1800、1825、1850、1875、1900、1925、1950、1975、2000fps,也可以在以上所示数值的任意两个之间的范围内。
摄像装置2通过电气通信线路(例如USB电缆等)与后述的控制装置3的通信部31连接,并且配置成能够将拍摄到的图像IM传送至控制装置3。
另外,在摄像装置2中,也可以采用不仅能够测量可见光而且还能够测量紫外域或红外域这样人无法感知到的频带的照相机。通过采用这样的照相机,即使是在黑暗的环境中也能够实施本实施例的系统1。
1.3控制装置3
图3是表示控制装置3的硬件结构的框图。如图3所示,控制装置3包括通信部31、存储部32和控制部33,这些构成要素在控制装置3的内部经由通信总线30进行电连接。以下,对各构成要素作进一步说明。
通信部31虽然优选USB、IEEE1394、Thunderbolt、有线LAN网络通信等有线型的通信手段,但也可以根据需要包含无线LAN网络通信、3G/LTE/5G等移动通信、蓝牙(Bluetooth,注册商标)通信等。换句话说,更优选作为这些多个通信手段的集合来实施。由此,在控制装置3和其他能够通信的设备之间执行信息或指令的交换。
存储部32存储由上述说明所定义的各种信息。其例如可以作为固态驱动器(SolidState Drive:SSD)等存储设备,或者作为存储与程序运算有关的临时必要信息(参数、排列等)的随机存取存储器(Random Access Memory:RAM)等的存储器来实施。此外,也可以是这些的组合。另外,存储部32存储可由后述的控制部33读取的各种程序。不仅如此,存储部32存储由摄像装置2拍摄且由通信部31接收的时间序列的图像IM。在此,图像IM例如是包括RGB各8比特的像素信息的排列信息。
控制部33执行与控制装置3相关联的整体动作的处理及控制。控制部33例如是未图示的中央处理器(Central Processing Unit:CPU)。控制部33通过读取存储部32中存储的规定程序,来实现与控制装置3相关的各种功能。即,通过由硬件(控制部33)具体地实现软件(存储在存储部32)的信息处理,如图3所示,可以作为控制部33的各功能部来执行。在图3中虽表示为单一的控制部33,但实际上并不仅限于此,也可以以按照每个功能具有多个控制部33的方式来实施。另外,也可以是这些的组合。
1.4主装置4
图4是表示主装置4的硬件结构的概要图。主装置4是使用者U能够使用自己的肢体操作被操作部位43的装置。另外,主装置4是从控制装置3接收控制信号CS,并据此进行各种驱动的装置。主装置4包括第1接触部41和第2接触部42。
如图4所示,第1接触部41与被操作部位43连接。第1接触部41配置成,通过与使用者U的第1肢体HF1接触,从而与第1肢体HF1的动作相应地改变由被操作部位43规定的目标位置TP。需要注意的是,将使用者U能够使用第1接触部41移动的目标位置TP的范围称为第1范围。
如图4所示,第2接触部42包括误差感觉提示部45,其配置成与不同于使用者U的第1肢体HF1的第2肢体HF2接触。误差感觉提示部45配置成,通过将基于经由摄像装置2测量的误差E的力觉或触觉施加至第2肢体HF2,来向使用者U提示误差E。
第1接触部41和第2接触部42的形态没有特别限制,但是可以根据接触第1肢体HF1或第2肢体HF2的可用性来选择适当的形态。例如,如果第1肢体HF1和第2肢体HF2是使用者U的左右手(左手LH以及右手RH),则第1接触部41和第2接触部42可以配置成分别由左手LH和右手RH抓握。
另外,主装置4还包括位置调整部44。位置调整部44例如可以是能够在XY方向上驱动的平台,能够使被操作部位43在比使用者U能够操作的第1范围更小的第2范围内位移。通过这样的结构,位置调整部44能够调整被操作部位43的目标位置TP,以校正误差E。
作为系统1的整体而言,摄像装置2的帧速率以及位置调整部44的驱动速率中较低的一方作为与误差E的校正相关的控制速率发挥功能。换言之,通过将帧速率和驱动速率提高到相同程度,能够完全不使用预测而仅通过反馈控制来校正目标位置TP的误差E。即,位置调整部44的驱动速率优选与拍摄装置2同样地在100赫兹以上。
在使用者U进行预定动作的训练时,也可以不实施位置调整部44所执行的校正。位置调整部44所执行的校正类似于照相机抖动校正,并且辅助地实现适当的预定动作。使用者U可以进行训练,以便在没有位置调整部44的情况下也能够正确地执行预定动作。在这种情况下,使用者U将执行更高度的操作,但是也不妨碍执行这样的训练。
2.功能结构
在本节中,将说明本实施例的功能结构。图5是表示控制装置3(控制部33)的功能结构的框图。关于所述控制部33,控制装置3包括接收部331、图像处理部332、运算部333、以及控制信号生成部334。以下,对各构成要素作进一步说明。
(接收部331)
接收部331配置成,经由通信部31或存储部32接收信息,并将其读取到作业存储器中。特别是,接收部331配置成经由通信部31从摄像装置2及/或主装置4接收各种信息(图像IM、位置调整部44的位移信息等)。当控制装置3连接到其他设备时,接收部331可以实施为接收从这些设备发送的信息。在本实施例中,将对接收部331接收的各种信息被存储在存储部32中的情况进行说明。
在接收部331接收并暂时读取到作业存储器之后,也可以不将至少一部分信息存储到存储部32中。而且,也可以将至少一部分信息存储在存储部32以外的外部服务器中。
(图像处理部332)
图像处理部332配置成读取图像IM中存储在存储部32中的程序,并执行预定的图像处理。例如,图像处理部332执行用于从图像IM特定作为预定轨道的线L的图像处理。详细情况将在之后说明。
(运算部333)
运算部333配置成使用由图像处理部332执行了图像处理的图像IM来执行预定的运算。例如,运算部333通过图像IM运算误差矢量v1或对称矢量v2。详细情况将在下文说明。
(控制信号生成部334)
控制信号生成部334配置成生成用于控制主装置4的控制信号CS。具体而言,控制信号生成部334生成使位置调整部44驱动的控制信号CS1。此外,控制信号生成部334生成用于使误差感觉提示部45动作的控制信号CS2。控制信号CS的值可例如由电压来规定。
3.控制处理
在本节中,将说明系统1的控制处理的流程。
3.1操作方法
图6是表示系统1的操作方法的活动图。在此为了简单起见,将对使用者U为惯用右手者并且第1肢体HF1为右手RH、第2肢体HF2为左手LH的情况进行说明。即,使用者U用右手RH抓握第1接触部41,用左手LH抓握第2接触部42(活动A101)。抓握是接触的一个示例。然后,使用者U通过用右手RH操作第1接触部41,使被操作部位43的目标位置TP沿着作为预定轨道的线L移动(活动A102)。这样的动作可例如包含在切削作业、涂敷作业、医疗行为等中。
当使用者U使第1接触部41位移时,目标位置TP也相应地位移。此时,由摄像装置2拍摄目标位置TP和线L,并且将图像IM发送至控制装置3(活动A103)。换言之,接收部331接收图像IM,并且其存储至存储部32。
图7是表示图像处理部332进行图像处理的图像IM的示例的概要图。图像处理部332通过图像处理对接收部331接收的图像IM进行解析,并且特定图像IM中的线L的位置(活动A104)。这可例如通过对拍摄到的图像IM设定与图像相关的预定参数(亮度等)的阈值并进行二进制化的方式来实施。并且,通过根据图像IM计算线L的重心位置,能够特定线L的位置。
然后,目标位置TP可以作为摄像装置2的视线与规定面P的交点来实施。尽管在图4中未示出,但是摄像装置2安装在位置调整部44上。即,目标位置TP是由摄像装置2拍摄的图像IM的中心(图像中心CT)。
如图7所示,也可以实施为对图像IM的一部分的预定区域ROI进行图像处理。特别是,由于以高控制速率进行误差E的校正,所以线L位于图像IM的确定位置(例如图像中心CT)的附近,通过将所述确定位置的附近区域设为预定区域ROI,能够削减进行图像处理的像素数。由此,能够减小控制装置3的计算负荷并且维持高控制速率。
接着,运算部333运算表示目标位置TP(图像中心CT)与线L之间的误差E的误差矢量v1(活动A105)。图8是表示误差矢量v1的概要图。在此,当误差E落在作为位置调整部44的可动范围的第2范围内时,控制信号生成部334生成用于校正误差E的控制信号CS1并发送至位置调整部44(活动A106)。进而,控制信号生成部334生成用于向使用者U提示误差E的控制信号CS2并发送至误差感觉提示部45(活动A107)。
换言之,通过经由通信部31将控制信号CS1发送至主装置4的位置调整部44,位置调整部44进行驱动,由此能够校正误差E。这种情况下的控制手法没有特别限定,例如可以适当采用P控制、PD控制、PID控制等。与控制相关的各系数根据需要设定优选的值即可。此外,通过经由通信部31将控制信号CS2发送至主装置4的误差感觉提示部45,误差感觉提示部45进行动作,由此可以向使用者U提示误差E。
另一方面,在误差E没有在作为位置调整部44的可动范围的第2范围内的情况下,控制信号生成部334不生成校正误差E的控制信号CS1,而生成向使用者U提示误差E的控制信号CS2,并发送至误差感觉提示部45即可(活动A107)。
基于误差E的力觉或触觉与表示误差E的误差矢量v1成比例地被确定。即,为了向使用者U提示误差E的大小(程度)和方向,可以将力觉或触觉作为与误差矢量v1成比例的矢量(比例常数为正负数,也包括1)施加至使用者U。特别是,通过将力觉或触觉施加到不同于正在操作的右手RH的左手LH,可以向使用者U提示误差E而不会损害操作感。另外,特别优选地是,基于误差E的力觉或触觉被转换为适于人类的感觉提示的频率并被提示。通过在人类可感知的频率上提示力觉或触觉,使用者U可以掌握误差E的状态。
通过将以上说明的控制处理以控制速率为单位进行重复,使用者U能够训练并学习预定的动作。总而言之,系统1的操作方法包括第1至第4步骤。在第1步骤中,使使用者U的第1肢体HF1与系统1的第1接触部41接触,并且使使用者U的第2肢体HF2与系统1的第2接触部42接触。在第2步骤中,通过移动与第1接触部41接触的第1肢体HF1,使由系统1的被操作部位43规定的目标位置TP移动。在第3步骤中,测量目标位置TP与预定轨道的误差E。在第4步骤中,通过将基于误差E的力觉或触觉施加至与第2接触部42接触的第2肢体HF2,来向使用者U提示误差E。
3.2同步运动
作为上述假设的补充,优选为第1肢体HF1和第2肢体HF2是使用者U的左右手(左手LH和右手RH)或左右脚(左脚LF和右脚RF)。通常人类利用双臂协调运动来实现各种复杂的作业。为了使人的双臂协调并动作,可以认为存在有妨碍的同时也相互协调的大脑机制。特别是,双臂的同步运动(例如,即使右手RH和左手LH同时进行不同的运动,双手也呈现出相同动作的倾向)在日常生活中也经常出现,双臂的同步控制也被认为是大脑最基本的机制。
换句话说,当对左手LH施加力觉或触觉时,使用者U自身通过左右同步运动快速地向右手RH校正误差E的方向进行调整。根据这样的控制处理,不论使用者U的年龄或动机如何,使用者U都能够更加直观有效地训练和学习预定动作。
作为取代误差矢量v1,基于误差E的力觉或触觉可以与对称矢量v2成比例地确定,所述对称矢量v2是通过使表示误差E的误差矢量v1关于对称面进行对称移动而成的(参照图8)。在此,所述对称面是从使用者U的躯干中心向前后延伸的面。即使鉴于伸展运动等,人类也能够将从躯干中心向前后延伸的面作为对称面,从而自然地进行左右对称的动作。因此,可以通过与对称矢量v2成比例的力觉或触觉而非误差矢量v1来向使用者U提示误差E。此外,还可以实施为根据使用者U的偏好来选择误差矢量v1或对称矢量v2。
4.其他
还可以通过以下各种方式来对系统1作进一步创意加工。
(1)系统1还可以包括未图示的引导光照射部。所述引导光照射部配置成与摄像装置2(传感器部)同轴或固定于相对位置,并且能够照射表示目标位置TP的引导光。由于引导光照射部和摄像装置2的相对位置在设计时已知,因此能够从引导光照射部将目标位置TP作为投影光进行照射。优选地,使用分束器等将摄像装置2和引导光照射部作为同轴光学系统来实施。由此,使用者U能够更直观地掌握为了使目标位置TP沿着预定轨道位移而应该如何移动第1接触部41。
(2)在上述实施例中,将目标位置TP作为摄像装置2的视线与规定面P的交点(图像中心CT)来实施,但其只是示例,并不仅限于此。例如,在被操作部位43的位置调整部44上安装切削工具(例如立铣刀或医疗用切刀),能够将所述切削工具的先端位置设定为目标位置TP。此时,摄像装置2及切削工具的相对位置在设计时便已知。根据这样的变形例,使用者U能够实施切削加工或医疗手术的训练。
(3)不仅如此,还能够在被操作部位43的位置调整部44上安装激光射出部(加工用),并且将从所述激光射出部射出的激光的照射位置(规定面P上)设定为目标位置TP。此时,在设计时便已知摄像装置2和激光射出部的相对位置。根据这样的变形例,使用者U能够实施激光加工的训练,以使所需物体形成规定的形状。
(4)进而,还可以在被操作部位43的位置调整部44上安装配置成能够涂敷涂料等的涂敷部,并且将所述涂敷部的先端位置设定为目标位置TP。此时,在设计时便已知摄像装置2和涂敷用具的相对位置。根据这样的变形例,使用者能够实施涂敷工序的训练。
(5)包括上述的切削工具、激光射出部、涂敷工具等在内,各种物体都可以被视为确定目标位置TP的对象,并且以能够自由地安装拆卸的方式来实施。
(6)此外,还可以使用其他传感器来代替摄像装置2或者与之一同使用。例如,可以适当地采用激光位移传感器、红外线传感器等。
(7)不仅如此,也可以不是作为系统1,而是作为其一部分的控制装置3来单独实施。
(8)而且,还可以实施程序,使计算机作为控制装置3来发挥功能。
此外,还可以通过以下各种方式来提供。
在所述系统中,进一步包括引导光照射部,所述引导光照射部配置成与所述传感器部同轴或固定于相对位置,并且能够照射表示所述目标位置的引导光。
在所述系统中,所述第1肢体及所述第2肢体是指所述使用者的左手和右手,所述第1接触部及所述第2接触部配置成可分别由所述左手和所述右手抓握。
在所述系统中,基于所述误差的力觉或触觉与表示所述误差的误差矢量成比例地确定。
在所述系统中,所述第1肢体及所述第2肢体是指所述使用者的左右手或左右脚,基于所述误差的力觉或触觉与对称矢量成比例地确定,所述对称矢量是通过使表示所述误差的误差矢量关于对称面进行对称移动而成,其中所述对称面是从所述使用者的躯干中心向前后延伸的面。
在所述系统中,基于所述误差的力觉或触觉被转换为适合于人类的感觉提示的频率并被提示。
在所述系统中,所述传感器部是配置成能够拍摄外界信息的摄像部。
在所述系统中,所述目标位置是由所述摄像部拍摄的图像的中心。
在所述系统中,进一步包括位置调整部,所述位置调整部配置成能够使所述被操作部位在比所述使用者能够操作的第1范围更小的第2范围内位移,并且能够调整所述被操作部位的位置以校正所述误差。
在所述系统中,所述传感器部的取得速率及所述位置调整部的驱动速率为100赫兹以上。
一种系统的操作方法,其特征在于,包括:第1步骤、第2步骤、第3步骤、以及第4步骤;其中在所述第1步骤中,在使使用者的第1肢体与所述系统的第1接触部接触的同时,使所述使用者的第2肢体与所述系统的第2接触部接触;在所述第2步骤中,通过移动与所述第1接触部接触的所述第1肢体,使由所述系统的被操作部位规定的目标位置移动;在所述第3步骤中,测量所述目标位置与预定轨道的误差;在所述第4步骤中,通过将基于所述误差的力觉或触觉施加至与所述第2接触部接触的所述第2肢体,来向所述使用者提示所述误差。
当然,并不仅限于此。
最后,虽已对本发明所涉及的种种实施方式进行了说明,但这些实施方式仅作为示例提出,并不用以限制本发明的范围。本发明还可通过其他各种实施方式来实现,凡是在本发明的精神和原则内所作的任何省略、修改、等同替换、改进等,均应包含在本发明的保护范围的内。相关实施例或变形例不仅应包含在本发明的范围或主旨中,还应包含在权利要求范围所记载的发明及其均等范围之内。
符号简单说明
1:系统
2:摄像装置
3:控制装置
30:通信总线
31:通信部
32:存储部
33:控制部
331:接收部
332:图像处理部
333:运算部
334:控制信号生成部
4:主装置
41:第1接触部
42:第2接触部
43:被操作部位
44:位置调整部
45:误差感觉提示部
CS:控制信号
CS1:控制信号
CS2:控制信号
CT:图像中心
E:误差
HF1:第1肢体
HF2:第2肢体
IM:图像
L:线
LF:左脚
LH:左手
P:规定面
RF:右脚
RH:右手
ROI:预定区域
TP:目标位置
U:使用者
v1:误差矢量
v2:对称矢量

Claims (11)

1.一种系统,其特征在于,包括:
第1接触部、传感器部、以及第2接触部;
所述第1接触部与被操作部位连接,并且配置成通过与使用者的第1肢体接触来相应于所述第1肢体的动作而使由所述被操作部位规定的目标位置可变;
所述传感器部配置成测量所述目标位置与预定轨道的误差;
所述第2接触部包括误差感觉提示部,并且配置成与不同于所述使用者的所述第1肢体的第2肢体接触;
所述误差感觉提示部配置成通过将基于所述误差的力觉或触觉施加至所述第2肢体来向所述使用者提示所述误差。
2.根据权利要求1所述的系统,其特征在于,
进一步包括引导光照射部,
所述引导光照射部配置成与所述传感器部同轴或固定于相对位置,并且能够照射表示所述目标位置的引导光。
3.根据权利要求1或2所述的系统,其特征在于,
所述第1肢体及所述第2肢体是指所述使用者的左手和右手,
所述第1接触部及所述第2接触部配置成可分别由所述左手和所述右手抓握。
4.根据权利要求1至3中任一项所述的系统,其特征在于,
基于所述误差的力觉或触觉与表示所述误差的误差矢量成比例地确定。
5.根据权利要求1至3中任一项所述的系统,其特征在于,
所述第1肢体及所述第2肢体是指所述使用者的左右手或左右脚,
基于所述误差的力觉或触觉与对称矢量成比例地确定,所述对称矢量是通过使表示所述误差的误差矢量关于对称面进行对称移动而成,其中所述对称面是从所述使用者的躯干中心向前后延伸的面。
6.根据权利要求4或5所述的系统,其特征在于,
基于所述误差的力觉或触觉被转换为适合于人类的感觉提示的频率并被提示。
7.根据权利要求1至5中任一项所述的系统,其特征在于,
所述传感器部是配置成能够拍摄外界信息的摄像部。
8.根据权利要求7所述的系统,其特征在于,
所述目标位置是由所述摄像部拍摄的图像的中心。
9.根据权利要求1至8中任一项所述的系统,其特征在于,
进一步包括位置调整部,
所述位置调整部配置成能够使所述被操作部位在比所述使用者能够操作的第1范围更小的第2范围内位移,并且能够调整所述被操作部位的位置以校正所述误差。
10.根据权利要求9所述的系统,其特征在于,
所述传感器部的取得速率及所述位置调整部的驱动速率为100赫兹以上。
11.一种系统的操作方法,其特征在于,包括:
第1步骤、第2步骤、第3步骤、以及第4步骤;
在所述第1步骤中,在使使用者的第1肢体与所述系统的第1接触部接触的同时,使所述使用者的第2肢体与所述系统的第2接触部接触;
在所述第2步骤中,通过移动与所述第1接触部接触的所述第1肢体,使由所述系统的被操作部位规定的目标位置移动;
在所述第3步骤中,测量所述目标位置与预定轨道的误差;
在所述第4步骤中,通过将基于所述误差的力觉或触觉施加至与所述第2接触部接触的所述第2肢体,来向所述使用者提示所述误差。
CN202180034660.XA 2020-05-26 2021-05-25 系统以及操作方法 Pending CN115605932A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020091522A JP7351523B2 (ja) 2020-05-26 2020-05-26 システム及び操作方法
JP2020-091522 2020-05-26
PCT/JP2021/019754 WO2021241558A1 (ja) 2020-05-26 2021-05-25 システム及び操作方法

Publications (1)

Publication Number Publication Date
CN115605932A true CN115605932A (zh) 2023-01-13

Family

ID=78744475

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180034660.XA Pending CN115605932A (zh) 2020-05-26 2021-05-25 系统以及操作方法

Country Status (4)

Country Link
US (1) US20230186784A1 (zh)
JP (1) JP7351523B2 (zh)
CN (1) CN115605932A (zh)
WO (1) WO2021241558A1 (zh)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009244428A (ja) 2008-03-28 2009-10-22 Brother Ind Ltd 作業訓練システム
JP5382712B2 (ja) 2009-09-08 2014-01-08 国立大学法人 名古屋工業大学 技能体験システム
US10065074B1 (en) 2014-12-12 2018-09-04 Enflux, Inc. Training systems with wearable sensors for providing users with feedback
JP6408435B2 (ja) 2015-07-16 2018-10-17 国立大学法人埼玉大学 機能的電気刺激を用いた双方向遠隔制御システム
JP6736298B2 (ja) 2016-01-25 2020-08-05 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2020012858A (ja) 2018-07-13 2020-01-23 株式会社日立製作所 技能訓練装置、および、技能訓練方法

Also Published As

Publication number Publication date
WO2021241558A1 (ja) 2021-12-02
JP2021189223A (ja) 2021-12-13
US20230186784A1 (en) 2023-06-15
JP7351523B2 (ja) 2023-09-27

Similar Documents

Publication Publication Date Title
CN109498384B (zh) 一种按摩部位识别、定位、按摩方法及装置、设备
US10820945B2 (en) System for facilitating medical treatment
Arrichiello et al. Assistive robot operated via P300-based brain computer interface
CA2900675A1 (en) Machine to human interfaces for communication from a lower extremity orthotic
WO2015104454A1 (en) A system and a method for transcranial stimulation of a head region of a subject
KR20150092444A (ko) 촉감과 관절 저항감을 동시에 전달하는 무선 외골격 햅틱 인터페이스 장치 및 그 구성 방법
US20170189268A1 (en) Apparatus, system and method for remotely determining acupuncture point
CN115605932A (zh) 系统以及操作方法
WO2018167073A1 (en) A system, apparatus and method of estimating the location and/or orientation of a handheld personal care device with respect to a user
CN115154281A (zh) 一种按摩机器人的按摩方法
WO2015104919A1 (ja) ジェスチャー認識装置、操作入力装置およびジェスチャー認識方法
CN114732577A (zh) 一种基于相机与肌电信号的假肢手控制系统及方法
WO2022074865A1 (ja) 生体検知装置、制御方法、及びコンピュータ可読媒体
CN114569410B (zh) 康复机器人训练模式的控制方法、装置及存储介质
KR20110049703A (ko) 수술 로봇 시스템 및 그 복강경 조작 방법
KR101114234B1 (ko) 수술 로봇 시스템 및 그 복강경 조작 방법
WO2019073844A1 (ja) 車両、判定方法及び判定プログラム
JP7126276B2 (ja) ロボット支援装置及びロボット支援システム。
EP3915502A1 (en) Apparatus for providing visual guidance for a user of a personal care device
CN116113371A (zh) 认知能力推断装置、其方法及程序
JP2023538076A (ja) 網膜画像を捕捉する前に適切な眼球整合を検出するための赤外線の使用
CN111221410B (zh) 传输眼球追踪信息的方法、头戴式显示器及计算机装置
CN113796963A (zh) 具备力感知反馈调节的机械臂控制方法和控制终端
CN107783652B (zh) 虚拟现实的实现方法、系统和装置
CN114431961B (zh) 医生控制台的控制方法及医生控制台

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination