CN111290577A - 一种非接触式输入方法及装置 - Google Patents
一种非接触式输入方法及装置 Download PDFInfo
- Publication number
- CN111290577A CN111290577A CN202010074174.8A CN202010074174A CN111290577A CN 111290577 A CN111290577 A CN 111290577A CN 202010074174 A CN202010074174 A CN 202010074174A CN 111290577 A CN111290577 A CN 111290577A
- Authority
- CN
- China
- Prior art keywords
- human
- input
- human body
- motion
- skeleton
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 230000033001 locomotion Effects 0.000 claims abstract description 137
- 238000013507 mapping Methods 0.000 claims abstract description 33
- 238000012545 processing Methods 0.000 claims abstract description 16
- 238000010191 image analysis Methods 0.000 claims abstract description 15
- 210000000988 bone and bone Anatomy 0.000 claims description 25
- 238000012937 correction Methods 0.000 claims description 6
- 238000004458 analytical method Methods 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 4
- 230000036544 posture Effects 0.000 description 76
- 230000005540 biological transmission Effects 0.000 description 6
- 238000005481 NMR spectroscopy Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000005856 abnormality Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1116—Determining posture transitions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
- A61B5/1128—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Veterinary Medicine (AREA)
- Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Public Health (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Human Computer Interaction (AREA)
- Animal Behavior & Ethology (AREA)
- Radiology & Medical Imaging (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physiology (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- High Energy & Nuclear Physics (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请提供了一种非接触式输入及装置,其中,该方法包括:采集人体骨骼图像序列和人体图像序列;分别对所述人体骨骼图像序列和人体图像序列进行图像处理和图像分析,分别得到人体骨骼运动姿态和人体运动姿态;依据所述人体骨骼运动姿态校正所述人体运动姿态;按照预设的人体运动姿态与输入指令的映射关系,将校正后的所述人体运动姿态转化为相应的输入指令,从而实现非接触式输入。本申请实施例增加了人体骨骼输入方式,并依据人体骨骼运动姿态校正人体运动姿态,可以提高非接触式输入的准确性。
Description
技术领域
本申请涉及计算机视觉和模式识别技术领域,尤其是涉及一种非接触式输入方法及装置。
背景技术
现有技术中,非接触式输入一般为基于视觉的手势输入方式。基于视觉的手势输入是采用摄象机捕获手势图象,再利用计算机视觉技术对捕获的图象进行分析,提取手势图象特征,从而实现手势的输入。
申请人在研究中发现,现有技术中手势输入形式单一且无法对其进行校正,影响输入的准确性。
发明内容
有鉴于此,本申请的目的在于提供一种非接触式输入方法及装置,以提高非接触式输入的准确性。
第一方面,本申请实施例提供了一种非接触式输入方法,包括:
采集人体骨骼图像序列和人体图像序列;
分别对所述人体骨骼图像序列和人体图像序列进行图像处理和图像分析,分别得到人体骨骼运动姿态和人体运动姿态;
依据所述人体骨骼运动姿态校正所述人体运动姿态;
按照预设的人体运动姿态与输入指令的映射关系,将校正后的所述人体运动姿态转化为相应的输入指令,从而实现非接触式输入。
在一种可能的实施方式中,所述方法还包括:按照预设的人体骨骼运动姿态与输入指令的映射关系,将所述人体骨骼运动姿态转化为相应的输入指令,从而实现非接触式输入。
在一种可能的实施方式中,所述方法还包括:
基于所述人体骨骼图像序列,得到目标人体骨骼结构;
利用预先记录的人体骨骼结构与用户的映射关系,识别所述目标人体骨骼结构所对应的用户;
将识别出的用户的信息与所述输入指令进行关联,从而实现该用户的非接触式输入。
在一种可能的实施方式中,所述方法还包括:
采集每个用户的人体骨骼图像;
对该用户的人体骨骼图像进行图像处理和图像分析,得到该用户的人体骨骼结构;
记录每个用户的人体骨骼结构与该用户的映射关系。
在一种可能的实施方式中,所述方法还包括:
按照预设的输入指令与输入内容的映射关系,将所述输入指令转换为相应的输入内容,从而实现非接触式输入;
其中,所述输入指令包括机器语言指令,所述输入内容包括文字、符号和鼠标触控事件。
在一种可能的实施方式中,所述方法还包括:
对所述输入内容进行语义分析,得到用户意图信息,从而实现非接触式输入。
在一种可能的实施方式中,所述人体运动姿态包括人体手部运动姿态和人体脚部运动姿态。
第二方面,本申请实施例还提供一种非接触式输入装置,包括:
图像采集模块,用于采集人体骨骼图像序列和人体图像序列;
运动检测模块,用于分别对所述人体骨骼图像序列和人体图像序列进行图像处理和图像分析,分别得到人体骨骼运动姿态和人体运动姿态;
姿态校正模块,用于依据所述人体骨骼运动姿态校正所述人体运动姿态;
指令输入模块,用于按照预设的人体运动姿态与输入指令的映射关系,将校正后的所述人体运动姿态转化为相应的输入指令,从而实现非接触式输入。
第三方面,本申请实施例还提供一种电子设备,包括:处理器、存储介质和总线,所述存储介质存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储介质之间通过总线通信,所述处理器执行所述机器可读指令,以执行上述第一方面,或第一方面中任一种可能的实施方式中的步骤
第四方面,本申请实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述第一方面,或第一方面中任一种可能的实施方式中的步骤。
本申请实施例提供的一种非接触式输入方法及装置,采用采集人体骨骼图像序列和人体图像序列;分别对所述人体骨骼图像序列和人体图像序列进行图像处理和图像分析,分别得到人体骨骼运动姿态和人体运动姿态;依据所述人体骨骼运动姿态校正所述人体运动姿态;按照预设的人体运动姿态与输入指令的映射关系,将校正后的所述人体运动姿态转化为相应的输入指令,从而实现非接触式输入。与现有技术中的手势输入形式单一且无法对其进行校正,影响输入的准确性相比,其增加了人体骨骼输入方式,并依据人体骨骼运动姿态校正人体运动姿态,可以提高非接触式输入的准确性。
为使本申请的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本申请实施例一所提供的一种非接触式输入方法的流程图;
图2示出了本申请实施例二所提供的一种非接触式输入装置的结构示意图;
图3示出了本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
考虑到现有技术中手势输入形式单一且无法对其进行校正,影响输入的准确性。基于此,本申请实施例提供了一种非接触式输入方法及装置,下面通过实施例进行描述。
为便于对本实施例进行理解,首先对本申请实施例所公开的一种非接触式输入方法进行详细介绍。
实施例一
请参照图1,图1为本申请实施例一所提供的一种非接触式输入方法的流程图。如图1所示,所述方法包括以下步骤:
S101、采集人体骨骼图像序列和人体图像序列。
在本步骤中,使用核磁共振设备实时采集人体骨骼图像序列,使用1080p的超清摄像头实时采集人体图像序列,并通过传输线实时传输至计算机中进行下一步的处理。利用核磁共振设备采集人体骨骼图像序列,清晰程度更高,动作漏失率会下降,并且通过定制的传输线可以将采集到的图像序列实时传输到计算机中,可以提高图像传输的精确度。
需要说明的是,需要用户做出规定的动作来捕捉该用户在运动状态下的人体骨骼图像序列和人体图像序列。
S102、分别对所述人体骨骼图像序列和人体图像序列进行图像处理和图像分析,分别得到人体骨骼运动姿态和人体运动姿态。
在一种可能的实施方式中,所述人体运动姿态包括人体手部运动姿态和人体脚部运动姿态。可选地,所述人体运动姿态还可以包括头部运动姿态和面部表情。
需要说明的是,至少需要识别三次人体骨骼运动姿态,相互之间进行校正,得到最终的人体骨骼运动姿态。至少需要识别三次人体运动姿态,相互之间进行校正,得到最终的人体骨骼运动姿态。
S103、依据所述人体骨骼运动姿态校正所述人体运动姿态。
在本步骤中,由于人体骨骼运动姿态较为精确,人体运动姿态不够准确,利用人体骨骼运动姿态来校正人体运动姿态,可以提高非接触输入的准确性。
S104、按照预设的人体运动姿态与输入指令的映射关系,将校正后的所述人体运动姿态转化为相应的输入指令,从而实现非接触式输入。
在本步骤中,可以建立输入指令数据库,该输入指令数据库中存放人体运动姿态与输入指令的映射关系表,可以通过查找该表来将校正后的所述人体运动姿态转化为相应的输入指令。
在一种可能的实施方式中,在步骤S104之后还可以包括:按照预设的人体骨骼运动姿态与输入指令的映射关系,将所述人体骨骼运动姿态转化为相应的输入指令,从而实现非接触式输入。具体地,输入指令数据库中还可以存放人体骨骼运动姿态与输入指令的映射关系表,可以查找该表将人体骨骼运动姿态转化为相应的输入指令。
在一种可能的实施方式中,在步骤S101之前还包括:采集每个用户的人体骨骼图像;对该用户的人体骨骼图像进行图像处理和图像分析,得到该用户的人体骨骼结构;记录每个用户的人体骨骼结构与该用户的映射关系。具体地,可以建立用户骨骼结构数据库,存放人体骨骼结构与用户的映射关系表。
需要说明的是,在建立用户骨骼结构数据库的同时,还可以采用人工或其他方式检测每个用户的人体骨骼结构是否存在异常,并将骨骼异常信息记录到用户骨骼结构数据库中。
在一种可能的实施方式中,基于所述人体骨骼图像序列,得到目标人体骨骼结构;利用预先记录的人体骨骼结构与用户的映射关系,识别所述目标人体骨骼结构所对应的用户;将识别出的用户的信息与所述输入指令进行关联,从而实现该用户的非接触式输入。
在一种可能的实施方式中,在步骤S104之后还包括:按照预设的输入指令与输入内容的映射关系,将所述输入指令转换为相应的输入内容,从而将输入内容显示到显示界面上,实现非接触式输入。其中,所述输入指令包括机器语言指令,所述输入内容包括文字、符号和鼠标触控事件。鼠标触控事件可以为鼠标单击事件、鼠标双击事件、鼠标右击事件或鼠标移动事件。
在一种可能的实施方式中,还可以对所述输入内容进行语义分析,得到用户意图信息,从而实现非接触式输入。通过语义分析来理解用户意图,可以将用户意图输入到相应设备中,从而控制该设备动作。
本申请实施例提供的一种非接触式输入方法,采用采集人体骨骼图像序列和人体图像序列;分别对所述人体骨骼图像序列和人体图像序列进行图像处理和图像分析,分别得到人体骨骼运动姿态和人体运动姿态;依据所述人体骨骼运动姿态校正所述人体运动姿态;按照预设的人体运动姿态与输入指令的映射关系,将校正后的所述人体运动姿态转化为相应的输入指令,从而实现非接触式输入。与现有技术中的手势输入形式单一且无法对其进行校正,影响输入的准确性相比,其增加了人体骨骼输入方式,并依据人体骨骼运动姿态校正人体运动姿态,可以提高非接触式输入的准确性。
基于相同的技术构思,本申请实施例还提供一种非接触式输入装置、电子设备、以及计算机存储介质等,具体可参见以下实施例。
实施例二
请参照图2,图2为本申请实施例二所提供的一种非接触式输入装置的结构示意图。如图2所示,所述装置包括图像采集模块201、运动检测模块202、姿态校正模块203和指令输入模块204。
图像采集模块201,用于采集人体骨骼图像序列和人体图像序列。
使用核磁共振设备实时采集人体骨骼图像序列,使用1080p的超清摄像头实时采集人体图像序列,并通过传输线实时传输至计算机中进行下一步的处理。利用核磁共振设备采集人体骨骼图像序列,清晰程度更高,动作漏失率会下降,并且通过定制的传输线可以将采集到的图像序列实时传输到计算机中,可以提高图像传输的精确度。
需要说明的是,需要用户做出规定的动作来捕捉该用户在运动状态下的人体骨骼图像序列和人体图像序列。
运动检测模块202,用于分别对所述人体骨骼图像序列和人体图像序列进行图像处理和图像分析,分别得到人体骨骼运动姿态和人体运动姿态。
在一种可能的实施方式中,所述人体运动姿态包括人体手部运动姿态和人体脚部运动姿态。可选地,所述人体运动姿态还可以包括头部运动姿态和面部表情。
需要说明的是,至少需要识别三次人体骨骼运动姿态,相互之间进行校正,得到最终的人体骨骼运动姿态。至少需要识别三次人体运动姿态,相互之间进行校正,得到最终的人体骨骼运动姿态。
姿态校正模块203,用于依据所述人体骨骼运动姿态校正所述人体运动姿态。
由于人体骨骼运动姿态较为精确,人体运动姿态不够准确,利用人体骨骼运动姿态来校正人体运动姿态,可以提高非接触输入的准确性。
指令输入模块204,用于按照预设的人体运动姿态与输入指令的映射关系,将校正后的所述人体运动姿态转化为相应的输入指令,从而实现非接触式输入。
可以建立输入指令数据库,该输入指令数据库中存放人体运动姿态与输入指令的映射关系表,可以通过查找该表来将校正后的所述人体运动姿态转化为相应的输入指令。
指令输入模块204还用于按照预设的人体骨骼运动姿态与输入指令的映射关系,将所述人体骨骼运动姿态转化为相应的输入指令,从而实现非接触式输入。具体地,输入指令数据库中还可以存放人体骨骼运动姿态与输入指令的映射关系表,可以查找该表将人体骨骼运动姿态转化为相应的输入指令。
本申请实施例提供的一种非接触式输入装置,图像采集模块采集人体骨骼图像序列和人体图像序列;运动检测模块分别对所述人体骨骼图像序列和人体图像序列进行图像处理和图像分析,分别得到人体骨骼运动姿态和人体运动姿态;姿态校正模块依据所述人体骨骼运动姿态校正所述人体运动姿态;指令输入模块按照预设的人体运动姿态与输入指令的映射关系,将校正后的所述人体运动姿态转化为相应的输入指令,从而实现非接触式输入。与现有技术中的手势输入形式单一且无法对其进行校正,影响输入的准确性相比,其增加了人体骨骼输入方式,并利用姿态校正模块依据人体骨骼运动姿态校正人体运动姿态,可以提高非接触式输入的准确性。
实施例三
本申请实施例公开了一种电子设备,如图3所示,包括:处理器301、存储器302和总线303,所述存储器302存储有所述处理器301可执行的机器可读指令,当电子设备运行时,所述处理器301与所述存储器302之间通过总线303通信。
所述机器可读指令被所述处理器301执行时执行以下非接触式输入方法的步骤:
采集人体骨骼图像序列和人体图像序列;
分别对所述人体骨骼图像序列和人体图像序列进行图像处理和图像分析,分别得到人体骨骼运动姿态和人体运动姿态;
依据所述人体骨骼运动姿态校正所述人体运动姿态;
按照预设的人体运动姿态与输入指令的映射关系,将校正后的所述人体运动姿态转化为相应的输入指令,从而实现非接触式输入。
在一种可能的实施方式中,所述处理器301还用于执行:按照预设的人体骨骼运动姿态与输入指令的映射关系,将所述人体骨骼运动姿态转化为相应的输入指令,从而实现非接触式输入。
在一种可能的实施方式中,所述处理器301还用于执行:
基于所述人体骨骼图像序列,得到目标人体骨骼结构;
利用预先记录的人体骨骼结构与用户的映射关系,识别所述目标人体骨骼结构所对应的用户;
将识别出的用户的信息与所述输入指令进行关联,从而实现该用户的非接触式输入。
在一种可能的实施方式中,所述处理器301还用于执行:
采集每个用户的人体骨骼图像;
对该用户的人体骨骼图像进行图像处理和图像分析,得到该用户的人体骨骼结构;
记录每个用户的人体骨骼结构与该用户的映射关系。
在一种可能的实施方式中,所述处理器301还用于执行:
按照预设的输入指令与输入内容的映射关系,将所述输入指令转换为相应的输入内容,从而实现非接触式输入;
其中,所述输入指令包括机器语言指令,所述输入内容包括文字、符号和鼠标触控事件。
在一种可能的实施方式中,所述处理器301还用于执行:
对所述输入内容进行语义分析,得到用户意图信息,从而实现非接触式输入。
在一种可能的实施方式中,所述人体运动姿态包括人体手部运动姿态和人体脚部运动姿态。
实施例四
本申请第四实施例所提供的输出规范表示的应用程序接口数据的方法的计算机程序产品,包括存储了上述处理器301可执行的非易失的程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行前面方法实施例中所述的方法,具体实现可参见方法实施例,在此不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上所述实施例,仅为本申请的具体实施方式,用以说明本申请的技术方案,而非对其限制,本申请的保护范围并不局限于此,尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本申请实施例技术方案的精神和范围,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应所述以权利要求的保护范围为准。
Claims (10)
1.一种非接触式输入方法,其特征在于,包括:
采集人体骨骼图像序列和人体图像序列;
分别对所述人体骨骼图像序列和人体图像序列进行图像处理和图像分析,分别得到人体骨骼运动姿态和人体运动姿态;
依据所述人体骨骼运动姿态校正所述人体运动姿态;
按照预设的人体运动姿态与输入指令的映射关系,将校正后的所述人体运动姿态转化为相应的输入指令,从而实现非接触式输入。
2.根据权利要求1所述的方法,其特征在于,还包括:
按照预设的人体骨骼运动姿态与输入指令的映射关系,将所述人体骨骼运动姿态转化为相应的输入指令,从而实现非接触式输入。
3.根据权利要求1或2所述的方法,其特征在于,还包括:
基于所述人体骨骼图像序列,得到目标人体骨骼结构;
利用预先记录的人体骨骼结构与用户的映射关系,识别所述目标人体骨骼结构所对应的用户;
将识别出的用户的信息与所述输入指令进行关联,从而实现该用户的非接触式输入。
4.根据权利要求3所述的方法,其特征在于,还包括:
采集每个用户的人体骨骼图像;
对该用户的人体骨骼图像进行图像处理和图像分析,得到该用户的人体骨骼结构;
记录每个用户的人体骨骼结构与该用户的映射关系。
5.根据权利要求1所述的方法,其特征在于,还包括:
按照预设的输入指令与输入内容的映射关系,将所述输入指令转换为相应的输入内容,从而实现非接触式输入;
其中,所述输入指令包括机器语言指令,所述输入内容包括文字、符号和鼠标触控事件。
6.根据权利要求5所述的方法,其特征在于,还包括:
对所述输入内容进行语义分析,得到用户意图信息,从而实现非接触式输入。
7.根据权利要求1所述的方法,其特征在于,所述人体运动姿态包括人体手部运动姿态和人体脚部运动姿态。
8.一种非接触式输入装置,其特征在于,包括:
图像采集模块,用于采集人体骨骼图像序列和人体图像序列;
运动检测模块,用于分别对所述人体骨骼图像序列和人体图像序列进行图像处理和图像分析,分别得到人体骨骼运动姿态和人体运动姿态;
姿态校正模块,用于依据所述人体骨骼运动姿态校正所述人体运动姿态;
指令输入模块,用于按照预设的人体运动姿态与输入指令的映射关系,将校正后的所述人体运动姿态转化为相应的输入指令,从而实现非接触式输入。
9.一种电子设备,其特征在于,包括:处理器、存储介质和总线,所述存储介质存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储介质之间通过总线通信,所述处理器执行所述机器可读指令,以执行如权利要求1至7任一所述的非接触式输入方法的步骤。
10.一种计算机可读存储介质,其特征在于,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如权利要求1至7任一所述的非接触式输入方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010074174.8A CN111290577B (zh) | 2020-01-22 | 2020-01-22 | 一种非接触式输入方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010074174.8A CN111290577B (zh) | 2020-01-22 | 2020-01-22 | 一种非接触式输入方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111290577A true CN111290577A (zh) | 2020-06-16 |
CN111290577B CN111290577B (zh) | 2024-03-22 |
Family
ID=71021312
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010074174.8A Active CN111290577B (zh) | 2020-01-22 | 2020-01-22 | 一种非接触式输入方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111290577B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100277470A1 (en) * | 2009-05-01 | 2010-11-04 | Microsoft Corporation | Systems And Methods For Applying Model Tracking To Motion Capture |
CN103544713A (zh) * | 2013-10-17 | 2014-01-29 | 芜湖金诺数字多媒体有限公司 | 一种基于刚体物理模拟系统的人体投影交互方法 |
CN105138111A (zh) * | 2015-07-09 | 2015-12-09 | 中山大学 | 一种基于单摄像头的体感交互方法及系统 |
CN107705365A (zh) * | 2017-09-08 | 2018-02-16 | 郭睿 | 可编辑的三维人体模型创建方法、装置、电子设备及计算机程序产品 |
CN107765855A (zh) * | 2017-10-25 | 2018-03-06 | 电子科技大学 | 一种基于手势识别控制机器人运动的方法和系统 |
CN110427100A (zh) * | 2019-07-03 | 2019-11-08 | 武汉子序科技股份有限公司 | 一种基于深度摄像头的动作姿态捕捉系统 |
CN110443884A (zh) * | 2019-07-17 | 2019-11-12 | 清华大学 | 手部运动重建方法和装置 |
-
2020
- 2020-01-22 CN CN202010074174.8A patent/CN111290577B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100277470A1 (en) * | 2009-05-01 | 2010-11-04 | Microsoft Corporation | Systems And Methods For Applying Model Tracking To Motion Capture |
CN103544713A (zh) * | 2013-10-17 | 2014-01-29 | 芜湖金诺数字多媒体有限公司 | 一种基于刚体物理模拟系统的人体投影交互方法 |
CN105138111A (zh) * | 2015-07-09 | 2015-12-09 | 中山大学 | 一种基于单摄像头的体感交互方法及系统 |
CN107705365A (zh) * | 2017-09-08 | 2018-02-16 | 郭睿 | 可编辑的三维人体模型创建方法、装置、电子设备及计算机程序产品 |
CN107765855A (zh) * | 2017-10-25 | 2018-03-06 | 电子科技大学 | 一种基于手势识别控制机器人运动的方法和系统 |
CN110427100A (zh) * | 2019-07-03 | 2019-11-08 | 武汉子序科技股份有限公司 | 一种基于深度摄像头的动作姿态捕捉系统 |
CN110443884A (zh) * | 2019-07-17 | 2019-11-12 | 清华大学 | 手部运动重建方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111290577B (zh) | 2024-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102014385B1 (ko) | 수술영상 학습 및 학습 기반 수술동작 인식 방법 및 장치 | |
CN107485844B (zh) | 一种肢体康复训练方法、系统及嵌入式设备 | |
US20190392587A1 (en) | System for predicting articulated object feature location | |
CN104350509B (zh) | 快速姿势检测器 | |
US9671872B2 (en) | Gesture recognition method, gesture recognition system, terminal device and wearable device | |
KR20210015972A (ko) | 병소 검출 방법, 장치, 기기 및 기억 매체 | |
CN108351828A (zh) | 用于设备无关的自动应用测试的技术 | |
CN109919077B (zh) | 姿态识别方法、装置、介质和计算设备 | |
CN111143925B (zh) | 图纸标注方法及相关产品 | |
JP6326847B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
KR20150106823A (ko) | 제스처 인식 장치 및 제스처 인식 장치의 제어 방법 | |
JP2015219892A (ja) | 視線分析システムおよび視線分析装置 | |
JP2019176423A (ja) | 情報処理装置および方法およびコンピュータプログラム、並びに監視システム | |
CN111160088A (zh) | Vr体感数据检测方法、装置、计算机设备及存储介质 | |
CN112083801A (zh) | 基于vr虚拟办公的手势识别系统及方法 | |
US20220044147A1 (en) | Teaching data extending device, teaching data extending method, and program | |
US20160110909A1 (en) | Method and apparatus for creating texture map and method of creating database | |
JP2017090998A (ja) | 文字認識プログラム、文字認識装置 | |
CN113485555A (zh) | 医学影像阅片方法、电子设备和存储介质 | |
CN111507244B (zh) | Bmi检测方法、装置以及电子设备 | |
JP6915611B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN111290577B (zh) | 一种非接触式输入方法及装置 | |
CN103995638A (zh) | 数据处理设备、数据处理系统以及数据处理方法 | |
US11176360B2 (en) | Work skill supporting device and work skill supporting system | |
CN113780215A (zh) | 一种信息处理方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |