CN104978012A - 一种指向交互方法、装置及系统 - Google Patents

一种指向交互方法、装置及系统 Download PDF

Info

Publication number
CN104978012A
CN104978012A CN201410133397.1A CN201410133397A CN104978012A CN 104978012 A CN104978012 A CN 104978012A CN 201410133397 A CN201410133397 A CN 201410133397A CN 104978012 A CN104978012 A CN 104978012A
Authority
CN
China
Prior art keywords
finger tip
display screen
volume coordinate
coordinate
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410133397.1A
Other languages
English (en)
Other versions
CN104978012B (zh
Inventor
宋星光
程洪
姬艳丽
赵洋
叶果
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
University of Electronic Science and Technology of China
Original Assignee
Huawei Technologies Co Ltd
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd, University of Electronic Science and Technology of China filed Critical Huawei Technologies Co Ltd
Priority to CN201410133397.1A priority Critical patent/CN104978012B/zh
Priority to PCT/CN2015/075794 priority patent/WO2015149712A1/zh
Publication of CN104978012A publication Critical patent/CN104978012A/zh
Priority to US15/284,273 priority patent/US10466797B2/en
Application granted granted Critical
Publication of CN104978012B publication Critical patent/CN104978012B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提供了一种指向交互方法、装置及系统,该方法包括获取手部图像和手臂部分图像;根据所述手部图像确定指尖的空间坐标,并根据所述手臂部分图像确定手臂关键部位的空间坐标;对所述指尖的空间坐标和所述手臂关键部位的空间坐标进行融合计算,确定指尖指向与显示屏幕交点在所述显示屏幕上的二维坐标。从而使得指向交互装置只需采用指尖和手臂关键部位的空间坐标就可实现高精准度的指向,并且具有良好的实时性。

Description

一种指向交互方法、装置及系统
技术领域
本发明实施例涉及交互方法及装置,尤其涉及一种指向交互方法、装置及系统。
背景技术
教学授课或会议报告过程中由于经常采用投影系统,因此操作者通常需要使用远距离指向工具。
目前大部分操作者都是使用激光笔作为远距离指向工具,一种是手持式,另一种是佩戴式。无论哪一种形式的激光笔,它们的尺寸都比较小,并且由于使用者经常在移动过程中使用,很容易随手放在某处并遗忘。另外,一般激光笔耗电量都比较大,有时又会因为没有及时更换电池而无法使用,这些都给使用者的使用带来很大不便。
现有技术中提出了一种指向系统,这种指向系统根据头部、后背或者眼睛视线与指尖位置来定位指向。
然而,采用眼睛、后背或者头部位置与指尖进行指向,它们的指向精准度并不高。
发明内容
本申请为了克服现有技术中存在的缺陷,提供了一种指向交互方法、装置及系统,从而使操作者无需再佩戴激光笔,仅通过手指指向便可实现类似激光笔的指向功能,实时性好,准确性高,符合人的操作习惯。
第一方面,本发明实施例提供了一种指向交互方法,包括:获取手部图像和手臂部分图像,根据手部图像确定指尖的空间坐标,并根据手臂部分图像确定手臂关键部位的空间坐标;对指尖的空间坐标和手臂关键部位的空间坐标进行融合计算,确定指尖指向与显示屏幕交点在显示屏幕上的二维坐标。
结合第一方面,在第一方面的第一种可能的实现方式中,获取手部图像和手臂部分图像,具体包括:获取深度摄像头拍摄到的深度图像;根据设定的深度图像的阈值提取所述深度图像中的手部图像和手臂部分图像。
结合第一方面的第一种可能的实现方式,在第一方面的第二种可能的实现方式中,获取深度摄像头拍摄到的深度图像之后,还包括:对深度图像进行去除噪声处理。
结合第一方面或第一方面的第一种可能的实现方式或第一方面的第二种可能的实现方式任一项,在第一方面的第三种可能的实现方式中,根据手部图像确定指尖的空间坐标,具体包括:根据手部图像提取手部轮廓;若指尖与显示屏幕不垂直,则通过对手部轮廓进行曲率识别确定指尖的空间坐标;或者,若指尖与显示屏幕垂直,则通过对手部轮廓进行高斯分布计算所述指尖的空间坐标。
结合第一方面或第一方面的第一种可能的实现方式或第一方面的第二种可能的实现方式或第一方面的第三种可能的实现方式任一项,在第一方面的第四种可能的实现方式中,对指尖的空间坐标和手臂关键部位的空间坐标进行融合计算,确定指尖指向与显示屏幕交点在显示屏幕上的二维坐标,具体包括:根据指尖的空间坐标和手臂关键部位的空间坐标确定指尖指向;计算指尖指向与显示屏幕的交点的空间坐标;根据深度摄像头和显示屏幕的坐标对应关系,将交点的空间坐标转换为在显示屏幕上的二维坐标。
第二方面,本发明实施例提供了一种指向交互装置,包括:获取模块,用于获取手部图像和手臂部分图像;确定模块,用于根据手部图像确定指尖的空间坐标,并根据手臂部分图像确定手臂关键部位的空间坐标;计算模块,用于对指尖的空间坐标和手臂关键部位的空间坐标进行融合计算,确定指尖指向与显示屏幕交点在显示屏幕上的二维坐标。
结合第二方面,在第二方面的第一种可能的实现方式中,获取模块具体用于:获取深度摄像头拍摄到的深度图像,根据设定的深度图像的阈值提取深度图像中的手部图像和手臂部分图像。
结合第二方面的第一种可能的实现方式,在第二方面的第二种可能的实现方式中,获取模块在深度摄像头拍摄到的深度图像之后,还用于对深度图像进行去除噪声处理。
结合第二方面或第二方面的第一种可能的实现方式或第二方面的第二种可能的实现方式任一项,在第二方面的第三种可能的实现方式中,确定模块具体用于:根据手部图像提取手部轮廓;若指尖与显示屏幕不垂直,则通过对手部轮廓进行曲率识别确定指尖的空间坐标;或者,若指尖与显示屏幕垂直,则通过对手部轮廓进行高斯分布计算指尖的空间坐标。
结合第二方面或第二方面的第一种可能的实现方式或第二方面的第二种可能的实现方式或第二方面的第三种可能的实现方式任一项,在第二方面的第四种可能的实现方式中,计算模块具体用于:根据指尖的空间坐标和手臂关键部位的空间坐标确定指尖指向;计算指尖指向与显示屏幕的交点的空间坐标;根据深度摄像头和显示屏幕的坐标对应关系,将交点的空间坐标转换为在显示屏幕上的二维坐标。
第三方面,本发明实施例提供了一种指向交互系统,包括:深度摄像头,及所述的指向交互装置,与指向交互装置连接的投影仪,以及显示屏幕;深度摄像头,用于采集手部图像和手臂部分图像;投影仪,用于在所述显示屏幕上所述二维坐标对应的位置显示焦点。
本发明提供的实施例的一种指向交互方法、装置及系统,包括:指向交互装置根据获取到的手部图像和手臂部分图像确定指尖和手臂关键部位的空间坐标,并对指尖的空间坐标和手臂关键部位的空间坐标进行融合计算,最终确定指尖指向与显示屏幕交点在显示屏幕上的二维坐标。从而使得指向交互装置只需采用指尖和手臂关键部位的空间坐标就可实现高精准度的指向,并且具有良好的实时性。
附图说明
图1为本发明一实施例提供的一种指向交互方法的流程图;
图2为本发明另一实施例提供的确定指尖的空间坐标方法的流程图;
图3为本发明再一实施例提供的确定指尖指向与显示屏幕交点的二维坐标的方法流程图;
图4为空间坐标系与显示屏幕的平面坐标系之间的对应关系示意图;
图5为本发明一实施例提供的一种指向交互装置的结构示意图;
图6为本发明一实施例提供的一种指向交互系统。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本发明一实施例提供的一种指向交互方法的流程图,本实施例提供的指向交互方法可适用于教学授课或会议报告等场景中,该方法可以由指向交互装置来执行,该指向交互装置可以为计算机等智能设备。其中指向交互方法具体包括如下步骤:
S101:获取手部图像和手臂部分图像。
具体地,上述智能设备可以从摄像装置中获取用户的手部图像和手臂部分图像。可以建立深度摄像头和显示屏幕之间的空间对应关系,其中深度摄像头朝向与显示屏幕朝向相对,并且在显示屏幕的设定位置上进行相应标记,通过该标记得到深度摄像头和显示屏幕之间的空间对应关系。获取深度摄像头拍摄到的深度图像之后,可选的,可以根据设定的深度图像的阈值提取深度图像中的手部图像和手臂部分图像。具体的:
其中,获取深度摄像头拍摄到的深度图像之后,还可以对深度图像进行去除噪声处理。
具体地,由于深度摄像头拍摄到深度图像往往含有较多的噪声,因此指向交互装置需要对深度图像进行去除噪声处理,另外由于操作者手部、手臂部位等在进行指向动作过程中会与显示屏幕之间的距离有所差异,即深度值存在差异,因此指向交互装置可以根据操作者手部、手臂部位等的深度值设置阈值,首先深度摄像头视野范围内的最主要物体为人体,通过检测算法可以得到人体的大致深度信息,进而根据人体深度信息估算得到手部深度值。然后根据手部深度值d,设定[d-100,d+100]范围为手部图像的阈值,单位为毫米。手臂部分图像阈值选取过程类似上述的手部图像获取阈值的过程,从而通过设定的深度图像的阈值提取深度图像中的手部图像和手臂部分图像。
S102:根据手部图像确定指尖的空间坐标,并根据手臂部分图像确定手臂关键部位的空间坐标。
具体地,指向交互装置可以根据手部图像提取手部轮廓,并且根据指尖是否与显示屏幕垂直确定采用何种算法来计算指尖的空间坐标,例如:在指尖与显示屏幕垂直时,则通过对手部轮廓进行高斯分布计算指尖的空间坐标;在指尖与显示屏幕不垂直时,则通过对手部轮廓进行曲率识别确定所述指尖的空间坐标。同时指向交互装置也可以根据手臂部分图像确定手臂关键部位,如手腕、手肘、肩膀等关键部位的空间坐标。
S103:对指尖的空间坐标和手臂关键部位的空间坐标进行融合计算,确定指尖指向与显示屏幕交点在显示屏幕上的二维坐标。
具体地,由于S102已经确定了指尖的空间坐标和手臂关键部位的空间坐标,因此通过指尖的空间坐标和手臂关键部位的空间坐标可以确定操作者的指尖指向,通过指尖指向和指尖的空间坐标以及手臂关键部位的空间坐标进行融合计算来确定出指尖指向与显示屏幕交点的空间坐标,具体可以对指尖的空间坐标和手臂关键部位的空间坐标应用空间直线方程确定指尖指向,将指尖指向的直线方程与显示屏幕对应的平面方程联合,求解交点的空间坐标。同时根据深度摄像头和显示屏幕之间的坐标对应关系将交点的空间坐标转换为二维坐标。
本实施例提供了一种指向交互方法,其中指向交互装置根据获取到的手部图像和手臂部分图像确定指尖和手臂关键部位的空间坐标,并对指尖的空间坐标和手臂关键部位的空间坐标进行融合计算,最终确定指尖指向与显示屏幕交点在显示屏幕上的二维坐标。从而使得指向交互装置只需采用指尖和手臂关键部位的空间坐标就可实现高精准度的指向,并且具有良好的实时性。
图2为本发明另一实施例提供的确定指尖的空间坐标方法的流程图。本实施例是在上一实施例的基础上,提供了S102根据手部图像确定指尖的空间坐标,并根据手臂部分图像确定手臂关键部位的空间坐标的一种具体的实施方式,具体包括如下步骤:
S1021:根据手部图像提取手部轮廓。
具体地,原始的图像经过去噪、分割后得到二值化图像,轮廓提取的算法即对二值化图像掏空内部点,仅保留边缘的点。其中,在二值化图像中,假设背景像素灰度值为0,前景目标的像素灰度值为1。对图像中的每一个像素点进行扫描,轮廓提取的规则如下:
(1)如果中心像素为1,且它的相邻8个像素的值也全为1,则将该中心像素置为0;
(2)如果中心像素为0,则不管其周围8个相邻像素为何值,都将该像素保留为0;
(3)除此之外,全部的中心像素都置为1。
假设图像的背景为黑色,即当扫描到某一像素点为白色时,如果它的8个相邻像素点也全为白色,就将背景黑点判别为图像的内部点,并将其删除。扫描结束后,留下的点就是图像的轮廓。由于分割后得到的二值化的图像具有完整的轮廓,所以轮廓提取的边缘具有连续性,避免了边缘断裂的影响。同时,用这种轮廓提取算法得到的边缘宽度为单像素,具有较高的边缘检测精度。由于噪声的影响,图像在阈值化后得到的边界都很不光滑,或多或少存在一些毛刺。另外,物体区域也存在噪声的空洞,需要通过数学形态学操作滤除小的噪声物体,进而改善图像质量便于后续处理。
S1022:判断指尖与显示屏幕是否垂直。
具体地,当指向交互装置检测到的手部轮廓不明显,并且是一个类似圆形的图案,则指向交互装置判断指尖与显示屏幕之间是垂直关系。若垂直则进行步骤S1024,否则确定指尖与显示屏幕之间不垂直,进行步骤S1023。
S1023:通过对手部轮廓进行曲率识别确定指尖的空间坐标。
具体地,若指尖与显示屏幕不垂直,则通过曲率识别指尖的空间坐标。其中曲率的计算公式如下:
K 1 ( p ) = 1 2 [ 1 + P 1 P → · PP 2 → | | P 1 P → | | | | PP 2 → | | ]
其中,p1、p和p2是轮廓上连续的点。p位于p1与p2中间,每个点之间都相隔l个轮廓像素。算法通过计算不同尺度下轮廓上所有点的Kl(p)值,不同尺度即参数l不同。如果轮廓上的点P同时满足以下两个条件,将p点定位为指尖:
(1)至少在某一尺度下,Kl(p)超过一定的阈值;
(2)Kl(p)是轮廓上邻域内的局部极大值(不同检测尺度之间独立)。
S1024:通过对手部轮廓进行高斯分布计算指尖的空间坐标。
具体地,若指尖与显示屏幕不垂直,指向交互装置首先获得手部轮廓所形成的类似圆形的图像内的每个像素的深度值和它们的空间坐标值,并将每个像素的深度值x作为高斯分布公式的输入值,其中高斯分布公式具体为:
f ( x ) = 1 σ 2 π e - ( x - μ ) 2 2 σ 2
高斯分布公式输出每个像素深度值对应的概率分布,概率值最小像素即为指尖位置,指向交互装置可以确定指尖的空间坐标。
本实施例提供了一种确定指尖的空间坐标的方法,指向交互装置首先判断指尖与显示屏幕之间的位置关系,从而通过曲率识别算法或是高斯分布算法准确的计算出指尖的空间坐标。从而使得指向交互装置只需采用指尖和手臂关键部位的空间坐标就可实现高精准度的指向,并且具有良好的实时性。
图3为本发明再一实施例提供的确定指尖指向与显示屏幕交点的二维坐标的方法流程图。本实施例是在图1对应实施例的基础上,提供了S103对指尖的空间坐标和手臂关键部位的空间坐标进行融合计算,确定指尖指向与显示屏幕交点在显示屏幕上的二维坐标的一种具体的实施方式,具体步骤如下:
S1031:根据指尖的空间坐标和手臂关键部位的空间坐标确定指尖指向。
具体地,假设指尖坐标为(x1,y1,z1),手臂关键部位中的手腕坐标为(x2,y2,z2),则指尖指向可以通过下面的空间直线方程确定:
x - x 1 x 2 - x 1 = y - y 1 y 2 - y 1 = z - z 1 z 2 - z 1
S1032:计算指尖指向与显示屏幕的交点的空间坐标。
具体地,显示屏幕可以用z=-ky-b表示,其中深度摄像头的俯角用θ表示,k=tanθ,b表示深度摄像头与显示屏幕之间的水平距离。那么通过上述两个公式可以计算出手指指向与显示屏幕交点的空间坐标:
y = ( z 2 - z 1 ) y 1 - ( y 2 - y 1 ) ( z 1 + b ) ( z 2 - z 1 + ky 2 - ky 1 ) , x = y - y 1 y 2 - y 1 × ( x 2 - x 1 ) + x 1 , z = - ky - b
S1033:根据深度摄像头和显示屏幕的坐标对应关系,将交点的空间坐标转换为在显示屏幕上的二维坐标。
具体地,图4为空间坐标系与显示屏幕的平面坐标系之间的对应关系示意图。通过空间坐标系1与显示屏幕2可以确定手指指向与显示屏幕的交点在显示屏幕上的二维坐标。具体地,设手指指向与显示屏幕的交点在显示屏幕上的二维坐标为(x',y')。如图4所示则y'=-y。其中W表示显示屏幕的宽度。
本实施例提供了确定指尖指向与显示屏幕交点的二维坐标的方法,其中包括通过指尖指向和显示屏幕方程计算交点空间坐标,最终根据深度摄像头和显示屏幕的坐标对应关系,将交点的空间坐标转换为在显示屏幕上的二维坐标,从而使得指向交互装置只需采用指尖和手臂关键部位的空间坐标就可实现高精准度的指向,并且具有良好的实时性。
图5为本发明一实施例提供的一种指向交互装置的结构示意图,其中包括获取模块501,确定模块502,计算模块503,该指向交互装置可以为计算机等智能设备。
具体地,获取模块501用于获取手部图像和手臂部分图像,确定模块502用于根据手部图像确定指尖的空间坐标,并根据手臂部分图像确定手臂关键部位的空间坐标,计算模块503用于对指尖的空间坐标和手臂关键部位的空间坐标进行融合计算,确定指尖指向与显示屏幕交点在显示屏幕上的二维坐标。进一步地,获取模块501具体用于获取深度摄像头拍摄到的深度图像,根据设定的深度图像的阈值提取深度图像中的手部图像和手臂部分图像,获取模块501在深度摄像头拍摄到的深度图像之后,还用于对深度图像进行去除噪声处理。
进一步地,确定模块502具体用于:根据手部图像提取手部轮廓,若指尖与显示屏幕不垂直,则通过对手部轮廓进行曲率识别确定指尖的空间坐标;或者若指尖与显示屏幕垂直,则通过对手部轮廓进行高斯分布计算指尖的空间坐标。
更进一步地,计算模块503具体用于:根据指尖的空间坐标和手臂关键部位的空间坐标确定指尖指向,计算指尖指向与显示屏幕的交点的空间坐标,根据深度摄像头和显示屏幕的坐标对应关系,将交点的空间坐标转换为在显示屏幕上的二维坐标。
本实施例的指向交互装置,可以用于执行指向交互方法的实施技术方案,其实现原理和技术效果类似,此处不再赘述。
图6为本发明一实施例提供的一种指向交互系统,其中包括:深度摄像头601,上一实施例中所述的指向交互装置602,与指向交互装置602连接的投影仪603,以及显示屏幕604。
本实施例的指向交互系统包括上一实施例中的指向交互装置,该指向交互装置可以用于执行指向交互方法的实施技术方案,其实现原理和技术效果类似,此处不再赘述。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (11)

1.一种指向交互方法,其特征在于,包括:
获取手部图像和手臂部分图像;
根据所述手部图像确定指尖的空间坐标,并根据所述手臂部分图像确定手臂关键部位的空间坐标;
对所述指尖的空间坐标和所述手臂关键部位的空间坐标进行融合计算,确定指尖指向与显示屏幕交点在所述显示屏幕上的二维坐标。
2.根据权利要求1所述方法,其特征在于,所述获取手部图像和手臂部分图像,具体包括:
获取深度摄像头拍摄到的深度图像;
根据设定的所述深度图像的阈值提取所述深度图像中的所述手部图像和所述手臂部分图像。
3.根据权利要求2所述方法,其特征在于,所述获取深度摄像头拍摄到的深度图像之后,还包括:
对所述深度图像进行去除噪声处理。
4.根据权利要求1-3任一项所述方法,其特征在于,所述根据所述手部图像确定指尖的空间坐标,具体包括:
根据所述手部图像提取手部轮廓;
若所述指尖与所述显示屏幕不垂直,则通过对所述手部轮廓进行曲率识别确定所述指尖的空间坐标;或者,若所述指尖与所述显示屏幕垂直,则通过对所述手部轮廓进行高斯分布计算所述指尖的空间坐标。
5.根据权利要求1-4任一项所述方法,其特征在于,所述对所述指尖的空间坐标和所述手臂关键部位的空间坐标进行融合计算,确定指尖指向与显示屏幕交点在所述显示屏幕上的二维坐标,具体包括:
根据所述指尖的空间坐标和所述手臂关键部位的空间坐标确定指尖指向;
计算所述指尖指向与所述显示屏幕的交点的空间坐标;
根据深度摄像头和所述显示屏幕的坐标对应关系,将所述交点的空间坐标转换为在所述显示屏幕上的二维坐标。
6.一种指向交互装置,其特征在于,包括:
获取模块,用于获取手部图像和手臂部分图像;
确定模块,用于根据所述手部图像确定指尖的空间坐标,并根据所述手臂部分图像确定手臂关键部位的空间坐标;
计算模块,用于对所述指尖的空间坐标和所述手臂关键部位的空间坐标进行融合计算,确定指尖指向与显示屏幕交点在所述显示屏幕上的二维坐标。
7.根据权利要求6所述装置,其特征在于,所述获取模块具体用于:获取深度摄像头拍摄到的深度图像,根据设定的所述深度图像的阈值提取所述深度图像中的所述手部图像和所述手臂部分图像。
8.根据权利要求7所述装置,其特征在于,所述获取模块在深度摄像头拍摄到的深度图像之后,还用于对所述深度图像进行去除噪声处理。
9.根据权利要求6-8任一项所述装置,其特征在于,所述确定模块具体用于:
根据所述手部图像提取手部轮廓;
若所述指尖与所述显示屏幕不垂直,则通过对所述手部轮廓进行曲率识别确定所述指尖的空间坐标;或者,若所述指尖与所述显示屏幕垂直,则通过对所述手部轮廓进行高斯分布计算所述指尖的空间坐标。
10.根据权利要求6-9任一项所述装置,其特征在于,所述计算模块具体用于:
根据所述指尖的空间坐标和所述手臂关键部位的空间坐标确定指尖指向;
计算所述指尖指向与所述显示屏幕的交点的空间坐标;
根据深度摄像头和所述显示屏幕的坐标对应关系,将所述交点的空间坐标转换为在所述显示屏幕上的二维坐标。
11.一种指向交互系统,其特征在于,包括:深度摄像头,及权利要求6-10任一项所述的指向交互装置,与所述指向交互装置连接的投影仪,以及显示屏幕;
所述深度摄像头,用于采集手部图像和手臂部分图像;
所述投影仪,用于在所述显示屏幕上所述二维坐标对应的位置显示焦点。
CN201410133397.1A 2014-04-03 2014-04-03 一种指向交互方法、装置及系统 Active CN104978012B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201410133397.1A CN104978012B (zh) 2014-04-03 2014-04-03 一种指向交互方法、装置及系统
PCT/CN2015/075794 WO2015149712A1 (zh) 2014-04-03 2015-04-02 一种指向交互方法、装置及系统
US15/284,273 US10466797B2 (en) 2014-04-03 2016-10-03 Pointing interaction method, apparatus, and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410133397.1A CN104978012B (zh) 2014-04-03 2014-04-03 一种指向交互方法、装置及系统

Publications (2)

Publication Number Publication Date
CN104978012A true CN104978012A (zh) 2015-10-14
CN104978012B CN104978012B (zh) 2018-03-16

Family

ID=54239410

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410133397.1A Active CN104978012B (zh) 2014-04-03 2014-04-03 一种指向交互方法、装置及系统

Country Status (3)

Country Link
US (1) US10466797B2 (zh)
CN (1) CN104978012B (zh)
WO (1) WO2015149712A1 (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106125994A (zh) * 2016-06-17 2016-11-16 深圳迪乐普数码科技有限公司 坐标匹配方法及使用该坐标匹配方法的操控方法和终端
CN106598422A (zh) * 2016-10-25 2017-04-26 深圳奥比中光科技有限公司 基于指向型的操控、混合操控方法及操控系统和电子设备
CN107515714A (zh) * 2017-07-27 2017-12-26 歌尔股份有限公司 一种手指触控识别方法、装置和触控投影设备
CN109144355A (zh) * 2017-08-15 2019-01-04 北京仁光科技有限公司 基于光学信号的交互装置和交互系统
CN109358750A (zh) * 2018-10-17 2019-02-19 Oppo广东移动通信有限公司 一种控制方法、移动终端、电子设备及存储介质
CN112771480A (zh) * 2020-06-28 2021-05-07 华为技术有限公司 交互方法及电子设备
CN115617178A (zh) * 2022-11-08 2023-01-17 润芯微科技(江苏)有限公司 一种手指与车机无接触即可完成按键和功能触发的方法
CN116225236A (zh) * 2023-05-06 2023-06-06 深圳市博视系统集成有限公司 基于声光控制智能家居情景交互方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105389539B (zh) * 2015-10-15 2019-06-21 电子科技大学 一种基于深度数据的三维手势姿态估计方法及系统
CN108089753B (zh) * 2017-12-28 2021-03-09 安徽慧视金瞳科技有限公司 一种利用Faster-RCNN对指尖位置进行预测的定位方法
KR102455382B1 (ko) * 2018-03-02 2022-10-18 엘지전자 주식회사 이동단말기 및 그 제어 방법
CN110874179B (zh) * 2018-09-03 2021-09-14 京东方科技集团股份有限公司 指尖检测方法、指尖检测装置、指尖检测设备及介质
US11591329B2 (en) * 2019-07-09 2023-02-28 Incyte Corporation Bicyclic heterocycles as FGFR inhibitors
US11783492B2 (en) * 2020-09-01 2023-10-10 XRSpace CO., LTD. Human body portion tracking method and human body portion tracking system

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102567703A (zh) * 2010-12-10 2012-07-11 上海上大海润信息系统有限公司 一种基于分类特征的手部动作识别信息处理方法
CN102855461A (zh) * 2011-07-01 2013-01-02 株式会社理光 在图像中检测手指的方法及设备
CN103226387A (zh) * 2013-04-07 2013-07-31 华南理工大学 基于Kinect的视频人手指尖定位方法
CN103294996A (zh) * 2013-05-09 2013-09-11 电子科技大学 一种3d手势识别方法
CN103295016A (zh) * 2013-06-26 2013-09-11 天津理工大学 基于深度与rgb信息和多尺度多方向等级层次特征的行为识别方法
CN103309466A (zh) * 2012-03-09 2013-09-18 由田新技股份有限公司 指向性影像操控装置及其方法
CN103383731A (zh) * 2013-07-08 2013-11-06 深圳先进技术研究院 一种基于指尖定位的投影交互方法、系统及计算设备
CN103500010A (zh) * 2013-09-29 2014-01-08 华南理工大学 一种视频人手指尖定位方法
CN103677274A (zh) * 2013-12-24 2014-03-26 广东威创视讯科技股份有限公司 一种基于主动视觉的互动投影方法及系统

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3795647B2 (ja) 1997-10-29 2006-07-12 株式会社竹中工務店 ハンドポインティング装置
WO2001088681A1 (en) 2000-05-17 2001-11-22 Koninklijke Philips Electronics N.V. Apparatus and method for indicating a target by image processing without three-dimensional modeling
US6531999B1 (en) 2000-07-13 2003-03-11 Koninklijke Philips Electronics N.V. Pointing direction calibration in video conferencing and other camera-based system applications
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US6600475B2 (en) 2001-01-22 2003-07-29 Koninklijke Philips Electronics N.V. Single camera system for gesture-based input and target indication
CN1912816A (zh) 2005-08-08 2007-02-14 北京理工大学 一种基于摄像头的虚拟触摸屏系统
US8149210B2 (en) 2007-12-31 2012-04-03 Microsoft International Holdings B.V. Pointing device and method
CN101344816B (zh) 2008-08-15 2010-08-11 华南理工大学 基于视线跟踪和手势识别的人机交互方法及装置
US8744196B2 (en) * 2010-11-26 2014-06-03 Hewlett-Packard Development Company, L.P. Automatic recognition of images
CN102122345A (zh) 2011-02-22 2011-07-13 上海大学 基于手部运动变化的指势判别方法
US8686943B1 (en) * 2011-05-13 2014-04-01 Imimtek, Inc. Two-dimensional method and system enabling three-dimensional user interaction with a device
EP2602703B1 (en) 2011-12-09 2018-02-07 LG Electronics Inc. -1- Mobile terminal and controlling method thereof
CN103164022B (zh) 2011-12-16 2016-03-16 国际商业机器公司 多指触摸方法和装置、便携式终端设备
WO2013134999A1 (zh) 2012-03-12 2013-09-19 中兴通讯股份有限公司 终端屏幕显示控制方法及终端
US20130271371A1 (en) * 2012-04-13 2013-10-17 Utechzone Co., Ltd. Accurate extended pointing apparatus and method thereof
US8994652B2 (en) * 2013-02-15 2015-03-31 Intel Corporation Model-based multi-hypothesis target tracker
US9081418B1 (en) * 2013-03-11 2015-07-14 Rawles Llc Obtaining input from a virtual user interface
TW201510771A (zh) * 2013-09-05 2015-03-16 Utechzone Co Ltd 指向位置偵測裝置及其方法、程式及電腦可讀取紀錄媒體

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102567703A (zh) * 2010-12-10 2012-07-11 上海上大海润信息系统有限公司 一种基于分类特征的手部动作识别信息处理方法
CN102855461A (zh) * 2011-07-01 2013-01-02 株式会社理光 在图像中检测手指的方法及设备
CN103309466A (zh) * 2012-03-09 2013-09-18 由田新技股份有限公司 指向性影像操控装置及其方法
CN103226387A (zh) * 2013-04-07 2013-07-31 华南理工大学 基于Kinect的视频人手指尖定位方法
CN103294996A (zh) * 2013-05-09 2013-09-11 电子科技大学 一种3d手势识别方法
CN103295016A (zh) * 2013-06-26 2013-09-11 天津理工大学 基于深度与rgb信息和多尺度多方向等级层次特征的行为识别方法
CN103383731A (zh) * 2013-07-08 2013-11-06 深圳先进技术研究院 一种基于指尖定位的投影交互方法、系统及计算设备
CN103500010A (zh) * 2013-09-29 2014-01-08 华南理工大学 一种视频人手指尖定位方法
CN103677274A (zh) * 2013-12-24 2014-03-26 广东威创视讯科技股份有限公司 一种基于主动视觉的互动投影方法及系统

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106125994B (zh) * 2016-06-17 2019-04-23 深圳迪乐普数码科技有限公司 坐标匹配方法及使用该坐标匹配方法的操控方法和终端
CN106125994A (zh) * 2016-06-17 2016-11-16 深圳迪乐普数码科技有限公司 坐标匹配方法及使用该坐标匹配方法的操控方法和终端
CN106598422A (zh) * 2016-10-25 2017-04-26 深圳奥比中光科技有限公司 基于指向型的操控、混合操控方法及操控系统和电子设备
CN107515714A (zh) * 2017-07-27 2017-12-26 歌尔股份有限公司 一种手指触控识别方法、装置和触控投影设备
CN107515714B (zh) * 2017-07-27 2020-08-28 歌尔股份有限公司 一种手指触控识别方法、装置和触控投影设备
CN109144355A (zh) * 2017-08-15 2019-01-04 北京仁光科技有限公司 基于光学信号的交互装置和交互系统
CN109144355B (zh) * 2017-08-15 2022-03-04 北京仁光科技有限公司 基于光学信号的交互装置和交互系统
CN109358750A (zh) * 2018-10-17 2019-02-19 Oppo广东移动通信有限公司 一种控制方法、移动终端、电子设备及存储介质
CN112771480A (zh) * 2020-06-28 2021-05-07 华为技术有限公司 交互方法及电子设备
CN112771480B (zh) * 2020-06-28 2022-04-12 华为技术有限公司 交互方法及电子设备
CN115617178A (zh) * 2022-11-08 2023-01-17 润芯微科技(江苏)有限公司 一种手指与车机无接触即可完成按键和功能触发的方法
CN116225236A (zh) * 2023-05-06 2023-06-06 深圳市博视系统集成有限公司 基于声光控制智能家居情景交互方法
CN116225236B (zh) * 2023-05-06 2023-08-04 深圳市博视系统集成有限公司 基于声光控制智能家居情景交互方法

Also Published As

Publication number Publication date
WO2015149712A1 (zh) 2015-10-08
US20170024015A1 (en) 2017-01-26
CN104978012B (zh) 2018-03-16
US10466797B2 (en) 2019-11-05

Similar Documents

Publication Publication Date Title
CN104978012A (zh) 一种指向交互方法、装置及系统
CN103941866B (zh) 一种基于Kinect深度图像的三维手势识别方法
Ma et al. Kinect Sensor‐Based Long‐Distance Hand Gesture Recognition and Fingertip Detection with Depth Information
CN102609683B (zh) 一种基于单目视频的人体关节自动标注方法
WO2017041396A1 (zh) 一种车道线数据的处理方法、装置、存储介质及设备
CN102402680B (zh) 人机交互系统中手部、指示点定位方法和手势确定方法
CN109815865B (zh) 一种基于虚拟水尺的水位识别方法及系统
EP2339507B1 (en) Head detection and localisation method
CN103218605B (zh) 一种基于积分投影与边缘检测的快速人眼定位方法
CN109993750B (zh) 一种手腕骨的分割识别方法及系统、终端及可读存储介质
CN106326860A (zh) 基于视觉的手势识别方法
CN105389554A (zh) 基于人脸识别的活体判别方法和设备
CN103984928A (zh) 基于景深图像的手指手势识别方法
CN103761519A (zh) 一种基于自适应校准的非接触式视线追踪方法
CN104217192B (zh) 基于深度图像的手定位方法和设备
CN103983334A (zh) 一种信息处理的方法及电子设备
CN111178170B (zh) 一种手势识别方法和一种电子设备
US9922244B2 (en) Fast and robust identification of extremities of an object within a scene
CN103514437A (zh) 一种三维手势识别装置及三维手势识别方法
CN103778406A (zh) 对象检测方法及设备
CN104331885A (zh) 一种基于投票线聚类的圆形目标检测方法
CN102930251A (zh) 两维收藏品数据收录与甄别的装置和方法
JP7044504B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN101393607B (zh) 利用快速边界跟踪实现脑血管图像识别的方法
CN103810480A (zh) 基于rgb-d图像的手势检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant