CN102841679B - 一种非接触式人机互动方法与装置 - Google Patents
一种非接触式人机互动方法与装置 Download PDFInfo
- Publication number
- CN102841679B CN102841679B CN201210149408.6A CN201210149408A CN102841679B CN 102841679 B CN102841679 B CN 102841679B CN 201210149408 A CN201210149408 A CN 201210149408A CN 102841679 B CN102841679 B CN 102841679B
- Authority
- CN
- China
- Prior art keywords
- acquisition unit
- image acquisition
- display unit
- described image
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
本发明涉及人机互动领域,尤其涉及一种非接触式人机互动方法与装置。其中方法包括:获取置于所述显示单元边框上的所述图像获取单元相对于所述显示单元的位置信息及方向信息;通过所述图像获取单元的位置信息及方向信息获得标定结果;获取使用者的指示位置,得到图像获取单元坐标系下的指示点坐标;将所述图像获取单元坐标系下的指示点坐标通过标定结果转换为显示单元坐标系下的指示点坐标并通过显示单元进行显示。通过本发明实施例,无需使用附加的标定模板且标定过程快速便捷;使用者无需等待,系统即能识别其手指在屏幕上的指示位置,实现非接触式人机交互。
Description
技术领域
本发明涉及人机互动领域,尤其涉及一种非接触式人机互动方法与装置。
背景技术
目前,非接触式人机互动技术已经越来越普遍,使用者可以比划各种非接触式的手势,通过摄像机对各种手势进行实时跟踪和精确定位,最后完成一系列与电子产品的交互操作。其操作方法简单易行,电子产品也更安全卫生,同时使用者感受了完美的使用体验。在由用户手势引导的非接触式人机交互应用中,用户的手部动作主要可分为两类,第一类是单纯手势,如向左挥手,向右挥手等;第二类是对屏幕上显示目标的指示。对于第一类动作的识别,摄像机只需在其独立的坐标系中捕获分析用户的动作即可;而对于第二类动作的识别,则必须以获得摄像机与屏幕间的相对位置关系为前提,方能将摄像机视角下识别到的用户手指指示的目标映射到屏幕上,这一过程称为摄像机的标定。
在公开号CN1904806A,发明名称为手、眼关系引导的非接触式位置输入系统和方法的专利申请文件中,公开了一种非接触式人机互动的系统和方法,其中摄像机参数的标定方法使用平面标定模板这种传统的标定方法,具体方法是:将标定模板放置在摄像机视野中,以摄像机采集图像并将图像发送至计算机处理,计算机运行图像分割算法,将标定模板上的特征点从背景中分离出来,然后使用Tsai标定算法处理这些特征点,计算出摄像机参数,从而实现标定。
但是上述人机交互系统中摄像机的标定方法至少存在以下缺点,1、需要人工放置标定模板;2、图像处理及标定过程的计算量较大,因此在摄像机安装完成后,不能立即进行人机交互操作。因此给拍摄操作和标定方法带来了诸多不便。
发明内容
本发明实施例提供一种非接触式人机互动方法与装置,用以解决现有技术中需要人工放置标定模板进行人机交互系统中摄像机的标定且在标定过程中,图像处理及标定过程的计算量较大,在摄像机安装完成后,不能立即进行人机交互操作的问题。
本发明实施例提供的解决技术问题的技术方案是一种非接触式人机互动方法,所述方法包括:
获取置于所述显示单元边框上的所述图像获取单元相对于所述显示单元的位置信息及方向信息;
通过所述图像获取单元相对于所述显示单元的位置信息及方向信息获得标定结果;
获取使用者的指示位置,得到图像获取单元坐标系下的指示点坐标;
将所述图像获取单元坐标系下的指示点坐标通过标定结果转换为显示单元坐标系下的识别点坐标并通过显示单元进行显示。
上述一种非接触式人机互动方法,其中,通过与所述图像获取单元连接的滑动测距模块进入所述显示单元边框轨道中的距离及方向,获得所述图像获取单元相对于所述显示单元的位置信息及方向信息。
上述一种非接触式人机互动方法,其中,通过与所述图像获取单元连接的重力传感模块输出的角度信息,获得所述图像获取单元的方向信息;通过滑动测距模块进入所述显示单元边框轨道中的距离,获得所述图像获取单元相对于所述显示单元的位置信息。
上述一种非接触式人机互动方法,其中,通过与所述图像获取单元连接的滑动测阻模块在所述显示单元边框轨道中的电阻变化值获得所述图像获取单元的位置信息及方向信息。
上述一种非接触式人机互动方法,其中,由所述图像获取单元的位置信息及方向信息通过下述公式获得标定结果:
其中,R为标定结果中的旋转矩阵,T为标定结果中的平移向量,φ为图像获取单元的方向信息,θ为图像获取单元的俯仰角信息,为图像获取单元的旋转角信息,Tx,Ty,Tz分别所述图像获取单元在所述显示单元在水平,垂直和纵向方向上的位置信息。
本发明实施例还提供的解决技术问题的技术方案是一种非接触式人机互动装置,其特征在于包括:
位置获取单元,处理单元,图像获取单元,显示单元;
所述位置获取单元连接所述图像获取单元,用于获取置于所述显示单元边框上的所述图像获取单元相对于所述显示单元的位置信息和方向信息;
所述处理单元,连接所述位置获取单元,用于根据所述图像获取单元相对于所述显示单元的位置信息和方向信息获得标定结果;
所述图像获取单元置于所述显示单元的边框上,用于获取使用者的指示位置;
所述图像获取单元还包括:指示位置识别模块和坐标变换模块;所述指示位置识别模块用于根据使用者的指示位置,获得图像获取单元坐标系下的指示点坐标;
所述坐标变换模块连接所述指示位置识别模块,用于将所述图像获取单元坐标系下的指示点坐标通过标定结果转换为显示单元坐标系下的识别点坐标并通过显示单元进行显示。
上述一种非接触式人机互动装置,其中,所述位置获取单元为滑动测距模块,通过测量所述图像获取单元进入所述显示单元边框轨道中的距离及方向,获得所述图像获取单元的位置信息及方向信息。
上述一种非接触式人机互动装置,其中,所述位置获取单元包括:重力传感模块和滑动测距模块;通过所述重力传感模块测量所述图像获取单元的角度信息,获得所述图像获取单元的方向信息;通过所述滑动测距模块测量所述图像获取单元进入所述显示单元边框轨道中的距离,获得所述图像获取单元的位置信息。
上述一种非接触式人机互动装置,其中,所述滑动测距模块还包括:定位块和测距轮组;所述边框轨道还包括:定位槽和测距轮槽;所述定位块与所述定位槽对应接触配合;所述测距轮组与所述测距轮槽对应接触配合,且所述测距轮组能够于所述测距轮槽中滚动。
上述一种非接触式人机互动装置,其中,所述位置获取单元为滑动测阻模块,通过测量所述图像获取单元在所述显示单元边框轨道中电阻的变化值,获得所述图像获取单元的位置信息及方向信息。
上述一种非接触式人机互动装置,其中,所述处理单元还包括计算单元,用于根据下述公式获得标定结果:
其中,R为标定结果中的旋转矩阵,T为标定结果中的平移向量,φ为图像获取单元的方向信息,θ为图像获取单元的俯仰角信息,为图像获取单元的旋转角信息,Tx,Ty,Tz分别为所述图像获取单元在所述显示单元在水平,垂直和纵向方向上的位置信息。
由以上说明得知,本发明确实具有如下的优点:
通过位置获取单元获取相应位置信息及方向信息,随即由处理单元自动完成标定过程。标定过程中,无需使用附加的标定模板且标定过程快速便捷;使用者无需等待,系统即能识别其手指在屏幕上的指示位置,实现非接触式人机交互。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,并不构成对本发明的限定。在附图中:
图1所示为本发明实施例中一种非接触式人机互动方法的流程图;
图2所示为本发明实施例中一种非接触式人机互动装置的结构示意图;
图3所示为本发明实施例中一种显示单元的正视图;
图4a所示为本发明实施例中一种图像获取单元的正视图;
图4b所示为本发明实施例中一种图像获取单元的示意图;
图4c所示为本发明实施例中一种图像获取单元的侧视图;
图5所示为本发明实施例中一种图像获取单元尺寸示意图;
图6a所示为本发明实施例中一种显示单元的边框轨道顶视图;
图6b所示为本发明实施例中一种显示单元的边框轨道剖面图;
图7所示为本发明实施例中一种用户指示位置的几何模型示意图;
图8所示为本发明实施例中一种图像获取单元坐标系及显示单元坐标系关系示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,下面结合附图对本发明实施例作进一步详细说明。在此,本发明的示意性实施例及其说明用于解释本发明,但并不作为对本发明的限定。
如图1所示为本发明实施例中一种非接触式人机互动方法的流程图,该方法包括:
步骤101,获取置于所述显示单元边框上的所述图像获取单元相对于所述显示单元的位置信息及方向信息;
步骤102,通过所述图像获取单元相对于所述显示单元的位置信息及方向信息获得标定结果;
步骤103,获取使用者的指示位置,得到图像获取单元坐标系下的指示点坐标;
步骤104,将所述图像获取单元坐标系下的指示点坐标通过标定结果转换为显示单元坐标系下的识别点坐标并通过显示单元进行显示。
借此,本发明通过在安装图像获取单元的同时,获得图像获取单元的位置及方向信息,以此对图像获取单元进行标定,从而能够有效解决现有技术中需要人工放置标定模板进行人机交互系统中摄像机的标定且在标定过程中,图像处理及标定过程的计算量较大,在摄像机安装完成后,不能立即进行人机交互操作的问题。
如图1所示,本发明的较佳的具体实施例中:
步骤101,获取置于显示单元边框上的图像获取单元相对于显示单元的位置信息及方向信息;本发明所指的显示单元允许有多种形式,其种类包括但不限于电视机,显示器及投影仪屏幕等。为便于统一表述,本文给出的显示单元,其形态按电视机中显示器的形态进行描绘。所述图像获取单元,优选的,为可直接输出场景深度数据的深度摄像机。
步骤102,通过所述图像获取单元相对于所述显示单元的位置信息及方向信息获得标定结果:旋转矩阵R和平移向量T;该步骤由处理单元自动完成;本发明实施例中不限定处理单元的种类,可以是X86CPU,也可以是嵌入式处理器等。
步骤103,获取使用者的指示位置,得到图像获取单元坐标系下的指示点坐标;
优选的,步骤103中,假设使用者的手指和下臂位于同一直线上,并以用户下臂的延长线与显示单元的交点作为识别到的指示点,其几何模型如图7所示。首先利用图像获取单元400提供的场景深度数据从背景中分离出使用者的身体,使用骨骼化算法获得其三维骨骼模型,并根据图7给出的几何模型计算使用者的指示位置,其输出结果为图像获取单元400坐标系CCAMERA下的指示点坐标[XC,TC,ZC]T。
具体计算过程如下:假设通过骨骼化算法得到使用者的手部及肘部的坐标分别为[XH,YH,ZH]T及[XE,YE,ZE]T,那么使用者的下臂所在的直线方程为:
该直线与图像获取单元400的交点即为指示点坐标[XC,YC,ZC]T。因此,将图像获取单元400的平面方程z=0代入(1)式,得到图像获取单元400坐标系下的指示点坐标[XC,YC,ZC]T:
ZC=0
步骤104,将所述图像获取单元坐标系下的指示点坐标通过标定结果转换为显示单元坐标系下的识别点坐标并通过显示单元进行显示。其中,图像获取单元与显示单元通过相互配合的USB接口进行数据通信。
较佳的,图8所示为图像获取单元400坐标系及显示单元300坐标系的关系示意图,利用已获得的标定结果中的旋转矩阵R和平移向量T,对所述图像获取单元400坐标系下的指示点坐标通过下述公式(3)进行变换,得到显示单元300坐标系CTV下的识别点坐标[XTV,YTV,ZTV]T,其变换公式为:
最终将求得的识别点坐标通过显示单元300进行显示。
通过位置获取单元获取相应位置信息及方向信息,随即由处理单元自动完成标定过程。标定过程中,无需使用附加的标定模板且标定过程快速便捷;使用者无需等待,即能识别其手指在显示单元上的指示位置,通过上述方法实现非接触式人机交互。
本发明实施例的一种非接触式人机互动方法,进一步的,通过与所述图像获取单元连接的滑动测距模块进入所述显示单元边框轨道中的距离及方向,获得所述图像获取单元相对于所述显示单元的位置信息及方向信息。
较佳的,如图3所示的显示单元300的正视图以及图4a所示的图像获取单元400的正视图。显示单元300边框具有四条轨道302、303、304、305,显示单元300的边框轨道302顶视图如图6a所示。在每条边框轨道的边缘分别设有3031、3051、3041、3021四个开口;本实施例也可具有一个或一个以上开口,所述开口个数并不能构成对本发明的限制。边框轨道上所述开口的作用是限制图像获取单元400进行显示单元300的方向,从而获得图像获取单元400相对于所述显示单元300的方向信息;所述图像获取单元400的底面具有滑动测距模块,所述滑动测距模块设有测距轮组403,较佳的,测距轮组403中设有两个测距轮,以保持测距轮组403进入显示单元300边框轨道时与轨道稳固的接触,同时在滑动时保持平稳。通过所述测距轮组403进入所述边框轨道302、303、304、305中所滑动的距离及方向,可以得到所述图像获取单元相对于所述显示单元的位置信息及方向信息。
在本实施例中,优选的,将测距轮组403沿边框轨道302的开口3031推入所述显示单元300中进行距离的测量;如图4c所示为一种图像获取单元400的侧视图及图6b所示的显示单元300的轨道剖面图。所述图像获取单元400具有一滑动测距轮组403以及定位块405,所述显示单元300具有定位槽600和测距轮槽601,所述定位块405与所述定位槽600对应接触配合;所述测距轮组403与所述测距轮槽601对应接触配合,且所述测距轮组403能够于所述测距轮槽403中滚动。
具体的,首先将定位块405对准显示单元300轨道302开口处3031的定位槽600推入,同时,测距轮组403与测距轮槽601紧密配合滑动,采用上述方法将所述图像获取单元400固定在所述显示单元300边框上,防止不稳定而产生的移动导致测量误差等。
本发明实施例提供的一种非接触式人机互动方法,另一种较佳的实施方式如图4a所示,先通过与所述图像获取单元400连接的重力传感模块401输出的角度信息,获得所述图像获取单元400的方向信息,即通过重力传感模块401获得的状态信息判断所述图像获取单元400位于所述显示单元300的哪条边框轨道中,同时只通过滑动测距模块进入所述显示单元300边框轨道中的距离,获得所述图像获取单元400相对于所述显示单元300的位置信息。通过重力传感模块401可自动判别所述图像获取单元400位于哪条边框轨道中,而无需人工判断或输入,可以更加快速的得出所述方向信息,节省自动标定的时间。
本发明的一种非接触式人机互动方法,另一种较佳的实施方式中,通过与所述图像获取单元400连接的滑动测阻模块在所述显示单元300边框轨道中电阻的变化值获得所述图像获取单元400的位置信息及方向信息。具体的,沿所述显示单元300边框轨道内铺设电阻线,图像获取单元400底面的滑动测阻模块上设有滑片,该滑片通过3031开口进入进行所述显示单元300边框轨道302中;滑片与轨道中电阻线接触并开始移动的位置视为在该轨道上进行距离测算的起点。通过读取滑动测阻模块在所述显示单元300边框轨道中电阻值的变化值,可方便的计算出移动的距离。
本发明的一种非接触式人机互动方法,其较佳的实施例中,进一步的,由所述图像获取单元的位置信息及方向信息通过公式(4)获得标定结果;
其中,R为标定结果中的旋转矩阵,T为标定结果中的平移向量,φ为图像获取单元的方向信息,θ为图像获取单元的俯仰角(ALPHA)信息,为图像获取单元的旋转角信息,Tx,Ty,Tz分别为所述图像获取单元在所述显示单元在水平,垂直和纵向方向上的位置信息。上述公式(4)中,图像获取单元的俯仰角θ以及旋转角为已知的固定角度,这些角度参数已经存储于图像获取单元中。
具体的,首先获得所述图像获取单元相对于所述显示单元的方向信息φ。通过滑动测距模块的测距轮组403进入所述显示单元300不同边框的轨道获得方向信息φ。优选的,如图4b所示为一种图像获取单元400的示意图,当所述测距轮组403进入所述显示单元300的任意一条边框导轨中并移动一定的距离,以铅垂线方向φ=0°作为参考方向,以该方向沿逆时针旋转至图像获取单元400底面(滑动测距单元的安装面)的法线方向的角度作为图像获取单元400的方向,便可根据表一获得所述图像获取单元400相对于所述显示单元300的方向信息φ。
表一:
轨道 | 302 | 303 | 304 | 305 |
方向信息φ | 0° | 90° | 180° | 270° |
然后获得所述图像获取单元相对于所述显示单元的位置信息。图像获取单元在所述显示单元在水平,垂直和纵向方向上的位置信息Tx,Ty,Tz通过下述方法求得:
计算图像获取单元400在边框轨道中移动的距离,记为Δd。优选的,测距轮组403后进入轨道的测距轮与轨道接触并开始转动的位置视为在该轨道上进行距离测算的起点。然后根据图5所示的图像获取单元400的尺寸示意图中所述图像获取单元400的尺寸信息以及公式(5)得出Tx,Ty,Tz:
轨道302:Tx=WC+Δd,Ty=-HC,Tz=0;
轨道303:Tx=-HC,Ty=WC+Δd,Tz=0; (5)
轨道304:Tx=WC+Δd,Ty=HS+HC,Tz=0;
轨道305:Tx=WS+HC,Ty=WC+Δd,Tz=0。
公式(5)中,WC为测距轮组403的测距轮轴心至图像获取单元400光学中心的距离,HC为图像获取单元400光学中心至轨道表面的距离,WS为显示单元300的宽度,HS为显示单元300的高度。通过测距轮组403后进入轨道的测距轮所滑动的圈数及该测距轮的周长,可方便的计算出移动的距离,且从可靠性角度考虑,以后进入轨道的测距轮开始转动作为起点可以使测距轮与轨道的接触更加稳固,但本发明实施例并不只限于运用后进入轨道的测距轮计算。
根据上述方法测得的所述图像获取单元相对于所述显示单元的位置信息及方向信息,结合已存储的图形获取单元的俯仰角信息及旋转角信息,便可得出所述图像获取单元相对于所述显示单元的标定结果。通过上述实施例中的方法,无需通过标定模板,只需通过滑动测距模块自动测量滑动距离并根据现有的信息,快速、简易的得出所述图像获取单元相对于所述显示单元的位置信息及方向信息。
本发明的一种非接触式人机互动装置,其较佳的实施方式如图2所示,包括:
位置获取单元201,处理单元202,图像获取单元203,显示单元204;
所述位置获取单元201连接所述图像获取单元203,用于获取置于所述显示单元204边框上的所述图像获取单元203相对于所述显示单元204的位置信息和方向信息;
所述处理单元202,连接所述位置获取单元201,用于根据所述图像获取单元203相对于所述显示单元204的位置信息及方向信息获得标定结果;
所述图像获取单元203置于所述显示单元204的边框上,用于获取使用者的指示位置;
所述图像获取单元203还包括:指示位置识别模块205和坐标变换模块206,所述指示位置识别模块205用于根据使用者的指示位置,获得图像获取单元203坐标系下的指示点坐标;所述坐标变换模块206连接所述指示位置识别模块205,用于将所述图像获取单元203坐标系下的指示点坐标通过标定结果转换为显示单元204坐标系下的指示点坐标并通过显示单元204进行显示。
借此,本发明通过在安装图像获取单元的同时,通过位置获取单元来获得图像获取单元的位置信息及方向信息,通过处理单元对图像获取单元进行标定,从而能够有效解决现有技术中需要人工放置标定模板进行人机交互系统中摄像机的标定且在标定过程中,图像处理及标定过程的计算量较大,在摄像机安装完成后,不能立即进行人机交互操作的问题。
本发明的一种非接触式人机互动装置,其较佳的实施例中,更进一步的,如图4a所示,所述位置获取单元为滑动测距模块,通过测量所述图像获取单元400进入所述显示单元边框轨道中的距离及方向,获得所述图像获取单元的位置信息及方向信息。如图3所示的显示单元300的正视图以及图4a所示的图像获取单元400的正视图。显示单元300边框具有四条轨道302、303、304、305,显示单元300的边框轨道302顶视图如图6a所示。在每条边框轨道的边缘分别设有3031、3051、3041、3021四个开口;本实施例也可具有一个或一个以上开口,所述开口个数并不能构成对本发明的限制。边框轨道上所述开口的作用是限制图像获取单元400进行显示单元300的方向,从而获得图像获取单元400相对于所述显示单元300的方向信息;所述图像获取单元400的底面具有滑动测距模块,所述滑动测距模块设有测距轮组403,较佳的,测距轮组403中设有两个测距轮,以保持测距轮组403进入显示单元300边框轨道时与轨道稳固的接触,同时在滑动时保持平稳。通过所述测距轮组403进入所述边框轨道302、303、304、305中所滑动的距离及方向,可以得到所述图像获取单元相对于所述显示单元的位置信息及方向信息。
在本实施例中,优选的,将测距轮组403沿边框轨道302的开口3031推入所述显示单元300中进行距离的测量;如图4c所示为一种图像获取单元400的侧视图及图6b所示的显示单元300的轨道剖面图。所述图像获取单元400具有一滑动测距轮组403以及定位块405,所述显示单元300具有定位槽600和测距轮槽601,所述定位块405与所述定位槽600对应接触配合;所述测距轮组403与所述测距轮槽601对应接触配合,且所述测距轮组403能够于所述测距轮槽403中滚动。
具体的,首先将定位块405对准显示单元300轨道302开口处3031的定位槽600推入,同时,测距轮组403与测距轮槽601紧密配合滑动,采用上述方法将所述图像获取单元400固定在所述显示单元300边框上,防止不稳定而产生的移动导致测量误差等。
通过上述装置测得的所述图像获取单元相对于所述显示单元的位置信息及方向信息,结合已存储的图形获取单元的俯仰角信息及旋转角信息,便可得出所述图像获取单元相对于所述显示单元的标定结果。其中,图像获取单元400通过USB接口404与显示单元300的USB接口301进行数据通信。
获得标定结果后,通过图像获取单元400的镜头组402获取使用者的指示位置,通过指示位置识别模块得图像获取单元400坐标系下的指示点坐标;通过坐标变换模块将所述图像获取单元400坐标系下的指示点坐标通过标定结果转换为显示单元300坐标系下的识别点坐标并通过显示单元进行显示。
借此,通过上述实施例中的滑动测距模块,不仅能够使图像获取单元通过滑动测距模块在显示单元上进行平稳地滑动,而根据需求放置于适当的位置,同时,也能够是滑动测距模块的测距轮组受力更均匀,滚动更为平顺,提高测量的精度。
本发明的一种非接触式人机互动装置,其另一较佳的实施方式中,如图4a所示,所述位置获取单元包括:重力传感模块401和滑动测距模块,通过所述重力传感模块测量所述图像获取单元400的角度信息,获得所述图像获取单元400的方向信息,同时仅通过所述滑动测距模块测量所述图像获取单元400进入所述显示单元300边框轨道中的距离,获得所述图像获取单元400的位置信息。
具体的,先通过与所述图像获取单元400连接的重力传感模块401输出的角度信息,获得所述图像获取单元400的方向信息,即通过重力传感模块401判断所述图像获取单元400位于所述显示单元300的哪条边框轨道中,同时只通过滑动测距模块的测距轮组403进入所述显示单元300边框轨道的测距轮槽601中的距离,获得所述图像获取单元400相对于所述显示单元300的位置信息。通过重力传感模块401可自动判别所述图像获取单元400位于哪条边框轨道中,可以更加快速的得出所述方向信息,节省自动标定的时间。
本发明的一种非接触式人机互动装置,其另一较佳的实施方式中,所述位置获取单元为滑动测阻模块,通过测量所述图像获取单元400在所述显示单元300边框轨道中电阻的变化值,获得所述图像获取单元400的位置信息及方向信息。
较佳的,沿所述显示单元300边框轨道内铺设电阻线,图像获取单元400底面的滑动测阻模块上设有滑片,该滑片通过3031开口进入进行所述显示单元300边框轨道302中;滑片与轨道中电阻线接触并开始移动的位置视为在该轨道上进行距离测算的起点。通过滑动测阻模块在所述显示单元300边框轨道中电阻的变化值,可方便的计算出移动的距离。
本发明一种非接触式人机互动装置的较佳实施例中,更进一步的,所述处理单元还包括计算模块,用于根据公式(4)获得标定结果。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种非接触式人机互动方法,其特征在于:
获取置于显示单元边框上的图像获取单元相对于所述显示单元的位置信息及方向信息;
通过所述图像获取单元相对于所述显示单元的位置信息及方向信息获得标定结果;
获取使用者的指示位置,得到图像获取单元坐标系下的指示点坐标;
将所述图像获取单元坐标系下的指示点坐标通过标定结果转换为显示单元坐标系下的识别点坐标并通过显示单元进行显示 ;
由所述图像获取单元的位置信息及方向信息通过下述公式获得标定结果:
其中,R为标定结果中的旋转矩阵,T为标定结果中的平移向量,φ为图像获取单元的方向信息,θ为图像获取单元的俯仰角信息,为图像获取单元的旋转角信息,Tx,Ty,Tz分别为所述图像获取单元在所述显示单元在水平,垂直和纵向方向上的位置信息。
2.根据权利要求1所述一种非接触式人机互动方法,其特征在于,通过与所述图像获取单元连接的滑动测距模块进入所述显示单元边框轨道中的距离及方向,获得所述图像获取单元相对于所述显示单元的位置信息及方向信息。
3.根据权利要求1所述一种非接触式人机互动方法,其特征在于,通过与所述图像获取单元连接的重力传感模块输出的角度信息,获得所述图像获取单元的方向信息;通过滑动测距模块进入所述显示单元边框轨道中的距离,获得所述图像获取单元相对于所述显示单元的位置信息。
4.根据权利要求1所述一种非接触式人机互动方法,其特征在于,通过与所述图像获取单元连接的滑动测阻模块在所述显示单元边框轨道中的电阻变化值获得所述图像获取单元的位置信息及方向信息。
5.一种非接触式人机互动装置,其特征在于包括:
位置获取单元,处理单元,图像获取单元,显示单元;
所述位置获取单元连接所述图像获取单元,用于获取置于所述显示单元边框上的所述图像获取单元相对于所述显示单元的位置信息和方向信息;
所述处理单元,连接所述位置获取单元,用于根据所述图像获取单元相对于所述显示 单元的位置信息和方向信息获得标定结果;
所述图像获取单元置于所述显示单元的边框上,用于获取使用者的指示位置;
所述图像获取单元还包括:指示位置识别模块和坐标变换模块;所述指示位置识别模块用于根据使用者的指示位置,获得图像获取单元坐标系下的指示点坐标;
所述坐标变换模块连接所述指示位置识别模块,用于将所述图像获取单元坐标系下的指示点坐标通过标定结果转换为显示单元坐标系下的识别点坐标并通过显示单元进行显示 ;
所述处理单元还包括计算模块,用于根据下述公式获得标定结果:
其中,R为标定结果中的旋转矩阵,T为标定结果中的平移向量,φ为图像获取单元的方向信息,θ为图像获取单元的俯仰角信息,为图像获取单元的旋转角信息,Tx,Ty,Tz分别为所述图像获取单元在所述显示单元在水平,垂直和纵向方向上的位置信息。
6.根据权利要求5所述一种非接触式人机互动装置,其特征在于,所述位置获取单元为滑动测距模块,通过测量所述图像获取单元进入所述显示单元边框轨道中的距离及方向,获得所述图像获取单元的位置信息及方向信息。
7.根据权利要求5所述一种非接触式人机互动装置,其特征在于,所述位置获取单元包括:重力传感模块和滑动测距模块;通过所述重力传感模块测量所述图像获取单元的角度信息,获得所述图像获取单元的方向信息;通过所述滑动测距模块测量所述图像获取单元进入所述显示单元边框轨道中的距离,获得所述图像获取单元的位置信息。
8.根据权利要求6或7所述一种非接触式人机互动装置,其特征在于,
所述滑动测距模块还包括:定位块和测距轮组;
所述边框轨道还包括:定位槽和测距轮槽;所述定位块与所述定位槽对应接触配合;所述测距轮组与所述测距轮槽对应接触配合,且所述测距轮组能够于所述测距轮槽中滚动。
9.根据权利要求5所述一种非接触式人机互动装置,其特征在于,所述位置获取单元为滑动测阻模块,通过测量所述图像获取单元在所述显示单元边框轨道中电阻的变化值,获得所述图像获取单元的位置信息及方向信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210149408.6A CN102841679B (zh) | 2012-05-14 | 2012-05-14 | 一种非接触式人机互动方法与装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210149408.6A CN102841679B (zh) | 2012-05-14 | 2012-05-14 | 一种非接触式人机互动方法与装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102841679A CN102841679A (zh) | 2012-12-26 |
CN102841679B true CN102841679B (zh) | 2015-02-04 |
Family
ID=47369119
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210149408.6A Expired - Fee Related CN102841679B (zh) | 2012-05-14 | 2012-05-14 | 一种非接触式人机互动方法与装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102841679B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103324291A (zh) * | 2013-07-12 | 2013-09-25 | 安徽工业大学 | 获取人体感兴趣区域相对于屏幕窗口位置的方法 |
KR101630153B1 (ko) * | 2014-12-10 | 2016-06-24 | 현대자동차주식회사 | 제스처 인식 장치, 그를 가지는 차량 및 차량의 제어 방법 |
CN104656903A (zh) * | 2015-03-04 | 2015-05-27 | 联想(北京)有限公司 | 一种显示图像处理方法和电子设备 |
CN107145822B (zh) * | 2017-03-24 | 2021-01-22 | 奥比中光科技集团股份有限公司 | 偏离深度相机的用户体感交互标定的方法和系统 |
CN107133984A (zh) * | 2017-03-24 | 2017-09-05 | 深圳奥比中光科技有限公司 | 深度相机与主体设备的标定方法与系统 |
CN112051746B (zh) * | 2020-08-05 | 2023-02-07 | 华为技术有限公司 | 获取服务的方法以及装置 |
CN112180377B (zh) * | 2020-09-22 | 2023-07-14 | 湖南大学 | 一种非接触式的人机交互定位方法、追踪方法、终端以及可读存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1904806A (zh) * | 2006-07-28 | 2007-01-31 | 上海大学 | 手、眼关系引导的非接触式位置输入系统和方法 |
CN201465045U (zh) * | 2009-02-06 | 2010-05-12 | 袁鸿军 | 光标定位系统 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6697761B2 (en) * | 2000-09-19 | 2004-02-24 | Olympus Optical Co., Ltd. | Three-dimensional position/orientation sensing apparatus, information presenting system, and model error detecting system |
WO2011080882A1 (ja) * | 2009-12-28 | 2011-07-07 | パナソニック株式会社 | 動作空間提示装置、動作空間提示方法およびプログラム |
-
2012
- 2012-05-14 CN CN201210149408.6A patent/CN102841679B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1904806A (zh) * | 2006-07-28 | 2007-01-31 | 上海大学 | 手、眼关系引导的非接触式位置输入系统和方法 |
CN201465045U (zh) * | 2009-02-06 | 2010-05-12 | 袁鸿军 | 光标定位系统 |
Also Published As
Publication number | Publication date |
---|---|
CN102841679A (zh) | 2012-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102841679B (zh) | 一种非接触式人机互动方法与装置 | |
US20210319588A1 (en) | Method and Apparatus for Calibrating External Parameters of Image Acquisition Device, Device and Storage Medium | |
CN103712555B (zh) | 汽车大梁装配孔视觉在线测量系统及其方法 | |
CN103383731B (zh) | 一种基于指尖定位的投影交互方法、系统及计算设备 | |
US9194931B2 (en) | Length measurement method and device of the same | |
CN106384355B (zh) | 一种投影交互系统中的自动标定方法 | |
CN102901444B (zh) | 一种基于mp小波滤波的零件尺寸检测方法及其检测系统 | |
CN103399015B (zh) | 病理切片扫描仪及其载片平台定位精度测量方法及装置 | |
CN102589443B (zh) | 一种基于图像识别的管片拼装质量的智能检测系统及其检测方法 | |
CN107289858A (zh) | 一种数字图像内置虚拟标尺的测量装置及方法 | |
CN102508578A (zh) | 投影定位装置及方法、交互系统和交互方法 | |
CN104457627A (zh) | 一种利用Photoshop精准测量不规则物体平面面积的方法 | |
CN112825190A (zh) | 一种精度评估方法、系统、电子设备和存储介质 | |
CN103971087A (zh) | 一种实时搜索及识别交通标志的方法及装置 | |
US20220198695A1 (en) | Unmanned aerial vehicle platform based vision measurement method for static rigid object | |
CN103544492B (zh) | 基于深度图像三维曲面几何特征的目标识别方法和装置 | |
CN102426509A (zh) | 一种手写输入的显示方法、装置及系统 | |
CN100595790C (zh) | 采用单个圆为标定物的摄像机内参数标定方法 | |
CN104463240A (zh) | 一种控制列表界面的方法及装置 | |
CN110766751A (zh) | 一种基于地面标记物的无人机悬停精度自测量方法 | |
Ma et al. | WeldNet: A deep learning based method for weld seam type identification and initial point guidance | |
CN102607667B (zh) | 基于虚拟仪器智能相机的煤仓煤位检测方法 | |
CN109871116A (zh) | 用于识别手势的装置和方法 | |
CN106528517A (zh) | 试题定位调整方法及系统 | |
CN1326023C (zh) | 电子显示系统定位方法及其装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20150204 Termination date: 20210514 |
|
CF01 | Termination of patent right due to non-payment of annual fee |