CN105759973A - 一种基于3d视线估计的远近距离人机交互系统与方法 - Google Patents

一种基于3d视线估计的远近距离人机交互系统与方法 Download PDF

Info

Publication number
CN105759973A
CN105759973A CN201610133124.6A CN201610133124A CN105759973A CN 105759973 A CN105759973 A CN 105759973A CN 201610133124 A CN201610133124 A CN 201610133124A CN 105759973 A CN105759973 A CN 105759973A
Authority
CN
China
Prior art keywords
robot
head
sight line
interactive
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610133124.6A
Other languages
English (en)
Inventor
姬艳丽
谢非
程洪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201610133124.6A priority Critical patent/CN105759973A/zh
Publication of CN105759973A publication Critical patent/CN105759973A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Position Input By Displaying (AREA)

Abstract

本发明公开了一种基于3D视线估计的远近距离人机交互系统与方法,其系统包括深度传感器、用户选择模块、模式判断模块、视线估计模块、头部朝向估计模块和机器人动作控制模块;其方法包括交互对象选择步骤S1、交互模式判断步骤S2、3D视线估计步骤S3、头部朝向估计步骤S4和机器人动作控制步骤S5;本发明提供了一种基于3D视线估计的远近距离人机交互系统与方法,根据人与机器人的实际距离,将人机交互分为远、近距离两种模式,来对机器人动作进行控制,提高人机交互的有效性和稳定性。

Description

一种基于3D视线估计的远近距离人机交互系统与方法
技术领域
本发明涉及一种基于3D视线估计的远近距离人机交互系统与方法。
背景技术
人机交互(Human-RobotInteraction,HRI)是指人与机器人之间使用某种对话语言,以一定的交互方式,为完成确定任务的人与机器人之间的信息交换过程;随着机器人渐渐进入人们的生活,新的人机交互技术正在逐渐呈现出来,目前人与机器人的交互大多需要许多辅助工具实现,如:通过在用户身上装备诸多传感器,通过传感器接受用户动作信息,再传递给机器人,从而实现用户与机器人交互;而随着机器学习与计算机视觉等相关领域的发展,机器人可以对用户的姿态、手势、视线等进行识别;视线作为人们了解世界的最重要手段,其便利、自然的特性也使其成为了人机交互最有潜力的交互技术之一。
但是,在现有的人机交互系统中,大多并不能够根据人与机器人的实际距离,采用不同的人机交互方法,来对机器人进行控制。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于3D视线估计的远近距离人机交互系统与方法,根据人与机器人的实际距离,将人机交互分为远、近距离两种模式,来对机器人动作进行控制,提高人机交互的效果和稳定性。
本发明的目的是通过以下技术方案来实现的:一种基于3D视线估计的远近距离人机交互系统,包括用户选择模块、模式判断模块、视线估计模块、头部朝向估计模块和机器人动作控制模块;
所述的用户选择模块用于选择与机器人距离最近的用户作为交互对象;
所述的模式判断模块用于根据交互对象与机器人之间的距离进行交互模式判断:交互对象与机器人之间距离不大于l时,为近距离交互模式;当交互对象与机器人之间的距离大于l时,为远距离交互模式;
所述的视线估计模块用于在近距离交互模式下对交互对象的3D视线进行估计,并将估计结果作为机器人动作控制依据;
所述的头部朝向估计模块用于在远距离交互模式下对交互对象进行头部朝向估计,并将估计结果作为机器人动作控制依据;
所述的机器人动作控制模块用于根据视线估计模块或者头部朝向估计模块的估计结果,对机器人动作进行控制。
所述的距离l为1m。
一种基于3D视线估计的远近距离人机交互方法,包括以下步骤:
S1.交互对象选择:通过深度传感器选择距离机器人最近的用户作为交互对象;
S2.交互模式判断:获取交互对象与机器人之间的当前距离d,对距离d进行去噪处理,得到处理后的距离值d′,根据d′的距离值进行模式判断:
(1)如果d′≤l,则为近距离模式,跳转至步骤S3进行交互对象的3D视线估计;
(2)如果d′>l,则为远距离模式,跳转至步骤S4进行交互对象的头部朝向估计;
进一步地,l一般为1m。
S3.进行3D视线估计,得到表征交互对象感兴趣区域的用户视线方向向量将其作为机器人动作控制的输入向量,并跳转至步骤S5;
S4.进行头部朝向估计,得到表征交互对象感兴趣区域的头部朝向方向将其作为机器人动作控制的输入向量,并跳转至步骤S5;
S5.机器人动作控制,根据机器人动作控制的输入向量控制机器人头部转向交互对象感兴趣区域,并控制机器人眼球进行相应转动。
所述的步骤S1包括以下子步骤:
S11.使用Kinect2深度传感器检测交互范围内的所有用户ID以及各个用户的头部中心坐标;
S12.通过Kinect2深度传感器找出头部中心坐标离传感器Z方向距离最小的用户ID,将该ID的用户作为交互对象,并保持交互对象不变。
进一步地,如果交互对象离开了交互范围,则按照步骤S11~S12重新选择交互对象。
所述的步骤S2包括以下子步骤:
S21.使用Kinect2传感器获取交互对象与机器人的当前距离d;
S22.使用卡尔曼滤波操作对距离d进行去噪处理,得到距离值d′;正是由于用户与机器人的距离d不稳定,会导致用户处于1m距离附近存在模式异常切换问题,针对这一问题,本专利对距离d采用了卡尔曼滤波操作进行去噪,将处理后的距离值d′作为模式判断依据;
S23.判断距离值d′进行模式判断:
(1)如果d′≤l,则为近距离模式,跳转至步骤S3进行交互对象的3D视线估计;
(2)如果d′>l,则为远距离模式,跳转至步骤S4进行交互对象的头部朝向估计。
所述的步骤S3包括以下子步骤:
S31.进行瞳孔检测,得到瞳孔中心:
具体来说,步骤S31包括以下子步骤:
S311.使用Kinect2传感器进行用户的人脸跟踪及脸部关键点检测,通过其眼部内角点和外角点确定人眼区域图像;
S312.对人眼区域图像进行直方图均衡化的预处理,增强瞳孔以及巩膜的灰度值对比度;
S313.对均衡化之后的图像进行二值化处理,分离出瞳孔区域图像;对于二值化阈值的选取,考虑到光照变化影响,使用当前经过预处理的人眼区域图像中,最低灰度值加35作为二值化阈值,分离出瞳孔区域图像;
S314.对瞳孔区域图像进行平滑处理后,通过霍夫变换得到瞳孔中心,并求出瞳孔中心在图像中的平面坐标以及图像的中心坐标;
S32.求头部中心的三维信息T和旋转矩阵R;
具体来说,所述的步骤S32包括以下子步骤:
S321.过Kinect2传感器获取头部中心三维位置信息T以及头部姿态四元数Q=[w,x,y,z];关于四元数的概念,对于本领域技术而言是一个公有概念,可以直接从Kinect2传感器获取,四元数Q还能够表示为Q=[w,v],w是标量,v是4维空间中的矢量,v=(x,y,z),x,y,z分别表示v在三个方向的坐标。
S322.根据四元数Q=[w,x,y,z]求其对应的旋转矩阵R:
R = 1 - 2 ( y 2 + z 2 ) 2 x y - 2 w z 3 w y + 2 x z 2 x y + 2 w z 1 - 2 ( x 2 + z 2 ) - 2 w x + 2 y z - 2 w y + 2 x z 2 w x + 2 y z 1 - 2 ( x 2 + y 2 ) ;
S33.计算头部坐标系中眼球中心的坐标C0
具体来说,所述的步骤S33包括以下子步骤:
S331.计算Kinect2坐标系下瞳孔中心空间坐标PK和眼球中心空间坐标CK的函数关系:
x p u p - u 0 = y p v p - v 0 = z p f || P K - C K || = K ,
式中,(up,vp)瞳孔中心在图像中的平面坐标,(u0,v0)是图像中心的平面坐标,均由步骤S31得到,PK=(xp,yp,zp)是瞳孔中心在Kinect2坐标系下的空间坐标,f为Kinect2传感器的焦距,CK是Kinect2坐标系下眼球中心的空间坐标,K表示瞳孔中心P到眼球中心C的空间距离,是固定值,并且K在任何坐标系下都不变,故PK能够用CK表示,PK与CK的函数关系式表示为:
PK=f1(CK);
S332.计算Kinect2坐标系下角膜体中心的空间坐标CPK眼球中心CK的空间坐标函数关系式:
C P K = C K + K 0 K ( P K - C K ) ,
式中,K0表示角膜体中心Cp到眼球中心C的距离,是固定值,故将步骤S331中得到的函数关系PK=f1(CK)代入上式中能够得到CPK与CK的函数关系式,表示为:
CPK=f2(CK);
S333.计算Kinect2坐标系下眼球中心CK的空间坐标与头部坐标系下眼球中心空间坐标C0的函数关系式:
CK=R-1*C0+T=f3(C0),
其中T和R由步骤S32得到,头部不动时,眼球在旋转过程中眼睛球的中心位置并没有改变。
S334.将步骤S333中得到的函数关系式代入步骤S331得到的函数关系式PK=f1(CK)中,得到PK与C0的函数关系式:
PK=f4(C0),
将步骤S333中得到的函数关系式代入步骤S332中的到的函数关系式CPK=f2(CK)中,得出CPK与C0的函数关系式:
CPK=f5(C0);
S335.同一个人的人眼的视轴和光轴之间的夹角是θ固定的,θ的余弦值表示为:
C P K G · C P K P K || C P K G || · || C P K P K || = c o s θ ,
式中G表示Kinect2坐标系中注视点的空间坐标,将CK=f3(C0),PK=f4(C0),CPK=f5(C0)代入θ的余弦值表达式中,式中就只有C0和G两个未知量,C0和G的函数关系表示为:
C0=f6(G);
S336.通过标定程序,让用户注视一系列标定的点,并转化到Kinect2坐标系中,得到Kinect2坐标系中注视点的空间坐标G,将G的坐标代入公式C0=f6(G),得到头部坐标系下眼球中心空间坐标C0
S34.计算Kinect2坐标系下眼球中心坐标CK和瞳孔中心坐标PK
CK=f3(C0),
PK=f4(C0),
S35.估计交互对象的视线方向:设计算得到的眼球中心坐标为CK=(Ox,Oy,Oz),瞳孔中心坐标为PK=(Px,Py,Pz),根据这两点计算眼球注视方向g(X,Y,Z):
X - O x P x - O x = Y - O y P y - O y = Z - O z P z - O z ,
将眼球注视方向表示为单位向量
所述的步骤S4包括以下子步骤:
S41.通过Kinect2传感器的功能获取用户头部旋转四元数Q′=[w′,x′,y′,z′];
S42.通过旋转四元数求得体头部姿态的欧拉角:
p i t c h = tan - 1 2 ( w ′ x ′ + y ′ z ′ ) 1 - 2 ( x ′ 2 + y ′ 2 ) ,
yaw=sin-12(w′y′-z′x′),
r o l l = tan - 1 2 ( w ′ z ′ + x ′ y ′ ) 1 - 2 ( y ′ 2 + z ′ 2 ) ;
pitch为头部绕X轴的旋转弧度,yaw为头部绕Y轴旋转弧度,roll为头部绕Z轴的旋转弧度;
S43.根据pitch,yaw,roll的计算结果即可获取头部朝向的方向向量为:
n → 2 = ( cos p i t c h , cos y a w , cos r o l l ) = ( a 2 , b 2 , c 2 ) .
所述的步骤S5包括以下子步骤:
S51.设机器人动作控制的输入向量如果在近距离模式,如果在远距离模式
S52.计算向量与Kinect2坐标系三条轴的夹角α1,β1,γ1
S53.以机器人头部轴心位置为原点,依据Kinect2坐标系轴方向建立机器人坐标系,驱动机器人头部旋转,使机器人在转动过程中与Kinect2坐标系三条轴产生的夹角为α,β,γ满足:
α=α1,β=β1,γ=γ1
即可实现机器人头部朝向用户感兴趣区域;
S54.定义机器人分别向上,下,左,右四个方向下的眼睛状态,根据向量的X方向和Y方向分量,作为眼睛横向和纵向转动程度的参数,其范围为(-1,1);控制实现机器人眼球转动,看向用户的感兴趣区域。
本发明的有益效果是:(1)根据人与机器人的实际距离,将人机交互分为远、近距离两种模式,来对机器人动作进行控制,提高人机交互的有效性和稳定性。
(2)在选定交互对象后,保持交互对象不变,直到交互对象离开交互范围,是人机交互在一段时间内具有良好的有序性,不会出现交互对象不停变化的情况。
(3)在进行距离判断的过程中,采用卡尔曼滤波操作对深度传感器采集到的距离进行去噪,用去噪后的距离值作为判断依据,判断更加准确。
(3)在近距离交互模式下,采用3D视线估计的方法,来进行机器人动作控制,估计效果准确。
(4)在源距离交互模式下,3D视线估计效果较差,使用头部朝向估计的方法来实现机器人动作控制,估计效果好。
(5)在控制机器人头部动作的同时,还控制机器人眼睛进行相应的转动,机器人在交互过程表现更加自然。
附图说明
图1为本发明的系统原理框图;
图2为本发明的方法流程图;
图3为模式判断流程图;
图4为3D视线估计流程图;
图5为瞳孔检测流程图;
图6为头部朝向估计流程图;
图7为机器人动作控制流程图;
图8为标准人眼的模型图;
图9为Kinect2坐标系的示意图。
具体实施方式
下面结合附图进一步详细描述本发明的技术方案,但本发明的保护范围不局限于以下所述。
如图1所示,一种基于3D视线估计的远近距离人机交互系统,包括用户选择模块、模式判断模块、视线估计模块、头部朝向估计模块和机器人动作控制模块;
所述的用户选择模块用于选择与机器人距离最近的用户作为交互对象;
所述的模式判断模块用于根据交互对象与机器人之间的距离进行交互模式判断:交互对象与机器人之间距离不大于l时,为近距离交互模式;当交互对象与机器人之间的距离大于l时,为远距离交互模式;
所述的视线估计模块用于在近距离交互模式下对交互对象的3D视线进行估计,并将估计结果作为机器人动作控制依据;
所述的头部朝向估计模块用于在远距离交互模式下对交互对象进行头部朝向估计,并将估计结果作为机器人动作控制依据;
所述的机器人动作控制模块用于根据视线估计模块或者头部朝向估计模块的估计结果,对机器人动作进行控制。
所述的距离l为1m。
如图2所示,一种基于3D视线估计的远近距离人机交互方法,包括以下步骤:
S1.交互对象选择:通过深度传感器选择距离机器人最近的用户作为交互对象;
S2.交互模式判断:获取交互对象与机器人之间的当前距离d,对距离d进行去噪处理,得到处理后的距离值d′,根据d′的距离值进行模式判断:
(1)如果d′≤l,则为近距离模式,跳转至步骤S3进行交互对象的3D视线估计;
(2)如果d′>l,则为远距离模式,跳转至步骤S4进行交互对象的头部朝向估计;
进一步地,l可自行设定,一般为1m。
S3.进行3D视线估计,得到表征交互对象感兴趣区域的用户视线方向向量将其作为机器人动作控制的输入向量,并跳转至步骤S5;
S4.进行头部朝向估计,得到表征交互对象感兴趣区域的头部朝向方向将其作为机器人动作控制的输入向量,并跳转至步骤S5;
S5.机器人动作控制,根据机器人动作控制的输入向量控制机器人头部转向交互对象感兴趣区域,并控制机器人眼球进行相应转动。
所述的步骤S1包括以下子步骤:
S11.使用Kinect2深度传感器检测交互范围内的所有用户ID以及各个用户的头部中心坐标;
进一步地,用户的ID表征用户的身份,可以理解成Kinect2传感器为交互范围内的每个用户分配的标签;这里的头部中心坐标指的是Kinect2坐标系下的头部中心坐标。
S12.通过Kinect2深度传感器找出头部中心坐标离传感器Z方向(也就是Kinect2坐标系Z轴方向)距离最小的用户ID,将该ID的用户作为交互对象,并保持交互对象不变。
进一步地,如果交互对象离开了交互范围,则按照步骤S11~S12重新选择交互对象。
进一步地,Kinect2坐标系是基于Kinect2传感器的坐标系,对本领域技术人员而言,如何建立Kinect2坐标系属于公知技术;如图9所示,Kinect2坐标系的建立方式如下,以Kinect2传感器(摄像头)为原点,水平方向为X轴,竖直方向为Y轴,景深方向为Z轴;面向Kinect2传感器来看,X轴的向右正方向,Y轴向上为正方向,Kinect2传感器摄像方向(景深方向)SensorDirection为Z轴正方向。
如图3所示,所述的步骤S2包括以下子步骤:
S21.使用Kinect2传感器获取交互对象与机器人的当前距离d;
S22.使用卡尔曼滤波操作对距离d进行去噪处理,得到距离值d′;正是由于用户与机器人的距离d不稳定,会导致用户处于1m距离附近存在模式异常切换问题,针对这一问题,本专利对距离d采用了卡尔曼滤波操作进行去噪,将处理后的距离值d′作为模式判断依据;
S23.判断距离值d′进行模式判断:
(1)如果d′≤l,则为近距离模式,跳转至步骤S3进行交互对象的3D视线估计;
(2)如果d′>l,则为远距离模式,跳转至步骤S4进行交互对象的头部朝向估计。
如图4所示,所述的步骤S3包括以下子步骤:
S31.进行瞳孔检测,得到瞳孔中心:
如图5所示,具体来说,步骤S31包括以下子步骤:
S311.使用Kinect2传感器进行用户的人脸跟踪及脸部关键点检测,通过其眼部内角点和外角点确定人眼区域图像;
S312.对人眼区域图像进行直方图均衡化的预处理,增强瞳孔以及巩膜的灰度值对比度;
S313.对均衡化之后的图像进行二值化处理,分离出瞳孔区域图像;对于二值化阈值的选取,考虑到光照变化影响,使用当前经过预处理的人眼区域图像中,最低灰度值加35作为二值化阈值,分离出瞳孔区域图像;
S314.对瞳孔区域图像进行平滑处理后,通过霍夫变换得到瞳孔中心,并求出瞳孔中心在图像中的平面坐标以及图像的中心坐标;
S32.求头部中心的三维信息T和旋转矩阵R;
具体来说,所述的步骤S32包括以下子步骤:
S321.过Kinect2传感器获取头部中心三维位置信息T以及头部姿态四元数Q=[w,x,y,z];关于四元数的概念,对于本领域技术而言是一个公有概念,可以直接从Kinect2传感器获取,四元数Q还能够表示为Q=[w,v],w是标量,v是4维空间中的矢量,v=(x,y,z),x,y,z分别表示v在三个方向的坐标。
S322.根据四元数Q=[w,x,y,z]求其对应的旋转矩阵R:
R = 1 - 2 ( y 2 + z 2 ) 2 x y - 2 w z 3 w y + 2 x z 2 x y + 2 w z 1 - 2 ( x 2 + z 2 ) - 2 w x + 2 y z - 2 w y + 2 x z 2 w x + 2 y z 1 - 2 ( x 2 + y 2 ) ;
S33.计算头部坐标系中眼球中心的坐标C0;如图8所示,为标准人眼的模型图;
具体来说,所述的步骤S33包括以下子步骤:
S331.计算Kinect2坐标系下瞳孔中心空间坐标PK和眼球中心空间坐标CK的函数关系:
{ x p u p - u 0 = y p v p - v 0 = z p f || P K - C K || = K ,
式中,(up,vp)瞳孔中心在图像中的平面坐标,(u0,v0)是图像中心的平面坐标,均由步骤S31得到,PK=(xp,yp,zp)是瞳孔中心在Kinect2坐标系下的空间坐标,f为Kinect2传感器的焦距,CK是Kinect2坐标系下眼球中心的空间坐标,K表示瞳孔中心P到眼球中心C的空间距离,是固定值,故PK能够用CK表示,PK与CK的函数关系式表示为:
PK=f1(CK);
S332.计算Kinect2坐标系下角膜体中心的空间坐标CPK眼球中心CK的空间坐标函数关系式:
C P K = C K + K 0 K ( P K - C K ) ,
式中,K0表示角膜体中心Cp到眼球中心C的距离,是固定值,故将步骤S331中得到的函数关系PK=f1(CK)代入上式中能够得到CPK与CK的函数关系式,表示为:
CPK=f2(CK);
S333.计算Kinect2坐标系下眼球中心CK的空间坐标与头部坐标系下眼球中心空间坐标C0的函数关系式:
CK=R-1*C0+T=f3(C0),
其中T和R由步骤S32得到,头部不动时,眼球在旋转过程中眼睛球的中心位置并没有改变。S334.将步骤S333中得到的函数关系式代入步骤S331得到的函数关系式PK=f1(CK)中,得到PK与C0的函数关系式:
PK=f4(C0),
将步骤S333中得到的函数关系式代入步骤S332中的到的函数关系式CPK=f2(CK)中,得出CPK与C0的函数关系式:
CPK=f5(C0);
S335.同一个人的人眼的视轴Visualaxis和光轴Opticalaxis之间的夹角是θ固定的,θ的余弦值表示为:
C P K G · C P K P K || C P K G || · || C P K P K || = c o s θ ,
式中G表示Kinect2坐标系中注视点的空间坐标,将CK=f3(C0),PK=f4(C0),CPK=f5(C0)代入θ的余弦值表达式中,式中就只有C0和G两个未知量,C0和G的函数关系表示为:
C0=f6(G);
S336.通过标定程序,让用户注视一系列标定的点,并转化到Kinect2坐标系中,得到Kinect2坐标系中注视点的空间坐标G,将G的坐标代入公式C0=f6(G),得到头部坐标系下眼球中心空间坐标C0
S34.计算Kinect2坐标系下眼球中心坐标CK和瞳孔中心坐标PK
CK=f3(C0),
PK=f4(C0),
S35.估计交互对象的视线方向:设计算得到的眼球中心坐标为CK=(Ox,Oy,Oz),瞳孔中心坐标为PK=(Px,Py,Pz),根据这两点计算眼球注视方向g(X,Y,Z):
X - O x P x - O x = Y - O y P y - O y = Z - O z P z - O z ,
将眼球注视方向表示为单位向量
如图6所示,所述的步骤S4包括以下子步骤:
S41.通过Kinect2传感器的功能获取用户头部旋转四元数Q′=[w′,x′,y′,z′];
S42.通过旋转四元数求得体头部姿态的欧拉角:
p i t c h = tan - 1 2 ( w ′ x ′ + y ′ z ′ ) 1 - 2 ( x ′ 2 + y ′ 2 ) ,
yaw=sin-12(w′y′-z′x′),
r o l l = tan - 1 2 ( w ′ z ′ + x ′ y ′ ) 1 - 2 ( y ′ 2 + z ′ 2 ) ;
pitch为头部绕X轴的旋转弧度(也就是章动角),yaw为头部绕Y轴旋转弧度(也就是旋进角),roll为头部绕Z轴的旋转弧度(也就是自转角);
S43.根据pitch,yaw,roll的计算结果即可获取头部朝向的方向向量为:
n → 2 = ( cos p i t c h , cos y a w , cos r o l l ) = ( a 2 , b 2 , c 2 ) .
如图7所示,所述的步骤S5包括以下子步骤:
S51.设机器人动作控制的输入向量如果在近距离模式,如果在远距离模式
S52.计算向量与Kinect2坐标系三条轴的夹角α1,β1,γ1
S53.以机器人头部轴心位置为原点,依据Kinect2坐标系轴方向建立机器人坐标系,驱动机器人头部旋转,使机器人在转动过程中与Kinect2坐标系三条轴产生的夹角为α,β,γ满足:
α=α1,β=β1,γ=γ1
即可实现机器人头部朝向用户感兴趣区域;
S54.定义机器人分别向上,下,左,右四个方向下的眼睛状态,根据向量的X方向和Y方向分量,作为眼睛横向和纵向转动程度的参数,其范围为(-1,1);控制实现机器人眼球转动,看向用户的感兴趣区域。

Claims (8)

1.一种基于3D视线估计的远近距离人机交互系统,其特征在于:包括深度传感器、用户选择模块、模式判断模块、视线估计模块、头部朝向估计模块和机器人动作控制模块;
所述的深度传感器用于进行数据采集,为用户选择模块、模式判断模块、视线估计模块、头部朝向估计模块和机器人动作控制模块的工作提供数据依据;
所述的用户选择模块用于选择与机器人距离最近的用户作为交互对象;
所述的模式判断模块用于根据交互对象与机器人之间的距离进行交互模式判断:交互对象与机器人之间距离不大于l时,为近距离交互模式;当交互对象与机器人之间的距离大于l时,为远距离交互模式;
所述的视线估计模块用于在近距离交互模式下对交互对象的3D视线进行估计,并将估计结果作为机器人动作控制依据;
所述的头部朝向估计模块用于在远距离交互模式下对交互对象进行头部朝向估计,并将估计结果作为机器人动作控制依据;
所述的机器人动作控制模块用于根据视线估计模块或者头部朝向估计模块的估计结果,对机器人动作进行控制。
2.根据权利要求1所述的一种基于3D视线估计的远近距离人机交互系统,其特征在于:所述的深度传感器为Kinect2传感器,所述的距离l为1m。
3.一种基于3D视线估计的远近距离人机交互方法,其特征在于:包括以下步骤:
S1.交互对象选择:通过深度传感器选择距离机器人最近的用户作为交互对象;
S2.交互模式判断:获取交互对象与机器人之间的当前距离d,对距离d进行去噪处理,得到处理后的距离值d′,根据d′的距离值进行模式判断:
(1)如果d′≤l,则为近距离模式,跳转至步骤S3进行交互对象的3D视线估计;
(2)如果d′>l,则为远距离模式,跳转至步骤S4进行交互对象的头部朝向估计;
S3.进行3D视线估计,得到表征交互对象感兴趣区域的用户视线方向向量将其作为机器人动作控制的输入向量,并跳转至步骤S5;
S4.进行头部朝向估计,得到表征交互对象感兴趣区域的头部朝向方向将其作为机器人动作控制的输入向量,并跳转至步骤S5;
S5.机器人动作控制,根据机器人动作控制的输入向量控制机器人头部转向交互对象感兴趣区域,并控制机器人眼球进行相应转动。
4.根据权利要求3所述的一种基于3D视线估计的远近距离人机交互方法,其特征在于:所述的步骤S1包括以下子步骤:
S11.使用Kinect2深度传感器检测交互范围内的所有用户ID以及各个用户的头部中心坐标;
S12.通过Kinect2深度传感器找出头部中心坐标离传感器Z方向距离最小的用户ID,将该ID的用户作为交互对象,并保持交互对象不变。
5.根据权利要求3所述的一种基于3D视线估计的远近距离人机交互方法,其特征在于:所述的步骤S2包括以下子步骤:
S21.使用Kinect2传感器获取交互对象与机器人的当前距离d;
S22.使用卡尔曼滤波操作对距离d进行去噪处理,得到距离值d′;
S23.判断距离值d′进行模式判断:
(1)如果d′≤l,则为近距离模式,跳转至步骤S3进行交互对象的3D视线估计;
(2)如果d′>l,则为远距离模式,跳转至步骤S4进行交互对象的头部朝向估计。
6.根据权利要求3所述的一种基于3D视线估计的远近距离人机交互方法,其特征在于:所述的步骤S3包括以下子步骤:
S31.进行瞳孔检测,得到瞳孔中心:
S32.求头部中心的三维信息T和旋转矩阵R;
S33.计算头部坐标系中眼球中心的坐标C0
S34.计算Kinect2坐标系下眼球中心坐标CK和瞳孔中心坐标PK
S35.估计交互对象的视线方向:设计算得到的眼球中心坐标为CK=(Ox,Oy,Oz),瞳孔中心坐标为PK=(Px,Py,Pz),根据这两点计算眼球注视方向g(X,Y,Z):
X - O x P x - O x = Y - O y P y - O y = Z - O z P z - O z ,
将眼球注视方向表示为单位向量
7.根据权利要求3所述的一种基于3D视线估计的远近距离人机交互方法,其特征在于:所述的步骤S4包括以下子步骤:
S41.通过Kinect2传感器的功能获取用户头部旋转四元数Q′=[w′,x′,y′,z′];
S42.通过旋转四元数求得体头部姿态的欧拉角:
p i t c h = tan - 1 2 ( w ′ x ′ + y ′ z ′ ) 1 - 2 ( x ′ 2 + y ′ 2 ) ,
yaw=sin-12(w′y′-z′x′),
r o l l = tan - 1 2 ( w ′ z ′ + x ′ y ′ ) 1 - 2 ( y ′ 2 + z ′ 2 ) ;
pitch为头部绕X轴的旋转弧度,yaw为头部绕Y轴旋转弧度,roll为头部绕Z轴的旋转弧度;
S43.根据pitch,yaw,roll的计算结果即可获取头部朝向的方向向量为:
n → 2 = ( cos p i t c h , cos y a w , cos r o l l ) = ( a 2 , b 2 , c 2 ) .
8.根据权利要求3所述的一种基于3D视线估计的远近距离人机交互方法,其特征在于:所述的步骤S5包括以下子步骤:
S51.设机器人动作控制的输入向量如果在近距离模式,如果在远距离模式
S52.计算向量与Kinect2坐标系三条轴的夹角α1,β1,γ1
S53.以机器人头部轴心位置为原点,依据Kinect2坐标系轴方向建立机器人坐标系,驱动机器人头部旋转,使机器人在转动过程中与Kinect2坐标系三条轴产生的夹角为α,β,γ满足:
α=α1,β=β1,γ=γ1
即可实现机器人头部朝向用户感兴趣区域;
S54.定义机器人分别向上,下,左,右四个方向下的眼睛状态,根据向量的X方向和Y方向分量,作为眼睛横向和纵向转动程度的参数,其范围为(-1,1);控制实现机器人眼球转动,看向用户的感兴趣区域。
CN201610133124.6A 2016-03-09 2016-03-09 一种基于3d视线估计的远近距离人机交互系统与方法 Pending CN105759973A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610133124.6A CN105759973A (zh) 2016-03-09 2016-03-09 一种基于3d视线估计的远近距离人机交互系统与方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610133124.6A CN105759973A (zh) 2016-03-09 2016-03-09 一种基于3d视线估计的远近距离人机交互系统与方法

Publications (1)

Publication Number Publication Date
CN105759973A true CN105759973A (zh) 2016-07-13

Family

ID=56332818

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610133124.6A Pending CN105759973A (zh) 2016-03-09 2016-03-09 一种基于3d视线估计的远近距离人机交互系统与方法

Country Status (1)

Country Link
CN (1) CN105759973A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106226911A (zh) * 2016-09-09 2016-12-14 深圳市世尊科技有限公司 一种通过视线进行人机交互的智能眼镜以及交互方法
CN106239511A (zh) * 2016-08-26 2016-12-21 广州小瓦智能科技有限公司 一种基于头部运动的机器人移动控制方式
CN106598259A (zh) * 2016-12-28 2017-04-26 歌尔科技有限公司 一种头戴式设备的输入方法、输入器和vr头戴设备
CN106648074A (zh) * 2016-11-25 2017-05-10 合肥优智领英智能科技有限公司 一种智能机器人的人机交互方法
CN107818310A (zh) * 2017-11-03 2018-03-20 电子科技大学 一种基于视线的驾驶员注意力检测方法
CN109062482A (zh) * 2018-07-26 2018-12-21 百度在线网络技术(北京)有限公司 人机交互控制方法、装置、服务设备及存储介质
CN109093631A (zh) * 2018-09-10 2018-12-28 中国科学技术大学 一种服务机器人唤醒方法及装置
CN110335306A (zh) * 2019-04-23 2019-10-15 华中科技大学 注视点预测方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101581990A (zh) * 2008-05-13 2009-11-18 联想(北京)有限公司 电子设备和应用于电子设备的可穿戴式指点装置、方法
US20100302378A1 (en) * 2009-05-30 2010-12-02 Richard Lee Marks Tracking system calibration using object position and orientation
CN103809733A (zh) * 2012-11-07 2014-05-21 北京三星通信技术研究有限公司 人机交互系统和方法
CN104463119A (zh) * 2014-12-05 2015-03-25 苏州触达信息技术有限公司 基于超声与视觉的复合式手势识别设备及其控制方法
CN104951808A (zh) * 2015-07-10 2015-09-30 电子科技大学 一种用于机器人交互对象检测的3d视线方向估计方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101581990A (zh) * 2008-05-13 2009-11-18 联想(北京)有限公司 电子设备和应用于电子设备的可穿戴式指点装置、方法
US20100302378A1 (en) * 2009-05-30 2010-12-02 Richard Lee Marks Tracking system calibration using object position and orientation
CN103809733A (zh) * 2012-11-07 2014-05-21 北京三星通信技术研究有限公司 人机交互系统和方法
CN104463119A (zh) * 2014-12-05 2015-03-25 苏州触达信息技术有限公司 基于超声与视觉的复合式手势识别设备及其控制方法
CN104951808A (zh) * 2015-07-10 2015-09-30 电子科技大学 一种用于机器人交互对象检测的3d视线方向估计方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
叶诚: "基于视觉信息与听觉信息交互的机器人感知技术研究", 《中国优秀硕士学位论文全文数据库 信息科技编辑 I138-108》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106239511A (zh) * 2016-08-26 2016-12-21 广州小瓦智能科技有限公司 一种基于头部运动的机器人移动控制方式
CN106226911A (zh) * 2016-09-09 2016-12-14 深圳市世尊科技有限公司 一种通过视线进行人机交互的智能眼镜以及交互方法
CN106648074A (zh) * 2016-11-25 2017-05-10 合肥优智领英智能科技有限公司 一种智能机器人的人机交互方法
CN106598259A (zh) * 2016-12-28 2017-04-26 歌尔科技有限公司 一种头戴式设备的输入方法、输入器和vr头戴设备
CN106598259B (zh) * 2016-12-28 2019-05-28 歌尔科技有限公司 一种头戴式设备的输入方法、输入器和vr头戴设备
CN107818310A (zh) * 2017-11-03 2018-03-20 电子科技大学 一种基于视线的驾驶员注意力检测方法
CN107818310B (zh) * 2017-11-03 2021-08-06 电子科技大学 一种基于视线的驾驶员注意力检测方法
CN109062482A (zh) * 2018-07-26 2018-12-21 百度在线网络技术(北京)有限公司 人机交互控制方法、装置、服务设备及存储介质
CN109093631A (zh) * 2018-09-10 2018-12-28 中国科学技术大学 一种服务机器人唤醒方法及装置
CN110335306A (zh) * 2019-04-23 2019-10-15 华中科技大学 注视点预测方法及装置

Similar Documents

Publication Publication Date Title
CN105759973A (zh) 一种基于3d视线估计的远近距离人机交互系统与方法
CN103558910B (zh) 一种自动跟踪头部姿态的智能显示器系统
CN105138965B (zh) 一种近眼式视线跟踪方法及其系统
CN107958479A (zh) 一种移动端3d人脸增强现实实现方法
CN103870796B (zh) 一种人眼视线估计的方法与装置
CN107909061A (zh) 一种基于不完备特征的头部姿态跟踪装置及方法
CN106909172A (zh) 环绕跟踪方法、装置和无人机
KR20190031599A (ko) 구조화 광을 사용한 안구 추적
CN104978548A (zh) 一种基于三维主动形状模型的视线估计方法与装置
CN104809424A (zh) 一种基于虹膜特征实现视线追踪的方法
CN106529409A (zh) 一种基于头部姿态的眼睛注视视角测定方法
CN107656619A (zh) 一种智能投影方法、系统及智能终端
CN105205438A (zh) 一种利用红外眼球追踪控制眼睛与屏幕距离的方法及系统
CN104793741A (zh) 带眼球跟踪虚拟现实成像系统和方法
CN113936324A (zh) 注视检测方法、电子设备的控制方法及相关设备
CN111033362B (zh) 用于校正定心参数和/或轴向位置的方法以及相应的计算机程序和方法
CN110341617B (zh) 眼球追踪方法、装置、车辆和存储介质
CN109993073A (zh) 一种基于Leap Motion的复杂动态手势识别方法
Sun et al. Real-time gaze estimation with online calibration
CN109766007A (zh) 一种显示设备的注视点补偿方法及补偿装置、显示设备
CN106406501A (zh) 一种控制渲染的方法以及装置
CN113505694A (zh) 一种基于视线追踪的人机交互方法、装置及计算机设备
CN112766097A (zh) 视线识别模型的训练方法、视线识别方法、装置及设备
CN106598259A (zh) 一种头戴式设备的输入方法、输入器和vr头戴设备
CN114967128B (zh) 一种应用于vr眼镜的视线追踪系统及方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20160713

RJ01 Rejection of invention patent application after publication