CN105929962A - 一种360°全息实时交互方法 - Google Patents

一种360°全息实时交互方法 Download PDF

Info

Publication number
CN105929962A
CN105929962A CN201610298797.7A CN201610298797A CN105929962A CN 105929962 A CN105929962 A CN 105929962A CN 201610298797 A CN201610298797 A CN 201610298797A CN 105929962 A CN105929962 A CN 105929962A
Authority
CN
China
Prior art keywords
pic
image
real
time
splicing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610298797.7A
Other languages
English (en)
Other versions
CN105929962B (zh
Inventor
王幽又
杨随先
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan University
Original Assignee
Sichuan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan University filed Critical Sichuan University
Priority to CN201610298797.7A priority Critical patent/CN105929962B/zh
Publication of CN105929962A publication Critical patent/CN105929962A/zh
Application granted granted Critical
Publication of CN105929962B publication Critical patent/CN105929962B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/218Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20152Watershed segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

本发明公开了一种360°全息实时交互方法,解决了现有技术中,全息再现的内容受到限制、无法进行交互操作等问题。该360°全息实时交互方法包括实时信息采集,从多个方位对用户及环境信息进行采集,得到对应的音频及视频信息;实时信息处理,对每个方位得到的视频信息进行运动物体分割提取,将分割提取处理后的帧图像进行实时拼接,实现全息真实影像及虚拟影像的再现的数据基础;实时信息再现,根据实时信息处理后的数据实现全息影像的再现;实时交互,建立语音交互、交互引导模式、姿势交互三种交互模式的映射关系,通过对语音、手势的识别,实现全息影像的变化,实现交互。本发明将360°全息显示技术与新型交互技术结合,实现了多技术的融合。

Description

一种360°全息实时交互方法
技术领域
本发明涉及全息交互技术领域,具体的说是涉及一种360°全息实时交互方法。
背景技术
现有的全息交互技术方法有两种,一种是通过计算全息预先得到场景的数字全息图像序列,然后根据检测到的姿势信息加载相应的全息图,达到数字全息影像的动态交互显示效果,实现全息交互;另一种是在360°全息显示基础上,进行虚拟建模,去掉纹理后进行拼接,得到预先设定好的全息影像,通过用户自己围绕柜体得到全息影像几个角度的信息。
这两种全息交互技术方法存在的缺陷是:第一种全息交互技术方法,只能对预先得到场景的全息图序列进行交互,会使全息再现的内容受到限制,具有很强的固定性和单一性,且多处于实验阶段,不能在现阶段推出。第二种全息交互技术方法,只能对预先建模的影像实现全息再现,而不能对全息影像进行切换、缩放、旋转等交互操作。
发明内容
本发明的目的在于解决现有技术所存在的问题,提供了一种实现方便、在现阶段可直接推出使用,可实时采集到用户或环境等信息,经过实时处理后,实现全息影像再现,然后根据检测到的手部姿势和语音,实现对全息影像交互的360°全息实时交互技术方法。
为了实现上述目的,本发明采用以下技术方案:
一种360°全息实时交互方法,包括:
实时信息采集,从多个方位对用户及环境信息进行采集,得到对应的音频及视频信息;
实时信息处理,对每个方位得到的视频信息进行运动物体分割提取,将分割提取处理后的帧图像进行实时拼接,实现全息真实影像及虚拟影像的再现的数据基础;
实时信息再现,根据实时信息处理后的数据实现全息影像的再现;
实时交互,建立语音交互、交互引导模式、姿势交互三种交互模式的映射关系,通过对语音、手势的识别,实现全息影像的变化,实现交互。
进一步的,在所述实时信息采集中,采用四台相同型号和性能的前端信息采集设备:一号摄像机、二号摄像机、三号摄像机、四号摄像机,分别从用户前、后、左、右四个方位采集用户信息;其中,位于前面的一号摄像机采集用户的正面视频、音频信息,接受用户手部姿势和语音命令的交互信息,其余摄像机采集用户的对应方位的视频信息。
进一步的,四台摄像机同步工作且与用户的定位区域等距,四台摄像机镜头准心在同一水平线上。
进一步的,所述实时信息处理包括:
用户信息初步处理:将用户从复杂的环境中提取出来,完成全息显示真实模式下的用户信息初步处理;
虚拟形象的初步处理:建立全息显示虚拟模式下的无背景虚拟人物模型,完成虚拟形象的初步处理;
实时信息拼接:建立拼接通道,并对所有方位的信息与拼接通道实现匹配建立拼接的映射关系,实现全息真实影像及虚拟影像的再现的数据基础。
进一步的,所述将用户从复杂的环境中提取出来包括如下步骤:
(1)定义帧图像的图像小基元,将每个帧图像的图像小基元表示为M×N个像素构成;
(2)计算连续两帧图像的帧差:ID(x,y,t)=|I(x,y,t)-I(x,y,t-1)|,将帧差公式转换为像素表达:ID(m,n)=|I(m,n,t)-I(m,n,t-1)|,基于帧图像的图像小基元,定义高斯检验模型公式GSlarge(i)和GSsmall(i):
G k ( i ) = 1 / ( M × N ) Σ m = 1 M Σ n = 1 N ID k ( m , n ) GS s m a l l ( i ) = G 3 ( i ) + G 4 ( i ) - 3 G 1 ( i ) [ G 2 ( i ) - G 1 2 ( i ) ] - 3 G 2 2 ( i ) - G 1 3 ( i ) - 2 G 1 4 ( i ) GS l arg e ( i ) = G 3 ( i ) - 3 G 1 ( i ) [ G 2 ( i ) - G 1 2 ( i ) ] - G 1 3 ( i ) ;
其中,Gk(i)表示M×N的像素小基元帧差的k阶矩,GSsmall(i)表示较小尺寸的高斯检验模型,GSlarge(i)表示较大尺寸的高斯检验模型;
(3)根据图像小基元的实际大小选择对应的高斯检验模型,较小尺寸对应选择GSsmall(i),较大尺寸则对应选择GSlarge(i),根据高斯检验模型对帧图像进行检验,提取出非高斯信号;
(4)经过高斯检验后,定义二值掩模图像MASK(x,y),当|GS(i)|≤Gth时,MASK(x,y)=0,表示像素点处于静止区域;当|GS(i)|>Gth时,MASK(x,y)为1时,表示像素点处于运动区域;
(5)区分帧图像的运动与静止区域,实现初步提取;
(6)采用改进分水岭算法和比重算法,得到新二值掩模图像MASKnew(x,y),将得到的新二值掩模图像与原图像结合,得到最终的提取对象;
(7)对所有方位的视频图像执行步骤(1)—(6)。
进一步的,所述虚拟形象的初步处理中,结合虚拟建模渲染和分离背景纹理的方法,预先进行三维建模、渲染背景设定为黑色,将所有方位的视频帧图像信息渲染出来。
进一步的,所述实时信息拼接包括如下步骤:
(1)基于FBO技术,设立四个拼接通道;
(2)将所有方位的拼接通道的缓冲区进行分区,得到分区通道,分别命名为:拼接通道I、拼接通道II、拼接通道III、拼接通道IV;
(3)基于立体成像合成原理,将所有方位的帧图像以交叉形式进行拼接,实现同帧数的帧图像经过变换后在分区通道的拼接;
其中,所有方位的帧图像同步拼接。
进一步的,所述语音交互如下:以非特定人的小词汇量孤立词语音识别作为系统的开启及关闭交互方式,建立语音模板,借助语音识别,实现对系统的开启及关闭交。
进一步的,所述姿势交互中,以手部姿势作为全息影像交互的姿势交互方式,具体如下:
首先,采用基于直方图的SPM贝叶斯法,通过贝叶斯准则将肤色与非肤色直方图归一化,以概率来判断肤色像素,实现手部粗定位;
然后,采用基于模糊集和模糊运算的方法得到手部区域的轮廓,对五指手部轮廓后曲线进行指尖位置搜索,选择一个轮廓起始点,按顺时针方向进行定长扫描,计算各轮廓线中点的Ratio,当Ratio大于ε时,则该点为指尖候选点,根据手部轮廓Ratio值曲线,取大于ε的波峰值为指尖候选点;选取扫描轮廓线起始点与终点的连线中点,检测中点矩形小邻域,若为肤色区域,则候选点为指尖点,若为非肤色区域,则候选点为非指尖点;将已实现五指指尖定位及手指个数识别的手部与已有的模板进行匹配,将识别的结果转换为五指伸展且指尖定位的2D手部简化模型,实现跟踪初始化,实现对手部的精确定位;
最后,通过跟踪手指指尖的运动轨迹,取指尖轨迹均值,根据不同的手部姿势交互映射关系,实现全息影像真实模式和虚拟模式的切换交互和全息影像的旋转交互。
其中,Ratio为扫描轮廓线中点至扫描轮廓起始点与终点连线的垂直距离和扫描轮廓线起始点至终点连线长度的比值,ε表示一个正数。
进一步的,在所述姿势交互中,建立了两种手部交互映射关系:
其一,手部切换交互映射关系
在1-1.5s的时间段内,手部在垂直坐标内变化量未超过阈值,甚至是静止时,用户全息影像处于初始状态,默认为虚拟模式;在1-1.5s的时间段内,手部在垂直坐标内变化量超过阈值,切换模式交互过程就被开启,由初始模式转换为另一个模式,实现真实模式与虚拟模式的切换;
其二,影像旋转交互映射关系
通过手在平面内的水平直线运动,带动用户头肩全息影像的旋转,将全息影像中头肩作360°一周旋转,离散化为Pic(m)、Pic(m)、Pic(r)、Pic(b)四种不同的拼接对应模式,根据手部在水平方向变换距离值判定相应的序列图像通道的拼接对应模式的变化:其中,fix表示向零取整,表示移动向量;
初始交互前,即时,用户的全息影像处于所述Pic(m)拼接对应模式;时,影像向右旋转,依次显示为Pic(m),Pic(r);时,影像向右旋转,依次显示为Pic(m),Pic(r),Pic(b);时,影像向右旋转,依次显示为Pic(m),Pic(r),Pic(b),Pic(l);时,影像向右旋转,依次显示为Pic(m),Pic(r),Pic(b),Pic(l),Pic(m);时,影像向左旋转,依次显示为Pic(m),Pic(l);时,影像向左旋转,依次显示为Pic(m),Pic(l),Pic(b);时,影像向左旋转,依次显示为Pic(m),Pic(l),Pic(b),Pic(r);时,影像向左旋转,依次显示为Pic(m),Pic(l),Pic(b),Pic(r),Pic(m),根据对应模式的依次变化,实现交互;
其中,所述Pic(m)对应模式表示拼接通道I对应一号摄像机帧图像、拼接通道II对应二号摄像机帧图像、拼接通道III对应三号摄像机帧图像,拼接通道IV对应四号摄像机帧图像;
所述Pic(l)对应模式表示拼接通道I对应二号摄像机帧图像、拼接通道II对应四号摄像机帧图像、拼接通道III对应一号摄像机帧图像,拼接通道IV对应三号摄像机帧图像;
所述Pic(r)对应模式表示拼接通道I对应三号摄像机帧图像、拼接通道II对应一号摄像机帧图像、拼接通道III对应四号摄像机帧图像,拼接通道IV对应二号摄像机帧图像;
所述Pic(b)对应模式表示拼接通道I对应四号摄像机帧图像、拼接通道II对应三号摄像机帧图像、拼接通道III对应二号摄像机帧图像,拼接通道IV对应一号摄像机帧图像。
与现有技术相比,本发明具有以下有益效果:
(1)本发明将360°全息显示技术与新型交互技术结合,实现了多技术的融合。
(2)本发明建立了适合360°全息实时交互平台的数据处理技术,将运动物体自动分割提取,帧图像通道拼接等计算机图形学技术应用于360°全息实时影像处理,得到更好的全息实时影像再现效果,保证全息影像更为真实地融入环境中。
(3)本发明建立了基于360°全息实时交互的手势跟踪识别与语音识别,建立了手部姿势与全息影像的双模式切换、影像旋转两种交互映射关系。通过检测到手部信息后,再根据此信息实现全息影像变化,打破了预设场景的全息图像内容受限问题,实现了真正的全息影像实时交互。
(4)本发明建立了基于360°全息实时交互的语音识别,建立语音模板,建立了非特定人小词汇量的孤立语音交互映射关系,实现了对交互平台进行简单自然的开启与关闭交互。
附图说明
图1为本发明的原理框图。
图2为本发明的技术方法三流程模块。
图3为本发明的全息实时交互实现流程。
图4为本发明的实时信息采集技术的设备构成。
图5为本发明的实时信息采集技术的原理步骤。
图6为本发明的尺寸修正量构成。
图7为本发明的人体立姿构成。
图8为本发明的人体水平面手臂活动范围。
图9为本发明的提取前四方位帧图像。
图10为本发明的提取后四方位帧图像。
图11为本发明的虚拟模式四方位帧图像。
图12为本发明的实时通道拼接对应流程。
图13为本发明的拼接窗口及位置展示。
图14为本发明的语音识别流程。
图15为本发明的肤色分割后帧图像。
图16为本发明的2D简化五指模型。
图17为本发明的指尖搜索定位示意图。
图18为本发明的手部轮廓Ratio曲线。
图19为本发明的指尖判定示意图。
图20为本发明的全息影像头肩拼接对应模式。
图21为本发明的手引导用户头肩全息影像旋转示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步说明,本发明的实施方式包括但不限于下列实施例。
本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,单独存在B,同时存在A和B三种情况,本文中术语“/和”是描述另一种关联对象关系,表示可以存在两种关系,例如,A/和B,可以表示:单独存在A,单独存在A和B两种情况,另外,本文中字符“/”,一般表示前后关联对象是一种“或”关系。
实施例
如图1-21所示,本实施例提供了一种360°全息实时交互方法,该方法实时采集到用户或环境等信息,经过实时处理后,实现全息影像再现,然后根据检测到的手部姿势和语音,实现对全息影像交互。
本方法包含四部分:实时信息采集技术、实时信息处理技术、实时信息再现技术、实时交互设计,上述各部分实现功能如下:实时信息采集,从多个方位对用户及环境信息进行采集,得到对应的音频及视频信息;实时信息处理,对每个方位得到的视频信息进行运动物体分割提取,将分割提取处理后的帧图像进行实时拼接,实现全息真实影像及虚拟影像的再现的数据基础;实时信息再现,根据实时信息处理后的数据实现全息影像的再现;实时交互,建立语音交互、交互引导模式、姿势交互三种交互模式的映射关系,通过对语音、手势的识别,实现全息影像的变化,实现交互。
为了使得本领域技术人员对本发明申请的技术方案有更清晰的了解和认识,下面分别对每部分进行详细说明:
一、实时信息采集
实时信息采集技术包括信息采集模块的设备构成、工作模式及安装方式的设计,设备的放置方式、摆放距离、摆放环境的确定。对用户位置进行定位,以一个半径为20cm的圆形区域作为用户定点位置,并明确标注前、后、左、右四个方向。应当说明的是,圆形区域的半径也可以选择15cm、25cm、30cm等数值,本领域技术人员可以根据实际情况进行选择。
本实施例中,采用相同型号和性能的前端信息采集设备,即摄像机,分布于以圆形区域为中心的四个方向。所述一号摄像机对应“前”方向,作为主摄像机。所述二号摄像机、三号摄像机、四号摄像机,作为辅摄像机,分别对应“左”、“右”、“后”三个方向。所述四个摄像机与用户圆形定位区域的距离相等。
四台摄像机被固定于可调节高度、并带有滑动外向轮的支架上,保证四台摄像机镜头准心在同一水平线上。四个摄像机采用物理连接的安装方式,通过内容输出线与计算机连接。四个方位的摄像机同步工作,一号主摄像机负责采集用户的正面视频、音频信息,接受用户手部姿势和语音命令的交互信息。所述二、三、四号辅助摄像机,分别负责采集用户的左、后、右三个方位的视频信息。
考虑用户群中大多数用户的实际使用习惯和四台摄像机采集对象的人物直立性,选择站立式作为所述前端信息采集设备的放置姿势,确保四个方位的摄像机从用户的前、后、左、右进行信息的采集。
为保证不同身材与身高的使用者信息采集的完整性,面部及身体的直面性和无倾斜性,需要基于用户的肩高设计采集设备的放置高度。基于人机工程学,将肩部高度的人体尺寸百分位参数定为成年男女通用Ⅰ型,人体尺寸百分位的选择定为上限值P95男,下限值定为P5女。最佳肩高的计算公式为男性用户第95百分位数肩高和女性用户第5百分位数肩高的均值。结合国家标准立姿人体的肩高尺寸数据表,计算可得最佳肩高为1320mm。实际的肩高会受到拍摄时头肩信息波动及用户全身放松状态的影响,因此,实际肩高需要一个尺寸修正量。肩高的最佳尺寸修正量计算公式为男女肩高穿鞋修正量的均值、肩高衣裤修正量、放松状态肩高姿势修正量三者之和。结合数据表,计算可得最佳尺寸修正量为18.5mm。最终实际肩高计算公式为最佳肩高与最佳尺寸修正量两者之和,经过计算得到实际肩高为1338.5mm。摄像机采用站立式方式放置于用户前、后、左、右四个方位,摄像机镜头准心的安装理论高度最小参数值为1338.5mm。根据采集环境可覆盖厂房等,确定镜头准心参考范围为1338.5mm—12000mm。应当说明的是,上述数值仅为一种实施方案中的取值,本领域技术人员可以根据实际情况选择不同的适应的取值。
本实施例中,摄像机的摆放距离是用户在水平面内手臂活动和手部操作的范围,根据用户的臂长确定工作空间的尺寸,确定所述设备摆放最小距离。基于人机工程学,将整个手臂的人体尺寸百分位参数定为成年男女通用ⅠⅠ型,以男士的臂长为最小尺寸限制,人体尺寸百分位的选择定为极限值即P99。所述用户手臂长度的计算公式为男性用户第99百分位数上臂长和前臂长之和。结合国家标准男性(18-60岁)立姿人体的上臂与下臂尺寸数据,计算得到用户臂长为617mm。选取中国中等身材成年男子水平面手臂活动范围,得到单手手部活动的最小阈值为750mm。若手臂长度公式计算所得臂长大于该阈值,则取公式计算所得数据作为参考数据,若小于该阈值,则参考数据取阈值数据大小。最终通过计算得到,所述信息采集设备摄像机距离用户定点位置中心的水平面摆放距离最小参数值为750mm,若需要用户全身的视频信息,可以通过增加摆放距离数值达到采集目的。结合承载介质的大尺寸,确定采集设备摆放距离参考范围为750mm—6000mm。应当说明的是,上述数值仅为一种实施方案中的取值,本领域技术人员可以根据实际情况选择不同的适应的取值。
为避免因摆放环境造成的背景问题,提高全息数据处理难度,摄像机摆放的环境为背景相对静止,环境背景纹理相对简单,光照改变量不大且光线不过强的摆放环境。
二、实时信息处理
以四个方位的图像采集为描述基础,实时信息处理包括对用户四个方向的视频信息进行用户对象分割提取,将用户从复杂的环境中提取出来,完成全息显示真实模式下的用户信息初步处理;建立全息显示虚拟模式下的无背景虚拟人物模型,完成虚拟形象的初步处理;建立拼接通道,并对四个方向的信息与拼接通道实现匹配建立拼接的映射关系,实现全息真实影像及虚拟影像的再现的数据基础。
对于提取处理,基于各类视频分割提取技术的理论基础,选择ETRI分割方案类,采用时域运动区域检测。其原理如下:基于高斯检验模型和图像帧差符合高斯分布的特性,计算连续两帧图像的帧差,根据运动区域帧差不符合高斯分布,其他变量均符合高斯分布的特点,通过高斯检验模型提取出非高斯信号。基于高阶统计法确定帧图像帧差的高斯分布,实现运动区域检测,确定该区域处于静止状态或运动状态。
进一步的,所述将用户从复杂的环境中提取出来包括如下步骤:
(1)定义帧图像的图像小基元,将每个帧图像的图像小基元表示为M×N个像素构成;
(2)计算连续两帧图像的帧差:ID(x,y,t)=|I(x,y,t)-I(x,)y,t-1)|,将帧差公式转换为像素表达(请补充像素表达式),基于帧图像的图像小基元,定义高斯检验模型公式GSlarge(i)和GSsmall(i):
G k ( i ) = 1 / ( M × N ) Σ m = 1 M Σ n = 1 N I D ( m , n ) GS s m a l l ( i ) = G 3 ( i ) + G 4 - 3 G 1 ( i ) [ G 2 ( i ) - G 1 2 ( i ) ] - 3 G 2 2 ( i ) - G 1 3 ( i ) - 2 G 1 4 ( i ) GS l arg e ( i ) = G 3 ( i ) - 3 G 1 ( i ) [ G 2 ( i ) - G 1 2 ( i ) ] - G 1 3 ( i ) ;
(3)根据图像小基元的实际大小选择对应的高斯检验模型,较小尺寸对应选择GSsmall(i),较大尺寸则对应选择GSlarge(i),根据高斯检验模型对帧图像进行检验,提取出非高斯信号;
(4)经过高斯检验后,定义二值掩模图像MASK(x,y),当|GS(i)|≤Gth时,MASK(x,y)=0,表示像素点处于静止区域;当|GS(i)|>Gth时,MASK(x,y)为1时,表示像素点处于运动区域;
(5)区分帧图像的运动与静止区域,实现初步提取;
(6)采用改进分水岭算法和比重算法,得到新二值掩模图像MASKnew(x,y),将得到的新二值掩模图像与原图像结合,得到最终的提取对象;
(7)对四个方位的视频图像执行步骤(1)—(6),即对四方向的视频图像进行相同分割提取,最终实现对所述真实模式的用户头肩视频分割提取。
在虚拟形象的初步处理中,基于保护用户隐私的目的,结合虚拟建模渲染和分离背景纹理的方法,建立虚拟模式下的卡通形象。预先进行三维建模、渲染背景设定为黑色,将四个方位的视频帧图像信息渲染出来,省略分割提取步骤,最终实现对所述虚拟模式的卡通形象的提取。
对于实时信息拼接,基于FBO技术,设计针对四方位信息的坐标通道拼接法,进而,可将所述帧一号摄像机所得视频帧图像标记格式为①-1,①-2,…,①-100,…,同理可得二、三、四号摄像机帧图像标记格式,分别②-XXX,③-XXX,④-XXX格式的帧图像。
将四方位通道缓冲区进行分区,并对所述四个分区通道命名为拼接通道Ⅰ、拼接通道Ⅱ、拼接通道Ⅲ、拼接通道Ⅳ,基于立体成像合成原理,将四个方向的帧图像以交叉形式进行拼接。通道缓冲区窗口设置为正方形,视窗的高度为Hs,宽度为Ws,有Hs=Ws,每帧图像边长为1/3Hs,对应拼接通道Ⅰ的帧图像,无需做旋转操作,直接进行对点拼接;对应所述拼接通道Ⅱ的帧图像顺时针旋转90°;对应所述拼接通道Ⅲ的帧图像逆时针旋转90°;对应所述拼接通道Ⅳ的帧图像需旋转180°。建立帧图像四顶点坐标与通道缓冲区拼接坐标系的对应关系,通过改变所述帧图像坐标,实现所述帧图像的旋转、移动等操作。为了保证所述四个方位的拼接同步性,在通道拼接中设定一个关卡值,帧数尾号相同,即①-1,②-1,③-1,④-1,尾号均为1的帧图像才能在同一个缓冲区进行拼接,拼接后的帧图像按照帧数尾号进行顺序显示。
基于上述技术手段,以一号主摄像机的一帧图像为例,帧图像四个顶点分别标记为为A1,B1,C1,D1,则进行变化时各坐标值分别为:①当该帧图像对应拼接通道I时,坐标值分别为:A1(-1/6Hs,-1/6Hs),B1(1//6Hs,-1/6Hs),C1(1/6Hs,-1/2Hs),D1(-1/6Hs,-1/2Hs);②当该帧图像对应拼接通道Ⅱ时,顺时针旋转90°,坐标值分别为:A1(-1/6Hs,1/6Hs),B1(-1/6Hs,-1/6Hs),C1(-1/2Hs,-1/6Hs),D1(-1/2Hs,1/6Hs);③当该帧图像对应拼接通道Ⅲ时,逆时针旋转90°,坐标值分别为:A1(1/6Hs,-1/6Hs),B1(1/6Hs,1/6Hs),C1(1/2Hs,1/6Hs),D1(1/2Hs,-1/6Hs);④当该帧图像对应拼接通道Ⅳ时,旋转180°,坐标值分别为:A1(1/6Hs,1/6Hs),B1(-1/6Hs,1/6Hs),C1(-1/6Hs,1/2Hs),D1(1/6Hs,1/2Hs);保证所述四个方位的拼接同步性,在通道拼接中设定一个关卡值,帧数尾号相同,即①-1,②-1,③-1,④-1,尾号均为1的帧图像才能在同一个缓冲区进行拼接,拼接后的帧图像按照帧数尾号进行顺序显示。
三、实时交互
语音交互如下:以非特定人的小词汇量孤立词语音识别作为系统的开启及关闭交互方式,建立语音模板,借助语音识别,实现对系统的开启及关闭交。在一种实施方案中,定义语音命令语义,“open”命令,表示360°全息实时交互平台从关闭状态下进行开启唤醒,平台处于初始化状态;“close”命令,表示360°全息实时交互平台从工作状态进行关机休眠,平台结束所有工作。建立了所述360°全息交互语音映射关系,对英语双词汇指令建立模板库。通过对用户的语音进行识别,与模板进行匹配,最终实现交互。
姿势交互如下:以手部姿势作为全息影像交互的姿势交互方式,具体如下:
首先,采用基于直方图的SPM贝叶斯法,通过贝叶斯准则将肤色与非肤色直方图归一化,以概率来判断肤色像素,实现手部粗定位;
然后,采用基于模糊集和模糊运算的方法得到手部区域的轮廓,对五指手部轮廓后曲线进行指尖位置搜索,选择一个轮廓起始点,按顺时针方向进行定长扫描,计算各轮廓线中点的Ratio,当Ratio大于ε时,则该点为指尖候选点,根据手部轮廓Ratio值曲线,取大于ε的波峰值为指尖候选点;选取扫描轮廓线起始点与终点的连线中点,检测中点矩形小邻域,若为肤色区域,则候选点为指尖点,若为非肤色区域,则候选点为非指尖点;将已实现五指指尖定位及手指个数识别的手部与已有的模板进行匹配,将识别的结果转换为五指伸展且指尖定位的2D手部简化模型,实现跟踪初始化,实现对手部的精确定位;
最后,通过跟踪手指指尖的运动轨迹,取指尖轨迹均值,根据不同的手部姿势交互映射关系,实现全息影像真实模式和虚拟模式的切换交互和全息影像的旋转交互。
其中,Ratio为扫描轮廓线中点至扫描轮廓起始点与终点连线的垂直距离和扫描轮廓线起始点至终点连线长度的比值,ε表示一个正数。
交互引导模式,基于对体验模式、认知方式和人机交互界面的研究,建立图文详解的交互引导模式,由此引导交互动作,引导内容包含:交互平台的唤醒关闭、影像模式的切换方式、影像旋转控制方式,实现对用户的初次引导。
进一步的,在所述姿势交互中,建立了两种手部交互映射关系:
其一,手部切换交互映射关系
在1-1.5s的时间段内,手部在垂直坐标内变化量未超过阈值,甚至是静止时,用户全息影像处于初始状态,默认为虚拟模式;在1-1.5s的时间段内,手部在垂直坐标内变化量超过阈值,切换模式交互过程就被开启,由初始模式转换为另一个模式,实现真实模式与虚拟模式的切换。在一种实施方案中,切换过程用一个状态变量表示,Δy(t)/Δt表示手部在竖直方向坐标一段时间内的变化量,ε表示较小的一个正数,当所述Δy(t)/Δt≤ε时,为0,表示交互未开始时,处于开启全息交互时初始状态所处模式,默认为虚拟模式;当所述Δy(t)/Δt>ε时,为1,表示交互开始之后,处于由初始状态向另一个模式转换。当一定时间内,手部在垂直坐标内变化很小,甚至可认为是静止的,用户全息影像处于初始状态;当一定时间内,手部在垂直坐标内变化超过阈值,切换模式交互过程就被开启,由初始模式转换为另一个模式。
其二,影像旋转交互映射关系
通过手在平面内的水平直线运动,带动用户头肩全息影像的旋转,将全息影像中头肩作360°一周旋转,离散化为Pic(m)、Pic(l)、Pic(r)、Pic(b)四种不同的拼接对应模式,根据手部在水平方向变换距离值判定相应的序列图像通道的拼接对应模式的变化:其中,fix表示向零取整,表示移动向量;
初始交互前,即时,用户的全息影像处于所述Pic(m)拼接对应模式;时,影像向右旋转,依次显示为Pic(m),Pic(r);时,影像向右旋转,依次显示为Pic(m),Pic(r),Pic(b);时,影像向右旋转,依次显示为Pic(m),Pic(r),Pic(b),Pic(l);时,影像向右旋转,依次显示为Pic(m),Pic(r),Pic(b),Pic(l),Pic(m);时,影像向左旋转,依次显示为Pic(m),Pic(l);时,影像向左旋转,依次显示为Pic(m),Pic(l),Pic(b);时,影像向左旋转,依次显示为Pic(m),Pic(l),Pic(b),Pic(r);时,影像向左旋转,依次显示为Pic(m),Pic(l),Pic(b),Pic(r),Pic(m),根据对应模式的依次变化,实现交互;
其中,所述Pic(m)对应模式表示拼接通道I对应一号摄像机帧图像、拼接通道II对应二号摄像机帧图像、拼接通道III对应三号摄像机帧图像,拼接通道IV对应四号摄像机帧图像;
所述Pic(l)对应模式表示拼接通道I对应二号摄像机帧图像、拼接通道II对应四号摄像机帧图像、拼接通道III对应一号摄像机帧图像,拼接通道IV对应三号摄像机帧图像;
所述Pic(r)对应模式表示拼接通道I对应三号摄像机帧图像、拼接通道II对应一号摄像机帧图像、拼接通道III对应四号摄像机帧图像,拼接通道IV对应二号摄像机帧图像;
所述Pic(b)对应模式表示拼接通道I对应四号摄像机帧图像、拼接通道II对应三号摄像机帧图像、拼接通道III对应二号摄像机帧图像,拼接通道IV对应一号摄像机帧图像。
四、实时信息再现技术
根据实时信息数据处理结果对全息影像进行再现,同时,结合交互过程中全息影像的变化,完成交互结果的展示。
按照上述实施例,便可很好地实现本发明。值得说明的是,基于上述设计原理的前提下,为解决同样的技术问题,即使在本发明所公开的结构或方法基础上做出的一些无实质性的改动或润色,所采用的技术方案的实质仍然与本发明一样,故其也应当在本发明的保护范围内。

Claims (10)

1.一种360°全息实时交互方法,其特征在于,包括:
实时信息采集,从多个方位对用户及环境信息进行采集,得到对应的音频及视频信息;
实时信息处理,对每个方位得到的视频信息进行运动物体分割提取,将分割提取处理后的帧图像进行实时拼接,实现全息真实影像及虚拟影像的再现的数据基础;
实时信息再现,根据实时信息处理后的数据实现全息影像的再现;
实时交互,建立语音交互、交互引导模式、姿势交互三种交互模式的映射关系,通过对语音、手势的识别,实现全息影像的变化,实现交互。
2.根据权利要求1所述的360°全息实时交互方法,其特征在于,在所述实时信息采集中,采用四台相同型号和性能的前端信息采集设备:一号摄像机、二号摄像机、三号摄像机、四号摄像机,分别从用户前、后、左、右四个方位采集用户信息;其中,位于前面的一号摄像机采集用户的正面视频、音频信息,接受用户手部姿势和语音命令的交互信息,其余摄像机采集用户的对应方位的视频信息。
3.根据权利要求2所述的360°全息实时交互方法,其特征在于,四台摄像机同步工作且与用户的定位区域等距,四台摄像机镜头准心在同一水平线上。
4.根据权利要求3所述的360°全息实时交互方法,其特征在于,所述实时信息处理包括:
用户信息初步处理:将用户从复杂的环境中提取出来,完成全息显示真实模式下的用户信息初步处理;
虚拟形象的初步处理:建立全息显示虚拟模式下的无背景虚拟人物模型,完成虚拟形象的初步处理;
实时信息拼接:建立拼接通道,并对所有方位的信息与拼接通道实现匹配建立拼接的映射关系,实现全息真实影像及虚拟影像的再现的数据基础。
5.根据权利要求4所述的360°全息实时交互方法,其特征在于,所述将用户从复杂的环境中提取出来包括如下步骤:
(1)定义帧图像的图像小基元,将每个帧图像的图像小基元表示为M×N个像素构成;
(2)计算连续两帧图像的帧差:ID(x,y,t)=|I(x,y,t)-I(x,y,t-1)|,将帧差公式转换为像素表达ID(m,n)=|(m,n,t)-I(m,n,t-1)|,基于帧图像的图像小基元,定义高斯检验模型公式GSlarge(i)和GSsmall(i):
G k ( i ) = 1 / ( M × N ) Σ m = 1 M Σ n - 1 N ID k ( m , n ) GS s m a l l ( i ) = G 3 ( i ) + G 4 ( i ) - 3 G 1 ( i ) [ G 2 ( i ) - G 1 2 ( i ) ] - 3 G 2 2 ( i ) - G 1 3 ( i ) - 2 G 1 4 ( i ) GS l arg e ( i ) = G 3 ( i ) - 3 G 1 ( i ) [ G 2 ( i ) - G 1 2 ( i ) ] - G 1 3 ( i ) ;
其中,Gk(i)表示M×N的像素小基元帧差的k阶矩,GSsmall(i)表示较小尺寸的高斯检验模型,GSlarge(i)表示较大尺寸的高斯检验模型;
(3)根据图像小基元的实际大小选择对应的高斯检验模型,较小尺寸对应选择GSsmall(i),较大尺寸则对应选择GSlarge(i),根据高斯检验模型对帧图像进行检验,提取出非高斯信号;
(4)经过高斯检验后,定义二值掩模图像MASK(x,y),当|GS(i)|≤Gth时,MASK(x,y)=0,表示像素点处于静止区域;当|GS(i)|>Gth时,MASK(x,y)为1时,表示像素点处于运动区域;
(5)区分帧图像的运动与静止区域,实现初步提取;
(6)采用改进分水岭算法和比重算法,得到新二值掩模图像MASKnew(x,y),将得到的新二值掩模图像与原图像结合,得到最终的提取对象;
(7)对所有方位的视频图像执行步骤(1)—(6)。
6.根据权利要求5所述的360°全息实时交互方法,其特征在于,所述虚拟形象的初步处理中,结合虚拟建模渲染和分离背景纹理的方法,预先进行三维建模、渲染背景设定为黑色,将所有方位的视频帧图像信息渲染出来。
7.根据权利要求6所述的360°全息实时交互方法,其特征在于,所述实时信息拼接包括如下步骤:
(1)基于FBO技术,设立四个拼接通道;
(2)将所有方位的拼接通道的缓冲区进行分区,得到分区通道,分别命名为:拼接通道I、拼接通道II、拼接通道III、拼接通道IV;
(3)基于立体成像合成原理,将所有方位的帧图像以交叉形式进行拼接,实现同帧数的帧图像经过变换后在分区通道的拼接;
其中,所有方位的帧图像同步拼接。
8.根据权利要求7所述的360°全息实时交互方法,其特征在于,所述语音交互如下:以非特定人的小词汇量孤立词语音识别作为系统的开启及关闭交互方式,建立语音模板,借助语音识别,实现对系统的开启及关闭交。
9.根据权利要求7所述的360°全息实时交互方法,其特征在于,所述姿势交互中,以手部姿势作为全息影像交互的姿势交互方式,具体如下:
首先,采用基于直方图的SPM贝叶斯法,通过贝叶斯准则将肤色与非肤色直方图归一化,以概率来判断肤色像素,实现手部粗定位;
然后,采用基于模糊集和模糊运算的方法得到手部区域的轮廓,对五指手部轮廓后曲线进行指尖位置搜索,选择一个轮廓起始点,按顺时针方向进行定长扫描,计算各轮廓线中点的Ratio,当Ratio大于ε时,则该点为指尖候选点,根据手部轮廓Ratio值曲线,取大于ε的波峰值为指尖候选点;选取扫描轮廓线起始点与终点的连线中点,检测中点矩形小邻域,若为肤色区域,则候选点为指尖点,若为非肤色区域,则候选点为非指尖点;将已实现五指指尖定位及手指个数识别的手部与已有的模板进行匹配,将识别的结果转换为五指伸展且指尖定位的2D手部简化模型,实现跟踪初始化,实现对手部的精确定位;
最后,通过跟踪手指指尖的运动轨迹,取指尖轨迹均值,根据不同的手部姿势交互映射关系,实现全息影像真实模式和虚拟模式的切换交互和全息影像的旋转交互;
其中,Ratio为扫描轮廓线中点至扫描轮廓起始点与终点连线的垂直距离和扫描轮廓线起始点至终点连线长度的比值,ε表示一个正数。
10.根据权利要求9所述的360°全息实时交互方法,其特征在于,在所述姿势交互中,建立了两种手部交互映射关系:
其一,手部切换交互映射关系
在1-1.5s的时间段内,手部在垂直坐标内变化量未超过阈值,甚至是静止时,用户全息影像处于初始状态,默认为虚拟模式;当在1-1.5s的时间段内,手部在垂直坐标内变化量超过阈值,切换模式交互过程就被开启,由初始模式转换为另一个模式,实现真实模式与虚拟模式的切换;
其二,影像旋转交互映射关系
通过手在平面内的水平直线运动,带动用户头肩全息影像的旋转,将全息影像中头肩作360°一周旋转,离散化为Pic(m)、Pic(l)、Pic(r)、Pic(b)四种不同的拼接对应模式,根据手部在水平方向变换距离值判定相应的序列图像通道的拼接对应模式的变化:其中,fix表示向零取整,表示移动向量;
初始交互前,即时,用户的全息影像处于所述Pic(m)拼接对应模式;时,影像向右旋转,依次显示为Pic(m),Pic(r);时,影像向右旋转,依次显示为Pic(m),Pic(r),Pic(b);时,影像向右旋转,依次显示为Pic(m),Pic(r),Pic(b),Pic(l);时,影像向右旋转,依次显示为Pic(m),Pic(r),Pic(b),Pic(l),Pic(m);时,影像向左旋转,依次显示为Pic(m),Pic(l);时,影像向左旋转,依次显示为Pic(m),Pic(l),Pic(b);时,影像向左旋转,依次显示为Pic(m),Pic(l),Pic(b),Pic(r);时,影像向左旋转,依次显示为Pic(m),Pic(l),Pic(b),Pic(r),Pic(m),根据对应模式的依次变化,实现交互;
其中,所述Pic(m)对应模式表示拼接通道I对应一号摄像机帧图像、拼接通道II对应二号摄像机帧图像、拼接通道III对应三号摄像机帧图像,拼接通道IV对应四号摄像机帧图像;
所述Pic(l)对应模式表示拼接通道I对应二号摄像机帧图像、拼接通道II对应四号摄像机帧图像、拼接通道III对应一号摄像机帧图像,拼接通道IV对应三号摄像机帧图像;
所述Pic(r)对应模式表示拼接通道I对应三号摄像机帧图像、拼接通道II对应一号摄像机帧图像、拼接通道III对应四号摄像机帧图像,拼接通道IV对应二号摄像机帧图像;
所述Pic(b)对应模式表示拼接通道I对应四号摄像机帧图像、拼接通道II对应三号摄像机帧图像、拼接通道III对应二号摄像机帧图像,拼接通道IV对应一号摄像机帧图像。
CN201610298797.7A 2016-05-06 2016-05-06 一种360°全息实时交互方法 Active CN105929962B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610298797.7A CN105929962B (zh) 2016-05-06 2016-05-06 一种360°全息实时交互方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610298797.7A CN105929962B (zh) 2016-05-06 2016-05-06 一种360°全息实时交互方法

Publications (2)

Publication Number Publication Date
CN105929962A true CN105929962A (zh) 2016-09-07
CN105929962B CN105929962B (zh) 2018-12-14

Family

ID=56834469

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610298797.7A Active CN105929962B (zh) 2016-05-06 2016-05-06 一种360°全息实时交互方法

Country Status (1)

Country Link
CN (1) CN105929962B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106346485A (zh) * 2016-09-21 2017-01-25 大连理工大学 基于人手运动姿态学习的仿生机械手的非接触式控制方法
CN106454295A (zh) * 2016-10-26 2017-02-22 秦皇岛中科鸿合信息科技有限公司 一种基于纯色背景的实时全息投影装置与方法
CN106686687A (zh) * 2016-12-29 2017-05-17 努比亚技术有限公司 一种接入控制方法及装置
CN108280885A (zh) * 2018-01-09 2018-07-13 上海大学 构建全息偶像方法
CN109343030A (zh) * 2018-12-10 2019-02-15 江苏慧光电子科技有限公司 扫描结构与激光雷达及交通工具
CN111210577A (zh) * 2020-01-03 2020-05-29 深圳香蕉设计有限公司 一种节日主题虚拟化全息影像交互系统
US10930183B2 (en) 2018-11-22 2021-02-23 Electronics And Telecommunications Research Institute Hologram content generation apparatus, integrated hologram content control system having the same, and method for operating the hologram content generation apparatus
CN112832762A (zh) * 2020-12-25 2021-05-25 朗坤智慧科技股份有限公司 一种基于5g通讯技术的井下采煤机远程控制系统
CN113706720A (zh) * 2021-09-06 2021-11-26 联想(北京)有限公司 图像显示方法和装置
CN113715826A (zh) * 2021-08-31 2021-11-30 深圳市同进视讯技术有限公司 一种基于车载实时监控的车辆驾驶辅助方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103597515A (zh) * 2011-06-06 2014-02-19 微软公司 用于识别张开的或闭合的手的系统
CN203689439U (zh) * 2013-12-27 2014-07-02 合肥市艾塔器网络科技有限公司 人体控制智能全息投影系统
CN204350168U (zh) * 2015-02-04 2015-05-20 四川建筑职业技术学院 一种基于全息投影技术的立体会议系统
CN104777911A (zh) * 2015-04-28 2015-07-15 周俊达 一种基于全息技术的智能交互方法
US20160030835A1 (en) * 2013-07-12 2016-02-04 Chris Argiro Video-game console for allied touchscreen media

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103597515A (zh) * 2011-06-06 2014-02-19 微软公司 用于识别张开的或闭合的手的系统
US20160030835A1 (en) * 2013-07-12 2016-02-04 Chris Argiro Video-game console for allied touchscreen media
CN203689439U (zh) * 2013-12-27 2014-07-02 合肥市艾塔器网络科技有限公司 人体控制智能全息投影系统
CN204350168U (zh) * 2015-02-04 2015-05-20 四川建筑职业技术学院 一种基于全息投影技术的立体会议系统
CN104777911A (zh) * 2015-04-28 2015-07-15 周俊达 一种基于全息技术的智能交互方法

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106346485A (zh) * 2016-09-21 2017-01-25 大连理工大学 基于人手运动姿态学习的仿生机械手的非接触式控制方法
CN106346485B (zh) * 2016-09-21 2018-12-18 大连理工大学 基于人手运动姿态学习的仿生机械手的非接触式控制方法
CN106454295A (zh) * 2016-10-26 2017-02-22 秦皇岛中科鸿合信息科技有限公司 一种基于纯色背景的实时全息投影装置与方法
CN106686687A (zh) * 2016-12-29 2017-05-17 努比亚技术有限公司 一种接入控制方法及装置
CN108280885A (zh) * 2018-01-09 2018-07-13 上海大学 构建全息偶像方法
CN108280885B (zh) * 2018-01-09 2021-12-03 上海大学 构建全息偶像方法
US10930183B2 (en) 2018-11-22 2021-02-23 Electronics And Telecommunications Research Institute Hologram content generation apparatus, integrated hologram content control system having the same, and method for operating the hologram content generation apparatus
CN109343030A (zh) * 2018-12-10 2019-02-15 江苏慧光电子科技有限公司 扫描结构与激光雷达及交通工具
CN111210577A (zh) * 2020-01-03 2020-05-29 深圳香蕉设计有限公司 一种节日主题虚拟化全息影像交互系统
CN112832762A (zh) * 2020-12-25 2021-05-25 朗坤智慧科技股份有限公司 一种基于5g通讯技术的井下采煤机远程控制系统
CN113715826A (zh) * 2021-08-31 2021-11-30 深圳市同进视讯技术有限公司 一种基于车载实时监控的车辆驾驶辅助方法及装置
CN113706720A (zh) * 2021-09-06 2021-11-26 联想(北京)有限公司 图像显示方法和装置

Also Published As

Publication number Publication date
CN105929962B (zh) 2018-12-14

Similar Documents

Publication Publication Date Title
CN105929962A (zh) 一种360°全息实时交互方法
Gomez-Donoso et al. Large-scale multiview 3d hand pose dataset
CN109359538B (zh) 卷积神经网络的训练方法、手势识别方法、装置及设备
Sahoo et al. Sign language recognition: State of the art
CN107357427A (zh) 一种用于虚拟现实设备的手势识别控制方法
CN103310194B (zh) 视频中基于头顶像素点梯度方向的行人头肩部检测方法
CN109978930A (zh) 一种基于单幅图像的风格化人脸三维模型自动生成方法
CN105718878A (zh) 基于级联卷积神经网络的第一视角空中手写和空中交互方法
CN102034247B (zh) 一种基于背景建模对双目视觉图像的运动捕捉方法
CN109472198A (zh) 一种姿态鲁棒的视频笑脸识别方法
CN105856243A (zh) 一种移动智能机器人
Nguyen et al. Static hand gesture recognition using artificial neural network
CN104821010A (zh) 基于双目视觉的人手三维信息实时提取方法及系统
CN110688965A (zh) 基于双目视觉的ipt模拟训练手势识别方法
CN102222342A (zh) 人体运动跟踪及其识别方法
Chang et al. The model-based human body motion analysis system
CN110110603A (zh) 一种基于面部生理信息的多模态唇读方法
Juan Gesture recognition and information recommendation based on machine learning and virtual reality in distance education
Guo et al. Gesture recognition of traffic police based on static and dynamic descriptor fusion
Amrutha et al. Human Body Pose Estimation and Applications
Liu et al. Key algorithm for human motion recognition in virtual reality video sequences based on hidden markov model
CN114120389A (zh) 网络训练及视频帧处理的方法、装置、设备及存储介质
CN102663369A (zh) 基于surf高效匹配核的人体运动跟踪方法
CN112099330B (zh) 基于外部相机和穿戴式显控设备的全息人体重建方法
Manresa-Yee et al. Towards hands-free interfaces based on real-time robust facial gesture recognition

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant