CN102622081A - 一种实现体感交互的方法和系统 - Google Patents

一种实现体感交互的方法和系统 Download PDF

Info

Publication number
CN102622081A
CN102622081A CN2011100331212A CN201110033121A CN102622081A CN 102622081 A CN102622081 A CN 102622081A CN 2011100331212 A CN2011100331212 A CN 2011100331212A CN 201110033121 A CN201110033121 A CN 201110033121A CN 102622081 A CN102622081 A CN 102622081A
Authority
CN
China
Prior art keywords
reference system
operator
information
coordinate
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2011100331212A
Other languages
English (en)
Other versions
CN102622081B (zh
Inventor
王嘉
鲍东山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Nufront Mobile Multimedia Technology Co Ltd
Original Assignee
BEIJING NUFRONT SOFTWARE TECHNOLOGY Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BEIJING NUFRONT SOFTWARE TECHNOLOGY Co Ltd filed Critical BEIJING NUFRONT SOFTWARE TECHNOLOGY Co Ltd
Priority to CN201110033121.2A priority Critical patent/CN102622081B/zh
Publication of CN102622081A publication Critical patent/CN102622081A/zh
Application granted granted Critical
Publication of CN102622081B publication Critical patent/CN102622081B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明公开了一种实现体感交互的方法,包括:获取操作者的运动信息,并将该运动信息映射到真实参照系;测算人眼在真实参照系中的位置参数,结合显示参照系的视差信息和所述人眼位置参数,计算虚拟3D立体影像在真实参照系中的成像坐标,将显示参照系中的3D立体影像映射到真实参照系;在真实参照系中检测人体动作与3D影像的互动信息;根据所述互动信息进行相应的互动操作。本发明还提供了相应的体感交互系统。根据本发明可在3D环境下实现人机交互,使得用户有很好的操作体验,操作者具有身临其境的互动体验感。

Description

一种实现体感交互的方法和系统
技术领域
 本发明涉及3D视频图像处理及人机交互技术领域,具体涉及一种实现体感交互的方法和系统。
背景技术
现有的体感交互技术,典型的体感交互系统,如微软的Kinect系统、任天堂的Wii系统、索尼的PS Move系统等,使人们能够通过肢体动作与多媒体终端进行交互,突破了以往单纯以手柄按键输入的操作方式。这种模式虽然摆脱了手柄操作的限制,但用户在操作时的体验却非常不直观。原因是用户在操作时的参考坐标系是显示屏上的显示参照系,体感技术把用户的肢体动作映射到屏幕上,并在显示参照系下与软件程序或游戏进行互动。这种感觉就好像,用户在操纵自己的影子(此时影子是显示在屏幕上),然后通过影子与游戏互动,如图1所示。
这种操控体验是非常不直观的。举例来说,基于现有的体感互动模式,用户必须先判断好自己的行动会如何操控屏幕上的影子,然后才能更好的控制游戏角色进行动作。换句话说,用户必须先把自身映射到游戏的显示参照系中才能进行游戏,这种操控体验是很不自然的。
对于用户来说,只有在自身所处的真实参照系中动作,才能获得最佳的操作体验。3D显示技术为体感互动提供了这种可能。3D显示技术通过同时向用户的左右眼输出不同的图像,利用立体视觉原理向用户呈现出超出屏幕平面的虚拟立体影像。
但是,目前基于3D显示系统的体感互动技术方案成为研究的热点,需要提出相应的实现方案,以达到人们身临其境的互动体验感。
发明内容
本发明提供一种实现体感交互的方法和系统,可在3D环境下实现人机交互,使得操作者身临其境的互动体验感。
本发明提供一种实现体感交互的方法,包括:
获取操作者的运动信息,并将该运动信息映射到真实参照系;
测算人眼在真实参照系中的位置参数,结合显示参照系的视差信息和所述人眼位置参数,计算虚拟3D立体影像在真实参照系中的成像坐标,将所述显示参照系中的3D立体影像映射到真实参照系;
在真实参照系中检测人体动作与3D影像的互动信息;
根据所述互动信息进行相应的互动操作。
本发明提供的一种实现体感交互的系统,包括:
运动信息获取装置,用于获取操作者的运动信息,并转换为传感器参照系中所述操作者运动过程中的坐标;
第一映射装置,用于将传感器参照系中所述操作者运动过程中的坐标映射到真实参照系;
测算装置,测算人眼在真实参照系中的位置参数,结合显示参照系的视差信息和所述人眼位置参数;
第二映射装置,用于计算虚拟3D立体影像在真实参照系中的成像坐标,将所述3D立体影像映射到真实参照系;
检测装置,用于在真实参照系中检测人体动作与3D影像的互动信息;
执行装置,根据所述互动信息进行相应的互动操作。
综上所述,本发明提供的实现体感交互的技术方案,通过将将操作者的位置信息与3D图像映射到统一参照系中,在该参照系中检测人体动作与3D影像的互动信息,并根据检测到的互动信息进行互动操作。根据本发明可在3D环境下实现人机交互,使得用户有很好的操作体验,操作者具有身临其境的互动体验感。
附图说明
图1为现有技术中体感互动操作示意图;
图2为本发明实施例中提供的基于3D视频系统实现体感交互的原理图;
图3为本发明实施例中提供的一种实现体感交互的方法流程图;
图4为本发明实施例中的一种实现体感交互的系统架构示意图;
图5(a)和5(b)为本发明实施例中平行双目视觉距离传感器测量距离的原理图;
图6(a)和6(b)为本发明实施例中双目视觉距离传感器与3D显示屏的设置示意图;
图7为本发明实施例中操作部件在真实参照系中的映射示意图。
具体实施方式
随着3D技术的不断发展和普及,还有人们对交互式系统的需求不断提高,本发明提出一种基于3D视频的实现体感交互的方法和系统,使得用户有很好的操作体验,具有身临其境的互动体验感。
图2所示为本发明提供的技术方案中基于3D视频系统实现体感交互的原理图,参照图2,首先,对操作者的动作进行感应,并将其动作映射为真实参照系的坐标;并对操作者得眼睛进行定位:得到人眼位置信息,测算人眼在真实参照系中的位置参数;其次,将3D图像进行视差计算和调整,结合显示参照系的视差信息和所述人眼位置参数,计算虚拟3D立体影像在真实参照系中的成像坐标,将所述显示参照系中的3D立体影像映射到真实参照系;检测映射后的人体动作与3D影像的互动信息;并根据检测结果进行互动操作。
参照图3,本发明提供的一种实现体感交互的方法,包括如下步骤:
S01,获取操作者的运动信息,并将该运动信息映射到真实参照系;
S02,计算虚拟3D立体影像在真实参照系中的成像坐标,将所述显示参照系中的3D立体影像映射到真实参照系;
测算人眼在真实参照系中的位置参数,结合显示参照系的视差信息和所述人眼位置参数,计算虚拟3D立体影像在真实参照系中的成像坐标,将所述显示参照系中的3D立体影像映射到真实参照系。
 S03,在真实参照系中检测人体动作与3D影像的互动信息;
 S04,根据所述互动信息进行相应的互动操作。
步骤S01中,获取操作者的运动信息,具体包括:
监测操作者的肢体动作,测算操作者所在场景的距离信息;
基于所述距离信息,根据所述操作者的肢体动作获得传感器参照系中所述操作者运动过程中的坐标参数。
所谓传感器参照系是以距离传感器已经操作者的位置构建的坐标参照系,主要反映操作者所在场景的距离及位置关系。
步骤S01中,设置至少两台摄像机对操作者所在场景采集图像;所述将该运动信息映射到真实参照系,具体包括:
11) 根据设置的所述至少两台摄像机所采图像的视差,结合所述摄像机之间的位置关系,计算出操作者与摄像机之间的距离;
12) 根据所述距离,将传感器参照系中操作者运动过程中的坐标参数计算出真实参照系中操作者的坐标。
步骤S03中,在真实参照系中检测人体动作与3D影像的互动信息,具体包括:
31)获取人体动作时对应在真实参照系中的坐标;
32)基于所获取的坐标与3D影像中的相互关系,判断人体动作是否与3D影像互动;若互动,则获取互动信息。
参照图4,本发明提供的一种实现体感交互的系统400,包括:
运动信息获取装置410,用于获取操作者的运动信息,并转换为传感器参照系中所述操作者运动过程中的坐标;
第一映射装置420,用于将传感器参照系中所述操作者运动过程中的坐标映射到真实参照系;
测算装置430,测算人眼在真实参照系中的位置参数,结合显示参照系的视差信息和所述人眼位置参数; 
第二映射装置440,用于计算虚拟3D立体影像在真实参照系中的成像坐标,将所述3D立体影像映射到真实参照系;
检测装置450,用于在真实参照系中检测人体动作与3D影像的互动信息;
执行装置460,根据所述互动信息进行相应的互动操作。
在本发明具体实施例中,运动信息获取装置410,包括:
动作感应模块410a,用于感应操作者的肢体动作,得到肢体动作信息;
距离传感器410b,用于获得场景的距离信息,并生成距离图像;
坐标建立模块410c,根据所述肢体动作信息传感器参照系中所述操作者运动过程中的坐标。
在本发明具体实施例中,第一映射装置420,包括:
检测模块420a,用于监测操作者的肢体动作,测算操作者所在场景的距离信息,计算出操作者与摄像机之间的距离;
坐标转换模块420b,基于所述距离信息,根据所述操作者的肢体动作将传感器参照系中所述操作者的坐标参数转换为真实参照系中操作者的坐标。
为使本发明的原理、特性和优点更加清楚,下面结合具体实施例进行描述。
下面以双目视觉距离传感器为例,说明操作者对3D虚拟按钮的操作过程:
第一步、人体动作坐标映射;
由于人体动作是在真实参照系中发生的,而视觉传感器通过图像采集,将这种运动信息映射到了传感器参照系,因此首先要通过“人体动作坐标映射模块”将传感器参照系中的动作映射回真实参照系。动作是由一系列状态组成的,只要将动作中的每个状态都映射回真实参照系,那么由状态组成的动作也就在真实参照系中得到还原。以操作者按动虚拟按钮的动作来说,只要将每个时刻操作者手部的位置信息映射回真实参照系,则操作者按动按钮的动作就能得到还原。
利用基于双目视觉的距离传感器,传感器参照系中的位置信息可以按照如下方式映射回真实参照系。
双目视觉距离传感器利用立体成像原理计算距离信息。通过使用按照某种方式放置的多台摄像机对同一场景采集图像,根据这些摄像机所采图像的差异(视差),结合摄像机之间的位置关系,就可以计算出目标与摄像机之间的距离。考虑到设备与计算的复杂度,实用的方式是采用两台平行放置的摄像机组成距离传感器。
图5(a)和5(b)所示为平行双目视觉距离传感器测量距离的原理图。如图5所示,两台焦距为f的摄像机平行放置,光轴之间的距离为T,图5(a)所示的立体图中的两个矩形分辨表示左右摄像机的成像平面,O l O r 为左右摄像机的焦点,对于场景中的任意一点P,在左右摄像机成像平面上的成像点分别为p l p r ,它们在成像平面上的成像坐标(图像坐标)为x l x r ,则视差定义为d = x l  - x r (图5(b)所示为俯视图)。
以图5中的左摄像机焦点O l 为原点, O l O r 所在直线为X轴,左摄像机光轴为Z轴,垂直于XZ轴的为Y轴,则P点在O l 坐标系中的坐标可以按照公式(1)计算:
                           (1)
由此,传感器参照系中的每个位置都可以依据距离信息d映射到O l 真实参照系。
针对操作者按动按钮的动作,“人体动作坐标映射模块”首先从图像中检测出人手的位置,然后将人手的位置信息映射到真实参照系。
第二步、立体影像坐标映射:
人体动作被映射到真实参照系后,还需要将立体影像也映射到真实参照系,如此才能在相同的参照系中判断两者是否发生互动。
立体影像坐标映射同样基于立体成像原理。为降低计算量,双目视觉距离传感器与显示屏采用图6(a)的方式放置,图6(b)所示为相应的俯视图。3D显示屏位于双目测距传感器的焦距平面,即XY平面,显示屏中心为OOO l 真实参照系中的坐标为(xy)。
由于虚拟3D图像的在真实参照系中的成像位置与人眼的位置相关,因此还需要计算人眼在真实参照系中的坐标。计算方法与人体动作映射一样,利用双目视觉距离传感器,首先检测人的双眼在图像中的位置,然后利用视差d,将位置信息映射到真实参照系。
下面,就可以根据3D图像中按钮的位置和人眼的位置计算虚拟按钮在真实参照系中的位置。计算的原理如图7所示。
图7中给出了两个按钮A和B,根据它们在左右眼视图中的位置,计算出虚拟按钮A和B在真实坐标系中的位置:虚拟按钮A位于3D显示屏之后,虚拟按钮B位于3D显示屏之前。其具体坐标按照如下方式计算:
基于图6(a)的O l 真实参照系,假设左右眼在真实参照系中的坐标为(x lefteye y lefteye z lefteye )和(x righteye y righteye z righteye ),按钮的左右视图在真实参照系中的坐标为(x leftbutton y leftbutton , 0)和(x rightbutton y rightbutton , 0),由于按钮是显示在3D显示屏上,因此z = 0。此外,由于一般情况下,人是正视3D显示屏的,并且3D图像仅包含水平视差,则z lefteye = z righteye y leftbutton = y rightbutton 。如此,虚拟俺钮在真实参照系中的坐标可以按照公式(2)计算:
Figure 2011100331212100002DEST_PATH_IMAGE004
             (2)
如此,就获得了虚拟按钮在真实参照系中的坐标。
第三步、互动检测:
针对操作者按动按钮的动作,此时有了操作者手部和虚拟按钮在真实参照系中的坐标,就可以直接根据两者坐标是否重合来判断操作者是否按动了虚拟按钮。针对图7中给出的按钮的两种情况:虚拟按钮B位于显示屏与操作者之间,可以直接根据坐标判断两者是否接触,若接触则激发互动事件,否则认为没有触动按钮;对于虚拟按钮A,由于其处于显示屏之后,因此若互动规则定义为“直接接触”的话,操作者无法针对按钮A进行动作,但如果定义了其他的非接触式互动规则(如根据手的运动方向触发按钮),则可以让操作者根据新的规则与按钮互动。
综上所述,本发明提供的实现体感交互的技术方案,通过将将操作者的位置信息与3D图像映射到统一参照系中,在该参照系中检测人体动作与3D影像的互动信息,并根据检测到的互动信息进行互动操作。根据本发明可在3D环境下实现人机交互,使得用户有很好的操作体验,操作者具有身临其境的互动体验感。
本发明虽然以较佳实施例公开如上,但其并不是用来限定本发明,任何本领域技术人员在不脱离本发明的精神和范围内,都可以做出可能的变动和修改,因此本发明的保护范围应当以本发明权利要求所界定的范围为准。

Claims (7)

1.一种实现体感交互的方法,其特征在于,包括:
获取操作者的运动信息,并将该运动信息映射到真实参照系;
测算人眼在真实参照系中的位置参数,结合显示参照系的视差信息和所述人眼位置参数,计算虚拟3D立体影像在真实参照系中的成像坐标,将所述显示参照系中的3D立体影像映射到真实参照系;
在真实参照系中检测人体动作与3D影像的互动信息;
根据所述互动信息进行相应的互动操作。
2.如权利要求1所述的方法,其特征在于,所述获取操作者的运动信息,具体包括:
监测操作者的肢体动作,测算操作者所在场景的距离信息;
基于所述距离信息,根据所述操作者的肢体动作获得传感器参照系中所述操作者运动过程中的坐标参数。
3.如权利要求1所述的方法,其特征在于,使用距离传感器对操作者所在场景采集距离图像;将所述距离图像中的人体运动信息映射到真实参照系,具体包括:
根据设置的所述距离传感器,计算出操作者所在场景与摄像机之间的距离信息,并生成距离图像;
根据所述距离图像,将传感器参照系中操作者运动过程中的坐标参数计算出真实参照系中操作者的坐标。
4.如权利要求1所述的方法,其特征在于,在真实参照系中检测人体动作与3D影像的互动信息,具体包括:
获取人体动作时对应在真实参照系中的坐标;
基于所获取的坐标与3D影像中的相互关系,判断人体动作是否与3D影像互动;若互动,则获取互动信息。
5.一种实现体感交互的系统,其特征在于,包括:
运动信息获取装置,用于获取操作者的运动信息,并转换为传感器参照系中所述操作者运动过程中的坐标;
第一映射装置,用于将传感器参照系中所述操作者运动过程中的坐标映射到真实参照系;
测算装置,测算人眼在真实参照系中的位置参数,结合显示参照系的视差信息和所述人眼位置参数; 
第二映射装置,用于计算虚拟3D立体影像在真实参照系中的成像坐标,将所述3D立体影像映射到真实参照系;
检测装置,用于在真实参照系中检测人体动作与3D影像的互动信息;
执行装置,根据所述互动信息进行相应的互动操作。
6.如权利要求5所述的系统,其特征在于,所述运动信息获取装置,包括:
动作感应模块,用于感应操作者的肢体动作,得到肢体动作信息;
距离传感器,用于获得场景的距离信息,并生成距离图像;
坐标建立模块,根据所述肢体动作信息传感器参照系中所述操作者运动过程中的坐标。
7.如权利要求5所述的系统,其特征在于,所述第一映射装置,包括:
检测模块,用于监测操作者的肢体动作,测算操作者所在场景的距离信息,计算出操作者与摄像机之间的距离;
坐标转换模块,基于所述距离信息,根据所述操作者的肢体动作将传感器参照系中所述操作者的坐标参数转换为真实参照系中操作者的坐标。
CN201110033121.2A 2011-01-30 2011-01-30 一种实现体感交互的方法和系统 Active CN102622081B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201110033121.2A CN102622081B (zh) 2011-01-30 2011-01-30 一种实现体感交互的方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201110033121.2A CN102622081B (zh) 2011-01-30 2011-01-30 一种实现体感交互的方法和系统

Publications (2)

Publication Number Publication Date
CN102622081A true CN102622081A (zh) 2012-08-01
CN102622081B CN102622081B (zh) 2016-06-08

Family

ID=46562035

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201110033121.2A Active CN102622081B (zh) 2011-01-30 2011-01-30 一种实现体感交互的方法和系统

Country Status (1)

Country Link
CN (1) CN102622081B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103412642A (zh) * 2013-06-28 2013-11-27 龚南彬 一种交互装置
CN103646425A (zh) * 2013-11-20 2014-03-19 深圳先进技术研究院 一种体感交互的方法及系统
CN103869941A (zh) * 2012-12-13 2014-06-18 华硕电脑股份有限公司 具虚拟触控服务的电子装置及虚拟触控即时校正方法
CN104699389A (zh) * 2013-12-05 2015-06-10 由田新技股份有限公司 互动显示方法及其电子装置
CN105279354A (zh) * 2014-06-27 2016-01-27 冠捷投资有限公司 用户可融入剧情的情境建构系统
CN105425937A (zh) * 2014-09-03 2016-03-23 液态三维系统有限公司 可与3d影像互动的手势控制系统
CN106730815A (zh) * 2016-12-09 2017-05-31 福建星网视易信息系统有限公司 一种易实现的体感互动方法及系统
CN107734385A (zh) * 2017-09-11 2018-02-23 广东欧珀移动通信有限公司 视频播放方法、装置及电子装置
CN105468249B (zh) * 2014-09-09 2019-01-08 联胜(中国)科技有限公司 智能互动系统及其控制方法
CN110244839A (zh) * 2019-05-20 2019-09-17 联想(上海)信息技术有限公司 控制方法、电子设备和存储介质
CN111007938A (zh) * 2018-10-08 2020-04-14 阿里巴巴集团控股有限公司 交互设备及其处理方法、装置
CN114866757A (zh) * 2022-04-22 2022-08-05 深圳市华星光电半导体显示技术有限公司 一种立体显示系统及方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1369857A (zh) * 2001-02-15 2002-09-18 矽统科技股份有限公司 可调整立体效果的三维空间图像转换的装置及其方法
CN101344816A (zh) * 2008-08-15 2009-01-14 华南理工大学 基于视线跟踪和手势识别的人机交互方法及装置
CN101520700A (zh) * 2008-12-31 2009-09-02 广东威创视讯科技股份有限公司 一种基于摄像头的三维定位触摸装置及其定位方法
CN201307266Y (zh) * 2008-06-25 2009-09-09 韩旭 双目视线跟踪装置
CN101727181A (zh) * 2009-12-30 2010-06-09 刘坤 利用3d立体技术实现电脑输入和输出的方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1369857A (zh) * 2001-02-15 2002-09-18 矽统科技股份有限公司 可调整立体效果的三维空间图像转换的装置及其方法
CN201307266Y (zh) * 2008-06-25 2009-09-09 韩旭 双目视线跟踪装置
CN101344816A (zh) * 2008-08-15 2009-01-14 华南理工大学 基于视线跟踪和手势识别的人机交互方法及装置
CN101520700A (zh) * 2008-12-31 2009-09-02 广东威创视讯科技股份有限公司 一种基于摄像头的三维定位触摸装置及其定位方法
CN101727181A (zh) * 2009-12-30 2010-06-09 刘坤 利用3d立体技术实现电脑输入和输出的方法

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103869941A (zh) * 2012-12-13 2014-06-18 华硕电脑股份有限公司 具虚拟触控服务的电子装置及虚拟触控即时校正方法
CN103869941B (zh) * 2012-12-13 2017-03-01 华硕电脑股份有限公司 具虚拟触控服务的电子装置及虚拟触控即时校正方法
CN103412642A (zh) * 2013-06-28 2013-11-27 龚南彬 一种交互装置
CN103646425A (zh) * 2013-11-20 2014-03-19 深圳先进技术研究院 一种体感交互的方法及系统
CN104699389A (zh) * 2013-12-05 2015-06-10 由田新技股份有限公司 互动显示方法及其电子装置
CN105279354A (zh) * 2014-06-27 2016-01-27 冠捷投资有限公司 用户可融入剧情的情境建构系统
CN105279354B (zh) * 2014-06-27 2018-03-27 冠捷投资有限公司 用户可融入剧情的情境建构系统
CN105425937A (zh) * 2014-09-03 2016-03-23 液态三维系统有限公司 可与3d影像互动的手势控制系统
CN105468249B (zh) * 2014-09-09 2019-01-08 联胜(中国)科技有限公司 智能互动系统及其控制方法
CN106730815A (zh) * 2016-12-09 2017-05-31 福建星网视易信息系统有限公司 一种易实现的体感互动方法及系统
CN107734385A (zh) * 2017-09-11 2018-02-23 广东欧珀移动通信有限公司 视频播放方法、装置及电子装置
CN107734385B (zh) * 2017-09-11 2021-01-12 Oppo广东移动通信有限公司 视频播放方法、装置及电子装置
CN111007938A (zh) * 2018-10-08 2020-04-14 阿里巴巴集团控股有限公司 交互设备及其处理方法、装置
CN111007938B (zh) * 2018-10-08 2023-11-28 盒马(中国)有限公司 交互设备及其处理方法、装置
CN110244839A (zh) * 2019-05-20 2019-09-17 联想(上海)信息技术有限公司 控制方法、电子设备和存储介质
CN110244839B (zh) * 2019-05-20 2022-11-18 联想(上海)信息技术有限公司 控制方法、电子设备和存储介质
CN114866757A (zh) * 2022-04-22 2022-08-05 深圳市华星光电半导体显示技术有限公司 一种立体显示系统及方法
CN114866757B (zh) * 2022-04-22 2024-03-05 深圳市华星光电半导体显示技术有限公司 一种立体显示系统及方法

Also Published As

Publication number Publication date
CN102622081B (zh) 2016-06-08

Similar Documents

Publication Publication Date Title
CN102622081A (zh) 一种实现体感交互的方法和系统
CN204465706U (zh) 终端装置
US8139087B2 (en) Image presentation system, image presentation method, program for causing computer to execute the method, and storage medium storing the program
CN103336575B (zh) 一种人机交互的智能眼镜系统及交互方法
WO2014147858A1 (ja) 3次元ロック解除装置、3次元ロック解除方法及びプログラム
US8686943B1 (en) Two-dimensional method and system enabling three-dimensional user interaction with a device
CN102057347B (zh) 图像识别装置、操作判断方法及程序
WO2014162825A1 (ja) 表示制御装置、表示制御方法およびプログラム
WO2015180497A1 (zh) 一种基于立体视觉的动作采集和反馈方法及系统
CN107004275A (zh) 用于确定实物的至少一部分的处于绝对空间比例的3d重构件的空间坐标的方法和系统
TWI701941B (zh) 圖像處理方法及裝置、電子設備及儲存介質
CN102508548A (zh) 一种电子信息设备的操作方法及系统
CN107850990A (zh) 共享介导现实内容
CN102647606A (zh) 立体影像处理器、立体影像互动系统及立体影像显示方法
WO2018028152A1 (zh) 一种图像采集设备、虚拟现实设备
JP2015084002A (ja) ミラーディスプレイシステム、及び、その映像表示方法
WO2015093130A1 (ja) 情報処理装置、情報処理方法およびプログラム
KR20130049152A (ko) 입체 인터랙션 시스템 및 입체 인터랙션 방법
CN107741782A (zh) 一种设备虚拟漫游方法和装置
US20130040737A1 (en) Input device, system and method
Reimat et al. Cwipc-sxr: Point cloud dynamic human dataset for social xr
JP5863984B2 (ja) ユーザインタフェース装置及びユーザインタフェース方法
CN112069873A (zh) 一种基于LeapMotion手势识别的屏幕控制系统及方法
JPWO2018074419A1 (ja) 情報処理装置
CN106200911A (zh) 一种基于双摄像头的体感控制方法、移动终端及系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
ASS Succession or assignment of patent right

Owner name: BEIJING NUFRONT MOBILE MULTIMEDIA TECHNOLOGY CO.,

Free format text: FORMER OWNER: BEIJING NUFRONT SOFTWARE TECHNOLOGY CO., LTD.

Effective date: 20121015

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20121015

Address after: 100084, Beijing, Zhongguancun Haidian District East Road, 1, Tsinghua Science and Technology Park, building 8, building A, 16 floor

Applicant after: Beijing Nufront Mobile Multimedia Technology Co., Ltd.

Address before: 100084, A, building 17, building 1, Tsinghua Science and Technology Park, No. Zhongguancun East Road, Haidian District, Beijing

Applicant before: Beijing Nufront Software Technology Co., Ltd.

SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant