CN203445974U - 3d眼镜及3d显示系统 - Google Patents
3d眼镜及3d显示系统 Download PDFInfo
- Publication number
- CN203445974U CN203445974U CN201320537681.6U CN201320537681U CN203445974U CN 203445974 U CN203445974 U CN 203445974U CN 201320537681 U CN201320537681 U CN 201320537681U CN 203445974 U CN203445974 U CN 203445974U
- Authority
- CN
- China
- Prior art keywords
- glasses
- information
- rendering
- user
- gesture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Abstract
本实用新型涉及一种3D眼镜及3D显示系统。本实用新型提供的3D显示系统包括3D显示装置和3D眼镜,所述3D眼镜包括:用于向用户呈现3D显示装置提供的3D图像的3D图像呈现模块;用于获取所述用户的手势信息,并将所述手势信息提供给手势信息处理模块的手势信息获取模块;用于根据所述手势信息生成处理信息,并将所述处理信息提供给信息传送模块的手势信息处理模块;以及,用于将所述处理信息发送至所述3D显示装置的信息传送模块。根据本实用新型,通过获取用户的手势信息,并根据手势信息确定用户的操作命令,进一步根据操作命令更新用户看到的3D图像,从而实现了用户与所看到的3D内容进行互动。本实用新型适用于3D游戏等虚拟环境的交互式操作。
Description
技术领域
本实用新型涉及显示技术领域,更具体地,涉及一种3D眼镜及3D显示系统。
背景技术
目前3D显示颇受关注,与普通2D画面显示相比,3D技术可以使画面变得立体逼真,图像不再局限于屏幕平面,仿佛能够走出屏幕外面,使观众有身临其境的感觉。尽管3D显示技术分类繁多,不过最基本的原理是相似的,即利用人眼左、右分别接收不同画面,然后大脑经过对图像信息进行叠加重生,构成一个具有前—后、上—下、左—右、远—近等立体方向效果的影像。
目前3D显示技术主要分为眼镜式及裸眼式两大类。前者基于传统的左右眼立体成像技术,即拍摄时通过单台或两台摄影设备分别记录左眼和右眼的影像,在观看的时候佩戴相应的立体眼镜,使得左、右眼能够看到对应的左眼和右眼影像;后者基于屏幕从不同角度发出多道光线,以生成立体影像,因此不用戴眼镜就能看到3D图像,由于这种技术主要依赖于液晶面板的材质革新,因此又称为“被动式”3D技术。
在眼镜式3D技术中,又可以细分出三种主要的类型:色差式、偏光式和主动快门。这些眼镜所实现的目的就是让用户的左、右眼看到存在微小视差的不同影像,从而使用户感觉到3D画面。眼镜式3D技术发展相对比较成熟,无论是色差式、偏光式还是主动快门式,在市场上均很常见,尤其以“主动快门式”3D显示技术备受关注,这种技术图像效果出色,能保持画面原始的分辨率,实现真正的全高清效果,不会造成画面亮度降低。
然而,目前用户只能通过3D眼镜单方面被动浏览屏幕上的3D内容,而不能通过3D眼镜与所看到的3D内容进行互动。
实用新型内容
(一)要解决的技术问题
本实用新型要解决的技术问题是如何使用户与所看到的3D内容进行有效互动。
(二)技术方案
为了解决上述技术问题,根据本实用新型的第一方面,提供了一种3D眼镜,包括:3D图像呈现模块,用于向用户呈现3D显示装置提供的3D图像;手势信息获取模块,用于获取所述用户的手势信息,并将所述手势信息提供给手势信息处理模块;手势信息处理模块,用于根据所述手势信息生成处理信息,并将所述处理信息提供给信息传送模块;信息传送模块,用于将所述处理信息发送至所述3D显示装置。
优选地,所述处理信息为操作命令或者更新后的3D图像,其中,所述操作命令用于使所述3D显示装置根据其更新所述3D图像;所述更新后的3D图像为根据所述手势信息更新的3D图像。
优选地,所述3D图像呈现模块为被动式3D镜片、偏光式3D镜片或快闪式3D镜片。
优选地,所述手势信息获取模块包括光学深度传感器。
优选地,所述手势信息包括手势状态信息和/或手的移动轨迹信息。
优选地,所述手势状态信息包括:伸掌状态、握拳状态、V型手势状态和/或竖起一个手指的状态。
优选地,所述手的移动轨迹信息呈现所述用户的精确定位操作和/或非精确定位操作,其中,所述精确定位操作包括:点击所述3D图像上的按钮和/或选择所述3D图像上的特定区域;所述非精确定位操作包括:手悬停、手从左向右划动、手从右向左划动、手从上到下划动、手从下到上划动、两手分开、两手聚拢和/或摆手。
优选地,所述操作命令用于控制所述3D显示装置实时地显示对应于所述用户手的空间虚拟指针元素,使得所述空间虚拟指针元素的运动轨迹与所述用户手的运动轨迹相一致。
优选地,所述手势信息处理模块为基于模型参考模糊自适应控制(MRFAC)的图像处理器。
优选地,所述信息传送模块采用以下任一种通信方式:通用串行总线、高清晰度多媒体接口、蓝牙、红外、无线家庭数字接口、移动通信蜂窝数据网络、WiFi。
根据本实用新型的第二方面,提供了一种3D显示系统,包括:3D显示装置,用于提供3D图像;上述任一种3D眼镜。
(三)有益效果
利用本实用新型提供的技术方案,通过获取用户的手势信息,并根据手势信息确定用户的操作命令,进一步根据操作命令更新用户看到的3D图像,从而实现了用户与所看到的3D内容进行互动。
附图说明
为了更清楚地说明本实用新型实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用附图简单地介绍显而易见地,下面描述中的附图是本实用新型的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了根据本实用新型实施例一的3D显示系统的结构示意图;
图2示出了根据本实用新型实施例二的3D显示系统的结构示意图;
图3示出了根据本实用新型实施例三的3D显示方法的流程示意图。
具体实施方式
为了使本实用新型实施例的目的、技术方案和优点更加清楚,下面将结合本实用新型实施例中的附图,对本实用新型实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例是本实用新型的一部分实施例,而不是全部的实施例。基于本实用新型中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本实用新型保护的范围。
一般而言,用户需要通过特殊的交互设备才能进入虚拟环境中,例如3D游戏。一个完整的虚拟现实系统包括以可穿戴的显示设备为核心的视觉系统,3D眼镜属于可穿戴的显示设备之一。本实用新型实施例提出的3D眼镜以及3D显示系统,使用户能够沉浸于3D立体人机自然交互界面,并与之进行包括手势交互等自然的信息交互。
根据本实用新型实施例,提出一种3D眼镜和3D显示系统,用户可以通过该3D眼镜与所看到的3D内容进行互动。具体地,用户在通过3D眼镜观看3D电视或3D投影设备等3D显示装置所提供的3D内容时,通过3D眼镜及相关模块,可以自然地通过手势针对所观看的3D内容进行互动。可以将本实用新型实施例所提出的3D眼镜应用于各种虚拟环境中。
实施例一
图1示出了根据本实用新型实施例一的3D显示系统的结构示意图。
如图1所示,该3D显示系统包括3D眼镜11和3D显示装置12。
其中,3D显示装置12用于提供3D图像,其可以是3D电视或3D投影设备等3D显示设备。
其中,3D眼镜11具体可以实施为多种物理形式,可以包括镜架、镜片等元件。另外,所述3D眼镜11包括:3D图像呈现模块111、手势信息获取模块112、手势信息处理模块113、以及信息传送模块114。上述各模块可以设置于镜架上任何适合的位置,例如镜框、镜腿等部位。
其中,3D图像呈现模块111,用于向用户呈现3D显示装置12提供的3D图像,使用户眼前出现3D显示界面。所述3D图像呈现模块111可以实施为被动式红-蓝滤色3D镜片、被动式红-绿滤色3D镜片、被动式红-青滤色3D镜片、偏光式3D镜片或快闪式3D镜片,等等。
其中,手势信息获取模块112,用于获取所述用户浏览该3D显示界面做出的手势信息,并将所述手势信息提供给手势信息处理模块113。所述手势信息获取模块112可以包括光学深度传感器(例如,摄像头),通过其实时获得用户双手或单手的深度图像,光学深度传感器可以为一个,也可以为多个,为了全面、完整地采集用户的手势,较好地,采用两个光学深度传感器,分别设置于上侧镜框的两端与两个镜腿的前端连接处。
其中,所述手势信息可以包括手势状态信息和/或手的移动轨迹信息,对于所述手势状态信息,可以包括伸掌状态、握拳状态、V型手势状态和/或竖起大拇指或其它一个手指的状态,等等;对于所述手的移动轨迹信息,可以呈现所述用户的精确定位操作和/或非精确定位操作,其中,所述精确定位操作可以包括:点击所述3D图像上的按钮和/或选择所述3D图像上的特定区域,为了实现精确操作的识别,需要实时跟踪用户手的运动轨迹并对应于交互界面上的指针元素以确定用户在交互界面上的欲精确交互元素位置,分析确定用户手部轨迹意图得出交互命令,从而实现对界面的精确操作;对于非精确定位操作的识别,只需要记录分析手的运动轨迹即可,比如,所述非精确定位操作可以包括:手悬停、手从左向右划动、手从右向左划动、手从上到下划动、手从下到上划动、两手分开、两手聚拢和/或摆手,从而实现例如“翻页”、“前进”、“后退”等命令。
其中,手势信息处理模块113,用于根据所述手势信息确定所述用户的交互意图信息,生成相应的操作命令,并将所述操作命令提供给信息传送模块114。手势信息处理模块113可以通过一系列用户识别交互软件算法确定对应于用户手势信息的交互操作命令,此外,这些用户识别交互软件还可以提供用户自定义操作接口,比如用户喜爱的特定手势轨迹代表某种用户自定义的操作命令,从而实现系统的个性化可定制特点。例如,可以在用户识别交互软件中预先设定用户的手势与各个具体交互操作命令的对应关系,而且,这种对应关系优选是可以编辑的,从而可以方便增加新出现的交互操作命令,或者基于用户习惯更改对应于交互操作命令的手势。
由于手势具有多样性和不规范特性,即使是同一个手势,不同的人都不完全一样,即便是同一个人,每次动作时也不完全一样,因此,为了能够准确地区分每个手势,优选地,所述手势信息处理模块113采用基于模型参考模糊自适应控制(MRFAC)的图像处理器。所述图像处理器采用模型参考模糊自适应控制(MRFAC)的方法进行图像处理。该方法在普通模糊控制器的基础上,增加了利用参考模型输出和实际被控对象输出之差,来在线修改常规模糊控制器规则库的辅助模糊控制器,从而提高了系统对参数不确定性的鲁棒性。
其中,所述操作命令用于控制所述3D显示装置12实时地显示对应于所述用户手的空间虚拟指针元素,使得所述空间虚拟指针元素的运动轨迹与所述用户手的运动轨迹相一致。
其中,信息传送模块114,用于将所述操作命令发送至所述3D显示装置12。所述信息传送模块114可以有多种具体实施形式,包括但不限于:通用串行总线、高清晰度多媒体接口、蓝牙、红外、无线家庭数字接口、移动通信蜂窝数据网络、WiFi。
根据本实施例,当戴着3D眼镜11的用户的手进入手势信息获取模块112的探测范围后,手势信息获取模块112实时获取用户手的深度图像序列并将其传送给手势信息处理模块113,手势信息处理模块113通过一系列软件匹配识别算法实时分析用户手的深度图像序列得到用户手的移动轨迹,并基于用户手的空间位置以及用户手的状态信息,通过一系列冗余动作匹配算法分析判断得出用户的交互意图,生成相应的操作命令,并将所述操作命令提供给信息传送模块114。
在本实施例中,3D显示装置12的图像源不是3D眼镜11,手势信息处理模块113确定对应于该手势信息的交互操作命令,并将所述交互操作命令通过信息传送模块114发送到3D显示装置12。此时,3D显示装置12可以利用该交互操作命令控制从其图像源获取的3D图像执行交互操作,并将执行该交互操作命令后的3D图像显示出来。在本实施例中,3D眼镜11并不向3D显示装置12提供3D图像,而只是确定对应于该手势信息的交互操作命令,并将所述交互操作命令通过信息传送模块114发送到3D显示装置12。此时,3D显示装置12针对从其图像源获取的3D图像执行该交互操作命令,并显示对应于执行该交互操作命令后的3D图像,所述执行该交互操作命令后的3D图像又可以通过3D眼镜11呈现给用户。
实施例二
图2示出了根据本实用新型实施例二的3D显示系统的结构示意图。
如图2所示,该3D显示系统包括3D眼镜21和3D显示装置22。
其中,3D显示装置22用于提供3D图像,其可以是3D电视或3D投影设备等3D显示设备。
与实施例一提供的3D眼镜11相比,相类似的,本实施例提供的3D眼镜21包括:3D图像呈现模块211、手势信息获取模块212、手势信息处理模块213、以及信息传送模块214。与实施例一提供的3D眼镜11相比,不同之处在于,本实施例提供的3D眼镜中的手势信息处理模块213,不是直接将所述操作命令通过信息传送模块214发送至所述3D显示装置22,而是先根据所述操作命令更新所述3D图像,之后将更新的所述3D图像通过信息传送模块214发送至所述3D显示装置22。
在本实施例中,3D显示装置22的图像源是3D眼镜21,手势信息处理模块213确定对应于该手势信息的交互操作命令,并根据所述交互操作命令更新所述3D图像,之后将更新的所述3D图像通过信息传送模块214发送到所述3D显示装置22。在本实施例中,3D眼镜21除了确定对应于该手势信息的交互操作命令之外,还进一步向3D显示装置22提供原始3D图像和更新后的3D图像,3D显示装置22显示该更新后的3D图像,该更新后的3D图像又可以通过3D眼镜21呈现给用户。
实施例三
图3示出了根据本实用新型实施例三的3D显示方法的流程示意图。
如图3所示,该3D显示方法包括:
步骤301、向用户呈现3D图像;
步骤302、获取所述用户的手势信息,并根据所述手势信息确定所述用户的操作命令;
步骤303、根据所述操作命令更新所述3D图像,并向用户呈现更新后的所述3D图像。
具体地,该3D显示方法可以通过实施例一或实施例二中的3D显示系统及其3D眼镜来实现。
当用户使用该3D显示系统时,首先在3D显示装置上显示原始3D图像。
此时,用户通过3D眼镜上的3D图像呈现模块就可以看到所述原始3D图像。
当用户做出与所述原始3D图像互动的手势时,手势信息获取模块于是获取该手势信息,并将所述手势信息提供给手势信息处理模块。
然后,手势信息处理模块根据所述手势信息确定所述用户的操作命令,并直接将所述操作命令提供给所述3D显示装置,3D显示装置针对从其图像源获取的3D图像执行该交互操作命令,并显示对应于执行该交互操作命令后的更新的3D图像;或者,手势信息处理模块根据所述操作命令更新所述3D图像,之后将更新后的所述3D图像发送至所述3D显示装置。
最后,更新后的3D图像又可以通过3D眼镜呈现给用户。
由此可见,应用本实用新型的实施例之后,用户通过3D电视或3D投影等3D显示装置观看3D内容的同时,可以利用3D眼镜通过对手势进行捕获,对看到的3D内容进行互动。
最后应说明的是:以上实施例仅用于说明本实用新型的技术方案,而非对其限制;尽管参照前述实施例对本实用新型进行了详细的说明,本领域普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中的部分技术特征进行等同替换;而这些修改或者替换,并不是相应技术方案的本质脱离本实用新型各实施例技术方案的精神和范围。这样,倘若本实用新型的这些修改和变型属于本实用新型权利要求及其等同技术的范围之内,则本实用新型也意图包含这些改动和变型在内。
Claims (11)
1.一种3D眼镜,其特征在于,包括:
3D图像呈现模块,用于向用户呈现3D显示装置提供的3D图像;
手势信息获取模块,用于获取所述用户的手势信息,并将所述手势信息提供给手势信息处理模块;
手势信息处理模块,用于根据所述手势信息生成处理信息,并将所述处理信息提供给信息传送模块;
信息传送模块,用于将所述处理信息发送至所述3D显示装置。
2.如权利要求1所述的3D眼镜,其特征在于,所述处理信息为根据手势信息确认的用户操作命令或者更新后的3D图像,其中,所述操作命令用于使所述3D显示装置根据其更新所述3D图像;所述更新后的3D图像为根据所述手势信息更新的3D图像。
3.如权利要求1或2所述的3D眼镜,其特征在于,所述3D图像呈现模块为被动式3D镜片、偏光式3D镜片或快闪式3D镜片。
4.如权利要求3所述的3D眼镜,其特征在于,所述手势信息获取模块包括光学深度传感器。
5.如权利要求1或2所述的3D眼镜,其特征在于,所述手势信息包括手势状态信息和/或手的移动轨迹信息。
6.如权利要求5所述的3D眼镜,其特征在于,所述手势状态信息包括:伸掌状态、握拳状态、V型手势状态和/或竖起一个手指的状态。
7.如权利要求5所述的3D眼镜,其特征在于,所述手的移动轨迹信息呈现所述用户的精确定位操作和/或非精确定位操作,其中,所述精确定位操作包括:点击所述3D图像上的按钮和/或选择所述3D图像上的特定区域;所述非精确定位操作包括:手悬停、手从左向右划动、手从右向左划动、手从上到下划动、手从下到上划动、两手分开、两手聚拢和/或摆手。
8.如权利要求2所述的3D眼镜,其特征在于,所述操作命令用于控制所述3D显示装置实时地显示对应于所述用户手的空间虚拟指针元素,使得所述空间虚拟指针元素的运动轨迹与所述用户手的运动轨迹相一致。
9.如权利要求1或2所述的3D眼镜,其特征在于,所述手势信息处理模块为基于模型参考模糊自适应控制(MRFAC)的图像处理器。
10.如权利要求1或2所述的3D眼镜,其特征在于,所述信息传送模块采用以下任一种通信方式:通用串行总线、高清晰度多媒体接口、蓝牙、红外、无线家庭数字接口、移动通信蜂窝数据网络、WiFi。
11.一种3D显示系统,其特征在于,包括:
3D显示装置,用于提供3D图像;
权利要求1~10中任一项所述的3D眼镜。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201320537681.6U CN203445974U (zh) | 2013-08-30 | 2013-08-30 | 3d眼镜及3d显示系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201320537681.6U CN203445974U (zh) | 2013-08-30 | 2013-08-30 | 3d眼镜及3d显示系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN203445974U true CN203445974U (zh) | 2014-02-19 |
Family
ID=50096982
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201320537681.6U Expired - Lifetime CN203445974U (zh) | 2013-08-30 | 2013-08-30 | 3d眼镜及3d显示系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN203445974U (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015027574A1 (zh) * | 2013-08-30 | 2015-03-05 | 京东方科技集团股份有限公司 | 3d眼镜、3d显示系统及3d显示方法 |
CN104484037A (zh) * | 2014-12-12 | 2015-04-01 | 三星电子(中国)研发中心 | 通过可穿戴设备进行智能控制的方法及该可穿戴设备 |
CN104780357A (zh) * | 2015-03-18 | 2015-07-15 | 四川长虹电器股份有限公司 | 快速控制电视机进入3d模式的3d眼镜及其控制方法 |
CN106980378A (zh) * | 2017-03-29 | 2017-07-25 | 联想(北京)有限公司 | 虚拟显示方法和系统 |
WO2018112688A1 (zh) * | 2016-12-19 | 2018-06-28 | 深圳前海达闼云端智能科技有限公司 | 一种弱视辅助方法和装置 |
-
2013
- 2013-08-30 CN CN201320537681.6U patent/CN203445974U/zh not_active Expired - Lifetime
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015027574A1 (zh) * | 2013-08-30 | 2015-03-05 | 京东方科技集团股份有限公司 | 3d眼镜、3d显示系统及3d显示方法 |
CN104484037A (zh) * | 2014-12-12 | 2015-04-01 | 三星电子(中国)研发中心 | 通过可穿戴设备进行智能控制的方法及该可穿戴设备 |
CN104780357A (zh) * | 2015-03-18 | 2015-07-15 | 四川长虹电器股份有限公司 | 快速控制电视机进入3d模式的3d眼镜及其控制方法 |
WO2018112688A1 (zh) * | 2016-12-19 | 2018-06-28 | 深圳前海达闼云端智能科技有限公司 | 一种弱视辅助方法和装置 |
CN106980378A (zh) * | 2017-03-29 | 2017-07-25 | 联想(北京)有限公司 | 虚拟显示方法和系统 |
CN106980378B (zh) * | 2017-03-29 | 2021-05-18 | 联想(北京)有限公司 | 虚拟显示方法和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103442244A (zh) | 3d眼镜、3d显示系统及3d显示方法 | |
US11533489B2 (en) | Reprojecting holographic video to enhance streaming bandwidth/quality | |
JP7445720B2 (ja) | 拡張現実のためのシステムおよび方法 | |
Scarfe et al. | Using high-fidelity virtual reality to study perception in freely moving observers | |
US9554126B2 (en) | Non-linear navigation of a three dimensional stereoscopic display | |
CN103067727A (zh) | 一种3d眼镜和3d显示系统 | |
US20170301137A1 (en) | Method, apparatus, and smart wearable device for fusing augmented reality and virtual reality | |
CN203445974U (zh) | 3d眼镜及3d显示系统 | |
EP2695039A2 (en) | Keyboard avatar for heads up display (hud) | |
US10701346B2 (en) | Replacing 2D images with 3D images | |
CN108428375A (zh) | 一种基于增强现实的教学辅助方法及设备 | |
WO2018149267A1 (zh) | 一种基于增强现实的显示方法及设备 | |
CN104865701A (zh) | 头戴式显示装置 | |
US10701347B2 (en) | Identifying replacement 3D images for 2D images via ranking criteria | |
CN204990186U (zh) | 一种桌面式立体显示交互系统 | |
CN105472358A (zh) | 一种关于视频图像处理的智能终端 | |
US11057612B1 (en) | Generating composite stereoscopic images usually visually-demarked regions of surfaces | |
CN103609104A (zh) | 用于立体效应调整的交互式用户接口 | |
CN107367838A (zh) | 一种基于光场成像的头戴式虚拟现实立体显示设备 | |
Dąbała et al. | Manipulating refractive and reflective binocular disparity | |
US11145113B1 (en) | Nested stereoscopic projections | |
CN204157000U (zh) | 一种裸眼3d触控一体机 | |
Wetzstein | Augmented and virtual reality | |
KR101830655B1 (ko) | 스테레오 스코픽 카메라에서 라이브 뷰 영상 표시 방법 | |
KR20120137567A (ko) | 가상 3d 공간을 이용한 웹 콘텐츠 제공시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CX01 | Expiry of patent term | ||
CX01 | Expiry of patent term |
Granted publication date: 20140219 |