CN104765156B - 一种三维显示装置和三维显示方法 - Google Patents
一种三维显示装置和三维显示方法 Download PDFInfo
- Publication number
- CN104765156B CN104765156B CN201510193772.6A CN201510193772A CN104765156B CN 104765156 B CN104765156 B CN 104765156B CN 201510193772 A CN201510193772 A CN 201510193772A CN 104765156 B CN104765156 B CN 104765156B
- Authority
- CN
- China
- Prior art keywords
- coordinate
- left eye
- right eye
- anaglyph
- dimensional display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/34—Stereoscopes providing a stereoscopic pair of separated images corresponding to parallactically displaced views of the same object, e.g. 3D slide viewers
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供一种三维显示装置和三维显示方法,第一确定单元确定左眼的第一坐标和右眼的第二坐标,第一生成单元根据所述第一坐标、第二坐标以及第三坐标生成左眼视差图像的第四坐标和右眼视差图像的第五坐标,所述第三坐标为三维图像预设的显示位置,第二生成单元在所述第四坐标处生成左眼视差图像,以及在所述第五坐标处生成右眼视差图像,显示单元根据所述左眼视差图像和所述右眼视差图像在所述第三坐标处显示所述三维图像。本发明提供的三维显示装置可以在观测者预先指定的显示位置显示三维图像,从而在虚拟现实中实现观测者与虚拟物体的人机交互。
Description
技术领域
本发明涉及显示技术领域,尤其涉及一种三维显示装置和三维显示方法。
背景技术
现有的三维显示装置是利用人眼左右分别接收不同画面,然后大脑经过对图像信息进行叠加重生,从而形成在观看者的大脑中存在的三维空间。然而,上述三维显示装置只能在观看者的大脑中形成三维空间,而无法在虚拟现实中实现人机交互。
发明内容
为解决上述问题,本发明提供一种三维显示装置和三维显示方法,用于解决现有技术中三维显示装置只能在观看者的大脑中形成三维空间,而无法在虚拟现实中实现人机交互的问题。
为此,本发明提供一种三维显示装置,包括:
第一确定单元,用于确定左眼的第一坐标和右眼的第二坐标;
第一生成单元,用于根据所述第一坐标、第二坐标以及第三坐标生成左眼视差图像的第四坐标和右眼视差图像的第五坐标,所述第三坐标为三维图像预设的显示位置;
第二生成单元,用于在所述第四坐标处生成左眼视差图像,以及在所述第五坐标处生成右眼视差图像;
显示单元,用于根据所述左眼视差图像和所述右眼视差图像在所述第三坐标处显示所述三维图像。
可选的,还包括:
第二确定单元,用于确定肢体的第六坐标;
第三确定单元,用于根据所述第六坐标确定所述第三坐标。
可选的,所述第一确定单元包括第一体感器,所述第一体感器用于检测所述第一坐标和所述第二坐标。
可选的,所述第一确定单元具体用于根据预设的标准第四坐标、预设的标准第五坐标以及所述第三坐标确定所述第一坐标和所述第二坐标。
可选的,所述第二确定单元包括第二体感器,所述第二体感器用于检测所述第六坐标。
本发明还提供一种三维显示方法,包括:
确定左眼的第一坐标和右眼的第二坐标;
根据所述第一坐标、第二坐标以及第三坐标生成左眼视差图像的第四坐标和右眼视差图像的第五坐标,所述第三坐标为三维图像预设的显示位置;
在所述第四坐标处生成左眼视差图像,以及在所述第五坐标处生成右眼视差图像;
根据所述左眼视差图像和所述右眼视差图像在所述第三坐标处显示所述三维图像。
可选的,所述根据所述第一坐标、第二坐标以及第三坐标生成左眼视差图像的第四坐标和右眼视差图像的第五坐标的步骤之前包括:
确定肢体的第六坐标;
根据所述第六坐标确定所述第三坐标。
可选的,所述确定左眼的第一坐标和右眼的第二坐标的步骤包括:
采用第一体感器检测所述第一坐标和所述第二坐标。
可选的,所述确定左眼的第一坐标和右眼的第二坐标的步骤包括:
根据预设的标准第四坐标、预设的标准第五坐标以及所述第三坐标确定所述第一坐标和所述第二坐标。
可选的,所述确定肢体的第六坐标的步骤包括:
采用第二体感器检测所述第六坐标。
本发明具有下述有益效果:
本发明提供的三维显示装置和三维显示方法中,第一确定单元确定左眼的第一坐标和右眼的第二坐标,第一生成单元根据所述第一坐标、第二坐标以及第三坐标生成左眼视差图像的第四坐标和右眼视差图像的第五坐标,所述第三坐标为三维图像预设的显示位置,第二生成单元在所述第四坐标处生成左眼视差图像,以及在所述第五坐标处生成右眼视差图像,显示单元根据所述左眼视差图像和所述右眼视差图像在所述第三坐标处显示所述三维图像。本发明提供的三维显示装置可以在观测者预先指定的显示位置显示三维图像,从而在虚拟现实中实现观测者与虚拟物体的人机交互。
附图说明
图1为本发明实施例一提供的一种三维显示装置的结构示意图;
图2为图1所示三维显示装置的一种双目视差三维显示示意图;
图3为图1所示三维显示装置的另一种双目视差三维显示示意图;
图4为本发明实施例二提供的一种三维显示方法的流程图;
图5为实施例二中的一种虚拟现实的三维坐标系的示意图。
具体实施方式
为使本领域的技术人员更好地理解本发明的技术方案,下面结合附图对本发明提供的三维显示装置和三维显示方法进行详细描述。
实施例一
图1为本发明实施例一提供的一种三维显示装置的结构示意图。如图1所示,所述三维显示装置包括第一确定单元101、第一生成单元102、第二生成单元103以及显示单元104。所述第一确定单元101确定左眼的第一坐标和右眼的第二坐标,所述第一生成单元102根据所述第一坐标、第二坐标以及第三坐标生成左眼视差图像的第四坐标和右眼视差图像的第五坐标,所述第三坐标为三维图像预设的显示位置,所述第二生成单元103在所述第四坐标处生成左眼视差图像,以及在所述第五坐标处生成右眼视差图像,所述显示单元104根据所述左眼视差图像和所述右眼视差图像在所述第三坐标处显示所述三维图像。具有视差的图像针对用户的左眼和右眼分开地显示,从而利用两眼视差实现三维视觉。本实施例提供的三维显示装置可以采用任意一种三维显示方式,例如,眼镜方式或者裸眼方式等。
在实际应用中,所述显示单元104可以是3D电视、平板、手机、眼镜等三维视差显示设备,上述显示设备的三维显示方式不限于眼镜方式或者裸眼方式。所述显示单元104负责从所述第二生成单元103获取左眼视差图像数据和右眼视差图像数据,以将视差图像显示,从而生成虚拟现实中的虚拟物体。
图2为图1所示三维显示装置的一种双目视差三维显示示意图,图3为图1所示三维显示装置的另一种双目视差三维显示示意图。图2示出了三维物体的虚拟位置设置在人眼与显示屏的外侧的示意图,图3示出了三维物体的虚拟位置设置在人眼与显示屏的内侧的示意图。如图2和图3所示,点A为用户感知三维物体的虚拟位置。点B为用户左眼的位置,点C为用户右眼的位置。点D指示针对左眼视差图像而实际显示在显示屏DE上的物体的位置。点E指示针对右眼视差图像而实际显示在显示屏DE上的物体的位置。可选的,所述第一确定单元包括第一体感器,所述第一体感器用于检测所述第一坐标和所述第二坐标。因此,可以直接利用所述第一体感器测量出左眼和右眼的坐标位置。所述三维显示装置运行过程中,所述第一体感器可以对左眼位置B点坐标和右眼位置C点坐标的变化量进行跟踪,以随时修正DE两点的坐标值,从而更加精准地在预设位置A点显示三维图像。
参见图2和图3,由于三角形ABC与ADE相似,因此线段AD与线段AB之比、线段AE与线段AC之比与线段DE与线段BC之比相等。假设左眼与右眼的位置是固定的,想要在A点位置看到三维显示图像,只要能够在D点生成左眼视差图像,以及在E点生成右眼视差图像就可以在A点显示三维图像。因此,现在只要确定了D点和E点的坐标就可以在A点实现三维显示,而ABC三点的坐标位置是可以预先确定的,再根据上述线段之间的比例关系,就可以计算出DE两点的位置关系,从而可以在观测者预先指定的显示位置A点显示三维图像,最终在虚拟现实中实现观测者与虚拟物体的人机交互。
本实施例中,所述第一确定单元可以根据预设的标准第四坐标、预设的标准第五坐标以及所述第三坐标确定所述第一坐标和所述第二坐标。具体来说,由于线段AD与线段AB之比、线段AE与线段AC之比与线段DE与线段BC之比相等,因此预先确定ADE三点的坐标后可以倒推出BC两点的坐标。具体方法将在实施例二中描述,此处不再赘述。
本实施例中,所述三维显示装置还包括第二确定单元和第三确定单元,所述第二确定单元确定肢体的第六坐标,所述第三确定单元根据所述第六坐标确定所述第三坐标。可选的,所述第二确定单元包括第二体感器,所述第二体感器用于检测所述第六坐标。因此,可以直接通过第二体感器测量出肢体的坐标位置。所述肢体可以为用户的手指,所述三维显示装置根据手指的坐标位置确定出显示位置A点,从而在A点显示虚拟物体,最终在用户与所述虚拟物体之间建立交互关系,实现人机互动,例如,用户抓取或移动物体等动作。
本实施例提供的三维显示装置和三维显示方法中,第一确定单元确定左眼的第一坐标和右眼的第二坐标,第一生成单元根据所述第一坐标、第二坐标以及第三坐标生成左眼视差图像的第四坐标和右眼视差图像的第五坐标,所述第三坐标为三维图像预设的显示位置,第二生成单元在所述第四坐标处生成左眼视差图像,以及在所述第五坐标处生成右眼视差图像,显示单元根据所述左眼视差图像和所述右眼视差图像在所述第三坐标处显示所述三维图像。本实施例提供的三维显示装置可以在观测者预先指定的显示位置显示三维图像,从而在虚拟现实中实现观测者与虚拟物体的人机交互。
实施例二
图4为本发明实施例二提供的一种三维显示方法的流程图。如图4所示,所述三维显示方法包括:
步骤4001、确定左眼的第一坐标和右眼的第二坐标。
在实际应用中,可以采用第一体感器检测所述第一坐标和所述第二坐标。因此,可以直接利用所述第一体感器测量出左眼和右眼的坐标位置。参见图2和图3,所述三维显示装置运行过程中,所述第一体感器可以对左眼位置B点坐标和右眼位置C点坐标的变化量进行跟踪,以随时修正DE两点的坐标值,从而更加精准地在预设位置A点显示三维图像。
本实施例中,可以根据预设的标准第四坐标、预设的标准第五坐标以及所述第三坐标确定所述第一坐标和所述第二坐标。具体来说,由于线段AD与线段AB之比、线段AE与线段AC之比与线段DE与线段BC之比相等,因此预先确定ADE三点的坐标后可以倒推出BC两点的坐标。图5为实施例二中的一种虚拟现实的三维坐标系的示意图。如图5所示,在显示平面上设置三维坐标原点(0,0,0),而且设定左眼与右眼之间的连线与X轴平行,经过两眼与所述显示平面平行的平面为观察平面。要计算出左眼B点坐标(lx,ey,ez)与右眼C点坐标(rx,ey,ez),可以预先设定D点坐标为(-t,0,0)、E点坐标为(t,0,0),观测者用手指定位所感受到的虚拟物体位置,并由第二体感器检测手指的位置A点坐标为(px,py,pz),从而可以得出下列方程式:
假设左眼与右眼之间的距离为65mm,则可以得出
4) rx-lx=0.065;
由上述四个方程式可以求出四个未知数lx、rx、ey和ez,从而计算出左眼B点坐标(lx,ey,ez)与右眼C点坐标(rx,ey,ez)。
在实际应用中,也可以由第二体感器检测出两个虚拟物体的坐标为(px,py,pz)和(px2,py2,pz2),对应的D点坐标为(-t,0,0)和(-t2,0,0)、E点坐标为(t,0,0)和(-t2,0,0),从而可以得出下列方程式:
从上述六个方程式中任意选出四个方程式就可以求出四个未知数lx,rx,ey和ez,从而计算出左眼B点坐标(lx,ey,ez)与右眼C点坐标(rx,ey,ez)。
本实施例中,确定了双眼的坐标参数之后,对于任意给定的虚拟物体的A点坐标(px,py,pz),通过本实施例提供的方法可以确定所述显示平面上左眼视差图像的位置D点坐标(-t,0,0)以及右眼视差图像的位置E点坐标(t,0,0),根据所述左眼视差图像和所述右眼视差图像就可以在观测者预先指定的显示位置显示三维图像,从而在虚拟现实中实现观测者与虚拟物体的人机交互。而且,对于人眼位置,可以进行持续跟踪,以修正左眼位置(lx,ey,ez)和右眼位置(rx,ey,ez),从而可以在虚拟现实的应用中,观测者用手可以触摸、移动虚拟物体,以实现交互。
步骤4002、根据所述第一坐标、第二坐标以及第三坐标生成左眼视差图像的第四坐标和右眼视差图像的第五坐标,所述第三坐标为三维图像预设的显示位置。
在所述步骤4002之前,可以先确定肢体的第六坐标,然后根据所述第六坐标确定所述第三坐标。可选的,采用第二体感器检测所述第六坐标。因此,可以直接通过第二体感器测量出肢体的坐标位置。所述肢体可以为用户的手指,所述三维显示装置根据手指的坐标位置确定出显示位置A点,从而在A点显示虚拟物体,最终在用户与所述虚拟物体之间建立交互关系,实现人机互动,例如,用户抓取或移动物体等动作。
步骤4003、在所述第四坐标处生成左眼视差图像,以及在所述第五坐标处生成右眼视差图像。
本实施例中,具有视差的图像针对用户的左眼和右眼分开地显示,从而利用两眼视差实现三维视觉。本实施例提供的三维显示方法可以采用任意一种三维显示方式,例如,眼镜方式或者裸眼方式等。
步骤4004、根据所述左眼视差图像和所述右眼视差图像在所述第三坐标处显示所述三维图像。
在实际应用中,所述显示单元104可以是3D电视、平板、手机、眼镜等三维视差显示设备,上述显示设备的三维显示方式不限于眼镜方式或者裸眼方式。所述显示单元104负责从所述第二生成单元103获取左眼视差图像数据和右眼视差图像数据,以将视差图像显示,从而生成虚拟现实中的虚拟物体。
本实施例提供的三维显示方法中,确定左眼的第一坐标和右眼的第二坐标,根据所述第一坐标、第二坐标以及第三坐标生成左眼视差图像的第四坐标和右眼视差图像的第五坐标,所述第三坐标为三维图像预设的显示位置,在所述第四坐标处生成左眼视差图像,以及在所述第五坐标处生成右眼视差图像,根据所述左眼视差图像和所述右眼视差图像在所述第三坐标处显示所述三维图像。本实施例提供的三维显示方法可以在观测者预先指定的显示位置显示三维图像,从而在虚拟现实中实现观测者与虚拟物体的人机交互。
可以理解的是,以上实施方式仅仅是为了说明本发明的原理而采用的示例性实施方式,然而本发明并不局限于此。对于本领域内的普通技术人员而言,在不脱离本发明的精神和实质的情况下,可以做出各种变型和改进,这些变型和改进也视为本发明的保护范围。
Claims (6)
1.一种三维显示装置,其特征在于,包括:
第一确定单元,用于确定左眼的第一坐标和右眼的第二坐标;
第二确定单元,用于确定肢体的第六坐标;
第三确定单元,用于根据所述第六坐标确定第三坐标;
第一生成单元,用于根据所述第一坐标、第二坐标以及第三坐标生成左眼视差图像的第四坐标和右眼视差图像的第五坐标,所述第三坐标为三维图像预设的显示位置;
第二生成单元,用于在所述第四坐标处生成左眼视差图像,以及在所述第五坐标处生成右眼视差图像;
显示单元,用于根据所述左眼视差图像和所述右眼视差图像在所述第三坐标处显示所述三维图像。
2.根据权利要求1所述的三维显示装置,其特征在于,所述第一确定单元包括第一体感器,所述第一体感器用于检测所述第一坐标和所述第二坐标。
3.根据权利要求1所述的三维显示装置,其特征在于,所述第二确定单元包括第二体感器,所述第二体感器用于检测所述第六坐标。
4.一种三维显示方法,其特征在于,包括:
确定左眼的第一坐标和右眼的第二坐标;
确定肢体的第六坐标;
根据所述第六坐标确定第三坐标;
根据所述第一坐标、第二坐标以及第三坐标生成左眼视差图像的第四坐标和右眼视差图像的第五坐标,所述第三坐标为三维图像预设的显示位置;
在所述第四坐标处生成左眼视差图像,以及在所述第五坐标处生成右眼视差图像;
根据所述左眼视差图像和所述右眼视差图像在所述第三坐标处显示所述三维图像。
5.根据权利要求4所述的三维显示方法,其特征在于,所述确定左眼的第一坐标和右眼的第二坐标的步骤包括:
采用第一体感器检测所述第一坐标和所述第二坐标。
6.根据权利要求4所述的三维显示方法,其特征在于,所述确定肢体的第六坐标的步骤包括:
采用第二体感器检测所述第六坐标。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510193772.6A CN104765156B (zh) | 2015-04-22 | 2015-04-22 | 一种三维显示装置和三维显示方法 |
EP16774840.9A EP3286601B1 (en) | 2015-04-22 | 2016-04-06 | A method and apparatus for displaying a virtual object in three-dimensional (3d) space |
US15/304,839 US20170185147A1 (en) | 2015-04-22 | 2016-04-06 | A method and apparatus for displaying a virtual object in three-dimensional (3d) space |
PCT/CN2016/078552 WO2016169409A1 (en) | 2015-04-22 | 2016-04-06 | A method and apparatus for displaying a virtual object in three-dimensional (3d) space |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510193772.6A CN104765156B (zh) | 2015-04-22 | 2015-04-22 | 一种三维显示装置和三维显示方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104765156A CN104765156A (zh) | 2015-07-08 |
CN104765156B true CN104765156B (zh) | 2017-11-21 |
Family
ID=53647090
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510193772.6A Active CN104765156B (zh) | 2015-04-22 | 2015-04-22 | 一种三维显示装置和三维显示方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20170185147A1 (zh) |
EP (1) | EP3286601B1 (zh) |
CN (1) | CN104765156B (zh) |
WO (1) | WO2016169409A1 (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104765156B (zh) * | 2015-04-22 | 2017-11-21 | 京东方科技集团股份有限公司 | 一种三维显示装置和三维显示方法 |
US10607413B1 (en) | 2015-09-08 | 2020-03-31 | Ultrahaptics IP Two Limited | Systems and methods of rerendering image hands to create a realistic grab experience in virtual reality/augmented reality environments |
CN106228530B (zh) * | 2016-06-12 | 2017-10-10 | 深圳超多维光电子有限公司 | 一种立体摄影方法、装置及立体摄影设备 |
CN106919928A (zh) * | 2017-03-08 | 2017-07-04 | 京东方科技集团股份有限公司 | 手势识别系统、方法及显示设备 |
CN109511004B (zh) * | 2017-09-14 | 2023-09-01 | 中兴通讯股份有限公司 | 一种视频处理方法及装置 |
US11048375B2 (en) * | 2018-09-18 | 2021-06-29 | Alibaba Group Holding Limited | Multimodal 3D object interaction system |
CN113100717B (zh) * | 2021-04-25 | 2023-02-28 | 郑州大学 | 适于眩晕患者的裸眼3d眩晕训练系统及评测方法 |
CN118192812B (zh) * | 2024-05-17 | 2024-08-09 | 深圳市立体通技术有限公司 | 人机交互方法、装置、计算机设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004347727A (ja) * | 2003-05-20 | 2004-12-09 | Hamamatsu Godo Kk | ステレオグラムの裸眼立体視を補助する方法及び装置 |
CN103442244A (zh) * | 2013-08-30 | 2013-12-11 | 北京京东方光电科技有限公司 | 3d眼镜、3d显示系统及3d显示方法 |
CN104503092A (zh) * | 2014-11-28 | 2015-04-08 | 深圳市亿思达科技集团有限公司 | 不同角度和距离自适应的三维显示方法及设备 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6064354A (en) * | 1998-07-01 | 2000-05-16 | Deluca; Michael Joseph | Stereoscopic user interface method and apparatus |
WO2006087663A1 (en) * | 2005-02-17 | 2006-08-24 | Koninklijke Philips Electronics N.V. | Autostereoscopic display |
CN104331152B (zh) * | 2010-05-24 | 2017-06-23 | 原相科技股份有限公司 | 三维影像互动系统 |
JP5640680B2 (ja) * | 2010-11-11 | 2014-12-17 | ソニー株式会社 | 情報処理装置、立体視表示方法及びプログラム |
US20130154913A1 (en) * | 2010-12-16 | 2013-06-20 | Siemens Corporation | Systems and methods for a gaze and gesture interface |
US8203502B1 (en) * | 2011-05-25 | 2012-06-19 | Google Inc. | Wearable heads-up display with integrated finger-tracking input sensor |
EP2788839A4 (en) * | 2011-12-06 | 2015-12-16 | Thomson Licensing | METHOD AND SYSTEM FOR RESPONDING TO USER GESTURES FOR SELECTION OF OBJECTS DISPLAYED IN THREE DIMENSIONS |
CN103293685A (zh) * | 2012-03-04 | 2013-09-11 | 王淩宇 | 一种可交互的立体视频眼镜 |
CN103941851B (zh) * | 2013-01-23 | 2017-03-15 | 青岛海信电器股份有限公司 | 一种实现虚拟触摸校准的方法以及系统 |
CN103246070B (zh) * | 2013-04-28 | 2015-06-03 | 青岛歌尔声学科技有限公司 | 具有手势控制功能的3d眼镜及其手势控制方法 |
KR102077105B1 (ko) * | 2013-09-03 | 2020-02-13 | 한국전자통신연구원 | 사용자 인터랙션을 위한 디스플레이를 설계하는 장치 및 방법 |
US9804395B2 (en) * | 2014-01-29 | 2017-10-31 | Ricoh Co., Ltd | Range calibration of a binocular optical augmented reality system |
CN104765156B (zh) * | 2015-04-22 | 2017-11-21 | 京东方科技集团股份有限公司 | 一种三维显示装置和三维显示方法 |
CN105120253B (zh) * | 2015-09-10 | 2018-01-30 | 京东方科技集团股份有限公司 | 3d播放系统 |
-
2015
- 2015-04-22 CN CN201510193772.6A patent/CN104765156B/zh active Active
-
2016
- 2016-04-06 WO PCT/CN2016/078552 patent/WO2016169409A1/en active Application Filing
- 2016-04-06 US US15/304,839 patent/US20170185147A1/en not_active Abandoned
- 2016-04-06 EP EP16774840.9A patent/EP3286601B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004347727A (ja) * | 2003-05-20 | 2004-12-09 | Hamamatsu Godo Kk | ステレオグラムの裸眼立体視を補助する方法及び装置 |
CN103442244A (zh) * | 2013-08-30 | 2013-12-11 | 北京京东方光电科技有限公司 | 3d眼镜、3d显示系统及3d显示方法 |
CN104503092A (zh) * | 2014-11-28 | 2015-04-08 | 深圳市亿思达科技集团有限公司 | 不同角度和距离自适应的三维显示方法及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN104765156A (zh) | 2015-07-08 |
US20170185147A1 (en) | 2017-06-29 |
WO2016169409A1 (en) | 2016-10-27 |
EP3286601A1 (en) | 2018-02-28 |
EP3286601A4 (en) | 2018-12-05 |
EP3286601B1 (en) | 2023-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104765156B (zh) | 一种三维显示装置和三维显示方法 | |
WO2017054421A1 (zh) | 调整虚拟现实图像的方法及装置 | |
US9684169B2 (en) | Image processing apparatus and image processing method for viewpoint determination | |
US10884576B2 (en) | Mediated reality | |
WO2018125742A3 (en) | Dynamic depth-based content creation in virtual reality environments | |
Livingston et al. | Pursuit of “X-ray vision” for augmented reality | |
KR20120015564A (ko) | 하이브리드 사용자 추적 센서를 이용한 디스플레이 시스템 및 방법 | |
CN103543830B (zh) | 一种人体骨骼点映射至立体显示中虚拟三维空间点的方法 | |
CN106454311A (zh) | 一种led三维成像系统及方法 | |
CN103488292B (zh) | 一种立体应用图标的控制方法及装置 | |
CN111033573B (zh) | 信息处理装置、系统、图像处理方法及存储介质 | |
KR101916663B1 (ko) | 이용자의 시선 방향 또는 중력 방향 중 적어도 하나를 이용하여 3차원 영상을 표시하는 3차원 디스플레이 장치 | |
JP2019008623A (ja) | 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体 | |
US11302023B2 (en) | Planar surface detection | |
CN104581350A (zh) | 一种显示方法和显示装置 | |
Hartle et al. | Cue vetoing in depth estimation: Physical and virtual stimuli | |
US20170300121A1 (en) | Input/output device, input/output program, and input/output method | |
TWI411760B (zh) | Calculation of the distance between eyes | |
PL411338A1 (pl) | Sposób interakcji z wirtualnymi obiektami w przestrzeni trójwymiarowej oraz system do interakcji z wirtualnymi obiektami w przestrzeni trójwymiarowej | |
KR101807512B1 (ko) | 맵핑형 3차원 상호작용 장치 및 방법 | |
Smith et al. | Optical see-through HUDs effect on depth judgments of real world objects | |
CN102262706B (zh) | 双眼间距的计算方法 | |
KR20100062774A (ko) | 동화상 입력장치를 이용한 3차원 가상현실 디스플레이 시스템 및 방법 | |
US20170310944A1 (en) | Input/output device, input/output program, and input/output method | |
Wibirama et al. | Error correction in geometric method of 3d gaze measurement using singular value decomposition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
EXSB | Decision made by sipo to initiate substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |