CN105867597A - 3d交互方法及3d显示设备 - Google Patents
3d交互方法及3d显示设备 Download PDFInfo
- Publication number
- CN105867597A CN105867597A CN201510033148.XA CN201510033148A CN105867597A CN 105867597 A CN105867597 A CN 105867597A CN 201510033148 A CN201510033148 A CN 201510033148A CN 105867597 A CN105867597 A CN 105867597A
- Authority
- CN
- China
- Prior art keywords
- display screen
- distance
- viewing
- parallax
- operation body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 70
- 230000003993 interaction Effects 0.000 title claims abstract description 57
- 238000006073 displacement reaction Methods 0.000 claims description 33
- 238000003384 imaging method Methods 0.000 claims description 20
- 238000012545 processing Methods 0.000 claims description 17
- 238000001514 detection method Methods 0.000 claims description 10
- 230000001179 pupillary effect Effects 0.000 claims description 4
- 239000000725 suspension Substances 0.000 claims description 3
- 230000008569 process Effects 0.000 abstract description 15
- 230000000694 effects Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 18
- 230000008859 change Effects 0.000 description 6
- 230000008707 rearrangement Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 208000002173 dizziness Diseases 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 2
- XOOUIPVCVHRTMJ-UHFFFAOYSA-L zinc stearate Chemical compound [Zn+2].CCCCCCCCCCCCCCCCCC([O-])=O.CCCCCCCCCCCCCCCCCC([O-])=O XOOUIPVCVHRTMJ-UHFFFAOYSA-L 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 229920000642 polymer Polymers 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明涉及一种3D交互方法及3D显示设备。其中,所述3D交互方法包括:检测操作体与所述3D显示设备的显示屏幕之间的距离;判断所述操作体与所述显示屏幕之间的距离是否小于所述操作体所指的3D图像凸出于所述显示屏幕的最大距离;如果是,则获取观看对象与所述显示屏幕之间的观看距离;以及根据所述获取的观看距离、所述操作体与所述显示屏幕之间的距离,调整所述操作体所指的3D图像的视差,以使所述操作体所指的3D图像凸出于所述显示屏幕的实际距离等于所述操作体与所述显示屏幕之间的距离。本发明可以避免3D交互过程中出现操作体看起来穿过3D图像和操作体未完全操作到3D图像的问题。
Description
技术领域
本发明涉及显示技术领域,特别涉及3D显示技术领域,尤其涉及一种3D交互方法及3D显示设备。
背景技术
为突破平面显示的局限性,近年来3D显示技术有了显著的发展,同时也诞生了各种各样的3D交互方案。但这些方案大多只是将显示画面由传统的平面显示转换为3D显示,并未完全考虑到3D显示状态下的交互问题。特别是在当前采用触屏实现交互的主流趋势下,在通过操作体(例如手指或触控笔)操控触屏上显示的3D图像时,经常会出现操作体看起来穿过3D图像在触屏上操作的错觉(如图1所示),给观看对象带来头晕、不真实等不好的体验。为解决这个问题,现有技术中有些方案已经提出了根据操作体与触屏之间的空间位置来调节3D图像的画面视差,以改善上述不好的体验的方案。
上述根据操作体与触屏之间的空间位置来调节3D物体画面视差的方式,在一定程度上可以解决3D交互过程中的技术问题。但是,该方案还是并未完全解决这一问题。
发明内容
因此,为克服上述问题,本发明提出一种3D交互方法、装置及3D显示设备。
具体地,本发明实施例提出的一种3D交互方法,适用于3D显示设备,所述方法包括:检测操作体与所述3D显示设备的显示屏幕之间的距离;判断所述操作体与所述显示屏幕之间的距离是否小于所述操作体所指的3D图像凸出于所述显示屏幕的最大距离;如果是,则获取观看对象与所述显示屏幕之间的观看距离;以及根据所述获取的观看距离、所述操作体与所述显示屏幕之间的距离,调整所述操作体所指的3D图像的视差,以使所述操作体所指的3D图像凸出于所述显示屏幕的实际距离等于所述操作体与所述显示屏幕之间的距离。
此外,本发明实施例还提出的一种3D显示设备,包括:检测模块,用于检测操作体与所述3D显示设备的显示屏幕之间的距离;判断模块,用于判断所述检测模块检测到的距离是否小于所述操作体所指的3D图像凸出于所述显示屏幕的最大距离;获取模块,用于当所述判断模块的判断结果为是时,获取观看对象与所述显示屏幕之间的观看距离;以及处理模块,用于根据所述获取模块获取的观看距离、所述检测模块检测到的距离,调整所述操作体所指的3D图像的视差,以使所述操作体所指的3D图像凸出于所述显示屏幕的实际距离等于所述操作体与所述显示屏幕之间的距离。
另外,本发明实施例还提出的一种3D显示设备,包括悬浮触控感应器、空间距离感测器、用于显示3D图像的显示屏幕以及处理器,所述悬浮触控感应器,用于检测所述操作体与所述设备的显示屏幕之间的距离;所述处理器,用于判断所述操作体与所述显示屏幕之间的距离是否小于所述操作体所指的3D图像凸出于所述显示屏幕的最大距离;所述空间距离感测器,用于当处理器的判断结果为是时,获取观看对象与所述显示屏幕之间的观看距离;所述处理器,还用于根据所述空间距离感测器获取的观看距离、所述悬浮触控感应器检测的距离,调整所述操作体所指的3D图像的视差,以使所述操作体所指的3D图像凸出于所述显示屏幕的实际距离等于所述操作体与所述显示屏幕之间的距离。
本发明实施例提供的3D交互方法及3D显示设备,在现有技术的基础上,结合悬浮触控技术,充分考虑观看对象的观看距离对3D交互体验的影响,根据观看对象的观看位置、操作体与显示屏幕之间的距离、以及3D图像凸出显示屏幕的最大距离实时调整3D图像的视差,以从根本上解决3D交互过程中因出现操作体看起来穿过3D图像在触屏上操作的错觉而导致的观看对象头晕、真实感不强的问题。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其他目的、特征和优点能够更明显易懂,以下特举较佳实施例,并配合附图,详细说明如下。
附图说明
图1为3D交互过程中操作体看起来穿过所指向的3D图像的示意图。
图2示出了一种可应用于本发明实施例中的3D显示设备的结构框图。
图3为本发明实施例所涉及标号的标示示意图之一。
图4为本发明实施例所涉及标号的标示示意图之二。
图5为3D交互过程中操作体按下所指向的3D图像的示意图。
图6为观看对象的观看距离对3D图像凸出于显示屏幕的实际距离的影响示意图。
图7是本发明第一实施例提供的3D交互方法的流程示意图。
图8是本发明第一实施例所提供的3D交互方法的原理示意图。
图9A是本发明第二实施例提供的3D交互方法的原理示意图之一。
图9B是本发明第二实施例提供的3D交互方法的原理示意图之二。
图10是本发明第三实施例提供的3D交互方法的流程示意图。
图11是本发明第四实施例提供的3D交互方法的流程示意图。
图12是本发明第四实施例提供的3D交互方法的三种响应的效果示意图。
图13为本发明第五实施例提供的一种3D显示设备的结构示意图。
图14为本发明第五实施例提供的一种3D显示设备的存储环境示意图。
具体实施方式
为更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明提出的3D交互方法及3D显示设备的具体实施方式、结构、特征及其功效,详细说明如下:
图2示出了一种可应用于本发明实施例中的3D显示设备的结构框图。如图2所示,3D显示设备100包括存储器102、存储控制器104,一个或多个(图中仅示出一个)处理器106、外设接口108、悬浮触控感应器110、空间距离感测器112以及显示屏幕114等组件。
可以理解,图2所示的结构仅为示意,3D显示设备100还可包括比图2中所示更多或者更少的组件,或者具有与图2所示不同的配置。图2中所示的各组件可以采用硬件、软件或其组合实现。
存储器102可用于存储软件程序以及模块,处理器106通过运行存储在存储器102内的软件程序以及模块,从而执行各种功能应用以及数据处理,如本发明实施例提供的3D交互方法及处理装置。
存储器102可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器102可进一步包括相对于处理器106远程设置的存储器。处理器106以及其他可能的组件对存储器102的访问可在存储控制器104的控制下进行。
外设接口108将各种输入/输出装置耦合至CPU以及存储器102。处理器106运行存储器102内的各种软件、指令以执行3D显示设备100的各种功能以及进行数据处理。
在一些实施例中,外设接口108,处理器106以及存储控制器104可以在单个芯片中实现,换句话说,外设接口108、存储控制器104的功能可以集成到处理器106中。在其他一些实例中,他们可以分别由独立的芯片实现。
悬浮触控感应器110用于感测3D交互的操作体(包括手指、触控笔或其他触控操作体)的三维位置以及操作体与显示屏幕114之间的距离。悬浮触控感应器110例如可以是设置在显示屏幕114周边的红外光感测器、超声波感测器等空间感测器件。
空间距离感测器112,用于获取观看对象的观看位置与显示屏幕114之间的观看距离,该观看距离具体是观看对象与显示屏幕之间的垂直距离。空间距离感测器112可以是图像采集设备,例如摄像头,也可以是距离探测器,例如红外器等,但不限于此。从实用性出发,空间距离感测器112在获取位置信息时的能力和精度是有一定范围限制的,过大或过小都不好;而且从3D显示效果出发,当观看对象的位置信息变化过大时,图像严重拉伸,显示会完全失真;所以本发明实施例中,观看对象在使用设备时的正常范围内效果最佳。
显示屏幕114用于显示3D图像。于本发明实施例中,显示屏幕114为触控屏幕,为观看对象提供一个输出及输入界面。具体地,显示屏幕114可以向观看对象显示多媒体资源输出,这些多媒体资源输出的内容可包括文字、图形、视频、及其任意组合。显示屏幕114还接收观看对象的触控手势输入,例如观看对象的点击、滑动等手势操作,以便用户界面对象对这些观看对象的输入做出响应。检测观看对象触控输入的技术可以是基于电阻式、电容式或者其他任意可能的触控检测技术。显示屏幕114的具体实例包括但并不限于液晶显示器或发光聚合物显示器。
具体地,悬浮触控感应器110检测操作体与显示屏幕114之间的距离。处理器106,用于判断操作体与显示屏幕114之间的距离是否小于操作体所指的3D图像凸出于显示屏幕114的最大距离。
空间距离感测器112,用于当处理器106的判断结果为是时,即操作体与显示屏幕114之间的距离小于操作体所指的3D图像凸出于显示屏幕114的最大距离时,获取观看对象与显示屏幕114之间的观看距离。处理器106,还用于根据空间距离感测器112获取的观看距离、悬浮触控感应器110检测的距离,调整操作体所指的3D图像的视差,以使操作体所指的3D图像凸出于显示屏幕114的实际距离等于操作体与显示屏幕114之间的距离。其中,本发明所有实施例中所说的观看对象与显示屏幕114之间的距离,指的是观看对象与显示屏幕之间的垂直距离。
需要说明的一点是,3D显示设备在调整操作体所指的3D图像的视差时,可以采用下文中第一实施例所说的方法进行调整。例如,当观看对象在位置A处时,通过空间距离感测器112获取观看对象与所述显示屏幕之间的观看距离一(下文标识为Ta),然后处理器106根据下文中的公式(3),即Sa=S1=maTa/(ma+e),将操作体所指的3D图像的视差调整为ma。
当观看对象的位置发生变化时,空间距离感测器112还获取观看对象与显示屏幕114之间的观看距离二(下文标识为Tb),然后处理器106根据下文中的公式(4),即Sb=S1=mbTb/(mb+e),将操作体所指的3D图像的视差调整至mb。本发明实施例中的3D显示设备采用下文实施例一中所述的方法进行视差调整,即使在观看者的位置发生变化时,也能够保证操作体所指的3D图像凸出于显示屏幕的距离不会发生变化,保证用户的观看体验。
作为进一步地方案,当观看者的观看位置发生变化时,为保证操作体所指的3D图像凸出显示屏幕时的成像位置不发生变化。因此,空间距离感测器112还用于获取观看对象相对于显示屏幕114的左右方向或前后方向移动的位移。此时处理器106可以根据空间距离感测器112获取的位移,按照下文中的公式(14),即 计算观看对象的左眼所看到的视差图像在显示屏幕114左右方向上的相对移动距离PL1,根据下文中的公式(15),即 计算观看对象的右眼所看到的视差图像在显示屏幕114左右方向上的相对移动距离PR1。处理器106根据计算结果,进行相应的像素重排,以保证观看对象看到的视差图像(操作体所指的3D图像)成像位置不变,也就是说,此时3D图像凸出显示屏幕的距离、以及相对显示屏幕的位置都是没有发生变化的。
需要说明的是,处理器106根据计算结果进行像素重排,需要根据观看对象相对显示屏幕的移动方向,以确定左眼视差图像和右眼视差图像在显示屏幕上的移动方向。当观看对象相对于显示屏幕左右移动时,左眼视差图像和右眼视差图像在显示屏幕上的移动方向相同且与观看对象相对于显示屏幕的移动方向相反,即观看对象相对显示屏幕向左移动时,左眼视差图像和右眼视差图像在显示屏幕上的移动方向则为向右,反之观看对象相对显示屏幕向右移动时,左眼视差图像和右眼视差图像在显示屏幕上的移动方向则为向左。此时,左眼视差视图移动的位移为PL1,右眼视差图像移动的位移为PR1。当观看对象相对于显示屏幕前后移动时,左眼视差图像和右眼视差图像在显示屏幕上的移动方向相反。此时,当观看对象相对于显示屏幕向前移动时,左眼视差图像相对显示屏幕向右移动,右眼视差图像相对显示屏幕向左移动;当当观看对象相对于显示屏幕向后移动时,左眼视差图像相对显示屏幕向左移动,右眼视差图像相对显示屏幕向右移动。3D显示设备的具体调整方法,可以参见下文第二实施例中的描述。
同理,空间距离感测器112还可以用于获取观看对象相对于显示屏幕的上下方向移动的位移,此时处理器可以根据空间距离感测器112获取的位移,按照下文中的公式(19)和(18),即PL2=PR2=ma*D/e计算观看对象的左眼或右眼所看到的视差图像在显示屏幕上下方向上的相对移动距离PL2、PR2;此时处理器106根据计算结果,进行相应的像素重排,以保证观看对象看到的视差图像(操作体所指的3D图像)成像位置不变。需要说明的是,处理器106根据计算结果进行像素重排时,左眼视差图像和右眼视差图像在显示屏幕上的移动方向相同且与观看对象相对于显示屏幕上下移动的方向相反,即观看对象相对显示屏幕向上移动时,左眼视差图像和右眼视差图像在显示屏幕上的移动方向为向下,反之亦成立。其中,3D显示设备的具体调整方法,可以参见下文第二实施例中的描述。
另外需要说明的一点是,本发明的3D显示设备,在调整操作体所指的3D图像的视差时,具体可以采用下文中第三实施例、第四实施例中所说的方法进行调整,在此不再重复描述。
下面将结合图3及图4对本发明实施例中所涉及的标号进行定义并结合图示具体解释本发明所要解决的技术问题。具体的,请参照图3及图4:
S0标示3D显示设备的悬浮触控感应器110的最大感应距离,由悬浮触控感应器的感应能力确定;
S1标示操作体与显示屏幕114所在平面panel之间的距离,当S1大于S0时,悬浮触控感应器110无法感测操作体的存在,当S1小于或等于S0时,S1的具体数值可以由悬浮触控感应器110实时感应;
S2标示某一时刻显示屏幕114显示的3D图像凸出于显示屏幕114的实际距离(图3中3D图像的虚线部分);
S3标示显示屏幕114显示的3D图像凸出于显示屏幕114的最大距离(图3中3D图像的实线部分),S3的具体数值由3D显示设备确定。其中,S3大于或等于S2。3D显示设备根据操作体所在位置对应在屏幕上的点的视差结合观看对象的观看位置和距离T,计算出该点所呈现的3D图像物体在空间中的位置,即该点所呈现物体的3D效果离屏幕的最大距离S3。
显示屏幕114显示的3D图像凸出于显示屏幕114的实际距离S2值的确定方法可以如图4所示:
在图4中,m值标示的是同一个点在左右视差图上的绝对视差,即在显示屏幕114上显示时对应的两个像素点p1和p2的绝对距离,像素p1和p2所在的平面也就是显示屏幕114所在的平面panel,观看对象双眼的瞳距是e(一般取默认值),视差m形成凸出显示屏幕114的像Q1,Q1到观看对象双眼所在平面的距离是d,Q1到显示屏幕114所在平面panel的距离即是图4中的S2,显示屏幕114所在平面panel到观看对象的距离是T,也就是观看对象的观看距离。
根据相似三角形原理,有下面的公式:
在上面的公式(1)中,由于观看对象的双眼瞳距e是固定的,因此可以得出直接影响物体凸出显示屏幕114距离大小S2的参数是3D图像视差m和观看对象的观看距离T。
为避免出现操作体穿过3D图像的错觉(如图1所示),也就是要保证操作体将3D图像按下的效果(如图5所示),则需要要求S2等于S1(即保证3D图像凸出显示屏幕114的实际距离始终等于操作体与显示屏幕114之间的距离),当S2等于S1时,有如下公式:
S2=S1=m*T/(m+e) (2)
下面通过图6说明,在假设绝对视差大小m不变时,观看对象的观看距离T对S2的影响。
如图6所示,在假设绝对视差大小m不变时(3D图像的像素点p1和p2不变时),假设当观看对象在位置A处时,观看对象与显示屏幕114所在的平面panel之间的观看距离为Ta,所看到的3D图像凸出显示屏幕114所形成的像在Q1点,Q1点与显示屏幕114之间的距离为Sa;假设当观看对象在位置B处时,观看对象与显示屏幕114所在的平面panel之间的观看距离为Tb,所看到的3D图像凸出显示屏幕形成的像在Q2点,Q2点与显示屏幕114所在的平面panel之间的距离为Sb。
由图6可以看出,当观看对象处于不同的观看位置时(位于位置A或位于位置B),具有相同绝对视差的3D图像凸出显示的最大距离和位置均不同,其结果是观看对象所观看到具有相同绝对视差的两点所呈现的立体效果和层次完全不同。也就是说,在3D图像的绝对视差相同时,该3D图像的凸出显示屏幕114的位置还受观看对象所处的观看位置的影响。
由公式(1)、(2)及图6可见,在此种情况下,仅仅依照背景技术中所提出的通过计算操作体与显示屏幕之间的间隔来调节显示的3D图像的视差方案,显然是不准确的。因为当观看对象观看位置改变时,若采用背景技术中的方案,为保证操作体与显示屏幕之间的距离等于3D图像凸出显示屏幕114的距离,则会出现操作体在Q1位置处,而3D图像的立体效果却呈现在Q2位置的情况,这仍然会导致操作体穿过3D图像的错觉,不能从根本上解决问题。
因此,在操作体与显示屏幕之间的距离保持不变且当观看对象的位置发生变化时,为保证观看对象在不同的位置看到的3D图像凸出显示屏幕的距离不变,或者说观看对象在A位置和B位置观看时,看到的3D图像凸出显示屏幕的距离不变,下面将通过配合参考图式的较佳实施例,详细描述本发明实施例提供的技术方案是如何从根本上解决上述问题的。通过具体实施方式的说明,当可对本发明为达成预定目的所采取的技术手段及功效得以更加深入且具体的了解,然而所附图式仅是提供参考与说明之用,并非用来对本发明加以限制。
第一实施例
图7是本发明第一实施例提供的3D交互方法的流程示意图,图8是本发明第一实施例提供的3D交互方法的原理示意图。该3D交互方法的执行主体例如可以是:显示3D图像的3D显示设备。请参照图7及图8,本实施例提供的3D交互方法包括:
步骤S11,检测操作体与3D显示设备的显示屏幕之间的距离。
首先,监测悬浮触控感应器是否检测到操作体与显示屏幕之间的距离S1,如果是,则执行步骤S13,否则继续监测。
如前所述,悬浮触控感应器的最大感测距离为S0,而操作体与显示屏幕之间的距离为S1,当S1比S0大时,悬浮触控感应器无法检测到感应信号。当S1比S0小时,悬浮触控感应器可以检测到感应信号,即此时悬浮触控感测器能够实时检测操作体与显示屏幕之间的距离S1。
步骤S13,判断操作体与显示屏幕之间的距离是否小于操作体所指的3D图像凸出于显示屏幕的最大距离,如果是,则执行步骤S15,否则,返回步骤S11。
当操作体与显示屏幕之间的距离S1大于或等于操作体所指的3D图像凸出于显示屏幕的最大距离S3时,此时不会出现操作体穿过3D图像的错觉,因此无需对操作体所指的3D图像的视差进行调整。而当操作体与显示屏幕之间的距离S1小于操作体所指的3D图像凸出于显示屏幕的最大距离S3时,此时会出现操作体穿过3D图像的错觉,因此需对3D图像的视差进行调整。
步骤S15,获取观看对象与显示屏幕之间的观看距离一;
步骤S17,根据获取的观看距离一、操作体与显示屏幕之间的距离,调整操作体所指的3D图像的视差,以使操作体所指的3D图像凸出于显示屏幕的实际距离等于操作体与所述显示屏幕之间的距离。
为达到操作体将3D图像按下的效果,也就需要操作体与显示屏幕之间的距离等于操作体所指的3D图像凸出于显示屏幕的实际距离。具体的,根据公式(2)可知:在观看距离、操作体与显示屏幕之间的距离以及观看对象的双眼瞳距e是已知的情况下,可以计算出此时3D图像的视差m。
在此步骤中,具体的,可以根据公式(3),将操作体所指的3D图像的视差调整为ma。
Sa=S1=maTa/(ma+e) (3)
公式(3)中,S1标识操作体与显示屏幕之间的距离,Ta标识观看对象与显示屏幕之间的观看距离一,该观看距离一例如可以是观看对象位于位置A时的观看距离,e标识观看对象的双眼瞳距,Sa是操作体所指的3D图像凸出于显示屏幕的实际距离一,ma是观看对象与显示屏幕的距离为观看距离一时操作体所指的3D图像的视差,即观看对象在位置A时操作体所指的3D图像的视差。
步骤S19,当观看对象的位置发生变化时,获取观看对象与显示屏幕之间的观看距离二,根据获取的观看距离二、操作体与显示屏幕之间的距离,调整操作体所指的3D图像的视差,以使操作体所指的3D图像凸出于显示屏幕的实际距离二等于操作体与显示屏幕之间的距离。
具体的,可以根据公式(4),将3D图像的视差由ma调整至mb。
Sb=S1=mbTb/(mb+e) (4)
公式(4)中,Tb标识观看对象与显示屏幕之间的观看距离二,Sb是操作体所指的3D图像凸出于显示屏幕的实际距离二,该观看距离一例如可以是观看对象位于位置B时的观看距离,mb是观看对象与显示屏幕的距离为观看距离二时操作体所指的3D图像的视差,即观看对象在位置B时操作体所指的3D图像的视差。
由上述可知,当操作体与显示屏幕之间的距离不变且观看对象的观看位置由位置A变化至位置B时,根据公式(3)和公式(4)进行相应的视差调整,可保证观看对象在位置A和位置B处时,操作体所指的3D图像凸出显示屏幕的距离是一样的,以提高观看体验。下面,将进一步结合图8讲述当操作体与显示屏幕之间的距离不变但观看对象的位置发生改变时,即由位置A变化至位置B时,本实施例提供的3D交互方法是如何调整视差的。
如图8所示,假设观看对象与显示屏幕的距离为观看距离一Ta时,也就是观看对象位于位置A处时,3D图像的视差为ma,观看对象与显示屏幕panel之间的观看距离为观看距离一Ta,所看到的操作体所指的3D图像凸出于显示屏幕形成的像在Q1点,Q1点与显示屏幕panel之间的距离为Sa;当观看对象的位置发生变化时,例如当观看对象的位置由A转移至B处时,为保证观看对象看到的3D图像Q2点凸出于显示屏幕形成的像仍然与Q1点在一个平面内,根据公式(2)可知,由于观看对象与显示屏幕之间的观看距离发生了变化(由Ta改为了Tb),因此,为保持Q2点与显示屏幕panel之间的距离为Sb等于S1,也就是为达到公式(5)的效果,需要通过调整3D图像的视差量来达到目的。
S1=Sa=Sb=ma*Ta/(ma+e)=mb*Tb/(mb+e) (5)
具体实现中,为保持3D图像凸出于显示屏幕的实际距离始终等于操作体与所述显示屏幕之间的距离S1不变,可以根据实时得到的观看对象在位置B处的观看距离Tb、操作体与显示屏幕之间的距离S1调整操作体所指的3D图像的视差,使得观看对象位于B处时,操作体所指的3D图像凸出于显示屏幕的实际距离Sb等于操作体与显示屏幕之间的距离S1,从而在操作体与显示屏幕之间的距离不变但观看位置发生变化时,实现操作体将3D图像按下的效果。
进一步的,在执行步骤S19之后,显示屏幕还可以触发3D交互装置,选中相应的3D图像。
需要说明的是,在执行步骤S19之后,若操作体远离显示屏幕,则显示效果逐步恢复初始状态,结束本次操作。
本实施例提供的3D交互方法充分考虑在3D交互过程中影响操作体验的多个因素,包括:观看对象与显示屏幕之间的距离、操作体与显示屏幕之间的距离,操作体所指的3D图像凸出于显示屏幕的最大距离等多个因素对交互效果的影响,对3D图像的视差进行调整,可以有效避免出现操作体看起来穿过3D物体导致的观看对象头晕、真实感不强的情况。
第二实施例
图9A是本发明第二实施例提供的3D交互方法的原理示意图之一;图9B是本发明第二实施例提供的图3D交互方法的原理示意图之二。本实施例是在第一实施例的基础上进行的改进。由图8所示,可知在将操作体所指的3D图像的视差由ma调整至mb后,虽然能够保证操作体所指的3D图像凸出于显示屏幕的距离保持不变,但是,操作体所指的3D图像凸出于显示屏幕的成像点可能会在平行于显示屏幕所在平面的平面内移动,从而可能出现操作体未按住3D图像的现象。本实施例提出的技术方案可以解决上述问题。
具体的,请参照图9A,假定观看对象在位置A观看时的双眼中心位置为正对被操作对象,即图9A中的点EA,其在屏幕上对应的点为OA,此时观看对象的左眼为点EAL,双眼距离为e;左眼视差图在屏幕上对应的像素点为PAL,此时左、右眼视差图在屏幕上对应的点P(左眼PAL和右眼PBL)的成像点凸出于显示屏幕的距离为Sa,即图中点Q1与显示屏幕之间的距离为Sa。
由于观看对象的观看位置相对显示屏幕左右移动或前后移动时,观看对象左眼或右眼看到的视差图像会在显示屏幕的左右方向上移动,即点P的成像点会在在显示屏幕的左右方向上移动,即偏移点Q1。为保证观看对象的观看位置相对于所述显示屏幕的左右方向或前后方向发生变化时,左、右眼视差图在屏幕上对应的点P的成像点同样在点Q1处,即观看对象由位置A移动到位置B时,左、右眼视差图在屏幕上对应的点P的成像点同样显示在点Q1处,因此需要根据观看对象的新位置的视角,进行位移的计算并进行像素点的移动。下面将通过图9A中的示意图,描述观看对象的观看位置左右方向移动时,为保证视差图像的成像位置不变,视差图像(操作体所指的3D图像)在显示屏幕左右方向上的移动过程。
如图9A所示,假设观看对象的双眼中心位置由点EA移动到点EB,即观看对象相对于显示屏幕左右移动位移为E。双眼中心位置在显示屏幕上对应的点由OA移动到点OB,此时左眼所在的点EBL所观看到的左眼视差图在显示屏幕上对应的点改变为点PBL,点PBL相对于点PAL的位移计算如下:
PBL-PAL=(OA-PAL)+(OB-OA)-(OB-PBL); (6)
结合图6及图8,可以得到:
(OA-PAL)=ma/2; (7)
(OB-PBL)=mb/2; (8)
根据相似三角形原理,⊿OA OBQ1∽⊿REB Q1,可以得到:
(OB-OA)/E=Sa/(Tb-Sa) (9)
进一步,可得出:
(OB-OA)=Sa*E/(Tb–Sa) (10)
又因为:
所以此时左眼所观察到的视差图像在屏幕上的相对移动距离(PBL-PAL)为:
(OA-PAL)+(OB-OA)–(OB–PBL)=Sa*E/(Tb–Sa)+ma/2-mb/2
(13)
将Sa、mb替换为由只含Ta、ma、Tb、E、e的表达式,可以得到:
其中,PL1标识观看对象的左眼所看到的视差图像在显示屏幕左右方向上的相对移动距离。根据上式可知,根据观看对象在位置A时与显示屏幕114所在平面panel之间的距离Ta以及观看对象在位置A时3D图像的视差ma,结合观看对象在位置B时相对于显示屏幕的前后和左右偏移量,计算视差图像在所述显示屏幕上的相对移动距离,也就是根据公式(14)计算观看对象的左眼所看到的视差图像在显示屏幕左右方向上的相对移动距离PL1。
同理,可得出右眼所观看到的右眼视差图在显示屏幕上对应的点相对于原来位置的调整。所以,此时观看对象的右眼所看到的视差图像在显示屏幕左右方向上的相对移动距离为:
其中,PR1标示所述观看对象的右眼所看到的视差图像在所述显示屏幕左右方向上的相对移动距离。
如此,当观看对象的位置由A位置移动到B位置时,3D显示设备即可根据检测到的观看对象在左右方向上发生的位移E,以及在A位置的3D图像的视差ma,观看对象在A位置时与显示屏幕之间的距离Ta,观看对象在B位置时与显示屏幕之间的距离Tb,观看对象双眼距离e,计算出在B位置时左眼所看到的视差图像在显示屏幕上的相对移动距离PL1以及右眼所看到的视差图像在显示屏幕上的相对移动距离PR1。然后,根据计算出的相对移动距离,对3D视差图像进行像素重新排列,以保证当观看对象由位置A移动到位置B时,左、右眼视差图在屏幕上对应的点P(左眼PAL和右眼PBL)的成像点Q1始终保持不变,以避免出现操作体未按住3D图像的现象。
同时,需要说明的是,3D显示设备在进行视差图像的重排时,需要根据观看对象相对显示屏幕的移动方向,以确定左眼视差图像和右眼视差图像在显示屏幕上的移动方向。当观看对象相对于显示屏幕左右移动时,左眼视差图像和右眼视差图像在显示屏幕上的移动方向相同且与观看对象相对于显示屏幕的移动方向相反,即观看对象相对显示屏幕向左移动时,左眼视差图像和右眼视差图像在显示屏幕上的移动方向则为向右,反之观看对象相对显示屏幕向右移动时,左眼视差图像和右眼视差图像在显示屏幕上的移动方向则为向左。此时,左眼视差视图移动的位移为PL1,右眼视差图像移动的位移为PR1。当观看对象相对于显示屏幕前后移动时,左眼视差图像和右眼视差图像在显示屏幕上的移动方向相反。此时,当观看对象相对于显示屏幕向前移动时,左眼视差图像相对显示屏幕向右移动,右眼视差图像相对显示屏幕向左移动;当当观看对象相对于显示屏幕向后移动时,左眼视差图像相对显示屏幕向左移动,右眼视差图像相对显示屏幕向右移动,如图8和图9所示。
同样的,为保证观看对象的观看位置相对于所述显示屏幕的上下方向发生变化时,能达到左、右眼视差图在屏幕上对应的点P的成像点同样在点Q1处,即观看对象由位置A移动到位置B时,左、右眼视差图在屏幕上对应的点P的成像点同样显示在点Q1处,需要根据观看对象的新位置的视角,进行位移的计算,即如图9B中所示:
图9B中,如A为观看对象正对屏幕时的观看点,相对屏幕的垂直距离为Ta;B为观看对象垂直移动时的观看点,相对屏幕的垂直距离为Tb;这两点间距离为D,即观看对象在相对于显示屏幕上下方向上移动的位移为D;屏幕上对应的A视点时的视差图像点分别为PAL和PAR,屏幕上对应的B视点时的视差图像点分别为PBL和PBR;Q1点为图像凸出屏幕的对应点,距离屏幕距离为Sa;e为双眼瞳距;ma为A位置时屏幕上左右图像对应点的视差大小。
要保证在A、B位置都看到相同的凸出效果,根据相似三角形原理:⊿AB Q1∽⊿PALPBL Q1,得出:
|PBL–PAL|/|B-A|=|PAL-Q1|/|A-Q1| (16)
可得出当观看对象由A点垂直移动到B点时,屏幕上视差图像移动的位移为:
|PBL–PAL|=|PAL-Q1|*|B-A|/|A-Q1|=Sa*D/(Ta-Sa) (17)
根据之前公式得出观看对象的左眼所看到的视差图像在显示屏幕上下方向上的相对移动距离PL2:
PL2=|PBL–PAL|=ma*D/e (18)
同理,可以得出观看对象的右眼所看到的视差图像在显示屏幕上下方向上的相对移动距离PR2:
PR2=|PBR–PAR|=ma*D/e (19)
即:当观看对象相对屏幕上下方向移动时,为保证所观看的点凸出屏幕的位置和距离保持不变,其对应的左、右眼视差图像的移动方向相同且与观看对象的移动方向相反,且位移均为:ma*D/e。
当观看对象相对于屏幕做任意方向上的改变时,均可以将其移动分解为前后移动、左右移动、和上下移动的三个垂直分量,利用前述计算公式,可计算出此时需要调整左右眼视差图像上对应点的相对位置变化和视差大小,从而达到无论观看对象如何移动,都能保证其观看到的图像凸出屏幕的距离和位置保持不动,从而避免操作体穿过物体或者未完全操作到的现象。
第三实施例
图10是本发明第三实施例提供的3D交互方法的流程示意图。本实施例是在第一实施例的基础上进行的改进,于本实施例中,在调整所述操作体所指的3D图像的视差时,有两种调整方式:一种是调整包括3D显示设备显示的全部3D图像的视差,该全部3D图像包括操作体所指的3D图像;另一种方式是只调整操作体所指的3D图像。
具体地,在检测到操作体与显示屏幕之间的距离S1时,还进一步的判断操作体与显示屏幕之间的距离S1和第一阈值、第二阈值的大小关系,并根据S1与第一阈值和第二阈值的不同关系,有不同的响应过程,其中,第一阈值>第二阈值>0且第一阈值>操作体所指的3D图像凸出于显示屏幕的最大距离。具体的,请参照图10,本实施例中,调整3D图像的视差具体可以包括:
步骤S301,判断操作体与显示屏幕之间的距离是否小于3D图像凸出于所述显示屏幕的最大距离,如果是,则执行步骤S302,否则,返回步骤S301。
步骤S302,判断操作体与显示屏幕之间的距离S1与第一阈值Y1及第二阈值Y2的关系,其中第一阈值Y1>第二阈值Y2>0且第一阈值>操作体所指的3D图像凸出于显示屏幕的最大距离;当操作体与显示屏幕之间的距离S1在第一阈值Y1和第二阈值Y2之间时,执行步骤S303,当操作体与显示屏幕之间的距离S1在第二阈值Y2和0之间时,执行步骤S304,当操作体与显示屏幕之间的距离S1为0时,则执行步骤S305。
其中,第一阈值Y1为调整3D显示设备整个显示屏幕显示的3D图像的视差的阈值,即调整3D显示设备显示的全部3D图像的视差的阈值,第二阈值Y2为调整操作体所指的3D图像的视差的阈值。
通过比较操作体与显示屏幕之间的距离S1与第一阈值Y1和第二阈值Y2之间的大小关系,来确定此时是调整显示的全部3D图像的视差,还是调整操作体所指的3D图像的视差。操作体所指的3D图像的视差指的是操作体所在位置对应在显示屏幕上的点的视差;全部3D图像的视差指的是3D显示设备整个显示屏幕显示的3D图像的视差。
步骤S303,根据获取的观看距离、以及操作体与显示屏幕之间的距离,调整显示的全部3D图像的视差。
步骤S304,若操作体靠近显示屏幕,则根据获取的观看距离,先调整显示的全部3D图像的视差,再根据获取的观看距离以及操作体与显示屏幕之间的距离,调整操作体所指的3D图像的视差;若操作体远离显示屏幕,则先根据获取的观看距离以及操作体与显示屏幕之间的距离,调整操作体所指的3D图像的视差,再根据获取的观看距离,调整显示的全部3D图像的视差,。
在执行步骤S304时,在操作体靠近显示屏幕的视差调整过程中,分两个阶段。第一个阶段是:调整显示的全部3D图像的视差,第二个阶段是:调整操作体所指的3D图像的视差。在执行第一阶段时,即在调整显示的全部3D图像的视差时,可以根据观看对象与显示屏幕之间的观看距离,以及操作体与显示屏幕之间的距离为第二阈值Y2时,按照公式(2)计算出对应的视差mY2,然后将3D显示设备显示的全部3D图像的视差调整至mY2.在执行第二阶段时,则根据观看对象与显示屏幕之间的观看距离、以及操作体与显示屏幕之间的距离,将操作体所指的3D图像的视差调整至按照公式(2)计算出对应的视差值。反之,在操作体远离显示屏幕的视差调整过程中,则先调整操作体所指的3D图像的视差,再调整显示的全部3D图像的视差,以实现操作体远离显示屏幕时,显示屏幕显示的3D图像能够恢复至原始状态,即远离操作屏幕时的调整方法与靠近屏幕时的调整方法相反。
步骤S305,将操作体所指的3D图像的视差调整为0。
于步骤S305中,进一步的还可以进入触屏事件流程。
第四实施例
图11是本发明第四实施例提供的3D交互方法的流程示意图。在本实施例中,以手指操控为例,详细描述整个交互流程,该整个交互流程包括:
步骤S401,当观看对象的手指逐渐靠近屏幕的时候,检测手指与3D显示设备的显示屏幕之间的距离;
步骤S402,获取观看对象的与显示屏幕之间的观看距离。
步骤S403,根据手指所在位置对应在显示屏幕上的点的视差以及观看对象的观看位置与显示屏幕之间的观看距离T,计算出该点所呈现的3D图像凸出于显示屏幕的最大距离。
步骤S404,对手指与显示屏幕之间的距离与3D图像凸出显示屏幕的最大距离进行实时比较,并根据比较结果调整该3D图像的视差。
观看对象的手指从远处靠近显示屏幕114时,手指与显示屏幕114所在平面panel之间的距离S1的值由大变小,当手指与显示屏幕114所在平面panel之间的距离S1等于显示屏幕114显示的3D图像凸出于显示屏幕114的最大距离S3时,表示观看对象的手指在空中可能触碰到3D图像,为保证观看对象隔空操控物体的真实体验,随着观看对象的手指进一步靠近屏幕即S1值不断减小,如图12所示,于本实施例中,在调整3D图像的视差时,可以调整显示屏幕显示的全部3D图像的,即3D显示设备整个显示屏幕显示的3D图像的视差,和/或调整手指所指的3D图像的视差。
在具体调整所述调整3D图像的视差的过程中,具体可以包括:
判断手指与显示屏幕之间的距离与第一阈值及第二阈值的大小关系;其中,第一阈值>第二阈值>0且第一阈值>手指所指的3D图像凸出于显示屏幕的最大距离。
当手指与显示屏幕之间的距离在第一阈值与第二阈值之间时,则根据获取的观看距离、以及手指与显示屏幕之间的距离,调整显示的全部3D图像的视差及在全部3D图像在显示屏幕X-Y方向上的尺寸,从而使整个屏幕显示的全部3D图像的视差和尺寸随手指与显示屏幕的距离改变而改变,保证手指对整个屏幕显示的3D图像往屏幕里面按的效果。或者,
当手指与显示屏幕之间的距离在第二阈值与0之间时,若手指靠近显示屏幕,则根据获取的观看距离,先调整显示的全部3D图像的视差及全部3D图像在显示屏幕X-Y方向上的尺寸,再根据获取的观看距离以及手指与显示屏幕之间的距离,调整手指所指的3D图像的视差及其在显示屏幕X-Y方向上的尺寸,然后调整手指所指的3D图像的视差和其在显示屏幕X-Y方向上的尺寸。若手指远离显示屏幕,则先根据获取的观看距离以及操作体与显示屏幕之间的距离,调整手指所指的3D图像的视差及在显示屏幕X-Y方向上的尺寸,再根据获取的观看距离,调整显示的全部3D图像的视差及在所述显示屏幕X-Y方向尺寸。此时,显示屏幕呈现出来的效果是:
屏幕显示的全部3D图像的视差和尺寸先随手指与显示屏幕的距离改变而改变,然后手指所指的3D图像的视差和尺寸随着手指与显示屏幕之间的距离的改变而改变,保证手指先将整个屏幕显示的3D图像往屏幕里面按,再将手指所指的3D图像往显示屏幕里面按的效果。或者,
当所述操作体与显示屏幕之间的距离等于0时,将手指所指的3D图像的视差调整为0。
进一步的,观看对象的手指也可进行滑动操作,实现隔空旋转手指所指的3D图像等功能。当手指所指的3D图像的视差调整为0时,可以进入触屏事件流程。因为此时观看对象的手指的所有操作都是在触控屏幕上进行,所以此时需要将手指所触点显示的3D图像的视差调整为0,此时内容是以2D形式呈现在屏幕上。
步骤S405,显示屏幕通过检测到的手势对显示的UI、内容等进行具体的比如左右滑动翻页、单击打开程序等操作;
步骤S406,随着手指离开显示屏幕并逐渐离开悬浮触控感应器的感应距离,显示效果反向逐步恢复到原始状态,结束整个操作。例如,根据所述获取的观看距离以及所述操作体与显示屏幕之间的距离,调整手指所指的3D图像的视差及在所述显示屏幕X-Y方向上的尺寸。
本发明实施例提供的3D交互方法为从根本上解决背景技术中提到的技术问题,充分考虑在3D交互过程中影响操作体验的多个因素,包括:观看对象的观看距离(即观看对象与显示屏幕之间的距离)、操作体与显示屏幕之间的距离,显示屏幕显示的3D图像凸出于显示屏幕的最大凸出距离等多个因素对交互效果的影响,结合上述多个因素的变化,对3D图像的视差进行调整,以避免出现操作体看起来穿过3D物体导致的观看对象头晕、真实感不强的情况。可以理解的是,本发明实施例中,在调整显示的全部3D图像的视差或操作体所指的3D图像的视差时,可以采用第一、第二实施例中描述的方式来计算视差值的大小和在显示屏幕上的左右位移或上下位移量。
第五实施例
图13为本发明第五实施例提供的一种3D显示设备的结构示意图。请参照图13,本实施例提出的装置可存储于图2显示的3D显示设备的存储器102中(如图14所示),该3D显示设备采用上述第一至第四实施例中的交互方法来实现3D交互功能,本实施例中的3D显示设备50可以包括:
检测模块51,用于检测操作体与3D显示设备的显示屏幕之间的距离;其中,3D显示设备用于显示3D图像。
判断模块52,用于判断检测模块51检测到的距离是否小于操作体所指的3D图像凸出于显示屏幕的最大距离;
获取模块53,用于当判断模块52的判断结果为是时,即操作体与显示屏幕之间的距离小于显示屏幕所显示的3D图像凸出于显示屏幕的最大距离时,则获取观看对象与所述显示屏幕之间的观看距离;以及
处理模块54,用于根据获取模块53获取的观看距离、检测模块51检测的操作体与显示屏幕之间的距离,调整操作体所指的3D图像的视差,以使操作体所指的3D图像凸出于显示屏幕的实际距离等于操作体与显示屏幕之间的距离。
进一步的,假设当观看对象的观看位置为位置A时,则获取模块53用于获取观看对象与显示屏幕之间的观看距离一。而处理模块54具体用于根据获取模块53获取的观看距离一、检测模块51检测到的距离S1,按照公式Sa=S1=maTa/(ma+e),将操作体所指的3D图像的视差调整为ma;
其中,S1标识操作体与显示屏幕之间的距离,Ta标识观看对象与显示屏幕之间的观看距离一,e标识观看对象的双眼瞳距,Sa是操作体所指的3D图像凸出于显示屏幕的实际距离一,ma是观看对象与所述显示屏幕的距离为观看距离一时所述操作体所指的3D图像的视差。
当所述观看对象的位置发生变化时,即观看对象的观看位置由位置A变化至位置B时,获取模块53还用于获取观看对象与显示屏幕之间的观看距离二。处理模块54具体还用于:根据获取模块53获取的观看距离二、检测模块51检测到的距离S1,按照公式Sb=S1=mbTb/(mb+e),将3D操作体所指的3D图像的视差由ma调整至mb;其中,Tb标识观看对象与显示屏幕之间的观看距离二,Sb是操作体所指的3D图像凸出于显示屏幕的实际距离二,该实际距离二等于实际距离一,即在操作体与显示屏幕之间的距离未发生变化的前提下,即使观看对象的位置发生变化,但操作体所指的3D图像凸出显示屏幕的实际距离不会发生变化。mb是观看对象与显示屏幕的距离为观看距离二时操作体所指的3D图像的视差。此时,由于Ta不等于Tb,因此ma不等于mb。
进一步的,当观看对象的位置发生变化时,获取模块53还用于获取观看对象相对于显示屏幕的左右方向或前后方向移动的位移;处理模块54还用于:根据公式 计算观看对象的左眼所看到的视差图像在显示屏幕左右方向上的相对移动距离PL1,根据公式 计算观看对象的右眼所看到的视差图像在显示屏幕上的相对移动距离PR1,其中,E标示观看对象沿左右方向或前后方向移动的位移;以及根据PL1及PR1对显示屏幕所显示的视差图像进行重排,使得视差图像的成像位置不变。
进一步的,获取模块53还用于获取观看对象相对于显示屏幕的上下方向移动的位移;处理模块54还用于:根据公式PL2=PR2=ma*D/e,计算观看对象的左眼或右眼所看到的视差图像在显示屏幕上下方向上的相对移动距离PL2、PR2;其中,D标识观看对象相对于显示屏幕上下方向移动的位移;以及,根据PL2及PR2对显示屏幕所显示的视差图像进行重排,使得视差图像的成像位置不变;其中,在对显示屏幕所显示的视差图像进行重排时,对PL2及PR2的移动方向与观看对象相对于显示屏幕上下移动的方向相反。也就是说,若观看对象相对显示屏幕向上移动,则在进行视差图像重排时,PL2及PR2的移动方向为相对显示屏幕向下移动。
进一步的,在一种具体实施方式中,在调整操作体所指的3D图像的视差时,处理模块54还用于调整3D显示设备显示的全部3D图像的视差,处理模块54还用于:
判断操作体与显示屏幕之间的距离与第一阈值及第二阈值的大小关系;其中,第一阈值>第二阈值>且第一阈值>操作体所指的3D图像凸出于显示屏幕的最大距离;
当操作体与显示屏幕之间的距离在第一阈值与第二阈值之间时,则根据获取的观看距离以及操作体与显示屏幕之间的距离,调整显示的全部3D图像的视差;或,
当操作体与显示屏幕之间的距离在第二阈值与0之间时,若操作体靠近显示屏幕,则根据获取的观看距离,先调整显示的全部3D图像的视差,再根据获取的观看距离以及操作体与显示屏幕之间的距离,调整操作体所指的3D图像的视差;若操作体远离显示屏幕,则根据获取的观看距离以及操作体与显示屏幕之间的距离,调整操作体所指的3D图像的视差;或,
当操作体与显示屏幕之间的距离等于0时,将操作体所指的3D图像的视差调整为0。
进一步的,在另一种具体实施方式中,在调整3D图像的视差时,处理模块54还用于:判断操作体与显示屏幕之间的距离与第一阈值及第二阈值的大小关系;其中,第一阈值>第二阈值>0,且第一阈值>操作体所指的3D图像凸出于所述显示屏幕的最大距离;
当操作体与显示屏幕之间的距离在第一阈值与第二阈值之间时,则根据获取的观看距离、以及操作体与显示屏幕之间的距离,调整显示的全部3D图像的视差及在所述显示屏幕X-Y方向上的尺寸;或,
当操作体与显示屏幕之间的距离在第二阈值与0之间时,若操作体靠近显示屏幕,则根据获取的观看距离,先调整显示的全部3D图像的视差及在所示显示屏幕X-Y方向尺寸,再根据获取的观看距离以及操作体与显示屏幕之间的距离,调整操作体所指的3D图像的视差及在显示屏幕X-Y方向尺寸;若操作体远离显示屏幕,则根据获取的观看距离以及操作体与显示屏幕之间的距离,调整操作体所指的3D图像的视差及在显示屏幕X-Y方向上的尺寸;或,
当操作体与显示屏幕之间的距离等于0时,将操作体所指的3D图像的视差调整为0。
以上各模块可以是由软件代码实现,此时,上述的各模块可存储于3D显示设备100的存储器102内。以上各模块同样也可以由硬件例如集成电路芯片实现。本发明实施例的装置的各功能模块的功能可根据上述方法实施例中的方法具体实现,其具体实现过程可以参照上述方法实施例的相关描述,在此不赘述。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,虽然本发明已以较佳实施例揭露如上,然而并非用以限定本发明,任何熟悉本专业的技术人员,在不脱离本发明技术方案范围内,当可利用上述揭示的技术内容做出些许更动或修饰为等同变化的等效实施例,但凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本发明技术方案的范围内。
Claims (21)
1.一种3D交互方法,适用于显示3D图像的3D显示设备,其特征在于,所述3D交互方法包括:
检测操作体与所述3D显示设备的显示屏幕之间的距离;
判断所述操作体与所述显示屏幕之间的距离是否小于所述操作体所指的3D图像凸出于所述显示屏幕的最大距离;
如果是,则获取观看对象与所述显示屏幕之间的观看距离;以及
根据所述获取的观看距离、所述操作体与所述显示屏幕之间的距离,调整所述操作体所指的3D图像的视差,以使所述操作体所指的3D图像凸出于所述显示屏幕的实际距离等于所述操作体与所述显示屏幕之间的距离。
2.如权利要求1所述的3D交互方法,其特征在于,所述获取观看对象与所述显示屏幕之间的观看距离,包括:
获取所述观看对象与所述显示屏幕之间的观看距离一。
3.如权利要求2所述的3D交互方法,其特征在于,所述根据所述获取的观看距离、所述操作体与所述显示屏幕之间的距离,调整所述操作体所指的3D图像的视差,包括:
根据公式Sa=S1=maTa/(ma+e),将所述操作体所指的3D图像的视差调整为ma;
其中,所述S1标识所述操作体与所述显示屏幕之间的距离,Ta标识所述观看对象与所述显示屏幕之间的观看距离一,e标识所述观看对象的双眼瞳距,Sa是所述操作体所指的3D图像凸出于所述显示屏幕的实际距离一,ma是所述观看对象与所述显示屏幕的距离为观看距离一时所述操作体所指 的3D图像的视差。
4.如权利要求3所述的3D交互方法,其特征在于,当所述观看对象的位置发生变化时,所述获取观看对象与所述显示屏幕之间的观看距离,还包括:
获取所述观看对象与所述显示屏幕之间的观看距离二。
5.如权利要求4所述的3D交互方法,其特征在于,所述根据所述获取的观看距离、所述操作体与所述显示屏幕之间的距离,调整所述操作体所指的3D图像的视差,还包括:
根据公式Sb=S1=mbTb/(mb+e),将所述操作体所指的3D图像的视差由ma调整至mb;
其中,Tb标识所述观看对象与所述显示屏幕之间的观看距离二,Sb是所述操作体所指的3D图像凸出于所述显示屏幕的实际距离二,mb是所述观看对象与所述显示屏幕的距离为观看距离二时所述操作体所指的3D图像的视差。
6.如权利要求5所述的3D交互方法,其特征在于:当所述观看对象的位置发生变化时,所述方法还包括:
获取所述观看对象相对于所述显示屏幕的左右方向或前后方向移动的位移;根据公式计算所述观看对象的左眼所看到的视差图像在所述显示屏幕左右方向上的相对移动距离PL1,根据公式计算所述观看对象的右眼所看到的视差图像在所述显示屏幕左右方向上的相对移动距离 PR1,其中,E标识所述观看对象相对于所述显示屏幕左右方向或前后方向移动的位移;以及
根据所述PL1及PR1对所述显示屏幕所显示的视差图像进行重排,使得所述视差图像的成像位置不变。
7.如权利要求5所述的3D交互方法,其特征在于:当所述观看对象的位置发生变化时,所述方法还包括:
获取所述观看对象相对于所述显示屏幕的上下方向移动的位移;
根据公式PL2=PR2=ma*D/e,计算所述观看对象的左眼或右眼所看到的视差图像在所述显示屏幕上下方向上的相对移动距离PL2、PR2;其中,D标识所述观看对象相对于所述显示屏幕上下方向移动的位移;以及,
根据所述PL2及PR2对所述显示屏幕所显示的视差图像进行重排,使得所述视差图像的成像位置不变。
8.如权利要求1至7中任一项所述的3D交互方法,其特征在于,在调整所述操作体所指的3D图像的视差时,可调整所述3D显示设备显示的全部3D图像的视差和/或所述操作体所指的3D图像的视差;所述调整所述操作体所指的3D图像的视差的步骤,包括:
判断所述操作体与所述显示屏幕之间的距离与第一阈值及第二阈值的大小关系;其中,第一阈值>第二阈值>0且第一阈值>所述操作体所指的3D图像凸出于所述显示屏幕的最大距离;
当所述操作体与所述显示屏幕之间的距离在所述第一阈值与所述第二阈值之间时,则根据所述获取的观看距离、以及所述操作体与显示屏幕之间的距离,调整显示的所述全部3D图像的视差;或,
当所述操作体与显示屏幕之间的距离在所述第二阈值与0之间时,若所述操作体靠近所述显示屏幕,则根据所述获取的观看距离,先调整显示的所述全部3D图像的视差,再根据所述获取的观看距离以及所述操作体与显示屏幕之间的距离,调整所述操作体所指的3D图像的视差;若所述操作体远离所述显示屏幕,则先根据所述获取的观看距离以及所述操作体与显示屏幕之间的距离,调整所述操作体所指的3D图像的视差,再根据所述获取的观看距离,调整显示的所述全部3D图像的视差;或,
当所述操作体与显示屏幕之间的距离等于0时,将所述操作体所指的3D图像的视差调整为0。
9.如权利要求1至7中任一项所述的3D交互方法,其特征在于,在调整所述操作体所指的3D图像的视差时,可调整所述3D显示设备显示的全部3D图像的视差和/或所述操作体所指的3D图像的视差;所述调整所述操作体所指的3D图像的视差的步骤,包括:
判断所述操作体与所述显示屏幕之间的距离与第一阈值及第二阈值的大小关系;其中,第一阈值>第二阈值>0,且第一阈值>所述操作体所指的3D图像凸出于所述显示屏幕的最大距离;
当所述操作体与所述显示屏幕之间的距离在所述第一阈值与所述第二阈值之间时,则根据所述获取的观看距离、以及所述操作体与显示屏幕之间的距离,调整显示的所述全部3D图像的视差及在所述显示屏幕X-Y方向上的尺寸;或,
当所述操作体与显示屏幕之间的距离在所述第二阈值与0之间时,若所述操作体靠近所述显示屏幕,则根据所述获取的观看距离,先调整显示 的所述全部3D图像的视差及在所述显示屏幕X-Y方向尺寸,再根据所述获取的观看距离以及所述操作体与显示屏幕之间的距离,调整所述操作体所指的3D图像的视差及在所述显示屏幕X-Y方向尺寸;若所述操作体远离所述显示屏幕,则先根据所述获取的观看距离以及所述操作体与显示屏幕之间的距离,调整所述操作体所指的3D图像的视差及在所述显示屏幕X-Y方向上的尺寸,再根据所述获取的观看距离,调整显示的所述全部3D图像的视差及在所述显示屏幕X-Y方向尺寸;或,
当所述操作体与显示屏幕之间的距离等于0时,将所述操作体所指的3D图像的视差调整为0。
10.一种3D显示设备,该3D显示设备用于显示3D图像,其特征在于,包括:
检测模块,用于检测操作体与所述3D显示设备的显示屏幕之间的距离;
判断模块,用于判断所述检测模块检测到的距离是否小于所述操作体所指的3D图像凸出于所述显示屏幕的最大距离;
获取模块,用于当所述判断模块的判断结果为是时,获取观看对象与所述显示屏幕之间的观看距离;以及
处理模块,用于根据所述获取模块获取的观看距离、所述检测模块检测到的距离,调整所述操作体所指的3D图像的视差,以使所述操作体所指的3D图像凸出于所述显示屏幕的实际距离等于所述操作体与所述显示屏幕之间的距离。
11.如权利要求10所述的3D显示设备,其特征在于,所述获取 模块用于获取所述观看对象与所述显示屏幕之间的观看距离一。
12.如权利要求11所述的3D显示设备,其特征在于,所述处理模块具体用于:
根据所述获取模块获取的观看距离一、所述检测模块检测到的距离,按照公式Sa=S1=maTa/(ma+e),将所述操作体所指的3D图像的视差调整为ma;
其中,所述S1标识所述操作体与所述显示屏幕之间的距离,Ta标识所述观看对象与所述显示屏幕之间的观看距离一,e标识所述观看对象的双眼瞳距,Sa是所述操作体所指的3D图像凸出于所述显示屏幕的实际距离一,ma是所述观看对象与所述显示屏幕的距离为观看距离一时所述操作体所指的3D图像的视差。
13.如权利要求12所述的3D显示设备,其特征在于,当所述观看对象的位置发生变化时,所述获取模块还用于获取所述观看对象与所述显示屏幕之间的观看距离二。
14.如权利要求13所述的3D显示设备,其特征在于,所述处理模块具体用于:
根据所述获取模块获取的观看距离一、所述检测模块检测到的距离,按照公式Sb=S1=mbTb/(mb+e),将所述3D图像的视差由ma调整至mb;
其中,Tb标识所述观看对象与所述显示屏幕之间的观看距离二,Sb是所述操作体所指的3D图像凸出于所述显示屏幕的实际距离二,mb是所述观看对象与所述显示屏幕的距离为观看距离二时所述操作体所指的3D图像的视差。
15.如权利要求14所述的3D显示设备,其特征在于,所述获取模块还用于,当所述观看对象的位置发生变化时获取所述观看对象相对于所述显示屏幕的左右方向或前后方向移动的位移;
所述处理模块还用于:根据公式计算所述观看对象的左眼所看到的视差图像在所述显示屏幕左右方向上的相对移动距离PL1,根据公式计算所述观看对象的右眼所看到的视差图像在所述显示屏幕左右方向上的相对移动距离PR1,其中,E标识所述观看对象相对于所述显示屏幕左右方向或前后方向移动的位移;以及根据PL1及PR1对所述显示屏幕所显示的视差图像进行重排,使得所述视差图像的成像位置不变。
16.如权利要求14所述的3D显示设备,其特征在于,当所述观看对象的位置发生变化时,所述获取模块还用于获取所述观看对象相对于所述显示屏幕的上下方向移动的位移;
所述处理模块还用于:根据公式PL2=PR2=ma*D/e,计算所述观看对象的左眼或右眼所看到的视差图像在所述显示屏幕上下方向上的相对移动距离PL2、PR2;其中,D标识所述观看对象相对于所述显示屏幕上下方向移动的位移;以及,根据所述PL2及PR2对所述显示屏幕所显示的视差图像进行重排,使得所述视差图像的成像位置不变。
17.一种3D显示设备,其特征在于,包括悬浮触控感应器、空间距离感测器、用于显示3D图像的显示屏幕以及处理器;
所述悬浮触控感应器,用于检测所述操作体与所述3D显示设备的显 示屏幕之间的距离;
所述处理器,用于判断所述操作体与所述显示屏幕之间的距离是否小于所述操作体所指的3D图像凸出于所述显示屏幕的最大距离;
所述空间距离感测器,用于当处理器的判断结果为是时,获取观看对象与所述显示屏幕之间的观看距离;
所述处理器,还用于根据所述空间距离感测器获取的观看距离、所述悬浮触控感应器检测的距离,调整所述操作体所指的3D图像的视差,以使所述操作体所指的3D图像凸出于所述显示屏幕的实际距离等于所述操作体与所述显示屏幕之间的距离。
18.如权利要求17所述的3D显示设备,其特征在于,所述空间距离感测器,具体用于获取所述观看对象与所述显示屏幕之间的观看距离一;
所述处理器,具体用于根据所述空间距离感测器获取的观看距离一、所述悬浮触控感应器检测的操作体与所述显示屏幕之间的距离,按照公式Sa=S1=maTa/(ma+e),将所述操作体所指的3D图像的视差调整为ma;
其中,所述S1标识所述操作体与所述显示屏幕之间的距离,Ta标识所述观看对象与所述显示屏幕之间的观看距离一,e标识所述观看对象的双眼瞳距,Sa是所述操作体所指的3D图像凸出于所述显示屏幕的实际距离一,ma是所述观看对象与所述显示屏幕的距离为观看距离一时所述操作体所指的3D图像的视差。
19.如权利要求17或18所述的3D显示设备,其特征在于,所述 空间距离感测器,具体用于当所述观看对象的位置发生变化时,获取所述观看对象与所述显示屏幕之间的观看距离二;
所述处理器,具体用于根据所述空间距离感测器获取的观看距离一、所述悬浮触控感应器检测的操作体与所述显示屏幕之间的距离,按照公式Sb=S1=mbTb/(mb+e),将所述操作体所指的3D图像的视差调整至mb;
其中,Tb标识所述观看对象与所述显示屏幕之间的观看距离二,Sb是所述操作体所指的3D图像凸出于所述显示屏幕的实际距离二,mb是所述观看对象与所述显示屏幕的距离为观看距离二时所述操作体所指的3D图像的视差。
20.如权利要求19所述的3D显示设备,其特征在于,当所述观看对象的位置发生变化时,所述空间距离感测器还用于:获取所述观看对象相对于所述显示屏幕的左右方向或前后方向移动的位移;所述处理器,还用于根据公式计算所述观看对象的左眼所看到的视差图像在所述显示屏幕左右方向上的相对移动距离PL1,根据公式计算所述观看对象的右眼所看到的视差图像在所述显示屏幕左右方向上的相对移动距离PR1,其中,E标识所述观看对象相对于所述显示屏幕左右方向或前后方向移动的位移;以及,根据所述PL1及PR1对所述显示屏幕所显示的视差图像进行重排,使得所述视差图像的成像位置不变。
21.如权利要求19所述的3D显示设备,其特征在于:当所述观看对象的位置发生变化时,所述空间距离感测器还用于:获取所述观看对象相对于所述显示屏幕的上下方向移动的位移;
所述处理器还用于:根据公式PL2=PR2=ma*D/e,计算所述观看对象的左眼或右眼所看到的视差图像在所述显示屏幕上下方向上的相对移动距离PL2、PR2;其中,D标识所述观看对象相对于所述显示屏幕上下方向移动的位移;以及,
根据所述PL2及PR2对所述显示屏幕所显示的视差图像进行重排,使得所述视差图像的成像位置不变。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/986,945 US10152154B2 (en) | 2015-01-22 | 2016-01-04 | 3D interaction method and display device |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410856450 | 2014-12-31 | ||
CN2014108564500 | 2014-12-31 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105867597A true CN105867597A (zh) | 2016-08-17 |
CN105867597B CN105867597B (zh) | 2020-01-10 |
Family
ID=56624122
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510033148.XA Active CN105867597B (zh) | 2014-12-31 | 2015-01-22 | 3d交互方法及3d显示设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105867597B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108152982A (zh) * | 2018-01-31 | 2018-06-12 | 京东方科技集团股份有限公司 | 一种3d显示装置 |
CN112925430A (zh) * | 2019-12-05 | 2021-06-08 | 北京芯海视界三维科技有限公司 | 实现悬浮触控的方法、3d显示设备和3d终端 |
CN116326922A (zh) * | 2023-03-31 | 2023-06-27 | 杭州云天软件股份有限公司 | 数字孪生3d工厂交互管理系统及方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050190180A1 (en) * | 2004-02-27 | 2005-09-01 | Eastman Kodak Company | Stereoscopic display system with flexible rendering of disparity map according to the stereoscopic fusing capability of the observer |
CN102271275A (zh) * | 2010-06-01 | 2011-12-07 | Lg电子株式会社 | 图像显示装置及其操作方法 |
CN102752621A (zh) * | 2012-06-26 | 2012-10-24 | 京东方科技集团股份有限公司 | 景深保持装置、3d显示装置及显示方法 |
-
2015
- 2015-01-22 CN CN201510033148.XA patent/CN105867597B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050190180A1 (en) * | 2004-02-27 | 2005-09-01 | Eastman Kodak Company | Stereoscopic display system with flexible rendering of disparity map according to the stereoscopic fusing capability of the observer |
CN102271275A (zh) * | 2010-06-01 | 2011-12-07 | Lg电子株式会社 | 图像显示装置及其操作方法 |
CN102752621A (zh) * | 2012-06-26 | 2012-10-24 | 京东方科技集团股份有限公司 | 景深保持装置、3d显示装置及显示方法 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108152982A (zh) * | 2018-01-31 | 2018-06-12 | 京东方科技集团股份有限公司 | 一种3d显示装置 |
CN112925430A (zh) * | 2019-12-05 | 2021-06-08 | 北京芯海视界三维科技有限公司 | 实现悬浮触控的方法、3d显示设备和3d终端 |
WO2021110030A1 (zh) * | 2019-12-05 | 2021-06-10 | 北京芯海视界三维科技有限公司 | 实现悬浮触控的方法、3d显示设备和3d终端 |
TWI825367B (zh) * | 2019-12-05 | 2023-12-11 | 新加坡商視覺技術創投私人有限公司 | 實現懸浮觸控的方法、3d顯示設備和3d終端 |
CN116326922A (zh) * | 2023-03-31 | 2023-06-27 | 杭州云天软件股份有限公司 | 数字孪生3d工厂交互管理系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105867597B (zh) | 2020-01-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10652515B2 (en) | Information processing apparatus, stereoscopic display method, and program | |
US10074346B2 (en) | Display control apparatus and method to control a transparent display | |
JP5711962B2 (ja) | ジェスチャ操作入力処理装置およびジェスチャ操作入力処理方法 | |
US9086742B2 (en) | Three-dimensional display device, three-dimensional image capturing device, and pointing determination method | |
US9432652B2 (en) | Information processing apparatus, stereoscopic display method, and program | |
WO2011114564A1 (ja) | 立体画像表示装置およびその制御方法 | |
US8988500B2 (en) | Information processing apparatus, stereoscopic display method, and program | |
JP2012256110A (ja) | 情報処理装置、情報処理方法およびプログラム | |
US20130222363A1 (en) | Stereoscopic imaging system and method thereof | |
JP2013097593A (ja) | 情報処理装置、情報処理方法及びプログラム | |
KR102450236B1 (ko) | 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록 매체 | |
CN105867597B (zh) | 3d交互方法及3d显示设备 | |
JP6053845B2 (ja) | ジェスチャ操作入力処理装置、3次元ディスプレイ装置およびジェスチャ操作入力処理方法 | |
CN105872528B (zh) | 3d显示方法、装置及3d显示设备 | |
WO2013097439A1 (zh) | 裸眼三维触摸显示装置的触控方法及触控设备 | |
KR20120095139A (ko) | 양안 카메라가 적용된 사용자 인터페이스 장치 및 매뉴얼 컨버전스 제어방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20180723 Address after: 518057 Room 201, building A, 1 front Bay Road, Shenzhen Qianhai cooperation zone, Shenzhen, Guangdong Applicant after: Shenzhen super Technology Co., Ltd. Address before: 518000 Guangdong Shenzhen Baoan District Xixiang street Baoan Internet industry base Haibin new village 18 building two floor 2003A Applicant before: SHENZHEN CHUANGRUISI TECHNOLOGY CO., LTD. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |