CN113077510A - 遮蔽下的立体视功能检查系统 - Google Patents

遮蔽下的立体视功能检查系统 Download PDF

Info

Publication number
CN113077510A
CN113077510A CN202110388357.1A CN202110388357A CN113077510A CN 113077510 A CN113077510 A CN 113077510A CN 202110388357 A CN202110388357 A CN 202110388357A CN 113077510 A CN113077510 A CN 113077510A
Authority
CN
China
Prior art keywords
biological information
stimulation model
information stimulation
examinee
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110388357.1A
Other languages
English (en)
Other versions
CN113077510B (zh
Inventor
阎丽
林岩平
褚航
吴殿鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Nuoyide Medical Technology Development Co ltd
Original Assignee
Guangzhou Nuoyide Medical Technology Development Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Nuoyide Medical Technology Development Co ltd filed Critical Guangzhou Nuoyide Medical Technology Development Co ltd
Priority to CN202110388357.1A priority Critical patent/CN113077510B/zh
Publication of CN113077510A publication Critical patent/CN113077510A/zh
Application granted granted Critical
Publication of CN113077510B publication Critical patent/CN113077510B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本发明提供一种遮蔽下的立体视功能检查系统,包括生物信息刺激模型生成模块、双眼视差调节模块、遮蔽层调节模块、交互模块、控制模块和显示装置。本发明还提供一种遮蔽下的立体视功能检查方法,基于所述的遮蔽下的立体视功能检查系统实现。本发明提供一种遮蔽下的立体视功能检查系统,通过受检者在部分遮蔽条件下对生物信息刺激模型的位置状态进行识别,检查出受检者在不同遮蔽条件下的立体视功能,实现更深程度的立体视功能检查,提高检查结果的准确性,解决了目前对于立体视功能的检查的程度不够深,检查结果不够准确的问题。

Description

遮蔽下的立体视功能检查系统
技术领域
本发明涉及立体视功能检查的技术领域,更具体的,涉及一种遮蔽下的立体视功能检查系统。
背景技术
立体视是指三维空间中对物体立体深度和远近距离的判断,也被称为深度感知。人类和动物都经常在环境中活动。许多对生存至关重要的行为(如觅食、打架和逃跑),以及社交和娱乐行为(如握手或打网球),都涉及到身体运动和与三维空间中的物体进行互动。在许多这样的任务中,大脑在自我运动中形成准确的深度感知对于成功是至关重要的:例如,狮子会根据与猎物的距离来决定是否去追赶,网球运动员会在够不到球的情况下停止跑步。
我们的大脑利用各种线索来估计立体深度。这包括一个场景的单一静态图像中出现的图像深度线索,例如遮挡、相对大小、透视、纹理和模糊等。虽然这些图像线索在解释三维场景结构时很有价值,但是他们通常不能提供关于深度的精确定量信息。通常来说,两个因素促使大脑形成立体视觉和深度判断:(1)双眼视觉提供的深度线索,即双眼视差;(2)运动视差。
其中,双眼视差:当从多个有利位置观看场景时,会产生额外的强大的深度线索。双眼视差的产生是因为两只眼睛是水平分开的,左右两眼从分别从两个有利位置观看场景,所看到的物体在图像位置上有差异,从而提供了关于深度的信息和线索,大脑则利用双眼视差从二维视网膜图像中提取深度信息,产生了立体视觉。
运动视差:当观察者或被观察对象在环境中运动时,运动视差也提供了丰富的深度线索来源。运动视差是指不同深度的物体之间的图像运动方向和速度的差异,也称为“单眼运动视差”,是单眼深度线索的一种。当视线在视野中横向移动时见到的物体的运动方向和速度存在差异,在做相对位移的时候,近的物体看起来移动得快,远的物体看起来运动得慢,就产生了运动视差。
对于人类来说,在深度感知的精度和准确性上,双眼视差线索普遍优于运动视差线索。立体视觉对于我们的日常生活非常重要,不仅运动员需要有良好的深度感知能力,每一个人在生活中都需要用到立体视觉。例如开车时,如果没有良好的立体视觉,我们就难以判断前后车的距离,容易出现交通事故。
而生活中经常会出现物体被部分遮蔽的情况,根据立体视功能的不同强弱程度,能够识别出的物体信息量不同,导致形成的立体视程度也不同,立体视功能较弱者甚至无法形成立体视。目前对于立体视功能的检查都是基于提供物体全部信息的,只能检查出在无遮蔽情况下的立体视功能,因此检查的程度不够深,检查结果不够准确。
现有技术中,如2020-12-08公开的中国专利,动静态立体视测试方法及终端,公开号为CN112053781A,解决现有的立体视测试方法准确度不高的问题,但只针对在无遮蔽情况下的立体视功能检查,检查结果不够准确。
发明内容
本发明为克服目前对于立体视功能的检查的程度不够深,检查结果不够准确的技术缺陷,提供一种遮蔽下的立体视功能检查系统。
为解决上述技术问题,本发明的技术方案如下:
一种遮蔽下的立体视功能检查系统,包括生物信息刺激模型生成模块、双眼视差调节模块、遮蔽层调节模块、交互模块、控制模块和显示装置;
所述生物信息刺激模型生成模块,用于生成生物信息刺激模型,并设定生物信息刺激模型的位置状态;
所述双眼视差调节模块,用于调节双眼视差,使受检者观测不同双眼视差下的生物信息刺激模型;
所述遮蔽层调节模块,用于设置遮蔽层对生物信息刺激模型的遮蔽面积,以及调节遮蔽层的对比度;
所述交互模块,用于指定受检者要识别的生物信息刺激模型并向受检者发出指示,还用于接收受检者反馈的识别结果并将识别结果发送到控制模块中,以及用于输出控制模块分析得到的检查结果;
所述控制模块,用于获取受检者要识别的生物信息刺激模型的位置状态以及与位置状态对应的双眼视差、遮蔽面积和遮蔽层对比度;还用于分析受检者反馈的识别结果与受检者要识别的生物信息刺激模型的位置状态是否相符合,得到检查结果;
所述显示装置,用于提供虚拟立体空间并显示生物信息刺激模型。
优选的,生物信息刺激模型的位置状态包括“远”和“近”;以远离受检者的位置状态为“远”,以靠近受检者的位置状态为“近”。
优选的,所述生物信息刺激模型生成模块,还用于将生物信息刺激模型设置为动态生物信息刺激模型或静态生物信息刺激模型。
优选的,遮蔽层为分散几何遮蔽层。
优选的,所述遮蔽层调节模块,还用于将遮蔽层设置为动态遮蔽层或静态遮蔽层。
优选的,动态遮蔽层的运动状态包括平移、旋转和摆动。
优选的,双眼视差的调节范围为0至3000角秒。
优选的,所述显示装置为AR显示装置。
一种遮蔽下的立体视功能检查方法,基于所述的遮蔽下的立体视功能检查系统实现,包括以下步骤:
S1:通过生物信息刺激模型生成模块生成若干个生物信息刺激模型,并设置各个生物信息刺激模型的初始参数;
S2:利用显示装置显示出各个生物信息刺激模型;
通过双眼视差调节模块设置初始的双眼视差为R;
通过遮蔽层调节模块设置遮蔽层对生物信息刺激模型初始的遮蔽面积S为0;
S3:随机指定受检者要识别的生物信息刺激模型并向受检者发出指示;
S4:由受检者根据指示识别指定的生物信息刺激模型的位置状态,并通过交互模块将识别到的位置状态作为识别结果反馈到控制模块中;
S5:分析受检者反馈的识别结果与受检者要识别的生物信息刺激模型的位置状态是否相符合;
若是,则以△r为视差调节间隔降低双眼视差,并返回步骤S3;
若否,则得到受检者识别错误时的双眼视差r,并通过交互模块输出双眼视差r+△r作为第一检查结果;将双眼视差设定为r+△r,以△s为遮蔽面积调节间隔增加遮蔽层对生物信息刺激模型的遮蔽面积,设置遮蔽层初始的对比度CS为100%;
S6:随机指定受检者要识别的生物信息刺激模型并向受检者发出指示;
S7:由受检者根据指示识别指定的生物信息刺激模型的位置状态,并通过交互模块将识别到的位置状态作为识别结果反馈到控制模块中;
S8:分析受检者反馈的识别结果与受检者要识别的生物信息刺激模型的位置状态是否相符合;
若是,则以△s为遮蔽面积调节间隔继续增加遮蔽层对生物信息刺激模型的遮蔽面积,并返回步骤S6;
若否,则得到受检者识别错误时的遮蔽面积s,并通过交互模块输出遮蔽面积s-△s作为第二检查结果。
优选的,在输出第二检查结果之后,还包括以下步骤:
S9:将遮蔽面积设定为s,以△cs为对比度调节间隔降低遮蔽层的对比度CS;
S10:随机指定受检者要识别的生物信息刺激模型并向受检者发出指示;
S11:由受检者根据指示识别指定的生物信息刺激模型的位置状态,并通过交互模块将识别到的位置状态作为识别结果反馈到控制模块中;
S12:分析受检者反馈的识别结果与受检者要识别的生物信息刺激模型的位置状态是否相符合;
若是,则得到受检者识别正确的对比度cs,并通过交互模块输出对比度cs作为第三检查结果;
若否,则以△cs为对比度调节间隔降低遮蔽层的对比度CS,返回步骤S10。
与现有技术相比,本发明技术方案的有益效果是:
本发明提供了一种遮蔽下的立体视功能检查系统,通过受检者在部分遮蔽条件下对生物信息刺激模型的位置状态进行识别,检查出受检者在不同遮蔽条件下的立体视功能,实现更深程度的立体视功能检查,提高检查结果的准确性。
附图说明
图1为本发明的模块连接示意图;
图2为本发明中圆形遮蔽层的示意图;
图3为本发明的技术方案实施步骤流程图;
其中:1、生物信息刺激模型生成模块;2、双眼视差调节模块;3、遮蔽层调节模块;4、交互模块;5、控制模块;6、显示装置。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
如图1所示,一种遮蔽下的立体视功能检查系统,包括生物信息刺激模型生成模块1、双眼视差调节模块2、遮蔽层调节模块3、交互模块4、控制模块5和显示装置6;
所述生物信息刺激模型生成模块1,用于生成生物信息刺激模型,并设定生物信息刺激模型的位置状态;
在具体实施过程中,生物信息刺激模型生成模块1中封装有多种形式的生物信息刺激模型编码模块,能够根据实际情况编码生成若干个不同形式的生物信息刺激模型;生物信息刺激模型的表现形式包括几何体和动物等多种形式;
所述双眼视差调节模块2,用于调节双眼视差,使受检者观测不同双眼视差下的生物信息刺激模型;
在具体实施过程中,受检者可以利用双眼视差调节模块2的按键输入装置调节生物信息刺激模型在虚拟立体空间中的位置深度参数,从而实现调节生物信息刺激模型在观测下的双眼视差;
所述遮蔽层调节模块3,用于设置遮蔽层对生物信息刺激模型的遮蔽面积,以及调节遮蔽层的对比度;当遮蔽面积为0时,为无遮蔽;
在具体实施过程中,遮蔽层设置于虚拟立体空间最接近受检者眼睛的一侧,通过遮蔽层调节模块3的按键输入装置控制遮蔽层的尺寸大小从而间接控制遮蔽层对生物信息刺激模型的遮蔽面积,圆形遮蔽层的尺寸大小包括外径、内径和密度等参数;还可以通过遮蔽层调节模块3的按键输入装置控制遮蔽层的对比度;
所述交互模块4,用于指定受检者要识别的生物信息刺激模型并向受检者发出指示,还用于接收受检者反馈的识别结果并将识别结果发送到控制模块5中,以及用于输出控制模块5分析得到的检查结果;
所述控制模块5,用于获取受检者要识别的生物信息刺激模型的位置状态以及与位置状态对应的双眼视差、遮蔽面积和遮蔽层对比度;还用于分析受检者反馈的识别结果与受检者要识别的生物信息刺激模型的位置状态是否相符合,得到检查结果;
在具体实施过程中,交互模块4还将受检者要识别的生物信息刺激模型同步到控制模块5中,并由控制模块5从生物信息刺激模型生成模块1、双眼视差调节模块2和遮蔽层调节模块3中分别获取受检者要识别的生物信息刺激模型的位置状态以及与位置状态对应的双眼视差、遮蔽面积和遮蔽层对比度;
所述显示装置6,用于提供虚拟立体空间并显示生物信息刺激模型。
更具体的,生物信息刺激模型的位置状态包括“远”和“近”;以远离受检者的位置状态为“远”,以靠近受检者的位置状态为“近”。
更具体的,所述生物信息刺激模型生成模块1,还用于将生物信息刺激模型设置为动态生物信息刺激模型或静态生物信息刺激模型。
在具体实施过程中,动态生物信息刺激模型的动态信息由背流通道加工处理,实现观察背流通道对立体视处理的作用,需要预设生物信息刺激模型的移动速度、幅度和运动朝向;静态生物信息刺激模型的静态信息由腹流通道加工处理,实现观察腹流通道对立体视处理的作用。
更具体的,遮蔽层为分散几何遮蔽层,图2所示为圆形遮蔽层。
更具体的,所述遮蔽层调节模块3,还用于将遮蔽层设置为动态遮蔽层或静态遮蔽层。
更具体的,动态遮蔽层的运动状态包括平移、旋转和摆动。
更具体的,双眼视差的调节范围为0至3000角秒。
更具体的,所述显示装置6为AR显示装置。
在具体实施过程中,显示装置6还可以采用VR、MR和裸眼3D等显示装置6。
实施例2
如图3所示,一种遮蔽下的立体视功能检查方法,基于所述的遮蔽下的立体视功能检查系统实现,包括以下步骤:
S1:通过生物信息刺激模型生成模块1生成若干个生物信息刺激模型,并设置各个生物信息刺激模型的初始参数;
S2:利用显示装置6显示出各个生物信息刺激模型;
通过双眼视差调节模块2设置初始的双眼视差为R;
通过遮蔽层调节模块3设置遮蔽层对生物信息刺激模型初始的遮蔽面积S为0;
S3:随机指定受检者要识别的生物信息刺激模型并向受检者发出指示;
S4:由受检者根据指示识别指定的生物信息刺激模型的位置状态,并通过交互模块4将识别到的位置状态作为识别结果反馈到控制模块5中;
S5:分析受检者反馈的识别结果与受检者要识别的生物信息刺激模型的位置状态是否相符合;
若是,则以△r为视差调节间隔降低双眼视差,并返回步骤S3;
若否,则得到受检者识别错误时的双眼视差r,并通过交互模块4输出双眼视差r+△r作为第一检查结果;将双眼视差设定为r+△r,以△s为遮蔽面积调节间隔增加遮蔽层对生物信息刺激模型的遮蔽面积,设置遮蔽层初始的对比度CS为100%;
S6:随机指定受检者要识别的生物信息刺激模型并向受检者发出指示;
S7:由受检者根据指示识别指定的生物信息刺激模型的位置状态,并通过交互模块4将识别到的位置状态作为识别结果反馈到控制模块5中;
S8:分析受检者反馈的识别结果与受检者要识别的生物信息刺激模型的位置状态是否相符合;
若是,则以△s为遮蔽面积调节间隔继续增加遮蔽层对生物信息刺激模型的遮蔽面积,并返回步骤S6;
若否,则得到受检者识别错误时的遮蔽面积s,并通过交互模块4输出遮蔽面积s-△s作为第二检查结果;
S9:将遮蔽面积设定为s,以△cs为对比度调节间隔降低遮蔽层的对比度CS;
S10:随机指定受检者要识别的生物信息刺激模型并向受检者发出指示;
S11:由受检者根据指示识别指定的生物信息刺激模型的位置状态,并通过交互模块4将识别到的位置状态作为识别结果反馈到控制模块5中;
S12:分析受检者反馈的识别结果与受检者要识别的生物信息刺激模型的位置状态是否相符合;
若是,则得到受检者识别正确的对比度cs,并通过交互模块4输出对比度cs作为第三检查结果;
若否,则以△cs为对比度调节间隔降低遮蔽层的对比度CS,返回步骤S10。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (10)

1.遮蔽下的立体视功能检查系统,其特征在于,包括生物信息刺激模型生成模块、双眼视差调节模块、遮蔽层调节模块、交互模块、控制模块和显示装置;
所述生物信息刺激模型生成模块,用于生成生物信息刺激模型,并设定生物信息刺激模型的位置状态;
所述双眼视差调节模块,用于调节双眼视差,使受检者观测不同双眼视差下的生物信息刺激模型;
所述遮蔽层调节模块,用于设置遮蔽层对生物信息刺激模型的遮蔽面积,以及调节遮蔽层的对比度;
所述交互模块,用于指定受检者要识别的生物信息刺激模型并向受检者发出指示,还用于接收受检者反馈的识别结果并将识别结果发送到控制模块中,以及用于输出控制模块分析得到的检查结果;
所述控制模块,用于获取受检者要识别的生物信息刺激模型的位置状态以及与位置状态对应的双眼视差、遮蔽面积和遮蔽层对比度;还用于分析受检者反馈的识别结果与受检者要识别的生物信息刺激模型的位置状态是否相符合,得到检查结果;
所述显示装置,用于提供虚拟立体空间并显示生物信息刺激模型。
2.根据权利要求1所述的遮蔽下的立体视功能检查系统,其特征在于,生物信息刺激模型的位置状态包括“远”和“近”;以远离受检者的位置状态为“远”,以靠近受检者的位置状态为“近”。
3.根据权利要求1所述的遮蔽下的立体视功能检查系统,其特征在于,所述生物信息刺激模型生成模块,还用于将生物信息刺激模型设置为动态生物信息刺激模型或静态生物信息刺激模型。
4.根据权利要求1所述的遮蔽下的立体视功能检查系统,其特征在于,遮蔽层为分散几何遮蔽层。
5.根据权利要求1所述的遮蔽下的立体视功能检查系统,其特征在于,所述遮蔽层调节模块,还用于将遮蔽层设置为动态遮蔽层或静态遮蔽层。
6.根据权利要求5所述的遮蔽下的立体视功能检查系统,其特征在于,动态遮蔽层的运动状态包括平移、旋转和摆动。
7.根据权利要求1所述的遮蔽下的立体视功能检查系统,其特征在于,双眼视差的调节范围为0至3000角秒。
8.根据权利要求1所述的遮蔽下的立体视功能检查系统,其特征在于,所述显示装置为AR显示装置。
9.遮蔽下的立体视功能检查方法,其特征在于,包括以下步骤:
S1:通过生物信息刺激模型生成模块生成若干个生物信息刺激模型,并设置各个生物信息刺激模型的初始参数;
S2:利用显示装置显示出各个生物信息刺激模型;
通过双眼视差调节模块设置初始的双眼视差为R;
通过遮蔽层调节模块设置遮蔽层对生物信息刺激模型初始的遮蔽面积S为0;
S3:随机指定受检者要识别的生物信息刺激模型并向受检者发出指示;
S4:由受检者根据指示识别指定的生物信息刺激模型的位置状态,并通过交互模块将识别到的位置状态作为识别结果反馈到控制模块中;
S5:分析受检者反馈的识别结果与受检者要识别的生物信息刺激模型的位置状态是否相符合;
若是,则以△r为视差调节间隔降低双眼视差,并返回步骤S3;
若否,则得到受检者识别错误时的双眼视差r,并通过交互模块输出双眼视差r+△r作为第一检查结果;将双眼视差设定为r+△r,以△s为遮蔽面积调节间隔增加遮蔽层对生物信息刺激模型的遮蔽面积,设置遮蔽层初始的对比度CS为100%;
S6:随机指定受检者要识别的生物信息刺激模型并向受检者发出指示;
S7:由受检者根据指示识别指定的生物信息刺激模型的位置状态,并通过交互模块将识别到的位置状态作为识别结果反馈到控制模块中;
S8:分析受检者反馈的识别结果与受检者要识别的生物信息刺激模型的位置状态是否相符合;
若是,则以△s为遮蔽面积调节间隔继续增加遮蔽层对生物信息刺激模型的遮蔽面积,并返回步骤S6;
若否,则得到受检者识别错误时的遮蔽面积s,并通过交互模块输出遮蔽面积s-△s作为第二检查结果。
10.根据权利要求9所述的遮蔽下的立体视功能检查方法,其特征在于,在输出第二检查结果之后,还包括以下步骤:
S9:将遮蔽面积设定为s,以△cs为对比度调节间隔降低遮蔽层的对比度CS;
S10:随机指定受检者要识别的生物信息刺激模型并向受检者发出指示;
S11:由受检者根据指示识别指定的生物信息刺激模型的位置状态,并通过交互模块将识别到的位置状态作为识别结果反馈到控制模块中;
S12:分析受检者反馈的识别结果与受检者要识别的生物信息刺激模型的位置状态是否相符合;
若是,则得到受检者识别正确的对比度cs,并通过交互模块输出对比度cs作为第三检查结果;
若否,则以△cs为对比度调节间隔降低遮蔽层的对比度CS,返回步骤S10。
CN202110388357.1A 2021-04-12 2021-04-12 遮蔽下的立体视功能检查系统 Active CN113077510B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110388357.1A CN113077510B (zh) 2021-04-12 2021-04-12 遮蔽下的立体视功能检查系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110388357.1A CN113077510B (zh) 2021-04-12 2021-04-12 遮蔽下的立体视功能检查系统

Publications (2)

Publication Number Publication Date
CN113077510A true CN113077510A (zh) 2021-07-06
CN113077510B CN113077510B (zh) 2022-09-20

Family

ID=76617248

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110388357.1A Active CN113077510B (zh) 2021-04-12 2021-04-12 遮蔽下的立体视功能检查系统

Country Status (1)

Country Link
CN (1) CN113077510B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004102323A (ja) * 2002-09-04 2004-04-02 Fuji Heavy Ind Ltd 画像処理装置および画像処理方法
CN101986717A (zh) * 2010-11-11 2011-03-16 昆山龙腾光电有限公司 立体显示用图像数据生成系统
JP2013055383A (ja) * 2011-09-01 2013-03-21 Panasonic Corp 立体視映像のための画像表示システム及び3次元表示装置
JP2013208191A (ja) * 2012-03-30 2013-10-10 Nikon Corp 検査視標及び検査システム
CN106203429A (zh) * 2016-07-06 2016-12-07 西北工业大学 基于双目立体视觉复杂背景下的遮挡目标检测方法
CN110119203A (zh) * 2011-11-21 2019-08-13 株式会社尼康 显示装置及显示控制程序
CN110381810A (zh) * 2016-09-23 2019-10-25 诺瓦赛特有限公司 筛查装置和方法
CN111815755A (zh) * 2019-04-12 2020-10-23 Oppo广东移动通信有限公司 虚拟物体被遮挡的区域确定方法、装置及终端设备

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004102323A (ja) * 2002-09-04 2004-04-02 Fuji Heavy Ind Ltd 画像処理装置および画像処理方法
CN101986717A (zh) * 2010-11-11 2011-03-16 昆山龙腾光电有限公司 立体显示用图像数据生成系统
JP2013055383A (ja) * 2011-09-01 2013-03-21 Panasonic Corp 立体視映像のための画像表示システム及び3次元表示装置
CN110119203A (zh) * 2011-11-21 2019-08-13 株式会社尼康 显示装置及显示控制程序
JP2013208191A (ja) * 2012-03-30 2013-10-10 Nikon Corp 検査視標及び検査システム
CN106203429A (zh) * 2016-07-06 2016-12-07 西北工业大学 基于双目立体视觉复杂背景下的遮挡目标检测方法
CN110381810A (zh) * 2016-09-23 2019-10-25 诺瓦赛特有限公司 筛查装置和方法
CN111815755A (zh) * 2019-04-12 2020-10-23 Oppo广东移动通信有限公司 虚拟物体被遮挡的区域确定方法、装置及终端设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
侯川: "立体视觉的发生机理与检测", 《中国斜视与小儿眼科杂志》 *

Also Published As

Publication number Publication date
CN113077510B (zh) 2022-09-20

Similar Documents

Publication Publication Date Title
Dokka et al. Multisensory integration of visual and vestibular signals improves heading discrimination in the presence of a moving object
Palmisano Consistent stereoscopic information increases the perceived speed of vection in depth
Brooks Interocular velocity difference contributes to stereomotion speed perception
Cuturi et al. Optic flow induces nonvisual self-motion aftereffects
CN104853185A (zh) 结合多视差和运动的立体视频舒适度评价方法
Nagai et al. Larger forward memory displacement in the direction of gravity
CN115251827B (zh) 基于虚实结合的深度知觉评估方法及系统
Pan et al. Embodied memory: Effective and stable perception by combining optic flow and image structure.
Harris et al. Accuracy and precision of binocular 3-D motion perception.
Ono et al. Motion parallax driven by head movements: Conditions for visual stability, perceived depth, and perceived concomitant motion
Norman et al. Aging and the perception of slant from optical texture, motion parallax, and binocular disparity
Bülthoff et al. Perceived depth scales with disparity gradient
CN113077510B (zh) 遮蔽下的立体视功能检查系统
CN112165613B (zh) 基于水平运动的动态随机点立体图的立体视锐度测试方法
Ono et al. Depth and motion in historical descriptions of motion parallax
Seya et al. Effect of depth order on linear vection with optical flows
Harris Binocular vision: moving closer to reality
Tassinari et al. The intrinsic constraint model for stereo-motion integration
Corrow et al. Six-month-old infants' perception of the hollow face illusion: Evidence for a general convexity bias
Boustila et al. Effects of stereo and head tracking on distance estimation, presence, and simulator sickness using wall screen in architectural project review
Faubert The influence of optical distortions and transverse chromatic aberrations on motion parallax and stereopsis in natural and artificial environments
Tozawa et al. Effects of motion parallax and perspective cues on perceived size and distance
Tittle et al. Relationship of static stereoscopic depth perception to performance with dynamic stereoscopic displays
Leroy et al. Experiments on shape perception in stereoscopic displays
Rosas et al. Psychophysical approach to the measurement of depth perception in stereo vision

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant