CN102573611A - 互补色立体深度感训练或测试 - Google Patents

互补色立体深度感训练或测试 Download PDF

Info

Publication number
CN102573611A
CN102573611A CN2010800448094A CN201080044809A CN102573611A CN 102573611 A CN102573611 A CN 102573611A CN 2010800448094 A CN2010800448094 A CN 2010800448094A CN 201080044809 A CN201080044809 A CN 201080044809A CN 102573611 A CN102573611 A CN 102573611A
Authority
CN
China
Prior art keywords
complementary color
color image
wavelength
perception
sensation target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2010800448094A
Other languages
English (en)
Other versions
CN102573611B (zh
Inventor
阿蓝·W·雷切尔
卡尔·希特克
格拉汉姆·B·埃里克森
赫本·雅欧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nike Innovate CV USA
Original Assignee
Nike International Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US12/534,661 external-priority patent/US7980693B2/en
Application filed by Nike International Ltd filed Critical Nike International Ltd
Publication of CN102573611A publication Critical patent/CN102573611A/zh
Application granted granted Critical
Publication of CN102573611B publication Critical patent/CN102573611B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • A61B3/032Devices for presenting test symbols or characters, e.g. test chart projectors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/08Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing binocular or stereoscopic vision, e.g. strabismus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H5/00Exercisers for the eyes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H5/00Exercisers for the eyes
    • A61H5/005Exercisers for training the stereoscopic view
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • G02B30/23Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type using wavelength separation, e.g. using anaglyph techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Ophthalmology & Optometry (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Epidemiology (AREA)
  • Rehabilitation Therapy (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Pain & Pain Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Eye Examination Apparatus (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Eyeglasses (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

本发明提供互补色立体图像呈现系统来评估和训练用户的深度感能力。在实施例中,在显示装置上为用户呈现互补色图像目标构件。之后由用户通过透射滤镜组观察所述图像目标构件。透射滤镜组基于与每个透镜关联的峰值波长呈现或阻挡一或多个目标构件。因此,用户当通过透射滤镜观察时,感知由被感知图像目标构件生成的互补色立体目标图像。

Description

互补色立体深度感训练或测试
对相关申请的交叉引用
本申请要求2009年12月1日申请、申请号为12/628,347、名称为“互补色立体深度感训练或测试”和2009年8月3日申请、申请号为12/534,661、名称为“互补色立体深度感训练或测试”的美国申请的优先权。
技术领域
本发明总体涉及视觉训练和/或测试。更具体地,本发明涉及从个体深度感能力的聚散幅度方面的差别中分离出来的个体深度感能力的视网膜像差灵敏度方面的训练和/或评估。
背景技术
许多活动,例如竞技体育,特别要求个体的深度感能力。虽然很早就已知向个体呈现三维图像的互补色立体系统,那些系统具有较差的光学和/或有限图像过滤能力的缺点。其他已知系统,例如与同步显示装置一起使用的LCD眼镜,昂贵且笨重。
发明内容
本发明内容用于以简化的方式引入概念的选择,所述概念在以下具体实施方式中进一步说明。本发明内容不意于确定要求保护主题的关键特征或本质特征,也不意于辅助确定要求保护主题的范围。
本发明提供了本领域中的几种实际应用,不限于用于测试和/或训练个体深度感能力的系统和方法。根据本发明的系统在互补色立体图像显示装置上为用户呈现一或多个互补色立体图像,之后由用户通过透射滤镜(transmission filter lenses)组观察那些图像,以模拟相对于显示装置的背景在不同深度出现的物体。根据本发明的互补色立体图像呈现系统可包括互补色立体图像显示装置、透射滤镜组、输入装置和控制单元。通过使用户通过透射滤镜感知背景上多个显示的有色视觉形迹,根据本发明的系统可为用户模拟深度和/或三维空间的外貌。
输入装置可从用户接收响应于显示的视觉形迹的输入。在示例性实施例中,显示装置上的有色图像的互补色立体显示包含通过透射滤镜组被感知的至少两个有色形迹。作为至少一个互补色立体图像之构件的有色图像的显示可利用控制单元控制,由此使从各个有色图像发射的峰值波长与通过透射滤镜组透射的峰值波长相匹配,或者避免渗漏(bleed-through)。例如,当使用红色和蓝色透射滤镜时,互补色立体显示装置的显示可包含至少一红色形迹和至少一蓝色形迹,红色形迹和蓝色形迹由控制单元调节,使得分别透过红色和蓝色透镜的峰值波长相匹配。在实施例中,红色形迹可由通过蓝色透射滤镜观察的眼睛感知到。当红色形迹由眼睛透过蓝色透射滤镜感知时,原来的红色形迹会显示为相对于发蓝背景的黑色(或深色)。进一步,当由眼睛透过红色透射滤镜观察时,红色形迹可与背景是相同或相似的颜色和亮度,因此不会被感知到,因为原来的红色形迹会溶进背景中。相类似,蓝色形迹可由通过红色透射滤镜观察的眼睛感知到,其中原来的蓝色形迹会显示为相对于发红背景的黑色(或暗色)。进一步,当通过蓝色透射滤镜观察时,蓝色形迹可与背景是相同或相似的颜色和亮度,因此不会被感知到,因为原来的蓝色形迹会溶进背景中。透射峰值波长与发射峰值波长的匹配使得当通过透射滤镜组观察时,形迹以选择的方式被感知和阻挡,其中每个透镜与由根据本发明实施例显示的一组有色形迹发射的峰值波长相匹配。利用一滤镜观察仅一种颜色形迹的能力构成本发明实施例中说明的互补色立体图像呈现系统的基础。
在选择实施例中,透射峰值波长的匹配可包含一定范围的相近波长值中的一个。本发明的一个特征是限制或消除通过一个以上透射滤镜的颜色渗漏的能力。颜色渗漏,也即其中一部分颜色波谱通过一个以上透射滤镜可见,引起生成的互补色立体图像显示模糊。通过降低或消除颜色渗漏,由用户感知的生成互补色立体图像具有高清晰度。
在其他选择实施例中,更改每组有色形迹发射的峰值波长,以分别在由透射滤镜组的每个滤镜透射的高和低范围内发射。由此,在实施例中,透射滤镜组的每个滤镜选择为与其他透射滤镜在很大程度上分开(例如,在透射滤镜组中,右侧透镜可选择为“红色”,左侧透镜可选择为“蓝色”)。通过改变由每组显示的有色形迹发射的峰值波长,以使得对于每个物体被感知的波长分别位于蓝色范围的下端或红色范围的上端,使生成的互补色立体图像会具有较少的渗漏,并且比如果由互补色立体图像构件发射的峰值波长与通过每个透射滤镜透射的峰值波长精确匹配时具有更清晰的图像。
在选择实施例中,通过有色形迹在互补色立体图像显示装置的不同部分布局,互补色立体图像可组合给出不同深度的感知。具体而言,互补色立体图像可显示悬浮或漂浮在注视平面之前或之后。例如,第一互补色立体图像构件和第二互补色立体图像构件之间的视网膜像差的差别可以是12角秒(arcsecond)。因此,感知所生成互补色立体图像的个体可感觉到图像具有在第一图像和第二图像之间12角秒的漂浮。以这种方式,漂浮在图像之间和/或图像与注视平面之间是相对的。
在实施例中,通过改变第一波长的图像构件与第二波长的图像构件之间的距离,可实现多种程度的深度感。这个距离可称为构件间距(pixdelta)。在此还使用蓝色形迹和红色形迹作为互补色立体图像构件的例子,分别在显示装置左侧和右侧部分的蓝色形迹和红色形迹的方位,当利用分别包含蓝色左侧透镜和红色右侧透镜的透射滤镜组观察时,会显示漂浮在背景平面的前方。当蓝色形迹和红色形迹移动得更加分开(即,当蓝色形迹进一步向左移动,和/或红色形迹进一步向右移动)时,生成的互补色立体图像将显示在背景平面之前越来越远(例如生成的互补色立体图像会显示离用户更近)。在本实施例中,当形迹离得更远时,构件间距将变得愈加正数,其中正数的涵义是由于蓝色形迹和红色形迹的相关关系,所述相关关系与蓝色左侧透射滤镜和红色右侧透射滤镜的相对关系一致。
相反,假定除了蓝色形迹和红色形迹颠倒(例如蓝色形迹呈现在显示装置的右部,红色形迹呈现在显示装置的左部)之外,其他都与上述相同的系统,当利用分别包含红色右侧透镜和蓝色左侧透镜的透射滤镜组观察时,生成的互补色立体图像会显示悬浮在背景平面之后。类似于以上结果,当蓝色形迹和红色形迹移动得更加分开(例如,当蓝色形迹进一步向右移动,和/或红色形迹进一步向左移动)时,图像会显示悬浮在背景平面的更后方。在本示例中,当形迹进一步远离时,构件间距会变得愈加负数,其中负数的涵义是由于蓝色形迹和红色形迹的相反关系,所述相反关系与蓝色左侧透射滤镜和红色右侧透射滤镜的相对关系不一致。
可使用控制单元来呈现和安排用作互补色立体图像呈现系统的互补色立体图像构件的一或多个有色形迹。在一实施例中,互补色立体图像构件可基于由控制单元执行的测试指令而呈现在互补色立体图像显示装置上。在互补色立体图像构件的显示过程中,测试指令可用于控制显示的互补色立体图像构件之间的构件间距。
在操作中,当根据本发明实施例训练个体的深度感时,当以变化的构件间距在显示装置的一区域呈现的第一互补色立体图像与在显示装置的另一部分以固定构件间距呈现的第二互补色立体图像深度看起来匹配时,可提示个体使用输入装置。一旦用户通过将响应输入到输入装置表明已满足条件时,控制单元可检测使用的时刻,并根据使用时刻与预期时刻(即第一互补色立体图像实际上出现与第二互补色立体图像相同深度的时间)的比较确定个体响应的精确性。可选择地,假设第一互补色立体图像中深度差别恒定变化,当个体将响应输入到输入装置时,第一互补色立体图像和第二互补色立体图像之间的深度差别的程度可用作个体深度感速度和准确度的测量。根据情况,控制单元可存储与训练、评估或用户深度感能力有关的其他信息。
附图说明
以下参照附图详细说明本发明,其中:
图1表示根据本发明实施例的互补色立体图像呈现系统。
图2表示根据本发明实施例的相对亮度百分透射率绘制的发射和透射波长图。
图3表示互补色立体图像显示装置,其提供可根据本发明实施例通过透射滤镜组被观察的目标构件图像。
图4表示当通过根据本发明实施例第一透射滤镜观察时,互补色立体图像显示装置的被感知的互补色立体图像。
图5表示当通过根据本发明实施例第二透射滤镜观察时,互补色立体图像显示装置的被感知的互补色立体图像。
图6表示根据本发明实施例,利用多种构件间距显示的互补色立体图像构件的显示。
图7表示根据本发明实施例的互补色立体图像显示装置。
图8是表示根据本发明实施例用于为用户呈现至少一互补色立体图像方法的流程图。
图9表示根据本发明实施例,相对于参考图像,前景图像的互补色立体图像构件的显示。
图10表示根据本发明实施例,相对于参考图像,背景图像的互补色立体图像构件的显示。
图11表示用于相对于参考图像,为用户呈现至少一互补色立体图像的方法的流程图。
图12表示根据本发明实施例,相对于背景呈现的两个互补色立体图像的图像构件。
图13提供了表示根据本发明实施例的示例性训练计划的流程图。
图14表示根据本发明实施例的阶段训练机制。
图15提供了流程图,其表示根据本发明实施例消除与呈现互补色立体图像相关联的重影的方法。
具体实施方式
为了满足法定要求,在此具体说明了本发明的主题。然而,说明本身不意于限制该专利的范围。相反,发明人预期要求保护的主题还可以其他方式体现,以包括连同其他现有或今后技术,与本申请所说明的类似的不同的步骤或步骤组合。
本发明实施例提供了用于训练和/或评估个体深度感能力的互补色立体图像呈现系统。仅示作为例而非限制,合适的互补色立体图像呈现系统可包括呈现多个被感知的目标图像的互补色立体图像显示装置,每个被感知的目标图像与左侧显示图像构件和右侧显示图像构件关联。特别是,对于被感知的互补色立体目标的给定显示,显示装置显示三个构件:背景显示、左侧目标显示构件和右侧目标显示构件,所述背景、左侧目标显示构件和右侧目标显示构件每个都含有一组性质。在实施例中,与每种显示有关的一组性质可包括:显示波长和显示光亮度。此外,互补色立体图像呈现系统可使显示装置的用于显示多个被感知目标图像的区域多样化,其中多个被感知目标图像可包含多个目标显示构件图像。以这种方式,通过在互补色立体图像呈现系统的显示装置中移动目标显示构件,用户可感知与多个深度感测量/距离独立的一系列不同的目标。在本发明实施例中,通过改变左侧显示图像构件与右侧显示图像构件之间的构件间距(即形迹位置之间的距离),将深度外貌赋予被感知目标显示。构件间距可包含两个图像构件之间例如以厘米计的原始距离,或者可以指显示器上两个图像构件之间的像素数。
显示装置也可显示背景,所述背景被调整为发射一定的波长,当通过透射滤镜组观察时,所述波长的颜色被感知为,当通过分别针对每个被感知目标图像的关联透射滤镜观察时,左侧被感知目标构件与右侧被感知目标构件之间的亮度相同。在示例性实施例中,互补色立体图像呈现系统进一步包含控制单元以及输入装置,所述控制单元用于呈现多个目标显示构件作为被感知的互补色立体图像,由此生成关联的被感知目标图像的深度显现,所述输入装置由个体使用,以表明在显示装置上显示的多个被感知目标图像中,哪个(些)被感知目标图像具有与被感知目标图像关联的最大深度显现。
在实施例中,当利用互补色立体图像显示装置训练个体的深度感时,被感知目标显示构件可以多个构件间距性质被策略性定位,由此关联的被感知目标图像可具有在显示平面的基准面被感知的深度显现,其被感知处于显示平面前的一深度处,或被感知处于显示平面后的一深度处。
已简要说明本发明的实施例,以下说明用于本发明的示例性运行环境。
可以在根据计算机代码或机器可用指令(例如测试指令)实现功能的互补色立体显示装置的大背景下说明本发明实施例,所述机器可用指令包括计算机可执行指令例如程序组件,其由计算装置(例如控制单元、输入装置或记录装置)或其他逻辑处理机器例如个人数据助理或其他手持装置执行的指令。总体上,程序组件包括程序(routines,programs)、形迹、构件、数据结构等,涉及执行特定任务或实施特定抽象数据类型的代码。本发明实施例可以多种系统结构实施,所述系统结构包括手持装置、消费电子产品、通用计算机、专用计算装置等。
现在参照附图说明深度感训练/测试系统实施例,及其使用的互补色立体图像显示装置。附图及相关说明用于解释本发明实施例,而非限制其范围。说明书中提及的“实施例”旨在表明与实施例相关的具体特征、结构或特性,包含在本发明至少一个实施例中。进一步,在说明书多处出现的“在一实施例中”不一定全部指代同一实施例。
参照附图,首先具体参照图1,表示了根据本发明实施例的互补色立体图像呈现系统100。在示例性实施例中,互补色立体图像呈现系统100包含互补色立体图像显示装置140、透射滤镜组150、控制单元160和输入装置170。互补色立体图像显示装置140可被安置在接受测试的个体130和透射滤镜组150之间。
参照图1,现在讨论控制单元160。总体上,控制单元160配置为用于测试和/或训练个体130的深度感能力。本领域技术人员可理解并领会,控制单元160仅仅是一个适当的计算装置的例子,并不意欲暗示对于本发明实施例用途或功能范围的任何限制。因此,控制单元160可采取通常在个人计算装置、手持装置、消费电子产品等中配置的多种类型的处理器。然而应注意,本发明实施例不限于在任何具体处理构件上的实施。
本发明可用于在大范围的距离上测试深度感,例如深度判断的准确度。在实施例中,可为用户在不同被感知深度呈现两个或两个以上图像,并且可要求用户选择与至少一其他图像相比在深度信息方面具有小差别的图像。如此,本发明可利用特定的应用程序用于多种活动深度感测试/训练。例如,可根据本发明的长短程深度方面测试和/或训练与运动例如英式足球、曲棍球、足球等有关的深度感。在其他实施例中,可根据本发明短程深度方面测试和/或训练与例如台球活动有关的深度感。
在示例性实施例中,控制单元160总体上配置为任何类型的能执行测试指令的微处理器。仅作为示例而非限制,执行测试指令可包括在互补色立体图像显示装置140上呈现代表互补色立体图像构件的有色形迹。控制单元160还可控制任何额外视觉特性,例如颜色、方位、旋转、轨迹等。在一种情况中,提供互补色立体图像构件可包含但不限于以下过程:在互补色立体图像显示装置140上呈现互补色立体图像构件,保持互补色立体图像构件一段预先确定的时间(例如毫秒至分钟),以及通过将互补色立体图像显示装置140返回闲置条件使其失效。通常,因为控制单元160选择互补色立体图像构件的其他布局以循环选择测试条件,所以数次重复所述过程。
典型地,电源(未示出)可连接至控制单元160和/或互补色立体图像显示装置140。如此,电源协助支持某些或全部电驱动部件的操作。在实施例中,电源可以是电池(battery)、插座、蓄电池(power cell)、太阳电池板或任何其他稳定电流源。
在一种情况下,从电源提供的电流由控制单元160控制,并经由传输连接162传导至多个光源110。在另一种情况下,传输连接162用于将信号从控制单元160传导至互补色立体显示装置140,来打开或关闭一或多个选择的光源。类似地,传输连接164将控制单元160可操作地连接至输入装置170。以这种方式,传输连接164使得输入装置170能够将个体起动的指令传导至控制单元160和/或将控制信号从控制单元160传导至输入装置170。
在实施例中,传输连接162和164可以是有线或无线的。在本发明范围内,具体的有线实施例的示例包括USB连接和电缆连接。在本发明范围内,具体的无线实施例的示例包括近程无线网络和射频技术。应理解和领会,称呼“近程无线网络”不意味着限制,应广义解释为包括至少下列技术:协商无线外围(NWP)装置;短程无线干扰网络(例如无线个人区域网(wPAN)、无线局域网络(wLAN)、无线广域网络(wWAN)、蓝牙TM等);无线对等传输(例如超宽带);以及支持装置之间数据无线传输的任何协议。此外,熟悉发明领域的人会意识到近程无线网络可由与具体解释的实施例不同的多种数据传递方法实施(例如卫星传送、远程通信网络等)。
在其他实施例中,互补色立体呈现系统100可不配置控制单元160。这种情况下,互补色立体图像显示装置140以配线中含有的开关或继电器部件电线连接,以控制互补色立体图像显示装置140的激活路由和定时。以这种方式,当为互补色立体图像显示装置140提供电源时,配线引导电源,以呈现一或多个互补色立体图像构件,由此使用户感知至少一个互补色立体图像。
通常,输入装置170配置为从个体130接收响应输入,并将用户输入的响应传给控制单元160用于处理。仅作为示例,个体130可在感知到显示距背景平面最远距离的互补色立体图像后,输入响应。输入装置170可以是例如像
Figure BDA0000150465270000091
触摸界面的多触装置、麦克风、操纵杆、游戏手柄、无线装置、键盘、按键、游戏控制器、压力板、眼睛追踪系统、姿势识别系统、触敏屏和/或对互补色立体图像显示装置140提供有线或无线数据的任何其他起动输入的部件。
输入装置170可包括语音识别设备和/或处理来自受试者听觉输入的软件。例如,为了显示视觉形迹和/或视觉形迹具有的视觉特征的识别(例如,如果以某一图案呈现一系列互补色立体图像,要求用户输入与具有最大深度的图像关联的特征),来自受试者的听觉输入可以是视觉形迹具有的特征的语言表达。在一实施例中,如果特征是呈现的互补色立体图像的方向性位置,响应的听觉输入可以是“上”、“下”、“左”和“右”。然而,本领域技术人员会理解和领会,也可使用其他听觉输入(例如陈述数字、字母、符号等)表明受试者感知到和/或识别了视觉形迹。然而应注意,本发明不限于在这样的输入装置170上实施,而是可在此实施例范围内的任何多种不同类型的装置上实施。可利用输入装置170接收并捕捉表明受试者对显示的视觉形迹的响应。如果特征是方向性位置,令人满意的测试响应可以是识别图像所位于的显示器象限。仅作为示例而非限制,识别可包括受试者通过对应于在作为输入装置170的手持装置上的方向上操纵操纵杆来提供输入。
如果输入装置170是姿势识别系统,可使用多个系统和/或方法来接收输入。例如,可使用一或多个相机连同合适的硬件和/或软件一起来监测受试者身体、眼睛、四肢和/或肢端的移动,当受试者做出恰当的姿势时,记录输入。姿势识别系统还可利用装到受试者的光学形迹,以方便动作追踪。还可使用装到受试者的发射机和接收器(例如,利用无线电、红外线、音波、次音波或超音波传输)作为姿势识别系统的一部分。
如果输入装置170是触敏屏,可使用任何类型的触敏屏。还可使用触敏材料的覆盖层,连同本身不是触敏的显示器一起接收触摸输入。这样的覆盖层可以距显示器任意距离。
虽然没有显示,互补色立体图像呈现系统100也可包括记录装置。在一种情况下,记录装置是通过传输连接可操作地连接到控制单元160的外置设备。在一情况下,记录装置是整合在控制单元160中的数据存储部件。在操作中,记录装置配置为保留信息,所述信息例如是输入到输入装置170的响应记录、深度感测试的收集、测试指令、测试数据等。所述信息可以是可由控制单元160或任何其他计算装置在记录装置中检索到的。进一步,所述信息可以从记录下载,以完成其分析,例如计算用户的深度感测量历史记录,或者用户深度感能力随时间改善的分析。进一步,信息(例如测试指令)可上传至记录装置,以使其可由控制单元160存取。尽管以上讨论了各种信息实施例,这种信息的内容和数量不意欲以任何方式限定本发明实施例范围。
在实施例中,控制单元160可通过为个体130提供反馈,作为训练装置起作用。反馈可以任何形式呈现,并且可以基于任何信息,所述反馈包括深度感测量结果、操作的测试结果以及来自测试指令的预先确定的数据。进一步,在实施例中,控制单元160可作为分析处理器起作用,来评估个体130的深度感能力。可通过将来自个体130的响应与期望响应相比较来完成评估。一种情况下,比较响应包含将与用户对输入装置170的响应关联的深度感测量结果与呈现给用户的深度信息相比较。
在实施例中,可使用互补色立体图像呈现系统100,使用如下表1中提供的测试参数训练受试者的深度感能力。表1包含测试的次序编号(1、2、3和4);与被感知互补色立体图像关联的棱镜折光度;棱镜基线方向;有色形迹的方位;所述形迹例如是在互补色立体图像显示装置140上显示的圆点;互补色立体图像显示装置140上一组有色圆点之间的pixdelta距离;显示时间。当被感知互补色立体图像悬浮在背景前方时,棱镜基线方向可以是基线向外(BO),或者当被感知互补色立体图像悬浮在背景后方时,棱镜基线方向可以是基线向内(BI)。
如下所示,互补色立体图像呈现系统100的一示例性系列的训练练习包含在两分钟过程内呈现给受试者的一系列四个测试。在实施例中,将定向为悬浮在背景前方或后方的一对互补色立体图像呈现给受试者。在用户观察深度信息、例如互补色立体图像所呈现的深度信息的实施例中,通过定向为红色透镜覆盖右眼且蓝色透镜覆盖左眼的透射滤镜组,带有表1中描述的构件的最终图像将显示为分别悬浮在背景之前、之后、之前和之后。
表1
如上述,圆点中心之间的基线距离(base distance)由构件间距测量。在本示例中,一个像素的宽度是0.282mm。此外,像素间距离可由与每个构件间距关联的角秒指代。与每个角秒关联的像素数目基于受试者距显示屏的距离。例如,当受试者站在距显示屏十六英尺时,一个像素的构件间距可包含十二角秒。可选择地,当受试者站在距显示屏三十二英尺时,一格像素的构件间距可包含六角秒。以下显示构件间距级别的示例性表格。
表2
Figure BDA0000150465270000122
如表1和表2所示,所呈现的两对圆点之间的距离的差别可以较小(例如在毫米十分之一的级别上),由此利用实质上不变的视觉聚散度来训练个体深度感能力的视网膜像差灵敏度。在这些情况下,受试者的视网膜像差灵敏度会是通过互补色立体图像呈现系统100训练的主要方面。
除了测试用户深度感的视网膜像差灵敏度方面,互补色立体图像呈现系统100还用来测试和/或训练用户感知呈现给用户的深度之间区别的速度。用户感知速度可基于时间量来测定,所述时间量是从显示形迹的第一时刻至从受试者接收响应的第二时刻。当用户正确识别距背景最远的最终互补色立体图像(或者距背景最近的图像,取决于要求的测试问题)时,可以更快的节奏向用户提供深度信息。此外或者可选择地,可向用户提供具有较小构件间距的深度信息,由此对用户增加难度等级。
此外,尽管说明了互补色立体图像构件的具体结构,本领域技术人员应该理解和领会,可使用用于呈现互补色立体图像构件的其他方法,本发明不限于所显示和说明的实施例。
参照图2,根据本发明提供了透射波长图200。图200由xy坐标图上的关于波长的百分透射率的测量组成。图2的图表包含显示的左侧目标构件210、显示的右侧目标构件215、被感知的左侧目标构件220和被感知的右侧目标构件225的波长和百分比透射特性。
显示的左侧目标构件210和显示的右侧目标构件215的波长和百分透射率表示构件在不利用滤镜观察时其波长和百分透射率。相类似,被感知的左侧目标构件220和被感知的右侧目标构件225表示构件当其通过滤镜观察时的波长和百分透射率。在给定波长处,两组百分透射率的差别缘于透射滤镜仅允许一定百分比的发射光透过透射滤镜的特性。例如,与被感知的左侧目标构件220关联的光可仅包含所显示光的70%,而与被感知的右侧目标构件225关联的光可仅包含所显示光的75%。为了使透过两侧的光相等,第一光的百分透射率必须增加,使得对于用作互补色立体输入构件颜色的至少两个颜色,用户感知到的光量是相同的。在选择实施例中,可更改背景色的百分透射率,以使得两个互补色立体输入构件的百分透射率相同。
图3表示互补色立体图像显示装置300,其提供可通过根据本发明实施例的透射滤镜组被观察的目标构件图像。互补色立体图像装置300包含背景310、右侧互补色立体图像构件320和左侧图像构件330。在一实施例中,右侧互补色立体图像构件320以例如与红色关联的第一波长显示,左侧互补色立体图像构件330以例如与蓝色关联的第二波长显示。此外,背景310以第一波长和第二波长混合的第三波长显示。进一步,背景310和构件320和330的光亮度设置成当通过第一和第二透射滤镜被感知时,被感知为相同的。例如,背景310可以波长X以及光亮度Y显示;构件320可以波长A以及光亮度B显示;构件330可以波长C以及光亮度D显示。从而,在本实施例中,波长X会是波长A和C的色彩组合,光亮度Y会是光亮度B和D的总和。
尽管以上示例针对右侧互补色立体图像构件和互补色立体左侧图像构件分别使用了颜色红和蓝,但测试显示使用具有比蓝和红之间更低亮度对比的颜色的互补色立体图像会是成功的。例如,在选择实施例中,在构成左侧和右侧互补色立体图像构件中还可使用绿色和蓝紫色或紫色(violet或purple)的着色。
图4表示当通过根据本发明实施例的第一透射滤镜观察时,互补色立体显示装置的被感知的互补色立体图像400。在本实施例中,第一透射滤镜与红颜色关联。具体地,被感知互补色立体图像400的实施例包含背景410和左侧被感知目标构件430。背景410以与红色波长和从第一透射滤镜透射的峰值波长的光亮度关联的波长显示。如此,原来以与蓝颜色关联的波长显示的左侧被感知目标构件现在显示为黑色。在本实施例中,左侧被感知目标构件被感知为黑颜色,是因为与左侧目标关联的颜色被第一透射滤镜的红色滤镜完全过滤掉。此外,当通过第一滤镜被感知时,原来以与蓝色关联的波长显示的右侧互补色立体图像构件现在“消失”变成最终的紫色背景。右侧构件看起来好像消失了,是因为它们被显示的颜色波长和光亮度与背景410被显示的波长和光亮度相匹配。
图5表示当通过根据本发明实施例的第二透射滤镜观察时,互补色立体显示装置的被感知的互补色立体图像500。在本实施例中,第二透射滤镜与蓝颜色关联。具体地,被感知互补色立体图像500的实施例包含背景510和右侧被感知目标构件520。背景510以与蓝色波长和从第二透射滤镜透射的峰值波长的光亮度关联的波长显示。如此,原来以与红颜色关联的波长显示的右侧被感知目标构件现在显示为黑色。在本实施例中,右侧被感知目标构件被感知为黑颜色,是因为与左侧目标关联的颜色被第二透射滤镜的蓝色滤镜完全过滤掉。此外,原来以与蓝色关联的波长显示的左侧互补色立体图像构件现在“消失”变成最终的紫色背景。左侧构件看起来好像消失了,是因为它们被显示的颜色波长和光亮度与背景510被显示的波长和光亮度相匹配。
图6表示互补色立体图像构件的显示600,有根据本发明实施例的多个构件间距显示。相对于背景610显示所述互补色立体图像构件。有三组构件间距实施例:包含构件620和630的第一组、包含构件622和632的第二组;以及包含构件625和635的第三组。
对齐构件620和630以与具有右侧红色透镜和左侧蓝色透镜的透射滤镜组相一致,由此第一组构件620和630可分别显示为右侧的红颜色和左侧的蓝颜色。如此,最终的互补色立体图像可显示为悬浮在背景610之前。相类似地,第三组构件625和635也与透射滤镜组件一致,最终的互补色立体图像也会显示为悬浮在背景610之前。由第一组构件620和630的组合生成的图象与由第三组构件625和635的组合生成的图象之间的区别缘于构件的接近程度。例如,第一组构件620和630如此接近,以至于生成一定程度的重叠640,其在显示600上显示为黑色,由此通过每个滤镜被看到。然而,第三组构件625和635没有重叠。如此,由第三组构件625和635生成的互补色立图像会显示得比由第一组构件620和630生成的互补色立体图像悬浮在背景610之前更远处。
与此相对,第二组构件622和632与具有右侧红色透镜和左侧蓝色透镜的透射滤镜组件不一致,由此第二组构件622和632可分别显示为右侧的蓝色和左侧的红色。如此,最终的互补色立体图像会显示为悬浮在背景610之后。此外,因为第二组构件622和632之间的距离大于第一组构件620和630或第三组构件625和635任一组,所以由第二组构件622和632生成的图象会显示成为三个最终的互补色立体图像中具有相对于背景610最大的深度(即它会显示为悬浮在距背景610最远处)。
图7表示根据本发明实施例的互补色立体图像显示装置700。互补色立体显示装置700包含左侧目标显示构件710、右侧目标显示构件720、背景730、第一滤镜740和第二滤镜750。在实施例中,左侧目标显示构件720包含以第一波长着色的第一颜色。相类似地,右侧目标显示构件730包含以第二波长着色的第二颜色。在其他实施例中,背景包含以第三波长着色的第三波长,所述第三波长包含以第一波长着色的第一颜色和以第二波长着色的第二颜色的混合。第一滤镜可与第一波长相匹配。相类似地,第二滤镜可与第二波长相匹配。此外或可选择的,第一滤镜和/或第二滤镜可满足期望的波长范围,而不是直接匹配波长。在选择实施例中,以第一波长着色的第一颜色和以第三波长着色的第三颜色之间的亮度对比可以等同于以第二波长着色的第二颜色和以第三波长着色的第三颜色之间的亮度对比。
图8是表示根据本发明实施例的方法800的流程图,方法800用于向用户呈现至少一互补色立体图像。开始,在框810,在互补色立体图像显示装置上显示左侧目标图像构件。在框820,在互补色立体图像显示装置上显示右侧目标图像构件。在框830,调节从左侧目标图像构件中发射的峰值波长和光亮度,以匹配由第一透射滤镜透射的峰值波长。在框840,调节从右侧目标图像构件中发射的峰值波长和光亮度,以匹配由第二透射滤镜透射的峰值波长。在框850,在输入装置接收来自用户的输入。来自用户的输入可表明用户已通过第一和第二透射滤镜感知到互补色立体目标图像。此外,被感知的目标图像可由左侧目标图像构件和右侧目标图像构件编辑组成。
图9-11表示根据本发明实施例的示例性测试和/或训练场景。具体地,图9-11阐明了参考图像和第二图像的呈现。在实施例中,参考图像以不具有互补色立体效应地被显示位于与显示装置距个体相同的距离。换言之,参考图像占据注视平面的一部分,其中注视平面位于显示屏的表面。在实施例中,第二图像可利用互补色立体效应,对于使用合适眼镜的个体,显示为悬浮在参考图像的前方或后方。图9和10呈现选择的测试和/或训练方案,图9呈现位于前景互补色立体三维第二图像之上的参考图像。相类似地,图10呈现位于背景互补色立体三维第二图像之后的参考图像。在测试和/或训练方案中,可向个体呈现类似在图9和10中所看到的图像,参考图像对于所有测试和/或训练重复稳定保持在注视平面,而互补色立体三维第二图像显示分别位于参考图像915和/或1015之前或之后不同深度处。在选择实施例中,图像的呈现可以是相互排他性的,例如,向个体可一次呈现一个图像。
如以上所述,图9表示根据本发明实施例,相对于参考图像915,前景图像的互补色立体图像构件的显示900。在实施例中,前景图像是被个体感知为位于显示装置前方的互补色立体三维图像。相应地,对齐前景图像的构件920和930,以与具有右侧红色透镜和左侧蓝色透镜的透射滤镜组相一致,由此第一组构件920和930可相对于背景910分别显示为右侧的蓝色和左侧的红色。进一步,视觉背景910显示匹配和消除从第一透射滤镜透射的红色峰值波长和从第二透射滤镜透射的蓝色峰值波长的波长。图9进一步包含设置在注视平面内的参考图像915。如此,当视觉背景910显示在显示屏的表面上时,参考图像915显示位于视觉背景910的平面中。当个体通过如上述的透射滤镜组感知到最终的互补色立体图像时,最终的互补色立体图像显示悬浮在参考图像915之后。相应地,最终的互补色立体图像比参考图像915更接近个体。
图10表示根据本发明实施例,相对于参考图像1015,背景图像的互补色立体图像构件的显示1000。相应地,对齐背景图像的构件1025和1035,以与具有右侧红色透镜和左侧蓝色透镜的透射滤镜组相一致,由此第一组构件1025和1035可相对于视觉背景1010分别显示为右侧的红色和左侧的蓝色。进一步,视觉背景1010显示匹配和消除从第一透射滤镜透射的红色峰值波长和从第二透射滤镜透射的蓝色峰值波长的波长。图10进一步包含设置在注视平面内的参考图像1015。如此,当视觉背景1010显示在显示屏的表面上时,参考图像1015显示位于视觉背景1010的平面中。当个体通过如上述的透射滤镜组感知到最终的互补色立体图像时,最终的互补色立体图像显示悬浮在参考图像915之前。相应地,参考图像1015比最终的互补色立体图像更接近个体。
图11表示根据本发明实施例的流程图1100,其表示用于相对于参考图像为个体呈现至少一互补色立体图像的另一方法。开始,在框1110,为个体提供互补色立体眼镜。在框1120,指示个体选择显示离个体最近的视觉目标。在选择实施例中,可指示个体选择显示距个体最远的视觉目标。在另外选择实施例中,可指示个体选择注视平面内部和/或距注视平面最近的视觉目标。在框1130,在显示装置上显示参考视觉目标和互补色立体三维第二视觉目标。具体地,互补色立体三维第二视觉目标,可显示成使得当被个体感知到时,悬浮在参考视觉目标前方。在选择实施例中,框1130可发生在框1120之前。进一步,在框1140,从个体接收选择比参考视觉目标更接近个体的第二视觉目标的响应。在框1150,记录个体作出响应花费的时间。通过记录个体花费的记录针对呈现图像的响应,可测试和/或训练个体的深度感知的速度。尽管给定个体针对其能力的足够的时间量,个体能够辨别深度,但对于个体来说获得快速感知深度的能力会是有利的。例如,对于个体来说,当他期望在涉及快速改变深度的活动中互动时,测试和/或训练他的深度感速度会是有利的。此外在框1150,记录个体响应的准确度。
在选择实施例中,可向个体呈现类似图9和10的图像,以测试和/或训练个体相对于占据注视平面一部分的参考图像,对前景和/或背景深度感的灵敏度。例如,个体可具有辨别悬浮在位于注视平面的参考图像前方的视觉图像的深度的中上水平的能力。然而,该个体可具有辨别悬浮在位于注视平面的参考图像后方的视觉图像的深度的中下水平的能力。相应地,不仅可根据个体的总体视觉深度感,还可根据个体在悬浮在位于注视平面中的参考图像之前和之后的不同深度之间辨别的能力,来测试和/或训练个体。在选择实施例中,可在参考图像前方和/或后方以多个离散深度呈现根据图9和10的互补色立体三维图像。
在其他选择实施例中,可通过为个体呈现对个体聚散度要求相对较低的互补色立体图像来测试和/或训练个体的深度感能力。例如,随着构件之间的距离增大,某些个体融合互补色立体图形构件的难度会增加。如此,可设计测试和/或训练方案,以要求低能力的个体融合互补色立体图像构件。换言之,可设计方案,以限制两个互补色立体图像构件间的最大距离。
可设计用于测试和/或训练个体深度感能力的方案实施例,以通过呈现重叠结构的互补色立体图像构件来限制对个体的聚散度要求。当互补色立体图像构件重叠时,包含重叠的互补色立体图像构件的每个互补色立体图像位于注视平面之外。例如,图12阐明了根据本发明实施例相对于背景1210呈现的两个互补色立体图像的图像构件1220、1222、1230和1232。在实施例中,背景1210包含第一波长和第二波长,其中第一波长和第二波长在背景中相同分布。在实施例中,第一波长部分可与第二波长部分均匀分散,由此背景显示看起来是一种均匀的颜色。例如,如果包含与蓝颜色关联的第一波长的部分与包含与红颜色关联的第二波长相同分布,例如逐个像素分布,则会产生均匀的紫颜色。
背景可包含第一波长和第二波长,其中第一波长和第二波长与透射滤镜的波长关联,进一步,其中第一波长和第二波长与互补色立体图像构件的波长关联。当透射滤镜、背景颜色和互补色立体图象构件的波长相关联时,被感知的互补色立体图像即可避免例如新月形渗漏效果的重影。消除新月形渗漏效果使最终的被感知互补色立体更加清晰地呈现,这增加根据本发明的互补色立体系统的有效性。相反,当相对于白色背景呈现第一互补色立体图像构件和第二互补色立体图像构件时,当通过分别含有第二波长和第一波长的透射滤镜组观察时,分别包含第一波长和第二波长的第一和第二互补色立体图像构件的每一个都会分别显示例如新月形渗漏效果的重影。由于互补色立体图像构件与两个不同的波长关联,当观察第一互补色立体图像时产生的重影,在此为新月形渗漏效果,不会与当观察第二互补色立体图像构件时产生的重影,在此为新月形渗漏效果,相匹配,因为例如新月形渗漏效果的典型重影基于与每个图像构件关联的波长。相应地,当相对于白色背景显示互补色立体图像构件时,个体可不仅基于个体的深度感,还基于个体对感知的重影例如新月形渗漏效果的研判,来输入对感知的互补色立体图像的响应。例如,个体可注意到,每次互补色立体图像在第一侧具有明亮重影例如新月形渗漏效果,以及在第二侧具有不是如此明亮的重影例如例如新月形渗漏效果时,互补色立体图像具有朝向个体延伸的深度。如此,即使当个体不再能够分辨深度时,只要他能分辨由互补色立体测试和/或训练过程产生例如新月形渗漏效果的重影,他就能输入“正确”的答案。
通过利用含有相同分布的第一波长和第二波长的背景,其中如上述第一波长和第二波长与透射滤镜和互补色立体图像构件关联,可产生或消除与互补色立体图像构件关联的重影,例如新月形渗漏效果。如此,相比如果相对于白色背景呈现用于测试和/或训练个体的互补色立体图像构件,个体深度感的测试和/或训练会更加准确。在选择实施例中,不包含如上述第一波长和第二波长两者的非白色背景也会是不理想的。进一步,包含在背景中相同分布的第一波长、第二波长以及其他波长的非白色背景也会是不理想的。在实施例中,非理想背景包含,与含有如根据本发明实施例说明的第一波长和第二波长的背景相比,引起更大重影例如新月形渗漏效果的背景。
如图12中所示,第一互补色立体图像的构件1220和1230的每一个含有85单位的直径。在实施例中,单位可包含像素宽度。构件1220和1230对齐,以与具有右侧红色透镜和左侧红色透镜的透射滤镜组一致,由此构件1220和1230可分别显示为右侧的红颜色和左侧的蓝色。在实施例中,蓝色透镜的波长匹配蓝色互补色立体图像构件1230的波长。类似地,在实施例中,红色透镜的波长匹配红色互补色立体图像构件1220的波长。如在图12中进一步所示,构件1220和1230的配置产生重叠1240。重叠1240是黑色的,包含75单位直径的每个图像构件1220和1230,分别留下红色和蓝色新月形剩余直径10单位。
如图12中进一步所示,第二互补色立体图像的构件1222和1232每个都具有85单位的直径。在实施例中,单位可具有像素宽度。对齐构件1222和1232,以与具有右侧红色透镜和左侧蓝色透镜的透射滤镜组不一致,由此构件1222和1232可分别显示为右侧蓝颜色和左侧红颜色。如在图12中进一步所示,构件1222和1232产生重叠1242。重叠1242是黑色的,含有84单位直径的每个图像构件1222和1232,分别留下蓝色颜色和红色颜色的新月形剩余直径1单位。
在实施例中,站在距显示装置十六(16)英尺的个体可以在12-240角秒的范围内接受测试,所述显示装置用来根据本发明实施例呈现互补色立体图像。在实施例中,站在距显示装置三十二(32)英尺的个体可以在6-120角秒的范围内接受测试,所述显示装置用来根据本发明实施例呈现互补色立体图像。在选择实施例中,站在距显示装置八(8)英尺的个体可以在24-480角秒的范围内接受测试,所述显示装置用来根据本发明实施例呈现互补色立体图像。例如在图12中说明的实施例对于融合相互远离的图像构件有困难的个体会是适合的。通过限制对个体聚散度能力的要求,可基于个体对呈现的互补色立体图像深度的灵敏度更加准确地测试和/或训练个体。通过最小化被感知互补色立体图像的两个图像构件之间的聚散度,可更加准确地测试和/或训练个体的深度感。此外,如上述,可更加准确地测试和/或训练个体识别深度的速度。通过记录个体记录对所呈现互补色立体图像的响应所用的时间,可测试和/或训练个体深度感能力的应用速度。尽管给定个体针对其能力的足够的时间量,个体能够辨别深度,但对于个体来说获得快速感知深度的能力会是有利的。例如,对于个体来说,当他期望在涉及快速改变深度的活动中互动时,测试和/或训练他的深度感能力应用速度会是有利的。
在实施例中,可根据上述为个体提供两个互补色立体图像。例如,第一互补色立体图像可提供在第二互补色立体图像前方。在实施例中,第一互补色立体图像的视觉构件可以分开120角秒,基底朝外,而第二互补色立体图像的视觉构件可以分开120角秒,基底朝内,由此第一互补色立体图像和第二互补色立体图像之间的深度范围可以包含240角秒。尽管灵敏度训练和/或测试的最大训练和/或评估方案范围可设置在240角秒,根据本发明实施例,当个体从距显示装置十六(16)英尺处观察时,最小训练和/或测试灵敏度范围可设置为12角秒。
与本发明低聚散度实施例关联的深度范围表格示于下表3。如表3中所示,可在+120角秒和-120角秒之间呈现互补色立体图像构件。表3基于从16英尺远处观察显示装置例如显示装置120上的互补色立体图像的个体。根据表3,当从十六(16)英尺远处观察时,个体能够感知12-240角秒的范围,其中12角秒包含1像素,每个像素0.25mm宽。如此,个体的深度感能力可测试和/或训练至1像素的深度差别。如此,根据本发明实施例的训练和/或测试方案的最小可测试深度距离由根据本发明实施例使用的显示装置屏幕分辨率(例如最小像素宽度的尺寸)掌控,与像素密度和个体距的显示装置的距离关联。
在实施例中,像素宽度取决于所用显示器的类型。例如,在实施例中,从十六(16)英尺远处观察具有最小0.25mm像素宽度的显示器上的互补色立体图像的个体,可被测试和/或训练至12角秒的最小深度差别。相反,从十六(16)英尺远处观察具有最小0.5mm像素宽度的显示器上互补色立体图像的个体,可被测试和/或训练至24角秒的最小深度差别。
在实施例中,当站在十六(16)英尺远处,使用三星
Figure BDA0000150465270000221
120HZ 3D-监视器(下文称为三星显示器)时,个体可被测试至12角秒的最小深度差别。在实施例中,根据本发明实施例可通过在三星显示器上呈现互补色立体图像训练个体。然而,三星显示器还可用来通过呈现借助LCD遮光眼镜观察的交替图像测试个体的深度感,由此消除个体可通过互补色立体图像训练获得的学习效果优势。在实施例中,可根据本发明实施例使用具有颜色功能和任何分辨率的任何显示监视器。选择显示装置的示例包含
Figure BDA0000150465270000222
VX2265wm FuHzion显示器。
如此,根据本发明被测试和/或训练的个体仅需要个体融合最大120角秒的深度,无论是朝向个体还是远离个体。在实施例中,以+120角秒朝向个体呈现第一互补色立体图像,而以-120角秒呈现第二互补色立体图像。以这种方式,可跨越240角秒深度测试个体,而可仅要求被测试个体融合针对任何给定互补色立体图像达到120角秒的互补色立体图像构件。
表3
Figure BDA0000150465270000231
进一步,以下在表4中显示了与本发明低聚散度实施例关联的示例性级别。如表4中所示,两对互补色立体图像构件圆环之间的距离被分解为20个级别。在实施例中,在级别1,第一互补色立体图像和第二互补色立体图像之间的角秒范围是240角秒。在另一实施例中,在级别20,第一互补色立体图像和第二互补色立体图像之间的角秒范围是12角秒。如上述,最小角秒范围可取决于与用来为个体显示互补色立体图像的显示装置关联的最小像素宽度。在选择实施例中,互补色立体图像构件圆环之间的指定距离(delta)可包含互补色立体图像构件之间的角秒距离。例如,在级别1,关联的距离20可代表240角秒。
表4
  级别  Delta(两对圆环之间的位置差别)   角秒
  1   20   240
  2   19   227
  3   18   214
  4   17   202
  5   16   190
  6   15   179
  7   14   168
  8   13   156
  9   12   144
  10   11   132
  11   10   120
  12   9   108
  13   8   96
  14   7   84
  15   6   72
  16   5   60
  17   4   48
  18   3   36
  19   2   24
  20   1   12
已结合具体实施例说明了本发明,在所有方面这都是解释性的而非限制性。在不脱离本发明范围内,属于本发明的选择实施例对本领域技术人员来说是显而易见的。
图13提供了流程图1300,其表示根据本发明实施例的示例性训练计划。具体地,图13提供了训练方案,其中1310在第一级别训练个体的互补色立体深度感灵敏度,其中第一级别与两个生成的被感知互补色立体图像之间的相对角秒测量关联。一旦个体已在第一级别掌握了训练其深度感灵敏度,可在1320在其感知与第一级别关联的图像深度差别的速度方面训练个体。如上述,对于个体来说,不仅能够感知深度差别,而且快速感知是有利的。进一步,一旦个体已掌握在与第一级别关联的深度感灵敏度和深度感速度方面的训练,可在1330在第二级别在深度感灵敏度方面训练个体。相应地,一旦个体已在第二级别掌握其深度感灵敏度,可在1340在与第二级别关联的感知图像深度差别的速度方面训练个体。
在图14中提供了测试和/或训练个体深度感的另一特性。图14表示根据本发明实施例的阶段训练机制1400。具体地,图14提供了一种训练方案,其中可防止被测试和/或训练的个体基于运气而不是技术进步太快。具体地,可通过使用阶梯统计分析包来测试和/或训练个体。可要求使用阶梯统计分析训练的个体在进行至随后级别之前,正确识别第一级别的一行内两个互补色立体图像深度。进一步,一旦进入随后级别,如果个体在该随后级别失败一次测试和/或训练评估,个体可返回至较低级别。通过这种方式,试图在训练和/或测试评估中靠猜测通过的个体会在统计学上得到低分数,因为在训练和/或测试评估中存在朝向降级的猜测偏差。
在图14中提供了根据本发明被测试和/或训练的个体的一示例性系列结果和级别判断。具体地,个体可以在级别3处开始他的评估。在此示例中,个体正确回答级别三的第一个问题,随后被给出级别三的第二个问题,由于个体需要在可以进入下一级别之前,在第一级别,在此情况下为级别三,使两个回答正确。在图14示例中,个体没有正确回答他的级别三的第二个问题,这导致该个体降级为级别二。从级别二开始,个体正确回答级别二的两个问题,使个体进入级别三。个体之后正确回答级别三的两个问题,使个体进入级别四。之后个体正确回答级别四的第一个问题。通过这种方式,可在根据本发明实施例的一系列评估过程中使用多个训练级别来测试和/或训练个体。进一步,在选择实施例中,测试和/或训练评估可设计为在评估呈现之间留下至少半秒的停顿,由此避免在评估之间,图像的感知向前和/或向后“跳”。通过这种方式,可防止个体获得与个体已观察和/或研判过的评估相关的估计图像深度的优势。
图15提供了流程图1500,其表示根据本发明实施例的消除与呈现互补色立体图像关联的重影的方法。首先,在框1510,为个体提供互补色立体眼镜。具体地,互补色立体眼镜包含第一波长的第一透射透镜和第二波长的第二透射透镜。在框1520,在背景内呈现第一波长和第二波长。具体地,以第一光亮度呈现第一波长,以第二光亮度呈现第二波长。进一步,第一波长和第二波长在背景内相同分布。在框1530,呈现包含第一光亮度的第一波长的第一互补色立体图像构件。当通过第二透射透镜观察时,第一互补色立体图像被感知没有重影。进一步,当通过第一透射透镜观察时,第一互补色立体图像与背景不可区分。在框1540,呈现包含第二光亮度第二波长的第二互补色立体图像构件。当通过第一透射透镜观察时,第二互补色立体图像被感知没有重影。进一步,当通过第二透射透镜观察时,第二互补色立体图像与背景不可区分。
从前述可知,连同所述系统和方法显而易见和固有的其他优点,本发明很好地适用获得以上所列的所有结果和形迹。可以理解,某些特征和亚组合具有实用性,可以在不涉及其他特征和亚组合的情况下被采用。这是由权利要求范围所预期的,并在权利要求范围之内。

Claims (5)

1.一种用于在实质上不变的视觉聚散度范围内测试和/或训练个体深度感能力的方法,其特征在于,所述方法包含:为个体提供互补色立体眼镜;指示个体选择显示距个体最近的视觉目标;在显示装置上显示参考视觉目标和互补色立体三维第二视觉目标,视觉目标显示具有相似但不同的深度信息,由此个体能以实质上不变的视觉聚散度感知参考视觉目标和第二视觉目标,并且第二视觉目标被个体感知为比参考视觉目标更接近个体;从选择第二视觉目标比参考视觉目标更接近个体的个体接收响应;在控制单元确定由个体选择的视觉目标是否对应于以深度信息显示由此被感知更接近个体的视觉目标;记录个体响应所用的时间,以及记录个体响应的准确度。
2.根据权利要求1所述的方法,其特征在于,所述参考视觉目标在第一时刻显示,其中第二视觉目标在第二时刻显示。
3.根据权利要求2所述的方法,其特征在于,第一时刻与第二时刻相同。
4.一种用于在实质上不变的视觉聚散度范围内测试和/或训练个体深度感能力的方法,所述方法包含:为个体提供互补色立体眼镜;指示个体选择显示距个体最近的视觉目标;在显示装置上在第一时刻显示包含第一组重叠互补色立体图像构件的互补色立体三维第一视觉目标和包含第二组重叠互补色立体图像构件的互补色立体三维第二视觉目标,所述视觉目标以相似但不同的深度信息显示,由此个体能以实质上不变的视觉聚散度感知第一视觉目标和第二视觉目标,并且第一视觉目标被个体感知为比第二视觉目标更接近个体;从在第二时刻选择第一视觉目标比第二视觉目标更接近个体的个体接收响应;在控制单元确定由个体选择的视觉目标是否对应于以深度信息显示由此被感知更接近个体的视觉目标;记录个体响应所用的时间,以及记录个体响应的准确度。
5.一种消除与互补色立体图像呈现关联的重影的方法,其特征在于,所述方法包含:为个体提供互补色立体眼镜,其中互补色立体眼镜包含第一波长的第一透射透镜和第二波长的第二透射透镜;呈现包含第一光亮度的第一波长和第二光亮度的第二波长的背景,其中第一波长和第二波长在背景内相同地分布,进一步,其中背景光亮度是第一光亮度和第二光亮度的总和;呈现第一互补色立体图像构件,第一互补色立体图像构件包含第一光亮度的第一波长,其中当通过第二透射透镜观察时,感知第一互补色立体图像构件没有重影,进一步,其中当通过第一透射透镜观察时,第一互补色立体图像构件与背景不可区分;以及呈现第二互补色立体图像构件,第二互补色立体图像构件包含第二光亮度的第二波长,其中当通过第一透射透镜观察时,感知第二互补色立体图像构件没有重影,进一步,其中当通过第二透射透镜观察时,第二互补色立体图像构件与背景不可区分。
CN201080044809.4A 2009-08-03 2010-08-03 互补色立体深度感训练或测试 Expired - Fee Related CN102573611B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US12/534,661 US7980693B2 (en) 2009-08-03 2009-08-03 Anaglyphic depth perception training or testing
US12/534,661 2009-08-03
US12/628,347 US8002408B2 (en) 2009-08-03 2009-12-01 Anaglyphic depth perception training or testing
US12/628,347 2009-12-01
PCT/US2010/044246 WO2011017320A1 (en) 2009-08-03 2010-08-03 Anaglyphic depth perception training or testing

Publications (2)

Publication Number Publication Date
CN102573611A true CN102573611A (zh) 2012-07-11
CN102573611B CN102573611B (zh) 2015-09-02

Family

ID=43526696

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201080044809.4A Expired - Fee Related CN102573611B (zh) 2009-08-03 2010-08-03 互补色立体深度感训练或测试

Country Status (7)

Country Link
US (2) US8002408B2 (zh)
EP (1) EP2461738A4 (zh)
JP (1) JP5789604B2 (zh)
KR (2) KR101811991B1 (zh)
CN (1) CN102573611B (zh)
CA (1) CA2770073C (zh)
WO (1) WO2011017320A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103040598A (zh) * 2013-01-25 2013-04-17 北京市眼科研究所 立体视频刺激调节近视治疗仪
CN105496347A (zh) * 2016-01-12 2016-04-20 夏国滨 视深度电子测量装置
CN109875863A (zh) * 2019-03-14 2019-06-14 河海大学常州校区 基于双目视觉与脑力影像训练的头戴式vr视力提升系统

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110221876A1 (en) * 2008-10-20 2011-09-15 Macnaughton Boyd Solar Powered 3D Glasses
US20120291122A1 (en) * 2011-05-13 2012-11-15 University Of Wollongong Multi Dimensional CAPTCHA System and Method
WO2012160741A1 (ja) * 2011-05-20 2012-11-29 パナソニック株式会社 視覚疲労度測定装置、その方法、視覚疲労度測定システムおよび3次元メガネ
TWI498771B (zh) * 2012-07-06 2015-09-01 Pixart Imaging Inc 可辨識手勢動作的眼鏡
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US9216133B2 (en) 2013-01-16 2015-12-22 Elwha Llc Using a 3D display to train a weak eye
KR101371772B1 (ko) * 2013-01-28 2014-03-10 가톨릭대학교 산학협력단 입체시 검안 장치
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US20170209041A1 (en) * 2013-04-17 2017-07-27 Kazuo Ichikawa Color-viewing function measuring means and color-viewing function measurement system
EP2942004B1 (en) * 2014-05-09 2020-09-23 D.M.D. Computers S.r.l. Positioning of autostereoscopic tablet computer
CA2953973C (en) 2016-01-07 2023-04-04 Senaptec Llc Shape and signal adjustable motion simulation system
CN105942966B (zh) * 2016-07-06 2017-08-08 深圳大学 一种基于数字式同视机的斜视自主检测方法及系统
US9681801B1 (en) 2017-01-09 2017-06-20 Marvin Efron Efron stereopter
KR20240022855A (ko) 2022-08-12 2024-02-20 표도연 뇌파를 이용한 입체시력 검사방법

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1422527A (en) * 1920-01-20 1922-07-11 Frederick L Sawyer Color print viewable by lights of different colors and process of making the same
US5357293A (en) * 1992-09-29 1994-10-18 Atr Auditory And Visual Perception Research Laboratories Apparatus for analyzing depth perception
US5363154A (en) * 1989-01-23 1994-11-08 Galanter Stephen M Vision training method and apparatus
US5539481A (en) * 1994-12-22 1996-07-23 Vax; Guennadi Acuity therapy apparatus and method thereof
US5877840A (en) * 1996-09-20 1999-03-02 Sanyo Electric Co., Ltd. Binocular view function inspecting apparatus and inspecting method
US5953102A (en) * 1997-07-23 1999-09-14 Berry; Francis D. Method for substantially objective testing of the visual capacity of a test subject
US6517204B1 (en) * 2000-02-28 2003-02-11 Bahador Ghahramani Electronic depth perception testing system and apparatus for conducting depth perception tests
CN2557069Y (zh) * 2002-08-02 2003-06-25 天津三维显示技术有限公司 立体视觉测试装置
JP2008086657A (ja) * 2006-10-04 2008-04-17 Tomoya Handa 立体視機能検査具、立体視機能検査装置、コンピュータプログラム、及び記録媒体

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2362588A (en) * 1942-06-22 1944-11-14 Donald P Mossman Sr Device for measurement of stereoscopic vision
US2603124A (en) * 1947-08-14 1952-07-15 Richards John Mark Stereoscopic target for testing eyes
US3861790A (en) 1973-02-14 1975-01-21 Raymond M Tamura Dynamic visual acuity testing system
US4778268A (en) * 1983-08-26 1988-10-18 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Visual accommodation trainer-tester
US5173724A (en) * 1989-07-05 1992-12-22 Celeste Virginia Bonham Optical system which helps reduce eye strain
US5050982A (en) 1989-10-06 1991-09-24 Meissner Juergen P Method and apparatus for improving visual acuity
US5235361A (en) * 1990-12-12 1993-08-10 Selwyn Super Stereoscopic vision testing apparatus
WO1995010219A1 (en) * 1992-06-08 1995-04-20 Harper Gilberto B Quantitative assessment of human ocular coordination
US5478239A (en) 1993-12-21 1995-12-26 Maximum Performance, Inc. Dynamic visual acuity training method and apparatus
DE29521899U1 (de) * 1995-01-19 1998-09-03 Oculus Optikgeräte GmbH, 35582 Wetzlar Sehtestgerät
US6033073A (en) * 1997-08-15 2000-03-07 Potapova; Olga Visual training system and apparatus for vision correction, especially for various forms of strabismus ("crossed" eyes)
US6129435A (en) 1998-04-09 2000-10-10 Nike, Inc. Decentered protective eyewear
EP1089651A1 (de) * 1998-06-23 2001-04-11 PlusVision, Inc. Vorrichtung zur untersuchung der augenmotilität
US6158865A (en) 1999-10-29 2000-12-12 Kreutzig; Kirk Color enhancing filter and method of employing a color enhancing filter to improve human eye vision
US6561646B2 (en) 2000-05-09 2003-05-13 Allan Silliphant Viewing of an anaglyph with improved stereoscopic image perception
US6631987B2 (en) 2001-01-23 2003-10-14 Nike, Inc. Activity-specific optical filters and eyewear using such filters
US7073208B2 (en) 2002-12-20 2006-07-11 Jackson Products, Inc. Ventilated safety goggles
US20060251334A1 (en) * 2003-05-22 2006-11-09 Toshihiko Oba Balance function diagnostic system and method
US6811258B1 (en) 2003-06-23 2004-11-02 Alan H. Grant Eyeglasses for improved visual contrast using hetero-chromic light filtration
JP4827602B2 (ja) * 2006-04-28 2011-11-30 株式会社ニデック 視標呈示装置
CA2683728C (en) * 2007-04-13 2016-03-29 Nike International Ltd. Vision cognition and coordination testing and training
US8194119B2 (en) * 2007-05-10 2012-06-05 Chroma3D Systems, Inc. Display of generalized anaglyphs without retinal rivalry
US8197065B2 (en) * 2009-08-03 2012-06-12 Nike, Inc. Vision testing and/or training using adaptable visual indicia

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1422527A (en) * 1920-01-20 1922-07-11 Frederick L Sawyer Color print viewable by lights of different colors and process of making the same
US5363154A (en) * 1989-01-23 1994-11-08 Galanter Stephen M Vision training method and apparatus
US5357293A (en) * 1992-09-29 1994-10-18 Atr Auditory And Visual Perception Research Laboratories Apparatus for analyzing depth perception
US5539481A (en) * 1994-12-22 1996-07-23 Vax; Guennadi Acuity therapy apparatus and method thereof
US5877840A (en) * 1996-09-20 1999-03-02 Sanyo Electric Co., Ltd. Binocular view function inspecting apparatus and inspecting method
US5953102A (en) * 1997-07-23 1999-09-14 Berry; Francis D. Method for substantially objective testing of the visual capacity of a test subject
US6517204B1 (en) * 2000-02-28 2003-02-11 Bahador Ghahramani Electronic depth perception testing system and apparatus for conducting depth perception tests
CN2557069Y (zh) * 2002-08-02 2003-06-25 天津三维显示技术有限公司 立体视觉测试装置
JP2008086657A (ja) * 2006-10-04 2008-04-17 Tomoya Handa 立体視機能検査具、立体視機能検査装置、コンピュータプログラム、及び記録媒体

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103040598A (zh) * 2013-01-25 2013-04-17 北京市眼科研究所 立体视频刺激调节近视治疗仪
CN105496347A (zh) * 2016-01-12 2016-04-20 夏国滨 视深度电子测量装置
CN105496347B (zh) * 2016-01-12 2017-06-06 哈尔滨学院 视深度电子测量装置
CN109875863A (zh) * 2019-03-14 2019-06-14 河海大学常州校区 基于双目视觉与脑力影像训练的头戴式vr视力提升系统

Also Published As

Publication number Publication date
KR20120092560A (ko) 2012-08-21
US8002408B2 (en) 2011-08-23
KR101811890B1 (ko) 2017-12-22
US20110304818A1 (en) 2011-12-15
JP5789604B2 (ja) 2015-10-07
US20110025976A1 (en) 2011-02-03
US8491119B2 (en) 2013-07-23
KR101811991B1 (ko) 2017-12-22
EP2461738A1 (en) 2012-06-13
JP2013500832A (ja) 2013-01-10
CA2770073A1 (en) 2011-02-10
CN102573611B (zh) 2015-09-02
WO2011017320A1 (en) 2011-02-10
EP2461738A4 (en) 2018-03-07
KR20170018973A (ko) 2017-02-20
CA2770073C (en) 2017-12-19

Similar Documents

Publication Publication Date Title
CN102573611B (zh) 互补色立体深度感训练或测试
CN103926694B (zh) 头戴式显示装置及其控制方法、以及图像显示系统
KR101520113B1 (ko) 단일형 시각 및 신경 처리 시험 센터
CN101657145B (zh) 单一式视觉测试中心
CN103857370A (zh) 可调节闪烁率的视觉训练和测试
CN105684074A (zh) 图像显示装置和图像显示方法、图像输出装置和图像输出方法与图像显示系统
KR20130098770A (ko) 입체감 확장형 가상 스포츠 체험 시스템
US20120179076A1 (en) Method and system for treating amblyopia
CN102573610A (zh) 统一的视力测试和/或训练
US12105294B2 (en) Systems and methods for improving binocular vision
TWI496027B (zh) 動作引導提示方法、其系統及動作引導提示裝置
KR20180006573A (ko) 특정 장소내에 하이브리드형 bci 안경모듈·다방향디스플레이모듈을 통한 vr실감체험형성장치 및 방법
CN110300567A (zh) 用于改善融合功能的视力训练装置
CN105853162A (zh) 多种模式的视力增视训练系统及其训练方法
JPH06237895A (ja) 視力装置
US7980693B2 (en) Anaglyphic depth perception training or testing
CN103852935B (zh) 一种显示方法及电子设备
CN109453015A (zh) 一种基于虚拟现实的视觉刺激装置
JP2018191079A (ja) 多焦点視覚出力方法、多焦点視覚出力装置
US20240293022A1 (en) System and method for stereoscopic vision testing
CN112462942B (zh) 一种可穿戴设备及其使用方法
Kim et al. Cognitive characteristics of directional judgment through binocular disparity on a virtual tilted screen
Kim et al. 2C3-1 Effects on body sway viewing tilted 3D images using binocular disparity
KR20240036743A (ko) 가상현실 기반 안구운동을 통한 사시 개선 시스템 및 방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: NIKE INNOVATION LIMITED PARTNERSHIP

Free format text: FORMER OWNER: NIKE INTERNATIONAL LTD.

Effective date: 20141115

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20141115

Address after: oregon

Applicant after: NIKE INNOVATE C.V.

Address before: Oregon beaver Street meal Bormann

Applicant before: Nike International Ltd.

C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20150902

Termination date: 20210803

CF01 Termination of patent right due to non-payment of annual fee