KR101811890B1 - 입체 깊이 인지 훈련 또는 테스트 방법 - Google Patents

입체 깊이 인지 훈련 또는 테스트 방법 Download PDF

Info

Publication number
KR101811890B1
KR101811890B1 KR1020127004665A KR20127004665A KR101811890B1 KR 101811890 B1 KR101811890 B1 KR 101811890B1 KR 1020127004665 A KR1020127004665 A KR 1020127004665A KR 20127004665 A KR20127004665 A KR 20127004665A KR 101811890 B1 KR101811890 B1 KR 101811890B1
Authority
KR
South Korea
Prior art keywords
individual
stereoscopic image
image
stereoscopic
target
Prior art date
Application number
KR1020127004665A
Other languages
English (en)
Other versions
KR20120092560A (ko
Inventor
알랜 더블유. 레이초우
칼 시텍
그래함 비. 에릭슨
허브 유
Original Assignee
나이키 이노베이트 씨.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US12/534,661 external-priority patent/US7980693B2/en
Application filed by 나이키 이노베이트 씨.브이. filed Critical 나이키 이노베이트 씨.브이.
Publication of KR20120092560A publication Critical patent/KR20120092560A/ko
Application granted granted Critical
Publication of KR101811890B1 publication Critical patent/KR101811890B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • A61B3/032Devices for presenting test symbols or characters, e.g. test chart projectors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/08Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing binocular or stereoscopic vision, e.g. strabismus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H5/00Exercisers for the eyes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H5/00Exercisers for the eyes
    • A61H5/005Exercisers for training the stereoscopic view
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • G02B30/23Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type using wavelength separation, e.g. using anaglyph techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Ophthalmology & Optometry (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Pain & Pain Management (AREA)
  • Epidemiology (AREA)
  • General Physics & Mathematics (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Rehabilitation Therapy (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Eye Examination Apparatus (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Eyeglasses (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

입체 화상 상연 시스템은 사용자의 깊이 인지 능력을 평가하고 훈련하기 위해 제공된다. 실시예에 있어서, 입체 화상 목표 성분은 표시 장치에서 사용자에게 제공된다. 화상 목표 성분은 그 다음에 한 세트의 투과 필터 렌즈를 통하여 사용자에게 보여진다. 투과 필터 렌즈는 각 렌즈와 관련된 피크 파장 투과에 기초하여 하나 이상의 목표 성분을 제공 및 차단한다. 그 결과, 사용자는 투과 필터 렌즈를 통하여 볼 때 인지되는 화상 목표 성분으로부터 발생하는 입체 목표 화상을 인지한다.

Description

입체 깊이 인지 훈련 또는 테스트 방법{ANAGLYPHIC DEPTH PERCEPTION TRAINING OR TESTING}
관련 출원에 대한 교차 참조
이 출원은 "입체 깊이 인지 훈련 또는 테스트"라는 명칭으로 2009년 12월 1일자 출원한 미국 출원 제12/628,347호 및 "입체 깊이 인지 훈련 또는 테스트"라는 명칭으로 2009년 8월 3일자 출원한 미국 출원 제12/534,661호를 우선권 주장한다.
발명의 분야
본 발명은 일반적으로 시각(visual) 훈련 및/또는 테스트에 관한 것이다. 더 구체적으로, 본 발명은 개인의 깊이 인지 능력의 양안전도(vergence) 진폭 양상의 차로부터 격리된 때 개인 깊이 인지 능력의 망막 불균형 민감도 양상의 훈련 및/또는 평가에 관한 것이다.
운동 경기와 같은 많은 활동들은 개인의 깊이 인지(depth perception) 능력에 대하여 특수한 요구(demand)를 필요로 한다. 개인에게 3차원 화상(image)을 제공하는 입체 시스템(anaglyphic system)이 오랫동안 공지되어 있지만, 이러한 시스템은 광학적 능력이 빈약하고 및/또는 이미지 필터링 능력이 제한되었다.
동기화 표시 장치와 함께 사용되는 LCD 안경류와 같은 다른 공지의 시스템은 고가이고 불편하다.
이 요약(summary)은 뒤의 '발명을 실시하기 위한 구체적인 내용'에서 구체적으로 설명되는 개념(concept)의 선택을 간단한 형태로 소개하기 위해 제공된다. 이 요약은 청구범위 주제의 핵심적인 특징 또는 본질적인 특징을 확인하거나 청구범위 주제의 범위를 결정하는 보조물로서 사용되지 않는다.
본 발명은 개인의 깊이 인지 능력의 테스트 및/또는 훈련을 위한 시스템 및 방법에 제한되는 것이 아니고 전문 기술에서의 몇 가지 실용적인 응용을 제공한다. 본 발명에 따른 시스템은 입체 화상 표시 장치에서 사용자에게 하나 이상의 입체 화상을 제공하고, 그러한 화상은 표시 장치의 배경과 관련하여 각종 깊이로 나타나는 물체의 출연(appearance)을 시뮬레이트하기 위해 한 세트의 투과 필터 렌즈를 통하여 사용자에게 보여진다. 본 발명에 따른 입체 화상 상연(presentation) 시스템은 입체 화상 표시 장치, 한 세트의 투과 필터 렌즈, 입력 장치 및 제어 장치를 포함한다. 배경에 대한 복수의 디스플레이된 컬러 시각 지표(indicia)를 사용자가 투과 필터 렌즈를 통하여 인지하게 함으로써, 본 발명에 따른 시스템은 깊이 및/또는 3차원 공간의 출연을 사용자에게 시뮬레이트할 수 있다.
입력 장치는 디스플레이된 시각 지표에 응답하여 사용자로부터 입력을 수신한다. 예시적인 실시예에 있어서, 표시 장치에서 컬러 화상의 입체 디스플레이는 한 세트의 투과 필터 렌즈를 통하여 인지되는 적어도 2개의 컬러 지표를 포함한다. 적어도 하나의 입체 화상의 성분으로서 작용하는 컬러 화상의 디스플레이는 제어 장치에 의해 제어되어 각각의 컬러 화상으로부터 방사된 피크 파장을 한 세트의 투과 필터 렌즈를 통해 투과된 피크 파장에 정합(match)시키거나, 화면 겹침(bleed-through)이 회피된다. 예를 들면, 적색 및 청색 투과 필터 렌즈를 사용할 때, 입체 표시 장치의 디스플레이는 적어도 하나의 적색 지표와 적어도 하나의 청색 지표를 포함하고, 적색 지표와 청색 지표는 제어 장치에 의해 동조되어 적색 렌즈와 청색 렌즈를 각각 투과한 피크 파장과 정합된다. 실시예에 있어서, 적색 지표는 청색 투과 필터 렌즈를 통해 보는 눈에 의해 인지될 수 있다. 적색 지표를 청색 투과 필터 렌즈를 통하여 눈으로 볼 때, 이전의 적색 지표는 푸르스름한 배경에 대하여 흑색(또는 암색)으로 나타날 수 있다. 또한, 적색 지표를 적색 투과 필터 렌즈를 통해 눈으로 볼 때, 적색 지표는 배경과 동일하거나 유사한 색 및 휘도로 될 수 있고, 따라서 이전의 적색 지표가 배경에 혼합되기 때문에 인지되지 않을 수 있다. 마찬가지로, 청색 지표는 적색 투과 필터 렌즈를 통해 보는 눈에 의해 인지될 수 있고, 이때 이전의 청색 지표는 불그스름한 배경에 대하여 흑색(또는 암색)으로 나타날 수 있다. 또한, 청색 지표는 청색 투과 필터 렌즈를 통하여 볼 때 배경과 동일하거나 유사한 색 및 휘도로 될 수 있고, 따라서 이전의 청색 지표가 배경에 혼합되기 때문에 인지되지 않을 수 있다. 방사된 피크 파장에 대한 투과된 피크 파장의 정합은 한 세트의 투과 필터 렌즈를 통해 보았을 때 지표가 양자택일 방식으로 인지되고 차단되게 하며, 각 렌즈는 본 발명의 실시예에 따라서 디스플레이되는 한 세트의 컬러 지표에 의해 방사된 피크 파장에 정합된다. 이것은 본 발명의 실시예에서 설명한 입체 화상 상연 시스템의 기초를 형성하는 하나의 필터로 단지 1색의 지표를 보는 능력이다.
대안적인 실시예에 있어서, 투과된 피크 파장의 정합은 이웃 파장 값들의 범위 중 하나를 포함할 수 있다. 본 발명의 하나의 특징은 하나 이상의 투과 필터 렌즈 전역에서 컬러 화면 겹침을 제한하거나 제거하는 능력이다. 컬러 스펙트럼의 일부가 하나 이상의 투과 필터 렌즈를 통하여 보여지는 컬러 화면 겹침은 결과적인 입체 화상이 흐리게 나타나게 한다. 컬러 화면 겹침을 감소 또는 제거함으로써, 사용자에 의해 인지되는 결과적인 입체 화상은 높은 선명도를 갖는다.
다른 실시예에 있어서, 각 세트의 컬러 지표에 의해 방사된 피크 파장은 한 세트의 투과 필터 렌즈의 각 렌즈에 의해 투과된 피크 파장의 높은 범위 및 낮은 범위에서 각각 방사하도록 수정된다. 그래서, 실시예에 있어서, 투과 필터 렌즈 세트의 각 투과 필터 렌즈는 다른 투과 필터 렌즈로부터 넓게 분리되도록 선택된다(예를 들면, 한 세트의 투과 필터 렌즈에서, 우측 렌즈는 "적색"으로 선택되고 좌측 렌즈는 "청색"으로 선택될 수 있다). 각각의 물체에 대하여 인지되는 파장이 청색 범위의 하부 단부에 또는 적색 범위의 상부 단부에 있도록, 디스플레이되는 각 세트의 컬러 지표에 의해 방사된 피크 파장을 변경함으로써, 결과적인 입체 화상은 화면 겹침이 적고 입체 화상 성분에 의해 방사된 피크 파장과 각 투과 필터 렌즈를 통해 투과된 피크 파장이 정확히 정합되는 경우보다 더 뚜렷한 화상을 가질 수 있다.
대안적인 실시예에 있어서, 입체 화상은 입체 화상 표시 장치의 상이한 부분에 컬러 지표를 배치함으로써 다양한 깊이 정도의 인지력을 제공하도록 구성될 수 있다. 특히, 입체 화상은 관련 평면(plane of regard)의 앞 또는 뒤에서 배회(hover)하거나 표류(float)하게 나타날 수 있다. 예를 들면, 제1 입체 화상의 성분들과 제2 입체 화상의 성분들 간의 망막 불균형 차는 12 초각(arcsecond)일 수 있다. 따라서, 결과적인 입체 화상을 인지하는 개인은 제1 화상과 제2 화상 사이에 12 초각의 표류가 있는 것처럼 화상을 인지할 수 있다. 이와 같이, 표류는 화상들 간에 및/또는 화상과 관련 평면 간에 상대적이다.
실시예에 있어서, 다양한 깊이 인지도는 제1 파장의 화상 성분과 제2 파장의 화상 성분 간의 거리를 변화시킴으로써 달성될 수 있다. 이 거리는 픽스델타(pixdelta)라고 부른다. 다시, 입체 화상의 성분으로서 청색 지표와 적색 지표의 예를 이용해서, 표시 장치의 좌측부와 우측부에 대한 청색 지표와 적색 지표의 방위는 청색 좌측 렌즈와 적색 우측 렌즈를 각각 포함하는 한 세트의 투과 필터 렌즈로 볼 때 배경 패널의 앞에서 배회하는 것으로 각각 나타날 것이다. 청색 지표와 적색 지표가 더 멀리 이동할 때(즉, 청색 지표가 더욱 좌측으로 이동하고 및/또는 적색 지표가 더욱 우측으로 이동할 때), 결과적인 입체 화상은 배경 패널의 앞에서 더욱 더 멀리 배회하는 것으로 나타날 것이다(예를 들면, 결과적인 입체 화상은 사용자에게 더 가까워지는 것으로 나타날 것이다). 이 예에서, 픽스델타는 지표가 더욱 멀어짐에 따라서 점점 더 포지티브로 될 것이다. 여기에서 포지티브 함축(connotation)은 적색 우측 투과 필터 렌즈에 대한 청색 좌측 투과 필터 렌즈의 상대적 관계와 일치하는 청색 지표와 적색 지표의 상대적 관계에 기인한다.
반대로, 청색 지표와 적색 지표가 반대로 된 것(즉, 청색 지표가 표시 장치의 우측 부분에 제공되고 적색 지표가 표시 장치의 좌측 부분에 제공됨)을 제외하고 위에서 설명한 것과 동일한 시스템에 있어서, 결과적인 입체 화상은 적색 우측 렌즈와 청색 좌측 렌즈를 포함한 한 세트의 투과 필터 렌즈로 보았을 때 배경 패널 뒤에서 배회하는 것으로 나타날 것이다. 위에서의 결과와 유사하게, 청색 지표와 적색 지표가 더 멀리 이동할 때(예를 들면, 청색 지표가 더 우측으로 및/또는 적색 지표가 더 좌측으로 이동할 때), 화상은 배경 패널의 더욱 뒤에서 배회하는 것으로 나타날 것이다. 이 예에서, 픽스델타는 지표가 더 멀어짐에 따라서 점점 네가티브로 된다. 여기에서 네가티브 함축은 적색 우측 투과 필터 렌즈에 대한 청색 좌측 투과 필터 렌즈의 상대적 관계와 불일치하는 청색 지표와 적색 지표의 역 관계(reverse relation)에 기인한다.
제어 장치는 입체 화상 상연 시스템의 입체 화상 성분으로서 사용되는 하나 이상의 컬러 지표를 제공 및 배열하기 위해 사용될 수 있다. 일 실시예에 있어서, 입체 화상 성분은 제어 장치에 의해 실행되는 테스트 명령에 기초하여 입체 화상 표시 장치에서 나타날 수 있다. 입체 화상 성분의 디스플레이 중에, 테스트 명령은 디스플레이된 입체 화상 성분들 간의 픽스델타를 제어하기 위해 사용될 수 있다.
동작시에, 본 발명의 실시예에 따라서 개인의 깊이 인지를 훈련할 때, 개인은 변화하는 픽스델타를 가진 표시 장치의 하나의 영역에 제공된 제1 입체 화상이 고정 픽스델타를 가진 표시 장치의 다른 부분에 제공된 제2 입체 화상의 깊이와 정합하는 것으로 보일 때 입력 장치를 사용하도록 자극될 수 있다. 입력 장치에 반응을 입력함으로써 조건이 부합되었다고 사용자가 표시하면, 제어 장치는 사용의 시점을 검출하고 사용 시간과 예상 시간(즉, 제1 입체 화상이 제2 입체 화상과 동일한 깊이에서 실제로 만나는 때)의 비교에 기초해서 개인 반응의 정확성을 결정할 수 있다. 대안적으로, 제1 입체 화상에서 깊이 차의 일정한 변화를 가정하면, 개인이 반응을 입력 장치에 입력할 때 제1 입체 화상과 제2 입체 화상 간의 깊이 차의 정도는 개인의 깊이 인지의 속도 및 정확성의 적도(measure)로서 사용될 수 있다. 예로서, 제어 장치는 훈련, 평가 또는 사용자 깊이 인지 능력에 관한 다른 정보를 저장할 수 있다.
본 발명은 투과 필터 렌즈 및 입체 화상 성분과 관련된 제1 파장과 제2 파장의 동일한 분포를 포함한 배경을 사용함으로써, 입체 화상 성분과 관련된 초승달 모양의 화면 겹침 효과와 같은 고스트 이미지가 감소되거나 제거될 수 있게 하여, 개인의 깊이 인지의 테스트 및/또는 훈련은 개인의 테스트 및/또는 훈련에 사용되는 입체 화상 성분이 백색 배경에 대하여 제공되는 경우보다 더 정밀할 수 있게 되는 효과를 제공한다.
이제, 본 발명을 첨부 도면을 참조하여 상세히 설명한다.
도 1은 본 발명의 실시예에 따른 입체 화상 상연 시스템을 보인 도이다.
도 2는 본 발명의 실시예에 따라서 명도의 백분율 투과율에 대하여 작도된 방사 및 투과 파장 챠트를 보인 도이다.
도 3은 본 발명의 실시예에 따라서 한 세트의 투과 필터 렌즈를 통해 볼 수 있는 목표 성분 화상을 제공하는 입체 화상 표시 장치를 보인 도이다.
도 4는 본 발명의 실시예에 따라서 제1 투과 필터 렌즈를 통해 보았을 때 입체 화상 표시 장치의 인지되는 입체 화상을 보인 도이다.
도 5는 본 발명의 실시예에 따라서 제2 투과 필터 렌즈를 통해 보았을 때 입체 화상 표시 장치의 인지되는 입체 화상을 보인 도이다.
도 6은 본 발명의 실시예에 따라서 각종 픽스델타 디스플레이를 가진 입체 화상 성분의 디스플레이를 보인 도이다.
도 7은 본 발명의 실시예에 따른 입체 화상 표시 장치를 보인 도이다.
도 8은 본 발명의 실시예에 따라서 사용자에게 적어도 하나의 입체 화상을 제공하는 방법을 보인 흐름도이다.
도 9는 본 발명의 실시예에 따라서 기준 화상과 관련하여 전경 화상의 입체 화상 성분의 디스플레이를 보인 도이다.
도 10은 본 발명의 실시예에 따라서 기준 화상과 관련하여 배경 화상의 입체 화상 성분의 디스플레이를 보인 도이다.
도 11은 본 발명의 실시예에 따라서 사용자에게 기준 화상과 관련하여 적어도 하나의 입체 화상을 제공하는 다른 방법을 보인 흐름도이다.
도 12는 본 발명의 실시예에 따라서 배경에 대하여 제공된 2개의 입체 화상의 화상 성분을 보인 도이다.
도 13은 본 발명의 실시예에 따른 예시적인 훈련 스케줄을 보인 흐름도이다.
도 14는 본 발명의 실시예에 따른 예시적인 단계적 훈련 메카니즘을 보인 도이다.
도 15는 본 발명의 실시예에 따라서 입체 화상의 상연과 관련된 고스트 이미지를 제거하는 방법을 보인 흐름도이다.
이제, 본 발명을 법적 요건에 부합하도록 구체적으로 설명한다. 그러나, 여기에서의 설명은 본 특허의 범위를 제한하는 것으로 의도되지 않는다. 오히려, 발명자들은 청구된 본 발명이 다른 현재의 또는 미래의 기술과 함께 이 명세서에서 설명한 것과 유사한 다른 단계 또는 단계들의 조합을 포함하도록 다른 방법으로 또한 실시될 수 있다고 생각한다.
본 발명의 실시예는 개인의 깊이 인지 능력을 훈련 및/또는 평가하기 위한 입체 화상 상연 시스템을 제공한다. 제한하는 의도가 없는 단지 예로서, 적당한 입체 화상 상연 시스템은 복수의 인지성 목표 화상을 제공하는 입체 화상 표시 장치를 포함하고, 각각의 인지성 목표 화상은 좌측 디스플레이 화상 성분 및 우측 디스플레이 화상 성분과 관련된다. 특히, 인지성 입체 목표의 주어진 디스플레이에 대하여, 표시 장치는 3개의 성분, 즉, 배경 디스플레이, 좌측 목표 디스플레이 성분 및 우측 목표 디스플레이 성분을 디스플레이하고, 배경, 좌측 목표 디스플레이 성분 및 우측 목표 디스플레이 성분은 각각 속성들의 집합을 포함한다. 실시예에 있어서, 각 유형의 디스플레이와 관련된 속성들의 집합은 디스플레이되는 파장 및 디스플레이되는 휘도 명도를 포함할 수 있다. 또한, 입체 화상 상연 시스템은 복수의 인지성 목표 화상을 디스플레이하기 위해 사용되는 표시 장치의 영역을 다양화하고, 여기에서 복수의 인지성 목표 화상은 복수의 목표 디스플레이 성분 화상을 포함한다. 이 방법으로, 입체 화상 상연 시스템의 표시 장치를 가로질러 목표 디스플레이 성분을 이동시킴으로써, 사용자는 복수의 깊이 인지 측정치/거리와 관련된 일련의 다른 목표를 인지할 수 있다. 본 발명의 실시예에 있어서, 인지되는 목표 디스플레이는 좌측 디스플레이 화상 성분과 우측 디스플레이 화상 성분 간의 픽스델타(즉, 지표 배치 간의 거리)를 변화시킴으로써 깊이의 외관이 주어진다. 픽스델타는 2개의 화상 성분 간에 센티미터로 측정한 것과 같은 대략적인 거리를 포함할 수 있고, 2개의 화상 성분 사이에서 디스플레이상의 다수의 픽셀을 인용할 수 있다.
표시 장치는 또한 한 세트의 투과 필터 렌즈를 통해 볼 때, 각각의 인지되는 목표 화상에 대하여 관련 투과 필터 렌즈를 통하여 보여지는 좌측 인지성 목표 성분과 우측 인지성 목표 성분 간에 동일한 휘도를 갖는 컬러를 가진 것으로서 인지되는 파장을 방사하도록 조정된 배경을 디스플레이한다. 예시적인 실시예에 있어서, 입체 화상 상연 시스템은 또한 관련 인지성 목표 화상의 깊이의 외관을 생성하도록 인지성 입체 화상으로서 복수의 목표 디스플레이 성분을 제공하는 제어 장치와, 표시 장치에 디스플레이되는 복수의 인지성 목표 화상의 어떤 목표 화상이 인지성 목표 화상과 관련된 깊이의 최대 외관을 갖는지를 표시하도록 개인에 의해 사용되는 입력 장치를 포함한다.
실시예에 있어서, 입체 화상 표시 장치로 개인의 깊이 인지를 훈련할 때, 인지되는 목표 디스플레이 성분은 복수의 픽스델타 속성과 전략적으로 배치되어 관련 목표 이미지가 디스플레이 평면의 기저 레벨에서 인지되거나, 디스플레이 평면 앞의 깊이에서 인지되거나, 또는 디스플레이 평면 뒤의 깊이에서 인지되는 깊이의 외관을 가질 수 있다.
본 발명의 실시예를 간단히 설명함과 아울러, 본 발명의 예시적인 동작 환경은 뒤에서 설명된다.
본 발명의 실시예는 컴퓨팅 장치(예를 들면, 제어 장치, 입력 장치 또는 기록 장치), 또는 개인용 디지털 단말기나 다른 휴대용 장치와 같은 다른 로직 처리 머신에 의해 실행되는 프로그램 컴포넌트와 같은 컴퓨터 실행가능 명령어를 포함한 컴퓨터 코드 또는 머신 사용가능 명령어(예를 들면, 테스트 명령어)에 따라 기능하는 입체 표시 장치의 일반적인 상황에서 설명된다. 일반적으로, 루틴, 프로그램, 지표, 컴포넌트, 데이터 구조 등을 포함한 프로그램 컴포넌트는 특수한 작업을 수행하거나 특수한 추상 데이터(abstract data) 유형을 구현하는 코드를 의미한다. 본 발명의 실시예는 휴대용 장치, 가전 제품, 범용 컴퓨터, 전문 컴퓨팅 장치 등을 포함한 다양한 시스템 구성에서 실시될 수 있다.
깊이 인지 훈련/테스트 시스템 및 이러한 시스템에서 사용되는 입체 화상 표시 장치의 실시예에 대하여 이제 첨부 도면을 참조하여 설명한다. 첨부 도면 및 관련 설명은 본 발명의 예시적인 실시예로서 제공된 것이고, 발명의 범위를 제한하는 것은 아니다. 명세서에서의 "실시예"는 실시예와 관련하여 설명되는 특징, 구조 또는 특성이 발명의 적어도 하나의 실시예에 포함된다는 것을 표시하는 것으로 의도된다. 또한, 명세서의 여러 장소에서 나오는 "일 실시예에 있어서"의 표현은 반드시 동일한 실시예를 인용하는 것이 아니다.
도 1을 참조하면, 본 발명의 실시예에 따른 입체 화상 상연 시스템(100)이 도시되어 있다. 예시적인 실시예에 있어서, 입체 화상 상연 시스템(100)은 입체 화상 표시 장치(140), 한 세트의 투과 필터 렌즈(150), 제어 장치(160) 및 입력 장치(170)를 포함한다. 입체 화상 표시 장치(140)는 테스트를 받는 개인(130)과 한 세트의 투과 필터 렌즈(150) 사이에 배치될 수 있다.
이제, 도 1을 참조해서 제어 장치(160)에 대하여 설명한다. 일반적으로, 제어 장치(160)는 개인(130)의 깊이 인지 능력을 테스트 및/또는 훈련하기 위해 제공된다. 이 기술 분야에 통상의 지식을 가진 사람이라면 제어 장치(160)는 단지 하나의 적당한 컴퓨팅 장치의 예일 뿐이고 본 발명의 실시예의 용도 또는 기능의 범위에 대한 임의의 제한을 나타내는 것이 아님을 이해할 것이다. 따라서, 제어 장치(160)는 개인용 컴퓨팅 장치, 휴대용 장치, 가정용 전자 장치 등에서 통상적으로 전개되는 각종 유형의 프로세서 형태를 취할 수 있다. 그러나, 본 발명의 실시예는 임의의 특수한 처리 컴포넌트에서의 구현으로 제한되는 것이 아님을 알아야 한다.
본 발명은 광범위한 거리에서 깊이 조정의 정확성과 같은 깊이 인지를 테스트하기 위해 사용될 수 있다. 실시예에 있어서, 사용자는 다양한 인지성 깊이로 2개 이상의 화상이 제공될 수 있고, 적어도 하나의 다른 화상과 비교하여 깊이 정보의 차이가 작은 화상을 선택하도록 요청받을 수 있다. 그래서, 본 발명은 다양한 행동에 대하여 특수 응용으로 깊이 인지 테스트/훈련을 위하여 사용될 수 있다. 예를 들면, 축구, 하키, 풋볼 등과 같은 스포츠에 관한 깊이 인지는 본 발명의 장거리 및 단거리 깊이 양상에 따라서 테스트 및/또는 훈련될 수 있다. 다른 실시예에 있어서, 당구와 같은 행동과 관련된 깊이 인지는 본 발명의 단거리 깊이 양상에 따라서 테스트 및/또는 훈련될 수 있다.
예시적인 실시예에 있어서, 제어 장치(160)는 테스트 명령어를 실행할 수 있는 임의 유형의 마이크로프로세서로 일반적으로 구성된다. 제한하는 의도가 없는 단지 예로서, 테스트 명령어의 실행은 입체 화상 표시 장치(140)에 입체 화상 성분을 표시하는 컬러 지표를 제공하는 것을 포함할 수 있다. 제어 장치(160)는 또한 컬러, 방위, 회전, 궤도 등과 같은 임의의 추가적인 시각적 특성을 제어할 수 있다. 일 예로, 입체 화상 성분의 제공은, 비제한적인 예를 들자면, 입체 화상 표시 장치(140)에서 입체 화상 성분을 제공하는 것, 소정의 시간 동안(예를 들면, 밀리초에서부터 수 분까지) 입체 화상 성분을 유지하는 것, 및 입체 화상 표시 장치(140)를 아이들(idle) 상태로 복귀시킴으로써 입체 화상 표시 장치(140)를 비활성화시키는 것 등의 처리를 수반할 수 있다. 일반적으로, 처리는 제어 장치(160)가 복수의 테스트 조건을 순환하기 위해 다른 배치의 입체 화상 성분을 선택하기 때문에 복수 회 반복된다.
전형적으로, 전원(도시 생략됨)은 제어 장치(160) 및/또는 입체 화상 표시 장치(140)에 전기적으로 접속된다. 그래서, 전원은 전기로 구동되는 일부 또는 모든 컴포넌트의 동작을 지원한다. 실시예에 있어서, 전원은 배터리, 전기 콘센트, 파워셀(power cell), 태양전지 패널, 또는 임의의 다른 정전류원일 수 있다.
일 예로서, 전원으로부터 제공되는 전류는 제어 장치(160)에 의해 조절되어 통신 접속(162)을 통해 복수의 광원(110)에 공급된다. 다른 예로서, 통신 접속(162)은 제어 장치(160)로부터 입체 화상 표시 장치(140)로 신호를 전달하여 하나 이상의 선택된 광원을 활성화 또는 비활성화시키기 위해 사용된다. 유사하게, 통신 접속(164)은 제어 장치(160)를 입력 장치(170)에 작용적으로 결합한다. 이 방법으로, 통신 접속(164)은 입력 장치(170)가 개인이 만든 표시를 제어 장치(160)에 전달하게 하고 및/또는 제어 신호를 제어 장치(160)로부터 입력 장치(170)로 전달하게 한다.
실시예에 있어서, 통신 접속(162, 164)은 유선 또는 무선일 수 있다. 본 발명의 범위 내에 있는 특수한 유선 실시예의 예로는 USB 접속과 케이블 접속이 있다. 본 발명의 범위 내에 있는 특수한 무선 실시예의 예로는 근거리 무선 네트워크 및 무선 주파수 기술이 있다. "근거리 무선 네트워크"의 명칭은 제한하는 의미가 아니고, 적어도 협정 무선 주변(negotiated wireless peripheral; NWP) 장치; 단거리 무선 공기 간섭 네트워크(예를 들면, 무선 개인 통신망(wPAN), 무선 근거리 통신망(wLAN), 무선 광역 통신망(wWAN), 블루투스™ 등); 무선 피어-투-피어 통신(예를 들면, 초광대역); 및 장치들 간에 무선 데이터 통신을 지원하는 임의의 프로토콜을 포함하는 넓은 의미로 해석되어야 한다. 또한, 본 발명의 분야에 익숙한 사람이라면 근거리 무선 네트워크가 특정의 예시된 실시예와 다른 각종의 데이터 전송 방법(예를 들면, 위성 송신, 전기통신망 등)에 의해 실시될 수 있다는 것을 알 수 있을 것이다.
다른 실시예에 있어서, 입체 화상 상연 시스템(100)은 제어 장치(160)를 구비하지 않을 수 있다. 이 예에서, 입체 화상 표시 장치(140)는 배선에 통합된 스위치 또는 릴레이 컴포넌트와 유선으로 접속되어 입체 화상 표시 장치(140)의 라우팅 및 활성화 시간을 제어한다. 이 방법으로, 입체 화상 표시 장치(140)에 전원이 인가된 때, 배선은 하나 이상의 입체 화상 성분을 제공하도록 전력을 공급하고, 이것에 의해 사용자는 적어도 하나의 입체 화상을 인지할 수 있다.
일반적으로, 입력 장치(170)는 개인(130)으로부터 반응 입력을 수신하고, 사용자 입력 반응을 처리를 위해 제어 장치(160)에 전달하도록 구성된다. 단지 예로서, 개인(130)은 배경 패널로부터 가장 먼 거리에 나타나는 입체 화상을 인지한 후에 반응을 입력할 수 있다. 입력 장치는, 예를 들면, iPod® 터치와 같은 멀티터치 장치, 마이크로폰, 조이스틱, 게임 패드, 무선 장치, 키보드, 키패드, 게임 컨트롤러, 포스 플레이트(force plate), 안구 추적 시스템, 행동 인식 시스템, 터치 감응 스크린, 및/또는 입체 화상 표시 장치(140)에 유선 또는 무선으로 데이터를 제공하는 임의의 다른 입력 개시(input-initiating) 컴포넌트일 수 있다.
입력 장치(170)는 피실험자로부터의 청각 입력을 처리하는 음성 인식 장비 및/또는 소프트웨어를 포함할 수 있다. 예를 들면, 피실험자로부터의 청각 입력은, 시각적 지표의 인식 및/또는 시각적 지표에 의해 처리되는 시각적 특색(trait)을 나타내기 위해(예를 들면, 일련의 입체 화상이 소정의 패턴으로 제공되고 사용자가 최대 깊이를 처리하는 화상과 관련된 특색의 입력을 요청받은 경우), 시각적 지표에 의해 처리되는 특색의 언어 표현(verbalization)일 수 있다. 일 실시예에 있어서, 만일 특색이 제공된 입체 화상의 지향성 위치이면, 응답성 청각 입력은 "위", "아래", "우측" 및 "좌측"일 수 있다. 그러나, 이 기술에 숙련된 사람이라면, 피실험자가 시각적 지표를 인지 및/또는 인식한 것을 표시하기 위해 다른 청각 입력(예를 들면, 숫자, 문자, 기호 등을 말하는 것)을 사용할 수 있다는 것을 이해할 것이다. 그러나, 본 발명은 그러한 입력 장치에서의 구현으로 제한되는 것이 아니고, 본 발명의 실시예의 범위 내에 있는 임의의 다양한 다른 유형의 장치에서 구현될 수 있다는 것을 알아야 한다. 디스플레이된 시각적 지표에 대한 피실험자의 반응을 표시하는 입력은 입력 장치(170)로 수신 및 포착될 수 있다. 만일 특색이 지향성 위치이면, 만족스러운 테스트 반응은 화상이 위치된 디스플레이의 사분면(quadrant)을 식별하는 것일 수 있다. 제한하는 의도가 없는 단지 예로서, 상기 식별하는 것은 입력 장치(170)로서 사용되는 휴대용 장치에서 지향성 방위에 대응하는 방향으로 조이스틱을 조작함으로써 피실험자가 입력을 제공하는 것일 수 있다.
만일 입력 장치(170)가 행동 인식 시스템이면, 입력을 수신하기 위해 다양한 시스템 및/또는 방법을 사용할 수 있다. 예를 들면, 피실험자의 신체, 안구, 사지(limb) 및/또는 손발(extremity)의 움직임을 감시하고 적당한 하드웨어 및/또는 소프트웨어를 이용하여 피실험자가 적당한 행동을 할 때의 입력을 등록하기 위해 하나 이상의 카메라를 사용할 수 있다. 행동 인식 시스템은 움직임 추적을 용이하게 하기 위해 피실험자에게 부착된 광학 마커를 또한 사용할 수 있다. 피실험자에게 부착된 송신기와 수신기(예를 들면, 라디오, 적외선, 음파, 아음파(subsonic), 또는 초음파 송신을 이용하는 것)는 행동 인식 시스템의 일부로서 또한 사용될 수 있다.
만일 입력 장치(170)가 터치 감응 스크린이면, 임의 유형의 터치 감응 스크린을 이용할 수 있다. 또한, 터치 감음 물질의 오버레이(overlay)를 이용하여 터치 감응성이 아닌 디스플레이와 관련하여 터치 입력을 수신할 수 있다. 이러한 오버레이는 디스플레이로부터 임의의 거리에 있을 수 있다.
비록 도시하지는 않았지만, 기록 장치가 입체 화상 상연 시스템(100)에 통합될 수 있다. 일 예로서, 기록 장치는 통신 접속을 통해 제어 장치(160)에 작용적으로 결합된 외부 장비이다. 다른 예로서, 기록 장치는 제어 장치(160)에 내장된 데이터 기억 요소이다. 동작시에, 기록 장치는 입력 장치(170)에 대한 반응 입력의 기록, 깊이 인지 테스트의 수집, 테스트 명령어, 테스트 데이터 등과 같은 정보를 보유하도록 구성된다. 이 정보는 제어 장치(160) 또는 임의의 다른 컴퓨팅 장치에 의해 기록 장치에서 검색할 수 있다. 또한, 정보는 사용자의 깊이 인지 측정 이력 계산 또는 시간 경과에 따른 사용자의 깊이 인지 능력의 개선의 분석과 같이 정보의 분석을 수행하기 위해 기록 장치로부터 다운로드할 수 있다. 더 나아가, 정보(예를 들면, 테스트 명령어)는 기록 장치에 로드할 수 없고 제어 장치(160)에 액세스할 수 있다. 비록 정보의 각종 실시예를 위에서 설명하였지만, 그러한 정보의 내용 및 부피는 어떻게든 본 발명의 실시예의 범위를 제한하지 않는다.
실시예에 있어서, 제어 장치(160)는 개인(130)에게 피드백을 제공함으로써 훈련 장치로서 기능할 수 있다. 피드백은 임의의 형태로 주어질 수 있고, 깊이 인지 측정치, 처리된 테스트 결과, 및 테스트 명령어로부터의 소정의 데이터를 포함한 임의의 정보에 기초를 둘 수 있다. 또한, 실시예에 있어서, 제어 장치(160)는 개인(130)의 깊이 인지 능력을 평가하기 위한 분석 프로세서로서 기능할 수 있다. 평가는 개인(130)으로부터의 반응을 예상된 반응과 비교함으로써 수행될 수 있다. 일 예로서, 반응을 비교하는 것은 입력 장치(170)에 대한 사용자의 반응과 관련된 깊이 인지 측정을 사용자에게 제공된 깊이 정보와 비교하는 것을 포함한다.
실시예에 있어서, 피실험자의 깊이 인지 능력은 아래의 표 1에 나타낸 것처럼 일련의 테스트 파라미터를 이용하여 입체 화상 상연 시스템(100)으로 훈련될 수 있다. 표 1은 테스트의 순차적 번호매김(1, 2, 3, 4); 인지되는 입체 화상과 관련된 프리즘 디옵터; 프리즘 기본 방향; 입체 화상 표시 장치(140)에서 디스플레이된 도트와 같은 컬러 지표의 방위; 입체 화상 표시 장치(140)에서 한 세트의 컬러 도트들 간의 픽스델타 거리; 및 디스플레이 시간을 포함한다. 프리즘 기본 방향은 인지되는 입체 화상이 배경 앞에서 배회할 때의 베이스 아웃(Base-Out; BO), 또는 인지되는 입체 화상이 배경 뒤에서 배회할 때의 베이스 인(Base-In; BI)일 수 있다.
뒤에서 알 수 있는 바와 같이, 입체 화상 상연 시스템(100)에 대한 하나의 예시적인 일련의 훈련 연습은 2분의 코스를 통하여 피실험자에게 제공된 일련의 4개의 테스트를 포함한다. 실시예에 있어서, 피실험자에게는 배경의 앞에서 또는 배경의 뒤에서 배회하도록 지향된 한 쌍의 입체 화상이 제공된다. 사용자가 제공된 입체 화상과 같은 깊이 정보를 우측 눈을 덮는 적색 렌즈와 좌측 눈을 덮는 청색 렌즈로 지향된 한 세트의 투과 필터 렌즈(150)를 통하여 보는 실시예에 있어서, 표 1에 나타낸 성분들을 가진 결과적인 화상은 각각 배경의 앞에서; 뒤에서; 앞에서; 및 뒤에서 배회하는 것으로 나타날 것이다.
순서
위치 적/청 도트 방위 도트들의 중심간 기본 거리 디스플레이 시간
프리즘 디옵터 프리즘 기본 방향
1 1 BO 좌측 청색
우측 적색
173 픽셀 (4.87 ㎝) 30 초
2 1 BI 좌측 적색
우측 청색
173 픽셀 (4.87 ㎝) 30 초
3 2 BO 좌측 청색
우측 적색
345 픽셀 (9.75 ㎝) 30 초
4 2 BI 좌측 적색
우측 청색
345 픽셀 (9.75 ㎝) 30 초
도트들의 중심 간 기본 거리는 위에서 설명한 것처럼 픽스델타에 의해 측정된다. 이 예에서, 1 픽셀의 폭은 0.282 mm이다. 또한, 픽셀 간의 거리는 각 픽스델타와 관련된 초각의 수에 의해 참조될 수 있다. 각 초각과 관련된 픽셀의 수는 표시 화면으로부터 피실험자의 거리에 기초를 둔다. 예를 들면, 피실험자가 표시 화면으로부터 16 피트 떨어져서 서 있을 때, 1 픽셀의 픽스델타는 12 초각을 포함할 수 있다. 대안적으로, 피실험자가 표시 화면으로부터 32 피트 떨어져서 서 있을 때, 1 픽셀의 픽스델타는 6 초각을 포함할 수 있다. 픽스델타의 레벨에 대한 예시적인 표는 아래에 나타내었다.
레벨 델타(픽셀) 상부 쌍 거리 초각
1 10

기본 거리 + 델타
또는
기본 거리 - 델타
(무작위로 결정됨)
120
2 9 107
3 8 95
4 7 84
5 6 72
6 5 60
7 4 48
8 3 36
9 2 24
10 1 12
표 1 및 표 2에서 알 수 있는 바와 같이, 제공된 2 쌍의 도트들 간의 거리의 차는 실질적으로 불변인 시각적 양안전도에 의해 피실험자의 깊이 인지 능력의 망막 불균형 감도 양상을 훈련하도록 작다(예를 들면, 밀리미터의 수 십분의 1 정도). 이 경우에, 피실험자의 망막 불균형 민감도는 입체 화상 상연 시스템(100)을 통해 훈련된 1차 양상이다.
사용자의 깊이 인지의 망막 불균형 민감도 양상을 테스트하는 것 외에, 입체 화상 상연 시스템(100)은 또한 사용자에게 제공된 깊이 간의 구별을 인지하는 사용자 속도를 테스트 및/또는 훈련하기 위해 사용될 수 있다. 사용자의 인지 속도는 지표가 디스플레이되는 제1 시간 및 반응이 피실험자로부터 수신되는 제2 시간으로부터 경과된 시간량에 기초하여 측정될 수 있다. 사용자가 배경으로부터 가장 먼(또는 요청된 테스트 질문에 따라서 배경에 가장 가까운) 결과적인 입체 화상을 정확히 식별한 때, 사용자는 가장 빠른 속도로 깊이 정보가 제공될 수 있다. 추가적으로 또는 대안적으로, 사용자는 사용자에 대한 곤란성 레벨을 증가시키도록 더 작은 픽스델타로 깊이 정보가 제공될 수 있다.
추가적으로, 비록 입체 화상 성분의 특수 구성을 설명하였지만, 이 기술에 통상의 지식을 가진 사람이라면 입체 화상 성분을 제공하는 다른 방법을 사용할 수 있고, 본 발명은 도시되고 설명한 실시예로 제한되지 않는다는 것을 이해할 것이다.
도 2를 참조하면, 본 발명의 실시예에 따른 투과 파장 챠트(200)가 도시되어 있다. 챠트(200)는 xy-도표에서 파장에 대한 백분율 투과율의 측정치로 구성된다. 도 2의 챠트는 디스플레이되는 좌측 목표 성분(210), 디스플레이되는 우측 목표 성분(215), 인지되는 좌측 목표 성분(220) 및 인지되는 우측 목표 성분(225)의 파장과 백분율 투과율 특성을 포함한다.
디스플레이되는 좌측 목표 성분(210)과 디스플레이되는 우측 목표 성분(215)의 파장과 백분율 투과율은 필터 렌즈 없이 보았을 때 성분의 파장과 백분율 투과율을 나타낸다. 유사하게, 인지되는 좌측 목표 성분(220)과 인지되는 우측 목표 성분(225)은 필터 렌즈를 통하여 보았을 때 성분의 파장과 백분율 투과율을 나타낸다. 주어진 파장에서 투과율에 대한 2개의 백분율 간의 차는 방사된 광의 소정의 백분율만이 투과 필터 렌즈를 통과하게 하는 투과 필터 렌즈의 속성에 기인한다. 예를 들면, 인지되는 좌측 목표 성분(220)과 관련된 광은 디스플레이되는 광의 70%만을 포함하고, 인지되는 우측 목표 성분(225)과 관련된 광은 디스플레이되는 광의 75%를 포함할 수 있다. 양측을 통과하는 광을 동일하게 하기 위해, 제1 광의 백분율 투과율은 사용자에 의해 인지되는 광의 양이 입체 입력 성분 컬러로서 사용되는 적어도 2개의 컬러와 관련하여 동일하게 되도록 증가되어야 한다. 대안적인 실시예에서, 배경색의 백분율 투과율은 2개의 입체 입력 성분의 백분율 투과율과 같도록 수정될 수 있다.
도 3은 본 발명의 실시예에 따라서 한 세트의 투과 필터 렌즈를 통하여 볼 수 있는 목표 성분 화상을 제공하는 입체 화상 표시 장치(300)를 도시한 것이다. 입체 화상 표시 장치(300)는 배경(310), 우측 지향 입체 화상 성분(320) 및 좌측 지향 입체 화상 성분(330)을 포함한다. 일 실시예에서, 우측 지향 입체 화상 성분(320)은 예를 들면 적색과 관련된 제1 파장으로 디스플레이되고, 좌측 지향 입체 화상 성분(330)은 예를 들면 청색과 관련된 제2 파장으로 디스플레이된다. 추가적으로, 배경(310)은 제1 파장과 제2 파장의 혼합물인 제3 파장으로 디스플레이된다. 또한, 배경(310)과 성분(320, 330)의 휘도 명도는 제1 및 제2 투과 렌즈를 통하여 인지될 때 동일하게 인지되도록 설정된다. 예를 들면, 배경(310)은 파장 X 및 휘도 명도 Y로 디스플레이되고, 성분(320)은 파장 A 및 휘도 명도 B로 디스플레이되며 성분(330)은 파장 C 및 휘도 명도 D로 디스플레이될 수 있다. 따라서, 이 실시예에서, 파장 X는 파장 A와 C의 색채 조합이고 휘도 명도 Y는 휘도 명도 B와 D의 합일 것이다.
상기 예에서는 우측 지향 입체 화상 성분과 좌측 지향 입체 화상 성분에 대하여 각각 적색과 청색을 사용하고 있지만, 테스트는 입체 화상의 디스플레이가 청색과 적색 사이보다 더 낮은 휘도 콘트라스트 정도를 가진 색을 이용하여 성공할 수 있음을 보여준다. 예를 들면, 대안적인 실시예에서, 녹색 및 보라색 또는 자주색의 음영(shade)을 사용하여 좌측 지향 및 우측 지향 입체 화상 성분을 또한 구성할 수 있다.
도 4는 본 발명의 실시예에 따라서 제1 투과 필터 렌즈를 통하여 볼 때 입체 화상 표시 장치의 인지되는 입체 화상(400)을 보인 것이다. 이 실시예에서, 제1 투과 필터 렌즈는 적색과 관련된다. 특히, 인지되는 입체 화상(400)의 실시예는 배경(410)과 좌측 지향 인지성 목표 성분(430)를 포함한다. 배경(410)은 제1 투과 필터 렌즈로부터 투과된 피크 파장의 휘도 명도 및 적색 파장과 관련된 파장으로 디스플레이된다. 그래서, 외형상 청색과 관련된 파장으로 디스플레이된 좌측 지향의 인지성 목표 성분은 이제 검게 나타난다. 이 실시예에서, 좌측 지향 인지성 목표 성분은 좌측 지향 목표와 관련된 컬러가 제1 투과 필터 렌즈의 적색 필터에 의해 완전하게 걸러지기 때문에 흑색으로 인지된다. 게다가, 외형상 적색과 관련된 파장으로 디스플레이된 우측 지향 입체 화상 성분은 이제 제1 투과 렌즈를 통하여 인지될 때 결과적인 자주색 배경 내로 사라진다. 우측 지향 성분이 디스플레이된 컬러 파장 및 휘도 명도가 배경(410)이 디스플레이되는 파장 및 휘도 명도와 정합되기 때문에 우측 지향 성분은 사라지는 것으로 보여진다.
도 5는 본 발명의 실시예에 따라서 제2 투과 필터 렌즈를 통하여 볼 때 입체 화상 표시 장치의 인지되는 입체 화상(500)을 보인 것이다. 이 실시예에서, 제2 투과 필터 렌즈는 청색과 관련된다. 특히, 인지되는 입체 화상(500)의 실시예는 배경(510)과 우측 지향 인지성 목표 성분(520)을 포함한다. 배경(510)은 제2 투과 필터 렌즈로부터 투과된 피크 파장의 휘도 명도 및 청색 파장과 관련된 파장으로 디스플레이된다. 그래서, 외형상 적색과 관련된 파장으로 디스플레이된 우측 지향의 인지성 목표 성분은 이제 검게 나타난다. 이 실시예에서, 우측 지향 인지성 목표 성분은 좌측 지향 목표와 관련된 컬러가 제2 투과 필터 렌즈의 청색 필터에 의해 완전하게 걸러지기 때문에 흑색으로 인지된다. 게다가, 외형상 청색과 관련된 파장으로 디스플레이된 좌측 지향 입체 화상 성분은 이제 결과적인 자주색 배경으로 사라진다. 좌측 지향 성분이 디스플레이된 컬러 파장 및 휘도 명도가 배경(510)이 디스플레이되는 파장 및 휘도 명도와 정합되기 때문에 좌측 지향 성분은 사라지는 것으로 보여진다.
도 6은 본 발명의 실시예에 따라서 각종 픽스델타(pixdelta) 디스플레이를 가진 입체 화상 성분의 디스플레이(600)를 보인 것이다. 입체 화상 성분은 배경(610)에 대하여 제공된다. 여기에는 3 세트의 픽스델타 실시예, 즉 성분 620과 630을 포함한 제1 세트, 성분 622와 632를 포함한 제2 세트 및 성분 625와 635를 포함한 제3 세트가 있다.
성분 620과 630은 우측에 적색 렌즈가 있고 좌측에 청색 렌즈가 있는 한 세트의 투과 필터 렌즈와 일치하도록 정렬되어 성분 620 및 630의 제1 세트가 우측에서 적색으로 및 좌측에서 청색으로 각각 디스플레이될 수 있다. 그래서, 결과적인 입체 화상은 배경(610)의 앞에서 배회하는 것으로 나타날 것이다. 유사하게, 성분 625 및 635의 제3 세트가 한 세트의 투과 필터 렌즈와 또한 일치되고, 결과적인 입체 화상은 배경(610)의 앞에서 배회하는 것으로 또한 나타날 것이다. 성분 620 및 630 조합의 제1 세트로부터의 결과적인 화상과 성분 625 및 635 조합의 제3 세트로부터의 결과적인 화상 간의 차이는 성분들의 근접성(closeness)에 기인한다. 예를 들어서, 성분 620 및 630의 제1 세트는 디스플레이(600)상에 흑색으로 나타나서 각 필터를 통해 보여지는 소정 정도의 중첩(640)을 생성하도록 근접한다. 그러나, 성분 625 및 635의 제3 세트는 중첩되지 않는다. 그래서 성분 625 및 635의 제3 세트로부터 발생하는 입체 화상은 성분 620 및 630의 제1 세트로부터의 결과적인 입체 화상보다 배경(610)의 앞에서 더 멀리 배회하는 것으로 나타날 것이다.
이와 대조적으로, 성분 622 및 632의 제2 세트는 우측에 적색 렌즈가 있고 좌측에 청색 렌즈가 있는 한 세트의 투과 필터 렌즈와 불일치하고, 성분 622 및 632의 제2 세트가 우측에서 청색으로 및 좌측에서 적색으로 각각 디스플레이될 수 있다. 그래서, 결과적인 입체 화상은 배경(610)의 뒤에서 배회하는 것으로 나타날 것이다. 게다가, 성분 622 및 632의 제2 세트 사이의 거리는 성분 620 및 630의 제1 세트 또는 성분 625 및 635의 제3 세트 사이보다 더 크기 때문에, 성분 622 및 632의 제2 세트로부터 발생하는 화상은 3개의 결과적인 입체 화상의 배경(610)과 관련하여 가장 큰 깊이를 갖는 것으로 나타날 것이다(즉, 화상은 배경(610)으로부터 가장 멀리에서 배회하는 것으로 나타날 것이다).
도 7은 본 발명의 실시예에 따른 입체 화상 표시 장치(700)를 보인 것이다. 입체 화상 표시 장치(700)는 좌측 지향 목표 디스플레이 성분(710), 우측 지향 목표 디스플레이 성분(720), 배경(730), 제1 렌즈 필터(740) 및 제2 렌즈 필터(750)를 포함한다. 실시예에 있어서, 좌측 지향 디스플레이 성분(710)은 제1 파장의 제1 색 음영을 포함한다. 유사하게, 실시예에 있어서, 우측 지향 디스플레이 성분(720)은 제2 파장의 제2 색 음영을 포함한다. 다른 실시예에 있어서, 배경은 제1 파장의 제1 색 음영과 제2 파장의 제2 색 음영의 혼합물을 포함한 제3 파장의 제3 색 음영을 포함한다. 제1 렌즈 필터는 제1 파장과 일치할 수 있다. 유사하게, 제2 렌즈 필터는 제2 파장과 일치할 수 있다. 추가적으로 또는 대안적으로, 제1 렌즈 필터 및/또는 제2 렌즈 필터는 파장과 직접 일치하는 것보다는 소정의 파장 범위와 부합할 수 있다. 대안적인 실시예에 있어서, 제1 파장의 제1 색 음영과 제3 파장의 제3 색 음영 사이의 휘도 콘트라스트는 제2 파장의 제2 색 음영과 제3 파장의 제3 색 음영 사이의 휘도 콘트라스트와 동일할 수 있다.
도 8은 본 발명의 실시예에 따라서 사용자에게 적어도 하나의 입체 화상을 제공하는 방법(800)을 보인 흐름도이다. 초기에, 블록 810에서, 좌측 지향 목표 화상 성분이 입체 화상 표시 장치에 제공된다. 블록 820에서, 우측 지향 목표 화상 성분이 입체 화상 표시 장치에 제공된다. 블록 830에서, 좌측 지향 목표 화상 성분의 디스플레이로부터 방사된 피크 파장 및 휘도 명도가 제1 투과 필터 렌즈에 의해 투과된 피크 파장과 정합하도록 조정된다. 블록 840에서, 우측 지향 목표 화상 성분의 디스플레이로부터 방사된 피크 파장 및 휘도 명도가 제2 투과 필터 렌즈에 의해 투과된 피크 파장과 정합하도록 조정된다. 블록 850에서, 사용자로부터의 입력이 입력 장치에 수신된다. 사용자로부터의 입력은 사용자가 제1 및 제2 투과 필터 렌즈를 통하여 입체 목표 화상을 인지하였음을 표시할 수 있다. 추가적으로, 인지된 목표 화상은 좌측 지향 목표 화상 성분과 우측 지향 목표 화상 성분의 편집으로부터 구성될 수 있다.
도 9 내지 도 11은 본 발명의 실시예에 따른 예시적인 테스트 및/또는 훈련 시나리오를 보인 것이다. 특히, 도 9 내지 도 11은 기준 화상과 제2 화상의 상연을 보여주고 있다. 실시예에 있어서, 기준 화상은 개인으로부터의 거리가 표시 장치로부터의 거리와 동일하게 나타나게 하는 입체 효과 없이 디스플레이된다. 다시 말하면, 기준 화상은 관련 평면의 일부를 점유하고, 상기 관련 평면은 디스플레이 화면의 표면에 있다. 실시예에 있어서, 제2 화상은 적당한 안경류를 이용하는 개인에 대하여 기준 화상의 앞에서 또는 뒤에서 배회하는 것으로 나타나는 입체 효과를 이용할 수 있다. 도 9 및 도 10은 대안적인 테스트 및/또는 훈련 시나리오를 제공하고, 도 9는 전경(foreground) 입체 3차원 제2 화상 위에 기준 화상을 제공한다. 유사하게, 도 10은 배경 입체 3차원 제2 화상 뒤에 기준 화상을 제공한다. 테스트 및/또는 훈련 시나리오에 있어서, 개인에게는 도 9 및 도 10에서 보여지는 것과 유사한 화상이 제공되고, 기준 화상은 모든 테스트 및/또는 훈련 반복동안 관련 평면에서 안정 상태를 유지하고, 입체 3차원 제2 화상은 기준 화상(915 및/또는 1015)의 앞 및 뒤에서 각각 다른 깊이로 나타난다. 대안적인 실시예에서, 화상의 상연은 상호 배타적일 수 있다. 예를 들면, 개인에게는 한번에 하나의 화상이 제공될 수 있다.
전술한 바와 같이, 도 9는 본 발명의 실시예에 따라서 기준 화상(915)과 관련하여 전경 화상의 입체 화상 성분의 디스플레이(900)를 보인 것이다. 실시예에 있어서, 전경 화상은 개인에게 표시 장치의 앞에 있는 것으로 인지되는 입체 3차원 화상이다. 따라서, 전경 화상의 성분(920, 930)은 우측에 적색 렌즈가 있고 좌측에 청색 렌즈가 있는 한 세트의 투과 필터 렌즈와 불일치하도록 정렬되고, 성분(920, 930)들의 제1 세트는 우측의 청색 및 좌측의 적색으로서 배경(910)에 대하여 각각 디스플레이될 수 있다. 또한, 시각적 배경(910)은 제1 투과 필터 렌즈로부터 투과된 적색 피크 파장 및 제2 투과 필터 렌즈로부터 투과된 청색 피크 파장과 정합하는 파장을 디스플레이하고 상기 적색 피크 파장과 청색 피크 파장은 소멸된다. 도 9는 또한 관련 평면 내에서 설정된 기준 화상(915)을 포함한다. 그래서, 시각적 배경(910)이 표시 화면의 표면상에 디스플레이될 때, 기준 화상(915)은 시각적 배경(910)의 평면 내에 있는 것으로 나타난다. 결과적인 입체 화상은 전술한 바와 같이 투과 필터 렌즈 세트를 통하여 개인에 의해 인지될 때 기준 화상(915) 뒤에서 배회하는 것으로 나타난다. 따라서, 결과적인 입체 화상은 기준 화상(915)보다 개인에게 더 가깝다.
도 10은 본 발명의 실시예에 따라서 기준 화상(1015)과 관련하여 배경 화상의 입체 화상 성분의 디스플레이(1000)를 보인 것이다. 따라서, 배경 화상의 성분(1025, 1035)은 우측에 적색 렌즈가 있고 좌측에 청색 렌즈가 있는 투과 필터 렌즈 세트와 일치하도록 정렬되고, 성분(1025, 1035)들의 제1 세트는 우측의 적색 및 좌측의 청색으로서 시각적 배경(1010)에 대하여 각각 디스플레이될 수 있다. 또한, 시각적 배경(1010)은 제1 투과 필터 렌즈로부터 투과된 적색 피크 파장 및 제2 투과 필터 렌즈로부터 투과된 청색 피크 파장과 정합하는 파장을 디스플레이하고 상기 적색 피크 파장과 청색 피크 파장은 소멸된다. 도 10은 또한 관련 평면 내에서 설정된 기준 화상(1015)을 포함한다. 그래서, 시각적 배경(1010)이 표시 화면의 표면상에 디스플레이될 때, 기준 화상(1015)은 시각적 배경(1010)의 평면 내에 있는 것으로 나타난다. 결과적인 입체 화상은 전술한 바와 같이 투과 필터 렌즈 세트를 통하여 개인에 의해 인지될 때 기준 화상(1015) 앞에서 배회하는 것으로 나타난다. 따라서, 기준 화상(1015)은 결과적인 입체 화상보다 개인에게 더 가깝다.
도 11은 본 발명의 실시예에 따라서 개인에게 기준 화상에 관한 적어도 하나의 입체 화상을 제공하는 다른 방법을 보인 흐름도(1100)이다. 초기에 블록 1110에서, 입체 안경이 개인에게 제공된다. 블록 1120에서, 개인은 개인에게 가장 가깝게 디스플레이되는 시각적 목표를 선택하도록 지시를 받는다. 대안적인 실시예에서, 개인은 개인으로부터 가장 멀리 디스플레이되는 시각적 목표를 선택하도록 지시를 받는다. 다른 대안적인 실시예에서, 개인은 관련 평면 내에 있는 및/또는 관련 평면에 가장 근접한 시각적 목표를 선택하도록 지시를 받을 수 있다. 블록 1130에서, 기준 시각 목표 및 입체 3차원 제2 시각 목표가 표시 장치에서 디스플레이된다. 특히, 입체 3차원 제2 시각 목표는 개인에 의해 인지될 때 기준 시각 목표의 앞에서 배회하도록 디스플레이될 수 있다. 대안적인 실시예에 있어서, 블록 1130은 블록 1120 앞에서 발생할 수 있다. 또한, 블록 1140에서, 기준 시각 목표보다 개인에게 더 가까이 있는 제2 시각 목표를 선택한 개인으로부터 반응이 수신된다. 블록 1150에서, 개인이 반응하는데 걸리는 시간이 기록된다. 개인이 제공된 화상에 대한 반응을 기록하는데 걸리는 시간을 기록함으로써, 개인의 깊이 인지의 속도가 테스트 및/또는 훈련될 수 있다. 개인이 그의 능력에 대한 충분한 시간량이 주어진 깊이를 분별할 수 있지만, 개인이 깊이를 신속히 인지하는 능력을 획득하는 것이 유리하다. 예를 들면, 개인이 깊이를 신속히 변경하는 것을 수반하는 활동과 상호작용하는 것으로 기대될 때 개인이 그의 깊이 인지 속도를 테스트 및/또는 훈련하는 것이 유리할 수 있다. 추가적으로, 블록 1150에서, 개인의 반응의 정확성이 기록된다.
대안적인 실시예에서, 개인은 관련 평면의 일부를 점유하는 기준 화상과 관련하여 전경 및/또는 배경 깊이 인지 능력에 대한 개인의 민감도를 테스트 및/또는 훈련하기 위해 도 9 및 도 10과 유사한 화상이 제공될 수 있다. 예를 들면, 개인은 관련 평면에 위치된 기준 화상의 앞에서 배회하는 시각 화상의 깊이를 분별하는 평균 이상의 능력을 가질 수 있다. 그러나, 개인은 관련 평면에 위치된 기준 화상의 뒤에서 배회하는 시각 화상의 깊이를 분별하는 평균 이하의 능력을 가질 수 있다. 따라서, 개인은 그의 전체적인 시각적 깊이 인지뿐만 아니라 관련 평면에 위치된 기준 화상의 앞에서 및 뒤에서 배회하는 다른 깊이들 사이의 차를 분별하는 그의 능력에 따라서 테스트 및/또는 훈련될 수 있다. 대안적인 실시예에서, 도 9 및 도 10에 따른 입체 3차원 화상은 기준 화상의 앞에서 및/또는 뒤에서 복수의 다른 깊이로 제공될 수 있다.
다른 대안적인 실시예에서, 개인의 깊이 인지 능력은 개인에 대한 비교적 낮은 양안전도 요구(vergence demand)를 가진 입체 화상을 개인에게 제공함으로써 테스트 및/또는 훈련될 수 있다. 예를 들면, 일부 개인은 성분들 간의 거리가 증가할 때 입체 화상 성분을 융합하는 것이 점점 더 어려울 수 있다. 그래서, 테스트 및/또는 훈련 요법(regimen)은 입체 화상 성분을 융합하는데 있어서 개인의 낮은 능력을 요구하도록 설계될 수 있다. 다시 말하면, 요법은 2개의 입체 화상 성분 간의 최대 거리를 제한하도록 설계될 수 있다.
개인의 깊이 인지 능력을 테스트 및/또는 훈련하기 위한 요법의 실시예는 중복 구성으로 입체 화상 성분을 제공함으로써 개인에 대한 양안전도 요구를 제한하도록 설계될 수 있다. 입체 화상 성분이 중복되기 때문에, 중복 입체 화상 성분을 포함하는 각 입체 화상은 관련 평면 외부에 있다. 예를 들어서, 도 12는 본 발명의 실시예에 따라서 배경(1210)에 대해 제공된 2개의 입체 화상의 화상 성분(1220, 1222, 1230, 1232)을 보인 것이다. 실시예에 있어서, 배경(1210)은 제1 파장과 제2 파장을 포함하고, 제1 파장과 제2 파장은 배경 전역에 동일하게 분포된다. 실시예에 있어서, 제1 파장 부분은 배경이 하나의 균일한 색으로 보이도록 제2 파장 부분과 고르게 분산될 수 있다. 예로서, 만일 청색과 관련된 제1 파장을 포함한 부분이 적색과 관련된 제2 파장을 포함한 부분과 동일하게, 예를 들면 한 픽셀씩 분포되면, 자주색의 균일한 색이 얻어질 수 있다.
배경은 제1 파장과 제2 파장을 포함할 수 있고, 제1 파장과 제2 파장은 투과 필터 렌즈의 파장과 관련되며, 제1 파장과 제2 파장은 입체 화상 성분의 파장과 관련된다. 투과 필터 렌즈의 파장, 배경 색 및 입체 화상 성분이 관련될 때, 인지되는 화상 성분은 초승달 모양의 화면 겹침 효과와 같은 고스트 이미지가 전혀 없다. 초승달 모양의 화면 겹침 효과의 제거는 결과적인 인지성 입체 화상이 더욱 명확하게 제공되게 하고, 이것은 본 발명에 따른 입체 시스템의 효과를 증가시킨다. 이와 대조적으로, 제1 입체 화상 성분과 제2 입체 화상 성분이 백색 배경에 대하여 제공될 때, 제1 파장과 제2 파장을 각각 포함한 제1 및 제2 입체 화상 성분은 각각 제2 파장과 제1 파장을 각각 포함한 투과 필터 렌즈를 통해 보았을 때 초승달 모양의 화면 겹침 효과와 같은 고스트 이미지를 디스플레이할 수 있다. 입체 화상 성분은 별도의 2개의 파장과 관련되기 때문에, 제1 입체 화상 성분을 볼 때 생성되는, 여기에서 초승달 모양의 화면 겹침 효과인 고스트 이미지는, 초승달 모양의 화면 겹침 효과와 같은 특징적인 고스트 이미지가 각 화상 성분과 관련된 파장에 기초를 두기 때문에, 제2 입체 화상 성분을 볼 때 생성되는 초승달 모양의 화면 겹침 효과와 같은 고스트 이미지와 일치하지 않을 것이다. 따라서, 입체 화상 성분이 백색 배경에 대하여 디스플레이될 때, 개인은 개인의 깊이 인지뿐만 아니라 초승달 모양의 화면 겹침 효과와 같은 인지성 고스트 이미지의 개인 해석에 기초하여 인지성 입체 화상에 반응을 주입시킬 수 있다. 예를 들면, 개인은 입체 화상이 제1 측에서 초승달 모양의 화면 겹침 효과와 같은 밝은 고스트 이미지를 갖고 제2 측에서 초승달 모양의 화면 겹침 효과와 같은 밝지않은(not-as-bright) 고스트 이미지를 가질 때마다 입체 화상이 사용자를 향하여 나오는 깊이를 갖는다는 것을 알 것이다. 그래서, 개인은 입체 테스트 및/또는 훈련 처리에 의해 생성된, 초승달 모양의 화면 겹침 효과와 같은 고스트 이미지를 구별할 수 있는 한 깊이를 더 이상 구별할 수 없는 때에도 "정확한" 응답을 입력할 수 있다.
전술한 바와 같이 투과 필터 렌즈 및 입체 화상 성분과 관련된 제1 파장과 제2 파장의 동일한 분포를 포함한 배경을 사용함으로써, 입체 화상 성분과 관련된 초승달 모양의 화면 겹침 효과와 같은 고스트 이미지가 감소되거나 제거될 수 있다. 그래서, 개인의 깊이 인지의 테스트 및/또는 훈련은 개인의 테스트 및/또는 훈련에 사용되는 입체 화상 성분이 백색 배경에 대하여 제공되는 경우보다 더 정밀할 수 있다. 대안적인 실시예에서, 전술한 바와 같은 제1 파장과 제2 파장을 포함하지 않는 비백색(non-white) 배경은 또한 비이상적일 수 있다. 또한, 제1 파장, 제2 파장, 및 배경을 통하여 동일하게 분포된 추가의 파장을 포함하는 비백색 배경은 또한 비이상적일 수 있다. 실시예에 있어서, 비이상적 배경은 본 발명에 따른 실시예에서 설명한 것처럼 제1 파장과 제2 파장을 포함한 배경보다 더 큰 초승달 모양의 화면 겹침 효과와 같은 고스트 이미지를 야기하는 배경을 포함한다.
도 12에서 알 수 있는 것처럼, 제1 입체 화상의 성분(1220, 1230)들은 각각 85 유닛의 직경을 갖는다. 실시예에 있어서, 유닛은 픽셀 폭을 포함할 수 있다. 성분(1220, 1230)들은 우측에 적색 렌즈가 있고 좌측에 청색 렌즈가 있는 한 세트의 투과 필터 렌즈와 일치하도록 정렬되어서 성분(1220, 1230)들이 우측에 적색으로서 및 좌측에 청색으로서 각각 디스플레이될 수 있다. 실시예에 있어서, 청색 렌즈의 파장은 청색 입체 화상 성분(1230)의 파장과 정합된다. 유사하게, 실시예에 있어서, 적색 렌즈의 파장은 적색 입체 화상 성분(1220)의 파장과 정합된다. 도 12에서 또한 알 수 있는 바와 같이, 성분(1220, 1230)들의 구성은 중첩 부분(1240)을 생성한다. 중첩 부분(1240)은 흑색이고 각 화상 성분(1220, 1230)의 직경의 75 유닛을 포함하고, 적색 및 청색의 나머지 직경 10 유닛의 초승달 모양을 각각 남긴다.
도 12에서 또한 알 수 있는 것처럼, 제2 입체 화상의 성분(1222, 1232)들은 각각 85 유닛의 직경을 갖는다. 실시예에 있어서, 유닛은 픽셀 폭을 포함할 수 있다. 성분(1222, 1232)들은 우측에 적색 렌즈가 있고 좌측에 청색 렌즈가 있는 한 세트의 투과 필터 렌즈와 일치하도록 정렬되어서 성분(1222, 1232)들이 우측에 청색으로서 및 좌측에 적색으로서 각각 디스플레이될 수 있다. 도 12에서 또한 알 수 있는 바와 같이, 성분(1222, 1232)들의 구성은 중첩 부분(1242)을 생성한다. 중첩 부분(1242)은 흑색이고 각 화상 성분(1222, 1232)의 직경의 84 유닛을 포함하고, 청색 및 적색의 나머지 직경 1 유닛의 초승달 모양을 각각 남긴다.
실시예에 있어서, 본 발명의 실시예에 따라서 입체 화상을 제공하기 위해 사용되는 표시 장치로부터 16 피트 떨어져서 서있는 개인은 12~240 초각의 범위 내에서 테스트될 수 있다. 실시예에 있어서, 본 발명의 실시예에 따라서 입체 화상을 제공하기 위해 사용되는 표시 장치로부터 32 피트 떨어져서 서있는 개인은 6~120 초각의 범위 내에서 테스트될 수 있다. 다른 실시예에 있어서, 본 발명의 실시예에 따라서 입체 화상을 제공하기 위해 사용되는 표시 장치로부터 8 피트 떨어져서 서있는 개인은 24~480 초각의 범위 내에서 테스트될 수 있다. 도 12에 도시된 것과 같은 실시예는 서로로부터 멀리 떨어진 화상 성분들을 융합하는데 어려움이 있는 개인에게 적합할 수 있다. 개인의 양안전도 능력에 대한 요구를 제한함으로써, 개인은 제공된 입체 화상의 깊이에 대한 그들의 민감도에 기초하여 더 정확하게 테스트 및/또는 훈련될 수 있다. 인지되는 입체 화상의 2개의 화상 성분들 간의 양안전도를 최소화함으로써, 개인의 깊이 인지는 더 정확하게 테스트 및/또는 훈련될 수 있다. 게다가, 전술한 바와 같이, 개인의 깊이 인지 속도가 더 정확하게 테스트 및/또는 훈련될 수 있다. 개인이 제공된 입체 화상에 대한 반응을 기록하는데 걸리는 시간을 기록함으로써, 개인의 깊이 인지 능력의 사용 속도가 테스트 및/또는 훈련될 수 있다. 개인이 그의 능력에 대한 충분한 시간량이 주어진 깊이를 분별할 수 있지만, 개인이 깊이를 신속히 인지하는 능력을 획득하는 것이 유리하다. 예를 들면, 개인이 깊이를 신속히 변경하는 것을 수반하는 활동과 상호작용하는 것으로 기대될 때 개인이 그의 깊이 인지 능력의 사용 속도를 테스트 및/또는 훈련하는 것이 유리할 수 있다.
실시예에 있어서, 개인은 위의 설명에 따른 2개의 입체 화상이 제공될 수 있다. 예를 들면, 제1 입체 화상은 제2 입체 화상의 앞에 제공될 수 있다. 실시예에 있어서, 제1 입체 화상의 시각 성분은 120 초각 떨어진 베이스 아웃(base out)이고 제2 입체 화상의 시각 성분은 120 초각 떨어진 베이스 인(base in)일 수 있으며, 따라서, 제1 입체 화상과 제2 입체 화상 간의 깊이 범위는 240 초각을 포함할 수 있다. 민감도 훈련 및/또는 테스트의 최대 훈련 및/또는 평가 요법 범위를 240 초각으로 설정할 수 있지만, 최소 훈련 및/또는 테스트 민감도 범위는 본 발명의 실시예에 따라서 표시 장치로부터 16 피트 떨어진 개인이 보았을 때 12 초각으로 설정될 수 있다.
본 발명의 낮은 양안전도 실시예와 관련된 깊이 범위의 표는 아래의 표 3에 나타내었다. 표 3에서 알 수 있는 바와 같이, 입체 화상 성분은 +120 초각과 -120 초각 사이에서 제공될 수 있다. 표 3은 표시 장치(120)와 같은 표시 장치상의 입체 화상을 개인이 16 피트 떨어져서 보는 것에 기초를 둔 것이다. 표 3에 따르면, 개인은 16 피트 떨어져서 볼 때 12~240 초각의 범위를 인지할 수 있고, 여기에서 12 초각은 픽셀당 0.25 mm 폭으로 1 픽셀을 포함한다. 그래서, 개인의 깊이 인지 능력은 1 픽셀의 깊이 차에 대하여 테스트 및/또는 훈련될 수 있다. 그래서, 본 발명의 실시예에 따라서 훈련 및/또는 테스트 세션의 테스트가능한 최소 깊이 거리는 본 발명의 실시예에 따라서 사용되는 표시 장치로부터 개인의 거리 및 픽셀 밀도와 관련하여 표시 장치의 화면의 해상도(최소 픽셀 폭의 크기 등)에 의해 통제된다.
실시예에 있어서, 픽셀 폭은 사용되는 디스플레이의 유형에 의존한다. 예를 들면, 실시예에 있어서, 최소 픽셀 폭이 0.25 mm인 디스플레이에서 16 피트 떨어져서 입체 화상을 보는 개인은 12 초각의 최소 깊이 차에 대하여 테스트 및/또는 훈련될 수 있다. 이와 대조적으로, 최소 픽셀 폭이 0.5 mm인 다른 디스플레이에서 16 피트 떨어져서 입체 화상을 보는 개인은 24 초각의 최소 깊이 차에 대하여 테스트 및/또는 훈련될 수 있다.
실시예에 있어서, 개인은 16 피트 떨어져 있을 때 삼성® 120Hz 3D-모니터(이하, "삼성 디스플레이"라고 한다)를 이용하는 경우 12 초각의 최소 깊이 차에 대하여 테스트될 수 있다. 실시예에 있어서, 개인은 본 발명의 실시예에 따라서 삼성 디스플레이에서 입체 화상의 상연을 통하여 훈련될 수 있다. 그러나, 삼성 디스플레이는 개인이 입체 화상 훈련을 통하여 획득한 학습 효과 장점을 제거하기 위해 LCD 셔터 안경을 통하여 본 다른 화상의 상연을 통하여 개인의 깊이 인지를 테스트하기 위해 또한 사용될 수 있다. 실시예에 있어서, 컬러 능력 및 임의의 해상도를 가진 임의의 디스플레이 모니터가 본 발명의 실시예에 따라서 사용될 수 있다. 대안적인 표시 장치의 예로는 뷰소닉(ViewSonic®) VX2265wm 퓨전(FuHzion) 디스플레이가 있다.
그래서, 뒤에서 설명하는 범위에 따라서 테스트 및/또는 훈련을 받는 개인은 그 개인이 개인을 향하여 또는 개인으로부터 멀어지게 최대 120 초각의 깊이를 융합하는 것만을 필요로 한다. 실시예에 있어서, 제1 입체 화상은 개인을 향하여 +120 초각으로 제공되고, 제2 화상은 -120 초각으로 제공된다. 이 방법으로, 개인은 240 초각의 깊이에 걸쳐서 테스트되고, 테스트되는 개인은 임의의 주어진 입체 화상에 대하여 최대 120 초각까지 입체 화상 성분을 융합하는 것만이 요구될 뿐이다.
위치 원의 위치 원 쌍간의 내부거리(픽셀) 초각 디스플레이에서의 나타남
1
우측 적색
좌측 청색
(우측이 적색이고 좌측이 청색인 투과 렌즈를 통하여 각각 본 때)
10 +120
사용자를 향함




2 9 +107
3 8 +95
4 7 +84
5 6 +72
6 5 +60
7 4 +48
8 3 +36
9 2 +24
10 1 +12
11 원 중첩 0 0 모니터
12
우측 청색
좌측 적색
(우측이 적색이고 좌측이 청색인 투과 렌즈를 통하여 각각 본 때)
1 -12






사용자로부터 멀어짐
13 2 -24
14 3 -36
15 4 -48
16 5 -60
17 6 -72
18 7 -84
19 8 -95
20 9 -107
21 10 -120
또한, 본 발명의 낮은 양안전도 실시예와 관련된 예시적인 레벨의 표는 아래의 표 4에 나타나있다. 표 4에서 알 수 있는 바와 같이, 2 쌍의 입체 화상 성분 원 사이의 거리는 20 레벨로 분석된다. 실시예에 있어서, 레벨 1에서, 제1 입체 화상과 제2 입체 화상 간의 초각 범위는 240초이다. 다른 실시예에 있어서, 레벨 20에서, 제1 입체 화상과 제2 입체 화상 간의 초각 범위는 12 초각이다. 전술한 바와 같이, 최소 초각 범위는 개인에게 입체 화상을 디스플레이하기 위해 사용되는 표시 장치와 관련된 최소 픽셀 폭에 의존할 수 있다. 대안적인 실시예에 있어서, 입체 화상 성분 원 사이의 지정된 델타는 입체 화상 성분들 간의 초각의 거리를 포함할 수 있다. 예를 들면, 레벨 1에서, 20의 관련 델타는 240 초각의 표시일 수 있다.
레벨 델타
(2개의 원 쌍간의 위치차)
초각
1 20 240
2 19 227
3 18 214
4 17 202
5 16 190
6 15 179
7 14 168
8 13 156
9 12 144
10 11 132
11 10 120
12 9 108
13 8 96
14 7 84
15 6 72
16 5 60
17 4 48
18 3 36
19 2 24
20 1 12
본 발명은 제한하는 의도가 없이 단지 설명하는 것으로 의도되는 특수한 실시예와 관련하여 설명하였다. 이 기술에 통상의 지식을 가진 사람이라면 본 발명의 범위로부터 벗어나지 않고 다른 실시예를 생각할 수 있을 것이다.
도 13은 본 발명의 실시예에 따른 예시적인 훈련 스케줄을 보인 흐름도(1300)이다. 특히, 도 13은 개인의 입체 깊이 인지 민감도를 제1 레벨에서 훈련하는 훈련 요법을 제공하고(블록 1310), 여기에서 제1 레벨은 2개의 결과적인 인지성 입체 화상 간의 상대적 측정치와 관련된다. 개인이 제1 레벨에서 그의 깊이 인지 감도의 훈련을 마치면, 개인은 제1 레벨과 관련된 화상들의 깊이의 차를 인지하는 속도에 대하여 훈련될 수 있다(블록 1320). 전술한 바와 같이, 개인은 깊이의 차를 인지할 수 있을 뿐만 아니라 그러한 인지를 신속히 하는 것이 유리하다. 또한, 개인이 제1 레벨과 관련된 깊이 인지의 민감도 및 깊이 인지 속도에 있어서의 훈련을 마치면, 개인은 제2 레벨에서 깊이 인지의 민감도에 대하여 훈련될 수 있다(블록 1330). 따라서, 개인이 제2 레벨에서 그의 깊이 인지 민감도에 대한 훈련을 마치면, 개인은 제2 레벨과 관련된 화상의 깊이의 차를 인지하는 속도에 대하여 훈련될 수 있다(블록 1340).
개인의 깊이 인지 능력을 테스트 및/또는 훈련하는 다른 특성은 도 14에 도시되어 있다. 도 14는 본 발명의 실시예에 따른 단계적 훈련 메카니즘(1400)을 보인 것이다. 특히, 도 14는 테스트 및/또는 훈련을 받는 개인이 실력보다는 운에 따라 너무 신속히 전진하는 것으로부터 보호되는 훈련 요법을 제공한다. 특히 개인은 계단식 통계 분석 패키지의 사용을 통하여 테스트 및/또는 훈련될 수 있다. 계단식 통계 분석을 이용하여 훈련받는 개인은 후속 레벨로 진행하기 전에 제1 레벨에서 행(row)으로 입체 화상의 2개의 깊이를 정확히 식별하도록 요구될 수 있다. 또한, 후속 레벨에서, 만일 개인이 후속 레벨에서 하나의 테스트 및/또는 훈련 평가를 실패하는 경우 개인은 더 낮은 레벨로 되돌아갈 수 있다. 이 방법으로, 훈련 및/또는 테스트 평가를 통하여 추측하도록 시도하는 개인은, 훈련 및/또는 테스트 평가에서 강등되는 쪽으로의 추측 치우침(guessing bias)이 있기 때문에, 통계적으로 낮은 스코어를 야기할 것이다.
본 발명의 실시예에 따라서 테스트 및/또는 훈련되는 개인의 결과 및 레벨 조정의 예시적인 시리즈는 도 14에 도시되어 있다. 특히, 개인은 레벨 3에서 그의 평가를 시작할 수 있다. 이 예에서, 개인은 다음 레벨로 전진하기 전에 제1 레벨, 이 경우에는 레벨 3에서 2개의 정확한 응답을 취할 필요가 있기 때문에, 개인은 제1 레벨의 3개의 질문에 정확하게 응답하고, 후속적으로 제2 레벨의 3개의 질문이 주어진다. 도 14의 예에서, 개인은 그 다음에 그의 제2 레벨의 3개의 질문에 부정확하게 응답하고, 이것은 개인이 레벨 2로 강등되게 한다. 레벨 2로부터, 개인은 레벨 2의 2개의 질문에 정확하게 응답하고 그 개인은 레벨 3으로 전진한다. 그 다음에, 개인은 2개의 레벨 3의 질문에 정확하게 응답하고 그 개인은 레벨 4로 전진한다. 그 다음에 개인은 제1 레벨의 4개의 질문에 정확하게 응답한다. 이 방법으로, 개인은 본 발명의 실시예에 따른 일련의 평가 과정을 통해 복수의 훈련 레벨을 이용하여 테스트 및/또는 훈련될 수 있다. 또한, 대안적인 실시예에 있어서, 테스트 및/또는 훈련 평가는 평가의 발표 사이에 적어도 1/2초의 휴지기간(pause)을 두어서 화상의 인지 능력이 평가들 사이에서 전방으로 및/또는 후방으로 "점프"하는 것을 피하도록 설계될 수 있다. 이 방법으로, 개인은 개인이 이미 보았거나 해석한 평가와 관련하여 화상의 깊이를 평가하는 장점의 획득이 금지될 수 있다.
도 15는 본 발명의 실시예에 따라서 입체 화상의 상연과 관련된 고스트 이미지를 제거하는 방법을 보인 흐름도(1500)이다. 초기에, 블록 1510에서, 입체 안경이 개인에게 제공된다. 특히, 입체 안경은 제1 파장의 제1 투과 렌즈와 제2 파장의 제2 투과 렌즈를 포함한다. 블록 1520에서, 제1 파장과 제2 파장이 배경 전역에서 나타난다. 특히, 제1 파장은 제1 휘도 명도로 나타나고, 제2 파장은 제2 휘도 명도로 나타난다. 또한, 제1 파장과 제2 파장은 배경 전역에서 동일하게 분포된다. 블록 1530에서, 제1 휘도의 제1 파장을 포함한 제1 입체 화상 성분이 나타난다. 제1 입체 화상은 제2 투과 렌즈를 통하여 볼 때 고스트 이미지 없이 인지된다. 또한, 제1 입체 화상은 제1 투과 렌즈를 통하여 볼 때 배경으로부터 구별되지 않는다. 블록 1540에서, 제2 휘도의 제2 파장을 포함한 제2 입체 화상 성분이 나타난다. 제2 입체 화상은 제1 투과 렌즈를 통하여 볼 때 고스트 이미지 없이 인지된다. 또한, 제2 입체 화상은 제2 투과 렌즈를 통하여 볼 때 배경으로부터 구별되지 않는다.
전술한 설명으로부터, 본 발명은 시스템 및 방법에 대해 명백하고 고유한 다른 장점과 함께 위에서 설명한 모든 결과 및 지표를 달성하도록 적응된 것임을 알 것이다. 특정의 특징 및 하위 조합도 유효하고 다른 특징 및 하위 조합에 대한 참조없이 사용될 수 있다는 것을 이해할 것이다. 이것은 청구범위에 의해 예측되고 청구 범위 내에 있다.
100: 입체 화상 상연 시스템
130: 테스트를 받는 개인
140: 입체 화상 표시 장치
150: 투과 필터 렌즈
160: 제어 장치
162: 통신 접속
164: 통신 접속
170: 입력 장치

Claims (5)

  1. 불변인 시각 양안전도 범위(visual vergence range) 내에서 개인의 깊이 인지 능력의 테스트 및 훈련 중 하나 이상을 행하는 방법에 있어서,
    상기 개인에게 투과 필터 렌즈를 구비하는 입체 안경을 제공하는 단계;
    상기 개인에게 가장 가깝게 디스플레이되는 시각 목표를 선택하도록 상기 개인에게 지시하는 단계;
    표시 장치상에서 기준 시각 목표와 입체 3차원 제2 시각 목표를 디스플레이하는 단계로서, 상기 시각 목표들은 상기 투과 필터 렌즈를 통해 인지되도록 컬러를 갖고 유사하지만 동일하지는 않은 깊이 정보로 디스플레이되어, 상기 개인이 불변인 시각 양안전도로 상기 기준 시각 목표와 상기 제2 시각 목표를 인지할 수 있고, 상기 제2 시각 목표는 상기 기준 시각 목표보다 상기 개인에게 더 가까운 것으로서 상기 개인에게 인지되는 것인, 상기 디스플레이하는 단계;
    상기 기준 시각 목표보다 상기 개인에게 더 가까운 것으로서 상기 제2 시각 목표를 선택하는 상기 개인으로부터의 반응을 수신하는 단계;
    상기 개인에 의해 선택된 시각 목표가, 상기 개인에게 더 가까운 것으로 인지되도록 깊이 정보에 의해 디스플레이되는 시각 목표에 대응하는지의 여부를 제어 장치에서 결정하는 단계;
    상기 개인이 반응하는 데까지 걸린 시간을 기록하는 단계; 및
    상기 개인의 반응의 정확도를 기록하는 단계를 포함한, 불변인 시각 양안전도 범위 내에서 개인의 깊이 인지 능력의 테스트 및 훈련 중 하나 이상을 행하는 방법.
  2. 제1항에 있어서, 상기 기준 시각 목표는 제1 시간에 디스플레이되고, 상기 제2 시각 목표는 제2 시간에 디스플레이되는 것인, 불변인 시각 양안전도 범위 내에서 개인의 깊이 인지 능력의 테스트 및 훈련 중 하나 이상을 행하는 방법.
  3. 제2항에 있어서, 상기 제1 시간과 상기 제2 시간은 동일한 것인, 불변인 시각 양안전도 범위 내에서 개인의 깊이 인지 능력의 테스트 및 훈련 중 하나 이상을 행하는 방법.
  4. 불변인 시각 양안전도 범위 내에서 개인의 깊이 인지 능력의 테스트 및 훈련 중 하나 이상을 행하는 방법에 있어서,
    상기 개인에게 투과 필터 렌즈를 구비하는 입체 안경을 제공하는 단계;
    상기 개인에게 가장 가깝게 디스플레이되는 시각 목표를 선택하도록 상기 개인에게 지시하는 단계;
    표시 장치상에서 제1 시간에, 중첩된 입체 화상 성분들의 제1 세트를 포함한 입체 3차원 제1 시각 목표 및 중첩된 입체 화상 성분들의 제2 세트를 포함한 입체 3차원 제2 시각 목표를 디스플레이하는 단계로서, 상기 시각 목표들은 상기 투과 필터 렌즈를 통해 인지되도록 컬러를 갖고 유사하지만 동일하지는 않은 깊이 정보로 디스플레이되어, 상기 개인이 불변인 시각 양안전도로 상기 제1 시각 목표와 상기 제2 시각 목표를 인지할 수 있고, 상기 제1 시각 목표는 상기 제2 시각 목표보다 상기 개인에게 더 가까운 것으로서 상기 개인에게 인지되는 것인, 상기 디스플레이하는 단계;
    상기 제2 시각 목표보다 상기 개인에게 더 가까운 것으로서 상기 제1 시각 목표를 선택하는 상기 개인으로부터의 반응을 제2 시간에 수신하는 단계;
    상기 개인에 의해 선택된 시각 목표가, 상기 개인에게 더 가까운 것으로 인지되도록 깊이 정보에 의해 디스플레이되는 시각 목표에 대응하는지의 여부를 제어 장치에서 결정하는 단계;
    상기 개인이 반응하는 데까지 걸린 시간을 기록하는 단계; 및
    상기 개인의 반응의 정확도를 기록하는 단계를 포함한, 불변인 시각 양안전도 범위 내에서 개인의 깊이 인지 능력의 테스트 및 훈련 중 하나 이상을 행하는 방법.
  5. 삭제
KR1020127004665A 2009-08-03 2010-08-03 입체 깊이 인지 훈련 또는 테스트 방법 KR101811890B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US12/534,661 US7980693B2 (en) 2009-08-03 2009-08-03 Anaglyphic depth perception training or testing
US12/534,661 2009-08-03
US12/628,347 2009-12-01
US12/628,347 US8002408B2 (en) 2009-08-03 2009-12-01 Anaglyphic depth perception training or testing
PCT/US2010/044246 WO2011017320A1 (en) 2009-08-03 2010-08-03 Anaglyphic depth perception training or testing

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020177003700A Division KR101811991B1 (ko) 2009-08-03 2010-08-03 입체 깊이 인지 훈련 또는 테스트 방법

Publications (2)

Publication Number Publication Date
KR20120092560A KR20120092560A (ko) 2012-08-21
KR101811890B1 true KR101811890B1 (ko) 2017-12-22

Family

ID=43526696

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020127004665A KR101811890B1 (ko) 2009-08-03 2010-08-03 입체 깊이 인지 훈련 또는 테스트 방법
KR1020177003700A KR101811991B1 (ko) 2009-08-03 2010-08-03 입체 깊이 인지 훈련 또는 테스트 방법

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020177003700A KR101811991B1 (ko) 2009-08-03 2010-08-03 입체 깊이 인지 훈련 또는 테스트 방법

Country Status (7)

Country Link
US (2) US8002408B2 (ko)
EP (1) EP2461738A4 (ko)
JP (1) JP5789604B2 (ko)
KR (2) KR101811890B1 (ko)
CN (1) CN102573611B (ko)
CA (1) CA2770073C (ko)
WO (1) WO2011017320A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240022855A (ko) 2022-08-12 2024-02-20 표도연 뇌파를 이용한 입체시력 검사방법

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110221876A1 (en) * 2008-10-20 2011-09-15 Macnaughton Boyd Solar Powered 3D Glasses
US20120291122A1 (en) * 2011-05-13 2012-11-15 University Of Wollongong Multi Dimensional CAPTCHA System and Method
WO2012160741A1 (ja) * 2011-05-20 2012-11-29 パナソニック株式会社 視覚疲労度測定装置、その方法、視覚疲労度測定システムおよび3次元メガネ
TWI498771B (zh) * 2012-07-06 2015-09-01 Pixart Imaging Inc 可辨識手勢動作的眼鏡
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US9216133B2 (en) 2013-01-16 2015-12-22 Elwha Llc Using a 3D display to train a weak eye
CN103040598A (zh) * 2013-01-25 2013-04-17 北京市眼科研究所 立体视频刺激调节近视治疗仪
KR101371772B1 (ko) * 2013-01-28 2014-03-10 가톨릭대학교 산학협력단 입체시 검안 장치
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US20170209041A1 (en) * 2013-04-17 2017-07-27 Kazuo Ichikawa Color-viewing function measuring means and color-viewing function measurement system
EP2942004B1 (en) * 2014-05-09 2020-09-23 D.M.D. Computers S.r.l. Positioning of autostereoscopic tablet computer
US10482778B2 (en) 2016-01-07 2019-11-19 Senaptec Llc Shape and signal adjustable motion simulation system
CN105496347B (zh) * 2016-01-12 2017-06-06 哈尔滨学院 视深度电子测量装置
CN105942966B (zh) * 2016-07-06 2017-08-08 深圳大学 一种基于数字式同视机的斜视自主检测方法及系统
US9681801B1 (en) 2017-01-09 2017-06-20 Marvin Efron Efron stereopter
CN109875863B (zh) * 2019-03-14 2021-07-20 江苏睿世力科技有限公司 基于双目视觉与脑力影像训练的头戴式vr视力提升系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060251334A1 (en) * 2003-05-22 2006-11-09 Toshihiko Oba Balance function diagnostic system and method
WO2008128192A1 (en) * 2007-04-13 2008-10-23 Nike, Inc. Vision cognition and coordination testing and training

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1422527A (en) * 1920-01-20 1922-07-11 Frederick L Sawyer Color print viewable by lights of different colors and process of making the same
US2362588A (en) * 1942-06-22 1944-11-14 Donald P Mossman Sr Device for measurement of stereoscopic vision
US2603124A (en) * 1947-08-14 1952-07-15 Richards John Mark Stereoscopic target for testing eyes
US3861790A (en) 1973-02-14 1975-01-21 Raymond M Tamura Dynamic visual acuity testing system
US4778268A (en) * 1983-08-26 1988-10-18 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Visual accommodation trainer-tester
US5088810A (en) * 1989-01-23 1992-02-18 Galanter Stephen M Vision training method and apparatus
US5173724A (en) * 1989-07-05 1992-12-22 Celeste Virginia Bonham Optical system which helps reduce eye strain
US5050982A (en) 1989-10-06 1991-09-24 Meissner Juergen P Method and apparatus for improving visual acuity
US5235361A (en) * 1990-12-12 1993-08-10 Selwyn Super Stereoscopic vision testing apparatus
WO1995010219A1 (en) * 1992-06-08 1995-04-20 Harper Gilberto B Quantitative assessment of human ocular coordination
JPH074343B2 (ja) * 1992-09-29 1995-01-25 株式会社エイ・ティ・アール視聴覚機構研究所 奥行き知覚分析装置
US5478239A (en) 1993-12-21 1995-12-26 Maximum Performance, Inc. Dynamic visual acuity training method and apparatus
US5539481A (en) * 1994-12-22 1996-07-23 Vax; Guennadi Acuity therapy apparatus and method thereof
DE29521899U1 (de) * 1995-01-19 1998-09-03 Oculus Optikgeraete Gmbh Sehtestgerät
US5877840A (en) * 1996-09-20 1999-03-02 Sanyo Electric Co., Ltd. Binocular view function inspecting apparatus and inspecting method
US5953102A (en) * 1997-07-23 1999-09-14 Berry; Francis D. Method for substantially objective testing of the visual capacity of a test subject
US6033073A (en) * 1997-08-15 2000-03-07 Potapova; Olga Visual training system and apparatus for vision correction, especially for various forms of strabismus ("crossed" eyes)
US6129435A (en) 1998-04-09 2000-10-10 Nike, Inc. Decentered protective eyewear
AU4614999A (en) * 1998-06-23 2000-01-10 Virtual-Eye-Com, Inc. Device for examining ocular motility
US6158865A (en) 1999-10-29 2000-12-12 Kreutzig; Kirk Color enhancing filter and method of employing a color enhancing filter to improve human eye vision
US6139152A (en) * 2000-02-28 2000-10-31 Ghahramani; Bahador Electronic depth perception testing system and apparatus for conducting depth perception tests
US6561646B2 (en) 2000-05-09 2003-05-13 Allan Silliphant Viewing of an anaglyph with improved stereoscopic image perception
US6631987B2 (en) 2001-01-23 2003-10-14 Nike, Inc. Activity-specific optical filters and eyewear using such filters
CN2557069Y (zh) * 2002-08-02 2003-06-25 天津三维显示技术有限公司 立体视觉测试装置
US7073208B2 (en) 2002-12-20 2006-07-11 Jackson Products, Inc. Ventilated safety goggles
US6811258B1 (en) 2003-06-23 2004-11-02 Alan H. Grant Eyeglasses for improved visual contrast using hetero-chromic light filtration
JP4827602B2 (ja) * 2006-04-28 2011-11-30 株式会社ニデック 視標呈示装置
JP2008086657A (ja) * 2006-10-04 2008-04-17 Tomoya Handa 立体視機能検査具、立体視機能検査装置、コンピュータプログラム、及び記録媒体
US8086025B2 (en) * 2007-05-10 2011-12-27 Monte Jerome Ramstad Universal stereoscopic file format
US8197065B2 (en) * 2009-08-03 2012-06-12 Nike, Inc. Vision testing and/or training using adaptable visual indicia

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060251334A1 (en) * 2003-05-22 2006-11-09 Toshihiko Oba Balance function diagnostic system and method
WO2008128192A1 (en) * 2007-04-13 2008-10-23 Nike, Inc. Vision cognition and coordination testing and training

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240022855A (ko) 2022-08-12 2024-02-20 표도연 뇌파를 이용한 입체시력 검사방법

Also Published As

Publication number Publication date
KR20170018973A (ko) 2017-02-20
CN102573611A (zh) 2012-07-11
CA2770073C (en) 2017-12-19
US20110304818A1 (en) 2011-12-15
CA2770073A1 (en) 2011-02-10
JP5789604B2 (ja) 2015-10-07
WO2011017320A1 (en) 2011-02-10
KR20120092560A (ko) 2012-08-21
KR101811991B1 (ko) 2017-12-22
US20110025976A1 (en) 2011-02-03
CN102573611B (zh) 2015-09-02
EP2461738A4 (en) 2018-03-07
EP2461738A1 (en) 2012-06-13
US8491119B2 (en) 2013-07-23
JP2013500832A (ja) 2013-01-10
US8002408B2 (en) 2011-08-23

Similar Documents

Publication Publication Date Title
KR101811890B1 (ko) 입체 깊이 인지 훈련 또는 테스트 방법
US20240148244A1 (en) Interactive system for vision assessment and correction
US20190307324A1 (en) System and method for measurement of refractive error of an eye based on subjective distance metering
KR101754367B1 (ko) 통합된 시력 테스팅 및/또는 트레이닝
KR102469507B1 (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
TW201808214A (zh) 用於迅速測量視覺對比敏感度函數之系統及方法
CN111248851B (zh) 一种视功能自测方法
US9492075B2 (en) Prism prescription value acquisition system, acquisition method, acquisition apparatus and program for correcting fixation disparity
JP7370091B2 (ja) 視力検査方法、視力検査機及びこの視力検査方法のプログラムを保存するダウンローダサーバ
CN109497925A (zh) 眼视功能评价装置以及眼视功能评价方法
US7980693B2 (en) Anaglyphic depth perception training or testing
CA2953973C (en) Shape and signal adjustable motion simulation system
CN104042186A (zh) 一种自助式眼睛综合检测设备
CN104352340B (zh) 一种综合视觉功能训练设备与方法
JP2000116600A (ja) 視力装置
CN111493812B (zh) 一种一站式电子视觉检查仪及检查方法

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant