KR102641916B1 - 시각 작업에 대한 시각 장비의 성능을 평가하기 위한 디바이스 및 방법 - Google Patents

시각 작업에 대한 시각 장비의 성능을 평가하기 위한 디바이스 및 방법 Download PDF

Info

Publication number
KR102641916B1
KR102641916B1 KR1020217030023A KR20217030023A KR102641916B1 KR 102641916 B1 KR102641916 B1 KR 102641916B1 KR 1020217030023 A KR1020217030023 A KR 1020217030023A KR 20217030023 A KR20217030023 A KR 20217030023A KR 102641916 B1 KR102641916 B1 KR 102641916B1
Authority
KR
South Korea
Prior art keywords
target
wearer
visual
model
initial
Prior art date
Application number
KR1020217030023A
Other languages
English (en)
Other versions
KR20210128467A (ko
Inventor
세바스띠앙 프리커
코노강 바항똥
델핀느 트랑부에-베르나르댕
시릴 귀이유
Original Assignee
에씰로 앙터나시오날
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에씰로 앙터나시오날 filed Critical 에씰로 앙터나시오날
Publication of KR20210128467A publication Critical patent/KR20210128467A/ko
Application granted granted Critical
Publication of KR102641916B1 publication Critical patent/KR102641916B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/103Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining refraction, e.g. refractometers, skiascopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Remote Sensing (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Eye Examination Apparatus (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Eyeglasses (AREA)

Abstract

시각 작업에 대한 타겟 시각 장비의 성능을 평가하기 위한 본 디바이스(10)는: 현장에서 작업을 수행하는 초기 시각 장비의 초기 착용자와 연관된 적어도 하나의 파라미터의 측정치들의 시간에 따른 대표적인 데이터(D(t))를 얻으며, 현장의, 타겟 착용자의 모델(Ms, Mw)을 얻도록 구성되는 적어도 하나의 입력(12); 현장 및 타겟 착용자 모델들(Ms, Mw)을 이용함으로써, 그리고 시간에 따른 대표적인 데이터(D(t))를 타겟 착용자 모델(Mw)에 적용시킴으로써 타겟 장비로 작업을 가상으로 수행하며; 가상 수행에 기반하여, 적어도 하나의 관심 있는 파라미터(I)를 결정하며; 관심 있는 파라미터(I)에 따라 타겟 장비의 성능(P)을 평가함으로써 어느 정도까지 타겟 장비가 타겟 착용자에게 적절한지를 결정하기 위해 관심 있는 파라미터(I)를 제공하도록 구성되는 적어도 하나의 프로세서(14)를 포함한다.

Description

시각 작업에 대한 시각 장비의 성능을 평가하기 위한 디바이스 및 방법
본 발명은 적어도 하나의 시각 작업을 수행하는 시각 장비의 착용자에 대한 그러한 시각 장비의 성능을 평가하기 위한 디바이스 및 방법에 관한 것이다.
안과용 렌즈 또는 솔라 렌즈와 같은 시각 장비가 주어진 시각 작업을 수행하는 착용자에 의해 착용될 때, 시각 장비의 성능은: 예를 들어 착용자가 시각 작업을 수행한 후에 질문표를 채울 것을 요청 받을 수 있거나; 시각 작업에 대한 착용자의 수행이 속도, 정확성, 반복성, 안정성 등의 면에서 평가될 수 있거나; 착용자에게 뇌 활성도를 기록하는 뇌파 전위 기록 장치가 구비될 수 있거나; 착용자에게 응시 방향을 기록하는 안구 추적 디바이스가 구비될 수 있거나; 착용자에게 신체 자세를 기록하는 모션 추적 디바이스가 구비될 수 있는 수 가지의 방식으로 평가될 수 있다.
문서 WO-A-2017/157760은 착용자에게 적응되는 안과용 렌즈, 즉 운동 파라미터에 기반하여 만족스러운 것으로 고려되는 성능을 갖는 안과용 렌즈, 예를 들어 광학 흐름의 변경을 최소화하는 안과용 렌즈를 결정하기 위한 방법을 설명한다. 운동 파라미터는 착용자의 신체의 임의의 부분, 예를 들어 머리 또는 눈의 궤적, 속도, 방향 및/또는 움직임일 수 있다. 운동 파라미터는 센서를 사용함으로써 측정된다.
실제로, 사람의 신체 움직임을 모델링하는 것은 매우 복잡하여 신체 모션 캡처로부터 얻어지는 데이터를 불러 오는 것이 흔히 바람직하다. 그러한 불러 오게 되는 데이터는 사람의 현실적인 움직임을 재현하기 위해, 예를 들어 비디오 게임 및 영화에서의 특수 효과에서 사용된다.
개선된 안과용 렌즈 설계를 결정하기 위해 착용자의 머리 또는 눈 위치를 얻는 것이, 예를 들어 문서 WO-A-2015/124574로부터 또한 알려져 있다.
그러나, 앞선 종래 기술 접근법들은 착용자가 주어진 시각 작업에 대해 시각 장비를 사용하는 방식에 관하여, 예를 들어 어느 응시 방향 및 대상 근접을 착용자가 실제로 사용하는지에 관하여 착용자와 관련되는 관심 있는 파라미터에 대한 정확하고 객관적인 정보를 얻는 것을 가능하게 하지 않는다.
그러한 관심 있는 파라미터의 예는 시각 작업의 수행 동안의 착용자의 시력 또는 시력 손실, 착용자가 겪는 왜곡, 착용자의 응시 노고, 자세 노고, 원근 조절의 레벨, 광학 흐름, 이접 운동 상태 등을 포함한다.
현재, 그러한 정보는, 질문표에 대한 착용자의 주관적인 답변을 통해 주로 얻어지기 때문에, 통상적으로 주관적이므로, 신뢰 가능하지 않고 부정확하다. 더욱이, 그러한 주관적인 정보는 데이터 해석을 복잡하게 한다. 착용자들 사이의 비교는, 주관성에 의해 치우치게 되므로 또한 어렵다. 게다가, 주관적인 데이터는 객관적인 데이터보다 통상적으로 덜 반복 가능하거나 재현 가능하다.
더욱이, 뇌 활성도를 기록하는 뇌파 전위 기록 장치를 착용자에게 구비시킴으로써 다양한 시각 장비의 성능을 비교하는 것은: 주어진 시험이 각각의 시각 장비마다 반복되어야 하고, 착용자가 다양한 시각 장비로 동일한 방식으로 시각 작업을 수행하지 않으면, 비교가 어려울 수 있다는 어려움을 또한 겪는다. 다양한 시각 장비가 평가되는 순서는, 평가되는 주어진 시각 장비의 렌즈가 평가되는 다음의 시각 장비의 렌즈를 통한 착용자의 시력에 영향을 줄 수 있다는 것을 고려해 볼 때, 비교의 결과에 영향을 줄 수도 있다.
따라서 현재, 미리 정해진 관심 있는 파라미터에 대한 객관적인 정보를 얻음으로써 주어진 시각 작업을 수행하는 시각 장비의 착용자에 대한 시각 장비의 성능을 객관적인 방식으로 평가하기 위한 어떤 만족스러운 해결책도 없다.
본 발명의 목적은 종래 기술의 앞서 언급된 결점들을 극복하는 것이다.
그러한 목적으로, 본 발명은 적어도 하나의 시각 작업에 대한 타겟 시각 장비의 성능을 평가하기 위한 디바이스로서:
현장에서 적어도 하나의 시각 작업을 수행하는 초기 시각 장비의 초기 착용자와 연관된 적어도 하나의 파라미터의 측정치들의 시간에 따른 대표적인 데이터를 얻으며;
적어도 하나의 시각 작업이 수행되는 현장의 모델을 얻으며;
타겟 착용자의 모델을 얻도록 구성되는 적어도 하나의 입력;
현장 모델 및 타겟 착용자 모델을 이용함으로써, 그리고 시간에 따른 대표적인 데이터를 현장의 모델에서 시각 작업을 수행하는 데 타겟 시각 장비를 갖는 타겟 착용자의 모델에 적용시킴으로써 타겟 시각 장비로 적어도 하나의 시각 작업을 가상으로 수행하며;
가상 수행에 기반하여, 적어도 하나의 관심 있는 파라미터를 결정하며;
적어도 하나의 관심 있는 파라미터에 따라 타겟 시각 장비의 성능을 평가함으로써 어느 정도까지 타겟 시각 장비가 타겟 착용자에게 적절한지를 결정하기 위해 적어도 하나의 관심 있는 파라미터를 제공하도록 구성되는 적어도 하나의 프로세서를 포함하는 디바이스를 제공한다.
그러므로, 관심 있는 파라미터들에 대한 객관적인 정보가 얻어지고 그 후 착용자의 경험을 더 양호하게 이해하고 더 양호하게 모델링하기 위해 가능하게는 주관적인 평가들과 상관될 수 있다.
이는, 예를 들어 고려되는 관심 있는 파라미터(들)에 대한 수개의 시각 장비의 영향의 면에서 수개의 시각 장비를 비교함으로써 타겟 착용자가 고려되는 시각 작업(들)을 수행하는 데 가장 적절한 시각 장비를 결정하는 것을 가능하게 한다.
본 발명은 또한 적어도 하나의 시각 작업에 대한 타겟 시각 장비의 성능을 평가하기 위한 방법으로서:
현장에서 적어도 하나의 시각 작업을 수행하는 초기 시각 장비의 초기 착용자와 연관된 적어도 하나의 파라미터의 측정치들의 시간에 따른 대표적인 데이터를 얻는 단계;
적어도 하나의 시각 작업이 수행되는 현장의 모델을 얻는 단계;
타겟 착용자의 모델을 얻는 단계;
현장 모델 및 타겟 착용자 모델을 이용함으로써, 그리고 시간에 따른 대표적인 데이터를 현장의 모델에서 시각 작업을 수행하는 데 타겟 시각 장비를 갖는 타겟 착용자의 모델에 적용시킴으로써 타겟 시각 장비로 적어도 하나의 시각 작업을 적어도 하나의 프로세서에 의해 가상으로 수행하는 단계;
가상 수행에 기반하여, 적어도 하나의 관심 있는 파라미터를 적어도 하나의 프로세서에 의해 결정하는 단계;
적어도 하나의 관심 있는 파라미터에 따라 타겟 시각 장비의 성능을 평가함으로써 어느 정도까지 타겟 시각 장비가 타겟 착용자에게 적절한지를 결정하기 위해 적어도 하나의 관심 있는 파라미터를 제공하는 단계를 포함하는 방법을 제공한다.
특정 모드들에서, 그러한 평가하기 위한 방법은 본 발명의 실시예들 중 임의의 것에서 본 발명에 따른 평가하기 위한 디바이스에 의해 수행된다.
본 발명은 적어도 하나의 시각 작업에 대한 타겟 시각 장비의 성능을 평가하기 위한 컴퓨터 프로그램 제품으로서, 프로세서에 액세스 가능하고, 프로세서에 의해 실행될 때, 프로세서가:
현장에서 적어도 하나의 시각 작업을 수행하는 초기 시각 장비의 초기 착용자와 연관된 적어도 하나의 파라미터의 측정치들의 시간에 따른 대표적인 데이터를 얻으며;
적어도 하나의 시각 작업이 수행되는 현장의 모델을 얻으며;
타겟 착용자의 모델을 얻으며;
현장 모델 및 타겟 착용자 모델을 이용함으로써, 그리고 시간에 따른 대표적인 데이터를 현장의 모델에서 시각 작업을 수행하는 데 타겟 시각 장비를 갖는 타겟 착용자의 모델에 적용시킴으로써 타겟 시각 장비로 적어도 하나의 시각 작업을 가상으로 수행하며;
가상 수행에 기반하여, 적어도 하나의 관심 있는 파라미터를 결정하며;
적어도 하나의 관심 있는 파라미터에 따라 타겟 시각 장비의 성능을 평가함으로써 어느 정도까지 타겟 시각 장비가 타겟 착용자에게 적절한지를 결정하기 위해 적어도 하나의 관심 있는 파라미터를 제공하게 하는 명령어들의 하나 이상의 시퀀스를 포함하는 컴퓨터 프로그램 제품을 추가로 제공한다.
컴퓨터 프로그램 제품은 유리하게는 컴퓨터 프로그램 제품의 실행 모드들 중 임의의 것으로 본 발명에 따른 방법을 실행시키도록 구성된다.
방법 및 컴퓨터 프로그램 제품의 이점들이 디바이스의 이점들과 유사함에 따라, 이들은 여기서 반복되지 않는다.
본원에 제공되는 설명 및 이의 이점들의 보다 완벽한 이해를 위해, 첨부 도면들 및 상세한 설명과 관련되어 취해지는 이하의 간략한 설명들이 이제 참조되며, 유사 참조 번호들은 유사 부분들을 나타낸다.
도 1은 특정 실시예에서의 본 발명에 따른 디바이스의 개략도이다.
도 2는 특정 실시예에서의 본 발명에 따른 디바이스에 의해 관심 있는 파라미터로서의 왜곡을 결정하는 일 예의 개략도이다.
도 3은 제1 시각 장비의 착용자에 의해 수행되는 계단 오름 시각 작업 동안 고시점 및 왜곡을 본 발명의 특정 실시예에 따른 디바이스에 의해 결정하는 제1 예의 개략도이다.
도 4는 제2 시각 장비의 착용자에 의해 수행되는 계단 오름 시각 작업 동안 고시점 및 왜곡을 본 발명의 특정 실시예에 따른 디바이스에 의해 결정하는 제2 예의 개략도이다.
도 5는 특정 실시예에서의 본 발명에 따른 방법의 단계들을 나타내는 흐름도이다.
뒤따르는 설명에서, 도안하는 도면들은 반드시 일정한 비율인 것은 아니고, 특정 특징들은 명확성 및 간결성을 도모하기 위해 또는 정보를 제공하는 목적으로 일반화되거나 개략적인 형태로 나타내어질 수 있다. 게다가, 다양한 실시예를 만들어 내고 이용하는 것이 이하에 상세히 논의되지만, 본원에 설명하는 바와 같은 매우 다양한 맥락으로 구현될 수 있는 많은 발명적 개념이 제공된다는 점이 이해되어야 한다. 본원에 논의되는 실시예들은 단지 전형적이고 본 발명의 범위를 제한하지 않는다. 프로세스에 관하여 정의되는 모든 기술적 특징이 개별적으로 또는 조합으로 디바이스로 바뀌어질 수 있고, 정반대로, 디바이스에 관한 모든 기술적 특징이 개별적으로 또는 조합으로 프로세스로 바뀌어질 수 있다는 점이 당업자에게 또한 분명할 것이다.
“구비하다(comprise)”(및 “구비한다(comprises)” 및 “구비하는(comprising)”과 같은 이것의 임의의 문법적 변형), “갖다(have)”(및 “갖는다(has)” 및 “갖는(having)”과 같은 이것의 임의의 문법적 변형), “함유하다(contain)”(및 “함유한다(contains)” 및 “함유하는(containing)”과 같은 이것의 임의의 문법적 변형), 및 “포함하다(include)”(및 “포함한다(includes)” 및 “포함하는(including)”과 같은 이것의 임의의 문법적 변형)라는 용어들은 제한을 두지 않은 연결 동사들이다. 이들은 진술된 특징, 정수, 단계 또는 구성 요소, 또는 이들의 그룹들의 존재를 명시하는 데 사용되지만, 하나 이상의 다른 특징, 정수, 단계 또는 구성 요소, 또는 이들의 그룹들의 존재 또는 부가를 배제하지 않는다. 결과적으로, 하나 이상의 단계 또는 요소를 “구비하거나”, “갖거나”, “함유하거나”, “포함하는” 방법 또는 방법의 단계는 그러한 하나 이상의 단계 또는 요소를 보유하지만, 그러한 하나 이상의 단계 또는 요소만을 보유하는 것에 제한되지 않는다.
도 1에 도시된 바와 같이 특정 실시예에서, 적어도 하나의 시각 작업을 수행하는 타겟 시각 장비의 타겟 착용자에 대한 그러한 시각 장비의 성능을 평가하기 위한 디바이스(10)는 현장에서 시각 작업을 수행하는 초기 시각 장비의 초기 착용자의 적어도 하나의 파라미터의 측정치들의, 시간에 따른, 대표적인 데이터(D(t))를 얻도록 구성되는 하나 이상의 입력(12)을 포함한다.
시각 작업(들)은, 예를 들어 걷는 것 및 계단을 오르는 것일 수 있다.
하나 이상의 입력(12)은 또한 시각 작업이 수행되는 현장의 모델(Ms), 및 타겟 착용자의 모델(Mw)을 얻도록 구성된다.
초기 시각 장비 및 타겟 시각 장비 각각은 안과용 렌즈 또는 안과용 렌즈의, 가능하게는 능동 렌즈의 쌍, 또는 솔라 렌즈 또는 솔라 렌즈의 쌍, 또는 안과용 솔라 렌즈 또는 안과용 솔라 렌즈의 쌍일 수 있다. 이는 안경 또는 콘택트 렌즈들 또는 안구 내 렌즈들의 형태일 수 있다. 예를 들어, 이는 누진 렌즈의 쌍일 수 있다.
초기 착용자 및 타겟 착용자는 사용자들의 미리 정해진 그룹을 나타내거나 평균 사용자들인 것으로 여겨지는 실제 사람들 또는 가상적 존재들일 수 있다. “타겟 착용자”라는 표현은 사람 또는 가상적 존재가 성능이 평가되어야 할 타겟 시각 장비를 착용하고 있는 것을 의미한다.
초기 및/또는 타겟 착용자는 연령, 성별, 민족성, 활동도, 굴절력, 크기, 잘 쓰는 손 등과 같은 특정 특성에 따라, 또는 머리/눈 조정 등과 같은 행동 파라미터들에 따라 착용자들이 무리들로 체계화되는 다수의 초기 착용자의 데이터베이스로부터 선택될 수 있다.
마찬가지로, 타겟 시각 장비의 특성들은 실제 기존 장비들 중에서 선택되거나, 가상 시각 장비로서 원하는 바에 따라 구성될 수 있다.
디바이스(10)는 디바이스(10)의 사용자가, 예를 들어 키보드 및/또는 마우스 및/또는 터치 스크린에 의해, 예를 들어 초기 및/또는 타겟 착용자가 속하는 무리뿐만 아니라 타겟 착용자의 모델(Mw)에 영향을 줄 수 있는 임의의 다른 정보와 같은 데이터를 입력하는 것을 가능하게 하는 사용자 인터페이스를 포함할 수 있다.
초기 및 타겟 착용자들은 서로 동일할 수 있다.
타겟 착용자는 서로에 대하여 움직일 수 있는 강성의 신체 부분들/체절들의 세트로서 모델링될 수 있다.
타겟 착용자의 모델(Mw)은, 예를 들어 머리, 머리에 대하여 움직임 가능한 적어도 하나의 눈, 그리고 앞에 타겟 시각 장비가 위치되는 눈과 연동하는 타겟 시각 장비의 적어도 하나의 안과용 및/또는 솔라 렌즈를 포함할 수 있다.
눈 모션은, 예를 들어 눈 응시 방향들을 설명하는 2개의 각도: 낮춤 및 방위각에 의해 한정될 수 있다. 선택적으로, 눈의 비틀림은 홍채 조직의 회전에 의해 안구 추적 디바이스로 측정될 수 있고, 예를 들어 리스팅의 법칙에 따라 결정될 수 있다.
리스팅의 법칙에 대한 상세들에 대해, 예를 들어 Ciuffreda K., Schor C.의 “정상 및 사시의 눈들의 K. N. 운동학(K. N. Kinematics of normal and strabismic eyes)”, “양안 이접 운동 움직임들의 근본적이고 임상의 양상들(Basic and Clinical Aspects of Binocular Vergence Movements)”, Butterworths, 1983, pages 544-564가 참조될 수 있다.
렌즈들은 렌즈들의 기하학적 구조, 즉 형상, 및 렌즈들의 재료 또는 굴절률, 코팅, 투과율, 후방면 상의 반사 작용들, 위치 등에 의해 한정될 수 있다.
머리에 대한 렌즈들의 위치가 시각 작업의 지속 기간 동안 고정된다는 것이 가정될 수 있다.
선택적으로, 타겟 착용자의 모델(Mw)은 모델링된 몸통 또는 동체를 더 포함할 수 있으며, 머리는 몸통에 대하여 움직임 가능하다.
선택적으로, 타겟 착용자의 모델(Mw)은 타겟 착용자의 크기 및/또는 타겟 착용자가 걷는 방식, 타겟 착용자의 특정 타입의 시각 결함, 예를 들어 근시 또는 원시 등과 관련하는 데이터와 같은 타겟 착용자와 관련하는 다른 파라미터들을 더 포함할 수 있다.
디바이스(10)는 또한 적어도 하나의 프로세서(14)를 포함한다.
본 발명에 따르면, 프로세서(14)는 현장 모델(Ms) 및 타겟 착용자 모델(Mw)을 이용함으로써, 그리고 시간에 따라 얻어지는 대표적인 데이터(D(t))를 현장의 모델(Ms)에서 시각 작업을 수행하는 데 타겟 시각 장비를 갖는 타겟 착용자의 모델(Mw)에 적용시킴으로써 타겟 시각 장비로 적어도 하나의 시각 작업을 가상으로 수행하도록 구성된다.
(물리적이거나 가상의) 상기 타겟 착용자 및 (물리적이거나 가상의) 타겟 시각 장비는 현장의 모델(Ms) 및 타겟 착용자의 모델(Mw)에서 고려되는 일부 특성에 의해 한정된다.
비제한적인 예로서, 얻어지는 대표적인 데이터(D(t))는 미리 정해진 참조 프레임, 예를 들어 현장의 “주요” 참조 프레임에 대한 초기 착용자의 머리의 시간에 따른 위치, 그리고 시각 작업 동안의 초기 착용자의 하나의 눈의 시간에 따른 적어도 하나의 응시 방향 중 적어도 하나와 관련할 수 있다.
응시 방향 또는 머리 위치가 반드시 측정되는 것은 아니며: 이는 임의의 적절한 방식으로 유도될 수 있다.
예를 들어, 머리 위치 및 고시점이 인지되면, 응시 방향들은 눈 회전 중심들과 고시점 사이의 광선 추적에 의해 추론될 수 있다.
다른 예로서, 응시 방향들 및 고시점이 인지되면, 머리 위치는 이하와 같이 결정될 수 있다:
1) 초기 머리 위치를 고려한다.
2) 인지된 응시 방향들을 적용시키고 렌즈들을 통한 광선 추적을 수행한다.
3) 2개의 드러나는 광선 사이의 교차 지점, 또는 2개의 드러나는 광선이 교차하지 않으면, 2개의 드러나는 광선 사이의 가장 근접한 지점을 컴퓨팅한다.
4) 드러나는 광선들의 교차 지점과 고시점 사이의 거리를 컴퓨팅한다.
5) 예를 들어 국부 최적화 방법에 의해, 드러나는 광선들의 교차 지점과 고시점 사이의 거리를 최소화하는 머리 위치를 구한다.
다른 예로서, 고시점 및 몸통 위치가 인지되면, 머리 위치 및 응시 방향들은 수직 및 수평 머리 대 눈 조정비들(k_수직 및 k_수평), 예를 들어 k_수직 = k_수평 = 0.3을 가정함으로써 결정될 수 있다. 예를 들어, 머리 모션은 머리 피치, 요 및 롤에 각각 상응하는 3개의 각도인, 세타, 파이 및 로로 설명할 수 있다. 예를 들어, 몸통의 참조 프레임으로부터 머리의 참조 프레임으로의 변환 매트릭스는 k x 세타와 동등한 각도의 X축을 중심으로 하는 회전, 몸통 내지 머리 거리와 동등한 거리의, X축에 직교하는, Y축에 대한 변환, 로와 동등한 각도의, X축 및 Y축에 직교하는, Z축을 중심으로 하는 회전, (1-k) x 세타와 동등한 각도의 X축을 중심으로 하는 회전, 그리고 파이와 동등한 각도의 Y축을 중심으로 하는 회전의 조합일 수 있으며, 여기서, k = 0.22다. 머리 회전 각도들(세타, 파이) 및 눈 회전 각도들(알파, 베타)은, 파이 = k_수직 x 알파이고, 세타 = k_수평 x 베타이도록 드러나는 광선이 고시점과 교차하도록 그 후 결정된다.
대표적인 데이터(D(t))는 시각 작업의 수행 동안 각각의 시간 순간에서의 또한 주시들로 지칭되는 이른바 고시점들, 즉 초기 착용자의 적어도 하나의 눈에 의해 바라보게 되는 지점들의 위치와 관련할 수도 있다.
그러한 고시점들의 위치는 디바이스(10)에 제공되기 전에 직접 측정되거나, 상류에서 컴퓨팅될 수 있다. 고시점들은 (후술하는 바와 같은) 수신된 응시 방향들 및/또는 머리 위치로부터 유도될 수 있으며, 응시 방향들은 가능하게는 모델에 의해 주어진다.
예를 들어, 고시점 위치는 Vision Research, vol. 117, 2015년 12월, pages 59-66, Elsevier의 “머리 방향에 기반한 현저성 기반 응시 예측(Saliency-based gaze prediction based on head direction)”이라는 명칭으로 R. Nakashima 외의 논문에 설명하는 바와 같이 머리 움직임 및 현저성 맵으로부터 추론될 수 있다.
다른 예로서, 발들 위치가 기록되면, 고시점 위치는 한 번 또는 2번의 걸음 또는 1.5 s의 예측으로의 발들 위치로서 추론될 수 있다.
다른 예로서, 시각 작업이 계단 오름을 포함하면, 머리 움직임은 고시점들을 위치 추적하는 데 사용될 수도 있으며: 머리가 상측을 향할 때, 고시점은 계단들의 상단 또는 인근의 관심 있는 지점에 설정된다. 머리가 하측을 향해 돌아갈 때, 고시점은 동시에 1.5 s의 진행 또는 예측으로의 발들의 장래 위치에 설정될 수 있다.
선택적으로, 대표적인 데이터(D(t))는 미리 정해진 참조 프레임에 대한 초기 착용자의 몸통의 시간에 따른 위치와 관련할 수도 있다. 다른 대표적인 데이터(D(t))가 얻어질 수 있다.
따라서 특정 실시예에서, 시각 작업을 가상으로 수행하는 데, 프로세서(14)는 초기 착용자의 앞서 언급된 적어도 하나의 눈 응시 방향, 머리의 앞서 언급된 위치, 및 몸통의 앞서 언급된 위치 중 적어도 하나를 타겟 착용자의 모델(Mw)에 시간에 따라 적용시키도록 구성된다.
대표적인 데이터(D(t))가 초기 착용자에 대한 직접적인 측정치들, 예를 들어 응시 방향 및/또는 초기 착용자의 모션의 측정치들에 기인하는 일 실시예에서, 그러한 측정치들을 얻기 위해, 시각 작업의 지속 기간 동안 초기 착용자에게, 예를 들어 응시 추적 디바이스 및/또는 모션 추적 디바이스가 구비될 수 있다.
본 발명에 따르면, 프로세서(14)는 어느 정도까지 타겟 시각 장비가 타겟 착용자에게 적절한지를 결정하기 위해, 가상 수행에 기반하여, 적어도 하나의 관심 있는 파라미터(I)를 결정하고 적어도 하나의 관심 있는 파라미터(I)를 제공하도록 또한 구성된다.
예를 들어, 광선 추적은 고시점(들) 및/또는 가상 환경의 임의의 지점으로부터 수행되고 렌즈(들), 눈 회전 중심(들) 또는 동공 중심(들)을 통과한다. 그 후, 명백한 대상 위치와 같은 광학 데이터가 컴퓨팅될 수 있다. 모델들의 덕분으로, 그러한 데이터가 사용되고 시력 강하 및/또는 노고들로 변환된다.
관심 있는 파라미터(I)는 시력 또는 원근 조절과 관련될 수 있다. 비제한적인 예들로서, 이는 타겟 착용자의 좌측 및/또는 우측 눈에 대한 단안 시력, 타겟 착용자의 좌측 및/또는 우측 눈에 대한 단안 시력 손실, 양안 시력, 양안 시력 손실, 원근 조절 레벨, 광학 흐름, 왜곡, 이접 운동 상태, 자세 노고들, 자세 적응, 피로 압박들 및/또는 움직임 노력들일 수 있다.
타겟 시각 장비가 타겟 착용자에게 적절한 정도는 적어도 하나의 관심 있는 파라미터(I)에 따라 타겟 시각 장비의 성능(P)을 평가함으로써 결정된다.
비제한적인 예들로서, 성능이 직접적으로 전체 시각 작업에 걸친 관심 있는 파라미터의 평균값일 수 있거나, “양호한”, “열악한”과 같은 임계치들이 관심 있는 파라미터에 대해 한정될 수 있거나, 성능이 상이한 관심 있는 파라미터들의 그리고/또는 상이한 시각 작업들에 대한 평균 점수일 수 있다.
상기 관심 있는 파라미터는 시간이 지남에 따라 달라지는 비제로 파라미터이다. 그러므로, 안과용 처방은 관심 있는 파라미터일 수 없다.
초기 시각 장비는 대표적인 데이터가 기반하는 장비이다. 타겟 시각 장비는 관심 있는 파라미터를 얻는 가상 수행 단계에서 사용되는 장비이다.
다른 예로서 2개의 시각 장비를 비교하기 위해, 시각 장비들 둘 다의 관심 있는 파라미터들의 값들이 비교될 수 있다. 따라서, 가장 양호한 시각 장비는 더 높은 시력 또는 더 낮은 시력 손실을 부여하는 시각 장비, 또는 더 적은 왜곡을 생성하는 시각 장비, 또는 더 적은 광학 흐름 변형을 생성하는 시각 장비 등일 수 있다.
현장의 모델(Ms)은 적어도 하나의 기하학적 파라미터 및 현장에서의 대상의 위치에 의해 한정되는 적어도 하나의 대상을 포함할 수 있다. 현장은 3차원 환경에서의 3차원 대상들로 만들어질 수 있다.
색상, 질감, 대비, 광원들 등을 포함하는 현장의 다른 특징들이 모델(Ms)에 포함될 수 있다.
대상의 형상은 점, 선, 직사각형, 구형, 평행 육면체, 삼각형 메시 및/또는 사각형 메시와 같은 기하학적 형태들을 포함할 수 있다. 현장에서의 대상의 위치는 미리 정해진 참조 프레임에 대하여 한정될 수 있다.
예를 들어, 현장의 주참조 프레임에 대한 대상의 위치를 회전 매트릭스(R) 및 변환 매트릭스(T)를 사용함으로써 설명할 수 있다. 예를 들어, 회전 매트릭스(R)는 3 x 3 매트릭스이고, 변환 매트릭스(T)는 3 x 1 벡터이다.
대상의 참조 프레임에서의 주어진 지점의 좌표들은 3중항(Po)으로 주어지고, 주참조 프레임에서의 그러한 지점의 좌표들은 3중항(Pm)으로 주어진다. 주참조 프레임으로부터 대상의 참조 프레임으로의 변환은 (R, T)로 주어져 Po = R x Pm + T이다.
따라서, 각각의 대상은 각각의 대상의 기하학적 구조 및 변환(R, T)에 의해 한정될 수 있다.
시각 작업은 고시점들, 즉 현장에서 바라보게 되는 지점들의 시퀀스를 포함할 수 있다. 선택적으로, 각각의 지점이 바라보게 되는 시간 순간이 시각 작업에 포함될 수 있다.
따라서, 프로세서(14)는 시각 작업의 수행 동안의 각각의 시간 순간에서 초기 착용자의 적어도 하나의 눈의 고시점들의 위치를 결정하도록 구성될 수 있다.
그렇게 하기 위해, 프로세서(14)는, 예를 들어 이하의 작동들을 수행할 수 있다:
1) 우측 눈에 대한 눈 회전 중심(CRE)의 위치를 컴퓨팅하며;
2) 우측 렌즈의 위치를 컴퓨팅하며;
3) 드러나는 광선을 얻기 위해 우측 렌즈를 통해 우측 눈의 응시 방향으로 우측 눈의 CRE에서 비롯되는 광선 추적을 수행하며;
4) 드러나는 광선과 현장의 모든 대상 사이의 교차 지점(또는 가장 근접한 거리)을 컴퓨팅함. 그 후, 교차 지점이 드러나는 광선의 방향을 따라 렌즈에 가장 근접한 대상이 우측 눈에 대한 고시점을 부여하며;
5) 좌측 눈에 대해 단계들(1 내지 4)을 반복하며;
6) 선택적으로, 좌측 및 우측 눈들에 대해 얻어지는 고시점들의 평균치를 결정한다.
일 변형예로서, 시각 작업의 수행 동안의 각각의 시간 순간에서 초기 착용자의 적어도 하나의 눈에 의해 바라보게 되는 지점들의 위치의 측정치들의, 시간에 따른, 대표적인 데이터(D(t))는 디바이스(10)의 입력(12)에 의해 얻어질 수 있다. 시간에 따른 그러한 대표적인 데이터(D(t))에 기반하여, 시각 작업의 수행 동안의 임의의 시간 순간에서 바라보게 되는 지점들의 위치를 얻기 위해 보간법이 행해질 수 있다.
대표적인 데이터(D(t))가 초기 착용자에 대한 직접적인 측정치들에 기인하는 일 실시예에서, 그러한 측정치들은 시각 작업 동안 착용자에게 머리 착용 디바이스를 제공함으로써 얻어질 수 있다. 머리 착용 디바이스는 초기 착용자의 머리 및 응시 방향들의 미리 정해진 참조 프레임에서의 현장의 3차원 스캔을 제공할 수 있다. 머리 착용 디바이스는 프레임, 그러한 프레임에 부착되는 3차원 카메라, 및 눈 추적기들을 포함할 수 있다. 따라서, 머리 참조 프레임에서의 대상 지점들의 위치 및 머리 참조 프레임에서의 응시 방향들이 얻어질 수 있고, 그러한 정보로부터, 머리 참조 프레임에서의 고시점들의 위치가 도 2를 참조하여 이하에 상세화된 바와 같이 광선 추적에 의해 컴퓨팅될 수 있고, 관심 있는 파라미터(들)(I)가 그 후 결정될 수 있다.
프로세서(14)는, 예를 들어 시뮬레이션에 의해 바라보게 되는 지점들로부터 관심 있는 파라미터(들)(I)를 결정하도록 구성될 수 있다.
예를 들어 관심 있는 파라미터(I)로서, 좌측 눈 및 우측 눈에 대한 단안 시력 손실이 문서 WO-A-2017/064065에 설명하는 시력 모델과 같은 시력 모델을 이용함으로써 결정될 수 있거나; 양안 시력 손실이 좌측 및 우측 눈들의 컴퓨팅된 단안 시력 손실들(시력_손실_좌측, 시력_손실_우측), 그리고, 예를 들어 시력_손실_양안 = (시력_손실_좌측b + 시력_손실_우측b)(1/b)(여기서, b = 7.3임)과 같은 양안 합계 함수(시력_손실_양안)를 이용함으로써 결정될 수 있다.
도 2에 도시된 바와 같이, 좌측 안과용 렌즈(20) 및 우측 안과용 렌즈(22)가 좌측 및 우측 눈들 앞에 각각 위치되는 경우, 고시점을 결정하는 것을 반드시 필요로 하지는 않는 관심 있는 파라미터(I)의 다른 예는 왜곡이다.
그러한 일 실시예에서, 프로세서(14)는 각각의 좌측 및 우측 눈 응시 방향에 상응하는 좌측 광선과 우측 광선 사이의 교차 지점들로부터 왜곡을 결정하도록 구성될 수 있다.
즉, 왜곡은 이하와 같이 스테레오 왜곡 지표에 따라 결정될 수 있다:
1) 대상 지점(O)을 고려하며;
2) 좌측 눈의 동공의 중심(동공 중심_좌측)으로부터 O로의 광선 추적을 수행함. 동공 중심_좌측으로부터 드러나는 광선은 광선_좌측이며;
3) 우측 눈의 동공의 중심(동공 중심_우측)으로부터 O로의 광선 추적을 수행함. 동공 중심_우측으로부터 드러나는 광선은 광선_우측이며;
4) 광선_좌측 및 광선_우측의 교차점의 지점으로서 위치(Q)를 컴퓨팅하거나, 교차점이 존재하지 않으면, 2개의 선(광선_좌측 및 광선_우측) 사이의 가장 근접한 지점으로서 위치(Q)를 컴퓨팅하며;
5) Q는 이른바 “스테레오 지표”에 따른 O의 감지된 위치이다.
관심 있는 파라미터(I)가 왜곡인 2가지의 실시예를 후술하며, 계단 오름 시각 작업 동안 주어진 시각 장비들에 의해 생성되는 왜곡에 따라 그러한 시각 장비들의 성능(P)을 평가하는 것이 원해진다.
실시예 1
제1 시각 장비가 고려된다. 도 3에 도시된 바와 같이, 제1 시각 장비를 착용한 착용자가 계단 오름 시각 작업을 수행하는 시험이 정의된다. 도 3은 모델링된 착용자의 머리(30), 눈들(32) 및 몸통(34)을 도시한다.
시각 작업 동안, 착용자의 응시 방향들, 머리 위치 및 몸통 위치가 기록된다.
고시점(36)이 그 후 상술한 바와 같이 시간에 따라 컴퓨팅될 수 있다.
왜곡 모델을 이용하여, 시간에 따른 계단들의 감지된 위치(38)가 컴퓨팅될 수 있고 도 3에 도시된다.
실시예 2
제1 시각 장비와 상이한 제2 시각 장비가 고려된다. 도 4에 도시된 바와 같이, 제2 시각 장비를 착용한 착용자가 동일한 계단 오름 시각 작업을 수행하는 실시예 1에서와 동일한 시험이 정의된다. 도 4는 또한 모델링된 착용자의 머리(30), 눈들(32) 및 몸통(34)을 도시한다. 실시예 1에서와 동일한 실험적 데이터가 사용된다.
타겟 착용자에 의한 시각 작업의 가상 수행은 기록된 머리 위치들, 기록된 몸통 위치들, 컴퓨팅된 고시점들(46) 및 제2 시각 장비의 파라미터들을 이용하여 모델링될 수 있다.
제2 시각 장비는 제1 시각 장비와 마찬가지로, 렌즈들의 기하학적 구조 및 위치, 재료, 코팅들, 또는 투과율에 의해 모델링될 수 있다. 제2 시각 장비가, 예를 들어 상이한 설계(렌즈를 통한 배율 및 비점 수차의 분포)를 가질 수 있거나, 처방이 변경될 수 있거나, 위치 선정 및/또는 코팅 및/또는 투과율이 상이할 수 있다.
컴퓨팅된 고시점들(46)을 바라보는 제2 시각 장비를 통한 착용자의 응시 방향들이 컴퓨팅될 수 있다.
예를 들어, 머리 위치 및 고시점들이 제1 시각 장비로와 동일하다는 것이 가정될 수 있다. 제2 시각 장비로의 응시 방향들은 제2 시각 장비를 통한 눈 회전 중심들로부터 고시점으로의 광선 추적에 의해 얻어질 수 있다.
시간에 따른 계단들의 감지된 위치(48)에 의한 도 4에 도시된 제2 시각 장비를 통한 계단들의 왜곡들과 같은 관심 있는 파라미터들(I)이 그 후 컴퓨팅될 수 있다.
도 3 및 도 4에서의 계단들의 감지된 위치들(38 및 48)을 비교함으로써, 왜곡들이 제1 시각 장비로보다 제2 시각 장비로 더 낮다는 점을 알 수 있다.
타겟 시각 장비가 (실시예들 1 및 2에서와 같이) 초기 시각 장비와 상이하거나 타겟 착용자가 초기 착용자와 상이한 특정 실시예에서, 프로세서(14)는 적어도 바라보게 되는 지점들로부터 타겟 시각 장비의 타겟 착용자의 머리의 위치를 결정하도록 추가로 구성될 수 있고, 타겟 시각 장비로의 시각 작업의 가상 수행에서, 프로세서(14)는 초기 시각 장비의 초기 착용자의 머리의 위치 대신에 타겟 시각 장비의 타겟 착용자의 머리의 결정된 위치를 이용하도록 구성된다.
그러한 실시예에서, 프로세서(14)는 초기 시각 장비의 초기 착용자의 시력으로부터 타겟 착용자의 머리의 위치를 결정하도록 구성될 수 있다.
그러한 실시예에서, 주어진 시각 작업에 대한 타겟 시각 장비의 성능(P)은 타겟 시각 장비로의 관심 있는 파라미터들(I)에 따라 평가될 수 있다. 관심 있는 파라미터들(I)은, 예를 들어 이하와 같이 결정될 수 있다:
1) 상술한 바와 같이 각각의 시간 순간에서 고시점을 컴퓨팅하며; 타겟 시각 장비를 사용할 때 그리고 초기 시각 장비를 사용할 때, 고시점들이 유사하다는 것이 가정될 수 있으며;
2) 상술한 바와 같이 고시점이 보였던 시력을 결정하며; 타겟 시각 장비를 사용할 때 그리고 초기 시각 장비를 사용할 때, 시력이 유사하다는 것이 가정될 수 있으며;
3) 예를 들어, 다수의 가능한 머리 자세에 상응하는 결정된 시력에 대한 시력의 점 편차들에 따라 결정된 시력으로 타겟 시각 장비를 사용하여 각각의 컴퓨팅된 고시점을 바라보는 머리 자세를 컴퓨팅하며;
4) 타겟 시각 장비로의 관심 있는 파라미터들(I)을 결정한다.
도 5의 흐름도는 적어도 하나의 시각 작업에 대한 시각 장비의 성능을 평가하기 위한 본 발명에 따른 방법의 단계들을 나타낸다.
제1 단계(50)는, 예를 들어 본 발명에 따른 디바이스에 관련하여 상술한 바와 같이 현장에서 적어도 하나의 시각 작업을 수행하는 초기 시각 장비의 초기 착용자와 연관된 적어도 하나의 파라미터의 시간에 따른 측정치들의, 시간에 따른, 대표적인 데이터(D(t))를 얻는 단계를 포함한다.
단계(50) 전에, 또는 단계(50)와 동시에, 또는 단계(50) 후에 수행될 수 있는 다른 단계(52)는, 예를 들어 본 발명에 따른 디바이스에 관련하여 상술한 바와 같이 적어도 하나의 시각 작업이 수행되는 현장의 모델(Ms), 그리고 타겟 착용자의 모델(Mw)을 얻는 단계를 포함한다.
뒤따르는 단계(54)는, 예를 들어 본 발명에 따른 디바이스에 관련하여 상술한 바와 같이 현장의 모델(Ms) 및 착용자의 모델(Mw)을 이용함으로써, 그리고 시간에 따른 대표적인 데이터(D(t))를 현장의 모델(Ms)에서 시각 작업(들)을 수행하는 타겟 시각 장비를 갖는 타겟 착용자의 모델(Mw)에 적용시킴으로써 타겟 시각 장비로 시각 작업(들)을 가상으로 수행하는 단계를 포함한다.
그 후, 단계(56)는, 예를 들어 본 발명에 따른 디바이스에 관련하여 상술한 바와 같이 가상 수행에 기반하여, 적어도 하나의 관심 있는 파라미터(I)를 결정하는 단계를 포함한다.
마지막 단계(58)는 어느 정도까지 타겟 시각 장비가 타겟 착용자에게 적절한지를 결정하도록 적어도 하나의 관심 있는 파라미터(I)를 제공하는 단계를 포함한다. 그러한 결정은, 예를 들어 본 발명에 따른 디바이스에 관련하여 상술한 바와 같이 적어도 하나의 관심 있는 파라미터(I)에 따라 타겟 시각 장비의 성능을 평가함으로써 행해진다.
특정 실시예에서, 본 발명에 따른 방법은 컴퓨터 구현된다. 즉, 컴퓨터 프로그램 제품은, 프로세서에 액세스 가능하고, 프로세서에 의해 실행될 때, 상술한 바와 같은 적어도 하나의 시각 작업에 대한 타겟 시각 장비의 성능을 평가하는 방법의 단계들을 프로세서가 수행하게 하는 명령어들의 하나 이상의 시퀀스를 포함한다.
현장 및 타겟 착용자의 각각의 모델(Ms 및 Mw)은, 예를 들어 클라우드에서 원격으로, 또는 컴퓨터에서 국부적으로 구축될 수 있다.
명령어들의 시퀀스(들)는 클라우드에서의 미리 정해진 위치를 포함하여 하나의 또는 수개의 컴퓨터 판독 가능 저장 매체/매체들에 저장될 수 있다.
대표적인 방법들 및 디바이스들을 본원에 상세히 설명하였지만, 당업자는 다양한 대체 및 변경이 첨부된 청구항들에 의해 설명되고 정의되는 것의 범위로부터 벗어나지 않는 범위 내에서 행해질 수 있다는 점을 인지할 것이다.

Claims (15)

  1. 적어도 하나의 시각 작업에 대한 타겟 시각 장비의 성능을 평가하기 위한 디바이스로서, 적어도 하나의 입력 및 적어도 하나의 프로세서를 포함하고,
    상기 적어도 하나의 입력은:
    현장에서 상기 적어도 하나의 시각 작업을 수행하는 초기 시각 장비의 초기 착용자와 연관된 적어도 하나의 파라미터를 시간에 따라 측정한 시간에 대한 함수인 대표적인 데이터를 얻으며;
    상기 적어도 하나의 시각 작업이 수행되는 상기 현장의 모델을 얻으며;
    시각 작업을 가상으로 수행하여 성능을 평가하고자 하는 상기 타겟 시각 장비를 착용한 타겟 착용자의 모델을 얻도록 구성되고,
    상기 적어도 하나의 프로세서는:
    상기 현장 모델 및 상기 타겟 착용자 모델을 이용하여,
    상기 타겟 착용자의 모델이 상기 타겟 시각 장비를 갖고서 상기 현장의 모델 안에 있는 물리적이거나 가상의 환경을 구축하고,
    상기 대표적인 데이터를 시간에 따라 상기 타겟 착용자의 모델에 적용시킴으로써, 상기 타겟 착용자가 상기 타겟 시각 장비로 상기 초기 착용자가 수행했던 것과 동일한 상기 적어도 하나의 시각 작업을 가상으로 수행하며;
    상기 가상 수행에 기반하여, 적어도 하나의 관심 있는 파라미터를 결정하며;
    상기 적어도 하나의 관심 있는 파라미터에 따라 상기 타겟 시각 장비의 성능을 평가함으로써 어느 정도까지 상기 타겟 시각 장비가 상기 타겟 착용자에게 적절한지를 결정하기 위해 상기 적어도 하나의 관심 있는 파라미터를 제공하도록 구성되는, 디바이스.
  2. 제1항에 있어서,
    상기 대표적인 데이터는 시간에 따른 상기 초기 착용자의 적어도 하나의 응시 방향 및 머리의 위치 중 적어도 하나와 관련하는, 디바이스.
  3. 제2항에 있어서,
    상기 대표적인 데이터는 시간에 따른 상기 초기 착용자의 몸통의 위치와 관련하는, 디바이스.
  4. 제3항에 있어서,
    상기 적어도 하나의 시각 작업을 가상으로 수행하는 데, 상기 프로세서는 상기 초기 착용자의 상기 적어도 하나의 응시 방향, 상기 머리의 위치, 및 상기 몸통의 위치 중 적어도 하나를 시간에 따라 상기 타겟 착용자에게 적용시키도록 구성되는, 디바이스.
  5. 제1항에 있어서,
    상기 현장의 상기 모델은 적어도 하나의 기하학적 파라미터 및 상기 현장에서의 대상의 위치에 의해 한정되는 적어도 하나의 대상을 포함하는, 디바이스.
  6. 제1항에 있어서,
    상기 타겟 착용자의 상기 모델은 머리, 상기 머리에 대하여 움직임 가능한 적어도 하나의 눈, 및 상기 적어도 하나의 눈과 연동하는 상기 타겟 시각 장비의 적어도 하나의 안과용 렌즈를 포함하는, 디바이스.
  7. 제6항에 있어서,
    상기 타겟 착용자의 상기 모델은 모델링된 몸통을 더 포함하는, 디바이스.
  8. 제1항에 있어서,
    상기 적어도 하나의 프로세서는 상기 적어도 하나의 시각 작업의 수행 동안의 각각의 시간 순간에서 상기 초기 착용자의 적어도 하나의 눈에 의해 바라보게 되는 지점들의 위치를 결정하도록 추가로 구성되는, 디바이스.
  9. 제1항에 있어서,
    상기 대표적인 데이터는 상기 적어도 하나의 시각 작업의 수행 동안의 각각의 시간 순간에서 상기 초기 착용자의 적어도 하나의 눈에 의해 바라보게 되는 지점들의 위치와 관련하는, 디바이스.
  10. 제8항 또는 제9항에 있어서,
    상기 적어도 하나의 프로세서는 바라보게 되는 상기 지점들로부터 상기 적어도 하나의 관심 있는 파라미터를 결정하도록 구성되는, 디바이스.
  11. 제10항에 있어서,
    상기 타겟 시각 장비는 상기 초기 시각 장비와 상이하거나 상기 타겟 착용자는 상기 초기 착용자와 상이하며,
    상기 적어도 하나의 프로세서는 적어도 바라보게 되는 상기 지점들로부터 상기 타겟 시각 장비를 착용했을 때 상기 타겟 착용자의 머리가 어디에 위치하는지 결정하도록 추가로 구성되고,
    상기 적어도 하나의 프로세서는, 상기 가상 수행할 때, 상기 초기 시각 장비의 상기 초기 착용자의 머리 위치 대신에, 상기 결정된 타겟 착용자의 머리 위치를 이용하도록 구성되는, 디바이스.
  12. 제11항에 있어서,
    상기 적어도 하나의 프로세서는 상기 초기 시각 장비의 상기 초기 착용자의 시력으로부터 상기 타겟 착용자의 머리 위치를 결정하도록 구성되는, 디바이스.
  13. 제1항 내지 제9항 중 어느 한 항에 있어서,
    상기 적어도 하나의 관심 있는 파라미터는 상기 타겟 착용자의 좌측 및/또는 우측 눈에 대한 단안 시력, 상기 타겟 착용자의 좌측 및/또는 우측 눈에 대한 단안 시력 손실, 양안 시력, 양안 시력 손실, 원근 조절 레벨, 광학 흐름, 왜곡, 이접 운동 상태를 포함하는 그룹과 관련하는, 디바이스.
  14. 적어도 하나의 시각 작업에 대한 타겟 시각 장비의 성능을 평가하기 위한 디바이스를 사용하여 수행되는 방법으로서, 상기 디바이스는 적어도 하나의 입력 및 적어도 하나의 프로세서를 포함하고, 상기 방법은:
    적어도 하나의 입력에 의해, 현장에서 상기 적어도 하나의 시각 작업을 수행하는 초기 시각 장비의 초기 착용자와 연관된 적어도 하나의 파라미터를 시간에 따라 측정한 시간에 대한 함수인 대표적인 데이터를 얻는 단계;
    적어도 하나의 입력에 의해, 상기 적어도 하나의 시각 작업이 수행되는 상기 현장의 모델을 얻는 단계;
    적어도 하나의 입력에 의해, 가상 수행으로 성능을 평가하고자 하는 상기 타겟 시각 장비를 착용한 타겟 착용자의 모델을 얻는 단계;
    적어도 하나의 프로세서에 의해, 상기 현장 모델 및 상기 타겟 착용자 모델을 이용하여,
    상기 타겟 착용자의 모델이 상기 타겟 시각 장비를 갖고서 상기 현장의 모델 안에 있는 물리적이거나 가상의 환경을 구축하고,
    상기 대표적인 데이터를 시간에 따라 상기 타겟 착용자 모델에 적용시킴으로써, 상기 타겟 착용자가 상기 타겟 시각 장비로 상기 초기 착용자가 수행했던 것과 동일한 상기 적어도 하나의 시각 작업을 적어도 하나의 프로세서에 의해 가상으로 수행하는 단계;
    적어도 하나의 프로세서에 의해, 상기 가상 수행에 기반하여, 적어도 하나의 관심 있는 파라미터를 결정하는 단계;
    적어도 하나의 프로세서에 의해, 상기 적어도 하나의 관심 있는 파라미터에 따라 상기 타겟 시각 장비의 성능을 평가함으로써 어느 정도까지 상기 타겟 시각 장비가 상기 타겟 착용자에게 적절한지를 결정하기 위해 상기 적어도 하나의 관심 있는 파라미터를 제공하는 단계를 포함하는, 방법.
  15. 적어도 하나의 시각 작업에 대한 타겟 시각 장비의 성능을 평가하기 위한, 컴퓨터 판독 가능 비일시적 저장 매체에 저장된 컴퓨터 프로그램으로서, 프로세서가 액세스 가능한 명령어들의 하나 이상의 시퀀스를 포함하고, 상기 프로세서가 상기 명령어들을 실행하면, 상기 프로세서가:
    현장에서 상기 적어도 하나의 시각 작업을 수행하는 초기 시각 장비의 초기 착용자의 적어도 하나의 파라미터를 시간에 따라 측정한 시간에 대한 함수인 대표적인 데이터를 얻으며;
    상기 적어도 하나의 시각 작업이 수행되는 상기 현장의 모델을 얻으며;
    가상 수행으로 성능을 평가하고자 하는 상기 타겟 시각 장비를 착용한 타겟 착용자의 모델을 얻으며;
    상기 현장 모델 및 상기 타겟 착용자 모델을 이용하여,
    상기 타겟 착용자의 모델이 상기 타겟 시각 장비를 갖고서 상기 현장의 모델 안에 있는 물리적이거나 가상의 환경을 구축하고,
    상기 대표적인 데이터를 시간에 따라 상기 타겟 착용자의 모델에 적용시킴으로써, 상기 타겟 착용자가 상기 타겟 시각 장비로 상기 초기 착용자가 수행했던 것과 동일한 상기 적어도 하나의 시각 작업을 가상으로 수행하며;
    상기 가상 수행에 기반하여, 적어도 하나의 관심 있는 파라미터를 결정하며;
    상기 적어도 하나의 관심 있는 파라미터에 따라 상기 타겟 시각 장비의 성능을 평가함으로써 어느 정도까지 상기 타겟 시각 장비가 상기 타겟 착용자에게 적절한지를 결정하기 위해 상기 적어도 하나의 관심 있는 파라미터를 제공하는, 컴퓨터 프로그램.
KR1020217030023A 2019-03-22 2020-03-19 시각 작업에 대한 시각 장비의 성능을 평가하기 위한 디바이스 및 방법 KR102641916B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP19305360 2019-03-22
EP19305360.0 2019-03-22
PCT/EP2020/057643 WO2020193370A1 (en) 2019-03-22 2020-03-19 A device and method for evaluating a performance of a visual equipment for a visual task

Publications (2)

Publication Number Publication Date
KR20210128467A KR20210128467A (ko) 2021-10-26
KR102641916B1 true KR102641916B1 (ko) 2024-02-29

Family

ID=66049139

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217030023A KR102641916B1 (ko) 2019-03-22 2020-03-19 시각 작업에 대한 시각 장비의 성능을 평가하기 위한 디바이스 및 방법

Country Status (8)

Country Link
US (1) US20220175240A1 (ko)
EP (1) EP3941331A1 (ko)
JP (1) JP2022525962A (ko)
KR (1) KR102641916B1 (ko)
CN (1) CN113613547A (ko)
AU (1) AU2020247193A1 (ko)
BR (1) BR112021018234A2 (ko)
WO (1) WO2020193370A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4043946A1 (en) 2021-02-12 2022-08-17 Essilor International A device and method for automatically evaluating visual equipment
EP4044081A1 (en) 2021-02-12 2022-08-17 Essilor International A device and method for evaluating a performance of a visual equipment
EP4198616A1 (en) * 2021-12-17 2023-06-21 Essilor International A method and device for determining an optimized visual equipment

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017157760A1 (en) * 2016-03-15 2017-09-21 Essilor International (Compagnie Générale d'Optique) Method for determining an ophthalmic lens adapted to a locomotion parameter

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPQ591800A0 (en) * 2000-02-25 2000-03-23 Sola International Holdings Ltd System for prescribing and/or dispensing ophthalmic lenses
FR2898194B1 (fr) * 2006-03-01 2008-05-02 Essilor Int Procede de determination d'une lentille ophtalmique progressive.
FR2898193B1 (fr) * 2006-03-01 2008-05-09 Essilor Int Procede de determination d'une lentille ophtalmique progressive.
JP5141525B2 (ja) * 2008-03-06 2013-02-13 セイコーエプソン株式会社 シミュレーション装置
WO2010035726A1 (ja) * 2008-09-24 2010-04-01 東海光学 株式会社 眼鏡レンズの設計方法
JP6535899B2 (ja) * 2013-10-08 2019-07-03 東海光学株式会社 眼鏡レンズの評価方法及びレンズを通して物体を目視する際の被験者の見え方の特性の算出方法
FR3012952B1 (fr) * 2013-11-08 2015-11-06 Essilor Int Methode de determination d'au moins un parametre de conception optique d'une lentille ophtalmique progressive
WO2015124574A1 (en) 2014-02-18 2015-08-27 Essilor International (Compagnie Generale D'optique) Method for optimizing an optical lens equipment for a wearer
EP3037869A1 (en) * 2014-12-23 2016-06-29 Essilor International (Compagnie Generale D'optique) A method for comparing a first ophthalmic lens with a second ophthalmic lens
EP3362844B1 (en) 2015-10-15 2019-08-14 Essilor International Method for determining a three dimensional performance of an ophthalmic lens; associated method of calculating an ophthalmic lens
CN109222970A (zh) * 2018-07-09 2019-01-18 司法鉴定科学研究院 视力客观评定的设备及视觉诱发电位的检测系统与方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017157760A1 (en) * 2016-03-15 2017-09-21 Essilor International (Compagnie Générale d'Optique) Method for determining an ophthalmic lens adapted to a locomotion parameter

Also Published As

Publication number Publication date
AU2020247193A1 (en) 2021-09-02
US20220175240A1 (en) 2022-06-09
BR112021018234A2 (pt) 2022-02-08
WO2020193370A1 (en) 2020-10-01
JP2022525962A (ja) 2022-05-20
EP3941331A1 (en) 2022-01-26
KR20210128467A (ko) 2021-10-26
CN113613547A (zh) 2021-11-05

Similar Documents

Publication Publication Date Title
JP7405800B2 (ja) 眼画像の収集、選択および組み合わせ
KR102641916B1 (ko) 시각 작업에 대한 시각 장비의 성능을 평가하기 위한 디바이스 및 방법
JP3342423B2 (ja) 眼光学系のシミュレーション装置
Iskander et al. Using biomechanics to investigate the effect of VR on eye vergence system
CN111771231A (zh) 用于虚拟化身的匹配网格
JP2021533462A (ja) ユーザカテゴリ化による多深度平面ディスプレイシステムのための深度平面選択
US20120287405A1 (en) Method for Determining Binocular Performance of a Pair of Spectacle Lenses
KR102630585B1 (ko) 시각적 작업을 위한 시각적 장비의 성능을 평가하기 위한 장치 및 방법
CN111936912A (zh) 使用眼部配准的头部扫描对准
Batista Narcizo et al. Depth compensation model for gaze estimation in sport analysis
CN108235778B (zh) 基于云端计算的标定方法、装置、电子设备和计算机程序产品
CN112867432B (zh) 具有轴向光焦度-距离模拟器的渐进式透镜模拟器
JP7241702B2 (ja) 画像作成装置、眼鏡レンズ選択システム、画像作成方法およびプログラム
Fink et al. simEye: computer-based simulation of visual perception under various eye defects using Zernike polynomials
JP3735842B2 (ja) 眼光学系のシミュレーション装置を駆動するためのプログラムを記録したコンピュータ読み取り可能な記録媒体
US20240115126A1 (en) A device and method for automatically evaluating visual equipment
Fischer The Influence of Eye Model Complexity and Parameter Variations on the Predictive Power of Simulated Eye-Tracking Data
Ohno et al. Simple-to-calibrate gaze tracking method
Scheel et al. An Efficient Interpolation Approach for Low Cost Unrestrained Gaze Tracking in 3D Space.
JP2024004042A (ja) シミュレーション装置、データ送信装置、モデル生成装置、事前データ生成装置、画像生成装置、シミュレーション方法、及びシミュレーションプログラム
CN117338574A (zh) 一种基于裸眼3d的视觉防护训练方法及其系统
KR20210142627A (ko) 가상 포유류를 사용하여 포유류의 생리적 행동을 시뮬레이션하기 위한 장치, 프로세스 및 컴퓨터 프로그램
Kostorz et al. Preliminary research on application of virtual reality as optical stimulation in videonystagmography

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right