KR102591132B1 - 동공간 거리를 결정하는 장치, 시스템 및 방법 - Google Patents

동공간 거리를 결정하는 장치, 시스템 및 방법 Download PDF

Info

Publication number
KR102591132B1
KR102591132B1 KR1020177035681A KR20177035681A KR102591132B1 KR 102591132 B1 KR102591132 B1 KR 102591132B1 KR 1020177035681 A KR1020177035681 A KR 1020177035681A KR 20177035681 A KR20177035681 A KR 20177035681A KR 102591132 B1 KR102591132 B1 KR 102591132B1
Authority
KR
South Korea
Prior art keywords
user
reflection
distance
determining
light
Prior art date
Application number
KR1020177035681A
Other languages
English (en)
Other versions
KR20180004271A (ko
Inventor
오퍼 리몬
Original Assignee
식스 오버 식스 비젼 엘티디
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 식스 오버 식스 비젼 엘티디 filed Critical 식스 오버 식스 비젼 엘티디
Publication of KR20180004271A publication Critical patent/KR20180004271A/ko
Application granted granted Critical
Publication of KR102591132B1 publication Critical patent/KR102591132B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
    • A61B3/111Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils for measuring interpupillary distance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C13/00Assembling; Repairing; Cleaning
    • G02C13/003Measuring during assembly or fitting of spectacles
    • G02C13/005Measuring geometric parameters required to locate ophtalmic lenses in spectacles frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Ophthalmology & Optometry (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)
  • Paper (AREA)

Abstract

일부 예시적인 실시예는 동공간 거리를 결정하는 장치, 시스템 및/또는 방법을 포함한다. 예를 들어, 제품은 적어도 하나의 컴퓨터 프로세서에 의해 실행될 때, 적어도 하나의 컴퓨터 프로세서가 사용자의 동공들 사이의 동공간 거리를 측정하는 동작을 실행 가능하게 하도록 동작 가능한 컴퓨터 실행 가능 명령을 포함하는 하나 이상의 유형의 컴퓨터-판독 가능 비일시적 저장 매체를 포함하는 제품을 포함할 수 있다. 동작들은, 광원의 광의 제1 및 제2 반사들을 포함하는 포착된 이미지를 수신하는 동작으로서, 제1 반사는 사용자의 제1 동공으로부터의 광의 반사를 포함하며, 제2 반사는 사용자의 제2 동공으로부터의 광의 반사를 포함하는, 상기 포착된 이미지를 수신하는 동작; 및 포착된 이미지에서 제1 및 제2 반사들의 위치들과, 이미지가 포착될 때 이미지 포착 디바이스와 사용자의 동공들 사이의 추정된 거리에 기초하여 동공간 거리를 결정하는 동작을 포함한다.

Description

동공간 거리를 결정하는 장치, 시스템 및 방법
상호 참조
본 출원은 "동공간 거리를 결정하는 장치, 시스템 및 방법"이라는 명칭으로 2015년 5월 11일자 출원된 미국 특허 가출원 제62/159,490호에 대해 우선권을 주장하며, 그 전체 내용은 본원에 참고로 표시된다.
본 명세서에 기술된 실시예는 일반적으로 동공간 거리를 결정하는 것에 관한 것이다.
사용자의 동공들 사이의 동공간 거리(pupillary distance, PD)는 예를 들어 단초점 또는 다초점 안경과 같은 안경의 굴절 규정(refractive prescription)에 추가하여 측정될 수 있다.
안경의 광학적 중심(optical centers)은 예를 들어 선명하고 편리한 시력을 제공하기 위해 사용자의 시선(line of sight)과 일치하도록 구성될 수 있다.
좁은 원거리 시력 영역(distant vision zone)을 가질 수 있는 다초점(MF) 안경은 단초점 안경보다 PD 측정에서 더욱 높은 정확도를 요구할 수 있다.
PD는 예를 들어 PD에서의 대칭이 항상 사시(strabismus)의 경우에서와 같은 구성이 아니면, 안경테 중앙, 예를 들어 사용자의 코의 중심으로부터 2개의 동일하지 않은 수의 거리로서 기술될 수 있다.
동공간 거리에서의 불일치는 예를 들어 복시(double vision), 두통 및/또는 기타 원하지 않는 효과로 이어질 수 있다.
동공간 거리에서 가능한 오차(error)의 정도는 렌즈의 배율Opower), 예를 들어 안경의 Rx에 의존할 수 있다. 예를 들어, 낮은 배율의 렌즈에 대하여, 동공간 거리에서 큰 오차는 사용자의 시력에 영향을 미치지 않을 수 있다.
동공간 거리의 오차 허용오차는 대칭적이지 않을 수 있다. 하나의 예에서, 사용자의 측정된 PD가 사용자의 실제 PD, 예를 들어 음의 오차(negative error)보다 작으면, 사용자는 예를 들어 눈의 약간의 원근조절(accommodation)에 의해 음의 오차를 보상할 수 있으며, 이러한 것은 사용자의 실제 PD를 감소시킬 수 있는 눈 모음(eye convergence)으로 이어질 수 있다. 다른 예에서, 사용자의 실제 PD보다 큰, 예를 들어 양의 오차(positive error)와 같은 사용자의 측정된 PD는 어느 정도의 복시 눈 및/또는 다른 불편함을 초래할 수 있다.
본 발명은 일반적으로 동공간 거리를 결정하는 것에 관한 것이다.
본 발명은 적어도 하나의 컴퓨터 프로세서에 의해 실행될 때, 상기 적어도 하나의 컴퓨터 프로세서가 사용자의 동공들 사이의 동공간 거리를 측정하는 동작을 실행 가능하게 하도록 동작 가능한 컴퓨터 실행 가능 명령을 포함하는 하나 이상의 유형의 컴퓨터-판독 가능 비일시적 저장 매체를 포함하는 제품으로서, 상기 동작들은,
광원의 광의 제1 및 제2 반사들을 포함하는 포착된 이미지를 수신하는 동작으로서, 상기 제1 반사는 사용자의 제1 동공으로부터의 광의 반사를 포함하며, 상기 제2 반사는 사용자의 제2 동공으로부터의 광의 반사를 포함하는, 상기 포착된 이미지를 수신하는 동작; 및
상기 포착된 이미지에서의 상기 제1 및 제2 반사들의 위치들과, 상기 이미지가 포착될 때 이미지 포착 디바이스와 상기 사용자의 동공들 사이의 추정된 거리에 기초하여 상기 동공간 거리를 결정하는 동작을 포함하는, 제품을 제공하는 것이다.
설명의 단순성 및 명료성을 위해, 도면들에 도시된 요소들은 반드시 일정한 축척으로 그려지지 않았다. 예를 들어, 일부 요소의 치수는 표현의 명료성을 위해 다른 요소에 비해 과장될 수 있다. 또한, 도면 부호는 대응하거나 유사한 요소를 나타내도록 도면들 사이에서 반복될 수 있다. 도면들은 다음에 열거된다.
도 1은 일부 예시적인 실시예에 따른 시스템의 개략적인 블록도.
도 2는 일부 예시적인 실시예에 따른 카메라의 렌즈 및 센서의 개략도.
도 3은 일부 예시적인 실시예에 따른, 객체(object)의 이미지를 포착하기 위한 이미지화 도표(imaging diagram)의 개략도.
도 4는 일부 예시적인 실시예에 따른, 기울어진 객체(tilted object)의 이미지를 포착하기 위한 이미지화 도표의 개략도.
도 5는 일부 예시적인 실시예에 따른, 기울어진 카메라에 의해 객체를 포착하기 위한 이미지화 도표의 개략도.
도 6은 일부 예시적인 실시예에 따른, 사용자의 우측 눈의 수평 단면의 개략도.
도 7은 일부 예시적인 실시예에 따른, 카메라를 바라보는 사용자의 두 눈 사이의 동공간 거리의 개략도.
도 8a 내지 도 8f는 일부 예시적인 실시예에 따른, 복수의 몬테카를로 시뮬레이션(Monte Carlo simulations)에 대응하는 막대그래프의 개략도.
도 9는 일부 예시적인 실시예에 따른, 사용자의 동공간 거리(PD)를 결정하는 방법의 개략적인 흐름도.
도 10은 일부 예시적인 실시예에 따른, 사용자의 PD를 결정하는 방법의 개략적인 흐름도.
도 11은 일부 예시적인 실시예에 따른 제품의 개략도.
다음의 상세한 설명에서, 수많은 특정 세부 사항이 일부 실시예의 철저한 이해를 제공하기 위하여 제시된다. 그러나, 일부 실시예가 이러한 특정 세부 사항없이 실시될 수 있다는 것이 당업자에 의해 이해될 것이다. 다른 예들에서, 널리 공지된 방법, 절차, 구성 요소, 유닛 및/또는 회로들은 설명을 모호하게 하지 않도록 상세하게 기술되지 않았다.
다음의 상세한 설명의 일부 부분은 컴퓨터 메모리 내에서 데이터 비트(data bits) 또는 2진 디지털 신호에서 연산의 알고리즘 및 기호 표현의 관점에서 제시된다. 이러한 알고리즘 설명 및 표현은 데이터 처리 기술 분야의 당업자가 그들의 작업 내용을 당업자에게 전달하기 위해 사용하는 기술일 수 있다.
알고리즘은 본 명세서에서 일반적으로 필요한 결과로 이어지는 동작 또는 작업의 일관성있는 시퀀스이도록 고려된다. 이러한 것들은 물리량의 물리적 조작을 포함한다. 통상적으로, 반드시 그런 것은 아니지만, 이러한 양은 저장, 전송, 결합, 비교, 및 기타 조작될 수 있는 전기 또는 자기 신호의 형태를 취한다. 원칙적으로, 통상적인 사용의 이유 때문에, 이러한 신호를 비트, 값, 요소, 기호, 문자, 용어, 숫자 등으로서 표시하는 것이 때때로 편리하다는 것이 입증되었다. 그러나, 이들 및 이와 유사한 용어는 모두 적절한 물리적 양과 관련되어 있고, 단지 이러한 양에 적용되는 편리한 라벨일 뿐이라는 것을 이해해야 한다.
예를 들어, "처리하는", "컴퓨팅하는", "계산하는", "결정하는", "확립하는", "분석하는", "검사하는" 등과 같은 용어를 이용하는 본 명세서의 설명은 컴퓨터의 레지스터 및/또는 메모리 내의 물리적(예를 들어, 전자적) 양으로 표현된 데이터를 컴퓨터의 레지스터 및/또는 메모리 또는 운영 및/또는 프로세스를 수행하도록 명령을 저장할 수 있는 다른 정보 저장 매체 내의 물리적 양으로서 유사하게 표현되는 데이터로 조작 및/또는 변환하는 컴퓨터, 컴퓨팅 플랫폼, 컴퓨팅 시스템, 또는 다른 전자 컴퓨팅 디바이스의 동작(들) 및 프로세스(들)을 참조할 수 있다.
본 명세서에서 사용되는 바와 같이, 용어 "복수" 및 "복수의"는 예를 들어 "다수" 또는 "2개 이상"을 포함한다. 예를 들어, "복수의 물품"은 2개 이상의 물품을 포함한다.
"한 실시예", "실시예", "예시적인 실시예", "다양한 실시예들" 등의 언급은 이러한 실시예(들)가 특정 특징, 구조 또는 특성을 포함할 수 있다는 것을 나타내지만, 모든 실시예들이 반드시 특정 특징, 구조 또는 특성을 포함하는 것은 아니다. 또한, "한 실시예에서"라는 문구의 반복된 사용은 같을지라도 반드시 동일한 실시예를 지칭하는 것은 아니다.
본 명세서에 사용된 바와 같이, 달리 명시되지 않는 한, 공통 객체를 기술하기 위한 서수적 형용사 "제1", "제2", "제3" 등의 사용은 유사한 객체의 상이한 사례들이 표시되고, 이렇게 기술된 객체들이 시간적, 공간적, 순위적 또는 다른 임의의 방식으로 주어진 순서로 있어야 되는 것을 암시하도록 의도되지 않는다.
예를 들어, 일부 실시예는 전체 하드웨어 실시예, 전체 소프트웨어 실시예, 또는 하드웨어 및 소프트웨어 요소 모두를 포함하는 실시예의 형태를 취할 수 있다. 일부 실시예는 펌웨어, 상주 소프트웨어, 마이크로 코드 등을 포함하지만 이에 한정되지 않는 소프트웨어로 구현될 수 있다.
또한, 일부 실시예는 컴퓨터 또는 임의의 명령 실행 시스템에 의해 또는 이와 관련하여 사용하기 위한 프로그램 코드를 제공하는 컴퓨터 사용 가능 또는 컴퓨터 판독 가능 매체로부터 접근 가능한 컴퓨터 프로그램 제품의 형태를 취할 수 있다. 예를 들어, 컴퓨터 사용 가능 또는 컴퓨터 판독 가능 매체는 명령 실행 시스템, 장치 또는 디바이스에 의해 또는 이와 관련하여 사용하기 위한 프로그램을 포함, 저장, 통신, 전파 또는 전송할 수 있는 임의의 장치일 수 있거나 또는 포함할 수 있다.
일부 예시적인 실시예에서, 매체는 전자, 자기, 광학, 전자기, 적외선, 또는 반도체 시스템(또는 장치 또는 디바이스) 또는 전파 매체일 수 있다. 컴퓨터 판독 가능 매체의 일부 예시적인 예는 반도체 또는 고체형 메모리, 자기 테이프, 착탈식 컴퓨터 디스켓, 랜덤 액세스 메모리(RAM), 판독 전용 메모리(ROM), 플래시 메모리, 강성 자기 디스크, 및 광학 디스크를 포함할 수 있다. 광학 디스크의 일부 예시적인 예는 콤팩트 디스크(판독 전용 메모리(CD-ROM)), 콤팩트 디스크(판독/기록(CD-R/W), 및 DVD를 포함한다.
일부 예시적인 실시예에서, 프로그램 코드를 저장 및/또는 실행하는데 적절한 데이터 처리 시스템은 예를 들어 시스템 버스를 통해 메모리 소자에 직접 또는 간접적으로 결합된 적어도 하나의 프로세서를 포함할 수 있다. 메모리 소자는 예를 들어, 프로그램 코드의 실제 실행 동안 사용되는 로컬 메모리, 대용량 기억 장치, 및 실행 동안 코드가 대용량 기억 장치로부터 검색되어야 하는 횟수를 감소시키기 위해 적어도 일부 프로그램 코드의 임시 저장을 제공할 수 있는 캐시 메모리를 포함할 수 있다.
일부 예시적인 실시예에서, 입력/출력 또는 I/O 디바이스(키보드, 디스플레이, 포인팅 디바이스 등을 포함하지만 이에 한정되지 않음)는 직접 또는 개입 I/O 컨트롤러를 통해 시스템에 결합될 수 있다. 일부 예시적인 실시예에서, 네트워크 어댑터는 데이터 처리 시스템이 예를 들어 개입 사설 또는 공용 네트워크를 통해 다른 데이터 처리 시스템 또는 원격 프린터 또는 저장 디바이스에 결합될 수 있도록 시스템에 결합될 수 있다. 일부 예시적인 실시예에서, 모뎀, 케이블 모뎀, 및 이더넷 카드는 네트워크 어댑터의 형태의 예시적인 예들이다. 다른 적절한 구성 요소들이 사용될 수 있다.
일부 실시예는 하나 이상의 유선 또는 무선 링크를 포함할 수 있거나, 무선 통신의 하나 이상의 구성 요소를 이용할 수 있거나, 또는 무선 통신의 하나 이상의 방법 또는 프로토콜 등을 이용할 수 있다. 일부 실시예는 유선 통신 및/또는 무선 통신을 이용할 수 있다.
일부 실시예는 다양한 디바이스 및 시스템, 예를 들어 이동 전화, 스마트폰, 모바일 컴퓨터, 랩톱 컴퓨터, 노트북 컴퓨터, 태블릿 컴퓨터, 포켓용 컴퓨터, 포켓용 디바이스, 개인 휴대 정보 단말기(PDA) 디바이스, 포켓용 PDA 디바이스, 모바일 또는 휴대용 디바이스, 비모바일 또는 비휴대 디바이스, 셀룰러폰, 무선 전화, 하나 이상의 내부 안테나 및/또는 외부 안테나를 가지는 디바이스, 무선 포켓용 디바이스에서 사용될 수 있다.
일부 예시적인 실시예에 따른 시스템(100)의 블록도가 개략적으로 도시되어 있는 도 1을 참조한다.
도 1에 도시된 바와 같이, 일부 예시적인 실시예에서, 시스템(100)은 디바이스(102)를 포함할 수 있다.
일부 예시적인 실시예에서, 디바이스(102)는 적절한 하드웨어 구성 요소 및/또는 소프트웨어 구성 요소, 예를 들어 프로세서, 컨트롤러, 메모리 유닛, 저장 유닛, 입력 유닛, 출력 유닛, 통신 유닛, 운영 체계, 애플리케이션 등을 사용하여 구현될 수 있다.
일부 예시적인 실시예에서, 디바이스(102)는 예를 들어 컴퓨팅 디바이스, 이동 전화, 스마트폰, 휴대 전화, 노트북, 모바일 컴퓨터, 랩톱 컴퓨터, 노트북 컴퓨터, 태블릿 컴퓨터, 포켓용 컴퓨터, 포켓용 디바이스, PDA 디바이스, 포켓용 PDA 디바이스, 무선 통신 디바이스, 무선 통신 디바이스를 통합하는 PDA 디바이스 등을 포함할 수 있다.
일부 예시적인 실시예에서, 디바이스(102)는 예를 들어 프로세서(191), 입력 유닛(192), 출력 유닛(193), 메모리 유닛(194) 및/또는 저장 유닛(195) 중 하나 이상을 포함할 수 있다. 디바이스(102)는 다른 적절한 하드웨어 구성 요소 및/또는 소프트웨어 구성 요소를 선택적으로 포함할 수 있다. 일부 예시적인 실시예에서, 하나 이상의 디바이스(102)의 구성 요소들의 일부 또는 전부는 공통 하우징 또는 패키징에 포함될 수 있으며, 하나 이상의 유선 또는 무선 링크를 사용하여 상호 접속되거나 또는 동작적으로 결합될 수 있다. 다른 실시예에서, 하나 이상의 디바이스(102)의 구성 요소들은 다수의 또는 별개의 디바이스들 사이에 분배될 수 있다.
일부 예시적인 실시예에서, 프로세서(191)는 예를 들어 중앙 처리 유닛(CPU), 디지털 신호 프로세서(DSP), 하나 이상의 프로세서 코어, 싱글 코어 프로세서, 듀얼 코어 프로세서, 마이크로 프로세서, 호스트 프로세서, 컨트롤러, 복수의 프로세서 또는 컨트롤러, 칩, 마이크로 칩, 하나 이상의 회로, 회로, 로직 유닛, 집적 회로(IC), 애플리케이션-특정 IC(ASIC), 또는 임의의 다른 적절한 다목적 또는 특정 프로세서 또는 컨트롤러를 포함할 수 있다. 프로세서(191)는 예를 들어 디바이스(102)의 운영 체제(OS) 및/또는 하나 이상의 적절한 애플리케이션의 명령을 실행할 수 있다.
일부 예시적인 실시예에서, 입력 유닛(192)은 예를 들어, 키보드, 키패드, 마우스, 터치 스크린, 터치 패드, 트랙볼, 스타일러스, 마이크로폰, 또는 다른 적절한 포인팅 디바이스 또는 입력 디바이스를 포함할 수 있다. 출력 유닛(193)은 예를 들어 모니터, 스크린, 터치 스크린, 평판 디스플레이, 발광 다이오드(LED) 디스플레이 유닛, LCD 디스플레이 유닛, 플라즈마 디스플레이 유닛, 하나 이상의 오디오 스피커 또는 이어폰, 또는 다른 적절한 출력 디바이스를 포함할 수 있다.
일부 예시적인 실시예에서, 메모리 유닛(194)은 예를 들어 랜덤 액세스 메모리(RAM), 판독 전용 메모리(ROM), 동적 RAM(DRAM), 동기 DRAM(SD-DRAM), 플래시 메모리, 휘발성 메모리, 비휘발성 메모리, 캐시 메모리, 버퍼, 단기 메모리 유닛, 장기 메모리 유닛, 또는 다른 적절한 메모리 유닛을 포함할 수 있다. 저장 유닛(195)은 예를 들어, 하드 디스크 드라이브, 플로피 디스크 드라이브, 콤팩트 디스크(CD) 드라이브, CD-ROM 드라이브, DVD 드라이브, 또는 다른 적절한 착탈식 또는 비착탈식 저장 유닛을 포함할 수 있다. 예를 들어, 메모리 유닛(194) 및/또는 저장 유닛(195)은 디바이스(102)에 의해 처리된 데이터를 저장할 수 있다.
일부 예시적인 실시예에서, 디바이스(102)는 무선 및/또는 유선 네트워크(103)를 통해 하나 이상의 다른 디바이스와 통신하도록 구성될 수 있다.
일부 예시적인 실시예에서, 네트워크(103)는 유선 네트워크, 근거리 통신망(LAN), 무선 LAN(WLAN) 네트워크, 라디오 방송망(radio network), 셀룰러 네트워크, 와이파이(WiFi) 네트워크, IR 네트워크, 블루투스(BT) 네트워크 등을 포함할 수 있다.
일부 예시적인 실시예에서, 디바이스(102)는 예를 들어, 본 명세서에 설명된 바와 같이, 한 명 이상의 사용자가 디바이스(102)의 하나 이상의 프로세스, 애플리케이션 및/또는 모듈과 상호 작용하는 것을 허용할 수 있다.
일부 예시적인 실시예에서, 디바이스(102)는 하나 이상의 동작, 모듈, 프로세스, 프로시저(procedures) 및/또는 기타 등등을 수행 및/또는 실행하도록 구성될 수 있다.
일부 예시적인 실시예에서, 디바이스(102)는, 예를 들어 추후에 설명되는 바와 같이, 디바이스(102)의 사용자의 동공간 거리(PD)를 결정하도록 구성될 수 있다.
일부 예시적인 실시예에서, 동공간 거리는 근거리 동공간 거리(near pupillary distance) 또는 원거리 동공간 거리(far pupillary distance)를 포함할 수 있다.
일부 예시적인 실시예에서, 시스템(100)은, 예를 들어 추후에 설명되는 바와 같이, 디바이스(102)의 사용자의 동공간 거리(PD)를 결정하도록 구성된 적어도 하나의 서비스, 모듈, 컨트롤러 및/또는 애플리케이션(160)을 포함할 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은 소프트웨어, 소프트웨어 모듈, 애플리케이션, 프로그램, 서브루틴, 명령, 명령 세트, 컴퓨팅 코드, 단어, 값, 심볼, 및 그 조합을 포함할 수 있거나 또는 이러한 것들로서 구현될 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은 디바이스(102)에 의해 실행되는 로컬 애플리케이션(local application)을 포함할 수 있다. 예를 들어, 메모리 유닛(194) 및/또는 저장 유닛(195)은 애플리케이션(160)을 유발하는 명령을 저장할 수 있으며, 및/또는 프로세서(191)는 예를 들어 추후에 설명되는 바와 같이 애플리케이션(160)을 유발하는 명령을 실행하도록 구성될 수 있다.
다른 실시예에서, 애플리케이션(160)은 임의의 적절한 컴퓨팅 시스템, 예를 들어 서버(170)에 의해 실행되는 원격 애플리케이션(remote application)을 포함할 수 있다.
일부 예시적인 실시예에서, 서버(170)는 적어도 원격 서버, 웹 기반 서버, 클라우드 서버 및/또는 임의의 다른 서버를 포함할 수 있다.
일부 예시적인 실시예에서, 서버(170)는 예를 들어 추후에 설명되는 바와 같이, 애플리케이션(160)을 유발하는 명령을 저장하는 적절한 메모리 및/또는 저장 유닛(174), 및 명령을 실행하는 적절한 프로세서(171)를 포함할 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은 원격 애플리케이션과 로컬 애플리케이션의 조합을 포함할 수 있다.
하나의 예에서, 애플리케이션(160)은 애플리케이션(160)이 디바이스(102)의 사용자에 의해 국부적으로 실행될 수 있도록 다른 컴퓨팅 시스템, 예를 들어 서버(170)로부터 디바이스(102)의 사용자에 의해 다운로드 및/또는 수신될 수 있다. 예를 들어, 명령은 예를 들어 디바이스(102)의 프로세서(191)에 의해 실행되기 전에 디바이스(102)의 메모리 또는 임의의 적절한 단기 메모리 또는 버퍼에 수신되어 일시적으로 저장될 수 있다.
다른 예에서, 애플리케이션(160)은 디바이스(102)에 의해 국부적으로 실행되는 프론트 엔드(front-end), 및 서버(170)에 의해 실행되는 백엔드(backend)를 포함할 수 있다. 예를 들어, 사용자의 동공간 거리를 결정하는 하나 이상의 제1 동작은 예를 들어 디바이스(102)에 의해 국부적으로 수행될 수 있고, 및/또는 동공간 거리를 결정하는 하나 이상의 제2 동작은, 예를 들어 추후에 설명되는 바와 같이, 서버(170)에 의해 원격으로 수행될 수 있다.
다른 실시예에서, 애플리케이션(160)은 임의의 다른 적절한 컴퓨팅 배열(computing arrangement) 및/또는 체계(scheme)를 포함할 수 있다.
일부 예시적인 실시예에서, 시스템(100)은 디바이스(102)의 사용자와 시스템(100)의 하나 이상의 요소, 예를 들어 애플리케이션(160) 사이를 접속하기 위한 인터페이스(110)를 포함할 수 있다.
일부 예시적인 실시예에서, 인터페이스(110)는 임의의 적절한 하드웨어 구성 요소 및/또는 소프트웨어 구성 요소, 예를 들어 프로세서, 컨트롤러, 메모리 유닛, 저장 유닛, 입력 유닛, 출력 유닛, 통신 유닛, 운영 체계 및/또는 애플리케이션을 사용하여 구현될 수 있다.
일부 실시예에서, 인터페이스(110)는 임의의 적절한 모듈, 시스템, 디바이스 또는 시스템(100)의 구성 요소의 부분으로서 구현될 수 있다.
다른 실시예에서, 인터페이스(110)는 시스템(100)의 개별 소자로서 구현될 수 있다.
일부 예시적인 실시예에서, 인터페이스(110)는 디바이스(102)의 부분으로서 구현될 수 있다. 예를 들어, 인터페이스(110)는 디바이스(102)의 부분과 결합될 수 있으며, 및/또는 부분으로서 포함될 수 있다.
하나의 예에서, 인터페이스(110)는 예를 들어 미들웨어(middleware)로서, 및/또는 디바이스(102)의 임의의 적절한 애플리케이션의 부분으로서 구현될 수 있다. 예를 들어, 인터페이스(110)는 애플리케이션(160)의 부분으로서 및/또는 디바이스(102)의 OS의 부분으로서 구현될 수 있다.
일부 예시적인 실시예에서, 인터페이스(160)는 서버(170)의 부분으로서 구현될 수 있다. 예를 들어, 인터페이스(110)는 서버(170)의 부분과 결합될 수 있으며, 및/또는 부분으로서 포함될 수 있다.
하나의 예에서, 인터페이스(110)는 웹 기반 애플리케이션, 웹 사이트, 웹 페이지, 플러그 인, ActiveX 컨트롤, 리치 컨텐츠 컴포턴트(rich content component)(예를 들어, 플래시 또는 충격파 컴포넌트) 등을 포함할 수 있거나, 또그 부분일 수 있다.
일부 예시적인 실시예에서, 인터페이스(110)는 예를 들어 시스템(100)의 소자들 사이 및/또는 하나 이상의 다른, 예를 들어 내부 또는 외부의 당사자들, 사용자들, 애플리케이션들 및/또는 시스템들과의 정보 및/또는 정보 통신을 통신하도록 게이트웨이(GW)(112) 및/또는 애플리케이션 프로그래밍 인터페이스(API)(114)와 결합될 수 있다.
일부 실시예에서, 인터페이스(110)는 임의의 적절한 그래픽 사용자 인터페이스(GUI)(116) 및/또는 임의의 다른 적절한 인터페이스를 포함할 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은, 예를 들어 추후에 설명되는 바와 같이, 사용자의 포착된 이미지에 기초하여 사용자의 동공간 거리를 결정하도록 구성될 수 있다.
일부 예시적인 실시예에서, 포착된 이미지는 사용자에 의해 포착될 수 있으며, 예를 들어 추후에 설명되는 바와 같이, 사용자의 눈을 포함할 수 있다.
하나의 예에서, 2차원(2D) 포착된 이미지로부터 정밀한 PD 측정치를 추출하는 것은, 예를 들어 3차원(3D) 환경을 결정하는, 예를 들어 PD를 결정하는 하나 이상의 파라미터를 측정, 평가 및/또는 분석하는 것을 포함할 수 있다. 예를 들어, 3D 환경은 사용자의 얼굴로부터 일정 거리에 위치된 카메라와, 카메라를 보는 동안 사용자의 각각의 동공의 위치를 반사할 수 있으며, 이러한 것은 중심으로부터 편차, 예를 들어 1 ㎜까지의 편차가 있을 수 있다. 동공의 위치는 사용자의 시선(視線), 예를 들어 시축(visual axis)과 일치할 수 있다.
일부 예시적인 실시예에서, 디바이스(102)는 이미지 포착 디바이스, 예를 들어 카메라(118) 또는 이미지를 포착하도록 구성된 임의의 다른 디바이스를 포함할 수 있다.
일부 예시적인 실시예에서, 디바이스(102)는 예를 들어 이미지가 포착될 때 사용자를 조명하도록 구성된 광원(122)을 포함할 수 있다.
일부 예시적인 실시예에서, 광원(122)은 플래시, LED 조명, 또는 임의의 다른 광원을 포함할 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은 예를 들어 카메라(118)로부터 사용자의 포착된 이미지를 수신하도록 구성될 수 있다.
일부 예시적인 실시예에서, 포착된 이미지는 광원(122)의 광의 제1 및 제2 반사를 포함할 수 있다.
일부 예시적인 실시예에서, 제1 반사는 사용자의 제1 동공으로부터의 광의 반사, 예를 들어 제1 동공으로부터의 제1 푸르킨예상(Purkinje image)을 포함할 수 있고, 제2 반사는 사용자의 제2 동공으로부터의 광의 반사, 예를 들어 제2 동공으로부터 제2 푸르킨예상을 포함할 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은, 예를 들어, 이미지가 포착될 때, 포착된 이미지에서 제1 및 제2 반향의 위치, 및 디바이스(102)와 사용자의 동공들 사이의 추정된 거리에 기초하여 사용자의 동공간 거리를 결정하도록 구성될 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은 예를 들어 추후에 설명되는 바와 같이, 제1 및 제2 반사 사이의 픽셀의 개수, 및 픽셀들의 픽셀 대 밀리미터(mm)의 비율에 기초하여 사용자의 동공간 거리를 결정하도록 구성될 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은 예를 들어 추후에 설명되는 바와 같이, 예를 들어 카메라(118)의 하나 이상의 속성에 기초하여 사용자의 동공간 거리를 결정하도록 구성될 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은 예를 들어 추후에 설명되는 바와 같이, 예를 들어, 눈 반경 파라미터, 및 카메라(118)와 사용자의 동공을 포함하는 평면 사이의 거리에 기초하여 사용자의 동공간 거리를 결정하도록 구성될 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은 예를 들어 추후에 설명되는 바와 같이, 예를 들어, 디바이스(102)가 기울어지면, 디바이스(102)의 방위에 대한 방위 정보에 기초하여 사용자의 동공간 거리를 결정하도록 구성될 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은 사용자의 제1 및 제2 동공으로부터 제1 및 제2 반사를 포함하는 포착된 이미지를 수신할 수 있다.
하나의 예에서, 애플리케이션(160)은 예를 들어 애플리케이션(160)이 디바이스(102)에 의해 국부적으로 구현되면 PD를 국부적으로 결정하도록 구성될 수 있다.이 예에 따라서, 카메라(118)는 이미지를 포착하도록 구성될 수 있고, 애플리케이션(160)은 예를 들어 디바이스(102)와 사용자의 동공들 사이의 추정된 거리를 결정하고, 예를 들어 추후에 설명되는 바와 같이 사용자의 동공간 거리를 결정하기 위하여 카메라(118)로부터 포착된 이미지를 수신하도록 구성될 수 있다.
다른 예에서, 예를 들어, 애플리케이션(160)의 프론트 엔드가 디바이스(102)에 의해 구현되는 동안, 애플리케이션(160)이 서버(170)에 의해 구현되거나, 또는 애플리케이션(160)의 백엔드가 서버(170)에 의해 구현되면, 애플리케이션(160)은 PD를 원격으로 결정하도록 구성될 수 있다. 이 예에 따라서, 카메라(118)는 이미지를 포착하도록 구성될 수 있고; 애플리케이션(160)의 프론트 엔드는 포착된 이미지를 수신하고, 디바이스(102)와 사용자의 동공들 사이의 추정된 거리를 결정하도록 구성될 수 있으며; 서버(170) 및/또는 애플리케이션(160)의 백엔드는, 예를 들어 애플리케이션(160)의 프론트 엔드로부터 수신된 정보에 기초하여 사용자의 동공간 거리를 결정하도록 구성될 수 있다.
하나의 예에서, 디바이스(102) 및/또는 애플리케이션(160)의 프론트 엔드는 예를 들어 네트워크(103)를 통해, 포착된 이미지 및 추정된 거리를 서버(170)로 전송하도록 구성될 수 있으며; 및/또는 서버(170) 및/또는 애플리케이션(160)의 백엔드는 포착된 이미지 및/또는 추정된 거리를 수신하고, 예를 들어 디바이스(102)로부터 수신된 포착된 이미지 및 추정된 거리에 기초하여 사용자의 동공간 거리를 결정하도록 구성될 수 있다.
일부 예시적인 실시예에서, 포착된 이미지는 사용자의 얼굴 상의 객체("기준 객체")를 포함할 수 있다.
하나의 예에서, PD는 카메라(118)가 이미지를 포착하는 동안, 예를 들어 카메라(118)의 플래시를 바라보는 사람의 단일 이미지로부터 추출될 수 있고, 사람은 그 사람의 얼굴의 특징에 근접한 공지된 크기의 객체를 홀딩한다.
일부 예시적인 실시예에서, 애플리케이션(160)은, 예를 들어 추후에 설명된는 바와 같이 사용자의 얼굴 상의 객체의 하나 이상의 치수에 기초하여 카메라(118)와 기준 객체 사이의 추정된 거리를 결정하도록 구성될 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은 예를 들어 추후에 설명되는 바와 같이, 예를 들어 디바이스(102)의 가속도를 나타내는 가속도 정보에 기초하여 카메라(118)와 기준 객체 사이의 추정된 거리를 결정하도록 구성될 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은 예를 들어 추후에 설명되는 바와 같이, 사용자의 얼굴 상의 객체와 카메라(118)의 하나 이상의 속성에 기초하여 카메라(118)와 기준 객체 사이의 추정된 거리를 결정하도록 구성될 수 있다.
일부 예시적인 실시예에서, 카메라(118)의 하나 이상의 속성은 카메라(118)의 렌즈의 유효 초점 거리(Effective Focal Length, EFL), 카메라(118)의 센서의 수평 시야(Field of View, FOV), 카메라(118)의 수직 시야, 센서의 해상도, 센서의 2개의 인접한 픽셀 사이의 거리("센서 피치"), 및/또는 카메라(118)의 임의의 다른 추가 또는 대안적인 속성을 포함할 수 있다.
일부 예시적인 실시예에서, 카메라의 렌즈(210) 및 센서(220)를 개략적으로 도시하는 도 2를 참조한다. 카메라(118)(도 1)는 렌즈(210) 및 센서(220)를 포함할 수 있다.
일부 예시적인 실시예에서, 도 2에 도시된 바와 같이, 렌즈(210)는 예를 들어 센서(220)로부터의 렌즈 EFL와 동일한 거리에 위치된 디바이스(102)(도 1)에 의해 주어지고 및/또는 교정될 수 있는 EFL(222)을 가질 수 있다.
일부 예시적인 실시예에서, αh로 표시된 수평 시야각(viewing horizontal angle)은 센서(220)의 수평 크기와 렌즈(210)의 EFL(222)에 기초하여 결정될 수 있다.
일부 예시적인 실시예에서, 수직 시야각(viewing vertical angle)은 예를 들어 센서(220)의 수직 크기에 기초하여 결정될 수 있다.
일부 예시적인 실시예에서, 도 2에 도시된 바와 같이, pitchh로 표시되는 센서 수평 피치(224)는 각각의 2개의 인접한 픽셀의 중심 사이의 거리로서 정의될 수 있다.
일부 예시적인 실시예에서, 센서 피치(224)는 센서의 수평 길이 및 센서의 수평 픽셀의 총 개수에 기초하여 결정될 수 있다.
일부 예시적인 실시예에서, 센서 피치(224)는, 예를 들어, EFL(222), 수평 시야각(αh) 및/또는 수직 시야각에 기초하여 다음의 수학식 1과 같이 결정될 수 있다:
Figure 112017123197601-pct00001
도 1을 다시 참조하면, 일부 예시적인 실시예에서, 애플리케이션(160)은, 예를 들어 추후에 설명되는 바와 같이, 카메라(118)의 하나 이상의 속성, 예를 들어, 수평 시야각(αh), EFL 222(도 2), 및/또는 센서 피치(224)(도 2)에 기초하여 카메라(118)와 기준 객체 사이의 추정된 거리를 결정하도록 구성될 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은, 예를 들어 추후에 설명되는 바와 같이, 카메라(118)의 하나 이상의 속성 및 카메라(118)의 하나 이상의 치수에 기초하여 카메라(118)와 기준 객체 사이의 추정된 거리를 결정하도록 구성될 수 있다.
일부 예시적인 실시예에서, 기준 객체는 예를 들어, 측정 및/또는 주어질 수 있는 하나 이상의 공지된 치수를 가지는 객체를 포함할 수 있다. 예를 들어, 기준 객체는 신용 카드(credit card), 지폐, 및/또는 기타 등등을 포함할 수 있다.
일부 예시적인 실시예에서, 기준 객체는 예를 들어, 측정 및/또는 주어질 수 있는 하나 이상의 공지된 치수를 가지는 안면 객체 또는 요소를 포함할 수 있다. 예를 들어, 기준 객체는 홍채, 눈 반경 파라미터 및/또는 기타 등등을 포함할 수 있다.
일부 예시적인 실시예에서, 카메라(118)는 기준 객체를 포함하는 이미지를 포착하도록 구성될 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은, 예를 들어 추후에 설명되는 바와 같이, 포착된 이미지에서의 객체의 이미지화된 치수, 객체의 실제 치수, 및 카메라 속성에 기초하여 카메라(118)와 기준 객체 사이의 추정된 거리를 결정하도록 구성될 수 있다.
일부 예시적인 실시예에 따라서, 객체(302)의 이미지를 포착하기 위한 이미지화 도표(300)를 개략적으로 도시하는 도 3을 참조한다.
일부 예시적인 실시예에서, 도 3에 도시된 바와 같이, 객체(302)의 이미지(312)는 카메라의 렌즈(310)를 통해 포착될 수 있다. 예를 들어, 카메라(118)(도 1)는 렌즈(310)를 포함할 수 있다.
일부 예시적인 실시예에서, 도 3에 도시된 바와 같이, 객체(302)는 공지 및/또는 주어질 수 있는, h로 표시된 높이를 가질 수 있다.
일부 예시적인 실시예에서, 도 3에 도시된 바와 같이, 예를 들어, 렌즈(310)를 통해 포착될 때 객체(302)의 이미지(312)는 h'로 표시된 이미지화된 높이를 가질 수 있다.
일부 예시적인 실시예에서, 예를 들어, 렌즈(310)와 객체(302) 사이의, u로 표시된 거리는 예를 들어 추후에 설명되는 바와 같이, 공지 및/또는 주어질 수 있는 렌즈(310)의 EFL, 높이(h), 및/또는 이미지화된 높이(h')에 기초하여 결정될 수 있다.
일부 예시적인 실시예에서, 다음의 다음의 수학식 2는, 예를 들어, 다음과 같이, 이미지화 체계(300)에서의 삼각형 유사성에 기초하여 주어질 수 있다:
Figure 112017123197601-pct00002
여기에서, v는 렌즈(310)의 대략적인 EFL이다.
일부 예시적인 실시예에서, 이미지(312)의 이미지화된 높이(h')는 이미지(312)에 의해 점유된, h'_pixels_estimated로 표시되는 픽셀의 개수 및 렌즈(310)의, pitch로 표시되는 센서 피치에 의해 다음의 수학식 3에 기초할 수 있다:
Figure 112017123197601-pct00003
일부 예시적인 실시예에서, 거리(u)는, 예를 들어, 수학식 2 및 수학식 3에 기초하여, 예를 들어 다음의 수학식 4와 같이 결정될 수 있다:
Figure 112017123197601-pct00004
일부 예시적인 실시예에서, 도 3에 도시된 바와 같이, 객체(302)는 예를 들어 기울기가 없이 수직일 수 있다.
일부 예시적인 실시예에서, 카메라에 의해 포착되는 객체는 예를 들어 도 4를 참조하여 추후에 설명되는 바와 같이 기울어 질 수 있다.
일부 예시적인 실시예에 따라서, 기울어진 객체(402)의 이미지를 포착하기 위한 이미지화 도표(400)를 개략적으로 도시한 도 4를 참조한다.
일부 예시적인 실시예에서, 도 4에 도시된 바와 같이, 기울어진 객체(402)의 이미지(412)는 카메라의 렌즈(410)를 통해 포착될 수 있다. 예를 들어, 카메라(118)(도 1)는 렌즈(410)를 포함할 수 있다.
일부 예시적인 실시예에서, 도 4에 도시된 바와 같이, 객체(402)는 공지 및/또는 주어질 수 있는, h로 표시된 높이를 가질 수 있다.
일부 예시적인 실시예에서, 도 4에 도시된 바와 같이, 예를 들어, 렌즈(410)를 통해 포착될 때 객체(402)의 이미지(412)는 h'로 표시되는 이미지화된 높이를 가질 수 있다.
일부 예시적인 실시예에서, 도 4에 도시된 바와 같이, 이미지(412)의 이미지화된 높이(h')는 θ로 표시되는 기울어짐 각도로 평면(407) 상으로의 객체(402)의 투사를 반사할 수 있다.
일부 예시적인 실시예에서, 도 4에 도시된 바와 같이, 높이(h)의 투사는 객체(402)의 높이(h)의, Δh로 표시된 오차 및/또는 감소를 유발할 수 있으며, 이러한 것은 이미지(412)의 이미지된 높이(h')를 감소시킬 수 있다.
일부 예시적인 실시예에서, 예를 들어, 객체 크기(h)에서의 오차(Δh)는 다음의 수학식 5와 같이 결정될 수 있다:
Figure 112017123197601-pct00005
하나의 예에서, 예를 들어, ±10°(도)의 기울어짐 각도로부터 유발될 수 있는 추정 오차(Δh)에 대해, 높이의 상대 오차는 대략 ± 1.5 %(백분율)일 수 있다.
일부 예시적인 실시예에서, 상대 오차는 예를 들어, 동일한 백분율에 의해 추정된 거리에 영향을 줄 수 있다.
일부 예시적인 실시예에서, 도 1을 다시 참조하면, 애플리케이션(160)은, 예를 들어 추후에 설명되는 바와 같이, 객체의 3D 데카르트 좌표에 기초하여 카메라(118)와 객체 사이의 추정된 거리를 결정하도록 구성될 수 있다.
일부 예시적인 실시예에서, 디바이스(102)는 객체의 3D 데카르트 좌표를 결정하도록 구성된 3D 센서(124)를 포함할 수 있다.
일부 예시적인 실시예에서, 3D 센서(124)는 지점들의 세트, 예를 들어 3차원 데카르트 좌표에서 {xi, yi, zi}로 표시된 3개의 지점으로 객체를 맵핑하도록 구성될 수 있다.
하나의 예에서, 지점들의 세트는 거리 의존성 구조(distance dependent structure), 디포커스 구조(defocus structure)로부터의 거리, 스테레오 기반 삼각 측량 구조(stereo-based triangulation structure) 및/또는 기타 등등을 포함하는 투사 구조(projected structure)를 포함할 수 있다.
일부 예시적인 실시예에서, 객체와 카메라(118) 사이의, d로 표시되는 거리는 다음의 수학식 6과 같이 결정될 수 있다:
Figure 112017123197601-pct00006
여기에서, {xo, yo, zo}는 예를 들어 객체와 동일한 데카르트 좌표계에서 카메라 위치를 나타내고, k는 3D 센서(124)에 의해 포착된 객체에서의 이산 지점을 나타낸다.
일부 예시적인 실시예에서, 애플리케이션(160)은 예를 들어 3D 센서(124)로부터의 정보에 기초하여 카메라로부터 객체까지의 거리를 추정하도록 구성될 수 있다.
일부 예시적인 실시예에서, 3D 센서(124)는 카메라로부터의 거리의 함수로서, 또는 절대차원의 함수로서 예를 들어, 미터, 인치, 또는 임의의 다른 크기 단위로 이미지에서의 각각의 픽셀 또는 이미지에서의 픽셀의 각각의 그룹을 기술하는 정보를 제공하도록 구성될 수 있다.
하나의 예에서, 거리의 함수는 애플리케이션(160)이 객체와 카메라(118) 사이의 거리를 결정하도록 할 수 있다.
또 다른 예에서, 절대 치수의 함수는 예를 들어 수학식 4에 기초하여 객체까지의 거리를 결정할 수 있다. 하나의 예에서, 애플리케이션(160)은 예를 들어, 얼마나 많은 픽셀이 이미지에서 획득된 객체의 이미지화된 높이인지의 추정에 의해 3D 센서(124)로부터 정보에 기초하여 객체 크기(h)를 결정할 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은, 예를 들어 추후에 설명되는 바와 같이, 디바이스(102)의 가속에 대응하는 가속도 정보를 사용하는 것에 의해 객체의 사용 없이 카메라(118)와 사용자의 눈 사이의 거리를 결정하도록 구성될 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은 예를 들어 추후에 설명되는 바와 같이, 디바이스(102)의 가속을 나타내는 가속도 정보에 기초하여 카메라(118)와 사용자의 눈 사이의 추정된 거리를 결정하도록 구성될 수 있다.
일부 예시적인 실시예에서, 디바이스(102)는 디바이스(102)의 가속도 정보를 애플리케이션(160)에 제공하도록 가속도계(126)를 포함할 수 있다.
일부 예시적인 실시예에서, 가속도계(126)는 예를 들어, 데카르트 좌표계의 각각 축에 대한 가속도 정보를 주어진 시간에 제공하도록 구성될 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은, 예를 들어 추후에 설명되는 바와 같이, 2개의 조건들의 세트의 만족에 기초하여 카메라(118)와 사용자의 눈 사이의 거리를 결정하도록 구성될 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은, 예를 들어, 초기화 절차를 수행한 후에 카메라(118)와 사용자의 눈 사이의 거리를 결정할 수 있으며, 초기화 절차는 디바이스(102)를 사용자의 눈에 가깝게 홀딩할 때, 사용자의 눈과 카메라(118) 사이에, x0로 표시되는 초기 거리를 설정하는 것을 포함할 수 있다
일부 예시적인 실시예에서, 애플리케이션(160)은 예를 들어 초기화 절차 후에, 디바이스(102)를 눈으로부터 멀리 움직이도록 사용자에게 지시하는 것에 의해, 카메라(118)와 사용자의 눈 사이의 거리에 대한 측정을 시작하도록 사용자에게 디바이스(102)가 지시하도록 할 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은, 예를 들어, 디바이스(102)의 움직임에 따라서 데카르트 좌표계의 하나 이상, 예를 들어 모든 축에서 디바이스(102)의 가속도 정보를 가속도계(126)로부터 수신할 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은 예를 들어 다음의 수학식 7과 같이 ax(t)로 표시되는, X-축 상의 가속도 정보에 기초하여 주어진 시간에, x(t')로 표시되는 X-축 상에서의 x-축 거리를 결정할 수 있다:
Figure 112017123197601-pct00007
일부 예시적인 실시예에서, 애플리케이션(160)은, 예를 들어, 다음의 수학식 8과 같이, 주어진 시간에서 디바이스(102)의, vx(t')로 표시되는 속도에 기초하여 x-축 거리 x(t')를 결정할 수 있다:
Figure 112017123197601-pct00008
일부 예시적인 실시예에서, 애플리케이션(160)은 예를 들어 거리 x(t')를 결정하는 것과 유사한 방식으로 예를 들어 Y-축 상에서의 디바이스(102)의, ay(t)로 표시되는 가속도에 기초하여, y(t')로 표시되는 Y-축 상에서의 Y-축 거리를 결정할 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은 예를 들어 거리 x(t')를 결정하는 것과 유사한 방식으로 예를 들어 Z-축 상에서의 디바이스(102)의, az(t)로 표시되는 가속도에 기초하여, z(t')로 표시되는 Z-축 상의 Z-축 거리를 결정할 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은 다음의 수학식 9와 같이 예를 들어 X-축 거리, Y-축 거리, 및 Z-축 거리에 기초하여 눈으로부터, 카메라(118)의, r(t')로 표시되는 추정된 거리를 결정할 수 있다:
Figure 112017123197601-pct00009
일부 예시적인 실시예에서, 추정된 거리 r(t')의 정확도는, 예를 들어, 추후에 설명되는 바와 같이 거리를 추정하도록 하나 이상의 측정을 사용하는 것에 의해 증가될 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은 계측 범위, 신뢰성, 정확도 및/또는 감도를 증가시키도록 다른 거리 계측 센서들로부터의 정보와 조합하여 가속도 정보를 사용하도록 구성될 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은 예를 들어 가속도 정보에 추가하여, 예를 들어 카메라(118)에 의해 포착된 하나 이상의 이미지를 통합하는 것에 의해 가속도계(126)에 의한 거리 추정의 정확도를 증가시키도록 구성될 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은, 예를 들어, 디바이스(102)의 움직임 동안, 예를 들어, 초기화 절차 후에, 하나 이상의 이미지를 포착하도록 카메라(118)를 제어, 유발, 기동 및/또는 지시하도록 구성될 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은, 예를 들어, 가속도 정보에 기초하여, 추정된 거리의 정확도를 증가시키도록 포착된 이미지들로부터의 정보를 사용하도록 구성될 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은 예를 들어 포착된 이미지들이 예를 들어 상기된 바와 같이 공지된 치수를 가지는 객체를 포함할 때, 포착된 이미지들로부터의 정보를 사용할 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은, 예를 들어 객체의 확대율(magnification)에서의 변화에 기초하여 포착된 이미지들의 한 쌍의 이미지들 사이의 거리를 결정하도록 구성될 수 있다.
일부 예시적인 실시예에서, 가속도 정보의 오차는, 예를 들어 상기 쌍의 이미지들 사이의 거리가 가속도 정보를 평가하도록 사용되면, 디바이스(102)의 움직임 동안 내내 축적되지 않을 수 있다.
하나의 예에서, 초기화 절차는 t'0로 표시되는 시간에 수행되고, 가속도계 정보 센서 데이터로부터 결정된, {t'1, t'2, t'3, t'4...t'N}로 표시되는 시간, 및 {r'1, r'2, r'3, r'4...r'N}로 표시되는 거리, 및 포착된 이미지들에서의 객체의, {h'1, h'2, h'3, h'4...h'N}로 표시되는 관련 크기에서 N개의 카메라 획득이 이어진다.
일부 예시적인 실시예에서, 가속도계 정보에 대한 거리 측정을 위한 최적화는 예를 들어 모든 포착된 것이 객체의 동일한 크기(h)에 대응할 때 가속도 정보의 오차를 감소시키도록 수행될 수 있다.
일부 예시적인 실시예에서, 최소 오차를 최적화하기 위한 방정식은, 예를 들어 다음의 수학식 10과 같이 정의될 수 있다:
Figure 112017123197601-pct00010
일부 예시적인 실시예에서, 애플리케이션(160)은 예를 들어 사용자의 동공간 거리를 결정하도록 사용자의 동공의 평면("동공 평면")과 카메라(118) 사이의 거리를 결정하도록 구성될 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은 예를 들어 3D 센서(124), 가속도계(126), 및/또는 예를 들어 상기된 바와 같은 객체를 포함하는 포착된 이미지를 사용하여, 카메라(118)로부터 객체까지의 거리를 결정한 후에, 동공 평면과 카메라(118) 사이의 거리를 결정할 수 있다.
일부 예시적인 실시예에서, 동공 평면과 카메라(118) 사이의 거리를 계산하는 것은 동공 평면에서의 확대율을 결정할 수 있으며, 이러한 것은 동공들 사이의 절대 거리를 계산할 수 있도록 한다.
일부 예시적인 실시예에서, 동공 평면과 카메라(118) 사이의 거리를 계산하는 것은, 예를 들어 카메라(118)를 볼 때 눈 모음을 원근조절하도록 눈이 카메라를 바라보는 각도를 결정할 수 있도록 한다.
일부 예시적인 실시예에서, 카메라(118)가 평면 센서(flat sensor) 및 비최적화 렌즈(non-optimal lens)로부터 생성된 왜곡 수차(distortion aberration)를 원근조절한다고 가정하면, 카메라(118)의 센서 또는 렌즈 정점(lens apex)에 직각인 평면 전체에 걸쳐서 확대율은 균일하고, 핀쿠션(pincushion) 및 배럴 왜곡(barrel distortions)이 최소화될 수 있다.
일부 예시적인 실시예에서, Mobject(camera_object_distnace)로 표시되는 확대율은 카메라(118)의 센서에 직각인 평면에서 포착된 이미지의, h'obj로 표시되는 포착된 치수의, h'obj_pixels_estimated로 표시되는 픽셀의 추정된 개수와, 객체를 포함하는 평면에서, hobj로 표시되는 객체의 절대 치수 사이의 전환(conversion)을 정의할 수 있다.
일부 예시적인 실시예에서, 확대율을 결정하는 것은 픽셀 대 밀리미터 비율을 결정할 수 있도록 하고, 이러한 것은 예를 들어 추후에 설명되는 바와 같이, 픽셀의 개수를 계산하는 것에 의해 포착된 이미지로부터 PD를 계산할 수 있도록 한다.
하나의 예에서, 카메라(118)는 기울어 질 수 있고, 포착된 이미지에서의 하나 이상의 특징들이 카메라(118)로부터 상이한 거리에 있을 수 있다고 가정될 수 있다. 이러한 예에 따라서, 포착된 이미지에서의 픽셀의 각각의 세트는 다른 확대율을 나타낼 수 있다.
일부 예시적인 실시예에서, 확대율은 예를 들어 다음의 수학식 11과 같이 카메라(118)와 객체 사이의 거리에 기초할 수 있다:
Figure 112017123197601-pct00011
일부 예시적인 실시예에서, 객체의 절대 치수, 예를 들어 높이(hobj)는 예를 들어 다음의 수학식 12와 같이 확대율 및 이미지화된 높이(h'obj)에 기초하여 결정될 수 있다:
Figure 112017123197601-pct00012
일부 예시적인 실시예에서, 객체가 동공의 평면 상에 배치되지 않을 수 있다. 예를 들어, 객체는 사용자의 이마에 위치될 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은 획득하는 카메라(118)의 기울어짐을 고려하면서, 객체를 포함하는 객체 평면과 동공 평면 사이에서 확대율의 변화를 결정하도록 구성될 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은 예를 들어 추후에 설명되는 바와 같이, 객체를 포함하는 평면, 예를 들어 객체 평면에 직각인 축을 따라서 객체와 동공들 사이의 축 방향 편차(axial offset)에 기초하여 사용자의 동공의 평면과 카메라(118) 사이의 거리를 결정할 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은, 예를 들어 추후에 설명되는 바와 같이, 객체를 포함하는 평면에 직각인 축을 따라서 객체와 동공들 사이의 축 방향 편차를 결정하도록 구성될 수 있다.
일부 예시적인 실시예에서, 축 방향 편차를 계산하는 것은 객체 평면과 동공 평면 사이의 확대율의 변화를 결정할 수 있도록 한다.
일부 예시적인 실시예에서, 애플리케이션(160)은 카메라(118)의 기울어짐을 고려하면서 확대율의 변화를 결정하도록 구성될 수 있다.
하나의 예에서, 카메라(118)는 예를 들어 객체를 포함하는 이미지를 포착할 때 지면에 대해 수직이 아닐 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은, 예를 들어 추후에 설명되는 바와 같이, 예를 들어 축 방향 편차 및 카메라(180)의 기울어짐에 기초하여 동공 평면과 객체 평면 사이의 거리를 결정하도록 구성될 수 있다.
일부 예시적인 실시예에서, 디바이스(102)는 디바이스(102)의 방위 및/또는 디바이스(102)의 하나 이상의 요소, 예를 들어 카메라(118)의 방위를 결정하도록 구성된 방위 추정기(128)를 포함할 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은, 예를 들어 이미지가 포착될 때 디바이스(102)의 방위를 나타내는 방위 정보를, 예를 들어 방위 추정기(128)로부터 수신하도록 구성될 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은 예를 들어 방위 정보에 기초하여 사용자의 동공간 거리를 결정하도록 구성될 수 있다.
일부 예시적인 실시예에서, 방위 정보는 카메라(118)의 방위를 나타낼 수 있다.
일부 예시적인 실시예에서, 방위 정보는 카메라(118)의 기울어짐 각도를 나타낼 수 있다.
하나의 예에서, 애플리케이션(160)은 예를 들어 이미지가 카메라(118)의 방위 및/또는 디바이스(102)의 방위에 기초하여 포착될 때 카메라(118)의 기울어짐 각도를 결정하도록 구성될 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은, 예를 들어 추후에 설명되는 바와 같이, 방위 정보, 및 객체를 포함하는 평면에 직각인 축을 따라서 객체와 동공들 사이의 축 방향 편차에 기초하여 사용자의 동공간 거리를 결정하도록 구성될 수 있다.
일부 예시적인 실시예에 따라서, 기울어진 카메라(518)에 의해 객체(502)를 포착하기 위한 포착 도표(500)를 개략적으로 도시하는 도 5를 참조한다. 예를 들어, 카메라(518)는 카메라(118)(도 1)의 기능을 수행할 수 있다.
일부 예시적인 실시예에서, 도 5에 도시된 바와 같이, 카메라(518)는 예를 들어 수평선에 대해 θ로 표시되는 기울어짐 각도로 기울어질 수 있다.
일부 예시적인 실시예에서, 도 5에 도시된 바와 같이, 카메라(518)는 객체(502)로부터, camera_obj_distance로 표시되는 거리에 있을 수 있다.
일부 예시적인 실시예에서, 도 5에 도시된 바와 같이, 객체(502)는 사용자의 눈(506)으로부터의, horizontal_offset로 표시되는 수평 편차, 및 ver_offset로 표시되는 수직 편차로 위치될 수 있다.
일부 예시적인 실시예에서, 도 5에 도시된 바와 같이, 눈(530)은 카메라(118)의 센서에 직각인, eyes_plane로 표시되는 평면(527), 예를 들어 동공 평면에 포함될 수 있다.
일부 예시적인 실시예에서, 도 5에 도시된 바와 같이, 객체(502)는 카메라(118)의 센서에 직각인, object_plane으로 표시되는 평면(529)에 포함될 수 있다.
일부 예시적인 실시예에서, 도 5에 도시된 바와 같이, 평면(527) 및 평면(529)에 직각인 축 상에, axial_offset로 표시되는 축 방향 편차가 있을 수 있다.
일부 예시적인 실시예에서, 도 5에 도시된 바와 같이, 축 방향 편차는 평면(527)과 평면(529) 사이의 거리를 한정할 수 있다.
일부 예시적인 실시예에서, 도 5에 도시된 바와 같이, 눈(530)과 객체(502)의 중심이 평면(527) 및/또는 평면(529) 상에 투사될 때, 눈(530)과 객체(502) 사이에, projected_ver_offset로 표시되는 수직 투사 편차(vertical projected offset)가 있을 수 있다,
일부 예시적인 실시예에서, 포착된 이미지의 확대율은 카메라 센서에 직각인 평면, 예를 들어 평면(527) 및/또는 평면(529)에 걸쳐서 균일하다고 가정될 수 있다.
일부 예시적인 실시예에서, 축 방향 편차는 예를 들어 다음의 수학식 13과 같이 수직 투사 편차, 수평 편차 및 기울어짐 각도에 기초하여 결정될 수 있다:
Figure 112017123197601-pct00013
일부 예시적인 실시예에서, 수직 투사 편차는 예를 들어 포착된 이미지에서 카메라(518)와 눈(530)의 중심들 사이의 픽셀의 개수를 추정하는 것에 의해 투사된 평면, 예를 들어 평면(529) 상의 객체(502)로부터의 눈(530)의 수직 변위를 분석하는 것에 의해 결정될 수 있다.
일부 예시적인 실시예에서, 수평 편차가 주어지고 계산될 수 있으며 및/또는 예를 들어 대략 30 밀리미터(mm)로 사전 한정될 수 있다.
일부 예시적인 실시예에서, 동공 평면, 예를 들어 평면(527)에서, Meyes로 표시된 확대율은 카메라(518)로부터 동공 평면까지의 거리에 기초할 수 있다.
일부 예시적인 실시예에서, 카메라(518)로부터 동공 평면까지의 거리는 객체로부터 카메라(118)까지의 거리와, 예를 들어, 수학식 13에 따라서 결정될 수 있는 바와 같은 축 방향 편차의 합에 기초할 수 있다.
일부 예시적인 실시예에서, 카메라와 동공 평면 사이의, u로 표시된 거리는 예를 들어 다음의 수학식 14와 같이, 객체로부터 카메라(118)까지의 거리와 축 방향 편차의 합에 기초하여 정의될 수 있다:
Figure 112017123197601-pct00014
일부 예시적인 실시예에서, 거리(u)에서, Meyes(u)로 표시된 확대율은 다음의 수학식 15와 같이 결정될 수 있다:
Figure 112017123197601-pct00015
도 1을 다시 참조하면, 일부 예시적인 실시예에서, 애플리케이션(160)은 예를 들어 이미지를 포착할 때 사용자가 카메라(118)를 들여다 보는 동공 상의 위치를 식별하도록 구성될 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은 예를 들어 추후에 설명되는 바와 같이, 포착된 이미지에서 눈으로부터의 광의 반사에 기초하여 사용자가 카메라(118)를 들여다 보는 동공 상의 위치를 식별하도록 구성될 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은, 예를 들어 제1 푸르킨예상에 기초하여 사용자가 카메라(118)를 들여다 보는 동공 상의 위치를 식별하도록 구성될 수 있다.
일부 예시적인 실시예에 따라서, 사용자의 우측 눈(600)의 수평 단면을 개략적으로 도시하는 도 6을 참조한다.
일부 예시적인 실시예에서, 도 6에 도시된 바와 같이, 우측 눈(600)의 수평 단면은 시축(602)과 우측 눈(600)의 광축(604) 사이의 차이를 나타낼 수 있다.
일부 예시적인 실시예에서, 시축(602)이 동공을 가로지르는 위치(606)는, 예를 들어 눈(600)이 중심와(Fovea)(610)에서 이미지화되는, 카메라(118)의 가장 선명한 이미지를 보기 위해 회전하기 때문에 PD를 측정하도록 사용될 수 있다.
일부 예시적인 실시예에서, 중심와(610)는, 예를 들어 위에서 볼 때 광축(604)에 대해, 귀를 향해 일시적으로 약 5°에 위치될 수 있다. 그러므로, 눈이 객체를 보도록 회전되는 시선은 각막 정점(cornea apex)과 동공의 중심 사이의 선을 연결하는 광축(604)과 일치하지 않을 수 있다. 따라서, 위치(606)는 동공의 중심이 아닐 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)(도 1)은 예를 들어 포착된 이미지에서 눈(600) 상의 광원(122)의 반사에 기초하여 위치(606)를 식별하도록 구성될 수 있다.
하나의 예에서, 위치(606)는, 예를 들어, 가장 외부의 반사 각막 표면에 의해 이미지화된, 광원(122)의 반사인 제1 반사, 예를 들어, 제1 푸르킨예상을 찾는 것에 의해 식별될 수 있다. 눈은 광원(122)을 보도록 회전될 수 있으며, 반사 각막 표면은 광원(122)에 직각일 수 있다. 그러므로, 제1 반사는 시축(602)을 따를 수 있다. 따라서, 위치(606)는 포착된 이미지의 제1 반사(reelection)에 기초하여 결정될 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)(도 1)은, 예를 들어, 동공의 중심 또는 동공에서의 임의의 위치를 사용하는 대신에, 우측 눈(600)의 위치(606) 및 좌측 눈에서 제2 반사의 위치에 기초하여 결정될 수 있다.
도 1을 다시 참조하면, 일부 예시적인 실시예에서, 애플리케이션(160)은 포착된 이미지의 제1 및 제2 반사, 예를 들어 우측 눈(600)(도 6)의 위치(606)(도 6) 및 좌측 눈에서 제2 반사의 위치 사이에서, heyes'_pixels_estimated로 표시된 픽셀의 개수를 결정하도록 구성될 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은, 예를 들어 눈이 카메라(118)를 바라볼 때, 모음 눈(converging eyes)을 위하여, PDconvergence로 표시된 PD를 계산하도록 구성될 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은 다음의 수학식 16과 같이 예를 들어 센서 피치 및 동공 평면에서의 확대율 및 픽셀의 개수에 기초하여 모음 눈을 위한 PD를 계산할 수 있다:
Figure 112017123197601-pct00016
일부 예시적인 실시예에서, 애플리케이션(160)은, 예를 들어, 눈이 무한을 향하여 볼 때("무한 눈(infinity eyes)"), PD를 계산하도록 구성될 수 있다.
일부 예시적인 실시예에서, 애플리케이션(160)은, 예를 들어 추후에 설명되는 바와 같이, 모음 눈을 위한 동공간 거리와 무한 눈을 위한 동공간 거리 사이의 보정을 계산하도록 구성될 수 있다.
일부 예시적인 실시예에서, 카메라(718)를 바라보는 사용자의 두 눈(720) 사이의 PD를 개략적으로 도시한 도 7을 참조한다.
일부 예시적인 실시예에서, 도 7에 도시된 바와 같이, 카메라(718)는 눈(720)으로부터, camera_eye_distance로 표시되는 거리에 위치될 수 있다.
일부 예시적인 실시예에서, 도 7에 도시된 바와 같이, 각각의 눈(720)은 카메라(718)를 보도록 예를 들어 코를 향하여 각도(φ)로 회전된다.
일부 예시적인 실시예에서, 도 7에 도시된 바와 같이, 동공을 교차하는 시축(708)의 위치(706)는 예를 들어, 눈(720)이 무한을 바라볼 때 위치(709), 예를 들어 귀를 향해, τ로 표시된 원근조절 거리(accommodation distance)에서 횡방향으로 변위될 수 있다.
일부 예시적인 실시예에서, 원근조절 거리(τ)는, 예를 들어 무한을 바라보도록 위치(709)까지 각도(φ)에서, R로 표시된 반경으로 회전하는 눈(730)의 결과일 수 있다.
일부 예시적인 실시예에서, 눈(720)의 회전 중심이 동일한 것으로 가정하면, 눈의 반경(R)은 사전 한정된 값, 예를 들어 약 13.5mm와 동일할 수 있다.
일부 예시적인 실시예에서, 예를 들어, 위치(709)들은 예를 들어 거리 안경(distance spectacles)을 위하여 동공간 거리를 결정할 때 고려될 수 있다.
일부 예시적인 실시예에서, 도 7에 도시된 바와 같이, PD(φ)로 표시되는 모음 눈을 위한 동공간 거리는 예를 들어, 카메라(718)가 무한 거리, 예를 들어 거리(camera_eye_distance)가 아닌 e에 위치되면 눈(720)이 카메라(718)의 플래시를 향하여 보도록 모여질 때 정의될 수 있다.
일부 예시적인 실시예에서, 각도(φ)는 다음의 수학식 17과 같이 표현될 수 있다:
Figure 112017123197601-pct00017
일부 예시적인 실시예에서, 예를 들어 눈(720)이 무한을 바라볼 때, PDinfinity로 표시된 무한 눈을 위한 동공간 거리는, 다음의 수학식 18과 같이, 예를 들어 모은 눈을 위한 동공간 거리(PDconvergence)와 두 눈(720)을 위한 원근조절 거리(τ)의 합에 기초하여 결정될 수 있다:
Figure 112017123197601-pct00018
일부 예시적인 실시예에서, 동공간 거리(PDinfinity)는 예를 들어 다음의 수학식 19와 같이 수학식 17 및 수학식 18을 조합하는 것에 의해 결정될 수 있다:
Figure 112017123197601-pct00019
일부 예시적인 실시예에서, 음의 피드백(negative feedback)은 축적된 오차를 감소시킬 수 있다. 예를 들어, 계산된 수평 편차(horizontal_off)가 예를 들어 눈과 객체 사이의 실제의 수평 편차보다 길 때, 거리(camera_eye_distance)는 예를 들어 눈 평면에서 더욱 높은 PD의 결과에 의해 더욱 길 수 있다. 그러나, 더욱 긴 거리로부터의 전환을 위한 원근조절, 예를 들어 거리(τ)는 예를 들어 각도(Φ)를 감소시킬 수 있으며, 이러한 것은 동공간 거리에 대해 더욱 낮은 추가를 유발할 수 있으며, 이는 누적된 오차를 감소시킬 수 있다.
일부 예시적인 실시예에 따라서 몬테카를로 시뮬레이션의 막대그래프를 개략적으로 도시하는 도 8a 내지 도 8f를 참조한다.
일부 예시적인 실시예에서, 시뮬레이션은 예를 들어, 300mm 내지 900mm의 객체까지의 카메라 사이의 거리, 예를 들어 -5mm 내지 15mm의 객체 거리 추정에 대한 카메라에서의 오차, 및 예를 들어 -15mm 내지 5mm의 동공과 객체 사이의 수평 편차 오차에서 변화를 고려했다.
일부 예시적인 실시예에서, 도 8a는 예를 들어 카메라가 다수의 거리에 배치될 때, 공지된 크기의 객체 추정에 대해 카메라 오차로부터 생성된 누적 오차를 평가하는 몬테카를로 시뮬레이션의 막대그래프를 도시한다.
일부 예시적인 실시예에서, 도 8b는 공지된 크기의 객체 추정에 대해 카메라에 대한 오차로부터 생성된 누적 오차를 평가하는 몬테카를로 시뮬레이션의 막대그래프를 도시한다.
일부 예시적인 실시예에서, 도 8c는 동공과 객체 사이의 수평 편차의 오차를 평가하는 몬테카를로 시뮬레이션의 막대그래프를 도시한다.
일부 예시적인 실시예에서, 도 8d는 공칭 PD의 변형을 도시하기 위한 몬테카를로 시뮬레이션의 막대그래프를 도시한다.
일부 예시적인 실시예에서, 도 8e는 막대그래프로서 제공된 수평축의 누적 오차의 결과를 도시한다.
일부 예시적인 실시예에서, 도 8e의 수평축은 누적 오차를 정의하고, 수직축은 예를 들어, 시뮬레이션의 개수가 N = 1000일 때 그 오차의 양으로 유발된 시도의 양을 정의한다.
일부 예시적인 실시예에서, 도 8f는 측정된 PD에서의 총 오차가 경우들의 적어도 95%에 대해 범위 [-1, +1] mm 내에 있다는 것을 보여주는 막대그래프를 도시한다.
일부 예시적인 실시예에 따라서, 사용자의 PD를 결정하는 방법을 개략적으로 도시하는 도 9를 참조한다. 예를 들어, 도 9의 방법 중 하나 또는 동작들은 모바일 디바이스, 디바이스(102)(도 1), 서버, 예를 들어 서버(170)(도 1) 및/또는 애플리케이션(160)(도 1)에 의해 수행될 수 있다.
블록 902에서 나타낸 바와 같이, 방법은 카메라의 플래시를 바라보는 사용자의 눈의 이미지를 포착하는 단계와, 카메라의 방위, 카메라의 센서 피치, 및 카메라의 렌즈의 EFL에 관한 정보를 수신하는 단계를 포함할 수 있다. 예를 들어, 애플리케이션(160)(도 1)은 카메라(118)(도 1)로부터 제1 및 제2 반사를 포함하는 포착된 이미지를 수신할 수 있으며, 예를 들어 상기된 바와 같이 카메라(118)(도 1)의 방위 정보, 센서 피치 및 EFL을 수신할 수 있다.
블록 904에 나타낸 바와 같이, 방법은 카메라로부터 사용자의 얼굴 상의 객체까지의 거리를 추정하는 단계를 포함할 수 있다. 예를 들어, 애플리케이션(160)(도 1)은 예를 들어 3D 센서(124)(도 1)로부터의 정보, 가속도계(128)(도 1)로부터의 가속도 정보를 사용하여 및/또는 예를 들어 상기된 바와 같이 객체의 치수에 기초하여 카메라(118)와 기준 객체 사이의 거리를 추정할 수 있다.
블록 906에 나타낸 바와 같이, 방법은 예를 들어 카메라 방위에 기초하여, 객체를 포함하는 객체 평면과 사용자의 동공을 포함하는 동공 평면 사이의 축 방향 편차를 계산하는 단계를 포함할 수 있다. 예를 들어, 애플리케이션(160)(도 1)은, 예를 들어 상기된 바와 같이, 예를 들어 방위 추정기(128)(도 1)로부터의 방위 정보에 기초하여 객체 평면과 동공 평면 사이의 축 방향 편차를 결정할 수 있다.
블록 908에 나타낸 바와 같이, 방법은 예를 들어 축 방향 거리, 및 EFL 및 센서 피치를 사용하여 카메라로부터 객체까지 측정된 거리에 기초하여 동공 평면에서의 확대율을 결정하는 단계를 포함할 수 있다. 예를 들어, 애플리케이션(160)(도 1)은, 예를 들어 상기된 바와 같이 축 방향 편차와 카메라(118)(도 1)로부터 객체까지의 거리에 기초하여 동공 평면에서의 확대율을 결정할 수 있다.
블록 910에 나타낸 바와 같이, 방법은 사용자의 눈에서의 플래시의 제1 및 제2 반사를 식별하는 단계, 및 제1 반사와 제2 반사 사이의 거리를 예를 들어 픽셀 단위로 측정하는 단계를 포함할 수 있다. 예를 들어, 애플리케이션(160)(도 1)은 예를 들어 상기된 바와 같이 제1 반사와 제2 반사 사이의 거리를 예를 들어 픽셀 단위로 추정할 수 있다.
블록 912에 나타낸 바와 같이, 방법은 예를 들어 동공 평면에서의 확대율에 따라서 픽셀 단위의 거리를 거리 단위로 전환하는 단계를 포함할 수 있다. 예를 들어, 애플리케이션(160)(도 1)은 예를 들어 상기된 바와 같이 제1 반사와 제2 반사 사이의 거리를 추정할 수 있다.
블록 914에 나타낸 바와 같이, 방법은, 예를 들어, 제1 및 제2 반사가 무한을 바라보는 눈에 대해 이미지화된 곳을 계산하는 것에 의해 눈 모음을 위해 측정된 거리를 원근조절하는 단계, 상기 원근조절에 기초하여 원거리 안경을 위한 내부 동공간 거리를 설정하는 단계를 포함할 수 있다. 예를 들어, 애플리케이션(160)(도 1)은 예를 들어 상기된 바와 같이 거리(τ)에 기초하여 동공간 거리(PDinfinity)를 결정할 수 있다.
일부 예시적인 실시예에서, 방법은 선택적으로, 제1 및 제2 반사가 예를 들어 45 센티미터의 사전 한정된 근거리까지의 눈의 회전을 위해 이미지화된 곳을 계산하는 단계, 및 근거리 시력을 위한 근거리 동공간 거리를 설정하는 단계를 선택적으로 포함할 수 있다.
일부 예시적인 실시예에서, 사용자의 PD를 결정하는 방법은 예를 들어 도 9의 동작들 중 단지 일부만을 포함할 수 있는 한편, 예를 들어, 도 9의 방법의 동작 중 하나 이상의 다른 동작을 포함하지 않을 수 있다.
일부 예시적인 실시예에서, PD를 결정하는 방법은, 예를 들어 카메라와 동공들 사이의 거리를 공지되거나 또는 결정되면, 예를 들어, 블록 906 및/또는 908에 대해 상기된 동작들 중 하나 이상, 예를 들어 모두를 수행하지 않고 수행될 수 있다.
일부 예시적인 실시예에서, 카메라와 동공들 사이의 거리는 예를 들어 사용자 얼굴의 안면 특징의 크기에 기초하여 결정될 수 있다.
하나의 예에서, PD를 결정하는 방법은 안면 특징의 크기, 예를 들어, 홍채 지름을 교정 및/또는 측정하는 단계; 상기 카메라의 플래시를 사용하여 얼굴의 이미지를 포착하는 단계; 및 예를 들어 안면 특징에 기초하여 카메라로부터 동공까지의 거리를 결정하는 단계를 포함한다.
일부 예시적인 실시예에서, 안면 특징을 교정 및/또는 측정하는 단계는, 예를 들어 안면 객체 및 기준 객체, 예를 들어 사용자의 얼굴에 배치될 수 있는 신용 카드를 포함하는 이미지를 포착하는 것에 의한 것일 수 있다.
예를 들어, 사용자는 다른 눈의 홍채 지름의 교정을 가능하게 하도록, 기준 객체, 예를 들어 신용 카드로 사용자의 한쪽 눈을 덮을 수 있다.
일부 예시적인 실시예에 따라서, 사용자의 PD를 결정하는 방법을 개략적으로 도시하는 도 10을 참조한다. 예를 들어, 도 10의 방법의 하나 또는 동작들은 모바일 디바이스, 디바이스(102)(도 1), 서버, 예를 들어 서버(170)(도 1) 및/또는 애플리케이션, 애플리케이션(도 1)에 의해 수행될 수 있다.
블록 1002에 나타낸 바와 같이, 방법은 광원의 광의 제1 및 제2 반사를 포함하는 포착된 이미지를 수신하는 단계를 포함할 수 있으며, 제1 반사는 사용자의 제1 동공으로부터의 광의 반사를 포함한다. 예를 들어, 애플리케이션(160)(도 1)은 예를 들어 상기된 바와 같이 제1 및 제2 반사를 포함하는 포착된 이미지를 수신할 수 있다.
블록 1004에 나타낸 바와 같이, 방법은 이미지가 포착될 때, 포착된 이미지에서의 제1 및 제2 반사의 위치, 및 이미지를 포착하도록 사용된 카메라와 사용자의 동공들 사이의 추정된 거리에 기초하여 동공간 거리를 결정하는 단계를 포함할 수 있다. 예를 들어, 애플리케이션(160)(도 1)은, 예를 들어, 상기된 바와 같이 이미지가 포착될 때, 포착된 이미지 내의 제1 및 제2 반사의 위치, 및 디바이스(102)(도 1)와 사용자의 동공들 사이의 추정된 거리에 기초하여 사용자의 동공간 거리를 결정할 수 있다.
일부 예시적인 실시예에 따라서 제조물(1000)의 제품을 개략적으로 도시하는 도 11을 참조한다. 제품(1100)은, 적어도 하나의 컴퓨터 프로세서에 의해 실행될 때, 적어도 하나의 컴퓨터 프로세서가 디바이스(102)(도 1), 서버(170)(도 1), 및/또는 애플리케이션(160)(도 1)에서 하나 이상의 동작을 구현하고, 및/또는 도 1 내지 도 10에 따른 하나 이상의 동작, 통신 및/또는 기능성, 및/또는 본 명세서에서 설명된 하나 이상의 동작을 구현하는 것을 가능하게 하도록 동작 가능한 예를 들어 로직(1104)에 의해 구현되는 컴퓨터 실행 가능 명령어를 포함할 수 있는 하나 이상의 유형의 컴퓨터 판독 가능 비일시적 저장 매체(1102)를 포함할 수 있다. 구문 "비일시적 기계 판독 가능 매체"는 모든 컴퓨터 판독 가능 매체를 포함하도록 지시되며, 유일한 예외는 일시적 전파 신호이다.
일부 예시적인 실시예에서, 제품(1100) 및/또는 기계 판독 가능 저장 매체(1102)는 휘발성 메모리, 비휘발성 메모리, 착탈식 또는 비착탈식 메모리, 소거 가능 또는 비소거 가능 메모리, 기록 가능 또는 재기록 가능 메모리 등을 포함하는, 데이터를 저장할 수 있는 하나 이상의 형태의 컴퓨터 판독 가능 저장 매체를 포함할 수 있다. 예를 들어, 기계 판독 가능 저장 매체(1102)는 RAM, DRAM, 더블데이터레이트 DRAM(DDR-DRAM), SDRAM, 정적 RAM(SRAM), ROM, 프로그램 가능 ROM(PROM), 소거 및 프로그램 가능 ROM(EPROM), 전기적 소거 및 프로그램 가능 ROM(EEPROM), 콤팩트 디스크 ROM(CD-ROM), 콤팩드 디스크 기록 가능(CD-R), 콤팩트 디스크 재기록 가능(CD-RW), 플래시 메모리(예를 들어, NOR 또는 NAND 플래시 메모리), 내용 주소화 메모리(CAM), 폴리머 메모리, 상 변화 메모리, 강유전체 메모리, SONOS(silicon-oxide-nitride-oxide-silicon) 메모리, 디스크, 플로피 디스크, 하드 드라이브, 광학 디스크, 자기 디스크, 카드, 자기 카드, 광 카드, 테이프, 카세트 등을 포함할 수 있다. 컴퓨터 판독 가능 저장 매체는 통신 링크, 예를 들어 모뎀, 라디오 또는 네트워크 연결을 통해 반송파 또는 다른 전파 매체에 내장된 데이터 신호들에 의해 운반되는 원격 컴퓨터로부터 요청 컴퓨터로 컴퓨터 프로그램을 다운로드하거나 전송하는 것과 관련된 임의의 적절한 매체를 포함할 수 있다.
일부 예시적인 실시예에서, 로직(1104)은 기계에 의해 실행되면 기계가 본 명세서에 설명된 방법, 공정 및/또는 동작을 수행하도록 할 수 있는 명령, 데이터 및/또는 코드를 포함할 수 있다. 기계는 예를 들어 임의의 적절한 처리 플랫폼, 컴퓨팅 플랫폼, 컴퓨팅 디바이스, 처리 디바이스, 컴퓨팅 시스템, 처리 시스템, 컴퓨터, 프로세서 등을 포함할 수 있으며, 하드웨어, 소프트웨어, 펌웨어의 임의의 적절한 조합을 이용하여 구현될 수 있다.
일부 예시적인 실시예에서, 로직(1104)은 소프트웨어, 소프트웨어 모듈, 애플리케이션, 프로그램, 서브루틴, 명령, 명령 세트, 컴퓨팅 코드, 단어, 값, 심볼, 및 그 조합을 포함할 수 있거나 또는 이러한 것들로서 실행될 수 있다. 명령은 소스 코드, 컴파일된 코드, 해석된 코드, 실행 가능한 코드, 정적 코드, 동적 코드 등과 같은 임의의 적절한 형태의 코드를 포함할 수 있다. 명령은 특정 기능을 수행하도록 프로세서에 지시하기 위해 사전 정의된 컴퓨터 언어, 방식 또는 체계(syntax)에 따라서 구현될 수 있다. 명령어는 C, C ++, Java, BASIC, Matlab, Pascal, Visual BASIC, 어셈블리 언어, 기계 코드 등과 같은 임의의 적절한 고-레벨, 저-레벨, 객체 지향, 시각적, 컴파일된 및/또는 해석된 프로그래밍 언어를 사용하여 구현될 수 있다.
다음의 예들은 추가의 실시예에 관한 것이다.
예 1은 적어도 하나의 컴퓨터 프로세서에 의해 실행될 때, 상기 적어도 하나의 컴퓨터 프로세서가 사용자의 동공들 사이의 동공간 거리를 측정하는 동작을 실행 가능하게 하도록 동작 가능한 컴퓨터 실행 가능 명령을 포함하는 하나 이상의 유형의 컴퓨터-판독 가능 비일시적 저장 매체를 포함하는 제품을 포함하며, 상기 동작들은, 광원의 광의 제1 및 제2 반사들을 포함하는 포착된 이미지를 수신하는 동작으로서, 상기 제1 반사는 사용자의 제1 동공으로부터의 광의 반사를 포함하며, 상기 제2 반사는 사용자의 제2 동공으로부터의 광의 반사를 포함하는, 상기 포착된 이미지를 수신하는 동작; 및 상기 포착된 이미지에서의 상기 제1 및 제2 반사들의 위치들과, 상기 이미지가 포착될 때 이미지 포착 디바이스와 상기 사용자의 동공들 사이의 추정된 거리에 기초하여 상기 동공간 거리를 결정하는 동작을 포함한다.
예 2는 예 1의 요지를 포함하며, 선택적으로, 상기 포착된 이미지는 사용자의 얼굴 상의 객체를 포함하고, 상기 추정된 거리는 상기 객체의 하나 이상의 치수에 기초한다.
예 3은 예 2의 요지를 포함하며, 선택적으로, 상기 동작들은 상기 객체를 포함하는 평면에 직각인 축을 따라서 상기 객체와 상기 동공들 사이의 축 방향 편차를 결정하는 동작, 및 상기 축 방향 편차에 기초하여 상기 동공간 거리를 결정하는 동작을 포함한다.
예 4는 예 2 또는 예 3의 요지를 포함하며, 선택적으로, 상기 추정된 거리는 얼굴의 특징의 3차원(3D) 데카르트 좌표에 기초한다.
예 5는 예 1 내지 예 4 중 어느 하나의 요지를 포함하며, 선택적으로, 상기 추정된 거리는 상기 이미지 포착 디바이스의 가속도를 나타내는 가속도 정보에 기초한다.
예 6은 예 1 내지 예 5 중 어느 하나의 요지를 포함하며, 선택적으로, 상기 동작들은 상기 제1 및 제2 반사 사이의 픽셀의 개수, 및 상기 픽셀들의 픽셀 대 밀리미터(mm) 비율에 기초하여 상기 동공간 거리를 결정하는 동작을 포함한다.
예 7은 예 1 내지 예 6 중 어느 하나의 요지를 포함하며, 선택적으로, 상기 동작들은 상기 이미지가 포착될 때 상기 이미지 포착 디바이스의 방위를 나타내는 방위 정보를 수신하는 동작, 및 상기 방위 정보에 기초하여 상기 동공간 거리를 결정하는 동작을 포함한다.
예 8은 예 7의 요지를 포함하며, 선택적으로, 상기 방위 정보는 상기 이미지 포착 디바이스의 기울어짐 각도를 나타낸다.
예 9는 예 1 내지 예 8 중 어느 하나의 요지를 포함하며, 선택적으로, 상기 동작들은 상기 이미지 포착 디바이스의 하나 이상의 속성에 기초하여 상기 동공간 거리를 결정하는 동작을 포함한다.
예 10은 예 9의 요지를 포함하며, 선택적으로, 상기 하나 이상의 속성은 상기 이미지 포착 디바이스의 렌즈의 유효 초점 거리(Effective Focal Length, EFL), 상기 이미지 포착 디바이스의 센서의 수평 시야, 상기 센서의 수직 시야, 상기 센서의 해상도, 및 상기 센서의 2개의 인접한 픽셀 사이의 거리로 이루어진 그룹으로부터 선택된 적어도 하나의 속성을 포함한다.
예 11은 예 1 내지 예 10 중 어느 하나의 요지를 포함하며, 선택적으로, 상기 동작들은 눈 반경 파라미터, 및 상기 이미지 포착 디바이스와 상기 동공을 포함하는 평면 사이의 거리에 기초하여 상기 동공간 거리를 결정하는 동작을 포함한다.
예 12는 예 1 내지 예 11 중 어느 하나의 요지를 포함하며, 선택적으로, 상기 동공간 거리는 근거리 동공간 거리 또는 원거리 동공간 거리를 포함한다.
예 13은 사용자의 동공들 사이의 동공간 거리를 측정하도록 구성된 모바일 디바이스를 포함하며, 상기 모바일 디바이스는 광원의 광의 제1 및 제2 반사를 포함하는 이미지를 포착하기 위한 카메라로서, 상기 제1 반사는 사용자의 제1 동공으로부터의 광의 반사를 포함하고, 상기 제2 반사는 사용자의 제2 동공으로부터의 광의 반사를 포함하는, 상기 카메라; 및 상기 포착된 이미지를 수신하고, 상기 포착된 이미지에서의 상기 제1 및 제2 반사의 위치, 및 상기 이미지가 포착될 때, 상기 모바일 디바이스와 상기 동공들 사이의 추정된 거리에 기초하여 상기 동공간 거리를 결정하는 동공간 거리 계산기를 포함한다.
예 14는 예 13의 요지를 포함하며, 선택적으로, 상기 포착된 이미지는 사용자의 얼굴 상의 객체를 포함하고, 상기 추정된 거리는 상기 객체의 하나 이상의 치수에 기초한다.
예 15는 예 14의 요지를 포함하며, 선택적으로, 상기 모바일 디바이스는 상기 객체를 포함하는 평면에 직각인 축을 따라서 상기 객체와 상기 동공들 사이의 축 방향 편차를 결정하고, 상기 축 방향 편차에 기초하여 상기 동공간 거리를 결정하도록 구성된다.
예 16은 예 14 또는 15의 요지를 포함하며, 선택적으로, 상기 추정된 거리는 얼굴의 특징의 3차원(3D) 데카르트 좌표에 기초한다.
예 17은 예 13 내지 예 16 중 어느 하나의 요지를 포함하며, 선택적으로, 상기 추정된 거리는 상기 이미지 포착 디바이스의 가속도를 나타내는 가속도 정보에 기초한다.
예 18은 예 13 내지 17 중 임의의 하나의 대상을 포함하며, 선택적으로, 상기 모바일 디바이스는 상기 제1 및 제2 반사 사이의 픽셀의 개수와 상기 픽셀들의 픽셀 대 밀리미터(mm) 비율에 기초하여 상기 동공간 거리를 결정하도록 구성된다.
예 19는 예 13 내지 예 18 중 어느 하나의 요지를 포함하며, 선택적으로, 상기 모바일 디바이스는 상기 이미지가 포착될 때 상기 이미지 포착 디바이스의 방위를 나타내는 방위 정보를 수신하고, 상기 방위 정보에 기초하여 상기 동공간 거리를 결정하도록 구성된다.
예 20은 예 19의 요지를 포함하며, 선택적으로, 상기 방위 정보는 상기 이미지 포착 디바이스의 기울어짐 각도를 나타낸다.
예 21은 예 13 내지 예 20 중 어느 하나의 요지를 포함하며, 선택적으로, 상기 모바일 디바이스는 상기 이미지 포착 디바이스의 하나 이상의 속성에 기초하여 상기 동공간 거리를 결정하도록 구성된다.
예 22는 예 21의 요지를 포함하며, 선택적으로, 상기 하나 이상의 속성은 상기 이미지 포착 디바이스의 렌즈의 유효 초점 거리(Effective Focal Length, EFL), 상기 이미지 포착 디바이스의 센서의 수평 시야, 상기 센서의 수직 시야, 상기 센서의 해상도, 및 상기 센서의 2개의 인접한 픽셀 사이의 거리로 이루어진 그룹으로부터 선택된 적어도 하나의 속성을 포함한다.
예 23은 예 13 내지 예 22 중 어느 하나의 요지를 포함하며, 선택적으로, 상기 동작들은 눈 반경 파라미터, 및 상기 이미지 포착 디바이스와 상기 동공을 포함하는 평면 사이의 거리에 기초하여 상기 동공간 거리를 결정하는 동작을 포함한다.
예 24는 예 13 내지 23 중 어느 하나의 요지를 포함하며, 선택적으로, 상기 동공간 거리는 근거리 동공간 거리 또는 원거리 동공간 거리를 포함한다.
예 25는 사용자의 동공들 사이의 동공간 거리를 측정하는 방법을 포함하며, 방법은 광원의 광의 제1 및 제2 반사를 포함하는 포착된 이미지를 수신하는 단계로서, 상기 제1 반사는 사용자의 제1 동공으로부터의 광의 반사를 포함하고 상기 제2 반사는 사용자의 제2 동공으로부터의 광의 반사를 포함하는, 상기 포착된 이미지를 수신하는 단계; 및 상기 포착된 이미지에서의 상기 제1 및 제2 반사들의 위치들과, 상기 이미지가 포착될 때 이미지 포착 디바이스와 상기 사용자의 동공들 사이의 추정된 거리에 기초하여 상기 동공간 거리를 결정하는 단계를 포함한다.
예 26은 예 25의 요지를 포함하며, 선택적으로, 상기 포착된 이미지는 사용자의 얼굴 상의 객체를 포함하고, 상기 추정된 거리는 상기 객체의 하나 이상의 치수에 기초한다.
예 27은 예 26의 요지를 포함하며, 선택적으로, 상기 객체를 포함하는 평면에 직각인 축을 따라서 상기 객체와 상기 동공들 사이의 축 방향 편차를 결정하는 단계, 및 상기 축 방향 편차에 기초하여 상기 동공간 거리를 결정하는 단계를 포함한다.
예 28은 예 26 또는 예 27의 요지를 포함하며, 선택적으로, 상기 추정된 거리는 얼굴의 특징의 3차원(3D) 데카르트 좌표에 기초한다.
예 29는 예 25 내지 예 28 중 어느 하나의 요지를 포함하며, 선택적으로, 상기 추정된 거리는 상기 이미지 포착 디바이스의 가속도를 나타내는 가속도 정보에 기초한다.
예 30은 예 25 내지 예 29 중 어느 하나의 요지를 포함하며, 선택적으로, 상기 제1 및 제2 반사 사이의 픽셀의 개수, 및 상기 픽셀들의 픽셀 대 밀리미터(mm) 비율에 기초하여 상기 동공간 거리를 결정하는 단계를 포함한다.
예 31은 예 25 내지 예 30 중 어느 하나의 요지를 포함하며, 선택적으로, 상기 이미지가 포착될 때 상기 이미지 포착 디바이스의 방위를 나타내는 방위 정보를 수신하는 단계와, 상기 방위 정보에 기초하여 상기 동공간 거리를 결정하는 단계를 포함한다.
예 32는 예 31의 요지를 포함하며, 선택적으로, 상기 방위 정보는 상기 이미지 포착 디바이스의 기울어짐 각도를 나타낸다.
예 33은 예 25 내지 예 32 중 어느 하나의 요지를 포함하며, 선택적으로, 상기 이미지 포착 디바이스의 하나 이상의 속성에 기초하여 상기 동공간 거리를 결정하는 단계를 포함한다.
예 34는 예 33의 요지를 포함하며, 선택적으로, 상기 하나 이상의 속성은 상기 이미지 포착 디바이스의 렌즈의 유효 초점 거리(Effective Focal Length, EFL), 상기 이미지 포착 디바이스의 센서의 수평 시야, 상기 센서의 수직 시야, 상기 센서의 해상도, 및 상기 센서의 2개의 인접한 픽셀 사이의 거리로 이루어진 그룹으로부터 선택된 적어도 하나의 속성을 포함한다.
예 35는 예 25 내지 예 34 중 어느 하나의 요지를 포함하며, 선택적으로, 눈 반경 파라미터, 및 상기 이미지 포착 디바이스와 상기 동공을 포함하는 평면 사이의 거리에 기초하여 상기 동공간 거리를 결정하는 단계를 포함한다.
예 36은 예 25 내지 예 35 중 어느 하나의 요지를 포함하며, 선택적으로, 상기 동공간 거리는 근거리 동공간 거리 또는 원거리 동공간 거리를 포함한다.
예 37은 사용자의 동공들 사이의 동공간 거리를 측정하는 장치를 포함하며, 상기 장치는 광원의 광의 제1 및 제2 반사를 포함하는 포착된 이미지를 수신하는 수단으로서, 상기 제1 반사는 사용자의 제1 동공으로부터의 광의 반사를 포함하고 상기 제2 반사는 사용자의 제2 동공으로부터의 광의 반사를 포함하는, 상기 수단; 및 상기 포착된 이미지에서의 상기 제1 및 제2 반사들의 위치들, 및 상기 이미지가 포착될 때 이미지 포착 디바이스와 상기 사용자의 동공들 사이의 추정된 거리에 기초하여 상기 동공간 거리를 결정하는 수단을 포함한다.
예 38은 예 37의 요지를 포함하며, 선택적으로, 상기 포착된 이미지는 사용자의 얼굴 상의 객체를 포함하고, 상기 추정된 거리는 상기 객체의 하나 이상의 치수에 기초한다.
예 39는 예 38의 요지를 포함하며, 선택적으로, 상기 객체를 포함하는 평면에 직각인 축을 따라서 상기 객체와 상기 동공들 사이의 축 방향 편차를 결정하고, 상기 축 방향 편차에 기초하여 상기 동공간 거리를 결정하는 수단을 포함한다.
예 40은 예 38 또는 예 39의 요지를 포함하며, 선택적으로, 상기 추정된 거리는 얼굴의 특징의 3차원(3D) 데카르트 좌표에 기초한다.
예 41은 예 37 내지 예 40 중 어느 하나의 요지를 포함하며, 선택적으로, 상기 추정된 거리는 상기 이미지 포착 디바이스의 가속도를 나타내는 가속도 정보에 기초한다.
예 42는 예 37 내지 예 41 중 어느 하나의 요지를 포함하며, 선택적으로, 상기 제1 및 제2 반사 사이의 픽셀의 개수, 및 상기 픽셀들의 픽셀 대 밀리미터(mm) 비율에 기초하여 상기 동공간 거리를 결정하는 수단을 포함한다.
예 43은 예 37 내지 예 42 중 어느 하나의 요지를 포함하며, 선택적으로, 상기 이미지가 포착될 때 상기 이미지 포착 디바이스의 방위를 나타내는 방위 정보를 수신하고, 상기 방위 정보에 기초하여 상기 동공간 거리를 결정하는 수단을 포함한다.
예 44는 예 43의 요지를 포함하며, 선택적으로, 상기 방위 정보는 상기 이미지 포착 디바이스의 기울어짐 각도를 나타낸다.
예 45는 예 37 내지 예 44 중 어느 하나의 요지를 포함하고, 선택적으로, 상기 이미지 포착 디바이스의 하나 이상의 속성에 기초하여 상기 동공간 거리를 결정하는 수단을 포함한다.
예 46은 예 45의 요지를 포함하며, 선택적으로, 상기 하나 이상의 속성은 상기 이미지 포착 디바이스의 렌즈의 유효 초점 거리(Effective Focal Length, EFL), 상기 이미지 포착 디바이스의 센서의 수평 시야, 상기 센서의 수직 시야, 상기 센서의 해상도, 및 상기 센서의 2개의 인접한 픽셀 사이의 거리로 이루어진 그룹으로부터 선택된 적어도 하나의 속성을 포함한다.
예 47은 예 37 내지 예 46 중 어느 하나의 요지를 포함하며, 선택적으로, 눈 반경 파라미터, 및 상기 이미지 포착 디바이스와 상기 동공을 포함하는 평면 사이의 거리에 기초하여 상기 동공간 거리를 결정하기 위한 수단을 포함한다.
예 48은 예 37 내지 예 47 중 어느 하나의 요지를 포함하며, 선택적으로, 상기 동공간 거리는 근거리 동공간 거리 또는 원거리 동공간 거리를 포함한다.
하나 이상의 실시예를 참조하여 본 명세서에 설명된 기능, 동작, 구성 요소 및/또는 특징은 하나 이상의 다른 실시예를 참조하여 본 명세서에 설명된 하나 이상의 다른 기능, 동작, 구성 요소 및/또는 특징과 결합되거나, 또는 함께 이용될 수 있거나, 또는 그 반대일 수 있다.
본 명세서에서 특정 특징들이 도시되고 설명되었지만, 많은 수정, 대체, 변경 및 등가물이 당업자에게 발생할 수 있다. 그러므로, 첨부된 청구항들은 본 발명의 진정한 사상 내에 있는 이러한 모든 수정 및 변경을 포함하도록 의도된 것으로 이해되어야 한다.

Claims (25)

  1. 적어도 하나의 컴퓨터 프로세서에 의해 실행될 때, 상기 적어도 하나의 컴퓨터 프로세서가 사용자의 동공들 사이의 동공간 거리를 측정하는 동작을 실행 가능하게 하도록 동작 가능한 컴퓨터 실행 가능 명령을 포함하는 프로그램을 기록하기 위한 유형의 컴퓨터-판독 가능 비일시적 저장 매체로서,
    실행될 때 상기 명령은,
    사용자 디바이스의 센서에 의해 포착되는 이미지 정보를 처리하는 단계;
    이미지 정보에 기초하여 사용자 디바이스의 광원의 광의 제1 및 제2 반사의 위치를 식별하는 단계 ― 제1 반사는 상기 사용자의 제1 눈의 동공으로부터의 상기 광의 반사를 포함하며, 제2 반사는 상기 사용자의 제2 눈의 동공으로부터의 상기 광의 반사를 포함하며, 제1 및 제2 반사의 위치를 식별하는 단계는 제1 눈의 외부 반사 각막 표면에 의해 광원의 광의 반사의 제1 푸르킨예상(Purkinje image)을 식별함으로써 제1 반사의 위치를 식별하는 단계 및 제2 눈의 외부 반사 각막 표면에 의해 광원의 광의 반사의 제1 푸르킨예상을 식별함으로써 제2 반사의 위치를 식별하는 단계를 포함함 ―;
    제1 추정된 거리를 결정하는 단계 ― 상기 제1 추정된 거리는 이미지 정보가 센서에 의해 포착될 때 센서와 사용자의 동공 사이임 ―;
    제1 눈의 외부 반사 각막 표면에 의한 광원의 광의 반사의 제1 푸르킨예상과 제2 눈의 외부 반사 각막 표면에 의한 광원의 광의 반사의 제1 푸르킨예상 사이의 거리에 기초하여 제1 및 제2 반사의 위치 사이의 제2 추정된 거리를 결정하는 단계; 및
    제1 추정된 거리 및 제2 추정된 거리에 기초하여 동공간 거리를 결정하는 단계;를 초래하는,
    유형의 컴퓨터-판독 가능 비일시적 저장 매체.
  2. 제1항에 있어서,
    상기 이미지 정보는 상기 사용자의 얼굴 상의 객체 또는 특징의 정보를 포함하며, 실행될 때 명령은 상기 객체 또는 특징의 하나 이상의 치수에 기초한 상기 제1 추정된 거리를 결정하는 단계를 초래하는,
    유형의 컴퓨터-판독 가능 비일시적 저장 매체.
  3. 제2항에 있어서,
    실행될 때 명령은 상기 객체 또는 특징을 포함하는 평면에 직각인 축을 따라서 상기 객체 또는 특징과 상기 동공 사이의 축 방향 편차를 결정하는 단계 및 상기 축 방향 편차에 기초하여 상기 동공간 거리를 결정하는 단계를 초래하는,
    유형의 컴퓨터-판독 가능 비일시적 저장 매체.
  4. 제1항에 있어서,
    실행될 때 상기 명령은 얼굴의 특징의 3차원(3D) 데카르트 좌표에 기초하여 상기 제1 추정된 거리를 결정하는 단계를 초래하는,
    유형의 컴퓨터-판독 가능 비일시적 저장 매체.
  5. 제1항에 있어서,
    실행될 때 상기 명령은 상기 사용자의 가속도를 나타내는 가속도 정보에 기초하여 상기 제1 추정된 거리를 결정하는 단계를 초래하는,
    유형의 컴퓨터-판독 가능 비일시적 저장 매체.
  6. 제1항에 있어서,
    실행될 때 상기 명령은 상기 제1 및 제2 반사의 위치 사이의 픽셀의 개수, 및 상기 픽셀의 픽셀 대 밀리미터(mm) 비율에 기초하여 동공간 거리를 결정하는 단계를 초래하는,
    유형의 컴퓨터-판독 가능 비일시적 저장 매체.
  7. 제1항에 있어서,
    실행될 때 상기 명령은 상기 이미지 정보가 포착될 때 상기 사용자 디바이스의 방위를 나타내는 방위 정보를 수신하는 단계, 및 상기 방위 정보에 기초하여 동공간 거리를 결정하는 단계를 초래하는,
    유형의 컴퓨터-판독 가능 비일시적 저장 매체.
  8. 제7항에 있어서,
    상기 방위 정보는 상기 사용자 디바이스의 기울어짐 각도를 나타내는,
    유형의 컴퓨터-판독 가능 비일시적 저장 매체.
  9. 제1항에 있어서,
    실행될 때 상기 명령은 센서의 하나 이상의 속성에 기초하여 동공간 거리를 결정하는 단계를 초래하는,
    유형의 컴퓨터-판독 가능 비일시적 저장 매체.
  10. 제9항에 있어서,
    상기 하나 이상의 속성은 상기 센서의 렌즈의 유효 초점 거리(Effective Focal Length, EFL), 상기 센서의 수평 시야, 상기 센서의 수직 시야, 상기 센서의 해상도, 및 상기 센서의 2개의 인접한 픽셀 사이의 거리로 이루어진 그룹으로부터 선택된 적어도 하나의 속성을 포함하는,
    유형의 컴퓨터-판독 가능 비일시적 저장 매체.
  11. 제1항에 있어서,
    실행될 때 상기 명령은 눈 반경 파라미터, 및 센서와 상기 동공을 포함하는 평면 사이의 거리에 기초하여 동공간 거리를 결정하는 단계를 초래하는,
    유형의 컴퓨터-판독 가능 비일시적 저장 매체.
  12. 제1항에 있어서,
    상기 동공간 거리는 근거리 동공간 거리 또는 원거리 동공간 거리를 포함하는,
    유형의 컴퓨터-판독 가능 비일시적 저장 매체.
  13. 사용자의 동공 사이의 동공간 거리를 측정하도록 구성된 모바일 디바이스로서,
    사용자의 동공을 조명하도록 광을 생성하는 광원;
    사용자의 동공에 대응하는 이미지 정보를 포착하는 센서; 및
    이미지 정보에 기초하여 모바일 장치의 광원의 광의 제1 및 제2 반사의 위치를 식별하도록 구성되는 프로세서로서, 제1 반사는 상기 사용자의 제1 눈의 동공으로부터의 상기 광의 반사를 포함하며, 제2 반사는 상기 사용자의 제2 눈의 동공으로부터의 상기 광의 반사를 포함하며, 상기 프로세서는 제1 눈의 외부 반사 각막 표면에 의해 광원의 광의 반사의 제1 푸르킨예상을 식별함으로써 제1 반사의 위치를 식별하고, 제2 눈의 외부 반사 각막 표면에 의해 광원의 광의 반사의 제1 푸르킨예상을 식별함으로써 제2 반사의 위치를 식별하도록 구성되며, 상기 프로세서는 이미지 정보가 센서에 의해 포착될 때 센서와 사용자의 동공 사이인 제1 추정된 거리를 결정하고, 제1 눈의 외부 반사 각막 표면에 의한 광원의 광의 반사의 제1 푸르킨예상과 제2 눈의 외부 반사 각막 표면에 의한 광원의 광의 반사의 제1 푸르킨예상 사이의 거리에 기초하여 제1 및 제2 반사의 위치 사이의 제2 추정된 거리를 결정하고, 그리고 제1 추정된 거리와 제2 추정된 거리에 기초하여 동공간 거리를 결정하도록 구성되는, 프로세서;를 포함하는,
    모바일 디바이스.
  14. 제13항에 있어서,
    상기 이미지 정보는 사용자의 얼굴 상의 객체 또는 특징을 포함하고, 상기 프로세서는 상기 객체 또는 특징의 하나 이상의 치수에 기초하여 제1 추정된 거리를 결정하도록 구성되는,
    모바일 디바이스.
  15. 제13항에 있어서,
    상기 프로세서는 상기 제1 및 제2 반사의 위치 사이의 픽셀의 개수와 상기 픽셀의 픽셀 대 밀리미터(mm) 비율에 기초하여 동공간 거리를 결정하도록 구성되는,
    모바일 디바이스.
  16. 제13항에 있어서,
    상기 프로세서는 상기 이미지 정보가 포착될 때 상기 모바일 디바이스의 방위를 나타내는 방위 정보를 수신하고, 상기 방위 정보에 기초하여 동공간 거리를 결정하도록 구성되는,
    모바일 디바이스.
  17. 제13항에 있어서,
    상기 광원은 발광 다이오드(LED)를 포함하는,
    모바일 디바이스.
  18. 제13항에 있어서,
    상기 프로세서는 눈 반경 파라미터, 및 센서와 상기 동공을 포함하는 평면 사이의 거리에 기초하여 동공간 거리를 결정하도록 구성되는,
    모바일 디바이스.
  19. 사용자의 동공 사이의 동공간 거리를 측정하는 방법으로서,
    사용자 장치의 센서에 의해 포착된 이미지 정보를 처리하는 단계;
    이미지 정보에 기초하여 사용자 디바이스의 광원의 광의 제1 및 제2 반사의 위치를 식별하는 단계 ― 제1 반사는 상기 사용자의 제1 눈의 동공으로부터의 상기 광의 반사를 포함하며, 제2 반사는 상기 사용자의 제2 눈의 동공으로부터의 상기 광의 반사를 포함하며, 제1 및 제2 반사의 위치를 식별하는 단계는 제1 눈의 외부 반사 각막 표면에 의해 광원의 광의 반사의 제1 푸르킨예상을 식별함으로써 제1 반사의 위치를 식별하는 단계 및 제2 눈의 외부 반사 각막 표면에 의해 광원의 광의 반사의 제1 푸르킨예상을 식별함으로써 제2 반사의 위치를 식별하는 단계를 포함함 ―;
    제1 추정된 거리를 결정하는 단계 ― 상기 제1 추정된 거리는 이미지 정보가 센서에 의해 포착될 때 센서와 사용자의 동공 사이임 ―;
    제1 눈의 외부 반사 각막 표면에 의한 광원의 광의 반사의 제1 푸르킨예상과 제2 눈의 외부 반사 각막 표면에 의한 광원의 광의 반사의 제1 푸르킨예상 사이의 거리에 기초하여 제1 및 제2 반사의 위치 사이의 제2 추정된 거리를 결정하는 단계; 및
    제1 추정된 거리 및 제2 추정된 거리에 기초하여 동공간 거리를 결정하는 단계;를 포함하는,
    방법.
  20. 제19항에 있어서,
    상기 이미지 정보는 사용자의 얼굴 상의 객체 또는 특징을 포함하고, 상기 제1 추정된 거리를 결정하는 단계는 상기 객체 또는 특징의 하나 이상의 치수에 기초하는,
    방법.
  21. 제19항에 있어서,
    상기 제1 및 제2 반사의 위치 사이의 픽셀의 개수, 및 상기 픽셀의 픽셀 대 밀리미터(mm) 비율에 기초하여 동공간 거리를 결정하는 단계를 포함하는,
    방법.
  22. 제19항에 있어서,
    상기 센서의 하나 이상의 속성에 기초하여 동공간 거리를 결정하는 단계를 포함하는,
    방법.
  23. 제19항에 있어서,
    눈 반경 파라미터, 및 센서와 상기 동공을 포함하는 평면 사이의 거리에 기초하여 동공간 거리를 결정하는 단계를 포함하는,
    방법.
  24. 제1항에 있어서,
    실행될 때 상기 명령은 센서가 이미지 정보를 포착할 때 동공을 조명하기 위해 광을 생성하도록 사용자 디바이스의 광원을 트리거링하는 단계를 초래하는,
    유형의 컴퓨터-판독 가능 비일시적 저장 매체.
  25. 삭제
KR1020177035681A 2015-05-11 2016-05-10 동공간 거리를 결정하는 장치, 시스템 및 방법 KR102591132B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562159490P 2015-05-11 2015-05-11
US62/159,490 2015-05-11
PCT/IB2016/052671 WO2016181308A1 (en) 2015-05-11 2016-05-10 Apparatus, system and method of determining a pupillary distance

Publications (2)

Publication Number Publication Date
KR20180004271A KR20180004271A (ko) 2018-01-10
KR102591132B1 true KR102591132B1 (ko) 2023-10-17

Family

ID=57249078

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177035681A KR102591132B1 (ko) 2015-05-11 2016-05-10 동공간 거리를 결정하는 장치, 시스템 및 방법

Country Status (12)

Country Link
US (2) US10702149B2 (ko)
EP (1) EP3294112A4 (ko)
JP (1) JP6853188B2 (ko)
KR (1) KR102591132B1 (ko)
CN (2) CN112674715A (ko)
AU (2) AU2016261275B2 (ko)
BR (1) BR112017024157B1 (ko)
CA (1) CA2985315C (ko)
IL (1) IL255571B (ko)
RU (1) RU2722303C2 (ko)
SG (1) SG10201913884SA (ko)
WO (1) WO2016181308A1 (ko)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10670494B2 (en) * 2015-05-10 2020-06-02 6 Over 6 Vision Ltd. Apparatus, system and method of determining one or more optical parameters of a lens
CA2985315C (en) 2015-05-11 2023-09-26 6 Over 6 Vision Ltd. Apparatus, system and method of determining a pupillary distance
US9532709B2 (en) 2015-06-05 2017-01-03 Jand, Inc. System and method for determining distances from an object
US9770165B2 (en) 2015-08-13 2017-09-26 Jand, Inc. Systems and methods for displaying objects on a screen at a desired visual angle
US10799109B2 (en) 2016-01-15 2020-10-13 Jand, Inc. Systems and methods for determining distance from an object
US10036685B2 (en) 2016-05-18 2018-07-31 Jand, Inc. Fixtureless lensmeter and methods of operating same
US10557773B2 (en) 2016-05-18 2020-02-11 Jand, Inc. Fixtureless lensmeter system
US10413172B2 (en) 2017-12-11 2019-09-17 1-800 Contacts, Inc. Digital visual acuity eye examination for remote physician assessment
CN109379586B (zh) * 2019-01-16 2019-08-06 歌尔股份有限公司 摄像头模组的倾斜角度测试方法及装置
KR102184972B1 (ko) 2019-02-01 2020-12-01 주식회사 룩시드랩스 동공 중심간 거리를 측정하는 장치 및 방법
US11064188B2 (en) * 2019-07-29 2021-07-13 Htc Corporation Driving method for calculating interpupillary distance and related head-mounted device
US11488239B2 (en) 2019-08-26 2022-11-01 Warby Parker Inc. Virtual fitting systems and methods for spectacles
JP2023515517A (ja) 2020-02-21 2023-04-13 ディット テクノロジーズ インコーポレイテッド ライブフィッティングを含む眼鏡フレームのフィッティング
US11676347B2 (en) 2020-04-15 2023-06-13 Warby Parker Inc. Virtual try-on systems for spectacles using reference frames
EP3913424A1 (de) * 2020-05-22 2021-11-24 Carl Zeiss Vision International GmbH Computerimplementiertes verfahren zur bestimmung von zentrierparametern für mobile endgeräte, mobiles endgerät und computerprogramm
WO2021257406A1 (en) * 2020-06-17 2021-12-23 Warby Parker Inc. System and method for measuring pupillary distance and uses thereof
NL2031115B1 (en) * 2022-03-01 2023-09-07 Easee Health B V Method and system for determining a pupillary distance for a person.
CN115442525A (zh) * 2022-08-31 2022-12-06 丁非 一种瞳距测量方法、系统、终端及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050068495A1 (en) * 2003-09-30 2005-03-31 Pentax Corporation Method and device for measuring pupil distance
US20100220285A1 (en) * 2007-07-11 2010-09-02 Adam Simmonds Fitting of spectacles

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5231674A (en) * 1989-06-09 1993-07-27 Lc Technologies, Inc. Eye tracking method and apparatus
JP3976925B2 (ja) * 1999-02-22 2007-09-19 株式会社ニデック 眼位置測定装置
US6535223B1 (en) * 2000-05-31 2003-03-18 Schmidt Laboratories, Inc. Method and system for determining pupiltary distant and element height
WO2005092173A1 (ja) * 2004-03-26 2005-10-06 Hoya Corporation 眼鏡レンズ供給システム、眼鏡装用パラメータ測定装置、眼鏡装用検査システム、眼鏡レンズ及び眼鏡
US8459792B2 (en) 2010-04-26 2013-06-11 Hal E. Wilson Method and systems for measuring interpupillary distance
FR2980681A3 (fr) * 2011-09-29 2013-04-05 Fittingbox Procede de determination des mesures oculaires et optiques d'interet pour la fabrication et le montage de verre de lunettes correcteurs, a l'aide d'une camera en contexte non controle
WO2013176265A1 (ja) * 2012-05-25 2013-11-28 国立大学法人静岡大学 瞳孔検出方法、角膜反射検出方法、顔姿勢検出方法及び瞳孔追尾方法
RU2550011C1 (ru) 2013-11-26 2015-05-10 Общество с ограниченной ответственностью "Оптика-Центр" (ООО "Оптика-Центр") Способ и устройство для монокулярного измерения межзрачкового расстояния
CA2985315C (en) 2015-05-11 2023-09-26 6 Over 6 Vision Ltd. Apparatus, system and method of determining a pupillary distance

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050068495A1 (en) * 2003-09-30 2005-03-31 Pentax Corporation Method and device for measuring pupil distance
US20100220285A1 (en) * 2007-07-11 2010-09-02 Adam Simmonds Fitting of spectacles

Also Published As

Publication number Publication date
CN112674715A (zh) 2021-04-20
EP3294112A1 (en) 2018-03-21
AU2021203178A1 (en) 2021-06-17
RU2017139578A3 (ko) 2019-08-12
JP2018518233A (ja) 2018-07-12
CA2985315C (en) 2023-09-26
SG10201913884SA (en) 2020-03-30
RU2722303C2 (ru) 2020-05-28
BR112017024157B1 (pt) 2022-11-16
BR112017024157A2 (pt) 2018-07-17
AU2016261275B2 (en) 2021-02-18
AU2021203178B2 (en) 2023-07-27
WO2016181308A1 (en) 2016-11-17
US11931105B2 (en) 2024-03-19
RU2017139578A (ru) 2019-06-11
KR20180004271A (ko) 2018-01-10
JP6853188B2 (ja) 2021-03-31
AU2016261275A1 (en) 2017-11-30
CN107847128A (zh) 2018-03-27
IL255571A (en) 2018-01-31
US10702149B2 (en) 2020-07-07
CA2985315A1 (en) 2016-11-17
US20200397284A1 (en) 2020-12-24
CN107847128B (zh) 2020-11-10
IL255571B (en) 2022-05-01
US20180140186A1 (en) 2018-05-24
EP3294112A4 (en) 2019-01-30

Similar Documents

Publication Publication Date Title
KR102591132B1 (ko) 동공간 거리를 결정하는 장치, 시스템 및 방법
AU2021250915B2 (en) Apparatus, system and method of determining one or more optical parameters of a lens
JP7003041B2 (ja) レンズの1つ以上の光学パラメータを決定するための機器、システム、および方法
CN115697183A (zh) 用于测量瞳孔距离的系统和方法及其使用

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant