KR102184972B1 - 동공 중심간 거리를 측정하는 장치 및 방법 - Google Patents

동공 중심간 거리를 측정하는 장치 및 방법 Download PDF

Info

Publication number
KR102184972B1
KR102184972B1 KR1020190014139A KR20190014139A KR102184972B1 KR 102184972 B1 KR102184972 B1 KR 102184972B1 KR 1020190014139 A KR1020190014139 A KR 1020190014139A KR 20190014139 A KR20190014139 A KR 20190014139A KR 102184972 B1 KR102184972 B1 KR 102184972B1
Authority
KR
South Korea
Prior art keywords
pupil
distance
center
image
centers
Prior art date
Application number
KR1020190014139A
Other languages
English (en)
Other versions
KR20200096002A (ko
Inventor
이승우
김정식
Original Assignee
주식회사 룩시드랩스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 룩시드랩스 filed Critical 주식회사 룩시드랩스
Priority to KR1020190014139A priority Critical patent/KR102184972B1/ko
Priority to PCT/KR2019/018006 priority patent/WO2020159077A1/ko
Publication of KR20200096002A publication Critical patent/KR20200096002A/ko
Application granted granted Critical
Publication of KR102184972B1 publication Critical patent/KR102184972B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
    • A61B3/111Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils for measuring interpupillary distance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Human Computer Interaction (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

본 발명은 아이트래커 카메라를 통해 수집한 동공의 위치 정보를 기반으로 동공 중심간 거리(IPD, interpupillary distance)를 산출하기 위한 것으로서, 일실시예에 따른 동공 중심간 거리 측정 장치는 영상의 특정 위치에 응시를 위한 오브젝트를 표시 하는 영상자극 표시 수단, 상기 오브젝트를 트래킹 하는 동공의 움직임을 기록하는 영상 정보를 수집하여 상기 동공의 중심에 대한 위치 좌표를 산출하는 위치 산출부, 및 상기 산출된 위치 좌표를 이용해서 상기 동공 중심간 거리를 산출하되, 상기 동공의 위치 좌표를 길이로 각각 환산하고, 상기 각각 환산된 길이를 이용해서 상기 동공 중심간 거리를 산출하는 거리 측정부를 포함할 수 있다.

Description

동공 중심간 거리를 측정하는 장치 및 방법{APPARATUS AND METHOD FOR MEASURING DISTANCE BETWEEN PUPIL CENTERS}
본 발명은 아이트래커 카메라를 통해 수집한 동공의 위치 정보를 기반으로 동공 중심간 거리(IPD, interpupillary distance)를 산출하기 위한 것으로서, 특정 위치를 응시할 수 있도록 영상을 표시하며, 아이트래커라는 센서를 통해 동공의 위치 정보를 수집하고, 화면에 표시된 응시점의 위치와 수집된 동공의 위치정보를 근거로 사용자의 IPD를 산출하는 기술적 사상에 관한 것이다.
사람은 일반적으로 양안 시차를 통해서 물체의 시각적 입체감을 느낀다.
즉, 좌안과 우안에 각각 다른 영상이 보여지고, 뇌에서 이를 하나의 영상으로 생성하는 과정을 통해 사람이 입체영상이라고 느끼게 된다. 가까운 이러한 원리를 토대로 개발된 것이 VR(virtual reality)기기이며, 좌안과 우안에 개별적인 화면을 제공하여 가상입체영상을 구현한다.
입체영상에서 중요한 요소 중 하나인 깊이감은 양안 망막에 상이 맺히는 위치의 차이를 통해 인식된다. 예를 들어 한 지점을 응시하고 있을 때, 응시점보다 가까운 지점의 상은 망막의 바깥쪽(귀쪽)에 맺히고, 반대로 먼 지점의 상은 망막의 안쪽(코쪽)에 맺히게 된다. 이때 동일한 거리의 응시점을 바라보더라도 IPD가 다르면 가까운 점과 먼 점의 상이 맺히는 지점이 달라진다. 이는 동일한 영상에 대해서 사용자에 따라 영상의 깊이감이 달라지는 원인이 되며, 더 나아가 몰입감에 영향을 미친다.
VR기기의 화면 및 렌즈의 간격이 고정되어 있는데 반해, 사용자의 IPD는 사람에 따라 50~80 mm로 편차가 크다(성인기준). 때문에 동일한 조건의 화면에서 사용자에 따라 서로 다른 깊이감을 느끼거나, 심할 경우 상이 맺히지 않는 문제까지도 발생하게 된다. 이를 해결하기 위해 일부 모델에서는 사용자가 렌즈 간격을 조절할 수 있는 기능을 포함하고 있지만, 수동으로 조절한다는 한계가 있다.
현재 전용 IPD측정기 및 스마트폰 어플리케이션 등 다양한 IPD 측정방법이 사용되고 있다. 전용 IPD 측정기의 경우 수동으로 조작하며, 측정을 해주는 추가 인원이 필요하다는 단점이 있다. IPD 측정 어플리케이션은 국제 규격인 신용카드를 얼굴과 함께 촬영하여 상대적인 길이를 통해 IPD를 산출한다. 신용카드의 위치(깊이)에 따른 오차가 크고, 최종적으로 눈동자의 위치를 사용자가 직접 맞춰야 하기 때문에 사용자의 섬세함에 따라 오차가 클 수 있다는 단점이 있다.
현재 많은 VR기기가 IPD 64mm에 맞춰 렌즈 및 화면이 배치되어있는데, 이는 성인 남성을 기준으로 설정된 것이다. 청소년이나 여성 등 IPD가 작은 사람은 상이 맺히지 않아 VR기기의 사용이 어려울 수 있다. 따라서, 사용자의 다양한 IPD를 고려하여 야기되는 문제점들을 해결할 수 있는 기술이 요구되는 실정이다.
한국공개특허 제2018-0004271호 "동공 중심간 거리를 결정하는 장치, 시스템 및 방법" 한국공개특허 제2016-0022924호 "HMD의 최적의 눈 맞춤을 위한 시스템"
본 발명은 사용자의 IPD를 자동으로 측정하는 것을 목적으로 한다.
본 발명은 안구의 회선중심에서 각막까지의 거리를 문헌 등에 기재된 수치뿐만 아니라, 사용자별로 측정한 수치를 사용하여 동공 중심간 거리의 측정 정확도를 높이는 것을 목적으로 한다.
본 발명은 기기와 얼굴의 중앙이 일치하지 않더라도 두 눈의 개별 위치 계산을 통한 동공 중심간 거리를 산출하는 것을 목적으로 한다.
본 발명은 제작자가 의도한 깊이감을 느껴 몰입감을 극대화 하는 것을 목적으로 한다.
본 발명은 추가적인 비용 없이 헤드 마운트형 디스플레이 기기들에 쉽게 적용 및 활용하여 VR뿐만 아니라 AR에서도 입체감을 향상시키는 것을 목적으로 한다.
일실시예에 따른 동공 중심간 거리 측정 장치는 영상의 특정 위치에 응시를 위한 오브젝트를 표시 하는 영상자극 표시 수단, 상기 오브젝트를 응시하는 동공의 움직임을 기록하는 영상 정보를 수집하여 상기 동공의 중심에 대한 위치 좌표를 산출하는 위치 산출부, 및 상기 산출된 위치 좌표를 이용해서 상기 동공 중심간 거리를 산출하되, 상기 동공의 위치 좌표를 길이로 각각 환산하고, 상기 각각 환산된 길이를 이용해서 상기 동공 중심간 거리를 산출하는 거리 측정부를 포함할 수 있다.
일실시예에 따른 상기 거리 측정부는, 상기 환산한 길이에 상기 동공의 회선중심에서 각막까지의 길이를 반영하여 상기 동공 중심간 거리를 산출할 수 있다.
일실시예에 따른 상기 거리 측정부는, 상기 환산한 길이와, 상기 동공의 회선중심에서 각막까지의 길이에 상기 동공이 응시하는 상기 오브젝트 내의 응시점을 향하는 각도를 고려한 비율을 곱한 값을 합산하여 상기 동공 중심간 거리를 산출할 수 있다.
일실시예에 따른 상기 거리 측정부는, 상기 환산한 길이에 눈과 오브젝트 사이의 거리 및 상기 회선중심에서 각막까지의 길이를 반영한 값과, 상기 회선중심에서 각막까지의 길이에 상기 영상의 화면 중앙에서 오브젝트 내의 응시점까지의 거리를 반영한 값의 차이를 이용해서 상기 동공 중심간 거리를 산출할 수 있다.
일실시예에 따른 상기 거리 측정부는, 설계수치에 따라 미리 지정된 상기 회선중심에서 각막까지의 길이를 반영하여 상기 동공 중심간 거리를 산출할 수 있다.
일실시예에 따른 상기 거리 측정부는, 상기 영상 내 서로 다른 응시점에 대한 동공의 시선좌표, 상기 영상의 중심으로부터 상기 서로 다른 응시점까지의 거리, 상기 영상의 중심으로부터 상기 시선좌표의 길이, 상기 눈과 오브젝트 사이의 거리를 이용해서 상기 회선중심에서 각막까지의 길이를 산출할 수 있다.
일실시예에 따른 상기 거리 측정부는, 상기 위치 좌표의 차이에 상기 영상에 대한 단위 픽셀당 길이를 반영해서 상기 동공 중심간 거리를 산출할 수 있다.
일실시예에 따른 상기 거리 측정부는, 상기 영상의 가로방향 길이에 대한 상기 영상의 해상도의 비율에 기초하여 상기 단위 픽셀당 길이를 산출할 수 있다.
일실시예에 따른 상기 거리 측정부는, 상기 동공과 카메라 사이의 거리와 상기 카메라의 화각(FOV, field of view)을 이용하여 상기 영상의 가로방향 길이를 산출할 수 있다.
일실시예에 따른 상기 영상자극 표시 수단은, 무자극, 단안 정적 자극, 양안 정적 자극, 단안 동적 자극, 및 양안 동적 자극 중에서 적어도 하나의 자극 방식으로 상기 오브젝트를 표시할 수 있다.
일실시예에 따른 동공 중심간 거리 측정 장치는 상기 오브젝트를 응시하는 동공의 움직임을 추적하여 동공의 움직임을 기록하는 영상 정보를 생성하는 아이트래커를 더 포함할 수 있다.
일실시예에 따른 동공 중심간 거리 측정 장치는 영상의 특정 위치에 응시를 위한 오브젝트를 한쪽 눈에만 표시 하는 영상자극 표시 수단, 상기 오브젝트를 응시하는 상기 한쪽 눈의 동공의 움직임과, 상기 동공의 움직임과 함께 공동운동(conjugate)하는 다른 한쪽 눈에 대한 동공의 움직임에 의해 발생되는 동공의 움직임을 기록하는 영상 정보를 수집하여 상기 동공의 중심 각각에 대한 서로 다른 두 개의 위치 좌표를 산출하는 위치 산출부, 및 상기 산출된 서로 다른 두 개의 위치 좌표를 이용해서 상기 동공 중심간 거리를 산출하되, 상기 서로 다른 두 개의 위치 좌표의 차이에 기초하여 상기 동공의 간격을 산출하고, 상기 산출된 간격을 이용해서 상기 동공 중심간 거리를 산출하는 거리 측정부를 포함할 수 있다.
일실시예에 따른 상기 거리 측정부는, 상기 서로 다른 두 개의 위치 좌표의 차이에 상기 영상에 대한 단위 픽셀당 길이를 반영해서 상기 동공 중심간 거리를 산출할 수 있다.
일실시예에 따른 상기 거리 측정부는, 상기 영상의 가로방향 길이에 대한 상기 영상의 해상도의 비율에 기초하여 상기 단위 픽셀당 길이를 산출할 수 있다.
일실시예에 따른 상기 거리 측정부는, 상기 동공과 카메라 사이의 거리와 상기 카메라의 화각(FOV, field of view)을 이용하여 상기 영상의 가로방향 길이를 산출할 수 있다.
일실시예에 따른 상기 영상자극 표시 수단은, 상기 한쪽 눈에 표시된 오브젝트의 움직임 또는 위치 중에서 적어도 하나를 제어하고, 상기 위치 산출부는, 상기 오브젝트를 트래킹 하는 상기 한쪽 눈의 동공의 움직임과, 상기 동공의 움직임과 함께 공동운동(conjugate)하는 동공의 움직임에 의해 발생되는 동공의 움직임을 기록하는 영상 정보를 수집하여 상기 동공의 중심 각각에 대한 서로 다른 두 개의 위치 좌표를 산출할 수 있다.
일실시예에 따른 동공 위치 측정 장치는 영상의 특정 위치에 응시를 위한 오브젝트를 양쪽 눈 중에서 어느 한쪽 눈에만 표시 하는 영상자극 표시 수단, 및 상기 오브젝트를 응시하는 상기 한쪽 눈의 동공의 움직임과, 상기 동공의 움직임과 함께 공동운동(conjugate)하는 다른 한쪽 눈에 대한 동공의 움직임에 기초하여 상기 한 쪽 동공에 대한 위치 좌표를 산출하는 위치 산출부를 포함할 수 있다.
일실시예에 따른 상기 영상자극 표시 수단은, 상기 한쪽 눈에 표시된 오브젝트의 움직임 또는 위치 중에서 적어도 하나를 제어할 수 있다.
일실시예에 따른 상기 위치 산출부는 상기 한쪽 눈에 오브젝트를 표시하여 상기 위치 산출부에서 상기 한쪽 눈에 대한 동공의 위치 좌표를 산출한 뒤, 상기 다른 한쪽 눈에서 상기 오브젝트를 표시하도록 제어하고, 상기 위치 산출부에서 상기 다른 한쪽 눈에 대한 동공의 위치 좌표를 산출하고, 상기 산출된 서로 다른 두 개의 위치 좌표를 이용해서 상기 동공 중심간 거리를 산출할 수 있다.
일실시예에 따른 동공 중심간 거리 측정 방법은 영상의 특정 위치에 응시를 위한 오브젝트를 표시 하는 단계, 상기 오브젝트를 트래킹 하는 동공의 움직임을 기록하는 영상 정보를 수집하여 상기 동공의 중심에 대한 위치 좌표를 산출하는 단계, 상기 동공의 위치 좌표를 길이로 각각 환산하는 단계, 및 상기 환산한 길이에 상기 동공의 회선중심에서 각막까지의 길이를 반영하여 상기 동공 중심간 거리를 산출하는 단계를 포함할 수 있다.
일실시예에 따른 상기 안구의 회선중심에서 각막까지의 길이를 반영하여 상기 동공 중심간 거리를 산출하는 단계는, 설계수치에 따라 미리 지정된 상기 안구의 회선중심에서 각막까지의 길이를 반영하여 상기 동공 중심간 거리를 산출하는 단계를 포함할 수 있다.
일실시예에 따른 상기 회선중심에서 각막까지의 길이를 반영하여 상기 동공 중심간 거리를 산출하는 단계는, 상기 영상 내 서로 다른 응시점에 대한 동공의 시선좌표, 상기 영상의 중심으로부터 상기 서로 다른 응시점까지의 거리, 상기 영상의 중심으로부터 상기 시선좌표의 길이, 상기 눈과 오브젝트 사이의 거리를 이용해서 상기 안구의 회선중심에서 각막까지의 길이를 산출하는 단계를 포함할 수 있다.
일실시예에 따른 상기 동공 중심간 거리를 산출하는 단계는, 상기 동공과 카메라 사이의 거리와 상기 카메라의 화각(FOV, field of view)을 이용하여 상기 영상의 가로방향 길이를 산출하는 단계, 상기 가로방향 길이에 대한 상기 영상의 해상도의 비율에 기초하여 단위 픽셀당 길이를 산출하는 단계, 및 상기 위치 좌표의 차이에 상기 영상에 대한 단위 픽셀당 길이를 반영해서 상기 동공 중심간 거리를 산출하는 단계를 포함할 수 있다.
일실시예에 따른 동공 중심간 거리 측정 방법은 영상의 특정 위치에 응시를 위한 오브젝트를 한쪽 눈에만 표시 하는 단계, 상기 오브젝트를 응시하는 상기 한쪽 눈의 동공의 움직임과, 상기 동공의 움직임과 함께 공동운동(conjugate)하되 상기 오브젝트는 표시되지 않는 다른 한쪽 눈에 대한 동공의 움직임을 기록하는 영상 정보를 수집하여 상기 동공의 중심 각각에 대한 서로 다른 두 개의 위치 좌표를 산출하는 단계, 및 상기 산출된 서로 다른 두 개의 위치 좌표의 차이에 기초하여 상기 동공의 간격을 산출하고, 상기 산출된 간격을 이용해서 상기 동공 중심간 거리를 산출하는 단계를 포함할 수 있다.
일실시예에 따른 상기 동공 중심간 거리를 산출하는 단계는, 상기 동공과 카메라 사이의 거리와 상기 카메라의 화각(FOV, field of view)을 이용하여 상기 영상의 가로방향 길이를 산출하는 단계, 상기 가로방향 길이에 대한 상기 영상의 해상도의 비율에 기초하여 단위 픽셀당 길이를 산출하는 단계, 및 상기 위치 좌표의 차이에 상기 영상에 대한 단위 픽셀당 길이를 반영해서 상기 동공 중심간 거리를 산출하는 단계를 포함할 수 있다.
일실시예에 따른 상기 영상의 특정 위치에 응시를 위한 오브젝트를 한쪽 눈에만 표시 하는 단계는, 상기 한쪽 눈에 표시된 오브젝트의 움직임 또는 위치 중에서 적어도 하나를 제어하는 단계를 포함하고, 상기 서로 다른 두 개의 위치 좌표를 산출하는 단계는, 상기 오브젝트를 응시하는 상기 한쪽 눈의 동공의 움직임과, 상기 동공의 움직임과 함께 공동운동(conjugate)하는 동공의 움직임을 기록하는 영상 정보를 수집하여 상기 동공의 중심 각각에 대한 서로 다른 두 개의 위치 좌표를 산출하는 단계를 포함할 수 있다.
일실시예에 따르면, 사용자의 IPD를 자동으로 측정할 수 있다.
일실시예에 따르면, 안구의 회선중심에서 각막까지의 거리를 문헌 등에 기재된 수치뿐만 아니라, 사용자별로 측정한 수치를 사용하여 동공 중심간 거리의 측정 정확도를 높일 수 있다.
일실시예에 따르면, 기기와 얼굴의 중앙이 일치하지 않더라도 두 눈의 개별 위치 계산을 통한 동공 중심간 거리를 산출할 수 있다.
일실시예에 따르면, 제작자가 의도한 깊이감을 느껴 몰입감을 극대화 시킬 수 있다.
일실시예에 따르면, 추가적인 비용 없이 헤드 마운트형 디스플레이 기기들에 쉽게 적용 및 활용하여 VR뿐만 아니라 AR에서도 입체감을 향상시킬 수 있다.
도 1은 일실시예에 따른 동공 중심간 거리 측정 장치를 설명하는 도면이다.
도 2는 아이트래커가 내장된 헤드마운트기기와 이때 눈과 카메라 간 거리를 산출하는 실시예를 설명하는 도면이다.
도 3은 동공에 오브젝트를 통해 자극을 하여 응시를 유도하는 실시예를 설명하는 도면이다.
도 4는 일실시예에 따른 아이트래커 영상에서 실제 길이로 변환하는 실시예를 설명하는 도면이다.
도 5는 일실시예에 따른 위치 좌표를 길이로 환산하는 실시예를 설명하는 도면이다.
도 6은 일실시예에 따른 두 눈의 개별 위치를 계산하는 실시예를 설명하는 도면이다.
도 7은 일실시예에 따른 눈의 공동운동(conjugate eye movement)에 기초하여 동공의 위치 좌표를 계산하는 실시예를 설명하는 도면이다.
도 8은 일실시예에 따른 동공 중심간 거리 측정 장치가 두 눈의 개별 위치 계산을 통해 동공 중심간 거리를 산출하는 실시예를 설명하는 도면이다.
도 9는 일실시예에 따른 안구의 회선중심에서 각막까지의 길이를 산출하는 실시예를 설명하는 도면이다.
도 10은 일실시예에 따른 두 눈의 공동운동(conjugate eye movement)에 기초하여 동공의 위치 좌표를 계산하는 동공 중심간 거리 측정 방법을 설명하는 도면이다.
도 11은 일실시예에 따른 두 눈의 개별 위치를 계산하여 동공의 위치 좌표를 계산하는 동공 중심간 거리 측정 방법을 설명하는 도면이다.
도 12는 다른 일실시예에 따른 두 눈의 개별 위치를 계산하여 동공의 위치 좌표를 계산하는 동공 중심간 거리 측정 방법을 설명하는 도면이다.
본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시예들은 다양한 형태로 실시될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.
본 발명의 개념에 따른 실시예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시예들을 특정한 개시형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 "~사이에"와 "바로~사이에" 또는 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
본 명세서에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
도 1은 일실시예에 따른 동공 중심간 거리 측정 장치(100)를 설명하는 도면이다.
본 발명은 사용자에 맞춰 적정 영상을 제공하기 위해 동공 중심간 거리를 측정할 수 있다. 특히, 본 발명은 아이트래커가 내장된 헤드 마운트형 디스플레이 기기 등에 적용되어 새로운 측정장비를 추가하지 않고 IPD를 측정할 수 있다.
이를 위해, 일실시예에 따른 동공 중심간 거리 측정 장치(100)는 영상자극 표시 수단(110), 위치 산출부(120), 및 거리 측정부(130)를 포함할 수 있다.
구체적으로, 일실시예에 따른 영상자극 표시 수단(110)는 영상의 특정 위치에 응시를 위한 오브젝트를 표시 할 수 있다.
일례로, 영상자극 표시 수단(110)는 영상의 특정 위치에 응시를 위한 오브젝트를 다양하게 표시할 수 있다.
특히, 일실시예에 따른 영상자극 표시 수단(110)는 무자극, 단안 정적 자극, 양안 정적 자극, 단안 동적 자극, 및 양안 동적 자극 등의 다양한 자극 방식으로 오브젝트를 표시할 수 있다.
본 발명은 한쪽 눈(또는 양쪽 눈)에만 물체가 보이는 영상을 표시하고, 해당 눈(또는 두 눈)이 물체를 응시할 때 수집되는 동공의 위치 좌표를 토대로 각 눈이 얼굴의 중심으로부터 떨어진 거리를 계산하고, 최종적으로 동공 중심간 거리를 산출할 수 있다.
뿐만 아니라, 눈의 공동운동을 응용하여 한쪽 눈에만 물체가 보이는 영상을 표시하고, 물체를 응시할 때 두 눈의 위치좌표 간격을 토대로 동공 중심간 거리를 계산할 수 있다.
물체가 수평방향으로 다르게 위치한 복수의 영상을 순차적으로 보여주고, 각각의 동공 위치 좌표을 토대로 사용자의 안구의 회선중심으로부터 각막까지의 길이를 산출할 수 있다. 이는 IPD 산출 간 정확도를 높이기 위한 값으로 사용될 수 있다.
구체적으로, 영상자극 표시 수단(110)는 한쪽 눈의 화면에만 응시를 위한 지표가 있는 영상 표시를 하고, 이에 상응하는 동공의 움직임을 기록하는 영상 정보를 기초로 동공 중심간 거리를 산출하도록 할 수 있다.
다른 예로, 영상자극 표시 수단(110)는 양쪽 눈의 화면에 응시를 위한 지표가 있는 영상 표시를 하고, 이에 상응하는 동공의 움직임을 기록하는 영상 정보를 기초로 동공 중심간 거리를 산출하도록 할 수 있다.
먼저, 이하에서는 영상자극 표시 수단(110)가 한쪽 눈의 화면에만 응시를 위한 지표가 있는 영상 표시를 하고, 이에 상응하는 동공의 움직임을 기록하는 영상 정보를 기초로 동공 중심간 거리를 산출하는 실시예를 통해 동공 중심간 거리 측정 장치(100)를 설명한다.
일실시예에 따른 위치 산출부(120)는 오브젝트를 트래킹 하는 동공의 움직임에 의해 발생되는 동공의 움직임을 기록하는 영상 정보를 수집하여 상기 동공의 중심에 대한 위치 좌표를 산출할 수 있다.
동공의 움직임을 기록하는 영상 정보는 아이트래커가 동공을 추적하여 생성하는 동공의 위치 정보로 해석될 수 있다. 이때, 위치 산출부(120)는 아이트래커로부터 동공의 움직임을 기록하는 영상 정보를 수집하여 동공의 중심에 대한 위치 좌표를 산출할 수 있다.
이를 위해, 일실시예에 따른 동공 중심간 거리 측정 장치(100)는 오브젝트를 트래킹 하는 동공의 움직임을 추적하여 동공의 움직임을 기록하는 영상 정보를 생성하는 아이트래커(140)를 더 포함할 수 있다.
일실시예에 따른 거리 측정부(130)는 산출된 위치 좌표를 이용해서 동공 중심간 거리를 산출하되, 동공의 위치 좌표를 길이로 각각 환산하고, 각각 환산된 길이를 이용해서 동공 중심간 거리를 산출할 수 있다.
거리 측정부(130)는 환산한 길이에 동공의 회선중심에서 각막까지의 길이를 반영하여 동공 중심간 거리를 산출할 수 있다.
일반적으로, 회선중심에서 각막까지의 길이는 문헌상 평균값으로서, 13.5mm를 사용할 수 있다. 즉, 거리 측정부(130)는 설계수치에 따라 미리 지정된 회선중심에서 각막까지의 길이를 반영하여 동공 중심간 거리를 산출할 수 있다.
본 발명의 거리 측정부(130)는 회선중심에서 각막까지의 길이에 대해 문헌상 평균값을 그대로 이용할 수도 있고, 서로 다른 위치의 응시점에 대한 동공의 움직임을 기록하는 영상 정보를 통해 산출하여 이용할 수도 있다.
예를 들면, 거리 측정부(130)는 영상 내 서로 다른 응시점에 대한 동공의 시선좌표, 영상의 중심으로부터 서로 다른 응시점까지의 거리, 영상의 중심으로부터 시선좌표의 길이, 오브젝트와 눈간 거리를 이용해서 회선중심에서 각막까지의 길이를 산출할 수 있다.
일실시예에 따른 거리 측정부(130)는 눈의 회선중심에서 각막까지의 길이를 산출하기 위해, 서로 다른 위치의 지표 대한 시선좌표 데이터를 통해 눈의 회선중심에서 각막까지의 길이를 수식적으로 계산 할 수 있다.
일실시예에 따른 거리 측정부(130)는 회선중심에서 각막까지의 길이를 적용하여 동공 중심간 거리를 산출할 수 있다.
거리 측정부(130)는 동공의 위치 좌표를 길이로 각각 환산한 길이와, 동공의 회선중심에서 각막까지의 길이에 동공이 응시하는 오브젝트 내의 응시점을 향하는 각도를 고려한 비율을 곱한 값을 합산하여 동공 중심간 거리를 산출할 수 있다.
또한, 거리 측정부(130)는 환산한 길이에 오브젝트와 눈간 거리 및 회선중심에서 각막까지의 길이를 반영한 값과, 회선중심에서 각막까지의 길이에 영상의 화면 중앙에서 오브젝트 내의 응시점까지의 거리를 반영한 값의 차이를 이용해서 동공 중심간 거리를 산출할 수도 있다.
일실시예에 따른 거리 측정부(130)는 단위 픽셀당 길이를 고려해서 IPD를 산출할 수 있다. 구체적으로, 거리 측정부(130)는 위치 좌표의 차이에 영상에 대한 단위 픽셀당 길이를 반영해서 동공 중심간 거리를 산출할 수 있다. 이때, 거리 측정부(130)는 영상의 가로방향 길이에 대한 영상의 해상도의 비율에 기초하여 상기 단위 픽셀당 길이를 산출할 수 있다. 보다 구체적으로, 거리 측정부(130)는 영상의 가로방향 길이를 영상의 해상도로 나눈 값으로 단위 픽셀당 길이를 산출할 수 있다. 한편, 거리 측정부(130)는 동공과 카메라 사이의 거리와 카메라의 화각(FOV, field of view)을 이용하여 영상의 가로방향 길이를 산출할 수 있다.
다음으로, 이하에서는 영상자극 표시 수단(110)가 한쪽 눈에만 자극을 주고, 다른 한쪽 눈의 공동운동을 통해 동공 중심간 거리를 산출하는 실시예를 설명한다.
이를 위해, 동공 중심간 거리 측정 장치(100)는, 영상자극 표시 수단(110), 위치 산출부(120), 및 거리 측정부(130)를 포함할 수 있다.
영상자극 표시 수단(110)는 영상의 특정 위치에 응시를 위한 오브젝트를 한쪽 눈에만 표시 할 수 있다.
이때의 위치 산출부(120)는, 오브젝트를 트래킹 하는 한쪽 눈의 동공의 움직임과, 동공의 움직임과 함께 공동운동(conjugate)하는 다른 한쪽 눈에 대한 동공의 움직임에 의해 발생되는 동공의 움직임을 기록하는 영상 정보를 수집할 수 있다. 또한, 수집한 동공의 움직임을 기록하는 영상 정보를 이용해서 상기 동공의 중심 각각에 대한 서로 다른 두 개의 위치 좌표를 산출할 수 있다.
또한, 거리 측정부(130)는 산출된 서로 다른 두 개의 위치 좌표를 이용해서 상기 동공 중심간 거리를 산출할 수 있다. 이때, 거리 측정부(130)는 서로 다른 두 개의 위치 좌표의 차이에 기초하여 동공의 간격을 산출하고, 산출된 간격을 이용해서 동공 중심간 거리를 산출할 수 있다.
다음으로, 이하에서는 영상자극 표시 수단(110)가 양쪽 눈의 화면에 응시를 위한 지표가 있는 영상 표시를 하고, 이에 상응하는 동공의 움직임을 기록하는 영상 정보를 기초로 동공 중심간 거리를 산출하는 실시예를 통해 동공 중심간 거리 측정 장치(100)를 설명한다.
이때의 위치 산출부(120)는 오브젝트를 트래킹 하는 동공의 움직임에 의해 발생되는 동공의 움직임을 기록하는 영상 정보를 수집하여 동공의 중심 각각에 대한 서로 다른 두 개의 위치 좌표를 산출할 수 있다.
거리 측정부(130)는 산출된 위치 좌표를 이용해서 동공 중심간 거리를 산출하되, 위치 좌표의 차이에 기초하여 동공의 간격을 산출할 수 있다. 또한, 산출된 간격을 이용해서 동공 중심간 거리를 산출할 수 있다.
일실시예에 따른 거리 측정부(130)는 위치 좌표의 차이에 영상에 대한 단위 픽셀당 길이를 반영해서 동공 중심간 거리를 산출할 수 있다.
단위 픽셀당 길이는 영상의 가로방향 길이에 대한 영상의 해상도의 비율로 산출될 수 있다. 이를 위해, 거리 측정부(130)는 영상의 가로방향 길이를 해상도로 나눠 단위 픽셀당 길이를 산출할 수 있다.
한편, 거리 측정부(130)는 영상의 가로방향 길이를 산출할 수도 있다. 예를 들어, 거리 측정부(130)는 동공과 카메라 사이의 거리와 카메라의 화각(FOV, field of view)을 이용하여 영상의 가로방향 길이를 산출할 수 있다.
본 발명의 다른 일례에 따르면, 영상자극 표시 수단(110)는 다양한 방법으로 눈에 자극을 주고 거리 측정부(130)는 이를 기반으로 동공 중심간 거리를 측정할 수 있다.
일례로, 영상자극 표시 수단(110)는 한쪽 눈에 표시된 오브젝트를 다른 한쪽 눈에서 순차적으로 표시하도록 제어할 수 있다.
이때, 위치 산출부(120)는 오브젝트를 트래킹 하는 다른 한쪽 눈의 동공의 움직임과, 상기 다른 한쪽 눈의 동공의 움직임과 함께 공동운동(conjugate)하는 동공의 움직임에 의해 발생되는 동공의 움직임을 기록하는 영상 정보를 수집하여 상기 동공의 중심 각각에 대한 서로 다른 두 개의 위치 좌표를 산출할 수 있다.
또한, 거리 측정부(130)는, 산출된 서로 다른 두 개의 위치 좌표를 이용해서 동공 중심간 거리를 산출할 수 있다.
다른 일실시예에 따르면, 영상자극 표시 수단(110)는 한쪽 눈에 표시된 오브젝트의 움직임 또는 위치 중에서 적어도 하나를 제어하고, 위치 산출부(120)는 오브젝트를 트래킹 하는 상기 한쪽 눈의 동공의 움직임과, 상기 동공의 움직임과 함께 공동운동(conjugate)하는 동공의 움직임에 의해 발생되는 동공의 움직임을 기록하는 영상 정보를 수집하여 상기 동공의 중심 각각에 대한 서로 다른 두 개의 위치 좌표를 산출할 수 있다.일실시예에 따른 동공 중심간 거리 측정 장치(100)는 오브젝트를 표시하는 눈을 다양하게 선택할 수 있다.
예를 들어, 일실시예에 따른 동공 중심간 거리 측정 장치(100)는 영상자극 표시 수단(110)와 거리 측정부(130) 만을 포함하는 구조로 구현될 수도 있다.
이때, 영상자극 표시 수단(110)는 영상의 특정 위치에 응시를 위한 오브젝트를 양쪽 눈 중에서 어느 한쪽 눈에만 표시할 수 있다.
한편, 거리 측정부(130)는 오브젝트를 트래킹 하는 상기 어느 한쪽 눈의 동공의 움직임과, 상기 어느 한쪽 눈의 동공의 움직임과 함께 공동운동(conjugate)하는 또 다른 한쪽 눈에 대한 동공의 움직임에 의해 발생되는 동공의 움직임을 기록하는 영상 정보에 기초하여 상기 양쪽 눈에 대한 동공 중심간 거리를 산출할 수 있다.
뿐만 아니라, 영상자극 표시 수단(110)는 상기 어느 한쪽 눈에 표시된 오브젝트를 상기 또 다른 한쪽 눈에서 표시하도록 제어할 수 있다. 이 경우, 위치 산출부(120)는 상기 오브젝트를 트래킹 하는 상기 한쪽 눈의 동공의 움직임과, 상기 동공의 움직임과 함께 공동운동(conjugate)하는 다른 한쪽 눈에 대한 동공의 움직임에 기초하여 상기 양쪽 눈 중에서 적어도 하나의 눈에 대한 위치 좌표를 산출할 수 있다.
한쪽 눈에 오브젝트를 표시하여 위치 산출부(120)는 상기 한쪽 눈에 대한 동공의 위치 좌표를 산출한 뒤, 상기 다른 한쪽 눈에서 상기 오브젝트를 표시하도록 제어하고, 상기 위치 산출부(120)에서 상기 다른 한쪽 눈에 대한 동공의 위치 좌표를 산출하고, 상기 산출된 서로 다른 두 개의 위치 좌표를 이용해서 상기 동공 중심간 거리를 산출할 수 있다.
일실시예에 따르면, 거리 측정부(130)는 좌, 우 각각 중심에서 길이를 이용하거나, 공동 운동을 이용한 좌표 간격을 이용해서 동공 중심간 거리를 산출할 수 있다.
즉, 거리 측정부(130)는 산출된 위치 좌표를 이용해서 상기 동공 중심간 거리를 산출하되, 상기 동공의 위치 좌표를 길이로 각각 환산하고, 상기 각각 환산된 길이를 이용해서 상기 동공 중심간 거리를 산출할 수 있다.
한편, 이 경우의 거리 측정부(130)는 산출된 위치 좌표의 차이에 기초하여 상기 동공의 간격을 산출하고, 상기 산출된 간격을 이용해서 상기 동공 중심간 거리를 산출할 수도 있다.
본 발명은 헤드 마운트형 디스플레이 기기에도 적용이 가능하다. 특히 VR기기에는 사용자의 움직임에 맞춰 적정 영상을 제공하기 위한 다양한 센서가 사용되고 있다. 최근에는 머리의 움직임뿐만 아니라 가상화면 내에서 사용자가 바라보는 위치 정보의 중요성이 부각되고 있다. 최근 사람의 시각인지특성을 기반으로 이미지 렌더링의 효율 및 연산속도를 높이고, VR멀미를 줄이기 위해 아이트래커가 중요 센서로써 사용되고 있다. 이러한 추세로 볼 때 아이트래커는 다른 센서와 같이 헤드 마운트형 디스플레이 기기에 기본으로 내장되는 필수센서가 될 것으로 예상되며, 이를 통해 본 발명은 추가적인 하드웨어 구성없이 적용될 수 있다.
한편, 본 발명은 동공 중심간 거리의 측정기로써 활용될 수도 있다. 앞서 언급한 것과 같이 현재의 동공 중심간 거리 측정은 본인 이외에 추가인원 및 수동조절이 필요하지만, 본 발명은 아이트래커가 내장된 헤드 마운트형 디스플레이 기기를 사용할 시, 새로운 측정장비의 구매 없이 혼자서 동공 중심간 거리를 측정할 수 있다.
도 2는 아이트래커가 내장된 헤드마운트기기와 이때 눈과 카메라 간 거리를 산출하는 실시예를 설명하는 도면이다.
도 2는 아이트래커가 내장된 헤드마운트기기 모습을 보여주는 예시이다. 도면부호 210에서 원형 렌즈(211)의 아래에는 아이트래커 카메라(212)가 배치될 수 있다.
한쌍의 아이트래커 카메라(212) 사이의 간격이나, 원형 렌즈(211)와 아이트래커 카메라(212) 사이의 간격은 기기 설계시 고정되는 값이며, IPD 산출을 위해 사용될 수 있다.
도면부호 220은 헤드마운트기기를 착용하는 사용자의 동공(눈)과 원형 렌즈(211), 아이트래커 카메라(212) 사이의 간격 및 위치 등을 나타낸다.
눈과 원형 렌즈(211) 사이의 간격은 사람에 따라 편차가 있을 수 있고, 위치 및 간격은 기기에 따라 달라질 수 있다.
도면부호 220에서 보는 눈과 아이트래커 카메라간 거리(Deye -camera)는 피타고라스의 정리에 의해 아래 [수학식 1]과 같이 산출될 수 있다.
[수학식 1]
Figure 112019012458093-pat00001
[수학식 1]에서 Deye -lens는 눈과 동공(눈)과 원형 렌즈(211)간 거리를 나타내고, Dcamera -lens는 아이트래커 카메라(212)와 원형 렌즈(211)간 거리를 나타낸다.
도 3은 동공에 오브젝트를 통해 자극을 하여 응시를 유도하는 실시예(300)를 설명하는 도면이다.
동공에 오브젝트를 통해 자극하기 위해 영상자극 표시 수단은 한쪽 눈 또는 양쪽 눈의 응시를 유도하기 위한 오브젝트(지표)가 있는 영상을 표시할 수 있다.
실시예(300)를 살펴보면, 도면부호 310와 같이, 단안 정적 자극을 위한 영상 표시의 실시예로서, 영상자극 표시 수단은 한쪽 눈 화면(단안 자극)에만 움직이지 않는 오브젝트를 표시할 수 있다.
또한, 도면부호 320와 같이, 양안 정적 자극을 위한 영상 표시의 실시예로서, 영상자극 표시 수단은 양쪽 눈 화면(양안 자극)에 움직이지 않는 오브젝트를 표시할 수 있다.
한편, 영상자극 표시 수단은 움직이는 오브젝트를 표시하여 동공을 자극할 수 있다.
구체적으로, 영상자극 표시 수단은 도면부호 330와 같이, 단안 동적 자극을 위한 영상 표시의 실시예로서, 한쪽 눈 화면(단안 자극)에만 화면의 가로 해상도를 기준으로 좌에서 우 방향으로 움직이는 오브젝트를 표시할 수 있다.
또한, 영상자극 표시 수단은 도면부호 340와 같이, 양안 동적 자극을 위한 영상 표시의 실시예로서, 양쪽 눈 화면(양안 자극)에 움직이는 오브젝트를 표시할 수 있다.
한편, 영상자극 표시 수단은 도면부호 350와 같이, 무자극을 위한 Black 영상을 표시하고, 정면 화면을 응시하도록 유도할 수 있다.
도 4는 일실시예에 따른 아이트래커 영상에서 실제 길이로 변환하는 실시예(400)를 설명하는 도면이다.
도 4는 아이트래커 영상(412)에서 실제의 가로 길이를 산출하는 방법을 나타낸 것이다.
구체적으로, 실시예(400)에 따르면 아래 [수학식 2]에 기초하여 영상(412)에서 실제의 가로 길이(Dhor)를 산출할 수 있다.
[수학식 2]
Figure 112019012458093-pat00002
Dimage는 실제의 가로 길이(Dhor) 중에서 왼쪽 눈 또는 오른쪽 눈으로부터 측정 가능한 실제의 가로 길이를 나타낸다. 즉, 실제의 가로 길이(Dhor)의 절반의 값(413 또는 414)으로 해석될 수 있다.
한편, Deye -camera는 눈과 아이트래커 카메라(411) 간 거리를 나타내고, FOV는 아이트래커 카메라(411)의 화각(FOV)을 나타낼 수 있다.
즉, [수학식 2]에 기초하여 눈과 아이트래커 카메라(411) 사이의 간격(Deye -camera) 및 카메라의 FOV(field of view) 수치를 통해 이미지 가로의 절반(Dimage)에 해당하는 길이를 얻을 수 있다.
또한 해당 값을 아이트래커 카메라의 가로 해상도의 절반에 해당하는 값으로 나눠주면, 픽셀 당 실제길이를 알 수 얻을 수 있다.
도 5는 일실시예에 따른 위치 좌표를 길이로 환산하는 실시예를 설명하는 도면이다.
도 5의 도면부호 510은 응시를 위한 지표가 표시된 영상을 나타낸다. 중앙의 점선은 화면의 중심위치를 나타낸다. 중심위치는 양안의 화면이 하나의 디스플레이로 표현되는 경우 디스플레이의 가로방향 중심을 나타내며, 개별의 디스플레이로 표현되는 경우 각 디스플레이 중앙 위치의 중심이 될 수 있다.
지표는 사용자의 응시를 유도할 수 있는 화면상의 표현되는 것을 나타내며, X, + 등의 다양한 모양이 사용될 수 있다. 지표의 위치 및 간격 등은 가로 방향을 기준으로 측정되며, dL과 dR을 같거나 다르게 설정할 수 있다. 지표가 표시되는 화면은 한쪽 눈의 화면 또는 양쪽 눈의 화면 모두가 될 수 있다.
도면부호 510를 예로 살펴보면, 두 카메라의 중앙에서 좌우 32mm씩 떨어져 있는 두 물체는 x좌표 320에 해당하는 중심위치(511)와, x좌표 960에 해당하는 중심위치(512)에 표시될 수 있다.
중심위치(511)와 중심위치(512)에 의한 좌우 영상의 좌표차이는 640pixel로서 64mm에 해당한다. 단, 한 이미지 내의 640pixel과 64mm는 무관하다.
한편, 도면부호 520을 살펴보면, 두 물체(a, b)의 x 좌표는 각각 Pa, Pb로서 산출한 단위 픽셀당 길이를 이용하여 두 물체 사이의 간격을 계산할 수 있다.
이를 위해서는, 단위 픽셀당 길이인 U mm/pixel와 두 물체(a, b)의 x 좌표인 Pa, Pb가 필요하다.
먼저, a, b의 간격, a의 위치, 그리고 b의 위치는 다음의 [수학식 3]을 통해 산출이 가능하다.
[수학식 3]
Figure 112019012458093-pat00003
Figure 112019012458093-pat00004
Figure 112019012458093-pat00005
[수학식 3]에서 Pa, Pb는 두 물체(a, b)의 x 좌표로 해석될 수 있다. 또한, U는 단위 픽셀당 길이로서, 영상의 가로 픽셀을 해상도로 나눈 값을 해석될 수 있다.
본 발명의 일실시예에 따른 동공 중심간 거리 측정 장치는 동공 중심간 거리를 측정하기 위해 두 눈의 개별 위치를 계산하여 합산하거나, 양쪽 눈에 대한 동공의 위치 좌표를 계산하여 산출할 수 있다.
먼저, 도 6은 일실시예에 따른 두 눈의 개별 위치를 계산하는 실시예(600)를 설명하는 도면이다. 구체적으로 실시예(600)는 한쪽 눈 또는 양쪽 눈에 물체가 있는 화면을 보여줬을 때, 눈의 모습을 보여준다.
D는 눈(동공)의 위치와 화면 상의 오브젝트까지의 거리를 나타낸다. 또한, 렌즈가 없을 시 D는 디스플레이와 눈 사이의 간격이 되며, VR용 렌즈가 있을 시 가상의 응시점이 맺히는 위치까지의 거리로 해석될 수 있다.
기준은 일반적으로 두 VR 화면의 중앙이 될 수 있다. d는 화면의 기준에서 물체(613, 응시점)까지의 간격으로서, 측정하는 값이 아닌 설정된 값이다.
또한, 동공의 위치인 A는 측정되는 값으로서 기준으로부터 동공의 중심(611)까지의 거리이다. 안구(612)의 회선중심-각막 간격은 안구(612)의 반지름으로서, 문헌상 평균값은 13.5mm이다.
안구(612)의 회선중심-각막 간격은 문헌상 평균값을 이용하지 않고 서로 다른 위치의 응시점에 대한 동공의 움직임을 기록하는 영상 정보를 통해 직접 산출할 수도 있다.
본 발명의 일실시예에 따른 동공 중심간 거리 측정 장치는 동공 중심간 거리를 측정하기 위해 두 눈의 개별 위치를 계산하되, 이때 좌안 및 우안 각각의 위치를 얻은 뒤 합산을 통해 동공 중심간 거리를 산출할 수 있다.
우안을 예를 들어 살펴보면, 우안의 동공의 중심 위치는 동공의 위치(좌표가 아닌 길이 값)와 안구의 회선중심에서 각막까지의 거리(문헌값 평균 13.5mm), 동공이 응시점(613)을 바라보는 각도(
Figure 112019012458093-pat00006
)를 이용해서 산출할 수 있다.
[수학식 4]
Figure 112019012458093-pat00007
[수학식 4]를 살펴보면, A는 동공 위치로서, 좌표가 아닌 기준으로부터의 길이 값으로 해석될 수 있고, r은 안구의 회선중심에서 각막까지의 거리로 해석될 수 있다.
우안의 동공의 중심 위치는 우안의 동공 위치에, 안구의 회선중심에서 각막까지의 거리에 sin(
Figure 112019012458093-pat00008
)를 곱한 값을 합산하여 산출할 수 있다.
특히, 거리 측정부는 환산한 길이인 우안의 동공 위치와, 동공의 회선중심에서 각막까지의 길이에 동공이 응시하는 오브젝트 내의 응시점을 향하는 각도를 고려한 비율을 곱한 값을 합산하여 우안의 동공 중심간 거리를 산출할 수 있다.
좌안의 경우, 상술한 우안의 동공 중심간 거리와 동일한 방법으로 산출할 수 있다.
[수학식 4]는 Arctangent, Sine 함수를 활용하여 동공 중심간 거리를 산출하나, [수학식 5]는 [수학식 4]에 사용된 Arctangent, Sine 함수를 테일러 급수로 변환하여 sin(
Figure 112019012458093-pat00009
) 값을 수식적으로 근사하여 동공 중심간 거리를 산출할 수 있다.
[수학식 5]
Figure 112019012458093-pat00010
[수학식 5]를 살펴보면, A는 동공 위치로서, 좌표가 아닌 기준으로부터의 길이 값으로 해석될 수 있고, r은 안구의 회선중심에서 각막까지의 거리로 해석될 수 있다.
우안의 동공의 중심 위치는 우안의 동공 위치에, 안구의 회선중심에서 각막까지의 거리에
Figure 112019012458093-pat00011
를 곱한 값을 합산하여 산출할 수 있다.
[수학식 5]는 D > d (
Figure 112019012458093-pat00012
Figure 112019012458093-pat00013
)의 조건에 한하여 근사에 의한 오차율이 1% 이하이며, 해당 실험에 사용된 D는 30cm, d는 1~5cm이다.
거리 측정부는 측정된 동공의 위치 좌표를 길이로 환산하여 A의 값 계산할 수 있다. 또한, 설계수치에 해당하는 d, D, r 값과 측정된 동공의 위치 A 값을 토대로 눈의 위치 X를 계산할 수 있고, 좌, 우 각각의 눈에 대한 위치(Xleft, Xright)를 구한 뒤, 두 값을 합산하여 동공 중심간 거리(IPD)를 산출할 수 있다.
도 7은 일실시예에 따른 눈의 공동운동(conjugate eye movement)에 기초하여 양쪽 눈의 동공의 위치 좌표를 계산하는 실시예(710)를 설명하는 도면이다.
도 7은 한쪽 눈에만 물체가 있는 화면을 보여주었을 때의 눈의 방향 및 동공 중심간 거리를 나타낸다. 두 눈의 움직임의 크기와 방향이 모두 같은 경우를 공동운동(conjugate)이라 한다. 이를 근거로 한쪽 눈에만 표시가 보일 때, 반대쪽 눈도 같은 크기와 방향으로 이동하게 되므로 두 눈의 좌표간 차이와 픽셀 당 실제길이 값을 통해 동공 중심간 거리를 산출할 수 있다.
좌우 눈의 움직임에는 강한 연관성이 있어 두 눈의 움직임의 크기와 방향이 모두 같은 경우가 대부분이다.
도면부호 712과 같이, 왼쪽 화면 상에 단안 자극을 주었을 때 해당 눈이 자극을 따라 움직이는 크기와 동일하게 반대쪽(오른쪽) 눈이 움직인다면, 아래 [수학식 6]을 통해 좌, 우 아이트래킹 위치 좌표의 간격(711)만으로 쉽게 IPD 산출이 가능하다.
[수학식 6]
Figure 112019012458093-pat00014
[수학식 6]에서 Pleft, Pright는 각각 좌, 우 동공 좌표로 해석될 수 있다. 또한, U (mm/pixel)는 단위 픽셀당 길이로 해석될 수 있고, 64mm는 아이트래커 카메라(212) 사이의 거리로 해석될 수 있다.
도면부호 720은 왼쪽눈을 통해 응시점(712)을 응시하는 과정에서 좌우 동공의 중심 좌표가 Pleft, Pright로 이동해 있는 모습을 나타낸다.
도 8은 일실시예에 따른 동공 중심간 거리 측정 장치가 두 눈의 개별 위치 계산을 통해 동공 중심간 거리를 산출하는 실시예(800)를 설명하는 도면이다.
도면부호 811은 왼쪽 눈(812)이 바라보는 응시점이고, 도면부호 821은 오른쪽 눈(822)이 바라보는 응시점이다. 또한, 도면부호 813은 왼쪽 눈의 동공 중심이고, 도면부호 823은 오른쪽 눈의 동공 중심으로서 왼쪽 눈의 동공 중심과 오른쪽 눈의 동공 중심은 동공 중심간 거리를 산출하는데 기준이 된다.
VR기기를 잘못 착용하여 기기와 얼굴의 중앙이 일치하지 않더라도 두 눈의 개별 위치 계산을 통한 동공 중심간 거리의 산출이 가능해야 한다.
화면(또는 VR기기)과 얼굴의 중앙이 일치하지 않아 중심간 차이가 △일 때, 양 화면(왼쪽 눈이 바라보는 화면과 오른쪽 눈이 바라보는 화면)에서 오브젝트의 위치는 방향에 따라 ±△만큼 치우쳐지게 된다.
일실시예에 따른 동공 중심간 거리 측정 장치는 [수학식 5]에서 설명한 바와 같이 테일러 급수를 활용하여
Figure 112019012458093-pat00015
값을 수식적으로 근사하여 동공 중심간 거리를 산출할 수 있다.
즉, 일실시예에 따른 동공 중심간 거리 측정 장치는 왼쪽 눈으로부터 동공 중심까지의 거리(L)와 오른쪽 눈으로부터 동공 중심까지의 거리(R)를 [수학식 7]에 의해서 산출할 수 있다.
[수학식 7]
Figure 112019012458093-pat00016
Figure 112019012458093-pat00017
[수학식 7]에서 AL과 AR은 동공 위치이고, D는 디스플레이와 눈 사이의 간격이며, VR용 렌즈가 있을 시 가상의 응시점이 맺히는 위치까지의 거리이다.,, 또한, r은 안구의 회선중심에서 각막까지의 거리이고, d는 화면의 기준에서 물체(응시점)까지의 간격으로 해석될 수 있다. 또한, △는 화면(또는 VR기기)과 얼굴의 중앙이 일치하지 않아 발생한 중심간 차이로 해석될 수 있다.
[수학식 8]
Figure 112019012458093-pat00018
[수학식 7]을 통해 산출한 왼쪽 눈으로부터 동공 중심까지의 거리(L)와 오른쪽 눈으로부터 동공 중심까지의 거리(R)를 기반으로 [수학식 8]에서는 동공 중심간 거리(IPD)를 산출할 수 있다.
[수학식 8]에서 보는 바와 같이, 동공 중심간 거리(IPD)에 있어, 눈의 개별 위치에는 차이가 발생할 수 있으나, IPD로 합산하는 과정에서 △의 영향 사라진다.
도 9는 일실시예에 따른 동공 중심간 거리 측정 장치가 안구의 회선중심에서 각막까지의 길이를 산출하는 실시예(900)를 설명하는 도면이다.
눈의 회선중심에서 각막까지의 길이(r)는 문헌값 평균 13.5mm을 사용할 수 있다.
그러나, 일실시예에 따른 동공 중심간 거리 측정 장치는 서로 다른 위치의 지표 대한 시선좌표 데이터를 통해 눈의 회선중심에서 각막까지의 길이를 수식적으로 계산할 수 있다.
도 9는 안구의 회선중심-각막 거리(r)를 산출하는 방법을 나타내는 그림이다.
도면부호 911은 동공의 중심이 914의 위치에서 바라보는 응시점에 해당하고, 도면부호 912는 동공의 중심이 913의 위치에서 바라보는 응시점에 해당한다. 또한, d1은 화면의 중심에서부터 응시점(911)까지의 거리이고, d2는 화면의 중심에서부터 응시점(912)까지의 거리이다. 한편, A1은 화면의 중심에서부터 동공의 중심(914)까지의 거리를 나타내고, A2는 화면의 중심에서부터 동공의 중심(913)까지의 거리를 나타낸다.
도 9를 살펴보면, 수평 방향으로 서로 다른 거리(d1, d2)에 배치된 지표에 대한 각각의 동공의 움직임을 기록하는 영상 정보 A1, A2와 눈과 오브젝트까지의 거리 D를 바탕으로 아래 수식을 통해 r 값을 산출할 수 있다.
일실시예에 따른 동공 중심간 거리 측정 장치는 [수학식 5]에서 설명한 바와 같이 테일러 급수를 활용하여
Figure 112019012458093-pat00019
값을 수식적으로 근사하는 원리에 기초하여 [수학식 9]를 통해 응시점(911)을 바라볼 때의 눈의 위치(Xd1)와 응시점(912)을 바라볼 때의 눈의 위치(Xd2)를 계산할 수 있다.
[수학식 9]
Figure 112019012458093-pat00020
Figure 112019012458093-pat00021
[수학식 9]에서 A1은 응시점(911)을 바라볼 때의 화면 중심으로부터 동공 중심간 거리이고, A2는 응시점(912)을 바라볼 때의 화면 중심으로부터 동공 중심간 거리이며, D는 디스플레이와 눈 사이의 간격이며, VR용 렌즈가 있을 시 가상의 응시점이 맺히는 위치까지의 거리를 나타낸다. r은 응시점(911, 912)을 바라볼 때의 안구의 회선중심에서 각막까지의 거리이다.
결국, 응시점(911)을 바라볼 때의 눈의 위치(Xd1)와 응시점(912)을 바라볼 때의 눈의 위치(Xd2)는 동일해야 하므로, [수학식 9]로부터 아래 [수학식 10]이 성립될 수 있다.
[수학식 10]
Figure 112019012458093-pat00022
[수학식 10]을 r에 대해서 정리하여 간략화하면 아래 [수학식 11]로 정리될 수 있다.
[수학식 11]
Figure 112019012458093-pat00023
만약,
Figure 112019012458093-pat00024
인 경우를 만족한다면, [수학식 11]은 [수학식 12]로 보다 간략화될 수 있다.
[수학식 12]
Figure 112019012458093-pat00025
이때,
Figure 112019012458093-pat00026
Figure 112019012458093-pat00027
에 비해서 10배 이상의 커야 간략화된 결과에 대한 오차가 허용 가능한 수준일 수 있다.도 10은 일실시예에 따른 두 눈의 공동운동(conjugate eye movement)에 기초하여 동공의 위치 좌표를 계산하는 동공 중심간 거리 측정 방법을 설명하는 도면이다.
즉, 도 10은 왼쪽 눈(좌안) 또는 오른쪽 눈(우안)의 화면만 표시한 조건에서 두 눈의 좌표 간격을 토대로 동공 중심간 거리를 산출하는 방법을 설명한다.
먼저, 일실시예에 따른 동공 중심간 거리 측정 방법은 영상자극 표시 수단을 이용해서 좌안이나 우안 중에서 어느 한곳에 오브젝트가 있는 화면을 표시할 수 있다(단계 1001).
다음으로, 일실시예에 따른 동공 중심간 거리 측정 방법은 아이트래커로부터 좌안과 우안에 대한 좌표를 수집할 수 있다(단계 1002).
이후, 일실시예에 따른 동공 중심간 거리 측정 방법은 수집된 좌안과 우안에 대한 좌표를 이용해서, 기 저장된 값에 근거하여 두 눈의 좌표 간격을 길이로 환산할 수 있다.
이때 활용하는 기 저장된 값은 눈의 회선중심에서부터 동공의 중심간 거리로서 문헌 등에서 널리 사용되는 수치가 적용될 수 있다.
일실시예에 따른 동공 중심간 거리 측정 방법은 동공 중심간 거리를 산출하기 위해, 동공과 카메라 사이의 거리와 상기 카메라의 화각(FOV, field of view)을 이용하여 상기 영상의 가로방향 길이를 산출할 수 있다.
예를 들어, 상기 영상의 가로방향 길이에 대한 영상의 해상도의 비율에 기초하여 단위 픽셀당 길이를 산출하고, 위치 좌표의 차이에 상기 영상에 대한 단위 픽셀당 길이를 반영해서 동공 중심간 거리를 산출할 수 있다.
다음으로, 일실시예에 따른 동공 중심간 거리 측정 방법은 두 눈의 위치(길이) 값을 기반으로 동공 중심간 거리(IPD)를 산출할 수 있다.
일실시예에 따른 동공 중심간 거리 측정 방법은 한 쪽 눈에만 자극을 준 뒤, 순차적으로 반대편 눈에 자극을 주는 방식으로 IPD를 산출할 수도 있다.
이를 위해, 일실시예에 따른 동공 중심간 거리 측정 방법은 상기 한쪽 눈에 표시된 오브젝트를 상기 다른 한쪽 눈에서 표시하도록 제어하고, 상기 오브젝트를 트래킹 하는 다른 한쪽 눈의 동공의 움직임과, 상기 다른 한쪽 눈의 동공의 움직임과 함께 공동운동(conjugate)하는 동공의 움직임에 의해 발생되는 동공의 움직임을 기록하는 영상 정보를 수집하여 상기 동공의 중심 각각에 대한 서로 다른 두 개의 위치 좌표를 산출할 수 있다.
또한, 일실시예에 따른 동공 중심간 거리 측정 방법은 동일한 눈의 화면에서 오브젝트의 정지 위치에 변화를 주거나 움직이도록 하는 등의 다양한 방법이 적용될 수도 있다.
이를 위해, 일실시예에 따른 동공 중심간 거리 측정 방법은 영상의 특정 위치에 응시를 위한 오브젝트를 한쪽 눈에만 표시 하고, 상기 한쪽 눈에 표시된 오브젝트의 움직임 또는 위치 중에서 적어도 하나를 제어할 수 있다.
이 경우, 일실시예에 따른 동공 중심간 거리 측정 방법은 상기 오브젝트를 트래킹 하는 상기 한쪽 눈의 동공의 움직임과, 상기 동공의 움직임과 함께 공동운동(conjugate)하는 동공의 움직임에 의해 발생되는 동공의 움직임을 기록하는 영상 정보를 수집하여 상기 동공의 중심 각각에 대한 서로 다른 두 개의 위치 좌표를 산출할 수 있다.
도 11은 일실시예에 따른 두 눈의 개별 위치를 계산하여 동공의 위치 좌표를 계산하는 동공 중심간 거리 측정 방법을 설명하는 도면이다.
도 11은 좌안 또는 우안의 화면만 표시한 조건에서 각 눈의 위치좌표를 토대로 동공 중심간 거리를 산출하는 방법에 관한 플로우차트를 나타낸다.
먼저, 일실시예에 따른 동공 중심간 거리 측정 방법은 영상자극 표시 수단을 이용해서 좌안이나 우안 중에서 어느 한곳에 오브젝트가 있는 화면을 표시하고(단계 1101), 아이트래커로부터 좌안과 우안에 대한 좌표를 수집할 수 있다(단계 1102).
일실시예에 따른 동공 중심간 거리 측정 방법은 회선중심에서 각막까지의 길이(r) 값을 기본값으로 사용할 것인지를 판단할 수 있다(1103).
만약, 회선중심에서 각막까지의 길이(r) 값을 기본값으로 사용할 경우 문헌 등에서 널리 이용되는 회선중심에서 각막까지의 길이 수치를 사용할 수 있다. 이 경우 일실시예에 따른 동공 중심간 거리 측정 방법은 기 저장된 값과 수집된 시선좌표 값에 근거해 기준점에서 안구 중심까지의 간격(X) 값을 길이로 환산하고(단계 1104), 계산된 길이 값에 근거하여 동공 중심간 거리를 산출할 수 있다(단계 1105).
한편, 일실시예에 따른 동공 중심간 거리 측정 방법은 회선중심에서 각막까지의 길이(r) 값을 기본값으로 사용하지 않을 수 있다. 이 경우에 일실시예에 따른 동공 중심간 거리 측정 방법은 회선중심에서 각막까지의 길이(r) 값을 직접 산출할 수 있다.
보다 구체적으로, 일실시예에 따른 동공 중심간 거리 측정 방법은 단계 1103의 판단 결과, 회선중심에서 각막까지의 길이(r) 값을 기본값으로 사용하지 않는다고 판단할 수 있다.
이 경우, 일실시예에 따른 동공 중심간 거리 측정 방법은 각 눈 별로 서로 다른 오브젝트 위치에 대한 시선 좌표를 수집하였는지 여부를 판단할 수 있다(단계 1106). 단계 1106의 판단 결과, 각 눈 별로 서로 다른 오브젝트 위치에 대한 시선 좌표를 수집하지 않았다면 회선중심에서 각막까지의 길이를 산출할 수 없다. 즉, 일실시예에 따른 동공 중심간 거리 측정 방법은 오브젝트의 가로방향 위치가 달라지도록 영상자극 표시 수단을 설정하고(단계 1107), 단계 1101로 분기할 수 있다.
단계 1106의 판단 결과, 각 눈 별로 서로 다른 오브젝트 위치에 대한 시선 좌표를 수집하였다면 회선중심에서 각막까지의 길이를 산출할 수 있다. 이를 위해, 일실시예에 따른 동공 중심간 거리 측정 방법은 기 저장된 값과 수집된 시선좌표 값에 근거해 회선중심에서 각막까지의 길이(r) 값을 산출할 수 있다(단계 1108). 또한, 일실시예에 따른 동공 중심간 거리 측정 방법은 두 눈의 위치를 모두 수집했는지 여부를 판단하고(단계 1109), 판단 결과 모두 수집했다면 단계 1104로 분기하여 간격(X) 값을 길이로 환산하는 과정을 수행할 수 있다.
단계 1109의 판단 결과, 두 눈의 위치를 모두 얻지 못했다면, 일실시예에 따른 동공 중심간 거리 측정 방법은 이전과 다른 쪽의 화면에 오브젝트가 표시되도록 영상자극 표시 수단을 설정하고(단계 1110), 단계 1101로 분기할 수 있다.
도 12는 다른 일실시예에 따른 두 눈의 개별 위치를 계산하여 동공의 위치 좌표를 계산하는 동공 중심간 거리 측정 방법을 설명하는 도면이다.
도 12는 양안의 화면 모두 오브젝트를 표시하는 조건에서 각 눈의 위치좌표를 토대로 동공 중심간 거리를 산출하는 방법에 관한 플로우차트를 나타낸다.
먼저, 일실시예에 따른 동공 중심간 거리 측정 방법은 영상자극 표시 수단을 이용해서 좌안과 우안이 모두 수렴할 수 있도록 양쪽의 화면(좌안 화면 및 우안 화면)에 오브젝트가 있는 화면을 표시하고(단계 1201), 아이트래커로부터 좌안과 우안에 대한 좌표를 수집할 수 있다(단계 1202).
또한, 일실시예에 따른 동공 중심간 거리 측정 방법은 회선중심에서 각막까지의 길이(r) 값을 기본값으로 사용할 것인지를 판단할 수 있다(1203).
만약, 회선중심에서 각막까지의 길이(r) 값을 기본값으로 사용할 경우 문헌 등에서 널리 이용되는 회선중심에서 각막까지의 길이 수치를 사용할 수 있다. 이 경우 일실시예에 따른 동공 중심간 거리 측정 방법은 기 저장된 값과 수집된 시선좌표 값에 근거해 기준점에서 안구 중심까지의 간격(X) 값을 길이로 환산하고(단계 1204), 계산된 길이 값에 근거하여 동공 중심간 거리를 산출할 수 있다(단계 1205).
한편, 일실시예에 따른 동공 중심간 거리 측정 방법은 회선중심에서 각막까지의 길이(r) 값을 기본값으로 사용하지 않을 수 있다. 이 경우에 일실시예에 따른 동공 중심간 거리 측정 방법은 회선중심에서 각막까지의 길이(r) 값을 직접 산출할 수 있다. 일실시예에 따른 동공 중심간 거리 측정 방법은 단계 1203의 판단 결과, 회선중심에서 각막까지의 길이(r) 값을 기본값으로 사용하지 않는다고 판단할 수 있다.
이 경우, 일실시예에 따른 동공 중심간 거리 측정 방법은 각 눈에 대해서 서로 다른 오브젝트 위치에 대한 시선 좌표를 수집하였는지 여부를 판단할 수 있다(단계 1206). 단계 1206의 판단 결과, 각 눈 별로 서로 다른 오브젝트 위치에 대한 시선 좌표를 수집하지 않았다면 회선중심에서 각막까지의 길이를 산출할 수 없다. 즉, 일실시예에 따른 동공 중심간 거리 측정 방법은 오브젝트의 가로방향 위치가 달라지도록 영상자극 표시 수단을 설정하고(단계 1208), 단계 1201로 분기할 수 있다.
단계 1206의 판단 결과, 각 눈 별로 서로 다른 오브젝트 위치에 대한 시선 좌표를 수집하였다면 회선중심에서 각막까지의 길이를 산출할 수 있다. 이를 위해, 일실시예에 따른 동공 중심간 거리 측정 방법은 기 저장된 값과 수집된 시선좌표 값에 근거해 회선중심에서 각막까지의 길이(r) 값을 산출하고(단계 1207), 단계 1204와 1205를 통해 산출된 회선중심에서 각막까지의 길이(r) 값에 기초하여 동공 중심간 거리를 산출할 수 있다
본 발명을 이용하면, 사용자의 눈에 맞춰 화면을 구성한다면 VR기기 사용자 모두 제작자가 의도한 깊이감을 느껴 몰입감을 극대화 할 수 있다. 또한 IPD가 남성 평균과 차이가 크더라도 VR체험을 할 수 있게 되므로, 현재보다 더 폭넓은 사용자를 확보할 수 있게 된다. 결과적으로 본 발명을 이용하는 경우, VR기기의 보편화 및 대중화에 긍정적인 효과가 있을 것으로 기대된다.
또한, 앞서 언급한 것과 같이 근래 헤드 마운트형 디스플레이 기기는 시각적 몰입감을 향상시키고, 영상의 렌더링 효율을 높이기 위해 아이트래커를 내장하는 방향으로 나아가고 있다. 본 발명은 추가적인 비용 없이 상기 헤드 마운트형 디스플레이 기기들에 쉽게 적용 및 활용이 가능하다는 장점이 있다.
또한, 본 발명은 VR, AR환경에서 입체감, 몰입도 향상 등의 효과가 있다. 또한 IPD차이가 커 기존 VR기기 사용시 상이 맺히지 않아 사용이 어려웠던 사람들도 VR 사용이 가능하여 사용자 풀을 확장하는데 도움이 된다. 때문에 본 기술은 미래 잠재력이 큰 기술로 기대된다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (26)

  1. 영상의 특정 위치에 응시를 위한 오브젝트를 표시 하는 영상자극 표시 수단;
    상기 오브젝트를 응시하는 동공의 움직임을 기록하는 영상 정보를 수집하여 상기 동공의 중심에 대한 위치 좌표를 산출하는 위치 산출부; 및
    상기 산출된 위치 좌표를 이용해서 사용자 별 안구의 회선중심을 기준으로 하는 동공 중심간 거리(IPD)를 산출하되, 상기 동공의 위치 좌표를 상기 영상이 표시된 화면의 중심에서부터 상기 동공의 중심까지의 길이로 각각 환산하고, 상기 각각 환산된 길이에 상기 사용자 별 안구의 회선중심에서부터 각막까지의 길이를 반영하여, 상기 동공 중심간 거리(IPD)를 산출하는 거리 측정부
    를 포함하는 동공 중심간 거리 측정 장치.
  2. 삭제
  3. 제1항에 있어서,
    상기 거리 측정부는,
    상기 환산한 길이와, 상기 동공의 회선중심에서 각막까지의 길이에 상기 동공이 응시하는 상기 오브젝트 내의 응시점을 향하는 각도를 고려한 비율을 곱한 값을 합산하여 상기 동공 중심간 거리를 산출하는 동공 중심간 거리 측정 장치.
  4. 제1항에 있어서,
    상기 거리 측정부는,
    상기 환산한 길이에 눈과 오브젝트 사이의 거리 및 상기 회선중심에서 각막까지의 길이를 반영한 값과, 상기 회선중심에서 각막까지의 길이에 상기 영상이 표시된 화면 중앙에서 오브젝트 내의 응시점까지의 거리를 반영한 값의 차이를 이용해서 상기 동공 중심간 거리를 산출하는 동공 중심간 거리 측정 장치.
  5. 삭제
  6. 제1항에 있어서,
    상기 거리 측정부는,
    상기 영상 내 서로 다른 응시점에 대한 동공의 시선좌표, 상기 영상의 중심으로부터 상기 서로 다른 응시점까지의 거리, 상기 영상의 중심으로부터 상기 시선좌표를 기준으로 상기 화면의 중심에서부터 상기 동공의 중심까지의 길이, 상기 동공의 중심과 오브젝트 사이의 거리를 이용해서 상기 회선중심에서 각막까지의 길이를 산출하는 동공 중심간 거리 측정 장치.
  7. 제1항에 있어서,
    상기 거리 측정부는,
    상기 위치 좌표의 차이에 상기 영상에 대한 단위 픽셀당 길이를 반영해서 상기 동공 중심간 거리를 산출하는 동공 중심간 거리 측정 장치.
  8. 제7항에 있어서,
    상기 거리 측정부는,
    상기 영상의 가로방향 길이에 대한 상기 영상의 해상도의 비율에 기초하여 상기 단위 픽셀당 길이를 산출하는 동공 중심간 거리 측정 장치.
  9. 제7항에 있어서,
    상기 거리 측정부는,
    상기 동공과 카메라 사이의 거리와 상기 카메라의 화각(FOV, field of view)을 이용하여 상기 영상의 가로방향 길이를 산출하는 동공 중심간 거리 측정 장치.
  10. 제1항에 있어서,
    상기 영상자극 표시 수단은,
    무자극, 단안 정적 자극, 양안 정적 자극, 단안 동적 자극, 및 양안 동적 자극 중에서 적어도 하나의 자극 방식으로 상기 오브젝트를 표시 하는 동공 중심간 거리 측정 장치.
  11. 제1항에 있어서,
    상기 오브젝트를 응시하는 동공의 움직임을 추적하여 동공의 움직임을 기록하는 영상 정보를 생성하는 아이트래커
    를 더 포함하는 동공 중심간 거리 측정 장치.
  12. 삭제
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 영상의 특정 위치에 응시를 위한 오브젝트를 양쪽 눈 중에서 어느 한쪽 눈에만 표시 하는 영상자극 표시 수단; 및
    상기 오브젝트를 응시하는 상기 한쪽 눈의 동공의 움직임과, 상기 동공의 움직임과 함께 공동운동(conjugate)하는 다른 한쪽 눈에 대한 동공의 움직임에 기초하여 상기 한 쪽 동공 중심에 대한 위치 좌표를 산출하는 위치 산출부; 를 포함하되,
    상기 위치 산출부는,
    상기 한 쪽 동공 중심에 대한 위치 좌표를 산출한 뒤,
    상기 다른 한쪽 눈에서 상기 오브젝트와 다른 위치에 배치된 오브젝트를 표시하도록 제어하여, 상기 다른 한쪽 동공 중심에 대한 동공의 위치 좌표를 산출하고,
    상기 산출된 서로 다른 두 개의 동공 중심 위치 좌표를 이용해서 사용자 별 안구의 회선중심을 기준으로 하는 동공 중심간 거리(IPD)를 산출하며,
    상기 서로 다른 두 개의 위치 좌표는,
    상기 영상이 표시되는 화면의 중심이 서로 같거나 다른 상태를 기준으로 산출되는,
    를 포함하는 동공 위치 측정 장치.
  18. 제17항에 있어서,
    상기 영상자극 표시 수단은,
    상기 한쪽 눈에 표시된 오브젝트의 움직임 또는 위치 중에서 적어도 하나를 제어하는 동공 위치 측정 장치.
  19. 삭제
  20. 영상의 특정 위치에 응시를 위한 오브젝트를 표시 하는 단계;
    상기 오브젝트를 트래킹 하는 동공의 움직임을 기록하는 영상 정보를 수집하여 상기 동공의 중심에 대한 위치 좌표를 산출하는 단계;
    상기 동공의 위치 좌표를 상기 영상이 표시된 화면의 중심에서부터 상기 동공의 중심까지의 길이로 각각 환산하는 단계; 및
    상기 환산한 길이에 사용자 별 안구의 회선중심에서부터 각막까지의 길이를 반영하여 상기 사용자 별 안구의 회선중심을 기준으로 하는 동공 중심간 거리(IPD)를 산출하는 단계
    를 포함하는 동공 중심간 거리 측정 방법.
  21. 삭제
  22. 제20항에 있어서,
    상기 회선중심에서 각막까지의 길이를 반영하여 상기 동공 중심간 거리를 산출하는 단계는,
    상기 영상 내 서로 다른 응시점에 대한 동공의 시선좌표, 상기 영상의 중심으로부터 상기 서로 다른 응시점까지의 거리, 상기 영상의 중심으로부터 상기 시선좌표의 길이, 상기 동공의 중심과 오브젝트 사이의 거리를 이용해서 상기 안구의 회선중심에서 각막까지의 길이를 산출하는 단계
    를 포함하는 동공 중심간 거리 측정 방법.
  23. 제20항에 있어서,
    상기 동공 중심간 거리를 산출하는 단계는,
    상기 동공과 카메라 사이의 거리와 상기 카메라의 화각(FOV, field of view)을 이용하여 상기 영상의 가로방향 길이를 산출하는 단계
    상기 가로방향 길이에 대한 상기 영상의 해상도의 비율에 기초하여 단위 픽셀당 길이를 산출하는 단계; 및
    상기 위치 좌표의 차이에 상기 영상에 대한 단위 픽셀당 길이를 반영해서 상기 동공 중심간 거리를 산출하는 단계
    를 포함하는 동공 중심간 거리 측정 방법.
  24. 삭제
  25. 삭제
  26. 삭제
KR1020190014139A 2019-02-01 2019-02-01 동공 중심간 거리를 측정하는 장치 및 방법 KR102184972B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190014139A KR102184972B1 (ko) 2019-02-01 2019-02-01 동공 중심간 거리를 측정하는 장치 및 방법
PCT/KR2019/018006 WO2020159077A1 (ko) 2019-02-01 2019-12-18 동공 중심간 거리를 측정하는 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190014139A KR102184972B1 (ko) 2019-02-01 2019-02-01 동공 중심간 거리를 측정하는 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20200096002A KR20200096002A (ko) 2020-08-11
KR102184972B1 true KR102184972B1 (ko) 2020-12-01

Family

ID=71841199

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190014139A KR102184972B1 (ko) 2019-02-01 2019-02-01 동공 중심간 거리를 측정하는 장치 및 방법

Country Status (2)

Country Link
KR (1) KR102184972B1 (ko)
WO (1) WO2020159077A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220128726A (ko) 2021-03-15 2022-09-22 삼성전자주식회사 머리 착용형 디스플레이 장치, 그 장치에서의 동작 방법 및 저장매체
CN116878381B (zh) * 2023-08-01 2024-01-30 湖南视比特机器人有限公司 一种基于多目视觉的在线全尺寸检测方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005103039A (ja) * 2003-09-30 2005-04-21 Pentax Corp 瞳孔距離測定方法および測定器
WO2018087408A1 (es) * 2016-11-10 2018-05-17 E-Health Technical Solutions, S.L. Sistema para medición integral de parámetros clínicos de la función visual
JP2018205819A (ja) * 2017-05-30 2018-12-27 富士通株式会社 注視位置検出用コンピュータプログラム、注視位置検出装置及び注視位置検出方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140375540A1 (en) 2013-06-24 2014-12-25 Nathan Ackerman System for optimal eye fit of headset display device
JP6554763B2 (ja) * 2014-07-01 2019-08-07 株式会社ニデック 瞳孔間距離計
SG10201913884SA (en) 2015-05-11 2020-03-30 6 OVER 6 VISION Ltd Apparatus, system and method of determining a pupillary distance
KR20180060559A (ko) * 2016-11-29 2018-06-07 삼성전자주식회사 동공 거리 결정 방법 및 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005103039A (ja) * 2003-09-30 2005-04-21 Pentax Corp 瞳孔距離測定方法および測定器
WO2018087408A1 (es) * 2016-11-10 2018-05-17 E-Health Technical Solutions, S.L. Sistema para medición integral de parámetros clínicos de la función visual
JP2018205819A (ja) * 2017-05-30 2018-12-27 富士通株式会社 注視位置検出用コンピュータプログラム、注視位置検出装置及び注視位置検出方法

Also Published As

Publication number Publication date
WO2020159077A1 (ko) 2020-08-06
KR20200096002A (ko) 2020-08-11

Similar Documents

Publication Publication Date Title
Arabadzhiyska et al. Saccade landing position prediction for gaze-contingent rendering
US11861062B2 (en) Blink-based calibration of an optical see-through head-mounted display
CN110187855B (zh) 近眼显示设备的避免全息影像阻挡视线的智能调节方法
CN109715047B (zh) 用于眼动追踪应用的传感器融合系统和方法
Hennessey et al. Noncontact binocular eye-gaze tracking for point-of-gaze estimation in three dimensions
RU2664397C2 (ru) Система отображения виртуальной реальности
KR102571818B1 (ko) 머리 장착형 전자장치
CN104603673B (zh) 头戴式系统以及使用头戴式系统计算和渲染数字图像流的方法
US9135508B2 (en) Enhanced user eye gaze estimation
US10620454B2 (en) System and method of obtaining fit and fabrication measurements for eyeglasses using simultaneous localization and mapping of camera images
KR102184972B1 (ko) 동공 중심간 거리를 측정하는 장치 및 방법
KR101467529B1 (ko) 착용형 정보 제공 시스템
KR20170111938A (ko) 시선 인식을 이용하는 콘텐츠 재생 장치 및 방법
JPH0351407B2 (ko)
Wu et al. Adaptive field-of-view restriction: Limiting optical flow to mitigate cybersickness in virtual reality
US11743447B2 (en) Gaze tracking apparatus and systems
Wang et al. Control with vergence eye movement in augmented reality see-through vision
US20190281280A1 (en) Parallax Display using Head-Tracking and Light-Field Display
JP2017191546A (ja) 医療用ヘッドマウントディスプレイ、医療用ヘッドマウントディスプレイのプログラムおよび医療用ヘッドマウントディスプレイの制御方法
KR20190130761A (ko) 사용자 인식 보행 동작 측정 시스템 및 이를 이용한 보행 동작 측정 방법
US20230239586A1 (en) Eye tracking using efficient image capture and vergence and inter-pupillary distance history
Wibirama et al. Design and implementation of gaze tracking headgear for Nvidia 3D Vision®
KR20240040727A (ko) 광학 제품 시뮬레이션 방법
KR20190085466A (ko) 사용자 트리거 의도 결정 장치 및 방법
KR20190088247A (ko) 뇌연결성 기반의 시지각 트레이닝 장치, 방법 및 프로그램

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant