KR20220043113A - 안과 검사 시스템 및 방법(ophthalmologic testing systems and methods) - Google Patents

안과 검사 시스템 및 방법(ophthalmologic testing systems and methods) Download PDF

Info

Publication number
KR20220043113A
KR20220043113A KR1020227002308A KR20227002308A KR20220043113A KR 20220043113 A KR20220043113 A KR 20220043113A KR 1020227002308 A KR1020227002308 A KR 1020227002308A KR 20227002308 A KR20227002308 A KR 20227002308A KR 20220043113 A KR20220043113 A KR 20220043113A
Authority
KR
South Korea
Prior art keywords
headset
camera
fundus camera
user
eye
Prior art date
Application number
KR1020227002308A
Other languages
English (en)
Inventor
제산 알리 칸
스티브 수사니바
Original Assignee
제논-브이알, 인코퍼레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 제논-브이알, 인코퍼레이션 filed Critical 제논-브이알, 인코퍼레이션
Publication of KR20220043113A publication Critical patent/KR20220043113A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0008Apparatus for testing the eyes; Instruments for examining the eyes provided with illuminating means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography

Abstract

환자에게 안과 테스트들을 수행하기 위한 모듈식 헤드셋은 안과 테스트 필요에 따라 교체될 수 있는 제거 가능한 광학 모듈을 포함한다. 소형 안저 카메라가 제공되고 그리고 광학 모듈을 포함하여 헤드셋 내에서 이동 가능하게 마운팅 될 수 있다. 안저 카메라 위치는 헤드셋 착용자의 눈과 카메라를 배열하기 위해 자동으로 조정될 수 있다. 소프트웨어 제어 이미지 캡처 및 캡처된 이미지들은 조립되어 조합되고 그리고 넓은 시야 망막 이미지를 제공하기 위해 조합된다. 광학 모듈은 시야 테스트 및 광간섭 단층 촬영(optical coherence tomography)과 같이 상이한 안과 테스트들을 위한 구성을 허용하는 교체 가능한 서브-컴포넌트들을 가질 수 있다.

Description

안과 검사 시스템 및 방법(OPHTHALMOLOGIC TESTING SYSTEMS AND METHODS)
본 발명은 안과용 디바이스(contains ophthalmic device)들 및 그 디바이스들을 사용하는 시스템(system)들을 포함하는 개선된 헤드-마운팅 하드웨어(head-mounted hardware)를 포함하는 안과 이미징 및 시각 테스트를 위한 시스템들의 개선(improvement)들에 관한 것이다.
본 출원은 2019년 7월 31일에 출원된 미국 가출원 번호 62/881,120에 대한 우선권을 주장하며, 그 전체 내용은 참조로 명시적으로 포함된다.
눈 케어(eye care)는 전반적인 건강에서 중요한 부분이고 그리고 안과 의사(ophthalmologist)들이 사람의 눈을 검사할 수 있도록 전문화 된 많은 시스템들이 개발되었다. 이러한 디바이스들 중 대부분은 고가이므로 가용성이 제한된다. 그들은 또한 부피가 커서, 종종 전용 테이블이 필요하거나 특수 스탠드를 마운팅해야 한다. 이러한 디바이스들의 사이즈(size), 무게 및 일반적으로 보기 흉한 상태(ungainliness)는 해당 장비를 위해 예약된 진료실의 전용 공간이 요구될 수도 있다.
이러한 디바이스들을 사용하여 환자를 검사하기 위해서, 일반적으로 환자가 특정 위치에 그들의 머리를 배치하고(place) 눈이 검사되는 동안 그것을 유지해야 한다. 거동에 제약이 있는 환자들은 특정 광학 툴(optical tool)을 사용하여 검사에 필요한 위치에 그들 자신을 물리적으로 위치시키지 못할 수도 있다. 이것은 이러한 환자들에게 종합적인 눈 검사들을 제공하는 능력(ability)을 제한할 수 있다. 마찬가지로, 부피와 비싼 비용 때문에 진료실에 갈 수 없는 환자에게 이러한 다양한 전문화 된 눈 검사 시스템들을 제공하는 것이 어렵거나 불가능할 수 있다.
눈 검사를 위한 일반적인 툴은 망막의 이미지들을 캡처(capture) 하는데 사용되는 안저 카메라(fundus camera)다. 안저 카메라는 카메라가 부착된 전문 저배율 현미경(specialized low power microscope)이다. 기존의 안저 카메라 시스템은 한 면(side)에 대물 렌즈(objective lens)가 있고, 그리고 다른 면에 카메라 디스플레이(camera display)가 있는 각각의 치수에서 대략 1-2피트인 하우징(housing)을 가진다. 사용 시, 환자는 안저 카메라 시스템을 홀딩(hold)하는 테이블 앞에(before) 앉아, 시스템에 부착된 턱 받침대(chin rest)에 턱을 받치고 이마 막대(forehead bar)에 이마를 누른다(press). 환자의 눈이 카메라 시스템의 대물 렌즈에 대향(opposite)하도록 턱 받침대 위치가 조정된다. 그런 다음 카메라가 포커싱(focus)되고 그리고 하나 이상의 사진(picture)들이 촬영된다. 이 과정에서, 환자는 편안함을 위해 또는 예를 들어 경직(stiffness)으로 인해 그들의 목을 움직이는 자연스러운 경향(tendency)들 때문에 그들의 이마를 재위치(reposition) 시킬 수 있다. 이러한 움직임은 눈이 카메라와 배열되지 않게(out of alignment) 할 수도 있으며, 의사가 카메라를 다시 포커싱(refocus) 해야 할 수도 있다.
유사하게, 시야(visual field) 또는 시야 측정(perimetry)을 수행하는 데 사용되는 기존 장비는 사용 중 환자의 머리 및 눈의 움직임에 민감하고, 환자가 그들의 머리를 턱 받침대에 배치해야 하고, 그리고 부피가 크고 비싸기 때문에 전용 설정을 벗어난 가용성 및 휴대성을 제한한다. 시야 테스트를 위해, 사용자는 그릇 모양의(bowl-shaped) '주변(perimeter)' 기기(instrument)의 중심(center)을 본다. 라이트(light)들 또는 기타 물체(object)들이 기기 내에 표시되고 환자는 이러한 그것들이 보이는 경우를 나타낸다(indicate). 환자에게 보이는 것과 보이지 않는 것을 매핑하면 그들의 시야가 표시된다. 시야 측정 테스트의 광학 필드에 대한 환자 머리의 움직임은 그들의 시야를 옮기고(shift) 그리고 테스트 결과의 정확도를 저하(degrade)시킬 수 있다. 환자가 중앙 표적(center target)에서 그들의 시선을 옮기면 그들의 머리를 움직이지 않은 상태라도 결과가 저하될 수도 있다.
OCT는 생체(vivo) 내에서 안구 조직(ocular tissue)들의 단면 화상(cross-sectional imagery)을 생성하기 위해 저결맞음 간섭계(low coherence interferometry)에 의존하는 비침습적 이미징 기술(non-invasive imaging technique)이다. OCT는 질병을 감지하는 데 사용되고 그리고 외과적(surgical) 및 약리학적(pharmacological) 개입(intervention)들을 평가하기 위한 정량적이고 반복 가능한 방법을 제공한다. 지난 10년 동안 OCT 시스템들은 지역사회(community) 안과 개업(optometric practice)에서 더욱 보편화(common)되었으며, 지난 10년 동안 그리고 그 이후에도 계속해서 더 높은 스캔 밀도(scan density), 더 빠른 데이터 수집 및 처리 속도, 컴퓨터화 된 이미지(computerized image) 분석과 함께 기능이 발전했다.
간섭 단층 촬영(coherence tomography)(OCT) 스캐닝을 위한 기존 장비는 기존의 안저 카메라 및 시야 측정 테스트 시스템들과 유사한 결함들을 가진다. 환자는 OCT 기계에 앉아 시스템이 눈을 스캔하는 경우에 5-10분 동안 머리를 움직이지 않도록(motionless) 유지해야 한다. 환자 머리의 움직임은 배열 불량(misalignment) 문제들을 일으킬 수 있다. 환자의 움직임을 방지하기 위해 환자의 머리 지향(orientation)을 모니터링하고 필요에 따라 위치를 수정하도록 보조자(assistant)가 검사 전체에 걸쳐 물리적으로 존재하는 것이 종종 요구된다. OCT 스캐닝 장비도 부피가 크고 비쌀 수 있다.
환자의 머리를 턱 및 이마 받침대에 얹을(seat) 필요 없이 쉽게 사용할 수 있고 그리고 다양한 환경들에서 안과 검사들을 수행하기 위해 휴대 가능하며 저렴한 시스템이 필요하다. 또한, 그러한 시스템이 OCT 이미징에 사용되고, 그리고 시야 측정 테스트, 안저 이미징을 수행할 수 있다면, 그것은 이점을 가질(advantageous) 것이다. 그러한 시스템은 각각에 대한 전용 테스트 시스템들을 요구하는 대신에, 안저 이미징, OCT 이미징 및 시야 측정 테스트와 같은 상이한 타입(type)들의 눈 검사들에 사용할 수 있도록 쉽게 구성되고 그리고 재구성(reconfigure)될 수 있다면 그것은 더 큰 이점이 될 것이다.
이러한 문제들, 기타 문제들 및 결함들은 환자에 의해 착용될 수 있고 그리고 다양한 광학 테스트들을 지원하도록 구성될 수 있는 광학 모듈을 포함하는 헤드셋 시스템에 의해 다뤄진다(address). 하나의 테스트를 위해 구성된 모듈을 상이한 테스트를 위해 구성된 모듈로 교체하는 것을 허용하도록 광학 모듈은 헤드셋에서 제거 가능(removable)할 수 있다. 상이한 광학 테스트들을 적용하는 데 사용하기 위해 단일 모듈을 맞춤화(customize)하는 것을 허용할 수 있도록 광학 모듈은 제거 가능한 서브-모듈들로 만들어질 수 있다. 환자의 눈에 대해 카메라 위치가 조정되는 것을 허용할 수 있도록 소형화된(miniaturized) 안저 카메라는 헤드셋 내에 이동 가능하게(movably) 마운팅할 수 있다. 안저 카메라에 의해 캡처된 여러 이미지(multiple image)들은 망막의 매우 넓은 각도의 시야(very wide-angle view)를 생성하도록 조합될 수 있다. 광학 디스플레이(optical display)들 및 기타 조명 요소(illuminated element)들은 시야 측정 테스트에 사용될 수 있다.
일 실시예에서, 안저 카메라는 제 1 및 제 2 단부(end)들, 전면(front side), 후면(back side), 상기 제 1 및 제 2 단부들로부터 연장되는(running) 장축(major axis) 및 제 1 측면(side) 내에 개방하는 구멍(aperture)을 가지는 하우징을 포함한다. 카메라 어셈블리(camera assembly)는 상기 하우징의 내부에 마운팅 된다. 카메라는 상기 구멍에서 확장(extend)되는 시야(field of view)를 가진다. 안저 카메라는 조명 라이트 빔(illumination light beam)을 생성하도록 구성되는 조명 소스(illumination source), 전자 이미지 캡처 카메라(electronic image capture camera), 대물 렌즈(objective lens) 및 출구 미러(exit mirror)를 포함한다. 상기 조명 라이트 빔은, 상기 조명 소스로부터 상기 출구 미러까지의 조명 라이트 빔 경로(path)를 따른다(follow). 상기 출구 미러는, 구면 렌즈(spherical lens)일 수 있는 대물 렌즈를 통해 상기 시야로 상기 조명 라이트 빔 경로를 재지향(redirect)시킨다. 그것은 또한 상기 시야에 있는 객체(object)에 의해 반사되고 그리고 상기 이미징 카메라로 확장되는 리턴 라이트 경로(returning light path)를 따라 대물 렌즈를 통해 리턴하는 상기 조명 라이트 빔으로부터 라이트(light)를 재지향시키도록 동작한다. 시야를 조명하기 위해 나가는 라이트(outgoing light) 및 조명된 객체로부터 들어오는 라이트(incoming light)의 카메라 경로들은 실질적으로 평행할 수 있다.
출구 미러와 같은 거울은 시야에서 조명 라이트 빔 경로의 방향을 변경하기 위해 회전 가능(rotatable)하거나 피봇 가능(pivotable)하여, 환자의 망막의 상이한 부분들을 비출 수 있다. 카메라 시야의 방향(direction)도 변경된다. 빔 스플리터(beam splitter)와 같은 감쇠 요소(attenuating element)는 조명 라이트의 강도(intensity)를 감소시키기 위해 사용될 수 있다. 내부 접이식 미러들은 카메라의 치수들을 작게 유지하면서 광학 결로를 증가시키도록 동작한다. 눈부심 감소 요소(Glare reduction element)들도 또한 포함될 수 있다.
안저 카메라는 긴 하우징(elongated housing) 내의 카메라가 헤드셋 또는 기타 시스템 내에 회전 가능하게 마운팅 될 수 있도록 구성된 회전 가능한 마운팅 어셈블리(rotatable mounting assembly)를 더 포함할 수 있다. 회전 가능한 마운팅 어셈블리는 하우징의 제 1 단부에 인접한 하우징의 백(back) 상에 있을 수 있고, 제 2 단부에 인접한 하우징의 프론트(front) 상의 이미징 구멍(imaging aperture)에 있을 수 있다. 일 실시예에서, 마운팅 어셈블리는 하우징에 부착된 고정 기어(fixed gear) 및 고정 기어에 커플링(couple) 되고 그리고 샤프트(shaft)의 회전이 카메라를 피봇하도록 하기 위해 샤프트에 마운팅 되는 회전 기어(rotating gear)를 포함하는 기어 시스템(gearing system)을 포함한다.
일 실시예에서, 사용자의 광학 검사(optical examination)에 사용하기 위한 헤드셋 시스템이 제공된다. 헤드셋은 사용자의 얼굴에 착용되도록 구성된 바디(body)를 포함한다. 헤드셋의 페이스 일면(face side)에는 헤드셋을 착용하는 경우에 사용자의 얼굴에 배치하도록 구성된 전방 가장자리를 가진다. 상술한 바와 같이, 안저 카메라는 헤드셋이 착용되는 경우 그것이 사용자의 눈 앞에서 움직일 수 있도록 헤드셋 내부에 회전 가능하게 마운팅되며 위치된다. 안저 카메라를 회전하면 헤드셋이 착용되는 경우, 사용자의 눈에 대해 카메라 대물 렌즈가 이동되도록 허용하여, 망막을 이미지화하기 위해 필요에 따라 카메라를 재위치 시킬 수 있다. 예를 들어 컴퓨터 프로그램의 제어 하에서, 안저 카메라를 선택적으로 회전시키기 위해 모터가 제공될 수 있다. 단일 안저 카메라는 신체의 왼쪽과 오른쪽 사이의 실질적으로 중간 지점에 마운팅될 수 있으며, 헤드셋을 착용한 사용자의 왼쪽 눈을 이미지화 하기 위한 제 1 왼쪽 위치에서 헤드셋을 착용한 사용자의 오른쪽 눈을 이미지화 하기 위한 제 2 오른쪽 위치로 회전 가능 할 수 있다. 대안적으로, 회전 가능하게 마운팅 된 분리된(separate) 왼쪽 및 오른쪽 안저 카메라들이 제공될 수 있고, 그리고 각각 왼쪽 및 오른쪽 눈을 이미지화 하도록 위치될 수 있다. 안저 카메라 마운트는 헤드셋과 슬라이드 가능하게(slidably) 맞물릴 수 있고, 그리고 예를 들어, 트랙(track)에서와 같이, 제 1 과 제2 위치 사이에서 이동 가능할 수 있다. 트랙 내에서 마운트의 위치를 변경하는 것은 안저 카메라를 이동시키고 그리고 환자의 눈에 대해 카메라의 위치가 변경되도록 허용할 수 있다. 일 실시예에서, 안저 카메라들은, 위치 조정의 다중 자유도(multiple degrees of freedom)를 제공하기 위해, 둘다 회전 가능하고 그리고 슬라이딩 가능하게 마운팅 된다.
아이 트래킹 카메라(eye tracking camera)들은 사용자의 눈들의 이미지들을 캡처하도록 작동하는 헤드셋 내에 포함될 수 있으며, 이 이미지들은 눈의 시선의 방향 및/또는 위치를 결정하기 위해 처리된다. 여러 이미지들(multiple images)을 안저 카메라로 캡처하고 그리고 결합하여 망막의 매우 넓은 필드(field) 이미지를 생성하도록 할 수 있다. 안저 카메라 이미지와 함께 캡처된 아이 트레킹 데이터는 안저 카메라로 캡처한 임의의 주어진 이미지 내에서 망막의 어떤 부분이 이미지화 되었는지 결정하는 데 사용될 수 있고, 그리고 이 데이터는 캡처된 이미지들을 망막의 조합된 이미지로 매핑하는 데 사용된다.
헤드셋에 하나 이상의 시각적 디스플레이들이 제공될 수 있고, 그리고 안저 카메라 뒤에 위치될 수 있다. 디스플레이들은 헤드셋을 착용한 사람에게 이미지들을 표시하기 위해 사용될 수 있다. 안저 카메라들은 안저 카메라가 시각 디스플레이의 일부분을 가리는(obscure) 이미징 위치(imaging position)와 시각 디스플레이에서 실질적으로 안저 카메라에 의해 가려지지 않는 저장 위치(storage position) 사이에서 이동 가능(movable)할 수 있다. 안저 카메라는 또한 헤드셋이 안저 카메라들과 함께 또는 안저 카메라들 없이 사용될 수 있도록 헤드셋 바디 내에 제거 가능하게 마운팅 된다.
본 발명의 일 양태에 따르면, 환자의 눈 망막의 안저 이미징을 위한 컴퓨터 제어 방법(computer controlled method)이 제시된다. 상기 헤드셋은 환자의 머리에 배치된다. 헤드셋은 바디 및 위와 같이 환자의 눈 앞에서 상이한 위치들로 이동될 수 있는 회전 가능하게 마운팅 된 안저 카메라를 포함한다. 사용자의 눈 이미지는 안저 카메라로 캡처된다. 안저 카메라의 위치는 눈 동공과 카메라 대물 렌즈의 배열을 개선하기 위해 제 1 이미지를 기준으로 조정된다. 조정은 자동(automatic) 또는 수동(manual)일 수 있다. 일단 조정되는 경우, 안저 카메라로 복수의 망막 이미지들이 캡처된다.
이미지 캡처 동안에, 사용자는 카메라가 망막의 다른 부분들을 이미지화할 수 있도록 그들의 시선 방향을 변경하도록 지시를 전달(instruct)받을 수 있다. 이러한 지시들은 가청(audible)일 수 있다. 일 실시예에서, 헤드셋은 내부 주변부 주위에 배열되며 사용자가 볼 수 있는 복수의 가시광원(visible light source)들을 더 포함한다. 방법은 희망하는 시선 방향을 명시하기(indicate) 위해 복수의 가시 광원들 중 적어도 하나를 조명하는 단계를 포함한다.
캡처된 복수의 망막 이미지들은 망막 이미지 맵의 개별 위치(respective position)에 매핑되고, 그리고 망막의 조합된 넓은 시야를 형성하도록 함께 스티칭(stitch)된다. 망막 이미지 맵에서 개별 망막 이미지(respective retinal image)의 위치는 개별 망막 이미지에서 이미지화 된 망막의 부분 상에 있다. 이것은, 예를 들어, 아이 트레킹 카메라들에 의해 결정된 바와 같이, 눈에 대한 안저 카메라의 에임(aim) 및 위치, 그리고 눈의 시선(gaze) 방향을 나타내는 데이터를 참조하여 결정될 수 있다. 안저 이미징 동안의 아이 트래킹 데이터 캡처는 안저 이미지 캡처 세션(session)이 완료된 후 이미지 매핑에 사용하기 위해 안저 이미지들과 함께 저장될 수 있다.
안저 이미지 캡처는 망막의 희망하는 부분들의 완전한 매핑을 허용하도록 망막의 만족 부분(sufficient portion)이 이미지화 되었다는 결정 후에 자동으로 종료될 수 있다. 망막의 일부분이 성공적으로 이미지화 되지 않은 것으로 결정되는 경우, 컴퓨터는 성공적으로 이미지화 되지 않은 망막의 일부분을 안저 카메라의 시야 내로 가져오기 위해 시선 방향을 바꾸도록(alter) 환자에게 자동으로 지시를 전달할 수 있다.
본 발명의 추가적인 양태(aspect)에 따르면, 외부 프레임(outer frame)의 개방된 프론트(front) 및 백 부분(back portion)들 사이에 확장되는 내부를 가지는 일반 튜브형의(tubular) 외부 프레임을 포함하는 웨어러블 광학 헤드셋 시스템(wearable optical headset system)이 제공되며, 여기서 프론트 부분은 사용자 얼굴에 대해 가압 되고 그리고 상기 사용자의 상기 눈들을 둘러싸도록 구성된다. 외부 프레임에 부착된 적어도 하나의 헤드 스트랩(headstrap)은 헤드셋을 착용하는 경우 사용자의 얼굴에 대해 외부 프레임을 유지하도록 구성된다. 프론트(front), 백(back) 및 사이드(side) 표면(surface)들을 가지는 광학 모듈 하우징으로서, 광학 모듈은 외부 프레임의 프론트 부분을 통해 볼 수 있는 광학 모듈의 프론트와 함께 외부 프레임의 내부 내에서 제거 가능하며(removably) 슬라이드 가능하게(slidably) 맞물리도록(engage) 구성된다. 광학 모듈 하우징은, 이미지 디스플레이 시스템 및 이미지 캡처 시스템 중 적어도 하나를 포함하는 광학 컴포넌트(optical component)를 포함하는 컴퓨터 회로(computer circuitry) 및, 프로세서에 연결되며 프로세서에 의해 실행 가능한(executable) 컴퓨터 소프트웨어(computer software)를 저장하도록 구성된 디지털 메모리(digital memory), 컴퓨터 프로세서(computer processor)를 둘러싼다(enclose). 광학 컴포넌트는 프로세서에 전기적으로 연결되고 그리고 저장된 컴퓨터 소프트웨어에 따라 프로세서에 의해 제어 가능할(controllable) 수 있다. 광학 모듈은 외부 프레임의 대응하는 복수의 구멍들과 맞물리는 광학 하우징의 외부 주변부(outer periphery)를 따라 배열된 탄성 클립(elastic clip)들로 헤드셋 하우징에 고정(secure)될 수 있다.
제 1 전자 디스플레이는 광학 모듈의 백 표면에 마운팅 될 수 있고 그리고 프로세서로부터의 신호에 응답하여 시각 데이터를 출력하도록 구성될 수 있다. 제 2 전자 디스플레이는 외부 프레임의 외부면(outer side) 상에 있는 마운팅될 수 있고 그리고 시각 데이터를 출력하도록 구성될 수 있다. 헤드셋 하우징과 광학 모듈 사이의 전기적 인터페이스는 광학 모듈 내의 시스템이 외부 프레임에 마운팅 된 디스플레이를 제어하도록 허용하는 것을 제공될 수 있다. 다양한 사용자 입력 디바이스가 외부 프레임 및/또는 광학 모듈 상에 제공될 수 있다.
제거 가능한 광학 모듈은 헤드셋을 착용한 사용자의 눈을 이미지화 하도록 구성된 아이 트레킹 카메라들 및 회전 가능한 안저 카메라를 포함할 수 있다. 가시 광선 LED들은 헤드셋을 착용한 사용자에 의해 볼 수 있는 광학 모듈 주변부를 따라 위치될 수 있다.
추가적인 양태에 따르면, 광학 모듈은 그 자체가 모듈형이고 복수의 서브컴포넌트(subcomponent)들을 포함한다. 각각의 서브컴포넌트는 프론트 표면 및 백 표면을 가지는 개별 하우징을 가지며, 여기서 서브컴포넌트들은 광학 모듈의 백에서 광학 모듈의 프론트까지 적층(stack)될 수 있고, 그리고 각각의 서브컴포넌트는 인접한 서브컴포넌트에 제거 가능하게 연결된다. 일 실시예에서, 제 1 서브컴포넌트는 그 내부에(therein) 컴퓨터 회로를 가지는 회로 보드(circuit board)를 포함하고 그리고 제 2 서브컴포넌트는 헤드셋의 착용자(wearer)가 볼 수 있는 시각 디스플레이를 포함한다. 전기 및 기계 인터페이스(interface)들은 서브컴포넌트들의 인접 표면(adjoining surface)들에 제공된다. 연결되는 경우, 제 2 서브컴포넌트의 시각 디스플레이는 제 1 서브컴포넌트의 프로세서에 의해 제어 가능하다. 눈 검사들을 관리하는 데 사용하기 위한 기능적 컴포넌트(functional component)들을 포함하는 제 3 서브컴포넌트가 제 2 서브컴포넌트 앞에서 광학 모듈에 마운팅 되고 그리고 제공될 수 있다. 일 실시예에서, 제 3 서브컴포넌트는 제 3 서브컴포넌트에 회전 가능하게 마운팅 될 수 있는 안저 카메라를 포함한다.
일 실시예에서, 광학 모듈은 프론트 및 백을 가지고 그리고 그 위에(thereon) 컴퓨터 회로를 가지는 일반적으로 평면인 회로 보드를 포함한다. 광학 부품은 마이크로미러 디스플레이(micromirror display)들일 수 있는 제 1 및 제 2 시각 디스플레이들을 포함한다. 각각의 시각 디스플레이는 회로 보드에 전기적으로 연결된다. 제 1 및 제 2 디스플레이 각각의 앞에 위치된 제 1 및 제 2 렌즈 어셈블리들은 대응하는 디스플레이들 상에 제시(present)된 이미지의 가상 이미지(virtual image)들을 형성하도록 동작한다. 가상 이미지들은 사용자로부터 사용자의 눈들과 시각 디스플레이들 사이의 실제 거리(actual distance)보다 더 긴 제 1 거리에 있도록 하는 상기 헤드셋을 착용한 사용자에게 나타난다. 렌즈 어셈블리들은 컴퓨터 회로로부터의 신호들에 응답하여 전기적으로 제어 가능한(electrically controllable focus) 초점을 가지는 액체 렌즈들을 포함할 수 있다. 가상 이미지들의 겉보기 거리(apparent distance)는 액체 렌즈 초점을 조정하여 변경할 수 있다.
광학 시스템의 디스플레이는 라이트 빔(beam of light)을 방사(emit)하도록 구성된 라이트 이미터(light emitter)를 포함하는 망막 이미지 디스플레이일 수 있다. 통합기 로드(integrator rod)는 방사되는 경우에 상기 라이트 빔을 수신하고 그리고 통합된 라이트 빔을 출력하도록 위치된다. 적어도 하나의 렌즈는 통합기 로드로부터 상기 라이트 빔을 수신하고 상기 라이트 빔을 포커싱(focus)하도록 구성된다. 상기 포커싱 된 라이트 빔의 경로 내에 있는 빔 스플리터는 포커싱 된 라이트 빔의 일부분이 디지털 마이크로미러 디바이스(DMD)의 겉면(face)과 교차하도록 다이렉트 한다(direct). DMD에서 반사광(reflected light)은 빔 스플리터에 다시 들어가고(reenter) 그리고 일부는 DMD에 의해 생성된 이미지를 헤드셋을 착용한 사용자가 볼 수 있도록 반사광을 포커싱 시키는 투사 렌즈(projection lens)를 통과한다.
안저 카메라는 또한 광학 모듈의 전방 프레임(front frame)에 회전 가능하게 마운팅 될 수 있으며 헤드셋 시스템을 착용한 사람의 눈 구조(eye structure)들을 이미지화 하도록 구성될 수 있다.
본 발명의 추가적인 특징들 및 이점들 뿐만 아니라 본 발명의 다양한 구현들의 동작 및 구조는 하기의 첨부된 도면들을 참조하여 상세히 개시된다:
도 1은 일반적인 안과 검사 시스템의 단순화된 상위-레벨 블록도이다;
도 2a 및 2b는 본 발명의 일 양태에 따른 모듈식 헤드셋 시스템을 도시한다;
도 3a 및 3b는 여러 서브-컴포넌트들을 포함하는 광학 모듈을 도시한 도면이다;
도 4는 다양한 외부 사용자 입력들 및 출력들이 마운팅 된 헤드셋 시스템을 도시한다;
도 5는 사용자에 의해 착용되는 도 4의 헤드셋을 도시한다;
도 6은 광학 모듈 내에 제공될 수 있는 주요 전자 컴포넌트(600)들의 상위-레벨 블록도이다;
도 7a 내지 도 7d는 눈 검사의 일부로 VR 환경 디스플레이용으로 적합한 광학 모듈의 특정 일 실시예를 도시한다;
도 8은 헤드셋 마운트에 삽입될 수 있으며 사용자-대면 측(user-facing side)에서 본 광학 모듈의 구성을 도시한다;
도 9a 및 9b는 포비티드 렌더링 프로세스(foveated rendering process)의 일부로서 헤드셋 디스플레이에 제공된 샘플 이미지들을 도시한다;
도 10a 및 도 10b는 하우징에 마운팅 된 소형 안저 카메라 모듈의 도면들을 도시한다;
도 10c는 헤드셋 시스템의 외부 프레임에 마운팅 될 수 있고 회전 가능하게 마운팅 된 안저 카메라들을 포함하는 광학 모듈의 분해도(exploded view)이다;
도 11a 및 도 11b는 사용자-대면 측에서 보는 경우에 헤드셋 내에 마운팅 된 안저 카메라들을 가지는 헤드셋 시스템을 도시한다;
도 12는 안저 카메라를 포함하는 아이-트래킹 시스템의 상위-레벨 블록도이다;
도 13은 안저 스캐닝 시스템을 사용하는 망막 이미징을 위한 방법의 상위-레벨 플로우 차트(flow chart)이다;
도 14a는 회전 가능한 마운팅 어셈블리를 가지는 안저 카메라를 도시한다;
도 14b 내지 도 14d는 기어 마운팅 어셈블리를 가지는 도 14a의 안저 카메라를 도시한다;
도 14e는 헤드셋에 마운팅 된 도 14a의 안저 카메라를 도시한다;
도 15a 및 도 15b는 도 14b의 기어식 마운팅 어셈블리의 상면도 및 저면도(top and bottom view)를 도시한다;
도 16a 내지 도 16e는 슬라이딩 가능하게 마운팅 된 안저 카메라를 도시한다;
도 17은 헤드셋 어셈블리에 소형화되어 사용될 수 있는 안저 카메라의 특정 구성의 상위-레벨 개략도(schematic diagram)이다;
도 18a 내지 도 18c는 소형 안저 카메라 설계의 상면도 및 분해 사시도(perspective exploded view)를 도시한다; 그리고
도 19a 내지 도 19c는 디지털 마이크로미러 디바이스를 포함하며 본 명세서에서 개시된 헤드셋 어셈블리에 사용될 수 있는 망막 이미지 디스플레이의 실시예들을 도시한다.
도 1은 안저 이미징, 시야 테스트 및 OCT 스캔과 같은 데이터 캡처 및 광학 테스트가 환자에 의해 착용될 수 있는 휴대용 헤드셋(12)에 마운팅 된 장비를 사용하여 수행되는 일반적인 안과 테스트 시스템(general ophthalmologic testing system)(10)의 단순화된 상위 레벨(high level) 블록도(block diagram)이다. 헤드셋(12)은 헤드셋(12)을 착용한 환자의 하나 또는 양쪽 눈으로부터 데이터 또는 이미지들을 캡처하는 데 사용되는 내부 장비(internal equipment)(14)(미도시)를 포함한다. 아래에서 추가로 설명되는 바와 같이, 이 장비(14)는, 자동굴절검사(autorefraction), OCT, 시야 테스트 및 안저 이미징과 같은 하나 이상의 광학 테스트들을 관리(administrating)하기 위한 컴퓨팅 소프트웨어 및 하드웨어, 전자 기기(electronics), 기계 구조(mechanical structure), 시각 디스플레이(visual display)들, 광학 이미터(optical emitter)들, 카메라들 및 렌즈들을 포함할 수 있다. 주어진 헤드셋(12)은 단일 타입(single type)의 테스트용으로 전용화(dedicate) 될 수 있다. 헤드셋 장비 컴포넌트(14)들은 모듈식(modular)일 수 있고, 그리고 몇몇 또는 전부는 헤드셋 하우징으로부터 제거(remove)될 수 있으며 동일한(same) 헤드셋(12)이 다양한 상이한 타입들의 눈 테스트들에 사용되는 것을 허용하도록 상이한 컴포넌트들로 교체(replace)될 수 있다.
특정 컴퓨팅 하드웨어(certain computing hardware) 및 소프트웨어가 헤드셋(12) 내에 통합(integrate)될 수 있지만, 이미지/데이터 캡처 및 헤드셋 제어를 위한 별도의 제어 시스템(16)은 헤드셋(12)에 연결될 수 있고, 그리고 테스트 프로세스(testing process) 동안에 헤드셋 컴포넌트(14)들을 제어하는 데 사용되는 컴퓨팅 하드웨어 및 소프트웨어를 포함한다. 예를 들어, 제어 시스템(16)은 테스트 파라미터(test parameter)들로 헤드셋(12)을 구성하고, 테스트 프로세스를 개시하고(initiate), 헤드셋으로부터 캡처된 테스트 데이터를 수신하는 데 사용될 수도 있다.
캡처된 테스트 데이터는 하나 이상의 전자 데이터 저장소(18)들에 저장될 수 있다. 데이터 저장소(18)는 제어 시스템(16)으로부터의 외부 또는 내부에 있을 수도 있으며 직접적으로 또는 네트워크를 통해 연결될 수도 있다. 네트워크/클라우드(cloud) 기반 데이터 저장소, 또는 내부 또는 외부 하드 드라이브(hard drive)와 같이, 임의의 적절한(suitable) 데이터 저장소(18)가 제공될 수 있다. 또한, 별도의 시스템(separate system)(20)은 제어 시스템(16)에서 이용 가능한(available) 것을 보강(augment)하기 위해 데이터 및 이미지 처리(image processing) 및 분석 기능(analysis functionality)을 갖출 수 있다. 시스템(20)은 제어 시스템(16)에 대해 로컬(local)일 수 있거나, 또는 네트워크를 통해 원격으로(remotely) 연결될 수 있다. 한 구성에서, 제어 시스템(16)은 데이터 저장소(18) 역할을 하는 내부 메모리를 가진 태블릿(tablet), 랩탑(laptop) 또는 데스크톱(desktop) 컴퓨터와 같은 로컬 컴퓨터이고, 그리고 시스템(20)은 그 자체에 데이터 저장소를 가지며, 이를 통해, 예를 들어, 원격 진단을 위해 눈 테스트 데이터를 보는 의사와 같이, 전문가가 테스트 데이터에 엑세트(access)하기 위해 연결할 수 있는 원격 서버(remote server)이다.
환자가 헤드셋(12)을 착용하고 있는 경우 광학 테스트 동안에 그들이 디스플레이 상에서 특정한 피쳐(particular feature)를 보는 경우에 표시(indicate)하는 것과 같이, 환자에게 입력을 제공할 필요가 있을 수도 있다. 이 목적을 위해, 핸드 컨트롤러(hand controller), 키보드, 포브(fob) 또는 기타 입력 디바이스(22)가 제공될 수 있다. 입력 디바이스(22)는 플러그-인 USB 케이블(plug-in USB cable) 또는 블루투스 연결과 같이, 유선 또는 무선 링크를 사용하여 제어 시스템(16) 또는 헤드셋(12) 내의 시스템들에 연결될 수 있다.
본 발명의 다양한 양태들에 따르면, 눈 테스트를 위해 본 명세서에 개시된 헤드셋 시스템의 사용은 다양한 이점들을 제공한다. 올바르게 착용하는 경우에 헤드셋은 사용자의 머리와 함께 움직일 것이므로, 사용자의 머리가 움직여도 헤드셋에서 이미징 및 기타 장비의 적절한 광학적 배열이 사용자의 눈과 함께 유지될 수 있다. 이것은 시력 검사 동안에 가만히 있을 수 없고 안절부절 못하는 경향이 있는 어린 아이들 및 ADHD 경향이 있거나 또는 전신 마비(general paralysis), 파킨슨병(Parkinson's disease), 루게릭병 ALS(Lou Gehrig's Disease ALS), 투렛 증후군(Tourette Syndrome), 떨림(tremors), 운동 실조(ataxia), 근긴장이상(dystonia), 다계통 위축(multiple system atrophy), 레트 증후군(Rett Syndrome) 또는 간대성 근경련(myoclonus)을 포함한 운동 장애(motion disorder)들이 있는 노인들에게 특히 유용할 수 있다.
이 시스템은 이동성 문제들이 있는 환자들에 대해 더 수월한 검사(easier examination)가 가능하도록 한다. 예를 들어, 신체 부상으로 인해 표준 테이블탑 검사(standard tabletop exam)를 수행하기 위해 그 또는 그녀가 의자에 앉는 것이 허용되지 않고 그 사람이 침대에 누워야 하는 경우, 환자가 침대에 누워 있는 동안 헤드셋(12)을 그들의 머리 상에 배치하고 표준 시력 검사를 수행할 수 있다.
통합된 광학 테스트 장비가 있는 헤드셋 시스템은 눈 테스트 동안에 환자의 눈 앞에 카메라 배럴(barrel)을 적절하게 위치시키는 두번째 사람이 있어야 할 필요(사용자를 불편하게 할 수도 있는 프로세스)를 제거할 수 있다. 대신에, 헤드셋은 환자에 의해 직접 착용될 수 있다.
헤드셋(12)은 눈 검사들을 위한 3D 가상 현실 환경을 디스플레이 하도록 구성될 수 있다. 아이-트래킹 기능은 헤드셋 내에서 제공될 수 있고, 그리고 사용자에게 볼 이미지가 제시되는 구성들 또는 타켓 이미지(target image)를 사용하지 않을 수도 있는 기타 테스트 구성들에서 가상 검사(virtual examination) 동안에 사용자의 눈 위치 및 그들의 시선 방향을 모니터링하는 데 사용될 수 있다. 시스템(10)은 눈의 발달이 가장 많이 일어나는 연령대(age range)인 5세 이하의 연령 그룹(age group)에 속하는 어린이의 난독증(dyslexia)의 조기 징후(early sign)들을 감지하는 데 특히 유용하다.
액체 렌즈 기술은 사용자의 눈과 내부 디스플레이들 사이의 렌즈 시스템에 포함(incorporate into)될 수 있다. 액체 렌즈의 광학 특성들은 디스플레이들의 이미지들에 의해 형성된 가상 이미지의 겉보기 거리를 조정하기 위해 제어될 수 있다. 이것은 근시 또는 원시(near or far sightedness)를 테스트하거나 시뮬레이션(simulate)하는 데 유용할 수 있다. 액체 렌즈들을 사용하면 헤드셋 시스템이 헤드-마운팅 포롭터(head-mounted phoropter)로 구성되게 할 수도 있다. 액체 렌즈들의 배율(power)은 테스트 프로세스 동안에, 사용자가 보는(look through) 렌즈들의 광학 배율을 기계적으로 변경하는 다른 사람이 있어야 하는 기존의 필요성을 피하도록(avoid) 자동으로 조정될 수 있다.
헤드셋은 눈 검사들을 수행하는 동안 안경을 착용할 공간(room)을 제공하도록 구성될 수 있다. 시력(eye vision)에 큰 굴절 교정(refractive correction)이 필요한 환자의 경우, 이 디바이스는 스크린(screen)의 시야를 제한하지 않으면서 안과 기구를 사용하는 동안 안경을 최적으로 피팅(fit)하도록 허용할 수 있다. 눈 검사들에 대한 향상된 몰입도(immersion)도 가능하며, 이는 특히 임상 목적들을 위한 검사 결과들의 신뢰성을 향상시킬 수도 있다.
도 2a 및 도 2b를 참조하면, 기타 목적들을 위해 그리고 도 1의 시스템에서 헤드셋(12)으로 사용될 수 있는 모듈식 헤드셋 시스템(modular headset system)(100)의 물리적 구조(physical structure)가 도시되어 있다. 헤드셋 시스템(100)은 외부 프레임(115), 하나 이상의 헤드 스트랩(120), 및 주어진 구현에서 필요에 따라 데이터, 제어 신호들 및 파워(power)를 운반하는 데 사용될 수 있는 전기 케이블(125)을 포함하는 헤드 마운트 하드웨어(head mount hardware)(105)를 포함한다.
헤드 스트랩(120)은 고정되거나 또는 조절될 수 있고, 그리고 헤드셋(100)을 사용자의 얼굴 상에 고정(secure)하기 위해 다양한 통상의 방식들로 구성될 수 있다. 헤드 스트랩(120)은 시스템(100)이 시스템(100) 무게의 대부분을 사용자의 머리 주변부 상에 분산시키면서 사람의 얼굴 상에 고정되는 것을 허용하도록 동작해야 한다. 사용자의 얼굴과 접촉하는 시스템(100)의 일부분은, 통기성 천(breathable cloth)으로 만들어진 쿠션과 같이, 편안함과 미끄러짐을 최소화하기 위해 안과용 헤드셋(ophthalmic headset)의 무게를 얼굴에 걸쳐(across) 추가적으로 분산시키고 그리고 목에 최대한 가깝게 무게 중심을 유지하도록 설계(design)될 수 있는 페이스 패드(face pad)를 포함할 수 있다. 구성에서, 제 2 스트랩 및 환자의 머리에 피팅되는 원형 스트랩(circle shaped strap)이 있다. 스트랩들은 예를 들어 스트랩들을 자동 또는 수동으로 조이거나 풀 수 있는 기어 메커니즘(gear mechanism)을 사용하여 환자의 머리 사이즈에 따라 조정될 수 있다.
헤드셋 시스템(100)은 하우징(130) 및 외부 프레임(115) 내에 제거 가능하게 마운팅 될 수 있는 광학 모듈(110)을 더 포함한다. 광학 모듈(110)은 렌즈들, 카메라들, 광학 이미터들, 시각 디스플레이들, 기계 구조들, 전자 기기들, 및 컴퓨팅 하드웨어 및 소프트웨어와 같은 다양한 헤드셋 장비 컴포넌트들을 포함한다. 이러한 컴포넌트들은 하우징(130) 내에 포함된다. 하우징(130)은 일 실시예에서 헤드셋의 외부 프레임(115) 내에 단단히 피팅되고 그리고 사용자에 의해 쉽게 제거 가능하도록 구성된다. 헤드셋 시스템(100)에 대한 광학 모듈(110)의 제거 가능한 마운팅을 위해 다양한 메커니즘들이 사용될 수 있다. 설명된 일 실시예에서, 광학 모듈(110)은 외부 프레임(115) 내의 대응하는 구멍(apertures)(140)들과 맞물리는 광학 모듈 하우징(130) 상의 복수의 클립(clip)(135)들에 의해 외부 프레임(115) 내에 고정된다. 당업자에게 알려진 다른 마운팅 메커니즘(mounting mechanism)들은 나사(screw)들, 스프링 마운팅 멈춤쇠(spring loaded detent)들 또는 캐치(catch)들, 및 기타 구조들을 포함하여 광학 모듈(110)을 외부 프레임(115) 내에 제거 가능하게 고정하는 데에도 사용될 수 있다.
포트(port) 또는 기타 인터페이스(interface)(145)는 광학 모듈(110)과 헤드 마운트(105) 사이에 또는 기타 외부 장비에 전기적 연결이 이루어지도록 허용하기 위해 광학 모듈(110)의 하우징(130) 내에 제공될 수 있다. 연결은 광학 모듈(110)에 파워를 제공하기 위해 및/또는 데이터 및 제어 연결을 제공하기 위해 사용될 수 있다. 일 실시예에서, 포트(145)는 광학 모듈(110)이 설치(install)되는 경우에, 외부 프레임(115)의 내부 상에 대응하는 접점(contact)들과 맞물리는 전기 접점(electrical contact)들을 포함한다. 하나의 포트(145)가 도시되어 있지만, 여러 개의 개별 포트들이 제공될 수 있다. 추가로, 또는 대안적으로, 플러그-인 케이블(plug-in cable)은 광학 모듈(110)의 포트(145)를 헤드 마운트(105)의 전자 기기들에 연결하는 데 사용될 수 있다. 외부 프레임(115)에 대한 연결이 필요하지 않은 경우, 광학 모듈(110)이 외부 프레임에 안착(seat)되는 경우에 액세스 가능(accessible)하도록 포트(145)가 위치될 수 있다. 외부 프레임(115) 내의 구멍은 포트(145)에 대한 외부 액세스를 제공할 수 있도록 형성될 수 있다.
헤드 마운트 케이블(125)을 통해 파워가 공급되지 않는 실시예들에서 내부 배터리(internal battery)가 광학 모듈(110) 내에 제공될 수 있다. 광학 모듈(110)의 구성 및 기능에 따라, 케이블(125)은 필요하지 않을 수도 있다. 예를 들어, 광학 모듈(110)은 내부 배터리에 의해 파워를 공급받을 수 있고 그리고 제어 시스템(16)과 같은 외부 컴퓨팅 시스템들과의 통신은 Wi-Fi, 블루투스, 또는 기타 무선 연결에 의해 제공될 수 있다.
상이한 기능을 가지는 복수의 광학 모듈(110)은 사전 조립된(preassembled) 형태로 제공될 수 있고, 그리고 개별 광학 모듈들은 헤드셋에 대해 상이한 기능을 제공하기 위해 안팎으로(in and out) 교체(swap)될 수 있다. 다양한 상이한 광학 모듈(110)들이 여기에 제시된다. 각각의 모듈(110)은 모듈이 어떻게 동작하는지를 제어하며, 또한 관련 이미징 또는 안과 작업(ophthalmic task)을 전달하기에 적절하도록 헤드-마운팅 디바이스와의 통신을 지원하는 펌웨어를 가지는 내장형 컴퓨팅 시스템을 포함할 수 있다. 펌웨어는 이미지들을 디스플레이 하는 기능, 전기, 기계 및 광학 컴포넌트들을 제어하는 기능, 이미지들을 캡처하는 기능, 이미지 처리 루틴(image processing routine)들을 수행하는 기능 및 전체 테스트 시스템을 지원하는 기타 기능을 포함할 수 있다. 모듈(110) 내의 컴퓨팅 시스템에 다양한 이미지 처리 및 제어 기능들을 오프로딩(Offload)하는 것은 외부 컴퓨터 시스템과 교환(exchange)할 필요가 있는 데이터를 줄일 수 있다.
광학 모듈(110)이 제거 가능하기 때문에, 예를 들어, 광학 모듈(110)은 성인용 사이즈의 헤드 마운트 하드웨어(105)와 아이용 사이즈의 헤드 마운트 하드웨어(105) 사이에서 전환(switch)될 수 있도록 동일한 광학 모듈(110)은 상이한 헤드 마운트 하드웨어(105)와 함께 사용될 수 있다. 상이한 타입들의 안과 테스트들에는 상이한 기능이 요구될 수 있다. 시스템(100)은 동일한 헤드 마운트 하드웨어(105)를 사용하면서 제 1 타입의 테스트를 위해 구성된 제 1 광학 모듈(110)은 제거되고 그리고 제 2 유형의 테스트를 위해 구성된 제 2 광학 모듈(110')로 교체되도록 허용한다. 아래에서 추가로 논의되는 바와 같이, 광학 모듈(110)은, 렌즈 어셈블리들 및 관련 기계적 구조와 같은 내부 장비의 일부가 예를 들어, 상이한 타입들의 눈 테스트들을 지원하면서, 전자 기기들 및 컴퓨팅 하드웨어와 같은 기타 내부 장비의 재사용(reuse)을 허용하는 다양한 기능을 제공하도록 제거 및 교체되는 것을 허용하기 위해, 그 자체가 모듈식일 수 있다.
도 6을 참조하면, 모듈(110) 내에 있을 수도 있는 다양한 추가 광학, 기계 및 기타 컴포넌트들과 함께(in conjunction with) 작동(work)할 수 있고 그리고 광학 모듈(110) 내에 제공될 수 있는 주요 전자 컴포넌트(600)들의 상위-레벨 블록도가 도시되어 있다. 일 실시예에서, 광학 모듈(110)은 컴퓨터 프로세서(602) 및, OLED 또는 LCD 디스플레이 스크린들, 또는 마이크로미러 프로젝션 디스플레이(micromirror projection display)와 같은, 하나 이상의 내부 시각적 디스플레이(604)들을 포함할 수 있으며, 각 눈에 하나씩, 그리고 눈 검사의 일부로 가상 현실 환경(virtual reality environment)을 디스플레이 하는 데 사용한다. 디스플레이들은 각각 4k 해상도(즉, 3840 x 2160 픽셀(pixels) 또는 4096 x 2160 픽셀)를 가지는 고해상도 디스플레이들일 수 있다. 헤드셋에 마운팅 하기에 적합한 디지털 마이크로미러 디스플레이 디바이스를 위해 특히 개선된 설계는 하기에서 더 설명된다.
모듈 시스템(600)은 하나 이상의 아이-트래킹 카메라(612)들(일반적으로 각 눈에 대해 4개이지만, 더 적거나 더 많은 수가 사용될 수 있음) 뿐만 아니라 기존의 이미징 카메라(610) 둘 다를 포함할 수 있다. 모션 센서(motion sensor)(606)들은 헤드셋의 움직임을 감지(detect)되도록 하는(allow) 측정값(measurement)들을 제공한다. LED 또는 기타 광원(608)들이 제공될 수 있다. 적외선 LED들은 아이 트래킹 목적들을 위해 사람의 눈들을 조명하는 데 사용될 수 있다. 가시 LED(visible LED)들은 헤드셋을 착용한 사람에게 신호를 보내고 그리고 시각 라이트 카메라 이미징용으로 사람의 눈들을 비추기 위해 사용될 수 있다.
디지털 메모리(614)는, 시스템의 동작 동안에 생성되고 사용되는 데이터를 저장할 뿐 아니라 광학 테스트들을 관리하기 위한 소프트웨어 및 동작 시스템(operating system)와 같이, 프로세서(602)에 의해 실행되는 컴퓨터 소프트웨어를 저장한다. 마이크 및 헤드폰(또는 연결된(attached) 헤드폰들에 링크(link)되는 헤드폰 연결(headphone connection))과 같은 오디오 입력 및 출력을 지원하기 위한 오디오 컴포넌트(619)들 함께 기타 입력 메커니즘, 다이얼(dial), 토글 스위치(toggle switch), 터치 스크린(touch screen), 또는 누름 버튼(press button) 중 하나 이상을 포함하여, 다양한 사용자 입력 디바이스(618)들이 제공될 수 있다.
제어 시스템(16)과 같은 외부 디바이스에 유선 또는 무선 연결을 허용하기 위해 하나 이상의 통신 포트(620)들이 제공된다. VR 모듈(600)은 그것의 기능이 기존의 VR 헤드셋 인터페이스들을 사용하여 액세스될 수 있도록 구성될 수 있다.
상이한 모듈(110)들은 OCT, 자동 굴절기(autorefractor), 소형 안저 카메라(miniature Fundus camera)를 사용하는 망막 이미징(retinal imaging)과 같은 상이한 타입들의 광학 검사들에 사용하도록 특별히 구성될 수 있다. 모듈(110)은 VR 환경 테스트 시뮬레이션들을 제공하거나, 또는 눈 색 결핍(eye color deficit)들, 사용자 주변 시야를 측정하고 자동 굴절 기능을 수행하도록 구성될 수 있다. 각각의 구성은 상이한 광학, 기계 및 기타 컴포넌트들을 요구(require)할 수 있다. 추가 모듈(110)들은 대체 기능과 함께 제공될 수 있다. 시스템은 의료 테스트와 관련하여 본 명세서에서 논의되지만 상이한 모듈들은 임의의 목적을 위해 사용될 수 있다.
프로세서(602)가 다양한 내부 컴포넌트들과 상호작용 및 제어하며, 기타 외부 컴퓨터 또는 외부 제어 시스템(16) 및 헤드 마운트 하드웨어(105) 상의 컴포넌트들과 같은 기타 시스템 컴포넌트들과 통신하는 것을 허용하고, 그리고 부분 또는 전체 안과 이미징 또는 기타 테스트 기능들을 지원하고 캡처된 이미지 또는 기타 테스트 데이터를 리턴하도록 적절한 내부 소프트웨어 또는 펌웨어가 메모리(614)에 저장된다. 제어 시스템(16) 또는 기타 외부 디바이스에 필요한 제어 및 테스트 소프트웨어는 광학 모듈(110)에 사전 설치(preinstall)될 수 있다. 외부 컴퓨터가 케이블 등을 통해 광학 모듈(110)에 연결되는 경우, 해당 컴퓨터에서 실행(run)되기 위해 필요한 소프트웨어는 광학 모듈(110)에서 다운로드 될 수 있다. 마찬가지로, 외부적으로 연결된 컴퓨터는 광학 모듈(110) 상의 소프트웨어를 업데이트하는 데 사용될 수 있다.
눈의 외부 또는 내부 피쳐들을 이미지화 하기 위한 카메라들을 포함하는 모듈 시스템(600)의 경우, 이미지들은 모듈에 의해 캡처되고 그리고 잠재적인 문제(potential issue)들을 식별하기 위해 처리 및 분석될 수 있다. 캡처된 이미지는 눈의 상세한 이미지들을 생성하고 잠재적인 문제들을 식별하기 위해 스티칭 알고리즘, 이미지 처리, 기계 학습(machine learning) 및 패턴 인식과 같은 소프트웨어를 사용하여 처리될 수 있다. 몇몇 이미지 캡처 및 초기 처리(initial processing)는 프로세서(602)에 의해 수행될 수도 있다. 예를 들어, 메모리(614)에 저장된 소프트웨어는 이미지들을 캡처하고, 몇몇 초기 이미지 처리를 수행하고, 그리고 문제의 특정 이미징 프로세스에 대해 충분한 수의 이미지들이 캡처된 시각(when)을 결정하기 위해 제공될 수 있다. 스티칭(stitching) 및 분석과 같은 보다 복잡한 처리는 제어 시스템(16) 또는 시스템(20)과 같은 별도의 컴퓨터에서 수행될 수 있다. 대안적인 일 실시예에서, 외부 시스템(16 또는 20)은 모듈 시스템(600)의 컴퓨터 컴포넌트들부터 제공되는 하위-레벨의 서포트(support)만으로 전체 이미징 시퀀스(entire imaging sequence)를 제어할 수 있다.
시스템(100)을 착용한 환자에게 이미지 테스트들을 제공하기 위해 사용되는 시각 디스플레이(604)들은 OLED 또는 LCD 스크린 또는 마이크로미러 프로젝션 디스플레이와 같은 큰 컬러 스펙트럼(color spectrum)을 가질 수 있고 그리고 고해상도(high resolution)를 가질 수 있다. 디스플레이(604)들은 색맹(color blindness)의 심각도(severity) 및 색각도(color acuity)를 테스트하기 위해 다양한 색도(degrees of color)들을 가지는 여러 이미지(multiple image)들을 표시하는 데 사용될 수 있다. 인치당 픽셀 단위로(in pixels per inch) 보다 고해상도의 이미지를 제공하는 것은 Ishihara 테스트와 같은 시각 테스트들에 대해 향상된 결과들을 제공할 수 있다. 디스플레이(604)들은 또한 시야 측정, 시력 및 Amsler 그리드(grid) 테스트를 제공하는 데 사용될 수 있다. 이들에 대해서는 아래에서 설명된다. 이러한 테스트들 중 하나 이상을 실행할 수 있도록 소프트웨어를 구성할 수 있다. 테스트 선택(test selection)은 온디맨드식(on-demand)일 수 있으며, 예를 들어, 검안사(optometrist)에 의해, 환자의 스크리닝(screening) 요구에 따라 해당 환자에 대해 순차적으로(in sequence) 실행되도록 일부 또는 모든 테스트들을 활성화(enabled)할 수 있다.
일 실시예에서, 제거 가능한 광학 모듈(110)은 (의사 또는 기술자와 같은) 최종 사용자(end-user)에 의해 조합(combine)될 수 있는 별도의 모듈식 서브-컴포넌트들을 포함한다. 각각의 서브-컴포넌트들은 상이한 기능을 제공할 수 있다. 하나 이상의 서브-컴포넌트들을 교체함으로써, 전체 모듈(110)은 별도의 호환되지 않는(incompatible) 광학 기기(optic)들을 요구할 수도 있는 상이한 눈 테스트들을 지원하도록 구성될 수 있다.
도 3a 및 도 b는 헤드 마운트(105)의 외부 프레임(115)과 짝을 이루도록(mate) 구성된 하우징(320) 또는 외부 쉘(outer shell) 내에 마운팅 된 3개의 서브-컴포넌트들(305, 310, 315)을 가지는 예시적인 일 실시예에서 광학 모듈(300)의 분해(explode)되고 조립된(assembled) 단면도(cross-section view)도시한다. 서브-컴포넌트들 및 각각의 기능은 달라질(vary) 수 있다.
일 실시예에서, 후방 컴포넌트(rear component)(305)는 프로세서(602), 프로그램 및 데이터 메모리(614), 및 무선 및 유선 통신 모듈(620)과 같은 메인 컴퓨터 시스템 컴포넌트들을 포함한다. 서브-컴포넌트(310)는 OLED 또는 LED 디스플레이들과 같은 비디오 디스플레이(604)들을 포함하고, 그리고 IR 이미터(608)들 및 아이-트래킹 카메라(612)들과 같은 기타 광학 컴포넌트들을 포함할 수 있다. 카메라들 및 디스플레이들을 위한 렌즈들과 같이 관련 광학 기기들도 포함될 수 있다. 서브-컴포넌트(315)는 광학 모듈(110)이 사용되는 것에 대한 기타 용도(other use) 또는 특정 눈 테스트에 적합한 추가 기계, 광학 및/또는 전기 요소들(예: 필터(filter)들, 추가 렌즈들, 카메라들 등)을 포함한다.
기계적 배열 및 연결 구조들은 인접한 서브-컴포넌트들이 적절하게 배열되고 함께 직접적으로 제거 가능하게 결합되는 것을 허용하기 위해 제공될 수 있다. 전기 인터페이스들은 또한 인접한 서브-컴포넌트들 사이의 직접적인 파워 및 데이터 통신을 허용(예를 들어, 서브-모듈(305) 내의 컴퓨팅 회로가 하위 모듈(310)의 비디오 디스플레이(video display)들을 구동(drive)하는 것을 허용)하기 위해, 서브-컴포넌트들에 제공될 수 있다. 이러한 목적들에 적합한 기계 및 전기적 인터페이스들은 당업자에게 공지되어 있을 것이다.
일 구성에서, 대향하는 기계 구조(opposing mechanical structure)(325a, 325b)는 서브-컴포넌트(305)의 인접한 전방 페이스(forward face)(305a) 및 서브-컴포넌트(310)의 후방 페이스(310a)와 같이, 인접한 서브-컴포넌트들의 결합 표면(mating surface)들 상에 제공된다. 기계 구조들(325a, 325b)은 탭(tab)/슬롯(slot) 구성에서와 같이 배열 목적들을 위해 짝을 이루도록 구성될 수 있다. 그들은 인접한 서브-컴포넌트들을 함께 유지하는 데 도움이 되도록 서로 기계적으로 맞물리도록 (예를 들어, 스프링 바이어스 스냅인 부재(spring-biased snap-in member)를 통해) 추가로 구성될 수 있다.
전기 전도성 패드(electrically conductive pad)들 및 스프링-마운팅 핀(spring-loaded pin)들과 같은 결합 전기 인터페이스들(330a, 330b)은 인접한(adjoining) 서브-컴포넌트들 사이의 직접적인 데이터 및 파워 통신을 제공하기 위해 인접한 서브-컴포넌트들의 대향 결합 표면(opposed mating surface)들 상에 제공될 수 있다. 광학 데이터 이미터/검출기(detector)들 인터페이스들와 같은 기타 데이터 연결들도 데이터 통신에 적합할 수도 있다. 대안적으로 또는 추가적으로, 모듈(300) 내의 서브-컴포넌트들 사이의 연결들은 하우징(320)을 통해 간접적(indirect)일 수 있다. 연결 회로(340a)는 하우징(320) 내부에 대응하는 연결 회로(340b)와 전기적으로 연결될 서브-모듈의 하나 이상의 일면들 상에 제공될 수 있다. 하우징(320) 내의 연결 회로(340b)는 고정된 위치들에 제공되거나 또는 하우징(320)의 길이(length) 내의 다양한 위치들에 위치되는 서브-컴포넌트로부터의 연결을 지원하기 위해, 데이터 및/또는 파워 버스(bus)와 같은 확장된 인터페이스(extended interface)를 제공할 수 있다.
상이한 서브-컴포넌트 구성이 가능하다. 예를 들어, 컴퓨터 시스템 컴포넌트들 및 디스플레이 컴포넌트들은 단일 서브-컴포넌트로 결합될 수 있다. 몇몇 구성들에서, 서브-컴포넌트는 그 자체로 사용 가능하고 그리고 추가 서브-모듈을 통해 추가된 추가 기능을 가질 수도 있다. 예를 들어, 아이 트레킹 및 액체 렌즈 광학 트레인(liquid lens optics train)이 있는 듀얼-디스플레이(dual-display) 시스템은 시야 테스트와 같은 몇몇 타입들의 테스트에 사용하기 위해 제공될 수 있다. 상이한 테스트가 수행되는 것을 허용하도록 추가 기능을 제공하기 위해 애드온 서브-모듈(add-on sub-module)이 제자리에 피팅될 수 있다. 한 구성에서, 하기에 별도로 개시되는 바와 같이, 소형 안저 카메라가 망막 이미징에 사용하기 위해 추가될 수 있다.
하우징(320)은 전체 모듈(300)이 그 내부에 마운팅되는 경우에, 하우징(320)의 길이를 따라, 그리고 헤드 마운트 하드웨어(105)에 대해, 그리고 이에 따라 사용자의 얼굴에 대해, 마운팅 된 서브-모듈들이 사전 결정된 위치에 연장되어 알려진 위치(known position)에 배치되도록 허용하는 내부 정지부(internal stop)들 또는 기타 구조들을 가질 수 있다. 스페이서(spacer)는 하우징(320) 내에서 정확하게 그들을 위치시키기 위해 필요에 따라 서브-컴포넌트들 앞에 또는 그 사이에 추가될 수 있다.
각각의 서브-컴포넌트는 그것의 목적들을 식별(identify)하는 할당된 기능 코드(assigned function code)를 가질 수 있고, 그리고 그것은 소프트웨어가 어떤 서브-컴포넌트들이 설치되는지 알고, 그리고 그에 따라 어떤 테스트 기능이 사용 가능(available)한지 아는 것을 허용하기 위해 제어 시스템(16) 또는 하우징(320) 내에서와 같이 기타 시스템들 또는 컴퓨터 서브-컴포넌트(305)에 의해 판독(read)될 수 있다. 시스템은 설치된 모듈을 자동으로 감지하고 그리고 활성화될 적절한 소프트웨어(예: 안저 카메라 이미징, 시야 테스트, OCT 등을 수행하기 위한 소프트웨어)에 신호를 보낼 수 있다.
별도의 사용자 입력 시스템(예: 도 1의 입력(22))에 추가적으로 또는 대안적으로, 헤드셋 시스템(100)의 외부에 사용자 입력 및 출력들이 제공될 수 있다. 도 4는 다양한 외부 사용자 입력들 및 출력들을 가지는 헤드셋 시스템을 도시한다. 도 5는 사용자에 의해 착용되고 있는 도 4의 헤드셋을 도시한다. 도 4 및 도 5를 참조하면, 하나 이상의 입력 버튼(415)들이 외부 프레임(115) 상에 제공될 수 있다. 버튼(415)들로부터의 신호들은 포트(145) 또는 기타 연결을 통해 (모듈(300)의 형태 포함하는)광학 모듈(110) 내의 컴퓨터 시스템에 커플링 되거나 또는 시스템(100)과 함께 작동하는 외부 컴퓨터에 커플링 될 수 있다. 추가적으로, 또는 대안적으로, 하나 이상의 입력 버튼(420)들이 광학 모듈(110)의 외부 상에 제공될 수 있고 그리고 이러한 버튼(420)들로부터의 신호는 광학 모듈(110) 내의 회로에 의해 처리될 수 있다. 버튼들(415, 420)은 기계적 푸시-버튼(push-button) 스위치, 정전용량(capacitive) 또는 압력-감지 영역과 같은, 터치 감지 디바이스, 또는 기타 형태(form)들의 입력일 수 있다.
추가적인 특징에 따르면, 헤드 마운트(105)의 외부 프레임(115)의 외부 표면(425)에 소형 비디오 디스플레이(405)가 형성될 수 있다. 디스플레이(405)의 스크린이 일면 상에 도시되어 있지만, 그것은 또한 상부 표면과 같이, 외부 프레임(115)의 상이한 일면 상에 위치될 수도 있다. 추가적으로 또는 대안적으로, 별도의 디스플레이(410)는 광학 모듈(110)의 외향 표면(outward-facing surface)(430) 상에 그것의 스크린과 함께 위치될 수 있다. 디스플레이 스크린들(405, 410)은 터치 스크린 디바이스들일 수 있고, 이 구성에서, 별도의 버튼들(415, 420)에 추가적으로 또는 그 대신에 사용될 수도 있다.
디스플레이들(405, 410)은 기타 연결 또는 포트(145)를 통해 이루어진 연결에 의해 광학 모듈(110) 내의 컴퓨터 시스템에 의해 구동되거나, 또는 케이블(125)을 통해서와 같이, 시스템(100)과 함께 작동하는 외부 컴퓨터에 연결되며 외부 컴퓨터에 의해 구동될 수 있다.
디스플레이들(405, 410)은 예를 들어, 광학 모듈(110)에 대해 시스템 진단(system diagnostic)들을 위한 정보 메시지들을 출력하는 데 사용될 수 있다. 한 구성에서, 새로운 광학 모듈(110)이 삽입되는 경우, 디스플레이 스크린들(405, 410) 중 하나 또는 둘 다는 광학 모듈(110) 내의 각 컴포넌트가 적절하게 기능하고 있고, 그리고 예를 들어, 헤드 마운트(105) 내의 컴포넌트들에 필요한 파워 및 데이터 연결들을 구축(establish)했음을 나타내는 출력을 제공할 수 있다.
디스플레이들(405, 410)은 또한 진행 중인 시각 테스트 시퀀스(sequence)에 대한 정보 메시지를 출력하는 데 사용될 수 있다. 일 실시예에서, 테스트 소프트웨어는 관리되고 있는 테스트 및 그 테스트의 단계(stage)를 나타내도록(indicate) 구성된다. 환자에게 표시되는 디스플레이의 시각적 표현(visual representation)과 같은 기타 정보는 동일하거나 또는 별도의 디스플레이 상에 미러링 될(mirrored) 수 있다. 이것은 의사나 다른 사람이 헤드셋에 연결된 별도의 컴퓨터에 액세스할 필요 없이 환자의 테스트 진행을 쉽게 모니터링할(monitor) 수 있다.
또한, 디스플레이들은 현재 모듈의 구성에 대한 정보를 출력하는데 사용할 수 있다. 프론트과 같이, 하나의 디스플레이는, 제거 가능한 모듈 내부에 조립된 디스플레이 광학 기기를 동작시키는 방법에 대한 지침(instruction)들을 출력하는 데 사용할 수 있고, 사이드(side)와 같은 제 2 디스플레이가 동작 데이터(예: 전원 및 배터리 레벨), 볼륨(volume) 조정, 및 유닛(unit)이 실행하도록 구성된 테스트의 타이틀(title)을 출력한다.
또한, 디스플레이들은 의사가 헤드셋 내 조정 가능한 광학 피쳐들의 위치 또는 실행 중인 테스트와 같이, 다양한 구성적 기능들을 변경(alter)할 수 있도록 허용하는 터치스크린 제어 디바이스들로 사용할 수 있다. 예를 들어, 렌즈 요소들의 동공 거리(interpupillary distance)를 조정하는 컨트롤(control)들이 제공될 수 있다. 헤드셋 내 카메라로부터의 이미지들을 스크린 상에 디스플레이 하여, 의사가 검사 과정 동안에 환자의 눈을 볼 수 있다.
도 7a 내지 도 7d는 눈 검사의 일부로서 VR 또는 다른 시각 환경을 디스플레이 하는데 사용하기에 적합한 광학 모듈(700)의 특정 실시예를 도시하고, 그리고 그것은 헤드 마운트 하드웨어(105)에 피팅될 수 있거나 또는 그렇지 않으면 헤드 마운트 VR 디스플레이에 통합될 수 있다. 도면들을 참조하면, 모듈(700)은 후방 프레임 또는 하우징(702)을 가진다. 후방 프레임에는 광학 모듈(700) 내의 다양한 컴포넌트들을 제어하고 그리고 외부 디바이스들과의 통신을 제공하는 데 사용되는 컴퓨터 회로를 포함하는 마더보드(motherboard)(704)가 세팅(set)된다. 왼쪽 및 오른쪽 이미지들은 한 쌍의 시각적 디스플레이들(706a, 706b)에 의해 제공된다. 특정 구성에서, 디스플레이들(706a, 706b)은, 마더보드(704)의 바닥부 가장자리(bottom edge)와 같이, 가장자리 상에 위치되는 대응하는 인터페이스(705)들에 연결하는 에지 커넥터(edge connector)들(707a, 707b)을 가진다. 인터페이스(705)들은 마더보드의 표면에 수직이거나 또는 평행이고, 그리고 마더보드에 평행하며 매우 가깝게 마운팅 되고 쉽게 연결될 수 있도록 디스플레이들(706a, 706b)에 대한 디스플레이 상의 대응하는 지향된 에지 커넥터들(707a, 707b)을 수용하도록 구성되는 연결 슬롯(705a)들을 포함할 수 있다. 단단한 폼 팩터(rigid form factor) 대신에 수 에지 커넥터(male edge connector)는 플렉스 케이블(flex a cable)로 구성될 수 있다.
한 쌍의 렌즈 어셈블리들(708a, 708b)은 프레임 어셈블리(710) 내에 마운팅 되고 그리고 대응하는 디스플레이들(706a, 706b) 상의 이미지들의 헤드셋을 착용한 사람에 의해 볼 수 있는 가상 이미지들을 형성하도록 구성되며, 어떤 이미지는 사람에게 디스플레이들 상에 표시된 이미지들 보다 더 크며 실제 디스플레이보다 더 멀리 있는 것처럼 나타난다. 각각의 렌즈 어셈블리(708a, 708b)에 대해 다양한 타입들의 렌즈 어셈블리들은 단일 렌즈, 복합 렌즈 구조(compound lens structure) 및 일반 또는 하이브리드 프레넬 렌즈(hybrid Fresnel lens)를 포함하여 사용될 수 있다. 동공 거리 접안 렌즈(eyepiece)는 각각의 프레넬 렌즈 앞에 배치될 수 있으며 그것은 사용자를 위해 디스플레이를 포커싱할 것이다. 디스플레이 대신에, 마이크로미러 디스플레이를 이용할 수도 있다. 2개의 디스플레이들(706a, 706b) 및 대응하는 렌즈 어셈블리들(708a, 708b)이 도시되어 있지만, 몇몇 실시예들은 단일 디스플레이 및/또는 단일 렌즈 어셈블리만을 포함할 수도 있다. 렌즈 어셈블리들(708a, 708b)은 프론트 프레임(714) 상에 마운팅 되는 개별 디스플레이 렌즈 프레임들(712a, 712b)을 포함하는 프레임 어셈블리(710)에 피팅될 수 있다. 다양한 컴포넌트들(704, 706, 708, 710, 712, 714)은 헤드 마운트(105)의 외부 프레임(115) 내에 제거 가능하게 마운팅 될 수 있는 외부 프레임(716)에 및/또는 그 내부에 마운팅 된다.
다양한 기타 컴포넌트들은 LED들 및 아이-트래킹 카메라들을 포함하여 광학 모듈(700)에 포함될 수도 있다. 이러한 컴포넌트들은 회로 보드(704) 상에 또는 기타 요소들에 마운팅될 수 있다. 예를 들어, 아이 트래킹 카메라는 후방 프레임(702) 내부에 마운팅 될 수 있다. 아이 트래킹 시스템은 사용자의 눈들에서 데이터를 수집하고 그리고 트래킹 시스템의 카메라들에서 각 눈의 이미지를 생성하도록 제공될 수 있다. LED들은 프레임 어셈블리(710)의 부분들에 마운팅 될 수 있다. 이들 컴포넌트들과 구동 회로 사이의 전기적 연결들은 당업자에게 공지된 방식(manner)으로 제공될 수 있다.
디스플레이들(706a, 706b)은 독립적으로 제어될 수 있다. 특정 검사들에서는 디스플레이들이 둘다 켜져 있어야 할 것이다. 기타 검사들에서는 한쪽 눈에만 포커싱 하고 그리고 하나가 꺼져 있는 동안 다른 하나의 디스플레이가 켜져 있어야 한다. 아이-트래킹 피쳐들 및 오프 아이(off eye)용 기타 기능은 수행 중인 테스트에 따라 계속 켜져 있거나 비활성화(disable)될 수 있다.
특정 일 실시예에서, 각각의 렌즈 어셈블리(708a, 708b)는 전자적으로 조정될 수 있는 초점을 가지는 액체 렌즈 컴포넌트를 포함한다. 마더보드(704) 또는 다른 것에 제공될 수 있는 렌즈 구동 회로(709)(미도시)에 대해 전기적 연결이 제공된다. 렌즈 구동 회로(709)는 렌즈들(708a, 708b)의 초점을 조정하는 데 사용되는 제어 신호들을 제공한다.
좌측 및 우측 렌즈 어셈블리들(708a, 708b)을 포함하는 액체 렌즈 어셈블리가 도 7c 및 도 7d에 도시되어 있다. 액체 렌즈 어셈블리는 마운팅 링(mounting ring)들(720, 722), 프레넬 렌즈일 수 있는 정전 렌즈(static lens)(724), 스페이서(726), 및 액체 렌즈(728)를 제어하기 위해 전기 신호들을 전달하기 위한 기타 와이어 세트(wire set)(730) 또는 리본 케이블(ribbon cable)이 있는 가변 초점 액체 렌즈(728)를 포함한다. 기타 렌즈 구성들도 사용될 수 있다.
액체 렌즈의 초점을 변경함으로써, 다양한 정적 및 상호작용적인 광학 시력 테스트들이 수행될 수 있다. 액체 렌즈를 조정하면 시력이 좋지 않은 사용자가 안경이나 콘택트 렌즈들을 착용할 필요 없이 VR 시스템을 사용하도록 허용할 수도 있다. 액체 렌즈(708a, 708b)의 초점을 조정함으로써, 대응하는 디스플레이(706a, 706b) 상에 표시된 이미지의 겉보기 거리가 변경될 수도 있다. 이러한 겉보기 거리의 변화는 3D 디스플레이의 두 이미지들 사이의 이미지 시차(image parallax)로 인해 거리 인식(distance perception)에 비교하여 상이하게 감지된다. 가상 이미지 거리에 대한 두 개의 별도 시각적 신호를 제공하여 VR 디스플레이의 몰입도(immersion aspect)를 향상시킬 수 있다. 예를 들어, 3D VR 이미지가 생성되고 그리고 시차에 기초하여 희망하는 겉보기 거리를 제공하도록 선택되는 왼쪽 및 오른쪽 이미지에서 3D 요소들의 위치를 가지는 듀얼 디스플레이들(706a, 706b)에 디스플레이 될 수 있다. 헤드셋 내의 아이 트래킹 카메라들은 사용자가 보고 있는 3D 요소가 무엇인지 결정할 수 있도록 사용될 수 있다. 사용자로부터 해당 3D 요소까지의 Z축을 따른 가상 거리가 결정될 수 있고 그리고 액체 렌즈(708a,b)의 초점이 동적으로 조정되어 보여지는 3D 요소는 시차 뿐만 아니라 눈 초점에 기초하여 그 가상 거리에 있는 것처럼 사용자에게 나타난다.
도 8을 참조하면, 사용자-방향 일면에서 본 광학 모듈(800)의 특정 구성이 도시되어 있으며 그것은 도 1에 도시된 헤드 마운트(105)와 같은 헤드 마운트에 삽입될 수 있고 그리고 이는 도 7a 내지 도 7d에서 모듈식 광학 모듈(300), 또는 기타 구성에 도시된 어셈블리의 일 실시예일 수 있다. 광학 모듈(800)은 헤드 마운트(105)와의 연결을 위한 클립(804)들을 가지는 외부 하우징(802)을 가진다. 내부 하우징(806)은 외부 하우징(802)에 피팅되고 그리고 복수의 아이-트래킹 카메라(808)들을 가진다. 도시된 실시예에서, 각각의 눈에 대해 4개의 카메라(808)들이 존재한다. 각 카메라는 그것이 사용자 눈의 개별 사분면(respective quadrant)을 이미지화할 수 있도록 위치된다. 렌즈 어셈블리(810)는 좌우 렌즈들(812) 및 프론트 프레임(814)을 포함할 수 있는 프레임 어셈블리 내에 마운팅 된다. 렌즈(812)들은 도 7a 내지 도 7d와 관련하여 위에서 논의된 바와 같이 복합 액체 렌즈 어셈블리를 포함할 수 있다.
복수의 사용자-방향 LED(816)들이 모듈(800) 내에 마운팅 되고 그리고 아이 트래킹 목적(purpose)들 및 기타 이유(reason)들로 사용자의 눈을 조명(illuminate)하는 데 사용될 수 있다. LED들의 클러스터(cluster)들은 프레임 어셈블리의 주변부(periphery)를 따라 배열될 수 있다. 예를 들어, OLED 및 적외선 LED들, 백색광(white light) LED들 및 청색광(blue light) LED들일 수 있다. 일 실시예에서, LED들은 하나의 그룹으로 제어된다. 다른 일 실시예에서, LED들의 각 클러스터 및/또는 클러스터 내의 각 LED는 독립적으로 제어될 수 있다.
도 9a 및 도 9b는 개별적으로, 각각 그 위에 도시되는 이미지와 함께 디스플레이들(902a, 902b) 상에서 조합된 이미지들 및 별도의 샘플을 도시하고 그리고 여기서 각각의 이미지는 사용자가 헤드셋을 착용하고 있는 경우에 사용자의 대응하는 왼쪽 또는 오른쪽 눈으로 보이도록 의도된다. 도 9b의 조합된 이미지(904)는 도 9a의 별도의 이미지들이 단일 VR 환경 씬(scene)에 함께 융합(fuse)된 바에 따라 일반 사용자에 의해 어떻게 보일 수 있는지를 나타낸다. 이미지들은 3D일 수도 있거나 또는 뷰어(viewer)로부터 세팅된 겉보기 거리에 있는 플랫 씬(flat scene)을 반영할 수 있다.
도 7a에 도시된 헤드셋 시스템(700)과 같이, VR 헤드셋을 제어하는 소프트웨어는 가상 현실 환경에서의 색각 테스트(color vision testing)를 위해 도 9a 및 도 9b와 같은 이미지들을 제시하는데 사용될 수 있다. 특정 눈을 분리하는 것은 한 눈은 어두워진 스크린만 볼 수 있고, 다른 눈에 일련의 눈 테스트들을 적용하는 것을 허용하는 디스플레이 스크린들 중 하나를 끄는 것을 통해 수행될 수 있다. 왼쪽 및 오른쪽 이미지와 광학 어셈블리들 사이에 수직으로 동작하는 내부 불투명 배플(internal opaque baffle)은 왼쪽 및 오른쪽 이미지들 스크린들을 분리하기 위해 헤드셋의 사용자 일면(user side) 상에 제공될 수 있어, 헤드셋을 착용한 사람의 각 눈은 대응하는 디스플레이에 의해 제시된 이미지들만 볼 수 있다. 배플은 제거 가능하고 후크-앤-루프(hook-and-loop) 또는 기타 패스너(fastener)들을 사용하여 마운팅 되거나 또는 마찰 피팅(friction fit)에 대해 사이즈화(size)될 수 있고 그리고 헤드셋이 눈 이미지 격리(isolation)가 필요한 테스트들을 위해 사용되는 경우에 사용될 수 있다. 한 구성에서 배플은 헤드셋의 사용자 방향 일면에 마운팅 된 제거 가능한 전방 쿠션에 내장될(built into) 수 있다. 일련의 광학 테스트들이 실행 중일 경우, 소프트웨어는 추가적인 눈 테스트가 수행되기 전에 그러한 테스트들이 완료되면 배플을 제거하고 그리고 눈 분리가 필요한 눈 테스트들을 실행하기 전에 사용자에게 배플을 삽입하는 것을 촉발(prompt)하도록 구성될 수 있다. 아이 트래킹 카메라(612)들, 시각 카메라(610)들 또는 기타 센서들과 같이, 헤드셋 내의 카메라들로부터의 데이터는 배플이 존재하는지 여부에 대해 결정하거나 신호를 보내는 데 사용될 수 있다. 그 이후에 테스트 소프트웨어는 주어진 테스트를 제대로 실행할 수 있는지 여부를 결정하기 위해 이 값(value)의 상태(state)를 사용할 수 있다.
도 9a 및 도 9b의 예시적인 이미지에서 이미지들은 플랫 씬을 나타낸다. 시스템은 특정 오버랩(overlap)이 있는 이미지들을 디스플레이할 수 있다. 이미지들(902a, 902b) 사이의 오버랩의 양(amount)은 사용자에 의해 보여지는 가상 이미지가 가져야 할 겉보기 거리의 함수(function)일 수 있다. 하나의 테스트 시나리오(testing scenario)에서, 그리고 위에서 논의된 바와 같이, 액체 렌즈 초점은 조정될 수 있어, 추가적으로 시차 또는 이미지 간의 오버랩 정도(degree)에 기초하는 3D 깊이 신호(depth cue)를 제공하기 위해 눈 초점을 기반으로 하는 가상 이미지의 겉보기 거리도 조정될 수 있다. 또한, 디스플레이 된 이미지들 사이의 오버랩은 두 개의 이미지를 하나로 융합하는 사용자의 능력을 테스트하도록 조정될 수 있다.
VR 헤드셋들에 사용하기에 적합한 일 실시예에서, 포비티드 렌더링 프로세스는 헤드셋의 각 디스플레이 상에 표시된 이미지들을 생성하는 펌웨어 및/또는 소프트웨어에 의해 적용된다. 헤드셋에 마운팅 된 하나 이상의 아이-트래킹 카메라(612)들로부터의 이미지들은 각 이미지에서 사용자의 시선이 향하는 위치를 결정하기 위해 기존 기술들을 사용하여 처리된다. 사용자의 동공들이 향하는 각 이미지의 영역(area)은 디스플레이 화면의 최대 해상도 또는 그 근처와 같이 고해상도로 렌더링(render)된다. 동공들이 향하지 않는 이미지의 주변부 부분들은 시선의 중심에 비해 낮은 이미지 해상도로 렌더링된다.
포비티드 렌더링은 동공들의 위치 또는 스크린 상에서 사용자의 시선이 향하는 위치에 따라 옮길(shift) 수 있다. 시스템은 사전 정의된 속도(rate)로 아이-트래킹 카메라(612)로부터의 입력 및 포비티드 렌더링으로 동일한 속도로 리프레시(refresh)된 이미지를 수신하도록 구성될 수 있다. 이미지들은 60 내지 90Hz와 같이 반복적으로 디스플레이 될 수 있으며, 이 속도들은 사전 정의된 속도 이상일 수도 있다. 외부 방향의(outward) 사용자 시선의 포인트(point)으로부터 이미지 내의 거리에 기초하는 이미지 해상도의 감소는 매끄러운 변화(smoothly varying) 또는 단계적 기능(stepwise function)과 같이, 다양한 방식들로 변화될 수 있다. 해상도는 원형 패턴(circular pattern), 직사각형 패턴(rectangular pattern) 또는 적절하고 희망하는 바에 따라 달리(otherwise) 감소될 수 있다.
포비티드 렌더링은 시스템 리소스들이 전체 이미지를 고해상도 또는 최고 해상도 레벨로 생성될 필요가 없기 때문에 보다 효율적인 디스플레이 시스템을 허용한다. 고해상도 이미지를 생성하고 디스플레이 하는 데 필요한 리소스(resource)들은 사용자가 직접 보고 있으며 고해상도로 보여지는 이미지 내의 영역들에 대해 사용된다. 사용자 시야 주변부에 있는 이미지들은 더 낮은 해상도로 렌더링되고 그리고 생성하는 데 더 적은 시스템 리소스들을 필요로 한다. 따라서 완전한 이미지를 표시하는 데 필요한 리소스들이 감소된다. 이것은 시스템이 예를 들어, 더 느린 프로세서를 사용하여 구현되거나/되고 전체 이미지가 풀 해상도(full resolution)로 렌더링되는 경우에 가능한 것보다 증가된 프레임 속도로 이미지들을 제공하도록 구현되는 것을 허용할 수 있다. 포비티드 렌더링은 다양한 시각 테스트 시나리오들에 대해 사용될 수 있다. 그것은, 상호작용적 3D 환경(interactive 3D environment)들과 같이, 복잡한(complex) 시각 디스플레이들이 지속적으로(on a continual basis) 렌더링되는 기타 VR 환경들에서도 사용될 수 있다.
도 19a 및 19b를 참조하면, 높은 픽셀 밀도(high pixel density) 및 넓은 시야를 가지는 가상 이미지를 생성할 수 있으며 디지털 마이크로미러 디바이스(DMD)를 포함하는 망막 이미지 디스플레이(retinal image display, RID)에 대해 개선된 설계들이 도시되어 있다. RID는 본 명세서에서 구체적으로 설명된 바와 같이, 눈 테스트에 사용하기 위해 VR 스타일(style) 헤드셋에 포함될 만큼 충분히 작게 만들어질 수 있다.
도 19a는 RID(1900)의 제 1 실시예를 도시한다. 광원(light source)(1902)은 다양한 색상들의 라이트(light)를 생성하고 그리고 외부 제어 회로(미도시)에 의해 제어될 수 있다. 광원(1902)은 적색, 녹색, 청색 및 백색 라이트 이미터들 중 하나 이상을 포함하는 복수의 LED들을 포함할 수 있다. 기타 광원들이 대신 사용될 수 있다. 광원(1902)에 의해 생성된 라이트(1904)는 유입 라이트(incoming light)(1904)를 균질화(homogenize)하고 사전 정의된 형상비(aspect ratio)를 가지는 직사각형의 라이트 빔(rectangular beam of light)(1908)을 생성하도록 동작하는 통합기 로드(1906)로 지향된다. 기존의 통합기 막대가 사용될 수 있다. 특정 일 실시예에서, 통합기 로드는 정사각형 단면의 라이트를 출력하도록 각각 1/4인치의 높이 및 너비와 같이, 1/8 내지 3/8인치의 높이(height) 및 너비(width)를 가지고, 그리고 1/2 내지 1인치(예: 5/8인치)의 길이(long)다. 통합기 로드(1906)의 치수(dimension)들은 사용되는 마이크로미러 디바이스와 양립 가능한(compatible) 형상비를 가지는 엑시트 라이트(exit light)를 제공하도록 선택될 수 있다.
통합기 로드(1906)를 빠져나가는(exit) 라이트 빔(1908)은 포커싱 된 라이트 빔(1918)을 생성하기 위해 양면 볼록 렌즈(biconvex lens)들(1910, 1912)과 같은 하나 이상의 렌즈들을 사용하여 포커싱 된다. RID(1900)의 전체 길이를 줄이기 위해, 한 쌍(pair)의 대향 접이식 미러(opposed fold mirror)들(1914, 1916)은 제 1 렌즈(1908)를 빠져나가는 라이트를 제 2 렌즈(1910)로 재지향시키도록 사용될 수 있다. 렌즈들(1910, 1912)은 개별 광학 축(optical axe)들이 서로 평행하도록 배향(orient)될 수 있다. 접이식 미러들(1914, 1916)은 거울들일 수 있다. 대안적으로, 미러들(1914, 1916)은 들어오는(entering) 라이트에 수직으로(perpendicular) 배향된 그것의 플랫 페이스(flat face)를 가지는 삼각 프리즘(triangular prism)으로 대체될 수 있다.
포커싱 된 라이트 빔(1918)은 라이트 빔의 일부분(1924)을 DMD(1922)의 반사 활성 페이스(reflective active face)로 재지향시키는 부분 반사 미러(partially reflective mirror)과 같이 빔 스플리터(1920)에 지향된다. DMD로 지향되지 않은 광(1918)의 부분은 다른 방향으로 빔 스플리터(1920)를 빠져나간다. 광 흡수 배플(light absorbing baffle)(1927)은 내부 반사(internal reflection)들이 보여지는 바와 같이, 이미지에 영향을 미치는(impact) 것을 방지하기 위해 이 추가 라이트를 흡수하도록 제공될 수 있다. 빔 스플리터(1920)는 두께(thickness)가 0.5 내지 0.55mm인 플레이트(plate)일 수 있고, 그리고 들어오는 입사광(incident light)이 DMD 디바이스로부터 반사되는 반사광(reflected light)과 약 30 내지 40도 각도를 이루도록 위치될 수 있다.
DMD 제어 회로(미도시)는 희망하는 이미지를 생성하기 위해 들어오는 라이트를 조절(modulate)하기 위해 DMD의 마이크로미러들을 제어하는 데 사용된다. 5.4-마이크로 마이크로미러 피치(5.4-Micro Micromirror pitch)를 가지고, 그리고 4K UDH 해상도(840x2160 픽셀)로 이미지를 생성하는 0.66인치 대각선 마이크로미러 어레이(diagonal micromirror array)가 있는 DMD 칩(chip)과 같이 기존 DMD 모듈들은 통상적으로 사용 가능하며 사용될 수 있다. DMD 조절광(modulated light)은 빔 스플리터(1920)를 향해 다시 반사되고 그리고 일부분(1928)은 뷰어(viewer)의 눈(1932)으로의 프로젝션(projection)에 적절하게 라이트를 포커싱하는 프로젝션 렌즈(1930)를 통과하여 들어간다. 유리하게(advantageously), 시스템(1900)은 40도 내지 200도의 범위의 넓은 시야를 가지는 가상 이미지의 몰입형 근안 디스플레이(immersive near eye display)를 생성할 수 있다.
도 19b는 빔 스플리터(1920)가 전반사(total internal reflection, TIR) 프리즘(prism) 어셈블리(1940)를 포함하는 대안적인 RID 모듈 실시예를 도시한다. 프리즘 어셈블리(1940)의 추가 도면이 도 19c에 도시된다. 프리즘 어셈블리(1940)는 한 쌍의 직각 프리즘(right-angle prism)들(1942, 1944)을 포함한다. 프리즘(1942)은 프리즘 각도 A를 가진다. 제 1 프리즘(1942)의 빗변(hypotenuse)(1950)은 제 2 프리즘(1944)의 빗변(1954)에 인접한다. 프리즘들(1942, 1944)은 상이한 회절각(angle of diffraction)들을 가지는 상이한 광학 재료들로 구성된다. 프리즘(1942)은 굴절률(Na)을 가지고, 그리고 프리즘(1944)은 굴절률(Nb)을 가진다.
프리즘 어셈블리(1940)는 들어오는 라이트(1918)가 베이스(base)(1952)에 수직인 선(line)에 대해 입사각 θ으로 프리즘(1942)의 베이스 일면(1952)에 부딪치도록(strike) 위치된다. 라이트는 DMD(1922)의 활성 미러 표면에 수직인 선에 대해 각도 θ DMD에서 프리즘(1944)의 일면(1956)을 빠져나온다.
TIR 프리즘 어셈블리 프리즘(1940)은 표면에 수직인 축에 대한 각도로 표면(1942)에 부딪히는 입사광 또는 들어오는 라이트를 지향시킨다. 들어온 후, 입사광은 프리즘(1942)의 반사-투과형(reflective-transmissive) 표면(1950)에 부딪히고, TIR 프리즘(1940) 프리즘(1942)에서 DMD(1922)로 투과(transmit)된다. 광선(light ray)들은 DMD(1922)에서 표면(1956)을 통해 다시 TIR 프리즘 어셈블리(1942)를 향해 반사되고, 그리고 표면(1952)을 통해 TIR 프리즘(1940)으로 투과된다. 이후에, 반사광은 프리즘(1942)의 빗변 일면(1950)과 프리즘(1944)의 빗변 일면(1954) 사이의 인터페이스(interface)를 통해 투과된다. 투과된 라이트(transmitted light)는 프리즘(1944)을 통과하여 입구(1956)들을 통해 빠져나가고, 그리고 그것이 눈을 향해 지향될 수 있는 TIR 프리즘 어셈블리(1940)를 빠져나가도록 표면(1958)을 통해 투과된다.
TIR 프리즘의 코너(corner)들은 직각(90도)들이어야 하고 그리고 각도 "A"와 "B"은 합이 90도여야 하며 DMD(1922)의 물리적 위치 및 입사 방향에 따라 달라질 수 있다. TIR 빔 스플리터(1940)의 적절한 구성들은 당업자에게 알려져 있을 것이다.
도 19a 및 도 19b에 도시된 바와 같은 설계를 포함하는 것과 같이, RID 모듈은 전체 VR 헤드셋의 통합된 일부분일 수 있거나 또는 도 2a에 도시된 바와 같이 제거 가능한 광학 모듈(110) 내에 제공될 수 있다. 광학 모듈(110) 내에서, RID는 도 3a의 서브모듈(submodule)(310)과 같이 제거 가능한 서브모듈로 패키징(package)될 수 있다.
LED-조명 프로젝션 시스템의 밝기(brightness)는 LED 전류 강도를 조절하여 쉽게 조정될 수 있다. 한 쌍의 RID 디스플레이 유닛들이 각 눈에 하나씩, 사용자가 하나의 이미지만 볼 수 있는 헤드셋 내에 제공될 수 있다.
두 눈들의 동공들 중심 사이의 동공 거리(IPD)에 따라 사용자에 의해 보여지는 바에 따라, 2개의 RID 유닛들의 상대 위치를 조정하는 메커니즘들이 제공될 수 있다. 조정은, 예를 들어, 헤드셋 위(on) 또는 인접하게 위치되는 회전식 손잡이들(rotary knob)을 통해서와 같이, 수동적으로 또는 가상 현실 헤드셋 내에 위치되는 작은 서보 모터(servo motor)를 통해 전기적으로 제어될 수 있다. 헤드셋의 알려진 위치들에 있는 아이 트래킹 카메라들과 같이 헤드셋의 카메라들은 IPD가 계산될 수 있는 것으로부터 데이터를 캡처(capture)하도록 사용될 수 있다. RID 디스플레이 유닛들의 위치는 그에 응답하여 자동으로 조정될 수 있다. 물리적 서보 모터들, 선형 액추에이터(linear actuator)들 또는 유사한 디바이스(similar device)들은, 사용자의 눈들 위치(예를 들어, 아이 트래킹 카메라에서 보이는 바와 같이)에 대해 RID 유닛들의 위치(location)를 모니터링하는 소프트웨어가 RID 디스플레이는 눈들과 적절하게 정렬되어 있음을 나타낼 때까지 RID 디스플레이 유닛들의 위치를 조정하기 위해 사용될 수 있다. 이후에 RID 유닛들의 위치들은 저장될 수 있고 그리고 후속 세션(later session) 동안 그 동일한 사용자에 대한 RID 디스플레이들의 재위치를 위해 사용될 수 있다. 광학 인코더(optical encoder)들은 알려진 IPD에 대해 사전 정의된 위치들에서 RID 디스플레이들을 위치시키기 위해 사용될 수 있다. 인코더들은 절대적 또는 상대적 위치를 제공할 수 있다. 인코더들 대신에 서보 모터의 주어진 '틱(tick)'에 대한 RID 유닛의 알려진 변위(displacement)는 언제 RID가 알려진 IPD에 대해 적절한 양만큼 변위(displace)되는지를 결정하기 위해 사용될 수 있다.
상술한 바와 같이 광각(wide-angle) RID 디스플레이 또는 기타 광각 디스플레이 시스템을 가지는 헤드셋 시스템은 환자에 대해 시야 테스트(visual field test)들을 빠르고 효율적으로 수행하기 위해 사용될 수 있다. 시야 검사는 환자의 주변 시야(peripheral vision)가 시작되고 끝나는 위치 및 그들이 주변 시야에서 얼마나 물체들을 잘 볼 수 있는지를 포함하여, 사용자의 시선이 하나의 포인트(single point)에 포커싱 되는 동안에 사용자의 눈들로 볼 수 있는 전체 영역(시야)을 결정하기 위해 사용된다. 사람의 눈들의 정상적인 시야는 약 120도의 호(arc)에 걸쳐(span) 있다. 본 명세서에서 개시된 광각 디스플레이 헤드셋 시스템은 자동화된 시야 측정 검사를 관리하는 데 특히 적합하다.
테스트 패턴들은 시야 내의 다양한 위치들에 제시될 수 있고 그리고 패턴들이 보여지는 때(when)를 나타내는 환자 피드백은 감지되며 기록된다. VR 헤드셋을 사용하여 테스트를 관리하는 것은 환자의 눈들에 대한 테스트 필드(test field)의 위치를 변경하지 않고 유지하는 동안에 사용자가 그들의 머리를 움직일 수 있도록 허용한다. 이것은 테스트 프로세스 동안에 환자의 스트레스를 줄일 수 있다.
테스트에 사용되는 다양한 기존 테스트 패턴들이 있다. 패턴들은 다음을 포함한다:
* 10-2: 측두(temporally) 및 비강(nasally) 10도를 측정하고 그리고 68 포인트들을 테스트함(일반적으로, 황반(macula), 망막 및 신경 안과 질환(neuro-ophthalmic condition)들, 및 진행성 녹내장(advanced glaucoma)을 위한 테스트에 사용됨);
* 24-2: 측두 24도 및 비강 30도를 측정하고 그리고 54 포인트들을 테스트함;
* 24-2C: 측두 및 비강 24도 + 10도를 측정하고 그리고 64 포인트들을 테스트함; 그리고
* 30-2: 측두 비강 30도를 측정하고 그리고 76 포인트를 테스트한다.
이 테스트 패턴들은 중앙 시야를 커버(cover)하고 그리고 수직 및 수평 자오선(meridian)에 관련된다(respect). 테스트 포인트 위치들은 서로 등거리(equidistant)며 고정된 각도들의 세트로 분리된다; 예를 들어, 30-2와 24-2의 경우 6도 간격(separation)이 있다. 24-2 패턴은 30-2 패턴에 기초하지만, 2개의 비강 포인트(nasal point)들을 제외하고 테스트 위치들의 가장 주변의 링(the most peripheral ring)이 제거된다.
본 발명의 일 양태에 따르면, VR 헤드셋 시스템은 복수의 상이한 테스트 패턴들로 프로그래밍(program)된다. 의사는 시스템에 프로그래밍 된 그것들로부터 세트 패턴들의 시퀀스 또는 사용될 주어진 테스트 패턴을 수동으로 선택할 수 있다. 소프트웨어는 선택된 테스트 패턴에 따라 환자에게 시각적 자극(visual stimuli)을 제시하고 결과들을 기록한다. 대안적으로, 시스템은 자동으로 선택된 일련의 테스트들을 통해 시퀀스 하도록 프로그래밍될 수 있다. 특정한 피쳐에 따르면, 상이한 여러 테스트들이 자동으로 실행되어야 하는 경우, 시스템은 다양한 테스트들은 본질적으로(essentially) 함께 병합(merge)되고 병렬로 실행되도록 각 테스트에 사용 가능한 데이터 포인트들의 전체 세트에서 데이터 포인트들을 무작위로 선택할 수 있다. 테스트 결과들이 완성되는 경우, 테스트 데이터는 제어 시스템(16) 또는 시스템(20)과 같이 원격 컴퓨터 저장소(remote computer storage)로 출력될 수 있다. 또한, 데이터는 나중에 참조하기 위해 로컬 또는 원격 데이터 저장소(18)에 저장될 수 있다.
헤드셋의 아이 트래킹 카메라 시스템은 시야 중앙에 있는 작은 이미지 또는 포인트와 같은 타겟(target)에게 환자의 시선이 향하는 때를 결정하기 위해 사용될 수 있다. 테스트 시작(initiation)에서, 시스템은 환자가 중앙 타겟을 꾸준히 보고 있는 때를 결정하기 위해 눈 시선을 모니터링할 수 있다. 이 조건이 충족된 후에 테스트들이 시작될 수 있다.
또한, 아이 트래킹 데이터는 테스트 프로세스 동안 환자의 시선이 중앙 타겟에서 옮겨지는 때를 결정하기 위해 사용될 수 있다. 일 실시예에서, 소프트웨어가 시선 이동(gaze shift)을 감지하는 경우에 테스트는 일시 중지될 수 있고 환자는 타겟으로 시선을 되돌리도록 자동으로 지시를 전달받을(instructed) 수 있다. 이 조건이 충족되는 경우 예를 들어, 아이 트래킹 데이터 분석을 통해 테스트가 재개(resume)될 수 있다. 대안적으로, 아이 트래킹 데이터는 중앙 타겟에 대해 사용자의 각도 오프셋(angular offset)을 결정하도록 사용될 수 있다. 이 오프셋은 디스플레이 되는 테스트 데이터 포인트의 오프셋에 적용될 보정 계수(correction factor)를 생성하기 위해 사용될 수 있다. 예를 들어, 주어진 테스트에 대한 데이터 포인트가 중앙에서 30도 오프셋되어 있지만 환자가 그들이 데이터 포인트를 봤다고 표시하는 경우에서 그들의 시선이 해당 데이터 포인트를 향해서 10도 옮겨지는 경우, 감지(detection)가 20도 오프셋만 가지는 데이터 포인트에 적용되는 것으로 처리(treat)될 수 있다. 소프트웨어는 30도 오프셋 데이터 포인트가 테스트된 것으로 간주하지 않으므로 이 포인트는 다른 시간대에 다시 시도될 수 있다. 마찬가지로, 데이터 포인트가 디스플레이 되기 전에 시선 오프셋이 감지되는 경우, 데이터 포인트의 각도 위치는, 표시되는 경우에 데이터 포인트의 상대적 오프셋(relative offset)이 의도한 대로 되도록 그 오프셋에 의해 조정될 수 있다. 위의 예시에서, 10도 시선 오프셋이 감지되는, 오프셋 방향의 30도 오프셋 데이터 포인트는 40도 위치에 디스플레이 되어 환자에 대한 실제 오프셋은 적절한 30도가 되도록 한다.
일반적이고 중요한 눈 검사는 안저 카메라를 사용하여 망막 사진들을 찍는 것을 포함한다. 기존 설계들에서의 안저 광학 장비는 부피가 크고(bulky), 그리고 특히 가능한 한 번에 많은 망막을 이미지화 하기 위해 카메라가 눈 내의 넓은 시야를 제공하도록 설계되는 시스템들에서 비싸다. 본 발명의 일 양태에 따르면, 소형화된 안저 카메라가 제공된다. 안저 카메라는, 예를 들어, 전용 구성의 헤드셋(12)으로 또는 제거 가능한 광학 모듈(110, 300)의 일부로, VR-스타일 헤드셋 내부에 마운팅 될 수 있으며 협소(narrow)하고 넓은 시야 망막 이미징 기능들을 제공하기 위해 사용될 수 있다. 안저 카메라가 한 세트의 이미지들을 촬영하는 동안 눈의 라이브 비디오(live video)에서 데이터가 수집될 수 있다. 아이-트래킹 및 이미지 처리는 망막의 대부분 또는 그 전체를 커버하는 이미지를 생성하기 위해 카메라로 캡처된 이미지들을 조합하도록 사용될 수 있다.
안저 카메라 컴포넌트는 카메라 조리개(camera aperture)가 사용자 눈 앞의 다양한 위치들에 위치되는 것을 허용하도록 헤드셋 내에 이동 가능하게 마운팅될 수 있다. 한 구성에서, 안저 카메라는 VR-스타일 헤드셋 내부의 피봇 가능한 암(pivotable arm) 내에 마운팅 된다. 암을 피봇팅 하는(pivot) 것은 카메라 조리개가 헤드셋을 착용한 사람의 눈 앞에서 움직이도록 허용하여, 망막 이미지들이 캡처될 수 있도록 한다. 이후에, 카메라는, 예를 들어, 헤드셋에도 포함될 수도 있는 비디오 디스플레이들의 보기(viewing)를 허용하도록 시야에서 멀어지고 적어도 부분적으로 시야 밖으로 이동될 수 있다. 추가적인 구성에서, 안저 카메라는 헤드셋의 주변부의 일부를 따라 있는 트랙(track)에서 라이딩 하는(ride) 회전 가능한 피봇(pivot)에 마운팅 되어 카메라 위치 지정(camera positioning)에 대한 추가적인 자유도를 제공한다.
헤드셋 내 안저 카메라의 위치의 직접 수동 조정을 허용하도록 기계적 연결 장치(mechanical linkage)들이 제공될 수 있다. 안저 카메라가 움직일 수 있는 서보 모터들, 선형 액추에이터들 또는 기타 메커니즘들은 원격 제어로 카메라가 이동되는 것을 허용하도록 제공될 수 있다. 소프트웨어는 사용자의 눈 앞에 직접적으로 안저 카메라를 적절하게 위치시키도록 사용될 수 있다. 소프트웨어는 아이 트래킹 카메라들로부터의 이미지들을 처리할 수 있다. 안저 카메라 내의 카메라로부터의 이미지들도 사용될 수 있다. 아이 트래킹 및/또는 안저 카메라 이미지들의 라이브 디스플레이들은 원격 PC(또는 도 4에 도시된 VR 헤드셋의 외부 스크린 디스플레이)에 표시될 수 있으며 테스트를 관리하는 사람은 사용자의 눈과 그것을 정렬하도록 컴퓨터 입력 또는 기타 입력을 사용하여 카메라 위치를 수동으로 제어할 수 있다. 또한, 소프트웨어는 아이 트래킹 카메라 및/또는 안저 카메라 이미지들을 분석하고 사용자 눈 앞의 정확한 위치에 안저 카메라를 자동으로 위치시키기위해 해당 데이터를 사용하도록 구성될 수 있다.
하기에서 추가로 설명되는 바와 같이, 안저 이미징 시스템 동안, 안저 카메라는 정상적인 눈 단속도 운동(eye saccades)들 동안에 또는 안구 운동을 수행하는 동안에 안구 내부의 생체 내 이미지들을 캡처한다. 동시에, 아이 트래킹 카메라들은 환자의 눈 지향(orientation)을 계속 추적하기 위해 사용될 수 있다. 눈 위치는 구면(spherical), 데카르트(cartesian) 또는 기타 좌표계(coordinate system)로 기록될 수 있으며 위치 데이터는 주어진 시간의 눈 위치가 동시에 안저 카메라에 의해 캡처된 이미지와 연결되도록 허용하는 방식으로 저장된다. 눈 좌표 정보는 대응하는 안저 이미지에서 캡처된 망막의 일부분을 결정하여 어떤 안저 이미지들이 서로 인접해 있는지 결정하는 데 사용된다. 생체 내 이미지들이 세그먼트화(segment) 되고, 그리고 아이 트래킹 카메라에서 수집된 좌표 정보를 사용하여 세그먼트화 된 이미지들의 가장자리들을 피팅하기 위해 콜라주(collage)가 생성된다. 이후에 이미지 처리 알고리즘이 세그먼트화 된 이미지들을 조합하여 눈의 안저를 시각화 하는 넓은 시야를 생성한다. 아이 트래킹 데이터를 눈들의 이미지들과 조합하여, 눈 이미지들은 수집되고 데이터의 전체 이미지를 생성하도록 함께 스티칭 되고; 각 눈의 확장된 시야(예: 수평 시야의 최대 120° 및 수직 시야의 최대 135)를 가진다.
도 10a 및 도 10b는 헤드셋 내에 마운팅 하기에 적합한 안저 카메라 모듈(1008)의 전면도 및 후면도(front and rear views)를 각각 도시한다. 카메라 모듈(1008)은 긴 하우징(elongated housing)(1040)을 가진다. 카메라 대물 렌즈(1050)는 하우징의 전면(1052)에 위치하고 이를 통해 하우징(1040) 내부의 카메라가 대물 렌즈(1050) 앞의 시야에서 물체의 이미지들을 캡처할 수 있다. 하우징(1040)은 카메라 모듈(1008)이 VR 스타일 헤드셋(12) 내에 마운팅 되는 것을 허용할 만큼 충분히 작게 만들어질 수 있다. 예를 들어, 하우징(1040)은 43mm와 58mm 사이의 길이, 11mm와 22mm 사이의 높이, 및 22mm와 33mm 사이의 깊이를 가질 수 있다. 안저 카메라 내부 컴포넌트들에 대한 특정 구성은 하기에서 별도로 설명된다. 대안적으로, 그 자체 전용 하우징(dedicated housing)(1040) 내에 카메라(1008)를 제공하는 대신에, 안저 카메라 컴포넌트들의 몇몇 또는 전부가 헤드셋의 기타 컴포넌트들 내에 통합될 수 있다.
얼굴 상에서 눈들의 위치는 상이한 개인들마다 서로 다를 수 있다. 이를 해결하기 위해, 카메라 모듈은 헤드셋(12) 내에 이동 가능하게 마운팅 될 수 있다. 다양한 마운팅 기술들이 사용될 수 있다. 일 실시예에서, 마운팅 샤프트(mounting shaft)(1054)는 하우징(1045)의 후면(1056)으로부터 후방쪽으로(rearward) 확장(extend)된다. 샤프트(1054)는 카메라 모듈(1008)을 헤드셋에 회전 가능하게 커플링 하여 그것이 환자의 눈 위치와 매칭(match)되도록 필요에 따라 재위치(reposition) 되도록 헤드셋 구조 내의 원통형 구멍(cylindrical hole)과 짝을 이룰 수 있다. 카메라 모듈(1008) 내의 카메라 컴포넌트들에 대한 데이터 연결들 및 전력(electronic power)은 마운팅 샤프트(1054) 내에 통합된 하우징(1040)으로부터 연장되는 하나 이상의 전기 및 데이터 케이블(1058)들을 통해 또는 기타 수단(mean)들에 의해 이루어질 수 있다. 또한, 당업자에게 알려진 대안적인 구조들은 헤드셋에 카메라(1008)를 마운팅 하기 위해 사용될 수 있다. 예를 들어, 카메라 하우징(1040)은 헤드셋의 일부분으로부터 연장되는 마운팅 샤프트를 수용(receive)하는 구멍을 가질 수 있다.
안저 카메라 모듈(1008)들은 헤드셋의 내부에 제거 가능하게 마운팅 되거나 또는 고정될 수 있다. 하나 이상의 카메라 모듈(1008)들은 안저 이미징을 위해 설치되고, 이후에 헤드셋이 기타 목적들을 위해 사용될 수 있도록 제거될 수 있다. 또한, 안저 카메라들은 카메라(1008)가 사용자의 시선(line of sight)에 부분적으로 또는 완전히 밖으로 이동하도록 허용하기 위해 헤드셋 내의 위치에 회전 가능하게 마운팅 되고 구성될 수도 있어, 안저 카메라가 여전히 마운팅 되어 있는 동안 헤드셋이 기타 목적들을 위해 사용되는 것을 허용한다.
도 10c는 헤드셋 시스템의 외부 프레임(115)에 마운팅 될 수 있고 프레임 어셈블리(1010)에 회전 가능하게 마운팅 된 한 쌍의 안저 카메라 모듈들(1008a, 1008b)을 포함하는 광학 모듈(1000)의 분해도를 도시한다. 광학 모듈(1000)의 예시 구성은 도 7a에 도시된 광학 모듈과 유사하며, 기타 시스템 컴포넌트들 및 안저 카메라들(1008a, 1008b)의 다양한 컴포넌트들을 제어하고 외부 디바이스들과 통신하기 위해 사용되는 컴퓨터 회로를 포함하는 마더보드(1004)를 포함할 수 있다.
몇몇 구성에서, 이미지 디스플레이 기능들뿐만 아니라 안저 카메라 시스템들을 제공하는 것은 유용(useful)할 수도 있다. 왼쪽 및 오른쪽 이미지들은 안저 카메라(1008)들 뒤에 마운팅 된 한 쌍의 시각 디스플레이들(1006a, 1006b)에 의해 제공될 수 있다. 실제 안저 이미징 동안, 사용자의 동공이 완전히 확장되는 것을 허용할 수 있도록 어두운 내부가 필요하기 때문에 디스플레이들 상에 표시되는 시각 이미지가 없어야 한다. 그러나, IR 조명(illumination)을 사용하는 아이 트래킹 시스템들은 예를 들어, IR 차단 필터(IR blocking filter)에 의해서 안저 이미징 카메라가 IR 조명에 민감(sensitive)하지 않은 위치에서 계속 사용될 수 있다. 디스플레이들(1006a, 1006b)이 제공되는 경우, 렌즈 모듈 어셈블리(1012)가 포함될 수도 있다. 2개의 안저 카메라들이 도시되어 있지만 몇몇 실시예들은 하나의 카메라만 포함할 수도 있다. 예를 들어, 하나의 안저 카메라는 왼쪽과 오른쪽 눈 영역들 사이의 프레임 어셈블리(1010) 상에 마운팅 될 수 있고 마운팅 되어 양쪽 눈 앞에 위치되도록 앞뒤로 흔들(swing)릴 수 있다. 이에 대해서는 하기에서 추가적으로 설명된다.
다양한 기타 컴포넌트들은 기타 컴포넌트 또는 회로 기판(1004) 상에 마운팅 될 수 있는 아이 트래킹 카메라 및 LED들을 포함하는 광학 모듈에 포함될 수도 있다. 예를 들어, 아이 트래킹 카메라들은 프레임 어셈블리(1010)의 부분들(1012a, 1012b) 상에 마운팅 되는 LED들 및 후방 프레임(1002) 내에 마운팅될 수 있다. 이들 컴포넌트들과 구동 회로 사이의 전기적 연결들은 당업자에게 공지된 기술을 사용하여 제공될 수 있다.
통합된 안저 카메라가 있는 다양한 기타 헤드셋 구성들이 제공될 수 있으며 헤드셋 내에 (고정되거나 또는 이동되는) 안저 카메라를 마운팅하기 위해 다양한 메커니즘들이 사용될 수 있다. 회전 가능하게 마운팅 되는 것 외에도(in addition to), 안저 카메라들은 또한, 또는 대안적으로 카메라 위치가 조정되는 것을 허용하도록 슬라이드 가능하게 마운팅 될 수 있다. 안저 카메라들이 디스플레이 스크린(1004)들을 방해하지 않고 완전히 이동되는 것을 허용하기 위해, 표준 VR 헤드셋 형태 인자(form factor)에 대한 수정들이 필요할 수도 있다. 예를 들어, 하우징 요소들(1016, 115)의 상부, 하부 또는 측면들은 그들이 사용 중이 아닌 경우 안저 카메라를 수용할 공간을 제공하기 위해 위쪽으로 또는 기타 방향들로 확장될 필요가 있을 수도 있다.
도 11a 및 도 11b는 헤드셋 내에 마운팅 되고 도 10c의 구성의 조립된 버전에 대응하는 우측 안저 카메라(1108)들 및 그것을 포함하며 사용자-방향 일면에서 본 헤드셋 시스템(1100)을 도시한다. 도 11a는 보관된 위치(stowed position)에 있는 왼쪽 및 오른쪽 안저 카메라들(1108)을 도시하는 반면에, 도 11b는 각 카메라의 대물 렌즈 조리개(1109)가 망막 이미징에 적합한 위치로 이동되는 전개 위치(deployed position)에 있는 안저 카메라(1108)들을 도시한다. 도시된 안저 카메라(1108)들은 도 10a 및 10b에 도시된 카메라(1008)들과 동일한 형태 인자를 가진다. 전체 헤드셋 설계 및 카메라(1108)들에 대해 대안적인 형태 인자들이 사용될 수 있다. 카메라(1108)는 예를 들어, 1 센티미터 거리(a centimeter distance)와 같이, 동공의 앞에서 중앙에 가깝게 놓이도록 위치될 수 있게 헤드셋 내에 구성된다. 특정 일 실시예에서, 안저 카메라(1108)들은 수축(retract)되거나 보관된 위치로부터 35도 내지 65도의 어느 곳으로든 회전될 수 있다.
헤드셋(1100)은 IR 카메라들일 수 있는 복수의 아이 트래킹 카메라(1110)들을 가진다. 카메라(1110)들의 프레임 속도(frame rate)는 고정되거나 또는 조정(예: 50Hz 내지 100Hz 사이의 범위) 가능할 수 있다. 도시된 실시예에서, 각각의 눈에 대해 4개의 아이 트래킹 카메라(1110)들이 있다. 각각의 아이 트래킹 카메라(1110)는 사용자 눈의 개별 사분면(respective quadrant)의 이미징을 허용하도록 위치된다. 아이 트래킹 카메라(1110)들은 안저 카메라(1108)가 결합되는 경우에 눈 마다 하나 이상의 IR 아이-트래킹 카메라가 해당 눈에 대한 동공 움직임을 보고 기록할 수 있도록 위치된다.
헤드셋(1100)은 아이 트래킹 목적들 및 기타 이유들을 위해 사용자의 눈들을 조명하는 데 사용될 수 있는 복수의 사용자-방향 LED(1116)들을 포함할 수 있다. LED(1116)들은 헤드셋 내의 프레임 어셈블리(1114) 주변부에 클러스터(cluster)들로 배열될 수 있다. 주어진 클러스터는 상이한 타입들의 LED들, 예를 들어, OLED 및 적외선 LED들, 백색광 LED들, 및 청색광 LED들을 포함할 수도 있다. LED들의 클러스터들은 그룹으로 제어되도록 구성될 수도 있거나 또는 LED(1116)들의 각 클러스터 및/또는 클러스터 내의 각 LED(1116)는 독립적으로 제어될 수 있다. 또한, 적외선 LED들은 아이 트래킹 카메라(1110)들에 대한 조명 역할을 하도록 제공될 수 있다.
안저 이미징 세션 동안, 아이-트래킹 및 안저 카메라 망막 이미지 캡처 루틴(routine)들은 동시에 실행될 수 있으며 사용자의 눈들은 자유롭게 돌아다니는 것이 허용된다. 동공들은 일반적으로 반구(semi hemisphere)에서 이동되는 경로와 유사한 경로를 추적한다(trace out). 아이 트래킹 카메라(1110)들은 주기적으로(periodic basis) 동공의 위치를 캡처하고 이미지들은 동공의 위치 및 동공의 위치가 변경되는 때를 결정하기 위해 처리될 수 있다. 동공의 적외선 반사들은 홍채(iris) 및 공막(sclera)의 반사들보다 크므로 카메라가 눈 표면에서 동공을 더 쉽게 구별할 수 있다. 아이 트래킹 카메라(1110)들로 캡처된 이미지들은 각막 반사(Corneal Reflection), 양안(Binocular) 및 어두운 동공 추적(Dark pupil Tracking)을 포함하는 기존의 아이-트래킹 알고리즘을 사용하여 처리될 수 있다. 또한, 시차 보상(parallax compensation)도 구현될 수 있다.
안저 카메라(1108)는 종종 사용자의 망막의 일부분만 이미지화할 수 있다. 이미지 캡처 프로세스 동안, 사용자는 그들의 시선 방향을 변경하여 카메라에 의해 이미지화 되는 망막의 영역을 변경하도록 지시를 받을 수도 있다. 지시들은 들을 수 있고/있거나 볼 수 있다. 예를 들어, 오디오 신호(audio cue)들은 사용자에게 예를 들어 적절할 수도 있는 앞, 아래, 오른쪽, 왼쪽 또는 위를 보는 것을 말하도록 발행(issue)될 수 있다. 또한, 하나 이상의 시각 LED(1116)들은 사용자가 바라보는 방향을 나타내기 위해 깜박이거나 또는 켜질 수도 있다. 이러한 LED들은 희미하게 켜져서 보여질 수 있지만 사용자의 동공을 수축시킬 만큼 충분한 라이트를 방출하지 않는다.
안저 카메라(1108)로 촬영된 다중 오버랩 망막 사진들은 망막의 큰 부분의 단일 이미지를 제공하기 위해 이미지 인식 소프트웨어 및 기존의 이미지 스티칭 알고리즘(들)을 사용하여 조합될 수 있다. 본 명세서에 개시된 시스템들을 사용하여, 눈 뒤쪽의 수평 시야의 최대 120° 및 수직 시야의 135°인 망막 이미지를 생성하도록 이미지들이 캡처되고 조합될 수 있다.
이미지화 되는 망막의 일부분은 눈 시선 방향 및 안저 카메라의 상대 위치에 대한 정보에 의해 결정될 수 있다. 이미지 스티칭 속도 및 정확도는 스티칭 이전에 여러 이미지들을 서로에 대해 배치되어야 하는 방식을 결정하기 위해 이 데이터를 사용함으로써 향상될 수 있다. 안저 카메라 위치 및 아이-트래킹 정보는 그것이 안저 카메라 이미지와 매칭되는 것을 허용하도록 적절한 타임 스탬프(time stamp) 정보를 가지는 별도의 데이터 스트림(stream)에 저장될 수 있다. 대안적으로 정보는 안저 카메라에 의해 캡처된 각 이미지 프레임 내의 메타데이터(metadata)로 추가될 수 있으므로, 안저 카메라 이미지 스트림의 기록도 이 추가 데이터를 전달할 것이다. 메타데이터는 헤드셋 내에서 실행되는 소프트웨어 또는 외부 시스템 내의 소프트웨어에 의해 안저 이미지들에 추가될 수 있다.
시스템은 관심있는 망막의 모든 영역들이 허용 가능한 품질의 적어도 하나의 이미지에 나타나도록 충분한 품질의 망막의 충분한 이미지들이 캡처되었던 시기를 결정하기 위해 프로그래밍될 수 있다. 정상적인 상황들 하에서, 사용자가 눈을 이리저리 움직이는 동안에 안저 카메라(1108)에 의해 캡처된 평균 500-720개의 안저 이미지 프레임들(초당 24프레임, 30초-비디오 길이)은 충분한 이미징을 제공할 수 있다. 처리 소프트웨어가 완전히 이미지화 되지 않은 망막 영역들이 존재한다고 결정하는 경우에 일련의 안저 이미지들(sequence of fundus images)이 캡처된 후에 환자에게 그들의 시선 방향을 변경하도록 요청하는 추가 오디오 및/또는 시각적 신호가 트리거(trigger)될 수 있다.
도 12는 전술한 바와 같이, 안저 카메라를 포함하는 아이-트래킹 시스템(1200)의 상위-레벨 블록도이다. 시스템은 위의 카메라(1108)와 같은 헤드 마운팅 안저 카메라를 포함한다. 초기 이미지 캡처(initial image capture) 및 처리를 위해 안저 카메라(1108)를 제어하기 위한 소프트웨어 및 하드웨어를 포함하는 제어 시스템(1204)은 위에서 논의된 바와 같이, 카메라(1208)에 연결되며 헤드셋 내에 통합되는 적절한 소프트웨어 및 하드웨어를 가지는 프로세서 보드일 수 있다. 원격 이미지 처리 및 분석 시스템(1206)은 추가 기능을 제공하기 위해 제어 시스템(1204)에 연결될 수 있다. 제어 시스템(1204) 및 분석 시스템(1206)은 개별적으로 도 1의 분석 시스템(20) 및 제어 시스템(16)과 유사하다(analogous).
도 13은 완성된 망막 이미지를 생성하기 위해 본 명세서에 개시된 바와 같이 안저 스캐닝 시스템을 사용하는 망막 이미징을 위한 방법의 상위-레벨 플로우 차트(flow chart)이다. 초기 단계에서, 안저 카메라로부터의 디지털 이미지들이 수신되고 캡처된다(단계 1302). 시스템은 이미지를 캡처하는 것 외에도 아이 트래킹 이미지의 분석에 의해 결정되는 사용자의 눈 위치 및 특정 이미지들이 촬영되는 시점의 안저 카메라 위치에 대한 정보도 캡처할 수 있다. 이러한 데이터 포인트들은 전술한 바와 같이 캡처된 이미지들에 링크된 이미지 처리 시스템으로 전송될 수 있다. 사용자가 예를 들어 지시들에 응하여 그들의 시선 방향을 옮기면 이미지 캡처가 계속된다. 캡처된 안저 이미지들은 눈 및 카메라 위치 데이터와 동기화(synchronize)된다. 아이 트래킹 이미지들을 실시간(real time)으로 처리하는 것 대신에, 눈 처리 이미지들은 촬영된 안저 이미지들과 함께 저장될 수 있으며 추후에 처리는 계속된다. 캡처한 눈 및 안저 카메라 이미지들과 저장된 이미지 타임 스탬프들은 이미지들을 동기화 하기 위해 사용될 수 있다.
캡처된 이미지들의 초기 하위-레벨 이미지 처리가 수행된다. 이 처리는 방사 왜곡(radial distortion)을 보정하기 위한 평탄화(flatten) 단계(단계 1304) 및 당업자에게 알려진 종래의 이미지 처리 필터들을 사용한 이미지들의 일반적인 폴리싱(polish) 단계/클리닝(clean) 단계(단계 1306)를 포함할 수 있다. 초기 패턴 인식은 이미지 스티칭 동안 서브시퀀스 사용을 위해 캡처된 이미지들에서 세부 정보(details)를 추출하도록 수행될 수 있다(단계 1308). 그런 다음 이미지 매칭 단계가 프레임들 간의 서술자(descriptor)들에 대한 대략적인 최상의 매치(match)를 결정하기 위해 수행되며, 유사한 피쳐들을 가진 프레임들은 함께 그룹화될 수 있다. 이미지 배열(image arrangement)이 패턴 매칭을 기반으로 단독으로 수행될 수 있지만, 이 배치(placement)의 정확도는 피쳐 매칭을 기반으로 더 작은 스케일(scale)의 위치 조정에 의해 도출되는 초기 배치로 이미지들과 관련된 안저 카메라 및 눈 위치를 사용함으로써 증가될 수 있다. 배치는, 예를 들어, 피처 매칭에 기초하는 이미지들의 위치를 조정하고 그룹화 하는 것과 같이, 기존 패턴 인식 소프트웨어를 사용하여 개선(refine)될 수 있다. 당업자에게 공지된 이미지들을 위치 지정하고 그룹화 하기 위한 기타 기술들이 또한 사용될 수 있다(단계 1310, 1312). 배치는 이미지가 나타내는 망막 영역과 관련된 이미지 위치 및 지향을 가진 오목한 구면(concave spherical surface)에 관련 있을(be relative to) 수 있다. 배치하기 이전에, 이미지 품질(quality)도 평가(assess)될 수 있으며 주어진 임계값(threshold) 미만의 품질 값(quality value)을 가지는 사진은 폐기(discard)될 수 있다. 예를 들어, 눈의 움직임으로 인해 흐릿(blur)해졌다고 결정되는 사진들은 폐기될 수 있다.
이미지 캡처 프로세스는 시스템이 이미지화 될 망막 영역이 하나 이상의 이미지들에서 적절하게 캡처된 것으로 결정할 때까지 계속된다(단계 1314). 예를 들어, 시스템은 스티칭 되지 않았지만 위치가 지정된 이미지들이 갭(gap) 없이 서로 위에(on top of each other) 배열될 때까지 이미지들을 계속 캡처할 수 있다. 일 실시예에서, 카메라는 이동될 것이고 그리고/또는 사용자는 관심 망막의 전체 영역의 이미지 캡처를 제공하도록 설계된 시퀀스로 그들의 눈을 이동하도록 지시를 전달받을 것이다. 사전 설정된(preset) 이미지 캡처 시퀀스 후에, 시스템은 이미징 갭들을 감지할 수도 있다. 그러한 경우에 적절한 신호가 카메라를 이동시키기 위해 생성될 수 있고 그리고/또는 사용자에게 갭 영역이 이미지화될 수 있도록 허용할 위치로 그들의 눈을 이동시키도록 지시를 전달할 수 있다. 정확한 영역들에 대해 충분한 사진들이 촬영되었는지를 결정하는 다양한 기타 방법들이 사용될 수도 있으며, 평탄화, 폴리싱, 패턴 인식, 사전 스티칭(pre-stitching) 및 이미지 매칭 단계들(1304, 1306, 1308, 1310, 1312) 중 하나 이상이 이 결정 전후에 수행될 수 있다.
그 다음, 선택되고 배열된 이미지들은 망막의 조합된 이미지를 생성하도록 함께 스티칭 된다(단계 1316). 스티칭 프로세스 동안, 2개 이상의 프레임들이 스티칭 될 필요가 있는 경우, 번들 조정(bundle adjustment)이 수행될 수 있고 그리고 프레임들이 여러 기타 프레임들과 일치하는 경우 원하지 않는 검은색 영역들 및 눈에 보이는 이음새(seam)들이 없는지 확인(ensure)하기 위해 블렌딩 단계(blending)가 수행될 수 있다. 2개 이상의 프레임들이 오버랩되는 영역들에서, 조합된 이미지는 오버랩 영역들의 합성(composite)을 포함할 수 있다.
다양한 기존 이미지 향상(enhancement)들은 관심 있는 것의 향상 세부 사항(enhancement details of interest) 및 전체 이미지 품질을 향상시키기 위해 적용될 수 있다(단계 1318). 이후에 관심 영역들이 있는지 여부를 결정하기 위해 최종 이미지가 저장되고 분석될 수 있다. 적절하게 훈련된 기계 학습 및 AI 소프트웨어는 또한 이미지를 처리하고 잠재적인 문제들, 질병들 또는 관심이 있을 수도 있는 기타 영역들을 식별하는 데 사용될 수 있다(단계 1320).
본 발명의 추가적인 양태에 따르면, 그리고 도 14a를 참조하면, 안저 카메라(1400)는 회전 가능한 마운팅 어셈블리(1440)에 의해 헤드셋 내에 회전 가능하게 마운팅될 수 있다. 마운팅 어셈블리(1440)는 모터(motor)에 의해 구동될 수 있으며 모터는 눈 앞에 대물 렌즈를 배치하고 그것을 동공과 배열하기 위해 안저 카메라의 위치를 제어하는 데 사용될 수 있다. 회전 가능한 마운팅 어셈블리(1440)는 후방 벽(1402)에서와 같이, 안저 카메라 하우징에 부착된 제 1 부분(1450), 및 헤드셋에 부착되며 제 1 부분의 회전을 구동하는 데 사용될 수 있는 제 2 부분(1460)을 포함한다. 다양한 모터 구동 구성들이 사용될 수 있다. 예를 들어, 모터는 모터 샤프트에 직접 마운팅 된 제 1 부분(1450) 및 제 2 부분(1460)에 마운팅 될 수 있거나, 또는 모터 또는 선형 액추에이터 또는 기타 디바이스에 의해 구동되는 벨트들 또는 기어들과 같이 간접적으로 연결될 수 있다.
대안적으로, 마운팅 장치(apparatus)는 제 2 부분(1460)을 통해 헤드셋에 직접 또는 간접적으로 연결되며 카메라가 회전하는 샤프트 및 부분(1450)에서 안저 카메라에 마운팅된 회전을 야기(cause)하는 데 사용되는 기타 디바이스 또는 모터로 리버스(reverse)될 수 있다. 마운팅 어셈블리(1440)가 후방 벽(rear wall)(1404) 상에 마운팅 된 것으로 도시되어 있지만, 회전 마운팅 어셈블리(rotational mounting assembly)(1440)는 하우징의 일면 또는 심지어 하우징의 프론트과 같이, 하우징의 다른 곳에 마운팅될 수 있다.
또한, 회전 인코더(rotational encoder)는 회전 모터 또는 기타 요소들에 커플링 되거나 또는 통합될 수 있으며 안저 카메라의 위치 표시를 제공하는 신호를 생성하기 위해 사용될 수 있다. 대안적으로, 위치 표시는 카메라의 회전량을 결정하기 위해 표시를 감지하는 데 사용되는 광학 센서 및 안저 카메라의 하우징 상에 프린팅(print)될 수 있다. 안저 카메라의 위치 및/또는 움직임을 센싱(sensor)하는 기타 방법들도 사용될 수 있다. 2-카메라(two-camera) 시스템에서 카메라들은 둘다 동기식(synchronously) 또는 비동기식(asynchronously)으로 이동될 수 있다.
도 14b 및 도 14c는 차동 기어(differential gear) 메커니즘이 안저 카메라가 피봇을 중심으로 회전되도록 허용하는 데 사용되는 특정 실시예를 도시한다. 도 14b는 서포트 플레이트(support plate)(1408)에서 안저 카메라 하우징의 후방 벽(1402)에 연결된 기어 마운팅 어셈블리(1404)를 가지는 안저 카메라의 예시이다. 기어들은 모터(1406)에 의해 구동될 수 있다. 도 14c 및 도 14d는 각각 도 14b의 실시예에 대한 측면도 및 단면도(side and end views)이다. 도 14e는 도 14b의 안저 카메라를 가지는 헤드셋의 일부를 나타내는 x-ray 도면(x-ray view)이다. 마운팅 어셈블리(1404)는 안저 카메라(1402)가 모터 샤프트의 축과 배열된 피봇을 중심으로 회전되는 것을 허용한다. 다양한 모터들이 사용될 수 있다. 일 실시예에서 모터(1406)는 전기 코어리스 진동 DC 모터(coreless vibration DC motor)이다. 모터는 안저 카메라의 위치가 적절한 소프트웨어 인터페이스를 사용하여 의사에 의해 수동으로 조정되거나 자동으로 조정되는 것을 허용하도록 헤드셋의 기타 회로에 의해 구동될 수 있다. 모터(1406)는 도 10c에 도시된 헤드셋 어셈블리의 프레임 어셈블리(1010)의 구멍 내에 마운팅 하는 것과 같이 헤드셋의 내부 구조에 기계적으로 연결될 수 있다. 안저 카메라 상에(on) 그리고 헤드셋 내부에 회전 가능한 브래킷 어셈블리(rotatable bracket assembly)의 마운팅 위치는 달라질 수 있다. 예시된 실시예에서 안저 카메라들은 상단(upper) 외부 코너들에서 마운팅 된다. 안저 카메라들은 다양한 기타 위치들에도 마운팅될 수 있다. 예를 들어, 안저 카메라들은 대물 렌즈가 사용자의 눈 앞에 오도록 안저 카메라가 이동되도록 허용하는 임의의 기타 위치, 또는 하단(lower) 바깥쪽 모서리로부터, 상단과 하단 사이의 외부 일면들 상에 마운팅될 수 있다.
도 15a 및 15b는 각각 기어 마운팅 어셈블리(1404)의 실시예의 상면도 및 저면도를 도시한다. 기어 마운팅 어셈블리는 모터에 기어(1504)의 부착을 허용하는 모터 스포크(motor spoke)(1502)를 가지는 메인 모터 기어(main motor gear)(1504)를 포함한다. 메인 모터 기어(1504)는 서포트 플레이트(1408)에 연결된 외부 링 기어(1508) 내부를 이동하는 2개의 내부 기어(1506)들을 구동시킨다. 서포트 플레이트(1408)의 내부 표면(1514)은 안저 카메라 하우징의 후방 표면(1402)에 부착된다. 하우징 표면(1402)의 적절한 구멍들은 내부 기어들의 축(1516)들 및 마운팅 핀(1512)이 통과하도록 허용한다. 메인 모터 기어(1504)를 회전시키는 것은 도 11a 및 도 11b를 참조하여, 이미징 대물 렌즈(1109)가 피봇 포인트를 중심으로 호를 따라 희망하는 임의의 위치에 위치될 수 있도록 링 기어(1508), 및 이에 따라 안저 카메라가 회전하도록 야기시킨다. 별도의 서포트 플레이트(1408)가 도시되어 있지만, 서포트 플레이트(1408)는 카메라 하우징 내에 일체로(integrally) 형성되거나 또는 완전히 생략될 수 있고, 그리고 링 기어(1508)는 헤드셋 하우징의 벽에 일체로 형성되거나 부착될 수 있다.
안저 카메라를 회전 가능하게 마운팅하는 대안적인 메커니즘들이 사용될 수도 있다. 한 구성에서, 모터 대신에, 회전식 손잡이가 헤드셋 외부에 위치하며 안저 카메라에 기계적으로 커플링 된다. 의사는 예를 들어, 위치에 대한 피드백(feedback)으로 카메라로부터의 라이브 비디오 피드를 사용하는 동안에, 손잡이를 회전시켜 안저 카메라의 위치를 수동으로 조정할 수 있다.
호를 따라 대물 렌즈를 위치시키기 위해 안저 카메라를 회전 가능하게 마운팅 하는 것은 여전히 최적의 위치 지정을 허용하지 않을 수도 있다. 추가적인 실시예에서, 그리고 도 16a 내지 도 16e를 참조하면, 헤드셋에 마운팅되는 마운팅 어셈블리 부분(1460)은 고정된 위치에 마운팅되지 않는다. 그 대신에, 마운팅 어셈블리의 일부분(1460)(모터(1406)일 수 있거나, 모터 바디가 안저 카메라 하우징 상에 마운팅된 경우에 모터 샤프트일 수 있거나, 또는 마운팅 어셈블리 설계에 따라 다른 요소일 수 있음) 그 자체는 회전 가능한 마운팅 어셈블리의 피봇 축이 측면으로 이동되는 것을 허용하는 트랙 내에서 추가적으로 이동 가능하게 마운팅 된다. 안저 카메라의 위치 지정에 자유도를 추가함으로써, 카메라의 대물 렌즈 부분은 회전적으로만 이동할 수 있는 안저 카메라로 가능한 것보다 더 넓은 범위의 위치들에 위치될 수 있다.
도 16a 내지 도 16d는 안저 카메라(1400)가 헤드셋에 대해 회전될 수 있도록 안저 카메라(1400)가 헤드셋에 회전 가능하게 커플링 하는(couple) 데 사용되는 개별 마운팅 어셈블리(1610)를 각각의 안저 카메라(1400)가 가지는 듀얼 카메라 어셈블리(dual camera assembly)를 도시한다. 마운팅 어셈블리(1610)는 제 1 단부(end)(1604) 및 제 2 단부(1606)를 가지는 개별 트랙(1602) 내에서 헤드셋에 슬라이드 가능하게 마운팅 된다. 마운팅 어셈블리는 트랙(1602)의 제 1 단부(1604) 및 제 2 단부(1606), 또는 그 사이의 다양한 위치들과 같이, 개별 트랙(1602)에 따른 복수의 위치들에 위치될 수 있다. 트랙(1602) 내의 다양한 위치들에서, 안저 카메라(1400)는 그것의 위치를 조정하기 위해 회전될 수 있다. 도 16a 및 16b는 개별 트랙(1602)의 제 1 위치(1604) 및 2개의 상이한 회전 위치들에 위치되는 안저 카메라(1400)들을 도시한다. 도 16c 및 도 16d는 개별 트랙(1602)들의 제 2 위치(1604)들 및 2개의 상이한 회전 위치들에 위치되는 안저 카메라(1402)들을 도시한다.
당업자에게 공지된 다양한 기계적 구동 시스템들은 마운팅 어셈블리(1610)의 슬라이딩 가능한 마운팅 부분을 트랙(1604)을 따라 상이한 위치들로 이동시키기 위해 사용될 수 있다. 한 구성에서, 별도의 모터로 구동되는 가동 벨트(movable belt)가 사용될 수 있다. 또 다른 구성에서, 슬롯 위치는 선형 액추에이터를 사용하여 변경될 수 있다. 유사하게, 웜 기어(worm gear) 또는 기타 시스템은 마운팅 어셈블리(1610)의 슬롯 마운팅 부분을 앞뒤로 슬라이드 시키기 위해 사용될 수 있다. 다른 이동 메커니즘들이 사용될 수도 있다. 시스템은 슬롯(1602)의 단부들(1604, 1606)과 같이, 사전 정의된 고정 위치에서 카메라의 피봇 포인트를 위치시키거나 또는 피봇이 트랙(1602)을 따라 다양한 위치들에서 자유롭게 위치되는 것을 허용하도록 구성될 수 있다.
도 16e에 도시된 추가적인 구성에서, 듀얼 안저 카메라들보다는 단일 안저 카메라(1402)만이 사용된다. 피봇 축은 안저 카메라(1402)가 양쪽 눈 앞에서 회전될 수 있도록 예를 들어, 헤드셋의 상부 중앙을 따라서, 중앙에 위치될 수 있다. 카메라의 위치 지정에 있어 추가적인 자유도를 제공하기 위해, 도 16D 내지 도 16D에 도시된 듀얼-트랙 시스템/듀얼 카메라와 유사한 헤드셋의 왼쪽 및 오른쪽 일면 상의 다양한 추가 위치들에 그것이 위치될 수 있도록 안저 카메라가 왼쪽 및 오른쪽으로 이동하는 것을 허용하기 위해 트랙(1610)이 제공될 수 있다.
대안적인 실시예에서, 안저 카메라를 회전식으로 마운팅 하는 것 대신에, 마운팅 어셈블리에 대한 안저 카메라 위치가 예를 들어, 수직적으로(vertically), 제 1 축을 따라 조정되는 것을 허용할 수 있도록 마운팅 어셈블리는 안저 카메라 상에 형성된 트랙 또는 슬롯 내에 슬라이드 가능하게 부착될 수 있다. 하우징에 커플링 된 마운팅 어셈블리의 일부분은 또한 예를 들어, 수평적으로, 제 2 축을 따른 움직임을 허용하도록 슬라이딩 가능하게 마운팅 될 수 있다.
도 17은 소형화 되고 본 명세서에서 설명된 헤드셋 어셈블리에 사용될 수 있고 그리고 휴대용 이미저(hand-held imager)와 같이 기타 구성들에 사용될 수 있는 안저 카메라(1700)의 상위-레벨 개략도이다. 안저 카메라(1700)는 광원(1704) 및 이미지 캡처 카메라(1726)를 포함하는 하우징(1702)을 가진다. 광원(1704)은 (카메라가 사용 중이고 정렬되는 경우) 환자의 눈(1730)으로, 그리고 라이트(1705)의 적어도 일부를 부분(1725)을 통해 카메라 외부로 지향하는 광학 어셈블리(1710)로 지향되는 라이트(1705)를 방사한다. 라이트는 망막(1732)을 조명한다. 눈 내의 기타 구조들 또는 망막에 의해 반사된 라이트는 눈을 빠져나와(exit) 대물 렌즈 부분(objective portion)(1725)을 통해 이미지를 캡처하는 카메라로 그 라이트의 적어도 일부를 지향시키는 광학 어셈블리(1720)로 통과한다(pass).
도 18a는 고정식 또는 이동 가능한 마운트에서, 전술한 바와 같이, 헤드셋 내에 마운팅 될 수 있도록 길이가 불과 몇 센티미터와 같이 충분히 작게 만들어질 수 있는 안저 카메라(1800)의 설계에 대한 상면도(top view)이다. 또한, 안저 카메라(1800)는 본 명세서에서 논의된 VR 헤드셋 타입 구성 외부의 기타 시스템들에서 유용할 수도 있다. 도 18b 및 도 18c는 도 18a의 설계에 대한 분해 사시도들이다.
도 18a 내지 도 18c를 참조하면, 안저 카메라(1800) 컴포넌트들은 라이트 빔(1805)을 생성하는 광원(1804)을 포함하고, 그리고 하우징(1802)에 마운팅 된다. 평판 유리(flat plate glass)(1806) 및/또는 편광기(polarizer)(1808)는 눈부심을 감소시키기 위해 빔(1805)의 경로를 따라 위치될 수 있다. 빔 스플리터(1810)는 빔(1805)의 경로를 따라 위치되고 그리고 라이트 빔(1805)을 재지향시켜 광 분산(light dispersion) 및 플레어(flare)를 제어하는 것을 돕는다(help). 또한, 라이트 흡수 표면(light absorbing surface)(1812)은 카메라로부터 출력되는 것이 의도되지 않는 빔 스플리터로부터 나오는 라이트로부터 반사들 및 눈부심(glare)을 제거하기 위해 제공될 수도 있다. 빔 스플리터는 라이트를 재지향시키고 그리고 반사광의 강도(intensity)를 줄이기 위해 동작한다. 이것은 동일한 광학 품질의 저강도 LED들보다 사용하기 쉬울 수도 있고 저렴한 광원(1804)으로서 밝은 LED들의 사용을 허용할 수 있다. 부분 반사 미러 또는 프리즘은 빔 스플리터의 대안으로 사용될 수 있다.
특정 실시예에서, 광원(1804)은 청색 영역 450 nm - 500 nm, 보라색 영역 400 nm - 450 nm 및 자외선 (UV) 영역 200 nm - 400 nm의 그룹으로부터 혈관을 자극(excite)시킬 파장의 라이트를 방사하는 적어도 하나의 LED를 포함한다. 여러 개의 LED들이 제공될 수 있으며, 개별적으로 또는 조합하여 그들을 활성화시키기 위해 제어들이 제공될 수 있다. 광원(1804)은 광원을 빠져나가는 라이트 빔을 생성하기 위해 생성된 라이트를 재지향시키거나 또는 포커싱하도록 동작하는 기타 광학 컴포넌트들 또는 내부 렌즈들을 포함할 수 있다.
빔 스플리터(1810)로부터 반사된 라이트 빔(1805)은 미러들(1814, 1816)과 같이, 하나 이상의 미러들에 의해 재지향될 수 있다. 미러(1816)와 같은 최종 미러(final mirror)은 라이트 빔(1805)이 하우징(1802)을 빠져나가도록 라이트 빔(1805)을 90도 또는 기타 적절한 각도로 지향시키기 위해 위치된다. 미러(1816)에서 반사된 라이트(1817)는 눈들의 초점 거리(focal length)를 보상(compensate)하도록 돕고 이미지 캡처를 위한 넓은 시야를 제공하는 구면 렌즈와 같은 렌즈(1818)를 통과할 수 있다. 수차(aberration)들을 보정하기 위한 네거티브 렌즈(negative lens)도 제공될 수 있다. 외부 오염 물질(contaminant)들로부터 시스템을 보호하기 위해 외부 판 유리(1820)가 제공될 수 있다. 카메라 어셈블리(1800)가 적절하게 위치되는 경우, 라이트는 사용자(1830)의 눈에 들어가 망막의 적어도 일부분을 조명할 것이다.
예시된 실시예에서, 광원으로부터 방사된 라이트는 평판 유리(1806) 및/또는 편광기(1808)를 통과한 다음, 라이트 강도를 감소시키는 빔 스플리터(1810)를 통과하고, 그리도 그 빔은 하나 이상의 미러들(1814, 1816)에 의해 재지향된다. 이러한 요소들은 다른 순서들로 라이트 빔에 위치될 수 있다. 예를 들어, 빔 스플리터는 유리(1806) 및/또는 편광기(1808) 앞에 위치될 수 있다.
미러(1814)와 같은 라이트 지향 미러(light directing mirror)들 중 적어도 하나는 미러(1814)를 떠나는 라이트 빔(1815)의 방향, 및 그에 의해 카메라로부터 출력되는 라이트 빔의 방향이 재지향되는 것을 허용하기 위해 적어도 하나의 축을 따라 회전 가능하게 마운팅 될 수 있다. 이동하는 미러(1814)로 라이트 빔을 재지향 시키는 것은 시스템이 이미지 처리 동안에 눈 망막의 상이한 영역들을 조명하는 것을 허용한다. 또한, 이 재지향은 카메라 시야의 중심을 옮겨 눈 내에서 이미지 캡처 영역의 변화를 허용한다. 상이한 축들을 따라 피봇할 수 있는 2개의 이동 가능한 미러들을 제공하는 것은 라이트 빔의 방향이 2차원(two dimensions)으로 재지향 되는 것을 허용할 수 있다. 미러 위치는 시스템 소프트웨어의 제어 하에 자동으로 조정될 수 있다. 해당 부분들의 이미지들을 더 잘 캡처하도록 카메라의 이미징 방향을 조정하고 그리고 카메라에 보이는 망막 부분을 가로질러 조명을 스위핑(sweep) 하도록 미러가 이동되는 동안에 여러 이미지(multiple image)들이 고정된 위치에서 눈 및 카메라로 촬영될 수 있다. 또한, 미러 위치는 눈의 시선 방향 및/또는 위치의 변화들에 응하여 조정될 수 있다. 이미지들을 조합하는 것은 더 균일한(even) 조명으로 더 높은 품질의 이미지를 제공할 수 있다.
망막 또는 눈의 다른 구조들에 의해 반사된 라이트(1821)는 눈을 빠져나와 플레이트(1820), 렌즈(1818)를 통과하고 미러(1816)에 의해 재지향 된다. 편광 필터(polarizing filter)(1822) 및 유리판(1824)은 추가적인 눈부심 감소를 위해 리턴 광학 경로(return optical path) 상에 제공될 수 있다. 렌즈(1826)는 이미징 카메라(1826) 상으로(onto) 라이트를 포커싱 한다. 이미징 카메라(1828)는 들어오는 라이트를 센서 요소 상으로 포커싱 하도록 동작하는 내부 렌즈들을 포함할 수 있다. 다이어프램(diaphragm) 또는 벽(1840)은 광원(1804)으로부터의 미광(stray light)이 이미지에 영향을 미치는 것을 피하기(avoid) 위해 나가고 들어오는 광학 경로(outgoing and incoming optical path)들 사이에 제공될 수 있다.
카메라 내의 광학 경로의 적어도 일부에 대해, 눈을 조명하기 위해 나가는 라이트 빔 및 이미징 카메라를 향해 지향된 반사광은 평행한 경로를 따라 이동한다(travel). 예시된 실시예에서, 광원(1804)으로부터 방사된 라이트 빔(1805)의 축은 빔 스플리터(1810)와 접이식 미러(1814) 사이의 경로를 제외하고 대부분(majority)의 빔 경로에 대해 리턴된 라이트의 빔 축에 평행하게 유지된다.
이미징 카메라(1820)는 예를 들어, 픽셀 사이즈 2.4um x 2.4um의 20MP 해상도 및 24fps의 프레임 속도와 같이, 기존의 고해상도 디지털 카메라를 포함할 수 있다. 글로벌 셔터 이미징 시스템(global shutter imaging system)이 사용될 수 있지만, 롤링 셔터 기능(rolling shutter feature)들은 한 순간에(a single instant in time) 이미지를 캡처하는 것이 아니라, 수직 및 수평으로 빠르게 눈들을 가로질러 지속적으로 스캔하여 이미지를 캡처하는 것을 허용한다. USB 3.0과 같은 고속 데이터 포트는 카메라로부터 외부 디바이스들 또는 광학 모듈(110)의 기타 컴포넌트들로의 신속한 데이터 전송을 허용한다. 카메라는 하드웨어 및/또는 소프트웨어 트리거들의 제어 하에 또는 지속적으로 자유롭게 실행되도록 구성될 수 있다. 소프트웨어 노출 제어(software exposure control)는 카메라의 내부 제어 회로와 함께 적절한 API를 통해 제공될 수 있다. 적절한 렌즈 어셈블리들은 이미징 칩(imaging chip) 상의 망막의 포커싱 된 이미지를 제공하기 위해 당업자에게 알려져 있을 것이다. 기계 및/또는 액체 렌즈 포커싱 시스템은 사용자의 눈까지의 거리 변화들을 보상하기 위해 사용될 수 있다. 45도 이상의 스틸 앵글 이미지(still angle image)들은 카메라 시스템으로 캡처되고 그러한 이미지들은 최대 120도의 망막 이미지를 생성하도록 조합된다.
본 명세서에서 개시된 시스템을 사용하여 캡처된 안저 이미지들은 실시간으로 이미지 처리 시스템으로 전송되고, 그리고 눈들의 전체-120도 이미지를 생성하도록 본 명세서에서 개시된 바와 같이 처리된다.
교환 가능한(swappable) 광학 모듈들에 대한 특정 설계들이 본 명세서에 개시되어 있지만, 대안적으로, 시스템은 전용 헤드셋 시스템의 일부로서 헤드 마운트의 외부 프레임 내에 직접 마운팅 될 수 있다. 이 경우에, 모듈의 외부 프레임이 필요하지 않으며, 대신 컴포넌트들은 헤드셋의 외부 프레임에 직접 마운팅될 수 있다. 또 다른 구성에서, 모듈식 광학 모듈들이 제공되지만 제조 프로세스(manufacturing process)의 일부로 헤드 마운트 내에 고정 마운팅 된다. 이러한 방식으로 상이한 기능을 가진 맞춤형 VR 헤드셋 시스템(customized VR headset system)들을 주문형으로(on demand) 더 쉽게 제조할 수 있다. 또한, 통합 안저 카메라들, OCT 시스템들 및 시야 측정 테스트 시스템들을 가지는 맞춤형 헤드셋들이 제공될 수 있다.
본 발명의 다양한 양태들, 실시예들 및 예시들이 본 명세서에서 개시되고 설명되었다. 수정들, 추가들 및 변경들은 첨부된 청구범위에 정의된 본 발명의 사상(spirit) 및 범위를 벗어나지 않고 당업자에 의해 이루어질 수도 있다.

Claims (66)

  1. 안저 카메라(fundus camera)로서,
    제 1 및 제 2 단부(end)들, 전면(front side), 후면(back side), 상기 제 1 및 제 2 단부들로부터 연장되는(running) 장축(major axis) 및 제 1 측면(side) 내에 개방되어 있는 구멍(aperture)을 가지는 하우징; 및
    상기 구멍에서 확장(extend)되는 시야(field of view)를 가지며, 상기 하우징의 내부에 있는 카메라 어셈블리(camera assembly);
    를 포함하고, 그리고
    상기 카메라 어셈블리는, 조명 라이트 빔(illumination light beam)을 생성하도록 구성되는 조명 소스(illumination source); 이미징 축(imaging axis) 주위의 필드(field) 내에서 이미지들을 캡처(capture)하도록 구성된 전자 이미지 캡처 카메라(electronic image capture camera); 대물 렌즈(objective lens); 및 출구 미러(exit mirror)를 포함하고,
    상기 조명 라이트 빔은, 상기 조명 소스로부터 상기 출구 미러까지의 조명 라이트 빔 경로(path)를 따르고(follow),
    상기 출구 미러는, 상기 대물 렌즈를 통해 상기 시야로 상기 조명 라이트 빔 경로를 재지향(redirect)시키고, 상기 시야에 있는 객체에 의해 반사되고 그리고 상기 이미징 카메라로 확장되는 리턴 라이트 경로(returning light path)를 따라 상기 대물 렌즈를 통해 리턴하는 상기 조명 라이트 빔으로부터 라이트(light)를 재지향시키도록 동작하는,
    안저 카메라.
  2. 제 1 항에 있어서,
    상기 라이트 빔의 강도(intensity)를 감소시키도록 동작하고 그리고 상기 조명 소스와 상기 출구 미러 사이에 상기 조명 라이트 빔 경로 내에 있는 감쇠 요소(attenuating element);
    를 더 포함하는,
    안저 카메라.
  3. 제 2 항에 있어서,
    상기 감쇠 요소는,
    상기 조명 라이트 빔 경로를 따라 감쇠된 강도로 상기 조명 라이트 빔의 제 1 부분을 지향하고, 그리고 불용 라이트(discard light)를 따라 상기 조명 라이트 빔의 제 2 부분을 지향하도록 구성되는 빔 스플리터(beam splitter);
    를 포함하는,
    안저 카메라.
  4. 제 3 항에 있어서,
    상기 빔 스플리터로부터의 상기 조명 라이트 빔의 상기 제 2 부분의 적어도 일부를 흡수하도록 동작하는 상기 불용 라이트 경로 내에 있는 라이트 흡수 표면(light absorbing surface);
    을 더 포함하는,
    안저 카메라.
  5. 제 2 항에 있어서,
    상기 출구 미러는,
    적어도 하나의 축을 따라 회전 가능(rotatable)하고, 그리고
    상기 출구 미러의 회전은,
    상기 시야의 상이한 부분들을 조명하기(illuminate)위해 상기 시야 내에 상기 조명 라이트 빔 경로의 방향을 변경하고 그리고 상기 시야의 방향을 옮기도록(shift) 동작하는 것인,
    안저 카메라.
  6. 제 2 항에 있어서,
    내부 접이식 미러(internal fold mirror)를 더 포함하고, 그리고
    상기 감쇠 요소는 상기 내부 접이식 미러를 향해(towards) 상기 조명 라이트 빔 경로를 재지향시키도록 동작하고,
    상기 내부 접이식 미러는 상기 출구 미러를 향해 상기 조명 라이트 빔 경로를 재지향시키도록 동작하는,
    안저 카메라.
  7. 제 2 항에 있어서,
    상기 감쇠 요소와 상기 조명 소스 사이의 상기 조명 라이트 빔 경로 내에 위치(position)되는 눈부심 감소 요소(glare reduction element);
    를 더 포함하는,
    안저 카메라.
  8. 제 1 항에 있어서,
    상기 라이트 빔은 제 1 라이트 빔 축을 따라 상기 조명 소스를 빠져나오고,
    상기 카메라 어셈블리의 시야는 상기 카메라 어셈블리로부터 제 1 이미지 캡처 축(image capture axis)을 따라 확장하고, 그리고
    상기 제 1 라이트 빔 축 및 제 1 이미지 캡처 축은 서로에 대해 그리고 상기 장축에 대해 평행한,
    안저 카메라.
  9. 제 1 항에 있어서,
    상기 하우징의 표면에 부착된 제 1 부분 및 상기 제 1 부분에 회전 가능하게 커플링 된(coupled) 제 2 부분을 포함하는 회전 가능한 마운팅 어셈블리(rotatable mounting assembly);
    를 더 포함하는,
    안저 카메라.
  10. 제 9 항에 있어서,
    상기 회전 가능한 마운팅 어셈블리는 상기 하우징의 상기 제 1 단부에 인접하게(adjacent) 배치(dispose)되고, 그리고
    상기 구멍은 상기 하우징의 상기 제 2 단부에 인접하게 배치되는,
    안저 카메라.
  11. 제 9 항에 있어서,
    상기 제 1 부분은 상기 안저 카메라의 외부 표면에 마운팅 되는 내부 톱니형 링 기어(internally toothed ring gear)를 포함하고, 그리고
    상기 제 2 부분은 상기 링 기어에 대해 회전 커플링(rotationally coupled) 되며 내부에 위치되는 스퍼 기어(spur gear)를 포함하는,
    안저 카메라.
  12. 제 11 항에 있어서,
    상기 링 기어 및 상기 스퍼 기어 둘 다에 각각 맞물리는(engage) 복수의 오비탈 기어(orbital gear)들;
    을 더 포함하는,
    안저 카메라.
  13. 제 1 항에 있어서,
    상기 대물 렌즈는 구면 렌즈(spherical lens)인,
    안저 카메라.
  14. 안저 이미징(fundus imaging)용 헤드셋(headset)으로서, 상기 헤드셋은,
    그 내부에(therein) 개방부(open portion)를 가지는 페이스 일면(face side)을 포함하는 헤드셋 바디(body) - 상기 페이스 일면은 사용자의 눈 앞에 상기 개방부가 있는 상태에서 상기 헤드셋이 상기 사용자에 의해 착용되는 경우 상기 사용자의 얼굴에 가압(press)되도록 구성됨 - ; 및
    제 10 항에 따른 상기 안저 카메라 - 상기 안저 카메라는 상기 헤드셋을 착용한 상기 사용자의 눈에 대한 상기 구멍의 위치를 변경하도록 상기 회전 가능한 마운팅 어셈블리의 축을 중심으로 회전 가능하고, 상기 안저 카메라의 하우징은 상기 개방부로부터 외측(outwardly)을 향하는(facing) 상기 구멍을 가지는 상기 개방부로 확장되고, 상기 회전 가능한 마운팅 어셈블리의 상기 제 2 부분은 상기 헤드셋 바디에 연결됨 - ;
    를 포함하는,
    안저 이미징용 헤드셋.
  15. 사용자의 광학 시험(optical examination)에 사용되는 헤드셋으로서, 상기 헤드셋은:
    사용자의 얼굴 상에 착용되도록 구성되는 헤드셋 바디 - 상기 헤드셋 바디는 사용자-방향(user-facing) 페이스 일면 및 상기 페이스 일면과 대향하는 후면, 좌측 및 우측 일면들, 상부 및 하부를 가짐 - ;
    상기 페이스 일면은 상기 헤드셋이 착용되는 경우에 상기 사용자의 얼굴에 놓이도록 구성되는 전방 가장자리(forward edge)를 가지며, 상기 전방 가장자리로부터 뒤(back)로 확장되고, 그리고 후방부(rear portion) 및 주변 일면(surrounding side)을 포함하는 표면을 가지는 개방 영역(open region)을 정의하는 오목부(concavity) - 상기 개방 영역은 상기 헤드셋이 착용되는 경우에 사용자의 눈에 인접함 - ;
    카메라 대물 렌즈(camera objective)를 포함하는 광학 장치(optics) 및 이미징 카메라를 포함하는 안저 카메라 - 상기 이미징 카메라는 상기 카메라 대물 렌즈로부터 외측으로 확장되는 카메라 시야를 가지고, 상기 광학 장치는 상기 대물 렌즈에 들어가는(enter) 라이트를 상기 이미징 카메라를 향해 지향하도록 구성되고, 그리고 상기 이미징 카메라 및 광학 장치는 카메라 하우징 내에 포함됨 - ; 및
    상기 카메라 하우징을 상기 헤드셋 바디에 커플링 시키는 회전 가능한 마운팅 어셈블리 - 상기 카메라 하우징은 상기 개방 영역으로 확장되고, 상기 이미징 카메라는 상기 카메라 시야가 상기 개방 영역으로부터 외측으로 확장하도록 위치됨 - ;
    롤 포함하고, 그리고
    상기 안저 카메라의 회전(rotation)은 상기 개방 영역 내 상기 카메라 대물 렌즈를 이동시키고, 상기 회전은 상기 헤드셋이 착용되는 경우에 상기 사용자의 눈에 대해 상기 카메라 대물 렌즈의 위치 조정을 허용하는 것인,
    헤드셋.
  16. 제 15 항에 있어서,
    상기 회전 가능한 마운팅 어셈블리는 상기 안저 카메라를 선택적으로 회전시키도록 구성되는 모터(motor)를 더 포함하는,
    헤드셋.
  17. 제 15 항에 있어서,
    상기 카메라 하우징은 제 1 단부, 제 2 단부, 전면 및 후면을 가지고,
    상기 카메라 대물 렌즈는 상기 제 1 단부에 인접한 상기 전면에 위치되고,
    상기 회전 가능한 마운팅 어셈블리는 서로 회전 커플링 된 제 1 부분 및 제 2 부분을 포함하고,
    상기 회전 가능한 마운팅 어셈블리의 상기 제 1 부분은 상기 제 2 단부에 인접한 상기 카메라 하우징과 연결되고, 그리고
    상기 회전 가능한 마운팅 어셈블리의 상기 제 2 부분은 상기 주변 일면에 인접하거나 또는 상기 개방 영역의 상기 표면에 연결되는,
    헤드셋.
  18. 제 17 항에 있어서,
    상기 회전 가능한 마운팅 어셈블리의 상기 제 2 부분은,
    상기 바디의 상기 좌측 및 우측 일면들 사이에 중간 지점에서 상기 헤드셋 바디에 연결되고, 그리고
    상기 안저 카메라는 상기 헤드셋을 착용한 사용자의 왼쪽 눈의 이미지를 캡처하기 위한 제 1 위치에서 상기 헤드셋을 착용한 상기 사용자의 오른쪽 눈의 이미지를 캡처하기 위한 제 2 위치로 회전 가능한,
    헤드셋.
  19. 제 15 항에 있어서,
    상기 안저 카메라는,
    상기 개방 영역의 좌측 일면에 회전 가능하게 마운팅(rotationally mounted) 되는 좌측 안저 카메라; 및
    상기 개방 영역의 우측 일면에 회전 가능하게 마운팅 되는 우측 안저 카메라;
    를 포함하고, 그리고
    상기 좌측 안저 카메라 및 상기 우측 안저 카메라는 상기 헤드셋이 착용되는 경우에 상기 사용자의 왼쪽 눈과 오른쪽 눈 각각의 이미지들을 캡처하도록 구성되는,
    헤드셋.
  20. 제 15 항에 있어서,
    상기 안저 카메라는,
    상기 카메라 하우징 내부에 광원(light source)을 더 포함하고, 그리고
    상기 광원은, 라이트 빔을 생성하도록 구성되고,
    상기 라이트 빔은, 상기 라이트 빔이 상기 눈의 동공(pupil)을 통과하는 경우에 상기 사용자의 눈의 망막을 조명할 수 있고 그리고 상기 대물 렌즈를 빠져나가는,
    헤드셋.
  21. 제 20 항에 있어서,
    상기 안저 카메라는,
    상기 대물 렌즈를 통해 상기 광원을 지향시키는 출구 미러;
    를 더 포함하고, 그리고
    상기 출구 미러는, 상기 대물 렌즈를 빠져나가는 상기 라이트 빔의 방향을 변경하도록 적어도 하나의 축 상에서 이동 가능한(movable),
    헤드셋.
  22. 제 15 항에 있어서,
    상기 회전 가능한 마운팅 어셈블리는,
    서로 회전 가능하게 커플링 되는 제 1 부분 및 제 2 부분;
    을 포함하고, 그리고
    상기 회전 가능한 마운팅 어셈블리의 상기 제 1 부분은, 상기 카메라 하우징에 연결되고,
    상기 회전 가능한 마운팅 어셈블리의 상기 제 2 부분은, 상기 헤드셋 바디 내에 형성되는 트랙(track) 내에 슬라이드 가능하게(slidably) 마운팅 되며, 제 1 트랙 위치와 제 2 트랙 위치 사이에 이동 가능하고,
    상기 트랙 내의 상기 제 2 부분의 움직임은, 상기 개방 영역 내 상기 안저 카메라의 측면 움직임(lateral motion)을 제공하는,
    헤드셋.
  23. 제 15 항에 있어서,
    상기 헤드셋을 착용한 상기 사용자의 눈들의 이미지들을 캡처하도록 구성되는 복수의 아이 트랙킹 카메라(eye tracking camera)들;
    을 더 포함하고, 그리고
    각각의 눈은 상기 안저 카메라가 상기 개방 영역 내에 이동하여 적어도 하나의 아이 트랙킹 카메라에 시각적으로 남아 있는(remain visible),
    헤드셋.
  24. 제 15 항에 있어서,
    상기 안저 카메라 뒤에 위치되는 시각 디스플레이(visual display);
    를 더 포함하고, 그리고
    상기 시각 디스플레이는 상기 헤드셋의 상기 사용자에게 이미지들을 제시하도록(present) 구성되는,
    헤드셋.
  25. 제 24 항에 있어서,
    상기 안저 카메라는,
    상기 시각 디스플레이의 부분을 상기 안저 카메라가 가리는(obscure) 이미징 위치와 상기 시각 디스플레이에서 상기 안저 카메라에 의해 가려지지 않는 저장 위치 사이에서 이동될 수 있는,
    헤드셋.
  26. 제 24 항에 있어서,
    상기 안저 카메라는 상기 헤드셋 바디 내에 제거 가능하게 마운팅 되는,
    헤드셋.
  27. 사용자의 눈 망막의 안저 이미징을 위한 컴퓨터 제어 방법으로서, 상기 방법은:
    상기 사용자의 머리에 헤드셋을 마운팅 시키는 단계 - 상기 헤드셋은, 상기 헤드셋이 착용된 경우 상기 사용자의 얼굴에 안착(rest)되도록 구성되는 페이스 일면, 및 사용자의 눈에 인접한 개방 영역을 정의하며 상기 페이스 일면의 전방 가장자리로부터 뒤로 확장되는 오목부를 포함하고, 그리고 상기 헤드셋은 대물 렌즈로부터 얼굴 쪽으로(facewards) 확장하는 카메라 시야를 가지는 회전 가능한 마운팅 안저 카메라를 더 포함함 - ;
    상기 안저 카메라에 의해 캡처된 사용자의 눈의 제 1 이미지를 수신하는 단계;
    상기 눈의 동공에 대해 상기 카메라 대물 렌즈의 배열(alignment)을 개선시키도록 상기 제 1 이미지에 기초하여 상기 안저 카메라의 상기 회전 위치를 조정하는 단계; 및
    상기 안저 카메라로 복수의 망막 이미지들을 캡처하는 단계 - 망막 이미지 각각은 상기 망막의 개별 부분(respective portion)임. - ;
    을 포함하고, 그리고
    상기 안저 카메라의 회전은 상기 개방 영역 내에 상기 카메라 대물 렌즈를 이동시키고 상기 사용자의 눈에 대해 상기 카메라 대물 렌즈의 위치를 변경하는,
    방법.
  28. 제 27 항에 있어서,
    상기 카메라의 상기 회전 위치를 조정하는 단계는,
    상기 헤드셋 외부의 컴퓨팅 디바이스(computing device)의 컴퓨터 디스플레이에 상기 제 1 이미지를 디스플레이 하는 단계; 및
    상기 카메라를 회전시키도록 동작하는 제어 신호들을 상기 컴퓨팅 디바이스로부터 상기 헤드셋에서 수신하는 단계;
    를 포함하는,
    방법.
  29. 제 27 항에 있어서,
    상기 복수의 망막 이미지들 각각에 대해 망막 이미지 맵(retinal image map)에 개별 위치(respective portion)를 매핑하는(mapping) 단계;
    를 더 포함하고, 그리고
    상기 망막 이미지 맵에 있는 개별 망막 이미지(respective retinal image)의 상기 위치는, 상기 개별 망막 이미지에 대해 이미지화 된 상기 망막의 상기 개별 부분에 기초하는,
    방법.
  30. 제 29 항에 있어서,
    상기 헤드셋은 아이 트래킹 카메라를 더 포함하고, 그리고
    상기 방법은,
    상기 안저 카메라로 상기 복수의 망막 이미지들을 캡처하는 단계 동안 상기 아이 트래킹 카메라로 상기 눈에 대한 복수의 이미지들을 캡처하는 단계;
    상기 눈의 시선 방향(gaze direction)을 결정하도록 상기 아이 트래킹 카메라에 의해 캡처된 상기 이미지들을 분석하는 단계; 및
    상기 안저 카메라에 의해 개별 이미지가 캡처되는 시점에 상기 동공에 대한 상기 안저 카메라 대물 렌즈의 위치 및 상기 결정된 눈의 시선 방향에 기초하여 개별 이미지에 이미지화 된 상기 망막의 개별 부분을 결정하는 단계;
    를 더 포함하고, 그리고
    상기 망막 이미지 맵에 맵핑된 망막 이미지들의 상기 위치는 상기 개별 망막 이미지들 각각에 대해 이미지화 된 상기 망막의 상기 결정된 부분의 함수(function)인,
    방법.
  31. 제 30 항에 있어서,
    상기 매핑하는 단계는,
    캡처된 망막 이미지들 내에 이미지 피쳐(feature)들을 매칭(match)하는 단계;
    를 더 포함하고, 그리고
    상기 망막 이미지 맵에 대한 망막 이미지들의 상기 매핑은 상기 이미지 피쳐 매핑의 추가 함수인,
    방법.
  32. 제 29 항에 있어서,
    상기 안저 카메라로 상기 복수의 망막 이미지들을 캡처하는 단계는,
    상기 망막의 부분이 사전 결정된 이미징 기준에 기초하여 이미지화 되었다는 상기 망막 이미지 맵에 기초한 결정 후에 종료(terminate)되는,
    방법.
  33. 제 32 항에 있어서,
    성공적으로 이미지화 되지 않았던 상기 망막의 부분을 자동으로 식별하는 단계; 및
    성공적으로 이미지화 되지 않았던 상기 망막의 상기 부분을 상기 안저 카메라의 상기 시야로 가져오기 위해 상기 시선 방향을 바꾸도록(alter) 상기 사용자에게 자동으로 지시를 전달(instruct)하는 단계;
    를 더 포함하는,
    방법.
  34. 제 29 항에 있어서,
    상기 매핑된 망막 이미지들을 조합된(combined) 망막 이미지로 스티칭 하는(stitch) 단계; 및
    컴퓨터 메모리에 상기 조합된 망막 이미지를 저장하는 단계;
    를 더 포함하는,
    방법.
  35. 제 29 항에 있어서,
    상기 안저 카메라로 상기 복수의 망막 이미지들을 캡처하는 단계 동안에 상기 사용자에게 그들의 시선 방향을 변경하도록 지시를 전달하는 단계;
    를 더 포함하는,
    방법.
  36. 제 35 항에 있어서,
    상기 헤드셋은, 상기 개방 영역의 내부 주변부(internal periphery) 주위에(around) 배열된 복수의 가시 광원(visible light source)들을 더 포함하고, 그리고
    상기 사용자에게 그들의 시선 방향을 변경하도록 지시를 전달하는 단계는, 희망하는 시선 방향을 명시하기(indicate) 위해 상기 복수의 가시 광원들 중 적어도 하나를 조명하는 단계를 포함하는,
    방법.
  37. 사용자의 눈들의 안저 이미징(fundus imaging)을 위한 컴퓨터 제어 방법으로서, 상기 방법은:
    상기 사용자의 머리에 헤드셋을 마운팅 시키는 단계 - 상기 헤드셋은, 상기 헤드셋이 착용된 경우 상기 사용자의 얼굴에 안착되도록 구성되는 페이스 일면, 및 상기 사용자의 제 1 및 제 2 눈에 인접한 개방 영역을 정의하며 상기 페이스 일면의 전방 가장자리로부터 뒤로 확장되는 오목부를 포함하고, 그리고 상기 헤드셋은, 상기 사용자의 제 1 및 제 2 눈에 각각 인접하며 상기 개방 영역 내 회전 가능하게 마운팅 된 제 1 및 제 2 안저 카메라들을 더 포함함 - ;
    상기 제 1 눈의 동공 중심 및 상기 제 2 눈의 동공 중심 사이의 동공 거리(interpupillary distance)에 기초하여 상기 제 1 및 제 2 안저 카메라들의 회전 위치를 자동으로 조정하는 단계; 및
    상기 안저 카메라들로 복수의 망막 이미지들을 단계 - 각각의 망막 이미지는 개별 눈(respective eye)의 상기 망막의 개별 부분임 - ;
    를 포함하고, 그리고
    방법.
  38. 제 37 항에 있어서,
    상기 자동으로 조정하는 단계는,
    상기 제 1 및 제 2 눈의 이미지들을 수신하는 단계; 및
    상기 개별 눈과 개별 카메라의 상기 배열을 개선하도록 상기 개별 눈의 상기 수신된 이미지들에 기초하여 각각의 개별 안저 카메라의 상기 회전 위치를 조정하는 단계;
    를 포함하는,
    방법.
  39. 웨어러블 광학 헤드셋 시스템(wearable optical headset system)으로서, 상기 시스템은:
    튜브형의(tubular) 외부 프레임(outer frame) - 상기 외부 프레임은 상기 외부 프레임의 개방된 프론트 부분(front portion) 및 백 부분(back portion) 사이에 확장되는 내부를 가지고, 그리고 상기 프론트 부분은 사용자 얼굴에 대해 가압 되고, 상기 사용자의 눈들을 둘러싸도록 구성됨 - ;
    상기 헤드셋이 착용되는 경우에 상기 사용자의 얼굴에 대해 상기 외부 프레임을 유지하도록 구성되고, 그리고 상기 외부 프레임에 부착되는 적어도 하나의 헤드 스트랩(headstrap);
    광학 모듈 하우징 내의 광학 모듈(optics module); 및
    프론트(front), 백(back) 및 사이드(side) 표면(surface)들을 가지는 상기 광학 모듈 하우징;
    을 포함하고, 그리고
    상기 광학 모듈은, (i) 컴퓨터 프로세서(processor) 및 디지털 메모리를 포함하는 컴퓨터 회로(computer circuitry), (ii) 이미지 디스플레이 시스템 및 이미지 캡처 시스템 중 적어도 하나를 포함하는 광학 컴포넌트(optical component)를 포함하고,
    상기 디지털 메모리는, 상기 프로세서와 연결되며 상기 프로세서에 의해 실행 가능한(executable) 컴퓨터 소프트웨어를 저장하도록 구성되고,
    상기 광학 컴포넌트는, 상기 프로세서에 전기적으로 연결되고, 그리고 저장된 컴퓨터 소프트웨어에 따라 상기 프로세서에 의해 제어 가능하고,
    상기 광학 모듈은, 상기 외부 프레임의 상기 프론트 부분을 통해 볼 수 있는(visible) 상기 광학 모듈의 상기 프론트와 상기 외부 프레임의 상기 내부 내에서 제거 가능하며 슬라이드 가능하게 맞물리도록 구성되는,
    헤드셋 시스템.
  40. 제 39 항에 있어서,
    상기 광학 모듈 하우징은,
    상기 외부 프레임 내 대응하는 복수의 구멍들에 맞물리고, 그리고 상기 외부 프레임 내 상기 광학 모듈 하우징을 제거 가능하게 고정(secure)되도록 구성되는 상기 광학 모듈 하우징의 외부 주변부(outer periphery)를 따라 배열되는 복수의 탄성 클립(elastic clip)들을 가지는,
    헤드셋 시스템.
  41. 제 39 항에 있어서,
    상기 광학 모듈 하우징의 상기 백 사이드 표면에 있고, 그리고 상기 프로세서로부터의 신호들에 응답하여 시각 데이터를 출력하도록 구성된 제 1 전자 디스플레이; 및
    상기 외부 프레임의 외부면(outer side) 상에 있는 제 2 전자 디스플레이;
    중 적어도 하나를 더 포함하는,
    헤드셋 시스템.
  42. 제 39 항에 있어서,
    상기 광학 모듈의 외부 상에 있고, 그리고 상기 광학 모듈 내의 상기 회로에 전기적으로 연결된 제 1 전기 인터페이스(electrical interface); 및
    상기 외부 프레임의 상기 내부 상에 있는 제 2 전기 인터페이스;
    를 포함하고, 그리고
    상기 제 1 전기 인터페이스 및 상기 제 2 전기 인터페이스는, 상기 광학 모듈이 상기 외부 프레임에 마운팅 되는 경우에 전기적으로 맞물리도록 구성되는,
    헤드셋 시스템.
  43. 제 42 항에 있어서,
    상기 외부 프레임의 외부면 상에 있고, 그리고 상기 제 2 전기 인터페이스와 통신하는 전자 디스플레이(electronic display);
    를 더 포함하고, 그리고
    상기 디스플레이는, 상기 광학 모듈 내 상기 프로세서로부터의 신호들에 응답하여 시각 데이터를 출력하도록 구성되는,
    헤드셋 시스템.
  44. 제 39 항에 있어서,
    상기 광학 모듈의 외부 상에 있고, 그리고 상기 프로세서와 통신하는 사용자 입력 디바이스(user input device);
    를 더 포함하고, 그리고
    상기 사용자 입력 디바이스는, 상기 광학 모듈이 상기 외부 프레임에 마운팅 되는 경우에 사용자가 액세스할 수 있는(accessible),
    헤드셋 시스템.
  45. 제 39 항에 있어서,
    상기 광학 컴포넌트는, 안저 카메라를 포함하고, 그리고
    상기 안저 카메라는, 상기 외부 프레임의 상기 프론트 부분을 통해 볼 수 있고, 상기 헤드셋을 착용한 사용자의 눈에 대한 이미징을 허용하는 상기 프론트 부분으로부터 확장되는 시야를 가지는,
    헤드셋 시스템.
  46. 제 45 항에 있어서,
    상기 안저 카메라는, 상기 광학 모듈에 회전 가능하게 마운팅 되고, 그리고
    상기 안저 카메라의 회전은, 상기 헤드셋을 착용한 상기 사용자의 상기 눈에 대해 상기 안저 카메라 시야의 위치를 이동시키는,
    헤드셋 시스템.
  47. 제 45 항에 있어서,
    상기 광학 모듈은, 상기 헤드셋을 착용한 상기 사용자의 상기 눈의 이미지들을 캡처하도록 구성된 복수의 아이 트래킹 카메라들;
    을 더 포함하는,
    헤드셋 시스템.
  48. 제 45 항에 있어서,
    상기 광학 모듈은,
    상기 광학 모듈의 주변부를 따라서 있는 복수의 가시(visible) LED들;
    을 더 포함하고, 그리고
    상기 LED들은, 사용자가 상기 헤드셋을 착용하고 있는 경우 상기 프론트 부분을 통해 상기 사용자가 볼 수 있는,
    헤드셋 시스템.
  49. 제 39 항에 있어서,
    상기 광학 모듈은, 복수의 서브컴포넌트(subcomponent)들을 포함하고, 그리고
    각각의 서브컴포넌트는, 프론트 표면 및 백 표면이 있는 개별 하우징(respective housing)을 가지고, 상기 서브컴포넌트들은 상기 광학 모듈의 상기 백으로부터 상기 광학 모듈의 상기 프론트까지 존재하고, 각각의 서브컴포넌트는 인접한 서브컴포넌트에 제거 가능하게 연결되는,
    헤드셋 시스템.
  50. 제 49 항에 있어서,
    상기 복수의 서브컴포넌트들은,
    상기 컴퓨터 회로를 가지는 회로 보드를 포함하는 제 1 서브컴포넌트; 및
    시각 디스플레이를 포함하는 제 2 서브컴포넌트 - 상기 시각 디스플레이는 상기 제 2 서브컴포넌트의 개별 프론트 표면에서 보는 것이 가능함(viewable) - ;
    를 포함하고, 그리고
    상기 제 1 서브컴포넌트의 상기 프론트 표면은, 그 위에 제 1 전기 인터페이스(electrical interface)를 가지며, 상기 제 2 서브컴포넌트의 상기 백 표면은, 그 위에 제 2 전기 인터페이스를 가지고,
    상기 제 1 서브컴포넌트의 상기 프론트 표면은, 상기 제 2 서브컴포넌트의 상기 백 표면에 인접하고,
    상기 제 1 전기 인터페이스 및 상기 제 2 전기 인터페이스는, 서로 전기적으로 연결되고,
    상기 제 2 서브컴포넌트의 상기 시각 디스플레이는, 상기 제 1 서브컴포넌트의 상기 프로세서에 의해 제어 가능한,
    헤드셋 시스템.
  51. 제 50 항에 있어서,
    상기 제 2 서브컴포넌트에 인접한 제 3 서브컴포넌트;
    를 더 포함하고, 그리고
    상기 제 3 서브컴포넌트는 눈 검사(eye examination)들을 관리하는 데 사용하기 위한 기능 컴포넌트(functional component)들을 포함하는,
    헤드셋 시스템.
  52. 제 51 항에 있어서,
    상기 제 3 서브컴포넌트는 안저 카메라를 포함하는,
    헤드셋 시스템.
  53. 제 52 항에 있어서,
    상기 안저 카메라는 상기 제 3 서브컴포넌트에 회전 가능하게 마운팅 되는,
    헤드셋 시스템.
  54. 제 39 항에 있어서,
    상기 광학 모듈은,
    프론트 및 백을 가지고, 그리고 그 위에 상기 컴퓨터 회로를 가지는 평면인 회로 보드(circuit board);
    이미지들이 제시될 수 있는 개별 프론트 표면 및 백 표면을 가지는 제 1 및 제 2 시각 디스플레이들을 포함하는 상기 광학 컴포넌트; 및
    상기 제 1 및 제 2 시각 디스플레이들 앞에 각각 위치되는 제 1 및 제 2 렌즈 어셈블리들;
    을 포함하고, 그리고
    각각의 시각 디스플레이는 전기적으로 상기 회로 보드에 연결되고, 그것에(thereto) 평행하며, 상기 회로 보드를 마주보는(facing) 개별 백 표면(respective back surface)을 가지고,
    각각의 렌즈 어셈블리는 대응하는 디스플레이들 상에 제시되는 이미지들의 가상 이미지(virtual image)들을 형성하도록 동작하고, 이러한 가상 이미지들은 사용자로부터 제 1 거리에 있도록 하는 상기 헤드셋을 착용한 사용자에게 나타나고, 상기 제 1 거리는 상기 사용자의 눈들과 상기 제 1 및 제 2 시각 디스플레이들 사이의 실제 거리(actual distance)보다 더 긴,
    헤드셋 시스템.
  55. 제 54 항에 있어서,
    상기 제 1 및 제 2 시각 디스플레이들은 각각 마이크로미러 디스플레이(micromirror display)들을 포함하는,
    헤드셋 시스템.
  56. 제 54 항에 있어서,
    각각의 시각 디스플레이는 상기 회로 보드 상에 개별 슬롯 커넥터(slot connector)와 결합하는 수 에지 커넥터(male edge connector)를 포함하는,
    헤드셋 시스템.
  57. 제 54 항에 있어서,
    상기 제 1 및 제 2 렌즈 어셈블리들은 각각 프레넬 렌즈 및 동공간의 아이 피스(interpupillary eye piece)들을 포함하는,
    헤드셋 시스템.
  58. 제 54 항에 있어서,
    상기 제 1 및 제 2 렌즈 어셈블리들이 마운팅 되는 렌즈 프레임(lens frame); 및
    상기 렌즈 프레임의 앞에 있는 프론트 프레임;
    을 더 포함하고, 그리고
    상기 프론트 프레임은, 상기 제 1 및 제 2 시각 디스플레이들을 마주보는 백 표면 및 상기 외부 프레임의 상기 프론트 부분을 통해 볼 수 있는 프론트 표면을 가지는,
    헤드셋 시스템.
  59. 제 58 항에 있어서,
    상기 프론트 프레임의 상기 프론트 표면에 회전 가능하게 마운팅 되는 안저 카메라;
    를 더 포함하고, 그리고
    상기 안저 카메라는, 상기 안저 카메라에서 앞으로 확장하는 이미징 시야(imaging field of view)를 가지고, 상기 안저 카메라는 상기 헤드셋 시스템을 착용하는 사람의 눈 구조(structure)들을 이미지화 하도록 구성되는,
    헤드셋 시스템.
  60. 제 54 항에 있어서,
    상기 제 1 및 제 2 렌즈 어셈블리들 각각은,
    상기 컴퓨터 회로로부터의 신호들에 응답하여 전기적으로 제어 가능한 초점(electrically controllable focus)을 가지는 개별 액체 렌즈(respective liquid lens);
    를 포함하는,
    헤드셋 시스템.
  61. 제 60 항에 있어서,
    개별 액체 렌즈들의 상기 초점을 조정하는 것은 상기 제 1 거리를 변경하는,
    헤드셋 시스템.
  62. 제 39 항에 있어서,
    상기 광학 컴포넌트는 망막 이미지 디스플레이(retinal image display)를 포함하는,
    헤드셋 시스템.
  63. 제 62 항에 있어서,
    상기 망막 이미지 디스플레이는,
    라이트 빔(beam of light)을 방사(emit)하도록 구성되는 라이트 이미터(light emitter);
    방사되는 경우에 상기 라이트 빔을 수신하고 그리고 통합된 라이트 빔을 출력하도록 위치되는 통합기 로드(integrator rod);
    상기 통합기 로드로부터 상기 라이트 빔을 수신하고 상기 라이트 빔을 포커싱(focus)하도록 구성되는 적어도 하나의 렌즈;
    상기 포커싱 된 라이트 빔의 경로 내에 있는 빔 스플리터 - 상기 포커싱 된 라이트 빔의 일부분은 상기 빔 스플리터를 빠져나가 디지털 마이크로미러 디바이스(DMD)의 겉면(face)과 교차하고, 상기 DMD로부터 반사된 라이트는 상기 빔 스플리터로 들어가고, 상기 빔 스플리터는 상기 DMD로부터 반사된 상기 라이트의 일부분이 통과할 수 있도록 동작함 - ;
    상기 빔 스플리터를 빠져나가는 상기 반사된 라이트의 상기 일부분을 수신하고 상기 헤드셋을 착용하는 사용자에 의해 상기 DMD에서 생성되는 이미지를 보기 위해 상기 반사된 라이트를 포커싱 하는 투사 렌즈(projection lens);
    를 포함하는,
    헤드셋 시스템.
  64. 제 63 항에 있어서,
    상기 적어도 하나의 렌즈는, 제 1 광학 축(optical axis)을 가지는 제 1 양면 볼록 렌즈(biconvex lens); 및 상기 제 1 광학 축과 동일선(colinear) 상에 있지 않은 제 2 광학 축을 가지는 제 2 양면 볼록 렌즈;를 포함하고, 그리고
    상기 헤드셋 시스템은, 상기 제 1 양면 볼록 렌즈로부터 라이트를 수신하고 상기 수신된 라이트를 상기 제 2 양면 볼록 렌즈로 지향시키도록 동작하는 상기 제 1 양면 볼록 렌즈와 상기 제 2 양면 볼록 렌즈 사이의 프리즘; 또는 한 쌍의 대향 미러(opposed mirror)들; 중 적어도 하나를 더 포함하는,
    헤드셋 시스템.
  65. 제 63 항에 있어서,
    상기 빔 스플리터는 부분 반사 미러(partial reflection mirror)를 포함하는,
    헤드셋 시스템.
  66. 제 63 항에 있어서,
    상기 빔 스플리터는, 각각 개별 베이스(base) 및 개별의 제 1 및 제 2 각도로 상기 베이스로부터 확장되는 빗변(hypotenuse)을 가지는 제 1 직각 프리즘(right angle prism) 및 제 2 직각 프리즘을 포함하고, 그리고
    상기 제 1 직각 프리즘의 상기 빗변은 상기 제 2 직각 프리즘의 상기 빗변에 인접하고,
    상기 제 1 직각 프리즘은 제 1 굴절률(index of refraction)을 가지고,
    상기 제 2 직각 프리즘은 상기 제 1 굴절률과 상이한 제 2 굴절률을 가지는,
    헤드셋 시스템.
KR1020227002308A 2019-07-31 2020-07-30 안과 검사 시스템 및 방법(ophthalmologic testing systems and methods) KR20220043113A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962881120P 2019-07-31 2019-07-31
US62/881,120 2019-07-31
PCT/US2020/044230 WO2021022028A1 (en) 2019-07-31 2020-07-30 Ophthalmologic testing systems and methods

Publications (1)

Publication Number Publication Date
KR20220043113A true KR20220043113A (ko) 2022-04-05

Family

ID=74229869

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020227002308A KR20220043113A (ko) 2019-07-31 2020-07-30 안과 검사 시스템 및 방법(ophthalmologic testing systems and methods)

Country Status (10)

Country Link
US (2) US11504000B2 (ko)
EP (1) EP4003142A4 (ko)
KR (1) KR20220043113A (ko)
CN (1) CN114222520A (ko)
AU (1) AU2020321023A1 (ko)
CA (1) CA3142786A1 (ko)
IL (1) IL290025A (ko)
MX (1) MX2022001354A (ko)
SG (1) SG11202112758VA (ko)
WO (1) WO2021022028A1 (ko)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210244274A1 (en) * 2020-02-07 2021-08-12 Envision Ophthalmology Inc. Devices, systems, and methods for fundus imaging and associated image processing
WO2021211886A1 (en) * 2020-04-15 2021-10-21 Icahn School Of Medicine At Mount Sinai Modular platform for ocular evaluations
CN113080842B (zh) 2021-03-15 2023-06-27 青岛小鸟看看科技有限公司 一种头戴式视力检测设备、视力检测方法及电子设备
BE1029290B1 (fr) * 2021-04-08 2022-11-16 P³Lab Cône de vision, dispositif et méthode de détection des mouvements des yeux d'un patient
JP7449898B2 (ja) * 2021-05-10 2024-03-14 株式会社モリタ製作所 撮像装置、眼球運動データ処理システム、および制御方法
BE1029625B1 (fr) * 2021-07-26 2023-02-20 P³Lab Dispositif de vision pour la detection du mouvement des yeux
ES2933226A1 (es) * 2021-07-30 2023-02-02 Share Global Health S L Dispositivo para control de retinopatías diabéticas u otras afecciones detectables a través del estudio ocular
WO2023006333A1 (en) * 2021-07-30 2023-02-02 Essilor International A device and a computer-implemented method for determining a parameter representative of a visual acuity
WO2023078689A1 (en) * 2021-11-05 2023-05-11 Ams International Ag Retinal imaging
WO2023122307A1 (en) * 2021-12-23 2023-06-29 Thomas Jefferson University Systems and methods for generating neuro-ophthalmic examinations
TWI826221B (zh) * 2022-03-29 2023-12-11 宏達國際電子股份有限公司 頭戴式顯示裝置及眼球追蹤動作的控制方法
US11835725B2 (en) * 2022-04-07 2023-12-05 Htc Corporation Head-mounted display device assembly and external adjustment module
WO2024058507A1 (ko) * 2022-09-15 2024-03-21 삼성전자주식회사 실제 공간과 가상 공간 간의 차이를 최소화하는 전자 장치 및 그 제조 방법
TWI821090B (zh) * 2022-12-30 2023-11-01 宏達國際電子股份有限公司 頭戴式顯示裝置與變焦透鏡模組
CN116982927A (zh) * 2023-08-14 2023-11-03 深圳大学附属华南医院 一种多镜头眼科检查设备及方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5543816A (en) * 1993-10-07 1996-08-06 Virtual Vision Head mounted display system with aspheric optics
US5993001A (en) * 1997-06-05 1999-11-30 Joslin Diabetes Center, Inc. Stereoscopic imaging system for retinal examination with remote examination unit
JP2000059666A (ja) * 1998-08-07 2000-02-25 Victor Co Of Japan Ltd 撮像装置
US6685317B2 (en) * 2000-06-13 2004-02-03 Massie Research Laboratories, Inc. Digital eye camera
US9788714B2 (en) * 2014-07-08 2017-10-17 Iarmourholdings, Inc. Systems and methods using virtual reality or augmented reality environments for the measurement and/or improvement of human vestibulo-ocular performance
JP5853975B2 (ja) * 2013-03-15 2016-02-09 ソニー株式会社 画像表示装置及び画像表示方法
WO2015125626A1 (ja) * 2014-02-20 2015-08-27 ソニー株式会社 表示制御装置、表示制御方法およびコンピュータプログラム
WO2016022215A1 (en) * 2014-08-08 2016-02-11 The Johns Hopkins University Head-mounted indirect opthalmoscope camera
US9854971B2 (en) * 2014-09-09 2018-01-02 Sanovas Intellectual Property, Llc System and method for visualization of ocular anatomy
WO2016115285A1 (en) * 2015-01-13 2016-07-21 Eyenetra, Inc. Variable lens system for refractive measurement
KR20170062876A (ko) * 2015-11-30 2017-06-08 삼성전자주식회사 헤드 마운트 장치 및 이에 탈부착 가능한 장치
US10178948B2 (en) * 2016-05-11 2019-01-15 Miraco Light Inc. Self operatable ophthalmic device
US10095461B2 (en) * 2016-09-23 2018-10-09 Intel IP Corporation Outside-facing display for head-mounted displays
AU2016265973A1 (en) * 2016-11-28 2018-06-14 Big Picture Medical Pty Ltd System and method for identifying a medical condition
EP3618746A4 (en) * 2017-05-04 2021-06-16 Junebrain, Inc. BRAIN MONITORING SYSTEM
WO2019087209A1 (en) * 2017-11-03 2019-05-09 Imran Akthar Mohammed Wearable ophthalmoscope device and a method of capturing fundus image
US10663738B2 (en) * 2017-12-04 2020-05-26 Samsung Electronics Co., Ltd. System and method for HMD configurable for various mobile device sizes
US11471048B2 (en) * 2018-02-14 2022-10-18 The Research Foundation For Suny Tele-microscopic magnifying attachment for binocular indirect ophthalmoscopes
EP3852605A1 (en) 2018-09-21 2021-07-28 Maculogix, Inc. Methods, apparatus, and systems for ophthalmic testing and measurement
USD918904S1 (en) 2019-09-21 2021-05-11 MacuLogix, Inc. Head wearable device
USD934243S1 (en) 2019-09-21 2021-10-26 MacuLogix, Inc. Head wearable device
USD918903S1 (en) 2019-09-21 2021-05-11 MacuLogix, Inc. Headset for ocular testing and measurement

Also Published As

Publication number Publication date
US20230079168A1 (en) 2023-03-16
US11504000B2 (en) 2022-11-22
EP4003142A1 (en) 2022-06-01
IL290025A (en) 2022-03-01
US20220151489A1 (en) 2022-05-19
CN114222520A (zh) 2022-03-22
SG11202112758VA (en) 2021-12-30
AU2020321023A1 (en) 2021-12-02
EP4003142A4 (en) 2023-08-23
CA3142786A1 (en) 2021-02-04
MX2022001354A (es) 2022-03-25
WO2021022028A1 (en) 2021-02-04

Similar Documents

Publication Publication Date Title
US11504000B2 (en) Ophthalmologic testing systems and methods
US11478142B2 (en) Methods, apparatus, and systems for ophthalmic testing and measurement
JP4302525B2 (ja) 検眼装置
EP1911393B1 (en) Eye movement sensor device
US20220142467A1 (en) Numerical system control of ophthalmic visualization and image system
WO2013081619A1 (en) System for ophthalmic imaging
US11324400B2 (en) Apparatus and method for automated non-contact eye examination
WO2013105915A1 (en) System for ophthalmic imaging
JP4494075B2 (ja) 検眼装置
JP4267302B2 (ja) 検眼装置
US20220071485A1 (en) Methods and systems for retrofitting a manual ophthalmic device for remote operation
WO2023200810A1 (en) Optical system for visual field testing

Legal Events

Date Code Title Description
A201 Request for examination