KR102504865B1 - Binocular fundus camera - Google Patents

Binocular fundus camera Download PDF

Info

Publication number
KR102504865B1
KR102504865B1 KR1020210008831A KR20210008831A KR102504865B1 KR 102504865 B1 KR102504865 B1 KR 102504865B1 KR 1020210008831 A KR1020210008831 A KR 1020210008831A KR 20210008831 A KR20210008831 A KR 20210008831A KR 102504865 B1 KR102504865 B1 KR 102504865B1
Authority
KR
South Korea
Prior art keywords
pupil
left eye
capture unit
right eye
image
Prior art date
Application number
KR1020210008831A
Other languages
Korean (ko)
Other versions
KR20210127073A (en
Inventor
하태호
장성환
안준모
손원준
조동기
김성진
Original Assignee
주식회사 씨엠랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 씨엠랩 filed Critical 주식회사 씨엠랩
Publication of KR20210127073A publication Critical patent/KR20210127073A/en
Application granted granted Critical
Publication of KR102504865B1 publication Critical patent/KR102504865B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0091Fixation targets for viewing direction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/1025Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for confocal scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B15/00Optical objectives with means for varying the magnification
    • G02B15/14Optical objectives with means for varying the magnification by axial movement of one or more lenses or groups of lenses relative to the image plane for continuously varying the equivalent focal length of the objective

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

본 발명은 양안 촬영 장치를 제공한다. 양안 촬영 장치는, 좌안의 광축에 대해 제1 각도로 틀어진 제1 광축을 가지며, 상기 좌안의 동공 및 망막을 촬영하는 좌안 촬영부, 우안의 광축에 대해 제2 각도로 틀어진 제2 광축을 가지며, 상기 우안의 동공 및 망막을 촬영하는 우안 촬영부, 상기 좌안 촬영부 및 상기 우안 촬영부를 제1 방향으로 이동시켜서, 상기 좌안 촬영부의 광축을 상기 좌안의 동공에 정렬하며 상기 우안 촬영부의 광축을 상기 우안의 동공에 정렬시키는 제1 방향 이동 메커니즘, 및 상기 좌안 촬영부 및 상기 우안 촬영부를 피검자의 양안을 향해 제2 방향으로 이동시키는 제2 방향 이동 메커니즘을 포함할 수 있다.
본 특허 출원은 산업통산자원부의 안과광학의료기기 글로벌화 지원사업(IP 전략분석 및 특허지원, 과제번호: B0081012000397, 연구기간 2020. 12. 01 ~ 2021. 06. 30)에 의해 수행되었다.
The present invention provides a binocular imaging device. The binocular imaging device has a first optical axis twisted at a first angle with respect to the optical axis of the left eye, a left eye capture unit for imaging the pupil and retina of the left eye, and a second optical axis twisted at a second angle with respect to the optical axis of the right eye; The right eye capture unit for capturing the pupil and the retina of the right eye, the left eye capture unit and the right eye capture unit are moved in a first direction to align the optical axis of the left eye capture unit with the pupil of the left eye and set the optical axis of the right eye capture unit to the right eye A first direction movement mechanism for aligning the pupil of the eye, and a second direction movement mechanism for moving the left eye capture unit and the right eye capture unit in a second direction toward both eyes of the subject.
This patent application was carried out by the Ministry of Trade, Industry and Energy's Ophthalmic Optical Medical Device Globalization Support Project (IP strategy analysis and patent support, task number: B0081012000397, research period 2020. 12. 01 ~ 2021. 06. 30).

Description

양안 촬영 장치{Binocular fundus camera}Binocular imaging device {Binocular fundus camera}

본 발명은 양안 촬영 장치에 관한 것이다. 본 특허 출원은 산업통산자원부의 안과광학의료기기 글로벌화 지원사업(IP 전략분석 및 특허지원, 과제번호: B0081012000397, 연구기간 2020. 12. 01 ~ 2021. 06. 30)에 의해 수행되었다.The present invention relates to a binocular imaging device. This patent application was carried out by the Ministry of Trade, Industry and Energy's Ophthalmic Optical Medical Device Globalization Support Project (IP strategy analysis and patent support, task number: B0081012000397, research period 2020. 12. 01 ~ 2021. 06. 30).

망막은 눈의 가장 안쪽을 둘러싸고 있는 내벽이다. 망막에서, 황반은 시축(visual axis)에 해당하는 부분에 위치하며, 해상력이 가장 좋은 영역이다. 망막에서, 맹점(optical disc)은 황반에서 코 방향으로 위치하며, 망막에 위치한 신경 세포와 연결된 시신경 다발이 모여있는 영역이다. 한편, 시축은, 동공을 통해 수직으로 들어오는 빛의 경로인 광축(optical axis)으로부터 약간의 각도로 기울어져 있다. 이로 인해, 종래의 망막 촬영 장치는, 환자의 시선을 정면으로부터 약간의 각도로 틀어지게 유도한 이후에, 망막을 촬영할 수 있었다. The retina is the inner wall that surrounds the innermost part of the eye. In the retina, the macula is located in a portion corresponding to the visual axis and is the region with the best resolving power. In the retina, the blind spot (optical disc) is located in the direction of the nose from the macula, and is an area where optic nerve bundles connected to nerve cells located in the retina are gathered. On the other hand, the visual axis is tilted at a slight angle from the optical axis, which is a path of light entering vertically through the pupil. Because of this, the conventional retinal imaging device can take a retinal image after inducing the patient's line of sight to be distorted at a slight angle from the front.

양안의 망막을 동시에 촬영할 수 있는 양안 촬영 장치를 제공하고자 한다.It is intended to provide a binocular imaging device capable of simultaneously imaging the retinas of both eyes.

한편, 환자의 시선을 특정 방향 및/또는 거리로 유도하면서, 양안의 망막을 동시에 촬영할 수 있는 양안 촬영 장치를 제공하고자 한다.Meanwhile, it is intended to provide a binocular imaging device capable of simultaneously imaging the retinas of both eyes while guiding a patient's eyes to a specific direction and/or distance.

본 발명은 양안 촬영 장치를 제공한다. 양안 촬영 장치는, 좌안의 광축에 대해 제1 각도로 틀어진 제1 광축을 가지며, 상기 좌안의 동공 및 망막을 촬영하는 좌안 촬영부, 우안의 광축에 대해 제2 각도로 틀어진 제2 광축을 가지며, 상기 우안의 동공 및 망막을 촬영하는 우안 촬영부, 상기 좌안 촬영부 및 상기 우안 촬영부를 제1 방향으로 이동시켜서, 상기 좌안 촬영부의 광축을 상기 좌안의 동공에 정렬하며 상기 우안 촬영부의 광축을 상기 우안의 동공에 정렬시키는 제1 방향 이동 메커니즘, 및 상기 좌안 촬영부 및 상기 우안 촬영부를 피검자의 양안을 향해 제2 방향으로 이동시키는 제2 방향 이동 메커니즘을 포함할 수 있다. 여기서, 상기 좌안 촬영부 및 상기 우안 촬영부는, 상기 피검자의 양안을 향해 모아지도록 배치될 수 있다.The present invention provides a binocular imaging device. The binocular imaging device has a first optical axis twisted at a first angle with respect to the optical axis of the left eye, a left eye capture unit for imaging the pupil and retina of the left eye, and a second optical axis twisted at a second angle with respect to the optical axis of the right eye; The right eye capture unit for capturing the pupil and the retina of the right eye, the left eye capture unit and the right eye capture unit are moved in a first direction to align the optical axis of the left eye capture unit with the pupil of the left eye and set the optical axis of the right eye capture unit to the right eye A first direction movement mechanism for aligning the pupil of the eye, and a second direction movement mechanism for moving the left eye capture unit and the right eye capture unit in a second direction toward both eyes of the subject. Here, the left eye capture unit and the right eye capture unit may be disposed to converge toward both eyes of the examinee.

일 실시예로, 상기 좌안 촬영부와 상기 우안 촬영부는 동시에 상기 좌안과 상기 우안을 각각 촬영하여 망막 영상을 생성할 수 있다.In one embodiment, the left eye capture unit and the right eye capture unit simultaneously capture the left eye and the right eye, respectively, to generate a retinal image.

일 실시예로, 상기 좌안 촬영부는, 링 형상의 백색 편광을 상기 제1 광축을 따라 상기 좌안에 입사하는 망막 조명계, 상기 망막 조명계에 광학적으로 결합하며, 상기 좌안의 동공을 촬영하여 제1 트래킹 영상을 생성하는 동공 트래킹 광학계, 및 상기 망막 조명계에 광학적으로 결합하고, 상기 망막을 촬영하여 제2 트래킹 영상을 생성하며, 상기 좌안의 망막에서 반사된 백색 편광을 검출하여 망막 영상을 생성하는 망막 트래킹/촬영 광학계를 포함할 수 있다.In one embodiment, the left eye photographing unit optically couples a ring-shaped white polarized light incident to the left eye along the first optical axis and the retinal illumination system, and photographs the pupil of the left eye to obtain a first tracking image. A pupil tracking optical system that generates a retinal tracking optical system that is optically coupled to the retinal illumination system, photographs the retina to generate a second tracking image, and detects white polarized light reflected from the retina of the left eye to generate a retinal image. A photographing optical system may be included.

일 실시예로, 상기 제2 트래킹 영상은, 상기 망막에서 옵티컬 디스크의 위치를 트래킹하는데 이용되되, 상기 제2 트래킹 영상은 블러 처리될 수 있다.In one embodiment, the second tracking image is used to track the position of the optical disc in the retina, and the second tracking image may be blurred.

일 실시예로, 상기 망막에서 옵티컬 디스크를 촬영하기 위한 초점 위치는, 상기 좌안 촬영부에 의해 트래킹된 옵티컬 디스크 대응 영역에 속한 화소들간 화소값 차이의 총합인 초점값에 의해 결정될 수 있다.In an embodiment, a focal position for photographing the optical disk on the retina may be determined by a focus value that is the sum of pixel value differences between pixels belonging to an optical disk correspondence area tracked by the left eye photographing unit.

일 실시예로, 상기 초점값은, 상기 옵티컬 디스크 대응 영역을 블러 처리한 후 산출될 수 있다.In one embodiment, the focus value may be calculated after blurring the area corresponding to the optical disk.

일 실시예로, 상기 초점 위치는, 하나의 초점 구간에서, 일정한 초점 간격으로 촬영하여 획득한 복수의 옵티컬 디스크 대응 영역에서 산출된 초점값 중 최대값에 의해 결정될 수 있다.In one embodiment, the focal position may be determined by a maximum value among focus values calculated in a plurality of optical disk corresponding regions acquired by photographing at a constant focal interval in one focal interval.

일 실시예로, 상기 초점 위치는, 일부 구간이 중첩되는 복수의 초점 구간에서, 상이한 초점 간격으로 촬영하여 획득한 복수의 옵티컬 디스크 대응 영역에서 산출된 초점값 중 최대값에 의해 결정될 수 있다.In an embodiment, the focal position may be determined by a maximum value among focus values calculated in a plurality of optical disk corresponding regions obtained by taking pictures at different focal intervals in a plurality of focal sections in which some sections overlap.

본 발명에 따르면, 환자의 시선이 정면을 향한 상태에서, 양안의 망막을 동시에 촬영할 수 있다. 특히, 환자의 시선을 특정 방향을 향하도록 유도하거나 근거리 또는 원거리의 물체를 바라보도록 유도하면서, 양안의 망막을 동시에 촬영할 수 있다.According to the present invention, the retinas of both eyes can be simultaneously photographed in a state in which the patient's eyes are directed forward. In particular, the retinas of both eyes may be simultaneously photographed while inducing the patient's eyes to face a specific direction or to look at a near or far object.

이하에서, 본 발명은 첨부된 도면에 도시된 실시예를 참조하여 설명된다. 이해를 돕기 위해, 첨부된 전체 도면에 걸쳐, 동일한 구성 요소에는 동일한 도면 부호가 할당되었다. 첨부된 도면에 도시된 구성은 본 발명을 설명하기 위해 예시적으로 구현된 실시예에 불과하며, 본 발명의 범위를 이에 한정하기 위한 것은 아니다. 특히, 첨부된 도면들은, 발명의 이해를 돕기 위해서, 도면에 표현된 요소 중 일부를 다소 과장하여 표현하고 있다.
도 1은 일 실시예에 따른 양안 촬영 장치를 개략적으로 도시한 도면이다.
도 2는 도 1에 예시된 양안 촬영 장치의 촬영부를 위에서 바라본 상태를 예시적으로 도시한 도면이다.
도 3은 도 2에 예시된 양안 촬영 장치의 촬영부의 단면을 예시적으로 도시한 도면이다.
도 4는 다른 실시예에 따른 양안 촬영 장치를 개략적으로 도시한 도면이다.
도 5는 가상 영상을 이용한 시선 유도를 예시적으로 도시한 도면이다.
도 6은 도 4에 예시된 양안 촬영 장치의 촬영부를 위에서 바라본 상태를 예시적으로 도시한 도면이다.
도 7은 도 6에 예시된 양안 촬영 장치의 촬영부의 단면을 예시적으로 도시한 도면이다.
도 8은 양안 촬영 장치의 동작을 예시적으로 도시한 흐름도이다.
도 9는 도 8에 예시된 동공 트래킹을 예시적으로 도시한 흐름도이다.
도 10은 제1 트래킹 영상에서 동공을 트래킹하는 과정을 예시적으로 도시한 도면이다.
도 11은 트래킹 과정에 이용된 연산을 예시적으로 설명하기 위한 도면이다.
도 12는 제1 트래킹 영상에서 근적외선 반사 영역을 트래킹하는 과정을 예시적으로 도시한 도면이다.
도 13은 도 8에 예시된 망막 트래킹을 예시적으로 도시한 흐름도이다.
도 14는 제2 트래킹 영상에서 옵티컬 디스크를 트래킹하는 과정을 예시적으로 도시한 도면이다.
도 15는 도 8에 예시된 오토 포커싱을 예시적으로 도시한 흐름도이다.
도 16은 망막 트래킹과 오토 포커싱을 함께 수행하는 실시예를 예시적으로 도시한 흐름도이다.
도 17은 초점값을 정확하게 산출하기 위한 블러 처리를 예시적으로 설명하기 위한 도면이다.
도 18은 초점값을 산출 시간을 줄일 수 있는 오토 포커싱을 예시적으로 나타낸 흐름도이다.
도 19는는 초점값을 산출 시간을 줄일 수 있는 오토 포커싱을 예시적으로 설명하기 위한 도면이다.
도 20은 양안 촬영 장치를 기능적으로 도시한 도면이다.
Hereinafter, the present invention will be described with reference to embodiments shown in the accompanying drawings. For ease of understanding, like reference numerals have been assigned to like elements throughout the accompanying drawings. The configurations shown in the accompanying drawings are only exemplary implemented embodiments to explain the present invention, and are not intended to limit the scope of the present invention thereto. Particularly, in the accompanying drawings, some of the elements represented in the drawings are somewhat exaggerated in order to aid understanding of the invention.
1 is a diagram schematically illustrating a binocular imaging apparatus according to an exemplary embodiment.
FIG. 2 is a diagram illustratively illustrating a state in which a photographing unit of the binocular imaging apparatus illustrated in FIG. 1 is viewed from above.
FIG. 3 is a view exemplarily illustrating a cross-section of a photographing unit of the binocular imaging apparatus illustrated in FIG. 2 .
4 is a diagram schematically illustrating a binocular imaging device according to another exemplary embodiment.
5 is a diagram illustrating gaze guidance using a virtual image as an example.
FIG. 6 is a diagram illustratively illustrating a state in which a photographing unit of the binocular imaging device illustrated in FIG. 4 is viewed from above.
FIG. 7 is a view exemplarily illustrating a cross-section of a photographing unit of the binocular imaging apparatus illustrated in FIG. 6 .
8 is a flowchart illustrating the operation of the binocular imaging device by way of example.
9 is a flowchart illustrating the pupil tracking illustrated in FIG. 8 by way of example.
10 is a diagram exemplarily illustrating a process of tracking a pupil in a first tracking image.
11 is a diagram for explaining an operation used in a tracking process by way of example.
12 is a diagram exemplarily illustrating a process of tracking a near-infrared reflection area in a first tracking image.
13 is a flowchart illustrating the retinal tracking illustrated in FIG. 8 as an example.
14 is a diagram exemplarily illustrating a process of tracking an optical disc in a second tracking image.
15 is a flowchart illustrating the auto focusing illustrated in FIG. 8 as an example.
16 is a flowchart illustrating an exemplary embodiment in which retina tracking and auto focusing are simultaneously performed.
17 is a diagram for illustratively explaining blur processing for accurately calculating a focus value.
18 is a flowchart illustrating auto focusing capable of reducing a time for calculating a focus value by way of example.
19 is a diagram for explaining auto focusing capable of reducing a time for calculating a focus value by way of example.
20 is a functional view of a binocular imaging device.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 특히, 이하에서 첨부된 도면을 참조하여 설명될 기능, 특징, 실시예들은, 단독으로 또는 다른 실시예와 결합하여 구현될 수 있다. 따라서 본 발명의 범위가 첨부된 도면에 도시된 형태에만 한정되는 것이 아님을 유의하여야 한다.Since the present invention can have various changes and various embodiments, specific embodiments are illustrated in the drawings and will be described in detail through detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. In particular, the functions, features, and embodiments described below with reference to the accompanying drawings may be implemented alone or in combination with other embodiments. Therefore, it should be noted that the scope of the present invention is not limited only to the forms shown in the accompanying drawings.

한편, 본 명세서에서 사용되는 용어 중 “실질적으로”, “거의”, “약” 등과 같은 표현은 실제 구현시 적용되는 마진이나 발생가능한 오차를 고려하기 위한 표현이다. 특별한 언급이 없는 한, “측면”, 또는 “수평”은 도면의 좌우 방향을 언급하기 위한 것이며, “수직”은 도면의 상하 방향을 언급하기 위한 것이다. Meanwhile, among terms used in this specification, expressions such as “substantially”, “almost”, and “about” are expressions for considering margins applied in actual implementation or possible errors. Unless otherwise specified, "side" or "horizontal" refers to the left-right direction of the drawing, and "vertical" refers to the top-down direction of the drawing.

첨부된 도면 전체에 걸쳐서, 동일하거나 유사한 요소는 동일한 도면 부호를 사용하여 인용된다. Throughout the appended drawings, the same or similar elements are referred to using like reference numerals.

도 1은 일 실시예에 따른 양안 촬영 장치를 개략적으로 도시한 도면이다.1 is a diagram schematically illustrating a binocular imaging apparatus according to an exemplary embodiment.

양안 촬영 장치(100)는, 양안의 망막을 동시에 촬영한다. 이를 위해서, 양안 촬영 장치(100)는, 피검자의 양안 중 좌안의 망막을 촬영하는 좌안 촬영부(110L) 및 우안의 망막을 촬영하는 우안 촬영부(110R)를 포함한다. 좌안 촬영부(110L)는, 좌안에 수직한 방향, 예를 들어, 좌안의 광축(optical axis) OAeye에 대해 좌안 촬영부(110L)의 광축 OAcam이 제1 각도 θ 1 로 틀어지게 배치된다. 마찬가지로, 우안 촬영부(110R)는, 우안에 수직한 방향, 예를 들어, 우안의 광축에 대해 우안 촬영부(110R)의 광축이 제2 각도 θ 2 로 틀어지게 광축이 배치된다. 여기서, 제1 각도 θ 1 과 제2 각도 θ 2 의 절대값은 실질적으로 동일할 수 있다. 즉, 좌안 촬영부(110L)와 우안 촬영부(110R)는, 피검자에 가까울수록 모아지는 형태로 배치될 수 있다. 좌안 촬영부(110L)의 광축상에는, 좌안의 동공이 위치하며, 우안 촬영부(110R)의 광축상에는 우안의 동공이 위치한다. 따라서 좌안 촬영부(110L)는 좌안의 동공을 통해 좌안의 망막을 촬영하며, 우안 촬영부(110R)는 우안의 동공을 통해 우안의 망막을 촬영한다.The binocular imaging device 100 simultaneously captures the retinas of both eyes. To this end, the binocular imaging device 100 includes a left eye imaging unit 110L for imaging the retina of the left eye of both eyes of an examinee and a right eye imaging unit 110R for imaging the retina of the right eye. In the left eye capture unit 110L, the optical axis OA cam of the left eye capture unit 110L is distorted at a first angle θ 1 with respect to the direction perpendicular to the left eye, for example, the optical axis OA eye of the left eye. . Similarly, the optical axis of the right eye photographing unit 110R is distorted at a second angle θ 2 with respect to the optical axis of the right eye, eg, the optical axis of the right eye photographing unit 110R. Here, the absolute values of the first angle θ 1 and the second angle θ 2 may be substantially the same. That is, the left eye capture unit 110L and the right eye capture unit 110R may be arranged in a converged manner as they are closer to the subject. The pupil of the left eye is positioned on the optical axis of the left eye capture unit 110L, and the pupil of the right eye is positioned on the optical axis of the right eye capture unit 110R. Accordingly, the left eye capture unit 110L photographs the retina of the left eye through the pupil of the left eye, and the right eye capture unit 110R photographs the retina of the right eye through the pupil of the right eye.

좌안 촬영부(110L)와 우안 촬영부(110R)는, 제1 방향, 예를 들어, x 축 방향으로 각각 이동할 수 있다. 피검자의 양안 사이의 거리 d eye , 예를 들어, 동공 사이의 거리는, 피검자마다 상이할 수 있다. 양안을 개별적으로 촬영하는 기존 장비의 경우, 양안 사이의 거리 d eye 는 고려될 필요가 없었다. 그러나 양안을 동시에 촬영하기 위해서는, 좌안 촬영부(110L)와 우안 촬영부(110R)의 광축이 양안의 동공에 각각 정렬되어야 한다. 따라서 양안 촬영 장치(100)는, 좌안 촬영부(110L)를 제1 방향으로 이동시키는 좌안 이동 메커니즘(130L), 및 우안 촬영부(110R)를 제1 방향으로 이동시키는 우안 이동 메커니즘(130R) 중 적어도 하나를 포함할 수 있다. 좌안 이동 메커니즘(130L)과 우안 이동 메커니즘(130R)은, 제1 방향 이동 메커니즘(130)이라 총칭한다. 제1 방향 이동 메커니즘은, 모터, 액츄에이터 등과 같은 공지의 장치로 구현될 수 있다.The left eye capture unit 110L and the right eye capture unit 110R may each move in a first direction, eg, an x-axis direction. The distance d eye between both eyes of the subject, eg, the distance between the pupils, may be different for each subject. In the case of the existing equipment that separately scans both eyes, the distance d eye between both eyes did not need to be considered. However, in order to capture both eyes simultaneously, the optical axes of the left eye capture unit 110L and the right eye capture unit 110R must be aligned with the pupils of both eyes. Accordingly, the binocular imaging apparatus 100 includes a left eye movement mechanism 130L for moving the left eye capture unit 110L in the first direction and a right eye movement mechanism 130R for moving the right eye capture unit 110R in the first direction. may contain at least one. The left eye movement mechanism 130L and the right eye movement mechanism 130R are collectively referred to as the first direction movement mechanism 130 . The movement mechanism in the first direction may be implemented with known devices such as motors and actuators.

한편, 좌안 촬영부(110L)와 우안 촬영부(110R)는, 제2 방향, 예를 들어, y 축 방향으로 함께 이동할 수 있다. 양안 촬영 장치(100)는, 좌안 촬영부(110L), 우안 촬영부(110R) 및 제1 방향 이동 메커니즘을 내부에 수용한 하우징(150)을 포함한다. 일 실시예로, 좌안 촬영부(110L)와 우안 촬영부(110R)는, 하우징(150) 내부에서 제2 방향으로 전진 또는 후진할 수 있다. 다른 실시예로, 하우징(150)이 제2 방향으로 전진 또는 후진함으로써, 좌안 촬영부(110L)와 우안 촬영부(110R)가 피검자의 눈을 향해 전진하거나 눈으로부터 후진할 수도 있다. 이하에서는, 두 실시예를 포괄하여 제2 방향 이동 메커니즘이 좌안 촬영부(110L)와 우안 촬영부(110R)를 제2 방향으로 이동시키는 것으로 가정한다. 제2 방향 이동 메커니즘은, 모터, 액츄에이터 등과 같은 공지의 장치로 구현될 수 있다.Meanwhile, the left eye capture unit 110L and the right eye capture unit 110R may move together in the second direction, eg, the y-axis direction. The binocular imaging device 100 includes a housing 150 accommodating a left eye capture unit 110L, a right eye capture unit 110R, and a moving mechanism in the first direction. In one embodiment, the left eye capture unit 110L and the right eye capture unit 110R may move forward or backward in the second direction inside the housing 150 . In another embodiment, when the housing 150 moves forward or backward in the second direction, the left eye capture unit 110L and the right eye capture unit 110R may move forward toward or backward from the eyes of the subject. Hereinafter, it is assumed that the second direction movement mechanism moves the left eye capture unit 110L and the right eye capture unit 110R in the second direction, encompassing the two embodiments. The second direction movement mechanism may be implemented with known devices such as motors and actuators.

제2 방향 이동 메커니즘(140)은, 피검자와의 거리에 따라 상이한 속도를 이동할 수 있다. 좌안 촬영부(110L)와 우안 촬영부(110R)가 피검자로부터 가장 먼 초기 위치 H부터 일정 위치 p1사이에서, 제2 방향 이동 메커니즘(140)의 단위 시간당 이동 거리, 즉, 이동 속도는 가장 크다. p1부터 망막 촬영에 적합한 위치 p2사이에서, 이동 속도는 감소한다. 최종적으로, 좌안 촬영부(110L)와 우안 촬영부(110R)가 p2에 도달하면, 제2 방향 이동 메커니즘(140)은 좌안 촬영부(110L)와 우안 촬영부(110R)의 이동을 정지시킨다. 여기서, 좌안 촬영부(110L)와 우안 촬영부(110R)는, 제1 방향 이동 메커니즘(130)에 의해 제1 방향으로 이동될 수 있다. 다시 말해, 좌안 촬영부(110L)와 우안 촬영부(110R)는, 제2 방향 이동 메커니즘(140)에 의해 이동되는 도중에, 동공의 위치를 검출하여 광축을 정렬할 수 있다. 추가적으로 또는 선택적으로, 좌안 촬영부(110L)와 우안 촬영부(110R)는, 양안의 망막을 촬영하면서 전진 또는 후진할 수 있다. 이동 속도를 가변함으로써, 양안 촬영 장치(100)가 망막 촬영에 적합한 위치까지의 이동 시간이 감소될 수 있다. 특히, 인간의 눈은 빛에 의해 쉽게 피로해지는 경향이 있어서, 이동시에 망막을 촬영하면, 피로가 눈에 미치는 영향이 최소화될 수 있다.The second direction movement mechanism 140 may move at different speeds depending on the distance from the subject. The movement distance per unit time of the second direction movement mechanism 140, that is, the movement speed, is the highest between the initial position H where the left eye capture unit 110L and the right eye capture unit 110R are farthest from the subject and a certain position p 1 . . Between p 1 and a position p 2 suitable for retinal imaging, the moving speed decreases. Finally, when the left eye capture unit 110L and the right eye capture unit 110R reach p 2 , the second direction movement mechanism 140 stops the movement of the left eye capture unit 110L and the right eye capture unit 110R. . Here, the left eye capture unit 110L and the right eye capture unit 110R may be moved in the first direction by the first direction movement mechanism 130 . In other words, while the left eye capture unit 110L and the right eye capture unit 110R are being moved by the second direction movement mechanism 140 , the position of the pupil may be detected and the optical axis may be aligned. Additionally or alternatively, the left eye capture unit 110L and the right eye capture unit 110R may move forward or backward while capturing the retinas of both eyes. By varying the movement speed, a movement time for the binocular imaging apparatus 100 to a position suitable for retinal imaging may be reduced. In particular, the human eye tends to be easily fatigued by light, so the effect of fatigue on the eye can be minimized by imaging the retina while moving.

도 2는 도 1에 예시된 양안 촬영 장치의 촬영부를 위에서 바라본 상태를 예시적으로 도시한 도면이며, 도 3은 도 2에 예시된 양안 촬영 장치의 촬영부의 단면을 예시적으로 도시한 도면이다. 좌안 촬영부(110L)와 우안 촬영부(110R)는, 양안을 향해 모아지도록 배치된 상태를 제외하면 동일한 구조를 가지므로, 이하에서는, 구분하지 않고 촬영부(110L, 110R)로 총칭하도록 한다.FIG. 2 is a view illustratively illustrating a state in which a photographing unit of the binocular imaging apparatus illustrated in FIG. 1 is viewed from above, and FIG. 3 is a diagram exemplarily illustrating a cross-section of a photographing unit of the binocular imaging apparatus illustrated in FIG. 2 . Since the left eye capture unit 110L and the right eye capture unit 110R have the same structure except for the state in which they are arranged toward both eyes, hereinafter, they will be collectively referred to as the capture units 110L and 110R without distinction.

황반(12L, 12R)과 맹점(13L, 13R)은, 양안(10L, 10R)의 망막에 위치한다. 양안의 망막을 촬영한 사진(10La, 10Ra)를 보면, 양안(10L, 10R)의 구조는 실질적으로 대칭임을 알 수 있다. 맹점(13L, 13R) 사이의 거리는, 황반(12L, 12R) 사이의 거리보다 짧다. 수직으로 동공(11L, 11R)을 통과한 빛의 경로인 광축 OAeye는, 황반(12L, 12R)과 맹점(13L, 13R) 사이로 연장된다. 한편, 동공(11L, 11R)을 통과한 빛이 황반(12L, 12R)에 도달하는 경로인 시축(Visual axis)은, 광축 OAeye에 대해 소정 각도로 틀어져서, 양안(10L, 10R)의 시축은 피검자의 전방에서 교차한다.Maculae 12L and 12R and blind spots 13L and 13R are located on the retinas of both eyes 10L and 10R. Looking at the photographs 10La and 10Ra of the retinas of both eyes, it can be seen that the structures of both eyes 10L and 10R are substantially symmetrical. The distance between the blind spots 13L and 13R is shorter than the distance between the maculas 12L and 12R. An optical axis OA eye , which is a path of light vertically passing through the pupils 11L and 11R, extends between the maculas 12L and 12R and the blind spots 13L and 13R. On the other hand, the visual axis, which is a path for light passing through the pupils 11L and 11R to reach the maculas 12L and 12R, is twisted at a predetermined angle with respect to the optical axis OA eye , so that the visual axis of both eyes 10L and 10R crosses in front of the subject.

도 2와 도 3을 함께 참조하면, 촬영부(110L, 110R)는, 동공 트래킹 광학계와 망막 촬영 광학계가 광학적으로 결합되는 망막 조명계를 포함한다. 망막 조명계는 다양한 구조로 구현될 수 있다. 망막 조명계의 광축은, 촬영부(110L, 110R)의 광축 OAcam이며, 제1 조명(200) 및 제1 카메라(210)로 구성된 동공 트래킹 광학계는, 빔 스플리터에 의해 망막 조명계에 광학적으로 결합된다. 한편, 망막 촬영 광학계는, 미러(230), 편광판(231), 및 제2 카메라(232)를 포함하며, 역시 빔 스필리터(203)에 의해 망막 조명계에 광학적으로 결합된다. 도시된 구조는 일 예일 뿐이며, 카메라 및 조명의 위치는, 다르게 배치될 수도 있음은 물론이다.Referring to FIGS. 2 and 3 together, the photographing units 110L and 110R include a retinal illumination system in which a pupil tracking optical system and a retina imaging optical system are optically coupled. The retinal illumination system may be implemented in various structures. The optical axis of the retinal illumination system is the optical axis OA cam of the photographing units 110L and 110R, and the pupil tracking optical system composed of the first illumination 200 and the first camera 210 is optically coupled to the retinal illumination system by a beam splitter. . Meanwhile, the retinal imaging optical system includes a mirror 230, a polarizer 231, and a second camera 232, and is also optically coupled to the retinal illumination system by the beam splitter 203. The illustrated structure is only an example, and the location of the camera and lighting may be arranged differently, of course.

망막 조명계는, 망막 촬영을 위한 링 형상의 백색 편광을 눈(10L, 10R) 내부로 입사한다. 망막 조명계는, 동공 트래킹 광학계 및 망막 촬영 광학계와 광학적으로 결합한다. 이로 인해, 동공 트래킹 광학계와 망막 촬영 광학계는, 촬영부(110L, 110R)의 광축 OAcam의 적어도 일부를 따라 빛을 외부로 조사하거나, 각막 또는 망막에서 반사된 빛을 수신할 수 있다. 이를 위해, 망막 조명계는, 광축 OAcam을 따라 배열된, 백색광 조명(220), 필터(222), 환형 어퍼쳐(223), 편광판(224), 복수의 빔 스플리터(201, 202, 203), 및 복수의 컬리메이팅 렌즈(204, 221)를 포함할 수 있다.The retinal illumination system inputs ring-shaped white polarized light for retinal imaging into the eyes 10L and 10R. The retinal illumination system is optically coupled with the pupil tracking optical system and the retinal imaging optical system. Accordingly, the pupil tracking optical system and the retinal imaging optical system may externally radiate light along at least a part of the optical axis OA cam of the photographing units 110L and 110R, or may receive light reflected from the cornea or retina. To this end, the retinal illumination system includes a white light illumination 220, a filter 222, an annular aperture 223, a polarizer 224, a plurality of beam splitters 201, 202, 203 arranged along the optical axis OA cam , and a plurality of collimating lenses 204 and 221.

예시된 구조에서, 백생광을 생성하는 백색광 조명(220)은 광축 OAcam을 따라 눈에서 가장 먼 일단부에 배치된다. 망막 조명계의 타단부는 개방되어, 빛이 눈으로 입사하거나 눈에서 반사된 빛이 내부로 입사될 수 있다. 백색광 조명(220)이 생성한 백색광은, 제1 컬리메이팅 렌즈(221)에 의해 직진성이 향상될 수 있다. 필터(222), 환형 어퍼쳐(223) 및 편광판(224)은 제1 컬리메이팅 렌즈(221)의 전방에 배치된다. 환형 어퍼쳐(223)에 의해, 백색광은 링 형상을 가지게 되며, 편광판(224)를 통과하여 링 형상의 백색 편광이 된다. 링 형상의 백색 편광은, 각막에 의한 반사를 최소화하여, 촬영된 망막 사진의 품질을 향상시킨다. 제1 빔 스플리터(201)는, 광축 OAcam을 따라 눈을 향해 진행하는 링 형상의 백색 편광을 통과시키며, 제1 조명(200)이 생성한 빛, 예를 들어, 근적외선을 눈을 향해 굴절시킨다. 제2 빔 스플리터(202)는 제1 빔 스플리터(201)의 전방에 배치되어, 눈을 향해 진행하는 링 형상의 백색 편광 및 근적외선을 통과시키며, 눈에서 반사된 근적외선을 제1 카메라(210)를 향하도록 굴절시킨다. 제3 빔 스플리터(203)는 제2 빔 스필리터(202)의 전방에 배치되어, 눈을 향해 진행하는 링 형상의 백색 편광 및 근적외선을 통과시키고, 눈에서 반사된 근적외선을 통과시키며, 눈에서 반사된 백색 편광을 제2 카메라(232)를 향해 굴절시킨다.In the illustrated structure, a white light illumination 220 generating white light is disposed at one end farthest from the eye along the optical axis OA cam . The other end of the retinal illumination system may be opened so that light may be incident to the eye or light reflected from the eye may be incident to the inside. Straightness of the white light generated by the white light illumination 220 may be improved by the first collimating lens 221 . A filter 222 , an annular aperture 223 and a polarizer 224 are disposed in front of the first collimating lens 221 . White light has a ring shape by the annular aperture 223 and passes through the polarizer 224 to become ring-shaped white light polarization. The ring-shaped white polarized light minimizes reflection by the cornea, thereby improving the quality of a photographed retinal picture. The first beam splitter 201 passes ring-shaped white polarized light traveling toward the eye along the optical axis OA cam , and refracts light generated by the first illumination 200, for example, near infrared rays toward the eye. . The second beam splitter 202 is disposed in front of the first beam splitter 201, passes ring-shaped white polarized light and near infrared rays traveling toward the eye, and transmits the near infrared rays reflected from the eye to the first camera 210. bend towards The third beam splitter 203 is disposed in front of the second beam splitter 202, passes ring-shaped white polarized light and near infrared rays traveling toward the eye, passes near infrared rays reflected from the eye, and reflects from the eye. The white polarized light is refracted toward the second camera 232 .

동공 트래킹 광학계는, 제1 빔 스플리터(201)에 의해 망막 조명계에 광학적으로 결합된 제1 조명(200) 및 제2 빔 스필리터(202)에 의해 망막 조명계에 광학적으로 결합된 제1 카메라(210)를 포함할 수 있다. 제1 조명(200)은, 근적외선을 생성하며, 제1 카메라(210)는, 눈(10L 또는 10R)에서 반사된 근적외선을 검출할 수 있다. 도시되진 않았으나, 제1 카메라(210)는 오토 포커스를 포함할 수 있다.The pupil tracking optical system includes a first light 200 optically coupled to the retinal illumination system by a first beam splitter 201 and a first camera 210 optically coupled to the retinal illumination system by a second beam splitter 202. ) may be included. The first illumination 200 generates near-infrared rays, and the first camera 210 may detect the near-infrared rays reflected from the eye 10L or 10R. Although not shown, the first camera 210 may include auto focus.

망막 촬영 광학계는 미러(230), 편광판(231), 및 제2 카메라(232)를 포함할 수 있다. 제3 빔 스플리터(203)는, 망막에서 반사된 백색 편광을 미러(230)를 향해 굴절시킨다. 미러(230)는 제3 빔 스플리터(203)에 의해 굴절된 백색 편광을 제2 카메라(232)를 향해 굴절시킨다. 미러(230)에 의해 굴절된 백색 편광은, 편광판(231)을 통과한 후 제2 카메라(232)에 도달한다. 도시되진 않았으나, 제2 카메라(232)는 오토 포커스를 포함할 수 있다.The retinal imaging optical system may include a mirror 230 , a polarizer 231 , and a second camera 232 . The third beam splitter 203 refracts white polarized light reflected from the retina toward the mirror 230 . The mirror 230 refracts the white polarized light refracted by the third beam splitter 203 toward the second camera 232 . The white polarized light refracted by the mirror 230 passes through the polarizer 231 and reaches the second camera 232 . Although not shown, the second camera 232 may include auto focus.

이제 도 3을 참조하여 동공 트래킹 및 망막 촬영을 개략적으로 설명한다.Now, pupil tracking and retinal imaging will be schematically described with reference to FIG. 3 .

a1에서, 촬영부(110L, 110R)가 망막 촬영에 적합한 거리에 도달하는 도중 또는 도달한 이후에, 제1 조명(200)이 턴온된다. 제1 조명(200)은, 동공을 트래킹하는데 필요한 근적외선을 조사한다. 근적외선은, 각막에 의한 반사에도 불구하고 높은 컨트라스트를 갖는 제1 트래킹 영상 획득에 유용하다. 또한, 가시광선과 달리, 눈에 피로를 덜 유발하므로, 동공 트래킹 과정동안 지속적으로 눈을 향해 조사될 수 있다.In a1 , while or after the photographing units 110L and 110R reach a distance suitable for retinal imaging, the first illumination 200 is turned on. The first illumination 200 emits near-infrared rays required for pupil tracking. Near-infrared rays are useful for acquiring a first tracking image having high contrast despite reflection by the cornea. Also, unlike visible light, since it causes less eye fatigue, it can be continuously irradiated toward the eye during the pupil tracking process.

a2에서, 제1 조명(200)이 턴온된 후, 제1 카메라(210)는 눈에서 반사된 근적외선을 검출하여 제1 트래킹 영상을 생성한다. 제1 트래킹 영상은, 동공을 트래킹하는데 이용된다. 동공 위치가 결정되면, 제1 방향 이동 메커니즘은, 촬영부(110L, 110R)를, 촬영부(110L, 110R)의 광축 OAcam이 동공을 경사지게 통과하여 망막까지 연장될 수 있는 위치(이하 최적 동공 위치라 함)로 제1 방향으로 이동시킨다.In a2 , after the first light 200 is turned on, the first camera 210 detects near-infrared rays reflected from the eye to generate a first tracking image. The first tracking image is used to track the pupil. When the pupil position is determined, the first directional movement mechanism moves the photographing units 110L and 110R to a position where the optical axis OA cam of the photographing parts 110L and 110R passes through the pupil at an angle and extends to the retina (hereinafter, the optimal pupil). position) in the first direction.

b1에서, 동공 트래킹 결과, 동공이 최적 동공 위치에 있으면, 백색광 조명(220)이 턴온된다. 백색광 조명(220)은 망막 조명계를 통과하면서 링 형상의 백색 편광이 되며, 동공의 일부 영역을 통해 눈으로 입사된다.At b1, if the pupil is at the optimal pupil position as a result of pupil tracking, the white light illumination 220 is turned on. The white light illumination 220 becomes ring-shaped polarized white while passing through the retinal illumination system, and enters the eye through a partial region of the pupil.

b2에서, 백색광 조명(220)이 턴온된 후, 제2 카메라(232)는 망막에서 반사된 백색 편광을 검출하여 양안(10L, 10R)의 망막 영상을 동시에 생성한다. 여기서, 제1 방향 이동 메커니즘은, 망막 영상을 생성하고 있는 촬영부(110L, 110R)를, 제1 방향으로 각각 이동시킬 수 있다.In b2, after the white light illumination 220 is turned on, the second camera 232 detects the white polarized light reflected from the retina and simultaneously generates retinal images of both eyes 10L and 10R. Here, the first direction movement mechanism may move the photographing units 110L and 110R generating retinal images in the first direction, respectively.

도 4는 다른 실시예에 따른 양안 촬영 장치를 개략적으로 도시한 도면이며, 도 5는 가상 영상을 이용한 시선 유도를 예시적으로 도시한 도면이다. 여기서, 도 1에 도시된 구성과 동일한 구성에 대한 설명은 생략하며, 차이점을 주로 설명한다.4 is a diagram schematically illustrating a binocular imaging device according to another embodiment, and FIG. 5 is a diagram exemplarily illustrating gaze guidance using a virtual image. Here, a description of the same configuration as that shown in FIG. 1 will be omitted, and differences will be mainly described.

도 4를 참조하면, 양안 촬영 장치(101)는, 피검자의 시선을 유도하면서 양안(10L, 10R)의 망막을 동시에 촬영한다. 양안 촬영 장치(101)는, 피검자의 양안 중 좌안의 망막을 촬영하는 좌안 촬영부(111L), 우안의 망막을 촬영하는 우안 촬영부(111R), 좌안 영상을 표시하는 좌안 영상 표시계, 및 우안 영상을 표시하는 우안 영상 표시계를 포함한다. 좌안 촬영부(111L)는, 좌안(10L)에 수직한 방향에 대해 제1 각도 θ 1 로 틀어지게 배치되며, 우안 촬영부(111R)는, 우안(10R)에 수직한 방향에 대해 제2 각도 θ 2 로 틀어지게 광축이 배치된다. 이에 반해, 좌안 영상 표시계는, 좌안 영상이 좌안의 정면에 표시되도록 배치되며, 마찬가지로, 우안 영상 표시계는, 우안 영상이 우안의 정면에 표시되도록 배치될 수 있다. 정리하면, 영상 표시계의 광축 OAVR은 소정 각도로 망막을 촬영하기 위한 촬영부(111L, 111R)의 광축 OAcam과 상이하다.Referring to FIG. 4 , the both eye imaging device 101 simultaneously captures the retinas of both eyes 10L and 10R while guiding the gaze of the subject. The binocular imaging apparatus 101 includes a left eye imaging unit 111L for imaging the retina of the left eye of both eyes of an examinee, a right eye imaging unit 111R for imaging the retina of the right eye, a left eye image display system for displaying a left eye image, and a right eye image. It includes a right eye image display system that displays. The left eye capture unit 111L is distorted at a first angle θ 1 with respect to a direction perpendicular to the left eye 10L, and the right eye capture unit 111R is disposed at a second angle with respect to a direction perpendicular to the right eye 10R. The optical axis is arranged to be twisted at θ 2 . In contrast, the left eye image display system is arranged so that the left eye image is displayed in front of the left eye, and similarly, the right eye image display system may be arranged so that the right eye image is displayed in front of the right eye. In summary, the optical axis OA VR of the image display system is different from the optical axis OA cam of the photographing units 111L and 111R for photographing the retina at a predetermined angle.

좌안 영상 표시계 및 우안 영상 표시계에 의해 표시된 영상은, 피검자에 의해 단일 영상으로 인식된다. 따라서 이하에서는 이 둘을 구분하지 않고 가상 영상이라 총칭한다. 가상 영상은, 피검자의 시선을 특정 위치로 유도하는데 이용된다. 즉, 가상 영상에 의한 시선 유도를 통해서, 피검자가 동공을 최적 동공 위치로 이동하거나, 동공을 망막 촬영에 적합한 위치(이하 최적 촬영 위치라 함)로 이동하도록 할 수 있다. 가상 영상은 2차원 또는 3차원 영상일 수 있다. 화면(300, 300a, 300b, 300c)은, 피검자가 보는 가상 영상의 일 예이다. 화면(300, 300a, 300b, 300c)에는, 하나 이상의 객체(301, 302)가 표시될 수 있다. 제1 객체(301)는, 최적 동공 위치 및/또는 최적 촬영 위치를 나타내며, 제2 객체(302)는 피검자의 실제 동공 위치를 나타낸다. 예를 들어, 제1 객체(301)는 촬영부(111L, 111R)가 향하는 방향(또는 광축 OAcam이 향하는 방향)에 의해 화면(300)상의 표시 위치가 결정되며, 제2 객체(302)는 피검자의 실제 동공 위치에 의해 화면(300)상의 표시 위치가 결정될 수 있다.The images displayed by the left eye image display system and the right eye image display system are recognized as a single image by the subject. Therefore, hereinafter, these two are collectively referred to as virtual images without distinction. The virtual image is used to direct the subject's eyes to a specific location. That is, through gaze induction using a virtual image, the subject's pupil may be moved to an optimal pupil position or the pupil may be moved to a position suitable for retinal imaging (hereinafter, referred to as an optimal imaging position). The virtual image may be a 2D or 3D image. The screens 300, 300a, 300b, and 300c are examples of virtual images viewed by the subject. One or more objects 301 and 302 may be displayed on the screens 300, 300a, 300b, and 300c. The first object 301 represents the optimal pupil position and/or the optimal photographing position, and the second object 302 represents the subject's actual pupil position. For example, the display position of the first object 301 on the screen 300 is determined by the direction in which the photographing units 111L and 111R are directed (or the direction in which the optical axis OA cam is directed), and the second object 302 is A display position on the screen 300 may be determined by the subject's actual pupil position.

일 실시예로, 제1 객체(301a)는, 피검자의 시선을 제3 방향, 예를 들어, z 축 방향으로 이동시키는데 이용될 수 있다. 촬영부(111L, 11R)는 x 축 및/또는 y 축 방향으로 이동하면서 피검자의 동공을 트래킹하거나 정지된 상태에서 망막상의 특정 대상, 예를 들어, 옵티컬 디스크를 트래킹할 수 있다. 예를 들어, 촬영부(111L, 11R)는, 제3 이동 메커니즘(미도시)에 의해 z 축 방향으로 이동할 수 있으나, 피검자의 동공을 z 축 방향으로 미세하게 이동하기 위해서는, 이동 메커니즘(130, 140)에 의한 이동보다 시선 유도를 통한 동공 이동이 더 효과적일 수 있다. 화면(300a)에서, 최적 동공 위치(301a)는 실제 동공 위치(302a)보다 위에 있다. 피검자는, 좌안 영상 표시계 및 우안 영상 표시계에 의해 표시된 가상 영상(300a)를 보면서, 동공을 위쪽으로 이동시키면, 양안 촬영 장치(101)는 동공 트래킹을 통해 제2 객체(302a)가 위쪽으로 이동하는 것으로 표시한다. 제1 객체(301a)와 제2 객체(302a)가 중첩하면, 양안 촬영 장치(101)는 피검자의 동공 위치가 최적 동공 위치 또는 최적 촬영 위치에 도달한 것으로 판단하여 망막 촬영을 수행할 수 있다.As an example, the first object 301a may be used to move the subject's gaze in a third direction, for example, in the z-axis direction. The photographing units 111L and 11R may track the subject's pupil while moving in the x-axis and/or y-axis directions, or may track a specific object on the retina, for example, an optical disc, in a stationary state. For example, the photographing units 111L and 11R may move in the z-axis direction by a third movement mechanism (not shown), but in order to finely move the subject's pupil in the z-axis direction, the movement mechanism 130, 140) may be more effective than pupil movement through gaze induction. In view 300a, the optimal pupil position 301a is above the actual pupil position 302a. When the subject moves the pupil upward while viewing the virtual image 300a displayed by the left eye image display system and the right eye image display system, the binocular imaging device 101 moves the second object 302a upward through pupil tracking. indicate as When the first object 301a and the second object 302a overlap, the binocular imaging apparatus 101 may perform retinal imaging by determining that the subject's pupil position has reached an optimal pupil position or an optimal imaging position.

다른 실시예로, 제1 객체(301b)는, 피검자의 시선을 제1 방향, 예를 들어, x 축 방향으로 유도하는데 이용될 수 있다. 촬영부(111L, 111R)가 정지된 상태에서, 피검자가 동공을 이동하면, 촬영부(111L, 111R)는 망막의 여러 영역을 촬영할 수 있다. 화면(300b)에서, 최적 촬영 위치(301b)는 실제 동공 위치(302b)보다 오른편에 있다. 피검자는, 좌안 영상 표시계 및 우안 영상 표시계에 의해 표시된 가상 영상(300b)를 보면서, 동공을 오른쪽으로 이동시키면, 양안 촬영 장치(101)는 동공 트래킹을 통해 제2 객체(302b)가 오른쪽으로 이동하는 것으로 표시한다. 제1 객체(301b)와 제2 객체(302b)가 중첩하면, 양안 촬영 장치(101)는 피검자의 동공 위치가 최적 촬영 위치에 도달한 것으로 판단하여 망막 촬영을 수행할 수 있다.As another embodiment, the first object 301b may be used to guide the subject's gaze in a first direction, for example, in an x-axis direction. In a state in which the photographing units 111L and 111R are stopped, when the subject moves the pupil, the photographing units 111L and 111R may photograph various regions of the retina. In the screen 300b, the optimal shooting position 301b is to the right of the actual pupil position 302b. When the examinee moves the pupil to the right while viewing the virtual image 300b displayed by the left eye image display system and the right eye image display system, the binocular imaging device 101 moves the second object 302b to the right through pupil tracking. indicate as When the first object 301b and the second object 302b overlap, the binocular imaging apparatus 101 may perform retinal imaging by determining that the subject's pupil position has reached the optimal imaging position.

도 5를 함께 참조하면, 또 다른 실시예로, 좌안 영상 표시계 및 우안 영상 표시계에 의해 표시된 가상 영상은, 원근감을 갖는 3차원 영상일 수 있다. 3차원 영상은, 시선 사이각이 좁아지거나 넓어지도록 피검자의 시선을 유도하거나, 동공을 확장시킬 수 있다. 인간의 눈은, 멀리 있는 물체를 보기 위해 시선 사이각이 좁아지며 동공을 확장하여 상대적으로 많은 빛을 받아들인다. 반대로, 가까운 물체를 보기 위해서는, 시선 사이각은 넓어지며, 동공은 축소되어, 상대적으로 적은 빛을 받아들인다. Referring to FIG. 5 together, in another embodiment, the virtual images displayed by the left eye image display system and the right eye image display system may be 3D images having perspective. The 3D image may induce the subject's gaze or dilate the pupil so that the angle between the gaze narrows or widens. In the human eye, the angle between the gaze narrows and the pupil dilates to receive a relatively large amount of light in order to see a distant object. Conversely, to see close objects, the angle between the gazes widens and the pupil narrows, allowing in relatively little light.

원근감을 갖는 3차원 영상은, 피검자가 인지하는 거리에 따라, 동공을 확장 또는 축소시킬 수 있다. 동공이 확장되면, 망막의 넓은 영역을 촬영할 수 있게 된다. 화면(300c)에서, 최적 동공 위치 또는 최적 촬영 위치(301c)는 실제 동공 위치(302c)보다 멀리 있다. 피검자는, 좌안 영상 표시계 및 우안 영상 표시계에 의해 표시된 가상 영상(300c)를 보면서, 시점을 제1 객체(301c)로 이동시키면, 양안 촬영 장치(101)는 동공 트래킹을 통해 동공 확장을 인식하여 제2 객체(302c)가 제1 객체(301c)쪽으로 이동하는 것으로 표시한다. In the 3D image having a sense of perspective, the pupil may be expanded or contracted according to the perceived distance of the subject. When the pupil is dilated, a large area of the retina can be imaged. In the screen 300c, the optimal pupil position or optimal imaging position 301c is farther from the actual pupil position 302c. When the examinee moves the viewpoint to the first object 301c while viewing the virtual image 300c displayed by the left eye image display system and the right eye image display system, the binocular imaging device 101 recognizes pupil dilation through pupil tracking and detects pupil dilation. 2 It is indicated that the object 302c moves toward the first object 301c.

한편, 원근감을 갖는 3차원 영상은, 피검자가 인지하는 거리에 따라, 시선 사이각을 증가 또는 감소시킬 수 있다. 좌안 영상 표시계 및 우안 영상 표시계에 의해 표시된 제2 객체(302L', 302R')은, 피검자로 하여금 제2 객체(302c')가 상대적으로 가깝게 위치한다고 인지하게 한다. 이로 인해, 피검자의 시선 사이각은 넓어진다. 한편, 좌안 영상 표시계 및 우안 영상 표시계에 의해 표시된 제2 객체(302L'', 302R'')은, 피검자로 하여금 제2 객체(302c'')가 상대적으로 멀리 위치한다고 인지하게 한다. 이로 인해, 피검자의 시선 사이각은 좁아진다.Meanwhile, in a 3D image having a sense of perspective, the angle between gazes may be increased or decreased according to a distance perceived by the subject. The second objects 302L' and 302R' displayed by the left eye image display system and the right eye image display system allow the subject to perceive that the second object 302c' is located relatively close. As a result, the angle between the eyes of the examinee is widened. Meanwhile, the second objects 302L″ and 302R″ displayed by the left eye image display system and the right eye image display system allow the subject to recognize that the second object 302c″ is located relatively far away. As a result, the angle between the eyes of the examinee is narrowed.

상술한 실시예들은, 개별적으로 구현되거나 결합될 수 있다. 예를 들어, 제1 방향 또는 제3 방향으로 동공을 이동하는 경우, 제1 객체는 피검자가 원근감을 느낄 수 있는 3차원 영상에서 표시될 수 있다. 다른 예로, 동공은, 제1 방향 내지 제3 방향 이동의 조합에 의해 최적 동공 위치로 이동할 수도 있다.The above-described embodiments may be individually implemented or combined. For example, when the pupil is moved in the first direction or the third direction, the first object may be displayed in a 3D image through which the examinee can feel perspective. As another example, the pupil may move to an optimal pupil position by a combination of movement in the first to third directions.

한편, 제1 객체의 면적이 작아질수록, 피검자의 동공을 최적 동공 위치로 더 정확하게 유도할 수 있다. 동공이 충분히 확장되어 있더라도, 눈의 해부학적 구조로 인해서, 동공의 특정 위치가 망막 촬영에 최적일 수 있다. 따라서, 양안 촬영 장치(101)는, 동공의 특정 위치가 촬영부(111L, 111R)의 광축 OAcam상에 위치하도록 피검자의 시선을 유도할 수 있다.Meanwhile, as the area of the first object becomes smaller, the subject's pupil may be more accurately guided to the optimal pupil position. Even if the pupil is sufficiently dilated, due to the anatomy of the eye, a particular location of the pupil may be optimal for retinal imaging. Accordingly, the binocular imaging device 101 may guide the gaze of the subject so that the specific position of the pupil is located on the optical axis OA cam of the imaging units 111L and 111R.

도 6은 도 5에 예시된 양안 촬영 장치의 촬영부를 위에서 바라본 상태를 예시적으로 도시한 도면이며, 도 7은 도 6에 예시된 양안 촬영 장치의 촬영부의 단면을 예시적으로 도시한 도면이다. 도 2 및 도 3에 도시된 구성과 동일한 구성에 대한 설명은 생략하며, 차이점을 주로 설명한다.FIG. 6 is a view illustratively illustrating a state in which a photographing unit of the binocular imaging apparatus illustrated in FIG. 5 is viewed from above, and FIG. 7 is a diagram exemplarily illustrating a cross-section of a photographing unit of the binocular imaging apparatus illustrated in FIG. 6 . Descriptions of the same components as those shown in FIGS. 2 and 3 will be omitted, and differences will be mainly described.

도 6와 7을 함께 참조하면, 촬영부(111L, 111R)는, 동공 트래킹 광학계와 망막 트래킹/촬영 광학계가 광학적으로 결합되는 망막 조명계를 포함한다. 망막 트래킹/촬영 광학계는, 제2 조명(400), 미러(230), 편광판(231), 및 제2 카메라(232)를 포함하며, 빔 스필리터(203)에 의해 망막 조명계에 광학적으로 결합된다. 망막 트래킹/촬영 광학계는, 옵티컬 디스크를 트래킹하며, 망막을 촬영하여 망막 영상을 생성한다. 도시된 구조는 일 예일 뿐이며, 카메라 및 조명의 위치는, 다르게 배치될 수도 있음은 물론이다.Referring to FIGS. 6 and 7 together, the photographing units 111L and 111R include a retinal illumination system in which a pupil tracking optical system and a retina tracking/photography optical system are optically coupled. The retina tracking/photography optical system includes a second illuminator 400, a mirror 230, a polarizer 231, and a second camera 232, and is optically coupled to the retinal illuminator by a beam splitter 203. . The retina tracking/photography optical system tracks the optical disk and photographs the retina to generate a retinal image. The illustrated structure is only an example, and the location of the camera and lighting may be arranged differently, of course.

촬영부(111L, 111R)는, 망막 조명계에 배치된 좌안 영상 표시계 및 우안 영상 표시계(이하에서는 영상 표시계로 총칭)를 포함한다. 영상 표시계는, 디스플레이(410), 제4 컬리메이팅 렌즈(420), 및 제4 빔 스플리터(430)를 포함할 수 있다. 영상 표시계의 제4 빔 스플리터(430)는, 망막 조명계의 광축 OAcam상에 배치되지만, 제4 빔 스플리터(430)에 의해 굴절되는 빛의 광축 OAVR은 망막 조명계의 광축 OAcam에 평행하지 않다. 즉, 광축 OAVR은 광축 OAcam에 대해 제3 각도 θ 3 만큼 틀어지게 배치된다. 여기서, 제3 각도 θ 3 의 절대값은 제1 각도 θ 1 또는 제2 각도 θ 2 의 절대값과 실질적으로 동일할 수 있다. 이로 인해, 영상 표시계가 출력한 가상 영상은, 좌안과 우안의 정면에 각각 표시된다. The imaging units 111L and 111R include a left eye image display system and a right eye image display system (hereinafter collectively referred to as image display systems) disposed in the retinal illumination system. The image display system may include a display 410, a fourth collimating lens 420, and a fourth beam splitter 430. The fourth beam splitter 430 of the image display system is disposed on the optical axis OA cam of the retinal illumination system, but the optical axis OA VR of light refracted by the fourth beam splitter 430 is not parallel to the optical axis OA cam of the retinal illumination system. . That is, the optical axis OA VR is distorted by a third angle θ 3 with respect to the optical axis OA cam . Here, the absolute value of the third angle θ 3 may be substantially the same as the absolute value of the first angle θ 1 or the second angle θ 2 . Due to this, the virtual image output by the video display system is displayed in front of the left eye and the right eye, respectively.

영상 표시계는, 백색광 조명(220)의 반대편, 즉, 눈에 가장 가까운 타단부에 배치될 수 있다. 제2 조명(400)은, 눈을 향해 근적외선을 조사할 수 있다. 디스플레이(410)는, 피검자의 양안에 표시될 가상 영상을 출력한다. 영상은 제4 컬리메이팅 렌즈(420)에 의해 모아진 후 제4 빔 스플리터(430)에 의해 굴절되어 눈으로 입사한다. 한편, 망막 조명계의 광축 OAcam을 따라 진행하는 빛은, 제4 빔 스플리터(430)를 통과한다.The image display system may be disposed at the opposite end of the white light illumination 220, that is, at the other end closest to the eye. The second illumination 400 may radiate near infrared rays toward the eyes. The display 410 outputs a virtual image to be displayed on both eyes of the subject. The image is collected by the fourth collimating lens 420 and then refracted by the fourth beam splitter 430 to enter the eye. Meanwhile, light traveling along the optical axis OA cam of the retinal illumination system passes through the fourth beam splitter 430 .

이제 도 7을 참조하여 망막 트래킹을 개략적으로 설명한다.Now, referring to FIG. 7, retinal tracking will be schematically described.

c1에서, 촬영부(111L, 111R)가 망막 촬영에 적합한 거리에 도달한 이후에, 피검자의 시선을 유도하기 위한 가상 영상이 출력된다. 동공 이동에 의해, 망막상의 옵티컬 디스크가 촬영부(111L, 111R)에 대응될 수 있다.In c1, after the photographing units 111L and 111R reach a distance suitable for retinal imaging, a virtual image for guiding the subject's gaze is output. By the pupil movement, the optical disk on the retina may correspond to the photographing units 111L and 111R.

c2에서, 제2 조명(400)이 턴온된다. 제2 조명(400)은, 옵티컬 디스크의 위치를 트래킹하는데 필요한 근적외선을 조사한다. 근적외선은, 각막에 의한 반사에도 불구하고 높은 컨트라스트를 갖는 제2 트래킹 영상 획득에 유용하다. 또한, 가시광선과 달리, 눈에 피로를 덜 유발하므로, 망막 트래킹 과정동안 지속적으로 눈을 향해 조사될 수 있다.At c2, the second light 400 is turned on. The second illumination 400 emits near infrared rays necessary for tracking the position of the optical disk. Near-infrared rays are useful for obtaining a second tracking image having high contrast despite reflection by the cornea. In addition, unlike visible light, since it causes less eye fatigue, it can be continuously irradiated toward the eye during the retinal tracking process.

c3에서, 제2 조명(400)이 턴온된 후, 제2 카메라(232)는 망막에서 반사된 근적외선을 검출하여 제2 트래킹 영상을 생성한다. 제2 트래킹 영상은, 옵티컬 디스크를 트래킹하는데 이용된다. 옵티컬 디스크가 적절한 위치에 있지 않으면, 가상 영상이 변경된다. In c3 , after the second illumination 400 is turned on, the second camera 232 detects the near-infrared rays reflected from the retina and generates a second tracking image. The second tracking image is used to track the optical disc. If the optical disc is not in the proper position, the virtual image is changed.

도 8은 양안 촬영 장치의 동작을 예시적으로 도시한 흐름도이다.8 is a flowchart illustrating the operation of the binocular imaging device by way of example.

일 실시예로, 도 4 내지 7을 참조하여 설명한 양안 촬영 장치(101)는, 동공 트래킹(S10), 망막 트래킹(S20), 오토 포커싱(S30), 및 망막 촬영(S40)을 순차적으로 수행할 수 있다. 동공 트래킹(S10)은, 피검자의 동공을 트래킹하는 과정이다. 동공 트래킹에 의해서, 촬영부(111L, 111R)가 제1 방향으로 이동하거나, 피검자가 시선 또는 자세를 변경하여 동공이 최적 동공 위치에 올 수 있다. 망막 트래킹(S20)은, 망막상의 옵티컬 디스크를 트래킹하는 과정이다. 즉, 피검자의 시선은, 측정된 망막상의 옵티컬 디스크의 위치에 기초하여 유도된다. 망막 트래킹(S20)에 의해서, 피검자는 동공을 최적 촬영 위치로 이동할 수 있다. 추가적으로, 망망 트래킹(S20) 과정에서, 제2 조명(400)이 반사된 영역(이하 반사 영역)의 위치가 트래킹될 수 있다. 반사 영역은, 촬영부(111L, 111R)와 동공 사이의 거리를 조절하는데 이용될 수 있다. 오토 포커싱(S30)은, 옵티컬 디스크를 촬영하기 위해 초점을 조절하는 과정이다. 망막 촬영(S40)은, 옵티컬 디스크를 촬영하여 망막 영상을 생성하는 과정이다. 한편, 도 1 내지 3을 참조하여 설명한 양안 촬영 장치(100)는, 동공 트래킹(S10)의 일부, 오토 포커싱(S30), 및 망막 촬영(S40)을 순차적으로 수행할 수 있다. In one embodiment, the binocular imaging apparatus 101 described with reference to FIGS. 4 to 7 may sequentially perform pupil tracking (S10), retina tracking (S20), auto focusing (S30), and retinal imaging (S40). can The pupil tracking (S10) is a process of tracking the subject's pupil. By pupil tracking, the pupils may come to an optimal pupil position by moving the photographing units 111L and 111R in the first direction or by changing the gaze or posture of the subject. Retina tracking (S20) is a process of tracking the optical disc on the retina. That is, the subject's gaze is guided based on the measured position of the optical disc on the retina. Through the retinal tracking (S20), the subject may move the pupil to an optimal photographing position. Additionally, in the network tracking process ( S20 ), the position of the area where the second light 400 is reflected (hereinafter referred to as a reflection area) may be tracked. The reflection area may be used to adjust the distance between the photographing units 111L and 111R and the pupil. Auto focusing (S30) is a process of adjusting the focus to photograph the optical disk. The retinal imaging (S40) is a process of generating a retinal image by imaging the optical disk. Meanwhile, the binocular imaging device 100 described with reference to FIGS. 1 to 3 may sequentially perform part of pupil tracking ( S10 ), auto focusing ( S30 ), and retinal imaging ( S40 ).

다른 실시예로, 도 4 내지 7을 참조하여 설명한 양안 촬영 장치(101)는, 동공 트래킹(S10)을 수행한 후, 망막 트래킹(S20)과 오토 포커싱(S30)을 동시에 수행할 수 있다. 망막 트래킹(S20)은, 오토 포커스를 이용하여, 제2 카메라(232)의 초점을 변경하면서 수행될 수 있다. As another embodiment, the binocular imaging apparatus 101 described with reference to FIGS. 4 to 7 may simultaneously perform retina tracking ( S20 ) and auto focusing ( S30 ) after performing pupil tracking ( S10 ). Retinal tracking ( S20 ) may be performed while changing the focus of the second camera 232 using auto focus.

이하에서는 각 과정을 상세하게 설명한다.Each process is described in detail below.

도 9는 도 8에 예시된 동공 트래킹 동작을 예시적으로 도시한 흐름도이고, 도 10은 제1 트래킹 영상에서 동공을 트래킹하는 과정을 예시적으로 도시한 도면이고, 도 11은 트래킹 과정에 이용된 연산을 예시적으로 설명하기 위한 도면이며, 도 12를 제1 트래킹 영상에서 근적외선 반사 영역을 트래킹하는 과정을 예시적으로 도시한 도면이다.FIG. 9 is a flowchart exemplarily illustrating the pupil tracking operation illustrated in FIG. 8, FIG. 10 is a diagram exemplarily illustrating a process of tracking a pupil in a first tracking image, and FIG. It is a diagram for explaining the calculation by way of example, and FIG. 12 is a diagram showing a process of tracking a near-infrared reflection area in the first tracking image as an example.

도 9 내지 12를 함께 참조하면, 촬영부(111L, 111R)는, 이동 메커니즘(130, 140)에 의해 초기 위치로 이동한다(S100). 초기 위치는, 망막 촬영에 적절한 위치이며, 모델 아이를 이용하여 결정될 수 있다. 한편, 초기 위치는, 망막이 선명하게 촬영한 경우들에서의 촬영부(111L, 111R) 위치들로부터도 결정될 수 있다. 이동 메커니즘(130, 140)은, 제1 방향 및/또는 제2 방향으로 촬영부(111L, 111R)를 이동시켜 촬영부(111L, 111R)가 초기 위치에 정렬되도록 한다.9 to 12 together, the photographing units 111L and 111R are moved to their initial positions by the moving mechanisms 130 and 140 (S100). The initial position is a position suitable for retinal imaging and can be determined using a model eye. Meanwhile, the initial position may also be determined from positions of the photographing units 111L and 111R in cases where the retina is clearly photographed. The moving mechanisms 130 and 140 move the capturing units 111L and 111R in the first direction and/or the second direction so that the capturing units 111L and 111R are aligned in their initial positions.

제3 방향, 예를 들어, 상하로 피검자의 시선을 유도하기 위한 영상이 출력된다(S110). 시선 유도에 의해 동공이 이동한다. 동공 트래킹에 이용되는 영상은 2차원 영상일 수 있다. 출력된 영상은, 망막 조명계에 대해 제3 각도 θ 3 로 틀어져서 양안의 정면을 향하는 제4 빔 스플리터(430)에 의해 굴절되어 눈을 향하여 진행한다. 한편, 단계 S110은, 선택적으로 수행될 수 있다.An image for guiding the gaze of the subject in a third direction, for example, up and down, is output (S110). The pupil is moved by gaze guidance. An image used for pupil tracking may be a 2D image. The output image is refracted by the fourth beam splitter 430, which is twisted at a third angle θ 3 with respect to the retinal illumination system and directed toward the front of both eyes, and proceeds toward the eyes. Meanwhile, step S110 may be selectively performed.

제1 카메라(210)가 눈을 촬영하여 제1 트래킹 영상(500)을 생성한다(S120). 제1 조명(200)은 동공 트래킹 과정 동안 턴온되어 근적외선을 눈을 향해 조사할 수 있다. 제1 카메라(210)는, 동공을 포함한 눈 주변에서 반사된 근적외선을 검출하여 제1 트래킹 영상(500)을 생성한다. 제1 트래킹 영상(500)은, 근적외선이 각막 및/또는 홍채에 의해 반사된 위치를 나타내는 반사 영역(502), 근적외선이 반사된 홍채(503)를 포함한다.The first camera 210 captures the eye and generates a first tracking image 500 (S120). The first light 200 may be turned on during the pupil tracking process to radiate near-infrared rays toward the eyes. The first camera 210 generates a first tracking image 500 by detecting near-infrared rays reflected from around the eye including the pupil. The first tracking image 500 includes a reflection area 502 indicating a location where near infrared rays are reflected by the cornea and/or iris, and an iris 503 where the near infrared rays are reflected.

제1 트래킹 영상(500)에서 동공이 검출된다(S130). 도 10을 참조하면, 동공은 근적외선을 통과시키므로, 반사되는 근적외선이 상대적으로 작은 반면, 동공 주변의 홍채(503)는 근적외선을 상대적으로 잘 반사한다. 최적 동공 위치를 판단하기 위한 유효 영역(504)은, 제1 트래킹 영상(500)에 정의될 수 있다. 제1 카메라(200)는, 흑백 영상 또는 컬러 영상을 생성할 수 있다. 흑백 영상의 경우, 제1 트래킹 영상(500)의 각 화소들은, 그레이 스케일 값을 가지며, 컬러 영상의 경우, 제1 트래킹 영상(500)의 각 화소들은, 적색, 녹색 및 청색값을 가진다. 흑백 영상의 경우, 그레이 스케일을 화소값으로, 컬러 영상의 경우 청색값을 화소값으로, 유효 영역(504)의 히스토그램(505)이 생성된다. 히스토그램(505)의 가로축은 화소값을 나타내며, 세로축은 화소의 수를 나타낸다. A pupil is detected in the first tracking image 500 (S130). Referring to FIG. 10 , since the pupil passes near-infrared rays, the reflected near-infrared rays are relatively small, whereas the iris 503 around the pupil reflects the near-infrared rays relatively well. An effective area 504 for determining an optimal pupil position may be defined in the first tracking image 500 . The first camera 200 may generate a black and white image or a color image. In the case of a black-and-white image, each pixel of the first tracking image 500 has a gray scale value, and in the case of a color image, each pixel of the first tracking image 500 has red, green, and blue values. In the case of a black-and-white image, a histogram 505 of the effective area 504 is generated using gray scale as a pixel value, and in case of a color image, a blue value as a pixel value. The horizontal axis of the histogram 505 represents the pixel value, and the vertical axis represents the number of pixels.

반사되는 근적외선이 거의 없으므로, 동공은 상대적으로 어두운 영역이다. 따라서 히스토그램(505)에서, 좌측에 표시된 상대적으로 작은 화소값들이 동공을 나타내며, 우측에 표시된 상대적으로 큰 화소값들은, 홍채 등 동공을 둘러싼 나머지 영역을 나타낸다. 동공과 홍채의 경계는, 상대적으로 작은 화소값이 급격히 감소하는 화소값으로 표현될 수 있다. 따라서 작은 화소값이 급격히 감소하는 첫 번째 골짜기(506)를 검출하고, 그 골짜기(506)에 해당하는 화소값을 이용하여 동공을 검출할 수 있다. Since very little near-infrared light is reflected, the pupil is a relatively dark region. Therefore, in the histogram 505, relatively small pixel values displayed on the left represent the pupil, and relatively large pixel values displayed on the right represent the remaining area surrounding the pupil, such as the iris. The boundary between the pupil and the iris may be expressed as a pixel value in which a relatively small pixel value rapidly decreases. Accordingly, a first valley 506 in which a small pixel value rapidly decreases can be detected, and a pupil can be detected using a pixel value corresponding to the valley 506 .

예를 들어, 첫 번째 골짜기(506)는, 다음과 같이 결정될 수 있다. 먼저, 임의의 한 화소값 Px를 갖는 화소의 수 Gy가, 1 내지 n(n은 2 이상) 작은 화소값을 갖는 화소의 수 Gy1보다 작거나 같으며, 1 내지 n 큰 화소값을 갖는 화소의 수 Gy2보다 작거나 같으면, 해당 화소값 Px가 선택된다. 이 조건은, 히스토그램(505)상에 존재하는 대부분의 골짜기를 검출하기 위한 조건이다. 둘 이상의 화소값 Px가 검출되면, 검출된 화소값 Px를 갖는 화소의 수 Gy가, 검출된 화소값 Px보다 작은 화소값을 갖는 화소의 수 중 최대값의 K배(여기서, K는 1 미만) 보다 작은 화소값 Px가 선택된다. 이 조건은, 봉우리를 지난 골짜기를 찾기 위한 조건이다. 둘 이상의 화소값 Px가 검출되면, 검출된 화소값 Px보다 작은 화소값을 갖는 화소의 수 중 최대값이 M1보다 큰 화소값 Px가 선택된다. 여기서, M1은, 유효 영역(504)에 포함된 총 화소수에 따라 결정될 수 있다. 예를 들어, 유효 영역(504)에 포함된 총 화소수가 80,000개이면, M1은 약 0.15%에 해당하는 120일 수 있다. 이 조건은, 상대적으로 큰 봉우리를 지난 골짜기를 찾기 위한 조건이다.For example, the first valley 506 can be determined as follows. First, the number G y of pixels having any one pixel value P x is less than or equal to the number of pixels G y1 having a small pixel value of 1 to n (n is 2 or more), and a pixel value 1 to n larger If the number of pixels having is less than or equal to G y2 , the corresponding pixel value P x is selected. This condition is a condition for detecting most valleys existing on the histogram 505. If more than one pixel value P x is detected, the number G y of pixels having the detected pixel value P x is K times the maximum of the number of pixels having a pixel value smaller than the detected pixel value P x (where K is less than 1), a pixel value P x smaller than 1 is selected. This condition is a condition for finding a valley past a peak. If two or more pixel values P x are detected, the pixel value P x whose maximum value is greater than M 1 among the number of pixels having a pixel value smaller than the detected pixel value P x is selected. Here, M 1 may be determined according to the total number of pixels included in the effective area 504 . For example, if the total number of pixels included in the effective area 504 is 80,000, M 1 may be 120 corresponding to about 0.15%. This condition is a condition for finding a valley past a relatively large peak.

노이즈 제거 전 동공 영상(507)은, 결정된 첫 번째 골짜기(506)의 화소값과 같거나 작은 화소값을 갖는 영역(508)을 나타낸다. 동공 주변에 위치한 각막 및/또는 홍채에 의해 형성된 반사 영역(502)뿐 아니라, 동공 내부에도 큰 화소값을 갖는 영역, 즉, 노이즈가 존재할 수 있다. morphology 연산을 적용하여 노이즈 제거 전 동공 영상(507)에서 노이즈를 제거할 수 있다. 도 11은, morphology 연산에 의한 영상 처리 효과를 예시하고 있다. The pupil image 507 before noise removal shows a region 508 having a pixel value equal to or smaller than the determined pixel value of the first valley 506 . In addition to the reflective region 502 formed by the cornea and/or iris located around the pupil, a region having a large pixel value, ie, noise, may exist inside the pupil. Noise may be removed from the pupil image 507 before noise removal by applying a morphology operation. 11 illustrates an image processing effect by morphology calculation.

침식(Erode)은, 밝은 영역, 즉, 상대적으로 큰 화소값을 갖는 영역을 수축시킨다. 따라서, 침식 처리에 의해, 노이즈에 해당하는 작은 면적을 갖는 영역들이 제거된다.Erode shrinks bright areas, that is, areas with relatively large pixel values. Therefore, by the erosion process, regions with a small area corresponding to the noise are removed.

팽창(Dilate)은, 밝은 영역을 확장시킨다. 따라서, 밝은 영역 내에 위치한 어두운 영역, 즉, 상대적은 작은 화소값을 갖는 영역이 제거된다.Dilate expands the bright area. Accordingly, a dark area located within a bright area, that is, an area having a relatively small pixel value is removed.

열림(Open)은, 침식을 적용한 후 팽창을 적용한다. 열림에 의하면, 작은 면적을 갖는 노이즈가 제거되며, 침식에 의해 줄어든 영역들이 다시 확장된다. 즉, 열림은, 노이즈를 제거하기 위한 연산이다.Open applies dilation after applying erosion. According to the opening, noise having a small area is removed, and areas reduced by erosion are expanded again. That is, opening is an operation for removing noise.

닫힘(Close)는, 팽창을 적용한 후 침식을 적용한다. 닫힘에 의하면, 밝은 영역 내부에 위치한 어두운 영역이 제거되며, 팽창에 의해서 확장된 밝은 영역이 수축된다. 즉, 닫힘은 밝은 영역 내부의 어두운 영역을 제거하기 위한 연산이다.Close applies dilation followed by erosion. By closing, the dark regions located inside the bright regions are removed, and the bright regions expanded by dilation are contracted. That is, closing is an operation for removing dark areas inside bright areas.

morphology 닫힘 연산 및 열림 연산이 노이즈 제거 전 동공 영상(507)에 적용된다. 닫힘 연산 및 열림 연산시 적용된 필터의 크기는, 필터링이 수행되어야 하는 영역(508)이 상대적으로 넓기 때문에, 이하 다른 연산에서 적용된 필터보다 클 수 있다. The morphology closing operation and opening operation are applied to the pupil image 507 before denoising. The size of the filter applied during the closing operation and the opening operation may be larger than filters applied in other operations below because the area 508 to be filtered is relatively wide.

노이즈 제거 후 동공 영상(508)은, 동공 영역(509)을 포함한다. 도 10에 예시된 영상은, 동공 영역(509)이 유효 영역(504) 내에 위치한 정상적인 경우이나, 동공 트래킹 과정에서는 동공 영역(509)과 유사한 영역이 유효 영역(504)에 위치할 수도 있으며, 동공 영역(509)의 일부만 유효 영역(504)에 위치할 수도 있다. 필터링된 영역들중에서, 동공의 해부학적 특성, 예를 들어, 동공의 가로/세로비를 이용하여, 동공에 대응하는 영역이 결정된다. 이후, 제1 트래킹 영상에서, 동공 영역(509)의 위치와 크기가 산출된다.The pupil image 508 after noise removal includes a pupil area 509 . In the image illustrated in FIG. 10, the pupil area 509 is normally located within the effective area 504, but in the pupil tracking process, an area similar to the pupil area 509 may be located in the effective area 504, Only a part of the area 509 may be located in the effective area 504 . Among the filtered regions, a region corresponding to the pupil is determined using an anatomical characteristic of the pupil, for example, a width/height ratio of the pupil. Then, in the first tracking image, the location and size of the pupil area 509 are calculated.

한편, 제1 트래킹 영상(500)은, 피검자의 눈과 촬영부(111L, 111R)간의 거리를 측정하는데 이용될 수 있다. 도 12을 참조하면, 제1 조명(200)은 복수이거나, 단일의 제1 조명(200)에 의해 생성된 근적외선은 복수의 구분된 광 경로를 통해 눈에 도달할 수 있다. 각막 및/또는 홍채 부근에서 반사된 근적외선은, 제1 트래킹 영상(500)에 의해 검출될 수 있다. 반사 영역(502)의 위치 및/또는 영역간 거리로부터, 동공의 위치뿐 아니라 피검자의 눈과 촬영부(111L, 111R)간의 거리가 측정될 수 있다. 피검자의 눈과 촬영부(111L, 111R)간의 거리는, 측정된 거리에 의해, 조절될 수 있다.Meanwhile, the first tracking image 500 may be used to measure the distance between the subject's eyes and the photographing units 111L and 111R. Referring to FIG. 12 , there may be a plurality of first lights 200 , or near-infrared rays generated by a single first light 200 may reach the eye through a plurality of separated light paths. Near infrared rays reflected from the vicinity of the cornea and/or iris may be detected by the first tracking image 500 . From the position of the reflective region 502 and/or the distance between regions, not only the position of the pupil but also the distance between the subject's eye and the photographing units 111L and 111R can be measured. The distance between the subject's eyes and the photographing units 111L and 111R may be adjusted by the measured distance.

이를 위해, 제1 트래킹 영상(500)에서, 유효 영역(504)의 적어도 일부를 포함하는 반사 트래킹 영상(510)이 추출된다. 반사 트래킹 영상(510)의 히스토그램(511)이 생성된다. 히스토그램(511)의 가로축은 화소값을 나타내며, 세로축은 화소의 수를 나타낸다. To this end, a reflection tracking image 510 including at least a part of the effective region 504 is extracted from the first tracking image 500 . A histogram 511 of the reflection tracking image 510 is generated. The horizontal axis of the histogram 511 represents the pixel value, and the vertical axis represents the number of pixels.

동공과 반대로, 반사 영역(502)은 매우 밝은 영역이다. 따라서, 히스토그램(511)에서, 우측에 표시된 가장 큰 화소값들이 반사 영역(502)을 나타낸다. 반사 영역(502)의 둘레는, 화소수가 급격히 감소하는 화소값으로 표현될 수 있다. 예를 들어, 임의의 한 화소값 Px를 갖는 화소의 수 Gy가, 1 내지 n(n은 2 이상) 큰 화소값을 갖는 화소의 수 Gy3보다 M2만큼 작으면, 화소값 Px가 반사 영역(502)의 둘레로 결정된다. 큰 화소값 Px가 선택된다. 여기서, M2는, 반사 트래킹 영상(510)에 포함된 총 화소수에 따라 결정될 수 있다.Contrary to the pupil, the reflective region 502 is a very bright region. Accordingly, in the histogram 511, the largest pixel values displayed on the right side represent the reflective region 502. The circumference of the reflective region 502 may be expressed as a pixel value in which the number of pixels rapidly decreases. For example, if the number G y of pixels having any one pixel value P x is smaller by M 2 than the number of pixels G y3 having pixel values greater than 1 to n (n is 2 or more), the pixel value P x is determined around the reflective area 502. A large pixel value P x is selected. Here, M 2 may be determined according to the total number of pixels included in the reflection tracking image 510 .

노이즈 제거 전 서브 트래킹 영상(513)은, 결정된 화소값 Px를 갖는 후보 영역(514)을 나타낸다. morphology 침식 및 팽창 연산을 순차적으로 적용하여 노이즈 제거 전 서브 트래킹 영상(513)에서 노이즈를 제거할 수 있다. 노이즈가 다른 영상에 포함된 노이즈보다 상대적으로 작으므로, 침식 연산에 사용하는 필터의 크기는 다른 경우보다 상대적으로 작을 수 있다. The sub tracking image 513 before noise removal represents a candidate region 514 having the determined pixel value P x . Noise may be removed from the sub-tracking image 513 before noise removal by sequentially applying morphology erosion and dilation operations. Since noise is relatively smaller than noise included in other images, the size of a filter used for erosion calculation may be relatively smaller than in other cases.

노이즈 제거 후 서브 트래킹 영상(514)은, 복수의 후보 영역(514)을 포함할 수 있다. 따라서, 촬영부(111L, 111R)로부터 조사된 근적외선에 연관된 반사 영역(515)을 결정하기 위해, 각 후보 영역(513)의 면적, 중심의 위치, 중심간 거리 등의 조건을 이용할 수 있다. The sub tracking image 514 after noise removal may include a plurality of candidate regions 514 . Therefore, in order to determine the reflective region 515 associated with the near-infrared rays emitted from the photographing units 111L and 111R, conditions such as the area of each candidate region 513, the location of the center, and the distance between centers may be used.

동공 영역(509)이 최적 동공 위치에 있는지가 판단된다(S140). 예를 들어, 판단은, 동공 영역(509)와 최적 동공 위치로 정의된 영역간 중첩 비율이나, 중심점간 거리를 기준으로 이용할 수 있다. It is determined whether the pupil area 509 is at the optimal pupil position (S140). For example, the determination may be made based on an overlapping ratio between the pupil area 509 and the region defined as the optimal pupil position or a distance between center points.

동공 영역(509)이 최적 동공 위치에 있지 않으면, 촬영부(111L, 111R)가 제1 방향으로 이동되거나 시선을 상하로 유도하기 위한 가상 영상이 변경될 수 있다(S150). 변경된 가상 영상은, 이전 단계에서 검출된 동공 영역(509)을 반영한다. 가상 영상이 변경된 경우, 피검자는, 변경된 가상 영상을 보면서 시선이나 자세를 조정할 수 있다. 동공 영역(509)이 최적 동공 위치에 있으면, 망막 트래킹 과정(S20)이 시작된다.If the pupil area 509 is not at the optimal pupil position, the photographing units 111L and 111R may be moved in the first direction or a virtual image for guiding gaze up and down may be changed (S150). The changed virtual image reflects the pupil area 509 detected in the previous step. When the virtual image is changed, the examinee may adjust the gaze or posture while viewing the changed virtual image. When the pupil area 509 is at the optimal pupil position, the retinal tracking process (S20) begins.

도 13은, 도 8에 예시된 망막 트래킹 동작을 예시적으로 도시한 흐름도이며, 도 14는 제2 트래킹 영상에서 옵티컬 디스크를 트래킹하는 과정을 예시적으로 도시한 도면이다.FIG. 13 is a flowchart exemplarily illustrating the retinal tracking operation illustrated in FIG. 8 , and FIG. 14 is a diagram exemplarily illustrating a process of tracking an optical disk in a second tracking image.

피검자의 시선을 유도하기 위한 가상 영상이 출력된다(S300). 양안 촬영 장치(101)에서, 디스플레이(410)는, 도 4에 예시된 가상 영상(300)을 출력한다. 출력된 가상 영상은, 최적 촬영 위치를 나타내는 제1 객체(301) 및 실제 동공 위치를 나타내는 제2 객체(302)를 포함한다. 망막 트래킹에 이용되는 가상 영상은 2차원 또는 3차원 영상일 수 있다. 출력된 가상 영상은, 망막 조명계에 대해 제3 각도 θ 3 로 틀어져서 양안의 정면을 향하는 제4 빔 스플리터(430)에 의해 굴절되어 눈을 향하여 진행한다. A virtual image for guiding the gaze of the subject is output (S300). In the binocular imaging device 101 , the display 410 outputs the virtual image 300 illustrated in FIG. 4 . The output virtual image includes a first object 301 indicating an optimal capturing position and a second object 302 indicating an actual pupil position. The virtual image used for retinal tracking may be a 2D or 3D image. The output virtual image is twisted at a third angle θ 3 with respect to the retinal illumination system and refracted by the fourth beam splitter 430 toward the front of both eyes, and then proceeds toward the eyes.

제2 조명(400)이 턴온되면, 제2 카메라(232)가 망막을 촬영하여 제2 트래킹 영상(520)을 생성한다(S310). 제2 조명(400)은 망막 트래킹 과정 동안 턴온되어 근적외선을 눈을 향해 조사할 수 있다. 제2 카메라(232)는, 망막을 포함한 눈에서 반사된 근적외선을 검출하여, 제2 트래킹 영상(520)을 생성한다.When the second light 400 is turned on, the second camera 232 captures the retina to generate a second tracking image 520 (S310). The second light 400 may be turned on during the retina tracking process to radiate near-infrared rays toward the eye. The second camera 232 generates a second tracking image 520 by detecting near-infrared rays reflected from the eye including the retina.

제2 트래킹 영상(520)의 전체 밝기를, 미리 결정된 문턱값과 비교한다(S320). 망막 트래킹(또는 오토 포커스)가 진행되는 동안에, 피검자가 눈을 감으면, 제2 카메라(232)는 망막을 촬영할 수 없으며, 눈꺼풀에 반사된 근적외선만 제2 카메라(232)가 검출하므로, 제2 트래킹 영상(520)의 전체 밝기가 매우 커진다. 이 경우, 제2 트래킹 영상에서 옵티컬 디스크를 검출하는 단계는 생략될 수 있다. 전체 밝기가 문턱값보다 크면, 단계 S310으로 되돌아가며, 문턱값보다 작으면, 단계 S330으로 진행한다.The overall brightness of the second tracking image 520 is compared with a predetermined threshold value (S320). While retina tracking (or autofocus) is in progress, if the subject closes his/her eyes, the second camera 232 cannot capture the retina, and since the second camera 232 detects only near-infrared rays reflected on the eyelids, The overall brightness of the tracking image 520 becomes very large. In this case, the step of detecting the optical disc in the second tracking image may be omitted. If the total brightness is greater than the threshold, the process returns to step S310, and if less than the threshold, the process proceeds to step S330.

제2 트래킹 영상(520)에서 옵티컬 디스크(522)의 위치가 검출된다(S330). 옵티컬 디스크 검출은, 상술한 동공 검출이나 반사 영역 검출과 유사하다. 도 20에서, 히스토그램이 제2 트래킹 영상(520)의 유효 영역(521)에 대한 히스토그램이 생성된다. 선택적으로, 트래킹 시간을 단축하기 위해서, 제2 트래킹 영상(520)을 일정 비율로 축소한 영상의 유효 영역에 대한 히스토그램이 생성될 수도 있다. 유효 영역(521)은, 제2 트래킹 영상(520) 또는 축소된 제2 트래킹 영상에 정의될 수 있다. The position of the optical disc 522 is detected from the second tracking image 520 (S330). Optical disc detection is similar to pupil detection or reflective area detection described above. In FIG. 20 , a histogram is generated for the valid region 521 of the second tracking image 520 . Optionally, in order to shorten the tracking time, a histogram of an effective region of an image obtained by reducing the second tracking image 520 at a predetermined ratio may be generated. The effective area 521 may be defined in the second tracking image 520 or a reduced second tracking image.

옵티컬 디스크(522)는 다른 영역에 비해 상대적으로 밝은 영역이다. 따라서, 히스토그램에서, 상대적으로 큰 화소값을 갖는 화소들이 옵티컬 디스크(522)를 나타낼 수 있다. 가장 큰 화소값부터 시작해서 화소값이 감소하는 방향으로 가면서, 화소의 수가 급격히 증가하는 화소값이 결정된다. 예를 들어, 임의의 한 화소값 Px를 갖는 화소의 수 Gy가, 1 내지 n(n은 2 이상) 큰 화소값을 갖는 화소의 수 Gy4보다 M3만큼 많으면, 화소값 Px가 옵티컬 디스크(521)의 둘레로 결정된다. 여기서, M3은, 유효 영역(521)에 포함된 총 화소수에 따라 결정될 수 있다.The optical disc 522 is a relatively bright area compared to other areas. Accordingly, in the histogram, pixels having relatively large pixel values may represent the optical disk 522 . Starting from the largest pixel value and going in a direction in which the pixel value decreases, a pixel value at which the number of pixels rapidly increases is determined. For example, if the number of pixels G y having any one pixel value P x is greater than the number of pixels G y4 having a pixel value larger than 1 to n (n is 2 or more) by M 3 , the pixel value P x is It is determined by the circumference of the optical disk 521. Here, M 3 may be determined according to the total number of pixels included in the effective area 521 .

제2 트래킹 영상(520)에서, 결정된 화소값보다 큰 화소값을 가진 영역들이 결정된다. 노이즈 제거 전 옵티컬 디스크 영상(522)은, 결정된 화소값보다 큰 화소값을 갖는 영역(523)을 나타낸다. 망막에는, 옵티컬 디스크뿐 아니라, 이와 유사한 밝기를 가진 영역, 즉, 노이즈가 존재할 수 있다. morphology 연산을 적용하여 노이즈 제거 전 옵티컬 디스크 영상(522)에서 노이즈를 제거할 수 있다. 결정된 영역들에 대해 2 이상의 필터링 연산, 예를 들어, morphology 닫힘 연산, morphology 열림 연산 등을 수행한다. 필터링된 영역들중에서, 특정 면적을 갖는 영역들이 선택된다. 선택된 영역들의 중심에서 부분 이미지를 추출하여 블러(Blur)한다. 블러된 이미지에 인접한 픽셀들의 픽셀값 차이의 총합을 산출한다. 산출한 값이 가장 큰 영역이 옵티컬 디스크(522)이다. 노이즈 제거 후 옵티컬 디스크 영상(524)는, 옵티컬 디스크 대응 영역(525)을 포함한다. In the second tracking image 520, regions having pixel values greater than the determined pixel values are determined. The optical disc image 522 before noise removal shows a region 523 having a pixel value greater than the determined pixel value. In the retina, not only the optical disk, but also a region having similar brightness, ie, noise, may exist. Noise may be removed from the optical disc image 522 before noise removal by applying a morphology operation. Two or more filtering operations, eg, morphology closing operation and morphology opening operation, are performed on the determined regions. Among the filtered regions, regions having a specific area are selected. Partial images are extracted from the center of the selected regions and blurred. A total sum of pixel value differences of pixels adjacent to the blurred image is calculated. The area with the largest calculated value is the optical disk 522 . The optical disc image 524 after noise removal includes an area 525 corresponding to the optical disc.

옵티컬 디스크 대응 영역(526)을 기준으로, 동공이 최적 촬영 위치에 있는지가 판단된다(S340). 옵티컬 디스크 대응 영역(526)은, 옵티컬 디스크를 포함하는 사각형의 영역일 수 있다. 예를 들어, 판단은, 망막 영상에서, 옵티컬 디스크의 위치를 이용할 수 있다. Based on the optical disc correspondence area 526, it is determined whether the pupil is at an optimal photographing position (S340). The optical disc corresponding area 526 may be a rectangular area including the optical disc. For example, the determination may use the position of the optical disc in the retinal image.

동공이 최적 촬영 위치에 있지 않으면, 시선을 유도하기 위한 가상 영상이 변경될 수 있다(S350). 변경된 가상 영상은, 옵티컬 디스크 대응 영역(526)의 위치를 반영한다. 가상 영상이 변경된 경우, 피검자는, 변경된 가상 영상을 보면서 시선을 조정할 수 있다.If the pupil is not at the optimal photographing position, a virtual image for guiding the gaze may be changed (S350). The changed virtual image reflects the position of the optical disk correspondence area 526 . When the virtual image is changed, the examinee may adjust the gaze while viewing the changed virtual image.

실제 동공 위치가 최적 동공 위치에 있으면, 오토 포커싱이 수행된다(S360). When the actual pupil position is at the optimal pupil position, auto focusing is performed (S360).

도 15는 도 8에 예시된 오토 포커싱을 예시적으로 도시한 흐름도이며, 망막 트래킹과 오토 포커싱을 순차적으로 수행하는 실시예를 나타낸다. 15 is a flowchart illustrating the auto focusing illustrated in FIG. 8 by way of example, and shows an embodiment in which retina tracking and auto focusing are sequentially performed.

오토 포커스에 의한 초점이 초기 위치에 있다(S400). 오토 포커스는, 복수의 렌즈에 의해 형성된 초점을 최초 위치부터 최종 위치까지 단계적으로 이동시킨다. 초점 위치는, 렌즈간 거리에 의해 변화하며, 렌즈간 거리는, 모터에 의해 조정된다. 따라서, 초점 위치는, 모터 회전축의 회전수 및/또는 회전각으로 표현될 수 있다.The focus by auto focus is at the initial position (S400). Autofocus moves the focus formed by a plurality of lenses step by step from an initial position to a final position. The focal position changes according to the distance between the lenses, and the distance between the lenses is adjusted by a motor. Therefore, the focal position may be expressed as the rotation number and/or the rotation angle of the motor rotation shaft.

제2 카메라(232)가 옵티컬 디스크를 촬영하여 망막 영상을 생성한다(S410). 이때, 실제 동공 위치는 최적 촬영 위치에 있다. 제2 카메라(232)는, 초점을 순차적으로 이동시키면서 망막을 촬영할 수 있다.The second camera 232 photographs the optical disk to generate a retinal image (S410). At this time, the actual pupil position is at the optimal photographing position. The second camera 232 may photograph the retina while sequentially moving the focal point.

촬영된 영상에서, 옵티컬 디스크의 위치가 망막 영상에서 트래킹된다(S420). 옵티컬 디스크의 위치 트래킹은 상술한 도 19의 단계 S330과 실질적으로 동일할 수 있다.In the photographed image, the position of the optical disc is tracked in the retinal image (S420). Position tracking of the optical disk may be substantially the same as step S330 of FIG. 19 described above.

옵티컬 디스크 대응 영역(526)에서 초점값이 산출된다(S430). 초점값은, 옵티컬 디스크 대응 영역(526)에 속한 화소들간 화소값 차이의 총합이며, 초점값은 그 영상을 촬영할 때의 초점 위치에 연관된다. 상대적으로 작은 초점값에 비해, 상대적으로 큰 초점값은, 오토 포커스에 의한 초점이 상대적으로 좋은 위치에 있음을 나타낸다. 따라서 더 선명한 망막 영상을 획득할 수 있다.A focus value is calculated in the optical disc corresponding area 526 (S430). The focus value is the total sum of pixel value differences between pixels belonging to the optical disk correspondence area 526, and the focus value is related to the focus position when the image is captured. Compared to a relatively small focus value, a relatively large focus value indicates that the focus by autofocus is at a relatively good position. Accordingly, a clearer retinal image may be obtained.

오토 포커스에 의한 초점이 최초 위치에서 최종 위치까지 변경되었는지 판단한다(S440). 초점이 최초 위치에 있을 때 모터 회전축의 회전수를 0으로, 최종 위치의 회전수를 100으로 가정하면, 측정된 회전수가 0보다 크고 100보다 작으면, 단계 S450으로 진행하며, 측정된 회전수가 100이면 단계 S460으로 진행할 수 있다.It is determined whether the focus by auto focus has changed from the initial position to the final position (S440). Assuming that the number of rotations of the motor rotation shaft is 0 when the focus is at the initial position and the number of rotations of the final position is 100, if the measured number of rotations is greater than 0 and less than 100, the process proceeds to step S450, and the measured number of rotations is 100. If not, the process may proceed to step S460.

초점이 최초 위치와 최종 위치 사이에 있으면, 오토 포커스에 의한 초점이 변경된다(S450). If the focus is between the initial position and the final position, the focus is changed by auto focus (S450).

초점이 최종 위치에 있으면, 저장된 초점값 중에서 가장 큰 초점값을 갖는 초점 위치에 초점이 오도록 오토 포커스를 조정한다(S460). When the focus is at the final position, auto focus is adjusted so that the focus is at the focus position having the largest focus value among the stored focus values (S460).

이후 백색광 조명(200)을 턴온하여 망막을 촬영한다(S40).Thereafter, the white light illumination 200 is turned on to photograph the retina (S40).

도 16은 망막 트래킹과 오토 포커싱을 함께 수행하는 실시예를 예시적으로 도시한 흐름도이다.16 is a flowchart illustrating an exemplary embodiment in which retina tracking and auto focusing are simultaneously performed.

피검자의 시선을 유도하기 위한 가상 영상이 출력되며(S500), 오토 포커스에 의한 초점이 초기 위치에 있다(S510). 여기서, 단계 S500 및 단계 S510의 순서는 변경될 수 있으며, 동시에 진행될 수도 있다.A virtual image for guiding the gaze of the subject is output (S500), and the focus by auto focus is at an initial position (S510). Here, the order of step S500 and step S510 may be changed or performed simultaneously.

제2 조명(400)이 턴온되면, 제2 카메라(232)가 망막을 촬영하여 제2 트래킹 영상(520)을 생성한다(S520). 제2 트래킹 영상(520)의 전체 밝기가 문턱값보다 크면(S530), 제2 카메라(232)는, 초점 변경 없이, 망막을 촬영한다. When the second light 400 is turned on, the second camera 232 captures the retina to generate a second tracking image 520 (S520). If the total brightness of the second tracking image 520 is greater than the threshold value (S530), the second camera 232 photographs the retina without changing the focus.

제2 트래킹 영상(520)에서 옵티컬 디스크의 위치가 검출되고, 옵티컬 디스크 대응 영역(526)을 이용하여 초점값이 계산된다(S540). 옵티컬 디스크의 위치는 도 13의 단계 S330에서 설명된 과정을 통해 검출될 수 있으며, 초점값은 도 15의 단계 S430에서 설명된 과정을 통해 검출될 수 있다.The position of the optical disc is detected in the second tracking image 520, and a focus value is calculated using the area 526 corresponding to the optical disc (S540). The position of the optical disk can be detected through the process described in step S330 of FIG. 13, and the focus value can be detected through the process described in step S430 of FIG. 15.

검출된 옵티컬 디스크의 위치를 기준으로, 동공이 최적 촬영 위치에 있는지 판단된다(S550). 최적 촬영 위치가 아니면, 피검자의 시선을 유도하기 위한 가상 영상이 변경될 수 있다(S560). 최적 촬영 위치이면, 오토 포커스에 의한 초점이 최초 위치에서 최종 위치까지 변경되었는지 판단한다(S570). 초점이 최초 위치와 최종 위치 사이에 있으면, 오토 포커스에 의한 초점이 변경된다(S580). 초점이 최종 위치에 있으면, 저장된 초점값 중에서 가장 큰 초점값을 갖는 초점 위치에 초점이 오도록 오토 포커스를 조정한다(S590). 이후 백색광 조명(200)을 턴온하여 망막을 촬영한다(S40).Based on the detected position of the optical disk, it is determined whether the pupil is at an optimal photographing position (S550). If it is not an optimal photographing position, a virtual image for guiding the gaze of the subject may be changed (S560). If it is the optimal photographing position, it is determined whether the focus by auto focus has changed from the initial position to the final position (S570). If the focus is between the initial position and the final position, the focus is changed by auto focus (S580). When the focus is at the final position, auto focus is adjusted so that the focus is at the focus position having the largest focus value among the stored focus values (S590). Thereafter, the white light illumination 200 is turned on to photograph the retina (S40).

도 17은 초점값을 정확하게 산출하기 위한 블러 처리를 예시적으로 설명하기 위한 도면이다.17 is a diagram for illustratively explaining blur processing for accurately calculating a focus value.

초점값은, 옵티컬 디스크 대응 영역(526)에 속한 화소들간 화소값 차이의 총합으로, 초점값이 클수록 더 선명한 망막 영상을 생성할 수 있다. 따라서 정확하게 초점이 맞은 망막 영상의 초점값은, 부정확하게 초점이 맞은 망막 영상의 초점값보다 커야 한다. 그런데, 부정확하게 초점이 맞은 망막 영상의 초점값이 정확하게 초점이 맞은 망막 영상의 초점값보다 큰 경우가 발생한다. 이유는, 망막 영상이 근적외선을 이용하여 눈 안쪽의 어두운 영역을 촬영하여 생성된 어두운 영상이어서, 노이즈에 의한 영향을 더 크게 받기 때문이다. 따라서, 옵티컬 디스크 대응 영역(526)에서 노이즈를 제거할 필요가 있다.The focus value is the total sum of pixel value differences between pixels belonging to the optical disk corresponding area 526, and a sharper retinal image can be created as the focus value increases. Therefore, the focus value of the correctly focused retinal image must be greater than the focus value of the incorrectly focused retinal image. However, there may be a case where a focus value of an incorrectly focused retinal image is greater than a focus value of an accurately focused retinal image. This is because the retinal image is a dark image generated by photographing a dark region inside the eye using near-infrared rays, and thus is more greatly affected by noise. Therefore, it is necessary to remove noise from the optical disc corresponding area 526.

망막 영상(540)에 표시된 직선상에 위치한 화소값들간의 차이(541)는, 노이즈가 제거되기 전 상태를 잘 보여준다. 부정확하게 초점이 맞은 망막 영상은, 정확하게 초점이 맞은 망막 영상보다 더 많은 노이즈를 포함하고 있다. 노이즈는, 화소값의 차이를 증가시키므로, 노이즈가 많을수록 망막 영상의 초점값도 증가한다. 노이즈를 감소시키기 위해서, 망막 영상(540) 전체 또는 옵티컬 디스크 대응 영역(526)을 블러(Blur) 처리한다. 망막 영상(540)에서, 특정 영역, 예를 들어, 옵티컬 디스크 및 그 주변의 혈관 등이 상대적으로 더 중요하며, 그 외 영역은 상대적으로 덜 중요하다. 또한, 상대적으로 면적이 넓은 망막 영상(540) 전체를 블러 처리하는데 소요되는 시간은, 상대적으로 면적이 작은 옵티컬 디스크 대응 영역(526)을 블러 처리하는데 소요되는 시간보다 상대적으로 클 수 있다.A difference 541 between pixel values located on a straight line displayed in the retinal image 540 shows a state before noise is removed. An incorrectly focused retinal image contains more noise than a correctly focused retinal image. Since noise increases the difference between pixel values, the focus value of the retinal image increases as the amount of noise increases. To reduce noise, the entire retinal image 540 or the region 526 corresponding to the optical disc is blurred. In the retinal image 540, a specific region, eg, the optical disc and its surrounding blood vessels, is relatively more important, and other regions are relatively less important. In addition, the time required to blur the entire retinal image 540 having a relatively large area may be greater than the time required to blur the optical disc corresponding region 526 having a relatively small area.

블러 처리는, 다양한 블러 필터를 이용할 수 있다. 블러 필터는, 예를 들어, 평균 블러 필터(542), 가우시안 블러 필터(543), 중간값 블러 필터 중 어느 하나일 수 있다. 여기서, 블러 필터의 크기는, n x n(n은 화소의 수)이며, 블러 필터의 중앙에 위치한 화소를 중앙 화소로, 중앙 화소 주변에 위치한 화소를 주변 화소라고 지칭한다. 평균 블러 필터(542)는, 중앙 화소 및 주변 화소들의 화소값의 평균값을 산출하며, 산출된 평균값을 중앙 화소의 화소값으로 한다. 가우시안 블러 필터(543)는, 중앙 화소 및 주변 화소의 화소값에 상이한 가중치를 적용하고, 가중치가 적용된 화소값들의 평균값을 산출하며, 산출된 평균값을 중앙 화소의 화소값으로 한다. 중간값 블러 필터는, 중앙 화소 및 주변 화소의 화소값 중 중간값을 중앙 화소의 화소값으로 한다.Blur processing can use various blur filters. The blur filter may be, for example, any one of an average blur filter 542, a Gaussian blur filter 543, and a median blur filter. Here, the size of the blur filter is n x n (n is the number of pixels), and a pixel located at the center of the blur filter is referred to as a center pixel, and pixels located around the center pixel are referred to as peripheral pixels. The average blur filter 542 calculates an average value of pixel values of the center pixel and neighboring pixels, and uses the calculated average value as the pixel value of the center pixel. The Gaussian blur filter 543 applies different weights to the pixel values of the central pixel and the peripheral pixels, calculates an average value of the weighted pixel values, and takes the calculated average value as the pixel value of the central pixel. In the median blur filter, the median value of the pixel values of the central pixel and the peripheral pixels is set as the pixel value of the central pixel.

블러 처리된 망막 영상(544)에 표시된 직선상에 위치한 화소값들간의 차이(545)는, 노이즈가 제거된 후 상태를 잘 보여준다. 블러 처리에 의해, 많은 양의 노이즈가 제거되었음을 알 수 있다. 블러 처리는, 초점값 산출뿐 아니라, 망막 트래킹시 옵티컬 디스크 검출에도 적용될 수 있다. A difference 545 between pixel values located on a straight line displayed in the blurred retinal image 544 shows the state well after noise is removed. It can be seen that a large amount of noise is removed by the blur processing. Blur processing may be applied not only to calculate a focus value, but also to detect an optical disk during retinal tracking.

도 18은 초점값 산출 시간을 줄일 수 있는 오토 포커싱을 예시적으로 나타낸 흐름도이며, 도 19는 초점값을 산출 시간을 줄일 수 있는 오토 포커싱을 예시적으로 설명하기 위한 도면이다.18 is a flowchart exemplarily illustrating auto focusing capable of reducing the time for calculating a focus value, and FIG. 19 is a diagram for exemplarily illustrating auto focusing capable of reducing a time for calculating a focus value.

도 18과 도 19를 함께 참조하면, 초점값 산출을 위한 망막 영상은, 초점을 이동시키면서 망막을 촬영하여 생성된다. 초점 간격은, 제2 카메라(232)가 망막 영상을 촬영하는 시점 사이의 시간 간격과 연관될 수 있다. 여기서, 초점 간격은, 등간격이거나 가변 간격일 수 있으며, 모터 회전축의 회전수 및/또는 회전각으로 표현될 수 있다. Referring to FIGS. 18 and 19 together, a retinal image for calculating a focus value is generated by photographing the retina while moving the focus. The focal interval may be associated with a time interval between points at which the second camera 232 captures retinal images. Here, the focal intervals may be equal intervals or variable intervals, and may be expressed as the rotation number and/or rotation angle of the motor rotation shaft.

등간격 오토 포커싱은, 초기 위치부터 최종 위치까지 동일한 초점 간격으로 초점값을 산출한다. 모터 회전축이 등속도로 회전하여 초점 위치가 등속도로 변할 때, 제2 카메라(232)가 동일한 시간 간격으로 망막을 촬영하며, 생성된 망막 영상에 대한 초점값이 산출될 수 있다. 초기 위치부터 최종 위치까지 초점을 이동시키므로, 초점 간격을 충분히 작게 설정하면, 최대 초점값을 정확하게 결정할 수 있는 반면, 산출 시간이 증가할 수 있다.Equal interval auto focusing calculates focus values at the same focus interval from an initial position to a final position. When the rotation axis of the motor rotates at a constant speed and the focus position changes at a constant speed, the second camera 232 photographs the retina at the same time interval, and a focus value for the generated retinal image may be calculated. Since the focus is moved from the initial position to the final position, if the focus interval is set sufficiently small, the maximum focus value can be accurately determined, but the calculation time may increase.

가변 간격 오토 포커싱은, 최대 초점값 산출 시간을 감소시킬 수 있다. 가변 간격 오토 포커싱은, 망막 영상을 획득하는 초점 구간을 줄여가면서, 초점값을 산출한다. 초점 구간은 2 이상이며, 각 초점 구간은 적어도 일부가 중첩될 수 있다. 각 초점 구간은, 상이한 초점 간격을 가질 수 있다. 한편, 모터 회전축은, 모든 초점 구간에서 등속도로 회전하거나, 상이한 속도로 회전할 수 있다.The variable interval auto focusing may reduce a maximum focus value calculation time. The variable-interval auto-focusing calculates a focus value while reducing a focus period for obtaining a retinal image. There are two or more focal sections, and at least a part of each focal section may overlap. Each focal interval may have a different focal interval. Meanwhile, the rotation shaft of the motor may rotate at a constant speed or at a different speed in all focal sections.

일 실시예로, 초점 구간은 3개이며, 초점 간격은 각 초점 구간마다 상이할 수 있다. 오토 포커스는, 제1 초점 구간에서, 초점을 초기 위치 R0부터 제1 속도로 이동시키며, 제2 카메라(232)는, 제1 초점 간격으로 이격된, 위치 R1, R2, R3, R4에서 망막 영상을 촬영한다(S610). 제1 초점 구간은, 등간격 오토 포커싱에서 초기 위치와 최종 위치에 의해 정의되는 전체 초점 구간과 실질적으로 동일할 수 있다. 한편, 제1 초점 간격 및 제1 속도는, 등간격 오토 포커싱에서의 초점 간격 및 속도보다 클 수 있다.In one embodiment, there are three focal sections, and a focal interval may be different for each focal section. Auto focus moves the focus from the initial position R 0 at a first speed in the first focal interval, and the second camera 232 is located at positions R 1 , R 2 , R 3 , spaced apart by a first focal interval. A retinal image is captured in R 4 (S610). The first focal section may be substantially the same as an entire focal section defined by an initial position and a final position in equal interval auto focusing. Meanwhile, the first focal interval and the first speed may be greater than the focal interval and speed in equal interval auto focusing.

위치 R1, R2, R3, R4에 연관된 초점값이 산출되며, 산출된 초점값으로부터 제2 초점 구간이 결정된다(S610). 제2 초점 구간은, 위치 R1, R2, R3, R4 중에서 선택된 연속하는 2개의 위치로 정의될 수 있다. 도 25에 예시된 그래프에서, 위치 R2에서의 초점값이 가장 크다. 위치 R2에 연속하는 위치 R1과 R3중에서, 위치 R3에서의 초점값이 위치 R1에서의 초점값보다 크다. 따라서, 제2 초점 구간의 초기 위치는 위치 R2로 최종 위치는 R3로 설정된다.Focus values related to the positions R 1 , R 2 , R 3 , and R 4 are calculated, and a second focus section is determined from the calculated focus values (S610). The second focal region may be defined as two contiguous positions selected from positions R 1 , R 2 , R 3 , and R 4 . In the graph illustrated in FIG. 25 , the focus value at position R 2 is the largest. Among positions R 1 and R 3 subsequent to position R 2 , the focus value at position R 3 is greater than the focus value at position R 1 . Accordingly, the initial position of the second focal region is set to position R 2 and the final position is set to R 3 .

오토 포커스는, 제2 초점 구간에서, 초점을 초기 위치 R2부터 제2 속도로 이동시키며, 제2 카메라(232)는, 제2 초점 간격으로 이격된, 위치 r1, r2, r3, r4에서 망막 영상을 촬영한다(S630). 제2 초점 간격은 제1 초점 간격보다 작으며, 제2 속도는, 예를 들어, 제1 속도와 같거나 작을 수 있다. Auto focus moves the focus from the initial position R 2 at a second speed in the second focal interval, and the second camera 232 is located at positions r 1 , r 2 , r 3 , spaced apart by a second focal interval. A retinal image is captured in r 4 (S630). The second focal interval is smaller than the first focal interval, and the second speed may be equal to or smaller than the first speed.

위치 r1, r2, r3, r4에 연관된 초점값이 산출되며, 산출된 초점값으로부터 제3 초점 구간이 결정된다(S640). 제3 초점 구간은, 위치 r1, r2, r3, r4 중에서 선택된 연속하는 2개의 위치로 정의될 수 있다. 도 25에 예시된 그래프에서, 위치 r2에서의 초점값이 가장 크다. 위치 r2에 연속하는 위치 r1과 r3중에서, 위치 r1에서의 초점값이 위치 r3에서의 초점값보다 크다. 따라서, 제3 초점 구간의 초기 위치는 위치 r1로 최종 위치는 r2로 설정된다.Focus values related to the positions r 1 , r 2 , r 3 , and r 4 are calculated, and a third focus section is determined from the calculated focus values (S640). The third focal region may be defined as two contiguous positions selected from positions r 1 , r 2 , r 3 , and r 4 . In the graph illustrated in FIG. 25 , the focus value at position r 2 is the largest. Among positions r 1 and r 3 consecutive to position r 2 , the focus value at position r 1 is greater than the focus value at position r 3 . Accordingly, the initial position of the third focal region is set to position r 1 and the final position is set to r 2 .

오토 포커스는, 제3 초점 구간에서, 초점을 초기 위치 r1부터 제3 속도로 이동시키며, 제2 카메라(232)는, 제3 초점 간격으로 이격된, 위치에서 망막 영상을 촬영한다(S640). 제3 초점 간격은 제1 초점 간격 및 제2 초점 간격보다 작으며, 제3 속도는, 제2 속도와 같거나 작을 수 있다.The auto focus moves the focus from the initial position r 1 at a third speed in the third focal interval, and the second camera 232 captures a retinal image at positions spaced apart by a third focal interval (S640). . The third focal interval may be smaller than the first focal interval and the second focal interval, and the third speed may be equal to or smaller than the second speed.

제3 초점 구간에서 산출된 초점값 중에서 최대 초점값이 결정된다(S650). 오토 포커스는, 최대 초점값에 연관된 초점 위치로 초점을 이동시키며, 이후 망막 촬영(S40)이 수행된다.A maximum focus value is determined among the focus values calculated in the third focus section (S650). Auto focus moves the focus to a focus position related to the maximum focus value, and then retinal imaging ( S40 ) is performed.

도 20은 양안 촬영 장치를 기능적으로 도시한 도면이다.20 is a functional view of a binocular imaging device.

양안 촬영 장치(100, 101)는, 양안을 향해 소정 각도로 틀어진 좌안 촬영부(110L, 111L)와 우안 촬영부(110R, 111R), 및 이를 제어하는 컨트롤러(600)를 포함한다. 컨트롤러(600)는, 프로세서, 메모리, I/O 등과 같은 물리적인 장치 상에서 실행되는 프로그램에 의해 구현될 수 있다. 컨트롤러(600)는, 제1 카메라 제어부(610), 제2 카메라 제어부(620), 영상 처리부(630), 조명 제어부(640), 및 이동 메커니즘 제어부(650)를 포함할 수 있다.The binocular imaging devices 100 and 101 include left eye imaging units 110L and 111L and right eye imaging units 110R and 111R tilted at a predetermined angle toward both eyes, and a controller 600 controlling them. The controller 600 may be implemented by a program running on a physical device such as a processor, memory, I/O, and the like. The controller 600 may include a first camera controller 610, a second camera controller 620, an image processor 630, a lighting controller 640, and a movement mechanism controller 650.

제1 카메라 제어부(610)는, 제1 카메라(210)가 동공을 촬영하여 제1 트래킹 영상을 생성하도록 제어하며, 제2 카메라 제어부(620)는, 제2 카메라(232)가 망막상의 특정 대상을 촬영하여 제2 트래킹 영상 및 망막 영상을 생성하도록 제어한다. 제1 카메라 제어부(610) 및 제2 카메라 제어부(620)는 초점, 노출 시간 등 카메라 구동에 필요한 카메라 구동 신호를 제1 카메라(210) 및 제2 카메라(232)에 전달한다. 한편, 제1 카메라 제어부(610) 및 제2 카메라 제어부(620)는 트래킹 동작 및 촬영 동작에 필요한 조명의 턴온/오프를 요청하는 조명 트리거 신호를 조명 제어부(540)에 전달할 수 있다.The first camera controller 610 controls the first camera 210 to capture a pupil to generate a first tracking image, and the second camera controller 620 controls the second camera 232 to capture a specific target on the retina. is photographed and controlled to generate a second tracking image and a retinal image. The first camera controller 610 and the second camera controller 620 transmit camera driving signals necessary for camera driving, such as focus and exposure time, to the first camera 210 and the second camera 232 . Meanwhile, the first camera controller 610 and the second camera controller 620 may transmit to the lighting controller 540 a lighting trigger signal requesting turning on/off of lighting necessary for tracking and photographing operations.

영상 처리부(630)는, 제1 트래킹 영상 및/또는 제2 트래킹 영상을 처리하여, 동공 이동을 유도하는 가상 영상을 생성한다. 또한, 영상 처리부(630)는, 제1 트래킹 영상의 처리 결과에 따라 이동 메커니즘(130, 140)을 구동하기 위한 이동 트리거 신호를 이동 메커니즘 제어부(650)에 전달할 수 있다.The image processing unit 630 processes the first tracking image and/or the second tracking image to generate a virtual image for inducing pupil movement. Also, the image processing unit 630 may transmit a movement trigger signal for driving the movement mechanisms 130 and 140 to the movement mechanism controller 650 according to the processing result of the first tracking image.

조명 제어부(640)는, 동작별로 필요한 조명을 턴온/오프하는 조명 제어 신호를 생성한다. 조명 제어 신호에 의해, 제1 조명(200), 제2 조명(400), 및 백색광 조명(220)이 턴온/오프된다.The lighting controller 640 generates a lighting control signal for turning on/off lighting required for each operation. The first light 200 , the second light 400 , and the white light 220 are turned on/off by the light control signal.

이동 메커니즘 제어부(650)는, 좌안 촬영부(110L, 111L) 및 우안 촬영부(110R, 111R)를 제1 방향 및/또는 제2 방향으로 이동시키도록 이동 메커니즘(130L, 130R, 140)을 제어한다.The movement mechanism control unit 650 controls the movement mechanisms 130L, 130R, and 140 to move the left eye capture units 110L and 111L and the right eye capture units 110R and 111R in a first direction and/or a second direction. do.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 특히, 도면을 참조하여 설명된 본 발명의 특징은, 특정 도면에 도시된 구조에 한정되는 것이 아니며, 독립적으로 또는 다른 특징에 결합되어 구현될 수 있다.The above description of the present invention is for illustrative purposes, and those skilled in the art can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. In particular, the features of the present invention described with reference to the drawings are not limited to the structures shown in the specific drawings, and may be implemented independently or in combination with other features.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타나며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims rather than the detailed description above, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts thereof should be construed as being included in the scope of the present invention. .

Claims (8)

좌안의 광축에 대해 제1 각도로 틀어진 제1 광축을 가지며, 상기 좌안의 동공 및 망막을 촬영하는 좌안 촬영부;
우안의 광축에 대해 제2 각도로 틀어진 제2 광축을 가지며, 상기 우안의 동공 및 망막을 촬영하는 우안 촬영부;
상기 좌안 촬영부 및 상기 우안 촬영부를 제1 방향으로 이동시켜서, 상기 좌안 촬영부의 광축을 상기 좌안의 동공에 정렬하며 상기 우안 촬영부의 광축을 상기 우안의 동공에 정렬시키는 제1 방향 이동 메커니즘; 및
상기 좌안 촬영부 및 상기 우안 촬영부를 피검자의 양안을 향해 제2 방향으로 이동시키는 제2 방향 이동 메커니즘을 포함하되,
상기 좌안 촬영부 및 상기 우안 촬영부는, 상기 피검자의 양안을 향해 모아지도록 배치되고,
상기 좌안 촬영부 및 상기 우안 촬영부는,
링 형상의 백색 편광을 상기 제1 광축을 따라 상기 좌안 및 상기 우안에 각각 입사하는 망막 조명계;
상기 망막 조명계에 광학적으로 결합하며, 상기 좌안 및 상기 우안의 동공을 각각 촬영하여 제1 트래킹 영상을 생성하는 동공 트래킹 광학계; 및
상기 망막 조명계에 광학적으로 결합하고, 상기 망막을 촬영하여 제2 트래킹 영상을 생성하며, 상기 좌안 및 상기 우안의 망막에서 각각 반사된 백색 편광을 검출하여 망막 영상을 생성하는 망막 트래킹/촬영 광학계를 포함하며,
상기 제2 트래킹 영상은, 블러 처리되어 상기 망막에서 옵티컬 디스크의 위치를 트래킹하는데 이용되는, 양안 촬영 장치.
a left eye photographing unit having a first optical axis twisted at a first angle with respect to the optical axis of the left eye and capturing a pupil and retina of the left eye;
a right eye photographing unit having a second optical axis twisted at a second angle with respect to the optical axis of the right eye, and capturing a pupil and retina of the right eye;
a first direction movement mechanism for moving the left eye capture unit and the right eye capture unit in a first direction to align an optical axis of the left eye capture unit with the pupil of the left eye and align an optical axis of the right eye capture unit with the pupil of the right eye; and
A second direction movement mechanism for moving the left eye capture unit and the right eye capture unit in a second direction toward both eyes of the subject,
The left eye capture unit and the right eye capture unit are arranged to converge toward both eyes of the examinee,
The left eye capture unit and the right eye capture unit,
a retinal illumination system for respectively incident ring-shaped white polarized light to the left eye and the right eye along the first optical axis;
a pupil tracking optical system that is optically coupled to the retinal illumination system and generates a first tracking image by photographing pupils of the left eye and the right eye; and
A retina tracking/photography optical system that is optically coupled to the retinal illumination system, photographs the retina to generate a second tracking image, and generates a retinal image by detecting white polarized light reflected from the retinas of the left eye and the right eye, respectively. and
The second tracking image is blurred and used to track the position of the optical disc in the retina.
청구항 1에 있어서, 상기 좌안 촬영부와 상기 우안 촬영부는 동시에 상기 좌안과 상기 우안을 각각 촬영하여 망막 영상을 생성하는, 양안 촬영 장치.The binocular imaging device of claim 1 , wherein the left eye capture unit and the right eye capture unit simultaneously capture the left eye and the right eye, respectively, to generate a retinal image. 삭제delete 삭제delete 청구항 1에 있어서, 상기 망막에서 옵티컬 디스크를 촬영하기 위한 초점 위치는, 상기 좌안 촬영부에 의해 트래킹된 옵티컬 디스크 대응 영역에 속한 화소들간 화소값 차이의 총합인 초점값에 의해 결정되는, 양안 촬영 장치.The binocular imaging device of claim 1 , wherein a focal point for imaging the optical disk in the retina is determined by a focus value that is a sum of pixel value differences between pixels belonging to an optical disk corresponding region tracked by the left eye photographing unit. . 청구항 5에 있어서, 상기 초점값은, 상기 옵티컬 디스크 대응 영역을 블러 처리한 후 산출되는, 양안 촬영 장치.The binocular imaging apparatus of claim 5 , wherein the focus value is calculated after blurring the area corresponding to the optical disk. 청구항 5에 있어서, 상기 초점 위치는, 하나의 초점 구간에서, 일정한 초점 간격으로 촬영하여 획득한 복수의 옵티컬 디스크 대응 영역에서 산출된 초점값 중 최대값에 의해 결정되는, 양안 촬영 장치.The binocular imaging apparatus of claim 5 , wherein the focal position is determined by a maximum value among focus values calculated from a plurality of optical disk corresponding regions obtained by photographing at a constant focal interval in one focal period. 청구항 5에 있어서, 상기 초점 위치는, 일부 구간이 중첩되는 복수의 초점 구간에서, 상이한 초점 간격으로 촬영하여 획득한 복수의 옵티컬 디스크 대응 영역에서 산출된 초점값 중 최대값에 의해 결정되는, 양안 촬영 장치.

The binocular imaging of claim 5 , wherein the focal position is determined by a maximum value among focus values calculated from a plurality of optical disk corresponding regions acquired by photographing at different focal intervals in a plurality of focal sections in which some sections overlap. Device.

KR1020210008831A 2020-04-13 2021-01-21 Binocular fundus camera KR102504865B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200044645 2020-04-13
KR1020200044645 2020-04-13

Publications (2)

Publication Number Publication Date
KR20210127073A KR20210127073A (en) 2021-10-21
KR102504865B1 true KR102504865B1 (en) 2023-02-28

Family

ID=78268975

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210008831A KR102504865B1 (en) 2020-04-13 2021-01-21 Binocular fundus camera

Country Status (1)

Country Link
KR (1) KR102504865B1 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101348939B1 (en) * 2012-02-16 2014-01-09 주식회사 휴비츠 retinal camera
KR102112339B1 (en) * 2018-03-16 2020-05-18 김선호 method and apparatus for automatic measurement of deviation angle in strabismus

Also Published As

Publication number Publication date
KR20210127073A (en) 2021-10-21

Similar Documents

Publication Publication Date Title
CN107533362B (en) Eye tracking device and method for operating an eye tracking device
US8147064B2 (en) Fundus camera
JPH0764013A (en) Picture display device
JP2003521950A (en) Eye tracking system
JP2009254525A (en) Pupil detecting method and apparatus
JP5092120B2 (en) Eye movement measurement device
JP2009240551A (en) Sight line detector
KR102504865B1 (en) Binocular fundus camera
JPH06235885A (en) Stereoscopic picture display device
JP5152758B2 (en) Mobile tracking camera system
US20220329740A1 (en) Electronic apparatus, method for controlling electronic apparatus, and non-transitory computer readable storage medium
JP4822332B2 (en) Ophthalmic equipment
JPWO2019146367A1 (en) Video projection device, video projection method, video display light output control method
JP2001340301A (en) Ophthalmography
KR102306241B1 (en) Binocular fundus camera
JP2007236668A (en) Photographic device, authentication device and photographic method
KR20210127072A (en) Binocular fundus camera capable of re-arranging VR
US5627621A (en) Camera
JP5962062B2 (en) Automatic focusing method and apparatus
JP2021062162A (en) Scanning type ocular fundus imaging apparatus
JPH11347016A (en) Imaging device
US20230083725A1 (en) Personal authentication apparatus, personal authentication method, and storage medium
WO2021150055A1 (en) Binocular imaging apparatus
JP3320123B2 (en) Eye gaze detecting apparatus and method, and video camera
JP2000296109A (en) Optometer

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant