KR20220040174A - See-through optics system applied to near eye display device and eye tracking method in see-through optics system - Google Patents

See-through optics system applied to near eye display device and eye tracking method in see-through optics system Download PDF

Info

Publication number
KR20220040174A
KR20220040174A KR1020200123085A KR20200123085A KR20220040174A KR 20220040174 A KR20220040174 A KR 20220040174A KR 1020200123085 A KR1020200123085 A KR 1020200123085A KR 20200123085 A KR20200123085 A KR 20200123085A KR 20220040174 A KR20220040174 A KR 20220040174A
Authority
KR
South Korea
Prior art keywords
image
gaze
see
user
optical system
Prior art date
Application number
KR1020200123085A
Other languages
Korean (ko)
Other versions
KR102465800B1 (en
Inventor
박수원
Original Assignee
(주) 엘비전테크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주) 엘비전테크 filed Critical (주) 엘비전테크
Priority to KR1020200123085A priority Critical patent/KR102465800B1/en
Publication of KR20220040174A publication Critical patent/KR20220040174A/en
Application granted granted Critical
Publication of KR102465800B1 publication Critical patent/KR102465800B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/003Alignment of optical elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/021Mountings, adjusting means, or light-tight connections, for optical elements for lenses for more than one lens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Multimedia (AREA)

Abstract

Disclosed are an eye tracking method in a see-through optical system and a near eye image display device using the same. According to the present invention, the see-through optics system for matching a virtual image and an actual image comprises: a first reflection unit making a first image, which is a part of the actual image, to penetrate and changing the optical path of a second image which is the rest of the actual image; a second reflection unit changing the optical path of the second image again; an image collection unit collecting the second image; a control unit generating the virtual image based on the second image, and emitting the virtual image from a display panel; an expansion lens unit expanding the virtual image emitted from the display panel; and a third reflection unit making the virtual image expanded through the expansion lens unit form on the retina of a user. The control unit tracks the eye of the user other than the second image, and generates the virtual image based on the tracked eye. Accordingly, the present invention can make a structural design possible for a configuration for forming image light of a virtual image on the retina of a user and a configuration for collecting image light of the eye image of the user to be integrated within the see-through optics system without separately preparing such configurations or separately mounting a camera, integrate overlapped parts, reduce weight, increase user convenience, and prevent declines in product reliability.

Description

근안 영상 표시 장치에 적용되는 시스루 광학 시스템 및 시스루 광학 시스템에서의 시선 추적 방법{See-through optics system applied to near eye display device and eye tracking method in see-through optics system}See-through optical system applied to near eye display device and eye tracking method in see-through optics system

본 발명은 근안 영상 표시 장치에 적용되는 시스루 광학 시스템 및 시스루 광학 시스템에서의 시선 추적 방법에 관한 것으로 보다 상세하게는 VR(가상현실 : Virtual Reality), AR(증강현실 : Augmented Reality) 및 MR(혼합현실 : Mixed Reality)용 시스루 광학 시스템 및 시스루 광학 시스템에서의 시선 추적 방법에 관한 것이다.The present invention relates to a see-through optical system applied to a near-eye image display device and a gaze tracking method in a see-through optical system, and more particularly, to VR (Virtual Reality), AR (Augmented Reality), and MR (Mixed Reality). Reality: It relates to a see-through optical system for Mixed Reality) and a gaze tracking method in the see-through optical system.

증강/혼합현실용 근안 영상 표시 장치에 있어서 시스루 광학 시스템은 구성된 광학 렌즈 구성에 따라 디스플레이인 LCD(LCoS), OLED, LED 및 레이저 모듈 등에서 발광된 이미지 광선이 설계된 광학 시스템 렌즈를 통과하도록 하여 사용자 눈에 전달시킴으로서 사용자로 하여금 영상을 시청할 수 있도록 하게 된다. In the near-eye image display device for augmented/mixed reality, the see-through optical system allows the image beam emitted from the display LCD (LCoS), OLED, LED, and laser module, etc. to pass through the designed optical system lens according to the configured optical lens configuration. By sending it to the , the user can watch the video.

이 때, 사용자의 눈은 사용자가 원하는 영상 정보 또는 시스루되는(투시되는) 전방 사물을 보면서 눈동자의 시선은 다양한 방향으로 변화되게 된다. 이러한 시선은, 양안을 기준으로 볼 때, 시선의 방향에 대한 변화와 주시각에 대한 변화로 나누어 볼 수 있고, 시선의 방향이나 주시각에 대한 변화를 파악함으로써 사용자의 시선을 추적하는 것은 VR, AR 및 MR 서비스에서 매우 중요한 요소가 된다. At this time, while the user's eyes see the image information desired by the user or the see-through (see-through) front object, the eyes of the pupils are changed in various directions. These gazes can be divided into a change in the direction of the gaze and a change in the gaze angle when viewed based on both eyes, and tracking the user's gaze by identifying the change in the gaze direction or gaze angle is VR, It becomes a very important element in AR and MR services.

즉, 시선에 대한 추적은, 서비스에서 발생되는 어지럼증이나 멀미 현상을 감소시키는 부수적인 목적의 달성을 위함은 물론, 사용자의 시선에 대응되는 영상 콘텐츠를 선별하여 사용자에게 제공하기 위한 본연의 목적을 달성하기 위해서도 반드시 필요한 문제이다. That is, eye tracking achieves the original purpose of selecting video content corresponding to the user's gaze and providing it to the user, as well as for achieving the secondary purpose of reducing dizziness or motion sickness caused by the service. It is also a necessary issue.

그러나 기존의 서비스들은 시선 추적을 위한 카메라를 별도로 장착하여 무게가 더해질 뿐 아니라 편의성을 심각하게 경감시키며, 일체적인 구조적 설계가 되어 있지 않아 신뢰성이 변형될 수 있는 문제점을 안고 있게 된다. However, existing services not only add weight by separately installing a camera for eye tracking, but also seriously reduce convenience, and have a problem that reliability can be deformed because there is no integral structural design.

한국공개특허 제10-2020-0023992호(수술용 스마트 트래커 및 AR 디스플레이 시스템)Korean Patent Publication No. 10-2020-0023992 (Surgical Smart Tracker and AR Display System)

본 발명은 상기와 같은 문제를 해결하기 위해 안출된 것으로, 본 발명의 목적은 추적된 시선에 대한 정보를 기반으로 영상을 제공할 수 있도록 함은 물론, 근안 영상 표시 장치 내에서 시선 추적이 가능하도록 함으로써 추적된 시선에 따라 시스루 광학 시스템이 연동되어 동작할 수 있도록 하는 근안 영상 표시 장치에 적용되는 시스루 광학 시스템 및 시스루 광학 시스템에서의 시선 추적 방법을 제공함에 있다.The present invention has been devised to solve the above problems, and an object of the present invention is to provide an image based on information on the tracked gaze, as well as to enable gaze tracking within the near-eye image display device. An object of the present invention is to provide a see-through optical system and a gaze tracking method in a see-through optical system applied to a near-eye image display device that enables the see-through optical system to operate in conjunction with each other according to the tracked gaze.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 가상 영상과 실재 영상의 정합을 위한 시스루 광학 시스템은, 상기 실재 영상 중 일부인 제1 영상을 투과시키고 나머지 일부인 제2 영상의 광경로를 변경시키는 제1 반사부; 상기 제2 영상의 광경로를 재변경시키는 제2 반사부; 상기 제2 영상이 수집되는 영상수집부; 상기 제2 영상을 기초로 상기 가상 영상을 생성하고, 상기 가상 영상이 디스플레이 패널에서 출사되도록 하는 제어부; 상기 디스플레이 패널에서 출사된 가상 영상을 확대하기 위한 확대렌즈부; 및 상기 확대렌즈부를 통해 확대된 상기 가상 영상이 사용자의 망막에 결상되도록 하는 제3 반사부;를 포함하고, 상기 제어부는, 상기 제2 영상 이외에 사용자의 시선을 추적하여 추적된 시선을 기초로 상기 가상 영상을 생성한다.In order to achieve the above object, a see-through optical system for matching a virtual image and a real image according to an embodiment of the present invention transmits a first image that is a part of the real image and changes the optical path of a second image that is a part of the real image a first reflector; a second reflector for re-changing the optical path of the second image; an image collection unit for collecting the second image; a control unit generating the virtual image based on the second image and outputting the virtual image from a display panel; a magnifying lens unit for enlarging the virtual image output from the display panel; and a third reflector for allowing the virtual image enlarged through the magnifying lens unit to form an image on the user's retina, wherein the control unit tracks the user's gaze other than the second image and based on the tracked gaze Create a virtual image.

여기서, 상기 제1 반사부는, 사용자의 시선 영상 중 일부인 제3 영상을 투과시키고 나머지 일부인 제4 영상의 광경로를 변경시키며, 상기 제3 반사부와 제2 반사부는, 상기 제4 영상의 광경로를 재변경시켜 상기 시선 영상이 상기 영상수집부로 수집되도록 할 수 있다.Here, the first reflector transmits a third image that is a part of the user's gaze image and changes an optical path of a fourth image that is a part of the user's gaze, and the third reflector and the second reflector include the optical path of the fourth image may be changed so that the gaze image is collected by the image collection unit.

여기서, 상기 제어부는, 상기 영상수집부에서 수집된 상기 시선 영상을 토대로 사용자의 시선을 추적하되, 상기 시선 영상에서 안구 내 동공의 좌표를 기반으로 사용자의 시선 방향을 추적할 수 있다.Here, the controller may track the user's gaze based on the gaze image collected by the image collection unit, and track the gaze direction of the user based on the coordinates of the pupil in the eyeball in the gaze image.

여기서, 상기 제어부는, 좌안용 영상수집부에서 수집된 좌안 시선 영상과 우안용 영상수집부에서 수집된 우안 시선 영상을 비교하여 안구 내 동공 간의 거리 차이를 분석하고, 안구 내 동공 간의 거리 차이를 기반으로 사용자의 주시각을 추적할 수 있다.Here, the control unit compares the left eye gaze image collected by the left eye image collection unit and the right eye gaze image collected by the right eye image collection unit to analyze the distance difference between the intraocular pupils, and based on the distance difference between the intraocular pupils to track the user's gaze.

여기서, 상기 제어부는, 상기 추적된 시선 방향과 상기 추적된 주시각을 토대로 사용자가 응시하는 피사체를 확정하고, 상기 디스플레이 패널을 제어하여 상기 확정된 피사체에 대응되는 가상 영상이 상기 디스플레이 패널에서 표시되도록 할 수 있다.Here, the controller determines a subject that the user gazes on based on the tracked gaze direction and the tracked gaze angle, and controls the display panel so that a virtual image corresponding to the determined subject is displayed on the display panel. can do.

그리고, 상기 제어부는, 상기 추적된 시선 방향과 상기 추적된 주시각을 토대로 힌지부를 제어하고, 상기 힌지부는, 상기 제어부의 제어에 따라 이동하여, 상기 시스루 광학 시스템이 회전운동됨과 동시에 병진운동되도록 함으로써, 상기 시스루 광학 시스템이 사용자의 시선 방향 상에 위치하도록 할 수 있다.And, the control unit controls the hinge unit based on the tracked gaze direction and the tracked gaze angle, and the hinge unit moves according to the control of the control unit so that the see-through optical system is rotated and translated simultaneously. , the see-through optical system may be positioned on the user's gaze direction.

또한, 상기 제1 반사부, 상기 제2 반사부 및 상기 제3 반사부는, 상기 제2의 영상의 광경로를 변경시켜 상기 영상수집부로 전달하는 역할과, 상기 제4 영상의 광경로를 변경시켜 상기 영상수집부로 전달하는 역할을 함께 수행할 수 있다.In addition, the first reflector, the second reflector, and the third reflector change the optical path of the second image and transmit it to the image collecting unit, and change the optical path of the fourth image. It may serve to transmit the image to the image collection unit.

그리고, 상기 영상수집부는, 기설정된 샘플 시선 영상을 기반으로 수신된 영상에서 상기 제4 영상을 분리추출하고, 수신된 영상에서 상기 제4 영상 부분을 제외하여 상기 제2 영상을 추출할 수 있다.The image collection unit may separate the fourth image from the received image based on a preset sample gaze image and extract the second image by excluding the fourth image portion from the received image.

또한, 상기 시스루 광학 시스템은, 헤드마운트 디스플레이 장치에 장착되어, 의료용으로 사용될 수 있다.In addition, the see-through optical system may be mounted on a head-mounted display device and used for medical purposes.

한편, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 가상 영상과 실재 영상의 정합을 위한 시스루 광학 시스템에서의 시선 추적 방법은, 상기 실재 영상 중 일부인 제1 영상을 투과시키고 나머지 일부인 제2 영상의 광경로를 변경시키는 단계; 상기 제2 영상의 광경로를 재변경시키는 단계; 상기 제2 영상을 수집하는 단계; 상기 제2 영상을 기초로 상기 가상 영상을 생성하는 단계; 상기 가상 영상이 디스플레이 패널에서 출사되도록 하는 단계; 상기 출사된 가상 영상을 확대하는 단계; 및 상기 확대된 가상 영상이 사용자의 망막에 결상되도록 상기 가상 영상의 경로를 변경하는 단계;를 포함하고, 상기 가상 영상을 생성하는 단계는, 상기 제2 영상 이외에 사용자의 시선을 추적하여 추적된 시선을 기초로 상기 가상 영상을 생성할 수 있다.Meanwhile, in the eye tracking method in a see-through optical system for matching a virtual image and a real image according to an embodiment of the present invention for achieving the above object, a first image that is a part of the real image is transmitted and a second part that is a part of the real image is transmitted. changing the optical path of the image; re-changing the optical path of the second image; collecting the second image; generating the virtual image based on the second image; allowing the virtual image to be output from a display panel; enlarging the output virtual image; and changing the path of the virtual image so that the enlarged virtual image is formed on the user's retina, wherein the generating of the virtual image includes, in addition to the second image, tracking the user's gaze and tracking the user's gaze. The virtual image may be generated based on .

이에 의해, 가상 영상의 화상광이 사용자의 망막에 결상되도록 하는 역할을 하는 구성과 사용자의 시선 영상의 화상광이 수집되도록 하는 역할을 하는 구성을 별도로 마련할 필요가 없음은 물론 카메라를 별도로 장착하지 않고 시스루 광학 시스템내에서 일체화되도록 구조적인 설계가 가능하도록 함으로써, 중복적인 부품의 통합화를 통해 무게를 경감시키고 편의성을 증대시키며 제품의 신뢰성이 변질되지 않도록 할 수 있게 된다.Accordingly, there is no need to separately provide a configuration that serves to form the image light of the virtual image on the user's retina and a configuration that serves to collect the image light of the user's gaze image, as well as installing a camera separately. By enabling the structural design to be integrated in the see-through optical system without the need to reduce the weight, increase convenience, and prevent deterioration of product reliability through the integration of redundant components.

도 1은 본 발명의 일 실시예에 따른 근안 영상 표시 장치의 일 예를 도시한 도면이다.
도 2는 본 발명의 근안 영상 표시 장치의 저면에서 확인되는 시스루 광학 시스템을 도시한 도면이다.
도 3은 시스루 광학 시스템의 내부 구성을 설명하기 위해 제공되는 도면이다.
도 4는 시스루 광학 시스템을 통해 시선 영상이 영상수집부로 수집되는 과정을 설명하기 위해 제공되는 도면이다
도 5는 시선이 변경되기 전 상태에서의 주시각과 IPD를 설명하기 위해 제공되는 도면이다.
도 6은 시선이 변경된 후 상태에서의 주시각과 IPD를 설명하기 위해 제공되는 도면이다.
도 7은 시선이 변경됨에 따라 시스루 광학 시스템이 이동되는 모습을 도시한 도면이다.
도 8은 시선이 변경됨에 따라 시스루 광학 시스템이 이동되도록 하기 위한 구조를 설명하기 위해 제공되는 도면이다.
도 9는 본 발명의 일 실시예에 따른 시스루 광학 시스템에서의 시선 추적 방법을 설명하기 위해 제공되는 흐름도이다.
1 is a diagram illustrating an example of a near-eye image display device according to an embodiment of the present invention.
2 is a view showing a see-through optical system identified from the bottom of the near-eye image display device of the present invention.
3 is a view provided to explain the internal configuration of the see-through optical system.
4 is a view provided to explain a process in which a gaze image is collected by an image collecting unit through a see-through optical system.
5 is a view provided to explain the gaze angle and IPD in a state before the gaze is changed.
6 is a view provided to explain the gaze angle and IPD in a state after the gaze is changed.
7 is a diagram illustrating a state in which the see-through optical system is moved as the gaze is changed.
FIG. 8 is a view provided to explain a structure for moving the see-through optical system as the line of sight is changed.
9 is a flowchart provided to explain a gaze tracking method in a see-through optical system according to an embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명에 대해 보다 상세히 설명하기로 한다.Hereinafter, the present invention will be described in more detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 근안 영상 표시 장치의 일 예를 도시한 도면이고, 도 2는 본 발명의 근안 영상 표시 장치의 저면에서 확인되는 시스루 광학 시스템을 도시한 도면이다. 1 is a diagram illustrating an example of a near-eye image display device according to an embodiment of the present invention, and FIG. 2 is a diagram illustrating a see-through optical system viewed from the bottom of the near-eye image display device of the present invention.

도 1 및 도 2에서는 근안 영상 표시 장치의 일 예로서 헤드마운트 디스플레이 장치가 도시되고 있으며, 이와 같은 헤드마운트 디스플레이 장치의 경우 사용자가 두부에 장착함으로써 헤드마운트 디스플레이 장치 내부의 시스루 광학 시스템을 통해 실재 영상 및 가상 영상이 사용자에게 제공되게 된다. 1 and 2, a head-mounted display device is shown as an example of a near-eye image display device, and in the case of such a head-mounted display device, a user mounts it on the head, and thus a real image through a see-through optical system inside the head-mounted display device. and a virtual image are provided to the user.

도 2에서 도시된 바와 같이 헤드마운트 디스플레이 장치의 저면을 통해서는 시스루 광학 시스템(100)이 사용자의 양안 앞쪽에 위치할 수 있도록 설계되어 있는 모습을 확인할 수 있고, 시스루 광학 시스템(100)은 좌안과 우안에 각각 마련(100-1, 100-2)되게 된다.As shown in FIG. 2 , it can be seen that the see-through optical system 100 is designed to be positioned in front of both eyes of the user through the bottom of the head-mounted display device, and the see-through optical system 100 is formed between the left eye and the left eye. Each of the right eyes is provided (100-1, 100-2).

도 3은 시스루 광학 시스템(100)의 내부 구성을 설명하기 위해 제공되는 도면이다.3 is a view provided to explain the internal configuration of the see-through optical system 100 .

본 발명의 일 실시예에 따른 시스루 광학 시스템(100)은, 가상 영상을 생성하여 사용자가 주시하는 실재 영상과 생성된 가상 영상이 정합되도록 하는 장치를 의미한다.The see-through optical system 100 according to an embodiment of the present invention refers to a device that generates a virtual image so that a real image that a user looks at and the generated virtual image are matched.

본 실시예에 따른 시스루 광학 시스템(100)은, 사용자의 시야를 차단하지 않도록하여 사용자가 주시하는 전방의 물체(S : 피사체)들이 관찰될 수 있도록 하고, 관찰된 물체(S : 피사체)에 관련된 가상 영상을 생성하여 출사시킴으로써 사용자에게 증강현실을 제공할 수 있게 된다. The see-through optical system 100 according to the present embodiment does not block the user's field of view so that the front object (S: subject) that the user is looking at can be observed, and related to the observed object (S: subject) By generating and outputting a virtual image, it is possible to provide augmented reality to the user.

이를 위한 본 실시예에 따른 시스루 광학 시스템(100)은, 제1 반사부(110), 제2반사부(120), 영상수집부(130), 제어부(140), 디스플레이 패널(150), 확대렌즈부(160), 제3 반사부(170) 및 편광필름(180)으로 구성된다. For this purpose, the see-through optical system 100 according to the present embodiment includes a first reflection unit 110 , a second reflection unit 120 , an image collection unit 130 , a control unit 140 , a display panel 150 , and a magnification. It is composed of a lens unit 160 , a third reflection unit 170 , and a polarizing film 180 .

제1 반사부(110)는 기설정된 투과율을 지닌 유리 소재 또는 플라스틱 소재로 형성된 다면체로, 제1 반사부(110)로 입사되는 실재 영상의 화상광이 일부 투과되거나 일부 반사되도록 한다. 이에 따라 전방의 물체(S : 피사체)에 대한 화상광은 제1 반사부(110)를 투과하여 사용자의 망막에 결상되게 된다.The first reflector 110 is a polyhedron formed of a glass material or a plastic material having a predetermined transmittance, so that image light of an actual image incident to the first reflector 110 is partially transmitted or partially reflected. Accordingly, the image light for the front object (S: subject) passes through the first reflector 110 to form an image on the user's retina.

특히, 이러한 제1 반사부(110)의 경사진 면에서 일부 광은 투과되고 일부 광은 반사되게 되는데, 이러한 부분 투과 및 부분 반사가 가능하도록 하기 위해, 경사진 면에는 통과되는 영상 정보의 구별이나 시인성 개선을 위하여 적절한 필터(대역통과필터, 편광필터)가 마련될 수 있다.In particular, some light is transmitted and some light is reflected on the inclined surface of the first reflecting unit 110. In order to enable such partial transmission and partial reflection, the inclined surface is used to distinguish between image information passed or An appropriate filter (a band-pass filter, a polarization filter) may be provided to improve visibility.

제2 반사부(120)는, 제1 반사부(110)와 마찬가지로 기설정된 투과율을 지닌 유리 소재 또는 플라스틱 소재로 형성되며, 제1 반사부(110)에서 반사되어 입사되는 실재 영상의 화상광이 일부 투과되거나 일부 반사되도록 한다. The second reflector 120 is formed of a glass material or a plastic material having a predetermined transmittance like the first reflector 110 , and the image light of the real image reflected from the first reflector 110 and incident therein is Make it partially transmitted or partially reflected.

즉, 제1 반사부(110)에서 반사되는 실재 영상의 화상광은 제2 반사부(120)에서 반사되어 영상수집부(130)로 전달되게 된다. That is, the image light of the real image reflected by the first reflection unit 110 is reflected by the second reflection unit 120 and transmitted to the image collection unit 130 .

또한, 제2 반사부(120)는 제1 반사부(110)를 투과하여 입사되는 사용자의 시선 영상의 화상광도 제2 반사부(120)에서 반사되어 영상수집부(130)로 전달되게 된다.In addition, the second reflector 120 transmits the image light of the user's gaze image transmitted through the first reflector 110 and is reflected by the second reflector 120 to the image collecting unit 130 .

즉, 영상수집부(130)는 실재 영상의 화상광과 시선 영상의 화상광을 모두 수집할 수 있게 된다. 이러한 실재 영상의 화상광은 가상 영상의 콘텐츠를 선별하기 위해 사용되고, 시선 영상의 화상광은 실재 영상이 사용자의 시선 방향과 주시각에 따라 여러 개 발생할 경우 사용자의 시선 방향과 주시각에 맞는 물체에 대응되는 가상 영상의 콘텐츠가 제공될 수 있도록 하는 데 사용되게 된다.That is, the image collection unit 130 can collect both the image light of the real image and the image light of the gaze image. The image light of the real image is used to select the contents of the virtual image, and the image light of the gaze image is applied to an object that matches the user's gaze direction and gaze angle when multiple real images are generated according to the user's gaze direction and gaze angle. It will be used to enable the content of the corresponding virtual image to be provided.

이와 같이 함께 수집된 실재 영상의 화상광과 시선 영상의 화상광은 영상수집부(130) 의해 서로 구분/분리되어 사용되게 되는데, 특히 영상수집부(130)는 기설정된 샘플 시선 영상을 기반으로 수신된 영상에서 시선 영상만을 분리추출하고, 수신된 영상에서 분리추출된 시선 영상 부분이 제외되도록 함으로써 실재 영상의 화상광을 얻을 수 있게 된다.The image light of the real image and the image light of the gaze image collected together in this way are used separately/separated from each other by the image collecting unit 130. In particular, the image collecting unit 130 is received based on a preset sample gaze image. It is possible to obtain the image light of the real image by separating and extracting only the gaze image from the received image and excluding the part of the gaze image separated and extracted from the received image.

특히, 이러한 제2 반사부(120)의 경사진 면에서 일부 광은 투과되고 일부 광은 반사되게 되는데, 이러한 부분 투과 및 부분 반사가 가능하도록 하기 위해, 경사진 면에는 통과되는 영상 정보의 구별이나 시인성 개선을 위하여 적절한 필터(대역통과필터, 편광필터)가 마련될 수 있다.In particular, some light is transmitted and some light is reflected on the inclined surface of the second reflection unit 120. In order to enable such partial transmission and partial reflection, the inclined surface is used to distinguish or An appropriate filter (a band-pass filter, a polarization filter) may be provided to improve visibility.

영상수집부(130)는 카메라와 같은 영상 수집이 가능한 모듈로 구성되어, 전술한 바와 같이 실재 영상에 대한 정보와 사용자의 시선에 대한 정보를 수집하는 역할을 하게 된다. The image collection unit 130 is composed of a module capable of collecting images, such as a camera, and serves to collect information on the actual image and information on the user's gaze as described above.

특히, 영상수집부(130)는 사용자의 시선에 대한 이미지가 제1 반사부(110)를 투과하고 제2 반사부(120)에서 반사되어 수신되면, 이와 같은 사용자의 시선에 대한 이미지를 통해, 단안을 기준으로 할 때 사용자의 안구에서 동공이 중심을 기준으로 어느 방향으로 치우쳐져 있는가, 즉, 시선의 방향을 판단하게 된다. In particular, when the image collection unit 130 receives the image of the user's gaze through the first reflector 110 and is reflected by the second reflector 120, through the image of the user's gaze, When a single eye is used as a standard, in which direction the pupil is deviated from the center of the user's eyeball, that is, the direction of the gaze is determined.

예를 들어, 사용자가 하늘 방향을 보게 될 경우, 동공은 정북쪽 방향으로 치우치게 될 것이며, 영상수집부(130)는 정북쪽 방향으로 동공이 이동되었다는 정보를 수집함으로써 사용자의 시선의 방향을 추적하게 된다. For example, when the user sees the sky direction, the pupil will be biased toward the north, and the image collection unit 130 tracks the direction of the user's gaze by collecting information that the pupil has moved in the north direction. do.

한편, 영상수집부(130)는 사용자의 시선에 대한 이미지를 통해, 양안을 기준으로 할 때 사용자의 양안의 동공 간의 거리가 얼마나 좁혀졌는가에 대해서도 판단하게 된다. On the other hand, the image collection unit 130 also determines how much the distance between the pupils of the user's eyes is narrowed based on both eyes through the image of the user's gaze.

예를 들어, 사용자의 동공 간의 거리가 더 좁혀질수록 주시각이 더 커져, 두 피사체가 오버랩된 상황에서 더 가까운 피사체를 주시하고 있다는 것에 대해서도 판단이 가능하게 되는 것이다. 이는 주시각에 대한 연산을 통해 둘 이상의 피사체가 오버랩된 경우에도 어떠한 피사체를 주시하는지 여부에 대한 판단이 가능하다.For example, as the distance between the user's pupils is further reduced, the gaze angle becomes larger, so that it is possible to determine that the user is gazing at a closer subject in a situation in which two subjects overlap. In this case, it is possible to determine which subject is being gazed upon even when two or more subjects overlap through an operation on the gaze angle.

이와 같이 영상수집부(130)는 시선의 방향과 주시각에 대해 판단이 가능하도록 하기 위한 시선에 대한 이미지를 수집하는 역할을 하게 된다.In this way, the image collection unit 130 serves to collect images of the gaze to make it possible to determine the direction and the gaze angle of the gaze.

제어부(140)는 영상수집부(130)로부터 전방의 물체에 대한 이미지를 실시간으로 수신하고 수신한 이미지를 기반으로 그 이미지에 대응되는 가상 영상을 생성하는 역할을 한다. The control unit 140 receives an image of an object in front from the image collection unit 130 in real time, and generates a virtual image corresponding to the image based on the received image.

또한, 제어부(140)는 영상수집부(130)로부터 사용자의 양안에 대한 이미지를 각각 실시간으로 수신하고 수신한 양안에 대한 이미지로부터 시선의 방향과 주시각에 대해 연산하며, 연산된 결과를 기반으로 사용자의 시선을 추적하고 해당 시선에 부합하는 가상 영상이 제공되도록 하는 역할을 한다. In addition, the control unit 140 receives the images for both eyes of the user from the image collection unit 130 in real time, calculates the gaze direction and the gaze angle from the received images for both eyes, and based on the calculated results It tracks the user's gaze and serves to provide a virtual image that matches the gaze.

그리고 제어부(140)는, 이상에서 생성된 가상 영상의 화상광이 디스플레이 패널(150)에서 출사되도록 가상 영상의 화상광을 디스플레이 패널(150)로 전송한다. The controller 140 transmits the image light of the virtual image to the display panel 150 so that the image light of the virtual image generated above is emitted from the display panel 150 .

디스플레이 패널(150)은, 제어부(140)로부터 가상 영상의 화상광을 수신하여 출사하기 위해 사용되며, LCD(Liquid Crystal Display), OLED(Organic Light Emitiing Diodes), LCoS(Liquid Crystal on Disply) 등과 같은 다양한 장치 또는 소자로 구현될 수 있다. The display panel 150 is used to receive and output the image light of a virtual image from the controller 140, such as LCD (Liquid Crystal Display), OLED (Organic Light Emitting Diodes), LCoS (Liquid Crystal on Disply), etc. It may be implemented in various devices or elements.

확대렌즈부(160)는 작은 사이즈의 디스플레이 패널(150)에서 출사되는 가상 영상의 화상광을 확대하기 위한 목적으로 사용된다. The magnifying lens unit 160 is used for the purpose of magnifying the image light of the virtual image emitted from the small-sized display panel 150 .

디스플레이 패널(150)이 작은 사이즈로 마련될 경우, 디스플레이 패널(150)에서 출사되는 가상 영상의 화상광은 사용자가 주시하는 실재 영상의 화상광보다 크기가 작게 된다. When the display panel 150 is provided in a small size, the image light of the virtual image emitted from the display panel 150 is smaller than the image light of the real image that the user looks at.

따라서, 출사된 가상 영상의 화상광이, 기설정된 화각으로 확대되어 사용자에게 제공될 수 있도록 확대렌즈부(160)가 마련된다. Accordingly, the magnifying lens unit 160 is provided so that the image light of the emitted virtual image can be enlarged to a preset angle of view and provided to the user.

이를 위해 확대렌즈부(160)는, 도시된 바와 같이, 둘 이상의 렌즈군으로 형성될 수 있으며, 렌즈군을 형성하는 각 렌즈는 단면 오목렌즈, 단면 볼록렌즈, 양면 오목렌즈, 양면 볼록렌즈 등으로 이루어 질 수 있다. To this end, the magnifying lens unit 160, as shown, may be formed of two or more lens groups, and each lens forming the lens group includes a single-sided concave lens, a single-sided convex lens, a double-sided concave lens, a double-sided convex lens, and the like. can be done

확대렌즈부(160)에서 확대된 가상 영상의 화상광은 제3 반사부로 입사되게 된다. The image light of the virtual image enlarged by the magnifying lens unit 160 is incident on the third reflecting unit.

제3 반사부(170)는 기설정된 반사율을 가진 유리 소재 또는 플라스틱 소재로 형성되며, 디스플레이 패널(150)에서 출사되어 확대렌즈부(160)를 경유한 후 제3 반사부(170)로 입사되는 모든 가상 영상의 화상광이 기설정된 경로를 따라 반사되도록 한다. The third reflection unit 170 is formed of a glass material or a plastic material having a predetermined reflectance, is emitted from the display panel 150 and is incident on the third reflection unit 170 after passing through the magnifying lens unit 160 . Image light of all virtual images is reflected along a preset path.

제3 반사부(170)에서 반사된 가상 영상의 화상광은 제1 반사부(110)에서 재반사되어 사용자의 망막에 결상하게 된다. The image light of the virtual image reflected by the third reflector 170 is re-reflected by the first reflector 110 to form an image on the user's retina.

편광 필름(180)은 광원으로부터 조사된 빛이 영상수집부(130)로 입사되는 것을 방지하기 위한 목적으로 사용되고, 이를 위해 편광 필름(180)은 광원(미도시)의 전면, 영상수집부(130)의 전면, 그리고, 제2 반사부(120) 및 확대렌즈부(160) 사이 등에 위치할 수 있다.The polarizing film 180 is used for the purpose of preventing the light irradiated from the light source from being incident on the image collecting unit 130 , and for this purpose, the polarizing film 180 is formed on the front surface of the light source (not shown) and the image collecting unit 130 . ), and between the second reflecting unit 120 and the magnifying lens unit 160 , and the like.

이 때, 광원(미도시)으로부터 조사되는 빛이 영상수집부(130)로 입사되는 것을 방지하기 위해, 광원(미도시)의 전면에 마련된 편광 필름(180)과 영상수집부(130)의 전면에 마련되는 편광 필름(180)은 서로 다른 종류의 편광 성분을 흡수하도록 구현된다. At this time, in order to prevent the light irradiated from the light source (not shown) from being incident on the image collecting unit 130 , the polarizing film 180 provided on the front surface of the light source (not shown) and the front surface of the image collecting unit 130 . The polarizing film 180 provided on the polarization film 180 is implemented to absorb different types of polarization components.

구체적으로, 어느 하나가 P파 편광필름일 경우 다른 하나는 S파 편광필름이거나, 혹은 그 역일 수 있다.Specifically, when one is a P-wave polarizing film, the other may be an S-wave polarizing film, or vice versa.

도 4는 시스루 광학 시스템(100)을 통해 시선 영상이 영상수집부(130)로 수집되는 과정을 설명하기 위해 제공되는 도면이다4 is a view provided to explain a process in which a gaze image is collected by the image collecting unit 130 through the see-through optical system 100 .

제1 반사부(110)는 전술한 바와 같이 기설정된 투과율을 지닌 유리 또는 플라스틱 재질로 소재로 형성된다. 이때, 기설정된 투과율이란, 제1 반사부(110)로 입사되는 화상광이 일부 투과되거나 일부 반사되도록 하기 위한 50%의 광반사율이고, 제1 반사부(110)는 50%의 광반사율을 가지도록 표면처리된다. As described above, the first reflector 110 is formed of a glass or plastic material having a predetermined transmittance. In this case, the preset transmittance is a light reflectance of 50% for partially transmitting or partially reflecting image light incident to the first reflecting unit 110, and the first reflecting unit 110 has a light reflectance of 50%. surface treated.

이러한 제1 반사부(110)는 전방의 물체(피사체 : S)에 대한 실재 영상이 사용자의 망막으로 제공되기 위해 기설정된 투과율을 가지지만, 투과율의 역으로 반사율도 가지게 된다. The first reflector 110 has a predetermined transmittance so that an actual image of a front object (subject: S) is provided to the user's retina, but also has a reflectance inverse of the transmittance.

이러한 반사율과 투과율의 조합에 따라 시선 영상의 화상광은 제1 반사부(110)에서 반사되어 R10의 경로를 따라 제3 반사부(170)로 이동되고 다시 제3 반사부(170)에서 반사되어 R10의 경로를 역으로 이동하며 제1 반사부(110)에서 투과되어 R20의 경로를 따라 확대렌즈부(160)로 이동되게 된다.According to this combination of reflectance and transmittance, the image light of the gaze image is reflected by the first reflector 110, moves to the third reflector 170 along the path of R10, and is reflected by the third reflector 170 again. The path of R10 is moved in reverse, and it is transmitted through the first reflector 110 and moved to the magnifying lens unit 160 along the path of R20.

이후, 사용자의 시선 영상의 화상광은 제2 반사부(120)에서 반사되어 영상수집부(130)로 전달되게 된다. Thereafter, the image light of the user's gaze image is reflected by the second reflection unit 120 and transmitted to the image collection unit 130 .

이와 같은 과정을 통해 영상수집부(130)는 수집된 영상 내에서 동공의 위치를 파악하여 사용자의 시선의 방향을 파악할 수 있게 된다. Through this process, the image collection unit 130 can determine the direction of the user's gaze by identifying the position of the pupil in the collected image.

또한, 시스루 광학 시스템(100)은 양안에 각각 마련되므로, 각각의 시스루 광학 시스템(100)에 마련된 영상수집부(130)에서 수집된 좌안 시선 영상에 대한 정보와 우안 시선 영상에 대한 정보를 취합하여 사용자의 주시각을 산출할 수 있게 된다.In addition, since the see-through optical system 100 is provided in both eyes, information on the left eye gaze image and information on the right eye gaze image collected by the image collecting unit 130 provided in each see-through optical system 100 are collected. It is possible to calculate the user's gaze angle.

영상수집부(130)는 이상에서 도달된 좌안 시선 영상의 화상광과 우안 시선 영상의 화상광을 제어부(140)로 전송한다. 구체적으로, 좌안용 영상수집부(130-1)는 좌안 시선 영상을 수집하여 제어부(140)로 전송하고 우안용 영상수집부(130-2)는 우안 시선 영상을 수집하여 제어부(140)로 전송하는 것이다.The image collection unit 130 transmits the image light of the left eye gaze image and the image light of the right eye gaze image reached in the above to the controller 140 . Specifically, the left eye image collection unit 130-1 collects the left eye gaze image and transmits it to the controller 140 , and the right eye image collection unit 130-2 collects the right eye gaze image and transmits it to the controller 140 . will do

제어부(140)는 영상수집부(130)로부터 수신한 좌안 시선 영상과 우안 시선 영상을 기초로 하여 사용자에게 제공할 가상 영상을 생성하게 된다. 물론, 제어부(140)는 영상수집부(130)로부터 수신한 실재 영상을 기반으로 하게 된다. 즉, 실재 영상 내에서 어떠한 시선 방향에 어떠한 주시각에 위치한 물체가 실제로 사용자가 주시한 피사체인지 판단하여 그 피사체에 대응되는 가상 영상을 생성하게 되는 것이다.The controller 140 generates a virtual image to be provided to the user based on the left eye gaze image and the right eye gaze image received from the image collection unit 130 . Of course, the control unit 140 is based on the actual image received from the image collection unit (130). That is, the virtual image corresponding to the subject is generated by determining whether the object located at which gaze direction and at which gaze direction in the real image is the subject actually gazed by the user.

이후, 제어부(140)는 생성된 가상 영상을 디스플레이 패널(150)로 전송하게 된다. Thereafter, the controller 140 transmits the generated virtual image to the display panel 150 .

디스플레이 패널(150)은 제어부(140)로부터 수신한 가상 영상의 화상광이 사용자에게 도달될 수 있도록 가상 영상의 화상광을 출사하게 된다. The display panel 150 emits the image light of the virtual image so that the image light of the virtual image received from the controller 140 can reach the user.

출사된 화상광은, 제2 반사부(120)에서 일부 투과되어 확대렌즈부(160)를 통과하게 되며, 확대렌즈부(160)를 통과하면서 기설정된 화각으로 확대되게 되는데, 이를 통해, 전술한 바와 같이, 디스플레이 패널(150)에서 작은 사이즈로 출사되는 가상 영상의 화상광이 사용자가 주시하는 실재 영상의 화상광 사이즈와 동일하게 구현될 수 있다. The emitted image light is partially transmitted through the second reflection unit 120 and passes through the magnifying lens unit 160 , and is expanded to a preset angle of view while passing through the magnifying lens unit 160 . As described above, the image light of the virtual image output in a small size from the display panel 150 may be implemented to be the same as the image light size of the real image that the user looks at.

이상에서 확대된 가상 영상의 화상광은 제1 반사부(110)를 통과하여 제3 반사부(170)에 도달하게 된다. The image light of the enlarged virtual image passes through the first reflector 110 and reaches the third reflector 170 .

제3 반사부(170)는, 100%의 광반사율을 가진 집광렌즈이므로, 제1 반사부(110)를 통과하여 도달된 가상 영상의 화상광을 기설정된 화각으로 제1 반사부(110)로 재반사시키게 된다. Since the third reflecting unit 170 is a condensing lens having a light reflectivity of 100%, the image light of the virtual image that has passed through the first reflecting unit 110 and reached is directed to the first reflecting unit 110 at a preset angle of view. will be re-reflected.

그리고, 제1 반사부(110)로 재반사된 가상 영상의 화상광은, 제1 반사부(100)에서 사용자의 망막을 향하여 다시 한번 반사되어 최종적으로 사용자의 망막에 결상되게 된다. Then, the image light of the virtual image re-reflected by the first reflector 110 is reflected once again toward the user's retina by the first reflector 100 to finally form an image on the user's retina.

이와 같이 제1 반사부(110), 제2 반사부(120) 및 제3 반사부(170)는 가상 영상의 화상광이 사용자의 망막에 결상되도록 하는 역할을 함은 물론, 사용자의 시선 영상의 화상광이 영상수집부(130)에 수집되도록 하는 역할을 병행하게 되며, 카메라를 별도로 장착하지 않고 시스루 광학 시스템(100)내에서 일체화되도록 구조적인 설계가 가능하도록 함으로써, 중복적인 부품의 통합화를 통해 무게를 경감시키고 편의성을 증대시키며 제품의 신뢰성이 변질되지 않도록 할 수 있게 된다.As described above, the first reflector 110 , the second reflector 120 , and the third reflector 170 serve to form the image light of the virtual image on the user's retina as well as the user's gaze image. The image light is collected by the image collecting unit 130 in parallel, and a structural design is possible to be integrated in the see-through optical system 100 without separately mounting a camera, through the integration of redundant parts. It is possible to reduce weight, increase convenience, and prevent deterioration of product reliability.

즉, 카메라를 별도로 장착하여 사용자의 시선을 추적하게 될 경우, 사용자의 시선 전방은 피사체에 대한 주시를 위해 항시 투과될 수 있는 상태를 마련해줘야 하기 때문에, 광경로 변경을 위해 여러 구성들이 수반될 수 밖에 없고, 이러한 구성들은 사용자의 시선을 추적하지 않는 일반적인 시스루 광학 시스템에서도 사용될 수 밖에 없게 되는데, 시스루 광학 시스템 방식에서의 가상 영상을 제공하기 위한 구성들과 시선을 추적하기 위한 구성들을 일원화함으로써, 별도로 마련하는 경우에 비해 오히려 더 최적화된 설계가 가능해지고 무게/편의성/신뢰성의 향상도 도모가 가능하게 된다.That is, when a camera is separately mounted to track the user's gaze, a state in which the front of the user's gaze can always be transmitted to keep an eye on the subject must be provided, so various configurations may be involved to change the optical path. In addition, these components have to be used in a general see-through optical system that does not track the user's gaze. By unifying components for providing a virtual image in the see-through optical system method and components for tracking the gaze Compared to the case of provision, a more optimized design is possible, and weight/convenience/reliability improvement is also possible.

한편, 시스루 광학 시스템에 사용되는 이상의 구성들은 사용자의 시선에 따라 변경되어야 하며, 기존에는 사용자가 직접 시스루 광학 시스템 간의 거리를 조정하는 등의 방식을 사용하였다. On the other hand, the above configurations used in the see-through optical system should be changed according to the user's gaze, and in the past, a method such as the user directly adjusting the distance between the see-through optical systems was used.

이하에서는 사용자의 망막에 가상 영상이 결상될 때, 추적된 시선에 대한 정보를 기반으로, 시스루 광학 시스템이 자동으로 조절되어 가상 영상이 보다 정확하고 효과적으로 전달되도록 하기 위한 방안에 대해 설명하기로 한다. Hereinafter, when a virtual image is formed on the user's retina, based on the information on the tracked gaze, a method for automatically adjusting the see-through optical system to transmit the virtual image more accurately and effectively will be described.

도 5는 시선이 변경되기 전 상태에서의 주시각과 IPD를 설명하기 위해 제공되는 도면이고, 도 6은 시선이 변경된 후 상태에서의 주시각과 IPD를 설명하기 위해 제공되는 도면이며, 도 7은 시선이 변경됨에 따라 시스루 광학 시스템이 이동되는 모습을 도시한 도면이고, 도 8은 시선이 변경됨에 따라 시스루 광학 시스템이 이동되도록 하기 위한 구조를 설명하기 위해 제공되는 도면이다.5 is a view provided to explain the gaze angle and IPD in a state before the gaze is changed, FIG. 6 is a diagram provided to explain the gaze angle and IPD in a state after the gaze is changed, and FIG. 7 is It is a view illustrating a state in which the see-through optical system is moved as the line of sight is changed, and FIG. 8 is a view provided to explain a structure for moving the see-through optical system as the line of sight is changed.

사용자의 시선이 피사체(S)를 주시할 때, 주시각이 θ1°일 경우, 좌안용 시스루 광학 시스템(100-1)과 우안용 시스루 광학 시스템(100-2) 간의 각도는 180-θ1°인 θ2°가 된다. 이 때 사용자의 동공 사이 거리인 IPD(Inter Pupillary Distance)가 d1이 될 때, 사용자의 양안과 피사체(S)와의 거리는 d1에 비례하는 d2가 되게 된다. When the user's gaze gazes at the subject S, when the gaze angle is θ1°, the angle between the see-through optical system 100-1 for the left eye and the see-through optical system 100-2 for the right eye is 180-θ1° It becomes θ2°. At this time, when the interpupillary distance (IPD) of the user becomes d1, the distance between the user's eyes and the subject S becomes d2 proportional to d1.

이와 같은 상황에서 사용자의 시선이 더 가까운 피사체로 옮겨질 경우, 사용자의 동공은 서로 더 모아지게 되고, 이에 따라 도 6과 같이 IPD는 d3로 더 줄어들게 된다. In such a situation, when the user's gaze is moved to a closer subject, the user's pupils are more converged with each other, and accordingly, the IPD is further reduced to d3 as shown in FIG. 6 .

즉, 피사체까지의 거리가 d4로 줄어들면서 그에 대응되도록 IPD도 d3로 줄어들게 되는 것이다. 이와 같이 IPD와 피사체까지의 거리가 줄어들게 되었다는 것은, 다시 말해 주시각이 θ3°로 커졌다는 것을 의미하며, 그에 맞게 좌안용 시스루 광학 시스템(100-1)과 우안용 시스루 광학 시스템(100-2) 간의 각도도 180-θ3°로 변경해주어야 함을 의미한다. That is, as the distance to the subject is reduced to d4, the IPD is also reduced to d3 to correspond thereto. As such, the reduction in the distance between the IPD and the subject means that the gaze angle has increased to θ3°, and accordingly the see-through optical system 100-1 for the left eye and the see-through optical system 100-2 for the right eye It means that the angle between the angles should also be changed to 180-θ3°.

즉, 좌안용 시스루 광학 시스템(100-1)과 우안용 시스루 광학 시스템(100-2) 간의 각도인 θ4°는 사용자의 시선이 더 가까운 피사체로 옮겨질 경우 더 줄어들게 된다. That is, the angle θ4° between the see-through optical system 100-1 for the left eye and the see-through optical system 100-2 for the right eye is further reduced when the user's gaze is moved to a closer subject.

이처럼 좌안용 시스루 광학 시스템(100-1)과 우안용 시스루 광학 시스템(100-2) 간의 각도가 줄어들도록 하기 위해서는 도 6 및 도 7에 도시된 것처럼 좌안용 시스루 광학 시스템(100-1)과 우안용 시스루 광학 시스템(100-2)을 서로 반대방향으로 회전시켜줘야 한다. In order to reduce the angle between the see-through optical system 100-1 for the left eye and the see-through optical system 100-2 for the right eye, as shown in FIGS. 6 and 7, the see-through optical system 100-1 for the left eye and the right eye It is necessary to rotate the see-through optical system 100 - 2 in opposite directions.

즉, 영상수집부(130)는 좌안용 시스루 광학 시스템(100-1)과 우안용 시스루 광학 시스템(100-2)을 통해 사용자의 시선을 추적함으로써 사용자의 시선 방향과 함께 사용자의 주시각을 판단하고, 판단된 주시각에 따라 좌안용 시스루 광학 시스템(100-1)과 우안용 시스루 광학 시스템(100-2)을 회전시킴으로써, 좌안과 우안으로 사용자가 주시하는 방향에 맞춰주게 되는 것이다. That is, the image collection unit 130 determines the user's gaze angle together with the user's gaze direction by tracking the user's gaze through the see-through optical system 100-1 for the left eye and the see-through optical system 100-2 for the right eye. And, by rotating the see-through optical system 100-1 for the left eye and the see-through optical system 100-2 for the right eye according to the determined gaze angle, the left eye and the right eye are aligned with the user's gaze directions.

이 때, 단순히 좌안용 시스루 광학 시스템(100-1)과 우안용 시스루 광학 시스템(100-2)의 중심을 기준으로 한 회전을 통해서는 사용자의 양안이 주시하는 방향에 수직으로 좌안용 시스루 광학 시스템(100-1)과 우안용 시스루 광학 시스템(100-2)이 위치하도록 할 수 없게 된다. At this time, by simply rotating the see-through optical system 100-1 for the left eye and the see-through optical system 100-2 for the right eye based on the center, the left-eye see-through optical system is perpendicular to the direction in which both eyes of the user gaze. (100-1) and the see-through optical system 100-2 for the right eye cannot be positioned.

즉, 사용자가 더 가까운 피사체를 주시함으로써 주시각이 커지게 되면, 좌안용 시스루 광학 시스템(100-1)과 우안용 시스루 광학 시스템(100-2)은 서로 반대방향으로 회전함과 동시에 서로 더 모아져야만 사용자의 양안과 피사체 간의 직선거리 상에 좌안용 시스루 광학 시스템(100-1)과 우안용 시스루 광학 시스템(100-2)이 위치할 수 있게 되는 것이다. That is, when the gaze angle increases as the user gazes at a closer subject, the see-through optical system 100-1 for the left eye and the see-through optical system 100-2 for the right eye rotate in opposite directions and gather more together. The see-through optical system 100-1 for the left eye and the see-through optical system 100-2 for the right eye can be positioned on the straight line distance between the user's both eyes and the subject.

이를 위해, 도 8에 도시된 바와 같이 좌안용 시스루 광학 시스템(100-1)과 우안용 시스루 광학 시스템(100-2)은 중앙에 힌지부(190)를 통해 서로 연결되어 있으며, 힌지부(190)가 좌우로 움직임에 따라 좌안용 시스루 광학 시스템(100-1)과 우안용 시스루 광학 시스템(100-2)이 회전과 동시에 서로 가까워졌다 멀어지는 것이 가능하게 된다. For this purpose, as shown in FIG. 8 , the see-through optical system 100-1 for the left eye and the see-through optical system 100-2 for the right eye are connected to each other through a hinge part 190 at the center, and the hinge part 190 ) moves left and right, so that the see-through optical system 100-1 for the left eye and the see-through optical system 100-2 for the right eye move closer and further away from each other at the same time as they rotate.

즉, 제어부(140)는 사용자의 양안에 대한 정보를 수신하여 사용자의 주시각을 판단하고 해당 주시각에 맞게 힌지부(190)가 동작하도록 힌지부(190)를 제어함으로써, 비로소 좌안용 시스루 광학 시스템(100-1)과 우안용 시스루 광학 시스템(100-2)가 제어되도록 할 수 있게 되는 것이다. That is, the control unit 140 receives information on both eyes of the user, determines the gaze angle of the user, and controls the hinge unit 190 so that the hinge unit 190 operates according to the gaze angle, so that only the left eye see-through optics The system 100-1 and the see-through optical system 100-2 for the right eye can be controlled.

도 9는 본 발명의 일 실시예에 따른 가상 영상과 실재 영상의 정합을 위한 시스루 광학 시스템에서의 시선 추적 방법을 설명하기 위한 흐름도이다.9 is a flowchart illustrating a gaze tracking method in a see-through optical system for matching a virtual image and a real image according to an embodiment of the present invention.

우선, 사용자의 시선을 추적하여 그에 부합하는 가상 영상을 제공하기 위해, 실재 영상 중 일부인 제1 영상을 투과시키고 나머지 일부인 제2 영상의 광경로를 변경시키게 된다. First, in order to provide a virtual image corresponding to the user's gaze, the first image, which is a part of the real image, is transmitted and the optical path of the remaining part of the second image is changed.

이후, 제2 영상의 광경로를 재변경시키면 이러한 제2 영상을 영상수집부로 전달되게 되고, 제어부는 영상수집부에서 수집된 제2 영상과 영상수집부에서 수집된 사용자의 시선 영상을 토대로 사용자의 시선을 추적한 뒤 사용자의 시선에 부합하는 실재 영상에 대응되는 가상 영상을 생성하게 된다.Thereafter, when the optical path of the second image is changed again, this second image is transmitted to the image collecting unit, and the control unit is the user based on the second image collected by the image collecting unit and the user's gaze image collected by the image collecting unit. After tracking the gaze, a virtual image corresponding to the real image matching the gaze of the user is generated.

또한, 제어부는 가상 영상이 디스플레이 패널에서 출사되도록 하여 확대렌즈부를 통해 확대된 가상 영상이 사용자의 망막에 결상되도록 가상 영상의 경로를 변경하게 된다.In addition, the controller changes the path of the virtual image so that the virtual image is output from the display panel and the virtual image enlarged through the magnifying lens unit is formed on the user's retina.

이러한 가상 영상과 실재 영상의 정합을 위한 시스루 광학 시스템과, 시스루 광학 시스템에서의 시선 추적 방법은, 다양한 분야에서 활용가능하며, 특히, 의료 수술과 같이 고도의 집중력을 요하는 경우에 사용될 수 있으며, 의료용으로 사용하는 경우에 음직임이 최소화되도록 사용자의 두부에 착용하는 헤드마운트 디스플레이 형식으로 사용될 수 있을 것이다.The see-through optical system for matching the virtual image with the real image and the eye tracking method in the see-through optical system can be used in various fields, and in particular, can be used in cases requiring high concentration such as medical surgery, When used for medical purposes, it may be used in the form of a head-mounted display worn on the user's head to minimize sound movement.

이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다. In the above, preferred embodiments of the present invention have been illustrated and described, but the present invention is not limited to the specific embodiments described above, and it is common in the technical field to which the present invention pertains without departing from the gist of the present invention as claimed in the claims. Various modifications are possible by those having the knowledge of, of course, and these modifications should not be individually understood from the technical spirit or perspective of the present invention.

100 : 시스루 광학 시스템
100-1 : 좌안용 시스루 광학 시스템
100-2 : 우안용 시스루 광학 시스템
110 : 제1 반사부 120 : 제2 반사부
130 : 영상수집부 140 : 제어부
150 : 디스플레이 패널 160 : 확대렌즈부
170 : 제3 반사부 180 : 편광필름
190 : 힌지부
100: see-through optical system
100-1: see-through optical system for left eye
100-2: see-through optical system for right eye
110: first reflector 120: second reflector
130: image collection unit 140: control unit
150: display panel 160: magnifying lens unit
170: third reflection unit 180: polarizing film
190: hinge

Claims (10)

가상 영상과 실재 영상의 정합을 위한 시스루 광학 시스템에 있어서,
상기 실재 영상 중 일부인 제1 영상을 투과시키고 나머지 일부인 제2 영상의 광경로를 변경시키는 제1 반사부;
상기 제2 영상의 광경로를 재변경시키는 제2 반사부;
상기 제2 영상이 수집되는 영상수집부;
상기 제2 영상을 기초로 상기 가상 영상을 생성하고, 상기 가상 영상이 디스플레이 패널에서 출사되도록 하는 제어부;
상기 디스플레이 패널에서 출사된 가상 영상을 확대하기 위한 확대렌즈부; 및
상기 확대렌즈부를 통해 확대된 상기 가상 영상이 사용자의 망막에 결상되도록 하는 제3 반사부;를 포함하고,
상기 제어부는,
상기 제2 영상 이외에 사용자의 시선을 추적하여 추적된 시선을 기초로 상기 가상 영상을 생성하는 것을 특징으로 하는 시스루 광학 시스템.
In the see-through optical system for matching a virtual image and a real image,
a first reflector for transmitting a first image, which is a part of the real image, and changing an optical path of a second image, which is a part of the remaining image;
a second reflector for re-changing the optical path of the second image;
an image collecting unit for collecting the second image;
a control unit generating the virtual image based on the second image and outputting the virtual image from a display panel;
a magnifying lens unit for enlarging the virtual image output from the display panel; and
A third reflector for allowing the virtual image enlarged through the magnifying lens unit to form an image on the user's retina;
The control unit is
The see-through optical system, characterized in that by tracking a user's gaze other than the second image, and generating the virtual image based on the tracked gaze.
제1항에 있어서,
상기 제1 반사부는,
사용자의 시선 영상 중 일부인 제3 영상을 투과시키고 나머지 일부인 제4 영상의 광경로를 변경시키며,
상기 제3 반사부와 제2 반사부는,
상기 제4 영상의 광경로를 재변경시켜 상기 시선 영상이 상기 영상수집부로 수집되도록 하는 것을 특징으로 하는 시스루 광학 시스템.
According to claim 1,
The first reflector,
The third image, which is a part of the user's gaze image, is transmitted and the optical path of the fourth image, which is the remaining part, is changed,
The third reflector and the second reflector,
The see-through optical system, characterized in that by re-changing the optical path of the fourth image, the gaze image is collected by the image collecting unit.
제2항에 있어서,
상기 제어부는,
상기 영상수집부에서 수집된 상기 시선 영상을 토대로 사용자의 시선을 추적하되,
상기 시선 영상에서 안구 내 동공의 좌표를 기반으로 사용자의 시선 방향을 추적하는 것을 특징으로 하는 시스루 광학 시스템.
3. The method of claim 2,
The control unit is
The user's gaze is tracked based on the gaze image collected by the image collection unit,
A see-through optical system, characterized in that the user's gaze direction is tracked based on the coordinates of the pupil in the eye in the gaze image.
제3항에 있어서,
상기 제어부는,
좌안용 영상수집부에서 수집된 좌안 시선 영상과 우안용 영상수집부에서 수집된 우안 시선 영상을 비교하여 안구 내 동공 간의 거리 차이를 분석하고, 안구 내 동공 간의 거리 차이를 기반으로 사용자의 주시각을 추적하는 것을 특징으로 하는 시스루 광학 시스템.
4. The method of claim 3,
The control unit is
By comparing the left eye gaze image collected by the left eye image collection unit and the right eye gaze image collected by the right eye image collection unit, the distance difference between the pupils in the eye is analyzed, and the user's gaze angle is determined based on the difference in the distance between the pupils in the eyeball. A see-through optical system characterized in that it is tracked.
제4항에 있어서,
상기 제어부는,
상기 추적된 시선 방향과 상기 추적된 주시각을 토대로 사용자가 응시하는 피사체를 확정하고,
상기 디스플레이 패널을 제어하여 상기 확정된 피사체에 대응되는 가상 영상이 상기 디스플레이 패널에서 표시되도록 하는 것을 특징으로 하는 시스루 광학 시스템.
5. The method of claim 4,
The control unit is
determining the subject the user gazes at based on the tracked gaze direction and the tracked gaze angle;
The see-through optical system of claim 1, wherein the virtual image corresponding to the determined subject is displayed on the display panel by controlling the display panel.
제5항에 있어서,
상기 제어부는,
상기 추적된 시선 방향과 상기 추적된 주시각을 토대로 힌지부를 제어하고,
상기 힌지부는,
상기 제어부의 제어에 따라 이동하여, 상기 시스루 광학 시스템이 회전운동됨과 동시에 병진운동되도록 함으로써, 상기 시스루 광학 시스템이 사용자의 시선 방향 상에 위치하도록 하는 것을 특징으로 하는 시스루 광학 시스템.
6. The method of claim 5,
The control unit is
Control the hinge unit based on the tracked gaze direction and the tracked gaze angle,
The hinge part,
The see-through optical system, characterized in that by moving according to the control of the control unit so that the see-through optical system is rotated and translated at the same time, the see-through optical system is positioned in the user's gaze direction.
제6항에 있어서,
상기 제1 반사부, 상기 제2 반사부 및 상기 제3 반사부는,
상기 제2의 영상의 광경로를 변경시켜 상기 영상수집부로 전달하는 역할과, 상기 제4 영상의 광경로를 변경시켜 상기 영상수집부로 전달하는 역할을 함께 수행하는 것을 특징으로 하는 시스루 광학 시스템.
7. The method of claim 6,
The first reflector, the second reflector, and the third reflector,
A see-through optical system, characterized in that it changes the optical path of the second image and transmits it to the image collection unit, and changes the optical path of the fourth image to transmit it to the image collection unit.
제7항에 있어서,
상기 영상수집부는,
기설정된 샘플 시선 영상을 기반으로 수신된 영상에서 상기 제4 영상을 분리추출하고,
수신된 영상에서 상기 제4 영상 부분을 제외하여 상기 제2 영상을 추출하는 것을 특징으로 하는 시스루 광학 시스템.
8. The method of claim 7,
The image collection unit,
Separating and extracting the fourth image from the received image based on a preset sample gaze image,
and extracting the second image by excluding the fourth image portion from the received image.
제8항에 있어서,
상기 시스루 광학 시스템은,
헤드마운트 디스플레이 장치에 장착되어, 의료용으로 사용되는 것을 특징으로 하는 시스루 광학 시스템.
9. The method of claim 8,
The see-through optical system,
A see-through optical system, characterized in that it is mounted on a head-mounted display device and used for medical purposes.
가상 영상과 실재 영상의 정합을 위한 시스루 광학 시스템에서의 시선 추적 방법에 있어서,
상기 실재 영상 중 일부인 제1 영상을 투과시키고 나머지 일부인 제2 영상의 광경로를 변경시키는 단계;
상기 제2 영상의 광경로를 재변경시키는 단계;
상기 제2 영상을 수집하는 단계;
상기 제2 영상을 기초로 상기 가상 영상을 생성하는 단계;
상기 가상 영상이 디스플레이 패널에서 출사되도록 하는 단계;
상기 출사된 가상 영상을 확대하는 단계; 및
상기 확대된 가상 영상이 사용자의 망막에 결상되도록 상기 가상 영상의 경로를 변경하는 단계;를 포함하고,
상기 가상 영상을 생성하는 단계는,
상기 제2 영상 이외에 사용자의 시선을 추적하여 추적된 시선을 기초로 상기 가상 영상을 생성하는 것을 특징으로 하는 시선 추적 방법.
In the gaze tracking method in a see-through optical system for matching a virtual image and a real image,
transmitting a first image, which is a part of the real image, and changing an optical path of a second image, which is a part of the remaining image;
re-changing the optical path of the second image;
collecting the second image;
generating the virtual image based on the second image;
allowing the virtual image to be output from a display panel;
enlarging the output virtual image; and
changing the path of the virtual image so that the enlarged virtual image is formed on the user's retina;
The step of generating the virtual image comprises:
A gaze tracking method, characterized in that by tracking a user's gaze other than the second image, and generating the virtual image based on the tracked gaze.
KR1020200123085A 2020-09-23 2020-09-23 See-through optics system applied to near eye display device and eye tracking method in see-through optics system KR102465800B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200123085A KR102465800B1 (en) 2020-09-23 2020-09-23 See-through optics system applied to near eye display device and eye tracking method in see-through optics system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200123085A KR102465800B1 (en) 2020-09-23 2020-09-23 See-through optics system applied to near eye display device and eye tracking method in see-through optics system

Publications (2)

Publication Number Publication Date
KR20220040174A true KR20220040174A (en) 2022-03-30
KR102465800B1 KR102465800B1 (en) 2022-11-11

Family

ID=80948148

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200123085A KR102465800B1 (en) 2020-09-23 2020-09-23 See-through optics system applied to near eye display device and eye tracking method in see-through optics system

Country Status (1)

Country Link
KR (1) KR102465800B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080010502A (en) * 2006-07-27 2008-01-31 한국전자통신연구원 Face mounted display apparatus and method for mixed reality environment
KR20150033369A (en) * 2013-09-24 2015-04-01 박수원 Optical system and head mount display apparatus for augmented reality implementation
KR20170136413A (en) * 2014-03-19 2017-12-11 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 Medical devices, systems, and methods integrating eye gaze tracking for stereo viewer
KR20200023992A (en) 2018-08-27 2020-03-06 주식회사 에버닌 Smart Tracker and AR Display System for Surgery

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080010502A (en) * 2006-07-27 2008-01-31 한국전자통신연구원 Face mounted display apparatus and method for mixed reality environment
KR20150033369A (en) * 2013-09-24 2015-04-01 박수원 Optical system and head mount display apparatus for augmented reality implementation
KR20170136413A (en) * 2014-03-19 2017-12-11 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 Medical devices, systems, and methods integrating eye gaze tracking for stereo viewer
KR20200023992A (en) 2018-08-27 2020-03-06 주식회사 에버닌 Smart Tracker and AR Display System for Surgery

Also Published As

Publication number Publication date
KR102465800B1 (en) 2022-11-11

Similar Documents

Publication Publication Date Title
EP3685215B1 (en) Augmented reality display with waveguide configured to capture images of eye and/or environment
US20230341695A1 (en) Diffractive optical elements with optical power
US10429650B2 (en) Head-mounted display
CN104395815B (en) Head mounted display eyeball tracking device integrated system
Rolland et al. Head-mounted display systems
AU730608B2 (en) Optical system for alternative or simultaneous direction of light originating from two scenes to the eye of a viewer
US20120147038A1 (en) Sympathetic optic adaptation for see-through display
US20130250430A1 (en) Increasing field of view of reflective waveguide
US20100149073A1 (en) Near to Eye Display System and Appliance
CN111295702A (en) Virtual image display device and head-mounted display using the same
CN108490611A (en) Diopter accommodation method and its device, the augmented reality equipment of augmented reality equipment
JP2008535001A (en) Optical system using total internal reflection image
EP2486450A1 (en) Near to eye display system and appliance
CN109725416B (en) Eyeball tracking optical system, head-mounted equipment and imaging method
US20220099977A1 (en) System for providing illumination of the eye
KR101524933B1 (en) Optical system and head mount display apparatus for augmented reality implementation
KR20210144748A (en) Steerable Hybrid Display Using Waveguides
US20220011578A1 (en) Eyewear with pinhole and slit cameras
KR20210023921A (en) Optical device for augmented reality having visual acuity correction function
KR20220118445A (en) Optics and methods for eye tracking based on redirecting light from an eye using an optical arrangement associated with a light guide optical element
KR102465800B1 (en) See-through optics system applied to near eye display device and eye tracking method in see-through optics system
KR20210022860A (en) Optical device for augmented reality having visual acuity correction function
JP3556306B2 (en) Video display device
JP3623482B2 (en) Video display device
Rolland et al. Displays: head-mounted

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant