KR102465800B1 - See-through optics system applied to near eye display device and eye tracking method in see-through optics system - Google Patents

See-through optics system applied to near eye display device and eye tracking method in see-through optics system Download PDF

Info

Publication number
KR102465800B1
KR102465800B1 KR1020200123085A KR20200123085A KR102465800B1 KR 102465800 B1 KR102465800 B1 KR 102465800B1 KR 1020200123085 A KR1020200123085 A KR 1020200123085A KR 20200123085 A KR20200123085 A KR 20200123085A KR 102465800 B1 KR102465800 B1 KR 102465800B1
Authority
KR
South Korea
Prior art keywords
image
gaze
see
user
reflector
Prior art date
Application number
KR1020200123085A
Other languages
Korean (ko)
Other versions
KR20220040174A (en
Inventor
박수원
Original Assignee
(주)엘비전테크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)엘비전테크 filed Critical (주)엘비전테크
Priority to KR1020200123085A priority Critical patent/KR102465800B1/en
Publication of KR20220040174A publication Critical patent/KR20220040174A/en
Application granted granted Critical
Publication of KR102465800B1 publication Critical patent/KR102465800B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/003Alignment of optical elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/021Mountings, adjusting means, or light-tight connections, for optical elements for lenses for more than one lens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Multimedia (AREA)

Abstract

시스루 광학 시스템에서의 시선 추적 방법 및 이를 이용한 근안 영상 표시 장치가 개시된다. 본 가상 영상과 실재 영상의 정합을 위한 시스루 광학 시스템은, 상기 실재 영상 중 일부인 제1 영상을 투과시키고 나머지 일부인 제2 영상의 광경로를 변경시키는 제1 반사부; 상기 제2 영상의 광경로를 재변경시키는 제2 반사부; 상기 제2 영상이 수집되는 영상수집부; 상기 제2 영상을 기초로 상기 가상 영상을 생성하고, 상기 가상 영상이 디스플레이 패널에서 출사되도록 하는 제어부; 상기 디스플레이 패널에서 출사된 가상 영상을 확대하기 위한 확대렌즈부; 및 상기 확대렌즈부를 통해 확대된 상기 가상 영상이 사용자의 망막에 결상되도록 하는 제3 반사부;를 포함하고, 상기 제어부는, 상기 제2 영상 이외에 사용자의 시선을 추적하여 추적된 시선을 기초로 상기 가상 영상을 생성한다. 이에 의해, 가상 영상의 화상광이 사용자의 망막에 결상되도록 하는 역할을 하는 구성과 사용자의 시선 영상의 화상광이 수집되도록 하는 역할을 하는 구성을 별도로 마련하거나 카메라를 별도로 장착하지 않고 시스루 광학 시스템내에서 일체화되도록 구조적인 설계가 가능하도록 함으로써, 중복적인 부품의 통합화를 통해 무게를 경감시키고 편의성을 증대시키며 제품의 신뢰성이 변질되지 않도록 할 수 있게 된다.A gaze tracking method in a see-through optical system and a near-eye image display device using the same are disclosed. The see-through optical system for matching a virtual image and a real image includes a first reflector that transmits a first image, which is a part of the real image, and changes an optical path of a second image, which is a remaining part; a second reflector for re-changing the optical path of the second image; an image collecting unit in which the second image is collected; a controller that generates the virtual image based on the second image and emits the virtual image from a display panel; an enlargement lens unit for enlarging the virtual image emitted from the display panel; and a third reflector for allowing the virtual image magnified through the magnification lens to be formed on the user's retina, wherein the control unit tracks the user's gaze other than the second image, and based on the tracked gaze, the third reflector. create a virtual image As a result, a component that serves to form the image light of the virtual image on the user's retina and a component that serves to collect the image light of the user's line of sight image are provided separately, or a camera is not separately mounted. In the see-through optical system By allowing the structural design to be integrated in, it is possible to reduce the weight, increase convenience, and prevent the reliability of the product from being deteriorated through the integration of redundant parts.

Description

근안 영상 표시 장치에 적용되는 시스루 광학 시스템 및 시스루 광학 시스템에서의 시선 추적 방법{See-through optics system applied to near eye display device and eye tracking method in see-through optics system}See-through optics system applied to near eye display device and eye tracking method in see-through optics system

본 발명은 근안 영상 표시 장치에 적용되는 시스루 광학 시스템 및 시스루 광학 시스템에서의 시선 추적 방법에 관한 것으로 보다 상세하게는 VR(가상현실 : Virtual Reality), AR(증강현실 : Augmented Reality) 및 MR(혼합현실 : Mixed Reality)용 시스루 광학 시스템 및 시스루 광학 시스템에서의 시선 추적 방법에 관한 것이다.The present invention relates to a see-through optical system applied to a near-eye image display device and a gaze tracking method in the see-through optical system, and more particularly, to VR (Virtual Reality), AR (Augmented Reality) and MR (Mixed Reality) Reality: A see-through optical system for mixed reality and an eye tracking method in the see-through optical system.

증강/혼합현실용 근안 영상 표시 장치에 있어서 시스루 광학 시스템은 구성된 광학 렌즈 구성에 따라 디스플레이인 LCD(LCoS), OLED, LED 및 레이저 모듈 등에서 발광된 이미지 광선이 설계된 광학 시스템 렌즈를 통과하도록 하여 사용자 눈에 전달시킴으로서 사용자로 하여금 영상을 시청할 수 있도록 하게 된다. In the near-eye image display device for augmented/mixed reality, the see-through optical system allows image rays emitted from displays such as LCD (LCoS), OLED, LED, and laser modules to pass through the designed optical system lens according to the configured optical lens configuration, so that the user's eyes By delivering it to the user, it is possible to watch the video.

이 때, 사용자의 눈은 사용자가 원하는 영상 정보 또는 시스루되는(투시되는) 전방 사물을 보면서 눈동자의 시선은 다양한 방향으로 변화되게 된다. 이러한 시선은, 양안을 기준으로 볼 때, 시선의 방향에 대한 변화와 주시각에 대한 변화로 나누어 볼 수 있고, 시선의 방향이나 주시각에 대한 변화를 파악함으로써 사용자의 시선을 추적하는 것은 VR, AR 및 MR 서비스에서 매우 중요한 요소가 된다. At this time, the eyes of the user change in various directions while viewing image information desired by the user or a see-through (see-through) front object. These gazes can be divided into changes in the direction of the gaze and changes in the visual angle when viewed with both eyes as a standard, and tracking the user's gaze by grasping the direction of the gaze or change in the visual angle is VR, It becomes a very important factor in AR and MR services.

즉, 시선에 대한 추적은, 서비스에서 발생되는 어지럼증이나 멀미 현상을 감소시키는 부수적인 목적의 달성을 위함은 물론, 사용자의 시선에 대응되는 영상 콘텐츠를 선별하여 사용자에게 제공하기 위한 본연의 목적을 달성하기 위해서도 반드시 필요한 문제이다. In other words, eye tracking not only achieves the secondary purpose of reducing dizziness or motion sickness occurring in the service, but also achieves its original purpose of selecting video content corresponding to the user's gaze and providing it to the user. It is also a matter of necessity.

그러나 기존의 서비스들은 시선 추적을 위한 카메라를 별도로 장착하여 무게가 더해질 뿐 아니라 편의성을 심각하게 경감시키며, 일체적인 구조적 설계가 되어 있지 않아 신뢰성이 변형될 수 있는 문제점을 안고 있게 된다. However, existing services not only add weight by separately mounting a camera for eye tracking, but also seriously reduce convenience, and have problems in that reliability may be deformed due to a lack of integral structural design.

한국공개특허 제10-2020-0023992호(수술용 스마트 트래커 및 AR 디스플레이 시스템)Korean Patent Publication No. 10-2020-0023992 (smart tracker and AR display system for surgery)

본 발명은 상기와 같은 문제를 해결하기 위해 안출된 것으로, 본 발명의 목적은 추적된 시선에 대한 정보를 기반으로 영상을 제공할 수 있도록 함은 물론, 근안 영상 표시 장치 내에서 시선 추적이 가능하도록 함으로써 추적된 시선에 따라 시스루 광학 시스템이 연동되어 동작할 수 있도록 하는 근안 영상 표시 장치에 적용되는 시스루 광학 시스템 및 시스루 광학 시스템에서의 시선 추적 방법을 제공함에 있다.The present invention has been made to solve the above problems, and an object of the present invention is to provide an image based on information on the tracked gaze, as well as to enable gaze tracking in a near-eye image display device. It is to provide a see-through optical system applied to a near-eye image display device that allows the see-through optical system to interlock and operate according to the tracked gaze and a gaze tracking method in the see-through optical system.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 가상 영상과 실재 영상의 정합을 위한 시스루 광학 시스템은, 상기 실재 영상 중 일부인 제1 영상을 투과시키고 나머지 일부인 제2 영상의 광경로를 변경시키는 제1 반사부; 상기 제2 영상의 광경로를 재변경시키는 제2 반사부; 상기 제2 영상이 수집되는 영상수집부; 상기 제2 영상을 기초로 상기 가상 영상을 생성하고, 상기 가상 영상이 디스플레이 패널에서 출사되도록 하는 제어부; 상기 디스플레이 패널에서 출사된 가상 영상을 확대하기 위한 확대렌즈부; 및 상기 확대렌즈부를 통해 확대된 상기 가상 영상이 사용자의 망막에 결상되도록 하는 제3 반사부;를 포함하고, 상기 제어부는, 상기 제2 영상 이외에 사용자의 시선을 추적하여 추적된 시선을 기초로 상기 가상 영상을 생성한다.In order to achieve the above object, a see-through optical system for matching a virtual image and a real image according to an embodiment of the present invention transmits a first image, which is a part of the real image, and changes an optical path of a second image, which is a remaining part. a first reflector; a second reflector for re-changing the optical path of the second image; an image collecting unit in which the second image is collected; a controller that generates the virtual image based on the second image and emits the virtual image from a display panel; an enlargement lens unit for enlarging the virtual image emitted from the display panel; and a third reflector for allowing the virtual image magnified through the magnification lens to be formed on the user's retina, wherein the control unit tracks the user's gaze other than the second image, and based on the tracked gaze, the third reflector. create a virtual image

여기서, 상기 제1 반사부는, 사용자의 시선 영상 중 일부인 제3 영상을 투과시키고 나머지 일부인 제4 영상의 광경로를 변경시키며, 상기 제3 반사부와 제2 반사부는, 상기 제4 영상의 광경로를 재변경시켜 상기 시선 영상이 상기 영상수집부로 수집되도록 할 수 있다.Here, the first reflector transmits a third image, which is a part of the user's gaze image, and changes an optical path of a fourth image, which is a remaining part, and the third reflector and the second reflector are configured to transmit an optical path of the fourth image. By re-changing, the gaze image may be collected by the image collection unit.

여기서, 상기 제어부는, 상기 영상수집부에서 수집된 상기 시선 영상을 토대로 사용자의 시선을 추적하되, 상기 시선 영상에서 안구 내 동공의 좌표를 기반으로 사용자의 시선 방향을 추적할 수 있다.Here, the control unit may track the user's gaze based on the gaze image collected by the image collection unit, and track the user's gaze direction based on the coordinates of the pupil in the eyeball in the gaze image.

여기서, 상기 제어부는, 좌안용 영상수집부에서 수집된 좌안 시선 영상과 우안용 영상수집부에서 수집된 우안 시선 영상을 비교하여 안구 내 동공 간의 거리 차이를 분석하고, 안구 내 동공 간의 거리 차이를 기반으로 사용자의 주시각을 추적할 수 있다.Here, the control unit compares the left eye gaze image collected by the left eye image collection unit and the right eye gaze image collected by the right eye image collection unit, analyzes the difference in distance between the pupils in the eyeball, and based on the difference in distance between the pupils in the eyeball. It is possible to track the user's time of day.

여기서, 상기 제어부는, 상기 추적된 시선 방향과 상기 추적된 주시각을 토대로 사용자가 응시하는 피사체를 확정하고, 상기 디스플레이 패널을 제어하여 상기 확정된 피사체에 대응되는 가상 영상이 상기 디스플레이 패널에서 표시되도록 할 수 있다.Here, the controller determines a subject that the user gazes at based on the tracked gaze direction and the tracked visual angle, and controls the display panel to display a virtual image corresponding to the determined subject on the display panel. can do.

그리고, 상기 제어부는, 상기 추적된 시선 방향과 상기 추적된 주시각을 토대로 힌지부를 제어하고, 상기 힌지부는, 상기 제어부의 제어에 따라 이동하여, 상기 시스루 광학 시스템이 회전운동됨과 동시에 병진운동되도록 함으로써, 상기 시스루 광학 시스템이 사용자의 시선 방향 상에 위치하도록 할 수 있다.The control unit controls the hinge unit based on the tracked gaze direction and the tracked visual angle, and the hinge unit moves under the control of the control unit so that the see-through optical system rotates and translates at the same time. , the see-through optical system may be located in the direction of the user's line of sight.

또한, 상기 제1 반사부, 상기 제2 반사부 및 상기 제3 반사부는, 상기 제2의 영상의 광경로를 변경시켜 상기 영상수집부로 전달하는 역할과, 상기 제4 영상의 광경로를 변경시켜 상기 영상수집부로 전달하는 역할을 함께 수행할 수 있다.In addition, the first reflector, the second reflector, and the third reflector change the optical path of the second image and transmit the image to the image collection unit, and change the optical path of the fourth image. It can also perform a role of transmitting to the image collection unit.

그리고, 상기 영상수집부는, 기설정된 샘플 시선 영상을 기반으로 수신된 영상에서 상기 제4 영상을 분리추출하고, 수신된 영상에서 상기 제4 영상 부분을 제외하여 상기 제2 영상을 추출할 수 있다.The image collection unit may separate and extract the fourth image from the received image based on a preset sample gaze image, and extract the second image by excluding the fourth image portion from the received image.

또한, 상기 시스루 광학 시스템은, 헤드마운트 디스플레이 장치에 장착되어, 의료용으로 사용될 수 있다.In addition, the see-through optical system may be mounted on a head-mounted display device and used for medical purposes.

한편, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 가상 영상과 실재 영상의 정합을 위한 시스루 광학 시스템에서의 시선 추적 방법은, 상기 실재 영상 중 일부인 제1 영상을 투과시키고 나머지 일부인 제2 영상의 광경로를 변경시키는 단계; 상기 제2 영상의 광경로를 재변경시키는 단계; 상기 제2 영상을 수집하는 단계; 상기 제2 영상을 기초로 상기 가상 영상을 생성하는 단계; 상기 가상 영상이 디스플레이 패널에서 출사되도록 하는 단계; 상기 출사된 가상 영상을 확대하는 단계; 및 상기 확대된 가상 영상이 사용자의 망막에 결상되도록 상기 가상 영상의 경로를 변경하는 단계;를 포함하고, 상기 가상 영상을 생성하는 단계는, 상기 제2 영상 이외에 사용자의 시선을 추적하여 추적된 시선을 기초로 상기 가상 영상을 생성할 수 있다.On the other hand, in order to achieve the above object, according to an embodiment of the present invention, a gaze tracking method in a see-through optical system for matching a virtual image and a real image transmits a first image, which is a part of the real image, and a second image, which is a remaining part. changing an optical path of an image; re-changing the optical path of the second image; collecting the second image; generating the virtual image based on the second image; allowing the virtual image to be emitted from a display panel; enlarging the projected virtual image; and changing a path of the virtual image so that the enlarged virtual image is formed on the user's retina, wherein the generating of the virtual image includes tracking the user's gaze other than the second image, and tracking the tracked gaze. The virtual image may be generated based on.

이에 의해, 가상 영상의 화상광이 사용자의 망막에 결상되도록 하는 역할을 하는 구성과 사용자의 시선 영상의 화상광이 수집되도록 하는 역할을 하는 구성을 별도로 마련할 필요가 없음은 물론 카메라를 별도로 장착하지 않고 시스루 광학 시스템내에서 일체화되도록 구조적인 설계가 가능하도록 함으로써, 중복적인 부품의 통합화를 통해 무게를 경감시키고 편의성을 증대시키며 제품의 신뢰성이 변질되지 않도록 할 수 있게 된다.As a result, it is not necessary to separately prepare a component that serves to form the image light of the virtual image on the retina of the user and a component that serves to collect the image light of the user's line of sight image. By enabling the structural design to be integrated in the see-through optical system without any problems, it is possible to reduce weight, increase convenience, and prevent product reliability from being altered through the integration of redundant parts.

도 1은 본 발명의 일 실시예에 따른 근안 영상 표시 장치의 일 예를 도시한 도면이다.
도 2는 본 발명의 근안 영상 표시 장치의 저면에서 확인되는 시스루 광학 시스템을 도시한 도면이다.
도 3은 시스루 광학 시스템의 내부 구성을 설명하기 위해 제공되는 도면이다.
도 4는 시스루 광학 시스템을 통해 시선 영상이 영상수집부로 수집되는 과정을 설명하기 위해 제공되는 도면이다
도 5는 시선이 변경되기 전 상태에서의 주시각과 IPD를 설명하기 위해 제공되는 도면이다.
도 6은 시선이 변경된 후 상태에서의 주시각과 IPD를 설명하기 위해 제공되는 도면이다.
도 7은 시선이 변경됨에 따라 시스루 광학 시스템이 이동되는 모습을 도시한 도면이다.
도 8은 시선이 변경됨에 따라 시스루 광학 시스템이 이동되도록 하기 위한 구조를 설명하기 위해 제공되는 도면이다.
도 9는 본 발명의 일 실시예에 따른 시스루 광학 시스템에서의 시선 추적 방법을 설명하기 위해 제공되는 흐름도이다.
1 is a diagram illustrating an example of a near eye image display device according to an embodiment of the present invention.
2 is a view showing a see-through optical system found on the bottom of the near-eye image display device of the present invention.
3 is a diagram provided to explain the internal configuration of a see-through optical system.
4 is a diagram provided to explain a process in which gaze images are collected by an image collection unit through a see-through optical system.
5 is a diagram provided to explain the vergence angle and the IPD in a state before the gaze is changed.
6 is a diagram provided to explain the vergence angle and the IPD in a state after the gaze is changed.
7 is a diagram illustrating a state in which a see-through optical system is moved as a line of sight is changed.
8 is a view provided to explain a structure for allowing a see-through optical system to move as a line of sight is changed.
9 is a flowchart provided to explain a gaze tracking method in a see-through optical system according to an embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명에 대해 보다 상세히 설명하기로 한다.Hereinafter, the present invention will be described in more detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 근안 영상 표시 장치의 일 예를 도시한 도면이고, 도 2는 본 발명의 근안 영상 표시 장치의 저면에서 확인되는 시스루 광학 시스템을 도시한 도면이다. FIG. 1 is a diagram showing an example of a near eye image display device according to an embodiment of the present invention, and FIG. 2 is a diagram showing a see-through optical system viewed from the bottom of the near eye image display device of the present invention.

도 1 및 도 2에서는 근안 영상 표시 장치의 일 예로서 헤드마운트 디스플레이 장치가 도시되고 있으며, 이와 같은 헤드마운트 디스플레이 장치의 경우 사용자가 두부에 장착함으로써 헤드마운트 디스플레이 장치 내부의 시스루 광학 시스템을 통해 실재 영상 및 가상 영상이 사용자에게 제공되게 된다. 1 and 2 show a head-mounted display device as an example of a near-eye image display device. In the case of such a head-mounted display device, a real image is displayed through a see-through optical system inside the head-mounted display device by being mounted on the head by a user. And the virtual image is provided to the user.

도 2에서 도시된 바와 같이 헤드마운트 디스플레이 장치의 저면을 통해서는 시스루 광학 시스템(100)이 사용자의 양안 앞쪽에 위치할 수 있도록 설계되어 있는 모습을 확인할 수 있고, 시스루 광학 시스템(100)은 좌안과 우안에 각각 마련(100-1, 100-2)되게 된다.As shown in FIG. 2, it can be seen through the lower surface of the head mounted display device that the see-through optical system 100 is designed to be positioned in front of both eyes of the user, and the see-through optical system 100 is The right eye is provided (100-1, 100-2), respectively.

도 3은 시스루 광학 시스템(100)의 내부 구성을 설명하기 위해 제공되는 도면이다.FIG. 3 is a diagram provided to explain the internal configuration of the see-through optical system 100. Referring to FIG.

본 발명의 일 실시예에 따른 시스루 광학 시스템(100)은, 가상 영상을 생성하여 사용자가 주시하는 실재 영상과 생성된 가상 영상이 정합되도록 하는 장치를 의미한다.The see-through optical system 100 according to an embodiment of the present invention refers to a device that generates a virtual image so that a real image viewed by a user and the generated virtual image are matched.

본 실시예에 따른 시스루 광학 시스템(100)은, 사용자의 시야를 차단하지 않도록하여 사용자가 주시하는 전방의 물체(S : 피사체)들이 관찰될 수 있도록 하고, 관찰된 물체(S : 피사체)에 관련된 가상 영상을 생성하여 출사시킴으로써 사용자에게 증강현실을 제공할 수 있게 된다. The see-through optical system 100 according to the present embodiment does not block the user's field of view so that the front object (S: subject) that the user is focusing on can be observed, and related to the observed object (S: subject) By generating and outputting a virtual image, it is possible to provide augmented reality to the user.

이를 위한 본 실시예에 따른 시스루 광학 시스템(100)은, 제1 반사부(110), 제2반사부(120), 영상수집부(130), 제어부(140), 디스플레이 패널(150), 확대렌즈부(160), 제3 반사부(170) 및 편광필름(180)으로 구성된다. For this purpose, the see-through optical system 100 according to the present embodiment includes a first reflector 110, a second reflector 120, an image collector 130, a controller 140, a display panel 150, an enlargement It is composed of a lens unit 160, a third reflector 170, and a polarizing film 180.

제1 반사부(110)는 기설정된 투과율을 지닌 유리 소재 또는 플라스틱 소재로 형성된 다면체로, 제1 반사부(110)로 입사되는 실재 영상의 화상광이 일부 투과되거나 일부 반사되도록 한다. 이에 따라 전방의 물체(S : 피사체)에 대한 화상광은 제1 반사부(110)를 투과하여 사용자의 망막에 결상되게 된다.The first reflector 110 is a polyhedron formed of a glass material or a plastic material having a predetermined transmittance, and partially transmits or partially reflects image light of a real image incident to the first reflector 110 . Accordingly, the image light of the object (S: subject) in the front passes through the first reflector 110 and forms an image on the user's retina.

특히, 이러한 제1 반사부(110)의 경사진 면에서 일부 광은 투과되고 일부 광은 반사되게 되는데, 이러한 부분 투과 및 부분 반사가 가능하도록 하기 위해, 경사진 면에는 통과되는 영상 정보의 구별이나 시인성 개선을 위하여 적절한 필터(대역통과필터, 편광필터)가 마련될 수 있다.In particular, some light is transmitted and some light is reflected on the inclined surface of the first reflector 110. In order to enable such partial transmission and partial reflection, the inclined surface distinguishes or Appropriate filters (band pass filter, polarization filter) may be provided to improve visibility.

제2 반사부(120)는, 제1 반사부(110)와 마찬가지로 기설정된 투과율을 지닌 유리 소재 또는 플라스틱 소재로 형성되며, 제1 반사부(110)에서 반사되어 입사되는 실재 영상의 화상광이 일부 투과되거나 일부 반사되도록 한다. Like the first reflector 110, the second reflector 120 is formed of a glass material or a plastic material having a predetermined transmittance, and the image light of the real image reflected by the first reflector 110 and incident Partly transmitted or partly reflected.

즉, 제1 반사부(110)에서 반사되는 실재 영상의 화상광은 제2 반사부(120)에서 반사되어 영상수집부(130)로 전달되게 된다. That is, image light of a real image reflected by the first reflector 110 is reflected by the second reflector 120 and transmitted to the image collector 130 .

또한, 제2 반사부(120)는 제1 반사부(110)를 투과하여 입사되는 사용자의 시선 영상의 화상광도 제2 반사부(120)에서 반사되어 영상수집부(130)로 전달되게 된다.Also, in the second reflector 120 , image light of a user's gaze image incident through the first reflector 110 is reflected by the second reflector 120 and transmitted to the image collection unit 130 .

즉, 영상수집부(130)는 실재 영상의 화상광과 시선 영상의 화상광을 모두 수집할 수 있게 된다. 이러한 실재 영상의 화상광은 가상 영상의 콘텐츠를 선별하기 위해 사용되고, 시선 영상의 화상광은 실재 영상이 사용자의 시선 방향과 주시각에 따라 여러 개 발생할 경우 사용자의 시선 방향과 주시각에 맞는 물체에 대응되는 가상 영상의 콘텐츠가 제공될 수 있도록 하는 데 사용되게 된다.That is, the image collecting unit 130 can collect both the image light of the real image and the image light of the gaze image. The image light of the real image is used to select the contents of the virtual image, and the image light of the gaze image is generated by multiple real images according to the user's gaze direction and visual angle. It is used to enable the content of the corresponding virtual image to be provided.

이와 같이 함께 수집된 실재 영상의 화상광과 시선 영상의 화상광은 영상수집부(130) 의해 서로 구분/분리되어 사용되게 되는데, 특히 영상수집부(130)는 기설정된 샘플 시선 영상을 기반으로 수신된 영상에서 시선 영상만을 분리추출하고, 수신된 영상에서 분리추출된 시선 영상 부분이 제외되도록 함으로써 실재 영상의 화상광을 얻을 수 있게 된다.The image light of the real image and the image light of the line-of-sight image collected together in this way are used after being distinguished/separated from each other by the image collecting unit 130. In particular, the image collecting unit 130 receives based on a preset sample line-of-sight image. Image light of a real image can be obtained by separating and extracting only the gaze image from the received image and excluding the separately extracted gaze image portion from the received image.

특히, 이러한 제2 반사부(120)의 경사진 면에서 일부 광은 투과되고 일부 광은 반사되게 되는데, 이러한 부분 투과 및 부분 반사가 가능하도록 하기 위해, 경사진 면에는 통과되는 영상 정보의 구별이나 시인성 개선을 위하여 적절한 필터(대역통과필터, 편광필터)가 마련될 수 있다.In particular, some light is transmitted and some light is reflected on the inclined surface of the second reflector 120. In order to enable such partial transmission and partial reflection, the inclined surface distinguishes or Appropriate filters (band pass filter, polarization filter) may be provided to improve visibility.

영상수집부(130)는 카메라와 같은 영상 수집이 가능한 모듈로 구성되어, 전술한 바와 같이 실재 영상에 대한 정보와 사용자의 시선에 대한 정보를 수집하는 역할을 하게 된다. The image collection unit 130 is composed of a module capable of collecting images, such as a camera, and serves to collect information about real images and information about the user's gaze, as described above.

특히, 영상수집부(130)는 사용자의 시선에 대한 이미지가 제1 반사부(110)를 투과하고 제2 반사부(120)에서 반사되어 수신되면, 이와 같은 사용자의 시선에 대한 이미지를 통해, 단안을 기준으로 할 때 사용자의 안구에서 동공이 중심을 기준으로 어느 방향으로 치우쳐져 있는가, 즉, 시선의 방향을 판단하게 된다. In particular, when the image of the user's gaze passes through the first reflector 110 and is reflected and received by the second reflector 120, the image collection unit 130 transmits the image of the user's gaze through the image. When using a monocular as a reference, the direction of the pupil in the user's eyeball is biased with respect to the center, that is, the direction of the line of sight is determined.

예를 들어, 사용자가 하늘 방향을 보게 될 경우, 동공은 정북쪽 방향으로 치우치게 될 것이며, 영상수집부(130)는 정북쪽 방향으로 동공이 이동되었다는 정보를 수집함으로써 사용자의 시선의 방향을 추적하게 된다. For example, when the user looks in the direction of the sky, the pupil will be biased in the northward direction, and the image collection unit 130 tracks the direction of the user's gaze by collecting information indicating that the pupil has moved in the northward direction. do.

한편, 영상수집부(130)는 사용자의 시선에 대한 이미지를 통해, 양안을 기준으로 할 때 사용자의 양안의 동공 간의 거리가 얼마나 좁혀졌는가에 대해서도 판단하게 된다. Meanwhile, the image collection unit 130 also determines how narrowed the distance between the pupils of both eyes of the user is based on the image of the user's eyes.

예를 들어, 사용자의 동공 간의 거리가 더 좁혀질수록 주시각이 더 커져, 두 피사체가 오버랩된 상황에서 더 가까운 피사체를 주시하고 있다는 것에 대해서도 판단이 가능하게 되는 것이다. 이는 주시각에 대한 연산을 통해 둘 이상의 피사체가 오버랩된 경우에도 어떠한 피사체를 주시하는지 여부에 대한 판단이 가능하다.For example, as the distance between the user's pupils becomes narrower, the visual angle becomes larger, and it is possible to determine that the user is looking at a closer subject in a situation where two subjects overlap. Through calculation of the viewing angle, it is possible to determine which subject is being watched even when two or more subjects overlap.

이와 같이 영상수집부(130)는 시선의 방향과 주시각에 대해 판단이 가능하도록 하기 위한 시선에 대한 이미지를 수집하는 역할을 하게 된다.In this way, the image collecting unit 130 serves to collect images of the gaze so that the direction of the gaze and the visual angle can be determined.

제어부(140)는 영상수집부(130)로부터 전방의 물체에 대한 이미지를 실시간으로 수신하고 수신한 이미지를 기반으로 그 이미지에 대응되는 가상 영상을 생성하는 역할을 한다. The control unit 140 serves to receive an image of a front object from the image collection unit 130 in real time and to generate a virtual image corresponding to the image based on the received image.

또한, 제어부(140)는 영상수집부(130)로부터 사용자의 양안에 대한 이미지를 각각 실시간으로 수신하고 수신한 양안에 대한 이미지로부터 시선의 방향과 주시각에 대해 연산하며, 연산된 결과를 기반으로 사용자의 시선을 추적하고 해당 시선에 부합하는 가상 영상이 제공되도록 하는 역할을 한다. In addition, the control unit 140 receives images for both eyes of the user from the image collection unit 130 in real time, calculates the direction of gaze and visual angle from the received images for both eyes, and based on the calculated results It tracks the gaze of the user and serves to provide a virtual image matching the gaze.

그리고 제어부(140)는, 이상에서 생성된 가상 영상의 화상광이 디스플레이 패널(150)에서 출사되도록 가상 영상의 화상광을 디스플레이 패널(150)로 전송한다. Then, the control unit 140 transmits the image light of the virtual image to the display panel 150 so that the image light of the virtual image generated above is emitted from the display panel 150 .

디스플레이 패널(150)은, 제어부(140)로부터 가상 영상의 화상광을 수신하여 출사하기 위해 사용되며, LCD(Liquid Crystal Display), OLED(Organic Light Emitiing Diodes), LCoS(Liquid Crystal on Disply) 등과 같은 다양한 장치 또는 소자로 구현될 수 있다. The display panel 150 is used to receive and emit image light of a virtual image from the controller 140, such as a liquid crystal display (LCD), organic light emitting diodes (OLED), liquid crystal on display (LCoS), and the like. It may be implemented in various devices or elements.

확대렌즈부(160)는 작은 사이즈의 디스플레이 패널(150)에서 출사되는 가상 영상의 화상광을 확대하기 위한 목적으로 사용된다. The magnifying lens unit 160 is used for the purpose of magnifying image light of a virtual image emitted from the small-sized display panel 150 .

디스플레이 패널(150)이 작은 사이즈로 마련될 경우, 디스플레이 패널(150)에서 출사되는 가상 영상의 화상광은 사용자가 주시하는 실재 영상의 화상광보다 크기가 작게 된다. When the display panel 150 is provided in a small size, image light of a virtual image emitted from the display panel 150 is smaller in size than image light of a real image viewed by a user.

따라서, 출사된 가상 영상의 화상광이, 기설정된 화각으로 확대되어 사용자에게 제공될 수 있도록 확대렌즈부(160)가 마련된다. Therefore, the magnification lens unit 160 is provided so that the image light of the emitted virtual image is magnified to a preset angle of view and provided to the user.

이를 위해 확대렌즈부(160)는, 도시된 바와 같이, 둘 이상의 렌즈군으로 형성될 수 있으며, 렌즈군을 형성하는 각 렌즈는 단면 오목렌즈, 단면 볼록렌즈, 양면 오목렌즈, 양면 볼록렌즈 등으로 이루어 질 수 있다. To this end, the magnifying lens unit 160, as shown, may be formed of two or more lens groups, and each lens forming the lens group is a single-sided concave lens, single-sided convex lens, double-sided concave lens, double-convex lens, or the like. It can be done.

확대렌즈부(160)에서 확대된 가상 영상의 화상광은 제3 반사부로 입사되게 된다. The image light of the virtual image magnified by the magnification lens unit 160 is incident to the third reflector.

제3 반사부(170)는 기설정된 반사율을 가진 유리 소재 또는 플라스틱 소재로 형성되며, 디스플레이 패널(150)에서 출사되어 확대렌즈부(160)를 경유한 후 제3 반사부(170)로 입사되는 모든 가상 영상의 화상광이 기설정된 경로를 따라 반사되도록 한다. The third reflector 170 is formed of a glass material or plastic material having a preset reflectance, and the light emitted from the display panel 150 passes through the magnifying lens unit 160 and then enters the third reflector 170. Image light of all virtual images is reflected along a predetermined path.

제3 반사부(170)에서 반사된 가상 영상의 화상광은 제1 반사부(110)에서 재반사되어 사용자의 망막에 결상하게 된다. The image light of the virtual image reflected by the third reflector 170 is re-reflected by the first reflector 110 to form an image on the user's retina.

편광 필름(180)은 광원으로부터 조사된 빛이 영상수집부(130)로 입사되는 것을 방지하기 위한 목적으로 사용되고, 이를 위해 편광 필름(180)은 광원(미도시)의 전면, 영상수집부(130)의 전면, 그리고, 제2 반사부(120) 및 확대렌즈부(160) 사이 등에 위치할 수 있다.The polarizing film 180 is used for the purpose of preventing light irradiated from a light source from entering the image collecting unit 130, and for this purpose, the polarizing film 180 is applied to the front surface of the light source (not shown), the image collecting unit 130 ), and between the second reflector 120 and the magnifying lens unit 160.

이 때, 광원(미도시)으로부터 조사되는 빛이 영상수집부(130)로 입사되는 것을 방지하기 위해, 광원(미도시)의 전면에 마련된 편광 필름(180)과 영상수집부(130)의 전면에 마련되는 편광 필름(180)은 서로 다른 종류의 편광 성분을 흡수하도록 구현된다. At this time, in order to prevent the light irradiated from the light source (not shown) from entering the image collecting unit 130, the polarizing film 180 and the front surface of the image collecting unit 130 are provided on the front of the light source (not shown). The polarization film 180 provided on is implemented to absorb different types of polarization components.

구체적으로, 어느 하나가 P파 편광필름일 경우 다른 하나는 S파 편광필름이거나, 혹은 그 역일 수 있다.Specifically, when one is a P-wave polarizing film, the other may be an S-wave polarizing film, or vice versa.

도 4는 시스루 광학 시스템(100)을 통해 시선 영상이 영상수집부(130)로 수집되는 과정을 설명하기 위해 제공되는 도면이다4 is a diagram provided to explain a process in which gaze images are collected by the image collecting unit 130 through the see-through optical system 100.

제1 반사부(110)는 전술한 바와 같이 기설정된 투과율을 지닌 유리 또는 플라스틱 재질로 소재로 형성된다. 이때, 기설정된 투과율이란, 제1 반사부(110)로 입사되는 화상광이 일부 투과되거나 일부 반사되도록 하기 위한 50%의 광반사율이고, 제1 반사부(110)는 50%의 광반사율을 가지도록 표면처리된다. As described above, the first reflector 110 is formed of a glass or plastic material having a predetermined transmittance. At this time, the predetermined transmittance is a light reflectance of 50% for partially transmitting or partially reflecting image light incident to the first reflector 110, and the first reflector 110 has a light reflectance of 50%. surface treatment.

이러한 제1 반사부(110)는 전방의 물체(피사체 : S)에 대한 실재 영상이 사용자의 망막으로 제공되기 위해 기설정된 투과율을 가지지만, 투과율의 역으로 반사율도 가지게 된다. The first reflector 110 has a preset transmittance so that a real image of a front object (subject: S) is provided to the user's retina, but also has a reflectance reverse to the transmittance.

이러한 반사율과 투과율의 조합에 따라 시선 영상의 화상광은 제1 반사부(110)에서 반사되어 R10의 경로를 따라 제3 반사부(170)로 이동되고 다시 제3 반사부(170)에서 반사되어 R10의 경로를 역으로 이동하며 제1 반사부(110)에서 투과되어 R20의 경로를 따라 확대렌즈부(160)로 이동되게 된다.Depending on the combination of reflectance and transmittance, the image light of the line of sight image is reflected from the first reflector 110, moves to the third reflector 170 along the path of R10, and is reflected from the third reflector 170 again. It travels the path of R10 in reverse and is transmitted through the first reflector 110 and moves to the magnifying lens unit 160 along the path of R20.

이후, 사용자의 시선 영상의 화상광은 제2 반사부(120)에서 반사되어 영상수집부(130)로 전달되게 된다. Thereafter, the image light of the user's line of sight image is reflected by the second reflector 120 and transmitted to the image collection unit 130 .

이와 같은 과정을 통해 영상수집부(130)는 수집된 영상 내에서 동공의 위치를 파악하여 사용자의 시선의 방향을 파악할 수 있게 된다. Through this process, the image collection unit 130 can determine the direction of the user's gaze by determining the location of the pupil in the collected image.

또한, 시스루 광학 시스템(100)은 양안에 각각 마련되므로, 각각의 시스루 광학 시스템(100)에 마련된 영상수집부(130)에서 수집된 좌안 시선 영상에 대한 정보와 우안 시선 영상에 대한 정보를 취합하여 사용자의 주시각을 산출할 수 있게 된다.In addition, since the see-through optical system 100 is provided for both eyes, information on the left eye gaze image and information on the right eye gaze image collected from the image collection unit 130 provided in each see-through optical system 100 are collected to obtain It is possible to calculate the user's visual angle.

영상수집부(130)는 이상에서 도달된 좌안 시선 영상의 화상광과 우안 시선 영상의 화상광을 제어부(140)로 전송한다. 구체적으로, 좌안용 영상수집부(130-1)는 좌안 시선 영상을 수집하여 제어부(140)로 전송하고 우안용 영상수집부(130-2)는 우안 시선 영상을 수집하여 제어부(140)로 전송하는 것이다.The image collection unit 130 transmits the image light of the left eye gaze image and the image light of the right eye gaze image reached above to the controller 140 . Specifically, the left eye image collection unit 130-1 collects the left eye gaze images and transmits them to the controller 140, and the right eye image collection unit 130-2 collects the right eye gaze images and transmits them to the controller 140. is to do

제어부(140)는 영상수집부(130)로부터 수신한 좌안 시선 영상과 우안 시선 영상을 기초로 하여 사용자에게 제공할 가상 영상을 생성하게 된다. 물론, 제어부(140)는 영상수집부(130)로부터 수신한 실재 영상을 기반으로 하게 된다. 즉, 실재 영상 내에서 어떠한 시선 방향에 어떠한 주시각에 위치한 물체가 실제로 사용자가 주시한 피사체인지 판단하여 그 피사체에 대응되는 가상 영상을 생성하게 되는 것이다.The controller 140 generates a virtual image to be provided to the user based on the left eye gaze image and the right eye gaze image received from the image collection unit 130 . Of course, the control unit 140 is based on the real image received from the image collection unit 130. That is, a virtual image corresponding to the subject is generated by determining whether an object located at a certain viewing angle in a real image is a subject actually observed by the user.

이후, 제어부(140)는 생성된 가상 영상을 디스플레이 패널(150)로 전송하게 된다. Then, the controller 140 transmits the generated virtual image to the display panel 150 .

디스플레이 패널(150)은 제어부(140)로부터 수신한 가상 영상의 화상광이 사용자에게 도달될 수 있도록 가상 영상의 화상광을 출사하게 된다. The display panel 150 emits image light of the virtual image so that the image light of the virtual image received from the controller 140 can reach the user.

출사된 화상광은, 제2 반사부(120)에서 일부 투과되어 확대렌즈부(160)를 통과하게 되며, 확대렌즈부(160)를 통과하면서 기설정된 화각으로 확대되게 되는데, 이를 통해, 전술한 바와 같이, 디스플레이 패널(150)에서 작은 사이즈로 출사되는 가상 영상의 화상광이 사용자가 주시하는 실재 영상의 화상광 사이즈와 동일하게 구현될 수 있다. The emitted image light is partially transmitted from the second reflector 120 and passes through the magnifying lens unit 160, and is magnified to a preset angle of view while passing through the magnifying lens unit 160. Through this, as described above, As described above, image light of a virtual image emitted in a small size from the display panel 150 may be realized to have the same size as image light of a real image viewed by a user.

이상에서 확대된 가상 영상의 화상광은 제1 반사부(110)를 통과하여 제3 반사부(170)에 도달하게 된다. The image light of the enlarged virtual image passes through the first reflector 110 and reaches the third reflector 170 .

제3 반사부(170)는, 100%의 광반사율을 가진 집광렌즈이므로, 제1 반사부(110)를 통과하여 도달된 가상 영상의 화상광을 기설정된 화각으로 제1 반사부(110)로 재반사시키게 된다. Since the third reflector 170 is a condensing lens having a light reflectance of 100%, the image light of the virtual image that has passed through the first reflector 110 is transmitted to the first reflector 110 at a preset angle of view. will reflect again.

그리고, 제1 반사부(110)로 재반사된 가상 영상의 화상광은, 제1 반사부(100)에서 사용자의 망막을 향하여 다시 한번 반사되어 최종적으로 사용자의 망막에 결상되게 된다. Then, the image light of the virtual image reflected back to the first reflector 110 is reflected once again toward the user's retina from the first reflector 100, and finally forms an image on the user's retina.

이와 같이 제1 반사부(110), 제2 반사부(120) 및 제3 반사부(170)는 가상 영상의 화상광이 사용자의 망막에 결상되도록 하는 역할을 함은 물론, 사용자의 시선 영상의 화상광이 영상수집부(130)에 수집되도록 하는 역할을 병행하게 되며, 카메라를 별도로 장착하지 않고 시스루 광학 시스템(100)내에서 일체화되도록 구조적인 설계가 가능하도록 함으로써, 중복적인 부품의 통합화를 통해 무게를 경감시키고 편의성을 증대시키며 제품의 신뢰성이 변질되지 않도록 할 수 있게 된다.In this way, the first reflector 110, the second reflector 120, and the third reflector 170 not only serve to form image light of the virtual image on the user's retina, but also provide a visual image of the user. It serves to collect image light in the image collecting unit 130 in parallel, and allows structural design to be integrated within the see-through optical system 100 without separately mounting a camera, thereby integrating redundant parts. It is possible to reduce weight, increase convenience, and prevent product reliability from being altered.

즉, 카메라를 별도로 장착하여 사용자의 시선을 추적하게 될 경우, 사용자의 시선 전방은 피사체에 대한 주시를 위해 항시 투과될 수 있는 상태를 마련해줘야 하기 때문에, 광경로 변경을 위해 여러 구성들이 수반될 수 밖에 없고, 이러한 구성들은 사용자의 시선을 추적하지 않는 일반적인 시스루 광학 시스템에서도 사용될 수 밖에 없게 되는데, 시스루 광학 시스템 방식에서의 가상 영상을 제공하기 위한 구성들과 시선을 추적하기 위한 구성들을 일원화함으로써, 별도로 마련하는 경우에 비해 오히려 더 최적화된 설계가 가능해지고 무게/편의성/신뢰성의 향상도 도모가 가능하게 된다.That is, when a camera is mounted separately to track the user's gaze, since the front of the user's gaze must always be transparent in order to gaze at the subject, various configurations can be accompanied to change the optical path. There is no choice but to use these configurations in a general see-through optical system that does not track the user's gaze. By unifying the configurations for providing virtual images in the see-through optical system and the configurations for tracking gaze, Rather, a more optimized design is possible compared to the case of preparing, and it is possible to improve weight/convenience/reliability.

한편, 시스루 광학 시스템에 사용되는 이상의 구성들은 사용자의 시선에 따라 변경되어야 하며, 기존에는 사용자가 직접 시스루 광학 시스템 간의 거리를 조정하는 등의 방식을 사용하였다. On the other hand, the above configurations used in the see-through optical system must be changed according to the user's line of sight, and in the past, a method such as a user directly adjusting the distance between the see-through optical systems has been used.

이하에서는 사용자의 망막에 가상 영상이 결상될 때, 추적된 시선에 대한 정보를 기반으로, 시스루 광학 시스템이 자동으로 조절되어 가상 영상이 보다 정확하고 효과적으로 전달되도록 하기 위한 방안에 대해 설명하기로 한다. Hereinafter, when a virtual image is formed on the user's retina, a method for more accurately and effectively delivering a virtual image by automatically adjusting a see-through optical system based on information on the tracked gaze will be described.

도 5는 시선이 변경되기 전 상태에서의 주시각과 IPD를 설명하기 위해 제공되는 도면이고, 도 6은 시선이 변경된 후 상태에서의 주시각과 IPD를 설명하기 위해 제공되는 도면이며, 도 7은 시선이 변경됨에 따라 시스루 광학 시스템이 이동되는 모습을 도시한 도면이고, 도 8은 시선이 변경됨에 따라 시스루 광학 시스템이 이동되도록 하기 위한 구조를 설명하기 위해 제공되는 도면이다.5 is a diagram provided to explain the vergence angle and IPD in a state before the gaze is changed, and FIG. 6 is a diagram provided to explain the vergence angle and IPD in a state after the gaze is changed. This is a view showing how the see-through optical system moves as the line of sight changes, and FIG. 8 is a view provided to explain a structure for moving the see-through optical system as the line of sight changes.

사용자의 시선이 피사체(S)를 주시할 때, 주시각이 θ1°일 경우, 좌안용 시스루 광학 시스템(100-1)과 우안용 시스루 광학 시스템(100-2) 간의 각도는 180-θ1°인 θ2°가 된다. 이 때 사용자의 동공 사이 거리인 IPD(Inter Pupillary Distance)가 d1이 될 때, 사용자의 양안과 피사체(S)와의 거리는 d1에 비례하는 d2가 되게 된다. When the user's gaze gazes at the subject S, when the viewing angle is θ1 °, the angle between the see-through optical system 100-1 for the left eye and the see-through optical system 100-2 for the right eye is 180-θ1 ° becomes θ2°. At this time, when the inter pupillary distance (IPD) of the user is d1, the distance between both eyes of the user and the subject S is d2 proportional to d1.

이와 같은 상황에서 사용자의 시선이 더 가까운 피사체로 옮겨질 경우, 사용자의 동공은 서로 더 모아지게 되고, 이에 따라 도 6과 같이 IPD는 d3로 더 줄어들게 된다. In this situation, when the user's gaze moves to a closer subject, the user's pupils are more converged, and accordingly, the IPD is further reduced to d3 as shown in FIG. 6 .

즉, 피사체까지의 거리가 d4로 줄어들면서 그에 대응되도록 IPD도 d3로 줄어들게 되는 것이다. 이와 같이 IPD와 피사체까지의 거리가 줄어들게 되었다는 것은, 다시 말해 주시각이 θ3°로 커졌다는 것을 의미하며, 그에 맞게 좌안용 시스루 광학 시스템(100-1)과 우안용 시스루 광학 시스템(100-2) 간의 각도도 180-θ3°로 변경해주어야 함을 의미한다. That is, as the distance to the subject decreases to d4, the IPD also decreases to d3 correspondingly. The decrease in the distance between the IPD and the subject in this way means that the viewing angle has increased to θ3 °, and accordingly, the see-through optical system for the left eye (100-1) and the see-through optical system for the right eye (100-2) This means that the angle of the liver should also be changed to 180-θ3°.

즉, 좌안용 시스루 광학 시스템(100-1)과 우안용 시스루 광학 시스템(100-2) 간의 각도인 θ4°는 사용자의 시선이 더 가까운 피사체로 옮겨질 경우 더 줄어들게 된다. That is, the angle θ4° between the see-through optical system 100-1 for the left eye and the see-through optical system 100-2 for the right eye further decreases when the user's gaze moves to a closer subject.

이처럼 좌안용 시스루 광학 시스템(100-1)과 우안용 시스루 광학 시스템(100-2) 간의 각도가 줄어들도록 하기 위해서는 도 6 및 도 7에 도시된 것처럼 좌안용 시스루 광학 시스템(100-1)과 우안용 시스루 광학 시스템(100-2)을 서로 반대방향으로 회전시켜줘야 한다. In this way, in order to reduce the angle between the see-through optical system 100-1 for the left eye and the see-through optical system 100-2 for the right eye, the see-through optical system 100-1 for the left eye and the see-through optical system 100-1 for the right eye are It is necessary to rotate the see-through optical system 100-2 in opposite directions to each other.

즉, 영상수집부(130)는 좌안용 시스루 광학 시스템(100-1)과 우안용 시스루 광학 시스템(100-2)을 통해 사용자의 시선을 추적함으로써 사용자의 시선 방향과 함께 사용자의 주시각을 판단하고, 판단된 주시각에 따라 좌안용 시스루 광학 시스템(100-1)과 우안용 시스루 광학 시스템(100-2)을 회전시킴으로써, 좌안과 우안으로 사용자가 주시하는 방향에 맞춰주게 되는 것이다. That is, the image collection unit 130 tracks the user's gaze through the see-through optical system 100-1 for the left eye and the see-through optical system 100-2 for the right eye, thereby determining the user's visual angle along with the direction of the user's gaze. And, by rotating the see-through optical system 100-1 for the left eye and the see-through optical system 100-2 for the right eye according to the determined viewing angle, the user's left and right eyes are adjusted to the direction in which the user gazes.

이 때, 단순히 좌안용 시스루 광학 시스템(100-1)과 우안용 시스루 광학 시스템(100-2)의 중심을 기준으로 한 회전을 통해서는 사용자의 양안이 주시하는 방향에 수직으로 좌안용 시스루 광학 시스템(100-1)과 우안용 시스루 광학 시스템(100-2)이 위치하도록 할 수 없게 된다. At this time, simply by rotating the see-through optical system for the left eye 100-1 and the see-through optical system for the right eye 100-2 based on the center, the see-through optical system for the left eye is perpendicular to the direction in which both eyes of the user gaze. 100-1 and the see-through optical system 100-2 for the right eye cannot be positioned.

즉, 사용자가 더 가까운 피사체를 주시함으로써 주시각이 커지게 되면, 좌안용 시스루 광학 시스템(100-1)과 우안용 시스루 광학 시스템(100-2)은 서로 반대방향으로 회전함과 동시에 서로 더 모아져야만 사용자의 양안과 피사체 간의 직선거리 상에 좌안용 시스루 광학 시스템(100-1)과 우안용 시스루 광학 시스템(100-2)이 위치할 수 있게 되는 것이다. That is, when the viewing angle increases as the user looks at a closer subject, the see-through optical system 100-1 for the left eye and the see-through optical system 100-2 for the right eye rotate in opposite directions and at the same time gather each other more. Only then can the see-through optical system 100-1 for the left eye and the see-through optical system 100-2 for the right eye be positioned on a straight line distance between both eyes of the user and the subject.

이를 위해, 도 8에 도시된 바와 같이 좌안용 시스루 광학 시스템(100-1)과 우안용 시스루 광학 시스템(100-2)은 중앙에 힌지부(190)를 통해 서로 연결되어 있으며, 힌지부(190)가 좌우로 움직임에 따라 좌안용 시스루 광학 시스템(100-1)과 우안용 시스루 광학 시스템(100-2)이 회전과 동시에 서로 가까워졌다 멀어지는 것이 가능하게 된다. To this end, as shown in FIG. 8 , the see-through optical system 100-1 for the left eye and the see-through optical system 100-2 for the right eye are connected to each other through a hinge part 190 at the center, and the hinge part 190 ) moves left and right, it is possible for the see-through optical system 100-1 for the left eye and the see-through optical system 100-2 for the right eye to move closer to and then move away from each other simultaneously with rotation.

즉, 제어부(140)는 사용자의 양안에 대한 정보를 수신하여 사용자의 주시각을 판단하고 해당 주시각에 맞게 힌지부(190)가 동작하도록 힌지부(190)를 제어함으로써, 비로소 좌안용 시스루 광학 시스템(100-1)과 우안용 시스루 광학 시스템(100-2)가 제어되도록 할 수 있게 되는 것이다. That is, the control unit 140 receives information about the user's both eyes, determines the user's visual angle, and controls the hinge unit 190 to operate according to the visual angle, thereby obtaining see-through optical for the left eye. The system 100-1 and the see-through optical system 100-2 for the right eye can be controlled.

도 9는 본 발명의 일 실시예에 따른 가상 영상과 실재 영상의 정합을 위한 시스루 광학 시스템에서의 시선 추적 방법을 설명하기 위한 흐름도이다.9 is a flowchart for explaining a gaze tracking method in a see-through optical system for matching a virtual image and a real image according to an embodiment of the present invention.

우선, 사용자의 시선을 추적하여 그에 부합하는 가상 영상을 제공하기 위해, 실재 영상 중 일부인 제1 영상을 투과시키고 나머지 일부인 제2 영상의 광경로를 변경시키게 된다. First, in order to track the user's gaze and provide a virtual image corresponding to the user's gaze, the first image, which is part of the real image, is transmitted, and the optical path of the second image, which is the remaining part, is changed.

이후, 제2 영상의 광경로를 재변경시키면 이러한 제2 영상을 영상수집부로 전달되게 되고, 제어부는 영상수집부에서 수집된 제2 영상과 영상수집부에서 수집된 사용자의 시선 영상을 토대로 사용자의 시선을 추적한 뒤 사용자의 시선에 부합하는 실재 영상에 대응되는 가상 영상을 생성하게 된다.Then, when the optical path of the second image is changed again, the second image is transmitted to the image collection unit, and the control unit controls the user's gaze based on the second image collected by the image collection unit and the user's gaze image collected by the image collection unit. After tracking the gaze of the user, a virtual image corresponding to the real image matching the gaze of the user is created.

또한, 제어부는 가상 영상이 디스플레이 패널에서 출사되도록 하여 확대렌즈부를 통해 확대된 가상 영상이 사용자의 망막에 결상되도록 가상 영상의 경로를 변경하게 된다.In addition, the controller changes the path of the virtual image so that the virtual image is projected from the display panel so that the virtual image magnified through the magnifying lens unit is formed on the user's retina.

이러한 가상 영상과 실재 영상의 정합을 위한 시스루 광학 시스템과, 시스루 광학 시스템에서의 시선 추적 방법은, 다양한 분야에서 활용가능하며, 특히, 의료 수술과 같이 고도의 집중력을 요하는 경우에 사용될 수 있으며, 의료용으로 사용하는 경우에 음직임이 최소화되도록 사용자의 두부에 착용하는 헤드마운트 디스플레이 형식으로 사용될 수 있을 것이다.Such a see-through optical system for matching a real image with a virtual image and a gaze tracking method in the see-through optical system can be used in various fields, and can be used in cases where high concentration is required, such as in medical surgery, When used for medical purposes, it may be used in the form of a head-mounted display worn on the user's head to minimize movement.

이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다. Although the preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the specific embodiments described above, and is common in the art to which the present invention pertains without departing from the gist of the present invention claimed in the claims. Of course, various modifications are possible by those who have knowledge of, and these modifications should not be individually understood from the technical spirit or prospect of the present invention.

100 : 시스루 광학 시스템
100-1 : 좌안용 시스루 광학 시스템
100-2 : 우안용 시스루 광학 시스템
110 : 제1 반사부 120 : 제2 반사부
130 : 영상수집부 140 : 제어부
150 : 디스플레이 패널 160 : 확대렌즈부
170 : 제3 반사부 180 : 편광필름
190 : 힌지부
100: see-through optical system
100-1: See-through optical system for the left eye
100-2 : See-through optical system for the right eye
110: first reflector 120: second reflector
130: image collection unit 140: control unit
150: display panel 160: magnifying lens unit
170: third reflector 180: polarizing film
190: hinge part

Claims (10)

가상 영상과 실재 영상의 정합을 위한 시스루 광학 시스템에 있어서,
상기 실재 영상 중 일부인 제1 영상을 투과시키고 나머지 일부인 제2 영상의 광경로를 변경시키는 제1 반사부;
상기 제2 영상의 광경로를 재변경시키는 제2 반사부;
상기 제2 영상이 수집되는 영상수집부;
상기 제2 영상을 기초로 상기 가상 영상을 생성하고, 상기 가상 영상이 디스플레이 패널에서 출사되도록 하는 제어부;
상기 디스플레이 패널에서 출사된 가상 영상을 확대하기 위한 확대렌즈부; 및
상기 확대렌즈부를 통해 확대된 상기 가상 영상이 사용자의 망막에 결상되도록 하는 제3 반사부;를 포함하고,
상기 제어부는,
상기 제2 영상 이외에 사용자의 시선을 추적하여 추적된 시선을 기초로 상기 가상 영상을 생성하며,
상기 제1 반사부는,
사용자의 시선 영상 중 일부인 제3 영상을 투과시키고 나머지 일부인 제4 영상의 광경로를 변경시키며,
상기 제3 반사부와 제2 반사부는,
상기 제4 영상의 광경로를 재변경시켜 상기 시선 영상이 상기 영상수집부로 수집되도록 하고,
상기 제어부는,
상기 영상수집부에서 수집된 상기 시선 영상을 토대로 사용자의 시선을 추적하되,
상기 시선 영상에서 안구 내 동공의 좌표를 기반으로 사용자의 시선 방향을 추적하고,
상기 제어부는,
좌안용 영상수집부에서 수집된 좌안 시선 영상과 우안용 영상수집부에서 수집된 우안 시선 영상을 비교하여 안구 내 동공 간의 거리 차이를 분석하고, 안구 내 동공 간의 거리 차이를 기반으로 사용자의 주시각을 추적하며,
상기 제어부는,
상기 추적된 시선 방향과 상기 추적된 주시각을 토대로 사용자가 응시하는 피사체를 확정하고,
상기 디스플레이 패널을 제어하여 상기 확정된 피사체에 대응되는 가상 영상이 상기 디스플레이 패널에서 표시되도록 하며,
상기 제어부는,
상기 추적된 시선 방향과 상기 추적된 주시각을 토대로 힌지부를 제어하고,
상기 힌지부는,
상기 제어부의 제어에 따라 이동하여, 상기 시스루 광학 시스템이 회전운동됨과 동시에 병진운동되도록 함으로써, 상기 시스루 광학 시스템이 사용자의 시선 방향 상에 위치하도록 하는 것을 특징으로 하는 시스루 광학 시스템.
In a see-through optical system for matching a virtual image and a real image,
a first reflector that transmits a first image, which is a part of the real image, and changes an optical path of a second image, which is a remaining part;
a second reflector for re-changing the optical path of the second image;
an image collecting unit in which the second image is collected;
a controller that generates the virtual image based on the second image and emits the virtual image from a display panel;
an enlargement lens unit for enlarging the virtual image emitted from the display panel; and
A third reflector configured to image the virtual image magnified through the magnifying lens unit on the user's retina;
The control unit,
In addition to the second image, the user's gaze is tracked and the virtual image is generated based on the tracked gaze;
The first reflector,
Transmitting a third image, which is a part of the user's gaze image, and changing an optical path of a fourth image, which is a remaining part,
The third reflector and the second reflector,
Re-changing the optical path of the fourth image so that the gaze image is collected by the image collection unit;
The control unit,
Tracking the gaze of the user based on the gaze image collected by the image collection unit,
Tracking the direction of the user's gaze based on the coordinates of the pupil in the eyeball in the gaze image;
The control unit,
The left eye gaze image collected from the left eye image collection unit and the right eye gaze image collected from the right eye image collection unit are compared to analyze the distance difference between intraocular pupils, and based on the distance difference between intraocular pupils, the user's visual angle is determined. tracking,
The control unit,
Determine a subject that the user gazes at based on the tracked gaze direction and the tracked visual angle;
controlling the display panel so that a virtual image corresponding to the determined subject is displayed on the display panel;
The control unit,
Control the hinge based on the tracked gaze direction and the tracked gaze angle;
The hinge part,
The see-through optical system of claim 1 , wherein the see-through optical system is moved under the control of the control unit to rotate and translate the see-through optical system so that the see-through optical system is located in a direction of the user's gaze.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 제1 반사부, 상기 제2 반사부 및 상기 제3 반사부는,
상기 제2의 영상의 광경로를 변경시켜 상기 영상수집부로 전달하는 역할과, 상기 제4 영상의 광경로를 변경시켜 상기 영상수집부로 전달하는 역할을 함께 수행하는 것을 특징으로 하는 시스루 광학 시스템.
According to claim 1,
The first reflector, the second reflector, and the third reflector,
The see-through optical system characterized in that it performs both a role of changing the optical path of the second image and transmitting it to the image collecting unit and a role of changing the optical path of the fourth image and transmitting it to the image collecting unit.
제7항에 있어서,
상기 영상수집부는,
기설정된 샘플 시선 영상을 기반으로 수신된 영상에서 상기 제4 영상을 분리추출하고,
수신된 영상에서 상기 제4 영상 부분을 제외하여 상기 제2 영상을 추출하는 것을 특징으로 하는 시스루 광학 시스템.
According to claim 7,
The video collection unit,
Separating and extracting the fourth image from the received image based on a preset sample gaze image;
and extracting the second image by excluding the fourth image portion from the received image.
제8항에 있어서,
상기 시스루 광학 시스템은,
헤드마운트 디스플레이 장치에 장착되어, 의료용으로 사용되는 것을 특징으로 하는 시스루 광학 시스템.
According to claim 8,
The see-through optical system,
A see-through optical system mounted on a head-mounted display device and used for medical purposes.
삭제delete
KR1020200123085A 2020-09-23 2020-09-23 See-through optics system applied to near eye display device and eye tracking method in see-through optics system KR102465800B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200123085A KR102465800B1 (en) 2020-09-23 2020-09-23 See-through optics system applied to near eye display device and eye tracking method in see-through optics system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200123085A KR102465800B1 (en) 2020-09-23 2020-09-23 See-through optics system applied to near eye display device and eye tracking method in see-through optics system

Publications (2)

Publication Number Publication Date
KR20220040174A KR20220040174A (en) 2022-03-30
KR102465800B1 true KR102465800B1 (en) 2022-11-11

Family

ID=80948148

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200123085A KR102465800B1 (en) 2020-09-23 2020-09-23 See-through optics system applied to near eye display device and eye tracking method in see-through optics system

Country Status (1)

Country Link
KR (1) KR102465800B1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100809479B1 (en) * 2006-07-27 2008-03-03 한국전자통신연구원 Face mounted display apparatus and method for mixed reality environment
KR101524933B1 (en) * 2013-09-24 2015-06-01 박수원 Optical system and head mount display apparatus for augmented reality implementation
EP3119343A4 (en) * 2014-03-19 2017-12-20 Intuitive Surgical Operations, Inc. Medical devices, systems, and methods integrating eye gaze tracking for stereo viewer
KR20200023992A (en) 2018-08-27 2020-03-06 주식회사 에버닌 Smart Tracker and AR Display System for Surgery

Also Published As

Publication number Publication date
KR20220040174A (en) 2022-03-30

Similar Documents

Publication Publication Date Title
AU730608B2 (en) Optical system for alternative or simultaneous direction of light originating from two scenes to the eye of a viewer
RU2623708C2 (en) Compact head-mounted eye movement tracking display
US9999348B2 (en) Compact eye imaging and eye tracking apparatus
US9851565B1 (en) Increasing effective eyebox size of an HMD
US9274338B2 (en) Increasing field of view of reflective waveguide
CN104395815B (en) Head mounted display eyeball tracking device integrated system
US10600352B1 (en) Display device with a switchable window and see-through pancake lens assembly
US10474229B1 (en) Folded viewing optics with high eye tracking contrast ratio
US20130234915A1 (en) Virtual image display apparatus
US10609364B2 (en) Pupil swim corrected lens for head mounted display
CN104898276A (en) Head-mounted display device
WO1996005533A1 (en) Method and apparatus for direct retinal projection
JP2001264681A (en) Display device
CN109725416B (en) Eyeball tracking optical system, head-mounted equipment and imaging method
KR101524933B1 (en) Optical system and head mount display apparatus for augmented reality implementation
JP2002323672A (en) Optical path dividing element and image display device using the same
US20220229300A1 (en) Optical see through (ost) near eye display (ned) system integrating ophthalmic correction
CN114153066A (en) Head-up display device and head-up display system
KR20220118445A (en) Optics and methods for eye tracking based on redirecting light from an eye using an optical arrangement associated with a light guide optical element
US11506903B2 (en) Wearable near-to-eye display with unhindered primary field of view
KR20210023921A (en) Optical device for augmented reality having visual acuity correction function
KR102465800B1 (en) See-through optics system applied to near eye display device and eye tracking method in see-through optics system
US20170010467A1 (en) Hmpd with near eye projection
KR20210022860A (en) Optical device for augmented reality having visual acuity correction function
JP3556306B2 (en) Video display device

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant