KR20230167578A - Target object adaptive depth variable augmented reality apparatus and method - Google Patents

Target object adaptive depth variable augmented reality apparatus and method Download PDF

Info

Publication number
KR20230167578A
KR20230167578A KR1020220067594A KR20220067594A KR20230167578A KR 20230167578 A KR20230167578 A KR 20230167578A KR 1020220067594 A KR1020220067594 A KR 1020220067594A KR 20220067594 A KR20220067594 A KR 20220067594A KR 20230167578 A KR20230167578 A KR 20230167578A
Authority
KR
South Korea
Prior art keywords
depth
image
virtual image
display
augmented reality
Prior art date
Application number
KR1020220067594A
Other languages
Korean (ko)
Inventor
염지운
최광순
손예슬
Original Assignee
한국전자기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자기술연구원 filed Critical 한국전자기술연구원
Priority to KR1020220067594A priority Critical patent/KR20230167578A/en
Priority to PCT/KR2022/008668 priority patent/WO2023234460A1/en
Publication of KR20230167578A publication Critical patent/KR20230167578A/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence

Abstract

대상 객체 적응적 심도 가변형 증강현실 장치 및 방법이 제공된다. 본 발명의 실시예에 따른 증강현실 장치는, 가상 영상을 생성하는 디스플레이, 디스플레이에서 생성된 가상 영상과 현실 세계에서 입사되는 외부 영상을 결합하는 광학계, 외부 영상에 대한 깊이 영상을 생성하는 깊이 센서 및 깊이 센서에서 생성된 깊이 영상으로부터 관심 객체의 깊이를 파악하고, 파악된 깊이에 적응적으로 가상 영상의 심도면을 조정하는 프로세서를 포함한다. 이에 의해, 사용자가 관측하는 관심 객체에 정합된 심도를 갖는 가상 영상을 제공할 수 있게 되어, 수렴-초점 불일치에 의한 사용자의 시각 피로감 및 멀미감을 해소할 수 있게 된다.A target object adaptive depth variable augmented reality device and method are provided. An augmented reality device according to an embodiment of the present invention includes a display that generates a virtual image, an optical system that combines a virtual image generated by the display and an external image incident in the real world, a depth sensor that generates a depth image for the external image, and It includes a processor that determines the depth of the object of interest from the depth image generated by the depth sensor and adaptively adjusts the depth plane of the virtual image to the determined depth. As a result, it is possible to provide a virtual image with a depth that matches the object of interest observed by the user, thereby relieving the user's visual fatigue and motion sickness caused by convergence-focus mismatch.

Description

대상 객체 적응적 심도 가변형 증강현실 장치 및 방법{Target object adaptive depth variable augmented reality apparatus and method}Target object adaptive depth variable augmented reality apparatus and method}

본 발명은 증강현실 기술에 관한 것으로, 더욱 상세하게는 사용자가 얼굴에 착용하는 증강현실 영상 제공 장치 및 방법에 관한 것이다.The present invention relates to augmented reality technology, and more specifically to an augmented reality image providing device and method worn by a user on the face.

기존의 증강현실 영상 제공 장치는 고정된 심도, 이를 테면, 전방 2m 또는 3m 등에 가상 영상을 제공하거나, 제한적인 2개의 가상 심도면을 제공하는데 그치고 있다.Existing augmented reality image providing devices only provide virtual images at a fixed depth, for example, 2m or 3m in front, or provide two limited virtual depth planes.

이 때 증강 콘텐츠의 깊이를 인지하는 사용자는 양안 시차에 따른 시선 수렴점까지의 거리와 실제 영상의 초점이 제공되는 초점면까지의 거리를 상이하게 인식할 수 있다.At this time, a user who recognizes the depth of the augmented content may perceive the distance to the gaze convergence point according to binocular disparity and the distance to the focal plane where the focus of the actual image is provided differently.

이 경우, 사용자가 증강현실 영상 제공 장치를 장시간 사용하게 되면, 인지 거리감 간의 충돌로 인한 시각 피로 및 멀미감을 야기할 수 있게 되는 바, 이를 해결하기 위한 방안이 필요하다.In this case, if the user uses the augmented reality image providing device for a long period of time, visual fatigue and motion sickness may occur due to conflict between perceived distances, and a solution to this problem is needed.

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 사용자가 관측하는 관심 객체에 정합된 심도를 갖는 가상 영상을 제공할 수 있는 대상 객체 적응적 심도 가변형 증강현실 장치 및 방법을 제공함에 있다.The present invention was created to solve the above problems, and the purpose of the present invention is to provide an object adaptive depth variable augmented reality device that can provide a virtual image with a depth matched to the object of interest observed by the user, and It provides a method.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 증강현실 장치는, 가상 영상을 생성하는 디스플레이; 디스플레이에서 생성된 가상 영상과 현실 세계에서 입사되는 외부 영상을 결합하는 광학계; 외부 영상에 대한 깊이 영상을 생성하는 깊이 센서; 및 깊이 센서에서 생성된 깊이 영상으로부터 관심 객체의 깊이를 파악하고, 파악된 깊이에 적응적으로 가상 영상의 심도면을 조정하는 프로세서;를 포함한다.An augmented reality device according to an embodiment of the present invention for achieving the above object includes a display that generates a virtual image; An optical system that combines a virtual image generated by a display with an external image incident in the real world; A depth sensor that generates a depth image for an external image; and a processor that determines the depth of the object of interest from the depth image generated by the depth sensor and adaptively adjusts the depth plane of the virtual image to the determined depth.

가상 영상의 심도면은, 디스플레이와 광학계 간의 이격 거리를 조정을 통해 조정될 수 있다.The depth of field of the virtual image can be adjusted by adjusting the separation distance between the display and the optical system.

본 발명의 실시예에 따른 증강현실 장치는, 디스플레이와 광학계 간의 이격 거리를 변화시키기 위해, 디스플레이의 위치를 변화시키는 위치 조정부;를 더 포함하고, 프로세서는, 파악된 깊이에 가상 영상의 심도면이 위치하도록 위치 조정부를 제어할 수 있다.The augmented reality device according to an embodiment of the present invention further includes a position adjustment unit that changes the position of the display in order to change the separation distance between the display and the optical system, and the processor determines the depth plane of the virtual image at the determined depth. The positioning unit can be controlled to be positioned.

디스플레이와 광학계 간의 이격 거리는, 파악된 관심 객체의 깊이에 비례할 수 있다.The separation distance between the display and the optical system may be proportional to the depth of the identified object of interest.

본 발명의 일 실시예에 따른 증강현실 장치는, 디스플레이와 광학계 사이에 마련된 광학 소자;를 더 포함하고, 디스플레이와 광학계 간의 이격 거리는, 디스플레이와 광학계 간의 물리적인 거리와 광학 소자에 의해 조정되는 광학적 이격 거리에 의해 결정될 수 있다.The augmented reality device according to an embodiment of the present invention further includes an optical element provided between the display and the optical system, and the separation distance between the display and the optical system is the physical distance between the display and the optical system and the optical separation adjusted by the optical element. It can be determined by distance.

가상 영상의 심도면은 비-평면일 수 있다. 가상 영상의 심도면은 가상 영상의 화소별 또는 화소 그룹별로 구분되어 조정될 수 있다.The depth plane of the virtual image may be non-planar. The depth of the virtual image can be adjusted separately for each pixel or pixel group of the virtual image.

광학 소자는, 디스플레이와 광학계 사이의 굴절률 분포를 구분하여 변화시키는 소자일 수 있다.The optical element may be an element that distinguishes and changes the refractive index distribution between the display and the optical system.

프로세서는, 깊이 영상으로부터 관심 객체를 추출하고 추출한 관심 객체의 깊이를 파악하며, 가상 영상의 심도면을 파악된 깊이로 결정할 수 있다.The processor may extract an object of interest from the depth image, determine the depth of the extracted object of interest, and determine the depth plane of the virtual image based on the identified depth.

한편 본 발명의 다른 실시예에 따른 증강현실 영상 제공 방법은, 디스플레이가, 가상 영상을 생성하는 단계; 광학계가, 디스플레이에서 생성된 가상 영상과 현실 세계에서 입사되는 외부 영상을 결합하는 단계; 깊이 센서가, 외부 영상에 대한 깊이 영상을 생성하는 단계; 프로세서가, 깊이 센서에서 생성된 깊이 영상으로부터 관심 객체의 깊이를 파악하는 단계; 프로세서가, 파악된 깊이에 적응적으로 가상 영상의 심도면을 조정하는 단계;를 포함한다.Meanwhile, a method of providing an augmented reality image according to another embodiment of the present invention includes the steps of: a display generating a virtual image; A step where the optical system combines a virtual image generated from a display and an external image incident from the real world; A depth sensor generating a depth image for an external image; A step of determining, by a processor, the depth of an object of interest from a depth image generated by a depth sensor; It includes a step of the processor adaptively adjusting the depth plane of the virtual image to the identified depth.

한편 본 발명의 다른 실시예에 따른 증강현실 영상 장치는, 가상 영상과 현실 세계에서 입사되는 외부 영상을 결합하는 광학계; 및 현실 세계의 외부 영상에 대한 깊이 영상으로부터 관심 객체의 깊이를 파악하고, 파악된 깊이에 적응적으로 가상 영상의 심도면을 조정하는 프로세서;를 포함한다.Meanwhile, an augmented reality imaging device according to another embodiment of the present invention includes an optical system that combines a virtual image and an external image incident in the real world; and a processor that determines the depth of the object of interest from the depth image of the external image of the real world and adaptively adjusts the depth plane of the virtual image to the determined depth.

한편 본 발명의 다른 실시예에 따른 증강현실 영상 제공 방법은, 광학계가, 가상 영상과 현실 세계에서 입사되는 외부 영상을 결합하는 단계; 프로세서가, 현실 세계의 외부 영상에 대한 깊이 영상으로부터 관심 객체의 깊이를 파악하는 단계; 및 프로세서가, 파악된 깊이에 적응적으로 가상 영상의 심도면을 조정하는 단계;를 포함한다.Meanwhile, a method for providing an augmented reality image according to another embodiment of the present invention includes the steps of combining an optical system with a virtual image and an external image incident from the real world; A step of determining, by a processor, the depth of an object of interest from a depth image of an external image of the real world; and, by the processor, adaptively adjusting the depth plane of the virtual image to the identified depth.

이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, 사용자가 관측하는 관심 객체에 정합된 심도를 갖는 가상 영상을 제공할 수 있게 되어, 수렴-초점 불일치에 의한 사용자의 시각 피로감 및 멀미감을 해소할 수 있게 된다.As described above, according to embodiments of the present invention, it is possible to provide a virtual image with a depth of field matched to the object of interest observed by the user, thereby relieving the user's visual fatigue and motion sickness caused by convergence-focus mismatch. It becomes possible.

도 1은 수렴-초점 불일치의 설명에 제공되는 도면,
도 2는 본 발명의 일 실시예에 따른 증강현실 장치의 구성을 도시한 도면,
도 3은 가상 영상의 심도면 조정을 위한 본 발명의 실시예에 따른 증강현실 장치의 구조를 도시한 도면,
도 4는 관심 객체가 근거리에 있는 경우 가상 영상의 심도면을 나타낸 도면,
도 5는 관심 객체가 원거리에 있는 경우 가상 영상의 심도면을 나타낸 도면,
도 6은 본 발명의 다른 실시예에 따른 증강현실 장치의 구성을 도시한 도면,
도 7은 도 6에 도시된 광경로 길이 조정부의 상세 설명에 제공되는 도면이다.
1 is a diagram provided to illustrate convergence-focus mismatch;
Figure 2 is a diagram showing the configuration of an augmented reality device according to an embodiment of the present invention;
Figure 3 is a diagram showing the structure of an augmented reality device according to an embodiment of the present invention for adjusting the depth of field of a virtual image;
Figure 4 is a diagram showing the depth of field of a virtual image when the object of interest is nearby;
Figure 5 is a diagram showing the depth of field of a virtual image when the object of interest is far away;
Figure 6 is a diagram showing the configuration of an augmented reality device according to another embodiment of the present invention;
FIG. 7 is a diagram provided for a detailed description of the optical path length adjusting unit shown in FIG. 6.

이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.Hereinafter, the present invention will be described in more detail with reference to the drawings.

종래 증강현실 제공을 위한 영상 제공 장치는 고정된 심도면(전방 2m 또는 3m)에 가상 영상을 제공하고, 양안 간에 영상 차이 만을 이용하여 깊이감을 강제하는 양안 시차 기반 방식을 주로 채택하였다. 이로 인하여 도 1에 도시된 바와 같이, 실제 디스플레이가 결상된 허상의 초점 거리(Accommodation Distance)와 양안 시차로 인하여 가변하는 수렴 거리(Vergence Distance) 간의 차이가 발생하게 되어, 사용자로 하여금 수렴-초점 불일치에 의한 시각 피로감 및 멀미감을 유발해왔다. Conventional image provision devices for providing augmented reality mainly adopt a binocular parallax-based method that provides virtual images in a fixed depth plane (2m or 3m in front) and enforces a sense of depth by using only the image difference between both eyes. As a result, as shown in Figure 1, a difference occurs between the focal distance (Accommodation Distance) of the virtual image on which the actual display is imaged and the convergence distance (Vergence Distance) that varies due to binocular parallax, causing the user to experience convergence-focus mismatch. has caused visual fatigue and motion sickness.

이에 따라 본 발명의 실시예에서는 사용자가 관측하는 대상 객체에 적응적으로 가상 영상의 표현 심도를 가변할 수 있는 적응적 증강현실 장치 및 방법을 제시한다.Accordingly, an embodiment of the present invention presents an adaptive augmented reality device and method that can change the expression depth of a virtual image adaptively to the target object observed by the user.

본 발명의 실시예에 따른 증강현실 장치 및 방법에서는 디스플레이 및 증강현실 광학 소자 간의 이격 거리를 물리적 또는 광학적으로 가변함으로써 결상되는 심도면의 거리를 상대적으로 조절하여, 관찰 대상이 되는 관심 객체까지의 거리에 적응적으로 증강현실 영상의 심도면을 동기화하여 제공한다.In the augmented reality device and method according to an embodiment of the present invention, the distance of the depth of field for which an image is formed is relatively adjusted by physically or optically varying the separation distance between the display and the augmented reality optical element, and thus the distance to the object of interest that is the object of observation. Adaptively synchronizes the depth of field of the augmented reality image and provides it.

도 2는 본 발명의 일 실시예에 따른 증강현실 장치의 구성을 도시한 도면이다. 본 발명의 실시예에 따른 증강현실 장치는 도시된 바와 같이 깊이 센서(110), 프로세서(120), 위치 조정부(130), 디스플레이(140) 및 광학계(150)를 포함하여 구성된다.Figure 2 is a diagram showing the configuration of an augmented reality device according to an embodiment of the present invention. As shown, the augmented reality device according to an embodiment of the present invention includes a depth sensor 110, a processor 120, a position adjuster 130, a display 140, and an optical system 150.

깊이 센서(110)는 현실 세계에서 입사되는 외부 영상에 대한 깊이 영상을 생성한다. 디스플레이(140)는 증강현실 제공을 위한 가상 영상을 생성/표시한다. 광학계(150)는 디스플레이(140)에서 생성되는 가상 영상과 현실 세계에서 입사되는 외부 영상을 결합하여 사용자에게 제공한다.The depth sensor 110 generates a depth image for an external image incident in the real world. The display 140 generates/displays a virtual image for providing augmented reality. The optical system 150 combines the virtual image generated by the display 140 and the external image incident in the real world and provides the combined image to the user.

위치 조정부(130)는 디스플레이(140)의 위치를 변화시키기 위한 구성으로, 위치 변화를 통해 디스플레이(140)와 광학계(150) 간의 이격 거리를 변화시켜 준다.The position adjusting unit 130 is configured to change the position of the display 140, and changes the separation distance between the display 140 and the optical system 150 by changing the position.

프로세서(120)는 깊이 센서(110)에 의해 생성된 깊이 영상을 전처리한 후에, 깊이 영상으로부터 관심 객체를 추출하고 추출한 관심 객체의 깊이를 파악한다. 관심 객체는 깊이 영상에 존재하는 다수의 객체들 중 중앙에 위치하는 객체로 결정하여 추출하는 것이 가능하지만 다른 추출 방식을 적용하는 것도 가능하다.The processor 120 preprocesses the depth image generated by the depth sensor 110, extracts an object of interest from the depth image, and determines the depth of the extracted object of interest. It is possible to extract the object of interest by determining it to be an object located in the center among multiple objects present in the depth image, but it is also possible to apply other extraction methods.

그리고 프로세서(120)는 파악된 관심 객체의 깊이에 따라 적응적으로 위치 조정부(130)를 제어하여 가상 영상의 심도면을 조정한다.Then, the processor 120 adjusts the depth plane of the virtual image by adaptively controlling the position adjuster 130 according to the depth of the identified object of interest.

프로세서(120)에 의한 위치 조정부(130)의 제어를 통해, 디스플레이(140)에 의해 생성되는 가상 영상의 심도면은 관심 객체의 깊이에 동기화 된다.Through control of the position adjustment unit 130 by the processor 120, the depth plane of the virtual image generated by the display 140 is synchronized to the depth of the object of interest.

도 3은 가상 영상의 심도면 조정을 위한 본 발명의 실시예에 따른 증강현실 장치의 구조를 도시한 도면이다. 도시된 바와 같이, 가상 영상의 심도면(Depth plane)은 심도면 #1, 심도면 #2, ..., 심도면 #N 중 어느 하나로 조정될 수 있다.Figure 3 is a diagram showing the structure of an augmented reality device according to an embodiment of the present invention for adjusting the depth of field of a virtual image. As shown, the depth plane of the virtual image can be adjusted to any one of depth plane #1, depth plane #2, ..., depth plane #N.

광학계(150)는 도 3에 도시된 바와 같이 디스플레이(140)에 생성되는 가상 영상을 결상하기 위한 렌즈(151)와 가상 영상과 외부 영상을 결합하여 사용자의 동공으로 투과시키는 AR 광학소자(152)를 포함하여 구성된다.As shown in FIG. 3, the optical system 150 includes a lens 151 for imaging a virtual image generated on the display 140, and an AR optical element 152 that combines the virtual image and the external image and transmits them to the user's pupil. It is composed including.

본 발명의 실시예에서 가상 영상이 결상되는 심도면은 디스플레이(140)와 광학계(150) 간의 이격 거리를 조정을 통해 조정되는데, 이격 거리가 길어질수록 가상 영상의 심도면은 깊어지고, 이격 거리가 짧아질수록 가상 영상의 심도면은 얕아진다.In an embodiment of the present invention, the depth plane in which the virtual image is formed is adjusted by adjusting the separation distance between the display 140 and the optical system 150. As the separation distance becomes longer, the depth plane of the virtual image becomes deeper, and the separation distance increases. The shorter it gets, the shallower the depth of field of the virtual image becomes.

도 4에는 관심 객체가 근거리에 있는 관심 객체 #1(10)인 경우를 예시하였는데, 관심 객체 #1(10)의 깊이가 깊지 않으므로(사용자로부터 관심 객체 #1(10) 까지의 거리가 길지 않으므로) 가상 영상이 결상될 심도면도 관심 객체 #1(10)의 깊이와 동일하게 깊지 않아야 한다(사용자로부터 가상 영상의 심도면 까지의 거리가 길지 않아야 한다).Figure 4 illustrates the case where the object of interest is object of interest #1 (10) in the short distance. Since the depth of object of interest #1 (10) is not deep (the distance from the user to object of interest #1 (10) is not long) ) The depth plane in which the virtual image will be formed should not be as deep as the depth of object of interest #1 (10) (the distance from the user to the depth plane of the virtual image should not be long).

가상 영상의 심도면은 깊지 않게 하기 위해서는, 디스플레이(140)와 광학계(150) 간의 이격 거리를 짧게 조정하여야 한다.In order to keep the depth of field of the virtual image from being deep, the separation distance between the display 140 and the optical system 150 must be shortened.

한편 도 5에는 관심 객체가 원거리에 있는 관심 객체 #2(20)인 경우를 예시하였는데, 관심 객체 #2(10)의 깊이가 깊으므로(사용자로부터 관심 객체 #2(20) 까지의 거리가 길으므로) 가상 영상이 결상될 심도면도 관심 객체 #2(20)의 깊이와 동일하게 깊어야 한다(사용자로부터 가상 영상의 심도면 까지의 거리가 길어야 한다).Meanwhile, Figure 5 illustrates the case where the object of interest is object of interest #2 (20) located at a distance. Since the depth of object of interest #2 (10) is deep (the distance from the user to object of interest #2 (20) is long) Therefore, the depth plane in which the virtual image will be formed must be as deep as the depth of object of interest #2 (20) (the distance from the user to the depth plane of the virtual image must be long).

가상 영상의 심도면은 깊게 하기 위해서는, 디스플레이(140)와 광학계(150) 간의 이격 거리를 길게 조정하여야 한다.In order to deepen the depth of field of the virtual image, the separation distance between the display 140 and the optical system 150 must be adjusted to be long.

이와 같이 디스플레이(140)와 광학계(150) 간의 이격 거리는 관심 객체의 깊이에 비례하도록 제어되어, 관심 객체와 가상 영상의 심도면이 동기화 된다고 할 수 있다.In this way, the separation distance between the display 140 and the optical system 150 is controlled to be proportional to the depth of the object of interest, so that the depth plane of the object of interest and the virtual image are synchronized.

도 6은 본 발명의 다른 실시예에 따른 증강현실 장치의 구성을 도시한 도면이다. 본 발명의 실시예에 따른 증강현실 장치는 디스플레이와 광학계 간의 이격 거리를 물리적으로 가변시킨 도 2에 제시된 장치와 달리, 이격 거리를 광학적으로 가변시켜 가상 영상의 심도면을 관심 객체까지의 거리에 적응적으로 동기화 시킨다.Figure 6 is a diagram showing the configuration of an augmented reality device according to another embodiment of the present invention. Unlike the device shown in FIG. 2 in which the separation distance between the display and the optical system is physically varied, the augmented reality device according to an embodiment of the present invention optically varies the separation distance to adapt the depth plane of the virtual image to the distance to the object of interest. synchronize.

이와 같은 기능을 수행하는 본 발명의 실시예에 따른 증강현실 장치는 도시된 바와 같이 깊이 센서(210), 프로세서(220), 디스플레이(230), 광경로 길이 조정부(240) 및 광학계(250)를 포함하여 구성된다.As shown, the augmented reality device according to an embodiment of the present invention that performs this function includes a depth sensor 210, a processor 220, a display 230, an optical path length adjuster 240, and an optical system 250. It consists of:

깊이 센서(210)는 현실 세계에서 입사되는 외부 영상에 대한 깊이 영상을 생성한다.The depth sensor 210 generates a depth image for an external image incident in the real world.

디스플레이(230)는 증강현실 제공을 위한 가상 영상을 생성/표시하는데, 가상 영상은 평면 형태가 아닌 비-평면 형태라는 점에서 전술한 실시예와 차이가 있다. 디스플레이(230)에 의해 생성되는 비-평면 형태 가상 영상은 프로세서(220)에 의해 결정된다.The display 230 generates/displays a virtual image for providing augmented reality, but the virtual image is different from the above-described embodiment in that it is not in a flat shape but in a non-flat shape. The non-planar virtual image generated by display 230 is determined by processor 220.

광학계(250)는 디스플레이(230)에서 생성되는 가상 영상과 현실 세계에서 입사되는 외부 영상을 결합하여 사용자에게 제공한다.The optical system 250 combines the virtual image generated by the display 230 and the external image incident in the real world and provides the combined image to the user.

광경로 길이 조정부(240)는 디스플레이(230)와 광학계(250)의 사이에 위치하여, 디스플레이(230)와 광학계(250) 간의 광경로 길이, 즉 광학적 이격 거리를 가상 영상의 화소별로 또는 화소 그룹별로 구분하여 조정하여 주는 소자이다.The optical path length adjusting unit 240 is located between the display 230 and the optical system 250, and adjusts the optical path length, that is, the optical separation distance, between the display 230 and the optical system 250 for each pixel or pixel group of the virtual image. It is an element that is classified and adjusted according to each type.

디스플레이(230)와 광학계(250) 간의 물리적 이격 거리가 아닌 광학적 이격 거리를 조정한다는 점에서, 전술한 실시예와 차이가 있다. 즉 디스플레이(230)와 광학계(250)의 위치는 고정되어 있으며, 그 사이에 위치하는 광경로 길이 조정부(240)가 광경로 길이 분포를 국소 조정하여 주는 것이다.It is different from the above-described embodiment in that the optical separation distance between the display 230 and the optical system 250 is adjusted rather than the physical distance. That is, the positions of the display 230 and the optical system 250 are fixed, and the optical path length adjustment unit 240 located between them locally adjusts the optical path length distribution.

광경로 길이 조정부(240)는 도 7에 도시된 바와 같이 디스플레이(230)와 광학계(250) 사이의 굴절률 분포를 화소별로 또는 화소 그룹별로 구분하여 변화시켜 광경로 길이를 조정하여 주는 비균질 광학 소자인 액정 변조 어레이 소자(예를 들어 LCoS 공간광변조기 등), EW(Electro-Wetting) 렌즈 어레이 소자 또는 액체형 렌즈 어레이 소자 등으로 구현가능하다.As shown in FIG. 7, the optical path length adjusting unit 240 is a non-homogeneous optical element that adjusts the optical path length by changing the refractive index distribution between the display 230 and the optical system 250 for each pixel or pixel group. It can be implemented as a liquid crystal modulation array element (eg, LCoS spatial light modulator, etc.), EW (Electro-Wetting) lens array element, or liquid type lens array element.

광선이 느끼는 거리는 물리적인 이격거리와 이격거리 내 매질 굴절률 간의 곱으로 이루어지기 때문에, 디스플레이(230)와 광학계(250) 사이의 굴절률 분포를 국소적으로 가변하여 화소별로 서로 다른 광경로 길이를 가지도록 한 것이다.Since the distance felt by light rays is made up of the product of the physical separation distance and the refractive index of the medium within the separation distance, the refractive index distribution between the display 230 and the optical system 250 is locally varied to have different optical path lengths for each pixel. It was done.

광경로 길이 조정부(240)에 의해 형성되는 가상 영상의 심도면은 관측자의 시선에 수직한 평면 형태가 아닌 관심 객체와 함께 표현하고자 하는 가상 영상의 심도 분포에 맞추어 국소적으로 상이한 심도면을 가지게 된다. 전술한 실시예에서의 한계점인 유한한(discrete) 가상 심도면 표현의 문제에서 벗어나 연속적인(continuous) 가상 심도 공간을 단일 영상 프레임에 구현할 수 있다는 강점을 가진다. The depth plane of the virtual image formed by the optical path length adjusting unit 240 is not a plane perpendicular to the observer's line of sight, but has a locally different depth plane in accordance with the depth distribution of the virtual image to be expressed with the object of interest. . It has the advantage of being able to implement a continuous virtual depth space in a single image frame, avoiding the problem of representing a finite virtual depth space, which is a limitation in the above-described embodiment.

도 7에서 디스플레이(230)에서 출발한 광선은 광학계(250)에 도달하기 전까지 서로 다른 광경로 거리를 가질 수 있다. 예를 들어, 디스플레이(230)의 좌측에서 출사되는 광선은 광경로 길이 조정부(240)에서 낮은 굴절률(n1)을 가지는 부분을 거치고, 중앙에서 출사되는 광선은 중간 굴절률(n2)을 가지는 부분을 거치며, 우측에서 출사되는 광선은 높은 굴절률(n3)을 가지는 부분을 거치게 된다. 따라서 물리적인 이격거리는 동일하지만 각 광선들이 느끼는 상대적인 거리는 차이가 발생하게 되어 광학계(250)에 의한 결상 깊이는 각기 달라져, 가상 영상의 심도는 화소 별로 또는 화소 그룹 별로 다를 수 있는 비평면적이고 연속적인 가상 심도면을 제공하는 것이 가능하다.In FIG. 7 , light rays departing from the display 230 may have different optical path distances before reaching the optical system 250. For example, the light ray emitted from the left side of the display 230 passes through a portion of the optical path length adjusting unit 240 with a low refractive index (n1), and the ray emitted from the center passes through a portion with a medium refractive index (n2). , the ray emitted from the right passes through a part with a high refractive index (n3). Therefore, although the physical separation distance is the same, the relative distance felt by each ray is different, so the imaging depth by the optical system 250 is different, and the depth of the virtual image is a non-planar and continuous virtual image that can vary for each pixel or pixel group. It is possible to provide depth of field.

프로세서(220)는 깊이 센서(210)에 의해 생성된 깊이 영상을 전처리한 후에, 깊이 영상으로부터 다수의 관심 객체들을 추출하고 추출한 관심 객체들의 깊이들을 파악한다.After preprocessing the depth image generated by the depth sensor 210, the processor 220 extracts a number of objects of interest from the depth image and determines the depths of the extracted objects of interest.

그리고 프로세서(220)는 파악된 관심 객체들의 깊이들에 따라 심도면이 가상 영상의 화소별로 또는 화소 그룹별로 구분되어 조정되는 비-평면의 가상 영상이 생성되도록 디스플레이(230)와 광경로 길이 조정부(240)를 제어한다.And the processor 220 uses the display 230 and the optical path length adjustment unit ( 240).

프로세서(220)에 의한 디스플레이(230)와 광경로 길이 조정부(240)의 제어를 통해, 디스플레이(230)에 의해 생성되는 가상 영상의 심도면은 관심 객체들의 깊이에 동기화 된다.Through control of the display 230 and the optical path length adjusting unit 240 by the processor 220, the depth plane of the virtual image generated by the display 230 is synchronized to the depth of the objects of interest.

지금까지 대상 객체 적응적 심도 가변형 증강현실 장치 및 방법에 대해 바람직한 실시예를 들어 상세히 설명하였다.So far, the target object adaptive depth variable augmented reality device and method have been described in detail with preferred embodiments.

위 실시예에서는 대상 객체 적응적 심도 가변형 증강현실 제공을 통해 사용자가 관측하는 관심 객체에 정합된 심도를 갖는 가상 영상을 제공하여 줌으로써, 수렴-초점 불일치에 의한 사용자의 시각 피로감 및 멀미감을 해소하였다.In the above embodiment, the user's visual fatigue and motion sickness caused by convergence-focus mismatch were alleviated by providing a virtual image with a depth matched to the object of interest observed by the user through the provision of target object adaptive depth variable augmented reality.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the invention pertains without departing from the gist of the present invention as claimed in the claims. Of course, various modifications can be made by those of ordinary skill in the art, and these modifications should not be understood individually from the technical idea or perspective of the present invention.

110,210 : 깊이 센서
120,220 : 프로세서
130 : 위치 조정부
140,230 : 디스플레이
240 : 광경로 길이 조정부
150,250 : 광학계
110,210: Depth sensor
120,220: Processor
130: Position adjustment unit
140,230: Display
240: Optical path length adjustment unit
150,250: Optics

Claims (12)

가상 영상을 생성하는 디스플레이;
디스플레이에서 생성된 가상 영상과 현실 세계에서 입사되는 외부 영상을 결합하는 광학계;
외부 영상에 대한 깊이 영상을 생성하는 깊이 센서; 및
깊이 센서에서 생성된 깊이 영상으로부터 관심 객체의 깊이를 파악하고, 파악된 깊이에 적응적으로 가상 영상의 심도면을 조정하는 프로세서;를 포함하는 것을 특징으로 하는 증강현실 장치.
A display that generates a virtual image;
An optical system that combines a virtual image generated by a display with an external image incident in the real world;
A depth sensor that generates a depth image for an external image; and
An augmented reality device comprising a processor that determines the depth of an object of interest from a depth image generated by a depth sensor and adaptively adjusts the depth plane of the virtual image to the determined depth.
청구항 1에 있어서,
가상 영상의 심도면은,
디스플레이와 광학계 간의 이격 거리를 조정을 통해 조정되는 것을 특징으로 하는 증강현실 장치.
In claim 1,
The depth of the virtual image is,
An augmented reality device characterized in that it is adjusted by adjusting the separation distance between the display and the optical system.
청구항 2에 있어서,
디스플레이와 광학계 간의 이격 거리를 변화시키기 위해, 디스플레이의 위치를 변화시키는 위치 조정부;를 더 포함하고,
프로세서는,
파악된 깊이에 가상 영상의 심도면이 위치하도록 위치 조정부를 제어하는 것을 특징으로 하는 증강현실 장치.
In claim 2,
It further includes a position adjustment unit that changes the position of the display to change the separation distance between the display and the optical system,
The processor is,
An augmented reality device characterized in that it controls the position adjustment unit so that the depth plane of the virtual image is located at the determined depth.
청구항 3에 있어서,
디스플레이와 광학계 간의 이격 거리는,
파악된 관심 객체의 깊이에 비례하는 것을 특징으로 하는 증강현실 장치.
In claim 3,
The separation distance between the display and the optical system is,
An augmented reality device characterized in that it is proportional to the depth of the identified object of interest.
청구항 2에 있어서,
디스플레이와 광학계 사이에 마련된 광학 소자;를 더 포함하고,
디스플레이와 광학계 간의 이격 거리는,
디스플레이와 광학계 간의 물리적인 거리와 광학 소자에 의해 조정되는 광학적 이격 거리에 의해 결정되는 것을 특징으로 하는 증강현실 장치.
In claim 2,
It further includes an optical element provided between the display and the optical system,
The separation distance between the display and the optical system is,
An augmented reality device characterized by being determined by the physical distance between the display and the optical system and the optical separation distance adjusted by the optical element.
청구항 5에 있어서,
가상 영상의 심도면은,
비-평면인 것을 특징으로 하는 증강현실 장치.
In claim 5,
The depth of the virtual image is,
An augmented reality device characterized by being non-flat.
청구항 6에 있어서,
가상 영상의 심도면은,
가상 영상의 화소별 또는 화소 그룹별로 구분되어 조정되는 것을 특징으로 하는 증강현실 장치.
In claim 6,
The depth of the virtual image is,
An augmented reality device characterized in that the virtual image is divided and adjusted by pixel or pixel group.
청구항 7에 있어서,
광학 소자는,
디스플레이와 광학계 사이의 굴절률 분포를 구분하여 변화시키는 소자인 것을 특징으로 하는 증강현실 장치.
In claim 7,
The optical element is,
An augmented reality device characterized by an element that distinguishes and changes the refractive index distribution between the display and the optical system.
청구항 1에 있어서,
프로세서는,
깊이 영상으로부터 관심 객체를 추출하고 추출한 관심 객체의 깊이를 파악하며, 가상 영상의 심도면을 파악된 깊이로 결정하는 것을 특징으로 하는 증강현실 장치.
In claim 1,
The processor is,
An augmented reality device that extracts an object of interest from a depth image, determines the depth of the extracted object of interest, and determines the depth plane of the virtual image with the identified depth.
디스플레이가, 가상 영상을 생성하는 단계;
광학계가, 디스플레이에서 생성된 가상 영상과 현실 세계에서 입사되는 외부 영상을 결합하는 단계;
깊이 센서가, 외부 영상에 대한 깊이 영상을 생성하는 단계;
프로세서가, 깊이 센서에서 생성된 깊이 영상으로부터 관심 객체의 깊이를 파악하는 단계;
프로세서가, 파악된 깊이에 적응적으로 가상 영상의 심도면을 조정하는 단계;를 포함하는 것을 특징으로 하는 증강현실 영상 제공 방법.
A display comprising: generating a virtual image;
A step where the optical system combines a virtual image generated from a display and an external image incident from the real world;
A depth sensor generating a depth image for an external image;
A step of determining, by a processor, the depth of an object of interest from a depth image generated by a depth sensor;
A method of providing an augmented reality image comprising: adjusting, by the processor, the depth plane of the virtual image adaptively to the identified depth.
가상 영상과 현실 세계에서 입사되는 외부 영상을 결합하는 광학계; 및
현실 세계의 외부 영상에 대한 깊이 영상으로부터 관심 객체의 깊이를 파악하고, 파악된 깊이에 적응적으로 가상 영상의 심도면을 조정하는 프로세서;를 포함하는 것을 특징으로 하는 증강현실 장치.
An optical system that combines virtual images with external images incident in the real world; and
An augmented reality device comprising a processor that determines the depth of an object of interest from a depth image of an external image of the real world and adaptively adjusts the depth plane of the virtual image to the determined depth.
광학계가, 가상 영상과 현실 세계에서 입사되는 외부 영상을 결합하는 단계;
프로세서가, 현실 세계의 외부 영상에 대한 깊이 영상으로부터 관심 객체의 깊이를 파악하는 단계; 및
프로세서가, 파악된 깊이에 적응적으로 가상 영상의 심도면을 조정하는 단계;를 포함하는 것을 특징으로 하는 증강현실 영상 제공 방법.
A step where the optical system combines a virtual image and an external image incident from the real world;
A step of determining, by a processor, the depth of an object of interest from a depth image of an external image of the real world; and
A method of providing an augmented reality image comprising: adjusting, by the processor, the depth plane of the virtual image adaptively to the identified depth.
KR1020220067594A 2022-06-02 2022-06-02 Target object adaptive depth variable augmented reality apparatus and method KR20230167578A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220067594A KR20230167578A (en) 2022-06-02 2022-06-02 Target object adaptive depth variable augmented reality apparatus and method
PCT/KR2022/008668 WO2023234460A1 (en) 2022-06-02 2022-06-20 Target object adaptive depth-variable augmented reality device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220067594A KR20230167578A (en) 2022-06-02 2022-06-02 Target object adaptive depth variable augmented reality apparatus and method

Publications (1)

Publication Number Publication Date
KR20230167578A true KR20230167578A (en) 2023-12-11

Family

ID=89025092

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220067594A KR20230167578A (en) 2022-06-02 2022-06-02 Target object adaptive depth variable augmented reality apparatus and method

Country Status (2)

Country Link
KR (1) KR20230167578A (en)
WO (1) WO2023234460A1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9304319B2 (en) * 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
JP6596883B2 (en) * 2015-03-31 2019-10-30 ソニー株式会社 Head mounted display, head mounted display control method, and computer program
US11238836B2 (en) * 2018-03-16 2022-02-01 Magic Leap, Inc. Depth based foveated rendering for display systems
KR20210078852A (en) * 2019-12-19 2021-06-29 엘지전자 주식회사 Xr device and method for controlling the same

Also Published As

Publication number Publication date
WO2023234460A1 (en) 2023-12-07

Similar Documents

Publication Publication Date Title
US11106276B2 (en) Focus adjusting headset
US10241329B2 (en) Varifocal aberration compensation for near-eye displays
CN112136094A (en) Depth-based foveated rendering for display systems
US11435576B2 (en) Near-eye display with extended accommodation range adjustment
KR20180005170A (en) How to improve your display
US9905143B1 (en) Display apparatus and method of displaying using image renderers and optical combiners
WO2012175939A1 (en) Apparatus and method for displaying images
WO2011017485A2 (en) 3d autostereoscopic display with true depth perception
WO2018100239A1 (en) Imaging system and method of producing images for display apparatus
US10412378B2 (en) Resonating optical waveguide using multiple diffractive optical elements
CN110187506B (en) Optical display system and augmented reality device
CN108628087B (en) Projection device and space imaging method
CN109803133B (en) Image processing method and device and display device
CN111751988B (en) Depth of field adjusting method and device and binocular near-to-eye display equipment
Hwang et al. Instability of the perceived world while watching 3D stereoscopic imagery: a likely source of motion sickness symptoms
CN114365027A (en) System and method for displaying object with depth of field
KR101059763B1 (en) 3D display device
CN110780454B (en) Three-dimensional image display apparatus and method
KR20230167578A (en) Target object adaptive depth variable augmented reality apparatus and method
CN117795396A (en) Display apparatus and display method
US20200049994A1 (en) Tilted focal plane for near-eye display system
EP3566093A1 (en) Near-eye display with extended accommodation range adjustment
KR20220145668A (en) Display apparatus including free-formed surface and operating method of the same
US20230239456A1 (en) Display system with machine learning (ml) based stereoscopic view synthesis over a wide field of view
US20230360567A1 (en) Virtual reality display system