KR20220032448A - Method and apparatus of correcting crosstalk - Google Patents

Method and apparatus of correcting crosstalk Download PDF

Info

Publication number
KR20220032448A
KR20220032448A KR1020200181939A KR20200181939A KR20220032448A KR 20220032448 A KR20220032448 A KR 20220032448A KR 1020200181939 A KR1020200181939 A KR 1020200181939A KR 20200181939 A KR20200181939 A KR 20200181939A KR 20220032448 A KR20220032448 A KR 20220032448A
Authority
KR
South Korea
Prior art keywords
image
crosstalk
concealer
content object
virtual content
Prior art date
Application number
KR1020200181939A
Other languages
Korean (ko)
Inventor
이희세
이준환
하인우
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US17/225,339 priority Critical patent/US11719930B2/en
Publication of KR20220032448A publication Critical patent/KR20220032448A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • H04N13/125Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues for crosstalk reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/133Equalising the characteristics of different image components, e.g. their average brightness or colour balance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]

Abstract

According to an embodiment, a method and device for correcting crosstalk estimate an area where crosstalk will occur based on 3D positional relationship between a position of both eyes of a user and a position of a virtual image of a virtual content object, generates a concealer image to correct the area where crosstalk will occur, based on the estimated area and the virtual content object, and corrects crosstalk by synthesizing the virtual content object and the concealer image.

Description

크로스토크를 보정하는 방법 및 장치{METHOD AND APPARATUS OF CORRECTING CROSSTALK}METHOD AND APPARATUS OF CORRECTING CROSSTALK

아래의 실시예들은 크로스토크를 보정하는 방법 및 장치에 관한 것이다.The following embodiments relate to a method and apparatus for correcting crosstalk.

양안 시점에 각각의 영상을 조사하여 3D 입체감을 느낄 수 있는 스테레오(stereo) 방식은 양안에 정확한 그래픽 정보가 들어가면 문제가 없지만, 빛 번짐 등의 물리적인 현상으로 양안에 정확한 그래픽이 조사되지 않으면 3D 크로스토크(crosstalk)가 발생할 수 있다. 예를 들어, 무안경 3D 디스플레이에서 빛 번짐과 같은 광학 현상으로 인해 스테레오 영상이 불완전하게 분리되어 정확한 증강 현실(Augmented Reality; AR) 그래픽이 양쪽 눈에 조사되지 않는 경우, 사용자는 3D 입체 효과를 느끼지 못하게 된다. 이러한 3D 크로스토크를 줄이기 위한 방법으로서 예를 들어, 영상을 흐리게 하거나, 또는 영상의 밝기를 낮추는 방법 등이 이용될 수 있다. 하지만, 전술한 방법들은 모두 영상 품질을 저하시키는 문제가 있다.In the stereo method, where you can feel a 3D effect by irradiating each image from the viewpoint of both eyes, there is no problem if accurate graphic information is entered into both eyes. Crosstalk may occur. For example, in an autostereoscopic 3D display, when stereo images are incompletely separated due to optical phenomena such as light blur, and accurate Augmented Reality (AR) graphics are not irradiated to both eyes, the user does not feel the 3D stereoscopic effect. can't As a method for reducing such 3D crosstalk, for example, a method of blurring an image or lowering the brightness of an image may be used. However, all of the above-described methods have a problem of degrading image quality.

위에서 설명한 배경기술은 발명자가 본원의 개시 내용을 도출하는 과정에서 보유하거나 습득한 것으로서, 반드시 본 출원 전에 일반 공중에 공개된 공지기술이라고 할 수는 없다.The background art described above is possessed or acquired by the inventor in the process of deriving the disclosure of the present application, and cannot necessarily be said to be a known technology disclosed to the general public prior to the present application.

일 실시예에 따르면, 크로스토크를 보정하는 방법은 사용자 양안의 위치와 가상 컨텐츠 객체의 허상(virtual image)의 위치 간의 3차원 위치 관계를 기초로, 크로스토크(crosstalk)가 발생할 영역을 추정하는 단계; 상기 추정된 영역과 상기 가상 컨텐츠 객체를 기초로, 상기 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상(concealer image)을 생성하는 단계; 및 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 합성하여 상기 크로스토크를 보정하는 단계를 포함한다. According to an embodiment, the method for correcting crosstalk includes estimating an area where crosstalk will occur based on a three-dimensional positional relationship between the positions of both eyes of a user and the positions of virtual images of virtual content objects. ; generating a concealer image for correcting an area in which the crosstalk occurs based on the estimated area and the virtual content object; and compensating the crosstalk by synthesizing the virtual content object and the concealer image.

상기 컨실러 영상을 생성하는 단계는 상기 컨실러 영상의 잔상 범위(afterimage range), 콘트라스트(contrast), 및 밝기(brightness) 중 적어도 하나의 효과 요소(effect element)를 조절하는 단계를 포함할 수 있다. The generating of the concealer image may include adjusting at least one effect element among an afterimage range, a contrast, and a brightness of the concealer image.

상기 적어도 하나의 효과 요소를 조절하는 단계는 상기 3차원 위치 관계를 기초로, 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 조절하는 단계; 상기 3차원 위치 관계를 기초로, 상기 컨실러 영상의 콘트라스트 및 밝기를 조절하는 단계; 및 주변 환경의 조도(illumination)를 기초로, 상기 컨실러 영상의 밝기를 조절하는 단계 중 적어도 하나 또는 이들의 조합을 포함할 수 있다. The adjusting of the at least one effect element may include adjusting an afterimage range of the concealer image in contrast to the size of the virtual image of the virtual content object based on the three-dimensional positional relationship; adjusting the contrast and brightness of the concealer image based on the three-dimensional positional relationship; and adjusting the brightness of the concealer image based on the illumination of the surrounding environment, or a combination thereof.

상기 컨실러 영상의 잔상 범위를 조절하는 단계는 상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 기준 거리 보다 멀어질수록 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 점진적으로 확장시키는 단계; 및 상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 상기 기준 거리보다 가까워질수록 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 점진적으로 축소시키는 단계를 포함할 수 있다. In the step of adjusting the afterimage range of the concealer image, as the distance between the positions of both eyes of the user and the position of the virtual image is greater than a reference distance, the afterimage range of the concealer image in contrast to the size of the virtual image of the virtual content object is gradually increased. expanding; and gradually reducing the range of the afterimage of the concealer image in contrast to the size of the virtual image of the virtual content object as the distance between the positions of both eyes of the user and the position of the virtual image is closer than the reference distance.

상기 컨실러 영상의 콘트라스트 및 밝기를 조절하는 단계는 상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 기준 거리보다 멀어질수록 상기 컨실러 영상의 콘트라스트 및 밝기를 점진적으로 어둡게 조절하는 단계; 및 상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 상기 기준 거리보다 가까워질수록 상기 컨실러 영상의 콘트라스트 및 밝기를 점진적으로 밝게 조절하는 단계를 포함할 수 있다. The adjusting the contrast and brightness of the concealer image may include: gradually adjusting the contrast and brightness of the concealer image to be darker as the distance between the positions of both eyes of the user and the position of the virtual image is greater than a reference distance; and gradually brightening the contrast and brightness of the concealer image as the distance between the positions of the user's eyes and the position of the virtual image becomes closer than the reference distance.

상기 컨실러 영상의 밝기를 조절하는 단계는 상기 조도가 기준 조도보다 높아질수록 상기 컨실러 영상의 밝기를 점진적으로 어둡게 조절하는 단계; 및 상기 조도가 상기 기준 조도보다 낮아질수록 상기 컨실러 영상의 밝기를 점진적으로 밝게 조절하는 단계를 포함할 수 있다. The adjusting of the brightness of the concealer image may include: gradually adjusting the brightness of the concealer image to be darker as the illuminance is higher than the reference illuminance; and gradually adjusting the brightness of the concealer image to be brighter as the illuminance is lower than the reference illuminance.

상기 컨실러 영상을 생성하는 단계는 상기 가상 컨텐츠 객체의 형태에 대응되도록 상기 가상 컨텐츠 객체를 블러(blur) 시킴으로써 상기 컨실러 영상을 생성하는 단계를 포함할 수 있다. The generating of the concealer image may include generating the concealer image by blurring the virtual content object to correspond to the shape of the virtual content object.

상기 컨실러 영상을 생성하는 단계는 상기 가상 컨텐츠 객체를 블러시킨 블러 영상(blurred image)을 생성하는 단계; 및 상기 블러 영상에 대응하는 잔상 범위, 콘트라스트, 및 밝기 중 적어도 하나의 효과 요소를 조절하는 단계를 포함할 수 있다. The generating of the concealer image may include: generating a blurred image obtained by blurring the virtual content object; and adjusting at least one effect element of an afterimage range, contrast, and brightness corresponding to the blur image.

상기 블러 영상을 생성하는 단계는 상기 3차원 위치 관계를 기초로 상기 가상 컨텐츠 객체를 확장시킨 형태에 대응되도록 상기 블러 영상을 생성하는 단계를 포함할 수 있다. The generating of the blur image may include generating the blur image to correspond to a shape in which the virtual content object is expanded based on the three-dimensional positional relationship.

상기 블러 영상을 생성하는 단계는 상기 가상 컨텐츠 객체의 형태를 기초로, 상기 사용자 양안 중 좌안에 대응하는 제1 블러 영상 및 우안에 대응하는 제2 블러 영상을 생성하는 단계; 및 상기 제1 블러 영상 및 상기 제2 블러 영상을 결합하여 상기 블러 영상을 생성하는 단계를 포함할 수 있다. The generating of the blur image may include: generating a first blur image corresponding to the left eye and a second blur image corresponding to the right eye among the user's both eyes based on the shape of the virtual content object; and generating the blur image by combining the first blur image and the second blur image.

상기 제1 블러 영상 및 상기 제2 블러 영상을 결합하여 상기 블러 영상을 생성하는 단계는 상기 제1 블러 영상 및 상기 제2 블러 영상을 상기 사용자 양안의 시차(disparity)에 기초한 간격만큼 이격시키는 단계; 및 상기 이격된 간격이 유지되도록 상기 제1 블러 영상 및 상기 제2 블러 영상을 결합하는 단계를 포함할 수 있다. The generating of the blur image by combining the first blur image and the second blur image may include: separating the first blur image and the second blur image by an interval based on disparity between both eyes of the user; and combining the first blur image and the second blur image so that the spaced distance is maintained.

상기 이격된 간격이 유지되도록 상기 제1 블러 영상 및 상기 제2 블러 영상을 결합하는 단계는 상기 이격된 상기 제1 블러 영상과 상기 제2 블러 영상을 보간(interpolation)하여 상기 블러 영상을 생성하는 단계를 포함할 수 있다. The combining of the first blur image and the second blur image so that the spaced distance is maintained may include generating the blur image by interpolating the spaced apart first blur image and the second blur image. may include

상기 가상 컨텐츠 객체를 포함하는 3차원 공간 상에 상기 컨실러 영상을 배치하는 단계; 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 함께 렌더링 함으로써, 좌안 영상과 우안 영상을 생성하는 단계; 및 상기 좌안 영상과 상기 우안 영상을 투사하는 단계를 포함할 수 있다. disposing the concealer image in a three-dimensional space including the virtual content object; generating a left-eye image and a right-eye image by rendering the virtual content object and the concealer image together; and projecting the left eye image and the right eye image.

상기 크로스토크를 보정하는 단계는 상기 가상 컨텐츠 객체를 렌더링 함으로써, 좌안 영상과 우안 영상을 생성하는 단계; 및 상기 좌안 영상, 상기 우안 영상, 및 상기 컨실러 영상을 투사하는 단계를 포함할 수 있다. The correcting of the crosstalk may include: generating a left-eye image and a right-eye image by rendering the virtual content object; and projecting the left eye image, the right eye image, and the concealer image.

상기 크로스토크가 발생할 영역을 추정하는 단계는 상기 사용자 양안의 시차 및 상기 3차원 위치 관계를 기초로, 상기 크로스토크가 발생할 영역을 추정하는 단계를 포함할 수 있다. The estimating of the area where the crosstalk will occur may include estimating the area where the crosstalk will occur based on the disparity between the user's eyes and the 3D positional relationship.

상기 크로스토크가 발생할 영역을 추정하는 단계는 상기 사용자 양안의 시차 및 상기 3차원 위치 관계를 기초로, 상기 크로스토크가 발생할 영역의 잔상 범위를 조절함으로써 상기 크로스토크가 발생할 영역을 추정하는 단계를 포함할 수 있다. The estimating of the area where the crosstalk will occur includes estimating the area where the crosstalk will occur by adjusting an afterimage range of the area where the crosstalk will occur based on the parallax of both eyes of the user and the three-dimensional positional relationship. can do.

상기 크로스토크를 보정하는 방법은 상기 가상 컨텐츠 객체의 위치 이동을 감지하는 단계를 더 포함하고, 상기 크로스토크가 발생할 영역을 추정하는 단계는 상기 위치 이동에 따라 변경된 상기 3차원 위치 관계 및 상기 사용자 양안의 시차 중 적어도 하나를 기초로, 상기 크로스토크가 발생할 영역을 추정하는 단계를 포함할 수 있다. The method of correcting the crosstalk may further include detecting a positional movement of the virtual content object, and the estimating an area where the crosstalk will occur includes the three-dimensional positional relationship changed according to the positional movement and the user's both eyes. The method may include estimating an area in which the crosstalk will occur based on at least one of the disparities of .

상기 크로스토크가 발생할 영역은 상기 컨실러 영상을 배치시킬 위치 및 범위에 대응될 수 있다. The area in which the crosstalk will occur may correspond to a location and a range in which the concealer image is to be disposed.

일 실시예에 따르면, 크로스토크를 보정하는 장치는 사용자 양안의 위치를 감지하는 센서; 및 상기 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 3차원 위치 관계를 기초로, 크로스토크가 발생할 영역을 추정하고, 상기 추정된 영역과 상기 가상 컨텐츠 객체를 기초로, 상기 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상을 생성하며, 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 합성하여 상기 크로스토크를 보정하는 프로세서를 포함한다. According to an embodiment, an apparatus for correcting crosstalk includes: a sensor for detecting positions of both eyes of a user; and estimating a region where crosstalk will occur based on a three-dimensional positional relationship between the positions of both eyes of the user and the virtual image position of the virtual content object, and based on the estimated region and the virtual content object, the crosstalk will occur and a processor that generates a concealer image for correcting a region, and corrects the crosstalk by synthesizing the virtual content object and the concealer image.

상기 프로세서는 상기 컨실러 영상의 잔상 범위, 콘트라스트, 및 밝기 중 적어도 하나의 효과 요소를 조절할 수 있다. The processor may adjust at least one effect factor of an afterimage range, a contrast, and a brightness of the concealer image.

상기 프로세서는 상기 3차원 위치 관계를 기초로, 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 조절하는 동작, 상기 3차원 위치 관계를 기초로, 상기 컨실러 영상의 콘트라스트를 조절하는 동작, 및 주변 환경의 조도를 기초로, 상기 컨실러 영상의 밝기를 조절하는 동작 중 적어도 하나 또는 이들의 조합을 수행할 수 있다. The processor adjusts the afterimage range of the concealer image in contrast to the size of the virtual image of the virtual content object based on the 3D positional relationship, and adjusts the contrast of the concealer image based on the 3D positional relationship At least one of the operation of adjusting the brightness of the concealer image based on the operation and the illuminance of the surrounding environment, or a combination thereof may be performed.

상기 프로세서는 상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 기준 거리보다 멀어질수록 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 점진적으로 확장시키고, 상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 상기 기준 거리보다 가까워질수록 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 점진적으로 축소시킬 수 있다. The processor gradually expands the range of the afterimage of the concealer image in contrast to the size of the virtual image of the virtual content object as the distance between the position of the user's both eyes and the position of the virtual image is greater than the reference distance, and the position of the user's both eyes As the distance between the position of the virtual image and the virtual image becomes closer than the reference distance, the range of the afterimage of the concealer image in contrast to the size of the virtual image of the virtual content object may be gradually reduced.

상기 프로세서는 상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 기준 거리보다 멀어질수록 상기 컨실러 영상의 콘트라스트 및 밝기를 점진적으로 어둡게 조절하고, 상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 상기 기준 거리보다 가까워질수록 상기 컨실러 영상의 콘트라스트 및 밝기를 점진적으로 밝게 조절할 수 있다. The processor gradually darkens the contrast and brightness of the concealer image as the distance between the positions of both eyes of the user and the position of the virtual image is greater than the reference distance, and the distance between the positions of both eyes of the user and the position of the virtual image is As the distance becomes closer than the reference distance, the contrast and brightness of the concealer image may be gradually brightened.

상기 프로세서는 상기 조도가 기준 조도보다 높아질수록 상기 컨실러 영상의 밝기를 점진적으로 어둡게 조절하고, 상기 조도가 상기 기준 조도보다 낮아질수록 상기 컨실러 영상의 밝기를 점진적으로 밝게 조절할 수 있다. The processor may gradually darken the brightness of the concealer image as the illuminance is higher than the reference illuminance, and may gradually brighten the brightness of the concealer image as the illuminance is lower than the reference illuminance.

상기 프로세서는 상기 가상 컨텐츠 객체의 형태에 대응되도록 상기 가상 컨텐츠 객체를 블러 시킴으로써 상기 컨실러 영상을 생성할 수 있다. The processor may generate the concealer image by blurring the virtual content object to correspond to the shape of the virtual content object.

상기 프로세서는 상기 가상 컨텐츠 객체를 블러시킨 블러 영상을 생성하고, 상기 블러 영상에 대응하는 잔상 범위, 콘트라스트, 및 밝기 중 적어도 하나의 효과 요소를 조절할 수 있다. The processor may generate a blur image obtained by blurring the virtual content object, and may adjust at least one effect element of an afterimage range, contrast, and brightness corresponding to the blur image.

상기 프로세서는 상기 3차원 위치 관계를 기초로 상기 가상 컨텐츠 객체를 확장시킨 형태에 대응되도록 상기 블러 영상을 생성할 수 있다. The processor may generate the blur image to correspond to the expanded form of the virtual content object based on the 3D positional relationship.

상기 프로세서는 상기 가상 컨텐츠 객체의 형태를 기초로, 상기 사용자 양안 중 좌안에 대응하는 제1 블러 영상 및 우안에 대응하는 제2 블러 영상을 생성하고, 상기 제1 블러 영상 및 상기 제2 블러 영상을 결합하여 상기 블러 영상을 생성할 수 있다. The processor generates a first blur image corresponding to the left eye and a second blur image corresponding to the right eye among both eyes of the user based on the shape of the virtual content object, and generates the first blur image and the second blur image By combining them, the blur image may be generated.

상기 프로세서는 상기 제1 블러 영상 및 상기 제2 블러 영상을 상기 사용자 양안의 시차에 기초한 간격만큼 이격시키고, 상기 이격된 간격이 유지되도록 상기 제1 블러 영상 및 상기 제2 블러 영상을 결합할 수 있다. The processor may separate the first blur image and the second blur image by an interval based on the parallax of both eyes of the user, and combine the first blur image and the second blur image such that the spaced distance is maintained. .

상기 프로세서는 상기 이격된 상기 제1 블러 영상과 상기 제2 블러 영상을 보간하여 상기 블러 영상을 생성할 수 있다. The processor may generate the blur image by interpolating the spaced apart first blur image and the second blur image.

상기 프로세서는 상기 가상 컨텐츠 객체를 포함하는 3차원 공간 상에 상기 컨실러 영상을 배치하고, 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 함께 렌더링 함으로써, 좌안 영상과 우안 영상을 생성하며, 상기 좌안 영상과 상기 우안 영상을 투사할 수 있다. The processor places the concealer image on a three-dimensional space including the virtual content object, and renders the virtual content object and the concealer image together, thereby generating a left eye image and a right eye image, and the left eye image and the right eye You can project an image.

상기 프로세서는 상기 가상 컨텐츠 객체를 렌더링 함으로써, 좌안 영상과 우안 영상을 생성하고, 상기 좌안 영상, 상기 우안 영상, 및 상기 컨실러 영상을 투사할 수 있다. The processor may generate a left eye image and a right eye image by rendering the virtual content object, and may project the left eye image, the right eye image, and the concealer image.

상기 프로세서는 상기 사용자 양안의 시차 및 상기 3차원 위치 관계를 기초로, 상기 크로스토크가 발생할 영역을 추정할 수 있다. The processor may estimate an area in which the crosstalk will occur based on the disparity between the user's eyes and the 3D positional relationship.

상기 프로세서는 상기 사용자 양안의 시차 및 상기 3차원 위치 관계를 기초로, 상기 크로스토크가 발생할 영역의 잔상 범위를 조절함으로써 상기 크로스토크가 발생할 영역을 추정할 수 있다. The processor may estimate an area where the crosstalk will occur by adjusting an afterimage range of the area where the crosstalk will occur based on the disparity between the user's both eyes and the 3D positional relationship.

상기 프로세서는 상기 가상 컨텐츠 객체의 위치 이동을 감지하고, 상기 위치 이동에 따라 변경된 상기 3차원 위치 관계 및 상기 사용자 양안의 시차 중 적어도 하나를 기초로, 상기 크로스토크가 발생할 영역을 추정할 수 있다. The processor may detect a positional movement of the virtual content object, and estimate an area in which the crosstalk will occur based on at least one of the 3D positional relationship changed according to the positional movement and the parallax of both eyes of the user.

상기 크로스토크가 발생할 영역은 상기 컨실러 영상을 배치시킬 위치 및 범위에 대응될 수 있다. The area in which the crosstalk will occur may correspond to a location and a range in which the concealer image is to be disposed.

일 실시예에 따르면, 컨텐츠 시각화 장치는 가상 컨텐츠 객체를 프로젝션 평면에 투사하여 시각화하는 디스플레이; 및 사용자 양안의 위치와 상기 가상 컨텐츠 객체의 허상의 위치 간의 3차원 위치 관계를 기초로, 크로스토크가 발생할 영역을 추정하고, 상기 추정된 영역과 상기 가상 컨텐츠 객체를 기초로, 상기 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상을 생성하며, 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 합성하여 상기 크로스토크를 보정하는 프로세서를 포함한다. According to an embodiment, the content visualization apparatus includes a display for projecting a virtual content object onto a projection plane to visualize; and estimating a region where crosstalk will occur based on a three-dimensional positional relationship between the positions of both eyes of the user and the position of the virtual image of the virtual content object, and based on the estimated region and the virtual content object, the crosstalk will occur and a processor that generates a concealer image for correcting a region, and corrects the crosstalk by synthesizing the virtual content object and the concealer image.

일 실시예에 따르면, 증강 현실 안경(Augmented Reality glass, AR glass) 장치는 가상 컨텐츠 객체를 시각화 하는 투명 디스플레이; 및 사용자 양안의 위치와 상기 가상 컨텐츠 객체의 허상의 위치 간의 3차원 위치 관계를 기초로, 크로스토크가 발생할 영역을 추정하고, 상기 추정된 영역과 상기 가상 컨텐츠 객체를 기초로, 상기 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상을 생성하며, 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 합성하여 상기 크로스토크를 보정하는 프로세서를 포함한다. According to one embodiment, the augmented reality glasses (Augmented Reality glass, AR glass) device is a transparent display for visualizing a virtual content object; and estimating a region where crosstalk will occur based on a three-dimensional positional relationship between the positions of both eyes of the user and the position of the virtual image of the virtual content object, and based on the estimated region and the virtual content object, the crosstalk will occur and a processor that generates a concealer image for correcting a region, and corrects the crosstalk by synthesizing the virtual content object and the concealer image.

일 실시예에 따르면, 차량은 상기 차량의 위치를 센싱하는 센서; 사용자에게 제공할 가상 컨텐츠 객체를 프로젝션 평면에 시각화하는 헤드업 디스플레이(head-up display, HUD); 및 상기 차량의 위치에 기초하여 상기 가상 컨텐츠 객체를 결정하고, 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 3차원 위치 관계를 기초로 크로스토크가 발생할 영역을 추정하고, 상기 추정된 영역과 상기 가상 컨텐츠 객체를 기초로 상기 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상을 생성하며, 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 합성하여 상기 크로스토크를 보정하는 프로세서를 포함한다.According to an embodiment, a vehicle includes a sensor for sensing a position of the vehicle; a head-up display (HUD) for visualizing a virtual content object to be provided to a user on a projection plane; and determining the virtual content object based on the location of the vehicle, estimating an area where crosstalk will occur based on a three-dimensional positional relationship between the positions of both eyes of the user and the location of the virtual image of the virtual content object, and the estimated area and and a processor that generates a concealer image for correcting an area where the crosstalk occurs based on the virtual content object, and corrects the crosstalk by synthesizing the virtual content object and the concealer image.

도 1은 일 실시예에 따라 크로스토크를 보정하는 방법을 개념적으로 설명하기 위한 도면.
도 2는 일 실시예에 따른 가상 컨텐츠 객체의 예시를 설명하는 도면.
도 3은 일 실시예에 따른 크로스토크를 보정하는 장치의 구성을 도시한 블록도.
도 4는 일 실시예에 따라 크로스토크가 보정된 가상 컨텐츠 객체를 표시하는 헤드업 디스플레이(Head Up Display, HUD)의 구성을 도시한 블록도.
도 5는 일 실시예에 따른 크로스토크를 보정하는 방법을 나타낸 흐름도.
도 6은 일 실시예에 따른 크로스토크를 보정하는 방법을 설명하기 위한 도면.
도 7은 일 실시예에 따라 컨실러 영상을 생성하는 방법을 나타낸 흐름도.
도 8은 일 실시예에 따라 블러 영상을 생성하는 방법을 설명하기 위한 도면.
도 9는 일 실시예에 따라 사용자 양안과 가상 컨텐츠 객체와의 거리가 멀어질수록 시차가 증가하는 원리를 도시한 도면.
도 10 내지 도 12는 실시예들에 따라 적어도 하나의 효과 요소를 조절하는 방법을 설명하기 위한 도면.
도 13은 다른 실시예에 따라 크로스토크를 보정하는 방법을 나타낸 흐름도.
1 is a diagram for conceptually explaining a method of correcting crosstalk according to an embodiment;
2 is a view for explaining an example of a virtual content object according to an embodiment;
3 is a block diagram illustrating a configuration of an apparatus for correcting crosstalk according to an embodiment.
4 is a block diagram illustrating a configuration of a Head Up Display (HUD) for displaying a virtual content object having crosstalk corrected according to an exemplary embodiment;
5 is a flowchart illustrating a method of correcting crosstalk according to an embodiment.
6 is a view for explaining a method of correcting crosstalk according to an embodiment;
7 is a flowchart illustrating a method of generating a concealer image according to an embodiment.
8 is a view for explaining a method of generating a blur image according to an embodiment;
FIG. 9 is a diagram illustrating a principle that parallax increases as a distance between both eyes of a user and a virtual content object increases, according to an exemplary embodiment;
10 to 12 are diagrams for explaining a method of adjusting at least one effect element according to embodiments;
13 is a flowchart illustrating a method of correcting crosstalk according to another embodiment;

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 구현될 수 있다. 따라서, 실제 구현되는 형태는 개시된 특정 실시예로만 한정되는 것이 아니며, 본 명세서의 범위는 실시예들로 설명한 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for purposes of illustration only, and may be changed and implemented in various forms. Accordingly, the actual implementation form is not limited to the specific embodiments disclosed, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical spirit described in the embodiments.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although terms such as first or second may be used to describe various elements, these terms should be interpreted only for the purpose of distinguishing one element from another. For example, a first component may be termed a second component, and similarly, a second component may also be termed a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being “connected to” another component, it may be directly connected or connected to the other component, but it should be understood that another component may exist in between.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The singular expression includes the plural expression unless the context clearly dictates otherwise. In this specification, terms such as "comprise" or "have" are intended to designate that the described feature, number, step, operation, component, part, or combination thereof exists, and includes one or more other features or numbers, It should be understood that the possibility of the presence or addition of steps, operations, components, parts or combinations thereof is not precluded in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present specification. does not

이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. In the description with reference to the accompanying drawings, the same components are assigned the same reference numerals regardless of the reference numerals, and overlapping descriptions thereof will be omitted.

도 1은 일 실시예에 따라 크로스토크를 보정하는 방법을 개념적으로 설명하기 위한 도면이다. 도 1을 참조하면, 무안경 3D 디스플레이에서 시각화 하고자 하는 대상(101)에 대해 사용자 양안에 정확한 그래픽 정보가 조사되지 않음으로써 가상 화면(virtual screen)(110)에서 시각화되는 가상 컨텐츠 객체(130)의 주변에 발생하는 크로스토크(140)가 도시된다.1 is a diagram for conceptually explaining a method of correcting crosstalk according to an exemplary embodiment. Referring to FIG. 1 , the virtual content object 130 visualized on the virtual screen 110 is not irradiated with accurate graphic information to both eyes of the user for the object 101 to be visualized on the autostereoscopic 3D display. Crosstalk 140 occurring in the periphery is shown.

예를 들어, 가상 화면(110)에서 사용자의 좌안에 제공되는 좌안 영상(112)과 사용자의 우안에 제공되는 우안 영상(114)을 통해 시각화 하고자 하는 대상(101)의 허상(120)이 시각화될 수 있다. 이때, 빛 번짐과 같은 광학 현상으로 인해 스테레오 영상이 불완전하게 분리되어 좌안 영상(112)이 사용자의 우안으로 제공되고, 우안 영상(114)이 사용자의 좌안에 제공되면, 가상 화면(110)에 표시되는 가상 컨텐츠 객체(130)의 주변에 좌안 영상(112)과 우안 영상(114)이 겹쳐짐으로 인해 크로스토크(140)가 발생할 수 있다. 이때, 가상 화면(110)은 예를 들어, 무안경 3D 디스플레이 또는 헤드 업(Head Up Display; HUD)의 가상 화면이거나, 또는 증강 현실 안경 장치와 같은 증강 현실 장치의 투명 디스플레이의 가상 화면일 수 있으며, 반드시 이에 한정되지는 않는다. 가상 컨텐츠 객체(130) 및 가상 컨텐츠 객체(130)가 시각화되는 공간에 대하여는 아래 도 2를 참조하여 보다 구체적으로 설명한다. For example, on the virtual screen 110 , the virtual image 120 of the target 101 to be visualized is visualized through the left eye image 112 provided to the user's left eye and the right eye image 114 provided to the user's right eye. can At this time, when the stereo image is incompletely separated due to an optical phenomenon such as light blur, the left eye image 112 is provided to the user's right eye, and the right eye image 114 is provided to the user's left eye, it is displayed on the virtual screen 110 Crosstalk 140 may occur because the left-eye image 112 and the right-eye image 114 are overlapped around the virtual content object 130 . In this case, the virtual screen 110 may be, for example, a virtual screen of a glasses-free 3D display or a Head Up Display (HUD), or a virtual screen of a transparent display of an augmented reality device such as an augmented reality glasses device. , but not necessarily limited thereto. The virtual content object 130 and the space in which the virtual content object 130 is visualized will be described in more detail with reference to FIG. 2 below.

일 실시예에서는 가상 컨텐츠 객체(130)의 주변에 크로스토크(140)의 발생 부위만큼 렌더링(rendering)한 영상(150)를 붙여 크로스토크(140) 발생 부위를 커버할 수 있다. 크로스토크의 발생 부위만큼 렌더링한 영상(150)은 크로스토크 발생 부위를 감추거나 숨긴다는 의미에서 '컨실러 영상(concealer image)'이라고 부를 수 있다. 이하, 크로스토크의 발생 부위만큼 렌더링한 영상(150)과 컨실러 영상은 동일한 의미로 이해될 수 있다. In an exemplary embodiment, the crosstalk 140 occurrence portion may be covered by attaching a rendered image 150 to the periphery of the virtual content object 130 as much as the crosstalk 140 occurrence portion. The image 150 rendered as much as the crosstalk occurrence region may be referred to as a 'concealer image' in the sense of hiding or hiding the crosstalk occurrence region. Hereinafter, the image 150 rendered as much as the crosstalk occurrence region and the concealer image may be understood to have the same meaning.

일 실시예에서는 예를 들어, 가상 컨텐츠 객체(140)의 색상에서 힌트를 얻어 컨실러 영상(150)을 생성함으로써 컨실러 영상(150)에 의해 크로스토크가 발생한 영역이 주변과의 위화감 없이 자연스럽게 커버되도록 할 수 있다. 컨실러 영상을 생성하는 방법은 아래의 도 7 내지 도 8을 참조하여 보다 구체적으로 설명한다. In one embodiment, for example, by obtaining a hint from the color of the virtual content object 140 and generating the concealer image 150, the area in which the crosstalk occurs by the concealer image 150 is naturally covered without a sense of incongruity with the surroundings. can A method of generating a concealer image will be described in more detail with reference to FIGS. 7 to 8 below.

또한, 일 실시예에서는 컨실러 영상(150)에 대한 거리 별 밝기, 넓이, 실외 휘도, HUD의 밝기, 색상 등과 같은 다양한 효과 요소(effect element)를 조절하여 크로스토크(140)의 발생 부분을 덮음으로써 크로스토크(140)의 잔상을 상쇄할 수 있다. 이때, 효과 요소는 크로스토크(140)의 발생 부분을 덮는 한편, 주변과의 위화감을 줄이기 위해 컨실러 영상(150)에 글로우 효과(glow effect)를 제공하기 위한 것일 수 있다. In addition, in one embodiment, by adjusting various effect elements such as brightness for each distance, area, outdoor brightness, HUD brightness, color, etc. for the concealer image 150 to cover the portion where the crosstalk 140 occurs. An afterimage of the crosstalk 140 may be canceled. In this case, the effect element may be to provide a glow effect to the concealer image 150 in order to cover the portion where the crosstalk 140 is generated and to reduce a sense of incongruity with the surroundings.

컨실러 영상(150)의 범위는 예를 들어, 가상 화면(110)에서 시각화되는 가상 컨텐츠 객체의 허상(120)의 위치와 사용자 양안의 위치 간의 거리에 따른 시차(disparity)의 변화량에 따라 결정될 수 있다. 가상 컨텐츠 객체의 허상(120)의 위치와 사용자 양안의 위치 간의 거리와 시차의 관계는 아래의 도 9를 참조하여 보다 구체적으로 설명한다. The range of the concealer image 150 may be determined, for example, according to the amount of change in disparity according to the distance between the location of the virtual image 120 of the virtual content object visualized on the virtual screen 110 and the location of both eyes of the user. . The relationship between the distance and the parallax between the position of the virtual image 120 of the virtual content object and the position of both eyes of the user will be described in more detail with reference to FIG. 9 below.

또한, 컨실러 영상(150)의 밝기 레벨은 예를 들어, 외부 환경의 조도와 가상 화면(110)의 밝기에 따라 조정될 수 있다. 일 실시예에서는 컨실러 영상(150)의 효과 요소를 다양하게 조절함으로써 가상 화면(110)에서 발생하는 크로스토크(140)를 제거하는 한편, 가상 화면(110)의 밝기와 선명도를 최적화할 수 있다. 일 실시예에 따라 효과 요소를 조절하는 방법은 아래의 도 10 내지 도 12를 참조하여 보다 구체적으로 설명한다. Also, the brightness level of the concealer image 150 may be adjusted according to, for example, the illuminance of the external environment and the brightness of the virtual screen 110 . In an embodiment, by variously adjusting the effect elements of the concealer image 150 , the crosstalk 140 occurring in the virtual screen 110 may be removed while optimizing the brightness and sharpness of the virtual screen 110 . A method of adjusting an effect element according to an embodiment will be described in more detail with reference to FIGS. 10 to 12 below.

도 2는 일 실시예에 따른 가상 컨텐츠 객체의 예시를 설명하는 도면이다. 도 2를 참조하면, 객체 배치 공간(210) 내의 임의의 위치에 가상 컨텐츠 객체(221)가 시각화된 결과가 도시된다. 이하, 설명의 편의를 위하여 가상 컨텐츠 객체(221)의 허상이 표시되는 프로젝션 패널이 헤드업 디스플레이인 경우를 예로 들어 설명하지만, 반드시 이에 한정되는 것은 아니며, 이외에 증강 현실 안경 장치의 투명 디스플레이 등과 같은 다양한 프로젝션 패널에 가상 컨텐츠 객체(221)가 시각화될 수 있다. 2 is a diagram for explaining an example of a virtual content object according to an embodiment. Referring to FIG. 2 , a result of visualizing the virtual content object 221 at an arbitrary position in the object arrangement space 210 is shown. Hereinafter, for convenience of explanation, a case in which the projection panel on which the virtual image of the virtual content object 221 is displayed is a head-up display will be described as an example, but the present invention is not limited thereto. The virtual content object 221 may be visualized on the projection panel.

일 실시예에 따른 크로스토크를 보정하는 장치(이하, '보정 장치')는 가상 컨텐츠 객체와 컨실러 영상을 합성하여 크로스토크를 보정하고, 크로스토크가 보정된 가상 컨텐츠 객체를 시각화할 수 있다. 가상 컨텐츠 객체는 컨텐츠에 대응하는 그래픽 객체를 나타낼 수 있다. 가상 컨텐츠 객체는 예를 들어, 화살표 형태의 경로 안내 컨텐츠(221)에 대응하는 그래픽 객체를 포함할 수 있다.An apparatus for correcting crosstalk (hereinafter, referred to as a 'correction device') according to an embodiment may correct crosstalk by synthesizing a virtual content object and a concealer image, and may visualize the crosstalk corrected virtual content object. The virtual content object may represent a graphic object corresponding to the content. The virtual content object may include, for example, a graphic object corresponding to the arrow-shaped route guide content 221 .

예를 들어, 보정 장치는 객체 배치 공간(210) 내의 임의의 위치에 그래픽 객체를 배치하고, 시각화할 수 있다. 보정 장치는 사용자의 좌안에 좌안 영상을 제공하고, 사용자의 우안에 우안 영상을 제공함으로써, 그래픽 객체를 입체적으로 제공할 수 있다. 좌안 영상 및 우안 영상은 서로에 대해 수평축을 따라 깊이에 따른 사용자 양안의 시차만큼 이격된 그래픽 객체를 포함할 수 있다. 따라서 사용자는 입체적으로 렌더링된 그래픽 객체의 깊이감을 인식할 수 있다.For example, the calibrating apparatus may place and visualize the graphic object at an arbitrary position in the object arrangement space 210 . The correction apparatus may provide the graphic object three-dimensionally by providing the left eye image to the user's left eye and the right eye image to the user's right eye. The left-eye image and the right-eye image may include graphic objects spaced apart from each other by a parallax of both eyes of the user according to depth along a horizontal axis. Accordingly, the user can recognize the sense of depth of the three-dimensionally rendered graphic object.

다만, 전술한 것과 같이 좌안 영상이 사용자의 우안으로 제공되고, 우안 영상이 사용자의 좌안에 잘못 제공되는 경우, 좌안 영상과 우안 영상이 겹쳐짐으로써 크로스토크가 발생할 수 있다. However, as described above, when the left eye image is provided to the user's right eye and the right eye image is incorrectly provided to the user's left eye, crosstalk may occur because the left eye image and the right eye image overlap.

이 경우, 보정 장치는 도 1을 통해 전술한 것과 같이 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상과 가상 컨텐츠 객체를 합성함으로써 크로스토크를 보정할 수 있다. 이를 위한 보정 장치의 구성의 일 예시는 아래의 도 3 내지 도 4를 참조하여 구체적으로 설명한다. 또한, 보정 장치가 크로스토크를 보정하는 방법은 아래의 도 5를 참조하여 구체적으로 설명한다. In this case, as described above with reference to FIG. 1 , the correction apparatus may correct the crosstalk by synthesizing the concealer image for correcting the area where the crosstalk will occur and the virtual content object. An example of the configuration of the compensating device for this will be described in detail with reference to FIGS. 3 to 4 below. In addition, a method for correcting crosstalk by the correction device will be described in detail with reference to FIG. 5 below.

이하에서는 크로스토크를 보정하는 방법에 앞서, 가상 컨텐츠 객체 및 가상 컨텐츠 객체가 시각화되는 공간에 대해 먼저 살펴보기로 한다. Hereinafter, prior to a method of correcting crosstalk, a virtual content object and a space in which the virtual content object is visualized will be first described.

객체 배치 공간(210)은 그래픽 객체가 배치될 수 있는 3차원 공간에 해당할 수 있다. 객체 배치 공간(210)은 깊이를 가지는 그래픽 객체가 입체적으로 시각화될 수 있는 공간을 나타낼 수 있다. 객체 배치 공간(210)에 속하는 각 지점의 좌표는 물리적 세계(physical world)의 위치 좌표와 동일하거나 유사한 스케일로 매핑될 수 있다. 객체 배치 공간(210)의 경계(boundary)는 헤드업 디스플레이의 구조에 따라 결정될 수 있다. 예를 들어, 보정 장치는 헤드업 디스플레이의 구조에 따라 결정된 최소 깊이(예를 들어, 최소 거리)로부터 최대 깊이(예를 들어, 최대 거리)까지의 공간 내에서 그래픽 객체를 시각화할 수 있다.The object arrangement space 210 may correspond to a three-dimensional space in which graphic objects may be arranged. The object arrangement space 210 may represent a space in which a graphic object having depth can be three-dimensionally visualized. The coordinates of each point belonging to the object arrangement space 210 may be mapped to the same or similar scale as the position coordinates of the physical world. A boundary of the object arrangement space 210 may be determined according to the structure of the head-up display. For example, the calibrating apparatus may visualize the graphic object in a space from a minimum depth (eg, a minimum distance) to a maximum depth (eg, a maximum distance) determined according to the structure of the head-up display.

객체 배치 공간(210)은 사용자의 시야에 대응하는 공간에 기초하여 결정될 수 있다. 객체 배치 공간(210)의 형태 및 크기는 아이 박스(290)(eye box)의 크기 및 헤드업 디스플레이에 의해 제공될 수 있는 시야각(FOV, field of view)에 기초하여 결정될 수 있다. 객체 배치 공간(210)은, 예를 들어, 사각뿔(rectangular cone) 형태로서, 아이 박스(290)로부터 시야각에 대응하여 확장되는 형태의 공간일 수 있다. 아이 박스(290)는 사용자의 양안(both eyes)이 위치하는 것으로 설정된 영역을 나타낼 수 있다. 아이 박스(290)의 위치는 고정될 수 있으나, 반드시 이에 한정되는 것은 아니고, 사용자에 대해 검출되는 눈의 위치에 따라 변경될 수도 있다. 객체 배치 공간(210)의 형태 또한 사각뿔 형태로 한정되는 것은 아니고, 설계에 따라 변경될 수 있다.The object arrangement space 210 may be determined based on a space corresponding to the user's field of view. The shape and size of the object arrangement space 210 may be determined based on a size of an eye box 290 and a field of view (FOV) that may be provided by a heads-up display. The object arrangement space 210 may be, for example, in the form of a rectangular cone, and may be a space extending from the eye box 290 to correspond to a viewing angle. The eye box 290 may indicate an area in which both eyes of the user are located. The position of the eye box 290 may be fixed, but is not limited thereto, and may be changed according to the position of the eye detected for the user. The shape of the object arrangement space 210 is also not limited to a quadrangular pyramid shape, and may be changed according to design.

일 실시예에 따른 보정 장치는, 윈드 쉴드 글래스(wind shield glass)(280) 너머로 객체 배치 공간(210) 내 표시 위치에, 다양한 종류의 그래픽 표현을 시각화 할 수 있고, 서로 다른 종류의 그래픽 표현은 서로 다른 객체 배치 공간(210)에 시각화 할 수 있도록 구현할 수 있다.The correction device according to an embodiment may visualize various types of graphic expressions at a display position in the object arrangement space 210 beyond the wind shield glass 280, and the different types of graphic expressions are It can be implemented so that it can be visualized in different object arrangement spaces 210 .

객체 배치 공간(210) 내에 표시 가능한 그래픽 표현의 종류는 예를 들어 경로 안내 컨텐츠(221), 경로 지시선(222), 및 경고 컨텐츠(223) 등을 포함할 수 있다. 이 외에도 객체 배치 공간(210) 내에 표시 가능한 그래픽 표현의 종류는 다양한 형태로 변경 및 실시 가능하다.The types of graphic representations that can be displayed in the object arrangement space 210 may include, for example, a route guide content 221 , a route leader line 222 , and a warning content 223 . In addition to this, the type of graphic expression that can be displayed in the object arrangement space 210 can be changed and implemented in various forms.

사용자는 객체 배치 공간(210) 내 표시 위치에 대응하는 물리적 위치에 해당 그래픽 표현들이 존재한다고 인식할 수 있다. 상술한 바와 같이, 객체 배치 공간(210)의 각 좌표는 물리적 좌표와 일대일로 매핑될 수 있다. 또한, 가상 컨텐츠 객체는 해당 형태만큼의 공간을 차지할 수 있다. 예를 들어, 가상 컨텐츠 객체는 객체 배치 공간(210) 내 일부 공간을 차지할 수 있다.The user may recognize that the corresponding graphic representations exist at a physical location corresponding to the display location in the object arrangement space 210 . As described above, each coordinate of the object arrangement space 210 may be mapped one-to-one with physical coordinates. Also, the virtual content object may occupy as much space as the corresponding shape. For example, the virtual content object may occupy some space in the object arrangement space 210 .

경로 안내 컨텐츠(221)는 목적지까지의 경로를 진행하기 위해 제공되어야 하는 경로 안내 정보가 시각화된 컨텐츠로서, 예를 들어, 사용자가 직진해야 하는 거리를 지시하는 숫자 및 문자, 갈림길에서 방향 전환(예를 들어, 좌회전 및 우회전 등)을 지시하는 화살표, 현재 주행 중인 도로(270)에서의 제한 속도, 현재 주행 중인 위치의 지역명, 및 도로명 등을 포함할 수 있다. 경로 안내 정보는 사용자에 의해 설정된 경로에 따른 사용자의 이동을 안내하는 정보 및 해당 경로와 연관된 정보를 나타낼 수 있다. 예를 들어, 경로 안내 정보는 사용자가 직진해야 하는 거리(distance), 갈림길에서 방향 전환(turn) 등을 포함할 수 있다. 경로는 출발지로부터 목적지까지 사용자가 통과해야 하는 길(path)을 나타낼 수 있다. 또한, 경로 안내 정보는 목적지까지의 경로와 연관된 정보로서, 경로에 포함되는 도로(270)의 위치, 지역, 명칭, 속성, 및 안전 정보(예를 들어, 제한 속도, 공사 정보, 및 사고 정보 등)를 포함할 수 있다. 경로 지시선(222)은 목적지까지의 경로를 지시하는 선이고, 경로 안내 컨텐츠(221)와 구별되는 형태의 경로 안내 정보로서 시각화될 수 있다. 경고 컨텐츠(223)는 현재 주행환경에서 필요한 경우 사용자에게 주어져야 하는 경고 메시지를 포함할 수 있다.The route guide content 221 is content in which route guide information that must be provided to proceed a route to a destination is visualized, for example, numbers and letters indicating the distance the user should go straight, and a direction change (eg, at a fork in the road). For example, it may include an arrow indicating a left turn and a right turn), a speed limit on the road 270 on which the vehicle is currently being driven, a name of a region where the vehicle is currently being driven, and a road name. The route guide information may indicate information for guiding the movement of the user along a route set by the user and information related to the route. For example, the route guidance information may include a distance to which the user must go straight, a turn at a fork in the road, and the like. The route may indicate a path through which the user must pass from the origin to the destination. In addition, route guidance information is information related to a route to a destination, and includes location, area, name, attribute, and safety information (eg, speed limit, construction information, accident information, etc.) of the road 270 included in the route. ) may be included. The route indicator line 222 is a line indicating a route to the destination, and may be visualized as route guide information in a form distinct from the route guide content 221 . The warning content 223 may include a warning message to be given to the user when necessary in the current driving environment.

또한, 일 실시예에 따른 보정 장치는 센서(예를 들어, 카메라 센서, GNSS 모듈, 레이더 센서 및 LIDAR 센서 등)를 이용하여, 차량의 위치를 추정할 수 있다. 보정 장치는 차량의 위치로부터 운전자의 눈 위치만큼의 오차 간격을 고려하여, 경로 안내 컨텐츠(221)에 대응하는 그래픽 객체를 실제 도로(270)에 정합하여 시각화할 수 있다. HD(High Definition) 맵 데이터가 사용되는 경우, 보정 장치는 보다 정확한 위치에 경로 안내 컨텐츠(221)를 정합할 수 있다. 이러한 정합을 통해, 운전자의 심리적 안정감을 개선할 수 있다.Also, the calibration apparatus according to an embodiment may estimate the location of the vehicle using a sensor (eg, a camera sensor, a GNSS module, a radar sensor, a LIDAR sensor, etc.). The compensator may visualize the graphic object corresponding to the route guidance content 221 by matching it with the actual road 270 in consideration of an error interval equal to the driver's eye position from the vehicle position. When HD (High Definition) map data is used, the correction apparatus may match the route guide content 221 to a more accurate location. Through such matching, it is possible to improve the psychological stability of the driver.

이하, 본 명세서에서는 설명의 편의를 위하여, 가상 컨텐츠 객체의 일 예시에 해당하는 경로 안내 컨텐츠(221)에 대해 발생한 크로스토크의 보정을 설명하나, 반드시 이에 한정되는 것은 아니다. 일 실시예에 따른 크로스토크의 보정 및 컨텐츠 시각화는 객체 배치 공간 내에 시각화되는 모든 그래픽 객체에 적용될 수 있다.Hereinafter, for convenience of explanation, correction of crosstalk generated with respect to the route guide content 221 corresponding to an example of a virtual content object will be described, but the present disclosure is not limited thereto. Crosstalk correction and content visualization according to an embodiment may be applied to all graphic objects visualized in an object arrangement space.

도 3은 일 실시예에 따른 크로스토크를 보정하는 장치의 구성을 도시한 블록도이다. 도 3을 참조하면, 일 실시예에 따른 크로스토크를 보정하는 장치(이하, '보정 장치')(300)는 센서(310) 및 프로세서(330)를 포함한다. 보정 장치(300)는 메모리(350), 디스플레이(370) 및 통신 인터페이스(290)를 포함한다.3 is a block diagram illustrating a configuration of an apparatus for correcting crosstalk according to an exemplary embodiment. Referring to FIG. 3 , an apparatus (hereinafter, 'correction apparatus') 300 for correcting crosstalk according to an exemplary embodiment includes a sensor 310 and a processor 330 . The calibration device 300 includes a memory 350 , a display 370 and a communication interface 290 .

센서(310)는 사용자 양안의 위치를 감지한다. 센서(310)는 예를 들어, 눈 추적기(eye tracker) 또는 홍채 인식 센서일 수 있다. 또한, 센서(310)는 컨텐츠의 시각화를 위해 필요한 정보를 감지할 수 있다. 일 실시예에 따르면, 센서(310)는 사용자의 주변에 위치하는 객체까지의 거리를 측정할 수 있고, 예를 들어, 라이다(LIDAR, Light Detection and Ranging) 및 레이더(RADAR, Radio Detection and Ranging) 등을 포함할 수 있다. 또한, 센서(310)는 보정 장치(300)가 장착된 기기의 상태와 관련된 정보를 센싱할 수 있다. 예를 들어, 차량에 장착된 경우, 센서(310)는 차량과 관련된 정보를 센싱할 수 있으며, 차량과 관련된 정보는 차량의 위치 정보, 차량의 위치에 대응하는 도로 정보, 및 차량의 주행 관련 정보 등을 포함할 수 있다. 여기서 주행 관련 정보는 차량의 주행과 관련된 정보로서, 예를 들어, 차량의 속도, 가속도, 위치, 연료, 및 정비와 관련된 정보일 수 있다. 또한, 센서(310)는 차량 내부를 촬영하는 내부 센서를 포함할 수도 있다. 내부 센서는 카메라 센서(예를 들어, 컬러 카메라), 적외선 센서, 깊이 센서, 및 열화상 센서 등일 수 있으나, 반드시 이에 한정되는 것은 아니다. 내부 센서는 차량 내 사용자의 눈과 관련된 정보를 획득할 수 있고, 프로세서(330)가 사용자의 눈 위치를 결정하여 객체 배치 공간의 설정 및 입체 영상(예를 들어, 좌영상 및 우영상의 쌍)의 시각화에 이용하도록 할 수도 있다.The sensor 310 detects the position of both eyes of the user. The sensor 310 may be, for example, an eye tracker or an iris recognition sensor. Also, the sensor 310 may detect information required for content visualization. According to an embodiment, the sensor 310 may measure a distance to an object located in the vicinity of the user, for example, LIDAR (Light Detection and Ranging) and Radar (RADAR, Radio Detection and Ranging). ) and the like. Also, the sensor 310 may sense information related to the state of the device on which the calibration device 300 is mounted. For example, when mounted on a vehicle, the sensor 310 may sense vehicle-related information, and the vehicle-related information includes vehicle location information, road information corresponding to the vehicle location, and vehicle driving-related information. and the like. Here, the driving-related information is information related to driving of the vehicle, and may be, for example, information related to speed, acceleration, location, fuel, and maintenance of the vehicle. Also, the sensor 310 may include an internal sensor that captures the inside of the vehicle. The internal sensor may be a camera sensor (eg, a color camera), an infrared sensor, a depth sensor, and a thermal image sensor, but is not necessarily limited thereto. The internal sensor may acquire information related to the user's eyes in the vehicle, and the processor 330 determines the user's eye position to set the object arrangement space and stereoscopic image (eg, a pair of left and right images) It can also be used for visualization of

차량의 위치 정보는 차량이 위치하는 현재 좌표일 수 있으며, 현재 차량이 주행 중인 차로 정보까지 지시할 수 있다. 예를 들어, 센서(310)는 GNSS(Global Navigation Satellite System)를 통해 차량의 2차원 좌표를 획득할 수 있다. 또한, 센서(310)는 차량의 전방에 대한 전방 영상을 획득할 수 있고, 프로세서(330)가 전방 영상으로부터 도로를 구성하는 복수의 차로들 중 현재 차량이 주행 중인 차로(ego lane)를 결정할 수 있다. 다만, 반드시 이에 한정되는 것은 아니고, 프로세서(330)는 센서(310)로부터 수집된 영상에 기초하여, 현재 차량의 위치를 추정할 수도 있다.The location information of the vehicle may be current coordinates in which the vehicle is located, and may indicate information on the lane in which the vehicle is currently driving. For example, the sensor 310 may acquire two-dimensional coordinates of the vehicle through a global navigation satellite system (GNSS). In addition, the sensor 310 may acquire a front image of the front of the vehicle, and the processor 330 may determine an ego lane in which the vehicle is currently driving among a plurality of lanes constituting the road from the front image. there is. However, the present invention is not limited thereto, and the processor 330 may estimate the current location of the vehicle based on the image collected from the sensor 310 .

도로 정보는 도로의 폭, 도로를 구성하는 차로(lane)의 개수, 차로의 폭, 중앙선(center line), 방향 전환 지점(turn point), 교통 신호(traffic signal) 및 기타 교통(traffic)과 관련된 정보 중 하나 이상을 포함할 수 있다.Road information includes road width, number of lanes constituting the road, lane width, center line, turn point, traffic signal and other traffic related information. It may include one or more of the information.

센서(310)는 예를 들어, 다양한 유형의 센서들을 포함하는 센서 모듈일 수 있다. The sensor 310 may be, for example, a sensor module including various types of sensors.

프로세서(330)는 센서(310)에 의해 감지된 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 3차원 위치 관계를 기초로, 크로스토크가 발생할 영역을 추정한다. 프로세서(330)는 추정된 영역과 가상 컨텐츠 객체를 기초로, 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상을 생성한다. 프로세서(330)는 가상 컨텐츠 객체와 컨실러 영상을 합성하여 크로스토크를 보정한다. 프로세서(330)는 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 3차원 위치 관계를 직접 산출할 수도 있고, 또는 통신 인터페이스(390)를 통해 외부로부터 수신할 수도 있다. 이때, 3차원 위치 관계는 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 거리(distance)를 포함하는 것으로 이해될 수 있다. The processor 330 estimates a region in which crosstalk will occur based on a three-dimensional positional relationship between the positions of both eyes of the user detected by the sensor 310 and the positions of the virtual images of the virtual content object. The processor 330 generates a concealer image for correcting an area in which crosstalk occurs based on the estimated area and the virtual content object. The processor 330 corrects crosstalk by synthesizing the virtual content object and the concealer image. The processor 330 may directly calculate a 3D positional relationship between the positions of both eyes of the user and the positions of the virtual images of the virtual content object, or may receive them from the outside through the communication interface 390 . In this case, the 3D positional relationship may be understood to include a distance between the positions of both eyes of the user and the positions of the virtual images of the virtual content object.

또한, 프로세서(330)는 디스플레이(370)를 통해 시각화되는 컨텐츠를 생성할 수 있다. 일 실시예에 따르면 프로세서(330)는 추정된 전방 도로 영역에 기초하여 객체 배치 공간을 생성할 수 있다. 프로세서(330)는 객체 배치 공간에 배치된 가상 컨텐츠 객체를 프로젝션 평면에 투사된 형태로 렌더링하여 디스플레이(370)를 통해 사용자에게 제공할 수 있다. 프로세서(330)는 가상 컨텐츠 객체가 프로젝션 평면에 투사되는 형태에 기초하여, 가상 컨텐츠 객체를 조정할 수도 있다. 예를 들어, 프로세서(330)는 임의의 기준점 및 기준 축에 기초하여 가상 컨텐츠 객체를 변형(deform)시키거나 회전(rotate)시킬 수 있다. 다만, 프로세서(330)의 동작을 상술한 바로 한정하는 것은 아니고, 프로세서(330)는 아래 도 4 내지 도 13에서 설명된 동작들 중 적어도 하나와 함께 상술한 동작을 수행할 수도 있다. 프로세서(330)의 보다 구체적인 동작은 아래 도 4 내지 도 13을 통해 설명한다.Also, the processor 330 may generate content visualized through the display 370 . According to an embodiment, the processor 330 may generate an object arrangement space based on the estimated front road area. The processor 330 may render the virtual content object disposed in the object arrangement space in a form projected on the projection plane and provide it to the user through the display 370 . The processor 330 may adjust the virtual content object based on the shape in which the virtual content object is projected on the projection plane. For example, the processor 330 may deform or rotate the virtual content object based on an arbitrary reference point and reference axis. However, the operation of the processor 330 is not limited as described above, and the processor 330 may perform the above-described operation together with at least one of the operations described with reference to FIGS. 4 to 13 below. A more detailed operation of the processor 330 will be described with reference to FIGS. 4 to 13 below.

프로세서(330)는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 영상 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 보정 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(Central Processing Unit; CPU), 그래픽 처리 장치(Graphic Processing Unit; GPU), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array), NPU(Neural Processing Unit) 등을 포함할 수 있다.The processor 330 may be an image processing apparatus implemented in hardware having a circuit having a physical structure for executing desired operations. For example, desired operations may include code or instructions included in a program. For example, a hardware-implemented calibration unit may include a microprocessor, a central processing unit (CPU), a graphic processing unit (GPU), a processor core, and a multi-core processor. It may include a multi-core processor, a multiprocessor, an application-specific integrated circuit (ASIC), a field programmable gate array (FPGA), a neural processing unit (NPU), and the like.

프로세서(330)는 프로그램을 실행하고, 보정 장치(300)를 제어할 수 있다. 프로세서(330)에 의하여 실행되는 프로그램 코드는 메모리(350)에 저장될 수 있다.The processor 330 may execute a program and control the calibration device 300 . The program code executed by the processor 330 may be stored in the memory 350 .

메모리(350)는 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 거리를 포함하는 3차원 위치 관계 및/또는 프로세서(330)가 추정한 크로스토크가 발생할 영역에 대한 정보를 저장할 수 있다. 또한, 메모리(350)는 컨실러 영상 및/또는 가상 컨텐츠 객체와 컨실러 영상을 합성한 결과 영상을 저장할 수 있다. The memory 350 may store information on a three-dimensional positional relationship including a distance between the positions of both eyes of the user and the positions of the virtual images of the virtual content object and/or information on a region where crosstalk estimated by the processor 330 will occur. Also, the memory 350 may store a concealer image and/or an image resulting from synthesizing the virtual content object and the concealer image.

이 밖에도, 메모리(350)는 프로세서(330)가 생성한 컨텐츠 시각화에 요구되는 정보를 임시적으로 또는 영구적으로 저장할 수 있다. 예를 들어, 메모리(350)는 프로세서(330)에 의해 실행되어 아래 도 4 내지 도 13에 따른 동작을 수행하기 위한 명령어들을 저장할 수 있다. 또한, 메모리(350)는 가상 컨텐츠 객체, 경로 안내 정보, 및 맵 데이터베이스 등을 저장할 수도 있다. 맵 데이터베이스는 맵 데이터를 저장하는 데이터베이스를 나타낼 수 있다. 맵 데이터베이스는 예를 들어, HD(high definition) 맵 데이터를 저장할 수도 있다. HD 맵 데이터는, 예를 들어, 차로 개수, 차로의 폭, 및 중심선의 위치 등과 같은 정밀 데이터(fine data)에 관한 정보를 포함할 수 있다.In addition, the memory 350 may temporarily or permanently store information required for content visualization generated by the processor 330 . For example, the memory 350 may store instructions that are executed by the processor 330 to perform operations according to FIGS. 4 to 13 below. Also, the memory 350 may store a virtual content object, route guide information, and a map database. The map database may represent a database that stores map data. The map database may store, for example, high definition (HD) map data. The HD map data may include, for example, information on fine data such as the number of lanes, a width of a lane, and a position of a center line.

디스플레이(370)는 크로스토크가 보정된 가상 컨텐츠 객체를 시각화하여 사용자에게 제공할 수 있다. 디스플레이(370)는 가상 컨텐츠 객체를 프로젝션 평면에 투사하여 시각화할 수 있다. 일 실시예에 따르면 디스플레이(370)는 헤드업 디스플레이일 수 있고, 사용자의 전방에 프로젝션 평면을 형성하여, 프로젝션 평면을 통해 컨텐츠를 사용자에게 제공할 수 있다. 실시예에 따라서, 디스플레이(370)는 증강 현실 안경(Augmented Reality glass, AR glass) 장치에 있어서, 가상 컨텐츠 객체를 시각화하는 투명 디스플레이일 수 있다. 실시예에 따라서, 투명 디스플레이는 크로스토크가 보정된 가상 컨텐츠 객체를 주변의 실제 환경에 하여 제공할 수 있다. The display 370 may visualize the crosstalk-corrected virtual content object and provide it to the user. The display 370 may visualize the virtual content object by projecting it on the projection plane. According to an embodiment, the display 370 may be a heads-up display, and a projection plane may be formed in front of the user to provide content to the user through the projection plane. According to an embodiment, the display 370 may be a transparent display that visualizes a virtual content object in an augmented reality glass (AR glass) device. According to an embodiment, the transparent display may provide a virtual content object having crosstalk corrected to a surrounding real environment.

일 실시예에 따르면, 디스플레이(370)는 사용자의 좌안에 좌영상을 제공하고, 우안에 우영상을 제공할 수 있다. 예를 들어, 프로세서(210)가 운전자의 좌안에 대응하는 제1 그래픽 표현을 포함하는 좌영상 및 운전자의 우안에 대응하는 제2 그래픽 표현을 포함하는 우영상을 생성하면, 디스플레이(370)는 서로에 대해 시차를 가지도록 좌영상 및 우영상을 제공할 수 있다. 디스플레이(370)는, 좌영상에서 컨텐츠가 시각화된 그래픽 객체 및 우영상에서 컨텐츠가 시각화된 그래픽 객체를 양안 시차(binocular disparity)에 기초하여 이격시킴으로써, 깊이를 가지는 컨텐츠를 입체적인 그래픽 객체로 시각화하여 사용자에게 제공할 수 있다. 그래픽 객체의 각 픽셀마다 시차가 결정될 수 있고, 픽셀마다 깊이감이 표현될 수 있다. 예를 들어, 그래픽 객체에서 사용자에게 가까운 근위 부위(proximal part)에 대응하는 픽셀들은 좌안 영상 및 우안 영상에서 큰 시차만큼 이격될 수 있다. 반대로, 그래픽 객체에서 사용자로부터 먼 원위 부위(distal part)에 대응하는 픽셀들은 좌안 영상 및 우안 영상에서 작은 시차만큼 이격될 수 있다.According to an embodiment, the display 370 may provide the left image to the user's left eye and the right image to the right eye of the user. For example, when the processor 210 generates a left image including a first graphic representation corresponding to the driver's left eye and a right image including a second graphic representation corresponding to the driver's right eye, the display 370 displays each other A left image and a right image may be provided so as to have a parallax with respect to . The display 370 visualizes content having depth as a three-dimensional graphic object by separating the graphic object in which the content is visualized in the left image and the graphic object in which the content is visualized in the right image is spaced apart based on binocular disparity to the user. can provide A parallax may be determined for each pixel of the graphic object, and a sense of depth may be expressed for each pixel. For example, pixels corresponding to a proximal part close to the user in the graphic object may be spaced apart from each other by a large parallax in the left eye image and the right eye image. Conversely, pixels corresponding to a distal part far from the user in the graphic object may be spaced apart by a small disparity in the left eye image and the right eye image.

예를 들어, 디스플레이(370)는 프로세서(330)에 의해 결정된 표시 영역에 경로 안내 컨텐츠에 대응하는 그래픽 객체를 시각화할 수 있다. 사용자 양안의 위치는 상술한 센서(310)(예를 들어, 내부 센서)에 의해 측정되어 프로세서(330)에 제공될 수 있다. 사용자 양안의 위치는 차량이 이동하는 동안 항상 추적되어 운전자가 머리를 상하좌우로 이동하거나 좌석의 높낮이를 조절하더라도 컨텐츠가 입체적으로 전달될 수 있다.For example, the display 370 may visualize a graphic object corresponding to the route guidance content in the display area determined by the processor 330 . The positions of both eyes of the user may be measured by the above-described sensor 310 (eg, an internal sensor) and provided to the processor 330 . The positions of both eyes of the user are always tracked while the vehicle is moving, so that even if the driver moves the head up, down, left and right or adjusts the height of the seat, the contents can be delivered in three dimensions.

통신 인터페이스(390)는 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 거리를 포함하는 3차원 위치 관계를 보정 장치(300)의 외부로부터 수신할 수 있다. 또는 통신 인터페이스(390)는 프로세서(330)가 가상 컨텐츠 객체와 컨실러 영상을 합성한 결과 영상 및/또는 크로스토크가 보정된 가상 컨텐츠 객체를 프로젝션 평면에서 시각화한 결과 영상을 보정 장치(300)의 외부로 출력할 수 있다. The communication interface 390 may receive the 3D positional relationship including the distance between the positions of both eyes of the user and the positions of the virtual images of the virtual content object from the outside of the correction apparatus 300 . Alternatively, the communication interface 390 may display an image as a result of the processor 330 synthesizing the virtual content object and the concealer image and/or the image as a result of visualizing the crosstalk-corrected virtual content object on a projection plane outside of the correction device 300 . can be output as

일 실시예에 따른 보정 장치(300)는 예를 들어, 첨단 운전자 보조 시스템(Advanced Drivers Assistance System; ADAS), HUD(Head Up Display) 장치, 3D 디지털 정보 디스플레이(Digital Information Display, DID), 내비게이션 장치, 뉴로모픽 장치(neuromorphic device), 3D 모바일 기기, 스마트 폰, 스마트 TV, 스마트 차량, IoT(Internet of Things) 디바이스, 의료 디바이스, 및 계측 디바이스 등과 같이 다양한 분야의 장치에 해당할 수 있다. 여기서, 3D 모바일 기기는 예를 들어, 증강 현실(Augmented Reality; AR), 가상 현실(Virtual Reality; VR), 및/또는 혼합 현실(Mixed Reality; MR)을 표시하기 위한 디스플레이 장치, 머리 착용 디스플레이(Head Mounted Display; HMD) 및 얼굴 착용 디스플레이(Face Mounted Display; FMD) 등을 모두 포함하는 의미로 이해될 수 있다. The correction device 300 according to an embodiment includes, for example, an Advanced Drivers Assistance System (ADAS), a Head Up Display (HUD) device, a 3D Digital Information Display (DID), and a navigation device. , a neuromorphic device, a 3D mobile device, a smart phone, a smart TV, a smart vehicle, an Internet of Things (IoT) device, a medical device, and a measurement device may correspond to devices in various fields. Here, the 3D mobile device is, for example, a display device for displaying Augmented Reality (AR), Virtual Reality (VR), and/or Mixed Reality (MR), a head worn display ( It may be understood to include both a Head Mounted Display (HMD) and a Face Mounted Display (FMD).

또는 일 실시예에 따른 보정 장치(300)는 차량용 3차원 헤드업 디스플레이 장치 및 차량의 주행 경로를 지시하는 내비게이션 장치 등으로 구현될 수 있다. 또한, 보정 장치(300)는 사용자에게 증강 현실을 제공하도록 구현될 수 있다. 예를 들어, 보정 장치(300)는 차량의 본네트 너머의 일정 범위(예를 들어, 차량으로부터 3.7m 내지 70m)의 깊이로 컨텐츠를 디스플레이할 수 있다. 다만, 보정 장치(300)의 어플리케이션을 반드시 이에 한정되는 것은 아니다.Alternatively, the correction apparatus 300 according to an embodiment may be implemented as a three-dimensional head-up display device for a vehicle and a navigation device for indicating a driving route of the vehicle. In addition, the calibration device 300 may be implemented to provide augmented reality to the user. For example, the compensating apparatus 300 may display the content at a depth of a predetermined range beyond the bonnet of the vehicle (eg, 3.7m to 70m from the vehicle). However, the application of the correction device 300 is not necessarily limited thereto.

도 4는 일 실시예에 따라 크로스토크가 보정된 가상 컨텐츠 객체를 표시하는 헤드업 디스플레이(HUD)의 구성을 도시한 블록도이다. 도 4를 참조하면, 일 실시예에 따른 보정 장치의 헤드업 디스플레이(HUD, head up display)의 구성을 도시한 블록도이다.4 is a block diagram illustrating a configuration of a head-up display (HUD) that displays a virtual content object for which crosstalk is corrected according to an exemplary embodiment. Referring to FIG. 4 , it is a block diagram illustrating a configuration of a head up display (HUD) of a correction apparatus according to an exemplary embodiment.

컨텐츠 시각화 시스템(400)은 사용자(490)에게 가상 컨텐츠 객체(461)를 제공하는 시스템으로써, 예를 들어, 보정 장치(410)가 장착된 기기일 수 있다.The content visualization system 400 provides a virtual content object 461 to the user 490 , and may be, for example, a device in which the calibration device 410 is mounted.

보정 장치(410)는 센서(411), 프로세서(412), 및 헤드업 디스플레이(413)를 포함할 수 있다.The calibration device 410 may include a sensor 411 , a processor 412 , and a heads-up display 413 .

센서(411)는 전방에 존재하는 객체(object)를 검출할 수 있다. 예를 들어, 센서(411)는 전방에 존재하는 객체까지의 거리(distance)를 측정할 수 있다. 다만, 반드시 이에 한정되는 것은 아니고, 센서(411)는 차량의 주위에 존재하는 객체까지의 거리를 측정할 수 있고, 주변에 존재하는 객체까지의 거리를 지시하는 주변 거리 맵을 생성할 수 있다. 또한, 센서(411)는 차량의 전방, 후방, 좌측, 및 우측의 환경을 촬영하여 영상을 생성할 수 있다. 센서(411)는 GNSS와 같이 보정 장치(410)의 위치를 측정 및 추정하는 모듈을 포함할 수도 있다.The sensor 411 may detect an object existing in front. For example, the sensor 411 may measure a distance to an object existing in front. However, the present invention is not necessarily limited thereto, and the sensor 411 may measure a distance to an object existing around the vehicle and may generate a surrounding distance map indicating a distance to an object existing around the vehicle. Also, the sensor 411 may generate an image by photographing environments of the front, rear, left, and right sides of the vehicle. The sensor 411 may include a module for measuring and estimating the position of the calibration device 410 such as GNSS.

프로세서(412)는 사용자(490)에게 제공할 가상 컨텐츠 객체(461)를 획득할 수 있다. 가상 컨텐츠 객체(461)는 사용자에게 정보를 제공하기 위한 객체를 나타낼 수 있다. 또한, 프로세서(412)는 센서(411)에 의해 센싱된 주변 정보(예를 들어, 주변의 객체까지의 거리 및 객체를 포함하는 영상 등)를 분석하여, 객체를 모델링하거나, 객체의 위치를 검출하거나, 객체를 인식하는 동작 등을 수행할 수 있다. 다른 예를 들어, 프로세서(412)는 보정 장치(410)의 현재 위치를 결정할 수 있다. 프로세서(412)는 현재 위치 및 헤드업 디스플레이(413)의 시야각에 따른 객체 배치 공간에 기초하여, 사용자에게 제공할 가상 컨텐츠 객체(461)를 선택하여 로딩할 수도 있다. The processor 412 may acquire the virtual content object 461 to be provided to the user 490 . The virtual content object 461 may represent an object for providing information to a user. In addition, the processor 412 analyzes the surrounding information sensed by the sensor 411 (eg, a distance to a surrounding object and an image including the object, etc.) to model the object or detect the location of the object. Alternatively, an operation for recognizing an object may be performed. As another example, the processor 412 may determine the current location of the calibration device 410 . The processor 412 may select and load the virtual content object 461 to be provided to the user based on the current position and the object arrangement space according to the viewing angle of the heads-up display 413 .

헤드업 디스플레이(413)는 사용자(490)의 전방에 위치되는 사용자(490)의 가시 영역(visible region)에 가상 컨텐츠 객체(461)를 시각화할 수 있다. 예를 들어, 헤드업 디스플레이(413)는 사용자(490)의 전방에 배치되는 유리창(예를 들어, 차량의 윈드쉴드 글래스(windshield glass))에 가상 컨텐츠 객체(461)를 시각화할 수 있다. 헤드업 디스플레이(413)는 가상의 프로젝션 평면(450)을 형성할 수 있다. 프로젝션 평면(450)은 헤드업 디스플레이(413)에 의해 생성된 가상 컨텐츠 객체(461)를 포함하는 허상(virtual image)이 표시되는 평면을 나타낼 수 있다. 사용자(490)는 프로젝션 평면(450)에 허상이 배치된 것으로 인식할 수 있다. 프로젝션 평면(450)는 사용자(490)의 눈에 의해 관측될 수 있는(observable) 영역에 형성될 수 있다. The heads-up display 413 may visualize the virtual content object 461 in a visible region of the user 490 positioned in front of the user 490 . For example, the heads-up display 413 may visualize the virtual content object 461 on a window disposed in front of the user 490 (eg, a windshield glass of a vehicle). The heads-up display 413 may form a virtual projection plane 450 . The projection plane 450 may indicate a plane on which a virtual image including the virtual content object 461 generated by the heads-up display 413 is displayed. The user 490 may recognize that the virtual image is disposed on the projection plane 450 . The projection plane 450 may be formed in an area observable by the eye of the user 490 .

또한, 헤드업 디스플레이(413)는 프로젝션 평면(450)에 깊이를 가지는 사용자에게 제공할 가상 컨텐츠 객체(461)를 시각화할 수 있다. 예를 들어, 프로세서(412)는, 프로젝션 평면(450)을 기준으로 가상 컨텐츠 객체(461)가 시각화될 수 있는 깊이를 해당 객체를 구성하는 픽셀 별로 결정할 수 있고, 헤드업 디스플레이(413)는 결정된 깊이에 기초하여 사용자(490)를 기준으로 프로젝션 평면(450)으로부터 먼 깊이 또는 가까운 깊이를 가지도록 가상 컨텐츠 객체(461)를 시각화할 수 있다. 다시 말해, 가상 컨텐츠 객체(461)를 구성하는 픽셀 별로 양안 시차가 결정될 수 있다. 헤드업 디스플레이(413)는 가상 영역(360) 내에 해당하는 깊이를 가지는 가상 컨텐츠 객체(461)를 프로젝션 평면(450)에 시각화할 수 있다. 여기서, 프로세서(412)는 헤드업 디스플레이(413)의 광학계에 기초하여, 가상 컨텐츠 객체(461)를 3차원 그래픽 표현(graphic representation)으로 렌더링할 수 있다. 3차원 그래픽 표현은 깊이를 가지는 입체적인 그래픽 표현을 나타낼 수 있고, 아래에서는 그래픽 객체라고 나타낼 수 있다. 헤드업 디스플레이(413)는, 가상 컨텐츠 객체(461)가 가지는 깊이에 기초하여, 좌영상(left image) 및 우영상(right image)이 출력되는 프로젝션 평면(450)을 형성할 수 있고, 프로젝션 평면(450)을 통해 좌영상을 사용자(490)의 좌안(left eye)에, 우영상을 사용자(490)의 우안(right eye)에 제공할 수 있다. 따라서, 사용자(490)는 입체적으로 렌더링된 가상 컨텐츠 객체(461)의 깊이감을 인식할 수 있다.Also, the heads-up display 413 may visualize a virtual content object 461 to be provided to a user having a depth in the projection plane 450 . For example, the processor 412 may determine a depth at which the virtual content object 461 can be visualized based on the projection plane 450 for each pixel constituting the object, and the heads-up display 413 may determine the determined depth. Based on the depth, the virtual content object 461 may be visualized to have a depth far or near from the projection plane 450 with respect to the user 490 . In other words, the binocular disparity may be determined for each pixel constituting the virtual content object 461 . The heads-up display 413 may visualize the virtual content object 461 having a corresponding depth in the virtual area 360 on the projection plane 450 . Here, the processor 412 may render the virtual content object 461 as a 3D graphic representation based on the optical system of the heads-up display 413 . The three-dimensional graphic expression may represent a three-dimensional graphic expression having depth, and may be referred to as a graphic object below. The heads-up display 413 may form a projection plane 450 on which a left image and a right image are output, based on the depth of the virtual content object 461 , and the projection plane Through 450 , the left image may be provided to the left eye of the user 490 and the right image may be provided to the right eye of the user 490 . Accordingly, the user 490 may recognize a sense of depth of the three-dimensionally rendered virtual content object 461 .

일 실시예에 따른 헤드업 디스플레이(413)는 예를 들어, 화상 생성부(picture generation unit)(414), 폴드 거울(fold mirror)(415) 및 오목 거울(416)을 포함할 수 있다. 다만, 헤드업 디스플레이(413)의 구성을 반드시 이에 한정되는 것은 아니고, 설계에 따라 사용자(490)의 전방에 배치된 유리창으로의 투사를 통해 허상이 맺히는 프로젝션 평면(450)을 형성하는 다양한 구성요소를 포함할 수도 있다.The heads-up display 413 according to an embodiment may include, for example, a picture generation unit 414 , a fold mirror 415 , and a concave mirror 416 . However, the configuration of the head-up display 413 is not necessarily limited thereto, and various components that form a projection plane 450 on which a virtual image is formed through projection on a glass window disposed in front of the user 490 according to the design may include.

일 실시예에서는 보정 장치(410)가 차량에 장착된 예시를 중심으로 설명하지만, 반드시 이에 한정되는 것은 아니다. 예를 들어, 보정 장치(410)는 증강 현실 안경(AR glass, Augmented Reality glass) 및 혼합 현실(MR, mixed reality) 장치 등과 같이 현실과 가상의 정보를 결합시키는 기술에 적용될 수 있다.In one embodiment, the correction device 410 will be mainly described with reference to an example mounted on a vehicle, but the present invention is not limited thereto. For example, the correction device 410 may be applied to a technology for combining real and virtual information, such as augmented reality glasses (AR glass) and mixed reality (MR) devices.

일 실시예에 따른 보정 장치(410)는, 가상 컨텐츠 객체(461)의 깊이를 조절함으로써, 헤드업 디스플레이(413)에 의해 형성되는 프로젝션 평면(450)의 위치 변경 없이도, 연속적인 깊이를 표현할 수 있다. 또한, 보정 장치(410)는, 프로젝션 평면(450)의 위치를 변경할 필요가 없으므로, 헤드업 디스플레이(413)에 포함된 구성요소들에 대한 물리적인 조작을 요구하지 않는다. 보정 장치(410)가 차량에 장착된 경우, 보정 장치(410)는 운전자의 전방에 3차원 가상 컨텐츠 객체(461)를 동적으로 시각화할 수 있다. 도 4에 도시된 바와 같이, 사용자에 의해 관측되는 장면(scene)(491)은 실제 물리 사물 및 배경에 중첩되어 시각화되는 가상 컨텐츠 객체(461)를 포함할 수 있다.The correction apparatus 410 according to an embodiment may express a continuous depth without changing the position of the projection plane 450 formed by the heads-up display 413 by adjusting the depth of the virtual content object 461 . there is. In addition, since the correction device 410 does not need to change the position of the projection plane 450 , physical manipulation of components included in the head-up display 413 is not required. When the calibration device 410 is mounted on the vehicle, the calibration device 410 may dynamically visualize the 3D virtual content object 461 in front of the driver. As shown in FIG. 4 , a scene 491 observed by a user may include a virtual content object 461 superimposed on a real physical object and a background and visualized.

일 실시예에 따른 보정 장치(410)는 보다 자연스럽게 시각화되도록 가상 컨텐츠 객체(461)에 대한 컨실러 영상의 적어도 하나의 효과 요소를 조절할 수 있다. 보정 장치(410)의 구체적인 동작은 아래의 도면들을 통해 보다 구체적으로 설명한다.The correction apparatus 410 according to an embodiment may adjust at least one effect element of the concealer image for the virtual content object 461 to be visualized more naturally. A detailed operation of the compensating device 410 will be described in more detail with reference to the drawings below.

도 5는 일 실시예에 따른 크로스토크를 보정하는 방법을 나타낸 흐름도이고, 도 6은 일 실시예에 따른 크로스토크를 보정하는 방법을 설명하기 위한 도면이다. 도 5 및 도 6을 참조하면, 일 실시예에 따른 보정 장치가 단계(510) 내지 단계(530)를 통해 가상 컨텐츠 객체의 크로스토크를 보정하는 과정이 도시된다.5 is a flowchart illustrating a method of correcting crosstalk according to an exemplary embodiment, and FIG. 6 is a diagram illustrating a method of correcting crosstalk according to an exemplary embodiment. 5 and 6 , a process of correcting crosstalk of a virtual content object by the correction apparatus according to an embodiment through steps 510 to 530 is illustrated.

단계(510)에서, 보정 장치는 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 3차원 위치 관계를 기초로, 크로스토크가 발생할 영역을 추정한다. 여기서, '3차원 위치 관계'는 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 거리를 포함하는 의미로 이해될 수 있다. In operation 510, the correction apparatus estimates a region in which crosstalk will occur based on a three-dimensional positional relationship between the positions of the user's eyes and the positions of the virtual images of the virtual content object. Here, the '3D positional relationship' may be understood to include a distance between the positions of both eyes of the user and the positions of the virtual images of the virtual content object.

단계(510)에서 보정 장치는 사용자 양안의 시차 및 3차원 위치 관계를 기초로, 가상 화면(610)에서 도면(620)에 도시된 크로스토크가 발생할 영역(625)을 추정할 수 있다. 이때, 크로스토크가 발생할 영역(625)은 향후 크로스토크의 보정을 위해 컨실러 영상을 렌더링할 위치, 다시 말해 컨실러 영상을 배치시킬 위치 및 범위에 대응될 수 있다. 보정 장치는 사용자 양안의 시차 및 3차원 위치 관계를 기초로, 크로스토크가 발생할 영역(625)의 잔상 범위를 조절함으로써 크로스토크가 발생할 영역을 추정할 수 있다. 보정 장치는 예를 들어, 사용자 양안의 위치와 허상의 위치 간의 거리가 미리 설정된 기준 거리보다 멀어질수록 잔상 범위를 점진적으로 확장시켜 크로스토크가 발생할 영역(625)을 추정할 수 있다. 또는 보정 장치는 사용자 양안의 위치와 허상의 위치 간의 거리가 기준 거리보다 멀어질수록 잔상 범위를 점진적으로 축소시켜 크로스토크가 발생할 영역(625)을 추정할 수 있다.In operation 510 , the correction apparatus may estimate the area 625 in which the crosstalk shown in the figure 620 will occur in the virtual screen 610 based on the parallax and the three-dimensional positional relationship between both eyes of the user. In this case, the area 625 in which the crosstalk will occur may correspond to a position where a concealer image is to be rendered for future crosstalk correction, that is, a position and a range where the concealer image is to be arranged. The correction apparatus may estimate the area where the crosstalk will occur by adjusting the afterimage range of the area 625 where the crosstalk will occur based on the parallax and the three-dimensional positional relationship between both eyes of the user. For example, as the distance between the positions of the user's both eyes and the position of the virtual image is greater than a preset reference distance, the correction apparatus may estimate the area 625 in which the crosstalk will occur by gradually expanding the range of the afterimage. Alternatively, as the distance between the position of both eyes of the user and the position of the virtual image increases from the reference distance, the correction apparatus may estimate the area 625 in which the crosstalk will occur by gradually reducing the range of the afterimage.

또한, 보정 장치는 가상 컨텐츠 객체의 위치 이동을 감지할 수 있다. 이 경우, 보정 장치는 위치 이동에 따라 변경된 3차원 위치 관계 및 사용자 양안의 시차 중 적어도 하나를 기초로, 크로스토크가 발생할 영역(625)을 추정할 수 있다. Also, the compensating apparatus may detect a positional movement of the virtual content object. In this case, the correcting apparatus may estimate the area 625 in which the crosstalk will occur based on at least one of a three-dimensional positional relationship changed according to the position movement and a parallax of both eyes of the user.

단계(520)에서, 보정 장치는 단계(510)에서 추정된 영역(625)과 가상 컨텐츠 객체(640)를 기초로, 크로스토크가 발생할 영역(625)을 보정하기 위한 컨실러 영상(concealer image)(630)을 생성한다. 보정 장치는 예를 들어, 가상 컨텐츠 객체(640)의 색상에 기초하여 컨실러 영상(630)을 생성할 수 있다. 보정 장치는 가상 컨텐츠 객체(640)의 형태에 대응되도록 가상 컨텐츠 객체를 블러(blur)시킴으로써 컨실러 영상(630)을 생성할 수 있다. 이때, 가상 컨텐츠 객체를 블러시키는 정도를 예를 들어, 주변 환경의 조도, 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 거리를 포함하는 3차원 위치 관계 밝기, 가상 컨텐츠 객체(640)의 밝기 등에 의해 다양하게 조절될 수 있다. In step 520, the correction device generates a concealer image for correcting the region 625 in which crosstalk will occur based on the region 625 and the virtual content object 640 estimated in operation 510 ( 630) is created. The correction apparatus may generate the concealer image 630 based on, for example, the color of the virtual content object 640 . The correction apparatus may generate the concealer image 630 by blurring the virtual content object to correspond to the shape of the virtual content object 640 . In this case, the degree of blurring of the virtual content object is, for example, the illuminance of the surrounding environment, the three-dimensional positional relation including the distance between the positions of both eyes of the user and the position of the virtual image of the virtual content object, the brightness of the virtual content object 640 . and the like can be variously adjusted.

또한, 보정 장치는 예를 들어, 컨실러 영상(630)의 잔상 범위(afterimage range), 콘트라스트(contrast), 및 밝기(brightness) 중 적어도 하나의 효과 요소(effect element)를 조절할 수 있다. Also, the correction apparatus may adjust, for example, at least one effect element among an afterimage range, a contrast, and a brightness of the concealer image 630 .

단계(520)에서, 보정 장치는 예를 들어, 3차원 위치 관계를 기초로, 가상 컨텐츠 객체의 크기에 대비되는 컨실러 영상(630)의 잔상 범위를 조절하거나, 또는 컨실러 영상(630)의 콘트라스트를 조절할 수 있다. 보정 장치는 주변 환경의 조도를 기초로, 컨실러 영상(630)의 밝기를 조절하거나, 또는 3차원 위치 관계 및 주변 환경의 조도를 기초로, 컨실러 영상(630)의 잔상 범위, 콘트라스트 및 밝기의 조합을 조절할 수 있다. 보정 장치가 컨실러 영상(630)을 생성하는 방법은 아래의 도 7 내지 도 12를 참조하여 보다 구체적으로 설명한다. In operation 520 , the correction device adjusts the afterimage range of the concealer image 630 in contrast to the size of the virtual content object or adjusts the contrast of the concealer image 630 based on the 3D positional relationship, for example. can be adjusted The correction device adjusts the brightness of the concealer image 630 based on the illuminance of the surrounding environment, or a combination of the afterimage range, the contrast, and the brightness of the concealer image 630 based on the 3D positional relationship and the illuminance of the surrounding environment can be adjusted. A method for the correction apparatus to generate the concealer image 630 will be described in more detail with reference to FIGS. 7 to 12 below.

단계(530)에서, 보정 장치는 가상 컨텐츠 객체(640)와 컨실러 영상(630)을 합성하여 크로스토크를 보정한다. 보정 장치는 가상 컨텐츠 객체(640)와 컨실러 영상(630)을 합성하여 도면(650)과 같이 크로스토크가 발생한 영역(625)을 덮음으로써 크로스토크를 보정할 수 있다. 여기서, '합성'은 중첩(superposition)을 포함하는 의미로 이해될 수 있다. In operation 530 , the correction apparatus corrects crosstalk by synthesizing the virtual content object 640 and the concealer image 630 . The correction apparatus may correct the crosstalk by synthesizing the virtual content object 640 and the concealer image 630 to cover the area 625 in which the crosstalk occurs as shown in the drawing 650 . Here, 'synthesis' may be understood as meaning including superposition.

일 실시예에 따르면, 보정 장치는 가상 컨텐츠 객체(640)를 포함하는 3차원 공간 상에 컨실러 영상(630)을 배치할 수 있다. 보정 장치는 가상 컨텐츠 객체(640)와 컨실러 영상(630)이 함께 중첩된 영상(650)을 렌더링 할 수 있다. 보정 장치는 렌더링 결과 생성되는 좌안 영상과 우안 영상을 시각화(예를 들어, 투사) 함으로써, 크로스토크가 보정된 가상 컨텐츠 객체를 사용자에게 제공할 수 있다.According to an embodiment, the correction apparatus may arrange the concealer image 630 in a 3D space including the virtual content object 640 . The correction apparatus may render an image 650 in which the virtual content object 640 and the concealer image 630 are superimposed together. The correction apparatus may provide the user with a virtual content object having crosstalk corrected by visualizing (eg, projecting) the left-eye image and the right-eye image generated as a result of the rendering.

다른 실시예에 따르면, 도면에 도시하지 않았으나, 보정 장치는 가상 컨텐츠 객체를 렌더링 할 수 있다. 보정 장치는 렌더링 결과 생성되는 좌안 영상 및 우안 영상을 컨실러 영상과 함께 중첩하여 시각화(예를 들어, 투사) 함으로써, 크로스토크가 보정된 가상 컨텐츠 객체를 사용자에게 제공할 수 있다.According to another embodiment, although not shown in the drawings, the calibration apparatus may render a virtual content object. The correction apparatus may provide a virtual content object having crosstalk corrected to the user by visualizing (eg, projecting) the left eye image and the right eye image generated as a result of rendering by superimposing them together with the concealer image.

도 7은 일 실시예에 따라 컨실러 영상을 생성하는 방법을 나타낸 흐름도이다. 도 7을 참조하면, 일 실시예에 따른 보정 장치가 단계(710) 내지 단계(720)를 통해 컨실러 영상의 적어도 하나의 효과 요소를 조절하는 과정이 도시된다. 7 is a flowchart illustrating a method of generating a concealer image according to an exemplary embodiment. Referring to FIG. 7 , a process of adjusting at least one effect element of a concealer image by the correction apparatus according to an embodiment through steps 710 to 720 is illustrated.

단계(710)에서, 보정 장치는 가상 컨텐츠 객체를 블러시킨 블러 영상(blurred image)을 생성할 수 있다. 보정 장치가 블러 영상을 생성하는 방법은 아래의 도 8을 참조하여 보다 구체적으로 설명한다. In operation 710 , the correction apparatus may generate a blurred image obtained by blurring the virtual content object. A method for the correction apparatus to generate a blur image will be described in more detail with reference to FIG. 8 below.

단계(720)에서, 보정 장치는 블러 영상에 대응하는 잔상 범위, 콘트라스트, 및 밝기 중 적어도 하나의 효과 요소를 조절할 수 있다. 보정 장치가 적어도 하나의 효과 요소를 조절하는 방법은 아래의 도 10 내지 도 12를 참조하여 보다 구체적으로 설명한다. In operation 720 , the correction apparatus may adjust at least one effect element of an afterimage range corresponding to the blur image, contrast, and brightness. A method for the correction device to adjust the at least one effect element will be described in more detail with reference to FIGS. 10 to 12 below.

도 8은 일 실시예에 따라 블러 영상을 생성하는 방법을 설명하기 위한 도면이다. 도 8을 참조하면, 일 실시예에 따라 가상 컨텐츠 객체의 고유 형태에 기초하여 블러시킨 블러 영상들(813, 815, 823, 835)과 가상 컨텐츠 객체가 합성된 결과 영상들(810, 820, 830)이 도시된다. 8 is a diagram for describing a method of generating a blur image according to an exemplary embodiment. Referring to FIG. 8 , according to an embodiment, blur images 813 , 815 , 823 , and 835 blurred based on a unique shape of a virtual content object and result images 810 , 820 , and 830 obtained by synthesizing a virtual content object ) is shown.

보정 장치는 예를 들어, 결과 영상(810)과 같이 가상 컨텐츠 객체(811)의 고유 형태(예를 들어, 삼각형 형태)가 유지되도록 블러 영상(813, 815)을 생성하여 가상 컨텐츠 객체(811)와 합성할 수 있다. 보정 장치는 가상 컨텐츠 객체(811)의 형태를 기초로, 사용자 양안 중 좌안에 대응하는 제1 블러 영상(813) 및 우안에 대응하는 제2 블러 영상(815)을 생성할 수 있다. 이때, 제1 블러 영상(813)과 제2 블러 영상(815) 각각은 가상 컨텐츠 객체(811)의 고유 형태에 대응될 수 있다. The correction device generates blur images 813 and 815 such that a unique shape (eg, a triangular shape) of the virtual content object 811 is maintained as in the result image 810 , and the virtual content object 811 is generated. can be combined with The correction apparatus may generate a first blur image 813 corresponding to the left eye of the user's both eyes and a second blur image 815 corresponding to the right eye based on the shape of the virtual content object 811 . In this case, each of the first blur image 813 and the second blur image 815 may correspond to a unique shape of the virtual content object 811 .

보정 장치는 제1 블러 영상(813) 및 제2 블러 영상(815)을 결합하여 블러 영상을 생성할 수 있다. 보정 장치는 제1 블러 영상(813) 및 제2 블러 영상(815)을 예를 들어, 사용자 양안의 시차에 기초한 간격만큼 이격시킬 수 있다. 보정 장치는 이격된 간격이 유지되도록 제1 블러 영상(813) 및 제2 블러 영상(815)을 결합할 수 있다. 이때, 사용자 양안의 시차에 따라 제1 블러 영상(813) 및 제2 블러 영상(815)은 일부가 중첩될 수도 있고, 또는 제1 블러 영상(813) 및 제2 블러 영상(815)이 이격될 수도 있다. The correction apparatus may generate a blur image by combining the first blur image 813 and the second blur image 815 . The correction apparatus may separate the first blur image 813 and the second blur image 815 by an interval based on the parallax of both eyes of the user, for example. The correction apparatus may combine the first blur image 813 and the second blur image 815 so that a spaced apart distance is maintained. In this case, the first blur image 813 and the second blur image 815 may partially overlap, or the first blur image 813 and the second blur image 815 may be spaced apart according to the disparity of both eyes of the user. may be

보정 장치는 사용자 양안의 시차에 따라 결과 영상(810)과 같이 제1 블러 영상(813) 및 제2 블러 영상(815)을 결합한 블러 영상을 컨실러 영상으로 결정하고, 가상 컨텐츠 객체(811)와 합성하여 크로스토크를 보정할 수 있다. 사용자 양안과 시차 간의 관계는 아래의 도 9를 참조하여 보다 구체적으로 설명한다. The correction apparatus determines a blur image obtained by combining the first blur image 813 and the second blur image 815 as a result image 810 according to the disparity of both eyes of the user as a concealer image, and synthesizes it with the virtual content object 811 to compensate for crosstalk. The relationship between the user's binocular and disparity will be described in more detail with reference to FIG. 9 below.

또는, 보정 장치는 결과 영상(820)과 같이 가상 컨텐츠 객체(821)의 고유 형태를 확장시킨 형태로 생성된 블러 영상(823)과 가상 컨텐츠 객체(821)를 합성할 수 있다. 보정 장치는 사용자 양안의 위치와 가상 컨텐츠 객체(821)의 허상의 위치 간의 거리를 포함하는 3차원 위치 관계를 기초로 가상 컨텐츠 객체(821)를 상,하, 좌, 우로 확장시킬 수 있다. 보정 장치는 3차원 위치 관계를 기초로 예를 들어, 결과 영상(820)에 도시된 것과 같이 가상 컨텐츠 객체(821)의 상부만을 확장시키고, 하부는 확장시키지 않을 수도 있고, 또는 가상 컨텐츠 객체(821)의 상부와 하부를 모두 확장시킬 수도 있다. Alternatively, the correction apparatus may synthesize the blur image 823 and the virtual content object 821 generated in a form in which the original form of the virtual content object 821 is expanded, such as the result image 820 . The correction apparatus may expand the virtual content object 821 up, down, left, and right based on the 3D positional relationship including the distance between the positions of both eyes of the user and the positions of the virtual images of the virtual content object 821 . The correction device may expand only the upper part of the virtual content object 821 as shown in the result image 820 and not the lower part, or may not expand the virtual content object 821 based on the three-dimensional positional relationship. ) can be extended both at the top and at the bottom.

보정 장치는 가상 컨텐츠 객체(821)를 확장시킨 형태에 대응되도록 블러 영상(823)을 생성할 수 있다. 보정 장치는 블러 영상(823)을 컨실러 영상으로 결정하고, 가상 컨텐츠 객체(821)와 합성하여 크로스토크를 보정할 수 있다.The correction apparatus may generate the blur image 823 to correspond to the expanded form of the virtual content object 821 . The correction apparatus may correct the crosstalk by determining the blur image 823 as a concealer image and synthesizing it with the virtual content object 821 .

이 밖에도, 보정 장치는 예를 들어, 결과 영상(830)과 같이 가상 컨텐츠 객체의 고유 형태가 유지되도록 생성된 블러 영상(813, 815)의 좌우를 보간(interpolation)하여 블러 영상(835)을 생성할 수 있다. In addition, the correction device generates a blur image 835 by interpolating left and right of the generated blur images 813 and 815 to maintain the unique shape of the virtual content object, for example, the result image 830 . can do.

보정 장치는 이격된 블러 영상(813) 상의 어느 한 점(예를 들어, 꼭지점)(814)과 블러 영상(815) 상의 어느 한 점(예를 들어, 꼭지점)(816)을 연결하는 보간을 통해 블러 영상(835)을 생성할 수 있다. 보정 장치는 블러 영상(835)을 컨실러 영상으로 결정하고, 가상 컨텐츠 객체(831)와 합성하여 크로스토크를 보정할 수 있다.The correction device connects any one point (eg, vertex) 814 on the blurred image 813 that are spaced apart to any one point (eg, vertex) 816 on the blur image 815 Through interpolation A blur image 835 may be generated. The correction apparatus may correct the crosstalk by determining the blur image 835 as a concealer image and synthesizing it with the virtual content object 831 .

도 9는 일 실시예에 따라 사용자 양안과 가상 컨텐츠 객체와의 거리가 멀어질수록 시차가 증가하는 원리를 도시한 도면이다. 도 9를 참조하면, 사용자 양안(910) 각각에 제공되는 좌, 우안 영상(920), 좌, 우안 영상(920)에 의해 시각화된 가상 컨텐츠 객체를 표시하는 디스플레이(930), 및 좌, 우안 영상(920)에 의해 시각화된 가상 컨텐츠 객체의 허상들(950, 970, 990)이 도시된다. 9 is a diagram illustrating a principle that parallax increases as a distance between both eyes of a user and a virtual content object increases, according to an exemplary embodiment. Referring to FIG. 9 , left and right eye images 920 provided to each of the user's both eyes 910 , a display 930 displaying virtual content objects visualized by the left and right eye images 920 , and left and right eye images Virtual images 950 , 970 , and 990 of the virtual content object visualized by 920 are shown.

보정 장치는 사용자의 좌안에 좌안 영상을 제공하고, 사용자의 우안에 우안 영상을 제공함으로써, 그래픽 객체를 입체적으로 제공할 수 있다. 좌안 영상 및 우안 영상은 서로에 대해 디스플레이(930)의 수평축을 따라 깊이에 따른 시차만큼 이격된 그래픽 객체를 포함할 수 있다. 따라서 사용자는 입체적으로 렌더링된 그래픽 객체의 깊이감을 인식할 수 있다.The correction apparatus may provide the graphic object three-dimensionally by providing the left eye image to the user's left eye and the right eye image to the user's right eye. The left-eye image and the right-eye image may include graphic objects spaced apart from each other by a disparity according to depth along a horizontal axis of the display 930 . Accordingly, the user can recognize the sense of depth of the three-dimensionally rendered graphic object.

디스플레이(930)는 좌, 우안 영상(920) 각각에서 컨텐츠가 시각화된 그래픽 객체를 사용자 양안(910)의 시차에 따라 이격시킴으로써, 깊이를 가지는 컨텐츠를 사용자에게 입체적인 그래픽 객체로 시각화하여 제공할 수 있다. 그래픽 객체의 각 픽셀마다 시차가 결정될 수 있고, 픽셀마다 깊이감이 표현될 수 있다. 이때, 사용자 양안(910)과 가상 컨텐츠 객체의 허상들(950, 970, 990) 간의 거리에 따라 사용자 양안의 시차가 달라질 수 있다. The display 930 may provide the content having depth as a three-dimensional graphic object to the user by separating the graphic object in which the content is visualized from each of the left and right eye images 920 according to the parallax of the user's both eyes 910 . . A parallax may be determined for each pixel of the graphic object, and a sense of depth may be expressed for each pixel. In this case, the parallax of both eyes of the user may vary according to a distance between the user's both eyes 910 and the virtual images 950 , 970 , and 990 of the virtual content object.

예를 들어, 사용자 양안(910)과 가상 컨텐츠 객체의 허상(950) 간의 제1 거리에 비해 사용자 양안(910)과 가상 컨텐츠 객체의 허상(990) 간의 제2 거리가 더 멀다고 하자. 이 경우, 제2 거리에 대응하는 사용자 양안(910)의 시차는 제1 거리에 대응하는 사용자 양안(910)의 시차에 비해 증가할 수 있다. 이와 달리, 사용자 양안(910)과 가상 컨텐츠 객체의 허상(970) 간의 제3 거리가 제1 거리보다 짧다고 하자. 이 경우, 제3 거리에 대응하는 사용자 양안(910)의 시차는 제1 거리에 대응하는 사용자 양안(910)의 시차에 비해 감소할 수 있다. 이와 같이 사용자 양안(910)과 가상 컨텐츠 객체의 허상 간의 거리가 멀어질수록 시차는 증가하고, 사용자 양안(910)과 가상 컨텐츠 객체의 허상 간의 거리가 감소할수록 시차는 감소할 수 있다. For example, it is assumed that the second distance between the user's eyes 910 and the virtual image 990 of the virtual content object is greater than the first distance between the user's both eyes 910 and the virtual image 950 of the virtual content object. In this case, the disparity between the user's both eyes 910 corresponding to the second distance may increase compared to the disparity between the user's both eyes 910 corresponding to the first distance. Contrary to this, it is assumed that the third distance between the user's both eyes 910 and the virtual image 970 of the virtual content object is shorter than the first distance. In this case, the disparity between the user's both eyes 910 corresponding to the third distance may be reduced compared to the disparity between the user's both eyes 910 corresponding to the first distance. As described above, as the distance between the user's both eyes 910 and the virtual image of the virtual content object increases, the parallax may increase, and as the distance between the user's both eyes 910 and the virtual image of the virtual content object decreases, the parallax may decrease.

도 10 내지 도 12는 실시예들에 따라 적어도 하나의 효과 요소를 조절하는 방법을 설명하기 위한 도면이다. 도 10을 참조하면, 시차 또는 사용자 양안의 위치와 가상 컨텐츠 객체의 허상 간의 거리와 컨실러 영상의 잔상 범위와의 관계를 도시한 그래프들(1010, 1020) 및 전술한 관계를 설명하기 위한 도면들(1030, 1040)이 도시된다. 이하, 사용자 양안의 위치와 가상 컨텐츠 객체의 허상 간의 '거리'는 사용자 양안의 위치와 가상 컨텐츠 객체의 허상 간의 '깊이' 라고도 부를 수 있다.10 to 12 are diagrams for explaining a method of adjusting at least one effect element according to embodiments. Referring to FIG. 10 , graphs 1010 and 1020 showing the relationship between the parallax or the distance between the position of both eyes of the user and the virtual image of the virtual content object and the afterimage range of the concealer image, and diagrams for explaining the above-mentioned relationship ( 1030 and 1040) are shown. Hereinafter, the 'distance' between the position of both eyes of the user and the virtual image of the virtual content object may be referred to as a 'depth' between the position of both eyes of the user and the virtual image of the virtual content object.

무안경 3D 디스플레이 방식에서 사용자 양안의 위치와 가상 컨텐츠 객체의 허상 간의 거리는 크로스토크의 잔상 범위와 밀접한 관련을 가질 수 있다. 크로스토크의 잔상 범위는 시차에 선형적으로 증가하지 않고, 그래프(1010)에 도시된 것과 같이 처음에는 급격히 증가하다가 시차 혹은 사용자 양안의 위치와 가상 컨텐츠 객체의 허상 간의 거리가 멀어질수록 점점 일정 값에 수렴할 수 있다. In the glasses-free 3D display method, the distance between the positions of both eyes of the user and the virtual image of the virtual content object may be closely related to the range of the afterimage of the crosstalk. The range of the afterimage of the crosstalk does not increase linearly with the parallax, but increases rapidly at first as shown in the graph 1010, and then gradually becomes a constant value as the distance between the parallax or the position of both eyes of the user and the virtual image of the virtual content object increases. can converge on

보정 장치는 컨실러 영상 또한 그래프(1010)에 도시된 광필드 디스플레이와 동일한 방식으로 사용자 양안의 위치와 가상 컨텐츠 객체의 허상 간의 거리를 판별한 후, 그래프(1020)와 같이 거리에 대응되도록 컨실러 영상의 적어도 하나의 효과 요소를 조절하여 렌더링할 수 있다. The correction device determines the distance between the position of both eyes of the user and the virtual image of the virtual content object in the same manner as the light field display shown in the graph 1010 for the concealer image, and then adjusts the concealer image to correspond to the distance as shown in the graph 1020. The rendering may be performed by adjusting at least one effect element.

예를 들어, 도면(1030)을 참조하면, 사용자 양안의 위치와 가상 컨텐츠 객체의 허상(1031) 간의 거리가 가까운 경우 및 사용자 양안의 위치와 가상 컨텐츠 객체의 허상(1033) 간의 거리가 먼 경우가 도시된다. For example, referring to the drawing 1030, the case where the distance between the position of both eyes of the user and the virtual image 1031 of the virtual content object is close and the case where the distance between the position of both eyes of the user and the virtual image 1033 of the virtual content object is long is shown

그래프(1020)에 도시된 것과 같이, 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 거리가 멀어질수록 크로스토크의 범위가 넓어지고, 거리가 가까워질수록 크로스토크의 범위가 좁아질 수 있다. 이러한 부작용을 제거하기 위해, 보정 장치는 가상 컨텐츠 객체의 허상과의 거리가 가까워질수록 컨실러 영상의 범위를 좁힐 수 있다. 다시 말해, 보정 장치는 도면(1040)의 좌측과 같이 사용자 양안의 위치와 가상 컨텐츠 객체의 허상(1041)의 위치 간의 거리가 기준 거리 보다 가까워질수록 가상 컨텐츠 객체의 허상(1041)의 크기에 대비되는 컨실러 영상의 잔상 범위(1043)를 점진적으로 축소시킬 수 있다.As shown in the graph 1020 , as the distance between the positions of both eyes of the user and the virtual image of the virtual content object increases, the crosstalk range may increase, and as the distance increases, the crosstalk range may become narrower. . In order to remove this side effect, the correction apparatus may narrow the range of the concealer image as the distance between the virtual content object and the virtual image increases. In other words, as the distance between the positions of both eyes of the user and the position of the virtual image 1041 of the virtual content object becomes closer than the reference distance, the correction device compares the size of the virtual image 1041 of the virtual content object as shown on the left side of the drawing 1040 . The afterimage range 1043 of the concealer image to be used may be gradually reduced.

또한, 보정 장치는 가상 컨텐츠 객체의 허상과의 거리가 멀어질수록 컨실러 영상의 범위를 넓힐 수 있다. 다시 말해, 보정 장치는 도면(1040)의 우측과 같이 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 거리가 기준 거리 보다 멀어질수록 가상 컨텐츠 객체의 허상(1045)의 크기에 대비되는 컨실러 영상의 잔상 범위(1047)를 점진적으로 확장시킬 수 있다.Also, the correction apparatus may expand the range of the concealer image as the distance from the virtual image of the virtual content object increases. In other words, as shown on the right side of the drawing 1040 , as the distance between the position of both eyes of the user and the position of the virtual image of the virtual content object is greater than the reference distance, the correction device provides a concealer image in contrast to the size of the virtual image 1045 of the virtual content object. It is possible to gradually expand the afterimage range 1047 of .

도 11을 참조하면, 사용자 양안의 위치와 가상 컨텐츠 객체의 허상(virtual image)의 위치 간의 거리와 가상 컨텐츠 객체의 크기와의 관계를 설명하기 위한 도면(1110), 거리 별 가상 컨텐츠 객체의 허상의 크기를 나타낸 도면(1130) 및 거리와 가상 컨텐츠 객체의 밝기 간의 관계를 나타낸 그래프(1130)가 도시된다.Referring to FIG. 11 , a diagram 1110 is provided to explain the relationship between the distance between the positions of the user's eyes and the positions of the virtual images of the virtual content objects and the sizes of the virtual content objects. A diagram 1130 showing the size and a graph 1130 showing the relationship between the distance and the brightness of the virtual content object are shown.

도면(1110)에 도시된 것과 같이, 가상 컨텐츠 객체의 허상(1111)의 위치와 사용자 양안의 위치 간의 거리가 가까워질수록 가상 컨텐츠 객체의 허상(1111)의 크기는 커지고, 가상 컨텐츠 객체의 허상(1115)의 위치와 사용자 양안의 위치 간의 거리가 멀수록 가상 컨텐츠 객체의 허상(1115)의 크기가 작아질 수 있다.As shown in the figure 1110, as the distance between the location of the virtual image 1111 of the virtual content object and the position of both eyes of the user gets closer, the size of the virtual image 1111 of the virtual content object increases, and the virtual image of the virtual content object ( As the distance between the position of 1115 and the position of both eyes of the user increases, the size of the virtual image 1115 of the virtual content object may decrease.

거리 별 가상 컨텐츠 객체의 허상의 크기는 예를 들어, 도면(1130)과 같이 나타낼 수 있다. 이때, 도면(1130)에서 가상 컨텐츠 객체의 허상의 크기가 커짐에 따라 가상 컨텐츠 객체의 허상의 면적 또한 넓어지고 허상의 밝기가 밝아지는 것을 볼 수 있다. 이 경우, 보정 장치는 가상 컨텐츠 객체의 허상에 대응하는 컨실러 영상의 콘트라스트 및 밝기를 밝게 표현함으로써 주변 환경과의 위화감을 줄일 수 있다. 보정 장치는 예를 들어, 그래프(1150)와 같이 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 거리가 기준 거리보다 가까워질수록 컨실러 영상의 콘트라스트 및 밝기를 점진적으로 밝게 조절할 수 있다. The size of the virtual image of the virtual content object for each distance may be indicated, for example, as shown in the drawing 1130 . In this case, as the size of the virtual image of the virtual content object increases in the drawing 1130 , it can be seen that the area of the virtual image of the virtual content object also increases and the brightness of the virtual image increases. In this case, the correction apparatus may reduce the sense of incongruity with the surrounding environment by brightly expressing the contrast and brightness of the concealer image corresponding to the virtual image of the virtual content object. For example, as shown in the graph 1150 , the correction apparatus may gradually brighten the contrast and brightness of the concealer image as the distance between the position of both eyes of the user and the position of the virtual image of the virtual content object is closer than the reference distance.

또한, 도면(1130)에서 가상 컨텐츠 객체의 허상의 크기가 작아짐에 따라 가상 컨텐츠 객체의 허상의 면적 또한 좁아지고 가상 컨텐츠 객체의 허상의 밝기가 어두워지는 것을 볼 수 있다. 이 경우, 보정 장치는 가상 컨텐츠 객체의 허상에 대응하는 컨실러 영상의 콘트라스트 및 밝기를 어둡게 표현함으로써 주변 환경과의 위화감을 줄일 수 있다. 보정 장치는 예를 들어, 그래프(1150)와 같이 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 거리가 기준 거리보다 멀어질수록 컨실러 영상의 콘트라스트 및 밝기를 점진적으로 어둡게 조절할 수 있다.Also, as the size of the virtual image of the virtual content object decreases in the drawing 1130 , it can be seen that the area of the virtual image of the virtual content object also decreases and the brightness of the virtual image of the virtual content object decreases. In this case, the correction apparatus may reduce the sense of incongruity with the surrounding environment by darkening the contrast and brightness of the concealer image corresponding to the virtual image of the virtual content object. For example, as shown in the graph 1150 , the correction apparatus may gradually darken the contrast and brightness of the concealer image as the distance between the position of both eyes of the user and the position of the virtual image of the virtual content object is greater than the reference distance.

도 12를 참조하면, 주변 환경의 조도(illumination)와 컨실러 영상의 밝기 간의 관계를 나타낸 그래프가 도시된다. Referring to FIG. 12 , a graph showing the relationship between the illumination of the surrounding environment and the brightness of the concealer image is shown.

실제 주변 환경의 광원은 크로스토크에 밀접한 영향을 줄 수 있다. 예를 들어, 야간에 헤드 업 디스플레이에 의해 시각화되는 가상 컨텐츠 객체의 밝기가 밝을수록 크로스토크가 강하게 나타나고, 가상 컨텐츠 객체의 밝기가 어두울수록 크로스토크가 약하게 나타날 수 있다. A light source in an actual surrounding environment may have a close influence on crosstalk. For example, the brighter the brightness of the virtual content object visualized by the head-up display at night, the stronger the crosstalk, and the darker the brightness of the virtual content object, the weaker the crosstalk.

따라서, 일 실시예에서는 도 12에 도시된 그래프와 같이 주변 환경의 조도가 낮은 야간에 상대적으로 가상 컨텐츠 객체의 밝기가 밝을수록 크로스토크가 심해지는 것에 대비하여 야간에는 컨실러 영상의 밝기를 밝게 하고, 주변 환경의 조도가 높은 주간에는 컨실러 영상의 밝기를 어둡게 할 수 있다. Therefore, in one embodiment, as shown in the graph shown in FIG. 12, the brightness of the concealer image is brightened at night in preparation for crosstalk intensifying as the brightness of the virtual content object is relatively bright at night when the illumination of the surrounding environment is low, The brightness of the concealer image can be darkened during the day when the ambient light is high.

보정 장치는 예를 들어, 주변 환경의 조도가 기준 조도보다 높아질수록 컨실러 영상의 밝기를 점진적으로 어둡게 조절하고, 주변 환경의 조도가 기준 조도보다 낮아질수록 컨실러 영상의 밝기를 점진적으로 밝게 조절함으로써 함으로써 크로스토크를 약화시킬 수 있다. For example, the correction device gradually darkens the brightness of the concealer image as the illuminance of the surrounding environment becomes higher than the reference illuminance, and gradually brightens the brightness of the concealer image as the illuminance of the surrounding environment becomes lower than the reference illuminance. It may weaken the torque.

도 13은 다른 실시예에 따라 크로스토크를 보정하는 방법을 나타낸 흐름도이다. 도 13을 참조하면, 일 실시예에 따른 보정 장치가 단계(1310) 내지 단계(1360)를 통해 크로스토크를 보정하는 과정이 도시된다. 13 is a flowchart illustrating a method of correcting crosstalk according to another exemplary embodiment. Referring to FIG. 13 , a process of correcting crosstalk through steps 1310 to 1360 by the correction apparatus according to an exemplary embodiment is illustrated.

단계(1310)에서, 보정 장치는 가상 컨텐츠 객체의 이동을 감지할 수 있다. In operation 1310, the calibration device may detect movement of the virtual content object.

단계(1320)에서, 보정 장치는 단계(1310)에서 이동된 거리를 판별하여 컨실러 영상을 배치시킬 위치 및 범위를 결정할 수 있다. 여기서, 컨실러 영상을 배치시킬 위치 및 범위는 크로스토크가 발생할 영역에 해당할 수 있다. In operation 1320 , the correction apparatus may determine the location and range in which the concealer image is to be disposed by determining the distance moved in operation 1310 . Here, the position and range in which the concealer image is to be arranged may correspond to an area where crosstalk will occur.

단계(1330)에서, 보정 장치는 컨실러 영상을 생성할 수 있다. In operation 1330, the correction apparatus may generate a concealer image.

단계(1340)에서, 보정 장치는 크로스토크가 발생할 영역, 다시 말해, 단계(1320)에서 결정한 컨실러 영상을 배치시킬 위치 및 범위에 단계(1330)에서 생성한 컨실러 영상을 중첩(superposition)시킬 수 있다.In step 1340, the correction device may superposition the concealer image generated in step 1330 in the area where crosstalk will occur, that is, in the position and range where the concealer image determined in step 1320 is to be placed. .

단계(1350)에서, 보정 장치는 가상 컨텐츠 객체의 허상의 위치와 사용자 양안의 위치 간의 거리를 판별하여 크로스토크가 발생할 영역에 중첩시킨 컨실러 영상을 콘트라스트를 조절할 수 있다. In operation 1350, the correction apparatus may determine the distance between the location of the virtual image of the virtual content object and the location of both eyes of the user and adjust the contrast of the concealer image superimposed on the area where the crosstalk will occur.

단계(1360)에서, 보정 장치는 외부 광원을 판별하여 단계(1350)에서 콘트라스트가 조절된 컨실러 영상의 밝기를 조절할 수 있다. In operation 1360 , the correction apparatus determines the external light source and adjusts the brightness of the concealer image whose contrast is adjusted in operation 1350 .

실시예에 따라서, 단계(1350) 및/또는 단계(1360)는 단계(1330)에서 컨실러 영상을 생성하는 과정에서 함께 포함되어 수행될 수도 있고, 도 13과 같이 컨실러 영상의 생성 후에 크로스토크가 발생할 영역에 중첩시킨 컨실러 영상을 수정하는 형태로 수행될 수도 있다. Depending on the embodiment, steps 1350 and/or 1360 may be included in the process of generating the concealer image in step 1330 and may be performed, and crosstalk may occur after generation of the concealer image as shown in FIG. 13 . It may be performed in the form of correcting the concealer image superimposed on the area.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented by a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the apparatus, methods, and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA) array), a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions, may be implemented using a general purpose computer or special purpose computer. The processing device may execute an operating system (OS) and a software application running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or apparatus, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in a computer-readable recording medium.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있으며 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination, and the program instructions recorded on the medium are specially designed and configured for the embodiment, or are known and available to those skilled in the art of computer software. may be Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

위에서 설명한 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 또는 복수의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The hardware devices described above may be configured to operate as one or a plurality of software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 이를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.As described above, although the embodiments have been described with reference to the limited drawings, those of ordinary skill in the art may apply various technical modifications and variations based thereon. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result. Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (40)

사용자 양안의 위치와 가상 컨텐츠 객체의 허상(virtual image)의 위치 간의 3차원 위치 관계를 기초로, 크로스토크(crosstalk)가 발생할 영역을 추정하는 단계;
상기 추정된 영역과 상기 가상 컨텐츠 객체를 기초로, 상기 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상(concealer image)을 생성하는 단계; 및
상기 가상 컨텐츠 객체와 상기 컨실러 영상을 합성하여 상기 크로스토크를 보정하는 단계
를 포함하는, 크로스토크를 보정하는 방법.
estimating an area where crosstalk will occur based on a three-dimensional positional relationship between the positions of both eyes of the user and the positions of virtual images of the virtual content object;
generating a concealer image for correcting an area in which the crosstalk occurs based on the estimated area and the virtual content object; and
Compensating the crosstalk by synthesizing the virtual content object and the concealer image
A method of correcting crosstalk, comprising:
제1항에 있어서,
상기 컨실러 영상을 생성하는 단계는
상기 컨실러 영상의 잔상 범위(afterimage range), 콘트라스트(contrast), 및 밝기(brightness) 중 적어도 하나의 효과 요소(effect element)를 조절하는 단계
를 포함하는, 크로스토크를 보정하는 방법.
According to claim 1,
The step of generating the concealer image is
adjusting at least one effect element among an afterimage range, a contrast, and a brightness of the concealer image
A method of correcting crosstalk, comprising:
제2항에 있어서,
상기 적어도 하나의 효과 요소를 조절하는 단계는
상기 3차원 위치 관계를 기초로, 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 조절하는 단계;
상기 3차원 위치 관계를 기초로, 상기 컨실러 영상의 콘트라스트 및 밝기를 조절하는 단계; 및
주변 환경의 조도(illumination)를 기초로, 상기 컨실러 영상의 밝기를 조절하는 단계
중 적어도 하나 또는 이들의 조합을 포함하는, 크로스토크를 보정하는 방법.
3. The method of claim 2,
The step of adjusting the at least one effect factor comprises:
adjusting an afterimage range of the concealer image in contrast to the size of the virtual image of the virtual content object based on the three-dimensional positional relationship;
adjusting the contrast and brightness of the concealer image based on the three-dimensional positional relationship; and
Adjusting the brightness of the concealer image based on the illumination of the surrounding environment
A method of correcting crosstalk, comprising at least one of or a combination thereof.
제3항에 있어서,
상기 컨실러 영상의 잔상 범위를 조절하는 단계는
상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 기준 거리보다 멀어질수록 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 점진적으로 확장시키는 단계; 및
상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 상기 기준 거리보다 가까워질수록 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 점진적으로 축소시키는 단계
를 포함하는, 크로스토크를 보정하는 방법.
4. The method of claim 3,
The step of adjusting the afterimage range of the concealer image is
gradually expanding the range of the afterimage of the concealer image in contrast to the size of the virtual image of the virtual content object as the distance between the positions of the user's both eyes and the position of the virtual image is greater than a reference distance; and
gradually reducing the range of the afterimage of the concealer image in contrast to the size of the virtual image of the virtual content object as the distance between the positions of the user's both eyes and the position of the virtual image is closer than the reference distance;
A method of correcting crosstalk, comprising:
제3항에 있어서,
상기 컨실러 영상의 콘트라스트 및 밝기를 조절하는 단계는
상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 기준 거리보다 멀어질수록 상기 컨실러 영상의 콘트라스트 및 밝기를 점진적으로 어둡게 조절하는 단계; 및
상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 상기 기준 거리보다 가까워질수록 상기 컨실러 영상의 콘트라스트 및 밝기를 점진적으로 밝게 조절하는 단계
를 포함하는, 크로스토크를 보정하는 방법.
4. The method of claim 3,
The step of adjusting the contrast and brightness of the concealer image
gradually darkening the contrast and brightness of the concealer image as the distance between the positions of the user's eyes and the position of the virtual image is greater than a reference distance; and
gradually brightening the contrast and brightness of the concealer image as the distance between the positions of the user's eyes and the position of the virtual image becomes closer than the reference distance
A method of correcting crosstalk, comprising:
제3항에 있어서,
상기 컨실러 영상의 밝기를 조절하는 단계는
상기 조도가 기준 조도보다 높아질수록 상기 컨실러 영상의 밝기를 점진적으로 어둡게 조절하는 단계; 및
상기 조도가 상기 기준 조도보다 낮아질수록 상기 컨실러 영상의 밝기를 점진적으로 밝게 조절하는 단계
를 포함하는, 크로스토크를 보정하는 방법.
4. The method of claim 3,
The step of adjusting the brightness of the concealer image is
gradually darkening the brightness of the concealer image as the illuminance becomes higher than the reference illuminance; and
gradually adjusting the brightness of the concealer image to be brighter as the illuminance is lower than the reference illuminance
A method of correcting crosstalk, comprising:
제1항에 있어서,
상기 컨실러 영상을 생성하는 단계는
상기 가상 컨텐츠 객체의 형태에 대응되도록 상기 가상 컨텐츠 객체를 블러(blur)시킴으로써 상기 컨실러 영상을 생성하는 단계
를 포함하는, 크로스토크를 보정하는 방법.
According to claim 1,
The step of generating the concealer image is
generating the concealer image by blurring the virtual content object to correspond to the shape of the virtual content object
A method of correcting crosstalk, comprising:
제1항에 있어서,
상기 컨실러 영상을 생성하는 단계는
상기 가상 컨텐츠 객체를 블러시킨 블러 영상(blurred image)을 생성하는 단계; 및
상기 블러 영상에 대응하는 잔상 범위, 콘트라스트, 및 밝기 중 적어도 하나의 효과 요소를 조절하는 단계
를 포함하는, 크로스토크를 보정하는 방법.
According to claim 1,
The step of generating the concealer image is
generating a blurred image obtained by blurring the virtual content object; and
adjusting at least one effect element of an afterimage range, contrast, and brightness corresponding to the blur image;
A method of correcting crosstalk, comprising:
제8항에 있어서,
상기 블러 영상을 생성하는 단계는
상기 3차원 위치 관계를 기초로 상기 가상 컨텐츠 객체를 확장시킨 형태에 대응되도록 상기 블러 영상을 생성하는 단계
를 포함하는, 크로스토크를 보정하는 방법.
9. The method of claim 8,
The step of generating the blur image is
generating the blur image to correspond to the expanded form of the virtual content object based on the 3D positional relationship;
A method of correcting crosstalk, comprising:
제8항에 있어서,
상기 블러 영상을 생성하는 단계는
상기 가상 컨텐츠 객체의 형태를 기초로, 상기 사용자 양안 중 좌안에 대응하는 제1 블러 영상 및 우안에 대응하는 제2 블러 영상을 생성하는 단계; 및
상기 제1 블러 영상 및 상기 제2 블러 영상을 결합하여 상기 블러 영상을 생성하는 단계
를 포함하는, 크로스토크를 보정하는 방법.
9. The method of claim 8,
The step of generating the blur image is
generating a first blur image corresponding to the left eye and a second blur image corresponding to the right eye among both eyes of the user based on the shape of the virtual content object; and
generating the blur image by combining the first blur image and the second blur image
A method of correcting crosstalk, comprising:
제10항에 있어서,
상기 제1 블러 영상 및 상기 제2 블러 영상을 결합하여 상기 블러 영상을 생성하는 단계는
상기 제1 블러 영상 및 상기 제2 블러 영상을 상기 사용자 양안의 시차(disparity)에 기초한 간격만큼 이격시키는 단계; 및
상기 이격된 간격이 유지되도록 상기 제1 블러 영상 및 상기 제2 블러 영상을 결합하는 단계
를 포함하는, 크로스토크를 보정하는 방법.
11. The method of claim 10,
The step of generating the blur image by combining the first blur image and the second blur image includes:
separating the first blurred image and the second blurred image by an interval based on disparity between both eyes of the user; and
combining the first blur image and the second blur image so that the spaced distance is maintained
A method of correcting crosstalk, comprising:
제11항에 있어서,
상기 이격된 간격이 유지되도록 상기 제1 블러 영상 및 상기 제2 블러 영상을 결합하는 단계는
상기 이격된 상기 제1 블러 영상과 상기 제2 블러 영상을 보간(interpolation)하여 상기 블러 영상을 생성하는 단계
를 포함하는, 크로스토크를 보정하는 방법.
12. The method of claim 11,
The step of combining the first blur image and the second blur image so that the spaced distance is maintained
generating the blur image by interpolating the spaced apart first blur image and the second blur image
A method of correcting crosstalk, comprising:
제1항에 있어서,
상기 크로스토크를 보정하는 단계는
상기 가상 컨텐츠 객체를 포함하는 3차원 공간 상에 상기 컨실러 영상을 배치하는 단계;
상기 가상 컨텐츠 객체와 상기 컨실러 영상을 함께 렌더링 함으로써, 좌안 영상과 우안 영상을 생성하는 단계; 및
상기 좌안 영상과 상기 우안 영상을 투사하는 단계
를 포함하는, 크로스토크를 보정하는 방법.
According to claim 1,
The step of correcting the crosstalk is
disposing the concealer image in a three-dimensional space including the virtual content object;
generating a left-eye image and a right-eye image by rendering the virtual content object and the concealer image together; and
Projecting the left eye image and the right eye image
A method of correcting crosstalk, comprising:
제1항에 있어서,
상기 크로스토크를 보정하는 단계는
상기 가상 컨텐츠 객체를 렌더링 함으로써, 좌안 영상과 우안 영상을 생성하는 단계; 및
상기 좌안 영상, 상기 우안 영상, 및 상기 컨실러 영상을 투사하는 단계
를 포함하는, 크로스토크를 보정하는 방법.
According to claim 1,
The step of correcting the crosstalk is
generating a left-eye image and a right-eye image by rendering the virtual content object; and
Projecting the left eye image, the right eye image, and the concealer image
A method of correcting crosstalk, comprising:
제1항에 있어서,
상기 크로스토크가 발생할 영역을 추정하는 단계는
상기 사용자 양안의 시차 및 상기 3차원 위치 관계를 기초로, 상기 크로스토크가 발생할 영역을 추정하는 단계
를 포함하는, 크로스토크를 보정하는 방법.
According to claim 1,
The step of estimating the area where the crosstalk will occur
estimating an area in which the crosstalk will occur based on the parallax of both eyes of the user and the three-dimensional positional relationship;
A method of correcting crosstalk, comprising:
제1항에 있어서,
상기 크로스토크가 발생할 영역을 추정하는 단계는
상기 사용자 양안의 시차 및 상기 3차원 위치 관계를 기초로, 상기 크로스토크가 발생할 영역의 잔상 범위를 조절함으로써 상기 크로스토크가 발생할 영역을 추정하는 단계
를 포함하는, 크로스토크를 보정하는 방법.
According to claim 1,
The step of estimating the area where the crosstalk will occur
estimating an area where the crosstalk will occur by adjusting an afterimage range of the area where the crosstalk will occur based on the parallax of both eyes of the user and the three-dimensional positional relationship
A method of correcting crosstalk, comprising:
제1항에 있어서,
상기 가상 컨텐츠 객체의 위치 이동을 감지하는 단계
를 더 포함하고,
상기 크로스토크가 발생할 영역을 추정하는 단계는
상기 위치 이동에 따라 변경된 상기 3차원 위치 관계 및 상기 사용자 양안의 시차 중 적어도 하나를 기초로, 상기 크로스토크가 발생할 영역을 추정하는 단계
를 포함하는, 크로스토크를 보정하는 방법.
According to claim 1,
detecting a positional movement of the virtual content object;
further comprising,
The step of estimating the area where the crosstalk will occur
estimating an area in which the crosstalk will occur based on at least one of the three-dimensional positional relationship changed according to the positional movement and the parallax of both eyes of the user
A method of correcting crosstalk, comprising:
제1항에 있어서,
상기 크로스토크가 발생할 영역은
상기 컨실러 영상을 배치시킬 위치 및 범위에 대응되는, 크로스토크를 보정하는 방법.
According to claim 1,
The area where the crosstalk will occur is
A method of correcting crosstalk corresponding to a position and a range in which the concealer image is to be placed.
하드웨어와 결합되어 제1항 내지 제18항 중 어느 하나의 항의 방법을 실행시키기 위하여 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램.A computer program stored in a computer-readable recording medium in combination with hardware to execute the method of any one of claims 1 to 18. 사용자 양안의 위치를 감지하는 센서; 및
상기 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 3차원 위치 관계를 기초로, 크로스토크가 발생할 영역을 추정하고, 상기 추정된 영역과 상기 가상 컨텐츠 객체를 기초로, 상기 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상을 생성하며, 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 합성하여 상기 크로스토크를 보정하는 프로세서
를 포함하는, 크로스토크를 보정하는 장치.
a sensor for detecting the position of both eyes of the user; and
A region where crosstalk will occur is estimated based on a three-dimensional positional relationship between the positions of both eyes of the user and the position of the virtual image of the virtual content object, and an region where the crosstalk will occur based on the estimated region and the virtual content object A processor that generates a concealer image for correcting
A device for correcting crosstalk, including.
제20항에 있어서,
상기 프로세서는
상기 컨실러 영상의 잔상 범위, 콘트라스트, 및 밝기 중 적어도 하나의 효과 요소를 조절하는, 크로스토크를 보정하는 장치.
21. The method of claim 20,
the processor is
An apparatus for correcting crosstalk by adjusting at least one effect factor of an afterimage range, contrast, and brightness of the concealer image.
제21항에 있어서,
상기 프로세서는
상기 3차원 위치 관계를 기초로, 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 조절하는 동작, 상기 3차원 위치 관계를 기초로, 상기 컨실러 영상의 콘트라스트 및 밝기를 조절하는 동작, 및 주변 환경의 조도를 기초로, 상기 컨실러 영상의 밝기를 조절하는 동작 중 적어도 하나 또는 이들의 조합을 수행하는, 크로스토크를 보정하는 장치.
22. The method of claim 21,
the processor is
Adjusting the afterimage range of the concealer image in contrast to the size of the virtual image of the virtual content object based on the 3D positional relationship, and adjusting the contrast and brightness of the concealer image based on the 3D positional relation An apparatus for correcting crosstalk, which performs at least one of an operation and an operation of adjusting the brightness of the concealer image based on the illuminance of the surrounding environment, or a combination thereof.
제22항에 있어서,
상기 프로세서는
상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 기준 거리보다 멀어질수록 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 점진적으로 확장시키고, 상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 상기 기준 거리보다 가까워질수록 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 점진적으로 축소시키는, 크로스토크를 보정하는 장치.
23. The method of claim 22,
the processor is
As the distance between the position of both eyes of the user and the position of the virtual image is greater than the reference distance, the range of the afterimage of the concealer image in contrast to the size of the virtual image of the virtual content object is gradually expanded, and the position of the user's both eyes and the virtual image An apparatus for correcting crosstalk for gradually reducing a range of an afterimage of the concealer image in contrast to the size of the virtual image of the virtual content object as the distance between the positions of the ' is closer than the reference distance.
제23항에 있어서,
상기 프로세서는
상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 기준 거리보다 멀어질수록 상기 컨실러 영상의 콘트라스트 및 밝기를 점진적으로 어둡게 조절하고, 상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 상기 기준 거리보다 가까워질수록 상기 컨실러 영상의 콘트라스트 및 밝기를 점진적으로 밝게 조절하는, 크로스토크를 보정하는 장치.
24. The method of claim 23,
the processor is
Contrast and brightness of the concealer image are gradually darkened as the distance between the positions of both eyes of the user and the position of the virtual image is greater than the reference distance, and the distance between the positions of both eyes of the user and the position of the virtual image is greater than the reference distance A device for correcting crosstalk, which gradually brightens the contrast and brightness of the concealer image as it gets closer.
제22항에 있어서,
상기 프로세서는
상기 조도가 기준 조도보다 높아질수록 상기 컨실러 영상의 밝기를 점진적으로 어둡게 조절하고, 상기 조도가 상기 기준 조도보다 낮아질수록 상기 컨실러 영상의 밝기를 점진적으로 밝게 조절하는, 크로스토크를 보정하는 장치.
23. The method of claim 22,
the processor is
The apparatus for correcting crosstalk, wherein the brightness of the concealer image is gradually darkened as the illuminance is higher than the reference illuminance, and the brightness of the concealer image is gradually brightened as the illuminance is lower than the reference illuminance.
제20항에 있어서,
상기 프로세서는
상기 가상 컨텐츠 객체의 형태에 대응되도록 상기 가상 컨텐츠 객체를 블러시킴으로써 상기 컨실러 영상을 생성하는, 크로스토크를 보정하는 장치.
21. The method of claim 20,
the processor is
An apparatus for correcting crosstalk, which generates the concealer image by blurring the virtual content object to correspond to the shape of the virtual content object.
제20항에 있어서,
상기 프로세서는
상기 가상 컨텐츠 객체를 블러시킨 블러 영상을 생성하고, 상기 블러 영상에 대응하는 잔상 범위, 콘트라스트, 및 밝기 중 적어도 하나의 효과 요소를 조절하는, 크로스토크를 보정하는 장치.
21. The method of claim 20,
the processor is
An apparatus for correcting crosstalk, generating a blur image obtained by blurring the virtual content object, and adjusting at least one effect element of an afterimage range, contrast, and brightness corresponding to the blur image.
제27항에 있어서,
상기 프로세서는
상기 3차원 위치 관계를 기초로 상기 가상 컨텐츠 객체를 확장시킨 형태에 대응되도록 상기 블러 영상을 생성하는, 크로스토크를 보정하는 장치.
28. The method of claim 27,
the processor is
An apparatus for correcting crosstalk, which generates the blur image to correspond to a shape in which the virtual content object is expanded based on the three-dimensional positional relationship.
제27항에 있어서,
상기 프로세서는
상기 가상 컨텐츠 객체의 형태를 기초로, 상기 사용자 양안 중 좌안에 대응하는 제1 블러 영상 및 우안에 대응하는 제2 블러 영상을 생성하고, 상기 제1 블러 영상 및 상기 제2 블러 영상을 결합하여 상기 블러 영상을 생성하는, 크로스토크를 보정하는 장치.
28. The method of claim 27,
the processor is
Based on the shape of the virtual content object, a first blur image corresponding to the left eye and a second blur image corresponding to the right eye of the user's both eyes are generated, and the first blur image and the second blur image are combined to generate the A device that corrects crosstalk to create a blur image.
제29항에 있어서,
상기 프로세서는
상기 제1 블러 영상 및 상기 제2 블러 영상을 상기 사용자 양안의 시차에 기초한 간격만큼 이격시키고, 상기 이격된 간격이 유지되도록 상기 제1 블러 영상 및 상기 제2 블러 영상을 결합하는, 크로스토크를 보정하는 장치.
30. The method of claim 29,
the processor is
Crosstalk is corrected by separating the first blur image and the second blur image by an interval based on the parallax of both eyes of the user, and combining the first blur image and the second blur image so that the spaced distance is maintained device to do.
제30항에 있어서,
상기 프로세서는
상기 이격된 상기 제1 블러 영상과 상기 제2 블러 영상을 보간하여 상기 블러 영상을 생성하는, 크로스토크를 보정하는 장치.
31. The method of claim 30,
the processor is
An apparatus for correcting crosstalk to generate the blur image by interpolating the spaced apart first blur image and the second blur image.
제20항에 있어서,
상기 프로세서는
상기 가상 컨텐츠 객체를 포함하는 3차원 공간 상에 상기 컨실러 영상을 배치하고, 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 함께 렌더링 함으로써, 좌안 영상과 우안 영상을 생성하며, 상기 좌안 영상과 상기 우안 영상을 투사하는, 크로스토크를 보정하는 장치.
21. The method of claim 20,
the processor is
By disposing the concealer image in a three-dimensional space including the virtual content object, and rendering the virtual content object and the concealer image together, a left eye image and a right eye image are generated, and the left eye image and the right eye image are projected A device that corrects crosstalk.
제20항에 있어서,
상기 프로세서는
상기 가상 컨텐츠 객체를 렌더링 함으로써, 좌안 영상과 우안 영상을 생성하고, 상기 좌안 영상, 상기 우안 영상, 및 상기 컨실러 영상을 투사하는, 크로스토크를 보정하는 장치.
21. The method of claim 20,
the processor is
An apparatus for correcting crosstalk, generating a left-eye image and a right-eye image by rendering the virtual content object, and projecting the left-eye image, the right-eye image, and the concealer image.
제20항에 있어서,
상기 프로세서는
상기 사용자 양안의 시차 및 상기 3차원 위치 관계를 기초로, 상기 크로스토크가 발생할 영역을 추정하는, 크로스토크를 보정하는 장치.
21. The method of claim 20,
the processor is
An apparatus for correcting crosstalk by estimating an area in which the crosstalk occurs based on the parallax of the user's eyes and the three-dimensional positional relationship.
제20항에 있어서,
상기 프로세서는
상기 사용자 양안의 시차 및 상기 3차원 위치 관계를 기초로, 상기 크로스토크가 발생할 영역의 잔상 범위를 조절함으로써 상기 크로스토크가 발생할 영역을 추정하는, 크로스토크를 보정하는 장치.
21. The method of claim 20,
the processor is
The apparatus for correcting crosstalk, estimating an area where the crosstalk will occur by adjusting an afterimage range of the area where the crosstalk will occur based on the parallax of the user's both eyes and the three-dimensional positional relationship.
제20항에 있어서,
상기 프로세서는
상기 가상 컨텐츠 객체의 위치 이동을 감지하고, 상기 위치 이동에 따라 변경된 상기 3차원 위치 관계 및 상기 사용자 양안의 시차 중 적어도 하나를 기초로, 상기 크로스토크가 발생할 영역을 추정하는, 크로스토크를 보정하는 장치.
21. The method of claim 20,
the processor is
Correcting crosstalk by detecting a positional movement of the virtual content object and estimating an area in which the crosstalk will occur based on at least one of the three-dimensional positional relationship changed according to the positional movement and the parallax of both eyes of the user Device.
제20항에 있어서,
상기 크로스토크가 발생할 영역은
상기 컨실러 영상을 배치시킬 위치 및 범위에 대응되는, 크로스토크를 보정하는 장치.
21. The method of claim 20,
The area where the crosstalk will occur is
A device for correcting crosstalk, corresponding to a position and a range in which the concealer image is to be placed.
컨텐츠 시각화 장치에 있어서,
가상 컨텐츠 객체를 프로젝션 평면에 투사하여 시각화하는 디스플레이; 및
사용자 양안의 위치와 상기 가상 컨텐츠 객체의 허상의 위치 간의 3차원 위치 관계를 기초로, 크로스토크가 발생할 영역을 추정하고, 상기 추정된 영역과 상기 가상 컨텐츠 객체를 기초로, 상기 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상을 생성하며, 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 합성하여 상기 크로스토크를 보정하는 프로세서
를 포함하는, 컨텐츠 시각화 장치.
A content visualization device comprising:
a display for visualizing a virtual content object by projecting it on a projection plane; and
A region where crosstalk will occur is estimated based on a three-dimensional positional relationship between the positions of both eyes of the user and the position of the virtual image of the virtual content object, and an region where the crosstalk will occur based on the estimated region and the virtual content object A processor that generates a concealer image for correcting
Including, content visualization device.
증강 현실 안경(Augmented Reality glass, AR glass) 장치에 있어서,
가상 컨텐츠 객체를 시각화 하는 투명 디스플레이; 및
사용자 양안의 위치와 상기 가상 컨텐츠 객체의 허상의 위치 간의 3차원 위치 관계를 기초로 크로스토크가 발생할 영역을 추정하고, 상기 추정된 영역과 상기 가상 컨텐츠 객체를 기초로 상기 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상을 생성하며, 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 합성하여 상기 크로스토크를 보정하는 프로세서
를 포함하는, 증강 현실 안경 장치.
In the augmented reality glasses (Augmented Reality glass, AR glass) device,
Transparent display to visualize virtual content objects; and
Estimate a region where crosstalk will occur based on a three-dimensional positional relationship between the positions of both eyes of the user and the virtual image position of the virtual content object, and correct the region where crosstalk will occur based on the estimated region and the virtual content object A processor that generates a concealer image for
Including, augmented reality glasses device.
차량에 있어서,
상기 차량의 위치를 센싱하는 센서;
사용자에게 제공할 가상 컨텐츠 객체를 프로젝션 평면에 시각화하는 헤드업 디스플레이(head-up display, HUD); 및
상기 차량의 위치에 기초하여 상기 가상 컨텐츠 객체를 결정하고, 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 3차원 위치 관계를 기초로 크로스토크가 발생할 영역을 추정하고, 상기 추정된 영역과 상기 가상 컨텐츠 객체를 기초로 상기 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상을 생성하며, 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 합성하여 상기 크로스토크를 보정하는 프로세서
를 포함하는, 차량.

in a vehicle,
a sensor for sensing the position of the vehicle;
a head-up display (HUD) for visualizing a virtual content object to be provided to a user on a projection plane; and
The virtual content object is determined based on the location of the vehicle, and an area where crosstalk occurs is estimated based on a three-dimensional positional relationship between the positions of both eyes of the user and the virtual image of the virtual content object, and the estimated area and the A processor that generates a concealer image for correcting an area where the crosstalk occurs based on a virtual content object, and corrects the crosstalk by synthesizing the virtual content object and the concealer image
A vehicle comprising:

KR1020200181939A 2020-09-07 2020-12-23 Method and apparatus of correcting crosstalk KR20220032448A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/225,339 US11719930B2 (en) 2020-09-07 2021-04-08 Method and apparatus with crosstalk correction

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200114028 2020-09-07
KR20200114028 2020-09-07

Publications (1)

Publication Number Publication Date
KR20220032448A true KR20220032448A (en) 2022-03-15

Family

ID=80817086

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200181939A KR20220032448A (en) 2020-09-07 2020-12-23 Method and apparatus of correcting crosstalk

Country Status (1)

Country Link
KR (1) KR20220032448A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116634624A (en) * 2023-07-21 2023-08-22 珠海中旭承科技股份有限公司 Illumination control method and device for transparent screen display cabinet
WO2024039154A1 (en) * 2022-08-18 2024-02-22 삼성전자 주식회사 Electronic device for displaying 3d image and operation method thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024039154A1 (en) * 2022-08-18 2024-02-22 삼성전자 주식회사 Electronic device for displaying 3d image and operation method thereof
CN116634624A (en) * 2023-07-21 2023-08-22 珠海中旭承科技股份有限公司 Illumination control method and device for transparent screen display cabinet
CN116634624B (en) * 2023-07-21 2023-09-15 珠海中旭承科技股份有限公司 Illumination control method and device for transparent screen display cabinet

Similar Documents

Publication Publication Date Title
KR102298378B1 (en) Information processing device, information processing method, and program
EP3444139B1 (en) Image processing method and image processing device
KR102306790B1 (en) Device and method to visualize content
US11646000B2 (en) Image display system, image display method, movable object including the image display system, and non-transitory computer-readable medium
KR20200042166A (en) Device and method to visualize content
US20120242694A1 (en) Monocular head mounted display
JP2015215510A (en) Display device and display method
CN111095078A (en) Method, device and computer-readable storage medium with instructions for controlling the display of an augmented reality head-up display device for a motor vehicle
US20200269696A1 (en) Virtual image display device
KR20180022374A (en) Lane markings hud for driver and assistant and same method thereof
KR20220032448A (en) Method and apparatus of correcting crosstalk
US11869162B2 (en) Apparatus and method with virtual content adjustment
JP2016078498A (en) Display control device and display system
US11719930B2 (en) Method and apparatus with crosstalk correction
CN112703527A (en) Head-up display (HUD) content control system and method
KR102652943B1 (en) Method for outputting a three dimensional image and an electronic device performing the method
JP2020033003A (en) Display control device and display control program
US20220300120A1 (en) Information processing apparatus, and control method
US20140049540A1 (en) Image Processing Device, Method, Computer Program Product, and Stereoscopic Image Display Device
US11170537B2 (en) Vehicle display device
JP2020019369A (en) Display device for vehicle, method and computer program
WO2020039855A1 (en) Display control device, display control program, and continuous tangible computer-readable medium thereof
KR20240020051A (en) A method of calibrating a head up display using an in-car camera and an apparatus of calibrating a head up display using an in-car camera
EP3306373A1 (en) Method and device to render 3d content on a head-up display
CN117275376A (en) Ghost elimination method for vehicle-mounted head-up display, and related device and chip

Legal Events

Date Code Title Description
A201 Request for examination