KR20220032448A - Method and apparatus of correcting crosstalk - Google Patents
Method and apparatus of correcting crosstalk Download PDFInfo
- Publication number
- KR20220032448A KR20220032448A KR1020200181939A KR20200181939A KR20220032448A KR 20220032448 A KR20220032448 A KR 20220032448A KR 1020200181939 A KR1020200181939 A KR 1020200181939A KR 20200181939 A KR20200181939 A KR 20200181939A KR 20220032448 A KR20220032448 A KR 20220032448A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- crosstalk
- concealer
- content object
- virtual content
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 87
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 18
- 206010047571 Visual impairment Diseases 0.000 claims description 39
- 230000000694 effects Effects 0.000 claims description 26
- 239000011521 glass Substances 0.000 claims description 15
- 230000003190 augmentative effect Effects 0.000 claims description 12
- 238000009877 rendering Methods 0.000 claims description 10
- 238000012800 visualization Methods 0.000 claims description 8
- 238000005286 illumination Methods 0.000 claims description 4
- 238000005282 brightening Methods 0.000 claims description 2
- 238000004590 computer program Methods 0.000 claims description 2
- 238000012937 correction Methods 0.000 description 76
- 238000010586 diagram Methods 0.000 description 17
- 238000012545 processing Methods 0.000 description 14
- 230000014509 gene expression Effects 0.000 description 7
- 230000007423 decrease Effects 0.000 description 6
- 210000003128 head Anatomy 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
- H04N13/125—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues for crosstalk reduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/133—Equalising the characteristics of different image components, e.g. their average brightness or colour balance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
Abstract
Description
아래의 실시예들은 크로스토크를 보정하는 방법 및 장치에 관한 것이다.The following embodiments relate to a method and apparatus for correcting crosstalk.
양안 시점에 각각의 영상을 조사하여 3D 입체감을 느낄 수 있는 스테레오(stereo) 방식은 양안에 정확한 그래픽 정보가 들어가면 문제가 없지만, 빛 번짐 등의 물리적인 현상으로 양안에 정확한 그래픽이 조사되지 않으면 3D 크로스토크(crosstalk)가 발생할 수 있다. 예를 들어, 무안경 3D 디스플레이에서 빛 번짐과 같은 광학 현상으로 인해 스테레오 영상이 불완전하게 분리되어 정확한 증강 현실(Augmented Reality; AR) 그래픽이 양쪽 눈에 조사되지 않는 경우, 사용자는 3D 입체 효과를 느끼지 못하게 된다. 이러한 3D 크로스토크를 줄이기 위한 방법으로서 예를 들어, 영상을 흐리게 하거나, 또는 영상의 밝기를 낮추는 방법 등이 이용될 수 있다. 하지만, 전술한 방법들은 모두 영상 품질을 저하시키는 문제가 있다.In the stereo method, where you can feel a 3D effect by irradiating each image from the viewpoint of both eyes, there is no problem if accurate graphic information is entered into both eyes. Crosstalk may occur. For example, in an autostereoscopic 3D display, when stereo images are incompletely separated due to optical phenomena such as light blur, and accurate Augmented Reality (AR) graphics are not irradiated to both eyes, the user does not feel the 3D stereoscopic effect. can't As a method for reducing such 3D crosstalk, for example, a method of blurring an image or lowering the brightness of an image may be used. However, all of the above-described methods have a problem of degrading image quality.
위에서 설명한 배경기술은 발명자가 본원의 개시 내용을 도출하는 과정에서 보유하거나 습득한 것으로서, 반드시 본 출원 전에 일반 공중에 공개된 공지기술이라고 할 수는 없다.The background art described above is possessed or acquired by the inventor in the process of deriving the disclosure of the present application, and cannot necessarily be said to be a known technology disclosed to the general public prior to the present application.
일 실시예에 따르면, 크로스토크를 보정하는 방법은 사용자 양안의 위치와 가상 컨텐츠 객체의 허상(virtual image)의 위치 간의 3차원 위치 관계를 기초로, 크로스토크(crosstalk)가 발생할 영역을 추정하는 단계; 상기 추정된 영역과 상기 가상 컨텐츠 객체를 기초로, 상기 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상(concealer image)을 생성하는 단계; 및 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 합성하여 상기 크로스토크를 보정하는 단계를 포함한다. According to an embodiment, the method for correcting crosstalk includes estimating an area where crosstalk will occur based on a three-dimensional positional relationship between the positions of both eyes of a user and the positions of virtual images of virtual content objects. ; generating a concealer image for correcting an area in which the crosstalk occurs based on the estimated area and the virtual content object; and compensating the crosstalk by synthesizing the virtual content object and the concealer image.
상기 컨실러 영상을 생성하는 단계는 상기 컨실러 영상의 잔상 범위(afterimage range), 콘트라스트(contrast), 및 밝기(brightness) 중 적어도 하나의 효과 요소(effect element)를 조절하는 단계를 포함할 수 있다. The generating of the concealer image may include adjusting at least one effect element among an afterimage range, a contrast, and a brightness of the concealer image.
상기 적어도 하나의 효과 요소를 조절하는 단계는 상기 3차원 위치 관계를 기초로, 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 조절하는 단계; 상기 3차원 위치 관계를 기초로, 상기 컨실러 영상의 콘트라스트 및 밝기를 조절하는 단계; 및 주변 환경의 조도(illumination)를 기초로, 상기 컨실러 영상의 밝기를 조절하는 단계 중 적어도 하나 또는 이들의 조합을 포함할 수 있다. The adjusting of the at least one effect element may include adjusting an afterimage range of the concealer image in contrast to the size of the virtual image of the virtual content object based on the three-dimensional positional relationship; adjusting the contrast and brightness of the concealer image based on the three-dimensional positional relationship; and adjusting the brightness of the concealer image based on the illumination of the surrounding environment, or a combination thereof.
상기 컨실러 영상의 잔상 범위를 조절하는 단계는 상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 기준 거리 보다 멀어질수록 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 점진적으로 확장시키는 단계; 및 상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 상기 기준 거리보다 가까워질수록 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 점진적으로 축소시키는 단계를 포함할 수 있다. In the step of adjusting the afterimage range of the concealer image, as the distance between the positions of both eyes of the user and the position of the virtual image is greater than a reference distance, the afterimage range of the concealer image in contrast to the size of the virtual image of the virtual content object is gradually increased. expanding; and gradually reducing the range of the afterimage of the concealer image in contrast to the size of the virtual image of the virtual content object as the distance between the positions of both eyes of the user and the position of the virtual image is closer than the reference distance.
상기 컨실러 영상의 콘트라스트 및 밝기를 조절하는 단계는 상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 기준 거리보다 멀어질수록 상기 컨실러 영상의 콘트라스트 및 밝기를 점진적으로 어둡게 조절하는 단계; 및 상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 상기 기준 거리보다 가까워질수록 상기 컨실러 영상의 콘트라스트 및 밝기를 점진적으로 밝게 조절하는 단계를 포함할 수 있다. The adjusting the contrast and brightness of the concealer image may include: gradually adjusting the contrast and brightness of the concealer image to be darker as the distance between the positions of both eyes of the user and the position of the virtual image is greater than a reference distance; and gradually brightening the contrast and brightness of the concealer image as the distance between the positions of the user's eyes and the position of the virtual image becomes closer than the reference distance.
상기 컨실러 영상의 밝기를 조절하는 단계는 상기 조도가 기준 조도보다 높아질수록 상기 컨실러 영상의 밝기를 점진적으로 어둡게 조절하는 단계; 및 상기 조도가 상기 기준 조도보다 낮아질수록 상기 컨실러 영상의 밝기를 점진적으로 밝게 조절하는 단계를 포함할 수 있다. The adjusting of the brightness of the concealer image may include: gradually adjusting the brightness of the concealer image to be darker as the illuminance is higher than the reference illuminance; and gradually adjusting the brightness of the concealer image to be brighter as the illuminance is lower than the reference illuminance.
상기 컨실러 영상을 생성하는 단계는 상기 가상 컨텐츠 객체의 형태에 대응되도록 상기 가상 컨텐츠 객체를 블러(blur) 시킴으로써 상기 컨실러 영상을 생성하는 단계를 포함할 수 있다. The generating of the concealer image may include generating the concealer image by blurring the virtual content object to correspond to the shape of the virtual content object.
상기 컨실러 영상을 생성하는 단계는 상기 가상 컨텐츠 객체를 블러시킨 블러 영상(blurred image)을 생성하는 단계; 및 상기 블러 영상에 대응하는 잔상 범위, 콘트라스트, 및 밝기 중 적어도 하나의 효과 요소를 조절하는 단계를 포함할 수 있다. The generating of the concealer image may include: generating a blurred image obtained by blurring the virtual content object; and adjusting at least one effect element of an afterimage range, contrast, and brightness corresponding to the blur image.
상기 블러 영상을 생성하는 단계는 상기 3차원 위치 관계를 기초로 상기 가상 컨텐츠 객체를 확장시킨 형태에 대응되도록 상기 블러 영상을 생성하는 단계를 포함할 수 있다. The generating of the blur image may include generating the blur image to correspond to a shape in which the virtual content object is expanded based on the three-dimensional positional relationship.
상기 블러 영상을 생성하는 단계는 상기 가상 컨텐츠 객체의 형태를 기초로, 상기 사용자 양안 중 좌안에 대응하는 제1 블러 영상 및 우안에 대응하는 제2 블러 영상을 생성하는 단계; 및 상기 제1 블러 영상 및 상기 제2 블러 영상을 결합하여 상기 블러 영상을 생성하는 단계를 포함할 수 있다. The generating of the blur image may include: generating a first blur image corresponding to the left eye and a second blur image corresponding to the right eye among the user's both eyes based on the shape of the virtual content object; and generating the blur image by combining the first blur image and the second blur image.
상기 제1 블러 영상 및 상기 제2 블러 영상을 결합하여 상기 블러 영상을 생성하는 단계는 상기 제1 블러 영상 및 상기 제2 블러 영상을 상기 사용자 양안의 시차(disparity)에 기초한 간격만큼 이격시키는 단계; 및 상기 이격된 간격이 유지되도록 상기 제1 블러 영상 및 상기 제2 블러 영상을 결합하는 단계를 포함할 수 있다. The generating of the blur image by combining the first blur image and the second blur image may include: separating the first blur image and the second blur image by an interval based on disparity between both eyes of the user; and combining the first blur image and the second blur image so that the spaced distance is maintained.
상기 이격된 간격이 유지되도록 상기 제1 블러 영상 및 상기 제2 블러 영상을 결합하는 단계는 상기 이격된 상기 제1 블러 영상과 상기 제2 블러 영상을 보간(interpolation)하여 상기 블러 영상을 생성하는 단계를 포함할 수 있다. The combining of the first blur image and the second blur image so that the spaced distance is maintained may include generating the blur image by interpolating the spaced apart first blur image and the second blur image. may include
상기 가상 컨텐츠 객체를 포함하는 3차원 공간 상에 상기 컨실러 영상을 배치하는 단계; 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 함께 렌더링 함으로써, 좌안 영상과 우안 영상을 생성하는 단계; 및 상기 좌안 영상과 상기 우안 영상을 투사하는 단계를 포함할 수 있다. disposing the concealer image in a three-dimensional space including the virtual content object; generating a left-eye image and a right-eye image by rendering the virtual content object and the concealer image together; and projecting the left eye image and the right eye image.
상기 크로스토크를 보정하는 단계는 상기 가상 컨텐츠 객체를 렌더링 함으로써, 좌안 영상과 우안 영상을 생성하는 단계; 및 상기 좌안 영상, 상기 우안 영상, 및 상기 컨실러 영상을 투사하는 단계를 포함할 수 있다. The correcting of the crosstalk may include: generating a left-eye image and a right-eye image by rendering the virtual content object; and projecting the left eye image, the right eye image, and the concealer image.
상기 크로스토크가 발생할 영역을 추정하는 단계는 상기 사용자 양안의 시차 및 상기 3차원 위치 관계를 기초로, 상기 크로스토크가 발생할 영역을 추정하는 단계를 포함할 수 있다. The estimating of the area where the crosstalk will occur may include estimating the area where the crosstalk will occur based on the disparity between the user's eyes and the 3D positional relationship.
상기 크로스토크가 발생할 영역을 추정하는 단계는 상기 사용자 양안의 시차 및 상기 3차원 위치 관계를 기초로, 상기 크로스토크가 발생할 영역의 잔상 범위를 조절함으로써 상기 크로스토크가 발생할 영역을 추정하는 단계를 포함할 수 있다. The estimating of the area where the crosstalk will occur includes estimating the area where the crosstalk will occur by adjusting an afterimage range of the area where the crosstalk will occur based on the parallax of both eyes of the user and the three-dimensional positional relationship. can do.
상기 크로스토크를 보정하는 방법은 상기 가상 컨텐츠 객체의 위치 이동을 감지하는 단계를 더 포함하고, 상기 크로스토크가 발생할 영역을 추정하는 단계는 상기 위치 이동에 따라 변경된 상기 3차원 위치 관계 및 상기 사용자 양안의 시차 중 적어도 하나를 기초로, 상기 크로스토크가 발생할 영역을 추정하는 단계를 포함할 수 있다. The method of correcting the crosstalk may further include detecting a positional movement of the virtual content object, and the estimating an area where the crosstalk will occur includes the three-dimensional positional relationship changed according to the positional movement and the user's both eyes. The method may include estimating an area in which the crosstalk will occur based on at least one of the disparities of .
상기 크로스토크가 발생할 영역은 상기 컨실러 영상을 배치시킬 위치 및 범위에 대응될 수 있다. The area in which the crosstalk will occur may correspond to a location and a range in which the concealer image is to be disposed.
일 실시예에 따르면, 크로스토크를 보정하는 장치는 사용자 양안의 위치를 감지하는 센서; 및 상기 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 3차원 위치 관계를 기초로, 크로스토크가 발생할 영역을 추정하고, 상기 추정된 영역과 상기 가상 컨텐츠 객체를 기초로, 상기 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상을 생성하며, 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 합성하여 상기 크로스토크를 보정하는 프로세서를 포함한다. According to an embodiment, an apparatus for correcting crosstalk includes: a sensor for detecting positions of both eyes of a user; and estimating a region where crosstalk will occur based on a three-dimensional positional relationship between the positions of both eyes of the user and the virtual image position of the virtual content object, and based on the estimated region and the virtual content object, the crosstalk will occur and a processor that generates a concealer image for correcting a region, and corrects the crosstalk by synthesizing the virtual content object and the concealer image.
상기 프로세서는 상기 컨실러 영상의 잔상 범위, 콘트라스트, 및 밝기 중 적어도 하나의 효과 요소를 조절할 수 있다. The processor may adjust at least one effect factor of an afterimage range, a contrast, and a brightness of the concealer image.
상기 프로세서는 상기 3차원 위치 관계를 기초로, 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 조절하는 동작, 상기 3차원 위치 관계를 기초로, 상기 컨실러 영상의 콘트라스트를 조절하는 동작, 및 주변 환경의 조도를 기초로, 상기 컨실러 영상의 밝기를 조절하는 동작 중 적어도 하나 또는 이들의 조합을 수행할 수 있다. The processor adjusts the afterimage range of the concealer image in contrast to the size of the virtual image of the virtual content object based on the 3D positional relationship, and adjusts the contrast of the concealer image based on the 3D positional relationship At least one of the operation of adjusting the brightness of the concealer image based on the operation and the illuminance of the surrounding environment, or a combination thereof may be performed.
상기 프로세서는 상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 기준 거리보다 멀어질수록 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 점진적으로 확장시키고, 상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 상기 기준 거리보다 가까워질수록 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 점진적으로 축소시킬 수 있다. The processor gradually expands the range of the afterimage of the concealer image in contrast to the size of the virtual image of the virtual content object as the distance between the position of the user's both eyes and the position of the virtual image is greater than the reference distance, and the position of the user's both eyes As the distance between the position of the virtual image and the virtual image becomes closer than the reference distance, the range of the afterimage of the concealer image in contrast to the size of the virtual image of the virtual content object may be gradually reduced.
상기 프로세서는 상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 기준 거리보다 멀어질수록 상기 컨실러 영상의 콘트라스트 및 밝기를 점진적으로 어둡게 조절하고, 상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 상기 기준 거리보다 가까워질수록 상기 컨실러 영상의 콘트라스트 및 밝기를 점진적으로 밝게 조절할 수 있다. The processor gradually darkens the contrast and brightness of the concealer image as the distance between the positions of both eyes of the user and the position of the virtual image is greater than the reference distance, and the distance between the positions of both eyes of the user and the position of the virtual image is As the distance becomes closer than the reference distance, the contrast and brightness of the concealer image may be gradually brightened.
상기 프로세서는 상기 조도가 기준 조도보다 높아질수록 상기 컨실러 영상의 밝기를 점진적으로 어둡게 조절하고, 상기 조도가 상기 기준 조도보다 낮아질수록 상기 컨실러 영상의 밝기를 점진적으로 밝게 조절할 수 있다. The processor may gradually darken the brightness of the concealer image as the illuminance is higher than the reference illuminance, and may gradually brighten the brightness of the concealer image as the illuminance is lower than the reference illuminance.
상기 프로세서는 상기 가상 컨텐츠 객체의 형태에 대응되도록 상기 가상 컨텐츠 객체를 블러 시킴으로써 상기 컨실러 영상을 생성할 수 있다. The processor may generate the concealer image by blurring the virtual content object to correspond to the shape of the virtual content object.
상기 프로세서는 상기 가상 컨텐츠 객체를 블러시킨 블러 영상을 생성하고, 상기 블러 영상에 대응하는 잔상 범위, 콘트라스트, 및 밝기 중 적어도 하나의 효과 요소를 조절할 수 있다. The processor may generate a blur image obtained by blurring the virtual content object, and may adjust at least one effect element of an afterimage range, contrast, and brightness corresponding to the blur image.
상기 프로세서는 상기 3차원 위치 관계를 기초로 상기 가상 컨텐츠 객체를 확장시킨 형태에 대응되도록 상기 블러 영상을 생성할 수 있다. The processor may generate the blur image to correspond to the expanded form of the virtual content object based on the 3D positional relationship.
상기 프로세서는 상기 가상 컨텐츠 객체의 형태를 기초로, 상기 사용자 양안 중 좌안에 대응하는 제1 블러 영상 및 우안에 대응하는 제2 블러 영상을 생성하고, 상기 제1 블러 영상 및 상기 제2 블러 영상을 결합하여 상기 블러 영상을 생성할 수 있다. The processor generates a first blur image corresponding to the left eye and a second blur image corresponding to the right eye among both eyes of the user based on the shape of the virtual content object, and generates the first blur image and the second blur image By combining them, the blur image may be generated.
상기 프로세서는 상기 제1 블러 영상 및 상기 제2 블러 영상을 상기 사용자 양안의 시차에 기초한 간격만큼 이격시키고, 상기 이격된 간격이 유지되도록 상기 제1 블러 영상 및 상기 제2 블러 영상을 결합할 수 있다. The processor may separate the first blur image and the second blur image by an interval based on the parallax of both eyes of the user, and combine the first blur image and the second blur image such that the spaced distance is maintained. .
상기 프로세서는 상기 이격된 상기 제1 블러 영상과 상기 제2 블러 영상을 보간하여 상기 블러 영상을 생성할 수 있다. The processor may generate the blur image by interpolating the spaced apart first blur image and the second blur image.
상기 프로세서는 상기 가상 컨텐츠 객체를 포함하는 3차원 공간 상에 상기 컨실러 영상을 배치하고, 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 함께 렌더링 함으로써, 좌안 영상과 우안 영상을 생성하며, 상기 좌안 영상과 상기 우안 영상을 투사할 수 있다. The processor places the concealer image on a three-dimensional space including the virtual content object, and renders the virtual content object and the concealer image together, thereby generating a left eye image and a right eye image, and the left eye image and the right eye You can project an image.
상기 프로세서는 상기 가상 컨텐츠 객체를 렌더링 함으로써, 좌안 영상과 우안 영상을 생성하고, 상기 좌안 영상, 상기 우안 영상, 및 상기 컨실러 영상을 투사할 수 있다. The processor may generate a left eye image and a right eye image by rendering the virtual content object, and may project the left eye image, the right eye image, and the concealer image.
상기 프로세서는 상기 사용자 양안의 시차 및 상기 3차원 위치 관계를 기초로, 상기 크로스토크가 발생할 영역을 추정할 수 있다. The processor may estimate an area in which the crosstalk will occur based on the disparity between the user's eyes and the 3D positional relationship.
상기 프로세서는 상기 사용자 양안의 시차 및 상기 3차원 위치 관계를 기초로, 상기 크로스토크가 발생할 영역의 잔상 범위를 조절함으로써 상기 크로스토크가 발생할 영역을 추정할 수 있다. The processor may estimate an area where the crosstalk will occur by adjusting an afterimage range of the area where the crosstalk will occur based on the disparity between the user's both eyes and the 3D positional relationship.
상기 프로세서는 상기 가상 컨텐츠 객체의 위치 이동을 감지하고, 상기 위치 이동에 따라 변경된 상기 3차원 위치 관계 및 상기 사용자 양안의 시차 중 적어도 하나를 기초로, 상기 크로스토크가 발생할 영역을 추정할 수 있다. The processor may detect a positional movement of the virtual content object, and estimate an area in which the crosstalk will occur based on at least one of the 3D positional relationship changed according to the positional movement and the parallax of both eyes of the user.
상기 크로스토크가 발생할 영역은 상기 컨실러 영상을 배치시킬 위치 및 범위에 대응될 수 있다. The area in which the crosstalk will occur may correspond to a location and a range in which the concealer image is to be disposed.
일 실시예에 따르면, 컨텐츠 시각화 장치는 가상 컨텐츠 객체를 프로젝션 평면에 투사하여 시각화하는 디스플레이; 및 사용자 양안의 위치와 상기 가상 컨텐츠 객체의 허상의 위치 간의 3차원 위치 관계를 기초로, 크로스토크가 발생할 영역을 추정하고, 상기 추정된 영역과 상기 가상 컨텐츠 객체를 기초로, 상기 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상을 생성하며, 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 합성하여 상기 크로스토크를 보정하는 프로세서를 포함한다. According to an embodiment, the content visualization apparatus includes a display for projecting a virtual content object onto a projection plane to visualize; and estimating a region where crosstalk will occur based on a three-dimensional positional relationship between the positions of both eyes of the user and the position of the virtual image of the virtual content object, and based on the estimated region and the virtual content object, the crosstalk will occur and a processor that generates a concealer image for correcting a region, and corrects the crosstalk by synthesizing the virtual content object and the concealer image.
일 실시예에 따르면, 증강 현실 안경(Augmented Reality glass, AR glass) 장치는 가상 컨텐츠 객체를 시각화 하는 투명 디스플레이; 및 사용자 양안의 위치와 상기 가상 컨텐츠 객체의 허상의 위치 간의 3차원 위치 관계를 기초로, 크로스토크가 발생할 영역을 추정하고, 상기 추정된 영역과 상기 가상 컨텐츠 객체를 기초로, 상기 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상을 생성하며, 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 합성하여 상기 크로스토크를 보정하는 프로세서를 포함한다. According to one embodiment, the augmented reality glasses (Augmented Reality glass, AR glass) device is a transparent display for visualizing a virtual content object; and estimating a region where crosstalk will occur based on a three-dimensional positional relationship between the positions of both eyes of the user and the position of the virtual image of the virtual content object, and based on the estimated region and the virtual content object, the crosstalk will occur and a processor that generates a concealer image for correcting a region, and corrects the crosstalk by synthesizing the virtual content object and the concealer image.
일 실시예에 따르면, 차량은 상기 차량의 위치를 센싱하는 센서; 사용자에게 제공할 가상 컨텐츠 객체를 프로젝션 평면에 시각화하는 헤드업 디스플레이(head-up display, HUD); 및 상기 차량의 위치에 기초하여 상기 가상 컨텐츠 객체를 결정하고, 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 3차원 위치 관계를 기초로 크로스토크가 발생할 영역을 추정하고, 상기 추정된 영역과 상기 가상 컨텐츠 객체를 기초로 상기 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상을 생성하며, 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 합성하여 상기 크로스토크를 보정하는 프로세서를 포함한다.According to an embodiment, a vehicle includes a sensor for sensing a position of the vehicle; a head-up display (HUD) for visualizing a virtual content object to be provided to a user on a projection plane; and determining the virtual content object based on the location of the vehicle, estimating an area where crosstalk will occur based on a three-dimensional positional relationship between the positions of both eyes of the user and the location of the virtual image of the virtual content object, and the estimated area and and a processor that generates a concealer image for correcting an area where the crosstalk occurs based on the virtual content object, and corrects the crosstalk by synthesizing the virtual content object and the concealer image.
도 1은 일 실시예에 따라 크로스토크를 보정하는 방법을 개념적으로 설명하기 위한 도면.
도 2는 일 실시예에 따른 가상 컨텐츠 객체의 예시를 설명하는 도면.
도 3은 일 실시예에 따른 크로스토크를 보정하는 장치의 구성을 도시한 블록도.
도 4는 일 실시예에 따라 크로스토크가 보정된 가상 컨텐츠 객체를 표시하는 헤드업 디스플레이(Head Up Display, HUD)의 구성을 도시한 블록도.
도 5는 일 실시예에 따른 크로스토크를 보정하는 방법을 나타낸 흐름도.
도 6은 일 실시예에 따른 크로스토크를 보정하는 방법을 설명하기 위한 도면.
도 7은 일 실시예에 따라 컨실러 영상을 생성하는 방법을 나타낸 흐름도.
도 8은 일 실시예에 따라 블러 영상을 생성하는 방법을 설명하기 위한 도면.
도 9는 일 실시예에 따라 사용자 양안과 가상 컨텐츠 객체와의 거리가 멀어질수록 시차가 증가하는 원리를 도시한 도면.
도 10 내지 도 12는 실시예들에 따라 적어도 하나의 효과 요소를 조절하는 방법을 설명하기 위한 도면.
도 13은 다른 실시예에 따라 크로스토크를 보정하는 방법을 나타낸 흐름도.1 is a diagram for conceptually explaining a method of correcting crosstalk according to an embodiment;
2 is a view for explaining an example of a virtual content object according to an embodiment;
3 is a block diagram illustrating a configuration of an apparatus for correcting crosstalk according to an embodiment.
4 is a block diagram illustrating a configuration of a Head Up Display (HUD) for displaying a virtual content object having crosstalk corrected according to an exemplary embodiment;
5 is a flowchart illustrating a method of correcting crosstalk according to an embodiment.
6 is a view for explaining a method of correcting crosstalk according to an embodiment;
7 is a flowchart illustrating a method of generating a concealer image according to an embodiment.
8 is a view for explaining a method of generating a blur image according to an embodiment;
FIG. 9 is a diagram illustrating a principle that parallax increases as a distance between both eyes of a user and a virtual content object increases, according to an exemplary embodiment;
10 to 12 are diagrams for explaining a method of adjusting at least one effect element according to embodiments;
13 is a flowchart illustrating a method of correcting crosstalk according to another embodiment;
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 구현될 수 있다. 따라서, 실제 구현되는 형태는 개시된 특정 실시예로만 한정되는 것이 아니며, 본 명세서의 범위는 실시예들로 설명한 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for purposes of illustration only, and may be changed and implemented in various forms. Accordingly, the actual implementation form is not limited to the specific embodiments disclosed, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical spirit described in the embodiments.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although terms such as first or second may be used to describe various elements, these terms should be interpreted only for the purpose of distinguishing one element from another. For example, a first component may be termed a second component, and similarly, a second component may also be termed a first component.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being “connected to” another component, it may be directly connected or connected to the other component, but it should be understood that another component may exist in between.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The singular expression includes the plural expression unless the context clearly dictates otherwise. In this specification, terms such as "comprise" or "have" are intended to designate that the described feature, number, step, operation, component, part, or combination thereof exists, and includes one or more other features or numbers, It should be understood that the possibility of the presence or addition of steps, operations, components, parts or combinations thereof is not precluded in advance.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present specification. does not
이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. In the description with reference to the accompanying drawings, the same components are assigned the same reference numerals regardless of the reference numerals, and overlapping descriptions thereof will be omitted.
도 1은 일 실시예에 따라 크로스토크를 보정하는 방법을 개념적으로 설명하기 위한 도면이다. 도 1을 참조하면, 무안경 3D 디스플레이에서 시각화 하고자 하는 대상(101)에 대해 사용자 양안에 정확한 그래픽 정보가 조사되지 않음으로써 가상 화면(virtual screen)(110)에서 시각화되는 가상 컨텐츠 객체(130)의 주변에 발생하는 크로스토크(140)가 도시된다.1 is a diagram for conceptually explaining a method of correcting crosstalk according to an exemplary embodiment. Referring to FIG. 1 , the
예를 들어, 가상 화면(110)에서 사용자의 좌안에 제공되는 좌안 영상(112)과 사용자의 우안에 제공되는 우안 영상(114)을 통해 시각화 하고자 하는 대상(101)의 허상(120)이 시각화될 수 있다. 이때, 빛 번짐과 같은 광학 현상으로 인해 스테레오 영상이 불완전하게 분리되어 좌안 영상(112)이 사용자의 우안으로 제공되고, 우안 영상(114)이 사용자의 좌안에 제공되면, 가상 화면(110)에 표시되는 가상 컨텐츠 객체(130)의 주변에 좌안 영상(112)과 우안 영상(114)이 겹쳐짐으로 인해 크로스토크(140)가 발생할 수 있다. 이때, 가상 화면(110)은 예를 들어, 무안경 3D 디스플레이 또는 헤드 업(Head Up Display; HUD)의 가상 화면이거나, 또는 증강 현실 안경 장치와 같은 증강 현실 장치의 투명 디스플레이의 가상 화면일 수 있으며, 반드시 이에 한정되지는 않는다. 가상 컨텐츠 객체(130) 및 가상 컨텐츠 객체(130)가 시각화되는 공간에 대하여는 아래 도 2를 참조하여 보다 구체적으로 설명한다. For example, on the
일 실시예에서는 가상 컨텐츠 객체(130)의 주변에 크로스토크(140)의 발생 부위만큼 렌더링(rendering)한 영상(150)를 붙여 크로스토크(140) 발생 부위를 커버할 수 있다. 크로스토크의 발생 부위만큼 렌더링한 영상(150)은 크로스토크 발생 부위를 감추거나 숨긴다는 의미에서 '컨실러 영상(concealer image)'이라고 부를 수 있다. 이하, 크로스토크의 발생 부위만큼 렌더링한 영상(150)과 컨실러 영상은 동일한 의미로 이해될 수 있다. In an exemplary embodiment, the
일 실시예에서는 예를 들어, 가상 컨텐츠 객체(140)의 색상에서 힌트를 얻어 컨실러 영상(150)을 생성함으로써 컨실러 영상(150)에 의해 크로스토크가 발생한 영역이 주변과의 위화감 없이 자연스럽게 커버되도록 할 수 있다. 컨실러 영상을 생성하는 방법은 아래의 도 7 내지 도 8을 참조하여 보다 구체적으로 설명한다. In one embodiment, for example, by obtaining a hint from the color of the
또한, 일 실시예에서는 컨실러 영상(150)에 대한 거리 별 밝기, 넓이, 실외 휘도, HUD의 밝기, 색상 등과 같은 다양한 효과 요소(effect element)를 조절하여 크로스토크(140)의 발생 부분을 덮음으로써 크로스토크(140)의 잔상을 상쇄할 수 있다. 이때, 효과 요소는 크로스토크(140)의 발생 부분을 덮는 한편, 주변과의 위화감을 줄이기 위해 컨실러 영상(150)에 글로우 효과(glow effect)를 제공하기 위한 것일 수 있다. In addition, in one embodiment, by adjusting various effect elements such as brightness for each distance, area, outdoor brightness, HUD brightness, color, etc. for the
컨실러 영상(150)의 범위는 예를 들어, 가상 화면(110)에서 시각화되는 가상 컨텐츠 객체의 허상(120)의 위치와 사용자 양안의 위치 간의 거리에 따른 시차(disparity)의 변화량에 따라 결정될 수 있다. 가상 컨텐츠 객체의 허상(120)의 위치와 사용자 양안의 위치 간의 거리와 시차의 관계는 아래의 도 9를 참조하여 보다 구체적으로 설명한다. The range of the
또한, 컨실러 영상(150)의 밝기 레벨은 예를 들어, 외부 환경의 조도와 가상 화면(110)의 밝기에 따라 조정될 수 있다. 일 실시예에서는 컨실러 영상(150)의 효과 요소를 다양하게 조절함으로써 가상 화면(110)에서 발생하는 크로스토크(140)를 제거하는 한편, 가상 화면(110)의 밝기와 선명도를 최적화할 수 있다. 일 실시예에 따라 효과 요소를 조절하는 방법은 아래의 도 10 내지 도 12를 참조하여 보다 구체적으로 설명한다. Also, the brightness level of the
도 2는 일 실시예에 따른 가상 컨텐츠 객체의 예시를 설명하는 도면이다. 도 2를 참조하면, 객체 배치 공간(210) 내의 임의의 위치에 가상 컨텐츠 객체(221)가 시각화된 결과가 도시된다. 이하, 설명의 편의를 위하여 가상 컨텐츠 객체(221)의 허상이 표시되는 프로젝션 패널이 헤드업 디스플레이인 경우를 예로 들어 설명하지만, 반드시 이에 한정되는 것은 아니며, 이외에 증강 현실 안경 장치의 투명 디스플레이 등과 같은 다양한 프로젝션 패널에 가상 컨텐츠 객체(221)가 시각화될 수 있다. 2 is a diagram for explaining an example of a virtual content object according to an embodiment. Referring to FIG. 2 , a result of visualizing the
일 실시예에 따른 크로스토크를 보정하는 장치(이하, '보정 장치')는 가상 컨텐츠 객체와 컨실러 영상을 합성하여 크로스토크를 보정하고, 크로스토크가 보정된 가상 컨텐츠 객체를 시각화할 수 있다. 가상 컨텐츠 객체는 컨텐츠에 대응하는 그래픽 객체를 나타낼 수 있다. 가상 컨텐츠 객체는 예를 들어, 화살표 형태의 경로 안내 컨텐츠(221)에 대응하는 그래픽 객체를 포함할 수 있다.An apparatus for correcting crosstalk (hereinafter, referred to as a 'correction device') according to an embodiment may correct crosstalk by synthesizing a virtual content object and a concealer image, and may visualize the crosstalk corrected virtual content object. The virtual content object may represent a graphic object corresponding to the content. The virtual content object may include, for example, a graphic object corresponding to the arrow-shaped
예를 들어, 보정 장치는 객체 배치 공간(210) 내의 임의의 위치에 그래픽 객체를 배치하고, 시각화할 수 있다. 보정 장치는 사용자의 좌안에 좌안 영상을 제공하고, 사용자의 우안에 우안 영상을 제공함으로써, 그래픽 객체를 입체적으로 제공할 수 있다. 좌안 영상 및 우안 영상은 서로에 대해 수평축을 따라 깊이에 따른 사용자 양안의 시차만큼 이격된 그래픽 객체를 포함할 수 있다. 따라서 사용자는 입체적으로 렌더링된 그래픽 객체의 깊이감을 인식할 수 있다.For example, the calibrating apparatus may place and visualize the graphic object at an arbitrary position in the
다만, 전술한 것과 같이 좌안 영상이 사용자의 우안으로 제공되고, 우안 영상이 사용자의 좌안에 잘못 제공되는 경우, 좌안 영상과 우안 영상이 겹쳐짐으로써 크로스토크가 발생할 수 있다. However, as described above, when the left eye image is provided to the user's right eye and the right eye image is incorrectly provided to the user's left eye, crosstalk may occur because the left eye image and the right eye image overlap.
이 경우, 보정 장치는 도 1을 통해 전술한 것과 같이 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상과 가상 컨텐츠 객체를 합성함으로써 크로스토크를 보정할 수 있다. 이를 위한 보정 장치의 구성의 일 예시는 아래의 도 3 내지 도 4를 참조하여 구체적으로 설명한다. 또한, 보정 장치가 크로스토크를 보정하는 방법은 아래의 도 5를 참조하여 구체적으로 설명한다. In this case, as described above with reference to FIG. 1 , the correction apparatus may correct the crosstalk by synthesizing the concealer image for correcting the area where the crosstalk will occur and the virtual content object. An example of the configuration of the compensating device for this will be described in detail with reference to FIGS. 3 to 4 below. In addition, a method for correcting crosstalk by the correction device will be described in detail with reference to FIG. 5 below.
이하에서는 크로스토크를 보정하는 방법에 앞서, 가상 컨텐츠 객체 및 가상 컨텐츠 객체가 시각화되는 공간에 대해 먼저 살펴보기로 한다. Hereinafter, prior to a method of correcting crosstalk, a virtual content object and a space in which the virtual content object is visualized will be first described.
객체 배치 공간(210)은 그래픽 객체가 배치될 수 있는 3차원 공간에 해당할 수 있다. 객체 배치 공간(210)은 깊이를 가지는 그래픽 객체가 입체적으로 시각화될 수 있는 공간을 나타낼 수 있다. 객체 배치 공간(210)에 속하는 각 지점의 좌표는 물리적 세계(physical world)의 위치 좌표와 동일하거나 유사한 스케일로 매핑될 수 있다. 객체 배치 공간(210)의 경계(boundary)는 헤드업 디스플레이의 구조에 따라 결정될 수 있다. 예를 들어, 보정 장치는 헤드업 디스플레이의 구조에 따라 결정된 최소 깊이(예를 들어, 최소 거리)로부터 최대 깊이(예를 들어, 최대 거리)까지의 공간 내에서 그래픽 객체를 시각화할 수 있다.The
객체 배치 공간(210)은 사용자의 시야에 대응하는 공간에 기초하여 결정될 수 있다. 객체 배치 공간(210)의 형태 및 크기는 아이 박스(290)(eye box)의 크기 및 헤드업 디스플레이에 의해 제공될 수 있는 시야각(FOV, field of view)에 기초하여 결정될 수 있다. 객체 배치 공간(210)은, 예를 들어, 사각뿔(rectangular cone) 형태로서, 아이 박스(290)로부터 시야각에 대응하여 확장되는 형태의 공간일 수 있다. 아이 박스(290)는 사용자의 양안(both eyes)이 위치하는 것으로 설정된 영역을 나타낼 수 있다. 아이 박스(290)의 위치는 고정될 수 있으나, 반드시 이에 한정되는 것은 아니고, 사용자에 대해 검출되는 눈의 위치에 따라 변경될 수도 있다. 객체 배치 공간(210)의 형태 또한 사각뿔 형태로 한정되는 것은 아니고, 설계에 따라 변경될 수 있다.The
일 실시예에 따른 보정 장치는, 윈드 쉴드 글래스(wind shield glass)(280) 너머로 객체 배치 공간(210) 내 표시 위치에, 다양한 종류의 그래픽 표현을 시각화 할 수 있고, 서로 다른 종류의 그래픽 표현은 서로 다른 객체 배치 공간(210)에 시각화 할 수 있도록 구현할 수 있다.The correction device according to an embodiment may visualize various types of graphic expressions at a display position in the
객체 배치 공간(210) 내에 표시 가능한 그래픽 표현의 종류는 예를 들어 경로 안내 컨텐츠(221), 경로 지시선(222), 및 경고 컨텐츠(223) 등을 포함할 수 있다. 이 외에도 객체 배치 공간(210) 내에 표시 가능한 그래픽 표현의 종류는 다양한 형태로 변경 및 실시 가능하다.The types of graphic representations that can be displayed in the
사용자는 객체 배치 공간(210) 내 표시 위치에 대응하는 물리적 위치에 해당 그래픽 표현들이 존재한다고 인식할 수 있다. 상술한 바와 같이, 객체 배치 공간(210)의 각 좌표는 물리적 좌표와 일대일로 매핑될 수 있다. 또한, 가상 컨텐츠 객체는 해당 형태만큼의 공간을 차지할 수 있다. 예를 들어, 가상 컨텐츠 객체는 객체 배치 공간(210) 내 일부 공간을 차지할 수 있다.The user may recognize that the corresponding graphic representations exist at a physical location corresponding to the display location in the
경로 안내 컨텐츠(221)는 목적지까지의 경로를 진행하기 위해 제공되어야 하는 경로 안내 정보가 시각화된 컨텐츠로서, 예를 들어, 사용자가 직진해야 하는 거리를 지시하는 숫자 및 문자, 갈림길에서 방향 전환(예를 들어, 좌회전 및 우회전 등)을 지시하는 화살표, 현재 주행 중인 도로(270)에서의 제한 속도, 현재 주행 중인 위치의 지역명, 및 도로명 등을 포함할 수 있다. 경로 안내 정보는 사용자에 의해 설정된 경로에 따른 사용자의 이동을 안내하는 정보 및 해당 경로와 연관된 정보를 나타낼 수 있다. 예를 들어, 경로 안내 정보는 사용자가 직진해야 하는 거리(distance), 갈림길에서 방향 전환(turn) 등을 포함할 수 있다. 경로는 출발지로부터 목적지까지 사용자가 통과해야 하는 길(path)을 나타낼 수 있다. 또한, 경로 안내 정보는 목적지까지의 경로와 연관된 정보로서, 경로에 포함되는 도로(270)의 위치, 지역, 명칭, 속성, 및 안전 정보(예를 들어, 제한 속도, 공사 정보, 및 사고 정보 등)를 포함할 수 있다. 경로 지시선(222)은 목적지까지의 경로를 지시하는 선이고, 경로 안내 컨텐츠(221)와 구별되는 형태의 경로 안내 정보로서 시각화될 수 있다. 경고 컨텐츠(223)는 현재 주행환경에서 필요한 경우 사용자에게 주어져야 하는 경고 메시지를 포함할 수 있다.The
또한, 일 실시예에 따른 보정 장치는 센서(예를 들어, 카메라 센서, GNSS 모듈, 레이더 센서 및 LIDAR 센서 등)를 이용하여, 차량의 위치를 추정할 수 있다. 보정 장치는 차량의 위치로부터 운전자의 눈 위치만큼의 오차 간격을 고려하여, 경로 안내 컨텐츠(221)에 대응하는 그래픽 객체를 실제 도로(270)에 정합하여 시각화할 수 있다. HD(High Definition) 맵 데이터가 사용되는 경우, 보정 장치는 보다 정확한 위치에 경로 안내 컨텐츠(221)를 정합할 수 있다. 이러한 정합을 통해, 운전자의 심리적 안정감을 개선할 수 있다.Also, the calibration apparatus according to an embodiment may estimate the location of the vehicle using a sensor (eg, a camera sensor, a GNSS module, a radar sensor, a LIDAR sensor, etc.). The compensator may visualize the graphic object corresponding to the
이하, 본 명세서에서는 설명의 편의를 위하여, 가상 컨텐츠 객체의 일 예시에 해당하는 경로 안내 컨텐츠(221)에 대해 발생한 크로스토크의 보정을 설명하나, 반드시 이에 한정되는 것은 아니다. 일 실시예에 따른 크로스토크의 보정 및 컨텐츠 시각화는 객체 배치 공간 내에 시각화되는 모든 그래픽 객체에 적용될 수 있다.Hereinafter, for convenience of explanation, correction of crosstalk generated with respect to the
도 3은 일 실시예에 따른 크로스토크를 보정하는 장치의 구성을 도시한 블록도이다. 도 3을 참조하면, 일 실시예에 따른 크로스토크를 보정하는 장치(이하, '보정 장치')(300)는 센서(310) 및 프로세서(330)를 포함한다. 보정 장치(300)는 메모리(350), 디스플레이(370) 및 통신 인터페이스(290)를 포함한다.3 is a block diagram illustrating a configuration of an apparatus for correcting crosstalk according to an exemplary embodiment. Referring to FIG. 3 , an apparatus (hereinafter, 'correction apparatus') 300 for correcting crosstalk according to an exemplary embodiment includes a
센서(310)는 사용자 양안의 위치를 감지한다. 센서(310)는 예를 들어, 눈 추적기(eye tracker) 또는 홍채 인식 센서일 수 있다. 또한, 센서(310)는 컨텐츠의 시각화를 위해 필요한 정보를 감지할 수 있다. 일 실시예에 따르면, 센서(310)는 사용자의 주변에 위치하는 객체까지의 거리를 측정할 수 있고, 예를 들어, 라이다(LIDAR, Light Detection and Ranging) 및 레이더(RADAR, Radio Detection and Ranging) 등을 포함할 수 있다. 또한, 센서(310)는 보정 장치(300)가 장착된 기기의 상태와 관련된 정보를 센싱할 수 있다. 예를 들어, 차량에 장착된 경우, 센서(310)는 차량과 관련된 정보를 센싱할 수 있으며, 차량과 관련된 정보는 차량의 위치 정보, 차량의 위치에 대응하는 도로 정보, 및 차량의 주행 관련 정보 등을 포함할 수 있다. 여기서 주행 관련 정보는 차량의 주행과 관련된 정보로서, 예를 들어, 차량의 속도, 가속도, 위치, 연료, 및 정비와 관련된 정보일 수 있다. 또한, 센서(310)는 차량 내부를 촬영하는 내부 센서를 포함할 수도 있다. 내부 센서는 카메라 센서(예를 들어, 컬러 카메라), 적외선 센서, 깊이 센서, 및 열화상 센서 등일 수 있으나, 반드시 이에 한정되는 것은 아니다. 내부 센서는 차량 내 사용자의 눈과 관련된 정보를 획득할 수 있고, 프로세서(330)가 사용자의 눈 위치를 결정하여 객체 배치 공간의 설정 및 입체 영상(예를 들어, 좌영상 및 우영상의 쌍)의 시각화에 이용하도록 할 수도 있다.The
차량의 위치 정보는 차량이 위치하는 현재 좌표일 수 있으며, 현재 차량이 주행 중인 차로 정보까지 지시할 수 있다. 예를 들어, 센서(310)는 GNSS(Global Navigation Satellite System)를 통해 차량의 2차원 좌표를 획득할 수 있다. 또한, 센서(310)는 차량의 전방에 대한 전방 영상을 획득할 수 있고, 프로세서(330)가 전방 영상으로부터 도로를 구성하는 복수의 차로들 중 현재 차량이 주행 중인 차로(ego lane)를 결정할 수 있다. 다만, 반드시 이에 한정되는 것은 아니고, 프로세서(330)는 센서(310)로부터 수집된 영상에 기초하여, 현재 차량의 위치를 추정할 수도 있다.The location information of the vehicle may be current coordinates in which the vehicle is located, and may indicate information on the lane in which the vehicle is currently driving. For example, the
도로 정보는 도로의 폭, 도로를 구성하는 차로(lane)의 개수, 차로의 폭, 중앙선(center line), 방향 전환 지점(turn point), 교통 신호(traffic signal) 및 기타 교통(traffic)과 관련된 정보 중 하나 이상을 포함할 수 있다.Road information includes road width, number of lanes constituting the road, lane width, center line, turn point, traffic signal and other traffic related information. It may include one or more of the information.
센서(310)는 예를 들어, 다양한 유형의 센서들을 포함하는 센서 모듈일 수 있다. The
프로세서(330)는 센서(310)에 의해 감지된 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 3차원 위치 관계를 기초로, 크로스토크가 발생할 영역을 추정한다. 프로세서(330)는 추정된 영역과 가상 컨텐츠 객체를 기초로, 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상을 생성한다. 프로세서(330)는 가상 컨텐츠 객체와 컨실러 영상을 합성하여 크로스토크를 보정한다. 프로세서(330)는 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 3차원 위치 관계를 직접 산출할 수도 있고, 또는 통신 인터페이스(390)를 통해 외부로부터 수신할 수도 있다. 이때, 3차원 위치 관계는 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 거리(distance)를 포함하는 것으로 이해될 수 있다. The
또한, 프로세서(330)는 디스플레이(370)를 통해 시각화되는 컨텐츠를 생성할 수 있다. 일 실시예에 따르면 프로세서(330)는 추정된 전방 도로 영역에 기초하여 객체 배치 공간을 생성할 수 있다. 프로세서(330)는 객체 배치 공간에 배치된 가상 컨텐츠 객체를 프로젝션 평면에 투사된 형태로 렌더링하여 디스플레이(370)를 통해 사용자에게 제공할 수 있다. 프로세서(330)는 가상 컨텐츠 객체가 프로젝션 평면에 투사되는 형태에 기초하여, 가상 컨텐츠 객체를 조정할 수도 있다. 예를 들어, 프로세서(330)는 임의의 기준점 및 기준 축에 기초하여 가상 컨텐츠 객체를 변형(deform)시키거나 회전(rotate)시킬 수 있다. 다만, 프로세서(330)의 동작을 상술한 바로 한정하는 것은 아니고, 프로세서(330)는 아래 도 4 내지 도 13에서 설명된 동작들 중 적어도 하나와 함께 상술한 동작을 수행할 수도 있다. 프로세서(330)의 보다 구체적인 동작은 아래 도 4 내지 도 13을 통해 설명한다.Also, the
프로세서(330)는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 영상 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 보정 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(Central Processing Unit; CPU), 그래픽 처리 장치(Graphic Processing Unit; GPU), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array), NPU(Neural Processing Unit) 등을 포함할 수 있다.The
프로세서(330)는 프로그램을 실행하고, 보정 장치(300)를 제어할 수 있다. 프로세서(330)에 의하여 실행되는 프로그램 코드는 메모리(350)에 저장될 수 있다.The
메모리(350)는 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 거리를 포함하는 3차원 위치 관계 및/또는 프로세서(330)가 추정한 크로스토크가 발생할 영역에 대한 정보를 저장할 수 있다. 또한, 메모리(350)는 컨실러 영상 및/또는 가상 컨텐츠 객체와 컨실러 영상을 합성한 결과 영상을 저장할 수 있다. The
이 밖에도, 메모리(350)는 프로세서(330)가 생성한 컨텐츠 시각화에 요구되는 정보를 임시적으로 또는 영구적으로 저장할 수 있다. 예를 들어, 메모리(350)는 프로세서(330)에 의해 실행되어 아래 도 4 내지 도 13에 따른 동작을 수행하기 위한 명령어들을 저장할 수 있다. 또한, 메모리(350)는 가상 컨텐츠 객체, 경로 안내 정보, 및 맵 데이터베이스 등을 저장할 수도 있다. 맵 데이터베이스는 맵 데이터를 저장하는 데이터베이스를 나타낼 수 있다. 맵 데이터베이스는 예를 들어, HD(high definition) 맵 데이터를 저장할 수도 있다. HD 맵 데이터는, 예를 들어, 차로 개수, 차로의 폭, 및 중심선의 위치 등과 같은 정밀 데이터(fine data)에 관한 정보를 포함할 수 있다.In addition, the
디스플레이(370)는 크로스토크가 보정된 가상 컨텐츠 객체를 시각화하여 사용자에게 제공할 수 있다. 디스플레이(370)는 가상 컨텐츠 객체를 프로젝션 평면에 투사하여 시각화할 수 있다. 일 실시예에 따르면 디스플레이(370)는 헤드업 디스플레이일 수 있고, 사용자의 전방에 프로젝션 평면을 형성하여, 프로젝션 평면을 통해 컨텐츠를 사용자에게 제공할 수 있다. 실시예에 따라서, 디스플레이(370)는 증강 현실 안경(Augmented Reality glass, AR glass) 장치에 있어서, 가상 컨텐츠 객체를 시각화하는 투명 디스플레이일 수 있다. 실시예에 따라서, 투명 디스플레이는 크로스토크가 보정된 가상 컨텐츠 객체를 주변의 실제 환경에 하여 제공할 수 있다. The
일 실시예에 따르면, 디스플레이(370)는 사용자의 좌안에 좌영상을 제공하고, 우안에 우영상을 제공할 수 있다. 예를 들어, 프로세서(210)가 운전자의 좌안에 대응하는 제1 그래픽 표현을 포함하는 좌영상 및 운전자의 우안에 대응하는 제2 그래픽 표현을 포함하는 우영상을 생성하면, 디스플레이(370)는 서로에 대해 시차를 가지도록 좌영상 및 우영상을 제공할 수 있다. 디스플레이(370)는, 좌영상에서 컨텐츠가 시각화된 그래픽 객체 및 우영상에서 컨텐츠가 시각화된 그래픽 객체를 양안 시차(binocular disparity)에 기초하여 이격시킴으로써, 깊이를 가지는 컨텐츠를 입체적인 그래픽 객체로 시각화하여 사용자에게 제공할 수 있다. 그래픽 객체의 각 픽셀마다 시차가 결정될 수 있고, 픽셀마다 깊이감이 표현될 수 있다. 예를 들어, 그래픽 객체에서 사용자에게 가까운 근위 부위(proximal part)에 대응하는 픽셀들은 좌안 영상 및 우안 영상에서 큰 시차만큼 이격될 수 있다. 반대로, 그래픽 객체에서 사용자로부터 먼 원위 부위(distal part)에 대응하는 픽셀들은 좌안 영상 및 우안 영상에서 작은 시차만큼 이격될 수 있다.According to an embodiment, the
예를 들어, 디스플레이(370)는 프로세서(330)에 의해 결정된 표시 영역에 경로 안내 컨텐츠에 대응하는 그래픽 객체를 시각화할 수 있다. 사용자 양안의 위치는 상술한 센서(310)(예를 들어, 내부 센서)에 의해 측정되어 프로세서(330)에 제공될 수 있다. 사용자 양안의 위치는 차량이 이동하는 동안 항상 추적되어 운전자가 머리를 상하좌우로 이동하거나 좌석의 높낮이를 조절하더라도 컨텐츠가 입체적으로 전달될 수 있다.For example, the
통신 인터페이스(390)는 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 거리를 포함하는 3차원 위치 관계를 보정 장치(300)의 외부로부터 수신할 수 있다. 또는 통신 인터페이스(390)는 프로세서(330)가 가상 컨텐츠 객체와 컨실러 영상을 합성한 결과 영상 및/또는 크로스토크가 보정된 가상 컨텐츠 객체를 프로젝션 평면에서 시각화한 결과 영상을 보정 장치(300)의 외부로 출력할 수 있다. The
일 실시예에 따른 보정 장치(300)는 예를 들어, 첨단 운전자 보조 시스템(Advanced Drivers Assistance System; ADAS), HUD(Head Up Display) 장치, 3D 디지털 정보 디스플레이(Digital Information Display, DID), 내비게이션 장치, 뉴로모픽 장치(neuromorphic device), 3D 모바일 기기, 스마트 폰, 스마트 TV, 스마트 차량, IoT(Internet of Things) 디바이스, 의료 디바이스, 및 계측 디바이스 등과 같이 다양한 분야의 장치에 해당할 수 있다. 여기서, 3D 모바일 기기는 예를 들어, 증강 현실(Augmented Reality; AR), 가상 현실(Virtual Reality; VR), 및/또는 혼합 현실(Mixed Reality; MR)을 표시하기 위한 디스플레이 장치, 머리 착용 디스플레이(Head Mounted Display; HMD) 및 얼굴 착용 디스플레이(Face Mounted Display; FMD) 등을 모두 포함하는 의미로 이해될 수 있다. The
또는 일 실시예에 따른 보정 장치(300)는 차량용 3차원 헤드업 디스플레이 장치 및 차량의 주행 경로를 지시하는 내비게이션 장치 등으로 구현될 수 있다. 또한, 보정 장치(300)는 사용자에게 증강 현실을 제공하도록 구현될 수 있다. 예를 들어, 보정 장치(300)는 차량의 본네트 너머의 일정 범위(예를 들어, 차량으로부터 3.7m 내지 70m)의 깊이로 컨텐츠를 디스플레이할 수 있다. 다만, 보정 장치(300)의 어플리케이션을 반드시 이에 한정되는 것은 아니다.Alternatively, the
도 4는 일 실시예에 따라 크로스토크가 보정된 가상 컨텐츠 객체를 표시하는 헤드업 디스플레이(HUD)의 구성을 도시한 블록도이다. 도 4를 참조하면, 일 실시예에 따른 보정 장치의 헤드업 디스플레이(HUD, head up display)의 구성을 도시한 블록도이다.4 is a block diagram illustrating a configuration of a head-up display (HUD) that displays a virtual content object for which crosstalk is corrected according to an exemplary embodiment. Referring to FIG. 4 , it is a block diagram illustrating a configuration of a head up display (HUD) of a correction apparatus according to an exemplary embodiment.
컨텐츠 시각화 시스템(400)은 사용자(490)에게 가상 컨텐츠 객체(461)를 제공하는 시스템으로써, 예를 들어, 보정 장치(410)가 장착된 기기일 수 있다.The
보정 장치(410)는 센서(411), 프로세서(412), 및 헤드업 디스플레이(413)를 포함할 수 있다.The
센서(411)는 전방에 존재하는 객체(object)를 검출할 수 있다. 예를 들어, 센서(411)는 전방에 존재하는 객체까지의 거리(distance)를 측정할 수 있다. 다만, 반드시 이에 한정되는 것은 아니고, 센서(411)는 차량의 주위에 존재하는 객체까지의 거리를 측정할 수 있고, 주변에 존재하는 객체까지의 거리를 지시하는 주변 거리 맵을 생성할 수 있다. 또한, 센서(411)는 차량의 전방, 후방, 좌측, 및 우측의 환경을 촬영하여 영상을 생성할 수 있다. 센서(411)는 GNSS와 같이 보정 장치(410)의 위치를 측정 및 추정하는 모듈을 포함할 수도 있다.The
프로세서(412)는 사용자(490)에게 제공할 가상 컨텐츠 객체(461)를 획득할 수 있다. 가상 컨텐츠 객체(461)는 사용자에게 정보를 제공하기 위한 객체를 나타낼 수 있다. 또한, 프로세서(412)는 센서(411)에 의해 센싱된 주변 정보(예를 들어, 주변의 객체까지의 거리 및 객체를 포함하는 영상 등)를 분석하여, 객체를 모델링하거나, 객체의 위치를 검출하거나, 객체를 인식하는 동작 등을 수행할 수 있다. 다른 예를 들어, 프로세서(412)는 보정 장치(410)의 현재 위치를 결정할 수 있다. 프로세서(412)는 현재 위치 및 헤드업 디스플레이(413)의 시야각에 따른 객체 배치 공간에 기초하여, 사용자에게 제공할 가상 컨텐츠 객체(461)를 선택하여 로딩할 수도 있다. The
헤드업 디스플레이(413)는 사용자(490)의 전방에 위치되는 사용자(490)의 가시 영역(visible region)에 가상 컨텐츠 객체(461)를 시각화할 수 있다. 예를 들어, 헤드업 디스플레이(413)는 사용자(490)의 전방에 배치되는 유리창(예를 들어, 차량의 윈드쉴드 글래스(windshield glass))에 가상 컨텐츠 객체(461)를 시각화할 수 있다. 헤드업 디스플레이(413)는 가상의 프로젝션 평면(450)을 형성할 수 있다. 프로젝션 평면(450)은 헤드업 디스플레이(413)에 의해 생성된 가상 컨텐츠 객체(461)를 포함하는 허상(virtual image)이 표시되는 평면을 나타낼 수 있다. 사용자(490)는 프로젝션 평면(450)에 허상이 배치된 것으로 인식할 수 있다. 프로젝션 평면(450)는 사용자(490)의 눈에 의해 관측될 수 있는(observable) 영역에 형성될 수 있다. The heads-up
또한, 헤드업 디스플레이(413)는 프로젝션 평면(450)에 깊이를 가지는 사용자에게 제공할 가상 컨텐츠 객체(461)를 시각화할 수 있다. 예를 들어, 프로세서(412)는, 프로젝션 평면(450)을 기준으로 가상 컨텐츠 객체(461)가 시각화될 수 있는 깊이를 해당 객체를 구성하는 픽셀 별로 결정할 수 있고, 헤드업 디스플레이(413)는 결정된 깊이에 기초하여 사용자(490)를 기준으로 프로젝션 평면(450)으로부터 먼 깊이 또는 가까운 깊이를 가지도록 가상 컨텐츠 객체(461)를 시각화할 수 있다. 다시 말해, 가상 컨텐츠 객체(461)를 구성하는 픽셀 별로 양안 시차가 결정될 수 있다. 헤드업 디스플레이(413)는 가상 영역(360) 내에 해당하는 깊이를 가지는 가상 컨텐츠 객체(461)를 프로젝션 평면(450)에 시각화할 수 있다. 여기서, 프로세서(412)는 헤드업 디스플레이(413)의 광학계에 기초하여, 가상 컨텐츠 객체(461)를 3차원 그래픽 표현(graphic representation)으로 렌더링할 수 있다. 3차원 그래픽 표현은 깊이를 가지는 입체적인 그래픽 표현을 나타낼 수 있고, 아래에서는 그래픽 객체라고 나타낼 수 있다. 헤드업 디스플레이(413)는, 가상 컨텐츠 객체(461)가 가지는 깊이에 기초하여, 좌영상(left image) 및 우영상(right image)이 출력되는 프로젝션 평면(450)을 형성할 수 있고, 프로젝션 평면(450)을 통해 좌영상을 사용자(490)의 좌안(left eye)에, 우영상을 사용자(490)의 우안(right eye)에 제공할 수 있다. 따라서, 사용자(490)는 입체적으로 렌더링된 가상 컨텐츠 객체(461)의 깊이감을 인식할 수 있다.Also, the heads-up
일 실시예에 따른 헤드업 디스플레이(413)는 예를 들어, 화상 생성부(picture generation unit)(414), 폴드 거울(fold mirror)(415) 및 오목 거울(416)을 포함할 수 있다. 다만, 헤드업 디스플레이(413)의 구성을 반드시 이에 한정되는 것은 아니고, 설계에 따라 사용자(490)의 전방에 배치된 유리창으로의 투사를 통해 허상이 맺히는 프로젝션 평면(450)을 형성하는 다양한 구성요소를 포함할 수도 있다.The heads-up
일 실시예에서는 보정 장치(410)가 차량에 장착된 예시를 중심으로 설명하지만, 반드시 이에 한정되는 것은 아니다. 예를 들어, 보정 장치(410)는 증강 현실 안경(AR glass, Augmented Reality glass) 및 혼합 현실(MR, mixed reality) 장치 등과 같이 현실과 가상의 정보를 결합시키는 기술에 적용될 수 있다.In one embodiment, the
일 실시예에 따른 보정 장치(410)는, 가상 컨텐츠 객체(461)의 깊이를 조절함으로써, 헤드업 디스플레이(413)에 의해 형성되는 프로젝션 평면(450)의 위치 변경 없이도, 연속적인 깊이를 표현할 수 있다. 또한, 보정 장치(410)는, 프로젝션 평면(450)의 위치를 변경할 필요가 없으므로, 헤드업 디스플레이(413)에 포함된 구성요소들에 대한 물리적인 조작을 요구하지 않는다. 보정 장치(410)가 차량에 장착된 경우, 보정 장치(410)는 운전자의 전방에 3차원 가상 컨텐츠 객체(461)를 동적으로 시각화할 수 있다. 도 4에 도시된 바와 같이, 사용자에 의해 관측되는 장면(scene)(491)은 실제 물리 사물 및 배경에 중첩되어 시각화되는 가상 컨텐츠 객체(461)를 포함할 수 있다.The
일 실시예에 따른 보정 장치(410)는 보다 자연스럽게 시각화되도록 가상 컨텐츠 객체(461)에 대한 컨실러 영상의 적어도 하나의 효과 요소를 조절할 수 있다. 보정 장치(410)의 구체적인 동작은 아래의 도면들을 통해 보다 구체적으로 설명한다.The
도 5는 일 실시예에 따른 크로스토크를 보정하는 방법을 나타낸 흐름도이고, 도 6은 일 실시예에 따른 크로스토크를 보정하는 방법을 설명하기 위한 도면이다. 도 5 및 도 6을 참조하면, 일 실시예에 따른 보정 장치가 단계(510) 내지 단계(530)를 통해 가상 컨텐츠 객체의 크로스토크를 보정하는 과정이 도시된다.5 is a flowchart illustrating a method of correcting crosstalk according to an exemplary embodiment, and FIG. 6 is a diagram illustrating a method of correcting crosstalk according to an exemplary embodiment. 5 and 6 , a process of correcting crosstalk of a virtual content object by the correction apparatus according to an embodiment through
단계(510)에서, 보정 장치는 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 3차원 위치 관계를 기초로, 크로스토크가 발생할 영역을 추정한다. 여기서, '3차원 위치 관계'는 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 거리를 포함하는 의미로 이해될 수 있다. In
단계(510)에서 보정 장치는 사용자 양안의 시차 및 3차원 위치 관계를 기초로, 가상 화면(610)에서 도면(620)에 도시된 크로스토크가 발생할 영역(625)을 추정할 수 있다. 이때, 크로스토크가 발생할 영역(625)은 향후 크로스토크의 보정을 위해 컨실러 영상을 렌더링할 위치, 다시 말해 컨실러 영상을 배치시킬 위치 및 범위에 대응될 수 있다. 보정 장치는 사용자 양안의 시차 및 3차원 위치 관계를 기초로, 크로스토크가 발생할 영역(625)의 잔상 범위를 조절함으로써 크로스토크가 발생할 영역을 추정할 수 있다. 보정 장치는 예를 들어, 사용자 양안의 위치와 허상의 위치 간의 거리가 미리 설정된 기준 거리보다 멀어질수록 잔상 범위를 점진적으로 확장시켜 크로스토크가 발생할 영역(625)을 추정할 수 있다. 또는 보정 장치는 사용자 양안의 위치와 허상의 위치 간의 거리가 기준 거리보다 멀어질수록 잔상 범위를 점진적으로 축소시켜 크로스토크가 발생할 영역(625)을 추정할 수 있다.In
또한, 보정 장치는 가상 컨텐츠 객체의 위치 이동을 감지할 수 있다. 이 경우, 보정 장치는 위치 이동에 따라 변경된 3차원 위치 관계 및 사용자 양안의 시차 중 적어도 하나를 기초로, 크로스토크가 발생할 영역(625)을 추정할 수 있다. Also, the compensating apparatus may detect a positional movement of the virtual content object. In this case, the correcting apparatus may estimate the
단계(520)에서, 보정 장치는 단계(510)에서 추정된 영역(625)과 가상 컨텐츠 객체(640)를 기초로, 크로스토크가 발생할 영역(625)을 보정하기 위한 컨실러 영상(concealer image)(630)을 생성한다. 보정 장치는 예를 들어, 가상 컨텐츠 객체(640)의 색상에 기초하여 컨실러 영상(630)을 생성할 수 있다. 보정 장치는 가상 컨텐츠 객체(640)의 형태에 대응되도록 가상 컨텐츠 객체를 블러(blur)시킴으로써 컨실러 영상(630)을 생성할 수 있다. 이때, 가상 컨텐츠 객체를 블러시키는 정도를 예를 들어, 주변 환경의 조도, 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 거리를 포함하는 3차원 위치 관계 밝기, 가상 컨텐츠 객체(640)의 밝기 등에 의해 다양하게 조절될 수 있다. In
또한, 보정 장치는 예를 들어, 컨실러 영상(630)의 잔상 범위(afterimage range), 콘트라스트(contrast), 및 밝기(brightness) 중 적어도 하나의 효과 요소(effect element)를 조절할 수 있다. Also, the correction apparatus may adjust, for example, at least one effect element among an afterimage range, a contrast, and a brightness of the
단계(520)에서, 보정 장치는 예를 들어, 3차원 위치 관계를 기초로, 가상 컨텐츠 객체의 크기에 대비되는 컨실러 영상(630)의 잔상 범위를 조절하거나, 또는 컨실러 영상(630)의 콘트라스트를 조절할 수 있다. 보정 장치는 주변 환경의 조도를 기초로, 컨실러 영상(630)의 밝기를 조절하거나, 또는 3차원 위치 관계 및 주변 환경의 조도를 기초로, 컨실러 영상(630)의 잔상 범위, 콘트라스트 및 밝기의 조합을 조절할 수 있다. 보정 장치가 컨실러 영상(630)을 생성하는 방법은 아래의 도 7 내지 도 12를 참조하여 보다 구체적으로 설명한다. In
단계(530)에서, 보정 장치는 가상 컨텐츠 객체(640)와 컨실러 영상(630)을 합성하여 크로스토크를 보정한다. 보정 장치는 가상 컨텐츠 객체(640)와 컨실러 영상(630)을 합성하여 도면(650)과 같이 크로스토크가 발생한 영역(625)을 덮음으로써 크로스토크를 보정할 수 있다. 여기서, '합성'은 중첩(superposition)을 포함하는 의미로 이해될 수 있다. In
일 실시예에 따르면, 보정 장치는 가상 컨텐츠 객체(640)를 포함하는 3차원 공간 상에 컨실러 영상(630)을 배치할 수 있다. 보정 장치는 가상 컨텐츠 객체(640)와 컨실러 영상(630)이 함께 중첩된 영상(650)을 렌더링 할 수 있다. 보정 장치는 렌더링 결과 생성되는 좌안 영상과 우안 영상을 시각화(예를 들어, 투사) 함으로써, 크로스토크가 보정된 가상 컨텐츠 객체를 사용자에게 제공할 수 있다.According to an embodiment, the correction apparatus may arrange the
다른 실시예에 따르면, 도면에 도시하지 않았으나, 보정 장치는 가상 컨텐츠 객체를 렌더링 할 수 있다. 보정 장치는 렌더링 결과 생성되는 좌안 영상 및 우안 영상을 컨실러 영상과 함께 중첩하여 시각화(예를 들어, 투사) 함으로써, 크로스토크가 보정된 가상 컨텐츠 객체를 사용자에게 제공할 수 있다.According to another embodiment, although not shown in the drawings, the calibration apparatus may render a virtual content object. The correction apparatus may provide a virtual content object having crosstalk corrected to the user by visualizing (eg, projecting) the left eye image and the right eye image generated as a result of rendering by superimposing them together with the concealer image.
도 7은 일 실시예에 따라 컨실러 영상을 생성하는 방법을 나타낸 흐름도이다. 도 7을 참조하면, 일 실시예에 따른 보정 장치가 단계(710) 내지 단계(720)를 통해 컨실러 영상의 적어도 하나의 효과 요소를 조절하는 과정이 도시된다. 7 is a flowchart illustrating a method of generating a concealer image according to an exemplary embodiment. Referring to FIG. 7 , a process of adjusting at least one effect element of a concealer image by the correction apparatus according to an embodiment through
단계(710)에서, 보정 장치는 가상 컨텐츠 객체를 블러시킨 블러 영상(blurred image)을 생성할 수 있다. 보정 장치가 블러 영상을 생성하는 방법은 아래의 도 8을 참조하여 보다 구체적으로 설명한다. In
단계(720)에서, 보정 장치는 블러 영상에 대응하는 잔상 범위, 콘트라스트, 및 밝기 중 적어도 하나의 효과 요소를 조절할 수 있다. 보정 장치가 적어도 하나의 효과 요소를 조절하는 방법은 아래의 도 10 내지 도 12를 참조하여 보다 구체적으로 설명한다. In
도 8은 일 실시예에 따라 블러 영상을 생성하는 방법을 설명하기 위한 도면이다. 도 8을 참조하면, 일 실시예에 따라 가상 컨텐츠 객체의 고유 형태에 기초하여 블러시킨 블러 영상들(813, 815, 823, 835)과 가상 컨텐츠 객체가 합성된 결과 영상들(810, 820, 830)이 도시된다. 8 is a diagram for describing a method of generating a blur image according to an exemplary embodiment. Referring to FIG. 8 , according to an embodiment, blur
보정 장치는 예를 들어, 결과 영상(810)과 같이 가상 컨텐츠 객체(811)의 고유 형태(예를 들어, 삼각형 형태)가 유지되도록 블러 영상(813, 815)을 생성하여 가상 컨텐츠 객체(811)와 합성할 수 있다. 보정 장치는 가상 컨텐츠 객체(811)의 형태를 기초로, 사용자 양안 중 좌안에 대응하는 제1 블러 영상(813) 및 우안에 대응하는 제2 블러 영상(815)을 생성할 수 있다. 이때, 제1 블러 영상(813)과 제2 블러 영상(815) 각각은 가상 컨텐츠 객체(811)의 고유 형태에 대응될 수 있다. The correction device generates
보정 장치는 제1 블러 영상(813) 및 제2 블러 영상(815)을 결합하여 블러 영상을 생성할 수 있다. 보정 장치는 제1 블러 영상(813) 및 제2 블러 영상(815)을 예를 들어, 사용자 양안의 시차에 기초한 간격만큼 이격시킬 수 있다. 보정 장치는 이격된 간격이 유지되도록 제1 블러 영상(813) 및 제2 블러 영상(815)을 결합할 수 있다. 이때, 사용자 양안의 시차에 따라 제1 블러 영상(813) 및 제2 블러 영상(815)은 일부가 중첩될 수도 있고, 또는 제1 블러 영상(813) 및 제2 블러 영상(815)이 이격될 수도 있다. The correction apparatus may generate a blur image by combining the
보정 장치는 사용자 양안의 시차에 따라 결과 영상(810)과 같이 제1 블러 영상(813) 및 제2 블러 영상(815)을 결합한 블러 영상을 컨실러 영상으로 결정하고, 가상 컨텐츠 객체(811)와 합성하여 크로스토크를 보정할 수 있다. 사용자 양안과 시차 간의 관계는 아래의 도 9를 참조하여 보다 구체적으로 설명한다. The correction apparatus determines a blur image obtained by combining the
또는, 보정 장치는 결과 영상(820)과 같이 가상 컨텐츠 객체(821)의 고유 형태를 확장시킨 형태로 생성된 블러 영상(823)과 가상 컨텐츠 객체(821)를 합성할 수 있다. 보정 장치는 사용자 양안의 위치와 가상 컨텐츠 객체(821)의 허상의 위치 간의 거리를 포함하는 3차원 위치 관계를 기초로 가상 컨텐츠 객체(821)를 상,하, 좌, 우로 확장시킬 수 있다. 보정 장치는 3차원 위치 관계를 기초로 예를 들어, 결과 영상(820)에 도시된 것과 같이 가상 컨텐츠 객체(821)의 상부만을 확장시키고, 하부는 확장시키지 않을 수도 있고, 또는 가상 컨텐츠 객체(821)의 상부와 하부를 모두 확장시킬 수도 있다. Alternatively, the correction apparatus may synthesize the
보정 장치는 가상 컨텐츠 객체(821)를 확장시킨 형태에 대응되도록 블러 영상(823)을 생성할 수 있다. 보정 장치는 블러 영상(823)을 컨실러 영상으로 결정하고, 가상 컨텐츠 객체(821)와 합성하여 크로스토크를 보정할 수 있다.The correction apparatus may generate the
이 밖에도, 보정 장치는 예를 들어, 결과 영상(830)과 같이 가상 컨텐츠 객체의 고유 형태가 유지되도록 생성된 블러 영상(813, 815)의 좌우를 보간(interpolation)하여 블러 영상(835)을 생성할 수 있다. In addition, the correction device generates a
보정 장치는 이격된 블러 영상(813) 상의 어느 한 점(예를 들어, 꼭지점)(814)과 블러 영상(815) 상의 어느 한 점(예를 들어, 꼭지점)(816)을 연결하는 보간을 통해 블러 영상(835)을 생성할 수 있다. 보정 장치는 블러 영상(835)을 컨실러 영상으로 결정하고, 가상 컨텐츠 객체(831)와 합성하여 크로스토크를 보정할 수 있다.The correction device connects any one point (eg, vertex) 814 on the
도 9는 일 실시예에 따라 사용자 양안과 가상 컨텐츠 객체와의 거리가 멀어질수록 시차가 증가하는 원리를 도시한 도면이다. 도 9를 참조하면, 사용자 양안(910) 각각에 제공되는 좌, 우안 영상(920), 좌, 우안 영상(920)에 의해 시각화된 가상 컨텐츠 객체를 표시하는 디스플레이(930), 및 좌, 우안 영상(920)에 의해 시각화된 가상 컨텐츠 객체의 허상들(950, 970, 990)이 도시된다. 9 is a diagram illustrating a principle that parallax increases as a distance between both eyes of a user and a virtual content object increases, according to an exemplary embodiment. Referring to FIG. 9 , left and
보정 장치는 사용자의 좌안에 좌안 영상을 제공하고, 사용자의 우안에 우안 영상을 제공함으로써, 그래픽 객체를 입체적으로 제공할 수 있다. 좌안 영상 및 우안 영상은 서로에 대해 디스플레이(930)의 수평축을 따라 깊이에 따른 시차만큼 이격된 그래픽 객체를 포함할 수 있다. 따라서 사용자는 입체적으로 렌더링된 그래픽 객체의 깊이감을 인식할 수 있다.The correction apparatus may provide the graphic object three-dimensionally by providing the left eye image to the user's left eye and the right eye image to the user's right eye. The left-eye image and the right-eye image may include graphic objects spaced apart from each other by a disparity according to depth along a horizontal axis of the
디스플레이(930)는 좌, 우안 영상(920) 각각에서 컨텐츠가 시각화된 그래픽 객체를 사용자 양안(910)의 시차에 따라 이격시킴으로써, 깊이를 가지는 컨텐츠를 사용자에게 입체적인 그래픽 객체로 시각화하여 제공할 수 있다. 그래픽 객체의 각 픽셀마다 시차가 결정될 수 있고, 픽셀마다 깊이감이 표현될 수 있다. 이때, 사용자 양안(910)과 가상 컨텐츠 객체의 허상들(950, 970, 990) 간의 거리에 따라 사용자 양안의 시차가 달라질 수 있다. The
예를 들어, 사용자 양안(910)과 가상 컨텐츠 객체의 허상(950) 간의 제1 거리에 비해 사용자 양안(910)과 가상 컨텐츠 객체의 허상(990) 간의 제2 거리가 더 멀다고 하자. 이 경우, 제2 거리에 대응하는 사용자 양안(910)의 시차는 제1 거리에 대응하는 사용자 양안(910)의 시차에 비해 증가할 수 있다. 이와 달리, 사용자 양안(910)과 가상 컨텐츠 객체의 허상(970) 간의 제3 거리가 제1 거리보다 짧다고 하자. 이 경우, 제3 거리에 대응하는 사용자 양안(910)의 시차는 제1 거리에 대응하는 사용자 양안(910)의 시차에 비해 감소할 수 있다. 이와 같이 사용자 양안(910)과 가상 컨텐츠 객체의 허상 간의 거리가 멀어질수록 시차는 증가하고, 사용자 양안(910)과 가상 컨텐츠 객체의 허상 간의 거리가 감소할수록 시차는 감소할 수 있다. For example, it is assumed that the second distance between the user's
도 10 내지 도 12는 실시예들에 따라 적어도 하나의 효과 요소를 조절하는 방법을 설명하기 위한 도면이다. 도 10을 참조하면, 시차 또는 사용자 양안의 위치와 가상 컨텐츠 객체의 허상 간의 거리와 컨실러 영상의 잔상 범위와의 관계를 도시한 그래프들(1010, 1020) 및 전술한 관계를 설명하기 위한 도면들(1030, 1040)이 도시된다. 이하, 사용자 양안의 위치와 가상 컨텐츠 객체의 허상 간의 '거리'는 사용자 양안의 위치와 가상 컨텐츠 객체의 허상 간의 '깊이' 라고도 부를 수 있다.10 to 12 are diagrams for explaining a method of adjusting at least one effect element according to embodiments. Referring to FIG. 10 ,
무안경 3D 디스플레이 방식에서 사용자 양안의 위치와 가상 컨텐츠 객체의 허상 간의 거리는 크로스토크의 잔상 범위와 밀접한 관련을 가질 수 있다. 크로스토크의 잔상 범위는 시차에 선형적으로 증가하지 않고, 그래프(1010)에 도시된 것과 같이 처음에는 급격히 증가하다가 시차 혹은 사용자 양안의 위치와 가상 컨텐츠 객체의 허상 간의 거리가 멀어질수록 점점 일정 값에 수렴할 수 있다. In the glasses-free 3D display method, the distance between the positions of both eyes of the user and the virtual image of the virtual content object may be closely related to the range of the afterimage of the crosstalk. The range of the afterimage of the crosstalk does not increase linearly with the parallax, but increases rapidly at first as shown in the
보정 장치는 컨실러 영상 또한 그래프(1010)에 도시된 광필드 디스플레이와 동일한 방식으로 사용자 양안의 위치와 가상 컨텐츠 객체의 허상 간의 거리를 판별한 후, 그래프(1020)와 같이 거리에 대응되도록 컨실러 영상의 적어도 하나의 효과 요소를 조절하여 렌더링할 수 있다. The correction device determines the distance between the position of both eyes of the user and the virtual image of the virtual content object in the same manner as the light field display shown in the
예를 들어, 도면(1030)을 참조하면, 사용자 양안의 위치와 가상 컨텐츠 객체의 허상(1031) 간의 거리가 가까운 경우 및 사용자 양안의 위치와 가상 컨텐츠 객체의 허상(1033) 간의 거리가 먼 경우가 도시된다. For example, referring to the
그래프(1020)에 도시된 것과 같이, 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 거리가 멀어질수록 크로스토크의 범위가 넓어지고, 거리가 가까워질수록 크로스토크의 범위가 좁아질 수 있다. 이러한 부작용을 제거하기 위해, 보정 장치는 가상 컨텐츠 객체의 허상과의 거리가 가까워질수록 컨실러 영상의 범위를 좁힐 수 있다. 다시 말해, 보정 장치는 도면(1040)의 좌측과 같이 사용자 양안의 위치와 가상 컨텐츠 객체의 허상(1041)의 위치 간의 거리가 기준 거리 보다 가까워질수록 가상 컨텐츠 객체의 허상(1041)의 크기에 대비되는 컨실러 영상의 잔상 범위(1043)를 점진적으로 축소시킬 수 있다.As shown in the
또한, 보정 장치는 가상 컨텐츠 객체의 허상과의 거리가 멀어질수록 컨실러 영상의 범위를 넓힐 수 있다. 다시 말해, 보정 장치는 도면(1040)의 우측과 같이 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 거리가 기준 거리 보다 멀어질수록 가상 컨텐츠 객체의 허상(1045)의 크기에 대비되는 컨실러 영상의 잔상 범위(1047)를 점진적으로 확장시킬 수 있다.Also, the correction apparatus may expand the range of the concealer image as the distance from the virtual image of the virtual content object increases. In other words, as shown on the right side of the
도 11을 참조하면, 사용자 양안의 위치와 가상 컨텐츠 객체의 허상(virtual image)의 위치 간의 거리와 가상 컨텐츠 객체의 크기와의 관계를 설명하기 위한 도면(1110), 거리 별 가상 컨텐츠 객체의 허상의 크기를 나타낸 도면(1130) 및 거리와 가상 컨텐츠 객체의 밝기 간의 관계를 나타낸 그래프(1130)가 도시된다.Referring to FIG. 11 , a diagram 1110 is provided to explain the relationship between the distance between the positions of the user's eyes and the positions of the virtual images of the virtual content objects and the sizes of the virtual content objects. A diagram 1130 showing the size and a
도면(1110)에 도시된 것과 같이, 가상 컨텐츠 객체의 허상(1111)의 위치와 사용자 양안의 위치 간의 거리가 가까워질수록 가상 컨텐츠 객체의 허상(1111)의 크기는 커지고, 가상 컨텐츠 객체의 허상(1115)의 위치와 사용자 양안의 위치 간의 거리가 멀수록 가상 컨텐츠 객체의 허상(1115)의 크기가 작아질 수 있다.As shown in the figure 1110, as the distance between the location of the
거리 별 가상 컨텐츠 객체의 허상의 크기는 예를 들어, 도면(1130)과 같이 나타낼 수 있다. 이때, 도면(1130)에서 가상 컨텐츠 객체의 허상의 크기가 커짐에 따라 가상 컨텐츠 객체의 허상의 면적 또한 넓어지고 허상의 밝기가 밝아지는 것을 볼 수 있다. 이 경우, 보정 장치는 가상 컨텐츠 객체의 허상에 대응하는 컨실러 영상의 콘트라스트 및 밝기를 밝게 표현함으로써 주변 환경과의 위화감을 줄일 수 있다. 보정 장치는 예를 들어, 그래프(1150)와 같이 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 거리가 기준 거리보다 가까워질수록 컨실러 영상의 콘트라스트 및 밝기를 점진적으로 밝게 조절할 수 있다. The size of the virtual image of the virtual content object for each distance may be indicated, for example, as shown in the
또한, 도면(1130)에서 가상 컨텐츠 객체의 허상의 크기가 작아짐에 따라 가상 컨텐츠 객체의 허상의 면적 또한 좁아지고 가상 컨텐츠 객체의 허상의 밝기가 어두워지는 것을 볼 수 있다. 이 경우, 보정 장치는 가상 컨텐츠 객체의 허상에 대응하는 컨실러 영상의 콘트라스트 및 밝기를 어둡게 표현함으로써 주변 환경과의 위화감을 줄일 수 있다. 보정 장치는 예를 들어, 그래프(1150)와 같이 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 거리가 기준 거리보다 멀어질수록 컨실러 영상의 콘트라스트 및 밝기를 점진적으로 어둡게 조절할 수 있다.Also, as the size of the virtual image of the virtual content object decreases in the
도 12를 참조하면, 주변 환경의 조도(illumination)와 컨실러 영상의 밝기 간의 관계를 나타낸 그래프가 도시된다. Referring to FIG. 12 , a graph showing the relationship between the illumination of the surrounding environment and the brightness of the concealer image is shown.
실제 주변 환경의 광원은 크로스토크에 밀접한 영향을 줄 수 있다. 예를 들어, 야간에 헤드 업 디스플레이에 의해 시각화되는 가상 컨텐츠 객체의 밝기가 밝을수록 크로스토크가 강하게 나타나고, 가상 컨텐츠 객체의 밝기가 어두울수록 크로스토크가 약하게 나타날 수 있다. A light source in an actual surrounding environment may have a close influence on crosstalk. For example, the brighter the brightness of the virtual content object visualized by the head-up display at night, the stronger the crosstalk, and the darker the brightness of the virtual content object, the weaker the crosstalk.
따라서, 일 실시예에서는 도 12에 도시된 그래프와 같이 주변 환경의 조도가 낮은 야간에 상대적으로 가상 컨텐츠 객체의 밝기가 밝을수록 크로스토크가 심해지는 것에 대비하여 야간에는 컨실러 영상의 밝기를 밝게 하고, 주변 환경의 조도가 높은 주간에는 컨실러 영상의 밝기를 어둡게 할 수 있다. Therefore, in one embodiment, as shown in the graph shown in FIG. 12, the brightness of the concealer image is brightened at night in preparation for crosstalk intensifying as the brightness of the virtual content object is relatively bright at night when the illumination of the surrounding environment is low, The brightness of the concealer image can be darkened during the day when the ambient light is high.
보정 장치는 예를 들어, 주변 환경의 조도가 기준 조도보다 높아질수록 컨실러 영상의 밝기를 점진적으로 어둡게 조절하고, 주변 환경의 조도가 기준 조도보다 낮아질수록 컨실러 영상의 밝기를 점진적으로 밝게 조절함으로써 함으로써 크로스토크를 약화시킬 수 있다. For example, the correction device gradually darkens the brightness of the concealer image as the illuminance of the surrounding environment becomes higher than the reference illuminance, and gradually brightens the brightness of the concealer image as the illuminance of the surrounding environment becomes lower than the reference illuminance. It may weaken the torque.
도 13은 다른 실시예에 따라 크로스토크를 보정하는 방법을 나타낸 흐름도이다. 도 13을 참조하면, 일 실시예에 따른 보정 장치가 단계(1310) 내지 단계(1360)를 통해 크로스토크를 보정하는 과정이 도시된다. 13 is a flowchart illustrating a method of correcting crosstalk according to another exemplary embodiment. Referring to FIG. 13 , a process of correcting crosstalk through
단계(1310)에서, 보정 장치는 가상 컨텐츠 객체의 이동을 감지할 수 있다. In
단계(1320)에서, 보정 장치는 단계(1310)에서 이동된 거리를 판별하여 컨실러 영상을 배치시킬 위치 및 범위를 결정할 수 있다. 여기서, 컨실러 영상을 배치시킬 위치 및 범위는 크로스토크가 발생할 영역에 해당할 수 있다. In
단계(1330)에서, 보정 장치는 컨실러 영상을 생성할 수 있다. In
단계(1340)에서, 보정 장치는 크로스토크가 발생할 영역, 다시 말해, 단계(1320)에서 결정한 컨실러 영상을 배치시킬 위치 및 범위에 단계(1330)에서 생성한 컨실러 영상을 중첩(superposition)시킬 수 있다.In
단계(1350)에서, 보정 장치는 가상 컨텐츠 객체의 허상의 위치와 사용자 양안의 위치 간의 거리를 판별하여 크로스토크가 발생할 영역에 중첩시킨 컨실러 영상을 콘트라스트를 조절할 수 있다. In
단계(1360)에서, 보정 장치는 외부 광원을 판별하여 단계(1350)에서 콘트라스트가 조절된 컨실러 영상의 밝기를 조절할 수 있다. In
실시예에 따라서, 단계(1350) 및/또는 단계(1360)는 단계(1330)에서 컨실러 영상을 생성하는 과정에서 함께 포함되어 수행될 수도 있고, 도 13과 같이 컨실러 영상의 생성 후에 크로스토크가 발생할 영역에 중첩시킨 컨실러 영상을 수정하는 형태로 수행될 수도 있다. Depending on the embodiment, steps 1350 and/or 1360 may be included in the process of generating the concealer image in
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented by a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the apparatus, methods, and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA) array), a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions, may be implemented using a general purpose computer or special purpose computer. The processing device may execute an operating system (OS) and a software application running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or apparatus, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in a computer-readable recording medium.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있으며 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination, and the program instructions recorded on the medium are specially designed and configured for the embodiment, or are known and available to those skilled in the art of computer software. may be Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.
위에서 설명한 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 또는 복수의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The hardware devices described above may be configured to operate as one or a plurality of software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 이를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.As described above, although the embodiments have been described with reference to the limited drawings, those of ordinary skill in the art may apply various technical modifications and variations based thereon. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result. Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
Claims (40)
상기 추정된 영역과 상기 가상 컨텐츠 객체를 기초로, 상기 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상(concealer image)을 생성하는 단계; 및
상기 가상 컨텐츠 객체와 상기 컨실러 영상을 합성하여 상기 크로스토크를 보정하는 단계
를 포함하는, 크로스토크를 보정하는 방법.estimating an area where crosstalk will occur based on a three-dimensional positional relationship between the positions of both eyes of the user and the positions of virtual images of the virtual content object;
generating a concealer image for correcting an area in which the crosstalk occurs based on the estimated area and the virtual content object; and
Compensating the crosstalk by synthesizing the virtual content object and the concealer image
A method of correcting crosstalk, comprising:
상기 컨실러 영상을 생성하는 단계는
상기 컨실러 영상의 잔상 범위(afterimage range), 콘트라스트(contrast), 및 밝기(brightness) 중 적어도 하나의 효과 요소(effect element)를 조절하는 단계
를 포함하는, 크로스토크를 보정하는 방법.According to claim 1,
The step of generating the concealer image is
adjusting at least one effect element among an afterimage range, a contrast, and a brightness of the concealer image
A method of correcting crosstalk, comprising:
상기 적어도 하나의 효과 요소를 조절하는 단계는
상기 3차원 위치 관계를 기초로, 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 조절하는 단계;
상기 3차원 위치 관계를 기초로, 상기 컨실러 영상의 콘트라스트 및 밝기를 조절하는 단계; 및
주변 환경의 조도(illumination)를 기초로, 상기 컨실러 영상의 밝기를 조절하는 단계
중 적어도 하나 또는 이들의 조합을 포함하는, 크로스토크를 보정하는 방법.3. The method of claim 2,
The step of adjusting the at least one effect factor comprises:
adjusting an afterimage range of the concealer image in contrast to the size of the virtual image of the virtual content object based on the three-dimensional positional relationship;
adjusting the contrast and brightness of the concealer image based on the three-dimensional positional relationship; and
Adjusting the brightness of the concealer image based on the illumination of the surrounding environment
A method of correcting crosstalk, comprising at least one of or a combination thereof.
상기 컨실러 영상의 잔상 범위를 조절하는 단계는
상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 기준 거리보다 멀어질수록 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 점진적으로 확장시키는 단계; 및
상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 상기 기준 거리보다 가까워질수록 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 점진적으로 축소시키는 단계
를 포함하는, 크로스토크를 보정하는 방법.4. The method of claim 3,
The step of adjusting the afterimage range of the concealer image is
gradually expanding the range of the afterimage of the concealer image in contrast to the size of the virtual image of the virtual content object as the distance between the positions of the user's both eyes and the position of the virtual image is greater than a reference distance; and
gradually reducing the range of the afterimage of the concealer image in contrast to the size of the virtual image of the virtual content object as the distance between the positions of the user's both eyes and the position of the virtual image is closer than the reference distance;
A method of correcting crosstalk, comprising:
상기 컨실러 영상의 콘트라스트 및 밝기를 조절하는 단계는
상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 기준 거리보다 멀어질수록 상기 컨실러 영상의 콘트라스트 및 밝기를 점진적으로 어둡게 조절하는 단계; 및
상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 상기 기준 거리보다 가까워질수록 상기 컨실러 영상의 콘트라스트 및 밝기를 점진적으로 밝게 조절하는 단계
를 포함하는, 크로스토크를 보정하는 방법.4. The method of claim 3,
The step of adjusting the contrast and brightness of the concealer image
gradually darkening the contrast and brightness of the concealer image as the distance between the positions of the user's eyes and the position of the virtual image is greater than a reference distance; and
gradually brightening the contrast and brightness of the concealer image as the distance between the positions of the user's eyes and the position of the virtual image becomes closer than the reference distance
A method of correcting crosstalk, comprising:
상기 컨실러 영상의 밝기를 조절하는 단계는
상기 조도가 기준 조도보다 높아질수록 상기 컨실러 영상의 밝기를 점진적으로 어둡게 조절하는 단계; 및
상기 조도가 상기 기준 조도보다 낮아질수록 상기 컨실러 영상의 밝기를 점진적으로 밝게 조절하는 단계
를 포함하는, 크로스토크를 보정하는 방법.4. The method of claim 3,
The step of adjusting the brightness of the concealer image is
gradually darkening the brightness of the concealer image as the illuminance becomes higher than the reference illuminance; and
gradually adjusting the brightness of the concealer image to be brighter as the illuminance is lower than the reference illuminance
A method of correcting crosstalk, comprising:
상기 컨실러 영상을 생성하는 단계는
상기 가상 컨텐츠 객체의 형태에 대응되도록 상기 가상 컨텐츠 객체를 블러(blur)시킴으로써 상기 컨실러 영상을 생성하는 단계
를 포함하는, 크로스토크를 보정하는 방법.According to claim 1,
The step of generating the concealer image is
generating the concealer image by blurring the virtual content object to correspond to the shape of the virtual content object
A method of correcting crosstalk, comprising:
상기 컨실러 영상을 생성하는 단계는
상기 가상 컨텐츠 객체를 블러시킨 블러 영상(blurred image)을 생성하는 단계; 및
상기 블러 영상에 대응하는 잔상 범위, 콘트라스트, 및 밝기 중 적어도 하나의 효과 요소를 조절하는 단계
를 포함하는, 크로스토크를 보정하는 방법.According to claim 1,
The step of generating the concealer image is
generating a blurred image obtained by blurring the virtual content object; and
adjusting at least one effect element of an afterimage range, contrast, and brightness corresponding to the blur image;
A method of correcting crosstalk, comprising:
상기 블러 영상을 생성하는 단계는
상기 3차원 위치 관계를 기초로 상기 가상 컨텐츠 객체를 확장시킨 형태에 대응되도록 상기 블러 영상을 생성하는 단계
를 포함하는, 크로스토크를 보정하는 방법.9. The method of claim 8,
The step of generating the blur image is
generating the blur image to correspond to the expanded form of the virtual content object based on the 3D positional relationship;
A method of correcting crosstalk, comprising:
상기 블러 영상을 생성하는 단계는
상기 가상 컨텐츠 객체의 형태를 기초로, 상기 사용자 양안 중 좌안에 대응하는 제1 블러 영상 및 우안에 대응하는 제2 블러 영상을 생성하는 단계; 및
상기 제1 블러 영상 및 상기 제2 블러 영상을 결합하여 상기 블러 영상을 생성하는 단계
를 포함하는, 크로스토크를 보정하는 방법.9. The method of claim 8,
The step of generating the blur image is
generating a first blur image corresponding to the left eye and a second blur image corresponding to the right eye among both eyes of the user based on the shape of the virtual content object; and
generating the blur image by combining the first blur image and the second blur image
A method of correcting crosstalk, comprising:
상기 제1 블러 영상 및 상기 제2 블러 영상을 결합하여 상기 블러 영상을 생성하는 단계는
상기 제1 블러 영상 및 상기 제2 블러 영상을 상기 사용자 양안의 시차(disparity)에 기초한 간격만큼 이격시키는 단계; 및
상기 이격된 간격이 유지되도록 상기 제1 블러 영상 및 상기 제2 블러 영상을 결합하는 단계
를 포함하는, 크로스토크를 보정하는 방법.11. The method of claim 10,
The step of generating the blur image by combining the first blur image and the second blur image includes:
separating the first blurred image and the second blurred image by an interval based on disparity between both eyes of the user; and
combining the first blur image and the second blur image so that the spaced distance is maintained
A method of correcting crosstalk, comprising:
상기 이격된 간격이 유지되도록 상기 제1 블러 영상 및 상기 제2 블러 영상을 결합하는 단계는
상기 이격된 상기 제1 블러 영상과 상기 제2 블러 영상을 보간(interpolation)하여 상기 블러 영상을 생성하는 단계
를 포함하는, 크로스토크를 보정하는 방법.12. The method of claim 11,
The step of combining the first blur image and the second blur image so that the spaced distance is maintained
generating the blur image by interpolating the spaced apart first blur image and the second blur image
A method of correcting crosstalk, comprising:
상기 크로스토크를 보정하는 단계는
상기 가상 컨텐츠 객체를 포함하는 3차원 공간 상에 상기 컨실러 영상을 배치하는 단계;
상기 가상 컨텐츠 객체와 상기 컨실러 영상을 함께 렌더링 함으로써, 좌안 영상과 우안 영상을 생성하는 단계; 및
상기 좌안 영상과 상기 우안 영상을 투사하는 단계
를 포함하는, 크로스토크를 보정하는 방법.According to claim 1,
The step of correcting the crosstalk is
disposing the concealer image in a three-dimensional space including the virtual content object;
generating a left-eye image and a right-eye image by rendering the virtual content object and the concealer image together; and
Projecting the left eye image and the right eye image
A method of correcting crosstalk, comprising:
상기 크로스토크를 보정하는 단계는
상기 가상 컨텐츠 객체를 렌더링 함으로써, 좌안 영상과 우안 영상을 생성하는 단계; 및
상기 좌안 영상, 상기 우안 영상, 및 상기 컨실러 영상을 투사하는 단계
를 포함하는, 크로스토크를 보정하는 방법.According to claim 1,
The step of correcting the crosstalk is
generating a left-eye image and a right-eye image by rendering the virtual content object; and
Projecting the left eye image, the right eye image, and the concealer image
A method of correcting crosstalk, comprising:
상기 크로스토크가 발생할 영역을 추정하는 단계는
상기 사용자 양안의 시차 및 상기 3차원 위치 관계를 기초로, 상기 크로스토크가 발생할 영역을 추정하는 단계
를 포함하는, 크로스토크를 보정하는 방법.According to claim 1,
The step of estimating the area where the crosstalk will occur
estimating an area in which the crosstalk will occur based on the parallax of both eyes of the user and the three-dimensional positional relationship;
A method of correcting crosstalk, comprising:
상기 크로스토크가 발생할 영역을 추정하는 단계는
상기 사용자 양안의 시차 및 상기 3차원 위치 관계를 기초로, 상기 크로스토크가 발생할 영역의 잔상 범위를 조절함으로써 상기 크로스토크가 발생할 영역을 추정하는 단계
를 포함하는, 크로스토크를 보정하는 방법.According to claim 1,
The step of estimating the area where the crosstalk will occur
estimating an area where the crosstalk will occur by adjusting an afterimage range of the area where the crosstalk will occur based on the parallax of both eyes of the user and the three-dimensional positional relationship
A method of correcting crosstalk, comprising:
상기 가상 컨텐츠 객체의 위치 이동을 감지하는 단계
를 더 포함하고,
상기 크로스토크가 발생할 영역을 추정하는 단계는
상기 위치 이동에 따라 변경된 상기 3차원 위치 관계 및 상기 사용자 양안의 시차 중 적어도 하나를 기초로, 상기 크로스토크가 발생할 영역을 추정하는 단계
를 포함하는, 크로스토크를 보정하는 방법.According to claim 1,
detecting a positional movement of the virtual content object;
further comprising,
The step of estimating the area where the crosstalk will occur
estimating an area in which the crosstalk will occur based on at least one of the three-dimensional positional relationship changed according to the positional movement and the parallax of both eyes of the user
A method of correcting crosstalk, comprising:
상기 크로스토크가 발생할 영역은
상기 컨실러 영상을 배치시킬 위치 및 범위에 대응되는, 크로스토크를 보정하는 방법.According to claim 1,
The area where the crosstalk will occur is
A method of correcting crosstalk corresponding to a position and a range in which the concealer image is to be placed.
상기 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 3차원 위치 관계를 기초로, 크로스토크가 발생할 영역을 추정하고, 상기 추정된 영역과 상기 가상 컨텐츠 객체를 기초로, 상기 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상을 생성하며, 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 합성하여 상기 크로스토크를 보정하는 프로세서
를 포함하는, 크로스토크를 보정하는 장치.a sensor for detecting the position of both eyes of the user; and
A region where crosstalk will occur is estimated based on a three-dimensional positional relationship between the positions of both eyes of the user and the position of the virtual image of the virtual content object, and an region where the crosstalk will occur based on the estimated region and the virtual content object A processor that generates a concealer image for correcting
A device for correcting crosstalk, including.
상기 프로세서는
상기 컨실러 영상의 잔상 범위, 콘트라스트, 및 밝기 중 적어도 하나의 효과 요소를 조절하는, 크로스토크를 보정하는 장치.21. The method of claim 20,
the processor is
An apparatus for correcting crosstalk by adjusting at least one effect factor of an afterimage range, contrast, and brightness of the concealer image.
상기 프로세서는
상기 3차원 위치 관계를 기초로, 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 조절하는 동작, 상기 3차원 위치 관계를 기초로, 상기 컨실러 영상의 콘트라스트 및 밝기를 조절하는 동작, 및 주변 환경의 조도를 기초로, 상기 컨실러 영상의 밝기를 조절하는 동작 중 적어도 하나 또는 이들의 조합을 수행하는, 크로스토크를 보정하는 장치.22. The method of claim 21,
the processor is
Adjusting the afterimage range of the concealer image in contrast to the size of the virtual image of the virtual content object based on the 3D positional relationship, and adjusting the contrast and brightness of the concealer image based on the 3D positional relation An apparatus for correcting crosstalk, which performs at least one of an operation and an operation of adjusting the brightness of the concealer image based on the illuminance of the surrounding environment, or a combination thereof.
상기 프로세서는
상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 기준 거리보다 멀어질수록 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 점진적으로 확장시키고, 상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 상기 기준 거리보다 가까워질수록 상기 가상 컨텐츠 객체의 허상의 크기에 대비되는 상기 컨실러 영상의 잔상 범위를 점진적으로 축소시키는, 크로스토크를 보정하는 장치.23. The method of claim 22,
the processor is
As the distance between the position of both eyes of the user and the position of the virtual image is greater than the reference distance, the range of the afterimage of the concealer image in contrast to the size of the virtual image of the virtual content object is gradually expanded, and the position of the user's both eyes and the virtual image An apparatus for correcting crosstalk for gradually reducing a range of an afterimage of the concealer image in contrast to the size of the virtual image of the virtual content object as the distance between the positions of the ' is closer than the reference distance.
상기 프로세서는
상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 기준 거리보다 멀어질수록 상기 컨실러 영상의 콘트라스트 및 밝기를 점진적으로 어둡게 조절하고, 상기 사용자 양안의 위치와 상기 허상의 위치 간의 거리가 상기 기준 거리보다 가까워질수록 상기 컨실러 영상의 콘트라스트 및 밝기를 점진적으로 밝게 조절하는, 크로스토크를 보정하는 장치.24. The method of claim 23,
the processor is
Contrast and brightness of the concealer image are gradually darkened as the distance between the positions of both eyes of the user and the position of the virtual image is greater than the reference distance, and the distance between the positions of both eyes of the user and the position of the virtual image is greater than the reference distance A device for correcting crosstalk, which gradually brightens the contrast and brightness of the concealer image as it gets closer.
상기 프로세서는
상기 조도가 기준 조도보다 높아질수록 상기 컨실러 영상의 밝기를 점진적으로 어둡게 조절하고, 상기 조도가 상기 기준 조도보다 낮아질수록 상기 컨실러 영상의 밝기를 점진적으로 밝게 조절하는, 크로스토크를 보정하는 장치.23. The method of claim 22,
the processor is
The apparatus for correcting crosstalk, wherein the brightness of the concealer image is gradually darkened as the illuminance is higher than the reference illuminance, and the brightness of the concealer image is gradually brightened as the illuminance is lower than the reference illuminance.
상기 프로세서는
상기 가상 컨텐츠 객체의 형태에 대응되도록 상기 가상 컨텐츠 객체를 블러시킴으로써 상기 컨실러 영상을 생성하는, 크로스토크를 보정하는 장치.21. The method of claim 20,
the processor is
An apparatus for correcting crosstalk, which generates the concealer image by blurring the virtual content object to correspond to the shape of the virtual content object.
상기 프로세서는
상기 가상 컨텐츠 객체를 블러시킨 블러 영상을 생성하고, 상기 블러 영상에 대응하는 잔상 범위, 콘트라스트, 및 밝기 중 적어도 하나의 효과 요소를 조절하는, 크로스토크를 보정하는 장치.21. The method of claim 20,
the processor is
An apparatus for correcting crosstalk, generating a blur image obtained by blurring the virtual content object, and adjusting at least one effect element of an afterimage range, contrast, and brightness corresponding to the blur image.
상기 프로세서는
상기 3차원 위치 관계를 기초로 상기 가상 컨텐츠 객체를 확장시킨 형태에 대응되도록 상기 블러 영상을 생성하는, 크로스토크를 보정하는 장치.28. The method of claim 27,
the processor is
An apparatus for correcting crosstalk, which generates the blur image to correspond to a shape in which the virtual content object is expanded based on the three-dimensional positional relationship.
상기 프로세서는
상기 가상 컨텐츠 객체의 형태를 기초로, 상기 사용자 양안 중 좌안에 대응하는 제1 블러 영상 및 우안에 대응하는 제2 블러 영상을 생성하고, 상기 제1 블러 영상 및 상기 제2 블러 영상을 결합하여 상기 블러 영상을 생성하는, 크로스토크를 보정하는 장치.28. The method of claim 27,
the processor is
Based on the shape of the virtual content object, a first blur image corresponding to the left eye and a second blur image corresponding to the right eye of the user's both eyes are generated, and the first blur image and the second blur image are combined to generate the A device that corrects crosstalk to create a blur image.
상기 프로세서는
상기 제1 블러 영상 및 상기 제2 블러 영상을 상기 사용자 양안의 시차에 기초한 간격만큼 이격시키고, 상기 이격된 간격이 유지되도록 상기 제1 블러 영상 및 상기 제2 블러 영상을 결합하는, 크로스토크를 보정하는 장치.30. The method of claim 29,
the processor is
Crosstalk is corrected by separating the first blur image and the second blur image by an interval based on the parallax of both eyes of the user, and combining the first blur image and the second blur image so that the spaced distance is maintained device to do.
상기 프로세서는
상기 이격된 상기 제1 블러 영상과 상기 제2 블러 영상을 보간하여 상기 블러 영상을 생성하는, 크로스토크를 보정하는 장치.31. The method of claim 30,
the processor is
An apparatus for correcting crosstalk to generate the blur image by interpolating the spaced apart first blur image and the second blur image.
상기 프로세서는
상기 가상 컨텐츠 객체를 포함하는 3차원 공간 상에 상기 컨실러 영상을 배치하고, 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 함께 렌더링 함으로써, 좌안 영상과 우안 영상을 생성하며, 상기 좌안 영상과 상기 우안 영상을 투사하는, 크로스토크를 보정하는 장치.21. The method of claim 20,
the processor is
By disposing the concealer image in a three-dimensional space including the virtual content object, and rendering the virtual content object and the concealer image together, a left eye image and a right eye image are generated, and the left eye image and the right eye image are projected A device that corrects crosstalk.
상기 프로세서는
상기 가상 컨텐츠 객체를 렌더링 함으로써, 좌안 영상과 우안 영상을 생성하고, 상기 좌안 영상, 상기 우안 영상, 및 상기 컨실러 영상을 투사하는, 크로스토크를 보정하는 장치.21. The method of claim 20,
the processor is
An apparatus for correcting crosstalk, generating a left-eye image and a right-eye image by rendering the virtual content object, and projecting the left-eye image, the right-eye image, and the concealer image.
상기 프로세서는
상기 사용자 양안의 시차 및 상기 3차원 위치 관계를 기초로, 상기 크로스토크가 발생할 영역을 추정하는, 크로스토크를 보정하는 장치.21. The method of claim 20,
the processor is
An apparatus for correcting crosstalk by estimating an area in which the crosstalk occurs based on the parallax of the user's eyes and the three-dimensional positional relationship.
상기 프로세서는
상기 사용자 양안의 시차 및 상기 3차원 위치 관계를 기초로, 상기 크로스토크가 발생할 영역의 잔상 범위를 조절함으로써 상기 크로스토크가 발생할 영역을 추정하는, 크로스토크를 보정하는 장치.21. The method of claim 20,
the processor is
The apparatus for correcting crosstalk, estimating an area where the crosstalk will occur by adjusting an afterimage range of the area where the crosstalk will occur based on the parallax of the user's both eyes and the three-dimensional positional relationship.
상기 프로세서는
상기 가상 컨텐츠 객체의 위치 이동을 감지하고, 상기 위치 이동에 따라 변경된 상기 3차원 위치 관계 및 상기 사용자 양안의 시차 중 적어도 하나를 기초로, 상기 크로스토크가 발생할 영역을 추정하는, 크로스토크를 보정하는 장치.21. The method of claim 20,
the processor is
Correcting crosstalk by detecting a positional movement of the virtual content object and estimating an area in which the crosstalk will occur based on at least one of the three-dimensional positional relationship changed according to the positional movement and the parallax of both eyes of the user Device.
상기 크로스토크가 발생할 영역은
상기 컨실러 영상을 배치시킬 위치 및 범위에 대응되는, 크로스토크를 보정하는 장치.21. The method of claim 20,
The area where the crosstalk will occur is
A device for correcting crosstalk, corresponding to a position and a range in which the concealer image is to be placed.
가상 컨텐츠 객체를 프로젝션 평면에 투사하여 시각화하는 디스플레이; 및
사용자 양안의 위치와 상기 가상 컨텐츠 객체의 허상의 위치 간의 3차원 위치 관계를 기초로, 크로스토크가 발생할 영역을 추정하고, 상기 추정된 영역과 상기 가상 컨텐츠 객체를 기초로, 상기 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상을 생성하며, 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 합성하여 상기 크로스토크를 보정하는 프로세서
를 포함하는, 컨텐츠 시각화 장치.A content visualization device comprising:
a display for visualizing a virtual content object by projecting it on a projection plane; and
A region where crosstalk will occur is estimated based on a three-dimensional positional relationship between the positions of both eyes of the user and the position of the virtual image of the virtual content object, and an region where the crosstalk will occur based on the estimated region and the virtual content object A processor that generates a concealer image for correcting
Including, content visualization device.
가상 컨텐츠 객체를 시각화 하는 투명 디스플레이; 및
사용자 양안의 위치와 상기 가상 컨텐츠 객체의 허상의 위치 간의 3차원 위치 관계를 기초로 크로스토크가 발생할 영역을 추정하고, 상기 추정된 영역과 상기 가상 컨텐츠 객체를 기초로 상기 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상을 생성하며, 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 합성하여 상기 크로스토크를 보정하는 프로세서
를 포함하는, 증강 현실 안경 장치.In the augmented reality glasses (Augmented Reality glass, AR glass) device,
Transparent display to visualize virtual content objects; and
Estimate a region where crosstalk will occur based on a three-dimensional positional relationship between the positions of both eyes of the user and the virtual image position of the virtual content object, and correct the region where crosstalk will occur based on the estimated region and the virtual content object A processor that generates a concealer image for
Including, augmented reality glasses device.
상기 차량의 위치를 센싱하는 센서;
사용자에게 제공할 가상 컨텐츠 객체를 프로젝션 평면에 시각화하는 헤드업 디스플레이(head-up display, HUD); 및
상기 차량의 위치에 기초하여 상기 가상 컨텐츠 객체를 결정하고, 사용자 양안의 위치와 가상 컨텐츠 객체의 허상의 위치 간의 3차원 위치 관계를 기초로 크로스토크가 발생할 영역을 추정하고, 상기 추정된 영역과 상기 가상 컨텐츠 객체를 기초로 상기 크로스토크가 발생할 영역을 보정하기 위한 컨실러 영상을 생성하며, 상기 가상 컨텐츠 객체와 상기 컨실러 영상을 합성하여 상기 크로스토크를 보정하는 프로세서
를 포함하는, 차량.
in a vehicle,
a sensor for sensing the position of the vehicle;
a head-up display (HUD) for visualizing a virtual content object to be provided to a user on a projection plane; and
The virtual content object is determined based on the location of the vehicle, and an area where crosstalk occurs is estimated based on a three-dimensional positional relationship between the positions of both eyes of the user and the virtual image of the virtual content object, and the estimated area and the A processor that generates a concealer image for correcting an area where the crosstalk occurs based on a virtual content object, and corrects the crosstalk by synthesizing the virtual content object and the concealer image
A vehicle comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/225,339 US11719930B2 (en) | 2020-09-07 | 2021-04-08 | Method and apparatus with crosstalk correction |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200114028 | 2020-09-07 | ||
KR20200114028 | 2020-09-07 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220032448A true KR20220032448A (en) | 2022-03-15 |
Family
ID=80817086
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200181939A KR20220032448A (en) | 2020-09-07 | 2020-12-23 | Method and apparatus of correcting crosstalk |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20220032448A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116634624A (en) * | 2023-07-21 | 2023-08-22 | 珠海中旭承科技股份有限公司 | Illumination control method and device for transparent screen display cabinet |
WO2024039154A1 (en) * | 2022-08-18 | 2024-02-22 | 삼성전자 주식회사 | Electronic device for displaying 3d image and operation method thereof |
-
2020
- 2020-12-23 KR KR1020200181939A patent/KR20220032448A/en active Search and Examination
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024039154A1 (en) * | 2022-08-18 | 2024-02-22 | 삼성전자 주식회사 | Electronic device for displaying 3d image and operation method thereof |
CN116634624A (en) * | 2023-07-21 | 2023-08-22 | 珠海中旭承科技股份有限公司 | Illumination control method and device for transparent screen display cabinet |
CN116634624B (en) * | 2023-07-21 | 2023-09-15 | 珠海中旭承科技股份有限公司 | Illumination control method and device for transparent screen display cabinet |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102298378B1 (en) | Information processing device, information processing method, and program | |
EP3444139B1 (en) | Image processing method and image processing device | |
KR102306790B1 (en) | Device and method to visualize content | |
US11646000B2 (en) | Image display system, image display method, movable object including the image display system, and non-transitory computer-readable medium | |
KR20200042166A (en) | Device and method to visualize content | |
US20120242694A1 (en) | Monocular head mounted display | |
JP2015215510A (en) | Display device and display method | |
CN111095078A (en) | Method, device and computer-readable storage medium with instructions for controlling the display of an augmented reality head-up display device for a motor vehicle | |
US20200269696A1 (en) | Virtual image display device | |
KR20180022374A (en) | Lane markings hud for driver and assistant and same method thereof | |
KR20220032448A (en) | Method and apparatus of correcting crosstalk | |
US11869162B2 (en) | Apparatus and method with virtual content adjustment | |
JP2016078498A (en) | Display control device and display system | |
US11719930B2 (en) | Method and apparatus with crosstalk correction | |
CN112703527A (en) | Head-up display (HUD) content control system and method | |
KR102652943B1 (en) | Method for outputting a three dimensional image and an electronic device performing the method | |
JP2020033003A (en) | Display control device and display control program | |
US20220300120A1 (en) | Information processing apparatus, and control method | |
US20140049540A1 (en) | Image Processing Device, Method, Computer Program Product, and Stereoscopic Image Display Device | |
US11170537B2 (en) | Vehicle display device | |
JP2020019369A (en) | Display device for vehicle, method and computer program | |
WO2020039855A1 (en) | Display control device, display control program, and continuous tangible computer-readable medium thereof | |
KR20240020051A (en) | A method of calibrating a head up display using an in-car camera and an apparatus of calibrating a head up display using an in-car camera | |
EP3306373A1 (en) | Method and device to render 3d content on a head-up display | |
CN117275376A (en) | Ghost elimination method for vehicle-mounted head-up display, and related device and chip |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination |