KR102447101B1 - Image processing method and apparatus for autostereoscopic three dimensional display - Google Patents

Image processing method and apparatus for autostereoscopic three dimensional display Download PDF

Info

Publication number
KR102447101B1
KR102447101B1 KR1020170116735A KR20170116735A KR102447101B1 KR 102447101 B1 KR102447101 B1 KR 102447101B1 KR 1020170116735 A KR1020170116735 A KR 1020170116735A KR 20170116735 A KR20170116735 A KR 20170116735A KR 102447101 B1 KR102447101 B1 KR 102447101B1
Authority
KR
South Korea
Prior art keywords
image
luminance
eye
value
pixel
Prior art date
Application number
KR1020170116735A
Other languages
Korean (ko)
Other versions
KR20190029331A (en
Inventor
이석
박주용
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020170116735A priority Critical patent/KR102447101B1/en
Priority to CN201810282497.9A priority patent/CN109495734B/en
Priority to JP2018169491A priority patent/JP7253342B2/en
Priority to EP18193645.1A priority patent/EP3454553B1/en
Priority to US16/129,297 priority patent/US11051003B2/en
Publication of KR20190029331A publication Critical patent/KR20190029331A/en
Application granted granted Critical
Publication of KR102447101B1 publication Critical patent/KR102447101B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • H04N13/125Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues for crosstalk reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/324Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/376Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Absorbent Articles And Supports Therefor (AREA)

Abstract

3D 영상 제공 방법 및 장치가 개시된다. 3D 영상 제공 방법은 시청자의 눈의 위치를 검출하는 단계와 상기 검출된 눈의 위치에 따른 3D 영상을 제공하는 단계를 포함한다. 3D 영상을 제공하는 단계는 디스플레이 패널의 디스플레이 픽셀에 대응되는 영상 픽셀 값을 결정하는 단계, 디스플레이 픽셀로부터 출력되는 광선의 방향과 검출된 눈의 위치에 기초하여 디스플레이 픽셀에 대응되는 휘도 가중치를 결정하는 단계, 디스플레이 픽셀에 할당된 영상 픽셀 값에 상기 휘도 가중치를 적용하는 단계 및 상기 휘도 가중치가 적용된 영상 픽셀 값을 상기 디스플레이 픽셀을 통해 출력하는 단계를 포함할 수 있다.A method and apparatus for providing a 3D image are disclosed. The 3D image providing method includes detecting a position of a viewer's eye and providing a 3D image according to the detected eye position. The step of providing the 3D image may include: determining an image pixel value corresponding to a display pixel of a display panel; The method may include applying the luminance weight to the image pixel values allocated to the display pixels, and outputting the image pixel values to which the luminance weight is applied through the display pixels.

Description

무안경 3D 디스플레이를 위한 영상 처리 방법 및 장치{IMAGE PROCESSING METHOD AND APPARATUS FOR AUTOSTEREOSCOPIC THREE DIMENSIONAL DISPLAY}Image processing method and apparatus for autostereoscopic 3D display

아래의 설명은 무안경 3D 디스플레이를 위한 영상 처리 기술에 관한 것이다.The description below relates to image processing technology for an autostereoscopic 3D display.

시청자가 3D(dimensional) 영상의 입체감을 인지하기 위해서는 시청자의 양 눈에 보여지는 영상이 달라야 한다. 시청자의 양 눈에 서로 다른 영상을 보여주기 위한 방법으로 편광을 이용한 분할, 시분할, 원색(primary color)의 파장을 다르게 한 파장 분할 등을 통하여 원하는 영상을 필터링하는 안경식(stereoscopic) 방식과, 패럴랙스 배리어(parallax barrier), 렌티큘러 렌즈(lenticular lens), 또는 방향성 백라이트 유닛(directional backlight unit) 등의 3D 광학 소자를 이용하여 영상을 공간의 특정 시점 별로 보이게 하는 무안경식(autostereoscopic) 방식이 있다.In order for the viewer to perceive the three-dimensional effect of a 3D (dimensional) image, the image shown by both eyes of the viewer must be different. As a method for showing different images to both eyes of a viewer, a stereoscopic method that filters a desired image through division using polarization, time division, and wavelength division with different wavelengths of primary colors, and parallax There is an autostereoscopic method that uses 3D optical elements such as a parallax barrier, a lenticular lens, or a directional backlight unit to display an image at a specific point in time in space.

일 실시예에 따른 3D 영상 제공 방법은, 시청자의 눈의 위치를 검출하는 단계; 및 상기 검출된 눈의 위치에 따른 3D 영상을 제공하는 단계를 포함하고, 상기 3D 영상을 제공하는 단계는, 디스플레이 패널의 디스플레이 픽셀에 대응되는 영상 픽셀 값을 결정하는 단계; 상기 디스플레이 픽셀로부터 출력되는 광선의 방향과 상기 검출된 눈의 위치에 기초하여 상기 디스플레이 픽셀에 대응되는 휘도 가중치를 결정하는 단계; 상기 디스플레이 픽셀에 할당된 영상 픽셀 값에 상기 휘도 가중치를 적용하는 단계; 및 상기 휘도 가중치가 적용된 영상 픽셀 값을 상기 디스플레이 픽셀을 통해 출력하는 단계를 포함할 수 있다.According to an embodiment, a method for providing a 3D image includes detecting a position of a viewer's eye; and providing a 3D image according to the detected eye position, wherein the providing of the 3D image includes: determining an image pixel value corresponding to a display pixel of a display panel; determining a luminance weight corresponding to the display pixel based on a direction of a light ray output from the display pixel and the detected eye position; applying the luminance weight to the image pixel values assigned to the display pixels; and outputting the image pixel value to which the luminance weight is applied through the display pixel.

상기 휘도 가중치를 결정하는 단계는, 상기 광선의 방향과 상기 시청자의 좌안의 위치 간의 가까운 정도를 나타내는 제1 기준 값 및 상기 광선의 방향과 상기 시청자의 우안의 위치 간의 가까운 정도를 나타내는 제2 기준 값 중 적어도 하나에 기초하여 상기 휘도 가중치를 결정할 수 있다.The determining of the luminance weight may include a first reference value indicating a degree of closeness between the direction of the light beam and the position of the viewer's left eye and a second reference value indicating a degree of closeness between the direction of the light beam and the location of the viewer's right eye. The luminance weight may be determined based on at least one of

상기 휘도 가중치를 결정하는 단계는, 상기 제1 기준 값 및 상기 제2 기준 값 중 적어도 하나에 기초하여, 미리 정의된 서로 다른 휘도 가중치들 중 어느 하나의 휘도 가중치를 상기 디스플레이 픽셀에 대응되는 상기 휘도 가중치로 결정할 수 있다.The determining of the luminance weight may include setting a luminance weight of any one of different predefined luminance weights based on at least one of the first reference value and the second reference value to the luminance corresponding to the display pixel. It can be determined by weight.

상기 휘도 가중치를 결정하는 단계는, 상기 좌안의 위치를 기준으로 하는 제1 기준 값 범위에 상기 제1 기준 값이 포함되거나 또는 상기 우안의 위치를 기준으로 하는 제2 기준 값 범위에 상기 제2 기준 값이 포함되는 경우, 제1 휘도 가중치를 상기 디스플레이 픽셀에 대응되는 휘도 가중치로 결정할 수 있다.In the determining of the luminance weight, the first reference value is included in a first reference value range based on the position of the left eye, or the second reference value is included in a second reference value range based on the position of the right eye. When the value is included, the first luminance weight may be determined as the luminance weight corresponding to the display pixel.

상기 휘도 가중치를 결정하는 단계는, 상기 제1 기준 값이 상기 제1 기준 값 범위에 포함되지 않고, 상기 제2 기준 값이 상기 제2 기준 값 범위에 포함되지 않는 경우, 제2 휘도 가중치를 상기 디스플레이 픽셀에 대응되는 휘도 가중치로 결정하고, 상기 제1 휘도 가중치는 상기 제2 휘도 가중치보다 클 수 있다.The determining of the luminance weight may include determining a second luminance weight when the first reference value is not included in the first reference value range and the second reference value is not included in the second reference value range. It is determined as a luminance weight corresponding to the display pixel, and the first luminance weight may be greater than the second luminance weight.

상기 영상 픽셀 값에 적용되는 상기 휘도 가중치에 의해 상기 디스플레이 픽셀을 통해 출력될 상기 영상 픽셀 값의 휘도가 조절될 수 있다.The luminance of the image pixel value to be output through the display pixel may be adjusted by the luminance weight applied to the image pixel value.

상기 영상 픽셀 값을 결정하는 단계는, 미리 정의된 휘도 스케일링 값에 기초하여 상기 좌시점 영상의 영상 픽셀들의 휘도 범위와 상기 우시점 영상의 영상 픽셀들의 휘도 범위를 조절하는 단계; 및 미리 정의된 크로스토크 보정 값에 기초하여 상기 휘도 범위가 조절된 좌시점 영상의 영상 픽셀들 및 우시점 영상의 영상 픽셀들의 휘도 값을 조절하는 단계를 포함할 수 있다.The determining of the image pixel value may include: adjusting a luminance range of the image pixels of the left-view image and a luminance range of the image pixels of the right-view image based on a predefined luminance scaling value; and adjusting the luminance values of the image pixels of the left-view image and the image pixels of the right-view image whose luminance range is adjusted based on a predefined crosstalk correction value.

상기 영상 픽셀 값을 결정하는 단계는, 상기 광선의 방향이 상기 우안보다 상기 좌안의 위치에 더 가까운 경우, 휘도 값이 조절된 상기 좌시점 영상의 상기 영상 픽셀 값을 상기 디스플레이 픽셀에 할당하는 단계; 및 상기 광선의 방향이 상기 좌안보다 상기 우안의 위치에 더 가까운 경우, 휘도 값이 조절된 상기 우시점 영상의 상기 영상 픽셀 값을 상기 디스플레이 픽셀에 할당하는 단계를 더 포함할 수 있다.The determining of the image pixel value may include: allocating the image pixel value of the left-view image whose luminance value is adjusted to the display pixel when the direction of the light beam is closer to the position of the left eye than the right eye; and when the direction of the light beam is closer to the position of the right eye than the left eye, allocating the image pixel value of the right-view image whose luminance value is adjusted to the display pixel.

일 실시예에 따른 3D 영상 제공 장치는, 시청자의 눈의 위치를 검출하기 위한 눈 위치 검출기; 상기 검출된 눈의 위치에 따른 패널 영상을 생성하는 프로세서; 및 상기 패널 영상에 기초하여 3D 영상을 출력하는 디스플레이 패널을 포함하고, 상기 프로세서는, 상기 디스플레이 패널의 디스플레이 픽셀로부터 출력되는 광선의 방향과 상기 검출된 눈의 위치에 기초하여 상기 디스플레이 픽셀에 대응되는 휘도 가중치를 결정하고, 상기 디스플레이 픽셀에 할당된 영상 픽셀 값에 상기 휘도 가중치를 적용하고, 상기 휘도 가중치가 적용된 영상 픽셀 값에 기초하여 상기 패널 영상을 생성할 수 있다.According to an embodiment, an apparatus for providing a 3D image includes an eye position detector for detecting a position of a viewer's eye; a processor for generating a panel image according to the detected eye position; and a display panel outputting a 3D image based on the panel image, wherein the processor is configured to correspond to the display pixel based on a direction of a light beam output from a display pixel of the display panel and the detected eye position. A luminance weight may be determined, the luminance weight may be applied to an image pixel value allocated to the display pixel, and the panel image may be generated based on the image pixel value to which the luminance weight is applied.

상기 프로세서는, 상기 광선의 방향과 상기 시청자의 좌안의 위치 간의 가까운 정도를 나타내는 제1 기준 값 및 상기 광선의 방향과 상기 시청자의 우안의 위치 간의 가까운 정도를 나타내는 제2 기준 값 중 적어도 하나에 기초하여 상기 휘도 가중치를 결정할 수 있다.The processor is configured to: based on at least one of a first reference value indicating a degree of closeness between the direction of the light ray and a position of the left eye of the viewer and a second reference value indicating a degree of closeness between the direction of the light beam and a location of the right eye of the viewer Thus, the luminance weight may be determined.

도 1은 일 실시예에 따른 3D 영상 제공 장치를 도시하는 도면이다.
도 2는 일 실시예에 따른 3D 영상으로의 변환 과정을 설명하기 위한 도면이다.
도 3 내지 도 5는 일 실시예에 따른 3D 영상 제공 방법의 동작을 설명하기 위한 흐름도들이다.
도 6a 및 도 6b는 일 실시예에 따른 디스플레이 픽셀의 광선 방향과 눈의 위치에 기초하여 제1 및 제2 기준 값을 결정하는 일례들을 설명하기 위한 도면들이다.
도 7은 일 실시예에 따른 시점 추적형 무안경 3D 디스플레이 장치에서 시점 정보를 병합하는 것을 설명하기 위한 도면이다.
도 8a 내지 도 9b는 일 실시예에 따른 시청자의 눈의 위치에 따른 휘도 가중치를 결정하는 일례를 설명하기 위한 도면들이다.
도 10은 일 실시예에 따른 3D 영상 렌더링 장치의 구성을 도시하는 도면이다.
도 11은 일 실시예에 따른 3D 영상 제공 장치의 구성을 도시하는 도면이다.
1 is a diagram illustrating an apparatus for providing a 3D image according to an exemplary embodiment.
2 is a diagram for explaining a process of converting a 3D image according to an exemplary embodiment.
3 to 5 are flowcharts illustrating an operation of a method for providing a 3D image according to an exemplary embodiment.
6A and 6B are diagrams for explaining examples of determining first and second reference values based on a light ray direction of a display pixel and a position of an eye according to an exemplary embodiment;
7 is a view for explaining merging of viewpoint information in the eye tracking type glasses-free 3D display apparatus according to an embodiment.
8A to 9B are diagrams for explaining an example of determining a luminance weight according to a position of a viewer's eye according to an exemplary embodiment.
10 is a diagram illustrating a configuration of a 3D image rendering apparatus according to an exemplary embodiment.
11 is a diagram illustrating a configuration of an apparatus for providing a 3D image according to an exemplary embodiment.

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for purposes of illustration only, and may be changed and implemented in various forms. Accordingly, the embodiments are not limited to a specific disclosure form, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical spirit.

제1 또는 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 또한, 어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.Terms such as first or second may be used to describe various elements, but these terms should be interpreted only for the purpose of distinguishing one element from another element. In addition, when it is said that a certain element is "connected" to another element, it may be directly connected or connected to the other element, but it should be understood that another element may exist in between.

단수의 표현은 달리 명시되지 않는 한 일반적으로 "하나 이상의"를 의미하는 것으로 해석되어야 한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Expressions in the singular should generally be construed to mean "one or more" unless otherwise specified. In this specification, terms such as "comprise" or "have" are intended to designate that the described feature, number, step, operation, component, part, or combination thereof exists, and includes one or more other features or numbers, It should be understood that the possibility of the presence or addition of steps, operations, components, parts or combinations thereof is not precluded in advance.

또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present specification. does not

이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. In the description with reference to the accompanying drawings, the same components are assigned the same reference numerals regardless of the reference numerals, and the overlapping description thereof will be omitted.

도 1은 일 실시예에 따른 3D 영상 제공 장치를 도시하는 도면이다.1 is a diagram illustrating an apparatus for providing a 3D image according to an exemplary embodiment.

도 1을 참조하면, 3D 영상 제공 장치(110)는 3D 영상을 시청자(120)에게 제공한다. 3D 영상 제공 장치(110)는 입력 영상을 입체 영상(stereoscopic image)인 3D 영상으로 변환하여 출력하는 장치로서, 출력 영상을 공간의 특정 시점별로 보이게 하는 무안경식 3D 디스플레이 장치이다. 3D 영상 제공 장치(110)는 디스플레이 패널에 전달될 패널 영상을 생성하는 3D 렌더링(rendering) 과정을 수행하고, 생성된 패널 영상을 광학 3D 광학 소자를 통해 입체 영상으로 변환하여 출력한다. 여기서, 디스플레이 패널은, 예를 들어 LCD, LED 또는 OLED 등의 디스플레이 모듈을 포함할 수 있고, 3D 광학 소자는 패럴랙스 배리어 또는 렌티큘러 렌즈 등을 포함할 수 있다. 3D 영상 제공 장치(110)는 시청자(120)의 좌안과 우안에 서로 다른 영상을 보이게 함으로써 시청자(120)에게 3D 영상의 입체감을 제공할 수 있다. 3D 영상 제공 장치(110)는 무안경식으로 3D 영상을 출력할 수 있는 다양한 디스플레이 장치에 해당될 수 있다. 예를 들어, 3D 영상 제공 장치(110)는 3D TV, 안경 형태의 웨어러블 장치, 3D HUD(Head-Up Display), 모니터, 태블릿 컴퓨터, 스마트폰, 모바일 장치 또는 스마트 가전 기기 등의 형태를 가질 수 있다.Referring to FIG. 1 , a 3D image providing apparatus 110 provides a 3D image to a viewer 120 . The 3D image providing apparatus 110 converts an input image into a 3D image that is a stereoscopic image and outputs the converted image, and is an autostereoscopic 3D display apparatus that displays the output image for each specific point of view in space. The 3D image providing apparatus 110 performs a 3D rendering process of generating a panel image to be transmitted to the display panel, and converts the generated panel image into a stereoscopic image through an optical 3D optical element and outputs the converted image. Here, the display panel may include, for example, a display module such as LCD, LED, or OLED, and the 3D optical element may include a parallax barrier or a lenticular lens. The 3D image providing apparatus 110 may provide the viewer 120 with a three-dimensional effect of the 3D image by displaying different images to the left eye and the right eye of the viewer 120 . The 3D image providing apparatus 110 may correspond to various display apparatuses capable of outputting a 3D image without glasses. For example, the 3D image providing device 110 may have the form of a 3D TV, a wearable device in the form of glasses, a 3D head-up display (HUD), a monitor, a tablet computer, a smartphone, a mobile device, or a smart home appliance. have.

도 2는 일 실시예에 따른 3D 영상으로의 변환 과정을 설명하기 위한 도면이다.2 is a diagram for explaining a process of converting a 3D image according to an exemplary embodiment.

도 2를 참조하면, 3D 영상 제공 장치는 디스플레이 패널(210)의 각 디스플레이 픽셀(215)들로부터 출력된 광(또는 광선)을 3D 광학 소자(220)를 통해 3차원 공간에 복수의 시청 방향들로 출력할 수 있다. 디스플레이 픽셀(215)들로부터 출력되는 광선들에 의해 라이트필드(lightfield)가 형성될 수 있다. 디스플레이 픽셀(215)은 영상 픽셀의 픽셀 값을 출력하는 디스플레이 패널(210)의 구성 단위이고, 영상 픽셀은 패널 영상의 구성 단위로서 해당 영상 픽셀에 대응되는 디스플레이 픽셀(215)을 통해 출력할 영상 픽셀 값을 가진다. 디스플레이 픽셀(215)은 하드웨어의 형태이고, 영상 픽셀은 데이터의 형태이다. 각각의 디스플레이 픽셀(215)로부터 출력되는 광은 3D 광학 소자(220)에 의해 특정한 방향으로 전달된다.Referring to FIG. 2 , the 3D image providing apparatus transmits light (or light rays) output from each of the display pixels 215 of the display panel 210 in a 3D space through the 3D optical element 220 in a plurality of viewing directions. can be output as A lightfield may be formed by light rays output from the display pixels 215 . The display pixel 215 is a constituent unit of the display panel 210 that outputs the pixel value of the image pixel, and the image pixel is a constituent unit of the panel image and is an image pixel to be output through the display pixel 215 corresponding to the image pixel. have a value The display pixels 215 are in the form of hardware, and the image pixels are in the form of data. Light output from each display pixel 215 is transmitted in a specific direction by the 3D optical element 220 .

3D 광학 소자(220)는, 예를 들어 도 2에 도시된 것과 같은 렌티큘러 렌즈, 또는 패럴랙스 배리어(미도시)를 포함할 수 있고, 렌티큘러 렌즈 또는 패럴랙스 배리어는 디스플레이 패널(210)에 포함된 디스플레이 픽셀(215)들의 어레이와 비스듬히 교차되도록 설계될 수 있다. 3D 영상 제공 장치와 같은 무안경 3D 디스플레이에서는, 시청자의 양 눈(51, 52)으로 서로 다른 시점의 영상을 조사하여 시청자가 입체감을 느끼게 할 수 있다. 예를 들어, 시청자가 좌안(51)으로는 제1 시점 영상을 시청하고, 우안(52)으로는 제2 시점 영상을 시청하게 함으로써, 3D 영상 제공 장치는 시청자에게 입체감이 있는 3D 영상을 제공할 수 있다. 여기서, 입체감은 양안 시차(binocular parallax)에 의해 형성된다.The 3D optical element 220 may include, for example, a lenticular lens as shown in FIG. 2 , or a parallax barrier (not shown), and the lenticular lens or parallax barrier is included in the display panel 210 . It may be designed to cross the array of display pixels 215 at an angle. In an autostereoscopic 3D display, such as a 3D image providing device, images from different viewpoints are irradiated with both eyes 51 and 52 of the viewer so that the viewer can feel a three-dimensional effect. For example, by allowing the viewer to view the first view image with the left eye 51 and the second view image with the right eye 52 , the 3D image providing apparatus provides a 3D image with a three-dimensional effect to the viewer. can Here, the stereoscopic effect is formed by binocular parallax.

3D 영상 제공 장치가 3D 영상을 제공할 때, 3D 영상 제공 장치는 카메라 등을 이용하여 시청자의 시점(또는, 눈 위치)을 추적하고, 추적된 시점에 기초하여 3D 영상을 실시간으로 렌더링할 수 있다. 이처럼, 3D 영상 제공 장치는 시점 추적형 무안경 3D 디스플레이로 기능할 수 있다. 시점 추적형 무안경 3D 디스플레이의 경우, 시청자의 시청 위치에 따라 3D 영상을 실시간으로 렌더링하고, 좌시점 영상(left image)과 우시점 영상(right image)의 두 가지 시점 영상들을 해당 시청 위치에 출력한다. When the 3D image providing apparatus provides a 3D image, the 3D image providing apparatus may use a camera or the like to track the viewer's viewpoint (or eye position) and render the 3D image in real time based on the tracked viewpoint. . As such, the 3D image providing apparatus may function as a point-of-view tracking type glasses-free 3D display. In the case of the eye-tracking type glasses-free 3D display, a 3D image is rendered in real time according to the viewer's viewing position, and two viewpoint images, a left image and a right image, are output to the corresponding viewing position. do.

3D 영상 제공 장치는 시청자의 시청 위치에 따라 실시간으로 3D 영상을 렌더링하여, 실시간 처리를 가능하게 한다. 패널 영상을 구성하는 영상 픽셀들의 어레이는 좌시점 영상의 픽셀 값과 우시점 영상의 픽셀 값이 조합된 형태를 가진다. 3D 광학 소자에 의해 좌시점 영상 및 우시점 영상의 두 시점 영상들은 라이트필드를 형성하며 시청 영역으로 출력된다. 시청자의 좌안에는 복수의 방향들로 출력된 좌시점 영상이 병합된 영상이 보여지고, 우안에는 복수의 방향들로 출력된 우시점 영상이 병합된 영상이 보여진다.The 3D image providing apparatus renders a 3D image in real time according to a viewer's viewing position, thereby enabling real-time processing. The array of image pixels constituting the panel image has a form in which a pixel value of a left view image and a pixel value of a right view image are combined. Two view images, a left view image and a right view image, form a light field by the 3D optical element and are output to the viewing area. An image in which left-view images output in a plurality of directions are merged is shown in the viewer's left eye, and an image in which right-view images output in a plurality of directions are merged is shown in the right eye of the viewer.

이하에서 설명할 실시예들은 시점 추적형 무안경 3D 디스플레이를 통해 출력되는 3D 영상의 화질을 높이는데 이용될 수 있다. 예를 들어, 실시예들은 시청자의 양 눈에 보여지는 3D 영상의 크로스토크(crosstalk) 현상을 저감시킬 수 있다. 크로스토크 현상은 우안에 보여져야 할 영상이 좌안에 보여지는 것 및/또는 좌안에 보여져야 할 영상이 우안에 보여지는 것을 나타내며, 이는 좌안에 보여져야 할 영상과 우안에 보여져야 할 영상 간의 불완전한 분리에 기인한다. 일반적으로, 무안경 3D 디스플레이에서 크로스토크 현상의 발생 원인은 크게 두 가지가 있다. 첫 번째로, 디스플레이에서 광이 3D 광학 소자, 접착제(glue) 또는 디스플레이 픽셀 구조를 통과할 때 발생하는 회절(diffraction)이나 산란(scattering)에 의한 오프셋 크로스토크(offset crosstalk)가 있다. 오프셋 크로스토크는 시청자의 위치와 상관 없이 디스플레이 패널 전체에 고르게 나타나는 경향이 있다. 두 번째로, 3D 광학 소자의 설계 또는 제작 상에서 발생한 오차에 기인한 3D 픽셀 크로스토크가 있다. 3D 픽셀 크로스토크는, 예를 들어 패럴랙스 배리어의 슬릿 크기, 렌티큘러 렌즈의 경사각(slanted angle) 또는 렌즈 수차(lens aberration) 등의 오차에 의해 발생할 수 있다.Embodiments to be described below may be used to increase the quality of a 3D image output through an eye-tracking type glasses-free 3D display. For example, the embodiments may reduce a crosstalk phenomenon of a 3D image viewed by both eyes of a viewer. The crosstalk phenomenon indicates that an image to be seen by the right eye is shown in the left eye and/or an image to be shown in the left eye is shown in the right eye, which is an incomplete separation between the image to be shown in the left eye and the image to be shown in the right eye. is due to In general, there are two major causes of the crosstalk phenomenon in the autostereoscopic 3D display. First, there is offset crosstalk due to diffraction or scattering that occurs when light passes through a 3D optical element, glue, or display pixel structure in a display. Offset crosstalk tends to appear evenly across the display panel regardless of the viewer's position. Second, there is a 3D pixel crosstalk due to an error occurring in the design or manufacturing of a 3D optical device. 3D pixel crosstalk may occur due to errors such as, for example, a slit size of a parallax barrier, a slanted angle of a lenticular lens, or lens aberration.

위와 같은 크로스토크 현상은 3D 영상의 품질에 큰 영향을 미치므로, 이를 저감시키는 것이 바람직하다. 실시예들은 시점 추적형 무안경 3D 디스플레이에서 이하에서 설명할 영상 처리 과정을 통해 크로스토크 현상을 저감시킬 수 있다. 실시예들의 일 측면에 따르면, 휘도 스케일링 값과 크로스토크 보정 값을 파라미터로서 입력 받고, 해당 파라미터에 기초하여 3D 렌더링을 수행하는 것에 의해 오프셋 크로스토크의 영향을 줄이고, 실시간 처리를 가능하게 한다. 또한, 각 영상 픽셀별로 실시간으로 3D 렌더링을 수행하는 과정에서 휘도(luminance) 성분을 적절히 조절하는 것에 의해 3D 픽셀 크로스토크의 영향을 줄일 수 있다. 또한, 실시예들의 다른 측면에 따르면, 3D 렌더링에 있어 영상 처리 과정의 복잡도를 줄이고, 영상 픽셀별 병렬 처리를 통해 고속 처리를 가능하게 한다. 이하 도면들을 참조하여 3D 영상 제공 장치에 의해 수행되는 3D 영상 제공 방법을 상세히 설명한다.Since the above crosstalk phenomenon has a great effect on the quality of 3D images, it is desirable to reduce it. Embodiments may reduce the crosstalk phenomenon in the eye-tracking type glasses-free 3D display through an image processing process to be described below. According to an aspect of the embodiments, the effect of offset crosstalk is reduced and real-time processing is enabled by receiving a luminance scaling value and a crosstalk correction value as parameters, and performing 3D rendering based on the parameters. In addition, the influence of 3D pixel crosstalk may be reduced by appropriately adjusting a luminance component in the process of performing 3D rendering for each image pixel in real time. In addition, according to another aspect of the embodiments, the complexity of an image processing process in 3D rendering is reduced, and high-speed processing is possible through parallel processing for each image pixel. Hereinafter, a 3D image providing method performed by a 3D image providing apparatus will be described in detail with reference to the drawings.

도 3 내지 도 5는 일 실시예에 따른 3D 영상 제공 방법의 동작을 설명하기 위한 흐름도들이다.3 to 5 are flowcharts illustrating an operation of a method for providing a 3D image according to an exemplary embodiment.

도 3을 참조하면, 단계(310)에서 3D 영상 제공 장치는 시청자의 눈의 위치를 검출한다. 3D 영상 제공 장치는 카메라를 이용하여 3D 영상 제공 장치의 전방을 촬영하고, 촬영된 영상을 분석하여 시청자의 눈 위치를 결정한다. 예를 들어, 3D 영상 제공 장치는 카메라에 촬영된 영상에서 눈 영역과 관련된 특징점을 검출하고, 검출된 특징점의 위치에 기반하여 시청자의 눈의 위치를 결정할 수 있다. 다른 예로, 3D 영상 제공 장치는 입력 영상에서 눈의 위치를 출력하도록 학습된 뉴럴 네트워크 기반의 검출기를 이용하여 눈의 위치를 결정할 수도 있다. 3D 영상 제공 장치는 위 예들 이외의 다른 기법을 이용하여 눈의 위치를 검출할 수도 있다.Referring to FIG. 3 , in step 310 , the 3D image providing apparatus detects the position of the viewer's eyes. The 3D image providing apparatus uses a camera to photograph the front of the 3D image providing apparatus, and analyzes the captured image to determine the position of the viewer's eyes. For example, the 3D image providing apparatus may detect a feature point related to an eye region from an image captured by a camera, and determine the position of the viewer's eye based on the position of the detected feature point. As another example, the 3D image providing apparatus may determine the eye position by using a neural network-based detector trained to output the eye position from the input image. The 3D image providing apparatus may detect the position of the eye by using a technique other than the above examples.

단계(320)에서, 3D 영상 제공 장치는 시청자의 눈의 위치에 따른 3D 영상을 제공한다. 앞서 설명한 것과 같이, 3D 영상 제공 장치는 시점 추적형 무안경 3D 디스플레이로서 기능하기 때문에, 시청자의 눈 위치에 기초하여 3D 영상을 렌더링한다. 동일한 컨텐츠를 출력한다 하더라도, 시청자의 눈 위치에 따라 디스플레이 패널을 통해 출력될 패널 영상의 구성이 달라질 수 있다. 시청자의 눈 위치에 따라 현재 디스플레이 픽셀에 좌시점 영상의 영상 픽셀 값이 할당될지 아니면 우시점 영상의 영상 픽셀 값이 할당될지 여부가 결정된다. 3D 영상의 렌더링은 시청자의 좌안 및 우안의 위치와 각 디스플레이 픽셀들로부터 출력되는 광선의 방향에 기초하여 각각의 디스플레이 픽셀마다 개별적으로 수행된다. 3D 영상 제공 장치가 3D 영상을 제공하는 과정에 대해서는, 도 4를 참조하여 이하에서 보다 상세히 설명한다.In step 320, the 3D image providing apparatus provides a 3D image according to the position of the viewer's eyes. As described above, since the 3D image providing apparatus functions as an eye-tracking type glasses-free 3D display, it renders a 3D image based on the viewer's eye position. Even if the same content is output, the composition of the panel image to be output through the display panel may vary according to the position of the viewer's eyes. It is determined whether the image pixel value of the left-view image or the image pixel value of the right-view image is allocated to the current display pixel according to the viewer's eye position. Rendering of the 3D image is performed individually for each display pixel based on the positions of the viewer's left and right eyes and the direction of light rays output from the respective display pixels. A process in which the 3D image providing apparatus provides a 3D image will be described in more detail below with reference to FIG. 4 .

도 4는 일 실시예에 따른 3D 영상 제공 장치가 3D 영상을 제공하는 과정을 보다 구체적으로 설명하기 위한 흐름도이다.4 is a flowchart illustrating in more detail a process of providing a 3D image by an apparatus for providing a 3D image according to an exemplary embodiment.

도 4를 참조하면, 단계(410)에서 3D 영상 제공 장치는 디스플레이 패널의 디스플레이 픽셀에 대응되는 영상 픽셀 값을 결정할 수 있다. 3D 영상 제공 장치는 검출된 눈의 위치에 기초하여 좌시점 영상 또는 우시점 영상 중 어느 하나의 영상 픽셀 값을 각각의 디스플레이 픽셀에 할당한다. 예를 들어, 현재 디스플레이 픽셀로부터 출력되는 광선의 방향(디스플레이 픽셀의 광선 방향)이 시청자의 우안보다 좌안의 위치에 더 가깝다면, 해당 디스플레이 픽셀에는 좌시점 영상의 영상 픽셀 값이 할당된다. 이와 반대로, 현재 디스플레이 픽셀의 광선 방향이 시청자의 좌안보다 우안의 위치에 더 가깝다면, 해당 디스플레이 픽셀에는 우시점 영상의 영상 픽셀 값이 할당된다.Referring to FIG. 4 , in operation 410 , the 3D image providing apparatus may determine an image pixel value corresponding to a display pixel of a display panel. The 3D image providing apparatus allocates an image pixel value of either a left-view image or a right-view image to each display pixel based on the detected eye position. For example, if the direction of a ray output from the current display pixel (the ray direction of the display pixel) is closer to the position of the left eye than the right eye of the viewer, the image pixel value of the left-view image is assigned to the corresponding display pixel. Conversely, if the ray direction of the current display pixel is closer to the position of the right eye than the left eye of the viewer, the image pixel value of the right-view image is assigned to the corresponding display pixel.

실시예에 따라, 3D 영상에서 크로스토크 성분을 더 줄이기 위해 일련의 영상 전처리 과정이 먼저 수행될 수 있다. 예를 들어, 3D 영상 제공 장치는 입력 영상들인 좌시점 영상 및 우시점 영상의 영상 픽셀 값들의 휘도 범위를 조절하고, 오프셋 크로스토크의 성분을 저감시키기 위한 크로스토크 보정 과정을 수행할 수 있다. 이에 대해서는 도 5를 참조하여 아래에서 보다 상세히 설명한다.According to an embodiment, a series of image preprocessing processes may be performed first to further reduce a crosstalk component in the 3D image. For example, the 3D image providing apparatus may adjust a luminance range of image pixel values of a left-view image and a right-view image, which are input images, and perform a crosstalk correction process to reduce an offset crosstalk component. This will be described in more detail below with reference to FIG. 5 .

단계(420)에서, 3D 영상 제공 장치는 디스플레이 픽셀의 광선 방향 과 단계(310)에서 검출된 눈의 위치에 기초하여 각 디스플레이 픽셀에 대응되는 휘도 가중치를 결정한다. 예를 들어, 현재 디스플레이 픽셀의 광선 방향이 좌안 또는 우안의 위치에 가까운 경우, 3D 영상 제공 장치는 현재 디스플레이 픽셀에 큰 휘도 가중치를 할당할 수 있다. 이와 다르게, 현재 디스플레이 픽셀의 광선 방향이 좌안과 우안의 위치로부터 먼 경우 또는 해당 광선 방향이 좌안과 우안 사이의 중간 위치에 가까운 경우에 현재 디스플레이 픽셀에 상대적으로 작은 휘도 가중치를 할당할 수 있다.In operation 420 , the 3D image providing apparatus determines a luminance weight corresponding to each display pixel based on the light direction of the display pixel and the position of the eye detected in operation 310 . For example, when the ray direction of the current display pixel is close to the position of the left eye or the right eye, the 3D image providing apparatus may assign a large luminance weight to the current display pixel. Alternatively, a relatively small luminance weight may be assigned to the current display pixel when the ray direction of the current display pixel is far from the positions of the left and right eyes or the corresponding ray direction is close to the intermediate position between the left and right eyes.

일 실시예에서, 3D 영상 제공 장치는 현재 디스플레이 픽셀의 광선 방향과 시청자의 좌안의 위치 간의 가까운 정도를 나타내는 제1 기준 값 및 해당 광선 방향과 시청자의 우안의 위치 간의 가까운 정도를 나타내는 제2 기준 값 중 하나 이상에 기초하여 휘도 가중치를 결정할 수 있다. 여기서, 제1 기준 값은 현재 디스플레이 픽셀의 광선 방향과 현재 디스플레이 픽셀로부터 시청자의 좌안을 향하는 방향 간의 차이를 나타내고, 제2 기준 값은, 현재 디스플레이 픽셀의 광선 방향과 현재 디스플레이 픽셀로부터 시청자의 우안을 향하는 방향 간의 차이를 나타낸다. 예를 들어, 제1 기준 값은 현재 디스플레이 픽셀로부터 좌안의 위치로 향하는 선의 방향과 현재 디스플레이 픽셀의 광선 방향 간의 각도 또는 해당 광선 방향과 좌안의 위치 간의 거리에 기초하여 결정되고, 제2 기준 값은 현재 디스플레이 픽셀로부터 우안의 위치로 향하는 선의 방향과 현재 디스플레이 픽셀의 광선 방향 간의 각도 또는 해당 광선 방향과 우안의 위치 간의 거리에 기초하여 결정될 수 있다. 디스플레이 픽셀의 광선 방향과 좌안의 위치가 서로 가까울수록 제1 기준 값은 작아지고, 디스플레이 픽셀의 광선 방향과 우안의 위치가 서로 가까울수록 제2 기준 값은 작아질 수 있다.In an embodiment, the apparatus for providing 3D images includes a first reference value indicating a degree of closeness between a light ray direction of a current display pixel and a position of the viewer's left eye and a second reference value indicating a degree of closeness between a corresponding light ray direction and a position of the viewer's right eye The luminance weight may be determined based on one or more of. Here, the first reference value represents a difference between a ray direction of the current display pixel and a direction from the current display pixel to the viewer's left eye, and the second reference value is a ray direction of the current display pixel and the viewer's right eye from the current display pixel. Represents the difference between directions. For example, the first reference value is determined based on an angle between a direction of a line from the current display pixel to the position of the left eye and a ray direction of the current display pixel or a distance between the ray direction and the position of the left eye, and the second reference value is It may be determined based on an angle between a direction of a line from the current display pixel to the position of the right eye and a ray direction of the current display pixel or a distance between the ray direction and the position of the right eye. The first reference value may decrease as the light ray direction of the display pixel and the position of the left eye are closer to each other, and the second reference value may decrease as the light ray direction of the display pixel and the position of the right eye are closer to each other.

일 실시예에서, 3D 영상 제공 장치는 위 제1 기준 값 및 제2 기준 값 중 하나 이상에 기초하여, 미리 정의된 서로 다른 휘도 가중치들 중 어느 하나의 휘도 가중치를 디스플레이 픽셀에 대응되는 휘도 가중치로 결정할 수 있다. 예를 들어, 좌안의 위치를 기준으로 하는 제1 기준 값 범위에 해당 제1 기준 값이 포함되거나 또는 우안의 위치를 기준으로 하는 제2 기준 값 범위에 해당 제2 기준 값이 포함되는 경우, 3D 영상 제공 장치는 제1 휘도 가중치를 디스플레이 픽셀에 대응되는 휘도 가중치로 결정할 수 있다. 이와 반대로, 제1 기준 값이 제1 기준 값 범위에 포함되지 않고, 제2 기준 값이 제2 기준 값 범위에 포함되지 않는 경우, 3D 영상 제공 장치는 제2 휘도 가중치를 디스플레이 픽셀에 대응되는 휘도 가중치로 결정할 수 있다. 여기서, 제1 기준 값 범위의 크기는 제2 기준 값 범위의 크기와 동일하고, 제1 휘도 가중치는 제2 휘도 가중치보다 클 수 있다. 제1 기준 값이 제1 기준 값 범위에 포함되거나 또는 제2 기준 값이 제2 기준 값 범위에 포함된다는 것은, 디스플레이 픽셀의 광선 방향이 좌안 또는 우안에 가깝다는 것을 나타낸다. 이 경우, 큰 휘도 가중치가 해당 디스플레이 픽셀에 할당된다. 예를 들어, 100%의 휘도 가중치가 할당되는 경우, 영상 픽셀 값의 휘도를 줄이는 것 없이 원래 휘도 그대로의 영상 픽셀 값이 해당 디스플레이 픽셀을 통해 출력된다. In an embodiment, the 3D image providing apparatus uses any one of predefined different luminance weights as a luminance weight corresponding to the display pixel based on at least one of the first reference value and the second reference value. can decide For example, when the corresponding first reference value is included in the first reference value range based on the position of the left eye or the second reference value is included in the second reference value range based on the position of the right eye, 3D The image providing apparatus may determine the first luminance weight as the luminance weight corresponding to the display pixel. Conversely, when the first reference value is not included in the first reference value range and the second reference value is not included in the second reference value range, the 3D image providing apparatus assigns the second luminance weight to the luminance corresponding to the display pixel. It can be determined by weight. Here, the size of the first reference value range may be the same as the size of the second reference value range, and the first luminance weight may be greater than the second luminance weight. That the first reference value is included in the first reference value range or the second reference value is included in the second reference value range indicates that the ray direction of the display pixel is close to the left eye or the right eye. In this case, a large luminance weight is assigned to the corresponding display pixel. For example, when a luminance weight of 100% is assigned, an image pixel value with original luminance is output through a corresponding display pixel without reducing the luminance of the image pixel value.

제1 기준 값이 제1 기준 값 범위에 포함되지 않고, 제2 기준 값이 제2 기준 값 범위에 포함되지 않는다는 것은 디스플레이 픽셀의 광선 방향이 좌안 및 우안에서 멀다는 것을 나타낸다. 이 경우, 작은 휘도 가중치가 해당 디스플레이 픽셀에 할당된다. 예를 들어, 50%의 휘도 가중치가 할당되는 경우, 영상 픽셀 값의 휘도를 50%로 줄여서 해당 디스플레이 픽셀을 통해 출력하게 된다. 또한, 디스플레이 픽셀의 광선 방향이 좌안과 우안 사이의 중간 위치에 가까운 경우에도 작은 휘도 가중치가 할당될 수 있다. 이 때, 휘도 가중치는 제1 기준 값 또는 제2 기준 값의 크기에 따라 결정될 수도 있다. 예를 들어, 휘도 가중치는 50%, 60%, ..., 90% 및 100%과 같이 미리 정의된 값들 중 어느 하나로 결정될 수도 있고, 미리 정의된 함수에 기초하여 결정될 수도 있다. 이와 같은 과정을 통해 좌안에 우시점 영상이 보여지거나 우안에 좌시점 영상이 보여지는 것이 줄어 들어 크로스토크 현상이 저감될 수 있다.That the first reference value is not included in the first reference value range and the second reference value is not included in the second reference value range indicates that the ray direction of the display pixel is far from the left eye and the right eye. In this case, a small luminance weight is assigned to the corresponding display pixel. For example, when a luminance weight of 50% is assigned, the luminance of an image pixel value is reduced to 50% and outputted through a corresponding display pixel. In addition, a small luminance weight may be assigned even when the ray direction of the display pixel is close to an intermediate position between the left eye and the right eye. In this case, the luminance weight may be determined according to the size of the first reference value or the second reference value. For example, the luminance weight may be determined as any one of predefined values such as 50%, 60%, ..., 90%, and 100%, or may be determined based on a predefined function. Through such a process, a right-view image is shown in the left eye or a left-view image is reduced in the right eye, so that the crosstalk phenomenon can be reduced.

단계(430)에서, 3D 영상 제공 장치는 디스플레이 픽셀에 할당된 영상 픽셀 값에 단계(420)에서 결정된 휘도 가중치를 적용한다. 영상 픽셀 값에 적용되는 휘도 가중치에 의해 디스플레이 픽셀을 통해 출력될 영상 픽셀 값의 휘도가 조절될 수 있다. 위에서 설명한 바와 같이, 예를 들어 휘도 가중치가 100%인 경우 원래의 휘도 그대로의 영상 픽셀 값이 출력되고, 휘도 가중치가 100% 보다 작은 경우에는 원래의 휘도보다 작은 휘도의 영상 픽셀 값이 출력된다.In operation 430, the 3D image providing apparatus applies the luminance weight determined in operation 420 to the image pixel values allocated to the display pixels. The luminance of the image pixel value to be output through the display pixel may be adjusted by the luminance weight applied to the image pixel value. As described above, for example, when the luminance weight is 100%, an image pixel value of the original luminance is output, and when the luminance weight is less than 100%, an image pixel value of a luminance smaller than the original luminance is output.

단계(440)에서, 3D 영상 제공 장치는 휘도 가중치가 적용된 영상 픽셀 값을 디스플레이 픽셀을 통해 출력한다. 3D 영상 제공 장치는 위 과정을 통해 각각의 디스플레이 픽셀들에 대응하는 휘도 가중치를 결정하고, 휘도 가중치가 적용된 영상 픽셀 값을 디스플레이 픽셀을 통해 출력함으로써 크로스토크 성분이 줄어든 3D 영상을 출력할 수 있다.In operation 440, the 3D image providing apparatus outputs the image pixel value to which the luminance weight is applied through the display pixel. The 3D image providing apparatus may output a 3D image with reduced crosstalk component by determining a luminance weight corresponding to each display pixel through the above process and outputting an image pixel value to which the luminance weight is applied through the display pixel.

도 5는 일 실시예에 따른 디스플레이 픽셀에 할당될 영상 픽셀 값을 결정하는 과정을 보다 구체적으로 설명하기 위한 흐름도이다. 아래에서 설명할 것과 같이, 3D 영상 제공 장치는 휘도 스케일링 값과 크로스토크 보정 값을 파라미터로서 입력 받아 오프셋 크로스토크를 보정하는데 이용할 수 있다.5 is a flowchart illustrating in more detail a process of determining an image pixel value to be assigned to a display pixel according to an exemplary embodiment. As will be described below, the 3D image providing apparatus may receive a luminance scaling value and a crosstalk correction value as parameters and use it to correct offset crosstalk.

도 5를 참조하면, 단계(510)에서 3D 영상 제공 장치는 미리 정의된 휘도 스케일링 값에 기초하여 좌시점 영상의 영상 픽셀들의 휘도 범위와 우시점 영상의 영상 픽셀들의 휘도 범위를 조절한다. 일 실시예에서, 휘도 스케일링 값은 영상 픽셀들의 최소 휘도 값과 최대 휘도 값 중 하나 이상에 대한 정보를 포함할 수 있다. 3D 영상 제공 장치는 휘도 스케일링 값에 나타난 최소 휘도 값 및/또는 최대 휘도 값에 기초하여 영상 픽셀들의 휘도 범위를 스케일링할 수 있다.Referring to FIG. 5 , in operation 510 , the 3D image providing apparatus adjusts a luminance range of image pixels of a left-view image and a luminance range of image pixels of a right-view image based on a predefined luminance scaling value. In an embodiment, the luminance scaling value may include information on at least one of a minimum luminance value and a maximum luminance value of image pixels. The 3D image providing apparatus may scale the luminance range of the image pixels based on the minimum luminance value and/or the maximum luminance value indicated in the luminance scaling value.

예를 들어, 영상 픽셀들의 휘도 범위가 [0-255]라고 가정하면, 3D 영상 제공 장치는 휘도 스케일링 값에 기초하여 영상 픽셀들의 휘도 범위를 [20-230]으로 스케일링할 수 있다. 스케일링이 수행된 이후, 영상 픽셀들의 최소 휘도 값은 20 이상으로, 최대 휘도 값은 230 이하로 조절된다. 이러한 스케일링은 추후 영상 픽셀 값의 조정 과정에서 영상 픽셀 값의 여유(margin) 범위를 확보하기 위함이다.For example, assuming that the luminance range of the image pixels is [0-255], the 3D image providing apparatus may scale the luminance range of the image pixels to [20-230] based on the luminance scaling value. After scaling is performed, the minimum luminance value of the image pixels is adjusted to 20 or more, and the maximum luminance value is adjusted to 230 or less. This scaling is to secure a margin range of the image pixel values in the process of adjusting the image pixel values later.

단계(520)에서, 3D 영상 제공 장치는 미리 정의된 크로스토크 보정 값에 기초하여, 단계(310)에서 휘도 범위가 조절된 좌시점 영상 및 우시점 영상의 영상 픽셀들의 휘도 값을 조절한다. 3D 영상 제공 장치는 감마 복호화(gamma decoding)를 통해 영상 픽셀들의 영상 픽셀 값을 RGB(Red, Green, Blue) 컬러 공간에서 휘도 공간으로 변환하여 휘도 값을 추출하고, 해당 휘도 값에 크로스토크 보정 값을 적용하여 휘도 값에서 크로스토크 성분을 차감한다. 예를 들어, 미리 정의된 크로스토크 보정 값이 3%라고 가정하면, 해당 크로스토크 보정 값이 휘도 값에 적용되는 것에 의해 휘도 값에서 원래의 휘도 값의 3%에 해당하는 휘도 값만큼 차감된다. 이후에, 3D 영상 제공 장치는 감마 부호화(gamma encoding)를 통해 크로스토크 보정 값이 적용된 영상 픽셀 값을 휘도 공간에서 RGB 컬러 공간으로 다시 변환할 수 있다. 단계(510)과 단계(520)의 과정을 거쳐 좌시점 영상 및 우시점 영상의 영상 픽셀들의 휘도 범위가 스케일링되고, 크로스토크 보상을 위해 휘도 값이 조정된다.In operation 520, the 3D image providing apparatus adjusts the luminance values of the image pixels of the left-view image and the right-view image whose luminance ranges are adjusted in operation 310, based on a predefined crosstalk correction value. The 3D image providing apparatus converts the image pixel values of image pixels from the RGB (Red, Green, Blue) color space to the luminance space through gamma decoding to extract the luminance value, and adds a crosstalk correction value to the luminance value. to subtract the crosstalk component from the luminance value. For example, assuming that the predefined crosstalk correction value is 3%, the luminance value is subtracted from the luminance value by a luminance value corresponding to 3% of the original luminance value by applying the crosstalk correction value to the luminance value. Thereafter, the 3D image providing apparatus may convert the image pixel value to which the crosstalk correction value is applied from the luminance space back to the RGB color space through gamma encoding. Through the processes of steps 510 and 520, the luminance ranges of the image pixels of the left-view image and the right-view image are scaled, and the luminance value is adjusted for crosstalk compensation.

단계(530)에서, 3D 영상 제공 장치는 디스플레이 픽셀의 광선 방향이 우안과 좌안 중 어느 것에 더 가까운지 여부를 결정한다. 디스플레이 픽셀의 광선 방향이 우안보다 좌안의 위치에 더 가까운 경우, 단계(540)에서 3D 영상 제공 장치는 단계(520)를 거쳐 휘도 값이 조절된 좌시점 영상의 영상 픽셀 값을 해당 디스플레이 픽셀에 할당한다. 이와 다르게, 디스플레이 픽셀의 광선 방향이 좌안보다 우안의 위치에 더 가까운 경우, 단계(550)에서 3D 영상 제공 장치는 휘도 값이 조절된 우시점 영상의 영상 픽셀 값을 해당 디스플레이 픽셀에 할당한다. 3D 영상 제공 장치는 이와 같은 영상 픽셀 값의 할당 과정을 전체 디스플레이 픽셀들 각각에 대해 수행하고, 그 결과 패널 영상이 생성된다.In step 530 , the 3D image providing apparatus determines whether the light ray direction of the display pixel is closer to either the right eye or the left eye. When the ray direction of the display pixel is closer to the position of the left eye than the right eye, in step 540 , the 3D image providing apparatus assigns the image pixel value of the left-view image whose luminance value is adjusted through step 520 to the corresponding display pixel. do. Alternatively, when the ray direction of the display pixel is closer to the position of the right eye than the position of the left eye, the 3D image providing apparatus allocates the image pixel value of the right-view image whose luminance value is adjusted to the corresponding display pixel in step 550 . The 3D image providing apparatus performs this process of allocating image pixel values for all display pixels, and as a result, a panel image is generated.

도 6a 및 도 6b는 일 실시예에 따른 디스플레이 픽셀의 광선 방향과 눈의 위치에 기초하여 제1 및 제2 기준 값을 결정하는 일례들을 설명하기 위한 도면들이다.6A and 6B are diagrams for explaining examples of determining first and second reference values based on a light ray direction of a display pixel and a position of an eye according to an exemplary embodiment;

도 6a를 참조하면, 디스플레이 패널(610)에 포함된 디스플레이 픽셀(615)로부터 출력된 광선은 3D 광학 소자에 의해 특정한 방향(617)으로 진행된다. 이러한 디스플레이 픽셀(615)의 광선 방향(617)은 3D 광학 소자의 구조적인 특징에 의해 정의된다. 시청자의 좌안(620)의 위치와 우안(625)의 위치가 결정되면, 3D 영상 제공 장치는 디스플레이 픽셀(615)의 광선 방향(617)과 각각의 좌안(620)의 위치 및 우안(625)의 위치 간의 가까운 정도를 나타내는 제1 기준 값 및 제2 기준 값을 결정할 수 있다.Referring to FIG. 6A , the light beam output from the display pixel 615 included in the display panel 610 travels in a specific direction 617 by the 3D optical element. The ray direction 617 of this display pixel 615 is defined by the structural features of the 3D optical element. When the position of the left eye 620 and the position of the right eye 625 of the viewer are determined, the 3D image providing apparatus provides a ray direction 617 of the display pixel 615 and the position of each left eye 620 and the position of the right eye 625 . A first reference value and a second reference value indicating a degree of closeness between the locations may be determined.

예를 들어, 3D 영상 제공 장치는 좌안(620)의 중심 위치와 우안(625)의 중심 위치를 지나는 직선(630) 상에서 광선 방향(617)이 지나는 통과점(pass-through point)을 결정할 수 있다. 3D 영상 제공 장치는 통과점의 위치와 좌안(620)의 위치 간의 거리 차이(640)를 제1 기준 값으로 결정하고, 통과점의 위치와 우안(625)의 위치 간의 거리 차이(645)를 제2 기준 값으로 결정할 수 있다. 3D 영상 제공 장치는 거리 차이(640) 및 거리 차이(645)를 비교하여, 좌안(620)과 우안(625) 중 디스플레이 픽셀(615)의 광선 방향(617)에 더 가까운 것을 결정할 수 있다. 도 6a의 경우, 거리 차이(640)가 거리 차이(645)보다 작으므로, 광선 방향(617)은 좌안(620)에 더 가까운 것으로 결정된다.For example, the 3D image providing apparatus may determine a pass-through point through which the light beam direction 617 passes on a straight line 630 passing through the center position of the left eye 620 and the center position of the right eye 625 . . The 3D image providing apparatus determines the distance difference 640 between the position of the passing point and the position of the left eye 620 as a first reference value, and removes the distance difference 645 between the position of the passing point and the position of the right eye 625 . 2 It can be determined as a reference value. The 3D image providing apparatus may compare the distance difference 640 and the distance difference 645 to determine which of the left eye 620 and the right eye 625 is closer to the ray direction 617 of the display pixel 615 . 6A , since the distance difference 640 is less than the distance difference 645 , the ray direction 617 is determined to be closer to the left eye 620 .

도 6b를 참조하면, 제1 기준 값과 제2 기준 값은 각도 차이에 기초하여 결정될 수 있다. 예를 들어, 디스플레이 픽셀(615)로부터 좌안(620)의 위치로 향하는 선(650)의 방향과 디스플레이 픽셀(615)로부터 출력되는 광선의 방향(617)이 이루는 각도(660)가 제1 기준 값으로 결정되고, 디스플레이 픽셀(615)로부터 우안(625)의 위치로 향하는 선(655)의 방향과 디스플레이 픽셀(615)의 광선 방향(617)이 이루는 각도(665)가 제2 기준 값으로 결정될 수 있다. 3D 영상 제공 장치는 각도(660) 및 각도(665)를 비교하여, 좌안(620)과 우안(625) 중 디스플레이 픽셀(615)의 광선 방향(617)에 더 가까운 것을 결정할 수 있다. 도 6b의 경우, 각도(660)가 각도(665)보다 작으므로, 광선 방향(617)은 좌안(620)에 더 가까운 것으로 결정된다.Referring to FIG. 6B , the first reference value and the second reference value may be determined based on an angle difference. For example, the angle 660 formed by the direction of the line 650 from the display pixel 615 toward the position of the left eye 620 and the direction 617 of the light ray output from the display pixel 615 is the first reference value. is determined, and the angle 665 formed by the direction of the line 655 from the display pixel 615 toward the position of the right eye 625 and the light ray direction 617 of the display pixel 615 may be determined as the second reference value. have. The 3D image providing apparatus may compare the angle 660 and the angle 665 to determine which of the left eye 620 and the right eye 625 is closer to the ray direction 617 of the display pixel 615 . 6B , since angle 660 is less than angle 665 , ray direction 617 is determined to be closer to left eye 620 .

도 7은 일 실시예에 따른 시점 추적형 무안경 3D 디스플레이 장치에서 시점 정보를 병합하는 것을 설명하기 위한 도면이다.7 is a view for explaining merging of viewpoint information in the eye tracking type glasses-free 3D display apparatus according to an embodiment.

도 7을 참조하면, 시청 방향별 휘도 프로파일(profile; 705)과 좌시점과 우시점으로 시점 병합된 후의 휘도 프로파일(717)이 도시되어 있다. 휘도 프로파일(705)에서, 점선 그래프(710)들은 좌시점 영상이 출력되는 각 시청 방향들의 휘도 분포 특성을 나타내고, 실선 그래프(715)들은 우시점 영상이 출력되는 각 시청 방향들의 휘도 분포 특성을 나타낸다. 휘도 프로파일(717)은 휘도 프로파일(705)에 나타난 시청 방향별 휘도 분포 특성을 각각 좌시점과 우시점으로 병합하여 나타낸 것이다. 여기서, 'A'는 시청자의 좌안의 위치를 나타내고, 'B'는 시청자의 우안의 위치를 나타낸다. 좌안과 우안의 위치에 따라 시점 정보를 병합하는 것에 의해 크로스토크가 저감될 수 있다. 다만, 휘도 프로파일(717)에 따르면, 좌안에 여러 시청 방향들로 출력된 좌시점 영상의 휘도 성분(720)뿐만 아니라 우시점 영상의 휘도 성분(725)도 도달할 수 있다. 좌안의 위치에 도달하는 우시점 영상의 휘도 성분(730)은 크로스토크 성분에 해당한다. 또한, 우안에 좌시점 영상의 휘도 성분(720)이 도달하게 되면, 우안의 위치에 도달하는 좌시점 영상의 휘도 성분(735)도 크로스토크 성분에 해당한다. 이러한 크로스토크 성분들은 본 명세서에서 제시된 휘도 가중치를 이용하는 것에 의해 저감될 수 있다.Referring to FIG. 7 , a luminance profile 705 for each viewing direction and a luminance profile 717 after merging the left and right views are shown. In the luminance profile 705 , the dotted line graphs 710 indicate the luminance distribution characteristics of each viewing direction in which the left-view image is output, and the solid-line graphs 715 indicate the luminance distribution characteristic of each viewing direction in which the right-view image is output. . The luminance profile 717 is obtained by merging the luminance distribution characteristics for each viewing direction shown in the luminance profile 705 into a left view and a right view, respectively. Here, 'A' indicates the position of the viewer's left eye, and 'B' indicates the position of the viewer's right eye. Crosstalk can be reduced by merging viewpoint information according to the positions of the left and right eyes. However, according to the luminance profile 717 , not only the luminance component 720 of the left-view image output in various viewing directions to the left eye but also the luminance component 725 of the right-view image may reach the left eye. The luminance component 730 of the right-view image reaching the position of the left eye corresponds to the crosstalk component. Also, when the luminance component 720 of the left-view image reaches the right eye, the luminance component 735 of the left-view image that reaches the position of the right eye also corresponds to a crosstalk component. These crosstalk components can be reduced by using the luminance weights presented herein.

도 8a 내지 도 9b는 일 실시예에 따른 시청자의 눈의 위치에 따른 휘도 가중치를 결정하는 일례를 설명하기 위한 도면들이다.8A to 9B are diagrams for explaining an example of determining a luminance weight according to a position of a viewer's eye according to an exemplary embodiment.

도 8a를 참조하면, 디스플레이 패널(810)에서 출력되는 3D 영상은 시청자의 좌안(820)과 우안(825)에 도달한다. 3D 영상 제공 장치는 디스플레이 패널(810)의 각 디스플레이 픽셀로부터 출력되는 광선의 방향과 좌안(820)과 우안(825)의 위치에 기초하여, 디스플레이 픽셀에 좌시점 영상의 영상 픽셀 값 또는 우시점 영상의 영상 픽셀 값을 할당하는 과정을 수행한다. 도 8a에는 좌안(820)의 위치에서 병합된 좌시점 영상의 휘도 프로파일(830)과 우안(825)의 위치에서 병합된 우시점 영상의 휘도 프로파일(835)이 도시되어 있다. 도 7에서 설명한 것과 같이, 좌안(820) 및 우안(825) 각각의 위치에서는 의도하지 않은 시점 영상이 전달되어 크로스토크 현상이 발생할 수 있다. Referring to FIG. 8A , the 3D image output from the display panel 810 reaches the viewer's left eye 820 and right eye 825 . The 3D image providing apparatus may display the image pixel value of the left-view image or the right-view image in the display pixel based on the direction of the light beam output from each display pixel of the display panel 810 and the positions of the left eye 820 and the right eye 825 . The process of allocating image pixel values of FIG. 8A shows a luminance profile 830 of a left-view image merged at a position of the left eye 820 and a luminance profile 835 of a right-view image merged at a position of the right eye 825 . As described with reference to FIG. 7 , an unintended viewpoint image is transmitted from each of the positions of the left eye 820 and the right eye 825 , so that a crosstalk phenomenon may occur.

도 8b를 참조하면, 3D 영상 제공 장치는 디스플레이 픽셀들에 할당될 영상 픽셀 값에 휘도 가중치를 적용하는 것에 의해 크로스토크 현상을 저감시킬 수 있다. 3D 영상 제공 장치는 각 디스플레이 픽셀들의 광선 방향과 좌안(820) 및 우안(825)의 위치에 기초하여 각 디스플레이 픽셀들에 대응하는 휘도 가중치의 크기를 결정할 수 있다. 3D 영상 제공 장치는 영상 픽셀 값을 디스플레이 픽셀에 맵핑할 때, 디스플레이 픽셀의 광선 방향과 좌안(820) 및 우안(825)의 위치를 비교하여, 해당 영상 픽셀 값에 적용될 휘도 가중치의 크기를 결정할 수 있다. 일 실시예에서, 3D 영상 제공 장치는 광선 방향이 좌안(820) 또는 우안(825)의 위치에 가까운 경우에는 영상 픽셀 값의 원래의 휘도 값을 유지하도록 휘도 가중치의 크기를 100%로 결정하고, 광선 방향이 좌안(820) 또는 우안(825)의 위치에서 먼 경우에는 낮은 휘도 가중치를 적용하여 영상 픽셀 값의 휘도 값을 낮출 수 있다.Referring to FIG. 8B , the 3D image providing apparatus may reduce the crosstalk phenomenon by applying a luminance weight to image pixel values to be allocated to display pixels. The 3D image providing apparatus may determine the size of the luminance weight corresponding to each display pixel based on the light ray direction of each display pixel and the positions of the left eye 820 and the right eye 825 . When mapping an image pixel value to a display pixel, the 3D image providing apparatus compares the ray direction of the display pixel with the positions of the left and right eyes 820 and 825 to determine the magnitude of the luminance weight applied to the corresponding image pixel value. have. In one embodiment, the 3D image providing apparatus determines the magnitude of the luminance weight to 100% so as to maintain the original luminance value of the image pixel value when the ray direction is close to the position of the left eye 820 or the right eye 825, When the light beam direction is far from the position of the left eye 820 or the right eye 825 , a luminance value of an image pixel value may be lowered by applying a low luminance weight.

일 실시예에서, 3D 영상 제공 장치는 디스플레이 픽셀의 광선 방향과 좌안(820)과 우안(825) 각각의 위치에 기초하여 제1 기준 값 및 제2 기준 값을 결정하고, 제1 기준 값이 좌안(820)의 위치를 중심으로 하는 제1 기준 값 범위에 포함되거나 또는 제2 기준 값이 우안(825)의 위치를 중심으로 하는 제2 기준 값 범위에 포함되는 경우에는 100%의 휘도 가중치를 디스플레이 픽셀에 할당될 영상 픽셀 값에 적용할 수 있다. 제1 기준 값이 제1 기준 값 범위에 포함되지 않고, 제2 기준 값이 제2 기준 값 범위에 포함되지 않는 경우, 100%보다 낮은 휘도 가중치(예를 들어, 50%)가 해당 영상 픽셀 값에 적용되어 원래의 휘도 값보다 낮은 휘도 값의 영상 픽셀 값이 출력될 수 있다. 이와 같이, 디스플레이 픽셀의 광선 방향과 시청자의 좌안(820)과 우안(825)의 위치에 기초하여 각 디스플레이 픽셀들에 대응하는 휘도 가중치를 결정하고, 결정된 휘도 가중치를 각 디스플레이 픽셀을 통해 출력될 영상 픽셀 값에 적용하는 것에 의해 좌안(820)과 우안(825)에 직접 영상을 투사하지 않는 디스플레이 픽셀의 영향이 줄어들어 크로스토크 성분이 저감될 수 있다. 아래는 휘도 가중치(850)를 각각의 디스플레이 픽셀들에 적용한 실시예에서, 좌안(820)의 위치에서 병합된 좌시점 영상의 휘도 프로파일(840)과 우안(825)의 위치에서 병합된 우시점 영상의 휘도 프로파일(845)을 나타낸다. 휘도 프로파일들(840, 845)을 도 8a의 휘도 프로파일들(830, 835)과 비교하면, 휘도 가중치를 적용하는 것에 의해 좌안(820) 및 우안(825) 각각의 위치에서 크로스토크 성분이 낮아진 것을 알 수 있다.In an embodiment, the apparatus for providing a 3D image determines the first reference value and the second reference value based on the ray direction of the display pixel and the positions of the left eye 820 and the right eye 825, and the first reference value is the left eye. When included in the first reference value range centered on the position of 820 or the second reference value is included in the second reference value range centered on the position of the right eye 825, a 100% luminance weight is displayed. It can be applied to the image pixel value to be assigned to the pixel. When the first reference value is not included in the first reference value range and the second reference value is not included in the second reference value range, a luminance weight (for example, 50%) lower than 100% is a corresponding image pixel value may be applied to output an image pixel value having a luminance value lower than the original luminance value. In this way, a luminance weight corresponding to each display pixel is determined based on the ray direction of the display pixel and the positions of the left eye 820 and right eye 825 of the viewer, and the determined luminance weight is applied to the image to be output through each display pixel. By applying the pixel values to the pixel values, the influence of display pixels that do not directly project an image to the left eye 820 and the right eye 825 is reduced, so that a crosstalk component can be reduced. Below is the luminance profile 840 of the left-view image merged at the position of the left eye 820 and the merged right-view image at the position of the right eye 825 in an embodiment in which the luminance weight 850 is applied to each display pixel. shows the luminance profile 845 of Comparing the luminance profiles 840 and 845 with the luminance profiles 830 and 835 of FIG. 8A shows that the crosstalk component is lowered at each position of the left eye 820 and the right eye 825 by applying the luminance weight. Able to know.

도 9a는 휘도 가중치를 이용하지 않은 실시예에서, 무안경 3D 디스플레이 장치에서 우안에 보여지는 시청 방향별 영상의 상대적인 휘도 크기를 나타낸 도면이다. 도 9a를 참조하면, 우안이 대략적으로 시청 방향 '33'에 가깝게 위치하고 있음을 추정할 수 있다. 여기서, 시청 방향들은 무안경 3D 디스플레이 장치의 위치를 기준으로 하는 시청 영역을, 시청자가 무안경 3D 디스플레이 장치로부터 출력되는 3D 영상을 시청할 수 있는 복수 개의 시청 방향들로 구분한 것이다. 좌안보다 우안에 더 가까운 시청 방향 '23'부터 '45'에 대응되는 디스플레이 픽셀들은 우시점 영상의 영상 픽셀 값을 출력한다. 우안보다 좌안의 위치에 더 가까운 시청 방향 '1'부터 '22'에 대응되는 디스플레이 픽셀들은 좌시점 영상의 영상 픽셀 값을 출력한다. 우안에는 시청 방향별로 우시점 영상의 휘도 성분(910)뿐만 아니라, 좌시점 영상의 휘도 성분(920)도 일부 보여질 수 있다. 우안에 보여지는 좌시점 영상의 휘도 성분(920)은 크로스토크 현상을 유발할 수 있다. 이러한 크로스토크 현상은 본 명세서에서 설명한 휘도 가중치를 이용함으로써 저감될 수 있다.FIG. 9A is a diagram illustrating relative luminance magnitudes of images for each viewing direction viewed by a right eye in an autostereoscopic 3D display apparatus according to an embodiment in which luminance weights are not used. Referring to FIG. 9A , it can be estimated that the right eye is approximately located close to the viewing direction '33'. Here, the viewing directions are defined by dividing the viewing area based on the position of the autostereoscopic 3D display device into a plurality of viewing directions in which the viewer can view the 3D image output from the autostereoscopic 3D display device. Display pixels corresponding to viewing directions '23' to '45' closer to the right eye than the left eye output image pixel values of the right-view image. Display pixels corresponding to viewing directions '1' to '22' closer to the position of the left eye than the right eye output image pixel values of the left-view image. In the right eye, not only the luminance component 910 of the right-view image but also the luminance component 920 of the left-view image may be partially shown for each viewing direction. The luminance component 920 of the left-view image shown by the right eye may cause a crosstalk phenomenon. Such a crosstalk phenomenon can be reduced by using the luminance weights described in this specification.

도 9b는 일 실시예에 따른 시청 방향별로 적용되는 휘도 가중치의 크기와 휘도 가중치가 적용된 경우에 우안의 위치에서 보이는 시청 방향별 우시점 영상 및 좌시점 영상의 휘도 성분의 크기를 도시한다. 도 9b를 참조하면, 광선 방향에 따라 디스플레이 픽셀들에 적용되는 휘도 가중치의 크기가 연속적인 그래프(930)로 도시되어 있다. 또한, 휘도 가중치가 적용되었을 때, 우안의 위치에서 보이는 각 시청 방향에서의 우시점 영상의 휘도 성분(915)과 각 시청 방향에서의 좌시점 영상의 휘도 성분(925)이 도시되어 있다. 본 실시예에서, 디스플레이 픽셀의 광선 방향이 좌안 또는 우안에 가까운 경우 100%의 휘도 가중치가 적용되고, 해당 광선 방향이 좌안과 우안의 중간 위치(대략적으로, 시청 방향 '22') 부근에는 50%의 낮은 크기의 휘도 가중치가 적용된다. 디스플레이 픽셀의 광선 방향이, 좌안 또는 우안에 가까운 위치로부터 좌안과 우안의 중간 위치 사이에 위치하는 디스플레이 픽셀들에는 선형적으로 감소하는 휘도 가중치가 적용될 수 있다. 또한, 좌안과 우안의 위치에서 먼 광선 방향들을 가지는 디스플레이 픽셀들에도 낮은 크기의 휘도 가중치가 적용될 수 있다. 이러한 휘도 가중치의 적용으로 인하여 우안에 보이는 좌시점 영상의 휘도 성분(920)이 줄어 들어 크로스토크 현상이 저감될 수 있다.9B illustrates the magnitude of the luminance weight applied to each viewing direction and the magnitude of the luminance component of the right-view image and the left-view image for each viewing direction viewed from the position of the right eye when the luminance weight is applied, according to an exemplary embodiment. Referring to FIG. 9B , the magnitude of the luminance weight applied to the display pixels according to the direction of the light beam is shown as a continuous graph 930 . Also, when the luminance weight is applied, the luminance component 915 of the right-view image in each viewing direction seen from the position of the right eye and the luminance component 925 of the left-view image in each viewing direction are shown. In this embodiment, when the light ray direction of the display pixel is close to the left or right eye, a luminance weight of 100% is applied, and 50% is applied when the light ray direction is near an intermediate position between the left eye and the right eye (approximately, the viewing direction '22'). A luminance weight of a lower magnitude of A linearly decreasing luminance weight may be applied to display pixels in which the ray direction of the display pixel is located between a position intermediate between the left eye or the right eye from a position close to the left eye or right eye. In addition, a low luminance weight may be applied to display pixels having ray directions far from the positions of the left and right eyes. Due to the application of the luminance weight, the luminance component 920 of the left-view image seen by the right eye is reduced, so that the crosstalk phenomenon can be reduced.

도 10은 일 실시예에 따른 3D 영상 렌더링 장치의 구성을 도시하는 도면이다.10 is a diagram illustrating a configuration of a 3D image rendering apparatus according to an exemplary embodiment.

도 10을 참조하면, 3D 영상 렌더링 장치(1000)는 입력 정보에 기초하여 디스플레이 패널에 전달될 패널 영상을 생성한다. 여기서, 입력 정보는 눈 위치 검출기에 의해 검출된 눈 위치 값, 휘도 스케일링 값, 좌시점 영상의 영상 픽셀 값 및 우시점 영상의 영상 픽셀 값, 및 크로스토크 보정 값을 포함할 수 있다. 휘도 스케일링 값 및 크로스토크 보정 값은 시청자가 결과 영상을 보면서 그 크기를 조정할 수 있는 값들이다. 3D 영상 렌더링 장치(1000)는 디스플레이 픽셀의 광선 방향과 양 눈의 눈 위치를 기초로 영상 픽셀 값에 휘도 가중치를 적용하여 크로스토크 성분이 줄어든 패널 영상을 생성할 수 있다. 3D 영상 렌더링 장치(1000)는 위와 같은 영상 처리를 패널 영상의 각 영상 픽셀에 대해 수행하며, 각 영상 픽셀에 대한 영상 처리를 병렬적으로 수행될 수 있다. Referring to FIG. 10 , the 3D image rendering apparatus 1000 generates a panel image to be transmitted to a display panel based on input information. Here, the input information may include an eye position value detected by the eye position detector, a luminance scaling value, an image pixel value of a left-view image and an image pixel value of a right-view image, and a crosstalk correction value. The luminance scaling value and the crosstalk correction value are values that the viewer can adjust the size of while viewing the resulting image. The 3D image rendering apparatus 1000 may generate a panel image with a reduced crosstalk component by applying a luminance weight to the image pixel values based on the ray direction of the display pixel and the eye positions of both eyes. The 3D image rendering apparatus 1000 may perform the above image processing on each image pixel of the panel image, and may perform image processing on each image pixel in parallel.

3D 영상 렌더링 장치(1000)는 휘도 스케일링부(1010), 감마 복호화부(1020), 크로스토크 보정부(1030), 감마 부호화부(1040), 렌더링부(1050) 및 휘도 가중치 적용부(1060)를 포함한다. 3D 영상 렌더링 장치(1000)는 본 명세서에서 설명한 3D 영상 제공 장치에 포함되어 동작할 수 있다.The 3D image rendering apparatus 1000 includes a luminance scaling unit 1010 , a gamma decoding unit 1020 , a crosstalk correcting unit 1030 , a gamma encoding unit 1040 , a rendering unit 1050 , and a luminance weighting unit 1060 ). includes The 3D image rendering apparatus 1000 may operate while being included in the 3D image providing apparatus described in this specification.

휘도 스케일링부(1010)는 미리 정의된 휘도 스케일링 값에 기초하여 좌시점 영상의 영상 픽셀 값과 우시점 영상이 영상 픽셀 값의 휘도 범위를 조절한다. 일 실시예에서, 휘도 스케일링부(1010)는 휘도 스케일링 값에 정의된 최소 휘도 값과 최대 휘도 값의 범위로 영상 픽셀 값의 휘도 범위를 선형 변환할 수 있다. 이러한 과정을 통해 영상 픽셀들의 휘도 범위가 줄어들 수 있다.The luminance scaling unit 1010 adjusts a luminance range of an image pixel value of a left-view image and an image pixel value of a right-view image based on a predefined luminance scaling value. In an embodiment, the luminance scaling unit 1010 may linearly convert a luminance range of an image pixel value into a range of a minimum luminance value and a maximum luminance value defined in the luminance scaling value. Through this process, the luminance range of the image pixels may be reduced.

감마 복호화부(1020)는 휘도 범위가 변환된 영상 픽셀 값을 RGB 컬러 공간에서 휘도 공간으로 변환하기 위한 감마 복호화를 수행한다. 이는 시청자의 양 눈에 크로스토크 성분이 더해지는 것이 영상 픽셀 값이 아닌 디스플레이 픽셀의 휘도 값에 기초하기 때문이다.The gamma decoding unit 1020 performs gamma decoding to convert the image pixel value of which the luminance range is converted from the RGB color space to the luminance space. This is because the addition of the crosstalk component to both eyes of the viewer is based on the luminance value of the display pixel, not the image pixel value.

크로스토크 보정부(1030)는 저감하고자 하는 크로스토크의 크기 정보인 크로스토크 보정 값에 기초하여 좌시점 영상 및 우시점 영상의 영상 픽셀들의 휘도 값을 조절하는 크로스토크 보정을 수행한다. 크로스토크 보정부(1030)는 영상 픽셀들의 휘도 값에서 해당 크로스토크 보정 값만큼 휘도 값을 차감할 수 있다. 예를 들어, 크로스토크 보정 값이 3%라고 가정하면, 크로스토크 보정부(1030)는 전체 영상 픽셀들의 휘도 값을 3%만큼 차감할 수 있다. 이를 통해 크로스토크 현상을 유발하는 오프셋 크로스토크 성분을 저감시킬 수 있다.The crosstalk correction unit 1030 performs crosstalk correction by adjusting the luminance values of image pixels of the left-view image and the right-view image based on the crosstalk correction value, which is information on the size of crosstalk to be reduced. The crosstalk correction unit 1030 may subtract a luminance value by a corresponding crosstalk correction value from the luminance value of the image pixels. For example, assuming that the crosstalk correction value is 3%, the crosstalk correction unit 1030 may subtract the luminance values of all image pixels by 3%. Through this, it is possible to reduce the offset crosstalk component that causes the crosstalk phenomenon.

감마 부호화부(1040)는 감마 부호화를 통해, 크로스토크 보정이 수행된 영상 픽셀 값을 휘도 공간에서 RGB 컬러 공간으로 변환시킬 수 있다. 이에 따라, 크로스토크 보정 값이 적용된 컬러 값의 영상 픽셀 값을 얻을 수 있다. 실시예에 따라, 각 영상 픽셀들에 대해 감마 복호화와 감마 부호화가 수행될 때, 컬러의 왜곡을 줄이기 위하여 RGB 컬러 각각의 감마 커브(gamma curve)가 이용되거나 또는 하나의 감마 커브가 이용될 수도 있다.The gamma encoding unit 1040 may convert image pixel values on which crosstalk correction has been performed from the luminance space to the RGB color space through gamma encoding. Accordingly, an image pixel value of a color value to which a crosstalk correction value is applied may be obtained. According to an embodiment, when gamma decoding and gamma encoding are performed on each image pixel, a gamma curve for each RGB color or one gamma curve may be used to reduce color distortion. .

렌더링부(1050)는 시청자의 양 눈의 눈 위치 값에 기초하여, 각 디스플레이 픽셀에 크로스토크 보정이 수행된 영상 픽셀 값을 할당한다. 렌더링부(1050)는 각 디스플레이 픽셀의 광선 방향과 좌안과 우안의 위치에 기초하여, 3D 렌더링 과정에서 각 디스플레이 픽셀이 표시해야 할 영상 픽셀 값이 좌시점 영상의 것인지 아니면 우시점 영상의 것인지 여부를 결정한다. 렌더링부(1050)는 디스플레이 픽셀의 광선 방향이 우안보다 좌안에 더 가까운 경우에는, 해당 디스플레이 픽셀에 좌시점 영상의 영상 픽셀 값을 할당하고, 이와 반대인 경우에는 해당 디스플레이 픽셀에 우시점 영상의 영상 픽셀 값을 할당한다. 디스플레이 픽셀의 광선 방향과 각각의 좌안 간의 가까운 정도를 추정하기 위해, 렌더링부(1050)는 디스플레이 픽셀의 광선 방향과 해당 디스플레이 픽셀로부터 좌안으로 향하는 방향 간의 차이와 디스플레이 픽셀의 광선 방향과 해당 디스플레이 픽셀로부터 우안으로 향하는 방향 간의 차이를 비교할 수 있다.The rendering unit 1050 assigns an image pixel value on which crosstalk correction is performed to each display pixel based on the eye position values of both eyes of the viewer. The rendering unit 1050 determines whether the image pixel value to be displayed by each display pixel in the 3D rendering process is that of the left-view image or the right-view image, based on the ray direction of each display pixel and the positions of the left and right eyes. decide The rendering unit 1050 assigns the image pixel value of the left-view image to the corresponding display pixel when the ray direction of the display pixel is closer to the left eye than the right eye, and in the opposite case, the image of the right-view image to the corresponding display pixel. Assign pixel values. In order to estimate the closeness between the ray direction of the display pixel and each left eye, the rendering unit 1050 determines the difference between the ray direction of the display pixel and the direction from the display pixel to the left eye, and the ray direction of the display pixel and the corresponding display pixel. The difference between the directions towards the right eye can be compared.

휘도 가중치 적용부(1060)는 각 디스플레이 픽셀의 광선 방향과 눈 위치 값에 기초하여 각 디스플레이 픽셀에 대응되는 휘도 가중치를 결정하고, 결정된 휘도 가중치를 각 디스플레이 픽셀에 할당된 영상 픽셀 값에 적용할 수 있다. 일 실시예에서, 휘도 가중치는 광선 방향이 한쪽 눈에 가까울수록 휘도 가중치를 높이고, 두 눈에서 멀거나 또는 두 눈의 중간 위치에 가까울수록 휘도 가중치를 낮출 수 있다. 예를 들어, 휘도 가중치 적용부(1060)는 디스플레이 픽셀의 광선 방향이 좌안 또는 우안의 위치와 가까운 경우에는, 해당 디스플레이 픽셀에 영상 픽셀 값의 원래의 휘도 값을 유지하기 위한 휘도 가중치를 할당할 수 있다. 휘도 가중치 적용부(1060)는 디스플레이 픽셀의 광선 방향이 좌안 및 우안의 위치로부터 멀거나 또는 좌안과 우안의 중간 위치에 근접한 경우에는, 해당 디스플레이 픽셀에 영상 픽셀 값의 휘도 값을 낮추기 위한 휘도 가중치를 할당할 수 있다. The luminance weighting unit 1060 may determine a luminance weight corresponding to each display pixel based on a ray direction and an eye position value of each display pixel, and apply the determined luminance weight to an image pixel value assigned to each display pixel. have. In an embodiment, the luminance weight may be increased as the ray direction is closer to one eye, and may be decreased as the luminance weight is further away from the two eyes or closer to an intermediate position between the two eyes. For example, the luminance weighting unit 1060 may allocate a luminance weight for maintaining the original luminance value of the image pixel value to the corresponding display pixel when the ray direction of the display pixel is close to the position of the left eye or the right eye. have. The luminance weighting unit 1060 applies a luminance weight for lowering the luminance value of the image pixel value to the corresponding display pixel when the ray direction of the display pixel is far from the positions of the left and right eyes or is close to the intermediate position between the left and right eyes. can be assigned

디스플레이 픽셀의 광선 방향과 해당 디스플레이 픽셀로부터 좌안으로 향하는 방향 간의 차이와 디스플레이 픽셀의 광선 방향과 해당 디스플레이 픽셀로부터 우안으로 향하는 방향 간의 차이가 서로 비슷한 경우는, 디스플레이 픽셀의 광선 방향이 양 눈 중 어느 한쪽과 가깝지 않은 상태를 나타내고, 해당 디스플레이 픽셀이 출력하는 영상 픽셀 값은 시청자가 보는 3D 영상의 휘도 성분에 대한 기여도가 낮고, 크로스토크 성분으로 나타날 가능성이 크다. 따라서, 낮은 휘도 가중치를 통해 이러한 경우에 해당하는 영상 픽셀 값의 휘도 값을 낮춤으로써 크로스토크 성분을 저감시킬 수 있다. 반대로, 디스플레이 픽셀의 광선 방향과 해당 디스플레이 픽셀로부터 좌안으로 향하는 방향 간의 차이와 디스플레이 픽셀의 광선 방향과 해당 디스플레이 픽셀로부터 우안으로 향하는 방향 간의 차이가 서로 비슷하지 않은 경우는, 디스플레이 픽셀의 광선 방향이 양 눈 중 어느 한쪽과 가까운 상태를 나타내고, 해당 디스플레이 픽셀이 출력하는 영상 픽셀 값은 시청자가 보는 3D 영상의 휘도 성분에 대한 기여도가 큰 경우일 가능성이 높다. 이러한 경우에 해당하는 영상 픽셀 값의 휘도 값은, 높은 휘도 가중치를 통해 원래의 휘도 값과 동일 또는 유사한 휘도 값을 가지게 한다.If the difference between the ray direction of a display pixel and the direction to the left eye from that display pixel and the difference between the ray direction of the display pixel and the direction from the display pixel to the right eye are similar, then the ray direction of the display pixel is in either eye It indicates a state not close to , and the image pixel value output by the corresponding display pixel has a low contribution to the luminance component of the 3D image viewed by the viewer, and is highly likely to appear as a crosstalk component. Accordingly, the crosstalk component can be reduced by lowering the luminance value of the image pixel value corresponding to this case through the low luminance weight. Conversely, if the difference between the ray direction of a display pixel and the direction to the left eye from that display pixel and the difference between the ray direction of the display pixel and the direction from the display pixel to the right eye are not similar, then the ray direction of the display pixel is positive. It is highly probable that an image pixel value that indicates a state close to either one of the eyes and output by the corresponding display pixel has a large contribution to the luminance component of the 3D image viewed by the viewer. In this case, the luminance value of the image pixel value has a luminance value equal to or similar to the original luminance value through a high luminance weight.

휘도 가중치 적용부(1060)는 각 디스플레이 픽셀에 할당된 휘도 가중치를 각 디스플레이 픽셀에 할당된 영상 픽셀 값에 적용하여 크로스토크 성분이 저감된 패널 영상을 생성할 수 있다.The luminance weighting unit 1060 may generate a panel image having a reduced crosstalk component by applying a luminance weight assigned to each display pixel to an image pixel value assigned to each display pixel.

도 11은 일 실시예에 따른 3D 영상 제공 장치의 구성을 도시하는 도면이다.11 is a diagram illustrating a configuration of an apparatus for providing a 3D image according to an exemplary embodiment.

도 11을 참조하면, 3D 영상 제공 장치(1100)는 눈 위치 검출기(1110), 프로세서(1120), 메모리(1130) 및 디스플레이 패널(1140)을 포함한다.Referring to FIG. 11 , the 3D image providing apparatus 1100 includes an eye position detector 1110 , a processor 1120 , a memory 1130 , and a display panel 1140 .

눈 위치 검출기(1110)는 시청자의 눈의 위치를 검출한다. 눈 위기 검출기는 3D 영상 제공 장치(1100)에 구비되어 시청자의 시점을 실시간으로 추적하는 카메라를 포함할 수 있다. 일 실시예에서, 눈 위치 검출기(1110)는 카메라에 의해 촬영된 영상에서 시청자의 눈에 대응하는 특징점들을 검출하고, 검출된 특징점들의 위치에 기초하여 시청자의 눈 위치를 결정할 수 있다. 예를 들어, 눈 위치 검출기(1110)는 좌안의 동공에 대응하는 특징점들의 중심 위치를 좌안의 위치로 결정하고, 우안의 동공에 대응하는 특징점들의 중심 위치를 우안의 위치로 결정할 수 있다. 다른 예로, 눈 위치 검출기(1110)는 시청자의 얼굴 영역이 나타난 영상으로부터 좌안 및 우안 각각의 위치를 출력하도록 학습(training)된 뉴럴 네트워크를 이용하여 좌안 및 우안의 위치를 결정할 수도 있다. 눈 위치 검출기(1110)가 시청자의 눈 위치를 검출하는 것은 위 예들에 한정되지 아니하며, 그 외 다양한 방법을 이용하여 시청자의 눈 위치가 검출될 수 있다.The eye position detector 1110 detects the position of the viewer's eyes. The eye crisis detector may include a camera provided in the 3D image providing apparatus 1100 to track a viewer's viewpoint in real time. In an embodiment, the eye position detector 1110 may detect feature points corresponding to the viewer's eyes in an image captured by the camera, and determine the viewer's eye position based on the positions of the detected feature points. For example, the eye position detector 1110 may determine the central positions of the feature points corresponding to the pupil of the left eye as the positions of the left eye, and determine the central positions of the feature points corresponding to the pupil of the right eye as the positions of the right eye. As another example, the eye position detector 1110 may determine the positions of the left and right eyes by using a neural network trained to output the positions of the left and right eyes from the image in which the viewer's face region appears. The eye position detector 1110 detects the viewer's eye position is not limited to the above examples, and the viewer's eye position may be detected using various other methods.

프로세서(1120)는 3D 영상 제공 장치(1100)를 제어하고, 앞서 설명된 도 1 내지 도 10에 설명된 동작들을 수행할 수 있다. 예를 들어, 프로세서(1120)는 도 3 내지 도 5에서 설명된 각 단계들을 수행할 수 있다. 프로세서(1120)는 검출된 눈의 위치에 따른 패널 영상을 생성한다. 프로세서(1120)는 시청자의 좌안 또는 우안에 서로 다른 시점 영상이 보여질 수 있도록 서로 다른 시점 영상들에 기초하여 패널 영상을 구성한다. 이 때, 프로세서(1120)는 각 디스플레이 픽셀로부터 출력되는 광선의 방향과 시청자의 양 눈의 위치에 기초하여 각 디스플레이 픽셀에 할당될 휘도 가중치를 결정하고, 휘도 가중치를 영상 픽셀 값에 적용하여 크로스토크 성분이 저감된 패널 영상을 생성할 수 있다.The processor 1120 may control the 3D image providing apparatus 1100 and perform the operations described with reference to FIGS. 1 to 10 described above. For example, the processor 1120 may perform each of the steps described with reference to FIGS. 3 to 5 . The processor 1120 generates a panel image according to the detected eye position. The processor 1120 constructs a panel image based on images from different viewpoints so that images from different viewpoints can be viewed by the viewer's left eye or right eye. At this time, the processor 1120 determines the luminance weight to be assigned to each display pixel based on the direction of the light beam output from each display pixel and the position of both eyes of the viewer, and applies the luminance weight to the image pixel value to perform crosstalk. A panel image with reduced components can be generated.

또한, 프로세서(1120)는 도 10에서 설명한 3D 영상 렌더링 장치의 각 구성 요소들의 기능을 수행할 수 있다. 일 실시예에서, 프로세서(1120)는 단일 프로세서, 멀티 프로세서, 하드웨어 가속기(hardware accelerator; HWA), 그래픽 처리 유닛(Graphic Processing Unit; GPU) 또는 이들의 조합 등으로 다양하게 구성될 수 있다.Also, the processor 1120 may perform a function of each component of the 3D image rendering apparatus described with reference to FIG. 10 . In an embodiment, the processor 1120 may be variously configured as a single processor, a multi-processor, a hardware accelerator (HWA), a graphic processing unit (GPU), or a combination thereof.

메모리(1130)는 시점 영상들(예를 들어, 좌시점 영상 및 우시점 영상의 스테레오 영상), 패널 영상, 프로세서(1120)의 동작을 위한 인스트럭션들(instructions), 각종 함수, 수학식 및 연산 결과 등과 같은 데이터를 저장할 수 있다. 또한, 메모리(1130)는 해당 데이터를 프로세서(1120)로 전송하거나, 그 밖에 메모리(1130)에 저장된 데이터를 프로세서(1120)에 전송할 수 있다.The memory 1130 may store view images (eg, stereo images of a left view image and a right view image), a panel image, instructions for an operation of the processor 1120 , various functions, equations, and calculation results. You can store data such as Also, the memory 1130 may transmit the corresponding data to the processor 1120 , or may transmit other data stored in the memory 1130 to the processor 1120 .

디스플레이 패널(1140)은 프로세서(1120)에 의해 생성된 패널 영상을 3D 영상으로 변환하여 출력한다. 디스플레이 패널(1140)은 2D 형태의 패널 영상을 3D 영상으로 변환시키기 위한 3D 광학 소자, 예를 들어, 패럴랙스 배리어 또는 렌티큘러 렌즈를 포함할 수 있다.The display panel 1140 converts the panel image generated by the processor 1120 into a 3D image and outputs the converted image. The display panel 1140 may include a 3D optical device for converting a 2D panel image into a 3D image, for example, a parallax barrier or a lenticular lens.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented by a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the apparatus, methods and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that may include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the computer-readable medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited drawings, those skilled in the art may apply various technical modifications and variations based on the above. For example, the described techniques are performed in a different order than the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

Claims (19)

시청자의 눈의 위치를 검출하는 단계; 및
상기 검출된 눈의 위치에 따른 3D 영상을 제공하는 단계를 포함하고,
상기 3D 영상을 제공하는 단계는,
디스플레이 패널의 디스플레이 픽셀에 대응되는 영상 픽셀 값을 결정하는 단계;
상기 디스플레이 픽셀로부터 출력되는 광선(ray)의 방향과 상기 검출된 눈의 위치에 기초하여 상기 디스플레이 픽셀에 대응되는 휘도 가중치를 결정하는 단계;
상기 디스플레이 픽셀에 할당된 영상 픽셀 값에 상기 휘도 가중치를 적용하는 단계; 및
상기 휘도 가중치가 적용된 영상 픽셀 값을 상기 디스플레이 픽셀을 통해 출력하는 단계
를 포함하고,
상기 휘도 가중치를 결정하는 단계는,
상기 광선의 통과점과 상기 시청자의 좌안의 위치 간의 가까운 정도를 나타내는 제1 기준 값 및 상기 광선의 통과점과 상기 시청자의 우안의 위치 간의 가까운 정도를 나타내는 제2 기준 값 중 적어도 하나에 기초하여 상기 휘도 가중치를 결정하고,
상기 통과점은, 상기 좌안의 위치와 상기 우안의 위치를 지나는 직선 상에서 상기 광선의 방향이 지나는 위치의 점인, 3D 영상 제공 방법.
detecting the position of the viewer's eye; and
Comprising the step of providing a 3D image according to the detected position of the eye,
Providing the 3D image comprises:
determining an image pixel value corresponding to a display pixel of a display panel;
determining a luminance weight corresponding to the display pixel based on a direction of a ray output from the display pixel and the detected eye position;
applying the luminance weight to the image pixel values assigned to the display pixels; and
outputting the image pixel value to which the luminance weight is applied through the display pixel
including,
The step of determining the luminance weight includes:
based on at least one of a first reference value indicating a close degree between the passing point of the light ray and the position of the left eye of the viewer and a second reference value representing a close degree between the passing point of the light ray and the location of the viewer's right eye determine the luminance weight,
The passing point is a point of a position through which the direction of the light beam passes on a straight line passing through the position of the left eye and the position of the right eye.
삭제delete 제1항에 있어서,
상기 휘도 가중치를 결정하는 단계는,
상기 제1 기준 값 및 상기 제2 기준 값 중 적어도 하나에 기초하여, 미리 정의된 서로 다른 휘도 가중치들 중 어느 하나의 휘도 가중치를 상기 디스플레이 픽셀에 대응되는 상기 휘도 가중치로 결정하는, 3D 영상 제공 방법.
According to claim 1,
The step of determining the luminance weight includes:
determining, as the luminance weight corresponding to the display pixel, any one of predefined different luminance weights based on at least one of the first reference value and the second reference value .
제1항에 있어서,
상기 휘도 가중치를 결정하는 단계는,
상기 좌안의 위치를 기준으로 하는 제1 기준 값 범위에 상기 제1 기준 값이 포함되거나 또는 상기 우안의 위치를 기준으로 하는 제2 기준 값 범위에 상기 제2 기준 값이 포함되는 경우, 제1 휘도 가중치를 상기 디스플레이 픽셀에 대응되는 휘도 가중치로 결정하는, 3D 영상 제공 방법.
According to claim 1,
The step of determining the luminance weight includes:
When the first reference value is included in the first reference value range based on the position of the left eye or the second reference value is included in the range of the second reference value based on the location of the right eye, the first luminance A method for providing a 3D image, wherein a weight is determined as a luminance weight corresponding to the display pixel.
제4항에 있어서,
상기 휘도 가중치를 결정하는 단계는,
상기 제1 기준 값이 상기 제1 기준 값 범위에 포함되지 않고, 상기 제2 기준 값이 상기 제2 기준 값 범위에 포함되지 않는 경우, 제2 휘도 가중치를 상기 디스플레이 픽셀에 대응되는 휘도 가중치로 결정하고,
상기 제1 휘도 가중치는 상기 제2 휘도 가중치보다 큰, 3D 영상 제공 방법.
5. The method of claim 4,
The step of determining the luminance weight includes:
When the first reference value is not included in the first reference value range and the second reference value is not included in the second reference value range, a second luminance weight is determined as a luminance weight corresponding to the display pixel do,
and the first luminance weight is greater than the second luminance weight.
제4항에 있어서,
상기 제1 기준 값 범위의 크기는 상기 제2 기준 값 범위의 크기와 동일한, 3D 영상 제공 방법.
5. The method of claim 4,
The size of the first reference value range is the same as the size of the second reference value range.
제1항에 있어서,
상기 제1 기준 값은, 상기 광선의 방향과 상기 디스플레이 픽셀로부터 상기 좌안을 향하는 방향 간의 차이를 나타내고,
상기 제2 기준 값은, 상기 광선의 방향과 상기 디스플레이 픽셀로부터 상기 우안을 향하는 방향 간의 차이를 나타내는, 3D 영상 제공 방법.
According to claim 1,
The first reference value represents a difference between a direction of the light ray and a direction from the display pixel to the left eye,
The second reference value represents a difference between a direction of the light ray and a direction from the display pixel toward the right eye.
제7항에 있어서,
상기 제1 기준 값은, 상기 디스플레이 픽셀로부터 상기 좌안의 위치로 향하는 선의 방향과 상기 광선의 방향 간의 각도 또는 상기 광선의 방향과 상기 좌안의 위치 간의 거리에 기초하여 결정되고,
상기 제2 기준 값은, 상기 디스플레이 픽셀로부터 상기 우안의 위치로 향하는 선의 방향과 상기 광선의 방향 간의 각도 또는 상기 광선의 방향과 상기 우안의 위치 간의 거리에 기초하여 결정되는, 3D 영상 제공 방법.
8. The method of claim 7,
The first reference value is determined based on an angle between a direction of a line from the display pixel to the position of the left eye and a direction of the light ray or a distance between the direction of the light ray and the position of the left eye,
The second reference value is determined based on an angle between a direction of a line from the display pixel to the position of the right eye and a direction of the light ray or a distance between the direction of the light ray and the position of the right eye.
제1항에 있어서,
상기 영상 픽셀 값에 적용되는 상기 휘도 가중치에 의해 상기 디스플레이 픽셀을 통해 출력될 상기 영상 픽셀 값의 휘도가 조절되는, 3D 영상 제공 방법.
According to claim 1,
The method of claim 1, wherein the luminance of the image pixel value to be output through the display pixel is adjusted by the luminance weight applied to the image pixel value.
제1항에 있어서,
상기 영상 픽셀 값을 결정하는 단계는,
상기 검출된 눈의 위치에 기초하여 좌시점 영상 또는 우시점 영상 중 어느 하나의 영상 픽셀 값을 상기 디스플레이 픽셀에 할당하는, 3D 영상 제공 방법.
According to claim 1,
Determining the image pixel value comprises:
Allocating an image pixel value of either a left-view image or a right-view image to the display pixel based on the detected eye position.
제10항에 있어서,
상기 영상 픽셀 값을 결정하는 단계는,
미리 정의된 휘도 스케일링 값에 기초하여 상기 좌시점 영상의 영상 픽셀들의 휘도 범위와 상기 우시점 영상의 영상 픽셀들의 휘도 범위를 조절하는 단계; 및
미리 정의된 크로스토크 보정 값에 기초하여 상기 휘도 범위가 조절된 좌시점 영상의 영상 픽셀들 및 우시점 영상의 영상 픽셀들의 휘도 값을 조절하는 단계
를 포함하는 3D 영상 제공 방법.
11. The method of claim 10,
Determining the image pixel value comprises:
adjusting a luminance range of image pixels of the left-view image and a luminance range of image pixels of the right-view image based on a predefined luminance scaling value; and
adjusting the luminance values of the image pixels of the left-view image and the image pixels of the right-view image whose luminance range is adjusted based on a predefined crosstalk correction value;
A method of providing a 3D image comprising a.
제11항에 있어서,
상기 영상 픽셀 값을 결정하는 단계는,
상기 광선의 방향이 상기 우안보다 상기 좌안의 위치에 더 가까운 경우, 휘도 값이 조절된 상기 좌시점 영상의 상기 영상 픽셀 값을 상기 디스플레이 픽셀에 할당하는 단계; 및
상기 광선의 방향이 상기 좌안보다 상기 우안의 위치에 더 가까운 경우, 휘도 값이 조절된 상기 우시점 영상의 상기 영상 픽셀 값을 상기 디스플레이 픽셀에 할당하는 단계
를 더 포함하는 3D 영상 제공 방법.
12. The method of claim 11,
Determining the image pixel value comprises:
allocating the image pixel value of the left-view image whose luminance value has been adjusted to the display pixel when the direction of the light beam is closer to the position of the left eye than the right eye; and
allocating the image pixel value of the right-view image whose luminance value is adjusted to the display pixel when the direction of the light ray is closer to the position of the right eye than the left eye;
3D image providing method further comprising a.
제1항, 제3항 내지 제12항 중 어느 하나의 항의 방법을 실행하기 위한 인스트럭션들을 저장하는 컴퓨터 판독 가능한 저장 매체.
13. A computer-readable storage medium storing instructions for executing the method of any one of claims 1, 3 to 12.
시청자의 눈의 위치를 검출하기 위한 눈 위치 검출기;
상기 검출된 눈의 위치에 따른 패널 영상을 생성하는 프로세서; 및
상기 패널 영상에 기초하여 3D 영상을 출력하는 디스플레이 패널을 포함하고,
상기 프로세서는,
상기 디스플레이 패널의 디스플레이 픽셀로부터 출력되는 광선의 방향과 상기 검출된 눈의 위치에 기초하여 상기 디스플레이 픽셀에 대응되는 휘도 가중치를 결정하고,
상기 디스플레이 픽셀에 할당된 영상 픽셀 값에 상기 휘도 가중치를 적용하고,
상기 휘도 가중치가 적용된 영상 픽셀 값에 기초하여 상기 패널 영상을 생성하고,
상기 광선의 통과점과 상기 시청자의 좌안의 위치 간의 가까운 정도를 나타내는 제1 기준 값 및 상기 광선의 통과점과 상기 시청자의 우안의 위치 간의 가까운 정도를 나타내는 제2 기준 값 중 적어도 하나에 기초하여 상기 휘도 가중치를 결정하고,
상기 통과점은, 상기 좌안의 위치와 상기 우안의 위치를 지나는 직선 상에서 상기 광선의 방향이 지나는 위치의 점인, 3D 영상 제공 장치.
an eye position detector for detecting the position of the viewer's eye;
a processor for generating a panel image according to the detected eye position; and
A display panel for outputting a 3D image based on the panel image,
The processor is
determining a luminance weight corresponding to the display pixel based on a direction of a light ray output from a display pixel of the display panel and the detected eye position;
applying the luminance weight to the image pixel value assigned to the display pixel;
generating the panel image based on the image pixel value to which the luminance weight is applied;
based on at least one of a first reference value indicating a close degree between the passing point of the light ray and the position of the left eye of the viewer and a second reference value representing a close degree between the passing point of the light ray and the location of the viewer's right eye determine the luminance weight,
The passing point is a point where the direction of the light beam passes on a straight line passing through the position of the left eye and the position of the right eye.
삭제delete 제14항에 있어서,
상기 프로세서는,
상기 제1 기준 값 및 상기 제2 기준 값 중 적어도 하나에 기초하여, 미리 정의된 서로 다른 휘도 가중치들 중 어느 하나의 휘도 가중치를 상기 디스플레이 픽셀에 대응되는 상기 휘도 가중치로 결정하는, 3D 영상 제공 장치.
15. The method of claim 14,
The processor is
and determining a luminance weight of one of different predefined luminance weights as the luminance weight corresponding to the display pixel based on at least one of the first reference value and the second reference value. .
제14항에 있어서,
상기 프로세서는,
미리 정의된 휘도 스케일링 값에 기초하여 좌시점 영상의 영상 픽셀들의 휘도 범위와 우시점 영상의 영상 픽셀들의 휘도 범위를 조절하고,
미리 정의된 크로스토크 보정 값에 기초하여, 상기 휘도 범위가 조절된 좌시점 영상의 영상 픽셀들 및 상기 우시점 영상의 영상 픽셀들의 휘도 값을 각각 조절하는, 3D 영상 제공 장치.
15. The method of claim 14,
The processor is
adjusting the luminance range of the image pixels of the left-view image and the luminance range of the image pixels of the right-view image based on the predefined luminance scaling value;
The apparatus for providing a 3D image, each of which adjusts luminance values of image pixels of the left-view image and image pixels of the right-view image whose luminance range is adjusted based on a predefined crosstalk correction value.
제17항에 있어서,
상기 프로세서는,
상기 광선의 방향이 상기 우안의 위치보다 상기 좌안의 위치에 더 가까운 경우, 휘도 값이 조절된 상기 좌시점 영상의 상기 영상 픽셀 값을 상기 디스플레이 픽셀에 할당하고,
상기 광선의 방향이 상기 좌안의 위치보다 상기 우안의 위치에 더 가까운 경우, 휘도 값이 조절된 상기 우시점 영상의 상기 영상 픽셀 값을 상기 디스플레이 픽셀에 할당하는, 3D 영상 제공 장치.
18. The method of claim 17,
The processor is
when the direction of the light beam is closer to the position of the left eye than the position of the right eye, assigning the image pixel value of the left-view image whose luminance value is adjusted to the display pixel;
When the direction of the light beam is closer to the position of the right eye than the position of the left eye, the image pixel value of the right-view image whose luminance value is adjusted is assigned to the display pixel.
제14항에 있어서,
상기 디스플레이 패널은,
상기 3D 영상의 입체감을 구현하기 위한 패럴랙스 배리어 또는 렌티큘러 렌즈를 포함하는 3D 영상 제공 장치.
15. The method of claim 14,
The display panel is
A 3D image providing apparatus including a parallax barrier or a lenticular lens for realizing a three-dimensional effect of the 3D image.
KR1020170116735A 2017-09-12 2017-09-12 Image processing method and apparatus for autostereoscopic three dimensional display KR102447101B1 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020170116735A KR102447101B1 (en) 2017-09-12 2017-09-12 Image processing method and apparatus for autostereoscopic three dimensional display
CN201810282497.9A CN109495734B (en) 2017-09-12 2018-04-02 Image processing method and apparatus for autostereoscopic three-dimensional display
JP2018169491A JP7253342B2 (en) 2017-09-12 2018-09-11 3D image providing method and apparatus
EP18193645.1A EP3454553B1 (en) 2017-09-12 2018-09-11 Image processing method and apparatus for autostereoscopic three-dimensional display
US16/129,297 US11051003B2 (en) 2017-09-12 2018-09-12 Image processing method and apparatus for autostereoscopic three-dimensional display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170116735A KR102447101B1 (en) 2017-09-12 2017-09-12 Image processing method and apparatus for autostereoscopic three dimensional display

Publications (2)

Publication Number Publication Date
KR20190029331A KR20190029331A (en) 2019-03-20
KR102447101B1 true KR102447101B1 (en) 2022-09-26

Family

ID=63557279

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170116735A KR102447101B1 (en) 2017-09-12 2017-09-12 Image processing method and apparatus for autostereoscopic three dimensional display

Country Status (5)

Country Link
US (1) US11051003B2 (en)
EP (1) EP3454553B1 (en)
JP (1) JP7253342B2 (en)
KR (1) KR102447101B1 (en)
CN (1) CN109495734B (en)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102565277B1 (en) 2017-11-24 2023-08-09 삼성전자주식회사 Device and method to restore image
KR102650332B1 (en) 2018-12-12 2024-03-22 삼성전자주식회사 Apparatus and method for displaying three dimensional image
JP7351478B2 (en) * 2019-07-26 2023-09-27 株式会社小松製作所 Display system, remote control system, and display method
CN110381305B (en) * 2019-07-31 2021-06-01 南方医科大学南方医院 Naked eye 3D crosstalk removing method and system, storage medium and electronic equipment
CN112929643B (en) * 2019-12-05 2022-06-28 北京芯海视界三维科技有限公司 3D display device, method and terminal
US11887550B2 (en) * 2019-12-12 2024-01-30 Google Llc Viewing-angle-dependent color/brightness correction for display system
JP7475191B2 (en) * 2020-04-28 2024-04-26 京セラ株式会社 Method for measuring interocular distance and calibration method
KR20220030016A (en) * 2020-09-02 2022-03-10 삼성전자주식회사 Play device and operating method of thereof
KR20220067950A (en) 2020-11-18 2022-05-25 삼성전자주식회사 Display apparatus and controlling method thereof
CN112526763B (en) * 2020-11-20 2022-09-27 亿信科技发展有限公司 Light field 3D display device and driving method thereof
CN114554174B (en) * 2020-11-25 2024-04-02 京东方科技集团股份有限公司 Naked eye three-dimensional image measuring system, image processing method and device and display equipment
CN112801920B (en) * 2021-03-30 2022-05-27 深圳市立体通科技有限公司 Three-dimensional image crosstalk optimization method and device, storage medium and electronic equipment
EP4094434A1 (en) 2021-04-15 2022-11-30 Google LLC Crosstalk compensation for 3d lightfield displays
EP4297401A1 (en) * 2021-06-02 2023-12-27 LG Electronics Inc. Display device and method for controlling display device
JPWO2022255459A1 (en) * 2021-06-02 2022-12-08
CN115840546A (en) * 2021-09-18 2023-03-24 华为技术有限公司 Method, electronic equipment and device for displaying image on display screen
CN115190284B (en) * 2022-07-06 2024-02-27 敏捷医疗科技(苏州)有限公司 Image processing method
KR102621825B1 (en) * 2022-09-22 2024-01-09 옥재윤 Fireplace device using display

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090123030A1 (en) * 2006-07-06 2009-05-14 Rene De La Barre Method For The Autostereoscopic Presentation Of Image Information With Adaptation To Suit Changes In The Head Position Of The Observer
JP2013131929A (en) * 2011-12-21 2013-07-04 Toshiba Corp Image processing device, method, program, and image display device

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101324198B1 (en) 2007-10-05 2013-11-06 삼성전자주식회사 Improved solid state image sensing device, Method for arranging pixels and processing signals for the same
US8339333B2 (en) 2008-01-02 2012-12-25 3M Innovative Properties Company Methods of reducing perceived image crosstalk in a multiview display
KR101661539B1 (en) 2009-09-03 2016-09-30 삼성전자주식회사 Image system for chroma preservative inter-view crocsstalk reduction and crosstalk reduction method
KR20110045654A (en) 2009-10-27 2011-05-04 삼성전자주식회사 Apparatus and method for crosstalk-free user tracking three dimensional display
JP5235976B2 (en) 2010-05-31 2013-07-10 株式会社ソニー・コンピュータエンタテインメント Video playback method and video playback apparatus
JP2012181455A (en) 2011-03-02 2012-09-20 Sony Corp Image processor, image processing method, display device, and computer program
WO2013042440A1 (en) * 2011-09-21 2013-03-28 富士フイルム株式会社 Image processing device, method, program and recording medium, stereoscopic image capture device, portable electronic apparatus, printer, and stereoscopic image player device
WO2013046984A1 (en) 2011-09-26 2013-04-04 シャープ株式会社 Liquid crystal display device
JP2013115520A (en) 2011-11-25 2013-06-10 Sharp Corp Three-dimensional video display device and three-dimensional video display device operation method
KR101924058B1 (en) * 2012-04-03 2018-11-30 엘지전자 주식회사 Image display apparatus, and method for operating the same
TWI471808B (en) * 2012-07-20 2015-02-01 Pixart Imaging Inc Pupil detection device
US8754829B2 (en) * 2012-08-04 2014-06-17 Paul Lapstun Scanning light field camera and display
KR101484990B1 (en) 2013-05-20 2015-01-21 한화첨단소재 주식회사 Apparatus for displaying stereo-scopic images in glassless mode
KR101549884B1 (en) 2014-04-21 2015-09-04 한국과학기술연구원 3-dimensional image display apparatus
CN106463087A (en) 2014-05-12 2017-02-22 皇家飞利浦有限公司 Generation of drive values for a display
CN104023222A (en) * 2014-05-29 2014-09-03 京东方科技集团股份有限公司 Naked eye 3D display control method, apparatus and system
KR102279816B1 (en) 2014-12-26 2021-07-21 엘지디스플레이 주식회사 Autostereoscopic 3d display device
KR102476852B1 (en) 2015-09-07 2022-12-09 삼성전자주식회사 Method for generating image and apparatus thereof
KR20170029210A (en) 2015-09-07 2017-03-15 삼성전자주식회사 Multi view image display apparatus and contorl method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090123030A1 (en) * 2006-07-06 2009-05-14 Rene De La Barre Method For The Autostereoscopic Presentation Of Image Information With Adaptation To Suit Changes In The Head Position Of The Observer
JP2013131929A (en) * 2011-12-21 2013-07-04 Toshiba Corp Image processing device, method, program, and image display device

Also Published As

Publication number Publication date
CN109495734B (en) 2021-12-28
CN109495734A (en) 2019-03-19
JP7253342B2 (en) 2023-04-06
US11051003B2 (en) 2021-06-29
KR20190029331A (en) 2019-03-20
EP3454553A1 (en) 2019-03-13
EP3454553B1 (en) 2021-08-04
US20190082168A1 (en) 2019-03-14
JP2019054513A (en) 2019-04-04

Similar Documents

Publication Publication Date Title
KR102447101B1 (en) Image processing method and apparatus for autostereoscopic three dimensional display
JP6886253B2 (en) Rendering methods and equipment for multiple users
US8890865B2 (en) Image processing apparatus and method for subpixel rendering
EP2988497B1 (en) Image processing method and apparatus
EP3324619B1 (en) Three-dimensional (3d) rendering method and apparatus for user' eyes
US9544580B2 (en) Image processing method and image processing apparatus
US20120188334A1 (en) Generating 3D stereoscopic content from monoscopic video content
US8982187B2 (en) System and method of rendering stereoscopic images
US9948924B2 (en) Image generating apparatus and display device for layered display scheme based on location of eye of user
US20140071237A1 (en) Image processing device and method thereof, and program
CN111264057B (en) Information processing apparatus, information processing method, and recording medium
US20220070427A1 (en) Display apparatus and operating method of the same
EP3139604B1 (en) Method and apparatus for generating images
EP3327487B1 (en) Three-dimensional display apparatus

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant