KR102592092B1 - Method for Displaying Three Dimensional Picture by Display Apparatus Including a Monochrome Panel - Google Patents

Method for Displaying Three Dimensional Picture by Display Apparatus Including a Monochrome Panel Download PDF

Info

Publication number
KR102592092B1
KR102592092B1 KR1020230037510A KR20230037510A KR102592092B1 KR 102592092 B1 KR102592092 B1 KR 102592092B1 KR 1020230037510 A KR1020230037510 A KR 1020230037510A KR 20230037510 A KR20230037510 A KR 20230037510A KR 102592092 B1 KR102592092 B1 KR 102592092B1
Authority
KR
South Korea
Prior art keywords
pattern
information
image
user
viewpoint
Prior art date
Application number
KR1020230037510A
Other languages
Korean (ko)
Inventor
안치현
이다운
서동철
Original Assignee
주식회사 이안하이텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이안하이텍 filed Critical 주식회사 이안하이텍
Priority to KR1020230037510A priority Critical patent/KR102592092B1/en
Application granted granted Critical
Publication of KR102592092B1 publication Critical patent/KR102592092B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/368Image reproducers using viewer tracking for two or more viewers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N2013/40Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene
    • H04N2013/403Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene the images being monoscopic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N2013/40Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene
    • H04N2013/405Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene the images being stereoscopic or three dimensional

Abstract

본 발명은 사용자의 시점에 따라 패턴을 가변하는 모노크롬패널을 포함하는 영상출력장치에 의한 입체영상의 출력방법으로서, 사용자를 촬영하는 카메라의 촬영정보에 기반하여 도출된 사용자의 시점정보에 기초하여 모노크롬패널에서 표시되는 패턴의 특징을 가변함으로써, 패턴이 고정됐을 때와 대비하여 사용자의 시점에 따라 유동적으로 디스플레이패널에서 표시되는 입체영상이 입체적으로 표현되는 입체 시야각과 시청거리를 조정할 수 있는, 사용자의 시점에 따라 패턴을 가변하는 모노크롬패널을 포함하는 영상출력장치에 의한 입체영상의 출력방법에 관한 것이다.The present invention is a method of outputting a three-dimensional image using an image output device including a monochrome panel whose pattern varies depending on the user's viewpoint, and provides a method of outputting a three-dimensional image based on the user's viewpoint information derived based on shooting information of a camera capturing the user. By varying the characteristics of the pattern displayed on the panel, the three-dimensional viewing angle and viewing distance at which the three-dimensional image displayed on the display panel is expressed in three dimensions can be adjusted flexibly according to the user's viewpoint, compared to when the pattern is fixed. This relates to a method of outputting a three-dimensional image using an image output device including a monochrome panel whose pattern varies depending on the viewpoint.

Description

사용자의 시점에 따라 패턴을 가변하는 모노크롬패널을 포함하는 영상출력장치에 의한 입체영상의 출력방법 {Method for Displaying Three Dimensional Picture by Display Apparatus Including a Monochrome Panel} Method for displaying three dimensional pictures by display apparatus including a monochrome panel}

본 발명은 사용자의 시점에 따라 패턴을 가변하는 모노크롬패널을 포함하는 영상출력장치에 의한 입체영상의 출력방법으로서, 사용자를 촬영하는 카메라의 촬영정보에 기반하여 도출된 사용자의 시점정보에 기초하여 모노크롬패널에서 표시되는 패턴의 특징을 가변함으로써, 패턴이 고정됐을 때와 대비하여 사용자의 시점에 따라 유동적으로 디스플레이패널에서 표시되는 입체영상이 입체적으로 표현되는 입체 시야각과 시청거리를 조정할 수 있는, 사용자의 시점에 따라 패턴을 가변하는 모노크롬패널을 포함하는 영상출력장치에 의한 입체영상의 출력방법에 관한 것이다.The present invention is a method of outputting a three-dimensional image using an image output device including a monochrome panel whose pattern varies depending on the user's viewpoint, and provides a method of outputting a three-dimensional image based on the user's viewpoint information derived based on shooting information of a camera capturing the user. By varying the characteristics of the pattern displayed on the panel, the three-dimensional viewing angle and viewing distance at which the three-dimensional image displayed on the display panel is expressed in three dimensions can be adjusted flexibly according to the user's viewpoint, compared to when the pattern is fixed. This relates to a method of outputting a three-dimensional image using an image output device including a monochrome panel whose pattern varies depending on the viewpoint.

패럴랙스 배리어(Parallax Barrier)란 렌티큘러 렌즈(Lenticular Lens)와 함께 좌우 양안의 시차를 이용하여 무안경으로 평면 디스플레이에서 영상을 입체적으로 표시할 수 있는 기술이다. 구체적으로 패럴랙스 배리어는 디스플레이 패널 전방에서 빛을 투과하거나 차단하는 패턴을 배치하여, 좌안과 우안 각각이 서로 다른 이미지를 보게 함으로써 사용자로 하여금 디스플레이패널의 영상이 입체적으로 느껴지게끔 할 수 있다.Parallax Barrier is a technology that can display images in three dimensions on a flat display without glasses by using the parallax between the left and right eyes along with a lenticular lens. Specifically, the parallax barrier places a pattern that transmits or blocks light in front of the display panel, allowing the left and right eyes to see different images, allowing the user to feel the image on the display panel as three-dimensional.

한편, 패럴랙스 배리어의 문제점은 표시되는 영상이 입체적으로 표시되는 영역이 제한되는 것이다. 구체적으로 종래의 경우 고정인쇄 부착형 PB시트로 패럴랙스 배리어를 구현하여 입체 시야각과 시청거리가 고정되어, 입체 시야각과 시청거리를 만족하는 영역 내에서 영상을 봐야 영상이 입체적으로 보여지고, 해당 영역을 벗어나는 경우에는 영상이 입체적으로 보여지지 않고 이미지가 깨져 보이는 크로스톡 현상이 발생하는 문제점이 있다. 구체적으로 적정 입체 시야각과 시청거리를 벗어났을 때 사용자는 좌안용 영상과 우안용 영상이 겹쳐져 보이거나, 흐려져 보일 수 있다. Meanwhile, the problem with the parallax barrier is that the area where the displayed image is displayed three-dimensionally is limited. Specifically, in the conventional case, the three-dimensional viewing angle and viewing distance are fixed by implementing a parallax barrier using a fixed-print attached PB sheet, so the image can be viewed three-dimensionally only when viewed within an area that satisfies the three-dimensional viewing angle and viewing distance. If it is outside of this, there is a problem in that the image is not displayed three-dimensionally and a crosstalk phenomenon occurs in which the image appears broken. Specifically, when the appropriate stereoscopic viewing angle and viewing distance are exceeded, the user may see the image for the left eye and the image for the right eye overlap or appear blurred.

또한 종래의 입체영상출력장치는 디스플레이패널의 특성(픽셀 모양, 간격) 등을 고려하여 PB시트를 제작하고, 해당 PB시트가 부착된 상태에서 입체 시야각과 시청거리를 측정하는 방식으로 제작되고 있다. 즉 종래에는 입체영상출력장치가 원하는 입체 시야각과 시청거리에 가지도록 PB시트를 제작하는 것이 아니라, 반대로 PB시트를 먼저 제작하고 해당 PB시트가 부착?을 때 입체영상장치의 입체 시야각과 시청거리를 측정하는 방식으로 제작되고 있다.In addition, conventional stereoscopic image output devices are manufactured by manufacturing a PB sheet in consideration of the characteristics of the display panel (pixel shape, spacing), etc., and measuring the stereoscopic viewing angle and viewing distance with the PB sheet attached. In other words, conventionally, the PB sheet is not manufactured so that the stereoscopic image output device has the desired stereoscopic viewing angle and viewing distance, but on the contrary, the PB sheet is manufactured first, and when the PB sheet is attached, the stereoscopic viewing angle and viewing distance of the stereoscopic imaging device are adjusted. It is manufactured using a measuring method.

결과적으로, 사용자의 시점에 따라 패럴랙스 배리어의 패턴을 가변하여 디스플레이패널에서 표시되는 영상이 입체적으로 표현될 수 있는 입체 시야각과 시청거리를 조절할 수 있는 방법 및 장치에 대한 개발필요성이 대두되고 있다.As a result, there is a need to develop a method and device that can adjust the stereoscopic viewing angle and viewing distance so that the image displayed on the display panel can be displayed in three dimensions by changing the pattern of the parallax barrier according to the user's viewpoint.

국내등록특허 KR 10-2098151 B1 “입체영상 표시장치”Domestic registered patent KR 10-2098151 B1 “Stereoscopic image display device”

본 발명은 사용자의 시점에 따라 패턴을 가변하는 모노크롬패널을 포함하는 영상출력장치에 의한 입체영상의 출력방법으로서, 사용자를 촬영하는 카메라의 촬영정보에 기반하여 도출된 사용자의 시점정보에 기초하여 모노크롬패널에서 표시되는 패턴의 특징을 가변함으로써, 패턴이 고정됐을 때와 대비하여 사용자의 시점에 따라 유동적으로 디스플레이패널에서 표시되는 입체영상이 입체적으로 표현되는 입체 시야각과 시청거리를 조정할 수 있는, 사용자의 시점에 따라 패턴을 가변하는 모노크롬패널을 포함하는 영상출력장치에 의한 입체영상의 출력방법을 제공하는 것을 목적으로 한다.The present invention is a method of outputting a three-dimensional image using an image output device including a monochrome panel whose pattern varies depending on the user's viewpoint, and provides a method of outputting a three-dimensional image based on the user's viewpoint information derived based on shooting information of a camera capturing the user. By varying the characteristics of the pattern displayed on the panel, the three-dimensional viewing angle and viewing distance at which the three-dimensional image displayed on the display panel is expressed in three dimensions can be adjusted flexibly according to the user's viewpoint, compared to when the pattern is fixed. The purpose is to provide a method of outputting a three-dimensional image using an image output device including a monochrome panel whose pattern varies depending on the viewpoint.

상기와 같은 과제를 해결하기 위하여, 사용자의 시점에 따라 패턴을 가변하는 모노크롬패널을 포함하는 영상출력장치에 의한 입체영상의 출력방법으로서, 상기 영상출력장치는, 사용자의 시점에 따라 패턴을 가변하면서 표시하는 모노크롬패널; 상기 모노크롬패널의 후면에 배치되고, 픽셀별로 좌안 혹은 우안 어느 하나에 대한 영상이미지를 출력하여 입체영상을 표시하는 디스플레이패널; 사용자의 영상을 촬영하는 카메라; 및 상기 카메라의 촬영정보에 기반하여 도출된 사용자의 시점정보에 기초하여 상기 모노크롬패널에서 표시되는 패턴을 결정하는 제1연산부; 및 상기 사용자의 시점정보에 기초하여 원본영상을 상기 디스플레이패널에 표시되는 입체영상으로 변환하는 제2연산부;를 포함하는, 제어부;를 포함하고, 상기 입체영상의 출력방법은, 상기 제어부에 의하여, 상기 카메라의 촬영정보에 기초하여 상기 사용자와 상기 영상출력장치간의 시청거리, 상기 사용자의 위치를 제1평면에 투영했을 때의 제1시야각, 및 제2평면에 투영했을 때의 제2시야각 중 1 이상을 포함하는 시점정보를 도출하는 시점정보도출단계; 상기 제1연산부에 의하여, 상기 시점정보에 기초하여 모노크롬패널에서 출력되는 패턴의 특징에 대한 패턴정보를 도출하는 패턴정보도출단계; 상기 제2연산부에 의하여, 상기 시점정보 및 패턴정보에 기초하여 상기 원본영상을 상기 디스플레이패널에서 출력되는 입체영상으로 변환하는 영상변환단계;를 포함하고, 상기 제1평면은 모노크롬패널에 구현하는 평면에 평행하고, 상기 제2평면은 상기 제1평면에 직교하는, 입체영상의 출력방법을 제공한다.In order to solve the above problem, a method of outputting a three-dimensional image using an image output device including a monochrome panel whose pattern changes depending on the user's viewpoint, wherein the image output device changes the pattern according to the user's viewpoint Monochrome panel to display; A display panel disposed on the back of the monochrome panel and displaying a three-dimensional image by outputting a video image for either the left eye or the right eye for each pixel; A camera that takes images of the user; and a first operation unit that determines a pattern displayed on the monochrome panel based on the user's viewpoint information derived based on the shooting information of the camera; and a control unit including a second operation unit that converts the original image into a three-dimensional image displayed on the display panel based on the user's viewpoint information. The method of outputting the three-dimensional image includes, by the control unit, Based on the shooting information of the camera, one of the viewing distance between the user and the image output device, a first viewing angle when the user's location is projected on the first plane, and a second viewing angle when projected on the second plane. A viewpoint information deriving step of deriving viewpoint information including the above; A pattern information derivation step of deriving pattern information about the characteristics of a pattern output from a monochrome panel based on the viewpoint information by the first operation unit; An image conversion step of converting the original image into a three-dimensional image output from the display panel by the second operation unit based on the viewpoint information and pattern information, wherein the first plane is a plane implemented in a monochrome panel. and the second plane is orthogonal to the first plane.

본 발명의 일 실시예에서는, 상기 패턴은, 서로 다른 투과율을 가지는 제1영역과 제2영역이 소정의 경사로 번갈아가며 반복배치되고, 상기 패턴정보도출단계는, 상기 시점정보에 기초하여, 상기 패턴의 시작좌표, 상기 패턴의 경사, 상기 제1영역의 너비, 상기 제2영역의 너비 중 1 이상을 포함하는 패턴정보를 도출하여, 상기 모노크롬패널에서 출력되는 패턴을 결정할 수 있다.In one embodiment of the present invention, the pattern includes first and second regions having different transmittances alternately arranged at a predetermined inclination, and the pattern information deriving step is performed based on the viewpoint information, The pattern output from the monochrome panel can be determined by deriving pattern information including one or more of the starting coordinates, the slope of the pattern, the width of the first area, and the width of the second area.

본 발명의 일 실시예에서는, 상기 제어부에는, 상기 모노크롬패널과 상기 디스플레이패널간의 이격거리가 저장되어 있고, 상기 패턴정보도출단계는, 상기 시점정보 및 상기 이격거리를 추가적으로 고려하여, 상기 패턴정보를 도출할 수 있다.In one embodiment of the present invention, the control unit stores the separation distance between the monochrome panel and the display panel, and in the pattern information derivation step, the pattern information is generated by additionally considering the viewpoint information and the separation distance. It can be derived.

본 발명의 일 실시예에서는, 상기 영상변환단계는, 상기 제2연산부에 의하여, 사용자의 시점에 따라 가변하는 상기 시점정보 및 패턴정보 중 1 이상에 기초하여 상기 원본영상을 상기 디스플레이패널에서 출력되는 입체영상으로 변환할 수 있다.In one embodiment of the present invention, the image conversion step is to output the original image from the display panel by the second operation unit based on one or more of the viewpoint information and pattern information that varies depending on the user's viewpoint. It can be converted into a three-dimensional image.

본 발명의 일 실시예에서는, 상기 영상출력장치는, 패턴이 고정?을 때 입체영상이 입체적으로 표시되는 시야각 한계가 고정되는 것에 대비하여, 사용자의 시점에 따라 상기 모노크롬패널의 패턴이 가변하여 다양한 시점에서 입체영상을 입체적으로 표시할 수 있다.In one embodiment of the present invention, the image output device allows the pattern of the monochrome panel to vary depending on the user's viewpoint, in contrast to the fact that the viewing angle limit at which a three-dimensional image is displayed in three dimensions is fixed when the pattern is fixed. A three-dimensional image can be displayed three-dimensionally from the viewpoint.

본 발명의 일 실시예에서는, 상기 원본영상은, 3D로 모델링된 3D데이터이거나, 2D의 원본영상을, 2D데이터에서 픽셀별로 깊이정보를 추론할 수 있는 딥러닝 기반의 학습된 기계학습모델에 입력하여 생성되는, 픽셀별로 색상정보와 깊이정보가 저장되어 있는 데이터이고, 상기 제2연산부는, 상기 원본영상을 패턴을 투과하여 보았을 때 좌안과 우안에 보여지는 이미지가 상이하여 원본영상이 입체적으로 표시되는 입체영상으로 변환할 수 있다.In one embodiment of the present invention, the original image is 3D data modeled in 3D, or the 2D original image is input to a deep learning-based machine learning model that can infer depth information for each pixel from 2D data. This is data in which color information and depth information are stored for each pixel, and the second operation unit displays the original image in three dimensions because the images shown to the left and right eyes are different when the original image is viewed through the pattern. It can be converted into a three-dimensional image.

본 발명의 일 실시예에 따르면, 영상출력장치는 사용자의 영상을 촬영하는 카메라를 포함하여, 사용자의 시점정보에 따라 패럴랙스 배리어를 구현하는 패턴의 특징을 가변할 수 있다. According to one embodiment of the present invention, the image output device includes a camera that captures the user's image, and can vary the characteristics of the pattern implementing the parallax barrier according to the user's viewpoint information.

본 발명의 일 실시예에 따르면, 원본영상을 입체영상을 변환함에 있어 사용자의 시점정보에 따라 가변되는 패턴을 반영할 수 있다.According to an embodiment of the present invention, when converting an original image into a three-dimensional image, a pattern that varies depending on the user's viewpoint information can be reflected.

본 발명의 일 실시예에 따르면, 카메라의 촬영정보에 기초하여 사용자와 영상출력장치간의 시청거리, 사용자의 위치를 제1평면에 투영했을 때의 제1시야각, 및 사용자의 위치를 제2평면에 투영했을 때의 제2시야각을 포함하는 시점정보에 기반하여, 패턴의 시작좌표, 패턴의 경사, 제1영역의 너비, 제2영역의 너비에 대한 패턴의 특징을 결정할 수 있다. According to an embodiment of the present invention, based on the shooting information of the camera, the viewing distance between the user and the image output device, the first viewing angle when the user's location is projected on the first plane, and the user's location on the second plane. Based on the viewpoint information including the second viewing angle when projected, the characteristics of the pattern such as the starting coordinates of the pattern, the slope of the pattern, the width of the first area, and the width of the second area can be determined.

본 발명의 일 실시예에 따르면, 모노크롬패널과 디스플레이패널간의 이격거리, 및 양안 사이의 양안거리를 더 반영하여 패턴의 특징을 결정할 수 있다. According to one embodiment of the present invention, the characteristics of the pattern can be determined by further reflecting the separation distance between the monochrome panel and the display panel and the binocular distance between both eyes.

도 1은 고정인쇄 부착형 PB시트로 구현되는 패럴랙스 배리어를 도시한다.
도 2는 본 발명의 일 실시예에 따른 영상출력장치의 구성요소들을 도시한다.
도 3은 본 발명의 일 실시예에 따른 입체영상의 출력방법의 단계들을 도시한다.
도 4는 본 발명의 일 실시예에 따른 시점정보도출단계를 도시한다.
도 5는 본 발명의 일 실시예에 따른 패턴정보도출단계를 도시한다.
도 6은 본 발명의 일 실시예에 따른 영상변환단계를 도시한다.
도 7은 본 발명의 일 실시예에 따른 영상출력장치의 입체 시야각과 시청거리를 도시한다.
도 8은 본 발명의 다른 실시예에 따른 입체영상의 출력방법의 단계들을 도시한다.
도 9는 본 발명의 일 실시예에 따른 컴퓨팅장치의 내부 구성을 개략적으로 도시한다.
Figure 1 shows a parallax barrier implemented with a fixed-print adhesive PB sheet.
Figure 2 shows components of an image output device according to an embodiment of the present invention.
Figure 3 shows steps of a method for outputting a stereoscopic image according to an embodiment of the present invention.
Figure 4 shows the viewpoint information derivation step according to an embodiment of the present invention.
Figure 5 shows the pattern information derivation step according to an embodiment of the present invention.
Figure 6 shows an image conversion step according to an embodiment of the present invention.
Figure 7 shows the stereoscopic viewing angle and viewing distance of an image output device according to an embodiment of the present invention.
Figure 8 shows steps of a method for outputting a stereoscopic image according to another embodiment of the present invention.
Figure 9 schematically shows the internal configuration of a computing device according to an embodiment of the present invention.

이하에서는, 다양한 실시예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 인식될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며, 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다.BRIEF DESCRIPTION OF THE DRAWINGS Various embodiments and/or aspects are now disclosed with reference to the drawings. In the following description, for purposes of explanation, numerous specific details are set forth to facilitate a general understanding of one or more aspects. However, it will also be appreciated by those skilled in the art that this aspect(s) may be practiced without these specific details. The following description and accompanying drawings set forth in detail certain example aspects of one or more aspects. However, these aspects are illustrative and some of the various methods in the principles of the various aspects may be utilized, and the written description is intended to encompass all such aspects and their equivalents.

또한, 다양한 양상들 및 특징들이 다수의 디바이스들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있는 시스템에 의하여 제시될 것이다. 다양한 시스템들이, 추가적인 장치들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있다는 점 그리고/또는 도면들과 관련하여 논의된 장치들, 컴포넌트들, 모듈들 등 전부를 포함하지 않을 수도 있다는 점 또한 이해되고 인식되어야 한다.Additionally, various aspects and features may be presented by a system that may include multiple devices, components and/or modules, etc. It is also understood that various systems may include additional devices, components and/or modules, etc. and/or may not include all of the devices, components, modules, etc. discussed in connection with the drawings. It must be understood and recognized.

본 명세서에서 사용되는 "실시예", "예", "양상", "예시" 등은 기술되는 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않을 수도 있다. 아래에서 사용되는 용어들 '~부', '컴포넌트', '모듈', '시스템', '인터페이스' 등은 일반적으로 컴퓨터 관련 엔티티(computer-related entity)를 의미하며, 예를 들어, 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어를 의미할 수 있다.As used herein, “embodiments,” “examples,” “aspects,” “examples,” etc. may not be construed to mean that any aspect or design described is better or advantageous over other aspects or designs. . The terms '~part', 'component', 'module', 'system', 'interface', etc. used below generally refer to computer-related entities, such as hardware, hardware, etc. A combination of and software, it can mean software.

또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나 이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다.Additionally, the terms “comprise” and/or “comprising” mean that the feature and/or element is present, but exclude the presence or addition of one or more other features, elements and/or groups thereof. It should be understood as not doing so.

또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Additionally, terms including ordinal numbers, such as first, second, etc., may be used to describe various components, but the components are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, a first component may be named a second component, and similarly, the second component may also be named a first component without departing from the scope of the present invention. The term and/or includes any of a plurality of related stated items or a combination of a plurality of related stated items.

또한, 본 발명의 실시예들에서, 별도로 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 실시예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, in the embodiments of the present invention, unless otherwise defined, all terms used herein, including technical or scientific terms, are generally understood by those skilled in the art to which the present invention pertains. It has the same meaning as Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and unless clearly defined in the embodiments of the present invention, have an ideal or excessively formal meaning. It is not interpreted as

도 1은 고정인쇄 부착형 PB시트로 구현되는 패럴랙스 배리어를 도시한다.Figure 1 shows a parallax barrier implemented with a fixed-print adhesive PB sheet.

종래의 패럴랙스 배리어는 고정인쇄 부착형 PB시트로서 디스플레이패널(2) 전방에 부착되어, 좌안과 우안의 시차를 이용하여 좌안과 우안 각각이 서로 다른 이미지를 보게 함으로써, 디스플레이패널(2)에서 영상을 입체적으로 표시할 수 있다.The conventional parallax barrier is a fixed printed PB sheet that is attached to the front of the display panel (2) and uses the parallax between the left and right eyes to see different images, thereby creating an image on the display panel (2). can be displayed three-dimensionally.

즉, 디스플레이패널(2)의 각 픽셀에서는 좌안용 영상 혹은 우안용 영상 중 어느 하나가 표시될 수 있고, 사용자가 디스플레이패널(2) 전방에 부착된 PB시트를 투과하여 디스플레이패널(2)의 영상(혹은 이미지)를 관측했을 때, 좌안에는 좌안용 영상이 보여지고 우안에는 우안용 영상이 보여져, 사용자는 디스플레이패널(2)에서 표시되는 영상을 입체적으로 느낄 수 있다.That is, each pixel of the display panel (2) can display either an image for the left eye or an image for the right eye, and the user can view the image of the display panel (2) through the PB sheet attached to the front of the display panel (2). When observing (or an image), the image for the left eye is displayed to the left eye and the image for the right eye is displayed to the right eye, so that the user can feel the image displayed on the display panel (2) in three dimensions.

한편, 패럴랙스 배리어를 통해 구현되는 입체영상은 제한된 입체 시야각과 시청거리에서만 입체적으로 표현될 수 있다. 구체적으로 사용자는 소정의 입체 시야각과 시청거리를 만족하는 영역 내에서 디스플레이패널(2)의 입체영상을 시청했을 때 해당 입체영상을 입체적으로 볼 수 있고, 입체 시야각과 시청거리를 만족하지 않는 영역에서 영상을 시청했을 때는, 해당 입체영상이 입체적으로 표현되지 않을 수 있다.Meanwhile, stereoscopic images implemented through a parallax barrier can be expressed stereoscopically only at a limited stereoscopic viewing angle and viewing distance. Specifically, the user can view the stereoscopic image in three dimensions when viewing the stereoscopic image on the display panel 2 within an area that satisfies a predetermined stereoscopic viewing angle and viewing distance, and in an area that does not satisfy the stereoscopic viewing angle and viewing distance. When watching a video, the stereoscopic image may not be displayed stereoscopically.

또한 입체 시야각과 시청거리는 패럴랙스 배리어, 즉 PB시트의 패턴에 의해 결정될 수 있다. Additionally, the stereoscopic viewing angle and viewing distance can be determined by the parallax barrier, that is, the pattern of the PB sheet.

그러나 전술한 바와 같이 종래의 PB시트가 불가역적 패턴을 가짐에 따라 입체 시야각과 시청거리 또한 고정될 수 밖에 없었다. 구체적으로 종래의 PB시트는 디스플레이패널(2)의 픽셀배치, 형상 등을 고려하여 패턴의 특징(치수, 위치, 형태 등)이 결정되고, 입체 시야각과 시청거리는 패턴의 디스플레이패널(2)의 특성(굴절율 등), PB시트의 두께, 패턴의 특징에 따라 고정될 수 있다.However, as mentioned above, as the conventional PB sheet has an irreversible pattern, the stereoscopic viewing angle and viewing distance also had to be fixed. Specifically, in the conventional PB sheet, the characteristics of the pattern (dimension, position, shape, etc.) are determined by considering the pixel arrangement and shape of the display panel (2), and the three-dimensional viewing angle and viewing distance are characteristics of the display panel (2) of the pattern. It can be fixed depending on (refractive index, etc.), the thickness of the PB sheet, and the characteristics of the pattern.

본 발명의 일 실시예에 따르면, 디스플레이패널(2) 전방에 고정인쇄 부착형 PB시트대신 패턴을 가변할 수 있는 모노크롬패널(1)을 통해 패턴을 표시하여 패럴랙스 배리어를 구현함으로써, 사용자의 시점에 따라 입체 시야각과 시청거리를 조정할 수 있다. According to one embodiment of the present invention, a parallax barrier is implemented by displaying a pattern through a monochrome panel (1) with a variable pattern instead of a fixed print attachable PB sheet in front of the display panel (2), thereby improving the user's viewpoint. You can adjust the stereoscopic viewing angle and viewing distance accordingly.

도 2는 본 발명의 일 실시예에 따른 영상출력장치의 구성요소들을 도시한다.Figure 2 shows components of an image output device according to an embodiment of the present invention.

도 2에 도시된 바와 같이 상기 영상출력장치는, 사용자의 시점에 따라 패턴을 가변하면서 표시하는 모노크롬패널(1); 상기 모노크롬패널(1)의 후면에 배치되고, 픽셀별로 좌안 혹은 우안 어느 하나에 대한 영상이미지를 출력하여 입체영상을 표시하는 디스플레이패널(2); 사용자의 영상을 촬영하는 카메라; 및 상기 카메라의 촬영정보에 기반하여 도출된 사용자의 시점정보에 기초하여 상기 모노크롬패널(1)에서 표시되는 패턴을 결정하는 제1연산부(41); 및 상기 사용자의 시점정보에 기초하여 원본영상을 상기 디스플레이패널(2)에 표시되는 입체영상으로 변환하는 제2연산부(42);를 포함하는, 제어부(4);를 포함하고, 상기 입체영상의 출력방법은, 상기 제어부(4)에 의하여, 상기 카메라의 촬영정보에 기초하여 상기 사용자와 상기 영상출력장치간의 시청거리, 상기 사용자의 위치를 제1평면에 투영했을 때의 제1시야각, 및 제2평면에 투영했을 때의 제2시야각 중 1 이상을 포함하는 시점정보를 도출하는 시점정보도출단계; 상기 제1연산부(41)에 의하여, 상기 시점정보에 기초하여 모노크롬패널(1)에서 출력되는 패턴의 특징에 대한 패턴정보를 도출하는 패턴정보도출단계; 상기 제2연산부(42)에 의하여, 상기 시점정보 및 패턴정보에 기초하여 상기 원본영상을 상기 디스플레이패널(2)에서 출력되는 입체영상으로 변환하는 영상변환단계;를 포함하고, 상기 제1평면은 모노크롬패널(1)에 구현하는 평면에 평행하고, 상기 제2평면은 상기 제1평면에 직교할 수 있다. As shown in Figure 2, the image output device includes a monochrome panel (1) that displays a changing pattern according to the user's viewpoint; A display panel (2) disposed on the rear of the monochrome panel (1) and displaying a three-dimensional image by outputting a video image for either the left eye or the right eye for each pixel; A camera that takes images of the user; and a first operation unit 41 that determines a pattern displayed on the monochrome panel 1 based on the user's viewpoint information derived based on the shooting information of the camera. and a second operation unit 42 that converts the original image into a three-dimensional image displayed on the display panel 2 based on the user's viewpoint information. The output method is based on the shooting information of the camera, the viewing distance between the user and the image output device, the first viewing angle when the user's position is projected onto the first plane, and the first viewing angle by the control unit 4. A viewpoint information deriving step of deriving viewpoint information including one or more of the second viewing angles when projected onto two planes; A pattern information derivation step of deriving pattern information about the characteristics of a pattern output from the monochrome panel (1) by the first operation unit (41) based on the viewpoint information; An image conversion step of converting the original image into a three-dimensional image output from the display panel 2 by the second operation unit 42 based on the viewpoint information and pattern information, wherein the first plane is It may be parallel to the plane implemented in the monochrome panel 1, and the second plane may be perpendicular to the first plane.

모노크롬패널(1)은 영상출력장치의 전면에 배치되는 패널로서, 바람직하게는 흑백 LCD패널 혹은 LED패널일 수 있다. 구체적으로 모노크롬패널(1)은 디스플레이패널(2)의 전방에서 패턴을 표시함으로써, 패럴랙스배리어를 구현할 수 있다. 바람직하게는 모노크롬패널(1)에서 표시되는 패턴은 제어부(4)(의 제1연산부(41))의 명령에 따라 가변될 수 있으며, 더 바람직하게는 사용자의 영상을 촬영하는 카메라에 의한 촬영정보에 기초하여 도출되는 시점정보에 따라 가변될 수 있다. The monochrome panel 1 is a panel placed in front of the video output device, and may preferably be a black-and-white LCD panel or an LED panel. Specifically, the monochrome panel (1) can implement a parallax barrier by displaying a pattern in front of the display panel (2). Preferably, the pattern displayed on the monochrome panel 1 can be changed according to commands from the control unit 4 (the first operation unit 41 of the control unit 4), and more preferably, information captured by a camera that captures the user's image. It may vary depending on the time point information derived based on .

디스플레이패널(2)은 영상출력장치의 후면에 배치되어 입체영상을 표시하는 패널로서, 바람직하게는 LCD, LED 등 색상을 구현하는 패널일 수 있다. 구체적으로 제어부(4)의 제2연산부(42)는 입력받은 원본영상을 입체영상으로 변환하여 디스플리이패널에서 표시할 수 있다. 바람직하게는 입체영상은 원본영상에 기반하여 변환되는, 픽셀별로 좌안과 우안 각각에 대한 영상이미지를 포함하는 영상데이터로서, 모노크롬패널(1)에서 표시되는 패턴을 투과하여 디스플레이패널(2)에서 표시되는 입체영상을 시청했을 때, 좌안과 우안 각각에 서로 다른 영상이미지가 인식되어 해당 입체영상이 입체적으로 느껴질 수 있다.The display panel 2 is a panel disposed at the rear of the image output device to display a three-dimensional image. Preferably, it may be a panel that implements colors, such as an LCD or LED. Specifically, the second operation unit 42 of the control unit 4 can convert the input original image into a three-dimensional image and display it on the display panel. Preferably, the three-dimensional image is image data that is converted based on the original image and includes image images for each of the left and right eyes for each pixel, and is displayed on the display panel (2) by transmitting the pattern displayed on the monochrome panel (1). When watching a stereoscopic image, different video images are recognized in the left and right eyes, so the stereoscopic image can feel three-dimensional.

본 발명의 일 실시예에서, 디스플레이패널(2)은 모노크롬패널(1)에 비해 상대적으로 고화질의 영상을 출력할 수 있는 패널일 수 있다. 구체적으로 디스플레이패널(2)은 색상구현력과 해상도가 우수한 패널을 사용하되, 흑백영역이 번갈아 나타내는 패턴을 표시하는 모노크롬패널(1)은 높은 색상구현력과 해상도를 필요로 하지 않고 저해상도의 패널로 구현할 수 있어, 제작비용 절감이 가능하다.In one embodiment of the present invention, the display panel 2 may be a panel that can output a relatively high-quality image compared to the monochrome panel 1. Specifically, the display panel (2) uses a panel with excellent color reproduction and resolution, but the monochrome panel (1), which displays a pattern of alternating black and white areas, does not require high color reproduction and resolution and can be implemented with a low-resolution panel. Therefore, it is possible to reduce production costs.

본 발명의 일 실시예에서 모노크롬패널(1)은 저해상도의 흑백 FHD패널일 수 있고, 디스플레이패널(2)은 고해상도의 QHD패널일 수 있다.In one embodiment of the present invention, the monochrome panel 1 may be a low-resolution black-and-white FHD panel, and the display panel 2 may be a high-resolution QHD panel.

카메라는 영상출력장치를 시청하는 사용자를 촬영할 수 있다. 구체적으로 카메라는 상기 모노크롬패널(1)이 설치되는 프레임에 내장되어, 영상출력장치의 전면에 위치하는 사용자를 촬영하여 촬영정보를 생성하고, 생성된 촬영정보를 제어부(4)로 송신할 수 있다. The camera can capture the user watching the video output device. Specifically, the camera is built into the frame where the monochrome panel 1 is installed, captures a user located in front of the video output device, generates shooting information, and transmits the generated shooting information to the control unit 4. .

제어부(4)는 1 이상의 프로세서 및 1 이상의 메모리를 포함하는 컴퓨팅장치로서, 상기 카메라로부터 수신한 촬영정보에 기초하여 상기 모노크롬패널(1) 및 디스플레이패널(2)에서 표시되는 패턴의 특징을 결정하거나, 혹은 원본영상을 입체영상으로 변환할 수 있다.The control unit 4 is a computing device including one or more processors and one or more memories, and determines the characteristics of the patterns displayed on the monochrome panel 1 and the display panel 2 based on the shooting information received from the camera. , or you can convert the original image into a three-dimensional image.

구체적으로 제어부(4)는 카메라로부터 수신한 촬영정보에 기초하여, 사용자와 영상출력장치간의 시점정보를 도출하고, 해당 시점정보에 기초하여 상기 모노크롬패널(1)에서 출력되는 패턴의 특징을 결정할 수 있다. 또한 제어부(4)는 모노크롬패널(1)이 결정된 특징을 가지는 패턴을 표시하도록 명령할 수 있다.Specifically, the control unit 4 can derive viewpoint information between the user and the image output device based on the shooting information received from the camera, and determine the characteristics of the pattern output from the monochrome panel 1 based on the viewpoint information. there is. Additionally, the control unit 4 may command the monochrome panel 1 to display a pattern having determined characteristics.

한편 전술한 패턴의 특징이란, 패턴의 경사, 빛을 차단하는 제1영역과 빛을 투과하는 제2영역 각각의 너비, 패턴의 시작좌표 중 1 이상을 포함할 수 있다.Meanwhile, the characteristics of the above-described pattern may include one or more of the inclination of the pattern, the width of each of the first area that blocks light and the second area that transmits light, and the start coordinates of the pattern.

한편, 제어부(4)는 입력받은 원본영상을 입체영상으로 변환할 수 있다. 전술한 바와 같이 입체영상은 픽셀별로 좌안용 영상이미지와 우안용 영상이미지를 포함하여, 디스플레이패널(2)에서 해당 입체영상을 표시하게 할 수 있다. 즉 제어부(4)는 디스플레이패널(2)의 픽셀별로 좌안용 영상이미지 혹은 우안용 영상이미지 어느 하나를 표시하게끔 할 수 있다.Meanwhile, the control unit 4 can convert the input original image into a three-dimensional image. As described above, the stereoscopic image includes a video image for the left eye and a video image for the right eye for each pixel, and the corresponding stereoscopic image can be displayed on the display panel 2. That is, the control unit 4 can display either a video image for the left eye or a video image for the right eye for each pixel of the display panel 2.

이와 같은 입체영상은 모노크롬패턴을 통해 표시되는 패턴을 투과하여 시청했을 때, 좌안에는 좌안용 영상이미지가 보여지고 우안에는 우안용 영상이미지가 보여지면서 전체적으로 해당 입체영상이 입체적으로 보여질 수 있다. 반면에 입체영상은 패턴없이 시청했을 경우에는 해당 입체영상이 일반적인 2D영상처럼 보여지거나, 좌안용 영상이미지와 우안용 영상이미지가 겹쳐져 보일 수 있다.When such a stereoscopic image is viewed through a pattern displayed through a monochrome pattern, the video image for the left eye is displayed to the left eye and the video image for the right eye is displayed to the right eye, so that the stereoscopic image as a whole can be viewed in three dimensions. On the other hand, when a stereoscopic video is viewed without a pattern, the stereoscopic video may appear like a regular 2D video, or the video image for the left eye and the video image for the right eye may appear overlapping.

후술하지만, 제어부(4)는 입력받은 원본영상을 입체영상으로 변환함에 있어, 도출된 시점정보 혹은 상기 모노크롬패널(1)에서 표시되는 패턴의 특징에 대한 패턴정보를 더 고려할 수도 있다.As will be described later, the control unit 4 may further consider derived viewpoint information or pattern information about the characteristics of the pattern displayed on the monochrome panel 1 when converting the input original image into a three-dimensional image.

한편, 제어부(4)는 상술한 기능들을 수행하기 위한 복수의 구성요소들을 더 포함할 수 있다. 구체적으로 제어부(4)는 카메라로부터 수신한 촬영정보에 기초하여 사용자의 시점정보를 도출하는 시점정보도출부(40), 도출된 시점정보에 기초하여 모노크롬패널(1)에서 표시되는 패턴을 결정하는 제1연산부(41), 및 입력받은 원본영상을 입체영상으로 변환하는 제2연산부(42)를 포함할 수 있다.Meanwhile, the control unit 4 may further include a plurality of components for performing the above-described functions. Specifically, the control unit 4 includes a viewpoint information deriving unit 40 that derives the user's viewpoint information based on the shooting information received from the camera, and a viewpoint information deriving unit 40 that determines the pattern displayed on the monochrome panel 1 based on the derived viewpoint information. It may include a first operation unit 41 and a second operation unit 42 that converts the input original image into a three-dimensional image.

또한 도시된 제어부(4)의 구성요소들은 발명을 구현하기 위한 필수적인 요소들만을 도시한 것으로서, 제어부(4)는 상기의 구성요소 외에 데이터베이스 등의 별도의 구성요소들을 더 포함할 수도 있다.Additionally, the illustrated components of the control unit 4 illustrate only essential elements for implementing the invention, and the control unit 4 may further include separate components such as a database in addition to the above components.

도 3은 본 발명의 일 실시예에 따른 입체영상의 출력방법의 단계들을 도시한다.Figure 3 shows steps of a method for outputting a stereoscopic image according to an embodiment of the present invention.

도 3의 (a)에 도시된 바와 같이, 영상출력장치의 각 구성요소들에 의해 이하의 단계들이 수행됨으로써, 사용자의 시점에 따라 패턴이 가변하면서 입체영상이 출력될 수 있다.As shown in (a) of FIG. 3, the following steps are performed by each component of the image output device, so that a three-dimensional image can be output with the pattern changing depending on the user's viewpoint.

S1단계에서, 제어부(4)는 원본영상과 상기 입체영상을 출력하기 위한 기초적인 데이터들을 입력할 수 있다. 먼저 원본영상이란 입체영상으로 변환되지 않은 디스플레이패널(2)에 표시하고자 하는 영상에 해당할 수 있다. 구체적으로 원본영상을 단순히 디스플레이패널(2)에서 표시하는 것으로 원본영상 자체는 입체적으로 표현되지 않으며, 제2연산부(42)에 의하여 원본영상이 입체영상으로 변환되고, 변환된 입체영상이 표시됐을 때 해당 입체영상이 입체적으로 표현될 수 있다.In step S1, the control unit 4 can input the original image and basic data for outputting the stereoscopic image. First, the original image may correspond to an image to be displayed on the display panel 2 that has not been converted to a three-dimensional image. Specifically, when the original image is simply displayed on the display panel (2), the original image itself is not expressed three-dimensionally, and the original image is converted to a three-dimensional image by the second operation unit 42 and the converted three-dimensional image is displayed. The corresponding stereoscopic image can be expressed three-dimensionally.

본 발명의 일 실시예에서, 원본영상은 자체적으로 3D로 모델링된 3D데이터이거나, 2D의 영상데이터에 기반하여 생성되는, 픽셀별 색상정보와 해당 픽셀에 대한 깊이정보를 포함하는 데이터일 수 있다.In one embodiment of the present invention, the original image may be 3D data itself modeled in 3D, or may be data generated based on 2D image data and including color information for each pixel and depth information for the corresponding pixel.

한편, 상술한 입체영상을 출력하기 위한 기초적인 데이터란 패턴의 특징을 결정하기 위한 데이터일 수 있다. 구체적으로 후술하는 단계들에서 제어부(4)는 카메라가 사용자를 실시간으로 촬영하여 생성되는 촬영정보에 기초하여 도출되는 시점정보에 따라 패턴의 특징을 결정할 수 있다. 즉 패턴의 특징은 시점정보에 따라 다르게 도출될 수 있다.Meanwhile, the basic data for outputting the above-described stereoscopic image may be data for determining the characteristics of the pattern. Specifically, in steps described later, the control unit 4 may determine the characteristics of the pattern according to viewpoint information derived based on shooting information generated when a camera photographs the user in real time. In other words, the characteristics of the pattern can be derived differently depending on the viewpoint information.

한편, 본 발명의 일 실시예에서는 패턴의 특징을 도출함에 있어 시점정보 외에 다른 변수들을 더 반영할 수 있고, 해당 변수들이 S1단계에서 입력되는 기초적인 데이터에 해당할 수 있다.Meanwhile, in one embodiment of the present invention, variables other than viewpoint information may be reflected in deriving the characteristics of the pattern, and the variables may correspond to basic data input in step S1.

예를 들어, 해당 데이터는 모노크롬패널(1)과 디스플레이패널(2)간의 이격거리일 수 있다. 구체적으로 제1연산부(41)가 상기 시점정보에 기반하여 패턴정보를 결정함에 있어, 상기 이격거리를 더 고려할 수도 있다.For example, the data may be the separation distance between the monochrome panel (1) and the display panel (2). Specifically, when the first operation unit 41 determines pattern information based on the viewpoint information, the separation distance may be further taken into consideration.

바람직하게는 모노크롬패널(1)과 디스플레이패널(2)간의 이격거리는 영상출력장치 제작 시에 설계된 고정된 상수값으로 상기 제어부(4)에 기저장될 수 있고, 기저장된 이격거리에 따라 패턴의 특징이 상이하게 결정될 수 있다.Preferably, the separation distance between the monochrome panel 1 and the display panel 2 can be pre-stored in the control unit 4 as a fixed constant value designed when manufacturing the image output device, and the characteristics of the pattern according to the pre-stored separation distance. This can be decided differently.

또는 해당 데이터는 좌안과 우안의 거리에 대한 양안거리일 수 있다. 구체적으로 제1연산부(41)가 상기 시점정보에 기반하여 패턴정보를 결정함에 있어, 상기 양안거리를 더 고려할 수도 있다.Alternatively, the data may be the binocular distance for the distance between the left and right eyes. Specifically, when the first operation unit 41 determines pattern information based on the viewpoint information, the pupillary distance may be further taken into consideration.

바람직하게는 양안거리는 일반적인 사람의 좌안과 우안 사이의 거리로 고정된 상수값으로 상기 제어부(4)에 기저장될 수 있고, 기저장된 양안거리에 따라 패턴의 특징이 상이하게 결정될 수 있다.Preferably, the binocular distance can be pre-stored in the control unit 4 as a fixed constant value as the distance between the left and right eyes of a typical person, and the characteristics of the pattern can be determined differently depending on the pre-stored binocular distance.

이와 같이, S1단계에서 입력되는 패턴의 특징을 결정할 수도 있는 기초적인 데이터는 고정된 상수값으로 저장되며, 후술하는 단계에서 사용자의 시점정보에 기반하여 패턴의 특징을 결정함에 있어, 해당 데이터들이 고려될 수도 있다.In this way, the basic data that can determine the characteristics of the pattern input in step S1 are stored as fixed constant values, and when determining the characteristics of the pattern based on the user's viewpoint information in the step described later, the corresponding data are taken into consideration. It could be.

S2단계에서, 제어부(4)는 카메라로부터 수신한 촬영정보에 기초하여 해당 사용자에 대한 시점정보를 도출할 수 있다. 구체적으로 카메라에 의해 생성된 촬영정보는 제어부(4)의 시점정보도출부(40)로 송신될 수 있고, 상기 시점정보도출부(40)에 의하여 상기 사용자의 시점정보가 도출될 수 있다.In step S2, the control unit 4 may derive viewpoint information for the user based on the shooting information received from the camera. Specifically, the shooting information generated by the camera can be transmitted to the viewpoint information deriving unit 40 of the control unit 4, and the user's viewpoint information can be derived by the viewpoint information deriving unit 40.

시점정보는 영상출력장치를 시청하는 사용자가 바라보는 시점에 대한 정보를 의미할 수 있다. 구체적으로 시점정보는 영상출력장치(바람직하게는 모노크롬패널(1)이 구현하는 평면상의 중앙에 해당하는 기준좌표)를 기준으로 사용자의 양안의 위치와 각도에 대한 정보를 포함할 수 있다. Viewpoint information may refer to information about the viewpoint of a user watching a video output device. Specifically, the viewpoint information may include information about the position and angle of both eyes of the user based on the image output device (preferably reference coordinates corresponding to the center of the plane implemented by the monochrome panel 1).

바람직하게는 시점정보는 해당 사용자와 영상출력장치간의 시청거리, 상기 사용자의 위치를 제1평면에 투영했을 때의 제1시야각, 및 제2평면에 투영했을 때의 제2시야각에 대한 정보를 포함할 수 있다.Preferably, the viewpoint information includes information about the viewing distance between the user and the image output device, the first viewing angle when the user's location is projected on the first plane, and the second viewing angle when the user's position is projected on the second plane. can do.

결과적으로 시점정보는 사용자의 양안이 영상출력장치를 바라보고 있을 때, 양안에서부터 영상출력장치까지의 거리와 각도에 대한 정보를 포함할 수 있다.As a result, the viewpoint information may include information about the distance and angle from both eyes of the user to the image output device when both eyes are looking at the image output device.

한편 본 발명의 일 실시예에서, 영상출력장치의 기준좌표는 모노크롬패널(1)이 구현하는 제1평면상의 중앙좌표에 해당할 수 있다.Meanwhile, in one embodiment of the present invention, the reference coordinates of the image output device may correspond to the center coordinates on the first plane implemented by the monochrome panel 1.

S3단계에서, 제어부(4)는 도출된 시점정보에 기초하여 패턴의 특징에 대한 패턴정보를 도출할 수 있다. 구체적으로 제어부(4)의 제1연산부(41)는 도출된 시점정보에 기초하여 패턴의 시작좌표, 상기 패턴의 경사, 상기 제1영역의 너비, 상기 제2영역의 너비 각각에 대한 값을 도출하여, 도출된 값에 상응하는 패턴이 모노크롬패널(1)에서 출력되게끔 할 수 있다.In step S3, the control unit 4 may derive pattern information about the characteristics of the pattern based on the derived viewpoint information. Specifically, the first operation unit 41 of the control unit 4 derives values for each of the start coordinates of the pattern, the slope of the pattern, the width of the first area, and the width of the second area based on the derived viewpoint information. Thus, a pattern corresponding to the derived value can be output from the monochrome panel (1).

즉, 제1연산부(41)는 영상출력장치를 시청하는 사용자의 시점에 따라 모노크롬패널(1)의 특징을 가변함으로써, 사용자의 시점에 대응하여 입체영상이 입체적으로 보여지는 입체 시야각과 시청거리를 조정할 수 있다.That is, the first operation unit 41 changes the characteristics of the monochrome panel 1 according to the viewpoint of the user viewing the image output device, thereby adjusting the stereoscopic viewing angle and viewing distance at which the stereoscopic image is displayed in three dimensions corresponding to the user's viewpoint. It can be adjusted.

S4.1단계에서, 제어부(4)의 제2연산부(42)는 S1단계에서 입력된 원본영상을 입체영상으로 변환할 수 있다. 구체적으로 제2연산부(42)는 입력된 원본영상을 픽셀별로 좌안용 영상이미지와 우안용 영상이미지를 포함하는 입체영상으로 변환할 수 있다.In step S4.1, the second operation unit 42 of the control unit 4 can convert the original image input in step S1 into a three-dimensional image. Specifically, the second operation unit 42 can convert the input original image into a three-dimensional image including a video image for the left eye and a video image for the right eye for each pixel.

S5단계에서, 제어부(4)는 도출된 패턴정보에 따른 패턴과 변환된 입체영상을 모노크롬패널(1) 및 디스플레이패널(2) 각각에서 표시할 수 있다. 구체적으로 제1연산부(41)에 의해 도출된 패턴정보에 상응하는 패턴이 모노크롬패널(1)에 표시되고, 제2연산부(42)에 의해 변환된 입체영상이 디스플레이패널(2)에 표시되고, 사용자가 모느크롬패널에 표시된 패턴을 투과하여 입체영상을 시청했을 때, 입체영상이 입체적으로 표현될 수 있다.In step S5, the control unit 4 can display a pattern according to the derived pattern information and a converted three-dimensional image on the monochrome panel 1 and the display panel 2, respectively. Specifically, a pattern corresponding to the pattern information derived by the first operation unit 41 is displayed on the monochrome panel 1, and a three-dimensional image converted by the second operation unit 42 is displayed on the display panel 2, When a user watches a 3D image through a pattern displayed on a Monochrome panel, the 3D image can be expressed in three dimensions.

도 3의 (b)는 전술한 단계들을 수행하는 영상출력장치의 구성요소들을 도시한다. 도시된 바와 같이, 카메라에 의하여 촬영된 촬영정보는 제어부(4)의 시점정보도출부(40)로 전송되어, 사용자의 시점정보가 도출될 수 있다. Figure 3(b) shows components of an image output device that performs the above-described steps. As shown, the shooting information captured by the camera is transmitted to the viewpoint information deriving unit 40 of the control unit 4, so that the user's viewpoint information can be derived.

또한 제1연산부(41)는 도출된 시점정보에 기초하여 모노크롬패널(1)에서 표시되는 패턴의 특징에 대한 패턴정보를 도출하고, 해당 패턴정보에 상응하는 패턴이 모노크롬패널(1)에서 표시되게끔 할 수 있다.In addition, the first operation unit 41 derives pattern information about the characteristics of the pattern displayed on the monochrome panel 1 based on the derived viewpoint information, and a pattern corresponding to the pattern information is displayed on the monochrome panel 1. You can do it.

한편, 제2연산부(42)는 입력된 원본영상을 디스플레이패널(2)에서 표시되는 입체영상으로 변환하고, 해당 입체영상이 디스플레이패널(2)에서 표시되게끔 할 수 있다.Meanwhile, the second operation unit 42 can convert the input original image into a three-dimensional image displayed on the display panel 2 and display the corresponding three-dimensional image on the display panel 2.

이와 같이, 본 발명의 일 실시예에서는 고정인쇄 부착형 PB시트가 아닌 패턴을 가변할 수 있는 모노크롬패널(1)과, 사용자를 촬영하는 카메라를 포함함으로써, 사용자의 시점에 대응하여 입체영상이 입체적으로 보여질 수 있는 입체 시야각과 시청거리를 조정할 수 있다.As such, in one embodiment of the present invention, by including a monochrome panel (1) with a variable pattern rather than a fixed print attached PB sheet, and a camera that photographs the user, a three-dimensional image is created in response to the user's viewpoint. You can adjust the stereoscopic viewing angle and viewing distance.

도 4는 본 발명의 일 실시예에 따른 시점정보도출단계를 도시한다.Figure 4 shows the viewpoint information derivation step according to an embodiment of the present invention.

도 4에 도시된 바와 같이, 상기 제어부(4)에는, 상기 모노크롬패널(1)과 상기 디스플레이패널(2)간의 이격거리가 저장되어 있고, 상기 패턴정보도출단계는, 상기 시점정보 및 상기 이격거리를 추가적으로 고려하여, 상기 패턴정보를 도출할 수 있다.As shown in FIG. 4, the control unit 4 stores the separation distance between the monochrome panel 1 and the display panel 2, and the pattern information deriving step includes the viewpoint information and the separation distance. By additionally considering, the pattern information can be derived.

또한 상기 제어부(4)에는, 상기 사용자의 좌안과 우안 사이의 거리인 양안거리가 저장되어 있고, 상기 패턴결정단계는, 상기 시점정보 및 상기 양안거리에 기반하여 상기 패턴정보를 도출할 수 있다.In addition, the control unit 4 stores the pupillary distance, which is the distance between the user's left and right eyes, and the pattern determination step can derive the pattern information based on the viewpoint information and the pupillary distance.

도 4에 도시된 바와 같이, 본 발명의 영상출력장치는 전면에 배치되는 모노크롬패널(1)과 후면에 배치되는 디스플레이패널(2)을 포함할 수 있다. 구체적으로는 모노크롬패널(1)과 디스플레이패널(2)은 소정의 간격으로 이격되어, 해당 이격거리(d2)가 제어부(4)에 저장될 수 있다. 바람직하게는 제1연산부(41)가 시점정보에 기반하여 패턴정보를 도출함에 있어, 상기 이격거리(d2)에 대한 정보가 고려될 수도 있다.As shown in Figure 4, the image output device of the present invention may include a monochrome panel 1 disposed on the front and a display panel 2 disposed on the rear. Specifically, the monochrome panel 1 and the display panel 2 are spaced apart at a predetermined interval, and the corresponding separation distance d 2 can be stored in the control unit 4. Preferably, when the first operation unit 41 derives pattern information based on viewpoint information, information on the separation distance (d 2 ) may be taken into consideration.

한편, 영상출력장치는 영상출력장치의 전방에 위치하는 사용자를 촬영하는 카메라를 포함하고, 시점정보도출부(40)는 상기 카메라로부터 수신한 촬영정보에 기초하여 해당 사용자에 대한 시점정보를 도출할 수 있다.Meanwhile, the image output device includes a camera that photographs a user located in front of the image output device, and the viewpoint information deriving unit 40 derives viewpoint information for the user based on the photographed information received from the camera. You can.

구체적으로 시점정보는 모노크롬패널(1)이 구현하는 평면상의 중앙좌표인 기준좌표를 기준으로 사용자의 위치에 대한 거리와 각도에 대한 정보를 포함할 수 있다. 바람직하게는 시점정보는 기준좌표를 기준으로 사용자의 양안에 대한 거리와 각도에 대한 정보를 포함할 수 있다.Specifically, the viewpoint information may include information about the distance and angle of the user's location based on the reference coordinate, which is the center coordinate on the plane implemented by the monochrome panel 1. Preferably, the viewpoint information may include information about the distance and angle of the user's both eyes based on the reference coordinates.

본 발명의 일 실시예에서, 시점정보도출부(40)는 공지된 컴퓨터비전 기반의 기술을 이용하여 시점정보를 도출할 수 있다. 구체적으로 시점정보도출부(40)는 카메라로부터 수신한 촬영정보에서 사용자 혹은 사용자의 얼굴 혹은 사용자의 양안을 인식하고, 해당 사용자의 얼굴 혹은 양안에 대한 좌표정보를 도출할 수 있다. 시점정보도출부(40)는 사용자의 양안에 대한 좌표정보와, 모노크롬패널(1)이 구현하는 평면상에 기설정된 기준좌표와의 거리와 각도에 대한 정보를 도출할 수 있다.In one embodiment of the present invention, the viewpoint information deriving unit 40 may derive viewpoint information using a known computer vision-based technology. Specifically, the viewpoint information deriving unit 40 can recognize the user or the user's face or both eyes of the user from the shooting information received from the camera, and derive coordinate information about the user's face or both eyes. The viewpoint information deriving unit 40 can derive coordinate information for both eyes of the user and information about the distance and angle from preset reference coordinates on the plane implemented by the monochrome panel 1.

본 발명의 일 실시예에서, 시점정보는 사용자와 영상출력장치간의 시청거리를 포함할 수 있다. 구체적으로 시청거리란 해당 사용자, 바람직하게는 사용자의 양안과 모노크롬패널(1)의 중앙좌표에 해당하는 기준좌표간의 거리를 의미할 수 있다. 즉 도 4에서 시청거리는 모노크롬패널(1)이 구현하는 평면상의 기준좌표로부터 사용자의 양안(O)이 이격된 거리(d1)에 해당할 수 있다.In one embodiment of the present invention, the viewpoint information may include the viewing distance between the user and the image output device. Specifically, the viewing distance may mean the distance between the user, preferably both eyes of the user, and the reference coordinate corresponding to the center coordinate of the monochrome panel 1. That is, the viewing distance in FIG. 4 may correspond to the distance (d 1 ) between the user's both eyes (O) from the reference coordinates on the plane implemented by the monochrome panel (1).

직관적으로 시청거리는 모노크롬패널(1)로부터 사용자의 양안(O)이 직선거리로 얼마나 떨어져 있는 지에 대한 정보를 의미할 수 있다.Intuitively, the viewing distance can refer to information about how far the user's both eyes (O) are from the monochrome panel (1) in a straight line.

본 발명의 일 실시예에서, 시점정보는 제1시야각(을 포함할 수 있다. 구체적으로 제1시야각이란 모노크롬패널(1)이 구현하는 평면과 평행하는 가상의 제1평면상에 사용자의 위치(바람직하게는 사용자 양안에 대한 좌표정보)를 투영했을 때, 상기 기준좌표와 상기 사용자의 위치가 이루는 각도일 수 있다.In one embodiment of the present invention, the viewpoint information is the first viewing angle ( may include. Specifically, the first viewing angle is when the user's position (preferably coordinate information for both eyes of the user) is projected onto a virtual first plane parallel to the plane implemented by the monochrome panel 1, the reference coordinates and the user It may be the angle formed by the position of .

바람직하게는 제1평면은 상기 모노크롬패널(1)이 구현하는 평면과 동일한 가상의 평면일 수 있다. 즉 제1평면은 기준좌표를 포함하고 모노크롬패널(1)이 구현하는 가상의 평면으로, 제1평면상에 사용자의 위치를 투영했을 때 기준좌표와 투영된 사용자의 좌표정보간의 각도가 제1시야각()으로 도출될 수 있다.Preferably, the first plane may be a virtual plane identical to the plane implemented by the monochrome panel 1. That is, the first plane is a virtual plane that includes reference coordinates and is implemented by the monochrome panel 1. When the user's position is projected on the first plane, the angle between the reference coordinates and the projected user's coordinate information is the first viewing angle. ( ) can be derived as

본 발명의 다른 실시예에서, 제1시야각()은 사용자의 좌안과 우안 각각에 대해 도출될 수도 있다. 즉, 시점정보도출부(40)는 좌안과 우안 각각에 대한 좌표정보를 도출하고, 좌안과 우안 각각에 대한 좌표정보를 제1평면상에 투영하여 좌안과 우안 각각에 대한 제1시야각을 도출할 수 있다.In another embodiment of the present invention, the first viewing angle ( ) may be derived for each of the user's left and right eyes. That is, the viewpoint information deriving unit 40 derives coordinate information for each of the left and right eyes, projects the coordinate information for each of the left and right eyes onto the first plane, and derives the first viewing angle for each of the left and right eyes. You can.

본 발명의 일 실시예에서, 시점정보는 제2시야각(을 포함할 수 있다. 구체적으로 제2시야각이란 제1평면과 직교하는 가상의 제2평면상에 사용자의 위치(바람직하게는 사용자 양안에 대한 좌표정보)를 투영했을 때, 상기 기준좌표와 상기 사용자의 위치가 이루는 각도일 수 있다.In one embodiment of the present invention, the viewpoint information is the second viewing angle ( may include. Specifically, the second viewing angle is the angle formed between the reference coordinates and the user's position when the user's position (preferably coordinate information for both eyes of the user) is projected onto a virtual second plane orthogonal to the first plane. You can.

바람직하게는 제2평면은 상기 모노크롬패널(1)이 구현하는 평면과 직교하는 가상의 평면일 수 있다. 즉 제2평면은 기준좌표를 포함하고 모노크롬패널(1)과 직교하는 가상의 평면으로, 제2평면상에 사용자의 위치를 투영했을 때 기준좌표와 투영된 사용자의 좌표정보간의 각도가 제2시야각()으로 도출될 수 있다.Preferably, the second plane may be a virtual plane orthogonal to the plane implemented by the monochrome panel 1. That is, the second plane is a virtual plane that includes reference coordinates and is orthogonal to the monochrome panel (1). When the user's position is projected on the second plane, the angle between the reference coordinates and the projected user's coordinate information is the second viewing angle. ( ) can be derived as

본 발명의 다른 실시예에서, 제2시야각()은 사용자의 좌안과 우안 각각에 대해 도출될 수도 있다. 즉, 시점정보도출부(40)는 좌안과 우안 각각에 대한 좌표정보를 도출하고, 좌안과 우안 각각에 대한 좌표정보를 제2평면상에 투영하여 좌안과 우안 각각에 대한 제2시야각을 도출할 수 있다.In another embodiment of the present invention, the second viewing angle ( ) may be derived for each of the user's left and right eyes. That is, the viewpoint information deriving unit 40 derives coordinate information for each of the left and right eyes, projects the coordinate information for each of the left and right eyes onto the second plane, and derives a second viewing angle for each of the left and right eyes. You can.

이와 같이 시점정보도출부(40)는 컴퓨터비전 기반의 기술을 이용하여, 사용자의 양안에 대한 좌표정보를 도출하고, 해당 좌표정보에 대한 이격거리, 제1시야각, 및 제2시야각이 도출되었을 때, 사용자의 양안이 기준좌표를 기준으로 어느 정도의 각도로 얼마나 멀리 떨어져 있는지가 도출될 수 있다.In this way, the viewpoint information deriving unit 40 uses computer vision-based technology to derive coordinate information for both eyes of the user, and when the separation distance, first viewing angle, and second viewing angle for the coordinate information are derived, , the angle and distance between the user's both eyes can be derived based on the reference coordinates.

도 4의 (b)에 도시된 바와 같이, 시점정보도출부(40)는 카메라로부터 촬영정보에 기초하여, 사용자의 위치와 영상출력장치의 기준좌표간의 시청거리, 제1시야각, 및 제2시야각에 대한 정보를 포함하는 시점정보를 도출할 수 있다.As shown in (b) of FIG. 4, the viewpoint information deriving unit 40 calculates the viewing distance, first viewing angle, and second viewing angle between the user's location and the reference coordinates of the image output device based on the shooting information from the camera. Point-in-time information including information about can be derived.

도 5는 본 발명의 일 실시예에 따른 패턴정보도출단계를 도시한다.Figure 5 shows the pattern information derivation step according to an embodiment of the present invention.

도 5에 도시된 바와 같이 상기 패턴은, 서로 다른 투과율을 가지는 제1영역과 제2영역이 소정의 경사로 번갈아가며 반복배치되고, 상기 패턴정보도출단계는, 상기 시점정보에 기초하여, 상기 패턴의 시작좌표, 상기 패턴의 경사, 상기 제1영역의 너비, 상기 제2영역의 너비 중 1 이상을 포함하는 패턴정보를 도출하여, 상기 모노크롬패널(1)에서 출력되는 패턴을 결정할 수 있다.As shown in FIG. 5, the pattern is a pattern in which first and second areas having different transmittances are alternately arranged at a predetermined inclination, and the pattern information deriving step is based on the viewpoint information. The pattern output from the monochrome panel 1 can be determined by deriving pattern information including one or more of the starting coordinates, the slope of the pattern, the width of the first area, and the width of the second area.

또한 상기 영상출력장치는, 패턴이 고정?을 때 입체영상이 입체적으로 표시되는 시야각 한계가 고정되는 것에 대비하여, 사용자의 시점에 따라 상기 모노크롬패널(1)의 패턴이 가변하여 다양한 시점에서 입체영상을 입체적으로 표시할 수 있다.In addition, in contrast to the fact that the viewing angle limit at which a stereoscopic image is displayed stereoscopically is fixed when the pattern is fixed, the image output device allows the pattern of the monochrome panel 1 to vary depending on the user's viewpoint to display the stereoscopic image from various viewpoints. can be displayed three-dimensionally.

도 5의 (a)는 모노크롬패널(1)에서 표시되는 패턴을 도시한다. 도시된 바와 같이, 패턴은 서로 다른 투과율을 가지는 제1영역과 제2영역이 소정의 경사()로 번갈아가며 반복배치될 수 있다. 바람직하게는 패턴은 제1너비를 가지면서 빛을 차단하는 제1영역(A1)과 제2너비를 가지면서 빛을 투과하는 제2영역(A2)이 소정의 경사()를 가지면서 반복적으로 배치되는 형상일 수 있다.Figure 5(a) shows a pattern displayed on the monochrome panel 1. As shown, the pattern has first and second areas with different transmittances having a predetermined slope ( ) can be placed alternately and repeatedly. Preferably, the pattern has a first area (A1) that has a first width and blocks light, and a second area (A2) that has a second width and transmits light with a predetermined slope ( ) and may be a shape that is repeatedly arranged.

또한, 패턴의 시작위치(l3)는 모노크롬패널(1)의 좌측을 기준으로 반복적으로 배치되는 제1영역(A1) 및 제2영역(A2) 중 최초로 배치되는 제1영역(A1)의 위치를 의미할 수 있다.In addition, the starting position of the pattern (l 3 ) is the position of the first area (A1) that is placed first among the first area (A1) and the second area (A2) that are repeatedly placed based on the left side of the monochrome panel (1). It can mean.

즉, 패턴의 시작위치(l3), 패턴의 경사(), 제1영역(A1)의 너비(l1) 및 제2영역(A2)의 너비(l2)가 결정됐을 때, 모느크롬패널에서 표시되는 패턴의 특징이 결정될 수 있다.That is, the starting position of the pattern (l 3 ), the slope of the pattern ( ), when the width (l 1 ) of the first area (A1) and the width (l 2 ) of the second area (A2) are determined, the characteristics of the pattern displayed on the Monochrome panel can be determined.

한편, 전술한 바와 같이, 모노크롬패널(1)에 표시되는 패턴은 사용자의 시점에 따라 가변할 수 있으며, 더 구체적으로는 해당 패턴의 특징을 결정하는 각 요소들(패턴의 시작위치(l3), 패턴의 경사(), 제1영역(A1)의 너비(l1) 및 제2영역(A2)의 너비(l2))이 가변할 수 있다.Meanwhile, as described above, the pattern displayed on the monochrome panel 1 can vary depending on the user's viewpoint, and more specifically, each element that determines the characteristics of the pattern (the starting position of the pattern (l 3 ) , the slope of the pattern ( ), the width (l 1 ) of the first area (A1), and the width (l 2 ) of the second area (A2) may be variable.

구체적으로 도 5의 (b)에 도시된 바와 같이, 제1연산부(41)는 시청거리, 제1시야각, 및 제2시야각에 대한 정보를 포함하는 시점정보에 기반하여, 패턴의 시작위치(l3), 패턴의 경사(), 제1영역(A1)의 너비(l1) 및 제2영역(A2)의 너비(l2)를 결정하여, 패턴의 특징에 대한 패턴정보를 도출할 수 있다.Specifically, as shown in (b) of FIG. 5, the first operation unit 41 determines the start position of the pattern (l) based on viewpoint information including information on the viewing distance, first viewing angle, and second viewing angle. 3 ), the slope of the pattern ( ), the width (l 1 ) of the first area (A1), and the width (l 2 ) of the second area (A2) can be determined to derive pattern information about the characteristics of the pattern.

구체적으로 제1연산부(41)는 시점정보도출부(40)에 의해 도출된 사용자와 영상출력장치간의 시청거리, 제1시야각, 및 제2시야각에 대한 정보를 포함하는 시점정보에 기반하여, 패턴의 시작위치(l3), 패턴의 경사(), 제1영역(A1)의 너비(l1) 및 제2영역(A2)의 너비(l2) 각각에 대한 변수를 도출할 수 있다.Specifically, the first operation unit 41 generates a pattern based on viewpoint information including information on the viewing distance, first viewing angle, and second viewing angle between the user and the image output device derived by the viewpoint information deriving unit 40. Starting position (l 3 ), slope of the pattern ( ), the width (l 1 ) of the first area (A1), and the width (l 2 ) of the second area (A2) can be derived.

한편, 본 발명의 일 실시예에서, 시점에 따라 패럴랙스 배리어를 구현하는 공지의 기술을 통해 시점정보에 기반하여 패턴정보의 각 변수들이 도출될 수 있다.Meanwhile, in one embodiment of the present invention, each variable of pattern information can be derived based on viewpoint information through a known technique for implementing a parallax barrier depending on viewpoint.

일례로, 하기 [그림 1]에서 제1영역 사이의 거리 b는 하기의 [식 1]에 따라 결정될 수 있으며, 시청거리 z는 하기의 [식 2]에 따라 결정될 수 있다.For example, in [Figure 1] below, the distance b between the first areas can be determined according to [Equation 1] below, and the viewing distance z can be determined according to [Equation 2] below.

[그림 1][Figure 1]

[식 1][Equation 1]

[식 2][Equation 2]

여기서, b는 제1영역 사이의 거리, g는 모노크롬패널(1)과 디스플레이패널(2)간의 간격, z는 시청거리,i는 디스플레이패널(2)의 픽셀크기, e는 입체영상이 입체적으로 보여질 수 있는 거리를 의미한다.Here, b is the distance between the first areas, g is the distance between the monochrome panel (1) and the display panel (2), z is the viewing distance, i is the pixel size of the display panel (2), and e is the three-dimensional image. It means the distance from which it can be seen.

즉, b는 제1영역과 제2영역 각각의 너비의 합에 해당할 수 있고, b가 결정되고, 제1영역과 제2영역이 각각 같은 너비를 가질 때, 제1영역 및 제2영역 각각에 대한 너비는 b/2로 결정될 수 있다.That is, b may correspond to the sum of the widths of each of the first and second areas, and when b is determined and the first and second areas each have the same width, each of the first and second areas The width for can be determined as b/2.

전술한 바와 같이, 종래에 패럴랙스 배리어를 구현하는 고정인쇄 부착형 PB시트는 패턴 자체가 인쇄되어 있어, 사용자의 시점에 대응하여 입체영상이 입체적으로 보여지는 입체 시야각과 시청거리를 조정할 수 없었다.As described above, the conventional fixed print attachable PB sheet that implements a parallax barrier has the pattern itself printed, so it is not possible to adjust the stereoscopic viewing angle and viewing distance at which the stereoscopic image is displayed in three dimensions in response to the user's viewpoint.

반면에, 본 발명에서 패럴랙스 배리어를 구현하는 모노크롬패널(1)은 제1연산부(41)에 의해 패턴을 가변적으로 표시함으로써, 사용자의 시점에 대응하여 입체적으로 보여지는 입체 시야각과 시청거리를 조정할 수 있다.On the other hand, the monochrome panel (1) implementing the parallax barrier in the present invention variably displays patterns by the first operation unit (41), thereby adjusting the three-dimensional viewing angle and viewing distance corresponding to the user's viewpoint. You can.

도 6은 본 발명의 일 실시예에 따른 영상변환단계를 도시한다.Figure 6 shows an image conversion step according to an embodiment of the present invention.

도 6에 도시된 바와 같이, 상기 영상변환단계는, 상기 제2연산부(42)에 의하여, 사용자의 시점에 따라 가변하는 상기 시점정보 및 패턴정보 중 1 이상에 기초하여 상기 원본영상을 상기 디스플레이패널(2)에서 출력되는 입체영상으로 변환할 수 있다.As shown in FIG. 6, in the image conversion step, the original image is converted to the display panel by the second operation unit 42 based on one or more of the viewpoint information and pattern information that varies depending on the user's viewpoint. It can be converted to a stereoscopic image output in (2).

또한 상기 원본영상은, 3D로 모델링된 3D데이터이거나, 2D의 원본영상을, 2D데이터에서 픽셀별로 깊이정보를 추론할 수 있는 딥러닝 기반의 학습된 기계학습모델에 입력하여 생성되는, 픽셀별로 색상정보와 깊이정보가 저장되어 있는 데이터이고, 상기 제2연산부(42)는, 상기 원본영상을 패턴을 투과하여 보았을 때 좌안과 우안에 보여지는 이미지가 상이하여 원본영상이 입체적으로 표시되는 입체영상으로 변환할 수 있다.In addition, the original image is 3D data modeled in 3D, or the color of each pixel is generated by inputting the 2D original image into a deep learning-based machine learning model that can infer depth information for each pixel from 2D data. It is data in which information and depth information are stored, and the second operation unit 42 converts the original image into a three-dimensional image in which the images shown to the left and right eyes are different when viewed through the pattern. It can be converted.

도 6에 도시된 바와 같이, 제2연산부(42)는 입력받은 원본영상을 디스플레이패널(2)에서 표시되는 입체영상으로 변환할 수 있다. 전술한 바와 같이 원본영상은 영상출력장치에서 입체적으로 표현하고자 하는 입체영상에 대한 원본데이터일 수 있다.As shown in FIG. 6, the second operation unit 42 can convert the input original image into a three-dimensional image displayed on the display panel 2. As described above, the original image may be original data for a three-dimensional image that is to be expressed three-dimensionally in an image output device.

더 구체적으로는 영상출력장치 전면의 모노크롬패널(1)에서 표시되는 패턴을 투과하여, 영상출력장치 후면의 디스플레이패널(2)에서 표시되는 입체영상을 시청했을 때 해당 입체영상이 입체적으로 보여질 수 있다.More specifically, when the pattern displayed on the monochrome panel (1) on the front of the video output device is transmitted and the stereoscopic image displayed on the display panel (2) on the back of the video output device is viewed, the stereoscopic image can be viewed in three dimensions. there is.

한편, 원본영상은 자체적으로 3D로 모델링된 3D데이터일 수 있다. Meanwhile, the original video may be 3D data that has been modeled in 3D itself.

한편, 본 발명의 다른 실시예에서, 원본영상은 2D데이터와 해당 2D데이터에 기반하여 생성되는 깊이정보가데이터가 매칭되어 있는 데이터일 수 있다. 구체적으로 원본영상은 픽셀별로 색상정보를 포함하는 2D데이터와, 해당 2D데이터에 기반하여 픽셀별로 추론된 깊이정보를 포함하는 깊이정보가 매칭되어 있는 데이터일 수 있다.Meanwhile, in another embodiment of the present invention, the original image may be data in which 2D data and depth information data generated based on the 2D data are matched. Specifically, the original image may be data in which 2D data including color information for each pixel and depth information including depth information inferred for each pixel based on the 2D data are matched.

본 발명의 일 실시예에서, 깊이정보데이터는 2D데이터의 픽셀별로 깊이정보를 추론하는 딥러닝 기반의 기계학습모델에 의하여 생성될 수 있다. 구체적으로 기계학습모델은 2D데이터를 입력받아 해당 2D데이터의 픽셀별로 깊이정보를 추론할 수 있도록 학습되어 있고, 해당 기계학습모델에 2D데이터를 입력함으로써, 해당 2D데이터의 픽셀별로 깊이정보가 추론될 수 있다. In one embodiment of the present invention, depth information data may be generated by a deep learning-based machine learning model that infers depth information for each pixel of 2D data. Specifically, the machine learning model is trained to receive 2D data and infer depth information for each pixel of the 2D data. By inputting 2D data into the machine learning model, depth information can be inferred for each pixel of the 2D data. You can.

본 발명의 일 실시예에서, 깊이정보데이터는 디스패리티맵 형태로 표현될 수 있다.In one embodiment of the present invention, depth information data may be expressed in the form of a disparity map.

한편, 제2연산부(42)는 자체적으로 기계학습모델을 포함할 수 있고, 2D의 원본영상을 입력받아 자체적으로 2D의 원본영상으로부터 깊이정보데이터를 생성하고, 입력된 2D의 원본영상과 생성된 깊이정보데이터에 기초하여 입체영상을 생성할 수 있다.Meanwhile, the second operation unit 42 may include a machine learning model on its own, receives a 2D original image, generates depth information data from the 2D original image, and combines the input 2D original image with the generated A three-dimensional image can be generated based on depth information data.

본 발명의 일 실시예에서, 제2연산부(42)는 공지의 알고리즘 혹은 소프트웨어를 통해 원본영상을 입체영상으로 변환할 수 있다. 구체적으로 TriDef 3D, iZ3D Driver 등의 공개된 서비스를 통해 원본영상을 입체영상으로 변환할 수 있다. In one embodiment of the present invention, the second operation unit 42 can convert the original image into a three-dimensional image through a known algorithm or software. Specifically, the original video can be converted to a three-dimensional video through public services such as TriDef 3D and iZ3D Driver.

도 7은 본 발명의 일 실시예에 따른 영상출력장치의 입체 시야각과 시청거리를 도시한다.Figure 7 shows the stereoscopic viewing angle and viewing distance of an image output device according to an embodiment of the present invention.

도 7에 도시된 바와 같이, 제어부(4)는 현재 영상출력장치가 표시하는 패턴과 입체영상에 기반하여, 입체영상이 입체적으로 보여지는 입체 시야각과 시청거리를 시뮬레이션하는 시뮬레이션부;를 포함하고, 사용자의 시점정보가 현재 영상출력장치가 표시하는 패턴과 입체영상에 따른 입체 시야각과 시청거리를 만족하는 지 여부를 판단하여, 사용자가 상기 입체 시야각과 시청거리에 해당하는 영역에 위치하고 있다고 판단되는 경우에는 해당 사용자의 시점정보에 기반한 패턴정보도출단계;를 수행하지 않고 기존의 패턴정보에 따른 패턴을 유지하고, 사용자가 상기 입체 시야각과 시청거리를 만족하는 영역에 위치하고 있지 않다고 판단되는 경우에는 해당 사용자의 시점정보에 기반한 패턴정보도출단계;를 재수행하여, 모노크롬패널(1)에서 표시되는 패턴을 가변할 수 있다.As shown in FIG. 7, the control unit 4 includes a simulation unit that simulates the stereoscopic viewing angle and viewing distance at which the stereoscopic image is displayed based on the pattern and stereoscopic image currently displayed by the image output device, When it is determined whether the user's viewpoint information satisfies the stereoscopic viewing angle and viewing distance according to the pattern displayed by the current video output device and the stereoscopic image, and the user is determined to be located in an area corresponding to the stereoscopic viewing angle and viewing distance. In the pattern information deriving step based on the user's viewpoint information, the pattern according to the existing pattern information is maintained without performing the step, and if it is determined that the user is not located in an area that satisfies the stereoscopic viewing angle and viewing distance, the user By re-performing the pattern information derivation step based on the viewpoint information, the pattern displayed on the monochrome panel 1 can be changed.

도 7의 (a)는 본 발명의 영상출력장치가 입체영상을 표시했을 때, 해당 입체영상이 입체적으로 표현되는 입체 시야각과 시청거리를 도시한다. 전술한 바와 같이 입체영상은 모든 시야각과 시청거리에서 해당 입체영상이 입체적으로 표현되는 것은 아니며, 패턴에 따라 기설정된 입체 시야각과 시청거리를 만족하는 영역 내에서 시청했을 때, 입체영상이 입체적으로 표현될 수 있다.Figure 7(a) shows the stereoscopic viewing angle and viewing distance at which the stereoscopic image is displayed when the image output device of the present invention displays a stereoscopic image. As mentioned above, stereoscopic images are not expressed stereoscopically at all viewing angles and viewing distances, and when viewed within an area that satisfies the stereoscopic viewing angles and viewing distances preset according to the pattern, the stereoscopic images are expressed stereoscopically. It can be.

즉, 도 7의 (a)에서 영역(B1) 내에 위치하고 있는 객체(O1)가 입체영상을 시청했을 때, 해당 입체영상이 입체적으로 보여질 수 있다. 한편, 영역(B1) 내에 위치하고 있지 않은 객체(O2)가 입체영상을 시청했을 때, 해당 입체영상은 입체적으로 보여지지 않을 수 있다.That is, when the object O1 located in the area B1 in (a) of FIG. 7 views a 3D image, the 3D image may be displayed in three dimensions. Meanwhile, when an object O2 that is not located in the area B1 views a stereoscopic image, the stereoscopic image may not be displayed stereoscopically.

한편, 종래와 같이 패럴랙스 배리어를 고정인쇄 부착형 PB시트로 구현하거나, 모노크롬패널(1)에서 표시되는 패턴이 고정된 경우에, 입체영상이 입체적으로 표현되는 입체 시야각과 시청거리를 만족하는 영역(B1)이 고정될 수 있다.On the other hand, when the parallax barrier is implemented as a fixed printed attachable PB sheet as in the past, or when the pattern displayed on the monochrome panel (1) is fixed, the area that satisfies the three-dimensional viewing angle and viewing distance at which the three-dimensional image is expressed three-dimensionally (B1) can be fixed.

도 7의 (b)는 본 발명의 영상출력장치가 도 7의 (a)와 다른 패턴으로 입체영상을 표시했을 때, 해당 입체영상이 입체적으로 표현되는 입체 시야각과 시청거리를 도시한다. 도시된 바와 같이, 패턴이 가변하는 경우에 입체영상이 입체적으로 표현되는 입체 시야각과 시청거리 또한 가변될 수 있다. 구체적으로 입체적으로 표현되는 입체 시야각과 시청거리는 다양한 변수에 의해 결정될 수 있으며, 더 구체적으로는 패턴의 특징을 결정하는 각 요소(패턴의 시작좌표, 패턴의 경사, 제1영역의 너비, 제2영역의 너비), 이격거리 등에 의해 결정될 수 있다.Figure 7(b) shows the stereoscopic viewing angle and viewing distance at which the stereoscopic image is expressed stereoscopically when the image output device of the present invention displays a stereoscopic image in a pattern different from that of Figure 7(a). As shown, when the pattern is variable, the stereoscopic viewing angle and viewing distance at which the stereoscopic image is displayed can also vary. Specifically, the three-dimensional viewing angle and viewing distance expressed in three dimensions can be determined by various variables, and more specifically, each element that determines the characteristics of the pattern (pattern start coordinates, pattern slope, width of the first area, second area) width), separation distance, etc.

예를 들어 입체 시야각은 이격거리가 얇을수록 넓어질 수 있다.For example, the stereoscopic viewing angle can become wider as the separation distance becomes thinner.

즉, 도 7의 (b)에서 영상출력장치는 촬영된 객체(O2)의 시점에 따라 패턴을 가변하여, 입체영상이 입체적으로 보여지는 영역이 B1에서 B2로 가변될 수 있다. 즉, 기존의 영역(B1) 내에 위치하고 있지 않은 객체(O2)는, 패턴이 가변함에 따라, 영역(B1) 내에 위치하여 입체영상을 입체적으로 시청할 수 있다.That is, in (b) of FIG. 7, the image output device changes the pattern according to the viewpoint of the photographed object O2, so that the area where the three-dimensional image is viewed three-dimensionally can change from B1 to B2. That is, the object O2, which is not located in the existing area B1, is located in the area B1 as the pattern changes, so that the three-dimensional image can be viewed in three dimensions.

한편, 본 발명의 일 실시예에서는 사용자의 모든 위치에 대응하여 패턴이 무조건적으로 가변되지 않는다. 즉, 영상출력장치는 사용자의 시점정보가 입체영상이 입체적으로 표현되지 않는 위치에 존재하는 경우에 패턴을 가변할 수 있다. 예시적으로 도 7의 (a)에서 O1에 사용자가 위치하는 경우에는 패턴이 가변되지 않으며, O2 에 사용자가 위치할 때 패턴이 가변될 수 있다.Meanwhile, in one embodiment of the present invention, the pattern does not change unconditionally in response to all locations of the user. In other words, the image output device can change the pattern when the user's viewpoint information exists in a location where the three-dimensional image is not expressed three-dimensionally. For example, in (a) of FIG. 7, when the user is located at O1, the pattern does not change, and when the user is located at O2, the pattern may change.

바람직하게는 영상출력장치는 현재의 영상출력장치에서 표시되는 패턴과 입체영상에 기반하여, 입체영상이 입체적으로 보여지는 입체 시야각과 시청거리를 자체적으로 시뮬레이션하는 시뮬레이션부를 더 포함하고, 도출된 시점정보에서 현재 사용자의 시점정보가 시뮬레이션부에 의해 도출된 입체 시야각과 시청거리를 영역 내에 해당하지 않는 경우에, 패턴정보도출단계, 및 영상변환단계를 수행하여 패턴과 입체영상을 가변할 수 있다.Preferably, the image output device further includes a simulation unit that automatically simulates the three-dimensional viewing angle and viewing distance at which the three-dimensional image is viewed in three dimensions, based on the pattern and three-dimensional image displayed in the current image output device, and the derived viewpoint information. If the current user's viewpoint information does not fall within the area of the stereoscopic viewing angle and viewing distance derived by the simulation unit, the pattern information derivation step and the image conversion step can be performed to change the pattern and stereoscopic image.

이와 같이, 본 발명의 일 실시예에서는, 시점정보도출단계, 패턴정보도출단계; 및 영상변환단계가 반복 수행되고, 현재 회차에서 도출된 사용자의 시점정보가, 이전 회차에서 도출된 패턴정보도출단계에 의해 표시되는 패턴에 따른 입체 시야각과 시청거리를 만족하는 영역에 위치하고 있는 지 여부를 판단하여, 만족하는 경우에는 패턴정보도출단계; 및 영상변환단계를 재수행하지 않고 기존의 패턴정보에 따른 패턴을 유지하여 표시하고, 만족하지 않는 경우에는 패턴정보도출단계; 및 영상변환단계를 재수행하여, 패턴정보를 새롭게 도출하여 기존의 패턴을 가변하여 표시할 수 있다. As such, in one embodiment of the present invention, a viewpoint information deriving step, a pattern information deriving step; and whether the image conversion step is repeatedly performed and the user's viewpoint information derived in the current round is located in an area that satisfies the stereoscopic viewing angle and viewing distance according to the pattern displayed by the pattern information derivation step derived in the previous round. Determining and, if satisfied, pattern information derivation step; and maintaining and displaying a pattern according to the existing pattern information without re-performing the image conversion step, and if not satisfied, a pattern information deriving step; And by re-performing the image conversion step, new pattern information can be derived and the existing pattern can be displayed in a variable manner.

도 8은 본 발명의 다른 실시예에 따른 입체영상의 출력방법의 단계들을 도시한다.Figure 8 shows steps of a method for outputting a stereoscopic image according to another embodiment of the present invention.

도 8에 도시된 바와 같이, 본 발명의 다른 실시예에서는 도출된 사용자의 시점정보 혹은 패턴정보 중 1 이상을 더 반영하여, 원본영상을 입체영상으로 변환할 수 있다.As shown in Figure 8, in another embodiment of the present invention, the original image can be converted into a three-dimensional image by further reflecting one or more of the derived user's viewpoint information or pattern information.

구체적으로 S4.2단계에서 제어부(4)의 제2연산부(42)는 S1단계에서 입력된 원본영상을 입체영상으로 변환함에 있어, S2 및 S3단계에서 도출된 사용자의 시점정보 및 패턴정보 중 1 이상을 반영할 수 있다.Specifically, in step S4.2, the second operation unit 42 of the control unit 4 converts the original image input in step S1 into a three-dimensional image, using one of the user's viewpoint information and pattern information derived in steps S2 and S3. The above can be reflected.

바람직하게는 제2연산부(42)는 제1연산부(41)에 의해 도출된 패턴정보에 상응하는 패턴에 따라 원본영상을 입체영상으로 변환할 수 있다.Preferably, the second operation unit 42 can convert the original image into a three-dimensional image according to a pattern corresponding to the pattern information derived by the first operation unit 41.

종래의 경우, 고정인쇄 부착형 PB시트가 설계된 상태에서 해당 PB시트의 패턴을 반영하여 원본영상을 입체영상으로 변환하는 알고리즘을 수행하였다. In the conventional case, when a fixed print attached PB sheet was designed, an algorithm was performed to convert the original image into a three-dimensional image by reflecting the pattern of the PB sheet.

본 발명의 다른 실시예에서는, 사용자의 시점에 따라 패턴이 가변함에 따라 가변된 해당 패턴을 가변하여 원본영상을 입체영상으로 변환하는 알고리즘을 수행할 수 있다. In another embodiment of the present invention, an algorithm can be performed to convert the original image into a three-dimensional image by changing the pattern as the pattern changes depending on the user's viewpoint.

이와 같이, 본 발명의 다른 실시예에서는 사용자의 시점정보 혹은 사용자의 시점정보에 기반하여 도출된 패턴정보를 반영하여 디스플레이패널(2)에서 표시되는 입체영상을 가변할 수 있다.As such, in another embodiment of the present invention, the three-dimensional image displayed on the display panel 2 can be varied by reflecting the user's viewpoint information or pattern information derived based on the user's viewpoint information.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.As described above, although the embodiments have been described with limited examples and drawings, various modifications and variations can be made by those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent. Therefore, other implementations, other embodiments, and equivalents of the claims also fall within the scope of the claims described below.

Claims (6)

사용자의 시점에 따라 패턴을 가변하는 모노크롬패널을 포함하는 영상출력장치에 의한 입체영상의 출력방법으로서,
상기 영상출력장치는,
사용자의 시점에 따라 패턴을 가변하면서 표시하는 모노크롬패널;
상기 모노크롬패널의 후면에 배치되고, 픽셀별로 좌안 혹은 우안 어느 하나에 대한 영상이미지를 출력하여 입체영상을 표시하는 디스플레이패널;
사용자의 영상을 촬영하는 카메라; 및
상기 카메라의 촬영정보에 기반하여 도출된 사용자의 시점정보에 기초하여 상기 모노크롬패널에서 표시되는 패턴을 결정하는 제1연산부; 및 상기 사용자의 시점정보에 기초하여 원본영상을 상기 디스플레이패널에 표시되는 입체영상으로 변환하는 제2연산부;를 포함하는, 제어부;를 포함하고,
상기 입체영상의 출력방법은,
상기 제어부에 의하여, 상기 카메라의 촬영정보에 기초하여 상기 사용자와 상기 영상출력장치간의 시청거리, 상기 사용자의 위치를 제1평면에 투영했을 때의 제1시야각, 및 제2평면에 투영했을 때의 제2시야각 중 1 이상을 포함하는 시점정보를 도출하는 시점정보도출단계;
상기 제1연산부에 의하여, 상기 시점정보에 기초하여 모노크롬패널에서 출력되는 패턴의 특징에 대한 패턴정보를 도출하는 패턴정보도출단계;
상기 제2연산부에 의하여, 상기 시점정보 및 패턴정보에 기초하여 상기 원본영상을 상기 디스플레이패널에서 출력되는 입체영상으로 변환하는 영상변환단계;를 포함하고,
상기 제1평면은 모노크롬패널이 구현하는 평면에 평행하고, 상기 제2평면은 상기 제1평면에 직교하고,
상기 제어부는 사용자가 입체영상이 입체적으로 보여지는 입체 시야각과 시청거리를 만족하는 영역에 위치하고 있지 않다고 판단되는 경우에 패턴정보도출단계;를 재수행하여,
상기 영상출력장치는,
패턴이 고정됐을 때 입체영상이 입체적으로 표시되는 시야각 한계가 고정되는 것에 대비하여, 사용자의 시점정보가 입체영상이 입체적으로 표현되지 않는 위치에 존재하는 경우에 패턴을 가변하면서, 다양한 시점에서 입체영상을 입체적으로 표시할 수 있는, 입체영상의 출력방법.
A method of outputting a three-dimensional image using an image output device including a monochrome panel whose pattern varies depending on the user's viewpoint, comprising:
The video output device is,
Monochrome panel that displays a changing pattern depending on the user's viewpoint;
A display panel disposed on the back of the monochrome panel and displaying a three-dimensional image by outputting a video image for either the left eye or the right eye for each pixel;
A camera that takes images of the user; and
a first operation unit that determines a pattern displayed on the monochrome panel based on the user's viewpoint information derived based on the shooting information of the camera; and a second operation unit that converts the original image into a three-dimensional image displayed on the display panel based on the user's viewpoint information.
The method for outputting the three-dimensional image is,
By the control unit, based on the shooting information of the camera, the viewing distance between the user and the image output device, the first viewing angle when the user's position is projected on the first plane, and the viewing distance when the user's position is projected on the second plane. A viewpoint information deriving step of deriving viewpoint information including one or more of the second viewing angles;
A pattern information derivation step of deriving pattern information about the characteristics of a pattern output from a monochrome panel based on the viewpoint information by the first operation unit;
An image conversion step of converting the original image into a three-dimensional image output from the display panel by the second operation unit based on the viewpoint information and pattern information,
The first plane is parallel to the plane implemented by the monochrome panel, and the second plane is perpendicular to the first plane,
If the control unit determines that the user is not located in an area that satisfies the stereoscopic viewing angle and viewing distance at which the stereoscopic image is displayed in three dimensions, the control unit re-performs the pattern information derivation step,
The video output device is,
When the pattern is fixed, the viewing angle limit at which the stereoscopic image is displayed is fixed. In contrast, when the user's viewpoint information exists in a location where the stereoscopic image is not displayed stereoscopically, the pattern is varied and the stereoscopic image is displayed from various viewpoints. A method of outputting a three-dimensional image that can display three-dimensionally.
청구항 1에 있어서,
상기 패턴은,
서로 다른 투과율을 가지는 제1영역과 제2영역이 소정의 경사로 번갈아가며 반복배치되고,
상기 패턴정보도출단계는,
상기 시점정보에 기초하여, 상기 패턴의 시작좌표, 상기 패턴의 경사, 상기 제1영역의 너비, 상기 제2영역의 너비 중 1 이상을 포함하는 패턴정보를 도출하여, 상기 모노크롬패널에서 출력되는 패턴을 결정하는, 입체영상의 출력방법.
In claim 1,
The pattern is,
First and second regions having different transmittances are alternately arranged at a predetermined inclination,
The pattern information derivation step is,
Based on the viewpoint information, pattern information including one or more of the starting coordinates of the pattern, the slope of the pattern, the width of the first area, and the width of the second area are derived, and the pattern is output from the monochrome panel. Determining the output method of a three-dimensional image.
청구항 2에 있어서,
상기 제어부에는, 상기 모노크롬패널과 상기 디스플레이패널간의 이격거리가 저장되어 있고,
상기 패턴정보도출단계는,
상기 시점정보 및 상기 이격거리를 추가적으로 고려하여, 상기 패턴정보를 도출하는, 입체영상의 출력방법.
In claim 2,
In the control unit, the separation distance between the monochrome panel and the display panel is stored,
The pattern information derivation step is,
A method of outputting a three-dimensional image, in which the pattern information is derived by additionally considering the viewpoint information and the separation distance.
청구항 1에 있어서,
상기 영상변환단계는,
상기 제2연산부에 의하여, 사용자의 시점에 따라 가변하는 상기 시점정보 및 패턴정보 중 1 이상에 기초하여 상기 원본영상을 상기 디스플레이패널에서 출력되는 입체영상으로 변환하는, 입체영상의 출력방법.
In claim 1,
The video conversion step is,
A three-dimensional image output method that converts the original image into a three-dimensional image output from the display panel based on one or more of the viewpoint information and pattern information that varies depending on the user's viewpoint, by the second operation unit.
삭제delete 청구항 1에 있어서,
상기 원본영상은,
3D로 모델링된 3D데이터이거나,
픽셀별로 색상정보를 포함하는 2D데이터와, 2D데이터의 픽셀별로 깊이정보를 추론할 수 있는 딥러닝 기반의 학습된 기계학습모델에 해당 2D데이터를 입력하여 생성되는, 픽셀별로 깊이정보를 포함하는 깊이정보데이터가 매칭되어 있는 데이터이고,
상기 제2연산부는,
상기 원본영상을 패턴을 투과하여 보았을 때 좌안과 우안에 보여지는 이미지가 상이하여 원본영상이 입체적으로 표시되는 입체영상으로 변환하는, 입체영상의 출력방법.

In claim 1,
The original video is,
It is 3D data modeled in 3D, or
2D data containing color information for each pixel, and depth containing depth information for each pixel, created by inputting the 2D data into a deep learning-based learned machine learning model that can infer depth information for each pixel of the 2D data. It is data in which information data is matched,
The second operation unit is,
A three-dimensional image output method that converts the original image into a stereoscopic image in which the original image is displayed three-dimensionally because the images shown to the left and right eyes are different when viewed through the pattern.

KR1020230037510A 2023-03-22 2023-03-22 Method for Displaying Three Dimensional Picture by Display Apparatus Including a Monochrome Panel KR102592092B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230037510A KR102592092B1 (en) 2023-03-22 2023-03-22 Method for Displaying Three Dimensional Picture by Display Apparatus Including a Monochrome Panel

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230037510A KR102592092B1 (en) 2023-03-22 2023-03-22 Method for Displaying Three Dimensional Picture by Display Apparatus Including a Monochrome Panel

Publications (1)

Publication Number Publication Date
KR102592092B1 true KR102592092B1 (en) 2023-10-20

Family

ID=88514454

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230037510A KR102592092B1 (en) 2023-03-22 2023-03-22 Method for Displaying Three Dimensional Picture by Display Apparatus Including a Monochrome Panel

Country Status (1)

Country Link
KR (1) KR102592092B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090056655A (en) * 2007-11-30 2009-06-03 한국전자통신연구원 Apparatus and method for performing variable multi-layer barrier according to seeing distance
KR20120012633A (en) * 2010-08-02 2012-02-10 삼성전자주식회사 3d imaging display apparatus
KR20120091585A (en) * 2011-02-09 2012-08-20 삼성전기주식회사 Display device and method for providing 3d image of the display device
KR102098151B1 (en) 2013-11-26 2020-04-08 엘지디스플레이 주식회사 Stereoscopic 3 dimension display device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090056655A (en) * 2007-11-30 2009-06-03 한국전자통신연구원 Apparatus and method for performing variable multi-layer barrier according to seeing distance
KR20120012633A (en) * 2010-08-02 2012-02-10 삼성전자주식회사 3d imaging display apparatus
KR20120091585A (en) * 2011-02-09 2012-08-20 삼성전기주식회사 Display device and method for providing 3d image of the display device
KR102098151B1 (en) 2013-11-26 2020-04-08 엘지디스플레이 주식회사 Stereoscopic 3 dimension display device

Similar Documents

Publication Publication Date Title
JP5704893B2 (en) High-density multi-view video display system and method based on active sub-pixel rendering scheme
JP6308513B2 (en) Stereoscopic image display apparatus, image processing apparatus, and stereoscopic image processing method
US6353457B2 (en) Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus
TWI508519B (en) An image processing apparatus, a program, an image processing method, a recording method, and a recording medium
US7986320B2 (en) 3D image displaying method and apparatus
JP5978695B2 (en) Autostereoscopic display device and viewpoint adjustment method
US20110063421A1 (en) Stereoscopic image display apparatus
TWI507013B (en) A stereoscopic image display device, a stereoscopic image display method, and a stereoscopic image determining device
CN211128024U (en) 3D display device
WO2020194699A1 (en) Aerial video display device
JP2006115198A (en) Stereoscopic image generating program, stereoscopic image generating system, and stereoscopic image generating method
KR20120030005A (en) Image processing device and method, and stereoscopic image display device
US10473945B2 (en) Method for tuning a three-dimensional image and a display apparatus thereof
CN113272710A (en) Extending field of view by color separation
KR102592092B1 (en) Method for Displaying Three Dimensional Picture by Display Apparatus Including a Monochrome Panel
JP2015037282A (en) Image processing device, image processing method, and program
CN101908233A (en) Method and system for producing plural viewpoint picture for three-dimensional image reconstruction
KR100906784B1 (en) Plug-in module for stereographic imaging program and stereographic imaging method
JP2004207780A (en) Photo taking apparatus
KR101093929B1 (en) Method and system for displaying 3-dimensional images using depth map
KR101741227B1 (en) Auto stereoscopic image display device
JP2004279743A (en) Three dimensional display device
CN214756700U (en) 3D display device
CN216622868U (en) Slit grating and naked eye three-dimensional image display device
KR100400209B1 (en) Apparatus for generating three-dimensional moving pictures from tv signals

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant