KR20150039463A - A 3 dimension display device and 3 dimension image processing method - Google Patents
A 3 dimension display device and 3 dimension image processing method Download PDFInfo
- Publication number
- KR20150039463A KR20150039463A KR20130118081A KR20130118081A KR20150039463A KR 20150039463 A KR20150039463 A KR 20150039463A KR 20130118081 A KR20130118081 A KR 20130118081A KR 20130118081 A KR20130118081 A KR 20130118081A KR 20150039463 A KR20150039463 A KR 20150039463A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- perspective
- viewer
- unit
- display device
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/50—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/26—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
본 발명은 3D 디스플레이장치 및 3D영상처리방법, 더욱 상세하게는 사용자의 위치나 화면곡률을 기초로 3D영상정보를 보정하여 시청자에게 최적인 3D영상을 표시할 수 있는 3D 디스플레이장치 및 3D영상처리방법에 관한 것이다.The present invention relates to a 3D display device and a 3D image processing method, and more particularly, to a 3D display device and a 3D image processing method capable of displaying 3D images optimal for viewers by correcting 3D image information based on a user's position or screen curvature .
디스플레이장치는 그 특성에 따라 2차원(Dimension) 영상과 3차원(Dimension)(이하 3D라 칭함) 영상을 표시할 수 있다. 사용자는 양쪽 눈에 의한 시야각도가 상이하고, 이에 의하여 사물의 3차원적 입체를 인지할 수 있다. 상기 원리를 이용하여, 3차원 영상은 똑 같은 장면을 두 개의 다른 시점, 즉 좌안 영상과 우안 영상이 구분되어 있다. 상기 각 시점은 수평으로 떨어져 있으나 사람은 양안시차에 의하여 상기 두 개의 시점을 하나로 인식하면서 사물의 3차원적 입체를 인지하게 되는 것이다.The display device can display a two dimensional (3D) image and a three dimensional (3D) image according to its characteristics. The user has different viewing angles by both eyes, and thereby can recognize a three-dimensional solid object. Using the above principle, three-dimensional images are divided into two different viewpoints, that is, a left-eye image and a right-eye image. Each of the viewpoints is horizontally separated, but a person perceives the two viewpoints as one by the binocular parallax, and recognizes the three-dimensional objects of the object.
상기 두 개의 다른 시점을 가진 좌안 영상과 우안 영상을 겹쳐서 보면, 가까이 있는 물체일수록 상기 좌안 영상과 우안 영상의 수평 상의 위치 차이가 발생하고, 상기 차이로 인하여 사람은 원근감(입체감 또는 심도)을 느낄 수 있다.When the left eye image and the right eye image having the two different viewpoints are overlapped, a positional difference occurs on a horizontal plane between the left eye image and the right eye image as objects closer to each other are viewed. The difference causes a person to feel the perspective (depth sense or depth) have.
3D영상의 입체감은 심도(Depth)와 퍼스펙티브(perspective)로 구분할 수 있다. 퍼스펙티브는 심도(Depth)가 0일 때의 3D시점을 의미하며, 심도(Depth)는 퍼스펙티브를 기준으로 0 Depth로 부터의 입체감을 의미한다. 즉, 퍼스펙티브는 심도(Depth)의 설정기준에 해당한다.Depth and perspective of a 3D image can be divided into three dimensions. The perspective refers to the 3D view when the depth is 0, and the depth means a sense of depth from 0 Depth based on the perspective. That is, the perspective corresponds to the setting criterion of the depth.
종래의 3D영상에서 심도(Depth)의 설정기준은 도 9에 나타낸 바와 같이 화면 전체에 일정 값으로 적용하였다. In the conventional 3D image, the setting criterion of the depth is applied to the entire screen as a constant value as shown in FIG.
텔레비전과 같은 디스플레이장치는 대형화되고 있고, 다수의 시청자가 동시에 다른 각도에서 시청하는 것이 일반적이다. 이 경우 종래의 3D영상에서 심도(Depth)의 설정기준은 중앙의 시청자에 맞춰져 있기 때문에 외곽의 시청자에게는 3D 영상이 왜곡되게 표현될 수 있다.2. Description of the Related Art Display devices such as televisions are becoming larger in size, and it is common that a large number of viewers watch at the same time from different angles. In this case, since the setting criterion of the depth in the conventional 3D image is adjusted to the viewer at the center, the 3D image can be distorted to the viewer at the outer periphery.
최근 플렉시블(flexible) 디스플레이가 개발되고 있고, 사용 중 항상 가변 곡률을 갖는 것이 일반적이다. 이러한 플렉시블(flexible) 디스플레이를 이용하여 3D 영상을 표현할 때, 종래의 3D영상에서 심도(Depth)의 설정기준을 적용하면 시청자에게는 왜곡된 3D영상이 보여지게 될 수 있다.Recently, flexible displays have been developed and it is common that they always have a variable curvature during use. When such a flexible display is used to represent a 3D image, a distorted 3D image can be displayed to a viewer by applying a setting criterion of depth in a conventional 3D image.
본 발명의 목적은 상술한 종래의 문제를 해결하기 위한 것으로, 3D영상에서 심도(Depth)의 설정기준을 감지된 시청자 위치 및/또는 화면의 곡률을 중심으로 제공하는 3D 디스플레이장치 및 3D영상처리방법을 제공함에 있다.An object of the present invention is to solve the above-mentioned conventional problems, and it is an object of the present invention to provide a 3D display device and a 3D image processing method which provide a setting criterion of a depth in a 3D image centering on a detected viewer position and / .
본 발명의 다른 목적은 다수의 시청자 각각에 맞게 최적으로 생성된 3D영상을 시청 가능한 멀티뷰(multi view) 3D 디스플레이장치 및 3D영상처리방법을 제공함에 있다.It is another object of the present invention to provide a multi-view 3D display device and a 3D image processing method capable of viewing a 3D image optimally generated for each of a plurality of viewers.
상술한 본 발명의 과제를 해결하기 위한 일 실시예에 따른 3D디스플레이장치는, 3D영상을 수신하는 영상입력부, 디스플레이장치의 화면곡률 정보와 시청자의 위치 정보 중 적어도 하나를 기초로 하여 3D 심도(depth) 설정기준(perspective)을 계산하는 퍼스펙티브 산출부, 상기 계산된 심도(depth) 설정기준(perspective)에 따라 상기 수신된 3D 영상의 심도(depth)를 보정하는 랜더링부 및 상기 보정된 3D영상을 표시하는 디스플레이부를 포함하여 구성할 수 있다.According to another aspect of the present invention, there is provided a 3D display apparatus including a video input unit for receiving a 3D image, a 3D depth unit based on at least one of screen curvature information of a display apparatus and position information of a viewer, A rendering unit for correcting the depth of the received 3D image according to the calculated depth setting reference, and a display unit for displaying the corrected 3D image And a display unit for displaying the image.
상기 시청자의 위치 정보는 위치감지센서 및 카메라 중 적어도 하나에 의해 얻어질 수 있다.The location information of the viewer may be obtained by at least one of a position sensing sensor and a camera.
상기 3D디스플레이장치는 디스플레이장치의 화면곡률 정보를 측정하는 곡률 측정부를 더 포함할 수 있다.The 3D display apparatus may further include a curvature measuring unit for measuring screen curvature information of the display device.
상기 곡률 측정부는 복수의 로드셀 (load cell)을 포함하며, 상기 디스플레이부의 후면에 배치되는 것이 바람직하다.Preferably, the curvature measuring unit includes a plurality of load cells, and is disposed on a rear surface of the display unit.
상기 디스플레이부는 플렉시블 디스플레이부를 포함할 수 있다.The display unit may include a flexible display unit.
상기 3D 심도(depth) 설정기준(perspective)은 복수의 시청자 각각에 대해 계산될 수 있다.The 3D depth setting perspective can be calculated for each of a plurality of viewers.
상기 디스플레이부는 무안경 입체영상(autostereoscopic) 디스플레이부를 포함할 수 있다.The display unit may include an autostereoscopic display unit.
상기 3D 심도(depth) 설정기준(perspective)은 시청자의 얼굴을 기준으로 계산되는 것이 바람직하다.The 3D depth setting perspective is preferably calculated based on the viewer's face.
상술한 본 발명의 과제를 해결하기 위한 일 실시예에 따른 3D영상처리방법은, 3D영상을 수신하는 단계, 디스플레이장치의 화면곡률 정보와 시청자의 위치 정보 중 적어도 하나를 측정하는 단계, 상기 측정된 화면곡률 정보와 시청자의 위치 정보 중 적어도 하나를 기초로 하여 3D 심도(depth) 설정기준(perspective)을 계산하는 단계, 상기 계산된 심도(depth) 설정기준(perspective)에 따라 상기 수신된 3D 영상의 심도(depth)를 보정하는 단계 및 상기 보정된 3D영상을 디스플레이부에 표시하는 단계를 포함하여 구성할 수 있다.According to another aspect of the present invention, there is provided a 3D image processing method including receiving a 3D image, measuring at least one of screen curvature information of a display device and position information of a viewer, Calculating a 3D depth setting perspective based on at least one of the screen curvature information and the viewer's location information; Correcting the depth of the 3D image, and displaying the corrected 3D image on the display unit.
본 발명에 의하면, 시청자의 시청위치나 디스플레이장치의 화면곡률에 맞게 3D영상을 보정하여 시청자에게 제공함으로써 시청자는 언제나 최적의 3D영상을 시청할 수 있다.According to the present invention, the 3D image is corrected according to the viewing position of the viewer and the screen curvature of the display device, and provided to the viewer, so that the viewer can always view the optimal 3D image.
도 1은 본 발명에 따른 3D디스플레이장치의 블록도,
도 2는 본 발명의 심도 설정기준 변경에 따른 3D영상의 보정을 나타내는 도,
도 3은 본 발명의 시청자 위치 기반에 따른 심도 설정기준 변경을 나타내는 도,
도 4 및 5는 본 발명의 화면곡률 기반에 따른 심도 설정기준 변경을 나타내는 도,
도 6은 본 발명에 따른 3D영상처리방법을 나타내는 흐름도,
도 7은 곡률 측정부의 구성을 나타내는 도,
도 8은 본 발명에 따른 멀티뷰 3D디스플레이장치에서 다수 시청자에 대한 심도 설정기준 변경을 나타내는 도, 및
도 9는 종래의 3D영상의 심도설정기준을 나타내는 도이다.1 is a block diagram of a 3D display device according to the present invention;
FIG. 2 is a diagram illustrating correction of a 3D image according to the depth setting reference change of the present invention,
3 is a diagram illustrating a depth setting reference change according to a viewer position based on the present invention.
4 and 5 are diagrams illustrating a depth setting reference change according to a screen curvature based on the present invention,
6 is a flowchart illustrating a 3D image processing method according to the present invention.
7 is a diagram showing a configuration of a curvature measuring unit,
8 is a diagram illustrating a depth setting reference change for a plurality of viewers in a multi-view 3D display apparatus according to the present invention, and Fig.
FIG. 9 is a view showing a depth setting standard of a conventional 3D image.
이하에서는 첨부도면을 참조하여 본 발명에 대해 상세히 설명한다. 이하 실시예에서는 본 발명의 사상과 직접적인 관련이 있는 구성들에 관해서만 설명하며, 그 외의 구성에 관해서는 설명을 생략한다. 그러나, 본 발명의 사상이 적용된 장치 또는 시스템을 구현함에 있어서, 이와 같이 설명이 생략된 구성이 불필요함을 의미하는 것이 아님을 밝힌다. 도면에 표현된 동일한 참조 번호는 동일한 구성 요소를 나타낸다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. In the following embodiments, only configurations directly related to the concept of the present invention will be described, and description of other configurations will be omitted. However, it is to be understood that, in the implementation of the apparatus or system to which the spirit of the present invention is applied, it is not meant that the configuration omitted from the description is unnecessary. Like reference numerals in the drawings denote like elements.
도 1은 본 발명의 일 실시예에 따른 3D디스플레이장치(100)의 블록도이다. 1 is a block diagram of a
본 발명의 3D디스플레이장치(100)는 도시되지 않은 외부의 영상공급원으로부터 영상신호를 수신 및 처리할 수 있는 전자장치를 포함할 수 있다. 상기 처리된 영상신호에 대응하는 이미지를 디스플레이부(30)에 표시하는 디스플레이장치로 구현될 수 있다.The
상기 3D디스플레이장치(100)는 CPU(미도시) 및 그래픽카드(미도시)를 가지고 영상신호를 생성하여 이를 로컬(local)로 제공할 수 있는 컴퓨터본체(미도시), 영상신호를 네트워크로 제공할 수 있는 서버(미도시), 공중파 또는 케이블을 이용하여 방송신호를 송출 가능한 방송국의 송출장치(미도시) 등 다양한 영상공급원으로부터 영상신호를 공급받을 수 있다.The
3D디스플레이장치(100)는 외부로부터 2차원 영상신호 또는 3차원 영상신호를 수신하면, 이를 처리하여 2차원 영상 또는 3차원 영상을 표시한다. 여기서, 3차원 영상은 2차원 영상과 달리, 사용자의 좌안에 대응하는 좌안 영상과, 사용자의 우안에 대응하는 우안영상으로 구분된다. 따라서, 3D디스플레이장치(100)가 3차원 영상신호를 수신하면, 이에 기초하여 좌안 영상과 우안 영상을 프레임(frame) 단위로 교대로 표시한다. 이 때, 상기 3D디스플레이장치(100)는, 상기 교대로 표시되는 좌안 영상과 우안 영상 프레임에 대응하여 좌측셔터부 및 우측셔터부를 교번적으로 개폐시키는 셔터 안경(미도시)을 더 포함할 수 있다. 상기 셔터 안경(미도시)는, 3D디스플레이장치(100)에 3차원 영상이 표시되는 경우, 현재 좌안 영상 또는 우안 영상 중 어느 것이 표시되는지 여부에 대응하여 사용자의 좌안 또는 우안에 대한 시야를 선택적으로 개방하거나 차단한다.When the
또한, 3D디스플레이장치(100)는 셔터 안경을 사용하지 않고 무안경 입체영상(autostereoscopic)을 표시할 수 있다. 무안경 입체영상(autostereoscopic)을 표시방식은 패럴렉스 배리어(parallax barrier) 방식과 렌티큘러 렌즈(lenticular lense) 방식이 있다. 패럴렉스 배리어(parallax barrier) 방식은, 스크린 앞에 막을 두어 좌안 영상과 우안 영상을 분리하여 보여줄 수 있다. 렌티큘러 렌즈(lenticular lense) 방식은 스크린 앞에 볼록한 렌티큘러 렌즈를 배치하여 좌안 영상과 우안 영상을 분리하여 보여줄 수 있다.Also, the
또한 본 발명의 3D디스플레이장치(100)는 셋탑 박스를 포함할 수도 있다. 따라서, 도시되지 않은 외부의 영상공급원으로부터 공급되는 영상신호를 셋탑박스에서 처리하여 디스플레이부로 상기 처리된 영상신호를 전송할 수 있다. 이때, 디스플레이부는 TV 또는 모니터로 구성될 수 있다.The
도 1에 나타낸 바와 같이, 본 발명에 따른 3D디스플레이장치(100)는 영상입력부(110), 시청자 위지감지부(120), 곡률 측정부(130), 퍼스펙티브(perspective) 산출부(140), 랜더링부(150) 및 디스플레이부(160)를 포함하여 구성할 수 있다.1, a
영상입력부(110)는 외부로부터 영상신호를 수신하여 퍼스펙티브 산출부(140)에 전달하며, 수신하는 영상신호의 규격 및 디스플레이장치(100)의 구현 형태에 대응하여 다양한 방식으로 구현될 수 있다. 상기 영상신호는 2차원 영상신호 또는 3차원 영상신호를 포함하고, 음성신호, 데이터신호를 더 포함할 수도 있다. The
상기 영상신호가 3차원 영상신호인 경우, 상기 데이터신호는 상기 3차원 영상신호에 대한 입체정보를 포함할 수 있다. When the image signal is a three-dimensional image signal, the data signal may include stereoscopic information on the three-dimensional image signal.
상기 입체정보는, 상기 3차원 영상신호에 대응하는 이미지의 소정 영역의 좌안 영상과 우안 영상 사이에서의 수평적인 위치 차이에 대한 정보를 포함할 수 있다.The stereoscopic information may include information on a horizontal positional difference between a left eye image and a right eye image of a predetermined region of an image corresponding to the three-dimensional image signal.
예를 들어, 3D디스플레이장치(100)가 TV로 구현되는 경우, 영상입력부(110)는 방송국으로부터 송출되는 RF(radio frequency) 신호를 무선으로 수신하거나, 컴포지트(composite) 비디오, 컴포넌트(component) 비디오, 슈퍼 비디오(super video), SCART, HDMI(high definition multimedia inferface) 규격 등을 따르는 영상신호를 수신할 수 있다. 이 때, 영상입력부(110)는 안테나(미도시) 및/또는 방송 채널을 튜닝하는 튜너(미도시)를 더 포함할 수 있다.For example, when the
예를 들어, 3D디스플레이장치 (100)가 PC 모니터로 구현되는 경우, 영상입력부(110)는 VGA 방식에 따른 RGB 신호를 전달 가능한 D-SUB, DVI(digital video interactive) 규격에 따른 DVI-A(analog), DVI-I(integrated digital/analog), DVI-D(digital) 또는 HDMI 규격 등으로 구현될 수 있다. 또는 수신부(10)는 디스플레이포트(DisplayPort), UDI(unified display interface), 또는 와이어리스(wireless) HD 등으로 구현될 수 있다.For example, when the
시청자 위치감지부(120)는 시청자의 시청위치를 감지하여 감지결과를 퍼스펙티부 산출부(140)에 전달할 수 있다. 시청자 위치감지부(120)는 인체감지센서 및 카메라를 포함할 수 있다. 시청자 위치감지부(120)는 디스플레이장치의 외관을 구성하는 샤시의 상측 또는 하측 중앙에 배치할 수 있다.
The viewer
인체감지센서는 동작감지센서, 위치센서, 열감지센서 등을 포함할 수 있다. The human body detection sensor may include a motion detection sensor, a position sensor, a heat sensing sensor, and the like.
카메라는 시청자의 위치뿐만 아니라 시청자의 얼굴을 인식하여 사용자를 식별할 수 있다. 이와 같이 식별된 사용자에 적합한 3D영상을 디스플레이부(160)에 표시할 수 있다. 카메라는 웹캠(webcam), 팬 틸트(pan tilt) 카메라, 디지털카메라, 아날로그 카메라, 캠코더 등을 포함할 수 있다.The camera recognizes not only the position of the viewer but also the face of the viewer to identify the user. The 3D image suitable for the identified user can be displayed on the
상기 곡률 측정부(130)는 화면의 곡률을 측정하여 측정결과를 퍼스펙티부 산출부(140)에 전달할 수 있다. 도 7은 화면의 곡률을 측정하는 예를 나타낸 것이다. The
도 7에서, 플렉서블 디스플레이부(160)의 배면에 다수의 센서(132)들을 배열할 수 있다. 센서(132)는 플렉서블 디스플레이부(160)의 휘어진 형태를 정확히 추출하기 위해 플렉서블 디스플레이부(160)의 가로와 세로 방향으로 일정한 간격으로 배열하는 것이 바람직하다. 센서(132)들은 센서지지부(134)에 부착된 상태에서 플렉서블 디스플레이부(160)의 배면에 배치될 수 있다. 센서(132)의 종류로는 물리적인 힘을 전기적 신호로 바꾸는 소자인 로드 셀(Load Cell) 또는 휘어지는 각도에 따라 저항 값이 커지는 특성을 가지는 밴드 센서(Bend Sensor)가 가능하다. In FIG. 7, a plurality of
상기 디스플레이부(160)는 사전에 소정 곡률을 갖도록 설계될 수 있으며, 이 경우에는 설계 시에 정해진 화면곡률 데이터를 이용할 수도 있다.The
상기 퍼스펙티부 산출부(140)는 영상입력부(110)에서 수신한 3D영상을 수신할 수 있다. 또한, 상기 퍼스펙티부 산출부(140)는 시청자 위치감지부(120)로부터 감지된 시청자의 위치 및/또는 시청자 식별 결과를 수신할 수 있다. 또한, 상기 퍼스펙티부 산출부(140)는 곡률 측정부(130)로부터 측정된 화면 곡률을 수신할 수 있다. 상기 퍼스펙티부 산출부(140)는 수신한 시청자 위치 및/또는 화면곡률을 기초로 하여 수신한 3D영상의 심도(depth)를 설정하기 위한 기준(이하 3D퍼스펙티브라 칭함)을 계산할 수 있다. 상기 퍼스펙티부 산출부(140)는 식별된 다수의 시청자 별로 3D 퍼스펙티브를 산출하여 랜더링부(150)에 출력할 수 있다.The per-spectral
도 8은 다수의 시청자 별로 3D 퍼스펙티브를 산출하는 방법을 모식적으로 나타낸 도이다. 도 8에서, 시청자 B는 중앙에 위치하고, 시청자 B를 중심으로 동일한 곡률의 3D 퍼스펙티브 B를 산출할 수 있다. 또한 시청자 A가 좌측에 위치하면 좌측의 시청자를 중심으로 동일한 곡률의 3D 퍼스펙티브 A를 산출할 수 있다. 또한 시청자 C가 우측에 위치하면 우측의 시청자를 중심으로 동일한 곡률의 3D 퍼스펙티브 C를 산출할 수 있다. 물론, 3D 퍼스펙티브를 산출한 식은 일정한 곡률로만 한정된 것이 아니고 소정의 법칙에 따라 설정될 수 있다8 is a diagram schematically illustrating a method of calculating a 3D perspective for a plurality of viewers. In FIG. 8, the viewer B is located at the center, and can calculate the 3D perspective B of the same curvature centered on the viewer B. When the viewer A is located on the left side, the 3D perspective A having the same curvature can be calculated around the viewer on the left side. When the viewer C is located on the right side, the 3D perspective C having the same curvature can be calculated centering on the viewer on the right side. Of course, the equation for calculating the 3D perspective can be set according to a predetermined rule instead of being limited to a certain curvature
3D 퍼스펙티브는 입체(3D) 영상의 심도(depth)를 설정하기 위한 기준(면), 즉 심도(depth)가 0인 기준에 해당한다. 도 2에 나타낸 바와 같이, 3D 퍼스펙티브가 변경되면 심도를 설정할 때 이 변경된 3D퍼스펙티브를 기준으로 3D영상의 심도를 보정하여야 한다.The 3D perspective corresponds to a reference (plane) for setting the depth of a stereoscopic (3D) image, that is, a reference having a depth of zero. As shown in FIG. 2, when the 3D perspective is changed, the depth of the 3D image should be corrected based on the changed 3D perspective when the depth is set.
상기 퍼스펙티부 산출부(140)는 하드웨어 또는 소프트웨어로 구현될 수 있다. 하드웨어는 CPU, MPU 등과 같은 제어모듈로 구성될 수 있다. 소프트웨어는 운영체제 내에 설치된 퍼스펙티브를 산출할 수 있는 프로그램으로 구현될 수 있다.The per-
상기 퍼스펙티부 산출부(140)의 3D퍼스펙티브 계산은 시청자의 시청위치와 화면곡률 중 적어도 하나를 기초로 계산될 수 있다.The 3D perspective calculation of the per-
도 3은 시청자의 위치에 따라 3D퍼스펙티브를 변경하는 것을 도식적으로 나타낸 것이다. 즉, 시청자가 화면의 우측에 위치하여 디스플레이장치(100)를 시청할 경우, 우측의 시청자를 중심으로 3D퍼스펙티브를 변경할 수 있다. Figure 3 schematically illustrates changing the 3D perspective according to the viewer's location. That is, when the viewer is located on the right side of the screen and views the
도 4는 화면이 평면일 때 3D퍼스펙티브를 변경하는 것을 도식적으로 나타낸 것으로, 3D 퍼스펙티브는 시청자에 대해 오목한 면으로 변경할 수 있다.Fig. 4 schematically illustrates changing the 3D perspective when the screen is flat; the 3D perspective can be changed to a concave surface with respect to the viewer.
도 5는 화면이 곡면일 때 3D퍼스펙티브를 변경하는 것을 도식적으로 나타낸 것으로, 3D 퍼스펙티브는 시청자에 대해 오목할 뿐만 아니라 화면의 곡률에 따라 변화하는 면으로 변경할 수 있다.Fig. 5 schematically illustrates changing the 3D perspective when the screen is curved. The 3D perspective can be changed not only to the viewer but also to the surface that changes according to the curvature of the screen.
상기 퍼스펙티부 산출부(140)는 시청자의 시청위치정보 또는 화면곡률을 개별적으로 적용하여 3D퍼스펙티브를 산출할 수도 있고, 모두를 반영하여 산출할 수도 있다.The per-spectral
랜더링부(150)는 수신된 3D영상에 포함된 3D정보, 예를 들면 심도(depth)를 상기 퍼스펙티부 산출부(140)에서 계산한 3D 퍼스펙티브를 기준으로 적용하여 보정할 수 있다. 랜더링부(150)는 3D영상을 다수의 시청자 별로 보정하여 보정된 3D영상을 생성할 수 있다. 이와 같이 다수의 시청자 별로 보정하여 3D영상을 보정하면 시청자 별로 최적의 3D영상을 표시할 수 있다.The
이와 같은 다수의 시청자 별로 3D 퍼스펙티브를 산출하여 보정한 3D영상은 하나의 화면에 다수의 사용자가 다른 컨텐츠를 볼 수 있는 멀티뷰(multi view) 디스플레이장치에 적용할 수 있다.The 3D image obtained by calculating and correcting the 3D perspective for a plurality of viewers can be applied to a multi view display device in which a plurality of users can view different contents on one screen.
본 발명에 따른 3D디스플레이장치(100)는 영상신호처리부(미도시)를 포함할 수 있다. 영상처리부는 영상신호에 대해 기 설정된 다양한 영상처리 프로세서를 더 수행할 수 있다. 상기 프로세서의 종류는 한정되지 않는 바, 예를 들어, 주어진 해상도에 맞게 화면을 확대 또는 축소하는 스케일일, 다양한 영상 포맷에 대응하는 디코딩(decoding) 및 인코딩(encoding), 디인터레이싱(de-interlacing), 프레임 리프레시 레이트(frame fresh rate) 변환, 영상 화질 개선을 위한 노이즈 감소(noise reduction), 디테일 인핸스먼트(detail enhancement), 라인 스캐닝(line scanning) 등을 더 포함할 수 있다. 상기 프로세서는 개별 또는 복합적으로 수행될 수 있다.The
물론, 랜더링부(150)는 상기 영상신호처리부에 포함될 수 있으나, 편의상 분리하여 표시하였다.Of course, the
디스플레이부(160)는 랜더링부(150)에서 보정한 3D영상을 시청자가 볼 수 있도록 표시할 수 있다. 디스플레이부(160)는 주사된 복수의 수평 주사 라인이 수직으로 배열됨으로써 하나의 영상 프레임을 표시할 수 있다. 디스플레이부(160)는 상기 영상을 표시하는 디스플레이패널(미도시)을 포함하며, 상기 디스플레이패널(미도시)은, 액정층을 포함하는 액정패널 또는 유기물로 구성된 발광층을 포함하는 유기발광패널, 플라즈마 표시패널 등을 포함할 수 있다. 디스플레이부(160)는 플렉시블 패널을 포함할 수 있다.The
이하 본 발명에 따른 3D영상처리방법을 도 6을 참조하여 상세히 설명하기로 한다.Hereinafter, a 3D image processing method according to the present invention will be described in detail with reference to FIG.
먼저 단계 S110에서, 영상공급원 또는 저장된 좌안영상, 우안영상 및 3D정보를 포함하는 3D영상을 수신한다. 이때 수신된 3D영상은 시청자의 시청위치나 화면곡률과는 관계없이 일괄적으로 평면의 3D퍼스펙티브를 기준으로 산출된 3D정보를 포함한다.First, in step S110, a 3D image including a video source or a stored left eye image, right eye image, and 3D information is received. At this time, the received 3D image includes 3D information calculated on the basis of the 3D perspective of the plane collectively regardless of the viewer's viewing position or the screen curvature.
단계 S120에서, 시청자의 위치감지부(120)를 통하여 시청자의 위치정보 및 시청자 식별정보를 획득한다. In step S120, the location information of the viewer and the viewer identification information are acquired through the
단계 S120과 동시에 또는 선택적으로 디스플레이장치의 화면곡률을 측정한다.Simultaneously or selectively with step S120, the screen curvature of the display device is measured.
단계 S140에서, 화면곡률 정보와 시청자 위치정보 중 적어도 하나를 기준으로 3D 퍼스펙티브를 산출한다.In step S140, the 3D perspective is calculated based on at least one of the screen curvature information and the viewer position information.
단계S150에서, 상기 산출된 3D퍼스펙티브를 수신하여 수신한 3D영상에 반영하여, 수신한 3D영상에 포함된 3D정보를 보정한다.In step S150, the calculated 3D perspective is received and reflected on the received 3D image, and the 3D information included in the received 3D image is corrected.
단계 S160에서, 상기 3D퍼스펙티브가 보정된 3D영상을 디스플레이부(160)에 표시한다.In step S160, the 3D perspective corrected 3D image is displayed on the
이상과 같이, 사용자의 시청위치를 감지하여 시청자를 식별하고, 수신된 3D영상을 시청자의 위치에 따른 최적의 3D영상으로 보정하여 표시할 수 있다. 또한, 곡면 TV나 플렉시블 디스플레이에서 3D영상을 표시할 때, 변화된 화면 곡률에 맞게 수신된3D영상을 보정하여 표시할 수도 있다. As described above, it is possible to identify the viewer by detecting the viewing position of the user, and to correct the received 3D image with an optimal 3D image according to the viewer's position and display it. Further, when a 3D image is displayed on a curved TV or a flexible display, the received 3D image may be corrected and displayed according to the changed curvature of the screen.
상기한 실시예는 예시적인 것에 불과한 것으로, 당해 기술 분야의 통상의 지식을 가진 자라면 다양한 변형 및 균등한 타 실시예가 가능하다. 따라서, 본 발명의 진정한 기술적 보호범위는 하기의 특허청구범위에 기재된 발명의 기술적 사상에 의해 정해져야 할 것이다.The above-described embodiments are merely illustrative, and various modifications and equivalents may be made by those skilled in the art. Accordingly, the true scope of protection of the present invention should be determined by the technical idea of the invention described in the following claims.
100: 3D디스플레이장치
110: 영상입력부
120: 시청자 위치감지부
130: 화면곡률 측정부
132: 로드 셀(load cell)
134: 로드 셀 지지부
140: 3D퍼스펙티브 산출부
150: 랜더링부
160: 디스플레이부
430: 표시부100: 3D display device
110:
120: viewer position detection unit
130: screen curvature measuring unit
132: load cell
134: load cell support
140: 3D perspective calculation unit
150:
160:
430:
Claims (15)
3D영상을 수신하는 영상입력부;
디스플레이장치의 화면곡률 정보와 시청자의 위치 정보 중 적어도 하나를 기초로 하여 3D 심도(depth) 설정기준(3D perspective)을 계산하는 퍼스펙티브 산출부;
상기 계산된 심도(depth) 설정기준(3D perspective)에 따라 상기 수신된 3D 영상의 심도(depth)를 보정하는 랜더링부; 및
상기 보정된 3D영상을 표시하는 디스플레이부를 포함하는 3D디스플레이장치.
In a 3D display device,
A video input unit for receiving a 3D image;
A perspective calculation unit for calculating a 3D depth setting reference (3D perspective) based on at least one of the screen curvature information of the display device and the viewer's position information;
A rendering unit for correcting the depth of the received 3D image according to the calculated depth setting standard (3D perspective); And
And a display unit for displaying the corrected 3D image.
상기 시청자의 위치 정보는 위치감지센서 및 카메라 중 적어도 하나에 의해 얻어지는 것을 특징으로 하는 3D디스플레이장치.
The method according to claim 1,
Wherein the position information of the viewer is obtained by at least one of a position sensor and a camera.
상기 디스플레이장치의 화면곡률 정보를 측정하는 곡률 측정부를 더 포함하는 것을 특징으로 하는 3D디스플레이장치.
The method according to claim 1,
Further comprising a curvature measuring unit for measuring curvature information of the display device.
상기 곡률 측정부는 복수의 로드셀 (load cell)을 포함하며, 상기 디스플레이부의 배면에 배치되는 것을 특징으로 하는 3D디스플레이장치.
The method of claim 3,
Wherein the curvature measuring unit includes a plurality of load cells and is disposed on a back surface of the display unit.
상기 디스플레이부는 플렉시블 디스플레이부를 포함하는 것을 특징으로 하는 3D디스플레이장치.
5. The method of claim 4,
Wherein the display unit includes a flexible display unit.
상기 3D 심도(depth) 설정기준(3D perspective)은 복수의 시청자 각각에 대해 계산되는 것을 특징으로 하는 3D디스플레이장치.
The method according to claim 1,
Wherein the 3D depth setting reference (3D perspective) is calculated for each of a plurality of viewers.
상기 디스플레이부는 무안경 입체영상(autostereoscopic) 디스플레이부를 포함하는 것을 특징으로 하는 3D디스플레이장치.
The method according to claim 6,
Wherein the display unit includes an autostereoscopic display unit.
상기 3D 심도(depth) 설정기준(3D perspective)은 시청자의 얼굴을 기준으로 계산되는 것을 특징으로 하는 3D디스플레이장치.
The method according to claim 1,
Wherein the 3D depth setting reference (3D perspective) is calculated based on the face of the viewer.
3D영상을 수신하는 단계;
디스플레이장치의 화면곡률 정보와 시청자의 위치 정보 중 적어도 하나를 측정하는 단계;
상기 측정된 화면곡률 정보와 시청자의 위치 정보 중 적어도 하나를 기초로 하여 3D 심도(depth) 설정기준(3D perspective)을 계산하는 단계;
상기 계산된 심도(depth) 설정기준(3D perspective)에 따라 상기 수신된 3D 영상의 심도(depth)를 보정하는 단계; 및
상기 보정된 3D영상을 디스플레이부에 표시하는 단계를 포함하는 3D 영상처리방법.
In the 3D image processing method,
Receiving a 3D image;
Measuring at least one of screen curvature information of a display device and position information of a viewer;
Calculating a 3D depth setting reference based on at least one of the measured screen curvature information and the viewer's location information;
Correcting the depth of the received 3D image according to the calculated depth perspective (3D perspective); And
And displaying the corrected 3D image on a display unit.
상기 시청자의 위치 정보는 위치감지센서 및 카메라 중 적어도 하나에 의해 얻어지는 것을 특징으로 하는 3D 영상처리방법.
10. The method of claim 9,
Wherein the position information of the viewer is obtained by at least one of a position sensor and a camera.
상기 디스플레이장치의 화면곡률 정보는 플렉시블 디스플레이부의 휘어짐을 측정하여 얻는 것을 특징으로 하는 3D 영상처리방법.
10. The method of claim 9,
Wherein the screen curvature information of the display device is obtained by measuring a warp of the flexible display portion.
상기 플렉시블 디스플레이부의 휘어짐 측정은 복수의 로드셀 (load cell)을 포함하며, 상기 디스플레이부의 후면에 배치되는 곡률 측정부에 의해 수행되는 것을 특징으로 하는 3D 영상처리방법.
12. The method of claim 11,
Wherein the flexion measurement of the flexible display unit includes a plurality of load cells and is performed by a curvature measuring unit disposed on a rear surface of the display unit.
상기 3D 심도(depth) 설정기준(3D perspective)은 복수의 시청자 각각에 대해 계산되는 것을 특징으로 하는 3D 영상처리방법.
10. The method of claim 9,
Wherein the 3D depth setting reference (3D perspective) is calculated for each of a plurality of viewers.
상기 3D 심도(depth) 설정기준(3D perspective)은 무안경 입체영상(autostereoscopic) 디스플레이부에 적용되는 것을 특징으로 하는 3D 영상처리방법.
14. The method of claim 13,
Wherein the 3D depth setting reference (3D perspective) is applied to an autostereoscopic display unit.
상기 3D 심도(depth) 설정기준(3D perspective)은 시청자의 얼굴을 기준으로 계산되는 것을 특징으로 하는 3D 영상처리방법.10. The method of claim 9,
Wherein the 3D depth setting reference (3D perspective) is calculated based on a viewer's face.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20130118081A KR20150039463A (en) | 2013-10-02 | 2013-10-02 | A 3 dimension display device and 3 dimension image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20130118081A KR20150039463A (en) | 2013-10-02 | 2013-10-02 | A 3 dimension display device and 3 dimension image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20150039463A true KR20150039463A (en) | 2015-04-10 |
Family
ID=53029758
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR20130118081A KR20150039463A (en) | 2013-10-02 | 2013-10-02 | A 3 dimension display device and 3 dimension image processing method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20150039463A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170114822A (en) * | 2016-04-06 | 2017-10-16 | 한화테크윈 주식회사 | Display Control System, Method and Computer Readable Record Medium Thereof |
US10552972B2 (en) | 2016-10-19 | 2020-02-04 | Samsung Electronics Co., Ltd. | Apparatus and method with stereo image processing |
WO2021025241A1 (en) * | 2019-08-07 | 2021-02-11 | Samsung Electronics Co., Ltd. | Method and bendable device for constructing 3d data item |
-
2013
- 2013-10-02 KR KR20130118081A patent/KR20150039463A/en not_active Application Discontinuation
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170114822A (en) * | 2016-04-06 | 2017-10-16 | 한화테크윈 주식회사 | Display Control System, Method and Computer Readable Record Medium Thereof |
US10552972B2 (en) | 2016-10-19 | 2020-02-04 | Samsung Electronics Co., Ltd. | Apparatus and method with stereo image processing |
WO2021025241A1 (en) * | 2019-08-07 | 2021-02-11 | Samsung Electronics Co., Ltd. | Method and bendable device for constructing 3d data item |
US11029522B2 (en) | 2019-08-07 | 2021-06-08 | Samsung Electronics Co., Ltd. | Method and bendable device for constructing 3D data item |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10572010B2 (en) | Adaptive parallax adjustment method and virtual reality display device | |
US8872901B2 (en) | Stereoscopic glasses and display apparatus including the same | |
US8189035B2 (en) | Method and apparatus for rendering virtual see-through scenes on single or tiled displays | |
KR101763592B1 (en) | Method for processing image of display system outputting 3 dimensional contents and display system enabling of the method | |
US20120274629A1 (en) | Stereoscopic image display and method of adjusting stereoscopic image thereof | |
US10237539B2 (en) | 3D display apparatus and control method thereof | |
US20120127273A1 (en) | Image processing apparatus and control method thereof | |
US8477181B2 (en) | Video processing apparatus and video processing method | |
US8749617B2 (en) | Display apparatus, method for providing 3D image applied to the same, and system for providing 3D image | |
JP2010258583A (en) | 3d image display apparatus, 3d image playback apparatus, and 3d image viewing system | |
CN103533340A (en) | Naked eye 3D (three-dimensional) playing method of mobile terminal and mobile terminal | |
CN108076208B (en) | Display processing method and device and terminal | |
US20120087571A1 (en) | Method and apparatus for synchronizing 3-dimensional image | |
US20140071237A1 (en) | Image processing device and method thereof, and program | |
KR20150039463A (en) | A 3 dimension display device and 3 dimension image processing method | |
TWI491244B (en) | Method and apparatus for adjusting 3d depth of an object, and method and apparatus for detecting 3d depth of an object | |
US20120224035A1 (en) | Electronic apparatus and image processing method | |
US20150091796A1 (en) | Display apparatus and control method thereof | |
EP2752815A1 (en) | Display method and display apparatus | |
KR20110098253A (en) | Display system and control method thereof | |
US20140119600A1 (en) | Detection apparatus, video display system and detection method | |
US20130293687A1 (en) | Stereoscopic image processing apparatus, stereoscopic image processing method, and program | |
CN102487447B (en) | The method and apparatus of adjustment object three dimensional depth and the method and apparatus of detection object three dimensional depth | |
JP4481275B2 (en) | 3D video information transmission method | |
US8736602B2 (en) | Display apparatus and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Withdrawal due to no request for examination |