KR20150039463A - A 3 dimension display device and 3 dimension image processing method - Google Patents

A 3 dimension display device and 3 dimension image processing method Download PDF

Info

Publication number
KR20150039463A
KR20150039463A KR20130118081A KR20130118081A KR20150039463A KR 20150039463 A KR20150039463 A KR 20150039463A KR 20130118081 A KR20130118081 A KR 20130118081A KR 20130118081 A KR20130118081 A KR 20130118081A KR 20150039463 A KR20150039463 A KR 20150039463A
Authority
KR
South Korea
Prior art keywords
image
perspective
viewer
unit
display device
Prior art date
Application number
KR20130118081A
Other languages
Korean (ko)
Inventor
최종현
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR20130118081A priority Critical patent/KR20150039463A/en
Publication of KR20150039463A publication Critical patent/KR20150039463A/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

The present invention relates to a 3-dimensional display device, comprising: an image input unit for receiving a 3-dimensional image; a perspective calculation unit for calculating a 3-dimensional perspective standard of a depth, based on at least one of screen curvature information of a display device and location information of a viewer; a rendering unit for compensating the depth of the received 3-dimensional image, according to the calculated perspective standard of the depth; and a display unit for displaying the compensated 3-dimensional image. According to the present invention, the 3-dimensional image can be displayed optimally, depending on a location of a user, or a screen curvature.

Description

3D 디스플레이장치 및 3D영상처리방법{A 3 DIMENSION DISPLAY DEVICE AND 3 DIMENSION IMAGE PROCESSING METHOD}[0001] The present invention relates to a 3D display device and a 3D image processing method,

본 발명은 3D 디스플레이장치 및 3D영상처리방법, 더욱 상세하게는 사용자의 위치나 화면곡률을 기초로 3D영상정보를 보정하여 시청자에게 최적인 3D영상을 표시할 수 있는 3D 디스플레이장치 및 3D영상처리방법에 관한 것이다.The present invention relates to a 3D display device and a 3D image processing method, and more particularly, to a 3D display device and a 3D image processing method capable of displaying 3D images optimal for viewers by correcting 3D image information based on a user's position or screen curvature .

디스플레이장치는 그 특성에 따라 2차원(Dimension) 영상과 3차원(Dimension)(이하 3D라 칭함) 영상을 표시할 수 있다. 사용자는 양쪽 눈에 의한 시야각도가 상이하고, 이에 의하여 사물의 3차원적 입체를 인지할 수 있다. 상기 원리를 이용하여, 3차원 영상은 똑 같은 장면을 두 개의 다른 시점, 즉 좌안 영상과 우안 영상이 구분되어 있다. 상기 각 시점은 수평으로 떨어져 있으나 사람은 양안시차에 의하여 상기 두 개의 시점을 하나로 인식하면서 사물의 3차원적 입체를 인지하게 되는 것이다.The display device can display a two dimensional (3D) image and a three dimensional (3D) image according to its characteristics. The user has different viewing angles by both eyes, and thereby can recognize a three-dimensional solid object. Using the above principle, three-dimensional images are divided into two different viewpoints, that is, a left-eye image and a right-eye image. Each of the viewpoints is horizontally separated, but a person perceives the two viewpoints as one by the binocular parallax, and recognizes the three-dimensional objects of the object.

상기 두 개의 다른 시점을 가진 좌안 영상과 우안 영상을 겹쳐서 보면, 가까이 있는 물체일수록 상기 좌안 영상과 우안 영상의 수평 상의 위치 차이가 발생하고, 상기 차이로 인하여 사람은 원근감(입체감 또는 심도)을 느낄 수 있다.When the left eye image and the right eye image having the two different viewpoints are overlapped, a positional difference occurs on a horizontal plane between the left eye image and the right eye image as objects closer to each other are viewed. The difference causes a person to feel the perspective (depth sense or depth) have.

3D영상의 입체감은 심도(Depth)와 퍼스펙티브(perspective)로 구분할 수 있다. 퍼스펙티브는 심도(Depth)가 0일 때의 3D시점을 의미하며, 심도(Depth)는 퍼스펙티브를 기준으로 0 Depth로 부터의 입체감을 의미한다. 즉, 퍼스펙티브는 심도(Depth)의 설정기준에 해당한다.Depth and perspective of a 3D image can be divided into three dimensions. The perspective refers to the 3D view when the depth is 0, and the depth means a sense of depth from 0 Depth based on the perspective. That is, the perspective corresponds to the setting criterion of the depth.

종래의 3D영상에서 심도(Depth)의 설정기준은 도 9에 나타낸 바와 같이 화면 전체에 일정 값으로 적용하였다. In the conventional 3D image, the setting criterion of the depth is applied to the entire screen as a constant value as shown in FIG.

텔레비전과 같은 디스플레이장치는 대형화되고 있고, 다수의 시청자가 동시에 다른 각도에서 시청하는 것이 일반적이다. 이 경우 종래의 3D영상에서 심도(Depth)의 설정기준은 중앙의 시청자에 맞춰져 있기 때문에 외곽의 시청자에게는 3D 영상이 왜곡되게 표현될 수 있다.2. Description of the Related Art Display devices such as televisions are becoming larger in size, and it is common that a large number of viewers watch at the same time from different angles. In this case, since the setting criterion of the depth in the conventional 3D image is adjusted to the viewer at the center, the 3D image can be distorted to the viewer at the outer periphery.

최근 플렉시블(flexible) 디스플레이가 개발되고 있고, 사용 중 항상 가변 곡률을 갖는 것이 일반적이다. 이러한 플렉시블(flexible) 디스플레이를 이용하여 3D 영상을 표현할 때, 종래의 3D영상에서 심도(Depth)의 설정기준을 적용하면 시청자에게는 왜곡된 3D영상이 보여지게 될 수 있다.Recently, flexible displays have been developed and it is common that they always have a variable curvature during use. When such a flexible display is used to represent a 3D image, a distorted 3D image can be displayed to a viewer by applying a setting criterion of depth in a conventional 3D image.

본 발명의 목적은 상술한 종래의 문제를 해결하기 위한 것으로, 3D영상에서 심도(Depth)의 설정기준을 감지된 시청자 위치 및/또는 화면의 곡률을 중심으로 제공하는 3D 디스플레이장치 및 3D영상처리방법을 제공함에 있다.An object of the present invention is to solve the above-mentioned conventional problems, and it is an object of the present invention to provide a 3D display device and a 3D image processing method which provide a setting criterion of a depth in a 3D image centering on a detected viewer position and / .

본 발명의 다른 목적은 다수의 시청자 각각에 맞게 최적으로 생성된 3D영상을 시청 가능한 멀티뷰(multi view) 3D 디스플레이장치 및 3D영상처리방법을 제공함에 있다.It is another object of the present invention to provide a multi-view 3D display device and a 3D image processing method capable of viewing a 3D image optimally generated for each of a plurality of viewers.

상술한 본 발명의 과제를 해결하기 위한 일 실시예에 따른 3D디스플레이장치는, 3D영상을 수신하는 영상입력부, 디스플레이장치의 화면곡률 정보와 시청자의 위치 정보 중 적어도 하나를 기초로 하여 3D 심도(depth) 설정기준(perspective)을 계산하는 퍼스펙티브 산출부, 상기 계산된 심도(depth) 설정기준(perspective)에 따라 상기 수신된 3D 영상의 심도(depth)를 보정하는 랜더링부 및 상기 보정된 3D영상을 표시하는 디스플레이부를 포함하여 구성할 수 있다.According to another aspect of the present invention, there is provided a 3D display apparatus including a video input unit for receiving a 3D image, a 3D depth unit based on at least one of screen curvature information of a display apparatus and position information of a viewer, A rendering unit for correcting the depth of the received 3D image according to the calculated depth setting reference, and a display unit for displaying the corrected 3D image And a display unit for displaying the image.

상기 시청자의 위치 정보는 위치감지센서 및 카메라 중 적어도 하나에 의해 얻어질 수 있다.The location information of the viewer may be obtained by at least one of a position sensing sensor and a camera.

상기 3D디스플레이장치는 디스플레이장치의 화면곡률 정보를 측정하는 곡률 측정부를 더 포함할 수 있다.The 3D display apparatus may further include a curvature measuring unit for measuring screen curvature information of the display device.

상기 곡률 측정부는 복수의 로드셀 (load cell)을 포함하며, 상기 디스플레이부의 후면에 배치되는 것이 바람직하다.Preferably, the curvature measuring unit includes a plurality of load cells, and is disposed on a rear surface of the display unit.

상기 디스플레이부는 플렉시블 디스플레이부를 포함할 수 있다.The display unit may include a flexible display unit.

상기 3D 심도(depth) 설정기준(perspective)은 복수의 시청자 각각에 대해 계산될 수 있다.The 3D depth setting perspective can be calculated for each of a plurality of viewers.

상기 디스플레이부는 무안경 입체영상(autostereoscopic) 디스플레이부를 포함할 수 있다.The display unit may include an autostereoscopic display unit.

상기 3D 심도(depth) 설정기준(perspective)은 시청자의 얼굴을 기준으로 계산되는 것이 바람직하다.The 3D depth setting perspective is preferably calculated based on the viewer's face.

상술한 본 발명의 과제를 해결하기 위한 일 실시예에 따른 3D영상처리방법은, 3D영상을 수신하는 단계, 디스플레이장치의 화면곡률 정보와 시청자의 위치 정보 중 적어도 하나를 측정하는 단계, 상기 측정된 화면곡률 정보와 시청자의 위치 정보 중 적어도 하나를 기초로 하여 3D 심도(depth) 설정기준(perspective)을 계산하는 단계, 상기 계산된 심도(depth) 설정기준(perspective)에 따라 상기 수신된 3D 영상의 심도(depth)를 보정하는 단계 및 상기 보정된 3D영상을 디스플레이부에 표시하는 단계를 포함하여 구성할 수 있다.According to another aspect of the present invention, there is provided a 3D image processing method including receiving a 3D image, measuring at least one of screen curvature information of a display device and position information of a viewer, Calculating a 3D depth setting perspective based on at least one of the screen curvature information and the viewer's location information; Correcting the depth of the 3D image, and displaying the corrected 3D image on the display unit.

본 발명에 의하면, 시청자의 시청위치나 디스플레이장치의 화면곡률에 맞게 3D영상을 보정하여 시청자에게 제공함으로써 시청자는 언제나 최적의 3D영상을 시청할 수 있다.According to the present invention, the 3D image is corrected according to the viewing position of the viewer and the screen curvature of the display device, and provided to the viewer, so that the viewer can always view the optimal 3D image.

도 1은 본 발명에 따른 3D디스플레이장치의 블록도,
도 2는 본 발명의 심도 설정기준 변경에 따른 3D영상의 보정을 나타내는 도,
도 3은 본 발명의 시청자 위치 기반에 따른 심도 설정기준 변경을 나타내는 도,
도 4 및 5는 본 발명의 화면곡률 기반에 따른 심도 설정기준 변경을 나타내는 도,
도 6은 본 발명에 따른 3D영상처리방법을 나타내는 흐름도,
도 7은 곡률 측정부의 구성을 나타내는 도,
도 8은 본 발명에 따른 멀티뷰 3D디스플레이장치에서 다수 시청자에 대한 심도 설정기준 변경을 나타내는 도, 및
도 9는 종래의 3D영상의 심도설정기준을 나타내는 도이다.
1 is a block diagram of a 3D display device according to the present invention;
FIG. 2 is a diagram illustrating correction of a 3D image according to the depth setting reference change of the present invention,
3 is a diagram illustrating a depth setting reference change according to a viewer position based on the present invention.
4 and 5 are diagrams illustrating a depth setting reference change according to a screen curvature based on the present invention,
6 is a flowchart illustrating a 3D image processing method according to the present invention.
7 is a diagram showing a configuration of a curvature measuring unit,
8 is a diagram illustrating a depth setting reference change for a plurality of viewers in a multi-view 3D display apparatus according to the present invention, and Fig.
FIG. 9 is a view showing a depth setting standard of a conventional 3D image.

이하에서는 첨부도면을 참조하여 본 발명에 대해 상세히 설명한다. 이하 실시예에서는 본 발명의 사상과 직접적인 관련이 있는 구성들에 관해서만 설명하며, 그 외의 구성에 관해서는 설명을 생략한다. 그러나, 본 발명의 사상이 적용된 장치 또는 시스템을 구현함에 있어서, 이와 같이 설명이 생략된 구성이 불필요함을 의미하는 것이 아님을 밝힌다. 도면에 표현된 동일한 참조 번호는 동일한 구성 요소를 나타낸다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. In the following embodiments, only configurations directly related to the concept of the present invention will be described, and description of other configurations will be omitted. However, it is to be understood that, in the implementation of the apparatus or system to which the spirit of the present invention is applied, it is not meant that the configuration omitted from the description is unnecessary. Like reference numerals in the drawings denote like elements.

도 1은 본 발명의 일 실시예에 따른 3D디스플레이장치(100)의 블록도이다. 1 is a block diagram of a 3D display device 100 according to an embodiment of the present invention.

본 발명의 3D디스플레이장치(100)는 도시되지 않은 외부의 영상공급원으로부터 영상신호를 수신 및 처리할 수 있는 전자장치를 포함할 수 있다. 상기 처리된 영상신호에 대응하는 이미지를 디스플레이부(30)에 표시하는 디스플레이장치로 구현될 수 있다.The 3D display device 100 of the present invention may include an electronic device capable of receiving and processing video signals from an external video source, not shown. And a display device for displaying an image corresponding to the processed video signal on the display unit 30. [

상기 3D디스플레이장치(100)는 CPU(미도시) 및 그래픽카드(미도시)를 가지고 영상신호를 생성하여 이를 로컬(local)로 제공할 수 있는 컴퓨터본체(미도시), 영상신호를 네트워크로 제공할 수 있는 서버(미도시), 공중파 또는 케이블을 이용하여 방송신호를 송출 가능한 방송국의 송출장치(미도시) 등 다양한 영상공급원으로부터 영상신호를 공급받을 수 있다.The 3D display device 100 includes a computer body (not shown) capable of generating an image signal having a CPU (not shown) and a graphic card (not shown) and providing the image signal locally, A video signal can be supplied from a variety of video sources such as a server (not shown) capable of transmitting a broadcast signal, a broadcasting apparatus (not shown) capable of transmitting a broadcast signal using a public wave or a cable.

3D디스플레이장치(100)는 외부로부터 2차원 영상신호 또는 3차원 영상신호를 수신하면, 이를 처리하여 2차원 영상 또는 3차원 영상을 표시한다. 여기서, 3차원 영상은 2차원 영상과 달리, 사용자의 좌안에 대응하는 좌안 영상과, 사용자의 우안에 대응하는 우안영상으로 구분된다. 따라서, 3D디스플레이장치(100)가 3차원 영상신호를 수신하면, 이에 기초하여 좌안 영상과 우안 영상을 프레임(frame) 단위로 교대로 표시한다. 이 때, 상기 3D디스플레이장치(100)는, 상기 교대로 표시되는 좌안 영상과 우안 영상 프레임에 대응하여 좌측셔터부 및 우측셔터부를 교번적으로 개폐시키는 셔터 안경(미도시)을 더 포함할 수 있다. 상기 셔터 안경(미도시)는, 3D디스플레이장치(100)에 3차원 영상이 표시되는 경우, 현재 좌안 영상 또는 우안 영상 중 어느 것이 표시되는지 여부에 대응하여 사용자의 좌안 또는 우안에 대한 시야를 선택적으로 개방하거나 차단한다.When the 3D display device 100 receives a two-dimensional image signal or a three-dimensional image signal from the outside, the 3D display device 100 processes the two-dimensional image signal or the three-dimensional image. Here, unlike a two-dimensional image, a three-dimensional image is divided into a left eye image corresponding to a user's left eye and a right eye image corresponding to a user's right eye. Accordingly, when the 3D display device 100 receives the three-dimensional image signal, the left-eye image and the right-eye image are alternately displayed on a frame-by-frame basis. At this time, the 3D display device 100 may further include shutter glasses (not shown) for alternately opening and closing the left shutter unit and the right shutter unit corresponding to the alternately displayed left and right eye image frames . When a 3D image is displayed on the 3D display device 100, the shutter glasses (not shown) selectively display a view of the left or right eye of the user corresponding to whether the current left eye image or the right eye image is displayed Open or block.

또한, 3D디스플레이장치(100)는 셔터 안경을 사용하지 않고 무안경 입체영상(autostereoscopic)을 표시할 수 있다. 무안경 입체영상(autostereoscopic)을 표시방식은 패럴렉스 배리어(parallax barrier) 방식과 렌티큘러 렌즈(lenticular lense) 방식이 있다. 패럴렉스 배리어(parallax barrier) 방식은, 스크린 앞에 막을 두어 좌안 영상과 우안 영상을 분리하여 보여줄 수 있다. 렌티큘러 렌즈(lenticular lense) 방식은 스크린 앞에 볼록한 렌티큘러 렌즈를 배치하여 좌안 영상과 우안 영상을 분리하여 보여줄 수 있다.Also, the 3D display device 100 can display an autostereoscopic image without using the shutter glasses. The autostereoscopic display method is a parallax barrier method and a lenticular lens method. In the parallax barrier method, the left eye image and the right eye image can be separately displayed by placing a film at the front of the screen. In the lenticular lens system, a convex lenticular lens may be disposed in front of the screen to separate the left eye image and the right eye image.

또한 본 발명의 3D디스플레이장치(100)는 셋탑 박스를 포함할 수도 있다. 따라서, 도시되지 않은 외부의 영상공급원으로부터 공급되는 영상신호를 셋탑박스에서 처리하여 디스플레이부로 상기 처리된 영상신호를 전송할 수 있다. 이때, 디스플레이부는 TV 또는 모니터로 구성될 수 있다.The 3D display device 100 of the present invention may also include a set-top box. Accordingly, a video signal supplied from an external video source (not shown) can be processed in the set-top box and the processed video signal can be transmitted to the display unit. At this time, the display unit may be composed of a TV or a monitor.

도 1에 나타낸 바와 같이, 본 발명에 따른 3D디스플레이장치(100)는 영상입력부(110), 시청자 위지감지부(120), 곡률 측정부(130), 퍼스펙티브(perspective) 산출부(140), 랜더링부(150) 및 디스플레이부(160)를 포함하여 구성할 수 있다.1, a 3D display device 100 according to the present invention includes an image input unit 110, a viewer position sensing unit 120, a curvature measuring unit 130, a perspective calculating unit 140, A display unit 150, and a display unit 160. [0027]

영상입력부(110)는 외부로부터 영상신호를 수신하여 퍼스펙티브 산출부(140)에 전달하며, 수신하는 영상신호의 규격 및 디스플레이장치(100)의 구현 형태에 대응하여 다양한 방식으로 구현될 수 있다. 상기 영상신호는 2차원 영상신호 또는 3차원 영상신호를 포함하고, 음성신호, 데이터신호를 더 포함할 수도 있다.  The image input unit 110 may receive the image signal from the outside and transmit the image signal to the perspective calculating unit 140. The image input unit 110 may be implemented in various ways corresponding to the standard of the received image signal and the implementation form of the display device 100. The image signal may include a two-dimensional image signal or a three-dimensional image signal, and may further include a voice signal and a data signal.

상기 영상신호가 3차원 영상신호인 경우, 상기 데이터신호는 상기 3차원 영상신호에 대한 입체정보를 포함할 수 있다. When the image signal is a three-dimensional image signal, the data signal may include stereoscopic information on the three-dimensional image signal.

상기 입체정보는, 상기 3차원 영상신호에 대응하는 이미지의 소정 영역의 좌안 영상과 우안 영상 사이에서의 수평적인 위치 차이에 대한 정보를 포함할 수 있다.The stereoscopic information may include information on a horizontal positional difference between a left eye image and a right eye image of a predetermined region of an image corresponding to the three-dimensional image signal.

예를 들어, 3D디스플레이장치(100)가 TV로 구현되는 경우, 영상입력부(110)는 방송국으로부터 송출되는 RF(radio frequency) 신호를 무선으로 수신하거나, 컴포지트(composite) 비디오, 컴포넌트(component) 비디오, 슈퍼 비디오(super video), SCART, HDMI(high definition multimedia inferface) 규격 등을 따르는 영상신호를 수신할 수 있다. 이 때, 영상입력부(110)는 안테나(미도시) 및/또는 방송 채널을 튜닝하는 튜너(미도시)를 더 포함할 수 있다.For example, when the 3D display device 100 is implemented as a TV, the image input unit 110 may wirelessly receive a radio frequency (RF) signal transmitted from a broadcasting station, or may transmit a composite video, , Super video, SCART, and HDMI (high definition multimedia inferface) standards. In this case, the image input unit 110 may further include a tuner (not shown) for tuning an antenna (not shown) and / or a broadcast channel.

예를 들어, 3D디스플레이장치 (100)가 PC 모니터로 구현되는 경우, 영상입력부(110)는 VGA 방식에 따른 RGB 신호를 전달 가능한 D-SUB, DVI(digital video interactive) 규격에 따른 DVI-A(analog), DVI-I(integrated digital/analog), DVI-D(digital) 또는 HDMI 규격 등으로 구현될 수 있다. 또는 수신부(10)는 디스플레이포트(DisplayPort), UDI(unified display interface), 또는 와이어리스(wireless) HD 등으로 구현될 수 있다.For example, when the 3D display device 100 is implemented as a PC monitor, the image input unit 110 may include a D-SUB capable of delivering RGB signals according to the VGA scheme, a DVI-A (digital video interactive analog (DVI-I), DVI-D (digital), or HDMI standards. Alternatively, the receiving unit 10 may be implemented as a display port (DisplayPort), a unified display interface (UDI), or a wireless HD.

시청자 위치감지부(120)는 시청자의 시청위치를 감지하여 감지결과를 퍼스펙티부 산출부(140)에 전달할 수 있다. 시청자 위치감지부(120)는 인체감지센서 및 카메라를 포함할 수 있다. 시청자 위치감지부(120)는 디스플레이장치의 외관을 구성하는 샤시의 상측 또는 하측 중앙에 배치할 수 있다.
The viewer position sensing unit 120 may sense the viewing position of the viewer and may transmit the sensing result to the per-spectral unit calculating unit 140. [ The viewer position sensing unit 120 may include a human body sensor and a camera. The viewer position sensing unit 120 can be disposed at the upper or lower center of the chassis that constitutes the appearance of the display device.

인체감지센서는 동작감지센서, 위치센서, 열감지센서 등을 포함할 수 있다. The human body detection sensor may include a motion detection sensor, a position sensor, a heat sensing sensor, and the like.

카메라는 시청자의 위치뿐만 아니라 시청자의 얼굴을 인식하여 사용자를 식별할 수 있다. 이와 같이 식별된 사용자에 적합한 3D영상을 디스플레이부(160)에 표시할 수 있다. 카메라는 웹캠(webcam), 팬 틸트(pan tilt) 카메라, 디지털카메라, 아날로그 카메라, 캠코더 등을 포함할 수 있다.The camera recognizes not only the position of the viewer but also the face of the viewer to identify the user. The 3D image suitable for the identified user can be displayed on the display unit 160. The camera may include a webcam, a pan tilt camera, a digital camera, an analog camera, a camcorder, and the like.

상기 곡률 측정부(130)는 화면의 곡률을 측정하여 측정결과를 퍼스펙티부 산출부(140)에 전달할 수 있다. 도 7은 화면의 곡률을 측정하는 예를 나타낸 것이다. The curvature measuring unit 130 may measure the curvature of the screen and may transmit the measurement result to the per-spectral unit calculating unit 140. Fig. 7 shows an example of measuring the curvature of the screen.

도 7에서, 플렉서블 디스플레이부(160)의 배면에 다수의 센서(132)들을 배열할 수 있다. 센서(132)는 플렉서블 디스플레이부(160)의 휘어진 형태를 정확히 추출하기 위해 플렉서블 디스플레이부(160)의 가로와 세로 방향으로 일정한 간격으로 배열하는 것이 바람직하다. 센서(132)들은 센서지지부(134)에 부착된 상태에서 플렉서블 디스플레이부(160)의 배면에 배치될 수 있다. 센서(132)의 종류로는 물리적인 힘을 전기적 신호로 바꾸는 소자인 로드 셀(Load Cell) 또는 휘어지는 각도에 따라 저항 값이 커지는 특성을 가지는 밴드 센서(Bend Sensor)가 가능하다. In FIG. 7, a plurality of sensors 132 may be arranged on the back surface of the flexible display unit 160. The sensor 132 is preferably arranged at regular intervals in the horizontal and vertical directions of the flexible display unit 160 in order to accurately extract the curved shape of the flexible display unit 160. The sensors 132 may be disposed on the back surface of the flexible display unit 160 while being attached to the sensor supporting unit 134. The sensor 132 may be a load cell, which converts a physical force into an electrical signal, or a bend sensor, which has a characteristic that a resistance value increases according to a bending angle.

상기 디스플레이부(160)는 사전에 소정 곡률을 갖도록 설계될 수 있으며, 이 경우에는 설계 시에 정해진 화면곡률 데이터를 이용할 수도 있다.The display unit 160 may be designed to have a predetermined curvature. In this case, predetermined curvature data may be used at the time of designing.

상기 퍼스펙티부 산출부(140)는 영상입력부(110)에서 수신한 3D영상을 수신할 수 있다. 또한, 상기 퍼스펙티부 산출부(140)는 시청자 위치감지부(120)로부터 감지된 시청자의 위치 및/또는 시청자 식별 결과를 수신할 수 있다. 또한, 상기 퍼스펙티부 산출부(140)는 곡률 측정부(130)로부터 측정된 화면 곡률을 수신할 수 있다. 상기 퍼스펙티부 산출부(140)는 수신한 시청자 위치 및/또는 화면곡률을 기초로 하여 수신한 3D영상의 심도(depth)를 설정하기 위한 기준(이하 3D퍼스펙티브라 칭함)을 계산할 수 있다. 상기 퍼스펙티부 산출부(140)는 식별된 다수의 시청자 별로 3D 퍼스펙티브를 산출하여 랜더링부(150)에 출력할 수 있다.The per-spectral part calculation unit 140 may receive the 3D image received by the image input unit 110. [ In addition, the per-spectral part calculator 140 may receive the location of the viewer and / or the viewer identification result sensed by the viewer position sensing unit 120. The per-spectral part calculator 140 may receive the measured screen curvature from the curvature measuring unit 130. The per-spectral part calculator 140 may calculate a criterion (hereinafter referred to as 3D perspective) for setting the depth of the received 3D image based on the received viewer position and / or the screen curvature. The per-spectral part calculator 140 may calculate a 3D perspective for a plurality of identified viewers and output the 3D perspective to the rendering unit 150.

도 8은 다수의 시청자 별로 3D 퍼스펙티브를 산출하는 방법을 모식적으로 나타낸 도이다. 도 8에서, 시청자 B는 중앙에 위치하고, 시청자 B를 중심으로 동일한 곡률의 3D 퍼스펙티브 B를 산출할 수 있다. 또한 시청자 A가 좌측에 위치하면 좌측의 시청자를 중심으로 동일한 곡률의 3D 퍼스펙티브 A를 산출할 수 있다. 또한 시청자 C가 우측에 위치하면 우측의 시청자를 중심으로 동일한 곡률의 3D 퍼스펙티브 C를 산출할 수 있다. 물론, 3D 퍼스펙티브를 산출한 식은 일정한 곡률로만 한정된 것이 아니고 소정의 법칙에 따라 설정될 수 있다8 is a diagram schematically illustrating a method of calculating a 3D perspective for a plurality of viewers. In FIG. 8, the viewer B is located at the center, and can calculate the 3D perspective B of the same curvature centered on the viewer B. When the viewer A is located on the left side, the 3D perspective A having the same curvature can be calculated around the viewer on the left side. When the viewer C is located on the right side, the 3D perspective C having the same curvature can be calculated centering on the viewer on the right side. Of course, the equation for calculating the 3D perspective can be set according to a predetermined rule instead of being limited to a certain curvature

3D 퍼스펙티브는 입체(3D) 영상의 심도(depth)를 설정하기 위한 기준(면), 즉 심도(depth)가 0인 기준에 해당한다. 도 2에 나타낸 바와 같이, 3D 퍼스펙티브가 변경되면 심도를 설정할 때 이 변경된 3D퍼스펙티브를 기준으로 3D영상의 심도를 보정하여야 한다.The 3D perspective corresponds to a reference (plane) for setting the depth of a stereoscopic (3D) image, that is, a reference having a depth of zero. As shown in FIG. 2, when the 3D perspective is changed, the depth of the 3D image should be corrected based on the changed 3D perspective when the depth is set.

상기 퍼스펙티부 산출부(140)는 하드웨어 또는 소프트웨어로 구현될 수 있다. 하드웨어는 CPU, MPU 등과 같은 제어모듈로 구성될 수 있다. 소프트웨어는 운영체제 내에 설치된 퍼스펙티브를 산출할 수 있는 프로그램으로 구현될 수 있다.The per-spectral part calculator 140 may be implemented by hardware or software. The hardware may comprise a control module such as a CPU, MPU, or the like. The software can be implemented as a program that can calculate the perspective installed in the operating system.

상기 퍼스펙티부 산출부(140)의 3D퍼스펙티브 계산은 시청자의 시청위치와 화면곡률 중 적어도 하나를 기초로 계산될 수 있다.The 3D perspective calculation of the per-spectral part calculator 140 may be calculated based on at least one of a viewer's viewing position and a screen curvature.

도 3은 시청자의 위치에 따라 3D퍼스펙티브를 변경하는 것을 도식적으로 나타낸 것이다. 즉, 시청자가 화면의 우측에 위치하여 디스플레이장치(100)를 시청할 경우, 우측의 시청자를 중심으로 3D퍼스펙티브를 변경할 수 있다. Figure 3 schematically illustrates changing the 3D perspective according to the viewer's location. That is, when the viewer is located on the right side of the screen and views the display device 100, the 3D perspective can be changed around the viewer on the right side.

도 4는 화면이 평면일 때 3D퍼스펙티브를 변경하는 것을 도식적으로 나타낸 것으로, 3D 퍼스펙티브는 시청자에 대해 오목한 면으로 변경할 수 있다.Fig. 4 schematically illustrates changing the 3D perspective when the screen is flat; the 3D perspective can be changed to a concave surface with respect to the viewer.

도 5는 화면이 곡면일 때 3D퍼스펙티브를 변경하는 것을 도식적으로 나타낸 것으로, 3D 퍼스펙티브는 시청자에 대해 오목할 뿐만 아니라 화면의 곡률에 따라 변화하는 면으로 변경할 수 있다.Fig. 5 schematically illustrates changing the 3D perspective when the screen is curved. The 3D perspective can be changed not only to the viewer but also to the surface that changes according to the curvature of the screen.

상기 퍼스펙티부 산출부(140)는 시청자의 시청위치정보 또는 화면곡률을 개별적으로 적용하여 3D퍼스펙티브를 산출할 수도 있고, 모두를 반영하여 산출할 수도 있다.The per-spectral part calculation unit 140 may calculate the 3D perspective by individually applying the viewing position information or the screen curvature of the viewer, or may calculate the 3D perspective by reflecting all of them.

랜더링부(150)는 수신된 3D영상에 포함된 3D정보, 예를 들면 심도(depth)를 상기 퍼스펙티부 산출부(140)에서 계산한 3D 퍼스펙티브를 기준으로 적용하여 보정할 수 있다. 랜더링부(150)는 3D영상을 다수의 시청자 별로 보정하여 보정된 3D영상을 생성할 수 있다. 이와 같이 다수의 시청자 별로 보정하여 3D영상을 보정하면 시청자 별로 최적의 3D영상을 표시할 수 있다.The rendering unit 150 may apply the 3D information included in the received 3D image, for example, the depth based on the 3D perspective calculated by the per-spectral unit calculation unit 140 and correct the 3D information. The rendering unit 150 may generate a corrected 3D image by correcting the 3D image for each of a plurality of viewers. Thus, by correcting the 3D image by correcting for each of a plurality of viewers, it is possible to display an optimal 3D image for each viewer.

이와 같은 다수의 시청자 별로 3D 퍼스펙티브를 산출하여 보정한 3D영상은 하나의 화면에 다수의 사용자가 다른 컨텐츠를 볼 수 있는 멀티뷰(multi view) 디스플레이장치에 적용할 수 있다.The 3D image obtained by calculating and correcting the 3D perspective for a plurality of viewers can be applied to a multi view display device in which a plurality of users can view different contents on one screen.

본 발명에 따른 3D디스플레이장치(100)는 영상신호처리부(미도시)를 포함할 수 있다. 영상처리부는 영상신호에 대해 기 설정된 다양한 영상처리 프로세서를 더 수행할 수 있다. 상기 프로세서의 종류는 한정되지 않는 바, 예를 들어, 주어진 해상도에 맞게 화면을 확대 또는 축소하는 스케일일, 다양한 영상 포맷에 대응하는 디코딩(decoding) 및 인코딩(encoding), 디인터레이싱(de-interlacing), 프레임 리프레시 레이트(frame fresh rate) 변환, 영상 화질 개선을 위한 노이즈 감소(noise reduction), 디테일 인핸스먼트(detail enhancement), 라인 스캐닝(line scanning) 등을 더 포함할 수 있다. 상기 프로세서는 개별 또는 복합적으로 수행될 수 있다.The 3D display device 100 according to the present invention may include a video signal processing unit (not shown). The image processing unit may further perform various image processing processes predetermined for the image signal. The type of the processor is not limited. For example, a scale for enlarging or reducing a screen to a given resolution, decoding and encoding corresponding to various image formats, de-interlacing, A frame refresh rate conversion, a noise reduction for improving image quality, detail enhancement, line scanning, and the like. The processor may be performed individually or in combination.

물론, 랜더링부(150)는 상기 영상신호처리부에 포함될 수 있으나, 편의상 분리하여 표시하였다.Of course, the rendering unit 150 may be included in the image signal processing unit, but is separately displayed for the sake of convenience.

디스플레이부(160)는 랜더링부(150)에서 보정한 3D영상을 시청자가 볼 수 있도록 표시할 수 있다. 디스플레이부(160)는 주사된 복수의 수평 주사 라인이 수직으로 배열됨으로써 하나의 영상 프레임을 표시할 수 있다. 디스플레이부(160)는 상기 영상을 표시하는 디스플레이패널(미도시)을 포함하며, 상기 디스플레이패널(미도시)은, 액정층을 포함하는 액정패널 또는 유기물로 구성된 발광층을 포함하는 유기발광패널, 플라즈마 표시패널 등을 포함할 수 있다. 디스플레이부(160)는 플렉시블 패널을 포함할 수 있다.The display unit 160 may display the 3D image corrected by the rendering unit 150 so that the 3D image can be viewed by the viewer. The display unit 160 may display one image frame by vertically arranging a plurality of scanned horizontal scanning lines. The display panel 160 includes a display panel (not shown) for displaying the image, and the display panel (not shown) includes a liquid crystal panel including a liquid crystal layer or an organic luminescent panel including a light- A display panel, and the like. The display unit 160 may include a flexible panel.

이하 본 발명에 따른 3D영상처리방법을 도 6을 참조하여 상세히 설명하기로 한다.Hereinafter, a 3D image processing method according to the present invention will be described in detail with reference to FIG.

먼저 단계 S110에서, 영상공급원 또는 저장된 좌안영상, 우안영상 및 3D정보를 포함하는 3D영상을 수신한다. 이때 수신된 3D영상은 시청자의 시청위치나 화면곡률과는 관계없이 일괄적으로 평면의 3D퍼스펙티브를 기준으로 산출된 3D정보를 포함한다.First, in step S110, a 3D image including a video source or a stored left eye image, right eye image, and 3D information is received. At this time, the received 3D image includes 3D information calculated on the basis of the 3D perspective of the plane collectively regardless of the viewer's viewing position or the screen curvature.

단계 S120에서, 시청자의 위치감지부(120)를 통하여 시청자의 위치정보 및 시청자 식별정보를 획득한다. In step S120, the location information of the viewer and the viewer identification information are acquired through the position sensing unit 120 of the viewer.

단계 S120과 동시에 또는 선택적으로 디스플레이장치의 화면곡률을 측정한다.Simultaneously or selectively with step S120, the screen curvature of the display device is measured.

단계 S140에서, 화면곡률 정보와 시청자 위치정보 중 적어도 하나를 기준으로 3D 퍼스펙티브를 산출한다.In step S140, the 3D perspective is calculated based on at least one of the screen curvature information and the viewer position information.

단계S150에서, 상기 산출된 3D퍼스펙티브를 수신하여 수신한 3D영상에 반영하여, 수신한 3D영상에 포함된 3D정보를 보정한다.In step S150, the calculated 3D perspective is received and reflected on the received 3D image, and the 3D information included in the received 3D image is corrected.

단계 S160에서, 상기 3D퍼스펙티브가 보정된 3D영상을 디스플레이부(160)에 표시한다.In step S160, the 3D perspective corrected 3D image is displayed on the display unit 160. [

이상과 같이, 사용자의 시청위치를 감지하여 시청자를 식별하고, 수신된 3D영상을 시청자의 위치에 따른 최적의 3D영상으로 보정하여 표시할 수 있다. 또한, 곡면 TV나 플렉시블 디스플레이에서 3D영상을 표시할 때, 변화된 화면 곡률에 맞게 수신된3D영상을 보정하여 표시할 수도 있다. As described above, it is possible to identify the viewer by detecting the viewing position of the user, and to correct the received 3D image with an optimal 3D image according to the viewer's position and display it. Further, when a 3D image is displayed on a curved TV or a flexible display, the received 3D image may be corrected and displayed according to the changed curvature of the screen.

상기한 실시예는 예시적인 것에 불과한 것으로, 당해 기술 분야의 통상의 지식을 가진 자라면 다양한 변형 및 균등한 타 실시예가 가능하다. 따라서, 본 발명의 진정한 기술적 보호범위는 하기의 특허청구범위에 기재된 발명의 기술적 사상에 의해 정해져야 할 것이다.The above-described embodiments are merely illustrative, and various modifications and equivalents may be made by those skilled in the art. Accordingly, the true scope of protection of the present invention should be determined by the technical idea of the invention described in the following claims.

100: 3D디스플레이장치
110: 영상입력부
120: 시청자 위치감지부
130: 화면곡률 측정부
132: 로드 셀(load cell)
134: 로드 셀 지지부
140: 3D퍼스펙티브 산출부
150: 랜더링부
160: 디스플레이부
430: 표시부
100: 3D display device
110:
120: viewer position detection unit
130: screen curvature measuring unit
132: load cell
134: load cell support
140: 3D perspective calculation unit
150:
160:
430:

Claims (15)

3D디스플레이장치에 있어서,
3D영상을 수신하는 영상입력부;
디스플레이장치의 화면곡률 정보와 시청자의 위치 정보 중 적어도 하나를 기초로 하여 3D 심도(depth) 설정기준(3D perspective)을 계산하는 퍼스펙티브 산출부;
상기 계산된 심도(depth) 설정기준(3D perspective)에 따라 상기 수신된 3D 영상의 심도(depth)를 보정하는 랜더링부; 및
상기 보정된 3D영상을 표시하는 디스플레이부를 포함하는 3D디스플레이장치.
In a 3D display device,
A video input unit for receiving a 3D image;
A perspective calculation unit for calculating a 3D depth setting reference (3D perspective) based on at least one of the screen curvature information of the display device and the viewer's position information;
A rendering unit for correcting the depth of the received 3D image according to the calculated depth setting standard (3D perspective); And
And a display unit for displaying the corrected 3D image.
제 1항에 있어서,
상기 시청자의 위치 정보는 위치감지센서 및 카메라 중 적어도 하나에 의해 얻어지는 것을 특징으로 하는 3D디스플레이장치.
The method according to claim 1,
Wherein the position information of the viewer is obtained by at least one of a position sensor and a camera.
제 1항에 있어서,
상기 디스플레이장치의 화면곡률 정보를 측정하는 곡률 측정부를 더 포함하는 것을 특징으로 하는 3D디스플레이장치.
The method according to claim 1,
Further comprising a curvature measuring unit for measuring curvature information of the display device.
제 3항에 있어서,
상기 곡률 측정부는 복수의 로드셀 (load cell)을 포함하며, 상기 디스플레이부의 배면에 배치되는 것을 특징으로 하는 3D디스플레이장치.
The method of claim 3,
Wherein the curvature measuring unit includes a plurality of load cells and is disposed on a back surface of the display unit.
제 4항에 있어서,
상기 디스플레이부는 플렉시블 디스플레이부를 포함하는 것을 특징으로 하는 3D디스플레이장치.
5. The method of claim 4,
Wherein the display unit includes a flexible display unit.
제1항에 있어서,
상기 3D 심도(depth) 설정기준(3D perspective)은 복수의 시청자 각각에 대해 계산되는 것을 특징으로 하는 3D디스플레이장치.
The method according to claim 1,
Wherein the 3D depth setting reference (3D perspective) is calculated for each of a plurality of viewers.
제 6항에 있어서,
상기 디스플레이부는 무안경 입체영상(autostereoscopic) 디스플레이부를 포함하는 것을 특징으로 하는 3D디스플레이장치.
The method according to claim 6,
Wherein the display unit includes an autostereoscopic display unit.
제 1항에 있어서,
상기 3D 심도(depth) 설정기준(3D perspective)은 시청자의 얼굴을 기준으로 계산되는 것을 특징으로 하는 3D디스플레이장치.
The method according to claim 1,
Wherein the 3D depth setting reference (3D perspective) is calculated based on the face of the viewer.
3D영상처리방법에 있어서,
3D영상을 수신하는 단계;
디스플레이장치의 화면곡률 정보와 시청자의 위치 정보 중 적어도 하나를 측정하는 단계;
상기 측정된 화면곡률 정보와 시청자의 위치 정보 중 적어도 하나를 기초로 하여 3D 심도(depth) 설정기준(3D perspective)을 계산하는 단계;
상기 계산된 심도(depth) 설정기준(3D perspective)에 따라 상기 수신된 3D 영상의 심도(depth)를 보정하는 단계; 및
상기 보정된 3D영상을 디스플레이부에 표시하는 단계를 포함하는 3D 영상처리방법.
In the 3D image processing method,
Receiving a 3D image;
Measuring at least one of screen curvature information of a display device and position information of a viewer;
Calculating a 3D depth setting reference based on at least one of the measured screen curvature information and the viewer's location information;
Correcting the depth of the received 3D image according to the calculated depth perspective (3D perspective); And
And displaying the corrected 3D image on a display unit.
제 9항에 있어서,
상기 시청자의 위치 정보는 위치감지센서 및 카메라 중 적어도 하나에 의해 얻어지는 것을 특징으로 하는 3D 영상처리방법.
10. The method of claim 9,
Wherein the position information of the viewer is obtained by at least one of a position sensor and a camera.
제 9항에 있어서,
상기 디스플레이장치의 화면곡률 정보는 플렉시블 디스플레이부의 휘어짐을 측정하여 얻는 것을 특징으로 하는 3D 영상처리방법.
10. The method of claim 9,
Wherein the screen curvature information of the display device is obtained by measuring a warp of the flexible display portion.
제 11항에 있어서,
상기 플렉시블 디스플레이부의 휘어짐 측정은 복수의 로드셀 (load cell)을 포함하며, 상기 디스플레이부의 후면에 배치되는 곡률 측정부에 의해 수행되는 것을 특징으로 하는 3D 영상처리방법.
12. The method of claim 11,
Wherein the flexion measurement of the flexible display unit includes a plurality of load cells and is performed by a curvature measuring unit disposed on a rear surface of the display unit.
제 9항에 있어서,
상기 3D 심도(depth) 설정기준(3D perspective)은 복수의 시청자 각각에 대해 계산되는 것을 특징으로 하는 3D 영상처리방법.
10. The method of claim 9,
Wherein the 3D depth setting reference (3D perspective) is calculated for each of a plurality of viewers.
제 13항에 있어서,
상기 3D 심도(depth) 설정기준(3D perspective)은 무안경 입체영상(autostereoscopic) 디스플레이부에 적용되는 것을 특징으로 하는 3D 영상처리방법.
14. The method of claim 13,
Wherein the 3D depth setting reference (3D perspective) is applied to an autostereoscopic display unit.
제 9항에 있어서,
상기 3D 심도(depth) 설정기준(3D perspective)은 시청자의 얼굴을 기준으로 계산되는 것을 특징으로 하는 3D 영상처리방법.
10. The method of claim 9,
Wherein the 3D depth setting reference (3D perspective) is calculated based on a viewer's face.
KR20130118081A 2013-10-02 2013-10-02 A 3 dimension display device and 3 dimension image processing method KR20150039463A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20130118081A KR20150039463A (en) 2013-10-02 2013-10-02 A 3 dimension display device and 3 dimension image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20130118081A KR20150039463A (en) 2013-10-02 2013-10-02 A 3 dimension display device and 3 dimension image processing method

Publications (1)

Publication Number Publication Date
KR20150039463A true KR20150039463A (en) 2015-04-10

Family

ID=53029758

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130118081A KR20150039463A (en) 2013-10-02 2013-10-02 A 3 dimension display device and 3 dimension image processing method

Country Status (1)

Country Link
KR (1) KR20150039463A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170114822A (en) * 2016-04-06 2017-10-16 한화테크윈 주식회사 Display Control System, Method and Computer Readable Record Medium Thereof
US10552972B2 (en) 2016-10-19 2020-02-04 Samsung Electronics Co., Ltd. Apparatus and method with stereo image processing
WO2021025241A1 (en) * 2019-08-07 2021-02-11 Samsung Electronics Co., Ltd. Method and bendable device for constructing 3d data item

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170114822A (en) * 2016-04-06 2017-10-16 한화테크윈 주식회사 Display Control System, Method and Computer Readable Record Medium Thereof
US10552972B2 (en) 2016-10-19 2020-02-04 Samsung Electronics Co., Ltd. Apparatus and method with stereo image processing
WO2021025241A1 (en) * 2019-08-07 2021-02-11 Samsung Electronics Co., Ltd. Method and bendable device for constructing 3d data item
US11029522B2 (en) 2019-08-07 2021-06-08 Samsung Electronics Co., Ltd. Method and bendable device for constructing 3D data item

Similar Documents

Publication Publication Date Title
US10572010B2 (en) Adaptive parallax adjustment method and virtual reality display device
US8872901B2 (en) Stereoscopic glasses and display apparatus including the same
US8189035B2 (en) Method and apparatus for rendering virtual see-through scenes on single or tiled displays
KR101763592B1 (en) Method for processing image of display system outputting 3 dimensional contents and display system enabling of the method
US20120274629A1 (en) Stereoscopic image display and method of adjusting stereoscopic image thereof
US10237539B2 (en) 3D display apparatus and control method thereof
US20120127273A1 (en) Image processing apparatus and control method thereof
US8477181B2 (en) Video processing apparatus and video processing method
US8749617B2 (en) Display apparatus, method for providing 3D image applied to the same, and system for providing 3D image
JP2010258583A (en) 3d image display apparatus, 3d image playback apparatus, and 3d image viewing system
CN103533340A (en) Naked eye 3D (three-dimensional) playing method of mobile terminal and mobile terminal
CN108076208B (en) Display processing method and device and terminal
US20120087571A1 (en) Method and apparatus for synchronizing 3-dimensional image
US20140071237A1 (en) Image processing device and method thereof, and program
KR20150039463A (en) A 3 dimension display device and 3 dimension image processing method
TWI491244B (en) Method and apparatus for adjusting 3d depth of an object, and method and apparatus for detecting 3d depth of an object
US20120224035A1 (en) Electronic apparatus and image processing method
US20150091796A1 (en) Display apparatus and control method thereof
EP2752815A1 (en) Display method and display apparatus
KR20110098253A (en) Display system and control method thereof
US20140119600A1 (en) Detection apparatus, video display system and detection method
US20130293687A1 (en) Stereoscopic image processing apparatus, stereoscopic image processing method, and program
CN102487447B (en) The method and apparatus of adjustment object three dimensional depth and the method and apparatus of detection object three dimensional depth
JP4481275B2 (en) 3D video information transmission method
US8736602B2 (en) Display apparatus and control method thereof

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination