KR20100000951A - Method and apparatus for converting stereoscopic image signals into monoscopic image signals - Google Patents

Method and apparatus for converting stereoscopic image signals into monoscopic image signals Download PDF

Info

Publication number
KR20100000951A
KR20100000951A KR1020080060640A KR20080060640A KR20100000951A KR 20100000951 A KR20100000951 A KR 20100000951A KR 1020080060640 A KR1020080060640 A KR 1020080060640A KR 20080060640 A KR20080060640 A KR 20080060640A KR 20100000951 A KR20100000951 A KR 20100000951A
Authority
KR
South Korea
Prior art keywords
image
reduced
video signal
images
stereoscopic
Prior art date
Application number
KR1020080060640A
Other languages
Korean (ko)
Other versions
KR101114572B1 (en
Inventor
천승문
정태섭
백남승
오용협
변대섭
Original Assignee
주식회사 이시티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이시티 filed Critical 주식회사 이시티
Priority to KR1020080060640A priority Critical patent/KR101114572B1/en
Publication of KR20100000951A publication Critical patent/KR20100000951A/en
Application granted granted Critical
Publication of KR101114572B1 publication Critical patent/KR101114572B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PURPOSE: A method and an apparatus for converting stereoscopic image signals into monoscopic image signals are provided to realize an image in an existing 2D display without distortion of picture quality using the stereoscopic image signals, thereby activating stereoscopic contents. CONSTITUTION: Unmatched areas are specified from a reduced left image and a reduced right image(S10). Boundary information is extracted from the unmatched areas(S20). One or both between the reduced left image and the reduced right image are all corrected using the boundary information(S30). A 2D image is generated using the corrected image(S40).

Description

스테레오스코픽 영상 신호의 2차원 영상 신호로의 변환 방법 및 변환 장치{Method and apparatus for converting stereoscopic image signals into monoscopic image signals}Method and apparatus for converting stereoscopic video signal to 2D video signal {Method and apparatus for converting stereoscopic image signals into monoscopic image signals}

본 발명은 영상 신호의 변환 절차 및 장치에 관한 것으로, 보다 구체적으로 스테레오스코픽 영상 신호를 모노스코픽 영상 신호로 변환하기 위한 절차 및 장치에 관한 것이다.The present invention relates to a procedure and apparatus for converting a video signal, and more particularly, to a procedure and apparatus for converting a stereoscopic video signal into a monoscopic video signal.

3차원 영상 미디어는 현재 특수 분야인 의료용, 게임기, CAD용 등에 제한적으로 응용되고 있으나, 장래에는 모바일기기나 TV 등의 디스플레이 장치를 위한 차세대 정보 통신 미디어로 급속히 성장할 것으로 예상된다. 이러한 3차원 영상기술은 크게 스테레오스코픽 방식과 홀로그래픽 방식으로 구분된다. 스테레오스코픽 방식은 양안 시차를 이용하여 깊이감을 표현하는 3차원 영상으로서, 안경과 같은 이차적인 장치를 직접 착용하거나 또는 특수한 보조 수단이 부착된 평면 디스플레이 장치를 이용하여 입체감을 부여한다. 이에 비해, 홀로그래픽 방식은 물체의 3차원적인 파형을 광학적으로 공기 중에 투사함으로써 3차원 입체영상을 구현하는 것이다. 현재로서는 홀로그래픽 방식에 비해 스테레오스코픽 방식이 기술적으로 간단하 고 저렴한 장점이 있어 3차원 영상 미디어 기술로 더욱 보편화 되어 있는 실정이다.Although 3D image media is currently limitedly applied to special fields such as medical, game, and CAD, it is expected to grow rapidly as a next generation information communication media for display devices such as mobile devices and TVs in the future. Such 3D imaging technology is largely divided into stereoscopic and holographic methods. The stereoscopic method is a three-dimensional image expressing a sense of depth by using binocular parallax. The stereoscopic method provides a stereoscopic effect by directly wearing a secondary device such as glasses or by using a flat panel display device with special auxiliary means. In contrast, the holographic method implements a 3D stereoscopic image by optically projecting a 3D waveform of an object into the air. At present, the stereoscopic method is technically simple and inexpensive compared to the holographic method, and thus is more widely used as a 3D video media technology.

스테레오스코픽 방식에서는 일정한 거리로 이격되어 있는 좌측 카메라와 우측 카메라로 동일한 피사체를 촬영하여 각각 획득한 1쌍의 좌영상과 우영상인 스테레오스코픽 영상을 이용한다. 좌영상과 우영상은 동일한 피사체를 촬영한 것이지만, 시점(Viewpoint)이 다르기 때문에 피사체의 표면 특성이나 광원의 위치 등에 따라서 이미지 정보에 차이가 발생할 수가 있다. In the stereoscopic method, a pair of left and right images obtained by photographing the same subject with a left camera and a right camera spaced by a certain distance are used for a stereoscopic image. The left image and the right image are taken of the same subject, but because of different viewpoints, the image information may be different depending on the surface characteristics of the subject, the position of the light source, and the like.

도 1은 스테레오스코픽 영상을 획득하는 과정을 보여주는 도면이다. 도 1에 도시되어 있는 바와 같이, 스테레오스코픽 영상은 일정한 거리로 이격되어 있는 좌측 카메라(14a)와 우측 카메라(14b)를 이용하여 동일한 피사체(12)를 촬영한다. 촬영 결과, 좌측 카메라(14a)를 통해서는 좌영상(16a)이 획득되며, 우측 카메라(14b)를 통해서는 우영상(16b)이 획득된다. 1 is a diagram illustrating a process of obtaining a stereoscopic image. As shown in FIG. 1, the stereoscopic image captures the same subject 12 using the left camera 14a and the right camera 14b spaced apart by a predetermined distance. As a result of the shooting, the left image 16a is obtained through the left camera 14a, and the right image 16b is obtained through the right camera 14b.

도 2는 스테레오스코픽 영상을 구성하는 좌영상과 우영상의 특성을 설명하기 위한 도면이다. 전술한 바와 같이, 좌영상과 우영상은 비록 동일한 피사체를 촬영한 것이지만, 시점이 다르기 때문에 이미지 정보에 차이가 발생하는데, 도 2를 도시된 바와 같이, 좌영상에 포함된 오면체의 이미지와 우영상에 포함된 오면체의 이미지는 동일하지 않다는 것을 확인할 수 있다. 2 is a view for explaining characteristics of a left image and a right image constituting a stereoscopic image. As described above, although the left image and the right image are taken of the same subject, differences in image information occur because of different viewpoints. As shown in FIG. 2, the image and the right image of the pentagonal body included in the left image are illustrated. It can be seen that the images of the pentagram contained in are not identical.

이러한 스테레오스코픽 영상은 피사체에 대한 입체감을 디스플레이 상에 구현하기 위하여 사용된다. 스테레오스코픽 영상을 이용하여 LCD(Liquid Crystal Display)나 PDP(Plasma Display Panel) 등과 같은 평면 디스플레이 장치에서 재 생(Reproduction)되는 영상에 입체감을 부여할 수 있는 방법은 여러 가지가 있는데, 그 중의 한 가지 방법은 배리어 타입(Barrier Type)의 디스플레이 장치를 이용하는 것이다. This stereoscopic image is used to implement a three-dimensional effect on the display. Using stereoscopic images, there are many ways to add stereoscopic effect to images reproduced on flat display devices such as liquid crystal displays (LCDs) and plasma display panels (PDPs). The method is to use a barrier type display device.

도 3은 배리어 타입(Barrier Type)의 디스플레이를 이용하여 입체 영상을 재현하는 원리를 설명하기 위한 도면이다.FIG. 3 is a diagram for describing a principle of reproducing a stereoscopic image using a barrier type display.

도 3을 참조하면, 도 3의 (가)는 스테레오스코픽 영상 중 좌영상(30a)의 홀수 수직라인만을 추출하여 홀수 수직 라인으로 배치하고, 우영상(30b)의 짝수 수직라인만을 추출하여 짝수 수직 라인으로 배치한 통합합성영상(32)을 나타낸 그림이다. 도 3의 (나)는 편광 필름이나 편광 글래스 등으로 형성되는 배리어(34)를 통합합성영상(32)이 디스플레이되는 평판 디스플레이(36) 위에 장착하여 스테레오스코픽 영상을 보는 과정을 보여 주는 그림이다. 배리어 편광판에는 라인 타입의 배리어 패턴이 구비되어 있는데, 이 배리어 패턴이 좌안으로는 디스플레이 영상의 좌영상 부분만을 그리고 우안으로는 상기 디스플레이 영상의 우영상 부분만을 보이게 한다. 따라서 시청자는 좌안을 통해서는 좌영상만을 그리고 우안을 통해서는 우영상만을 보기 때문에, 입체 안경과 같은 보조 기구의 도움 없이 맨눈으로 입체감이 있는 영상을 보는 것이 가능하다. Referring to FIG. 3, (a) of FIG. 3 extracts only the vertical vertical lines of the left image 30a from the stereoscopic image and arranges them as odd vertical lines, and extracts only the even vertical lines of the right image 30b to make even vertical lines. Figure shows the integrated composite image 32 arranged in a line. 3B illustrates a process of viewing a stereoscopic image by mounting a barrier 34 formed of a polarizing film or polarizing glass on the flat panel display 36 on which the integrated composite image 32 is displayed. The barrier polarizer is provided with a line-type barrier pattern, which shows only the left image portion of the display image in the left eye and only the right image portion of the display image in the right eye. Therefore, since the viewer sees only the left image through the left eye and only the right image through the right eye, it is possible to view a three-dimensional image with the naked eye without the aid of an auxiliary device such as stereoscopic glasses.

이와 같이, 스테레오스코픽 방식에 이용되는 콘텐츠, 즉 스테레오스코픽 영상 신호는 기존의 모노스코픽 영상 신호와는 다른 이미지 정보들로 구성된다. 그런데, 현재 스테레오스코픽 영상 신호를 재생하기 위한 배리어타입의 디스플레이 장치의 보급은 충분하지 않으며, 대다수의 사람들은 일반 2D 디스플레이 장치를 사용 하고 있다. 스테레오스코픽 영상 신호를 일반 2D 디스플레이 장치에 그대로 재생하면 화질이 좋지 않기 때문에, 스테레오스코픽 영상 콘텐츠의 이용 범위는 상당히 제한적이며, 그 결과 스테레오스코픽 영상 콘텐츠의 제작 위축 및 이에 따른 스테레오스코픽 영상 디스플레이 장치의 보급 저하라는 악순환을 초래할 수 있다. As such, the content used in the stereoscopic method, that is, the stereoscopic video signal is composed of image information different from the conventional monoscopic video signal. However, at present, the diffusion of a barrier type display device for reproducing stereoscopic video signals is not enough, and most people use a general 2D display device. When the stereoscopic video signal is reproduced on a general 2D display device as it is, the image quality is not good, so the use range of the stereoscopic video content is quite limited, and as a result, the production shrinkage of the stereoscopic video content and the dissemination of the stereoscopic video display device accordingly. It can lead to a vicious cycle of degradation.

따라서 스테레오스코픽 영상 관련 기술의 발전과 스테레오스코픽 영상 디스플레이 장치 등의 광범위한 보급을 위해서는, 스테레오스코픽 영상 신호를 2D 영상 디스플레이 장치에도 이용할 수 있도록 하는 방법이 필요하다. 스테레오스코픽 영상을 기존의 2차원 영상 수신기(TV, 모니터)를 통해 재현하기 위한 방법으로, 스테레오스코픽 영상 신호를 구성하는 축소 좌영상이나 축소 우영상 중에서 하나를 두 배로 확대하여 재생하거나, 또는 축소 좌영상과 축소 우영상이 교대로 배열된 통합합성영상(즉, 스테레오스코픽 영상 신호)을 그대로 재생하는 방법을 고려해 볼 수 있다. 그러나 전자의 경우는 영상의 해상도가 낮아서 화질이 좋지 않고, 후자의 경우는 좌우 영상간의 불일치로 인하여 화질의 저하가 심한 단점이 있다.Therefore, for the development of stereoscopic video related technologies and widespread use of stereoscopic video display devices, a method of enabling stereoscopic video signals to be used in 2D video display devices is also required. As a method for reproducing stereoscopic images through existing two-dimensional image receivers (TVs, monitors), one of the reduced left image and the reduced right image constituting the stereoscopic image signal is enlarged and reproduced, or the reduced left image is doubled. A method of reproducing an integrated composite video (that is, a stereoscopic video signal) in which an image and a reduced right image are alternately arranged may be considered. However, in the former case, the image quality is not good because the resolution of the image is low, and in the latter case, the image quality is deteriorated due to the mismatch between the left and right images.

본 발명이 해결하고자 하는 하나의 과제는 스테레오스코픽 영상 신호를 이용하여 2차원 디스플레이에서도 화질의 저하나 왜곡 없이 영상을 재현할 수 있는 스테레오스코픽 영상 신호의 2차원 영상 신호로의 변환 절차 및 변환 장치를 제공하는 것이다.One problem to be solved by the present invention is a stereoscopic video signal conversion process and conversion apparatus that can reproduce the image without deterioration or distortion of the image quality even on a two-dimensional display using a stereoscopic video signal To provide.

상기한 과제를 해결하기 위한 본 발명의 일 실시예는 축소 좌영상과 축소 우영상으로 구성된 스테레오스코픽 영상 신호를 모노스코픽 영상 신호로 변환하기 위한 방법으로써, 상기 축소 좌영상과 상기 축소 우영상을 비교하여 상기 축소 좌영상과 상기 축소 우영상 각각에서 불일치 영역을 특정하는 단계, 상기 축소 좌영상과 상기 축소 우영상 각각의 불일치 영역에서 경계 정보를 추출하는 단계, 상기 두 영상의 경계 정보를 이용하여 상기 축소 좌영상과 상기 축소 우영상 중에서 하나 또는 두 영상 모두를 보정하는 단계, 및 보정된 축소 좌영상 및/또는 보정된 축소 우영상을 이용하여 2차원 영상을 생성하는 단계를 포함한다.One embodiment of the present invention for solving the above problems is a method for converting a stereoscopic video signal consisting of a reduced left image and a reduced right image to a monoscopic video signal, comparing the reduced left image and the reduced right image. Specifying an inconsistency region in each of the reduced left image and the reduced right image, extracting boundary information from each of the inconsistency regions of the reduced left image and the reduced right image, and using the boundary information of the two images. Correcting one or both images of the reduced left image and the reduced right image, and generating a 2D image using the corrected reduced left image and / or the corrected reduced right image.

상기 실시예의 일 측면에 의하면, 상기 보정 단계에서는 상기 두 영상의 경계 정보의 평균값을 보정된 영상의 경계가 되도록 상기 축소 좌영상 및/또는 상기 축소 우영상을 정정할 수 있다.According to an aspect of the embodiment, in the correcting step, the reduced left image and / or the reduced right image may be corrected such that an average value of boundary information of the two images becomes a boundary of the corrected image.

상기 실시예의 다른 측면에 의하면, 상기 보정 단계에서는 상기 축소 좌영상과 축소 우영상 중 어느 하나의 영상을 참조하면서 나머지 영상의 불일치 영역을 확대 또는 축소하여 보정할 수 있다. According to another aspect of the embodiment, the correcting step may be corrected by enlarging or reducing the mismatched region of the remaining images while referring to one of the reduced left image and the reduced right image.

상기 실시예의 또 다른 측면에 의하면, 상기 보정 단계에서는 상기 스테레오스코픽 영상 신호에 포함된 카메라 파라미터 정보를 이용할 수도 있다.According to another aspect of the embodiment, the correction step may use the camera parameter information included in the stereoscopic video signal.

상기한 과제를 해결하기 위한 본 발명의 다른 실시예는 스테레오스코픽 영상 신호를 모노스코픽 영상 신호로 변환하기 위한 방법으로써, 상기 스테레오스코픽 영상 신호는 좌우 영상의 이미지 정보 및 상기 좌우 영상을 획득하는데 사용된 카메라 파라미터 정보를 포함하고, 상기 좌우 영상 중에서 하나 또는 두 개의 영상을 정정하여 상기 모노스코픽 영상 신호를 생성하는데 있어서, 적어도 상기 카메라 파라미터 정보를 이용할 수 있다. Another embodiment of the present invention for solving the above problems is a method for converting a stereoscopic video signal into a monoscopic video signal, the stereoscopic video signal is used to obtain image information of the left and right images and the left and right images At least the camera parameter information may be used to generate the monoscopic video signal by including camera parameter information and correcting one or two images from the left and right images.

상기 실시예의 일 측면에 의하면, 상기 좌우 영상 중에서 하나 또는 두 개의 영상의 전부 또는 일부로부터 경계선을 추출하고, 상기 카메라 파라미터 정보를 이용하여 추출된 상기 경계선을 정정할 수 있다.According to an aspect of the embodiment, a boundary line may be extracted from all or part of one or two images from the left and right images, and the extracted boundary line may be corrected using the camera parameter information.

상기 실시예의 다른 측면에 의하면, 상기 모노스코픽 영상 신호는 상기 좌우 영상의 각각의 시점의 중간 위치의 시점에서의 피시체 이미지를 포함하는 영상일 수 있다.According to another aspect of the embodiment, the monoscopic video signal may be an image including a subject image at a viewpoint at an intermediate position of each viewpoint of the left and right images.

상기한 과제를 해결하기 위한 본 발명의 또 다른 실시예는 축소 좌영상과 축소 우영상으로 구성된 스테레오스코픽 영상 신호를 모노스코픽 영상 신호로 변환하기 위한 방법으로써, 상기 축소 좌영상과 상기 축소 우영상 각각의 전부 또는 일부에서 추출된 경계선 정보를 이용하여 상기 축소 좌영상 및 상기 축소 우영상의 중간 시점의 영상을 생성한다. Another embodiment of the present invention for solving the above problems is a method for converting a stereoscopic video signal consisting of a reduced left image and a reduced right image to a monoscopic video signal, each of the reduced left image and the reduced right image An image of an intermediate view of the reduced left image and the reduced right image is generated by using boundary information extracted from all or part of.

상기 실시예의 일 측면에 의하면, 상기 경계선 정보는 상기 축소 좌영상과 상기 축소 우영상의 불일치 영역에서만 추출할 수 있다.According to an aspect of the embodiment, the boundary information may be extracted only in an inconsistent region of the reduced left image and the reduced right image.

상기한 과제를 달성하기 위한 본 발명의 또 다른 실시예는 축소 좌영상과 축소 우영상으로 구성된 스테레오스코픽 영상 신호를 모노스코픽 영상 신호로 변환하기 위한 장치로써, 상기 축소 좌영상과 상기 축소 우영상을 비교하여 상기 축소 좌영상과 상기 축소 우영상 각각에서 불일치 영역을 특정하기 위한 유닛, 상기 축소 좌영상과 상기 축소 우영상 각각의 불일치 영역에서 경계 정보를 추출하기 위한 유 닛, 상기 두 영상의 경계 정보를 이용하여 상기 축소 좌영상과 상기 축소 우영상 중에서 하나 또는 두 영상 모두를 보정하기 위한 유닛, 및 보정된 축소 좌영상 및/또는 보정된 축소 우영상을 이용하여 2차원 영상을 생성하는 유닛을 포함할 수 있다.Another embodiment of the present invention for achieving the above object is a device for converting a stereoscopic video signal consisting of a reduced left image and a reduced right image to a monoscopic video signal, the reduced left image and the reduced right image A unit for specifying an inconsistency region in each of the reduced left image and the reduced right image, a unit for extracting boundary information from each of the inconsistency regions of the reduced left image and the reduced right image, and boundary information of the two images A unit for correcting one or both images of the reduced left image and the reduced right image by using; and a unit for generating a two-dimensional image using the corrected reduced left image and / or the corrected reduced right image. can do.

전술한 본 발명의 실시예에 의하면, 스테레오스코픽 영상 신호를 이용하여 기존의 2D 디스플레이에서 화질의 왜곡 없이 재현할 수 있다. 따라서 스테레오스코픽 영상 신호를 2D 디스플레이와 호환성을 유지시켜 입체방송 사업자의 선택의 폭을 확대할 수 있으며, 이를 통해 입체 컨텐츠의 활성화에 기여할 수 있다.According to the above-described embodiment of the present invention, the stereoscopic video signal can be reproduced without distortion of the image quality in the existing 2D display. Therefore, the stereoscopic video signal can be compatible with the 2D display to expand the selection of stereoscopic broadcast providers, thereby contributing to the activation of stereoscopic content.

이하, 첨부된 도면들을 참조하여 본 발명의 실시예들에 대하여 상세히 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

후술하는 본 발명의 실시예에서의 '스테레오스코픽 영상 신호'는, 좌측 카메라와 우측 카메라를 통해 각각 획득한 좌영상과 우영상 정보를 모두 포함하는 것이 아니다. 본 실시예에서, '스테레오스코픽 영상 신호'는 상기 좌영상과 우영상 정보로부터 배리어 타입의 디스플레이 장치 등과 같은 스테레오스코픽 디스플레이 장치에 재생할 수 있도록 변환된 데이터만을 포함한다. 상기 변환된 데이터는 '이미지 데이터'와 '메타데이터'로 구성될 수 있다.The 'stereoscopic video signal' according to the embodiment of the present invention described below does not include both left and right image information acquired through the left camera and the right camera, respectively. In the present embodiment, the 'stereoscopic video signal' includes only data converted from the left image and right image information to be reproduced to a stereoscopic display apparatus such as a barrier type display apparatus. The converted data may be composed of 'image data' and 'meta data'.

따라서 '스테레오스코픽 영상 신호'는 이미지 데이터로써 좌영상을 가로 또는 세로 방향으로 격행으로 추출한 '축소 좌영상'과 우영상을 가로 또는 세로 방향 으로 격행으로 추출한 '축소 우영상' 정보를 포함한다. 또한, 상기 '스테레오스코픽 영상 신호'는 부호화된 스테레오스코픽 영상의 이미지 정보를 디코딩하고 재생하기 위한 메타데이터, 예컨대 상기 좌영상과 우영상을 획득하는데 사용한 좌우 카메라에 관한 정보인 카메라 파라미터 정보 등을 포함한다. 상기 좌우 카메라에 관한 정보는 예컨대, 좌영상과 우영상의 디스패러티 정보, 좌우 카메라 사이의 거리에 관한 정보, 좌우 영상의 프레임율에 관한 정보, 및/또는 좌영상과 우영상의 동기화에 관한 정보 등을 포함할 수 있다.Accordingly, the 'stereoscopic video signal' includes 'zoom left image' extracted from the left or right in a horizontal or vertical direction as image data and 'zoom right image' extracted from a left or right in a horizontal or vertical direction. In addition, the 'stereoscopic video signal' includes metadata for decoding and playing back image information of an encoded stereoscopic video, for example, camera parameter information, which is information about left and right cameras used to acquire the left and right images. do. The information about the left and right cameras may include, for example, disparity information between the left and right images, information about a distance between the left and right cameras, information about a frame rate of the left and right images, and / or information about synchronization between the left and right images. And the like.

본 발명의 실시예에서는 좌영상과 우영상으로부터 스테레오스코픽 영상 신호를 생성하는 방법에 관해서는 아무런 제한이 없다. 그리고 상기 스테레오스코픽 영상 신호는 좌영상과 우영상으로부터 생성된 것이 아니라, 모노스코픽 영상 신호가 소정의 변환 알고리즘에 따라서 변환된 스테레오스코픽 영상 신호일 수도 있다. 이하에서는 본 발명의 실시예에 따른 변환 절차를 설명하기에 앞서, 스테레오스코픽 영상 신호를 획득하는 과정에 관하여 먼저 설명한다.In the embodiment of the present invention, there is no limitation as to a method for generating a stereoscopic video signal from a left image and a right image. The stereoscopic video signal may not be generated from the left video and the right video, but may be a stereoscopic video signal obtained by converting the monoscopic video signal according to a predetermined conversion algorithm. Hereinafter, a process of acquiring a stereoscopic video signal will first be described before explaining a conversion procedure according to an embodiment of the present invention.

부호화 장치에서는, 예를 들어, 좌우 영상을 각각 1/2의 해상도가 되는 영상으로 축소한 다음, 좌우의 축소 영상을 가로 방향(side-by-side format)으로 결합한 분리합성영상으로 만들어서, 이 분리합성영상을 부호화함으로써 스테레오스코픽 영상 신호를 생성할 수 있다. 또는, 부호화 장치에서 통합합성영상을 만들어서 이 통합합성영상을 부호화함으로써 스테레오스코픽 영상 신호를 생성할 수도 있다. 어떤 경우이든, 스테레오스코픽 영상 신호는 축소 좌영상과 축소 우영상 데이터와 함께 메타데이터를 포함한다는 점에서 차이가 없다.In the encoding apparatus, for example, the left and right images are each reduced to an image having a resolution of 1/2, and then the left and right reduced images are combined into a side-by-side format to form a separated composite image. By encoding the synthesized image, a stereoscopic video signal may be generated. Alternatively, a stereoscopic video signal may be generated by generating an integrated synthesis image by encoding the integrated synthesis image. In any case, there is no difference in that the stereoscopic video signal includes metadata along with the reduced left image and the reduced right image data.

여기서, '분리합성영상'은 축소 좌영상과 축소 우영상을 좌우 또는 상하로 나란히 배열하여 생성한 단일 영상을 가리킨다. 반면, '통합합성영상'은 좌영상에서 추출된 홀수(또는 짝수) 번째 수직 라인과 우영상에서 추출된 짝수(또는 홀수) 번째 수직 라인을 교대로 배열한 단일 영상을 가리킨다. 결국, 통합합성영상은 스테레오스코픽 영상 디스플레이 장치에서 최종적으로 재현되는 영상 포맷에 해당되며, 분리합성영상을 스테레오스코픽 디스플레이 장치에 재현하기 위해서는 먼저 통합합성영상으로 포맷을 변환하는 과정이 필요하다. 반대로, 통합합성영상의 포맷을 변환하면 분리합성영상을 생성할 수가 있다. 이하의 실시예에서는 분리합성영상으로 구성된 '스테레오스코픽 영상 신호'를 이용하여 모노스코픽 영상 신호를 생성하는 과정에 대하여 설명한다.Here, the "separated composite image" refers to a single image generated by arranging the reduced left image and the reduced right image side by side or up and down. On the other hand, the 'integrated composite image' refers to a single image in which the odd (or even) vertical lines extracted from the left image and the even (or odd) vertical lines extracted from the right image are alternately arranged. As a result, the integrated composite image corresponds to an image format finally reproduced in the stereoscopic image display apparatus. In order to reproduce the separated composite image on the stereoscopic display apparatus, a process of first converting the format into the integrated composite image is required. On the contrary, by converting the format of the integrated composite video, a separate composite video can be generated. Hereinafter, a process of generating a monoscopic video signal using a 'stereoscopic video signal' composed of a separated composite image will be described.

그리고 스테레오스코픽 영상 신호는 축소 좌영상과 축소 우영상이 세로 방향(top-down format)으로 결합된 영상일 수도 있다. 이 경우에 분리합성영상은 좌영상에서 추출된 홀수 번째 수평 라인의 집합과 우영상에서 추출된 짝수 번째 수평 라인의 집합이 상하로 배열된 영상이며, 통합합성영상은 축소 좌영상과 축소 우영상의 수평 라인이 각각 교대로 배열한 방식(이하, '제2형 통합합성영상'이라 한다)의 영상이다. 이러한 세로 방향의 스테레오스코픽 영상 신호는 전술한 가로 방향의 스테레오스코픽 영상 신호와 방향에서만 차이가 있으며, 이하에서는 가로 방향의 스테레오스코픽 영상 신호를 중심으로 설명한다.The stereoscopic video signal may be an image in which a reduced left image and a reduced right image are combined in a vertical direction (top-down format). In this case, the separated composite image is an image in which the set of odd-numbered horizontal lines extracted from the left image and the set of even-numbered horizontal lines extracted from the right image are arranged up and down, and the integrated composite image is the horizontal line of the reduced left image and the reduced right image. The images are arranged in alternating manner (hereinafter, referred to as "type 2 integrated synthesis video"). The stereoscopic video signal in the vertical direction is different from the above-described stereoscopic video signal in the horizontal direction only. Hereinafter, the stereoscopic video signal in the horizontal direction will be described.

도 4는 스테레오스코픽 영상의 일례로써 사이드 바이 사이드(side by side) 방식으로 배열된 분리합성영상을 보여주는 도면이다.4 is a diagram illustrating a separated composite image arranged in a side by side manner as an example of a stereoscopic image.

도 4를 참조하면, 좌측 카메라를 통해 획득한 소정 크기, 예컨대 320x240 크기의 좌영상(40a)은 홀수 번째의 수직 라인만을 추출하여 160x240 크기의 축소 좌영상(42a)을 만들고, 우측 카메라를 통해 획득한 소정 크기, 예컨대 320x240 크기의 우영상(40b)은 짝수 번째의 수직 라인만을 추출하여 역시 160x240 크기의 축소 우영상(42b)을 만든다. 그런 다음, 이러한 160x240 크기를 갖는 좌우의 축소 영상(40a, 40b)을 가로 방향으로 결합한 320x240 크기를 갖는 분리합성영상(44)을 만든다. 그리고 부호화 장치에서는 이 분리합성영상(44)을 소정의 방식에 따라서 부호화를 수행하는데, 후술하는 본 발명의 실시예는 분리합성영상(44)의 부호화 방법과는 아무런 상관이 없다.Referring to FIG. 4, a left image 40a having a predetermined size acquired through the left camera, for example, a 320x240 size, extracts only an odd number of vertical lines to form a reduced left image 42a having a size of 160x240, and is obtained through a right camera. The right image 40b having a predetermined size, for example, 320x240, extracts only the even-numbered vertical lines to form a reduced right image 42b which is also 160x240. Then, a separated composite image 44 having a 320x240 size is formed by combining the left and right reduced images 40a and 40b having the 160x240 size in the horizontal direction. In addition, the encoding apparatus encodes the separated composite image 44 according to a predetermined method, but the embodiment of the present invention described later has no relation to the encoding method of the separated composite image 44.

도 5는 후술하는 본 발명의 실시예가 적용될 수 있는 환경을 도식적으로 보여 주는 블록도이다. 도 5에서는 스테레오스코픽 영상 획득부에서 분리합성영상의 포맷을 갖는 스테레오스코픽 영상 신호를 생성하고, 그리고 생성된 스테레오스코픽 영상 신호를 인터넷이나 무선통신 네트워크, 또는 방송 네트워크 등과 같은 소정의 전송 네트워크를 통해 사용자에게 전송하는 경우가 도시되어 있다. 상기 사용자는 스테레오스코픽 디스플레이 장치를 소유하거나 또는 모노스코픽 디스플레이 장치를 소유할 수도 있다. 5 is a block diagram schematically illustrating an environment to which an embodiment of the present invention to be described below may be applied. In FIG. 5, the stereoscopic image acquisition unit generates a stereoscopic image signal having a format of a separated composite image, and uses the generated stereoscopic image signal through a predetermined transmission network such as the Internet, a wireless communication network, or a broadcasting network. The case of sending to is shown. The user may own a stereoscopic display device or a monoscopic display device.

도 5를 참조하면, 좌영상 신호(50a)와 우영상 신호(50b)가 스테레오스코픽 영상획득부(52)에 입력되어, 좌영상의 홀수 번째의 수직 라인만을 추출하여 축소 좌영상(54a)을 만들고, 우영상의 짝수 번째의 수직 라인만을 추출하여 축소 우영상(54b)을 만든다. 이러한 좌우의 축소 영상을 가로 방향으로 결합한 사이드 바이 사이드 방식의 좌우 합성영상(54)을 만들어 부호화한 후, 통상의 전송 채널(56)을 통해 전송할 수 있다. 그런 다음, 스테레오스코픽 디스플레이(59)에 수신된 영상은 포맷변환기를 통해 다시 좌우 영상의 수직 픽셀 라인이 교대로 배열된 통합합성영상으로 재구성되어 입체영상으로 재현될 수 있다. 이러한 입체영상은 편광필름이 장착된 TV에 편광안경을 쓰고 볼 수 있으며, 셔터방식을 통해 셔터안경을 쓰고 볼 수 있고, 그밖에 여러가지 다른 3D 디스플레이 방식으로도 볼 수 있다. 또한, 모노스코픽 디스플레이(58)에 수신된 영상은 본 발명의 실시예에 따른 3D/2D 변환 장치를 통해 2차원 영상 신호로 변환되어 재현될 수 있다.Referring to FIG. 5, the left image signal 50a and the right image signal 50b are input to the stereoscopic image acquisition unit 52 to extract only the odd vertical lines of the left image to reduce the reduced left image 54a. In addition, only the even-numbered vertical lines of the right image are extracted to form a reduced right image 54b. The left-right composite image 54 of a side-by-side method combining the left and right downscaled images in a horizontal direction may be encoded and then transmitted through a normal transmission channel 56. Then, the image received by the stereoscopic display 59 may be reconstructed into an integrated composite image in which the vertical pixel lines of the left and right images are alternately arranged again through a format converter to be reproduced as a stereoscopic image. Such stereoscopic images can be viewed and worn with polarized glasses on a TV equipped with a polarizing film, and can be viewed with a shutter glasses through a shutter method, and can be viewed in various other 3D display methods. In addition, the image received by the monoscopic display 58 may be converted into a 2D image signal and reproduced by the 3D / 2D conversion apparatus according to the embodiment of the present invention.

도 6도 후술하는 본 발명의 실시예가 적용될 수 있는 환경을 도식적으로 보여 주는 블록도로써, 스테레오스코픽 영상이 탑다운 방식으로 구성된다는 점에서 전술한 도 5의 그것과 차이가 있다. 도 6에서는 스테레오스코픽 영상 획득부에서 분리합성영상의 포맷을 갖는 스테레오스코픽 영상 신호를 생성하고, 그리고 생성된 스테레오스코픽 영상 신호를 인터넷이나 무선통신 네트워크, 또는 방송 네트워크 등과 같은 소정의 전송 네트워크를 통해 사용자에게 전송하는 경우가 도시되어 있다. 상기 사용자는 스테레오스코픽 디스플레이 장치를 소유하거나 또는 모노스코픽 디스플레이 장치를 소유할 수도 있다. FIG. 6 is a block diagram schematically illustrating an environment to which an embodiment of the present invention to be described below may be applied, which is different from that of FIG. 5 in that a stereoscopic image is configured in a top-down manner. In FIG. 6, the stereoscopic image acquisition unit generates a stereoscopic image signal having a format of a separated composite image, and uses the generated stereoscopic image signal through a predetermined transmission network such as the Internet, a wireless communication network, or a broadcasting network. The case of sending to is shown. The user may own a stereoscopic display device or a monoscopic display device.

도 6을 참조하면, 좌영상 신호(60a)와 우영상 신호(60b)가 스테레오스코픽 영상획득부(62)에 입력되어, 좌영상의 홀수 번째의 수평 라인만을 추출하여 축소 좌영상(64a)을 만들고, 우영상의 짝수 번째의 수평 라인만을 추출하여 축소 우영상(64b)을 만든다. 이러한 좌우의 축소 영상을 세로 방향으로 결합한 탑다운 방식 의 좌우 합성영상(64)을 만들어 부호화한 후, 통상의 전송 채널(66)을 통해 전송할 수 있다. 그런 다음, 스테레오스코픽 디스플레이(69)에 수신된 영상은 포맷변환기를 통해 다시 좌우 영상의 수평 픽셀 라인이 교대로 배열된 통합합성영상으로 재구성되어 입체영상으로 재현될 수 있다. 이러한 입체영상은 편광필름이 장착된 TV에 편광안경을 쓰고 볼 수 있으며, 셔터방식을 통해 셔터안경을 쓰고 볼 수 있고, 그밖에 여러 가지 다른 3D 디스플레이 방식으로도 볼 수 있다. 또한, 모노스코픽 디스플레이(68)에 수신된 영상은 본 발명의 실시예에 따른 3D/2D 변환 장치를 통해 2차원 영상 신호로 변환되어 재현될 수 있다.Referring to FIG. 6, the left image signal 60a and the right image signal 60b are input to the stereoscopic image acquisition unit 62 to extract only the odd horizontal lines of the left image to reduce the reduced left image 64a. And extracts only the even horizontal lines of the right image to form a reduced right image 64b. The left and right reduced images of the left and right images combined in the vertical direction are combined with each other, and then encoded, and then transmitted through a normal transmission channel 66. Then, the image received by the stereoscopic display 69 may be reconstructed into an integrated composite image in which horizontal pixel lines of the left and right images are alternately arranged again through a format converter to be reproduced as a stereoscopic image. Such stereoscopic images can be viewed and worn with polarized glasses on a TV equipped with a polarizing film, and can be viewed with a shutter glasses through a shutter method, and can be viewed in various other 3D display methods. In addition, the image received by the monoscopic display 68 may be converted into a two-dimensional image signal through a 3D / 2D conversion apparatus according to an embodiment of the present invention and reproduced.

도 7은 본 발명의 일 실시예에 따른 스테레오스코픽 영상 신호의 2차원 영상 신호로의 변환 절차를 나타내는 흐름도이다.7 is a flowchart illustrating a procedure of converting a stereoscopic video signal into a 2D video signal according to an embodiment of the present invention.

도 7를 참조하면, 먼저 스테레오스코픽 영상 신호를 구성하는 축소 좌영상 및 축소 우영상을 비교하여, 양 영상의 불일치 영역을 추출한다(S10). 이러한 불일치 영역의 추출 과정은, 소정 크기의 블록 단위나 또는 개별 화소 단위로 수행될 수 있는데, 축소 좌영상과 축소 우영상의 데이터(이미지 데이터 및/또는 메타데이터)를 이용하여 양 영상의 일치 영역과 불일치 영역을 구분하는 과정의 일례라고 볼 수 있다. 블록 단위로 일치 영역과 불일치 영역을 구분하는 경우에는, 예컨대 도 8의 (마)와 도 8의 (바)에 도시된 바와 같이, 소정 크기의 단위 블럭(N x M) 단위로 구분을 할 수도 있다. 여기서 단위 블록이란, 매크로블록이나 또는 그 보다 작은 크기의 블록으로서, 영상 부호화에서 부호화의 기본 단위 블록일 수 있다. Referring to FIG. 7, first, a reduced left image and a reduced right image constituting a stereoscopic video signal are compared to extract a mismatched region of both images (S10). The process of extracting the inconsistency region may be performed in units of blocks of a predetermined size or in units of individual pixels, and the coincidence region of both images using data of the reduced left image and the reduced right image (image data and / or metadata). It can be regarded as an example of the process of distinguishing the region from the inconsistency. In the case of distinguishing the matched region from the mismatched region in block units, for example, as shown in FIG. 8 (e) and FIG. have. Here, the unit block may be a macroblock or a smaller block and may be a basic unit block of encoding in video encoding.

본 실시예에 의하면, 일치 영역과 불일치 영역을 구분하는 구체적인 방법은 아무런 제한이 없다. '불일치 영역'이란 좌우 영상이 동일하지 않는 영역을 가리키고, 반대로 '일치 영역'이란 좌우 영상이 동일한 영역을 가리킨다. 예를 들어, 축소 좌영상의 이미지 정보와 축소 우영상의 이미지 정보의 차이가 존재하거나 또는 그 차이가 일정한 임계치 이상이 되는 화소 또는 영역(소정 크기의 블록)을 불일치 영역이라고 할 수 있다. 여기서, 이미지 정보는 Y, Cb, Cr 등과 같은 휘도 및 색차 정보로 표현되거나 또는 RGB 정보로 표현될 수 있다. 반대로, 축소 좌영상의 이미지 정보와 축소 우영상의 이미지 정보의 차이가 없거나 또는 그 차이가 일정한 임계치 이하가 되는 화소 또는 영역은 일치 영역이라고 할 수 있다.According to this embodiment, there is no limitation in the specific method of distinguishing the matching area and the inconsistent area. The 'unmatched region' refers to an area where the left and right images are not identical, whereas the 'matching region' refers to an area where the left and right images are the same. For example, a pixel or an area (a block of a predetermined size) in which there is a difference between the image information of the reduced left image and the image information of the reduced right image or the difference is greater than or equal to a predetermined threshold may be referred to as an inconsistency region. The image information may be represented by luminance and color difference information such as Y, Cb, Cr, or RGB information. In contrast, a pixel or an area in which there is no difference between the image information of the reduced left image and the image information of the reduced right image or the difference is less than or equal to a predetermined threshold may be referred to as a matching area.

일반적으로 카메라에서 거리가 멀리 떨어져 있는 피사체는 좌우 영상의 시차가 거의 존재하지 않는다. 반면, 카메라에서 거리가 가까운 피사체는 좌우 영상의 시차가 발생하는데, 이러한 시차는 카메라로부터의 거리에 반비례한다. 따라서 상기 단계 S11에서 일치 영역으로 추출되는 화소 또는 영역은 카메라에서 멀리 떨어져 있는 배경화면이 해당될 가능성이 높고, 불일치 영역은 카메라에 가까이 있는 물체나 사람이 해당될 가능성이 높다.Generally, there is little parallax between left and right images for a subject that is far from the camera. On the other hand, the object near the distance from the camera generates a parallax of the left and right images, which is inversely proportional to the distance from the camera. Therefore, the pixel or region extracted as the matching region in step S11 is likely to correspond to a background screen far from the camera, and the mismatched region is likely to correspond to an object or a person near the camera.

이러한 원리는 이용하면, 상기 단계에서의 일치 영역과 불일치 영역을 구분하는 과정은 좌우 영상 사이의 깊이 지도(Depth Map)를 구하고 이를 이용하여 구할 수도 있다. 예컨대, 깊이 지도에 의하여 변이(Disparity)가 크게 나타나는 화소 또는 영역은 불일치 영역으로 하고, 변이가 작게 나타나는 화소 또는 영역은 일치 영역으로 구분할 수도 있다.Using this principle, the process of distinguishing the matched region from the mismatched region may be obtained by using a depth map between left and right images. For example, a pixel or an area where disparity is large due to a depth map may be a mismatched area, and a pixel or an area where a disparity is small may be divided into a matching area.

도 8의 (가)는 스테레오스코픽 영상 중 좌영상을 나타낸 그림, (나)는 우영 상을 나타낸 그림, (다)는 사이드 바이 사이드 방식의 분리합성영상을 구성한 그림, (라)는 상기 (다)의 포맷을 변환하여 통합합성영상을 구성한 그림, (마)는 상기 (라)의 그림에서 영상의 부호화 단위인 단위블럭(N x M)으로 구획한 일치 영역을 나타낸 그림, (바)는 상기 (라)의 그림에서 영상의 부호화 단위인 단위블럭(N x M)으로 구획한 불일치 영역을 나타낸 그림이다.(A) is a picture showing a left image of the stereoscopic image, (b) is a picture showing a right image, (c) is a picture consisting of a side-by-side separated composite image, (d) is (c) ), (E) shows a matching region partitioned into unit blocks (N x M), which is a coding unit of the image, in (d). In (D), the inconsistency region divided by the unit block (N x M) which is the coding unit of the image is shown.

도 8의 (다)를 참조하면, 좌영상(80a)을 가지고 홀수 수직라인만을 추출하여 가로축으로 절반크기의 축소 좌영상(82a)을 구성한다. 그리고 우영상(80b)을 가지고 짝수 수직라인만을 추출하여 가로축의 절반크기의 축소 우영상(82b)을 구성한다. 예를 들어, (가)와 (나)에 도시된 좌우 영상의 크기가 각각 320x240 크기라면 축소 좌영상(82a)은 (가)의 영상으로부터 홀수 수직라인만을 추출하여 만든 160x240 크기의 영상이며, 축소 우영상(82b)은 (나)의 영상으로부터 짝수 수직라인만을 추출하여 만든 160x240 크기의 영상이다. 이러한 방법은 방식의 편이성에 따라 좌측 영상을 가지고 짝수 수직라인만을 추출하고, 우측 영상을 가지고 홀수 수직라인을 추출할 수 있다. 그것은 시스템을 구성하는 데 있어 편이성에 따라 다르게 구성할 수 있다.Referring to (c) of FIG. 8, only the odd vertical lines are extracted with the left image 80a to form a reduced left image 82a having a half size in the horizontal axis. Then, only the even vertical lines are extracted with the right image 80b to form a reduced right image 82b having a half size of the horizontal axis. For example, if the size of the left and right images shown in (A) and (B) is 320x240, respectively, the reduced left image 82a is a 160x240 image created by extracting only odd vertical lines from the image of (A). The right image 82b is a 160x240 image made by extracting only even vertical lines from the image of (b). This method can extract only the even vertical lines with the left image and the odd vertical lines with the right image according to the convenience of the method. It can be configured differently depending on the convenience of configuring the system.

도 8의 (라)는 축소 좌영상(82a) 및 축소 우영상(52b)을 가지고 통합합성영상(84)을 구성한 그림이다. 전술한 바와 같이, 도 8의 (라)에 도시된 것과 같은 통합합성영상으로 3D 디스플레이를 통해 입체영상을 볼 수 있다. 그러나 상기 영상을 2D 디스플레이로 보게 되면. 피사체의 경계가 이중으로 보이는 등 일부 영역에서는 정상적인 2차원 영상을 볼 수 없다.FIG. 8D illustrates a combined composite image 84 having a reduced left image 82a and a reduced right image 52b. As described above, the stereoscopic image can be viewed through the 3D display with the integrated synthetic image as shown in (d) of FIG. But when you see the image on a 2D display. In some areas, the normal two-dimensional image may not be visible, such as a double boundary of the subject.

도 8의 (마)에 해당하는 부분은 배경화면의 일부로서, 카메라로부터 먼 거리에 위치한다. 이러한 부분은 축소 좌영상과 축소 우영상의 이미지 정보의 차이가 없는 일치 영역에 해당될 가능성이 높다. 전술한 바와 같이, 일치 영역은 통합합성영상에서 인접한 화소 또는 블록 사이에서 이미지 정보의 차이가 거의 없거나 또는 소정 임계치 이하가 되는 영역이라고 할 수 있다. 이러한 일치 영역은 2D 디스플레이를 이용하여 재생을 하더라도 화질이 나쁘지 않으며 경계가 이중으로 보이는 등의 현상이 발생하지 않는다.A part corresponding to (e) of FIG. 8 is a part of the background screen and is located far from the camera. Such a part is likely to correspond to a matching area where there is no difference between the image information of the reduced left image and the reduced right image. As described above, the coincidence region may be an area in which there is little difference in image information or less than a predetermined threshold value between adjacent pixels or blocks in the integrated composite image. Even if the matched area is played back using the 2D display, the image quality is not bad and the boundary does not appear twice.

도 8의 (바)에 해당하는 부분은 배경이 아닌 피사체의 일부로서, 카메라로부터 상대적으로 가까운 거리에 위치한다. 이러한 부분은 축소 좌영상과 축소 우영상의 이미지 정보의 차이가 존재하는 불일치 영역에 해당될 가능성이 높다. 전술한 바와 같이, 불일치 영역은 통합합성영상에서 인접한 화소 또는 블록 사이에서 이미지 정보의 차이가 존재거나 또는 소정 임계치 이상이 되는 영역이라고 할 수 있다. 이러한 불일치 영역은 2D 디스플레이를 이용하여 재생을 하면 경계가 이중으로 보이는 등의 현상이 발생하고 라인 단위로 이미지 정보가 달라서 화면에 줄무늬가 발생할 수가 있다.A part corresponding to (bar) of FIG. 8 is a part of the subject, not a background, and is located at a relatively close distance from the camera. Such a part is likely to correspond to an inconsistency region where there is a difference between the image information of the reduced left image and the reduced right image. As described above, the mismatched region may be a region in which there is a difference in image information or a predetermined threshold or more between adjacent pixels or blocks in the integrated composite image. When the discrepancy area is reproduced by using a 2D display, the boundary may be doubled, and the image information may vary depending on the line, and stripes may appear on the screen.

전술한 단계 S10에서는 이러한 통합합성영상을 이용하여 일치 영역과 불일치 영역을 구분할 수도 있다. 보다 구체적으로, 통합합성영상에서 서로 인접한 화소나 블록(통합합성영상의 구성 방식과 같은 가로 방향 또는 세로 방향) 사이의 이미지 정보를 비교함으로써, 즉 서로 인접한 화소나 블록의 이미지 정보의 차이를 이용하여 각 영상에서 일치 영역과 불일치 영역을 구분할 수도 있다. In step S10 described above, the matched region and the mismatched region may be distinguished using the integrated composite image. More specifically, by comparing the image information between pixels or blocks (horizontal or vertical directions, such as the composition of the integrated composite image) in the integrated composite image, that is, by using the difference in the image information of the adjacent pixels or blocks In each image, a matched area and a mismatched area may be distinguished.

전술한 바와 같이 축소 좌영상 및 축소 우영상으로부터 불일치 영역을 추출하는 단계(S10)에 있어서 축소 좌영상 및 축소 우영상의 일치 영역과 불일치 영역을 구분하는 방법은 1개의 화소단위로 실시할 수도 있고, 단위블럭(N x M)단위로 실시할 수도 있다. 바람직하게는, 단위블럭(N x M)단위로 실시할 수 있다. 1개의 화소단위로 불일치 영역을 추출하는 방법에 있어서, '불일치 영역'은 이웃하는 화소 사이의 이미지 정보 예컨대, Y (휘도), Cb,Cr(색차) 또는 각 화소의 RGB(빨강,녹색,청색) 값이 급격히 변화하는 지점일 수 있다. 또한, 단위블럭(N x M)단위로 불일치 영역을 구분하는 방법에 있어서, '불일치 영역'은 예컨대, 16x8 블럭, 8x16 블럭, 8x8 블럭, 8x4 블럭, 4x8 블럭, 또는 4x4 블럭으로 이미지 정보, 상기 Y (휘도), Cb,Cr(색차) 또는 RGB(빨강,녹색,청색) 값이 급격히 변화하는 블럭일 수 있다.As described above, in the step of extracting the inconsistency region from the reduced left image and the reduced right image (S10), a method of distinguishing the matched region and the mismatched region of the reduced left image and the reduced right image may be performed by one pixel unit. It may also be carried out in unit blocks (N × M). Preferably, it can be carried out in unit blocks (N × M). In the method of extracting an inconsistency region by one pixel unit, the 'inconsistency region' is an image information between neighboring pixels such as Y (luminance), Cb, Cr (color difference) or RGB (red, green, blue) of each pixel. ) May be the point where the value changes abruptly. In addition, in the method of classifying the inconsistency region by the unit block (N × M), the 'inconsistency region' is, for example, 16x8 block, 8x16 block, 8x8 block, 8x4 block, 4x8 block, or 4x4 block. It may be a block in which Y (luminance), Cb, Cr (color difference) or RGB (red, green, blue) values change rapidly.

이러한 불일치 영역을 추출하는 단계(S10)에서는 축소 좌영상과 축소 우영상으로 통합합성영상을 생성할 경우 인접 화소 또는 블럭의 이미지 정보의 변화값에 대한 소정 임계값(α)를 설정한다. 임계값(α) 이하의 화소 또는 블럭은 일치 영역으로 정의하고, 임계값 이상의 화소 또는 블럭은 불일치 영역으로 정의하여 불일치 영역만을 추출하는 방식으로 실시할 수 있다. 여기서, 임계값(α)을 정하는 특별한 제한은 없으며, 한 이미지 또는 프레임내에서 먼거리의 배경화면의 비율이 많은 경우 또는 적은 경우에 따라 평균치를 적용하여 상기 임계값을 설정할 수 있다.In the step of extracting such a mismatched region (S10), when generating an integrated composite image from the reduced left image and the reduced right image, a predetermined threshold α for a change value of image information of adjacent pixels or blocks is set. Pixels or blocks below the threshold α may be defined as matching regions, and pixels or blocks above the threshold may be defined as inconsistent regions so as to extract only the mismatched regions. There is no particular limitation for setting the threshold value α, and the threshold value may be set by applying an average value according to the case where the ratio of the distant background screen in the image or frame is large or small.

계속해서 도 7을 참조하면, 단계 S10에서 구분하여 추출한 축소 좌영상과 축소 우영상의 불일치 영역에서 경계(edge)들을 추출한다(S20). 본 단계에서 경계를 추출하는 이유는 추출된 경계를 이용하여 양 영상의 불일치 영역을 보정하기 위해서이다. 일반적으로 경계가 바뀌면 이미지 정보의 변화가 크게 발생하지만, 동일한 경계 내에 위치하는 이미지 정보는 크게 차이가 생기지 않을 가능성이 높다. 그리고 영상에서 경계가 불분명한 경우에는 그 만큼 화질이 떨어지는 것으로 인식될 수 있기 때문에, 본 발명의 실시예에서는 경계를 분명하게 나타냄으로써 화질이 떨어지는 것을 방지할 수가 있다.Subsequently, referring to FIG. 7, edges are extracted from an inconsistency area between the reduced left image and the reduced right image extracted in step S10 (S20). The reason for extracting the boundary in this step is to correct an inconsistency region of both images using the extracted boundary. In general, when the boundary is changed, a large change in the image information occurs, but there is a high possibility that the image information located within the same boundary does not greatly differ. When the boundary is not clear in the image, it can be recognized that the image quality is lowered by that much. In the embodiment of the present invention, the image quality can be prevented from appearing clearly by displaying the boundary clearly.

본 발명의 실시예에서는 상기 추출된 불일치 영역의 영상특성을 분석하기 위하여, 바람직하게는 물체와 물체 사이의 경계를 이용한다. 모든 물체와 물체 사이에는 경계가 존재하게 되고, 이 경계에서 좌우 영상의 불일치가 크게 발생하는 것은 당업자에게 자명하기 때문이다.In an embodiment of the present invention, in order to analyze image characteristics of the extracted mismatched region, a boundary between objects is preferably used. It is apparent to those skilled in the art that a boundary exists between all objects and objects, and a large discrepancy between left and right images occurs at this boundary.

여기서, 경계는 이웃하는 화소 사이에 픽셀값, 또는 이웃하는 블럭 사이의 픽셀값의 평균값이 급격히 변하는 지점일 수 있다. 본 발명의 실시예에서 축소 좌영상 및 축소 우영상 각각의 경계들을 구하는 방법에는 특별한 제한이 없으며, 예컨대 경계 검출 마스크를 이용할 수 있다. 경계 검출 마스크로는 소벨 마스크(Sobel Mask)나 프레윗 마스크(Prewitt Mask) 등을 이용한다. Here, the boundary may be a point at which a pixel value between neighboring pixels or an average value of pixel values between neighboring blocks changes rapidly. In the embodiment of the present invention, there is no particular limitation on the method for obtaining the boundaries of the reduced left image and the reduced right image, for example, a boundary detection mask may be used. As a boundary detection mask, a Sobel Mask, a Prewitt Mask, etc. are used.

도 9a는 소벨 마스크를 보여 주는 도면, 도 9b는 도 9a의 소벨 마스크가 적용되는 영상 및 도 9c는 도 9b의 영상에 도 9a의 소벨 마스크를 적용하여 검출한 결과를 보여 주는 도면이다. 도 9a의 소벨 마스크를 이용하여 도 9b의 영상에 대한 경계를 검출하면 도 9c와 같은 결과를 얻을 수 있다. 여기서, 상기 경계들은 검출된 경계들이 화면내에서 위치하는 수직위치 정보값 및 수평위치 정보값으로 표현될 수 있다.FIG. 9A illustrates a Sobel mask, FIG. 9B illustrates an image to which the Sobel mask of FIG. 9A is applied, and FIG. 9C illustrates a detection result of applying the Sobel mask of FIG. 9A to the image of FIG. 9B. When the boundary of the image of FIG. 9B is detected using the Sobel mask of FIG. 9A, the result as shown in FIG. 9C may be obtained. Here, the boundaries may be represented by a vertical position information value and a horizontal position information value at which the detected boundaries are located in the screen.

계속해서 도 7를 참조하면, 불일치 영역에서 추출된 경계 정보를 이용하여 상기 축소 좌영상 및 상기 축소 우영상 중에서 적어도 하나의 영상을 보정한다(S30). 이러한 과정은 스테레오스코픽 영상 신호로부터 하나의 모노스코픽 영상 신호를 얻기 위한 과정으로서, 이러한 모노스코픽 영상 신호는 좌측 카메라나 우측 카메라와 동일한 시점이 아닌 좌우 카메라의 중간 위치의 시점에서 촬영된 영상 정보를 획득할 수 있도록 상기 좌우 영상의 경계 정보를 모두 이용하는 것이 바람직하다.7, at least one of the reduced left image and the reduced right image is corrected using boundary information extracted from the disagreement region (S30). This process is to obtain a single monoscopic video signal from the stereoscopic video signal, the monoscopic video signal is obtained from the viewpoint of the intermediate position of the left and right cameras, not the same view as the left camera or the right camera In order to do so, it is preferable to use both boundary information of the left and right images.

도 10은 본 발명의 실시예에 따른 경계의 보정방법을 나타내는 개념도이다. 도 10을 참조하면, 오면체를 양측 카메라를 이용하여 획득한 좌영상(110a) 및 우영상(110b)으로 사이드 바이 사이드 방식의 좌우 합성영상(120)을 만든 후에 부호화한다. 그런 다음, 상기 부호화된 신호는 통상의 채널을 통해 전송될 수 있다. 2D 디스플레이에 수신된 신호는 제1 경계보정(130a)법, 제2 경계보정(130b)법, 및 제3 경계보정(130c)법 중 어느 하나의 보정방법을 통해 불일치 영역의 경계들을 보정하여 2차원 영상을 생성한다. 10 is a conceptual diagram illustrating a boundary correction method according to an embodiment of the present invention. Referring to FIG. 10, the left and right composite images 120 of the side-by-side method are generated from the left image 110a and the right image 110b obtained by using both cameras, and then encoded. The coded signal can then be transmitted over a normal channel. The signal received by the 2D display is corrected by using one of the first boundary correction method 130a, the second boundary correction method 130b, and the third boundary correction method 130c to correct the boundaries of the inconsistency region. Create a 3D image.

도 10에서 도시된 바와 같이, 제1 경계보정(130a)법은 축소 좌영상(120a)과 축소 우영상(120b) 불일치 영역의 경계의 위치 정보값들, 예컨대 수평 위치정보값과 수직 위치정보값을 축소 좌영상(120a)과 축소 우영상(120b)의 평균값(mean), 중앙값(median) 등의 통계적 처리를 통한 값으로 보정하여 원본 영상 또는 이미지를 복원하는 것이다. 제2 경계보정(130b)법은 축소 좌영상(120a)의 보는 각도를 기준 으로 축소 우영상(120b)의 불일치 영역을 확대 또는 축소하여 경계들을 보정함으로써 원본 영상을 복원하는 것이다. 제3 경계보정(130c)법은 축소 우영상(120b)의 보는 각도를 기준으로 축소 좌영상(120a)의 불일치 영역을 확대 및 축소하여 보정하는 것이다. 상기 외에도 영상의 불일치 경계부분을 자연스럽게 연결하여 보정할 수 있는 유사한 여러가지 다른 방법에 의해 변환될 수 있다. 영상의 크기가 클수록 확대, 축소 후 영상이 자연스럽게 재현될 수 있음은 당업자에게 자명하다.As shown in FIG. 10, the first boundary correction 130a method includes position information values of boundaries of a mismatched region of a reduced left image 120a and a reduced right image 120b, for example, a horizontal position information value and a vertical position information value. The original image or the image is restored by correcting the value to a value through statistical processing such as a mean value, a median, and the like of the reduced left image 120a and the reduced right image 120b. The second boundary correction method 130b restores the original image by correcting the boundaries by enlarging or reducing the inconsistent region of the reduced right image 120b based on the viewing angle of the reduced left image 120a. The third boundary correction method 130c enlarges and reduces inconsistent regions of the reduced left image 120a based on the viewing angle of the reduced right image 120b. In addition to the above, it can be converted by various other similar methods that can be naturally connected and corrected in the inconsistency boundary of the image. It is apparent to those skilled in the art that the larger the size of the image, the more natural the image can be reproduced after the enlargement and reduction.

본 발명의 실시예의 일 측면에 의하면, 상기 불일치 영역인 화소 또는 단위 블럭의 경계 위치정보값들의 축소 좌영상(120a)과 축소 우영상(120b)의 중앙값을 이용하여 보정할 수 있으며, 그 방법의 일례는 메디안 필터(Median filter)를 이용하는 것이다. 메디안 필터는 서로 인접한 소정 개수의 화소 또는 블럭에 대하여 적용될 수 있다. 예를 들어, 다수의 입력값(3,6,4,8,9)이 메디안 필터를 통과하게 되면 그 중간값(6)이 출력으로 나오게 된다. 이러한 방법으로, 상기 추출된 경계위치 정보값에 대하여 적용할 수 있다. 상기와 같이 보정하는데 이용될 수 있는 필터는 메디안 필터에만 한정되는 것은 아니며, 평균값 또는 기타 통계적 처리를 통한 값으로의 보정에 이용될 수 있는 필터들의 적용이 가능하다.According to an aspect of an embodiment of the present invention, it is possible to correct using the median value of the reduced left image 120a and the reduced right image 120b of the boundary position information values of the pixel or unit block, which are the mismatched regions, One example is to use a median filter. The median filter may be applied to a predetermined number of pixels or blocks adjacent to each other. For example, if a plurality of input values (3, 6, 4, 8, 9) pass through the median filter, the intermediate value (6) is output to the output. In this way, it can be applied to the extracted boundary position information value. The filter that can be used to correct as described above is not limited to the median filter, but may be applied to filters that can be used to correct to an average value or other values through statistical processing.

계속해서 도 10을 참조하면, 제2 경계보정(130b)법 또는 제3 경계보정(130c)법에 따라 축소 좌영상 및 축소 우영상 불일치 영역을 확대 또는 축소하기 위해서 영상필터를 이용할 수 있으며, 예컨대, 인터폴레이션 필터(Interpolation filter)를 이용할 수 있다. 축소 좌영상과 축소 우영상 중 어느 하나의 영상을 확대 또는 축소하는 경우 그 나머지 영상을 참조하여 보간하는 방식으로 인터폴레이션 필터를 사용함으로써 영상복원의 효과를 높일 수 있다. 10, an image filter may be used to enlarge or reduce the reduced left image and the reduced right image mismatched regions according to the second boundary correction 130b or the third boundary correction 130c. An interpolation filter may be used. When an image is enlarged or reduced in one of a reduced left image and a reduced right image, the effect of image restoration can be enhanced by using an interpolation filter by interpolating with reference to the remaining images.

다시 계속해서 도 7을 참조하면, S10에서 구분되어 추출된 일치 영역의 영상 정보와 상기 단계 S30에서 보정된 불일치 영역의 영상을 이용하여 2차원 영상을 생성한다(S40). 여기서, '2차원 영상'은 단계 S20 및 S30의 보정 과정을 거치지 않은 일치 영역과 상기 S20 및 S30의 단계에 따른 보정 과정을 거친 불일치 영역으로 이루어진 축소 좌영상 및/또는 축소 우영상을 이용하여 만들어질 수 있다. Referring to FIG. 7 again, a two-dimensional image is generated by using the image information of the matched region divided and extracted in S10 and the image of the mismatched region corrected in step S30 (S40). Here, the 'two-dimensional image' is made using a reduced left image and / or a reduced right image including a matching area that has not been corrected in steps S20 and S30 and a mismatched area that has been corrected according to steps S20 and S30. Can lose.

예를 들어, 보정된 축소 좌영상이나 축소 우영상 중에서 어느 하나의 영상을 두 배로 확대함으로써, 모노스코픽 영상을 생성할 수 있다. 이러한 경우에는, 상기 보정 단계(S30)는 확대의 대상이 되는 어느 하나의 영상에 대해서만 수행될 수 있다. 또는, 상기 보정된 축소 좌영상과 상기 보정된 축소 우영상으로부터 각각 추출된 수직라인들을 교대로 배열함으로써, 상기 모노스코픽 영상을 생성할 수도 있다. For example, a monoscopic image may be generated by doubling the image of either the corrected reduced left image or reduced right image. In this case, the correcting step S30 may be performed only for one image to be enlarged. Alternatively, the monoscopic image may be generated by alternately arranging vertical lines extracted from the corrected reduced left image and the corrected reduced right image.

도 11은 오면체에 대한 영상을 본 발명의 실시예에 따라 2D 영상을 생성하여 2D 디스플레이로 재현하는 것을 나타내는 그림이다.FIG. 11 is a diagram illustrating reproducing an image of a pentagonal body in a 2D display by generating a 2D image according to an exemplary embodiment of the present invention.

도 11을 참조하면, 축소 좌영상(102a) 및 축소 우영상(102b)에서 보여지는 오면체의 모습이 서로 다르게 나타나는 것을 확인할 수 있다. 도 11에 도시된 바와 같이, 축소 좌영상(102a) 및 축소 우영상(102b)으로 사이드 바이 사이드 방식의 좌우 합성영상(102)을 만든 후에 부호화한다. 그런 다음, 축소 좌영상(102a)과 축소 우영상(102b)으로 통합합성영상을 생성할 경우 인접 화소 또는 블럭의 축소 좌영상(102a) 이미지 정보와 축소 우영상(102b) 이미지 정보의 변화값이 임계값(α) 이 상인 불일치 영역을 추출한다. 도 11에서 불일치 영역은 영상에서 오면체가 차지하는 영역이 될 수 있다. 이 부분은 좌우 카메라의 각도에 따라 사물이 확대 또는 축소화되어 보이게 되어 축소 좌영상(102a) 및 축소 우영상(102b)을 합하였을 때 불일치 영역으로 나타나게 된다. 따라서 상기 불일치 영역을 인터폴레이션 필터를 이용하여 축소 좌영상(102a)을 기준으로 축소 우영상(102b)을 변환한다. 그런 다음, 변환된 축소 좌영상(104a) 및 축소 우영상(104b)의 수직라인을 교대로 배열하여 제1형 통합합성영상(106)으로 재구성하면, 2D 디스플레이를 통해서도 자연스럽게 재현할 수 있다. Referring to FIG. 11, it can be seen that the pentagonal shapes shown in the reduced left image 102a and the reduced right image 102b are different from each other. As shown in FIG. 11, the left-right composite image 102 of the side-by-side method is generated from the reduced left image 102a and the reduced right image 102b and then encoded. Then, when the integrated composite image is generated from the reduced left image 102a and the reduced right image 102b, the change values of the reduced left image 102a image information and the reduced right image 102b image information of adjacent pixels or blocks are changed. An inconsistency region having a threshold value α or higher is extracted. In FIG. 11, the mismatched area may be an area occupied by the pentagonal body in the image. This part appears to be enlarged or reduced in size according to the angle of the left and right cameras, and appears as a mismatched area when the reduced left image 102a and the reduced right image 102b are combined. Therefore, the reduced right image 102b is converted into the inconsistency region based on the reduced left image 102a using an interpolation filter. Then, when the vertical lines of the converted reduced left image 104a and the reduced right image 104b are alternately arranged and reconstructed into the first type integrated synthesis image 106, the 2D display may be naturally reproduced.

다음으로 본 발명의 실시예에 따른 스테레오스코픽 영상 신호의 2차원 영상 신호로의 변환 장치에 대하여 설명한다. 이러한 본 발명의 실시예에 따른 변환 장치는 2차원 디스플레이 장치에 포함되거나, 또는 스테레오스코픽 영상 신호를 수신하여 2차원 디스플레이 장치로 출력하는 수신기나 서버 등의 수단에 포함될 수 있다. 또는, 상기 변환 장치는 스테레오스코픽 영상 신호를 공급하는 전송 서버에 포함될 수 있으며, 이 경우에는 예컨대 사용자의 요청이 있는 경우에는 저장하고 있는 스테레오스코픽 영상 신호를 변환하여 사용자에게 전송할 수도 있다.Next, an apparatus for converting a stereoscopic video signal into a 2D video signal according to an embodiment of the present invention will be described. The conversion apparatus according to the embodiment of the present invention may be included in the 2D display apparatus, or may be included in a means such as a receiver or a server that receives a stereoscopic video signal and outputs it to the 2D display apparatus. Alternatively, the conversion apparatus may be included in a transmission server for supplying a stereoscopic video signal. In this case, for example, when the user requests a user, the conversion apparatus may convert the stored stereoscopic video signal and transmit the converted stereoscopic video signal to the user.

도 12는 본 발명의 일 실시예에 따른 스테레오스코픽 영상 신호의 2차원 영상 신호로의 변환 장치의 구성을 보여 주는 블럭도이다. 도 12의 블럭도는 도 7에 도시된 변환 절차를 구현하기 위한 것으로서, 도 7에 도시된 변환 절차에서의 각 단계들은 도 12의 하나의 유닛에서 수행될 수 있다. 그러나 이것은 예시적인 것으 로서, 도 7에서의 하나의 단계가 2개 이상의 유닛에서 수행되거나 또는 도 7에서의 두 개 이상의 단계가 하나의 유닛에서 수행되도록 구성할 수도 있다. 12 is a block diagram illustrating a configuration of an apparatus for converting a stereoscopic video signal into a 2D video signal according to an embodiment of the present invention. The block diagram of FIG. 12 is for implementing the conversion procedure shown in FIG. 7, and each step in the conversion procedure shown in FIG. 7 may be performed in one unit of FIG. 12. However, this is exemplary and may be configured such that one step in FIG. 7 is performed in two or more units or two or more steps in FIG. 7 are performed in one unit.

도 12를 참조하면, 스테레오스코픽 영상 신호의 2차원 영상 신호로의 변환 장치(200)는 불일치 영역 추출부(210), 불일치 영역 경계 추출부(220), 불일치 영역 경계 보정부(230), 및 2D 영상 생성부(240)를 포함한다. 상기 불일치 영역 추출부(210)로는 입력되는 축소 좌영상 및 축소 우영상으로 이루어진 스테레오스코픽 영상 신호를 이용하여, 각 영상의 일치 영역 및 불일치 영역을 구분한다. 예를 들어, 입력 신호가 통합합성영상의 형태를 갖는 경우에, 인접 축소 좌영상 이미지 정보와 축소 우영상 이미지 정보의 차이값이 임계값(α) 이상인 영역을 축소 좌영상 및 축소 우영상의 불일치 영역으로 간주할 수 있다. 반면, 일치 영역은 카메라에서 멀리 떨어져 있는 영역으로 예컨대, 배경화면이 해당될 수 있으며, 불일치 영역은 카메라에 가까이 있는 물체나 사람이 해당될 수 있다. Referring to FIG. 12, the apparatus 200 for converting a stereoscopic video signal into a 2D video signal includes an inconsistency region extractor 210, an inconsistency region boundary extractor 220, an inconsistency region boundary corrector 230, and It includes a 2D image generating unit 240. The mismatched region extractor 210 distinguishes a matched region and a mismatched region of each image by using a stereoscopic video signal including a reduced left image and a reduced right image. For example, in the case where the input signal has the form of an integrated composite image, an inconsistency between the reduced left image and the reduced right image in a region where a difference between the adjacent reduced left image image information and the reduced right image image information is greater than or equal to a threshold α Can be considered an area. On the other hand, the matched area may be an area far from the camera, for example, a background screen, and the mismatched area may correspond to an object or a person close to the camera.

불일치 영역 경계 추출부(220)는 축소 좌영상 및 축소 우영상의 추출된 불일치 영역내에서 각각 경계들을 추출한다. 그리고 불일치 영역 경계 보정부(230)는 불일치 영역내에서 추출된 경계 정보를 이용하여, 상기 축소 좌영상과 상기 축소 우영상 중에서 적어도 하나의 영상을 보정한다. 바람직하게는, 축소 좌영상과 축소 우영상의 경계위치 정보값의 평균값(mean), 중앙값(median) 등의 통계적 처리를 통한 값으로 보정하거나, 축소 좌영상의 보는 각도를 기준으로 하여 축소 우영상의 불일치 영역을 확대 및 축소하거나, 축소 우영상 보는 각도를 기준으로 하여 축소 좌영상의 불일치 영역을 확대 및 축소하여 보정한다. The disparity region boundary extractor 220 extracts boundaries in the extracted disparity region of the reduced left image and the reduced right image, respectively. The mismatched region boundary corrector 230 corrects at least one of the reduced left image and the reduced right image by using boundary information extracted in the mismatched region. Preferably, the image is corrected by statistical processing such as mean, median, etc. of boundary position information values of the reduced left image and the reduced right image, or is reduced based on the viewing angle of the reduced left image. Zoom in and out the inconsistent area of the zoomed-out image, or zoom in and out based on the viewing angle of the zoomed-in right image.

2D 영상 생성부(240)는 일치 영역과 경계 보정부(230)를 통해 보정된 불일치 영역으로 이루어진, 축소 좌영상 및 축소 우영상의 수직성분 또는 수평성분을 교대로 배열하여 2D 영상을 생성한다. 만일, 입력 영상이 사이드 바이 사이드 방식의 분리합성영상 신호가 입력된 경우는 2D 영상 생성부(240)에서 수직성분으로 교대로 배열되어 통합되는 통합합성영상이 생성할 수 있으며, 이에 반해 탑 앤드 다운 방식의 통합합성영상 신호가 입력된 경우는 수평성분으로 교대로 배열되어 통합되는 통합합성영상이 생성될 수 있다.The 2D image generator 240 generates a 2D image by alternately arranging vertical or horizontal components of the reduced left image and the reduced right image, which are composed of the matching region and the disparity region corrected by the boundary corrector 230. If the input image is a side-by-side split composite image signal, the integrated composite image may be generated by the 2D image generating unit 240 alternately arranged in a vertical component. When the integrated synthetic video signal of the method is input, an integrated composite video that is alternately arranged and integrated with horizontal components may be generated.

이상의 본 발명은 상기에 기술된 실시예들에 의해 한정되지 않고, 당업자들에 의해 다양한 변형 및 변경을 가져올 수 있으며, 이는 첨부된 청구항에서 정의되는 본 발명의 취지와 범위에 포함된다.The present invention is not limited to the embodiments described above, and various modifications and changes can be made by those skilled in the art, which are included in the spirit and scope of the present invention as defined in the appended claims.

도 1 및 2는 스테레오스코픽 영상의 일례를 보여주는 도면이다.1 and 2 illustrate an example of a stereoscopic image.

도 3은 배리어 타입(Barrier Type)의 디스플레이를 이용하여 입체 영상을 재현하는 원리를 설명하기 위한 도면이다.FIG. 3 is a diagram for describing a principle of reproducing a stereoscopic image using a barrier type display.

도 4는 스테레오스코픽 영상으로부터 생성된 사이드 바이 사이드(side by side) 방식의 좌우 합성영상을 보여주는 도면이다.FIG. 4 is a diagram illustrating a side by side scheme of left and right composite images generated from stereoscopic images.

도 5은 사이드 바이 사이드 방식의 좌우 합성영상을 본 발명에 따라 2D 디스플레이에서 재현하는 실시예를 보여주는 개념도이다.5 is a conceptual diagram illustrating an embodiment of reproducing a side-by-side type left and right composite image on a 2D display according to the present invention.

도 6은 탑 앤드 다운 방식의 좌우 합성영상을 본 발명에 따라 2D 디스플레이에서 재현하는 실시예를 보여주는 개념도이다.6 is a conceptual diagram illustrating an embodiment of reproducing a top-and-down left and right composite image on a 2D display according to the present invention.

도 7은 본 발명의 실시예에 따른 스테레오스코픽 영상 신호의 2차원 영상 신호로의 변환 절차를 나타내는 흐름도이다.7 is a flowchart illustrating a procedure of converting a stereoscopic video signal into a 2D video signal according to an embodiment of the present invention.

도 8의 (가)는 스테레오스코픽 영상 중 좌영상을 나타낸 그림, (나)는 우영상을 나타낸 그림, (다)는 사이드 바이 사이드 방식의 좌우 합성영상을 구성한 그림, (라)는 제1형 통합합성영상을 구성한 그림, (마)는 (라)의 그림에서 영상의 부호화 단위인 단위블럭(N x M)으로 구획한 일치 영역을 나타낸 그림, (바)는 (라)의 그림에서 영상의 부호화 단위인 단위블럭(N x M)으로 구획한 불일치 영역을 나타낸 그림이다.(A) is a picture showing a left image of the stereoscopic image, (b) a picture showing a right image, (c) a picture constituting a left-right composite image of the side-by-side method, (d) a first type Fig. (E) shows the coincidence region divided by unit block (N x M) which is the coding unit of the image in (D), and (F) shows the image of the image in (D). This figure shows the inconsistency region partitioned into unit blocks (N x M) which are coding units.

도 9a는 소벨 마스크를 보여 주는 도면, 도 9b는 도 9a의 소벨 마스크가 적용되는 영상 및 도 9c는 도 9b의 영상에 도 9a의 소벨 마스크를 적용하여 검출한 결과를 보여 주는 도면이다. FIG. 9A illustrates a Sobel mask, FIG. 9B illustrates an image to which the Sobel mask of FIG. 9A is applied, and FIG. 9C illustrates a detection result of applying the Sobel mask of FIG. 9A to the image of FIG. 9B.

도 10은 본 발명의 실시예에 따른 경계의 보정방법을 나타내는 개념도이다.10 is a conceptual diagram illustrating a boundary correction method according to an embodiment of the present invention.

도 11은 오면체에 대한 영상을 본 발명의 실시예에 따라 2D 영상을 생성하여 2D 디스플레이로 재현하는 것을 나타내는 그림이다.FIG. 11 is a diagram illustrating reproducing an image of a pentagonal body in a 2D display by generating a 2D image according to an exemplary embodiment of the present invention.

도 12는 본 발명의 실시예에 따른 스테레오스코픽 영상 신호의 2차원 영상 신호로의 변환 장치의 구성을 보여 주는 블럭도이다.12 is a block diagram showing the configuration of an apparatus for converting a stereoscopic video signal into a 2D video signal according to an embodiment of the present invention.

Claims (10)

축소 좌영상과 축소 우영상으로 구성된 스테레오스코픽 영상 신호를 모노스코픽 영상 신호로 변환하기 위한 방법에 있어서,A method for converting a stereoscopic video signal consisting of a reduced left image and a reduced right image into a monoscopic video signal, 상기 축소 좌영상과 상기 축소 우영상을 비교하여 상기 축소 좌영상과 상기 축소 우영상 각각에서 불일치 영역을 특정하는 단계;Comparing the reduced left image with the reduced right image and specifying an inconsistency region in each of the reduced left image and the reduced right image; 상기 축소 좌영상과 상기 축소 우영상 각각의 불일치 영역에서 경계 정보를 추출하는 단계; Extracting boundary information from an inconsistency area between each of the reduced left image and the reduced right image; 상기 두 영상의 경계 정보를 이용하여 상기 축소 좌영상과 상기 축소 우영상 중에서 하나 또는 두 영상 모두를 보정하는 단계; 및Correcting one or both images of the reduced left image and the reduced right image by using boundary information of the two images; And 보정된 축소 좌영상 및/또는 보정된 축소 우영상을 이용하여 2차원 영상을 생성하는 단계를 포함하는 변환 방법.And generating a two-dimensional image using the corrected reduced left image and / or the corrected reduced right image. 제1항에 있어서, 상기 보정 단계에서는 상기 두 영상의 경계 정보의 평균값을 보정된 영상의 경계가 되도록 상기 축소 좌영상 및/또는 상기 축소 우영상을 정정하는 것을 특징으로 하는 변환 방법.The conversion method according to claim 1, wherein in the correcting step, the reduced left image and / or the reduced right image are corrected so that an average value of boundary information of the two images becomes a boundary of the corrected image. 제1항에 있어서, 상기 보정 단계에서는 상기 축소 좌영상과 축소 우영상 중 어느 하나의 영상을 참조하면서 나머지 영상의 불일치 영역을 확대 또는 축소하여 보정하는 것을 특징으로 하는 변환 방법.The conversion method of claim 1, wherein in the correcting, the inconsistency region of the remaining image is enlarged or reduced while correcting by referring to one of the reduced left image and the reduced right image. 제1항에 있어서, 상기 보정 단계에서는 상기 스테레오스코픽 영상 신호에 포함된 카메라 파라미터 정보를 이용하는 것을 특징으로 하는 변환 방법.The conversion method according to claim 1, wherein the correction step uses camera parameter information included in the stereoscopic video signal. 스테레오스코픽 영상 신호를 모노스코픽 영상 신호로 변환하기 위한 방법에 있어서,A method for converting a stereoscopic video signal into a monoscopic video signal, 상기 스테레오스코픽 영상 신호는 좌우 영상의 이미지 정보 및 상기 좌우 영상을 획득하는데 사용된 카메라 파라미터 정보를 포함하고, The stereoscopic video signal includes image information of left and right images and camera parameter information used to obtain the left and right images. 상기 좌우 영상 중에서 하나 또는 두 개의 영상을 정정하여 상기 모노스코픽 영상 신호를 생성하기 위하여 상기 카메라 파라미터 정보를 이용하는 것을 특징으로 하는 변환 방법.And the camera parameter information is used to generate the monoscopic video signal by correcting one or two images from the left and right images. 제5항에 있어서, 상기 좌우 영상 중에서 하나 또는 두 개의 영상으로부터 경계선의 전부 또는 일부를 추출하고, 상기 카메라 파라미터 정보를 이용하여 상기 추출된 경계선을 정정하는 것을 특징으로 하는 변환 방법.The conversion method according to claim 5, wherein all or part of a boundary line is extracted from one or two images of the left and right images, and the extracted boundary line is corrected using the camera parameter information. 제5항에 있어서, 상기 모노스코픽 영상 신호는 상기 좌우 영상의 각각의 시점의 중간 위치의 시점에서의 피사체 이미지를 포함하는 영상인 것을 특징으로 하는 변환 방법.The conversion method according to claim 5, wherein the monoscopic video signal is an image including a subject image at a viewpoint at an intermediate position of each viewpoint of the left and right images. 축소 좌영상과 축소 우영상으로 구성된 스테레오스코픽 영상 신호를 모노스코픽 영상 신호로 변환하기 위한 방법에 있어서, A method for converting a stereoscopic video signal consisting of a reduced left image and a reduced right image into a monoscopic video signal, 상기 축소 좌영상과 상기 축소 우영상 각각의 전부 또는 일부에서 추출된 경계선 정보를 이용하여 상기 축소 좌영상 및 상기 축소 우영상의 중간 시점의 피사체 이미지를 포함하는 영상을 생성하는 것을 특징으로 하는 변환 방법.And converting the reduced left image and the reduced right image by using boundary information extracted from all or a part of the reduced left image to generate an image including a subject image at an intermediate point in time between the reduced left image and the reduced right image. . 제8항에 있어서, 상기 경계선 정보는 상기 축소 좌영상과 상기 축소 우영상의 불일치 영역에서만 추출하는 것을 특징으로 하는 변환 방법.The method of claim 8, wherein the boundary information is extracted only in an inconsistency region between the reduced left image and the reduced right image. 축소 좌영상과 축소 우영상으로 구성된 스테레오스코픽 영상 신호를 모노스코픽 영상 신호로 변환하기 위한 장치에 있어서,An apparatus for converting a stereoscopic video signal composed of a reduced left image and a reduced right image into a monoscopic video signal, 상기 축소 좌영상과 상기 축소 우영상을 비교하여 상기 축소 좌영상과 상기 축소 우영상 각각에서 불일치 영역을 특정하기 위한 유닛;A unit for comparing the reduced left image and the reduced right image to specify an inconsistency region in each of the reduced left image and the reduced right image; 상기 축소 좌영상과 상기 축소 우영상 각각의 불일치 영역에서 경계 정보를 추출하기 위한 유닛; A unit for extracting boundary information from an inconsistency area of each of the reduced left image and the reduced right image; 상기 두 영상의 경계 정보를 이용하여 상기 축소 좌영상과 상기 축소 우영상 중에서 하나 또는 두 영상 모두를 보정하기 위한 유닛; 및A unit for correcting one or both of the reduced left image and the reduced right image by using boundary information of the two images; And 보정된 축소 좌영상 및/또는 보정된 축소 우영상을 이용하여 2차원 영상을 생성하는 유닛을 포함하는 변환 장치.And a unit for generating a two-dimensional image using the corrected reduced left image and / or the corrected reduced right image.
KR1020080060640A 2008-06-26 2008-06-26 Method and apparatus for converting stereoscopic image signals into monoscopic image signals KR101114572B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080060640A KR101114572B1 (en) 2008-06-26 2008-06-26 Method and apparatus for converting stereoscopic image signals into monoscopic image signals

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080060640A KR101114572B1 (en) 2008-06-26 2008-06-26 Method and apparatus for converting stereoscopic image signals into monoscopic image signals

Publications (2)

Publication Number Publication Date
KR20100000951A true KR20100000951A (en) 2010-01-06
KR101114572B1 KR101114572B1 (en) 2012-02-27

Family

ID=41811298

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080060640A KR101114572B1 (en) 2008-06-26 2008-06-26 Method and apparatus for converting stereoscopic image signals into monoscopic image signals

Country Status (1)

Country Link
KR (1) KR101114572B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012102522A2 (en) * 2011-01-25 2012-08-02 엘지전자 주식회사 Method and apparatus for transmitting/receiving a digital broadcasting signal
EP2525577A1 (en) * 2011-05-20 2012-11-21 Eldon Technology Limited trading as Echostar Europe 3D content down-conversion to 2D content

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100561401B1 (en) * 2003-07-28 2006-03-16 삼성전자주식회사 Image displaying portion of 3D image system having multi viewing points interchangeable 2D and 3D images
KR100628839B1 (en) 2004-03-30 2006-09-27 학교법인 성균관대학 Method for detecting and compensating corner outlier
KR100750670B1 (en) * 2005-09-01 2007-08-20 주식회사 피앤조이 Display method by converting a 3-Dimensional images to 2-Dimensional images

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012102522A2 (en) * 2011-01-25 2012-08-02 엘지전자 주식회사 Method and apparatus for transmitting/receiving a digital broadcasting signal
WO2012102522A3 (en) * 2011-01-25 2012-12-06 엘지전자 주식회사 Method and apparatus for transmitting/receiving a digital broadcasting signal
GB2501035A (en) * 2011-01-25 2013-10-09 Lg Electronics Inc Method and apparatus for transmitting/receiving a digital broadcasting signal
US9392249B2 (en) 2011-01-25 2016-07-12 Lg Electronics Inc. Method and apparatus for transmitting/receiving a digital broadcasting signal
GB2501035B (en) * 2011-01-25 2017-02-22 Lg Electronics Inc Method and apparatus for transmitting/receiving a digital broadcasting signal
EP2525577A1 (en) * 2011-05-20 2012-11-21 Eldon Technology Limited trading as Echostar Europe 3D content down-conversion to 2D content

Also Published As

Publication number Publication date
KR101114572B1 (en) 2012-02-27

Similar Documents

Publication Publication Date Title
JP4295711B2 (en) Image conversion and encoding technology
KR100716142B1 (en) Method for transferring stereoscopic image data
JP4940397B2 (en) Stereo image format conversion method applied to display system
JP6644979B2 (en) Method and device for generating, storing, transmitting, receiving and playing back a depth map by using color components of an image belonging to a three-dimensional video stream
US11785197B2 (en) Viewer-adjusted stereoscopic image display
CN100594737C (en) 3D image display method and system
US8723920B1 (en) Encoding process for multidimensional display
US20090207237A1 (en) Method and Device for Autosterioscopic Display With Adaptation of the Optimal Viewing Distance
TWI432013B (en) 3d image display method and image timing control unit
TW201143355A (en) Apparatus and method for video processing
CN104838648A (en) Apparatus and method for generating and rebuilding a video stream
WO2011061973A1 (en) Three-dimensional image display device and method of deriving motion vector
WO2008030011A1 (en) File format for encoded stereoscopic image/video data
KR20070027318A (en) Method of processing three-d image and three-d image processing system using the same
Tam et al. Depth image based rendering for multiview stereoscopic displays: Role of information at object boundaries
KR101114572B1 (en) Method and apparatus for converting stereoscopic image signals into monoscopic image signals
Cellatoglu et al. Autostereoscopic imaging techniques for 3D TV: proposals for improvements
GB2487537A (en) Stereoscopic video transmission over the internet with separate IP channels for the left and right images.
KR100755020B1 (en) Both Eyes 3D Camera of YUV Colour System and 3D Image Display and Processing Method Using The Same
Salman et al. Overview: 3D Video from capture to Display
KR100823561B1 (en) Display device for displaying two-three dimensional image
KR101433082B1 (en) Video conversing and reproducing method to provide medium feeling of two-dimensional video and three-dimensional video
KR100189488B1 (en) Method for converting digital stereoscopic image
JP7339278B2 (en) Stereoscopic display adjusted to the viewer
WO2012063540A1 (en) Virtual viewpoint image generating device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150203

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160128

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170203

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180201

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190130

Year of fee payment: 8