KR100590025B1 - Method and device for synthesizing intermediate images in a multi-view square camera based display system - Google Patents

Method and device for synthesizing intermediate images in a multi-view square camera based display system Download PDF

Info

Publication number
KR100590025B1
KR100590025B1 KR1020040116703A KR20040116703A KR100590025B1 KR 100590025 B1 KR100590025 B1 KR 100590025B1 KR 1020040116703 A KR1020040116703 A KR 1020040116703A KR 20040116703 A KR20040116703 A KR 20040116703A KR 100590025 B1 KR100590025 B1 KR 100590025B1
Authority
KR
South Korea
Prior art keywords
image
intermediate image
block
distance
region
Prior art date
Application number
KR1020040116703A
Other languages
Korean (ko)
Inventor
김태완
김제우
최병호
송혁
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020040116703A priority Critical patent/KR100590025B1/en
Application granted granted Critical
Publication of KR100590025B1 publication Critical patent/KR100590025B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

본 발명은 다시점 정방향 카메라 배열에 기반한 다시점 영상의 일부로부터 중간 영상을 합성하는 방법이 제공되며, 합성하고자 하는 중간 영상과 이에 이웃하는 세 개의 참조 영상이 중첩하는 영역을 확인하는 거리매칭 단계와; 상기 중첩 영역에서 상기 참조 영상 간의 차분 영상이 존재하는 블록에 대하여 블록 매칭을 수행하는 블록매칭 단계와; 상기 블록 매칭 결과에 따라 상기 중첩 영역의 영상을 보정하는 영상보정 단계와; 상기 보정된 중첩 영역을 통합하여 중간 영상을 합성하는 영상합성 단계를 포함한다. 상기 영상합성 단계는, 상기 거리매칭 단계에서 하나의 참조 영상에만 해당되는 것으로 확인된 중간 영상의 미포함 영역에 대하여, 참조 영상의 해당 영역을 상기 보정된 중첩 영역과 통합하여 상기 중간 영상을 합성할 수 있다. 또한, 상기 영상합성 단계는 상기 중첩 영역의 경계선에 대하여 영상 블렌딩을 수행하는 단계를 포함할 수 있다. 그리고, 상기 블록매칭 단계는 상기 중첩 영역에서 상기 참조 영상 간의 차분 영상이 미리 지정된 임계값을 초과하는 블록에 대한 시차 벡터를 계산하는 단계를 포함하며, 상기 영상보정 단계는 상기 계산된 시차 벡터를 이용하여 해당 블록의 영상을 보정하는 단계를 포함하는 것일 수 있다.The present invention provides a method for synthesizing an intermediate image from a part of a multiview image based on a multiview forward camera arrangement, and a distance matching step of identifying an intermediate image to be synthesized and an area where three neighboring reference images overlap with each other; ; A block matching step of performing block matching on a block in which the difference image between the reference images exists in the overlapping region; An image correction step of correcting an image of the overlapping area according to the block matching result; And synthesizing the intermediate image by integrating the corrected overlapping regions. In the image synthesizing step, the intermediate image may be synthesized by integrating a corresponding region of the reference image with the corrected overlapping region with respect to an area not included in the intermediate image determined to correspond to only one reference image in the distance matching step. have. In addition, the image synthesis may include performing image blending on the boundary line of the overlapped region. The block matching step includes calculating a parallax vector for a block in which the difference image between the reference images exceeds a predetermined threshold value in the overlapping region, and the image correction step uses the calculated parallax vector. To correct the image of the corresponding block.

다시점, 중간영상, 합성, 3D, 참조영상, 거리 매칭, 블록 매칭, 영상 블렌딩Multiview, Intermediate, Composite, 3D, Reference, Distance Matching, Block Matching, Image Blending

Description

다시점 정방향 카메라 배열 기반 디스플레이를 위한 중간영상합성 방법 및 그 장치{METHOD AND DEVICE FOR SYNTHESIZING INTERMEDIATE IMAGES IN A MULTI-VIEW SQUARE CAMERA BASED DISPLAY SYSTEM}METHOD AND DEVICE FOR SYNTHESIZING INTERMEDIATE IMAGES IN A MULTI-VIEW SQUARE CAMERA BASED DISPLAY SYSTEM}

도 1은 종래 기술에 따른 중간영상합성 장치의 예시도.1 is an illustration of an intermediate image synthesis apparatus according to the prior art.

도 2는 종래 기술에 따라 중간 영상을 합성하는 다해상도 다기선 스테레오(MR-MBS; Multi-Resolution Multiple Baseline Stereo) 정합 방법의 예시도.2 is an exemplary diagram of a multi-resolution multi-baseline stereo (MR-MBS) matching method for synthesizing intermediate images according to the prior art;

도 3은 본 발명의 바람직한 실시예에 따른 중간영상합성 방법을 4x4의 정방형 카메라 배열에 적용한 예를 설명하는 개념도.3 is a conceptual diagram illustrating an example of applying an intermediate image synthesis method according to a preferred embodiment of the present invention to a 4x4 square camera array.

도 4a는 본 발명의 바람직한 실시예에 따른 중간영상합성 방법을 적용할 경우에 영역 분할의 예시도.4A is an exemplary diagram of region segmentation when the intermediate image synthesis method according to the preferred embodiment of the present invention is applied.

도 4b는 도 4a에서 중간 영상(Target Image)의 확대도.4B is an enlarged view of a target image in FIG. 4A.

도 5는 본 발명의 바람직한 실시예에 따른 중간영상합성 방법을 단계별 흐름도.5 is a step-by-step flowchart of the intermediate image synthesis method according to a preferred embodiment of the present invention.

본 발명은 입체 영상 합성에 관한 것으로서, 보다 구체적으로는 다시점 정방 향 카메라 배열 기반 디스플레이를 위한 중간영상합성 방법 및 그 장치에 관한 것이다.The present invention relates to stereoscopic image synthesis, and more particularly, to an intermediate image synthesis method and apparatus for a multiview stereo camera array based display.

고선명 털레비전(HDTV) 이후, 차세대 디스플레이로서 3D 입체 텔레비전이 널리 연구되고 있다. 입체 텔레비전의 초기 방식으로 양안시차를 이용하는 방법들이 제시되었으나, 이 방식은 관찰자가 어느 정도의 입체감은 느낄 수 있으나 사람이 실제 어떤 사물을 볼 때와 같은 생동감 및 현실감을 느끼기에는 부족하다. 이러한 단점을 극복하기 위해, 2개 이상의 카메라로부터 획득된 다시점 영상을 이용하여 디스플레이함으로써, 보다 생동감 있는 입체 영상을 표현하는 연구가 많이 진행되고 있다. After high definition television (HDTV), 3D stereoscopic television has been widely studied as a next generation display. Although the method of using binocular disparity has been suggested as an early method of stereoscopic television, the viewer can feel a certain three-dimensional feeling, but it is not enough to feel the liveliness and reality as when a person actually sees an object. In order to overcome this disadvantage, many studies have been conducted to express more vibrant three-dimensional images by displaying using multi-view images obtained from two or more cameras.

다시점 영상처리에 사용되는 동영상 스트림은 일반적으로 시점당 1개의 카메라를 이용하여 얻어지며, 다시점 카메라 배열 방식에는 일직선(in-line) 형태의 평행(parrel) 카메라 배열, 원형(radical) 카메라 배열 등이 있다. 그런데, 원형 카메라 배열의 경우, 각기 다른 카메라로부터 얻어진 다시점 영상을 하나의 스크린에 디스플레이할 때 시점 왜곡이 일어날 수 있다. 이러한 문제는 평행 카메라 배열 방식으로 해결할 수 있으나, 평행 배열의 경우 상하의 입체감을 표시하기 어려운 문제점이 있다. 그래서, 최근에는 정사각형 형태의 정방형 카메라 배열에 의한 다시점 신호처리및 디스플레이 장치가 연구되고 있다. A video stream used for multiview image processing is generally obtained by using one camera per viewpoint, and in a multiview camera arrangement method, an in-line parallel camera arrangement and a radial camera arrangement are used. Etc. However, in the case of a circular camera array, view distortion may occur when displaying a multiview image obtained from different cameras on one screen. This problem can be solved by a parallel camera arrangement, but in the case of a parallel arrangement, it is difficult to display a three-dimensional image up and down. In recent years, multi-view signal processing and display devices using square camera arrays have been studied.

3D 입체 텔레비전용 다시점 비디오 시스템을 구현하기 위해서는, 송신부에서 다양한 배열 형태를 취하는 카메라로부터 획득된 영상을 전송하고, 수신부에서는 전송된 데이터를 바탕으로 디스플레이를 수행한다. 그런데, 하나의 방송 채널을 통 해 다시점 비디오를 전송하기 위해서는, 비디오 압축에 있어서 기존의 단일 시점 비디오 전송을 위한 압축률보다 훨씬 높은 압축률을 필요로 한다. 하지만 지금까지 제시된 압축 알고리즘으로는 기존의 방송 채널을 통해 모든 시점의 영상을 전송하는 것은 사실상 불가능하다. 이를 위해, 최근에는 카메라 배열에 해당하는 모든 시점 영상을 전송하는 대신에, 채널이 허용하는 시점 수의 영상만을 전송하고, 전송된 영상을 바탕으로 전송되지 않은 시점 영상을 수신부에서 만들어주는 중간영상합성 기법이 많이 연구되고 있다. In order to implement a multi-view video system for 3D stereoscopic television, a transmitter transmits an image obtained from a camera having various arrangements, and a receiver performs a display based on the transmitted data. However, in order to transmit a multiview video through one broadcasting channel, a compression rate much higher than that of a conventional single view video transmission is required for video compression. However, it is virtually impossible to transmit images of all viewpoints through existing broadcasting channels with the compression algorithms presented so far. To this end, instead of transmitting all viewpoint images corresponding to the camera array, an intermediate image synthesis which transmits only the number of viewpoints allowed by the channel and makes an unsent viewpoint image based on the transmitted image at the receiver. Many techniques are being studied.

중간영상합성과 관련한 주요 알고리즘으로는, 적응점 추출을 위해 가능성 모델(likelihood model)에 기반한 특징 기반(Feature based) 방법, 블록 기반(block based) 방법, 화소-순환(pel-recursive) 방법, 그리고 메쉬(mesh)를 이용한 방식이 주로 사용되었다. 또한 깊이 맵(depth map)을 이용하는 방식도 사용되고 있다. 이러한 알고리즘은 한국특허출원 제10-2000-0063753호 "3차원 입체영상을 위한 다시점 비디오 시스템 및 영상제조방법" (이하, "인용문헌 1"이라 함), 한국특허출원 제:10-1998-0005297호 "여러대의 카메라 입력 영상을 이용한 조밀한 깊이정보 추출방법 및 그를 이용한 중간영상합성방법" (이하, "인용문헌 2"라 함) 등이 있으며, 예컨대, 한국특허출원 제10-1995-0042335호 "3차원 카탈로그 쇼핑 시스템 및 쇼핑 방법" 등과 같은 응용 시스템에 적용되고 있다.The main algorithms related to intermediate image synthesis include feature based method, block based method, pixel-recursive method, and likelihood model for adaptive point extraction. The mesh method was mainly used. In addition, a method using a depth map is also used. Such an algorithm is described in Korean Patent Application No. 10-2000-0063753 "Multi-view Video System and Image Manufacturing Method for 3D Stereoscopic Image" (hereinafter referred to as "quotation document 1"), Korean Patent Application No. 10-1998- 0005297 "Dense Depth Information Extraction Method Using Multiple Camera Input Images and Intermediate Image Synthesis Method Using the Same" (hereinafter, referred to as "quotation document 2"), and the like, for example, Korean Patent Application No. 10-1995-0042335 It is applied to application systems such as "three-dimensional catalog shopping system and shopping method".

도 1은 종래 기술인 인용 문헌 1에 개시되어 있는 압축해제수단(34) 및 중간영상생성수단(35)을 도시하고 있다. 1 shows the decompression means 34 and the intermediate image generating means 35 disclosed in the cited reference 1 of the prior art.

인용 문헌 1에 따르면, 전체 N개의 평행한 다시점 영상을 이용하는 입체 시 스템에서 획득된 M시점 영상 사이에 새로운 (N-M)개의 영상을 하나씩 생성하여 최종적으로 N 시점의 영상을 획득하는 방법이 제안되어 있다. 이를 위해, 사이 영상의 참조가 되는 참조 영상 간의 적응점 추출을 위한 적응점추출기(63)와, 적응점 추출데이터를 기반으로 참조 영상 간의 폐색(occlusion) 영역을 보상하는 폐색영역제조기(64)가 사용되고 있다. According to Cited Reference 1, a method of finally obtaining N-view images by generating new (NM) images one by one between M-view images obtained in a stereoscopic system using N parallel multiview images is proposed. have. To this end, the adaptive point extractor 63 for extracting the adaptive point between the reference image, which is a reference of the inter-image, and the occluded region maker 64 for compensating the occlusion area between the reference image based on the adaptive point extraction data, It is used.

보다 구체적으로 살펴보면, 도시된 바와 같이 비디오 압축해제수단(34)에서 9 시점의 영상이 복원되어 중간영상생성수단(35)으로 입력된다. 중간영상생성수단(35)은 각 기반이 되는 참조 영상(Ov2, Ov4, Ov5, Ov6, Ov8)으로부터 참조 영상(Ov1, Ov3, Ov4, Ov6, Ov7, Ov9)에 대한 적응점 추출을 적응점추출기(63)에서 수행하고, 이어서 폐색영역제조기(64)에서 적응점 추출데이터를 기반으로 폐색영역을 추출 및 생성한다. 다음으로, 적응점에 해당하는 데이터와 보간된 폐색영역을 합성하여 새로운 중간영상을 생성함으로써, 17시점을 획득할 수 있게 된다.More specifically, as shown, the video decompression means 34 reconstructs an image of nine views and inputs the intermediate image generation means 35. The intermediate image generating unit 35 extracts an adaptive point for the reference image Ov1, Ov3, Ov4, Ov6, Ov7, and Ov9 from each of the underlying reference images Ov2, Ov4, Ov5, Ov6, and Ov8. In operation 63, the occlusion area manufacturer 64 extracts and generates the occlusion area based on the adaptive point extraction data. Next, by synthesizing the data corresponding to the adaptation point and the interpolated occlusion area to generate a new intermediate image, it is possible to obtain 17 views.

도 2는 종래 기술인 인용문헌 2에 개시되어 있는 다해상도 다기선 스테레오(MR-MBS; Multi-Resolution Multiple Baseline Stereo) 정합 방법을 도시하고 있다.FIG. 2 illustrates a multi-resolution multiple baseline stereo (MR-MBS) matching method disclosed in Citation Document 2, which is a prior art.

도 2의 MR-MBS 방법은 여러 위치에 있는 유한 개의 카메라로부터 획득한 영상으로부터 각 화소의 깊이 정보를 조밀하게 추출하고 이를 이용하여 중간 영상을 만드는 방법으로서, 다기선 스테레오 정합(MBS)을 다해상도 방식으로 바꾸어 구현한 것이다.The MR-MBS method of FIG. 2 is a method of densely extracting depth information of each pixel from images obtained from finite cameras at various positions, and creating an intermediate image using the multi-linear stereo matching (MBS). It's a different implementation.

도 2를 참조하면, 하나의 물체에 대해 다수 카메라로부터 획득된 입력 영상 을 다해상도로 분해한 후, 가장 저해상도 영상에 대하여 다기선 스테레오 정합(MSB) 및 폐색영역 처리를 통해 물체의 한 픽셀(부노드)에 대한 깊이 정보를 구하여(1단계), 고해상도 처리를 하는 2단계로 전달한다. 2단계에서는 전달된 깊이 정보를 기반으로 저 해상도의 한 픽셀에 해당하는 고 해상도에서의 여러 픽셀(자 노드)에 대해 다기선 스테레오 정합 및 폐색영역 처리를 수행하여, 자 노드의 깊이 정보를 구한다. 이러한 과정을 최고 해상도까지 반복해서 수행함으로써, 대상 물체의 각 화소에 대한 깊이 정보를 정밀하게 구하고, 이를 바탕으로 중간영상을 획득한다.Referring to FIG. 2, an input image obtained from multiple cameras for one object is decomposed to multi-resolution, and then one pixel (sub) of the object is subjected to multi-linear stereo matching (MSB) and occlusion area processing on the most low-resolution image. The depth information for the node) is obtained (step 1), and the information is transferred to step 2 for high resolution processing. In the second step, multi-linear stereo matching and occlusion area processing is performed on multiple pixels (child nodes) at high resolutions corresponding to one pixel of low resolution based on the transmitted depth information to obtain depth information of the child nodes. By repeating this process up to the highest resolution, depth information for each pixel of the object is precisely obtained, and an intermediate image is obtained based on the depth information.

그런데, 이러한 종래의 중간영상합성 방법은 기선(base-line)의 거리가 멀어지거나 카메라 위치 간의 각도와 거리가 멀어지면, 폐색(occlusion) 발생 영역이 많이 발생하여 중간영상을 합성하기에 용이하지 못하다. 뿐만 아니라, 대상 물체 전체에 대해서 적응점 추출기를 적용하기 때문에, 불필요한 깊이 맵 정보와 과잉 적응점 데이터가 발생할 수 있다.However, in the conventional method of synthesizing intermediate images, when the base-line distance is far from each other or the angle and distance between the camera positions are far from each other, a large number of occlusion areas are generated, and thus it is not easy to synthesize the intermediate images. . In addition, since the adaptation point extractor is applied to the entire object, unnecessary depth map information and excessive adaptation point data may be generated.

예컨대, 인용문헌 1에 있어서, 평행 카메라 배열에서 송신부로부터 전달된 시점 영상을 바탕으로 좌우 영상의 사이 영상을 합성할 경우, 기선의 거리가 조금 멀어질 경우 참조되는 좌우 영상 사이의 거리가 상당히 멀어지게 된다. 그리고, 이로 인하여 중간영상의 합성에 있어서, 폐색 발생 영역이 많이 증가하고, 적응점 추출기만으로는 폐색 영역을 완벽하게 보상할 수 없다. 또한, 대상 물체 전체에 대해서 적응점 추출기를 적용하기 때문에, 과도한 시뮬레이션 시간(simulation time)이 소요된다.For example, in Citation 1, when synthesizing the images between the left and right images based on the viewpoint images transmitted from the transmitting unit in the parallel camera arrangement, the distance between the referenced left and right images becomes considerably farther when the baseline distance is a little further away. do. And, due to this, in the synthesis of the intermediate image, the occlusion generation area increases a lot, and the adaptive point extractor alone cannot completely compensate the occlusion area. In addition, since the adaptation point extractor is applied to the entire object, excessive simulation time is required.

전술한 인용문헌 2에 있어서는, 임의의 위치에 존재하는 여러 대의 카메라를 이용하는 다해상도 방식에 의하여 다기선 스테레오 정합의 처리 시간과 깊이 맵에서의 경계선 연장 문제를 해결하고 있으나, 각 카메라 간의 위치와 배치된 각도가 커지면 여러 대의 카메라를 통한 물체의 각 픽셀 해상도를 정확하지 구할 수 없으며, 정확한 깊이 맵을 구할 수 없다. 뿐만 아니라, 이 방식은 하나의 물체에 대해 모든 카메라를 통해 전체적인 깊이 맵을 구하고 필요한 중간 영상을 만들어내는 방식이기 때문에, 불필요한 깊이맵 정보로 인하여 시뮬레이션 시간이 많이 소모된다. In the above-mentioned Reference 2, although the problem of extending the processing time and the boundary line in the depth map of the multi-line stereo matching is solved by a multi-resolution method using multiple cameras existing at arbitrary positions, the position and arrangement between each camera If the angle gets larger, the resolution of each pixel of the object through multiple cameras cannot be obtained accurately, and the exact depth map cannot be obtained. In addition, since this method obtains the entire depth map through all the cameras for one object and generates the required intermediate image, simulation time is consumed because of unnecessary depth map information.

전술한 문제점을 해결하고자, 본 발명은 정방형 카메라 배열을 기반으로 한 영상 시스템에서, 송신부로부터 전송된 시점 영상을 바탕으로 미전송 시점 영상을 합성하는 효과적인 방법을 제안함으로써, 제한된 채널 상황에서 다시점 비디오 시스템(입체 디스플레이)의 구현이 용이하도록 하는 것을 그 목적으로 한다.In order to solve the above problems, the present invention proposes an effective method for synthesizing untransmitted view images based on a view image transmitted from a transmitter in an imaging system based on a square camera array, thereby providing a multi-view video in a limited channel situation. The purpose is to facilitate the implementation of the system (stereoscopic display).

전술한 목적을 달성하기 위하여, 본 발명의 제1 측면에 따르면, 다시점 정방향 카메라 배열에 기반한 다시점 영상의 일부로부터 중간 영상을 합성하는 방법이 제공되며, 합성하고자 하는 중간 영상과 이에 이웃하는 세 개의 참조 영상이 중첩하는 영역을 확인하는 거리매칭 단계와; 상기 중첩 영역에서 상기 참조 영상 간의 차분 영상이 존재하는 블록에 대하여 블록 매칭을 수행하는 블록매칭 단계와; 상기 블록 매칭 결과에 따라 상기 중첩 영역의 영상을 보정하는 영상보정 단계와; 상기 보정된 중첩 영역을 통합하여 중간 영상을 합성하는 영상합성 단계를 포함한다. In order to achieve the above object, according to the first aspect of the present invention, there is provided a method for synthesizing an intermediate image from a part of a multiview image based on a multiview forward camera arrangement, A distance matching step of identifying an area where the two reference images overlap; A block matching step of performing block matching on a block in which the difference image between the reference images exists in the overlapping region; An image correction step of correcting an image of the overlapping area according to the block matching result; And synthesizing the intermediate image by integrating the corrected overlapping regions.

이 때, 상기 영상합성 단계는, 상기 거리매칭 단계에서 하나의 참조 영상에만 해당되는 것으로 확인된 중간 영상의 미포함 영역에 대하여, 참조 영상의 해당 영역을 상기 보정된 중첩 영역과 통합하여 상기 중간 영상을 합성할 수 있다. 또한, 상기 영상합성 단계는 상기 중첩 영역의 경계선에 대하여 영상 블렌딩을 수행하는 단계를 포함할 수 있다. In this case, the image synthesizing step may be performed by integrating a corresponding region of a reference image with the corrected overlapping region with respect to an area not included in the intermediate image determined to correspond to only one reference image in the distance matching step. Can be synthesized. In addition, the image synthesis may include performing image blending on the boundary line of the overlapped region.

상기 거리매칭 단계는, 상기 세 개의 참조 영상 중에서 평행한 두 개의 참조 영상의 거리(HD)를 평행 이동 및 최소 평균 차분 에러에 의하여 계산하는 단계와; 상기 평행한 두 개의 참조 영상을 상기 계산된 거리의 절반만큼 이동시켜서 중간 영상의 위치를 결정하고, 상기 중간 영상과 나머지 하나의 참조 영상의 거리(VD)를 상기 평행 이동과 수직한 이동 및 최소 평균 차분 에러에 의하여 계산하는 단계와; 상기 평행한 두 개의 참조 영상을 상기 계산된 거리(HD)의 절반만큼 이동시키고 상기 나머지 하나의 참조 영상을 상기 계산된 거리(VD)만큼 이동시켜서, 중간 영상과 이에 이웃하는 세 개의 참조 영상이 중첩하는 영역을 확인하는 단계를 포함할 수 있다.The distance matching step may include calculating a distance HD of two parallel reference images among the three reference images by parallel movement and a minimum mean difference error; The parallel reference image is moved by half of the calculated distance to determine the position of the intermediate image, and the distance (VD) between the intermediate image and the other reference image is perpendicular to the parallel movement and minimum average Calculating by difference error; The parallel reference image is moved by half of the calculated distance HD and the other reference image is moved by the calculated distance VD, so that the intermediate image and three neighboring reference images overlap with each other. It may include the step of identifying the area.

그리고, 상기 블록매칭 단계는 상기 중첩 영역에서 상기 참조 영상 간의 차분 영상이 미리 지정된 임계값을 초과하는 블록에 대해서만 수행될 수 있다. 또한, 상기 블록매칭 단계는 상기 중첩 영역에서 상기 참조 영상 간의 차분 영상이 미리 지정된 임계값을 초과하는 블록에 대한 시차 벡터를 계산하는 단계를 포함하는 것이며, 상기 영상보정 단계는 상기 계산된 시차 벡터를 이용하여 해당 블록의 영상을 보정하는 단계를 포함하는 것일 수 있다.The block matching step may be performed only on blocks in which the difference image between the reference images in the overlapping region exceeds a predetermined threshold value. The block matching may include calculating a parallax vector for a block in which the difference image between the reference images exceeds a predetermined threshold value in the overlapping region, and the image correction step includes calculating the disparity vector. And correcting an image of a corresponding block by using the same.

상기 블록매칭 단계는 상기 세 개의 참조 영상 중 하나의 참조 영상에 대하여, 나머지 두 개의 참조 영상의 위치를 향하여 대각선 방향으로 블록을 탐색하는 것일 수 있다.The block matching step may be to search for a block in a diagonal direction with respect to one of the three reference pictures toward the positions of the other two reference pictures.

본 발명의 제2 측면에 따르면, 전술한 중간영상합성 방법의 각 단계를 수행하는 수단으로 구성된 중간영상합성 장치가 제공될 수 있다.According to a second aspect of the present invention, there may be provided an intermediate image synthesizing apparatus composed of means for performing each step of the above-described intermediate image synthesis method.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 설명토록 한다.Hereinafter, exemplary embodiments of the present invention will be described with reference to the accompanying drawings.

도 3은 본 발명의 바람직한 실시예에 따른 중간영상합성 방법을 4ㅧ4의 정방형 카메라 배열에 적용한 예를 도시하고 있다. 도 3에서, 각 카메라로부터 획득된 4ㅧ4의 다시점 영상 가운데, 회색 원으로 표시된 10 개의 영상은 송신부로부터 수신부로 전달되는 영상을 나타내며, 나머지 6 개의 영상은 수신부로 전송되지 않고 수신부에서 합성해야 하는 중간 영상을 나타내고 있다.Figure 3 shows an example of applying the intermediate image synthesis method according to a preferred embodiment of the present invention to the square camera array of 4x4. In FIG. 3, among 4 × 4 multi-view images obtained from each camera, ten images indicated by gray circles represent images transmitted from the transmitter to the receiver, and the remaining six images should be synthesized at the receiver without being transmitted to the receiver. An intermediate image is shown.

본 발명은 정방형 구조의 카메라 배열을 가진 다시점 입체 시스템의 효율적 구현을 위해, 참조 영상 간 거리 매칭(matching distance), 블록 매칭(block matching), 그리고 영상 블렌딩(image blending) 기법을 이용하여 송신부에서 전달되지 않은 중간 영상을 수신부에서 합성한다. The present invention uses a matching distance, block matching, and image blending technique between reference images in order to efficiently implement a multiview stereoscopic system having a square camera arrangement. The undelivered intermediate image is synthesized by the receiver.

이를 위하여, 본 발명에 따르면 하나의 중간영상합성을 위해, 좌(Left)-우(Right)-하(Bottom), 상(Top)-하(Bottom)-우(Right), 또는 상(Top)-하(Bottom)-좌(Left) 3개의 참조 영상을 이용하며, 이는 좌우 2개의 영상만을 이용하여 보간을 수행하는 종래 기술과 상이하다.To this end, according to the present invention, for one intermediate image synthesis, Left-Right-Bottom, Top-Bottom-Right, or Top -Bottom-Left Three reference images are used, which is different from the prior art of performing interpolation using only two left and right images.

예컨대, 도 3에 표시된 좌우 인덱스 및 상하 인덱스 순서로 영상을 표시하 면, 최상단에서 좌측에서 두 번째에 위치하는 중간영상(2,1)은 그 주변의 좌영상(1,2)-우영상(1,3)-하영상(2,2)을 참조 영상으로 하여 합성된다. 다만, 최상단 우측 모서리에 위치하는 중간영상(4,1)과, 최하단 좌측 모서리에 위치하는 중간영상(1,4)은 그 주변에 두 개의 참조 영상만을 각각 참조할 수 있다. For example, when the images are displayed in the left and right index and the up and down index order shown in FIG. 3, the middle image (2,1) located second from the left at the top is the left (1,2) -right image (the surrounding image). 1,3) -the lower image (2,2) is synthesized as a reference image. However, the intermediate images 4 and 1 positioned at the upper right corner and the intermediate images 1 and 4 positioned at the lower left corner may refer to only two reference images, respectively.

이와 같이, 본 발명에 따르면, 이웃하는 3개의 시점 영상을 이용하여 중간영상을 보간 하기 때문에, 기선 등 카메라 사이의 간격이 다소 멀어지더라도 폐색 영역을 최소화 할 수 있다. As described above, according to the present invention, since the intermediate image is interpolated using three neighboring viewpoint images, the occlusion area can be minimized even if the distance between the cameras such as the base line is somewhat longer.

정방형 구조의 카메라 배열의 경우 카메라 간의 거리와 배치가 정해지면, 이웃하는 각 시점 영상 사이에 공유하는 영역이 정해진다. 이러한 점을 고려하여, 거리 매칭 방법을 이용하여 일정시간 간격으로 공유 영역을 찾고, 공유 영역 내에서 폐색이 많이 발생하는 영역에 대해서만 블록 매칭 방법으로 폐색 영역을 보상함으로써, 시뮬레이션 시간과 복잡도를 현저히 감소시킬 수 있다. 그리고, 최종적으로 경계면이 발생하는 영역에 대해서는 영상 블렌딩 기법을 사용함으로써, 정확하고, 자연스러운 중간영상을 합성할 수 있다. In the case of a square camera arrangement, when a distance and an arrangement between cameras are determined, an area to be shared between neighboring viewpoint images is determined. In consideration of this, the simulation time and complexity are significantly reduced by finding a shared area at regular intervals using a distance matching method, and compensating for the occluded area using a block matching method only for the areas where many occlusions occur in the shared area. You can. In addition, an image blending technique may be used for the region where the boundary surface is finally generated to synthesize an accurate and natural intermediate image.

한편, 도 3에서는 설명의 편의를 도모하고자, 4x4의 정방형 카메라 배열 구조에서 10개 시점 영상으로부터 6개의 중간영상을 합성하는 예를 설명하였으나, 본 발명에 따른 중간영상합성 방법은 이에 한정되지 아니하며 임의의 정방형 카메라 배열 구조에도 적용될 수 있다. 예컨대, 본 발명에 따른 중간영상합성 알고리즘을 이용할 경우, 3x3 카메라 구조를 가진 시스템에서는 5개 시점 영상으로 4개의 중간영상을 만들 수 있으며, 5x5 카메라 구조에서는 13개 시점 영상으로 12개의 중간 영상을 만들 수 있다. In FIG. 3, for convenience of description, an example of synthesizing six intermediate images from ten viewpoint images in a 4x4 square camera array structure has been described. However, the intermediate image synthesis method according to the present invention is not limited thereto. It can also be applied to the square camera array structure. For example, in the case of using the intermediate image synthesis algorithm according to the present invention, four intermediate images may be generated from five viewpoint images in a system having a 3x3 camera structure, and 12 intermediate images may be generated from 13 viewpoint images in a 5x5 camera structure. Can be.

도 4a는 본 발명의 바람직한 실시예에 따라 중간영상합성을 위한 영역 분할을 예시하고 있다. 도 4a에서, 목표 영상(Target Image)은 본 발명에 따라 합성되는 중간 영상을 나타내며, 좌영상(Reference Image 1), 우영상(Reference Image 2) 및 하영상(Base Image)은 상기 목표영상(Target Image)을 합성하기 위해 이용되는 세 개의 참조 영상을 예시하고 있다.4A illustrates region segmentation for intermediate image synthesis according to a preferred embodiment of the present invention. In FIG. 4A, a target image represents an intermediate image synthesized according to the present invention, and a left image (Reference Image 1), a right image (Reference Image 2), and a base image are represented by the target image. Three reference images used to synthesize an image are illustrated.

그리고, 도 5는 본 발명의 바람직한 실시예에 따른 중간영상합성 방법을 단계적으로 도시하고 있으며, 대략적으로 살펴볼 때, 겹침 영역 획득을 위한 거리 매칭(Matching Distance) 단계와, 폐색 영역을 위한 블록 매칭(Block Matching) 단계 및 영상 보정 단계와, 마지막으로 경계면 해소를 위한 영상 블렌딩(Image Blending) 단계로 구성된다. 한편, 본 발명의 바람직한 실시예에 따른 중간영상합성 방법을 하드웨어로 구현할 경우에, 이들 각 단계를 수행하는 수단이 개별적으로 구현되거나, 그 일부 또는 전부가 상호 통합되어 구현될 수 있다.5 illustrates a stepwise intermediate image synthesis method according to a preferred embodiment of the present invention. In general, a matching distance step for acquiring an overlapping area and a block matching step for an occlusion area are shown. Block Matching) and image correction, and finally, Image Blending to resolve the boundary. On the other hand, when implementing the intermediate image synthesis method according to a preferred embodiment of the present invention in hardware, the means for performing each of these steps may be implemented individually, or some or all of them may be integrated with each other.

이하, 도 4a 및 도 5를 참조하여, 본 발명의 바람직한 실시예에 따른 중간영상합성 방법을 단계별로 상세하게 설명한다.Hereinafter, an intermediate image synthesis method according to a preferred embodiment of the present invention will be described in detail with reference to FIGS. 4A and 5.

(1) 거리 매칭(Matching Distance) 단계(1) Matching Distance Step

거리 매칭 단계는 예측되는 중간 영상(Target Image)과 3개 참조 영상간의 중첩 영역을 확인하는 단계로서, 도 5의 단계(S100) 내지 단계(S110)에 해당한다. The distance matching step is to identify an overlapped region between the predicted intermediate image and the three reference images, which corresponds to steps S100 to S110 of FIG. 5.

보다 구체적으로는, 단계(S100)에서, 도 4a의 좌영상(Reference Image 1)과 우영상(Reference Image 2)을 이용하여, 그 중 하나의 영상을 중심으로 다른 하나 의 영상을 수평으로 1 픽셀(pixel)씩 평행 이동시키면서 최소 거리 에러(MDE; Minimum Distance Error), 예컨대, 최소 평균 거리 에러(MADE; Minimum Average Distance Error)를 적용한다. 이에 따라, 평균 오류 합계(Average Error Sum)가 최소가 되는 수평 거리(HD; horizontal distance, 이하 "HD"라 함)를 구할 수 있다.More specifically, in step S100, by using a left image (Reference Image 1) and a right image (Reference Image 2) of FIG. 4A, one pixel is horizontally arranged on the other image based on one of the images. A minimum distance error (MDE), for example, a minimum average distance error (MADE) is applied while moving in parallel by (pixel). Accordingly, it is possible to obtain a horizontal distance HD (hereinafter, referred to as "HD") in which the average error sum is minimum.

이어서, 단계(S105)는 전술한 단계(S100)에서 구한 HD로부터 그 절반에 해당하는 half-HD를 구하여, 원하는 중간영상(도 4a의 Target Image)의 위치를 예측한다. 즉, 좌영상(Reference Image 1) 또는 우영상(Reference Image 2) 중 하나의 영상을 half-HD 만큼 평행 이동시켜 얻은 영상을 기준으로, 하영상(Base Image)을 수직으로 1 픽셀씩 이동시킴으로써, MDE에 의하여 평균 오류 합계가 최소가 되는 수직 거리(VD; vertical distance, 이하 "VD"라 함)를 구한다.Subsequently, in step S105, half-HD corresponding to the half is obtained from the HD obtained in step S100, and the position of the desired intermediate image (target image of FIG. 4A) is predicted. That is, by moving the base image by 1 pixel vertically based on the image obtained by parallelly moving one of the left image (Reference Image 1) and the right image (Reference Image 2) by half-HD, The vertical distance (VD; hereinafter referred to as "VD") at which the average error sum is minimized is calculated by MDE.

이이서, 단계(S110)에서는, 전술한 VD와 HD를 이용하여 참조 영상 간의 중첩 영역이 결정되며, 이에 따라 각 중첩 영역에서의 차분 영상(Diff. Image)을 구할 수 있다. 즉, 좌영상 또는 우영상 중 하나의 영상을 half-HD 만큼 평행 이동시켜 얻은 영상을 기준으로, 하영상을 VD 만큼 수직으로 이동하면, 각 참조 영상 간에 상호 중첩에 따라 영역이 분할된다. 예컨대, 도 4a의 경우에는, ①,②,③ 영역은 좌영상/우영상 중 적어도 하나와 하영상 간에 차분 영상이 발생하는 중첩(공유) 영역이며, 중간 영상의

Figure 112004062833954-pat00001
,
Figure 112004062833954-pat00002
,
Figure 112004062833954-pat00003
영역에 각각 중첩된다. 그리고, ④ 영역은 좌영상 및 우영상 간의 중첩 영역이며, 중간 영상의
Figure 112004062833954-pat00004
영역에 중첩된다. 중간 영상의 ⑤, ⑥ 영역은 참조 영상 중에서 좌영상, 우영상에만 각각 존재하여, 차분이 발생하지 않는 영역이다. Next, in step S110, an overlapping region between the reference images is determined using the above-described VD and HD, and accordingly, a difference image (Diff. Image) in each overlapping region may be obtained. That is, when the lower image is vertically moved by VD based on the image obtained by parallelly moving one of the left and right images by half-HD, the region is divided according to mutual overlap between the reference images. For example, in the case of FIG. 4A, the regions ①, ②, and ③ are overlapping (shared) regions in which a difference image is generated between at least one of the left image and the right image and the lower image.
Figure 112004062833954-pat00001
,
Figure 112004062833954-pat00002
,
Figure 112004062833954-pat00003
Each overlaps an area. The area ④ is an overlapping area between the left image and the right image,
Figure 112004062833954-pat00004
Overlaid on the area Areas ⑤ and ⑥ of the intermediate image exist only in the left image and the right image of the reference image, so that no difference occurs.

(2) 블록 매칭 단계(2) block matching step

블록 매칭 단계(S115 내지 S130)는 폐색 영역을 위한 것으로서, 전술한 Matching Distance를 이용하여 참조 영상간의 차분 영상(즉, 하영상과 좌영상의 차분, 또는 하영상과 우영상의 차분)의 값이 존재하는 블록에 대하여 블록 매칭을 수행하며, 바람직하게는 차분값이 임계값(TH) 보다 큰 블록에 대하여 블록 매칭을 수행할 수 있다. 그리고, 이러한 블록매칭 단계는 모든 차분 영상에 대하여 탐색이 완료될 때까지 반복된다(S115).Block matching steps S115 to S130 are for the occlusion area, and the value of the difference image between the reference image (that is, the difference between the lower image and the left image, or the difference between the lower image and the right image) is determined using the aforementioned matching distance. Block matching may be performed on existing blocks, and block matching may be performed on blocks having a difference value greater than the threshold value TH. This block matching step is repeated until the search is completed for all the difference images (S115).

보다 구체적으로 살펴보면, 단계(S120)는 전술한 단계(S110)에서 결정된 차분 영상의 블록 에너지를 계산하며, Block 크기를 예컨대, 16x16, 8x8, 4x4 등으로 선택적으로 조절하여 사용할 수 있다. 이어서, 전술한 단계(S115)에서 구한 블록 에너지를 지정된 임계값(TH; threshold)과 비교하여(S125), 블록 에너지가 임계값을 초과하는 블록이 존재하는 경우에는 블록 매칭을 수행하는 단계(S130)로 진행한다. 만약, 단계(S125)에서 특정 블록의 블록 에너지가 임계값을 초과하지 않으면, 전술한 단계(S115)로 진행한다. In more detail, step S120 may calculate the block energy of the difference image determined in step S110 described above, and may selectively adjust the block size to, for example, 16x16, 8x8, 4x4, and the like. Subsequently, the block energy obtained in the above-described step S115 is compared with a specified threshold value TH (step S125), and if there is a block whose block energy exceeds the threshold value, step S130 is performed. Proceed to). If the block energy of the specific block does not exceed the threshold in step S125, the process proceeds to step S115 described above.

단계(S130)에서는 블록 에너지가 임계값을 초과하는 블록에 대하여 참조 영상 간에 블록 매칭을 수행한다. 예컨대, 중간 영상(Target Image)의

Figure 112004062833954-pat00005
영역을 구하기 위하여, 하영상(Base Image)을 수직으로 VD 만큼, 수평으로 half_HD 만큼 이동시킨 후, 하영상(Base Image)의 ① 영역 내의 블록과 가장 유사한 블록을 좌영상(Reference Image 1) 또는 우영상(Reference Image 2)의 ① 영역에서 찾는다. In operation S130, block matching between reference images is performed on blocks whose block energy exceeds a threshold. For example, the target image
Figure 112004062833954-pat00005
In order to obtain the area, move the base image vertically by VD and horizontally by half_HD, and then move the block most similar to the block in the ① area of the base image to the left image (Reference Image 1) or right. Search in the 1 area of the image (Reference Image 2).

전술한 거리 매칭 방법에 의하여 좌영상, 우영상 및 하영상을 매칭시킬 경 우, 영상의 배열 특성상 물체의 돌출한 부분(예컨대, 인형의 경우 들어올린 팔, 다리, 들고 있는 물체 등)은 합성하고자 하는 중간 영상(Target Image)을 기준으로 임계값이상의 차분이 나타나는 영역이 하영상에서는 위쪽에 나타나고, 우영상에서는 좌측에, 좌영상에서는 우측에 나타난다. 이러한 성질을 이용하여, 우영상(Reference Image 2)을 이용하여 블록 매칭을 수행할 경우, 즉, 하영상을 수직으로 VD 만큼 올리고, half_HD 만큼 수평 이동시켜 좌영상 또는 우영상과 차분을 구할 경우, 탐색 경로(search path)를 대각선 좌측, 아래 방향으로 정하여 탐색 시간(searching time)을 줄일 수 있다. 동일한 방법으로, 좌영상(Reference Image 1)을 이용할 경우, 탐색 경로를 대각선 우측, 아래 방향으로 정한다. 즉, 어느 한 참조 영상을 기준으로 전술한 임계값 조건을 만족하는 블록을 탐색함에 있어서, 그 탐색 경로는 나머지 두 개의 참조 영상의 위치를 향하는 대각선 방향이 된다.When the left image, the right image, and the lower image are matched by the above-described distance matching method, the protruding parts of the object (for example, a raised arm, a leg, a holding object, etc.) of the object are synthesized due to the arrangement of the images. Based on the target image, an area where a difference greater than or equal to a threshold value appears in the upper image, is displayed on the left in the right image, and on the right in the left image. Using this property, when block matching is performed using the right image (Reference Image 2), that is, when the lower image is vertically raised by VD and the horizontal image is shifted by half_HD, the difference between the left and right images is obtained. The search time can be reduced by setting the search path diagonally leftward and downward. In the same way, when using the left image (Reference Image 1), the search path is determined diagonally rightward and downward. That is, in searching for a block that satisfies the above-described threshold condition based on one reference image, the search path is a diagonal direction toward the positions of the other two reference images.

기 설명한 바와 유사한 방법으로, 중간 영상(Target Image)의

Figure 112004062833954-pat00006
영역은 하영상(Base Image)을 기준으로, 좌영상(Reference Image 1)의 ② 영역에서 우측, 아래 방향으로 블록 매칭을 수행하고,
Figure 112004062833954-pat00007
영역은 하영상을 기준으로 우영상의 ② 영역에서 좌측, 아래 방향으로 블록 매칭을 행한다.In a similar manner as described above, the intermediate image (Target Image)
Figure 112004062833954-pat00006
The area is based on the base image, and performs block matching in the right and down directions in the ② area of the left image (Reference Image 1),
Figure 112004062833954-pat00007
The region performs block matching in the left and the down directions in the region ② of the right image based on the lower image.

중간 영상(Target Image)의

Figure 112004062833954-pat00008
영역은 좌영상(Ref. Image 1)과 우영상(Ref. Image 2)의 ④에만 해당하는 영역으로서, 하나의 영상(즉, 좌영상 또는 우영상)을 기준으로 좌영상과 우영상 간의 블록 매칭을 수행하고, 매칭되는 두 블록(좌영상의 블록과 우영상의 블록)간의 평균 값을 가지는 평균 블록을 구한다. 이어서, 전술한 기준 영상(좌영상 또는 우영상)을 기준으로 평균 블록을 half-HD 만큼 평행이동 시 킨다.Of the intermediate image
Figure 112004062833954-pat00008
The area corresponds only to ④ of the left image (Ref. Image 1) and the right image (Ref. Image 2), and block matching between the left image and the right image based on one image (that is, the left image or the right image). Next, an average block having an average value between two matching blocks (block of left image and block of right image) is obtained. Subsequently, the average block is moved by half-HD based on the above-described reference image (left image or right image).

중간 영상(Target Image)의 ⑤ 영역은 좌영상(Reference Image 1)에만 존재하는 영역이므로, 이 경우에는 좌영상으로부터 그대로 가져온다. 같은 방법으로, 중간 영상의 ⑥ 영역은 우영상에만 존재하므로, 우영상으로부터 그대로 가져온다. 중간 영상(Target Image)의 전체 영상을 고려할 때, 이러한 끝 부분은 디스플레이 장치를 통해 다시점 영상을 실제로 볼 경우, 시각적으로 크게 영향을 주지 못한다.The area ⑤ of the intermediate image is an area existing only in the left image (Reference Image 1), and in this case, the area is taken from the left image. In the same way, the area ⑥ of the intermediate image exists only in the right image, so it is taken from the right image. Considering the entire image of the target image, this end portion does not have a significant visual impact when the multi-view image is actually viewed through the display device.

(3) 영상 보정(3) image correction

도 4a의

Figure 112004062833954-pat00009
,
Figure 112004062833954-pat00010
,
Figure 112004062833954-pat00011
영역의 합성에 있어서, 좌영상, 우영상, 그리고 하영상을 이용하여 전술한 단계(S130)의 블록 매칭을 실행하면, 시차 벡터(disparity vector) (dx, dy)를 얻을 수 있다. 거리 매칭 방법을 통해 얻은 거리(distance), 즉, VD, half_HD를 이용하여 참조 영상을 평행 이동시켜서 차분 영상을 구하면, 폐색 영역에 대해서만 차분이 발생한다. 이에 따라, 단계(S135)에서는, 일정한 임계값 이상인 차분 영역에 대하여, 시차 벡터(disparity vector)를 이용하여 영상 보정을 함으로써, 원하는 중간 영상(Target Image)을 합성할 수 있다. Of FIG. 4A
Figure 112004062833954-pat00009
,
Figure 112004062833954-pat00010
,
Figure 112004062833954-pat00011
In synthesizing the region, when the block matching of the above-described step S130 is performed using the left image, the right image, and the lower image, a disparity vector (dx, dy) can be obtained. When a difference image is obtained by parallelly moving a reference image using distance obtained through a distance matching method, that is, VD and half_HD, a difference occurs only in the occlusion region. Accordingly, in step S135, a desired intermediate image may be synthesized by correcting an image using a disparity vector with respect to a difference region having a predetermined threshold value or more.

예컨대, 실제 구하고자 하는 중간 영상은 하영상을 기준으로 수직방향으로 +dy 만큼 아래에 위치한다고 가정한다. 이 때, 우영상을 이용해 블록 매칭을 할 경우(즉, 수직으로 VD, 수평으로 half_HD 만큼 이동된 하영상을 기준으로 우영상을 이용해 블록 매칭을 할 경우)에는 대각선 왼쪽 아래 방향으로 시차 벡터 (-dx, +dy)를 얻을 수 있고, 반대로 좌영상을 이용해 블록 매칭을 할 경우에는 대각선 오른쪽 아래 방향으로 시차 벡터 (+dx, +dy)를 얻을 수 있다. For example, it is assumed that the intermediate image to be actually obtained is located below + dy in the vertical direction with respect to the lower image. In this case, when block matching is performed using the right image (that is, when block matching is performed using the right image based on the lower image shifted by VD vertically and half_HD vertically), the parallax vector (- dx, + dy), and on the contrary, when block matching is performed using the left image, a parallax vector (+ dx, + dy) can be obtained in the diagonal right and lower directions.

따라서, 단계(S135)에서는 거리 매칭을 이용하여 발생한 차분 영역에 대해서, 하영상을 기준으로 수학식 1 및 수학식 2와 같이 하영상(Bottom)을 보정함으로써, 원하는 중간 영상의

Figure 112004062833954-pat00012
,
Figure 112004062833954-pat00013
Figure 112004062833954-pat00014
영역을 합성할 수 있다. 한편, 수학식 1은 우영상(Right)을 이용하여 블록 매칭을 하는 경우이고, 수학식 2는 좌영상(Left)을 이용하여 블록 매칭을 하는 경우이다. Therefore, in step S135, the bottom image (Bottom) is corrected with respect to the difference region generated by using distance matching, as shown in Equations 1 and 2, based on the lower image, so that the desired intermediate image is corrected.
Figure 112004062833954-pat00012
,
Figure 112004062833954-pat00013
And
Figure 112004062833954-pat00014
Regions can be synthesized. On the other hand, Equation 1 is a case of block matching using a right image (Right), Equation 2 is a case of block matching using a left image (Left).

Bottom[y+dy, x] = Bottom[y, x]Bottom [y + dy, x] = Bottom [y, x]

Bottom[y, x] = Right[y, x-dx]Bottom [y, x] = Right [y, x-dx]

Bottom[y+dy, x] = Bottom[y, x]Bottom [y + dy, x] = Bottom [y, x]

Bottom[y,x] = Left[y, x+dx]Bottom [y, x] = Left [y, x + dx]

우영상을 이용하는 경우 앞서 설명한 것과 같이, (-dx, +dy)인 시차 벡터를 얻게 된다. 수학식 1에서, 하영상(Bottom) 중 차분이 발생한 임의의 (y, x)좌표 값, 즉, 블록 매칭의 경우 임의의 위치에서의 블록을 +dy 만큼 아래로 평행 이동시킨다. 그러면 연속된 패턴이 하영상(Bottom)에서 아래, 위로 중복되어 나오게 된다. 그 후, 하영상의 원래의 위치(블록)인 (y, x)에 우영상(Right)의 (y, x-dx)의 블록을 대입하게 되면, 하영상(Bottom)은 구하고자 하는 중간 영상(Target Image)이 된다. 이와 같은 방법으로 수학식 2를 이용하여, 좌영상(Left)을 사용하여 원하는 목표 영상(중간 영상)을 얻을 수 있다.When using the right image, as described above, a parallax vector of (-dx, + dy) is obtained. In Equation 1, a block at an arbitrary position in the lower image Bottom is shifted by + dy by any (y, x) coordinate value, that is, in case of block matching. Then, the continuous pattern is overlapped down and up in the bottom image. Subsequently, when a block of (y, x-dx) of the right image (Right) is substituted into (y, x), which is the original position (block) of the lower image, the bottom image (Bottom) is an intermediate image to be obtained. (Target Image) In this manner, using Equation 2, a desired target image (intermediate image) can be obtained using a left image.

중간 영상의

Figure 112004062833954-pat00015
영역의 경우, 좌영상의 ① 영역과 우영상의 ① 영역을 선택 적으로 참조하고,
Figure 112004062833954-pat00016
영역은 좌영상의 ② 영역을 참조하며,
Figure 112004062833954-pat00017
영역의 경우에는 우영상의 ③ 영역을 참조한다.Intermediate video
Figure 112004062833954-pat00015
In case of area, refer to ① area of left image and ① area of right image selectively.
Figure 112004062833954-pat00016
The area refers to area ② of the left image.
Figure 112004062833954-pat00017
For the area, refer to the area ③ of the right image.

(4) 영상 블렌딩(Image Blending)(4) Image Blending

전술한 단계(S115)에서 모든 차분 영상에 대하여 블록 매칭 및 영상 보정이 완료된 것으로 판단되면, 단계(S140)로 진행하며, 하영상으로 보정할 수 없는 중간 영상(Target Image)의 미포함(uncovered) 영역, 예컨대 도 4의 ⑤ 영역 및 ⑥ 영역에 대해서는 좌영상 또는 우영상을 이용하여 보정을 실시한다. 즉, 전술한 거리매칭 단계에서 하나의 참조 영상에만 해당되는 것으로 확인된 중간 영상의 미포함 영역은 참조 영상의 해당 영역을 상기 보정된 중첩 영역과 통합하여 상기 중간 영상을 합성한다.If it is determined in step S115 that the block matching and image correction have been completed for all the difference images, the process proceeds to step S140 and an uncovered area of the target image that cannot be corrected as a lower image is performed. For example, for the region ⑤ and the region ⑥ in FIG. 4, the correction is performed using the left image or the right image. That is, the region not included in the intermediate image determined to correspond to only one reference image in the above-described distance matching step may combine the corresponding region of the reference image with the corrected overlapping region to synthesize the intermediate image.

이어서, 단계(S145)에서는 전술한 단계에서 구해진 조각 영역들의 경계 처리를 위해 영상 블렌딩을 수행한다. 이와 관련하여, 도 4b는 도 4a의 중간 영상(Target Image)에 존재하는 각 영역간 경계가 보다 명확히 나타나도록 이를 확대한 도면이다. 예컨대, 도 4b에 도시된 바와 같이, 중간 영상(Target Image)의 ⑤ 영역과

Figure 112004062833954-pat00018
영역의 경계선, ⑥ 영역과
Figure 112004062833954-pat00019
영역의 경계선(이상, 도 4b의 A), 그리고,
Figure 112004062833954-pat00020
,
Figure 112004062833954-pat00021
,
Figure 112004062833954-pat00022
영역과
Figure 112004062833954-pat00023
, ⑤, ⑥ 영역의 경계선(도 4b의 B)은 알파맵을 이용한 영상 블렌딩 기법에 의하여 부자연스러움을 제거할 수 있다.Subsequently, in step S145, image blending is performed to process the boundary of the piece areas obtained in the above-described step. In this regard, FIG. 4B is an enlarged view of the boundary between the respective regions present in the target image of FIG. 4A. For example, as shown in FIG. 4B, the region ⑤ of the intermediate image and the target image are shown.
Figure 112004062833954-pat00018
The boundary of the region,
Figure 112004062833954-pat00019
The boundary line of the region (above, A of FIG. 4B), and,
Figure 112004062833954-pat00020
,
Figure 112004062833954-pat00021
,
Figure 112004062833954-pat00022
Area and
Figure 112004062833954-pat00023
The boundary lines (B in FIG. 4B) of the regions ⑤ and ⑥ may be removed by an image blending technique using an alpha map.

단계(S145)에서 영상 블렌딩이 완료되면, 단계(S150)에서 각 영역을 통합함으로써 최종적으로 중간영상이 생성된다.When image blending is completed in step S145, the intermediate image is finally generated by integrating the regions in step S150.

전술한 중간영상합성 방법을 이용하면 삼차원 텔레비전(3D TV)을 구현할 수 있다. 즉, 제한된 크기의 채널을 통한 3D TV 방송 실현을 위해서는 최소한의 시점 영상만이 전송되어야 하지만, 본 발명에 따른 중간영상합성 알고리즘을 이용하여 전송되지 않은 영상을 실시간으로 합성해 줌으로써 3D TV의 실현이 가능하다.By using the above-described intermediate image synthesis method, a three-dimensional television (3D TV) can be implemented. That is, in order to realize 3D TV broadcasting through a limited size channel, only a minimum view image should be transmitted. However, the realization of 3D TV is achieved by synthesizing the untransmitted image in real time using the intermediate image synthesis algorithm according to the present invention. It is possible.

또한, 본 발명에 따른 거리 매칭 및 블록 매칭 방법은 다시점 압축 알고리즘에 적용될 수 있다. 즉, 전술한 바와 같이, 거리 매칭을 통해 겹침 영역을 확보하고, 참조 영상(좌, 우, 하)에 따라 나타나는 차분의 위치 특성을 고려하여, 차분이 큰 영역에 대해서만 블록 매칭을 이용하여 시차 벡터를 획득하는 방식을 사용함으로써, 시차 벡터를 이용한 다시점 압축 알고리즘에 적용할 수 있다.In addition, the distance matching and block matching method according to the present invention can be applied to a multi-view compression algorithm. That is, as described above, the overlap region is secured by distance matching, and in consideration of the positional characteristics of the differences appearing according to the reference image (left, right, and bottom), the parallax vector is used only for the region having a large difference. By using a method of obtaining, it can be applied to a multi-view compression algorithm using a parallax vector.

이상에서 본 발명에 따른 바람직한 실시예를 설명하였으나, 이는 예시적인 것에 불과하며 당해 분야에서 통상적 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 여타 실시예가 가능하다는 점을 이해할 것이다. 예컨대, 본 발명의 바람직한 실시예를 설명함에 있어서, 참조 영상으로 좌/우/하영상을 예시하였으나, 합성하고자 하는 중간 영상의 위치에 따라서는 상/하/우영상, 또는 상/하/좌영상 등과 같이 달리 설정될 수 있다. 따라서, 본 발명의 보호 범위는 이하의 특허청구범위에 의해서 정해져야 할 것이다.Although the preferred embodiment according to the present invention has been described above, this is merely exemplary and those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. For example, in describing a preferred embodiment of the present invention, a left / right / low image is illustrated as a reference image, but according to a position of an intermediate image to be synthesized, an up / down / right image or an up / down / left image May be set differently. Therefore, the protection scope of the present invention should be defined by the following claims.

이상 설명한 바와 같이, 본 발명에 따르면, 정방형 구조의 카메라 배열의 경우 카메라 간의 거리와 배치가 정해지면 이웃하는 각 시점 영상 사이에 공유하는 영역이 정해진 점을 고려하여, 거리 매칭 방법에 의하여 일정시간 간격으로 공유 영역을 찾고, 공유(중첩) 영역 내에서 폐색이 많이 발생하는 영역에 대해서만 블록 매칭 방법에 의하여 폐색 영역을 보상함으로써, 시뮬레이션 시간과 복잡도를 현저히 감소시킬 수 있다. 또한, 3개의 참조 영상을 이용함으로써 폐색 영역을 줄이고, 정확한 중간 영상을 합성할 수 있다. As described above, according to the present invention, in the case of a camera arrangement having a square structure, when a distance between cameras and an arrangement are determined, a predetermined time interval is determined by a distance matching method in consideration of the fact that an area shared between neighboring viewpoint images is determined. By finding the shared region and compensating for the occluded region by the block matching method only for the region where the occlusion occurs frequently in the shared (overlapped) region, the simulation time and complexity can be significantly reduced. In addition, by using the three reference images, it is possible to reduce the occlusion area and to synthesize an accurate intermediate image.

또한, 본 발명에 따른 중간영상합성 방법은 다시점 영상의 실시간 디스플레이를 가능케 하므로 3D TV 구현에 사용될 수 있고, 거리 매칭 방법과 블록 매칭 방법은 독립적인 모듈로 다시점 압축 알고리즘에 적용할 수 있다. In addition, the intermediate image synthesis method according to the present invention enables real-time display of a multiview image, and thus can be used for 3D TV implementation, and the distance matching method and the block matching method can be applied to a multiview compression algorithm as an independent module.

Claims (16)

다시점 정방향 카메라 배열에 기반한 다시점 영상의 일부로부터 중간 영상을 합성하는 방법으로서,A method of synthesizing an intermediate image from a part of a multiview image based on a multiview forward camera array, 합성하고자 하는 중간 영상과 이에 이웃하는 세 개의 참조 영상이 중첩하는 영역을 확인하는 거리매칭 단계와,A distance matching step of identifying a region where an intermediate image to be synthesized and three neighboring reference images overlap with each other; 상기 중첩 영역에서 상기 참조 영상 간의 차분 영상이 존재하는 블록에 대하여 블록 매칭을 수행하는 블록매칭 단계와,A block matching step of performing block matching on a block in which the difference image between the reference images exists in the overlapping region; 상기 블록 매칭 결과에 따라 상기 중첩 영역의 영상을 보정하는 영상보정 단계와,An image correction step of correcting an image of the overlapping area according to the block matching result; 상기 보정된 중첩 영역을 통합하여 중간 영상을 합성하는 영상합성 단계An image synthesis step of synthesizing an intermediate image by integrating the corrected overlap regions; 를 포함하는 다시점 정방향 카메라 배열에 기반한 중간영상합성 방법.Intermediate image synthesis method based on a multi-view forward camera array comprising a. 제1항에 있어서, 상기 영상합성 단계는,The method of claim 1, wherein the image synthesis step, 상기 거리매칭 단계에서 하나의 참조 영상에만 해당되는 것으로 확인된 중간 영상의 미포함 영역에 대하여, 참조 영상의 해당 영역을 상기 보정된 중첩 영역과 통합하여 상기 중간 영상을 합성하는 것인 다시점 정방향 카메라 배열에 기반한 중간영상합성 방법.A multi-view forward camera arrangement for synthesizing the intermediate image by integrating the corresponding region of the reference image with the corrected overlapping region with respect to an area not included in the intermediate image determined to correspond to only one reference image in the distance matching step. Based Image Synthesis Method. 제1항에 있어서, 상기 영상합성 단계는,The method of claim 1, wherein the image synthesis step, 상기 거리매칭 단계에서 하나의 참조 영상에만 해당되는 것으로 확인된 중간 영상의 미포함 영역에 대하여, 참조 영상의 해당 영역을 상기 보정된 중첩 영역과 통합하여 상기 중간 영상을 합성하는 것인 다시점 정방향 카메라 배열에 기반한 중간영상합성 방법.A multi-view forward camera arrangement for synthesizing the intermediate image by integrating the corresponding region of the reference image with the corrected overlapping region with respect to an area not included in the intermediate image determined to correspond to only one reference image in the distance matching step. Based Image Synthesis Method. 제3항에 있어서, 상기 영상합성 단계는The method of claim 3, wherein the image synthesis step 상기 중첩 영역의 경계선에 대하여 영상 블렌딩을 수행하는 단계를 포함하는 것인 다시점 정방향 카메라 배열에 기반한 중간영상합성 방법.And performing image blending on the boundary line of the overlapping region. 제1항 내지 제4항 중 어느 하나의 항에 있어서, 상기 거리매칭 단계는,The method of any one of claims 1 to 4, wherein the distance matching step comprises: 상기 세 개의 참조 영상 중에서 평행한 두 개의 참조 영상의 거리(HD)를 평행 이동 및 최소 평균 차분 에러에 의하여 계산하는 단계와,Calculating a distance (HD) of two parallel reference images among the three reference images by parallel movement and a minimum mean difference error; 상기 평행한 두 개의 참조 영상을 상기 계산된 거리의 절반만큼 이동시켜서 중간 영상의 위치를 결정하고, 상기 중간 영상과 나머지 하나의 참조 영상의 거리(VD)를 상기 평행 이동과 수직한 이동 및 최소 평균 차분 에러에 의하여 계산하는 단계와,The parallel reference image is moved by half of the calculated distance to determine the position of the intermediate image, and the distance (VD) between the intermediate image and the other reference image is perpendicular to the parallel movement and minimum average Calculating by difference error, 상기 평행한 두 개의 참조 영상을 상기 계산된 거리(HD)의 절반만큼 이동시키고 상기 나머지 하나의 참조 영상을 상기 계산된 거리(VD)만큼 이동시켜서, 중간 영상과 이에 이웃하는 세 개의 참조 영상이 중첩하는 영역을 확인하는 단계The parallel reference image is moved by half of the calculated distance HD and the other reference image is moved by the calculated distance VD, so that the intermediate image and three neighboring reference images overlap with each other. Steps to identify the area 를 포함하는 다시점 정방향 카메라 배열에 기반한 중간영상합성 방법.Intermediate image synthesis method based on a multi-view forward camera array comprising a. 제1항 내지 제4항 중 어느 하나의 항에 있어서, 상기 블록매칭 단계는 The method according to any one of claims 1 to 4, wherein the block matching step 상기 중첩 영역에서 상기 참조 영상 간의 차분 영상이 미리 지정된 임계값 을 초과하는 블록에 대해서만 수행되는 것인 다시점 정방향 카메라 배열에 기반한 중간영상합성 방법.And a difference image between the reference images in the overlapping region is performed only for blocks exceeding a predetermined threshold value. 제6항에 있어서, The method of claim 6, 상기 블록매칭 단계는 상기 중첩 영역에서 상기 참조 영상 간의 차분 영상이 미리 지정된 임계값을 초과하는 블록에 대한 시차 벡터를 계산하는 단계를 포함하는 것이며,The block matching step may include calculating a parallax vector for a block in which the difference image between the reference images in the overlapping region exceeds a predetermined threshold value. 상기 영상보정 단계는 상기 계산된 시차 벡터를 이용하여 해당 블록의 영상을 보정하는 단계를 포함하는 것인The image correction step includes correcting an image of a corresponding block by using the calculated parallax vector. 다시점 정방향 카메라 배열에 기반한 중간영상합성 방법.Intermediate image synthesis method based on multiview forward camera array. 제6항에 있어서, 상기 블록매칭 단계는 The method of claim 6, wherein the block matching step 상기 세 개의 참조 영상 중 하나의 참조 영상에 대하여, 나머지 두 개의 참조 영상의 위치를 향하여 대각선 방향으로 블록을 탐색하는 것인A block is searched in a diagonal direction with respect to one of the three reference pictures toward the positions of the other two reference pictures. 다시점 정방향 카메라 배열에 기반한 중간영상합성 방법.Intermediate image synthesis method based on multiview forward camera array. 다시점 정방향 카메라 배열에 기반한 다시점 영상의 일부로부터 중간 영상을 합성하는 장치로서,An apparatus for synthesizing an intermediate image from a part of a multiview image based on a multiview forward camera array, 합성하고자 하는 중간 영상과 이에 이웃하는 세 개의 참조 영상이 중첩하는 영역을 확인하는 거리매칭 수단과,Distance matching means for checking a region where an intermediate image to be synthesized and three neighboring reference images overlap with each other; 상기 중첩 영역에서 상기 참조 영상 간의 차분 영상이 존재하는 블록에 대하여 블록 매칭을 수행하는 블록매칭 수단과,Block matching means for performing block matching on a block in which the difference image between the reference images exists in the overlapped region; 상기 블록 매칭 결과에 따라 상기 중첩 영역의 영상을 보정하는 영상보정 수단과,Image correction means for correcting an image of the overlapping area according to the block matching result; 상기 보정된 중첩 영역을 통합하여 중간 영상을 합성하는 영상합성 수단Image synthesizing means for synthesizing the intermediate image by incorporating the corrected overlap region. 을 포함하는 다시점 정방향 카메라 배열에 기반한 중간영상합성 장치.Intermediate image synthesis device based on a multi-view forward camera array comprising a. 제9항에 있어서, 상기 영상합성 수단은,The method of claim 9, wherein the image synthesis means, 상기 거리매칭 수단에 의하여 하나의 참조 영상에만 해당되는 것으로 확인된 중간 영상의 미포함 영역에 대하여, 참조 영상의 해당 영역을 상기 보정된 중첩 영역과 통합하여 상기 중간 영상을 합성하는 것인 다시점 정방향 카메라 배열에 기반한 중간영상합성 장치.A multi-view forward camera for synthesizing the intermediate image by integrating the corresponding region of the reference image with the corrected overlapping region with respect to an area not included in the intermediate image determined by the distance matching means only to one reference image. Array-based intermediate image synthesis device. 제9항에 있어서, 상기 영상합성 수단은,The method of claim 9, wherein the image synthesis means, 상기 거리매칭 수단에 의하여 하나의 참조 영상에만 해당되는 것으로 확인된 중간 영상의 미포함 영역에 대하여, 참조 영상의 해당 영역을 상기 보정된 중첩 영역과 통합하여 상기 중간 영상을 합성하는 것인 다시점 정방향 카메라 배열에 기반 한 중간영상합성 장치.A multi-view forward camera for synthesizing the intermediate image by integrating the corresponding region of the reference image with the corrected overlapping region with respect to an area not included in the intermediate image determined by the distance matching means only to one reference image. Array-based intermediate image synthesis device. 제11항에 있어서, 상기 영상합성 수단은The method of claim 11, wherein the image synthesis means 상기 중첩 영역의 경계선에 대하여 영상 블렌딩을 수행하는 것인 다시점 정방향 카메라 배열에 기반한 중간영상합성 장치.An intermediate image synthesizing apparatus based on a multi-view forward camera array which performs image blending on the boundary line of the overlapped region. 제9항 내지 제12항 중 어느 하나의 항에 있어서, 상기 거리매칭 수단은,The method according to any one of claims 9 to 12, wherein the distance matching means, 상기 세 개의 참조 영상 중에서 평행한 두 개의 참조 영상의 거리(HD)를 평행 이동 및 최소 평균 차분 에러에 의하여 계산하며,The distance HD of two parallel reference images among the three reference images is calculated by the parallel movement and the minimum mean difference error, 상기 평행한 두 개의 참조 영상을 상기 계산된 거리의 절반만큼 이동시켜서 중간 영상의 위치를 결정하고, 상기 중간 영상과 나머지 하나의 참조 영상의 거리(VD)를 상기 평행 이동과 수직한 이동 및 최소 평균 차분 에러에 의하여 계산하며,The parallel reference image is moved by half of the calculated distance to determine the position of the intermediate image, and the distance (VD) between the intermediate image and the other reference image is perpendicular to the parallel movement and minimum average Calculated by difference error, 상기 평행한 두 개의 참조 영상을 상기 계산된 거리(HD)의 절반만큼 이동시키고 상기 나머지 하나의 참조 영상을 상기 계산된 거리(VD)만큼 이동시켜서, 중간 영상과 이에 이웃하는 세 개의 참조 영상이 중첩하는 영역을 확인하는 것인The parallel reference image is moved by half of the calculated distance HD and the other reference image is moved by the calculated distance VD, so that the intermediate image and three neighboring reference images overlap with each other. To check the area 다시점 정방향 카메라 배열에 기반한 중간영상합성 장치.Intermediate image synthesis device based on multiview forward camera array. 제9항 내지 제12항 중 어느 하나의 항에 있어서, 상기 블록매칭 수단은 13. The method according to any one of claims 9 to 12, wherein the block matching means 상기 중첩 영역에서 상기 참조 영상 간의 차분 영상이 미리 지정된 임계값 을 초과하는 블록에 대해서만 수행되는 것인 다시점 정방향 카메라 배열에 기반한 중간영상합성 장치.And a differential image between the reference images in the overlapping region is performed only for blocks exceeding a predetermined threshold. 제14항에 있어서, The method of claim 14, 상기 블록매칭 수단은 상기 중첩 영역에서 상기 참조 영상 간의 차분 영상이 미리 지정된 임계값을 초과하는 블록에 대한 시차 벡터를 계산하며,The block matching means calculates a parallax vector for a block in which the difference image between the reference images in the overlap region exceeds a predetermined threshold value, 상기 영상보정 수단은 상기 계산된 시차 벡터를 이용하여 해당 블록의 영상을 보정하는 것인The image correcting means corrects an image of a corresponding block by using the calculated parallax vector. 다시점 정방향 카메라 배열에 기반한 중간영상합성 장치.Intermediate image synthesis device based on multiview forward camera array. 제14항에 있어서, 상기 블록매칭 수단은 The method of claim 14, wherein the block matching means 상기 세 개의 참조 영상 중 하나의 참조 영상에 대하여, 나머지 두 개의 참조 영상의 위치를 향하여 대각선 방향으로 블록을 탐색하는 것인A block is searched in a diagonal direction with respect to one of the three reference pictures toward the positions of the other two reference pictures. 다시점 정방향 카메라 배열에 기반한 중간영상합성 장치.Intermediate image synthesis device based on multiview forward camera array.
KR1020040116703A 2004-12-30 2004-12-30 Method and device for synthesizing intermediate images in a multi-view square camera based display system KR100590025B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020040116703A KR100590025B1 (en) 2004-12-30 2004-12-30 Method and device for synthesizing intermediate images in a multi-view square camera based display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040116703A KR100590025B1 (en) 2004-12-30 2004-12-30 Method and device for synthesizing intermediate images in a multi-view square camera based display system

Publications (1)

Publication Number Publication Date
KR100590025B1 true KR100590025B1 (en) 2006-06-14

Family

ID=37182716

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040116703A KR100590025B1 (en) 2004-12-30 2004-12-30 Method and device for synthesizing intermediate images in a multi-view square camera based display system

Country Status (1)

Country Link
KR (1) KR100590025B1 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100731979B1 (en) 2005-10-18 2007-06-25 전자부품연구원 Device for synthesizing intermediate images using mesh in a multi-view square camera structure and device using the same and computer-readable medium having thereon a program performing function embodying the same
KR100829857B1 (en) * 2005-12-08 2008-05-16 한국전자통신연구원 System for providing home shopping service using multi-view images
KR100834637B1 (en) 2006-11-27 2008-06-02 삼성전자주식회사 Apparatus and method for ordering images in stereo camera device
KR20100088774A (en) * 2009-02-02 2010-08-11 삼성전자주식회사 Apparatus and method for generating intermediate view image
US8155461B2 (en) 2007-03-27 2012-04-10 Samsung Electronics Co., Ltd. Methods and apparatuses for encoding and decoding multi-view image
KR20120082336A (en) * 2011-01-13 2012-07-23 삼성전자주식회사 Apparatus and method for multi-view rendering using background pixel expansion and background-first patch matching
US9147281B2 (en) 2010-08-27 2015-09-29 Samsung Electronics Co., Ltd. Rendering apparatus and method for generating multi-views
US9253466B2 (en) 2011-10-04 2016-02-02 Samsung Display Co., Ltd. 3D display apparatus preventing image overlapping
KR101639275B1 (en) 2015-02-17 2016-07-14 서울과학기술대학교 산학협력단 The method of 360 degrees spherical rendering display and auto video analytics using real-time image acquisition cameras
US9406164B2 (en) 2011-07-25 2016-08-02 Samsung Electronics Co., Ltd. Apparatus and method of multi-view rendering
KR20160101762A (en) 2015-02-17 2016-08-26 서울과학기술대학교 산학협력단 The method of auto stitching and panoramic image genertation using color histogram
US11579746B2 (en) 2020-12-31 2023-02-14 Korea Institute Of Science And Technology Dynamic image capturing apparatus and method using arbitrary viewpoint image generation technology

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020032954A (en) * 2000-10-28 2002-05-04 김춘호 3D Stereosc opic Multiview Video System and Manufacturing Method
KR20040065014A (en) * 2003-01-13 2004-07-21 전자부품연구원 Apparatus and method for compressing/decompressing multi-viewpoint image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020032954A (en) * 2000-10-28 2002-05-04 김춘호 3D Stereosc opic Multiview Video System and Manufacturing Method
KR20040065014A (en) * 2003-01-13 2004-07-21 전자부품연구원 Apparatus and method for compressing/decompressing multi-viewpoint image

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100731979B1 (en) 2005-10-18 2007-06-25 전자부품연구원 Device for synthesizing intermediate images using mesh in a multi-view square camera structure and device using the same and computer-readable medium having thereon a program performing function embodying the same
KR100829857B1 (en) * 2005-12-08 2008-05-16 한국전자통신연구원 System for providing home shopping service using multi-view images
KR100834637B1 (en) 2006-11-27 2008-06-02 삼성전자주식회사 Apparatus and method for ordering images in stereo camera device
US8009898B2 (en) 2006-11-27 2011-08-30 Samsung Electronics Co., Ltd. Apparatus and method for aligning images obtained by stereo camera apparatus
US8155461B2 (en) 2007-03-27 2012-04-10 Samsung Electronics Co., Ltd. Methods and apparatuses for encoding and decoding multi-view image
KR101580284B1 (en) 2009-02-02 2015-12-24 삼성전자주식회사 Apparatus and method for generating intermediate view image
KR20100088774A (en) * 2009-02-02 2010-08-11 삼성전자주식회사 Apparatus and method for generating intermediate view image
US9147281B2 (en) 2010-08-27 2015-09-29 Samsung Electronics Co., Ltd. Rendering apparatus and method for generating multi-views
KR20120082336A (en) * 2011-01-13 2012-07-23 삼성전자주식회사 Apparatus and method for multi-view rendering using background pixel expansion and background-first patch matching
KR101960852B1 (en) * 2011-01-13 2019-03-22 삼성전자주식회사 Apparatus and method for multi-view rendering using background pixel expansion and background-first patch matching
US9406164B2 (en) 2011-07-25 2016-08-02 Samsung Electronics Co., Ltd. Apparatus and method of multi-view rendering
US9253466B2 (en) 2011-10-04 2016-02-02 Samsung Display Co., Ltd. 3D display apparatus preventing image overlapping
KR101639275B1 (en) 2015-02-17 2016-07-14 서울과학기술대학교 산학협력단 The method of 360 degrees spherical rendering display and auto video analytics using real-time image acquisition cameras
KR20160101762A (en) 2015-02-17 2016-08-26 서울과학기술대학교 산학협력단 The method of auto stitching and panoramic image genertation using color histogram
US11579746B2 (en) 2020-12-31 2023-02-14 Korea Institute Of Science And Technology Dynamic image capturing apparatus and method using arbitrary viewpoint image generation technology

Similar Documents

Publication Publication Date Title
KR100731979B1 (en) Device for synthesizing intermediate images using mesh in a multi-view square camera structure and device using the same and computer-readable medium having thereon a program performing function embodying the same
JP6094863B2 (en) Image processing apparatus, image processing method, program, integrated circuit
EP2862356B1 (en) Method and apparatus for fusion of images
US8384763B2 (en) Generating a depth map from a two-dimensional source image for stereoscopic and multiview imaging
EP2560398B1 (en) Method and apparatus for correcting errors in stereo images
CN106254854B (en) Preparation method, the apparatus and system of 3-D image
KR100813100B1 (en) Extensible System ? Method for Stereo Maching in Real Time
KR100590025B1 (en) Method and device for synthesizing intermediate images in a multi-view square camera based display system
US8731279B2 (en) Method and device for generating multi-viewpoint image
JP7202087B2 (en) Video processing device
KR100897542B1 (en) Method and Device for Rectifying Image in Synthesizing Arbitary View Image
US8577202B2 (en) Method for processing a video data set
KR20120053536A (en) Image display device and image display method
JP5755571B2 (en) Virtual viewpoint image generation device, virtual viewpoint image generation method, control program, recording medium, and stereoscopic display device
KR20050082764A (en) Method for reconstructing intermediate video and 3d display using thereof
JP3561446B2 (en) Image generation method and apparatus
KR20170025214A (en) Method for Multi-view Depth Map Generation
Knorr et al. Stereoscopic 3D from 2D video with super-resolution capability
Knorr et al. An image-based rendering (ibr) approach for realistic stereo view synthesis of tv broadcast based on structure from motion
KR101451236B1 (en) Method for converting three dimensional image and apparatus thereof
JP5627498B2 (en) Stereo image generating apparatus and method
KR20110060180A (en) Method and apparatus for producing 3d models by interactively selecting interested objects
KR101435611B1 (en) Occlusion removal method for three dimensional integral image
JP2014072809A (en) Image generation apparatus, image generation method, and program for the image generation apparatus
Knorr et al. From 2D-to stereo-to multi-view video

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130111

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20131231

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20150109

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20151224

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20170512

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20180406

Year of fee payment: 13