KR101960852B1 - Apparatus and method for multi-view rendering using background pixel expansion and background-first patch matching - Google Patents

Apparatus and method for multi-view rendering using background pixel expansion and background-first patch matching Download PDF

Info

Publication number
KR101960852B1
KR101960852B1 KR1020110142432A KR20110142432A KR101960852B1 KR 101960852 B1 KR101960852 B1 KR 101960852B1 KR 1020110142432 A KR1020110142432 A KR 1020110142432A KR 20110142432 A KR20110142432 A KR 20110142432A KR 101960852 B1 KR101960852 B1 KR 101960852B1
Authority
KR
South Korea
Prior art keywords
image
hole
view
pixel
adjacent
Prior art date
Application number
KR1020110142432A
Other languages
Korean (ko)
Other versions
KR20120082336A (en
Inventor
조양호
이호영
박두식
황규영
정영주
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US13/349,115 priority Critical patent/US9582928B2/en
Priority to JP2013549367A priority patent/JP6173218B2/en
Priority to CN201280001829.2A priority patent/CN102985949B/en
Priority to PCT/KR2012/000299 priority patent/WO2012096530A2/en
Priority to EP12151022.6A priority patent/EP2477158B1/en
Publication of KR20120082336A publication Critical patent/KR20120082336A/en
Application granted granted Critical
Publication of KR101960852B1 publication Critical patent/KR101960852B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

멀티 뷰 렌더링에서 발생하는 홀을 복원하기 위한 장치 및 방법이 제공된다. 영상 와핑과 관련된 영상에 시간적으로 인접한 영상들을 사용함으로써 출력 뷰 내의 홀이 복원된다. 홀과 인접한 화소들을 스케일링함으로써 홀이 복원된다. 또한, 홀을 포함하는 영역과 가장 유사한 패치를 검색하고, 검색된 패치를 홀을 포함하는 영역을 채우기 위해 사용함으로써 홀이 복원된다.An apparatus and method for reconstructing a hole that occurs in multi-view rendering are provided. Holes in the output view are restored by using images temporally adjacent to the image associated with the image watermark. Holes are restored by scaling the pixels adjacent to the holes. Further, the hole is restored by searching for the patch most similar to the area including the hole, and using the searched patch to fill the area including the hole.

Description

배경 픽셀 확장 및 배경 우선 패치 매칭을 사용하는 멀티 뷰 렌더링 장치 및 방법{APPARATUS AND METHOD FOR MULTI-VIEW RENDERING USING BACKGROUND PIXEL EXPANSION AND BACKGROUND-FIRST PATCH MATCHING}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a multi-view rendering apparatus and method using background pixel expansion and background priority patch matching,

아래의 실시예들은 멀티 뷰 렌더링 장치 및 방법에 관한 것이다.The following embodiments relate to a multi-view rendering apparatus and method.

3D(3-dimensional) 영상(image)을 생성하기 위해서는, 넓은 시야각을 갖는 다시점의 3D 영상들이 연속적으로 표현되어야 한다.In order to generate a 3D image, multi-view 3D images having a wide viewing angle must be continuously displayed.

그러나, 다시점의 영상들을 각각 촬영하고, 촬영된 다시점의 영상들을 실시간 전송하는 것은 용이하지 않다. 이는, 촬영 시스템의 물리적인 한계를 비롯하여, 촬영된 데이터를 저장 및 전송하는 것이 용이하지 않기 때문이다.However, it is not easy to capture the images of the multi-viewpoints and to transmit the captured multi-viewpoint images in real time. This is because it is not easy to store and transmit photographed data, including physical limitations of the photographing system.

따라서, 3D 영상 생성 장치는 소수(예컨대 2개 내지 3개)의 입력 뷰(view)(또는, 참조(reference) 뷰))들만을 사용하여 3D 영상을 생성할 수 있고, 생성된 3D 영상을 재생하는 3D 디스플레이(display) 장치는 입력 뷰들을 내삽 또는 외삽함으로써 다수의 출력 뷰들을 생성할 수 있다.Thus, the 3D image generation apparatus can generate a 3D image using only a small number of (for example, two to three) input views (or reference views)) and reproduce the generated 3D image A 3D display device may generate multiple output views by interpolating or extrapolating the input views.

일 실시예는, 영상 와핑에 의해 생성된 출력 뷰 영상 내에 있는 홀을 복원하기 위한 장치 및 방법을 제공한다.One embodiment provides an apparatus and method for recovering a hole in an output view image generated by image watermarking.

일측에 따르면, 하나 이상의 프로세서-실행가능한(processor-executable) 유닛들을 제어하는 프로세서, 참조 뷰의 영상 및 상기 참조 뷰의 영상의 양안시차 정보를 사용하는 이미지 와핑에 의해 출력 뷰의 영상을 생성하는 영상 와핑부 및 상기 영상 와핑과 관련된 영상에 시간적으로 인접한 영상들을 사용하여 상기 영상 와핑에 의해 생성된 홀을 복원하는 인접 영상 기반 홀 복원부를 포함하는, 영상 처리 장치가 제공된다.According to one aspect, there is provided a processor for controlling one or more processor-executable units, an image generating unit that generates an image of an output view by image warping using an image of a reference view and binocular disparity information of the image of the reference view And an adjacent image-based hall reconstructing unit for reconstructing the hall generated by the image overwriting using the wiping unit and the images temporally adjacent to the image related to the image warping.

상기 시간적으로 인접한 영상들은 상기 참조 뷰의 영상에 시간적으로 인접한 영상들일 수 있다.The temporally adjacent images may be images temporally adjacent to the image of the reference view.

상기 시간적으로 인접한 영상들은 상기 출력 뷰의 영상에 시간적으로 인접한 영상들일 수 있다.The temporally adjacent images may be temporally adjacent to the image of the output view.

상기 인접 영상 기반 홀 복원부는 상기 홀 내의 제1 픽셀을 복원하기 위해 상기 시간적으로 인접한 영상들 내의 상기 제1 픽셀에 대응하는 픽셀들의 컬러 값을 사용할 수 있다.The adjacent image-based hall reconstruction unit may use a color value of pixels corresponding to the first pixel in the temporally adjacent images to reconstruct a first pixel in the hole.

상기 인접 영상 기반 홀 복원부는 상기 참조 뷰의 영상 및 상기 시간적으로 인접한 영상들이 시간에 따라 전체적으로 이동한 경우, 상기 이동에 기반하여 상기 시간적으로 인접한 영상들 내에서 상기 제1 픽셀에 대응하는 픽셀들을 선택할 수 있다.Wherein the neighboring-image-based hall reconstructing unit selects the pixels corresponding to the first pixel in the temporally adjacent images based on the movement if the reference view image and the temporally adjacent images are entirely moved with time .

상기 인접 영상 기반 홀 복원부는 상기 제1 픽셀에 대응하는 픽셀들 중 홀 픽셀이 아닌 픽셀만을 상기 홀을 복원하기 위해 사용할 수 있다.The adjacent image-based hole restoration unit may use only pixels other than the hole pixels among the pixels corresponding to the first pixel to restore the hole.

상기 인접 영상 기반 홀 복원부는 상기 제1 픽셀에 대응하는 픽셀들 중 배경 픽셀만을 상기 홀을 복원하기 위해 사용할 수 있다.The adjacent image-based hall reconstruction unit may use only a background pixel among the pixels corresponding to the first pixel to reconstruct the hall.

상기 영상 처리 장치는, 상기 영상 와핑에 의해 생성된 홀을 확대하는 완충 구간 설정부를 더 포함할 수 있다.The image processing apparatus may further include a buffer interval setting unit for enlarging the hole generated by the image watermarking.

상기 완충 구간 설정부는 상기 홀에 인접한 완충 영역을 상기 홀로 간주함으로써 상기 홀을 확대할 수 있고, 상기 인접 영상 기반 홀 복원부는 상기 제1 픽셀이 상기 완충 영역 내의 픽셀인 경우 상기 제1 픽셀의 컬러 값에 기반하여 상기 제1 픽셀을 복원할 수 있다.Wherein the buffer section setting section enlarges the hole by considering the buffer region adjacent to the hole as the hole, and the adjacent image-based hole restoration section restores the color value of the first pixel when the first pixel is a pixel in the buffer region The first pixel may be restored.

상기 영상 처리 장치는, 상기 출력 뷰의 영상 중 크랙을 홀로 설정하는 양안시차 크랙 검출부를 더 포함할 수 있다.The image processing apparatus may further include a binocular parallax crack detecting unit for setting a crack in an image of the output view as an image.

상기 양안시차 크랙 검출부는 상기 출력 뷰 내의 픽셀들 중, 인접한 픽셀들과의 양안시차 값의 차들의 총 합이 미리 정의된 임계 값보다 큰 픽셀을 크랙으로 검출할 수 있다.The binocular parallax crack detecting unit may detect cracks of pixels in the output view in which the sum of differences of binocular parallax values with adjacent pixels is larger than a predefined threshold value.

다른 일측에 따르면, 하나 이상의 프로세서 실행가능한(processor-executable) 유닛들을 제어하는 프로세서;참조 뷰의 영상 및 상기 참조 뷰의 영상의 양안시차 정보를 사용하는 영상 와핑에 의해 출력 뷰의 영상을 생성하는 영상 와핑부 및 상기 영상 와핑에 의해 생성된 홀을 상기 홀과 인접한 하나 이상의 픽셀들을 스케일링함으로써 복원하는 인접 픽셀 스케일링 기반 홀 복원부를 포함하는, 영상 처리 장치가 제공된다.
According to another aspect, there is provided a processor for controlling one or more processor-executable units, the processor comprising: a processor for generating processor-executable units for generating an image of an output view by image warping using an image of a reference view and binocular disparity information of the image of the reference view And a neighboring pixel scaling-based hole reconstruction unit for reconstructing the hole generated by the image waving by scaling one or more pixels adjacent to the hole.

상기 인접 픽셀 스케일링 기반 홀 복원부는 상기 하나 이상의 픽셀들 중 배경 픽셀만을 스케일링할 수 있다.The adjacent pixel scaling-based hole restoration unit may scale only the background pixel among the one or more pixels.

상기 홀을 구성하는 하나 이상의 홀 픽셀들 및 상기 하나 이상의 픽셀들은 동일한 수평선 상에 있을 수 있다.One or more of the hole pixels and the one or more pixels constituting the hole may be on the same horizontal line.

상기 인접 픽셀 스케일링 기반 홀 복원부는 상기 홀에 인접한 배경 픽셀의 그레디언트와 수직한 방향으로 상기 하나 이상의 픽셀들을 스케일링할 수 있고, 상기 배경 픽셀은 상기 하나 이상의 픽셀들 중 하나의 픽셀일 수 있다.The adjacent pixel scaling based hole restoration unit may scale the one or more pixels in a direction perpendicular to a gradient of a background pixel adjacent to the hole, and the background pixel may be one of the one or more pixels.

또 다른 일측에 따르면, 하나 이상의 프로세서-실행가능한(processor-executable) 유닛들을 제어하는 프로세서, 참조 뷰의 영상 및 상기 참조 뷰의 영상의 양안시차 정보를 사용하는 영상 와핑에 의해 출력 뷰의 영상을 생성하는 영상 와핑부 및 상기 영상 와핑에 의해 생성된 홀이 포함되는 영역과 가장 유사한 패치를 배경으로부터 탐색하고, 상기 탐색된 패치를 사용함으로써 상기 홀을 복원하는 최적 패치 탐색 기반 홀 복원부를 포함하는, 영상 처리 장치가 제공된다..According to another aspect, an image of an output view is generated by a processor controlling one or more processor-executable units, an image of a reference view, and image warping using binocular disparity information of the image of the reference view And an optimal patch search-based hole restoration unit for searching the background most similar to the area including the image including the image, the ping unit and the hole generated by the image overwriting, and restoring the hole by using the searched patch. A processing device is provided.

상기 홀이 포함되는 영역은 홀 영역 및 배경 영역으로 구성될 수 있고, 상기 최적 패치 탐색 기반 홀 복원부는 상기 탐색된 패치 중 상기 홀 영역에 대응하는 부분을 사용하여 상기 홀 영역을 복원할 수 있다.The area including the hole may be composed of a hole area and a background area, and the optimal patch search-based hole restoration part may restore the hole area using a part corresponding to the hole area in the searched patches.

상기 최적 패치 탐색 기반 홀 복원 부는 제1 영역을 위한 제1 패치를 탐색하고, 제2 영역을 위한 제2 패치를 탐색하며, 상기 제1 패치 및 상기 제2 패치의 평균 값을 사용하여 상기 제1 영역 및 상기 제2 영역에서 중첩되는 홀 부분을 복원할 수 있다.Wherein the optimal patch search-based hole restoration unit searches for a first patch for a first area, searches for a second patch for a second area, and uses the average value of the first patch and the second patch to search for the first patch And a hole portion overlapping in the second region.

또 다른 일측에 따르면, 프로세서에 의해 참조 뷰 영상의 양안시차 정보에 기반하여 상기 참조 뷰의 영상을 이미지 와핑함으로써 출력 뷰의 영상을 생성하는 영상 와핑 단계 및 상기 생성에 관련된 영상에 시간적으로 인접한 영상들을 사용하여 상기 출력 뷰 내에 생성된 홀을 복원하는 인접 영상 기반 홀 복원 단계를 포함하는 영상 처리 방법이 제공된다.According to another aspect of the present invention, there is provided an image processing method comprising: an image overwriting step of generating an output view image by image-waving an image of the reference view based on binocular disparity information of a reference view image by a processor; There is provided an image processing method including an adjacent image-based hall reconstruction step of reconstructing a hall created in the output view using the reconstructed image.

상기 영상 처리 방법은 상기 홀을 확대하는 완충 구간 설정 단계를 더 포함할 수 있다.The image processing method may further include a buffer interval setting step of enlarging the hole.

상기 영상 처리 방법은 상기 출력 뷰의 영상 중 크랙을 상기 홀로 설정하는 양안시차 크랙 검출 단계를 더 포함할 수 있다.The image processing method may further include a binocular parallax crack detecting step of setting a crack among the images of the output view as the blank.

상기 영상 처리 방법은 상기 홀을 상기 홀과 인접한 하나 이상의 픽셀들을 스케일링함으로써 복원하는 인접 픽셀 스케일링 기반 홀 복원 단계를 더 포함할 수 있다.The image processing method may further include an adjacent pixel scaling-based hole restoration step of restoring the hole by scaling one or more pixels adjacent to the hole.

상기 영상 처리 방법은 상기 홀이 포함되는 영역과 가장 유사한 패치를 배경으로부터 탐색하고, 상기 탐색된 패치를 사용함으로써 상기 홀을 복원하는 최적 패치 탐색 기반 홀 복원 단계를 더 포함할 수 있다.The image processing method may further include searching for a patch most similar to an area including the hole from the background and restoring the hole by using the retrieved patch.

또 다른 일 측에 따르면, 하나 이상의 프로세서-실행가능한(processor-executable) 유닛들을 제어하는 프로세서, 참조 뷰의 영상 및 상기 참조 뷰의 영상의 양안시차 정보에 기반하여 출력 뷰의 영상을 생성하는 영상 와핑부 및 상기 생성과 관련된 영상에 시간적으로 인접한 영상들의 배경 정보를 사용하여 상기 생성된 출력 뷰의 영상의 현재 프레임 내에 존재하는 홀을 복원하는 인접 영상 기반 홀 복원부 - 상기 홀은 상기 출력 뷰의 생성의 결과로서 생성됨 -를 포함하는, 멀티-뷰 생성 장치가 제공된다.According to another aspect, there is provided a processor for controlling one or more processor-executable units, an image generating an output view image based on an image of a reference view, and binocular disparity information of the image of the reference view, An image reconstruction unit for reconstructing a reconstructed image of a current frame of an output image using the background information of images temporally adjacent to the image related to the generation of the output view, And generating a multi-view generated by the multi-view generator.

또 다른 일 측에 따르면, 하나 이상의 프로세서-실행가능한(processor-executable) 유닛들을 제어하는 프로세서, 적어도 하나의 참조 뷰 영상에 기반하여 출력 뷰의 영상을 생성하는 영상 생성부, 상기 생성된 출력 뷰의 영상의 미리 정의된 객체 내의 크랙을 검출하는 양안시차 크랙 검출부 - 상기 미리 정의된 객체는 상기 미리 정의된 객체의 상이한 부분들로 할당된 상이한 양안시차 값들을 가지고, 상기 크랙은 상기 적어도 하나의 참조 뷰의 영상에 기반하여 상기 출력 뷰의 영상을 생성한 것에 기인하여 상기 미리 정의된 객체 내에 발생함 - 및 상기 크랙을 홀로서 재할당하고, 상기 생성과 관련된 영상에 시간적으로 인접한 프레임들의 배경 정보를 사용함으로써 상기 생성된 출력 뷰 영상의 현재 프레임 내에 존재하는 상기 홀을 복원하는 멀티-뷰 생성부를 포함하는, 멀티-뷰 생성 장치가 제공된다.According to another aspect, there is provided a processor for controlling one or more processor-executable units, an image generator for generating an image of an output view based on at least one reference view image, A binocular parallax crack detector for detecting a crack in a predefined object of an image, said predefined object having different binocular disparity values assigned to different parts of said predefined object, said crack having at least one reference view Wherein the generated image is generated in the predefined object due to the generation of an image of the output view based on the image of the output view and the background information of frames temporally adjacent to the image associated with the generation is used A multi-view generation unit for restoring the hall existing in the current frame of the generated output view image, , Including multi-view is generated is provided.

상기 시간적으로 인접한 프레임들은 상기 참조 뷰의 영상에 시간적으로 인접한 프레임들일 수 있다.The temporally adjacent frames may be frames temporally adjacent to the image of the reference view.

상기 시간적으로 인접한 프레임들은 상기 출력 뷰의 영상에 시간적으로 인접한 프레임들일 수 있다.The temporally adjacent frames may be frames temporally adjacent to the image of the output view.

또 다른 일 측에 따르면, 프로세서에 의해, 적어도 하나의 참조 뷰 영상에 기반하여 출력 뷰의 영상을 생성하는 단계, 상기 생성된 출력 뷰의 영상의 미리 정의된 객체 내의 크랙을 검출하는 단계 - 상기 미리 정의된 객체는 상기 미리 정의된 객체의 상이한 부분들로 할당된 상이한 양안시차 값들을 가지고, 상기 크랙은 상기 적어도 하나의 참조 뷰의 영상에 기반하여 상기 출력 뷰의 영상을 생성한 것에 기인하여 상기 미리 정의된 객체 내에 발생함 - 및 상기 크랙을 홀로서 재할당하고, 상기 생성과 관련된 영상에 시간적으로 인접한 프레임들의 배경 정보를 사용함으로써 상기 생성된 출력 뷰 영상의 현재 프레임 내에 존재하는 상기 홀을 복원하는 단계를 포함하는, 멀티-뷰 생성 방법이 제공된다.According to another aspect, there is provided a method comprising: generating, by a processor, an image of an output view based on at least one reference view image; detecting a crack in a predefined object of the image of the generated output view, Wherein the defined object has different binocular disparity values assigned to different parts of the predefined object and the crack is caused by the presence of the preview image due to the generation of the image of the output view based on the image of the at least one reference view Restoring the holes present in the current frame of the generated output view image by using the background information of temporally adjacent frames in the image related to the generation, A multi-view generation method is provided, comprising the steps of:

본 발명의 또 다른 일 측에 따르면, 영상 처리 장치를 포함하는 디스플레이 디바이스에 있어서, 참조 뷰의 영상 및 상기 참조 뷰의 영상의 양안시차 정보에 기반하여 출력 뷰의 영상을 생성하는 영상 와핑부, 상기 생성과 관련된 영상에 시간적으로 인접한 영상들의 배경 정보를 사용하여 상기 생성된 출력 뷰의 영상의 현재 프레임 내에 존재하는 홀을 복원하는 인접 영상 기반 홀 복원부 - 상기 홀은 상기 출력 뷰의 생성의 결과로서 생성됨 - 및 상기 인접 영상 기반 홀 복원부에 의해 복원된 상기 홀을 갖는 상기 생성된 출력 뷰의 영상에 기반하여 상기 디스플레이 디바이스에 의해 디스플레이될 신호를 생성하는 제어부를 포함하는, 영상 처리 장치를 포함하는 디스플레이 디바이스가 제공된다.According to another aspect of the present invention, there is provided a display device including an image processing apparatus, comprising: an image and a ping section for generating an image of an output view based on binocular disparity information of an image of a reference view and an image of the reference view; An adjacent image-based hall reconstruction unit for reconstructing a hall existing in a current frame of an image of the generated output view using background information of images temporally adjacent to an image related to generation of the output image, And a control unit for generating a signal to be displayed by the display device based on an image of the generated output view having the hole restored by the adjacent image-based hole restoration unit A display device is provided.

영상 와핑에 의해 생성된 출력 뷰 영상 내에 있는 홀을 복원하기 위한 장치 및 방법이 제공된다.An apparatus and method are provided for restoring a hole in an output view image generated by image watermarking.

도 1은 일 예에 따른 3개의 입력 뷰에 기반한 뷰 생성 방법을 설명한다.
도 2는 일 실시예에 따른 외삽 뷰의 프레임 생성 방법을 도시한다
도 3은 일 실시예에 따른 영상 처리 장치의 구조도이다.
도 4는 일 예에 따른 영상 와핑에 관련된 영상에 시간적으로 인접한 영상들을 사용한 홀의 복원을 설명한다.
도 5는 일 예에 따른 완충 구간 설정에 의한 홀 확대를 설명한다.
도 6은 일 예에 따른 크랙의 발생 및 양안시차 크랙의 검출에 의한 홀 설정을 설명한다.
도 7은 일 예에 따른 인접 픽셀 스케일링을 설명한다.
도 8은 일 예에 따른 배경 픽셀을 사용하는 인접 픽셀 스케일링을 설명한다.
도 9는 일 예에 따른 배경의 그레디언트(gradient)에 수직한 방향으로의 스케일링을 설명한다.
도 10은는 일 에에 따른 최적 패치 탐색에 기반한 홀의 복원을 설명한다.
도 11은 일 예에 따른 패치의 중첩을 사용한 홀의 복원을 설명한다.
도 12는 일 실시예에 따른 영상 처리 방법의 흐름도이다.
도 13은 일 실시예에 따른 영상 처리 장치를 포함하는 디스플레이 디바이스를 도시한다.
Figure 1 illustrates a view generation method based on three input views according to an example.
Figure 2 illustrates a frame generation method of an extrapolated view according to one embodiment
3 is a structural diagram of an image processing apparatus according to an embodiment.
FIG. 4 illustrates restoration of a hole using images temporally adjacent to an image related to image warping according to an example.
FIG. 5 illustrates hole enlargement by setting a buffer interval according to an example.
Fig. 6 illustrates generation of cracks and hole setting by detecting binocular parallax cracks according to an example.
Figure 7 illustrates adjacent pixel scaling according to an example.
Figure 8 illustrates adjacent pixel scaling using a background pixel according to an example.
Figure 9 illustrates scaling in a direction perpendicular to the gradient of the background according to an example.
FIG. 10 illustrates restoration of holes based on optimal patch search for work.
Fig. 11 illustrates restoration of holes using overlapping patches according to an example.
12 is a flowchart of an image processing method according to an embodiment.
13 shows a display device including an image processing apparatus according to an embodiment.

이하에서, 본 발명의 일 실시예를, 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited to or limited by the embodiments. Like reference symbols in the drawings denote like elements.

도 1은 일 예에 따른 3개의 입력 뷰에 기반한 뷰 생성 방법을 설명한다.Figure 1 illustrates a view generation method based on three input views according to an example.

촬영의 대상이 되는 피사체(110)는 전경(foreground) 및 배경(background)(112)으로 구성된다. 상기 전경은 제1 객체(object)(114) 및 제2 객체(116)를 포함한다.The subject 110 to be photographed is composed of a foreground and a background 112. [ The foreground includes a first object (114) and a second object (116).

관측자의 시점에 따라서, 제1 객체(114) 및 제2 객체(116)의 배경(112)에 대한 상대적 위치는 좌측 또는 우측으로 이동한다.Depending on the viewpoint of the observer, the relative position of the first object 114 and the second object 116 with respect to the background 112 moves to the left or right.

예컨대 카메라와 같은, 제1 입력 장치(120)는 제1 시점에서, 제2 입력 장치(130)는 제2 시점에서 상기 피사체(110)를 촬영한다.The first input device 120, such as a camera, captures the subject 110 at a first point in time and the second input device 130 captures the subject 110 at a second point in time.

입력 장치들(120, 130 및 140)은 각각의 시점에서 피사체(110)를 촬영하고, 각각 입력 뷰(122, 132 및 142)를 생성한다.The input devices 120, 130, and 140 capture the subject 110 at each point in time and generate input views 122, 132, and 142, respectively.

예컨대, 즉, 제1 입력 뷰(122)는 시청자가 제1 시점에서 피사체(110)를 보았을 때의 영상을 제공하고, 제2 입력 뷰(132) 는 시청자가 제2 시점에서 피사체(110)를 보았을 때의 영상을 제공한다.For example, the first input view 122 provides an image when a viewer views the subject 110 at a first viewpoint, and the second input view 132 provides an image when the viewer views the subject 110 at a second viewpoint Provide images when viewed.

입력 뷰들(122, 132 및 142) 각각은 프레임(frame)들의 시퀀스(sequence)로 구성된다. 즉, 입력 뷰(122, 132 또는 142)는 단위 시간 당 특정한 개수, 예컨대 30FPS(frames per second)로 출력되는 프레임들로 구성된다. 특정 시점의 프레임은 상기 특정 시점의 영상을 생성하기 위한 데이터이다. 따라서, 입력 뷰들(122, 132 및 142) 각각은 영상들의 시퀀스(sequence)를 제공한다. 영상들 각각은 특정한 순간에 대응한다.Each of the input views 122, 132 and 142 consists of a sequence of frames. That is, the input view 122, 132, or 142 is composed of frames output in a specific number of frames per unit time, for example, 30 frames per second (FPS). A frame at a specific time point is data for generating an image at the specific time point. Thus, each of the input views 122, 132, and 142 provides a sequence of images. Each of the images corresponds to a specific moment.

프레임(또는, 영상)은 픽셀(pixel)들로 구성된다. 프레임(또는, 영상) 내의 픽셀은 x 좌표 및 y 좌표로 구성된 좌표 값을 갖는다.A frame (or image) is composed of pixels. A pixel in a frame (or image) has a coordinate value composed of an x coordinate and a y coordinate.

픽셀들 각각은 대한 컬러(color) 값을 갖는다. 픽셀의 컬러 값은 컬러를 나타내기 위한 임의의 형식(type)(예컨대, RGB 또는 YCbCr)을 사용하여 표현될 수 있다.Each of the pixels has a color value. The color value of a pixel can be expressed using any type (e.g., RGB or YCbCr) to represent the color.

또한, 픽셀들 각각은 깊이(depth) 값을 갖는다. 픽셀의 깊이 값은, 픽셀이 나타내는 객체(object)(또는 배경(background)) 및 촬영 시점(즉, 뷰의 시점) 간의 거리를 나타낸다. 픽셀의 깊이 값은, 예컨대 정수 또는 부동소수점과 같은, 거리를 나타내기 위한 임의의 이진(binary) 형식을 사용하여 표현될 수 있다.Also, each of the pixels has a depth value. The depth value of a pixel represents the distance between the object (or background) represented by the pixel and the shooting time (i.e., the viewpoint of the view). The depth value of the pixel may be expressed using any binary format for representing the distance, e.g. integer or floating point.

픽셀들의 깊이 값은 프레임 내에 포함될 수 있다. 즉, 프레임이 픽셀의 컬러 값 및 깊이 값을 가질 수 있다.The depth value of the pixels may be included in the frame. That is, a frame may have a color value and a depth value of a pixel.

또한, 픽셀들의 깊이 값은 프레임과는 별도로 제공될 수 있다. 프레임(또는, 영상)의 깊이 정보는 프레임(또는, 영상)을 구성하는 픽셀들의 깊이 값들을 나타낸다. 프레임의 깊이 정보는 프레임 또는 입력 뷰와는 별도로 제공될 수 있다. 입력 뷰 내의 영상에 대한 깊이 정보가 입력 뷰와는 별도로 제공될 수 있다.In addition, the depth value of the pixels may be provided separately from the frame. The depth information of the frame (or image) represents depth values of pixels constituting the frame (or image). The depth information of the frame may be provided separately from the frame or the input view. Depth information about the image in the input view may be provided separately from the input view.

특정 시각 t에서의 제1 입력 뷰(122)의 프레임(124), 제2 입력 뷰(132)의 프레임(134) 및 제3 입력 뷰(142)의 프레임(144)이 사각형으로 도시되었다.The frame 124 of the first input view 122 at the specific time t, the frame 134 of the second input view 132 and the frame 144 of the third input view 142 are shown as squares.

3D 영상 장치는 입력 뷰들(122, 132 및 142)의 시점 외의, 다른 시점에서의 영상을 사용자에게 제공해야 할 필요가 있다. 따라서, 3D 영상 장치는 입력 뷰들(122, 132 및 142)을 기반으로 상기 입력 뷰들과(122, 132 및 142)는 다른 시점에서의 출력 뷰(output view)(또는, 목적 뷰(target view))를 생성할 수 있다. 상기의 입력 뷰들(122, 132 및 142)에 대응하는 시점들은 참조 뷰 시점들로 명명될 수 있다.The 3D imaging device needs to provide the user with an image at a different point in time than the viewpoints of the input views 122, 132, Thus, the 3D imaging device is based on the input views 122, 132, and 142, and the input views 122 and 132 and 142 are output views (or target views) Lt; / RTI > The points corresponding to the above input views 122, 132 and 142 may be named reference view points.

입력 장치들(120, 130 및 140)의 시점들(즉, 참조 뷰 시점들)이 아닌 상이한 시점에서 시청자가 피사체(110)를 바라보았을 때의 영상이 제공되기 위해서는, 상기 입력 장치들(120, 130 및 140)에 의해 생성되는 입력 뷰(122, 132 및 142)에 의해 제공되는 프레임들을 사용하는 뷰 외삽 또는 뷰 내삽에 의해 중간 시점에서의 출력 뷰가 생성되어야 한다.In order for an image to be provided when the viewer looks at the subject 110 at a different point in time than the viewpoints of the input devices 120, 130 and 140 (i.e., reference viewpoints), the input devices 120, An output view at an intermediate viewpoint should be generated by view extrapolation or view interpolation using the frames provided by the input views 122, 132, and 142 generated by the input views 130 and 140.

출력 뷰의 생성은, 출력 뷰의 프레임들을 생성하는 것을 의미한다. 출력 뷰의 생성은 출력 뷰의 시점에서의 영상들을 제공하는 것을 의미할 수 있다.Creating an output view means creating frames in the output view. Creation of the output view may mean providing images at the viewpoint of the output view.

출력 뷰는 내삽에 의해 생성된 내삽 뷰 또는 외삽에 의해 생성된 외삽 뷰이다.The output view is an interpolated view generated by interpolation or an extrapolated view generated by extrapolation.

뷰 내삽(view interpolation)은 입력 뷰들(122, 132 및 142)의 시점들의 사이(즉, 내부)에 있는 임의의 가상 시점에서의 출력 뷰를 생성하는 것을 의미한다. 뷰 내삽은 생성하고자 하는 가상 뷰 시점에 인접한 좌측 및 우측의 입력 뷰 프레임(또는, 영상)들을 참조하여 출력 뷰 프레임(또는, 영상)을 생성할 수 있다. 내삽 뷰(interpolated view)는 뷰 내삽에 의해 생성된 출력 뷰이다.View interpolation means creating an output view at any virtual time point between (i.e., inside) the views of the input views 122, 132, The view interpolation can generate the output view frame (or image) by referring to the left and right input view frames (or images) adjacent to the virtual view point to be generated. An interpolated view is an output view generated by view interpolation.

뷰 외삽(view extrapolation)은 입력 뷰들(122, 132 및 142)의 시점들의 외곽에 있는 임의의 시점에서의 출력 뷰를 생성하는 것을 의미한다. 즉, 뷰 외삽은 최좌측 입력 뷰(122)의 시점보다 좌측 시점에서의 출력 뷰 또는 최우측 입력 뷰(142)의 시점보다 우측 시점에서의 출력 뷰를 생성하는 것을 의미한다. 외삽 뷰(extrapolated view)는 뷰 외삽에 의해 생성된 출력 뷰이다.View extrapolation refers to creating an output view at any point in time that is outside the viewpoints of the input views 122, 132, and 142. That is, the view extrapolation means to generate an output view at the right side of the left input view 122 or an output view at the right side view than the right input view 142. An extrapolated view is an output view generated by view extrapolation.

뷰 외삽은 최외곽에 있는 하나의 입력 뷰(122 또는 142)의 프레임(또는, 영상)을 참조하여 출력 뷰 프레임(또는, 영상)을 생성한다. 따라서, 뷰 외삽을 위해 사용될 수 있는 정보는 뷰 내삽을 위해 사용될 수 있는 정보에 비해 상대적으로 제한된다. 따라서, 사용될 수 있는 정보가 상대적으로 적기 때문에, 뷰 외삽에 의해 생성된 영상에서는 뷰 내삽으로 생성된 영상에 비해 많은 화질 열화가 발생한다.The view extrapolation generates an output view frame (or image) by referring to a frame (or image) of one input view 122 or 142 at the outermost position. Thus, information that can be used for view extrapolation is relatively limited relative to information that can be used for view interpolation. Therefore, since there is a relatively small amount of information that can be used, in the image generated by the view extrapolation, much image deterioration occurs as compared with the image generated by the view interpolation.

도시된 삼각형들(150, 152, 160, 162, 170, 172, 180 및 182)은 각각 삼각형이 위치한 시점에서의 내삽 뷰 또는 외삽 뷰의 프레임을 나타낸다.The triangles 150, 152, 160, 162, 170, 172, 180 and 182 shown represent the frames of the interpolated or extrapolated view at the time the triangle is located, respectively.

최좌측 입력 뷰(122)의 시점보다 더 좌측인 시점에서의 뷰는 외삽 뷰이다. 또한, 최우측 입력 뷰(142)의 시점보다 더 우측인 시점에서의 뷰는 외삽 뷰이다. 시각 t에서의 상기 외삽 뷰의 프레임들(150, 152, 180 및 182)이 도시되었다.The view at a point that is further to the left than the viewpoint of the leftmost input view 122 is an extrapolated view. The view at the right side of the right input view 142 is an extrapolation view. The frames 150, 152, 180 and 182 of the extrapolated view at time t are shown.

입력 뷰들(122, 132 및 142)의 시점들 사이에서 생성된 가상의 시점에서의 뷰는 내삽 뷰이다. 시각 t에서의 내삽 뷰의 프레임들(160, 162, 170 및 172)이 도시되었다.The view at the virtual viewpoint generated between the views of the input views 122, 132 and 142 is an interpolation view. The frames 160, 162, 170 and 172 of the interpolation view at time t are shown.

내삽 뷰 및 외삽 뷰 또한 미리 정의된 시간 주기에 걸쳐서(over) 발생한 프레임의 시퀀스로 구성된다.An interpolated view and an extrapolated view also consist of a sequence of frames that occur over a predefined time period.

내삽 뷰 또는 외삽 뷰의 프레임은 깊이 정보를 가지지 않을 수 있다. 즉, 내삽 뷰 또는 외삽 뷰의 프레임은 2차원 프레임일 수 있다.Frames in interpolation views or extrapolated views may not have depth information. That is, the frame of the interpolation view or extrapolation view may be a two-dimensional frame.

전술된 것처럼, N 개의 입력 뷰들에 기반하여, 상기 N 개의 입력 뷰들의 시점 및 이와 상이한 시점에서의 M 개의 출력 뷰들이 생성될 수 있다.As described above, based on the N input views, M output views at the time of the N input views and at different times can be generated.

3D 영상 장치가, 시청자의 위치에 따라, M 개의 출력 뷰들 중 특정한 출력 뷰들을 시청자에게 제공하면, 시청자는 3D 영상 장치의 출력 뷰들을 통해 연속적인 실제(real) 3D 영상을 인지할 수 있다. 예컨대, 3D 영상 장치가 제1 출력 뷰를 시청자의 좌안으로, 제2 출력 뷰를 시청자의 우안으로 출력하면, 사용자는 3D 영상을 인식할 수 있다.
If the 3D imaging device provides the viewer with specific output views of the M output views, depending on the position of the viewer, the viewer can perceive a continuous real 3D image through the output views of the 3D imaging device. For example, when the 3D image device outputs the first output view to the left eye of the viewer and the second output view to the viewer's right eye, the user can recognize the 3D image.

도 2는 일 실시예에 따른 외삽 뷰의 프레임 생성 방법을 도시한다Figure 2 illustrates a frame generation method of an extrapolated view according to one embodiment

입력 뷰(210)를 통해 프레임의 시퀀스가 제공된다. 특정 시각 t에서의 입력 뷰(210)의 프레임(212)이 도시되었다.The input view 210 provides a sequence of frames. The frame 212 of the input view 210 at a particular time t is shown.

입력 뷰(210)에 기반하여 입력 뷰(210)보다 더 우측 시점에서의 뷰 외삽을 통해, 제1 외삽 뷰 및 제2 외삽 뷰가 생성된다.Based on the input view 210, a first extrapolated view and a second extrapolated view are generated through view extrapolation at the right viewpoint than the input view 210.

상기 특정 시각 t에서의 제1 외삽 뷰의 프레임(220) 및 제2 외삽 뷰의 프레임(230)이 입력 뷰(210)의 프레임(212)을 사용하여 생성된다.The frame 220 of the first extrapolated view and the frame 230 of the second extrapolated view at the specific time t are generated using the frame 212 of the input view 210.

입력 뷰(210)는 도 1의 피사체(210)를 촬영한 것이며, 입력 뷰(210)의 프레임(212)은 배경(214), 제1 객체(216) 및 제2 객체(218)로 구성된다.1 and the frame 212 of the input view 210 is composed of a background 214, a first object 216 and a second object 218 .

제1 외삽 뷰의 프레임(220)도 배경(224), 제1 객체(226) 및 제2 객체(228)로 구성된다. 또한, 제2 외삽 뷰의 프레임(230)은 배경(234), 제1 객체(236) 및 제2 객체(238)을 포함할 수 있다.The frame 220 of the first extrapolated view also comprises a background 224, a first object 226, and a second object 228. In addition, the frame 230 of the second extrapolated view may include a background 234, a first object 236, and a second object 238.

제1 외삽 뷰의 시점은 입력 뷰(210)의 시점보다 우측에 위치한다. 따라서, 제1 외삽 뷰의 프레임(220) 내의 배경(224), 제1 객체(226) 및 제2 객체(228)는 입력 뷰(210)의 프레임(212)에서보다 더 좌측에 위치한다.The viewpoint of the first extrapolated view is located to the right of the viewpoint of the input view 210. Thus, the background 224, first object 226, and second object 228 in the frame 220 of the first extrapolated view are located further to the left than in the frame 212 of the input view 210.

상기의 배경(224)이 얼만큼 더 좌측에 위치할 것인지는 입력 뷰(210)의 시점으로부터 배경(224)까지의 거리에 의존하며, 입력 뷰(210)의 시점 및 제1 외삽 뷰의 시점 간의 거리에 의존한다.How far the background 224 is to the left is dependent on the distance from the viewpoint of the input view 210 to the background 224 and the distance between the viewpoint of the input view 210 and the viewpoint of the first extrapolated view Lt; / RTI >

전술된 것과 같이, 배경(224) 전체가 좌측으로 이동하기 때문에, 제1 외삽 뷰의 프레임(220)은 입력 뷰(210)의 프레임(212)에 의해 적합하게 채워질 수 없는 프레임 경계 홀(244)을 갖는다. 경우에 따라, 배경(224)은 이동하지 않을 수 있다. 배경(224)이 이동하지 않는 경우, 프레임 경계 홀(244)은 생성되지 않는다.The frame 220 of the first extrapolated view is moved to the frame boundary hole 244 which can not be properly filled by the frame 212 of the input view 210, as the background 224 moves all the way to the left, Respectively. In some cases, the background 224 may not move. If the background 224 does not move, a frame boundary hole 244 is not created.

전경을 구성하는 객체들(226 및 228)은 배경(224)이 이동함에 따라 함께 이동한다. 또한 객체들(226 및 328)은 배경(224)보다 더 좌측으로 이동한다.The objects 226 and 228 constituting the foreground move together as the background 224 moves. Objects 226 and 328 also move to the left than background 224. [

상기의 객체들(226 및 228)이 배경(224)에 대비하여 얼만큼 더 좌측에 위치할 것인지는 입력 뷰(210)의 시점으로부터 객체들(226 및 228) 각각까지의 거리에 의존하며, 입력 뷰(210)의 시점 및 제1 외삽 뷰의 시점 간의 거리에 의존한다.How far those objects 226 and 228 are to the left relative to the background 224 depends on the distance from the viewpoint of the input view 210 to each of the objects 226 and 228, Lt; RTI ID = 0.0 > 210 < / RTI >

객체(226 및 228)가 배경(224)에 비해 더 좌측으로 이동하기 때문에, 제1 외삽 뷰의 프레임(220)은 입력 뷰(210)의 프레임(212)에 의해 적합하게 채워질 수 없는 객체 경계 홀(246 및 248)을 갖는다.Because the objects 226 and 228 move further to the left relative to the background 224, the frame 220 of the first extrapolated view may not be properly filled by the frame 212 of the input view 210, (246 and 248).

외삽 뷰를 생성하기 위해, 상기 프레임 경계 홀(244) 및 상기 객체 경계 홀(246 및 248)에는 적절한 픽셀이 외삽되어야 한다.To create an extrapolated view, appropriate pixels must be extrapolated in the frame boundary hole 244 and the object boundary holes 246 and 248.

제2 외삽 뷰의 프레임(230)도 프레임 경계 홀(254) 및 객체 경계 홀(256 및 258)을 갖는다.The frame 230 of the second extrapolated view also has a frame boundary hole 254 and object boundary holes 256 and 258.

제2 외삽 뷰의 시점은 제1 외삽 뷰의 시점에 비해, 입력 뷰(210)의 시점으로부터 더 멀리 떨어져 있다. 제2 외삽 뷰의 프레임(230) 내의 배경(234), 제1 객체(236) 및 제2 객체(238)는 각각 제1 외삽 뷰의 프레임(220) 내의 배경(224), 제1 객체(226) 및 제2 객체(228)에 비해 더 좌측에 위치한다.The viewpoint of the second extrapolated view is further away from the viewpoint of the input view 210 as compared to the viewpoint of the first extrapolated view. The background 234, the first object 236 and the second object 238 in the frame 230 of the second extrapolated view are respectively the background 224 in the frame 220 of the first extrapolated view, And the second object 228. The second object 228 and the second object 228 are located on the left side.

제2 외삽 뷰의 프레임(230) 내의 프레임 경계 홀(254) 및 객체 경계 홀(256 및 258)은 각각 제1 외삽 뷰의 프레임(220) 내의 프레임 경계 홀(244) 및 객체 경계 홀(246 및 248)보다 좌우로 더 넓다.The frame boundary hole 254 and the object boundary holes 256 and 258 in the frame 230 of the second extrapolation view are respectively the frame boundary hole 244 and the object boundary holes 246 and 248 in the frame 220 of the first extrapolated view, 248).

따라서, 제2 외삽 뷰의 프레임(230) 내의 프레임 경계 홀(254) 및 객체 경계 홀(256 및 258)에는 더 많은 픽셀이 외삽되어야 한다.Thus, more pixels need to be extrapolated in the frame boundary hole 254 and object boundary holes 256 and 258 in the frame 230 of the second extrapolated view.

즉, 외삽 뷰의 시점이 최외곽 입력 뷰로부터 더 멀어질수록, 외삽되어야 할 픽셀들의 범위도 더 넓어진다.That is, the farther the viewpoint of the extrapolated view is from the outermost view, the wider the range of pixels to be extrapolated.

프레임 경계 홀(244 및 254)과 객체 경계 홀(246, 248, 256 및 258)을 합하여 홀로 명명한다.The frame boundary holes 244 and 254 and the object boundary holes 246, 248, 256, and 258 are collectively named.

홀 영역들을 복원하기 위한 방법이 제공될 필요가 있다.
There is a need to provide a method for recovering hole areas.

도 3은 일 실시예에 따른 영상 처리 장치의 구조도이다.3 is a structural diagram of an image processing apparatus according to an embodiment.

영상 처리 장치(300)는 참조 뷰 영상 및 참조 뷰 영상의 양안시차 정보를 각각 사용하는 뷰 내삽 및 뷰 외삽를 통해 출력 뷰를 생성한다. 영상 처리 장치(300)는 출력 뷰 영상 내의, 뷰 내삽 및 뷰 외삽에 의해 발생한, 홀들을 복원한다.The image processing apparatus 300 generates an output view through view interpolation and view extrapolation using the binocular disparity information of the reference view image and the reference view image, respectively. The image processing apparatus 300 restores the holes generated by view interpolation and view extrapolation in the output view image.

출력 뷰 영상은 출력 뷰의 시점에서의 영상이다. 전술된 것처럼, 새로운 시점에서의 영상이 생성되면, 상기 새로운 시점에서 새롭게 관측되어야 할 지점이 영상 내의 홀로서 나타난다.The output view image is the image at the view point of the output view. As described above, when an image at a new viewpoint is generated, a point to be newly observed at the new viewpoint appears alone in the image.

영상 처리 장치(300)는 뷰 내삽 및 뷰 외삽 과정에서 발생하는 홀들을 복원할 수 있다.The image processing apparatus 300 may recover the holes generated in the view interpolation and the view extrapolation process.

영상 처리 장치(300)는 영상 와핑부(310), 완충 구간 설정부(320), 양안시차 크랙 검출부(330), 인접 영상 기반 홀 복원부(340), 인접 픽셀 스케일링 기반 홀 복원부(350) 및 최적 패치 탐색 기반 홀 복원부(360)를 포함할 수 있다.The image processing apparatus 300 includes an image and ping unit 310, a buffer interval setting unit 320, a binocular parallax crack detecting unit 330, an adjacent image-based hall restoring unit 340, an adjacent pixel scaling-based hole restoring unit 350, And an optimal patch search-based hole reconstructing unit 360.

우선, 영상 와핑부(310)를 설명한다.First, the image and the ping unit 310 will be described.

영상 와핑부(310)는 참조 뷰 영상 및 참조 뷰 영상의 양안시차 정보를 사용하는 이미지 와핑의 방식에 의해 출력 뷰의 영상을 생성한다. (즉, 영상 와핑부(310)는 참조 뷰의 프레임 및 참조 뷰의 프레임의 양안시차 정보를 사용하는 이미지 와핑에 의해 출력 뷰의 프레임을 생성한다.)영상 와핑부(310)는 참조 뷰 영상을 영상 와핑함으로써 출력 뷰의 영상을 생성할 수 있다. 예컨대, 참조 뷰 영상의 양안시차 정보가 제공되지 않는 경우, 영상 와핑부(310)는 참조 뷰 영상의 양안시차 정보를 생성할 수 있다.The image and ping unit 310 generates an image of the output view by a method of image warping using the binocular disparity information of the reference view image and the reference view image. (I.e., the image and the ping block 310 generate a frame of the output view by image warping using the frame of the reference view and the binocular disparity information of the frame of the reference view). The image and the ping block 310 generate the reference view image The image of the output view can be generated by image-waving. For example, when the binocular disparity information of the reference view image is not provided, the image and the ping unit 310 can generate binocular disparity information of the reference view image.

N 개의 입력 영상들(즉, N 개의 참조 뷰들의 영상들)이 에피폴라 선(epipolar line)을 기준으로 정렬되었다.N input images (i.e., images of N reference views) are aligned with respect to the epipolar line.

가상 시점의 뷰(즉, 출력 뷰)는 참조 뷰로부터 상기 가상 시점의 뷰까지 떨어진 거리에 비례하는 가중치를 사용함으로써 생성될 수 있다. 즉, 가상 시점의 뷰는 참조 뷰의 시점 및 가상 시점 간의 거리에 비례하는 가중치를 사용함으로써 생성될 수 있다.A view at a virtual viewpoint (i.e., an output view) can be generated by using a weight that is proportional to the distance from the reference view to the view of the virtual viewpoint. That is, the view at the virtual viewpoint can be generated by using a weight proportional to the distance between the viewpoint of the reference view and the virtual viewpoint.

출력 뷰 영상 내의 제1 픽셀의 y 좌표 값은 제1 픽셀에 대응하는 참조 뷰 영상 내의 제2 픽셀의 y 좌표 값과 동일할 수 있다. 즉, 픽셀의 y 좌표는 와핑에 의해서도 변경되지 않을 수 있다.The y coordinate value of the first pixel in the output view image may be equal to the y coordinate value of the second pixel in the reference view image corresponding to the first pixel. That is, the y coordinate of the pixel may not be changed by the warping.

출력 뷰(또는, 랜더된(rendered) 뷰) 영상 내의 제1 픽셀의 x 좌표는 하기의 수학식 1에 의해 계산될 수 있다.The x-coordinate of the first pixel in the output view (or a rendered view) image can be calculated by the following equation (1).

Figure 112011103418801-pat00001
Figure 112011103418801-pat00001

여기서, I reference view 는 참조 뷰(또는, 입력 뷰)의 영상(또는, 프레임)을 나타낸다. , I rendered view 는 출력 뷰(또는, 랜더된 뷰)의 영상(또는, 프레임)을 나타낸다.Here, I reference view represents the image (or frame) of the reference view (or input view). , And I rendered view represents the image (or frame) of the output view (or the rendered view ).

x는 참조 뷰 내의 제2 픽셀의 좌표 값(x 좌표 값)을 나타낸다. x represents the coordinate value ( x coordinate value) of the second pixel in the reference view.

x'는 출력 뷰 내의 제1 픽셀의 좌표 값(x 좌표 값)을 나타낸다. x ' represents the coordinate value ( x coordinate value) of the first pixel in the output view.

d는 영상의 깊이 정보 또는 픽셀의 깊이 정보로부터 도출된 제2 픽셀의 양안시차(disparity) 값이다. 일반적으로, 픽셀의 양안시차 값은 픽셀의 깊이 값에 반비례한다. 따라서, 전술된 깊이 및 깊이 정보에 대한 설명은 양안시차 및 양안시차 정보에도 적용될 수 있다. d is the binocular disparity value of the second pixel derived from the depth information of the image or the depth information of the pixel. In general, the binocular disparity value of a pixel is inversely proportional to the depth value of the pixel. Therefore, the description of the depth and depth information described above can be applied to binocular disparity and binocular disparity information.

α는 참조 뷰의 시점 및 출력 뷰의 시점 간의 거리에 비례하는 가중치 값이다.α is a weight value proportional to the distance between the viewpoint of the reference view and the viewpoint of the output view.

따라서, 전술된 수학식 1은 하기의 1) 내지 5)을 의미한다.Therefore, the above-mentioned equation (1) means the following 1) to 5).

1) 참조 뷰 내의 제2 픽셀은 와핑에 의해 αx 만큼 이동한다. 즉, 참조 뷰 영상 내의 제2 픽셀과 출력 뷰 내의 제1 픽셀이 서로 대응할 때, 제1 픽셀의 x 좌표 값은 제2 픽셀의 x 좌표 값에 αx를 더한 값이다. 1) The second pixel in the reference view is shifted by? X by warping. That is, when the first pixel in the second pixel and the output views in the reference view image correspond to each other, the x-coordinate value of the first pixel is a value obtained by adding an α x in the x-coordinate of the second pixel.

2) 양안시차 값이 큰 픽셀은, 와핑에 의해 많이 이동한다. 양안시차 값은 깊이 값에 반비례한다. 따라서, 깊이 값이 작은 픽셀은 깊이 값이 큰 픽셀보다 더 많이 이동한다.2) Pixels with large binocular parallax values move a lot by warping. The binocular disparity value is inversely proportional to the depth value. Therefore, a pixel having a small depth value moves more than a pixel having a large depth value.

객체는 참조 뷰의 시점으로부터 가깝고, 배경은 참조 뷰의 시점으로부터 멀다. 따라서, 참조 뷰 영상의 픽셀들 중 객체를 나타내는 픽셀은 배경을 나타내는 픽셀보다 더 많이 이동한다.The object is close to the viewpoint of the reference view, and the background is farther away from the viewpoint of the reference view. Therefore, among the pixels of the reference view image, the pixel representing the object moves more than the pixel representing the background.

깊이 값이 무한대인 픽셀(또는, 양안시차 값이 0인 픽셀)은 와핑에 의해서 이동하지 않을 수 있다.A pixel with a depth value of infinity (or a pixel with a binocular parallax value of 0) may not be moved by warping.

3) 참조 뷰의 시점 및 출력 뷰의 시점이 멀리 떨어질수록, 참조 뷰 내의 픽셀은 더 많이 이동한다.3) The farther the view of the reference view and the view of the output view are, the more the pixels in the reference view move.

영상 와핑부(310)는, 전술된 수학식 1에 기반한 와핑 외에도, 다양한 와핑 방법을 사용하여 출력 뷰의 영상을 생성할 수 있다.In addition to the warping based on Equation (1) described above, the image and ping unit 310 can generate images of the output view using various warping methods.

4) 제1 픽셀의 양안시차 값(또는, 깊이 값)은 제2 픽셀의 양안시차 값(또는, 깊이 값)이다.4) The binocular parallax value (or depth value) of the first pixel is the binocular parallax value (or depth value) of the second pixel.

5) 참조 뷰 영상 내의 하나 이상의 픽셀들이 출력 뷰 내의 동일한 좌표로 이동될 수 있다. 이러한 경우, 하나 이상의 픽셀들 중 가장 출력 뷰의 시점과 가까운 픽셀이 우선적으로 표시될 수 있다.5) One or more pixels in the reference view image may be moved to the same coordinates in the output view. In this case, a pixel closest to the viewpoint of the output view among the one or more pixels may be preferentially displayed.

다음으로, 완충 구간 설정부(320)를 설명한다.Next, the buffer section setting section 320 will be described.

완충 구간 설정부(320)는 영상 와핑에 의해 생성된 홀을 확대한다.The buffer period setting unit 320 enlarges the hole generated by the image overwriting.

완충 구간 설정부(320)에 의한 홀 확대가 도 5를 참조하여 하기에서 상세히 설명된다.The hole enlargement by the buffer period setting unit 320 will be described in detail below with reference to FIG.

다음으로, 양안시차 크랙 검출부(330)를 설명한다.Next, the binocular parallax crack detector 330 will be described.

양안시차 크랙 검출부(330)은 생성된 출력 뷰의 영상 중 크랙을 홀로 설정한다.The binocular parallax crack detector 330 sets a crack in the generated output view image alone.

양안시차 크랙 검출부(320)에 의한 홀 설정이 도 6을 참조하여 하기에서 상세히 설명된다.The hole setting by the binocular parallax crack detector 320 is described in detail below with reference to Fig.

다음으로, 인접 영상 기반 홀 복원부(340)를 설명한다.Next, the adjacent image-based hall restoration unit 340 will be described.

인접 영상 기반 홀 복원부(340)는 영상 와핑에 의해 생성된 홀을 복원한다. 인접 영상 기반 홀 복원부(340)에 의한 홀 복원이 도 4를 참조하여 하기에서 상세히 설명된다.The adjacent image-based hall restoration unit 340 restores the hall generated by the image watermarking. The restoration of holes by the adjacent image-based hall restoration unit 340 will be described in detail below with reference to FIG.

다음으로, 인접 픽셀 스케일링 기반 홀 복원부(350)를 설명한다.Next, the adjacent pixel scaling-based hole restoration unit 350 will be described.

인접 픽셀 스케일링 기반 홀 복원부(350)는 영상 와핑에 의해 생성된 홀을 상기 홀과 인접한 하나 이상의 픽셀들을 스케일링함으로써 복원한다.The adjacent pixel scaling-based hole reconstructing unit 350 reconstructs holes generated by image overwriting by scaling one or more pixels adjacent to the holes.

인접 픽셀 스케일링 기반 홀 복원부(350)에 의한 인접 배경 스케일링이 도 7 내지 도 9를 참조하여 하기에서 상세히 설명된다.Adjacent background scaling by the adjacent pixel scaling-based hole restoration unit 350 will be described in detail below with reference to Figs. 7 to 9.

다음으로, 최적 패치 탐색 기반 홀 복원부(360)를 설명한다.Next, the optimal patch search-based hole reconstruction unit 360 will be described.

최적 패치 탐색 기반 홀 복원부(360)는 상기 영상 와핑에 의해 생성된 홀이 포함되는 영역과 가장 유사한 패치를 배경으로부터 탐색하고, 상기 탐색된 패치를 사용함으로써 홀을 복원한다.The optimal patch search-based hole restoration unit 360 searches for a patch most similar to the area including holes generated by the image watermarking from the background, and restores the hole by using the detected patch.

최적 패치 탐색 기반 홀 복원부(360)에 의한 최적 패치 탐색 및 홀 복원이 도 10을 참조하여 하기에서 상세히 설명된다.The optimal patch search and hole restoration by the optimal patch search-based hole restoration unit 360 will be described in detail below with reference to FIG.

인접 영상 기반 홀 복원부(340)에 의해 홀의 일부가 복원된 뒤, 상기 홀의 남은 일부 또는 일부들이 인접 픽셀 스케일링 기반 홀 복원부(350) 및 최적 패치 탐색 기반 홀 복원부(360)에 의해 복원될 수 있다.After the hole is restored by the adjacent image-based hole restoration unit 340, a part or a part of the hole is restored by the adjacent pixel scaling-based hole restoration unit 350 and the optimal patch search-based hole restoration unit 360 .

인접 픽셀 스케일링 기반 홀 복원부(350) 및 최적 패치 탐색 기반 홀 복원부(360)는 출력 뷰 영상의 배경 픽셀을 이용함으로써 남은 홀을 복원할 수 있다.The adjacent pixel scaling-based hole restoration unit 350 and the optimal patch search-based hole restoration unit 360 can restore the remaining holes by using the background pixels of the output view image.

홀에 인접한 영역의 특성에 따라, 어떠한 방식으로 홀이 복원될지가 결정될 수 있다.Depending on the characteristics of the area adjacent to the hole, it can be determined how the hole will be restored.

예컨대, 홀에 인접한 영역이 텍스처(texture) 영역일 경우에는 최적 패치 탐색 기반 홀 복원부(360)가 홀을 복원할 수 있다. 홀에 인접한 영역이 텍스처(texture) 영역이 아닌 경우 일 경우에는 인접 픽셀 스케일링 기반 홀 복원부(350)가 홀을 복원할 수 있다. 인접 픽셀 스케일링 기반 홀 복원부(350)는 배경 화소들을 스케일링하기 때문에, 상기 스케일링에 의해 텍스처가 손상될 수 있다.For example, if the area adjacent to the hole is a texture area, the optimal patch search-based hole reconstruction unit 360 can reconstruct the hole. If the area adjacent to the hole is not a texture area, the adjacent pixel scaling-based hole restoration unit 350 can restore the hole. Since the adjacent pixel scaling-based hole restoration unit 350 scales the background pixels, the texture may be damaged by the scaling.

즉, 홀에 인접한 영역이 균일(uniform)하거나 홀에 인접한 영역에서 강한 모서리(edge)가 나타나는 경우, 배경 픽셀을 스케일링 함으로써 홀 영역이 복원될 수 있다. 이러한 복원으로 인해, 복원된 홀 영역에서도 인접한 영역(즉, 배경)의 특성이 유지될 수 있다.That is, if the area adjacent to the hole is uniform or strong edge appears in the area adjacent to the hole, the hole area can be restored by scaling the background pixel. Due to this restoration, the characteristics of the adjacent area (i.e., background) can be maintained even in the reconstructed hole area.

또한, 홀에 인접한 영역이 텍스처 영역인 경우, 참조 뷰 영상 내의 배경 영역에서 상기의 인접한 영역과 가장 유사한 영역이 검출된다. 상기의 검출된 영역을 사용하여 홀 영역이 복원된다. 이러한 복원으로 인해, 복원된 홀 영역에서도 텍스처 성분이 잘 유지될 수 있다.
Also, when the area adjacent to the hole is a texture area, a region closest to the adjacent area is detected in the background area in the reference view image. The hole area is recovered using the detected area. Due to this restoration, texture components can be well maintained even in the restored hole area.

도 4는 일 예에 따른 영상 와핑과 관련된 영상에 시간적으로 인접한 영상들을 사용한 홀의 복원을 설명한다.FIG. 4 illustrates restoration of a hole using images temporally adjacent to an image related to image warping according to an example.

영상 와핑에 사용된 참조 뷰 영상(또는, 프레임)은 참조 뷰 영상 내의 일련의 영상들(또는, 프레임들) 중 특정 시각 t의 영상(또는, 프레임)이다. 특정 시각 t의 영상을, 하기에서 "영상(t)" 또는 현재 영상으로 명명한다. 여기서, 영상은 참조 뷰 영상 또는 출력 뷰 영상일 수 있다. 특정 시각 t의 프레임은 "프레임(t)" 또는 현재 프레임으로 명명한다. 또한, 특정 시각 t-1의 프레임은 "프레임(t-1)" 또는 이전 프레임으로 명명한다. 특정 시각 t+1의 프레임은 "프레임(t+1)" 또는 다음 프레임으로 명명한다.The reference view image (or frame) used in image watermarking is an image (or frame) at a specific time t in the series of images (or frames) in the reference view image. The image at a specific time t is referred to as " image (t) " Here, the image may be a reference view image or an output view image. The frame at a specific time t is named " frame (t) " or the current frame. Further, the frame at the specific time t-1 is referred to as " frame (t-1) " The frame at a specific time t + 1 is referred to as " frame (t + 1) " or the next frame.

도 4에서, 출력 뷰 프레임(t)(440)은 홀(442)을 포함한다. 출력 뷰 프레임(t)(440)은 참조 뷰 프레임(t)(430)를 사용하는 와핑에 의해 생성된다.In Figure 4, the output view frame (t) 440 includes a hole 442. Output view frame (t) 440 is generated by warping using a reference view frame (t) 430.

일반적으로, 영상(t)와 시간적으로 인접한 영상들(예컨대, 영상(t-1), 영상(t+1), 영상(t-2) 및 영상(t+2) 등)은 상기 영상(t)가 나타내는 전경(또는, 객체) 및 배경과 동일 또는 유사한 전경 및 배경을 나타낼 수 있다. 따라서, 참조 뷰 영상 또는 출력 뷰 영상과 시간적으로 인접한 영상들의 정보를 사용함으로써 영상 와핑에 의해 생성된 홀이 복원될 수 있다.In general, images temporally adjacent to the image t (e.g., image t-1, image t + 1, image t-2, and image t + 2) (Or an object) indicated by the foreground and the foreground and background that are the same as or similar to the background. Therefore, by using information of images temporally adjacent to the reference view image or the output view image, holes generated by image watermarking can be restored.

도 4에서 전경에 대응하는 객체는 위에서 아래로 이동한다. 따라서, 참조 뷰 프레임(t)(430)에서 객체에 가려진 배경에 대응하는 부분(412)이 참조 뷰 프레임(t-1)에서는 드러날 수 있다. 또한, 참조 뷰 프레임(t+1)(450)의 부분(452), 출력 뷰 프레임(t-1)(420)의 부분(422) 및 출력 뷰 프레임(t+1)(460)의 부분(462) 또한 참조 뷰 프레임(t)(430)에서 객체에 가려진 배경에 대응한다. 따라서, 부분들(412, 422, 452 및 462)이 홀(442)을 복원하기 위해 사용될 수 있다. 인접 영상 기반 홀 복원부(340)는 하기의 수학식 2에 기반하여 출력 뷰의 영상(t)의 홀을 복원할 수 있다. 수학식 2는 출력 뷰의 프레임과 시간적으로 인접한 프레임들을 사용하여 상기 프레임 내의 홀을 복원하는 방법을 설명한다.In Fig. 4, the object corresponding to the foreground moves from top to bottom. Thus, the portion 412 corresponding to the background obscured by the object in the reference view frame t 430 may be revealed in the reference view frame t-1. Also, the portion 452 of the reference view frame t + 1 450, the portion 422 of the output view frame t-1 420 and the portion 422 of the output view frame t + 462 also correspond to the background obscured by the object in the reference view frame (t) Accordingly, portions 412, 422, 452, and 462 may be used to restore hole 442. [ The adjacent image-based hall reconstruction unit 340 may reconstruct a hole of the image t of the output view based on Equation (2). Equation (2) describes a method of restoring a hole in the frame using frames temporally adjacent to the frame of the output view.

Figure 112011103418801-pat00002
Figure 112011103418801-pat00002

여기서, f t 는 출력 뷰 프레임(t)(440)을 나타낸다. 즉, f t 는 시각 t에서 와핑에 의해 생성된 프레임을 나타낸다.Here, f t represents the output view frame (t) 440. That is, f t represents a frame generated by warping at time t.

f t (i, j)는 출력 뷰 프레임(t))(440)의 픽셀들 중, 좌표 값이 (i, j)인 픽셀의 컬러 값을 나타낸다. 여기서, 출력 뷰 프레임(t)(440)에서, 좌표 값이 (i, j)인 픽셀은 홀(442) 내의 픽셀이다. 좌표 값이 (i, j)인 픽셀을 이하 "픽셀(i, j)"로 표시한다. f t ( i , j ) represents the color value of the pixel whose coordinate value is ( i , j ) among the pixels of the output view frame t 440. Here, in the output view frame (t) 440, a pixel whose coordinate value is ( i , j ) is a pixel in the hole 442. A pixel whose coordinate value is ( i , j ) is hereinafter referred to as " pixel ( i , j ) ".

f t- 1는 출력 뷰 프레임(t)(440)의 이전 프레임(즉, 출력 뷰 프레임(t-1)(420))을 나타낸다. f t +1는 출력 뷰 프레임(t)(440)의 다음 프레임(즉, 출력 뷰 프레임(t+1)(460))을 나타낸다. f t- 1 represents the previous frame of the output view frame (t) 440 (i.e., the output view frame (t-1) 420). f t +1 represents the next frame of the output view frame (t) 440 (i.e., the output view frame (t + 1) 460).

f t- 1는 출력 뷰 프레임(t-1)(420)을 나타낸다. 또한, f t +1는 출력 뷰 프레임(t+1)(460)을 나타낸다. f t - 1 represents the output view frame (t-1) 420. In addition, f t +1 indicates the output view frame (t + 1) 460.

즉, 인접 영상 기반 홀 복원부(340)는 출력 뷰 프레임(t)(440)에 시간적으로 인접한 출력 뷰 프레임들을 사용하여 영상 와핑에 의해 생성된 홀을 복원할 수 있다.α t- 1은 출력 뷰 프레임(t-1)(420)의 픽셀(i, j)이 출력 뷰 프레임(t)(440)의 픽셀(i, j)을 복원하기 위해 사용될 것인지 여부를 결정하는 계수이다. α t- 1은 0 또는 1의 값을 가질 수 있다. α t- 1가 0일 경우, 출력 뷰 프레임(t-1)(420)의 픽셀(i, j)은 출력 뷰 프레임(t)(440)의 픽셀(i, j)을 복원하기 위해 사용되지 않는다. That is, the adjacent images based hole recovery unit 340 may use a temporally adjacent in the output frame in the output view of the view frame (t) (440) restores the hole created by the image warping .α t- 1 is output Is a coefficient that determines whether pixel ( i , j ) of view frame (t-1) 420 is to be used to recover pixel ( i , j ) of output view frame (t) 440. alpha t- 1 may have a value of 0 or 1. t- α 1 is 0, the pixel (i, j) of an output view, frame (t-1) (420) is not used to restore the pixel (i, j) of an output view, frame (t) (440) Do not.

α t +1은 출력 뷰 프레임(t+1)(460)의 픽셀(i, j)이 출력 뷰 프레임(t)(440)의 픽셀(i, j)을 복원하기 위해 사용될 것인지 여부를 결정하는 계수이다. α t +1은 0 또는 1의 값을 가질 수 있다. α t +1가 0일 경우, 출력 뷰 프레임(t+1)(460)의 픽셀(i, j)은 출력 뷰 프레임(t)(440)의 픽셀(i, j)을 복원하기 위해 사용되지 않는다.α t +1 is used to determine whether to restore the pixel (i, j) of an output view, frame (t + 1) (460) a pixel (i, j) is an output view frame (t) (440) of Coefficient. ? t +1 may have a value of 0 or 1. If α +1 t is 0, the pixel (i, j) of an output view, frame (t + 1) (460) is not used to restore the pixel (i, j) of an output view, frame (t) (440) Do not.

α t- 1 및 α t +1가 모두 1인 경우, 출력 뷰 프레임(t-1)(420)의 픽셀(i, j)의 컬러 값 및 출력 뷰 프레임(t+1)(460)의 픽셀(i, j)의 컬러 값의 평균 값이 출력 뷰 프레임(t)(440)의 픽셀(i, j)의 컬러 값이 된다. α t- 1가 0이고, α t +1는 1인 경우, 출력 프레임(t)(440)의 픽셀(i, j)의 컬러 값은 출력 뷰 프레임(t+1)(460)의 픽셀(i, j)의 컬러 값이다. α t- 1가 1이고, α t +1는 0인 경우, 출력 뷰 프레임(t)(440)의 픽셀(i, j)의 컬러 값은 출력 뷰 프레임(t-1)(420)의 픽셀(i, j)의 컬러 값이다.If t- α 1 and α t +1 are both 1, the pixels in the output view frame (t-1) color value of the pixel (i, j) of the section 420 and outputs the view frame (t + 1) (460) the average value of the color values of ( i , j ) becomes the color value of the pixel ( i , j ) of the output view frame (t) 440. α t- when 1 is 0, and the α t +1 is 1, the output frame (t) color value of the pixel (i, j) of 440 pixels in the output view of frame (t + 1) (460) ( i , j ). t-, and α 1 is 1, α t +1 if 0, the pixels in the output view frame (t) color value of the pixel (i, j) of the 440 output the view frame (t-1) (420) ( i , j ).

여기서, 홀을 복원하기 위해 사용되는 픽셀들은 배경에 포함되는 픽셀들로 간주될 수 있다. 일반적으로, 배경은 와핑에 의해서 위치가 변경되지 않는다. 예컨대, 참조 뷰 프레임(t-1)(410)의 부분(412) 및 출력 뷰 프레임(t-1)(420)의 부분(422)은 각각 프레임 내에서의 위치 및 컬러가 동일할 수 있다. 즉, 배경에 포함되는 제1 픽셀의 참조 뷰 프레임 내에서의 좌표 및 상기의 제1 픽셀에 대응하는 제2 픽셀의 출력 뷰 프레임 내에서의 좌표는 동일하다.Here, the pixels used for restoring the holes may be regarded as pixels included in the background. In general, the background is not changed in position by warping. For example, the portion 412 of the reference view frame t-1 410 and the portion 422 of the output view frame t-1 420 may each have the same position and color in the frame. That is, the coordinates of the first pixel included in the background in the reference view frame and the coordinates of the second pixel corresponding to the first pixel in the output view frame are the same.

따라서, 인접 영상 기반 홀 복원부(340)는 출력 뷰 프레임(t)(440)에 시간적으로 인접한 참조 뷰 프레임들을 사용하여 영상 와핑에 의해 생성된 홀을 복원할 수 있다. 즉, 수학식 2의 f t- 1은 참조 뷰 프레임(t-1)(410)을 나타내는 f' t- 1로 대체될 수 있고, f t +1은 참조 뷰 프레임(t+1)(450)을 나타내는 f' t +1로 대체될 수 있다,Accordingly, the adjacent image-based hall reconstructing unit 340 may reconstruct the hall generated by image overwriting using temporally adjacent reference view frames in the output view frame (t) 440. [ That is, f t- 1 in Equation 2 may be replaced by f ' t- 1 representing the reference view frame t-1 410 and f t +1 may be replaced with reference view frame t + 1 450 ) represents a can be replaced by f 't +1,

전술된 것처럼, 영상 와핑에 의해 생성된 출력 뷰 프레임 내의 홀을 복원하기 위해 상기의 출력 뷰 프레임과 시간적으로 인접한 참조 뷰 내의 프레임 또는 출력 뷰 내의 다른 프레임이 사용될 수 있다. 또한, 프레임이 포함하는 정보 전체가 아닌 프레임이 나타내는 영상을 사용하여 홀을 복원하는 것이 가능하다.As described above, other frames within the output view or frames within the reference view that are temporally adjacent to the output view frame may be used to recover the holes in the output view frame generated by the image watermarking. In addition, it is possible to reconstruct a hole using an image represented by a frame other than the entire information included in the frame.

즉, 인접 영상 기반 홀 복원부(340)는 영상 와핑과 관련된 영상에 시간적으로 인접한 영상을 사용하여 영상 와핑에 의해 생성된 출력 뷰의 영상 내의 홀을 복원할 수 있다. 여기서, 영상 와핑에 관련된 영상은 참조 뷰 영상 및 출력 뷰 영상 중 하나 이상을 의미할 수 있다. 상기의 시간적으로 인접한 영상은 참조 뷰 영상에 시간적으로 인접한 영상을 의미할 수 있다. 또한, 상기의 시간적으로 인접한 영상은 출력 뷰 영상에 시간적으로 인접한 영상을 의미할 수 있다.That is, the adjacent image-based hall reconstruction unit 340 may reconstruct a hole in an image of an output view generated by image warping using an image temporally adjacent to the image related to the image warping. Here, the image related to the image watermarking may mean one or more of the reference view image and the output view image. The temporally adjacent images may refer to temporally adjacent images in the reference view image. In addition, the temporally adjacent images may refer to images temporally adjacent to the output view image.

영상 와핑에 의해 출력 뷰 영상이 생성된다. 따라서, 인접 영상 기반 홀 복원부(340)는 출력 뷰 영상의 생성에 관련된 영상에 시간적으로 인접한 영상을 사용하여 영상 와핑에 의해 생성된 홀을 복원할 수 있다. 여기서, 출력 뷰 영상의 생성에 관련된 영상은 참조 뷰 영상 및 출력 뷰 영상 중 하나 이상을 의미할 수 있다.
An output view image is generated by image overwriting. Therefore, the adjacent image-based hall reconstructing unit 340 can reconstruct the hall generated by the image watermarking using the image temporally adjacent to the image related to the generation of the output view image. Here, the image related to generation of the output view image may mean one or more of the reference view image and the output view image.

수학식 2에 따르면, 인접 영상 기반 홀 복원부(340)는 홀(442)을 복원하기 위해 출력 뷰 프레임(t)(440)의 직전 출력 뷰 프레임(즉, 출력 뷰 프레임(t-1)(420)) 및 직후 출력 뷰 프레임(즉, 출력 뷰 프레임(t+1)(460))을 사용하였다. 그러나, 출력 뷰 프레임(t)(420)(또는, 참조 뷰 프레임(t)(410))와 시간적으로 인접한 미리 지정된 개수의 출력 뷰 프레임들(또는, 참조 뷰 프레임들)이 출력 뷰 프레임(t)(420)의 홀을 복원하기 위해 사용될 수 있다. 여기서, 프레임은 영상으로 대체될 수 있다.According to Equation (2), the adjacent image-based hall reconstruction unit 340 reconstructs the previous output view frame (i.e., the output view frame t-1) of the output view frame t 440 420) and the immediately following output view frame (i.e., the output view frame (t + 1) 460). However, a predetermined number of output view frames (or reference view frames) that are temporally adjacent to the output view frame t 420 (or the reference view frame t 410) May be used to restore the holes of the first electrode 420. Here, the frame can be replaced with an image.

출력 뷰 영상(t)가 생성될 때에는, 시각 t 이후의 출력 뷰 영상(또는, 참조 뷰 영상)(예컨대, 출력 뷰 영상(t+1))이 가용하지 않을 수 있다. 이러한 경우, 인접 영상 기반 홀 복원부(340)는 출력 뷰(또는, 참조 뷰)의 영상(t-3), 영상(t-2) 및 영상(t-1)을 사용하여 영상 와핑에 의해 생성된 홀을 복원할 수 있다.When the output view image t is generated, the output view image (or the reference view image) after the time t (e.g., the output view image t + 1) may not be available. In this case, the adjacent image-based hall reconstruction unit 340 reconstructs the neighbor image based on the image (t-3), the image (t-2), and the image Holes can be restored.

시간적으로 인접한 영상들의 개수는 영상 처리 장치(300)의 저장 용량, 참조 뷰 영상의 복잡도 및 출력 뷰 영상의 복잡도 등에 기반하여 동적으로 변경될 수 있다.
The number of temporally adjacent images can be dynamically changed based on the storage capacity of the image processing apparatus 300, the complexity of the reference view image, and the complexity of the output view image.

수학식 2에서는, 프레임(t)의 픽셀과 동일한 좌표 값을 갖는 픽셀들을 사용하여 프레임(t)의 픽셀의 컬러 값을 복원하였다. 그러나, 전술된 복원은 일련의 영상들이 시간에 따라 전체적으로 이동하지 않았음을 전제로 한다. (즉, 영상의 배경은 전혀 또는 거의 움직이지 않음.)In Equation (2), the color value of the pixel of the frame (t) is restored by using pixels having the same coordinate value as the pixel of the frame (t). However, the above restoration presupposes that a series of images have not moved as a whole over time. (Ie, the background of the image does not move at all or very little).

시간에 따라 영상들이 전체적으로 이동한 경우, 출력 뷰 프레임(t)(440)의 픽셀의 컬러 값을 복원하기 위해, 이러한 이동이 고려되어야 한다.In order to recover the color values of the pixels of the output view frame (t) 440 when the images have moved entirely over time, this shift must be considered.

예컨대, 출력 뷰 프레임(t)(440)이 출력 뷰 프레임(t-1)(420)(또는, 출력 뷰 프레임(t)(410))에 비해 전체적으로 좌측으로 한 픽셀만큼 이동한 경우, 출력 뷰 프레임(t)(440)의 픽셀(i, j)의 컬러 값을 설정하기 위해서는, 출력 뷰 프레임(t-1)(440) (또는, 참조 뷰 프레임(t)(410))의 픽셀(i+1, j)의 컬러 값이 사용되어야 한다.For example, if the output view frame (t) 440 has moved by one pixel to the left as a whole relative to the output view frame (t-1) 420 (or output view frame (t) a frame (t) of pixels in order to set the color value of the pixel (i, j) of 440, an output view, frame (t-1) 440 (or, the reference view frame (t) (410)) (i +1, j ) must be used.

즉, 인접 영상 기반 홀 복원부(340)는 출력 뷰 영상(t)의 홀 내의 제1 픽셀을 복원하기 위해, 출력 뷰 영상(t)와 인접한 출력 뷰 영상들 내의 상기 제1 픽셀에 대응하는 픽셀들의 컬러 값을 사용할 수 있다. 또는, 인접 영상 기반 홀 복원부(340)는 출력 뷰 영상(t)의 홀 내의 제1 픽셀을 복원하기 위해, 참조 뷰 영상(t)와 인접한 참조 뷰 영상들 내의 상기 제1 픽셀에 대응하는 픽셀들의 컬러 값을 사용할 수 있다.That is, the adjacent image-based hall reconstructing unit 340 reconstructs the adjacent pixels of the output view image t in order to reconstruct the first pixel in the hole of the output view image t, Can be used. Alternatively, the adjacent image-based hall reconstructing unit 340 may reconstruct the original image of the pixel corresponding to the first pixel in the reference view images adjacent to the reference view image t to reconstruct the first pixel in the hole of the output view image t, Can be used.

또한, 인접 영상 기반 홀 복원부(340)는, 참조 뷰 영상(t) 및 참조 뷰 영상(t)에 시간적으로 인접한 영상들이 시간에 따라 전체적으로 이동한 경우, 상기 이동에 기반하여 참조 뷰 영상(t)(또는, 출력 뷰 영상(t))와 인접한 참조 뷰 영상들(또는, 출력 뷰 영상들) 내에서 제1 픽셀에 대응하는 픽셀들을 선택할 수 있다.
If the temporally adjacent images of the reference view image t and the reference view image t are moved in time as a whole, the adjacent image-based hall reconstructing unit 340 reconstructs the reference view image t (Or the output view image t) and neighboring reference view images (or output view images) corresponding to the first pixel.

인접 영상 기반 홀 복원부(340)는 하기의 수학식 3에 기반하여 계수 α를 결정할 수 있다.The adjacent image-based hall restoration unit 340 may determine the coefficient alpha based on Equation (3) below.

Figure 112011103418801-pat00003
Figure 112011103418801-pat00003

D(f t (i, j))는 출력 뷰 프레임(t)(420)의 픽셀(i, j)의 양안시차 값이다. Th는 미리 정의된 임계 값이다. 따라서, α t 의 값은 f t (i, j)가 홀 픽셀이 아니고, f t (i, j)의 양안시차 값이 미리 정의된 임계 값일 경우에는 1이고, 그렇지 않은 경우에는 0이다. D (f t (i, j)) is a binocular disparity value of the pixel (i, j) of an output view, frame (t) (420). Th is a predefined threshold. Thus, the value of α t is 1 if f t ( i , j ) is not a hole pixel and the binocular parallax value of f t ( i , j ) is a predefined threshold value, otherwise it is zero.

우선, f t (i, j)가 홀을 나타내는 홀 픽셀인지 여부가 판단될 수 있다.First, it can be determined whether or not f t ( i , j ) is a hole pixel representing a hole.

f t (i, j)가 홀 픽셀인 경우, f t (i, j)의 컬러 값은 존재하지 않거나, 잘못된(invalid) 값이다. 따라서, f t (i, j)의 컬러 값은 출력 뷰 영상 내의 홀을 복원하기 위해 사용될 수 없다. 따라서, α t 의 값은 0이 된다. If f t ( i , j ) is an odd pixel, the color value of f t ( i , j ) does not exist or is an invalid value. Thus, the color value of f t ( i , j ) can not be used to reconstruct the hole in the output view image. Therefore, the value of? T becomes zero.

즉, 인접 영상 기반 홀 복원부(340)는 참조 뷰 영상(t)와 인접한 참조 뷰 영상들 내의 상기 제1 픽셀에 대응하는 픽셀들 중 홀 픽셀이 아닌 픽셀만을 출력 뷰 영상(t) 내의 홀을 복원하기 위해 사용할 수 있다. 또한, 인접 영상 기반 홀 복원부(340)는 출력 뷰 영상(t)와 인접한 출력 뷰 영상들 내의 상기 제1 픽셀에 대응하는 픽셀들 중 홀 픽셀이 아닌 픽셀만을 출력 뷰 영상(t) 내의 홀을 복원하기 위해 사용할 수 있다.That is, the adjacent image-based hall reconstructing unit 340 reconstructs only the non-hall pixel among the pixels corresponding to the first pixel in the reference view image t adjacent to the reference view image t, Can be used to restore. In addition, the adjacent image-based hall reconstructing unit 340 reconstructs only the pixels in the output view image t that are not the hole pixels among the pixels corresponding to the first pixel in the output view image t, Can be used to restore.

다음으로, f t (i, j)가 홀 픽셀이 아닌 경우, f t (i, j)이 전경을 나타내는 픽셀인지 또는 배경을 나타내는 픽셀인지 여부가 판단될 수 있다.Next, when f t ( i , j ) is not an odd pixel, it can be determined whether f t ( i , j ) is a pixel representing a foreground or a pixel representing a background.

멀티-뷰 렌더링에 의해 발생하는 홀은, 참조 뷰 영상에서는 전경에 가려서 보이지 않던 배경의 일부가 와핑에 의해 생성된 출력 뷰 영상에서 나타난 것이다. 또는, 홀은 상기의 배경의 일부를 포함할 수 있다.The holes generated by the multi-view rendering appear in the output view image generated by warping a part of the background that was hidden in the foreground in the reference view image. Alternatively, the hole may comprise a part of the above background.

따라서, f t (i, j)가 배경을 나타내는 배경 픽셀인 경우에만 f t (i, j)가 출력 뷰 영상 내의 홀을 복윈하기 위해 사용될 수 있다.Therefore, f t ( i , j ) can be used to win holes in the output view image only if f t ( i , j ) is a background pixel representing the background.

즉, 인접 영상 기반 홀 복원부(340)는 참조 뷰 영상(t)와 시간적으로 인접한 참조 뷰 영상들 내의 상기 제1 픽셀에 대응하는 픽셀들 중 배경 픽셀만을 출력 뷰 영상(t) 내의 홀을 복원하기 위해 사용할 수 있다. 또한, 인접 영상 기반 홀 복원부(340)는 출력 뷰 영상(t)와 시간적으로 인접한 출력 뷰 영상들 내의 상기 제1 픽셀에 대응하는 픽셀들 중 배경 픽셀만을 출력 뷰 영상(t) 내의 홀을 복원하기 위해 사용할 수 있다.That is, the adjacent image-based hall reconstructing unit 340 reconstructs only the background pixels among the pixels corresponding to the first pixels in the reference view images temporally adjacent to the reference view image t, Can be used to. In addition, the adjacent image-based hall restoration unit 340 restores only the background pixels among the pixels corresponding to the first pixels in the output view images temporally adjacent to the output view image t, Can be used to.

f t (i, j)이 전경을 나타내는 전경 픽셀인지 또는 배경을 나타내는 배경 픽셀인지 여부는, f t (i, j)의 양안시차 값에 기반하여 결정될 수 있다.Whether f t ( i , j ) is a foreground pixel representing the foreground or a background pixel representing the background can be determined based on the binocular disparity value of f t ( i , j ).

일반적으로, 전경을 나타내는 픽셀은 배경을 나타내는 픽셀보다 더 큰 양안시차 값을 갖는다.In general, a pixel representing a foreground has a binocular parallax value larger than a pixel representing a background.

따라서, f t (i, j)의 양안시차 값이 기준 값 Th보다 작은 경우, 인접 영상 기반 홀 복원부(340)는 f t (i, j)를 배경 픽셀로 간주할 수 있고, f t (i, j)를 홀을 복원하기 위해 사용할 수 있다.
Thus, f t If the binocular parallax value of the (i, j) is smaller than the reference value Th, the adjacent images based hole recovery unit 340 may be considered a (i, j) f t a background pixel, f t ( i , j ) can be used to reconstruct the hole.

도 5는 일 예에 따른 완충 구간 설정에 의한 홀 확대를 설명한다.FIG. 5 illustrates hole enlargement by setting a buffer interval according to an example.

도 5에서 출력 뷰 영상(510) 및 완충 영역(522 및 524)이 표시된 출력 뷰 영상(520)이 도시되었다.An output view image 510 in which an output view image 510 and buffer regions 522 and 524 are displayed in FIG. 5 is shown.

멀티-뷰 렌더링에서 사용되는 픽셀의 양안시차 값은, 픽셀의 물리적인 깊이 값을 변환함으로써 획득될 수 있다. 또한, 픽셀의 양안시차 값은 참조 영상을 사용하는 추정에 의해 결정될 수 있다.The binocular disparity value of a pixel used in multi-view rendering can be obtained by converting the physical depth value of the pixel. Further, the binocular disparity value of the pixel can be determined by an estimation using a reference image.

픽셀의 양안시차 값은 (특히, 추정에 의해 획득된 경우) 매칭(matching) 오류 등에 의해 잘못된 값을 가질 수 있다.The binocular disparity value of the pixel may have a wrong value due to a matching error or the like (especially if it is obtained by estimation).

픽셀의 양안시차 값이 잘못된 경우, 출력 뷰 영상(510)의 객체 및 배경간의 경계는 양안시차 영상의 객체 및 배경간의 경계와 불일치할 수 있다.If the binocular disparity value of the pixel is incorrect, the boundary between the object and the background of the output view image 510 may be inconsistent with the boundary between the object and the background of the binocular parallax image.

출력 뷰 영상(510)의 홀 영역(512)의 좌측에 있는 픽셀들은, 전술된 불일치로 인해, 전경을 나타내는 픽셀임에도 불구하고, 배경을 나타내는 컬러 값을 갖는다.The pixels on the left side of the hole area 512 of the output view image 510 have a color value indicating the background, despite the pixels representing the foreground due to the above-mentioned inconsistency.

이러한 문제를 고려하여, 특히 추정된 양안시차 값이 사용될 경우, 홀에 인접한 영역이 완충 영역으로서 설정될 필요가 있다.In consideration of such a problem, in particular, when the estimated binocular disparity value is used, the area adjacent to the hole needs to be set as a buffer area.

따라서, 완충 구간 설정부(310)는 홀에 인접한 완충 영역(522 및 524)을 홀로 간주함으로써 홀을 확대한다.Therefore, the buffer section setting section 310 enlarges the holes by considering the buffer areas 522 and 524 adjacent to the holes as holes.

완충 구간 설정부(310)는 홀(또는, 홀의 최외곽 지점)로부터의 거리가 미리 정의된 임계 값보다 작은 픽셀들을 완충 영역으로 설정할 수 있다.The buffer section setting section 310 may set, as the buffer area, pixels having a distance from the hole (or the outermost point of the hole) smaller than a predefined threshold value.

완충 영역 내의 픽셀의 컬러 값이 복원될 경우, 하기의 수학식 4가 사용될 수 있다.When the color value of the pixel in the buffer area is restored, the following equation (4) can be used.

Figure 112011103418801-pat00004
Figure 112011103418801-pat00004

수학식 4에서는, 프레임(t)의 이전 프레임의 픽셀의 컬러 값 및 이후 프레임의 픽셀의 컬러 값뿐만 아니라, 프레임(t)의 픽셀(i, j)(즉, 컬러 값이 복원될 픽셀 자신)의 컬러 값 또한 복원을 위해 사용된다. 완충 영역 내의 픽셀(i, j)는 애초에 홀이였던 픽셀과는 달리 이미 컬러 값을 갖고 있다. 따라서, 완충 영역 내의 픽셀(i, j) 자신의 컬러 값이 홀로 간주된 완충 영역 내의 픽셀(i, j)의 복원을 위해 사용될 수 있다.( I , j ) of the frame t (i.e., the pixel to which the color value is to be restored), as well as the color value of the pixel of the previous frame of the frame t and the color of the pixel of the subsequent frame, Is also used for restoration. Pixels ( i , j ) in the buffer area already have color values, unlike pixels that were originally holes. Therefore, the color value of the pixel ( i , j ) itself in the buffer area can be used for restoration of the pixel ( i , j ) in the buffer area considered as the hole.

즉, 인접 영상 기반 홀 복원부(340)는 완충 영역 내의 제1 픽셀을 복원하는 경우, 제1 픽셀의 컬러 값에 기반하여 제1 픽셀을 복원할 수 있다.
That is, when restoring the first pixel in the buffer region, the adjacent image-based hole restoration unit 340 may restore the first pixel based on the color value of the first pixel.

도 6은 일 예에 따른 크랙의 발생 및 양안시차 크랙의 검출에 의한 홀 설정을 설명한다.Fig. 6 illustrates generation of cracks and hole setting by detecting binocular parallax cracks according to an example.

도 6에서, 참조 뷰 영상(610) 및 참조 뷰 영상(610)의 양안시차 영상(620)이 도시되었다.6, a binocular parallax image 620 of a reference view image 610 and a reference view image 610 is shown.

도시된 것처럼, 양안시차 영상(620)의 제1 부분(622) 및 제2 부분(624)은 서로 상이한 양안시차 값을 갖는다. 일반적으로, 제1 부분(622) 및 제2 부분(624)은 같은 객체를 나타내기 때문에, 서로 동일하거나 유사한 양안시차 값을 가져야한다. 그러나, 특히, 양안시차 값이 추정된 경우, 제1 부분(622) 및 제2 부분(624)은 서로 상이한 양안시차 값을 가질 수 있다.As shown, the first portion 622 and the second portion 624 of the binocular parallax image 620 have different binocular disparity values from each other. In general, since the first portion 622 and the second portion 624 represent the same object, they must have the same or similar binocular disparity value. However, particularly when the binocular disparity value is estimated, the first part 622 and the second part 624 may have different binocular disparity values from each other.

제1 부분(622) 및 제2 부분(624)은 서로 상이한 양안시차 값을 갖기 때문에, 와핑에 의해 이동되는 거리가 서로 상이하다.Since the first portion 622 and the second portion 624 have different binocular disparity values, distances moved by warping are different from each other.

제1 부분(622) 및 제2 부분(624)가 서로 상이한 거리를 이동하기 때문에, 와핑에 의해 생성된 출력 뷰 영상(630) 내에서, 제1 부분(622)에 대응하는 부분 및 제2 부분(624)에 대응하는 부분 간에 크랙(632)이 발생할 수 있다.Because the first portion 622 and the second portion 624 move a different distance from each other, within the output view image 630 generated by the warping, the portion corresponding to the first portion 622 and the portion corresponding to the second portion 622, A crack 632 may occur between the portions corresponding to the protrusion 624.

이러한 크랙(632)이 발생한 부분에서는 전경이 아닌 배경이 표시될 수 있다. 즉, 제1 부분(622) 및 제2 부분(624) 대신에 배경이 표시될 수 있다.In the portion where cracks 632 are generated, a background rather than a foreground can be displayed. That is, the background may be displayed instead of the first portion 622 and the second portion 624.

즉, 크랙(632)은 서로 상이한 양안시차 값 때문에 객체들(또는, 객체의 분리된 부분들의) 사이로 배경이 표시된 부분을 의미한다. 즉, 특정 객체의 부분들에게 상기한 양안시차 값이 할당된 경우, 상기 객체가 와핑될 때 상기 객체의 내부에서 크랙이 발생한다.That is, the cracks 632 refer to the portions of the objects (or the separated portions of the object) in which the background is displayed because of the different binocular parallax values. That is, when the binocular disparity value is allocated to parts of a specific object, a crack occurs inside the object when the object is warped.

따라서, 영상 와핑부(310)에 의해 참조 뷰 영상(610)이 와핑될 경우, 상기 와핑에 의해 생성된 출력 뷰 영상(630)은 크랙을 갖는다.Therefore, when the reference view image 610 is warped by the image and ping unit 310, the output view image 630 generated by the warping has a crack.

크랙(632)이 발생된 부분에서는, 전경이 아닌 배경이 표시된다. 즉, 크랙(632)이 발생된 부분에는, 배경의 컬러 값이 와핑된다.In a portion where cracks 632 are generated, a background rather than a foreground is displayed. That is, in the portion where the crack 632 is generated, the background color value is warped.

따라서, 크랙(632)으로 인해 출력 뷰 영상에서 화질 열화가 나타난다.Therefore, image quality deterioration occurs in the output view image due to the crack 632.

만약, 크랙(632)이 홀로 설정된다면, 크랙(632)이 나타난 부분에도 홀 복원 방법이 적용될 수 있다. 따라서, 크랙(632)으로 인한 화질 열화가 감소될 수 있다.If the crack 632 is set to be the hole, the hole restoring method can be applied to the portion where the crack 632 appears. Therefore, deterioration in image quality due to the crack 632 can be reduced.

양안 시차 크랙 검출부(330)는 출력 뷰 영상에서 크랙을 검출한다. 양안 시차 크랙 검출부(330)는 크랙이 발생한 부분을 홀로 설정한다.The binocular parallax crack detector 330 detects a crack in the output view image. The binocular parallax crack detector 330 sets a portion where a crack is generated to be a hole.

크랙은 하기의 수학식 5에 기반하여 검출될 수 있다.The crack can be detected based on Equation (5) below.

Figure 112011103418801-pat00005
Figure 112011103418801-pat00005

여기서, D i , j 는 출력 뷰 영상(630) 내의 픽셀(i, j)(642)의 양안시차 값이다.Here, D i , j is the binocular parallax value of the pixel ( i , j ) 642 in the output view image 630.

픽셀(i, j)(642)은 크랙인지 여부가 검사되는 픽셀이다.Pixel ( i , j ) 642 is a pixel for which it is checked whether it is cracked.

D i + m , j + n 은 픽셀(i, j)과 인접한 픽셀(i+m, j+n)의 양안시차 값이다. D i + m , j + n are the binocular parallax values of the pixel ( i , j ) and the neighboring pixel ( i + m , j + n ).

Th는 미리 정의된 임계 값이다. Th is a predefined threshold.

즉, 양안시차 크랙 검출부(330)는 출력 뷰 내의 픽셀들 중, 인접한 픽셀(644)들과의 양안시차 값의 차들의 총 합이 미리 정의된 임계 값보다 큰 픽셀을 크랙으로 검출할 수 있다.That is, the binocular parallax crack detector 330 can detect cracks in a pixel in the output view in which the sum of the differences of the binocular parallax values with adjacent pixels 644 is larger than a predefined threshold value.

크랙은, 전경이 나타나야 할 영역에 배경 픽셀이 와핑되었기 때문에 발생한다. 따라서, 크랙 지점에 위치한 배경 픽셀의 양안시차 값 및 상기 배경 픽셀의 주위에 인접한 전경 픽셀의 양안시차 값 간의 차이는 크다.Cracks occur because the background pixel is warped to the area where the foreground appears. Therefore, the difference between the binocular disparity value of the background pixel located at the crack point and the binocular disparity value of the foreground pixel adjacent to the background pixel is large.

따라서, 수학식 5에서와 같이, 인접 픽셀들(644)과의 양안시차 값의 차에 기반하여 크랙이 검출될 수 있다. 또한, 검출된 크랙을 홀로 할당함으로써, 화질 열화가 보상될 수 있다.Thus, as in Equation 5, a crack can be detected based on the difference in binocular disparity values with adjacent pixels 644. In addition, by allocating the detected cracks alone, the image deterioration can be compensated.

도 6에서 도시된 인접 픽셀들(544)은 예시적인 것이다. 출력 뷰 내의 제1 픽셀과 일정한 거리에 있는 픽셀들이 상기 제1 픽셀의 인접 픽셀이 될 수 있다.
The adjacent pixels 544 shown in Fig. 6 are exemplary. Pixels at a certain distance from the first pixel in the output view may be adjacent pixels of the first pixel.

도 7은 일 예에 따른 인접 픽셀 스케일링을 설명한다.Figure 7 illustrates adjacent pixel scaling according to an example.

인접 픽셀 스케일링 기반 홀 복원부(350)는 영상(710)의 홀을 복원하기 위해 상기 홀에 인접한 하나 이상의 픽셀들을 사용한다.The adjacent pixel scaling-based hole restoration unit 350 uses one or more pixels adjacent to the hole to restore the hole of the image 710. [

인접 픽셀 스케일링 기반 홀 복원부(350)는 수평(horizontal) 방향으로 픽셀들을 스케일링 할 수 있다.The adjacent pixel scaling-based hole restoration unit 350 may scale pixels in a horizontal direction.

홀 복원의 대상이 되는 수평 선(712)이 도시되었다.A horizontal line 712 that is the object of the hole restoration is shown.

인접 픽셀 스케일링 기반 홀 복원부(350)는 수평 선(712) 내에서 홀을 검출하고, 연속된 홀 픽셀들(730)의 개수를 검출한다.The adjacent pixel scaling-based hole restoration unit 350 detects holes in the horizontal line 712 and detects the number of consecutive hole pixels 730.

인접 픽셀 스케일링 기반 홀 복원부(350)는 홀을 검출하기 위해 수평 방향으로 스캔(scan)을 수행할 수 있다.The adjacent pixel scaling-based hole restoration unit 350 may perform a scan in the horizontal direction to detect holes.

인접 픽셀 스케일링 기반 홀 복원부(350)는 연속된 홀 픽셀들(730)의 개수와 동일한 개수만큼의 픽셀들(740)을 선택한다. 선택된 픽셀들은 일반적으로 홀이 아닌 픽셀들이다.The adjacent pixel scaling-based hole restoration unit 350 selects as many pixels 740 as the number of consecutive hole pixels 730. [ The selected pixels are generally non-hole pixels.

선택된 픽셀들(740)은 연속된 홀 픽셀들(730)과 인접한 픽셀들이다.Selected pixels 740 are pixels adjacent to consecutive hall pixels 730.

선택된 픽셀들(740)은 연속된 홀 픽셀(730)들과 동일한 수평선 상에 있는 픽셀들일 수 있다.The selected pixels 740 may be pixels on the same horizontal line as the consecutive hall pixels 730.

도 7에서, 선택된 픽셀들(740)은 연속된 홀 픽셀들(730)의 우측에 있는 픽셀들이다. 그러나, 연속된 홀 픽셀들(730)의 좌측에 있는 픽셀들이 또한 선택된 픽셀들(740)이 될 수 있다. 또한, 선택된 픽셀들(740)은 연속된 홀 픽셀들(730)의 우측에 있는 픽셀들 및 좌측에 있는 픽셀들일 수 있다.In FIG. 7, the selected pixels 740 are the pixels to the right of the consecutive hall pixels 730. However, the pixels to the left of the consecutive hall pixels 730 may also be the selected pixels 740. Also, the selected pixels 740 may be pixels on the right side of successive hole pixels 730 and pixels on the left side.

인접 픽셀 스케일링 기반 홀 복원부(350)는 선택된 픽셀들(740)을 홀 픽셀들(730)을 향하는 방향으로 스케일링함으로써 홀을 복원할 수 있다.The adjacent pixel scaling-based hole restoration unit 350 can restore the hole by scaling the selected pixels 740 in the direction toward the hole pixels 730. [

예컨대, 첫 번째 선택된 픽셀의 컬러 값을 사용하여 첫 번째 홀 픽셀 및 두 번째 홀 픽셀의 컬러 값이 생성된다. 따라서, 첫 번째 홀 픽셀 및 두 번째 홀 픽셀은 첫 번째 선택된 픽셀에 의해 복원된다.For example, the color values of the first and second hall pixels are generated using the color values of the first selected pixel. Thus, the first hall pixel and the second hall pixel are restored by the first selected pixel.

선택된 픽셀들(740)의 스케일링은, 선택된 픽셀들(740)이 나타내는 영역이 두 배로 늘려지고, 늘려진 영역이 홀 픽셀들(730) 및 선택된 픽셀들(740)이 나타내는 영역을 대체하는 것일 수 있다.The scaling of the selected pixels 740 may be such that the area represented by the selected pixels 740 is doubled and the stretched area replaces the area represented by the hole pixels 730 and the selected pixels 740 have.

이 때, 홀 픽셀들(730)의 개수 및 선택된 픽셀들(740)의 개수는 서로 동일하다. 따라서, 선택된 픽셀들(740)이 각각 2 개의 픽셀들로 스케일링됨으로써 모든 홀이 복원될 수 있다. 또한, 선택된 픽셀들(740)은 모두 균등하게 스케일링될 수 있다.
At this time, the number of the hole pixels 730 and the number of the selected pixels 740 are equal to each other. Thus, all of the holes can be reconstructed by scaling the selected pixels 740 with two pixels each. Also, the selected pixels 740 can all be scaled uniformly.

도 8은 일 예에 따른 배경 픽셀을 사용하는 인접 픽셀 스케일링을 설명한다.Figure 8 illustrates adjacent pixel scaling using a background pixel according to an example.

인접 픽셀 스케일링 기반 홀 복원부(350)는 연속된 홀 픽셀들(810)의 개수와 동일한 개수만큼의 홀이 아닌 픽셀들(820)을 선택한다.The adjacent pixel scaling-based hole restoration unit 350 selects pixels 820 that are not the same number of holes as the number of consecutive hall pixels 810.

홀이 아닌 픽셀들(820) 각각은 양안시차 값을 갖는다.Each of the non-hole pixels 820 has a binocular parallax value.

인접 픽셀 스케일링 기반 홀 복원부(350)는 홀이 아닌 픽셀들(820) 각각을 양안시차 값에 따라 전경 픽셀 또는 배경 픽셀로 분류한다.The neighboring pixel scaling-based hole reconstruction unit 350 classifies each non-hole pixel 820 into foreground pixels or background pixels according to binocular parallax values.

예컨대, 인접 픽셀 스케일링 기반 홀 복원부(350)는 홀이 아닌 픽셀들(820) 중 양안시차 값이 미리 정의된 임계 값보다 큰 픽셀을 전경 픽셀로 분류할 수 있고, 양안시차 값이 미리 정의된 임계 값 이하인 픽셀을 배경 픽셀로 분류할 수 있다.For example, the neighboring pixel scaling-based hole restoration unit 350 may classify pixels of the non-hole pixels 820 whose foreground parallax values are larger than a predefined threshold value into foreground pixels, Pixels below the threshold can be classified as background pixels.

도 8에서, 앞의 3 개의 픽셀들(830)은 배경 픽셀로 분류되었고, 마지막 픽셀(840)은 전경 픽셀로 분류되었다.8, the previous three pixels 830 have been classified as background pixels, and the last pixel 840 has been classified as foreground pixels.

인접 픽셀 스케일링 기반 홀 복원부(350)는 배경 픽셀들(830)을 홀 픽셀들(730)을 향하는 방향으로 스케일링함으로써 홀을 복원할 수 있다.The adjacent pixel scaling-based hole restoration unit 350 can restore the hole by scaling the background pixels 830 in the direction toward the hole pixels 730. [

이 때, 배경 픽셀들(830)의 개수는 홀 픽셀들(730)의 개수보다 더 작을 수 있다. 따라서, 배경 픽셀들(830)의 전부 또는 일부는 2 개 이상의 픽셀들로 스케일링될 수 있다. 또한, 배경 픽셀들(840)은 비균등하게 스케일링될 수 있다.At this time, the number of background pixels 830 may be smaller than the number of the hole pixels 730. Thus, all or a portion of the background pixels 830 may be scaled to two or more pixels. Also, background pixels 840 may be non-uniformly scaled.

전경 픽셀(840)은 스케일링에서 제외된다. 따라서, 스케일링으로 인해 전경 영상이 변형되는 것이 방지될 수 있다.Foreground pixel 840 is excluded from scaling. Thus, the distortion of the foreground image due to scaling can be prevented.

전술된 스케일링 방법들은, 스켄 방향인 수평 방향으로만 픽셀들(740 또는 830)을 확장시킨다. 따라서, 이러한 스케일링 방법들은 용이하게 구현될 수 있다. 또한, 이러한 스케일링 방법이 사용된 경우, 작은 크기의 홀이 복원되었다라도 화질의 열화가 크게 인지되지 않는다.
The scaling methods described above extend pixels 740 or 830 only in the horizontal direction, which is the scan direction. Thus, such scaling methods can be readily implemented. Further, when such a scaling method is used, deterioration of image quality is not largely recognized even if a small-sized hole is restored.

도 9는 일 예에 따른 배경의 그레디언트(gradient)에 수직한 방향으로의 스케일링을 설명한다.Figure 9 illustrates scaling in a direction perpendicular to the gradient of the background according to an example.

출력 뷰 영상(910)은 홀(912)을 포함한다.The output view image 910 includes a hole 912.

배경(914) 중 특정한 모양(916)이 있을 경우, 전술된 수평 방향으로의 스케일링이 사용되면 모양(916)이 변형될 수 있다. 모양(916)은 하나 이상의 배경 픽셀들의 집합이다.If there is a particular shape 916 of the background 914, the shape 916 may be deformed if the horizontal scaling described above is used. Shape 916 is a collection of one or more background pixels.

따라서, 이러한 모양(916)은 홀(912) 내에 포함된 모양(916)의 모서리(edge)(918)의 방향(924)과 수직한 방향(926)으로 스케일링될 필요가 있다.This shape 916 thus needs to be scaled in a direction 926 perpendicular to the direction 924 of the edge 918 of the shape 916 contained in the hole 912. [

인접 픽셀 스케일링 기반 홀 복원부(350)는 홀(912)에 인접한 배경 픽셀 (922)을 선택한다.The adjacent pixel scaling-based hole restoration unit 350 selects the background pixel 922 adjacent to the hole 912.

인접 픽셀 스케일링 기반 홀 복원부(350)는 배경 픽셀(922)을 포함하는 모서리(918)의 그레디언트를 계산한다. 배경 픽셀(922)을 포함하는 모서리(918)의 그레디언트는 배경 픽셀(922)의 그레디언트이다.The neighboring pixel scaling-based hole restoration unit 350 calculates a gradient of the edge 918 including the background pixel 922. [ The gradient of the edge 918, which includes the background pixel 922, is a gradient of the background pixel 922.

인접 픽셀 스케일링 기반 홀 복원부(350)는 모서리(918)의 그레디언트의 수직 방향으로, 연속된 홀 픽셀들의 개수를 검출한다.The adjacent pixel scaling-based hole restoration unit 350 detects the number of consecutive hole pixels in the vertical direction of the gradient of the edge 918.

인접 픽셀 스케일링 기반 홀 복원부(350)는 검출된 연속된 홀 픽셀들을 복원할 수 있도록 모서리(918)의 그레디언트의 수직 방향으로, 배경 픽셀들을 스케일링한다.The adjacent pixel scaling-based hole restoration unit 350 scales the background pixels in the vertical direction of the gradient of the edge 918 so as to recover the detected consecutive hall pixels.

즉, 인접 픽셀 스케일링 기반 홀 복원부(350)는 홀(912)에 인접한 배경 픽셀(922)의 그레디언트와 수직한 방향으로, 상기 인접한 배경 픽셀(922)를 포함하는 배경 픽셀들(또는, 배경의 일부) 을 스케일링함으로써 홀을 복원할 수 있다. 상기의 배경 픽셀들은 배경 픽셀(922)을 포함하는 모양(916)을 나타낼 수 있다.In other words, the adjacent pixel scaling-based hole restoration unit 350 is configured to detect the background pixels (or background pixels) including the adjacent background pixels 922 in a direction perpendicular to the gradients of the background pixels 922 adjacent to the holes 912 The hole can be restored by scaling it. The background pixels may represent a shape 916 that includes a background pixel 922.

이때, 인접 픽셀 스케일링 기반 홀 복원부(350)는 배경 픽셀(922)의 그레디언트와 수직한 방향으로 연속된 홀 픽셀들의 개수를 검출할 수 있고, 검출된 홀 픽셀들의 개수에 기반하여 스케일링에 사용될 배경 픽셀들을 결정할 수 있으며, 배경 픽셀들이 얼만큼 스케일링될 것인지를 결정할 수 있다.At this time, the adjacent pixel scaling-based hole restoration unit 350 can detect the number of the hole pixels that are continuous in the direction perpendicular to the gradient of the background pixel 922, and can detect the background to be used for scaling based on the detected number of hole pixels Determine the pixels, and determine how far the background pixels are to be scaled.

전술된 배경 픽셀(922)의 그레디언트와 수직한 방향으로의 스케일링이 사용함으로써, 인접 픽셀 스케일링 기반 홀 복원부(350)는 배경 픽셀들(916)의 방향성을 유지한 채 홀 영역을 복원할 수 있다.By using the above-described scaling in the direction perpendicular to the gradient of the background pixel 922, the adjacent pixel scaling-based hole restoration unit 350 can restore the hole area while maintaining the orientation of the background pixels 916 .

배경의 그레디언트를 이용하는 스케일링 방법은, 배경에 강한 모서리 방향으로 배경 픽셀들을 스케일링하기 때문에, 단순히 수평 방향으로 스케일링되는 방법에 비해 더 자연스러운 결과를 낳는다. 그러나, 배경의 그레디언트를 이용하는 스케일링 방법은 상대적으로 복잡한 연산을 수행한다.
The scaling method using the gradient of the background results in a more natural result than simply scaling in the horizontal direction since it scales the background pixels in the strong corners direction in the background. However, the scaling method using the background gradient performs relatively complicated operations.

도 10은 일 에에 따른 최적 패치 탐색에 기반한 홀의 복원을 설명한다.Figure 10 illustrates the reconstruction of a hole based on optimal patch search with respect to work.

출력 뷰 영상(1010)은 홀을 포함한다.The output view image 1010 includes a hole.

홀에 인접한 배경이 텍스처 영역일 경우, 단순히 배경 픽셀들을 스케일링하는 것으로는, 홀이 정확하게 복원될 수 없다.If the background adjacent to the hole is a texture area, simply scaling the background pixels does not allow the hole to be reconstructed correctly.

홀에 인접한 배경이 텍스처인 경우, 전체 배경 영역에서, 상기 홀에 인접한 배경과 가장 유사한 패치를 검출할 수 있다. 검출된 패치를 이용하여 홀이 복원될 수 있다. 즉, 홀에 인접한 배경이 갖는 텍스처와 동일 또는 매우 유사한 텍스처가 다른 배경 영역에서 발견될 경우, 다른 배경 영역에 인접한 부분이 홀을 복구하기 위해 사용될 수 있다.When the background adjacent to the hole is a texture, in the entire background area, a patch most similar to the background adjacent to the hole can be detected. The hole can be recovered using the detected patch. That is, if a texture that is the same as or very similar to the texture of the background adjacent to the hole is found in another background area, a portion adjacent to the other background area can be used to recover the hole.

우선, 패치를 이용하여 복원할 지점을 결정하는 방법을 검토한다.First, consider how to determine the point to restore using the patch.

배경에 인접한 홀부터 우선 처리하는 방식이 사용될 수 있다. 홀의 영역 중, 배경에 인접한 부분에서부터 순차적으로 복원되는 방법을 사용함으로써, 홀 복원 과정에서 전경 픽셀이 섞이는 것이 구조적으로 제한될 수 있다.A method of preferentially processing a hole adjacent to the background may be used. By using the method of sequentially restoring the area of the hole from the part adjacent to the background, mixing of the foreground pixels in the hole restoration process can be structurally restricted.

최적 패치 탐색 기반 홀 복원부(360)는 레스터(raster) 스캔 방향으로 홀 픽셀을 검출한다.The optimal patch search-based hole restoration unit 360 detects the hole pixels in the raster scan direction.

검출된 초기 홀 지점(1012)은 전경과 인접한다. 따라서, 우선적으로 복원되기에 부적합한 지점이다.The detected initial hole point 1012 is adjacent to the foreground. Therefore, it is a point unsuitable for priority restoration.

최적 패치 탐색 기반 홀 복원부(360)는 초기 홀 지점(1012)에서부터 스캔 방향으로 연속된 홀 픽셀들을 검출한다.The optimal patch search-based hole reconstruction unit 360 detects the consecutive hole pixels from the initial hole point 1012 in the scan direction.

최적 패치 탐색 기반 홀 복원부(360)는 연속된 홀 픽셀들의 말단을 최외곽 홀 지점(1014)으로 설정한다. 최외곽 홀 지점(1014)은 배경과 인접하였다. 따라서, 상기 최외곽 홀 지점(1014)과 인접하고, 홀이 아닌 픽셀의 컬러 값 및 양안시차 값을 사용함으로써 최외곽 홀 지점(1014) 주위의 홀 영역을 복구할 수 있는 패치가 검색될 수 있다. The optimal patch search-based hole reconstruction unit 360 sets the end of successive hole pixels as the outermost hole point 1014. The outermost hole point 1014 was adjacent to the background. Therefore, a patch that can recover the hole area around the outermost hole point 1014 can be retrieved by using the color value and binocular disparity value of the pixel that is adjacent to the outermost hole point 1014 and is not a hole .

최적 패치 탐색 기반 홀 복원부(360)는 설정된 최외곽 홀 지점(1014)에 대해 최적 패치 탐색 기반 홀 복원을 수행한다. 하기에서, 최적 패치 탐색 기반 홀 복원이 설명된다.The optimal patch search-based hole restoration unit 360 performs optimal patch search based hole restoration on the set outermost hole point 1014. In the following, optimal patch search based hole reconstruction is described.

최적 패치 탐색 기반 홀 복원부(360)는 최외곽 홀 지점(1014)과 인접한 영역을 윈도우 영역(1016)으로 설정한다. 윈도우 영역(1016)은 N x N의 픽셀들일 수 있다.The optimal patch search-based hole restoration unit 360 sets the area adjacent to the outermost hole point 1014 as the window area 1016. [ Window region 1016 may be N x N pixels.

원도우 영역(1016)은 홀 영역(1020) 및 배경 영역(1018)을 포함한다. 배경 영역(1018)은 패치를 탐색하기 위해 사용된다. 홀 영역(1020)은 탐색된 패치를 사용함으로써 복구되는 영역이다.The window region 1016 includes a hole region 1020 and a background region 1018. Background area 1018 is used to search for patches. The hole area 1020 is the area to be recovered by using the detected patch.

최적 패치 탐색 기반 홀 복원부(360)는 전체 배경 영역에서 윈도우 영역(1016)에 대응하는 최적의 패치를 검출하고, 검출된 패치를 사용하여 설정된 최외곽 홀 지점(1014) 및 홀 영역(1020)을 복원한다.The optimal patch search-based hole restoration unit 360 detects an optimal patch corresponding to the window area 1016 in the entire background area, detects the outermost hole point 1014 and the hole area 1020 set using the detected patch, .

최적의 패치는 전체 배경 영역 중 윈도우 영역(1016)과 가장 유사도가 높은 영역을 의미한다.The optimal patch means an area having the highest degree of similarity to the window area 1016 of the entire background area.

패치는 윈도우 영역(1016)와 같은 크기를 갖는다. 패치 또한 홀 영역(1020)에 대응하는 부분 및 배경 영역(1018)에 대응하는 부분으로 구성된다.The patch has the same size as the window area 1016. The patch also comprises a portion corresponding to the hole region 1020 and a portion corresponding to the background region 1018. [

패치를 선택하기 위해 배경 영역의 특정 부분 및 윈도우 영역(1016) 간의 유사도가 계산된다. 상기의 특정 부분은 윈도우 영역(1016)과 같은 크기를 가지며, 홀 영역(1020)에 대응하는 부분 및 배경 영역(1018)에 대응하는 부분으로 구성된다.The similarity between a particular portion of the background region and the window region 1016 is calculated to select the patch. The specific portion has the same size as the window region 1016 and is composed of a portion corresponding to the hole region 1020 and a portion corresponding to the background region 1018. [

특정 부분 및 윈도우 영역(1016) 간의 유사도가 계산될 때, 홀 영역(1020)은 유사도의 계산에서 제외되고, 배경 영역(1018)만이 유사도의 계산을 위해 사용된다.When the degree of similarity between the specific portion and the window region 1016 is calculated, the hole region 1020 is excluded from the calculation of the degree of similarity, and only the background region 1018 is used for calculating the similarity.

예컨대, 제1 특정 부분의 배경 영역(1018)에 대응하는 일부가, 윈도우 영역(1016)의 배경 영역(1018)과 동일한 컬러 값 및 양안시차 값을 갖는 경우, 양자(제1 특정 부분의 배경 영역(1018)에 대응하는 일부 및 배경 영역(1018))는 동일한 것으로 간주된다. 따라서, 제1 특정 부분이 최적 패치로서 선택될 수 있다.For example, when a part corresponding to the background area 1018 of the first specific part has the same color value and binocular parallax value as the background area 1018 of the window area 1016, A portion corresponding to the background region 1018 and the background region 1018) are considered to be the same. Thus, the first specific portion can be selected as the optimum patch.

최적 패치 탐색 기반 홀 복원부(360)는 유사도 계산을 위해 MAD(mean of absolute difference) 등의 방법을 사용할 수 있다. MAD 방법은 컬러 값 및 양안시차 값을 사용할 수 있다.The optimal patch search-based hole restoration unit 360 may use a mean of absolute difference (MAD) method for calculating the similarity. The MAD method can use color values and binocular disparity values.

즉, 복수 개의 특정 부분들 중, 제2 특정 부분 및 윈도우 영역(1016)과의 MAD가 최소 값일 때, 최적 패치 탐색 기반 홀 복원부(360)는 제2 특정 부분을 최적 패치로서 선택할 수 있다.That is, when the MAD between the second specific portion and the window region 1016 among the plurality of specific portions is the minimum value, the optimal patch search-based hole reconstruction unit 360 can select the second specific portion as the optimal patch.

최적 패치가 결정되면, 최적 패치 탐색 기반 홀 복원부(360)는 결정된 패치의 홀 영역(1020)에 대응하는 부분을 사용하여 홀 영역(1020)을 복원한다.
When the optimal patch is determined, the optimal patch search-based hole reconstruction unit 360 reconstructs the hole region 1020 using a portion corresponding to the hole region 1020 of the determined patch.

도 11은 일 예에 따른 패치의 중첩을 사용한 홀의 복원을 설명한다.Fig. 11 illustrates restoration of holes using overlapping patches according to an example.

최적 패치 탐색 기반 홀 복원부(360)는 특정한 홀 픽셀(또는, 홀 영역)을 복원하기 위하여 2 개 이상의 패치를 사용할 수 있다. The optimal patch search-based hole restoration unit 360 may use two or more patches to restore a specific hole pixel (or hole area).

즉, 최적 패치 탐색 기반 홀 복원부(360)는, 서로 다른 2 개 이상의 최외곽 홀 지점들에 기반하여, 2 개 이상의 원도우 영역들(1112 및 1114)을 선택할 수 있다.That is, the optimal patch search-based hole reconstruction unit 360 can select two or more window regions 1112 and 1114 based on two or more outermost hole points different from each other.

최적 패치 탐색 기반 홀 복원부(360)는 2 개 이상의 윈도우 영역들(1112 및 1114) 각각에 대한 최적 패치들을 탐색할 수 있으며, 2 개 이상의 탐색된 패치들을 사용하여 홀을 복원할 수 있다.The optimal patch search-based hole restoration unit 360 can search for optimal patches for each of two or more window areas 1112 and 1114, and can restore holes using two or more detected patches.

2 개 이상의 윈도우 영역들(1112 및 1114)이 서로 오버랩(overlap)된 경우, 오버랩된 홀 영역은 2 개 이상의 패치에 의해 복원될 수 있다.When two or more window regions 1112 and 1114 overlap each other, the overlapped hole region can be restored by two or more patches.

이러한 경우, 최적 패치 탐색 기반 홀 복원부(360)는 2 개 이상의 패치들의 컬러 값들의 평균 값 및 양안시차 값들의 평균 값을 사용하여 오버랩된 홀 영역을 복원할 수 있다.In this case, the optimal patch search-based hole restoration unit 360 may restore the overlapped hole area using the average value of the color values of the two or more patches and the average value of the binocular parallax values.

즉, 최적 패치 탐색 기반 홀 복원부(360)는 2 개 이상의 패치들의 컬러 값들의 평균 값 및 양안시차 값들의 평균 값을 사용하여 홀을 복원할 수 있다.
That is, the optimal patch search-based hole restoration unit 360 may restore the hole using the average value of the color values of the two or more patches and the average value of the binocular disparity values.

도 12은 일 실시예에 따른 영상 처리 방법의 흐름도이다.12 is a flowchart of an image processing method according to an embodiment.

영상 와핑 단계(S1210)에서, 참조 뷰의 영상 및 상기 참조 뷰의 영상의 양안시차 정보를 사용하는 이미지 와핑에 의해 출력 뷰의 영상이 생성된다.In the image warping step S1210, an image of the output view is generated by image warping using the image of the reference view and the binocular disparity information of the image of the reference view.

완충 구간 설정 단계(S1220)에서, 완충 구간을 설정함으로써, 출력 뷰 내에서 생성된 홀이 확대된다.In the buffer interval setting step (S1220), by setting the buffer interval, the hole generated in the output view is enlarged.

양안시차 크랙 검출 단계(S1230)에서, 출력 뷰의 영상 중 크랙이 홀로서 설정된다.In the binocular parallax crack detection step (S1230), a crack in the image of the output view is set alone.

인접 영상 기반 홀 복원 단계(S1240)에서, 참조 뷰의 영상에 시간적으로 인접한 영상들을 사용함으로써 출력 뷰 내에 생성된 홀이 복원된다.In the adjacent image-based hall restoring step (S1240), holes generated in the output view are restored by using images temporally adjacent to the reference view image.

인접 픽셀 스케일링 기반 홀 복원 단계(S1250)에서, 홀과 인접한 하나 이상의 픽셀들을 스케일링함으로써 홀이 복원된다.In the adjacent pixel scaling-based hole reconstruction step (S1250), the hole is reconstructed by scaling one or more pixels adjacent to the hole.

최적 패치 탐색 기반 홀 복원 단계(S1260)에서, 홀이 포함되는 영역과 가장 유사한 패치를 배경으로부터 탐색하고, 탐색된 패치를 사용함으로써 홀이 복원된다.In the optimal patch search-based hole restoration step (S1260), the patch most similar to the area including the hole is searched from the background, and the hole is restored by using the searched patch.

앞서 도 1 내지 도 11을 참조하여 설명된 본 발명의 일 실시예에 따른 기술 적 내용들이 도 12의 영상 처리 방법의 실시예에도 그대로 적용될 수 있다. 따라서 보다 상세한 설명은 이하 생략하기로 한다.
The technical contents according to the embodiment of the present invention described above with reference to Figs. 1 to 11 can be applied to the embodiment of the image processing method of Fig. Therefore, a more detailed description will be omitted below.

본 발명의 일 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM, DVD와 같은 광기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. 여기서 설명된 하나 이상의 소프트웨어 모듈들은 유닛에 고유한 프로세서 또는 하나 이상의 모듈들에 공통된 프로세서에 의해 실행될 수 있다. 설명된 방법들은 범용 컴퓨터, 범용 프로세서 또는 여기서 설명된 영상 처리 장치와 같은 특정한 머신(machine)에 의해 실행될 수 있다.
The method according to an embodiment of the present invention can be implemented in the form of a program command which can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic recording media such as magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magnetic recording media such as floppy disks, Optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa. The one or more software modules described herein may be executed by a processor unique to the unit or by a processor common to one or more modules. The described methods may be executed by a particular machine, such as a general purpose computer, a general purpose processor, or the image processing apparatus described herein.

도 13은 일 예에 따른 영상 처리 장치를 포함하는 디스플레이 디바이스(display device)를 도시한다.13 shows a display device including an image processing apparatus according to an example.

도 13을 참조하면, 멀티-뷰 디스플레이 디바이스(1300)는 제어부(1310) 및 영상 처리 장치(1305)를 포함할 수 있다.13, the multi-view display device 1300 may include a control unit 1310 and an image processing device 1305. [

멀티-뷰 디스플레이 디바이스(1300)는 3D 영상을 디스플레이하기 위한 3D 디스플레이의 형태를 가질 수 있으며, 3 개 이상의 상이한 시점들로의 멀티-뷰 스킴(scheme)을 채용할 수 있다. 선택적으로, 멀티-뷰 디스플레이 디바이스(1300)는 좌측 영상 및 우측 영상을 출력하는 스테레오스코픽(stereoscopic) 디스플레이의 형태를 가질 수 있다.The multi-view display device 1300 may take the form of a 3D display for displaying 3D images and may employ a multi-view scheme to three or more different viewpoints. Optionally, the multi-view display device 1300 may take the form of a stereoscopic display outputting the left and right images.

제어부(1301)은 멀티-뷰 디스플레이 디바이스(1300)를 제어하기 위한 하나 이상의 제어 신호들을 생성할 수 있으며, 멀티-뷰 디스플레이 디바이스(1300)에 의해 디스플레이되는 하나 이상의 신호들을 생성할 수 있다. 제어부(1301)은 하나 이상의 프로세서들을 포함할 수 있다.The control unit 1301 can generate one or more control signals for controlling the multi-view display device 1300 and generate one or more signals to be displayed by the multi-view display device 1300. [ The control unit 1301 may include one or more processors.

영상 처리 장치(1305)는 멀티-뷰 디스플레이 디바이스(1300)를 위한 멀티-뷰 영상을 생성하기 위해 사용될 수 있으며, 예컨대, 영상 와핑부, 완충 구간 설정부, 양안시차 크랙 검출부, 인접 영상 기반 홀 복원부, 인접 픽셀 스케일링 기반 홀 복원부 및 최적 패치 탐색 기반 홀 복원부 중 하나 이상을 임의로 포함할 수 있다. 도 13에서 상기의 유닛들은 도시되지 않았다. 그러나, 이러한 유닛들 각각은, 예컨대 도 3을 참조하여, 여기서 설명된 유사하게 명명된 유닛들에 대응한다. 따라서, 본 예에서 더 설명되지는 않는다.The image processing apparatus 1305 may be used to generate a multi-view image for the multi-view display device 1300 and may include, for example, an image and a ping section, a buffer section setting section, a binocular parallax crack detecting section, An adjacent pixel scaling-based hole reconstruction unit, and an optimal patch search-based hole reconstruction unit. The above units are not shown in Fig. However, each of these units corresponds to, for example, similarly named units described herein, with reference to FIG. Therefore, it is not further described in this example.

영상 처리 장치(1305)는 멀티-뷰 디스플레이 디바이스(1300) 내에 내부적으로 설치될 수 있으며, 멀티-뷰 디스플레이 디바이스(1300)로 부착될 수 있으며, 멀티-뷰 디스플레이 디바이스(1300)와는 별개로 구현(embody)될 수 있다. 영상 처리 장치(1305)의 물리적인 구성(configuration)에 무관하게, 영상 처리 장치(1305)는 도 1 내지 도 12을 참조하여 전술된 능력(capability)들을 가질 수 있다. 영상 처리 장치(1305)는 하나 이상의 내부 프로세서들을 포함할 수 있다. 또는, 상기의 하나 이상의 프로세서들은, 제어부(1301)의 하나 이상의 프로세서들과 같이, 멀티-뷰 디스플레이 디바이스(1300) 내에 포함될 수 있다.The image processing device 1305 may be installed internally in the multi-view display device 1300 and may be attached to the multi-view display device 1300 and may be implemented (e.g., embody. Regardless of the physical configuration of the image processing apparatus 1305, the image processing apparatus 1305 may have the capabilities described above with reference to FIGS. The image processing apparatus 1305 may include one or more internal processors. Alternatively, the one or more processors may be included within the multi-view display device 1300, such as one or more processors of the controller 1301.

전술된 3D 영상 장치 및 방법은 다양한 비디오 포멧(format)들을 응용(utilitze)할 수 있다. 상기의 비디오 포멧은 H.264/MPEG-4 AVC, 고효율 비디오 코딩(High Efficiency Video Coding; HEVC), 다이락(Dirac) 비디오 압축 포멧 및 VC-1 등과 같은 포멧들을 포함할 수 있으나, 전술된 포멧들로 제한되지는 않는다.The 3D imaging apparatus and method described above can utilitize various video formats. The above video format may include formats such as H.264 / MPEG-4 AVC, High Efficiency Video Coding (HEVC), Dirac video compression format, and VC-1, Lt; / RTI >

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.While the invention has been shown and described with reference to certain preferred embodiments thereof, it will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. This is possible.

그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined by the equivalents of the claims, as well as the claims.

300: 영상 처리 장치
310: 영상 와핑부
340: 인접 영상 기반 홀 복원부
350: 인접 픽셀 스케일링 기반 홀 복원부
360: 최적 패치 탐색 기반 홀 복원부
300: image processing device
310: image and ping
340: adjacent image-based hole reconstruction unit
350: adjacent pixel scaling-based hole reconstruction unit
360: optimal patch search-based hole reconstruction unit

Claims (41)

하나 이상의 프로세서-실행가능한(processor-executable) 유닛들을 제어하는 프로세서;
참조 뷰의 영상 및 상기 참조 뷰의 영상의 양안시차 정보를 사용하는 영상 와핑에 의해 출력 뷰의 영상을 생성하는 영상 와핑부;
상기 영상 와핑에 의해 생성된 상기 출력 뷰 내의 홀에 인접한 완충 영역을 홀로 간주함으로써 상기 출력 뷰 내의 홀을 확대하는 완충 구간 설정부; 및
상기 영상 와핑과 관련된 영상에 시간적으로 인접한 영상들을 사용하여 상기 확대된 홀을 복원하는 인접 영상 기반 홀 복원부;
를 포함하고,
상기 인접 영상 기반 홀 복원부는 제1 픽셀이 상기 완충 영역 내의 픽셀인 경우 상기 제1 픽셀의 컬러 값에 기초하여 상기 제1 픽셀을 복원하는, 영상 처리 장치.
A processor for controlling one or more processor-executable units;
An image and a ping section for generating an image of an output view by image warping using the image of the reference view and the binocular disparity information of the image of the reference view;
A buffer section setting section for enlarging a hole in the output view by considering a buffer area adjacent to a hole in the output view generated by the image watermark as a hole; And
An adjacent image-based hole restoration unit for restoring the enlarged hole using images temporally adjacent to the image related to the image warping;
Lt; / RTI >
Wherein the adjacent image-based hall restoration unit restores the first pixel based on a color value of the first pixel when the first pixel is a pixel in the buffer area.
제1항에 있어서,
상기 시간적으로 인접한 영상들은 상기 참조 뷰의 영상에 시간적으로 인접한 영상들인, 영상 처리 장치.
The method according to claim 1,
Wherein the temporally adjacent images are temporally adjacent to an image of the reference view.
제1항에 있어서,
상기 시간적으로 인접한 영상들은 상기 출력 뷰의 영상에 시간적으로 인접한 영상들인, 영상 처리 장치.
The method according to claim 1,
Wherein the temporally adjacent images are temporally adjacent to the image of the output view.
제1항에 있어서,
상기 인접 영상 기반 홀 복원부는 상기 홀 내의 제1 픽셀을 복원하기 위해 상기 시간적으로 인접한 영상들 내의 상기 제1 픽셀에 대응하는 픽셀들의 컬러 값을 사용하는, 영상 처리 장치.
The method according to claim 1,
Wherein the adjacent image-based hall reconstruction unit uses a color value of pixels corresponding to the first pixel in the temporally adjacent images to recover a first pixel in the hole.
제4항에 있어서,
상기 인접 영상 기반 홀 복원부는 상기 참조 뷰의 영상 및 상기 시간적으로 인접한 영상들이 시간에 따라 전체적으로 이동한 경우, 상기 이동에 기반하여 상기 시간적으로 인접한 영상들 내에서 상기 제1 픽셀에 대응하는 픽셀들을 선택하는, 영상 처리 장치.
5. The method of claim 4,
Wherein the neighboring-image-based hall reconstructing unit selects the pixels corresponding to the first pixel in the temporally adjacent images based on the movement, when the reference view and temporally adjacent images are entirely moved in time Image processing apparatus.
제4항에 있어서,
상기 인접 영상 기반 홀 복원부는 상기 제1 픽셀에 대응하는 픽셀들 중 홀 픽셀이 아닌 픽셀만을 상기 홀을 복원하기 위해 사용하는, 영상 처리 장치.
5. The method of claim 4,
Wherein the adjacent image-based hall reconstruction unit uses only pixels of the pixels corresponding to the first pixel that are not a hall pixel to reconstruct the hall.
제4항에 있어서,
상기 인접 영상 기반 홀 복원부는 상기 제1 픽셀에 대응하는 픽셀들 중 배경 픽셀만을 상기 홀을 복원하기 위해 사용하는, 영상 처리 장치.
5. The method of claim 4,
Wherein the adjacent image-based hall restoration unit uses only a background pixel among the pixels corresponding to the first pixel to restore the hall.
삭제delete 삭제delete 제1항에 있어서,
상기 출력 뷰의 영상 중 크랙을 홀로 설정하는 양안시차 크랙 검출부
를 더 포함하는, 영상 처리 장치.
The method according to claim 1,
A binocular parallax crack detector for setting a crack in an image of the output view as an image,
Further comprising:
제10항에 있어서,
상기 양안시차 크랙 검출부는 상기 출력 뷰 내의 픽셀들 중, 인접한 픽셀들과의 양안시차 값의 차들의 총 합이 미리 정의된 임계 값보다 큰 픽셀을 크랙으로 검출하는, 영상 처리 장치.
11. The method of claim 10,
Wherein the binocular parallax crack detecting unit detects, as a crack, a pixel having a sum total of differences of binocular parallax values with adjacent pixels of pixels in the output view larger than a predefined threshold value.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 프로세서에 의해 참조 뷰의 영상의 양안시차 정보에 기반하여 상기 참조 뷰의 영상을 이미지 와핑함으로써 출력 뷰의 영상을 생성하는 영상 와핑 단계;
상기 영상 와핑에 의해 생성된 상기 출력 뷰 내의 홀에 인접한 완충 영역을 홀로 간주함으로써 상기 출력 뷰 내의 홀을 확대하는 완충 구간 설정 단계; 및
상기 영상 와핑과 관련된 영상에 시간적으로 인접한 영상들을 사용하여 상기 확대된 홀을 복원하는 인접 영상 기반 홀 복원 단계;
를 포함하고,
상기 인접 영상 기반 홀 복원 단계는,
제1 픽셀이 상기 완충 영역 내의 픽셀인 경우 상기 제1 픽셀의 컬러 값에 기초하여 상기 제1 픽셀을 복원하는 단계
를 포함하는, 영상 처리 방법.
An image watermarking step of generating an image of an output view by image-waving an image of the reference view based on binocular disparity information of the image of the reference view by the processor;
A buffer area setting step of enlarging a hole in the output view by considering a buffer area adjacent to a hole in the output view generated by the image watermark as a hole; And
An adjacent image-based hall restoring step of restoring the enlarged hall using images temporally adjacent to the image related to the image warping;
Lt; / RTI >
Wherein the neighboring-image-
And restoring the first pixel based on the color value of the first pixel when the first pixel is a pixel in the buffer area
And an image processing method.
제19항에 있어서,
상기 시간적으로 인접한 영상들은 상기 참조 뷰의 영상에 시간적으로 인접한 영상들인, 영상 처리 방법.
20. The method of claim 19,
Wherein the temporally adjacent images are temporally adjacent to an image of the reference view.
제19항에 있어서,
상기 시간적으로 인접한 영상들은 상기 출력 뷰의 영상에 시간적으로 인접한 영상들인, 영상 처리 방법.
20. The method of claim 19,
Wherein the temporally adjacent images are temporally adjacent to an image of the output view.
삭제delete 제19항에 있어서,
상기 홀을 상기 홀과 인접한 하나 이상의 픽셀들을 스케일링함으로써 복원하는 인접 픽셀 스케일링 기반 홀 복원 단계; 및
상기 홀이 포함되는 영역과 가장 유사한 패치를 배경으로부터 탐색하고, 상기 탐색된 패치를 사용함으로써 상기 홀을 복원하는 최적 패치 탐색 기반 홀 복원 단계
를 더 포함하는, 영상 처리 방법.
20. The method of claim 19,
An adjacent pixel scaling-based hole restoration step of restoring the hole by scaling one or more pixels adjacent to the hole; And
Searching for a patch most similar to an area including the hole from the background and restoring the hole by using the retrieved patch,
Further comprising the steps of:
제19항 내지 제21항 및 제23항 중 어느 한 항의 방법을 수행하는 프로그램을 수록한 컴퓨터 판독 가능 기록 매체.A computer-readable recording medium embodying a program for carrying out the method according to any one of claims 19 to 21 and 23. 하나 이상의 프로세서-실행가능한(processor-executable) 유닛들을 제어하는 프로세서;
참조 뷰의 영상 및 상기 참조 뷰의 영상의 양안시차 정보에 기반하여 출력 뷰의 영상을 생성하는 영상 생성부;
상기 출력 뷰 내의 홀에 인접한 완충 영역을 홀로 간주함으로써 상기 출력 뷰 내의 홀을 확대하는 완충 구간 설정부 - 상기 출력 뷰 내의 홀은 상기 출력 뷰의 생성의 결과로서 생성됨 -; 및
상기 생성과 관련된 영상에 시간적으로 인접한 영상들의 배경 정보를 사용하여 상기 출력 뷰 내의 상기 확대된 홀을 복원하는 인접 영상 기반 홀 복원부
를 포함하고,
상기 인접 영상 기반 홀 복원부는 제1 픽셀이 상기 완충 영역 내의 픽셀인 경우 상기 제1 픽셀의 컬러 값에 기초하여 상기 제1 픽셀을 복원하는, 멀티-뷰 생성 장치.
A processor for controlling one or more processor-executable units;
An image generating unit generating an image of an output view based on binocular disparity information of a reference view and an image of the reference view;
A buffer zone setting unit for enlarging a hole in the output view by considering a buffer zone adjacent to the hole in the output view as a hole, the hole in the output view being generated as a result of generation of the output view; And
Based holographic reconstruction unit for reconstructing the enlarged hole in the output view using background information of images temporally adjacent to the image related to the generation,
Lt; / RTI >
Wherein the adjacent image-based hall reconstruction unit restores the first pixel based on the color value of the first pixel when the first pixel is a pixel in the buffer area.
제25항에 있어서,
상기 시간적으로 인접한 영상들은 상기 참조 뷰의 영상에 시간적으로 인접한 영상들인, 멀티-뷰 생성 장치.
26. The method of claim 25,
Wherein the temporally adjacent images are images temporally adjacent to the image of the reference view.
제25항에 있어서,
상기 시간적으로 인접한 영상들은 상기 출력 뷰의 영상에 시간적으로 인접한 영상들인, 멀티-뷰 생성 장치.
26. The method of claim 25,
Wherein the temporally adjacent images are temporally adjacent to the image of the output view.
제25항에 있어서,
상기 영상 생성부는 상기 참조 뷰로부터 데이터를 내삽 또는 외삽함으로써 상기 출력 뷰의 영상을 생성하는, 멀티-뷰 생성 장치.
26. The method of claim 25,
Wherein the image generating unit generates an image of the output view by interpolating or extrapolating data from the reference view.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 영상 처리 장치를 포함하는 디스플레이 디바이스에 있어서,
참조 뷰의 영상 및 상기 참조 뷰의 영상의 양안시차 정보에 기반하여 출력 뷰의 영상을 생성하는 영상 와핑부;
상기 영상 와핑에 의해 생성된 상기 출력 뷰 내의 홀에 인접한 완충 영역을 홀로 간주함으로써 상기 출력 뷰 내의 홀을 확대하는 완충 구간 설정부 - 상기 홀은 상기 출력 뷰의 생성의 결과로서 생성됨 -;
상기 생성과 관련된 영상에 시간적으로 인접한 영상들의 배경 정보를 사용하여 상기 생성된 출력 뷰 내의 상기 확대된 홀을 복원하는 인접 영상 기반 홀 복원부; 및
상기 인접 영상 기반 홀 복원부에 의해 복원된 상기 홀을 갖는 상기 생성된 출력 뷰의 영상에 기반하여 상기 디스플레이 디바이스에 의해 디스플레이될 신호를 생성하는 제어부
를 포함하고,
상기 인접 영상 기반 홀 복원부는 제1 픽셀이 상기 완충 영역 내의 픽셀인 경우 상기 제1 픽셀의 컬러 값에 기초하여 상기 제1 픽셀을 복원하는, 영상 처리 장치를 포함하는, 디스플레이 디바이스.
A display device including an image processing apparatus,
An image and a ping block for generating an image of an output view based on a binarized parallax information of an image of a reference view and an image of the reference view;
A buffer region setting unit that enlarges a hole in the output view by considering a buffer region adjacent to a hole in the output view generated by the image watermark as hole, the hole being generated as a result of generation of the output view;
An adjacent image-based hall reconstruction unit for reconstructing the enlarged hole in the generated output view using background information of images temporally adjacent to the generation-related image; And
And a control unit for generating a signal to be displayed by the display device based on the image of the generated output view having the hole reconstructed by the adjacent image-
Lt; / RTI >
Wherein the adjacent image-based hall reconstruction unit restores the first pixel based on the color value of the first pixel when the first pixel is a pixel in the buffer area.
제39항에 있어서,
상기 시간적으로 인접한 영상들은 상기 참조 뷰의 영상에 시간적으로 인접한 영상들인, 디스플레이 디바이스.
40. The method of claim 39,
Wherein the temporally adjacent images are images temporally adjacent to the image of the reference view.
제39항에 있어서,
상기 시간적으로 인접한 영상들은 상기 출력 뷰의 영상에 시간적으로 인접한 영상들인, 디스플레이 디바이스.
40. The method of claim 39,
Wherein the temporally adjacent images are images temporally adjacent to the image of the output view.
KR1020110142432A 2011-01-13 2011-12-26 Apparatus and method for multi-view rendering using background pixel expansion and background-first patch matching KR101960852B1 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US13/349,115 US9582928B2 (en) 2011-01-13 2012-01-12 Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching
JP2013549367A JP6173218B2 (en) 2011-01-13 2012-01-12 Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching
CN201280001829.2A CN102985949B (en) 2011-01-13 2012-01-12 Background pixel is used to expand the multi views rendering apparatus with the preferential Block-matching of background and method
PCT/KR2012/000299 WO2012096530A2 (en) 2011-01-13 2012-01-12 Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching
EP12151022.6A EP2477158B1 (en) 2011-01-13 2012-01-13 Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20110003658 2011-01-13
KR1020110003658 2011-01-13

Publications (2)

Publication Number Publication Date
KR20120082336A KR20120082336A (en) 2012-07-23
KR101960852B1 true KR101960852B1 (en) 2019-03-22

Family

ID=46714172

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110142432A KR101960852B1 (en) 2011-01-13 2011-12-26 Apparatus and method for multi-view rendering using background pixel expansion and background-first patch matching

Country Status (3)

Country Link
JP (1) JP6173218B2 (en)
KR (1) KR101960852B1 (en)
CN (1) CN102985949B (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140039649A (en) * 2012-09-24 2014-04-02 삼성전자주식회사 Multi view image generating method and multi view image display apparatus
KR102156410B1 (en) * 2014-04-14 2020-09-15 삼성전자주식회사 Apparatus and method for processing image considering motion of object
KR102350235B1 (en) * 2014-11-25 2022-01-13 삼성전자주식회사 Image processing method and apparatus thereof
KR102380862B1 (en) 2015-09-01 2022-03-31 삼성전자주식회사 Method and apparatus for image processing
CN106060511B (en) * 2016-06-17 2018-11-16 浙江工商大学 Three-dimensional video-frequency complementing method and system based on depth map
KR102608466B1 (en) 2016-11-22 2023-12-01 삼성전자주식회사 Method and apparatus for processing image
JP7202087B2 (en) * 2018-06-29 2023-01-11 日本放送協会 Video processing device
KR102641163B1 (en) 2018-11-29 2024-02-28 삼성전자주식회사 Image processing apparatus and image processing method thereof
US20200296401A1 (en) * 2019-03-15 2020-09-17 Mediatek Inc. Method and Apparatus of Patch Segmentation for Video-based Point Cloud Coding

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050285875A1 (en) * 2004-06-28 2005-12-29 Microsoft Corporation Interactive viewpoint video system and process
KR100590025B1 (en) * 2004-12-30 2006-06-14 전자부품연구원 Method and device for synthesizing intermediate images in a multi-view square camera based display system

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000253422A (en) * 1999-03-03 2000-09-14 Toshiba Corp Method for generating three-dimensionall image from two-dimensional image
US7362799B1 (en) * 2002-06-27 2008-04-22 Arraycomm Llc Method and apparatus for communication signal resolution
EP1672460B1 (en) * 2004-12-15 2009-11-25 STMicroelectronics (Research & Development) Limited Computer user detection apparatus
US7548659B2 (en) * 2005-05-13 2009-06-16 Microsoft Corporation Video enhancement
US7570812B2 (en) * 2005-11-01 2009-08-04 Samsung Electronics Co., Ltd. Super precision for smoothly changing area based on segmentation and low-pass filtering
US20100289815A1 (en) * 2008-01-24 2010-11-18 Koninklijke Philips Electronics N.V. Method and image-processing device for hole filling
CN101282492B (en) * 2008-05-23 2010-07-21 清华大学 Method for regulating display depth of three-dimensional image
KR101468267B1 (en) * 2008-10-02 2014-12-15 프라운호퍼-게젤샤프트 추르 푀르데룽 데어 안제반텐 포르슝 에 파우 Intermediate view synthesis and multi-view data signal extraction
JP5209121B2 (en) * 2009-09-18 2013-06-12 株式会社東芝 Parallax image generation device
EP2533191B1 (en) * 2010-02-02 2017-06-14 Konica Minolta Holdings, Inc. Image processing system, image processing method, and program
JP5002702B2 (en) * 2010-12-03 2012-08-15 株式会社東芝 Parallax image generation device, stereoscopic video display device, and parallax image generation method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050285875A1 (en) * 2004-06-28 2005-12-29 Microsoft Corporation Interactive viewpoint video system and process
KR100590025B1 (en) * 2004-12-30 2006-06-14 전자부품연구원 Method and device for synthesizing intermediate images in a multi-view square camera based display system

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
C Vázquez,, Stereoscopic imaging: filling disoccluded areas in depth image- based rendering, 2006.*
Liang Zhang et al. , "Stereoscopic image generation based on depth images for 3D TV", IEEE Trans. on Broadcasting, Vol.51, Issue 2, 2005.06.*
P. Kauff et al., "Depth map creation and image-based rendering for advanced 3DTV services providing interoperability and scalability", Signal Processing Image Communication, Vol.22, Issue 2, 2007.02.*
RK Gunnewiek et al. , "Coherent spatial and temporal occlusion generation," IS&T/SPIE Electronic Imaging, 2009*

Also Published As

Publication number Publication date
CN102985949B (en) 2016-10-26
JP2014515197A (en) 2014-06-26
JP6173218B2 (en) 2017-08-02
CN102985949A (en) 2013-03-20
KR20120082336A (en) 2012-07-23

Similar Documents

Publication Publication Date Title
KR101960852B1 (en) Apparatus and method for multi-view rendering using background pixel expansion and background-first patch matching
US9582928B2 (en) Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching
JP5156837B2 (en) System and method for depth map extraction using region-based filtering
US9041819B2 (en) Method for stabilizing a digital video
JP4658223B2 (en) Image generating method, apparatus, program thereof, and recording medium recording program
US20130162634A1 (en) Image processing method and apparatus using multi-layer representation
KR101502362B1 (en) Apparatus and Method for Image Processing
US20130127988A1 (en) Modifying the viewpoint of a digital image
US8611642B2 (en) Forming a steroscopic image using range map
KR101729924B1 (en) Apparatus and method for generating extrapolated view based on image resizing
US20130129192A1 (en) Range map determination for a video frame
KR101580284B1 (en) Apparatus and method for generating intermediate view image
EP2747427B1 (en) Method, apparatus and computer program usable in synthesizing a stereoscopic image
JP5519085B1 (en) Moving image generating apparatus and moving image generating method
JP4892113B2 (en) Image processing method and apparatus
JP2007053621A (en) Image generating apparatus
JP2014072809A (en) Image generation apparatus, image generation method, and program for the image generation apparatus
US20130229408A1 (en) Apparatus and method for efficient viewer-centric depth adjustment based on virtual fronto-parallel planar projection in stereoscopic images
Wei et al. Iterative depth recovery for multi-view video synthesis from stereo videos
Tian et al. A trellis-based approach for robust view synthesis
Wang et al. Local depth image enhancement scheme for view synthesis
Wei et al. Video synthesis from stereo videos with iterative depth refinement
Liu Improving forward mapping and disocclusion inpainting algorithms for depth-image-based rendering and geomatics applications
Schmeing et al. Faithful spatio-temporal disocclusion filling using local optimization
Medeiros et al. Iterative disparity estimation and image segmentation

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right