KR101960852B1 - Apparatus and method for multi-view rendering using background pixel expansion and background-first patch matching - Google Patents
Apparatus and method for multi-view rendering using background pixel expansion and background-first patch matching Download PDFInfo
- Publication number
- KR101960852B1 KR101960852B1 KR1020110142432A KR20110142432A KR101960852B1 KR 101960852 B1 KR101960852 B1 KR 101960852B1 KR 1020110142432 A KR1020110142432 A KR 1020110142432A KR 20110142432 A KR20110142432 A KR 20110142432A KR 101960852 B1 KR101960852 B1 KR 101960852B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- hole
- view
- pixel
- adjacent
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/387—Composing, repositioning or otherwise geometrically modifying originals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
멀티 뷰 렌더링에서 발생하는 홀을 복원하기 위한 장치 및 방법이 제공된다. 영상 와핑과 관련된 영상에 시간적으로 인접한 영상들을 사용함으로써 출력 뷰 내의 홀이 복원된다. 홀과 인접한 화소들을 스케일링함으로써 홀이 복원된다. 또한, 홀을 포함하는 영역과 가장 유사한 패치를 검색하고, 검색된 패치를 홀을 포함하는 영역을 채우기 위해 사용함으로써 홀이 복원된다.An apparatus and method for reconstructing a hole that occurs in multi-view rendering are provided. Holes in the output view are restored by using images temporally adjacent to the image associated with the image watermark. Holes are restored by scaling the pixels adjacent to the holes. Further, the hole is restored by searching for the patch most similar to the area including the hole, and using the searched patch to fill the area including the hole.
Description
아래의 실시예들은 멀티 뷰 렌더링 장치 및 방법에 관한 것이다.The following embodiments relate to a multi-view rendering apparatus and method.
3D(3-dimensional) 영상(image)을 생성하기 위해서는, 넓은 시야각을 갖는 다시점의 3D 영상들이 연속적으로 표현되어야 한다.In order to generate a 3D image, multi-view 3D images having a wide viewing angle must be continuously displayed.
그러나, 다시점의 영상들을 각각 촬영하고, 촬영된 다시점의 영상들을 실시간 전송하는 것은 용이하지 않다. 이는, 촬영 시스템의 물리적인 한계를 비롯하여, 촬영된 데이터를 저장 및 전송하는 것이 용이하지 않기 때문이다.However, it is not easy to capture the images of the multi-viewpoints and to transmit the captured multi-viewpoint images in real time. This is because it is not easy to store and transmit photographed data, including physical limitations of the photographing system.
따라서, 3D 영상 생성 장치는 소수(예컨대 2개 내지 3개)의 입력 뷰(view)(또는, 참조(reference) 뷰))들만을 사용하여 3D 영상을 생성할 수 있고, 생성된 3D 영상을 재생하는 3D 디스플레이(display) 장치는 입력 뷰들을 내삽 또는 외삽함으로써 다수의 출력 뷰들을 생성할 수 있다.Thus, the 3D image generation apparatus can generate a 3D image using only a small number of (for example, two to three) input views (or reference views)) and reproduce the generated 3D image A 3D display device may generate multiple output views by interpolating or extrapolating the input views.
일 실시예는, 영상 와핑에 의해 생성된 출력 뷰 영상 내에 있는 홀을 복원하기 위한 장치 및 방법을 제공한다.One embodiment provides an apparatus and method for recovering a hole in an output view image generated by image watermarking.
일측에 따르면, 하나 이상의 프로세서-실행가능한(processor-executable) 유닛들을 제어하는 프로세서, 참조 뷰의 영상 및 상기 참조 뷰의 영상의 양안시차 정보를 사용하는 이미지 와핑에 의해 출력 뷰의 영상을 생성하는 영상 와핑부 및 상기 영상 와핑과 관련된 영상에 시간적으로 인접한 영상들을 사용하여 상기 영상 와핑에 의해 생성된 홀을 복원하는 인접 영상 기반 홀 복원부를 포함하는, 영상 처리 장치가 제공된다.According to one aspect, there is provided a processor for controlling one or more processor-executable units, an image generating unit that generates an image of an output view by image warping using an image of a reference view and binocular disparity information of the image of the reference view And an adjacent image-based hall reconstructing unit for reconstructing the hall generated by the image overwriting using the wiping unit and the images temporally adjacent to the image related to the image warping.
상기 시간적으로 인접한 영상들은 상기 참조 뷰의 영상에 시간적으로 인접한 영상들일 수 있다.The temporally adjacent images may be images temporally adjacent to the image of the reference view.
상기 시간적으로 인접한 영상들은 상기 출력 뷰의 영상에 시간적으로 인접한 영상들일 수 있다.The temporally adjacent images may be temporally adjacent to the image of the output view.
상기 인접 영상 기반 홀 복원부는 상기 홀 내의 제1 픽셀을 복원하기 위해 상기 시간적으로 인접한 영상들 내의 상기 제1 픽셀에 대응하는 픽셀들의 컬러 값을 사용할 수 있다.The adjacent image-based hall reconstruction unit may use a color value of pixels corresponding to the first pixel in the temporally adjacent images to reconstruct a first pixel in the hole.
상기 인접 영상 기반 홀 복원부는 상기 참조 뷰의 영상 및 상기 시간적으로 인접한 영상들이 시간에 따라 전체적으로 이동한 경우, 상기 이동에 기반하여 상기 시간적으로 인접한 영상들 내에서 상기 제1 픽셀에 대응하는 픽셀들을 선택할 수 있다.Wherein the neighboring-image-based hall reconstructing unit selects the pixels corresponding to the first pixel in the temporally adjacent images based on the movement if the reference view image and the temporally adjacent images are entirely moved with time .
상기 인접 영상 기반 홀 복원부는 상기 제1 픽셀에 대응하는 픽셀들 중 홀 픽셀이 아닌 픽셀만을 상기 홀을 복원하기 위해 사용할 수 있다.The adjacent image-based hole restoration unit may use only pixels other than the hole pixels among the pixels corresponding to the first pixel to restore the hole.
상기 인접 영상 기반 홀 복원부는 상기 제1 픽셀에 대응하는 픽셀들 중 배경 픽셀만을 상기 홀을 복원하기 위해 사용할 수 있다.The adjacent image-based hall reconstruction unit may use only a background pixel among the pixels corresponding to the first pixel to reconstruct the hall.
상기 영상 처리 장치는, 상기 영상 와핑에 의해 생성된 홀을 확대하는 완충 구간 설정부를 더 포함할 수 있다.The image processing apparatus may further include a buffer interval setting unit for enlarging the hole generated by the image watermarking.
상기 완충 구간 설정부는 상기 홀에 인접한 완충 영역을 상기 홀로 간주함으로써 상기 홀을 확대할 수 있고, 상기 인접 영상 기반 홀 복원부는 상기 제1 픽셀이 상기 완충 영역 내의 픽셀인 경우 상기 제1 픽셀의 컬러 값에 기반하여 상기 제1 픽셀을 복원할 수 있다.Wherein the buffer section setting section enlarges the hole by considering the buffer region adjacent to the hole as the hole, and the adjacent image-based hole restoration section restores the color value of the first pixel when the first pixel is a pixel in the buffer region The first pixel may be restored.
상기 영상 처리 장치는, 상기 출력 뷰의 영상 중 크랙을 홀로 설정하는 양안시차 크랙 검출부를 더 포함할 수 있다.The image processing apparatus may further include a binocular parallax crack detecting unit for setting a crack in an image of the output view as an image.
상기 양안시차 크랙 검출부는 상기 출력 뷰 내의 픽셀들 중, 인접한 픽셀들과의 양안시차 값의 차들의 총 합이 미리 정의된 임계 값보다 큰 픽셀을 크랙으로 검출할 수 있다.The binocular parallax crack detecting unit may detect cracks of pixels in the output view in which the sum of differences of binocular parallax values with adjacent pixels is larger than a predefined threshold value.
다른 일측에 따르면, 하나 이상의 프로세서 실행가능한(processor-executable) 유닛들을 제어하는 프로세서;참조 뷰의 영상 및 상기 참조 뷰의 영상의 양안시차 정보를 사용하는 영상 와핑에 의해 출력 뷰의 영상을 생성하는 영상 와핑부 및 상기 영상 와핑에 의해 생성된 홀을 상기 홀과 인접한 하나 이상의 픽셀들을 스케일링함으로써 복원하는 인접 픽셀 스케일링 기반 홀 복원부를 포함하는, 영상 처리 장치가 제공된다.
According to another aspect, there is provided a processor for controlling one or more processor-executable units, the processor comprising: a processor for generating processor-executable units for generating an image of an output view by image warping using an image of a reference view and binocular disparity information of the image of the reference view And a neighboring pixel scaling-based hole reconstruction unit for reconstructing the hole generated by the image waving by scaling one or more pixels adjacent to the hole.
상기 인접 픽셀 스케일링 기반 홀 복원부는 상기 하나 이상의 픽셀들 중 배경 픽셀만을 스케일링할 수 있다.The adjacent pixel scaling-based hole restoration unit may scale only the background pixel among the one or more pixels.
상기 홀을 구성하는 하나 이상의 홀 픽셀들 및 상기 하나 이상의 픽셀들은 동일한 수평선 상에 있을 수 있다.One or more of the hole pixels and the one or more pixels constituting the hole may be on the same horizontal line.
상기 인접 픽셀 스케일링 기반 홀 복원부는 상기 홀에 인접한 배경 픽셀의 그레디언트와 수직한 방향으로 상기 하나 이상의 픽셀들을 스케일링할 수 있고, 상기 배경 픽셀은 상기 하나 이상의 픽셀들 중 하나의 픽셀일 수 있다.The adjacent pixel scaling based hole restoration unit may scale the one or more pixels in a direction perpendicular to a gradient of a background pixel adjacent to the hole, and the background pixel may be one of the one or more pixels.
또 다른 일측에 따르면, 하나 이상의 프로세서-실행가능한(processor-executable) 유닛들을 제어하는 프로세서, 참조 뷰의 영상 및 상기 참조 뷰의 영상의 양안시차 정보를 사용하는 영상 와핑에 의해 출력 뷰의 영상을 생성하는 영상 와핑부 및 상기 영상 와핑에 의해 생성된 홀이 포함되는 영역과 가장 유사한 패치를 배경으로부터 탐색하고, 상기 탐색된 패치를 사용함으로써 상기 홀을 복원하는 최적 패치 탐색 기반 홀 복원부를 포함하는, 영상 처리 장치가 제공된다..According to another aspect, an image of an output view is generated by a processor controlling one or more processor-executable units, an image of a reference view, and image warping using binocular disparity information of the image of the reference view And an optimal patch search-based hole restoration unit for searching the background most similar to the area including the image including the image, the ping unit and the hole generated by the image overwriting, and restoring the hole by using the searched patch. A processing device is provided.
상기 홀이 포함되는 영역은 홀 영역 및 배경 영역으로 구성될 수 있고, 상기 최적 패치 탐색 기반 홀 복원부는 상기 탐색된 패치 중 상기 홀 영역에 대응하는 부분을 사용하여 상기 홀 영역을 복원할 수 있다.The area including the hole may be composed of a hole area and a background area, and the optimal patch search-based hole restoration part may restore the hole area using a part corresponding to the hole area in the searched patches.
상기 최적 패치 탐색 기반 홀 복원 부는 제1 영역을 위한 제1 패치를 탐색하고, 제2 영역을 위한 제2 패치를 탐색하며, 상기 제1 패치 및 상기 제2 패치의 평균 값을 사용하여 상기 제1 영역 및 상기 제2 영역에서 중첩되는 홀 부분을 복원할 수 있다.Wherein the optimal patch search-based hole restoration unit searches for a first patch for a first area, searches for a second patch for a second area, and uses the average value of the first patch and the second patch to search for the first patch And a hole portion overlapping in the second region.
또 다른 일측에 따르면, 프로세서에 의해 참조 뷰 영상의 양안시차 정보에 기반하여 상기 참조 뷰의 영상을 이미지 와핑함으로써 출력 뷰의 영상을 생성하는 영상 와핑 단계 및 상기 생성에 관련된 영상에 시간적으로 인접한 영상들을 사용하여 상기 출력 뷰 내에 생성된 홀을 복원하는 인접 영상 기반 홀 복원 단계를 포함하는 영상 처리 방법이 제공된다.According to another aspect of the present invention, there is provided an image processing method comprising: an image overwriting step of generating an output view image by image-waving an image of the reference view based on binocular disparity information of a reference view image by a processor; There is provided an image processing method including an adjacent image-based hall reconstruction step of reconstructing a hall created in the output view using the reconstructed image.
상기 영상 처리 방법은 상기 홀을 확대하는 완충 구간 설정 단계를 더 포함할 수 있다.The image processing method may further include a buffer interval setting step of enlarging the hole.
상기 영상 처리 방법은 상기 출력 뷰의 영상 중 크랙을 상기 홀로 설정하는 양안시차 크랙 검출 단계를 더 포함할 수 있다.The image processing method may further include a binocular parallax crack detecting step of setting a crack among the images of the output view as the blank.
상기 영상 처리 방법은 상기 홀을 상기 홀과 인접한 하나 이상의 픽셀들을 스케일링함으로써 복원하는 인접 픽셀 스케일링 기반 홀 복원 단계를 더 포함할 수 있다.The image processing method may further include an adjacent pixel scaling-based hole restoration step of restoring the hole by scaling one or more pixels adjacent to the hole.
상기 영상 처리 방법은 상기 홀이 포함되는 영역과 가장 유사한 패치를 배경으로부터 탐색하고, 상기 탐색된 패치를 사용함으로써 상기 홀을 복원하는 최적 패치 탐색 기반 홀 복원 단계를 더 포함할 수 있다.The image processing method may further include searching for a patch most similar to an area including the hole from the background and restoring the hole by using the retrieved patch.
또 다른 일 측에 따르면, 하나 이상의 프로세서-실행가능한(processor-executable) 유닛들을 제어하는 프로세서, 참조 뷰의 영상 및 상기 참조 뷰의 영상의 양안시차 정보에 기반하여 출력 뷰의 영상을 생성하는 영상 와핑부 및 상기 생성과 관련된 영상에 시간적으로 인접한 영상들의 배경 정보를 사용하여 상기 생성된 출력 뷰의 영상의 현재 프레임 내에 존재하는 홀을 복원하는 인접 영상 기반 홀 복원부 - 상기 홀은 상기 출력 뷰의 생성의 결과로서 생성됨 -를 포함하는, 멀티-뷰 생성 장치가 제공된다.According to another aspect, there is provided a processor for controlling one or more processor-executable units, an image generating an output view image based on an image of a reference view, and binocular disparity information of the image of the reference view, An image reconstruction unit for reconstructing a reconstructed image of a current frame of an output image using the background information of images temporally adjacent to the image related to the generation of the output view, And generating a multi-view generated by the multi-view generator.
또 다른 일 측에 따르면, 하나 이상의 프로세서-실행가능한(processor-executable) 유닛들을 제어하는 프로세서, 적어도 하나의 참조 뷰 영상에 기반하여 출력 뷰의 영상을 생성하는 영상 생성부, 상기 생성된 출력 뷰의 영상의 미리 정의된 객체 내의 크랙을 검출하는 양안시차 크랙 검출부 - 상기 미리 정의된 객체는 상기 미리 정의된 객체의 상이한 부분들로 할당된 상이한 양안시차 값들을 가지고, 상기 크랙은 상기 적어도 하나의 참조 뷰의 영상에 기반하여 상기 출력 뷰의 영상을 생성한 것에 기인하여 상기 미리 정의된 객체 내에 발생함 - 및 상기 크랙을 홀로서 재할당하고, 상기 생성과 관련된 영상에 시간적으로 인접한 프레임들의 배경 정보를 사용함으로써 상기 생성된 출력 뷰 영상의 현재 프레임 내에 존재하는 상기 홀을 복원하는 멀티-뷰 생성부를 포함하는, 멀티-뷰 생성 장치가 제공된다.According to another aspect, there is provided a processor for controlling one or more processor-executable units, an image generator for generating an image of an output view based on at least one reference view image, A binocular parallax crack detector for detecting a crack in a predefined object of an image, said predefined object having different binocular disparity values assigned to different parts of said predefined object, said crack having at least one reference view Wherein the generated image is generated in the predefined object due to the generation of an image of the output view based on the image of the output view and the background information of frames temporally adjacent to the image associated with the generation is used A multi-view generation unit for restoring the hall existing in the current frame of the generated output view image, , Including multi-view is generated is provided.
상기 시간적으로 인접한 프레임들은 상기 참조 뷰의 영상에 시간적으로 인접한 프레임들일 수 있다.The temporally adjacent frames may be frames temporally adjacent to the image of the reference view.
상기 시간적으로 인접한 프레임들은 상기 출력 뷰의 영상에 시간적으로 인접한 프레임들일 수 있다.The temporally adjacent frames may be frames temporally adjacent to the image of the output view.
또 다른 일 측에 따르면, 프로세서에 의해, 적어도 하나의 참조 뷰 영상에 기반하여 출력 뷰의 영상을 생성하는 단계, 상기 생성된 출력 뷰의 영상의 미리 정의된 객체 내의 크랙을 검출하는 단계 - 상기 미리 정의된 객체는 상기 미리 정의된 객체의 상이한 부분들로 할당된 상이한 양안시차 값들을 가지고, 상기 크랙은 상기 적어도 하나의 참조 뷰의 영상에 기반하여 상기 출력 뷰의 영상을 생성한 것에 기인하여 상기 미리 정의된 객체 내에 발생함 - 및 상기 크랙을 홀로서 재할당하고, 상기 생성과 관련된 영상에 시간적으로 인접한 프레임들의 배경 정보를 사용함으로써 상기 생성된 출력 뷰 영상의 현재 프레임 내에 존재하는 상기 홀을 복원하는 단계를 포함하는, 멀티-뷰 생성 방법이 제공된다.According to another aspect, there is provided a method comprising: generating, by a processor, an image of an output view based on at least one reference view image; detecting a crack in a predefined object of the image of the generated output view, Wherein the defined object has different binocular disparity values assigned to different parts of the predefined object and the crack is caused by the presence of the preview image due to the generation of the image of the output view based on the image of the at least one reference view Restoring the holes present in the current frame of the generated output view image by using the background information of temporally adjacent frames in the image related to the generation, A multi-view generation method is provided, comprising the steps of:
본 발명의 또 다른 일 측에 따르면, 영상 처리 장치를 포함하는 디스플레이 디바이스에 있어서, 참조 뷰의 영상 및 상기 참조 뷰의 영상의 양안시차 정보에 기반하여 출력 뷰의 영상을 생성하는 영상 와핑부, 상기 생성과 관련된 영상에 시간적으로 인접한 영상들의 배경 정보를 사용하여 상기 생성된 출력 뷰의 영상의 현재 프레임 내에 존재하는 홀을 복원하는 인접 영상 기반 홀 복원부 - 상기 홀은 상기 출력 뷰의 생성의 결과로서 생성됨 - 및 상기 인접 영상 기반 홀 복원부에 의해 복원된 상기 홀을 갖는 상기 생성된 출력 뷰의 영상에 기반하여 상기 디스플레이 디바이스에 의해 디스플레이될 신호를 생성하는 제어부를 포함하는, 영상 처리 장치를 포함하는 디스플레이 디바이스가 제공된다.According to another aspect of the present invention, there is provided a display device including an image processing apparatus, comprising: an image and a ping section for generating an image of an output view based on binocular disparity information of an image of a reference view and an image of the reference view; An adjacent image-based hall reconstruction unit for reconstructing a hall existing in a current frame of an image of the generated output view using background information of images temporally adjacent to an image related to generation of the output image, And a control unit for generating a signal to be displayed by the display device based on an image of the generated output view having the hole restored by the adjacent image-based hole restoration unit A display device is provided.
영상 와핑에 의해 생성된 출력 뷰 영상 내에 있는 홀을 복원하기 위한 장치 및 방법이 제공된다.An apparatus and method are provided for restoring a hole in an output view image generated by image watermarking.
도 1은 일 예에 따른 3개의 입력 뷰에 기반한 뷰 생성 방법을 설명한다.
도 2는 일 실시예에 따른 외삽 뷰의 프레임 생성 방법을 도시한다
도 3은 일 실시예에 따른 영상 처리 장치의 구조도이다.
도 4는 일 예에 따른 영상 와핑에 관련된 영상에 시간적으로 인접한 영상들을 사용한 홀의 복원을 설명한다.
도 5는 일 예에 따른 완충 구간 설정에 의한 홀 확대를 설명한다.
도 6은 일 예에 따른 크랙의 발생 및 양안시차 크랙의 검출에 의한 홀 설정을 설명한다.
도 7은 일 예에 따른 인접 픽셀 스케일링을 설명한다.
도 8은 일 예에 따른 배경 픽셀을 사용하는 인접 픽셀 스케일링을 설명한다.
도 9는 일 예에 따른 배경의 그레디언트(gradient)에 수직한 방향으로의 스케일링을 설명한다.
도 10은는 일 에에 따른 최적 패치 탐색에 기반한 홀의 복원을 설명한다.
도 11은 일 예에 따른 패치의 중첩을 사용한 홀의 복원을 설명한다.
도 12는 일 실시예에 따른 영상 처리 방법의 흐름도이다.
도 13은 일 실시예에 따른 영상 처리 장치를 포함하는 디스플레이 디바이스를 도시한다.Figure 1 illustrates a view generation method based on three input views according to an example.
Figure 2 illustrates a frame generation method of an extrapolated view according to one embodiment
3 is a structural diagram of an image processing apparatus according to an embodiment.
FIG. 4 illustrates restoration of a hole using images temporally adjacent to an image related to image warping according to an example.
FIG. 5 illustrates hole enlargement by setting a buffer interval according to an example.
Fig. 6 illustrates generation of cracks and hole setting by detecting binocular parallax cracks according to an example.
Figure 7 illustrates adjacent pixel scaling according to an example.
Figure 8 illustrates adjacent pixel scaling using a background pixel according to an example.
Figure 9 illustrates scaling in a direction perpendicular to the gradient of the background according to an example.
FIG. 10 illustrates restoration of holes based on optimal patch search for work.
Fig. 11 illustrates restoration of holes using overlapping patches according to an example.
12 is a flowchart of an image processing method according to an embodiment.
13 shows a display device including an image processing apparatus according to an embodiment.
이하에서, 본 발명의 일 실시예를, 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited to or limited by the embodiments. Like reference symbols in the drawings denote like elements.
도 1은 일 예에 따른 3개의 입력 뷰에 기반한 뷰 생성 방법을 설명한다.Figure 1 illustrates a view generation method based on three input views according to an example.
촬영의 대상이 되는 피사체(110)는 전경(foreground) 및 배경(background)(112)으로 구성된다. 상기 전경은 제1 객체(object)(114) 및 제2 객체(116)를 포함한다.The
관측자의 시점에 따라서, 제1 객체(114) 및 제2 객체(116)의 배경(112)에 대한 상대적 위치는 좌측 또는 우측으로 이동한다.Depending on the viewpoint of the observer, the relative position of the
예컨대 카메라와 같은, 제1 입력 장치(120)는 제1 시점에서, 제2 입력 장치(130)는 제2 시점에서 상기 피사체(110)를 촬영한다.The
입력 장치들(120, 130 및 140)은 각각의 시점에서 피사체(110)를 촬영하고, 각각 입력 뷰(122, 132 및 142)를 생성한다.The
예컨대, 즉, 제1 입력 뷰(122)는 시청자가 제1 시점에서 피사체(110)를 보았을 때의 영상을 제공하고, 제2 입력 뷰(132) 는 시청자가 제2 시점에서 피사체(110)를 보았을 때의 영상을 제공한다.For example, the
입력 뷰들(122, 132 및 142) 각각은 프레임(frame)들의 시퀀스(sequence)로 구성된다. 즉, 입력 뷰(122, 132 또는 142)는 단위 시간 당 특정한 개수, 예컨대 30FPS(frames per second)로 출력되는 프레임들로 구성된다. 특정 시점의 프레임은 상기 특정 시점의 영상을 생성하기 위한 데이터이다. 따라서, 입력 뷰들(122, 132 및 142) 각각은 영상들의 시퀀스(sequence)를 제공한다. 영상들 각각은 특정한 순간에 대응한다.Each of the
프레임(또는, 영상)은 픽셀(pixel)들로 구성된다. 프레임(또는, 영상) 내의 픽셀은 x 좌표 및 y 좌표로 구성된 좌표 값을 갖는다.A frame (or image) is composed of pixels. A pixel in a frame (or image) has a coordinate value composed of an x coordinate and a y coordinate.
픽셀들 각각은 대한 컬러(color) 값을 갖는다. 픽셀의 컬러 값은 컬러를 나타내기 위한 임의의 형식(type)(예컨대, RGB 또는 YCbCr)을 사용하여 표현될 수 있다.Each of the pixels has a color value. The color value of a pixel can be expressed using any type (e.g., RGB or YCbCr) to represent the color.
또한, 픽셀들 각각은 깊이(depth) 값을 갖는다. 픽셀의 깊이 값은, 픽셀이 나타내는 객체(object)(또는 배경(background)) 및 촬영 시점(즉, 뷰의 시점) 간의 거리를 나타낸다. 픽셀의 깊이 값은, 예컨대 정수 또는 부동소수점과 같은, 거리를 나타내기 위한 임의의 이진(binary) 형식을 사용하여 표현될 수 있다.Also, each of the pixels has a depth value. The depth value of a pixel represents the distance between the object (or background) represented by the pixel and the shooting time (i.e., the viewpoint of the view). The depth value of the pixel may be expressed using any binary format for representing the distance, e.g. integer or floating point.
픽셀들의 깊이 값은 프레임 내에 포함될 수 있다. 즉, 프레임이 픽셀의 컬러 값 및 깊이 값을 가질 수 있다.The depth value of the pixels may be included in the frame. That is, a frame may have a color value and a depth value of a pixel.
또한, 픽셀들의 깊이 값은 프레임과는 별도로 제공될 수 있다. 프레임(또는, 영상)의 깊이 정보는 프레임(또는, 영상)을 구성하는 픽셀들의 깊이 값들을 나타낸다. 프레임의 깊이 정보는 프레임 또는 입력 뷰와는 별도로 제공될 수 있다. 입력 뷰 내의 영상에 대한 깊이 정보가 입력 뷰와는 별도로 제공될 수 있다.In addition, the depth value of the pixels may be provided separately from the frame. The depth information of the frame (or image) represents depth values of pixels constituting the frame (or image). The depth information of the frame may be provided separately from the frame or the input view. Depth information about the image in the input view may be provided separately from the input view.
특정 시각 t에서의 제1 입력 뷰(122)의 프레임(124), 제2 입력 뷰(132)의 프레임(134) 및 제3 입력 뷰(142)의 프레임(144)이 사각형으로 도시되었다.The
3D 영상 장치는 입력 뷰들(122, 132 및 142)의 시점 외의, 다른 시점에서의 영상을 사용자에게 제공해야 할 필요가 있다. 따라서, 3D 영상 장치는 입력 뷰들(122, 132 및 142)을 기반으로 상기 입력 뷰들과(122, 132 및 142)는 다른 시점에서의 출력 뷰(output view)(또는, 목적 뷰(target view))를 생성할 수 있다. 상기의 입력 뷰들(122, 132 및 142)에 대응하는 시점들은 참조 뷰 시점들로 명명될 수 있다.The 3D imaging device needs to provide the user with an image at a different point in time than the viewpoints of the input views 122, 132, Thus, the 3D imaging device is based on the input views 122, 132, and 142, and the input views 122 and 132 and 142 are output views (or target views) Lt; / RTI > The points corresponding to the above input views 122, 132 and 142 may be named reference view points.
입력 장치들(120, 130 및 140)의 시점들(즉, 참조 뷰 시점들)이 아닌 상이한 시점에서 시청자가 피사체(110)를 바라보았을 때의 영상이 제공되기 위해서는, 상기 입력 장치들(120, 130 및 140)에 의해 생성되는 입력 뷰(122, 132 및 142)에 의해 제공되는 프레임들을 사용하는 뷰 외삽 또는 뷰 내삽에 의해 중간 시점에서의 출력 뷰가 생성되어야 한다.In order for an image to be provided when the viewer looks at the subject 110 at a different point in time than the viewpoints of the
출력 뷰의 생성은, 출력 뷰의 프레임들을 생성하는 것을 의미한다. 출력 뷰의 생성은 출력 뷰의 시점에서의 영상들을 제공하는 것을 의미할 수 있다.Creating an output view means creating frames in the output view. Creation of the output view may mean providing images at the viewpoint of the output view.
출력 뷰는 내삽에 의해 생성된 내삽 뷰 또는 외삽에 의해 생성된 외삽 뷰이다.The output view is an interpolated view generated by interpolation or an extrapolated view generated by extrapolation.
뷰 내삽(view interpolation)은 입력 뷰들(122, 132 및 142)의 시점들의 사이(즉, 내부)에 있는 임의의 가상 시점에서의 출력 뷰를 생성하는 것을 의미한다. 뷰 내삽은 생성하고자 하는 가상 뷰 시점에 인접한 좌측 및 우측의 입력 뷰 프레임(또는, 영상)들을 참조하여 출력 뷰 프레임(또는, 영상)을 생성할 수 있다. 내삽 뷰(interpolated view)는 뷰 내삽에 의해 생성된 출력 뷰이다.View interpolation means creating an output view at any virtual time point between (i.e., inside) the views of the input views 122, 132, The view interpolation can generate the output view frame (or image) by referring to the left and right input view frames (or images) adjacent to the virtual view point to be generated. An interpolated view is an output view generated by view interpolation.
뷰 외삽(view extrapolation)은 입력 뷰들(122, 132 및 142)의 시점들의 외곽에 있는 임의의 시점에서의 출력 뷰를 생성하는 것을 의미한다. 즉, 뷰 외삽은 최좌측 입력 뷰(122)의 시점보다 좌측 시점에서의 출력 뷰 또는 최우측 입력 뷰(142)의 시점보다 우측 시점에서의 출력 뷰를 생성하는 것을 의미한다. 외삽 뷰(extrapolated view)는 뷰 외삽에 의해 생성된 출력 뷰이다.View extrapolation refers to creating an output view at any point in time that is outside the viewpoints of the input views 122, 132, and 142. That is, the view extrapolation means to generate an output view at the right side of the
뷰 외삽은 최외곽에 있는 하나의 입력 뷰(122 또는 142)의 프레임(또는, 영상)을 참조하여 출력 뷰 프레임(또는, 영상)을 생성한다. 따라서, 뷰 외삽을 위해 사용될 수 있는 정보는 뷰 내삽을 위해 사용될 수 있는 정보에 비해 상대적으로 제한된다. 따라서, 사용될 수 있는 정보가 상대적으로 적기 때문에, 뷰 외삽에 의해 생성된 영상에서는 뷰 내삽으로 생성된 영상에 비해 많은 화질 열화가 발생한다.The view extrapolation generates an output view frame (or image) by referring to a frame (or image) of one
도시된 삼각형들(150, 152, 160, 162, 170, 172, 180 및 182)은 각각 삼각형이 위치한 시점에서의 내삽 뷰 또는 외삽 뷰의 프레임을 나타낸다.The
최좌측 입력 뷰(122)의 시점보다 더 좌측인 시점에서의 뷰는 외삽 뷰이다. 또한, 최우측 입력 뷰(142)의 시점보다 더 우측인 시점에서의 뷰는 외삽 뷰이다. 시각 t에서의 상기 외삽 뷰의 프레임들(150, 152, 180 및 182)이 도시되었다.The view at a point that is further to the left than the viewpoint of the
입력 뷰들(122, 132 및 142)의 시점들 사이에서 생성된 가상의 시점에서의 뷰는 내삽 뷰이다. 시각 t에서의 내삽 뷰의 프레임들(160, 162, 170 및 172)이 도시되었다.The view at the virtual viewpoint generated between the views of the input views 122, 132 and 142 is an interpolation view. The
내삽 뷰 및 외삽 뷰 또한 미리 정의된 시간 주기에 걸쳐서(over) 발생한 프레임의 시퀀스로 구성된다.An interpolated view and an extrapolated view also consist of a sequence of frames that occur over a predefined time period.
내삽 뷰 또는 외삽 뷰의 프레임은 깊이 정보를 가지지 않을 수 있다. 즉, 내삽 뷰 또는 외삽 뷰의 프레임은 2차원 프레임일 수 있다.Frames in interpolation views or extrapolated views may not have depth information. That is, the frame of the interpolation view or extrapolation view may be a two-dimensional frame.
전술된 것처럼, N 개의 입력 뷰들에 기반하여, 상기 N 개의 입력 뷰들의 시점 및 이와 상이한 시점에서의 M 개의 출력 뷰들이 생성될 수 있다.As described above, based on the N input views, M output views at the time of the N input views and at different times can be generated.
3D 영상 장치가, 시청자의 위치에 따라, M 개의 출력 뷰들 중 특정한 출력 뷰들을 시청자에게 제공하면, 시청자는 3D 영상 장치의 출력 뷰들을 통해 연속적인 실제(real) 3D 영상을 인지할 수 있다. 예컨대, 3D 영상 장치가 제1 출력 뷰를 시청자의 좌안으로, 제2 출력 뷰를 시청자의 우안으로 출력하면, 사용자는 3D 영상을 인식할 수 있다.
If the 3D imaging device provides the viewer with specific output views of the M output views, depending on the position of the viewer, the viewer can perceive a continuous real 3D image through the output views of the 3D imaging device. For example, when the 3D image device outputs the first output view to the left eye of the viewer and the second output view to the viewer's right eye, the user can recognize the 3D image.
도 2는 일 실시예에 따른 외삽 뷰의 프레임 생성 방법을 도시한다Figure 2 illustrates a frame generation method of an extrapolated view according to one embodiment
입력 뷰(210)를 통해 프레임의 시퀀스가 제공된다. 특정 시각 t에서의 입력 뷰(210)의 프레임(212)이 도시되었다.The input view 210 provides a sequence of frames. The
입력 뷰(210)에 기반하여 입력 뷰(210)보다 더 우측 시점에서의 뷰 외삽을 통해, 제1 외삽 뷰 및 제2 외삽 뷰가 생성된다.Based on the input view 210, a first extrapolated view and a second extrapolated view are generated through view extrapolation at the right viewpoint than the input view 210.
상기 특정 시각 t에서의 제1 외삽 뷰의 프레임(220) 및 제2 외삽 뷰의 프레임(230)이 입력 뷰(210)의 프레임(212)을 사용하여 생성된다.The
입력 뷰(210)는 도 1의 피사체(210)를 촬영한 것이며, 입력 뷰(210)의 프레임(212)은 배경(214), 제1 객체(216) 및 제2 객체(218)로 구성된다.1 and the
제1 외삽 뷰의 프레임(220)도 배경(224), 제1 객체(226) 및 제2 객체(228)로 구성된다. 또한, 제2 외삽 뷰의 프레임(230)은 배경(234), 제1 객체(236) 및 제2 객체(238)을 포함할 수 있다.The
제1 외삽 뷰의 시점은 입력 뷰(210)의 시점보다 우측에 위치한다. 따라서, 제1 외삽 뷰의 프레임(220) 내의 배경(224), 제1 객체(226) 및 제2 객체(228)는 입력 뷰(210)의 프레임(212)에서보다 더 좌측에 위치한다.The viewpoint of the first extrapolated view is located to the right of the viewpoint of the input view 210. Thus, the
상기의 배경(224)이 얼만큼 더 좌측에 위치할 것인지는 입력 뷰(210)의 시점으로부터 배경(224)까지의 거리에 의존하며, 입력 뷰(210)의 시점 및 제1 외삽 뷰의 시점 간의 거리에 의존한다.How far the
전술된 것과 같이, 배경(224) 전체가 좌측으로 이동하기 때문에, 제1 외삽 뷰의 프레임(220)은 입력 뷰(210)의 프레임(212)에 의해 적합하게 채워질 수 없는 프레임 경계 홀(244)을 갖는다. 경우에 따라, 배경(224)은 이동하지 않을 수 있다. 배경(224)이 이동하지 않는 경우, 프레임 경계 홀(244)은 생성되지 않는다.The
전경을 구성하는 객체들(226 및 228)은 배경(224)이 이동함에 따라 함께 이동한다. 또한 객체들(226 및 328)은 배경(224)보다 더 좌측으로 이동한다.The
상기의 객체들(226 및 228)이 배경(224)에 대비하여 얼만큼 더 좌측에 위치할 것인지는 입력 뷰(210)의 시점으로부터 객체들(226 및 228) 각각까지의 거리에 의존하며, 입력 뷰(210)의 시점 및 제1 외삽 뷰의 시점 간의 거리에 의존한다.How far those
객체(226 및 228)가 배경(224)에 비해 더 좌측으로 이동하기 때문에, 제1 외삽 뷰의 프레임(220)은 입력 뷰(210)의 프레임(212)에 의해 적합하게 채워질 수 없는 객체 경계 홀(246 및 248)을 갖는다.Because the
외삽 뷰를 생성하기 위해, 상기 프레임 경계 홀(244) 및 상기 객체 경계 홀(246 및 248)에는 적절한 픽셀이 외삽되어야 한다.To create an extrapolated view, appropriate pixels must be extrapolated in the
제2 외삽 뷰의 프레임(230)도 프레임 경계 홀(254) 및 객체 경계 홀(256 및 258)을 갖는다.The
제2 외삽 뷰의 시점은 제1 외삽 뷰의 시점에 비해, 입력 뷰(210)의 시점으로부터 더 멀리 떨어져 있다. 제2 외삽 뷰의 프레임(230) 내의 배경(234), 제1 객체(236) 및 제2 객체(238)는 각각 제1 외삽 뷰의 프레임(220) 내의 배경(224), 제1 객체(226) 및 제2 객체(228)에 비해 더 좌측에 위치한다.The viewpoint of the second extrapolated view is further away from the viewpoint of the input view 210 as compared to the viewpoint of the first extrapolated view. The
제2 외삽 뷰의 프레임(230) 내의 프레임 경계 홀(254) 및 객체 경계 홀(256 및 258)은 각각 제1 외삽 뷰의 프레임(220) 내의 프레임 경계 홀(244) 및 객체 경계 홀(246 및 248)보다 좌우로 더 넓다.The
따라서, 제2 외삽 뷰의 프레임(230) 내의 프레임 경계 홀(254) 및 객체 경계 홀(256 및 258)에는 더 많은 픽셀이 외삽되어야 한다.Thus, more pixels need to be extrapolated in the
즉, 외삽 뷰의 시점이 최외곽 입력 뷰로부터 더 멀어질수록, 외삽되어야 할 픽셀들의 범위도 더 넓어진다.That is, the farther the viewpoint of the extrapolated view is from the outermost view, the wider the range of pixels to be extrapolated.
프레임 경계 홀(244 및 254)과 객체 경계 홀(246, 248, 256 및 258)을 합하여 홀로 명명한다.The frame boundary holes 244 and 254 and the object boundary holes 246, 248, 256, and 258 are collectively named.
홀 영역들을 복원하기 위한 방법이 제공될 필요가 있다.
There is a need to provide a method for recovering hole areas.
도 3은 일 실시예에 따른 영상 처리 장치의 구조도이다.3 is a structural diagram of an image processing apparatus according to an embodiment.
영상 처리 장치(300)는 참조 뷰 영상 및 참조 뷰 영상의 양안시차 정보를 각각 사용하는 뷰 내삽 및 뷰 외삽를 통해 출력 뷰를 생성한다. 영상 처리 장치(300)는 출력 뷰 영상 내의, 뷰 내삽 및 뷰 외삽에 의해 발생한, 홀들을 복원한다.The
출력 뷰 영상은 출력 뷰의 시점에서의 영상이다. 전술된 것처럼, 새로운 시점에서의 영상이 생성되면, 상기 새로운 시점에서 새롭게 관측되어야 할 지점이 영상 내의 홀로서 나타난다.The output view image is the image at the view point of the output view. As described above, when an image at a new viewpoint is generated, a point to be newly observed at the new viewpoint appears alone in the image.
영상 처리 장치(300)는 뷰 내삽 및 뷰 외삽 과정에서 발생하는 홀들을 복원할 수 있다.The
영상 처리 장치(300)는 영상 와핑부(310), 완충 구간 설정부(320), 양안시차 크랙 검출부(330), 인접 영상 기반 홀 복원부(340), 인접 픽셀 스케일링 기반 홀 복원부(350) 및 최적 패치 탐색 기반 홀 복원부(360)를 포함할 수 있다.The
우선, 영상 와핑부(310)를 설명한다.First, the image and the
영상 와핑부(310)는 참조 뷰 영상 및 참조 뷰 영상의 양안시차 정보를 사용하는 이미지 와핑의 방식에 의해 출력 뷰의 영상을 생성한다. (즉, 영상 와핑부(310)는 참조 뷰의 프레임 및 참조 뷰의 프레임의 양안시차 정보를 사용하는 이미지 와핑에 의해 출력 뷰의 프레임을 생성한다.)영상 와핑부(310)는 참조 뷰 영상을 영상 와핑함으로써 출력 뷰의 영상을 생성할 수 있다. 예컨대, 참조 뷰 영상의 양안시차 정보가 제공되지 않는 경우, 영상 와핑부(310)는 참조 뷰 영상의 양안시차 정보를 생성할 수 있다.The image and
N 개의 입력 영상들(즉, N 개의 참조 뷰들의 영상들)이 에피폴라 선(epipolar line)을 기준으로 정렬되었다.N input images (i.e., images of N reference views) are aligned with respect to the epipolar line.
가상 시점의 뷰(즉, 출력 뷰)는 참조 뷰로부터 상기 가상 시점의 뷰까지 떨어진 거리에 비례하는 가중치를 사용함으로써 생성될 수 있다. 즉, 가상 시점의 뷰는 참조 뷰의 시점 및 가상 시점 간의 거리에 비례하는 가중치를 사용함으로써 생성될 수 있다.A view at a virtual viewpoint (i.e., an output view) can be generated by using a weight that is proportional to the distance from the reference view to the view of the virtual viewpoint. That is, the view at the virtual viewpoint can be generated by using a weight proportional to the distance between the viewpoint of the reference view and the virtual viewpoint.
출력 뷰 영상 내의 제1 픽셀의 y 좌표 값은 제1 픽셀에 대응하는 참조 뷰 영상 내의 제2 픽셀의 y 좌표 값과 동일할 수 있다. 즉, 픽셀의 y 좌표는 와핑에 의해서도 변경되지 않을 수 있다.The y coordinate value of the first pixel in the output view image may be equal to the y coordinate value of the second pixel in the reference view image corresponding to the first pixel. That is, the y coordinate of the pixel may not be changed by the warping.
출력 뷰(또는, 랜더된(rendered) 뷰) 영상 내의 제1 픽셀의 x 좌표는 하기의 수학식 1에 의해 계산될 수 있다.The x-coordinate of the first pixel in the output view (or a rendered view) image can be calculated by the following equation (1).
여기서, I reference view 는 참조 뷰(또는, 입력 뷰)의 영상(또는, 프레임)을 나타낸다. , I rendered view 는 출력 뷰(또는, 랜더된 뷰)의 영상(또는, 프레임)을 나타낸다.Here, I reference view represents the image (or frame) of the reference view (or input view). , And I rendered view represents the image (or frame) of the output view (or the rendered view ).
x는 참조 뷰 내의 제2 픽셀의 좌표 값(x 좌표 값)을 나타낸다. x represents the coordinate value ( x coordinate value) of the second pixel in the reference view.
x'는 출력 뷰 내의 제1 픽셀의 좌표 값(x 좌표 값)을 나타낸다. x ' represents the coordinate value ( x coordinate value) of the first pixel in the output view.
d는 영상의 깊이 정보 또는 픽셀의 깊이 정보로부터 도출된 제2 픽셀의 양안시차(disparity) 값이다. 일반적으로, 픽셀의 양안시차 값은 픽셀의 깊이 값에 반비례한다. 따라서, 전술된 깊이 및 깊이 정보에 대한 설명은 양안시차 및 양안시차 정보에도 적용될 수 있다. d is the binocular disparity value of the second pixel derived from the depth information of the image or the depth information of the pixel. In general, the binocular disparity value of a pixel is inversely proportional to the depth value of the pixel. Therefore, the description of the depth and depth information described above can be applied to binocular disparity and binocular disparity information.
α는 참조 뷰의 시점 및 출력 뷰의 시점 간의 거리에 비례하는 가중치 값이다.α is a weight value proportional to the distance between the viewpoint of the reference view and the viewpoint of the output view.
따라서, 전술된 수학식 1은 하기의 1) 내지 5)을 의미한다.Therefore, the above-mentioned equation (1) means the following 1) to 5).
1) 참조 뷰 내의 제2 픽셀은 와핑에 의해 αx 만큼 이동한다. 즉, 참조 뷰 영상 내의 제2 픽셀과 출력 뷰 내의 제1 픽셀이 서로 대응할 때, 제1 픽셀의 x 좌표 값은 제2 픽셀의 x 좌표 값에 αx를 더한 값이다. 1) The second pixel in the reference view is shifted by? X by warping. That is, when the first pixel in the second pixel and the output views in the reference view image correspond to each other, the x-coordinate value of the first pixel is a value obtained by adding an α x in the x-coordinate of the second pixel.
2) 양안시차 값이 큰 픽셀은, 와핑에 의해 많이 이동한다. 양안시차 값은 깊이 값에 반비례한다. 따라서, 깊이 값이 작은 픽셀은 깊이 값이 큰 픽셀보다 더 많이 이동한다.2) Pixels with large binocular parallax values move a lot by warping. The binocular disparity value is inversely proportional to the depth value. Therefore, a pixel having a small depth value moves more than a pixel having a large depth value.
객체는 참조 뷰의 시점으로부터 가깝고, 배경은 참조 뷰의 시점으로부터 멀다. 따라서, 참조 뷰 영상의 픽셀들 중 객체를 나타내는 픽셀은 배경을 나타내는 픽셀보다 더 많이 이동한다.The object is close to the viewpoint of the reference view, and the background is farther away from the viewpoint of the reference view. Therefore, among the pixels of the reference view image, the pixel representing the object moves more than the pixel representing the background.
깊이 값이 무한대인 픽셀(또는, 양안시차 값이 0인 픽셀)은 와핑에 의해서 이동하지 않을 수 있다.A pixel with a depth value of infinity (or a pixel with a binocular parallax value of 0) may not be moved by warping.
3) 참조 뷰의 시점 및 출력 뷰의 시점이 멀리 떨어질수록, 참조 뷰 내의 픽셀은 더 많이 이동한다.3) The farther the view of the reference view and the view of the output view are, the more the pixels in the reference view move.
영상 와핑부(310)는, 전술된 수학식 1에 기반한 와핑 외에도, 다양한 와핑 방법을 사용하여 출력 뷰의 영상을 생성할 수 있다.In addition to the warping based on Equation (1) described above, the image and
4) 제1 픽셀의 양안시차 값(또는, 깊이 값)은 제2 픽셀의 양안시차 값(또는, 깊이 값)이다.4) The binocular parallax value (or depth value) of the first pixel is the binocular parallax value (or depth value) of the second pixel.
5) 참조 뷰 영상 내의 하나 이상의 픽셀들이 출력 뷰 내의 동일한 좌표로 이동될 수 있다. 이러한 경우, 하나 이상의 픽셀들 중 가장 출력 뷰의 시점과 가까운 픽셀이 우선적으로 표시될 수 있다.5) One or more pixels in the reference view image may be moved to the same coordinates in the output view. In this case, a pixel closest to the viewpoint of the output view among the one or more pixels may be preferentially displayed.
다음으로, 완충 구간 설정부(320)를 설명한다.Next, the buffer
완충 구간 설정부(320)는 영상 와핑에 의해 생성된 홀을 확대한다.The buffer
완충 구간 설정부(320)에 의한 홀 확대가 도 5를 참조하여 하기에서 상세히 설명된다.The hole enlargement by the buffer
다음으로, 양안시차 크랙 검출부(330)를 설명한다.Next, the binocular
양안시차 크랙 검출부(330)은 생성된 출력 뷰의 영상 중 크랙을 홀로 설정한다.The binocular
양안시차 크랙 검출부(320)에 의한 홀 설정이 도 6을 참조하여 하기에서 상세히 설명된다.The hole setting by the binocular
다음으로, 인접 영상 기반 홀 복원부(340)를 설명한다.Next, the adjacent image-based
인접 영상 기반 홀 복원부(340)는 영상 와핑에 의해 생성된 홀을 복원한다. 인접 영상 기반 홀 복원부(340)에 의한 홀 복원이 도 4를 참조하여 하기에서 상세히 설명된다.The adjacent image-based
다음으로, 인접 픽셀 스케일링 기반 홀 복원부(350)를 설명한다.Next, the adjacent pixel scaling-based
인접 픽셀 스케일링 기반 홀 복원부(350)는 영상 와핑에 의해 생성된 홀을 상기 홀과 인접한 하나 이상의 픽셀들을 스케일링함으로써 복원한다.The adjacent pixel scaling-based
인접 픽셀 스케일링 기반 홀 복원부(350)에 의한 인접 배경 스케일링이 도 7 내지 도 9를 참조하여 하기에서 상세히 설명된다.Adjacent background scaling by the adjacent pixel scaling-based
다음으로, 최적 패치 탐색 기반 홀 복원부(360)를 설명한다.Next, the optimal patch search-based
최적 패치 탐색 기반 홀 복원부(360)는 상기 영상 와핑에 의해 생성된 홀이 포함되는 영역과 가장 유사한 패치를 배경으로부터 탐색하고, 상기 탐색된 패치를 사용함으로써 홀을 복원한다.The optimal patch search-based
최적 패치 탐색 기반 홀 복원부(360)에 의한 최적 패치 탐색 및 홀 복원이 도 10을 참조하여 하기에서 상세히 설명된다.The optimal patch search and hole restoration by the optimal patch search-based
인접 영상 기반 홀 복원부(340)에 의해 홀의 일부가 복원된 뒤, 상기 홀의 남은 일부 또는 일부들이 인접 픽셀 스케일링 기반 홀 복원부(350) 및 최적 패치 탐색 기반 홀 복원부(360)에 의해 복원될 수 있다.After the hole is restored by the adjacent image-based
인접 픽셀 스케일링 기반 홀 복원부(350) 및 최적 패치 탐색 기반 홀 복원부(360)는 출력 뷰 영상의 배경 픽셀을 이용함으로써 남은 홀을 복원할 수 있다.The adjacent pixel scaling-based
홀에 인접한 영역의 특성에 따라, 어떠한 방식으로 홀이 복원될지가 결정될 수 있다.Depending on the characteristics of the area adjacent to the hole, it can be determined how the hole will be restored.
예컨대, 홀에 인접한 영역이 텍스처(texture) 영역일 경우에는 최적 패치 탐색 기반 홀 복원부(360)가 홀을 복원할 수 있다. 홀에 인접한 영역이 텍스처(texture) 영역이 아닌 경우 일 경우에는 인접 픽셀 스케일링 기반 홀 복원부(350)가 홀을 복원할 수 있다. 인접 픽셀 스케일링 기반 홀 복원부(350)는 배경 화소들을 스케일링하기 때문에, 상기 스케일링에 의해 텍스처가 손상될 수 있다.For example, if the area adjacent to the hole is a texture area, the optimal patch search-based
즉, 홀에 인접한 영역이 균일(uniform)하거나 홀에 인접한 영역에서 강한 모서리(edge)가 나타나는 경우, 배경 픽셀을 스케일링 함으로써 홀 영역이 복원될 수 있다. 이러한 복원으로 인해, 복원된 홀 영역에서도 인접한 영역(즉, 배경)의 특성이 유지될 수 있다.That is, if the area adjacent to the hole is uniform or strong edge appears in the area adjacent to the hole, the hole area can be restored by scaling the background pixel. Due to this restoration, the characteristics of the adjacent area (i.e., background) can be maintained even in the reconstructed hole area.
또한, 홀에 인접한 영역이 텍스처 영역인 경우, 참조 뷰 영상 내의 배경 영역에서 상기의 인접한 영역과 가장 유사한 영역이 검출된다. 상기의 검출된 영역을 사용하여 홀 영역이 복원된다. 이러한 복원으로 인해, 복원된 홀 영역에서도 텍스처 성분이 잘 유지될 수 있다.
Also, when the area adjacent to the hole is a texture area, a region closest to the adjacent area is detected in the background area in the reference view image. The hole area is recovered using the detected area. Due to this restoration, texture components can be well maintained even in the restored hole area.
도 4는 일 예에 따른 영상 와핑과 관련된 영상에 시간적으로 인접한 영상들을 사용한 홀의 복원을 설명한다.FIG. 4 illustrates restoration of a hole using images temporally adjacent to an image related to image warping according to an example.
영상 와핑에 사용된 참조 뷰 영상(또는, 프레임)은 참조 뷰 영상 내의 일련의 영상들(또는, 프레임들) 중 특정 시각 t의 영상(또는, 프레임)이다. 특정 시각 t의 영상을, 하기에서 "영상(t)" 또는 현재 영상으로 명명한다. 여기서, 영상은 참조 뷰 영상 또는 출력 뷰 영상일 수 있다. 특정 시각 t의 프레임은 "프레임(t)" 또는 현재 프레임으로 명명한다. 또한, 특정 시각 t-1의 프레임은 "프레임(t-1)" 또는 이전 프레임으로 명명한다. 특정 시각 t+1의 프레임은 "프레임(t+1)" 또는 다음 프레임으로 명명한다.The reference view image (or frame) used in image watermarking is an image (or frame) at a specific time t in the series of images (or frames) in the reference view image. The image at a specific time t is referred to as " image (t) " Here, the image may be a reference view image or an output view image. The frame at a specific time t is named " frame (t) " or the current frame. Further, the frame at the specific time t-1 is referred to as " frame (t-1) " The frame at a specific time t + 1 is referred to as " frame (t + 1) " or the next frame.
도 4에서, 출력 뷰 프레임(t)(440)은 홀(442)을 포함한다. 출력 뷰 프레임(t)(440)은 참조 뷰 프레임(t)(430)를 사용하는 와핑에 의해 생성된다.In Figure 4, the output view frame (t) 440 includes a
일반적으로, 영상(t)와 시간적으로 인접한 영상들(예컨대, 영상(t-1), 영상(t+1), 영상(t-2) 및 영상(t+2) 등)은 상기 영상(t)가 나타내는 전경(또는, 객체) 및 배경과 동일 또는 유사한 전경 및 배경을 나타낼 수 있다. 따라서, 참조 뷰 영상 또는 출력 뷰 영상과 시간적으로 인접한 영상들의 정보를 사용함으로써 영상 와핑에 의해 생성된 홀이 복원될 수 있다.In general, images temporally adjacent to the image t (e.g., image t-1, image t + 1, image t-2, and image t + 2) (Or an object) indicated by the foreground and the foreground and background that are the same as or similar to the background. Therefore, by using information of images temporally adjacent to the reference view image or the output view image, holes generated by image watermarking can be restored.
도 4에서 전경에 대응하는 객체는 위에서 아래로 이동한다. 따라서, 참조 뷰 프레임(t)(430)에서 객체에 가려진 배경에 대응하는 부분(412)이 참조 뷰 프레임(t-1)에서는 드러날 수 있다. 또한, 참조 뷰 프레임(t+1)(450)의 부분(452), 출력 뷰 프레임(t-1)(420)의 부분(422) 및 출력 뷰 프레임(t+1)(460)의 부분(462) 또한 참조 뷰 프레임(t)(430)에서 객체에 가려진 배경에 대응한다. 따라서, 부분들(412, 422, 452 및 462)이 홀(442)을 복원하기 위해 사용될 수 있다. 인접 영상 기반 홀 복원부(340)는 하기의 수학식 2에 기반하여 출력 뷰의 영상(t)의 홀을 복원할 수 있다. 수학식 2는 출력 뷰의 프레임과 시간적으로 인접한 프레임들을 사용하여 상기 프레임 내의 홀을 복원하는 방법을 설명한다.In Fig. 4, the object corresponding to the foreground moves from top to bottom. Thus, the
여기서, f t 는 출력 뷰 프레임(t)(440)을 나타낸다. 즉, f t 는 시각 t에서 와핑에 의해 생성된 프레임을 나타낸다.Here, f t represents the output view frame (t) 440. That is, f t represents a frame generated by warping at time t.
f t (i, j)는 출력 뷰 프레임(t))(440)의 픽셀들 중, 좌표 값이 (i, j)인 픽셀의 컬러 값을 나타낸다. 여기서, 출력 뷰 프레임(t)(440)에서, 좌표 값이 (i, j)인 픽셀은 홀(442) 내의 픽셀이다. 좌표 값이 (i, j)인 픽셀을 이하 "픽셀(i, j)"로 표시한다. f t ( i , j ) represents the color value of the pixel whose coordinate value is ( i , j ) among the pixels of the output
f t- 1는 출력 뷰 프레임(t)(440)의 이전 프레임(즉, 출력 뷰 프레임(t-1)(420))을 나타낸다. f t +1는 출력 뷰 프레임(t)(440)의 다음 프레임(즉, 출력 뷰 프레임(t+1)(460))을 나타낸다. f t- 1 represents the previous frame of the output view frame (t) 440 (i.e., the output view frame (t-1) 420). f t +1 represents the next frame of the output view frame (t) 440 (i.e., the output view frame (t + 1) 460).
f t- 1는 출력 뷰 프레임(t-1)(420)을 나타낸다. 또한, f t +1는 출력 뷰 프레임(t+1)(460)을 나타낸다. f t - 1 represents the output view frame (t-1) 420. In addition, f t +1 indicates the output view frame (t + 1) 460.
즉, 인접 영상 기반 홀 복원부(340)는 출력 뷰 프레임(t)(440)에 시간적으로 인접한 출력 뷰 프레임들을 사용하여 영상 와핑에 의해 생성된 홀을 복원할 수 있다.α t- 1은 출력 뷰 프레임(t-1)(420)의 픽셀(i, j)이 출력 뷰 프레임(t)(440)의 픽셀(i, j)을 복원하기 위해 사용될 것인지 여부를 결정하는 계수이다. α t- 1은 0 또는 1의 값을 가질 수 있다. α t- 1가 0일 경우, 출력 뷰 프레임(t-1)(420)의 픽셀(i, j)은 출력 뷰 프레임(t)(440)의 픽셀(i, j)을 복원하기 위해 사용되지 않는다. That is, the adjacent images based
α t +1은 출력 뷰 프레임(t+1)(460)의 픽셀(i, j)이 출력 뷰 프레임(t)(440)의 픽셀(i, j)을 복원하기 위해 사용될 것인지 여부를 결정하는 계수이다. α t +1은 0 또는 1의 값을 가질 수 있다. α t +1가 0일 경우, 출력 뷰 프레임(t+1)(460)의 픽셀(i, j)은 출력 뷰 프레임(t)(440)의 픽셀(i, j)을 복원하기 위해 사용되지 않는다.α t +1 is used to determine whether to restore the pixel (i, j) of an output view, frame (t + 1) (460) a pixel (i, j) is an output view frame (t) (440) of Coefficient. ? t +1 may have a value of 0 or 1. If α +1 t is 0, the pixel (i, j) of an output view, frame (t + 1) (460) is not used to restore the pixel (i, j) of an output view, frame (t) (440) Do not.
α t- 1 및 α t +1가 모두 1인 경우, 출력 뷰 프레임(t-1)(420)의 픽셀(i, j)의 컬러 값 및 출력 뷰 프레임(t+1)(460)의 픽셀(i, j)의 컬러 값의 평균 값이 출력 뷰 프레임(t)(440)의 픽셀(i, j)의 컬러 값이 된다. α t- 1가 0이고, α t +1는 1인 경우, 출력 프레임(t)(440)의 픽셀(i, j)의 컬러 값은 출력 뷰 프레임(t+1)(460)의 픽셀(i, j)의 컬러 값이다. α t- 1가 1이고, α t +1는 0인 경우, 출력 뷰 프레임(t)(440)의 픽셀(i, j)의 컬러 값은 출력 뷰 프레임(t-1)(420)의 픽셀(i, j)의 컬러 값이다.If t- α 1 and α t +1 are both 1, the pixels in the output view frame (t-1) color value of the pixel (i, j) of the
여기서, 홀을 복원하기 위해 사용되는 픽셀들은 배경에 포함되는 픽셀들로 간주될 수 있다. 일반적으로, 배경은 와핑에 의해서 위치가 변경되지 않는다. 예컨대, 참조 뷰 프레임(t-1)(410)의 부분(412) 및 출력 뷰 프레임(t-1)(420)의 부분(422)은 각각 프레임 내에서의 위치 및 컬러가 동일할 수 있다. 즉, 배경에 포함되는 제1 픽셀의 참조 뷰 프레임 내에서의 좌표 및 상기의 제1 픽셀에 대응하는 제2 픽셀의 출력 뷰 프레임 내에서의 좌표는 동일하다.Here, the pixels used for restoring the holes may be regarded as pixels included in the background. In general, the background is not changed in position by warping. For example, the
따라서, 인접 영상 기반 홀 복원부(340)는 출력 뷰 프레임(t)(440)에 시간적으로 인접한 참조 뷰 프레임들을 사용하여 영상 와핑에 의해 생성된 홀을 복원할 수 있다. 즉, 수학식 2의 f t- 1은 참조 뷰 프레임(t-1)(410)을 나타내는 f' t- 1로 대체될 수 있고, f t +1은 참조 뷰 프레임(t+1)(450)을 나타내는 f' t +1로 대체될 수 있다,Accordingly, the adjacent image-based
전술된 것처럼, 영상 와핑에 의해 생성된 출력 뷰 프레임 내의 홀을 복원하기 위해 상기의 출력 뷰 프레임과 시간적으로 인접한 참조 뷰 내의 프레임 또는 출력 뷰 내의 다른 프레임이 사용될 수 있다. 또한, 프레임이 포함하는 정보 전체가 아닌 프레임이 나타내는 영상을 사용하여 홀을 복원하는 것이 가능하다.As described above, other frames within the output view or frames within the reference view that are temporally adjacent to the output view frame may be used to recover the holes in the output view frame generated by the image watermarking. In addition, it is possible to reconstruct a hole using an image represented by a frame other than the entire information included in the frame.
즉, 인접 영상 기반 홀 복원부(340)는 영상 와핑과 관련된 영상에 시간적으로 인접한 영상을 사용하여 영상 와핑에 의해 생성된 출력 뷰의 영상 내의 홀을 복원할 수 있다. 여기서, 영상 와핑에 관련된 영상은 참조 뷰 영상 및 출력 뷰 영상 중 하나 이상을 의미할 수 있다. 상기의 시간적으로 인접한 영상은 참조 뷰 영상에 시간적으로 인접한 영상을 의미할 수 있다. 또한, 상기의 시간적으로 인접한 영상은 출력 뷰 영상에 시간적으로 인접한 영상을 의미할 수 있다.That is, the adjacent image-based
영상 와핑에 의해 출력 뷰 영상이 생성된다. 따라서, 인접 영상 기반 홀 복원부(340)는 출력 뷰 영상의 생성에 관련된 영상에 시간적으로 인접한 영상을 사용하여 영상 와핑에 의해 생성된 홀을 복원할 수 있다. 여기서, 출력 뷰 영상의 생성에 관련된 영상은 참조 뷰 영상 및 출력 뷰 영상 중 하나 이상을 의미할 수 있다.
An output view image is generated by image overwriting. Therefore, the adjacent image-based
수학식 2에 따르면, 인접 영상 기반 홀 복원부(340)는 홀(442)을 복원하기 위해 출력 뷰 프레임(t)(440)의 직전 출력 뷰 프레임(즉, 출력 뷰 프레임(t-1)(420)) 및 직후 출력 뷰 프레임(즉, 출력 뷰 프레임(t+1)(460))을 사용하였다. 그러나, 출력 뷰 프레임(t)(420)(또는, 참조 뷰 프레임(t)(410))와 시간적으로 인접한 미리 지정된 개수의 출력 뷰 프레임들(또는, 참조 뷰 프레임들)이 출력 뷰 프레임(t)(420)의 홀을 복원하기 위해 사용될 수 있다. 여기서, 프레임은 영상으로 대체될 수 있다.According to Equation (2), the adjacent image-based
출력 뷰 영상(t)가 생성될 때에는, 시각 t 이후의 출력 뷰 영상(또는, 참조 뷰 영상)(예컨대, 출력 뷰 영상(t+1))이 가용하지 않을 수 있다. 이러한 경우, 인접 영상 기반 홀 복원부(340)는 출력 뷰(또는, 참조 뷰)의 영상(t-3), 영상(t-2) 및 영상(t-1)을 사용하여 영상 와핑에 의해 생성된 홀을 복원할 수 있다.When the output view image t is generated, the output view image (or the reference view image) after the time t (e.g., the output view image t + 1) may not be available. In this case, the adjacent image-based
시간적으로 인접한 영상들의 개수는 영상 처리 장치(300)의 저장 용량, 참조 뷰 영상의 복잡도 및 출력 뷰 영상의 복잡도 등에 기반하여 동적으로 변경될 수 있다.
The number of temporally adjacent images can be dynamically changed based on the storage capacity of the
수학식 2에서는, 프레임(t)의 픽셀과 동일한 좌표 값을 갖는 픽셀들을 사용하여 프레임(t)의 픽셀의 컬러 값을 복원하였다. 그러나, 전술된 복원은 일련의 영상들이 시간에 따라 전체적으로 이동하지 않았음을 전제로 한다. (즉, 영상의 배경은 전혀 또는 거의 움직이지 않음.)In Equation (2), the color value of the pixel of the frame (t) is restored by using pixels having the same coordinate value as the pixel of the frame (t). However, the above restoration presupposes that a series of images have not moved as a whole over time. (Ie, the background of the image does not move at all or very little).
시간에 따라 영상들이 전체적으로 이동한 경우, 출력 뷰 프레임(t)(440)의 픽셀의 컬러 값을 복원하기 위해, 이러한 이동이 고려되어야 한다.In order to recover the color values of the pixels of the output view frame (t) 440 when the images have moved entirely over time, this shift must be considered.
예컨대, 출력 뷰 프레임(t)(440)이 출력 뷰 프레임(t-1)(420)(또는, 출력 뷰 프레임(t)(410))에 비해 전체적으로 좌측으로 한 픽셀만큼 이동한 경우, 출력 뷰 프레임(t)(440)의 픽셀(i, j)의 컬러 값을 설정하기 위해서는, 출력 뷰 프레임(t-1)(440) (또는, 참조 뷰 프레임(t)(410))의 픽셀(i+1, j)의 컬러 값이 사용되어야 한다.For example, if the output view frame (t) 440 has moved by one pixel to the left as a whole relative to the output view frame (t-1) 420 (or output view frame (t) a frame (t) of pixels in order to set the color value of the pixel (i, j) of 440, an output view, frame (t-1) 440 (or, the reference view frame (t) (410)) (i +1, j ) must be used.
즉, 인접 영상 기반 홀 복원부(340)는 출력 뷰 영상(t)의 홀 내의 제1 픽셀을 복원하기 위해, 출력 뷰 영상(t)와 인접한 출력 뷰 영상들 내의 상기 제1 픽셀에 대응하는 픽셀들의 컬러 값을 사용할 수 있다. 또는, 인접 영상 기반 홀 복원부(340)는 출력 뷰 영상(t)의 홀 내의 제1 픽셀을 복원하기 위해, 참조 뷰 영상(t)와 인접한 참조 뷰 영상들 내의 상기 제1 픽셀에 대응하는 픽셀들의 컬러 값을 사용할 수 있다.That is, the adjacent image-based
또한, 인접 영상 기반 홀 복원부(340)는, 참조 뷰 영상(t) 및 참조 뷰 영상(t)에 시간적으로 인접한 영상들이 시간에 따라 전체적으로 이동한 경우, 상기 이동에 기반하여 참조 뷰 영상(t)(또는, 출력 뷰 영상(t))와 인접한 참조 뷰 영상들(또는, 출력 뷰 영상들) 내에서 제1 픽셀에 대응하는 픽셀들을 선택할 수 있다.
If the temporally adjacent images of the reference view image t and the reference view image t are moved in time as a whole, the adjacent image-based
인접 영상 기반 홀 복원부(340)는 하기의 수학식 3에 기반하여 계수 α를 결정할 수 있다.The adjacent image-based
D(f t (i, j))는 출력 뷰 프레임(t)(420)의 픽셀(i, j)의 양안시차 값이다. Th는 미리 정의된 임계 값이다. 따라서, α t 의 값은 f t (i, j)가 홀 픽셀이 아니고, f t (i, j)의 양안시차 값이 미리 정의된 임계 값일 경우에는 1이고, 그렇지 않은 경우에는 0이다. D (f t (i, j)) is a binocular disparity value of the pixel (i, j) of an output view, frame (t) (420). Th is a predefined threshold. Thus, the value of α t is 1 if f t ( i , j ) is not a hole pixel and the binocular parallax value of f t ( i , j ) is a predefined threshold value, otherwise it is zero.
우선, f t (i, j)가 홀을 나타내는 홀 픽셀인지 여부가 판단될 수 있다.First, it can be determined whether or not f t ( i , j ) is a hole pixel representing a hole.
f t (i, j)가 홀 픽셀인 경우, f t (i, j)의 컬러 값은 존재하지 않거나, 잘못된(invalid) 값이다. 따라서, f t (i, j)의 컬러 값은 출력 뷰 영상 내의 홀을 복원하기 위해 사용될 수 없다. 따라서, α t 의 값은 0이 된다. If f t ( i , j ) is an odd pixel, the color value of f t ( i , j ) does not exist or is an invalid value. Thus, the color value of f t ( i , j ) can not be used to reconstruct the hole in the output view image. Therefore, the value of? T becomes zero.
즉, 인접 영상 기반 홀 복원부(340)는 참조 뷰 영상(t)와 인접한 참조 뷰 영상들 내의 상기 제1 픽셀에 대응하는 픽셀들 중 홀 픽셀이 아닌 픽셀만을 출력 뷰 영상(t) 내의 홀을 복원하기 위해 사용할 수 있다. 또한, 인접 영상 기반 홀 복원부(340)는 출력 뷰 영상(t)와 인접한 출력 뷰 영상들 내의 상기 제1 픽셀에 대응하는 픽셀들 중 홀 픽셀이 아닌 픽셀만을 출력 뷰 영상(t) 내의 홀을 복원하기 위해 사용할 수 있다.That is, the adjacent image-based
다음으로, f t (i, j)가 홀 픽셀이 아닌 경우, f t (i, j)이 전경을 나타내는 픽셀인지 또는 배경을 나타내는 픽셀인지 여부가 판단될 수 있다.Next, when f t ( i , j ) is not an odd pixel, it can be determined whether f t ( i , j ) is a pixel representing a foreground or a pixel representing a background.
멀티-뷰 렌더링에 의해 발생하는 홀은, 참조 뷰 영상에서는 전경에 가려서 보이지 않던 배경의 일부가 와핑에 의해 생성된 출력 뷰 영상에서 나타난 것이다. 또는, 홀은 상기의 배경의 일부를 포함할 수 있다.The holes generated by the multi-view rendering appear in the output view image generated by warping a part of the background that was hidden in the foreground in the reference view image. Alternatively, the hole may comprise a part of the above background.
따라서, f t (i, j)가 배경을 나타내는 배경 픽셀인 경우에만 f t (i, j)가 출력 뷰 영상 내의 홀을 복윈하기 위해 사용될 수 있다.Therefore, f t ( i , j ) can be used to win holes in the output view image only if f t ( i , j ) is a background pixel representing the background.
즉, 인접 영상 기반 홀 복원부(340)는 참조 뷰 영상(t)와 시간적으로 인접한 참조 뷰 영상들 내의 상기 제1 픽셀에 대응하는 픽셀들 중 배경 픽셀만을 출력 뷰 영상(t) 내의 홀을 복원하기 위해 사용할 수 있다. 또한, 인접 영상 기반 홀 복원부(340)는 출력 뷰 영상(t)와 시간적으로 인접한 출력 뷰 영상들 내의 상기 제1 픽셀에 대응하는 픽셀들 중 배경 픽셀만을 출력 뷰 영상(t) 내의 홀을 복원하기 위해 사용할 수 있다.That is, the adjacent image-based
f t (i, j)이 전경을 나타내는 전경 픽셀인지 또는 배경을 나타내는 배경 픽셀인지 여부는, f t (i, j)의 양안시차 값에 기반하여 결정될 수 있다.Whether f t ( i , j ) is a foreground pixel representing the foreground or a background pixel representing the background can be determined based on the binocular disparity value of f t ( i , j ).
일반적으로, 전경을 나타내는 픽셀은 배경을 나타내는 픽셀보다 더 큰 양안시차 값을 갖는다.In general, a pixel representing a foreground has a binocular parallax value larger than a pixel representing a background.
따라서, f t (i, j)의 양안시차 값이 기준 값 Th보다 작은 경우, 인접 영상 기반 홀 복원부(340)는 f t (i, j)를 배경 픽셀로 간주할 수 있고, f t (i, j)를 홀을 복원하기 위해 사용할 수 있다.
Thus, f t If the binocular parallax value of the (i, j) is smaller than the reference value Th, the adjacent images based
도 5는 일 예에 따른 완충 구간 설정에 의한 홀 확대를 설명한다.FIG. 5 illustrates hole enlargement by setting a buffer interval according to an example.
도 5에서 출력 뷰 영상(510) 및 완충 영역(522 및 524)이 표시된 출력 뷰 영상(520)이 도시되었다.An
멀티-뷰 렌더링에서 사용되는 픽셀의 양안시차 값은, 픽셀의 물리적인 깊이 값을 변환함으로써 획득될 수 있다. 또한, 픽셀의 양안시차 값은 참조 영상을 사용하는 추정에 의해 결정될 수 있다.The binocular disparity value of a pixel used in multi-view rendering can be obtained by converting the physical depth value of the pixel. Further, the binocular disparity value of the pixel can be determined by an estimation using a reference image.
픽셀의 양안시차 값은 (특히, 추정에 의해 획득된 경우) 매칭(matching) 오류 등에 의해 잘못된 값을 가질 수 있다.The binocular disparity value of the pixel may have a wrong value due to a matching error or the like (especially if it is obtained by estimation).
픽셀의 양안시차 값이 잘못된 경우, 출력 뷰 영상(510)의 객체 및 배경간의 경계는 양안시차 영상의 객체 및 배경간의 경계와 불일치할 수 있다.If the binocular disparity value of the pixel is incorrect, the boundary between the object and the background of the
출력 뷰 영상(510)의 홀 영역(512)의 좌측에 있는 픽셀들은, 전술된 불일치로 인해, 전경을 나타내는 픽셀임에도 불구하고, 배경을 나타내는 컬러 값을 갖는다.The pixels on the left side of the
이러한 문제를 고려하여, 특히 추정된 양안시차 값이 사용될 경우, 홀에 인접한 영역이 완충 영역으로서 설정될 필요가 있다.In consideration of such a problem, in particular, when the estimated binocular disparity value is used, the area adjacent to the hole needs to be set as a buffer area.
따라서, 완충 구간 설정부(310)는 홀에 인접한 완충 영역(522 및 524)을 홀로 간주함으로써 홀을 확대한다.Therefore, the buffer
완충 구간 설정부(310)는 홀(또는, 홀의 최외곽 지점)로부터의 거리가 미리 정의된 임계 값보다 작은 픽셀들을 완충 영역으로 설정할 수 있다.The buffer
완충 영역 내의 픽셀의 컬러 값이 복원될 경우, 하기의 수학식 4가 사용될 수 있다.When the color value of the pixel in the buffer area is restored, the following equation (4) can be used.
수학식 4에서는, 프레임(t)의 이전 프레임의 픽셀의 컬러 값 및 이후 프레임의 픽셀의 컬러 값뿐만 아니라, 프레임(t)의 픽셀(i, j)(즉, 컬러 값이 복원될 픽셀 자신)의 컬러 값 또한 복원을 위해 사용된다. 완충 영역 내의 픽셀(i, j)는 애초에 홀이였던 픽셀과는 달리 이미 컬러 값을 갖고 있다. 따라서, 완충 영역 내의 픽셀(i, j) 자신의 컬러 값이 홀로 간주된 완충 영역 내의 픽셀(i, j)의 복원을 위해 사용될 수 있다.( I , j ) of the frame t (i.e., the pixel to which the color value is to be restored), as well as the color value of the pixel of the previous frame of the frame t and the color of the pixel of the subsequent frame, Is also used for restoration. Pixels ( i , j ) in the buffer area already have color values, unlike pixels that were originally holes. Therefore, the color value of the pixel ( i , j ) itself in the buffer area can be used for restoration of the pixel ( i , j ) in the buffer area considered as the hole.
즉, 인접 영상 기반 홀 복원부(340)는 완충 영역 내의 제1 픽셀을 복원하는 경우, 제1 픽셀의 컬러 값에 기반하여 제1 픽셀을 복원할 수 있다.
That is, when restoring the first pixel in the buffer region, the adjacent image-based
도 6은 일 예에 따른 크랙의 발생 및 양안시차 크랙의 검출에 의한 홀 설정을 설명한다.Fig. 6 illustrates generation of cracks and hole setting by detecting binocular parallax cracks according to an example.
도 6에서, 참조 뷰 영상(610) 및 참조 뷰 영상(610)의 양안시차 영상(620)이 도시되었다.6, a
도시된 것처럼, 양안시차 영상(620)의 제1 부분(622) 및 제2 부분(624)은 서로 상이한 양안시차 값을 갖는다. 일반적으로, 제1 부분(622) 및 제2 부분(624)은 같은 객체를 나타내기 때문에, 서로 동일하거나 유사한 양안시차 값을 가져야한다. 그러나, 특히, 양안시차 값이 추정된 경우, 제1 부분(622) 및 제2 부분(624)은 서로 상이한 양안시차 값을 가질 수 있다.As shown, the
제1 부분(622) 및 제2 부분(624)은 서로 상이한 양안시차 값을 갖기 때문에, 와핑에 의해 이동되는 거리가 서로 상이하다.Since the
제1 부분(622) 및 제2 부분(624)가 서로 상이한 거리를 이동하기 때문에, 와핑에 의해 생성된 출력 뷰 영상(630) 내에서, 제1 부분(622)에 대응하는 부분 및 제2 부분(624)에 대응하는 부분 간에 크랙(632)이 발생할 수 있다.Because the
이러한 크랙(632)이 발생한 부분에서는 전경이 아닌 배경이 표시될 수 있다. 즉, 제1 부분(622) 및 제2 부분(624) 대신에 배경이 표시될 수 있다.In the portion where
즉, 크랙(632)은 서로 상이한 양안시차 값 때문에 객체들(또는, 객체의 분리된 부분들의) 사이로 배경이 표시된 부분을 의미한다. 즉, 특정 객체의 부분들에게 상기한 양안시차 값이 할당된 경우, 상기 객체가 와핑될 때 상기 객체의 내부에서 크랙이 발생한다.That is, the
따라서, 영상 와핑부(310)에 의해 참조 뷰 영상(610)이 와핑될 경우, 상기 와핑에 의해 생성된 출력 뷰 영상(630)은 크랙을 갖는다.Therefore, when the
크랙(632)이 발생된 부분에서는, 전경이 아닌 배경이 표시된다. 즉, 크랙(632)이 발생된 부분에는, 배경의 컬러 값이 와핑된다.In a portion where
따라서, 크랙(632)으로 인해 출력 뷰 영상에서 화질 열화가 나타난다.Therefore, image quality deterioration occurs in the output view image due to the
만약, 크랙(632)이 홀로 설정된다면, 크랙(632)이 나타난 부분에도 홀 복원 방법이 적용될 수 있다. 따라서, 크랙(632)으로 인한 화질 열화가 감소될 수 있다.If the
양안 시차 크랙 검출부(330)는 출력 뷰 영상에서 크랙을 검출한다. 양안 시차 크랙 검출부(330)는 크랙이 발생한 부분을 홀로 설정한다.The binocular
크랙은 하기의 수학식 5에 기반하여 검출될 수 있다.The crack can be detected based on Equation (5) below.
여기서, D i , j 는 출력 뷰 영상(630) 내의 픽셀(i, j)(642)의 양안시차 값이다.Here, D i , j is the binocular parallax value of the pixel ( i , j ) 642 in the
픽셀(i, j)(642)은 크랙인지 여부가 검사되는 픽셀이다.Pixel ( i , j ) 642 is a pixel for which it is checked whether it is cracked.
D i + m , j + n 은 픽셀(i, j)과 인접한 픽셀(i+m, j+n)의 양안시차 값이다. D i + m , j + n are the binocular parallax values of the pixel ( i , j ) and the neighboring pixel ( i + m , j + n ).
Th는 미리 정의된 임계 값이다. Th is a predefined threshold.
즉, 양안시차 크랙 검출부(330)는 출력 뷰 내의 픽셀들 중, 인접한 픽셀(644)들과의 양안시차 값의 차들의 총 합이 미리 정의된 임계 값보다 큰 픽셀을 크랙으로 검출할 수 있다.That is, the binocular
크랙은, 전경이 나타나야 할 영역에 배경 픽셀이 와핑되었기 때문에 발생한다. 따라서, 크랙 지점에 위치한 배경 픽셀의 양안시차 값 및 상기 배경 픽셀의 주위에 인접한 전경 픽셀의 양안시차 값 간의 차이는 크다.Cracks occur because the background pixel is warped to the area where the foreground appears. Therefore, the difference between the binocular disparity value of the background pixel located at the crack point and the binocular disparity value of the foreground pixel adjacent to the background pixel is large.
따라서, 수학식 5에서와 같이, 인접 픽셀들(644)과의 양안시차 값의 차에 기반하여 크랙이 검출될 수 있다. 또한, 검출된 크랙을 홀로 할당함으로써, 화질 열화가 보상될 수 있다.Thus, as in Equation 5, a crack can be detected based on the difference in binocular disparity values with
도 6에서 도시된 인접 픽셀들(544)은 예시적인 것이다. 출력 뷰 내의 제1 픽셀과 일정한 거리에 있는 픽셀들이 상기 제1 픽셀의 인접 픽셀이 될 수 있다.
The adjacent pixels 544 shown in Fig. 6 are exemplary. Pixels at a certain distance from the first pixel in the output view may be adjacent pixels of the first pixel.
도 7은 일 예에 따른 인접 픽셀 스케일링을 설명한다.Figure 7 illustrates adjacent pixel scaling according to an example.
인접 픽셀 스케일링 기반 홀 복원부(350)는 영상(710)의 홀을 복원하기 위해 상기 홀에 인접한 하나 이상의 픽셀들을 사용한다.The adjacent pixel scaling-based
인접 픽셀 스케일링 기반 홀 복원부(350)는 수평(horizontal) 방향으로 픽셀들을 스케일링 할 수 있다.The adjacent pixel scaling-based
홀 복원의 대상이 되는 수평 선(712)이 도시되었다.A
인접 픽셀 스케일링 기반 홀 복원부(350)는 수평 선(712) 내에서 홀을 검출하고, 연속된 홀 픽셀들(730)의 개수를 검출한다.The adjacent pixel scaling-based
인접 픽셀 스케일링 기반 홀 복원부(350)는 홀을 검출하기 위해 수평 방향으로 스캔(scan)을 수행할 수 있다.The adjacent pixel scaling-based
인접 픽셀 스케일링 기반 홀 복원부(350)는 연속된 홀 픽셀들(730)의 개수와 동일한 개수만큼의 픽셀들(740)을 선택한다. 선택된 픽셀들은 일반적으로 홀이 아닌 픽셀들이다.The adjacent pixel scaling-based
선택된 픽셀들(740)은 연속된 홀 픽셀들(730)과 인접한 픽셀들이다.Selected pixels 740 are pixels adjacent to consecutive hall pixels 730.
선택된 픽셀들(740)은 연속된 홀 픽셀(730)들과 동일한 수평선 상에 있는 픽셀들일 수 있다.The selected pixels 740 may be pixels on the same horizontal line as the consecutive hall pixels 730.
도 7에서, 선택된 픽셀들(740)은 연속된 홀 픽셀들(730)의 우측에 있는 픽셀들이다. 그러나, 연속된 홀 픽셀들(730)의 좌측에 있는 픽셀들이 또한 선택된 픽셀들(740)이 될 수 있다. 또한, 선택된 픽셀들(740)은 연속된 홀 픽셀들(730)의 우측에 있는 픽셀들 및 좌측에 있는 픽셀들일 수 있다.In FIG. 7, the selected pixels 740 are the pixels to the right of the consecutive hall pixels 730. However, the pixels to the left of the consecutive hall pixels 730 may also be the selected pixels 740. Also, the selected pixels 740 may be pixels on the right side of successive hole pixels 730 and pixels on the left side.
인접 픽셀 스케일링 기반 홀 복원부(350)는 선택된 픽셀들(740)을 홀 픽셀들(730)을 향하는 방향으로 스케일링함으로써 홀을 복원할 수 있다.The adjacent pixel scaling-based
예컨대, 첫 번째 선택된 픽셀의 컬러 값을 사용하여 첫 번째 홀 픽셀 및 두 번째 홀 픽셀의 컬러 값이 생성된다. 따라서, 첫 번째 홀 픽셀 및 두 번째 홀 픽셀은 첫 번째 선택된 픽셀에 의해 복원된다.For example, the color values of the first and second hall pixels are generated using the color values of the first selected pixel. Thus, the first hall pixel and the second hall pixel are restored by the first selected pixel.
선택된 픽셀들(740)의 스케일링은, 선택된 픽셀들(740)이 나타내는 영역이 두 배로 늘려지고, 늘려진 영역이 홀 픽셀들(730) 및 선택된 픽셀들(740)이 나타내는 영역을 대체하는 것일 수 있다.The scaling of the selected pixels 740 may be such that the area represented by the selected pixels 740 is doubled and the stretched area replaces the area represented by the hole pixels 730 and the selected pixels 740 have.
이 때, 홀 픽셀들(730)의 개수 및 선택된 픽셀들(740)의 개수는 서로 동일하다. 따라서, 선택된 픽셀들(740)이 각각 2 개의 픽셀들로 스케일링됨으로써 모든 홀이 복원될 수 있다. 또한, 선택된 픽셀들(740)은 모두 균등하게 스케일링될 수 있다.
At this time, the number of the hole pixels 730 and the number of the selected pixels 740 are equal to each other. Thus, all of the holes can be reconstructed by scaling the selected pixels 740 with two pixels each. Also, the selected pixels 740 can all be scaled uniformly.
도 8은 일 예에 따른 배경 픽셀을 사용하는 인접 픽셀 스케일링을 설명한다.Figure 8 illustrates adjacent pixel scaling using a background pixel according to an example.
인접 픽셀 스케일링 기반 홀 복원부(350)는 연속된 홀 픽셀들(810)의 개수와 동일한 개수만큼의 홀이 아닌 픽셀들(820)을 선택한다.The adjacent pixel scaling-based
홀이 아닌 픽셀들(820) 각각은 양안시차 값을 갖는다.Each of the non-hole pixels 820 has a binocular parallax value.
인접 픽셀 스케일링 기반 홀 복원부(350)는 홀이 아닌 픽셀들(820) 각각을 양안시차 값에 따라 전경 픽셀 또는 배경 픽셀로 분류한다.The neighboring pixel scaling-based
예컨대, 인접 픽셀 스케일링 기반 홀 복원부(350)는 홀이 아닌 픽셀들(820) 중 양안시차 값이 미리 정의된 임계 값보다 큰 픽셀을 전경 픽셀로 분류할 수 있고, 양안시차 값이 미리 정의된 임계 값 이하인 픽셀을 배경 픽셀로 분류할 수 있다.For example, the neighboring pixel scaling-based
도 8에서, 앞의 3 개의 픽셀들(830)은 배경 픽셀로 분류되었고, 마지막 픽셀(840)은 전경 픽셀로 분류되었다.8, the previous three pixels 830 have been classified as background pixels, and the last pixel 840 has been classified as foreground pixels.
인접 픽셀 스케일링 기반 홀 복원부(350)는 배경 픽셀들(830)을 홀 픽셀들(730)을 향하는 방향으로 스케일링함으로써 홀을 복원할 수 있다.The adjacent pixel scaling-based
이 때, 배경 픽셀들(830)의 개수는 홀 픽셀들(730)의 개수보다 더 작을 수 있다. 따라서, 배경 픽셀들(830)의 전부 또는 일부는 2 개 이상의 픽셀들로 스케일링될 수 있다. 또한, 배경 픽셀들(840)은 비균등하게 스케일링될 수 있다.At this time, the number of background pixels 830 may be smaller than the number of the hole pixels 730. Thus, all or a portion of the background pixels 830 may be scaled to two or more pixels. Also, background pixels 840 may be non-uniformly scaled.
전경 픽셀(840)은 스케일링에서 제외된다. 따라서, 스케일링으로 인해 전경 영상이 변형되는 것이 방지될 수 있다.Foreground pixel 840 is excluded from scaling. Thus, the distortion of the foreground image due to scaling can be prevented.
전술된 스케일링 방법들은, 스켄 방향인 수평 방향으로만 픽셀들(740 또는 830)을 확장시킨다. 따라서, 이러한 스케일링 방법들은 용이하게 구현될 수 있다. 또한, 이러한 스케일링 방법이 사용된 경우, 작은 크기의 홀이 복원되었다라도 화질의 열화가 크게 인지되지 않는다.
The scaling methods described above extend pixels 740 or 830 only in the horizontal direction, which is the scan direction. Thus, such scaling methods can be readily implemented. Further, when such a scaling method is used, deterioration of image quality is not largely recognized even if a small-sized hole is restored.
도 9는 일 예에 따른 배경의 그레디언트(gradient)에 수직한 방향으로의 스케일링을 설명한다.Figure 9 illustrates scaling in a direction perpendicular to the gradient of the background according to an example.
출력 뷰 영상(910)은 홀(912)을 포함한다.The
배경(914) 중 특정한 모양(916)이 있을 경우, 전술된 수평 방향으로의 스케일링이 사용되면 모양(916)이 변형될 수 있다. 모양(916)은 하나 이상의 배경 픽셀들의 집합이다.If there is a
따라서, 이러한 모양(916)은 홀(912) 내에 포함된 모양(916)의 모서리(edge)(918)의 방향(924)과 수직한 방향(926)으로 스케일링될 필요가 있다.This
인접 픽셀 스케일링 기반 홀 복원부(350)는 홀(912)에 인접한 배경 픽셀 (922)을 선택한다.The adjacent pixel scaling-based
인접 픽셀 스케일링 기반 홀 복원부(350)는 배경 픽셀(922)을 포함하는 모서리(918)의 그레디언트를 계산한다. 배경 픽셀(922)을 포함하는 모서리(918)의 그레디언트는 배경 픽셀(922)의 그레디언트이다.The neighboring pixel scaling-based
인접 픽셀 스케일링 기반 홀 복원부(350)는 모서리(918)의 그레디언트의 수직 방향으로, 연속된 홀 픽셀들의 개수를 검출한다.The adjacent pixel scaling-based
인접 픽셀 스케일링 기반 홀 복원부(350)는 검출된 연속된 홀 픽셀들을 복원할 수 있도록 모서리(918)의 그레디언트의 수직 방향으로, 배경 픽셀들을 스케일링한다.The adjacent pixel scaling-based
즉, 인접 픽셀 스케일링 기반 홀 복원부(350)는 홀(912)에 인접한 배경 픽셀(922)의 그레디언트와 수직한 방향으로, 상기 인접한 배경 픽셀(922)를 포함하는 배경 픽셀들(또는, 배경의 일부) 을 스케일링함으로써 홀을 복원할 수 있다. 상기의 배경 픽셀들은 배경 픽셀(922)을 포함하는 모양(916)을 나타낼 수 있다.In other words, the adjacent pixel scaling-based
이때, 인접 픽셀 스케일링 기반 홀 복원부(350)는 배경 픽셀(922)의 그레디언트와 수직한 방향으로 연속된 홀 픽셀들의 개수를 검출할 수 있고, 검출된 홀 픽셀들의 개수에 기반하여 스케일링에 사용될 배경 픽셀들을 결정할 수 있으며, 배경 픽셀들이 얼만큼 스케일링될 것인지를 결정할 수 있다.At this time, the adjacent pixel scaling-based
전술된 배경 픽셀(922)의 그레디언트와 수직한 방향으로의 스케일링이 사용함으로써, 인접 픽셀 스케일링 기반 홀 복원부(350)는 배경 픽셀들(916)의 방향성을 유지한 채 홀 영역을 복원할 수 있다.By using the above-described scaling in the direction perpendicular to the gradient of the background pixel 922, the adjacent pixel scaling-based
배경의 그레디언트를 이용하는 스케일링 방법은, 배경에 강한 모서리 방향으로 배경 픽셀들을 스케일링하기 때문에, 단순히 수평 방향으로 스케일링되는 방법에 비해 더 자연스러운 결과를 낳는다. 그러나, 배경의 그레디언트를 이용하는 스케일링 방법은 상대적으로 복잡한 연산을 수행한다.
The scaling method using the gradient of the background results in a more natural result than simply scaling in the horizontal direction since it scales the background pixels in the strong corners direction in the background. However, the scaling method using the background gradient performs relatively complicated operations.
도 10은 일 에에 따른 최적 패치 탐색에 기반한 홀의 복원을 설명한다.Figure 10 illustrates the reconstruction of a hole based on optimal patch search with respect to work.
출력 뷰 영상(1010)은 홀을 포함한다.The
홀에 인접한 배경이 텍스처 영역일 경우, 단순히 배경 픽셀들을 스케일링하는 것으로는, 홀이 정확하게 복원될 수 없다.If the background adjacent to the hole is a texture area, simply scaling the background pixels does not allow the hole to be reconstructed correctly.
홀에 인접한 배경이 텍스처인 경우, 전체 배경 영역에서, 상기 홀에 인접한 배경과 가장 유사한 패치를 검출할 수 있다. 검출된 패치를 이용하여 홀이 복원될 수 있다. 즉, 홀에 인접한 배경이 갖는 텍스처와 동일 또는 매우 유사한 텍스처가 다른 배경 영역에서 발견될 경우, 다른 배경 영역에 인접한 부분이 홀을 복구하기 위해 사용될 수 있다.When the background adjacent to the hole is a texture, in the entire background area, a patch most similar to the background adjacent to the hole can be detected. The hole can be recovered using the detected patch. That is, if a texture that is the same as or very similar to the texture of the background adjacent to the hole is found in another background area, a portion adjacent to the other background area can be used to recover the hole.
우선, 패치를 이용하여 복원할 지점을 결정하는 방법을 검토한다.First, consider how to determine the point to restore using the patch.
배경에 인접한 홀부터 우선 처리하는 방식이 사용될 수 있다. 홀의 영역 중, 배경에 인접한 부분에서부터 순차적으로 복원되는 방법을 사용함으로써, 홀 복원 과정에서 전경 픽셀이 섞이는 것이 구조적으로 제한될 수 있다.A method of preferentially processing a hole adjacent to the background may be used. By using the method of sequentially restoring the area of the hole from the part adjacent to the background, mixing of the foreground pixels in the hole restoration process can be structurally restricted.
최적 패치 탐색 기반 홀 복원부(360)는 레스터(raster) 스캔 방향으로 홀 픽셀을 검출한다.The optimal patch search-based
검출된 초기 홀 지점(1012)은 전경과 인접한다. 따라서, 우선적으로 복원되기에 부적합한 지점이다.The detected
최적 패치 탐색 기반 홀 복원부(360)는 초기 홀 지점(1012)에서부터 스캔 방향으로 연속된 홀 픽셀들을 검출한다.The optimal patch search-based
최적 패치 탐색 기반 홀 복원부(360)는 연속된 홀 픽셀들의 말단을 최외곽 홀 지점(1014)으로 설정한다. 최외곽 홀 지점(1014)은 배경과 인접하였다. 따라서, 상기 최외곽 홀 지점(1014)과 인접하고, 홀이 아닌 픽셀의 컬러 값 및 양안시차 값을 사용함으로써 최외곽 홀 지점(1014) 주위의 홀 영역을 복구할 수 있는 패치가 검색될 수 있다. The optimal patch search-based
최적 패치 탐색 기반 홀 복원부(360)는 설정된 최외곽 홀 지점(1014)에 대해 최적 패치 탐색 기반 홀 복원을 수행한다. 하기에서, 최적 패치 탐색 기반 홀 복원이 설명된다.The optimal patch search-based
최적 패치 탐색 기반 홀 복원부(360)는 최외곽 홀 지점(1014)과 인접한 영역을 윈도우 영역(1016)으로 설정한다. 윈도우 영역(1016)은 N x N의 픽셀들일 수 있다.The optimal patch search-based
원도우 영역(1016)은 홀 영역(1020) 및 배경 영역(1018)을 포함한다. 배경 영역(1018)은 패치를 탐색하기 위해 사용된다. 홀 영역(1020)은 탐색된 패치를 사용함으로써 복구되는 영역이다.The
최적 패치 탐색 기반 홀 복원부(360)는 전체 배경 영역에서 윈도우 영역(1016)에 대응하는 최적의 패치를 검출하고, 검출된 패치를 사용하여 설정된 최외곽 홀 지점(1014) 및 홀 영역(1020)을 복원한다.The optimal patch search-based
최적의 패치는 전체 배경 영역 중 윈도우 영역(1016)과 가장 유사도가 높은 영역을 의미한다.The optimal patch means an area having the highest degree of similarity to the
패치는 윈도우 영역(1016)와 같은 크기를 갖는다. 패치 또한 홀 영역(1020)에 대응하는 부분 및 배경 영역(1018)에 대응하는 부분으로 구성된다.The patch has the same size as the
패치를 선택하기 위해 배경 영역의 특정 부분 및 윈도우 영역(1016) 간의 유사도가 계산된다. 상기의 특정 부분은 윈도우 영역(1016)과 같은 크기를 가지며, 홀 영역(1020)에 대응하는 부분 및 배경 영역(1018)에 대응하는 부분으로 구성된다.The similarity between a particular portion of the background region and the
특정 부분 및 윈도우 영역(1016) 간의 유사도가 계산될 때, 홀 영역(1020)은 유사도의 계산에서 제외되고, 배경 영역(1018)만이 유사도의 계산을 위해 사용된다.When the degree of similarity between the specific portion and the
예컨대, 제1 특정 부분의 배경 영역(1018)에 대응하는 일부가, 윈도우 영역(1016)의 배경 영역(1018)과 동일한 컬러 값 및 양안시차 값을 갖는 경우, 양자(제1 특정 부분의 배경 영역(1018)에 대응하는 일부 및 배경 영역(1018))는 동일한 것으로 간주된다. 따라서, 제1 특정 부분이 최적 패치로서 선택될 수 있다.For example, when a part corresponding to the
최적 패치 탐색 기반 홀 복원부(360)는 유사도 계산을 위해 MAD(mean of absolute difference) 등의 방법을 사용할 수 있다. MAD 방법은 컬러 값 및 양안시차 값을 사용할 수 있다.The optimal patch search-based
즉, 복수 개의 특정 부분들 중, 제2 특정 부분 및 윈도우 영역(1016)과의 MAD가 최소 값일 때, 최적 패치 탐색 기반 홀 복원부(360)는 제2 특정 부분을 최적 패치로서 선택할 수 있다.That is, when the MAD between the second specific portion and the
최적 패치가 결정되면, 최적 패치 탐색 기반 홀 복원부(360)는 결정된 패치의 홀 영역(1020)에 대응하는 부분을 사용하여 홀 영역(1020)을 복원한다.
When the optimal patch is determined, the optimal patch search-based
도 11은 일 예에 따른 패치의 중첩을 사용한 홀의 복원을 설명한다.Fig. 11 illustrates restoration of holes using overlapping patches according to an example.
최적 패치 탐색 기반 홀 복원부(360)는 특정한 홀 픽셀(또는, 홀 영역)을 복원하기 위하여 2 개 이상의 패치를 사용할 수 있다. The optimal patch search-based
즉, 최적 패치 탐색 기반 홀 복원부(360)는, 서로 다른 2 개 이상의 최외곽 홀 지점들에 기반하여, 2 개 이상의 원도우 영역들(1112 및 1114)을 선택할 수 있다.That is, the optimal patch search-based
최적 패치 탐색 기반 홀 복원부(360)는 2 개 이상의 윈도우 영역들(1112 및 1114) 각각에 대한 최적 패치들을 탐색할 수 있으며, 2 개 이상의 탐색된 패치들을 사용하여 홀을 복원할 수 있다.The optimal patch search-based
2 개 이상의 윈도우 영역들(1112 및 1114)이 서로 오버랩(overlap)된 경우, 오버랩된 홀 영역은 2 개 이상의 패치에 의해 복원될 수 있다.When two or
이러한 경우, 최적 패치 탐색 기반 홀 복원부(360)는 2 개 이상의 패치들의 컬러 값들의 평균 값 및 양안시차 값들의 평균 값을 사용하여 오버랩된 홀 영역을 복원할 수 있다.In this case, the optimal patch search-based
즉, 최적 패치 탐색 기반 홀 복원부(360)는 2 개 이상의 패치들의 컬러 값들의 평균 값 및 양안시차 값들의 평균 값을 사용하여 홀을 복원할 수 있다.
That is, the optimal patch search-based
도 12은 일 실시예에 따른 영상 처리 방법의 흐름도이다.12 is a flowchart of an image processing method according to an embodiment.
영상 와핑 단계(S1210)에서, 참조 뷰의 영상 및 상기 참조 뷰의 영상의 양안시차 정보를 사용하는 이미지 와핑에 의해 출력 뷰의 영상이 생성된다.In the image warping step S1210, an image of the output view is generated by image warping using the image of the reference view and the binocular disparity information of the image of the reference view.
완충 구간 설정 단계(S1220)에서, 완충 구간을 설정함으로써, 출력 뷰 내에서 생성된 홀이 확대된다.In the buffer interval setting step (S1220), by setting the buffer interval, the hole generated in the output view is enlarged.
양안시차 크랙 검출 단계(S1230)에서, 출력 뷰의 영상 중 크랙이 홀로서 설정된다.In the binocular parallax crack detection step (S1230), a crack in the image of the output view is set alone.
인접 영상 기반 홀 복원 단계(S1240)에서, 참조 뷰의 영상에 시간적으로 인접한 영상들을 사용함으로써 출력 뷰 내에 생성된 홀이 복원된다.In the adjacent image-based hall restoring step (S1240), holes generated in the output view are restored by using images temporally adjacent to the reference view image.
인접 픽셀 스케일링 기반 홀 복원 단계(S1250)에서, 홀과 인접한 하나 이상의 픽셀들을 스케일링함으로써 홀이 복원된다.In the adjacent pixel scaling-based hole reconstruction step (S1250), the hole is reconstructed by scaling one or more pixels adjacent to the hole.
최적 패치 탐색 기반 홀 복원 단계(S1260)에서, 홀이 포함되는 영역과 가장 유사한 패치를 배경으로부터 탐색하고, 탐색된 패치를 사용함으로써 홀이 복원된다.In the optimal patch search-based hole restoration step (S1260), the patch most similar to the area including the hole is searched from the background, and the hole is restored by using the searched patch.
앞서 도 1 내지 도 11을 참조하여 설명된 본 발명의 일 실시예에 따른 기술 적 내용들이 도 12의 영상 처리 방법의 실시예에도 그대로 적용될 수 있다. 따라서 보다 상세한 설명은 이하 생략하기로 한다.
The technical contents according to the embodiment of the present invention described above with reference to Figs. 1 to 11 can be applied to the embodiment of the image processing method of Fig. Therefore, a more detailed description will be omitted below.
본 발명의 일 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM, DVD와 같은 광기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. 여기서 설명된 하나 이상의 소프트웨어 모듈들은 유닛에 고유한 프로세서 또는 하나 이상의 모듈들에 공통된 프로세서에 의해 실행될 수 있다. 설명된 방법들은 범용 컴퓨터, 범용 프로세서 또는 여기서 설명된 영상 처리 장치와 같은 특정한 머신(machine)에 의해 실행될 수 있다.
The method according to an embodiment of the present invention can be implemented in the form of a program command which can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic recording media such as magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magnetic recording media such as floppy disks, Optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa. The one or more software modules described herein may be executed by a processor unique to the unit or by a processor common to one or more modules. The described methods may be executed by a particular machine, such as a general purpose computer, a general purpose processor, or the image processing apparatus described herein.
도 13은 일 예에 따른 영상 처리 장치를 포함하는 디스플레이 디바이스(display device)를 도시한다.13 shows a display device including an image processing apparatus according to an example.
도 13을 참조하면, 멀티-뷰 디스플레이 디바이스(1300)는 제어부(1310) 및 영상 처리 장치(1305)를 포함할 수 있다.13, the
멀티-뷰 디스플레이 디바이스(1300)는 3D 영상을 디스플레이하기 위한 3D 디스플레이의 형태를 가질 수 있으며, 3 개 이상의 상이한 시점들로의 멀티-뷰 스킴(scheme)을 채용할 수 있다. 선택적으로, 멀티-뷰 디스플레이 디바이스(1300)는 좌측 영상 및 우측 영상을 출력하는 스테레오스코픽(stereoscopic) 디스플레이의 형태를 가질 수 있다.The
제어부(1301)은 멀티-뷰 디스플레이 디바이스(1300)를 제어하기 위한 하나 이상의 제어 신호들을 생성할 수 있으며, 멀티-뷰 디스플레이 디바이스(1300)에 의해 디스플레이되는 하나 이상의 신호들을 생성할 수 있다. 제어부(1301)은 하나 이상의 프로세서들을 포함할 수 있다.The
영상 처리 장치(1305)는 멀티-뷰 디스플레이 디바이스(1300)를 위한 멀티-뷰 영상을 생성하기 위해 사용될 수 있으며, 예컨대, 영상 와핑부, 완충 구간 설정부, 양안시차 크랙 검출부, 인접 영상 기반 홀 복원부, 인접 픽셀 스케일링 기반 홀 복원부 및 최적 패치 탐색 기반 홀 복원부 중 하나 이상을 임의로 포함할 수 있다. 도 13에서 상기의 유닛들은 도시되지 않았다. 그러나, 이러한 유닛들 각각은, 예컨대 도 3을 참조하여, 여기서 설명된 유사하게 명명된 유닛들에 대응한다. 따라서, 본 예에서 더 설명되지는 않는다.The
영상 처리 장치(1305)는 멀티-뷰 디스플레이 디바이스(1300) 내에 내부적으로 설치될 수 있으며, 멀티-뷰 디스플레이 디바이스(1300)로 부착될 수 있으며, 멀티-뷰 디스플레이 디바이스(1300)와는 별개로 구현(embody)될 수 있다. 영상 처리 장치(1305)의 물리적인 구성(configuration)에 무관하게, 영상 처리 장치(1305)는 도 1 내지 도 12을 참조하여 전술된 능력(capability)들을 가질 수 있다. 영상 처리 장치(1305)는 하나 이상의 내부 프로세서들을 포함할 수 있다. 또는, 상기의 하나 이상의 프로세서들은, 제어부(1301)의 하나 이상의 프로세서들과 같이, 멀티-뷰 디스플레이 디바이스(1300) 내에 포함될 수 있다.The
전술된 3D 영상 장치 및 방법은 다양한 비디오 포멧(format)들을 응용(utilitze)할 수 있다. 상기의 비디오 포멧은 H.264/MPEG-4 AVC, 고효율 비디오 코딩(High Efficiency Video Coding; HEVC), 다이락(Dirac) 비디오 압축 포멧 및 VC-1 등과 같은 포멧들을 포함할 수 있으나, 전술된 포멧들로 제한되지는 않는다.The 3D imaging apparatus and method described above can utilitize various video formats. The above video format may include formats such as H.264 / MPEG-4 AVC, High Efficiency Video Coding (HEVC), Dirac video compression format, and VC-1, Lt; / RTI >
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.While the invention has been shown and described with reference to certain preferred embodiments thereof, it will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. This is possible.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined by the equivalents of the claims, as well as the claims.
300: 영상 처리 장치
310: 영상 와핑부
340: 인접 영상 기반 홀 복원부
350: 인접 픽셀 스케일링 기반 홀 복원부
360: 최적 패치 탐색 기반 홀 복원부300: image processing device
310: image and ping
340: adjacent image-based hole reconstruction unit
350: adjacent pixel scaling-based hole reconstruction unit
360: optimal patch search-based hole reconstruction unit
Claims (41)
참조 뷰의 영상 및 상기 참조 뷰의 영상의 양안시차 정보를 사용하는 영상 와핑에 의해 출력 뷰의 영상을 생성하는 영상 와핑부;
상기 영상 와핑에 의해 생성된 상기 출력 뷰 내의 홀에 인접한 완충 영역을 홀로 간주함으로써 상기 출력 뷰 내의 홀을 확대하는 완충 구간 설정부; 및
상기 영상 와핑과 관련된 영상에 시간적으로 인접한 영상들을 사용하여 상기 확대된 홀을 복원하는 인접 영상 기반 홀 복원부;
를 포함하고,
상기 인접 영상 기반 홀 복원부는 제1 픽셀이 상기 완충 영역 내의 픽셀인 경우 상기 제1 픽셀의 컬러 값에 기초하여 상기 제1 픽셀을 복원하는, 영상 처리 장치.A processor for controlling one or more processor-executable units;
An image and a ping section for generating an image of an output view by image warping using the image of the reference view and the binocular disparity information of the image of the reference view;
A buffer section setting section for enlarging a hole in the output view by considering a buffer area adjacent to a hole in the output view generated by the image watermark as a hole; And
An adjacent image-based hole restoration unit for restoring the enlarged hole using images temporally adjacent to the image related to the image warping;
Lt; / RTI >
Wherein the adjacent image-based hall restoration unit restores the first pixel based on a color value of the first pixel when the first pixel is a pixel in the buffer area.
상기 시간적으로 인접한 영상들은 상기 참조 뷰의 영상에 시간적으로 인접한 영상들인, 영상 처리 장치.The method according to claim 1,
Wherein the temporally adjacent images are temporally adjacent to an image of the reference view.
상기 시간적으로 인접한 영상들은 상기 출력 뷰의 영상에 시간적으로 인접한 영상들인, 영상 처리 장치.The method according to claim 1,
Wherein the temporally adjacent images are temporally adjacent to the image of the output view.
상기 인접 영상 기반 홀 복원부는 상기 홀 내의 제1 픽셀을 복원하기 위해 상기 시간적으로 인접한 영상들 내의 상기 제1 픽셀에 대응하는 픽셀들의 컬러 값을 사용하는, 영상 처리 장치.The method according to claim 1,
Wherein the adjacent image-based hall reconstruction unit uses a color value of pixels corresponding to the first pixel in the temporally adjacent images to recover a first pixel in the hole.
상기 인접 영상 기반 홀 복원부는 상기 참조 뷰의 영상 및 상기 시간적으로 인접한 영상들이 시간에 따라 전체적으로 이동한 경우, 상기 이동에 기반하여 상기 시간적으로 인접한 영상들 내에서 상기 제1 픽셀에 대응하는 픽셀들을 선택하는, 영상 처리 장치.5. The method of claim 4,
Wherein the neighboring-image-based hall reconstructing unit selects the pixels corresponding to the first pixel in the temporally adjacent images based on the movement, when the reference view and temporally adjacent images are entirely moved in time Image processing apparatus.
상기 인접 영상 기반 홀 복원부는 상기 제1 픽셀에 대응하는 픽셀들 중 홀 픽셀이 아닌 픽셀만을 상기 홀을 복원하기 위해 사용하는, 영상 처리 장치.5. The method of claim 4,
Wherein the adjacent image-based hall reconstruction unit uses only pixels of the pixels corresponding to the first pixel that are not a hall pixel to reconstruct the hall.
상기 인접 영상 기반 홀 복원부는 상기 제1 픽셀에 대응하는 픽셀들 중 배경 픽셀만을 상기 홀을 복원하기 위해 사용하는, 영상 처리 장치.5. The method of claim 4,
Wherein the adjacent image-based hall restoration unit uses only a background pixel among the pixels corresponding to the first pixel to restore the hall.
상기 출력 뷰의 영상 중 크랙을 홀로 설정하는 양안시차 크랙 검출부
를 더 포함하는, 영상 처리 장치.The method according to claim 1,
A binocular parallax crack detector for setting a crack in an image of the output view as an image,
Further comprising:
상기 양안시차 크랙 검출부는 상기 출력 뷰 내의 픽셀들 중, 인접한 픽셀들과의 양안시차 값의 차들의 총 합이 미리 정의된 임계 값보다 큰 픽셀을 크랙으로 검출하는, 영상 처리 장치.11. The method of claim 10,
Wherein the binocular parallax crack detecting unit detects, as a crack, a pixel having a sum total of differences of binocular parallax values with adjacent pixels of pixels in the output view larger than a predefined threshold value.
상기 영상 와핑에 의해 생성된 상기 출력 뷰 내의 홀에 인접한 완충 영역을 홀로 간주함으로써 상기 출력 뷰 내의 홀을 확대하는 완충 구간 설정 단계; 및
상기 영상 와핑과 관련된 영상에 시간적으로 인접한 영상들을 사용하여 상기 확대된 홀을 복원하는 인접 영상 기반 홀 복원 단계;
를 포함하고,
상기 인접 영상 기반 홀 복원 단계는,
제1 픽셀이 상기 완충 영역 내의 픽셀인 경우 상기 제1 픽셀의 컬러 값에 기초하여 상기 제1 픽셀을 복원하는 단계
를 포함하는, 영상 처리 방법.An image watermarking step of generating an image of an output view by image-waving an image of the reference view based on binocular disparity information of the image of the reference view by the processor;
A buffer area setting step of enlarging a hole in the output view by considering a buffer area adjacent to a hole in the output view generated by the image watermark as a hole; And
An adjacent image-based hall restoring step of restoring the enlarged hall using images temporally adjacent to the image related to the image warping;
Lt; / RTI >
Wherein the neighboring-image-
And restoring the first pixel based on the color value of the first pixel when the first pixel is a pixel in the buffer area
And an image processing method.
상기 시간적으로 인접한 영상들은 상기 참조 뷰의 영상에 시간적으로 인접한 영상들인, 영상 처리 방법.20. The method of claim 19,
Wherein the temporally adjacent images are temporally adjacent to an image of the reference view.
상기 시간적으로 인접한 영상들은 상기 출력 뷰의 영상에 시간적으로 인접한 영상들인, 영상 처리 방법.20. The method of claim 19,
Wherein the temporally adjacent images are temporally adjacent to an image of the output view.
상기 홀을 상기 홀과 인접한 하나 이상의 픽셀들을 스케일링함으로써 복원하는 인접 픽셀 스케일링 기반 홀 복원 단계; 및
상기 홀이 포함되는 영역과 가장 유사한 패치를 배경으로부터 탐색하고, 상기 탐색된 패치를 사용함으로써 상기 홀을 복원하는 최적 패치 탐색 기반 홀 복원 단계
를 더 포함하는, 영상 처리 방법.20. The method of claim 19,
An adjacent pixel scaling-based hole restoration step of restoring the hole by scaling one or more pixels adjacent to the hole; And
Searching for a patch most similar to an area including the hole from the background and restoring the hole by using the retrieved patch,
Further comprising the steps of:
참조 뷰의 영상 및 상기 참조 뷰의 영상의 양안시차 정보에 기반하여 출력 뷰의 영상을 생성하는 영상 생성부;
상기 출력 뷰 내의 홀에 인접한 완충 영역을 홀로 간주함으로써 상기 출력 뷰 내의 홀을 확대하는 완충 구간 설정부 - 상기 출력 뷰 내의 홀은 상기 출력 뷰의 생성의 결과로서 생성됨 -; 및
상기 생성과 관련된 영상에 시간적으로 인접한 영상들의 배경 정보를 사용하여 상기 출력 뷰 내의 상기 확대된 홀을 복원하는 인접 영상 기반 홀 복원부
를 포함하고,
상기 인접 영상 기반 홀 복원부는 제1 픽셀이 상기 완충 영역 내의 픽셀인 경우 상기 제1 픽셀의 컬러 값에 기초하여 상기 제1 픽셀을 복원하는, 멀티-뷰 생성 장치.A processor for controlling one or more processor-executable units;
An image generating unit generating an image of an output view based on binocular disparity information of a reference view and an image of the reference view;
A buffer zone setting unit for enlarging a hole in the output view by considering a buffer zone adjacent to the hole in the output view as a hole, the hole in the output view being generated as a result of generation of the output view; And
Based holographic reconstruction unit for reconstructing the enlarged hole in the output view using background information of images temporally adjacent to the image related to the generation,
Lt; / RTI >
Wherein the adjacent image-based hall reconstruction unit restores the first pixel based on the color value of the first pixel when the first pixel is a pixel in the buffer area.
상기 시간적으로 인접한 영상들은 상기 참조 뷰의 영상에 시간적으로 인접한 영상들인, 멀티-뷰 생성 장치.26. The method of claim 25,
Wherein the temporally adjacent images are images temporally adjacent to the image of the reference view.
상기 시간적으로 인접한 영상들은 상기 출력 뷰의 영상에 시간적으로 인접한 영상들인, 멀티-뷰 생성 장치.26. The method of claim 25,
Wherein the temporally adjacent images are temporally adjacent to the image of the output view.
상기 영상 생성부는 상기 참조 뷰로부터 데이터를 내삽 또는 외삽함으로써 상기 출력 뷰의 영상을 생성하는, 멀티-뷰 생성 장치.26. The method of claim 25,
Wherein the image generating unit generates an image of the output view by interpolating or extrapolating data from the reference view.
참조 뷰의 영상 및 상기 참조 뷰의 영상의 양안시차 정보에 기반하여 출력 뷰의 영상을 생성하는 영상 와핑부;
상기 영상 와핑에 의해 생성된 상기 출력 뷰 내의 홀에 인접한 완충 영역을 홀로 간주함으로써 상기 출력 뷰 내의 홀을 확대하는 완충 구간 설정부 - 상기 홀은 상기 출력 뷰의 생성의 결과로서 생성됨 -;
상기 생성과 관련된 영상에 시간적으로 인접한 영상들의 배경 정보를 사용하여 상기 생성된 출력 뷰 내의 상기 확대된 홀을 복원하는 인접 영상 기반 홀 복원부; 및
상기 인접 영상 기반 홀 복원부에 의해 복원된 상기 홀을 갖는 상기 생성된 출력 뷰의 영상에 기반하여 상기 디스플레이 디바이스에 의해 디스플레이될 신호를 생성하는 제어부
를 포함하고,
상기 인접 영상 기반 홀 복원부는 제1 픽셀이 상기 완충 영역 내의 픽셀인 경우 상기 제1 픽셀의 컬러 값에 기초하여 상기 제1 픽셀을 복원하는, 영상 처리 장치를 포함하는, 디스플레이 디바이스.A display device including an image processing apparatus,
An image and a ping block for generating an image of an output view based on a binarized parallax information of an image of a reference view and an image of the reference view;
A buffer region setting unit that enlarges a hole in the output view by considering a buffer region adjacent to a hole in the output view generated by the image watermark as hole, the hole being generated as a result of generation of the output view;
An adjacent image-based hall reconstruction unit for reconstructing the enlarged hole in the generated output view using background information of images temporally adjacent to the generation-related image; And
And a control unit for generating a signal to be displayed by the display device based on the image of the generated output view having the hole reconstructed by the adjacent image-
Lt; / RTI >
Wherein the adjacent image-based hall reconstruction unit restores the first pixel based on the color value of the first pixel when the first pixel is a pixel in the buffer area.
상기 시간적으로 인접한 영상들은 상기 참조 뷰의 영상에 시간적으로 인접한 영상들인, 디스플레이 디바이스.40. The method of claim 39,
Wherein the temporally adjacent images are images temporally adjacent to the image of the reference view.
상기 시간적으로 인접한 영상들은 상기 출력 뷰의 영상에 시간적으로 인접한 영상들인, 디스플레이 디바이스.40. The method of claim 39,
Wherein the temporally adjacent images are images temporally adjacent to the image of the output view.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/349,115 US9582928B2 (en) | 2011-01-13 | 2012-01-12 | Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching |
JP2013549367A JP6173218B2 (en) | 2011-01-13 | 2012-01-12 | Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching |
CN201280001829.2A CN102985949B (en) | 2011-01-13 | 2012-01-12 | Background pixel is used to expand the multi views rendering apparatus with the preferential Block-matching of background and method |
PCT/KR2012/000299 WO2012096530A2 (en) | 2011-01-13 | 2012-01-12 | Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching |
EP12151022.6A EP2477158B1 (en) | 2011-01-13 | 2012-01-13 | Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20110003658 | 2011-01-13 | ||
KR1020110003658 | 2011-01-13 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20120082336A KR20120082336A (en) | 2012-07-23 |
KR101960852B1 true KR101960852B1 (en) | 2019-03-22 |
Family
ID=46714172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110142432A KR101960852B1 (en) | 2011-01-13 | 2011-12-26 | Apparatus and method for multi-view rendering using background pixel expansion and background-first patch matching |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP6173218B2 (en) |
KR (1) | KR101960852B1 (en) |
CN (1) | CN102985949B (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140039649A (en) * | 2012-09-24 | 2014-04-02 | 삼성전자주식회사 | Multi view image generating method and multi view image display apparatus |
KR102156410B1 (en) * | 2014-04-14 | 2020-09-15 | 삼성전자주식회사 | Apparatus and method for processing image considering motion of object |
KR102350235B1 (en) * | 2014-11-25 | 2022-01-13 | 삼성전자주식회사 | Image processing method and apparatus thereof |
KR102380862B1 (en) | 2015-09-01 | 2022-03-31 | 삼성전자주식회사 | Method and apparatus for image processing |
CN106060511B (en) * | 2016-06-17 | 2018-11-16 | 浙江工商大学 | Three-dimensional video-frequency complementing method and system based on depth map |
KR102608466B1 (en) | 2016-11-22 | 2023-12-01 | 삼성전자주식회사 | Method and apparatus for processing image |
JP7202087B2 (en) * | 2018-06-29 | 2023-01-11 | 日本放送協会 | Video processing device |
KR102641163B1 (en) | 2018-11-29 | 2024-02-28 | 삼성전자주식회사 | Image processing apparatus and image processing method thereof |
US20200296401A1 (en) * | 2019-03-15 | 2020-09-17 | Mediatek Inc. | Method and Apparatus of Patch Segmentation for Video-based Point Cloud Coding |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050285875A1 (en) * | 2004-06-28 | 2005-12-29 | Microsoft Corporation | Interactive viewpoint video system and process |
KR100590025B1 (en) * | 2004-12-30 | 2006-06-14 | 전자부품연구원 | Method and device for synthesizing intermediate images in a multi-view square camera based display system |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000253422A (en) * | 1999-03-03 | 2000-09-14 | Toshiba Corp | Method for generating three-dimensionall image from two-dimensional image |
US7362799B1 (en) * | 2002-06-27 | 2008-04-22 | Arraycomm Llc | Method and apparatus for communication signal resolution |
EP1672460B1 (en) * | 2004-12-15 | 2009-11-25 | STMicroelectronics (Research & Development) Limited | Computer user detection apparatus |
US7548659B2 (en) * | 2005-05-13 | 2009-06-16 | Microsoft Corporation | Video enhancement |
US7570812B2 (en) * | 2005-11-01 | 2009-08-04 | Samsung Electronics Co., Ltd. | Super precision for smoothly changing area based on segmentation and low-pass filtering |
US20100289815A1 (en) * | 2008-01-24 | 2010-11-18 | Koninklijke Philips Electronics N.V. | Method and image-processing device for hole filling |
CN101282492B (en) * | 2008-05-23 | 2010-07-21 | 清华大学 | Method for regulating display depth of three-dimensional image |
KR101468267B1 (en) * | 2008-10-02 | 2014-12-15 | 프라운호퍼-게젤샤프트 추르 푀르데룽 데어 안제반텐 포르슝 에 파우 | Intermediate view synthesis and multi-view data signal extraction |
JP5209121B2 (en) * | 2009-09-18 | 2013-06-12 | 株式会社東芝 | Parallax image generation device |
EP2533191B1 (en) * | 2010-02-02 | 2017-06-14 | Konica Minolta Holdings, Inc. | Image processing system, image processing method, and program |
JP5002702B2 (en) * | 2010-12-03 | 2012-08-15 | 株式会社東芝 | Parallax image generation device, stereoscopic video display device, and parallax image generation method |
-
2011
- 2011-12-26 KR KR1020110142432A patent/KR101960852B1/en active IP Right Grant
-
2012
- 2012-01-12 CN CN201280001829.2A patent/CN102985949B/en active Active
- 2012-01-12 JP JP2013549367A patent/JP6173218B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050285875A1 (en) * | 2004-06-28 | 2005-12-29 | Microsoft Corporation | Interactive viewpoint video system and process |
KR100590025B1 (en) * | 2004-12-30 | 2006-06-14 | 전자부품연구원 | Method and device for synthesizing intermediate images in a multi-view square camera based display system |
Non-Patent Citations (4)
Title |
---|
C Vázquez,, Stereoscopic imaging: filling disoccluded areas in depth image- based rendering, 2006.* |
Liang Zhang et al. , "Stereoscopic image generation based on depth images for 3D TV", IEEE Trans. on Broadcasting, Vol.51, Issue 2, 2005.06.* |
P. Kauff et al., "Depth map creation and image-based rendering for advanced 3DTV services providing interoperability and scalability", Signal Processing Image Communication, Vol.22, Issue 2, 2007.02.* |
RK Gunnewiek et al. , "Coherent spatial and temporal occlusion generation," IS&T/SPIE Electronic Imaging, 2009* |
Also Published As
Publication number | Publication date |
---|---|
CN102985949B (en) | 2016-10-26 |
JP2014515197A (en) | 2014-06-26 |
JP6173218B2 (en) | 2017-08-02 |
CN102985949A (en) | 2013-03-20 |
KR20120082336A (en) | 2012-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101960852B1 (en) | Apparatus and method for multi-view rendering using background pixel expansion and background-first patch matching | |
US9582928B2 (en) | Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching | |
JP5156837B2 (en) | System and method for depth map extraction using region-based filtering | |
US9041819B2 (en) | Method for stabilizing a digital video | |
JP4658223B2 (en) | Image generating method, apparatus, program thereof, and recording medium recording program | |
US20130162634A1 (en) | Image processing method and apparatus using multi-layer representation | |
KR101502362B1 (en) | Apparatus and Method for Image Processing | |
US20130127988A1 (en) | Modifying the viewpoint of a digital image | |
US8611642B2 (en) | Forming a steroscopic image using range map | |
KR101729924B1 (en) | Apparatus and method for generating extrapolated view based on image resizing | |
US20130129192A1 (en) | Range map determination for a video frame | |
KR101580284B1 (en) | Apparatus and method for generating intermediate view image | |
EP2747427B1 (en) | Method, apparatus and computer program usable in synthesizing a stereoscopic image | |
JP5519085B1 (en) | Moving image generating apparatus and moving image generating method | |
JP4892113B2 (en) | Image processing method and apparatus | |
JP2007053621A (en) | Image generating apparatus | |
JP2014072809A (en) | Image generation apparatus, image generation method, and program for the image generation apparatus | |
US20130229408A1 (en) | Apparatus and method for efficient viewer-centric depth adjustment based on virtual fronto-parallel planar projection in stereoscopic images | |
Wei et al. | Iterative depth recovery for multi-view video synthesis from stereo videos | |
Tian et al. | A trellis-based approach for robust view synthesis | |
Wang et al. | Local depth image enhancement scheme for view synthesis | |
Wei et al. | Video synthesis from stereo videos with iterative depth refinement | |
Liu | Improving forward mapping and disocclusion inpainting algorithms for depth-image-based rendering and geomatics applications | |
Schmeing et al. | Faithful spatio-temporal disocclusion filling using local optimization | |
Medeiros et al. | Iterative disparity estimation and image segmentation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |