KR20180005859A - Apparatus and method for generating virtual viewpoint image - Google Patents

Apparatus and method for generating virtual viewpoint image Download PDF

Info

Publication number
KR20180005859A
KR20180005859A KR1020160086054A KR20160086054A KR20180005859A KR 20180005859 A KR20180005859 A KR 20180005859A KR 1020160086054 A KR1020160086054 A KR 1020160086054A KR 20160086054 A KR20160086054 A KR 20160086054A KR 20180005859 A KR20180005859 A KR 20180005859A
Authority
KR
South Korea
Prior art keywords
image
mapping
virtual viewpoint
virtual
reference image
Prior art date
Application number
KR1020160086054A
Other languages
Korean (ko)
Other versions
KR102469228B1 (en
Inventor
신홍창
이광순
이진환
허남호
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020160086054A priority Critical patent/KR102469228B1/en
Priority to CN201710252123.8A priority patent/CN107590857A/en
Publication of KR20180005859A publication Critical patent/KR20180005859A/en
Application granted granted Critical
Publication of KR102469228B1 publication Critical patent/KR102469228B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation

Abstract

An apparatus and method for generating a virtual viewpoint image are disclosed. The apparatus for generating a virtual viewpoint image according to the present invention comprises: a segmented image generating unit generating a standard disparity image and a reference disparity image by segmenting each of a standard image and a reference image corresponding to different viewpoints by a unit of segmentation; a disparity calculating unit calculating a disparity corresponding to the standard image and reference image segmented by the unit of segmentation to generate the standard disparity image and reference disparity image; an image mapping unit mapping the standard disparity image and reference disparity image to a virtual viewpoint using the disparity; and a virtual viewpoint generating unit generating a virtual viewpoint image corresponding to the virtual viewpoint by mixing a first mapping image obtained by mapping the standard disparity image to the virtual viewpoint and a second mapping image obtained by mapping the reference disparity image to the virtual viewpoint.

Description

가상 시점 영상 생성 장치 및 방법{APPARATUS AND METHOD FOR GENERATING VIRTUAL VIEWPOINT IMAGE}[0001] APPARATUS AND METHOD FOR GENERATING VIRTUAL VIEWPOINT IMAGE [0002]

본 발명은 가상 시점 영상을 생성하는 기술에 관한 것으로, 특히 서로 다른 시점에 상응하는 기준 영상 및 참조 영상 간 기하관계를 이용하여 가상 시점에 대한 영상을 생성하는 기술에 관한 것이다.The present invention relates to a technique for generating a virtual viewpoint image, and more particularly, to a technique for generating an image for a virtual viewpoint using a geometric relationship between a reference image and a reference image corresponding to different viewpoints.

가상 시점 영상(virtual viewpoint image)이란, 촬영 장치로 촬영하지 않은 가상 시점에 상응하는 영상을 의미하며, 촬영 장치로 촬영된 기존의 영상을 이용하여 생성될 수 있다. The virtual viewpoint image refers to an image corresponding to a virtual viewpoint not photographed by the photographing apparatus, and can be generated using an existing image photographed by the photographing apparatus.

기본적으로, 가상 시점 영상은 촬영 장치로 획득한 참조 영상의 기하정보를 이용하여 목표 가상 시점의 위치에 사상(mapping)시키고, 사상이 되지 않는 가려진 영역(occluded area)은 다른 참조영상을 통해 사상한다. 그리고 주위의 유사한 정보를 이용한 보간을 수행하여 최종적으로 가상 시점의 위치에 상응하는 가상 시점 영상을 생성한다. 여기서, 참조 영상의 기하정보는, 촬영 장치 캘리브레이션 정보, 개별 화소의 깊이 및 변이 정보 등을 포함할 수 있다. Basically, the virtual viewpoint image is mapped to the position of the target virtual viewpoint using the geometric information of the reference image acquired by the photographing apparatus, and the occluded area that is not mapped is mapped through another reference image . Then, interpolation is performed using the similar information of the surroundings, and finally a virtual viewpoint image corresponding to the position of the virtual viewpoint is generated. Here, the geometry information of the reference image may include photographing apparatus calibration information, depth and variation information of individual pixels, and the like.

종래 기술은 참조 영상들의 크기가 동일하고, 참조 영상들 간 기하정보를 나타내는 깊이 정보 및 변이 영상이 1 대 1로 대응된다고 가정하며, 화소 단위로 사상하여 영상을 합성한다. In the prior art, it is assumed that the reference images have the same size, depth information indicating the geometric information between the reference images, and the mutated images are mapped on a one-by-one basis.

화소 단위의 사상으로 인하여, 화소 한 개의 깊이 정보 또는 변이 정보가 정확하지 않을 경우, 화소 단위의 노이즈가 많이 발생한다. 일반적으로 스테레오 정합 방법을 사용하여, 두 영상의 모든 화소에 대한 유사도를 기반으로 대응점(correspondence)을 구할 경우, 정확한 결과를 얻기 힘들다. If the depth information or the variation information of one pixel is not correct due to mapping on a pixel basis, a lot of noise is generated on a pixel basis. In general, it is difficult to obtain accurate results when using the stereo matching method to obtain correspondence based on the similarity of all pixels of two images.

또한, 화소 단위로 모든 화소의 깊이 정보 및 변이 정보를 구하고, 이를 이용하여 영상을 생성하는 과정은 많은 시간이 소요된다. 따라서, 실시간으로 가상 시점 영상을 생성하고자 하는 경우, 품질과 연산량 간의 상충 관계에 따른 문제가 발생한다. Also, it takes a long time to obtain the depth information and the variation information of all the pixels on a pixel-by-pixel basis, and to generate an image using the information. Therefore, when a virtual viewpoint image is generated in real time, a problem arises due to a trade-off between quality and computation amount.

즉, 종래의 화소 단위 사상 방법 외의 기술을 연구하여, 가상 시점 영상 생성에 소요되는 시간을 절감할 수 있는 기술의 개발이 필요하다. That is, it is necessary to develop a technique that can reduce the time required for generating a virtual viewpoint image by studying a technique other than the conventional pixel-by-pixel mapping method.

한국 공개 특허 제10-2014-0022300호, 2014년 02월 24일 공개(명칭: 다시점 영상 생성 방법 및 장치)Korean Patent Publication No. 10-2014-0022300, published on February 24, 2014 (name: method and apparatus for generating multi-view image)

본 발명의 목적은 촬영하지 못한 시점에 상응하는 가상 시점 영상을 제공할 수 있도록 하는 것이다. It is an object of the present invention to provide a virtual viewpoint image corresponding to a point in time when a shot is not taken.

또한, 본 발명의 목적은 종래의 화소 단위로 매핑하는 기술에 비하여, 계산량을 감소시킬 수 있도록 하는 것이다. It is also an object of the present invention to reduce the amount of calculation as compared with a conventional technique of mapping in pixel units.

또한, 본 발명의 목적은 지역성의 특성이 있는 인접한 화소를 그룹핑하여 처리함으로써, 강건한 가상 시점 영상을 생성할 수 있도록 하는 것이다. It is also an object of the present invention to provide a robust virtual viewpoint image by grouping and processing adjacent pixels having local characteristics.

또한, 본 발명의 목적은 블록 단위로 매핑 할 경우 발생할 수 있는 블록화 현상을 방지하고, 자연스러운 가상 시점 영상을 생성할 수 있도록 하는 것이다. It is another object of the present invention to prevent blocking phenomenon that may occur when mapping is performed on a block-by-block basis, and to generate a natural virtual viewpoint image.

상기한 목적을 달성하기 위한 본 발명에 따른 가상 시점 영상 생성 장치는 서로 다른 시점에 상응하는 기준 영상 및 참조 영상 각각을 분할 단위로 분할하는 분할 영상 생성부, 상기 분할 단위로 분할된 상기 기준 영상 및 상기 참조 영상에 상응하는 변이를 계산하여, 기준 변이 영상 및 참조 변이 영상을 생성하는 변이 계산부, 상기 변이를 이용하여, 상기 기준 변이 영상 및 상기 참조 변이 영상을 가상 시점에 매핑하는 영상 매핑부, 그리고 상기 기준 변이 영상이 상기 가상 시점에 매핑된 제1 매핑 영상과 상기 참조 변이 영상이 상기 가상 시점에 매핑된 제2 매핑 영상을 혼합하여, 상기 가상 시점에 상응하는 가상 시점 영상을 생성하는 가상 시점 영상 생성부를 포함한다. According to an aspect of the present invention, there is provided an apparatus for generating a virtual viewpoint image, the apparatus comprising: a divided image generating unit for dividing each of a reference image and a reference image corresponding to different viewpoints in units of division; A disparity calculation unit for calculating a disparity corresponding to the reference image to generate a reference disparity image and a reference disparity image, an image mapping unit for mapping the reference disparity image and the reference disparity image to a virtual point in time using the disparity, And generating a virtual viewpoint image corresponding to the virtual viewpoint by mixing a first mapping image in which the reference mutation image is mapped to the virtual viewpoint and a second mapping image in which the reference mutation image is mapped to the virtual viewpoint, And an image generating unit.

이때, 상기 영상 매핑부는, 상기 기준 변이 영상 및 상기 참조 변이 영상을 기준으로 역방향 매핑(Backward mapping)을 수행할 수 있다. At this time, the image mapping unit may perform backward mapping based on the reference mutation image and the reference mutation image.

이때, 상기 영상 매핑부는, 상기 분할 단위보다 크기가 크거나 같은 블록 단위로 매핑할 수 있다. At this time, the image mapping unit may map a block unit larger than or equal to the division unit.

이때, 상기 영상 매핑부는, 상기 기준 변이 영상 및 상기 참조 변이 영상의 중심점과 픽셀 간 거리에 따른 매핑 가중치를 부여하여 매핑을 수행할 수 있다. At this time, the image mapping unit may perform mapping by assigning mapping weights according to the distance between the center point of the reference mutation image and the reference mutation image.

이때, 상기 영상 매핑부는, 상기 기준 영상, 상기 기준 변이 영상, 상기 참조 영상 및 상기 참조 변이 영상 중 적어도 두 개 이상의 영상을 이용하여 매핑을 수행할 수 있다. At this time, the image mapping unit may perform mapping using at least two images among the reference image, the reference mutation image, the reference image, and the reference mutation image.

이때, 상기 영상 매핑부는, 상기 기준 영상, 상기 기준 변이 영상, 상기 참조 영상 및 상기 참조 변이 영상 중 세 개의 영상을 이용하여 매핑을 수행할 경우, 상기 기준 영상 및 상기 참조 영상 각각에 혼합 가중치를 부여하여 매핑을 수행할 수 있다. In this case, when the mapping is performed using three images among the reference image, the reference mutation image, the reference image, and the reference mutation image, the image mapping unit assigns a mixed weight to each of the reference image and the reference image So that the mapping can be performed.

이때, 상기 혼합 가중치는, 상기 기준 영상의 시점과 상기 가상 시점 간 거리 및 상기 참조 영상의 시점과 상기 가상 시점 간 거리 중 적어도 하나를 이용하여 계산된 것 일 수 있다. The mixed weights may be calculated using at least one of a distance between the reference image and the virtual viewpoint, and a distance between the reference image and the virtual viewpoint.

이때, 상기 가상 시점 영상 생성부는, 상기 제1 매핑 영상 및 제2 매핑 영상 각각에 합성 가중치를 부여하여, 상기 가상 시점 영상을 생성할 수 있다. In this case, the virtual viewpoint image generator may generate the virtual viewpoint image by assigning a composite weight to each of the first and second mapped images.

이때, 상기 합성 가중치는, 상기 기준 영상의 시점과 상기 가상 시점 간 거리 및 상기 참조 영상의 시점과 상기 가상 시점 간 거리 중 적어도 하나를 이용하여 설정된 것일 수 있다. Here, the composite weight may be set using at least one of a distance between the reference image and the virtual viewpoint, and a distance between the reference image and the virtual viewpoint.

이때, 상기 합성 가중치는, 동일한 픽셀에 상응하는 곳에 사상되는 상기 기준 영상의 픽셀 값과 상기 참조 영상의 픽셀 값 간 오차 값을 이용하여 설정된 것일 수 있다. The composite weight may be set using an error value between the pixel value of the reference image mapped to the same pixel and the pixel value of the reference image.

이때, 상기 가상 시점 영상의 빈 영역을 보간하는 영상 보간부를 더 포함할 수 있다. In this case, the image interpolation unit may interpolate the empty region of the virtual viewpoint image.

이때, 상기 영상 보간부는, 상기 빈 영역에 상응하는 공간 축 및 시간 축 중 적어도 어느 하나를 기준으로 인접한 영역의 픽셀 값을 이용하여 상기 빈 영역을 보간할 수 있다. At this time, the image interpolator can interpolate the empty area using pixel values of an adjacent area based on at least one of a spatial axis and a time axis corresponding to the empty area.

이때, 상기 가상 시점은, 상기 기준 영상의 시점과 상기 참조 영상의 시점 사이에 위치하는 것으로, 사용자로부터 설정받은 것이거나, 기 설정된 값일 수 있다. At this time, the virtual viewpoint is located between the viewpoint of the reference image and the viewpoint of the reference image, and may be a value set by the user or a predetermined value.

이때, 상기 분할 영상 생성부는, 정형 영상 분할 및 비정형 영상 분할 중 적어도 하나를 수행하여, 상기 기준 영상 및 상기 참조 영상을 분할할 수 있다. In this case, the divided image generating unit may perform at least one of a regular image segmentation and an irregular image segmentation to divide the reference image and the reference image.

또한, 본 발명의 일실시예에 따른 가상 시점 영상 생성 장치에 의해 수행되는 가상 시점 영상 생성 방법은 서로 다른 시점에 상응하는 기준 영상 및 참조 영상 각각을 분할 단위로 분할하는 단계, 상기 분할 단위로 분할된 상기 기준 영상 및 상기 참조 영상에 상응하는 변이를 계산하여, 기준 변이 영상 및 참조 변이 영상을 생성하는 단계, 상기 변이를 이용하여, 상기 기준 변이 영상 및 상기 참조 변이 영상을 가상 시점에 매핑하는 단계, 그리고 상기 기준 변이 영상이 상기 가상 시점에 매핑된 제1 매핑 영상과 상기 참조 변이 영상이 상기 가상 시점에 매핑된 제2 매핑 영상을 혼합하여, 상기 가상 시점에 상응하는 가상 시점 영상을 생성하는 단계를 포함한다. According to another aspect of the present invention, there is provided a virtual viewpoint image generating method performed by a virtual viewpoint image generating apparatus, comprising: dividing each of a reference image and a reference image corresponding to different viewpoints in units of division; Calculating a variation corresponding to the reference image and the reference image to generate a reference variation image and a reference variation image; mapping the reference variation image and the reference variation image to a virtual time point using the variation; And generating a virtual viewpoint image corresponding to the virtual viewpoint by mixing a first mapping image in which the reference mutation image is mapped to the virtual viewpoint and a second mapping image in which the reference mutation image is mapped to the virtual viewpoint, .

이때, 상기 가상 시점에 매핑하는 단계는, 상기 기준 변이 영상 및 상기 참조 변이 영상을 기준으로 역방향 매핑(Backward mapping)을 수행할 수 있다. At this time, mapping to the virtual viewpoint may perform backward mapping based on the reference mutation image and the reference mutation image.

이때, 상기 가상 시점에 매핑하는 단계는, 상기 분할 단위보다 크기가 크거나 같은 블록 단위로 매핑할 수 있다. In this case, the mapping to the virtual viewpoint may be performed on a block basis, which is larger than or equal to the division unit.

이때, 상기 가상 시점에 매핑하는 단계는, 상기 기준 변이 영상 및 상기 참조 변이 영상의 중심점과 픽셀 간 거리에 따른 매핑 가중치를 부여하여 매핑을 수행할 수 있다. In this case, the mapping to the virtual viewpoint may be performed by assigning mapping weights according to the distance between the center point and the pixel of the reference mutation image and the reference mutation image.

이때, 상기 가상 시점에 매핑하는 단계는, 상기 기준 영상, 상기 기준 변이 영상, 상기 참조 영상 및 상기 참조 변이 영상 중 적어도 두 개 이상의 영상을 이용하여 매핑을 수행할 수 있다. At this time, mapping to the virtual viewpoint may perform mapping using at least two images among the reference image, the reference mutation image, the reference image, and the reference mutation image.

이때, 상기 가상 시점에 매핑하는 단계는, 상기 기준 영상, 상기 기준 변이 영상, 상기 참조 영상 및 상기 참조 변이 영상 중 세 개의 영상을 이용하여 매핑을 수행할 경우, 상기 기준 영상 및 상기 참조 영상 각각에 혼합 가중치를 부여하여 매핑을 수행할 수 있다. In this case, when the mapping is performed using the three images of the reference image, the reference mutation image, the reference image, and the reference mutation image, mapping to the virtual viewpoint may be performed on each of the reference image and the reference image, The mapping can be performed by applying a mixed weight.

이때, 상기 혼합 가중치는, 상기 기준 영상의 시점과 상기 가상 시점 간 거리 및 상기 참조 영상의 시점과 상기 가상 시점 간 거리 중 적어도 하나를 이용하여 계산된 것 일 수 있다. The mixed weights may be calculated using at least one of a distance between the reference image and the virtual viewpoint, and a distance between the reference image and the virtual viewpoint.

이때, 상기 가상 시점 영상을 생성하는 단계는, 상기 제1 매핑 영상 및 제2 매핑 영상 각각에 합성 가중치를 부여하여, 상기 가상 시점 영상을 생성할 수 있다. The generating of the virtual viewpoint image may generate the virtual viewpoint image by assigning a composite weight to each of the first mapping image and the second mapping image.

이때, 상기 합성 가중치는, 상기 기준 영상의 시점과 상기 가상 시점 간 거리 및 상기 참조 영상의 시점과 상기 가상 시점 간 거리 중 적어도 하나를 이용하여 설정된 것일 수 있다. Here, the composite weight may be set using at least one of a distance between the reference image and the virtual viewpoint, and a distance between the reference image and the virtual viewpoint.

이때, 상기 합성 가중치는, 동일한 픽셀에 상응하는 곳에 사상되는 상기 기준 영상의 픽셀 값과 상기 참조 영상의 픽셀 값 간 오차 값을 이용하여 설정된 것일 수 있다.The composite weight may be set using an error value between the pixel value of the reference image mapped to the same pixel and the pixel value of the reference image.

이때, 상기 가상 시점 영상의 빈 영역을 보간하는 단계를 더 포함할 수 있다. The method may further include interpolating a blank region of the virtual viewpoint image.

이때, 상기 빈 영역을 보간하는 단계는, 상기 빈 영역에 상응하는 공간 축 및 시간 축 중 적어도 어느 하나를 기준으로 인접한 영역의 픽셀 값을 이용하여 상기 빈 영역을 보간할 수 있다. The interpolation of the free area may interpolate the free area using pixel values of the adjacent area based on at least one of a spatial axis and a time axis corresponding to the free area.

이때, 상기 가상 시점은, 상기 기준 영상의 시점과 상기 참조 영상의 시점 사이에 위치하는 것으로, 사용자로부터 설정받은 것이거나, 기 설정된 값일 수 있다. At this time, the virtual viewpoint is located between the viewpoint of the reference image and the viewpoint of the reference image, and may be a value set by the user or a predetermined value.

이때, 상기 분할 단위로 분할하는 단계는, 정형 영상 분할 및 비정형 영상 분할 중 적어도 하나를 수행하여, 상기 기준 영상 및 상기 참조 영상을 분할할 수 있다. In this case, the dividing step may divide the reference image and the reference image by performing at least one of a regular image division and an irregular image division.

본 발명에 따르면, 촬영하지 못한 시점에 상응하는 가상 시점 영상을 제공할 수 있다. According to the present invention, it is possible to provide a virtual viewpoint image corresponding to a point in time when the photographing is not performed.

또한 본 발명에 따르면, 종래의 화소 단위로 매핑하는 기술에 비하여, 계산량을 감소시킬 수 있다. Further, according to the present invention, it is possible to reduce the amount of calculation as compared with the conventional technique of mapping in pixel units.

또한 본 발명에 따르면, 지역성의 특성이 있는 인접한 화소를 그룹핑하여 처리함으로써, 강건한 가상 시점 영상을 생성할 수 있다. According to the present invention, a robust virtual viewpoint image can be generated by grouping and processing adjacent pixels having local characteristics.

또한 본 발명에 따르면, 블록 단위로 매핑 할 경우 발생할 수 있는 블록화 현상을 방지하고, 자연스러운 가상 시점 영상을 생성할 수 있다. Also, according to the present invention, it is possible to prevent blocking phenomenon that may occur when mapping is performed on a block-by-block basis, and to generate a natural virtual viewpoint image.

도 1은 본 발명의 일실시예에 따른 가상 시점 영상 생성 장치의 구성을 나타낸 블록도이다.
도 2는 본 발명의 일실시예에 따른 가상 시점 영상 생성 방법을 설명하기 위한 순서도이다.
도 3은 본 발명의 일실시예에 따른 기준 영상 및 참조 영상의 분할을 설명하기 위한 도면이다.
도 4는 본 발명의 일실시예에 따른 가상 시점을 설명하기 위한 도면이다.
도 5는 도 3의 S230 단계에서 변이 영상을 가상 시점에 매핑하는 과정을 설명하기 위한 도면이다.
도 6은 본 발명의 일실시예에 따른 매핑 가중치를 설명하기 위한 도면이다.
도 7은 도 3의 S240 단계에서 가상 시점 영상을 생성하는 과정을 설명하기 위한 도면이다.
도 8은 본 발명의 일실시예에 따른 컴퓨터 시스템을 나타낸 블록도이다.
1 is a block diagram illustrating a configuration of a virtual viewpoint image generating apparatus according to an embodiment of the present invention.
2 is a flowchart illustrating a method of generating a virtual viewpoint image according to an embodiment of the present invention.
3 is a view for explaining the division of a reference image and a reference image according to an embodiment of the present invention.
4 is a view for explaining a virtual viewpoint according to an embodiment of the present invention.
5 is a diagram illustrating a process of mapping a disparity image to a virtual point of view in step S230 of FIG.
6 is a diagram for explaining a mapping weight according to an embodiment of the present invention.
7 is a diagram for explaining a process of generating a virtual viewpoint image in step S240 of FIG.
8 is a block diagram illustrating a computer system in accordance with an embodiment of the present invention.

본 발명을 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다. 여기서, 반복되는 설명, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능, 및 구성에 대한 상세한 설명은 생략한다. 본 발명의 실시형태는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.The present invention will now be described in detail with reference to the accompanying drawings. Hereinafter, a repeated description, a known function that may obscure the gist of the present invention, and a detailed description of the configuration will be omitted. Embodiments of the present invention are provided to more fully describe the present invention to those skilled in the art. Accordingly, the shapes and sizes of the elements in the drawings and the like can be exaggerated for clarity.

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 가상 시점 영상 생성 장치의 구성을 나타낸 블록도이다. 1 is a block diagram illustrating a configuration of a virtual viewpoint image generating apparatus according to an embodiment of the present invention.

도 1에 도시한 바와 같이, 가상 시점 영상 생성 장치(100)는 분할 영상 생성부(110), 변이 계산부(120), 영상 매핑부(130), 가상 시점 영상 생성부(140) 및 영상 보간부(150)를 포함한다. 1, the virtual viewpoint image generation apparatus 100 includes a partitioned image generation unit 110, a variation calculation unit 120, an image mapping unit 130, a virtual viewpoint image generation unit 140, As shown in FIG.

먼저, 분할 영상 생성부(110)는 서로 다른 시점에 상응하는 기준 영상 및 참조 영상 각각을 분할 단위(segment unit)로 분할한다. First, the divided image generating unit 110 divides each of reference images and reference images corresponding to different viewpoints into segment units.

이때, 기준 영상의 시점 및 참조 영상의 시점은 서로 상이하다. 그리고 가상 시점 영상 생성 장치(100)가 생성하고자 하는 가상 시점 영상에 상응하는 시점은, 기준 영상의 시점과 참조 영상의 시점 사이에 위치한다. At this time, the viewpoint of the reference image and the viewpoint of the reference image are different from each other. The time corresponding to the virtual viewpoint image to be generated by the virtual viewpoint image generating apparatus 100 is located between the reference image and the reference image.

또한, 분할된 기준 영상은 분할 영상 생성부(110)가 기준 영상을 분할 단위로 분할하여 생성한 것이고, 분할된 참조 영상은 분할 영상 생성부(110)가 참조 영상을 분할 단위로 분할하여 생성한 것이다. In addition, the divided reference image is generated by dividing the reference image by the divided image generating unit 110, and the divided reference image is generated by the divided image generating unit 110 by dividing the reference image into divided units will be.

분할 영상 생성부(110)는 정형 영상 분할 및 비정형 영상 분할 중 적어도 하나를 수행하여, 기준 영상 및 참조 영상을 분할할 수 있다. 특히, 분할 영상 생성부(110)는 기준 영상 및 참조 영상을 일정한 간격으로 분할하는 정형(fixed) 영상 분할을 수행할 수 있다. The divided image generating unit 110 may perform at least one of a regular image segmentation and an irregular image segmentation to divide a reference image and a reference image. Particularly, the divided image generation unit 110 may perform fixed image segmentation for dividing the reference image and the reference image at regular intervals.

또한, 분할 영상 생성부(110)는 영상 분할 기법(image segmentation)을 이용하여 기준 영상 및 참조 영상을 의미 있는 단위로 비정형(variable)으로 분할할 수 있다. 그리고 분할 영상 생성부(110)는 비정형 영상 분할을 수행하여, 유사한 단위로 묶인 분할 단위로 기준 영상 및 참조 영상을 분할 할 수도 있다. In addition, the divided image generating unit 110 may divide the reference image and the reference image into a variable by a meaningful unit using an image segmentation technique. The divided image generating unit 110 may perform an irregular image segmentation to divide the reference image and the reference image into units of a similar unit.

다음으로, 변이 계산부(120)는 분할된 기준 영상 및 분할된 참조 영상에 상응하는 변이를 계산하여, 기준 변이 영상 및 참조 변이 영상을 생성한다. Next, the variation calculation unit 120 calculates a variation corresponding to the divided reference image and the divided reference image, and generates a reference variation image and a reference variation image.

변이 계산부(120)는 분할 단위(segment unit)로 분할된 기준 영상 및 분할된 참조 영상에 상응하는 변이를 계산한다. 여기서, 변이(disparity)는 동일한 장면을 서로 상이한 시점에서 촬영한 영상인 기준 영상과 참조 영상에 포함된 동일한 점의 대응관계를 의미하며, 기준 영상에 포함된 점과 참조 영상에 포함된 점 간 위치 차이를 픽셀 단위로 표현한 값일 수 있다. The variation calculation unit 120 calculates a variation corresponding to a reference image divided into segment units and a divided reference image. Here, the disparity means a correspondence relationship between a reference image, which is a video shot at different viewpoints of the same scene, and the same point included in the reference image, and a point included in the reference image and a point included in the reference image The difference may be a value expressed in pixels.

예를 들어, 기준 영상에 포함된 특정 픽셀의 변이가 10인 경우, 참조 영상 상에서 상기 특정 픽셀에 대응되는 대응점(correspondence)은 기준 영상에서의 상기 특정 픽셀의 좌표를 기준으로 왼쪽 또는 오른쪽으로 10만큼 이동한 곳에 위치한다.For example, when the variation of a specific pixel included in the reference image is 10, the correspondence corresponding to the specific pixel on the reference image is shifted left or right by 10 on the basis of the coordinates of the specific pixel in the reference image It is located at the place where it moved.

즉, 기준 영상이 좌측 영상으로 설정되고, 참조 영상이 우측 영상으로 설정된 경우 기준 영상에 포함된 특정 픽셀의 변이가 10이면, 참조 영상에서 해당 특정 픽셀의 대응점은 기준 영상에서의 특정 픽셀의 좌표를 기준으로 좌측으로 10만큼 이동한 곳에 위치한다. That is, when the reference image is set as the left image and the reference image is set as the right image, if the variation of a specific pixel included in the reference image is 10, the corresponding point of the specific pixel in the reference image is It is located on the left side by 10 in reference.

일반적으로 좌측 영상 및 우측 영상과 같은 스테레오 영상을 처리할 때, 스테레오 정합 기법을 이용한다. 스테레오 정합(stereo matching) 기법은 기준 영상의 픽셀과 참조 영상의 후보군 내 픽셀들을 비교하여, 유사도(similarity)가 가장 높은 픽셀을 선택하는 방식이다. In general, stereo matching is used to process stereo images such as left and right images. The stereo matching technique is a method of selecting pixels having the highest similarity by comparing the pixels of the reference image and the pixels of the candidate group of the reference image.

그러나, 본 발명의 일실시예에 따른 가상 시점 영상 생성 장치(100)의 변이 계산부(120)는 기준 영상 내에 포함된 픽셀들의 특성을 참조 영상의 후보군들과 비교함으로써, 대표 변이를 추정한다. However, the variation calculation unit 120 of the virtual viewpoint image generation apparatus 100 according to an embodiment of the present invention estimates the representative variation by comparing the characteristics of the pixels included in the reference image with candidate groups of the reference image.

또한, 변이 계산부(120)는 계산된 변이를 이용하여, 기준 변이 영상 및 참조 변이 영상을 생성한다. In addition, the variation calculation unit 120 generates the reference variation image and the reference variation image using the calculated variation.

그리고 영상 매핑부(130)는 변이를 이용하여, 기준 변이 영상 및 참조 변이 영상을 가상 시점에 매핑한다. The image mapping unit 130 maps the reference mutation image and the reference mutation image to the virtual time point using the mutation.

여기서, 가상 시점은, 기준 영상의 시점과 참조 영상의 시점 사이에 위치하는 것으로, 사용자로부터 설정받은 것이거나, 기 설정된 값일 수 있다. Here, the virtual viewpoint is located between the viewpoint of the reference image and the viewpoint of the reference image, and may be a value set by the user or a predetermined value.

좌측 영상이 기준 영상이고, 우측 영상이 참조 영상으로 설정된 경우, 기준 영상의 시점 위치를 0으로 설정하고, 참조 영상의 시점 위치를 1로 설정할 수 있다. 그리고 기준 영상의 시점과 참조 영상의 시점 사이에 위치한 중간 시점인 가상 시점은 기준 영상의 시점 및 참조 영상의 시점을 기준으로 상대적 위치로 표현될 수 있다. When the left image is a reference image and the right image is a reference image, the reference image may be set to 0 and the reference image may be set to 1. The virtual point of view, which is an intermediate point between the reference image and the reference image, can be expressed as a relative position based on the reference image and the reference image.

이때, 생성하고자 하는 가상 시점 영상에 상응하는 가상 시점의 위치는 하나 이상 설정될 수 있다. 그리고 가상 시점은 기 설정된 값이거나, 사용자로부터 입력받은 값 일 수 있다. At this time, one or more positions of the virtual viewpoint corresponding to the virtual viewpoint image to be generated can be set. The virtual time point may be a predetermined value or a value input from the user.

특히, 가상 시점은 기준 영상의 시점과 참조 영상의 시점 간 정 가운데를 의미하는 0.5로 설정될 수 있다. 또한, 복수 개의 가상 시점들이 설정되는 경우, 기준 영상의 시점, 복수 개의 가상 시점들 및 참조 영상의 시점 간 간격이 균등하도록 복수 개의 가상 시점들이 설정될 수 있다. In particular, the virtual point of view can be set to 0.5, which means the center of the reference image and the center of the reference image. When a plurality of virtual viewpoints are set, a plurality of virtual viewpoints may be set so that a time interval of a reference image, a plurality of virtual viewpoints, and an interval between viewpoints of a reference image are uniform.

또한, 영상 매핑부(130)는 기준 변이 영상 및 참조 변이 영상을 기준으로 역방향 매핑(Backward mapping)을 수행한다. Also, the image mapping unit 130 performs a backward mapping based on the reference mutation image and the reference mutation image.

영상 매핑부(130)는 기준 변이 영상을 가상 시점에 역방향 매핑하여 제1 매핑 영상을 생성하고, 참조 변이 영상을 가상 시점에 역방향 매핑하여 제2 매핑 영상을 생성할 수 있다. The image mapping unit 130 may generate a first mapping image by mapping the reference mutation image to a virtual viewpoint in a backward direction, and generate a second mapping image by mapping the reference mutation image to a virtual viewpoint in a reverse direction.

그리고 영상 매핑부(130)는 분할 단위보다 크기가 크거나 같은 블록 단위로 매핑할 수 있다. 예를 들어, 분할 단위의 크기가 4x4인 경우, 영상 매핑부(130)는 4x4보다 큰 크기의 블록 단위인 8x8 크기로 매핑을 수행하여 4x4의 인접 픽셀까지 함께 매핑할 수 있다. 이를 통하여 영상 매핑부(130)는 블록화 현상을 해결하고, 자연스럽게 영상을 합성할 수 있다. The image mapping unit 130 may map a block unit larger than or equal to the division unit. For example, if the size of the division unit is 4x4, the image mapping unit 130 may map the 4x4 adjacent pixels by performing mapping to 8x8 size, which is a block unit larger than 4x4. Accordingly, the image mapping unit 130 solves the blocking phenomenon and can synthesize images naturally.

또한, 영상 매핑부(130)는 기준 영상 및 기준 변이 영상을 이용하여 제1 매핑 영상을 생성하거나, 기준 영상, 기준 변이 영상 및 참조 영상을 이용하여 제1 매핑 영상을 생성할 수 있다. 마찬가지로 영상 매핑부(130)는 제2 매핑 영상을 생성할 때, 참조 영상 및 참조 변이 영상을 이용하여 제2 매핑 영상을 생성하거나, 참조 영상, 참조 변이 영상 및 기준 영상을 이용하여 제2 매핑 영상을 생성할 수 있다. The image mapping unit 130 may generate the first mapping image using the reference image and the reference variation image, or may generate the first mapping image using the reference image, the reference variation image, and the reference image. Similarly, when generating the second mapping image, the image mapping unit 130 generates a second mapping image using the reference image and the reference variation image, or generates a second mapping image using the reference mapping image, Can be generated.

영상 매핑부(130)가 3개의 영상을 이용하여 제1 매핑 영상 및 제2 매핑 영상을 생성하는 경우, 영상 매핑부(130)는 기준 영상 및 참조 영상에 혼합 가중치를 부여하여 제1 매핑 영상 및 제2 매핑 영상을 생성할 수 있다. When the image mapping unit 130 generates the first and second mapping images using three images, the image mapping unit 130 assigns mixed weights to the reference image and the reference image to generate a first mapping image and a second mapping image, A second mapping image can be generated.

여기서, 혼합 가중치는, 기준 영상의 시점과 가상 시점간 거리 및 참조 영상의 시점과 가상 시점 간 거리 중 적어도 하나를 이용하여 설정된 것일 수 있다. 즉, 영상 매핑부(130)는 시점의 거리 차가 더 작은 경우, 더 큰 혼합 가중치를 부여하여 매핑 영상을 생성할 수 있다. Here, the mixed weight may be set using at least one of the distance between the reference image and the virtual viewpoint, and the distance between the reference image and the virtual viewpoint. That is, when the distance difference of the viewpoint is smaller, the image mapping unit 130 may generate a mapping image by giving a larger weight value.

그리고 영상 매핑부(130)는 기준 변이 영상 및 참조 변이 영상의 중심점과 픽셀 간 거리에 따른 매핑 가중치를 부여하여 매핑을 수행할 수 있다. The image mapping unit 130 may perform mapping by assigning mapping weights according to the distance between the center point of the reference mutation image and the reference mutation image and the pixel distance.

여기서, 매핑 가중치는 기준 변이 영상의 중심점 및 참조 변이 영상의 중심점과 매핑할 픽셀 간 거리에 따른 가중치를 의미한다. 예를 들어, 기준 변이 영상이 4x4인 경우, 기준 변이 영상의 중심점과 가장 가까운 4개의 픽셀들은 제1 매핑 가중치를 부여한다. 그리고 기준 변이 영상의 중심점과의 거리가 2픽셀인 12개의 픽셀들에는 제2 매핑 가중치를 부여한다. 이때, 제1 매핑 가중치는 제2 매핑 가중치에 비해 더 큰 값을 갖는다. Here, the mapping weight is a weight according to a distance between a center point of a reference variation image and a center point of a reference variation image and a pixel to be mapped. For example, when the reference transition image is 4x4, the four pixels closest to the center point of the reference transition image give the first mapping weight. The second mapping weight is assigned to 12 pixels having a distance of 2 pixels from the center point of the reference transition image. At this time, the first mapping weight has a larger value than the second mapping weight.

다음으로 가상 시점 영상 생성부(140)는 기준 변이 영상이 가상 시점에 매핑된 제1 매핑 영상과 참조 변이 영상이 가상 시점에 매핑된 제2 매핑 영상을 합성하여, 가상 시점에 상응하는 가상 시점 영상을 생성한다. Next, the virtual viewpoint image generator 140 combines the first mapping image in which the reference mutation image is mapped to the virtual viewpoint and the second mapping image in which the reference mutation image is mapped to the virtual viewpoint, .

그리고 가상 시점 영상 생성부(140)는 제1 매핑 영상 및 제2 매핑 영상에 각각 합성 가중치를 부여하여 가상 시점 영상을 생성할 수 있다. 여기서, 합성 가중치는, 기준 영상의 시점과 가상 시점 간 거리 및 참조 영상의 시점과 가상 시점 간 거리 중 적어도 하나를 이용하여 계산된 것 일 수 있다. The virtual viewpoint image generator 140 may generate a virtual viewpoint image by assigning composite weights to the first and second mapping images, respectively. Here, the composite weight may be calculated using at least one of the distance between the reference image and the virtual viewpoint, and the distance between the reference image and the virtual viewpoint.

예를 들어, 기준 영상이 좌측 영상을 의미하고, 참조 영상이 우측 영상을 의미하며, 가상 시점이 0.4로 설정되었다고 가정한다. 이때, 가상 시점은 참조 영상보다 기준 영상에 더 가까우므로, 가상 시점 영상 생성부(140)는 제1 매핑 영상에 부여되는 제1 합성 가중치를 제2 매핑 영상에 부여하는 제2 합성 가중치보다 크게 설정할 수 있다. For example, it is assumed that the reference image represents the left image, the reference image represents the right image, and the virtual viewpoint is set to 0.4. In this case, since the virtual viewpoint is closer to the reference image than the reference image, the virtual viewpoint image generator 140 sets the first composite weight given to the first mapped image to be larger than the second composite weight given to the second mapped image .

즉, 가상 시점 영상 생성부(140)는 시점의 거리 차가 더 작은 경우, 더 큰 합성 가중치를 부여하여 제1 매핑 영상 및 제2 매핑 영상을 합성함으로써 가상 시점 영상을 생성할 수 있다. That is, when the distance difference between the viewpoints is smaller, the virtual viewpoint image generator 140 may generate a virtual viewpoint image by combining the first and second mapping images with a larger composite weight value.

또한, 합성 가중치는 매핑 수행 시 계산된 오차 값일 수 있다. 여기서 오차값은, 역방향 매핑 수행 시 기준 영상 및 참조 영상으로부터 동일한 점에 대해 추출한 픽셀 값들의 차이를 기반으로 설정된 값을 의미할 수 있다. The composite weight may also be a calculated error value when performing the mapping. Here, the error value may be a value set based on a difference between pixel values extracted for the same point from the reference image and the reference image when the backward mapping is performed.

예를 들어, 기준 영상으로부터 추출한 픽셀 값을 PL이라 하고, 참조 영상으로부터 추출된 픽셀 값을 PR이라 할 때, 두 픽셀 값 간의 차이인 |PL-PR|이 오차 값을 의미할 수 있다. For example, when a pixel value extracted from a reference image is referred to as a PL and a pixel value extracted from a reference image is referred to as a PR, a difference | PL-PR | between two pixel values may mean an error value.

기준 변이 영상이 정확할 경우, PL과 PR 간의 차이인 오차 값은 작은 값을 갖는다. 따라서, 가상 시점 영상 생성부(140)는 보다 큰 합성 가중치를 부여할 수 있다. 반면, 기준 영상이 부정확할 경우, 오차 값은 보다 큰 값을 가지며 가상 시점 영상 생성부(140)는 더 작은 합성 가중치를 부여한다. When the reference deviation image is correct, the error value, which is the difference between PL and PR, is small. Therefore, the virtual viewpoint image generator 140 can give a larger composite weight value. On the other hand, when the reference image is inaccurate, the error value has a larger value, and the virtual view image generator 140 gives a smaller composite weight.

설명의 편의상, 기준 변이 영상을 이용하여 합성 가중치를 부여하는 것으로 설명하였으나 이에 한정하지 않고, 가상 시점 영상 생성부(140)는 참조 변이 영상을 이용하여 합성 가중치를 부여할 수도 있고, 기준 변이 영상에 상응하는 합성 가중치와 참조 변이 영상에 상응하는 합성 가중치를 모두 이용하여 가상 시점 영상을 생성할 수도 있다. For the sake of convenience of explanation, it has been described that the composite weight is given using the reference mutation image. However, the present invention is not limited to this, and the virtual view image generator 140 may assign the composite weight using the reference mutation image, The virtual viewpoint image may be generated using both the corresponding composite weight and the composite weight corresponding to the reference disparity image.

마지막으로, 영상 보간부(150)는 생성된 가상 시점 영상의 빈 영역(hole)을 보간한다. Finally, the image interpolator 150 interpolates the holes of the generated virtual viewpoint image.

이때, 영상 보간부(150)는 빈 영역에 상응하는 공간 축 및 시간 축 중 적어도 어느 하나를 기준으로, 인접한 영역의 픽셀 값을 이용하여 빈 영역을 보간할 수 있다. At this time, the image interpolating unit 150 can interpolate the empty area using the pixel values of the adjacent area based on at least one of the spatial axis and the time axis corresponding to the empty area.

이하에서는 도 2 내지 도 7을 통하여, 본 발명의 일실시예에 따른 가상 시점 영상 생성 장치에 의해 수행되는 가상 시점 영상 생성 방법에 대하여 더욱 상세하게 설명한다. Hereinafter, a virtual viewpoint image generation method performed by the virtual viewpoint image generation apparatus according to an embodiment of the present invention will be described in more detail with reference to FIG. 2 through FIG.

도 2는 본 발명의 일실시예에 따른 가상 시점 영상 생성 방법을 설명하기 위한 순서도이다. 2 is a flowchart illustrating a method of generating a virtual viewpoint image according to an embodiment of the present invention.

먼저, 가상 시점 영상 생성 장치(100)는 기준 영상 및 참조 영상을 분할한다(S210).First, the virtual viewpoint image generating apparatus 100 divides the reference image and the reference image (S210).

가상 시점 영상 생성 장치(100)는 입력받은 기준 영상 및 참조 영상을 각각 분할 단위로 분할한다. 설명의 편의상, 기준 영상은 좌측 영상을 의미하고, 참조 영상은 우측 영상을 의미하는 것으로 가정한다. The virtual viewpoint image generating apparatus 100 divides the input reference image and the reference image into respective divided units. For the convenience of explanation, it is assumed that the reference image means the left image and the reference image means the right image.

도 3은 본 발명의 일실시예에 따른 기준 영상 및 참조 영상의 분할을 설명하기 위한 도면이다. 3 is a view for explaining the division of a reference image and a reference image according to an embodiment of the present invention.

도 3에 도시한 바와 같이, 가상 시점 영상 생성 장치(100)는 정형 영상 분할(310) 및 비정형 영상 분할(320) 중 적어도 하나를 수행하여, 기준 영상 및 참조 영상을 분할할 수 있다. 3, the virtual viewpoint image generating apparatus 100 may perform at least one of a regular image segmentation 310 and an irregular image segmentation 320 to divide a reference image and a reference image.

가상 시점 영상 생성 장치(100)는 기준 영상 및 참조 영상을 일정한 간격으로 분할하는 정형 영상 분할(310)을 수행하여, 도 3과 같이 크기가 일정한 분할된 기준 영상 및 분할된 참조 영상을 생성할 수 있다. The virtual viewpoint image generating apparatus 100 may generate a divided reference image and a divided reference image having a uniform size as shown in FIG. 3 by performing a uniform image segmentation 310 for dividing the reference image and the reference image at regular intervals have.

예를 들어, 가상 시점 영상 생성 장치(100)가 가로 4픽셀, 세로 4픽셀인 4x4 크기의 분할 단위를 설정하였다고 가정한다. 이때, 기준 영상 및 참조 영상의 크기가 FHD(1920x1080)인 경우, 기준 영상 및 참조 영상은 가로 480개의 분할된 영상 및 세로 270개의 분할된 영상으로 분할 될 수 있다. For example, it is assumed that the virtual viewpoint image generation apparatus 100 sets a 4x4 division unit of 4 pixels wide by 4 pixels wide. In this case, when the size of the reference image and the reference image is FHD (1920x1080), the reference image and the reference image can be divided into 480 divided images and 270 divided images.

또한, 가상 시점 영상 생성 장치(100)는 영상 분할(image segmentation) 기법을 이용하여, 기준 영상 및 참조 영상을 유의미한 단위로 비정형 분할할 수 있다. 그리고 가상 시점 영상 생성 장치(100)는 유사한 단위로 묶인 기준 영상 및 참조 영상을 생성할 수 있다. In addition, the virtual viewpoint image generating apparatus 100 can perform the atypical division of the reference image and the reference image into meaningful units by using an image segmentation technique. The virtual viewpoint image generating apparatus 100 may generate reference images and reference images that are grouped in similar units.

일반적으로 영상 분할 기법은 기준이 되는 픽셀과의 유사도가 높은 주변 픽셀들을 하나로 그룹핑하는 과정을 반복하여 수행될 수 있다. 그리고 가상 시점 영상 생성 장치(100)가 영상 분할 기법을 이용하여 비정형 분할을 수행할 경우, 도 3의 비정형 영상 분할(320)과 같이 유사도가 임계치 이상인 픽셀들끼리 그룹핑된 영상을 생성할 수 있다. In general, the image segmentation technique can be performed by repeating a process of grouping peripheral pixels having high similarity with a reference pixel into one group. When the virtual viewpoint image generation apparatus 100 performs the atypical segmentation using the image segmentation technique, the grouped images may be generated among the pixels having the degree of similarity equal to or higher than the threshold, such as the atypical image segmentation 320 of FIG.

다음으로 가상 시점 영상 생성 장치(100)는 변이 영상의 변이를 계산하고, 기준 변이 영상 및 참조 변이 영상을 생성한다(S220).Next, the virtual viewpoint image generation apparatus 100 calculates the variation of the disparity image, and generates the reference disparity image and the reference disparity image (S220).

가상 시점 영상 생성 장치(100)는 동일한 장면을 서로 상이한 시점에서 촬영한 영상인 기준 영상과 참조 영상 간 대응 관계를 의미하는 변이(disparity)를 계산한다. The virtual viewpoint image generating apparatus 100 calculates a disparity representing a correspondence between a reference image and a reference image, which are images captured from different viewpoints of the same scene.

이때, 가상 시점 영상 생성 장치(100)는 같은 장면을 서로 다른 시점에서 촬영한 영상인 기준 영상 및 참조 영상에 공통으로 포함된 점을 탐색한다. 그리고 가상 시점 영상 생성 장치(100)는 공통으로 포함된 점에 상응하는 픽셀 간 대응관계를 구하고, 기준 영상의 해당 픽셀과 참조 영상의 해당 픽셀간 거리를 화소 단위로 표현하여 변이를 계산할 수 있다. At this time, the virtual viewpoint image generating apparatus 100 searches for points included in the reference image and the reference image, which are images captured at different viewpoints, from the same scene. The virtual viewpoint image generating apparatus 100 may calculate a corresponding relationship between pixels corresponding to points included in the common viewpoint and calculate a variation by expressing the distance between the corresponding pixel of the reference image and the corresponding pixel in pixel units.

예를 들어, 좌측 영상이 기준 영상이고, 우측 영상이 참조 영상이며, 기준 변이 영상에 포함된 어느 한 픽셀의 변이가 10인 것으로 가정한다. 이때, 기준 영상에서의 픽셀 A에 대응되는 참조 영상에서의 픽셀 A'은 픽셀 A의 위치를 기준으로 왼쪽으로 10만큼 이동한 곳에 위치한다. For example, it is assumed that the left image is the reference image, the right image is the reference image, and the variation of one pixel included in the reference variation image is 10. At this time, the pixel A 'in the reference image corresponding to the pixel A in the reference image is located at a position shifted leftward by 10 from the position of the pixel A.

다음으로 가상 시점 영상 생성 장치(100)는 변이 영상을 가상 시점에 매핑한다(S230).Next, the virtual viewpoint image generation apparatus 100 maps the mutated image to a virtual viewpoint (S230).

도 4는 본 발명의 일실시예에 따른 가상 시점을 설명하기 위한 도면이다. 4 is a view for explaining a virtual viewpoint according to an embodiment of the present invention.

도 4에 도시한 바와 같이, 가상 시점(Vi)은 기준 영상(410)의 시점과 참조 영상(420)의 시점 사이에 위치하며, 가상 시점 영상 생성 장치(100)는 사용자로부터 가상 시점(Vi)을 설정받거나, 기 설정된 값을 이용하여 가상 시점(Vi)을 설정할 수 있다. 4, the virtual viewpoint image V i is located between the viewpoint of the reference image 410 and the reference image 420, and the virtual viewpoint image generating apparatus 100 generates a virtual viewpoint V i can be set, or the virtual time point V i can be set using a preset value.

기준 영상(410)의 시점을 0이라 하고, 참조 영상(420)의 시점을 1이라 했을 때, 가상 시점(Vi)은 0과 1 사이의 값을 가질 수 있다. 그리고 가상 시점(Vi)은 기준 영상(410)의 시점 및 참조 영상(420)의 시점을 기준으로 한 상대적인 위치를 의미할 수 있다. The virtual viewpoint V i may have a value between 0 and 1 when the viewpoint of the reference image 410 is 0 and the viewpoint of the reference image 420 is 1. The virtual point of view V i may refer to a relative position of the reference image 410 and the reference image 420.

가상 시점 영상 생성 장치(100)가 하나의 가상 시점에 상응하는 가상 시점 영상을 생성하고자 하는 경우, 가상 시점 영상 생성 장치(100)는 0.5를 가상 시점(Vi)으로 설정할 수 있다. 또한, 가상 시점 영상 생성 장치(100)가 복수 개의 가상 시점들을 설정하고자 하는 경우, 가상 시점 영상 생성 장치(100)는 기준 영상의 시점, 복수 개의 가상 시점들 및 참조 영상의 시점 간 간격이 균등하도록 복수 개의 가상 시점들을 설정할 수도 있다. When the virtual viewpoint image generation apparatus 100 desires to generate a virtual viewpoint image corresponding to one virtual viewpoint, the virtual viewpoint image generation apparatus 100 may set 0.5 to the virtual viewpoint V i . In addition, when the virtual viewpoint image generating apparatus 100 desires to set a plurality of virtual viewpoints, the virtual viewpoint image generating apparatus 100 may set the viewpoint of the reference image, the plurality of virtual viewpoints, A plurality of virtual viewpoints may be set.

그리고 가상 시점 영상 생성 장치(100)는 기준 변이 영상(DL)(415) 및 참조 변이 영상(DR)(425)를 기준으로 역방향 매핑(Backward Mapping)을 수행한다. The virtual viewpoint image generation apparatus 100 performs a backward mapping based on the reference variation image D L 415 and the reference variation image D R 425.

도 5는 도 3의 S230 단계에서 변이 영상을 가상 시점에 매핑하는 과정을 설명하기 위한 도면이다. 5 is a diagram illustrating a process of mapping a disparity image to a virtual point of view in step S230 of FIG.

도 5에 도시한 바와 같이, 좌측 영상이 기준 영상(IL)(510)을 의미하고, 기준 영상(IL)(510)의 변이 영상을 기준 변이 영상(DL)(515)이라 한다. 이때, 기준 영상(510)을 4x4 크기의 분할 단위(540)로 정형 분할하였다고 가정한다. 그리고 우측 영상이 참조 영상(IR)(520)을 의미하고, 가상 시점(V0.4)은 0.4라고 가정한다. Is referred to as shown in Fig. 5, the left image is the reference image (I L) 510 means, and the reference image (I L) based on a disparity image of 510 disparity image (D L), (515) a. At this time, it is assumed that the reference image 510 is divided into a 4x4 size division unit 540. And the right image means a reference image (I R ) 520 and the virtual time point V 0.4 is 0.4.

도 5와 같이, 기준 영상(IL)(510)을 4x4 크기의 분할 단위(540)로 일정하게 분할할 경우, 기준 영상 대비 가로 및 세로가 각각 1/4인 크기의 기준 변이 영상(DL)(515)이 생성된다. 즉, 기준 변이 영상(DL)(515)의 한 화소의 변이 값은, 기준 영상(IL)(510)의 4x4 크기인 블록의 변이에 대응될 수 있다. 5, when the reference image (I L ) 510 is uniformly divided into 4 × 4 division units 540, a reference variation image D L ) 515 is generated. That is, the transition value of one pixel of the reference transition image (D L ) 515 may correspond to the variation of the block of the 4x4 size of the reference image (I L )

기준 변이 영상(DL)(515)의 점 x의 변이값인 DL(x)를 편의상 dL이라 할 때, dL은 기준 영상(IL)(510)의 점 x의 픽셀과 점 x에 대응되는 참조 영상(IR)(520)의 점 x'의 대응 관계를 의미한다. 즉, dL이 10인 경우, 참조 영상(IR)(520)의 점 x'은 기준 영상(IL)(510)의 점 x의 픽셀에서 좌측 방향으로 10만큼 이동한 픽셀과 대응된다. Assuming that the deviation value D L (x) of the point x of the reference variation image (D L ) 515 is d L for convenience, d L is a pixel of the point x of the reference image (I L ) And a point x 'of the reference image I R 520 corresponding to the reference image I R. That is, when d L is 10, the point x 'of the reference image (I R ) 520 corresponds to the pixel shifted by 10 in the left direction in the pixel of the point x of the reference image (I L )

그리고 기준 영상(IL)(510)의 시점을 0이라 하고, 참조 영상(IR)(520)의 시점을 1이라 할 때, 가상 시점(V0.4)은 기준 영상(IL)(510)으로부터 참조 영상(IR)(520) 방향으로

Figure pat00001
만큼 이동한 곳에 위치한다. Assuming that the viewpoint of the reference image I L 510 is 0 and the viewpoint of the reference image I R 520 is 1, the virtual viewpoint V 0.4 is the reference image I L 510, To the reference image (I R ) 520
Figure pat00001
As shown in FIG.

따라서, 가상 시점 영상 생성 장치(100)는 가상 시점 영상(530)을 생성할 때, 생성하고자 하는 가상 시점 영상의 위치에서 기준 영상(IL)(510)인 우측 방향으로

Figure pat00002
만큼 떨어진 곳에 위치한 픽셀을 기준 영상(IL)(510)으로부터 가지고 오는 역방향 매핑(후방사상)을 수행한다. Accordingly, the virtual visual point image generating device 100 in the rightward direction when creating a virtual viewpoint image 530, the reference image (I L) (510) at the position of the virtual viewpoint image is desired to produce
Figure pat00002
(Backward mapping), which takes a pixel located at a distance from the reference image (I L )

또한, 변이값은 기준 영상(IL)(510) 및 참조 영상(IR)(520)의 동일한 점에 대한 관계를 의미하므로, 동일한 방법으로 가상 시점 영상의 위치에서 참조 영상(IR)(520)인 좌측 방향으로

Figure pat00003
만큼 떨어진 곳에 위치한 픽셀을 참조 영상(IR)(520)으로부터 가지고 오는 역방향 매핑을 수행한다. . Since the variation value means the relationship between the reference image I L 510 and the reference image I R 520 in the same way as the reference image I R 520)
Figure pat00003
(I R ) 520 from the reference image (I R ) .

그리고 가상 시점 영상 생성 장치(100)는 기준 영상(IL)(510), 기준 변이 영상(DL)(515) 및 참조 영상(IR)(520) 중 적어도 두 개 이상의 영상을 이용하여 기준 영상(IL)(510)에 대한 역방향 매핑을 수행할 수 있다. The virtual viewpoint image generation apparatus 100 generates a virtual viewpoint image using at least two of the reference image I L 510, the reference variation image D L 515 and the reference image I R 520, (I L ) < RTI ID = 0.0 > 510 < / RTI >

가상 시점 영상 생성 장치(100)가 기준 영상(IL)(510), 변이 영상 및 참조 영상(IR)(520)을 이용하여, 역방향 매핑을 수행하는 경우, 기준 영상(IL)(510) 및 참조 영상(IR)(520)에 각각 혼합 가중치를 부여하여 매핑을 수행할 수 있다. 이때, 변이 영상(515, 525)는 기준 변이 영상(DL)(515) 이거나, 참조 변이 영상 중 어느 하나를 의미할 수 있다. When the virtual viewpoint image generation apparatus 100 performs the backward mapping using the reference image I L 510 and the disparity image I R 520, the reference image I L 510 ) And the reference image (I R ) 520, respectively, so as to perform mapping. At this time, the disparity images 515 and 525 may be either the reference disparity image (D L ) 515 or the reference disparity image.

여기서, 혼합 가중치는 기준 영상의 시점과 가상 시점간 거리 및 참조 영상의 시점과 가상 시점 간 거리 중 적어도 하나를 이용하여 설정된 것일 수 있다. 즉, 가상 시점 영상 생성 장치(100)는 시점의 거리 차가 더 작은 경우, 더 큰 혼합 가중치를 부여하여 매핑 영상을 생성할 수 있다. Here, the mixed weight may be set using at least one of the distance between the reference image and the virtual viewpoint, and the distance between the reference image and the virtual viewpoint. That is, when the distance difference of the viewpoint is smaller, the virtual viewpoint image generating apparatus 100 can generate a mapping image by assigning a larger mixture weight value.

가상 시점 영상 생성 장치(100)는 수학식 1과 같이, 기준 영상(IL)(510)으로부터 가지고 온 픽셀과 참조 영상(IR)(520)으로부터 가지고 온 픽셀에 서로 다른 혼합 가중치를 부여할 수 있다. The virtual viewpoint image generating apparatus 100 assigns different mixed weights to the pixels taken from the reference image I L 510 and the pixels taken from the reference image I R 520 as shown in Equation 1 .

Figure pat00004
Figure pat00004

여기서,

Figure pat00005
은 기준 영상(
Figure pat00006
)으로부터 가지고 온 픽셀 값을 의미하고,
Figure pat00007
는 참조 영상(
Figure pat00008
)으로부터 가지고 온 픽셀 값을 의미하며, 0.6은
Figure pat00009
에 부여되는 제1 혼합 가중치를 의미하고, 0.4는
Figure pat00010
에 부여되는 제2 혼합 가중치를 의미하며,
Figure pat00011
는 매핑 가중치를 의미한다. here,
Figure pat00005
The reference image (
Figure pat00006
), ≪ / RTI >
Figure pat00007
The reference image (
Figure pat00008
), And 0.6 means
Figure pat00009
, And 0.4 represents a first mixed weight
Figure pat00010
Lt; RTI ID = 0.0 > a < / RTI > second mixed weights,
Figure pat00011
Means a mapping weight.

가상 시점 영상 생성 장치(100)는 수학식 1과 같이, 기준 영상(IL)(510)으로부터 가져온 픽셀 값에 제1 혼합 가중치를 부여하고, 참조 영상(IR)(520)으로부터 가져온 픽셀 값에 제2 혼합 가중치를 부여하여 합한다. 그리고 가상 시점 영상 생성 장치(100)는 합해진 값에 매핑 가중치를 부여하여 해당 가상 시점 영상의 위치에 상응하는 최종 픽셀 값을 결정한다. The virtual viewpoint image generating apparatus 100 may assign a first mixed weight to a pixel value obtained from the reference image I L 510 and calculate a pixel value obtained from the reference image I R 520, The second mixed weights are added and combined. Then, the virtual viewpoint image generating apparatus 100 assigns a mapping weight to the summed value to determine a final pixel value corresponding to the position of the virtual viewpoint image.

여기서, 제1 혼합 가중치 및 제2 혼합 가중치는, 기준 영상(IL)(510)의 시점과 가상 시점(V0.4) 간 차이 및 참조 영상(IR)(520)의 시점과 가상 시점(V0.4) 간 차이를 이용하여 설정된 값일 수 있다. 예를 들어, 기준 영상(IL)(510)의 시점이 0이고, 가상 시점(V0.4)이 0.4이며, 참조 영상(IR)(520)의 시점이 1인 경우, 가상 시점 영상 생성 장치(100)는 제1 혼합 가중치를 0.6으로 설정하고, 제2 혼합 가중치를 0.4로 설정할 수 있다. 이를 통하여 가상 시점 영상 생성 장치(100)는 기준 영상(IL)(510) 및 참조 영상(IR)(520) 중 가상 시점(V0.4)과의 시점 차이가 더 적은 영상에 더 큰 가중치를 부여할 수 있다. Herein, the first and second weight values are calculated based on the difference between the time of the reference image (I L ) 510 and the time of the virtual image (V 0.4 ), the time of the reference image (I R ) 0.4 ). ≪ / RTI > For example, when the viewpoint of the reference image I L 510 is 0, the virtual viewpoint V 0.4 is 0.4, and the viewpoint of the reference image I R 520 is 1, (100) may set the first mixing weight to 0.6 and the second mixing weight to 0.4. The virtual viewpoint image generating apparatus 100 can obtain a larger weight value of the reference image I L 510 and the reference image I R 520 from the virtual viewpoint V 0.4 .

설명의 편의상 제1 혼합 가중치가 0.6이고, 제2 혼합 가중치가 0.4인 것으로 설명하였으나 이에 한정하지 않고, 제1 혼합 가중치 및 제2 혼합 가중치는 기준 영상(IL)(510)의 시점과 가상 시점(V0.4) 간 차이 및 참조 영상(IR)(520)의 시점과 가상 시점(V0.4) 간 차이를 기반으로 다양하게 설정될 수 있다. The first mixed weight and the second mixed weight are set such that the time of the reference image (I L ) 510 and the time of the virtual viewpoint (V 0.4 ) and the difference between the time of the reference image (I R ) 520 and the virtual time point (V 0.4 ).

도 6은 본 발명의 일실시예에 따른 매핑 가중치를 설명하기 위한 도면이다. 6 is a diagram for explaining a mapping weight according to an embodiment of the present invention.

도 6에 도시한 바와 같이, 매핑 가중치(

Figure pat00012
)는 매핑을 수행하는 변이 영상의 중심점으로부터 해당 픽셀의 거리에 따라 설정된 값을 의미할 수 있다. 이때, 매핑 가중치는 해당 픽셀과 중심점의 거리가 가까울수록 더 큰 값으로 설정될 수 있다. As shown in Fig. 6, the mapping weight (
Figure pat00012
) May mean a value set according to the distance of the corresponding pixel from the center point of the shifted image performing the mapping. At this time, the mapping weight can be set to a larger value as the distance between the pixel and the center point becomes closer.

본 발명의 일실시예에 다른 가상 시점 영상 생성 장치(100)는 변이 영상의 중심점과 거리가 가까운 픽셀에 더 큰 가중치를 부여하여 매핑을 수행함으로써, 더 자연스러운 가상 시점 영상을 생성할 수 있다. The virtual viewpoint image generating apparatus 100 according to an exemplary embodiment of the present invention may generate a more natural virtual viewpoint image by performing mapping by assigning a larger weight to pixels having a distance to the center point of the disparity image.

변이 영상의 한 픽셀의 변이값이 기준영상의 4x4 크기의 블록의 변이로 대응되므로, 하나의 변이 값을 참조하여 역방향 매핑을 수행할 경우 기준영상은 최소 4x4 크기를 갖는 블록일 수 있다. 이때, 블록 단위로 매핑을 수행할 경우 블록화 현상이 발생할 수 있다. 따라서, 가상 시점 영상 생성 장치(100)는 분할 단위보다 크기가 크거나 같은 블록 단위로 매핑을 수행하여 블록화 현상을 방지하고, 자연스러운 가상 시점 영상을 생성할 수 있다. Since the mutation value of one pixel of the mutation image corresponds to the mutation of the 4x4 block of the reference image, if the reverse mapping is performed with reference to one mutation value, the reference image may be a block having a minimum size of 4x4. At this time, when mapping is performed in units of blocks, blocking phenomenon may occur. Therefore, the virtual viewpoint image generating apparatus 100 can perform block mapping on a block basis, which is larger than or equal to the size of the divided unit, thereby preventing a blocking phenomenon and generating a natural virtual viewpoint image.

가상 시점 영상 생성 장치(100)는 분할 단위인 4x4 보다 크기가 크거나 같은 블록 단위로 매핑하여, 인접한 블록들이 서로 중첩(overlay) 되도록 매핑할 수 있다. 도 4에 도시한 바와 같이, 블록 단위(550)의 크기를 8x8로 설정할 경우, 가상 시점 영상 생성 장치(100)는 원래 4x4 크기의 분할 단위가 매핑될 때, 8x8 크기의 블록 단위(550)까지 같이 매핑하여 인접한 픽셀까지 한 번에 매핑할 수 있다. The virtual viewpoint image generating apparatus 100 can map the adjacent blocks to be overlapped with each other by mapping the blocks in unit of block equal to or larger than 4x4 as the division unit. 4, when the size of the block unit 550 is set to 8x8, the virtual viewpoint image generation apparatus 100 can generate a block unit 550 of 8x8 size when the original 4x4 size division unit is mapped You can map to adjacent pixels at once by mapping them together.

이때, 가상 시점 영상 생성 장치(100)는 도 6에 도시한 바와 같이 정규분포와 같은 확률 분포(probability distribution)를 따르는 매핑 가중치(

Figure pat00013
)를 각각의 픽셀에 부여하여 매핑을 수행할 수도 있다. At this time, as shown in FIG. 6, the virtual viewpoint image generating apparatus 100 generates a mapping weight (for example,
Figure pat00013
) To each pixel to perform mapping.

또한, 가상 시점 영상 생성 장치(100)는 가상 시점 영상을 생성한다(S240). In addition, the virtual viewpoint image generating apparatus 100 generates a virtual viewpoint image (S240).

가상 시점 영상 생성 장치(100)는 기준 변이 영상이 가상 시점에 매핑된 제1 매핑 영상과 참조 변이 영상이 가상 시점에 매핑된 제2 매핑 영상을 혼합(blending)하여, 가상 시점에 상응하는 가상 시점 영상을 생성한다. The virtual viewpoint image generating apparatus 100 blends the first mapping image in which the reference mutation image is mapped to the virtual viewpoint and the second mapping image in which the reference mutation image is mapped to the virtual viewpoint, And generates an image.

도 7은 도 3의 S240 단계에서 가상 시점 영상을 생성하는 과정을 설명하기 위한 도면이다. 7 is a diagram for explaining a process of generating a virtual viewpoint image in step S240 of FIG.

도 7에 도시한 바와 같이, 가상 시점 영상 생성 장치(100)는 제1 매핑 영상(730)과 제2 매핑 영상(740)을 합성하여 가상 시점 영상(750)을 생성한다. 이때, 제1 매핑 영상(730)은 기준영상(710) 및 기준변이영상(715)을 이용하여 매핑한 결과 생성된 것이고, 제2 매핑 영상(740)은 참조영상(720) 및 참조변이영상(725)을 이용하여 매핑한 결과 생성된 것이다. As shown in FIG. 7, the virtual viewpoint image generation apparatus 100 generates a virtual viewpoint image 750 by combining the first mapping image 730 and the second mapping image 740. The first mapping image 730 is generated as a result of mapping using the reference image 710 and the reference mutation image 715. The second mapping image 740 is generated by mapping the reference image 720 and the reference mutation image 715. [ 725).

또한, 가상 시점 영상 생성 장치(100)는 제1 매핑 영상(730) 및 제2 매핑 영상(740) 각각에 합성 가중치를 부여하여 가상 시점 영상(750)을 생성할 수도 있다. In addition, the virtual viewpoint image generating apparatus 100 may generate a virtual viewpoint image 750 by giving composite weights to the first mapping image 730 and the second mapping image 740, respectively.

Figure pat00014
Figure pat00014

여기서,

Figure pat00015
은 제1 매핑 영상을 의미하고,
Figure pat00016
은 제2 매핑 영상을 의미하며,
Figure pat00017
는 제1 매핑 영상에 부여되는 제1 합성 가중치를 의미하고,
Figure pat00018
는 제2 매핑 영상에 부여되는 제2 합성 가중치를 의미하며,
Figure pat00019
는 가상 시점 영상을 의미한다. here,
Figure pat00015
Denotes a first mapping image,
Figure pat00016
Represents a second mapping image,
Figure pat00017
Denotes a first composite weight given to the first mapping image,
Figure pat00018
Denotes a second composite weight value given to the second mapping image,
Figure pat00019
Represents a virtual viewpoint image.

이때, 제1 합성 가중치 및 제2 합성 가중치는, 기준 영상의 시점, 참조 영상의 시점 및 가상 시점 간 거리가 반영되어 설정된 값이거나, 매핑시 계산된 오차값(error)이 반영된 값 일 수 있다. In this case, the first synthesis weight and the second synthesis weight may be values set reflecting the reference image, the reference image, and the virtual viewpoint, or a value reflecting the error calculated during mapping.

여기서 오차값은 역방향 매핑을 수행하여 기준 영상 및 참조 영상으로부터 각각 픽셀 값을 가지고 올 때, 기준 영상으로부터 가지고 온 픽셀 값과 참조 영상으로부터 가지고 온 픽셀 값의 차이를 기반으로 설정된 값일 수 있다. Here, the error value may be a value set based on the difference between the pixel value fetched from the reference image and the pixel value fetched from the reference image when the pixel value is taken from the reference image and the reference image by performing the backward mapping.

그리고 제1 합성 가중치 및 제2 합성 가중치가 기준 영상의 시점, 참조 영상의 시점 및 가상 시점 간 거리를 기반으로 설정된 경우, 제1 합성 가중치 및 제2 합성 가중치는 각각 제1 혼합 가중치 및 제2 혼합 가중치와 동일한 값을 가질 수도 있다. When the first synthesis weight and the second synthesis weight are set based on the time of the reference image, the time of the reference image, and the distance between the virtual viewpoints, the first synthesis weight and the second synthesis weight are respectively set to a first mixture weight and a second mixture weight And may have the same value as the weight.

마지막으로, 가상 시점 영상 생성 장치(100)는 가상 시점 영상을 보간한다(S250). Finally, the virtual viewpoint image generating apparatus 100 interpolates the virtual viewpoint image (S250).

가상 시점 영상 생성 장치(100)는 가상 시점 영상 상에 빈 영역(hole)이 남아있는 경우, 가상 시점 영상을 보간한다. 이때, 가상 시점 영상 생성 장치(100)는 공간 축 및 시간 축 중 적어도 하나를 기준으로 인접한 영역의 비슷한 픽셀 값을 기반으로 가상 시점 영상을 보간할 수 있다. The virtual viewpoint image generation apparatus 100 interpolates a virtual viewpoint image when a hole remains on the virtual viewpoint image. At this time, the virtual viewpoint image generating apparatus 100 can interpolate the virtual viewpoint image based on similar pixel values of the adjacent regions based on at least one of the space axis and the time axis.

도 8은 본 발명의 일실시예에 따른 컴퓨터 시스템을 나타낸 블록도이다. 8 is a block diagram illustrating a computer system in accordance with an embodiment of the present invention.

도 8을 참조하면, 본 발명의 실시예는 컴퓨터로 읽을 수 있는 기록매체와 같은 컴퓨터 시스템(800)에서 구현될 수 있다. 도 8에 도시된 바와 같이, 컴퓨터 시스템(800)은 버스(820)를 통하여 서로 통신하는 하나 이상의 프로세서(810), 메모리(830), 사용자 입력 장치(840), 사용자 출력 장치(850) 및 스토리지(860)를 포함할 수 있다. 또한, 컴퓨터 시스템(800)은 네트워크(880)에 연결되는 네트워크 인터페이스(870)를 더 포함할 수 있다. 프로세서(810)는 중앙 처리 장치 또는 메모리(830)나 스토리지(860)에 저장된 프로세싱 인스트럭션들을 실행하는 반도체 장치일 수 있다. 메모리(830) 및 스토리지(860)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체일 수 있다. 예를 들어, 메모리는 ROM(831)이나 RAM(832)을 포함할 수 있다.Referring to FIG. 8, embodiments of the present invention may be implemented in a computer system 800, such as a computer readable recording medium. 8, a computer system 800 includes one or more processors 810, a memory 830, a user input device 840, a user output device 850, and a storage 850, which communicate with one another via a bus 820. [ 860 < / RTI > In addition, the computer system 800 may further include a network interface 870 connected to the network 880. The processor 810 may be a central processing unit or a semiconductor device that executes the processing instructions stored in the memory 830 or the storage 860. [ Memory 830 and storage 860 may be various types of volatile or non-volatile storage media. For example, the memory may include ROM 831 or RAM 832.

따라서, 본 발명의 실시예는 컴퓨터로 구현된 방법이나 컴퓨터에서 실행 가능한 명령어들이 기록된 비일시적인 컴퓨터에서 읽을 수 있는 매체로 구현될 수 있다. 컴퓨터에서 읽을 수 있는 명령어들이 프로세서에 의해서 수행될 때, 컴퓨터에서 읽을 수 있는 명령어들은 본 발명의 적어도 한 가지 태양에 따른 방법을 수행할 수 있다.Thus, embodiments of the invention may be embodied in a computer-implemented method or in a non-volatile computer readable medium having recorded thereon instructions executable by the computer. When computer readable instructions are executed by a processor, the instructions readable by the computer are capable of performing the method according to at least one aspect of the present invention.

이상에서와 같이 본 발명에 따른 가상 시점 영상 생성 장치 및 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다. As described above, the apparatus and method for generating a virtual viewpoint image according to the present invention are not limited to the configuration and method of the embodiments described above, but rather, All or a part of the above-described elements may be selectively combined.

100: 가상 시점 영상 생성 장치
110: 분할 영상 생성부 120: 변이 계산부
130: 영상 매핑부 140: 가상 시점 영상 생성부
150: 영상 보간부 310: 정형 영상 분할
320: 비정형 영상 분할 410, 510, 710: 기준 영상
415, 515, 715: 기준 변이 영상
420, 520, 720: 참조 영상
425, 725: 참조 변이 영상
430, 530, 750: 가상 시점 영상
540: 분할 단위 550: 블록 단위
730: 제1 매핑 영상 740: 제2 매핑 영상
800: 컴퓨터 시스템
810: 프로세서 820: 버스
830: 메모리 831: 롬
832: 램 840: 사용자 입력 장치
850: 사용자 출력 장치 860: 스토리지
870: 네트워크 인터페이스 880: 네트워크
100: virtual viewpoint image generating device
110: divided image generating unit 120:
130: video mapping unit 140: virtual viewpoint image generation unit
150: Image interpolator 310: Orthographic image segmentation
320: Atypical Image Segmentation 410, 510, 710: Reference Image
415, 515, 715: reference variation image
420, 520, 720: reference image
425, 725: reference mutation image
430, 530, 750: virtual viewpoint image
540: Division unit 550: Block unit
730: first mapping image 740: second mapping image
800: Computer system
810: Processor 820: Bus
830: Memory 831: ROM
832: RAM 840: User input device
850: User output device 860: Storage
870: Network interface 880: Network

Claims (20)

서로 다른 시점에 상응하는 기준 영상 및 참조 영상 각각을 분할 단위로 분할하는 분할 영상 생성부,
상기 분할 단위로 분할된 상기 기준 영상 및 상기 참조 영상에 상응하는 변이를 계산하여, 기준 변이 영상 및 참조 변이 영상을 생성하는 변이 계산부,
상기 변이를 이용하여, 상기 기준 변이 영상 및 상기 참조 변이 영상을 가상 시점에 매핑하는 영상 매핑부, 그리고
상기 기준 변이 영상이 상기 가상 시점에 매핑된 제1 매핑 영상과 상기 참조 변이 영상이 상기 가상 시점에 매핑된 제2 매핑 영상을 혼합하여, 상기 가상 시점에 상응하는 가상 시점 영상을 생성하는 가상 시점 영상 생성부
를 포함하는 가상 시점 영상 생성 장치.
A divided image generating unit for dividing each of the reference image and the reference image corresponding to different viewpoints in units of division,
A disparity calculation unit for calculating a disparity corresponding to the reference image and the reference image divided by the dividing unit to generate a reference disparity image and a reference disparity image,
An image mapping unit that maps the reference variation image and the reference variation image to a virtual viewpoint using the variation;
A first mapping image in which the reference mutation image is mapped to the virtual viewpoint and a second mapping image in which the reference mutation image is mapped to the virtual viewpoint are mixed to generate a virtual viewpoint image corresponding to the virtual viewpoint, Generating unit
And a virtual viewpoint image generating device.
제1항에 있어서,
상기 영상 매핑부는,
상기 기준 변이 영상 및 상기 참조 변이 영상을 기준으로 역방향 매핑(Backward mapping)을 수행하는 것을 특징으로 하는 가상 시점 영상 생성 장치.
The method according to claim 1,
The image-
Wherein the backward mapping is performed based on the reference transition image and the reference transition image.
제2항에 있어서,
상기 영상 매핑부는,
상기 분할 단위보다 크기가 크거나 같은 블록 단위로 매핑하는 것을 특징으로 하는 가상 시점 영상 생성 장치.
3. The method of claim 2,
The image-
Wherein the virtual viewpoint image is mapped on a block basis, which is larger than or equal to the division unit.
제2항에 있어서,
상기 영상 매핑부는,
상기 기준 변이 영상 및 상기 참조 변이 영상의 중심점과 픽셀 간 거리에 따른 매핑 가중치를 부여하여 매핑을 수행하는 것을 특징으로 하는 가상 시점 영상 생성 장치.
3. The method of claim 2,
The image-
Wherein mapping is performed by assigning a mapping weight according to a distance between a center point of the reference variation image and the reference variation image and a pixel distance.
제1항에 있어서,
상기 영상 매핑부는,
상기 기준 영상, 상기 기준 변이 영상, 상기 참조 영상 및 상기 참조 변이 영상 중 적어도 두 개 이상의 영상을 이용하여 매핑을 수행하는 것을 특징으로 하는 가상 시점 영상 생성 장치.
The method according to claim 1,
The image-
Wherein the mapping is performed using at least two or more images among the reference image, the reference mutation image, the reference image, and the reference mutation image.
제5항에 있어서,
상기 영상 매핑부는,
상기 기준 영상, 상기 기준 변이 영상, 상기 참조 영상 및 상기 참조 변이 영상 중 세 개의 영상을 이용하여 매핑을 수행할 경우, 상기 기준 영상 및 상기 참조 영상 각각에 혼합 가중치를 부여하여 매핑을 수행하는 것을 특징으로 하는 가상 시점 영상 생성 장치.
6. The method of claim 5,
The image-
Wherein mapping is performed by applying a mixed weight to each of the reference image and the reference image when performing mapping using three images among the reference image, the reference mutation image, the reference image, and the reference variation image, A virtual viewpoint image generation device.
제6항에 있어서,
상기 혼합 가중치는,
상기 기준 영상의 시점과 상기 가상 시점 간 거리 및 상기 참조 영상의 시점과 상기 가상 시점 간 거리 중 적어도 하나를 이용하여 계산된 것을 특징으로 하는 가상 시점 영상 생성 장치.
The method according to claim 6,
The mixed weights may be,
Wherein the virtual viewpoint image is calculated using at least one of a viewpoint of the reference image, a distance between the virtual viewpoints, and a distance between the reference viewpoint and the virtual viewpoint.
제2항에 있어서,
상기 가상 시점 영상 생성부는,
상기 제1 매핑 영상 및 제2 매핑 영상 각각에 합성 가중치를 부여하여, 상기 가상 시점 영상을 생성하는 것을 특징으로 하는 가상 시점 영상 생성 장치.
3. The method of claim 2,
The virtual viewpoint image generation unit may include:
Wherein the virtual viewpoint image generating unit generates the virtual viewpoint image by assigning a composite weight to each of the first mapping image and the second mapping image.
제8항에 있어서,
상기 합성 가중치는,
상기 기준 영상의 시점과 상기 가상 시점 간 거리 및 상기 참조 영상의 시점과 상기 가상 시점 간 거리 중 적어도 하나를 이용하여 설정된 것을 특징으로 하는 가상 시점 영상 생성 장치.
9. The method of claim 8,
The composite weighting value,
Wherein the virtual viewpoint image is generated using at least one of a viewpoint of the reference image, a distance between the virtual viewpoints, and a distance between the reference viewpoint and the virtual viewpoint.
제8항에 있어서,
상기 합성 가중치는,
동일한 픽셀에 상응하는 곳에 사상되는 상기 기준 영상의 픽셀 값과 상기 참조 영상의 픽셀 값 간 오차 값을 이용하여 설정된 것을 특징으로 하는 가상 시점 영상 생성 장치.
9. The method of claim 8,
The composite weighting value,
Wherein an error value between the pixel value of the reference image mapped to the same pixel and the pixel value of the reference image is set.
제1항에 있어서, 상기 가상 시점 영상의 빈 영역을 보간하는 영상 보간부를 더 포함하는 가상 시점 영상 생성 장치. The apparatus of claim 1, further comprising an image interpolator interpolating a free region of the virtual viewpoint image. 제11항에 있어서,
상기 영상 보간부는,
상기 빈 영역에 상응하는 공간 축 및 시간 축 중 적어도 어느 하나를 기준으로 인접한 영역의 픽셀 값을 이용하여 상기 빈 영역을 보간하는 것을 특징으로 하는 가상 시점 영상 생성 장치.
12. The method of claim 11,
Wherein the image interpolating unit comprises:
Wherein the interpolation unit interpolates the empty area using a pixel value of an adjacent area based on at least one of a spatial axis and a time axis corresponding to the empty area.
제1항에 있어서,
상기 가상 시점은,
상기 기준 영상의 시점과 상기 참조 영상의 시점 사이에 위치하는 것으로, 사용자로부터 설정받은 것이거나, 기 설정된 값인 것을 특징으로 하는 가상 시점 영상 생성 장치.
The method according to claim 1,
The virtual point-
Wherein the virtual viewpoint image is located between the viewpoint of the reference image and the viewpoint of the reference image and is set by a user or is a preset value.
제1항에 있어서,
상기 분할 영상 생성부는,
정형 영상 분할 및 비정형 영상 분할 중 적어도 하나를 수행하여, 상기 기준 영상 및 상기 참조 영상을 분할하는 것을 특징으로 하는 가상 시점 영상 생성 장치.
The method according to claim 1,
Wherein the divided image generating unit comprises:
Wherein the reference image and the reference image are divided by performing at least one of a stereoscopic image segmentation and an unstructured image segmentation.
가상 시점 영상 생성 장치에 의해 수행되는 가상 시점 영상 생성 방법에 있어서,
서로 다른 시점에 상응하는 기준 영상 및 참조 영상 각각을 분할 단위로 분할하는 단계,
상기 분할 단위로 분할된 상기 기준 영상 및 상기 참조 영상에 상응하는 변이를 계산하여, 기준 변이 영상 및 참조 변이 영상을 생성하는 단계,
상기 변이를 이용하여, 상기 기준 변이 영상 및 상기 참조 변이 영상을 가상 시점에 매핑하는 단계, 그리고
상기 기준 변이 영상이 상기 가상 시점에 매핑된 제1 매핑 영상과 상기 참조 변이 영상이 상기 가상 시점에 매핑된 제2 매핑 영상을 혼합하여, 상기 가상 시점에 상응하는 가상 시점 영상을 생성하는 단계
를 포함하는 가상 시점 영상 생성 방법.
A virtual viewpoint image generation method performed by a virtual viewpoint image generation apparatus,
Dividing each of a reference image and a reference image corresponding to different viewpoints into a division unit,
Generating a reference variation image and a reference variation image by calculating a variation corresponding to the reference image and the reference image divided by the division unit,
Mapping the reference variation image and the reference variation image to a virtual viewpoint using the variation; and
Generating a virtual viewpoint image corresponding to the virtual viewpoint by mixing a first mapping image in which the reference mutation image is mapped to the virtual viewpoint and a second mapping image in which the reference mutation image is mapped to the virtual viewpoint,
And generating a virtual viewpoint image.
제15항에 있어서,
상기 가상 시점에 매핑하는 단계는,
상기 기준 변이 영상 및 상기 참조 변이 영상을 기준으로 역방향 매핑(Backward mapping)을 수행하는 것을 특징으로 하는 가상 시점 영상 생성 방법.
16. The method of claim 15,
Wherein mapping to the virtual time point comprises:
Wherein the backward mapping is performed based on the reference transition image and the reference transition image.
제16항에 있어서,
상기 가상 시점에 매핑하는 단계는,
상기 분할 단위보다 크기가 크거나 같은 블록 단위로 매핑하는 것을 특징으로 하는 가상 시점 영상 생성 방법.
17. The method of claim 16,
Wherein mapping to the virtual time point comprises:
Wherein the mapping unit is mapped on a block basis, the size of which is greater than or equal to the division unit.
제16항에 있어서,
상기 가상 시점에 매핑하는 단계는,
상기 기준 변이 영상 및 상기 참조 변이 영상의 중심점과 픽셀 간 거리에 따른 매핑 가중치를 부여하여 매핑을 수행하는 것을 특징으로 하는 가상 시점 영상 생성 방법.
17. The method of claim 16,
Wherein mapping to the virtual time point comprises:
Wherein mapping is performed by assigning a mapping weight according to a distance between a center point of the reference mutation image and the reference mutation image and a distance between pixels.
제15항에 있어서,
상기 가상 시점에 매핑하는 단계는,
상기 기준 영상, 상기 기준 변이 영상, 상기 참조 영상 및 상기 참조 변이 영상 중 적어도 두 개 이상의 영상을 이용하여 매핑을 수행하고,
상기 기준 영상, 상기 기준 변이 영상, 상기 참조 영상 및 상기 참조 변이 영상 중 세 개의 영상을 이용하여 매핑을 수행할 경우, 상기 기준 영상 및 상기 참조 영상 각각에 혼합 가중치를 부여하여 매핑을 수행하는 것을 특징으로 하는 가상 시점 영상 생성 방법.
16. The method of claim 15,
Wherein mapping to the virtual time point comprises:
Performing a mapping using at least two images among the reference image, the reference mutation image, the reference image, and the reference mutation image,
Wherein mapping is performed by applying a mixed weight to each of the reference image and the reference image when performing mapping using three images among the reference image, the reference mutation image, the reference image, and the reference variation image, A virtual viewpoint image generation method.
제15항에 있어서,
상기 가상 시점 영상을 생성하는 단계는,
상기 제1 매핑 영상 및 제2 매핑 영상 각각에 합성 가중치를 부여하여, 상기 가상 시점 영상을 생성하며,
상기 합성 가중치는,
상기 기준 영상의 시점과 상기 가상 시점 간 거리 및 상기 참조 영상의 시점과 상기 가상 시점 간 거리 중 적어도 하나를 이용하여 설정된 것이거나, 동일한 픽셀에 상응하는 곳에 사상되는 상기 기준 영상의 픽셀 값과 상기 참조 영상의 픽셀 값 간 오차 값을 이용하여 설정된 것을 특징으로 하는 가상 시점 영상 생성 방법.
16. The method of claim 15,
Wherein the generating the virtual viewpoint image comprises:
Generating a virtual viewpoint image by assigning a composite weight to each of the first mapping image and the second mapping image,
The composite weighting value,
A reference value of the reference image, a distance between the reference point and the virtual point, a distance between the reference point of the reference image and the virtual point of view, or a pixel value of the reference image mapped to the same pixel, Wherein the error value is set using an error value between pixel values of an image.
KR1020160086054A 2016-07-07 2016-07-07 Apparatus and method for generating virtual viewpoint image KR102469228B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160086054A KR102469228B1 (en) 2016-07-07 2016-07-07 Apparatus and method for generating virtual viewpoint image
CN201710252123.8A CN107590857A (en) 2016-07-07 2017-04-18 For generating the apparatus and method of virtual visual point image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160086054A KR102469228B1 (en) 2016-07-07 2016-07-07 Apparatus and method for generating virtual viewpoint image

Publications (2)

Publication Number Publication Date
KR20180005859A true KR20180005859A (en) 2018-01-17
KR102469228B1 KR102469228B1 (en) 2022-11-23

Family

ID=61025783

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160086054A KR102469228B1 (en) 2016-07-07 2016-07-07 Apparatus and method for generating virtual viewpoint image

Country Status (2)

Country Link
KR (1) KR102469228B1 (en)
CN (1) CN107590857A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11575935B2 (en) 2019-06-14 2023-02-07 Electronics And Telecommunications Research Institute Video encoding method and video decoding method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116320358B (en) * 2023-05-19 2023-12-01 成都工业学院 Parallax image prediction device and method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030040920A (en) * 2001-11-17 2003-05-23 학교법인 포항공과대학교 Apparatus for reconstructing multiview image using stereo image and depth map
KR20130001541A (en) * 2011-06-27 2013-01-04 삼성전자주식회사 Method and apparatus for restoring resolution of multi-view image
KR20140022300A (en) 2012-08-14 2014-02-24 광주과학기술원 Method and apparatus for creating multi view image

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101556700B (en) * 2009-05-15 2012-02-15 宁波大学 Method for drawing virtual view image
CN101702241A (en) * 2009-09-07 2010-05-05 无锡景象数字技术有限公司 Multi-viewpoint image rendering method based on parallax map
CN102254348B (en) * 2011-07-25 2013-09-18 北京航空航天大学 Virtual viewpoint mapping method based o adaptive disparity estimation
JP2014014034A (en) * 2012-07-05 2014-01-23 Toshiba Corp Parallax image generating apparatus and parallax image generating method
CN102892021B (en) * 2012-10-15 2014-11-19 浙江大学 New method for synthesizing virtual viewpoint image

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030040920A (en) * 2001-11-17 2003-05-23 학교법인 포항공과대학교 Apparatus for reconstructing multiview image using stereo image and depth map
KR20130001541A (en) * 2011-06-27 2013-01-04 삼성전자주식회사 Method and apparatus for restoring resolution of multi-view image
KR20140022300A (en) 2012-08-14 2014-02-24 광주과학기술원 Method and apparatus for creating multi view image

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11575935B2 (en) 2019-06-14 2023-02-07 Electronics And Telecommunications Research Institute Video encoding method and video decoding method

Also Published As

Publication number Publication date
CN107590857A (en) 2018-01-16
KR102469228B1 (en) 2022-11-23

Similar Documents

Publication Publication Date Title
US9013482B2 (en) Mesh generating apparatus, method and computer-readable medium, and image processing apparatus, method and computer-readable medium
JP4898459B2 (en) Depth map generation
EP3367334B1 (en) Depth estimation method and depth estimation apparatus of multi-view images
KR101502362B1 (en) Apparatus and Method for Image Processing
CN101821770B (en) Image generation method and device
JP2011060216A (en) Device and method of processing image
KR102407137B1 (en) Method and apparatus for image processing
US10708619B2 (en) Method and device for generating predicted pictures
KR100924716B1 (en) Method for Rendering Virtual View for 2D/3D Free View Video Generation
KR102454167B1 (en) Method and apparatus for generating virtual view point image
KR20080101998A (en) Method and device for rectifying image in synthesizing arbitary view image
CN102447917A (en) Three-dimensional image matching method and equipment thereof
US20120206440A1 (en) Method for Generating Virtual Images of Scenes Using Trellis Structures
KR100267259B1 (en) Dense depth extraction method using multiple camera images and intermediate images synthesis method using said method
JP6717576B2 (en) Video rendering apparatus and method
JP6128748B2 (en) Image processing apparatus and method
JP5178538B2 (en) Method for determining depth map from image, apparatus for determining depth map
JP2019016230A (en) Learning device, image combining device, learning method, image combining method, and program
KR20200057612A (en) Method and apparatus for generating virtual viewpoint image
KR102469228B1 (en) Apparatus and method for generating virtual viewpoint image
JP2009530701A5 (en)
KR20170046434A (en) Image processing method and image processing apparatus
US20120206442A1 (en) Method for Generating Virtual Images of Scenes Using Trellis Structures
KR101868017B1 (en) Method for stereo matching and apparatus thereof
KR102455843B1 (en) Apparatus for reconstructing image and method using the same

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right