KR102404894B1 - Input viewpoint selection system for generating output viewpoints from multi-view image information sources - Google Patents
Input viewpoint selection system for generating output viewpoints from multi-view image information sources Download PDFInfo
- Publication number
- KR102404894B1 KR102404894B1 KR1020200168934A KR20200168934A KR102404894B1 KR 102404894 B1 KR102404894 B1 KR 102404894B1 KR 1020200168934 A KR1020200168934 A KR 1020200168934A KR 20200168934 A KR20200168934 A KR 20200168934A KR 102404894 B1 KR102404894 B1 KR 102404894B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- input
- viewpoint
- output
- generating
- Prior art date
Links
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 28
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 28
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 23
- 238000000605 extraction Methods 0.000 claims abstract description 21
- 239000000284 extract Substances 0.000 claims abstract description 4
- 238000000034 method Methods 0.000 claims description 31
- 239000013598 vector Substances 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 8
- 238000006073 displacement reaction Methods 0.000 claims description 7
- 239000002131 composite material Substances 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 11
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000001308 synthesis method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
Abstract
본 발명은 다시점 영상 정보원으로부터 출력 시점 생성을 위한 입력 시점 선택 시스템에 관한 발명으로서, 피사체를 기시간범위 내에 다중 촬영하여 N 개의 입력 영상을 생성하는 카메라; 상기 카메라와 연동되어 카메라를 통해 생성된 N 개의 입력 영상을 전달받아, 합성에 이용될 N 개의 이미지에서 K 개의 시점을 추출하는 이미지 추출 모듈; 추출된 K 개의 시점을 합성하여 N-1 개의 시점값으로 합성하는 이미지 합성 모듈 및 상기 합성된 이미지를 사용자의 선택에 따라 N-1 개의 시점값으로 가변시켜 출력하는 영상 생성부를 포함하는 것을 특징으로 한다.The present invention relates to an input viewpoint selection system for generating an output viewpoint from a multi-viewpoint image information source, comprising: a camera for generating N input images by taking multiple pictures of a subject within a predetermined time range; an image extraction module that interworks with the camera and receives N input images generated through the camera, and extracts K viewpoints from the N images to be used for synthesis; An image synthesizing module for synthesizing the extracted K viewpoints and synthesizing them into N-1 viewpoint values, and an image generator for outputting the synthesized image by changing it into N-1 viewpoint values according to a user's selection. do.
Description
본 발명은 다시점 영상 정보원으로부터 출력 시점 생성을 위한 입력 시점 선택 시스템에 관한 것으로서, 정해진 위치에서 촬영하는 다중 시점 영상이 제공되는 상황에서 자연스러운 임의 시점의 영상을 효과적으로 생성하기 위해 합성에 사용할 입력 영상, 즉, 시점(view point)을 효율적으로 선택하여, 고화질의 영상을 생성하기 위한 방법 및 이를 수행하기 위한 시스템에 관한 것이다.The present invention relates to an input viewpoint selection system for generating an output viewpoint from a multi-viewpoint image information source. That is, the present invention relates to a method for efficiently selecting a view point to generate a high-quality image, and a system for performing the same.
영상 시스템은 최근까지 주로 영상 제작가가 정한 특정 카메라 시점을 그대로 시청하는 방식인 단일 고정시점 방식이 주를 이루고 있으나, 사용자가 원하는 시점을 제공하는 다시점 또는 자유 시점 방식으로 개발되고 있는 추세이다.Until recently, a single fixed-view method, which is a method of viewing a specific camera viewpoint determined by an image producer as it is, has been mainly used for imaging systems, but a multi-view or free viewpoint method that provides a viewpoint desired by a user is being developed.
여기서, 다중 시점 방식의 콘텐츠란, 동일한 대상을 정해진 다수의 시점으로 촬영을 하거나 촬영된 영상을 합성을 통하여 여러 개의 시점을 제공할 수 있는 콘텐츠에서 사용자가 원하는 시점을 선택하여 볼 수 있는 방식을 가지는 영상이다.Here, the multi-view type content means that the user can select and view the desired viewpoint from content that can provide multiple viewpoints by shooting the same object from multiple viewpoints or synthesizing the photographed images. it's a video
한편, 자유 시점 방식은 사용자가 원하는 임의의 시점의 영상을 제공하는 방식이다.On the other hand, the free view method is a method of providing an image of an arbitrary viewpoint desired by the user.
그러나, 종래 이용되고 있는 다중 시점 방식과, 자유 시점 방식으로 제공되는 콘텐츠는, 사용자가 원하는 시점은 무수히 많으므로 모든 시점을 준비하는 것이 불가능하며, 이에 따라, 존재하는 시점의 영상들을 모두 합성하여 원하는 시점을 생성하는 방식을 사용하여야 한다.However, in the conventionally used multi-view method and content provided in the free view method, it is impossible to prepare all the viewpoints because there are countless viewpoints desired by the user. You must use a method to create a viewpoint.
한편, 3 차원상에서 새로운 시점을 합성하는 방법은 MPEG 표준 등에서 정의한 컬러 정보와 깊이 정보를 사용하는 방식이 가장 일반적이다.On the other hand, the most common method for synthesizing a new viewpoint in 3D is to use color information and depth information defined in the MPEG standard or the like.
구체적으로, 카메라의 위치와 내부 정보가 주어지면, 2 차원 컬러 영상정보와 깊이 정보를 사용하여 새로운 시점의 정보를 만들어 낼 수 있다.Specifically, given the position and internal information of the camera, information of a new viewpoint can be created using the two-dimensional color image information and depth information.
하지만, 시점의 이동에 따라 볼 수 있는 대상의 시점에 차이가 발생함으로 인해, 하나의 입력 영상만으로는 원하는 시점의 자연스러운 영상을 얻을 수 없는 문제점이 발생하였다,However, due to the difference in the viewpoint of the object that can be seen according to the movement of the viewpoint, a problem occurred that a natural image of the desired viewpoint could not be obtained with only one input image.
이때, 모든 입력시점의 정보를 사용하여 출력시점을 생성하는 방식이 화질 면에서는 가장 우수할 수 있으나, 영상처리 시스템과 네트워크의 효율을 고려하면 입력 시점 중 일부만을 선택하는 것을 바람직하다.In this case, the method of generating output viewpoints using information of all input viewpoints may be the best in terms of image quality, but it is preferable to select only some of the input viewpoints in consideration of the efficiency of the image processing system and network.
이에 따라, 어떤 시점들을 선택하여야 효과적인 영상을 합성할 수 있는 지에 대한 방법이 요구되나, 이에 대한 방안은 현재 개발되어 있지 않다.Accordingly, there is a need for a method of selecting which viewpoints to effectively synthesize an image, but a method for this has not been developed at present.
이때, 쉽게 생각할 수 있는 방식은 출력시점에서 가장 가까운 입력 시점들을 선택하는 것이지만, 이와 같은 방식은, 일률적으로 거리가 가까운 입력시점을 선택하게 되면 치우쳐진 방향의 입력을 선택하게 되어 보이지 않는 영역, 즉, 영상에서 누락되는 부분이 발생하기 쉬우며, 도 2 와 같이 모든 입력 시점을 사용하여 영상을 출력할 경우, 영상의 화질은 높아질 수 있으나, 출력 시점을 설정하는데 이용되는 네트워크의 사용량이 현격히 높아지며, 도 3 과 같이 출력 시점과 근접한 소수의 입력 시점만을 사용하여 영상을 출력할 경우, 높은 화질을 가지는 영상을 얻을 수 없는 문제점이 발생할 수 있었다.At this time, an easily conceivable method is to select input points that are closest to the output time, but in this way, if an input time point that is uniformly close to the distance is selected, an input in a biased direction is selected, that is, an invisible area, that is, , omission of the image is likely to occur, and if the image is output using all input viewpoints as shown in FIG. 2, the image quality may be increased, but the usage of the network used to set the output timing is significantly increased, As shown in FIG. 3 , when an image is output using only a small number of input viewpoints close to the output viewpoint, there may be a problem in that an image having a high quality cannot be obtained.
이에 따라, 다중 시점 영상에서 사용자가 정의한 출력시점으로 영상을 생성하는 시스템에서, 영상 합성에 사용 가능한 입력 시점의 수가 정해져 있을 때, 출력시점에서 (가장) 높은 화질의 영상을 생성할 수 있는 다시점 영상 정보원으로부터 출력 시점 생성을 위한 입력 시점 선택 시스템에 관한 기술 개발이 절실한 실정이다.Accordingly, in a system that generates an image from a multi-view image to a user-defined output viewpoint, when the number of input viewpoints usable for image synthesis is determined, a multi-viewpoint capable of generating an image of (the highest) high quality at the output viewpoint There is an urgent need to develop a technology for an input viewpoint selection system for generating an output viewpoint from an image information source.
본 발명의 실시 예에 따른 다시점 영상 정보원으로부터 출력 시점 생성을 위한 입력 시점 선택 시스템은 상기와 같은 문제점을 해결하기 위한 것으로서, 정해진 위치에서 촬영하는 다중 시점 영상이 제공되는 상황에서 자연스러운 임의 시점의 영상을 효과적으로 생성하고, 입력 영상을 시점에 따라 선별적으로 전송하여 네트워크의 부하를 저감할 수 있는 다시점 영상 정보원으로부터 출력 시점 생성을 위한 입력 시점 선택 시스템을 제공하는데 목적이 있다.An input viewpoint selection system for generating an output viewpoint from a multi-view image information source according to an embodiment of the present invention is to solve the above problems, and an image of a natural arbitrary viewpoint in a situation where a multi-view image taken at a predetermined position is provided. An object of the present invention is to provide an input viewpoint selection system for generating an output viewpoint from a multi-view image information source that can effectively generate a .
상기 과제를 해결하기 위한 본 발명의 실시 예에 따른 다시점 영상 정보원으로부터 출력 시점 생성을 위한 입력 시점 선택 시스템에 있어서, 피사체를 기시간범위 내에 다중 촬영하여 N 개의 입력 영상을 생성하는 카메라; 상기 카메라와 연동되어 카메라를 통해 생성된 N 개의 입력 영상을 전달받아, 합성에 이용될 N 개의 이미지에서 K 개의 시점을 추출하는 이미지 추출 모듈; 추출된 K 개의 시점을 합성하여 N-1 개의 시점값으로 합성하는 이미지 합성 모듈 및 상기 합성된 이미지를 사용자의 선택에 따라 N-1 개의 시점값으로 가변시켜 출력하는 영상 생성부를 포함할 수 있다.In an input viewpoint selection system for generating an output viewpoint from a multi-viewpoint image information source according to an embodiment of the present invention for solving the above problems, a camera for generating N input images by taking multiple pictures of a subject within a predetermined time range; an image extraction module that interworks with the camera and receives N input images generated through the camera, and extracts K viewpoints from the N images to be used for synthesis; It may include an image synthesizing module for synthesizing the extracted K viewpoints and synthesizing them into N-1 viewpoint values, and an image generator for outputting the synthesized image by changing it into N-1 viewpoint values according to a user's selection.
또한, 상기 카메라는, 피사체의 전, 후, 측방을 동시에 촬영하도록 피사체의 사방에서 복수의 카메라로 구비되되, 상기 복수의 카메라를 통해 생성되어 이미지 추출 모듈로 전송되는 N 개의 입력 영상 중, 영상 촬영자의 설정 타이밍으로 설정된 시점의 영상만을 이미지 추출 모듈로 전송할 수 있다.In addition, the camera is provided with a plurality of cameras in all directions of the subject so as to simultaneously photograph the front, rear, and side of the subject, among the N input images generated through the plurality of cameras and transmitted to the image extraction module, the image photographer Only the image of the time set as the set timing of can be transmitted to the image extraction module.
여기서, 상기 이미지 추출 모듈은, 전달받은 N 개의 이미지에서, 저해상도의 이미지를 제거하는 이미지 제거 모듈을 포함할 수 있다.Here, the image extraction module may include an image removal module for removing low-resolution images from the received N images.
또한, 상기 이미지 합성 모듈은, 합성된 N 개의 이미지에서 N-1 개의 시점값을 도출하여 이미지 합성 모듈의 데이터 베이스에 저장하되, 상기 N-1 개로 저장되는 시점값은, 이미지 합성 모듈의 데이터 베이스에 설정되어 있는 기준값과 가장 가까운 변위값을 가지는 시점으로 설정되어, 영상 생성부로 전송할 수 있다.In addition, the image synthesizing module derives N-1 viewpoint values from the N synthesized images and stores them in the database of the image synthesizing module, wherein the N-1 viewpoint values are stored in the database of the image synthesizing module. It may be set as a viewpoint having a displacement value closest to the reference value set in , and transmitted to the image generator.
또한, 상기 영상 생성부는, 사용자 설정을 입력받아 합성된 영상의 이미지의 각도, 위치, 높이를 가변시켜 출력할 수 있다.In addition, the image generator may receive a user setting and output the image by varying the angle, position, and height of the synthesized image.
또한, 상기 영상 생성부는, 입력 영상과 시점값 도출을 위해 이용된 카메라의 재원과, 해상도에 관한 파라미터(Parameter)에 관한 정보를 이미지와 함께 출력할 수 있다.In addition, the image generating unit may output the input image and information about a camera resource used for deriving a viewpoint value and information about a parameter related to resolution together with the image.
또한, 상기 이미지 합성 모듈이 K 개의 시점을 합성하는 과정은, [수학식 1]을 통해 도출될 수 있다.In addition, the process of synthesizing K viewpoints by the image synthesis module may be derived through [Equation 1].
[수학식 1][Equation 1]
, ,
(여기서, 는 벡터의 합성값, 는 시점의 벡터값)(here, is the composite value of the vector, is the vector value at the time)
또한, 상기 이미지 합성 모듈은, 이미지 추출 모듈을 통해 추출된 K 개의 시점 중, 사용자의 설정값에 따라 합성에 이용되는 K 개의 개수를 조절할 수 있다.In addition, the image synthesis module may adjust the number of K points used for synthesis according to a user's setting value among K viewpoints extracted through the image extraction module.
여기서, 두 개 이상, K 개 이하의 입력 시점을 사용하는 경우, 두개의 입력값을 하나의 입력값으로 합성한 후, 합성된 합성 값에 입력값을 한 개씩 추가하면서, 최종적으로는 K 개까지 입력 시점을 포함시킬 수 있다.Here, in the case of using two or more but K or less input points, two input values are synthesized into one input value, and then one input value is added to the synthesized combined value one by one, and finally up to K The input time can be included.
한편, 두 개 이상, K 개 이하의 입력 시점을 사용하여 K 개의 시점을 합성하는 과정은, [수학식 2]를 통해 입력 집합 를 도출하고,On the other hand, the process of synthesizing K viewpoints using two or more and K or less input viewpoints is an input set through [Equation 2]. to derive,
[수학식 2][Equation 2]
상기 입력 집합는, [수학식 3]과 같은 형태로 도출되되,the input set is derived in the same form as [Equation 3],
[수학식 3][Equation 3]
입력 영상과 사용자의 설정값이 같을 경우. 또는 합산된 절대값이 가장 작을 경우 종료되고, K < K 일 경우, 다시 [수학식 2]를 통해 입력 집합 h 를 업데이트할 수 있다.When the input image and the user's setting value are the same. Alternatively, it is terminated when the summed absolute value is the smallest, and when K < K, the input set h can be updated again through [Equation 2].
본 발명의 실시 예에 따른 다시점 영상 정보원으로부터 출력 시점 생성을 위한 입력 시점 선택 시스템은, 제한적인 영상 합성 성능을 갖는 시스템에서 고화질의 임의 시점 영상 합성하여 제공할 수 있다.The input viewpoint selection system for generating an output viewpoint from a multi-viewpoint image information source according to an embodiment of the present invention may synthesize and provide high-quality arbitrary viewpoint images in a system having limited image synthesis performance.
또한, 네트워크를 사용하여 입력 영상을 시점에 따라 선별적으로 전송이 가능할 때는 네트워크 사용량을 줄일 수 있다.In addition, when it is possible to selectively transmit an input image according to a viewpoint using a network, it is possible to reduce network usage.
도 1 은 본 발명의 실시 예에 따른 다시점 영상 정보원으로부터 출력 시점 생성을 위한 입력 시점 선택 시스템의 전체적인 구성을 보여주기 위한 블록구성도이다.
도 2 및 도 3 은 종래 다중 시점 영상 콘텐츠에서 입력 시점과 사용자가 정의한 출력 시점이 일치하지 않는 경우, 발생할 수 있는 문제점을 보여주기 위한 예시도이다.
도 4 는 본 발명의 실시 예에 따라 합성된 출력 시점을 보여주기 위한 예시도이다.
도 5 는 입력값이 {6, 10}, {6, 11}로 도출되었을 경우를 보여주기 위한 예시도이다.
도 6 은 도 5 에 표시된 출력 시점 위치가 시점 6 을 기준으로 (1/8, 1/8) 인 경우 계산된 내용을 보여주기 위한 예시도이다.
도 7 은 도 5 에 표시된 출력 시점 위치가 시점 6 을 기준으로 (3/8, 3/8) 인 경우 계산된 내용을 보여주기 위한 예시도이다.
도 8 은 입력 시점 집합을 선택하기 위한 알고리즘을 보여주는 예시도이다.1 is a block diagram showing the overall configuration of an input viewpoint selection system for generating an output viewpoint from a multi-viewpoint image information source according to an embodiment of the present invention.
2 and 3 are exemplary diagrams illustrating problems that may occur when an input viewpoint and a user-defined output viewpoint do not match in the conventional multi-view image content.
4 is an exemplary diagram illustrating an output time synthesized according to an embodiment of the present invention.
5 is an exemplary diagram illustrating a case in which input values are derived as {6, 10}, {6, 11}.
FIG. 6 is an exemplary diagram illustrating the calculated content when the output point position shown in FIG. 5 is (1/8, 1/8) with respect to the
FIG. 7 is an exemplary diagram illustrating the calculated contents when the output point position shown in FIG. 5 is (3/8, 3/8) with respect to the
8 is an exemplary diagram illustrating an algorithm for selecting an input viewpoint set.
이하, 도면을 참조한 본 발명의 설명은 특정한 실시 형태에 대해 한정되지 않으며, 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있다. 또한, 이하에서 설명하는 내용은 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, the description of the present invention with reference to the drawings is not limited to specific embodiments, and various modifications may be made and various embodiments may be provided. In addition, it should be understood that the contents described below include all transformations, equivalents, and substitutes included in the spirit and scope of the present invention.
이하의 설명에서 제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용되는 용어로서, 그 자체에 의미가 한정되지 아니하며, 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.In the following description, terms such as 1st, 2nd, etc. are terms used to describe various components, meanings are not limited thereto, and are used only for the purpose of distinguishing one component from other components.
본 명세서 전체에 걸쳐 사용되는 동일한 참조번호는 동일한 구성요소를 나타낸다.Like reference numbers used throughout this specification refer to like elements.
본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 이하에서 기재되는 "포함하다", "구비하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것으로 해석되어야 하며, 하나 또는 그 이상의 다른 특징들이나, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.As used herein, the singular expression includes the plural expression unless the context clearly dictates otherwise. In addition, terms such as "comprises", "comprises" or "have" described below are intended to designate the existence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification. It should be construed as not precluding the possibility of addition or existence of one or more other features, numbers, steps, operations, components, parts, or combinations thereof.
다르게 정의되지 않는 한 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 갖는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components are given the same reference numerals regardless of the reference numerals, and the overlapping description thereof will be omitted. In describing the present invention, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.
이하, 도 1 내지 도 8 을 참조로 하여 본 발명의 실시 예에 따른 다시점 영상 정보원으로부터 출력 시점 생성을 위한 입력 시점 선택 시스템을 상세히 설명하기로 한다.Hereinafter, an input viewpoint selection system for generating an output viewpoint from a multi-view image information source according to an embodiment of the present invention will be described in detail with reference to FIGS. 1 to 8 .
도 1 은 본 발명의 실시 예에 따른 다시점 영상 정보원으로부터 출력 시점 생성을 위한 입력 시점 선택 시스템의 전체적인 구성을 보여주기 위한 블록구성도이고, 도 2 및 도 3 은 종래 다중 시점 영상 콘텐츠에서 입력 시점과 사용자가 정의한 출력 시점이 일치하지 않는 경우, 발생할 수 있는 문제점을 보여주기 위한 예시도이며, 도 4 는 본 발명의 실시 예에 따라 합성된 출력 시점을 보여주기 위한 예시도이고, 도 5 는 입력값이 {6, 10}, {6, 11}로 도출되었을 경우를 보여주기 위한 예시도이며, 도 6 은 도 5 에 표시된 출력 시점 위치가 시점 6 을 기준으로 (1/8, 1/8) 인 경우 계산된 내용을 보여주기 위한 예시도이고, 도 7 은 도 5 에 표시된 출력 시점 위치가 시점 6 을 기준으로 (3/8, 3/8) 인 경우 계산된 내용을 보여주기 위한 예시도이며, 도 8 은 입력 시점 집합을 선택하기 위한 알고리즘을 보여주는 예시도이다.1 is a block diagram showing the overall configuration of an input viewpoint selection system for generating an output viewpoint from a multi-view image information source according to an embodiment of the present invention, and FIGS. 2 and 3 are input viewpoints in conventional multi-view image content It is an exemplary diagram to show a problem that may occur when the output time defined by the user and the user do not match. It is an exemplary diagram to show a case in which the values are derived as {6, 10}, {6, 11}, and FIG. 6 is the output point position shown in FIG. 5 based on the time point 6 (1/8, 1/8) It is an exemplary view for showing the calculated contents when , FIG. 8 is an exemplary diagram illustrating an algorithm for selecting an input viewpoint set.
도 1 내지 도 8 을 참조하면, 본 발명의 실시 예에 따른 다시점 영상 정보원으로부터 출력 시점 생성을 위한 입력 시점 선택 시스템(1)은, 카메라(100), 이미지 추출 모듈(200), 이미지 합성 모듈(300) 및 영상 생성부(400)를 포함할 수 있다.1 to 8 , an input
먼저, 상기 카메라(100)는, 피사체를 기시간범위 내에 다중 촬영하여 N 개의 입력 영상을 생성할 수 있다.First, the
또한, 상기 카메라(100)는, 피사체에 관한 3차원 상의 위치와 카메라(100)로부터 피사체가 떨어져 있는 거리를 인식할 수 있는 카메라(100)가 이용될 수 있다.In addition, as the
이때, 상기 카메라(100)를 통해 도출되는 피사체에 관한 거리 감지 정보는, 이후 서술될 이미지 합성 모듈(300)에서 시점값을 도출하기 위한 자료로 이용될 수 있다.In this case, the distance sensing information on the subject derived through the
또한, 상기 카메라(100)는, 한장의 이미지를 촬영하는 사진기 혹은 영상을 촬영할 수 있는 디코더(Decorder)가 이용될 수 있다.In addition, as the
또한, 상기 카메라(100)는, 피사체의 전, 후, 측방을 동시에 촬영하도록 피사체의 사방에서 복수로 구비될 수 있다.In addition, the
한편, 영상 촬영자가 VR 을 제공하기 위한 목적으로 피사체를 촬영할 경우, 상기 카메라(100)는 피사체를 360 °로 촬영할 수 있는 위치에 구비되는 것이 가장 바람직하며, 평면 프로젝션 영상 혹은 단편적인 화면을 보여주기 위한 콘텐츠를 촬영하고자 할 경우에는, 피사체를 180 °의 범위에서 촬영할 수 있는 위치에 구비되는 것이 가장 바람직하다.On the other hand, when the videographer shoots a subject for the purpose of providing VR, the
또한, 상기 카메라(100)는, 상기 복수의 카메라(100)를 통해 생성되어 이미지 추출 모듈(200)로 전송되는 N 개의 입력 영상 중, 영상 촬영자의 설정 타이밍으로 설정된 시점의 영상만을 이미지 추출 모듈(200)로 전송할 수 있다.In addition, the
또한, 상기 카메라(100)를 통해 이미지 추출 모듈(200)로 전송되는 입력 영상 데이터에, 촬영된 입력 영상의 시간적 동기 정보를 포함시켜 함께 전송할 수 있다.In addition, the input image data transmitted to the
이때, 상기 시간적 동기 정보는, 촬영된 모든 입력 영상에 포함될 수 있으나, 이는 바람직한 실시 예일 뿐, 이미지를 처리하는 이미지 추출 모듈(200)에 걸리는 부하를 저감하기 위해, 이후 이미지 추출 모듈(200)을 통해 추출되는 입력 영상의 시간적 동기 정보만을 제공할 수도 있다.At this time, the temporal synchronization information may be included in all captured input images, but this is only a preferred embodiment. It is also possible to provide only temporal synchronization information of the input image extracted through the
또한, 상기 이미지 추출 모듈(200)은, 상기 카메라(100)와 연동됨으로써, 카메라(100)로 촬영되는 입력 영상을 전달받을 수 있다.Also, the
또한, 상기 이미지 추출 모듈(200)은, 카메라(100)를 통해 생성된 N 개의 입력 영상을 전달받아, 이후, 합성에 이용될 N 개의 이미지에서 K 개의 시점을 추출할 수 있다.In addition, the
이때, 상기 K 개의 개수로 추출되는 입력 시점의 개수는, 본 발명을 이용하는 사용자의 설정값에 따라 그의 개수가 달리 이용될 수 있으며, 가장 바람직하게는 3 개 이상의 K 값을 가지도록 설정되는 것이 바람직하다.In this case, the number of input time points extracted as the K number may be used differently depending on the set value of the user using the present invention, and most preferably, it is preferably set to have three or more K values. do.
그러나, 상기 3 개 이상으로 입력될 수 있는 입력 시점의 개수는, 출력 시점을 산출하는데 필요한 최소한의 개수일 뿐, 상기 이미지 추출 모듈(200)을 통해 도출되는 시점의 개수는, 3 개 이상의 개수를 가질 수 있으며, 더 나아가 촬영된 입력 영상의 전체 입력 영상의 숫자와 동일한 N 개가 도출될 수 있다.However, the number of input viewpoints that can be input as three or more is only a minimum number necessary to calculate an output viewpoint, and the number of viewpoints derived through the
또한, 상기 이미지 추출 모듈(200)은, 카메라(100)를 통해 전달받은 N 개의 이미지 중, 저 해상도를 가지는 이미지 또는 영상을 감지하여, 이를 제거할 수 있는 이미지 제거 모듈(210)을 포함할 수 있다.In addition, the
보다 구체적으로, 상기 이미지 제거 모듈(210)은, 본 발명의 실시 예에 따른 다시점 영상 정보원으로부터 출력 시점 생성을 위한 입력 시점 선택 시스템(1)으로 수집되는 이미지 중, 저 해상도의 이미지를 삭제함으로써, 저 해상도가 저장되어 있던 저장 공간을 확보하고, 이미지를 합성하는데 있어 필수로 요구되는 이미지만을 이용하도록 하여, 전체적인 속도를 향상시킬 수 있다.More specifically, the image removal module 210 deletes a low-resolution image among images collected by the input
또한, 상기 이미지 합성 모듈(300)은, 이미지 추출 모듈(200)에서 추출된 복수개의 시점별로 하나의 시점값으로 합성함으로써, N-1 개의 시점값으로 합성할 수 있다.Also, the
이때, 상기 이미지 합성 모듈(300)이 복수개의 시점을 합성하기 위한 K 이하의 입력 시점을 선택하되, 합성에 이용되는 입력 시점과, 출력되는 시점값의 거리 및 방향을 고려하여 효율성이 높은 조합을 선택할 수 있다.At this time, the
이상으로, 앞서 서술된 내용과 더불어, 본 발명의 실시 예에 따른 다시점 영상 정보원으로부터 출력 시점 생성을 위한 입력 시점 선택 시스템(1)의 시점 합성 방법을 보다 구체적으로 설명하도록 한다.As described above, the viewpoint synthesis method of the input
먼저, 각 입력 시점의 카메라 정보 (3차원 상의 위치, 카메라 특성 변수)가 입력값으로 제공된다.First, camera information (a position in three dimensions, a camera characteristic variable) of each input viewpoint is provided as an input value.
다음으로, 카메라에 N 개의 입력영상이 시간적으로 동기정보를 포함하여 입력된다. (파일을 통하거나 네트워크를 통하여 제공된다.)Next, N input images are temporally input to the camera, including synchronization information. (Provided through a file or through a network.)
이때, N 개의 영상이 모든 프레임 시간에 제공될 필요는 없으며, 이중, 사용자에 의해 선택된 합성에 사용할 K 개의 시점의 영상만이 제공되면 된다.In this case, it is not necessary that N images are provided at every frame time, and only images of K viewpoints to be used for synthesis selected by the user need only be provided.
다음으로, 출력 카메라의 카메라 파라미터 정보가 제공된다.Next, camera parameter information of the output camera is provided.
다음으로, 사용자는 원하는 출력 시점 (X, Y, Z 위치와 회전각 ROLL, PITCH, YAW)를 선택한다.Next, the user selects the desired output timing (X, Y, Z position and rotation angle ROLL, PITCH, YAW).
다음으로, 출력영상의 합성에 사용할 최대 입력 영상의 개수 K 가 주어진다.Next, the maximum number of input images K to be used for synthesizing the output images is given.
다음으로, 출력 시점을 합성하기 위한 K 이하의 입력 시점을 선택하되, 입력시점과 출력시점의 거리 및 방향을 고려하여 가장 효율적인 조합을 선택한다. (이때, 입력영상이 360도 영상인 경우는 출력 위치는 3 차원으로 고려하고, 평명 프로젝션 영상이거나 한쪽방향으로만 콘텐츠가 위치한 180도 영상인 경우는 2 차원 위치를 선정한다.)Next, an input time of K or less for synthesizing the output time is selected, and the most efficient combination is selected in consideration of the distance and direction between the input time and the output time. (At this time, if the input image is a 360-degree image, the output position is considered 3D, and in the case of a flat projection image or a 180-degree image in which content is located in only one direction, a 2-dimensional position is selected.)
위와 같은 과정을 보다 구체적으로 살펴보기 위해, 본 발명에 개시된 알고리즘과 함께 자세히 살펴보면, 먼저 출력되는 시점값을 라 하고, 출력 시점까지의 변위 벡터를 라 한다면, 다음 수식의 값이 최소가 되는, 즉, 각각의 벡터값의 연산값 의 값이 가장 최소의 값을 입력 시점을 구하여 이에 속한 시점에 대한 값을 입력값으로 사용하고, 이를 수학식으로 나타낼 경우, 하기 개시한 [수학식 1]과 같다.In order to examine the above process in more detail, looking in detail together with the algorithm disclosed in the present invention, first, the output time value is , and the displacement vector up to the output point is If , then the value of the following formula is the minimum, that is, the calculated value of each vector value. When an input time point is obtained with the smallest value of the value of , and a value for a time point belonging to the value is used as an input value, and this is expressed by an equation, it is the same as [Equation 1] described below.
[수학식 1][Equation 1]
, ,
한편, 2 개의 변위 벡터가 합성되고 도출된 의 값(두개의 변위 벡터 가 합성된 후 도출된 값)은, 입력 시점을 기준으로 주위에 인접한 출력 시점과 합산되는 과정을 반복함으로써, 가장 최신의 값이 도출될 수 있다.On the other hand, two displacement vectors were synthesized and derived the value of (two displacement vectors The value derived after ? is synthesized) is the most recent A value can be derived.
즉, 출력 시점과의 거리가 가까울수록, 입력 시점이 사방육방으로 고르게 분포 되어 있을수록 효과적인 합성이 가능한 특징을 가진다.That is, as the distance from the output viewpoint is closer, and the input viewpoints are evenly distributed in all four directions, effective synthesis is possible.
보다 구체적인 예를 들기 위해, 도 5 에 도시된 바와 같이 입력 시점이 16 개의 격자 형태로 (N = 16)로 주어져 있고, 각 격자의 거리가 1 이라 가정하며, 사용 가능한 입력 시점의 수가 2 개 인 경우(K = 2)에는, 도 5 와 같은 형태로 출력될 수 있다.For a more specific example, as shown in FIG. 5 , it is assumed that input viewpoints are given in the form of 16 grids (N = 16), the distance between each grid is 1, and the number of available input viewpoints is 2 In the case (K = 2), the output may be in the form shown in FIG. 5 .
도 6 을 예로 들어 이를 설명하자면, 도 5 와 같이 16 개의 입력 시점의 패턴을 가지는 입력 시점에서, 출력 시점이 입력 시점 6 을 기준으로 (1/8, 1/8)에 위치하였을 때, 입력 시점으로 부터 가장 가까운 거리에 위치한 값을 산출하여, 구체적으로, 이므로, 벡터 연산에 이용되는 입력 시점 {6, 10}을 선택할 수 있다.6 as an example, when the output time is located at (1/8, 1/8) with respect to the
다음으로, 도 7 을 살펴보면, 출력 시점이 입력 시점 6 을 기준으로 (3/8, 3/8)에 위치하고 있을 경우에는, 입력 시점으로 부터 가장 가까운 거리에 위치한 값을 산출하여, 구체적으로, 이므로, 벤터 연산에 이용되는 입력 시점 {6, 11}을 선택할 수 있는 것이다.Next, referring to FIG. 7 , when the output time is located at (3/8, 3/8) with respect to the
정리하자면, 도 6 및 도 7 에 개시된 바와 같이, 입력 시점 6 을 기준으로, 가장 가까운 벡터값을 찾은 후, 이를 합성하고, 합성된 벡터값을 또다시 근방에 있는 입력 시점들을 이용하여 연산하는 과정을 반복함으로써, 첫번째로 사용된 입력 시점으로부터, 입력 시점의 벡터와 합산되어 산출된 시점값을 근처에 위치한 또다른 입력 시점과 합성하여 최종적인 시점값을 도출할 수 있는 것이다.In summary, as shown in FIGS. 6 and 7 , the process of finding the closest vector value with respect to input
이에 따라, 본 발명의 실시 예에 따른 다시점 영상 정보원으로부터 출력 시점 생성을 위한 입력 시점 선택 시스템(1)은, 영상 안에 존재하는 모든 입력 시점과 출력 시점의 값을 사용하여 영상의 출력 시점을 산출하는 것이 아닌, 입력 시점을 기준으로 근방에 위치한 합성 변수만을 이용하여, 가장 적은 연산값으로 최상의 화질을 가지는 영상을 얻을 수 있는 장점을 가진다.Accordingly, the input
또한, 이상의 실시 예에서 상술한 바와 같이, 두 개 이상의 입력 시점을 사용하는 경우, 최적이 되는 입력을 한 개씩 추가하면서, 최종적으로는 K개까지 입력 시점을 포함시킬 수 있으며, 이를 단계별로 나타내면 도 8 에 도시된 바와 같이 나타낼 수 있다.In addition, as described above in the above embodiment, when two or more input time points are used, it is possible to finally include up to K input time points while adding the optimal input one by one. It can be represented as shown in Fig.
먼저, 는, 0 의 값으로 초기화 될 수 있다. (S10)first, may be initialized to a value of 0. (S10)
다음으로, 가 k-1 개의 개수를 가지는 입력 위치들의 집합일 경우 (S20), 다음 입력 h 의 값은, 하기 개시한 [수학식 2]를 통해 도출될 수 있다. (S30)to the next, When is a set of input positions having k-1 number (S20), the value of the next input h may be derived through [Equation 2] described below. (S30)
[수학식 2][Equation 2]
한편, 이를 통해 도출되는 입력 집합 는, 하기 개시한 [수학식 3]과 같은 형태로 도출될 수 있다. (S40)On the other hand, the input set derived through this can be derived in the form of [Equation 3] disclosed below. (S40)
[수학식 3][Equation 3]
여기서, k = k (입력 영상과 사용자의 입력 시점의 수가 같을 경우)일 경우 또는 합산된 절대값이 가장 작을 경우 종료되고, k < k 일 경우, 다시 [수학식 2] 를 통해 입력 집합 h 를 업데이트 하는 일련의 과정을 반복할 수 있다. (S50)Here, when k = k (when the number of input images and the number of input viewpoints of the user is the same) or when the summed absolute value is the smallest, it ends, and when k < k, the input set h is again expressed through [Equation 2] You can repeat the process of updating. (S50)
또한, 상기 합성된 N 개의 이미지에서, N-1 개의 시점값을 도출하되, 상기 도출된 시점값은, 이미지 합성 모듈(300)의 데이터 베이스(DB)에 저장될 수 있다.In addition, N-1 viewpoint values are derived from the synthesized N images, and the derived viewpoint values may be stored in the database DB of the
여기서, 상기 N-1 개로 저장되는 시점값은, 이미지 합성 모듈(300)의 데이터 베이스(DB)에 설정되어 있는 기준값과 가장 가까운 변위값을 가지는 시점으로 설정될 수 있다.Here, the N-1 stored time points may be set as a time point having a displacement value closest to a reference value set in the database DB of the
또한, 상기 기준값과 가장 가까운 변위값을 가지는 시점은, 이후 서술될 영상 생성부(400)로 전송될 수 있다.Also, a viewpoint having a displacement value closest to the reference value may be transmitted to the
또한, 상기 영상 생성부(400)는, 상기 합성된 이미지를 사용자의 선택에 따라 N-1 개의 시점값으로 가변시켜 사용자에게 출력할 수 있다.In addition, the
이때, 영상 생성부(400)는, 저장된 시점값을 사용자에게 선택하도록 하여, 사용자의 선택에 따라, 각각의 시점으로 합성된 이미지를 출력할 수 있다.In this case, the
또한, 상기 영상 생성부(400)는, 사용자 설정을 입력받아 합성된 영상의 이미지의 각도, 위치, 높이를 가변시켜 사용자에게 출력할 수 있다.Also, the
보다 구체적으로, 사용자는, 영상 생성부(400)를 통해 출력되는 이미지의 X, Y, Z 위치와, 이미지의 회전각 ROLL, PITCH, YAW 를 가변시켜 영상을 확인할 수 있다.More specifically, the user may check the image by varying the X, Y, and Z positions of the image output through the
또한, 상기 영상 생성부(400)는, 이미지의 합성과 시점값 도출을 위해 이용된 카메라(100)가 가진 재원과, 해상도에 관련된 파라미터(Parameter)에 관한 정보를 이미지와 함께 출력할 수 있다.In addition, the
이에 따라, 본 발명의 실시 예에 따른 다시점 영상 정보원으로부터 출력 시점 생성을 위한 입력 시점 선택 시스템(1)은, 제한적인 영상 합성 성능을 갖는 시스템에서 고화질의 임의 시점 영상 합성하여 제공할 수 있는 장점을 가지며, 입력 영상을 처리하는 과정에서 필수로 요구되는 조건값에 대한 정보만을 토대로 시점값을 도출하여, 본 발명의 시스템을 구성하는 장치의 전체적인 정보처리량을 줄일 수 있으므로, 속도와 효율성이 상승된 효과를 가진다.Accordingly, the input
이상에서 도 1 내지 도 8 을 참조하여 설명한 본 발명의 실시 예에 따른 다시점 영상 정보원으로부터 출력 시점 생성을 위한 입력 시점 선택 시스템(1)은, 장치 및/또는 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하기 위한 프로그램, 그 프로그램이 기록된 기록 매체 등을 통해 구현될 수도 있으며, 이러한 구현은 앞서 설명한 실시예의 기재로부터 본 발명이 속하는 기술분야의 전문가라면 쉽게 구현할 수 있는 것이다.The input
또한, 이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.In addition, although the embodiment of the present invention has been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements by those skilled in the art using the basic concept of the present invention as defined in the following claims are also presented. It belongs to the scope of the invention.
1 : 다시점 영상 정보원으로부터 출력 시점 생성을 위한 입력 시점 선택 시스템
100 : 카메라
200 : 이미지 추출 모듈
210 : 이미지 제거 모듈
300 : 이미지 합성 모듈
400 : 영상 생성부
DB : 데이터 베이스1: Input viewpoint selection system for generating output viewpoint from multi-view image information source
100 : camera
200: image extraction module
210: image removal module
300: image compositing module
400: image generating unit
DB: database
Claims (10)
피사체를 기시간범위 내에 다중 촬영하여 N 개의 입력 영상을 생성하는 카메라;
상기 카메라와 연동되어 카메라를 통해 생성된 N 개의 입력 영상을 전달받아, 합성에 이용될 N 개의 이미지에서 K 개의 시점을 추출하는 이미지 추출 모듈;
추출된 K 개의 시점을 합성하여 N-1 개의 시점값으로 합성하는 이미지 합성 모듈 및
상기 합성된 이미지를 사용자의 선택에 따라 N-1 개의 시점값으로 가변시켜 출력하는 영상 생성부를 포함하고,
상기 이미지 합성 모듈은,
합성된 N 개의 이미지에서 N-1 개의 시점값을 도출하여 이미지 합성 모듈의 데이터 베이스에 저장하되,
상기 N-1 개로 저장되는 시점값은,
이미지 합성 모듈의 데이터 베이스에 설정되어 있는 기준값과 가장 가까운 변위값을 가지는 시점으로 설정되어, 영상 생성부로 전송하는 것을 특징으로 하는 다시점 영상 정보원으로부터 출력 시점 생성을 위한 입력 시점 선택 시스템
In the input viewpoint selection system for generating an output viewpoint from a multi-view image information source,
a camera for generating N input images by taking multiple shots of a subject within a predetermined time range;
an image extraction module that interworks with the camera and receives N input images generated through the camera, and extracts K viewpoints from the N images to be used for synthesis;
An image synthesizing module that synthesizes the extracted K time points and synthesizes them into N-1 time points, and
and an image generator for outputting the synthesized image by changing it to N-1 viewpoint values according to a user's selection,
The image synthesis module,
Derive N-1 viewpoint values from N synthesized images and store them in the database of the image synthesis module,
The time values stored in the N-1 pieces are,
Input viewpoint selection system for generating an output viewpoint from a multi-view image information source, characterized in that the viewpoint is set as the viewpoint having the closest displacement value to the reference value set in the database of the image synthesis module and transmitted to the image generator
상기 카메라는,
피사체의 전, 후, 측방을 동시에 촬영하도록 피사체의 사방에서 복수의 카메라로 구비되되,
상기 복수의 카메라를 통해 생성되어 이미지 추출 모듈로 전송되는 N 개의 입력 영상 중, 영상 촬영자의 설정 타이밍으로 설정된 시점의 영상만을 이미지 추출 모듈로 전송하는 것을 특징으로 하는 다시점 영상 정보원으로부터 출력 시점 생성을 위한 입력 시점 선택 시스템
The method of claim 1,
The camera is
It is provided with a plurality of cameras in all directions of the subject so as to simultaneously photograph the front, rear, and side of the subject,
Among the N input images generated through the plurality of cameras and transmitted to the image extraction module, only the image of the time set as the timing set by the image photographer is transmitted to the image extraction module. input point selection system for
상기 이미지 추출 모듈은,
전달받은 N 개의 이미지에서,
저해상도의 이미지를 제거하는 이미지 제거 모듈을 포함하는 것을 특징으로 하는 다시점 영상 정보원으로부터 출력 시점 생성을 위한 입력 시점 선택 시스템
3. The method of claim 2,
The image extraction module,
In the received N images,
Input viewpoint selection system for generating an output viewpoint from a multi-view image information source, characterized in that it includes an image removal module for removing a low-resolution image
상기 영상 생성부는,
사용자 설정을 입력받아 합성된 영상의 이미지의 각도, 위치, 높이를 가변시켜 출력하는 것을 특징으로 하는 다시점 영상 정보원으로부터 출력 시점 생성을 위한 입력 시점 선택 시스템
The method of claim 1,
The image generating unit,
Input viewpoint selection system for generating an output viewpoint from a multi-view image information source, characterized in that the angle, position, and height of the synthesized image are varied by receiving user settings and output
상기 영상 생성부는,
입력 영상과 시점값 도출을 위해 이용된 카메라의 재원과, 해상도에 관한 파라미터(Parameter)에 관한 정보를 이미지와 함께 출력하는 것을 특징으로 하는 다시점 영상 정보원으로부터 출력 시점 생성을 위한 입력 시점 선택 시스템
The method of claim 1,
The image generating unit,
Input viewpoint selection system for generating an output viewpoint from a multi-viewpoint image information source, characterized in that the information on parameters related to the resolution and the resources of the camera used for deriving the input image and viewpoint value is output together with the image
상기 이미지 합성 모듈이 K 개의 시점을 합성하는 과정은,
[수학식 1]을 통해 도출되는 것을 특징으로 하는 다시점 영상 정보원으로부터 출력 시점 생성을 위한 입력 시점 선택 시스템
[수학식 1]
,
(여기서, 는 벡터의 합성값, 는 시점의 벡터값)
The method of claim 1,
The process of synthesizing K viewpoints by the image synthesis module is,
Input viewpoint selection system for generating an output viewpoint from a multi-view image information source, characterized in that it is derived through [Equation 1]
[Equation 1]
,
(here, is the composite value of the vector, is the vector value at the time)
상기 이미지 합성 모듈은,
이미지 추출 모듈을 통해 추출된 K 개의 시점 중, 사용자의 설정값에 따라 합성에 이용되는 K 개의 개수를 조절하는 것을 특징으로 하는 다시점 영상 정보원으로부터 출력 시점 생성을 위한 입력 시점 선택 시스템
The method of claim 1,
The image synthesis module,
Input viewpoint selection system for generating an output viewpoint from a multi-viewpoint image information source, characterized in that the number of K viewpoints used for synthesis is adjusted according to a user's setting value among K viewpoints extracted through the image extraction module
두 개 이상, K 개 이하의 입력 시점을 사용하는 경우, 두개의 입력값을 하나의 입력값으로 합성한 후, 합성된 합성 값에 입력값을 한 개씩 추가하면서, 최종적으로는 K 개까지 입력 시점을 포함시키는 것을 특징으로 하는 다시점 영상 정보원으로부터 출력 시점 생성을 위한 입력 시점 선택 시스템
9. The method of claim 8,
In the case of using two or more but K or less input times, two input values are synthesized into one input value, and one input value is added to the synthesized composite value one by one, and finally up to K input times Input viewpoint selection system for generating an output viewpoint from a multi-view image information source, characterized in that it includes
두 개 이상, K 개 이하의 입력 시점을 사용하여 K 개의 시점을 합성하는 과정은,
[수학식 2]를 통해 입력 집합 를 도출하고,
[수학식 2]
상기 입력 집합는, [수학식 3]과 같은 형태로 도출되되,
[수학식 3]
입력 영상과 사용자의 설정값이 같을 경우. 또는 합산된 절대값이 가장 작을 경우 종료되고, K < K 일 경우, 다시 [수학식 2]를 통해 입력 집합 h 를 업데이트 하는 것을 특징으로 하는 다시점 영상 정보원으로부터 출력 시점 생성을 위한 입력 시점 선택 시스템
9. The method of claim 8,
The process of synthesizing K time points using two or more and K or less input time points is,
Input set through [Equation 2] to derive,
[Equation 2]
the input set is derived in the same form as [Equation 3],
[Equation 3]
When the input image and the user's setting value are the same. Alternatively, it is terminated when the summed absolute value is the smallest, and when K < K, the input time selection system for generating an output viewpoint from a multi-view image information source, characterized in that the input set h is updated again through [Equation 2]
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200168934A KR102404894B1 (en) | 2020-12-04 | 2020-12-04 | Input viewpoint selection system for generating output viewpoints from multi-view image information sources |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200168934A KR102404894B1 (en) | 2020-12-04 | 2020-12-04 | Input viewpoint selection system for generating output viewpoints from multi-view image information sources |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102404894B1 true KR102404894B1 (en) | 2022-06-02 |
Family
ID=81984967
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200168934A KR102404894B1 (en) | 2020-12-04 | 2020-12-04 | Input viewpoint selection system for generating output viewpoints from multi-view image information sources |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102404894B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150131668A (en) * | 2014-05-16 | 2015-11-25 | 주식회사 이에스엠연구소 | Generating method for multiview image using interface with image matrix and generating system for multiview image |
KR20200065730A (en) * | 2018-11-30 | 2020-06-09 | 전자부품연구원 | Method and apparatus for providing free viewpoint video |
-
2020
- 2020-12-04 KR KR1020200168934A patent/KR102404894B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150131668A (en) * | 2014-05-16 | 2015-11-25 | 주식회사 이에스엠연구소 | Generating method for multiview image using interface with image matrix and generating system for multiview image |
KR20200065730A (en) * | 2018-11-30 | 2020-06-09 | 전자부품연구원 | Method and apparatus for providing free viewpoint video |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8928734B2 (en) | Method and system for free-view relighting of dynamic scene based on photometric stereo | |
JP5319415B2 (en) | Image processing apparatus and image processing method | |
US20180192033A1 (en) | Multi-view scene flow stitching | |
US20080158345A1 (en) | 3d augmentation of traditional photography | |
JP4658223B2 (en) | Image generating method, apparatus, program thereof, and recording medium recording program | |
CN110574075A (en) | System, method, and program for generating virtual viewpoint image | |
JP2006113807A (en) | Image processor and image processing program for multi-eye-point image | |
KR20110078175A (en) | Method and apparatus for generating of image data | |
CN103179339A (en) | Image processing system and method | |
JP2013009274A (en) | Image processing device, image processing method, and program | |
KR20100104591A (en) | Method for fabricating a panorama | |
US20160078598A1 (en) | Image processor and image processing method | |
KR20200021891A (en) | Method for the synthesis of intermediate views of a light field, system for the synthesis of intermediate views of a light field, and method for the compression of a light field | |
JP5843599B2 (en) | Image processing apparatus, imaging apparatus, and method thereof | |
KR102404894B1 (en) | Input viewpoint selection system for generating output viewpoints from multi-view image information sources | |
KR101860310B1 (en) | Method and apparatus for generating a panoramic image by using a video shot by an unmanned aerial vehicle | |
KR20220086888A (en) | Novel view synthesis system for plenoptic images | |
WO2017096859A1 (en) | Photo processing method and apparatus | |
JP2017050819A (en) | Generation device for panoramic image data, generation method and program | |
JP2020173726A (en) | Virtual viewpoint conversion device and program | |
KR102242710B1 (en) | Apparatus for providing half free-viewpoint video | |
US10078905B2 (en) | Processing of digital motion images | |
KR100868076B1 (en) | Apparatus and Method for Image Synthesis in Interaced Moving Picture | |
CN108377320B (en) | Bullet time making method with anti-shake calibration function | |
JP2013143579A (en) | Imaging apparatus and method for controlling the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |