KR20140118091A - System for producing image or video and method for generating disparity map - Google Patents

System for producing image or video and method for generating disparity map Download PDF

Info

Publication number
KR20140118091A
KR20140118091A KR1020130033373A KR20130033373A KR20140118091A KR 20140118091 A KR20140118091 A KR 20140118091A KR 1020130033373 A KR1020130033373 A KR 1020130033373A KR 20130033373 A KR20130033373 A KR 20130033373A KR 20140118091 A KR20140118091 A KR 20140118091A
Authority
KR
South Korea
Prior art keywords
value
depth
image
displacement
displacement value
Prior art date
Application number
KR1020130033373A
Other languages
Korean (ko)
Inventor
강윤석
호요성
Original Assignee
인텔렉추얼디스커버리 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인텔렉추얼디스커버리 주식회사 filed Critical 인텔렉추얼디스커버리 주식회사
Priority to KR1020130033373A priority Critical patent/KR20140118091A/en
Publication of KR20140118091A publication Critical patent/KR20140118091A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Abstract

Disclosed are a system for producing an image and a method for generating a displacement map. More specifically, the system for producing an image comprises: a displacement setting unit to set a minimum displacement value and a maximum displacement value in a certain frame within an image sequence based on color images acquired from multiple color cameras which are moved to photograph in certain directions; a function generating unit to generate a correlation function which represents a relationship between an actual depth value in the certain frame that is calculated based on the set minimum displacement value and maximum displacement value and a depth value in the certain frame that is acquired from one or more depth cameras which are moved to photograph in certain directions; and a displacement calculating unit to calculate the minimum displacement value and the maximum displacement value in an arbitrary frame within the image sequence based on the correlation function, wherein the image is produced using a disparity map which is depth information of each frame within the image sequence generated based on calculation results in the displacement calculating unit.

Description

영상 제작 시스템 및 변위 맵 생성방법{SYSTEM FOR PRODUCING IMAGE OR VIDEO AND METHOD FOR GENERATING DISPARITY MAP}TECHNICAL FIELD [0001] The present invention relates to a video production system and a displacement map generation method,

본 발명은 영상 제작 시스템 및 변위 맵 생성방법에 관한 것으로서, 보다 구체적으로 영상 시퀀스 내 각 프레임의 깊이 정보인 변위 맵을 이용하여 영상을 제작하는 영상 제작 시스템 및 변위 맵을 생성하는 방법에 관한 것이다.
The present invention relates to an image production system and a displacement map generation method, and more particularly, to an image production system and an image generation method for producing an image using a displacement map, which is depth information of each frame in an image sequence.

최근 3차원 입체 영상 제작 기술이 보편화되고 이러한 영상물이 다수 제작됨에 따라, 관련 분야에 대한 연구도 함께 활발하게 이루어지고 있다. Recently, 3D stereoscopic image production technology has been widely used and many video images have been produced, and related fields have been actively studied.

특히, 좀더 현실감 넘치는 3차원 입체 영상물 또는 다시점/양안식 영상물을 다양한 환경에서 제작하기 위한 기법들이 연구 개발 중에 있다. In particular, techniques for producing more realistic 3D stereoscopic images or multi-view / ambience stereoscopic images in various environments are under research and development.

이와 관련하여 한국공개특허 제2013-0005702호(발명의 명칭: 스테레오 카메라의 3차원 줌 영상 생성 방법 및 장치)는 스테레오 카메라에서 획득한 줌 영상으로부터 산출된 시차거리 변화량 또는 수렴각을 이용하여 줌 영상을 와핑 및 복원함으로써, 왜곡 없는 3차원 줌 영상을 제작하는 기술을 개시하고 있다. 이러한 기술은 고정된 상태의 카메라로부터 획득한 영상에 대해 영상 처리 과정을 적용함으로써, 마치 줌인(Zoom-In) 혹은 줌 아웃(Zoom-Out) 효과를 준 것과 같은 줌 영상을 제작할 수 있다.
Korean Patent Laid-Open Publication No. 2013-0005702 (entitled " 3-D Zoom Image Generation Method and Apparatus of Stereo Camera ") discloses a method and apparatus for generating a 3-dimensional zoom image using a zoom image obtained by a stereo camera, Dimensional zoom image without warping by warping and restoring the three-dimensional zoom image. Such a technique can produce a zoom image such as a zoom-in or zoom-out effect by applying an image processing process to an image acquired from a camera in a fixed state.

본 발명은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 본 발명의 일부 실시예는, 실제로 카메라를 다양한 방향으로 이동시키는 상황을 고려하여 영상 시퀀스 내 각 프레임의 깊이 정보인 변위 맵을 생성하는 영상 제작 시스템 및 변위 맵 생성방법을 제공하는 데에 그 목적이 있다. SUMMARY OF THE INVENTION The present invention has been made in order to solve the above problems of the prior art and it is an object of the present invention to provide a method and apparatus for generating a displacement map which is depth information of each frame in an image sequence, A production system, and a displacement map generation method.

또한, 본 발명의 일부 실시예는 줌인 혹은 줌 아웃 효과를 가지는 영상 시퀀스에 대해서 적은 계산량과 높은 정확도를 가지고 효율적으로 변위 맵을 생성할 수 있는 영상 제작 시스템 및 변위 맵 생성방법을 제공하는 데에 다른 목적이 있다. In addition, some embodiments of the present invention provide a video production system and a displacement map generation method capable of efficiently generating a displacement map with a small amount of calculation and high accuracy with respect to an image sequence having a zoom-in or zoom-out effect There is a purpose.

다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
It is to be understood, however, that the technical scope of the present invention is not limited to the above-described technical problems, and other technical problems may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예에 따른 영상 제작 시스템은, 소정의 방향으로 이동시키며 촬영한 복수의 색상 카메라로부터 획득된 색상 영상을 기초로 영상 시퀀스 내 소정의 프레임에서의 최소 변위 값 및 최대 변위 값을 설정하는 변위 설정부; 상기 설정된 최소 변위 값 및 최대 변위 값을 기초로 계산된 상기 소정의 프레임에서의 실제 깊이 값과, 상기 소정의 방향으로 이동시키며 촬영한 하나 이상의 깊이 카메라로부터 획득된 상기 소정의 프레임에서의 깊이 값 간의 관계를 나타내는 관계 함수를 생성하는 함수 생성부; 및 상기 관계 함수를 기초로 상기 영상 시퀀스 내 임의의 프레임에서의 최소 변위 값 및 최대 변위 값을 계산하는 변위 계산부를 포함하고, 상기 변위 계산부의 계산 결과를 기초로 생성된 상기 영상 시퀀스 내 각 프레임의 깊이 정보인 변위 맵(disparity map)을 이용하여 영상을 제작한다. According to an aspect of the present invention, there is provided an image production system, comprising: a color image generation unit that generates a color image based on a color image obtained from a plurality of color cameras photographed in a predetermined direction, A displacement setting unit for setting a minimum displacement value and a maximum displacement value in the frame; A difference between an actual depth value in the predetermined frame calculated on the basis of the set minimum displacement value and the maximum displacement value and a depth value in the predetermined frame obtained from one or more depth cameras photographed while moving in the predetermined direction A function generating unit for generating a relational function representing a relation; And a displacement calculation unit for calculating a minimum displacement value and a maximum displacement value in any frame in the image sequence based on the relational function, wherein the displacement calculation unit calculates the minimum displacement value and the maximum displacement value of each frame in the image sequence generated based on the calculation result of the displacement calculation unit The image is created using a disparity map which is depth information.

또한, 본 발명의 다른 실시예에 따른 영상 제작 시스템은, 소정의 방향으로 이동시키면서 촬영이 가능하도록 설치된 복수의 색상 카메라 및 하나 이상의 깊이 카메라를 포함하는 촬영장치; 상기 촬영장치를 상기 소정의 방향으로 이동시키면서 촬영함에 따라 획득된 색상 영상 및 깊이 영상을 기초로 영상 시퀀스 내 각 프레임의 깊이 정보인 변위 맵(disparity map)을 생성하고, 상기 생성된 변위 맵을 기초로 복수의 프레임을 포함하는 영상을 저작하는 영상 저작장치를 포함하고, 상기 영상 저작장치는 상기 색상 영상을 기초로 상기 영상 시퀀스 내 소정의 프레임에서의 최소 변위 값 및 최대 변위 값을 설정하는 변위 설정부; 상기 설정된 최소 변위 값 및 최대 변위 값을 기초로 계산된 상기 소정의 프레임에서의 실제 깊이 값과, 상기 깊이 영상으로부터 획득된 상기 소정의 프레임에서의 깊이 값 간의 관계를 나타내는 관계 함수를 생성하는 함수 생성부; 및 상기 관계 함수를 기초로 상기 영상 시퀀스 내 임의의 프레임에서의 최소 변위 값 및 최대 변위 값을 계산하는 변위 계산부를 포함한다. According to another aspect of the present invention, there is provided an image production system including: a photographing device including a plurality of color cameras and at least one depth camera installed so as to be photographable while being moved in a predetermined direction; A disparity map, which is depth information of each frame in the video sequence, is generated based on the color image and the depth image obtained by photographing while moving the photographing apparatus in the predetermined direction, and based on the generated displacement map, The image authoring apparatus includes a moving image generating unit for generating a moving image based on the color image and a displacement setting unit for setting a minimum displacement value and a maximum displacement value in a predetermined frame in the image sequence based on the color image, part; Generating a function that represents a relationship between an actual depth value in the predetermined frame calculated based on the set minimum displacement value and the maximum displacement value and a depth value in the predetermined frame obtained from the depth image, part; And a displacement calculator for calculating a minimum displacement value and a maximum displacement value in any frame in the image sequence based on the relational function.

또한, 본 발명의 일 실시예에 따른 영상 시퀀스 내 각 프레임의 깊이 정보인 변위 맵(disparity map)을 생성하는 방법은, 소정의 방향으로 이동시키며 촬영한 복수의 색상 카메라로부터 획득된 색상 영상을 기초로 상기 영상 시퀀스 내 소정의 프레임에서의 최소 변위 값 및 최대 변위 값을 설정하는 단계; 상기 설정된 최소 변위 값 및 최대 변위 값을 기초로 계산된 상기 소정의 프레임에서의 실제 깊이 값과, 상기 소정의 방향으로 이동시키며 촬영한 하나 이상의 깊이 카메라로부터 획득된 상기 소정의 프레임에서의 깊이 값 간의 관계를 나타내는 관계 함수를 생성하는 단계; 및 상기 관계 함수를 기초로 상기 영상 시퀀스 내 임의의 프레임에서의 최소 변위 값 및 최대 변위 값을 계산하는 단계를 포함한다.
A method of generating a disparity map, which is depth information of each frame in a video sequence according to an exemplary embodiment of the present invention, is a method of generating a disparity map based on a color image obtained from a plurality of color cameras Setting a minimum displacement value and a maximum displacement value in a predetermined frame in the image sequence; A difference between an actual depth value in the predetermined frame calculated on the basis of the set minimum displacement value and the maximum displacement value and a depth value in the predetermined frame obtained from one or more depth cameras photographed while moving in the predetermined direction Generating a relation function indicating a relationship; And calculating a minimum displacement value and a maximum displacement value in any frame in the image sequence based on the relational function.

전술한 본 발명의 과제 해결 수단에 의하면, 카메라가 이동하는 환경에서도 고품질의 변위 맵을 신속하고 정확하게 계산할 수 있고, 그로 인해 보다 역동적이고 다양한 관점에서의 3차원 입체 영상물 또는 다시점 영상물을 제작할 수 있다는 장점이 있다. According to the above-described object of the present invention, it is possible to quickly and accurately calculate a high-quality displacement map even in an environment in which the camera moves, thereby enabling a more dynamic and multi-view stereoscopic video or multi- There are advantages.

또한, 전술한 본 발명의 과제 해결 수단에 의하면, 영상 시퀀스 내 소정의 프레임에서의 변위가 갑자기 등장하는 일부 객체에 의해 심하게 변하는 경우에도 기존 방법보다 효율적으로 대처할 수 있고, 줌인 혹은 줌아웃 효과를 가진 양안식/다시점 영상물을 제작할 수 있다는 장점이 있다.
Further, according to the above-mentioned object of the present invention, it is possible to cope more effectively with the existing method even when the displacement in a predetermined frame in the video sequence is significantly changed by some objects appearing suddenly, It is advantageous to produce rest / multi-point video.

도 1은 본 발명의 일 실시예에 따른 영상 제작 시스템을 전체적으로 나타내는 도면,
도 2는 도 1에 도시된 색상 카메라로 촬영함에 따라 획득된 색상 영상의 일 예를 나타내는 도면,
도 3은 도 1에 도시된 깊이 카메라로 촬영함에 따라 획득된 깊이 영상의 일 예를 나타내는 도면,
도 4a 및 도 4b는 도 1에 도시된 촬영장치를 소정의 방향으로 이동시키는 모습의 일 예를 나타내는 도면,
도 5는 본 발명의 다른 실시예에 따른 영상 제작 시스템에 포함된 각 구성을 나타내는 블록도,
도 6은 도 5에 도시된 변위 설정부의 동작을 설명하기 위한 색상 영상의 일 예를 나타내는 도면,
도 7은 도 5에 도시된 함수 생성부에서 생성된 관계 함수의 일 예를 나타내는 그래프,
도 8은 본 발명의 일 실시예에 따른 변위 맵 생성방법을 설명하기 위한 순서도,
도 9 내지 도 11은 본 발명에서 제안한 기술과 종래 기술을 적용시킨 경우의 변위 값 차이를 나타내는 도면이다.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a diagram generally showing an image production system according to an embodiment of the present invention;
FIG. 2 is a view showing an example of a color image obtained by photographing with the color camera shown in FIG. 1;
FIG. 3 is a view showing an example of a depth image obtained by photographing with a depth camera shown in FIG. 1;
FIGS. 4A and 4B are views showing an example of a state in which the photographing apparatus shown in FIG. 1 is moved in a predetermined direction;
FIG. 5 is a block diagram showing each configuration included in an image production system according to another embodiment of the present invention; FIG.
6 is a view showing an example of a color image for explaining the operation of the displacement setting unit shown in Fig. 5,
FIG. 7 is a graph showing an example of a relation function generated by the function generating unit shown in FIG. 5,
FIG. 8 is a flowchart for explaining a displacement map generating method according to an embodiment of the present invention; FIG.
9 to 11 are diagrams showing the difference in displacement value when the technique proposed by the present invention and the conventional technique are applied.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is referred to as being "connected" to another part, it includes not only "directly connected" but also "electrically connected" with another part in between . Also, when an element is referred to as "comprising ", it means that it can include other elements as well, without departing from the other elements unless specifically stated otherwise.

본원 명세서 전체에서, 어떤 부재가 다른 부재 “상에” 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout this specification, when a member is " on " another member, it includes not only when the member is in contact with the other member, but also when there is another member between the two members.

본원 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함" 한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다. 본원 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다.Throughout this specification, when an element is referred to as "including " an element, it is understood that the element may include other elements as well, without departing from the other elements unless specifically stated otherwise. The word " step (or step) "or" step "used to the extent that it is used throughout the specification does not mean" step for.

이하에서는, 본 발명에서 제안하는 영상 제작 시스템에 대해 도 1을 참고하여 설명하기로 한다. Hereinafter, an image production system proposed by the present invention will be described with reference to FIG.

도 1은 본 발명의 일 실시예에 따른 영상 제작 시스템을 전체적으로 나타내는 도면이다. FIG. 1 is a view showing an entire image production system according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 영상 제작 시스템은 촬영장치(100) 및 영상 저작장치(200)를 포함하고, 촬영장치(100)와 영상 저작장치(200)는 유무선으로 연결되어 각종 데이터를 서로 송수신한다. The image production system according to an embodiment of the present invention includes a photographing apparatus 100 and an image authoring apparatus 200. The photographing apparatus 100 and the image producing apparatus 200 are connected to each other by wire / do.

촬영장치(100)는 소정의 방향으로 이동시키면서 촬영이 가능하도록 설치된 복수의 색상 카메라(110) 및 하나 이상의 깊이 카메라(120)를 포함한다. 복수의 색상 카메라(110)는 실질적으로 나란하게 설치될 수 있고, 깊이 카메라(120)는 도 1처럼 색상 카메라(110) 부근에 설치될 수 있으며, 설치 위치가 특별히 제한되는 것은 아니다. 다만, 색상 카메라(110)의 개수가 일정 숫자 이상으로 증가하는 경우 한 개의 깊이 카메라(120)를 이용하여 다수의 색상 카메라(110)가 촬영하는 영역을 커버할 수 없기 때문에, 추가적인 깊이 카메라(120)의 설치가 필요하다. 덧붙여, 색상 카메라(110) 및 깊이 카메라(120)는 동일한 종류를 사용하는 것이 바람직하나, 제한되는 것은 아니다. 예를 들어, 색상 카메라(110)는 최대 1920X1080(HD)의 해상도와 함께 30fps의 촬영이 가능한 Basler pylon 모델을 사용할 수 있고, 깊이 카메라(120)는 176X144(QCIF)의 해상도와 함께 30fps의 촬영이 가능한 Mesa imaging SR4000 모델을 사용할 수 있다. The photographing apparatus 100 includes a plurality of color cameras 110 and one or more depth cameras 120 provided so as to be photographable while moving in a predetermined direction. The plurality of color cameras 110 may be installed substantially side by side, and the depth camera 120 may be installed near the color camera 110 as shown in FIG. 1, and the installation position is not particularly limited. However, when the number of the color cameras 110 is increased beyond a predetermined number, it is impossible to cover the area captured by the plurality of color cameras 110 by using the one depth camera 120, ) Must be installed. In addition, the color camera 110 and the depth camera 120 preferably use the same kind, but are not limited thereto. For example, the color camera 110 may use a Basler pylon model capable of shooting at 30 fps with a resolution of up to 1920 x 1080 (HD), and the depth camera 120 may use a resolution of 176 x 144 (QCIF) Possible Mesa imaging SR4000 models are available.

도 2는 도 1에 도시된 색상 카메라로 촬영함에 따라 획득된 색상 영상의 일 예를 나타내는 도면이다. FIG. 2 is a view showing an example of a color image obtained by photographing with the color camera shown in FIG. 1. FIG.

서로 다른 위치에 설치된 2개의 색상 카메라(110)로 특정 영역을 촬영하였으므로, 제 1 색상 영상과 제 2 색상 영상은 약간의 시차를 가진다. Since the specific region is photographed by the two color cameras 110 installed at different positions, the first color image and the second color image have a slight parallax.

일반적으로 특정 영상의 깊이 정보는 0부터 255까지 8비트로 표현한 깊이 맵이나 해당 화소의 인접 시점과의 시차를 화소 단위의 값으로 표현한 변위 맵으로 나타낼 수 있는데, 깊이(depth)와 변위(disparity)는 서로 반비례의 관계를 가진다. 즉, 색상 카메라(110)와의 실제 거리가 가까운 물체의 변위는 크지만, 깊이 값은 작다. 이와는 반대로 색상 카메라(110)와의 실제 거리가 먼 물체나 배경의 변위 값은 상대적으로 매우 작지만, 깊이 값은 크다. In general, the depth information of a specific image can be expressed as a depth map represented by 8 bits from 0 to 255 or a displacement map expressing a parallax with respect to an adjacent point of the corresponding pixel in pixel units. The depth and disparity They have an inverse relationship with each other. That is, although the displacement of an object close to the actual distance from the color camera 110 is large, the depth value is small. On the contrary, the displacement value of the object or the background which is far from the actual distance from the color camera 110 is relatively small, but the depth value is large.

도 2처럼 서로 시차를 가지는 두 장의 색상 영상이 있을 때, 제 1 색상 영상 내 특정 화소에 대한 변위 값은 인접한 시점의 제 2 색상 영상에서 해당 화소가 어디에 위치하는지를 탐색하여 구할 수 있고, 변위를 알면 깊이를 계산할 수 있다. 제 1 색상 영상 및 제 2 색상 영상은 각각 좌측 영상, 우측 영상에 대응될 수 있다. 이와 같은 변위 탐색 방법을 스테레오 정합(stereo matching)이라고 하며, 가장 일반적인 깊이 정보 생성 방법으로 사용되고 있다.As shown in FIG. 2, when there are two color images having a time difference from each other, a displacement value for a specific pixel in the first color image can be obtained by searching where the corresponding pixel is located in the second color image at an adjacent time point. The depth can be calculated. The first color image and the second color image may correspond to the left image and the right image, respectively. Such a displacement search method is called stereo matching and is used as the most general depth information generating method.

구체적으로, 제 1 색상 영상 내 특정 화소를 포함하는 블록(a0)과 동일한 스캔 라인(scan line) 상에 위치하는 제 2 색상 영상 내 블록들(a1 내지 a5) 중 어떤 블록이 가장 잘 정합되는지 판단하는 대응점 탐색 과정이 도 2처럼 수행된다. 이때, 스테레오 정합에 사용되는 양안식 혹은 다시점 색상 영상은 모두 정렬(rectify)되어 있다고 가정한다.Specifically, a block of a second color image in blocks (a 1 to a 5 ) located on the same scan line as a block a 0 including a specific pixel in the first color image is best A corresponding point searching process for determining whether or not the matching is performed is performed as shown in FIG. At this time, it is assumed that both binocular or multi-point color images used for stereo matching are rectified.

보다 구체적으로, 스테레오 정합에는 여러 가지 방법이 있으며, 크게 지역적(local) 방법과 전역적(global) 방법으로 구분된다. 지역적 방법은 구현이 간단하고 처리 속도가 빠르다는 장점을 가지지만, 영상의 특성에 따라 올바른 정합 위치를 찾지 못하는 경우가 많이 발생한다는 단점을 가진다. 또한, 무늬가 없는 영역이나 객체에 의해 가려진 폐색(occlusion) 영역에서 좋은 정합 결과를 얻을 수 없다. 전역적 방법은 현재 화소와 주변 화소의 값을 함께 고려하여 영상 전체에 대한 최적화가 이루어지기 때문에 더 정확한 깊이 정보를 얻을 수 있다는 장점을 가지나, 처리 과정 및 계산 과정이 매우 복잡하다는 단점을 가진다.More specifically, there are various methods for stereo matching, and are largely divided into a local method and a global method. The local method has the advantages of simple implementation and fast processing speed, but it has disadvantages that it does not find the correct matching position according to the characteristics of the image. In addition, good matching results can not be obtained in the occlusion region obscured by the non-patterned region or the object. The global method has the advantage that more precise depth information can be obtained because the whole image is optimized considering the values of the current pixel and the surrounding pixels, but the processing and calculation process are complicated.

이하, 스테레오 정합을 수행하는 일반적인 과정에 대해 설명하면 다음과 같다. 먼저 좌우 시점에 대한 두 장의 색상 영상을 선정하고, 색상 영상 내에서 최대 시차(색상 카메라(110)와의 실제 거리가 가장 가까운 객체의 변위 값)와 최소 시차(색상 카메라(110)와의 실제 거리가 가장 먼 객체 혹은 배경의 변위 값)를 구한다. 이 과정은 일반적으로 수동으로 이루어진다. Hereinafter, a general procedure for performing stereo matching will be described. First, two color images for the right and left viewpoints are selected, and the maximum parallax (the displacement value of the object with the closest actual distance to the color camera 110) and the minimum parallax (the actual distance between the color camera 110 and the color camera 110) Distant object or background displacement value). This process is usually done manually.

일 예를 따르면 이렇게 구해진 최대/최소 변위 값을 스테레오 정합 알고리즘에 입력하여, 최소 변위 값부터 최대 변위 값까지를 변위 후보군의 탐색 범위로 결정할 수 있다. 이후, 결정된 탐색 범위를 기초로 색상 영상 내 각 화소에서 가장 적합한 변위 값이 결정되는데, 변위 후보군 중에서 가장 작은 에너지를 가지는 후보가 해당 화소의 변위 값으로 결정될 수 있다. 고정된 카메라 환경 하에서 이러한 방법을 적용하면, 전경은 앞뒤로 움직이더라도 배경은 고정되어있기 때문에, 용이하게 최소/최대 변위 값을 설정할 수 있다. 예를 들어, 최소 변위 값은 고정 값일 수 있고, 최대 변위 값은 실질적으로 큰 변화가 없다. 다만, 전후 방향으로 이동하는 카메라 환경 하에서 이러한 방법을 적용하면, 각 프레임의 최소/최대 변위 값이 지속적으로 변하기 때문에, 섣불리 최소/최대 변위 값을 설정할 수 없다. According to one example, the maximum / minimum displacement values thus obtained can be input to the stereo matching algorithm, and the range from the minimum displacement value to the maximum displacement value can be determined as the search range of the displacement candidate group. Thereafter, the most suitable displacement value is determined for each pixel in the color image based on the determined search range. The candidate having the smallest energy among the displacement candidates may be determined as the displacement value of the corresponding pixel. If this method is applied under a fixed camera environment, since the background is fixed even when the foreground moves back and forth, the minimum / maximum displacement value can be easily set. For example, the minimum displacement value can be a fixed value, and the maximum displacement value does not substantially change significantly. However, if this method is applied under the camera environment moving in the forward and backward direction, the minimum / maximum displacement value of each frame continuously changes, so that the minimum / maximum displacement value can not be set at a reasonable time.

다른 예를 따르면 8비트 변위 맵이 가질 수 있는 가장 작은 값인 0을 최소 변위 값으로 설정하고, 가장 큰 값인 255를 최대 변위 값으로 설정할 수 있다. 즉, 0과 255를 스테레오 정합 알고리즘에 입력하여, 0부터 255까지를 변위 후보군의 탐색 범위로 결정할 수 있다. 이 경우, 계산하는데 소요되는 시간이 길어질 뿐만 아니라 이동하는 카메라 환경에서 정확한 변위 값을 구하기 어렵고 비효율적이다.According to another example, 0, which is the smallest value that the 8-bit displacement map can have, is set as the minimum displacement value, and the largest value 255 can be set as the maximum displacement value. That is, 0 and 255 can be input to the stereo matching algorithm, and the range of 0 to 255 can be determined as the search range of the displacement candidate group. In this case, it takes a long time to calculate, and it is difficult and inefficient to obtain an accurate displacement value in a moving camera environment.

즉, 전후 방향 혹은 기타 방향으로 이동하는 카메라 환경에서 제작된 영상 시퀀스의 경우, 각 프레임 별로 최소/최대 변위 값이 달라지기 때문에, 시간 축 방향으로의 변위를 일관성 있게 유지하기 어려워 깜빡임(flickering) 현상이 발생할 수 있다. 또한, 종래의 변위 맵 생성 알고리즘의 경우, 최소/최대 변위 값을 각 프레임별로 지정하기가 어렵고, 그로 인해 화질의 저하 문제 및 계산 복잡도 상승 문제가 발생할 수 있다. That is, in the case of the image sequence generated in the camera environment moving in the forward or backward direction or the other direction, since the minimum / maximum displacement value changes for each frame, it is difficult to consistently maintain the displacement in the time axis direction. Can occur. In addition, in the case of the conventional displacement map generation algorithm, it is difficult to designate the minimum / maximum displacement value for each frame, thereby causing a problem of lowering the image quality and raising the calculation complexity.

이와 같은 문제점을 해소하기 위하여, 본 발명에서는 깊이 카메라 혹은 Time-of-Flight (TOF) 카메라로부터 획득된 깊이 영상을 활용한다. 도 3은 도 1에 도시된 깊이 카메라로 촬영함에 따라 획득된 깊이 영상의 일 예를 나타내는 도면이다. In order to solve such a problem, the present invention utilizes a depth image obtained from a depth camera or a time-of-flight (TOF) camera. FIG. 3 is a view showing an example of a depth image obtained by photographing with the depth camera shown in FIG. 1. FIG.

깊이 카메라(120)는 광신호를 이용하여 장면의 깊이 정보를 담고 있는 깊이 영상을 획득할 수 있다. 깊이 카메라(120)는 상술한 색상 카메라(110) 부근에 설치될 수 있고, 색상 카메라(110)와 동일한 방향으로 이동하면서 장면(고정 객체, 이동 객체, 배경 등)을 촬영할 수 있다. 깊이 카메라(120)와 상술한 색상 카메라(110)는 실질적으로 동일한 시점의 장면을 촬영할 수 있다. 또한, 깊이 카메라(120)는 전후 방향으로 이동하면서 장면 내 가장 가까운 곳에 대한 깊이 정보 및 가장 먼 곳에 대한 깊이 정보를 포함하는 깊이 영상을 획득할 수 있다. 이렇게 획득된 깊이 영상은 촬영장치(100)가 소정의 방향으로 이동하면서 촬영하는 환경에서 영상 시퀀스 내 각 프레임의 깊이 정보인 변위 맵(disparity map)을 신속하고 정확하게 생성하기 위해 사용된다. The depth camera 120 can acquire a depth image containing depth information of a scene using an optical signal. The depth camera 120 may be installed in the vicinity of the color camera 110 and may take a scene (fixed object, moving object, background, etc.) while moving in the same direction as the color camera 110. The depth camera 120 and the above-described color camera 110 can photograph a scene at substantially the same point in time. Also, the depth camera 120 can acquire a depth image including depth information about the nearest place in the scene and depth information about the farthest place while moving in the back and forth direction. The depth image thus obtained is used to quickly and accurately generate a disparity map, which is depth information of each frame in the video sequence, in an environment in which the photographing apparatus 100 moves while moving in a predetermined direction.

다시 도 1을 참고하면, 촬영장치(100)는 복수의 색상 카메라(110) 및 하나 이상의 깊이 카메라(120)를 고정시키는 구조물(130)을 더 포함할 수 있다. 이때, 구조물(130)은 지면에 설치된 레일(140)을 따라 소정의 방향으로 이동 가능하고, 레일(140) 상에 위치하여 사용자의 의도대로 움직일 수 있다. 예를 들어, 소정의 방향은 전후 방향 또는 좌우 방향을 포함할 수 있다. 1, the photographing apparatus 100 may further include a structure 130 for fixing the plurality of color cameras 110 and the one or more depth cameras 120. [ At this time, the structure 130 is movable in a predetermined direction along the rail 140 installed on the ground, and is positioned on the rail 140 and can move according to the user's intention. For example, the predetermined direction may include a front-back direction or a left-right direction.

도 4a및 도 4b는 도 1에 도시된 촬영장치를 소정의 방향으로 이동시키는 모습의 일 예를 나타내는 도면이다. 도 4a 및 도 4b에 도시된 것처럼 색상 카메라(110) 및 깊이 카메라(120)를 이용하여 일정 장면(A)을 촬영함에 있어서, 사용자는 구조물(130)을 소정의 방향(B)으로 이동시키면서 촬영할 수 있다. 일 예로서, 구조물(130)은 전후 방향으로 설치된 레일(140) 상에서 자유롭게 움직일 수 있다.4A and 4B are views showing an example of a state in which the photographing apparatus shown in FIG. 1 is moved in a predetermined direction. 4A and 4B, in capturing a certain scene A by using the color camera 110 and the depth camera 120, the user moves the structure 130 in a predetermined direction B, . As an example, the structure 130 may be freely movable on a rail 140 installed in the anteroposterior direction.

영상 저작장치(200)는 상술한 촬영장치(100)를 소정의 방향으로 이동시키면서 촬영함에 따라 획득된 색상 영상 및 깊이 영상을 기초로 영상 시퀀스 내 각 프레임의 깊이 정보인 변위 맵을 생성하고, 생성된 변위 맵을 기초로 복수의 프레임을 포함하는 영상을 저작한다. The image authoring apparatus 200 generates a displacement map, which is depth information of each frame in the image sequence, based on the color image and the depth image obtained by photographing while moving the photographing apparatus 100 in a predetermined direction, And writes an image including a plurality of frames on the basis of the displacement map.

특히, 영상 저작장치(200)는 변위 설정부, 함수 생성부 및 변위 계산부를 포함한다. In particular, the video authoring apparatus 200 includes a displacement setting unit, a function generating unit, and a displacement calculating unit.

변위 설정부는 색상 영상을 기초로 영상 시퀀스 내 소정의 프레임에서의 최소 변위 값 및 최대 변위 값을 설정한다. The displacement setting unit sets a minimum displacement value and a maximum displacement value in a predetermined frame in the image sequence based on the color image.

함수 생성부는 설정된 최소 변위 값 및 최대 변위 값을 기초로 계산된 소정의 프레임에서의 실제 깊이 값과, 깊이 영상으로부터 획득된 소정의 프레임에서의 깊이 값 간의 관계를 나타내는 관계 함수를 생성한다. The function generating unit generates a relational function representing a relationship between an actual depth value in a predetermined frame calculated based on the set minimum displacement value and the maximum displacement value and a depth value in a predetermined frame obtained from the depth image.

변위 계산부는 관계 함수를 기초로 영상 시퀀스 내 임의의 프레임에서의 최소 변위 값 및 최대 변위 값을 계산한다. The displacement calculation unit calculates the minimum displacement value and the maximum displacement value in any frame in the video sequence based on the relation function.

이들 각 구성에 대한 자세한 설명은 후술하기로 한다. A detailed description of each of these configurations will be described later.

지금까지 설명한 영상 제작 시스템을 이용하면, 카메라가 이동하는 환경에서도 고품질의 변위 맵을 신속하고 정확하게 계산할 수 있고, 줌인 혹은 줌아웃 효과를 가진 양안식/다시점 영상물을 제작할 수 있다. Using the image production system described above, a high-quality displacement map can be calculated quickly and accurately even in an environment where the camera is moving, and a binocular / multi-point video having a zoom-in or zoom-out effect can be produced.

도 5는 본 발명의 다른 실시예에 따른 영상 제작 시스템에 포함된 각 구성을 나타내는 블록도이다. 본 발명의 다른 실시예에 따른 영상 제작 시스템은, 변위 설정부(210), 함수 생성부(220), 변위 계산부(230) 및 보정부(240)를 포함한다. 5 is a block diagram showing each configuration included in an image production system according to another embodiment of the present invention. The image production system according to another embodiment of the present invention includes a displacement setting unit 210, a function generation unit 220, a displacement calculation unit 230, and a correction unit 240.

이들 구성은 상술한 영상 저작장치(200) 내에서 구현될 수 있고, 이들 구성 중 일부 구성은 영상 저작장치(200) 밖에서 구현될 수 있다. 다만, 이하에서는 설명의 편의를 위하여 이들 구성이 영상 저작장치(200) 내에서 구현되었다고 가정한 후 설명하기로 한다. 그러나 이는 일 예에 불과하므로 이들 구성이 다른 조합이나 일부 변형된 형태를 가지고 아래와 동일하게 동작할 수 있음을 충분히 이해할 수 있을 것이다.These configurations may be implemented in the video authoring apparatus 200 described above, and some of the configurations may be implemented outside the video authoring apparatus 200. Hereinafter, for the sake of convenience of explanation, it is assumed that these configurations are implemented in the video authoring apparatus 200. However, since this is only an example, it will be appreciated that these configurations may operate in the following manner with different combinations or some modified forms.

변위 설정부(210)는 소정의 방향으로 이동시키며 촬영한 복수의 색상 카메라(110)로부터 획득된 색상 영상을 기초로, 영상 시퀀스 내 소정의 프레임에서의 최소 변위 값 및 최대 변위 값을 설정한다. 이때, 색상 카메라(110)는 이동 가능한 구조물(130)에 고정되고, 그 구조물(130)은 지면에 설치된 레일(140)을 따라 전후 방향으로 이동하는 것일 수 있다. The displacement setting unit 210 sets a minimum displacement value and a maximum displacement value in a predetermined frame in the image sequence based on the color image obtained from the plurality of color cameras 110 while moving in a predetermined direction. At this time, the color camera 110 is fixed to the movable structure 130, and the structure 130 may be moved in the front-rear direction along the rail 140 installed on the ground.

도 6은 도 5에 도시된 변위 설정부의 동작을 설명하기 위한 색상 영상의 일 예를 나타내는 도면이다. 6 is a diagram showing an example of a color image for explaining the operation of the displacement setting unit shown in FIG.

구체적으로, 변위 설정부(210)는 소정의 프레임에서의 제 1 영상 내에서 색상 카메라(110)와의 실제 거리가 가장 먼 지점(xL , min) 및 가장 가까운 지점(xL , max)을 결정하고, 소정의 프레임에서의 제 2 영상 내에서 색상 카메라와의 실제 거리가 가장 먼 지점(xR , min) 및 가장 가까운 지점(xR , max)을 결정한다. 여기서, xL , min, xR , min, xL , max, xR , max는 각각의 수평 축 좌표 값이고, 제 1 영상은 좌 시점의 영상이며, 제 2 영상은 우 시점의 영상일 수 있다. 덧붙여, 도 6에 도시된 영상에서 색상 카메라(110)와의 실제 거리가 가장 먼 지점은 배경 부분(C)이고, 실제 거리가 가장 가까운 지점은 인형(D)의 발 부분이다.Specifically, the displacement setting unit 210 determines a point (x L , min ) and a nearest point (x L , max ) that are the farthest from the color camera 110 in the first image in the predetermined frame (X R , min ) and the nearest point (x R , max ) that are the farthest from the color camera in the second image in the predetermined frame. Here, x L , min , x R , min , x L , max , x R , and max are the values of the respective horizontal axes, the first image is the left view image, have. In addition, in the image shown in Fig. 6, the farthest distance from the color camera 110 is the background portion C, and the closest point is the foot portion of the doll D.

또한, 변위 설정부(210)는 제 1 영상 내 가장 먼 지점의 수평축 좌표 값(xL , min)과 제 2 영상 내 가장 먼 지점의 수평축 좌표 값(xR , min) 간의 차이를 통해 하기 수학식 1처럼 소정의 프레임에서의 최소 변위 값(dmin)을 설정할 수 있다. In addition, the displacement setting unit 210 sets the displacement (x R , min ) between the horizontal axis coordinate value (x L , min ) of the furthest point in the first image and the horizontal axis coordinate value The minimum displacement value d min in a predetermined frame can be set as in Equation (1).

Figure pat00001
Figure pat00001

마찬가지로, 변위 설정부(210)는 제 1 영상 내 가장 가까운 지점의 수평축 좌표 값(xL , max)과 제 2 영상 내 가장 가까운 지점의 수평 축 좌표 값(xR , max) 간의 차이를 통해 하기 수학식 2처럼 소정의 프레임에서의 최대 변위 값(dmax)을 설정할 수 있다. Similarly, the displacement setting unit 210 sets the displacement of the first image by the difference between the horizontal axis coordinate value (x L , max ) of the nearest point in the first image and the horizontal axis coordinate value (x R , max ) The maximum displacement value d max in a predetermined frame can be set as in Equation 2. [

Figure pat00002
Figure pat00002

함수 생성부(220)는 변위 설정부(210)에서 설정된 최소 변위 값 및 최대 변위 값을 기초로 계산된 소정의 프레임에서의 실제 깊이 값과, 소정의 방향으로 이동시키며 촬영한 하나 이상의 깊이 카메라(120)로부터 획득된 소정의 프레임에서의 깊이 값 간의 관계를 나타내는 관계 함수를 생성한다. 이때, 깊이 카메라(120)는 색상 카메라(110)와 함께 이동 가능한 구조물(130)에 고정되고, 그 구조물(130)은 지면에 설치된 레일(140)을 따라 전후 방향으로 이동하는 것일 수 있다.The function generation unit 220 generates a function for generating a depth value of a predetermined frame based on the minimum displacement value and the maximum displacement value set by the displacement setting unit 210 and one or more depth cameras 120 in a predetermined frame. At this time, the depth camera 120 is fixed to the structure 130 movable together with the color camera 110, and the structure 130 may be moved in the front-rear direction along the rail 140 installed on the ground.

구체적으로, 함수 생성부(220)는 계산기(221)와 매칭기(222)를 포함할 수 있는데, 도 7을 참고하여 설명한다. 도 7은 도 5에 도시된 함수 생성부에서 생성된 관계 함수의 일 예를 나타내는 그래프이다. Specifically, the function generating unit 220 may include a calculator 221 and a matching unit 222, which will be described with reference to FIG. FIG. 7 is a graph illustrating an example of a relation function generated by the function generator shown in FIG. 5. FIG.

계산기(221)는 서로 시차를 가지는 두 장의 색상 영상에서 성립하는 수학식 3을 활용한다. The calculator 221 utilizes Equation (3) which is established in two color images having a time difference from each other.

Figure pat00003
Figure pat00003

즉, 계산기(221)는 색상 카메라(110)에 대한 정보와, 설정된 최소 변위 값(dmin) 및 최대 변위 값(dmax)을 기초로, 하기 수학식 4 및 5처럼 소정의 프레임에서의 최소 실제 깊이 값(Znear) 및 최대 실제 깊이 값(Zfar)을 계산할 수 있다. 여기서, 색상 카메라(110)에 대한 정보(하드웨어/소프트웨어)는 색상 카메라(110)의 초점 거리(focal length; f라 지칭)와, 제 1 영상과 제 2 영상이 획득된 두 카메라 사이의 간격인 베이스라인(B)을 포함한다.That is, the calculator 221 calculates the minimum (minimum) and maximum (maximum) values of the color camera 110 based on the information about the color camera 110 and the set minimum displacement value d min and the maximum displacement value d max , The actual depth value Z near and the maximum actual depth value Z far can be calculated. Here, the information (hardware / software) about the color camera 110 is information on the focal length (f) of the color camera 110 and the distance between the two cameras on which the first image and the second image are acquired And a baseline (B).

Figure pat00004
Figure pat00004

Figure pat00005
Figure pat00005

매칭기(222)는 깊이 카메라(120)로부터 획득된 소정의 프레임에서의 최대 깊이 값(Dmax) 및 최소 깊이 값(Dmin)을 계산기(221)에서 계산된 최소 실제 깊이 값(Znear) 및 최대 실제 깊이 값(Zfar)과 각각 대응시킨다. 여기서, 깊이 영상 내에서 화소 값이 가장 큰 값이 최대 깊이 값(Dmax)일 수 있고, 화소 값이 가장 작은 값이 최소 깊이 값(Dmin)일 수 있다. 덧붙여, 깊이 카메라(120)의 화소 값(D)은 실제 깊이 값(Z)을 선형적으로 양자화하여 표현한 값이므로, 매칭기(222)는 도 7과 같이 관계 함수를 생성할 수 있다. 도 7에 도시된 것처럼, 실제 깊이 값(Z)과 깊이 값(D) 간의 관계를 나타내는 관계 함수(M)는 대응시킨 결과 값인 (Dmax , Znear)과 (Dmin , Zfar)를 지나면서 음수의 기울기를 가진 선형 함수일 수 있다. The matching unit 222 compares the maximum depth value D max and the minimum depth value D min in a predetermined frame obtained from the depth camera 120 with a minimum actual depth value Z near calculated by the calculator 221. [ And the maximum actual depth value (Z far ), respectively. Here, the largest value of the pixel value in the depth image may be the maximum depth value (D max ), and the minimum value of the pixel value may be the minimum depth value (D min ). In addition, since the pixel value D of the depth camera 120 is a value expressed by linearly quantizing the actual depth value Z, the matching unit 222 can generate a relation function as shown in FIG. As shown in FIG. 7, the relationship function M representing the relationship between the actual depth value Z and the depth value D corresponds to a result value (D max , Z near ) and (D min , Z far ), and can be a linear function with a negative slope.

변위 계산부(230)는 함수 생성부(220)에서 생성된 관계 함수(M)를 기초로 영상 시퀀스 내 임의의 프레임(n)에서의 최소 변위 값(dmin ,n) 및 최대 변위 값(dmax ,n)을 계산한다. 즉, 도 7과 같은 관계 함수(M)에서 변위 계산부(230)는 깊이 카메라(120)로부터 획득된 임의의 깊이 값(Dk)에 대한 실제 깊이 값(Zk)을 계산할 수 있고, 이를 통해 n번째 프레임에서의 최소 변위 값(dmin ,n) 및 최대 변위 값(dmax ,n)을 하기 수학식 6 및 7처럼 계산할 수 있다.A displacement calculating unit 230 is at least the displacement value (d min, n) and the maximum displacement value of the function generator a relationship function (M), any frame (n) within the video sequence based on the generated from the (220) (d max , n ). 7, the displacement calculation unit 230 can calculate the actual depth value Z k for an arbitrary depth value D k obtained from the depth camera 120, over at least the displacement value in the n-th frame (d min, n) and the maximum displacement value to the (d max, n) can be calculated as equation 6 and 7.

Figure pat00006
Figure pat00006

Figure pat00007
Figure pat00007

아울러, 보정부(240)는 상술한 변위 계산부(230)에 의해 계산된 임의의 프레임에서의 최소 변위 값(dmin ,n) 및 최대 변위 값(dmax ,n)에 대하여 오프셋을 추가하여 보정할 수 있다. 즉, 스테레오 정합에 적용하기 전에 보정부(240)는 최소 변위 값(dmin ,n) 및 최대 변위 값(dmax ,n)의 정수화와 함께 정합 실패 방지 및 발생 가능한 오차 방지를 위한 오프셋 k를 추가하여 최종 최소 변위 값(d'min ,n) 및 최종 최대 변위 값(d'max ,n)을 얻을 수 있다. 최종 최소 변위 값(d'min ,n)은 수학식 8처럼 최소 변위 값(dmin ,n)에 대해 내림 처리한 후 음의 오프셋을 추가한 결과 값일 수 있고, 최종 최대 변위 값(d'max ,n)은 최대 변위 값(dmax , n)에 대해 올림 처리한 후 양의 오프셋을 추가한 결과 값일 수 있다.The correction unit 240 adds an offset to the minimum displacement value d min , n and the maximum displacement value d max , n in an arbitrary frame calculated by the displacement calculation unit 230 Can be corrected. That is, before applying to the stereo matching, the correcting unit 240 corrects the offset k for preventing the matching failure and preventing the error from occurring, together with the integerization of the minimum displacement value d min , n and the maximum displacement value d max , n The final minimum displacement value d ' min , n and the final maximum displacement value d' max , n can be obtained. The final minimum displacement value d ' min , n may be a result obtained by adding a negative offset to the minimum displacement value d min , n as shown in Equation 8, and the final maximum displacement value d' max , n ) may be a result of adding a positive offset after the rounding process for the maximum displacement value d max , n .

이때, 최소 변위 값(dmin ,n)에 대해 내림 처리하는 것은 그 숫자보다 작은 최대의 정수 값을 의미할 수 있고, 최대 변위 값(dmax ,n)에 대해 올림 처리하는 것은 그 숫자보다 큰 최소의 정수 값을 의미할 수 있다. 이는 오프셋을 추가하는 것과 동일한 원리로서, 최종 최소 변위 값(d'min ,n)의 경우 작은 값을 취하고, 최종 최대 변위 값(d'max ,n)의 경우 큰 값을 취할수록 변위 맵의 정확도를 향상시킬 수 있기 때문이다. At this time, the step of performing the descending process on the minimum displacement value d min , n may mean the maximum integer value smaller than the number, and the step of performing the up-processing on the maximum displacement value d max , It can mean the minimum integer value. This is the same principle as adding the offset, taking a smaller value for the final minimum displacement value (d ' min , n ), and taking the larger value for the final maximum displacement value (d' max , n ) Can be improved.

Figure pat00008
Figure pat00008

Figure pat00009
Figure pat00009

최종 최소 변위 값(d'min ,n)과 최종 최대 변위 값(d'max ,n)을 통해 영상 시퀀스 내 각 프레임의 변위 맵이 신속하고 정확하게 생성될 수 있고, 그로 인해 배경 부분의 깜빡임(flickering) 현상을 감소시킬 수 있다. 또한, 잘못된 변위 값을 찾는 현상이 현저하게 줄어들어, 이동하면서 촬영하는 카메라 환경 하에서도 효율적으로 변위 맵을 생성할 수 있다. The displacement map of each frame in the image sequence can be generated quickly and accurately through the final minimum displacement value d ' min , n and the final maximum displacement value d' max , n , ) Phenomenon can be reduced. In addition, the phenomenon of finding an erroneous displacement value is remarkably reduced, and a displacement map can be efficiently generated even in a camera environment in which a moving image is taken.

이처럼 본 발명에서 제안되는 영상 제작 시스템은 변위 계산부(230)의 계산 결과 또는 보정부(240)의 보정 결과를 기초로 생성된 영상 시퀀스 내 각 프레임의 깊이 정보인 변위 맵(disparity map)을 이용하여 고품질의 다시점/양안식 영상을 제작할 수 있다. As described above, the image production system proposed in the present invention uses a disparity map, which is depth information of each frame in a video sequence generated based on the calculation result of the displacement calculation unit 230 or the correction result of the correction unit 240 So that high-quality multi-view / binocular images can be produced.

한편, 본 발명의 일 실시예에 따른 영상 시퀀스 내 각 프레임의 깊이 정보인 변위 맵(disparity map)을 생성하는 방법에 대해 도 8을 참고하여 설명하기로 한다. 도 8은 본 발명의 일 실시예에 따른 변위 맵 생성방법을 설명하기 위한 순서도이다. 이를 위하여 이미 상술한 영상 제작 시스템을 활용할 수 있지만, 이에 한정되는 것은 아니다. 다만, 설명의 편의를 위해 영상 제작 시스템을 활용하여 변위 맵을 생성하는 방법에 대해 설명하기로 한다. A method of generating a disparity map, which is depth information of each frame in a video sequence according to an embodiment of the present invention, will be described with reference to FIG. 8 is a flowchart illustrating a method of generating a displacement map according to an embodiment of the present invention. For this purpose, the above-described image production system may be utilized, but is not limited thereto. However, for convenience of explanation, a method of generating a displacement map using the image production system will be described.

우선, 소정의 방향으로 복수의 색상 카메라(110) 및 깊이 카메라(120)를 이동시키며 촬영한다(S810). 이들 카메라는 구조물(130)에 고정된 상태일 수 있고, 구조물(130)은 지면에 설치된 레일(140)을 따라 전후 방향으로 이동할 수 있다. First, a plurality of color cameras 110 and depth cameras 120 are moved and photographed in a predetermined direction (S810). These cameras may be fixed to the structure 130, and the structure 130 may move in the front-rear direction along the rails 140 installed on the ground.

이어서, 소정의 방향으로 이동시키며 촬영한 복수의 색상 카메라(110)로부터 획득된 색상 영상을 기초로, 영상 제작 시스템은 영상 시퀀스 내 소정의 프레임에서의 최소 변위 값 및 최대 변위 값을 설정한다(S820).Subsequently, based on the color image obtained from the plurality of color cameras 110 photographed while moving in a predetermined direction, the image production system sets the minimum displacement value and the maximum displacement value in a predetermined frame in the image sequence (S820 ).

이러한 설정하는 단계(S820)는 제 1 결정 단계와 제 2 결정 단계를 포함할 수 있다. 구체적으로, 제 1 결정 단계는 소정의 프레임에서의 제 1 영상 내에서 색상 카메라(110)와의 실제 거리가 가장 먼 지점(xL , min) 및 가장 가까운 지점(xL , max)을 결정하는 과정일 수 있고, 제 2 결정 단계는 소정의 프레임에서의 제 2 영상 내에서 색상 카메라(110)와의 실제 거리가 가장 먼 지점(xR , min) 및 가장 가까운 지점(xR , max)을 결정하는 과정일 수 있다. 이때, 제 1 결정 단계에서 결정된 가장 먼 지점의 수평축 좌표 값(xL , min)과 제 2 결정 단계에서 결정된 가장 먼 지점의 수평축 좌표 값(xR , min) 간의 차이를 통해 소정의 프레임에서의 최소 변위 값(dmin)이 수학식 1처럼 설정될 수 있다. 또한, 제 1 결정 단계에서 결정된 가장 가까운 지점의 수평축 좌표 값(xL , max)과 제 2 결정 단계에서 결정된 가장 가까운 지점의 수평 축 좌표 값(xR , max) 간의 차이를 통해 소정의 프레임에서의 최대 변위 값(dmax)이 수학식 2처럼 설정될 수 있다. This setting step S820 may include a first determining step and a second determining step. Specifically, the first determination step is a step of determining a point (x L , min ) and a nearest point (x L , max ) that are the farthest from the color camera 110 in the first image in the predetermined frame, , And the second determining step determines a point (x R , min ) and a nearest point (x R , max ) that are the farthest from the color camera 110 in the second image in the given frame Process. At this time, the difference between the horizontal axis coordinate value (x L , min ) of the farthest point determined in the first determination step and the horizontal axis coordinate value (x R , min ) The minimum displacement value d min can be set as shown in Equation (1). The difference between the horizontal axis coordinate value (x L , max ) of the closest point determined in the first determination step and the horizontal axis coordinate value (x R , max ) of the closest point determined in the second determination step is is the maximum displacement value (d max) may be set like the following expression (2).

계속해서, 영상 제작 시스템은 설정된 최소 변위 값 및 최대 변위 값을 기초로 계산된 소정의 프레임에서의 실제 깊이 값과, 소정의 방향으로 이동시키며 촬영한 하나 이상의 깊이 카메라(120)로부터 획득된 소정의 프레임에서의 깊이 값 간의 관계를 나타내는 관계 함수를 도 7처럼 생성한다(S830).Subsequently, the image production system compares the actual depth value in the predetermined frame calculated on the basis of the set minimum displacement value and the maximum displacement value with the actual depth value in the predetermined frame obtained from one or more depth cameras 120 A relation function indicating the relationship between depth values in the frame is generated as shown in FIG. 7 (S830).

이러한 생성하는 단계(S830)는 계산하는 단계와 대응시키는 단계를 포함할 수 있다. 구체적으로, 계산하는 단계는 색상 카메라(110)에 대한 정보 (하드웨어/소프트웨어)와, 설정하는 단계(S820)에서 설정된 최소 변위 값(dmin) 및 최대 변위 값(dmax)을 기초로 소정의 프레임에서의 최소 실제 깊이 값(Znear) 및 최대 실제 깊이 값(Zfar)을 계산하는 과정일 수 있다. 또한, 대응시키는 단계는 깊이 카메라(120)로부터 획득된 소정의 프레임에서의 최대 깊이 값(Dmax) 및 최소 깊이 값(Dmin)을 계산된 최소 실제 깊이 값(Znear) 및 최대 실제 깊이 값(Zfar)과 각각 대응시키는 과정일 수 있다. 이렇게 대응시키는 단계에서 대응된 값을 기초로 음수의 기울기를 가진 선형 관계 함수가 생성될 수 있다. The generating step S830 may include a step of calculating and corresponding to the step S830. Specifically, the calculating step calculates a predetermined displacement d min based on the information (hardware / software) of the color camera 110 and the minimum displacement value d min and the maximum displacement value d max set in the setting step S820 And calculating the minimum actual depth value Z near and the maximum actual depth value Z far in the frame. In addition, the step of mapping corresponds to calculating a maximum depth value D max and a minimum depth value D min in a predetermined frame obtained from the depth camera 120 to a calculated minimum actual depth value Z near and a maximum actual depth value (Z far ), respectively. In this matching step, a linear relationship function with a negative slope can be generated based on the corresponding value.

영상 제작 시스템은 생성하는 단계(S830)에서 생성된 관계 함수를 기초로 영상 시퀀스 내 임의의 프레임에서의 최소 변위 값(dmin ,n) 및 최대 변위 값(dmax ,n)을 하기 수학식 6 및 7처럼 계산한다(S840).(D min , n ) and a maximum displacement value (d max , n ) in an arbitrary frame in an image sequence based on the relational function generated in the creating step S 830 are expressed by Equation And 7 (S840).

아울러, 영상 제작 시스템은 임의의 프레임에서의 최소 변위 값(dmin ,n)에 대해 내림 처리한 후 음의 오프셋을 추가하고, 임의의 프레임에서의 최대 변위 값(dmax ,n)에 대해 올림 처리한 후 양의 오프셋을 추가하여 보정하는 동작을 수행할 수 있다(S850).In addition, the image production system adds a negative offset to the minimum displacement value (d min , n ) in an arbitrary frame, rounds down the maximum displacement value (d max , n ) After the processing, a positive offset may be added and corrected (S850).

한편, 도 9 내지 도 11은 본 발명에서 제안한 기술과 종래 기술을 적용시킨 경우의 변위 값 차이를 나타내는 도면이다. 도 9의 경우 카메라와 피촬영 대상 간의 거리가 가장 멀고, 도 11의 경우 카메라와 피촬영 대상 간의 거리가 가장 가깝다. 즉, 총 200 프레임 동안 점차적으로 전진하면서 촬영이 이루어진 것을 알 수 있다. 9 to 11 are views showing the difference in displacement value when the technique proposed in the present invention and the conventional technique are applied. In the case of FIG. 9, the distance between the camera and the object to be imaged is the longest, and in FIG. 11, the distance between the camera and the object to be imaged is closest. That is, it can be seen that the photographing was performed while gradually advancing for a total of 200 frames.

종래 기술의 경우 변위 후보군의 탐색범위가 일괄적으로 결정되어, 모든 프레임에서 탐색범위는 40~88인 것을 확인할 수 있다. 이에 반해, 본 발명에서 제안된 기술의 경우 변위 후보군의 탐색범위가 각 프레임 별로 결정되어, 각 프레임에서 탐색범위는 서로 다른 최소 변위 값 및 최대 변위 값을 경계 값으로 하는 것을 확인할 수 있다. In the prior art, the search range of the displacement candidate group is collectively determined, and it can be confirmed that the search range is 40 to 88 in all the frames. On the other hand, in the case of the technique proposed in the present invention, the search range of the displacement candidate group is determined for each frame, and it can be confirmed that the minimum displacement value and the maximum displacement value are different from each other in the search range in each frame.

종래 기술의 경우 카메라를 이동하면서 촬영하는 환경 하에서 배경 부분의 값이 부정확한 상태인 것을 확인할 수 있다. 이에 반해, 본 발명의 경우 카메라를 이동하면서 촬영하는 환경 하에서도 상당한 정확도를 보이고, 시간 축으로 깜박임(flickering) 현상을 효율적으로 감소시킬 수 있다. 이를 통해 보다 정확한 값을 기초로 스테레오 정합을 수행할 수 있다. It can be confirmed that the value of the background portion is in an incorrect state under the environment in which the camera is moved while shooting in the related art. On the other hand, according to the present invention, a considerable accuracy is exhibited even in an environment in which a camera is photographed while moving, and flickering on a time axis can be efficiently reduced. This allows for stereo matching based on more accurate values.

지금까지 설명한 것처럼, 본 발명에서 제안하는 변위 맵 생성방법을 활용하면, 영상 시퀀스 내 각 프레임의 변위 맵을 신속하고 정확하게 생성할 수 있고, 그로 인해 배경 부분의 깜빡임(flickering) 현상을 감소시킬 수 있다. 또한, 잘못된 변위 값을 찾는 현상이 현저하게 줄어들어, 이동하면서 촬영하는 카메라 환경 하에서도 효율적으로 변위 맵을 생성할 수 있다. As described above, by utilizing the displacement map generating method proposed in the present invention, it is possible to quickly and accurately generate the displacement map of each frame in the video sequence, thereby reducing the flickering of the background portion . In addition, the phenomenon of finding an erroneous displacement value is remarkably reduced, and a displacement map can be efficiently generated even in a camera environment in which a moving image is taken.

한편, 도 5에서 도시된 각각의 구성요소는 일종의 '모듈'로 구성될 수 있다. 상기 '모듈'은 소프트웨어 또는 Field Programmable Gate Array(FPGA) 또는 주문형 반도체(ASIC, Application Specific Integrated Circuit)과 같은 하드웨어 구성요소를 의미하며, 모듈은 어떤 역할들을 수행한다. 그렇지만 모듈은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. 모듈은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 실행시키도록 구성될 수도 있다. 구성요소들과 모듈들에서 제공되는 기능은 더 작은 수의 구성요소들 및 모듈들로 결합되거나 추가적인 구성요소들과 모듈들로 더 분리될 수 있다.Meanwhile, each component shown in FIG. 5 may be configured as a 'module'. The term 'module' refers to a hardware component such as software or a Field Programmable Gate Array (FPGA) or an Application Specific Integrated Circuit (ASIC), and the module performs certain roles. However, a module is not limited to software or hardware. A module may be configured to reside on an addressable storage medium and may be configured to execute one or more processors. The functionality provided by the components and modules may be combined into a smaller number of components and modules or further separated into additional components and modules.

본 발명의 장치 및 방법은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다. While the apparatus and method of the present invention has been described in connection with specific embodiments, some or all of those elements or operations may be implemented using a computer system having a general purpose hardware architecture.

아울러, 본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.In addition, an embodiment of the present invention may also be embodied in the form of a recording medium including instructions executable by a computer, such as program modules, being executed by a computer. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, the computer-readable medium may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes any information delivery media, including computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transport mechanism.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

100: 변위 맵 생성장치 110: 색상 카메라
120: 깊이 카메라 130: 구조물
200: 영상 저작장치
100: displacement map generating device 110: color camera
120: depth camera 130: structure
200: Video production device

Claims (11)

영상 제작 시스템에 있어서,
소정의 방향으로 이동시키며 촬영한 복수의 색상 카메라로부터 획득된 색상 영상을 기초로 영상 시퀀스 내 소정의 프레임에서의 최소 변위 값 및 최대 변위 값을 설정하는 변위 설정부;
상기 설정된 최소 변위 값 및 최대 변위 값을 기초로 계산된 상기 소정의 프레임에서의 실제 깊이 값과, 상기 소정의 방향으로 이동시키며 촬영한 하나 이상의 깊이 카메라로부터 획득된 상기 소정의 프레임에서의 깊이 값 간의 관계를 나타내는 관계 함수를 생성하는 함수 생성부; 및
상기 관계 함수를 기초로 상기 영상 시퀀스 내 임의의 프레임에서의 최소 변위 값 및 최대 변위 값을 계산하는 변위 계산부를 포함하고,
상기 변위 계산부의 계산 결과를 기초로 생성된 상기 영상 시퀀스 내 각 프레임의 깊이 정보인 변위 맵(disparity map)을 이용하여 영상을 제작하는
영상 제작 시스템.
In a video production system,
A displacement setting unit for setting a minimum displacement value and a maximum displacement value in a predetermined frame in a video sequence based on a color image acquired from a plurality of color cameras photographed while moving in a predetermined direction;
A difference between an actual depth value in the predetermined frame calculated on the basis of the set minimum displacement value and the maximum displacement value and a depth value in the predetermined frame obtained from one or more depth cameras photographed while moving in the predetermined direction A function generating unit for generating a relational function representing a relation; And
And a displacement calculator calculating a minimum displacement value and a maximum displacement value in any frame in the image sequence based on the relational function,
And generates an image using a disparity map which is depth information of each frame in the video sequence generated based on the calculation result of the displacement calculation unit
Image production system.
제 1 항에 있어서,
상기 색상 카메라 및 상기 깊이 카메라는 이동 가능한 구조물에 고정되고, 상기 구조물은 지면에 설치된 레일을 따라 전후 방향으로 이동하는 것인, 영상 제작 시스템.
The method according to claim 1,
Wherein the color camera and the depth camera are fixed to a movable structure, the structure moving back and forth along a rail installed on the ground.
제 1 항에 있어서, 상기 함수 생성부는
상기 색상 카메라에 대한 정보와, 상기 설정된 최소 변위 값 및 최대 변위 값을 기초로 상기 소정의 프레임에서의 최소 실제 깊이 값 및 최대 실제 깊이 값을 계산하는 계산기; 및
상기 깊이 카메라로부터 획득된 상기 소정의 프레임에서의 최대 깊이 값 및 최소 깊이 값을 상기 계산된 최소 실제 깊이 값 및 최대 실제 깊이 값과 각각 대응시키는 매칭기를 포함하고,
상기 관계 함수는 상기 매칭기에 의해 대응시킨 결과 값을 기초로 선형이면서 음수의 기울기를 가지도록 생성되는 것인, 영상 제작 시스템.
2. The apparatus of claim 1, wherein the function generator
A calculator for calculating a minimum actual depth value and a maximum actual depth value in the predetermined frame based on the information about the color camera and the set minimum displacement value and maximum displacement value; And
And a matching unit which associates the maximum depth value and the minimum depth value in the predetermined frame obtained from the depth camera with the calculated minimum actual depth value and the maximum actual depth value, respectively,
Wherein the relational function is generated so as to have a linear and negative slope based on the resultant value corresponding to by the matching unit.
제 1 항에 있어서,
상기 변위 계산부에 의해 계산된 상기 임의의 프레임에서의 최소 변위 값 및 최대 변위 값에 대하여 오프셋을 추가하여 보정하는 보정부를 더 포함하는, 영상 제작 시스템.
The method according to claim 1,
And a correction unit for adding and correcting an offset with respect to a minimum displacement value and a maximum displacement value in the arbitrary frame calculated by the displacement calculation unit.
영상 제작 시스템에 있어서,
소정의 방향으로 이동시키면서 촬영이 가능하도록 설치된 복수의 색상 카메라 및 하나 이상의 깊이 카메라를 포함하는 촬영장치;
상기 촬영장치를 상기 소정의 방향으로 이동시키면서 촬영함에 따라 획득된 색상 영상 및 깊이 영상을 기초로 영상 시퀀스 내 각 프레임의 깊이 정보인 변위 맵(disparity map)을 생성하고, 상기 생성된 변위 맵을 기초로 복수의 프레임을 포함하는 영상을 저작하는 영상 저작장치를 포함하고,
상기 영상 저작장치는
상기 색상 영상을 기초로 상기 영상 시퀀스 내 소정의 프레임에서의 최소 변위 값 및 최대 변위 값을 설정하는 변위 설정부;
상기 설정된 최소 변위 값 및 최대 변위 값을 기초로 계산된 상기 소정의 프레임에서의 실제 깊이 값과, 상기 깊이 영상으로부터 획득된 상기 소정의 프레임에서의 깊이 값 간의 관계를 나타내는 관계 함수를 생성하는 함수 생성부; 및
상기 관계 함수를 기초로 상기 영상 시퀀스 내 임의의 프레임에서의 최소 변위 값 및 최대 변위 값을 계산하는 변위 계산부를 포함하는
영상 제작 시스템.
In a video production system,
A photographing apparatus including a plurality of color cameras and at least one depth camera provided so as to be photographable while being moved in a predetermined direction;
A disparity map, which is depth information of each frame in the video sequence, is generated based on the color image and the depth image obtained by photographing while moving the photographing apparatus in the predetermined direction, and based on the generated displacement map, And an image authoring device for authoring an image including a plurality of frames,
The video authoring device
A displacement setting unit that sets a minimum displacement value and a maximum displacement value in a predetermined frame in the image sequence based on the color image;
Generating a function that represents a relationship between an actual depth value in the predetermined frame calculated based on the set minimum displacement value and the maximum displacement value and a depth value in the predetermined frame obtained from the depth image, part; And
And a displacement calculator for calculating a minimum displacement value and a maximum displacement value in any frame in the image sequence based on the relational function
Image production system.
제 5 항에 있어서, 상기 촬영장치는 상기 색상 카메라 및 상기 깊이 카메라를 고정시키는 구조물을 더 포함하고,
상기 구조물은 지면에 설치된 레일을 따라 전후 방향으로 이동 가능한 것인, 영상 제작 시스템.
6. The apparatus of claim 5, wherein the photographing apparatus further comprises a structure for fixing the color camera and the depth camera,
Wherein the structure is movable back and forth along a rail provided on the ground.
영상 시퀀스 내 각 프레임의 깊이 정보인 변위 맵(disparity map)을 생성하는 방법에 있어서,
소정의 방향으로 이동시키며 촬영한 복수의 색상 카메라로부터 획득된 색상 영상을 기초로 상기 영상 시퀀스 내 소정의 프레임에서의 최소 변위 값 및 최대 변위 값을 설정하는 단계;
상기 설정된 최소 변위 값 및 최대 변위 값을 기초로 계산된 상기 소정의 프레임에서의 실제 깊이 값과, 상기 소정의 방향으로 이동시키며 촬영한 하나 이상의 깊이 카메라로부터 획득된 상기 소정의 프레임에서의 깊이 값 간의 관계를 나타내는 관계 함수를 생성하는 단계; 및
상기 관계 함수를 기초로 상기 영상 시퀀스 내 임의의 프레임에서의 최소 변위 값 및 최대 변위 값을 계산하는 단계를 포함하는
변위 맵 생성방법.
A method of generating a disparity map, which is depth information of each frame in a video sequence,
Setting a minimum displacement value and a maximum displacement value in a predetermined frame in the image sequence based on a color image obtained from a plurality of color cameras photographed while moving in a predetermined direction;
A difference between an actual depth value in the predetermined frame calculated on the basis of the set minimum displacement value and the maximum displacement value and a depth value in the predetermined frame obtained from one or more depth cameras photographed while moving in the predetermined direction Generating a relation function indicating a relationship; And
And calculating a minimum displacement value and a maximum displacement value in any frame in the video sequence based on the relational function
Displacement map generation method.
제 7 항에 있어서, 상기 설정하는 단계는
상기 소정의 프레임에서의 제 1 영상 내에서 상기 색상 카메라와의 실제 거리가 가장 먼 지점 및 가장 가까운 지점을 결정하는 제 1 결정 단계; 및
상기 소정의 프레임에서의 제 2 영상 내에서 상기 색상 카메라와의 실제 거리가 가장 먼 지점 및 가장 가까운 지점을 결정하는 제 2 결정 단계를 포함하고,
상기 제 1 결정 단계에서 결정된 가장 먼 지점의 수평축 좌표 값과 상기 제 2 결정 단계에서 결정된 가장 먼 지점의 수평축 좌표 값 간의 차이를 통해 상기 소정의 프레임에서의 최소 변위 값을 설정하고,
상기 제 1 결정 단계에서 결정된 가장 가까운 지점의 수평축 좌표 값과 상기 제 2 결정 단계에서 결정된 가장 가까운 지점의 수평 축 좌표 값 간의 차이를 통해 상기 소정의 프레임에서의 최대 변위 값을 설정하는, 변위 맵 생성방법.
8. The method of claim 7, wherein the setting comprises:
A first determining step of determining, in a first image in the predetermined frame, a point which is the farthest from an actual distance from the color camera and a closest point; And
And a second determining step of determining a point which is the farthest from the actual camera and the closest point in the second image in the predetermined frame,
Setting a minimum displacement value in the predetermined frame through a difference between the horizontal axis coordinate value of the furthest point determined in the first determination step and the horizontal axis coordinate value of the furthest point determined in the second determination step,
And a maximum displacement value in the predetermined frame is set through a difference between a horizontal axis coordinate value of the closest point determined in the first determination step and a horizontal axis coordinate value of the closest point determined in the second determination step, Way.
제 7 항에 있어서, 상기 생성하는 단계는
상기 색상 카메라에 대한 정보와, 상기 설정된 최소 변위 값 및 최대 변위 값을 기초로 상기 소정의 프레임에서의 최소 실제 깊이 값 및 최대 실제 깊이 값을 계산하는 단계; 및
상기 깊이 카메라로부터 획득된 상기 소정의 프레임에서의 최대 깊이 값 및 최소 깊이 값을 상기 계산된 최소 실제 깊이 값 및 최대 실제 깊이 값과 각각 대응시키는 단계를 포함하고,
상기 대응시키는 단계에서 대응된 값을 기초로 음수의 기울기를 가진 선형 관계 함수를 생성하는, 변위 맵 생성방법.
8. The method of claim 7, wherein the generating comprises:
Calculating a minimum actual depth value and a maximum actual depth value in the predetermined frame based on the information about the color camera and the set minimum displacement value and maximum displacement value; And
And associating the maximum depth value and the minimum depth value in the predetermined frame obtained from the depth camera with the calculated minimum actual depth value and the maximum actual depth value, respectively,
And generating a linear relationship function having a negative slope based on the corresponding value in the matching step.
제 7 항에 있어서,
상기 임의의 프레임에서의 최소 변위 값에 대해 내림 처리한 후 음의 오프셋을 추가하고, 상기 임의의 프레임에서의 최대 변위 값에 대해 올림 처리한 후 양의 오프셋을 추가하여 보정하는 단계를 더 포함하는, 변위 맵 생성방법.
8. The method of claim 7,
Further comprising the step of adding a negative offset after rounding off the minimum displacement value in the arbitrary frame and adding a positive offset after rounding up the maximum displacement value in the arbitrary frame , A displacement map generation method.
청구항 7 내지 청구항 10 중 어느 한 항에 기재된 방법의 각 단계를 컴퓨터 상에서 수행하기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체.A computer-readable recording medium recording a program for performing each step of the method according to any one of claims 7 to 10 on a computer.
KR1020130033373A 2013-03-28 2013-03-28 System for producing image or video and method for generating disparity map KR20140118091A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130033373A KR20140118091A (en) 2013-03-28 2013-03-28 System for producing image or video and method for generating disparity map

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130033373A KR20140118091A (en) 2013-03-28 2013-03-28 System for producing image or video and method for generating disparity map

Publications (1)

Publication Number Publication Date
KR20140118091A true KR20140118091A (en) 2014-10-08

Family

ID=51990999

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130033373A KR20140118091A (en) 2013-03-28 2013-03-28 System for producing image or video and method for generating disparity map

Country Status (1)

Country Link
KR (1) KR20140118091A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104980729A (en) * 2015-07-14 2015-10-14 上海玮舟微电子科技有限公司 Disparity map generation method and system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104980729A (en) * 2015-07-14 2015-10-14 上海玮舟微电子科技有限公司 Disparity map generation method and system

Similar Documents

Publication Publication Date Title
JP5561781B2 (en) Method and system for converting 2D image data into stereoscopic image data
JP5153940B2 (en) System and method for image depth extraction using motion compensation
US10789765B2 (en) Three-dimensional reconstruction method
KR100776649B1 (en) A depth information-based Stereo/Multi-view Stereo Image Matching Apparatus and Method
US8063930B2 (en) Automatic conversion from monoscopic video to stereoscopic video
CN102986233B (en) Image imaging device
US10586378B2 (en) Stabilizing image sequences based on camera rotation and focal length parameters
WO2012061549A2 (en) Methods, systems, and computer program products for creating three-dimensional video sequences
CN107545586B (en) Depth obtaining method and system based on light field polar line plane image local part
JP7184748B2 (en) A method for generating layered depth data for a scene
JP6300346B2 (en) IP stereoscopic image estimation apparatus and program thereof
CN113711276A (en) Scale-aware monocular positioning and mapping
US20140192163A1 (en) Image pickup apparatus and integrated circuit therefor, image pickup method, image pickup program, and image pickup system
Tang et al. A universal optical flow based real-time low-latency omnidirectional stereo video system
WO2020183710A1 (en) Image processing device and three-dimensional measuring system
KR20140118083A (en) System for producing stereo-scopic image or video and method for acquiring depth information
KR20120093751A (en) Apparatus and method of eye contact using compositing image of front image view
KR101634225B1 (en) Device and Method for Multi-view image Calibration
KR20140118091A (en) System for producing image or video and method for generating disparity map
CN104463958A (en) Three-dimensional super-resolution method based on disparity map fusing
CN109379577B (en) Video generation method, device and equipment of virtual viewpoint
KR20120062477A (en) Method and apparatus for generating multi-view depth map
KR20170077331A (en) Arbitrary View Image Generation Method and System
CN114494612A (en) Method, device and equipment for constructing point cloud map
Kang et al. Generation of multi-view images using stereo and time-of-flight depth cameras

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid