KR101843018B1 - System and Method for Video Composition - Google Patents

System and Method for Video Composition Download PDF

Info

Publication number
KR101843018B1
KR101843018B1 KR1020160171469A KR20160171469A KR101843018B1 KR 101843018 B1 KR101843018 B1 KR 101843018B1 KR 1020160171469 A KR1020160171469 A KR 1020160171469A KR 20160171469 A KR20160171469 A KR 20160171469A KR 101843018 B1 KR101843018 B1 KR 101843018B1
Authority
KR
South Korea
Prior art keywords
image
background
projection plane
foreground object
background projection
Prior art date
Application number
KR1020160171469A
Other languages
Korean (ko)
Inventor
김범종
이완구
김정호
최인규
Original Assignee
(주)잼투고
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)잼투고 filed Critical (주)잼투고
Priority to KR1020160171469A priority Critical patent/KR101843018B1/en
Priority to PCT/KR2017/014659 priority patent/WO2018110978A1/en
Application granted granted Critical
Publication of KR101843018B1 publication Critical patent/KR101843018B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)

Abstract

The present invention relates to a system and a method for composing an image, which reduce costs for producing a composite image. The image composing system according to the present invention comprises: a background image input part receiving a 2D background image; a foreground object image input part receiving a 2D foreground object image; a modeling part forming a first background projection surface which has a height and has a center part of a concave curved surface in a virtual space, projecting at least a part of the 2D background image on the first background projection surface at a virtual projection point on the virtual space, and locating the 2D foreground object image between the virtual projection point on the virtual space and the first background projection surface; and a composite image generation part generating the composite image including at least a part of the 2D background image and at least a part of the 2D foreground object image at an angle of view of a virtual camera located in the virtual space.

Description

영상합성 시스템 및 영상합성방법{System and Method for Video Composition}Technical Field [0001] The present invention relates to a video synthesis system,

본 발명은 영상합성 시스템 및 영상합성방법에 관한 것으로, 보다 상세하게는 카메라 시점의 변화에 따라 배경영상과 전경영상이 자연스럽게 합성될 수 있는 영상합성 시스템 및 영상합성방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image synthesis system and an image synthesis method, and more particularly, to an image synthesis system and an image synthesis method capable of naturally synthesizing a background image and a foreground image according to a change in camera viewpoint.

영상촬영기술 및 영상편집기술의 발전에 따라 실세계 카메라로 촬영된 인물 등의 전경영상과 야외풍경 등의 배경영상을 합성하는 배경합성방법이 널리 사용되고 있다. 특히 그린스크린 등을 이용한 크로마키 합성기법, 영상의 깊이 측정에 의한 배경분리 기법, 영상편집 소프트웨어의 보급 등으로 인해 배경합성에 소요되는 비용, 인력, 시간이 현저히 저감하게 되어 영화나 TV 프로그램과 같은 전문가가 제작하는 PGC(Professionally Generated Content) 뿐 아니라 일반 사용자가 제작하는 UGC(User Generated Content)에서도 배경합성기법이 사용되고 있다.BACKGROUND ART [0002] A background synthesis method for synthesizing a foreground image such as a person photographed by a real-world camera and a background image such as an outdoor landscape in accordance with the development of image capturing technology and image editing technology is widely used. In particular, chroma key synthesis method using green screen, background separation technique by depth measurement of image, spread of image editing software, and the like, the cost, manpower and time required for background synthesis are remarkably reduced, In addition to Professionally Generated Content (PGC) produced by experts, background synthesis techniques are also used in UGC (User Generated Content) produced by general users.

한편 배경합성은 고정된 화각의 2D 전경영상과 고정된 화각의 2D 배경영상을 평면적으로 합성하여 고정된 화각의 합성영상을 생성하는 것이 일반적이다. 고정된 2D 배경영상에 카메라 패닝 또는 카메라 무빙 등의 카메라 워크가 적용된 전경영상을 합성하면 합성영상에서 위화감이 발생하기 때문에 평면적인 영상합법 기법으로느 단조로운 구도의 합성영상만 제작할 수 있는 한계가 있었다.On the other hand, in the background synthesis, it is general to generate a composite image of a fixed angle of view by synthesizing a 2D foreground image of a fixed angle of view and a 2D background image of a fixed angle of view in a planar manner. There is a limitation in that a synthesized image of a monotonous composition can be produced only by a flat image matching technique because there is an uncomfortable feeling in a synthesized image when synthesizing a foreground image using a camera work such as a camera panning or a camera moving to a fixed 2D background image.

FUJINON CORP의 일본등록특허 제4140006호 “합성 화상 생성용 촬영 시스템”은 전경영상 촬영용 카메라에 적용된 팬, 틸트, 줌, 포커스 등의 카메라 제어신호를 배경영상 촬영용 카메라에 동일하게 적용하는 촬영 시스템을 개시한다. 이러한 방법은 전경영상과 배경영상이 동일한 화각을 공유하기 때문에 카메라의 패닝동작 또는 무빙동작에도 불구하고 위화감 없는 합성영상을 생성할 수 있는 효과가 있다. 하지만, 전경영상과 동기화되도록 특수하게 촬영된 배경영상만 사용하기 때문에 전경영상과 독립적으로 촬영된 2D 정지영상 또는 비디오 영상은 배경영상으로 사용할 수 없는 단점이 있으며 동기화된 배경촬영으로 인해 비용 및 노력이 증가하게 된다.Japanese Patent Registration No. 4140006, entitled " Photographing System for Composite Image Generation " of FUJINON CORP, discloses a photographing system in which a camera control signal such as a pan, tilt, zoom and focus applied to a camera for foreground image photography is equally applied to a background image photographing camera do. In this method, since the foreground image and the background image share the same angle of view, there is an effect that a composite image without discomfort can be generated despite the panning motion or the moving motion of the camera. However, since only the background image is synchronously synchronized with the foreground image, the 2D still image or video image taken independently of the foreground image can not be used as the background image, .

Milos Jovanovic의 미국공개특허 제2013-0335414호 “Visualization of Three-Dimensional Models of Objects in Two-Dimension Environment”는 2D 배경영상을 분석하여 3D 입체구조로 변환하는 방법을 개시한다. 이러한 방법에 따르면 2D 배경영상을 3D 입체구조로 변환하기 때문에 2D 전경영상과 합성하더라도 2D 전경영상의 카메라 워크에 부합하도록 배경영상을 적응적으로 변환하는 효과가 있다. 하지만 비정형적인 배경 오브젝트들이 촬영된 한 장의 2D 정지영상만으로 완전한 3D 입체구조를 구현하는 것은 현실적으로 매우 어려운 일이다. 또한 배경 오브젝트들을 3D 입체구조로 모델링하기 위해서는 상당한 노력, 시간 및 비용이 투입되기 때문에 다양한 배경영상을 획득하기 어려울 뿐 아니라 합성영상 생성에 소요되는 비용이 증가하는 문제가 있다.Milos Jovanovic, US Publication No. 2013-0335414, entitled " Visualization of Three-Dimensional Models of Objects in Two-Dimension Environment ", discloses a method of analyzing a 2D background image and converting it into a 3D stereoscopic structure. According to this method, since the 2D background image is converted into the 3D stereoscopic structure, the background image is adaptively converted so as to match the camera work of the 2D foreground image even when synthesized with the 2D foreground image. However, it is very difficult to realize a 3D stereoscopic structure with only a single 2D still image from which atypical background objects are photographed. In addition, since a considerable effort, time, and cost are put into modeling the background objects in the 3D stereoscopic structure, it is difficult to acquire various background images, and the cost for synthesized images is increased.

다림비젼의 한국등록특허 제0795552호 “비디오 텍스투어링을 이용한 삼차원 가상 스튜디오 장치”는 2D 배경영상을 가상공간의 평면에 텍스처링하고 2D 전경영상을 배경영상 전면에 배치하는 3D 렌더링을 이용한 배경합성기법을 개시한다. 이러한 방법에 따르면 2D 전경영상과 2D 배경영상이 가상공간에서 이격되어 배치되기 때문에 가상카메라의 패닝동작 또는 가상카메라의 무빙동작에 따라 전경영상과 배경영상 간의 거리로 인해 합성영상에서 어느 정도 입체감을 부여할 수 있는 효과가 있다. 하지만 첫째, 2D 배경영상이 평면에 텍스처링되기 때문에 배경영상 내에서의 원근감을 표현할 수 없는 문제가 있다. 둘째, 2D 전경영상이 예컨대 인물인 경우 전신 샷을 가상카메라로 담는 경우 가상카메라의 패닝동작 또는 무빙동작에 따라 2D 전경영상의 하단부가 되는 발이 배경영상에 고정되지 않고 다른 위치로 이동되는 문제가 있다. 이러한 문제들로 인해 본 종래기술은 보다 역동적인 카메라 워크와 수준 높은 합성영상을 원하는 사용자의 요구를 충족시키지 못하는 문제가 있다.Korean Patent No. 0795552, "VIDEO-TOUCHING VIRTUAL VIRTUAL STUDIO DEVICE" is a technology that combines a 2D background image into a plane of a virtual space and a background synthesis technique using 3D rendering, which places a 2D foreground image on the foreground of the background image . According to this method, since the 2D foreground image and the 2D background image are spaced apart from each other in the virtual space, the distance between the foreground image and the background image is varied depending on the panning motion of the virtual camera or the moving motion of the virtual camera, There is an effect that can be done. However, there is a problem that the 2D background image is textured on the plane, and thus the perspective of the background image can not be expressed. Secondly, when the 2D foreground image is a person, for example, when a whole-body shot is carried by a virtual camera, there is a problem that the foot, which is the lower end of the 2D foreground image, is moved to another position without being fixed to the background image according to the panning motion or the moving motion of the virtual camera . Due to these problems, the conventional art has a problem in that it can not meet a demand of a user who desires a more dynamic camera work and a high-quality composite image.

Hitachi의 미국등록특허 제6,124,859호 “Picture Conversion Method and Medium Used Therefor” 및 한국과학기술원의 한국등록특허 제0533328호 “2차원 이미지로부터 3차원 이미지를 생성하는 방법”은 2D 영상의 소실점 분석을 통해 입방체 형태의 가상공간을 구현하는 방법을 개시한다. 이러한 방법에 따르면 소실점 분석을 통해 2D 배경영상 내의 이미지의 입체화가 가능하다는 장점이 있다. 하지만 소실점이 명확하지 않는 2D 배경영상의 경우 본 종래기술의 방법을 적용하지 못하기 때문에 사용할 수 있는 2D 배경영상이 제한되는 문제가 있으며, 직선적인 3D 배경으로 인해 가상카메라의 이동에 따른 배경영상의 왜곡이 발생하는 문제가 있다. US Patent No. 6,124,859 to Hitachi, US Pat. No. 6,124,859, entitled " Picture Conversion Method and Medium Used Therefor ", and Korean Patent No. 0533328, " Method of Generating 3D Images from 2D Images " A method of implementing a virtual space of a form is disclosed. According to this method, there is an advantage that the image in the 2D background image can be solidified through analysis of the vanishing point. However, in the case of a 2D background image in which the vanishing point is not clear, there is a problem that the 2D background image that can be used can not be used because the method of the related art can not be applied, and the background image due to the movement of the virtual camera due to the linear 3D background There is a problem that distortion occurs.

엔브이엘소프트의 한국공개특허 제2007-0098361호 “2차원 배경 이미지를 3차원 공간에 합성시키는 영상 합성장치 및 방법”은 3D 가상공간 상의 2D 배경이미지를 이미지평면으로 설정하고 바닥평면을 생성하는 배경합성방법을 개시한다. 이러한 방법에 따르면 별도의 바닥평면이 있기 때문에 전경영상의 하단부가 배경에 고정되어 가상카메라의 패닝동작 또는 무빙동작에 따라 전경영상이 바닥에 고정되어 자연스러운 합성영상을 생성하는 효과가 있다. 하지만, 바닥평면이 2D 배경이미지와 위화감이 없도록 구성하기 위해서는 별도의 그래픽 작업을 통해 2D 배경이미지에 부합하는 바닥평면을 직접 생성해야 하는 문제가 있다.Korean Unexamined Patent Publication No. 2007-0098361 entitled " Image synthesis apparatus and method for synthesizing a two-dimensional background image in a three-dimensional space ", is a method of setting a 2D background image in a 3D virtual space as an image plane and generating a floor plane A background synthesis method is disclosed. According to this method, since the bottom surface of the foreground image is fixed to the background because there is a separate floor plane, the foreground image is fixed to the floor according to the panning motion or the moving motion of the virtual camera, thereby generating a natural composite image. However, there is a problem that a floor plane corresponding to a 2D background image must be directly generated through a separate graphic operation in order to configure the floor plane so as not to be discomfort with the 2D background image.

따라서 2D 전경영상과 2D 배경영상에 있어서 2D 전경영상과 독립적으로 촬영된 2D 배경영상 내의 입체감을 부여하면서 카메라의 패닝동작 또는 무빙동작에 따라 전경영상과 배경영산 간의 자연스럽게 원근감을 구현함으로써 보다 역동적인 카메라 워크를 구현할 수 있는 고품질 저비용의 배경합성방법이 요구된다.Therefore, the 2D foreground image and the 2D background image are given a 3D sensation in the 2D background image independently photographed with the 2D foreground image, while realizing a perspective of the natural image between the foreground image and the background image according to the panning motion or the moving motion of the camera, High-quality, low-cost background synthesis method capable of implementing a work.

JPJP 41400064140006 B2B2 USUS 2013-03354142013-0335414 A1A1 KRKR 07955520795552 B1B1 USUS 61248596124859 AA KRKR 05333280533328 B1B1 KRKR 2007-00983612007-0098361 AA

본 발명에 따른 영상합성 시스템 및 영상합성방법은, 가상공간 상에서 중앙부가 오목한 곡면으로 형성된 제 1 배경투영면에 2D 배경영상을 투영하고, 2D 전경영상을 제 1 배경투영면 전면에 배치함으로써 별도의 이미지 프로세싱 등의 복잡한 연산 없이 2D 배경영상의 중앙부가 카메라의 패닝동작 또는 무빙동작에 따라 2D 전경영상과 자연스러운 원근감을 제공하는 합성영상을 생성하고 2D 전경영상과 독립적으로 촬영된 2D 배경영상들을 합성영상에 범용적으로 사용함으로써 합성영상 생성에 소요되는 비용을 저감하는 것을 목적으로 한다.The image synthesis system and the image synthesis method according to the present invention can be applied to an image processing system in which a 2D background image is projected onto a first background projection surface formed in a concave curved surface on a virtual space and a 2D foreground image is disposed on a foreground surface of a first background, The 2D image of the 2D background image is generated by the panning motion or the moving motion of the camera, thereby generating a composite image that provides a 2D foreground image and a natural perspective, and the 2D background image photographed independently from the 2D foreground image is general- It is an object of the present invention to reduce the cost of generating a composite image.

본 발명의 실시예에 따른 영상합성 시스템 및 영상합성방법은, 바닥면을 형성하는 제 2 배경투영면을 더 포함하고 전경영상의 하단부가 제 2 배경투영면에 접촉하도록 배치함으로써 카메라의 패닝동작 또는 무빙동작에도 불구하고 전경영상이 배경영상에 고정되도록 함으로써 위화감 없는 고품질의 합성영상을 제공하는 것을 목적으로 한다.The image synthesizing system and the image synthesizing method according to the embodiment of the present invention may further include a second background projection surface forming a bottom surface and arranging the lower end of the foreground image so as to contact the second background projection surface, The foreground image is fixed to the background image in order to provide a composite image of high quality without discomfort.

본 발명의 실시예에 따른 영상합성 시스템 및 영상합성방법은, 제 1 배경투영면 및 제 2 배경투영면이 접하는 영역이 곡면을 형성함으로써 가상카메라의 패닝동작 또는 무빙동작 시 투영면의 급격한 각도변화에 의한 합성영상에서 발생할 수 있는 왜곡을 최소화하는 것을 목적으로 한다.The image synthesis system and the image synthesis method according to the embodiment of the present invention are characterized in that a region in which the first background projection surface and the second background projection surface are in contact form a curved surface so that the panning operation of the virtual camera or the synthesis And aims at minimizing distortion that may occur in an image.

본 발명의 실시예에 따른 영상합성 시스템 및 영상합성방법은, 전경영상을 촬영한 실세계 카메라의 패닝동작 또는 무빙동작 등의 카메라 워크에 동기화된 가상카메라 제어를 통해 자연스럽고 역동적인 합성영상을 생성하는 것을 목적으로 한다.The image synthesis system and the image synthesis method according to the embodiment of the present invention generate a natural and dynamic synthetic image through virtual camera control synchronized with the camera work such as a panning operation or a moving operation of a real- .

본 발명에 따른 영상합성 시스템은, 2D 배경영상을 입력받는 배경영상 입력부; 2D 전경객체영상을 입력받는 전경객체영상 입력부; 높이를 갖고 중앙부가 오목한 곡면으로 형성된 제 1 배경투영면을 가상공간에 형성하고, 상기 가상공간 상의 가상투영점에서 상기 제 1 배경투영면에 상기 2D 배경영상의 적어도 일부를 투영하고, 상기 가상공간 상의 상기 가상투영점과 상기 제 1 배경투영면 사이에 상기 2D 전경객체영상을 배치하는 모델링부; 및 상기 가상공간에 배치되는 가상카메라의 화각에 상기 2D 배경영상의 적어도 일부와 상기 2D 전경객체영상의 적어도 일부를 포함하여 합성영상을 생성하는 합성영상 생성부;를 포함하여 구성되는 것을 특징으로 한다.The image synthesis system according to the present invention comprises: a background image input unit receiving a 2D background image; A foreground object image input unit receiving a 2D foreground object image; Forming a first background projection surface having a height and a concave curved surface at a central portion in a virtual space, projecting at least a part of the 2D background image on the first background projection surface at a virtual projection point on the virtual space, A modeling unit for arranging the 2D foreground object image between the virtual projection point and the first background projection plane; And a synthetic image generating unit generating at least a part of the 2D background image and at least a part of the 2D foreground object image at an angle of view of the virtual camera disposed in the virtual space, .

본 발명의 실시예에 따른 영상합성 시스템에 있어서, 상기 2D 배경영상은 정지영상이고, 상기 2D 전경객체영상 및 상기 합성영상은 비디오 영상인 것을 특징으로 한다.In the image synthesis system according to the embodiment of the present invention, the 2D background image is a still image, the 2D foreground object image, and the composite image are video images.

본 발명의 실시예에 따른 영상합성 시스템에 있어서, 상기 2D 배경영상, 상기 2D 전경객체영상 및 상기 합성영상은 비디오 영상인 것을 특징으로 한다.In the image synthesis system according to the embodiment of the present invention, the 2D background image, the 2D foreground object image, and the composite image are video images.

본 발명의 실시예에 따른 영상합성 시스템에 있어서, 상기 모델링부는, 상기 제 1 배경투영면의 하단부에서 연장되어 저면을 형성하는 제 2 배경투영면을 더 생성하고, 상기 제 1 배경투영면 및 상기 제 2 배경투영면에 거쳐 상기 2D 배경영상의 적어도 일부를 투영하는 것을 특징으로 한다.In the image synthesizing system according to the embodiment of the present invention, the modeling unit may further generate a second background projection plane extending from a lower end of the first background projection plane to form a bottom face, and the first background projection plane and the second background And at least a part of the 2D background image is projected through the projection plane.

본 발명의 실시예에 따른 영상합성 시스템에 있어서, 상기 모델링부는, 상기 2D 전경객체영상의 하단부가 상기 제 2 배경투영면에 접촉하도록 상기 2D 전경객체영상을 배치하는 것을 특징으로 한다.In the image synthesizing system according to the embodiment of the present invention, the modeling unit may arrange the 2D foreground object image so that the lower end of the 2D foreground object image contacts the second background projection plane.

본 발명의 실시예에 따른 영상합성 시스템에 있어서, 상기 모델링부는, 상기 제 1 배경투영면의 상단부에서 연장되어 상면을 형성하는 제 3 배경투영면을 더 생성하고, 상기 제 1 배경투영면, 상기 제 2 배경투영면, 및 상기 제 3 배경투영면에 거쳐 상기 2D 배경영상의 적어도 일부를 투영하는 것을 특징으로 한다.In the image synthesizing system according to the embodiment of the present invention, the modeling unit may further generate a third background projection plane extending from the upper end of the first background projection plane to form an upper face, and the first background projection plane, And projecting at least a part of the 2D background image through the third background projection surface.

본 발명의 실시예에 따른 영상합성 시스템에 있어서, 상기 모델링부는, 상기 제 1 배경투영면 및 상기 제 2 배경투영면이 서로 90도 내지 120도의 내각을 형성하도록 상기 제 1 배경투영면 및 상기 제 2 배경투영면을 생성하는 것을 특징으로 한다.In the image synthesizing system according to the embodiment of the present invention, the modeling unit may be configured to form the first background projection plane and the second background projection plane so that the first background projection plane and the second background projection plane form an interior angle of 90 to 120 degrees with respect to each other. .

본 발명의 실시예에 따른 영상합성 시스템에 있어서, 상기 모델링부는, 상기 제 1 배경투영면 및 상기 제 2 배경투영면이 접하는 영역을 곡면으로 처리하여 상기 제 1 배경투영면 및 상기 제 2 배경투영면을 생성하는 것을 특징으로 한다. In the image synthesizing system according to the embodiment of the present invention, the modeling unit may process the area touched by the first background projection surface and the second background projection surface as a curved surface to generate the first background projection surface and the second background projection surface .

본 발명의 실시예에 따른 영상합성 시스템에 있어서, 상기 전경객체영상 입력부는, 실세계 카메라의 패닝동작에 의해 생성된 비디오 영상을 상기 2D 전경객체영상으로 입력받고, 상기 합성영상 생성부는, 상기 실세계 카메라의 패닝동작을 정의하는 제 1 카메라 제어 데이터에 근거하여 상기 가상카메라를 패닝제어하여 상기 합성영상을 생성하는 것을 특징으로 한다.In the image synthesis system according to the embodiment of the present invention, the foreground object image input unit receives the video image generated by the panning operation of the real-world camera as the 2D foreground object image, The virtual camera is panned and controlled based on first camera control data defining a panning operation of the virtual camera to generate the composite image.

본 발명의 실시예에 따른 영상합성 시스템에 있어서, 상기 전경객체영상 입력부는, 상기 영상합성 시스템이 실세계 카메라의 무빙동작에 의해 생성된 비디오 영상을 상기 2D 전경객체영상으로 입력받고, 상기 합성영상 생성부는, 상기 실세계 카메라의 무빙동작을 정의하는 제 2 카메라 제어 데이터에 근거하여 상기 가상카메라를 무빙제어하여 상기 합성영상을 생성하는 것을 특징으로 한다.In the image synthesis system according to the embodiment of the present invention, the foreground object image input unit receives the video image generated by the moving operation of the real-world camera as the 2D foreground object image, Wherein the virtual camera is moved and controlled based on second camera control data defining a moving operation of the real-world camera to generate the composite image.

본 발명에 따른 영상합성방법은, 영상합성 시스템이 2D 배경영상을 입력받는 단계; 상기 영상합성 시스템이 2D 전경객체영상을 입력받는 단계; 상기 영상합성 시스템이 소정의 높이를 갖고 중앙부가 오목한 곡면으로 형성된 제 1 배경투영면을 가상공간에 형성하는 단계; 상기 영상합성 시스템이 상기 가상공간 상의 가상투영점에서 상기 제 1 배경투영면에 상기 2D 배경영상의 적어도 일부를 투영하는 단계; 상기 영상합성 시스템이 상기 가상공간 상의 상기 가상투영점과 상기 제 1 배경투영면 사이에 상기 2D 전경객체영상을 배치하는 단계; 및 상기 영상합성 시스템이 상기 가상공간에 배치되는 가상카메라의 화각에 상기 2D 배경영상의 적어도 일부와 상기 2D 전경객체영상의 적어도 일부를 포함하여 합성영상을 생성하는 단계;를 포함하여 구성되는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a method of synthesizing an image, comprising: receiving a 2D background image by a video synthesis system; Receiving the 2D foreground object image by the image synthesis system; Forming a first background projection surface in a virtual space, the first background projection surface having a predetermined height and a central concave surface; Projecting at least a portion of the 2D background image to the first background projection plane at a virtual projection point on the virtual space; Arranging the 2D foreground object image between the virtual projection point on the virtual space and the first background projection plane; And generating a composite image by the image synthesis system including at least a part of the 2D background image and at least a part of the 2D foreground object image at an angle of view of a virtual camera disposed in the virtual space. .

본 발명의 실시예에 따른 영상합성방법에 있어서, 상기 2D 배경영상은 정지영상이고, 상기 2D 전경객체영상 및 상기 합성영상은 비디오 영상인 것을 특징으로 한다.In the image synthesis method according to an embodiment of the present invention, the 2D background image is a still image, the 2D foreground object image, and the composite image are video images.

본 발명의 실시예에 따른 영상합성방법에 있어서, 상기 2D 배경영상, 상기 2D 전경객체영상 및 상기 합성영상은 비디오 영상인 것을 특징으로 한다. In the image synthesis method according to an embodiment of the present invention, the 2D background image, the 2D foreground object image, and the composite image are video images.

본 발명의 실시예에 따른 영상합성방법에 있어서, 상기 배경투영면을 생성하는 단계는, 상기 영상합성 시스템이 상기 제 1 배경투영면의 하단부에서 연장되어 저면을 형성하는 제 2 배경투영면을 더 생성하고, 상기 2D 배경영상을 투영하는 단계는, 상기 영상합성 시스템이 상기 제 1 배경투영면 및 상기 제 2 배경투영면에 거쳐 상기 2D 배경영상의 적어도 일부를 투영하는 것을 특징으로 한다.In the image synthesis method according to the embodiment of the present invention, the step of generating the background projection plane may further include generating a second background projection plane extending from a lower end of the first background projection plane to form a bottom plane, And the step of projecting the 2D background image is characterized in that the image synthesizing system projects at least a part of the 2D background image via the first background projection plane and the second background projection plane.

본 발명의 실시예에 따른 영상합성방법에 있어서, 상기 2D 전경객체영상을 배치하는 단계는, 상기 영상합성 시스템이 상기 2D 전경객체영상의 하단부가 상기 제 2 배경투영면에 접촉하도록 상기 2D 전경객체영상을 배치하는 것을 특징으로 한다.In the image synthesis method according to the embodiment of the present invention, the step of arranging the 2D foreground object image may include the step of arranging the 2D foreground object image so that the lower end of the 2D foreground object image comes into contact with the second background projection plane, Is disposed.

본 발명의 실시예에 따른 영상합성방법에 있어서, 상기 배경투영면을 생성하는 단계는, 상기 영상합성 시스템이 상기 제 1 배경투영면의 상단부에서 연장되어 상면을 형성하는 제 3 배경투영면을 더 생성하고, 상기 2D 배경영상을 투영하는 단계는, 상기 영상합성 시스템이 상기 제 1 배경투영면, 상기 제 2 배경투영면, 및 상기 제 3 배경투영면에 거쳐 상기 2D 배경영상의 적어도 일부를 투영하는 것을 특징으로 한다.In the image synthesizing method according to the embodiment of the present invention, the step of generating the background projection plane may further include generating a third background projection plane extending from the upper end of the first background projection plane to form an upper plane, And projecting the 2D background image is characterized in that the image synthesizing system projects at least a part of the 2D background image via the first background projection plane, the second background projection plane, and the third background projection plane.

본 발명의 실시예에 따른 영상합성방법에 있어서, 상기 배경투영면을 생성하는 단계는, 상기 영상합성 시스템이 상기 제 1 배경투영면 및 상기 제 2 배경투영면이 서로 90도 내지 120도의 내각을 형성하도록 상기 제 1 배경투영면 및 상기 제 2 배경투영면을 생성하는 것을 특징으로 한다.In the image synthesizing method according to an embodiment of the present invention, the step of generating the background projection plane may include a step of generating the background projection plane so that the first background projection plane and the second background projection plane form an interior angle of 90 degrees to 120 degrees The first background projection plane and the second background projection plane.

본 발명의 실시예에 따른 영상합성방법에 있어서, 상기 배경투영면을 생성하는 단계는, 상기 영상합성 시스템이 상기 제 1 배경투영면 및 상기 제 2 배경투영면이 접하는 영역을 곡면으로 처리하여 상기 제 1 배경투영면 및 상기 제 2 배경투영면을 생성하는 것을 특징으로 한다. In the image synthesizing method according to the embodiment of the present invention, the step of generating the background projection plane may include a step of processing the area, which the image synthesizing system contacts with the first background projection plane and the second background projection plane, Thereby generating a projection plane and the second background projection plane.

본 발명의 실시예에 따른 영상합성방법에 있어서, 상기 2D 전경객체영상을 입력받는 단계는, 상기 영상합성 시스템이 실세계 카메라의 패닝동작에 의해 생성된 비디오 영상을 상기 2D 전경객체영상으로 입력받고, 상기 합성영상을 생성하는 단계는, 상기 영상합성 시스템이 상기 실세계 카메라의 패닝동작을 정의하는 제 1 카메라 제어 데이터에 근거하여 상기 가상카메라를 패닝제어하여 상기 합성영상을 생성하는 것을 특징으로 한다.In the image synthesis method according to an embodiment of the present invention, the step of receiving the 2D foreground object image may include receiving the video image generated by the panning operation of the real-world camera as the 2D foreground object image, The generating of the composite image is characterized in that the image synthesizing system generates the composite image by controlling the panning of the virtual camera based on first camera control data defining a panning operation of the real camera.

본 발명의 실시예에 따른 영상합성방법에 있어서, 상기 2D 전경객체영상을 입력받는 단계는, 상기 영상합성 시스템이 실세계 카메라의 무빙동작에 의해 생성된 비디오 영상을 상기 2D 전경객체영상으로 입력받고, 상기 합성영상을 생성하는 단계는, 상기 영상합성 시스템이 상기 실세계 카메라의 무빙동작을 정의하는 제 2 카메라 제어 데이터에 근거하여 상기 가상카메라를 무빙제어하여 상기 합성영상을 생성하는 것을 특징으로 한다.In the image synthesizing method according to the embodiment of the present invention, the step of receiving the 2D foreground object image may include: receiving the video image generated by the moving operation of the real camera in the image synthesizing system as the 2D foreground object image, Wherein the generating of the composite image is performed by moving the virtual camera based on second camera control data defining a moving operation of the real camera to generate the composite image.

본 발명에 따른 영상합성 시스템 및 영상합성방법은, 가상공간 상에서 중앙부가 오목한 곡면으로 형성된 제 1 배경투영면에 2D 배경영상을 투영하고, 2D 전경영상을 제 1 배경투영면 전면에 배치함으로써 별도의 이미지 프로세싱 등의 복잡한 연산 없이 2D 배경영상의 중앙부가 카메라의 패닝동작 또는 무빙동작에 따라 2D 전경영상과 자연스러운 원근감을 제공하는 합성영상을 생성하고 2D 전경영상과 독립적으로 촬영된 2D 배경영상들을 합성영상에 범용적으로 사용함으로써 합성영상 생성에 소요되는 비용을 저감하는 효과를 제공한다.The image synthesis system and the image synthesis method according to the present invention can be applied to an image processing system in which a 2D background image is projected onto a first background projection surface formed in a concave curved surface on a virtual space and a 2D foreground image is disposed on a foreground surface of a first background, The 2D image of the 2D background image is generated by the panning motion or the moving motion of the camera, thereby generating a composite image that provides a 2D foreground image and a natural perspective, and the 2D background image photographed independently from the 2D foreground image is general- It is possible to reduce the cost of generating a composite image.

본 발명의 실시예에 따른 영상합성 시스템 및 영상합성방법은, 바닥면을 형성하는 제 2 배경투영면을 더 포함하고 전경영상의 하단부가 제 2 배경투영면에 접촉하도록 배치함으로써 카메라의 패닝동작 또는 무빙동작에도 불구하고 전경영상이 배경영상에 고정되도록 함으로써 위화감 없는 고품질의 합성영상을 제공하는 효과를 제공한다.The image synthesizing system and the image synthesizing method according to the embodiment of the present invention may further include a second background projection surface forming a bottom surface and arranging the lower end of the foreground image so as to contact the second background projection surface, The foreground image is fixed to the background image, thereby providing a high-quality composite image without discomfort.

본 발명의 실시예에 따른 영상합성 시스템 및 영상합성방법은, 제 1 배경투영면 및 제 2 배경투영면이 접하는 영역이 곡면을 형성함으로써 가상카메라의 패닝동작 또는 무빙동작 시 투영면의 급격한 각도변화에 의한 합성영상에서 발생할 수 있는 왜곡을 최소화하는 효과를 제공한다.The image synthesis system and the image synthesis method according to the embodiment of the present invention are characterized in that a region in which the first background projection surface and the second background projection surface are in contact form a curved surface so that the panning operation of the virtual camera or the synthesis Thereby providing an effect of minimizing distortion that may occur in the image.

본 발명의 실시예에 따른 영상합성 시스템 및 영상합성방법은, 전경영상을 촬영한 실세계 카메라의 패닝동작 또는 무빙동작 등의 카메라 워크에 동기화된 가상카메라 제어를 통해 자연스럽고 역동적인 합성영상을 생성하는 효과를 제공한다.The image synthesis system and the image synthesis method according to the embodiment of the present invention generate a natural and dynamic synthetic image through virtual camera control synchronized with the camera work such as a panning operation or a moving operation of a real- Effect.

도 1은 본 발명에 따른 영상합성 시스템을 도시하는 구성도.
도 2는 본 발명의 실시예에 따른 가상공간에서의 배경투영면, 2D 전경객체영상, 및 가상카메라의 배치도.
도 3은 본 발명의 실시예에 따른 제 1 배경투영면의 횡단면도.
도 4 및 도 5는 본 발명의 다른 실시예에 따른 가상공간에서의 배경투영면, 2D 전경객체영상, 및 가상카메라의 배치도.
도 6은 본 발명의 실시예에 따른 가상공간에서의 배경투영면에 투영된 2D 배경영상과 2D 전경객체영상의 모델링 예시도.
도 7 및 도 8은 도 6의 모델링을 적용한 합성영상의 예시도.
도 9는 본 발명에 따른 영상합성방법의 처리흐름도.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram showing a video synthesis system according to the present invention; FIG.
FIG. 2 is a layout diagram of a background projection plane, a 2D foreground object image, and a virtual camera in a virtual space according to an embodiment of the present invention; FIG.
3 is a cross-sectional view of a first background projection surface according to an embodiment of the present invention.
4 and 5 are a layout diagram of a background projection plane, a 2D foreground object image, and a virtual camera in a virtual space according to another embodiment of the present invention.
6 is an illustration of modeling of a 2D background image and a 2D foreground object image projected on a background projection plane in a virtual space according to an embodiment of the present invention;
FIGS. 7 and 8 are exemplary views of a composite image to which modeling of FIG. 6 is applied. FIG.
9 is a flowchart of a process of the image synthesizing method according to the present invention.

본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정 해석되어서는 안 되며, 자신의 발명을 최선의 방법으로 설명하기 위해 발명자가 용어와 개념을 정의할 수 있는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 한다.The terms and words used in the present specification and claims should not be construed in a conventional or dictionary sense and should be construed in accordance with the principles by which the inventor can define terms and concepts to best describe his invention And should be construed in accordance with the meaning and concept consistent with the technical idea of the present invention.

따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 바람직한 일 실시예에 해당하며, 본 발명의 기술적 사상을 모두 대변하는 것이 아니므로 해당 구성은 본 발명의 출원시점에서 이를 대체할 다양한 균등물과 변형예가 있을 수 있다.Therefore, the embodiments described in the present specification and the configurations shown in the drawings correspond to the preferred embodiments of the present invention and do not represent all the technical ideas of the present invention. Therefore, There may be equivalents and variations.

명세서 전반에서 어떠한 부분이 어떤 구성요소를 “포함”한다는 기재는, 이에 대한 특별한 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한 명세서에 기재된 “..부”, “..시스템” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있으며, 하나의 장치 또는 각각 다른 장치에 포함될 수 있다.The specification that " comprises " any element in any specification throughout the specification does not exclude other elements, but may also include other elements, unless the context clearly indicates otherwise. Also, the terms " part, " " system, " and the like, which are described in the specification, refer to a unit for processing at least one function or operation, which may be implemented by hardware or software or a combination of hardware and software, Or may be included in each of the other devices.

도 1은 본 발명에 따른 영상합성 시스템(100)을 도시한다. 본 발명에 따른 영상합성 시스템(100)은 배경영상 입력부(110), 전경객체영상 입력부(120), 모델링부(130) 및 합성영상 생성부(140)를 포함하여 구성된다. 영상합성 시스템(100)은 프로그램과 이를 구동하는 연산처리장치로 구현할 수 있으며, 이 경우 각각의 구성요소들은 프로그램을 구성하는 기능모듈로 구현될 수 있다.Figure 1 illustrates an image synthesis system 100 in accordance with the present invention. The image synthesis system 100 according to the present invention includes a background image input unit 110, a foreground object image input unit 120, a modeling unit 130, and a composite image generation unit 140. The image synthesizing system 100 can be implemented by a program and an arithmetic processing unit for driving the same. In this case, each of the components can be implemented as a functional module constituting a program.

배경영상 입력부(110)는 2D 배경영상을 입력받는 기능을 수행한다. 배경영상 입력부(110)는 사용자가 2D 배경영상을 선택하는 인터페이스 또는 자신이 보유한 2D 배경영상을 업로드하는 인터페이스를 제공하는 방법 등으로 구현될 수 있다. 2D 배경영상은 특별히 제한되지 않으며 통상의 이미지 파일 형태의 정지영상 이거나 비디오 파일 형태의 비디오 영상일 수 있다. 다만 합성영상의 품질을 높이기 위해 2D 배경영상은 높은 해상도의 영상이 바람직하다.The background image input unit 110 receives a 2D background image. The background image input unit 110 may be implemented by a method of providing an interface for the user to select a 2D background image or an interface for uploading a 2D background image held by the user. The 2D background image is not particularly limited and may be a still image in the form of a normal image file or a video image in the form of a video file. However, in order to improve the quality of the composite image, a 2D background image is preferable to a high resolution image.

전경객체영상 입력부(120)는 2D 전경객체영상(310)을 입력받는 기능을 수행한다. 전경객체영상 입력부(120)는 사용자가 2D 전경객체영상(310)을 선택하는 인터페이스 또는 자신이 보유한 2D 배경영상을 업로드하는 인터페이스를 제공하는 방법 등으로 구현될 수 있다. 2D 전경객체영상(310)은 비디오카메라로 촬영된 비디오 영상에서 배경이 제거된 영상이다. 2D 전경객체영상(310)은 실시예에 따라서 전경객체 표면의 입체감을 부여하기 위해 물체의 깊이를 측정할 수 있는 TOF 방식의 카메라 또는 멀티렌즈 카메라를 사용하는 경우 2D 전경객체영상(310)은 표면의 깊이정보를 포함하는 이미지일 수 있다.The foreground object image input unit 120 receives the 2D foreground object image 310. The foreground object image input unit 120 may be implemented by a method of providing an interface for the user to select the 2D foreground object image 310 or an interface for uploading the 2D background image that the user owns. The 2D foreground object image 310 is an image in which the background is removed from the video image photographed by the video camera. In the case of using a TOF-type camera or a multi-lens camera capable of measuring the depth of an object in order to give a three-dimensional sensation of a foreground object surface according to an embodiment, the 2D foreground object image 310 may include a 2D foreground object image 310, And the depth information of the image.

모델링부(130)는 3D 가상공간 상에서 2D 배경영상과 2D 전경객체영상(310)을 공간적으로 합성하는 기능을 수행한다. 구체적으로는 모델링부(130)는 높이를 갖고 중앙부가 오목한 곡면으로 형성된 제 1 배경투영면(210)을 가상공간에 형성한다. 제 1 배경투영면(210)은 도 2에 도시된 바와 같이 반원통 형태로 구성될 수 있다. 실시예에 따라서 오목한 곡면의 형상은 다양하게 구성될 수 있다. 예컨대 제 1 배경투영면(210)의 횡단면은 도 3(a)에 도시된 바와 같이 원형상의 일부, 도 3(b)에 도시된 바와 같이 타원형상의 일부, 도 3(c)에 도시된 바와 같이 트랙형상의 일부로 구현될 수 있다. 또는 제 1 배경투영면(210)은 예컨대 1/4 구형상과 같은 입체적인 형태로 구현될 수 있다. 이러한 제 1 배경투영면(210)의 형상에 따르면 2D 배경영상의 중앙영역은 가상카메라(320)와 2D 전경객체영상(310)과 가상공간에서의 거리가 멀게 형성되고 좌측과 우측의 가장자리 영역은 가상카메라(320)와 2D 전경객체영상(310)과 가상공간에서의 거리가 상대적으로 가깝게 형성되기 때문에 가상카메라(320)의 패닝동작 또는 무빙동작에 따라 적절한 원근감을 제공할 수 있으며, 2D 배경영상의 이미지 분석 없이도 적절한 원근감을 제공할 수 있기 때문에 다양한 이미지 또는 비디오를 2D 배경영상으로 활용할 수 있는 효과를 제공한다.The modeling unit 130 spatially combines the 2D background image and the 2D foreground object image 310 in the 3D virtual space. Specifically, the modeling unit 130 forms a first background projection plane 210 having a height and a concave curved surface at the center thereof in a virtual space. The first background projection plane 210 may be formed in a semi-cylindrical shape as shown in FIG. Depending on the embodiment, the shape of the concave curved surface can be varied. For example, the cross-sectional surface of the first background projection surface 210 may be a part of a circular shape as shown in Fig. 3 (a), a part of an elliptical shape as shown in Fig. 3 (b) May be implemented as part of the shape. Or the first background projection surface 210 may be embodied in a three-dimensional form such as a quarter-spherical shape. According to the shape of the first background projection plane 210, the center area of the 2D background image is formed to be distant from the virtual camera 320 and the 2D foreground object image 310 in the virtual space, and the left and right edge areas are virtual Since the distance between the camera 320 and the 2D foreground object image 310 is relatively close to the virtual space, it is possible to provide an appropriate perspective according to the panning motion or the moving motion of the virtual camera 320, Since it can provide an appropriate perspective without image analysis, it provides the effect of utilizing various images or video as a 2D background image.

실시예에 따라서는 2D 배경영상의 이미지에 따라 제 1 배경투영면(210)을 적응적으로 변경하는 것이 바람직하다. 예컨대 2D 배경영상 중앙부의 피사체 거리가 가까운 경우 오목부의 곡률을 감소시킴으로써 제 1 배경투영면(210)의 중앙부와 가상카메라(320) 간의 거리를 짧게 생성하고, 반대로 2D 배경영상 중앙부의 피사체 거리가 먼 경우 오목부의 곡률을 증가시킴으로써 제 1 배경투영면(210)의 중앙부와 가상카메라(320) 간의 거리를 길게 생성할 수 있다. 또한 2D 배경영상의 소실점을 분석할 수 있는 경우 오목부가 해당 소실점에 위치하도록 제 1 배경투영면(210)의 형상을 좌우비대칭 형상으로 생성할 수 있다.According to an embodiment, it is preferable to adaptively change the first background projection plane 210 according to the image of the 2D background image. The distance between the center of the first background projection plane 210 and the virtual camera 320 is shortened by reducing the curvature of the concave portion when the object distance at the center portion of the 2D background image is close. The distance between the center of the first background projection plane 210 and the virtual camera 320 can be increased by increasing the curvature of the concave portion. In addition, when the vanishing point of the 2D background image can be analyzed, the shape of the first background projection plane 210 can be formed as a left-right asymmetric shape so that the concave portion is positioned at the vanishing point.

다음으로 모델링부(130)는 가상공간 상의 가상투영점에서 제 1 배경투영면(210)에 2D 배경영상의 적어도 일부를 투영한다. 가상투영점은 가상공간 상에 위치하는 지점으로서 2D 전경객체영상(310)을 촬영한 실세계 카메라와 촬영된 전경객체의 상대적 위치관계에 해당하는 가상공간의 지점으로 설정하는 것이 바람직하다. 제 1 배경투영면(210)의 입체적인 형상에도 불구하고 가상투영점에서 제 1 배경투영면(210)에 투영된 2D 배경영상을 봤을 때 왜곡 없는 평면의 2D 배경영상으로 보이게 된다. 배경영상의 제 1 배경투영면(210)으로의 투영은 가상투영점에서 바라봤을 때 배경영상이 왜곡이 없는 형태로 배경영상을 변환하여 제 1 배경투영면(210)에 변환된 배경영상을 텍스처링하는 방법으로 이루어질 수 있다.Next, the modeling unit 130 projects at least a part of the 2D background image on the first background projection plane 210 at the virtual projection point in the virtual space. It is preferable that the virtual projection point is set as a point in the virtual space corresponding to the relative positional relationship between the real-world camera photographed with the 2D foreground object image 310 and the photographed foreground object. The 2D background image projected on the first background projection plane 210 at the virtual projection point is seen as a 2D background image without distortion in spite of the three-dimensional shape of the first background projection plane 210. [ The projection of the background image onto the first background projection plane 210 is performed by converting the background image in a form in which the background image is not distorted when viewed from the virtual projection point and texturing the converted background image on the first background projection plane 210 ≪ / RTI >

실시예에 따라서는 2D 배경영상의 전체가 제 1 배경투영면(210)에 투영되도록 형성할 수도 있고, 2D 배경영상의 일부만 제 1 배경투영면(210)에 투영되도록 형성할 수 있다.According to an embodiment, the 2D background image may be entirely projected onto the first background projection plane 210, or a part of the 2D background image may be projected onto the first background projection plane 210.

다음으로, 모델링부(130)는 가상공간 상의 가상투영점과 제 1 배경투영면(210) 사이에 2D 전경객체영상(310)을 배치하는 기능을 수행한다. 2D 전경객체영상(310)은 도 2에 도시된 바와 같이 제 1 배경투영면(210)이 감싸는 영역 내에 배치되도록 구성할 수 있다. 도 2는 이해의 편의를 위해 2D 전경객체영상(310)이 4각형 형태의 일부 배경을 포함하는 것으로 도시하였지만 실제로는 도 7에 도시된 바와 같이 2D 전경객체영상(310)은 인물의 객체영상만으로 구성된다.Next, the modeling unit 130 functions to arrange the 2D foreground object image 310 between the virtual projection point on the virtual space and the first background projection plane 210. The 2D foreground object image 310 may be configured to be disposed in an area enclosed by the first background projection plane 210 as shown in FIG. FIG. 2 illustrates that the 2D foreground object image 310 includes a background of a square shape. However, as shown in FIG. 7, the 2D foreground object image 310 includes only a background image of a person .

합성영상 생성부(140)는 가상공간에 배치되는 가상카메라(320)의 화각에 2D 배경영상의 적어도 일부와 2D 전경객체영상(310)의 적어도 일부를 포함하여 합성영상을 생성하는 기능을 수행한다. 가상카메라(320)는 바람직하게는 가상투영점과 동일한 위치 또는 가상투영점에 인접한 위치에 위치할 수 있다. 가상카메라(320)는 팬, 틸트, 줌 등의 기능을 수행할 수 있으며 가상카메라(320)의 동작에 의해 고정된 화각의 2D 전경객체영상(310)과 2D 배경영상을 이용하여 마치 카메라 이동을 통해 촬영된 것 같은 동적인 합성영상을 생성할 수 있으며, 중앙부가 오목한 제 1 배경투영면(210)에 투영된 2D 배경영상을 통해 가상카메라(320)의 이동에 따라 전경과 배경의 겹치는 영역이 자연스럽게 변화하면서 원근감을 부여할 수 있는 효과가 있다.The composite image generating unit 140 generates at least a part of the 2D background image and at least a part of the 2D foreground object image 310 at the angle of view of the virtual camera 320 disposed in the virtual space to generate a composite image . The virtual camera 320 may preferably be located at the same position as the virtual projection point or at a position adjacent to the virtual projection point. The virtual camera 320 can perform functions such as pan, tilt, zoom, and the like, and can perform a camera movement using the 2D foreground object image 310 and the 2D background image having a fixed angle of view by the operation of the virtual camera 320 The overlapping area between the foreground and the background can be smoothly generated in accordance with the movement of the virtual camera 320 through the 2D background image projected on the first background projection plane 210 concave at the center. There is an effect that perspective can be given while changing.

실시예에 따라서는 복수의 배경투영면들로 구성되는 입체적인 구조물에 2D 배경영상을 투영하는 것이 바람직하다. 예컨대 바닥이 묘사된 2D 배경영상인 경우 사람의 발과 같은 피사체의 하단부와 바닥이 서로 자연스럽게 연결되도록 합성할 필요가 있다. 이를 위해 모델링부(130)는 도 4에 도시된 바와 같이 제 1 배경투영면(210)의 하단부에서 연장되어 저면을 형성하는 제 2 배경투영면(220)을 더 생성하고, 제 1 배경투영면(210) 및 제 2 배경투영면(220)에 거쳐 2D 배경영상의 적어도 일부를 투영하도록 구성하는 것이 바람직하다.According to an embodiment, it is preferable to project a 2D background image on a three-dimensional structure composed of a plurality of background projection surfaces. For example, in the case of a 2D background image depicting a floor, it is necessary to synthesize the bottom side and the bottom of a subject such as a human foot to be naturally connected to each other. 4, the modeling unit 130 further generates a second background projection plane 220 extending from a lower end of the first background projection plane 210 to form a bottom face, And a second background projection plane (220).

제 2 배경투영면(220)은 투영체의 바닥면을 형성하기 때문에 2D 배경영상의 하단부에 위치하는 바닥부분의 영상이 자연스럽게 제 2 배경투영면(220)에 투영되게 된다. 이때 모델링부(130)는 2D 전경객체영상(310)의 하단부가 제 2 배경투영면(220)에 접촉하도록 2D 전경객체영상(310)을 배치하도록 구성하는 것이 바람직하다. 실시예에 따라서는 모델링부(130)는 2D 전경객체영상(310)가 접촉하는 제 2 배경투영면(220) 상에 2D 전경객체영상(310)에 따른 그림자효과를 더 표현하거나 제 2 배경투영면(220)에 묘사된 바닥이 반사재질인 경우 2D 전경객체영상(310)에 따른 반사효과를 더 표현하는 것이 바람직하다.Since the second background projection plane 220 forms the bottom surface of the projecting body, the image of the bottom part positioned at the lower end of the 2D background image is naturally projected onto the second background projection plane 220. At this time, the modeling unit 130 preferably arranges the 2D foreground object image 310 such that the lower end of the 2D foreground object image 310 comes into contact with the second background projection plane 220. The modeling unit 130 may further represent a shadow effect according to the 2D foreground object image 310 on the second background projection plane 220 in contact with the 2D foreground object image 310, It is preferable to further express the reflection effect according to the 2D foreground object image 310 when the floor depicted in FIG.

이러한 구성에 따르면 3D 가상공간 상에서 2D 전경객체영상(310)과 2D 배경영상을 촬영하는 가상카메라(320)의 조작이 발생하더라도 2D 전경객체영상(310)은 제 2 배경투영면(220)에 투영된 2D 배경영상의 하단부에 고정되어 카메라 워크에 따른 자연스러운 동적인 합성영상 생성이 가능하다. 예컨대 가상카메라(320)는 x 축으로 평행이동하는 무빙동작과 함께 2D 전경객체영상(310)을 중앙에 위치시키는 패닝동작이 동시에 이루어지는 경우 가상공간 상에서 가상카메라(320)에 상대적으로 가깝게 위치한 2D 전경객체영상(310) 및 제 2 배경투영면(220)에 투영된 2D 배경영상의 일부는 화면상에서 적은 변위를 갖지만, 가상카메라(320)에서 상대적으로 멀게 위치한 제 1 배경투영면(210)의 중앙부에 투영된 2D 배경영상의 일부는 화면상에서 큰 변위를 갖게 되어 자연스러운 원근감을 갖는 동적인 합성영상을 생성할 수 있는 효과가 있다.The 2D foreground object image 310 is projected on the second background projection plane 220 even if the manipulation of the 2D foreground object image 310 and the virtual camera 320 capturing the 2D background image occurs in the 3D virtual space It is fixed at the lower part of the 2D background image, and it is possible to generate a natural dynamic synthetic image according to the camera work. For example, when the panning operation for centering the 2D foreground object image 310 is performed simultaneously with the moving operation of moving the x-axis in parallel with the virtual camera 320, the 2D foreground object 310, which is relatively close to the virtual camera 320, A part of the 2D background image projected on the object image 310 and the second background projection plane 220 has a small displacement on the screen but is projected on the center of the first background projection plane 210 located relatively far from the virtual camera 320 A part of the 2D background image has a large displacement on the screen, so that a dynamic synthetic image having a natural perspective can be generated.

이때 모델링부(130)는 제 1 배경투영면(210)과 제 2 배경투영면(220)이 서로 90도 내지 120도의 내각을 형성하도록 제 1 배경투영면(210) 및 제 2 배경투영면(220)을 생성하는 것이 바람직하다. 가상공간에서 가상카메라(320)는 가상투영점과 같은 위치 또는 인접한 위치에 위치하게 된다. 이때 가상투영점의 위치는 합성화면의 중심적인 객체인 2D 전경객체영상(310)가 자연스럽게 합성되도록 2D 전경객체영상(310)을 촬영한 실제 카메라와 2D 전경객체영상(310)의 상대적 위치를 기반으로 결정하는 것이 바람직하다. 인물을 촬영하는 실제 카메라는 통상 지면에서부터 1m~1.5m 정도 위쪽의 위치에서 촬영하기 때문에 가상투영점도 가상공간의 바닥면에서 일정 정도 위쪽에 위치한다. 따라서 제 1 배경투영면(210) 및 제 2 배경투영면(220)이 90도의 내각을 갖더라도 가상투영점은 제 2 배경투영면(220)에 2D 배경영상의 일부를 투영할 수 있다. 실시예에 따라서 제 2 배경투영면(220)에 2D 배경영상의 더 많은 부분을 투영하기 위해 제 1 배경투영면(210) 및 제 2 배경투영면(220)이 90도 이상의 각을 갖도록 구성할 수 있다. 그러나 이 경우에도 2D 배경영상의 입체감을 유지하기 위해 90도 내지 120도의 내각을 갖도록 하는 것이 바람직하다. 그 이상의 내각을 형성하는 경우 2D 배경화면의 지나치게 많은 부분이 바닥면인 제 1 배경투영면(210)에 투영되는 문제가 발생할 수 있으며 배경영상의 입체감이 저하될 수 있다.At this time, the modeling unit 130 generates the first background projection plane 210 and the second background projection plane 220 so that the first background projection plane 210 and the second background projection plane 220 form an interior angle of 90 to 120 degrees with respect to each other . In the virtual space, the virtual camera 320 is positioned at the same position as or adjacent to the virtual projection point. At this time, the position of the virtual projection point is determined based on the relative position of the actual camera and the 2D foreground object image 310, which captured the 2D foreground object image 310 so that the 2D foreground object image 310, . ≪ / RTI > Since the actual camera for photographing a person is usually photographed at a position about 1 m to 1.5 m above the ground, the virtual projection point is located somewhat above the floor of the virtual space. Therefore, even if the first background projection plane 210 and the second background projection plane 220 have an interior angle of 90 degrees, the virtual projection point can project a part of the 2D background image on the second background projection plane 220. The first background projection plane 210 and the second background projection plane 220 may be configured to have an angle of 90 degrees or more to project a greater portion of the 2D background image to the second background projection plane 220 according to an embodiment. In this case, however, it is preferable to have an internal angle of 90 degrees to 120 degrees in order to maintain the stereoscopic effect of the 2D background image. In the case of forming a larger internal angle, too much of the 2D background image may be projected onto the first background projection plane 210, which is the bottom surface, and the stereoscopic effect of the background image may be degraded.

한편 제 1 배경투영면(210)과 제 2 배경투영면(220)이 만나는 부분은 급격하게 각도가 변화하기 때문에 가상카메라(320)의 팬 동작, 틸트 동작, 무빙 동작 등에 따라 모서리 부분에서 영상왜곡이 일어날 수 있다. 이러한 문제를 해결하기 위해서는 도 6에 도시된 바와 같이 제 1 배경투영면(210)과 제 2 배경투영면(220)은 서로 부드럽게 연결되는 것이 바람직하다. 이를 위해 모델링부(130)는 제 1 배경투영면(210) 및 제 2 배경투영면(220)이 접하는 영역을 곡면으로 처리하여 제 1 배경투영면(210) 및 제 2 배경투영면(220)을 생성하는 것이 바람직하다. 이러한 구성을 통해 가상카메라(320)의 동작에 따라 발생할 수 있는 모서리 부분의 영상왜곡을 최소화할 수 있는 효과가 있다. On the other hand, since the angle of the portion where the first background projection plane 210 and the second background projection plane 220 meet changes rapidly, image distortion occurs at corner portions due to the fan motion, tilting motion, . In order to solve this problem, it is preferable that the first background projection plane 210 and the second background projection plane 220 are smoothly connected to each other as shown in FIG. To do this, the modeling unit 130 processes a region where the first background projection plane 210 and the second background projection plane 220 are touched to form a first background projection plane 210 and a second background projection plane 220 desirable. With this configuration, there is an effect that the image distortion of the corner portion, which may occur according to the operation of the virtual camera 320, can be minimized.

2D 배경영상의 상부는 통상 하늘 또는 건물의 천장 등을 포함하는 것이 일반적이다. 이 경우 원근법에 의해 최상부 영역은 배경영상을 촬영한 카메라에 가장 근접한 영역이 되고 하부로 갈수록 카메라에서 멀어지게 된다. 이러한 상부 영역의 원근감을 구현하기 위한 실시예에 따르면, 모델링부(130)는 도 5 및 도 6에 도시된 바와 같이 제 1 배경투영면(210)의 상단부에서 연장되어 상면을 형성하는 제 3 배경투영면(230)을 더 생성하고, 제 1 배경투영면(210), 제 2 배경투영면(220), 및 제 3 배경투영면(230)에 거쳐 2D 배경영상의 적어도 일부를 투영하는 것이 바람직하다. 이러한 실시예에 따르면 배경투영면은 상면인 제 3 배경투영면(230), 측면인 제 1 배경투영면(210), 저면인 제 2 배경투영면(220)을 갖고 가상투영점 방향으로 개구된 입체의 형상을 이루게 된다. 이러한 구성에 따르면 가상투영점에서 투영된 2D 배경영상의 상단부는 제 3 배경투영면(230)에 투영되고 최상부의 부분영상이 가상카메라(320)에 가장 가깝게 형성된다. 가상투영점에서 투영된 2D 배경영상의 중단부는 제 1 배경투영면(210)에 투영되고 양 끝단의 부분영상이 가상카메라(320)에 가깝게 형성된다. 가상투영점에서 투영된 2D 배경영상의 하단부는 제 2 배경투영면(220)에 투영되고 최하부의 부분영상이 가상카메라(320)에 가장 가깝게 형성된다.The upper part of the 2D background image generally includes a sky or a ceiling of a building. In this case, the uppermost region is the region closest to the camera that captured the background image, and the farther away from the camera, the closer the region is. 5 and 6, according to an embodiment for realizing the perspective of the upper region, the modeling unit 130 may include a third background projection plane 210 extending from the upper end of the first background projection plane 210, It is preferable to further generate the second background image 230 and project at least a part of the 2D background image through the first background projection plane 210, the second background projection plane 220, and the third background projection plane 230. [ According to this embodiment, the background projection plane includes a third background projection plane 230 as a top face, a first background projection plane 210 as a side face, and a second background projection plane 220 as a bottom face, . According to this configuration, the upper end of the 2D background image projected from the virtual projection point is projected onto the third background projection plane 230, and the uppermost partial image is formed closest to the virtual camera 320. The center of the 2D background image projected at the virtual projection point is projected onto the first background projection plane 210 and a partial image at both ends is formed close to the virtual camera 320. [ The lower end of the 2D background image projected at the virtual projection point is projected onto the second background projection plane 220 and the lowermost partial image is formed closest to the virtual camera 320. [

도 6은 제 1 배경투영면(210), 제 2 배경투영면(220) 및 제 3 배경투영면(230)에 걸쳐 2D 배경영상을 배치하고, 배경투영면의 입체구조 내에 2D 전경객체영상(310)을 배치한 가상공간의 실시예를 도시한다. 도 7 및 도 8은 도 6에 적용된 가상공간에서 합성된 합성영상을 도시하며 도 7은 가상카메라(320)가 가상투영점 기준으로 왼쪽에 위치했을 때의 합성영상을 도시하고, 도 8은 가상카메라(320)가 가상투영점 기준으로 오른쪽에 위치했을 때의 합성영상을 도시한다. 배경투영면의 입체적인 형상으로 인해 가상카메라(320)의 왼쪽에서 오른쪽으로의 무빙동작에 따라 가상카메라(320)와 원거리에 위치하는 제 1 배경투영면(210)의 중앙부에 투영된 원경에 해당하는 2D 배경영상의 부분은 큰 변위를 보이며 변화하지만 가상카메라(320)와 근거리에 위치하는 2D 전경객체영상(310) 및 제 2 배경투영면(220)에 투영된 바닥에 해당하는 2D 배경영상의 부분은 작은 변위를 보이며 변화하게 됨으로써 3D 모델링과 같은 고비용의 작업 없이도 자연스러운 입체감을 구현하는 합성영상을 적은 비용으로 생성할 수 있는 효과가 있다.FIG. 6 shows a 2D background image disposed over the first background projection plane 210, the second background projection plane 220, and the third background projection plane 230, and a 2D foreground object image 310 placed in the three- FIG. 5 shows an embodiment of a virtual space. FIGS. 7 and 8 show composite images synthesized in the virtual space applied in FIG. 6, FIG. 7 shows synthesized images when the virtual camera 320 is located on the left side on the basis of a virtual projection point, FIG. And a composite image when the camera 320 is positioned on the right side on the basis of a virtual projection point. Due to the three-dimensional shape of the background projection plane, a 2D background corresponding to the projected distance to the center of the virtual camera 320 and the first background projection plane 210 located at a distance from the left side to the right of the virtual camera 320 The 2D foreground object image 310 located close to the virtual camera 320 and the portion of the 2D background image corresponding to the bottom projected on the second background projection plane 220 change with small displacements It is possible to generate a synthetic image which realizes a natural three-dimensional feeling at a low cost without a high-cost operation such as 3D modeling.

한편, 2D 배경영상 촬영시 실세계 카메라가 패닝동작 또는 무빙동작 등을 통해 동적으로 2D 전경객체영상(310)인 피사체를 촬영하는 경우가 있을 수 있다. 이때 합성영상은 2D 전경객체영상(310)에 적용된 카메라 워크에 연동한 가상카메라(320)의 카메라 워크를 통해 합성 동영상을 생성하는 것이 바람직하다. 이를 위해 전경객체영상 입력부(120)는 실세계 카메라의 패닝동작에 의해 생성된 비디오 영상을 2D 전경객체영상(310)으로 입력받고, 합성영상 생성부(140)는 실세계 카메라의 패닝동작을 정의하는 제 1 카메라 제어 데이터에 근거하여 가상카메라(320)를 패닝제어하여 합성영상을 생성하는 것이 바람직하다. 실세계 카메라의 패닝동작을 정의하는 제 1 카메라 제어 데이터는 수동으로 실세계 카메라를 촬영하는 경우 카메라의 패닝을 감지하는 패닝 감지부를 통해 패닝의 각도 정보, 각속도 정보 등을 취득할 수 있고, 자동으로 실세계 카메라를 촬영하는 경우 실세계 카메라를 제어하는 패닝 제어명령을 통해 취득할 수 있다. 다른 방법으로는 실세계 카메라에 의해 촬영된 영상분석을 통해 실세계 카메라의 패닝동작을 추정하여 제 1 카메라 제어 데이터를 생성할 수 있다.On the other hand, when photographing a 2D background image, the real world camera may dynamically photograph a subject, which is a 2D foreground object image 310, through a panning operation or a moving operation. At this time, it is preferable that the composite image is generated through the camera work of the virtual camera 320 interlocked with the camera work applied to the 2D foreground object image 310. To this end, the foreground object image input unit 120 receives the video image generated by the panning operation of the real-world camera as the 2D foreground object image 310, and the synthesized image generation unit 140 generates the synthesized image, It is preferable that the virtual camera 320 is panned and controlled based on the camera control data to generate a composite image. The first camera control data defining the panning operation of the real-world camera can acquire panning angle information, angular velocity information, and the like through a panning detection unit that detects panning of the camera when manually photographing a real-world camera, Can be acquired through a panning control command for controlling the real-world camera. Alternatively, the first camera control data may be generated by estimating a panning motion of a real-world camera through image analysis performed by a real-world camera.

한편, 2D 전경객체영상(310)은 실세계 카메라의 패닝동작에 의해 각도가 이미 변화된 영상이기 때문에 모델링부(130)는 가상카메라(320)의 무빙동작에 따라 2D 전경객체영상(310)이 가상카메라(320)를 계속 대향하도록 2D 전경객체영상(310)을 회전시키는 것이 보다 바람직하다. 이를 통해 이미 실세계 카메라의 패닝동작이 반영되어 생성된 2D 전경객체영상(310)이 입체화된 배경투영면과 가상카메라(320)의 패닝동작에 의해 자연스러운 배경의 변화가 연출되는 2D 배경영상과 합성될 수 있다.Since the 2D foreground object image 310 is an image whose angle has already been changed by the panning operation of the real world camera, the modeling unit 130 determines that the 2D foreground object image 310 is a moving image of the virtual camera 320, It is more preferable to rotate the 2D foreground object image 310 such that the 2D foreground object image 310 is continuously opposed to the 2D foreground object image 310. The 2D foreground object image 310 generated by reflecting the panning motion of the real world camera can be synthesized with the 3D background background projection plane and the 2D background image transformed with a natural background by the panning operation of the virtual camera 320 have.

무빙동작에 따른 실시예로서는, 전경객체영상 입력부(120)는 실세계 카메라의 무빙동작에 의해 생성된 비디오 영상을 2D 전경객체영상(310)으로 입력받고, 합성영상 생성부(140)는 실세계 카메라의 무빙동작을 정의하는 제 2 카메라 제어 데이터에 근거하여 가상카메라(320)를 무빙제어하여 합성영상을 생성하는 것이 바람직하다. 카메라의 무빙은 좌우방향 이동, 전후방향 이동, 상하방향 이동을 모두 포함하며 자유공간 상의 곡선적 이동도 포함한다. 실세계 카메라의 무빙동작을 정의하는 제 2 카메라 제어 데이터는 수동으로 실세계 카메라를 촬영하는 경우 카메라의 무빙을 감지하는 무빙 감지부를 통해 무빙의 방향, 무빙의 정도, 무빙의 속도 등을 취득할 수 있고, 자동으로 실세계 카메라를 촬영하는 경우 실세계 카메라를 제어하는 무빙 제어명령을 통해 취득할 수 있다. 다른 방법으로는 실세계 카메라에 의해 촬영된 영상분석을 통해 실세계 카메라의 무빙동작을 추정하여 제 2 카메라 제어 데이터를 생성할 수 있다. In an embodiment according to the moving operation, the foreground object image input unit 120 receives the video image generated by the moving operation of the real-world camera as the 2D foreground object image 310, and the synthesized image generation unit 140 generates the moving foreground It is preferable to move the virtual camera 320 based on the second camera control data defining the operation to generate a composite image. Moving the camera includes both lateral movement, longitudinal movement, and vertical movement, including curvilinear motion in free space. The second camera control data defining the moving motion of the real world camera can acquire the moving direction, the moving speed, the moving speed, and the like through the moving sensing unit that detects the moving of the camera when manually photographing the real world camera, When a real-world camera is automatically photographed, it can be acquired through a moving control command for controlling the real-world camera. Alternatively, the second camera control data can be generated by estimating the moving motion of the real-world camera through image analysis taken by a real-world camera.

이상의 실시예에서는 카메라의 패닝동작 및 무빙동작에 따른 합성영상의 생성에 대해서 설명하였지만, 이에 제한되지 않고 패닝동작, 무빙동작, 줌동작, 틸트동작 또는 이들의 조합으로 이루어진 카메라 동작 등에도 동일한 방법으로 합성영상을 생성할 수 있다.In the above-described embodiment, the generation of the composite image according to the panning operation and the moving operation of the camera has been described. However, the present invention is not limited to this, and the camera operation including the panning operation, the moving operation, the zooming operation, the tilting operation, A composite image can be generated.

이하에서는 도 9를 참조하여 본 발명에 따른 영상합성방법을 설명한다. 먼저, 영상합성 시스템(100)이 2D 배경영상을 입력받는 단계(s10)를 수행한다. 2D 배경영상은 합성영상의 배경영상으로 사용되는 영상으로서 2D 정지영상 또는 2D 비디오영상일 수 있으며, 2D 배경영상에 촬영된 객체의 공간정보 또는 깊이정보를 요하지 않는다.Hereinafter, an image synthesis method according to the present invention will be described with reference to FIG. First, the image synthesizing system 100 receives the 2D background image (s10). The 2D background image may be a 2D still image or a 2D video image, which is used as a background image of a composite image, and does not require spatial information or depth information of an object photographed on a 2D background image.

다음으로, 영상합성 시스템(100)이 2D 전경객체영상(310)을 입력받는 단계(s20)를 수행한다. 2D 전경객체영상(310)은 비디오영상으로서 실세계 카메라로 촬영된 비디오 영상에서 배경을 제거하고 하나 또는 복수의 촬영객체만 추출한 영상으로서 합성영상에서 전경영상으로 사용된다. 2D 전경객체영상(310)은 촬영된 객체의 공간정보를 요하지 않지만 실시예에 따라서는 보다 입체감을 높이기 위해 표면의 깊이정보를 더 포함하여 구성될 수 있다.Next, the image synthesizing system 100 receives the 2D foreground object image 310 (s20). The 2D foreground object image 310 is a video image obtained by removing a background from a video image photographed by a real-world camera and extracting only one or a plurality of photographed objects, and is used as a foreground image in a composite image. The 2D foreground object image 310 does not require spatial information of the photographed object, but may be configured to further include depth information of the surface to enhance stereoscopic effect depending on the embodiment.

한편 2D 배경영상 입력단계(s10)와 2D 전경객체영상 입력단계(s20)의 수행순서는 동시에 수행되거나 2D 전경객체영상 입력단계(s20)가 2D 배경영상 입력단계(s10)에 선행할 수 있다.Meanwhile, the 2D background image input step s10 and the 2D foreground object image input step s20 may be performed simultaneously or the 2D foreground object image input step s20 may precede the 2D background image input step s10.

다음으로, 영상합성 시스템(100)이 도 2에 도시된 바와 같이 소정의 높이를 갖고 중앙부가 오목한 곡면으로 형성된 제 1 배경투영면(210)을 가상공간에 형성하는 단계(s30)를 수행한다. 제 1 배경투영면(210)의 형상으로 인해 2D 배경영상의 중앙부는 가상카메라(320)에서 멀리 위치하고 2D 배경영상의 좌우측은 가상카메라(320)에 가깝게 위치하게 된다. 제 1 배경투영면(210)은 도 3에 도시된 바와 같이 다양한 곡면의 형태로 형성될 수 있다. 다각형 형상으로 제 1 배경투영면(210)을 형성하는 경우 다각형의 모서리 부분에서의 급격한 각도 변화로 인해 가상카메라(320)의 이동에 따라 불연속적인 배경의 묘사가 일어날 수 있기 때문에 곡면 형상으로 생성하는 것이 보다 바람직하다.Next, the image synthesizing system 100 performs a step (s30) of forming a first background projection plane 210 having a predetermined height and a concave curved surface in the virtual space as shown in FIG. Due to the shape of the first background projection plane 210, the center part of the 2D background image is located far away from the virtual camera 320, and the left and right sides of the 2D background image are located close to the virtual camera 320. The first background projection plane 210 may be formed in various curved surfaces as shown in FIG. When the first background projection plane 210 is formed in a polygonal shape, a discontinuous background may be depicted according to the movement of the virtual camera 320 due to a sudden change in angle at the corner of the polygon, More preferable.

다음으로, 영상합성 시스템(100)이 가상공간 상의 가상투영점에서 제 1 배경투영면(210)에 2D 배경영상의 적어도 일부를 투영하는 단계(s40)를 수행한다. 제 1 배경투영면(210)에는 2D 배경영상의 전부가 투영될 수도 있고 2D 배경영상의 전부가 투영될 수 있다. 이때, 투영되는 2D 배경영상은 가상카메라(320)가 위치하는 위치에 해당하거나 그에 인접한 위치의 가상투영점에서 봤을 때 입체형상인 제 1 배경투영면(210)에 투영된 2D 배경영상이 왜곡되어 보이지 않는 형상으로 변형된 2D 배경영상이 제 1 배경투영면(210)에 텍스처링되는 방법으로 2D 배경영상 투영단계(s40)가 수행된다.Next, the image synthesizing system 100 performs step (s40) of projecting at least a part of the 2D background image on the first background projection plane 210 at the virtual projection point in the virtual space. All of the 2D background image may be projected on the first background projection plane 210 and all of the 2D background image may be projected. At this time, the 2D background image to be projected is a 2D background image projected on the first background projection plane 210, which is a stereoscopic image when viewed from a virtual projection point corresponding to the position where the virtual camera 320 is located or adjacent thereto, The 2D background image projecting step s40 is performed in such a manner that the 2D background image transformed into the shape is textured on the first background projection plane 210. [

다음으로, 영상합성 시스템(100)이 가상공간 상의 가상투영점과 제 1 배경투영면(210) 사이에 2D 전경객체영상(310)을 배치하는 단계(s50)를 수행한다. 2D 전경객체영상(310)은 가상공간에서 제 1 배경투영면(210)과 일정거리 이격되고 가상투영점과도 일정거리 이격되는 위치에 높이기 때문에 가상카메라(320)의 이동에 따라 도 7 및 도 8에 도시된 바와 같이 2D 전경객체영상(310)은 자연스럽게 2D 배경영상과 합성될 수 있다.Next, the image synthesizing system 100 performs a step (s50) of arranging the 2D foreground object image 310 between the virtual projection point on the virtual space and the first background projection plane 210. The 2D foreground object image 310 is spaced a certain distance from the first background projection plane 210 in the virtual space and is elevated to a position spaced apart from the virtual projection point by a certain distance. The 2D foreground object image 310 can be naturally synthesized with the 2D background image as shown in FIG.

실시예에 따라서는 도 4, 도 5 및 도 6에 도시된 바와 같이 보다 복수의 배경투영면들로 구성되는 입체적인 형상으로 배경투영면을 생성하는 것이 바람직하다. 도 4의 실시예에 따르면, 배경투영면을 생성하는 단계(s30)는 영상합성 시스템(100)이 제 1 배경투영면(210)의 하단부에서 연장되어 저면을 형성하는 제 2 배경투영면(220)을 더 생성하도록 구성하고, 2D 배경영상을 투영하는 단계(s40)는 영상합성 시스템(100)이 제 1 배경투영면(210) 및 제 2 배경투영면(220)에 거쳐 2D 배경영상의 적어도 일부를 투영하도록 구성한다. 이에 따르면 2D 배경영상의 바닥부분은 배경투영면의 바닥을 형성하는 제 2 배경투영면(220)에 투영되고, 제 1 배경투영면(210) 보다 제 2 배경투영면(220)이 가상카메라(320)에 가깝게 형성되기 때문에 자연스러운 입체감을 형성할 수 있는 효과가 있다.According to the embodiment, it is preferable to generate a background projection plane in a three-dimensional shape composed of a plurality of background projection planes as shown in Figs. 4, 5, and 6. According to the embodiment of FIG. 4, step s30 of generating a background projection plane may be performed by the image synthesizing system 100 further comprising a second background projection plane 220 extending from the lower end of the first background projection plane 210, (S40) of projecting the 2D background image is configured so that the image synthesizing system 100 projects at least a part of the 2D background image through the first background projection plane 210 and the second background projection plane 220 do. The bottom portion of the 2D background image is projected onto the second background projection plane 220 forming the bottom of the background projection plane and the second background projection plane 220 is closer to the virtual camera 320 than the first background projection plane 210 So that a natural three-dimensional effect can be formed.

이때 2D 전경객체영상을 배치하는 단계(s50)는, 영상합성 시스템(100)이 2D 전경객체영상(310)의 하단부가 제 2 배경투영면(220)에 접촉하도록 2D 전경객체영상(310)을 배치하도록 구성함으로써 가상카메라(320)의 이동에도 불구하고 2D 전경객체영상(310)이 지면에 해당하는 2D 배경영상에 고정되는 고품질의 합성영상을 생성하는 효과를 제공한다.At this time, the step of arranging the 2D foreground object image (s50) includes arranging the 2D foreground object image 310 so that the lower end of the 2D foreground object image 310 comes into contact with the second background projection plane 220 So that the 2D foreground object image 310 is fixed to the 2D background image corresponding to the ground despite the movement of the virtual camera 320, thereby providing a high quality composite image.

한편, 배경투영면을 생성하는 단계(s30)는 영상합성 시스템(100)이 제 1 배경투영면(210) 및 제 2 배경투영면(220)이 서로 90도 내지 120도의 내각을 형성하도록 제 1 배경투영면(210) 및 제 2 배경투영면(220)을 생성하도록 구성할 수 있다.The step s30 of generating the background projection plane may be performed by the image synthesizing system 100 so that the first background projection plane 210 and the second background projection plane 220 form an interior angle of 90 to 120 degrees with respect to each other. 210 and a second background projection plane 220. [

또한 도 6에 도시된 바와 같이 배경투영면을 생성하는 단계(s30)는 영상합성 시스템(100)이 제 1 배경투영면(210) 및 제 2 배경투영면(220)이 접하는 영역을 곡면으로 처리하여 제 1 배경투영면(210) 및 제 2 배경투영면(220)을 생성하는 것이 바람직하다. 이러한 구성을 통해 제 1 배경투영면(210)과 제 2 배경투영면(220)이 만나는 영역에서의 급격한 각도 변화로 인해 가상카메라(320) 이동시 배경영상의 왜곡이 발생하는 것을 방지할 수 있는 효과가 있다. As shown in FIG. 6, the step s30 of generating a background projection plane may be performed by the image synthesizing system 100 by processing an area touched by the first background projection plane 210 and the second background projection plane 220, It is preferable to generate the background projection plane 210 and the second background projection plane 220. With this configuration, it is possible to prevent the background image from being distorted when the virtual camera 320 is moved due to a sudden change in angle in the region where the first background projection plane 210 and the second background projection plane 220 meet .

도 5 및 도 6의 실시예에 따르면, 배경투영면을 생성하는 단계(s30)는 영상합성 시스템(100)이 제 2 배경투영면 뿐 아니라 제 1 배경투영면(210)의 상단부에서 연장되어 상면을 형성하는 제 3 배경투영면(230)을 더 생성하고, 2D 배경영상을 투영하는 단계(s40)는, 영상합성 시스템(100)이 제 1 배경투영면(210), 제 2 배경투영면(220), 및 제 3 배경투영면(230)에 거쳐 2D 배경영상의 적어도 일부를 투영하도록 구성할 수 있다. 이러한 실시예에 따르면 2D 배경영상의 상부에 해당하는 천장 또는 하늘과 같은 배경이 제 3 배경투영면(230)에 투영되기 때문에 배경의 원근감을 제고할 수 있는 효과를 제공한다.According to the embodiment of Figures 5 and 6, the step s30 of creating the background projection plane may be performed by the image synthesizing system 100, not only the second background projection plane but also the upper surface of the first background projection plane 210, Step s40 of generating a third background projection plane 230 and projecting a 2D background image may be performed when the image synthesis system 100 has the first background projection plane 210, the second background projection plane 220, And to project at least a part of the 2D background image through the background projection plane 230. [ According to this embodiment, since the background such as the ceiling or the sky corresponding to the upper part of the 2D background image is projected on the third background projection surface 230, it is possible to enhance the perspective of the background.

이상에서 설명한 배경투영면 형성단계(s30), 2D 배경영상 투영단계(s40), 2D 전경객체영상 배치단계(s50)는 영상합성 시스템(100)에 의해 동시에 수행되거나 다른 순서로 수행되어도 무방하다.The background projection plane forming step s30, the 2D background image projecting step s40, and the 2D foreground object image placement step s50 described above may be simultaneously performed by the image synthesizing system 100 or may be performed in a different order.

마지막으로, 영상합성 시스템(100)이 가상공간에 배치되는 가상카메라(320)의 화각에 2D 배경영상의 적어도 일부와 2D 전경객체영상(310)의 적어도 일부를 포함하여 합성영상을 생성하는 단계(s60)를 수행한다. 합성영상 생성 단계(s60)에서 가상카메라(320)는 패닝동작, 무빙동작, 틸트동작, 줌동작 등을 통해 보다 역동적인 합성영상을 생성하는 것이 바람직하다.Finally, the image synthesizing system 100 includes at least a part of the 2D background image and at least a part of the 2D foreground object image 310 at the angle of view of the virtual camera 320 disposed in the virtual space, s60. In the synthetic image generating step s60, the virtual camera 320 preferably generates a more dynamic synthetic image through a panning operation, a moving operation, a tilting operation, a zooming operation, and the like.

또한 2D 전경객체영상(310)이 실세계 카메라의 카메라 워크를 이용하여 촬영된 경우 가상카메라(320)는 이에 연동하여 실세계 카메라와 동일한 카메라 워크을 통해 합성영상을 생성하는 것이 바람직하다. 이를 위해 패닝동작의 경우 2D 전경객체영상 입력단계(s20)는, 영상합성 시스템(100)이 실세계 카메라의 패닝동작에 의해 생성된 비디오 영상을 2D 전경객체영상(310)으로 입력받고, 합성영상을 생성하는 단계(s60)는, 영상합성 시스템(100)이 실세계 카메라의 패닝동작을 정의하는 제 1 카메라 제어 데이터에 근거하여 가상카메라(320)를 패닝제어하여 합성영상을 생성하도록 구성한다.When the 2D foreground object image 310 is photographed using a camera work of a real-world camera, the virtual camera 320 preferably generates a synthetic image through the same camera work as the real-world camera. For this, in the panning operation, the 2D foreground object image input step s20 receives the video image generated by the panning operation of the real camera in the image synthesizing system 100 as the 2D foreground object image 310, The generating step s60 is configured so that the image synthesizing system 100 generates a synthesized image by controlling the panning of the virtual camera 320 based on the first camera control data defining the panning operation of the real camera.

무빙동작의 경우 2D 전경객체영상 입력단계(s20)는 영상합성 시스템(100)이 실세계 카메라의 무빙동작에 의해 생성된 비디오 영상을 2D 전경객체영상(310)으로 입력받고, 합성영상을 생성하는 단계(s60)는 영상합성 시스템(100)이 실세계 카메라의 무빙동작을 정의하는 제 2 카메라 제어 데이터에 근거하여 가상카메라(320)를 무빙제어하여 합성영상을 생성하도록 구성한다.In the case of the moving operation, the 2D foreground object image input step s20 receives the video image generated by the moving operation of the real world camera as the 2D foreground object image 310 by the image synthesizing system 100 and generates the synthesized image (s60) is configured such that the image synthesizing system (100) moves the virtual camera (320) based on the second camera control data defining the moving operation of the real camera to generate a synthesized image.

본 명세서에서의 발명의 상세한 설명은 바람직한 실시예를 설명하는 것으로, 본 발명은 이러한 실시예에 한정되지 않는다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 이상의 실시예에 대한 다양한 변경과 수정이 가능하고, 본 발명의 기술적 사상은 이러한 다양한 변경과 수정을 모두 포함한다.The detailed description of the invention in this specification is intended to illustrate the preferred embodiments, and the invention is not limited to these embodiments. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. .

100 : 영상합성 시스템 110 : 배경영상 입력부
120 : 전경객체영상 입력부 130 : 모델링부
140 : 합성영상 생성부 210 : 제 1 배경투영면
220 : 제 2 배경투영면 230 : 제 3 배경투영면
310 : 2D 전경객체영상 320 : 가상카메라
100: image synthesis system 110: background image input unit
120: foreground object image input unit 130: modeling unit
140: composite image generation unit 210: first background projection plane
220: second background projection plane 230: third background projection plane
310: 2D foreground object image 320: virtual camera

Claims (20)

2D 배경영상을 입력받는 배경영상 입력부;
2D 전경객체영상을 입력받는 전경객체영상 입력부;
높이를 갖고 중앙부가 오목한 곡면으로 형성된 제 1 배경투영면을 가상공간에 형성하고, 상기 가상공간 상의 가상투영점에서 상기 제 1 배경투영면에 상기 2D 배경영상의 적어도 일부를 투영하고, 상기 가상공간 상의 상기 가상투영점과 상기 제 1 배경투영면 사이에 상기 2D 전경객체영상을 배치하는 모델링부; 및
상기 가상공간에 배치되는 가상카메라의 화각에 상기 2D 배경영상의 적어도 일부와 상기 2D 전경객체영상의 적어도 일부를 포함하여 합성영상을 생성하는 합성영상 생성부;를 포함하여 구성되는 것을 특징으로 하고,
상기 모델링부는,
상기 제 1 배경투영면의 하단부에서 연장되어 저면을 형성하는 제 2 배경투영면을 더 생성하고, 상기 제 1 배경투영면 및 상기 제 2 배경투영면에 거쳐 상기 2D 배경영상의 적어도 일부를 투영하고,
상기 제 1 배경투영면 및 상기 제 2 배경투영면이 접하는 영역을 곡면으로 처리하여 상기 제 1 배경투영면 및 상기 제 2 배경투영면을 생성하는 것을 특징으로 하는 영상합성 시스템.
A background image input unit receiving a 2D background image;
A foreground object image input unit receiving a 2D foreground object image;
Forming a first background projection surface having a height and a concave curved surface at a central portion in a virtual space, projecting at least a part of the 2D background image on the first background projection surface at a virtual projection point on the virtual space, A modeling unit for arranging the 2D foreground object image between the virtual projection point and the first background projection plane; And
And a synthesized image generation unit that generates a synthesized image by including at least a part of the 2D background image and at least a part of the 2D foreground object image at an angle of view of a virtual camera disposed in the virtual space,
The modeling unit,
Further generating a second background projection plane extending from a lower end of the first background projection plane to form a bottom surface and projecting at least a part of the 2D background image via the first background projection plane and the second background projection plane,
Wherein the first background projection plane and the second background projection plane are generated by processing a region in which the first background projection plane and the second background projection plane are in contact with a curved surface.
제 1 항에 있어서,
상기 2D 배경영상은 정지영상이고, 상기 2D 전경객체영상 및 상기 합성영상은 비디오 영상인 것을 특징으로 하는 영상합성 시스템.
The method according to claim 1,
Wherein the 2D background image is a still image, the 2D foreground object image, and the composite image are video images.
제 1 항에 있어서,
상기 2D 배경영상, 상기 2D 전경객체영상 및 상기 합성영상은 비디오 영상인 것을 특징으로 하는 영상합성 시스템.
The method according to claim 1,
Wherein the 2D background image, the 2D foreground object image, and the composite image are video images.
삭제delete 제 1 항에 있어서, 상기 모델링부는,
상기 2D 전경객체영상의 하단부가 상기 제 2 배경투영면에 접촉하도록 상기 2D 전경객체영상을 배치하는 것을 특징으로 하는 영상합성 시스템.
The apparatus of claim 1,
And arranges the 2D foreground object image so that a lower end of the 2D foreground object image is in contact with the second background projection plane.
제 1 항에 있어서, 상기 모델링부는,
상기 제 1 배경투영면의 상단부에서 연장되어 상면을 형성하는 제 3 배경투영면을 더 생성하고, 상기 제 1 배경투영면, 상기 제 2 배경투영면, 및 상기 제 3 배경투영면에 거쳐 상기 2D 배경영상의 적어도 일부를 투영하는 것을 특징으로 하는 영상합성 시스템.
The apparatus of claim 1,
And a third background projection plane extending from an upper end of the first background projection plane to form an upper surface; and generating at least a part of the 2D background image through the first background projection plane, the second background projection plane, To the image synthesizing system.
제 1 항에 있어서, 상기 모델링부는,
상기 제 1 배경투영면 및 상기 제 2 배경투영면이 서로 90도 내지 120도의 내각을 형성하도록 상기 제 1 배경투영면 및 상기 제 2 배경투영면을 생성하는 것을 특징으로 하는 영상합성 시스템.
The apparatus of claim 1,
Wherein the first background projection plane and the second background projection plane are generated so that the first background projection plane and the second background projection plane form an interior angle of 90 to 120 degrees with respect to each other.
삭제delete 제 1 항에 있어서,
상기 전경객체영상 입력부는, 실세계 카메라의 패닝동작에 의해 생성된 비디오 영상을 상기 2D 전경객체영상으로 입력받고,
상기 합성영상 생성부는, 상기 실세계 카메라의 패닝동작을 정의하는 제 1 카메라 제어 데이터에 근거하여 상기 가상카메라를 패닝제어하여 상기 합성영상을 생성하는 것을 특징으로 하는 영상합성 시스템.
The method according to claim 1,
The foreground object image input unit receives a video image generated by a panning operation of a real-world camera as the 2D foreground object image,
Wherein the composite image generating unit generates the composite image by controlling the panning of the virtual camera based on first camera control data defining a panning operation of the real camera.
제 1 항에 있어서,
상기 전경객체영상 입력부는, 상기 영상합성 시스템이 실세계 카메라의 무빙동작에 의해 생성된 비디오 영상을 상기 2D 전경객체영상으로 입력받고,
상기 합성영상 생성부는, 상기 실세계 카메라의 무빙동작을 정의하는 제 2 카메라 제어 데이터에 근거하여 상기 가상카메라를 무빙제어하여 상기 합성영상을 생성하는 것을 특징으로 하는 영상합성 시스템.
The method according to claim 1,
Wherein the foreground object image input unit receives the video image generated by the moving operation of the real-world camera as the 2D foreground object image,
Wherein the composite image generating unit generates the composite image by moving the virtual camera based on second camera control data defining the moving operation of the real camera.
영상합성 시스템이 2D 배경영상을 입력받는 단계;
상기 영상합성 시스템이 2D 전경객체영상을 입력받는 단계;
상기 영상합성 시스템이 소정의 높이를 갖고 중앙부가 오목한 곡면으로 형성된 제 1 배경투영면을 가상공간에 형성하는 단계;
상기 영상합성 시스템이 상기 가상공간 상의 가상투영점에서 상기 제 1 배경투영면에 상기 2D 배경영상의 적어도 일부를 투영하는 단계;
상기 영상합성 시스템이 상기 가상공간 상의 상기 가상투영점과 상기 제 1 배경투영면 사이에 상기 2D 전경객체영상을 배치하는 단계; 및
상기 영상합성 시스템이 상기 가상공간에 배치되는 가상카메라의 화각에 상기 2D 배경영상의 적어도 일부와 상기 2D 전경객체영상의 적어도 일부를 포함하여 합성영상을 생성하는 단계;를 포함하여 구성되는 것을 특징으로 하고,
상기 제 1 배경투영면을 형성하는 단계는, 상기 영상합성 시스템이 상기 제 1 배경투영면의 하단부에서 연장되어 저면을 형성하는 제 2 배경투영면을 더 생성하고,
상기 2D 배경영상을 투영하는 단계는, 상기 영상합성 시스템이 상기 제 1 배경투영면 및 상기 제 2 배경투영면에 거쳐 상기 2D 배경영상의 적어도 일부를 투영하고,
상기 제 1 배경투영면을 생성하는 단계는, 상기 영상합성 시스템이 상기 제 1 배경투영면 및 상기 제 2 배경투영면이 접하는 영역을 곡면으로 처리하여 상기 제 1 배경투영면 및 상기 제 2 배경투영면을 생성하는 것을 특징으로 하는 영상합성방법.
Receiving a 2D background image by a video synthesis system;
Receiving the 2D foreground object image by the image synthesis system;
Forming a first background projection surface in a virtual space, the first background projection surface having a predetermined height and a central concave surface;
Projecting at least a portion of the 2D background image to the first background projection plane at a virtual projection point on the virtual space;
Arranging the 2D foreground object image between the virtual projection point on the virtual space and the first background projection plane; And
And the image synthesizing system includes at least a part of the 2D background image and at least a part of the 2D foreground object image at an angle of view of a virtual camera disposed in the virtual space to generate a composite image. and,
Wherein the step of forming the first background projection plane further comprises the step of generating a second background projection plane extending from a lower end of the first background projection plane to form a bottom plane,
Wherein projecting the 2D background image comprises projecting at least a portion of the 2D background image via the first background projection plane and the second background projection plane,
The step of generating the first background projection plane may include generating the first background projection plane and the second background projection plane by processing the area touched by the first background projection plane and the second background projection plane as a curved surface A method of synthesizing images.
제 11 항에 있어서,
상기 2D 배경영상은 정지영상이고, 상기 2D 전경객체영상 및 상기 합성영상은 비디오 영상인 것을 특징으로 하는 영상합성방법.
12. The method of claim 11,
Wherein the 2D background image is a still image, the 2D foreground object image, and the composite image are video images.
제 11 항에 있어서,
상기 2D 배경영상, 상기 2D 전경객체영상 및 상기 합성영상은 비디오 영상인 것을 특징으로 하는 영상합성방법.
12. The method of claim 11,
Wherein the 2D background image, the 2D foreground object image, and the composite image are video images.
삭제delete 제 11 항에 있어서,
상기 2D 전경객체영상을 배치하는 단계는, 상기 영상합성 시스템이 상기 2D 전경객체영상의 하단부가 상기 제 2 배경투영면에 접촉하도록 상기 2D 전경객체영상을 배치하는 것을 특징으로 하는 영상합성방법.
12. The method of claim 11,
Wherein the step of arranging the 2D foreground object image places the 2D foreground object image so that the lower end of the 2D foreground object image comes into contact with the second background projection plane.
제 11 항에 있어서,
상기 제 1 배경투영면을 생성하는 단계는, 상기 영상합성 시스템이 상기 제 1 배경투영면의 상단부에서 연장되어 상면을 형성하는 제 3 배경투영면을 더 생성하고,
상기 2D 배경영상을 투영하는 단계는, 상기 영상합성 시스템이 상기 제 1 배경투영면, 상기 제 2 배경투영면, 및 상기 제 3 배경투영면에 거쳐 상기 2D 배경영상의 적어도 일부를 투영하는 것을 특징으로 하는 영상합성방법.
12. The method of claim 11,
Wherein the generating of the first background projection plane further comprises generating a third background projection plane extending from an upper end of the first background projection plane to form an upper plane,
Wherein projecting the 2D background image projects at least a portion of the 2D background image via the first background projection plane, the second background projection plane, and the third background projection plane. Synthesis method.
제 11 항에 있어서,
상기 제 1 배경투영면을 생성하는 단계는, 상기 영상합성 시스템이 상기 제 1 배경투영면 및 상기 제 2 배경투영면이 서로 90도 내지 120도의 내각을 형성하도록 상기 제 1 배경투영면 및 상기 제 2 배경투영면을 생성하는 것을 특징으로 하는 영상합성방법.
12. The method of claim 11,
Wherein the step of generating the first background projection plane comprises the step of moving the first background projection plane and the second background projection plane so that the first background projection plane and the second background projection plane form an interior angle of 90 to 120 degrees with respect to each other And generating the image data.
삭제delete 제 11 항에 있어서,
상기 2D 전경객체영상을 입력받는 단계는, 상기 영상합성 시스템이 실세계 카메라의 패닝동작에 의해 생성된 비디오 영상을 상기 2D 전경객체영상으로 입력받고,
상기 합성영상을 생성하는 단계는, 상기 영상합성 시스템이 상기 실세계 카메라의 패닝동작을 정의하는 제 1 카메라 제어 데이터에 근거하여 상기 가상카메라를 패닝제어하여 상기 합성영상을 생성하는 것을 특징으로 하는 영상합성방법.
12. The method of claim 11,
Wherein the receiving of the 2D foreground object image comprises receiving the video image generated by the panning operation of the real-world camera as the 2D foreground object image,
Wherein the generating of the composite image comprises generating the composite image by controlling the panning of the virtual camera based on first camera control data defining a panning operation of the real camera, Way.
제 11 항에 있어서,
상기 2D 전경객체영상을 입력받는 단계는, 상기 영상합성 시스템이 실세계 카메라의 무빙동작에 의해 생성된 비디오 영상을 상기 2D 전경객체영상으로 입력받고,
상기 합성영상을 생성하는 단계는, 상기 영상합성 시스템이 상기 실세계 카메라의 무빙동작을 정의하는 제 2 카메라 제어 데이터에 근거하여 상기 가상카메라를 무빙제어하여 상기 합성영상을 생성하는 것을 특징으로 하는 영상합성방법.
12. The method of claim 11,
Wherein the receiving of the 2D foreground object image comprises receiving the video image generated by the moving operation of the real-world camera as the 2D foreground object image,
Wherein the generating of the composite image comprises moving the virtual camera on the basis of the second camera control data defining the moving operation of the real camera to generate the composite image, Way.
KR1020160171469A 2016-12-15 2016-12-15 System and Method for Video Composition KR101843018B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160171469A KR101843018B1 (en) 2016-12-15 2016-12-15 System and Method for Video Composition
PCT/KR2017/014659 WO2018110978A1 (en) 2016-12-15 2017-12-13 Image synthesizing system and image synthesizing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160171469A KR101843018B1 (en) 2016-12-15 2016-12-15 System and Method for Video Composition

Publications (1)

Publication Number Publication Date
KR101843018B1 true KR101843018B1 (en) 2018-03-28

Family

ID=61901338

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160171469A KR101843018B1 (en) 2016-12-15 2016-12-15 System and Method for Video Composition

Country Status (2)

Country Link
KR (1) KR101843018B1 (en)
WO (1) WO2018110978A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102610134B1 (en) * 2023-07-06 2023-12-05 주식회사 젠젠에이아이 Method and system for generating composite image

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109410304B (en) * 2018-09-18 2023-06-16 珠海金山数字网络科技有限公司 Projection determination method, device and equipment
CN110730340B (en) * 2019-09-19 2023-06-20 北京拉近众博科技有限公司 Virtual audience display method, system and storage medium based on lens transformation
CN115002359B (en) * 2022-05-23 2024-10-11 北京字跳网络技术有限公司 Video processing method, device, electronic equipment and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100533328B1 (en) * 2003-06-27 2005-12-05 한국과학기술연구원 Method of rendering a 3D image from a 2D image
KR100795552B1 (en) * 2005-02-07 2008-01-21 주식회사 다림비젼 3D Virtual Studio Using VIDEO Texturing
JP2009141727A (en) 2007-12-07 2009-06-25 Eyedentify:Kk Synthetic video image studio system
JP5906322B2 (en) * 2013-02-22 2016-04-20 ソニー株式会社 Head mounted display, image display device, and image display method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070098361A (en) * 2006-03-31 2007-10-05 (주)엔브이엘소프트 Apparatus and method for synthesizing a 2-d background image to a 3-d space

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100533328B1 (en) * 2003-06-27 2005-12-05 한국과학기술연구원 Method of rendering a 3D image from a 2D image
KR100795552B1 (en) * 2005-02-07 2008-01-21 주식회사 다림비젼 3D Virtual Studio Using VIDEO Texturing
JP2009141727A (en) 2007-12-07 2009-06-25 Eyedentify:Kk Synthetic video image studio system
JP5906322B2 (en) * 2013-02-22 2016-04-20 ソニー株式会社 Head mounted display, image display device, and image display method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102610134B1 (en) * 2023-07-06 2023-12-05 주식회사 젠젠에이아이 Method and system for generating composite image
KR102610135B1 (en) * 2023-07-06 2023-12-05 주식회사 젠젠에이아이 Method and system for generating composite image
KR102610133B1 (en) * 2023-07-06 2023-12-05 주식회사 젠젠에이아이 Method and system for generating composite image

Also Published As

Publication number Publication date
WO2018110978A1 (en) 2018-06-21

Similar Documents

Publication Publication Date Title
US9288476B2 (en) System and method for real-time depth modification of stereo images of a virtual reality environment
KR101843018B1 (en) System and Method for Video Composition
US8581961B2 (en) Stereoscopic panoramic video capture system using surface identification and distance registration technique
KR101367820B1 (en) Portable multi view image acquisition system and method
JP4065488B2 (en) 3D image generation apparatus, 3D image generation method, and storage medium
US10277890B2 (en) System and method for capturing and viewing panoramic images having motion parallax depth perception without image stitching
US20020113865A1 (en) Image processing method and apparatus
US20080246757A1 (en) 3D Image Generation and Display System
KR20180111798A (en) Adaptive stitching of frames in the panorama frame creation process
WO2014154839A1 (en) High-definition 3d camera device
KR20070119018A (en) Automatic scene modeling for the 3d camera and 3d video
TWI848978B (en) Image synthesis
JPH11259672A (en) Three-dimensional virtual space display device
JP7196421B2 (en) Information processing device, information processing system, information processing method and program
KR102067823B1 (en) Method and apparatus for operating 2d/3d augument reality technology
KR20110107692A (en) Spatial multi interaction-based 3d stereo interactive vision system and method of the same
JP5963006B2 (en) Image conversion apparatus, camera, video system, image conversion method, and recording medium recording program
KR100321897B1 (en) Stereoscopic image conversion method and apparatus
KR20080034419A (en) 3d image generation and display system
KR100335617B1 (en) Method for synthesizing three-dimensional image
TWI846808B (en) Image signal representing a scene
JP6799468B2 (en) Image processing equipment, image processing methods and computer programs
JP3230481B2 (en) Television image synthesis method
Kunita et al. Real-time rendering system of moving objects
KR101697163B1 (en) system and method for chroma-key composing for providing three-dimensional structure effect

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant