KR101843018B1 - System and Method for Video Composition - Google Patents
System and Method for Video Composition Download PDFInfo
- Publication number
- KR101843018B1 KR101843018B1 KR1020160171469A KR20160171469A KR101843018B1 KR 101843018 B1 KR101843018 B1 KR 101843018B1 KR 1020160171469 A KR1020160171469 A KR 1020160171469A KR 20160171469 A KR20160171469 A KR 20160171469A KR 101843018 B1 KR101843018 B1 KR 101843018B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- background
- projection plane
- foreground object
- background projection
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/2224—Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
- H04N5/2226—Determination of depth image, e.g. for foreground/background separation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
- Studio Circuits (AREA)
Abstract
Description
본 발명은 영상합성 시스템 및 영상합성방법에 관한 것으로, 보다 상세하게는 카메라 시점의 변화에 따라 배경영상과 전경영상이 자연스럽게 합성될 수 있는 영상합성 시스템 및 영상합성방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image synthesis system and an image synthesis method, and more particularly, to an image synthesis system and an image synthesis method capable of naturally synthesizing a background image and a foreground image according to a change in camera viewpoint.
영상촬영기술 및 영상편집기술의 발전에 따라 실세계 카메라로 촬영된 인물 등의 전경영상과 야외풍경 등의 배경영상을 합성하는 배경합성방법이 널리 사용되고 있다. 특히 그린스크린 등을 이용한 크로마키 합성기법, 영상의 깊이 측정에 의한 배경분리 기법, 영상편집 소프트웨어의 보급 등으로 인해 배경합성에 소요되는 비용, 인력, 시간이 현저히 저감하게 되어 영화나 TV 프로그램과 같은 전문가가 제작하는 PGC(Professionally Generated Content) 뿐 아니라 일반 사용자가 제작하는 UGC(User Generated Content)에서도 배경합성기법이 사용되고 있다.BACKGROUND ART [0002] A background synthesis method for synthesizing a foreground image such as a person photographed by a real-world camera and a background image such as an outdoor landscape in accordance with the development of image capturing technology and image editing technology is widely used. In particular, chroma key synthesis method using green screen, background separation technique by depth measurement of image, spread of image editing software, and the like, the cost, manpower and time required for background synthesis are remarkably reduced, In addition to Professionally Generated Content (PGC) produced by experts, background synthesis techniques are also used in UGC (User Generated Content) produced by general users.
한편 배경합성은 고정된 화각의 2D 전경영상과 고정된 화각의 2D 배경영상을 평면적으로 합성하여 고정된 화각의 합성영상을 생성하는 것이 일반적이다. 고정된 2D 배경영상에 카메라 패닝 또는 카메라 무빙 등의 카메라 워크가 적용된 전경영상을 합성하면 합성영상에서 위화감이 발생하기 때문에 평면적인 영상합법 기법으로느 단조로운 구도의 합성영상만 제작할 수 있는 한계가 있었다.On the other hand, in the background synthesis, it is general to generate a composite image of a fixed angle of view by synthesizing a 2D foreground image of a fixed angle of view and a 2D background image of a fixed angle of view in a planar manner. There is a limitation in that a synthesized image of a monotonous composition can be produced only by a flat image matching technique because there is an uncomfortable feeling in a synthesized image when synthesizing a foreground image using a camera work such as a camera panning or a camera moving to a fixed 2D background image.
FUJINON CORP의 일본등록특허 제4140006호 “합성 화상 생성용 촬영 시스템”은 전경영상 촬영용 카메라에 적용된 팬, 틸트, 줌, 포커스 등의 카메라 제어신호를 배경영상 촬영용 카메라에 동일하게 적용하는 촬영 시스템을 개시한다. 이러한 방법은 전경영상과 배경영상이 동일한 화각을 공유하기 때문에 카메라의 패닝동작 또는 무빙동작에도 불구하고 위화감 없는 합성영상을 생성할 수 있는 효과가 있다. 하지만, 전경영상과 동기화되도록 특수하게 촬영된 배경영상만 사용하기 때문에 전경영상과 독립적으로 촬영된 2D 정지영상 또는 비디오 영상은 배경영상으로 사용할 수 없는 단점이 있으며 동기화된 배경촬영으로 인해 비용 및 노력이 증가하게 된다.Japanese Patent Registration No. 4140006, entitled " Photographing System for Composite Image Generation " of FUJINON CORP, discloses a photographing system in which a camera control signal such as a pan, tilt, zoom and focus applied to a camera for foreground image photography is equally applied to a background image photographing camera do. In this method, since the foreground image and the background image share the same angle of view, there is an effect that a composite image without discomfort can be generated despite the panning motion or the moving motion of the camera. However, since only the background image is synchronously synchronized with the foreground image, the 2D still image or video image taken independently of the foreground image can not be used as the background image, .
Milos Jovanovic의 미국공개특허 제2013-0335414호 “Visualization of Three-Dimensional Models of Objects in Two-Dimension Environment”는 2D 배경영상을 분석하여 3D 입체구조로 변환하는 방법을 개시한다. 이러한 방법에 따르면 2D 배경영상을 3D 입체구조로 변환하기 때문에 2D 전경영상과 합성하더라도 2D 전경영상의 카메라 워크에 부합하도록 배경영상을 적응적으로 변환하는 효과가 있다. 하지만 비정형적인 배경 오브젝트들이 촬영된 한 장의 2D 정지영상만으로 완전한 3D 입체구조를 구현하는 것은 현실적으로 매우 어려운 일이다. 또한 배경 오브젝트들을 3D 입체구조로 모델링하기 위해서는 상당한 노력, 시간 및 비용이 투입되기 때문에 다양한 배경영상을 획득하기 어려울 뿐 아니라 합성영상 생성에 소요되는 비용이 증가하는 문제가 있다.Milos Jovanovic, US Publication No. 2013-0335414, entitled " Visualization of Three-Dimensional Models of Objects in Two-Dimension Environment ", discloses a method of analyzing a 2D background image and converting it into a 3D stereoscopic structure. According to this method, since the 2D background image is converted into the 3D stereoscopic structure, the background image is adaptively converted so as to match the camera work of the 2D foreground image even when synthesized with the 2D foreground image. However, it is very difficult to realize a 3D stereoscopic structure with only a single 2D still image from which atypical background objects are photographed. In addition, since a considerable effort, time, and cost are put into modeling the background objects in the 3D stereoscopic structure, it is difficult to acquire various background images, and the cost for synthesized images is increased.
다림비젼의 한국등록특허 제0795552호 “비디오 텍스투어링을 이용한 삼차원 가상 스튜디오 장치”는 2D 배경영상을 가상공간의 평면에 텍스처링하고 2D 전경영상을 배경영상 전면에 배치하는 3D 렌더링을 이용한 배경합성기법을 개시한다. 이러한 방법에 따르면 2D 전경영상과 2D 배경영상이 가상공간에서 이격되어 배치되기 때문에 가상카메라의 패닝동작 또는 가상카메라의 무빙동작에 따라 전경영상과 배경영상 간의 거리로 인해 합성영상에서 어느 정도 입체감을 부여할 수 있는 효과가 있다. 하지만 첫째, 2D 배경영상이 평면에 텍스처링되기 때문에 배경영상 내에서의 원근감을 표현할 수 없는 문제가 있다. 둘째, 2D 전경영상이 예컨대 인물인 경우 전신 샷을 가상카메라로 담는 경우 가상카메라의 패닝동작 또는 무빙동작에 따라 2D 전경영상의 하단부가 되는 발이 배경영상에 고정되지 않고 다른 위치로 이동되는 문제가 있다. 이러한 문제들로 인해 본 종래기술은 보다 역동적인 카메라 워크와 수준 높은 합성영상을 원하는 사용자의 요구를 충족시키지 못하는 문제가 있다.Korean Patent No. 0795552, "VIDEO-TOUCHING VIRTUAL VIRTUAL STUDIO DEVICE" is a technology that combines a 2D background image into a plane of a virtual space and a background synthesis technique using 3D rendering, which places a 2D foreground image on the foreground of the background image . According to this method, since the 2D foreground image and the 2D background image are spaced apart from each other in the virtual space, the distance between the foreground image and the background image is varied depending on the panning motion of the virtual camera or the moving motion of the virtual camera, There is an effect that can be done. However, there is a problem that the 2D background image is textured on the plane, and thus the perspective of the background image can not be expressed. Secondly, when the 2D foreground image is a person, for example, when a whole-body shot is carried by a virtual camera, there is a problem that the foot, which is the lower end of the 2D foreground image, is moved to another position without being fixed to the background image according to the panning motion or the moving motion of the virtual camera . Due to these problems, the conventional art has a problem in that it can not meet a demand of a user who desires a more dynamic camera work and a high-quality composite image.
Hitachi의 미국등록특허 제6,124,859호 “Picture Conversion Method and Medium Used Therefor” 및 한국과학기술원의 한국등록특허 제0533328호 “2차원 이미지로부터 3차원 이미지를 생성하는 방법”은 2D 영상의 소실점 분석을 통해 입방체 형태의 가상공간을 구현하는 방법을 개시한다. 이러한 방법에 따르면 소실점 분석을 통해 2D 배경영상 내의 이미지의 입체화가 가능하다는 장점이 있다. 하지만 소실점이 명확하지 않는 2D 배경영상의 경우 본 종래기술의 방법을 적용하지 못하기 때문에 사용할 수 있는 2D 배경영상이 제한되는 문제가 있으며, 직선적인 3D 배경으로 인해 가상카메라의 이동에 따른 배경영상의 왜곡이 발생하는 문제가 있다. US Patent No. 6,124,859 to Hitachi, US Pat. No. 6,124,859, entitled " Picture Conversion Method and Medium Used Therefor ", and Korean Patent No. 0533328, " Method of Generating 3D Images from 2D Images " A method of implementing a virtual space of a form is disclosed. According to this method, there is an advantage that the image in the 2D background image can be solidified through analysis of the vanishing point. However, in the case of a 2D background image in which the vanishing point is not clear, there is a problem that the 2D background image that can be used can not be used because the method of the related art can not be applied, and the background image due to the movement of the virtual camera due to the linear 3D background There is a problem that distortion occurs.
엔브이엘소프트의 한국공개특허 제2007-0098361호 “2차원 배경 이미지를 3차원 공간에 합성시키는 영상 합성장치 및 방법”은 3D 가상공간 상의 2D 배경이미지를 이미지평면으로 설정하고 바닥평면을 생성하는 배경합성방법을 개시한다. 이러한 방법에 따르면 별도의 바닥평면이 있기 때문에 전경영상의 하단부가 배경에 고정되어 가상카메라의 패닝동작 또는 무빙동작에 따라 전경영상이 바닥에 고정되어 자연스러운 합성영상을 생성하는 효과가 있다. 하지만, 바닥평면이 2D 배경이미지와 위화감이 없도록 구성하기 위해서는 별도의 그래픽 작업을 통해 2D 배경이미지에 부합하는 바닥평면을 직접 생성해야 하는 문제가 있다.Korean Unexamined Patent Publication No. 2007-0098361 entitled " Image synthesis apparatus and method for synthesizing a two-dimensional background image in a three-dimensional space ", is a method of setting a 2D background image in a 3D virtual space as an image plane and generating a floor plane A background synthesis method is disclosed. According to this method, since the bottom surface of the foreground image is fixed to the background because there is a separate floor plane, the foreground image is fixed to the floor according to the panning motion or the moving motion of the virtual camera, thereby generating a natural composite image. However, there is a problem that a floor plane corresponding to a 2D background image must be directly generated through a separate graphic operation in order to configure the floor plane so as not to be discomfort with the 2D background image.
따라서 2D 전경영상과 2D 배경영상에 있어서 2D 전경영상과 독립적으로 촬영된 2D 배경영상 내의 입체감을 부여하면서 카메라의 패닝동작 또는 무빙동작에 따라 전경영상과 배경영산 간의 자연스럽게 원근감을 구현함으로써 보다 역동적인 카메라 워크를 구현할 수 있는 고품질 저비용의 배경합성방법이 요구된다.Therefore, the 2D foreground image and the 2D background image are given a 3D sensation in the 2D background image independently photographed with the 2D foreground image, while realizing a perspective of the natural image between the foreground image and the background image according to the panning motion or the moving motion of the camera, High-quality, low-cost background synthesis method capable of implementing a work.
본 발명에 따른 영상합성 시스템 및 영상합성방법은, 가상공간 상에서 중앙부가 오목한 곡면으로 형성된 제 1 배경투영면에 2D 배경영상을 투영하고, 2D 전경영상을 제 1 배경투영면 전면에 배치함으로써 별도의 이미지 프로세싱 등의 복잡한 연산 없이 2D 배경영상의 중앙부가 카메라의 패닝동작 또는 무빙동작에 따라 2D 전경영상과 자연스러운 원근감을 제공하는 합성영상을 생성하고 2D 전경영상과 독립적으로 촬영된 2D 배경영상들을 합성영상에 범용적으로 사용함으로써 합성영상 생성에 소요되는 비용을 저감하는 것을 목적으로 한다.The image synthesis system and the image synthesis method according to the present invention can be applied to an image processing system in which a 2D background image is projected onto a first background projection surface formed in a concave curved surface on a virtual space and a 2D foreground image is disposed on a foreground surface of a first background, The 2D image of the 2D background image is generated by the panning motion or the moving motion of the camera, thereby generating a composite image that provides a 2D foreground image and a natural perspective, and the 2D background image photographed independently from the 2D foreground image is general- It is an object of the present invention to reduce the cost of generating a composite image.
본 발명의 실시예에 따른 영상합성 시스템 및 영상합성방법은, 바닥면을 형성하는 제 2 배경투영면을 더 포함하고 전경영상의 하단부가 제 2 배경투영면에 접촉하도록 배치함으로써 카메라의 패닝동작 또는 무빙동작에도 불구하고 전경영상이 배경영상에 고정되도록 함으로써 위화감 없는 고품질의 합성영상을 제공하는 것을 목적으로 한다.The image synthesizing system and the image synthesizing method according to the embodiment of the present invention may further include a second background projection surface forming a bottom surface and arranging the lower end of the foreground image so as to contact the second background projection surface, The foreground image is fixed to the background image in order to provide a composite image of high quality without discomfort.
본 발명의 실시예에 따른 영상합성 시스템 및 영상합성방법은, 제 1 배경투영면 및 제 2 배경투영면이 접하는 영역이 곡면을 형성함으로써 가상카메라의 패닝동작 또는 무빙동작 시 투영면의 급격한 각도변화에 의한 합성영상에서 발생할 수 있는 왜곡을 최소화하는 것을 목적으로 한다.The image synthesis system and the image synthesis method according to the embodiment of the present invention are characterized in that a region in which the first background projection surface and the second background projection surface are in contact form a curved surface so that the panning operation of the virtual camera or the synthesis And aims at minimizing distortion that may occur in an image.
본 발명의 실시예에 따른 영상합성 시스템 및 영상합성방법은, 전경영상을 촬영한 실세계 카메라의 패닝동작 또는 무빙동작 등의 카메라 워크에 동기화된 가상카메라 제어를 통해 자연스럽고 역동적인 합성영상을 생성하는 것을 목적으로 한다.The image synthesis system and the image synthesis method according to the embodiment of the present invention generate a natural and dynamic synthetic image through virtual camera control synchronized with the camera work such as a panning operation or a moving operation of a real- .
본 발명에 따른 영상합성 시스템은, 2D 배경영상을 입력받는 배경영상 입력부; 2D 전경객체영상을 입력받는 전경객체영상 입력부; 높이를 갖고 중앙부가 오목한 곡면으로 형성된 제 1 배경투영면을 가상공간에 형성하고, 상기 가상공간 상의 가상투영점에서 상기 제 1 배경투영면에 상기 2D 배경영상의 적어도 일부를 투영하고, 상기 가상공간 상의 상기 가상투영점과 상기 제 1 배경투영면 사이에 상기 2D 전경객체영상을 배치하는 모델링부; 및 상기 가상공간에 배치되는 가상카메라의 화각에 상기 2D 배경영상의 적어도 일부와 상기 2D 전경객체영상의 적어도 일부를 포함하여 합성영상을 생성하는 합성영상 생성부;를 포함하여 구성되는 것을 특징으로 한다.The image synthesis system according to the present invention comprises: a background image input unit receiving a 2D background image; A foreground object image input unit receiving a 2D foreground object image; Forming a first background projection surface having a height and a concave curved surface at a central portion in a virtual space, projecting at least a part of the 2D background image on the first background projection surface at a virtual projection point on the virtual space, A modeling unit for arranging the 2D foreground object image between the virtual projection point and the first background projection plane; And a synthetic image generating unit generating at least a part of the 2D background image and at least a part of the 2D foreground object image at an angle of view of the virtual camera disposed in the virtual space, .
본 발명의 실시예에 따른 영상합성 시스템에 있어서, 상기 2D 배경영상은 정지영상이고, 상기 2D 전경객체영상 및 상기 합성영상은 비디오 영상인 것을 특징으로 한다.In the image synthesis system according to the embodiment of the present invention, the 2D background image is a still image, the 2D foreground object image, and the composite image are video images.
본 발명의 실시예에 따른 영상합성 시스템에 있어서, 상기 2D 배경영상, 상기 2D 전경객체영상 및 상기 합성영상은 비디오 영상인 것을 특징으로 한다.In the image synthesis system according to the embodiment of the present invention, the 2D background image, the 2D foreground object image, and the composite image are video images.
본 발명의 실시예에 따른 영상합성 시스템에 있어서, 상기 모델링부는, 상기 제 1 배경투영면의 하단부에서 연장되어 저면을 형성하는 제 2 배경투영면을 더 생성하고, 상기 제 1 배경투영면 및 상기 제 2 배경투영면에 거쳐 상기 2D 배경영상의 적어도 일부를 투영하는 것을 특징으로 한다.In the image synthesizing system according to the embodiment of the present invention, the modeling unit may further generate a second background projection plane extending from a lower end of the first background projection plane to form a bottom face, and the first background projection plane and the second background And at least a part of the 2D background image is projected through the projection plane.
본 발명의 실시예에 따른 영상합성 시스템에 있어서, 상기 모델링부는, 상기 2D 전경객체영상의 하단부가 상기 제 2 배경투영면에 접촉하도록 상기 2D 전경객체영상을 배치하는 것을 특징으로 한다.In the image synthesizing system according to the embodiment of the present invention, the modeling unit may arrange the 2D foreground object image so that the lower end of the 2D foreground object image contacts the second background projection plane.
본 발명의 실시예에 따른 영상합성 시스템에 있어서, 상기 모델링부는, 상기 제 1 배경투영면의 상단부에서 연장되어 상면을 형성하는 제 3 배경투영면을 더 생성하고, 상기 제 1 배경투영면, 상기 제 2 배경투영면, 및 상기 제 3 배경투영면에 거쳐 상기 2D 배경영상의 적어도 일부를 투영하는 것을 특징으로 한다.In the image synthesizing system according to the embodiment of the present invention, the modeling unit may further generate a third background projection plane extending from the upper end of the first background projection plane to form an upper face, and the first background projection plane, And projecting at least a part of the 2D background image through the third background projection surface.
본 발명의 실시예에 따른 영상합성 시스템에 있어서, 상기 모델링부는, 상기 제 1 배경투영면 및 상기 제 2 배경투영면이 서로 90도 내지 120도의 내각을 형성하도록 상기 제 1 배경투영면 및 상기 제 2 배경투영면을 생성하는 것을 특징으로 한다.In the image synthesizing system according to the embodiment of the present invention, the modeling unit may be configured to form the first background projection plane and the second background projection plane so that the first background projection plane and the second background projection plane form an interior angle of 90 to 120 degrees with respect to each other. .
본 발명의 실시예에 따른 영상합성 시스템에 있어서, 상기 모델링부는, 상기 제 1 배경투영면 및 상기 제 2 배경투영면이 접하는 영역을 곡면으로 처리하여 상기 제 1 배경투영면 및 상기 제 2 배경투영면을 생성하는 것을 특징으로 한다. In the image synthesizing system according to the embodiment of the present invention, the modeling unit may process the area touched by the first background projection surface and the second background projection surface as a curved surface to generate the first background projection surface and the second background projection surface .
본 발명의 실시예에 따른 영상합성 시스템에 있어서, 상기 전경객체영상 입력부는, 실세계 카메라의 패닝동작에 의해 생성된 비디오 영상을 상기 2D 전경객체영상으로 입력받고, 상기 합성영상 생성부는, 상기 실세계 카메라의 패닝동작을 정의하는 제 1 카메라 제어 데이터에 근거하여 상기 가상카메라를 패닝제어하여 상기 합성영상을 생성하는 것을 특징으로 한다.In the image synthesis system according to the embodiment of the present invention, the foreground object image input unit receives the video image generated by the panning operation of the real-world camera as the 2D foreground object image, The virtual camera is panned and controlled based on first camera control data defining a panning operation of the virtual camera to generate the composite image.
본 발명의 실시예에 따른 영상합성 시스템에 있어서, 상기 전경객체영상 입력부는, 상기 영상합성 시스템이 실세계 카메라의 무빙동작에 의해 생성된 비디오 영상을 상기 2D 전경객체영상으로 입력받고, 상기 합성영상 생성부는, 상기 실세계 카메라의 무빙동작을 정의하는 제 2 카메라 제어 데이터에 근거하여 상기 가상카메라를 무빙제어하여 상기 합성영상을 생성하는 것을 특징으로 한다.In the image synthesis system according to the embodiment of the present invention, the foreground object image input unit receives the video image generated by the moving operation of the real-world camera as the 2D foreground object image, Wherein the virtual camera is moved and controlled based on second camera control data defining a moving operation of the real-world camera to generate the composite image.
본 발명에 따른 영상합성방법은, 영상합성 시스템이 2D 배경영상을 입력받는 단계; 상기 영상합성 시스템이 2D 전경객체영상을 입력받는 단계; 상기 영상합성 시스템이 소정의 높이를 갖고 중앙부가 오목한 곡면으로 형성된 제 1 배경투영면을 가상공간에 형성하는 단계; 상기 영상합성 시스템이 상기 가상공간 상의 가상투영점에서 상기 제 1 배경투영면에 상기 2D 배경영상의 적어도 일부를 투영하는 단계; 상기 영상합성 시스템이 상기 가상공간 상의 상기 가상투영점과 상기 제 1 배경투영면 사이에 상기 2D 전경객체영상을 배치하는 단계; 및 상기 영상합성 시스템이 상기 가상공간에 배치되는 가상카메라의 화각에 상기 2D 배경영상의 적어도 일부와 상기 2D 전경객체영상의 적어도 일부를 포함하여 합성영상을 생성하는 단계;를 포함하여 구성되는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a method of synthesizing an image, comprising: receiving a 2D background image by a video synthesis system; Receiving the 2D foreground object image by the image synthesis system; Forming a first background projection surface in a virtual space, the first background projection surface having a predetermined height and a central concave surface; Projecting at least a portion of the 2D background image to the first background projection plane at a virtual projection point on the virtual space; Arranging the 2D foreground object image between the virtual projection point on the virtual space and the first background projection plane; And generating a composite image by the image synthesis system including at least a part of the 2D background image and at least a part of the 2D foreground object image at an angle of view of a virtual camera disposed in the virtual space. .
본 발명의 실시예에 따른 영상합성방법에 있어서, 상기 2D 배경영상은 정지영상이고, 상기 2D 전경객체영상 및 상기 합성영상은 비디오 영상인 것을 특징으로 한다.In the image synthesis method according to an embodiment of the present invention, the 2D background image is a still image, the 2D foreground object image, and the composite image are video images.
본 발명의 실시예에 따른 영상합성방법에 있어서, 상기 2D 배경영상, 상기 2D 전경객체영상 및 상기 합성영상은 비디오 영상인 것을 특징으로 한다. In the image synthesis method according to an embodiment of the present invention, the 2D background image, the 2D foreground object image, and the composite image are video images.
본 발명의 실시예에 따른 영상합성방법에 있어서, 상기 배경투영면을 생성하는 단계는, 상기 영상합성 시스템이 상기 제 1 배경투영면의 하단부에서 연장되어 저면을 형성하는 제 2 배경투영면을 더 생성하고, 상기 2D 배경영상을 투영하는 단계는, 상기 영상합성 시스템이 상기 제 1 배경투영면 및 상기 제 2 배경투영면에 거쳐 상기 2D 배경영상의 적어도 일부를 투영하는 것을 특징으로 한다.In the image synthesis method according to the embodiment of the present invention, the step of generating the background projection plane may further include generating a second background projection plane extending from a lower end of the first background projection plane to form a bottom plane, And the step of projecting the 2D background image is characterized in that the image synthesizing system projects at least a part of the 2D background image via the first background projection plane and the second background projection plane.
본 발명의 실시예에 따른 영상합성방법에 있어서, 상기 2D 전경객체영상을 배치하는 단계는, 상기 영상합성 시스템이 상기 2D 전경객체영상의 하단부가 상기 제 2 배경투영면에 접촉하도록 상기 2D 전경객체영상을 배치하는 것을 특징으로 한다.In the image synthesis method according to the embodiment of the present invention, the step of arranging the 2D foreground object image may include the step of arranging the 2D foreground object image so that the lower end of the 2D foreground object image comes into contact with the second background projection plane, Is disposed.
본 발명의 실시예에 따른 영상합성방법에 있어서, 상기 배경투영면을 생성하는 단계는, 상기 영상합성 시스템이 상기 제 1 배경투영면의 상단부에서 연장되어 상면을 형성하는 제 3 배경투영면을 더 생성하고, 상기 2D 배경영상을 투영하는 단계는, 상기 영상합성 시스템이 상기 제 1 배경투영면, 상기 제 2 배경투영면, 및 상기 제 3 배경투영면에 거쳐 상기 2D 배경영상의 적어도 일부를 투영하는 것을 특징으로 한다.In the image synthesizing method according to the embodiment of the present invention, the step of generating the background projection plane may further include generating a third background projection plane extending from the upper end of the first background projection plane to form an upper plane, And projecting the 2D background image is characterized in that the image synthesizing system projects at least a part of the 2D background image via the first background projection plane, the second background projection plane, and the third background projection plane.
본 발명의 실시예에 따른 영상합성방법에 있어서, 상기 배경투영면을 생성하는 단계는, 상기 영상합성 시스템이 상기 제 1 배경투영면 및 상기 제 2 배경투영면이 서로 90도 내지 120도의 내각을 형성하도록 상기 제 1 배경투영면 및 상기 제 2 배경투영면을 생성하는 것을 특징으로 한다.In the image synthesizing method according to an embodiment of the present invention, the step of generating the background projection plane may include a step of generating the background projection plane so that the first background projection plane and the second background projection plane form an interior angle of 90 degrees to 120 degrees The first background projection plane and the second background projection plane.
본 발명의 실시예에 따른 영상합성방법에 있어서, 상기 배경투영면을 생성하는 단계는, 상기 영상합성 시스템이 상기 제 1 배경투영면 및 상기 제 2 배경투영면이 접하는 영역을 곡면으로 처리하여 상기 제 1 배경투영면 및 상기 제 2 배경투영면을 생성하는 것을 특징으로 한다. In the image synthesizing method according to the embodiment of the present invention, the step of generating the background projection plane may include a step of processing the area, which the image synthesizing system contacts with the first background projection plane and the second background projection plane, Thereby generating a projection plane and the second background projection plane.
본 발명의 실시예에 따른 영상합성방법에 있어서, 상기 2D 전경객체영상을 입력받는 단계는, 상기 영상합성 시스템이 실세계 카메라의 패닝동작에 의해 생성된 비디오 영상을 상기 2D 전경객체영상으로 입력받고, 상기 합성영상을 생성하는 단계는, 상기 영상합성 시스템이 상기 실세계 카메라의 패닝동작을 정의하는 제 1 카메라 제어 데이터에 근거하여 상기 가상카메라를 패닝제어하여 상기 합성영상을 생성하는 것을 특징으로 한다.In the image synthesis method according to an embodiment of the present invention, the step of receiving the 2D foreground object image may include receiving the video image generated by the panning operation of the real-world camera as the 2D foreground object image, The generating of the composite image is characterized in that the image synthesizing system generates the composite image by controlling the panning of the virtual camera based on first camera control data defining a panning operation of the real camera.
본 발명의 실시예에 따른 영상합성방법에 있어서, 상기 2D 전경객체영상을 입력받는 단계는, 상기 영상합성 시스템이 실세계 카메라의 무빙동작에 의해 생성된 비디오 영상을 상기 2D 전경객체영상으로 입력받고, 상기 합성영상을 생성하는 단계는, 상기 영상합성 시스템이 상기 실세계 카메라의 무빙동작을 정의하는 제 2 카메라 제어 데이터에 근거하여 상기 가상카메라를 무빙제어하여 상기 합성영상을 생성하는 것을 특징으로 한다.In the image synthesizing method according to the embodiment of the present invention, the step of receiving the 2D foreground object image may include: receiving the video image generated by the moving operation of the real camera in the image synthesizing system as the 2D foreground object image, Wherein the generating of the composite image is performed by moving the virtual camera based on second camera control data defining a moving operation of the real camera to generate the composite image.
본 발명에 따른 영상합성 시스템 및 영상합성방법은, 가상공간 상에서 중앙부가 오목한 곡면으로 형성된 제 1 배경투영면에 2D 배경영상을 투영하고, 2D 전경영상을 제 1 배경투영면 전면에 배치함으로써 별도의 이미지 프로세싱 등의 복잡한 연산 없이 2D 배경영상의 중앙부가 카메라의 패닝동작 또는 무빙동작에 따라 2D 전경영상과 자연스러운 원근감을 제공하는 합성영상을 생성하고 2D 전경영상과 독립적으로 촬영된 2D 배경영상들을 합성영상에 범용적으로 사용함으로써 합성영상 생성에 소요되는 비용을 저감하는 효과를 제공한다.The image synthesis system and the image synthesis method according to the present invention can be applied to an image processing system in which a 2D background image is projected onto a first background projection surface formed in a concave curved surface on a virtual space and a 2D foreground image is disposed on a foreground surface of a first background, The 2D image of the 2D background image is generated by the panning motion or the moving motion of the camera, thereby generating a composite image that provides a 2D foreground image and a natural perspective, and the 2D background image photographed independently from the 2D foreground image is general- It is possible to reduce the cost of generating a composite image.
본 발명의 실시예에 따른 영상합성 시스템 및 영상합성방법은, 바닥면을 형성하는 제 2 배경투영면을 더 포함하고 전경영상의 하단부가 제 2 배경투영면에 접촉하도록 배치함으로써 카메라의 패닝동작 또는 무빙동작에도 불구하고 전경영상이 배경영상에 고정되도록 함으로써 위화감 없는 고품질의 합성영상을 제공하는 효과를 제공한다.The image synthesizing system and the image synthesizing method according to the embodiment of the present invention may further include a second background projection surface forming a bottom surface and arranging the lower end of the foreground image so as to contact the second background projection surface, The foreground image is fixed to the background image, thereby providing a high-quality composite image without discomfort.
본 발명의 실시예에 따른 영상합성 시스템 및 영상합성방법은, 제 1 배경투영면 및 제 2 배경투영면이 접하는 영역이 곡면을 형성함으로써 가상카메라의 패닝동작 또는 무빙동작 시 투영면의 급격한 각도변화에 의한 합성영상에서 발생할 수 있는 왜곡을 최소화하는 효과를 제공한다.The image synthesis system and the image synthesis method according to the embodiment of the present invention are characterized in that a region in which the first background projection surface and the second background projection surface are in contact form a curved surface so that the panning operation of the virtual camera or the synthesis Thereby providing an effect of minimizing distortion that may occur in the image.
본 발명의 실시예에 따른 영상합성 시스템 및 영상합성방법은, 전경영상을 촬영한 실세계 카메라의 패닝동작 또는 무빙동작 등의 카메라 워크에 동기화된 가상카메라 제어를 통해 자연스럽고 역동적인 합성영상을 생성하는 효과를 제공한다.The image synthesis system and the image synthesis method according to the embodiment of the present invention generate a natural and dynamic synthetic image through virtual camera control synchronized with the camera work such as a panning operation or a moving operation of a real- Effect.
도 1은 본 발명에 따른 영상합성 시스템을 도시하는 구성도.
도 2는 본 발명의 실시예에 따른 가상공간에서의 배경투영면, 2D 전경객체영상, 및 가상카메라의 배치도.
도 3은 본 발명의 실시예에 따른 제 1 배경투영면의 횡단면도.
도 4 및 도 5는 본 발명의 다른 실시예에 따른 가상공간에서의 배경투영면, 2D 전경객체영상, 및 가상카메라의 배치도.
도 6은 본 발명의 실시예에 따른 가상공간에서의 배경투영면에 투영된 2D 배경영상과 2D 전경객체영상의 모델링 예시도.
도 7 및 도 8은 도 6의 모델링을 적용한 합성영상의 예시도.
도 9는 본 발명에 따른 영상합성방법의 처리흐름도.BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram showing a video synthesis system according to the present invention; FIG.
FIG. 2 is a layout diagram of a background projection plane, a 2D foreground object image, and a virtual camera in a virtual space according to an embodiment of the present invention; FIG.
3 is a cross-sectional view of a first background projection surface according to an embodiment of the present invention.
4 and 5 are a layout diagram of a background projection plane, a 2D foreground object image, and a virtual camera in a virtual space according to another embodiment of the present invention.
6 is an illustration of modeling of a 2D background image and a 2D foreground object image projected on a background projection plane in a virtual space according to an embodiment of the present invention;
FIGS. 7 and 8 are exemplary views of a composite image to which modeling of FIG. 6 is applied. FIG.
9 is a flowchart of a process of the image synthesizing method according to the present invention.
본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정 해석되어서는 안 되며, 자신의 발명을 최선의 방법으로 설명하기 위해 발명자가 용어와 개념을 정의할 수 있는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 한다.The terms and words used in the present specification and claims should not be construed in a conventional or dictionary sense and should be construed in accordance with the principles by which the inventor can define terms and concepts to best describe his invention And should be construed in accordance with the meaning and concept consistent with the technical idea of the present invention.
따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 바람직한 일 실시예에 해당하며, 본 발명의 기술적 사상을 모두 대변하는 것이 아니므로 해당 구성은 본 발명의 출원시점에서 이를 대체할 다양한 균등물과 변형예가 있을 수 있다.Therefore, the embodiments described in the present specification and the configurations shown in the drawings correspond to the preferred embodiments of the present invention and do not represent all the technical ideas of the present invention. Therefore, There may be equivalents and variations.
명세서 전반에서 어떠한 부분이 어떤 구성요소를 “포함”한다는 기재는, 이에 대한 특별한 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한 명세서에 기재된 “..부”, “..시스템” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있으며, 하나의 장치 또는 각각 다른 장치에 포함될 수 있다.The specification that " comprises " any element in any specification throughout the specification does not exclude other elements, but may also include other elements, unless the context clearly indicates otherwise. Also, the terms " part, " " system, " and the like, which are described in the specification, refer to a unit for processing at least one function or operation, which may be implemented by hardware or software or a combination of hardware and software, Or may be included in each of the other devices.
도 1은 본 발명에 따른 영상합성 시스템(100)을 도시한다. 본 발명에 따른 영상합성 시스템(100)은 배경영상 입력부(110), 전경객체영상 입력부(120), 모델링부(130) 및 합성영상 생성부(140)를 포함하여 구성된다. 영상합성 시스템(100)은 프로그램과 이를 구동하는 연산처리장치로 구현할 수 있으며, 이 경우 각각의 구성요소들은 프로그램을 구성하는 기능모듈로 구현될 수 있다.Figure 1 illustrates an
배경영상 입력부(110)는 2D 배경영상을 입력받는 기능을 수행한다. 배경영상 입력부(110)는 사용자가 2D 배경영상을 선택하는 인터페이스 또는 자신이 보유한 2D 배경영상을 업로드하는 인터페이스를 제공하는 방법 등으로 구현될 수 있다. 2D 배경영상은 특별히 제한되지 않으며 통상의 이미지 파일 형태의 정지영상 이거나 비디오 파일 형태의 비디오 영상일 수 있다. 다만 합성영상의 품질을 높이기 위해 2D 배경영상은 높은 해상도의 영상이 바람직하다.The background
전경객체영상 입력부(120)는 2D 전경객체영상(310)을 입력받는 기능을 수행한다. 전경객체영상 입력부(120)는 사용자가 2D 전경객체영상(310)을 선택하는 인터페이스 또는 자신이 보유한 2D 배경영상을 업로드하는 인터페이스를 제공하는 방법 등으로 구현될 수 있다. 2D 전경객체영상(310)은 비디오카메라로 촬영된 비디오 영상에서 배경이 제거된 영상이다. 2D 전경객체영상(310)은 실시예에 따라서 전경객체 표면의 입체감을 부여하기 위해 물체의 깊이를 측정할 수 있는 TOF 방식의 카메라 또는 멀티렌즈 카메라를 사용하는 경우 2D 전경객체영상(310)은 표면의 깊이정보를 포함하는 이미지일 수 있다.The foreground object
모델링부(130)는 3D 가상공간 상에서 2D 배경영상과 2D 전경객체영상(310)을 공간적으로 합성하는 기능을 수행한다. 구체적으로는 모델링부(130)는 높이를 갖고 중앙부가 오목한 곡면으로 형성된 제 1 배경투영면(210)을 가상공간에 형성한다. 제 1 배경투영면(210)은 도 2에 도시된 바와 같이 반원통 형태로 구성될 수 있다. 실시예에 따라서 오목한 곡면의 형상은 다양하게 구성될 수 있다. 예컨대 제 1 배경투영면(210)의 횡단면은 도 3(a)에 도시된 바와 같이 원형상의 일부, 도 3(b)에 도시된 바와 같이 타원형상의 일부, 도 3(c)에 도시된 바와 같이 트랙형상의 일부로 구현될 수 있다. 또는 제 1 배경투영면(210)은 예컨대 1/4 구형상과 같은 입체적인 형태로 구현될 수 있다. 이러한 제 1 배경투영면(210)의 형상에 따르면 2D 배경영상의 중앙영역은 가상카메라(320)와 2D 전경객체영상(310)과 가상공간에서의 거리가 멀게 형성되고 좌측과 우측의 가장자리 영역은 가상카메라(320)와 2D 전경객체영상(310)과 가상공간에서의 거리가 상대적으로 가깝게 형성되기 때문에 가상카메라(320)의 패닝동작 또는 무빙동작에 따라 적절한 원근감을 제공할 수 있으며, 2D 배경영상의 이미지 분석 없이도 적절한 원근감을 제공할 수 있기 때문에 다양한 이미지 또는 비디오를 2D 배경영상으로 활용할 수 있는 효과를 제공한다.The
실시예에 따라서는 2D 배경영상의 이미지에 따라 제 1 배경투영면(210)을 적응적으로 변경하는 것이 바람직하다. 예컨대 2D 배경영상 중앙부의 피사체 거리가 가까운 경우 오목부의 곡률을 감소시킴으로써 제 1 배경투영면(210)의 중앙부와 가상카메라(320) 간의 거리를 짧게 생성하고, 반대로 2D 배경영상 중앙부의 피사체 거리가 먼 경우 오목부의 곡률을 증가시킴으로써 제 1 배경투영면(210)의 중앙부와 가상카메라(320) 간의 거리를 길게 생성할 수 있다. 또한 2D 배경영상의 소실점을 분석할 수 있는 경우 오목부가 해당 소실점에 위치하도록 제 1 배경투영면(210)의 형상을 좌우비대칭 형상으로 생성할 수 있다.According to an embodiment, it is preferable to adaptively change the first
다음으로 모델링부(130)는 가상공간 상의 가상투영점에서 제 1 배경투영면(210)에 2D 배경영상의 적어도 일부를 투영한다. 가상투영점은 가상공간 상에 위치하는 지점으로서 2D 전경객체영상(310)을 촬영한 실세계 카메라와 촬영된 전경객체의 상대적 위치관계에 해당하는 가상공간의 지점으로 설정하는 것이 바람직하다. 제 1 배경투영면(210)의 입체적인 형상에도 불구하고 가상투영점에서 제 1 배경투영면(210)에 투영된 2D 배경영상을 봤을 때 왜곡 없는 평면의 2D 배경영상으로 보이게 된다. 배경영상의 제 1 배경투영면(210)으로의 투영은 가상투영점에서 바라봤을 때 배경영상이 왜곡이 없는 형태로 배경영상을 변환하여 제 1 배경투영면(210)에 변환된 배경영상을 텍스처링하는 방법으로 이루어질 수 있다.Next, the
실시예에 따라서는 2D 배경영상의 전체가 제 1 배경투영면(210)에 투영되도록 형성할 수도 있고, 2D 배경영상의 일부만 제 1 배경투영면(210)에 투영되도록 형성할 수 있다.According to an embodiment, the 2D background image may be entirely projected onto the first
다음으로, 모델링부(130)는 가상공간 상의 가상투영점과 제 1 배경투영면(210) 사이에 2D 전경객체영상(310)을 배치하는 기능을 수행한다. 2D 전경객체영상(310)은 도 2에 도시된 바와 같이 제 1 배경투영면(210)이 감싸는 영역 내에 배치되도록 구성할 수 있다. 도 2는 이해의 편의를 위해 2D 전경객체영상(310)이 4각형 형태의 일부 배경을 포함하는 것으로 도시하였지만 실제로는 도 7에 도시된 바와 같이 2D 전경객체영상(310)은 인물의 객체영상만으로 구성된다.Next, the
합성영상 생성부(140)는 가상공간에 배치되는 가상카메라(320)의 화각에 2D 배경영상의 적어도 일부와 2D 전경객체영상(310)의 적어도 일부를 포함하여 합성영상을 생성하는 기능을 수행한다. 가상카메라(320)는 바람직하게는 가상투영점과 동일한 위치 또는 가상투영점에 인접한 위치에 위치할 수 있다. 가상카메라(320)는 팬, 틸트, 줌 등의 기능을 수행할 수 있으며 가상카메라(320)의 동작에 의해 고정된 화각의 2D 전경객체영상(310)과 2D 배경영상을 이용하여 마치 카메라 이동을 통해 촬영된 것 같은 동적인 합성영상을 생성할 수 있으며, 중앙부가 오목한 제 1 배경투영면(210)에 투영된 2D 배경영상을 통해 가상카메라(320)의 이동에 따라 전경과 배경의 겹치는 영역이 자연스럽게 변화하면서 원근감을 부여할 수 있는 효과가 있다.The composite
실시예에 따라서는 복수의 배경투영면들로 구성되는 입체적인 구조물에 2D 배경영상을 투영하는 것이 바람직하다. 예컨대 바닥이 묘사된 2D 배경영상인 경우 사람의 발과 같은 피사체의 하단부와 바닥이 서로 자연스럽게 연결되도록 합성할 필요가 있다. 이를 위해 모델링부(130)는 도 4에 도시된 바와 같이 제 1 배경투영면(210)의 하단부에서 연장되어 저면을 형성하는 제 2 배경투영면(220)을 더 생성하고, 제 1 배경투영면(210) 및 제 2 배경투영면(220)에 거쳐 2D 배경영상의 적어도 일부를 투영하도록 구성하는 것이 바람직하다.According to an embodiment, it is preferable to project a 2D background image on a three-dimensional structure composed of a plurality of background projection surfaces. For example, in the case of a 2D background image depicting a floor, it is necessary to synthesize the bottom side and the bottom of a subject such as a human foot to be naturally connected to each other. 4, the
제 2 배경투영면(220)은 투영체의 바닥면을 형성하기 때문에 2D 배경영상의 하단부에 위치하는 바닥부분의 영상이 자연스럽게 제 2 배경투영면(220)에 투영되게 된다. 이때 모델링부(130)는 2D 전경객체영상(310)의 하단부가 제 2 배경투영면(220)에 접촉하도록 2D 전경객체영상(310)을 배치하도록 구성하는 것이 바람직하다. 실시예에 따라서는 모델링부(130)는 2D 전경객체영상(310)가 접촉하는 제 2 배경투영면(220) 상에 2D 전경객체영상(310)에 따른 그림자효과를 더 표현하거나 제 2 배경투영면(220)에 묘사된 바닥이 반사재질인 경우 2D 전경객체영상(310)에 따른 반사효과를 더 표현하는 것이 바람직하다.Since the second
이러한 구성에 따르면 3D 가상공간 상에서 2D 전경객체영상(310)과 2D 배경영상을 촬영하는 가상카메라(320)의 조작이 발생하더라도 2D 전경객체영상(310)은 제 2 배경투영면(220)에 투영된 2D 배경영상의 하단부에 고정되어 카메라 워크에 따른 자연스러운 동적인 합성영상 생성이 가능하다. 예컨대 가상카메라(320)는 x 축으로 평행이동하는 무빙동작과 함께 2D 전경객체영상(310)을 중앙에 위치시키는 패닝동작이 동시에 이루어지는 경우 가상공간 상에서 가상카메라(320)에 상대적으로 가깝게 위치한 2D 전경객체영상(310) 및 제 2 배경투영면(220)에 투영된 2D 배경영상의 일부는 화면상에서 적은 변위를 갖지만, 가상카메라(320)에서 상대적으로 멀게 위치한 제 1 배경투영면(210)의 중앙부에 투영된 2D 배경영상의 일부는 화면상에서 큰 변위를 갖게 되어 자연스러운 원근감을 갖는 동적인 합성영상을 생성할 수 있는 효과가 있다.The 2D
이때 모델링부(130)는 제 1 배경투영면(210)과 제 2 배경투영면(220)이 서로 90도 내지 120도의 내각을 형성하도록 제 1 배경투영면(210) 및 제 2 배경투영면(220)을 생성하는 것이 바람직하다. 가상공간에서 가상카메라(320)는 가상투영점과 같은 위치 또는 인접한 위치에 위치하게 된다. 이때 가상투영점의 위치는 합성화면의 중심적인 객체인 2D 전경객체영상(310)가 자연스럽게 합성되도록 2D 전경객체영상(310)을 촬영한 실제 카메라와 2D 전경객체영상(310)의 상대적 위치를 기반으로 결정하는 것이 바람직하다. 인물을 촬영하는 실제 카메라는 통상 지면에서부터 1m~1.5m 정도 위쪽의 위치에서 촬영하기 때문에 가상투영점도 가상공간의 바닥면에서 일정 정도 위쪽에 위치한다. 따라서 제 1 배경투영면(210) 및 제 2 배경투영면(220)이 90도의 내각을 갖더라도 가상투영점은 제 2 배경투영면(220)에 2D 배경영상의 일부를 투영할 수 있다. 실시예에 따라서 제 2 배경투영면(220)에 2D 배경영상의 더 많은 부분을 투영하기 위해 제 1 배경투영면(210) 및 제 2 배경투영면(220)이 90도 이상의 각을 갖도록 구성할 수 있다. 그러나 이 경우에도 2D 배경영상의 입체감을 유지하기 위해 90도 내지 120도의 내각을 갖도록 하는 것이 바람직하다. 그 이상의 내각을 형성하는 경우 2D 배경화면의 지나치게 많은 부분이 바닥면인 제 1 배경투영면(210)에 투영되는 문제가 발생할 수 있으며 배경영상의 입체감이 저하될 수 있다.At this time, the
한편 제 1 배경투영면(210)과 제 2 배경투영면(220)이 만나는 부분은 급격하게 각도가 변화하기 때문에 가상카메라(320)의 팬 동작, 틸트 동작, 무빙 동작 등에 따라 모서리 부분에서 영상왜곡이 일어날 수 있다. 이러한 문제를 해결하기 위해서는 도 6에 도시된 바와 같이 제 1 배경투영면(210)과 제 2 배경투영면(220)은 서로 부드럽게 연결되는 것이 바람직하다. 이를 위해 모델링부(130)는 제 1 배경투영면(210) 및 제 2 배경투영면(220)이 접하는 영역을 곡면으로 처리하여 제 1 배경투영면(210) 및 제 2 배경투영면(220)을 생성하는 것이 바람직하다. 이러한 구성을 통해 가상카메라(320)의 동작에 따라 발생할 수 있는 모서리 부분의 영상왜곡을 최소화할 수 있는 효과가 있다. On the other hand, since the angle of the portion where the first
2D 배경영상의 상부는 통상 하늘 또는 건물의 천장 등을 포함하는 것이 일반적이다. 이 경우 원근법에 의해 최상부 영역은 배경영상을 촬영한 카메라에 가장 근접한 영역이 되고 하부로 갈수록 카메라에서 멀어지게 된다. 이러한 상부 영역의 원근감을 구현하기 위한 실시예에 따르면, 모델링부(130)는 도 5 및 도 6에 도시된 바와 같이 제 1 배경투영면(210)의 상단부에서 연장되어 상면을 형성하는 제 3 배경투영면(230)을 더 생성하고, 제 1 배경투영면(210), 제 2 배경투영면(220), 및 제 3 배경투영면(230)에 거쳐 2D 배경영상의 적어도 일부를 투영하는 것이 바람직하다. 이러한 실시예에 따르면 배경투영면은 상면인 제 3 배경투영면(230), 측면인 제 1 배경투영면(210), 저면인 제 2 배경투영면(220)을 갖고 가상투영점 방향으로 개구된 입체의 형상을 이루게 된다. 이러한 구성에 따르면 가상투영점에서 투영된 2D 배경영상의 상단부는 제 3 배경투영면(230)에 투영되고 최상부의 부분영상이 가상카메라(320)에 가장 가깝게 형성된다. 가상투영점에서 투영된 2D 배경영상의 중단부는 제 1 배경투영면(210)에 투영되고 양 끝단의 부분영상이 가상카메라(320)에 가깝게 형성된다. 가상투영점에서 투영된 2D 배경영상의 하단부는 제 2 배경투영면(220)에 투영되고 최하부의 부분영상이 가상카메라(320)에 가장 가깝게 형성된다.The upper part of the 2D background image generally includes a sky or a ceiling of a building. In this case, the uppermost region is the region closest to the camera that captured the background image, and the farther away from the camera, the closer the region is. 5 and 6, according to an embodiment for realizing the perspective of the upper region, the
도 6은 제 1 배경투영면(210), 제 2 배경투영면(220) 및 제 3 배경투영면(230)에 걸쳐 2D 배경영상을 배치하고, 배경투영면의 입체구조 내에 2D 전경객체영상(310)을 배치한 가상공간의 실시예를 도시한다. 도 7 및 도 8은 도 6에 적용된 가상공간에서 합성된 합성영상을 도시하며 도 7은 가상카메라(320)가 가상투영점 기준으로 왼쪽에 위치했을 때의 합성영상을 도시하고, 도 8은 가상카메라(320)가 가상투영점 기준으로 오른쪽에 위치했을 때의 합성영상을 도시한다. 배경투영면의 입체적인 형상으로 인해 가상카메라(320)의 왼쪽에서 오른쪽으로의 무빙동작에 따라 가상카메라(320)와 원거리에 위치하는 제 1 배경투영면(210)의 중앙부에 투영된 원경에 해당하는 2D 배경영상의 부분은 큰 변위를 보이며 변화하지만 가상카메라(320)와 근거리에 위치하는 2D 전경객체영상(310) 및 제 2 배경투영면(220)에 투영된 바닥에 해당하는 2D 배경영상의 부분은 작은 변위를 보이며 변화하게 됨으로써 3D 모델링과 같은 고비용의 작업 없이도 자연스러운 입체감을 구현하는 합성영상을 적은 비용으로 생성할 수 있는 효과가 있다.FIG. 6 shows a 2D background image disposed over the first
한편, 2D 배경영상 촬영시 실세계 카메라가 패닝동작 또는 무빙동작 등을 통해 동적으로 2D 전경객체영상(310)인 피사체를 촬영하는 경우가 있을 수 있다. 이때 합성영상은 2D 전경객체영상(310)에 적용된 카메라 워크에 연동한 가상카메라(320)의 카메라 워크를 통해 합성 동영상을 생성하는 것이 바람직하다. 이를 위해 전경객체영상 입력부(120)는 실세계 카메라의 패닝동작에 의해 생성된 비디오 영상을 2D 전경객체영상(310)으로 입력받고, 합성영상 생성부(140)는 실세계 카메라의 패닝동작을 정의하는 제 1 카메라 제어 데이터에 근거하여 가상카메라(320)를 패닝제어하여 합성영상을 생성하는 것이 바람직하다. 실세계 카메라의 패닝동작을 정의하는 제 1 카메라 제어 데이터는 수동으로 실세계 카메라를 촬영하는 경우 카메라의 패닝을 감지하는 패닝 감지부를 통해 패닝의 각도 정보, 각속도 정보 등을 취득할 수 있고, 자동으로 실세계 카메라를 촬영하는 경우 실세계 카메라를 제어하는 패닝 제어명령을 통해 취득할 수 있다. 다른 방법으로는 실세계 카메라에 의해 촬영된 영상분석을 통해 실세계 카메라의 패닝동작을 추정하여 제 1 카메라 제어 데이터를 생성할 수 있다.On the other hand, when photographing a 2D background image, the real world camera may dynamically photograph a subject, which is a 2D
한편, 2D 전경객체영상(310)은 실세계 카메라의 패닝동작에 의해 각도가 이미 변화된 영상이기 때문에 모델링부(130)는 가상카메라(320)의 무빙동작에 따라 2D 전경객체영상(310)이 가상카메라(320)를 계속 대향하도록 2D 전경객체영상(310)을 회전시키는 것이 보다 바람직하다. 이를 통해 이미 실세계 카메라의 패닝동작이 반영되어 생성된 2D 전경객체영상(310)이 입체화된 배경투영면과 가상카메라(320)의 패닝동작에 의해 자연스러운 배경의 변화가 연출되는 2D 배경영상과 합성될 수 있다.Since the 2D
무빙동작에 따른 실시예로서는, 전경객체영상 입력부(120)는 실세계 카메라의 무빙동작에 의해 생성된 비디오 영상을 2D 전경객체영상(310)으로 입력받고, 합성영상 생성부(140)는 실세계 카메라의 무빙동작을 정의하는 제 2 카메라 제어 데이터에 근거하여 가상카메라(320)를 무빙제어하여 합성영상을 생성하는 것이 바람직하다. 카메라의 무빙은 좌우방향 이동, 전후방향 이동, 상하방향 이동을 모두 포함하며 자유공간 상의 곡선적 이동도 포함한다. 실세계 카메라의 무빙동작을 정의하는 제 2 카메라 제어 데이터는 수동으로 실세계 카메라를 촬영하는 경우 카메라의 무빙을 감지하는 무빙 감지부를 통해 무빙의 방향, 무빙의 정도, 무빙의 속도 등을 취득할 수 있고, 자동으로 실세계 카메라를 촬영하는 경우 실세계 카메라를 제어하는 무빙 제어명령을 통해 취득할 수 있다. 다른 방법으로는 실세계 카메라에 의해 촬영된 영상분석을 통해 실세계 카메라의 무빙동작을 추정하여 제 2 카메라 제어 데이터를 생성할 수 있다. In an embodiment according to the moving operation, the foreground object
이상의 실시예에서는 카메라의 패닝동작 및 무빙동작에 따른 합성영상의 생성에 대해서 설명하였지만, 이에 제한되지 않고 패닝동작, 무빙동작, 줌동작, 틸트동작 또는 이들의 조합으로 이루어진 카메라 동작 등에도 동일한 방법으로 합성영상을 생성할 수 있다.In the above-described embodiment, the generation of the composite image according to the panning operation and the moving operation of the camera has been described. However, the present invention is not limited to this, and the camera operation including the panning operation, the moving operation, the zooming operation, the tilting operation, A composite image can be generated.
이하에서는 도 9를 참조하여 본 발명에 따른 영상합성방법을 설명한다. 먼저, 영상합성 시스템(100)이 2D 배경영상을 입력받는 단계(s10)를 수행한다. 2D 배경영상은 합성영상의 배경영상으로 사용되는 영상으로서 2D 정지영상 또는 2D 비디오영상일 수 있으며, 2D 배경영상에 촬영된 객체의 공간정보 또는 깊이정보를 요하지 않는다.Hereinafter, an image synthesis method according to the present invention will be described with reference to FIG. First, the
다음으로, 영상합성 시스템(100)이 2D 전경객체영상(310)을 입력받는 단계(s20)를 수행한다. 2D 전경객체영상(310)은 비디오영상으로서 실세계 카메라로 촬영된 비디오 영상에서 배경을 제거하고 하나 또는 복수의 촬영객체만 추출한 영상으로서 합성영상에서 전경영상으로 사용된다. 2D 전경객체영상(310)은 촬영된 객체의 공간정보를 요하지 않지만 실시예에 따라서는 보다 입체감을 높이기 위해 표면의 깊이정보를 더 포함하여 구성될 수 있다.Next, the
한편 2D 배경영상 입력단계(s10)와 2D 전경객체영상 입력단계(s20)의 수행순서는 동시에 수행되거나 2D 전경객체영상 입력단계(s20)가 2D 배경영상 입력단계(s10)에 선행할 수 있다.Meanwhile, the 2D background image input step s10 and the 2D foreground object image input step s20 may be performed simultaneously or the 2D foreground object image input step s20 may precede the 2D background image input step s10.
다음으로, 영상합성 시스템(100)이 도 2에 도시된 바와 같이 소정의 높이를 갖고 중앙부가 오목한 곡면으로 형성된 제 1 배경투영면(210)을 가상공간에 형성하는 단계(s30)를 수행한다. 제 1 배경투영면(210)의 형상으로 인해 2D 배경영상의 중앙부는 가상카메라(320)에서 멀리 위치하고 2D 배경영상의 좌우측은 가상카메라(320)에 가깝게 위치하게 된다. 제 1 배경투영면(210)은 도 3에 도시된 바와 같이 다양한 곡면의 형태로 형성될 수 있다. 다각형 형상으로 제 1 배경투영면(210)을 형성하는 경우 다각형의 모서리 부분에서의 급격한 각도 변화로 인해 가상카메라(320)의 이동에 따라 불연속적인 배경의 묘사가 일어날 수 있기 때문에 곡면 형상으로 생성하는 것이 보다 바람직하다.Next, the
다음으로, 영상합성 시스템(100)이 가상공간 상의 가상투영점에서 제 1 배경투영면(210)에 2D 배경영상의 적어도 일부를 투영하는 단계(s40)를 수행한다. 제 1 배경투영면(210)에는 2D 배경영상의 전부가 투영될 수도 있고 2D 배경영상의 전부가 투영될 수 있다. 이때, 투영되는 2D 배경영상은 가상카메라(320)가 위치하는 위치에 해당하거나 그에 인접한 위치의 가상투영점에서 봤을 때 입체형상인 제 1 배경투영면(210)에 투영된 2D 배경영상이 왜곡되어 보이지 않는 형상으로 변형된 2D 배경영상이 제 1 배경투영면(210)에 텍스처링되는 방법으로 2D 배경영상 투영단계(s40)가 수행된다.Next, the
다음으로, 영상합성 시스템(100)이 가상공간 상의 가상투영점과 제 1 배경투영면(210) 사이에 2D 전경객체영상(310)을 배치하는 단계(s50)를 수행한다. 2D 전경객체영상(310)은 가상공간에서 제 1 배경투영면(210)과 일정거리 이격되고 가상투영점과도 일정거리 이격되는 위치에 높이기 때문에 가상카메라(320)의 이동에 따라 도 7 및 도 8에 도시된 바와 같이 2D 전경객체영상(310)은 자연스럽게 2D 배경영상과 합성될 수 있다.Next, the
실시예에 따라서는 도 4, 도 5 및 도 6에 도시된 바와 같이 보다 복수의 배경투영면들로 구성되는 입체적인 형상으로 배경투영면을 생성하는 것이 바람직하다. 도 4의 실시예에 따르면, 배경투영면을 생성하는 단계(s30)는 영상합성 시스템(100)이 제 1 배경투영면(210)의 하단부에서 연장되어 저면을 형성하는 제 2 배경투영면(220)을 더 생성하도록 구성하고, 2D 배경영상을 투영하는 단계(s40)는 영상합성 시스템(100)이 제 1 배경투영면(210) 및 제 2 배경투영면(220)에 거쳐 2D 배경영상의 적어도 일부를 투영하도록 구성한다. 이에 따르면 2D 배경영상의 바닥부분은 배경투영면의 바닥을 형성하는 제 2 배경투영면(220)에 투영되고, 제 1 배경투영면(210) 보다 제 2 배경투영면(220)이 가상카메라(320)에 가깝게 형성되기 때문에 자연스러운 입체감을 형성할 수 있는 효과가 있다.According to the embodiment, it is preferable to generate a background projection plane in a three-dimensional shape composed of a plurality of background projection planes as shown in Figs. 4, 5, and 6. According to the embodiment of FIG. 4, step s30 of generating a background projection plane may be performed by the
이때 2D 전경객체영상을 배치하는 단계(s50)는, 영상합성 시스템(100)이 2D 전경객체영상(310)의 하단부가 제 2 배경투영면(220)에 접촉하도록 2D 전경객체영상(310)을 배치하도록 구성함으로써 가상카메라(320)의 이동에도 불구하고 2D 전경객체영상(310)이 지면에 해당하는 2D 배경영상에 고정되는 고품질의 합성영상을 생성하는 효과를 제공한다.At this time, the step of arranging the 2D foreground object image (s50) includes arranging the 2D
한편, 배경투영면을 생성하는 단계(s30)는 영상합성 시스템(100)이 제 1 배경투영면(210) 및 제 2 배경투영면(220)이 서로 90도 내지 120도의 내각을 형성하도록 제 1 배경투영면(210) 및 제 2 배경투영면(220)을 생성하도록 구성할 수 있다.The step s30 of generating the background projection plane may be performed by the
또한 도 6에 도시된 바와 같이 배경투영면을 생성하는 단계(s30)는 영상합성 시스템(100)이 제 1 배경투영면(210) 및 제 2 배경투영면(220)이 접하는 영역을 곡면으로 처리하여 제 1 배경투영면(210) 및 제 2 배경투영면(220)을 생성하는 것이 바람직하다. 이러한 구성을 통해 제 1 배경투영면(210)과 제 2 배경투영면(220)이 만나는 영역에서의 급격한 각도 변화로 인해 가상카메라(320) 이동시 배경영상의 왜곡이 발생하는 것을 방지할 수 있는 효과가 있다. As shown in FIG. 6, the step s30 of generating a background projection plane may be performed by the
도 5 및 도 6의 실시예에 따르면, 배경투영면을 생성하는 단계(s30)는 영상합성 시스템(100)이 제 2 배경투영면 뿐 아니라 제 1 배경투영면(210)의 상단부에서 연장되어 상면을 형성하는 제 3 배경투영면(230)을 더 생성하고, 2D 배경영상을 투영하는 단계(s40)는, 영상합성 시스템(100)이 제 1 배경투영면(210), 제 2 배경투영면(220), 및 제 3 배경투영면(230)에 거쳐 2D 배경영상의 적어도 일부를 투영하도록 구성할 수 있다. 이러한 실시예에 따르면 2D 배경영상의 상부에 해당하는 천장 또는 하늘과 같은 배경이 제 3 배경투영면(230)에 투영되기 때문에 배경의 원근감을 제고할 수 있는 효과를 제공한다.According to the embodiment of Figures 5 and 6, the step s30 of creating the background projection plane may be performed by the
이상에서 설명한 배경투영면 형성단계(s30), 2D 배경영상 투영단계(s40), 2D 전경객체영상 배치단계(s50)는 영상합성 시스템(100)에 의해 동시에 수행되거나 다른 순서로 수행되어도 무방하다.The background projection plane forming step s30, the 2D background image projecting step s40, and the 2D foreground object image placement step s50 described above may be simultaneously performed by the
마지막으로, 영상합성 시스템(100)이 가상공간에 배치되는 가상카메라(320)의 화각에 2D 배경영상의 적어도 일부와 2D 전경객체영상(310)의 적어도 일부를 포함하여 합성영상을 생성하는 단계(s60)를 수행한다. 합성영상 생성 단계(s60)에서 가상카메라(320)는 패닝동작, 무빙동작, 틸트동작, 줌동작 등을 통해 보다 역동적인 합성영상을 생성하는 것이 바람직하다.Finally, the
또한 2D 전경객체영상(310)이 실세계 카메라의 카메라 워크를 이용하여 촬영된 경우 가상카메라(320)는 이에 연동하여 실세계 카메라와 동일한 카메라 워크을 통해 합성영상을 생성하는 것이 바람직하다. 이를 위해 패닝동작의 경우 2D 전경객체영상 입력단계(s20)는, 영상합성 시스템(100)이 실세계 카메라의 패닝동작에 의해 생성된 비디오 영상을 2D 전경객체영상(310)으로 입력받고, 합성영상을 생성하는 단계(s60)는, 영상합성 시스템(100)이 실세계 카메라의 패닝동작을 정의하는 제 1 카메라 제어 데이터에 근거하여 가상카메라(320)를 패닝제어하여 합성영상을 생성하도록 구성한다.When the 2D
무빙동작의 경우 2D 전경객체영상 입력단계(s20)는 영상합성 시스템(100)이 실세계 카메라의 무빙동작에 의해 생성된 비디오 영상을 2D 전경객체영상(310)으로 입력받고, 합성영상을 생성하는 단계(s60)는 영상합성 시스템(100)이 실세계 카메라의 무빙동작을 정의하는 제 2 카메라 제어 데이터에 근거하여 가상카메라(320)를 무빙제어하여 합성영상을 생성하도록 구성한다.In the case of the moving operation, the 2D foreground object image input step s20 receives the video image generated by the moving operation of the real world camera as the 2D
본 명세서에서의 발명의 상세한 설명은 바람직한 실시예를 설명하는 것으로, 본 발명은 이러한 실시예에 한정되지 않는다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 이상의 실시예에 대한 다양한 변경과 수정이 가능하고, 본 발명의 기술적 사상은 이러한 다양한 변경과 수정을 모두 포함한다.The detailed description of the invention in this specification is intended to illustrate the preferred embodiments, and the invention is not limited to these embodiments. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. .
100 : 영상합성 시스템 110 : 배경영상 입력부
120 : 전경객체영상 입력부 130 : 모델링부
140 : 합성영상 생성부 210 : 제 1 배경투영면
220 : 제 2 배경투영면 230 : 제 3 배경투영면
310 : 2D 전경객체영상 320 : 가상카메라100: image synthesis system 110: background image input unit
120: foreground object image input unit 130: modeling unit
140: composite image generation unit 210: first background projection plane
220: second background projection plane 230: third background projection plane
310: 2D foreground object image 320: virtual camera
Claims (20)
2D 전경객체영상을 입력받는 전경객체영상 입력부;
높이를 갖고 중앙부가 오목한 곡면으로 형성된 제 1 배경투영면을 가상공간에 형성하고, 상기 가상공간 상의 가상투영점에서 상기 제 1 배경투영면에 상기 2D 배경영상의 적어도 일부를 투영하고, 상기 가상공간 상의 상기 가상투영점과 상기 제 1 배경투영면 사이에 상기 2D 전경객체영상을 배치하는 모델링부; 및
상기 가상공간에 배치되는 가상카메라의 화각에 상기 2D 배경영상의 적어도 일부와 상기 2D 전경객체영상의 적어도 일부를 포함하여 합성영상을 생성하는 합성영상 생성부;를 포함하여 구성되는 것을 특징으로 하고,
상기 모델링부는,
상기 제 1 배경투영면의 하단부에서 연장되어 저면을 형성하는 제 2 배경투영면을 더 생성하고, 상기 제 1 배경투영면 및 상기 제 2 배경투영면에 거쳐 상기 2D 배경영상의 적어도 일부를 투영하고,
상기 제 1 배경투영면 및 상기 제 2 배경투영면이 접하는 영역을 곡면으로 처리하여 상기 제 1 배경투영면 및 상기 제 2 배경투영면을 생성하는 것을 특징으로 하는 영상합성 시스템.
A background image input unit receiving a 2D background image;
A foreground object image input unit receiving a 2D foreground object image;
Forming a first background projection surface having a height and a concave curved surface at a central portion in a virtual space, projecting at least a part of the 2D background image on the first background projection surface at a virtual projection point on the virtual space, A modeling unit for arranging the 2D foreground object image between the virtual projection point and the first background projection plane; And
And a synthesized image generation unit that generates a synthesized image by including at least a part of the 2D background image and at least a part of the 2D foreground object image at an angle of view of a virtual camera disposed in the virtual space,
The modeling unit,
Further generating a second background projection plane extending from a lower end of the first background projection plane to form a bottom surface and projecting at least a part of the 2D background image via the first background projection plane and the second background projection plane,
Wherein the first background projection plane and the second background projection plane are generated by processing a region in which the first background projection plane and the second background projection plane are in contact with a curved surface.
상기 2D 배경영상은 정지영상이고, 상기 2D 전경객체영상 및 상기 합성영상은 비디오 영상인 것을 특징으로 하는 영상합성 시스템.
The method according to claim 1,
Wherein the 2D background image is a still image, the 2D foreground object image, and the composite image are video images.
상기 2D 배경영상, 상기 2D 전경객체영상 및 상기 합성영상은 비디오 영상인 것을 특징으로 하는 영상합성 시스템.
The method according to claim 1,
Wherein the 2D background image, the 2D foreground object image, and the composite image are video images.
상기 2D 전경객체영상의 하단부가 상기 제 2 배경투영면에 접촉하도록 상기 2D 전경객체영상을 배치하는 것을 특징으로 하는 영상합성 시스템.
The apparatus of claim 1,
And arranges the 2D foreground object image so that a lower end of the 2D foreground object image is in contact with the second background projection plane.
상기 제 1 배경투영면의 상단부에서 연장되어 상면을 형성하는 제 3 배경투영면을 더 생성하고, 상기 제 1 배경투영면, 상기 제 2 배경투영면, 및 상기 제 3 배경투영면에 거쳐 상기 2D 배경영상의 적어도 일부를 투영하는 것을 특징으로 하는 영상합성 시스템.
The apparatus of claim 1,
And a third background projection plane extending from an upper end of the first background projection plane to form an upper surface; and generating at least a part of the 2D background image through the first background projection plane, the second background projection plane, To the image synthesizing system.
상기 제 1 배경투영면 및 상기 제 2 배경투영면이 서로 90도 내지 120도의 내각을 형성하도록 상기 제 1 배경투영면 및 상기 제 2 배경투영면을 생성하는 것을 특징으로 하는 영상합성 시스템.
The apparatus of claim 1,
Wherein the first background projection plane and the second background projection plane are generated so that the first background projection plane and the second background projection plane form an interior angle of 90 to 120 degrees with respect to each other.
상기 전경객체영상 입력부는, 실세계 카메라의 패닝동작에 의해 생성된 비디오 영상을 상기 2D 전경객체영상으로 입력받고,
상기 합성영상 생성부는, 상기 실세계 카메라의 패닝동작을 정의하는 제 1 카메라 제어 데이터에 근거하여 상기 가상카메라를 패닝제어하여 상기 합성영상을 생성하는 것을 특징으로 하는 영상합성 시스템.
The method according to claim 1,
The foreground object image input unit receives a video image generated by a panning operation of a real-world camera as the 2D foreground object image,
Wherein the composite image generating unit generates the composite image by controlling the panning of the virtual camera based on first camera control data defining a panning operation of the real camera.
상기 전경객체영상 입력부는, 상기 영상합성 시스템이 실세계 카메라의 무빙동작에 의해 생성된 비디오 영상을 상기 2D 전경객체영상으로 입력받고,
상기 합성영상 생성부는, 상기 실세계 카메라의 무빙동작을 정의하는 제 2 카메라 제어 데이터에 근거하여 상기 가상카메라를 무빙제어하여 상기 합성영상을 생성하는 것을 특징으로 하는 영상합성 시스템.
The method according to claim 1,
Wherein the foreground object image input unit receives the video image generated by the moving operation of the real-world camera as the 2D foreground object image,
Wherein the composite image generating unit generates the composite image by moving the virtual camera based on second camera control data defining the moving operation of the real camera.
상기 영상합성 시스템이 2D 전경객체영상을 입력받는 단계;
상기 영상합성 시스템이 소정의 높이를 갖고 중앙부가 오목한 곡면으로 형성된 제 1 배경투영면을 가상공간에 형성하는 단계;
상기 영상합성 시스템이 상기 가상공간 상의 가상투영점에서 상기 제 1 배경투영면에 상기 2D 배경영상의 적어도 일부를 투영하는 단계;
상기 영상합성 시스템이 상기 가상공간 상의 상기 가상투영점과 상기 제 1 배경투영면 사이에 상기 2D 전경객체영상을 배치하는 단계; 및
상기 영상합성 시스템이 상기 가상공간에 배치되는 가상카메라의 화각에 상기 2D 배경영상의 적어도 일부와 상기 2D 전경객체영상의 적어도 일부를 포함하여 합성영상을 생성하는 단계;를 포함하여 구성되는 것을 특징으로 하고,
상기 제 1 배경투영면을 형성하는 단계는, 상기 영상합성 시스템이 상기 제 1 배경투영면의 하단부에서 연장되어 저면을 형성하는 제 2 배경투영면을 더 생성하고,
상기 2D 배경영상을 투영하는 단계는, 상기 영상합성 시스템이 상기 제 1 배경투영면 및 상기 제 2 배경투영면에 거쳐 상기 2D 배경영상의 적어도 일부를 투영하고,
상기 제 1 배경투영면을 생성하는 단계는, 상기 영상합성 시스템이 상기 제 1 배경투영면 및 상기 제 2 배경투영면이 접하는 영역을 곡면으로 처리하여 상기 제 1 배경투영면 및 상기 제 2 배경투영면을 생성하는 것을 특징으로 하는 영상합성방법.
Receiving a 2D background image by a video synthesis system;
Receiving the 2D foreground object image by the image synthesis system;
Forming a first background projection surface in a virtual space, the first background projection surface having a predetermined height and a central concave surface;
Projecting at least a portion of the 2D background image to the first background projection plane at a virtual projection point on the virtual space;
Arranging the 2D foreground object image between the virtual projection point on the virtual space and the first background projection plane; And
And the image synthesizing system includes at least a part of the 2D background image and at least a part of the 2D foreground object image at an angle of view of a virtual camera disposed in the virtual space to generate a composite image. and,
Wherein the step of forming the first background projection plane further comprises the step of generating a second background projection plane extending from a lower end of the first background projection plane to form a bottom plane,
Wherein projecting the 2D background image comprises projecting at least a portion of the 2D background image via the first background projection plane and the second background projection plane,
The step of generating the first background projection plane may include generating the first background projection plane and the second background projection plane by processing the area touched by the first background projection plane and the second background projection plane as a curved surface A method of synthesizing images.
상기 2D 배경영상은 정지영상이고, 상기 2D 전경객체영상 및 상기 합성영상은 비디오 영상인 것을 특징으로 하는 영상합성방법.
12. The method of claim 11,
Wherein the 2D background image is a still image, the 2D foreground object image, and the composite image are video images.
상기 2D 배경영상, 상기 2D 전경객체영상 및 상기 합성영상은 비디오 영상인 것을 특징으로 하는 영상합성방법.
12. The method of claim 11,
Wherein the 2D background image, the 2D foreground object image, and the composite image are video images.
상기 2D 전경객체영상을 배치하는 단계는, 상기 영상합성 시스템이 상기 2D 전경객체영상의 하단부가 상기 제 2 배경투영면에 접촉하도록 상기 2D 전경객체영상을 배치하는 것을 특징으로 하는 영상합성방법.
12. The method of claim 11,
Wherein the step of arranging the 2D foreground object image places the 2D foreground object image so that the lower end of the 2D foreground object image comes into contact with the second background projection plane.
상기 제 1 배경투영면을 생성하는 단계는, 상기 영상합성 시스템이 상기 제 1 배경투영면의 상단부에서 연장되어 상면을 형성하는 제 3 배경투영면을 더 생성하고,
상기 2D 배경영상을 투영하는 단계는, 상기 영상합성 시스템이 상기 제 1 배경투영면, 상기 제 2 배경투영면, 및 상기 제 3 배경투영면에 거쳐 상기 2D 배경영상의 적어도 일부를 투영하는 것을 특징으로 하는 영상합성방법.
12. The method of claim 11,
Wherein the generating of the first background projection plane further comprises generating a third background projection plane extending from an upper end of the first background projection plane to form an upper plane,
Wherein projecting the 2D background image projects at least a portion of the 2D background image via the first background projection plane, the second background projection plane, and the third background projection plane. Synthesis method.
상기 제 1 배경투영면을 생성하는 단계는, 상기 영상합성 시스템이 상기 제 1 배경투영면 및 상기 제 2 배경투영면이 서로 90도 내지 120도의 내각을 형성하도록 상기 제 1 배경투영면 및 상기 제 2 배경투영면을 생성하는 것을 특징으로 하는 영상합성방법.
12. The method of claim 11,
Wherein the step of generating the first background projection plane comprises the step of moving the first background projection plane and the second background projection plane so that the first background projection plane and the second background projection plane form an interior angle of 90 to 120 degrees with respect to each other And generating the image data.
상기 2D 전경객체영상을 입력받는 단계는, 상기 영상합성 시스템이 실세계 카메라의 패닝동작에 의해 생성된 비디오 영상을 상기 2D 전경객체영상으로 입력받고,
상기 합성영상을 생성하는 단계는, 상기 영상합성 시스템이 상기 실세계 카메라의 패닝동작을 정의하는 제 1 카메라 제어 데이터에 근거하여 상기 가상카메라를 패닝제어하여 상기 합성영상을 생성하는 것을 특징으로 하는 영상합성방법.
12. The method of claim 11,
Wherein the receiving of the 2D foreground object image comprises receiving the video image generated by the panning operation of the real-world camera as the 2D foreground object image,
Wherein the generating of the composite image comprises generating the composite image by controlling the panning of the virtual camera based on first camera control data defining a panning operation of the real camera, Way.
상기 2D 전경객체영상을 입력받는 단계는, 상기 영상합성 시스템이 실세계 카메라의 무빙동작에 의해 생성된 비디오 영상을 상기 2D 전경객체영상으로 입력받고,
상기 합성영상을 생성하는 단계는, 상기 영상합성 시스템이 상기 실세계 카메라의 무빙동작을 정의하는 제 2 카메라 제어 데이터에 근거하여 상기 가상카메라를 무빙제어하여 상기 합성영상을 생성하는 것을 특징으로 하는 영상합성방법.12. The method of claim 11,
Wherein the receiving of the 2D foreground object image comprises receiving the video image generated by the moving operation of the real-world camera as the 2D foreground object image,
Wherein the generating of the composite image comprises moving the virtual camera on the basis of the second camera control data defining the moving operation of the real camera to generate the composite image, Way.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160171469A KR101843018B1 (en) | 2016-12-15 | 2016-12-15 | System and Method for Video Composition |
PCT/KR2017/014659 WO2018110978A1 (en) | 2016-12-15 | 2017-12-13 | Image synthesizing system and image synthesizing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160171469A KR101843018B1 (en) | 2016-12-15 | 2016-12-15 | System and Method for Video Composition |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101843018B1 true KR101843018B1 (en) | 2018-03-28 |
Family
ID=61901338
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160171469A KR101843018B1 (en) | 2016-12-15 | 2016-12-15 | System and Method for Video Composition |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR101843018B1 (en) |
WO (1) | WO2018110978A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102610134B1 (en) * | 2023-07-06 | 2023-12-05 | 주식회사 젠젠에이아이 | Method and system for generating composite image |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109410304B (en) * | 2018-09-18 | 2023-06-16 | 珠海金山数字网络科技有限公司 | Projection determination method, device and equipment |
CN110730340B (en) * | 2019-09-19 | 2023-06-20 | 北京拉近众博科技有限公司 | Virtual audience display method, system and storage medium based on lens transformation |
CN115002359B (en) * | 2022-05-23 | 2024-10-11 | 北京字跳网络技术有限公司 | Video processing method, device, electronic equipment and storage medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100533328B1 (en) * | 2003-06-27 | 2005-12-05 | 한국과학기술연구원 | Method of rendering a 3D image from a 2D image |
KR100795552B1 (en) * | 2005-02-07 | 2008-01-21 | 주식회사 다림비젼 | 3D Virtual Studio Using VIDEO Texturing |
JP2009141727A (en) | 2007-12-07 | 2009-06-25 | Eyedentify:Kk | Synthetic video image studio system |
JP5906322B2 (en) * | 2013-02-22 | 2016-04-20 | ソニー株式会社 | Head mounted display, image display device, and image display method |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070098361A (en) * | 2006-03-31 | 2007-10-05 | (주)엔브이엘소프트 | Apparatus and method for synthesizing a 2-d background image to a 3-d space |
-
2016
- 2016-12-15 KR KR1020160171469A patent/KR101843018B1/en active IP Right Grant
-
2017
- 2017-12-13 WO PCT/KR2017/014659 patent/WO2018110978A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100533328B1 (en) * | 2003-06-27 | 2005-12-05 | 한국과학기술연구원 | Method of rendering a 3D image from a 2D image |
KR100795552B1 (en) * | 2005-02-07 | 2008-01-21 | 주식회사 다림비젼 | 3D Virtual Studio Using VIDEO Texturing |
JP2009141727A (en) | 2007-12-07 | 2009-06-25 | Eyedentify:Kk | Synthetic video image studio system |
JP5906322B2 (en) * | 2013-02-22 | 2016-04-20 | ソニー株式会社 | Head mounted display, image display device, and image display method |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102610134B1 (en) * | 2023-07-06 | 2023-12-05 | 주식회사 젠젠에이아이 | Method and system for generating composite image |
KR102610135B1 (en) * | 2023-07-06 | 2023-12-05 | 주식회사 젠젠에이아이 | Method and system for generating composite image |
KR102610133B1 (en) * | 2023-07-06 | 2023-12-05 | 주식회사 젠젠에이아이 | Method and system for generating composite image |
Also Published As
Publication number | Publication date |
---|---|
WO2018110978A1 (en) | 2018-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9288476B2 (en) | System and method for real-time depth modification of stereo images of a virtual reality environment | |
KR101843018B1 (en) | System and Method for Video Composition | |
US8581961B2 (en) | Stereoscopic panoramic video capture system using surface identification and distance registration technique | |
KR101367820B1 (en) | Portable multi view image acquisition system and method | |
JP4065488B2 (en) | 3D image generation apparatus, 3D image generation method, and storage medium | |
US10277890B2 (en) | System and method for capturing and viewing panoramic images having motion parallax depth perception without image stitching | |
US20020113865A1 (en) | Image processing method and apparatus | |
US20080246757A1 (en) | 3D Image Generation and Display System | |
KR20180111798A (en) | Adaptive stitching of frames in the panorama frame creation process | |
WO2014154839A1 (en) | High-definition 3d camera device | |
KR20070119018A (en) | Automatic scene modeling for the 3d camera and 3d video | |
TWI848978B (en) | Image synthesis | |
JPH11259672A (en) | Three-dimensional virtual space display device | |
JP7196421B2 (en) | Information processing device, information processing system, information processing method and program | |
KR102067823B1 (en) | Method and apparatus for operating 2d/3d augument reality technology | |
KR20110107692A (en) | Spatial multi interaction-based 3d stereo interactive vision system and method of the same | |
JP5963006B2 (en) | Image conversion apparatus, camera, video system, image conversion method, and recording medium recording program | |
KR100321897B1 (en) | Stereoscopic image conversion method and apparatus | |
KR20080034419A (en) | 3d image generation and display system | |
KR100335617B1 (en) | Method for synthesizing three-dimensional image | |
TWI846808B (en) | Image signal representing a scene | |
JP6799468B2 (en) | Image processing equipment, image processing methods and computer programs | |
JP3230481B2 (en) | Television image synthesis method | |
Kunita et al. | Real-time rendering system of moving objects | |
KR101697163B1 (en) | system and method for chroma-key composing for providing three-dimensional structure effect |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |