KR101843025B1 - System and Method for Video Editing Based on Camera Movement - Google Patents

System and Method for Video Editing Based on Camera Movement Download PDF

Info

Publication number
KR101843025B1
KR101843025B1 KR1020160183636A KR20160183636A KR101843025B1 KR 101843025 B1 KR101843025 B1 KR 101843025B1 KR 1020160183636 A KR1020160183636 A KR 1020160183636A KR 20160183636 A KR20160183636 A KR 20160183636A KR 101843025 B1 KR101843025 B1 KR 101843025B1
Authority
KR
South Korea
Prior art keywords
video clip
source
video
image
dynamic
Prior art date
Application number
KR1020160183636A
Other languages
Korean (ko)
Inventor
천솔지
서일경
Original Assignee
(주)잼투고
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)잼투고 filed Critical (주)잼투고
Priority to KR1020160183636A priority Critical patent/KR101843025B1/en
Priority to PCT/KR2017/015698 priority patent/WO2018124794A1/en
Application granted granted Critical
Publication of KR101843025B1 publication Critical patent/KR101843025B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • H04N5/23216
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Studio Circuits (AREA)

Abstract

The present invention relates to a video synthesis system and a video synthesis method based on camera work. According to the present invention, the video synthesis system based on camera work comprises: a storing module which relates and stores a plurality of automatically-recorded video content, including a dynamic video clip as a section recorded by an automatically controlled camera controlled by at least one camera control parameter among pan control, tilt control, and moving control, with the camera control parameter; a content providing module which provides one type of source among the automatically-recorded video content to a user terminal through a communications network; a searching module which receives an object synthesis request for a source video clip of the source automatically-recorded video content from the user terminal, obtains the camera control parameter of the source dynamic video clip as a reference control parameter, and searches for a synthesis target dynamic video clip of synthesis target automatically-recorded video content having a matching control parameter which is the same as or similar to the reference control parameter; and a synthesizing module which generates a synthesized video clip that includes at least a source object video of the source dynamic video clip and a synthesis target object video of the synthesis target dynamic video clip. The content providing module provides the synthesized clip to the user terminal.

Description

카메라워크 기반 영상합성 시스템 및 영상합성방법{System and Method for Video Editing Based on Camera Movement}[0001] The present invention relates to a camera-based video synthesis system and a video synthesis method,

본 발명은 카메라워크 기반 영상합성 시스템 및 영상합성방법에 관한 것으로 보다 상세하게는 데이터화된 카메라워크를 통해 유사한 카메라워크를 갖는 비디오 컨텐츠의 동적 비디오 클립을 자동으로 합성하는 영상합성 시스템 및 영상합성방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a camera work-based image synthesis system and an image synthesis method, and more particularly, to an image synthesis system and an image synthesis method for automatically synthesizing dynamic video clips of video contents having similar camera work through a data- .

영상처리기술의 발달함에 따라 다양한 영상합성기술이 보편화되었다. 영상합성방법 중 객체합성은 원본 비디오 컨텐츠에 다른 비디오 컨텐츠의 객체를 합성하는 것으로서 일기예보 뉴스와 같이 배경영상이 분리된 기상캐스터의 객체영상을 가상의 스튜디오 배경영상에 합성한 합성영상을 예시할 수 있다. 이 경우 CG 배경영상과 실세계 카메라로 기상캐스터를 촬영한 객체영상이 결합된다. 이때 합성을 위해 기상캐스터 객체영상이 크로마키 기법 등으로 원래의 배경영상에서 분리되어 CG 배경영상에 합성된다. 이러한 예는 배경영상과 객체영상을 합성하는 것으로 높은 난이도를 요구하지 않아 전문적인 TV 프로그램, 영화 등의 PGC(Professionally Generated Contents) 뿐 아니라 최근에는 일반 사용자가 직접 제작하는 UGC(User Generated Contents)에서도 많이 도입된 바 있다.As image processing technology develops, various image synthesis technologies become common. Among the image composition methods, object composition is to synthesize objects of different video contents to original video contents, and it is possible to illustrate a composite image obtained by synthesizing an object image of a weather caster in which a background image is separated, such as weather forecast news, have. In this case, the CG background image is combined with the object image captured by the real-world camera. At this time, the weather caster object image is separated from the original background image by the chroma key technique and synthesized to the CG background image. In this example, the background image and the object image are synthesized, so that it is not required to have a high degree of difficulty. Therefore, not only Professionally Generated Contents (PGC) such as a professional TV program and a movie but also UGC (User Generated Contents) Has been introduced.

다음으로, 서로 다른 영상의 인물들을 합성하는 예를 설명한다. 서로 다른 인물이 출연하는 비디오 컨텐츠의 객체들을 합성하는 방법은 제 1 비디오 컨텐츠에 제 2 비디오 컨텐츠의 제 2 인물 객체영상을 합성하거나 제 1 비디오 컨텐츠의 제 1 인물 객체영상과 제 2 비디오 컨텐츠의 제 2 인물 객체영상을 새로운 배경화면에 합성하는 것으로 전술한 배경합성의 경우와 비교하여 별다른 기술이 요구되지 않는다. 그런데 제 1 비디오 컨텐츠와 제 2 비디오 컨텐츠가 모두 정면전신샷과 같이 동일한 화각으로 고정된 카메라들로 각각 촬영되었다면 제 1 인물 객체영상과 제 2 인물 객체영상은 합성 비디오 컨텐츠에서 자연스럽게 합성된다. 그런데, 제 1 비디오 컨텐츠는 동적인 카메라워크 예컨대 제 1 인물을 중심으로 카메라가 패닝동작과 수평축으로 이동동작을 수행하면서 촬영되었고, 제 2 비디오 컨텐츠는 고정된 카메라로 촬영된 경우를 가정한다. 이 경우 제 1 인물 비디오 컨텐츠와 제 2 인물 비디오 컨텐츠를 하나의 합성 비디오 컨텐츠에 합성한다면 서로 다른 카메라워크로 촬영되었기 때문에 부자연스러운 합성영상이 생성되는 문제가 있다.Next, an example of synthesizing characters of different images will be described. A method of composing objects of video contents in which different characters appear is performed by combining a first person object image of a first video content and a second person object image of a second video content with a first video content, The two-person object image is synthesized to the new background image, so that no other technique is required compared with the case of the background synthesis described above. However, if the first video content and the second video content are respectively photographed by the cameras fixed at the same angle of view as the whole body shots, the first person object image and the second person object image are naturally synthesized in the composite video content. However, it is assumed that the first video content is photographed while the camera moves on the dynamic camera work, for example, the first person, and the second video content is photographed by the fixed camera. In this case, if the first person video content and the second person video content are combined into one composite video content, there is a problem that an unnatural composite image is generated because they are photographed by different camera works.

특히 컨텐츠 소비자들은 동적인 카메라워크로 촬영된 역동적인 비디오 컨텐츠를 선호하기 때문에 서로 다른 인물을 정적인 화각으로 합성하는 것으로는 컨텐츠 소비자들의 높아진 기준을 충족시킬 수 없다. 동적인 카메라워크의 합성영상을 생성하는 방법으로는 서로 동기화된 카메라를 이용하여 촬영하거나 3D 객체를 랜더링하여 합성하는 방법이 제시되었으나 이러한 방법은 합성영상을 전제로 한 촬영계획에 따른 전문 촬영기술과 편집기술을 요구하기 때문에 많은 제작비용을 투입하는 영화나 TV 프로그램에서만 제한적으로 사용될 뿐이고 합성영상을 전제로 촬영되지 않은 다수의 독립적인 UGC들의 영상합성에는 사용할 수 없는 한계가 있다.Particularly, content consumers prefer dynamic video content shot by dynamic camera work, so synthesizing different characters at a static angle of view can not satisfy the higher standards of content consumers. As a method of generating a composite image of a dynamic camera work, a method of photographing using a synchronized camera or rendering a 3D object has been proposed. However, this method is not suitable for a special shooting technique based on a shooting plan It is limited to only movies and TV programs that use a lot of production cost because of demanding editing technology, and there is a limitation that it can not be used for image synthesis of a large number of independent UGCs that are not photographed on the assumption of a synthetic image.

한편 유투브와 같은 비디오 컨텐츠 제공서비스를 통해 다양한 UGC들이 제작 및 유통되고 있다. 일부 UGC 크리에이터들은 고품질 UGC를 통해 높은 광고수익을 거두고 있으며 고품질 UGC가 갖는 파급력을 활용하는 다양한 산업이 발전하고 있다. 그런데 UGC의 생산이 급증하면서 UGC가 컨텐츠 소비자의 이목을 끄는 라이프사이클이 짧아지고 있다. 따라서 UGC 크리에이터는 더 많은 UGC를 더 자주 올려야 하는 문제가 있다. 이러한 문제에 대응하는 한 가지 방법은 이미 제작된 UGC를 새롭게 편집하는 재생산(reproduction)을 통해 기존 UGC의 가치와 참신성을 높여 생명력을 연장하는 것이다. 그러나 다양한 제작환경에서 제작되는 UGC의 특성상 UGC 재생산은 단순히 다수의 UGC들의 특정 비디오클립들을 시간적으로 결합하거나 병렬적으로 표시하는 정도에 그치기 때문에 컨텐츠 소비자들의 높아진 기준을 충족시키기에 부족하다.Meanwhile, various UGCs are being produced and circulated through video content services such as YouTube. Some UGC creators are getting high advertising revenue through high quality UGC, and various industries are taking advantage of the power of high quality UGC. However, UGC's production has soared, and UGC's lifecycle, which attracts attention from content consumers, is shortening. Therefore, the UGC creator has the problem of having to upload more UGCs more frequently. One way to deal with this problem is to increase the value and authenticity of existing UGCs by renewing and editing existing UGCs. However, due to the nature of UGCs produced in various production environments, UGC reproduction is insufficient to satisfy the higher standards of content consumers, as it is merely a matter of temporally combining or parallelly displaying specific video clips of multiple UGCs.

그리고 동적인 카메라워크를 갖는 합성영상을 생성하기 위해서는 수많은 비디오 컨텐츠들 중에 서로 유사한 카메라워크를 갖는 비디오 컨텐츠의 비디오 클립들을 찾아야 하기 때문에 합성대상 비디오 클립의 검색에 편집자는 많은 노력과 시간을 소비하는 문제가 있다.In order to generate a composite image having a dynamic camera work, it is necessary to find video clips of video contents having similar camera works among a large number of video contents. Therefore, .

FUJINON CORP의 일본등록특허 제4140006호 “합성화상 생성용 촬영 시스템”은 배경영상의 촬영 카메라와 객체영상의 촬영 카메라가 서로 동기제어됨으로써 배경영상과 객체영상 합성시 서로 위화감 없는 합성영상을 생성하는 촬영 시스템을 개시한다. 이러한 촬영 시스템에 따르면 동기화 제어를 통해 동적인 카메라워크가 적용된 고품질의 합성영상을 생성할 수 있는 장점이 있다. 하지만 이러한 촬영 시스템은 합성영상을 전제로 한 촬영계획에 따라 배경영상과 객체영상을 촬영한 것으로, 영상합성을 전제하지 않는 UGC간 동적인 합성영상을 생성하는 것에는 적용할 수가 없는 문제가 있다. 또한 배경촬영과 인물촬영을 위해 두 세트의 자동제어 카메라를 요구하기 때문에 합성영상 생성에 소요되는 비용이 증가하기 때문에 고비용의 방송용 프로그램 제작에는 적합하지만 저비용의 UGC의 합성영상 제작에는 적합하지 않는 문제가 있다. Japanese Patent Registration No. 4140006 of FUJINON CORP, entitled " Photographing System for Composite Image Generation " is a system in which a photographing camera of a background image and a photographing camera of an object image are synchronously controlled to generate a composite image System. According to such a photographing system, it is possible to generate a high-quality composite image using a dynamic camera work through synchronization control. However, such a shooting system captures a background image and an object image according to a shooting plan based on a synthetic image, and there is a problem that it can not be applied to the generation of a dynamic synthetic image between UGCs that does not require image synthesis. In addition, since two sets of automatic control cameras are required for background shooting and portrait shooting, the costs for synthesized image generation are increased, which is suitable for producing a high-cost broadcast program but is not suitable for low-cost UGC composite video production have.

Ecole Polytechnique Federale de Lausanne의 미국등록특허 제7,843,510호 “Method and System for Combining Video Sequences with Spatio-temproal Alignment”는 스키경기와 같은 기록경기 중계방송화면에 있어서 선행선수 경기장면과 후행선수 경기장면을 하나의 화면에 표시하는 영상합성 시스템을 개시한다. 이러한 영상합성 시스템에 따르면 기록경기 중계방송에서 먼저 경기를 치룬 선수의 객체영상과 현재 경기중인 선수의 객체영상을 합성한 합성영상을 제공하여 시청자는 손쉽게 양 선수의 기록차이를 시각적으로 확인할 수 있으며 동적으로 카메라 트랙킹된 각 객체영상을 위화감없이 단일의 합성영상으로 합성하는 효과가 있다. 하지만 이러한 합성영상 시스템은 기록경기의 특성상 반복적이고 정형적인 카메라 앵글을 갖고 선수의 기록에 따른 시간차만 있는 유사한 영상간 합성에만 제한되는 것으로 기록경기의 중계영상 제작에는 적합하지만 합성영상을 전제하지 않은 다양한 카메라 앵글을 보유하는 UGC 등의 컨텐츠 합성을 통한 재생산에는 적용할 수 없는 문제가 있다.US Patent No. 7,843,510, entitled " Method and System for Combining Video Sequences with Spatio-temproal Alignment ", by Ecole Polytechnique Federale de Lausanne, A video synthesis system for displaying on a screen is disclosed. According to this image synthesis system, a composite image obtained by combining an object image of a player who competed in the first match and an object image of a player who is currently playing in the record match broadcasting can be provided, so that viewers can easily visually check the record difference between the two players. , It is possible to synthesize each object image tracked by the camera into a single composite image with no sense of discomfort. However, this synthetic video system is limited to the synthesis of analogous video with only a time difference according to the record of the athlete because it has repetitive and regular camera angles due to the characteristics of the recording game. There is a problem that it can not be applied to reproduction through content synthesis such as UGC having a camera angle.

PANASONIC Corp.의 일본공개특허공보 제1994-028449호 “화상합성장치”에 따르면 실제 카메라의 방향 및 위치에 연동한 CG 그래픽을 생성하여 실사영상과 CG영상을 합성하여 위화감없는 합성영상을 생성하는 영성합성장치를 개시한다. 이러한 영상합성장치에 따르면 동적인 카메라워크에서도 위화감없는 실사영상과 CG영상으로 구성되는 합성영상을 얻을 수 있는 효과가 있다. 하지만 이러한 영상합성장치는 실사영상과 실사영상으로 구성되는 합성영상의 생성에는 활용할 수 없으며, 카메라 방향에 따른 적응적인 CG 그래픽 생성을 위해서는 많은 비용과 전문기술이 투입되는 3D 모델링을 요구하기 때문에 합성영상 제작에 소요되는 비용이 증가하는 문제가 있다. According to Japanese Patent Laid-Open Publication No. 1994-028449, " Picture Synthesizer " of PANASONIC Corp., CG graphics linked to the direction and position of an actual camera are generated to synthesize a real image and a CG image, A synthesizing apparatus is disclosed. According to this image synthesizing apparatus, it is possible to obtain a synthesized image composed of a real image and a CG image, which do not cause any discomfort even in a dynamic camera work. However, such a video synthesizer can not be used to generate synthesized video composed of live video and live video. In order to generate adaptive CG graphics according to the camera direction, 3D modeling, which requires a lot of cost and expertise, There is a problem that the manufacturing cost is increased.

KDDI Corp.의 일본등록특허 제5706718호 “동영상 합성 시스템, 방법, 동영상 합성 프로그램 및 그 기억매체”에 따르면 동일한 악곡에 대한 가창동영상들을 타일형태로 합성하는 영상합성 시스템을 개시한다. 이러한 영상합성 시스템은 수많은 동영상들 중에서 동일한 특징(동일 악곡에 대한 가창)을 공유하는 복수의 동영상들을 자동으로 검색하여 단일의 합성영상으로 자동으로 합성하기 때문에 영상합성에 소요되는 비용과 시간이 단축되는 효과를 제공한다. 하지만 이러한 시스템에 따르면 합성 동영상은 단순히 타일식으로 배치된 작은 동영상들의 조합일 뿐이기 때문에 고품질의 객체영상이 자연스럽게 합성된 합성영상을 원하는 컨텐츠 소비자의 높은 기준에 부합하지 않는 문제가 있다.According to Japanese Patent Registration No. 5706718 of " Moving Picture Composing System, Method, Moving Picture Composing Program and Storage Medium ", KDDI Corp. discloses an image combining system for synthesizing moving images of the same music in a tile form. Since such a video synthesis system automatically searches for a plurality of videos sharing the same feature (voices for the same music) among a large number of videos and automatically synthesizes them into a single composite video, cost and time required for video synthesis are shortened Effect. However, according to such a system, since a composite video is merely a combination of small moving images arranged in a tile format, there is a problem that a composite image in which a high quality object image is synthesized naturally does not meet the high standard of a content consumer.

JPJP 41400064140006 B2B2 USUS 78435107843510 B1B1 JPJP 1994-0284491994-028449 AA JPJP 57067185706718 B2B2

본 발명에 따른 카메라워크 기반 영상합성 시스템 및 영상합성방법은, 카메라 제어 파라미터의 유사도를 통해 소스 자동촬영 비디오 컨텐츠의 소스 동적 비디오 클립과 유사한 동적 카메라워크를 갖는 다른 합성대상 동적 비디오 클립을 자동으로 검색하여 소스 객체영상과 합성대상 객체영상을 합성한 합성 비디오 클립을 자동으로 생성함으로써, 동적인 카메라워크를 갖는 고품질의 합성 비디오 클립을 위화감없이 생성할 수 있고, 다수의 UGC 등의 비디오 컨텐츠들 중에서 유사한 카메라워크를 갖는 비디오 컨텐츠를 검색하기 위해 소요되는 시간과 노력을 제거할 수 있고, 이미 제작이 완료되어 공개된 비디오 컨텐츠에 새로운 출연자를 객체합성의 방법으로 추가하여 새로운 합성 비디오 컨텐츠로 재생산함으로써 컨텐츠 소비자의 지속적인 관심을 유발하여 기제작된 비디오 컨텐츠의 생명력을 연장하는 것을 목적으로 한다. The camera-work-based image synthesis system and image synthesis method according to the present invention automatically search other synthetic target dynamic video clips having a dynamic camera work similar to the source dynamic video clip of the source automatic shot video contents through the similarity of camera control parameters A synthesized video clip obtained by synthesizing a source object image and a synthesized object object image is automatically generated so that a high quality synthetic video clip having a dynamic camera work can be generated without discomfort, It is possible to eliminate time and effort required for searching for video contents having a camera work and to reproduce new synthesized video contents by adding a new performer to the disclosed video contents as a method of object composition, Ongoing interest in And to extend the vitality of video content produced by the company.

본 발명의 실시예에 따른 카메라워크 기반 영상합성 시스템 및 영상합성방법은, 소스 동적 비디오 클립과 유사한 동적 카메라워크의 범주에 속하는 합성대상 동적 비디오 클립들을 각각 포함하는 복수의 합성대상 컨텐츠들에서 합성대상 객체를 추출하여 단일의 합성영상으로 생성함으로써 예컨대 단일의 출연자가 각각 출연한 비디오 컨텐츠들을 합성하여 복수의 출연자들이 출연하는 동적 카메라워크의 합성영상을 생성하는 것을 다른 목적으로 한다.The camera work-based image synthesis system and the image synthesis method according to the embodiment of the present invention can be applied to an image synthesis system and an image synthesis method in which a plurality of synthesis target contents each including synthesis target dynamic video clips belonging to a category of dynamic camera work similar to a source dynamic video clip, It is another object of the present invention to generate a composite image of a dynamic camera work in which a plurality of performers appear by synthesizing video contents each appearing by a single cast, for example, by extracting an object and generating it as a single composite image.

본 발명의 실시예에 따른 카메라워크 기반 영상합성 시스템 및 영상합성방법은, 소스 자동촬영 비디오 컨텐츠에 대한 사용자의 합성요청에 따라 복수의 동적 카메라워크 촬영 구간들을 각각 소스 동적 비디오 클립으로 추출하고 각 구간의 카메라워크와 유사범위에 있는 합성대상 동적 비디오 클립들을 모두 포함하는 합성대상 비디오 컨텐츠를 검색하여 각 구간별로 합성함으로써 소스 자동촬영 비디오 컨텐츠의 모든 동적촬영 구간에 대해 자동으로 객체합성을 수행하는 것을 다른 목적으로 한다.The camera work-based image synthesis system and image synthesis method according to an embodiment of the present invention extracts a plurality of dynamic camera work photographing sections as source dynamic video clips according to a user's synthesis request for source automatic photographed video contents, Object video contents including all of the compositing target dynamic video clips in a similar range to the camera work of the source automatic photographed video contents, and synthesizing the video contents for each section, The purpose.

본 발명의 실시예에 따른 카메라워크 기반 영상합성 시스템 및 영상합성방법은, 사용자가 선택한 새로운 배경영상을 입력받아 소스 객체영상 및 합성대상 객체영상을 합성하여 합성 비디오 클립을 생성함으로써 소스 비디오 컨텐츠와 비교하여 변화의 폭이 큰 재생산된 합성영상을 생성하여 컨텐츠 소비자가 식상하지 않는 비디오 컨텐츠를 지속적으로 공급하는 것을 다른 목적으로 한다. The camera work based image synthesis system and image synthesis method according to the embodiment of the present invention may be configured such that a new background image selected by the user is input and a source object image and a synthesized object image are synthesized to generate a synthesized video clip And to reproduce synthesized video having a large change width, thereby continuously supplying video contents that the content consumer does not feel.

본 발명의 실시예에 따른 카메라워크 기반 영상합성 시스템 및 영상합성방법은, 평면적인 배경화면을 곡률을 갖는 입체적인 형상의 배경투영면에 투영하고 소스 객체영상과 합성대상 객체영상을 합성함으로써, 동적 카메라워크에 따라 배경영상이 객체영상들과 적절한 원근감을 가지며 변화하는 고품질의 합성영상을 생성하는 것을 다른 목적으로 한다.The camera work-based image synthesis system and the image synthesis method according to the embodiment of the present invention can be realized by projecting a planar background image on a background projection plane having a three-dimensional shape having a curvature and synthesizing a source object image and a synthesis object object image, And to generate a high-quality composite image in which the background image has object images and an appropriate perspective, and changes according to the background image.

본 발명의 실시예에 따른 카메라워크 기반 영상합성 시스템 및 영상합성방법은, 소스 자동촬영 비디오 컨텐츠의 출연자와 온라인 상의 사회적 관계가 있는 다른 출연자가 출연한 상기 자동촬영 비디오 컨텐츠를 우선적으로 검색하여 합성함으로써 사용자 맞춤형 합성 비디오 컨텐츠를 자동으로 제작하는 것을 다른 목적으로 한다.The camera work based image synthesis system and image synthesis method according to the embodiment of the present invention preferentially searches and synthesizes the automatic shot video contents appearing with other performers having a social relationship with the performer of the source automatic shot video contents Another purpose is to automatically create customized composite video content.

상기의 문제를 해결하기 위해 본 발명에 따른 카메라워크 기반 영상합성 시스템은, 팬 제어, 틸트 제어 또는 무빙 제어 중 적어도 어느 하나의 카메라 제어 파라미터에 의해 제어되는 자동제어 카메라에 의해 촬영된 구간인 동적 비디오 클립을 포함하는 복수의 자동촬영 비디오 컨텐츠들을 상기 카메라 제어 파라미터와 연관하여 저장하는 저장모듈; 상기 복수의 자동촬영 비디오 컨텐츠들 중 어느 하나의 소스 자동촬영 비디오 컨텐츠를 통신망을 통해 사용자 단말기에게 제공하는 컨텐츠 제공모듈; 상기 소스 자동촬영 비디오 컨텐츠의 소스 동적 비디오 클립에 대한 객체 합성요청을 상기 사용자 단말기로부터 수신하고, 상기 소스 동적 비디오 클립의 상기 카메라 제어 파라미터를 레퍼런스 제어 파라미터로 취득하고, 상기 레퍼런스 제어 파라미터와 동일 또는 유사한 상기 카메라 제어 파라미터인 정합 제어 파라미터를 갖는 합성대상 자동촬영 비디오 컨텐츠의 합성대상 동적 비디오 클립을 검색하는 검색모듈; 및 적어도 상기 소스 동적 비디오 클립의 소스 객체영상과 상기 합성대상 동적 비디오 클립의 합성대상 객체영상이 포함되도록 합성 비디오 클립을 생성하는 합성모듈;을 포함하여 구성되고, 상기 컨텐츠 제공모듈은, 상기 합성 비디오 클립을 상기 사용자 단말기에게 제공하는 것을 특징으로 한다.In order to solve the above problems, a camera-work based image synthesis system according to the present invention is a camera-based image synthesizing system for dynamic video, which is a section photographed by an automatic control camera controlled by at least one of camera control parameters such as fan control, tilt control, A storage module for storing a plurality of automatic shooting video contents including a clip in association with the camera control parameter; A content providing module for providing any one of the plurality of automatic shooting video contents to a user terminal through a communication network; Receiving from the user terminal an object composition request for a source dynamic video clip of the source automatic shooting video content, obtaining the camera control parameter of the source dynamic video clip as a reference control parameter, A retrieval module for retrieving the compositing target dynamic video clips of the compositing target automatic photographing video contents having the matching control parameter which is the camera control parameter; And a synthesis module for generating a synthesized video clip such that at least a source object image of the source dynamic video clip and a synthesis object video image of the synthesis target dynamic video clip are included, And provides a clip to the user terminal.

본 발명의 실시예에 따른 카메라워크 기반 영상합성 시스템에 있어서, 상기 검색모듈은, 상기 정합 제어 파리미터를 갖는 복수의 상기 자동촬영 비디오 컨텐츠들에서 각각 합성대상 동적 비디오 클립들을 더 검색하고, 상기 합성모듈은, 상기 소스 동적 비디오 클립의 상기 소스 객체영상 및 상기 복수의 합성대상 동적 비디오 클립들의 상기 합성대상 객체영상들이 포함되도록 합성 비디오 클립을 생성하는 것을 특징으로 한다.In the camera work based image synthesis system according to the embodiment of the present invention, the search module further searches synthetic target dynamic video clips in each of a plurality of the automatic photographing video contents having the matching control parameter, The composite video clip is generated such that the source object image of the source dynamic video clip and the composite object images of the plurality of synthesis target dynamic video clips are included.

본 발명의 실시예에 따른 카메라워크 기반 영상합성 시스템에 있어서, 상기 검색모듈은, 상기 소스 자동촬영 비디오 컨텐츠에 대한 객체 합성요청을 상기 사용자 단말기로부터 수신하고, 제 1 구간 소스 동적 비디오 클립의 제 1 구간 레퍼런스 제어 파라미터 내지 제 n 구간(n은 2 이상의 정수) 소스 동적 비디오 클립의 제 n 구간 레퍼런스 제어 파라미터를 취득하고, 상기 제 1 구간 레퍼런스 제어 파라미터 내지 제 n 구간 레퍼런스 제어 파라미터에 각각 대응하는 제 1 구간 정합 제어 파라미터 내지 제 n 구간 정합 제어 파라미터를 갖는 합성대상 자동촬영 비디오 컨텐츠의 제 1 구간 합성대상 동적 비디오 클립 내지 제 n 구간 합성대상 동적 비디오 클립을 검색하고, 상기 합성모듈은, 상기 제 1 구간 소스 동적 비디오 클립의 제 1 구간 소스 객체영상과 상기 제 1 구간 합성대상 동적 비디오 클립의 제 1 구간 합성대상 객체영상이 포함되는 제 1 구간 합성 비디오 클립 내지 상기 제 n 구간 소스 동적 비디오 클립의 제 n 구간 소스 객체영상과 상기 제 n 구간 합성대상 동적 비디오 클립의 제 n 구간 합성대상 객체영상이 포함되는 제 n 구간 합성 비디오 클립을 각각 생성하고, 상기 컨텐츠 제공모듈은, 상기 제 1 구간 합성 비디오 클립 내지 제 n 구간 합성 비디오 클립을 포함하는 합성 비디오 컨텐츠를 상기 사용자 단말기에게 제공하는 것을 특징으로 한다.In the camera work-based image synthesis system according to an embodiment of the present invention, the search module receives an object composition request for the source automatic photographed video contents from the user terminal, (N is an integer of 2 or more) source dynamic video clips, and acquires the n-th interval reference control parameter of the source dynamic video clip from the first reference reference parameter to the n < th > reference reference control parameter The first module searches for the first section synthesis target dynamic video clip to the nth section synthesis target dynamic video clip of the synthesis object automatic photographing video contents having the section matching control parameter to the nth section matching control parameter, Source image of the source dynamic video clip and the phase An n-th section source object image of the first interval synthetic video clip or the n-th section interval source dynamic video clip including the first interval composition object image of the first interval composition dynamic video clip, And an n-th section composite video clip including an n-th section composition object image of the clip, wherein the content providing module generates the composite video content including the first-section composite video clip to the n-th section- To the user terminal.

본 발명의 실시예에 따른 카메라워크 기반 영상합성 시스템에 있어서, 상기 합성모듈은, 상기 동적 비디오 클립의 배경영상에 상기 소스 객체영상 및 상기 합성대상 객체영상을 합성하여 상기 합성 비디오 클립을 생성하는 것을 특징으로 한다.In the camera work based image synthesis system according to the embodiment of the present invention, the synthesis module may generate the synthesized video clip by synthesizing the source object image and the synthesis object image with the background image of the dynamic video clip .

본 발명의 실시예에 따른 카메라워크 기반 영상합성 시스템은, 상기 사용자 단말기로부터 사용자 선택 배경영상을 입력받는 배경영상 입력모듈;를 더 포함하여 구성되고, 상기 합성모듈은, 상기 사용자 선택 배경영상에 상기 소스 객체영상 및 상기 합성대상 객체영상을 합성하여 상기 합성 비디오 클립을 생성하는 것을 특징으로 한다.The camera work based image synthesis system according to an embodiment of the present invention further comprises a background image input module for receiving a user selected background image from the user terminal, The source object image, and the composite object image to generate the composite video clip.

본 발명의 실시예에 따른 카메라워크 기반 영상합성 시스템에 있어서, 상기 합성모듈은, 소정의 높이를 갖고 중앙부가 오목한 곡면으로 형성된 배경투영면을 가상공간에 형성하고, 상기 가상공간 상의 가상투영점에서 상기 배경투영면에 상기 사용자 선택 배경영상의 적어도 일부를 투영하고, 상기 가상공간 상의 상기 가상투영점과 상기 배경투영면 사이에 상기 소스 객체영상 및 상기 합성대상 객체영상을 배치하고, 상기 가상공간에 배치되는 가상카메라의 화각에 상기 사용자 선택 배경영상의 적어도 일부, 상기 소스 객체영상의 적어도 일부 및 상기 합성대상 객체영상의 적어도 일부를 포함하여 상기 합성 비디오 클립을 생성하는 것을 특징으로 한다.In the camera work-based image synthesis system according to an embodiment of the present invention, the synthesis module forms a background projection plane having a predetermined height and formed with a curved surface with a concave central portion in a virtual space, A background image projecting unit for projecting at least a part of the user selected background image on the background projection plane, arranging the source object image and the composite object image between the virtual projection point on the virtual space and the background projection plane, And generating at least a part of the user selected background image, at least a part of the source object image, and at least a part of the composite object image at an angle of view of the camera.

본 발명의 실시예에 따른 카메라워크 기반 영상합성 시스템에 있어서, 상기 검색모듈은, 상기 소스 자동촬영 비디오 컨텐츠의 출연자와 온라인 상의 사회적 관계가 있는 다른 출연자가 출연한 상기 자동촬영 비디오 컨텐츠를 우선적으로 검색하는 것을 특징으로 한다.In the camera work-based image synthesis system according to the embodiment of the present invention, the search module preferentially searches the automatic photographed video contents appearing with other performers having a social relationship on-line with the performers of the source automatic photographed video contents .

본 발명에 따른 카메라워크 기반 영상합성방법은, 영상합성 시스템이 팬 제어, 틸트 제어 또는 무빙 제어 중 적어도 어느 하나의 카메라 제어 파라미터에 의해 제어되는 자동제어 카메라에 의해 촬영된 구간인 동적 비디오 클립을 포함하는 복수의 자동촬영 비디오 컨텐츠들을 상기 카메라 제어 파라미터와 연관하여 저장하는 단계; 상기 영상합성 시스템이 상기 복수의 자동촬영 비디오 컨텐츠들 중 어느 하나의 소스 자동촬영 비디오 컨텐츠를 통신망을 통해 사용자 단말기에게 제공하는 단계; 상기 영상합성 시스템이 상기 소스 자동촬영 비디오 컨텐츠의 소스 동적 비디오 클립에 대한 객체 합성요청을 상기 사용자 단말기로부터 수신하는 단계; 상기 영상합성 시스템이 상기 소스 동적 비디오 클립의 상기 카메라 제어 파라미터를 레퍼런스 제어 파라미터로 취득하는 단계; 상기 영상합성 시스템이 상기 레퍼런스 제어 파라미터와 동일 또는 유사한 상기 카메라 제어 파라미터인 정합 제어 파라미터를 갖는 합성대상 자동촬영 비디오 컨텐츠의 합성대상 동적 비디오 클립을 검색하는 단계; 상기 영상합성 시스템이 적어도 상기 소스 동적 비디오 클립의 소스 객체영상과 상기 합성대상 동적 비디오 클립의 합성대상 객체영상이 포함되도록 합성 비디오 클립을 생성하는 단계; 및 상기 영상합성 시스템이 상기 합성 비디오 클립을 상기 사용자 단말기에게 제공하는 단계;를 포함하는 것을 특징으로 한다.The camera-work-based image synthesis method according to the present invention includes a dynamic video clip, which is a section taken by an automatic control camera controlled by at least one of camera control parameters such as fan control, tilt control or moving control Storing a plurality of automatic photographed video contents in association with the camera control parameter; Providing the image synthesis system to a user terminal through a communication network, the source automatic photographed video content of any one of the plurality of automatic photographed video contents; Receiving from the user terminal an object composition request for a source dynamic video clip of the source automatic photographed video content; The video synthesis system obtaining the camera control parameter of the source dynamic video clip as a reference control parameter; The video synthesis system retrieving a synthesis target dynamic video clip of synthesis target automatic shooting video content having a matching control parameter that is the same or similar to the reference control parameter; Generating a composite video clip such that the image synthesis system includes at least a source object image of the source dynamic video clip and a composite object image of the composite dynamic video clip; And providing the composite video clip to the user terminal by the video synthesis system.

본 발명의 실시예에 따른 카메라워크 기반 영상합성방법에 있어서, 상기 합성대상 동적 비디오 클립을 검색하는 단계는, 상기 영상합성 시스템이 상기 정합 제어 파리미터를 갖는 복수의 상기 자동촬영 비디오 컨텐츠들에서 각각 합성대상 동적 비디오 클립들을 더 검색하고, 상기 합성 비디오 클립을 생성하는 단계는, 상기 영상합성 시스템이 상기 소스 동적 비디오 클립의 상기 소스 객체영상 및 상기 복수의 합성대상 동적 비디오 클립들의 상기 합성대상 객체영상들이 포함되도록 합성 비디오 클립을 생성하는 것을 특징으로 한다.In the camera work-based image synthesis method according to an embodiment of the present invention, the step of searching for the synthesis target dynamic video clip may include a step of synthesizing a plurality of the automatic photographing video contents having the matching control parameter, Wherein the step of further retrieving the target dynamic video clips and generating the composite video clip further comprises the steps of: when the image synthesis system generates the source object image of the source dynamic video clip and the composite object images of the plurality of composite dynamic- And a synthesized video clip is generated so as to be included.

본 발명의 실시예에 따른 카메라워크 기반 영상합성방법에 있어서, 상기 객체 합성요청을 수신하는 단계는, 상기 영상합성 시스템이 상기 소스 자동촬영 비디오 컨텐츠에 대한 객체 합성요청을 상기 사용자 단말기로부터 수신하고, 상기 레퍼런스 제어 파라미터를 취득하는 단계는, 상기 영상합성 시스템이 제 1 구간 소스 동적 비디오 클립의 제 1 구간 레퍼런스 제어 파라미터 내지 제 n 구간(n은 2 이상의 정수) 소스 동적 비디오 클립의 제 n 구간 레퍼런스 제어 파라미터를 취득하고, 상기 합성대상 동적 비디오 클립을 검색하는 단계는, 상기 영상합성 시스템이 상기 제 1 구간 레퍼런스 제어 파라미터 내지 제 n 구간 레퍼런스 제어 파라미터에 각각 대응하는 제 1 구간 정합 제어 파라미터 내지 제 n 구간 정합 제어 파라미터를 갖는 합성대상 자동촬영 비디오 컨텐츠의 제 1 구간 합성대상 동적 비디오 클립 내지 제 n 구간 합성대상 동적 비디오 클립을 검색하고, 상기 합성 비디오 클립을 생성하는 단계는, 상기 영상합성 시스템이 상기 제 1 구간 소스 동적 비디오 클립의 제 1 구간 소스 객체영상과 상기 제 1 구간 합성대상 동적 비디오 클립의 제 1 구간 합성대상 객체영상이 포함되는 제 1 구간 합성 비디오 클립 내지 상기 제 n 구간 소스 동적 비디오 클립의 제 n 구간 소스 객체영상과 상기 제 n 구간 합성대상 동적 비디오 클립의 제 n 구간 합성대상 객체영상이 포함되는 제 n 구간 합성 비디오 클립을 각각 생성하고, 상기 합성 비디오 클립을 제공하는 단계는 상기 영상합성 시스템이 상기 제 1 구간 합성 비디오 클립 내지 제 n 구간 합성 비디오 클립을 포함하는 합성 비디오 컨텐츠를 상기 사용자 단말기에게 제공하는 한다.In the camera-based image synthesis method according to an embodiment of the present invention, the step of receiving the object synthesis request may include receiving an object synthesis request for the source automatic photographed video content from the user terminal, Wherein the step of acquiring the reference control parameter comprises the steps of: when the video synthesis system performs a first interval reference control parameter of the first interval source dynamic video clip to the nth interval reference control of the nth interval (n is an integer of 2 or more) Wherein the step of acquiring the parameter and retrieving the synthesis target dynamic video clip comprises the steps of: obtaining a first interval adaptation control parameter corresponding to the first interval reference control parameter to an nth interval reference control parameter, Composite Subject Shooting with Matching Control Parameters Wherein the step of retrieving the dynamic video clips to be synthesized for the first section of the content and the dynamic video clips for the nth section of the video content and generating the synthesized video clip includes the steps of An n-th section source object image of the first-section composite video clip or the n-th section-source dynamic video clip including the first-interval composition object object image of the first- wherein the step of generating the composite video clip includes generating an n-th section composite video clip including the n-th section composite object image of the n-th section composite dynamic video clip, and providing the composite video clip, Lt; RTI ID = 0.0 > n-th < / RTI > And to give.

본 발명의 실시예에 따른 카메라워크 기반 영상합성방법에 있어서, 상기 합성 비디오 클립을 생성하는 단계는, 상기 영상합성 시스템이 상기 소스 동적 비디오 클립의 배경영상에 상기 소스 객체영상 및 상기 합성대상 객체영상을 합성하여 상기 합성 비디오 클립을 생성하는 것을 특징으로 한다.In the method of synthesizing a camera work based on an embodiment of the present invention, the step of generating the synthesized video clip may include a step of, when the image synthesis system synthesizes the source object image and the synthesis target object image in the background image of the source dynamic video clip, And generates the synthesized video clip.

본 발명의 실시예에 따른 카메라워크 기반 영상합성방법은 상기 영상합성 시스템이 상기 사용자 단말기로부터 사용자 선택 배경영상을 입력받는 단계;를 더 포함하여 구성되고, 상기 합성 비디오 클립을 생성하는 단계는, 상기 영상합성 시스템이 상기 사용자 선택 배경영상에 상기 소스 객체영상 및 상기 합성대상 객체영상을 합성하여 상기 합성 비디오 클립을 생성하는 것을 특징으로 한다.The camera-based image synthesis method according to an exemplary embodiment of the present invention may further include receiving the user-selected background image from the user terminal, wherein the step of generating the synthesized video clip comprises: And the video synthesis system generates the composite video clip by combining the source object image and the composite object object image with the user selected background image.

본 발명의 실시예에 따른 카메라워크 기반 영상합성방법에 있어서, 상기 합성 비디오 클립을 생성하는 단계는, 상기 영상합성 시스템이 소정의 높이를 갖고 중앙부가 오목한 곡면으로 형성된 배경투영면을 가상공간에 형성하는 제 1 부단계; 상기 영상합성 시스템이 상기 가상공간 상의 가상투영점에서 상기 배경투영면에 상기 사용자 선택 배경영상의 적어도 일부를 투영하는 제 2 부단계; 상기 영상합성 시스템이 상기 가상공간 상의 상기 가상투영점과 상기 배경투영면 사이에 상기 소스 객체영상 및 상기 합성대상 객체영상을 배치하는 제 3 부단계; 및 상기 영상합성 시스템이 상기 가상공간에 배치되는 가상카메라의 화각에 상기 사용자 선택 배경영상의 적어도 일부, 상기 소스 객체영상의 적어도 일부, 및 상기 합성대상 객체영상의 적어도 일부를 포함하여 상기 합성 비디오 클립을 생성하는 제 4 부단계;를 포함하여 구성되는 것을 특징으로 한다.In the camera work-based image synthesis method according to an embodiment of the present invention, the step of generating the synthesized video clip may include forming a background projection plane having a predetermined height and a central concave curved surface in a virtual space A first sub-step; A second sub-step of the image synthesizing system to project at least a part of the user selected background image on the background projection plane at a virtual projection point on the virtual space; A third sub-step of arranging the source object image and the composite object image between the virtual projection point on the virtual space and the background projection plane; And the image synthesis system includes at least a part of the user-selected background image, at least a part of the source object image, and at least a part of the composite object image at an angle of view of a virtual camera disposed in the virtual space, And a fourth sub-step of generating the second sub-step.

본 발명의 실시예에 따른 카메라워크 기반 영상합성방법에 있어서, 상기 합성대상 동적 비디오 클립을 검색하는 단계는, 상기 영상합성 시스템이 상기 소스 자동촬영 비디오 컨텐츠의 출연자와 온라인 상의 사회적 관계가 있는 다른 출연자가 출연한 상기 자동촬영 비디오 컨텐츠를 우선적으로 검색하는 것을 특징으로 한다.In the camera-work-based image synthesis method according to an embodiment of the present invention, the step of searching for the synthesis target dynamic video clip may include the step of: The automatic photographed video contents are preferentially searched.

본 발명에 따른 카메라워크 기반 영상합성 시스템 및 영상합성방법은, 카메라 제어 파라미터의 유사도를 통해 소스 자동촬영 비디오 컨텐츠의 소스 동적 비디오 클립과 유사한 동적 카메라워크를 갖는 다른 합성대상 동적 비디오 클립을 자동으로 검색하여 소스 객체영상과 합성대상 객체영상을 합성한 합성 비디오 클립을 자동으로 생성함으로써, 동적인 카메라워크를 갖는 고품질의 합성 비디오 클립을 위화감없이 생성할 수 있고, 다수의 UGC 등의 비디오 컨텐츠들 중에서 유사한 카메라워크를 갖는 비디오 컨텐츠를 검색하기 위해 소요되는 시간과 노력을 제거할 수 있고, 이미 제작이 완료되어 공개된 비디오 컨텐츠에 새로운 출연자를 객체합성의 방법으로 추가하여 새로운 합성 비디오 컨텐츠로 재생산함으로써 컨텐츠 소비자의 지속적인 관심을 유발하여 기제작된 비디오 컨텐츠의 생명력을 연장하는 효과를 제공한다.The camera-work-based image synthesis system and image synthesis method according to the present invention automatically search other synthetic target dynamic video clips having a dynamic camera work similar to the source dynamic video clip of the source automatic shot video contents through the similarity of camera control parameters A synthesized video clip obtained by synthesizing a source object image and a synthesized object object image is automatically generated so that a high quality synthetic video clip having a dynamic camera work can be generated without discomfort, It is possible to eliminate time and effort required for searching for video contents having a camera work and to reproduce new synthesized video contents by adding a new performer to the disclosed video contents as a method of object composition, Ongoing interest in Thereby providing an effect of extending the life of the video content produced by the user.

본 발명의 실시예에 따른 카메라워크 기반 영상합성 시스템 및 영상합성방법은, 소스 동적 비디오 클립과 유사한 동적 카메라워크의 범주에 속하는 합성대상 동적 비디오 클립들을 각각 포함하는 복수의 합성대상 컨텐츠들에서 합성대상 객체를 추출하여 단일의 합성영상으로 생성함으로써 예컨대 단일의 출연자가 각각 출연한 비디오 컨텐츠들을 합성하여 복수의 출연자들이 출연하는 동적 카메라워크의 합성영상을 생성하는 효과를 제공한다.The camera work-based image synthesis system and the image synthesis method according to the embodiment of the present invention can be applied to an image synthesis system and an image synthesis method in which a plurality of synthesis target contents each including synthesis target dynamic video clips belonging to a category of dynamic camera work similar to a source dynamic video clip, The present invention provides an effect of generating a composite image of a dynamic camera work in which a plurality of cast members appear by synthesizing video contents each appearing by a single cast, for example, by extracting an object and generating a single composite image.

본 발명의 실시예에 따른 카메라워크 기반 영상합성 시스템 및 영상합성방법은, 소스 자동촬영 비디오 컨텐츠에 대한 사용자의 합성요청에 따라 복수의 동적 카메라워크 촬영 구간들을 각각 소스 동적 비디오 클립으로 추출하고 각 구간의 카메라워크와 유사범위에 있는 합성대상 동적 비디오 클립들을 모두 포함하는 합성대상 비디오 컨텐츠를 검색하여 각 구간별로 합성함으로써 소스 자동촬영 비디오 컨텐츠의 모든 동적촬영 구간에 대해 자동으로 객체합성을 수행하는 효과를 제공한다.The camera work-based image synthesis system and image synthesis method according to an embodiment of the present invention extracts a plurality of dynamic camera work photographing sections as source dynamic video clips according to a user's synthesis request for source automatic photographed video contents, The synthesizing target video contents including all of the compositing target dynamic video clips in a similar range to the camera work of the source automatic photographed video contents are automatically searched and synthesized for each section, to provide.

본 발명의 실시예에 따른 카메라워크 기반 영상합성 시스템 및 영상합성방법은, 사용자가 선택한 새로운 배경영상을 입력받아 소스 객체영상 및 합성대상 객체영상을 합성하여 합성 비디오 클립을 생성함으로써 소스 비디오 컨텐츠와 비교하여 변화의 폭이 큰 재생산된 합성영상을 생성하여 컨텐츠 소비자가 식상하지 않는 비디오 컨텐츠를 지속적으로 공급하는 효과를 제공한다.The camera work based image synthesis system and image synthesis method according to the embodiment of the present invention may be configured such that a new background image selected by the user is input and a source object image and a synthesized object image are synthesized to generate a synthesized video clip Thereby providing a reproduced composite image having a large variation width and continuously supplying video contents not consumed by the content consumer.

본 발명의 실시예에 따른 카메라워크 기반 영상합성 시스템 및 영상합성방법은, 평면적인 배경화면을 곡률을 갖는 입체적인 형상의 배경투영면에 투영하고 소스 객체영상과 합성대상 객체영상을 합성함으로써, 동적 카메라워크에 따라 배경영상이 객체영상들과 적절한 원근감을 가지며 변화하는 고품질의 합성영상을 생성하는 효과를 제공한다.The camera work-based image synthesis system and the image synthesis method according to the embodiment of the present invention can be realized by projecting a planar background image on a background projection plane having a three-dimensional shape having a curvature and synthesizing a source object image and a synthesis object object image, The background image provides an effect of generating a high-quality synthetic image which changes with object images and an appropriate perspective.

본 발명의 실시예에 따른 카메라워크 기반 영상합성 시스템 및 영상합성방법은, 소스 자동촬영 비디오 컨텐츠의 출연자와 온라인 상의 사회적 관계가 있는 다른 출연자가 출연한 상기 자동촬영 비디오 컨텐츠를 우선적으로 검색하여 합성함으로써 사용자 맞춤형 합성 비디오 컨텐츠를 자동으로 제작하는 효과를 제공한다.The camera work based image synthesis system and image synthesis method according to the embodiment of the present invention preferentially searches and synthesizes the automatic shot video contents appearing with other performers having a social relationship with the performer of the source automatic shot video contents And provides the effect of automatically producing customized composite video contents.

도 1은 본 발명에 따른 영상합성 시스템을 도시하는 구성도.
도 2는 본 발명의 실시예에 따른 자동제어 카메라를 도시하는 구성도.
도 3은 본 발명의 실시예에 따른 카메라 제어 파리미터의 데이터 구조도.
도 4는 본 발명의 실시예에 따른 자동촬영 비디오 컨텐츠의 비디오 클립 구조도.
도 5는 본 발명의 실시예에 따른 사용자 단말기에서의 객체 합성요청 입력 인터페이스의 예시도.
도 6은 본 발명의 실시예에 따른 영상합성을 도시하는 구성도.
도 7은 본 발명에 따른 영상합성방법을 도시하는 흐름도.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram showing a video synthesis system according to the present invention; FIG.
2 is a configuration diagram showing an automatic control camera according to an embodiment of the present invention;
3 is a data structure diagram of a camera control parameter according to an embodiment of the present invention;
FIG. 4 is a structure of a video clip of automatic photographed video contents according to an embodiment of the present invention; FIG.
FIG. 5 illustrates an example of an object composition request input interface in a user terminal according to an embodiment of the present invention; FIG.
6 is a configuration diagram illustrating image synthesis according to an embodiment of the present invention;
7 is a flow chart showing a method of image synthesis according to the present invention;

본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정 해석되지 않고 자신의 발명을 최선의 방법으로 설명하기 위해 발명자가 용어와 개념을 정의할 수 있는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 한다.It is to be understood that the terms and words used herein are not to be construed in a conventional or dictionary sense and that the inventors may define terms and concepts in order to best explain their invention in the best mode, It should be interpreted in terms of meaning and concept consistent with technical thought.

따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 바람직한 일 실시예에 해당하며, 본 발명의 기술적 사상을 모두 대변하는 것이 아니므로 해당 구성은 본 발명의 출원시점에서 이를 대체할 다양한 균등물과 변형예가 있을 수 있다.Therefore, the embodiments described in the present specification and the configurations shown in the drawings correspond to the preferred embodiments of the present invention and do not represent all the technical ideas of the present invention, so that the configurations can be replaced at the time of filing of the present invention Various equivalents and variations may be present.

명세서 전반에서 어떠한 부분이 어떤 구성요소를 “포함”한다는 기재는, 이에 대한 특별한 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한 명세서에 기재된 “..모듈”, “..부”, “..시스템” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있으며, 하나의 장치 또는 각각 다른 장치에 포함될 수 있다.The specification that " comprises " any element in any specification throughout the specification does not exclude other elements, but may also include other elements, unless the context clearly indicates otherwise. The terms " module, " " part, " " system, " and the like, which are described in the specification, mean a unit for processing at least one function or operation, And may be included in one device or in another device.

이하에서는 도면을 참조하여 본 발명에 따른 카메라워크 기반 영상합성 시스템(100) 및 영상합성방법을 설명한다. 본 발명에 따른 카메라워크 기반 영상합성 시스템(100)은 도 1에 도시된 바와 같이 저장모듈(110), 컨텐츠 제공모듈(120), 검색모듈(130) 및 합성모듈(140)을 포함하여 구성된다.Hereinafter, a camera-based image synthesis system 100 and an image synthesis method according to the present invention will be described with reference to the drawings. The camera work based image synthesis system 100 according to the present invention includes a storage module 110, a content providing module 120, a search module 130, and a synthesis module 140 as shown in FIG. 1 .

저장모듈(110)은 팬 제어, 틸트 제어 또는 무빙 제어 중 적어도 어느 하나의 카메라 제어 파라미터에 의해 제어되는 자동제어 카메라(301)에 의해 촬영된 구간인 동적 비디오 클립을 포함하는 복수의 자동촬영 비디오 컨텐츠들을 상기 카메라 제어 파라미터와 연관하여 저장하는 기능을 수행한다. The storage module 110 stores a plurality of automatic photographed video contents including a dynamic video clip, which is a section photographed by an automatic control camera 301 controlled by at least one of camera control parameters such as fan control, tilt control, In association with the camera control parameters.

저장모듈(110)은 데이터를 저장하는 통상의 저장장치일 수 있으며, 광학적 저장장치, 자기적 저장장치, 반도체 저장장치 등을 예시할 수 있다. 저장모듈(110)은 영상합성 시스템(100)의 내부에 설치되는 저장장치일 수도 있고, 네트워크를 통해 연결되는 저장장치일 수도 있다.The storage module 110 may be a conventional storage device for storing data, and may be an optical storage device, a magnetic storage device, a semiconductor storage device, or the like. The storage module 110 may be a storage device installed inside the image synthesizing system 100 or a storage device connected via a network.

카메라 제어 파라미터는 제어 대상인 자동제어 카메라(301)를 기계적인 방법으로 위치를 변화하거나 기계적인 방법으로 카메라의 지향점을 변경시키기 위한 제어명령을 의미한다. 예컨대 도 2에 도시된 바와 같이 카메라 제어 파라미터의 특정 시간구간에서의 카메라 이동 제어에 따라 자동제어 카메라(301)는 레일을 따라 수평방향 또는 수직방향으로 이동한다. 카메라 제어 파라미터의 특정 시간구간에서의 패닝 제어에 따라 자동제어 카메라(301)는 좌우 방향으로 회전하여 카메라 지향각이 변화한다. 카메라 제어 파라미터의 특정 시간구간에서의 틸트 제어에 따라 자동제어 카메라(301)는 상하 방향으로 회전하여 카메라 지향각이 변화한다. 카메라 제어 파라미터는 물론 줌 제어를 통해 자동제어 카메라(301)의 줌을 조절할 수도 있다. 하지만 줌의 변화는 자동제어 카메라(301)의 지향점을 변화시키지 않고 피사체 화상의 크기를 변화시키는 것이기 때문에 영상합성에 있어서 소스 객체영상(431)을 촬영한 자동제어 카메라(301)의 줌의 변화에 따라 합성대상 객체영상(432)의 크기를 작게 하는 방법으로 용이하게 합성영상을 생성할 수 있기 때문에 본 발명의 동적 비디오 클립은 줌 제어만 적용된 비디오 클립은 포함하지 않는다.The camera control parameter means a control command for changing the orientation of the camera by changing the position of the automatic control camera 301 to be controlled by a mechanical method or by a mechanical method. For example, as shown in FIG. 2, the automatic control camera 301 moves in the horizontal direction or the vertical direction along the rails in accordance with the camera movement control in the specific time period of the camera control parameter. The automatic control camera 301 rotates in the left and right direction according to the panning control in the specific time period of the camera control parameter to change the camera directing angle. The automatic control camera 301 rotates in the vertical direction according to the tilt control in the specific time interval of the camera control parameter to change the camera directing angle. It is possible to adjust the zoom of the automatic control camera 301 through the zoom control as well as the camera control parameters. However, since the change of the zoom is to change the size of the object image without changing the orientation point of the automatic control camera 301, the change of the zoom of the automatic control camera 301 that takes the source object image 431 Accordingly, since the synthesized image can be easily generated by reducing the size of the synthesized object image 432, the dynamic video clip of the present invention does not include the video clip applied only with the zoom control.

동적 비디오 클립은 전술한 바와 같이 팬 제어된 자동제어 카메라(301), 틸트 제어된 자동제어 카메라(301), 무빙 제어된 자동제어 카메라(301) 또는 팬과 틸트가 동시에 제어된 자동제어 카메라(301)와 같이 팬, 틸트, 무빙의 조합으로 제어된 자동제어 카메라(301)에 의해 촬영된 자동촬영 비디오 컨텐츠의 시간 구간을 의미한다. 도 4에 도시된 바와 같이 7분 길이의 자동촬영 비디오 컨텐츠 중에서 0분에서 1분까지 무빙 제어되어 촬영된 부분이 있고, 3분에서 4분까지 팬 제어되어 촬영된 부분이 있고, 6분에서 7분까지 무빙 및 팬 제어되어 촬영된 부분이 있고, 나머지 구간인 1분에서 3분, 4분에서 6분에서는 고정된 자동제어 카메라(301)로 촬영된 부분이 있는 경우, 자동촬영 비디오 컨텐츠는 세 개의 동적 비디오 클립을 포함한다.The dynamic video clip includes a pan-controlled automatic control camera 301, a tilt-controlled automatic control camera 301, a moving-controlled automatic control camera 301, or an automatic control camera 301 ) Of the automatic photographing video contents photographed by the automatic control camera 301 controlled by a combination of pan, tilt, and moving. As shown in FIG. 4, there are portions photographed and controlled from 0 minute to 1 minute among the 7 minutes-long automatic photographed video contents, there are portions photographed by controlling the pan from 3 minutes to 4 minutes, and 6 minutes to 7 minutes Minute, and the portion photographed by the fixed automatic control camera 301 is present for one minute to three minutes and four minutes to six minutes for the remaining sections, ≪ / RTI > of dynamic video clips.

동적 비디오 클립이 아닌 부분은 정적 비디오 클립으로서 시간에 따른 카메라워크의 변화를 수반하지 않기 때문에 종래의 영상합성 방법으로 용이하게 합성영상을 만들 수 있다.Since the part other than the dynamic video clip is a static video clip, it does not involve a change of the camera work over time, so that a composite image can be easily produced by a conventional image synthesis method.

한편 본 발명에서의 자동촬영 비디오 컨텐츠는 제어명령에 의해 촬영위치 또는 촬영각도가 제어되는 자동제어 카메라(301)에 의해 촬영된 비디오 컨텐츠를 의미하며, 예컨대 촬영자의 손에 들린 카메라에 의해 촬영된 비디오 컨텐츠는 본 발명의 자동촬영 비디오 컨텐츠에 해당하지 않는다.On the other hand, the automatic photographed video contents in the present invention means video contents photographed by the automatic control camera 301 in which the photographing position or photographing angle is controlled by a control command. For example, the video photographed by the camera The contents do not correspond to the automatic photographed video contents of the present invention.

도 2는 카메라 자동제어 시스템을 예시한다. 본 특허출원의 출원인에 의해 출원된 실용신안출원 제2016-0004490호 “무대 겸용 스튜디오 제어 시스템”은 이러한 카메라 자동제어 시스템의 실시예를 개시한다. 본 발명의 자동제어 카메라(301)는 도 2의 실시예에만 한정되는 것은 아니고 로봇 암에 탑재된 카메라 시스템, 지상이동장치에 탑재된 카메라 시스템, 공중 드론에 탑재된 카메라 시스템 등이 이에 해당할 수 있다.Figure 2 illustrates a camera automatic control system. Utility Model Application No. 2016-0004490 "Stage-Coupled Studio Control System" filed by the applicant of the present patent application discloses an embodiment of such a camera automatic control system. The automatic control camera 301 of the present invention is not limited to the embodiment of FIG. 2, but may be a camera system mounted on a robot arm, a camera system mounted on a ground moving device, or a camera system mounted on a public dron have.

자동제어 카메라(301)는 각 시간대별 카메라 제어를 위해 수치화된 데이터인 카메라 제어 파라미터를 사용한다. 도 3은 이러한 카메라 제어 파라미터의 구성예를 도시한다. 카메라 제어 파라미터는 적어도 타임스탬프와 해당 타임스탬프에서 카메라의 위치정보 또는 카메라의 지향각정보를 포함한다. 영상합성 시스템(100)은 카메라 제어 파라미터를 통해 자동촬영 비디오 컨텐츠의 특정구간이 동적 비디오 클립에 해당하는지 정적 비디오 클립에 해당하는지 판단한다. 예컨대 특정 타임스탬프에서 직전 선행 타임스탬프와 비교하여 카메라의 위치정보 또는 카메라의 지향각정보가 변화한 경우 해당 타임스탬프는 동적 비디오 클립에 포함되는 것으로 판단할 수 있다. 다른 방법으로는 특정한 시간구간 동안 카메라의 위치정보 또는 카메라의 지향각정보의 변화율이 설정치 이상인 경우 해당 시간구간은 동적 비디오 클립에 포함되는 것으로 판단할 수 있다. 이는 특정 시간구간에서 연속적으로 카메라의 위치정보가 변화하다가 예컨대 1초 정도 짧은 시간동안 카메라가 정지하고 다시 카메라의 위치정보가 변화한 경우 잠깐의 카메라의 이동 정지시점을 기준으로 2개의 동적 비디오 클립으로 구분하는 것 보다는 잠깐의 카메라의 이동 정지시점을 무시하고 1개의 동적 비디오 클립으로 판단하는 것이 영상합성 처리에 효율적이기 때문이다.The automatic control camera 301 uses camera control parameters, which are numerical data for camera control for each time slot. Fig. 3 shows an example of the configuration of such camera control parameters. The camera control parameter includes at least the time stamp and the position information of the camera or the orientation information of the camera at the corresponding time stamp. The image synthesizing system 100 judges whether a specific section of the automatic photographed video content corresponds to a dynamic video clip or a static video clip through a camera control parameter. For example, when the position information of the camera or the orientation information of the camera is changed by comparing with the preceding time stamp in the specific time stamp, the time stamp may be determined to be included in the dynamic video clip. Alternatively, if the positional information of the camera or the rate of change of the orientation information of the camera is equal to or greater than the set value during a specific time interval, the corresponding time interval may be determined to be included in the dynamic video clip. This is because when the position information of the camera continuously changes in a specific time interval and the camera is stopped for a short time, for example, about 1 second, when the position information of the camera is changed again, two dynamic video clips This is because it is more efficient in the image synthesis processing to ignore the stopping point of the camera for a moment than to discriminate and judge it as one dynamic video clip.

저장모듈(110)은 복수의 자동촬영 비디오 컨텐츠들을 저장하며, 예컨대 복수의 사용자들이 웹서버에 접속하여 자신이 출연 또는 제작한 자동촬영 비디오 컨텐츠들을 업로드한다. 이때 자동촬영 비디오 컨텐츠와 함께 해당 자동촬영 비디오 컨텐츠의 촬영에 사용된 카메라 제어 파라미터가 연관하여 저장된다. 예컨대 자동촬영 비디오 컨텐츠의 식별정보를 통해 해당하는 카메라 제어 파라미터를 검색할 수 있도록 구성할 수도 있고, 자동촬영 비디오 컨텐츠의 컴퓨터 파일이 카메라 제어 파라미터를 포함하도록 구성할 수도 있다. 이때 자동촬영 비디오 컨텐츠들은 반드시 동일한 자동촬영 카메라 시스템을 통해 촬영될 필요는 없다. 동일한 자동촬영 카메라 시스템을 통해 촬영된 자동촬영 비디오 컨텐츠들은 카메라 제어 파라미터의 형태가 동일하게 때문에 서로 유사성을 판단하기 용이하다. 서로 다른 자동촬영 카메라 시스템을 통해 촬영된 자동촬영 비디오 컨텐츠들은 서로 상이한 형태의 카메라 제어 파라미터를 사용할 수 있다. 이 경우 영상합성 시스템(100)은 서로 다른 형태의 카메라 제어 파라미터를 표준화된 형태로 변경하여 저장할 수 있다.The storage module 110 stores a plurality of automatic shooting video contents, and for example, a plurality of users access a web server to upload automatic shooting video contents that they have appeared or produced. At this time, the camera control parameters used for shooting the corresponding automatic photographed video contents are stored in association with the automatic photographed video contents. For example, the corresponding camera control parameter may be retrieved through the identification information of the automatic photographing video content, or the computer file of the automatic photographing video content may include the camera control parameter. At this time, the automatic photographed video contents do not necessarily have to be photographed through the same automatic photographed camera system. It is easy to determine the similarity between the automatic photographed video contents photographed through the same automatic photographed camera system because the camera control parameters have the same shape. The automatic photographed video contents photographed through different automatic photographed camera systems can use different types of camera control parameters. In this case, the image synthesizing system 100 may change and store different types of camera control parameters in a standardized form.

컨텐츠 제공모듈(120)은 복수의 자동촬영 비디오 컨텐츠들 중 어느 하나의 소스 자동촬영 비디오 컨텐츠(contents_source)를 통신망을 통해 사용자 단말기(200)에게 제공하는 기능을 수행한다. 컨텐츠 제공모듈(120)은 종래의 유투브(YouTube), 비메오(Vimeo) 등의 동영상 공유 웹서버와 같이 컨텐츠 검색 또는 컨텐츠 추천 등의 방법으로 사용자가 원하는 비디오 컨텐츠를 제공하는 웹서비스 서버를 예시할 수 있다. 소스 자동촬영 비디오 컨텐츠(contents_source)는 저장모듈(110)이 저장한 복수의 자동촬영 비디오 컨텐츠들 중에서 사용자에게 제공되어 합성 비디오 컨텐츠(contents_composite)의 제작에 사용될 자동촬영 비디오 컨텐츠를 의미한다.The content providing module 120 provides the source automatic photographed video contents (contents_source) of the plurality of automatic photographed video contents to the user terminal 200 through the communication network. The content providing module 120 exemplifies a web service server that provides video content desired by a user by means of content search or content recommendation such as a conventional video sharing web server such as YouTube or Vimeo . The source automatic photographed video contents (contents_source) refers to the automatic photographed video contents to be provided to the user among the plurality of automatic photographed video contents stored in the storage module 110 and used for producing the composite video contents (contents_composite).

검색모듈(130)은 소스 자동촬영 비디오 컨텐츠(contents_source)의 소스 동적 비디오 클립(clip_dynamic_source)에 대한 객체 합성요청을 사용자 단말기(200)로부터 수신하고, 소스 동적 비디오 클립(clip_dynamic_source)의 카메라 제어 파라미터를 레퍼런스 제어 파라미터(parameter_ref)로 취득하고, 레퍼런스 제어 파라미터(parameter_ref)와 동일 또는 유사한 카메라 제어 파라미터인 정합 제어 파라미터(parameter_match)를 갖는 합성대상 자동촬영 비디오 컨텐츠(contents_add)의 합성대상 동적 비디오 클립(clip_dynamic_add)을 검색하는 기능을 수행한다.The search module 130 receives an object compositing request for the source dynamic video clip clip_dynamic_source of the source automatic photographed video content contents_source from the user terminal 200 and stores the camera control parameter of the source dynamic video clip clip_dynamic_source as a reference And obtains the synthesis target dynamic video clip clip_dynamic_add of the synthesis object automatic photographing video contents (contents_add) having the matching control parameter (parameter_match) which is the same or similar as the reference control parameter (parameter_ref) as the camera control parameter And performs a search function.

사용자 단말기(200)는 도 5에 도시된 바와 같이 예컨대 웹브라우저 또는 동영상 뷰어 애플리케이션 상에서 소스 자동촬영 비디오 컨텐츠(contents_source)를 플레이하는 중에 객체 합성요청 아이콘(201)을 클릭하는 방법으로 검색모듈(130)에게 객체 합성요청을 전송할 수 있다. 이러한 객체 합성요청은 소스 동적 비디오 클립(clip_dynamic_source)에 대한 합성요청일 수도 있고 실시예에 따라서는 소스 자동촬영 비디오 컨텐츠(contents_source)에 대한 합성요청일 수도 있다.The user terminal 200 may search the search module 130 by clicking on the object composition request icon 201 while playing the source automatic photographed video contents contents_source on the web browser or the video viewer application, Lt; RTI ID = 0.0 > object < / RTI > The object compositing request may be a composing request for the source dynamic video clip (clip_dynamic_source) or, in some embodiments, a compositing request for the source automatically photographed video contents (contents_source).

검색모듈(130)은 소스 자동촬영 비디오 컨텐츠(contents_source)를 제외한 다수의 자동촬영 비디오 컨텐츠들 중에서 레퍼런스 제어 파라미터(parameter_ref)와 동일하거나 유사한 범주의 카메라 제어 파라미터를 갖는 동적 비디오 클립을 포함하는 자동촬영 비디오 컨텐츠를 검색한다. 이때 복수의 자동촬영 비디오 컨텐츠의 동적 비디오 클립들이 검색될 수도 있고, 하나의 자동촬영 비디오 컨텐츠에서 복수의 동적 비디오 클립들이 검색될 수도 있다. 검색모듈(130)은 사용자 설정 또는 시스템 설정에 따라 검색된 복수의 동적 비디오 클립들 중에서 합성대상 동적 비디오 클립(clip_dynamic_add)을 하나 또는 복수 개 선정할 수 있다. 최종적인 합성대상 동적 비디오 클립(clip_dynamic_add)을 선정하기 위한 방법은 다양하게 구현될 수 있다. 실시예에 따라서는 사용자 단말기(200)에게 복수의 동적 비디오 클립들 또는 복수의 자동촬영 비디오 컨텐츠들의 추천목록을 제공하여 사용자의 선택을 받아 합성대상 동적 비디오 클립(clip_dynamic_add)을 선정할 수 있다. 다른 실시예에 따르면 예컨대 비디오 컨텐츠의 장르, 비디오 컨텐츠의 배경음악, 비디오 컨텐츠의 촬영 시점 또는 업로드 시점 등의 합성대상 동적 비디오 클립(clip_dynamic_add)의 속성들 또는 예컨대 업로드 사용자간의 온라인 상의 사회적 관계, 비디오 출연자간의 온라인 상의 사회적 관계 등의 비디오 클립의 업로드 사용자 또는 출연자의 속성들을 개별적 또는 복합적으로 고려하여 검색모듈(130)은 합성대상 동적 비디오 클립(clip_dynamic_add)을 우선적으로 검색할 수 있다.The search module 130 may include an automatic shooting video module 130 that includes a dynamic video clip having camera control parameters of the same or similar category as the reference control parameter (parameter_ref) among a plurality of automatic shooting video contents excluding the source automatic shooting video contents (contents_source) Search for content. At this time, dynamic video clips of a plurality of automatic shooting video contents may be searched, and a plurality of dynamic video clips may be searched in one automatic shooting video content. The search module 130 may select one or more synthesis target dynamic video clips clip_dynamic_add among a plurality of dynamic video clips searched according to user setting or system setting. A method for selecting a final composite video clip (clip_dynamic_add) may be variously implemented. According to an embodiment, a recommendation list of a plurality of dynamic video clips or a plurality of automatic shooting video contents may be provided to the user terminal 200, and a selection target dynamic video clip clip_dynamic_add may be selected by the user. According to another embodiment, the attributes of the compositing target dynamic video clip (clip_dynamic_add) such as the genre of the video content, the background music of the video content, the shooting point or the uploading point of the video content, The search module 130 may preferentially search the compositing target dynamic video clip clip_dynamic_add considering attributes of the uploading user or performer of the video clip such as online social relationship between the participant and the participant.

컨텐츠 장르를 고려하는 실시예에 따르면 저장모듈(110)은 컨텐츠 장르정보를 자동촬영 비디오 컨텐츠와 연관하여 더 저장하고, 소스 자동촬영 비디오 컨텐츠(contents_source)와 동일한 컨텐츠 장르정보를 갖는 자동촬영 비디오 컨텐츠의 동적 비디오 클립을 합성대상 동적 비디오 클립(clip_dynamic_add)으로 우선 검색함으로써 사용자가 자동촬영 비디오 컨텐츠의 속성을 직접 감상하고 확인하지 않아도 동일한 장르속성을 공유하는 비디오 컨텐츠간 자동합성하는 효과를 제공할 수 있다.According to an embodiment considering the content genre, the storage module 110 further stores the content genre information in association with the automatic photographed video content, and further stores the genre information in the automatic photographed video content having the same content genre information as the source automatic photographed video content (contents_source) It is possible to provide an effect of automatically synthesizing video contents sharing the same genre attribute without directly viewing and confirming the attributes of the automatically photographed video contents by preferentially searching the dynamic video clips with the synthesis target dynamic video clip (clip_dynamic_add).

배경음악을 고려하는 실시예에 따르면 저장모듈(110)은 배경음악 정보를 자동촬영 비디오 컨텐츠와 연관하여 더 저장하고, 소스 자동촬영 비디오 컨텐츠(contents_source)와 동일한 배경음악 정보를 갖는 자동촬영 비디오 컨텐츠의 동적 비디오 클립을 합성대상 동적 비디오 클립(clip_dynamic_add)으로 우선검색함으로써 예컨대 동일 음악을 배경음악으로 사용하여 가창 또는 기악 퍼포먼스를 각각 수행하는 비디오 컨텐츠들을 자연스럽게 합성하여 합청 또는 협연하는 합성 비디오 클립(clip_dynamic_composite)을 생성하는 효과를 제공할 수 있다.According to an embodiment considering background music, the storage module 110 further stores the background music information in association with the automatic photographed video content, and stores the automatically photographed video content having the same background music information as the source automatic photographed video content (contents_source) A composite video clip clip_dynamic_composite for composing video contents naturally composing and performing karaoke or instrument performance by using the same music as a background music is searched for by priority searching the dynamic video clip with a compositing target dynamic video clip clip_dynamic_add It is possible to provide an effect to generate.

업로드 시점을 고려하는 실시예에 따르면 저장모듈(110)은 업로드 시점 정보를 자동촬영 비디오 컨텐츠와 연관하여 더 저장하고, 소스 자동촬영 비디오 컨텐츠(contents_source)의 업로드 시점과 가까운 시기의 업로드 시점 정보를 갖거나 가장 최근의 업로드 시점 정보를 갖는 자동촬영 비디오 컨텐츠의 동적 비디오 클립을 합성대상 동적 비디오 클립(clip_dynamic_add)으로 우선검색함으로써 비슷한 시기에 업로드된 비디오 컨텐츠를 합성하거나 가장 최신 비디오 컨텐츠를 합성하는 효과를 제공할 수 있다.According to the embodiment in which the uploading time is considered, the storage module 110 further stores the uploading time information in association with the automatic shooting video content, and has uploading time information close to the uploading time of the source automatic shooting video contents (contents_source) Or the dynamic video clip of the automatically photographed video content having the latest uploading time information is first searched with the compositing target dynamic video clip clip_dynamic_add to provide the effect of synthesizing the uploaded video contents at the same time or synthesizing the latest video contents can do.

온라인 상의 사회적 관계를 고려하는 실시예에 따르면 저장모듈(110)은 업로드 사용자간 또는 비디오 출연자간의 온라인 상의 사회적 관계를 더 검색하고, 소스 자동촬영 비디오 컨텐츠(contents_source)의 업로드 사용자 또는 비디오 출연자와 온라인 상의 사회적 관계를 갖는 업로드 사용자 또는 비디오 출연자의 자동촬영 비디오 컨텐츠의 동적 비디오 클립을 합성대상 동적 비디오 클립(clip_dynamic_add)으로 우선검색함으로써 사용자 관계기반의 합성 비디오 클립(clip_dynamic_composite)을 생성하는 효과를 제공할 수 있다. 이때 온라인 상의 사회적 관계는 예컨대 본 발명의 자동촬영 비디오 컨텐츠를 제공하는 웹서비스 서버 상에서 사용자간의 친구맺기 또는 팬맺기를 통해 구축된 사회적 관계 정보일 수도 있고, 페이스북(facebook), 인스타그램(Instagram) 등과 같은 비디오 컨텐츠 제공 서비스와 독립적인 사회 관계망 서비스로부터 제공받은 사회적 관계 정보일 수 있다.According to embodiments in which online social relationships are considered, the storage module 110 further searches for social relationships on-line between uploading users or video performers, and uploads the uploaded users or video performers of the source automatically photographed video contents (contents_source) It is possible to provide an effect of generating a synthetic video clip (clip_dynamic_composite) based on a user relationship by first searching a dynamic video clip of an automatically captured video content of an upload user or a video performer having a social relationship as a synthesis target dynamic video clip (clip_dynamic_add) . At this time, the social relation on-line may be, for example, social relation information established through affiliation or fan-out between users on a web service server providing the automatic photographed video contents of the present invention, a facebook, an Instagram ) And the like, and social relation information provided from an independent social network service.

레퍼런스 제어 파라미터(parameter_ref)는 합성요청의 대상이 된 소스 동적 비디오 클립(clip_dynamic_source)의 카메라 제어 파라미터이고, 정합 제어 파라미터(parameter_match)는 합성의 대상으로 검색모듈(130)이 검색한 합성대상 동적 비디오 클립(clip_dynamic_add)의 카메라 제어 파라미터이다. 검색모듈(130)의 레퍼런스 제어 파리미터와 동일 또는 유사한 정합 제어 파라미터(parameter_match)를 선택하는 기준은 완전한 동일성을 요구하는 것은 아니고 카메라워크가 적용된 합성영상에서 서로 위화감이 발생하지 않는 정도의 동일성을 요구한다. 예컨대 검색모듈(130)은 레퍼런스 제어 파라미터(parameter_ref)의 타임스탬프 정보에 의한 시간구간, 카메라 위치정보, 카메라 각도정보 등 각 파라미터의 10% 차이의 범위에서 정합 제어 파라미터(parameter_match)를 선택할 수 있다.The reference control parameter parameter_ref is a camera control parameter of the source dynamic video clip clip_dynamic_source subjected to the synthesis request and the matching control parameter parameter_match is a synthesis target dynamic video clip (clip_dynamic_add). The criterion for selecting a matching control parameter (parameter_match) that is the same as or similar to the reference control parameter of the search module 130 does not require a complete identity and requires the same degree of uncomfortable feeling in the composite image to which the camera work is applied . For example, the search module 130 may select a matching control parameter (parameter_match) in a range of 10% difference of each parameter such as time interval, camera position information, and camera angle information based on time stamp information of a reference control parameter (parameter_ref).

합성모듈(140)은 적어도 소스 동적 비디오 클립(clip_dynamic_source)의 소스 객체영상(431)과 합성대상 동적 비디오 클립(clip_dynamic_add)의 합성대상 객체영상(432)이 포함되도록 합성 비디오 클립(clip_dynamic_composite)을 생성하는 기능을 수행한다. 카메라 제어 파라미터는 타임스탬프, 카메라 위치정보, 카메라 지향각정보를 포함하는 다양한 파라미터들의 조합으로 구성되며 서로 다른 비디오 컨텐츠에서 그 조합이 동일하게 일치하는 경우는 거의 없다. 따라서 정확한 일치가 아닌 일정 오차범위에서의 동일성이라는 완화된 동일성 조건을 적용해야 한다. 예컨대 카메라가 오른쪽으로 1m 이동하는 데 소요된 시간이 소스 동적 비디오 클립(clip_dynamic_source)은 30초이고 합성대상 동적 비디오 클립(clip_dynamic_add)이 33초라면 이는 10%의 오차범위 내로서 합성모듈(140)은 무빙 카메라워크가 적용된 30초 분량의 합성 비디오 클립(clip_dynamic_composite)을 생성할 수 있다. 카메라가 오른쪽으로 1m 이동하는 데 소요된 시간이 소스 동적 비디오 클립(clip_dynamic_source)은 30초이고 합성대상 동적 비디오 클립(clip_dynamic_add)이 27초라면 이는 10%의 오차범위 내로서 합성모듈(140)은 무빙 카메라워크가 적용된 27초 분량의 합성 비디오 클립(clip_dynamic_composite)을 생성하거나 소스 동적 비디오 클립(clip_dynamic_source)을 90% 속도로 느리게 재생하여 무빙 카메라워크가 적용된 30초 분량의 합성 비디오 클립(clip_dynamic_composite)을 생성할 수 있다.The compositing module 140 generates a composite video clip clip_dynamic_composite so that at least the source object image 431 of the source dynamic video clip clip_dynamic_source and the compositing object image 432 of the compositing target dynamic video clip clip_dynamic_add are included Function. The camera control parameter is composed of a combination of various parameters including time stamp, camera position information, and camera orientation angle information, and the combinations of the different video contents rarely coincide with each other. Therefore, a relaxed identity condition of identity in a certain error range, not an exact match, should be applied. For example, if the time taken for the camera to move 1m to the right is 30 seconds for the source dynamic video clip (clip_dynamic_source) and 33 seconds for the synthesis target dynamic video clip (clip_dynamic_add), the synthesis module 140 It is possible to generate a 30 second synthetic video clip (clip_dynamic_composite) to which a moving camera work is applied. If the time taken for the camera to move 1m to the right is 30 seconds for the source dynamic video clip clip_dynamic_source and the synthesis target dynamic video clip clip_dynamic_add is 27 seconds, then this is within an error range of 10% A composite video clip (clip_dynamic_composite) of 27 seconds to which a camera work is applied or a source dynamic video clip (clip_dynamic_source) is reproduced at a slow speed of 90% to generate a 30 second synthetic video clip (clip_dynamic_composite) .

다른 예로써 예컨대 10초 동안 카메라가 오른쪽으로 회전한 각도가 소스 동적 비디오 클립(clip_dynamic_source)이 10도이고 합성대상 동적 비디오 클립(clip_dynamic_add)이 11도라면 이는 10%의 오차범위 내로서 합성모듈(140)은 패닝 카메라워크가 적용된 10초 분량의 합성 비디오 클립(clip_dynamic_composite)을 생성할 수 있다.As another example, if the angle at which the camera is rotated to the right for 10 seconds is 10 degrees for the source dynamic video clip (clip_dynamic_source) and the synthesized target dynamic video clip (clip_dynamic_add) is 11 degrees, ) Can generate a 10 second composite video clip (clip_dynamic_composite) to which a panning camera work is applied.

다른 예로써 예컨대 카메라가 10초 동안 소스 동적 비디오 클립(clip_dynamic_source)을 촬영한 카메라는 오른쪽으로 10도 회전하고 합성대상 동적 비디오 클립(clip_dynamic_add)을 촬영한 카메라는 왼쪽으로 10도 회전한 경우 합성모듈(140)은 합성대상 동적 비디오 클립(clip_dynamic_add)의 합성대상 객체영상(432)을 좌우반전하여 패닝 카메라워크가 적용된 10초 분량의 합성 비디오 클립(clip_dynamic_composite)을 생성할 수 있다.As another example, when the camera captures a source dynamic video clip (clip_dynamic_source) for 10 seconds is rotated 10 degrees to the right, and the camera capturing the composite dynamic video clip (clip_dynamic_add) is rotated 10 degrees to the left, 140 can generate a composite video clip clip_dynamic_composite of 10 seconds to which the panning camera work is applied by reversing the compositing object image 432 of the compositing target dynamic video clip clip_dynamic_add.

합성모듈(140)은 다양한 방법으로 합성 비디오 클립(clip_dynamic_composite)을 생성할 수 있다. 예컨대 합성모듈(140)은 소스 동적 비디오 클립(clip_dynamic_source)의 배경영상에 소스 객체영상(431) 및 합성대상 객체영상(432)을 합성하여 합성 비디오 클립(clip_dynamic_composite)을 생성할 수 있다. 이때 합성모듈(140)은 소스 동적 비디오 클립(clip_dynamic_source)의 소스 객체영상(431)을 분리하지 않은 상태에서 합성대상 동적 비디오 클립(clip_dynamic_add)에서 분리된 객체영상을 합성하는 방법으로 합성 비디오 클립(clip_dynamic_composite)을 생성하거나 소스 동적 비디오 클립(clip_dynamic_source)에서 소스 객체영상(431)을 분리하고 합성대상 동적 비디오 클립(clip_dynamic_add)에서 합성대상 객체영상(432)을 분리하여 소스 동적 비디오 클립(clip_dynamic_source)의 배경영상에 두 객체영상들을 재배치하여 합성 비디오 클립(clip_dynamic_composite)을 생성할 수 있다. 객체영상의 분리는 크로마키 촬영된 촬영영상에서 취득하거나 동적 비디오 클립에서 객체의 외곽선 검출을 통해 취득할 수 있다.Composite module 140 may generate a composite video clip clip_dynamic_composite in a variety of ways. For example, the compositing module 140 may synthesize the source object image 431 and the compositing object image 432 with the background image of the source dynamic video clip (clip_dynamic_source) to generate a composite video clip clip_dynamic_composite. At this time, the composing module 140 synthesizes the object image separated from the compositing target dynamic video clip (clip_dynamic_add) without separating the source object image 431 of the source dynamic video clip (clip_dynamic_source) Or by separating the source object image 431 from the source dynamic video clip clip_dynamic_source and separating the synthesis target object image 432 from the synthesis target dynamic video clip clip_dynamic_add to generate a background image of the source dynamic video clip clip_dynamic_source The composite video clip (clip_dynamic_composite) can be generated by rearranging the two object images. The separation of the object image can be obtained from the captured image of the chroma key or through the detection of the outline of the object in the dynamic video clip.

다른 방법으로는 영상합성 시스템(100)은 사용자 단말기(200)로부터 사용자 선택 배경영상을 입력받는 배경영상 입력모듈을 더 포함하여 구성되고, 합성모듈(140)은 사용자 선택 배경영상에 소스 객체영상(431) 및 합성대상 객체영상(432)을 합성하여 합성 비디오 클립(clip_dynamic_composite)을 생성할 수 있다. 이때 배경영상 입력모듈은 예컨대 사용자가 사용자 단말기(200)를 통해 정지영상, 비디오 영상 또는 3D 모델링 데이터 등으로 구성되는 사용자 입력 배경영상을 입력할 수 있는 인터페이스를 제공하고 사용자 단말기(200)로부터 사용자 입력 배경영상을 통신망을 통해 수신할 수 있다. 이러한 실시예에 따르면 합성 비디오 클립(clip_dynamic_composite)은 소스 동적 비디오 클립(clip_dynamic_source)과 비교하여 출연자 등의 합성대상 객체영상(432)이 추가될 뿐 아니라 그 배경도 바뀌기 때문에 컨텐츠 재생산을 통한 변화의 정도를 높이는 효과가 있다.Alternatively, the image synthesizing system 100 may further include a background image input module that receives a user selected background image from the user terminal 200, and the synthesizing module 140 may include a source object image 431 and the object object image 432 to generate a composite video clip clip_dynamic_composite. At this time, the background image input module provides an interface through which a user can input a user input background image composed of a still image, a video image, 3D modeling data or the like through the user terminal 200, Background video can be received through a communication network. According to this embodiment, since the synthesized video clip (clip_dynamic_composite) is compared with the source dynamic video clip (clip_dynamic_source), not only the synthesized object image 432 such as a cast is added but also the background is changed, the degree of change Height is effective.

한편 본 특허출원의 출원인에 의해 출원된 한국특허출원 제2016-0171469호 “영상합성 시스템 및 영상합성방법”은 카메라 시점의 변화에 따라 배경영상과 전경영상이 자연스럽게 합성되도록 가상공간 상에서 배경영상과 객체영상을 합성하는 영상합성 시스템(100)을 개시한다. 본 발명에 있어서도 합성모듈(140)은 동일한 방법을 통해 합성 비디오 클립(clip_dynamic_composite)을 생성함으로써 카메라워크에 따라 객체영상과 배경영상이 자연스럽게 합성되도록 하는 것이 바람직하다. 이를 위해 도 6에 도시된 바와 같이 합성모듈(140)은 소정의 높이를 갖고 중앙부가 오목한 곡면으로 형성된 배경투영면(410)을 가상공간에 형성하고, 가상공간 상의 가상투영점에서 배경투영면(410)에 사용자 선택 배경영상의 적어도 일부를 투영하고, 가상공간 상의 가상투영점과 배경투영면(410) 사이에 소스 객체영상(431) 및 합성대상 객체영상(432)을 배치하고, 가상공간에 배치되는 가상카메라(420)의 화각에 사용자 선택 배경영상의 적어도 일부, 소스 객체영상(431)의 적어도 일부, 및 합성대상 객체영상(432)의 적어도 일부를 포함하여 합성영상을 생성하는 것이 바람직하다. 이때 가상투영점은 객체영상을 촬영한 실세계 카메라의 위치에 해당하는 지점으로 설정하고, 배경투영면(410)으로의 사용자 선택 배경영상의 투영은 가상투영점에서 바라봤을 때 왜곡이 없는 형상이 되도록 변형된 형태의 사용자 선택 배경영상을 배경투영면(410)에 텍스처링하는 방법으로 이루어질 수 있다.Korean Patent Application No. 2016-0171469 entitled " Image synthesis system and image synthesis method ", filed by the applicant of the present patent application, discloses a method of synthesizing a background image and an object in a virtual space so that a background image and a foreground image are naturally synthesized An image synthesis system (100) for synthesizing images is disclosed. Also in the present invention, it is preferable that the composite module 140 generates a composite video clip (clip_dynamic_composite) through the same method so that the object image and the background image are synthesized naturally according to the camera work. 6, the combining module 140 forms a background projection plane 410 having a predetermined height and a concave curved surface at a central portion in a virtual space, and forms a background projection plane 410 at a virtual projection point on the virtual space, A background object image 431 and a composite object image 432 are arranged between the virtual projection point on the virtual space and the background projection plane 410, At least a part of the user-selected background image, at least a part of the source object image 431, and at least a part of the object-of-synthesis object image 432 in the angle of view of the camera 420 to generate a composite image. In this case, the virtual projection point is set to a position corresponding to the position of the real-world camera that photographed the object image, and the projection of the user-selected background image on the background projection plane 410 is transformed so as to have no distortion when viewed from the virtual projection point. Selected background image to the background projection plane 410. In this case,

한편 실시예에 따라서는 소스 비디오 클립에 하나의 합성대상 객체영상(432)이 아닌 둘 이상의 합성대상 객체영상(432)들을 합성할 수 있다. 이를 위해 검색모듈(130)은 정합 제어 파리미터를 갖는 복수의 자동촬영 비디오 컨텐츠들에서 각각 합성대상 동적 비디오 클립(clip_dynamic_add)들을 더 검색하고, 합성모듈(140)은 소스 동적 비디오 클립(clip_dynamic_source)의 소스 객체영상(431) 및 복수의 합성대상 비디오 클립들의 합성대상 객체영상(432)들이 포함되도록 합성 비디오 클립(clip_dynamic_composite)을 생성하도록 구성할 수 있다.Meanwhile, according to the embodiment, it is possible to synthesize two or more object images 432, which are not a single object object image 432, in the source video clip. To this end, the search module 130 further retrieves the compositing target dynamic video clips (clip_dynamic_add) from the plurality of automatically photographed video contents having matching control parameters, and the compositing module 140 retrieves the source dynamic video clip (clip_dynamic_source) A composite video clip clip_dynamic_composite may be generated so that the object video 431 and a plurality of object video object clips of the object video clips are included.

실시예에 따라서는 동적 카메라워크가 적용된 동적 비디오 클립구간 뿐 아니라 소스 자동촬영 동영상 컨텐츠 전체에 대한 합성영상을 생성할 수 있다. 하나의 동영상은 복수의 동적 비디오 클립구간들과 복수의 정적 비디오 클립구간들로 구성된다. 카메라의 변화가 없는 정적 비디오 클립구간들은 종래의 영상합성 방법에 따라 용이하게 합성할 수 있고, 복수의 동적 비디오 클립구간들은 본 발명에 따른 합성방법을 각각 적용함으로써 합성 비디오 컨텐츠(contents_composite)를 생성할 수 있다. 이를 위해 검색모듈(130)은 소스 자동촬영 비디오 컨텐츠(contents_source)에 대한 객체 합성요청을 사용자 단말기(200)로부터 수신하고, 제 1 구간 소스 동적 비디오 클립(clip_dynamic_source)의 제 1 구간 레퍼런스 제어 파라미터(parameter_ref) 내지 제 n 구간(n은 2 이상의 정수) 소스 동적 비디오 클립(clip_dynamic_source)의 제 n 구간 레퍼런스 제어 파라미터(parameter_ref)를 취득하고, 제 1 구간 레퍼런스 제어 파라미터(parameter_ref) 내지 제 n 구간 레퍼런스 제어 파라미터(parameter_ref)에 각각 대응하는 제 1 구간 정합 제어 파라미터(parameter_match) 내지 제 n 구간 정합 제어 파라미터(parameter_match)를 갖는 합성대상 자동촬영 비디오 컨텐츠(contents_add)의 제 1 구간 합성대상 동적 비디오 클립(clip_dynamic_add) 내지 제 n 구간 합성대상 동적 비디오 클립(clip_dynamic_add)을 검색하도록 구성할 수 있다. 합성모듈(140)은 제 1 구간 소스 동적 비디오 클립(clip_dynamic_source)의 제 1 구간 소스 객체영상(431)과 제 1 구간 합성대상 동적 비디오 클립(clip_dynamic_add)의 제 1 구간 합성대상 객체영상(432)이 포함되는 제 1 구간 합성 비디오 클립(clip_dynamic_composite) 내지 제 n 구간 소스 동적 비디오 클립(clip_dynamic_source)의 제 n 구간 소스 객체영상(431)과 제 n 구간 합성대상 동적 비디오 클립(clip_dynamic_add)의 제 n 구간 합성대상 객체영상(432)이 포함되는 제 n 구간 합성 비디오 클립(clip_dynamic_composite)을 각각 생성하도록 구성할 수 있다. 컨텐츠 제공모듈(120)은 제 1 구간 합성 비디오 클립(clip_dynamic_composite) 내지 제 n 구간 합성 비디오 클립(clip_dynamic_composite)을 포함하는 합성 비디오 컨텐츠(contents_composite)를 사용자 단말기(200)에게 제공하도록 구성할 수 있다.According to an embodiment, it is possible to generate a synthesized image for all the source automatic shot video contents as well as the dynamic video clip section to which the dynamic camera work is applied. One video consists of a plurality of dynamic video clip intervals and a plurality of static video clip intervals. The static video clip sections without changes of the camera can be easily synthesized according to the conventional video composition method and the plurality of dynamic video clip sections are used to generate synthesized video contents contents_composite by applying the synthesis method according to the present invention . To this end, the search module 130 receives an object compositing request for the source automatic photographed video contents (contents_source) from the user terminal 200 and acquires a first interval reference control parameter (parameter_ref) of the first interval source dynamic video clip (clip_dynamic_source) ) Of the source dynamic video clip (clip_dynamic_source) to the n-th section (n is an integer greater than or equal to 2) source dynamic video clip (clip_dynamic_source) and acquires the n-th section reference control parameter (parameter_ref) the first section composition target dynamic video clips clip_dynamic_add to cl_dynamic_add of the compositing target automatic photographing video contents (contents_add) having the first section matching control parameter (parameter_match) to the nth section matching control parameter (parameter_match) and to search for the dynamic video clip (clip_dynamic_add) There. The synthesis module 140 generates the first section object image 432 of the first section source dynamic video clip clip_dynamic_source and the first section composition object object image 432 of the first section composite dynamic video clip clip_dynamic_add The n-th section of the n-th section source object image 431 and the n-th section of the dynamic video clip clip_dynamic_add of the n-th sectioned source video clip (clip_dynamic_source) included in the first- And an n-th section composite video clip (clip_dynamic_composite) including the object image 432, respectively. The content providing module 120 may configure the user terminal 200 to provide composite video contents (contents_composite) including the first section video clip clip_dynamic_composite to the nth section video clip clip_dynamic_composite.

이하에서는 도 7을 참조하여 본 발명에 따른 카메라워크 기반 영상합성방법을 설명한다. 본 발명의 영상합성방법은 영상합성 시스템(100)에 의해서 수행되며 영상합성 시스템(100)은 통신망으로 연결된 서버-클라이언스 네트워크의 서버 측에 설치되는 애플리케이션, 애플리케이션을 구동하는 서버의 연산처리장치, 서버의 저장장치 등으로 구성되거나 서버의 저장장치와 스마트폰 또는 PC 등의 정보단말기 등의 클라이언트에 설치되는 애플리케이션, 애플리케이션을 구동하는 클라이언트의 연산처리장치 등으로 구성될 수 있다.Hereinafter, a camera-based image synthesis method according to the present invention will be described with reference to FIG. The image synthesis method of the present invention is performed by the image synthesis system 100. The image synthesis system 100 includes an application installed on a server side of a server-client network connected to a communication network, A storage device of a server, or an application installed in a client such as a storage device of a server and an information terminal such as a smart phone or a PC, an operation processing device of a client driving an application, or the like.

먼저 영상합성 시스템(100)이 팬 제어, 틸트 제어 또는 무빙 제어 중 적어도 어느 하나의 카메라 제어 파라미터에 의해 제어되는 자동제어 카메라(301)에 의해 촬영된 구간인 동적 비디오 클립을 포함하는 복수의 자동촬영 비디오 컨텐츠들을 카메라 제어 파라미터와 연관하여 저장하는 단계(s10)를 수행한다. 자동촬영 비디오 컨텐츠는 팬 제어, 틸트 제어, 또는 무빙 제어 중 적어도 하나가 사전에 정의된 카메라 제어 파라미터에 의해 제어되는 자동제어 카메라(301)를 통해 제작된 비디오 컨텐츠를 의미하며 자동제어되지 않는 카메라에 의해 촬영된 비디오 컨텐츠는 본 발명의 자동촬영 비디오 컨텐츠에 포함되지 않는다.First, the image synthesizing system 100 performs a plurality of automatic photographing including a dynamic video clip that is a section photographed by an automatic control camera 301 controlled by at least one of camera control parameters such as fan control, tilt control, (S10) of storing the video contents in association with the camera control parameters. The automatic photographed video content refers to video content produced through an automatic control camera (301) in which at least one of fan control, tilt control, or moving control is controlled by predefined camera control parameters, Is not included in the automatic photographed video contents of the present invention.

다음으로, 영상합성 시스템(100)이 복수의 자동촬영 비디오 컨텐츠들 중 어느 하나의 소스 자동촬영 비디오 컨텐츠(contents_source)를 통신망을 통해 사용자 단말기(200)에게 제공하는 단계(s20)를 수행한다. 사용자는 예컨대 사용자 단말기(200)의 애플리케이션 또는 웹브라우저를 통해 자동촬영 비디오 컨텐츠를 제공하는 웹서버에 접속하여 자동촬영 비디오 컨텐츠를 제공을 수 있다.Next, the image synthesizing system 100 performs step s20 of providing any one of the plurality of automatic photographed video contents source automatic photographed video contents (contents_source) to the user terminal 200 through the communication network. The user can access the web server providing the automatic photographed video content through the application of the user terminal 200 or the web browser to provide the automatic photographed video content.

다음으로, 영상합성 시스템(100)이 소스 자동촬영 비디오 컨텐츠(contents_source)의 소스 동적 비디오 클립(clip_dynamic_source)에 대한 객체 합성요청을 사용자 단말기(200)로부터 수신하는 단계(s30)를 수행한다. 소스 자동촬영 비디오 컨텐츠(contents_source)는 사용자가 합성을 하고자 하는 자동촬영 비디오 컨텐츠이고, 소스 동적 비디오 클립(clip_dynamic_source)은 소스 자동촬영 비디오 컨텐츠(contents_source) 중에서 팬 동작, 틸트 동작, 무빙 동작 중 적어도 어느 하나로 구성되는 동적인 카메라워크가 적용된 시간구간을 의미한다. 실시예에 따라서는 영상합성 시스템(100)이 카메라 제어 파라미터를 통해 소스 자동촬영 비디오 컨텐츠(contents_source) 중에서 동적 비디오 클립구간들을 사용자에게 제공하고 사용자가 그 중 하나의 비디오 클립구간을 선택하는 방법으로 영상합성 시스템(100)은 소스 동적 비디오 클립(clip_dynamic_source)에 대한 객체 합성요청을 수신할 수 있다. 다른 실시예에 따르면 사용자는 소스 자동촬영 비디오 컨텐츠(contents_source)에 대해 객체 합성요성을 요청하고, 영상합성 시스템(100)은 합성요청된 소스 자동촬영 비디오 컨텐츠(contents_source)에 포함된 소스 동적 비디오 클립(clip_dynamic_source)에 대한 객체 합성을 수행할 수 있다.Next, the image compositing system 100 performs a step (s30) of receiving an object compositing request from the user terminal 200 for the source dynamic video clip clip_dynamic_source of the source automatically photographed video contents (contents_source). The source automatic photographed video contents (contents_source) is an automatic photographed video content to be synthesized by the user and the source dynamic video clip (clip_dynamic_source) is at least one of a pan operation, a tilting operation and a moving operation among the source automatic photographed video contents (contents_source) It means the time interval during which the dynamic camera work is applied. According to an embodiment, the image synthesizing system 100 provides dynamic video clip intervals among the source automatically photographed video contents (contents_source) through a camera control parameter, and the user selects one of the video clip intervals The compositing system 100 may receive an object compositing request for the source dynamic video clip clip_dynamic_source. According to another embodiment, the user requests an object compositing requirement for the source automatic photographed video contents (contents_source), and the video compositing system 100 requests a source dynamic video clip (contents_source) included in the synthesized requested source automatic photographed video contents clip_dynamic_source) can be performed.

다음으로, 영상합성 시스템(100)이 소스 동적 비디오 클립(clip_dynamic_source)의 카메라 제어 파라미터를 레퍼런스 제어 파라미터(parameter_ref)로 취득하는 단계(s40)를 수행한다. 영상합성 시스템(100)은 소스 자동촬영 비디오 컨텐츠(contents_source)와 연관되어 저장된 카메라 제어미터 중 소스 동적 비디오 클립(clip_dynamic_source)에 해당하는 시간구간의 카메라 제어 파라미터를 레퍼런스 제어 파라미터(parameter_ref)로 취득할 수 있다.Next, the image synthesizing system 100 performs step (s40) of acquiring the camera control parameter of the source dynamic video clip (clip_dynamic_source) as the reference control parameter (parameter_ref). The image synthesizing system 100 can acquire the camera control parameter of the time interval corresponding to the source dynamic video clip clip_dynamic_source among the camera control meters stored in association with the source automatic photographed video contents contents_source as the reference control parameter have.

다음으로, 영상합성 시스템(100)이 레퍼런스 제어 파라미터(parameter_ref)와 동일 또는 유사한 카메라 제어 파라미터인 정합 제어 파라미터(parameter_match)를 갖는 합성대상 자동촬영 비디오 컨텐츠(contents_add)의 합성대상 동적 비디오 클립(clip_dynamic_add)을 검색하는 단계(s50)를 수행한다. 영상합성 시스템(100)은 다른 자동촬영 비디오 컨텐츠들의 카메라 제어 파라미터들을 레퍼런스 제어 파라미터(parameter_ref)와 비교하여 동일 또는 유사한 카메라 제어 파라미터의 시간구간이 검색되면 이를 정합 제어 파라미터(parameter_match)로 인식하고 해당 시간구간의 비디오 클립을 합성대상 동적 비디오 클립(clip_dynamic_add)으로 검색한다.Next, the image compositing system 100 sets the compositing target dynamic video clip clip_dynamic_add of the compositing target automatic photographing video contents (contents_add) having the matching control parameter (parameter_match) which is the same or similar as the reference control parameter (parameter_ref) (S50). The image synthesis system 100 compares the camera control parameters of other automatic photographed video contents with the reference control parameter (parameter_ref), and when the time interval of the same or similar camera control parameter is found, it recognizes it as a matching control parameter (parameter_match) And searches the video clip of the section with the synthesis target dynamic video clip clip_dynamic_add.

이때 영상합성 시스템(100)은 합성대상 동적 비디오 클립(clip_dynamic_add)을 검색하는 단계(s50)에 있어서 예컨대 비디오 컨텐츠의 장르, 비디오 컨텐츠의 배경음악, 비디오 컨텐츠의 촬영 시점 또는 업로드 시점 등의 합성대상 동적 비디오 클립(clip_dynamic_add)의 속성들 또는 예컨대 업로드 사용자간의 온라인 상의 사회적 관계, 비디오 출연자간의 온라인 상의 사회적 관계 등의 비디오 클립의 업로드 사용자 또는 출연자의 속성들을 개별적 또는 복합적으로 고려하여 검색모듈(130)은 합성대상 동적 비디오 클립(clip_dynamic_add)을 우선적으로 검색할 수 있다.At this time, the image synthesis system 100 searches for a synthesis target dynamic (e.g., a genre of a video content, a background music of a video content, a shooting time of a video content, The search module 130 may search for attributes of the video clip (clip_dynamic_add), or the attributes of the upload user or performer of the video clip, such as, for example, online social relationships among uploading users, The target dynamic video clip clip_dynamic_add can be preferentially searched.

다음으로, 영상합성 시스템(100)이 적어도 소스 동적 비디오 클립(clip_dynamic_source)의 소스 객체영상(431)과 합성대상 동적 비디오 클립(clip_dynamic_add)의 합성대상 객체영상(432)이 포함되도록 합성 비디오 클립(clip_dynamic_composite)을 생성하는 단계(s60)를 수행한다. 소스 객체영상(431)과 합성대상 객체영상(432)은 동일 또는 유사한 카메라워크를 공유하기 때문에 합성 비디오 클립(clip_dynamic_composite)은 동적인 카메라워크에도 불구하고 자연스러운 합성영상을 사용자에게 제공할 수 있다.Next, the video synthesis system 100 generates a composite video clip (clip_dynamic_composite) so that at least the source object image 431 of the source dynamic video clip (clip_dynamic_source) and the synthesis object image 432 of the synthesis target dynamic video clip (clip_dynamic_add) (Step s60). Since the source object image 431 and the composite object image 432 share the same or similar camera work, the composite video clip clip_dynamic_composite can provide a natural composite image to the user despite the dynamic camera work.

합성 비디오 클립(clip_dynamic_composite)을 생성하기 위해 영상합성 시스템(100)은 다양한 합성방법을 적용할 수 있다. 예컨대 합성 비디오 클립(clip_dynamic_composite)을 생성하는 단계(s60)는 영상합성 시스템(100)이 소스 동적 비디오 클립(clip_dynamic_source)의 배경영상에 소스 객체영상(431) 및 합성대상 객체영상(432)을 합성하여 합성 비디오 클립(clip_dynamic_composite)을 생성할 수 있다.The image synthesis system 100 may apply various synthesis methods to generate a composite video clip (clip_dynamic_composite). For example, in the step s60 of generating a composite video clip clip_dynamic_composite, the image synthesis system 100 synthesizes the source object image 431 and the synthesis object image 432 with the background image of the source dynamic video clip clip_dynamic_source A composite video clip (clip_dynamic_composite) can be generated.

다른 실시예에 따르면, 영상합성방법은 영상합성 시스템(100)이 사용자 단말기(200)로부터 사용자 선택 배경영상을 입력받는 단계를 더 포함하여 구성되고, 합성 비디오 클립(clip_dynamic_composite)을 생성하는 단계(s60)는, 영상합성 시스템(100)이 사용자 선택 배경영상에 소스 객체영상(431) 및 합성대상 객체영상(432)을 합성하여 합성 비디오 클립(clip_dynamic_composite)을 생성할 수 있다.According to another embodiment, the image synthesis method further includes a step of receiving the user selected background image from the user terminal 200 by the image synthesis system 100, and generating the synthesized video clip clip_dynamic_composite (s60 May generate a composite video clip clip_dynamic_composite by combining the source object image 431 and the composite object object image 432 with the user selected background image by the image synthesis system 100. [

이때 동적인 카메라워크에서 평면적인 2D 배경영상을 이용하더라도 동적인 카메라워크의 객체영상과 자연스럽게 합성하기 위해 가상공간에서 배경영상과 객체영상들을 합성하는 것이 바람직하다. 이를 위해 합성 비디오 클립(clip_dynamic_composite)을 생성하는 단계(s60)에 있어서, 영상합성 시스템(100)이 소정의 높이를 갖고 중앙부가 오목한 곡면으로 형성된 배경투영면(410)을 가상공간에 형성하는 제 1 부단계를 수행할 수 있다. 다음으로, 영상합성 시스템(100)이 가상공간 상의 가상투영점에서 배경투영면(410)에 사용자 선택 배경영상의 적어도 일부를 투영하는 제 2 부단계를 수행할 수 있다. 다음으로, 영상합성 시스템(100)이 가상공간 상의 가상투영점과 배경투영면(410) 사이에 소스 객체영상(431) 및 합성대상 객체영상(432)을 배치하는 제 3 부단계를 수행할 수 있다. 마지막으로 영상합성 시스템(100)이 가상공간에 배치되는 가상카메라(420)의 화각에 사용자 선택 배경영상의 적어도 일부, 소스 객체영상(431)의 적어도 일부, 및 합성대상 객체영상(432)의 적어도 일부를 포함하여 합성 비디오 클립(clip_dynamic_composite)을 생성하는 제 4 부단계를 수행할 수 있다.In this case, it is preferable to synthesize the background image and object images in the virtual space in order to naturally synthesize the dynamic camera work object image even if the 2D background image is used in the dynamic camera work. In step s60 of generating a composite video clip clip_dynamic_composite, the image synthesis system 100 includes a first part for forming a background projection plane 410 having a predetermined height and formed with a concave curved surface at a predetermined height in a virtual space, Step can be performed. Next, the image synthesizing system 100 may perform a second sub-step of projecting at least a part of the user selected background image on the background projection plane 410 at the virtual projection point in the virtual space. Subsequently, the image synthesizing system 100 can perform a third sub-step of arranging the source object image 431 and the compositing object image 432 between the virtual projection point in the virtual space and the background projection plane 410 . Finally, at least a part of the user-selected background image, at least a part of the source object image 431, and at least a part of the composite object image 432 in the view angle of the virtual camera 420 placed in the virtual space, And a fourth sub-step of generating a composite video clip (clip_dynamic_composite) including a part thereof.

마지막으로 영상합성 시스템(100)이 합성 비디오 클립(clip_dynamic_composite)을 사용자 단말기(200)에게 제공하는 단계(s70)를 수행한다.Finally, the video composition system 100 performs step s70 of providing the composite video clip clip_dynamic_composite to the user terminal 200. [

복수의 합성대상 객체를 소스 동적 비디오 클립(clip_dynamic_source)과 합성하여 합성 비디오 클립(clip_dynamic_composite)을 생성하는 실시예에 있어서, 합성대상 동적 비디오 클립(clip_dynamic_add)을 검색하는 단계(s50)는 영상합성 시스템(100)이 정합 제어 파리미터를 갖는 복수의 자동촬영 비디오 컨텐츠들에서 각각 합성대상 동적 비디오 클립(clip_dynamic_add)들을 더 검색할 수 있다. 합성 비디오 클립(clip_dynamic_composite)을 생성하는 단계(s60)는 영상합성 시스템(100)이 소스 동적 비디오 클립(clip_dynamic_source)의 소스 객체영상(431) 및 복수의 합성대상 동적 비디오 클립(clip_dynamic_add)들의 합성대상 객체영상(432)들이 포함되도록 합성 비디오 클립(clip_dynamic_composite)을 생성할 수 있다.In an embodiment in which a plurality of compositing objects are combined with a source dynamic video clip (clip_dynamic_source) to generate a composing video clip (clip_dynamic_composite), the step s50 of retrieving the compositing target dynamic video clip clip_dynamic_add comprises: 100) can further search each of the compositing target dynamic video clips (clip_dynamic_add) in the plurality of automatic photographing video contents having the matching control parameter. The step s60 of generating the composite video clip clip_dynamic_composite is a step of generating the composite video clip clip_dynamic_composite by combining the source object image 431 of the source dynamic video clip clip_dynamic_source and the plurality of synthesis target dynamic video clips A composite video clip clip_dynamic_composite may be generated so that the images 432 are included.

소스 동적 비디오 클립(clip_dynamic_source)에만 합성대상 객체영상(432)을 합성하지 않고, 소스 자동촬영 비디오 컨텐츠(contents_source) 전체에 합성대상 객체영상(432)을 합성함으로써 합성 비디오 컨텐츠(contents_composite)를 생성하는 실시예에 있어서, 객체 합성요청을 수신하는 단계(s30)는, 영상합성 시스템(100)이 소스 자동촬영 비디오 컨텐츠(contents_source)에 대한 객체 합성요청을 사용자 단말기(200)로부터 수신할 수 있다. 레퍼런스 제어 파라미터(parameter_ref)를 취득하는 단계(s40)는, 영상합성 시스템(100)이 제 1 구간 소스 동적 비디오 클립(clip_dynamic_source)의 제 1 구간 레퍼런스 제어 파라미터(parameter_ref) 내지 제 n 구간(n은 2 이상의 정수) 소스 동적 비디오 클립(clip_dynamic_source)의 제 n 구간 레퍼런스 제어 파라미터(parameter_ref)를 취득할 수 있다. 합성대상 동적 비디오 클립(clip_dynamic_add)을 검색하는 단계(s50)는, 영상합성 시스템(100)이 제 1 구간 레퍼런스 제어 파라미터(parameter_ref) 내지 제 n 구간 레퍼런스 제어 파라미터(parameter_ref)에 각각 대응하는 제 1 구간 정합 제어 파라미터(parameter_match) 내지 제 n 구간 정합 제어 파라미터(parameter_match)를 갖는 합성대상 자동촬영 비디오 컨텐츠(contents_add)의 제 1 구간 합성대상 동적 비디오 클립(clip_dynamic_add) 내지 제 n 구간 합성대상 동적 비디오 클립(clip_dynamic_add)을 검색할 수 있다. 합성 비디오 클립(clip_dynamic_composite)을 생성하는 단계(s60)는, 영상합성 시스템(100)이 제 1 구간 소스 동적 비디오 클립(clip_dynamic_source)의 제 1 구간 소스 객체영상과 제 1 구간 합성대상 동적 비디오 클립(clip_dynamic_add)의 제 1 구간 합성대상 객체영상이 포함되는 제 1 구간 합성 비디오 클립(clip_dynamic_composite) 내지 제 n 구간 소스 동적 비디오 클립(clip_dynamic_source)의 제 n 구간 소스 객체영상과 제 n 구간 합성대상 동적 비디오 클립(clip_dynamic_add)의 제 n 구간 합성대상 객체영상이 포함되는 제 n 구간 합성 비디오 클립(clip_dynamic_composite)을 각각 생성할 수 있다. 합성 비디오 클립(clip_dynamic_composite)을 제공하는 단계(s70)는 영상합성 시스템(100)이 제 1 구간 합성 비디오 클립(clip_dynamic_composite) 내지 제 n 구간 합성 비디오 클립(clip_dynamic_composite)을 포함하는 합성 비디오 컨텐츠(contents_composite)를 사용자 단말기(200)에게 제공할 수 있다. 상기의 실시예에 있어서 소스 동적 비디오 클립(clip_dynamic_source)에 해당하지 않는 시간구간 즉, 정적인 카메라워크를 사용하여 촬영된 정적 비디오 클립에 해당하는 시간구간에 있어서는 종래의 영상객체 합성 기법을 이용하여 합성 비디오 컨텐츠(contents_composite)를 생성할 수 있다.The synthesized video content contents_composite is generated by synthesizing the synthesis target object image 432 in the whole source automatic photographed video contents contents_source without synthesizing the synthesis target object image 432 only with the source dynamic video clip clip_dynamic_source For example, the step s30 of receiving the object synthesis request may receive the object synthesis request for the source automatic photographed video contents (contents_source) from the user terminal 200 by the image synthesis system 100. [ The step (s40) of acquiring the reference control parameter (parameter_ref) is performed in such a manner that the image synthesis system 100 acquires the first interval reference control parameter (parameter_ref) through the n-th interval (n is 2 Of the source dynamic video clip (clip_dynamic_source) of the source dynamic video clip (clip_dynamic_source). The step (s50) of searching the synthesis target dynamic video clip (clip_dynamic_add) is performed in such a manner that the image synthesis system 100 generates the first section reference control parameter (parameter_ref) to the nth section reference control parameter (parameter_ref) Target dynamic video clips clip_dynamic_add through n_th section synthesis target dynamic video clips clip_dynamic_add_indicate of the compositing target automatic photographed video contents contents_add having the matching control parameter (parameter_match) to the nth section matching control parameter (parameter_match) ) Can be searched. The step s60 of generating the composite video clip clip_dynamic_composite is a step S60 of generating the composite video clip clip_dynamic_composite by combining the first interval source object image of the first interval source dynamic video clip clip_dynamic_source and the first interval composition dynamic video clip clip_dynamic_add ) Of the first interval synthetic video clip clip_dynamic_composite to the nth interval source dynamic video clip clip_dynamic_source including the first interval composition object object image of the first interval synthesis object video clip clip_dynamic_add And an n-th section composite video clip (clip_dynamic_composite) including the n-th section object image to be synthesized. The step s70 of providing the composite video clip clip_dynamic_composite may be such that the video synthesis system 100 generates the composite video content contents_composite including the first section composite video clip clip_dynamic_composite to the nth section composite video clip clip_dynamic_composite To the user terminal 200. In the above embodiment, in the time period corresponding to the static dynamic video clip photographed using the static camera work, a time interval not corresponding to the source dynamic video clip (clip_dynamic_source) is synthesized using the conventional video object synthesis technique Video contents (contents_composite) can be generated.

본 명세서에서의 발명의 상세한 설명은 바람직한 실시예를 설명하는 것으로, 본 발명은 이러한 실시예에 한정되지 않는다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 이상의 실시예에 대한 다양한 변경과 수정이 가능하고, 본 발명의 기술적 사상은 이러한 다양한 변경과 수정을 모두 포함한다.The detailed description of the invention in this specification is intended to illustrate the preferred embodiments, and the invention is not limited to these embodiments. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. .

100 : 영상합성 시스템 110 : 저장모듈
120 : 컨텐츠 제공모듈 130 : 검색모듈
140 : 합성모듈 200 : 사용자 단말기
301 : 자동제어 카메라
100: image synthesis system 110: storage module
120: Content providing module 130: Search module
140: Composite module 200: User terminal
301: Automatic control camera

Claims (14)

팬 제어, 틸트 제어 또는 무빙 제어 중 적어도 어느 하나의 카메라 제어 파라미터에 의해 제어되는 자동제어 카메라에 의해 촬영된 구간인 동적 비디오 클립을 포함하는 복수의 자동촬영 비디오 컨텐츠들을 상기 카메라 제어 파라미터와 연관하여 저장하는 저장모듈;
상기 복수의 자동촬영 비디오 컨텐츠들 중 어느 하나의 소스 자동촬영 비디오 컨텐츠를 통신망을 통해 사용자 단말기에게 제공하는 컨텐츠 제공모듈;
상기 소스 자동촬영 비디오 컨텐츠의 소스 동적 비디오 클립에 대한 객체 합성요청을 상기 사용자 단말기로부터 수신하고, 상기 소스 동적 비디오 클립의 상기 카메라 제어 파라미터를 레퍼런스 제어 파라미터로 취득하고, 상기 레퍼런스 제어 파라미터와 동일 또는 일정 오차범위 내 상기 카메라 제어 파라미터인 정합 제어 파라미터를 갖는 합성대상 자동촬영 비디오 컨텐츠의 합성대상 동적 비디오 클립을 검색하는 검색모듈; 및
적어도 상기 소스 동적 비디오 클립의 소스 객체영상과 상기 합성대상 동적 비디오 클립의 합성대상 객체영상이 포함되도록 합성 비디오 클립을 생성하는 합성모듈;을 포함하여 구성되고,
상기 컨텐츠 제공모듈은, 상기 합성 비디오 클립을 상기 사용자 단말기에게 제공하는 것을 특징으로 하는 카메라워크 기반 영상합성 시스템.
A plurality of automatic photographed video contents including a dynamic video clip which is an interval photographed by an automatic control camera controlled by at least any one of camera control parameters such as a pan control, a tilt control or a moving control, A storage module;
A content providing module for providing any one of the plurality of automatic shooting video contents to a user terminal through a communication network;
Receiving from the user terminal an object composition request for a source dynamic video clip of the source automatic shooting video content, obtaining the camera control parameter of the source dynamic video clip as a reference control parameter, A retrieval module for retrieving a compositing target dynamic video clip of the compositing target automatic photographing video contents having the matching control parameter which is the camera control parameter within an error range; And
And a synthesis module for generating a synthesized video clip such that at least a source object image of the source dynamic video clip and a synthesis object image of the synthesis target dynamic video clip are included,
Wherein the content providing module provides the composite video clip to the user terminal.
제 1 항에 있어서,
상기 검색모듈은, 상기 정합 제어 파리미터를 갖는 복수의 상기 자동촬영 비디오 컨텐츠들에서 각각 합성대상 동적 비디오 클립들을 더 검색하고,
상기 합성모듈은, 상기 소스 동적 비디오 클립의 상기 소스 객체영상 및 상기 복수의 합성대상 동적 비디오 클립들의 상기 합성대상 객체영상들이 포함되도록 합성 비디오 클립을 생성하는 것을 특징으로 하는 카메라워크 기반 영상합성 시스템.
The method according to claim 1,
Wherein the search module is further operable to further retrieve composite target dynamic video clips from each of a plurality of the automatically photographed video contents having the matching control parameter,
Wherein the synthesis module generates a composite video clip such that the source object image of the source dynamic video clip and the composite object images of the plurality of composite dynamic video clips are included.
제 1 항에 있어서,
상기 검색모듈은, 상기 소스 자동촬영 비디오 컨텐츠에 대한 객체 합성요청을 상기 사용자 단말기로부터 수신하고, 제 1 구간 소스 동적 비디오 클립의 제 1 구간 레퍼런스 제어 파라미터 내지 제 n 구간(n은 2 이상의 정수) 소스 동적 비디오 클립의 제 n 구간 레퍼런스 제어 파라미터를 취득하고, 상기 제 1 구간 레퍼런스 제어 파라미터 내지 제 n 구간 레퍼런스 제어 파라미터에 각각 대응하는 제 1 구간 정합 제어 파라미터 내지 제 n 구간 정합 제어 파라미터를 갖는 합성대상 자동촬영 비디오 컨텐츠의 제 1 구간 합성대상 동적 비디오 클립 내지 제 n 구간 합성대상 동적 비디오 클립을 검색하고,
상기 합성모듈은, 상기 제 1 구간 소스 동적 비디오 클립의 제 1 구간 소스 객체영상과 상기 제 1 구간 합성대상 동적 비디오 클립의 제 1 구간 합성대상 객체영상이 포함되는 제 1 구간 합성 비디오 클립 내지 상기 제 n 구간 소스 동적 비디오 클립의 제 n 구간 소스 객체영상과 상기 제 n 구간 합성대상 동적 비디오 클립의 제 n 구간 합성대상 객체영상이 포함되는 제 n 구간 합성 비디오 클립을 각각 생성하고,
상기 컨텐츠 제공모듈은, 상기 제 1 구간 합성 비디오 클립 내지 제 n 구간 합성 비디오 클립을 포함하는 합성 비디오 컨텐츠를 상기 사용자 단말기에게 제공하는 것을 특징으로 하는 카메라워크 기반 영상합성 시스템.
The method according to claim 1,
Wherein the search module receives an object composition request for the source automatic photographed video content from the user terminal and generates a first interval reference control parameter of the first interval source dynamic video clip through the nth interval An nth interval reference control parameter of the dynamic video clip; and a synthesis-target automatic control section that acquires a nth interval reference control parameter of the dynamic video clip, The dynamic video clips to be subjected to the first interval synthesis and the dynamic video clips to be subjected to the nth section synthesis of the photographed video contents,
Wherein the synthesis module includes a first interval synthesis video clip including a first interval source object image of the first interval source dynamic video clip and a first interval composition object image of the first interval composition dynamic video clip, an nth interval synthetic video clip including an nth interval source object image of the n-period source dynamic video clip and an nth interval object image of the nth interval of the dynamic video clip to be synthesized,
Wherein the content providing module provides the user terminal with a composite video content including the first interval video clip to the nth interval video clip.
제 1 항에 있어서, 상기 합성모듈은,
상기 동적 비디오 클립의 배경영상에 상기 소스 객체영상 및 상기 합성대상 객체영상을 합성하여 상기 합성 비디오 클립을 생성하는 것을 특징으로 하는 카메라워크 기반 영상합성 시스템.
2. The apparatus of claim 1,
And the synthesized video clip is generated by synthesizing the source object image and the synthesis object object image with the background image of the dynamic video clip.
제 1 항에 있어서,
상기 영상합성 시스템은, 상기 사용자 단말기로부터 사용자 선택 배경영상을 입력받는 배경영상 입력모듈;를 더 포함하여 구성되고,
상기 합성모듈은, 상기 사용자 선택 배경영상에 상기 소스 객체영상 및 상기 합성대상 객체영상을 합성하여 상기 합성 비디오 클립을 생성하는 것을 특징으로 하는 카메라워크 기반 영상합성 시스템.
The method according to claim 1,
The image synthesizing system may further include a background image input module receiving a user selected background image from the user terminal,
Wherein the synthesizing module generates the synthesized video clip by synthesizing the source object image and the synthesized object object image with the user selected background image.
제 5 항에 있어서, 상기 합성모듈은,
소정의 높이를 갖고 중앙부가 오목한 곡면으로 형성된 배경투영면을 가상공간에 형성하고, 상기 가상공간 상의 가상투영점에서 상기 배경투영면에 상기 사용자 선택 배경영상의 적어도 일부를 투영하고, 상기 가상공간 상의 상기 가상투영점과 상기 배경투영면 사이에 상기 소스 객체영상 및 상기 합성대상 객체영상을 배치하고, 상기 가상공간에 배치되는 가상카메라의 화각에 상기 사용자 선택 배경영상의 적어도 일부, 상기 소스 객체영상의 적어도 일부 및 상기 합성대상 객체영상의 적어도 일부를 포함하여 상기 합성 비디오 클립을 생성하는 것을 특징으로 하는 카메라워크 기반 영상합성 시스템.
6. The apparatus of claim 5,
A background projection plane having a predetermined height and formed with a concave curved surface in a virtual space; projecting at least a part of the user selected background image on the background projection plane at a virtual projection point on the virtual space; Wherein the source object image and the compositing object image are disposed between the projecting point and the background projection plane, and at least a part of the user selected background image, at least a part of the source object image, And generates the composite video clip including at least a portion of the composite object object image.
제 1 항에 있어서, 상기 검색모듈은,
상기 소스 자동촬영 비디오 컨텐츠의 출연자와 온라인 상의 사회적 관계가 있는 다른 출연자가 출연한 상기 자동촬영 비디오 컨텐츠를 우선적으로 검색하는 것을 특징으로 하는 카메라워크 기반 영상합성 시스템.
The apparatus of claim 1,
Wherein the automatic shoot video content is preferentially searched for the automatic shot video content in which the other performers having a social relationship with the cast of the source automatic shot video content appear.
영상합성 시스템이 팬 제어, 틸트 제어 또는 무빙 제어 중 적어도 어느 하나의 카메라 제어 파라미터에 의해 제어되는 자동제어 카메라에 의해 촬영된 구간인 동적 비디오 클립을 포함하는 복수의 자동촬영 비디오 컨텐츠들을 상기 카메라 제어 파라미터와 연관하여 저장하는 단계;
상기 영상합성 시스템이 상기 복수의 자동촬영 비디오 컨텐츠들 중 어느 하나의 소스 자동촬영 비디오 컨텐츠를 통신망을 통해 사용자 단말기에게 제공하는 단계;
상기 영상합성 시스템이 상기 소스 자동촬영 비디오 컨텐츠의 소스 동적 비디오 클립에 대한 객체 합성요청을 상기 사용자 단말기로부터 수신하는 단계;
상기 영상합성 시스템이 상기 소스 동적 비디오 클립의 상기 카메라 제어 파라미터를 레퍼런스 제어 파라미터로 취득하는 단계;
상기 영상합성 시스템이 상기 레퍼런스 제어 파라미터와 동일 또는 일정 오차범위 내 상기 카메라 제어 파라미터인 정합 제어 파라미터를 갖는 합성대상 자동촬영 비디오 컨텐츠의 합성대상 동적 비디오 클립을 검색하는 단계;
상기 영상합성 시스템이 적어도 상기 소스 동적 비디오 클립의 소스 객체영상과 상기 합성대상 동적 비디오 클립의 합성대상 객체영상이 포함되도록 합성 비디오 클립을 생성하는 단계; 및
상기 영상합성 시스템이 상기 합성 비디오 클립을 상기 사용자 단말기에게 제공하는 단계;를 포함하는 것을 특징으로 하는 카메라워크 기반 영상합성방법.
A plurality of automatic photographed video contents including a dynamic video clip that is a section taken by an automatic control camera whose image synthesis system is controlled by at least one of camera control parameters such as fan control, tilt control or moving control, In association with;
Providing the image synthesis system to a user terminal through a communication network, the source automatic photographed video content of any one of the plurality of automatic photographed video contents;
Receiving from the user terminal an object composition request for a source dynamic video clip of the source automatic photographed video content;
The video synthesis system obtaining the camera control parameter of the source dynamic video clip as a reference control parameter;
Searching the synthesis target dynamic video clip of the synthesis subject automatic photographing video contents having the matching control parameter which is the same as the reference control parameter or the camera control parameter within the certain error range;
Generating a composite video clip such that the image synthesis system includes at least a source object image of the source dynamic video clip and a composite object image of the composite dynamic video clip; And
And providing the composite video clip to the user terminal by the video synthesis system.
제 8 항에 있어서,
상기 합성대상 동적 비디오 클립을 검색하는 단계는, 상기 영상합성 시스템이 상기 정합 제어 파리미터를 갖는 복수의 상기 자동촬영 비디오 컨텐츠들에서 각각 합성대상 동적 비디오 클립들을 더 검색하고,
상기 합성 비디오 클립을 생성하는 단계는, 상기 영상합성 시스템이 상기 소스 동적 비디오 클립의 상기 소스 객체영상 및 상기 복수의 합성대상 동적 비디오 클립들의 상기 합성대상 객체영상들이 포함되도록 합성 비디오 클립을 생성하는 것을 특징으로 하는 카메라워크 기반 영상합성방법.
9. The method of claim 8,
Wherein the step of retrieving the compositing target dynamic video clip further comprises the step of the video synthesizing system further retrieving the compositing target dynamic video clips from each of the plurality of the automatic photographing video contents having the matching control parameter,
Wherein generating the composite video clip comprises generating the composite video clip such that the image synthesis system includes the source object image of the source dynamic video clip and the composite object images of the plurality of composite dynamic video clips A camera work based image synthesis method characterized by.
제 8 항에 있어서,
상기 객체 합성요청을 수신하는 단계는, 상기 영상합성 시스템이 상기 소스 자동촬영 비디오 컨텐츠에 대한 객체 합성요청을 상기 사용자 단말기로부터 수신하고,
상기 레퍼런스 제어 파라미터를 취득하는 단계는, 상기 영상합성 시스템이 제 1 구간 소스 동적 비디오 클립의 제 1 구간 레퍼런스 제어 파라미터 내지 제 n 구간(n은 2 이상의 정수) 소스 동적 비디오 클립의 제 n 구간 레퍼런스 제어 파라미터를 취득하고,
상기 합성대상 동적 비디오 클립을 검색하는 단계는, 상기 영상합성 시스템이 상기 제 1 구간 레퍼런스 제어 파라미터 내지 제 n 구간 레퍼런스 제어 파라미터에 각각 대응하는 제 1 구간 정합 제어 파라미터 내지 제 n 구간 정합 제어 파라미터를 갖는 합성대상 자동촬영 비디오 컨텐츠의 제 1 구간 합성대상 동적 비디오 클립 내지 제 n 구간 합성대상 동적 비디오 클립을 검색하고,
상기 합성 비디오 클립을 생성하는 단계는, 상기 영상합성 시스템이 상기 제 1 구간 소스 동적 비디오 클립의 제 1 구간 소스 객체영상과 상기 제 1 구간 합성대상 동적 비디오 클립의 제 1 구간 합성대상 객체영상이 포함되는 제 1 구간 합성 비디오 클립 내지 상기 제 n 구간 소스 동적 비디오 클립의 제 n 구간 소스 객체영상과 상기 제 n 구간 합성대상 동적 비디오 클립의 제 n 구간 합성대상 객체영상이 포함되는 제 n 구간 합성 비디오 클립을 각각 생성하고,
상기 합성 비디오 클립을 제공하는 단계는 상기 영상합성 시스템이 상기 제 1 구간 합성 비디오 클립 내지 제 n 구간 합성 비디오 클립을 포함하는 합성 비디오 컨텐츠를 상기 사용자 단말기에게 제공하는 것을 특징으로 하는 카메라워크 기반 영상합성방법.
9. The method of claim 8,
Wherein the receiving of the object combining request comprises receiving the object combining request for the source automatic shooting video content from the user terminal,
Wherein the step of acquiring the reference control parameter comprises the steps of: when the video synthesis system performs a first interval reference control parameter of the first interval source dynamic video clip to the nth interval reference control of the nth interval (n is an integer of 2 or more) Parameters are acquired,
Wherein the step of retrieving the synthesis target dynamic video clip comprises the steps of: the image synthesis system having a first interval matching control parameter to an nth interval matching control parameter corresponding to the first interval reference control parameter to the nth interval reference control parameter The dynamic video clips to be subjected to the first section synthesis and the dynamic video clips to be synthesized to the nth section of the automatic shooting video contents of the object to be synthesized,
The step of generating the composite video clip may include a step of generating a composite video clip by combining the first interval source object image of the first interval source dynamic video clip and the first interval composition object image of the first interval composition target dynamic video clip An n-th segmental synthesis video clip including an n-th segmental source object image of the n-th section source dynamic video clip and an n-th segmental synthesis object image of the n-th sectional synthesis- Respectively,
Wherein providing the composite video clip comprises providing the composite video content to the user terminal, wherein the composite video content comprises the first-interval composite video clip to the n-th section composite video clip. Way.
제 8 항에 있어서, 상기 합성 비디오 클립을 생성하는 단계는,
상기 영상합성 시스템이 상기 소스 동적 비디오 클립의 배경영상에 상기 소스 객체영상 및 상기 합성대상 객체영상을 합성하여 상기 합성 비디오 클립을 생성하는 것을 특징으로 하는 카메라워크 기반 영상합성방법.
9. The method of claim 8, wherein generating the composite video clip further comprises:
Wherein the image synthesis system synthesizes the source object image and the composite object image with the background image of the source dynamic video clip to generate the composite video clip.
제 8 항에 있어서,
상기 영상합성방법은, 상기 영상합성 시스템이 상기 사용자 단말기로부터 사용자 선택 배경영상을 입력받는 단계;를 더 포함하여 구성되고,
상기 합성 비디오 클립을 생성하는 단계는, 상기 영상합성 시스템이 상기 사용자 선택 배경영상에 상기 소스 객체영상 및 상기 합성대상 객체영상을 합성하여 상기 합성 비디오 클립을 생성하는 것을 특징으로 하는 카메라워크 기반 영상합성방법.
9. The method of claim 8,
The image synthesizing method may further include receiving the user selected background image from the user terminal by the image synthesizing system,
Wherein the generating of the composite video clip comprises generating the composite video clip by combining the source object image and the composite object object image with the user selected background image, Way.
제 12 항에 있어서, 상기 합성 비디오 클립을 생성하는 단계는,
상기 영상합성 시스템이 소정의 높이를 갖고 중앙부가 오목한 곡면으로 형성된 배경투영면을 가상공간에 형성하는 제 1 부단계;
상기 영상합성 시스템이 상기 가상공간 상의 가상투영점에서 상기 배경투영면에 상기 사용자 선택 배경영상의 적어도 일부를 투영하는 제 2 부단계;
상기 영상합성 시스템이 상기 가상공간 상의 상기 가상투영점과 상기 배경투영면 사이에 상기 소스 객체영상 및 상기 합성대상 객체영상을 배치하는 제 3 부단계; 및
상기 영상합성 시스템이 상기 가상공간에 배치되는 가상카메라의 화각에 상기 사용자 선택 배경영상의 적어도 일부, 상기 소스 객체영상의 적어도 일부, 및 상기 합성대상 객체영상의 적어도 일부를 포함하여 상기 합성 비디오 클립을 생성하는 제 4 부단계;를 포함하여 구성되는 것을 특징으로 하는 카메라워크 기반 영상합성방법.
13. The method of claim 12, wherein generating the composite video clip further comprises:
A first sub-step of forming a background projection plane having a predetermined height and a central concave curved surface in a virtual space;
A second sub-step of the image synthesizing system to project at least a part of the user selected background image on the background projection plane at a virtual projection point on the virtual space;
A third sub-step of arranging the source object image and the composite object image between the virtual projection point on the virtual space and the background projection plane; And
Wherein the image synthesis system includes at least a portion of the user selected background image, at least a portion of the source object image, and at least a portion of the composite object image at an angle of view of a virtual camera disposed in the virtual space, And a fourth step of generating the camera-based image.
제 8 항에 있어서, 상기 합성대상 동적 비디오 클립을 검색하는 단계는,
상기 영상합성 시스템이 상기 소스 자동촬영 비디오 컨텐츠의 출연자와 온라인 상의 사회적 관계가 있는 다른 출연자가 출연한 상기 자동촬영 비디오 컨텐츠를 우선적으로 검색하는 것을 특징으로 하는 카메라워크 기반 영상합성방법.
9. The method as claimed in claim 8,
Wherein the image synthesis system preferentially searches for the automatic photographic video content appearing by other performers who have a social relationship with the performer of the source automatic photographic video content on-line.
KR1020160183636A 2016-12-30 2016-12-30 System and Method for Video Editing Based on Camera Movement KR101843025B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160183636A KR101843025B1 (en) 2016-12-30 2016-12-30 System and Method for Video Editing Based on Camera Movement
PCT/KR2017/015698 WO2018124794A1 (en) 2016-12-30 2017-12-29 Camerawork-based image synthesis system and image synthesis method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160183636A KR101843025B1 (en) 2016-12-30 2016-12-30 System and Method for Video Editing Based on Camera Movement

Publications (1)

Publication Number Publication Date
KR101843025B1 true KR101843025B1 (en) 2018-03-28

Family

ID=61901640

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160183636A KR101843025B1 (en) 2016-12-30 2016-12-30 System and Method for Video Editing Based on Camera Movement

Country Status (2)

Country Link
KR (1) KR101843025B1 (en)
WO (1) WO2018124794A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102259401B1 (en) 2019-11-28 2021-06-01 (주)테슬라시스템 Composing Method of Augment Reality Additional Information in Drone Moving Picture

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021056353A1 (en) * 2019-09-26 2021-04-01 深圳市大疆创新科技有限公司 Video editing method, and terminal apparatus
CN113259754B (en) * 2020-02-12 2023-09-19 北京达佳互联信息技术有限公司 Video generation method, device, electronic equipment and storage medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004531113A (en) 2001-02-09 2004-10-07 リー,クジン Omnidirectional three-dimensional image data acquisition apparatus by annotation, method and method for enlarging photosensitive area

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100492446B1 (en) * 2002-07-08 2005-07-01 (주)화인에스아이 System and method for pvr(personal video recorder)
KR100587354B1 (en) * 2004-01-27 2006-06-08 엘지전자 주식회사 Video decoding apparatus and method for the same
JP2009055332A (en) * 2007-08-27 2009-03-12 Mitsubishi Electric Corp Video composition and display device
KR20110123907A (en) * 2010-05-10 2011-11-16 에스케이플래닛 주식회사 Method for providing contents and internet protocol television system thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004531113A (en) 2001-02-09 2004-10-07 リー,クジン Omnidirectional three-dimensional image data acquisition apparatus by annotation, method and method for enlarging photosensitive area

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102259401B1 (en) 2019-11-28 2021-06-01 (주)테슬라시스템 Composing Method of Augment Reality Additional Information in Drone Moving Picture

Also Published As

Publication number Publication date
WO2018124794A1 (en) 2018-07-05

Similar Documents

Publication Publication Date Title
US11381739B2 (en) Panoramic virtual reality framework providing a dynamic user experience
US11470297B2 (en) Automatic selection of viewpoint characteristics and trajectories in volumetric video presentations
US9940970B2 (en) Video remixing system
US20200388068A1 (en) System and apparatus for user controlled virtual camera for volumetric video
JP2015114716A (en) Image data reproducing apparatus and image data generation apparatus
KR20220031894A (en) Systems and methods for synchronizing data streams
KR20190052713A (en) Image processing
KR101830786B1 (en) Apparatus for generating script, apparatus for playing video, and method for controlling screen relating to video based on 360 degree
KR101843025B1 (en) System and Method for Video Editing Based on Camera Movement
Schreer et al. Lessons learned during one year of commercial volumetric video production
KR100901111B1 (en) Live-Image Providing System Using Contents of 3D Virtual Space
US20090153550A1 (en) Virtual object rendering system and method
US20160100110A1 (en) Apparatus, Method And Computer Program Product For Scene Synthesis
KR101430985B1 (en) System and Method on Providing Multi-Dimensional Content
KR101879166B1 (en) A real-world studio system capable of producing contents using the control of a virtual studio and its operating method
KR20180021623A (en) System and method for providing virtual reality content
US20180227504A1 (en) Switchable multiple video track platform
US11706375B2 (en) Apparatus and system for virtual camera configuration and selection
Zhang et al. Coherent video generation for multiple hand-held cameras with dynamic foreground
WO2019031306A1 (en) Generation device, reproduction device, generation method, reproduction method, control program, and recording medium
KR20170143076A (en) System for Providing Studio Device Control Sequence Sharing Service and Method thereof
KR20140104121A (en) System, Method and File on Providing Multi-Dimensional Content
KR20180090977A (en) Distributed Multimedia editing System and Method
Saini et al. Automated Video Mashups: Research and Challenges
JP2019102940A (en) Virtual viewpoint content generation system, voice processing device, control method for virtual viewpoint content generation system, and program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant