WO2018124794A1 - Camerawork-based image synthesis system and image synthesis method - Google Patents

Camerawork-based image synthesis system and image synthesis method Download PDF

Info

Publication number
WO2018124794A1
WO2018124794A1 PCT/KR2017/015698 KR2017015698W WO2018124794A1 WO 2018124794 A1 WO2018124794 A1 WO 2018124794A1 KR 2017015698 W KR2017015698 W KR 2017015698W WO 2018124794 A1 WO2018124794 A1 WO 2018124794A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
video clip
source
synthesis
dynamic
Prior art date
Application number
PCT/KR2017/015698
Other languages
French (fr)
Korean (ko)
Inventor
천솔지
서일경
Original Assignee
(주)잼투고
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)잼투고 filed Critical (주)잼투고
Publication of WO2018124794A1 publication Critical patent/WO2018124794A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Definitions

  • the present invention relates to a camerawalk-based video synthesis system and a video synthesis method, and more particularly, to a video synthesis system and a video synthesis method for automatically synthesizing a dynamic video clip of video content having a similar camerawork through a data camerawork. It is about.
  • the object synthesis in the image synthesis method is to synthesize the object of the other video content to the original video content, and can exemplify the synthesized image of the object image of the weather caster whose background image is separated, such as the weather forecast news, into the virtual studio background image.
  • the CG background image and the object image of the weather caster with the real world camera are combined.
  • the weather caster object image is separated from the original background image by a chroma key technique and synthesized into the CG background image.
  • a method of compositing objects of video content in which different people appear may include synthesizing a second person object image of the second video content into the first video content, or composing the first person object image and the second video content of the first video content. 2
  • Combining a person object image into a new background image does not require any technology compared to the background synthesis described above.
  • the first person object image and the second person object image are naturally synthesized from the synthesized video content.
  • the first video content is photographed while the camera is panning and the horizontal axis moves around the first person, for example, while the second video content is photographed by the fixed camera.
  • the first person video content and the second person video content are synthesized into one composite video content, an unnatural composite image is generated because different camera walks are photographed.
  • UGCs are being produced and distributed through video content providing services such as YouTube.
  • Some UGC creators are generating high advertising revenue through high quality UGC, and a variety of industries are developing that leverage the power of high quality UGC.
  • UGC production surges the life cycle of UGC's attention to content consumers is shortening.
  • UGC creators have to upload more UGC more often.
  • One way to cope with this problem is to extend the vitality of existing UGCs by increasing the value and novelty of existing UGCs by reproduction of the already produced UGC.
  • UGC reproduction is not enough to meet the high standards of content consumers because it merely combines or displays parallel video clips of multiple UGCs in time.
  • Japanese Patent No. 4140006 of FUJINON CORP is a shooting system for synthesizing a background image and an object image by synchronizing the photographing camera of the background image and the photographing camera of the object image. Start the system. According to such a shooting system, there is an advantage of generating a high quality composite image to which dynamic camerawork is applied through synchronization control.
  • a photographing system has taken a background image and an object image according to a photographing plan on the premise of a synthesized image, and there is a problem that it cannot be applied to generating a dynamic composite image between UGCs without prescribing the image.
  • two sets of automatic control cameras are required for background and portrait shooting, the cost of generating a composite image increases, which is suitable for producing a high-cost broadcasting program but not for producing a low-cost UGC composite image. have.
  • United States Patent No. 7,843,510 entitled “Method and System for Combining Video Sequences with Spatio-temproal Alignment” by autoimmune Polytechnique Federale de Lausanne is one of the leading and trailing athletes in the field of broadcast broadcasts such as skiing.
  • a video synthesis system for displaying on a screen is disclosed. According to this video synthesizing system, viewers can easily visually check the record difference between the two players by providing a composite image of the object video of the player who played the game first and the object video of the player who is currently playing in the recording game. As a result, the camera tracked object images are combined into a single composite image without discomfort.
  • a video synthesizing system for synthesizing the vocal moving images of the same piece of music in a tile form.
  • the video synthesis system automatically searches for a plurality of videos that share the same characteristics (songs of the same music) among numerous videos, and automatically synthesizes them into a single composite video, thereby reducing the cost and time required for video synthesis. Provide effect.
  • the camerawalk based image synthesis system and image synthesis method according to the present invention automatically search for another composite target dynamic video clip having a dynamic camera walk similar to the source dynamic video clip of the source auto-shoot video content through the similarity of camera control parameters.
  • a composite video clip that synthesizes the source object image and the target object image a high quality composite video clip having dynamic camerawork can be generated without discomfort and can be similar among a number of video contents such as UGC.
  • Content consumers can eliminate the time and effort required to search for video content with camerawalks, and recreate it as new composite video content by adding new performers to the video content that has already been produced and published to the public, in a method of object synthesis. Continuous attention It aims to extend the vitality of pre-produced video content.
  • the synthesis target in a plurality of composite target content each comprising a target video object video composition belonging to the category of dynamic camera walk similar to the source dynamic video clip Another object is to generate a composite image of a dynamic camera walk in which a plurality of performers appear by, for example, synthesizing the video contents of a single performer by extracting an object and generating a single composite image.
  • Camera walk-based image synthesis system and image synthesis method according to an embodiment of the present invention, according to the user's synthesis request for the source auto-shooting video content, extracts a plurality of dynamic camera walk shooting section as a source dynamic video clip and each section
  • the object synthesis is automatically performed for all dynamic shooting sections of the source auto-shooting video content by searching and synthesizing the synthesized video content including all the dynamic video clips in the range similar to the camera walk of the camera.
  • Camera walk-based image synthesis system and image synthesis method by receiving a new background image selected by the user to synthesize the source object image and the target object image to generate a composite video clip to compare with the source video content Another goal is to create a reconstructed composite image with a large change and to continuously supply video content that is not eaten by content consumers.
  • Camera walk-based image synthesis system and image synthesis method by projecting a planar background to a three-dimensional background projection surface having a curvature, by synthesizing the source object image and the target object image, dynamic camera walk Another object is to create a high-quality composite image with a background image having an appropriate perspective with the object images.
  • Camera walk-based image synthesis system and image synthesis method according to an embodiment of the present invention, by first searching and synthesizing the auto-shoot video content from the performer of the source auto-shoot video content and other performers with a social relationship online Another goal is to automatically create custom composite video content.
  • Camera walk-based image synthesis system and image synthesis method according to another embodiment of the present invention, and further stores the content genre information associated with the auto-shoot video content in the storage module, and has the same content genre information as the source auto-shoot video content
  • Another objective is to automate the compositing of video content that shares the same genre attributes without the user having to directly view and verify the properties of the auto-shoot video content by first searching the dynamic video clip of the auto-shoot video content as a composite dynamic video clip.
  • the background music information is further stored in the storage module associated with the auto-shoot video content, and has the same background music information as the source auto-shoot video content
  • a composite video clip is created by chorusing or collaborating by naturally synthesizing video content that performs a song or instrumental performance, for example, using the same music as background music. For other purposes.
  • the storage module further stores the upload time information in association with the auto-shoot video content, and at a time close to the upload time of the source auto-shoot video content Synthesizing video content uploaded at similar times or synthesizing the most recent video content by first retrieving a dynamic video clip of auto-shoot video content with upload time information or with the most recent upload time information as a composite dynamic video clip. For other purposes.
  • the storage module further stores the online social relationship between upload users or video performers, uploading user or video performer of the source auto-shoot video content
  • Another object of the present invention is to generate a composite video clip based on a user relationship by first searching a dynamic video clip of an auto-shooting video content of an uploading user or a video performer having a social relationship online with a composite target dynamic video clip.
  • the camera-walk-based image synthesis system is a dynamic video which is a section captured by an automatic control camera controlled by at least one camera control parameter of pan control, tilt control or moving control.
  • a storage module for storing a plurality of auto-shoot video contents including a clip in association with the camera control parameter;
  • a content providing module for providing one source auto-shooting video content of the plurality of auto-shooting video contents to a user terminal through a communication network;
  • a retrieval module for retrieving a synthesis target dynamic video clip of the synthesis target auto captured video content having the matching control parameter as the camera control parameter;
  • a synthesis module for generating a composite video clip to include at least a source object image of the source dynamic video clip and a synthesis object image of the
  • the search module further searches for synthesizing dynamic video clips in the plurality of auto-captured video contents having the matching control parameter, and the synthesizing module. And generating a composite video clip such that the source object image of the source dynamic video clip and the synthesis object image of the plurality of synthesis target video clips are included.
  • the search module receives an object synthesis request for the source auto-captured video content from the user terminal, and the first section of the first interval source dynamic video clip.
  • a first interval reference control parameter of the interval reference control parameter to the nth interval (n is an integer of 2 or more) source dynamic video clip, the first interval reference control parameter to the nth interval reference control parameter respectively corresponding to the first interval reference control parameter;
  • the first interval synthesis video clip including the first interval synthesis object image of the first interval synthesis target video clip to the nth interval source object image and the nth interval synthesis target dynamic video of the nth interval source dynamic video clip Respectively generating an n-th section composite video clip including an n-th section synthesis target object image of the clip, and the content providing module is configured to generate the synthesized video content including the first to n-th section composite video clip. It is characterized in that provided to the user terminal.
  • the synthesis module is to generate the composite video clip by synthesizing the source object image and the target object image to the background image of the dynamic video clip. It features.
  • Camera-based image synthesis system further comprising a background image input module for receiving a user selected background image from the user terminal, wherein the composition module, the user selected background image And synthesizing a source object image and the synthesis target object image to generate the composite video clip.
  • the synthesizing module forms a background projection surface in a virtual space having a predetermined height and a concave center portion in a virtual space, and at the virtual projection point on the virtual space. Projecting at least a portion of the user-selected background image on a background projection surface, arranging the source object image and the composite object image between the virtual projection point on the virtual space and the background projection surface, and being disposed in the virtual space And generating at least a portion of the user-selected background image, at least a portion of the source object image, and at least a portion of the synthesis target object image in an angle of view of the camera to generate the composite video clip.
  • the search module preferentially searches for the auto-shoot video content played by the performer of the source auto-shoot video content and other performers who have a social relationship online. Characterized in that.
  • the video synthesis system includes a dynamic video clip that is a section captured by an automatic control camera controlled by at least one of the camera control parameters of pan control, tilt control or moving control. Storing a plurality of auto-shoot video content in association with the camera control parameter; Providing, by the image synthesizing system, a source auto-captured video content of any one of the plurality of auto-captured video contents to a user terminal through a communication network; Receiving, by the image synthesis system, an object synthesis request for a source dynamic video clip of the source auto-capture video content from the user terminal; Acquiring, by the image synthesis system, the camera control parameter of the source dynamic video clip as a reference control parameter; Retrieving, by the image synthesis system, a synthesis target dynamic video clip of the synthesis target auto-photographed video content having a registration control parameter which is the camera control parameter which is the same as or similar to the reference control parameter; Generating a composite video
  • the step of retrieving the dynamic video clip to be synthesized, the image synthesis system synthesizes each of a plurality of the auto-shoot video content having the matching control parameter; Retrieving target dynamic video clips and generating the composite video clip, wherein the image synthesis system includes the source object image of the source dynamic video clip and the composite object images of the plurality of composite object dynamic video clips. Generate a composite video clip for inclusion.
  • the acquiring of the reference control parameter may include: controlling, by the image synthesis system, a first interval reference control parameter of a first interval source dynamic video clip to an nth interval (n is an integer of 2 or more).
  • the image synthesis system includes first to nth interval control parameters corresponding to the first to nth interval reference control parameters, respectively; Automated Shooting of Composite Objects with Matched Control Parameters Retrieving the first to n-th composite video clip of the video content and generating the composite video clip, and the synthesizing system may include generating a first video of the first interval source dynamic video clip.
  • the user terminal to synthesize video content including a through n-th section composite video clip It characterized in that it gives.
  • the step of generating the composite video clip, the image synthesis system in the background image of the source dynamic video clip, the source object image and the synthesis target object image To synthesize the synthesized video clip.
  • Camerawork-based image synthesis method further comprises the step of receiving a user selected background image from the user terminal from the image synthesis system, the step of generating the composite video clip, the The image synthesis system generates the composite video clip by synthesizing the source object image and the synthesis target object image to the user-selected background image.
  • the step of generating the composite video clip, the image synthesis system to form a background projection surface formed in a curved surface having a predetermined height and a concave central portion in the virtual space First substep; A second sub-step of the image synthesis system projecting at least a portion of the user-selected background image on the background projection surface at a virtual projection point on the virtual space; A third sub-step of the image synthesizing system disposing the source object image and the synthesis target object image between the virtual projection point and the background projection surface on the virtual space; And at least a portion of the user-selected background image, at least a portion of the source object image, and at least a portion of the synthesis target object image in an angle of view of the virtual camera in which the image synthesis system is disposed in the virtual space.
  • the fourth sub-step of generating a characterized in that comprises a.
  • the step of searching for the dynamic video clip to be synthesized, the image synthesis system is another performer having an online social relationship with the performer of the source auto-shoot video content Search for the auto-captured video content which appeared in the first place.
  • the camerawalk based image synthesis system and image synthesis method according to the present invention automatically search for another composite target dynamic video clip having a dynamic camera walk similar to the source dynamic video clip of the source auto-shoot video content through the similarity of camera control parameters.
  • a composite video clip that synthesizes the source object image and the target object image a high quality composite video clip having dynamic camerawork can be generated without discomfort and can be similar among a number of video contents such as UGC.
  • Content consumers can eliminate the time and effort required to search for video content with camerawalks, and recreate it as new composite video content by adding new performers to the video content that has already been produced and published to the public, in a method of object synthesis. Continuous attention To prolong the vitality of the prebuilt video content.
  • the synthesis target in a plurality of composite target content each comprising a target video object video composition belonging to the category of dynamic camera walk similar to the source dynamic video clip By extracting an object and generating it as a single composite image, for example, a single performer synthesizes video contents each appeared, thereby providing an effect of generating a composite image of a dynamic camera walk in which a plurality of performers appear.
  • Camera walk-based image synthesis system and image synthesis method according to an embodiment of the present invention, according to the user's synthesis request for the source auto-shooting video content, extracts a plurality of dynamic camera walk shooting section as a source dynamic video clip and each section
  • the object synthesis is automatically performed for all dynamic shooting sections of the source auto-shooting video content by searching and compositing the synthesis-target video content including all the dynamic video clips in the range similar to the camera walk of the camera. to provide.
  • Camera walk-based image synthesis system and image synthesis method by receiving a new background image selected by the user to synthesize the source object image and the target object image to generate a composite video clip to compare with the source video content
  • a new background image selected by the user to synthesize the source object image and the target object image to generate a composite video clip to compare with the source video content
  • Camera walk-based image synthesis system and image synthesis method by projecting a planar background to a three-dimensional background projection surface having a curvature, by synthesizing the source object image and the target object image, dynamic camera walk As a result, the background image has an appropriate perspective with the object images, thereby creating a high quality composite image that changes.
  • Camera walk-based image synthesis system and image synthesis method according to an embodiment of the present invention, by first searching and synthesizing the auto-shoot video content from the performer of the source auto-shoot video content and other performers with a social relationship online Provides the effect of automatically creating custom composite video content.
  • Camera walk-based image synthesis system and image synthesis method according to another embodiment of the present invention, and further stores the content genre information associated with the auto-shoot video content in the storage module, and has the same content genre information as the source auto-shoot video content
  • the background music information is further stored in the storage module associated with the auto-shoot video content, and has the same background music information as the source auto-shoot video content
  • a composite video clip is created by chorusing or collaborating by naturally synthesizing video content that performs a song or instrumental performance, for example, using the same music as background music.
  • the storage module further stores the upload time information in association with the auto-shoot video content, and at a time close to the upload time of the source auto-shoot video content Synthesizing video content uploaded at similar times or synthesizing the most recent video content by prioritizing dynamic video clips of auto-shoot video content with upload time information or with the most recent upload time information as composite dynamic video clips. Can be provided.
  • the storage module further stores the online social relationship between upload users or video performers, uploading user or video performer of the source auto-shoot video content
  • the user may provide an effect of generating a composite video clip based on the user relationship by first searching the dynamic video clip of the auto-shooting video content of the uploading user or the video performer having a social relationship online with the composite target dynamic video clip.
  • FIG. 1 is a block diagram showing an image synthesis system according to the present invention.
  • FIG. 2 is a block diagram showing an automatic control camera according to an embodiment of the present invention.
  • FIG. 3 is a data structure diagram of a camera control parameter according to an embodiment of the present invention.
  • FIG. 4 is a video clip structure diagram of auto-shoot video content according to an embodiment of the present invention.
  • FIG. 5 is an exemplary diagram of an object composition request input interface in a user terminal according to an embodiment of the present invention.
  • FIG. 6 is a block diagram showing image synthesis according to an embodiment of the present invention.
  • FIG. 7 is a flowchart illustrating an image synthesis method according to the present invention.
  • the description that a part “includes” an element means that the element may further include other elements, except for the absence of a special objection thereto.
  • the terms “.. module”, “.. unit” and “.. system” described in the specification mean a unit that processes at least one function or operation, which is hardware or software or a combination of hardware and software. It may be implemented, and may be included in one device or each other device.
  • Camera walk based image synthesis system 100 is configured to include a storage module 110, the content providing module 120, the search module 130 and the synthesis module 140 as shown in FIG. .
  • the storage module 110 includes a plurality of auto-captured video contents including a dynamic video clip which is a section captured by the auto control camera 301 controlled by at least one camera control parameter of pan control, tilt control or moving control. And store them in association with the camera control parameters.
  • the storage module 110 may be a conventional storage device for storing data, and may include an optical storage device, a magnetic storage device, a semiconductor storage device, and the like.
  • the storage module 110 may be a storage device installed in the image synthesis system 100 or may be a storage device connected through a network.
  • the camera control parameter refers to a control command for changing the position of the automatic control camera 301 to be controlled in a mechanical manner or changing the direction of the camera in a mechanical manner.
  • the automatic control camera 301 moves horizontally or vertically along a rail according to camera movement control in a specific time interval of the camera control parameter.
  • the automatic control camera 301 rotates in the left and right directions so that the camera orientation angle changes.
  • the automatic control camera 301 rotates in the vertical direction to change the camera orientation angle.
  • the zoom of the automatic control camera 301 may be adjusted through the zoom control.
  • the dynamic video clip of the present invention does not include a video clip to which only the zoom control is applied.
  • the dynamic video clip may be a pan controlled autonomous camera 301, a tilt controlled autonomous camera 301, a moving controlled autonomous camera 301, or a pan and tilt controlled autonomous camera 301.
  • the portion that is not the dynamic video clip is a static video clip and does not involve changes in camerawork with time, a composite image can be easily produced by a conventional image synthesis method.
  • the auto-captured video content in the present invention refers to video content photographed by the automatic control camera 301 in which the photographing position or the photographing angle is controlled by a control command.
  • video captured by the camera held in the hands of the photographer The content does not correspond to the auto-shoot video content of the present invention.
  • FIG. 2 illustrates a camera automatic control system.
  • Utility Model Application No. 2016-0004490, “Stage and Studio Control System,” filed by the applicant of the present patent application discloses an embodiment of such a camera automatic control system.
  • the automatic control camera 301 of the present invention is not limited to the embodiment of FIG. 2 but may be a camera system mounted on a robot arm, a camera system mounted on a ground mobile device, a camera system mounted on an aerial drone, or the like. have.
  • the automatic control camera 301 uses camera control parameters, which are digitized data, for camera control for each time zone. 3 shows a configuration example of such a camera control parameter.
  • the camera control parameter includes at least a timestamp and location information of the camera or orientation angle information of the camera at the corresponding timestamp.
  • the image synthesis system 100 determines whether a specific section of the auto-capture video content corresponds to a dynamic video clip or a static video clip through camera control parameters. For example, when the positional information of the camera or the orientation angle information of the camera changes in comparison with the previous preceding timestamp at a specific timestamp, it may be determined that the corresponding timestamp is included in the dynamic video clip.
  • the time period may be determined to be included in the dynamic video clip. This means that if the camera's location information continuously changes over a certain time period, for example, when the camera stops for a short time of about 1 second, and the camera's location information changes again, two dynamic video clips are displayed based on the brief stop movement of the camera. This is because it is more efficient for the image synthesis process to judge a single dynamic video clip by ignoring the momentary stop of camera movement rather than distinguishing.
  • the storage module 110 stores a plurality of auto-shoot video contents, for example, a plurality of users access the web server to upload the auto-shoot video contents produced or produced by the user.
  • the camera control parameters used to capture the auto-shoot video content together with the auto-shoot video content are stored in association with each other.
  • a corresponding camera control parameter may be retrieved through identification information of the auto-shoot video content, or the computer file of the auto-shoot video content may be configured to include a camera control parameter.
  • the auto-shoot video content does not necessarily need to be captured by the same auto-shoot camera system.
  • Auto-shoot video content shot through the same auto-shoot camera system is easy to determine similarity with each other because of the same type of camera control parameter.
  • Auto-shoot video content shot through different auto-shoot camera systems may use different types of camera control parameters.
  • the image synthesis system 100 may change and store different types of camera control parameters into a standardized form.
  • the content providing module 120 performs a function of providing one of the plurality of auto-captured video contents to the user terminal 200 through the communication network.
  • the content providing module 120 may exemplify a web service server that provides a user's desired video content by a method such as content search or content recommendation, such as a video sharing web server such as YouTube and Vimeo. Can be.
  • Source auto-capture video content refers to auto-capture video content that is provided to a user from among a plurality of auto-capture video contents stored by the storage module 110 and used for the production of the composite video content (contents_composite).
  • the search module 130 receives an object synthesis request for the source dynamic video clip clip_dynamic_source of the source auto-capture video content content_source from the user terminal 200 and references the camera control parameter of the source dynamic video clip clip_dynamic_source.
  • the composite target dynamic video clip (clip_dynamic_add) of the composite target auto-shoot video content (contents_add) obtained as a control parameter (parameter_ref) and having a matching control parameter (parameter_match) that is the same or similar to the reference control parameter (parameter_ref). Perform a search function.
  • the user terminal 200 may search for the object synthesis request icon 201 by clicking on the object synthesis request icon 201 while playing the source auto-capture video content on a web browser or a video viewer application. You can send an object composition request.
  • Such an object synthesis request may be a synthesis request for a source dynamic video clip (clip_dynamic_source), or in some embodiments, may be a synthesis request for source auto-photographed video contents (contents_source).
  • the retrieval module 130 includes an auto-shooting video including a dynamic video clip having a camera control parameter of the same or similar category as the reference control parameter (parameter_ref) among a plurality of auto-shooting video contents except the source auto-shooting video contents (contents_source). Search for content.
  • dynamic video clips of the plurality of autophotographed video contents may be searched, or a plurality of dynamic video clips may be searched in one autophotographed video content.
  • the search module 130 may select one or more synthesis video clips clip_dynamic_add from among a plurality of searched dynamic video clips according to a user setting or a system setting. Various methods for selecting the final synthesis target video clip clip_dynamic_add may be implemented.
  • the user terminal 200 may provide a recommendation list of a plurality of dynamic video clips or a plurality of auto-captured video contents to select a synthesis target video clip clip_dynamic_add according to a user's selection.
  • attributes of the composite dynamic video clip clip_dynamic_add such as the genre of the video content, the background music of the video content, the time of shooting or uploading the video content, or online social relations between upload users, for example, the video performer Uploading a video clip such as an online social relationship between the users or performers in consideration of the properties individually or in combination
  • the search module 130 may first search for the synthesized dynamic video clip (clip_dynamic_add).
  • the storage module 110 further stores the content genre information in association with the auto-shoot video content, and stores the content genre information of the auto-shoot video content having the same content genre information as the source auto-shoot video content (contents_source).
  • content_source content genre information of the auto-shoot video content having the same content genre information as the source auto-shoot video content.
  • the storage module 110 further stores the background music information in association with the auto recording video content, and stores the background music information of the auto recording video content having the same background music information as the source auto recording video content (contents_source).
  • a composite dynamic video clip for example, a composite video clip (clip_dynamic_composite) that naturally synthesizes video content performing a song or instrumental performance by using the same music as background music, and chorus or concert is performed. It can provide the effect to create.
  • the storage module 110 further stores the upload time information in association with the auto-shoot video content, and has upload time information of a time close to the upload time of the source auto-shoot video content contents_source.
  • Dynamic video clips of auto-shoot video content with the latest or most recent upload time information to be synthesized with dynamic video clips (clip_dynamic_add). can do.
  • the storage module 110 further stores online social relations between uploading users or video performers, and online online with uploading users or video performers of source auto-capture video content (contents_source). It is possible to provide an effect of generating a composite video clip (clip_dynamic_composite) based on a user relationship by first searching a dynamic video clip of an auto-shooting video content of a uploading user or a video performer having a social relationship with the composite target dynamic video clip (clip_dynamic_add).
  • the online social relationship may be, for example, social relationship information established through making friends or fans between users on a web service server providing the auto-shooting video content of the present invention.
  • Social relationship information provided from a social network service independent of a video content providing service such as
  • the reference control parameter is a camera control parameter of the source dynamic video clip (clip_dynamic_source) that is the target of the synthesis request
  • the match control parameter is the composition target dynamic video clip searched by the search module 130 as a synthesis target.
  • the criteria for selecting matching control parameters (parameter_match) that are the same as or similar to the reference control parameters of the search module 130 do not require complete identity but require the same degree of incongruity that does not occur with each other in the composite image to which camerawork is applied.
  • the search module 130 may select a matching control parameter (parameter_match) in a range of 10% difference of each parameter such as time interval, camera position information, and camera angle information based on time stamp information of the reference control parameter parameter_ref.
  • the synthesis module 140 generates a composite video clip clip_dynamic_composite to include at least a source object image 431 of the source dynamic video clip clip_dynamic_source and a synthesis object image 432 of the synthesis target dynamic video clip clip_dynamic_add. Perform the function.
  • the camera control parameter is composed of a combination of various parameters including time stamps, camera position information, and camera orientation angle information, and the combination rarely coincide in different video contents. Therefore, the relaxed equality condition of equality within a certain margin of error should be applied, not exact match. For example, if the time required for the camera to move 1m to the right is 30 seconds for the source dynamic video clip (clip_dynamic_source) and 33 seconds for the target video clip (dynamic clip), the synthesis module 140 may be within an error range of 10%.
  • a 30-second composite video clip (clip_dynamic_composite) with moving camerawork may be generated. If the time required for the camera to move 1m to the right is 30 seconds for the source dynamic video clip (clip_dynamic_source) and 27 seconds for the target dynamic video clip (clip_dynamic_add), it is within an error range of 10% and the synthesis module 140 moves. Create a 27-second composite video clip (clip_dynamic_composite) with camerawork or a 30-second composite video clip (clip_dynamic_composite) with moving camerawork by slowly playing the source dynamic video clip (clip_dynamic_source) at 90% speed. Can be.
  • the angle of the camera rotated to the right for 10 seconds is 10 degrees for the source dynamic video clip (clip_dynamic_source) and 11 degrees for the target dynamic video clip (clip_dynamic_add), it is within the error range of 10%.
  • a camera when a camera shoots a source dynamic video clip (clip_dynamic_source) for 10 seconds, the camera rotates 10 degrees to the right, and a camera shoots a composite dynamic video clip (clip_dynamic_add) 10 degrees to the left.
  • 140 may generate a 10-second composite video clip clip_dynamic_composite to which panning camerawork is applied by inverting the synthesis target object image 432 of the synthesis target video clip clip_dynamic_add.
  • the synthesis module 140 may generate a composite video clip clip_dynamic_composite in various ways. For example, the synthesis module 140 may generate a composite video clip clip_dynamic_composite by combining the source object image 431 and the synthesis target object image 432 with the background image of the source dynamic video clip clip_dynamic_source. In this case, the composing module 140 synthesizes the object video separated from the composing target dynamic video clip clip_dynamic_add without separating the source object video 431 of the source dynamic video clip clip_dynamic_source.
  • the two object images can be rearranged to generate a composite video clip (clip_dynamic_composite). Separation of the object image may be acquired from a chroma key-photographed captured image or by detecting an outline of an object in a dynamic video clip.
  • the image synthesis system 100 may further include a background image input module for receiving a user selected background image from the user terminal 200, and the synthesis module 140 may include a source object image in the user selected background image. 431) and the target object image 432 may be synthesized to generate a composite video clip clip_dynamic_composite.
  • the background image input module provides an interface for allowing a user to input a user input background image including a still image, a video image, or 3D modeling data, for example, through the user terminal 200 and inputs a user from the user terminal 200.
  • the background image may be received through a communication network.
  • the composite video clip (clip_dynamic_composite) is compared with the source dynamic video clip (clip_dynamic_source), so that not only the composite object image 432 such as the performer is added but also the background thereof is changed, thereby changing the degree of change through content reproduction.
  • the height is effective.
  • Korean Patent Application No. 2016-0171469 “Image Synthesis System and Image Synthesis Method,” filed by the applicant of the present patent application has a background image and an object in a virtual space so that the background image and the foreground image are naturally synthesized according to the change of camera viewpoint.
  • An image synthesis system 100 for synthesizing an image is disclosed.
  • the synthesizing module 140 preferably generates a composite video clip (clip_dynamic_composite) through the same method so that the object image and the background image are naturally synthesized according to the camera walk. To this end, as shown in FIG.
  • the synthesizing module 140 forms a background projection surface 410 having a predetermined height and a concave central surface in a virtual space, and a background projection surface 410 at a virtual projection point on the virtual space. Projecting at least a portion of a user-selected background image on the screen, arranging a source object image 431 and a composition target object image 432 between the virtual projection point on the virtual space and the background projection surface 410, and placing the virtual object in the virtual space It is preferable to generate a composite image by including at least a portion of the user-selected background image, at least a portion of the source object image 431, and at least a portion of the synthesis target object image 432 in the angle of view of the camera 420.
  • the virtual projection point is set to a point corresponding to the position of the real world camera where the object image is taken, and the projection of the user-selected background image onto the background projection surface 410 is deformed so that there is no distortion when viewed from the virtual projection point.
  • the user-selected background image may be formed by texturing the background projection surface 410.
  • two or more synthetic object images 432 may be synthesized instead of one synthetic object image 432 in the source video clip.
  • the search module 130 further searches for each of the composite target dynamic video clips (clip_dynamic_add) in the plurality of auto-shooting video contents having a match control parameter, and the synthesis module 140 performs a source of the source dynamic video clip (clip_dynamic_source).
  • the composite video clip clip_dynamic_composite may be generated to include the composite image object 432 and the composite target image 432 of the plurality of composite target video clips.
  • a composite image of the entire source auto-captured video content as well as the dynamic video clip section to which the dynamic camera work is applied may be generated.
  • One moving picture is composed of a plurality of dynamic video clip sections and a plurality of static video clip sections.
  • Static video clip sections without camera change can be easily synthesized according to a conventional image synthesis method, and a plurality of dynamic video clip sections can generate composite video contents (contents_composite) by applying the synthesis method according to the present invention, respectively.
  • the search module 130 receives the object synthesis request for the source auto-capture video content contents_source from the user terminal 200, and receives the first interval reference control parameter parameter_ref of the first interval source dynamic video clip clip_dynamic_source.
  • n is an integer of 2 or more.
  • the n th interval reference control parameter parameter_ref of the source dynamic video clip clip_dynamic_source is obtained, and the first interval reference control parameter parameter_ref to the n th interval reference control parameter the first segment synthesis target video clip clip_dynamic_add to the first segment matching control parameter (parameter_match) to the nth segment matching control parameter (parameter_match) respectively corresponding to parameter_ref) n Configure to retrieve the composite video clips (clip_dynamic_add) There.
  • the synthesizing module 140 includes a first segment source object image 431 of the first segment source dynamic video clip clip_dynamic_source and a first segment composition object image 432 of the first segment compositing dynamic video clip clip_dynamic_add.
  • Each of the n-th section composite video clips clip_dynamic_composite including the object image 432 may be generated.
  • the content providing module 120 may configure the user terminal 200 to provide the composite video contents (contents_composite) including the first interval composite video clip clip_dynamic_composite to the nth interval composite video clip clip_dynamic_composite.
  • the image synthesis method of the present invention is performed by the image synthesis system 100, the image synthesis system 100 is an application installed on the server side of the server-client network connected to the communication network, the operation processing apparatus of the server for driving the application, It may be configured as a storage device of the server, or an application installed in a client such as a storage device of the server and an information terminal such as a smartphone or a PC, an operation processing device of a client for driving the application, and the like.
  • a plurality of automatic images including a dynamic video clip in which the image synthesis system 100 is a section photographed by the automatic control camera 301 controlled by at least one camera control parameter of pan control, tilt control or moving control.
  • the captured video contents are stored in association with a camera control parameter.
  • Auto-shoot video content means video content produced by an auto-control camera 301 in which at least one of pan control, tilt control, or moving control is controlled by a predefined camera control parameter.
  • the video content photographed by the above is not included in the auto-shoot video content of the present invention.
  • the image synthesis system 100 provides the user terminal 200 with one of the plurality of pieces of auto-captured video contents to the user terminal 200 through a communication network.
  • the user may access the web server that provides the auto-shoot video content through an application or a web browser of the user terminal 200 to provide the auto-shoot video content.
  • the image synthesis system 100 receives an object synthesis request for the source dynamic video clip clip_dynamic_source of the source auto-capture video content content_source from the user terminal 200 (S30).
  • the source auto-shoot video content (contents_source) is the auto-shoot video content to be synthesized by the user
  • the source dynamic video clip (clip_dynamic_source) is one of pan motion, tilt motion, and moving motion among the source auto-shoot video content (contents_source). It means the time interval that dynamic camera walk is applied.
  • the image synthesis system 100 provides a user with dynamic video clip segments among source auto-captured video contents (contents_source) through camera control parameters, and the user selects one of the video clip segments.
  • the synthesis system 100 may receive an object synthesis request for the source dynamic video clip clip_dynamic_source.
  • the user requests object composition for the source video content (contents_source), and the image synthesis system 100 includes the source dynamic video clip included in the source request video content (contents_source). object composition for clip_dynamic_source).
  • the image synthesis system 100 obtains a camera control parameter of the source dynamic video clip clip_dynamic_source as a reference control parameter parameter_ref.
  • the image synthesis system 100 may acquire, as a reference control parameter (parameter_ref), a camera control parameter of a time interval corresponding to a source dynamic video clip (clip_dynamic_source) among camera control meters stored in association with the source auto-capture video content (contents_source). have.
  • Searching for (s50) is performed.
  • the image synthesis system 100 compares camera control parameters of other auto-shooting video contents with a reference control parameter (parameter_ref), and if a time interval of the same or similar camera control parameter is found, recognizes it as a matching control parameter (parameter_match) and time.
  • the video clip of the section is searched for as the synthesis target video clip (clip_dynamic_add).
  • the image synthesis system 100 searches for the synthesis target video clip clip_dynamic_add in step S50, for example, the genre of the video content, the background music of the video content, the shooting time or the uploading time of the video content, and the like.
  • the search module 130 synthesizes the attributes of the video clip (clip_dynamic_add) or the properties of the uploading user or performer of the video clip, such as online social relations between uploading users and online social relations between video performers, individually or in combination.
  • the target dynamic video clip clip_dynamic_add may be searched first.
  • the composite video clip clip_dynamic_composite includes at least a source object image 431 of the source dynamic video clip clip_dynamic_source and a synthesis target object image 432 of the target dynamic video clip clip_dynamic_add. Step (s60) is generated. Since the source object image 431 and the composite object image 432 share the same or similar camerawork, the composite video clip clip_dynamic_composite may provide a natural composite image to the user despite the dynamic camerawork.
  • the image synthesis system 100 may apply various synthesis methods. For example, in operation S60 of generating the composite video clip clip_dynamic_composite, the image synthesis system 100 synthesizes the source object image 431 and the synthesis target object image 432 on the background image of the source dynamic video clip clip_dynamic_source. A composite video clip (clip_dynamic_composite) may be generated.
  • the image synthesizing method further includes a step in which the image synthesis system 100 receives a user-selected background image from the user terminal 200 and generates a composite video clip clip_dynamic_composite (s60). ), The image synthesis system 100 may generate a composite video clip clip_dynamic_composite by synthesizing the source object image 431 and the synthesis target object image 432 with the user-selected background image.
  • the first part of the image synthesis system 100 forming a background projection surface 410 having a predetermined height and having a central concave curved surface in a virtual space.
  • the steps can be performed.
  • the image synthesis system 100 may perform a second sub-step of projecting at least a portion of the user-selected background image to the background projection surface 410 at the virtual projection point in the virtual space.
  • the image synthesis system 100 may perform a third sub-step of placing the source object image 431 and the synthesis target object image 432 between the virtual projection point and the background projection surface 410 in the virtual space. . Finally, at least a portion of the user-selected background image, at least a portion of the source object image 431, and at least a portion of the synthesis target object image 432 are included in an angle of view of the virtual camera 420 in which the image synthesis system 100 is disposed in the virtual space.
  • the fourth sub-step of generating a composite video clip clip_dynamic_composite may be performed, including a portion thereof.
  • the image synthesis system 100 performs a step S70 of providing the synthesized video clip clip_dynamic_composite to the user terminal 200.
  • the step (s50) of searching for the synthesis target dynamic video clip (clip_dynamic_add) may be performed by an image synthesis system ( 100 may further search for synthesis dynamic video clips clip_dynamic_adds in the plurality of auto-shoot video contents having the match control parameter, respectively.
  • the composite video clip clip_dynamic_composite may be generated by the image synthesis system 100, which is a composite object of the source object image 431 of the source dynamic video clip clip_dynamic_source and the plurality of composite target dynamic video clips clip_dynamic_add.
  • the composite video clip_dynamic_composite may be generated to include the images 432.
  • a composite video content content_composite is generated by synthesizing the synthesis target object video 432 with the entire source auto-capture video content content_source without synthesizing the synthesis target object video 432 only with the source dynamic video clip clip_dynamic_source.
  • the image synthesis system 100 may receive an object composition request for the source auto-capture video content contents_source from the user terminal 200.
  • the image synthesis system 100 is the first interval reference control parameter (parameter_ref) to the nth interval (n is 2) of the first interval source dynamic video clip (clip_dynamic_source) Integer)
  • the n-th section reference control parameter parameter_ref of the source dynamic video clip clip_dynamic_source may be acquired.
  • the image synthesis system 100 may include a first section corresponding to each of the first section reference control parameter parameter_ref to the nth section reference control parameter parameter_ref.
  • the composite video clip clip_dynamic_composite may be generated by the image synthesis system 100.
  • the first segment source object image of the first segment source dynamic video clip clip_dynamic_source and the first segment composition target dynamic video clip_dynamic_add The nth interval source object image of the first interval synthesis video clip clip_dynamic_composite to the nth interval source dynamic video clip clip_dynamic_source and the nth interval synthesis target dynamic video clip clip_dynamic_add including the first interval synthesis target object image N-th composite video clips (clip_dynamic_composite) including the n-th composite image object may be generated.
  • the image synthesis system 100 includes the composite video content (contents_composite) including the first interval composite video clip (clip_dynamic_composite) to the nth interval composite video clip (clip_dynamic_composite) It may be provided to the user terminal 200.
  • the composite video content including the first interval composite video clip (clip_dynamic_composite) to the nth interval composite video clip (clip_dynamic_composite) It may be provided to the user terminal 200.
  • a time section that does not correspond to a source dynamic video clip (clip_dynamic_source) that is, a time section that corresponds to a static video clip photographed using a static camera walk, it is synthesized using a conventional image object synthesis technique.
  • Video content (contents_composite) may be generated.

Abstract

The present invention relates to a camerawork-based image synthesis system and image synthesis method, which are capable of generating, without incongruity, a high quality synthesized video clip having dynamic camerawork and, more specifically, to an image synthesis system and image synthesis method for automatically synthesizing dynamic video clips of video content having similar camerawork through camerawork having been changed into data.

Description

카메라워크 기반 영상합성 시스템 및 영상합성방법Camerawork based image synthesis system and image synthesis method
본 발명은 카메라워크 기반 영상합성 시스템 및 영상합성방법에 관한 것으로 보다 상세하게는 데이터화된 카메라워크를 통해 유사한 카메라워크를 갖는 비디오 컨텐츠의 동적 비디오 클립을 자동으로 합성하는 영상합성 시스템 및 영상합성방법에 관한 것이다.The present invention relates to a camerawalk-based video synthesis system and a video synthesis method, and more particularly, to a video synthesis system and a video synthesis method for automatically synthesizing a dynamic video clip of video content having a similar camerawork through a data camerawork. It is about.
영상처리기술의 발달함에 따라 다양한 영상합성기술이 보편화되었다. 영상합성방법 중 객체합성은 원본 비디오 컨텐츠에 다른 비디오 컨텐츠의 객체를 합성하는 것으로서 일기예보 뉴스와 같이 배경영상이 분리된 기상캐스터의 객체영상을 가상의 스튜디오 배경영상에 합성한 합성영상을 예시할 수 있다. 이 경우 CG 배경영상과 실세계 카메라로 기상캐스터를 촬영한 객체영상이 결합된다. 이때 합성을 위해 기상캐스터 객체영상이 크로마키 기법 등으로 원래의 배경영상에서 분리되어 CG 배경영상에 합성된다. 이러한 예는 배경영상과 객체영상을 합성하는 것으로 높은 난이도를 요구하지 않아 전문적인 TV 프로그램, 영화 등의 PGC(Professionally Generated Contents) 뿐 아니라 최근에는 일반 사용자가 직접 제작하는 UGC(User Generated Contents)에서도 많이 도입된 바 있다.With the development of image processing technology, various image synthesis technologies have become popular. The object synthesis in the image synthesis method is to synthesize the object of the other video content to the original video content, and can exemplify the synthesized image of the object image of the weather caster whose background image is separated, such as the weather forecast news, into the virtual studio background image. have. In this case, the CG background image and the object image of the weather caster with the real world camera are combined. At this time, the weather caster object image is separated from the original background image by a chroma key technique and synthesized into the CG background image. These examples synthesize background images and object images, and do not require high difficulty, so PGC (Professionally Generated Contents) such as professional TV programs and movies, as well as User Generated Contents (UGC) recently produced by general users It was introduced.
다음으로, 서로 다른 영상의 인물들을 합성하는 예를 설명한다. 서로 다른 인물이 출연하는 비디오 컨텐츠의 객체들을 합성하는 방법은 제 1 비디오 컨텐츠에 제 2 비디오 컨텐츠의 제 2 인물 객체영상을 합성하거나 제 1 비디오 컨텐츠의 제 1 인물 객체영상과 제 2 비디오 컨텐츠의 제 2 인물 객체영상을 새로운 배경화면에 합성하는 것으로 전술한 배경합성의 경우와 비교하여 별다른 기술이 요구되지 않는다. 그런데 제 1 비디오 컨텐츠와 제 2 비디오 컨텐츠가 모두 정면전신샷과 같이 동일한 화각으로 고정된 카메라들로 각각 촬영되었다면 제 1 인물 객체영상과 제 2 인물 객체영상은 합성 비디오 컨텐츠에서 자연스럽게 합성된다. 그런데, 제 1 비디오 컨텐츠는 동적인 카메라워크 예컨대 제 1 인물을 중심으로 카메라가 패닝동작과 수평축으로 이동동작을 수행하면서 촬영되었고, 제 2 비디오 컨텐츠는 고정된 카메라로 촬영된 경우를 가정한다. 이 경우 제 1 인물 비디오 컨텐츠와 제 2 인물 비디오 컨텐츠를 하나의 합성 비디오 컨텐츠에 합성한다면 서로 다른 카메라워크로 촬영되었기 때문에 부자연스러운 합성영상이 생성되는 문제가 있다.Next, an example of synthesizing persons of different images will be described. A method of compositing objects of video content in which different people appear may include synthesizing a second person object image of the second video content into the first video content, or composing the first person object image and the second video content of the first video content. 2 Combining a person object image into a new background image does not require any technology compared to the background synthesis described above. However, when both the first video content and the second video content are respectively shot by cameras fixed at the same angle of view as the front body shot, the first person object image and the second person object image are naturally synthesized from the synthesized video content. However, it is assumed that the first video content is photographed while the camera is panning and the horizontal axis moves around the first person, for example, while the second video content is photographed by the fixed camera. In this case, when the first person video content and the second person video content are synthesized into one composite video content, an unnatural composite image is generated because different camera walks are photographed.
특히 컨텐츠 소비자들은 동적인 카메라워크로 촬영된 역동적인 비디오 컨텐츠를 선호하기 때문에 서로 다른 인물을 정적인 화각으로 합성하는 것으로는 컨텐츠 소비자들의 높아진 기준을 충족시킬 수 없다. 동적인 카메라워크의 합성영상을 생성하는 방법으로는 서로 동기화된 카메라를 이용하여 촬영하거나 3D 객체를 랜더링하여 합성하는 방법이 제시되었으나 이러한 방법은 합성영상을 전제로 한 촬영계획에 따른 전문 촬영기술과 편집기술을 요구하기 때문에 많은 제작비용을 투입하는 영화나 TV 프로그램에서만 제한적으로 사용될 뿐이고 합성영상을 전제로 촬영되지 않은 다수의 독립적인 UGC들의 영상합성에는 사용할 수 없는 한계가 있다.In particular, since content consumers prefer dynamic video contents shot with dynamic camerawork, synthesizing different characters with static angles of view cannot satisfy the higher standards of content consumers. As a method of generating a composite image of a dynamic camerawalk, a method of synthesizing by using a camera synchronized with each other or rendering 3D objects has been proposed. Due to the demand for editing technology, it is only limited to films or TV programs that incur high production costs, and there is a limitation that it cannot be used for image synthesis of many independent UGCs that are not photographed based on synthetic images.
한편 유투브와 같은 비디오 컨텐츠 제공서비스를 통해 다양한 UGC들이 제작 및 유통되고 있다. 일부 UGC 크리에이터들은 고품질 UGC를 통해 높은 광고수익을 거두고 있으며 고품질 UGC가 갖는 파급력을 활용하는 다양한 산업이 발전하고 있다. 그런데 UGC의 생산이 급증하면서 UGC가 컨텐츠 소비자의 이목을 끄는 라이프사이클이 짧아지고 있다. 따라서 UGC 크리에이터는 더 많은 UGC를 더 자주 올려야 하는 문제가 있다. 이러한 문제에 대응하는 한 가지 방법은 이미 제작된 UGC를 새롭게 편집하는 재생산(reproduction)을 통해 기존 UGC의 가치와 참신성을 높여 생명력을 연장하는 것이다. 그러나 다양한 제작환경에서 제작되는 UGC의 특성상 UGC 재생산은 단순히 다수의 UGC들의 특정 비디오클립들을 시간적으로 결합하거나 병렬적으로 표시하는 정도에 그치기 때문에 컨텐츠 소비자들의 높아진 기준을 충족시키기에 부족하다.Meanwhile, various UGCs are being produced and distributed through video content providing services such as YouTube. Some UGC creators are generating high advertising revenue through high quality UGC, and a variety of industries are developing that leverage the power of high quality UGC. However, as UGC production surges, the life cycle of UGC's attention to content consumers is shortening. As a result, UGC creators have to upload more UGC more often. One way to cope with this problem is to extend the vitality of existing UGCs by increasing the value and novelty of existing UGCs by reproduction of the already produced UGC. However, due to the nature of UGC produced in various production environments, UGC reproduction is not enough to meet the high standards of content consumers because it merely combines or displays parallel video clips of multiple UGCs in time.
그리고 동적인 카메라워크를 갖는 합성영상을 생성하기 위해서는 수많은 비디오 컨텐츠들 중에 서로 유사한 카메라워크를 갖는 비디오 컨텐츠의 비디오 클립들을 찾아야 하기 때문에 합성대상 비디오 클립의 검색에 편집자는 많은 노력과 시간을 소비하는 문제가 있다.In order to generate a composite image having dynamic camerawork, video clips of video content having similar camerawork must be found among a large number of video contents. Therefore, the editor spends a lot of effort and time searching for the composite video clip. There is.
FUJINON CORP의 일본등록특허 제4140006호 “합성화상 생성용 촬영 시스템”은 배경영상의 촬영 카메라와 객체영상의 촬영 카메라가 서로 동기제어됨으로써 배경영상과 객체영상 합성시 서로 위화감 없는 합성영상을 생성하는 촬영 시스템을 개시한다. 이러한 촬영 시스템에 따르면 동기화 제어를 통해 동적인 카메라워크가 적용된 고품질의 합성영상을 생성할 수 있는 장점이 있다. 하지만 이러한 촬영 시스템은 합성영상을 전제로 한 촬영계획에 따라 배경영상과 객체영상을 촬영한 것으로, 영상합성을 전제하지 않는 UGC간 동적인 합성영상을 생성하는 것에는 적용할 수가 없는 문제가 있다. 또한 배경촬영과 인물촬영을 위해 두 세트의 자동제어 카메라를 요구하기 때문에 합성영상 생성에 소요되는 비용이 증가하기 때문에 고비용의 방송용 프로그램 제작에는 적합하지만 저비용의 UGC의 합성영상 제작에는 적합하지 않는 문제가 있다. Japanese Patent No. 4140006 of FUJINON CORP, "Shooting System for Synthetic Image Generation," is a shooting system for synthesizing a background image and an object image by synchronizing the photographing camera of the background image and the photographing camera of the object image. Start the system. According to such a shooting system, there is an advantage of generating a high quality composite image to which dynamic camerawork is applied through synchronization control. However, such a photographing system has taken a background image and an object image according to a photographing plan on the premise of a synthesized image, and there is a problem that it cannot be applied to generating a dynamic composite image between UGCs without prescribing the image. In addition, since two sets of automatic control cameras are required for background and portrait shooting, the cost of generating a composite image increases, which is suitable for producing a high-cost broadcasting program but not for producing a low-cost UGC composite image. have.
Ecole Polytechnique Federale de Lausanne의 미국등록특허 제7,843,510호 “Method and System for Combining Video Sequences with Spatio-temproal Alignment”는 스키경기와 같은 기록경기 중계방송화면에 있어서 선행선수 경기장면과 후행선수 경기장면을 하나의 화면에 표시하는 영상합성 시스템을 개시한다. 이러한 영상합성 시스템에 따르면 기록경기 중계방송에서 먼저 경기를 치룬 선수의 객체영상과 현재 경기중인 선수의 객체영상을 합성한 합성영상을 제공하여 시청자는 손쉽게 양 선수의 기록차이를 시각적으로 확인할 수 있으며 동적으로 카메라 트랙킹된 각 객체영상을 위화감없이 단일의 합성영상으로 합성하는 효과가 있다. 하지만 이러한 합성영상 시스템은 기록경기의 특성상 반복적이고 정형적인 카메라 앵글을 갖고 선수의 기록에 따른 시간차만 있는 유사한 영상간 합성에만 제한되는 것으로 기록경기의 중계영상 제작에는 적합하지만 합성영상을 전제하지 않은 다양한 카메라 앵글을 보유하는 UGC 등의 컨텐츠 합성을 통한 재생산에는 적용할 수 없는 문제가 있다.United States Patent No. 7,843,510 entitled “Method and System for Combining Video Sequences with Spatio-temproal Alignment” by Ecole Polytechnique Federale de Lausanne is one of the leading and trailing athletes in the field of broadcast broadcasts such as skiing. A video synthesis system for displaying on a screen is disclosed. According to this video synthesizing system, viewers can easily visually check the record difference between the two players by providing a composite image of the object video of the player who played the game first and the object video of the player who is currently playing in the recording game. As a result, the camera tracked object images are combined into a single composite image without discomfort. However, such a synthetic video system is limited only to the synthesis between similar images having a repetitive and atypical camera angle and only a time difference according to the athlete's recording due to the characteristics of the recording game. There is a problem that cannot be applied to reproduction through content synthesis such as UGC having a camera angle.
PANASONIC Corp.의 일본공개특허공보 제1994-028449호 “화상합성장치”에 따르면 실제 카메라의 방향 및 위치에 연동한 CG 그래픽을 생성하여 실사영상과 CG영상을 합성하여 위화감없는 합성영상을 생성하는 영성합성장치를 개시한다. 이러한 영상합성장치에 따르면 동적인 카메라워크에서도 위화감없는 실사영상과 CG영상으로 구성되는 합성영상을 얻을 수 있는 효과가 있다. 하지만 이러한 영상합성장치는 실사영상과 실사영상으로 구성되는 합성영상의 생성에는 활용할 수 없으며, 카메라 방향에 따른 적응적인 CG 그래픽 생성을 위해서는 많은 비용과 전문기술이 투입되는 3D 모델링을 요구하기 때문에 합성영상 제작에 소요되는 비용이 증가하는 문제가 있다. According to PANASONIC Corp. JP 1994-028449 “Image Synthesis Device”, the spirituality that generates the composite image without discomfort by generating the CG graphic linked to the direction and position of the actual camera and synthesizing the real image and the CG image. A synthesizing apparatus is disclosed. According to such an image synthesizing apparatus, even in a dynamic camera walk, there is an effect of obtaining a composite image composed of a live image and a CG image without discomfort. However, this image sum growth value cannot be used to generate a composite image composed of live image and live image, and it is required to generate 3D modeling that requires a lot of cost and expertise for adaptive CG graphic generation according to the camera direction. There is a problem in that the cost of manufacturing increases.
KDDI Corp.의 일본등록특허 제5706718호 “동영상 합성 시스템, 방법, 동영상 합성 프로그램 및 그 기억매체”에 따르면 동일한 악곡에 대한 가창동영상들을 타일형태로 합성하는 영상합성 시스템을 개시한다. 이러한 영상합성 시스템은 수많은 동영상들 중에서 동일한 특징(동일 악곡에 대한 가창)을 공유하는 복수의 동영상들을 자동으로 검색하여 단일의 합성영상으로 자동으로 합성하기 때문에 영상합성에 소요되는 비용과 시간이 단축되는 효과를 제공한다. 하지만 이러한 시스템에 따르면 합성 동영상은 단순히 타일식으로 배치된 작은 동영상들의 조합일 뿐이기 때문에 고품질의 객체영상이 자연스럽게 합성된 합성영상을 원하는 컨텐츠 소비자의 높은 기준에 부합하지 않는 문제가 있다.According to Japanese Patent No. 5706718 of "KDDI Corp.," a video synthesizing system, a method, a video synthesizing program, and a storage medium thereof, discloses an image synthesizing system for synthesizing the vocal moving images of the same piece of music in a tile form. The video synthesis system automatically searches for a plurality of videos that share the same characteristics (songs of the same music) among numerous videos, and automatically synthesizes them into a single composite video, thereby reducing the cost and time required for video synthesis. Provide effect. However, according to such a system, since a composite video is simply a combination of small videos arranged in a tiled form, there is a problem in that a high quality object image does not meet the high standards of content consumers who want a naturally synthesized composite image.
본 발명에 따른 카메라워크 기반 영상합성 시스템 및 영상합성방법은, 카메라 제어 파라미터의 유사도를 통해 소스 자동촬영 비디오 컨텐츠의 소스 동적 비디오 클립과 유사한 동적 카메라워크를 갖는 다른 합성대상 동적 비디오 클립을 자동으로 검색하여 소스 객체영상과 합성대상 객체영상을 합성한 합성 비디오 클립을 자동으로 생성함으로써, 동적인 카메라워크를 갖는 고품질의 합성 비디오 클립을 위화감없이 생성할 수 있고, 다수의 UGC 등의 비디오 컨텐츠들 중에서 유사한 카메라워크를 갖는 비디오 컨텐츠를 검색하기 위해 소요되는 시간과 노력을 제거할 수 있고, 이미 제작이 완료되어 공개된 비디오 컨텐츠에 새로운 출연자를 객체합성의 방법으로 추가하여 새로운 합성 비디오 컨텐츠로 재생산함으로써 컨텐츠 소비자의 지속적인 관심을 유발하여 기제작된 비디오 컨텐츠의 생명력을 연장하는 것을 목적으로 한다. The camerawalk based image synthesis system and image synthesis method according to the present invention automatically search for another composite target dynamic video clip having a dynamic camera walk similar to the source dynamic video clip of the source auto-shoot video content through the similarity of camera control parameters. By automatically creating a composite video clip that synthesizes the source object image and the target object image, a high quality composite video clip having dynamic camerawork can be generated without discomfort and can be similar among a number of video contents such as UGC. Content consumers can eliminate the time and effort required to search for video content with camerawalks, and recreate it as new composite video content by adding new performers to the video content that has already been produced and published to the public, in a method of object synthesis. Continuous attention It aims to extend the vitality of pre-produced video content.
본 발명의 실시예에 따른 카메라워크 기반 영상합성 시스템 및 영상합성방법은, 소스 동적 비디오 클립과 유사한 동적 카메라워크의 범주에 속하는 합성대상 동적 비디오 클립들을 각각 포함하는 복수의 합성대상 컨텐츠들에서 합성대상 객체를 추출하여 단일의 합성영상으로 생성함으로써 예컨대 단일의 출연자가 각각 출연한 비디오 컨텐츠들을 합성하여 복수의 출연자들이 출연하는 동적 카메라워크의 합성영상을 생성하는 것을 다른 목적으로 한다.Camerawalk-based image synthesis system and image synthesis method according to an embodiment of the present invention, the synthesis target in a plurality of composite target content each comprising a target video object video composition belonging to the category of dynamic camera walk similar to the source dynamic video clip Another object is to generate a composite image of a dynamic camera walk in which a plurality of performers appear by, for example, synthesizing the video contents of a single performer by extracting an object and generating a single composite image.
본 발명의 실시예에 따른 카메라워크 기반 영상합성 시스템 및 영상합성방법은, 소스 자동촬영 비디오 컨텐츠에 대한 사용자의 합성요청에 따라 복수의 동적 카메라워크 촬영 구간들을 각각 소스 동적 비디오 클립으로 추출하고 각 구간의 카메라워크와 유사범위에 있는 합성대상 동적 비디오 클립들을 모두 포함하는 합성대상 비디오 컨텐츠를 검색하여 각 구간별로 합성함으로써 소스 자동촬영 비디오 컨텐츠의 모든 동적촬영 구간에 대해 자동으로 객체합성을 수행하는 것을 다른 목적으로 한다.Camera walk-based image synthesis system and image synthesis method according to an embodiment of the present invention, according to the user's synthesis request for the source auto-shooting video content, extracts a plurality of dynamic camera walk shooting section as a source dynamic video clip and each section The object synthesis is automatically performed for all dynamic shooting sections of the source auto-shooting video content by searching and synthesizing the synthesized video content including all the dynamic video clips in the range similar to the camera walk of the camera. The purpose.
본 발명의 실시예에 따른 카메라워크 기반 영상합성 시스템 및 영상합성방법은, 사용자가 선택한 새로운 배경영상을 입력받아 소스 객체영상 및 합성대상 객체영상을 합성하여 합성 비디오 클립을 생성함으로써 소스 비디오 컨텐츠와 비교하여 변화의 폭이 큰 재생산된 합성영상을 생성하여 컨텐츠 소비자가 식상하지 않는 비디오 컨텐츠를 지속적으로 공급하는 것을 다른 목적으로 한다. Camera walk-based image synthesis system and image synthesis method according to an embodiment of the present invention, by receiving a new background image selected by the user to synthesize the source object image and the target object image to generate a composite video clip to compare with the source video content Another goal is to create a reconstructed composite image with a large change and to continuously supply video content that is not eaten by content consumers.
본 발명의 실시예에 따른 카메라워크 기반 영상합성 시스템 및 영상합성방법은, 평면적인 배경화면을 곡률을 갖는 입체적인 형상의 배경투영면에 투영하고 소스 객체영상과 합성대상 객체영상을 합성함으로써, 동적 카메라워크에 따라 배경영상이 객체영상들과 적절한 원근감을 가지며 변화하는 고품질의 합성영상을 생성하는 것을 다른 목적으로 한다.Camera walk-based image synthesis system and image synthesis method according to an embodiment of the present invention, by projecting a planar background to a three-dimensional background projection surface having a curvature, by synthesizing the source object image and the target object image, dynamic camera walk Another object is to create a high-quality composite image with a background image having an appropriate perspective with the object images.
본 발명의 실시예에 따른 카메라워크 기반 영상합성 시스템 및 영상합성방법은, 소스 자동촬영 비디오 컨텐츠의 출연자와 온라인 상의 사회적 관계가 있는 다른 출연자가 출연한 상기 자동촬영 비디오 컨텐츠를 우선적으로 검색하여 합성함으로써 사용자 맞춤형 합성 비디오 컨텐츠를 자동으로 제작하는 것을 다른 목적으로 한다.Camera walk-based image synthesis system and image synthesis method according to an embodiment of the present invention, by first searching and synthesizing the auto-shoot video content from the performer of the source auto-shoot video content and other performers with a social relationship online Another goal is to automatically create custom composite video content.
본 발명의 다른 실시예에 따른 카메라워크 기반 영상합성 시스템 및 영상합성방법은, 저장모듈에 컨텐츠 장르정보를 자동촬영 비디오 컨텐츠와 연관하여 더 저장하고, 소스 자동촬영 비디오 컨텐츠와 동일한 컨텐츠 장르정보를 갖는 자동촬영 비디오 컨텐츠의 동적 비디오 클립을 합성대상 동적 비디오 클립으로 우선 검색함으로써 사용자가 자동촬영 비디오 컨텐츠의 속성을 직접 감상하고 확인하지 않아도 동일한 장르속성을 공유하는 비디오 컨텐츠간 자동합성하는 것을 다른 목적으로 한다.Camera walk-based image synthesis system and image synthesis method according to another embodiment of the present invention, and further stores the content genre information associated with the auto-shoot video content in the storage module, and has the same content genre information as the source auto-shoot video content Another objective is to automate the compositing of video content that shares the same genre attributes without the user having to directly view and verify the properties of the auto-shoot video content by first searching the dynamic video clip of the auto-shoot video content as a composite dynamic video clip. .
본 발명의 다른 실시예에 따른 카메라워크 기반 영상합성 시스템 및 영상합성방법은, 저장모듈에 배경음악 정보를 자동촬영 비디오 컨텐츠와 연관하여 더 저장하고, 소스 자동촬영 비디오 컨텐츠와 동일한 배경음악 정보를 갖는 자동촬영 비디오 컨텐츠와 동적 비디오 클립을 합성대상 동적 비디오 클립으로 우선검색함으로써 예컨대 동일 음악을 배경음악으로 사용하여 가창 또는 기악 퍼포먼스를 각각 수행하는 비디오 컨텐츠들을 자연스럽게 합성하여 합창 또는 협연하는 합성 비디오 클립을 생성하는 것을 다른 목적으로 한다.Camera walk-based image synthesis system and image synthesis method according to another embodiment of the present invention, the background music information is further stored in the storage module associated with the auto-shoot video content, and has the same background music information as the source auto-shoot video content By prioritizing auto-shoot video content and dynamic video clips as the target dynamic video clip, a composite video clip is created by chorusing or collaborating by naturally synthesizing video content that performs a song or instrumental performance, for example, using the same music as background music. For other purposes.
본 발명의 다른 실시예에 따른 카메라워크 기반 영상합성 시스템 및 영상합성방법은, 저장모듈에 업로드 시점 정보를 자동촬영 비디오 컨텐츠와 연관하여 더 저장하고, 소스 자동촬영 비디오 컨텐츠의 업로드 시점과 가까운 시기의 업로드 시점 정보를 갖거나 가장 최근의 업로드 시점 정보를 갖는 자동촬영 비디오 컨텐츠의 동적 비디오 클립을 합성대상 동적 비디오 클립으로 우선검색함으로써 비슷한 시기에 업로드된 비디오 컨텐츠를 합성하거나 가장 최신 비디오 컨텐츠를 합성하는 것을 다른 목적으로 한다.Camera walk-based image synthesis system and image synthesis method according to another embodiment of the present invention, the storage module further stores the upload time information in association with the auto-shoot video content, and at a time close to the upload time of the source auto-shoot video content Synthesizing video content uploaded at similar times or synthesizing the most recent video content by first retrieving a dynamic video clip of auto-shoot video content with upload time information or with the most recent upload time information as a composite dynamic video clip. For other purposes.
본 발명의 다른 실시예에 따른 카메라워크 기반 영상합성 시스템 및 영상합성방법은, 저장모듈에 업로드 사용자간 또는 비디오 출연자간의 온라인 상의 사회적 관계를 더 저장하고, 소스 자동촬영 비디오 컨텐츠의 업로드 사용자 또는 비디오 출연자와 온라인 상의 사회적 관계를 갖는 업로드 사용자 또는 비디오 출연자의 자동촬영 비디오 컨텐츠의 동적 비디오 클립을 합성대상 동적 비디오 클립으로 우선검색함으로써 사용자 관계기반의 합성 비디오 클립을 생성하는 것을 다른 목적으로 한다.Camera walk-based video synthesis system and image synthesis method according to another embodiment of the present invention, the storage module further stores the online social relationship between upload users or video performers, uploading user or video performer of the source auto-shoot video content Another object of the present invention is to generate a composite video clip based on a user relationship by first searching a dynamic video clip of an auto-shooting video content of an uploading user or a video performer having a social relationship online with a composite target dynamic video clip.
상기의 문제를 해결하기 위해 본 발명에 따른 카메라워크 기반 영상합성 시스템은, 팬 제어, 틸트 제어 또는 무빙 제어 중 적어도 어느 하나의 카메라 제어 파라미터에 의해 제어되는 자동제어 카메라에 의해 촬영된 구간인 동적 비디오 클립을 포함하는 복수의 자동촬영 비디오 컨텐츠들을 상기 카메라 제어 파라미터와 연관하여 저장하는 저장모듈; 상기 복수의 자동촬영 비디오 컨텐츠들 중 어느 하나의 소스 자동촬영 비디오 컨텐츠를 통신망을 통해 사용자 단말기에게 제공하는 컨텐츠 제공모듈; 상기 소스 자동촬영 비디오 컨텐츠의 소스 동적 비디오 클립에 대한 객체 합성요청을 상기 사용자 단말기로부터 수신하고, 상기 소스 동적 비디오 클립의 상기 카메라 제어 파라미터를 레퍼런스 제어 파라미터로 취득하고, 상기 레퍼런스 제어 파라미터와 동일 또는 유사한 상기 카메라 제어 파라미터인 정합 제어 파라미터를 갖는 합성대상 자동촬영 비디오 컨텐츠의 합성대상 동적 비디오 클립을 검색하는 검색모듈; 및 적어도 상기 소스 동적 비디오 클립의 소스 객체영상과 상기 합성대상 동적 비디오 클립의 합성대상 객체영상이 포함되도록 합성 비디오 클립을 생성하는 합성모듈;을 포함하여 구성되고, 상기 컨텐츠 제공모듈은, 상기 합성 비디오 클립을 상기 사용자 단말기에게 제공하는 것을 특징으로 한다.In order to solve the above problem, the camera-walk-based image synthesis system according to the present invention is a dynamic video which is a section captured by an automatic control camera controlled by at least one camera control parameter of pan control, tilt control or moving control. A storage module for storing a plurality of auto-shoot video contents including a clip in association with the camera control parameter; A content providing module for providing one source auto-shooting video content of the plurality of auto-shooting video contents to a user terminal through a communication network; Receive an object synthesis request for a source dynamic video clip of the source auto-shoot video content from the user terminal, obtain the camera control parameter of the source dynamic video clip as a reference control parameter, and the same or similar to the reference control parameter A retrieval module for retrieving a synthesis target dynamic video clip of the synthesis target auto captured video content having the matching control parameter as the camera control parameter; And a synthesis module for generating a composite video clip to include at least a source object image of the source dynamic video clip and a synthesis object image of the synthesis target dynamic video clip, wherein the content providing module comprises: the composite video; The clip is provided to the user terminal.
본 발명의 실시예에 따른 카메라워크 기반 영상합성 시스템에 있어서, 상기 검색모듈은, 상기 정합 제어 파리미터를 갖는 복수의 상기 자동촬영 비디오 컨텐츠들에서 각각 합성대상 동적 비디오 클립들을 더 검색하고, 상기 합성모듈은, 상기 소스 동적 비디오 클립의 상기 소스 객체영상 및 상기 복수의 합성대상 동적 비디오 클립들의 상기 합성대상 객체영상들이 포함되도록 합성 비디오 클립을 생성하는 것을 특징으로 한다.In the camerawork-based image synthesizing system according to an embodiment of the present invention, the search module further searches for synthesizing dynamic video clips in the plurality of auto-captured video contents having the matching control parameter, and the synthesizing module. And generating a composite video clip such that the source object image of the source dynamic video clip and the synthesis object image of the plurality of synthesis target video clips are included.
본 발명의 실시예에 따른 카메라워크 기반 영상합성 시스템에 있어서, 상기 검색모듈은, 상기 소스 자동촬영 비디오 컨텐츠에 대한 객체 합성요청을 상기 사용자 단말기로부터 수신하고, 제 1 구간 소스 동적 비디오 클립의 제 1 구간 레퍼런스 제어 파라미터 내지 제 n 구간(n은 2 이상의 정수) 소스 동적 비디오 클립의 제 n 구간 레퍼런스 제어 파라미터를 취득하고, 상기 제 1 구간 레퍼런스 제어 파라미터 내지 제 n 구간 레퍼런스 제어 파라미터에 각각 대응하는 제 1 구간 정합 제어 파라미터 내지 제 n 구간 정합 제어 파라미터를 갖는 합성대상 자동촬영 비디오 컨텐츠의 제 1 구간 합성대상 동적 비디오 클립 내지 제 n 구간 합성대상 동적 비디오 클립을 검색하고, 상기 합성모듈은, 상기 제 1 구간 소스 동적 비디오 클립의 제 1 구간 소스 객체영상과 상기 제 1 구간 합성대상 동적 비디오 클립의 제 1 구간 합성대상 객체영상이 포함되는 제 1 구간 합성 비디오 클립 내지 상기 제 n 구간 소스 동적 비디오 클립의 제 n 구간 소스 객체영상과 상기 제 n 구간 합성대상 동적 비디오 클립의 제 n 구간 합성대상 객체영상이 포함되는 제 n 구간 합성 비디오 클립을 각각 생성하고, 상기 컨텐츠 제공모듈은, 상기 제 1 구간 합성 비디오 클립 내지 제 n 구간 합성 비디오 클립을 포함하는 합성 비디오 컨텐츠를 상기 사용자 단말기에게 제공하는 것을 특징으로 한다.In the camerawork-based image synthesis system according to an embodiment of the present invention, the search module receives an object synthesis request for the source auto-captured video content from the user terminal, and the first section of the first interval source dynamic video clip. A first interval reference control parameter of the interval reference control parameter to the nth interval (n is an integer of 2 or more) source dynamic video clip, the first interval reference control parameter to the nth interval reference control parameter respectively corresponding to the first interval reference control parameter; Search for the first to n-th segment dynamic video clip of the composite object auto-shooting video content having the interval matching control parameter to the n-th interval matching control parameter, and the combining module searches the first interval. Image of the first segment of the source dynamic video clip The first interval synthesis video clip including the first interval synthesis object image of the first interval synthesis target video clip to the nth interval source object image and the nth interval synthesis target dynamic video of the nth interval source dynamic video clip Respectively generating an n-th section composite video clip including an n-th section synthesis target object image of the clip, and the content providing module is configured to generate the synthesized video content including the first to n-th section composite video clip. It is characterized in that provided to the user terminal.
본 발명의 실시예에 따른 카메라워크 기반 영상합성 시스템에 있어서, 상기 합성모듈은, 상기 동적 비디오 클립의 배경영상에 상기 소스 객체영상 및 상기 합성대상 객체영상을 합성하여 상기 합성 비디오 클립을 생성하는 것을 특징으로 한다.In the camerawork-based image synthesis system according to an embodiment of the present invention, the synthesis module is to generate the composite video clip by synthesizing the source object image and the target object image to the background image of the dynamic video clip. It features.
본 발명의 실시예에 따른 카메라워크 기반 영상합성 시스템은, 상기 사용자 단말기로부터 사용자 선택 배경영상을 입력받는 배경영상 입력모듈;를 더 포함하여 구성되고, 상기 합성모듈은, 상기 사용자 선택 배경영상에 상기 소스 객체영상 및 상기 합성대상 객체영상을 합성하여 상기 합성 비디오 클립을 생성하는 것을 특징으로 한다.Camera-based image synthesis system according to an embodiment of the present invention, further comprising a background image input module for receiving a user selected background image from the user terminal, wherein the composition module, the user selected background image And synthesizing a source object image and the synthesis target object image to generate the composite video clip.
본 발명의 실시예에 따른 카메라워크 기반 영상합성 시스템에 있어서, 상기 합성모듈은, 소정의 높이를 갖고 중앙부가 오목한 곡면으로 형성된 배경투영면을 가상공간에 형성하고, 상기 가상공간 상의 가상투영점에서 상기 배경투영면에 상기 사용자 선택 배경영상의 적어도 일부를 투영하고, 상기 가상공간 상의 상기 가상투영점과 상기 배경투영면 사이에 상기 소스 객체영상 및 상기 합성대상 객체영상을 배치하고, 상기 가상공간에 배치되는 가상카메라의 화각에 상기 사용자 선택 배경영상의 적어도 일부, 상기 소스 객체영상의 적어도 일부 및 상기 합성대상 객체영상의 적어도 일부를 포함하여 상기 합성 비디오 클립을 생성하는 것을 특징으로 한다.In the camerawork-based image synthesizing system according to an embodiment of the present invention, the synthesizing module forms a background projection surface in a virtual space having a predetermined height and a concave center portion in a virtual space, and at the virtual projection point on the virtual space. Projecting at least a portion of the user-selected background image on a background projection surface, arranging the source object image and the composite object image between the virtual projection point on the virtual space and the background projection surface, and being disposed in the virtual space And generating at least a portion of the user-selected background image, at least a portion of the source object image, and at least a portion of the synthesis target object image in an angle of view of the camera to generate the composite video clip.
본 발명의 실시예에 따른 카메라워크 기반 영상합성 시스템에 있어서, 상기 검색모듈은, 상기 소스 자동촬영 비디오 컨텐츠의 출연자와 온라인 상의 사회적 관계가 있는 다른 출연자가 출연한 상기 자동촬영 비디오 컨텐츠를 우선적으로 검색하는 것을 특징으로 한다.In the camera-walk-based image synthesis system according to an embodiment of the present invention, the search module preferentially searches for the auto-shoot video content played by the performer of the source auto-shoot video content and other performers who have a social relationship online. Characterized in that.
본 발명에 따른 카메라워크 기반 영상합성방법은, 영상합성 시스템이 팬 제어, 틸트 제어 또는 무빙 제어 중 적어도 어느 하나의 카메라 제어 파라미터에 의해 제어되는 자동제어 카메라에 의해 촬영된 구간인 동적 비디오 클립을 포함하는 복수의 자동촬영 비디오 컨텐츠들을 상기 카메라 제어 파라미터와 연관하여 저장하는 단계; 상기 영상합성 시스템이 상기 복수의 자동촬영 비디오 컨텐츠들 중 어느 하나의 소스 자동촬영 비디오 컨텐츠를 통신망을 통해 사용자 단말기에게 제공하는 단계; 상기 영상합성 시스템이 상기 소스 자동촬영 비디오 컨텐츠의 소스 동적 비디오 클립에 대한 객체 합성요청을 상기 사용자 단말기로부터 수신하는 단계; 상기 영상합성 시스템이 상기 소스 동적 비디오 클립의 상기 카메라 제어 파라미터를 레퍼런스 제어 파라미터로 취득하는 단계; 상기 영상합성 시스템이 상기 레퍼런스 제어 파라미터와 동일 또는 유사한 상기 카메라 제어 파라미터인 정합 제어 파라미터를 갖는 합성대상 자동촬영 비디오 컨텐츠의 합성대상 동적 비디오 클립을 검색하는 단계; 상기 영상합성 시스템이 적어도 상기 소스 동적 비디오 클립의 소스 객체영상과 상기 합성대상 동적 비디오 클립의 합성대상 객체영상이 포함되도록 합성 비디오 클립을 생성하는 단계; 및 상기 영상합성 시스템이 상기 합성 비디오 클립을 상기 사용자 단말기에게 제공하는 단계;를 포함하는 것을 특징으로 한다.Camera walk-based image synthesis method according to the present invention, the video synthesis system includes a dynamic video clip that is a section captured by an automatic control camera controlled by at least one of the camera control parameters of pan control, tilt control or moving control. Storing a plurality of auto-shoot video content in association with the camera control parameter; Providing, by the image synthesizing system, a source auto-captured video content of any one of the plurality of auto-captured video contents to a user terminal through a communication network; Receiving, by the image synthesis system, an object synthesis request for a source dynamic video clip of the source auto-capture video content from the user terminal; Acquiring, by the image synthesis system, the camera control parameter of the source dynamic video clip as a reference control parameter; Retrieving, by the image synthesis system, a synthesis target dynamic video clip of the synthesis target auto-photographed video content having a registration control parameter which is the camera control parameter which is the same as or similar to the reference control parameter; Generating a composite video clip by the image synthesis system to include at least a source object image of the source dynamic video clip and a synthesis object image of the synthesis target dynamic video clip; And providing the synthesized video clip to the user terminal by the image synthesis system.
본 발명의 실시예에 따른 카메라워크 기반 영상합성방법에 있어서, 상기 합성대상 동적 비디오 클립을 검색하는 단계는, 상기 영상합성 시스템이 상기 정합 제어 파리미터를 갖는 복수의 상기 자동촬영 비디오 컨텐츠들에서 각각 합성대상 동적 비디오 클립들을 더 검색하고, 상기 합성 비디오 클립을 생성하는 단계는, 상기 영상합성 시스템이 상기 소스 동적 비디오 클립의 상기 소스 객체영상 및 상기 복수의 합성대상 동적 비디오 클립들의 상기 합성대상 객체영상들이 포함되도록 합성 비디오 클립을 생성하는 것을 특징으로 한다.In the camera-walk-based image synthesis method according to an embodiment of the present invention, the step of retrieving the dynamic video clip to be synthesized, the image synthesis system synthesizes each of a plurality of the auto-shoot video content having the matching control parameter; Retrieving target dynamic video clips and generating the composite video clip, wherein the image synthesis system includes the source object image of the source dynamic video clip and the composite object images of the plurality of composite object dynamic video clips. Generate a composite video clip for inclusion.
본 발명의 실시예에 따른 카메라워크 기반 영상합성방법에 있어서, 상기 객체 합성요청을 수신하는 단계는, 상기 영상합성 시스템이 상기 소스 자동촬영 비디오 컨텐츠에 대한 객체 합성요청을 상기 사용자 단말기로부터 수신하고, 상기 레퍼런스 제어 파라미터를 취득하는 단계는, 상기 영상합성 시스템이 제 1 구간 소스 동적 비디오 클립의 제 1 구간 레퍼런스 제어 파라미터 내지 제 n 구간(n은 2 이상의 정수) 소스 동적 비디오 클립의 제 n 구간 레퍼런스 제어 파라미터를 취득하고, 상기 합성대상 동적 비디오 클립을 검색하는 단계는, 상기 영상합성 시스템이 상기 제 1 구간 레퍼런스 제어 파라미터 내지 제 n 구간 레퍼런스 제어 파라미터에 각각 대응하는 제 1 구간 정합 제어 파라미터 내지 제 n 구간 정합 제어 파라미터를 갖는 합성대상 자동촬영 비디오 컨텐츠의 제 1 구간 합성대상 동적 비디오 클립 내지 제 n 구간 합성대상 동적 비디오 클립을 검색하고, 상기 합성 비디오 클립을 생성하는 단계는, 상기 영상합성 시스템이 상기 제 1 구간 소스 동적 비디오 클립의 제 1 구간 소스 객체영상과 상기 제 1 구간 합성대상 동적 비디오 클립의 제 1 구간 합성대상 객체영상이 포함되는 제 1 구간 합성 비디오 클립 내지 상기 제 n 구간 소스 동적 비디오 클립의 제 n 구간 소스 객체영상과 상기 제 n 구간 합성대상 동적 비디오 클립의 제 n 구간 합성대상 객체영상이 포함되는 제 n 구간 합성 비디오 클립을 각각 생성하고, 상기 합성 비디오 클립을 제공하는 단계는 상기 영상합성 시스템이 상기 제 1 구간 합성 비디오 클립 내지 제 n 구간 합성 비디오 클립을 포함하는 합성 비디오 컨텐츠를 상기 사용자 단말기에게 제공하는 것을 특징으로 한다.In the camera-walk-based image synthesis method according to an embodiment of the present invention, the step of receiving the object synthesis request, the image synthesis system receives the object synthesis request for the source auto-shoot video content from the user terminal, The acquiring of the reference control parameter may include: controlling, by the image synthesis system, a first interval reference control parameter of a first interval source dynamic video clip to an nth interval (n is an integer of 2 or more). Acquiring a parameter and retrieving the synthesis target dynamic video clip, wherein the image synthesis system includes first to nth interval control parameters corresponding to the first to nth interval reference control parameters, respectively; Automated Shooting of Composite Objects with Matched Control Parameters Retrieving the first to n-th composite video clip of the video content and generating the composite video clip, and the synthesizing system may include generating a first video of the first interval source dynamic video clip. A first interval synthesis video clip including an interval source object image and a first interval synthesis object image of the first interval synthesis target video clip; and an nth interval source object image of the nth interval source dynamic video clip; Generating an n-th interval synthesized video clip including an n-th interval synthesized object image of an n-th interval synthesized dynamic video clip, and providing the synthesized video clip may be performed by the image synthesis system. The user terminal to synthesize video content including a through n-th section composite video clip It characterized in that it gives.
본 발명의 실시예에 따른 카메라워크 기반 영상합성방법에 있어서, 상기 합성 비디오 클립을 생성하는 단계는, 상기 영상합성 시스템이 상기 소스 동적 비디오 클립의 배경영상에 상기 소스 객체영상 및 상기 합성대상 객체영상을 합성하여 상기 합성 비디오 클립을 생성하는 것을 특징으로 한다.In the camera-walk-based image synthesis method according to an embodiment of the present invention, the step of generating the composite video clip, the image synthesis system in the background image of the source dynamic video clip, the source object image and the synthesis target object image To synthesize the synthesized video clip.
본 발명의 실시예에 따른 카메라워크 기반 영상합성방법은 상기 영상합성 시스템이 상기 사용자 단말기로부터 사용자 선택 배경영상을 입력받는 단계;를 더 포함하여 구성되고, 상기 합성 비디오 클립을 생성하는 단계는, 상기 영상합성 시스템이 상기 사용자 선택 배경영상에 상기 소스 객체영상 및 상기 합성대상 객체영상을 합성하여 상기 합성 비디오 클립을 생성하는 것을 특징으로 한다.Camerawork-based image synthesis method according to an embodiment of the present invention further comprises the step of receiving a user selected background image from the user terminal from the image synthesis system, the step of generating the composite video clip, the The image synthesis system generates the composite video clip by synthesizing the source object image and the synthesis target object image to the user-selected background image.
본 발명의 실시예에 따른 카메라워크 기반 영상합성방법에 있어서, 상기 합성 비디오 클립을 생성하는 단계는, 상기 영상합성 시스템이 소정의 높이를 갖고 중앙부가 오목한 곡면으로 형성된 배경투영면을 가상공간에 형성하는 제 1 부단계; 상기 영상합성 시스템이 상기 가상공간 상의 가상투영점에서 상기 배경투영면에 상기 사용자 선택 배경영상의 적어도 일부를 투영하는 제 2 부단계; 상기 영상합성 시스템이 상기 가상공간 상의 상기 가상투영점과 상기 배경투영면 사이에 상기 소스 객체영상 및 상기 합성대상 객체영상을 배치하는 제 3 부단계; 및 상기 영상합성 시스템이 상기 가상공간에 배치되는 가상카메라의 화각에 상기 사용자 선택 배경영상의 적어도 일부, 상기 소스 객체영상의 적어도 일부, 및 상기 합성대상 객체영상의 적어도 일부를 포함하여 상기 합성 비디오 클립을 생성하는 제 4 부단계;를 포함하여 구성되는 것을 특징으로 한다.In the camera-walk-based image synthesis method according to an embodiment of the present invention, the step of generating the composite video clip, the image synthesis system to form a background projection surface formed in a curved surface having a predetermined height and a concave central portion in the virtual space First substep; A second sub-step of the image synthesis system projecting at least a portion of the user-selected background image on the background projection surface at a virtual projection point on the virtual space; A third sub-step of the image synthesizing system disposing the source object image and the synthesis target object image between the virtual projection point and the background projection surface on the virtual space; And at least a portion of the user-selected background image, at least a portion of the source object image, and at least a portion of the synthesis target object image in an angle of view of the virtual camera in which the image synthesis system is disposed in the virtual space. The fourth sub-step of generating a; characterized in that comprises a.
본 발명의 실시예에 따른 카메라워크 기반 영상합성방법에 있어서, 상기 합성대상 동적 비디오 클립을 검색하는 단계는, 상기 영상합성 시스템이 상기 소스 자동촬영 비디오 컨텐츠의 출연자와 온라인 상의 사회적 관계가 있는 다른 출연자가 출연한 상기 자동촬영 비디오 컨텐츠를 우선적으로 검색하는 것을 특징으로 한다.In the camera-walk-based image synthesis method according to an embodiment of the present invention, the step of searching for the dynamic video clip to be synthesized, the image synthesis system is another performer having an online social relationship with the performer of the source auto-shoot video content Search for the auto-captured video content which appeared in the first place.
본 발명에 따른 카메라워크 기반 영상합성 시스템 및 영상합성방법은, 카메라 제어 파라미터의 유사도를 통해 소스 자동촬영 비디오 컨텐츠의 소스 동적 비디오 클립과 유사한 동적 카메라워크를 갖는 다른 합성대상 동적 비디오 클립을 자동으로 검색하여 소스 객체영상과 합성대상 객체영상을 합성한 합성 비디오 클립을 자동으로 생성함으로써, 동적인 카메라워크를 갖는 고품질의 합성 비디오 클립을 위화감없이 생성할 수 있고, 다수의 UGC 등의 비디오 컨텐츠들 중에서 유사한 카메라워크를 갖는 비디오 컨텐츠를 검색하기 위해 소요되는 시간과 노력을 제거할 수 있고, 이미 제작이 완료되어 공개된 비디오 컨텐츠에 새로운 출연자를 객체합성의 방법으로 추가하여 새로운 합성 비디오 컨텐츠로 재생산함으로써 컨텐츠 소비자의 지속적인 관심을 유발하여 기제작된 비디오 컨텐츠의 생명력을 연장하는 효과를 제공한다.The camerawalk based image synthesis system and image synthesis method according to the present invention automatically search for another composite target dynamic video clip having a dynamic camera walk similar to the source dynamic video clip of the source auto-shoot video content through the similarity of camera control parameters. By automatically creating a composite video clip that synthesizes the source object image and the target object image, a high quality composite video clip having dynamic camerawork can be generated without discomfort and can be similar among a number of video contents such as UGC. Content consumers can eliminate the time and effort required to search for video content with camerawalks, and recreate it as new composite video content by adding new performers to the video content that has already been produced and published to the public, in a method of object synthesis. Continuous attention To prolong the vitality of the prebuilt video content.
본 발명의 실시예에 따른 카메라워크 기반 영상합성 시스템 및 영상합성방법은, 소스 동적 비디오 클립과 유사한 동적 카메라워크의 범주에 속하는 합성대상 동적 비디오 클립들을 각각 포함하는 복수의 합성대상 컨텐츠들에서 합성대상 객체를 추출하여 단일의 합성영상으로 생성함으로써 예컨대 단일의 출연자가 각각 출연한 비디오 컨텐츠들을 합성하여 복수의 출연자들이 출연하는 동적 카메라워크의 합성영상을 생성하는 효과를 제공한다.Camerawalk-based image synthesis system and image synthesis method according to an embodiment of the present invention, the synthesis target in a plurality of composite target content each comprising a target video object video composition belonging to the category of dynamic camera walk similar to the source dynamic video clip By extracting an object and generating it as a single composite image, for example, a single performer synthesizes video contents each appeared, thereby providing an effect of generating a composite image of a dynamic camera walk in which a plurality of performers appear.
본 발명의 실시예에 따른 카메라워크 기반 영상합성 시스템 및 영상합성방법은, 소스 자동촬영 비디오 컨텐츠에 대한 사용자의 합성요청에 따라 복수의 동적 카메라워크 촬영 구간들을 각각 소스 동적 비디오 클립으로 추출하고 각 구간의 카메라워크와 유사범위에 있는 합성대상 동적 비디오 클립들을 모두 포함하는 합성대상 비디오 컨텐츠를 검색하여 각 구간별로 합성함으로써 소스 자동촬영 비디오 컨텐츠의 모든 동적촬영 구간에 대해 자동으로 객체합성을 수행하는 효과를 제공한다.Camera walk-based image synthesis system and image synthesis method according to an embodiment of the present invention, according to the user's synthesis request for the source auto-shooting video content, extracts a plurality of dynamic camera walk shooting section as a source dynamic video clip and each section The object synthesis is automatically performed for all dynamic shooting sections of the source auto-shooting video content by searching and compositing the synthesis-target video content including all the dynamic video clips in the range similar to the camera walk of the camera. to provide.
본 발명의 실시예에 따른 카메라워크 기반 영상합성 시스템 및 영상합성방법은, 사용자가 선택한 새로운 배경영상을 입력받아 소스 객체영상 및 합성대상 객체영상을 합성하여 합성 비디오 클립을 생성함으로써 소스 비디오 컨텐츠와 비교하여 변화의 폭이 큰 재생산된 합성영상을 생성하여 컨텐츠 소비자가 식상하지 않는 비디오 컨텐츠를 지속적으로 공급하는 효과를 제공한다.Camera walk-based image synthesis system and image synthesis method according to an embodiment of the present invention, by receiving a new background image selected by the user to synthesize the source object image and the target object image to generate a composite video clip to compare with the source video content By creating a reproduced composite image with a large range of changes, it provides an effect of continuously supplying video content that content consumers do not eat.
본 발명의 실시예에 따른 카메라워크 기반 영상합성 시스템 및 영상합성방법은, 평면적인 배경화면을 곡률을 갖는 입체적인 형상의 배경투영면에 투영하고 소스 객체영상과 합성대상 객체영상을 합성함으로써, 동적 카메라워크에 따라 배경영상이 객체영상들과 적절한 원근감을 가지며 변화하는 고품질의 합성영상을 생성하는 효과를 제공한다.Camera walk-based image synthesis system and image synthesis method according to an embodiment of the present invention, by projecting a planar background to a three-dimensional background projection surface having a curvature, by synthesizing the source object image and the target object image, dynamic camera walk As a result, the background image has an appropriate perspective with the object images, thereby creating a high quality composite image that changes.
본 발명의 실시예에 따른 카메라워크 기반 영상합성 시스템 및 영상합성방법은, 소스 자동촬영 비디오 컨텐츠의 출연자와 온라인 상의 사회적 관계가 있는 다른 출연자가 출연한 상기 자동촬영 비디오 컨텐츠를 우선적으로 검색하여 합성함으로써 사용자 맞춤형 합성 비디오 컨텐츠를 자동으로 제작하는 효과를 제공한다.Camera walk-based image synthesis system and image synthesis method according to an embodiment of the present invention, by first searching and synthesizing the auto-shoot video content from the performer of the source auto-shoot video content and other performers with a social relationship online Provides the effect of automatically creating custom composite video content.
본 발명의 다른 실시예에 따른 카메라워크 기반 영상합성 시스템 및 영상합성방법은, 저장모듈에 컨텐츠 장르정보를 자동촬영 비디오 컨텐츠와 연관하여 더 저장하고, 소스 자동촬영 비디오 컨텐츠와 동일한 컨텐츠 장르정보를 갖는 자동촬영 비디오 컨텐츠의 동적 비디오 클립을 합성대상 동적 비디오 클립으로 우선 검색함으로써 사용자가 자동촬영 비디오 컨텐츠의 속성을 직접 감상하고 확인하지 않아도 동일한 장르속성을 공유하는 비디오 컨텐츠간 자동합성하는 효과를 제공한다.Camera walk-based image synthesis system and image synthesis method according to another embodiment of the present invention, and further stores the content genre information associated with the auto-shoot video content in the storage module, and has the same content genre information as the source auto-shoot video content By first searching the dynamic video clip of the auto-shoot video content as the dynamic video clip to be synthesized, it provides an effect of automatically synthesizing the video content sharing the same genre attribute without the user directly watching and checking the property of the auto-shoot video content.
본 발명의 다른 실시예에 따른 카메라워크 기반 영상합성 시스템 및 영상합성방법은, 저장모듈에 배경음악 정보를 자동촬영 비디오 컨텐츠와 연관하여 더 저장하고, 소스 자동촬영 비디오 컨텐츠와 동일한 배경음악 정보를 갖는 자동촬영 비디오 컨텐츠와 동적 비디오 클립을 합성대상 동적 비디오 클립으로 우선검색함으로써 예컨대 동일 음악을 배경음악으로 사용하여 가창 또는 기악 퍼포먼스를 각각 수행하는 비디오 컨텐츠들을 자연스럽게 합성하여 합창 또는 협연하는 합성 비디오 클립을 생성하는 효과를 제공한다.Camera walk-based image synthesis system and image synthesis method according to another embodiment of the present invention, the background music information is further stored in the storage module associated with the auto-shoot video content, and has the same background music information as the source auto-shoot video content By prioritizing auto-shoot video content and dynamic video clips as the target dynamic video clip, a composite video clip is created by chorusing or collaborating by naturally synthesizing video content that performs a song or instrumental performance, for example, using the same music as background music. To provide the effect.
본 발명의 다른 실시예에 따른 카메라워크 기반 영상합성 시스템 및 영상합성방법은, 저장모듈에 업로드 시점 정보를 자동촬영 비디오 컨텐츠와 연관하여 더 저장하고, 소스 자동촬영 비디오 컨텐츠의 업로드 시점과 가까운 시기의 업로드 시점 정보를 갖거나 가장 최근의 업로드 시점 정보를 갖는 자동촬영 비디오 컨텐츠의 동적 비디오 클립을 합성대상 동적 비디오 클립으로 우선검색함으로써 비슷한 시기에 업로드된 비디오 컨텐츠를 합성하거나 가장 최신 비디오 컨텐츠를 합성하는 효과를 제공할 수 있다.Camera walk-based image synthesis system and image synthesis method according to another embodiment of the present invention, the storage module further stores the upload time information in association with the auto-shoot video content, and at a time close to the upload time of the source auto-shoot video content Synthesizing video content uploaded at similar times or synthesizing the most recent video content by prioritizing dynamic video clips of auto-shoot video content with upload time information or with the most recent upload time information as composite dynamic video clips. Can be provided.
본 발명의 다른 실시예에 따른 카메라워크 기반 영상합성 시스템 및 영상합성방법은, 저장모듈에 업로드 사용자간 또는 비디오 출연자간의 온라인 상의 사회적 관계를 더 저장하고, 소스 자동촬영 비디오 컨텐츠의 업로드 사용자 또는 비디오 출연자와 온라인 상의 사회적 관계를 갖는 업로드 사용자 또는 비디오 출연자의 자동촬영 비디오 컨텐츠의 동적 비디오 클립을 합성대상 동적 비디오 클립으로 우선검색함으로써 사용자 관계기반의 합성 비디오 클립을 생성하는 효과를 제공할 수 있다.Camera walk-based video synthesis system and image synthesis method according to another embodiment of the present invention, the storage module further stores the online social relationship between upload users or video performers, uploading user or video performer of the source auto-shoot video content The user may provide an effect of generating a composite video clip based on the user relationship by first searching the dynamic video clip of the auto-shooting video content of the uploading user or the video performer having a social relationship online with the composite target dynamic video clip.
도 1은 본 발명에 따른 영상합성 시스템을 도시하는 구성도.1 is a block diagram showing an image synthesis system according to the present invention.
도 2는 본 발명의 실시예에 따른 자동제어 카메라를 도시하는 구성도.2 is a block diagram showing an automatic control camera according to an embodiment of the present invention.
도 3은 본 발명의 실시예에 따른 카메라 제어 파리미터의 데이터 구조도.3 is a data structure diagram of a camera control parameter according to an embodiment of the present invention.
도 4는 본 발명의 실시예에 따른 자동촬영 비디오 컨텐츠의 비디오 클립 구조도.4 is a video clip structure diagram of auto-shoot video content according to an embodiment of the present invention;
도 5는 본 발명의 실시예에 따른 사용자 단말기에서의 객체 합성요청 입력 인터페이스의 예시도.5 is an exemplary diagram of an object composition request input interface in a user terminal according to an embodiment of the present invention.
도 6은 본 발명의 실시예에 따른 영상합성을 도시하는 구성도.6 is a block diagram showing image synthesis according to an embodiment of the present invention.
도 7은 본 발명에 따른 영상합성방법을 도시하는 흐름도.7 is a flowchart illustrating an image synthesis method according to the present invention.
본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정 해석되지 않고 자신의 발명을 최선의 방법으로 설명하기 위해 발명자가 용어와 개념을 정의할 수 있는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 한다.The terms or words used in the present specification and claims are not to be construed as being limited to ordinary or dictionary meanings, and the inventors may define terms and concepts in order to explain their invention in the best way. It should be interpreted as meanings and concepts that correspond to technical ideas.
따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 바람직한 일 실시예에 해당하며, 본 발명의 기술적 사상을 모두 대변하는 것이 아니므로 해당 구성은 본 발명의 출원시점에서 이를 대체할 다양한 균등물과 변형예가 있을 수 있다.Therefore, the configuration shown in the embodiments and drawings described in this specification corresponds to a preferred embodiment of the present invention, and does not represent all of the technical spirit of the present invention, the configuration will be replaced at the time of filing of the present invention. There may be various equivalents and variations.
명세서 전반에서 어떠한 부분이 어떤 구성요소를 “포함”한다는 기재는, 이에 대한 특별한 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한 명세서에 기재된 “..모듈”, “..부”, “..시스템” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있으며, 하나의 장치 또는 각각 다른 장치에 포함될 수 있다.Throughout the specification, the description that a part “includes” an element means that the element may further include other elements, except for the absence of a special objection thereto. In addition, the terms “.. module”, “.. unit” and “.. system” described in the specification mean a unit that processes at least one function or operation, which is hardware or software or a combination of hardware and software. It may be implemented, and may be included in one device or each other device.
이하에서는 도면을 참조하여 본 발명에 따른 카메라워크 기반 영상합성 시스템(100) 및 영상합성방법을 설명한다. 본 발명에 따른 카메라워크 기반 영상합성 시스템(100)은 도 1에 도시된 바와 같이 저장모듈(110), 컨텐츠 제공모듈(120), 검색모듈(130) 및 합성모듈(140)을 포함하여 구성된다.Hereinafter, a camera walk based image synthesis system 100 and an image synthesis method according to the present invention will be described with reference to the drawings. Camera walk based image synthesis system 100 according to the present invention is configured to include a storage module 110, the content providing module 120, the search module 130 and the synthesis module 140 as shown in FIG. .
저장모듈(110)은 팬 제어, 틸트 제어 또는 무빙 제어 중 적어도 어느 하나의 카메라 제어 파라미터에 의해 제어되는 자동제어 카메라(301)에 의해 촬영된 구간인 동적 비디오 클립을 포함하는 복수의 자동촬영 비디오 컨텐츠들을 상기 카메라 제어 파라미터와 연관하여 저장하는 기능을 수행한다. The storage module 110 includes a plurality of auto-captured video contents including a dynamic video clip which is a section captured by the auto control camera 301 controlled by at least one camera control parameter of pan control, tilt control or moving control. And store them in association with the camera control parameters.
저장모듈(110)은 데이터를 저장하는 통상의 저장장치일 수 있으며, 광학적 저장장치, 자기적 저장장치, 반도체 저장장치 등을 예시할 수 있다. 저장모듈(110)은 영상합성 시스템(100)의 내부에 설치되는 저장장치일 수도 있고, 네트워크를 통해 연결되는 저장장치일 수도 있다.The storage module 110 may be a conventional storage device for storing data, and may include an optical storage device, a magnetic storage device, a semiconductor storage device, and the like. The storage module 110 may be a storage device installed in the image synthesis system 100 or may be a storage device connected through a network.
카메라 제어 파라미터는 제어 대상인 자동제어 카메라(301)를 기계적인 방법으로 위치를 변화하거나 기계적인 방법으로 카메라의 지향점을 변경시키기 위한 제어명령을 의미한다. 예컨대 도 2에 도시된 바와 같이 카메라 제어 파라미터의 특정 시간구간에서의 카메라 이동 제어에 따라 자동제어 카메라(301)는 레일을 따라 수평방향 또는 수직방향으로 이동한다. 카메라 제어 파라미터의 특정 시간구간에서의 패닝 제어에 따라 자동제어 카메라(301)는 좌우 방향으로 회전하여 카메라 지향각이 변화한다. 카메라 제어 파라미터의 특정 시간구간에서의 틸트 제어에 따라 자동제어 카메라(301)는 상하 방향으로 회전하여 카메라 지향각이 변화한다. 카메라 제어 파라미터는 물론 줌 제어를 통해 자동제어 카메라(301)의 줌을 조절할 수도 있다. 하지만 줌의 변화는 자동제어 카메라(301)의 지향점을 변화시키지 않고 피사체 화상의 크기를 변화시키는 것이기 때문에 영상합성에 있어서 소스 객체영상(431)을 촬영한 자동제어 카메라(301)의 줌의 변화에 따라 합성대상 객체영상(432)의 크기를 작게 하는 방법으로 용이하게 합성영상을 생성할 수 있기 때문에 본 발명의 동적 비디오 클립은 줌 제어만 적용된 비디오 클립은 포함하지 않는다.The camera control parameter refers to a control command for changing the position of the automatic control camera 301 to be controlled in a mechanical manner or changing the direction of the camera in a mechanical manner. For example, as shown in FIG. 2, the automatic control camera 301 moves horizontally or vertically along a rail according to camera movement control in a specific time interval of the camera control parameter. According to the panning control in a specific time interval of the camera control parameter, the automatic control camera 301 rotates in the left and right directions so that the camera orientation angle changes. According to the tilt control in a specific time interval of the camera control parameter, the automatic control camera 301 rotates in the vertical direction to change the camera orientation angle. In addition to the camera control parameters, the zoom of the automatic control camera 301 may be adjusted through the zoom control. However, since the change of the zoom changes the size of the subject image without changing the directing point of the automatic control camera 301, the zoom change of the automatic control camera 301 capturing the source object image 431 in the image synthesis is changed. Accordingly, since the composite image can be easily generated by reducing the size of the synthesis target object image 432, the dynamic video clip of the present invention does not include a video clip to which only the zoom control is applied.
동적 비디오 클립은 전술한 바와 같이 팬 제어된 자동제어 카메라(301), 틸트 제어된 자동제어 카메라(301), 무빙 제어된 자동제어 카메라(301) 또는 팬과 틸트가 동시에 제어된 자동제어 카메라(301)와 같이 팬, 틸트, 무빙의 조합으로 제어된 자동제어 카메라(301)에 의해 촬영된 자동촬영 비디오 컨텐츠의 시간 구간을 의미한다. 도 4에 도시된 바와 같이 7분 길이의 자동촬영 비디오 컨텐츠 중에서 0분에서 1분까지 무빙 제어되어 촬영된 부분이 있고, 3분에서 4분까지 팬 제어되어 촬영된 부분이 있고, 6분에서 7분까지 무빙 및 팬 제어되어 촬영된 부분이 있고, 나머지 구간인 1분에서 3분, 4분에서 6분에서는 고정된 자동제어 카메라(301)로 촬영된 부분이 있는 경우, 자동촬영 비디오 컨텐츠는 세 개의 동적 비디오 클립을 포함한다.The dynamic video clip may be a pan controlled autonomous camera 301, a tilt controlled autonomous camera 301, a moving controlled autonomous camera 301, or a pan and tilt controlled autonomous camera 301. ) Means a time section of the auto-captured video content captured by the auto-control camera 301 controlled by a combination of pan, tilt, and moving. As shown in FIG. 4, some of the 7-minute auto-captured video contents are photographed by moving control from 0 to 1 minutes, and are captured by fan control from 3 to 4 minutes, and 6 to 7 minutes. If there are moving parts taken by moving and pan-controlled up to the minute, and there are parts captured by the fixed automatic control camera 301 at 1 to 3 minutes and 4 to 6 minutes on the remaining sections, the auto-shoot video content is Contains dynamic video clips.
동적 비디오 클립이 아닌 부분은 정적 비디오 클립으로서 시간에 따른 카메라워크의 변화를 수반하지 않기 때문에 종래의 영상합성 방법으로 용이하게 합성영상을 만들 수 있다.Since the portion that is not the dynamic video clip is a static video clip and does not involve changes in camerawork with time, a composite image can be easily produced by a conventional image synthesis method.
한편 본 발명에서의 자동촬영 비디오 컨텐츠는 제어명령에 의해 촬영위치 또는 촬영각도가 제어되는 자동제어 카메라(301)에 의해 촬영된 비디오 컨텐츠를 의미하며, 예컨대 촬영자의 손에 들린 카메라에 의해 촬영된 비디오 컨텐츠는 본 발명의 자동촬영 비디오 컨텐츠에 해당하지 않는다.Meanwhile, the auto-captured video content in the present invention refers to video content photographed by the automatic control camera 301 in which the photographing position or the photographing angle is controlled by a control command. For example, video captured by the camera held in the hands of the photographer The content does not correspond to the auto-shoot video content of the present invention.
도 2는 카메라 자동제어 시스템을 예시한다. 본 특허출원의 출원인에 의해 출원된 실용신안출원 제2016-0004490호 “무대 겸용 스튜디오 제어 시스템”은 이러한 카메라 자동제어 시스템의 실시예를 개시한다. 본 발명의 자동제어 카메라(301)는 도 2의 실시예에만 한정되는 것은 아니고 로봇 암에 탑재된 카메라 시스템, 지상이동장치에 탑재된 카메라 시스템, 공중 드론에 탑재된 카메라 시스템 등이 이에 해당할 수 있다.2 illustrates a camera automatic control system. Utility Model Application No. 2016-0004490, “Stage and Studio Control System,” filed by the applicant of the present patent application discloses an embodiment of such a camera automatic control system. The automatic control camera 301 of the present invention is not limited to the embodiment of FIG. 2 but may be a camera system mounted on a robot arm, a camera system mounted on a ground mobile device, a camera system mounted on an aerial drone, or the like. have.
자동제어 카메라(301)는 각 시간대별 카메라 제어를 위해 수치화된 데이터인 카메라 제어 파라미터를 사용한다. 도 3은 이러한 카메라 제어 파라미터의 구성예를 도시한다. 카메라 제어 파라미터는 적어도 타임스탬프와 해당 타임스탬프에서 카메라의 위치정보 또는 카메라의 지향각정보를 포함한다. 영상합성 시스템(100)은 카메라 제어 파라미터를 통해 자동촬영 비디오 컨텐츠의 특정구간이 동적 비디오 클립에 해당하는지 정적 비디오 클립에 해당하는지 판단한다. 예컨대 특정 타임스탬프에서 직전 선행 타임스탬프와 비교하여 카메라의 위치정보 또는 카메라의 지향각정보가 변화한 경우 해당 타임스탬프는 동적 비디오 클립에 포함되는 것으로 판단할 수 있다. 다른 방법으로는 특정한 시간구간 동안 카메라의 위치정보 또는 카메라의 지향각정보의 변화율이 설정치 이상인 경우 해당 시간구간은 동적 비디오 클립에 포함되는 것으로 판단할 수 있다. 이는 특정 시간구간에서 연속적으로 카메라의 위치정보가 변화하다가 예컨대 1초 정도 짧은 시간동안 카메라가 정지하고 다시 카메라의 위치정보가 변화한 경우 잠깐의 카메라의 이동 정지시점을 기준으로 2개의 동적 비디오 클립으로 구분하는 것 보다는 잠깐의 카메라의 이동 정지시점을 무시하고 1개의 동적 비디오 클립으로 판단하는 것이 영상합성 처리에 효율적이기 때문이다.The automatic control camera 301 uses camera control parameters, which are digitized data, for camera control for each time zone. 3 shows a configuration example of such a camera control parameter. The camera control parameter includes at least a timestamp and location information of the camera or orientation angle information of the camera at the corresponding timestamp. The image synthesis system 100 determines whether a specific section of the auto-capture video content corresponds to a dynamic video clip or a static video clip through camera control parameters. For example, when the positional information of the camera or the orientation angle information of the camera changes in comparison with the previous preceding timestamp at a specific timestamp, it may be determined that the corresponding timestamp is included in the dynamic video clip. Alternatively, if the rate of change of the camera position information or the camera's orientation angle information for a particular time period is greater than or equal to the set value, the time period may be determined to be included in the dynamic video clip. This means that if the camera's location information continuously changes over a certain time period, for example, when the camera stops for a short time of about 1 second, and the camera's location information changes again, two dynamic video clips are displayed based on the brief stop movement of the camera. This is because it is more efficient for the image synthesis process to judge a single dynamic video clip by ignoring the momentary stop of camera movement rather than distinguishing.
저장모듈(110)은 복수의 자동촬영 비디오 컨텐츠들을 저장하며, 예컨대 복수의 사용자들이 웹서버에 접속하여 자신이 출연 또는 제작한 자동촬영 비디오 컨텐츠들을 업로드한다. 이때 자동촬영 비디오 컨텐츠와 함께 해당 자동촬영 비디오 컨텐츠의 촬영에 사용된 카메라 제어 파라미터가 연관하여 저장된다. 예컨대 자동촬영 비디오 컨텐츠의 식별정보를 통해 해당하는 카메라 제어 파라미터를 검색할 수 있도록 구성할 수도 있고, 자동촬영 비디오 컨텐츠의 컴퓨터 파일이 카메라 제어 파라미터를 포함하도록 구성할 수도 있다. 이때 자동촬영 비디오 컨텐츠들은 반드시 동일한 자동촬영 카메라 시스템을 통해 촬영될 필요는 없다. 동일한 자동촬영 카메라 시스템을 통해 촬영된 자동촬영 비디오 컨텐츠들은 카메라 제어 파라미터의 형태가 동일하게 때문에 서로 유사성을 판단하기 용이하다. 서로 다른 자동촬영 카메라 시스템을 통해 촬영된 자동촬영 비디오 컨텐츠들은 서로 상이한 형태의 카메라 제어 파라미터를 사용할 수 있다. 이 경우 영상합성 시스템(100)은 서로 다른 형태의 카메라 제어 파라미터를 표준화된 형태로 변경하여 저장할 수 있다.The storage module 110 stores a plurality of auto-shoot video contents, for example, a plurality of users access the web server to upload the auto-shoot video contents produced or produced by the user. At this time, the camera control parameters used to capture the auto-shoot video content together with the auto-shoot video content are stored in association with each other. For example, a corresponding camera control parameter may be retrieved through identification information of the auto-shoot video content, or the computer file of the auto-shoot video content may be configured to include a camera control parameter. The auto-shoot video content does not necessarily need to be captured by the same auto-shoot camera system. Auto-shoot video content shot through the same auto-shoot camera system is easy to determine similarity with each other because of the same type of camera control parameter. Auto-shoot video content shot through different auto-shoot camera systems may use different types of camera control parameters. In this case, the image synthesis system 100 may change and store different types of camera control parameters into a standardized form.
컨텐츠 제공모듈(120)은 복수의 자동촬영 비디오 컨텐츠들 중 어느 하나의 소스 자동촬영 비디오 컨텐츠(contents_source)를 통신망을 통해 사용자 단말기(200)에게 제공하는 기능을 수행한다. 컨텐츠 제공모듈(120)은 종래의 유투브(YouTube), 비메오(Vimeo) 등의 동영상 공유 웹서버와 같이 컨텐츠 검색 또는 컨텐츠 추천 등의 방법으로 사용자가 원하는 비디오 컨텐츠를 제공하는 웹서비스 서버를 예시할 수 있다. 소스 자동촬영 비디오 컨텐츠(contents_source)는 저장모듈(110)이 저장한 복수의 자동촬영 비디오 컨텐츠들 중에서 사용자에게 제공되어 합성 비디오 컨텐츠(contents_composite)의 제작에 사용될 자동촬영 비디오 컨텐츠를 의미한다.The content providing module 120 performs a function of providing one of the plurality of auto-captured video contents to the user terminal 200 through the communication network. The content providing module 120 may exemplify a web service server that provides a user's desired video content by a method such as content search or content recommendation, such as a video sharing web server such as YouTube and Vimeo. Can be. Source auto-capture video content (contents_source) refers to auto-capture video content that is provided to a user from among a plurality of auto-capture video contents stored by the storage module 110 and used for the production of the composite video content (contents_composite).
검색모듈(130)은 소스 자동촬영 비디오 컨텐츠(contents_source)의 소스 동적 비디오 클립(clip_dynamic_source)에 대한 객체 합성요청을 사용자 단말기(200)로부터 수신하고, 소스 동적 비디오 클립(clip_dynamic_source)의 카메라 제어 파라미터를 레퍼런스 제어 파라미터(parameter_ref)로 취득하고, 레퍼런스 제어 파라미터(parameter_ref)와 동일 또는 유사한 카메라 제어 파라미터인 정합 제어 파라미터(parameter_match)를 갖는 합성대상 자동촬영 비디오 컨텐츠(contents_add)의 합성대상 동적 비디오 클립(clip_dynamic_add)을 검색하는 기능을 수행한다.The search module 130 receives an object synthesis request for the source dynamic video clip clip_dynamic_source of the source auto-capture video content content_source from the user terminal 200 and references the camera control parameter of the source dynamic video clip clip_dynamic_source. The composite target dynamic video clip (clip_dynamic_add) of the composite target auto-shoot video content (contents_add) obtained as a control parameter (parameter_ref) and having a matching control parameter (parameter_match) that is the same or similar to the reference control parameter (parameter_ref). Perform a search function.
사용자 단말기(200)는 도 5에 도시된 바와 같이 예컨대 웹브라우저 또는 동영상 뷰어 애플리케이션 상에서 소스 자동촬영 비디오 컨텐츠(contents_source)를 플레이하는 중에 객체 합성요청 아이콘(201)을 클릭하는 방법으로 검색모듈(130)에게 객체 합성요청을 전송할 수 있다. 이러한 객체 합성요청은 소스 동적 비디오 클립(clip_dynamic_source)에 대한 합성요청일 수도 있고 실시예에 따라서는 소스 자동촬영 비디오 컨텐츠(contents_source)에 대한 합성요청일 수도 있다.As illustrated in FIG. 5, the user terminal 200 may search for the object synthesis request icon 201 by clicking on the object synthesis request icon 201 while playing the source auto-capture video content on a web browser or a video viewer application. You can send an object composition request. Such an object synthesis request may be a synthesis request for a source dynamic video clip (clip_dynamic_source), or in some embodiments, may be a synthesis request for source auto-photographed video contents (contents_source).
검색모듈(130)은 소스 자동촬영 비디오 컨텐츠(contents_source)를 제외한 다수의 자동촬영 비디오 컨텐츠들 중에서 레퍼런스 제어 파라미터(parameter_ref)와 동일하거나 유사한 범주의 카메라 제어 파라미터를 갖는 동적 비디오 클립을 포함하는 자동촬영 비디오 컨텐츠를 검색한다. 이때 복수의 자동촬영 비디오 컨텐츠의 동적 비디오 클립들이 검색될 수도 있고, 하나의 자동촬영 비디오 컨텐츠에서 복수의 동적 비디오 클립들이 검색될 수도 있다. 검색모듈(130)은 사용자 설정 또는 시스템 설정에 따라 검색된 복수의 동적 비디오 클립들 중에서 합성대상 동적 비디오 클립(clip_dynamic_add)을 하나 또는 복수 개 선정할 수 있다. 최종적인 합성대상 동적 비디오 클립(clip_dynamic_add)을 선정하기 위한 방법은 다양하게 구현될 수 있다. 실시예에 따라서는 사용자 단말기(200)에게 복수의 동적 비디오 클립들 또는 복수의 자동촬영 비디오 컨텐츠들의 추천목록을 제공하여 사용자의 선택을 받아 합성대상 동적 비디오 클립(clip_dynamic_add)을 선정할 수 있다. 다른 실시예에 따르면 예컨대 비디오 컨텐츠의 장르, 비디오 컨텐츠의 배경음악, 비디오 컨텐츠의 촬영 시점 또는 업로드 시점 등의 합성대상 동적 비디오 클립(clip_dynamic_add)의 속성들 또는 예컨대 업로드 사용자간의 온라인 상의 사회적 관계, 비디오 출연자간의 온라인 상의 사회적 관계 등의 비디오 클립의 업로드 사용자 또는 출연자의 속성들을 개별적 또는 복합적으로 고려하여 검색모듈(130)은 합성대상 동적 비디오 클립(clip_dynamic_add)을 우선적으로 검색할 수 있다.The retrieval module 130 includes an auto-shooting video including a dynamic video clip having a camera control parameter of the same or similar category as the reference control parameter (parameter_ref) among a plurality of auto-shooting video contents except the source auto-shooting video contents (contents_source). Search for content. In this case, dynamic video clips of the plurality of autophotographed video contents may be searched, or a plurality of dynamic video clips may be searched in one autophotographed video content. The search module 130 may select one or more synthesis video clips clip_dynamic_add from among a plurality of searched dynamic video clips according to a user setting or a system setting. Various methods for selecting the final synthesis target video clip clip_dynamic_add may be implemented. According to an exemplary embodiment, the user terminal 200 may provide a recommendation list of a plurality of dynamic video clips or a plurality of auto-captured video contents to select a synthesis target video clip clip_dynamic_add according to a user's selection. According to another embodiment, attributes of the composite dynamic video clip clip_dynamic_add, such as the genre of the video content, the background music of the video content, the time of shooting or uploading the video content, or online social relations between upload users, for example, the video performer Uploading a video clip such as an online social relationship between the users or performers in consideration of the properties individually or in combination, the search module 130 may first search for the synthesized dynamic video clip (clip_dynamic_add).
컨텐츠 장르를 고려하는 실시예에 따르면 저장모듈(110)은 컨텐츠 장르정보를 자동촬영 비디오 컨텐츠와 연관하여 더 저장하고, 소스 자동촬영 비디오 컨텐츠(contents_source)와 동일한 컨텐츠 장르정보를 갖는 자동촬영 비디오 컨텐츠의 동적 비디오 클립을 합성대상 동적 비디오 클립(clip_dynamic_add)으로 우선 검색함으로써 사용자가 자동촬영 비디오 컨텐츠의 속성을 직접 감상하고 확인하지 않아도 동일한 장르속성을 공유하는 비디오 컨텐츠간 자동합성하는 효과를 제공할 수 있다.According to an embodiment considering the content genre, the storage module 110 further stores the content genre information in association with the auto-shoot video content, and stores the content genre information of the auto-shoot video content having the same content genre information as the source auto-shoot video content (contents_source). By first searching the dynamic video clip as the composition target dynamic video clip (clip_dynamic_add), it is possible to provide an effect of automatically synthesizing video content sharing the same genre attribute without the user having to directly view and confirm the property of the auto-captured video content.
배경음악을 고려하는 실시예에 따르면 저장모듈(110)은 배경음악 정보를 자동촬영 비디오 컨텐츠와 연관하여 더 저장하고, 소스 자동촬영 비디오 컨텐츠(contents_source)와 동일한 배경음악 정보를 갖는 자동촬영 비디오 컨텐츠의 동적 비디오 클립을 합성대상 동적 비디오 클립(clip_dynamic_add)으로 우선검색함으로써 예컨대 동일 음악을 배경음악으로 사용하여 가창 또는 기악 퍼포먼스를 각각 수행하는 비디오 컨텐츠들을 자연스럽게 합성하여 합창 또는 협연하는 합성 비디오 클립(clip_dynamic_composite)을 생성하는 효과를 제공할 수 있다.According to an embodiment that considers the background music, the storage module 110 further stores the background music information in association with the auto recording video content, and stores the background music information of the auto recording video content having the same background music information as the source auto recording video content (contents_source). By prioritizing the dynamic video clip as a composite dynamic video clip (clip_dynamic_add), for example, a composite video clip (clip_dynamic_composite) that naturally synthesizes video content performing a song or instrumental performance by using the same music as background music, and chorus or concert is performed. It can provide the effect to create.
업로드 시점을 고려하는 실시예에 따르면 저장모듈(110)은 업로드 시점 정보를 자동촬영 비디오 컨텐츠와 연관하여 더 저장하고, 소스 자동촬영 비디오 컨텐츠(contents_source)의 업로드 시점과 가까운 시기의 업로드 시점 정보를 갖거나 가장 최근의 업로드 시점 정보를 갖는 자동촬영 비디오 컨텐츠의 동적 비디오 클립을 합성대상 동적 비디오 클립(clip_dynamic_add)으로 우선검색함으로써 비슷한 시기에 업로드된 비디오 컨텐츠를 합성하거나 가장 최신 비디오 컨텐츠를 합성하는 효과를 제공할 수 있다.According to an embodiment considering the upload time, the storage module 110 further stores the upload time information in association with the auto-shoot video content, and has upload time information of a time close to the upload time of the source auto-shoot video content contents_source. Dynamic video clips of auto-shoot video content with the latest or most recent upload time information to be synthesized with dynamic video clips (clip_dynamic_add). can do.
온라인 상의 사회적 관계를 고려하는 실시예에 따르면 저장모듈(110)은 업로드 사용자간 또는 비디오 출연자간의 온라인 상의 사회적 관계를 더 저장하고, 소스 자동촬영 비디오 컨텐츠(contents_source)의 업로드 사용자 또는 비디오 출연자와 온라인 상의 사회적 관계를 갖는 업로드 사용자 또는 비디오 출연자의 자동촬영 비디오 컨텐츠의 동적 비디오 클립을 합성대상 동적 비디오 클립(clip_dynamic_add)으로 우선검색함으로써 사용자 관계기반의 합성 비디오 클립(clip_dynamic_composite)을 생성하는 효과를 제공할 수 있다. 이때 온라인 상의 사회적 관계는 예컨대 본 발명의 자동촬영 비디오 컨텐츠를 제공하는 웹서비스 서버 상에서 사용자간의 친구맺기 또는 팬맺기를 통해 구축된 사회적 관계 정보일 수도 있고, 페이스북(facebook), 인스타그램(Instagram) 등과 같은 비디오 컨텐츠 제공 서비스와 독립적인 사회 관계망 서비스로부터 제공받은 사회적 관계 정보일 수 있다.According to an embodiment considering online social relations, the storage module 110 further stores online social relations between uploading users or video performers, and online online with uploading users or video performers of source auto-capture video content (contents_source). It is possible to provide an effect of generating a composite video clip (clip_dynamic_composite) based on a user relationship by first searching a dynamic video clip of an auto-shooting video content of a uploading user or a video performer having a social relationship with the composite target dynamic video clip (clip_dynamic_add). . In this case, the online social relationship may be, for example, social relationship information established through making friends or fans between users on a web service server providing the auto-shooting video content of the present invention. Social relationship information provided from a social network service independent of a video content providing service such as
레퍼런스 제어 파라미터(parameter_ref)는 합성요청의 대상이 된 소스 동적 비디오 클립(clip_dynamic_source)의 카메라 제어 파라미터이고, 정합 제어 파라미터(parameter_match)는 합성의 대상으로 검색모듈(130)이 검색한 합성대상 동적 비디오 클립(clip_dynamic_add)의 카메라 제어 파라미터이다. 검색모듈(130)의 레퍼런스 제어 파리미터와 동일 또는 유사한 정합 제어 파라미터(parameter_match)를 선택하는 기준은 완전한 동일성을 요구하는 것은 아니고 카메라워크가 적용된 합성영상에서 서로 위화감이 발생하지 않는 정도의 동일성을 요구한다. 예컨대 검색모듈(130)은 레퍼런스 제어 파라미터(parameter_ref)의 타임스탬프 정보에 의한 시간구간, 카메라 위치정보, 카메라 각도정보 등 각 파라미터의 10% 차이의 범위에서 정합 제어 파라미터(parameter_match)를 선택할 수 있다.The reference control parameter (parameter_ref) is a camera control parameter of the source dynamic video clip (clip_dynamic_source) that is the target of the synthesis request, and the match control parameter (parameter_match) is the composition target dynamic video clip searched by the search module 130 as a synthesis target. Camera control parameter of (clip_dynamic_add). The criteria for selecting matching control parameters (parameter_match) that are the same as or similar to the reference control parameters of the search module 130 do not require complete identity but require the same degree of incongruity that does not occur with each other in the composite image to which camerawork is applied. . For example, the search module 130 may select a matching control parameter (parameter_match) in a range of 10% difference of each parameter such as time interval, camera position information, and camera angle information based on time stamp information of the reference control parameter parameter_ref.
합성모듈(140)은 적어도 소스 동적 비디오 클립(clip_dynamic_source)의 소스 객체영상(431)과 합성대상 동적 비디오 클립(clip_dynamic_add)의 합성대상 객체영상(432)이 포함되도록 합성 비디오 클립(clip_dynamic_composite)을 생성하는 기능을 수행한다. 카메라 제어 파라미터는 타임스탬프, 카메라 위치정보, 카메라 지향각정보를 포함하는 다양한 파라미터들의 조합으로 구성되며 서로 다른 비디오 컨텐츠에서 그 조합이 동일하게 일치하는 경우는 거의 없다. 따라서 정확한 일치가 아닌 일정 오차범위에서의 동일성이라는 완화된 동일성 조건을 적용해야 한다. 예컨대 카메라가 오른쪽으로 1m 이동하는 데 소요된 시간이 소스 동적 비디오 클립(clip_dynamic_source)은 30초이고 합성대상 동적 비디오 클립(clip_dynamic_add)이 33초라면 이는 10%의 오차범위 내로서 합성모듈(140)은 무빙 카메라워크가 적용된 30초 분량의 합성 비디오 클립(clip_dynamic_composite)을 생성할 수 있다. 카메라가 오른쪽으로 1m 이동하는 데 소요된 시간이 소스 동적 비디오 클립(clip_dynamic_source)은 30초이고 합성대상 동적 비디오 클립(clip_dynamic_add)이 27초라면 이는 10%의 오차범위 내로서 합성모듈(140)은 무빙 카메라워크가 적용된 27초 분량의 합성 비디오 클립(clip_dynamic_composite)을 생성하거나 소스 동적 비디오 클립(clip_dynamic_source)을 90% 속도로 느리게 재생하여 무빙 카메라워크가 적용된 30초 분량의 합성 비디오 클립(clip_dynamic_composite)을 생성할 수 있다.The synthesis module 140 generates a composite video clip clip_dynamic_composite to include at least a source object image 431 of the source dynamic video clip clip_dynamic_source and a synthesis object image 432 of the synthesis target dynamic video clip clip_dynamic_add. Perform the function. The camera control parameter is composed of a combination of various parameters including time stamps, camera position information, and camera orientation angle information, and the combination rarely coincide in different video contents. Therefore, the relaxed equality condition of equality within a certain margin of error should be applied, not exact match. For example, if the time required for the camera to move 1m to the right is 30 seconds for the source dynamic video clip (clip_dynamic_source) and 33 seconds for the target video clip (dynamic clip), the synthesis module 140 may be within an error range of 10%. A 30-second composite video clip (clip_dynamic_composite) with moving camerawork may be generated. If the time required for the camera to move 1m to the right is 30 seconds for the source dynamic video clip (clip_dynamic_source) and 27 seconds for the target dynamic video clip (clip_dynamic_add), it is within an error range of 10% and the synthesis module 140 moves. Create a 27-second composite video clip (clip_dynamic_composite) with camerawork or a 30-second composite video clip (clip_dynamic_composite) with moving camerawork by slowly playing the source dynamic video clip (clip_dynamic_source) at 90% speed. Can be.
다른 예로써 예컨대 10초 동안 카메라가 오른쪽으로 회전한 각도가 소스 동적 비디오 클립(clip_dynamic_source)이 10도이고 합성대상 동적 비디오 클립(clip_dynamic_add)이 11도라면 이는 10%의 오차범위 내로서 합성모듈(140)은 패닝 카메라워크가 적용된 10초 분량의 합성 비디오 클립(clip_dynamic_composite)을 생성할 수 있다.As another example, if the angle of the camera rotated to the right for 10 seconds is 10 degrees for the source dynamic video clip (clip_dynamic_source) and 11 degrees for the target dynamic video clip (clip_dynamic_add), it is within the error range of 10%. ) May generate a 10-second composite video clip clip_dynamic_composite to which panning camerawork is applied.
다른 예로써 예컨대 카메라가 10초 동안 소스 동적 비디오 클립(clip_dynamic_source)을 촬영한 카메라는 오른쪽으로 10도 회전하고 합성대상 동적 비디오 클립(clip_dynamic_add)을 촬영한 카메라는 왼쪽으로 10도 회전한 경우 합성모듈(140)은 합성대상 동적 비디오 클립(clip_dynamic_add)의 합성대상 객체영상(432)을 좌우반전하여 패닝 카메라워크가 적용된 10초 분량의 합성 비디오 클립(clip_dynamic_composite)을 생성할 수 있다.As another example, for example, when a camera shoots a source dynamic video clip (clip_dynamic_source) for 10 seconds, the camera rotates 10 degrees to the right, and a camera shoots a composite dynamic video clip (clip_dynamic_add) 10 degrees to the left. 140 may generate a 10-second composite video clip clip_dynamic_composite to which panning camerawork is applied by inverting the synthesis target object image 432 of the synthesis target video clip clip_dynamic_add.
합성모듈(140)은 다양한 방법으로 합성 비디오 클립(clip_dynamic_composite)을 생성할 수 있다. 예컨대 합성모듈(140)은 소스 동적 비디오 클립(clip_dynamic_source)의 배경영상에 소스 객체영상(431) 및 합성대상 객체영상(432)을 합성하여 합성 비디오 클립(clip_dynamic_composite)을 생성할 수 있다. 이때 합성모듈(140)은 소스 동적 비디오 클립(clip_dynamic_source)의 소스 객체영상(431)을 분리하지 않은 상태에서 합성대상 동적 비디오 클립(clip_dynamic_add)에서 분리된 객체영상을 합성하는 방법으로 합성 비디오 클립(clip_dynamic_composite)을 생성하거나 소스 동적 비디오 클립(clip_dynamic_source)에서 소스 객체영상(431)을 분리하고 합성대상 동적 비디오 클립(clip_dynamic_add)에서 합성대상 객체영상(432)을 분리하여 소스 동적 비디오 클립(clip_dynamic_source)의 배경영상에 두 객체영상들을 재배치하여 합성 비디오 클립(clip_dynamic_composite)을 생성할 수 있다. 객체영상의 분리는 크로마키 촬영된 촬영영상에서 취득하거나 동적 비디오 클립에서 객체의 외곽선 검출을 통해 취득할 수 있다.The synthesis module 140 may generate a composite video clip clip_dynamic_composite in various ways. For example, the synthesis module 140 may generate a composite video clip clip_dynamic_composite by combining the source object image 431 and the synthesis target object image 432 with the background image of the source dynamic video clip clip_dynamic_source. In this case, the composing module 140 synthesizes the object video separated from the composing target dynamic video clip clip_dynamic_add without separating the source object video 431 of the source dynamic video clip clip_dynamic_source. ) Or separates the source object image 431 from the source dynamic video clip (clip_dynamic_source), and separates the composition object image 432 from the synthesized dynamic video clip (clip_dynamic_add) to generate the background image of the source dynamic video clip (clip_dynamic_source). The two object images can be rearranged to generate a composite video clip (clip_dynamic_composite). Separation of the object image may be acquired from a chroma key-photographed captured image or by detecting an outline of an object in a dynamic video clip.
다른 방법으로는 영상합성 시스템(100)은 사용자 단말기(200)로부터 사용자 선택 배경영상을 입력받는 배경영상 입력모듈을 더 포함하여 구성되고, 합성모듈(140)은 사용자 선택 배경영상에 소스 객체영상(431) 및 합성대상 객체영상(432)을 합성하여 합성 비디오 클립(clip_dynamic_composite)을 생성할 수 있다. 이때 배경영상 입력모듈은 예컨대 사용자가 사용자 단말기(200)를 통해 정지영상, 비디오 영상 또는 3D 모델링 데이터 등으로 구성되는 사용자 입력 배경영상을 입력할 수 있는 인터페이스를 제공하고 사용자 단말기(200)로부터 사용자 입력 배경영상을 통신망을 통해 수신할 수 있다. 이러한 실시예에 따르면 합성 비디오 클립(clip_dynamic_composite)은 소스 동적 비디오 클립(clip_dynamic_source)과 비교하여 출연자 등의 합성대상 객체영상(432)이 추가될 뿐 아니라 그 배경도 바뀌기 때문에 컨텐츠 재생산을 통한 변화의 정도를 높이는 효과가 있다.Alternatively, the image synthesis system 100 may further include a background image input module for receiving a user selected background image from the user terminal 200, and the synthesis module 140 may include a source object image in the user selected background image. 431) and the target object image 432 may be synthesized to generate a composite video clip clip_dynamic_composite. In this case, the background image input module provides an interface for allowing a user to input a user input background image including a still image, a video image, or 3D modeling data, for example, through the user terminal 200 and inputs a user from the user terminal 200. The background image may be received through a communication network. According to this embodiment, the composite video clip (clip_dynamic_composite) is compared with the source dynamic video clip (clip_dynamic_source), so that not only the composite object image 432 such as the performer is added but also the background thereof is changed, thereby changing the degree of change through content reproduction. The height is effective.
한편 본 특허출원의 출원인에 의해 출원된 한국특허출원 제2016-0171469호 “영상합성 시스템 및 영상합성방법”은 카메라 시점의 변화에 따라 배경영상과 전경영상이 자연스럽게 합성되도록 가상공간 상에서 배경영상과 객체영상을 합성하는 영상합성 시스템(100)을 개시한다. 본 발명에 있어서도 합성모듈(140)은 동일한 방법을 통해 합성 비디오 클립(clip_dynamic_composite)을 생성함으로써 카메라워크에 따라 객체영상과 배경영상이 자연스럽게 합성되도록 하는 것이 바람직하다. 이를 위해 도 6에 도시된 바와 같이 합성모듈(140)은 소정의 높이를 갖고 중앙부가 오목한 곡면으로 형성된 배경투영면(410)을 가상공간에 형성하고, 가상공간 상의 가상투영점에서 배경투영면(410)에 사용자 선택 배경영상의 적어도 일부를 투영하고, 가상공간 상의 가상투영점과 배경투영면(410) 사이에 소스 객체영상(431) 및 합성대상 객체영상(432)을 배치하고, 가상공간에 배치되는 가상카메라(420)의 화각에 사용자 선택 배경영상의 적어도 일부, 소스 객체영상(431)의 적어도 일부, 및 합성대상 객체영상(432)의 적어도 일부를 포함하여 합성영상을 생성하는 것이 바람직하다. 이때 가상투영점은 객체영상을 촬영한 실세계 카메라의 위치에 해당하는 지점으로 설정하고, 배경투영면(410)으로의 사용자 선택 배경영상의 투영은 가상투영점에서 바라봤을 때 왜곡이 없는 형상이 되도록 변형된 형태의 사용자 선택 배경영상을 배경투영면(410)에 텍스처링하는 방법으로 이루어질 수 있다.Meanwhile, Korean Patent Application No. 2016-0171469, “Image Synthesis System and Image Synthesis Method,” filed by the applicant of the present patent application has a background image and an object in a virtual space so that the background image and the foreground image are naturally synthesized according to the change of camera viewpoint. An image synthesis system 100 for synthesizing an image is disclosed. In the present invention, the synthesizing module 140 preferably generates a composite video clip (clip_dynamic_composite) through the same method so that the object image and the background image are naturally synthesized according to the camera walk. To this end, as shown in FIG. 6, the synthesizing module 140 forms a background projection surface 410 having a predetermined height and a concave central surface in a virtual space, and a background projection surface 410 at a virtual projection point on the virtual space. Projecting at least a portion of a user-selected background image on the screen, arranging a source object image 431 and a composition target object image 432 between the virtual projection point on the virtual space and the background projection surface 410, and placing the virtual object in the virtual space It is preferable to generate a composite image by including at least a portion of the user-selected background image, at least a portion of the source object image 431, and at least a portion of the synthesis target object image 432 in the angle of view of the camera 420. In this case, the virtual projection point is set to a point corresponding to the position of the real world camera where the object image is taken, and the projection of the user-selected background image onto the background projection surface 410 is deformed so that there is no distortion when viewed from the virtual projection point. The user-selected background image may be formed by texturing the background projection surface 410.
한편 실시예에 따라서는 소스 비디오 클립에 하나의 합성대상 객체영상(432)이 아닌 둘 이상의 합성대상 객체영상(432)들을 합성할 수 있다. 이를 위해 검색모듈(130)은 정합 제어 파리미터를 갖는 복수의 자동촬영 비디오 컨텐츠들에서 각각 합성대상 동적 비디오 클립(clip_dynamic_add)들을 더 검색하고, 합성모듈(140)은 소스 동적 비디오 클립(clip_dynamic_source)의 소스 객체영상(431) 및 복수의 합성대상 비디오 클립들의 합성대상 객체영상(432)들이 포함되도록 합성 비디오 클립(clip_dynamic_composite)을 생성하도록 구성할 수 있다.According to an exemplary embodiment, two or more synthetic object images 432 may be synthesized instead of one synthetic object image 432 in the source video clip. To this end, the search module 130 further searches for each of the composite target dynamic video clips (clip_dynamic_add) in the plurality of auto-shooting video contents having a match control parameter, and the synthesis module 140 performs a source of the source dynamic video clip (clip_dynamic_source). The composite video clip clip_dynamic_composite may be generated to include the composite image object 432 and the composite target image 432 of the plurality of composite target video clips.
실시예에 따라서는 동적 카메라워크가 적용된 동적 비디오 클립구간 뿐 아니라 소스 자동촬영 동영상 컨텐츠 전체에 대한 합성영상을 생성할 수 있다. 하나의 동영상은 복수의 동적 비디오 클립구간들과 복수의 정적 비디오 클립구간들로 구성된다. 카메라의 변화가 없는 정적 비디오 클립구간들은 종래의 영상합성 방법에 따라 용이하게 합성할 수 있고, 복수의 동적 비디오 클립구간들은 본 발명에 따른 합성방법을 각각 적용함으로써 합성 비디오 컨텐츠(contents_composite)를 생성할 수 있다. 이를 위해 검색모듈(130)은 소스 자동촬영 비디오 컨텐츠(contents_source)에 대한 객체 합성요청을 사용자 단말기(200)로부터 수신하고, 제 1 구간 소스 동적 비디오 클립(clip_dynamic_source)의 제 1 구간 레퍼런스 제어 파라미터(parameter_ref) 내지 제 n 구간(n은 2 이상의 정수) 소스 동적 비디오 클립(clip_dynamic_source)의 제 n 구간 레퍼런스 제어 파라미터(parameter_ref)를 취득하고, 제 1 구간 레퍼런스 제어 파라미터(parameter_ref) 내지 제 n 구간 레퍼런스 제어 파라미터(parameter_ref)에 각각 대응하는 제 1 구간 정합 제어 파라미터(parameter_match) 내지 제 n 구간 정합 제어 파라미터(parameter_match)를 갖는 합성대상 자동촬영 비디오 컨텐츠(contents_add)의 제 1 구간 합성대상 동적 비디오 클립(clip_dynamic_add) 내지 제 n 구간 합성대상 동적 비디오 클립(clip_dynamic_add)을 검색하도록 구성할 수 있다. 합성모듈(140)은 제 1 구간 소스 동적 비디오 클립(clip_dynamic_source)의 제 1 구간 소스 객체영상(431)과 제 1 구간 합성대상 동적 비디오 클립(clip_dynamic_add)의 제 1 구간 합성대상 객체영상(432)이 포함되는 제 1 구간 합성 비디오 클립(clip_dynamic_composite) 내지 제 n 구간 소스 동적 비디오 클립(clip_dynamic_source)의 제 n 구간 소스 객체영상(431)과 제 n 구간 합성대상 동적 비디오 클립(clip_dynamic_add)의 제 n 구간 합성대상 객체영상(432)이 포함되는 제 n 구간 합성 비디오 클립(clip_dynamic_composite)을 각각 생성하도록 구성할 수 있다. 컨텐츠 제공모듈(120)은 제 1 구간 합성 비디오 클립(clip_dynamic_composite) 내지 제 n 구간 합성 비디오 클립(clip_dynamic_composite)을 포함하는 합성 비디오 컨텐츠(contents_composite)를 사용자 단말기(200)에게 제공하도록 구성할 수 있다.According to an exemplary embodiment, a composite image of the entire source auto-captured video content as well as the dynamic video clip section to which the dynamic camera work is applied may be generated. One moving picture is composed of a plurality of dynamic video clip sections and a plurality of static video clip sections. Static video clip sections without camera change can be easily synthesized according to a conventional image synthesis method, and a plurality of dynamic video clip sections can generate composite video contents (contents_composite) by applying the synthesis method according to the present invention, respectively. Can be. To this end, the search module 130 receives the object synthesis request for the source auto-capture video content contents_source from the user terminal 200, and receives the first interval reference control parameter parameter_ref of the first interval source dynamic video clip clip_dynamic_source. N th to n th interval (n is an integer of 2 or more). The n th interval reference control parameter parameter_ref of the source dynamic video clip clip_dynamic_source is obtained, and the first interval reference control parameter parameter_ref to the n th interval reference control parameter the first segment synthesis target video clip clip_dynamic_add to the first segment matching control parameter (parameter_match) to the nth segment matching control parameter (parameter_match) respectively corresponding to parameter_ref) n Configure to retrieve the composite video clips (clip_dynamic_add) There. The synthesizing module 140 includes a first segment source object image 431 of the first segment source dynamic video clip clip_dynamic_source and a first segment composition object image 432 of the first segment compositing dynamic video clip clip_dynamic_add. The n-th section synthesis target of the n-th section source object image 431 and the n-th section synthesis target dynamic video clip clip_dynamic_add of the first section synthesis video clip clip_dynamic_composite to the nth section source dynamic video clip clip_dynamic_source included Each of the n-th section composite video clips clip_dynamic_composite including the object image 432 may be generated. The content providing module 120 may configure the user terminal 200 to provide the composite video contents (contents_composite) including the first interval composite video clip clip_dynamic_composite to the nth interval composite video clip clip_dynamic_composite.
이하에서는 도 7을 참조하여 본 발명에 따른 카메라워크 기반 영상합성방법을 설명한다. 본 발명의 영상합성방법은 영상합성 시스템(100)에 의해서 수행되며 영상합성 시스템(100)은 통신망으로 연결된 서버-클라이언스 네트워크의 서버 측에 설치되는 애플리케이션, 애플리케이션을 구동하는 서버의 연산처리장치, 서버의 저장장치 등으로 구성되거나 서버의 저장장치와 스마트폰 또는 PC 등의 정보단말기 등의 클라이언트에 설치되는 애플리케이션, 애플리케이션을 구동하는 클라이언트의 연산처리장치 등으로 구성될 수 있다.Hereinafter, a camera walk based image synthesis method according to the present invention will be described with reference to FIG. 7. The image synthesis method of the present invention is performed by the image synthesis system 100, the image synthesis system 100 is an application installed on the server side of the server-client network connected to the communication network, the operation processing apparatus of the server for driving the application, It may be configured as a storage device of the server, or an application installed in a client such as a storage device of the server and an information terminal such as a smartphone or a PC, an operation processing device of a client for driving the application, and the like.
*먼저 영상합성 시스템(100)이 팬 제어, 틸트 제어 또는 무빙 제어 중 적어도 어느 하나의 카메라 제어 파라미터에 의해 제어되는 자동제어 카메라(301)에 의해 촬영된 구간인 동적 비디오 클립을 포함하는 복수의 자동촬영 비디오 컨텐츠들을 카메라 제어 파라미터와 연관하여 저장하는 단계(s10)를 수행한다. 자동촬영 비디오 컨텐츠는 팬 제어, 틸트 제어, 또는 무빙 제어 중 적어도 하나가 사전에 정의된 카메라 제어 파라미터에 의해 제어되는 자동제어 카메라(301)를 통해 제작된 비디오 컨텐츠를 의미하며 자동제어되지 않는 카메라에 의해 촬영된 비디오 컨텐츠는 본 발명의 자동촬영 비디오 컨텐츠에 포함되지 않는다.First, a plurality of automatic images including a dynamic video clip in which the image synthesis system 100 is a section photographed by the automatic control camera 301 controlled by at least one camera control parameter of pan control, tilt control or moving control. In operation S10, the captured video contents are stored in association with a camera control parameter. Auto-shoot video content means video content produced by an auto-control camera 301 in which at least one of pan control, tilt control, or moving control is controlled by a predefined camera control parameter. The video content photographed by the above is not included in the auto-shoot video content of the present invention.
*다음으로, 영상합성 시스템(100)이 복수의 자동촬영 비디오 컨텐츠들 중 어느 하나의 소스 자동촬영 비디오 컨텐츠(contents_source)를 통신망을 통해 사용자 단말기(200)에게 제공하는 단계(s20)를 수행한다. 사용자는 예컨대 사용자 단말기(200)의 애플리케이션 또는 웹브라우저를 통해 자동촬영 비디오 컨텐츠를 제공하는 웹서버에 접속하여 자동촬영 비디오 컨텐츠를 제공을 수 있다.In operation S20, the image synthesis system 100 provides the user terminal 200 with one of the plurality of pieces of auto-captured video contents to the user terminal 200 through a communication network. For example, the user may access the web server that provides the auto-shoot video content through an application or a web browser of the user terminal 200 to provide the auto-shoot video content.
다음으로, 영상합성 시스템(100)이 소스 자동촬영 비디오 컨텐츠(contents_source)의 소스 동적 비디오 클립(clip_dynamic_source)에 대한 객체 합성요청을 사용자 단말기(200)로부터 수신하는 단계(s30)를 수행한다. 소스 자동촬영 비디오 컨텐츠(contents_source)는 사용자가 합성을 하고자 하는 자동촬영 비디오 컨텐츠이고, 소스 동적 비디오 클립(clip_dynamic_source)은 소스 자동촬영 비디오 컨텐츠(contents_source) 중에서 팬 동작, 틸트 동작, 무빙 동작 중 적어도 어느 하나로 구성되는 동적인 카메라워크가 적용된 시간구간을 의미한다. 실시예에 따라서는 영상합성 시스템(100)이 카메라 제어 파라미터를 통해 소스 자동촬영 비디오 컨텐츠(contents_source) 중에서 동적 비디오 클립구간들을 사용자에게 제공하고 사용자가 그 중 하나의 비디오 클립구간을 선택하는 방법으로 영상합성 시스템(100)은 소스 동적 비디오 클립(clip_dynamic_source)에 대한 객체 합성요청을 수신할 수 있다. 다른 실시예에 따르면 사용자는 소스 자동촬영 비디오 컨텐츠(contents_source)에 대해 객체 합성요성을 요청하고, 영상합성 시스템(100)은 합성요청된 소스 자동촬영 비디오 컨텐츠(contents_source)에 포함된 소스 동적 비디오 클립(clip_dynamic_source)에 대한 객체 합성을 수행할 수 있다.Next, the image synthesis system 100 receives an object synthesis request for the source dynamic video clip clip_dynamic_source of the source auto-capture video content content_source from the user terminal 200 (S30). The source auto-shoot video content (contents_source) is the auto-shoot video content to be synthesized by the user, and the source dynamic video clip (clip_dynamic_source) is one of pan motion, tilt motion, and moving motion among the source auto-shoot video content (contents_source). It means the time interval that dynamic camera walk is applied. According to an exemplary embodiment, the image synthesis system 100 provides a user with dynamic video clip segments among source auto-captured video contents (contents_source) through camera control parameters, and the user selects one of the video clip segments. The synthesis system 100 may receive an object synthesis request for the source dynamic video clip clip_dynamic_source. According to another embodiment, the user requests object composition for the source video content (contents_source), and the image synthesis system 100 includes the source dynamic video clip included in the source request video content (contents_source). object composition for clip_dynamic_source).
다음으로, 영상합성 시스템(100)이 소스 동적 비디오 클립(clip_dynamic_source)의 카메라 제어 파라미터를 레퍼런스 제어 파라미터(parameter_ref)로 취득하는 단계(s40)를 수행한다. 영상합성 시스템(100)은 소스 자동촬영 비디오 컨텐츠(contents_source)와 연관되어 저장된 카메라 제어미터 중 소스 동적 비디오 클립(clip_dynamic_source)에 해당하는 시간구간의 카메라 제어 파라미터를 레퍼런스 제어 파라미터(parameter_ref)로 취득할 수 있다.In operation S40, the image synthesis system 100 obtains a camera control parameter of the source dynamic video clip clip_dynamic_source as a reference control parameter parameter_ref. The image synthesis system 100 may acquire, as a reference control parameter (parameter_ref), a camera control parameter of a time interval corresponding to a source dynamic video clip (clip_dynamic_source) among camera control meters stored in association with the source auto-capture video content (contents_source). have.
다음으로, 영상합성 시스템(100)이 레퍼런스 제어 파라미터(parameter_ref)와 동일 또는 유사한 카메라 제어 파라미터인 정합 제어 파라미터(parameter_match)를 갖는 합성대상 자동촬영 비디오 컨텐츠(contents_add)의 합성대상 동적 비디오 클립(clip_dynamic_add)을 검색하는 단계(s50)를 수행한다. 영상합성 시스템(100)은 다른 자동촬영 비디오 컨텐츠들의 카메라 제어 파라미터들을 레퍼런스 제어 파라미터(parameter_ref)와 비교하여 동일 또는 유사한 카메라 제어 파라미터의 시간구간이 검색되면 이를 정합 제어 파라미터(parameter_match)로 인식하고 해당 시간구간의 비디오 클립을 합성대상 동적 비디오 클립(clip_dynamic_add)으로 검색한다.Next, the composite video dynamic clip (clip_dynamic_add) of the synthesis target auto-shoot video content (contents_add) having the matching control parameter (parameter_match) that is the same or similar to the reference control parameter (parameter_ref). Searching for (s50) is performed. The image synthesis system 100 compares camera control parameters of other auto-shooting video contents with a reference control parameter (parameter_ref), and if a time interval of the same or similar camera control parameter is found, recognizes it as a matching control parameter (parameter_match) and time. The video clip of the section is searched for as the synthesis target video clip (clip_dynamic_add).
이때 영상합성 시스템(100)은 합성대상 동적 비디오 클립(clip_dynamic_add)을 검색하는 단계(s50)에 있어서 예컨대 비디오 컨텐츠의 장르, 비디오 컨텐츠의 배경음악, 비디오 컨텐츠의 촬영 시점 또는 업로드 시점 등의 합성대상 동적 비디오 클립(clip_dynamic_add)의 속성들 또는 예컨대 업로드 사용자간의 온라인 상의 사회적 관계, 비디오 출연자간의 온라인 상의 사회적 관계 등의 비디오 클립의 업로드 사용자 또는 출연자의 속성들을 개별적 또는 복합적으로 고려하여 검색모듈(130)은 합성대상 동적 비디오 클립(clip_dynamic_add)을 우선적으로 검색할 수 있다.In this case, the image synthesis system 100 searches for the synthesis target video clip clip_dynamic_add in step S50, for example, the genre of the video content, the background music of the video content, the shooting time or the uploading time of the video content, and the like. The search module 130 synthesizes the attributes of the video clip (clip_dynamic_add) or the properties of the uploading user or performer of the video clip, such as online social relations between uploading users and online social relations between video performers, individually or in combination. The target dynamic video clip clip_dynamic_add may be searched first.
다음으로, 영상합성 시스템(100)이 적어도 소스 동적 비디오 클립(clip_dynamic_source)의 소스 객체영상(431)과 합성대상 동적 비디오 클립(clip_dynamic_add)의 합성대상 객체영상(432)이 포함되도록 합성 비디오 클립(clip_dynamic_composite)을 생성하는 단계(s60)를 수행한다. 소스 객체영상(431)과 합성대상 객체영상(432)은 동일 또는 유사한 카메라워크를 공유하기 때문에 합성 비디오 클립(clip_dynamic_composite)은 동적인 카메라워크에도 불구하고 자연스러운 합성영상을 사용자에게 제공할 수 있다.Next, the composite video clip clip_dynamic_composite includes at least a source object image 431 of the source dynamic video clip clip_dynamic_source and a synthesis target object image 432 of the target dynamic video clip clip_dynamic_add. Step (s60) is generated. Since the source object image 431 and the composite object image 432 share the same or similar camerawork, the composite video clip clip_dynamic_composite may provide a natural composite image to the user despite the dynamic camerawork.
합성 비디오 클립(clip_dynamic_composite)을 생성하기 위해 영상합성 시스템(100)은 다양한 합성방법을 적용할 수 있다. 예컨대 합성 비디오 클립(clip_dynamic_composite)을 생성하는 단계(s60)는 영상합성 시스템(100)이 소스 동적 비디오 클립(clip_dynamic_source)의 배경영상에 소스 객체영상(431) 및 합성대상 객체영상(432)을 합성하여 합성 비디오 클립(clip_dynamic_composite)을 생성할 수 있다.In order to generate a composite video clip clip_dynamic_composite, the image synthesis system 100 may apply various synthesis methods. For example, in operation S60 of generating the composite video clip clip_dynamic_composite, the image synthesis system 100 synthesizes the source object image 431 and the synthesis target object image 432 on the background image of the source dynamic video clip clip_dynamic_source. A composite video clip (clip_dynamic_composite) may be generated.
다른 실시예에 따르면, 영상합성방법은 영상합성 시스템(100)이 사용자 단말기(200)로부터 사용자 선택 배경영상을 입력받는 단계를 더 포함하여 구성되고, 합성 비디오 클립(clip_dynamic_composite)을 생성하는 단계(s60)는, 영상합성 시스템(100)이 사용자 선택 배경영상에 소스 객체영상(431) 및 합성대상 객체영상(432)을 합성하여 합성 비디오 클립(clip_dynamic_composite)을 생성할 수 있다.According to another exemplary embodiment, the image synthesizing method further includes a step in which the image synthesis system 100 receives a user-selected background image from the user terminal 200 and generates a composite video clip clip_dynamic_composite (s60). ), The image synthesis system 100 may generate a composite video clip clip_dynamic_composite by synthesizing the source object image 431 and the synthesis target object image 432 with the user-selected background image.
이때 동적인 카메라워크에서 평면적인 2D 배경영상을 이용하더라도 동적인 카메라워크의 객체영상과 자연스럽게 합성하기 위해 가상공간에서 배경영상과 객체영상들을 합성하는 것이 바람직하다. 이를 위해 합성 비디오 클립(clip_dynamic_composite)을 생성하는 단계(s60)에 있어서, 영상합성 시스템(100)이 소정의 높이를 갖고 중앙부가 오목한 곡면으로 형성된 배경투영면(410)을 가상공간에 형성하는 제 1 부단계를 수행할 수 있다. 다음으로, 영상합성 시스템(100)이 가상공간 상의 가상투영점에서 배경투영면(410)에 사용자 선택 배경영상의 적어도 일부를 투영하는 제 2 부단계를 수행할 수 있다. 다음으로, 영상합성 시스템(100)이 가상공간 상의 가상투영점과 배경투영면(410) 사이에 소스 객체영상(431) 및 합성대상 객체영상(432)을 배치하는 제 3 부단계를 수행할 수 있다. 마지막으로 영상합성 시스템(100)이 가상공간에 배치되는 가상카메라(420)의 화각에 사용자 선택 배경영상의 적어도 일부, 소스 객체영상(431)의 적어도 일부, 및 합성대상 객체영상(432)의 적어도 일부를 포함하여 합성 비디오 클립(clip_dynamic_composite)을 생성하는 제 4 부단계를 수행할 수 있다.At this time, even if the planar 2D background image is used in the dynamic camera walk, it is preferable to synthesize the background image and the object image in the virtual space in order to naturally synthesize the object image of the dynamic camera walk. To this end, in operation S60 of generating a composite video clip clip_dynamic_composite, the first part of the image synthesis system 100 forming a background projection surface 410 having a predetermined height and having a central concave curved surface in a virtual space. The steps can be performed. Next, the image synthesis system 100 may perform a second sub-step of projecting at least a portion of the user-selected background image to the background projection surface 410 at the virtual projection point in the virtual space. Next, the image synthesis system 100 may perform a third sub-step of placing the source object image 431 and the synthesis target object image 432 between the virtual projection point and the background projection surface 410 in the virtual space. . Finally, at least a portion of the user-selected background image, at least a portion of the source object image 431, and at least a portion of the synthesis target object image 432 are included in an angle of view of the virtual camera 420 in which the image synthesis system 100 is disposed in the virtual space. The fourth sub-step of generating a composite video clip clip_dynamic_composite may be performed, including a portion thereof.
마지막으로 영상합성 시스템(100)이 합성 비디오 클립(clip_dynamic_composite)을 사용자 단말기(200)에게 제공하는 단계(s70)를 수행한다.Finally, the image synthesis system 100 performs a step S70 of providing the synthesized video clip clip_dynamic_composite to the user terminal 200.
복수의 합성대상 객체를 소스 동적 비디오 클립(clip_dynamic_source)과 합성하여 합성 비디오 클립(clip_dynamic_composite)을 생성하는 실시예에 있어서, 합성대상 동적 비디오 클립(clip_dynamic_add)을 검색하는 단계(s50)는 영상합성 시스템(100)이 정합 제어 파리미터를 갖는 복수의 자동촬영 비디오 컨텐츠들에서 각각 합성대상 동적 비디오 클립(clip_dynamic_add)들을 더 검색할 수 있다. 합성 비디오 클립(clip_dynamic_composite)을 생성하는 단계(s60)는 영상합성 시스템(100)이 소스 동적 비디오 클립(clip_dynamic_source)의 소스 객체영상(431) 및 복수의 합성대상 동적 비디오 클립(clip_dynamic_add)들의 합성대상 객체영상(432)들이 포함되도록 합성 비디오 클립(clip_dynamic_composite)을 생성할 수 있다.In an embodiment of synthesizing a plurality of synthesis target objects with a source dynamic video clip (clip_dynamic_source) to generate a composite video clip (clip_dynamic_composite), the step (s50) of searching for the synthesis target dynamic video clip (clip_dynamic_add) may be performed by an image synthesis system ( 100 may further search for synthesis dynamic video clips clip_dynamic_adds in the plurality of auto-shoot video contents having the match control parameter, respectively. In operation S60, the composite video clip clip_dynamic_composite may be generated by the image synthesis system 100, which is a composite object of the source object image 431 of the source dynamic video clip clip_dynamic_source and the plurality of composite target dynamic video clips clip_dynamic_add. The composite video clip clip_dynamic_composite may be generated to include the images 432.
소스 동적 비디오 클립(clip_dynamic_source)에만 합성대상 객체영상(432)을 합성하지 않고, 소스 자동촬영 비디오 컨텐츠(contents_source) 전체에 합성대상 객체영상(432)을 합성함으로써 합성 비디오 컨텐츠(contents_composite)를 생성하는 실시예에 있어서, 객체 합성요청을 수신하는 단계(s30)는, 영상합성 시스템(100)이 소스 자동촬영 비디오 컨텐츠(contents_source)에 대한 객체 합성요청을 사용자 단말기(200)로부터 수신할 수 있다. 레퍼런스 제어 파라미터(parameter_ref)를 취득하는 단계(s40)는, 영상합성 시스템(100)이 제 1 구간 소스 동적 비디오 클립(clip_dynamic_source)의 제 1 구간 레퍼런스 제어 파라미터(parameter_ref) 내지 제 n 구간(n은 2 이상의 정수) 소스 동적 비디오 클립(clip_dynamic_source)의 제 n 구간 레퍼런스 제어 파라미터(parameter_ref)를 취득할 수 있다. 합성대상 동적 비디오 클립(clip_dynamic_add)을 검색하는 단계(s50)는, 영상합성 시스템(100)이 제 1 구간 레퍼런스 제어 파라미터(parameter_ref) 내지 제 n 구간 레퍼런스 제어 파라미터(parameter_ref)에 각각 대응하는 제 1 구간 정합 제어 파라미터(parameter_match) 내지 제 n 구간 정합 제어 파라미터(parameter_match)를 갖는 합성대상 자동촬영 비디오 컨텐츠(contents_add)의 제 1 구간 합성대상 동적 비디오 클립(clip_dynamic_add) 내지 제 n 구간 합성대상 동적 비디오 클립(clip_dynamic_add)을 검색할 수 있다. 합성 비디오 클립(clip_dynamic_composite)을 생성하는 단계(s60)는, 영상합성 시스템(100)이 제 1 구간 소스 동적 비디오 클립(clip_dynamic_source)의 제 1 구간 소스 객체영상과 제 1 구간 합성대상 동적 비디오 클립(clip_dynamic_add)의 제 1 구간 합성대상 객체영상이 포함되는 제 1 구간 합성 비디오 클립(clip_dynamic_composite) 내지 제 n 구간 소스 동적 비디오 클립(clip_dynamic_source)의 제 n 구간 소스 객체영상과 제 n 구간 합성대상 동적 비디오 클립(clip_dynamic_add)의 제 n 구간 합성대상 객체영상이 포함되는 제 n 구간 합성 비디오 클립(clip_dynamic_composite)을 각각 생성할 수 있다. 합성 비디오 클립(clip_dynamic_composite)을 제공하는 단계(s70)는 영상합성 시스템(100)이 제 1 구간 합성 비디오 클립(clip_dynamic_composite) 내지 제 n 구간 합성 비디오 클립(clip_dynamic_composite)을 포함하는 합성 비디오 컨텐츠(contents_composite)를 사용자 단말기(200)에게 제공할 수 있다. 상기의 실시예에 있어서 소스 동적 비디오 클립(clip_dynamic_source)에 해당하지 않는 시간구간 즉, 정적인 카메라워크를 사용하여 촬영된 정적 비디오 클립에 해당하는 시간구간에 있어서는 종래의 영상객체 합성 기법을 이용하여 합성 비디오 컨텐츠(contents_composite)를 생성할 수 있다.A composite video content content_composite is generated by synthesizing the synthesis target object video 432 with the entire source auto-capture video content content_source without synthesizing the synthesis target object video 432 only with the source dynamic video clip clip_dynamic_source. For example, in operation S30 of receiving an object composition request, the image synthesis system 100 may receive an object composition request for the source auto-capture video content contents_source from the user terminal 200. Acquiring a reference control parameter (parameter_ref) (s40), the image synthesis system 100 is the first interval reference control parameter (parameter_ref) to the nth interval (n is 2) of the first interval source dynamic video clip (clip_dynamic_source) Integer) The n-th section reference control parameter parameter_ref of the source dynamic video clip clip_dynamic_source may be acquired. In operation S50 of searching for the synthesis target video clip clip_dynamic_add, the image synthesis system 100 may include a first section corresponding to each of the first section reference control parameter parameter_ref to the nth section reference control parameter parameter_ref. The first segment synthesized dynamic video clip (clip_dynamic_add) to the nth segment synthesized dynamic video clip (clip_dynamic_add) of the composition target auto-photographed video content having the match control parameter (parameter_match) to the n th interval match control parameter (parameter_match) ). In operation S60, the composite video clip clip_dynamic_composite may be generated by the image synthesis system 100. The first segment source object image of the first segment source dynamic video clip clip_dynamic_source and the first segment composition target dynamic video clip clip_dynamic_add The nth interval source object image of the first interval synthesis video clip clip_dynamic_composite to the nth interval source dynamic video clip clip_dynamic_source and the nth interval synthesis target dynamic video clip clip_dynamic_add including the first interval synthesis target object image N-th composite video clips (clip_dynamic_composite) including the n-th composite image object may be generated. Providing a composite video clip (clip_dynamic_composite) (s70), the image synthesis system 100 includes the composite video content (contents_composite) including the first interval composite video clip (clip_dynamic_composite) to the nth interval composite video clip (clip_dynamic_composite) It may be provided to the user terminal 200. In the above embodiment, in a time section that does not correspond to a source dynamic video clip (clip_dynamic_source), that is, a time section that corresponds to a static video clip photographed using a static camera walk, it is synthesized using a conventional image object synthesis technique. Video content (contents_composite) may be generated.
본 명세서에서의 발명의 상세한 설명은 바람직한 실시예를 설명하는 것으로, 본 발명은 이러한 실시예에 한정되지 않는다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 이상의 실시예에 대한 다양한 변경과 수정이 가능하고, 본 발명의 기술적 사상은 이러한 다양한 변경과 수정을 모두 포함한다.The detailed description of the invention herein describes preferred embodiments, and the invention is not limited to these embodiments. Those skilled in the art to which the present invention pertains can make various changes and modifications to the above embodiments without departing from the technical spirit of the present invention, the technical idea of the present invention is to make all such various changes and modifications Include.

Claims (14)

  1. 팬 제어, 틸트 제어 또는 무빙 제어 중 적어도 어느 하나의 카메라 제어 파라미터에 의해 제어되는 자동제어 카메라에 의해 촬영된 구간인 동적 비디오 클립을 포함하는 복수의 자동촬영 비디오 컨텐츠들을 상기 카메라 제어 파라미터와 연관하여 저장하는 저장모듈;Store a plurality of auto-shoot video content associated with the camera control parameter including a dynamic video clip which is a section captured by an auto-control camera controlled by at least one camera control parameter of pan control, tilt control or moving control. A storage module;
    상기 복수의 자동촬영 비디오 컨텐츠들 중 어느 하나의 소스 자동촬영 비디오 컨텐츠를 통신망을 통해 사용자 단말기에게 제공하는 컨텐츠 제공모듈;A content providing module for providing one source auto-shooting video content of the plurality of auto-shooting video contents to a user terminal through a communication network;
    상기 소스 자동촬영 비디오 컨텐츠의 소스 동적 비디오 클립에 대한 객체 합성요청을 상기 사용자 단말기로부터 수신하고, 상기 소스 동적 비디오 클립의 상기 카메라 제어 파라미터를 레퍼런스 제어 파라미터로 취득하고, 상기 레퍼런스 제어 파라미터와 동일 또는 유사한 상기 카메라 제어 파라미터인 정합 제어 파라미터를 갖는 합성대상 자동촬영 비디오 컨텐츠의 합성대상 동적 비디오 클립을 검색하는 검색모듈; 및 Receive an object synthesis request for a source dynamic video clip of the source auto-shoot video content from the user terminal, obtain the camera control parameter of the source dynamic video clip as a reference control parameter, and the same or similar to the reference control parameter A retrieval module for retrieving a synthesis target dynamic video clip of the synthesis target auto captured video content having the matching control parameter as the camera control parameter; And
    적어도 상기 소스 동적 비디오 클립의 소스 객체영상과 상기 합성대상 동적 비디오 클립의 합성대상 객체영상이 포함되도록 합성 비디오 클립을 생성하는 합성모듈;을 포함하여 구성되고,And a synthesis module for generating a composite video clip to include at least a source object image of the source dynamic video clip and a synthesis object image of the synthesis target dynamic video clip.
    상기 컨텐츠 제공모듈은, 상기 합성 비디오 클립을 상기 사용자 단말기에게 제공하는 것을 특징으로 하는 카메라워크 기반 영상합성 시스템.And the content providing module provides the composite video clip to the user terminal.
  2. 제 1 항에 있어서,The method of claim 1,
    상기 검색모듈은, 상기 정합 제어 파리미터를 갖는 복수의 상기 자동촬영 비디오 컨텐츠들에서 각각 합성대상 동적 비디오 클립들을 더 검색하고,The search module is further configured to search for synthesized dynamic video clips in each of the plurality of autophotographed video contents with the matched control parameter,
    상기 합성모듈은, 상기 소스 동적 비디오 클립의 상기 소스 객체영상 및 상기 복수의 합성대상 동적 비디오 클립들의 상기 합성대상 객체영상들이 포함되도록 합성 비디오 클립을 생성하는 것을 특징으로 하는 카메라워크 기반 영상합성 시스템.And the synthesizing module generates a composite video clip to include the source object image of the source dynamic video clip and the synthesis object image of the plurality of synthesis target dynamic video clips.
  3. 제 1 항에 있어서,The method of claim 1,
    상기 검색모듈은, 상기 소스 자동촬영 비디오 컨텐츠에 대한 객체 합성요청을 상기 사용자 단말기로부터 수신하고, 제 1 구간 소스 동적 비디오 클립의 제 1 구간 레퍼런스 제어 파라미터 내지 제 n 구간(n은 2 이상의 정수) 소스 동적 비디오 클립의 제 n 구간 레퍼런스 제어 파라미터를 취득하고, 상기 제 1 구간 레퍼런스 제어 파라미터 내지 제 n 구간 레퍼런스 제어 파라미터에 각각 대응하는 제 1 구간 정합 제어 파라미터 내지 제 n 구간 정합 제어 파라미터를 갖는 합성대상 자동촬영 비디오 컨텐츠의 제 1 구간 합성대상 동적 비디오 클립 내지 제 n 구간 합성대상 동적 비디오 클립을 검색하고,The search module receives an object synthesis request for the source auto-captured video content from the user terminal, and includes a first interval reference control parameter to an nth interval (n is an integer of 2 or more) of a first interval source dynamic video clip. Acquisition of the nth interval reference control parameter of the dynamic video clip, and having a first interval matching control parameter to the nth interval matching control parameter respectively corresponding to the first interval reference control parameter to the nth interval reference control parameter, Search for the first to n-th segment dynamic video clip of the captured video content;
    상기 합성모듈은, 상기 제 1 구간 소스 동적 비디오 클립의 제 1 구간 소스 객체영상과 상기 제 1 구간 합성대상 동적 비디오 클립의 제 1 구간 합성대상 객체영상이 포함되는 제 1 구간 합성 비디오 클립 내지 상기 제 n 구간 소스 동적 비디오 클립의 제 n 구간 소스 객체영상과 상기 제 n 구간 합성대상 동적 비디오 클립의 제 n 구간 합성대상 객체영상이 포함되는 제 n 구간 합성 비디오 클립을 각각 생성하고,The synthesizing module may include: a first interval synthesis video clip including the first interval source object image of the first interval source dynamic video clip and the first interval synthesis target object image of the first interval synthesis target video clip; generating an n-th section composite video clip including an n-th section source object image of the n-section source dynamic video clip and an n-th section synthesis target object image of the n-th section synthesis target dynamic video clip, respectively,
    상기 컨텐츠 제공모듈은, 상기 제 1 구간 합성 비디오 클립 내지 제 n 구간 합성 비디오 클립을 포함하는 합성 비디오 컨텐츠를 상기 사용자 단말기에게 제공하는 것을 특징으로 하는 카메라워크 기반 영상합성 시스템.The content providing module is a camerawork based image synthesis system, characterized in that for providing the user terminal a composite video content including the first to the n-th composite video clip.
  4. 제 1 항에 있어서, 상기 합성모듈은,The method of claim 1, wherein the synthesis module,
    상기 소스 동적 비디오 클립의 배경영상에 상기 소스 객체영상 및 상기 합성대상 객체영상을 합성하여 상기 합성 비디오 클립을 생성하는 것을 특징으로 하는 카메라워크 기반 영상합성 시스템.And synthesizing the source object image and the synthesis target object image to a background image of the source dynamic video clip to generate the synthesized video clip.
  5. 제 1 항에 있어서,The method of claim 1,
    상기 영상합성 시스템은, 상기 사용자 단말기로부터 사용자 선택 배경영상을 입력받는 배경영상 입력모듈;를 더 포함하여 구성되고,The image synthesizing system further includes a background image input module configured to receive a user selected background image from the user terminal.
    상기 합성모듈은, 상기 사용자 선택 배경영상에 상기 소스 객체영상 및 상기 합성대상 객체영상을 합성하여 상기 합성 비디오 클립을 생성하는 것을 특징으로 하는 카메라워크 기반 영상합성 시스템.And the synthesizing module generates the composite video clip by synthesizing the source object image and the synthesis target object image with the user-selected background image.
  6. 제 5 항에 있어서, 상기 합성모듈은,The method of claim 5, wherein the synthesis module,
    소정의 높이를 갖고 중앙부가 오목한 곡면으로 형성된 배경투영면을 가상공간에 형성하고, 상기 가상공간 상의 가상투영점에서 상기 배경투영면에 상기 사용자 선택 배경영상의 적어도 일부를 투영하고, 상기 가상공간 상의 상기 가상투영점과 상기 배경투영면 사이에 상기 소스 객체영상 및 상기 합성대상 객체영상을 배치하고, 상기 가상공간에 배치되는 가상카메라의 화각에 상기 사용자 선택 배경영상의 적어도 일부, 상기 소스 객체영상의 적어도 일부 및 상기 합성대상 객체영상의 적어도 일부를 포함하여 상기 합성 비디오 클립을 생성하는 것을 특징으로 하는 카메라워크 기반 영상합성 시스템.A background projection surface having a predetermined height and having a central concave curved surface is formed in the virtual space, projecting at least a portion of the user-selected background image onto the background projection surface at the virtual projection point on the virtual space, and the virtual image on the virtual space. The source object image and the composition target object image are disposed between a projection point and the background projection surface, and at least a portion of the user-selected background image, at least a portion of the source object image, and an angle of view of the virtual camera disposed in the virtual space. Camerawork based image synthesis system, characterized in that for generating the composite video clip including at least a portion of the object image.
  7. 제 1 항에 있어서, 상기 검색모듈은,The method of claim 1, wherein the search module,
    상기 소스 자동촬영 비디오 컨텐츠의 출연자와 온라인 상의 사회적 관계가 있는 다른 출연자가 출연한 상기 자동촬영 비디오 컨텐츠를 우선적으로 검색하는 것을 특징으로 하는 카메라워크 기반 영상합성 시스템.And a camera walk-based video synthesizing system for searching the auto-capture video content, which is performed by another performer who has an online social relationship with the performer of the source auto-shoot video content.
  8. 영상합성 시스템이 팬 제어, 틸트 제어 또는 무빙 제어 중 적어도 어느 하나의 카메라 제어 파라미터에 의해 제어되는 자동제어 카메라에 의해 촬영된 구간인 동적 비디오 클립을 포함하는 복수의 자동촬영 비디오 컨텐츠들을 상기 카메라 제어 파라미터와 연관하여 저장하는 단계;The camera control parameter includes a plurality of auto-shooting video contents including a dynamic video clip which is a section captured by an auto control camera controlled by at least one camera control parameter of pan control, tilt control or moving control. Storing in association with;
    상기 영상합성 시스템이 상기 복수의 자동촬영 비디오 컨텐츠들 중 어느 하나의 소스 자동촬영 비디오 컨텐츠를 통신망을 통해 사용자 단말기에게 제공하는 단계;Providing, by the image synthesizing system, a source auto-captured video content of any one of the plurality of auto-captured video contents to a user terminal through a communication network;
    상기 영상합성 시스템이 상기 소스 자동촬영 비디오 컨텐츠의 소스 동적 비디오 클립에 대한 객체 합성요청을 상기 사용자 단말기로부터 수신하는 단계;Receiving, by the image synthesis system, an object synthesis request for a source dynamic video clip of the source auto-capture video content from the user terminal;
    상기 영상합성 시스템이 상기 소스 동적 비디오 클립의 상기 카메라 제어 파라미터를 레퍼런스 제어 파라미터로 취득하는 단계;Acquiring, by the image synthesis system, the camera control parameter of the source dynamic video clip as a reference control parameter;
    상기 영상합성 시스템이 상기 레퍼런스 제어 파라미터와 동일 또는 유사한 상기 카메라 제어 파라미터인 정합 제어 파라미터를 갖는 합성대상 자동촬영 비디오 컨텐츠의 합성대상 동적 비디오 클립을 검색하는 단계;Retrieving, by the image synthesis system, a synthesis target dynamic video clip of the synthesis target auto-photographed video content having a registration control parameter which is the camera control parameter which is the same as or similar to the reference control parameter;
    상기 영상합성 시스템이 적어도 상기 소스 동적 비디오 클립의 소스 객체영상과 상기 합성대상 동적 비디오 클립의 합성대상 객체영상이 포함되도록 합성 비디오 클립을 생성하는 단계; 및Generating a composite video clip by the image synthesis system to include at least a source object image of the source dynamic video clip and a synthesis object image of the synthesis target dynamic video clip; And
    상기 영상합성 시스템이 상기 합성 비디오 클립을 상기 사용자 단말기에게 제공하는 단계;를 포함하는 것을 특징으로 하는 카메라워크 기반 영상합성방법.And providing the synthesized video clip to the user terminal by the image synthesizing system.
  9. 제 8 항에 있어서,The method of claim 8,
    상기 합성대상 동적 비디오 클립을 검색하는 단계는, 상기 영상합성 시스템이 상기 정합 제어 파리미터를 갖는 복수의 상기 자동촬영 비디오 컨텐츠들에서 각각 합성대상 동적 비디오 클립들을 더 검색하고,Retrieving the composite video clip to be synthesized, wherein the image synthesis system further retrieves each composite video clip from the plurality of auto-shoot video contents having the registration control parameter,
    상기 합성 비디오 클립을 생성하는 단계는, 상기 영상합성 시스템이 상기 소스 동적 비디오 클립의 상기 소스 객체영상 및 상기 복수의 합성대상 동적 비디오 클립들의 상기 합성대상 객체영상들이 포함되도록 합성 비디오 클립을 생성하는 것을 특징으로 하는 카메라워크 기반 영상합성방법. The generating of the composite video clip may include generating a composite video clip such that the image synthesis system includes the source object image of the source dynamic video clip and the object image of the plurality of synthesis target video clips. Camerawalk based image synthesis method characterized in that.
  10. 제 8 항에 있어서,The method of claim 8,
    상기 객체 합성요청을 수신하는 단계는, 상기 영상합성 시스템이 상기 소스 자동촬영 비디오 컨텐츠에 대한 객체 합성요청을 상기 사용자 단말기로부터 수신하고,Receiving the object synthesis request, the image synthesis system receives the object synthesis request for the source auto-shoot video content from the user terminal,
    상기 레퍼런스 제어 파라미터를 취득하는 단계는, 상기 영상합성 시스템이 제 1 구간 소스 동적 비디오 클립의 제 1 구간 레퍼런스 제어 파라미터 내지 제 n 구간(n은 2 이상의 정수) 소스 동적 비디오 클립의 제 n 구간 레퍼런스 제어 파라미터를 취득하고,The acquiring of the reference control parameter may include: controlling, by the image synthesis system, a first interval reference control parameter of a first interval source dynamic video clip to an nth interval (n is an integer of 2 or more). Get the parameters,
    상기 합성대상 동적 비디오 클립을 검색하는 단계는, 상기 영상합성 시스템이 상기 제 1 구간 레퍼런스 제어 파라미터 내지 제 n 구간 레퍼런스 제어 파라미터에 각각 대응하는 제 1 구간 정합 제어 파라미터 내지 제 n 구간 정합 제어 파라미터를 갖는 합성대상 자동촬영 비디오 컨텐츠의 제 1 구간 합성대상 동적 비디오 클립 내지 제 n 구간 합성대상 동적 비디오 클립을 검색하고,The searching of the synthesis target video clip may include: the image synthesis system having first to nth section matching control parameters corresponding to the first to nth section reference control parameters, respectively; Search for the first to n-th composite video clip of the composite target auto-shoot video content;
    상기 합성 비디오 클립을 생성하는 단계는, 상기 영상합성 시스템이 상기 제 1 구간 소스 동적 비디오 클립의 제 1 구간 소스 객체영상과 상기 제 1 구간 합성대상 동적 비디오 클립의 제 1 구간 합성대상 객체영상이 포함되는 제 1 구간 합성 비디오 클립 내지 상기 제 n 구간 소스 동적 비디오 클립의 제 n 구간 소스 객체영상과 상기 제 n 구간 합성대상 동적 비디오 클립의 제 n 구간 합성대상 객체영상이 포함되는 제 n 구간 합성 비디오 클립을 각각 생성하고,The generating of the synthesized video clip may include the first segment source object image of the first segment source dynamic video clip and the first segment composite object image of the first segment composite video clip. An nth interval composite video clip including an nth interval source object image of the first interval synthesis video clip to an nth interval source dynamic video clip and an nth interval synthesis target object image of the nth interval synthesis target video clip Create each of them,
    상기 합성 비디오 클립을 제공하는 단계는 상기 영상합성 시스템이 상기 제 1 구간 합성 비디오 클립 내지 제 n 구간 합성 비디오 클립을 포함하는 합성 비디오 컨텐츠를 상기 사용자 단말기에게 제공하는 것을 특징으로 하는 카메라워크 기반 영상합성방법.In the providing of the synthesized video clip, the image synthesis system provides the camerawork-based image synthesis, wherein the video synthesis system comprises the synthesized video content including the first to nth interval synthesized video clip to the user terminal. Way.
  11. 제 8 항에 있어서, 상기 합성 비디오 클립을 생성하는 단계는,The method of claim 8, wherein generating the composite video clip comprises:
    상기 영상합성 시스템이 상기 소스 동적 비디오 클립의 배경영상에 상기 소스 객체영상 및 상기 합성대상 객체영상을 합성하여 상기 합성 비디오 클립을 생성하는 것을 특징으로 하는 카메라워크 기반 영상합성방법.And the image synthesis system generates the composite video clip by synthesizing the source object image and the object image to be synthesized with the background image of the source dynamic video clip.
  12. 제 8 항에 있어서,The method of claim 8,
    상기 영상합성방법은, 상기 영상합성 시스템이 상기 사용자 단말기로부터 사용자 선택 배경영상을 입력받는 단계;를 더 포함하여 구성되고,The image synthesizing method further includes the step of receiving, by the image synthesizing system, a user-selected background image from the user terminal.
    상기 합성 비디오 클립을 생성하는 단계는, 상기 영상합성 시스템이 상기 사용자 선택 배경영상에 상기 소스 객체영상 및 상기 합성대상 객체영상을 합성하여 상기 합성 비디오 클립을 생성하는 것을 특징으로 하는 카메라워크 기반 영상합성방법.In the generating of the synthesized video clip, the image synthesis system generates the synthesized video clip by synthesizing the source object image and the synthesis target object image to the user-selected background image. Way.
  13. 제 12 항에 있어서, 상기 합성 비디오 클립을 생성하는 단계는,The method of claim 12, wherein generating the composite video clip comprises:
    상기 영상합성 시스템이 소정의 높이를 갖고 중앙부가 오목한 곡면으로 형성된 배경투영면을 가상공간에 형성하는 제 1 부단계;A first sub-step of the image synthesizing system forming a background projection surface in a virtual space having a predetermined height and having a concave surface at a central portion thereof;
    상기 영상합성 시스템이 상기 가상공간 상의 가상투영점에서 상기 배경투영면에 상기 사용자 선택 배경영상의 적어도 일부를 투영하는 제 2 부단계;A second sub-step of the image synthesis system projecting at least a portion of the user-selected background image on the background projection surface at a virtual projection point on the virtual space;
    상기 영상합성 시스템이 상기 가상공간 상의 상기 가상투영점과 상기 배경투영면 사이에 상기 소스 객체영상 및 상기 합성대상 객체영상을 배치하는 제 3 부단계; 및A third sub-step of the image synthesizing system disposing the source object image and the synthesis target object image between the virtual projection point and the background projection surface on the virtual space; And
    상기 영상합성 시스템이 상기 가상공간에 배치되는 가상카메라의 화각에 상기 사용자 선택 배경영상의 적어도 일부, 상기 소스 객체영상의 적어도 일부, 및 상기 합성대상 객체영상의 적어도 일부를 포함하여 상기 합성 비디오 클립을 생성하는 제 4 부단계;를 포함하여 구성되는 것을 특징으로 하는 카메라워크 기반 영상합성방법.The composite video clip includes at least a portion of the user-selected background image, at least a portion of the source object image, and at least a portion of the synthesis target object image in an angle of view of the virtual camera disposed in the virtual space. And a fourth sub-step of generating the camerawork-based image synthesis method.
  14. 제 8 항에 있어서, 상기 합성대상 동적 비디오 클립을 검색하는 단계는,The method of claim 8, wherein the retrieving the synthesized dynamic video clip comprises:
    상기 영상합성 시스템이 상기 소스 자동촬영 비디오 컨텐츠의 출연자와 온라인 상의 사회적 관계가 있는 다른 출연자가 출연한 상기 자동촬영 비디오 컨텐츠를 우선적으로 검색하는 것을 특징으로 하는 카메라워크 기반 영상합성방법.And the image synthesizing system preferentially searches for the auto-capture video content played by another performer who has an online social relationship with the performer of the source auto-capture video content.
PCT/KR2017/015698 2016-12-30 2017-12-29 Camerawork-based image synthesis system and image synthesis method WO2018124794A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020160183636A KR101843025B1 (en) 2016-12-30 2016-12-30 System and Method for Video Editing Based on Camera Movement
KR10-2016-0183636 2016-12-30

Publications (1)

Publication Number Publication Date
WO2018124794A1 true WO2018124794A1 (en) 2018-07-05

Family

ID=61901640

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/015698 WO2018124794A1 (en) 2016-12-30 2017-12-29 Camerawork-based image synthesis system and image synthesis method

Country Status (2)

Country Link
KR (1) KR101843025B1 (en)
WO (1) WO2018124794A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021056353A1 (en) * 2019-09-26 2021-04-01 深圳市大疆创新科技有限公司 Video editing method, and terminal apparatus
CN113259754A (en) * 2020-02-12 2021-08-13 北京达佳互联信息技术有限公司 Video generation method and device, electronic equipment and storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102259401B1 (en) 2019-11-28 2021-06-01 (주)테슬라시스템 Composing Method of Augment Reality Additional Information in Drone Moving Picture

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040005111A (en) * 2002-07-08 2004-01-16 파인드테크 주식회사 System and method for pvr(personal video recorder)
JP2004531113A (en) * 2001-02-09 2004-10-07 リー,クジン Omnidirectional three-dimensional image data acquisition apparatus by annotation, method and method for enlarging photosensitive area
KR20050077144A (en) * 2004-01-27 2005-08-01 엘지전자 주식회사 Video decoding apparatus and method for the same
JP2009055332A (en) * 2007-08-27 2009-03-12 Mitsubishi Electric Corp Video composition and display device
KR20110123907A (en) * 2010-05-10 2011-11-16 에스케이플래닛 주식회사 Method for providing contents and internet protocol television system thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004531113A (en) * 2001-02-09 2004-10-07 リー,クジン Omnidirectional three-dimensional image data acquisition apparatus by annotation, method and method for enlarging photosensitive area
KR20040005111A (en) * 2002-07-08 2004-01-16 파인드테크 주식회사 System and method for pvr(personal video recorder)
KR20050077144A (en) * 2004-01-27 2005-08-01 엘지전자 주식회사 Video decoding apparatus and method for the same
JP2009055332A (en) * 2007-08-27 2009-03-12 Mitsubishi Electric Corp Video composition and display device
KR20110123907A (en) * 2010-05-10 2011-11-16 에스케이플래닛 주식회사 Method for providing contents and internet protocol television system thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021056353A1 (en) * 2019-09-26 2021-04-01 深圳市大疆创新科技有限公司 Video editing method, and terminal apparatus
CN113259754A (en) * 2020-02-12 2021-08-13 北京达佳互联信息技术有限公司 Video generation method and device, electronic equipment and storage medium
CN113259754B (en) * 2020-02-12 2023-09-19 北京达佳互联信息技术有限公司 Video generation method, device, electronic equipment and storage medium

Also Published As

Publication number Publication date
KR101843025B1 (en) 2018-03-28

Similar Documents

Publication Publication Date Title
US11862198B2 (en) Synthesizing a presentation from multiple media clips
US11381739B2 (en) Panoramic virtual reality framework providing a dynamic user experience
EP3942437B1 (en) Systems and methods for multimedia swarms
US20200388068A1 (en) System and apparatus for user controlled virtual camera for volumetric video
CN106713942B (en) Video processing method and device
CN113115110B (en) Video synthesis method and device, storage medium and electronic equipment
WO2018124794A1 (en) Camerawork-based image synthesis system and image synthesis method
US20140294366A1 (en) Capture, Processing, And Assembly Of Immersive Experience
CN106060526A (en) Live broadcast method and device based on two cameras
KR20160021706A (en) Playing method and the system of 360 degree spacial video
KR20180013391A (en) Apparatus for generating script, apparatus for playing video, and method for controlling screen relating to video based on 360 degree
CN112543344A (en) Live broadcast control method and device, computer readable medium and electronic equipment
CN112153472A (en) Method and device for generating special picture effect, storage medium and electronic equipment
US10764655B2 (en) Main and immersive video coordination system and method
WO2017209468A1 (en) Chroma-key synthesizing system and method for providing three dimensional stereoscopic effects
CN112004100A (en) Driving method for integrating multiple audio and video sources into single audio and video source
WO2017065503A1 (en) Distributed multimedia editing system and editing method
WO2020138541A1 (en) Method and apparatus for generating multi-channel video using mobile terminal
US20170287521A1 (en) Methods, circuits, devices, systems and associated computer executable code for composing composite content
WO2017217789A1 (en) Video content generating system and method using cooperation of plurality of performance objects
WO2014058404A1 (en) Method for filming, displaying and broadcasting 3d video
TWI246324B (en) Method and system for media production in virtual studio
WO2024036945A1 (en) Broadcast-directing control method and apparatus
WO2023042935A1 (en) Method for sharing image, and device and system using same
Jiang et al. Multiple HD Screen-Based Virtual Studio System with Learned Mask-Free Portrait Harmonization

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17886139

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17886139

Country of ref document: EP

Kind code of ref document: A1