WO2017217787A1 - 스튜디오 장비 제어 시퀀스 공유 서비스 제공 시스템 및 제공방법 - Google Patents

스튜디오 장비 제어 시퀀스 공유 서비스 제공 시스템 및 제공방법 Download PDF

Info

Publication number
WO2017217787A1
WO2017217787A1 PCT/KR2017/006254 KR2017006254W WO2017217787A1 WO 2017217787 A1 WO2017217787 A1 WO 2017217787A1 KR 2017006254 W KR2017006254 W KR 2017006254W WO 2017217787 A1 WO2017217787 A1 WO 2017217787A1
Authority
WO
WIPO (PCT)
Prior art keywords
control sequence
control
music
module
section
Prior art date
Application number
PCT/KR2017/006254
Other languages
English (en)
French (fr)
Inventor
김종보
천솔지
Original Assignee
(주)잼투고
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)잼투고 filed Critical (주)잼투고
Publication of WO2017217787A1 publication Critical patent/WO2017217787A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects

Definitions

  • the present invention relates to a system for automatically shooting and editing moving pictures by controlling studio equipment. More specifically, the present invention relates to a system for automatically controlling studio equipment such as a camera, audio, lighting, and the like to shoot and edit a video.
  • a system for automatically controlling studio equipment such as a camera, audio, lighting, and the like to shoot and edit a video.
  • UGC User Generated Contents
  • Automated studios are equipped with professional and editing equipment, but the control sequences of programmed and editing equipment eliminate the cost for both filming and editing personnel, and many users use the same shooting and editing equipment. This minimizes the cost of UGC generation.
  • U.S. Patent Publication No. 2015-0227905 "Digital jukebox device with karaoke and / or photo booth features, and associated methods," of TouchTunes Music, is a karaoke system that controls a camera module by remote control or by a singer tracking method. Initiate. According to the related art, it is possible to produce a high quality video content that matches the performance of the singer rather than the control sequence that is already set, but in the case of the remote control method, a remotely photographing manpower is required to increase the content production cost, The singer tracking method is dynamic compared to the stationary camera angle, but since the camera tracking is simple according to the position of the singer, there is a uniform problem of shooting video content.
  • Patent Document 1 US Patent No. 7,324,166
  • Patent Document 2 US Patent Publication No. 2003-0001846
  • Patent Document 3 United States Patent Application Publication No. 2015-0227905
  • Patent Document 4 US Patent Publication No. 2008-0307304
  • the present invention is to solve the above problems, the control sequence sharing system and method according to the present invention, storing the control sequence for controlling the automated studio equipment, based on the stored control sequence to shoot the preceding video, By allowing the user who has watched the video content to generate his or her own trailing video content using the control sequence used for capturing the preceding video content, the user can eliminate the inconvenience of designing or programming the control sequence directly. Reduce the cost and time required to produce video content by eliminating the need for professional cinematography or editorial personnel, and sharing visual control sequences of leading video content even in spaced or spaced studio equipment. The scope of control sequences And to treat for the purpose.
  • the control sequence sharing system and method according to an embodiment of the present invention further includes a camera movement module, and the control sequence further controls the camera movement module, thereby producing dynamic video content of a dynamic image such as photographed by a professional photographer. To do so for other purposes.
  • the control sequence sharing system and method according to an embodiment of the present invention further includes a lighting module, and the control sequence further controls the lighting module, so that high-quality video content can be produced by adding lighting effects corresponding to the contents of the image. For other purposes.
  • control sequence sharing system and method further includes an audio module, and the control sequence further controls the audio module, thereby facilitating video content added to a natural background sound or video content including a user's singing performance. Another purpose is to make it work.
  • the control sequence sharing system and method further includes a control sequence correction module for generating a control sequence used for the trailing video content based on the control sequence used for the preceding video content, thereby totaling the video content.
  • a control sequence correction module for generating a control sequence used for the trailing video content based on the control sequence used for the preceding video content, thereby totaling the video content. Another object of the present invention is to allow a user to easily generate a trailing video content by automatically correcting a control sequence of the preceding video content even if the playback time is different.
  • control sequence sharing system and method in the preceding video content and the following video content each using different music, for example, the time difference or the interval of the interval, such as the introduction, summing, deeming section
  • the control sequence sharing system and method in the preceding video content and the following video content each using different music, for example, the time difference or the interval of the interval, such as the introduction, summing, deeming section
  • the control sequence sharing system and method comprises: a control sequence storage module for storing a first control sequence generated before shooting; A first camera module for photographing a first subject to generate first video content based on the first control sequence; A first studio equipment control module for controlling the first camera module based on the first control sequence; A video content storage module for storing the first control sequence and the first video content; Providing a content sharing web service for providing a plurality of video contents including the first video content through a communication network, and receiving a sharing request of the first control sequence through a communication network from a user who received the first video content; A web service server; A control sequence correction module for generating a second control sequence based on the first control sequence; A second camera module for photographing a second subject based on the second control sequence to generate second video content; And a second studio equipment control module for controlling the second camera module based on the second control sequence.
  • the control sequence sharing system and method includes a first step of receiving a first control sequence for controlling at least one first camera module; A second step of generating first moving picture content for a first subject by controlling the first camera module based on the first control sequence; Registering the first control sequence and the first video content in a content sharing website where a plurality of video content is registered; Receiving a request for sharing the first control sequence from a user who has received the first video content in the content sharing website; And a fifth step of generating a second control sequence based on the first control sequence, and generating second video content for a second subject by controlling a second camera module based on the second control sequence. Characterized in that.
  • the control sequence sharing system and method stores a control sequence controlling an automated studio equipment, shoots a preceding video based on the stored control sequence, and controls a user who used the preceding video content to shoot the preceding video content.
  • the control sequence sharing system and method further includes a camera movement module, and the control sequence further controls the camera movement module, thereby providing an effect of producing moving image content of a dynamic image such as a professional photographer.
  • the control sequence sharing system and method further includes a lighting module, and the control sequence further controls the lighting module, thereby providing an effect of producing high quality video content with lighting effects corresponding to the contents of the image.
  • the control sequence sharing system and method further includes an audio module, and the control sequence further controls the audio module, thereby making it possible to easily produce video content including natural background sound or video content including a user's singing performance. to provide.
  • the control sequence sharing system and method further includes a control sequence correction module for generating a control sequence used for the trailing video content based on the control sequence used for the preceding video content, thereby adapting even if the total playing time of the video content is different.
  • a control sequence correction module for generating a control sequence used for the trailing video content based on the control sequence used for the preceding video content, thereby adapting even if the total playing time of the video content is different.
  • the control sequence sharing system and method can adaptively control the control sequence according to the time difference or interval of each music in the preceding video content and the following video content using different music, for example, an introductory section, a slicing section, and a contemplating section. By correcting this, it is possible to reuse the control sequence used for other music in the video content including the song performance through adaptive correction.
  • FIG. 1 is a block diagram showing a control sequence sharing system according to an embodiment of the present invention.
  • FIG. 2 is a screen configuration diagram illustrating a web page provided by a web service server according to an exemplary embodiment of the present invention.
  • FIG. 3 is a block diagram of a first control sequence according to an embodiment of the present invention.
  • FIG. 4 is a block diagram of a first control sequence and a second control sequence according to an embodiment of the present invention.
  • FIG. 5 is a configuration diagram of a first control sequence and a second control sequence according to another embodiment of the present invention.
  • FIG. 6 is a flowchart illustrating a control sequence sharing method according to an embodiment of the present invention.
  • control sequence storage module 120 the first studio equipment control module
  • first camera module 132 first camera moving module
  • first lighting module 134 first audio module
  • control sequence correction module 160 second studio equipment control module
  • a part includes a certain component means that the component may further include other components, except for the absence of a special objection thereto.
  • the terms ".. module”, “.. unit”, “.. system”, etc. described in the specification mean a unit that processes at least one function or operation, which is hardware or software or a combination of hardware and software. It may be implemented, and may be included in one device or each other device.
  • the control sequence sharing system includes a first camera module 131, a control sequence storage module 110, a first studio equipment control module 120, a video content storage module 130, a web service server 140, and a second camera module. 171, and the second studio equipment control module 160.
  • the first studio equipment is the first camera module 131, the first camera moving module 132, the first lighting module 133, the first audio module 134, the first studio equipment control module 120, or the first. It may include an editing device.
  • the second studio equipment is the second camera module 171, the second camera moving module 172, the second lighting module 173, the second audio module 174, the second studio equipment control module 160 or the second. It may include an editing device.
  • the first studio equipment and the second studio equipment may transmit and receive a control sequence through a communication network.
  • the first camera module 131 generates a first video content (content_video_1) for the first subject.
  • the first camera module 131 may photograph the plurality of subjects to generate first video content.
  • the first camera module 131 is not particularly limited, and generates a video content that can be played on an information terminal such as a computer by capturing an image.
  • the first camera module 131 may be configured as a single camera device, the first camera module 131 may be configured as a plurality of camera devices to produce high quality first video content content_video_1.
  • a plurality of videos are generated by the plurality of camera devices.
  • the automated editing apparatus may edit the plurality of moving images to generate one first moving image content.
  • the first camera module 131 is not particularly limited and may be a video camera used in a professional studio, or may be a camera module mounted on a smartphone, a tablet computer, or a notebook computer.
  • the first subject is not particularly limited and may be a person, an animal, or an object that is distinguished from the background, for example, a person who sings or acts.
  • the control sequence storing module 110 may include a first control sequence seq_control_device_1 for controlling the first camera module 131, the first camera moving module 132, the first lighting module 133, or the first audio module 134. Save).
  • the first control sequence seq_control_device_1 is a set of commands for controlling the automated photographing equipment or the automated editing equipment, and includes a control target, a control timing, a control function, and the like.
  • the first control sequence includes a command for causing the studio equipment to be controlled to perform a specific function according to the control timing.
  • the first control sequence may further include a command for editing the captured video content.
  • the first control sequence may include a command for controlling the studio equipment photographing the moving image content and a command for editing the captured moving image content.
  • the control sequence storage module 110 may be implemented as a local storage means in a control sequence sharing system, or may be implemented as a server-client storage system in an area spaced through a communication network, and distributed and stored in various regions through a communication network. It can be implemented as a system.
  • the first studio equipment control module 120 controls the first camera module 131 according to the first control sequence seq_control_device_1.
  • the first studio equipment control module 120 may be, for example, a program executed through an operation processing device, and is loaded by a first control sequence seq_control_device_1 stored in the form of a computer file to be recognized by the first camera module 131 as a studio equipment.
  • a camera control command (command_cam) can be generated.
  • the first studio equipment control module 120 may control a function such as focus, zoom, exposure, filter application, etc. of the first camera module 131 through a camera control command (command_cam).
  • the term studio used in the present invention is not limited to a substantially closed space for providing professional shooting, but may be a partially open space or a totally open space to enable automated shooting by a studio equipment control module. Can be.
  • the video content storage module 130 stores the first control sequence seq_control_device_1 and the first video content content_video_1. For example, the video content storage module 130 stores the first control sequence and the first video content separately when storing the first control sequence, or together with data indicating that the first control sequence is associated with the first video content. Can be stored. The user may be provided with only the first control sequence, or may be provided with the first control sequence and the first video content.
  • the video content storage module 130 may store the first video content (content_video_1) generated by the first camera module 131 as it is, and for MPEG-2, MPEG-4, ITU-T H.
  • the first video content content_video_1 may be processed and stored in the form of a compressed video file using a video compression technique such as 263, ITU-T H.264 / MPEG-4, Part 10, Advanced Video Codec (AVC).
  • AVC Advanced Video Codec
  • the first video content content_video_1 may be video content in the order taken by the camera, but for example, video content with subtitles, background video content, and video clips acquired from a plurality of camera devices are partially edited and combined. Video content, video content from which some sections are removed, and the like.
  • the video content storage module 130 may include an identifier indicating the first video content (content_video_1) and a first control sequence ( identifiers representing seq_control_device_1) may be matched and stored.
  • the video content storage module 130 may store link information such as a URL for downloading the first control sequence seq_control_device_1 as metadata of the first video content content_video_1.
  • the video content storage module 130 may store the first video content content_video_1 including the first control sequence seq_control_device_1 having a relatively small data size.
  • the video content storage module 130 may be implemented as a local storage means in a control sequence sharing system, or may be implemented as a server-client storage system in an area spaced through a communication network, and distributed and stored in various areas through a communication network. It can be implemented as a system. Alternatively, the video content storage module 130 may be implemented separately from the control sequence sharing system and implemented in an external video content providing service system operated by another operator.
  • the web service server 140 provides a plurality of video contents including the first video content (content_video_1) to a user through a communication network, and receives a control sequence share request (request_share_seq) from the user through the communication network.
  • the control sequence sharing request may be a message for requesting sharing (or downloading) of the first control sequence used when the user watching the first video content is photographed with the first video content.
  • the web service server 140 may provide a site where a plurality of users register video content and provide the video content to the users through video search or video recommendation.
  • the control sequence share request may be a non-transitory data packet in TCP / IP format including, for example, a share requestor identifier, a first video content (content_video_1) identifier, and / or a first control sequence (seq_control_device_1) identifier. May be).
  • an execution object 211 requesting the first control sequence seq_control_device_1 may be displayed in the playback area 210 of the first video content content_video_1.
  • the user device displays the first control sequence seq_control_device_1 in the form of a web. It may be linked to a web page that can be downloaded from the service server 140, a first control sequence can be downloaded, or a web page that reserves an automated studio that can use the first control sequence seq_control_device_1.
  • the execution object 211 operates, so that the designated web page Users who do not have access to can share the control sequence.
  • an execution object 201 requesting the first control sequence seq_control_device_1 may be displayed in the webpage 200. Can be.
  • the first video content (content_video_1) is produced.
  • the received first control sequence seq_control_device_1 may be received and used to produce second video content content_video_2 that is a user's own video content using the first control sequence.
  • the second camera module 171 generates a second video content (content_video_2) for the second subject.
  • the second camera module 171 is not particularly limited, and generates a video content that can be played back on an information terminal such as a computer by capturing an image.
  • the second camera module 171 may be configured as a single camera device, but may be configured as a plurality of camera devices so as to produce high quality second video content (content_video_2).
  • the second camera module 171 may be controlled based on the first control sequence seq_control_device_1 to have the same number of times as the first camera module 131.
  • the second camera module 171 is configured of camera devices.
  • control sequence sharing system may correct the first control sequence to generate a second control sequence suitable for the plurality of camera devices.
  • the second camera module 171 is not particularly limited, and may be a video camera used in a professional studio, or may be a camera module mounted on a smartphone, a tablet computer, or a notebook computer.
  • the second camera module 171 may be installed at a location geographically separated from the first camera module 131.
  • the first camera module 131 may be installed in New York, USA, and the second camera module 171 may be installed in Seoul, Korea.
  • the second camera module 171 may be the same as the first camera module 131.
  • a user who visits the studio where the first video content (content_video_1) is recorded may capture the second video content (content_video_2) by using a camera module used to photograph the first video content (content_video_1).
  • the second subject is not particularly limited, and may be a person, an animal, or an object that is distinguished from the background, for example, a person who sings or acts.
  • the second subject does not necessarily have to be different from the first subject. For example, when a user who has appeared in the first video content content_video_1 wants to retake a picture using the first control sequence seq_control_device_1 again, the first subject and the second subject may be the same.
  • the second subject may be the user when the user directly appears in the second video content (content_video_2), or the second subject when the user wants to appear in the second video content (content_video_2).
  • the subject may not be a user.
  • the second studio equipment control module 160 controls the second camera module 171 based on the first control sequence or the second control sequence according to the control sequence share request (request_share_seq).
  • the second studio equipment control module 160 may be constituted by a program executed by, for example, an operation processing device, and loads the first control sequence or the second control sequence stored in the form of a computer file, and is the second camera module which is the studio equipment.
  • a camera control command command_cam that can be recognized at 171 may be generated, and the second camera module 171 may be controlled based on the camera control command.
  • the second studio equipment control module 160 may control functions such as focus, zoom, exposure, and filter application of the second camera module 171 through a camera control command (command_cam).
  • the second studio equipment control module 160 may be installed at a location geographically separated from the first studio equipment control module 120, and the second studio equipment control module 160 may be the first studio equipment control module 120. May be the same as).
  • the second studio equipment control module 160 may control the second camera module 171 using the first control sequence seq_control_device_1 as it is.
  • the control sequence correction module 150 may generate a second control sequence seq_control_device_2 by partially modifying the first control sequence seq_control_device_1.
  • the second studio equipment control module 160 may control the second camera module 171 based on the second control sequence. For example, when the type of the first camera module 131 and the type of the second camera module 171 are different, the control sequence correction module 150 controls the first control with a suitable command that can control the second camera module 171. You can change the sequence.
  • the second studio equipment control module 160 may be controlled by compressing or extending the equipment control time by the first studio equipment sequence. An embodiment of generating a second studio equipment sequence based on the first studio equipment sequence will be described later.
  • the editing device edits the moving picture photographed by the camera to generate the edited moving picture content.
  • the editing device may include a processor, a memory, and a display device.
  • the editing apparatus can automatically edit the captured video content, and can manually edit the video content by an operation by the user.
  • the editing apparatus may generate a command used in shooting and editing in a control sequence.
  • the editing apparatus may transmit the control sequence to a server connected through a communication network.
  • the editing apparatus may receive a control sequence from the server or edit the video content by using the received control sequence.
  • the editing apparatus may display the edited moving image content through the display device, and may display a list of the plurality of moving image contents.
  • the editing apparatus may display a control sequence of the video content selected by the user among the plurality of video contents.
  • the editing apparatus may display the control content included in the control sequence.
  • the editing apparatus may display the control content of the camera for photographing the object 10 seconds after the photographing starts.
  • the editing apparatus may display a control content for adjusting the brightness of the lighting 20 seconds after the shooting is started.
  • the editing apparatus may display the commands included in the control sequence on the display apparatus, and may modify the control sequence according to a user input.
  • the editing apparatus may display the control content of the studio equipment controlled according to time, and may change the control point or change the control content according to a user input. For example, the user may change the time at which the camera moves from 10 seconds to 12 seconds. In addition, the user can change the brightness of the controlled light after 20 seconds.
  • the editing apparatus may display a plurality of control sequences on the display apparatus and capture or edit a moving image by using any one of the control sequences selected by the user.
  • the studio equipment may further include not only the camera modules 131 and 171 but also more automated equipment for producing professional and high quality video content.
  • Automated studio equipment includes, for example, camera movement modules 132 and 172 for moving the camera modules 131 and 171, lighting modules 133 and 173 for illuminating the areas photographed by the camera modules 131 and 171, and audio for providing music or sound effects.
  • the module 134 and 174 may be an editing module (or an editing device) that merges, synthesizes, deletes, and cross-edits video clips captured by the plurality of camera modules, respectively.
  • control sequence sharing system may further include a first camera movement module 132 for moving the first camera module 131 and a second camera movement module 172 for moving the second camera module 171. Can be.
  • the first studio equipment control module 120 controls the first camera movement module 132 according to the first control sequence seq_control_device_1, and the second studio equipment control module 160 controls the first control sequence seq_control_device_1. Based on the control of the second camera moving module 172.
  • the camera movement modules 132 and 172 refer to automated studio equipment that changes the spatial position of the camera module such as the photographing position, the photographing angle, the photographing distance of the camera module by a control sequence.
  • the camera movement modules 132 and 172 may be self-contained, for example, a camera arm designed to move the camera module within a fixed trajectory or a vehicle coupled with a camera rail, or a drone designed to move the camera module to an arbitrary position, a remote controlled vehicle, or the like. It may be equipment equipped with a moving means.
  • the high-quality second video content content_video_2 to which professional photographing technology is applied is produced at low cost through the automated camera movement modules 132 and 172 without a photographing expert in the studio.
  • the control sequence sharing system is the first illumination module 133 and the second camera module 171 for illuminating the shooting area of the first camera module 131. It may further include a second lighting module 173 for illuminating the photographing area of the.
  • the first studio equipment control module 120 further controls the first lighting module 133 according to the first control sequence seq_control_device_1, and the second studio equipment control module 160 controls the first control sequence seq_control_device_1. Based on the control of the second lighting module 173 can be further controlled.
  • Lighting modules 133 and 173 refer to automated studio equipment for changing the color, blinking, brightness, direction, etc. of the lighting by a control sequence.
  • the lighting modules 133 and 173 may be lighting systems including a plurality of individually controlled lights.
  • the high-quality second video content content_video_2 can be generated at low cost through the automated lighting modules 133 and 173 even without a lighting control expert in the studio.
  • the control sequence sharing system may include a first audio module 134 for providing a sound according to the first selected music music_1 set in the first control sequence seq_control_device_1. And a second audio module 174 that provides sound based on the first control sequence seq_control_device_1.
  • first studio equipment control module 120 may control the first audio module 134
  • second studio equipment control module 160 may control the second audio module 174.
  • the second audio module 174 does not necessarily need to provide a sound according to the first music music_1, and additionally adds sound effects or modifies the sound according to music with a changed beat based on the first music music_1. It may provide a second music (music_2) different from the first music (music_1). However, even when the second music (_2) provided through the second audio module 174 is different from the first music (music_1), the playback time of the second music (_2), the insertion time of the sound effect, and the like are the first control sequence. It is determined based on (seq_control_device_1).
  • the high-quality second video content content_video_2 is inserted at a low cost through the automated audio modules 134 and 174 through the automated audio modules 134 and 174 without a sound specialist in the studio.
  • the first control sequence seq_control_device_1 as shown in FIG. 3 may include commands defined according to time stamps for controlling the various studio equipments 131, 132, 133, and 134, respectively. That is, the camera control command (command_cam) is configured such that the first camera module 131 performs zoom-in from t1, zooms out from t1 to t2, zoom-in from t2 to t3, and the camera.
  • the movement control command command_arm indicates that the first camera movement module 132 moves forward of the first camera module 131 until t1, the rotation of the first camera module 131 from t1 to t2, and the first camera from t2 to t3.
  • the module 131 may be configured to perform backward movement.
  • the lighting control command (command_light) is configured so that the first lighting module 133 turns on red light from t1, turns on blue light from t1 to t2, and turns off red light from t2 to t3.
  • the audio control command command_audio may be configured such that the first audio module 134 fades in to t1, adds a sound effect from t1 to t2, and fades out from t2 to t3.
  • Each command (command_cam, command_arm, command_light, command_audio) is not necessarily synchronized as shown in FIG. 3, and may be configured to have different timestamps, for example, the first camera module (eg When 131 is configured, the first control sequence may include a plurality of camera control commands to control respective cameras.
  • the second camera module 171 and the second audio module 174 are controlled using the second control sequence seq_control_device_2 corrected based on the first control sequence seq_control_device_1 with reference to FIGS. 4 to 5. An embodiment will be described.
  • control sequence sharing system further includes a control sequence correction module 150 for generating a second control sequence seq_control_device_2 based on the first control sequence seq_control_device_1, and the second studio equipment control module 160 may control the second camera module 171 and the second audio module 174 according to the second control sequence seq_control_device_2.
  • a user who has watched the first video content may want to use the first control sequence (seq_control_device_1) used for the first video content as it is, but the entire time of the second video content (content_video_2) that he / she wants to shoot
  • the first control sequence seq_control_device_1 may be changed to be used, or only a part of the first control sequence may be used.
  • the user may use a recording technique and / or an editing technique of the first video content content_video_1 to use a same song as that of the first video content content_video_1. This section describes how to take a picture.
  • the user uses the control sequence used for the first video content.
  • the second video content is generated, there is a problem that the song and the video that the user sings are not harmonized.
  • the general user can also correct the first control sequence seq_control_device_1 to match the second music selected by the user.
  • control sequence correction module 150 when there is a difference between the total time of the first video content (content_video_1) and the total time of the second video content (content_video_2), FIG. As shown, the control sequence correction module 150 corrects the control timing according to a ratio of the total control time t3 of the first control sequence seq_control_device_1 and the total control time 2t3 of the second control sequence seq_control_device_2.
  • the second control sequence seq_control_device_2 may be generated and the second camera module 171 and the second audio module 174 may be controlled according to the second control sequence.
  • the control sequence correction module 150 sets the control timestamp t1 to 2t1, the control timestamp t2 to 2t2, and t3.
  • the second control sequence seq_control_device_2 may be adaptively corrected according to a difference in the total time (total control time or shooting time) between the video contents.
  • a typical song has a configuration of a prelude, a first introduction, a first section, a deliberation section, a second introduction section, a second section, and a posterior section.
  • the music video is composed of a video of a singer who sings from a distance, or a background without a singer, in the front house, the deputy house, and the rear house where a person does not sing.
  • the introduction section is composed of images that are gradually close up so that the singer is highlighted, and the sections 1 and 2 are often composed of more dynamic images. Therefore, through the section information of the prelude, introduction, and section of the song, by applying the shooting or editing techniques for each section applied to the song to other songs, if you create a video content by shooting a person singing a different song, Natural video content may be generated.
  • control sequence storage module 110 may include at least a first section of the first music 1 and a second section of the first music 1. And a first control sequence seq_control_device_1 in which a third section of the first music music_1 is distinguished, and the second audio module 174 according to the second music set to the second control sequence seq_control_device_2. Provide sound.
  • the control sequence correction module 150 controls the section control time t1 of the first section of the first music_1 and the section control time of the first section of the second music_2.
  • the control timing of the second control sequence seq_control_device_2 corresponding to the first section of the second music music_2 is corrected according to the ratio of t ⁇ 1), and the section control time of the second section of the first music music_1
  • the control timing of the second section of the second music (music_2) is corrected according to the ratio of the section control time t ⁇ 2-t ⁇ 1 of the second section of the second music (music_2) to t2-t1, and According to the ratio of the section control time of the third section t3-t2 of the first music _1 and the section control time of the third section t ⁇ 3-t ⁇ 2 of the second music _2, the second music (
  • the control timing of the third section of music_2 is corrected to generate a second control sequence seq_control_device_2.
  • the first music_1 and the second music_2 may not be limited to three sections but may be divided into four or more sections according to an embodiment.
  • a second control sequence eg, a photographing technique and / or an editing technique of the first video content (content_video_1) is naturally corrected
  • seq_control_device_2 it is applied to seq_control_device_2 to provide an effect of generating high quality second video content content_video_2 at a low cost.
  • the shooting technique and / or editing technique applied to the fast beat of music is applied to the late beat of music as it is, there is a problem of generating a very unnatural second video content (content_video_2).
  • the control sequence sharing system includes the control sequence correction module 150 to solve this problem
  • the second audio module 174 is connected to the second music_2 set in the second control sequence seq_control_device_2.
  • the control sequence storage module 110 stores the first control sequence seq_control_device_1 corresponding to the beat of the first music music_1, and the control sequence correction module 150 stores the first music music_1.
  • the second control sequence may be generated by comparing the bit of the second music bit with the bit of the second music music_2 and correcting the first control sequence according to the bit of the second music music_2.
  • the first control sequence seq_control_device_1 may be selected as the second music even in the second video content content_video_2 using the second music music_2 having a different beat from the first music_1 of the first video content content_video_1.
  • the second control sequence seq_control_device_2 is automatically generated to correspond to the bit of (music_2), and high quality second video content content_video_2 is generated based on the second control sequence at low cost.
  • control sequence sharing method according to the present invention will be described with reference to FIG. 6.
  • the description and repeated portions of the above-described control sequence sharing system will not be described in detail.
  • the first studio equipment control system performs a first step s10 of receiving a first control sequence seq_control_device_1 for controlling at least one first camera module 131.
  • the first studio equipment control system performs functions such as focus, zoom, exposure, filter application, etc. of the first camera module 131 through a camera control command command_cam of the first control sequence seq_control_device_1. Can be controlled.
  • the first subject is not particularly limited and may be a person, an animal, or an object that is distinguished from the background, for example, a person who sings or acts.
  • the first video content generated by the first camera module 131 refers to non-transitory contents that can be played through the information terminal.
  • Video content is based on video compression standards such as MPEG-2, MPEG-4, ITU-T H.263, ITU-T H.264 / MPEG-4, Part 10, Advanced Video Coedc (AVC), etc. It may be a compressed video file to which a video compression technology is applied.
  • the first video content content_video_1 may be video content in the order taken by the camera.
  • the first video content content_video_1 may be partially edited by video content with additional captions, video content with a background synthesis, and video clips acquired from a plurality of camera devices.
  • the video content may be continuous, video content edited to remove some sections, and the like.
  • the first studio equipment control system performs a third step S30 of registering the first control sequence seq_control_device_1 and the first video content content_video_1 on the content sharing website where the plurality of video content is registered.
  • the first studio equipment control system may separately register the first video content and the first control sequence or register the first video content and the first control sequence to be associated with each other.
  • the first studio equipment control system includes an identifier indicating the first video content (content_video_1) to indicate that the first video content (content_video_1), which may be a different file format, and the first control sequence (seq_control_device_1) are associated with each other.
  • Identifiers representing the first control sequence seq_control_device_1 may be matched with each other and registered in the content sharing website.
  • the link information such as a URL from which the first studio equipment control system can download the first control sequence seq_control_device_1 may be embedded as metadata of the first video content content_video_1 to register on the content sharing website.
  • the first studio equipment control system may register the first video content content_video_1 including the first control sequence seq_control_device_1 with a relatively small data size to the content sharing website.
  • the content sharing website refers to a website that provides a plurality of video contents including a first video content (content_video_1) through a communication network.
  • the content sharing website may be, for example, a general video content sharing site where a plurality of users register video content and receive video content through video search or video recommendation.
  • the second studio equipment control system performs a fourth step S40 of receiving a control sequence sharing request request_share_seq requesting sharing of the first control sequence seq_control_device_1 from the user.
  • the control sequence sharing request may be a message requesting to transmit the first control sequence.
  • the first control sequence is data stored separately from the first video content provided from the content sharing website or associated with the first video content, and data relating to capturing and editing the first video content.
  • the first studio equipment control system and the second studio equipment control system are separately installed.
  • the second studio equipment control system may be the same as the first studio equipment control system.
  • the second studio equipment control system may be the same as the first studio equipment control system.
  • the user may execute the execution object 211 or the playback area of the first video content content_video_1 that requests the first control sequence seq_control_device_1 in the playback area 210 of the first video content content_video_1.
  • the control sequence sharing request request_share_seq may be transmitted by the user selecting the execution object 201 requesting the first control sequence seq_control_device_1 in the webpage 200 other than 210.
  • control sequence sharing request (request_share_seq) generated through the user's terminal is transmitted to the second studio equipment control system for generating the second video content (content_video_2) via the content sharing website.
  • the second camera module 171 may be the same as the first camera module 131.
  • the second subject is not particularly limited, and may be a person, an animal, or an object that is distinguished from the background, for example, a person who sings or acts.
  • the creator of the first video content (content_video_1) produces the second video content (content_video_2) by re-photographing a second subject that is the same as the first subject, the second subject may be the same as the first subject.
  • the second video content content_video_2 refers to non-transitory contents that can be reproduced through an information terminal in the same manner as the first video content content_video_1.
  • Video content is based on video compression standards such as MPEG-2, MPEG-4, ITU-T H.263, ITU-T H.264 / MPEG-4, Part 10, Advanced Video Coedc (AVC), etc. It may be a compressed video file to which a video compression technology is applied.
  • the second video content content_video_2 may be video content in the order in which the images are taken by the camera, the second video content content_video_2 may be partially edited, for example, video content with additional subtitles, video content with background synthesis, and video clips acquired from a plurality of camera devices.
  • the video content may be continuous, video content edited to remove some sections, and the like.
  • the second video content content_video_2 generated through the fifth step s50 may be registered separately from the first control sequence or the second control sequence, or may be stored in association with the first control sequence or the second control sequence.
  • Other users who watched the second video content content_video_2 may request the first control sequence or the second control sequence.
  • Other users may produce subsequent third video content (content_video_3) or fourth video content (content_video_4) based on the first control sequence seq_control_device_1 or the second control sequence.
  • the present invention shares the first designed control sequence seq_control_device_1 with multiple users to provide an effect of reuse in a plurality of subsequent video contents.
  • the studio equipment may further include not only the camera modules 131 and 171 but also more automated equipment for producing professional and high quality video contents.
  • automated studio equipment includes, for example, camera movement modules 132 and 172 for moving the camera modules 131 and 171, lighting modules 133 and 173 for illuminating the shooting area of the camera module, audio modules 134 and 174 for providing music or sound effects,
  • an editing module for merging, composing, deleting a section, and cross-editing video clips captured by the plurality of camera modules may be illustrated.
  • control sequence includes a command to control the camera movement modules 132 and 172
  • first camera movement module in which the first studio equipment control system moves the first camera module 131 in the first step S10.
  • a first control sequence seq_control_device_1 for controlling 132 is input.
  • the first studio equipment control system controls the first camera movement module 132 according to the first control sequence seq_control_device_1 to generate the first video content content_video_1.
  • the second studio equipment control system controls the second camera movement module 172 based on the first control sequence seq_control_device_1 to generate a second video content content_video_2.
  • the high-quality second video content content_video_2 to which professional photographing technology is applied is produced at low cost through the automated camera movement modules 132 and 172 without a photographing expert in the studio.
  • control sequence includes a command for controlling the lighting modules 133 and 173
  • seq_control_device_1) is input.
  • the first studio equipment control system controls the first lighting module 133 according to the first control sequence seq_control_device_1 to generate a first video content content_video_1.
  • the second studio equipment control system controls the second lighting module 173 based on the first control sequence seq_control_device_1 to generate the second video content content_video_2.
  • the high-quality second video content content_video_2 can be generated at low cost through the automated lighting modules 133 and 173 without a lighting control expert in the studio.
  • control sequence includes commands to control the audio modules 134 and 174
  • the first audio module 134 in which the first studio equipment control system provides the first music (music_1) in a first step (s10).
  • the first control sequence seq_control_device_1 for controlling the input is received.
  • the first studio equipment control system controls the first audio module 134 according to the first control sequence seq_control_device_1 to generate a first video content content_video_1.
  • the second studio equipment control system controls the second audio module 174 based on the first control sequence seq_control_device_1 to generate the second video content content_video_2.
  • the high-quality second video content content_video_2 with appropriate sound effects is inserted at low cost through an automated audio module 134,174 without a sound specialist in the studio.
  • the step (s51) of generating a second control sequence is further performed.
  • the second video content content_video_2 may be generated through the second control sequence seq_control_device_2 which is automatically corrected to correspond to the second video content content_video_2.
  • the second studio equipment control system may control the second camera module 171 according to the second control sequence seq_control_device_2 to generate the second video content content_video_2.
  • the second studio equipment control system controls the total control of the first control sequence seq_control_device_1 in step s51.
  • the control timing is corrected according to the ratio of time and the total control time of the second control sequence seq_control_device_2, and in step s50, the second studio equipment control system performs a second camera module according to the corrected second control sequence seq_control_device_2.
  • the second video content content_video_2 may be generated by controlling 171.
  • the first video content (content_video_1) and the second video content (content_video_2) are recorded and edited with music, and the first music (music_1) and the second music (music_2) are pre-introductory part, introductory part, sergeant, deemed part, after If there is a difference in the length of a particular section such as a housewife, the first studio equipment control system at least in the first step (s10) the first section of the first music (music_1), the second section of the first music (music_1) and The first control sequence seq_control_device_1 in which the third section of the first music music_1 is distinguished is input.
  • a fifth step (s50) the second studio equipment control system according to the ratio of the section control time of the first section of the first music (music_1) and the section control time of the first section of the second music (music_2)
  • the control timing (s51) the second section of the second music (music_2), the section control time of the third section of the first music (music_1) and the section control time of the third section of the second music (music_2)
  • the second camera module 171 and the second audio module 174 according to the second control sequence seq_control_device_2 in which the third section of the second music music_2 is corrected according to the ratio of the control (s51) (s51).
  • the first step ( In S10, the first studio equipment control system receives a first control sequence seq_control_device_1 corresponding to the beat of the first music_1.
  • the second studio equipment control system compares the beats of the first music (music_1) and the beats of the second music (music_2) and is corrected according to the beats of the second music (music_2).
  • the second camera module 171 may be controlled according to the second control sequence seq_control_device_2 to generate second video content (content_video_2).

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Computer Security & Cryptography (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Studio Devices (AREA)

Abstract

제어 시퀀스 공유 방법은 적어도 하나의 제 1 카메라 모듈을 제어하기 위한 제 1 제어 시퀀스를 입력받는 단계; 상기 제 1 제어 시퀀스에 기반하여 상기 제 1 카메라 모듈을 제어하여 제 1 피사체에 대한 제 1 동영상 컨텐츠를 생성하는 단계; 복수의 동영상 컨텐츠가 등록된 컨텐츠 공유 웹사이트에 상기 제 1 제어 시퀀스와 상기 제 1 동영상 컨텐츠를 등록하는 단계; 상기 컨텐츠 공유 웹사이트에서 상기 제 1 동영상 컨텐츠를 제공받은 사용자로부터 상기 제 1 제어 시퀀스의 공유 요청을 수신받는 단계; 및 상기 제 1 제어 시퀀스에 기반하여 제 2 제어 시퀀스를 생성하고, 상기 제 2 제어 시퀀스에 기반하여 제 2 카메라 모듈을 제어하여 제 2 피사체에 대한 제 2 동영상 컨텐츠를 생성하는 단계;를 포함한다.

Description

스튜디오 장비 제어 시퀀스 공유 서비스 제공 시스템 및 제공방법
본 발명은 스튜디오 장비를 제어하여 자동으로 동영상을 촬영 및 편집하는 시스템에 관한 것이다. 보다 구체적으로, 본 발명은 카메라, 오디오, 조명 등의 스튜디오 장비를 자동으로 제어하여 동영상을 촬영 및 편집하는 시스템에 관한 것이다.
개인용 동영상 촬영 장비의 발전과 동영상 컨텐츠 공유 사이트의 발전에 의해 사용자가 제작한 동영상 컨텐츠인 UGC(User Generated Contents)의 제작이 활성화되었다. 개인이 촬영 및 편집한 UGC는 전문가에 의한 동영상 컨텐츠에 비교하여 낮은 품질을 갖는다. 사용자가 높은 품질의 동영상 컨텐츠를 생성하기 위해서는 전문적인 촬영 장비 및 촬영 인력과 전문적인 편집 장비 및 편집 인력이 필요하다. 하지만 수익을 추구하지 않는 UGC에 있어서 개인적 사용을 위해 사용자가 전문적인 장비와 인력을 구비하는 것은 어려운 일이다.
이를 극복하기 위해 자동화된 스튜디오들이 제안되었다. 자동화된 스튜디오는 전문적인 촬영 장비와 편집 장비를 갖추었지만 프로그램화된 촬영 장비 및 편집 장비의 제어 시퀀스를 통해 촬영 인력 및 편집 인력에 소요되는 비용을 제거하고, 많은 사용자들이 동일한 촬영 장비 및 편집 장비를 사용함으로써 UGC 생성에 필요한 비용을 최소화할 수 있다.
그런데, 자동화된 스튜디오의 프로그램화된 제어 시퀀스를 설정하기 위해서는 또 다른 전문적인 기술이 요구되는 문제가 있다. 따라서 일반 사용자가 카메라 제어, 조명 제어, 오디오 제어를 자신의 퍼포먼스에 부합하도록 설계하고, 설계된 제어를 프로그램으로 작성한 제어 시퀀스를 생성하는 것은 매우 어려운 일이다. 따라서 종래의 자동화 스튜디오들은 정해진 제어 시퀀스만 사용하거나 몇 가지 제어 시퀀스들에서 사용자가 선택하도록 구현되었다. 하지만 UGC의 내용이 노래, 연기, 요리, 제품 리뷰, 운동 등으로 매우 다양하기 때문에 몇 가지 정해진 제어 시퀀스만으로 다양한 컨텐츠에 대응할 수 없는 문제가 있다.
Contour Entertainment사의 미국등록특허 제7,324,166호 "Live actor integration in pre-recoded will know video" 및 Amova사의 미국공개특허공보 제2003-0001846호 "Automatic personalized media creation system"은 카메라 모듈, 조명 모듈 등을 자동 제어하여 개인화된 동영상 컨텐츠를 제작하는 시스템을 개시한다. 본 종래기술들에 따르면 자동화된 장비를 이용하기 때문에 적은 비용으로 개인화된 동영상 컨텐츠를 제작할 수 있는 효과가 있지만 예컨대 영화 속 유명한 장면을 따라하는 연기의 수행과 그에 부합하는 기설정된 제어 시퀀스에 따라 동영상 컨텐츠가 제작되기 때문에 제작되는 동영상 컨텐츠의 내용이 한정적인 문제가 있다.
TouchTunes Music사의 미국공개특허공보 제2015-0227905호 "Digital jukebox device with karaoke and/or photo booth features, and associated methods"는 원격 제어 방식으로 카메라 모듈을 제어하거나 가창자 추적 방식으로 카메라 모듈을 제어하는 카라오케 시스템을 개시한다. 본 종래기술에 따르면 이미 설정된 제어 시퀀스가 아닌 가창자의 퍼포먼스에 부합하는 높은 품질의 동영상 컨텐츠를 제작할 수 있는 효과가 있지만, 원격 제어 방식의 경우 원격에 위치한 촬영 인력이 요구되어 컨텐츠 제작비용이 증가하고, 가창자 추적 방식의 경우 정지된 카메라 앵글에 비해서는 역동적이지만 가창자의 위치에 따른 단순한 카메라 추적이기 때문에 동영상 컨텐츠의 촬영기법이 획일적인 문제가 있다.
Grundy UFA TV 사의 미국공개특허공보 제2008-0307304호 "Method and system for producing a sequence of views"는 "주연배우에게 카메라 줌인"과 같은 자연어인 메타 스크립트를 카메라를 제어하기 위한 제어 시퀀스로 변환하는 시스템을 개시한다. 본 종래기술에 따르면 복잡한 제어 시퀀스를 직접 입력하지 않고도 자연어에 가까운 메타 스크립트를 통해 자동화 스튜디오 장비를 제어하는 효과를 제공하지만, 카메라 이동에 따른 장면의 효과를 숙지하지 못하고 카메라 제어방법에 익숙하지 못한 비전문가인 일반 사용자 입장에서는 여전히 사용상에 불편함이 있을 뿐 아니라 작성된 메타 스크립트를 다른 동영상 촬영에 공유할 수 없는 문제가 있다.
[선행기술문헌]
(특허문헌 1) 미국등록특허 제7,324,166호
(특허문헌 2) 미국공개특허공보 제2003-0001846호
(특허문헌 3) 미국공개특허공보 제2015-0227905호
(특허문헌 4) 미국공개특허공보 제2008-0307304호
본 발명은 상기의 문제를 해결하기 위한 것으로, 본 발명에 따른 제어 시퀀스 공유 시스템 및 방법은, 자동화된 스튜디오 장비를 제어하는 제어 시퀀스를 저장하고, 저장된 제어 시퀀스에 기반하여 선행 동영상을 촬영하고, 선행 동영상 컨텐츠를 감상한 사용자가 선행 동영상 컨텐츠의 촬영에 사용된 제어 시퀀스를 이용하여 자신의 후행 동영상 컨텐츠를 생성하도록 함으로써, 사용자는 자신이 직접 제어 시퀀스를 설계 또는 프로그램하는 불편함을 해소할 수 있고, 전문적인 촬영 인력 또는 편집 인력이 불요하여 동영상 컨텐츠 제작에 소요되는 비용 및 시간을 저감할 수 있고, 서로 시간적 또는 공간적으로 이격된 스튜디오 장비에서도 선행 동영상 컨텐츠의 제어 시퀀스를 공유하기 때문에 시각적 또는 공간적 제한 없이 제어 시퀀스의 적용 범위를 확대하는 것을 목적으로 한다.
본 발명의 실시예에 따른 제어 시퀀스 공유 시스템 및 방법은 카메라 이동모듈을 더 포함하고, 제어 시퀀스는 카메라 이동모듈을 더 제어함으로써, 전문 촬영 인력이 촬영한 것과 같은 역동적인 영상의 동영상 컨텐츠를 제작할 수 있도록 하는 것을 다른 목적으로 한다.
본 발명의 실시예에 따른 제어 시퀀스 공유 시스템 및 방법은 조명모듈을 더 포함하고, 제어 시퀀스는 조명모듈을 더 제어함으로써, 영상의 내용에 부합하는 조명효과가 부가된 고품질의 동영상 컨텐츠를 제작할 수 있도록 하는 것을 다른 목적으로 한다.
본 발명의 실시예에 따른 제어 시퀀스 공유 시스템 및 방법은 오디오 모듈을 더 포함하고, 제어 시퀀스는 오디오 모듈을 더 제어함으로써, 자연스러운 배경음에 부가된 동영상 컨텐츠 또는 사용자의 가창 퍼포먼스를 수록한 동영상 컨텐츠를 용이하게 제작할 수 있도록 하는 것을 다른 목적으로 한다.
본 발명의 실시예에 따른 제어 시퀀스 공유 시스템 및 방법은, 선행 동영상 컨텐츠에 사용된 제어 시퀀스를 기반으로 후행 동영상 컨텐츠에 사용되는 제어 시퀀스를 생성하는 제어 시퀀스 보정모듈을 더 포함함으로써, 동영상 컨텐츠의 총 재생시간이 다른 경우라도 적응적으로 선행 동영상 컨텐츠의 제어 시퀀스를 자동으로 보정함으로써 사용자가 용이하게 후행 동영상 컨텐츠를 생성하도록 하는 것을 다른 목적으로 한다.
마지막으로, 본 발명의 실시예에 따른 제어 시퀀스 공유 시스템 및 방법은, 각각 다른 음악을 사용하는 선행 동영상 컨텐츠와 후행 동영상 컨텐츠에 있어서, 예컨대 도입부, 절정부, 간주부와 같은 구간의 시간 차이 또는 각 음악의 비트에 따라 제어 시퀀스를 적응적으로 보정함으로써, 가창 퍼포먼스를 수록한 동영상 컨텐츠에 있어서 다른 음악에 사용된 제어 시퀀스를 적응적 보정을 통해 재사용하는 것을 다른 목적으로 한다.
본 발명에 따른 제어 시퀀스 공유 시스템 및 방법은 촬영 전에 생성된 제 1 제어 시퀀스를 저장하는 제어 시퀀스 저장모듈; 상기 제 1 제어 시퀀스에 기반하여 제 1 피사체를 촬영하여 제 1 동영상 컨텐츠를 생성하는 제 1 카메라 모듈; 상기 제 1 제어 시퀀스에 기반하여 상기 제 1 카메라 모듈을 제어하는 제 1 스튜디오 장비 제어모듈; 상기 제 1 제어 시퀀스와 상기 제 1 동영상 컨텐츠를 저장하는 동영상 컨텐츠 저장모듈; 상기 제 1 동영상 컨텐츠를 포함하는 복수의 동영상 컨텐츠들을 통신망을 통해 제공하는 컨텐츠 공유 웹서비스를 제공하고, 상기 제 1 동영상 컨텐츠를 제공받은 사용자로부터 상기 제 1 제어 시퀀스의 공유 요청을 통신망을 통해 수신하는 웹서비스 서버; 상기 제 1 제어 시퀀스에 기반하여 제 2 제어 시퀀스를 생성하는 제어 시퀀스 보정모듈; 상기 제 2 제어 시퀀스에 기반하여 제 2 피사체를 촬영하여 제 2 동영상 컨텐츠를 생성하는 제 2 카메라 모듈; 및 상기 제 2 제어 시퀀스에 기반하여 상기 제 2 카메라 모듈을 제어하는 제 2 스튜디오 장비 제어모듈;을 포함하는 것을 특징으로 한다.
본 발명에 따른 제어 시퀀스 공유 시스템 및 방법은 적어도 하나의 제 1 카메라 모듈을 제어하기 위한 제 1 제어 시퀀스를 입력받는 제 1 단계; 상기 제 1 제어 시퀀스에 기반하여 상기 제 1 카메라 모듈을 제어하여 제 1 피사체에 대한 제 1 동영상 컨텐츠를 생성하는 제 2 단계; 복수의 동영상 컨텐츠가 등록된 컨텐츠 공유 웹사이트에 상기 제 1 제어 시퀀스와 상기 제 1 동영상 컨텐츠를 등록하는 제 3 단계; 상기 컨텐츠 공유 웹사이트에서 상기 제 1 동영상 컨텐츠를 제공받은 사용자로부터 상기 제 1 제어 시퀀스의 공유 요청을 수신받는 제 4 단계; 및 상기 제 1 제어 시퀀스에 기반하여 제 2 제어 시퀀스를 생성하고, 상기 제 2 제어 시퀀스에 기반하여 제 2 카메라 모듈을 제어하여 제 2 피사체에 대한 제 2 동영상 컨텐츠를 생성하는 제 5 단계;를 포함하는 것을 특징으로 한다.
제어 시퀀스 공유 시스템 및 방법은, 자동화된 스튜디오 장비를 제어하는 제어 시퀀스를 저장하고, 저장된 제어 시퀀스에 기반하여 선행 동영상을 촬영하고, 선행 동영상 컨텐츠를 감상한 사용자가 선행 동영상 컨텐츠의 촬영에 사용된 제어 시퀀스를 이용하여 자신의 후행 동영상 컨텐츠를 생성하도록 함으로써, 사용자는 자신이 직접 제어 시퀀스를 설계 또는 프로그램하는 불편함을 해소할 수 있고, 자동화된 스튜디오 장비를 이용하므로 전문적인 촬영인력 또는 편집인력이 불요하여 동영상 컨텐츠 제작에 소요되는 비용 및 시간을 저감할 수 있고, 서로 시간적 또는 공간적으로 이격된 스튜디오 장비에서도 선행 동영상 컨텐츠의 제어 시퀀스를 공유하기 때문에 시각적 또는 공간적 제한 없이 제어 시퀀스의 적용 범위를 확대하는 효과를 제공한다.
제어 시퀀스 공유 시스템 및 방법은 카메라 이동모듈을 더 포함하고, 제어 시퀀스는 카메라 이동모듈을 더 제어함으로써, 전문 촬영인력이 촬영한 것과 같은 역동적인 영상의 동영상 컨텐츠를 제작할 수 있도록 하는 효과를 제공한다.
제어 시퀀스 공유 시스템 및 방법은 조명모듈을 더 포함하고, 제어 시퀀스는 조명모듈을 더 제어함으로써, 영상의 내용에 부합하는 조명효과가 부가된 고품질의 동영상 컨텐츠를 제작할 수 있도록 하는 효과를 제공한다.
제어 시퀀스 공유 시스템 및 제공방법은 오디오 모듈을 더 포함하고, 제어 시퀀스는 오디오 모듈을 더 제어함으로써, 자연스러운 배경음이 부가된 동영상 컨텐츠 또는 사용자의 가창 퍼포먼스를 포함한 동영상 컨텐츠를 용이하게 제작할 수 있도록 하는 효과를 제공한다.
제어 시퀀스 공유 시스템 및 방법은, 선행 동영상 컨텐츠에 사용된 제어 시퀀스를 기반으로 후행 동영상 컨텐츠에 사용되는 제어 시퀀스를 생성하는 제어 시퀀스 보정모듈을 더 포함함으로써, 동영상 컨텐츠의 총 재생시간이 다른 경우라도 적응적으로 선행 동영상 컨텐츠의 제어 시퀀스를 자동으로 보정함으로써 사용자가 용이하게 후행 동영상 컨텐츠를 생성하도록 하는 효과를 제공한다.
제어 시퀀스 공유 시스템 및 방법은, 각각 다른 음악을 사용하는 선행 동영상 컨텐츠와 후행 동영상 컨텐츠에 있어서, 예컨대 도입부, 절정부, 간주부와 같은 구간의 시간 차이 또는 각 음악의 비트에 따라 제어 시퀀스를 적응적으로 보정함으로써, 가창 퍼포먼스를 포함한 동영상 컨텐츠에 있어서 다른 음악에 사용된 제어 시퀀스를 적응적 보정을 통해 재사용하는 효과를 제공한다.
도 1은 본 발명의 실시예에 따른 제어 시퀀스 공유 시스템을 도시하는 구성도.
도 2는 본 발명의 실시예에 따른 웹서비스 서버가 제공하는 웹페이지를 도시하는 화면 구성도.
도 3은 본 발명의 실시예에 따른 제 1 제어 시퀀스의 구성도.
도 4는 본 발명의 실시예에 따른 제 1 제어 시퀀스와 제 2 제어 시퀀스의 구성도.
도 5는 본 발명의 다른 실시예에 따른 제 1 제어 시퀀스와 제 2 제어 시퀀스의 구성도.
도 6은 본 발명의 실시예에 따른 제어 시퀀스 공유 방법을 도시하는 흐름도.
110 : 제어 시퀀스 저장모듈 120 : 제 1 스튜디오 장비 제어모듈
131 : 제 1 카메라 모듈 132 : 제 1 카메라 이동모듈
133 : 제 1 조명모듈 134 : 제 1 오디오 모듈
130 : 동영상 컨텐츠 저장모듈 140 : 웹서비스 서버
150 : 제어 시퀀스 보정모듈 160 : 제 2 스튜디오 장비 제어모듈
171 : 제 2 카메라 모듈 172 : 제 2 카메라 이동모듈
173 : 제 2 조명모듈 174 : 제 2 오디오 모듈
본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정 해석되어서는 안되며, 발명자는 자신의 발명을 최선의 방법으로 설명하기 위해 용어와 개념을 정의할 수 있는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 한다.
따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 바람직한 일 실시예에 해당하며, 본 발명의 기술적 사상을 모두 대변하는 것이 아니므로 해당 구성은 본 발명의 출원시점에서 이를 대체할 다양한 균등물과 변형예가 있을 수 있다.
명세서 전반에서 어떠한 부분이 어떤 구성요소를 "포함"한다는 기재는, 이에 대한 특별한 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한 명세서에 기재된 "..모듈", "..부", "..시스템" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있으며, 하나의 장치 또는 각각 다른 장치에 포함될 수 있다.
< 제어 시퀀스 공유 시스템 >
이하에서는 도면을 참조하여 본 발명에 따른 제어 시퀀스 공유 시스템을 설명한다. 도 1은 본 발명에 따른 제어 시퀀스 공유 시스템을 도시한다. 제어 시퀀스 공유 시스템은 제 1 카메라 모듈(131), 제어 시퀀스 저장모듈(110), 제 1 스튜디오 장비 제어모듈(120), 동영상 컨텐츠 저장모듈(130), 웹서비스 서버(140), 제 2 카메라 모듈(171), 및 제 2 스튜디오 장비 제어모듈(160)을 포함한다.
제 1 스튜디오 장비는 제 1 카메라 모듈(131), 제 1 카메라 이동모듈(132), 제 1 조명모듈(133), 제 1 오디오 모듈(134), 제 1 스튜디오 장비 제어모듈(120) 또는 제 1 편집 장치를 포함할 수 있다. 제 2 스튜디오 장비는 제 2 카메라 모듈(171), 제 2 카메라 이동모듈(172), 제 2 조명모듈(173), 제 2 오디오 모듈(174), 제 2 스튜디오 장비 제어모듈(160) 또는 제 2 편집 장치를 포함할 수 있다. 제 1 스튜디오 장비 및 제 2 스튜디오 장비는 통신망을 통해 제어 시퀀스를 송수신할 수 있다.
제 1 카메라 모듈(131)은 제 1 피사체에 대한 제 1 동영상 컨텐츠(content_video_1)를 생성한다. 제 1 카메라 모듈(131)은 복수의 피사체들을 촬영하여, 제 1 동영상 컨텐츠를 생성할 수도 있다. 제 1 카메라 모듈(131)은 특별히 제한되지 않으며 영상을 촬영하여 컴퓨터 등의 정보 단말기에서 재생할 수 있는 동영상 컨텐츠를 생성한다. 제 1 카메라 모듈(131)은 단일의 카메라 장치로 구성될 수도 있으나, 높은 품질의 제 1 동영상 컨텐츠(content_video_1)를 생산할 수 있도록 복수의 카메라 장치들로 구성될 수 있다. 제 1 카메라 모듈(131)이 복수의 카메라 장치들을 포함하는 경우, 복수의 카메라 장치들에 의해 복수의 동영상들이 생성된다. 자동화된 편집 장치는 복수의 동영상들을 편집하여 하나의 제 1 동영상 컨텐츠를 생성할 수 있다.
제 1 카메라 모듈(131)은 특별히 제한되지 않으며 전문 스튜디오에서 사용하는 동영상 촬영용 카메라일 수도 있고, 스마트폰, 태블릿 컴퓨터, 노트북 컴퓨터에 장착된 카메라 모듈일 수 있다.
제 1 피사체는 특별히 제한되지 않으며, 배경과 구별되는 사람, 동물, 사물일 수 있으며, 예컨대 노래를 하거나 연기를 하는 사람일 수 있다.
제어 시퀀스 저장모듈(110)은 제 1 카메라 모듈(131), 제 1 카메라 이동모듈(132), 제 1 조명모듈(133) 또는 제 1 오디오 모듈(134)을 제어하기 위한 제 1 제어 시퀀스(seq_control_device_1)를 저장한다. 제 1 제어 시퀀스(seq_control_device_1)는 도 3에 도시된 바와 같이 자동화된 촬영 장비 또는 자동화된 편집 장비를 제어하기 위한 커맨드들의 집합이고, 제어 대상, 제어 타이밍, 제어 기능 등을 포함한다. 다시 말해서, 제 1 제어 시퀀스는 제어 타이밍에 따라 제어의 대상인 스튜디오 장비가 특정한 기능을 수행하도록 하는 커맨드를 포함한다. 제 1 제어 시퀀스는 촬영된 동영상 컨텐츠를 편집하는 커맨드를 더 포함할 수 있다. 다시 말해서, 제 1 제어 시퀀스는 동영상 컨텐츠를 촬영하는 스튜디오 장비를 제어하는 커맨드와 촬영된 동영상 컨텐츠를 편집하는 커맨드를 함께 포함할 수 있다.
제어 시퀀스 저장모듈(110)은 제어 시퀀스 공유 시스템 내의 로컬 저장수단으로 구현될 수도 있고, 통신망을 통해 이격된 지역에 서버-클라이언트 저장 시스템으로 구현될 수 있고, 통신망을 통해 여러 지역에 분산된 분산 저장 시스템으로 구현될 수 있다.
제 1 스튜디오 장비 제어모듈(120)은 제 1 제어 시퀀스(seq_control_device_1)에 따라 제 1 카메라 모듈(131)을 제어한다. 제 1 스튜디오 장비 제어모듈(120)은 예컨대 연산처리장치를 통해 수행되는 프로그램일 수 있고, 컴퓨터 파일형태로 저장된 제 1 제어 시퀀스(seq_control_device_1)를 로딩하여 스튜디오 장비인 제 1 카메라 모듈(131)이 인식할 수 있는 카메라 제어 커맨드(command_cam)를 생성할 수 있다. 제 1 스튜디오 장비 제어모듈(120)은 카메라 제어 커맨드(command_cam)를 통해 제 1 카메라 모듈(131)의 포커스, 줌, 노출, 필터적용 등의 기능을 제어할 수 있다.
본 발명에서 사용되는 스튜디오라는 용어는 전문적인 촬영을 제공하기 위한 실질적으로 폐쇄된 공간에 제한되는 것은 아니고, 스튜디오 장비 제어모듈에 의한 자동화된 촬영이 가능하도록 부분적으로 개방된 공간 또는 전체적으로 개방된 공간일 수 있다.
동영상 컨텐츠 저장모듈(130)은 제 1 제어 시퀀스(seq_control_device_1)와 제 1 동영상 컨텐츠(content_video_1)를 저장한다. 예를 들어, 동영상 컨텐츠 저장모듈(130)은 제 1 제어 시퀀스를 저장할 때, 제 1 제어 시퀀스와 제 1 동영상 컨텐츠를 별도로 저장하거나, 제1 제어 시퀀스와 제 1 동영상 컨텐츠가 연관되었음을 나타내는 데이터를 함께 저장할 수 있다. 사용자는 제 1 제어 시퀀스만 제공받을 수 있고, 제 1 제어 시퀀스와 제 1 동영상 컨텐츠를 함께 제공받을 수도 있다. 동영상 컨텐츠 저장모듈(130)은 제 1 카메라 모듈(131)이 생성한 제 1 동영상 컨텐츠(content_video_1)를 그대로 저장할 수도 있고, 용이한 네트워크 전송을 위해 MPEG-2, MPEG-4, ITU-T H.263, ITU-T H.264/MPEG-4, Part 10, Advanced Video Codec(AVC) 등의 동영상 압축기술을 이용하여 압축된 동영상 파일 형태로 제 1 동영상 컨텐츠(content_video_1)를 가공하여 저장할 수도 있다. 또한 제 1 동영상 컨텐츠(content_video_1)는 카메라에서 촬영된 순서 그대로의 동영상 컨텐츠일 수도 있지만, 예컨대 자막이 부가된 동영상 컨텐츠, 배경이 합성된 동영상 컨텐츠, 복수의 카메라 장치에서 취득한 동영상 클립들이 부분 편집되어 결합된 동영상 컨텐츠, 일부 구간이 제거된 동영상 컨텐츠 등일 수 있다.
서로 다른 파일형식일 수 있는 제 1 동영상 컨텐츠(content_video_1)와 제 1 제어 시퀀스(seq_control_device_1)를 저장할 때, 동영상 컨텐츠 저장모듈(130)은 제 1 동영상 컨텐츠(content_video_1)를 나타내는 식별자와 제 1 제어 시퀀스(seq_control_device_1)를 나타내는 식별자를 서로 매칭하여 저장할 수 있다. 다른 방법으로는, 동영상 컨텐츠 저장모듈(130)은 제 1 제어 시퀀스(seq_control_device_1)를 다운로드 받을 수 있는 URL 등의 링크정보를 제 1 동영상 컨텐츠(content_video_1)의 메타데이터로 저장할 수도 있다. 다른 방법으로는, 동영상 컨텐츠 저장모듈(130)은 비교적 작은 데이터 크기를 갖는 제 1 제어 시퀀스(seq_control_device_1)를 포함하는 제 1 동영상 컨텐츠(content_video_1)를 저장할 수도 있다.
동영상 컨텐츠 저장모듈(130)은 제어 시퀀스 공유 시스템 내의 로컬 저장수단으로 구현될 수도 있고, 통신망을 통해 이격된 지역에 서버-클라이언트 저장 시스템으로 구현될 수 있고, 통신망을 통해 여러 지역에 분산된 분산 저장 시스템으로 구현될 수 있다. 다른 방법으로는 동영상 컨텐츠 저장모듈(130)은 제어 시퀀스 공유 시스템과 별도로 구축되고 다른 운영주체에 의해 운영되는 외부 동영상 컨텐츠 제공 서비스 시스템 내에 구현될 수도 있다.
웹서비스 서버(140)는 통신망을 통해 제 1 동영상 컨텐츠(content_video_1)를 포함하는 복수의 동영상 컨텐츠를 사용자에게 제공하고, 사용자로부터 제어 시퀀스 공유요청(request_share_seq)을 통신망을 통해 수신한다. 제어 시퀀스 공유 요청은 제 1 동영상 컨텐츠를 시청한 사용자가 제 1 동영상 컨텐츠를 촬영할 때 사용된 제 1 제어 시퀀스의 공유(또는, 다운로드)를 요청하는 메시지일 수 있다. 웹서비스 서버(140)는 예컨대 다수의 사용자들이 동영상 컨텐츠를 등록하고, 동영상 검색 또는 동영상 추천을 통해 동영상 컨텐츠를 사용자들에게 제공하는 사이트를 제공할 수 있다. 제어 시퀀스 공유요청(request_share_seq)은 예컨대 공유요청자 식별자, 제 1 동영상 컨텐츠(content_video_1) 식별자 및/또는 제 1 제어 시퀀스(seq_control_device_1) 식별자를 포함하는 TCP/IP 포맷의 비일시적 데이터 패킷(non-transitory data packet)일 수 있다.
도 2에 도시된 바와 같이, 제 1 동영상 컨텐츠(content_video_1)의 재생 영역(210) 내에 제 1 제어 시퀀스(seq_control_device_1)를 요청하는 실행객체(211)가 표시될 수 있다. 예컨대 제 1 동영상 컨텐츠(content_video_1)의 재생 영역(210) 내에 실행객체(211)가 오버레이 되고, 사용자가 실행객체(211)를 선택하면, 사용자 디바이스는 파일 형태의 제 1 제어 시퀀스(seq_control_device_1)를 웹서비스 서버(140)으로부터 다운로드 받거나, 제 1 제어 시퀀스를 다운로드를 받을 수 있는 웹페이지로 연결되거나, 제 1 제어 시퀀스(seq_control_device_1)를 이용할 수 있는 자동화된 스튜디오를 예약하는 웹페이지로 연결될 수 있다. 상기 실시예에 따르면 동영상 컨텐츠를 제공하는 웹페이지가 아닌 다른 웹페이지에 HTML <iframe> 태그방식 또는 <embed> 태그방식으로 동영상 컨텐츠가 공유되는 경우에도 실행객체(211)가 작동하기 때문에 지정된 웹페이지에 접속하지 않은 사용자들도 제어 시퀀스를 공유 받을 수 있는 효과를 제공한다.
다른 방식으로는 도 2에 도시된 바와 같이, 제 1 동영상 컨텐츠(content_video_1)의 재생 영역(210) 외에 웹페이지(200) 내에 제 1 제어 시퀀스(seq_control_device_1)를 요청하는 실행객체(201)가 표시될 수 있다.
전술한 두 가지 실시예에 따르면, 사용자는 여러 가지 동영상 컨텐츠들 중 카메라 워크, 편집기법 등이 마음에 드는 제 1 동영상 컨텐츠(content_video_1)를 발견한 경우, 제 1 동영상 컨텐츠(content_video_1)가 생산될 때 사용된 제 1 제어 시퀀스(seq_control_device_1)를 수신하여, 제 1 제어 시퀀스를 이용하여 사용자 자신의 동영상 컨텐츠인 제 2 동영상 컨텐츠(content_video_2)를 생산할 때 이용할 수 있다.
제 2 카메라 모듈(171)은 제 2 피사체에 대한 제 2 동영상 컨텐츠(content_video_2)를 생성한다. 제 2 카메라 모듈(171)은 특별히 제한되지 않으며 영상을 촬영하여 컴퓨터 등의 정보 단말기에서 재생할 수 있는 동영상 컨텐츠를 생성한다. 제 2 카메라 모듈(171)은 단일의 카메라 장치로 구성될 수도 있으나, 높은 품질의 제 2 동영상 컨텐츠(content_video_2)를 생산할 수 있도록 복수의 카메라 장치들로 구성될 수 있다. 복수의 카메라 장치들로 제 2 카메라 모듈(171)이 구성된 경우, 제 1 제어 시퀀스(seq_control_device_1)를 기반으로 제 2 카메라 모듈(171)이 제어될 수 있도록 제 1 카메라 모듈(131)과 동일한 수의 카메라 장치들로 제 2 카메라 모듈(171)이 구성되는 것이 바람직하다. 또는, 제어 시퀀스 공유 시스템은 제 1 제어 시퀀스를 보정하여, 복수의 카메라 장치들에 적합한 제 2 제어 시퀀스를 생성할 수 있다. 제 2 카메라 모듈(171)은 특별히 제한되지 않으며 전문 스튜디오에서 사용하는 동영상 촬영용 카메라일 수도 있고, 스마트폰, 태블릿 컴퓨터, 노트북 컴퓨터에 장착된 카메라 모듈일 수 있다.
제 2 카메라 모듈(171)은 제 1 카메라 모듈(131)과 지리적으로 이격된 위치에 설치될 수 있다. 예컨대 제 1 카메라 모듈(131)은 미국 뉴욕에 설치되고, 제 2 카메라 모듈(171)은 대한민국 서울에 설치될 수 있다.
제 1 동영상 컨텐츠(content_video_1)가 촬영된 스튜디오에서 제 2 동영상 컨텐츠(content_video_2)가 촬영되는 경우, 제 2 카메라 모듈(171)은 제 1 카메라 모듈(131)과 동일할 수 있다. 예컨대 제 1 동영상 컨텐츠(content_video_1)가 촬영된 스튜디오에 방문한 사용자는 제 1 동영상 컨텐츠(content_video_1)를 촬영하는데 사용된 카메라 모듈을 이용하여 제 2 동영상 컨텐츠(content_video_2)를 촬영할 수 있다.
제 2 피사체는 특별히 제한되지 않으며, 배경과 구별되는 사람, 동물, 사물일 수 있으며, 예컨대 노래를 하거나 연기를 하는 사람일 수 있다. 제 2 피사체는 제 1 피사체와 반드시 달라야 하는 것은 아니다. 예컨대 제 1 동영상 컨텐츠(content_video_1)에 출연한 사용자가 제 1 제어 시퀀스(seq_control_device_1)를 다시 이용하여 재촬영하고자 하는 경우 제 1 피사체와 제 2 피사체는 동일할 수 있다.
사용자가 직접 제 2 동영상 컨텐츠(content_video_2)에 출연하는 경우 제 2 피사체는 사용자가 될 수도 있고, 사용자가 자신의 지인 또는 자신의 소유물 등을 제 2 동영상 컨텐츠(content_video_2)에 출연시키고자 하는 경우 제 2 피사체는 사용자가 아닐 수 있다.
제 2 스튜디오 장비 제어모듈(160)은 제어 시퀀스 공유요청(request_share_seq)에 따라 제 1 제어 시퀀스 또는 제 2 제어 시퀀스에 기반하여 제 2 카메라 모듈(171)을 제어한다. 제 2 스튜디오 장비 제어모듈(160)은 예컨대 연산처리장치를 통해 수행되는 프로그램으로 구성될 수 있고, 컴퓨터 파일형태로 저장된 제 1 제어 시퀀스 또는 제 2 제어 시퀀스를 로딩하고, 스튜디오 장비인 제 2 카메라 모듈(171)에서 인식할 수 있는 카메라 제어 커맨드(command_cam)를 생성하고, 카메라 제어 커맨드에 기초하여 제 2 카메라 모듈(171)을 제어할 수 있다. 제 2 스튜디오 장비 제어모듈(160)은 카메라 제어 커맨드(command_cam)를 통해 제 2 카메라 모듈(171)의 포커스, 줌, 노출, 필터적용 등의 기능을 제어할 수 있다.
한편 제 2 스튜디오 장비 제어모듈(160)은 제 1 스튜디오 장비 제어모듈(120)과 지리적으로 이격된 위치에 설치될 수도 있고, 제 2 스튜디오 장비 제어모듈(160)은 제 1 스튜디오 장비 제어모듈(120)과 동일할 수 있다.
제 2 스튜디오 장비 제어모듈(160)은 제 1 제어 시퀀스(seq_control_device_1)를 그대로 사용해서 제 2 카메라 모듈(171)을 제어할 수도 있다. 또한, 제어 시퀀스 보정모듈(150)은 제 1 제어 시퀀스(seq_control_device_1)를 일부 수정하여 제 2 제어 시퀀스(seq_control_device_2)를 생성할 수 있다. 제 2 스튜디오 장비 제어모듈(160)은 제 2 제어 시퀀스를 기초로 제 2 카메라 모듈(171)을 제어할 수 있다. 예컨대 제 1 카메라 모듈(131)의 기종과 제 2 카메라 모듈(171)의 기종이 다른 경우, 제어 시퀀스 보정모듈(150)은 제 2 카메라 모듈(171)을 제어할 수 있는 적합한 커맨드로 제 1 제어 시퀀스를 변경할 수 있다. 또는 사용자가 제 1 제어 시퀀스(seq_control_device_1)의 순서를 이용하되 제 2 동영상 컨텐츠(content_video_2)의 전체 시간과 제 1 동영상 컨텐츠(content_video_1)의 전체 시간이 다른 경우, 제 2 스튜디오 장비 제어모듈(160)은 제 1 스튜디오 장비 시퀀스에 의한 장비 제어 시간을 압축하거나 연장하여 제 2 카메라 모듈(171)을 제어할 수 있다. 제 1 스튜디오 장비 시퀀스에 기반하여 제 2 스튜디오 장비 시퀀스를 생성하는 실시예는 후술한다.
편집 장치(제 1 편집 장치 또는 제 2 편집 장치)는 카메라에 의해 촬영된 동영상을 편집하여 편집된 동영상 컨텐츠를 생성한다. 편집 장치는 프로세서, 메모리 및 디스플레이 장치를 포함할 수 있다. 편집 장치는 촬영된 동영상 컨텐츠를 자동으로 편집할 수 있고, 사용자에 조작에 의해 수동으로 동영상 컨텐츠를 편집할 수 있다. 편집 장치는 촬영 및 편집 시 사용된 커맨드를 제어 시퀀스로 생성할 수 있다. 편집 장치는 통신망으로 연결된 서버로 제어 시퀀스를 전송할 수 있다. 편집 장치는 서버로부터 제어 시퀀스를 수신할 수도 있고, 수신된 제어 시퀀스를 이용하여 동영상 컨텐츠를 편집할 수 있다.
편집 장치는 디스플레이 장치를 통해 편집된 동영상 컨텐츠를 표시할 수 있고, 복수의 동영상 컨텐츠들의 리스트를 표시할 수도 있다. 편집 장치는 복수의 동영상 컨텐츠들 중에서 사용자에 의해 선택된 동영상 컨텐츠의 제어 시퀀스를 표시할 수 있다. 편집 장치는 제어 시퀀스에 포함된 제어 내용을 표시할 수 있다. 예를 들어, 편집 장치는 촬영이 시작되고 10초 후에 객체를 촬영하는 카메라가 이동하는 제어 내용을 표시할 수 있다. 또한, 편집 장치는 촬영이 시작되고 20초 후에 조명의 밝기를 조절하는 제어 내용을 표시할 수 있다.
편집 장치는 제어 시퀀스에 포함된 커맨드들을 디스플레이 장치에 표시할 수 있고, 사용자의 입력에 따라 제어 시퀀스를 수정할 수도 있다. 편집 장치는 시간에 따라 제어되는 스튜디오 장비의 제어 내용을 표시할 수 있고, 사용자의 입력에 따라 제어 시점을 변경하거나, 제어 내용을 변경할 수 있다. 예를 들어, 사용자는 카메라가 이동하는 시점을 10초에서 12초로 변경할 수 있다. 또한, 사용자는 20초 후에 제어되는 조명의 밝기를 변경할 수 있다.
편집 장치는 복수의 제어 시퀀스들을 디스플레이 장치에 표시하고, 사용자에 의해 선택된 어느 하나의 제어 시퀀스를 이용하여 동영상을 촬영 또는 편집할 수 있다.
< 제 1 실시예: 추가적인 스튜디오 장비를 포함하는 실시예 >
스튜디오 장비는 카메라 모듈(131, 171)뿐만 아니라 전문적이고 고품질의 동영상 컨텐츠 생성을 위해 보다 많은 자동화된 장비들을 더 포함할 수 있다. 자동화된 스튜디오 장비로는 예컨대 카메라 모듈(131,171)을 이동시키는 카메라 이동모듈(132,172), 카메라 모듈(131, 171)이 촬영하는 영역을 조명하는 조명모듈(133,173), 음악 또는 음향효과를 제공하는 오디오 모듈(134,174), 복수의 카메라 모듈에서 각각 촬영된 동영상 클립들을 병합, 합성, 구간삭제, 교차 편집하는 편집 모듈(또는, 편집 장치) 등일 수 있다.
일 실시예에서 제어 시퀀스 공유 시스템은 제 1 카메라 모듈(131)을 이동시키는 제 1 카메라 이동모듈(132) 및 제 2 카메라 모듈(171)을 이동시키는 제 2 카메라 이동모듈(172)을 더 포함할 수 있다.
그리고, 제 1 스튜디오 장비 제어모듈(120)은 제 1 제어 시퀀스(seq_control_device_1)에 따라 제 1 카메라 이동모듈(132)을 제어하고, 제 2 스튜디오 장비 제어모듈(160)은 제 1 제어 시퀀스(seq_control_device_1)에 기반하여 제 2 카메라 이동모듈(172)을 제어할 수 있다.
카메라 이동모듈(132,172)은 카메라 모듈의 촬영 위치, 촬영 각도, 촬영 거리 등의 카메라 모듈의 공간적 위치를 제어 시퀀스에 의해 변경하는 자동화된 스튜디오 장비를 의미한다. 카메라 이동모듈(132,172)은 예컨대 고정된 궤적 내에서 카메라 모듈을 이동시키도록 설계된 카메라 암 또는 카메라 레일과 결합된 이송수단 또는 임의의 위치로 카메라 모듈을 이동시키도록 설계된 드론, 원격조정 자동차 등과 같이 자체 이동수단을 구비한 장비일 수 있다. 이러한 실시예에 따르면 스튜디오 내에 촬영 전문가가 없이도 자동화된 카메라 이동모듈(132,172)을 통해 전문적인 촬영 기술이 적용된 고품질의 제 2 동영상 컨텐츠(content_video_2)를 적은 비용으로 생성하는 효과를 제공한다.
다음으로, 조명모듈(133,173)을 더 포함하는 실시예에 있어서, 제어 시퀀스 공유 시스템은 제 1 카메라 모듈(131)의 촬영 영역을 조명하는 제 1 조명모듈(133) 및 제 2 카메라 모듈(171)의 촬영 영역을 조명하는 제 2 조명모듈(173)을 더 포함할 수 있다.
그리고, 제 1 스튜디오 장비 제어모듈(120)은 제 1 제어 시퀀스(seq_control_device_1)에 따라 제 1 조명모듈(133)을 더 제어하고, 제 2 스튜디오 장비 제어모듈(160)은 제 1 제어 시퀀스(seq_control_device_1)에 기반하여 제 2 조명모듈(173)을 더 제어할 수 있다.
조명모듈(133,173)은 조명의 색상, 점멸, 밝기, 방향 등을 제어 시퀀스에 의해 변경하는 자동화된 스튜디오 장비를 의미한다. 조명모듈(133,173)은 개별적으로 제어되는 복수 개의 조명들을 포함하는 조명 시스템일 수 있다. 실시예에 따르면 스튜디오 내에 조명제어 전문가가 없이도 자동화된 조명모듈(133,173)을 통해 고품질의 제 2 동영상 컨텐츠(content_video_2)를 적은 비용으로 생성하는 효과를 제공한다.
다음으로, 오디오 모듈(134,174)을 더 포함하는 실시예에 있어서, 제어 시퀀스 공유 시스템은 제 1 제어 시퀀스(seq_control_device_1)에 설정된 제 1 선택 음악(music_1)에 따른 음향을 제공하는 제 1 오디오 모듈(134) 및 제 1 제어 시퀀스(seq_control_device_1)에 기반하여 음향을 제공하는 제 2 오디오 모듈(174)을 더 포함할 수 있다.
그리고, 제 1 스튜디오 장비 제어모듈(120)은 제 1 오디오 모듈(134)을 제어하고, 제 2 스튜디오 장비 제어모듈(160)은 제 2 오디오 모듈(174)을 제어할 수 있다.
이때 제 2 오디오 모듈(174)은 반드시 제 1 음악(music_1)에 따른 음향을 제공해야 하는 것은 아니고, 제 1 음악(music_1)에 기초하여 음향 효과가 더 부가되거나, 비트가 변경된 음악에 따라 음향을 제공할 수도 있고, 제 1 음악(music_1)과 다른 제 2 음악(music_2)을 제공할 수도 있다. 하지만 제 2 오디오 모듈(174)을 통해 제공되는 제 2 음악(music_2)이 제 1 음악(music_1)과 다른 경우에도 제 2 음악(music_2)의 재생 시점, 음향 효과의 삽입 시점 등은 제 1 제어 시퀀스(seq_control_device_1)에 기초하여 결정된다.
이러한 실시예에 따르면 예컨대 노래하는 사람을 촬영하는 경우 스튜디오 내 음향 전문가가 없이도 자동화된 오디오 모듈(134,174)을 통해 적절한 음향 효과가 삽입된 고품질의 제 2 동영상 컨텐츠(content_video_2)를 적은 비용으로 생성하는 효과를 제공한다.
이상에서 설명한 실시예들에 있어서, 도 3에 도시된 바와 같은 제 1 제어 시퀀스(seq_control_device_1)는 다양한 스튜디오 장비들(131,132,133,134)을 각각 제어하기 위한 타임스탬프에 따라 정의된 커맨드들을 포함할 수 있다. 즉 카메라 제어 커맨드(command_cam)는 제 1 카메라 모듈(131)이 t1까지 줌-인을 수행하고, t1부터 t2까지 줌-아웃을 수행하고, t2부터 t3까지 줌-인을 수행하도록 구성하고, 카메라 이동제어 커맨드(command_arm)는 제 1 카메라 이동모듈(132)이 t1까지 제 1 카메라 모듈(131)의 전방이동, t1에서 t2까지 제 1 카메라 모듈(131)의 회전, t2에서 t3까지 제 1 카메라 모듈(131)의 후방이동을 수행하도록 구성할 수 있다. 그리고 조명 제어 커맨드(command_light)는 제 1 조명모듈(133)이 t1까지 적색조명의 점등을 수행하고, t1부터 t2까지 청색조명의 점등을 수행하고, t2부터 t3까지 적색조명의 소등을 수행하도록 구성하고, 오디오 제어 커맨드(command_audio)는 제 1 오디오 모듈(134)이 t1까지 페이드-인, t1에서 t2까지 음향효과 부가, t2에서 t3까지 페이드-아웃을 수행하도록 구성될 수 있다. 각각의 커맨드들(command_cam, command_arm, command_light, command_audio)은 도 3에 도시된 바와 같이 반드시 동기화되어야 하는 것은 아니고, 각각 다른 타임스탬프를 갖도록 구성할 수 있고, 예컨대 복수의 카메라들로 제 1 카메라 모듈(131)이 구성되는 경우 제 1 제어 시퀀스는 각각의 카메라들을 제어하기 위해 복수의 카메라 제어 커맨드들을 포함할 수 있다.
< 제 2 실시예: 보정된 제 2 제어 시퀀스를 이용하는 실시예 >
이하에서는, 도 4 내지 도 5를 참조하여 제 1 제어 시퀀스(seq_control_device_1)를 기반으로 보정된 제 2 제어 시퀀스(seq_control_device_2)를 이용하여 제 2 카메라 모듈(171) 및 제 2 오디오 모듈(174)을 제어하는 실시예를 설명한다.
이러한 실시예에 있어서, 제어 시퀀스 공유 시스템은 제 1 제어 시퀀스(seq_control_device_1)에 기반하여 제 2 제어 시퀀스(seq_control_device_2)를 생성하는 제어 시퀀스 보정모듈(150)을 더 포함하고, 제 2 스튜디오 장비 제어모듈(160)은 제 2 제어 시퀀스(seq_control_device_2)에 따라 제 2 카메라 모듈(171) 및 제 2 오디오 모듈(174)을 제어할 수 있다.
제 1 동영상 컨텐츠(content_video_1)를 감상한 사용자는 제 1 동영상 컨텐츠에 사용된 제 1 제어 시퀀스(seq_control_device_1)를 그대로 사용하기를 원할 수도 있지만, 자신이 촬영하고자 하는 제 2 동영상 컨텐츠(content_video_2)의 전체 시간에 부합하도록 제 1 제어 시퀀스(seq_control_device_1)를 변경해서 사용하거나, 제 1 제어 시퀀스의 일부만 변경하여 사용하고자 하는 경우가 있을 수 있다. 예컨대 노래하는 사람을 촬영한 제 1 동영상 컨텐츠가 있을 때, 사용자는 제 1 동영상 컨텐츠(content_video_1)의 촬영 기법 및/또는 편집 기법은 동일하게 사용하여 제 1 동영상 컨텐츠(content_video_1)의 노래와 다른 노래를 부르는 영상을 촬영 하는 경우를 설명한다. 제 1 동영상 컨텐츠의 노래와 제 2 동영상 컨텐츠의 사용자가 부르는 노래는 전체 시간, 비트, 도입부/절정부/간주부 등에 있어서 차이가 있기 때문에, 제 1 동영상 컨텐츠에 사용된 제어 시퀀스를 사용하여 사용자가 제 2 동영상 컨텐츠를 생성하면, 사용자가 부르는 노래와 동영상이 조화롭지 못하게 되는 문제가 있다.
제 1 제어 시퀀스(seq_control_device_1)를 사용자가 선택한 제 2 음악에 부합하도록 보정하기 위해서는 전문적인 기술이 요구되기 때문에 일반 사용자는 제 1 제어 시퀀스를 보정하기 어렵다. 하지만 자동화 보정 알고리즘을 이용하면 일반 사용자도 제 1 제어 시퀀스(seq_control_device_1)를 사용자가 선택한 제 2 음악에 부합하게 보정할 수 있다.
제어 시퀀스 공유 시스템이 제어 시퀀스 보정모듈(150)을 포함하는 실시예에 있어서, 제 1 동영상 컨텐츠(content_video_1)의 전체 시간과 제 2 동영상 컨텐츠(content_video_2)의 전체 시간에 차이가 있는 경우, 도 4에 도시된 바와 같이 제어 시퀀스 보정모듈(150)은 제 1 제어 시퀀스(seq_control_device_1)의 총 제어 시간(t3)과 제 2 제어 시퀀스(seq_control_device_2)의 총 제어 시간(2t3)의 비율에 따라 제어 타이밍이 보정된 제 2 제어 시퀀스(seq_control_device_2)를 생성하고, 제 2 제어 시퀀스에 따라 제 2 카메라 모듈(171) 및 제 2 오디오 모듈(174)을 제어할 수 있다. 예컨대 제 2 동영상 컨텐츠(content_video_2)의 전체 시간이 제 1 동영상 컨텐츠의 전체 시간의 두 배인 경우 제어 시퀀스 보정모듈(150)은 t1인 제어 타임스탬프를 2t1으로, t2인 제어 타임스탬프를 2t2으로, t3인 제어 타임스탬프를 2t3로 보정함으로써 동영상 컨텐츠들간의 전체 시간(총 제어 시간 또는 촬영 시간)의 차이에 따라 적응적으로 제 2 제어 시퀀스(seq_control_device_2)를 보정할 수 있다.
한편, 뮤직비디오와 같이 노래하는 사람을 촬영한 동영상 컨텐츠에 있어서, 통상적인 노래는 전주부, 제 1 도입부, 제 1 절정부, 간주부, 제 2 도입부, 제 2 절정부, 후주부의 구성을 갖는다. 그리고 뮤직 비디오는 사람이 노래를 하지 않는 전주부, 간주부, 및 후주부에 있어서는 다소 먼 거리에서 노래하는 사람을 정적으로 촬영한 영상 또는 노래하는 사람이 없는 배경화면으로 구성되고, 제 1 도입부 및 제 2 도입부는 서서히 가창자가 부각되도록 크로즈업되는 영상으로 구성되고, 제 1 절정부 및 제 2 절정부는 보다 역동적인 영상으로 구성되는 경우가 많다. 따라서 노래에 대한 전주부, 도입부, 절정부 등의 구간정보를 통해, 노래에 적용된 각 구간별 촬영 기법 또는 편집 기법을 다른 노래에 적용하여, 다른 노래를 부르는 사람을 촬영하여 동영상 컨텐츠를 생성하면, 보다 자연스러운 동영상 컨텐츠가 생성될 수 있다.
제어 시퀀스 공유 시스템이 제어 시퀀스 보정모듈(150)을 포함하는 실시예에 있어서, 제어 시퀀스 저장모듈(110)은 적어도 제 1 음악(music_1)의 제 1 구간, 제 1 음악(music_1)의 제 2 구간 및 제 1 음악(music_1)의 제 3 구간이 구별되는 제 1 제어 시퀀스(seq_control_device_1)를 저장하고, 제 2 오디오 모듈(174)은 제 2 제어 시퀀스(seq_control_device_2)에 설정된 제 2 음악(music_2)에 따른 음향을 제공한다.
그리고, 제어 시퀀스 보정모듈(150)은 도 5에 도시된 바와 같이 제 1 음악(music_1)의 제 1 구간의 구간 제어 시간(t1)과 제 2 음악(music_2)의 제 1 구간의 구간 제어 시간(t`1)의 비율에 따라 제 2 음악(music_2)의 제 1 구간에 해당하는 제 2 제어 시퀀스(seq_control_device_2)의 제어 타이밍을 보정하고, 제 1 음악(music_1)의 제 2 구간의 구간 제어 시간(t2-t1)과 제 2 음악(music_2)의 제 2 구간의 구간 제어 시간(t`2-t`1)의 비율에 따라 제 2 음악(music_2)의 제 2 구간의 제어 타이밍을 보정하고, 제 1 음악(music_1)의 제 3 구간(t3-t2)의 구간 제어 시간과 제 2 음악(music_2)의 제 3 구간(t`3-t`2)의 구간 제어 시간의 비율에 따라 제 2 음악(music_2)의 제 3 구간의 제어 타이밍을 보정하여 제 2 제어 시퀀스(seq_control_device_2)를 생성한다.
이때 제 1 음악(music_1) 및 제 2 음악(music_2)은 반드시 3개의 구간으로 제한되는 것은 아니고, 실시예에 따라 4개 이상의 구간으로 구분될 수 있다.
이러한 실시예에 따르면 제 1 동영상 컨텐츠(content_video_1)와 제 2 동영상 컨텐츠(content_video_2)가 서로 다른 음악인 경우에도 제 1 동영상 컨텐츠(content_video_1)의 촬영 기법 및/또는 편집 기법이 자연스럽게 보정된 제 2 제어 시퀀스(seq_control_device_2)에 적용되어 고품질의 제 2 동영상 컨텐츠(content_video_2)를 적은 비용으로 생성하는 효과를 제공한다.
한편 빠른 비트의 음악에 적용된 촬영 기법 및/또는 편집 기법을 늦은 비트의 음악에 그대로 적용하면 매우 부자연스러운 제 2 동영상 컨텐츠(content_video_2)가 생성되는 문제가 있다. 이러한 문제를 해결하기 위해 제어 시퀀스 공유 시스템이 제어 시퀀스 보정모듈(150)을 포함하는 실시예에 있어서, 제 2 오디오 모듈(174)은 제 2 제어 시퀀스(seq_control_device_2)에 설정된 제 2 음악(music_2)에 따른 음향을 제공하고, 제어 시퀀스 저장모듈(110)은 제 1 음악(music_1)의 비트에 부합하는 제 1 제어 시퀀스(seq_control_device_1)를 저장하고, 제어 시퀀스 보정모듈(150)은 제 1 음악(music_1)의 비트와 제 2 음악(music_2)의 비트를 비교하여 제 2 음악(music_2)의 비트에 따라 제 1 제어 시퀀스를 보정하여 제 2 제어 시퀀스를 생성할 수 있다. 이러한 실시예에 따르면 제 1 동영상 컨텐츠(content_video_1)의 제 1 음악(music_1)과 다른 비트의 제 2 음악(music_2)을 사용한 제 2 동영상 컨텐츠(content_video_2)에서도 제 1 제어 시퀀스(seq_control_device_1)를 제 2 음악(music_2)의 비트에 부합하도록 자동으로 보정하여, 제 2 제어 시퀀스(seq_control_device_2)생성하고, 제 2 제어 시퀀스를 기초로 고품질의 제 2 동영상 컨텐츠(content_video_2)를 적은 비용으로 생성하는 효과를 제공한다.
< 제어 시퀀스 공유 방법 >
이하에서는, 도 6을 참조하여 본 발명에 따른 제어 시퀀스 공유 방법을 설명한다. 전술한 제어 시퀀스 공유 시스템의 설명과 반복되는 부분은 자세한 설명을 생략한다.
먼저, 제 1 스튜디오 장비 제어 시스템이 적어도 하나의 제 1 카메라 모듈(131)을 제어하기 위한 제 1 제어 시퀀스(seq_control_device_1)를 입력받는 제 1 단계(s10)를 수행한다. 도 3에 도시된 바와 같은 제 1 스튜디오 장비 제어 시스템은 제 1 제어 시퀀스(seq_control_device_1)의 카메라 제어 커맨드(command_cam)를 통해 제 1 카메라 모듈(131)의 포커스, 줌, 노출, 필터 적용 등의 기능을 제어할 수 있다.
다음으로, 제 1 스튜디오 장비 제어 시스템이 제 1 제어 시퀀스(seq_control_device_1)에 따라 제 1 카메라 모듈(131)을 제어하여 제 1 피사체에 대한 제 1 동영상 컨텐츠(content_video_1)를 생성하는 제 2 단계(s20)를 수행한다. 제 1 피사체는 특별히 제한되지 않으며, 배경과 구별되는 사람, 동물, 사물일 수 있으며, 예컨대 노래를 하거나 연기를 하는 사람일 수 있다.
제 1 카메라 모듈(131)을 통해 생성된 제 1 동영상 컨텐츠(content_video_1)는 정보 단말기를 통해 재생될 수 있는 비일시적 컨텐츠(non-transitory contents)를 의미한다. 동영상 컨텐츠는 데이터 전송에 용이하도록 MPEG-2, MPEG-4, ITU-T H.263, ITU-T H.264/MPEG-4, Part 10, Advanced Video Coedc(AVC) 등의 동영상 압축표준 등에 따른 동영상 압축기술이 적용된 압축 동영상 파일일 수 있다. 또한 제 1 동영상 컨텐츠(content_video_1)는 카메라에서 촬영된 순서 그대로의 동영상 컨텐츠일 수도 있지만, 예컨대 부가적인 자막이 부가된 동영상 컨텐츠, 배경이 합성된 동영상 컨텐츠, 복수의 카메라 장치에서 취득한 동영상 클립들이 부분 편집되어 이어진 동영상 컨텐츠, 일부 구간이 제거되도록 편집된 동영상 컨텐츠 등일 수 있다.
다음으로, 제 1 스튜디오 장비 제어 시스템이 복수의 동영상 컨텐츠가 등록된 컨텐츠 공유 웹사이트에 제 1 제어 시퀀스(seq_control_device_1)와 제 1 동영상 컨텐츠(content_video_1)를 등록하는 제 3 단계(s30)를 수행한다. 제 1 스튜디오 장비 제어 시스템은 제 1 동영상 컨텐츠와 제 1 제어 시퀀스를 별도로 등록하거나, 제 1 동영상 컨텐츠와 제 1 제어 시퀀스가 연관되도록 등록할 수 있다. 제 1 스튜디오 장비 제어 시스템은 예컨대 서로 다른 파일형식일 수 있는 제 1 동영상 컨텐츠(content_video_1)와 제 1 제어 시퀀스(seq_control_device_1)가 연관되어 있음을 나타내기 위해, 제 1 동영상 컨텐츠(content_video_1)를 나타내는 식별자와 제 1 제어 시퀀스(seq_control_device_1)를 나타내는 식별자를 서로 매칭하여 컨텐츠 공유 웹사이트에 등록할 수 있다. 다른 방법으로는 제 1 스튜디오 장비 제어 시스템이 제 1 제어 시퀀스(seq_control_device_1)를 다운로드 받을 수 있는 URL 등의 링크정보를 제 1 동영상 컨텐츠(content_video_1)의 메타데이터로 임베디드하여 컨텐츠 공유 웹사이트에 등록할 수 있다. 다른 방법으로는, 제 1 스튜디오 장비 제어 시스템이 비교적 작은 데이터 크기를 갖는 제 1 제어 시퀀스(seq_control_device_1)를 포함하는 제 1 동영상 컨텐츠(content_video_1)를 컨텐츠 공유 웹사이트에 등록할 수 있다.
컨텐츠 공유 웹사이트는 제 1 동영상 컨텐츠(content_video_1)를 포함한 복수의 동영상 컨텐츠를 통신망을 통해 제공하는 웹사이트를 의미한다. 컨텐츠 공유 웹사이트는 예컨대 다수의 사용자들이 동영상 컨텐츠를 등록하고, 동영상 검색 또는 동영상 추천을 통해 동영상 컨텐츠를 제공받는 일반적인 동영상 컨텐츠 공유 사이트일 수 있다.
다음으로, 제 2 스튜디오 장비 제어 시스템이 사용자로부터 제 1 제어 시퀀스(seq_control_device_1)의 공유를 요청하는 제어 시퀀스 공유 요청(request_share_seq)을 수신하는 제 4 단계(s40)를 수행한다. 예를 들어, 제어 시퀀스 공유 요청은 제 1 제어 시퀀스를 전송해 줄 것을 요청하는 메시지일 수 있다. 제 1 제어 시퀀스는 컨텐츠 공유 웹사이트에서 제공된 제 1 동영상 컨텐츠와 별도로 저장되거나, 제 1 동영상 컨텐츠와 연관되어 저장된 데이터이고, 제 1 동영상 컨텐츠의 촬영 및 편집에 관한 데이터이다.
제 1 동영상 컨텐츠(content_video_1)를 생성한 스튜디오와 제 2 동영상 컨텐츠(content_video_2)를 생성할 스튜디오가 서로 다른 경우 제 1 스튜디오 장비 제어 시스템과 제 2 스튜디오 장비 제어 시스템은 서로 개별적으로 설치된다. 하지만, 제 1 동영상 컨텐츠(content_video_1)와 제 2 동영상 컨텐츠(content_video_2)가 같은 스튜디오에서 촬영되는 경우 제 2 스튜디오 장비 제어 시스템은 제 1 스튜디오 장비 제어 시스템과 동일할 수 있다. 또한 지리적으로 이격된 복수의 스튜디오들을 중앙 집중식으로 제어하는 시스템에 있어서도 제 2 스튜디오 장비 제어 시스템은 제 1 스튜디오 장비 제어 시스템과 동일할 수 있다.
사용자는 도 2에 도시된 바와 같이 제 1 동영상 컨텐츠(content_video_1)의 재생 영역(210) 내에 제 1 제어 시퀀스(seq_control_device_1)를 요청하는 실행객체(211) 또는 제 1 동영상 컨텐츠(content_video_1)의 재생 영역(210) 외의 웹페이지(200) 내에 제 1 제어 시퀀스(seq_control_device_1)를 요청하는 실행객체(201)를 사용자가 선택하는 방법으로 제어 시퀀스 공유 요청(request_share_seq)을 전송할 수 있다.
한편, 사용자의 단말기를 통해 생성된 제어 시퀀스 공유 요청(request_share_seq)은 컨텐츠 공유 웹사이트를 경유하여 제 2 동영상 컨텐츠(content_video_2)를 생성하기 위한 제 2 스튜디오 장비 제어 시스템으로 전달된다.
마지막으로, 제 2 스튜디오 장비 제어 시스템이 제 1 제어 시퀀스(seq_control_device_1)에 기반하여 제 2 카메라 모듈(171)을 제어하여 제 2 피사체에 대한 제 2 동영상 컨텐츠(content_video_2)를 생성하는 제 5 단계(s50)을 수행한다.
동일한 스튜디오에서 제 1 동영상 컨텐츠(content_video_1) 및 제 2 동영상 컨텐츠(content_video_2)가 촬영되는 경우 제 2 카메라 모듈(171)은 제 1 카메라 모듈(131)과 동일할 수 있다. 제 2 피사체는 특별히 제한되지 않으며, 배경과 구별되는 사람, 동물, 사물일 수 있으며, 예컨대 노래를 하거나 연기를 하는 사람일 수 있다. 제 1 동영상 컨텐츠(content_video_1)의 제작자가 제 1 피사체와 동일한 제 2 피사체에 대한 재촬영을 통해 제 2 동영상 컨텐츠(content_video_2)를 제작하는 경우 제 2 피사체는 제 1 피사체와 동일할 수 있다.
제 2 동영상 컨텐츠(content_video_2)는 제 1 동영상 컨텐츠(content_video_1)와 동일하게 정보 단말기를 통해 재생될 수 있는 비일시적 컨텐츠(non-transitory contents)를 의미한다. 동영상 컨텐츠는 데이터 전송에 용이하도록 MPEG-2, MPEG-4, ITU-T H.263, ITU-T H.264/MPEG-4, Part 10, Advanced Video Coedc(AVC) 등의 동영상 압축표준 등에 따른 동영상 압축기술이 적용된 압축 동영상 파일일 수 있다. 또한 제 2 동영상 컨텐츠(content_video_2)는 카메라에서 촬영된 순서 그대로의 동영상 컨텐츠일 수도 있지만, 예컨대 부가적인 자막이 부가된 동영상 컨텐츠, 배경이 합성된 동영상 컨텐츠, 복수의 카메라 장치에서 취득한 동영상 클립들이 부분 편집되어 이어진 동영상 컨텐츠, 일부 구간이 제거되도록 편집된 동영상 컨텐츠 등일 수 있다.
제 5 단계(s50)를 통해 생성된 제 2 동영상 컨텐츠(content_video_2)는 제 1 제어 시퀀스 또는 제 2 제어 시퀀스와 별도로 등록되거나, 제 1 제어 시퀀스 또는 제 2 제어 시퀀스와 연관되어 저장될 수 있다. 제 2 동영상 컨텐츠(content_video_2)를 감상한 다른 사용자들은 제 1 제어 시퀀스 또는 제 2 제어 시퀀스를 요청할 수 있다. 다른 사용자들은 제 1 제어 시퀀스(seq_control_device_1) 또는 제 2 제어 시퀀스에 기반하여 후속하는 제 3 동영상 컨텐츠(content_video_3) 또는 제 4 동영상 컨텐츠(content_video_4) 등이 제작될 수 있다. 결국, 본 발명은 최초에 설계된 제 1 제어 시퀀스(seq_control_device_1)를 여러 사용자들에게 공유하여 후속하는 다수의 동영상 컨텐츠에서 재사용되는 효과를 제공한다.
한편, 스튜디오 장비는 카메라 모듈(131,171) 뿐만 아니라 전문적이고 고품질의 동영상 컨텐츠 생성을 위해 보다 많은 자동화된 장비들을 더 포함할 수 있다. 이러한 자동화된 스튜디오 장비로는 예컨대 카메라 모듈(131,171)을 이동시키는 카메라 이동모듈(132,172), 카메라 모듈의 촬영 영역을 조명하는 조명 모듈(133,173), 음악 또는 음향 효과를 제공하는 오디오 모듈(134,174), 복수의 카메라 모듈에서 각각 촬영된 동영상 클립들을 병합, 합성, 구간 삭제, 교차 편집하는 편집 모듈 등을 예시할 수 있다.
제어 시퀀스가 카메라 이동모듈(132,172)을 제어하는 커맨드를 포함하는 실시예에 있어서, 제 1 단계(S10)에서 제 1 스튜디오 장비 제어 시스템이 제 1 카메라 모듈(131)을 이동시키는 제 1 카메라 이동모듈(132)을 제어하기 위한 제 1 제어 시퀀스(seq_control_device_1)를 입력 받는다.
다음으로, 제 2 단계(s20)에서 제 1 스튜디오 장비 제어 시스템이 제 1 제어 시퀀스(seq_control_device_1)에 따라 제 1 카메라 이동모듈(132)을 제어하여 제 1 동영상 컨텐츠(content_video_1)를 생성한다.
마지막으로, 제 5 단계(s50)에서 제 2 스튜디오 장비 제어 시스템이 제 1 제어 시퀀스(seq_control_device_1)에 기반하여 제 2 카메라 이동모듈(172)을 제어하여 제 2 동영상 컨텐츠(content_video_2)를 생성한다.
이러한 실시예에 따르면 스튜디오 내에 촬영 전문가가 없이도 자동화된 카메라 이동모듈(132,172)을 통해 전문적인 촬영 기술이 적용된 고품질의 제 2 동영상 컨텐츠(content_video_2)를 적은 비용으로 생성하는 효과를 제공한다.
제어 시퀀스가 조명모듈(133,173)을 제어하는 커맨드를 포함하는 실시예에 있어서, 제 1 단계(s10)에서 제 1 스튜디오 장비 제어 시스템이 제 1 조명모듈(133)을 제어하기 위한 제 1 제어 시퀀스(seq_control_device_1)를 입력 받는다.
다음으로, 제 2 단계(s20)에서 제 1 스튜디오 장비 제어 시스템이 제 1 제어 시퀀스(seq_control_device_1)에 따라 제 1 조명모듈(133)을 제어하여 제 1 동영상 컨텐츠(content_video_1)를 생성한다.
마지막으로, 제 5 단계(s50)에서 제 2 스튜디오 장비 제어 시스템이 제 1 제어 시퀀스(seq_control_device_1)에 기반하여 제 2 조명모듈(173)을 제어하여 제 2 동영상 컨텐츠(content_video_2)를 생성한다.
이러한 실시예에 따르면 스튜디오 내에 조명제어 전문가가 없이도 자동화된 조명모듈(133,173)을 통해 고품질의 제 2 동영상 컨텐츠(content_video_2)를 적은 비용으로 생성하는 효과를 제공한다.
제어 시퀀스가 오디오 모듈(134,174)을 제어하는 커맨드를 포함하는 실시예에 있어서, 제 1 단계(s10)에서 제 1 스튜디오 장비 제어 시스템이 제 1 음악(music_1)을 제공하는 제 1 오디오 모듈(134)을 제어하기 위한 제 1 제어 시퀀스(seq_control_device_1)를 입력 받는다.
다음으로, 제 2 단계(s20)에서 제 1 스튜디오 장비 제어 시스템이 제 1 제어 시퀀스(seq_control_device_1)에 따라 제 1 오디오 모듈(134)을 제어하여 제 1 동영상 컨텐츠(content_video_1)를 생성한다.
마지막으로, 제 5 단계(s50)에서 제 2 스튜디오 장비 제어 시스템이 제 1 제어 시퀀스(seq_control_device_1)에 기반하여 제 2 오디오 모듈(174)을 제어하여 제 2 동영상 컨텐츠(content_video_2)를 생성한다.
이러한 실시예에 따르면 예컨대 노래하는 사람을 촬영하는 경우 스튜디오 내 음향 전문가가 없이도 자동화된 오디오 모듈(134,174)을 통해 적절한 음향효과가 삽입된 고품질의 제 2 동영상 컨텐츠(content_video_2)를 적은 비용으로 생성하는 효과를 제공한다.
한편, 제 1 동영상 컨텐츠(content_video_1)와 제 2 동영상 컨텐츠(content_video_2)의 구성이 동일하지 않은 경우, 제 2 제어 시퀀스를 생성하는 단계(s51)이 추가로 수행된다. 제 1 제어 시퀀스(seq_control_device_1)를 기반으로 제 2 동영상 컨텐츠(content_video_2)에 부합하도록 자동으로 보정된 제 2 제어 시퀀스(seq_control_device_2)를 통해 제 2 동영상 컨텐츠(content_video_2)가 생성(s50)될 수 있다.
이를 위해 제 5 단계(s50)에서 제 2 스튜디오 장비 제어 시스템이 제 2 제어 시퀀스(seq_control_device_2)에 따라 제 2 카메라 모듈(171)을 제어하여 제 2 동영상 컨텐츠(content_video_2)를 생성할 수 있다.
보다 상세하게는 제 1 동영상 컨텐츠(content_video_1)와 제 2 동영상 컨텐츠(content_video_2)의 전체 시간에 차이가 있는 경우, 단계(s51)에서 제 2 스튜디오 장비 제어 시스템이 제 1 제어 시퀀스(seq_control_device_1)의 총 제어 시간과 제 2 제어 시퀀스(seq_control_device_2)의 총 제어 시간의 비율에 따라 제어 타이밍을 보정하고, 단계(s50)에서 제 2 스튜디오 장비 제어 시스템은 보정된 제 2 제어 시퀀스(seq_control_device_2)에 따라 제 2 카메라 모듈(171)을 제어하여 제 2 동영상 컨텐츠(content_video_2)를 생성할 수 있다.
제 1 동영상 컨텐츠(content_video_1) 및 제 2 동영상 컨텐츠(content_video_2)가 음악이 포함되어 촬영 및 편집되고, 제 1 음악(music_1)과 제 2 음악(music_2)이 전주부, 도입부, 절정부, 간주부, 후주부 등의 특정한 구간별 길이에 차이가 있는 경우, 제 1 단계(s10)에서 제 1 스튜디오 장비 제어 시스템이 적어도 제 1 음악(music_1)의 제 1 구간, 제 1 음악(music_1)의 제 2 구간 및 제 1 음악(music_1)의 제 3 구간이 구별되는 제 1 제어 시퀀스(seq_control_device_1)를 입력 받는다.
다음으로, 제 5 단계(s50)에서 제 2 스튜디오 장비 제어 시스템이 제 1 음악(music_1)의 제 1 구간의 구간 제어 시간과 제 2 음악(music_2)의 제 1 구간의 구간 제어 시간의 비율에 따라 제어 타이밍이 보정된(s51) 제 2 음악(music_2)의 제 1 구간, 제 1 음악(music_1)의 제 2 구간의 구간 제어 시간과 제 2 음악(music_2)의 제 2 구간의 구간 제어 시간의 비율에 따라 제어 타이밍이 보정된(s51) 제 2 음악(music_2)의 제 2 구간, 제 1 음악(music_1)의 제 3 구간의 구간 제어 시간과 제 2 음악(music_2)의 제 3 구간의 구간 제어 시간의 비율에 따라 제어 타이밍이 보정된(s51) 제 2 음악(music_2)의 제 3 구간이 적어도 구별되는 제 2 제어 시퀀스(seq_control_device_2)에 따라 제 2 카메라 모듈(171) 및 제 2 오디오 모듈(174)을 제어하여 제 2 동영상 컨텐츠(content_video_2)를 생성할 수 있다.
제 1 동영상 컨텐츠(content_video_1) 및 제 2 동영상 컨텐츠(content_video_2)가 음악이 포함되어 촬영 및 편집되고, 제 1 음악(music_1)과 제 2 음악(music_2)이 비트에 차이가 있는 경우, 제 1 단계(s10)에서 제 1 스튜디오 장비 제어 시스템이 제 1 음악(music_1)의 비트에 부합하는 제 1 제어 시퀀스(seq_control_device_1)를 입력 받는다.
다음으로, 제 5 단계(s50)에서 제 2 스튜디오 장비 제어 시스템이, 제 1 음악(music_1)의 비트와 제 2 음악(music_2)의 비트를 비교하여 제 2 음악(music_2)의 비트에 따라 보정된(s51) 제 2 제어 시퀀스(seq_control_device_2)에 따라 제 2 카메라 모듈(171)을 제어하여 제 2 동영상 컨텐츠(content_video_2)를 생성할 수 있다.
본 명세서에서의 발명의 설명은 바람직한 실시예를 설명하는 것으로, 본 발명은 이러한 실시예에 한정되지 않는다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 이상의 실시예에 대한 다양한 변경과 수정이 가능하고, 본 발명의 기술적 사상은 이러한 다양한 변경과 수정을 모두 포함한다.

Claims (14)

  1. 촬영 전에 생성된 제 1 제어 시퀀스를 저장하는 제어 시퀀스 저장모듈;
    상기 제 1 제어 시퀀스에 기반하여 제 1 피사체를 촬영하여 제 1 동영상 컨텐츠를 생성하는 제 1 카메라 모듈;
    상기 제 1 제어 시퀀스에 기반하여 상기 제 1 카메라 모듈을 제어하는 제 1 스튜디오 장비 제어모듈;
    상기 제 1 제어 시퀀스와 상기 제 1 동영상 컨텐츠를 저장하는 동영상 컨텐츠 저장모듈;
    상기 제 1 동영상 컨텐츠를 포함하는 복수의 동영상 컨텐츠들을 통신망을 통해 제공하는 컨텐츠 공유 웹서비스를 제공하고, 상기 제 1 동영상 컨텐츠를 제공받은 사용자로부터 상기 제 1 제어 시퀀스의 공유 요청을 통신망을 통해 수신하는 웹서비스 서버;
    상기 제 1 제어 시퀀스에 기반하여 제 2 제어 시퀀스를 생성하는 제어 시퀀스 보정모듈;
    상기 제 2 제어 시퀀스에 기반하여 제 2 피사체를 촬영하여 제 2 동영상 컨텐츠를 생성하는 제 2 카메라 모듈; 및
    상기 제 2 제어 시퀀스에 기반하여 상기 제 2 카메라 모듈을 제어하는 제 2 스튜디오 장비 제어모듈;을 포함하는 것을 특징으로 하는 제어 시퀀스 공유 시스템.
  2. 제 1 항에 있어서,
    상기 제 1 카메라 모듈을 이동하는 제 1 카메라 이동모듈; 및
    상기 제 2 카메라 모듈을 이동하는 제 2 카메라 이동모듈;을 더 포함하고,
    상기 제 1 스튜디오 장비 제어모듈은, 상기 제 1 제어 시퀀스에 기반하여 상기 제 1 카메라 이동모듈을 제어하고,
    상기 제 2 스튜디오 장비 제어모듈은, 상기 제 2 제어 시퀀스에 기반하여 상기 제 2 카메라 이동모듈을 제어하는 것을 특징으로 하는 제어 시퀀스 공유 시스템.
  3. 제 1 항에 있어서,
    상기 제 1 카메라 모듈의 촬영 영역을 조명하는 제 1 조명모듈; 및
    상기 제 2 카메라 모듈의 촬영 영역을 조명하는 제 2 조명모듈;을 더 포함하고,
    상기 제 1 스튜디오 장비 제어모듈은, 상기 제 1 제어 시퀀스에 기반하여 상기 제 1 조명 모듈을 제어하고,
    상기 제 2 스튜디오 장비 제어 모듈은, 상기 제 2 제어 시퀀스에 기반하여 상기 제 2 조명 모듈을 제어하는 것을 특징으로 하는 제어 시퀀스 공유 시스템.
  4. 제 1 항에 있어서,
    상기 제 1 제어 시퀀스에 설정된 제 1 음악을 제공하는 제 1 오디오 모듈; 및
    상기 제 2 제어 시퀀스에 기반하여 음향을 제공하는 제 2 오디오 모듈;을 더 포함하고,
    상기 제 1 스튜디오 장비 제어모듈은, 상기 제 1 오디오 모듈을 제어하고,
    상기 제 2 스튜디오 장비 제어모듈은, 상기 제 2 오디오 모듈을 제어하는 것을 특징으로 하는 제어 시퀀스 공유 시스템.
  5. 제 1 항에 있어서, 상기 제어 시퀀스 보정모듈은,
    상기 제 1 제어 시퀀스의 총 제어 시간과 상기 제 2 제어 시퀀스의 총 제어 시간의 비율에 따라 제어 타이밍이 보정된 상기 제 2 제어 시퀀스를 생성하는 것을 특징으로 하는 제어 시퀀스 공유 시스템.
  6. 제 4 항에 있어서,
    상기 제어 시퀀스 저장모듈은, 적어도 상기 제 1 음악의 제 1 구간, 상기 제 1 음악의 제 2 구간 및 상기 제 1 음악의 제 3 구간이 구별되는 상기 제 1 제어 시퀀스를 저장하고,
    상기 제 2 오디오 모듈은, 상기 제 2 제어 시퀀스에 설정된 제 2 음악을 제공하고,
    상기 제어 시퀀스 보정모듈은, 상기 제 1 음악의 상기 제 1 구간의 구간 제어 시간과 상기 제 2 음악의 제 1 구간의 구간 제어 시간의 비율에 따라 상기 제 2 음악의 상기 제 1 구간에 해당하는 상기 제 2 제어 시퀀스의 제어 타이밍을 보정하고, 상기 제 1 음악의 상기 제 2 구간의 구간 제어 시간과 상기 제 2 음악의 제 2 구간의 구간 제어 시간의 비율에 따라 상기 제 2 음악의 상기 제 2 구간의 제어 타이밍을 보정하고, 상기 제 1 음악의 상기 제 3 구간의 구간 제어 시간과 상기 제 2 음악의 제 3 구간의 구간 제어 시간의 비율에 따라 상기 제 2 음악의 상기 제 3 구간의 제어 타이밍을 보정하여 상기 제 2 제어 시퀀스를 생성하는 것을 특징으로 하는 제어 시퀀스 공유 시스템.
  7. 제 4 항에 있어서,
    상기 제 2 오디오 모듈은, 상기 제 2 제어 시퀀스에 설정된 제 2 음악을 제공하고,
    상기 제어 시퀀스 저장모듈은, 상기 제 1 음악의 비트에 부합하는 상기 제 1 제어 시퀀스를 저장하고,
    상기 제어 시퀀스 보정모듈은, 상기 제 1 음악의 비트와 상기 제 2 음악의 비트를 비교하여 상기 제 2 음악의 비트에 따라 상기 제 2 제어 시퀀스를 보정하는 것을 특징으로 하는 제어 시퀀스 공유 시스템.
  8. 적어도 하나의 제 1 카메라 모듈을 제어하기 위한 제 1 제어 시퀀스를 입력받는 제 1 단계;
    상기 제 1 제어 시퀀스에 기반하여 상기 제 1 카메라 모듈을 제어하여 제 1 피사체에 대한 제 1 동영상 컨텐츠를 생성하는 제 2 단계;
    복수의 동영상 컨텐츠가 등록된 컨텐츠 공유 웹사이트에 상기 제 1 제어 시퀀스와 상기 제 1 동영상 컨텐츠를 등록하는 제 3 단계;
    상기 컨텐츠 공유 웹사이트에서 상기 제 1 동영상 컨텐츠를 제공받은 사용자로부터 상기 제 1 제어 시퀀스의 공유 요청을 수신받는 제 4 단계; 및
    상기 제 1 제어 시퀀스에 기반하여 제 2 제어 시퀀스를 생성하고, 상기 제 2 제어 시퀀스에 기반하여 제 2 카메라 모듈을 제어하여 제 2 피사체에 대한 제 2 동영상 컨텐츠를 생성하는 제 5 단계;를 포함하는 것을 특징으로 하는 제어 시퀀스 공유 방법.
  9. 제 8 항에 있어서,
    상기 제 1 단계는, 상기 제 1 카메라 모듈을 이동하는 제 1 카메라 이동모듈을 제어하기 위한 상기 제 1 제어 시퀀스를 입력받고,
    상기 제 2 단계는, 상기 제 1 제어 시퀀스에 기반하여 상기 제 1 카메라 이동모듈을 제어하여 상기 제 1 동영상 컨텐츠를 생성하고,
    상기 제 5 단계는, 상기 제 2 제어 시퀀스에 기반하여 제 2 카메라 이동모듈을 제어하여 상기 제 2 동영상 컨텐츠를 생성하는 것을 특징으로 하는 제어 시퀀스 공유 방법.
  10. 제 8 항에 있어서,
    상기 제 1 단계는, 제 1 조명모듈을 제어하기 위한 상기 제 1 제어 시퀀스를 입력받고,
    상기 제 2 단계는, 상기 제 1 제어 시퀀스에 기반하여 상기 제 1 조명모듈을 더 제어하여 상기 제 1 동영상 컨텐츠를 생성하고,
    상기 제 5 단계는, 상기 제 2 제어 시퀀스에 기반하여 제 2 조명모듈을 제어하여 상기 제 2 동영상 컨텐츠를 생성하는 것을 특징으로 하는 제어 시퀀스 공유 방법.
  11. 제 8 항에 있어서,
    상기 제 1 단계는, 제 1 음악에 따른 음향을 제공하는 제 1 오디오 모듈을 제어하기 위한 상기 제 1 제어 시퀀스를 입력받고,
    상기 제 2 단계는, 상기 제 1 제어 시퀀스에 기반하여 상기 제 1 오디오 모듈을 제어하여 상기 제 1 동영상 컨텐츠를 생성하고,
    상기 제 5 단계는, 상기 제 2 제어 시퀀스에 기반하여 제 2 오디오 모듈을 제어하여 상기 제 2 동영상 컨텐츠를 생성하는 것을 특징으로 하는 제어 시퀀스 공유 방법.
  12. 제 8 항에 있어서, 상기 제 5 단계는,
    상기 제 1 제어 시퀀스의 총 제어 시간과 상기 제 2 제어 시퀀스의 총 제어 시간의 비율에 따라 제어 타이밍이 보정된 상기 제 2 제어 시퀀스를 생성하는 것을 특징으로 하는 제어 시퀀스 공유 방법.
  13. 제 11 항에 있어서,
    상기 제 1 단계는, 적어도 상기 제 1 음악의 제 1 구간, 상기 제 1 음악의 제 2 구간 및 상기 제 1 음악의 제 3 구간이 구별되는 상기 제 1 제어 시퀀스를 입력받고,
    상기 제 5 단계는, 상기 제 1 음악의 상기 제 1 구간의 구간 제어 시간과 제 2 음악의 제 1 구간의 구간 제어 시간의 비율에 따라 제어 타이밍이 보정된 상기 제 2 음악의 상기 제 1 구간, 상기 제 1 음악의 상기 제 2 구간의 구간 제어 시간과 상기 제 2 음악의 제 2 구간의 구간 제어 시간의 비율에 따라 제어 타이밍이 보정된 상기 제 2 음악의 상기 제 2 구간, 상기 제 1 음악의 상기 제 3 구간의 구간 제어 시간과 상기 제 2 음악의 제 3 구간의 구간 제어 시간의 비율에 따라 제어 타이밍이 보정된 상기 제 2 음악의 상기 제 3 구간이 적어도 구별되는 상기 제 2 제어 시퀀스에 따라 상기 제 2 카메라 모듈 및 상기 제 2 오디오 모듈을 제어하여 상기 제 2 동영상 컨텐츠를 생성하는 것을 특징으로 하는 제어 시퀀스 공유 방법.
  14. 제 11 항에 있어서,
    상기 제 1 단계는, 상기 제 1 음악의 비트에 부합하는 상기 제 1 제어 시퀀스를 입력받고,
    상기 제 5 단계는, 상기 제 1 음악의 비트와 제 2 음악의 비트를 비교하여 상기 제 2 음악의 비트에 따라 보정된 상기 제 2 제어 시퀀스를 생성하는 것을 특징으로 하는 제어 시퀀스 공유 방법.
PCT/KR2017/006254 2016-06-17 2017-06-15 스튜디오 장비 제어 시퀀스 공유 서비스 제공 시스템 및 제공방법 WO2017217787A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2016-0075998 2016-06-17
KR1020160075998A KR20170143076A (ko) 2016-06-17 2016-06-17 스튜디오 장비 제어 시퀀스 공유 서비스 제공 시스템 및 제공방법

Publications (1)

Publication Number Publication Date
WO2017217787A1 true WO2017217787A1 (ko) 2017-12-21

Family

ID=60663346

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/006254 WO2017217787A1 (ko) 2016-06-17 2017-06-15 스튜디오 장비 제어 시퀀스 공유 서비스 제공 시스템 및 제공방법

Country Status (2)

Country Link
KR (1) KR20170143076A (ko)
WO (1) WO2017217787A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102299418B1 (ko) * 2019-08-14 2021-09-08 주식회사 백그라운드 개인 방송용 대여식 스튜디오의 제공을 위한 서비스 시스템
KR102601179B1 (ko) * 2022-04-14 2023-11-13 유한책임회사 매드제너레이터 Xr 컨텐츠를 생성하기 위한 장치, 방법 및 시스템

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030082461A (ko) * 2002-04-17 2003-10-22 가부시키가이샤 아틀루스 자동사진촬영시스템
KR20050030360A (ko) * 2003-09-25 2005-03-30 주식회사 다믐 사진스튜디오 자동화 촬영 시스템
US7324166B1 (en) * 2003-11-14 2008-01-29 Contour Entertainment Inc Live actor integration in pre-recorded well known video
KR100921337B1 (ko) * 2008-02-14 2009-10-13 박우성 영상 콘텐츠 서비스 시스템 및 방법
KR20140036950A (ko) * 2012-09-12 2014-03-26 김형근 조명장치 일체형 홈 시어터용 스피커 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030082461A (ko) * 2002-04-17 2003-10-22 가부시키가이샤 아틀루스 자동사진촬영시스템
KR20050030360A (ko) * 2003-09-25 2005-03-30 주식회사 다믐 사진스튜디오 자동화 촬영 시스템
US7324166B1 (en) * 2003-11-14 2008-01-29 Contour Entertainment Inc Live actor integration in pre-recorded well known video
KR100921337B1 (ko) * 2008-02-14 2009-10-13 박우성 영상 콘텐츠 서비스 시스템 및 방법
KR20140036950A (ko) * 2012-09-12 2014-03-26 김형근 조명장치 일체형 홈 시어터용 스피커 장치

Also Published As

Publication number Publication date
KR20170143076A (ko) 2017-12-29

Similar Documents

Publication Publication Date Title
US8199211B2 (en) Camera direct dailies
US8208792B2 (en) Content shooting apparatus for generating scene representation metadata
JP6324063B2 (ja) 画像再生装置及びその制御方法
WO2015076537A1 (ko) 동영상 제공 방법 및 동영상 제공 시스템
WO2015102232A1 (en) Method and electronic apparatus for sharing photographing setting values, and sharing system
JP6206699B2 (ja) 画像処理装置、撮像装置、およびコンピュータプログラム
WO2016027977A1 (ko) 360도 공간영상 재생방법 및 그 시스템
WO2017217787A1 (ko) 스튜디오 장비 제어 시퀀스 공유 서비스 제공 시스템 및 제공방법
JP2006238326A (ja) カメラ装置システムおよび撮影動画像再生方法
JP4741557B2 (ja) 撮影ショット制御装置及び撮影ショット制御プログラム
WO2018124794A1 (ko) 카메라워크 기반 영상합성 시스템 및 영상합성방법
US20140126882A1 (en) Image processing apparatus and computer program
KR101879168B1 (ko) 스튜디오 장비 제어 시퀀스 공유 서비스 제공 시스템 및 제공방법
KR101976288B1 (ko) 다시점 영상 생성 방법
JP2023126967A (ja) 情報処理装置、情報処理プログラムおよび記録媒体
WO2015037761A1 (ko) 멀티앵글영상서비스 제공 방법 및 시스템
WO2015064855A1 (ko) 멀티앵글영상촬영을 위한 사용자인터페이스 메뉴 제공방법 및 사용자 인터페이스메뉴 제공장치
WO2022203212A2 (ko) 프로젝터를 활용한 동영상 촬영을 위한 장치 및 방법
WO2017051955A1 (ko) 동영상 이펙트 적용 장치 및 방법
WO2017065503A1 (ko) 분산형 멀티미디어 편집 시스템 및 편집방법
JP2017059121A (ja) 画像管理装置、画像管理方法及びプログラム
WO2017209468A1 (ko) 3차원 입체 효과를 제공하는 크로마키 합성 시스템 및 방법
KR102472801B1 (ko) 분산형 멀티미디어 편집 시스템 및 편집방법
WO2017217789A1 (ko) 복수의 공연객체들의 협업을 이용한 동영상 컨텐츠 생성 시스템 및 방법
WO2018155910A1 (ko) 중계 방송을 지원하기 위한 방법, 디바이스 및 비일시성의 컴퓨터 판독 가능한 기록 매체

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17813610

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17813610

Country of ref document: EP

Kind code of ref document: A1