WO2018026081A1 - 콘티 작성 장치 및 방법 - Google Patents

콘티 작성 장치 및 방법 Download PDF

Info

Publication number
WO2018026081A1
WO2018026081A1 PCT/KR2017/001843 KR2017001843W WO2018026081A1 WO 2018026081 A1 WO2018026081 A1 WO 2018026081A1 KR 2017001843 W KR2017001843 W KR 2017001843W WO 2018026081 A1 WO2018026081 A1 WO 2018026081A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
dimensional space
command
user
screen
Prior art date
Application number
PCT/KR2017/001843
Other languages
English (en)
French (fr)
Inventor
최진성
Original Assignee
주식회사 씨투몬스터
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 씨투몬스터 filed Critical 주식회사 씨투몬스터
Priority to CN201780048052.8A priority Critical patent/CN109564707A/zh
Publication of WO2018026081A1 publication Critical patent/WO2018026081A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/004Annotating, labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Definitions

  • the present invention relates to an apparatus and method for creating a conti.
  • Conti is generally written in a cartoon-like format so that it is easy to understand the screen composition of the video, the movements and dialogues of the characters in the video.
  • Conti is produced by a Conti writer who specializes in manga and drawing, while non-experts have difficulty in writing Conti.
  • An embodiment of the present invention is to provide an apparatus and method for creating a confetti that can be easily and simply written by a non-expert.
  • An apparatus for creating a conti includes an input unit for receiving a command for creating a conti from a user; A storage unit for storing an object prepared in advance for use in creating the conti; An object controller which retrieves the object according to a user's command and arranges and manipulates the object in a three-dimensional space; An image capture unit for capturing an image of the three-dimensional space in which the object is disposed; A display unit displaying the three-dimensional space; And a processing unit that performs processing related to the creation of the conti.
  • the storage unit may store at least one object of a person, a background, and an object used to create the conti.
  • the object controller may include: at least one camera object for capturing the object and an image of the 3D space in the 3D space according to a user's command, and the image capture unit: the 3D viewed from the camera object You can capture images of space.
  • the object controller may move or rotate at least one of the object and the camera object in the three-dimensional space according to a user's command.
  • the object controller may further include at least one lighting object that provides light in the three-dimensional space.
  • the display unit may provide a camera screen displaying a view of the three-dimensional space viewed from the camera object.
  • the processing unit when two or more camera objects are disposed in the three-dimensional space, may display a view of the camera object activated by the user among the camera objects on the camera screen.
  • the input unit may receive a camera screen change command for changing the appearance of the 3D space displayed on the camera screen, and the object controller may be configured to: parallelize the camera object in the 3D space in response to the camera screen change command. You can move it.
  • the input unit may receive a driving command for driving the camera object from a user, and the processing unit may further display an indicator for instructing driving of the camera object on the camera screen in response to the driving command.
  • the indicator may include a symbol indicating at least one of focus change, rotation and movement of the camera object.
  • the input unit may receive a driving command for driving the camera object from a user, and the processor may generate a moving picture photographed by driving the camera object in the 3D space according to the driving command.
  • the storage unit may further store a location image of a location previously photographed, and the object controller may load the location image and apply the background image to a background displayed on the camera screen.
  • the display unit may include: a first display manipulator for manipulating whether at least one of a person, a background, and an object is displayed on the camera screen, and the input unit may include: a first display manipulating the first display manipulator from a user;
  • the object controller may be configured to control whether to display the object on the camera screen according to the first display manipulation command.
  • the display unit may include: a first lighting manipulator for manipulating light provided by the lighting object on the camera screen, and the input unit may receive a first lighting manipulation command for manipulating the first lighting manipulator from a user,
  • the object controller may control light provided by the lighting object on the camera screen according to the first lighting manipulation command.
  • the display unit may provide a 3D space screen in which at least one of a planar view, a front view, and a side view of the 3D space is displayed.
  • the display unit may include: a second display manipulator for manipulating whether at least one of an object of a person, a background, and an object is displayed on the three-dimensional space screen, and the input unit may be configured to manipulate the second display manipulator from a user.
  • the object controller may control whether to display the object on the three-dimensional space screen according to the second display manipulation instruction.
  • the display unit may include: a second lighting manipulator for manipulating light provided by the lighting object on the three-dimensional space screen, and the input unit may input a second lighting manipulation command for manipulating the second lighting manipulator from a user.
  • the object controller may control light provided by the lighting object on the 3D space screen according to the second lighting manipulation command.
  • the input unit may receive a description of the captured image from a user, and the processor may configure the captured image and the description thereof as a unit shot.
  • a method for creating a conti is provided; Receiving a command for creating a conti from a user; Retrieving an object prepared in advance for use in creating the conti according to a user's command; Placing and manipulating the retrieved object in the three-dimensional space according to a user's command; And capturing an image of the three-dimensional space in which the object is disposed.
  • Importing the object may include: importing at least one object of a person, a background, and an object used to create the conti.
  • Arranging and manipulating the imported object in a three-dimensional space includes: arranging at least one camera object for capturing the object and an image of the three-dimensional space in the three-dimensional space according to a user's command.
  • the capturing an image of the 3D space may include capturing an image of the 3D space viewed from the camera object.
  • Arranging and manipulating the loaded object in the three-dimensional space may include: moving or rotating at least one of the object and the camera object in the three-dimensional space according to a user's command.
  • Arranging and manipulating the imported object in the three-dimensional space may further include arranging at least one lighting object providing light in the three-dimensional space.
  • the method for creating a conti may further include providing a camera screen displaying a view of the three-dimensional space viewed from the camera object.
  • the method for creating a conti may further include displaying, on the camera screen, a view of a camera object activated by a user among camera objects when two or more camera objects are disposed in the three-dimensional space. .
  • the method for creating a conti may include receiving a camera screen change command for changing a state of the three-dimensional space displayed on the camera screen; And parallelly moving the camera object in the three-dimensional space in response to the camera screen change command.
  • the method for creating a conti may include receiving a driving command for driving the camera object from a user; And displaying an indicator for instructing driving of the camera object on the camera screen in response to the driving command.
  • the indicator may include a symbol indicating at least one of focus change, rotation and movement of the camera object.
  • the method for creating a conti may include receiving a driving command for driving the camera object from a user; And generating a captured video by driving the camera object in the 3D space according to the driving command.
  • the method for creating a conti may include: loading a location image of a location photographed in advance; And applying the location image as a background displayed on the camera screen.
  • the method for creating a conti may include providing a first display manipulator for manipulating whether at least one of a person, a background, and an object is displayed on the camera screen; Receiving a first display manipulation command for operating the first display manipulation device from a user; And controlling whether to display the object on the camera screen according to the first display manipulation command.
  • the method for creating a conti may include providing a first lighting manipulator for manipulating light provided by the lighting object on the camera screen; Receiving a first lighting operation command for operating the first lighting manipulator from a user; And controlling the light provided by the lighting object on the camera screen according to the first lighting manipulation command.
  • the displaying of the three-dimensional space may include: providing a three-dimensional space screen on which at least one of a planar view, a front view, and a side view of the three-dimensional space is displayed.
  • the method for creating a conti may include providing a second display manipulator for manipulating whether at least one of a person, a background, and an object is displayed on the three-dimensional space screen; Receiving a second display manipulation command for operating the second display manipulation unit from a user; And controlling whether to display the object on the three-dimensional space screen according to the second display manipulation command.
  • the method for creating a conti may include providing a second lighting manipulator for manipulating light provided by the lighting object on the three-dimensional space screen; Receiving a second lighting operation command for operating the second lighting manipulator from a user; And controlling the light provided by the lighting object on the 3D space screen according to the second lighting manipulation command.
  • the method for creating a conti may include receiving a description of the captured image from a user; The method may further include configuring and storing the captured image and a description thereof as a unit shot.
  • the method for creating a conti may be implemented as an application or program for execution by a computer and recorded in a computer-readable recording medium.
  • the method for creating a conti may be implemented as an application or a program for executing by a computer.
  • FIG. 1 is an exemplary block diagram of a device for creating a confetti according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating a confetti creation screen according to an embodiment of the present invention.
  • 3 and 4 are exemplary diagrams for explaining a process of creating a conti according to an embodiment of the present invention.
  • FIG. 5 is an exemplary diagram for describing a process of manipulating a camera object according to another embodiment of the present invention.
  • FIG. 6 is an exemplary diagram for describing a process of instructing driving of a camera object according to an embodiment of the present invention.
  • FIG. 7 and 8 are exemplary diagrams for describing a process of operating the first and second display manipulators according to an embodiment of the present invention, respectively.
  • FIG. 9 is an exemplary diagram for describing a process of manipulating the first and second lighting manipulators according to another exemplary embodiment of the present invention.
  • FIG. 10 is an exemplary diagram for explaining a process of constructing a shot by adding a description to a captured image according to an embodiment of the present invention.
  • FIG. 11 is an exemplary diagram for describing a process of transmitting a continuity created according to an embodiment of the present invention to a crew.
  • FIG. 12 is an exemplary flowchart of a method of creating a conti according to an embodiment of the present invention.
  • FIG. 13 is an exemplary flowchart for describing a process of manipulating a camera object according to another embodiment of the present invention.
  • FIG. 14 is an exemplary flowchart for explaining a process of instructing to drive a camera object according to an embodiment of the present invention.
  • 15 is an exemplary flowchart for describing a process of applying a location image as a background of a camera screen according to an embodiment of the present invention.
  • the terms ' ⁇ ', ' ⁇ ', ' ⁇ block', ' ⁇ module', etc. used throughout the present specification may mean a unit for processing at least one function or operation.
  • it can mean a hardware component such as software, FPGA, or ASIC.
  • ' ⁇ ', ' ⁇ ', ' ⁇ block', ' ⁇ module', etc. are not limited to software or hardware.
  • ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ' May be configured to reside in an addressable storage medium or may be configured to play one or more processors.
  • ' ⁇ ', ' ⁇ ', ' ⁇ block', ' ⁇ module' are components such as software components, object-oriented software components, class components, and task components. And processes, functions, properties, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and Contains variables
  • the components and the functions provided within ' ⁇ ', ' ⁇ ', ' ⁇ ', ' ⁇ ', ',' ⁇ Module 'or may be further separated into additional components and' ⁇ part ',' ⁇ group ',' ⁇ block ',' ⁇ module '.
  • FIG. 1 is an exemplary block diagram of a confetti creation device 100 according to an embodiment of the present invention.
  • the contigiation device 100 includes an input unit 110, a storage unit 120, an object controller 130, an image capture unit 140, a display unit 150, and a processing unit 160.
  • the writing device 100 is a computing device including a processor and a memory, and may be, for example, a mobile terminal such as a tablet PC.
  • the content writing device 100 is not limited to a mobile terminal and may be any computer (eg, a personal computer) as long as it includes a processor and a memory.
  • the input unit 110 receives a command for creating a conti from the user.
  • the input unit 110 is an input device for receiving data, and may include, for example, a touch pad, a keyboard, a mouse, a touch pen, and the like. If the input unit 110 is a touch pad and the touch pad is combined with the display unit 150, the input unit 110 and the display unit 150 may constitute a touch screen.
  • the storage unit 120 stores an object prepared in advance to be used for creating a conti.
  • the storage unit 120 is a storage device that stores data.
  • the storage unit 120 may include an HDD, an SSD, a RAM, a ROM, a cache, a register, and the like.
  • the object controller 130 retrieves an object according to a user's command and arranges and manipulates the object in a three-dimensional space.
  • the image capture unit 140 captures an image of a three-dimensional space in which an object is disposed.
  • the display unit 150 displays a three-dimensional space.
  • the display unit 150 is a display device that displays data on a screen.
  • the display unit 150 may include an LCD.
  • the processing unit 160 performs a process related to creating a conti.
  • the object controller 130 and the image capture unit 140 are processors that process data.
  • the object controller 130 and the image capture unit 140 may include a CPU, a GPU, and an AP.
  • the processor loads and executes a confetti writing program stored in a memory, and a user creates a confetti necessary for producing an image using the confetti writing program.
  • the contigiator writing device 100 may further include a communication unit 170.
  • the communication unit 170 may transmit the created conti to the crew who produces the image.
  • the communication unit 170 is a communication device that transmits and receives data.
  • the communication unit 170 may include a wireless data communication module, a wireless LAN module, a short range communication module, and the like, but is not limited thereto and may include a wired data communication module.
  • FIG. 2 is a diagram exemplarily illustrating a confetti creation screen 200 according to an embodiment of the present invention.
  • the display unit 150 provides a three-dimensional space screen 210 in which a three-dimensional space used for creating a conti is displayed.
  • the three-dimensional space screen 210 displays a three-dimensional space in which an object used to create a continual object is arranged.
  • the storage unit 120 may store at least one of a person, a background, and an object as an object used to create a conti.
  • the object controller 130 may retrieve an object from the storage 120 and arrange and manipulate the object in a three-dimensional space according to a user's command input through the input unit 110.
  • 3 and 4 are exemplary diagrams for explaining a process of creating a conti according to an embodiment of the present invention.
  • the object controller 130 may arrange an object in a three-dimensional space according to a user's command. For example, the user selects an object button (eg, a person object button, a background object button, a vehicle object button, a furniture object button, etc.) of an object to be loaded from among the object load buttons 220 provided on the confetti creation screen 200. Press to select a desired object among the objects stored in the storage unit 120 to place the object in a three-dimensional space.
  • the objects arranged in the 3D space are a background object and a person object 213.
  • the display unit 150 may further provide an object list 230 indicating objects arranged in the 3D space.
  • an object list 230 indicating objects arranged in the 3D space.
  • the image 231 representing the background object and the image 232 representing the person object are also displayed in the object list 230.
  • the object controller 130 may arrange at least one camera object 211 or 212 for capturing an image in a three-dimensional space in addition to the object.
  • the object controller 130 may move or rotate at least one of the object 213 and the camera objects 211 and 212 in a three-dimensional space according to a user's command.
  • a user presses a button (for example, a camera object button, a person object button, etc.) of an object to be operated from among the object selection buttons 272 provided on the confetti creation screen 200, and selects a desired operation from the operation selection buttons 273.
  • a button of a type eg, a translation button, a rotation button, etc.
  • the object may be manipulated by moving or rotating the object on the 3D space screen 210.
  • the 3D space screen 210 may display at least one of a plan view, a front view, and a side view of the 3D space.
  • the user presses a button (eg, a plan view button, a front view button, a side view button, etc.) of a desired view from among the 3D space view buttons 271 provided on the contigiation creation screen 200, and the user selects the desired view on the 3D space screen 210.
  • the plan view of the 3D space is displayed on the 3D space screen 210
  • the front view of the 3D space is displayed on the 3D space screen 210 in FIG. 4.
  • the image capture unit 140 may capture an image of the 3D space viewed from the camera objects 211 and 212.
  • the display unit 150 looks at the camera objects 211 and 212. It is possible to provide a camera screen 240 in which the appearance of the dimensional space is displayed.
  • the camera screen 240 displays a state of the 3D space viewed from the camera objects 211 and 212 disposed in the 3D space.
  • the processing unit 160 looks at the camera object activated by the user among the camera objects 211 and 212. It may be displayed at 240.
  • the activation of the camera objects 211 and 212 may be performed by various methods such as selecting a desired camera object on the 3D space screen 210.
  • the user can capture the image of the three-dimensional space with the image displayed on the camera screen 240 by pressing the image capture button 250 provided on the confetti creation screen 200. have.
  • the display unit 150 may further provide a captured image list 260 representing an image of the captured 3D space.
  • the captured image list 260 displays a plurality of images captured by the user.
  • the user may capture an image with a desired screen composition for use in a contiguous object by parallel or rotating the object on the three-dimensional space screen 210 or by parallel or rotating the camera objects 211 and 212.
  • a user may obtain a desired screen composition by moving the camera objects 211 and 212 by manipulating the camera screen 240 provided on the contigiation creation screen 200.
  • FIG. 5 is an exemplary diagram for describing a process of manipulating camera objects 211 and 212 according to another embodiment of the present invention.
  • the input unit 110 may receive a camera screen change command for changing the appearance of the three-dimensional space displayed on the camera screen 240.
  • the object controller 130 may move the camera objects 211 and 212 in a three-dimensional space in response to a camera screen change command.
  • a user may input a camera screen change command for moving an image displayed on the camera screen 240 on the plane of the camera screen 240 by the activated camera object 211.
  • the user may input a command of pressing the camera screen 240 and dragging it in an arbitrary direction (eg, leftward in FIG. 5).
  • the object controller 130 may parallelly move the camera object 211 in a three-dimensional space in a direction opposite to the image movement direction by the input camera screen change command. For example, as shown in FIG. 5, when a user drags an image on the camera screen 240 to the left, the camera object 211 moves in the right direction on a plane perpendicular to the camera axis corresponding to its screen. Can move in parallel
  • the user not only obtains the desired screen composition by moving the object or the camera objects 211 and 212 on the three-dimensional space screen 210, but also moves the camera objects 211 and 212 through the camera screen 240, Fine-tune and fine-tune your picture.
  • the object controller 130 may further arrange at least one lighting object 214 or 215 for providing light in a three-dimensional space.
  • At least one lighting object 214 or 215 may be disposed in the three-dimensional space, and like other objects, the user may use the lighting object 214 in the three-dimensional space. 215 may be disposed in a suitable position by parallel or rotational movement.
  • FIG. 6 is an exemplary diagram for describing a process of instructing the driving of the camera object 211 according to an embodiment of the present invention.
  • the input unit 110 may receive a driving command for driving the camera object 211 from the user.
  • the processor 160 may further display an indicator for instructing the driving of the camera object 211 on the camera screen 240 in response to the driving command.
  • a user may bring up a menu regarding driving of a camera object 211 arranged in a three-dimensional space.
  • the driving menu of the camera object 211 may be loaded by positioning the mouse pointer on the camera object 211 and clicking the right mouse button.
  • the driving menu may be loaded by double tapping the camera object 211 on the touch screen.
  • the loading interface is not limited to this.
  • the user may select and input a desired driving command from the driving menu of the camera object 211.
  • the user selects a dolly-out in relation to the driving of the camera object 211.
  • the processor 160 may further display an indicator 241 instructing the driving of the camera object 211 on the camera screen 240 in response to a driving command (ie, dolly-out in FIG. 6) input by the user.
  • a driving command ie, dolly-out in FIG. 6
  • Indicating indicator 241 may be added.
  • the indicator 241 may include a symbol indicating at least one of focus change, rotation, and movement of the Camerang object 211.
  • the symbols include not only symbols such as arrows used to indicate camera driving, but also letters describing camera driving.
  • the indicator 241 displayed on the camera screen 240 is composed of an arrow and a letter.
  • the direction of the arrow may be determined by a direction input by a user with respect to driving of the camera.
  • the arrow of the indicator 241 displayed on the camera screen 240 may be configured to face the screen.
  • the user goes further than arranging the camera object 211 at an appropriate position during the creation of a contiguous manner, and further inputs a driving command for designating the driving type and the driving direction of the camera object 211 to the camera screen 240 in three dimensions.
  • a driving command for designating the driving type and the driving direction of the camera object 211 to the camera screen 240 in three dimensions.
  • an indicator 241 instructing to drive the camera may be further added.
  • the processor 160 may generate a captured video by driving the camera object 211 in a three-dimensional space according to a driving command received from a user.
  • the contigiation device 100 not only adds an indicator 241 for instructing camera driving to the image included in the conti, but also 3.
  • a moving image photographed by the camera object 211 may be further generated.
  • the captured image list 260 may further display not only the captured image but also a video generated through the above process.
  • the user may check the image of the three-dimensional space captured while the camera is driven by playing the video displayed in the captured image list 260.
  • the confetti writing device 100 not only provides an image or a video of a virtually produced three-dimensional space as a conti, but also creates a confetti based on an image of a location where actual shooting is to be performed.
  • the storage unit 120 may further store a location image of a location photographed in advance.
  • the object controller 130 may load a location image and apply it as a background displayed on the camera screen 240.
  • the user may actually photograph the location, retrieve the location image stored in the storage unit 120, and apply the background image to the camera screen 240 to create a realistic picture more realistically.
  • FIG. 7 and 8 are exemplary diagrams for describing a process of operating the first and second display manipulators 280 and 290, respectively, according to an exemplary embodiment of the present invention.
  • the display unit 150 may provide a first display manipulator 280 for manipulating whether at least one of a person, a background, and an object is displayed on the camera screen 240. .
  • the input unit 110 may receive a first display manipulation command for operating the first display manipulation unit 280 from the user.
  • the object controller 130 may control whether an object is displayed on the camera screen 240 according to the first display manipulation command.
  • the user may switch off the first display manipulator for the person object among the first display manipulators 280 provided on the confetti creation screen 200.
  • the object controller 130 may control the person object to disappear from among objects (eg, a person object, a background object, etc.) displayed on the camera screen 240.
  • objects eg, a person object, a background object, etc.
  • This embodiment can be equally applied to a background object or an object object.
  • the display unit 150 is a second display manipulator 290 for manipulating whether at least one of a person, a background, and an object is displayed on the three-dimensional space screen 210. ) Can be provided.
  • the input unit 110 may receive a second display manipulation command for operating the second display manipulation unit 290 from the user.
  • the object controller 130 may control whether an object is displayed on the 3D space screen in response to the second display manipulation command.
  • the user may switch off the second display manipulator for the person object among the second display manipulators 290 provided on the confetti creation screen 200.
  • the object controller 130 may control the person object 213 to disappear from the objects displayed on the 3D space screen 210.
  • this embodiment can be equally applied to a background object or an object object.
  • the first and second display manipulation commands are not commands for deleting a specific object in the three-dimensional space, but the object is disposed in the three-dimensional space, but the camera screen 240 and the three-dimensional space screen 210 are not.
  • This command determines whether it is displayed. Therefore, the user can easily and conveniently obtain the screen to be used for the continuous operation by appropriately operating the first and second display manipulators 280 and 290.
  • the display unit 150 may provide a first lighting manipulator 285 for manipulating the light provided by the lighting objects 214 and 215 on the camera screen 240. .
  • the input unit 110 may receive a first lighting operation command for operating the first lighting manipulator 285 from the user.
  • the object controller 130 may control light provided by the lighting objects 214 and 215 on the camera screen 240 according to the first lighting manipulation command.
  • the display unit 150 operates the second lighting manipulator 295 for manipulating the light provided by the lighting objects 214 and 215 on the three-dimensional space screen 210. Can provide.
  • the input unit 110 may receive a second lighting operation command for operating the second lighting manipulator 295 from the user.
  • the object controller 130 may control light provided by the lighting objects 214 and 215 on the 3D space screen 210 according to the second lighting manipulation command.
  • FIG. 9 is an exemplary diagram for describing a process of manipulating the first and second lighting manipulators 285 and 295 according to another embodiment of the present invention.
  • the first and second lighting manipulators 285 and 295 illustrated in FIGS. 3 to 8 are configured to turn on or off the lights on the camera screen 240 and the three-dimensional space screen 210, respectively.
  • the first and second lighting manipulators 285 and 295 may be configured to adjust the brightness, not the on and off of the illumination.
  • the first lighting manipulator 285 may be provided in the form of an adjustment bar to adjust the brightness of the light provided by the lighting objects 214 and 215 on the camera screen 240.
  • the second lighting manipulator 295 may also be provided in the form of an adjustment bar to adjust the brightness of the light provided by the lighting objects 214 and 215 in the three-dimensional space 210.
  • the user can adjust the light brightness of the lighting objects 214 and 215 as desired by moving the knob in the control bar through the first and second lighting manipulators 285 and 295.
  • the input unit 110 may receive a description of the captured image from the user.
  • the processor 160 may configure a captured image and a description thereof as a unit shot.
  • FIG. 10 is an exemplary diagram for explaining a process of constructing a shot by adding a description to a captured image according to an embodiment of the present invention.
  • a user may arrange and manipulate an object in a three-dimensional space, capture an image of the three-dimensional space, and input a description such as an action or dialogue of a person in the captured image. Thereafter, the processor 160 may generate one shot by combining the captured image and the description of the image.
  • One or more shots generated by this process can be used as a conti when creating an image.
  • the confetti producing device 100 may print a confetti composed of at least one shot on the ground through an output device such as a printer.
  • the confetti writing device 100 may create a confetti composed of at least one shot into a file having a preset format and store it in the storage 120.
  • the confetti writing device 100 may transmit a confetti written in a file having a predetermined format to an author who produces an image by e-mail.
  • FIG. 11 is an exemplary diagram for describing a process of transmitting a continuity created according to an embodiment of the present invention to a crew.
  • a user executes an e-mail sending function provided by the confetti writing device 100, inputs an e-mail address, a subject, a content, etc. of a person receiving a confetti, and then sends a mail to another confetti. Can be forwarded to
  • FIG. 12 is an exemplary flowchart of a contigh writing method 1000 according to an embodiment of the present invention.
  • the method for creating a confetti 1000 may be executed by the confetti generating apparatus 100 according to the embodiment of the present invention described above.
  • the method for creating a confetti includes displaying a three-dimensional space (S1100), receiving a command for creating a confetti from a user (S1200), and creating a confetti according to a user's command. Recalling an object prepared in advance to be used (S1300), placing and manipulating the loaded object in the three-dimensional space according to a user's command (S1400), and capturing an image of the three-dimensional space in which the object is disposed ( S1500).
  • the step of importing the object (S1300) may include the step of importing at least one object of a person, a background, and an object used to create a conti.
  • the loaded object may be arranged and manipulated in a 3D space, and at least one object 211 and 212 may be arranged to capture an object and an image of the 3D space according to a user's command. It may include the step.
  • the capturing an image of the 3D space may include capturing an image of the 3D space viewed from the camera objects 211 and 212.
  • the step of placing and manipulating the imported object in the three-dimensional space may further include arranging at least one lighting object (214, 215) for providing light in the three-dimensional space.
  • the method for creating a contiguous method 1000 may further include providing a camera screen 240 on which a view of a three-dimensional space viewed by the camera objects 211 and 212 is displayed. .
  • the method may further include displaying on the camera screen 240 a view of the camera object activated by the user among the Camerang objects. can do.
  • FIG. 13 is an exemplary flowchart for describing a process of manipulating the camera object 211 according to another embodiment of the present invention.
  • the method for creating a conti, 1000 receives a camera screen change command for changing the appearance of a three-dimensional space displayed on the camera screen 240 (S1410), and in response to the camera screen change command.
  • the camera object 211 may be parallelly moved in the three-dimensional space.
  • FIG. 14 is an exemplary flowchart for describing a process of instructing driving of camera objects 211 and 212 according to an embodiment of the present invention.
  • a driving command regarding driving of the camera objects 211 and 212 is input from a user (S1430), and a camera is displayed on the camera screen 240 in response to the driving command.
  • the method may further include displaying the indicator 241 indicating the driving of the objects 211 and 212 (S1440).
  • the indicator 241 may include a symbol indicating at least one of focus change, rotation, and movement of the camera objects 211 and 212.
  • the method for creating a conti 1000 may further include generating a captured video by driving the camera objects 211 and 212 in a three-dimensional space according to a driving command (S1450).
  • 15 is an exemplary flowchart for describing a process of applying a location image to a background of a camera screen 240 according to an embodiment of the present invention.
  • the method for creating a contiguous call 1000 includes loading a location image of a location previously photographed (S1460), and applying a location image as a background displayed on the camera screen 240 (S1470). It may further include.
  • the method for creating a conti on 1000 provides a first display manipulator 280 for manipulating whether at least one of a person, a background, and an object is displayed on the camera screen 240.
  • the method may further include receiving a first display manipulation command for operating the first display manipulation unit 280 from the user, and controlling whether to display the object on the camera screen 240 according to the first display manipulation command. Can be.
  • the method for creating a contiguous method 1000 may include providing a first lighting manipulator 285 for manipulating light provided by the lighting objects 214 and 215 on the camera screen 240.
  • the method may further include receiving a first lighting manipulation command for manipulating 285 and controlling the light provided by the lighting object on the camera screen 240 according to the first lighting manipulation instruction.
  • the displaying of the three-dimensional space may include providing a three-dimensional space screen 210 on which at least one of a plan view, a front view, and a side view of the three-dimensional space is displayed.
  • the method for creating a contigi 1000 includes a second display manipulator 290 for manipulating whether at least one of a person, a background, and an object is displayed on the three-dimensional space screen 210. Providing, receiving a second display manipulation command for operating the second display manipulation unit 290 from a user, and controlling whether to display an object on the three-dimensional space screen 210 according to the second display manipulation command. It may further include.
  • the method for creating a contigi 1000 provides a second lighting manipulator 295 for manipulating the light provided by the lighting objects 214 and 215 on the three-dimensional space screen 210, and the second lighting from the user.
  • the method may further include receiving a second lighting manipulation command for manipulating the manipulator, and controlling light provided by the lighting object on the 3D space screen according to the second lighting manipulation command.
  • the method for creating a conti receives a description of a captured image from a user (S1600), and stores the captured image and a description thereof as a unit shot (S1700). ) May be further included.
  • the method for creating a conti according to the above-described embodiment of the present invention 1000 may be manufactured as a program for execution in a computer and stored in a computer-readable recording medium.
  • the computer readable recording medium includes all kinds of storage devices for storing data that can be read by a computer system. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disks, optical data storage devices, and the like.
  • the content writing method 1000 may be implemented as an application stored in a medium in order to execute in combination with a smart device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은 콘티 작성 장치 및 방법에 관한 것이다. 본 발명의 일 실시예에 따른 콘티 작성 장치는, 사용자로부터 콘티의 작성에 관한 명령을 입력받는 입력부; 상기 콘티의 작성에 사용되도록 사전에 마련된 오브젝트를 저장하는 저장부; 사용자의 명령에 따라 상기 오브젝트를 불러와 3차원 공간에 배치하고 조작하는 오브젝트 제어부; 상기 오브젝트가 배치된 상기 3차원 공간의 이미지를 캡쳐하는 이미지 캡쳐부; 상기 3차원 공간을 표시하는 표시부; 및 상기 콘티의 작성에 관한 처리를 수행하는 처리부를 포함할 수 있다.

Description

콘티 작성 장치 및 방법
본 발명은 콘티 작성 장치 및 방법에 관한 것이다.
영화나 드라마와 같은 영상 컨텐츠의 제작 시 각본이 완성되면 촬영 전에 콘티를 작성하여 영상 제작에 필요한 사항들을 시각화한다. 콘티는 영상의 화면 구성이나 영상에 출연하는 인물의 동작 및 대사 등을 한눈에 알기 쉽게 만화와 같은 형식으로 작성되는 것이 일반적이다. 그로 인해, 영상 제작 시 콘티는 만화나 드로잉을 전문적으로 배운 콘티 작가가 담당하여 작성되고 있으며 비전문가는 콘티 작성에 어려움을 겪고 있다.
본 발명의 실시예는 비전문가라도 콘티를 쉽고 간편하게 작성할 수 있는 콘티 작성 장치 및 방법을 제공하는 것을 목적으로 한다.
본 발명의 일 실시예에 따른 콘티 작성 장치는, 사용자로부터 콘티의 작성에 관한 명령을 입력받는 입력부; 상기 콘티의 작성에 사용되도록 사전에 마련된 오브젝트를 저장하는 저장부; 사용자의 명령에 따라 상기 오브젝트를 불러와 3차원 공간에 배치하고 조작하는 오브젝트 제어부; 상기 오브젝트가 배치된 상기 3차원 공간의 이미지를 캡쳐하는 이미지 캡쳐부; 상기 3차원 공간을 표시하는 표시부; 및 상기 콘티의 작성에 관한 처리를 수행하는 처리부를 포함할 수 있다.
상기 저장부는: 상기 콘티의 작성에 사용되는 인물, 배경 및 물건 중 적어도 하나의 오브젝트를 저장할 수 있다.
상기 오브젝트 제어부는: 사용자의 명령에 따라 상기 3차원 공간에 상기 오브젝트 및 상기 3차원 공간의 이미지를 캡쳐하기 위한 적어도 하나의 카메라 오브젝트를 배치하고, 상기 이미지 캡쳐부는: 상기 카메라 오브젝트에서 바라본 상기 3차원 공간의 이미지를 캡쳐할 수 있다.
상기 오브젝트 제어부는: 사용자의 명령에 따라 상기 3차원 공간에서 상기 오브젝트 및 상기 카메라 오브젝트 중 적어도 하나를 평행이동시키거나 회전시킬 수 있다.
상기 오브젝트 제어부는: 상기 3차원 공간에 광을 제공하는 적어도 하나의 조명 오브젝트를 더 배치할 수 있다.
상기 표시부는: 상기 카메라 오브젝트에서 바라보는 상기 3차원 공간의 모습이 표시되는 카메라 화면을 제공할 수 있다.
상기 처리부는: 상기 3차원 공간에 상기 카메라 오브젝트가 둘 이상 배치되어 있는 경우, 카메라 오브젝트들 중에서 사용자에 의해 활성화된 카메라 오브젝트에서 바라보는 모습을 상기 카메라 화면에 표시할 수 있다.
상기 입력부는: 상기 카메라 화면에 표시되는 상기 3차원 공간의 모습을 변경하는 카메라 화면 변경 명령을 입력받고, 상기 오브젝트 제어부는: 상기 카메라 화면 변경 명령에 응답하여 상기 3차원 공간에서 상기 카메라 오브젝트를 평행이동시킬 수 있다.
상기 입력부는: 사용자로부터 상기 카메라 오브젝트의 구동에 관한 구동 명령을 입력받고, 상기 처리부는: 상기 구동 명령에 응답하여 상기 카메라 화면에 상기 카메라 오브젝트의 구동을 지시하는 지시자를 더 표시할 수 있다.
상기 지시자는: 상기 카메라 오브젝트의 초점 변경, 회전 및 이동 중 적어도 하나를 지시하는 기호를 포함할 수 있다.
상기 입력부는: 사용자로부터 상기 카메라 오브젝트의 구동에 관한 구동 명령을 입력받고, 상기 처리부는: 상기 구동 명령에 따라 상기 3차원 공간에서 상기 카메라 오브젝트를 구동시켜 촬영한 동영상을 생성할 수 있다.
상기 저장부는: 사전에 로케이션을 촬영한 로케이션 이미지를 더 저장하고, 상기 오브젝트 제어부는: 상기 로케이션 이미지를 불러와 상기 카메라 화면에 표시되는 배경으로 적용할 수 있다.
상기 표시부는: 상기 카메라 화면에 인물, 배경 및 물건의 오브젝트 중 적어도 하나의 표시 여부를 조작하기 위한 제 1 표시 조작기를 제공하고, 상기 입력부는: 사용자로부터 상기 제 1 표시 조작기를 조작하는 제 1 표시 조작 명령을 입력받고, 상기 오브젝트 제어부는: 상기 제 1 표시 조작 명령에 따라 상기 카메라 화면에 상기 오브젝트의 표시 여부를 제어할 수 있다.
상기 표시부는: 상기 카메라 화면에서 상기 조명 오브젝트가 제공하는 광을 조작하기 위한 제 1 조명 조작기를 제공하고, 상기 입력부는: 사용자로부터 상기 제 1 조명 조작기를 조작하는 제 1 조명 조작 명령을 입력받고, 상기 오브젝트 제어부는: 상기 제 1 조명 조작 명령에 따라 상기 카메라 화면에서 상기 조명 오브젝트가 제공하는 광을 제어할 수 있다.
상기 표시부는: 상기 3차원 공간의 평면 모습, 정면 모습 및 측면 모습 중 적어도 하나가 표시되는 3차원 공간 화면을 제공할 수 있다.
상기 표시부는: 상기 3차원 공간 화면에 인물, 배경 및 물건의 오브젝트 중 적어도 하나의 표시 여부를 조작하기 위한 제 2 표시 조작기를 제공하고, 상기 입력부는: 사용자로부터 상기 제 2 표시 조작기를 조작하는 제 2 표시 조작 명령을 입력받고, 상기 오브젝트 제어부는: 상기 제 2 표시 조작 명령에 따라 상기 3차원 공간 화면에 상기 오브젝트의 표시 여부를 제어할 수 있다.
상기 표시부는: 상기 3차원 공간 화면에서 상기 조명 오브젝트가 제공하는 광을 조작하기 위한 제 2 조명 조작기를 제공하고, 상기 입력부는: 사용자로부터 상기 제 2 조명 조작기를 조작하는 제 2 조명 조작 명령을 입력받고, 상기 오브젝트 제어부는: 상기 제 2 조명 조작 명령에 따라 상기 3차원 공간 화면에서 상기 조명 오브젝트가 제공하는 광을 제어할 수 있다.
상기 입력부는: 사용자로부터 상기 캡쳐된 이미지에 관한 설명을 입력받고, 상기 처리부는: 상기 캡쳐된 이미지와 그에 관한 설명을 단위 샷(shot)으로 구성할 수 있다.
본 발명의 일 실시예에 따른 콘티 작성 방법은, 3차원 공간을 표시하는 단계; 사용자로부터 콘티의 작성에 관한 명령을 입력받는 단계; 사용자의 명령에 따라 상기 콘티의 작성에 사용되도록 사전에 마련된 오브젝트를 불러오는 단계; 사용자의 명령에 따라 상기 불러온 오브젝트를 상기 3차원 공간에 배치하고 조작하는 단계; 및 상기 오브젝트가 배치된 상기 3차원 공간의 이미지를 캡쳐하는 단계를 포함할 수 있다.
상기 오브젝트를 불러오는 단계는: 상기 콘티의 작성에 사용되는 인물, 배경 및 물건 중 적어도 하나의 오브젝트를 불러오는 단계를 포함할 수 있다.
상기 불러온 오브젝트를 3차원 공간에 배치하고 조작하는 단계는: 사용자의 명령에 따라 상기 3차원 공간에 상기 오브젝트 및 상기 3차원 공간의 이미지를 캡쳐하기 위한 적어도 하나의 카메라 오브젝트를 배치하는 단계를 포함하고, 상기 3차원 공간의 이미지를 캡쳐하는 단계는: 상기 카메라 오브젝트에서 바라본 상기 3차원 공간의 이미지를 캡쳐하는 단계를 포함할 수 있다.
상기 불러온 오브젝트를 3차원 공간에 배치하고 조작하는 단계는: 사용자의 명령에 따라 상기 3차원 공간에서 상기 오브젝트 및 상기 카메라 오브젝트 중 적어도 하나를 평행이동시키거나 회전시키는 단계를 포함할 수 있다.
상기 불러온 오브젝트를 3차원 공간에 배치하고 조작하는 단계는: 상기 3차원 공간에 광을 제공하는 적어도 하나의 조명 오브젝트를 배치하는 단계를 더 포함할 수 있다.
상기 콘티 작성 방법은 상기 카메라 오브젝트에서 바라보는 상기 3차원 공간의 모습이 표시되는 카메라 화면을 제공하는 단계를 더 포함할 수 있다.
상기 콘티 작성 방법은 상기 3차원 공간에 상기 카메라 오브젝트가 둘 이상 배치되어 있는 경우, 카메라 오브젝트들 중에서 사용자에 의해 활성화된 카메라 오브젝트에서 바라보는 모습을 상기 카메라 화면에 표시하는 단계를 더 포함할 수 있다.
상기 콘티 작성 방법은 상기 카메라 화면에 표시되는 상기 3차원 공간의 모습을 변경하는 카메라 화면 변경 명령을 입력받는 단계; 및 상기 카메라 화면 변경 명령에 응답하여 상기 3차원 공간에서 상기 카메라 오브젝트를 평행이동시키는 단계를 더 포함할 수 있다.
상기 콘티 작성 방법은 사용자로부터 상기 카메라 오브젝트의 구동에 관한 구동 명령을 입력받는 단계; 및 상기 구동 명령에 응답하여 상기 카메라 화면에 상기 카메라 오브젝트의 구동을 지시하는 지시자를 표시하는 단계를 더 포함할 수 있다.
상기 지시자는: 상기 카메라 오브젝트의 초점 변경, 회전 및 이동 중 적어도 하나를 지시하는 기호를 포함할 수 있다.
상기 콘티 작성 방법은 사용자로부터 상기 카메라 오브젝트의 구동에 관한 구동 명령을 입력받는 단계; 및 상기 구동 명령에 따라 상기 3차원 공간에서 상기 카메라 오브젝트를 구동시켜 촬영한 동영상을 생성하는 단계를 더 포함할 수 있다.
상기 콘티 작성 방법은 사전에 로케이션을 촬영한 로케이션 이미지를 불러오는 단계; 및 상기 로케이션 이미지를 상기 카메라 화면에 표시되는 배경으로 적용하는 단계를 더 포함할 수 있다.
상기 콘티 작성 방법은 상기 카메라 화면에 인물, 배경 및 물건의 오브젝트 중 적어도 하나의 표시 여부를 조작하기 위한 제 1 표시 조작기를 제공하는 단계; 사용자로부터 상기 제 1 표시 조작기를 조작하는 제 1 표시 조작 명령을 입력받는 단계; 및 상기 제 1 표시 조작 명령에 따라 상기 카메라 화면에 상기 오브젝트의 표시 여부를 제어하는 단계를 더 포함할 수 있다.
상기 콘티 작성 방법은 상기 카메라 화면에서 상기 조명 오브젝트가 제공하는 광을 조작하기 위한 제 1 조명 조작기를 제공하는 단계; 사용자로부터 상기 제 1 조명 조작기를 조작하는 제 1 조명 조작 명령을 입력받는 단계; 및 상기 제 1 조명 조작 명령에 따라 상기 카메라 화면에서 상기 조명 오브젝트가 제공하는 광을 제어하는 단계를 더 포함할 수 있다.
상기 3차원 공간을 표시하는 단계는: 상기 3차원 공간의 평면 모습, 정면 모습 및 측면 모습 중 적어도 하나가 표시되는 3차원 공간 화면을 제공하는 단계를 포함할 수 있다.
상기 콘티 작성 방법은 상기 3차원 공간 화면에 인물, 배경 및 물건의 오브젝트 중 적어도 하나의 표시 여부를 조작하기 위한 제 2 표시 조작기를 제공하는 단계; 사용자로부터 상기 제 2 표시 조작기를 조작하는 제 2 표시 조작 명령을 입력받는 단계; 및 상기 제 2 표시 조작 명령에 따라 상기 3차원 공간 화면에 상기 오브젝트의 표시 여부를 제어하는 단계를 더 포함할 수 있다.
상기 콘티 작성 방법은 상기 3차원 공간 화면에서 상기 조명 오브젝트가 제공하는 광을 조작하기 위한 제 2 조명 조작기를 제공하는 단계; 사용자로부터 상기 제 2 조명 조작기를 조작하는 제 2 조명 조작 명령을 입력받는 단계; 및 상기 제 2 조명 조작 명령에 따라 상기 3차원 공간 화면에서 상기 조명 오브젝트가 제공하는 광을 제어하는 단계를 더 포함할 수 있다.
상기 콘티 작성 방법은 사용자로부터 상기 캡쳐된 이미지에 관한 설명을 입력받는 단계; 및 상기 캡쳐된 이미지와 그에 관한 설명을 단위 샷으로 구성하여 저장하는 단계를 더 포함할 수 있다.
본 발명의 실시예에 따른 콘티 작성 방법은 컴퓨터로 실행하기 위한 애플리케이션 또는 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 기록 매체에 기록될 수 있다.
본 발명의 실시예에 따른 콘티 작성 방법은 컴퓨터로 실행하기 위한 애플리케이션 또는 프로그램으로 구현될 수 있다.
본 발명의 실시예에 따르면, 비전문가라도 콘티를 쉽고 간편하게 작성할 수 있다.
도 1은 본 발명의 일 실시예에 따른 콘티 작성 장치의 예시적인 블록도이다.
도 2는 본 발명의 일 실시예에 따른 콘티 작성 화면을 예시적으로 나타내는 도면이다.
도 3 및 도 4는 본 발명의 일 실시예에 따라 콘티를 작성하는 과정을 설명하기 위한 예시적인 도면이다.
도 5는 본 발명의 다른 실시예에 따라 카메라 오브젝트를 조작하는 과정을 설명하기 위한 예시적인 도면이다.
도 6은 본 발명의 일 실시예에 따라 카메라 오브젝트의 구동을 지시하는 과정을 설명하기 위한 예시적인 도면이다.
도 7 및 도 8은 각각 본 발명의 일 실시예에 따른 제 1 및 제 2 표시 조작기를 조작하는 과정을 설명하기 위한 예시적인 도면이다.
도 9는 본 발명의 다른 실시예에 따른 제 1 및 제 2 조명 조작기를 조작하는 과정을 설명하기 위한 예시적인 도면이다.
도 10은 본 발명의 일 실시예에 따라 캡쳐된 이미지에 설명을 추가하여 샷을 구성하는 과정을 설명하기 위한 예시적인 도면이다.
도 11은 본 발명의 일 실시예에 따라 작성된 콘티를 제작진에게 전송하는 과정을 설명하기 위한 예시적인 도면이다.
도 12는 본 발명의 일 실시예에 따른 콘티 작성 방법의 예시적인 흐름도이다.
도 13은 본 발명의 다른 실시예에 따라 카메라 오브젝트를 조작하는 과정을 설명하기 위한 예시적인 흐름도이다.
도 14는 본 발명의 일 실시예에 따라 카메라 오브젝트의 구동을 지시하는 과정을 설명하기 위한 예시적인 흐름도이다.
도 15는 본 발명의 일 실시예에 따라 로케이션 이미지를 카메라 화면의 배경으로 적용하는 과정을 설명하기 위한 예시적인 흐름도이다.
본 발명의 다른 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술 되는 실시 예를 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예는 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
만일 정의되지 않더라도, 여기서 사용되는 모든 용어들(기술 혹은 과학 용어들을 포함)은 이 발명이 속한 종래 기술에서 보편적 기술에 의해 일반적으로 수용되는 것과 동일한 의미를 가진다. 일반적인 사전들에 의해 정의된 용어들은 관련된 기술 그리고/혹은 본 출원의 본문에 의미하는 것과 동일한 의미를 갖는 것으로 해석될 수 있고, 그리고 여기서 명확하게 정의된 표현이 아니더라도 개념화되거나 혹은 과도하게 형식적으로 해석되지 않을 것이다.
본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다' 및/또는 이 동사의 다양한 활용형들 예를 들어, '포함', '포함하는', '포함하고', '포함하며' 등은 언급된 조성, 성분, 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 조성, 성분, 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다. 본 명세서에서 '및/또는' 이라는 용어는 나열된 구성들 각각 또는 이들의 다양한 조합을 가리킨다.
한편, 본 명세서 전체에서 사용되는 '~부', '~기', '~블록', '~모듈' 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미할 수 있다. 예를 들어 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미할 수 있다. 그렇지만 '~부', '~기', '~블록', '~모듈' 등이 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부', '~기', '~블록', '~모듈'은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.
따라서, 일 예로서 '~부', '~기', '~블록', '~모듈'은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부', '~기', '~블록', '~모듈'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부', '~기', '~블록', '~모듈'들로 결합되거나 추가적인 구성요소들과 '~부', '~기', '~블록', '~모듈'들로 더 분리될 수 있다.
이하, 본 명세서에 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 콘티 작성 장치(100)의 예시적인 블록도이다.
도 1을 참조하면, 상기 콘티 작성 장치(100)는 입력부(110), 저장부(120), 오브젝트 제어부(130), 이미지 캡쳐부(140), 표시부(150) 및 처리부(160)를 포함한다. 본 발명의 일 실시예에 따르면, 상기 콘티 작성 장치(100)는 프로세서와 메모리를 포함하는 컴퓨팅 장치로서, 일 예로 태블릿 PC와 같은 이동 단말기일 수 있다. 그러나, 상기 콘티 작성 장치(100)는 이동 단말기로 제한되지 않고, 프로세서와 메모리를 포함하는 한 임의의 컴퓨터(예컨대, 개인용 컴퓨터)일 수도 있다.
상기 입력부(110)는 사용자로부터 콘티의 작성에 관한 명령을 입력받는다. 상기 입력부(110)는 데이터를 입력받는 입력 장치로서, 일 예로 터치 패드, 키보드, 마우스, 터치 펜 등을 포함할 수 있다. 만약, 상기 입력부(110)가 터치 패드이고 이 터치 패드가 표시부(150)와 결합된다면, 상기 입력부(110)와 상기 표시부(150)는 터치 스크린을 구성할 수 있다.
상기 저장부(120)는 콘티의 작성에 사용되도록 사전에 마련된 오브젝트를 저장한다. 상기 저장부(120)는 데이터를 저장하는 저장 장치로서, 일 예로 HDD, SSD, RAM, ROM, 캐쉬, 레지스터 등을 포함할 수 있다.
상기 오브젝트 제어부(130)는 사용자의 명령에 따라 오브젝트를 불러와 3차원 공간에 배치하고 조작한다. 상기 이미지 캡쳐부(140)는 오브젝트가 배치된 3차원 공간의 이미지를 캡쳐한다.
상기 표시부(150)는 3차원 공간을 표시한다. 상기 표시부(150)는 데이터를 화면에 표시하는 표시 장치로서, 일 예로 LCD 등을 포함할 수 있다.
상기 처리부(160)는 콘티의 작성에 관한 처리를 수행한다. 상기 처리부(160)를 비롯하여 상기 오브젝트 제어부(130) 및 상기 이미지 캡쳐부(140)는 데이터를 처리하는 프로세서로서, 일 예로 CPU, GPU, AP 등을 포함할 수 있다. 상기 프로세서는 메모리에 저장된 콘티 작성 프로그램을 불러와 실행하며, 사용자는 콘티 작성 프로그램을 이용하여 영상 제작에 필요한 콘티를 작성한다.
나아가, 상기 콘티 작성 장치(100)는 통신부(170)를 더 포함할 수 있다. 상기 통신부(170)는 작성된 콘티를 영상을 제작하는 제작진에게 전송할 수 있다. 상기 통신부(170)는 데이터를 송수신하는 통신 장치로서, 일 예로 무선 데이터 통신 모듈, 무선 랜 모듈, 근거리 통신 모듈 등을 포함할 수 있으나, 이에 제한되지 않고 유선 데이터 통신 모듈 등을 포함할 수도 있다.
도 2는 본 발명의 일 실시예에 따른 콘티 작성 화면(200)을 예시적으로 나타내는 도면이다.
도 2를 참조하면, 상기 표시부(150)는 콘티의 작성에 사용되는 3차원 공간이 표시되는 3차원 공간 화면(210)을 제공한다. 상기 3차원 공간 화면(210)에는 콘티의 작성에 사용되는 오브젝트가 배치된 3차원 공간이 표시된다.
상기 저장부(120)는 콘티의 작성에 사용되는 오브젝트로 인물, 배경 및 물건 중 적어도 하나의 오브젝트를 저장할 수 있다. 상기 오브젝트 제어부(130)는 상기 입력부(110)를 통해 입력된 사용자의 명령에 따라 상기 저장부(120)로부터 오브젝트를 불러와 3차원 공간에 배치하고 조작할 수 있다.
도 3 및 도 4는 본 발명의 일 실시예에 따라 콘티를 작성하는 과정을 설명하기 위한 예시적인 도면이다.
본 발명의 일 실시예에 따르면, 상기 오브젝트 제어부(130)는 사용자의 명령에 따라 3차원 공간에 오브젝트를 배치할 수 있다. 예를 들어, 사용자는 콘티 작성 화면(200)에 제공된 오브젝트 불러오기 버튼(220) 중에서 불러오고자 하는 오브젝트의 버튼(예컨대, 인물 오브젝트 버튼, 배경 오브젝트 버튼, 차량 오브젝트 버튼, 가구 오브젝트 버튼 등)을 눌러 상기 저장부(120)에 저장되어 있는 오브젝트들 중에서 원하는 오브젝트를 선택함으로써 3차원 공간에 오브젝트를 배치할 수 있다. 도 3에서 3차원 공간에 배치된 오브젝트는 배경 오브젝트와 인물 오브젝트(213)이다.
또한, 상기 표시부(150)는 3차원 공간에 배치된 오브젝트를 나타내는 오브젝트 목록(230)을 더 제공할 수 있다. 도 3에서 3차원 공간에는 배경 오브젝트와 인물 오브젝트(213)가 배치되었으므로 오브젝트 목록(230)에도 배경 오브젝트를 나타내는 이미지(231)와 인물 오브젝트를 나타내는 이미지(232)가 표시된다.
그리고, 상기 오브젝트 제어부(130)는 상기 오브젝트 외에 3차원 공간의 이미지를 캡쳐하기 위한 적어도 하나의 카메라 오브젝트(211, 212)를 배치할 수 있다.
본 발명의 일 실시예에 따르면, 상기 오브젝트 제어부(130)는 사용자의 명령에 따라 3차원 공간에서 오브젝트(213) 및 카메라 오브젝트(211, 212) 중 적어도 하나를 평행이동시키거나 회전시킬 수 있다.
예를 들어, 사용자는 콘티 작성 화면(200)에 제공된 오브젝트 선택 버튼(272) 중에서 조작하고자 하는 오브젝트의 버튼(예컨대, 카메라 오브젝트 버튼, 인물 오브젝트 버튼 등)을 누르고 조작 선택 버튼(273) 중에서 원하는 조작 타입의 버튼(예컨대, 평행이동 버튼, 회전 버튼 등)을 누른 뒤, 해당 오브젝트를 3차원 공간 화면(210)에서 평행이동시키거나 회전시킴으로써 오브젝트를 조작할 수 있다.
상기 3차원 공간 화면(210)에는 3차원 공간의 평면 모습, 정면 모습 및 측면 모습 중 적어도 하나가 표시될 수 있다. 사용자는 콘티 작성 화면(200)에 제공된 3차원 공간 시점 버튼(271) 중에서 원하는 시점의 버튼(예컨대, 평면 시점 버튼, 정면 시점 버튼, 측면 시점 버튼 등)을 눌러 3차원 공간 화면(210)에서 원하는 시점에서 바라본 3차원 공간의 모습을 확인할 수 있다. 도 3에서 3차원 공간 화면(210)에는 3차원 공간의 평면 모습이 표시되고 있으며, 도 4에서 3차원 공간 화면(210)에는 3차원 공간의 정면 모습이 표시되고 있다.
3차원 공간에서 오브젝트 및 카메라 오브젝트가 적절하게 배치되면, 상기 이미지 캡쳐부(140)는 카메라 오브젝트(211, 212)에서 바라본 3차원 공간의 이미지를 캡쳐할 수 있다.
본 발명의 일 실시예에 따르면, 사용자가 카메라 오브젝트(211, 212)를 이용한 3차원 공간의 이미지 캡쳐를 용이하게 수행하기 위해, 상기 표시부(150)는 카메라 오브젝트(211, 212)에서 바라보는 3차원 공간의 모습이 표시되는 카메라 화면(240)을 제공할 수 있다. 상기 카메라 화면(240)에는 3차원 공간에 배치된 카메라 오브젝트(211, 212)에서 바라보는 3차원 공간의 모습이 표시된다.
나아가, 상기 처리부(160)는 3차원 공간에 카메라 오브젝트(211, 212)가 둘 이상 배치되어 있는 경우, 카메라 오브젝트들(211, 212) 중에서 사용자에 의해 활성화된 카메라 오브젝트에서 바라보는 모습을 카메라 화면(240)에 표시할 수 있다. 상기 카메라 오브젝트(211, 212)의 활성화는 3차원 공간 화면(210)에서 원하는 카메라 오브젝트를 선택하는 등 다양한 방법으로 수행될 수 있다.
오브젝트가 배치된 3차원 공간의 이미지를 캡쳐하기 위해, 사용자는 콘티 작성 화면(200)에 제공된 이미지 캡쳐 버튼(250)을 눌러 카메라 화면(240)에 표시된 모습으로 3차원 공간의 이미지를 캡쳐할 수 있다.
또한, 상기 표시부(150)는 캡쳐된 3차원 공간의 이미지를 나타내는 캡쳐 이미지 목록(260)을 더 제공할 수 있다. 사용자가 오브젝트가 배치된 3차원 공간에서 여러 장의 이미지를 캡쳐한 경우, 캡쳐 이미지 목록(260)에는 사용자에 의해 캡쳐된 다수의 이미지가 표시된다.
앞에서 설명한 바와 같이, 사용자는 3차원 공간 화면(210)에서 오브젝트를 평행 또는 회전이동시키거나 카메라 오브젝트(211, 212)를 평행 또는 회전이동시켜 콘티에 사용할 원하는 화면 구도로 이미지를 캡쳐할 수 있다. 뿐만 아니라, 본 발명의 다른 실시예에 따르면, 사용자는 콘티 작성 화면(200)에 제공되는 카메라 화면(240)을 조작하여 카메라 오브젝트(211, 212)를 이동시킴으로써 원하는 화면 구도를 얻을 수도 있다.
도 5는 본 발명의 다른 실시예에 따라 카메라 오브젝트(211, 212)를 조작하는 과정을 설명하기 위한 예시적인 도면이다.
본 발명의 다른 실시예에 따르면, 상기 입력부(110)는 카메라 화면(240)에 표시되는 3차원 공간의 모습을 변경하는 카메라 화면 변경 명령을 입력받을 수 있다. 그리고, 상기 오브젝트 제어부(130)는 카메라 화면 변경 명령에 응답하여 3차원 공간에서 카메라 오브젝트(211, 212)를 평행이동시킬 수 있다.
도 5를 참조하여 설명하면, 사용자는 활성화된 카메라 오브젝트(211)에 의해 카메라 화면(240)에 표시되는 이미지를 카메라 화면(240)의 평면 상에서 이동시키는 카메라 화면 변경 명령을 입력할 수 있다. 예를 들어, 사용자는 카메라 화면(240)을 누른 후 임의의 방향(예컨대, 도 5에서 좌측 방향)으로 드래그하는 명령을 입력할 수 있다.
이 경우, 상기 오브젝트 제어부(130)는 입력된 카메라 화면 변경 명령에 의한 이미지 이동 방향과 반대 방향으로 3차원 공간에서 카메라 오브젝트(211)를 평행이동시킬 수 있다. 예를 들어, 도 5에 도시된 바와 같이, 사용자가 카메라 화면(240)에서 이미지를 좌측으로 드래그한 경우, 카메라 오브젝트(211)는 자신의 화면에 대응하는 카메라 축에 수직한 평면 상에서 우측 방향으로 평행이동할 수 있다.
이와 같이 사용자는 3차원 공간 화면(210)에서 오브젝트 또는 카메라 오브젝트(211, 212)를 이동시켜 원하는 화면 구도를 얻을 뿐만 아니라, 카메라 화면(240)을 통해서도 카메라 오브젝트(211, 212)를 이동시켜 보다 세밀하고 정교하게 화면 구도를 조정할 수 있다.
본 발명의 일 실시예에 따르면, 상기 오브젝트 제어부(130)는 3차원 공간에 광을 제공하는 적어도 하나의 조명 오브젝트(214, 215)를 더 배치할 수 있다.
예를 들어, 도 3 내지 도 5에 도시된 바와 같이, 3차원 공간에는 적어도 하나의 조명 오브젝트(214, 215)가 배치될 수 있으며, 다른 오브젝트와 마찬가지로 사용자는 3차원 공간에서 조명 오브젝트(214, 215)를 평행 또는 회전이동시킴으로써 적절한 위치에 배치할 수 있다.
도 6은 본 발명의 일 실시예에 따라 카메라 오브젝트(211)의 구동을 지시하는 과정을 설명하기 위한 예시적인 도면이다.
이 실시예에 따르면, 상기 입력부(110)는 사용자로부터 카메라 오브젝트(211)의 구동에 관한 구동 명령을 입력받을 수 있다. 그리고, 상기 처리부(160)는 구동 명령에 응답하여 카메라 화면(240)에 카메라 오브젝트(211)의 구동을 지시하는 지시자를 더 표시할 수 있다.
예를 들어, 도 6을 참조하면, 사용자는 3차원 공간에 배치된 카메라 오브젝트(211)의 구동에 관한 메뉴를 불러올 수 있다. 카메라 오브젝트(211)의 구동 메뉴는 카메라 오브젝트(211)에 마우스 포인터를 위치시킨 뒤 마우스 오른쪽 버튼을 클릭하여 불러올 수도 있고, 터치스크린에서는 카메라 오브젝트(211)를 더블 탭함으로써 불러올 수도 있으나, 구동 메뉴를 불러오는 인터페이스는 이에 제한되지 않는다.
그러고 나서, 사용자는 카메라 오브젝트(211)의 구동 메뉴에서 원하는 구동 명령을 선택하여 입력할 수 있다. 도 6에서 사용자는 카메라 오브젝트(211)의 구동과 관련하여 돌리-아웃(Dolly-Out)을 선택하였다.
상기 처리부(160)는 사용자에 의해 입력된 구동 명령(즉, 도 6에서 돌리-아웃)에 응답하여 카메라 화면(240)에 카메라 오브젝트(211)의 구동을 지시하는 지시자(241)를 더 표시할 수 있다. 즉, 앞에서 설명한 바와 같이 카메라 화면(240)에는 활성화된 카메라 오브젝트(211)가 바라보는 3차원 공간의 이미지가 표시되나, 이 실시예에 따르면 3차원 공간의 이미지에 카메라 오브젝트(211)의 구동을 지시하는 지시자(241)가 추가될 수 있다.
본 발명의 일 실시예에 따르면, 상기 지시자(241)는 카메랑 오브젝트(211)의 초점 변경, 회전 및 이동 중 적어도 하나를 지시하는 기호를 포함할 수 있다. 여기서, 기호는 카메라 구동을 나타내기 위하여 쓰이는 화살표와 같은 부호뿐만 아니라, 카메라 구동을 설명하는 문자를 포함한다.
도 6에서 카메라 화면(240)에 표시되는 지시자(241)는 화살표와 문자로 구성되었으며, 특히 화살표의 방향은 카메라의 구동과 관련하여 사용자가 입력한 방향에 의해 결정될 수 있다. 예를 들어, 도 6과 같이 사용자가 카메라 오브젝트(211)에 대하여 돌리-아웃을 입력한 경우, 카메라 화면(240)에 표시되는 지시자(241)의 화살표는 화면 밖을 향하도록 구성될 수 있다.
이와 같이 사용자는 콘티 작성 중 카메라 오브젝트(211)를 적절한 위치에 배치하는 것에서 더 나아가, 카메라 오브젝트(211)의 구동 타입 및 구동 방향을 지정하는 구동 명령을 더 입력하여 카메라 화면(240)에 3차원 공간의 이미지 외에 카메라 구동을 지시하는 지시자(241)를 더 추가할 수 있다.
더 나아가, 상기 처리부(160)는 사용자로부터 입력받은 구동 명령에 따라 3차원 공간에서 카메라 오브젝트(211)를 구동시켜 촬영한 동영상을 생성할 수 있다. 다시 말해, 사용자가 카메라 오브젝트(211)의 구동에 관한 구동 명령을 입력하면, 상기 콘티 작성 장치(100)는 콘티에 포함되는 이미지에 카메라 구동을 지시하는 지시자(241)를 추가할 뿐만 아니라, 3차원 공간에서 그 구동 명령에 따라 카메라 오브젝트(211)를 구동시킴으로써 카메라 오브젝트(211)에 의해 촬영되는 동영상을 더 생성할 수도 있다.
그 결과, 도 6에 도시된 바와 같이, 캡쳐 이미지 목록(260)에는 캡쳐 이미지 뿐만 아니라 위 과정을 통해 생성된 동영상이 더 표시될 수 있다. 사용자는 캡쳐 이미지 목록(260)에 표시된 동영상을 재생시킴으로써 카메라가 구동하면서 촬영된 3차원 공간의 모습을 확인할 수 있다.
본 발명의 일 실시예에 따르면, 상기 콘티 작성 장치(100)는 가상으로 제작된 3차원 공간의 이미지 또는 동영상을 콘티로 제공하는 것 외에, 실제 촬영이 수행될 로케이션의 이미지를 기반으로 콘티 작성을 지원할 수 있다.
구체적으로, 상기 저장부(120)는 사전에 로케이션을 촬영한 로케이션 이미지를 더 저장할 수 있다. 그리고, 상기 오브젝트 제어부(130)는 로케이션 이미지를 불러와 카메라 화면(240)에 표시되는 배경으로 적용할 수 있다.
사용자는 로케이션을 실제로 촬영하여 상기 저장부(120)에 저장된 로케이션 이미지를 불러와 카메라 화면(240)에 배경으로 적용함으로써 보다 사실적으로 콘티를 작성할 수 있다.
도 7 및 도 8은 각각 본 발명의 일 실시예에 따른 제 1 및 제 2 표시 조작기(280, 290)를 조작하는 과정을 설명하기 위한 예시적인 도면이다.
본 발명의 일 실시예에 따르면, 상기 표시부(150)는 카메라 화면(240)에 인물, 배경 및 물건의 오브젝트 중 적어도 하나의 표시 여부를 조작하기 위한 제 1 표시 조작기(280)를 제공할 수 있다.
이 실시예에서, 상기 입력부(110)는 사용자로부터 제 1 표시 조작기(280)를 조작하는 제 1 표시 조작 명령을 입력받을 수 있다. 그리고, 상기 오브젝트 제어부(130)는 제 1 표시 조작 명령에 따라 카메라 화면(240)에 오브젝트의 표시 여부를 제어할 수 있다.
예를 들어, 도 7을 참조하면, 사용자는 콘티 작성 화면(200)에 제공된 제 1 표시 조작기(280) 중에서 인물 오브젝트에 대한 제 1 표시 조작기를 오프 상태로 전환할 수 있다. 이러한 제 1 표시 조작 명령에 응답하여 상기 오브젝트 제어부(130)는 카메라 화면(240)에 표시되는 오브젝트들(예컨대, 인물 오브젝트, 배경 오브젝트 등) 중에서 인물 오브젝트가 사라지도록 제어할 수 있다. 이 실시예는 배경 오브젝트나 물건 오브젝트에 대해서도 동일하게 적용될 수 있다.
이와 유사하게, 본 발명의 일 실시예에 따르면, 상기 표시부(150)는 3차원 공간 화면(210)에 인물, 배경 및 물건의 오브젝트 중 적어도 하나의 표시 여부를 조작하기 위한 제 2 표시 조작기(290)를 제공할 수 있다.
이 실시예에서, 상기 입력부(110)는 사용자로부터 제 2 표시 조작기(290)를 조작하는 제 2 표시 조작 명령을 입력받을 수 있다. 그리고, 상기 오브젝트 제어부(130)는 제 2 표시 조작 명령에 응답하여 3차원 공간 화면에 오브젝트의 표시 여부를 제어할 수 있다.
예를 들어, 도 8을 참조하면, 사용자는 콘티 작성 화면(200)에 제공된 제 2 표시 조작기(290) 중에서 인물 오브젝트에 대한 제 2 표시 조작기를 오프 상태로 전환할 수 있다. 이러한 제 2 표시 조작 명령에 응답하여 상기 오브젝트 제어부(130)는 3차원 공간 화면(210)에 표시되는 오브젝트들 중에서 인물 오브젝트(213)가 사라지도록 제어할 수 있다. 마찬가지로, 이 실시예 역시 배경 오브젝트나 물건 오브젝트에 대해서도 동일하게 적용될 수 있다.
위 실시예에서 제 1 및 제 2 표시 조작 명령은 3차원 공간에서 특정 오브젝트를 삭제하는 명령은 아니며, 해당 오브젝트가 3차원 공간에 배치되어 있되 카메라 화면(240)과 3차원 공간 화면(210)에 표시되는지 여부를 결정하는 명령이다. 따라서, 사용자는 제 1 및 제 2 표시 조작기(280, 290)를 적절하게 조작함으로써 콘티에 사용할 화면을 쉽고 간편하게 얻을 수 있다.
나아가, 본 발명의 일 실시예에 따르면, 상기 표시부(150)는 카메라 화면(240)에서 조명 오브젝트(214, 215)가 제공하는 광을 조작하기 위한 제 1 조명 조작기(285)를 제공할 수 있다.
이 실시예에서, 상기 입력부(110)는 사용자로부터 제 1 조명 조작기(285)를 조작하는 제 1 조명 조작 명령을 입력받을 수 있다. 그리고, 상기 오브젝트 제어부(130)는 제 1 조명 조작 명령에 따라 카메라 화면(240)에서 조명 오브젝트(214, 215)가 제공하는 광을 제어할 수 있다.
이와 유사하게, 본 발명의 일 실시예에 따르면, 상기 표시부(150)는 3차원 공간 화면(210)에서 조명 오브젝트(214, 215)가 제공하는 광을 조작하기 위한 제 2 조명 조작기(295)를 제공할 수 있다.
이 실시예에서, 상기 입력부(110)는 사용자로부터 제 2 조명 조작기(295)를 조작하는 제 2 조명 조작 명령을 입력받을 수 있다. 그리고, 상기 오브젝트 제어부(130)는 제 2 조명 조작 명령에 따라 3차원 공간 화면(210)에서 조명 오브젝트(214, 215)가 제공하는 광을 제어할 수 있다.
도 9는 본 발명의 다른 실시예에 따른 제 1 및 제 2 조명 조작기(285, 295)를 조작하는 과정을 설명하기 위한 예시적인 도면이다.
앞에서 도 3 내지 도 8에 도시된 제 1 및 제 2 조명 조작기(285, 295)는 각각 카메라 화면(240) 및 3차원 공간 화면(210)에서 조명을 켜거나 끌 수 있도록 구성되었다. 그러나, 본 발명의 다른 실시예에 따르면, 제 1 및 제 2 조명 조작기(285, 295)는 조명의 온 및 오프가 아닌 밝기를 조절할 수 있도록 구성될 수도 있다.
예를 들어, 도 9를 참조하면, 제 1 조명 조작기(285)는 카메라 화면(240)에서 조명 오브젝트(214, 215)가 제공하는 광의 밝기를 조절할 수 있도록 조절 바 형태로 제공될 수 있다. 마찬가지로, 제 2 조명 조작기(295)도 3차원 공간(210)에서 조명 오브젝트(214, 215)가 제공하는 광의 밝기를 조절할 수 있도록 조절 바 형태로 제공될 수 있다.
사용자는 제 1 및 제 2 조명 조작기(285, 295)를 통해 조절 바에서 노브(knob)를 이동시킴으로써 조명 오브젝트(214, 215)의 광 밝기를 원하는 대로 조절할 수 있다.
위와 같이 3차원 공간에 오브젝트를 배치하고 조작한 뒤 카메라 오브젝트(211, 212)로 이미지를 캡쳐하고 나서, 상기 입력부(110)는 사용자로부터 캡쳐된 이미지에 관한 설명을 입력받을 수 있다. 그리고, 상기 처리부(160)는 캡쳐된 이미지와 그에 관한 설명을 단위 샷(shot)으로 구성할 수 있다.
도 10은 본 발명의 일 실시예에 따라 캡쳐된 이미지에 설명을 추가하여 샷을 구성하는 과정을 설명하기 위한 예시적인 도면이다.
도 10을 참조하면, 사용자는 앞에서 설명한 바와 같이 3차원 공간에 오브젝트를 배치하고 조작한 뒤 3차원 공간의 이미지를 캡쳐하고, 캡쳐된 이미지에 인물의 동작이나 대사와 같은 설명을 입력할 수 있다. 그러고 나서, 상기 처리부(160)는 캡쳐된 이미지와 이미지에 대한 설명을 결합하여 하나의 샷을 생성할 수 있다.
이러한 과정으로 생성된 하나 또는 그 이상의 샷은 영상 제작 시 콘티로 사용될 수 있다.
상기 콘티 작성 장치(100)는 적어도 하나의 샷으로 구성된 콘티를 프린터와 같은 출력 장치를 통해 지면에 인쇄할 수 있다. 실시예에 따라, 상기 콘티 작성 장치(100)는 적어도 하나의 샷으로 구성된 콘티를 기 설정된 포맷의 파일로 작성하여 상기 저장부(120)에 저장할 수 있다.
나아가, 상기 콘티 작성 장치(100)는 기 설정된 포맷의 파일로 작성된 콘티를 영상을 제작하는 제작진에게 이메일로 전송할 수 있다.
도 11은 본 발명의 일 실시예에 따라 작성된 콘티를 제작진에게 전송하는 과정을 설명하기 위한 예시적인 도면이다.
도 11을 참조하면, 사용자는 상기 콘티 작성 장치(100)에서 제공하는 이메일 보내기 기능을 실행하여 콘티를 받아볼 사람의 이메일 주소, 제목, 내용 등을 입력한 뒤 메일을 발송함으로써 작성된 콘티를 다른 사람들에게 전달할 수 있다.
도 12는 본 발명의 일 실시예에 따른 콘티 작성 방법(1000)의 예시적인 흐름도이다.
상기 콘티 작성 방법(1000)은 앞에서 설명한 본 발명의 실시예에 따른 콘티 작성 장치(100)에 의해 실행될 수 있다.
도 12를 참조하면, 상기 콘티 작성 방법(1000)은 3차원 공간을 표시하는 단계(S1100), 사용자로부터 콘티의 작성에 관한 명령을 입력받는 단계(S1200), 사용자의 명령에 따라 콘티의 작성에 사용되도록 사전에 마련된 오브젝트를 불러오는 단계(S1300), 사용자의 명령에 따라 불러온 오브젝트를 3차원 공간에 배치하고 조작하는 단계(S1400), 및 오브젝트가 배치된 3차원 공간의 이미지를 캡쳐하는 단계(S1500)를 포함한다.
본 발명의 일 실시예에 따르면, 상기 오브젝트를 불러오는 단계(S1300)는 콘티의 작성에 사용되는 인물, 배경 및 물건 중 적어도 하나의 오브젝트를 불러오는 단계를 포함할 수 있다.
상기 불러온 오브젝트를 3차원 공간에 배치하고 조작하는 단계(S1400)는, 사용자의 명령에 따라 3차원 공간에 오브젝트 및 3차원 공간의 이미지를 캡쳐하기 위한 적어도 하나의 오브젝트(211, 212)를 배치하는 단계를 포함할 수 있다.
그리고, 3차원 공간의 이미지를 캡쳐하는 단계(S1500)는, 카메라 오브젝트(211, 212)에서 바라본 3차원 공간의 이미지를 캡쳐하는 단계를 포함할 수 있다.
본 발명의 일 실시예에 따르면, 상기 불러온 오브젝트를 3차원 공간에 배치하고 조작하는 단계(S1400)는, 사용자의 명령에 따라 3차원 공간에서 오브젝트 및 카메라 오브젝트(211, 212) 중 적어도 하나를 평행이동시키거나 회전시키는 단계를 포함할 수 있다.
또한, 상기 불러온 오브젝트를 3차원 공간에 배치하고 조작하는 단계(S1400)는, 3차원 공간에 광을 제공하는 적어도 하나의 조명 오브젝트(214, 215)를 배치하는 단계를 더 포함할 수 있다.
본 발명의 일 실시예에 따르면, 상기 콘티 작성 방법(1000)은 카메라 오브젝트(211, 212)에서 바라보는 3차원 공간의 모습이 표시되는 카메라 화면(240)을 제공하는 단계를 더 포함할 수 있다.
여기서, 3차원 공간에 카메라 오브젝트(211, 212)가 둘 이상 배치되어 있는 경우, 카메랑 오브젝트들 중에서 사용자에 의해 활성화된 카메라 오브젝트에서 바라보는 모습을 카메라 화면(240)에 표시하는 단계를 더 포함할 수 있다.
도 13은 본 발명의 다른 실시예에 따라 카메라 오브젝트(211)를 조작하는 과정을 설명하기 위한 예시적인 흐름도이다.
도 13을 참조하면, 상기 콘티 작성 방법(1000)은 카메라 화면(240)에 표시되는 3차원 공간의 모습을 변경하는 카메라 화면 변경 명령을 입력받는 단계(S1410), 및 카메라 화면 변경 명령에 응답하여 3차원 공간에서 카메라 오브젝트(211)를 평행이동시키는 단계(S1420)를 더 포함할 수 있다.
도 14는 본 발명의 일 실시예에 따라 카메라 오브젝트(211, 212)의 구동을 지시하는 과정을 설명하기 위한 예시적인 흐름도이다.
도 14를 참조하면, 상기 콘티 작성 방법(1000)은 사용자로부터 카메라 오브젝트(211, 212)의 구동에 관한 구동 명령을 입력받는 단계(S1430), 및 구동 명령에 응답하여 카메라 화면(240)에 카메라 오브젝트(211, 212)의 구동을 지시하는 지시자(241)를 표시하는 단계(S1440)를 더 포함할 수 있다.
여기서, 상기 지시자(241)는 카메라 오브젝트(211, 212)의 초점 변경, 회전 및 이동 중 적어도 하나를 지시하는 기호를 포함할 수 있다.
나아가, 상기 콘티 작성 방법(1000)은 구동 명령에 따라 3차원 공간에서 카메라 오브젝트(211, 212)를 구동시켜 촬영한 동영상을 생성하는 단계(S1450)를 더 포함할 수 있다.
도 15는 본 발명의 일 실시예에 따라 로케이션 이미지를 카메라 화면(240)의 배경으로 적용하는 과정을 설명하기 위한 예시적인 흐름도이다.
도 15를 참조하면, 상기 콘티 작성 방법(1000)은 사전에 로케이션을 촬영한 로케이션 이미지를 불러오는 단계(S1460), 및 로케이션 이미지를 카메라 화면(240)에 표시되는 배경으로 적용하는 단계(S1470)를 더 포함할 수 있다.
본 발명의 일 실시예에 따르면, 상기 콘티 작성 방법(1000)은 카메라 화면(240)에 인물, 배경 및 물건의 오브젝트 중 적어도 하나의 표시 여부를 조작하기 위한 제 1 표시 조작기(280)를 제공하는 단계, 사용자로부터 제 1 표시 조작기(280)를 조작하는 제 1 표시 조작 명령을 입력받는 단계, 및 제 1 표시 조작 명령에 따라 카메라 화면(240)에 오브젝트의 표시 여부를 제어하는 단계를 더 포함할 수 있다.
나아가, 상기 콘티 작성 방법(1000)은 카메라 화면(240)에서 조명 오브젝트(214, 215)가 제공하는 광을 조작하기 위한 제 1 조명 조작기(285)를 제공하는 단계, 사용자로부터 제 1 조명 조작기(285)를 조작하는 제 1 조명 조작 명령을 입력받는 단계, 및 제 1 조명 조작 명령에 따라 카메라 화면(240)에서 조명 오브젝트가 제공하는 광을 제어하는 단계를 더 포함할 수 있다.
상기 3차원 공간을 표시하는 단계(S1100)는 3차원 공간의 평면 모습, 정면 모습 및 측면 모습 중 적어도 하나가 표시되는 3차원 공간 화면(210)을 제공하는 단계를 포함할 수 있다.
본 발명의 일 실시예에 따르면, 상기 콘티 작성 방법(1000)은 3차원 공간 화면(210)에 인물, 배경 및 물건의 오브젝트 중 적어도 하나의 표시 여부를 조작하기 위한 제 2 표시 조작기(290)를 제공하는 단계, 사용자로부터 제 2 표시 조작기(290)를 조작하는 제 2 표시 조작 명령을 입력받는 단계, 및 제 2 표시 조작 명령에 따라 3차원 공간 화면(210)에 오브젝트의 표시 여부를 제어하는 단계를 더 포함할 수 있다.
나아가, 상기 콘티 작성 방법(1000)은 3차원 공간 화면(210)에서 조명 오브젝트(214, 215)가 제공하는 광을 조작하기 위한 제 2 조명 조작기(295)를 제공하는 단계, 사용자로부터 제 2 조명 조작기를 조작하는 제 2 조명 조작 명령을 입력받는 단계, 및 제 2 조명 조작 명령에 따라 3차원 공간 화면에서 조명 오브젝트가 제공하는 광을 제어하는 단계를 더 포함할 수 있다.
다시 도 12를 참조하면, 상기 콘티 작성 방법(1000)은 사용자로부터 캡쳐된 이미지에 관한 설명을 입력받는 단계(S1600), 및 캡쳐된 이미지와 그에 관한 설명을 단위 샷으로 구성하여 저장하는 단계(S1700)를 더 포함할 수 있다.
전술한 본 발명의 실시예에 따른 콘티 작성 방법(1000)은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록매체에 저장될 수 있다. 상기 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 저장장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있다. 또한, 상기 콘티 작성 방법(1000)은 스마트 디바이스와 결합되어 실행시키기 위하여 매체에 저장된 애플리케이션으로 구현될 수 있다.
이상에서 실시예를 통해 본 발명을 설명하였으나, 위 실시예는 단지 본 발명의 사상을 설명하기 위한 것으로 이에 한정되지 않는다. 통상의 기술자는 전술한 실시예에 다양한 변형이 가해질 수 있음을 이해할 것이다. 본 발명의 범위는 첨부된 특허청구범위의 해석을 통해서만 정해진다.

Claims (21)

  1. 사용자로부터 콘티의 작성에 관한 명령을 입력받는 입력부;
    상기 콘티의 작성에 사용되도록 사전에 마련된 오브젝트를 저장하는 저장부;
    사용자의 명령에 따라 상기 오브젝트를 불러와 3차원 공간에 배치하고 조작하는 오브젝트 제어부;
    상기 오브젝트가 배치된 상기 3차원 공간의 이미지를 캡쳐하는 이미지 캡쳐부;
    상기 3차원 공간을 표시하는 표시부; 및
    상기 콘티의 작성에 관한 처리를 수행하는 처리부를 포함하는 콘티 작성 장치.
  2. 제 1 항에 있어서,
    상기 저장부는:
    상기 콘티의 작성에 사용되는 인물, 배경 및 물건 중 적어도 하나의 오브젝트를 저장하는 콘티 작성 장치.
  3. 제 2 항에 있어서,
    상기 오브젝트 제어부는:
    사용자의 명령에 따라 상기 3차원 공간에 상기 오브젝트 및 상기 3차원 공간의 이미지를 캡쳐하기 위한 적어도 하나의 카메라 오브젝트를 배치하고,
    상기 이미지 캡쳐부는:
    상기 카메라 오브젝트에서 바라본 상기 3차원 공간의 이미지를 캡쳐하는 콘티 작성 장치.
  4. 제 3 항에 있어서,
    상기 오브젝트 제어부는:
    사용자의 명령에 따라 상기 3차원 공간에서 상기 오브젝트 및 상기 카메라 오브젝트 중 적어도 하나를 평행이동시키거나 회전시키는 콘티 작성 장치.
  5. 제 3 항에 있어서,
    상기 오브젝트 제어부는:
    상기 3차원 공간에 광을 제공하는 적어도 하나의 조명 오브젝트를 더 배치하는 콘티 작성 장치.
  6. 제 5 항에 있어서,
    상기 표시부는:
    상기 카메라 오브젝트에서 바라보는 상기 3차원 공간의 모습이 표시되는 카메라 화면을 제공하는 콘티 작성 장치.
  7. 제 6 항에 있어서,
    상기 처리부는:
    상기 3차원 공간에 상기 카메라 오브젝트가 둘 이상 배치되어 있는 경우, 카메라 오브젝트들 중에서 사용자에 의해 활성화된 카메라 오브젝트에서 바라보는 모습을 상기 카메라 화면에 표시하는 콘티 작성 장치.
  8. 제 6 항에 있어서,
    상기 입력부는:
    상기 카메라 화면에 표시되는 상기 3차원 공간의 모습을 변경하는 카메라 화면 변경 명령을 입력받고,
    상기 오브젝트 제어부는:
    상기 카메라 화면 변경 명령에 응답하여 상기 3차원 공간에서 상기 카메라 오브젝트를 평행이동시키는 콘티 작성 장치.
  9. 제 6 항에 있어서,
    상기 입력부는:
    사용자로부터 상기 카메라 오브젝트의 구동에 관한 구동 명령을 입력받고,
    상기 처리부는:
    상기 구동 명령에 응답하여 상기 카메라 화면에 상기 카메라 오브젝트의 구동을 지시하는 지시자를 더 표시하는 콘티 작성 장치.
  10. 제 9 항에 있어서,
    상기 지시자는:
    상기 카메라 오브젝트의 초점 변경, 회전 및 이동 중 적어도 하나를 지시하는 기호를 포함하는 콘티 작성 장치.
  11. 제 6 항에 있어서,
    상기 입력부는:
    사용자로부터 상기 카메라 오브젝트의 구동에 관한 구동 명령을 입력받고,
    상기 처리부는:
    상기 구동 명령에 따라 상기 3차원 공간에서 상기 카메라 오브젝트를 구동시켜 촬영한 동영상을 생성하는 콘티 작성 장치.
  12. 제 6 항에 있어서,
    상기 저장부는:
    사전에 로케이션을 촬영한 로케이션 이미지를 더 저장하고,
    상기 오브젝트 제어부는:
    상기 로케이션 이미지를 불러와 상기 카메라 화면에 표시되는 배경으로 적용하는 콘티 작성 장치.
  13. 제 6 항에 있어서,
    상기 표시부는:
    상기 카메라 화면에 인물, 배경 및 물건의 오브젝트 중 적어도 하나의 표시 여부를 조작하기 위한 제 1 표시 조작기를 제공하고,
    상기 입력부는:
    사용자로부터 상기 제 1 표시 조작기를 조작하는 제 1 표시 조작 명령을 입력받고,
    상기 오브젝트 제어부는:
    상기 제 1 표시 조작 명령에 따라 상기 카메라 화면에 상기 오브젝트의 표시 여부를 제어하는 콘티 작성 장치.
  14. 제 6 항에 있어서,
    상기 표시부는:
    상기 카메라 화면에서 상기 조명 오브젝트가 제공하는 광을 조작하기 위한 제 1 조명 조작기를 제공하고,
    상기 입력부는:
    사용자로부터 상기 제 1 조명 조작기를 조작하는 제 1 조명 조작 명령을 입력받고,
    상기 오브젝트 제어부는:
    상기 제 1 조명 조작 명령에 따라 상기 카메라 화면에서 상기 조명 오브젝트가 제공하는 광을 제어하는 콘티 작성 장치.
  15. 제 5 항에 있어서,
    상기 표시부는:
    상기 3차원 공간의 평면 모습, 정면 모습 및 측면 모습 중 적어도 하나가 표시되는 3차원 공간 화면을 제공하는 콘티 작성 장치.
  16. 제 15 항에 있어서,
    상기 표시부는:
    상기 3차원 공간 화면에 인물, 배경 및 물건의 오브젝트 중 적어도 하나의 표시 여부를 조작하기 위한 제 2 표시 조작기를 제공하고,
    상기 입력부는:
    사용자로부터 상기 제 2 표시 조작기를 조작하는 제 2 표시 조작 명령을 입력받고,
    상기 오브젝트 제어부는:
    상기 제 2 표시 조작 명령에 따라 상기 3차원 공간 화면에 상기 오브젝트의 표시 여부를 제어하는 콘티 작성 장치.
  17. 제 15 항에 있어서,
    상기 표시부는:
    상기 3차원 공간 화면에서 상기 조명 오브젝트가 제공하는 광을 조작하기 위한 제 2 조명 조작기를 제공하고,
    상기 입력부는:
    사용자로부터 상기 제 2 조명 조작기를 조작하는 제 2 조명 조작 명령을 입력받고,
    상기 오브젝트 제어부는:
    상기 제 2 조명 조작 명령에 따라 상기 3차원 공간 화면에서 상기 조명 오브젝트가 제공하는 광을 제어하는 콘티 작성 장치.
  18. 제 1 항에 있어서,
    상기 입력부는:
    사용자로부터 상기 캡쳐된 이미지에 관한 설명을 입력받고,
    상기 처리부는:
    상기 캡쳐된 이미지와 그에 관한 설명을 단위 샷(shot)으로 구성하는 콘티 작성 장치.
  19. 3차원 공간을 표시하는 단계;
    사용자로부터 콘티의 작성에 관한 명령을 입력받는 단계;
    사용자의 명령에 따라 상기 콘티의 작성에 사용되도록 사전에 마련된 오브젝트를 불러오는 단계;
    사용자의 명령에 따라 상기 불러온 오브젝트를 상기 3차원 공간에 배치하고 조작하는 단계; 및
    상기 오브젝트가 배치된 상기 3차원 공간의 이미지를 캡쳐하는 단계를 포함하는 콘티 작성 방법.
  20. 컴퓨터로 읽을 수 있는 기록 매체에 있어서,
    제 19 항에 따른 콘티 작성 방법을 컴퓨터로 실행하기 위한 프로그램이 기록된 기록 매체.
  21. 제 19 항에 따른 콘티 작성 방법을 컴퓨터로 실행하기 위한 프로그램.
PCT/KR2017/001843 2016-08-02 2017-02-20 콘티 작성 장치 및 방법 WO2018026081A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201780048052.8A CN109564707A (zh) 2016-08-02 2017-02-20 分镜头剧本制作装置及方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020160098352A KR101781028B1 (ko) 2016-08-02 2016-08-02 콘티 작성 장치 및 방법
KR10-2016-0098352 2016-08-02

Publications (1)

Publication Number Publication Date
WO2018026081A1 true WO2018026081A1 (ko) 2018-02-08

Family

ID=60298802

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/001843 WO2018026081A1 (ko) 2016-08-02 2017-02-20 콘티 작성 장치 및 방법

Country Status (3)

Country Link
KR (1) KR101781028B1 (ko)
CN (1) CN109564707A (ko)
WO (1) WO2018026081A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111179388B (zh) * 2019-12-17 2023-12-29 福建天晴数码有限公司 基于3d场景的漫画编辑方法及终端
CN114567819B (zh) * 2022-02-23 2023-08-18 中国平安人寿保险股份有限公司 视频生成方法、装置、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006107210A (ja) * 2004-10-06 2006-04-20 Konami Co Ltd 画像処理システム、及び画像処理プログラムが記憶されたデータ転送媒体
KR20070099949A (ko) * 2006-04-06 2007-10-10 박주영 쓰리디콘티 제작시스템 및 그 제공방법
KR20090088905A (ko) * 2006-12-15 2009-08-20 톰슨 라이센싱 인터랙티브 시각 효과 합성을 위한 시스템 및 방법
KR20110027272A (ko) * 2009-09-10 2011-03-16 (주)트라이디커뮤니케이션 배경 이미지를 이용한 3차원 아바타 서비스 제공 시스템 및 방법
KR20150026561A (ko) * 2013-09-03 2015-03-11 삼성전자주식회사 이미지 합성 방법 및 그 전자 장치

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10214344A (ja) * 1997-01-31 1998-08-11 Fujitsu Ltd インタラクティブ表示装置
CN1940909A (zh) * 2005-09-30 2007-04-04 文化传信科技(澳门)有限公司 分镜头剧本生成系统以及方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006107210A (ja) * 2004-10-06 2006-04-20 Konami Co Ltd 画像処理システム、及び画像処理プログラムが記憶されたデータ転送媒体
KR20070099949A (ko) * 2006-04-06 2007-10-10 박주영 쓰리디콘티 제작시스템 및 그 제공방법
KR20090088905A (ko) * 2006-12-15 2009-08-20 톰슨 라이센싱 인터랙티브 시각 효과 합성을 위한 시스템 및 방법
KR20110027272A (ko) * 2009-09-10 2011-03-16 (주)트라이디커뮤니케이션 배경 이미지를 이용한 3차원 아바타 서비스 제공 시스템 및 방법
KR20150026561A (ko) * 2013-09-03 2015-03-11 삼성전자주식회사 이미지 합성 방법 및 그 전자 장치

Also Published As

Publication number Publication date
KR101781028B1 (ko) 2017-10-23
CN109564707A (zh) 2019-04-02

Similar Documents

Publication Publication Date Title
WO2012096451A2 (en) Method and apparatus for editing touch display
WO2014171580A1 (en) Digital device and method of controlling therefor
WO2020085666A1 (en) Electronic device and control method thereof
WO2012128548A2 (en) Method and apparatus of managing items on clipboard of portable terminal
WO2013172507A1 (en) Portable device and method for controlling the same
WO2015005605A1 (en) Remote operation of applications using received data
WO2021025536A1 (ko) 만화 컨텐츠의 재배치 방법
WO2017096924A1 (zh) 一种基于移动终端的页面连续截图方法、系统及移动终端
WO2018155824A1 (en) Display apparatus and control method thereof
WO2017159961A1 (ko) 전자 장치 및 그 제어 방법
WO2018026081A1 (ko) 콘티 작성 장치 및 방법
EP3167405A1 (en) Digital image processing apparatus and system and control method thereof
WO2019039866A1 (en) ELECTRONIC DEVICE AND METHOD OF CONTROLLING THE SAME
WO2015163529A1 (en) Head mounted display device displaying thumbnail image and method of controlling therefor
WO2014069815A1 (ko) 학습용 마스크 디스플레이 장치 및 학습용 마스크 표시 방법
WO2018056587A1 (en) Electronic apparatus and controlling method thereof
WO2018026082A1 (ko) 애니메이션 제작 장치 및 방법
WO2019132563A1 (ko) 이미지 패닝 방법
WO2019098534A1 (ko) 전자 장치 및 그 제어 방법
WO2020027417A1 (en) Electronic device and method for providing virtual input tool
WO2013172522A1 (ko) 문자화장단말기 및 제어방법
WO2021133081A1 (ko) 가상의 대상체 배치를 위한 사용자 인터페이스 제공 방법, 장치 및 프로그램
WO2013065912A1 (ko) 화면 출력을 제어하는 방법, 단말기 및 기록매체
WO2015020497A1 (ko) 터치스크린을 갖는 모바일 디바이스에서 실행되는 동영상 편집 사용자 인터페이스 처리방법, 모바일 디바이스 및 기록매체
WO2018143779A1 (ko) 동영상 관련 서비스 표시 방법, 저장 매체 및 이를 위한 전자 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17837133

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17837133

Country of ref document: EP

Kind code of ref document: A1