WO2022231234A1 - 편집이력 정보 제공을 위한 동영상 편집 ui 제어 방법 및 그 장치 - Google Patents

편집이력 정보 제공을 위한 동영상 편집 ui 제어 방법 및 그 장치 Download PDF

Info

Publication number
WO2022231234A1
WO2022231234A1 PCT/KR2022/005860 KR2022005860W WO2022231234A1 WO 2022231234 A1 WO2022231234 A1 WO 2022231234A1 KR 2022005860 W KR2022005860 W KR 2022005860W WO 2022231234 A1 WO2022231234 A1 WO 2022231234A1
Authority
WO
WIPO (PCT)
Prior art keywords
editing
menu
video
event
providing
Prior art date
Application number
PCT/KR2022/005860
Other languages
English (en)
French (fr)
Inventor
임일택
김종득
Original Assignee
키네마스터 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 키네마스터 주식회사 filed Critical 키네마스터 주식회사
Priority claimed from KR1020220050665A external-priority patent/KR20220148742A/ko
Publication of WO2022231234A1 publication Critical patent/WO2022231234A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring

Definitions

  • the present disclosure relates to a video editing UI control method and apparatus, and more particularly, to a video editing UI control method and apparatus capable of intuitively processing various functions for video editing.
  • portable terminals such as smart phones and tablets have been widely distributed, and due to the improvement of the performance of such portable terminals and the development of wireless communication technology, users can shoot, edit, and share videos using the portable terminal.
  • the portable terminal is basically provided with a camera device, user needs for editing an image or a moving picture captured by the camera device are increasing.
  • the video editing method Due to the characteristics of the resources of the mobile terminal, the video editing method has been popularized to use only limited functions, but it is required to edit the video to a level equivalent to that of the PC environment.
  • a mobile terminal is generally provided with a display device supporting a touch input.
  • a user input is processed through a display device supporting a touch input, the user input can be processed more intuitively and user convenience can be remarkably increased.
  • An object of the present disclosure is to provide a video editing UI control method and apparatus capable of intuitively processing various functions for video editing.
  • Another technical object of the present disclosure is to provide a video editing UI control method and apparatus capable of storing and providing information on an editing history generated when a video project is created, and an apparatus thereof.
  • a method of editing advertisement content performed by a computing device including at least one processor includes extracting and presenting an editable element from a loaded advertisement content; receiving the presented editable element by user input; selecting an insert element for the editable element by the user input; and editing the advertisement content based on the selected insertion element.
  • the editable element may include at least one of a media object constituting the advertisement content, an editing tool for editing the advertisement content, and category information designated for the concept of the advertisement content.
  • the editing tool may include an editing function for imparting an additional effect to the media constituting the advertisement content.
  • a video editing UI control apparatus may include: an editing UI display unit for visualizing and displaying an editing UI including an editing history providing UI on a display device; a user input check unit for checking user input information based on a user input that is touch input through the display device; and an editing UI processing unit that generates and manages editing history information based on the user input information provided by the user input check unit, and provides the editing history information in response to an input of the editing history providing UI.
  • the editing history information may include editing contents performed by an editing event of an image project, and an index of the editing event.
  • the editing UI processing unit may provide a list of editing event units of an image project through the editing history providing UI, and provide details of an editing event selected by the user.
  • the editing UI processing unit may sequentially provide details of an editing event of an image project at predetermined time units through the editing history providing UI.
  • the editing UI processing unit on the editing history providing UI, as an editing event is selected by the user, a progress rate of an editing event indicating a location of the selected editing event in an image project can provide information about
  • the editing UI processing unit configures an editing state corresponding to the editing event as a menu for editing an editing event is selected by the user on the editing history providing UI. can provide
  • the editing UI processing unit may include: an editing event detection unit configured to detect an editing event of an image project; and an editing history management unit that stores and manages the editing event provided from the editing event detection unit, and manages editing history information in units of the image project.
  • the editing UI processing unit may include an editing history information providing unit that provides the editing history information managed by the editing history management unit through the editing history providing UI in response to the user input information. may include more.
  • a video editing UI control method may include: a video editing UI control method performed by a computing device including at least one processor, comprising: visualizing and displaying an editing history providing UI; providing editing history information of an image project through the editing history providing UI; and providing information on at least one editing event included in the editing history information.
  • an editing UI control method and apparatus that can be used for debugging while sharing editing know-how of an image project by providing and sharing information on the editing history generated during the creation of an image project in detail. have.
  • FIG. 1 is a diagram illustrating an electronic device to which various embodiments of the present disclosure are applied.
  • FIG. 2 is a diagram for explaining a system hierarchical structure of an electronic device to which various embodiments of the present disclosure are applied.
  • FIG. 3 is a flowchart illustrating a sequence of a video editing method to which various embodiments of the present disclosure are applied.
  • FIG. 4 is a diagram illustrating an editing UI provided by an apparatus for controlling a video editing UI according to various embodiments of the present disclosure.
  • 5A to 5E are diagrams illustrating a clip editing UI provided in a video editing UI according to various embodiments of the present disclosure
  • FIG. 6 is a block diagram illustrating a configuration of a video editing UI control apparatus according to various embodiments of the present disclosure.
  • FIG. 7 is an exemplary diagram of editing history information used in a video editing UI control apparatus according to various embodiments of the present disclosure
  • FIG. 8 is an exemplary diagram of an editing history providing menu used in a video editing UI control apparatus according to various embodiments of the present disclosure.
  • FIGS. 9 and 10 are exemplary views of an editing history providing menu used in a video editing UI control apparatus according to various embodiments of the present disclosure.
  • FIG. 11 is a flowchart illustrating a sequence of a video editing UI control method according to various embodiments of the present disclosure.
  • a component when a component is “connected”, “coupled” or “connected” to another component, it is not only a direct connection relationship, but also an indirect connection relationship in which another component exists in the middle. may also include. Also, when it is said that a component includes “includes” or “has” another component, it means that another component may be further included without excluding other components unless otherwise stated. .
  • components that are distinguished from each other are for clearly explaining each characteristic, and do not necessarily mean that the components are separated. That is, a plurality of components may be integrated to form one hardware or software unit, or one component may be distributed to form a plurality of hardware or software units. Accordingly, even if not specifically mentioned, such integrated or dispersed embodiments are also included in the scope of the present disclosure.
  • components described in various embodiments do not necessarily mean essential components, and some may be optional components. Accordingly, an embodiment composed of a subset of components described in one embodiment is also included in the scope of the present disclosure. In addition, embodiments including other components in addition to components described in various embodiments are also included in the scope of the present disclosure.
  • Various embodiments of the present disclosure may be implemented in an electronic device having a display unit such as a smartphone or tablet, and the video editing device according to an embodiment of the present disclosure may be implemented by an electronic device having a video editing application. have. Alternatively, it may be implemented by an electronic device having an image processing unit and a control unit capable of processing moving picture and subtitle data.
  • an electronic device to which various embodiments of the present disclosure are applied means a portable electronic device.
  • FIG. 1 is a diagram illustrating an electronic device to which various embodiments of the present disclosure are applied, and is a block diagram illustrating an electronic device 101 in a network environment 100 .
  • the electronic device 101 may be referred to as a computing device, and the electronic device 101 may have a video editing application embedded therein, or the application may be downloaded and installed from the outside.
  • an electronic device 101 communicates with the electronic device 102 through a first network 198 (eg, short-range wireless communication) or a second network 199 ( For example, it may communicate with the electronic device 104 or the server 108 through long-distance wireless communication. According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 . According to an embodiment, the electronic device 101 includes a processor 120 , a memory 130 , an input device 150 , a sound output device 155 , a display device 160 , an audio module 170 , and an interface 177 .
  • a camera module 180 for transmitting and receiving data through networks 198 and 199 , and the like.
  • a power management module 188 for transmitting and receiving data through networks 198 and 199 , and the like.
  • a communication module 190 for transmitting and receiving data through networks 198 and 199 , and the like.
  • at least one of these components eg, the display device 160 or the camera module 180
  • the processor 120 for example, runs software (eg, the program 140) to execute at least one other component (eg, a hardware or software component) of the electronic device 101 connected to the processor 120 . It can control and perform various data processing and operations.
  • the processor 120 may load and process a command or data received from another component (eg, the communication module 190 ) into the volatile memory 132 , and store the result data in the non-volatile memory 134 .
  • the processor 120 may include a main processor 121 (eg, a central processing unit or an application processor) and an auxiliary processor 123 independently operated therefrom.
  • the auxiliary processor 123 may be additionally or alternatively mounted on the main processor 121 to use less power than the main processor 121 .
  • the auxiliary processor 123 may include the auxiliary processor 123 (eg, a graphic processing device, an image signal processor, a sensor hub processor, or a communication processor) specialized for a specified function.
  • the auxiliary processor 123 may be operated separately from or embedded in the main processor 121 .
  • the auxiliary processor 123 replaces the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, for example, among the components of the electronic device 101 . At least a portion of functions or states related to at least one component (eg, the display device 160 or the communication module 190 ) may be controlled. As another example, while the main processor 121 is in an active (eg, performing an application) state, the auxiliary processor 123 may perform a function or state related to at least components of the electronic device 101 together with the main processor 121 . At least some of them can be controlled.
  • the coprocessor 123 (eg, image signal processor or communication processor) is implemented as some component of another functionally related component (eg, camera module 180 or communication module 190).
  • the memory 130 stores at least one component of the electronic device 101 (eg, various data used by the processor 120 , for example, software (eg, the program 140 )) and instructions related thereto. may store input data or output data for the memory 130 , may include a volatile memory 132 or a non-volatile memory 134 .
  • the program 140 is software stored in the memory 130 , and may include, for example, an operating system 142 , middleware 144 , or an application 146 .
  • the application 146 may include a plurality of software for various functions, and may have a content editing application according to the present disclosure.
  • the editing application is executed through the processor 140 and may be software that creates a new image or selects and edits an existing image.
  • the input device 150 is a device for receiving commands or data to be used by a component (eg, the processor 120) of the electronic device 101 from the outside (eg, a user) of the electronic device 101, for example, for example, it may include a microphone, mouse, or keyboard.
  • the sound output device 155 may be a device for outputting a sound signal to the outside of the electronic device 101 .
  • the sound output device 155 may include a speaker used for general purposes such as multimedia playback or recording playback, and a receiver used exclusively for receiving calls.
  • the receiver may be formed integrally with or separately from the speaker.
  • the display device 160 may be a device for visually providing information to a user of the electronic device 101 .
  • the display device 160 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the corresponding device.
  • the display device 160 may include a touch circuitry or a pressure sensor capable of measuring the intensity of the pressure applied to the touch.
  • the display device 160 may detect the coordinates of a touch input area, the number of touch input areas, a touch input gesture, etc. based on a touch circuit or a pressure sensor, and display the detected result as a main processor. (121) or may be provided to the coprocessor (123).
  • the audio module 170 may interactively convert a sound and an electrical signal. According to an embodiment, the audio module 170 acquires a sound through the input device 150 , or an external electronic device (eg, a sound output device 155 ) connected to the electronic device 101 by wire or wirelessly. Sound may be output through the electronic device 102 (eg, a speaker or headphones).
  • an external electronic device eg, a sound output device 155
  • Sound may be output through the electronic device 102 (eg, a speaker or headphones).
  • the interface 177 may support a designated protocol capable of connecting to an external electronic device (eg, the electronic device 102 ) in a wired or wireless manner.
  • the interface 177 may include a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card
  • the connection terminal 178 is a connector capable of physically connecting the electronic device 101 and an external electronic device (eg, the electronic device 102 ), for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector. (eg a headphone connector).
  • the camera module 180 may capture still images and moving images. According to an embodiment, the camera module 180 may include one or more lenses, an image sensor, an image signal processor, or a flash.
  • the power management module 188 is a module for managing power supplied to the electronic device 101 , and may be configured as, for example, at least a part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 is a device for supplying power to at least one component of the electronic device 101 , and may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
  • the communication module 190 establishes a wired or wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108), and establishes the established communication channel. It can support performing data communication through
  • the communication module 190 may include one or more communication processors that support wired communication or wireless communication, which are operated independently of the processor 120 (eg, an application processor).
  • the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, : LAN (local area network) communication module, or power line communication module), and using the corresponding communication module among them, the first network 198 (eg, Bluetooth, BLE (bluetooth low energy), WiFi direct or IrDA) (a short-range communication network such as an infrared data association) or a second network 199 (eg, a cellular network, the Internet, or a telecommunication network such as a computer network (eg, LAN or WAN)) with an external electronic device.
  • the first network 198 eg, Bluetooth, BLE (bluetooth low energy), WiFi direct or IrDA)
  • a second network 199 eg, a cellular network, the Internet, or a telecommunication network such as a computer network (eg, LAN or
  • peripheral devices eg, a bus, general purpose input/output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • GPIO general purpose input/output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199 .
  • Each of the electronic devices 102 and 104 may be the same as or different from the electronic device 101 .
  • at least some of the operations executed in the electronic device 101 may be executed in another one or a plurality of external electronic devices.
  • the electronic device 101 when the electronic device 101 needs to perform a specific function or service automatically or upon request, the electronic device 101 performs the function, in addition to or instead of executing the function or service itself. At least some functions related to the service may be requested from the external electronic device.
  • the external electronic device may execute the requested function or additional function, and may transmit the result to the electronic device 101 .
  • the electronic device 101 may provide the requested function or service by processing the received result as it is or additionally.
  • cloud computing, distributed computing, or client-server computing technology may be used.
  • FIG. 2 is a diagram for explaining a system hierarchical structure of an electronic device to which various embodiments of the present disclosure are applied.
  • the electronic device 200 includes a hardware layer 210 corresponding to the electronic device 100 of FIG. 1 and an operating system (OS) that manages the hardware layer 210 as an upper layer of the hardware layer 210 .
  • OS operating system
  • Operating System The OS layer 220 , as an upper layer of the OS layer 220 , may be configured to include a framework layer 230 , and an application layer 240 .
  • the OS layer 220 controls the overall operation of the hardware layer 210 and performs a function of managing the hardware layer 210 . That is, the OS layer 220 is a layer in charge of basic functions such as hardware management, memory, and security.
  • the OS layer 220 may include a driver for operating or driving a hardware device included in the electronic device, such as a display driver for driving a display device, a camera driver for driving a camera module, and an audio driver for driving an audio module.
  • the OS layer 220 may include a library and runtime that a developer can access.
  • a framework layer 230 exists as a higher layer than the OS layer 220 , and the framework layer 230 serves to connect the application layer 240 and the OS layer 220 . That is, the framework layer 230 includes a location manager, a notification manager, and a frame buffer for displaying an image on the display unit.
  • An application layer 240 implementing various functions of the electronic device 100 is located in an upper layer of the framework layer 230 .
  • the application layer 240 may include various application programs such as a call application 241 , a video editing application 242 , a camera application 243 , a browser application 244 , and a gesture application 245 .
  • the OS layer 220 may provide at least one application included in the application layer 240 or a menu or UI to add or delete at least one application included in the application layer 240 , and through this, at least one application included in the application layer 240 .
  • An application or application program may be added or deleted by the user.
  • the electronic device 100 of FIG. 1 may be connected to the other electronic devices 102 and 104 or the server 108 through communication, and may be connected to the other electronic devices 102 or 104 or the server 108 according to a user's request.
  • Data ie, at least one application or application program
  • provided from the server 108 may be received and stored to be recorded in the memory.
  • At least one application or application program stored in the memory may be configured and operated in the application layer 240 .
  • at least one application or application program may be selected by the user using a menu or UI provided by the OS layer 220 , and the selected at least one application or application program may be deleted.
  • FIG. 3 is a flowchart illustrating a sequence of a video editing method to which various embodiments of the present disclosure are applied.
  • the video editing method may be operated by the aforementioned electronic device (or computing device), and the operation may be started as a video editing application is selected and executed by a user input ( S105).
  • the electronic device may output an initial screen of the video editing application to a display device (eg, a display).
  • a display device eg, a display
  • a menu (or UI) for creating a new image project and an image project selection menu (or UI) for selecting an image project being edited in advance may be provided on the initial screen.
  • step S115 may be performed, and if the image project selection menu (or UI) is selected, step S125 may be performed (S310) .
  • the electronic device may provide a menu (or UI) for setting basic information of the new image project, and may set and apply basic information input through the menu (or UI) to the new image project.
  • the basic information may include an aspect ratio of a new image project.
  • the electronic device may provide a menu (or UI) for selecting an aspect ratio such as 16:9, 9:16, 1:1, etc., and select an aspect ratio input through the menu (or UI). It can be set and applied to a new video project.
  • the electronic device may generate a new image project by reflecting the basic information set in step S115, and store the created new image project in a storage medium (S304).
  • the electronic device automatically adjusts the master volume, the size of the master volume, audio fade-in preference, audio fade-out preference, video fade-in preference, video fade-out preference, image clip preference, layer length preference
  • a menu for setting at least one of settings and basic pan & zoom settings of an image clip may be provided, and a value input through the menu (or UI) may be set as basic information of a new image project.
  • the electronic device may determine an aspect ratio, automatic adjustment of master volume, size of master volume, audio fade in preference, audio fade out preference, video fade in preference, video fade out preference, image clip preference , default settings for layer length, and default settings for pan & zoom of image clips can be automatically set to predetermined values.
  • the electronic device provides a setting menu (or UI), and through the setting menu (or UI), the aspect ratio, automatic adjustment of the master volume, the size of the master volume, the audio fade-in default setting, the audio fade-out default setting, Receive control values for video fade-in default settings, video fade-out default settings, image clip default length settings, layer length default settings, and image clip pan & zoom default settings. You can also set information.
  • the electronic device may provide a project list including an image project stored in the storage medium and provide an environment for selecting at least one image project included in the project list.
  • the user may select at least one image project included in the project list, and the electronic device may load the at least one image project selected by the user ( S130 ).
  • the electronic device may provide an editing UI.
  • the editing UI may include an image display window 401 , a media setting window 402 , a media input window 403 , a clip display window 404 , a clip setting window 405 , and the like.
  • the image display window, the media setting window, and the media input window may be displayed on the upper part of the display, and the clip display window and the clip setting window may be displayed on the lower part of the display.
  • the media setting window may include an export menu, a capture menu, a setting menu, and the like, and the export menu, a capture menu, a setting menu, etc. may be provided in the form of an icon or text that can recognize the corresponding menu.
  • the media input window may include a media input menu 403a, a layer input menu 403b, an audio input menu 403c, an audio input menu 403d, a shooting menu 403e, and the like, and a media input menu 403a.
  • the layer input menu 403b, the audio input menu 403c, the voice input menu 403d, the shooting menu 403e, etc. may be provided in the form of icons or texts that can recognize the corresponding menus.
  • each menu may include a sub-menu, and as each menu is selected, the electronic device may configure and display a corresponding sub-menu.
  • the media input menu 403a may be connected to the media selection window as a sub-menu, and the media selection window may provide an environment for selecting media stored in the storage medium.
  • Media selected through the media selection window may be inserted and displayed in the clip display window.
  • the electronic device may check the selected media type through the media selection window, set a clip time of the corresponding media in consideration of the checked media type, and insert and display the selected media type in the clip display window.
  • the type of media may include an image, a video, and the like.
  • the electronic device may check the default length setting value of the image clip and set the image clip time according to the default length setting value of the image clip.
  • the electronic device may set the time of the moving picture clip according to the length of the corresponding medium.
  • the layer input menu 403b may include a media input menu, an effect input menu, an overlay input menu, a text input menu, a media input menu, and a drawing input menu.
  • the media input menu may have the same configuration as the aforementioned media input menu.
  • Effect input menu includes blur effect, mosaic effect, noise effect, sandstorm effect, melting point effect, crystal effect, star filter effect, display board effect, haze effect, fisheye lens effect, magnifying glass rend effect, flower twist effect,
  • An environment in which a night vision effect, a sketch effect, and the like can be selected may be provided.
  • the effect selected through the effect input menu may be inserted and displayed in the clip display window.
  • the electronic device may check the basic setting value of the layer length and set the effect clip time according to the basic setting value of the layer length.
  • the overlay input menu may provide an environment in which stickers and icons of various shapes or shapes can be selected. Stickers, icons, etc. selected through the overlay input menu may be inserted and displayed in the clip display window.
  • the electronic device may check a default setting value of the layer length, and set a clip time of a sticker, an icon, etc. according to the basic setting value of the layer length.
  • the text input menu may provide an environment for inputting text, for example, a Qwety keyboard. Text input through the text input menu may be inserted and displayed in the clip display window.
  • the electronic device may check the default setting value of the layer length and set the text clip time according to the default setting value of the layer length.
  • the drawing input menu may be configured to provide a drawing area to the image display window, and to display a drawing object in a touch input area on the image display window.
  • the handwriting input menu is a sub-menu, which is a drawing tool selection menu to select a drawing tool, a color selection menu to select a drawing color, a thickness setting menu to set the thickness of the drawing object, a part erase menu to delete the created drawing object, It may include an all-clear menu that deletes the entire object, and the like. Also, when the handwriting input menu is selected, the electronic device may check the default setting value of the layer length and set the drawing object clip time according to the default setting value of the layer length.
  • the audio input menu 403c may be connected to an audio selection window as a sub-menu, and the audio selection window may provide an environment for selecting an audio file stored in a storage medium. An audio file selected through the audio selection window may be inserted and displayed in the clip display window.
  • the voice input menu 403d may be a menu for recording a sound input through a microphone.
  • the electronic device may detect a voice signal input from the microphone by activating a microphone provided in the device.
  • the electronic device may display a recording start button and, when the recording start button is input, may start recording of the hidden wire signal.
  • the electronic device may visualize and display the voice signal input from the microphone. For example, the electronic device may check the magnitude or frequency characteristic of the voice signal, and display the checked characteristic in the form of a level meter or a graph.
  • the photographing menu 403e may be a menu for photographing an image or an image input through a camera module provided in the electronic device.
  • the shooting menu 403e may be displayed through an icon or the like that visualizes the camera device.
  • the photographing menu 403e may include an image/video photographing selection menu for selecting a camera for photographing an image or a camcorder for photographing an image as a sub-menu. Based on this, when the shooting menu 403e is selected by the user, the electronic device may display an image/video shooting selection menu. In addition, the electronic device may activate an image capturing mode or an image capturing mode of the camera module according to selection through the image/video capturing selection menu.
  • the clip display window 404 may include at least one clip line for displaying clips corresponding to media, effects, overlays, text, drawings, audio, voice signals, etc. input through the media input window.
  • the clip line may include a main clip line 404a and a sub clip line 404b, and the clip line provided at the top of the clip display window is referred to as the main clip line 404a, and the lower end of the main clip line 404a. At least one clip line provided in the sub clip line may be referred to as a sub clip line 404b.
  • the electronic device may fix and display the main clip line 404a at the top of the clip display window, check the drag input based on the region where the sub clip line 404b exists, and check the drag input corresponding to the direction of the drag input to display the sub clip line (404b) can be displayed by scrolling up and down.
  • the electronic device moves the sub clip line 404b to the upper region and displays it, and when the direction of the drag input is confirmed in the lower direction, the electronic device displays the sub clip line 404b ) can be displayed by moving it to the lower area.
  • the electronic device may display the upper and lower widths of the main clip line 404a differently in response to the movement of the sub clip line 404b. For example, when the sub clip line 404b moves upward, the vertical width of the main clip line 404a is reduced and displayed, and when the sub clip line 404b moves downward, the vertical width of the main clip line 404a is increased and displayed. can do.
  • the clip display window may include a time display line 404c and a reference line (Play Head) 404d indicating the time of the image project.
  • the time display line 404c may be displayed on the upper portion of the main clip line 404a described above, and may include a scale or a number in a predetermined unit.
  • the reference line 404d may be displayed as a line connected vertically from the time display line 404c to the lower end of the clip display window, and may be displayed in a color (eg, red) that can be easily recognized by the user. .
  • the reference line 404d may be provided in a fixed form in a predetermined area, and the object and time display line 404c included in the main clip line 404a and the sub clip line 404b provided in the clip display window are It may be configured to move in a left and right direction.
  • the electronic device displays the main clip line 404a and the sub clip line
  • the object included in the 404b and the time display line 404c can be displayed by moving in the left and right directions.
  • the electronic device may be configured to display a frame or object corresponding to the reference line 404d on the image display window.
  • the electronic device may check a detailed time (eg, in units of 1/1000 second) that the reference line 404d comes into contact with, and display the confirmed detailed time together on the clip display window.
  • the electronic device may check whether multi-touch has occurred in the clip display window, and when multi-touch occurs, a scale or number of a predetermined unit included in the time display line 404c is changed and displayed in response to the multi-touch. can For example, when it is confirmed that the multi-touch interval gradually decreases, the electronic device may decrease the interval between scales or numbers. When an input with a gradually increasing interval of the multi-touch is checked, the electronic device may display the scale or numbers by increasing the interval.
  • the electronic device may configure the clip display window 404 to select a clip displayed on the clip line, and may visualize and display that the clip is selected when the clip is selected. For example, when selection of a clip is detected, the electronic device may provide a clip selector at a boundary of the selected clip, and the click selector may be displayed in a predetermined color, for example, yellow.
  • the electronic device may provide a clip editing UI for editing the selected clip.
  • the electronic device may display the clip editing UI in an area where the media input window 403 exists.
  • the clip editing UI may be set differently according to the type of the selected clip. Specifically, when the type of clip is a video clip, the electronic device performs a trim/split menu 501, a pan/zoom menu 502, an audio control menu 503, a clip graphic menu 504, and a speed control menu 505.
  • the clip editing UI 500 may be configured and provided, including a modulation menu 512 , a vignette control menu 513 , an audio extraction menu 514 , and the like.
  • the clip editing UI for each type of clip may be configured based on the structure of the image editing UI.
  • the electronic device may further display the clip editing extension UI 530 in an area where the media setting window exists.
  • the clip editing extension UI displayed in the area of the media setting window may also be set differently depending on the type of the selected clip. For example, when the type of clip is a video clip, an image clip, an audio clip, or an audio signal clip, the electronic device displays the clip editing extension UI 530 including a clip deletion menu, a clip duplication menu, a clip layer duplication menu, and the like. If the type of clip is a video clip, an image clip, an audio clip, or an audio signal clip, the electronic device expands clip editing including a clip delete menu, a clip clone menu, a clip layer clone menu, etc.
  • UI can be configured and provided, and, if it is an effect clip, text clip, overlay clip, or drawing clip, the electronic device has a delete clip menu, duplicate clip menu, bring to front menu, bring forward menu, send back menu, You can configure and provide a clip editing extension UI, including a Send to Back menu, a horizontal center menu, a vertical center menu, and more.
  • the clip setting window may include a clip enlargement display menu 550 and a clip movement control menu 560 .
  • the electronic device may enlarge the clip display window to the entire area of the display.
  • the clip movement control menu 560 may display the clip by moving it according to the reference line.
  • the clip movement control menu 560 may include a start area movement menu or an end area movement menu, and the start area movement menu or the end area movement menu is adaptively displayed in consideration of the position of the reference line in contact with the clip. desirable.
  • the electronic device basically provides a start region movement menu, and when the clip comes into contact with the start position of the reference line, the electronic device may replace the start region movement menu with the end region movement menu and display it.
  • the electronic device may check a user input input through the editing UI, configure an image project corresponding thereto, and store the configured image project in a storage medium.
  • the editing UI is configured to include an export menu in the media setting window.
  • the electronic device reflects the information configured in the image project to configure image data. and may be stored in a storage medium (S150).
  • the structure of the editing UI provided by the video editing UI control apparatus may be configured as follows.
  • the editing UI may basically include an image display window 401, a media setting window 402, a media input window 403, a clip display window 404, a clip setting window 405, and the like. At least one clip selected through may be displayed on the clip display window 404 .
  • clip editing menus 501,502, ... 514 may be provided in the area where the media input window 403 exists. have.
  • the clip editing menus 501 , 502 , ... 514 may be adaptively provided according to the structure of the editing UI for each clip type.
  • the video clip editing menu is: Trim/Split Menu, Pan/Zoom Menu, Audio Control Menu, Clip Graphics Menu, Speed Control Menu, Reverse Control Menu, Rotate/Mirror Menu, Filter Menu, Brightness/Contrast/Gamma Control Menu, Voice EQ It may include a control menu, a detailed volume control menu, a voice modulation control menu, a vignetting ON/OFF control menu, an audio extraction menu, and the like.
  • the trim/split menu is a sub-menu, and may include a trim menu to the left of the base line (Play Head), a trim menu to the right of the base line, a split menu from the base line, a still image division and insertion menu, and the like.
  • the audio control menu is a sub-menu, and may include a master volume control bar, a sound effect volume control bar, an automatic volume ON/OFF menu, a left and right balance adjustment bar, a pitch adjustment bar, and the like.
  • the master volume control bar, sound effect volume control bar, left and right balance adjustment bar, pitch control bar, etc. can be set to support the detailed control UI, and these master volume control bar, sound effect volume control bar, left and right balance adjustment bar, and pitch
  • the control bar and the like may be managed by the main editing UI.
  • the UI set as the main editing UI may be configured to display the detailed adjustment UI together.
  • a touch input when generated for more than a predetermined time (eg, 1 second) in an area where the main editing UI set to support the detailed adjustment UI exists, it may be configured to activate the detailed adjustment UI as a sub-menu.
  • a predetermined time eg, 1 second
  • the clip graphic menu may be configured to select at least one graphic to be inserted into the clip.
  • the speed control menu may include at least one predetermined speed control button (eg, 1x, 4x, 8x), a speed control bar, a mute ON/OFF menu, a pitch maintenance ON/OFF menu, and the like. And, the speed control bar may be managed as the main editing UI.
  • the reverse control menu may be configured to perform reverse processing of an image included in a corresponding clip.
  • the audio EQ control menu may be configured to select at least one audio EQ to be applied to an image.
  • the filter menu may be configured to select at least one image filter to be applied to an image.
  • the brightness/contrast/gamma control menu may include a brightness control bar, a contrast control bar, and a gamma control bar as sub-menus to control the brightness/contrast/gamma value of an image.
  • the gamma adjustment bar and the like are managed as the main editing UI, and may be set to support the detailed adjustment UI.
  • the rotation/mirror menu is a sub-menu, and may include a horizontal mirroring menu, a vertical mirroring menu, a counterclockwise rotation menu, a clockwise rotation menu, etc., and the counterclockwise rotation menu and clockwise rotation menu are managed as the main editing UI and may be set to support the detailed control UI.
  • the detailed volume control menu is a menu for controlling the volume of the voice included in the image, and may include a control point addition menu, a control point deletion menu, a voice control bar, etc., and the voice control bar is managed as the main editing UI, It can be set to support the detailed control UI.
  • the audio modulation control menu may be configured to select at least one audio modulation method to be applied to an image.
  • the image clip editing menu may include a trim/split menu, pan/zoom menu, rotation/mirroring control menu, clip graphic menu, filter menu, brightness/contrast/gamma control menu, vignetting ON/OFF control menu, etc. and these menus may be configured similarly to the control menu illustrated in FIG. 6A .
  • the effect clip editing menu may include an effect setting menu, a transparency control menu, a trim/split menu, a rotation/mirroring control menu, etc.
  • the trim/split menu and the rotation/mirror control menu are similar to the video clip editing menu. can be configured.
  • the effect setting menu and the transparency control menu may include an effect setting bar and a transparency control bar as sub-menus, respectively. The effect setting bar and the transparency control bar are managed as the main editing UI, and can be set to support the detailed control UI. have.
  • the overlay clip editing menu may include an overlay color setting menu, a transparency control menu, a trim/split menu, a rotation/mirroring control menu, a blend type setting menu, and the like. It may be configured similarly to the edit menu.
  • the transparency control menu may include a transparency control bar as a sub-menu, and the transparency control bar is managed as a main editing UI and may be set to support a detailed control UI.
  • the text clip edit menu includes text font setting menu, text color setting menu, trim/split menu, transparency control menu, rotation/mirror control menu, text alignment method setting menu, shadow ON/OFF menu, glow ON/OFF menu, It may include an outline ON/OFF menu, a background color ON/OFF menu, a blend type setting menu, and the like.
  • color adjustment bar eg R/G/B adjustment bar
  • a transparency control bar for adjusting the transparency may be included, and the color control bar (eg, R/G/B control bar) or the transparency control bar is managed as the main editing UI, and may be set to support the detailed control UI.
  • the drawing clip edit menu may include a transparency control menu, a trim/split menu, a rotation/mirroring control menu, a blend type setting menu, etc. It can be configured similarly.
  • the transparency control menu may include a transparency control bar as a sub-menu, and the transparency control bar is managed as a main editing UI and may be set to support a detailed control UI.
  • the audio clip editing menu may include an audio control menu, a voice EQ control menu, a detailed volume control menu, a voice modulation control menu, a ducking ON/OFF control menu, a repeat ON/OFF control menu, a trim/split menu, etc. .
  • the audio control menu, the voice EQ control menu, the detailed volume control menu, the voice modulation control menu, the trim/split menu, etc. may be configured similarly to the video clip editing menu.
  • FIG. 6 is a block diagram illustrating a configuration of a video editing UI control apparatus according to various embodiments of the present disclosure.
  • the video editing UI control apparatus 60 may include an editing UI display unit 61 , a user input confirmation unit 63 , and an editing UI processing unit 65 .
  • the editing UI display unit 61 may visualize and display the above-described editing UI on a display device (eg, a display).
  • the editing UI processing unit 65 confirms a menu or UI that is requested to be output to the display device (eg, : display).
  • the editing UI may include at least one menu or UI having a predetermined shape and size, and may be configured such that the at least one menu or UI is positioned and displayed in a predetermined area.
  • the user input check unit 63 generates a user input based on the coordinates of a region to be touched, the number of regions to be touched, a gesture to be touched, and the like through the aforementioned display device (eg, 160 of FIG. 1 ).
  • Check user input information such as coordinates, type of user input (eg, single touch input, multi-touch input, single gesture input, multi-gesture input, etc.), gesture (single or multi-gesture) input direction, etc.
  • the information may be provided to the editing UI processing unit 65 .
  • the editing UI processing unit 65 may check user input information provided by the user input verification unit 63 and process an operation corresponding to the user input information. For example, the editing UI processing unit 65 may check user input generation coordinates, and check and process an operation corresponding to a menu or UI existing in the checked coordinates. As another example, the edit UI processing unit 65 may check a sub-menu or sub-UI of a menu or UI existing at the confirmed coordinates, and request output of the checked sub-menu or sub-UI to the edit UI display unit 61 .
  • the editing UI processing unit 65 may include an editing history management UI processing unit 67 for providing an editing history management UI, and the editing history management UI processing unit 67 includes an editing event detection unit 67a and an editing history management unit. (67b), and may include an editing history information providing unit (67c).
  • the editing event detection unit 67a may collect editing events generated while editing an image project, detect information corresponding thereto, and provide it to the editing history management unit 67b. For example, the editing event detection unit 67a may generate and provide an event identifier capable of identifying an editing event generated through the editing UI. Also, the editing event detecting unit 67a may further provide information summarizing the contents of the editing performed by the editing event. In this case, the information summarizing the edit content may be configured automatically by the editing event detection unit 67a or may be configured by a user input.
  • An editing event in an embodiment of the present disclosure may mean each editing step of editing an image project.
  • the editing history management unit 67b may record and manage information on the editing history of the video project unit.
  • the editing history management unit 67b may store and manage the editing event information provided from the editing event detection unit 67a. Also, the editing history management unit 67b may configure, store, and manage index information for editing event information. Furthermore, when configuring the editing history information, the editing history management unit 67b may include information such as data generation time, data update time, data summary description, and author. Such editing history information may be configured in a meta data format.
  • the editing history management unit 67b corresponds to the editing history information (Metadata) 710, the index information 720 and the index information as shown in FIG. 7 based on the information received from the editing event detection unit 67a. It is possible to store and manage an editing event for an editing process of an image project including the editing event information 730 . In this case, the editing history management unit 67b may store and manage the editing process for the editing event of the video project in the form of a file.
  • the editing history information 710 includes data creation time, data update time, data summary description, author, etc. for the image project file, and the index information 720 specifies the location of the editing event in the image project file and the corresponding index information You can play the editing process of the video project file through .
  • the editing event information 730 may include a summary description of the corresponding editing event and detailed editing contents, and may reconstruct the video project of the corresponding editing event through the corresponding editing event information.
  • the summary description of the editing event information may include content describing the editing process of the corresponding editing event.
  • the editing history information providing unit 67c may change the above-described editing history information into a format that can be checked by a user and provide it.
  • the editing history information providing unit 67c may configure the editing history providing UI, and may provide the editing history information to the user through the editing history providing UI.
  • the editing history information providing unit 67c may provide an editing history providing menu ( 810 in FIG. 8 ) for providing the editing history information when the editing history information for the image project file is stored. And, as the editing history providing menu 810 is selected by the user, the editing history information providing unit 67c checks the aforementioned editing history information to configure and provide the editing history providing UI (1000 in FIG. 10).
  • the editing history providing UI 1000 may be an editing process playback mode UI for playing the editing event information ( 730 of FIG. 7 ) of the image project file.
  • the editing history information providing unit 67c provides a UI (900 in FIG. 9 ) for providing a list of editing event units for the corresponding image project file. ) can also be provided.
  • the edit event list UI 900 may be configured to output a list of edit event units and details of the selected edit event when any one of the list is selected.
  • the editing history information providing unit 67c may configure and provide the editing history providing UI (1000 of FIG. 10 ) through a user input in the editing event list UI 900 .
  • the editing history information providing unit 67c provides the editing history providing UI 1000 when any one editing event is double-clicked on the editing event list UI 900 or a separately configured editing history providing menu is selected. may be
  • the editing history providing UI 1000 may be configured to sequentially output editing events of an image project file.
  • the editing history providing UI 1000 includes a UI for selecting a previous editing event 1010, a current editing event, and a next editing event 1020, and includes a previous editing event 1010, a current editing event, and a next editing event. (1020) may be configured to output detailed information suitable for the selected event.
  • the editing history providing UI 1000 may include a play menu of an edit event, and may be configured to automatically and sequentially play back details of an edit event as the play menu of the edit event is selected.
  • the sequential playback may be performed based on a predetermined time unit (eg, 1 second, 5 seconds, etc.).
  • a pause function may be provided, and in a paused state, a function for moving to a previous step, a next step, or an arbitrary step may be provided.
  • the editing history providing UI 1000 further displays the progress of the editing event (eg, 50% progress, 7/15 steps, 7 out of 15 steps, etc.) 1060 in providing detailed details of the editing event. can do.
  • the progress of the editing event eg, 50% progress, 7/15 steps, 7 out of 15 steps, etc.
  • Step7: Add Primary Clip 1050 is further displayed for a description of the current editing event. can do.
  • the description 1050 of the current editing event may be modified by the user.
  • the editing history information providing unit 67c when the previous editing event 1010 or the next editing event 1020 is selected by the user, the editing history information providing unit 67c outputs detailed details corresponding to the previous editing event or the next editing event, The description 1050 of the editing event and the progress rate 1060 of the editing event may be changed and displayed according to the selected editing event.
  • the editing history providing UI 1000 may further provide a menu 1030 for requesting entry into the editing stage of the selected editing event.
  • the editing history information providing unit 67c may configure and provide the image project in the editing phase corresponding to the corresponding editing event.
  • the editing history providing UI 1000 may further provide a menu 1040 for requesting to exit the editing history providing UI 1000 and move to a previous step.
  • the editing history information providing unit 67c may configure and provide the UI of FIG. 8 or 9, or display the UI preset to the previous step. It can also be configured and provided.
  • the editing history providing UI 1000 may further provide a menu that can be played by jumping to any one arbitrary editing event.
  • the editing history information providing unit 67c may provide the editing history providing menu 810 by selecting the image project file, but by directly selecting the editing history information file stored for the image project file, the selected editing An editing history providing menu 810 for the history information file may be provided.
  • the editing UI processing unit 65 may determine whether to save the editing process through a user input in the process of creating the image project, and may store the editing process during editing. Also, it is possible to end the saving of the editing process during editing. In this case, when the editing UI processing unit 65 ends saving the editing process during editing, only the editing process until the end of the editing process can be stored.
  • FIG. 11 is a flowchart illustrating a sequence of a video editing UI control method according to various embodiments of the present disclosure.
  • the video editing UI control method may be operated by the aforementioned electronic device (or computing device), and the operation may be started as a video editing application is selected and executed by a user input.
  • the project in which the editing history information is stored for example, the video project is selected by the user, and the selected video project is loaded (S205).
  • the image project is an image project in which an editing event detected in the process of editing the corresponding image project is stored and managed
  • step S205 may be viewed as a process of loading an image project in which editing history information including the editing event is stored.
  • the video editing UI control method may further include a process of detecting and storing an editing event of the video project, and step S205 loads the project in which the editing history information is stored by the process of detecting and storing the editing event. It may be a step to
  • the editing history providing UI for providing the editing history information of the video project is visualized and displayed on the display device (S210).
  • the editing history providing UI 1000 in FIG. 10
  • the editing history providing UI may be visualized and displayed.
  • step S210 When the editing history providing UI is displayed by step S210, the editing history information of the video project is provided through the editing history providing UI (S215).
  • step S215 as the video project is selected by the user, editing history information stored for the video project may be provided through the editing history providing UI.
  • step S220 When the editing history information of the video project is provided through the editing history providing UI, information on the editing event selected by the user among at least one editing event included in the editing history information is provided ( S220 ). For example, in step S220, the editing process corresponding to the editing event selected by the user may be reproduced and provided.
  • step S220 the details of at least one editing event may be sequentially provided for each predetermined time unit through the editing history providing UI.
  • step S220 in providing the details of the editing event, the progress rate of the editing event may be further displayed, or in providing the details of the editing event, a description of the current editing event may be further displayed. .
  • the video editing UI control method is configured in an editing state corresponding to any one editing event as a menu ( 1030 in FIG. 10 ) for editing any one editing event is selected by the user on the editing history providing UI. may be provided.
  • the video editing UI control method may include all the contents described with reference to FIGS. 6 to 10 , which are those skilled in the art. self-evident for
  • Example methods of the present disclosure are expressed as a series of operations for clarity of description, but this is not intended to limit the order in which the steps are performed, and if necessary, each step may be performed simultaneously or in a different order.
  • other steps may be included in addition to the illustrated steps, other steps may be included except some steps, or additional other steps may be included except some steps.
  • various embodiments of the present disclosure may be implemented by hardware, firmware, software, or a combination thereof.
  • ASICs Application Specific Integrated Circuits
  • DSPs Digital Signal Processors
  • DSPDs Digital Signal Processing Devices
  • PLDs Programmable Logic Devices
  • FPGAs Field Programmable Gate Arrays
  • general purpose It may be implemented by a processor (general processor), a controller, a microcontroller, a microprocessor, and the like.
  • the scope of the present disclosure includes software or machine-executable instructions (eg, operating system, application, firmware, program, etc.) that cause operation according to the method of various embodiments to be executed on a device or computer, and such software or and non-transitory computer-readable media in which instructions and the like are stored and executed on a device or computer.
  • software or machine-executable instructions eg, operating system, application, firmware, program, etc.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

동영상 편집 UI 제어 장치가 개시된다. 본 개시의 일 실시예에 따른 동영상 편집 UI 제어 장치는 편집이력 제공 UI를 포함하는 편집 UI를 표시 장치에 시각화하여 표시하는 편집 UI 표시부; 상기 표시 장치를 통해 터치 입력되는 사용자 입력을 기반으로 하는 사용자 입력 정보를 확인하는 사용자 입력 확인부; 및 상기 사용자 입력 확인부에서 제공되는 상기 사용자 입력 정보에 기초하여 편집이력 정보를 생성 및 관리하고, 상기 편집이력 제공 UI의 입력에 대응하여 상기 편집이력 정보를 제공하는 편집 UI 처리부를 포함한다.

Description

편집이력 정보 제공을 위한 동영상 편집 UI 제어 방법 및 그 장치
본 개시는 동영상 편집 UI 제어 방법 및 그 장치에 관한 것이며, 보다 구체적으로 동영상 편집을 위한 다양한 기능을 직관적으로 처리할 수 있는 동영상 편집 UI 제어 방법 및 그 장치에 대한 것이다.
최근 스마트폰이나 태블릿과 같은 휴대 단말이 널리 보급되고, 이러한 휴대 단말의 성능 향상과 무선 통신 기술의 발달로 인하여 사용자는 휴대 단말을 이용하여 동영상을 촬영하고, 편집하며, 공유할 수 있게 되었다.
하지만, 휴대 단말은 액정 화면 크기 및 하드웨어의 퍼포먼스의 제약으로 인하여, 사용자가 일반 PC 환경에서처럼 원활하게 동영상을 편집할 수 없다. 이러한 불편함을 개선하기 위해서 휴대 단말에서 사용할 수 있는 동영상 편집 방법에 대한 사용자의 요구가 증대되고 있다.
나아가, 휴대 단말의 사용자의 니즈가 늘어남에 따라, 휴대 단말의 카메라 장치, 디스플레이 장치, 및 하드웨어의 퍼포먼스 등이 고도화되고 있으며, PC 환경에서 사용하였던 많은 기능 또는 서비스 등이 휴대 단말로 대체되고 있다. 특히, 휴대 단말은 기본적으로 카메라 장치를 구비하고 있으므로, 카메라 장치를 통해 촬영된 이미지 또는 동영상 편집에 대한 사용자 니즈가 증대되고 있다.
휴대 단말의 자원의 특성으로 인하여, 제한된 기능만을 사용하도록 동영상 편집 방법이 보급되었지만, PC 환경에서 준하는 수준으로 동영상을 편집할 수 있는 수준까지 요구되고 있다.
한편, PC 환경에서 마우스 장치나 키보드 장치와 같은 입력 장치를 사용하여 동영상 편집을 수행할 경우, 입력 장치를 조작하기 위한 사용자의 행동이 수반되어야 한다. 이러한 입력 장치를 조작하는 과정에서 사용자가 원하는 대로 입력 장치가 동작되지 않아 사용자 편의성이 저하되는 문제가 있다.
휴대 단말은 터치 입력을 지원하는 디스플레이 장치를 구비하는 것이 일반적이다. 터치 입력을 지원하는 디스플레이 장치를 통해 사용자 입력을 처리할 경우, 사용자 입력을 보다 직관적으로 처리할 수 있으며, 사용자 편의성을 현저하게 증대시킬 수 있다.
본 개시의 기술적 과제는, 동영상 편집을 위한 다양한 기능을 직관적으로 처리할 수 있는 동영상 편집 UI 제어 방법 및 그 장치를 제공하는데 그 목적이 있다.
본 개시의 다른 기술적 과제는, 영상 프로젝트의 생성 시 발생되는 편집이력에 대한 정보를 저장 및 제공할 수 있는 동영상 편집 UI 제어 방법 및 그 장치를 제공하는데 그 목적이 있다.
본 개시에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 개시의 일 양상에 따르면, 적어도 하나의 프로세서를 포함하는 컴퓨팅 장치가 수행하는 광고 컨텐츠의 편집 방법은, 로딩된 광고 컨텐츠에서 편집가능 요소를 추출하여 제시하는 단계; 사용자 입력에 의해 상기 제시된 편집가능 요소를 수신하는 단계; 상기 사용자 입력에 의해 상기 편집가능 요소에 대한 삽입 요소를 선택하는 단계; 및 상기 선택된 삽입 요소에 기초하여 상기 광고 컨텐츠를 편집하는 단계를 포함한다.
본 개시의 다른 실시예에 따르면, 상기 편집가능 요소는 상기 광고 컨텐츠를 구성하는 미디어 객체, 상기 광고 컨텐츠를 편집하는 편집 도구 및 상기 광고 컨텐츠의 컨셉을 위해 지정된 카테고리 정보 중 적어도 하나를 포함할 수 있다.
본 개시의 또 다른 실시예에 따르면, 상기 편집 도구는 상기 광고 컨텐츠를 구성하는 미디어에 부가 효과를 부여하는 편집 기능을 포함할 수 있다.
본 개시의 또 다른 실시예에 따르면, 상기 카테고리 정보는 상기 컨셉의 변형을 허용하는 상기 광고 컨텐츠의 미본 개시의 일 양상에 따르면, 동영상 편집 UI 제어 장치가 개시된다. 상기 동영상 편집 UI 제어 장치는, 편집이력 제공 UI를 포함하는 편집 UI를 표시 장치에 시각화하여 표시하는 편집 UI 표시부; 상기 표시 장치를 통해 터치 입력되는 사용자 입력을 기반으로 하는 사용자 입력 정보를 확인하는 사용자 입력 확인부; 및 상기 사용자 입력 확인부에서 제공되는 상기 사용자 입력 정보에 기초하여 편집이력 정보를 생성 및 관리하고, 상기 편집이력 제공 UI의 입력에 대응하여 상기 편집이력 정보를 제공하는 편집 UI 처리부를 포함한다.
본 개시의 일 실시예에 따르면, 상기 편집이력 정보는, 영상 프로젝트의 편집 이벤트에 의해 수행되는 편집 내용, 및 상기 편집 이벤트의 인덱스를 포함할 수 있다.
본 개시의 다른 실시예에 따르면, 상기 편집 UI 처리부는, 상기 편집이력 제공 UI를 통해 영상 프로젝트의 편집 이벤트 단위의 리스트를 제공하고, 상기 사용자에 의해 선택된 편집 이벤트의 상세 내역을 제공할 수 있다.
본 개시의 또 다른 실시예에 따르면, 상기 편집 UI 처리부는, 상기 편집이력 제공 UI를 통해 영상 프로젝트의 편집 이벤트의 상세 내역을 미리 정해진 시간 단위마다 순차적으로 제공할 수 있다.
본 개시의 또 다른 실시예에 따르면, 상기 편집 UI 처리부는, 상기 편집이력 제공 UI 상에서, 상기 사용자에 의해 편집 이벤트가 선택됨에 따라, 영상 프로젝트에서의 상기 선택된 편집 이벤트의 위치를 나타내는 편집 이벤트의 진행률에 대한 정보를 제공할 수 있다.
본 개시의 또 다른 실시예에 따르면, 상기 편집 UI 처리부는, 상기 편집이력 제공 UI 상에서, 상기 사용자에 의해 편집 이벤트를 편집하기 위한 메뉴가 선택됨에 따라, 상기 편집 이벤트에 대응하는 편집 상태로 구성하여 제공할 수 있다.
본 개시의 또 다른 실시예에 따르면, 상기 편집 UI 처리부는, 영상 프로젝트의 편집 이벤트를 검출하는 편집 이벤트 검출부; 및 상기 편집 이벤트 검출부로부터 제공되는 상기 편집 이벤트를 저장 및 관리하고, 상기 영상 프로젝트 단위의 편집이력 정보를 관리하는 편집이력 관리부를 포함할 수 있다.
본 개시의 또 다른 실시예에 따르면, 상기 편집 UI 처리부는, 상기 사용자 입력 정보에 대응하여, 상기 편집이력 관리부가 관리하는 상기 편집이력 정보를 상기 편집이력 제공 UI를 통해 제공하는 편집이력정보 제공부를 더 포함할 수 있다.
본 개시의 다른 양상에 따르면, 동영상 편집 UI 제어 방법이 개시된다. 상기 동영상 편집 UI 제어 방법은, 적어도 하나의 프로세서를 포함하는 컴퓨팅 장치가 수행하는 영상 편집 UI 제어 방법에 있어서, 편집이력 제공 UI를 시각화하여 표시하는 단계; 상기 편집이력 제공 UI를 통해 영상 프로젝트의 편집이력 정보를 제공하는 단계; 및 상기 편집이력 정보에 포함된 적어도 하나의 편집 이벤트에 대한 정보를 제공하는 단계를 포함한다.
본 개시에 대하여 위에서 간략하게 요약된 특징들은 후술하는 본 개시의 상세한 설명의 예시적인 양상일 뿐이며, 본 개시의 범위를 제한하는 것은 아니다.
본 개시의 실시예에 따르면, 동영상 편집을 위한 다양한 기능을 직관적으로 처리할 수 있는 동영상 편집 UI 제어 방법 및 그 장치를 제공할 수 있다.
본 개시의 실시예에 따르면, 영상 프로젝트의 생성 시 발생되는 편집이력에 대한 정보를 상세히 제공하여 공유함으로써, 영상 프로젝트의 편집 노하우를 공유하면서 디버깅에 사용할 수 있는 편집 UI 제어방법 및 장치를 제공할 수 있다.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 개시의 다양한 실시예가 적용되는 전자 장치를 예시하는 도면이다.
도 2는 본 개시의 다양한 실시예가 적용되는 전자 장치의 시스템 계층 구조를 설명하기 위한 도면이다.
도 3은 본 개시의 다양한 실시예가 적용되는 동영상 편집 방법의 순서를 예시하는 흐름도이다.
도 4는 본 개시의 다양한 실시예에 따른 동영상 편집 UI 제어 장치에서 제공되는 편집 UI를 예시하는 도면이다.
도 5a 내지 도 5e는 본 개시의 다양한 실시예에 따른 동영상 편집 UI에서 제공되는 클립 편집 UI를 예시하는 도면이다.
도 6은 본 개시의 다양한 실시예에 따른 동영상 편집 UI 제어 장치의 구성을 예시하는 블록도이다.
도 7은 본 개시의 다양한 실시예에 따른 동영상 편집 UI 제어 장치에서 사용되는 편집이력 정보의 일 예시도이다.
도 8은 본 개시의 다양한 실시예에 따른 동영상 편집 UI 제어 장치에서 사용되는 편집이력 제공 메뉴의 일 예시도이다.
도 9와 도10은 본 개시의 다양한 실시예에 따른 동영상 편집 UI 제어 장치에서 사용되는 편집이력 제공 메뉴의 일 예시도이다.
도 11은 본 개시의 다양한 실시예에 따른 동영상 편집 UI 제어 방법의 순서를 예시하는 흐름도이다.
이하에서는 첨부한 도면을 참고로 하여 본 개시의 실시예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.
본 개시의 실시예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 개시에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본 개시에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결관계 뿐만 아니라, 그 중간에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 어떤 구성요소가 다른 구성요소를 "포함한다" 또는 "가진다"고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 배제하는 것이 아니라 또 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
본 개시에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시예도 본 개시의 범위에 포함된다.
본 개시에 있어서, 다양한 실시예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들은 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시예도 본 개시의 범위에 포함된다. 또한, 다양한 실시예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시예도 본 개시의 범위에 포함된다.
본 개시의 다양한 실시예는 스마트폰, 태블릿 등과 같은 디스플레이부를 구비한 전자 장치에서 구현될 수 있으며, 본 개시의 일 실시예에 따른 동영상 편집 장치는 동영상 편집 어플리케이션을 구비한 전자 장치에 의해서 구현될 수 있다. 또는 동영상 및 자막 데이터를 처리할 수 있는 이미지 처리부 및 제어부를 구비한 전자 장치에 의해서 구현될 수도 있다.
바람직하게, 본 개시의 다양한 실시예가 적용되는 전자 장치는 휴대 가능한 전자 장치를 의미한다.
도 1은 본 개시의 다양한 실시예가 적용되는 전자 장치를 예시하는 도면으로서, 네트워크 환경(100) 내의 전자 장치(101)를 나타내는 블럭도이다. 여기서, 전자 장치(101)는 컴퓨팅 장치로 칭할 수 있으며, 전자 장치(101)는 동영상 편집 어플리케이션을 내장하거나, 외부로부터 상기 어플리케이션이 다운로드되어 설치될 수 있다.
도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제1 네트워크(198)(예: 근거리 무선 통신)를 통하여 전자 장치(102)와 통신하거나, 또는 제2 네트워크(199)(예: 원거리 무선 통신)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 인터페이스(177), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 네트워크(198, 199)를 통해 데이터를 송수신하는 통신 모듈(190) 등을 포함할 수 있다. 다른 실시예에서, 전자 장치(101)는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나 다른 구성 요소가 추가될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 구동하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 및 연산을 수행할 수 있다. 프로세서(120)는 다른 구성요소(예: 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하여 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 운영되는 보조 프로세서(123)를 포함할 수 있다. 예컨대, 보조 프로세서(123)는 메인 프로세서(121)에 추가적으로 또는 대체적으로 탑재되어, 메인 프로세서(121)보다 저전력을 사용할 수 있다. 다른 예로, 보조 프로세서(123)는 지정된 기능에 특화된 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 여기서, 보조 프로세서(123)는 메인 프로세서(121)와 별개로 또는 임베디드되어 운영될 수 있다.
이 경우, 보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 다른 예로, 보조 프로세서(123)는 메인 프로세서(121)가 액티브(예: 어플리케이션 수행) 상태에 있는 동안, 메인 프로세서(121)와 함께, 전자 장치(101)의 적어도 구성요소들과 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다.
일 실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부 구성 요소로서 구현될 수 있다. 메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120)에 의해 사용되는 다양한 데이터, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 저장할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 저장되는 소프트웨어로서, 예를 들면, 운영 체제(142), 미들웨어(144) 또는 어플리케이션(146)을 포함할 수 있다. 어플리케이션(146)은 다양한 기능 별 복수 소프트웨어를 포함할 수 있으며, 본 개시에 따른 컨텐츠 편집 어플리케이션을 가질 수 있다. 상기 편집 어플리케이션은 프로세서(140)를 통해 실행되며, 신규 영상을 생성하거나, 기존 영상을 선택하여 편집하는 소프트웨어일 수 있다.
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신하기 위한 장치로서, 예를 들면, 마이크, 마우스, 또는 키보드를 포함할 수 있다.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력하기 위한 장치일 수 있다. 예를 들면, 음향 출력 장치(155)는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용되는 스피커와, 전화 수신 전용으로 사용되는 리시버를 포함할 수 있다. 일 실시예에 따르면, 리시버는 스피커와 일체 또는 별도로 형성될 수 있다.
표시 장치(160)는 전자 장치(101)의 사용자에게 정보를 시각적으로 제공하기 위한 장치일 수 있다. 표시 장치(160)는 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시예에 따르면, 표시 장치(160)는 터치 회로(touch circuitry) 또는 터치에 대한 압력의 세기를 측정할 수 있는 압력 센서를 포함할 수 있다. 이에 대응하여, 표시 장치(160)는 터치 회로 또는 압력 센서를 기반으로, 터치 입력되는 영역의 좌표, 터치 입력되는 영역의 개수, 터치 입력되는 제스처 등을 검출할 수 있으며, 검출된 결과를 메인 프로세서(121) 또는 보조 프로세서(123)에 제공할 수 있다.
오디오 모듈(170)은 소리와 전기 신호를 쌍방향으로 변환시킬 수 있다. 일 실시예에 따르면, 오디오 모듈(170)은, 입력 장치(150)를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 유선 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102)(예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.
인터페이스(177)는 외부 전자 장치(예: 전자 장치(102))와 유선 또는 무선으로 연결할 수 있는 지정된 프로토콜을 지원할 수 있다. 일 실시예에 따르면, 인터페이스(177)는 HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102))를 물리적으로 연결시킬 수 있는 커넥터, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈, 이미지 센서, 이미지 시그널 프로세서, 또는 플래시를 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리하기 위한 모듈로서, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구성될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급하기 위한 장치로서, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 유선 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 데이터 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되는, 유선 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함하고, 그 중 해당하는 통신 모듈을 이용하여 제1 네트워크(198)(예: 블루투스, BLE(bluetooth low energy), WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 상술한 여러 종류의 통신 모듈(190)은 하나의 칩으로 구현되거나 또는 각각 별도의 칩으로 구현될 수 있다.
상기 구성요소들 중 일부 구성요소들은 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input/output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되어 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일 실시예에 따르면, 명령 또는 데이터는 제2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 전자 장치(102, 104) 각각은 전자 장치(101)와 동일하거나 다른 종류의 장치일 수 있다. 일 실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 적어도 일부는 다른 하나 혹은 복수의 외부 전자 장치에서 실행될 수 있다. 일 실시예에 따르면, 전자 장치(101)가 자동으로 또는 요청에 의하여 특정 기능이나 서비스를 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 기능, 서비스와 연관된 적어도 일부 기능을 외부 전자 장치에게 요청할 수 있다. 상기 요청을 수신한 외부 전자 장치는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
도 2는 본 개시의 다양한 실시예가 적용되는 전자 장치의 시스템 계층 구조를 설명하기 위한 도면이다.
도 2를 참고하면, 전자 장치(200)는 전술한 도 1의 전자 장치(100)에 대응되는 하드웨어 계층(210), 하드웨어 계층(210)의 상위 계층으로서 하드웨어 계층(210)을 관리하는 운영체제(Operating System: OS) 계층(220), OS 계층(220)의 상위 계층으로서 프레임워크(frame work) 계층(230), 및 어플리케이션 계층(240)을 포함하여 구성될 수 있다.
OS 계층(220)은 하드웨어 계층(210)의 전반적인 동작을 제어하고 하드웨어 계층(210)을 관리하는 기능을 수행한다. 즉, OS 계층(220)은 하드웨어 관리와 메모리, 보안 등의 기본적인 기능을 담당하는 계층이다. OS 계층(220)은 표시 장치를 구동시키기 위한 디스플레이 드라이버, 카메라 모듈을 구동시키기 위한 카메라 드라이버, 오디오 모듈을 구동시키기 위한 오디오 드라이버 등 전자 장치에 구비된 하드웨어 장치를 운용 또는 구동하기 위한 드라이버를 포함할 수 있다. 또한, OS 계층(220)은 개발자가 접근할 수 있는 라이브러리와 런타임(runtime)이 포함될 수 있다.
OS 계층(220)보다 상위 계층으로 프레임워크(frame work) 계층(230)이 존재하는데, 프레임워크 계층(230)은 어플리케이션 계층(240)과 OS 계층(220)을 연결하는 역할을 수행한다. 즉, 프레임워크 계층(230)은 로케이션 매니저(location manager), 알림 매니저(notification manager) 및 디스플레이부에 영상을 표시하기 위한 프레임 버퍼(frame buffer)를 포함한다.
프레임워크 계층(230) 상부 계층에는 전자 장치(100)의 다양한 기능을 구현하는 어플리케이션 계층(240)이 위치한다. 예컨대, 어플리케이션 계층(240)에는 통화 어플리케이션(241), 동영상 편집 어플리케이션(242), 카메라 어플리케이션(243), 브라우저 어플리케이션(244) 및 제스처 어플리케이션(245) 등 다양한 응용 프로그램이 포함될 수 있다.
나아가, OS 계층(220)은 어플리케이션 계층(240)에 포함된 적어도 하나의 어플리케이션 또는 응용 프로그램을 추가 또는 삭제할 수 있는 메뉴 또는 UI를 제공할 수 있으며, 이를 통해 어플리케이션 계층(240)에 포함된 적어도 하나의 어플리케이션 또는 응용 프로그램은 사용자에 의해 추가 또는 삭제될 수 있다. 예컨대, 전술한 바와 같이 도 1의 전자 장치(100)는 통신을 통해 다른 전자 장치(102, 104) 또는 서버(108)와 연결될 수 있으며, 사용자의 요청에 의해 다른 전자 장치(102, 104) 또는 서버(108)로부터 제공되는 데이터(즉, 적어도 하나의 어플리케이션 또는 응용 프로그램)를 수신 및 저장하여 메모리에 수록할 수 있다. 이때, 메모리에 저장된 적어도 하나의 어플리케이션 또는 응용 프로그램은 어플리케이션 계층(240)에 구성되어 동작될 수 있다. 또한, OS 계층(220)에서 제공하는 메뉴 또는 UI를 사용하여 적어도 하나의 어플리케이션 또는 응용 프로그램이 사용자에 의해 선택될 수 있으며, 선택된 적어도 하나의 어플리케이션 또는 응용 프로그램을 삭제 처리할 수 있다.
한편, 어플리케이션 계층(240)을 통해 입력되는 사용자 제어 명령이 전자 장치(100)에 입력되면 어플리케이션 계층(240)부터 하드웨어 계층(210)까지 전달되면서 입력된 제어 명령에 대응하는 특정 어플리케이션이 실행되고, 그 결과가 표시 장치(160)에 표시될 수 있다.
도 3은 본 개시의 다양한 실시예가 적용되는 동영상 편집 방법의 순서를 예시하는 흐름도이다.
도 3을 참조하면, 우선, 동영상 편집 방법은 전술한 전자 장치(또는 컴퓨팅 장치)에 의해 동작될 수 있으며, 사용자의 입력에 의해 동영상 편집 어플리케이션이 선택 및 실행됨에 따라 그 동작이 개시될 수 있다(S105).
동영상 편집 어플리케이션이 실행되면, 전자 장치는 동영상 편집 어플리케이션의 초기 화면을 표시 장치(예: 디스플레이)에 출력할 수 있다. 초기 화면에는 신규 영상 프로젝트를 생성하는 메뉴(또는 UI)와, 미리 편집중인 영상 프로젝트를 선택할 수 있는 영상 프로젝트 선택 메뉴(또는 UI)가 제공될 수 있다. 이러한 초기 화면에서, 사용자에 의해 신규 영상 프로젝트를 생성하는 메뉴(또는 UI)가 선택될 경우 S115 단계를 진행하고, 영상 프로젝트 선택 메뉴(또는 UI)가 선택될 경우 S125 단계를 진행할 수 있다(S310).
S115 단계에서, 전자 장치는 신규 영상 프로젝트의 기본정보를 설정하는 메뉴(또는 UI)를 제공하고, 상기 메뉴(또는 UI)를 통해 입력되는 기본정보를 신규 영상 프로젝트에 설정 및 적용할 수 있다. 예컨대, 기본정보는 신규 영상 프로젝트의 화면 비율을 포함할 수 있다. 이에 기초하여, 전자 장치는 16:9, 9:16, 1:1 등의 화면 비율을 선택할 수 있는 메뉴(또는 UI)를 제공할 수 있으며, 상기 메뉴(또는 UI)를 통해 입력되는 화면 비율을 신규 영상 프로젝트에 설정 및 적용할 수 있다.
이후, 전자 장치는 S115 단계에서 설정된 기본정보를 반영하여, 신규 영상 프로젝트를 생성하고, 생성된 신규 영상 프로젝트를 저장매체에 저장할 수 있다(S304).
비록, 본 개시의 일 실시예에서 기본정보로서 화면 비율을 예시하고 있으나, 본 개시가 이를 한정하는 것은 아니며, 본 개시의 기술분야에서 통상의 지식을 가진자에 의해 다양하게 변경될 수도 있다. 예컨대, 전자 장치는 마스터 볼륨의 자동 조절, 마스터 볼륨의 크기, 오디오 페이드인 기본 설정, 오디오 페이드 아웃 기본 설정, 동영상 페이드인 기본 설정, 동영상 페이드 아웃 기본 설정, 이미지 클립의 기본 설정, 레이어 길이의 기본 설정, 및 이미지 클립의 팬&줌 기본 설정 중, 적어도 하나를 설정할 수 있는 메뉴(또는 UI)를 제공할 수 있으며, 상기 메뉴(또는 UI)를 통해 입력되는 값을 신규 영상 프로젝트의 기본정보로서 설정할 수 있다.
다른 예로서, 전자 장치는 화면 비율, 마스터 볼륨의 자동 조절, 마스터 볼륨의 크기, 오디오 페이드인 기본 설정, 오디오 페이드 아웃 기본 설정, 동영상 페이드인 기본 설정, 동영상 페이드 아웃 기본 설정, 이미지 클립의 기본 설정, 레이어 길이의 기본 설정, 및 이미지 클립의 팬&줌 기본 설정을 미리 정해진 값으로 자동 설정할 수 있다. 그리고, 전자 장치는 설정 메뉴(또는 UI)를 제공하고, 설정 메뉴(또는 UI)를 통해, 화면 비율, 마스터 볼륨의 자동 조절, 마스터 볼륨의 크기, 오디오 페이드인 기본 설정, 오디오 페이드 아웃 기본 설정, 동영상 페이드인 기본 설정, 동영상 페이드 아웃 기본 설정, 이미지 클립의 기본 길이 설정, 레이어 길이의 기본 설정, 및 이미지 클립의 팬&줌 기본 설정 등을 제어값을 입력받고, 입력받은 값에 맞춰 전술한 기본정보를 설정할 수도 있다.
한편, S115 단계에서, 전자 장치는 저장매체에 저장된 영상 프로젝트를 포함하는 프로젝트 리스트를 제공하고, 프로젝트 리스트에 포함된 적어도 하나의 영상 프로젝트를 선택할 수 있는 환경을 제공할 수 있다. 전술한 환경을 통해, 사용자는 프로젝트 리스트에 포함된 적어도 하나의 영상 프로젝트를 선택할 수 있으며, 전자 장치는 사용자에 의해 선택된 적어도 하나의 영상 프로젝트 로드할 수 있다(S130).
S135 단계에서, 전자장치는 편집 UI를 제공할 수 있다. 편집 UI는 영상 표시창(401), 미디어 설정창(402), 미디어 입력창(403), 클립 표시창(404), 클립 설정창(405) 등을 포함할 수 있다. 편집 UI에서, 영상 표시창, 미디어 설정창, 및 미디어 입력창은 디스플레이의 상부에 표시될 수 있으며, 클립 표시창 및 클립 설정창은 디스플레이의 하부에 표시될 수 있다.
미디어 설정창은 내보내기 메뉴, 캡쳐 메뉴, 설정 메뉴 등을 포함할 수 있으며, 내보내기 메뉴, 캡쳐 메뉴, 설정 메뉴 등은 해당 메뉴를 인지할 수 있는 아이콘 형태 또는 텍스트 형태로 구비될 수 있다.
미디어 입력창은 미디어 입력 메뉴(403a), 레이어 입력 메뉴(403b), 오디오 입력 메뉴(403c), 음성 입력 메뉴(403d), 촬영 메뉴(403e) 등을 포함할 수 있으며, 미디어 입력 메뉴(403a), 레이어 입력 메뉴(403b), 오디오 입력 메뉴(403c), 음성 입력 메뉴(403d), 촬영 메뉴(403e) 등은 해당 메뉴를 인지할 수 있는 아이콘 또는 텍스트 형태로 구비될 수 있다. 또한, 각각의 메뉴는 하위 메뉴를 포함할 수 있으며, 각 메뉴가 선택됨에 따라, 전자장치는 그에 대응되는 하위 메뉴를 구성하여 표시할 수 있다.
예를 들어, 미디어 입력 메뉴(403a)는 하위 메뉴로서 미디어 선택창에 연결될 수 있으며, 미디어 선택창은 저장매체에 저장된 미디어를 선택할 수 있는 환경을 제공할 수 있다. 미디어 선택창을 통해 선택된 미디어는 클립 표시창에 삽입되어 표시될 수 있다. 전자장치는 미디어 선택창을 통해 선택된 미디어의 종류를 확인할 수 있으며, 확인된 미디어의 종류를 고려하여 해당 미디어의 클립 시간을 설정하여 클립 표시창에 삽입 및 표시할 수 있다. 여기서, 미디어의 종류는 이미지, 동영상 등을 포함할 수 있다. 미디어의 종류가 이미지일 경우, 전자장치는 이미지 클립의 기본 길이 설정값을 확인하고, 이미지 클립의 기본 길이 설정값에 맞춰 이미지 클립 시간을 설정할 수 있다. 그리고, 미디어의 종류가 동영상일 경우, 전자장치는 해당 미디어의 길이에 맞춰 동영상 클립의 시간을 설정할 수 있다.
레이어 입력 메뉴(403b)의 하위 메뉴로서, 미디어 입력 메뉴, 효과 입력 메뉴, 오버레이 입력 메뉴, 텍스트 입력 메뉴, 미디어 입력 메뉴, 드로잉 입력 메뉴를 포함할 수 있다.
미디어 입력 메뉴는 전술한 미디어 입력 메뉴와 동일하게 구성될 수 있다.
효과 입력 메뉴는 블러(blur) 효과, 모자이크 효과, 노이즈 효과, 모래폭풍 효과, 멜팅 포인트 효과, 크리스탈 효과, star filter 효과, 디스플레이 보드 효과, 아지랑이 효과, 어안 렌즈 효과, 돋보기 렌드 효과, 플라워 트위스트 효과, 야간 투시경 효과, 스케치 효과 등을 선택할 수 있는 환경을 제공할 수 있다. 효과 입력 메뉴를 통해 선택된 효과는 클립 표시창에 삽입되어 표시될 수 있다. 이때, 전자장치는 레이어 길이의 기본 설정값을 확인하고, 레이어 길이의 기본 설정값에 맞춰 효과 클립 시간을 설정할 수 있다.
오버레이 입력 메뉴는 다양한 형태 또는 형상의 스티커, 아이콘을 선택할 수 있는 환경을 제공할 수 있다. 오버레이 입력 메뉴를 통해 선택된 스티커, 아이콘 등은 클립 표시창에 삽입되어 표시될 수 있다. 이때, 전자장치는 레이어 길이의 기본 설정값을 확인하고, 레이어 길이의 기본 설정값에 맞춰 스티커, 아이콘 등의 클립 시간을 설정할 수 있다.
텍스트 입력 메뉴는 텍스트를 입력할 수 있는 환경, 예를 들어, 쿼티(Qwety) 키보드를 제공할 수 있다. 텍스트 입력 메뉴를 통해 입력된 텍스트는 클립 표시창에 삽입되어 표시될 수 있다. 이때, 전자장치는 레이어 길이의 기본 설정값을 확인하고, 레이어 길이의 기본 설정값에 맞춰 텍스트 클립 시간을 설정할 수 있다.
드로잉 입력 메뉴는 영상 표시창에 드로잉 영역을 제공하며, 영상 표시창에 터치 입력되는 영역에 드로잉 개체를 표시하도록 구성될 수 있다. 손글씨 입력 메뉴는 하위 메뉴로서 드로잉 기구를 선택하는 드로잉 기구 선택 메뉴, 드로잉 색상을 선택하는 색상 선택 메뉴, 드로잉 개체의 굵기를 설정하는 굵기 설정 메뉴, 생성된 드로잉 개체를 삭제하는 부분 지우기 메뉴, 드로잉된 전체 개체를 삭제하는 전체 지우기 메뉴 등을 포함할 수 있다. 또한, 손글씨 입력 메뉴가 선택될 경우, 전자장치는 레이어 길이의 기본 설정값을 확인하고, 레이어 길이의 기본 설정값에 맞춰 드로잉 개체 클립 시간을 설정할 수 있다.
오디오 입력 메뉴(403c)는 하위 메뉴로서 오디오 선택창에 연결될 수 있으며, 오디오 선택창은 저장매체에 저장된 오디오 파일을 선택할 수 있는 환경을 제공할 수 있다. 오디오 선택창을 통해 선택된 오디오 파일은 클립 표시창에 삽입되어 표시될 수 있다.
음성 입력 메뉴(403d)는 마이크를 통해 입력되는 소리를 녹음하기 위한 메뉴일 수 있다. 사용자에 의해 음성 입력 메뉴가 선택될 경우, 전자 장치는 장치에 구비된 마이크로폰을 활성화하여 마이크에서 입력되는 음성 신호를 검출할 수 있다. 그리고, 전자 장치는 녹음 시작 버튼을 표시할 수 있으며, 녹음 시작 버튼이 입력될 경우, 은선 신호의 녹음을 개시할 수 있다. 나아가, 전자 장치는 마이크에서 입력되는 음성 신호를 시각화하여 표시할 수 있다. 예컨대, 전자 장치는 음성 신호의 크기 또는 주파수 특성을 확인하고, 확인된 특성을 레벨 미터 또는 그래프 형태로 표시할 수 있다.
촬영 메뉴(403e)는 전자 장치에 구비된 카메라 모듈을 통해 입력되는 이미지 또는 영상을 촬영하기 위한 메뉴일 수 있다. 촬영 메뉴(403e)는 카메라 장치를 시각화한 아이콘 등을 통해 표시할 수 있다. 촬영 메뉴(403e)는 그 하위 메뉴로서 이미지 촬영을 위한 카메라 또는 영상 촬영을 위한 캠코더 등을 선택하는 이미지/영상 촬영 선택 메뉴를 구비할 수 있다. 이에 기초하여, 사용자에 의해 촬영 메뉴(403e)가 선택될 경우, 전자 장치는 이미지/영상 촬영 선택 메뉴를 디스플레이 할 수 있다. 그리고, 전자 장치는 이미지/영상 촬영 선택 메뉴를 통해 선택되는 바에 따라, 카메라 모듈의 이미지 촬영 모드 또는 영상 촬영 모드를 활성화할 수 있다.
클립 표시창(404)은 미디어 입력창을 통해 입력되는 미디어, 효과, 오버레이, 텍스트, 드로잉, 오디오, 음성 신호 등에 대응되는 클립을 표시하는 적어도 하나의 클립라인을 포함할 수 있다.
클립라인은 메인 클립라인(404a)과 서브 클립라인(404b)을 포함할 수 있으며, 클립 표시창의 최상단에 구비되는 클립라인을 메인 클립라인(404a)으로 지칭하며, 메인 클립라인(404a)의 하단에 구비되는 적어도 하나의 클립라인을 서브 클립라인(404b)으로 지칭할 수 있다.
전자 장치는 클립 표시창의 최상단에 메인 클립라인(404a)을 고정하여 표시할 수 있으며, 서브 클립라인(404b)이 존재하는 영역을 기준으로 드래그 입력을 확인하고 드래그 입력의 방향에 대응하여 서브 클립라인(404b)을 상하로 스크롤하여 표시할 수 있다.
나아가, 드래그 입력의 방향이 상부 방향으로 확인될 경우 전자 장치는 서브 클립라인(404b)을 상부 영역으로 이동시켜 표시하고, 드래그 입력의 방향이 하부 방향으로 확인될 경우 전자 장치는 서브 클립라인(404b)을 하부 영역으로 이동시켜 표시할 수 있다. 또한, 전자장치는 서브 클립라인(404b)의 이동에 대응하여 메인 클립라인(404a)의 상하 폭을 다르게 표시할 수 있다. 예컨대, 서브 클립라인(404b)이 상부로 이동할 경우 메인 클립라인(404a)의 상하 폭을 줄여서 표시하고, 서브 클립라인(404b)이 하부로 이동할 경우 메인 클립라인(404a)의 상하 폭을 늘여서 표시할 수 있다.
특히, 클립 표시창은 영상 프로젝트의 시간을 나타내는 시간 표시라인(404c) 및 기준선(Play Head)(404d)을 포함할 수 있다. 시간 표시라인(404c)은 전술한 메인 클립라인(404a)의 상부에 표시될 수 있으며, 미리 정해진 단위의 눈금 또는 숫자를 포함할 수 있다. 그리고, 기준선(404d)은 시간 표시라인(404c)에서 시작되어 클립 표시창의 하단부까지 수직으로 연결된 선으로 표시될 수 있으며, 사용자에게 용이하게 인식될 수 있는 색상(예: 빨간색)으로 표시될 수 있다.
나아가, 기준선(404d)은 미리 정해진 영역에 고정된 형태로 구비될 수 있으며, 클립 표시창에 구비된 메인 클립라인(404a) 및 서브 클립라인(404b)에 포함된 개체와 시간 표시라인(404c)은 좌우 방향으로 이동할 수 있도록 구성될 수 있다.
예컨대, 메인 클립라인(404a), 서브 클립라인(404b), 시간 표시라인(404c) 등이 위치한 영역에 좌우방향으로 드래그 입력이 발생될 경우, 전자장치는 메인 클립라인(404a) 및 서브 클립라인(404b)에 포함된 개체와 시간 표시라인(404c)을 좌우방향으로 이동하여 표시할 수 있다. 이때, 전자장치는 기준선(404d)에 대응되는 프레임 또는 개체를 영상 표시창에 표시하도록 구성할 수 있다. 또한, 전자장치는 기준선(404d)이 접하는 세부 시간(예컨대, 1/1000초 단위)을 확인하고 확인된 세부시간을 클립 표시창에 함께 표시할 수도 있다.
또한, 전자 장치는 클립 표시창에서 멀티터치의 발생여부를 확인할 수 있으며, 멀티터치가 발생될 경우 멀티터치에 대응하여 시간 표시라인(404c)에 포함된 미리 정해진 단위의 눈금 또는 숫자를 변경하여 표시할 수 있다. 예컨대, 멀티터치의 간격이 점차 줄어드는 입력이 확인되는 경우, 전자 장치는 눈금 또는 숫자의 간격을 줄일 수 있다. 멀티터치의 간격이 점차 늘어나는 입력이 확인되는 경우, 전자 장치는 눈금 또는 숫자의 간격을 늘여 표시할 수 있다.
전자 장치는 클립라인에 표시되는 클립을 선택할 수 있도록 클립 표시창(404)을 구성할 수 있으며, 클립의 선택 시 해당 클립이 선택되었음을 시각화하여 표시할 수 있다. 예컨대, 클립의 선택이 감지될 경우, 전자 장치는, 선택된 클립의 바운더리에 클립 선택기를 제공할 수 있으며, 클릭 선택기는 미리 정해진 색상, 예컨대, 노란색으로 표시될 수 있다.
바람직하게, 클립의 선택이 감지될 경우, 전자 장치는 선택된 클립을 편집할 수 있는 클립 편집 UI를 제공할 수 있다. 예를 들어, 전자 장치는 미디어 입력창(403)이 존재하는 영역에, 클립 편집 UI를 표시할 수 있다. 클립 편집 UI는 선택된 클립의 종류에 따라 다르게 설정될 수 있다. 구체적으로, 클립의 종류가 영상 클립인 경우, 전자 장치는 트림/분할 메뉴(501), 팬/줌 메뉴(502), 오디오 제어 메뉴(503), 클립 그래픽 메뉴(504), 속도 제어 메뉴(505), 리버스 제어 메뉴(506), 회전/미러링 제어 메뉴(507), 필터 메뉴(508), 밝기/대비 조정 메뉴(509), 음성 EQ 제어 메뉴(510), 상세 볼륨 제어 메뉴(511), 음성 변조 메뉴(512), 비네트(vignette) 제어 메뉴(513), 오디오 추출 메뉴(514) 등을 포함하여 클립 편집 UI(500)를 구성 및 제공할 수 있다.
클립의 종류별 클립 편집 UI는 영상 편집 UI의 구조를 기반으로 구성될 수 있다.
추가적으로, 전자 장치는 미디어 설정창이 존재하는 영역에, 클립 편집 확장 UI(530)를 더 표시할 수 있다. 미디어 설정창의 영역에 표시되는 클립 편집 확장 UI 역시 선택된 클립의 종류에 따라 다르게 설정될 수 있다. 예컨대, 클립의 종류가 영상 클립, 이미지 클립, 오디오 클립, 또는 음성신호 클립인 경우, 전자 장치는 클립 삭제 메뉴, 클립 복제 메뉴, 클립의 레이어 복제 메뉴 등을 포함하여 클립 편집 확장 UI(530)를 구성 및 제공할 수 있으며, 클립의 종류가 영상 클립, 이미지 클립, 오디오 클립, 또는 음성신호 클립인 경우, 전자 장치는 클립 삭제 메뉴, 클립 복제 메뉴, 클립의 레이어 복제 메뉴 등을 포함하여 클립 편집 확장 UI를 구성 및 제공할 수 있으며, 효과 클립, 텍스트 클립, 오버레이 클립, 또는 드로잉 클립인 경우, 전자장치는 클립 삭제 메뉴, 클립 복제 메뉴, 맨 앞으로 가져오기 메뉴, 앞으로 가져오기 메뉴, 뒤로 보내기 메뉴, 맨 뒤로 보내기 메뉴, 수평 가운데 정렬 메뉴, 수직 가운데 정렬 메뉴 등을 포함하여 클립 편집 확장 UI를 구성 및 제공할 수 있다.
클립 설정창은 클립 확대 표시 메뉴(550) 및 클립 이동 제어 메뉴(560)를 포함할 수 있다. 사용자에 의해 클립 확대 표시 메뉴(550)가 선택될 경우, 전자장치는 클립 표시창이 디스플레이의 전체 영역으로 확대하여 표시할 수 있다. 그리고, 클립 이동 제어 메뉴(560)가 선택될 경우, 전자장치는 클립을 기준선에 맞춰 이동하여 표시할 수 있다. 나아가, 클립 이동 제어 메뉴(560)는 시작영역 이동 메뉴 또는 끝영역 이동 메뉴를 포함할 수 있으며, 시작영역 이동 메뉴 또는 끝영역 이동 메뉴는 클립에 접하는 기준선의 위치를 고려하여 적응적으로 표시되는 것이 바람직하다. 예컨대, 전자장치는 시작영역 이동 메뉴를 기본적으로 제공하며, 클립이 기준선의 시작위치에 접할 경우, 시작영역 이동 메뉴를 끝영역 이동 메뉴로 대체하여 표시할 수 있다.
S140 단계에서, 전자장치는 편집 UI를 통해 입력되는 사용자 입력을 확인하고, 이에 대응되는 영상 프로젝트를 구성하고, 구성된 영상 프로젝트를 저장매체에 저장할 수 있다.
전술한 바와 같이, 편집 UI는 미디어 설정창에 내보내기 메뉴를 포함하도록 구성되는데, 사용자에 의해 내보내기 메뉴가 선택될 경우(S145의 Y), 전자장치는 영상 프로젝트에 구성된 정보를 반영하여, 영상 데이터를 구성하고 저장매체에 저장할 수 있다(S150).
본 개시의 다양한 실시예에 따른 동영상 편집 UI 제어 장치에서 제공되는 편집 UI의 구조는 이하와 같이 구성될 수 있다.
우선, 편집 UI는 기본적으로 영상 표시창(401), 미디어 설정창(402), 미디어 입력창(403), 클립 표시창(404), 클립 설정창(405) 등을 포함할 수 있는데, 미디어 입력창(403)을 통해 선택되는 적어도 하나의 클립이 클립 표시창(404)에 표시될 수 있다. 그리고, 클립 표시창(404)에 포함된 적어도 하나의 클립(404a, 404b)이 선택됨에 따라, 미디어 입력창(403)이 존재하는 영역에는 클립 편집 메뉴(501,502, ...514)가 제공될 수 있다. 이때, 클립 편집 메뉴(501,502, ...514)는 클립 종류별 편집 UI의 구조에 따라 적응적으로 제공될 수 있다.
영상 클립 편집 메뉴는, 트림/분할 메뉴, 팬/줌 메뉴, 오디오 제어 메뉴, 클립 그래픽 메뉴, 속도 제어 메뉴, 리버스 제어 메뉴, 회전/미러링 메뉴, 필터 메뉴, 밝기/대비/감마 제어 메뉴, 음성 EQ 제어 메뉴, 상세 볼륨 제어 메뉴, 음성 변조 제어 메뉴, 비네팅 ON/OFF 제어 메뉴, 오디오 추출 메뉴 등을 포함할 수 있다.
트림/분할 메뉴는 하위 메뉴로서, 기준선(Play Head) 왼쪽 트림 메뉴, 기준선 오른쪽 트림 메뉴, 기준선에서 분할 메뉴, 정지화면 분할 및 삽입 메뉴 등을 포함할 수 있다.
오디오 제어 메뉴는 하위 메뉴로서, 마스터 볼륨 제어바, 효과음 볼륨 제어바, 자동볼륨 ON/OFF 메뉴, 좌우 밸런스 조정바, 음정 조절바 등을 포함할 수 있다. 그리고, 마스터 볼륨 제어바, 효과음 볼륨 제어바, 좌우 밸런스 조정바, 음정 조절바 등은 상세 조절 UI를 지원하도록 설정될 수 있으며, 이들 마스터 볼륨 제어바, 효과음 볼륨 제어바, 좌우 밸런스 조정바, 음정 조절바 등은 메인 편집 UI로 관리될 수 있다. 메인 편집 UI로 설정된 UI는 상세 조절 UI를 함께 표시하도록 구성될 수 있다. 다른 예로서, 상세 조절 UI가 지원되도록 설정된 메인 편집 UI가 존재하는 영역에서 미리 정해진 시간(예: 1초) 이상 터치 입력이 발생될 경우, 하위 메뉴로서 상세 조절 UI를 활성화하도록 구성될 수 있다.
클립 그래픽 메뉴는 클립 내에 삽입될 적어도 하나의 그래픽을 선택할 수 있도록 구성될 수 있다.
속도 제어 메뉴는 미리 정해진 적어도 하나의 속도 조절 버튼(예: 1x, 4x, 8x), 속도 조절바, 음소거 ON/OFF 메뉴, 음정유지 ON/OFF 메뉴 등을 포함할 수 있다. 그리고, 속도 조절바는 메인 편집 UI로서 관리될 수 있다.
리버스 제어 메뉴는 해당 클립에 포함된 영상의 리버스 처리를 수행하도록 구성될 수 있다.
음성 EQ 제어 메뉴는 영상에 적용될 적어도 하나의 음성 EQ를 선택할 수 있도록 구성될 수 있다.
필터 메뉴는 영상에 적용될 적어도 하나의 영상 필터를 선택할 수 있도록 구성될 수 있다.
밝기/대비/감마 제어 메뉴는 영상의 밝기/대비/감마값을 제어할 수 있도록, 밝기 조절바, 대비 조절바, 감마 조절바 등을 하위메뉴로서 포함할 수 있으며, 밝기 조절바, 대비 조절바, 감마 조절바 등은 메인 편집 UI로서 관리되며, 상세 조절 UI를 지원하도록 설정될 수 있다.
회전/미러링 메뉴는 하위 메뉴로서, 수평 미러링 메뉴, 수직 미러링 메뉴, 반시계방향 회전 메뉴, 시계방향 회전 메뉴 등을 포함할 수 있으며, 반시계방향 회전 메뉴, 시계방향 회전 메뉴는 메인 편집 UI로서 관리되며, 상세 조절 UI를 지원하도록 설정될 수 있다.
상세 볼륨 제어 메뉴는 영상에 포함된 음성의 크기를 제어하기 위한 메뉴로서, 제어 포인트 추가 메뉴, 제어 포인트 삭제 메뉴, 음성 조절바 등을 포함할 수 있으며, 음성 조절바는 메인 편집 UI로서 관리되며, 상세 조절 UI를 지원하도록 설정될 수 있다.
음성 변조 제어 메뉴는 영상에 적용될 적어도 하나의 음성 변조 방식을 선택할 수 있도록 구성될 수 있다.
한편, 이미지 클립 편집 메뉴는, 트림/분할 메뉴, 팬/줌 메뉴, 회전/미러링 제어 메뉴, 클립 그래픽 메뉴, 필터 메뉴, 밝기/대비/감마 제어 메뉴, 비네팅 ON/OFF 제어 메뉴 등을 포함할 수 있으며, 이러한 메뉴들은 도 6a에 예시된 제어 메뉴와 유사하게 구성될 수 있다.
또한, 효과 클립 편집 메뉴는 효과 설정 메뉴, 투명도 제어 메뉴, 트림/분할 메뉴, 회전/미러링 제어 메뉴 등을 포함할 수 있는데, 트림/분할 메뉴, 회전/미러링 제어 메뉴 등은 영상 클립 편집 메뉴와 유사하게 구성될 수 있다. 그리고, 효과 설정 메뉴 및 투명도 제어 메뉴는 하위 메뉴로서 각각 효과 설정바 및 투명도 조절바를 포함할 수 있는데, 효과 설정바 및 투명도 조절바는 메인 편집 UI로서 관리되며, 상세 조절 UI를 지원하도록 설정될 수 있다.
오버레이 클립 편집 메뉴는 오버레이 색상 설정 메뉴, 투명도 제어 메뉴, 트림/분할 메뉴, 회전/미러링 제어 메뉴, 혼합 종류 설정 메뉴 등을 포함할 수 있는데, 트림/분할 메뉴, 회전/미러링 제어 메뉴 등은 영상 클립 편집 메뉴와 유사하게 구성될 수 있다. 그리고, 투명도 제어 메뉴는 하위 메뉴로서 투명도 조절바를 포함할 수 있는데, 투명도 조절바는 메인 편집 UI로서 관리되며, 상세 조절 UI를 지원하도록 설정될 수 있다.
아울러, 텍스트 클립 편집 메뉴는 텍스트 폰트 설정 메뉴, 텍스트 색상 설정 메뉴, 트림/분할 메뉴, 투명도 제어 메뉴, 회전/미러링 제어 메뉴, 텍스트 정렬 방식 설정 메뉴, 그림자 ON/OFF 메뉴, 글로우 ON/OFF 메뉴, 윤곽선 ON/OFF 메뉴, 배경색 ON/OFF 메뉴, 혼합 종류 설정 메뉴 등을 포함할 수 있는데, 트림/분할 메뉴, 투명도 제어 메뉴, 회전/미러링 제어 메뉴 등은 영상 클립 편집 메뉴와 유사하게 구성될 수 있다. 그리고, 그림자 ON/OFF 메뉴, 글로우 ON/OFF 메뉴, 윤곽선 ON/OFF 메뉴, 배경색 ON/OFF 메뉴 등은 하위 메뉴로서 각각 색상을 설정하는 색상 조절바(예: R/G/B 조절바) 또는 투명도를 조정하는 투명도 조절바를 포함할 수 있으며, 색상 조절바(예: R/G/B 조절바) 또는 투명도 조절바는 메인 편집 UI로서 관리되며, 상세 조절 UI를 지원하도록 설정될 수 있다.
또한, 드로잉 클립 편집 메뉴는 투명도 제어 메뉴, 트림/분할 메뉴, 회전/미러링 제어 메뉴, 혼합 종류 설정 메뉴 등을 포함할 수 있는데, 트림/분할 메뉴, 회전/미러링 제어 메뉴 등은 오버레이 클립 편집 메뉴와 유사하게 구성될 수 있다. 그리고, 투명도 제어 메뉴는 하위 메뉴로서 투명도 조절바를 포함할 수 있는데, 투명도 조절바는 메인 편집 UI로서 관리되며, 상세 조절 UI를 지원하도록 설정될 수 있다.
또한, 오디오 클립 편집 메뉴는 오디오 제어 메뉴, 음성 EQ 제어 메뉴, 상세 볼륨 제어 메뉴, 음성 변조 제어 메뉴, Ducking ON/OFF 제어 메뉴, 반복 ON/OFF 제어 메뉴, 트림/분할 메뉴 등을 포함할 수 있다. 오디오 제어 메뉴, 음성 EQ 제어 메뉴, 상세 볼륨 제어 메뉴, 음성 변조 제어 메뉴, 트림/분할 메뉴 등은 영상 클립 편집 메뉴와 유사하게 구성될 수 있다.
도 6은 본 개시의 다양한 실시예에 따른 동영상 편집 UI 제어 장치의 구성을 예시하는 블록도이다.
도 6을 참조하면, 본 개시의 실시예에 따른 동영상 편집 UI 제어 장치(60)는 편집 UI 표시부(61), 사용자 입력 확인부(63), 및 편집 UI 처리부(65)를 포함할 수 있다.
편집 UI 표시부(61)는 전술한 편집 UI를 표시 장치(예: 디스플레이)에 시각화하여 표시할 수 있으며, 특히, 편집 UI 처리부(65)에서 출력이 요청되는 메뉴 또는 UI를 확인하여 표시 장치(예: 디스플레이)에 출력할 수 있다.
여기서, 편집 UI는 미리 정해진 형태 및 크기로 이루어진 적어도 하나의 메뉴 또는 UI를 포함하고, 적어도 하나의 메뉴 또는 UI가 정해진 영역에 위치하여 표시되도록 구성될 수 있다.
사용자 입력 확인부(63)는 전술한 표시 장치(예를 들어, 도 1의 160)를 통해 터치 입력되는 영역의 좌표, 터치 입력되는 영역의 개수, 터치 입력되는 제스처 등을 기반으로, 사용자 입력 발생 좌표, 사용자 입력의 종류(예컨대, 싱글 터치 입력, 멀티 터치 입력, 싱글 제스처 입력, 멀티 제스처 입력 등), 제스처(싱글 또는 멀티 제스처) 입력의 방향 등과 같은 사용자 입력 정보를 확인하고, 확인된 사용자 입력 정보를 편집 UI 처리부(65)에 제공할 수 있다.
편집 UI 처리부(65)는 사용자 입력 확인부(63)가 제공하는 사용자 입력 정보를 확인하고, 사용자 입력 정보에 대응되는 동작을 처리할 수 있다. 예를 들어, 편집 UI 처리부(65)는 사용자 입력 발생 좌표를 확인하고, 확인된 좌표에 존재하는 메뉴 또는 UI에 대응되는 동작을 확인 및 처리할 수 있다. 다른 예로서, 편집 UI 처리부(65)는 확인된 좌표에 존재하는 메뉴 또는 UI의 하위 메뉴 또는 하위 UI를 확인하고, 확인된 하위 메뉴 또는 하위 UI를 편집 UI 표시부(61)로 출력 요청할 수 있다.
특히, 편집 UI 처리부(65)는 편집이력관리 UI를 제공하기 위한 편집이력관리 UI 처리부(67)를 포함할 수 있으며, 편집이력관리 UI 처리부(67)는 편집 이벤트 검출부(67a), 편집이력 관리부(67b), 및 편집이력정보 제공부(67c)를 포함할 수 있다.
편집 이벤트 검출부(67a)는 영상 프로젝트에 대한 편집을 수행하면서 발생되는 편집 이벤트를 수집하고, 이에 대응되는 정보를 검출하여 편집이력 관리부(67b)에 제공할 수 있다. 예를 들어, 편집 이벤트 검출부(67a)는 편집 UI를 통해 발생된 편집 이벤트를 식별할 수 있는 이벤트 식별자를 생성하여 제공할 수 있다. 또한, 편집 이벤트 검출부(67a)는 편집 이벤트에 의해 수행되는 편집 내용을 요약하는 정보를 더 제공할 수 있다. 이때, 편집 내용을 요약하는 정보는 편집 이벤트 검출부(67a)에 의해 자동으로 구성되거나, 또는 사용자의 입력에 의해 구성될 수 있다. 본 개시의 실시예에서의 편집 이벤트는, 영상 프로젝트를 편집하는 각각의 편집 단계를 의미할 수 있다.
편집이력 관리부(67b)는 영상 프로젝트 단위의 편집이력에 대한 정보를 수록하여 관리할 수 있다. 편집이력 관리부(67b)는 편집 이벤트 검출부(67a)로부터 제공되는 편집 이벤트 정보를 저장 및 관리할 수 있다. 또한, 편집이력 관리부(67b)는 편집 이벤트 정보에 대한 인덱스 정보를 구성하여 저장 및 관리할 수 있다. 나아가, 편집이력 관리부(67b)는 편집이력 정보를 구성함에 있어서, 데이터 생성 시간, 데이터 업데이트 시간, 데이터 요약 설명, 작성자 등의 정보를 포함하여 구성할 수 있다. 이러한 편집이력 정보는 메타 데이터 포맷으로 구성될 수 있다.
예컨대, 편집이력 관리부(67b)는 편집 이벤트 검출부(67a)로부터 수신되는 정보에 기초하여 도 7에 도시된 바와 같이, 편집이력 정보(Metadata)(710), 인덱스 정보(720)와 인덱스 정보에 대응하는 편집 이벤트 정보(730)를 포함하는 영상 프로젝트의 편집 과정에 대한 편집 이벤트를 저장 및 관리할 수 있다. 이때, 편집이력 관리부(67b)는 영상 프로젝트의 편집 이벤트에 대한 편집 과정을 파일 형태로 저장 및 관리할 수 있다. 편집이력 정보(710)는 영상 프로젝트 파일에 대한 데이터 생성 시간, 데이터 업데이트 시간, 데이터 요약 설명, 작성자 등을 포함하고, 인덱스 정보(720)는 영상 프로젝트 파일에서 편집 이벤트의 위치를 지정하며 해당 인덱스 정보를 통해 영상 프로젝트 파일의 편집 과정을 재생할 수 있다. 편집 이벤트 정보(730)는 해당 편집 이벤트에 대한 요약 설명과 상세 편집 내용을 포함하여, 해당 편집 이벤트 정보를 통해 해당 편집 이벤트의 영상 프로젝트를 재구성할 수 있다. 여기서, 편집 이벤트 정보의 요약 설명은 해당 편집 이벤트의 편집 과정을 설명하는 내용을 포함할 수 있다.
편집이력정보 제공부(67c)는 전술한 편집이력 정보를 사용자가 확인할 수 있는 포맷으로 변경하여 제공할 수 있다. 예컨대, 편집이력정보 제공부(67c)는 편집이력 제공 UI를 구성할 수 있으며, 편집이력 제공 UI를 통해 사용자에게 편집이력 정보를 제공할 수 있다.
예컨대, 편집이력정보 제공부(67c)는 영상 프로젝트 파일에 대한 편집이력 정보가 저장되어 있는 경우 편집이력 정보를 제공하기 위한 편집이력 제공 메뉴(도 8의 810)를 제공할 수 있다. 그리고, 사용자에 의해 편집이력 제공 메뉴(810)가 선택됨에 따라, 편집이력정보 제공부(67c)는 전술한 편집이력 정보를 확인하여 편집이력 제공 UI(도 10의 1000)를 구성 및 제공할 수 있다. 여기서, 편집이력 제공 UI(1000)는 영상 프로젝트 파일의 편집 이벤트 정보(도 7의 730)를 재생하기 위한 편집 과정 재생 모드 UI일 수 있다.
실시예에 따라, 사용자에 의해 편집이력 제공 메뉴(810)가 선택됨에 따라, 편집이력정보 제공부(67c)는 해당 영상 프로젝트 파일에 대한 편집 이벤트 단위의 리스트를 제공하기 위한 UI(도 9의 900)를 제공할 수도 있다. 편집 이벤트 리스트 UI(900)는 편집 이벤트 단위의 리스트와 리스트 중 어느 하나의 편집 이벤트의 선택 시, 선택된 편집 이벤트에 대한 상세 내역을 출력하도록 구성될 수 있다. 이때, 편집이력정보 제공부(67c)는 편집 이벤트 리스트 UI(900)에서의 사용자 입력을 통해 편집이력 제공 UI(도 10의 1000)를 구성 및 제공할 수도 있다. 일 예로, 편집이력정보 제공부(67c)는 편집 이벤트 리스트 UI(900)에서 어느 하나의 편집 이벤트가 더블 클릭되거나 별도로 구성된 편집이력 제공 메뉴가 선택됨에 따라, 편집이력 제공 UI(1000)를 제공할 수도 있다.
편집이력 제공 UI(1000)는 영상 프로젝트 파일의 편집 이벤트를 순차적으로 출력할 수 있도록 구성될 수 있다. 예컨대, 편집이력 제공 UI(1000)는 이전 편집 이벤트(1010), 현재 편집 이벤트, 다음 편집 이벤트(1020)를 선택할 수 있는 UI를 포함하고, 이전 편집 이벤트(1010), 현재 편집 이벤트, 다음 편집 이벤트(1020) 중 선택된 이벤트에 맞는 상세 내역을 출력하도록 구성될 수 있다.
다른 예로서, 편집이력 제공 UI(1000)는 편집 이벤트의 재생 메뉴를 포함할 수 있으며, 편집 이벤트의 재생 메뉴가 선택됨에 따라, 편집 이벤트의 상세 내역을 자동적으로 순차 재생하도록 구성될 수도 있다. 이때, 순차 재생은, 미리 정해진 시간 단위(예: 1초, 5초 등)를 기준으로 진행될 수 있다. 순차 재생이 진행되는 경우에는, 일시 정지 기능을 제공할 수 있으며, 일시 정지된 상태에서는 이전 단계, 다음 단계 또는 임의의 단계로 이동할 수 있는 기능을 제공할 수도 있다.
나아가, 편집이력 제공 UI(1000)는 편집 이벤트의 상세 내역을 제공함에 있어서, 편집 이벤트의 진행률(예: 진행률 50%, 7/15 단계, 전체 15단계 중 7단계 등)(1060)을 더 표시할 수 있다.
나아가, 편집이력 제공 UI(1000)는 편집 이벤트의 상세 내역을 제공함에 있어서, 현재 편집 이벤트의 설명 예를 들어, 도 10에 도시된 바와 같이, “Step7: Primary Clip 추가”(1050)를 더 표시할 수 있다. 이때, 현재 편집 이벤트의 설명(1050)은 사용자에 의해 수정될 수도 있다.
실시예에 따라, 사용자에 의해 이전 편집 이벤트(1010) 또는 다음 편집 이벤트(1020)가 선택될 경우, 편집이력정보 제공부(67c)는 이전 편집 이벤트 또는 다음 편집 이벤트에 맞는 상세 내역을 출력하면서, 편집 이벤트의 설명(1050)과 편집 이벤트의 진행률(1060)을 선택된 편집 이벤트에 맞게 변경하여 표시할 수 있다.
나아가, 편집이력 제공 UI(1000)는 선택된 편집 이벤트의 편집 단계로 진입을 요청하는 메뉴(1030)를 더 제공할 수 있다. 사용자에 의해 편집 단계로 진입을 요청하는 메뉴(1030)가 선택될 경우, 편집이력정보 제공부(67c)는 영상 프로젝트를 해당 편집 이벤트에 해당하는 편집 단계의 상태로 구성하여 제공할 수 있다.
나아가, 편집이력 제공 UI(1000)는 편집이력 제공 UI(1000)에서 빠져나와 이전 단계로 이동을 요청하는 메뉴(1040)를 더 제공할 수 있다. 사용자에 의해 이전 단계로 이동을 요청하는 메뉴(1040)가 선택될 경우, 편집이력정보 제공부(67c)는 도 8 또는 도 9의 UI를 구성하여 제공할 수도 있고, 이전 단계로 미리 설정된 UI를 구성하여 제공할 수도 있다.
나아가, 편집이력 제공 UI(1000)는 어느 하나의 임의의 편집 이벤트로 뛰어 넘어 재생할 수 있는 메뉴를 더 제공할 수도 있다.
전술한 바와 같이, 편집이력정보 제공부(67c)는 영상 프로젝트 파일을 선택하여 편집이력 제공 메뉴(810)를 제공할 수 있지만, 영상 프로젝트 파일에 대해 저장된 편집이력 정보 파일을 직접 선택함으로써, 선택된 편집이력 정보 파일에 대한 편집이력 제공 메뉴(810)를 제공할 수도 있다.
그리고, 편집 UI 처리부(65)는 영상 프로젝트의 편집 과정을 저장 및 관리하기 위하여, 영상 프로젝트를 생성하는 과정에서 사용자의 입력을 통해 편집 과정의 저장 여부를 결정할 수도 있고, 편집 중에 편집 과정을 저장할 수도 있으며, 편집 중에 편집 과정 저장을 종료할 수도 있다. 이때, 편집 UI 처리부(65)는 편집 중에 편집 과정 저장을 종료하는 경우 종료 전까지의 편집 과정만을 저장할 수 있다.
도 11은 본 개시의 다양한 실시예에 따른 동영상 편집 UI 제어 방법의 순서를 예시하는 흐름도이다.
도 11을 참조하면, 동영상 편집 UI 제어 방법은 전술한 전자 장치(또는 컴퓨팅 장치)에 의해 동작될 수 있으며, 사용자의 입력에 의해 동영상 편집 어플리케이션이 선택 및 실행됨에 따라 그 동작이 개시될 수 있다.
동영상 편집 어플리케이션이 실행되면, 편집이력 정보가 저장된 프로젝트 예를 들어, 영상 프로젝트가 사용자에 의해 선택됨에 따라, 선택된 영상 프로젝트를 로드한다(S205).
여기서, 영상 프로젝트는 해당 영상 프로젝트를 편집하는 과정에서 검출되는 편집 이벤트가 저장 및 관리된 영상 프로젝트로, S205 단계는 편집 이벤트를 포함하는 편집이력 정보가 저장된 영상 프로젝트를 로드하는 과정으로 볼 수 있다. 실시예에 따라, 동영상 편집 UI 제어 방법은 영상 프로젝트의 편집 이벤트를 검출하여 저장하는 과정을 더 포함할 수 있으며, S205 단계는 편집 이벤트를 검출하여 저장하는 과정에 의해 편집이력 정보가 저장된 프로젝트를 로드하는 단계일 수 있다.
S205 단계에 의해 영상 프로젝트가 로드되면, 영상 프로젝트의 편집이력 정보를 제공하기 위한 편집이력 제공 UI를 표시 장치에 시각화하여 표시한다(S210). 예를 들어, S210 단계는 도 8에 도시된 바와 같이 사용자에 의해 편집이력 제공 메뉴(810)가 선택됨에 따라, 편집이력 제공 UI(도 10의 1000)를 시각화하여 표시할 수 있다.
S210 단계에 의해 편집이력 제공 UI가 표시되면, 편집이력 제공 UI를 통해 영상 프로젝트의 편집이력 정보를 제공한다(S215). 이때, S215 단계는 사용자에 의해 영상 프로젝트가 선택됨에 따라, 영상 프로젝트에 대하여 저장된 편집이력 정보를 편집이력 제공 UI를 통해 제공할 수 있다.
편집이력 제공 UI를 통해 영상 프로젝트의 편집이력 정보가 제공되면, 편집이력 정보에 포함된 적어도 하나의 편집 이벤트 중 사용자에 의해 선택된 편집 이벤트에 대한 정보를 제공한다(S220). 예컨대, S220 단계는 사용자에 의해 선택된 편집 이벤트에 대응하는 편집 과정을 재생하여 제공할 수 있다.
실시예에 따라, S220 단계는 편집이력 제공 UI를 통해 적어도 하나의 편집 이벤트의 상세 내역을 미리 정해진 시간 단위마다 순차적으로 제공할 수 있다. 실시예에 따라, S220 단계는 편집 이벤트의 상세 내역을 제공함에 있어서, 편집 이벤트의 진행률을 더 표시할 수도 있고, 편집 이벤트의 상세 내역을 제공함에 있어서, 현재 편집 이벤트의 설명을 더 표시할 수도 있다.
나아가, 동영상 편집 UI 제어 방법은 편집이력 제공 UI 상에서, 사용자에 의해 어느 하나의 편집 이벤트를 편집하기 위한 메뉴(도 10의 1030)가 선택됨에 따라, 어느 하나의 편집 이벤트에 대응하는 편집 상태로 구성하여 제공할 수도 있다.
비록, 도 11의 방법에서 그 설명이 생략되더라도, 본 개시의 실시예에 따른 동영상 편집 UI 제어 방법은, 도 6 내지 도 10에서 설명한 모든 내용을 포함할 수 있으며, 이는 해당 기술 분야에 종사하는 당업자에게 있어서 자명하다.
본 개시의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 본 개시에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.
본 개시의 다양한 실시예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.
또한, 본 개시의 다양한 실시예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.
본 개시의 범위는 다양한 실시예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다.

Claims (13)

  1. 편집이력 제공 UI를 포함하는 편집 UI를 표시 장치에 시각화하여 표시하는 편집 UI 표시부;
    상기 표시 장치를 통해 터치 입력되는 사용자 입력을 기반으로 하는 사용자 입력 정보를 확인하는 사용자 입력 확인부; 및
    상기 사용자 입력 확인부에서 제공되는 상기 사용자 입력 정보에 기초하여 편집이력 정보를 생성 및 관리하고, 상기 편집이력 제공 UI의 입력에 대응하여 상기 편집이력 정보를 제공하는 편집 UI 처리부
    를 포함하는 동영상 편집 UI 제어 장치.
  2. 제1항에 있어서,
    상기 편집이력 정보는,
    영상 프로젝트의 편집 이벤트에 의해 수행되는 편집 내용, 및 상기 편집 이벤트의 인덱스를 포함하는, 동영상 편집 UI 제어 장치.
  3. 제1항에 있어서,
    상기 편집 UI 처리부는,
    상기 편집이력 제공 UI를 통해 영상 프로젝트의 편집 이벤트 단위의 리스트를 제공하고, 상기 사용자에 의해 선택된 편집 이벤트의 상세 내역을 제공하는, 동영상 편집 UI 제어 장치.
  4. 제1항에 있어서,
    상기 편집 UI 처리부는,
    상기 편집이력 제공 UI를 통해 영상 프로젝트의 편집 이벤트의 상세 내역을 미리 정해진 시간 단위마다 순차적으로 제공하는, 동영상 편집 UI 제어 장치.
  5. 제1항에 있어서,
    상기 편집 UI 처리부는,
    상기 편집이력 제공 UI 상에서, 상기 사용자에 의해 편집 이벤트가 선택됨에 따라, 영상 프로젝트에서의 상기 선택된 편집 이벤트의 위치를 나타내는 편집 이벤트의 진행률에 대한 정보를 제공하는, 동영상 편집 UI 제어 장치.
  6. 제1항에 있어서,
    상기 편집 UI 처리부는,
    상기 편집이력 제공 UI 상에서, 상기 사용자에 의해 편집 이벤트를 편집하기 위한 메뉴가 선택됨에 따라, 상기 편집 이벤트에 대응하는 편집 상태로 구성하여 제공하는, 동영상 편집 UI 제어 장치.
  7. 제1항에 있어서,
    상기 편집 UI 처리부는,
    영상 프로젝트의 편집 이벤트를 검출하는 편집 이벤트 검출부; 및
    상기 편집 이벤트 검출부로부터 제공되는 상기 편집 이벤트를 저장 및 관리하고, 상기 영상 프로젝트 단위의 편집이력 정보를 관리하는 편집이력 관리부
    를 포함하는 영상 편집 UI 제어 장치.
  8. 제7항에 있어서,
    상기 편집 UI 처리부는,
    상기 사용자 입력 정보에 대응하여, 상기 편집이력 관리부가 관리하는 상기 편집이력 정보를 상기 편집이력 제공 UI를 통해 제공하는 편집이력정보 제공부
    를 더 포함하는, 영상 편집 UI 제어 장치.
  9. 적어도 하나의 프로세서를 포함하는 컴퓨팅 장치가 수행하는 영상 편집 UI 제어 방법에 있어서,
    편집이력 제공 UI를 시각화하여 표시하는 단계;
    상기 편집이력 제공 UI를 통해 영상 프로젝트의 편집이력 정보를 제공하는 단계; 및
    상기 편집이력 정보에 포함된 적어도 하나의 편집 이벤트에 대한 정보를 제공하는 단계
    를 포함하는, 영상 편집 UI 제어 방법.
  10. 제9항에 있어서,
    상기 편집이력 정보는,
    상기 영상 프로젝트의 편집 이벤트에 의해 수행되는 편집 내용, 및 상기 편집 이벤트의 인덱스를 포함하는, 영상 편집 UI 제어 방법.
  11. 제9항에 있어서,
    상기 적어도 하나의 편집 이벤트에 대한 정보를 제공하는 단계는,
    상기 편집이력 제공 UI를 통해 상기 적어도 하나의 편집 이벤트의 상세 내역을 미리 정해진 시간 단위마다 순차적으로 제공하는, 영상 편집 UI 제어 방법.
  12. 제9항에 있어서,
    상기 편집이력 제공 UI 상에서, 사용자에 의해 어느 하나의 편집 이벤트를 편집하기 위한 메뉴가 선택됨에 따라, 상기 어느 하나의 편집 이벤트에 대응하는 편집 상태로 구성하여 제공하는 단계
    를 더 포함하는, 동영상 편집 UI 제어 방법.
  13. 제9항에 있어서,
    상기 영상 프로젝트의 편집 이벤트를 검출하여 저장하는 단계
    를 더 포함하고,
    상기 편집이력 정보를 제공하는 단계는.
    사용자에 의해 상기 영상 프로젝트가 선택됨에 따라, 상기 영상 프로젝트에 대하여 저장된 편집이력 정보를 상기 편집이력 제공 UI를 통해 제공하는, 동영상 편집 UI 제어 방법.
PCT/KR2022/005860 2021-04-29 2022-04-25 편집이력 정보 제공을 위한 동영상 편집 ui 제어 방법 및 그 장치 WO2022231234A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2021-0055937 2021-04-29
KR20210055937 2021-04-29
KR1020220050665A KR20220148742A (ko) 2021-04-29 2022-04-25 편집이력 정보 제공을 위한 동영상 편집 ui 제어 방법 및 그 장치
KR10-2022-0050665 2022-04-25

Publications (1)

Publication Number Publication Date
WO2022231234A1 true WO2022231234A1 (ko) 2022-11-03

Family

ID=83848246

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/005860 WO2022231234A1 (ko) 2021-04-29 2022-04-25 편집이력 정보 제공을 위한 동영상 편집 ui 제어 방법 및 그 장치

Country Status (1)

Country Link
WO (1) WO2022231234A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160019741A (ko) * 2014-08-12 2016-02-22 엘지전자 주식회사 미러 디스플레이 장치 및 그의 동작 방법
JP2019161474A (ja) * 2018-03-14 2019-09-19 株式会社セガゲームス 遊戯画像撮影システム
JP2020035294A (ja) * 2018-08-31 2020-03-05 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2020141178A (ja) * 2019-02-27 2020-09-03 株式会社日立国際電気 ビデオサーバシステム
JP2020170407A (ja) * 2019-04-04 2020-10-15 キヤノン株式会社 画像処理装置およびその制御方法およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160019741A (ko) * 2014-08-12 2016-02-22 엘지전자 주식회사 미러 디스플레이 장치 및 그의 동작 방법
JP2019161474A (ja) * 2018-03-14 2019-09-19 株式会社セガゲームス 遊戯画像撮影システム
JP2020035294A (ja) * 2018-08-31 2020-03-05 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2020141178A (ja) * 2019-02-27 2020-09-03 株式会社日立国際電気 ビデオサーバシステム
JP2020170407A (ja) * 2019-04-04 2020-10-15 キヤノン株式会社 画像処理装置およびその制御方法およびプログラム

Similar Documents

Publication Publication Date Title
WO2014107006A1 (en) Display apparatus and control method thereof
WO2013103275A1 (en) Method and apparatus for implementing multi-vision system by using multiple portable terminals
WO2014189237A1 (en) System for remotely controlling electronic device and method of operating the same
WO2015065018A1 (ko) 디스플레이 기기에서 복수의 서브 화면들을 제어하는 방법 및 이를 위한 디스플레이 장치
WO2014088310A1 (en) Display device and method of controlling the same
WO2015005605A1 (en) Remote operation of applications using received data
WO2014069750A1 (en) User terminal apparatus and controlling method thereof
KR102230905B1 (ko) 상세 조절 제어를 위한 동영상 편집 ui 제어방법 및 장치
WO2020213834A1 (ko) 복수의 어플리케이션의 실행화면들을 표시하는 전자 장치 및 그의 동작 방법
WO2020241975A1 (en) Electronic device and method for controlling the same
WO2020054978A1 (ko) 이미지 생성 장치 및 그 방법
WO2019168387A1 (en) Devices, methods, and computer program for displaying user interfaces
WO2013081405A1 (en) Method and device for providing information
WO2014126331A1 (en) Display apparatus and control method thereof
WO2015088101A1 (en) Display device and method of controlling the same
WO2020013651A1 (ko) 전자 장치 및 전자 장치의 컨텐트 전송 방법
WO2018056587A1 (en) Electronic apparatus and controlling method thereof
WO2022231234A1 (ko) 편집이력 정보 제공을 위한 동영상 편집 ui 제어 방법 및 그 장치
WO2022114924A1 (ko) 동영상 편집 ui 제어방법 및 장치
WO2022203422A1 (ko) 공유 컨텐츠를 이용하는 컨텐츠 편집 방법 및 장치
WO2013065912A1 (ko) 화면 출력을 제어하는 방법, 단말기 및 기록매체
US11646062B2 (en) Method for controlling edit user interface of moving picture for clip alignment control and apparatus for the same
WO2022098187A1 (ko) 광고 컨텐츠의 편집 방법 및 그 장치
WO2022231378A1 (ko) 더미 미디어를 이용하는 컨텐츠 공유 방법, 전자 장치 및 컴퓨터 프로그램
WO2017039371A1 (en) Electronic device and method for controlling the same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22796067

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18557857

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22796067

Country of ref document: EP

Kind code of ref document: A1