WO2015088196A1 - Subtitle editing apparatus and subtitle editing method - Google Patents

Subtitle editing apparatus and subtitle editing method Download PDF

Info

Publication number
WO2015088196A1
WO2015088196A1 PCT/KR2014/011891 KR2014011891W WO2015088196A1 WO 2015088196 A1 WO2015088196 A1 WO 2015088196A1 KR 2014011891 W KR2014011891 W KR 2014011891W WO 2015088196 A1 WO2015088196 A1 WO 2015088196A1
Authority
WO
WIPO (PCT)
Prior art keywords
clip
subtitle
video
caption
gesture
Prior art date
Application number
PCT/KR2014/011891
Other languages
French (fr)
Korean (ko)
Inventor
정재원
김경중
정춘선
Original Assignee
넥스트리밍(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 넥스트리밍(주) filed Critical 넥스트리밍(주)
Publication of WO2015088196A1 publication Critical patent/WO2015088196A1/en

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/036Insert-editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Definitions

  • the present invention relates to a caption editing apparatus and a caption editing method, and more particularly, to a caption editing apparatus capable of intuitively inputting captions, deleting captions, copying captions, moving captions, and saving captions on a video clip.
  • a subtitle editing method is a method for modifying captions, deleting captions, copying captions, moving captions, and saving captions on a video clip.
  • portable terminals such as smartphones and tablets are widely used, and the performance of the portable terminals and the development of wireless communication technology allow a user to shoot, edit, and share a video using the portable terminal.
  • the portable terminal may not edit a video smoothly as in a general PC environment.
  • user demand for a video editing method that can be used in a portable terminal is increasing.
  • the conventional subtitle editing method is a method of obtaining a timeline by playing a video, and editing and storing the subtitle text in a spreadsheet method according to a tine line.
  • Such a subtitle editing method using a timeline has an inconvenient problem that a user cannot easily edit subtitles in a smartphone having a limitation of the LCD screen size.
  • An object of the present invention is to provide a caption editing apparatus and a caption editing method for editing captions by video clip units.
  • An object of the present invention is to provide a user-intuitive subtitle editing device and a subtitle editing method.
  • a subtitle editing apparatus capable of editing a video and a subtitle displays a video display area displaying at least one video preview screen and at least one video clip corresponding to the displayed preview screen.
  • the controller extracts start time and play time information from the video clip, reflects the extracted start time and play time information to the subtitle clip input to the video clip, and starts the start time and play time.
  • the caption clip may be converted into a caption file based on the information.
  • the controller displays an input window for caption input, and generates a caption clip based on the caption input through the input window and displays the caption clip on the video clip. can do.
  • the control unit may control to delete the caption clip input on the video clip when the caption deletion gesture is detected by the user gesture.
  • the controller may control to move the caption clip displayed on the original video clip onto the target video clip when the caption movement gesture is detected by the user gesture.
  • the controller may copy the subtitle clip displayed on the original video clip and copy the copied subtitle clip on the target video clip.
  • a subtitle editing method is a subtitle editing method using a subtitle editing device capable of editing a video and a subtitle displayed on a display unit, and displaying at least one video preview screen on the display unit.
  • And entering an edit mode for the video clip in response to detecting the user gesture for the at least one video clip in the edit mode, and editing the subtitles in the video clip according to the detected gesture. .
  • subtitle editing can be easily performed simultaneously with video editing.
  • a user can easily perform subtitle editing in a smartphone having a limitation of a liquid crystal screen size.
  • 1 is a view showing a user terminal having a display unit
  • FIG. 2 is a block diagram showing a configuration of a user terminal
  • FIG. 3 is a diagram illustrating a system hierarchy of a user terminal
  • FIG. 4 is a block diagram illustrating a configuration of controlling an operation of a display unit using a frame buffer in a user terminal
  • 5 to 11 are views illustrating a process of inputting a caption into a video clip according to an embodiment of the present invention
  • 17 to 20 are diagrams illustrating a process of deleting a caption input to a video clip according to an embodiment of the present invention
  • 21 to 24 are views illustrating a process of moving a caption input to a video clip to another video clip according to an embodiment of the present invention
  • 25 to 28 are views illustrating a process of synchronizing a video clip and an input subtitle according to an embodiment of the present invention
  • 29 to 38 are views illustrating a process of editing a plurality of input subtitles according to an embodiment of the present invention.
  • 39 to 43 are diagrams illustrating a process of clipping a video including a caption according to an embodiment of the present invention.
  • a subtitle editing apparatus capable of editing a video and a subtitle displays a video display area displaying at least one video preview screen and at least one video clip corresponding to the displayed preview screen.
  • the controller extracts start time and play time information from the video clip, reflects the extracted start time and play time information to the subtitle clip input to the video clip, and starts the start time and play time.
  • the caption clip may be converted into a caption file based on the information.
  • the controller displays an input window for caption input, and generates a caption clip based on the caption input through the input window and displays the caption clip on the video clip. can do.
  • the control unit may control to delete the caption clip input on the video clip when the caption deletion gesture is detected by the user gesture.
  • the controller may control to move the caption clip displayed on the original video clip onto the target video clip when the caption movement gesture is detected by the user gesture.
  • the controller may copy the subtitle clip displayed on the original video clip and copy the copied subtitle clip on the target video clip.
  • a subtitle editing method is a subtitle editing method using a subtitle editing device capable of editing a video and a subtitle displayed on a display unit, and displaying at least one video preview screen on the display unit.
  • And entering an edit mode for the video clip in response to detecting the user gesture for the at least one video clip in the edit mode, and editing the subtitles in the video clip according to the detected gesture. .
  • Various embodiments of the present invention may be implemented in a user terminal having a display unit such as a smart phone, a tablet, etc.
  • the subtitle editing apparatus according to an embodiment of the present invention may be implemented by a user terminal having a subtitle editing application. have.
  • the present invention may be implemented by a user terminal having an image processor and a controller capable of processing video and subtitle data.
  • the user terminal refers to a portable electronic device.
  • 1 is a diagram illustrating a user terminal having a display unit.
  • the user terminal 100 may include a display 110.
  • the display 110 may display various icons, contents, browsers, applications, programs, and the like.
  • the display 110 may include a touch panel capable of detecting a user's gesture. A process of processing a video and a caption in the display 110 will be described with reference to a separate drawing.
  • the user terminal 100 includes a display 110, a storage 120, a controller 130, a sensor 140, a communicator 150, a camera 160, a video editing unit 170, and a power supply 180. And a data bus 190 interconnecting them.
  • the display unit 110 displays and adapts various applications (eg, a video editing program, a web browser, a document editing program, a search program, a search engine, a data transmission, etc.) executable under the control of the controller 130 and adapted to the same. It is a display device that provides.
  • applications eg, a video editing program, a web browser, a document editing program, a search program, a search engine, a data transmission, etc.
  • the display 110 may be implemented as a touch screen, and may receive at least one touch gesture through a user's body (eg, a finger including a thumb) or a senseable input means (eg, a stylus pen).
  • a user's body e.g, a finger including a thumb
  • a senseable input means e.g, a stylus pen
  • the display 110 converts a detection signal regarding a user gesture detected through the touch sensor into a digital signal (for example, X and Y coordinates) and transmits the signal to the controller 130.
  • the controller 130 may perform a control operation corresponding to a user operation input through the display 110 using the received digital signal. For example, the controller 130 may select a predetermined keypad displayed on the display 110 in response to a user's operation or execute an application corresponding to a soft key.
  • the display unit 110 includes a video display area displaying a video preview screen, a marker area for searching a plurality of videos and displaying the location of the current video preview, and a video clip corresponding to the video displayed on the video preview screen.
  • a screen divided into a clip display area displaying a may be displayed.
  • the display 110 may detect a user gesture input for the video display region 111, the marker region 113, and the clip display region 115, and transmit the detected user gesture to the controller 130.
  • the storage unit 120 may store data regarding various applications such as a video editing program.
  • the storage unit 120 may store various video files, subtitle files, and the like, which are editing targets of the video editing program.
  • the storage unit 120 may store synchronization information between the video clip and the subtitle clip described below.
  • the term “storage unit” may include a memory card (eg, an SD card or a memory stick) that can be attached / removed / installed in the storage unit 120, a ROM, a RAM, or the user terminal 100.
  • the storage unit 130 may also include a nonvolatile memory, a volatile memory, a hard disk drive (HDD), or a solid state drive (SSD).
  • HDD hard disk drive
  • SSD solid state drive
  • the controller 130 may control to enter an edit mode for the video clip in response to the detected user gesture.
  • the editing mode for the video clip refers to a state in which various editing gestures can be input to edit the subtitles input to the video clip.
  • the controller 130 may edit the caption in the video clip according to the detected gesture.
  • the controller 130 may synchronize the caption clip with the caption clip by extracting time information on the video clip to which the user gesture is input and reflecting the extracted time information on the caption clip.
  • the controller 130 may control the display 110 to display an input window for caption input when the caption input gesture is detected in the video clip displayed on the clip display area.
  • the controller 130 may generate the caption clip based on the caption input through the input window, and control the display 110 to display the generated caption clip on the corresponding video clip.
  • the controller 130 may control the display 110 to delete the caption clip input on the video clip when the caption deletion gesture is detected in the video clip displayed on the clip display area.
  • the controller 130 may control to move the caption clip displayed on the original video clip onto the target video clip when the caption movement gesture is detected in the video clip displayed on the clip display area.
  • the controller 130 may control to copy a caption clip displayed on the original video clip and to paste the copied caption clip on the target video clip when the caption copy gesture is detected in the video clip displayed in the clip display area.
  • the controller 130 may modify the synchronization information of the corresponding video clip and the subtitle clip, and control to generate the subtitle file based on the modified synchronization information.
  • the sensor unit 140 may be configured to include a touch sensor, a geomagnetic sensor, an acceleration sensor, a proximity sensor, and the like. In order to understand the various embodiments of the present disclosure, a detailed description of the remaining sensors in addition to the description of the touch sensor is omitted.
  • the touch sensor is a sensor capable of sensing a touch on the display unit 110 input by the user.
  • the touch sensor may be divided into an electrostatic method and a piezoelectric method according to a method of sensing a user's touch.
  • the touch sensor according to an embodiment of the present invention may be implemented in two ways, respectively.
  • the touch sensor may be included in the display unit 110 together with the display panel.
  • the touch sensor refers to a sensor that can select various video clips, caption clips, keypads, icons, etc. displayed on the display screen by pressing the display 110 with a body such as a finger or a detectable input means.
  • the touch sensor uses capacitance change, resistance change, or light quantity change.
  • the communication unit 150 may include a wireless LAN module (not shown), a short range communication module (not shown), and a connector (not shown).
  • the communication unit 150 may include at least one of a wireless LAN module and a short range communication module. For example, it may include only a wireless LAN module, only a short range communication module, or may include both a wireless LAN module and a short range communication module.
  • the camera unit 160 may capture a still image or a video under the control of the controller 130. In some cases, two or more cameras of the camera unit 160 may be configured.
  • the camera unit 160 may be provided in the housing of the user terminal 100 or may be connected to the user terminal 100 using a separate connection means.
  • the camera 160 may include an auxiliary light source (eg, a flash (not shown)) that provides an amount of light required for photographing.
  • the camera unit 160 may detect a movement or a shape of a user and transmit it to the controller 130 as an input for executing or controlling an application.
  • the movement of the user refers to the movement of the user's hand detected through the camera.
  • the shape of the user may mean a body shape of a user's face, hand, or the like detected through the camera.
  • the video editing unit 170 may edit a video and / or a subtitle file. That is, the video editing unit 170 generates at least one video clip including the start frame or the last frame in the edited video, and copies various clips, moves the order of clips, and deletes clips in the generated video clip units. You can perform the video editing function.
  • the video editing unit 170 may display a representative frame in the clip as a thumbnail image on a part of the screen in order to display the clip. That is, the video clip may be displayed as a thumbnail image in the clip display area 115. Then, the manipulation of the thumbnail image displayed in the icon format in the clip display area 115 is performed on the corresponding movie clip. In addition, a user operation of editing a caption clip on a video clip of the clip display area 115 may be performed.
  • the video editing unit 170 may be designed in an independent configuration that performs various video and subtitle editing exclusively under the control of the controller 130. Alternatively, the video editing unit 170 may be supplied through an online or offline application program and installed in the user terminal 100 to execute video editing under the control of the controller 130.
  • the editing operation for the caption clip input on the video clip may be directly processed by the controller 130 or may be processed by the video editing unit 170.
  • the power supply unit 180 is a component for supplying power to each component inside the user terminal 100.
  • the power supply unit 180 may include a rechargeable battery and a power adapter capable of charging the rechargeable battery.
  • the data bus 190 is a component that provides a path through which data communication is possible to each component inside the user terminal 100 under the control of the controller 130.
  • FIG. 3 is a diagram illustrating a system hierarchy structure of a user terminal according to an exemplary embodiment.
  • an operating system (OS) 220 controls a general operation of the hardware 210 and manages the hardware 210.
  • the OS 220 is a layer that performs basic functions such as hardware management, memory, and security.
  • the OS 220 may include a display driver for driving the display unit 110, a communication driver for transmitting and receiving data, a camera driver for driving a camera, an audio driver for driving an audio unit, an image processing codec for processing a video signal, and It includes a module such as a power manager. It can also include libraries and runtimes that developers can access.
  • the framework 230 connects the application layer 240 and the OS layer 220. That is, the framework layer 230 includes a location manager, a notification manager, and a frame buffer for displaying an image on the display unit.
  • an application layer 240 for implementing various functions of the user terminal 100 is located.
  • various applications may be included, such as a call application 241, a video editing application 242, a camera application 243, a browser application 244, and a gesture application 245.
  • a specific application corresponding to the input control command is executed while being transmitted from the application layer 240 to the hardware 210, and the result may be displayed on the display 110. have.
  • FIG. 4 is a block diagram illustrating a configuration of controlling an operation of a display unit using a frame buffer in a user terminal.
  • the frame buffer 131 is configured to buffer an image frame to be displayed on the display 110.
  • an image frame digitally processed by a GPU (not shown) is stored in the frame buffer 131 in a bitmap form.
  • the buffering area of the frame buffer 131 is allocated according to the maximum pixel size supported by the display 110. For example, when the maximum pixel that can be displayed on the display 110 is 1024 ⁇ 1200, the frame buffer 131 allocates a buffer storage area so that an image having a size of 1024 ⁇ 1200 bitmap format can be stored.
  • the display driver 132 analyzes an image frame stored in a bitmap format in the frame buffer 131 and converts the image frame into an image source signal.
  • the display driver 132 provides an image source signal to the display 110 to drive the display 110 to display an image frame.
  • the hardware configuration of the user terminal 100 described above has been described in the necessary range for the following description.
  • the user terminal 100 may be upgraded in various ways, and according to the upgrade, the configuration and function of hardware may be differently implemented.
  • the method of realizing the technical idea of the present invention that can edit video and subtitles in clip units is the same, it can be seen that the technical idea of the present invention until such a case.
  • a first embodiment according to the present invention relates to a method for inputting an arbitrary subtitle on a video clip basis.
  • the video clip refers to a video (eg, a plurality of frames) of a partial section extracted from the editing target video according to a user's selection.
  • the video clip described below may be pre-generated by the user and stored in the storage 120, or may be generated by the user selecting a frame in real time from the video. Alternatively, the user may download a previously generated video clip from an external server.
  • 5 to 11 are diagrams illustrating a process of inputting a subtitle in units of a video clip according to a first embodiment of the present invention.
  • the display unit 110 of the user terminal 100 may include a video display area 111 displaying a preview screen of at least one video, and a marker area 113 displaying the location of at least one video. And a clip display area 115 displaying at least one video clip in thumbnail form.
  • a preview screen for the video B is displayed at the center of the video display region 111.
  • the clip display region 115 displays a thumbnail of the movie clip corresponding to the movie B (clip B in FIG. 5). May be displayed.
  • the clip display area 115 is a work space for editing a video clip and a subtitle clip by the user. The user may select a video clip or subtitle clip displayed on the clip display area 115 to perform an operation such as editing.
  • the clip display area ( In 115, four video clips may be displayed in a thumbnail manner. Although four video clips are displayed in the clip display area 115 shown in FIG. 5, four or more video clips may be displayed in a thumbnail manner, or fewer than four video clips may be displayed in a thumbnail manner.
  • the user may search for at least one video by performing a gesture of touching at least one video displayed on the video display area 111 and sliding left or right.
  • the user may search for at least one video by touching a triangular icon displayed on the marker area 113 and performing a gesture of sliding left and right.
  • the video display region 111, the marker region 113, and the clip display region 115 displayed in FIG. 5 refer to a work space capable of processing a video in units of video clips.
  • the video clip and the subtitle clip as the work target may be converted into the video file and the subtitle file, respectively, and stored in the storage 120.
  • the video file and the subtitle file may be stored in the storage 120 in a separate file format.
  • the storage 120 may be stored in an integrated file format in which a subtitle file is included in the video file.
  • a user executes a long press gesture (shown as A in FIG. 6) on at least one video clip (clip B) displayed in the clip display area 115.
  • the long press gesture refers to a user gesture of contacting the user's finger, stylus pen, electronic pen, etc. with the display 110 for a predetermined time (for example, 1 second to 2 seconds or more).
  • a finger, a stylus pen, an electronic pen, or the like may be implemented in an indirect contact manner in addition to the direct contact method with the display 110. If the predefined time is changeable by the user, the user may selectively set the desired time.
  • the user terminal 100 When a user inputs a long press gesture to at least one video clip (eg, clip B), the user terminal 100 detects that the long press gesture A is input and enters a video clip editing mode. When entering the clip editing mode, the user terminal 100 may display icons (X, Y) for editing a video clip in one region of at least one video clip (eg, clip B).
  • the first icon X is an input icon for inputting a new subtitle clip corresponding to the video clip
  • the second icon Y is a delete icon for deleting the video clip.
  • first and second icons X and Y may be configured of various types of figures, images, colors, or a combination thereof.
  • the first icon X is displayed as a rectangular box, but the first icon X may be configured as a pencil or pen icon.
  • the second icon Y is displayed in a form in which the “ ⁇ ” figure and the “ ⁇ ” figure are superimposed, the second icon Y may be configured as various other kinds of icons.
  • the user performs a one-touch gesture (marked B in FIG. 8) in order to execute the first icon (X).
  • the one-touch gesture B refers to a user gesture of contacting the user's finger, stylus pen, electronic pen, etc. with the display 110 for a defined time shorter than the touch time of the long press gesture A.
  • FIG. One-touch gestures may also be implemented to touch the display 110 directly or indirectly.
  • the user terminal 100 When the user inputs the one-touch gesture to the first icon X, the user terminal 100 detects that the one-touch gesture is input, and enters a caption input mode for the corresponding video clip. When the user terminal 100 enters the caption input mode, the user terminal 100 displays an input window 117 for caption input for a video clip (eg, clip B) to which a one-touch gesture is input (see FIG. 9).
  • a video clip eg, clip B
  • the input window 117 for caption input for the clip B includes a display window 117-1 on which the caption input is displayed and a virtual keyboard 117-typing characters for inputting captions. It may include 2).
  • the input window 117 may be displayed on the display 110 to include some or all of the video display area 111, the marker area 113, and the clip display area 115.
  • the input caption may be displayed on the display window 117-1.
  • the user terminal 100 When the user completes the caption input, the user terminal 100 generates a caption clip based on the previously input caption.
  • the user terminal 100 when the user terminal 100 detects that the caption input is completed by the user, the user terminal 100 displays the input caption (indicated by ST-B in FIG. 11) in the corresponding video clip (clip) of the clip display area 115. Display on B).
  • the user terminal 100 extracts start time and playback time information for the video clip (clip B), and reflects the extracted start time and playback time information to the subtitle clip (ST-B). Formation of a subtitle file using the subtitle clip (ST-B) having start time and reproduction time information will be described separately below.
  • the display screen is compared with the conventional method of inputting the caption using the timeline. Despite the size constraints, the user can enter subtitles intuitively.
  • a user may intuitively edit a subtitle in a movie clip unit with respect to a video clip in which subtitles are input.
  • 12 to 16 are views for explaining a process of editing a subtitle input to a video clip according to an embodiment of the present invention.
  • FIG. 12 a process of a user inputting a long process gesture (indicated by an area A in FIG. 12) for at least one of the plurality of video clips (eg, clip B) shown in FIG. 11 is illustrated.
  • a long process gesture indicated by an area A in FIG. 12
  • subtitles are input to only one video clip (clip B), and subtitles are not input to the remaining video clips (clip A, clip C, and clip D).
  • a long press gesture is input to at least one video clip of a plurality of video clips by a user
  • various types of notifications of contact of the long press gesture are provided in one region of the video clip (clip B).
  • the indicator can be displayed.
  • the user terminal 100 When the user terminal 100 detects a long press gesture in at least one video clip (eg, clip B) input by the user, the user terminal 100 enters a video clip editing mode. When the user terminal 100 enters the video clip editing mode, the user terminal 100 may display an icon (X, Y) or the like for editing the video clip in one region of the video clip (eg, the clip B) to which the long press gesture is input. .
  • the first icon (X) is a caption editing icon for executing caption editing
  • the second icon (Y) is a deletion icon for deleting a video clip.
  • the first and second icons X and Y may be configured of various types of figures, images, colors, or a combination thereof.
  • the first icon X is displayed in the form of a rectangular box, but in addition, the first icon X may be configured in the form of an icon such as a pencil or a pen.
  • the second icon Y is displayed in a form of overlapping the “ ⁇ ” figure and the “ ⁇ ” figure, the second icon Y may be configured in various icon forms such as a trash can.
  • the user terminal 100 may edit the caption clip by an edit gesture input by the user.
  • the user terminal 100 When the user executes the one-touch gesture on the first icon X, the user terminal 100 detects the one-touch gesture input by the user, and the caption for the video clip (clip B in FIG. 14) in which the one-touch gesture is input.
  • the input window 117 for editing is displayed (see FIG. 14).
  • the input window 117 for subtitle editing includes a display area 117-1 in which the contents of the subtitle clip to be edited is displayed, and a character or the like for adding or deleting contents to the subtitle clip.
  • the virtual keyboard area 117-2 may be included.
  • the input window 117 may be displayed to include some or all of the video display area 111, the marker area 113, and the clip display area 115.
  • the display area 117-1 may display the contents of the caption clip previously input to the video clip.
  • the user may modify or edit the contents of a previously inputted subtitle clip displayed on the display area 117-1.
  • the user terminal 100 may perform one-touch gestures (B in FIG. 15) for some keys (eg, the backspace key “ ⁇ ”) of the virtual keyboard area 117-2 input by the user. If a detection is performed, the command corresponding to the touched key is executed. For example, when the backspace key is touched, the previously input subtitle (eg, "ABCDEF") may be deleted one letter.
  • the user terminal 100 may perform a variety of editing functions for modifying a part of the subtitles previously input in a video clip unit or adding new content according to a subtitle editing gesture input by a user.
  • the user terminal 100 when the user terminal 100 detects that the caption editing gesture by the user is completed, the user terminal 100 edits the caption (ST) edited in the corresponding video clip (eg, clip B) displayed on the clip display area 115. -B) display.
  • the user terminal 100 stores the content of the edited caption in the storage 120.
  • the user can edit the subtitles by video clip unit without executing the subtitle editing program using the timeline, so that the user can intuitively Subtitles can be edited with.
  • a subtitle clip may be deleted in a movie clip unit during subtitle editing.
  • 17 to 20 are diagrams illustrating a process of deleting a caption input to a video clip according to an embodiment of the present invention.
  • a preview screen for a plurality of videos is displayed in the video display region 111.
  • a preview screen for the video B is displayed in the center area of the video display region 111.
  • a plurality of video clips are displayed in a thumbnail format.
  • Pre-input subtitles ST-B are displayed on at least one clip (eg, clip B) of the plurality of video clips.
  • the user terminal 100 when the user terminal 100 detects a long press gesture (marked as A in FIG. 17) with respect to the subtitle clip ST-B input by the user, the user terminal 100 edits the subtitle for the corresponding subtitle clip. Enter the mode.
  • a long press gesture marked as A in FIG. 17
  • the user terminal 100 detects that the long press gesture is input, and the one of the subtitle clips ST-B to which the long press gesture is input.
  • a delete icon Y for subtitle deletion and an edit indicator Z indicating that the subtitle clip is in the edit mode are displayed in the region (see FIG. 18).
  • the delete icon Y is a delete execution icon for deleting the corresponding subtitle clip.
  • the edit indicator Z is an indicator for displaying to the user that the subtitle in which the long press gesture is input has entered the edit mode.
  • the delete icon Y is displayed in the form of an icon in which the " ⁇ " figure and the " ⁇ " figure are superimposed.
  • the delete icon (Y) may be configured in the form of various icons to shape the trash.
  • the editing indicator Z may be configured to have a rectangular box shape surrounding the caption and a semi-transparent color inside the box.
  • the editing indicator Z may be configured in various highlighting ways that the user can visually recognize the subtitle, such as a sparkling effect, a vibration effect, and a blinking effect.
  • the user terminal 100 when the user terminal 100 detects a one-touch gesture (indicated by B in FIG. 19) of the delete icon Y input by the user, the user terminal 100 deletes the corresponding caption clip ST-B.
  • the user terminal 100 deletes the caption clip ST-B2 from the video clip (eg, clip B) of the clip display area 115 (see FIG. 20).
  • the user since the user can select the subtitle displayed on the video clip and delete the corresponding subtitle clip, the user can delete the subtitle clip in the unit of subtitle error, thereby improving user convenience. .
  • a caption clip is input for each video clip, and the caption clip can be easily moved and copied to another video clip on the video clip.
  • 21 to 24 are diagrams for describing a process of moving a caption input to a video clip to another video clip according to an embodiment of the present invention.
  • a user inputs a long press gesture to at least one video clip (clip B) in the clip display area 115, and the subtitle clip (ST-B) previously input to the video clip (clip B).
  • a state in which a first movement gesture (indicated by C1 in FIG. 21) for moving in a specific direction is input is illustrated.
  • the first movement gesture C1 refers to a gesture in which a user's finger, a stylus pen, an electronic pen, or the like is in contact with the moving target caption clip ST-B2.
  • the long press gesture A refers to a gesture of contacting the object for a predetermined time
  • the one touch gesture B refers to a gesture of contacting the object for a shorter time than the contact time of the long press gesture. do.
  • the first movement gesture C1 refers to a gesture in which a finger or the like is continuously contacted with the target item until the movement of the subtitle clip which is the movement target item is completed.
  • the first movement gesture C1 may be in contact for a longer time than the contact time of the long press gesture A.
  • the first movement gesture C1 is different in that it includes movement in a specific direction without stopping in the initial contact area.
  • the caption clip ST-B is moving from clip B to clip C by the second movement gesture C2.
  • the second movement gesture C2 means a continuous gesture of the first movement gesture C1.
  • the caption clip ST-B is finally moved to the clip D and displayed by the third movement gesture C3.
  • the third movement gesture C3 means a continuous gesture of the second movement gesture C2.
  • the subtitle clip can be moved and copied in a convenient manner. It has an effect.
  • a method of converting a caption clip input to a video clip into a caption file using time information extracted from the video clip is provided. A more detailed description thereof will be described below with reference to a separate drawing.
  • 25 to 28 are diagrams illustrating a process of converting an input caption clip into a caption file based on time information of a video clip according to an embodiment of the present invention.
  • a plurality of video preview screens are displayed in the video display region 111, and four video clips are displayed in the clip display region 115.
  • Each subtitle clip is input to four video clips.
  • the user terminal 100 When a caption clip is input for each video clip by the user, the user terminal 100 extracts time information for each video clip. The extracted time information is reflected in the corresponding subtitle clip, and the subtitle clip is converted into a subtitle file based on the time information.
  • the user terminal 100 analyzes time information of four video clips 1100, 1200, 1300, and 1400. For example, the user terminal 100 extracts first time information Time 1 for the first video clip 1100.
  • the first time information Time 1 includes start time information and playback time information of the video clip.
  • the user terminal 100 extracts second time information (Time 2) for the second video clip 1200, and extracts third time information (Time 3) for the third video clip 1300.
  • the fourth time information (Time 4) of the fourth video clip 1400 is extracted.
  • a first subtitle clip 2100 is input to a clip A 1100 by a user
  • a second subtitle 2200 is input to a clip B 1200
  • a third is input to a clip C 1300.
  • the caption 2300 is input
  • the fourth caption 2400 is detected in the clip D 1400.
  • the user terminal 100 analyzes a playback order and a relative length based on time information of four extracted video clips 1100, 1200, 1300, and 1400.
  • the user terminal 100 generates virtual timelines for four video clips according to the analyzed relative lengths.
  • the clip A is located to the left of the clip B.
  • the plurality of clips displayed in the clip display area may be sequentially played from left to right. Therefore, the start time information of the clip A is earlier than the start time information of the clip B.
  • the start time information of the clip B may be predicted by adding the play time of the clip A to the start time information of the clip A.
  • the user terminal 100 analyzes which video clips four subtitle clips 2100, 2200, 2300, and 2400 are respectively input.
  • the user terminal 100 reflects the time information extracted for the four video clips to the four subtitle clips 2100, 2200, 2300, and 2400, respectively.
  • the user terminal 100 may combine the four video clips of which the input of the subtitle clip is completed into one video file and store the same in the storage 120. In this case, the user terminal 100 may also generate four corresponding subtitle clips as one subtitle file, and store them in the storage 120.
  • the user terminal 100 may be integrated and stored in the storage 120 in a format including a caption file generated by four caption clips in a video file generated by four video clips.
  • the user terminal 100 If a user requests to play a completed video by combining four video clips, the user terminal 100 reads a video file stored in the storage 120, encodes the video, and plays the video through the display 110. In addition, the user terminal 100 may read the subtitle file stored in the storage unit 120, encode the subtitle file, and play the same together on the display unit 110 where the video is being played.
  • the integrated video file is read, encoded, and played back through the display 110.
  • the user may close the caption clip based on the time information of the video clip. Convert to a file.
  • the plurality of input caption clips when a plurality of caption clips are respectively input to the plurality of video clips, the plurality of input caption clips may be deleted, combined, or moved.
  • 29 to 38 are views illustrating a process of editing a plurality of input caption clips according to an embodiment of the present invention.
  • a preview screen of a plurality of videos is displayed in the video display area 111.
  • the clip display area 115 displays a plurality of video clips in the form of thumbnails.
  • a plurality of subtitle clips ST-A, ST-B, ST-C, and ST-D are displayed in one region of the plurality of video clips (clip A, clip B, clip C, clip D).
  • the user terminal 100 When the user terminal 100 detects a long press chess destination (indicated by A in FIG. 29) of at least one subtitle clip ST-B among a plurality of subtitles input by the user, the user terminal 100 receives a plurality of subtitle clips ST-B. A, ST-B, ST-C, ST-D) enters the subtitle editing mode.
  • the user terminal 100 may select one region of each subtitle clip.
  • the deletion icons Y1, Y2, Y3, and Y4 may be displayed on the screen.
  • the user terminal 100 may display the editing indicators Z1, Z2, Z3, and Z4 indicating that each subtitle clip has entered the editing mode.
  • the user terminal 100 detects that the long press gesture is input, and not only the subtitle clip ST-B to which the long press gesture is input.
  • delete icons Y1, Y2, Y3, and Y4 capable of deleting subtitles and editing indicators Z1, Z2, Z3, and Z4 indicating that the subtitle clip is in the edit mode are also displayed (FIG. 30).
  • the deletion icons Y1, Y2, Y3, and Y4 are deletion icons for deleting subtitles input to the video clip.
  • the editing indicators Z1, Z2, Z3, and Z4 refer to indicators that highlight and display editable subtitles.
  • the delete icons Y1, Y2, Y3, and Y4 are displayed in a form in which the " ⁇ " figure and the " ⁇ " figure are superimposed, but in addition to the delete icons Y1, Y2, Y3, Y4) may be configured in the form of various icons such as a trash can.
  • the editing indicators Z1, Z2, Z3, and Z4 may be configured such that a semi-transparent color is colored inside the rectangular box shape surrounding the subtitle.
  • the editing indicators Z1, Z2, Z3, and Z4 may be configured in various highlighting ways that the user can visually recognize the subtitles, such as a sparkling effect, a vibration effect, and a flickering effect.
  • the user terminal 100 detects a one-touch gesture (indicated by B in FIG. 31) in the delete icon Y4 input by the user, the user terminal 100 detects the subtitle clip ST-D input in the clip D. FIG. Delete it.
  • the user terminal 100 detects a delete command for a specific caption clip (eg, ST-D) input to a specific video clip (eg, clip D), the user terminal 100 is displayed in one region of clip D. Delete subtitles.
  • a specific caption clip eg, ST-D
  • a specific video clip eg, clip D
  • the long press gesture when a user inputs a long press gesture (denoted as A1 in FIG. 33) to at least one subtitle clip (eg, ST-A) among a plurality of subtitle clips that have entered the edit mode, the long press gesture may be performed.
  • the input subtitle clip ST-A may be moved / copyed to another video clip.
  • the subtitle clip (eg, ST-A) in which the long press gesture is input in the subtitle editing mode may be represented by a highlight effect such as letters, symbols, numbers, shapes, or a combination thereof constituting the subtitle clip. (See Figure 34).
  • the subtitle clip (eg, ST-A2) expressed by the highlight effect may be displayed darker than the characters of other subtitle clips.
  • the moving / copying subtitle clip (eg, ST-A) may be displayed to flicker unlike other subtitle clips.
  • the moving / copying subtitle clip (eg, ST-A) may be displayed as an effect of streaming from left to right or from right to left.
  • the user terminal 100 when the user terminal 100 detects a long press gesture on an area of clip D input by the user, the user terminal 100 pastes the caption clip (eg, ST-A) copied by the user into clip D. Run (paste)
  • the caption clip eg, ST-A
  • a user inputs a first touch gesture C1 to a moving / copying subtitle clip (eg, ST-A) and drags it in the clip B direction.
  • a moving / copying subtitle clip eg, ST-A
  • the subtitle clip cut out by the user eg, ST-A
  • the subtitle clip ST-B It is merged with the subtitle clip ST-B previously input.
  • subtitle clips are combined to mean that a plurality of subtitle clips form one subtitle clip. This is the same principle as combining multiple movie clips into one movie clip.
  • the combined subtitle clips can be managed as one subtitle clip.
  • the user terminal 100 detects a command for combining a subtitle clip ST-A of clip A and a subtitle clip ST-B of clip B input by the user, the first subtitle clip (ST-A) and the second subtitle clip (ST-B) are combined and converted into the subtitle clip (ST-B) of the target video clip (e.g., clip B).
  • the target video clip e.g., clip B
  • the user terminal 100 When the user terminal 100 detects a one-touch gesture (indicated by B in FIG. 38) in an area other than the clip display area 115 input by the user, the user terminal 100 may edit, move, or copy a plurality of subtitle clips in progress. Ends and stores the video clip and the subtitle clip immediately before the end in the storage 120 (see FIG. 38).
  • a one-touch gesture indicated by B in FIG. 38
  • the user terminal 100 may edit, move, or copy a plurality of subtitle clips in progress. Ends and stores the video clip and the subtitle clip immediately before the end in the storage 120 (see FIG. 38).
  • a user can move, copy, merge, and delete a subtitle clip input in a movie clip unit into a subtitle clip of another movie clip without separately operating a subtitle editing application.
  • a user interface can be provided.
  • a subtitle clip may be input on the video clip so that the user may intuitively input and edit the subtitle clip.
  • the caption clip input to the video in the present invention can be managed in the unit of the video clip, thereby eliminating the cumbersome process of checking the time information on the video using the conventional timeline.
  • the subtitles pre- inputted to the video may be generated as subtitle clips.
  • 39 to 43 are diagrams illustrating a process of clipping a video including a caption according to an embodiment of the present invention.
  • the video 300 may be composed of consecutive frames (frames 1 to 7).
  • the subtitle file 400 is synchronized with the video 300. That is, when the video 300 is played on the display 110 of the user terminal 100, the subtitle 400 may be played on one region of the display 110.
  • the user can clip the video 300 into two video clips (clip A, clip B).
  • clip A clip A
  • clip B the user may arbitrarily select at least one or more frames constituting the first video to generate a desired video clip.
  • one video clip composed of the first frame and the plurality of frames belonging to the last frame may be generated.
  • the user terminal 100 when the first frame (frame 1) and the last frame (frame 4) of the video 300 are selected by the user, the user terminal 100 includes a first video clip composed of the selected first to fourth frames. Create (clip A). When the first frame (frame 5) and the last frame (frame 7) of the video 300 are selected by the user, the user terminal 100 selects a second video clip (clip B) consisting of selected fifth to seventh frames. Create
  • the user terminal 100 generates two video clips (clip A, clip B) by grouping the frames of the video according to the video clip gesture of the user, and at the same time, the user terminal 100 clips the subtitles related to the video. Can be run automatically.
  • the user terminal 100 also performs clipping on the caption 400 using the synchronization information between the video 300 and the caption 400.
  • the user terminal 100 analyzes the caption 400 displayed during the time to which the first video clip clip A of the video 300 belongs. According to the analysis result, the user terminal 100 clips the first subtitles synchronized with the frames 1 to 3 (indicated by "Kanadaramabasa” in FIG. 39) to the first subtitle clip 2100, and is synchronized with the frame 4.
  • the second subtitle (indicated by "ABCDEFG” in FIG. 39) is clipped to the second subtitle clip 2200-1.
  • the user terminal 100 clips the second subtitles (indicated by "ABCDEFG” in FIG. 39) synchronized to the frames 5 to 7 to the third subtitle clip 2200-2.
  • a preview screen of two videos is displayed in the video display region 111, and two video clips are displayed in the clip display region 115.
  • the first subtitle clip ST-A is displayed in the first movie clip (clip A), and the second subtitle clip ST-B is displayed in the second movie clip (clip B). It is displayed.
  • FIG. 40 only the contents of the first subtitle clip 2100 described above are displayed on the first subtitle clip ST-A, but the first subtitle clip ST-A includes the first subtitle clip 2100 and the second. Subtitle clip 2200-1.
  • the user may check the details of the corresponding subtitle clip in order to check the contents of the subtitle clip composed of the plurality of subtitle clips like the first subtitle clip ST-A.
  • the user terminal 100 detects a long press gesture (indicated by A in FIG. 41) from the first subtitle ST-A input by the user, the first subtitle clip ST-A. Enter edit mode for.
  • FIG. 42 illustrates a state in which a caption editing mode is entered for convenience of explanation, but a delete icon and / or an edit icon are not displayed in the caption clip.
  • a touch gesture indicated by D in FIG. 42
  • the user terminal 100 displays the details of the touched subtitle.
  • a touch gesture D is input by a user in an edit mode state of a subtitle clip ST-A input to clip A, and the user terminal 100 of the subtitle clip ST-A is connected to the subtitle clip ST-A.
  • a separate window 119 for displaying the details is displayed on the display 110.
  • the caption can be executed for the caption.
  • RAM Random Access Memory
  • flash memory ROM (Read Only Memory)
  • EPROM Erasable Programmable ROM
  • EEPROM Electrically Erasable and Programmable ROM
  • a register a hard disk, a removable disk, a memory card, a USB memory, a CD-ROM, and the like, may be stored in various types of recording media readable by an electronic device.
  • the present invention can be used to edit video subtitles.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Television Signal Processing For Recording (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Disclosed are a subtitle editing apparatus, a subtitle editing method, and a storage medium. The subtitle editing apparatus according to the present invention is a subtitle editing apparatus capable of editing a moving image and a subtitle, and comprises: a display unit that displays a moving image display area displaying at least one moving image preview screen and a clip display area displaying at least one moving image clip corresponding to the displayed preview screen; and a control unit that controls the subtitle editing apparatus to enter an editing mode for the moving image clip in response to a sensed user gesture when the user gesture on the moving image clip displayed in the clip display area is sensed, wherein the control unit is capable of editing a subtitle on at least one moving image clip according to a sensed user gesture when the user gesture on the moving image clip is sensed in the editing mode.

Description

자막 편집 장치 및 자막 편집 방법Subtitle editing device and subtitle editing method
본 발명은 자막 편집 장치 및 자막 편집 방법에 관한 것으로, 보다 상세하게는 동영상 클립 상에서 직관적으로 자막 입력, 자막 삭제, 자막 복사, 자막 이동, 자막 저장 등의 자막 편집을 수행할 수 있는 자막 편집 장치 및 자막 편집 방법에 관한 것이다.The present invention relates to a caption editing apparatus and a caption editing method, and more particularly, to a caption editing apparatus capable of intuitively inputting captions, deleting captions, copying captions, moving captions, and saving captions on a video clip. A subtitle editing method.
최근 스마트폰이나 태블릿과 같은 휴대 단말이 널리 보급되고, 이러한 휴대 단말의 성능 향상과 무선 통신 기술의 발달로 인하여 사용자는 휴대 단말을 이용하여 동영상을 촬영하고, 편집하며, 공유할 수 있게 되었다.Recently, portable terminals such as smartphones and tablets are widely used, and the performance of the portable terminals and the development of wireless communication technology allow a user to shoot, edit, and share a video using the portable terminal.
하지만, 휴대 단말은 액정 화면 크기 및 하드웨어의 퍼포먼스의 제약으로 인하여, 사용자가 일반 PC 환경에서처럼 원활하게 동영상을 편집할 수 없다. 이러한 불편함을 개선하기 위해서 휴대 단말에서 사용할 수 있는 동영상 편집 방법에 대한 사용자의 요구가 증대되고 있다.However, due to the limitations of the LCD screen size and the performance of the hardware, the portable terminal may not edit a video smoothly as in a general PC environment. In order to alleviate such inconvenience, user demand for a video editing method that can be used in a portable terminal is increasing.
휴대 단말에서도 사용자가 직관적으로 사용할 수 있는 동영상 편집 방법에 대한 요구가 증대되면서, 휴대 단말에서 동영상 편집과 함께 자막 편집을 하는 방법에 대한 필요성도 요구된다.As a demand for a video editing method that a user can intuitively use in a mobile terminal increases, there is a need for a method of editing subtitles together with video editing in a mobile terminal.
종래의 자막 편집 방법은 동영상을 재생시켜 타임 라인을 획득하고, 타인 라인에 따라 스프레드 시트 방식으로 자막 텍스트를 편집하여 저장하는 방식이었다. 이렇게 타임 라인을 이용하는 자막 편집 방법은 액정 화면 크기의 제약이 있는 스마트 폰에서 사용자가 자막 편집을 손쉽게 할 수 없다는 불편한 문제점이 있다.The conventional subtitle editing method is a method of obtaining a timeline by playing a video, and editing and storing the subtitle text in a spreadsheet method according to a tine line. Such a subtitle editing method using a timeline has an inconvenient problem that a user cannot easily edit subtitles in a smartphone having a limitation of the LCD screen size.
따라서, 동영상 클립 단위로 동영상을 편집하는 방법에 더불어 동영상 클립 단위로 자막을 편집할 수 있는 사용자 직관적인 자막 편집 장치 및 자막 편집 방법에 관한 필요성이 요청된다.Accordingly, there is a need for a user-intuitive subtitle editing device and subtitle editing method capable of editing subtitles in a movie clip unit, as well as a method for editing a movie in a movie clip unit.
본 발명은 동영상 클립 단위로 자막을 편집하는 자막 편집 장치 및 자막 편집 방법을 제공하는 것을 목적으로 한다.An object of the present invention is to provide a caption editing apparatus and a caption editing method for editing captions by video clip units.
본 발명은 사용자 직관적인 자막 편집 장치 및 자막 편집 방법을 제공하는 것을 목적으로 한다.An object of the present invention is to provide a user-intuitive subtitle editing device and a subtitle editing method.
본 발명의 일 실시 예에 따른 동영상 및 자막을 편집할 수 있는 자막 편집 장치는, 적어도 하나 이상의 동영상 미리보기 화면을 표시하는 동영상 표시 영역과 상기 표시된 미리보기 화면에 대응하는 적어도 하나 이상의 동영상 클립을 표시하는 클립 표시 영역을 디스플레이하는 디스플레이부 및 상기 클립 표시 영역에 표시된 동영상 클립에 대한 사용자 제스처를 감지하면, 상기 감지된 사용자 제스처에 대응하여 상기 동영상 클립에 대한 편집 모드로 진입하도록 제어하는 제어부를 포함하되, 상기 제어부는, 상기 편집 모드에서 상기 적어도 하나 이상의 동영상 클립에 대한 사용자 제스처를 감지하면, 상기 감지된 제스처에 따라 동영상 클립에서 자막 클립을 편집할 수 있다. A subtitle editing apparatus capable of editing a video and a subtitle according to an exemplary embodiment of the present invention displays a video display area displaying at least one video preview screen and at least one video clip corresponding to the displayed preview screen. A display unit for displaying a clip display area and a control unit for controlling to enter an edit mode for the video clip in response to the detected user gesture when detecting a user gesture for a video clip displayed on the clip display area. If the controller detects a user gesture for the at least one video clip in the editing mode, the controller may edit the caption clip in the video clip according to the detected gesture.
이 경우에, 상기 제어부는, 상기 동영상 클립에서 시작 시간 및 재생 시간 정보를 추출하고, 상기 추출된 시작 시간 및 재생 시간 정보를 상기 동영상 클립에 입력된 자막 클립에 반영하며, 상기 시작 시간 및 재생 시간 정보에 기초하여 상기 자막 클립을 자막 파일로 변환할 수 있다. In this case, the controller extracts start time and play time information from the video clip, reflects the extracted start time and play time information to the subtitle clip input to the video clip, and starts the start time and play time. The caption clip may be converted into a caption file based on the information.
한편, 상기 제어부는, 상기 사용자 제스처로 자막 입력 제스처를 감지하면 자막 입력을 위한 입력창을 표시하고, 상기 입력창을 통해서 입력된 자막에 기초하여 자막 클립을 생성하여 상기 동영상 클립 상에 표시하도록 제어할 수 있다. On the other hand, if the control unit detects a caption input gesture with the user gesture, the controller displays an input window for caption input, and generates a caption clip based on the caption input through the input window and displays the caption clip on the video clip. can do.
한편, 상기 제어부는, 상기 사용자 제스처로 자막 삭제 제스처를 감지하면 상기 동영상 클립 상에 입력된 자막 클립을 삭제하도록 제어할 수 있다. The control unit may control to delete the caption clip input on the video clip when the caption deletion gesture is detected by the user gesture.
한편, 상기 제어부는, 상기 사용자 제스처로 자막 이동 제스처를 감지하면 원본 동영상 클립 상에 표시된 자막 클립을 대상 동영상 클립 상으로 이동하도록 제어할 수 있다. The controller may control to move the caption clip displayed on the original video clip onto the target video clip when the caption movement gesture is detected by the user gesture.
한편, 상기 제어부는, 상기 사용자 제스처로 자막 복사 제스처를 감지하면 원본 동영상 클립 상에 표시된 자막 클립을 복사하고, 복사된 자막 클립을 대상 동영상 클립 상에 복사하도록 제어할 수 있다. When the subtitle copy gesture is detected by the user gesture, the controller may copy the subtitle clip displayed on the original video clip and copy the copied subtitle clip on the target video clip.
본 발명의 다른 실시 예에 따른 자막 편집 방법은, 디스플레이부에 표시되는 동영상 및 자막을 편집할 수 있는 자막 편집 장치를 이용한 자막 편집 방법으로, 상기 디스플레이부에 적어도 하나 이상의 동영상 미리보기 화면을 표시하는 동영상 표시 영역과 상기 표시된 미리보기 화면에 대응하는 적어도 하나 이상의 동영상 클립을 표시하는 클립 표시 영역을 디스플레이하는 단계, 상기 클립 표시 영역에 표시된 동영상 클립에 대한 사용자 제스처를 감지하는 단계, 상기 감지된 사용자 제스처에 대응하여 상기 동영상 클립에 대한 편집 모드로 진입하는 단계 및 상기 편집 모드에서 상기 적어도 하나 이상의 동영상 클립에 대한 사용자 제스처를 감지하면, 상기 감지된 제스처에 따라 동영상 클립에서 자막을 편집하는 단계를 포함한다.A subtitle editing method according to another embodiment of the present invention is a subtitle editing method using a subtitle editing device capable of editing a video and a subtitle displayed on a display unit, and displaying at least one video preview screen on the display unit. Displaying a clip display area displaying a video display area and at least one video clip corresponding to the displayed preview screen; detecting a user gesture for a video clip displayed on the clip display area; and detecting the detected user gesture. And entering an edit mode for the video clip in response to detecting the user gesture for the at least one video clip in the edit mode, and editing the subtitles in the video clip according to the detected gesture. .
본 발명에 의하면, 동영상 편집과 동시에 자막 편집을 용이하게 수행할 수 있다.According to the present invention, subtitle editing can be easily performed simultaneously with video editing.
본 발명에 의하면, 액정 화면 크기의 제약이 있는 스마트 폰에서 사용자가 용이하게 자막 편집을 수행할 수 있다.According to the present invention, a user can easily perform subtitle editing in a smartphone having a limitation of a liquid crystal screen size.
본 발명에 의하면, 동영상 클립 단위로 자막 편집이 가능하며, 사용자 직관적인 자막 편집이 가능하다.According to the present invention, it is possible to edit the subtitles by video clip units, and the user intuitive subtitle editing.
도 1은 디스플레이부를 구비한 사용자 단말을 나타내는 도면,1 is a view showing a user terminal having a display unit;
도 2는 사용자 단말의 구성을 나타내는 블럭도,2 is a block diagram showing a configuration of a user terminal;
도 3은 사용자 단말의 시스템 계층 구조를 나타내는 도면,3 is a diagram illustrating a system hierarchy of a user terminal;
도 4는 사용자 단말에서 프레임 버퍼를 이용하여 디스플레이부의 동작을 제어하는 구성을 나타내는 블럭도,4 is a block diagram illustrating a configuration of controlling an operation of a display unit using a frame buffer in a user terminal;
도 5 내지 도 11은 본 발명의 일 실시 예에 따른 동영상 클립에 자막을 입력하는 과정을 나타내는 도면, 5 to 11 are views illustrating a process of inputting a caption into a video clip according to an embodiment of the present invention;
도 12 내지 도 16은 본 발명의 일 실시 예에 따른 동영상 클립에 입력된 자막을 편집하는 과정을 나타내는 도면,12 to 16 illustrate a process of editing a caption input to a video clip according to an embodiment of the present invention;
도 17 내지 도 20은 본 발명의 일 실시 예에 따른 동영상 클립에 입력된 자막을 삭제하는 과정을 나타내는 도면,17 to 20 are diagrams illustrating a process of deleting a caption input to a video clip according to an embodiment of the present invention;
도 21 내지 도 24는 본 발명의 일 실시 예에 따른 동영상 클립에 입력된 자막을 다른 동영상 클립으로 이동하는 과정을 나타내는 도면,21 to 24 are views illustrating a process of moving a caption input to a video clip to another video clip according to an embodiment of the present invention;
도 25 내지 도 28은 본 발명의 일 실시 예에 따른 동영상 클립과 입력된 자막을 동기화하는 과정을 나타내는 도면,25 to 28 are views illustrating a process of synchronizing a video clip and an input subtitle according to an embodiment of the present invention;
도 29 내지 도 38은 본 발명의 일 실시 예에 따른 복수의 입력 자막을 편집하는 과정을 나타내는 도면, 그리고,29 to 38 are views illustrating a process of editing a plurality of input subtitles according to an embodiment of the present invention;
도 39 내지 도 43은 본 발명의 일 실시 예에 따른 자막을 포함하는 동영상을 클립화하는 과정을 나타내는 도면이다.39 to 43 are diagrams illustrating a process of clipping a video including a caption according to an embodiment of the present invention.
본 발명의 일 실시 예에 따른 동영상 및 자막을 편집할 수 있는 자막 편집 장치는, 적어도 하나 이상의 동영상 미리보기 화면을 표시하는 동영상 표시 영역과 상기 표시된 미리보기 화면에 대응하는 적어도 하나 이상의 동영상 클립을 표시하는 클립 표시 영역을 디스플레이하는 디스플레이부 및 상기 클립 표시 영역에 표시된 동영상 클립에 대한 사용자 제스처를 감지하면, 상기 감지된 사용자 제스처에 대응하여 상기 동영상 클립에 대한 편집 모드로 진입하도록 제어하는 제어부를 포함하되, 상기 제어부는, 상기 편집 모드에서 상기 적어도 하나 이상의 동영상 클립에 대한 사용자 제스처를 감지하면, 상기 감지된 제스처에 따라 동영상 클립에서 자막 클립을 편집할 수 있다. A subtitle editing apparatus capable of editing a video and a subtitle according to an exemplary embodiment of the present invention displays a video display area displaying at least one video preview screen and at least one video clip corresponding to the displayed preview screen. A display unit for displaying a clip display area and a control unit for controlling to enter an edit mode for the video clip in response to the detected user gesture when detecting a user gesture for a video clip displayed on the clip display area. If the controller detects a user gesture for the at least one video clip in the editing mode, the controller may edit the caption clip in the video clip according to the detected gesture.
이 경우에, 상기 제어부는, 상기 동영상 클립에서 시작 시간 및 재생 시간 정보를 추출하고, 상기 추출된 시작 시간 및 재생 시간 정보를 상기 동영상 클립에 입력된 자막 클립에 반영하며, 상기 시작 시간 및 재생 시간 정보에 기초하여 상기 자막 클립을 자막 파일로 변환할 수 있다. In this case, the controller extracts start time and play time information from the video clip, reflects the extracted start time and play time information to the subtitle clip input to the video clip, and starts the start time and play time. The caption clip may be converted into a caption file based on the information.
한편, 상기 제어부는, 상기 사용자 제스처로 자막 입력 제스처를 감지하면 자막 입력을 위한 입력창을 표시하고, 상기 입력창을 통해서 입력된 자막에 기초하여 자막 클립을 생성하여 상기 동영상 클립 상에 표시하도록 제어할 수 있다. On the other hand, if the control unit detects a caption input gesture with the user gesture, the controller displays an input window for caption input, and generates a caption clip based on the caption input through the input window and displays the caption clip on the video clip. can do.
한편, 상기 제어부는, 상기 사용자 제스처로 자막 삭제 제스처를 감지하면 상기 동영상 클립 상에 입력된 자막 클립을 삭제하도록 제어할 수 있다. The control unit may control to delete the caption clip input on the video clip when the caption deletion gesture is detected by the user gesture.
한편, 상기 제어부는, 상기 사용자 제스처로 자막 이동 제스처를 감지하면 원본 동영상 클립 상에 표시된 자막 클립을 대상 동영상 클립 상으로 이동하도록 제어할 수 있다. The controller may control to move the caption clip displayed on the original video clip onto the target video clip when the caption movement gesture is detected by the user gesture.
한편, 상기 제어부는, 상기 사용자 제스처로 자막 복사 제스처를 감지하면 원본 동영상 클립 상에 표시된 자막 클립을 복사하고, 복사된 자막 클립을 대상 동영상 클립 상에 복사하도록 제어할 수 있다. When the subtitle copy gesture is detected by the user gesture, the controller may copy the subtitle clip displayed on the original video clip and copy the copied subtitle clip on the target video clip.
본 발명의 다른 실시 예에 따른 자막 편집 방법은, 디스플레이부에 표시되는 동영상 및 자막을 편집할 수 있는 자막 편집 장치를 이용한 자막 편집 방법으로, 상기 디스플레이부에 적어도 하나 이상의 동영상 미리보기 화면을 표시하는 동영상 표시 영역과 상기 표시된 미리보기 화면에 대응하는 적어도 하나 이상의 동영상 클립을 표시하는 클립 표시 영역을 디스플레이하는 단계, 상기 클립 표시 영역에 표시된 동영상 클립에 대한 사용자 제스처를 감지하는 단계, 상기 감지된 사용자 제스처에 대응하여 상기 동영상 클립에 대한 편집 모드로 진입하는 단계 및 상기 편집 모드에서 상기 적어도 하나 이상의 동영상 클립에 대한 사용자 제스처를 감지하면, 상기 감지된 제스처에 따라 동영상 클립에서 자막을 편집하는 단계를 포함한다.A subtitle editing method according to another embodiment of the present invention is a subtitle editing method using a subtitle editing device capable of editing a video and a subtitle displayed on a display unit, and displaying at least one video preview screen on the display unit. Displaying a clip display area displaying a video display area and at least one video clip corresponding to the displayed preview screen; detecting a user gesture for a video clip displayed on the clip display area; and detecting the detected user gesture. And entering an edit mode for the video clip in response to detecting the user gesture for the at least one video clip in the edit mode, and editing the subtitles in the video clip according to the detected gesture. .
이하에서는 첨부된 도면을 참고하여 본 발명의 다양한 실시 예를 구체적으로 설명한다. 그러나, 본 발명이 실시 예들에 의해 제한되거나 한정되는 것은 아니다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited or limited by the embodiments.
본 발명의 다양한 실시 예는 스마트폰, 태블릿 등과 같은 디스플레이부를 구비한 사용자 단말에서 구현될 수 있으며, 본 발명의 일 실시 예에 따른 자막 편집 장치는 자막 편집 어플리케이션을 구비한 사용자 단말에 의해서 구현될 수 있다. 또는 동영상 및 자막 데이터를 처리할 수 있는 이미지 처리부 및 제어부를 구비한 사용자 단말에 의해서 구현될 수도 있다. 이러한 사용자 단말은 휴대 가능한 전자 장치를 의미한다. Various embodiments of the present invention may be implemented in a user terminal having a display unit such as a smart phone, a tablet, etc. The subtitle editing apparatus according to an embodiment of the present invention may be implemented by a user terminal having a subtitle editing application. have. Alternatively, the present invention may be implemented by a user terminal having an image processor and a controller capable of processing video and subtitle data. The user terminal refers to a portable electronic device.
도 1은 디스플레이부를 구비한 사용자 단말을 나타내는 도면이다.1 is a diagram illustrating a user terminal having a display unit.
도 1을 참고하면 사용자 단말(100)은 디스플레이부(110)를 구비할 수 있다. 디스플레이부(110)는 각종의 아이콘, 컨텐츠, 브라우저, 어플리케이션, 프로그램 등을 표시할 수 있다. 또한, 디스플레이부(110)는 사용자의 제스처를 감지할 수 있는 터치 패널을 포함할 수 있다. 이러한 디스플레이부(110)에서 동영상 및 자막을 처리하는 과정에 대해서는 별도의 도면을 참고하여 설명한다.Referring to FIG. 1, the user terminal 100 may include a display 110. The display 110 may display various icons, contents, browsers, applications, programs, and the like. In addition, the display 110 may include a touch panel capable of detecting a user's gesture. A process of processing a video and a caption in the display 110 will be described with reference to a separate drawing.
이하 본 발명의 다양한 실시 예는 디스플레이부(110)에 표시되는 자막 처리 과정을 예시적으로 설명한다. 이하에서 설명되는 디스플레이부(110)에 표시되는 자막 처리 과정의 레이아웃은 설명의 편의를 위한 것일 뿐이고 이러한 레이아웃으로 인하여 본 발명의 기술적 사상이 한정되거나 제한되는 것은 아니다.Hereinafter, various embodiments of the present disclosure will exemplarily describe a caption processing process displayed on the display 110. The layout of the caption processing process displayed on the display unit 110 described below is for convenience of description only, and the technical spirit of the present invention is not limited or limited by the layout.
사용자 단말(100)에서 동영상 및 자막을 편집하는 방법에 대해 설명하기에 앞서, 사용자 단말(100)의 하드웨어 구성에 대해서 간략하게 살펴보고, 사용자 단말(100) 상에서 구동되는 자막 처리 과정을 도면과 함께 설명한다. Before describing a method of editing a video and a caption in the user terminal 100, the hardware configuration of the user terminal 100 will be briefly described, and a caption processing process driven on the user terminal 100 will be described with the drawings. Explain.
도 2를 참고하면, 사용자 단말(100)의 하드웨어 구성을 설명하기 위한 블럭도이다. 사용자 단말(100)은 디스플레이부(110), 저장부(120), 제어부(130), 센서부(140), 통신부(150), 카메라부(160), 동영상 편집부(170), 전원부(180) 및 이들을 상호 연결하는 데이터 버스(190)를 포함할 수 있다.Referring to FIG. 2, a block diagram for describing a hardware configuration of the user terminal 100 is described. The user terminal 100 includes a display 110, a storage 120, a controller 130, a sensor 140, a communicator 150, a camera 160, a video editing unit 170, and a power supply 180. And a data bus 190 interconnecting them.
디스플레이부(110)는 제어부(130)의 제어하에서 실행가능한 다양한 어플리케이션(예, 동영상 편집 프로그램, 웹브라우저, 문서 편집 프로그램, 검색 프로그램, 검색 엔진, 데이터 전송 등)을 표시하고 그에 적응되게 구성된 사용자 인터페이스를 제공하는 디스플레이 장치이다. The display unit 110 displays and adapts various applications (eg, a video editing program, a web browser, a document editing program, a search program, a search engine, a data transmission, etc.) executable under the control of the controller 130 and adapted to the same. It is a display device that provides.
디스플레이부(110)는 터치 스크린으로 구현될 수 있고, 사용자의 신체(예, 엄지를 포함하는 손가락) 또는 감지 가능한 입력 수단(예, 스타일러스 펜)을 통해 적어도 하나의 터치 제스처를 입력받을 수 있다. The display 110 may be implemented as a touch screen, and may receive at least one touch gesture through a user's body (eg, a finger including a thumb) or a senseable input means (eg, a stylus pen).
디스플레이부(110)는 터치 센서를 통해서 감지된 사용자 제스처에 관한 감지 신호를 디지털 신호(예, X와 Y좌표)로 변환하여 제어부(130)로 전송한다. 제어부(130)는 수신된 디지털 신호를 이용하여 디스플레이부(110)를 통해서 입력된 사용자 동작에 대응하는 제어 동작을 수행할 수 있다. 예를 들어, 제어부(130)는 사용자 동작에 응답하여 디스플레이부(110)에 표시된 소정의 키패드가 선택되게 하거나 또는 소프트 키에 대응하는 어플리케이션을 실행할 수 있다.The display 110 converts a detection signal regarding a user gesture detected through the touch sensor into a digital signal (for example, X and Y coordinates) and transmits the signal to the controller 130. The controller 130 may perform a control operation corresponding to a user operation input through the display 110 using the received digital signal. For example, the controller 130 may select a predetermined keypad displayed on the display 110 in response to a user's operation or execute an application corresponding to a soft key.
디스플레이부(110)는 동영상 미리보기 화면을 표시하는 동영상 표시 영역, 복수의 동영상을 검색하고 현재 동영상 미리보기의 위치를 표시할 수 있는 마커 영역 및 동영상 미리보기 화면에 표시되는 동영상과 대응하는 동영상 클립을 표시하는 클립 표시 영역으로 구분되는 화면을 디스플레이할 수 있다.The display unit 110 includes a video display area displaying a video preview screen, a marker area for searching a plurality of videos and displaying the location of the current video preview, and a video clip corresponding to the video displayed on the video preview screen. A screen divided into a clip display area displaying a may be displayed.
디스플레이부(110)는 동영상 표시 영역(111), 마커 영역(113) 및 클립 표시 영역(115)에 대한 사용자 제스처 입력을 감지하고, 감지된 사용자 제스처를 제어부(130)로 전달 할 수 있다.The display 110 may detect a user gesture input for the video display region 111, the marker region 113, and the clip display region 115, and transmit the detected user gesture to the controller 130.
저장부(120)는 동영상 편집 프로그램 등과 같은 다양한 어플리케이션에 관한 데이터를 저장할 수 있다. 그리고, 저장부(120)는 동영상 편집 프로그램의 편집 대상인 각종의 동영상 파일 및 자막 파일 등을 저장할 수 있다. 또한, 저장부(120)는 이하에서 설명하는 동영상 클립과 자막 클립 사이의 동기화 정보를 저장할 수 있다. 이하 "저장부"라는 용어는 저장부(120), 롬(ROM), 램(RAM) 또는 사용자 단말(100)에 탈착/장착 가능한 메모리 카드(예, SD 카드, 메모리 스틱)를 포함할 수 있다. 또한 저장부(130)는 비휘발성 메모리, 휘발성메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수도 있다.The storage unit 120 may store data regarding various applications such as a video editing program. The storage unit 120 may store various video files, subtitle files, and the like, which are editing targets of the video editing program. In addition, the storage unit 120 may store synchronization information between the video clip and the subtitle clip described below. Hereinafter, the term “storage unit” may include a memory card (eg, an SD card or a memory stick) that can be attached / removed / installed in the storage unit 120, a ROM, a RAM, or the user terminal 100. . The storage unit 130 may also include a nonvolatile memory, a volatile memory, a hard disk drive (HDD), or a solid state drive (SSD).
제어부(130)는 디스플레이부(110)를 통해서 클립 표시 영역에 표시된 동영상 클립에 대한 사용자 제스처를 감지하면, 감지된 사용자 제스처에 대응하여 동영상 클립에 대한 편집 모드로 진입하도록 제어할 수 있다. 이때, 동영상 클립에 대한 편집 모드는, 해당 동영상 클립에 입력된 자막을 편집할 수 있도록 다양한 편집 제스처를 입력할 수 있는 상태를 의미한다. When the controller 130 detects a user gesture for the video clip displayed on the clip display area through the display 110, the controller 130 may control to enter an edit mode for the video clip in response to the detected user gesture. In this case, the editing mode for the video clip refers to a state in which various editing gestures can be input to edit the subtitles input to the video clip.
제어부(130)는 편집 모드에서 적어도 하나 이상의 동영상 클립에 대한 사용자 제스처를 감지하면, 감지된 제스처에 따라 동영상 클립에서 자막을 편집할 수 있다. When the controller 130 detects a user gesture for at least one video clip in the edit mode, the controller 130 may edit the caption in the video clip according to the detected gesture.
제어부(130)는 사용자 제스처가 입력된 동영상 클립에 대한 시간 정보를 추출하고, 추출된 시간 정보를 자막 클립에 시간 정보를 반영함으로써 동영상 클립과 자막 클립을 동기화할 수 있다. The controller 130 may synchronize the caption clip with the caption clip by extracting time information on the video clip to which the user gesture is input and reflecting the extracted time information on the caption clip.
제어부(130)는 클립 표시 영역에 디스플레이된 동영상 클립에서 자막 입력 제스처를 감지하면 자막 입력을 위한 입력창을 표시하도록 디스플레이부(110)를 제어할 수 있다. 제어부(130)는 입력창을 통해서 입력된 자막에 기초하여 자막 클립을 생성하고, 생성된 자막 클립을 해당 동영상 클립 상에 표시하도록 디스플레이부(110)를 제어할 수 있다.The controller 130 may control the display 110 to display an input window for caption input when the caption input gesture is detected in the video clip displayed on the clip display area. The controller 130 may generate the caption clip based on the caption input through the input window, and control the display 110 to display the generated caption clip on the corresponding video clip.
제어부(130)는 클립 표시 영역에 디스플레이된 동영상 클립에서 자막 삭제 제스처를 감지하면 동영상 클립 상에 입력된 자막 클립을 삭제하도록 디스플레이부(110)를 제어할 수 있다. The controller 130 may control the display 110 to delete the caption clip input on the video clip when the caption deletion gesture is detected in the video clip displayed on the clip display area.
제어부(130)는 클립 표시 영역에 디스플레이된 동영상 클립에서 자막 이동 제스처를 감지하면 원본 동영상 클립 상에 표시된 자막 클립을 대상 동영상 클립 상으로 이동하도록 제어할 수 있다. The controller 130 may control to move the caption clip displayed on the original video clip onto the target video clip when the caption movement gesture is detected in the video clip displayed on the clip display area.
제어부(130)는 클립 표시 영역에 디스플레이된 동영상 클립에서 자막 복사 제스처를 감지하면 원본 동영상 클립 상에 표시된 자막 클립을 복사하고, 복사된 자막 클립을 대상 동영상 클립 상에 붙여넣기 하도록 제어할 수 있다.The controller 130 may control to copy a caption clip displayed on the original video clip and to paste the copied caption clip on the target video clip when the caption copy gesture is detected in the video clip displayed in the clip display area.
앞서 살펴본 바와 같이, 자막 클립을 이동하거나 복사하는 경우, 제어부(130)는 해당 동영상 클립과 자막 클립의 동기화 정보를 수정하고, 수정된 동기화 정보에 기초하여 자막 파일을 생성하도록 제어할 수 있다.As described above, when moving or copying a subtitle clip, the controller 130 may modify the synchronization information of the corresponding video clip and the subtitle clip, and control to generate the subtitle file based on the modified synchronization information.
센서부(140)는 터치 센서, 지자기센서, 가속도 센서, 및 근접 센서 등을 포함하도록 구성할 수 있다. 본 발명의 다양한 실시 예를 이해하기 위해서는 터치 센서에 대한 설명 이외에 나머지 센서에 대한 자세한 설명은 생락한다. The sensor unit 140 may be configured to include a touch sensor, a geomagnetic sensor, an acceleration sensor, a proximity sensor, and the like. In order to understand the various embodiments of the present disclosure, a detailed description of the remaining sensors in addition to the description of the touch sensor is omitted.
터치 센서는 사용자에 의해서 입력된 디스플레이부(110)에 대한 터치를 감지할 수 있는 센서이다. 터치 센서는 사용자의 터치를 감지하는 방식에 따라 정전 방식과 압전 방식으로 나뉠 수 있다. 본 발명의 일 실시 예에 따른 터치 센서는 두 가지 방식으로 각각 구현될 수 있다. 터치 센서는 디스플레이 패널과 함께 디스플레이부(110)에 포함되어 구성될 수 있다. The touch sensor is a sensor capable of sensing a touch on the display unit 110 input by the user. The touch sensor may be divided into an electrostatic method and a piezoelectric method according to a method of sensing a user's touch. The touch sensor according to an embodiment of the present invention may be implemented in two ways, respectively. The touch sensor may be included in the display unit 110 together with the display panel.
터치 센서는 손가락과 같은 신체 또는 감지 가능한 입력 수단으로 디스플레이부(110)를 눌러서 디스플레이 화면상에 표시된 각종의 동영상 클립, 자막 클립, 키패드, 아이콘 등을 선택할 수 있는 센서를 의미한다. 터치 센서는 용량변화, 저항변화, 또는 광량변화를 이용한다. The touch sensor refers to a sensor that can select various video clips, caption clips, keypads, icons, etc. displayed on the display screen by pressing the display 110 with a body such as a finger or a detectable input means. The touch sensor uses capacitance change, resistance change, or light quantity change.
통신부(150)는 무선랜 모듈(미도시), 근거리 통신 모듈(미도시) 및 커넥터(미도시)을 포함할 수 있다. The communication unit 150 may include a wireless LAN module (not shown), a short range communication module (not shown), and a connector (not shown).
통신부(150)는 무선랜 모듈과 근거리통신 모듈 중 적어도 하나를 포함할 수 있다. 예를 들어, 무선랜 모듈만 포함하거나, 근거리통신 모듈만 포함하거나 또는 무선랜 모듈과 근거리통신 모듈을 모두 포함할 수 있다.The communication unit 150 may include at least one of a wireless LAN module and a short range communication module. For example, it may include only a wireless LAN module, only a short range communication module, or may include both a wireless LAN module and a short range communication module.
카메라부(160)는 제어부(130)의 제어에 따라 정지이미지 또는 동영상을 촬영할 수 있다. 경우에 따라, 카메라부(160)의 2개 이상의 복수의 카메라로 구성될 수 있다. 카메라부(160)는 사용자 단말(100)의 하우징에 구비되거나 혹은 별도의 연결 수단을 사용하여 사용자 단말(100)에 연결될 수 있다. 카메라(160)는 촬영에 필요한 광량을 제공하는 보조 광원(예, 플래시(도시되지 아니함))를 포함할 수 있다. The camera unit 160 may capture a still image or a video under the control of the controller 130. In some cases, two or more cameras of the camera unit 160 may be configured. The camera unit 160 may be provided in the housing of the user terminal 100 or may be connected to the user terminal 100 using a separate connection means. The camera 160 may include an auxiliary light source (eg, a flash (not shown)) that provides an amount of light required for photographing.
카메라부(160)는 사용자의 움직임 혹은 형상을 감지(detect)하고, 이를 어플리케이션의 실행 혹은 제어를 위한 입력으로써 제어부(130)에게 전달할 수 있다. 일 예로서 사용자의 움직임이란 카메라를 통해 감지되는 사용자의 손의 움직임을 의미한다. 사용자의 형상이란 카메라를 통해 감지되는 사용자의 얼굴, 손 등의 신체 형상을 의미할 수 있다. The camera unit 160 may detect a movement or a shape of a user and transmit it to the controller 130 as an input for executing or controlling an application. As an example, the movement of the user refers to the movement of the user's hand detected through the camera. The shape of the user may mean a body shape of a user's face, hand, or the like detected through the camera.
동영상 편집부(170)는 동영상 및/또는 자막 파일을 편집할 수 있다. 즉, 동영상 편집부(170)는 편집 대상 동영상에서 시작 프레임 내지 마지막 프레임을 포함하는 적어도 하나의 동영상 클립(Clip)을 생성하고, 생성된 동영상 클립 단위로 클립 복사, 클립 순서 이동, 클립 삭제 등의 다양한 동영상 편집 기능을 수행할 수 있다.The video editing unit 170 may edit a video and / or a subtitle file. That is, the video editing unit 170 generates at least one video clip including the start frame or the last frame in the edited video, and copies various clips, moves the order of clips, and deletes clips in the generated video clip units. You can perform the video editing function.
동영상 편집부(170)는 클립을 표시하기 위하여 화면의 일부에 해당 클립 내의 대표 프레임을 썸네일(thumbnail) 영상으로 표시할 수 있다. 즉, 클립 표시 영역(115)에 썸네일 영상으로 동영상 클립이 디스플레이될 수 있다. 그리고 클립 표시 영역(115)에 아이콘 형식으로 표시되는 썸네일 영상을 조작함으로써, 해당 동영상 클립에 대한 조작이 이루어진다. 또한, 클립 표시 영역(115)의 동영상 클립 상에서 자막 클립을 편집하는 사용자 조작이 이루어질 수 있다. The video editing unit 170 may display a representative frame in the clip as a thumbnail image on a part of the screen in order to display the clip. That is, the video clip may be displayed as a thumbnail image in the clip display area 115. Then, the manipulation of the thumbnail image displayed in the icon format in the clip display area 115 is performed on the corresponding movie clip. In addition, a user operation of editing a caption clip on a video clip of the clip display area 115 may be performed.
동영상 편집부(170)는 제어부(130)의 제어하에서 각종의 동영상 및 자막 편집을 전용으로 수행하는 독립된 구성으로 설계할 수 있다. 또는 동영상 편집부(170)는 어플리케이션 프로그램으로 온라인 혹은 오프라인을 통해서 공급되어 사용자 단말(100)에 설치되어 제어부(130)의 제어하에서 동영상 편집을 실행하도록 구성될 수 있다.The video editing unit 170 may be designed in an independent configuration that performs various video and subtitle editing exclusively under the control of the controller 130. Alternatively, the video editing unit 170 may be supplied through an online or offline application program and installed in the user terminal 100 to execute video editing under the control of the controller 130.
본 발명의 다양한 실시 예에 따르면 동영상 클립 상에서 입력된 자막 클립에 대한 편집 작업은 제어부(130)에 의해서 직접 처리될 수도 있지만, 동영상 편집부(170)에 의해서 처리될 수도 있다. According to various embodiments of the present disclosure, the editing operation for the caption clip input on the video clip may be directly processed by the controller 130 or may be processed by the video editing unit 170.
전원부(180)는 사용자 단말(100) 내부의 각 구성요소들에게 전원을 공급하기 위한 구성요소이다. 이러한 전원부(180)는 충전가능한 배터리와, 충전가능한 배터리를 충전할 수 있는 전원 어댑터로 구성될 수 있다. The power supply unit 180 is a component for supplying power to each component inside the user terminal 100. The power supply unit 180 may include a rechargeable battery and a power adapter capable of charging the rechargeable battery.
데이터 버스(190)는 제어부(130)의 제어하에 사용자 단말(100) 내부의 각 구성요소들에 데이터 통신이 가능한 경로를 제공하는 구성이다.The data bus 190 is a component that provides a path through which data communication is possible to each component inside the user terminal 100 under the control of the controller 130.
도 3은 본 발명의 일 실시 예에 따른 사용자 단말의 시스템 계층 구조를 설명하기 위한 도면이다.3 is a diagram illustrating a system hierarchy structure of a user terminal according to an exemplary embodiment.
도 3을 참고하면, 운영체제(Operating System: OS, 220)는 하드웨어(210)의 전반적인 동작을 제어하고 하드웨어(210)를 관리하는 기능을 수행한다. 즉, OS(220)는 하드웨어 관리와 메모리, 보안 등의 기본적인 기능을 담당하는 계층이다. OS(220)는 디스플레이부(110)를 구동시키기 위한 디스플레이 드라이버, 데이터 송수신을 위한 통신 드라이버, 카메라를 구동시키기 위한 카메라 드라이버, 오디오부를 구동시키기 위한 오디오 드라이버, 비디오 신호 처리를 하는 이미지 처리 코덱 및, 전원관리자 등의 모듈을 포함한다. 또한, 개발자가 접근할 수 있는 라이브러리와 런타임(runtime)이 포함될 수 있다.Referring to FIG. 3, an operating system (OS) 220 controls a general operation of the hardware 210 and manages the hardware 210. In other words, the OS 220 is a layer that performs basic functions such as hardware management, memory, and security. The OS 220 may include a display driver for driving the display unit 110, a communication driver for transmitting and receiving data, a camera driver for driving a camera, an audio driver for driving an audio unit, an image processing codec for processing a video signal, and It includes a module such as a power manager. It can also include libraries and runtimes that developers can access.
OS (220)보다 상위 계층으로 프레임워크(frame work) 계층(230)이 존재한다. 프레임워크(230)는 어플리케이션 계층(240)과 OS 계층(220)을 연결하는 역할을 수행한다. 즉, 프레임워크 계층(230)은 로케이션 매니저(location manager), 알림 매니저(notification manager) 및 디스플레이부에 영상을 표시하기 위한 프레임 버퍼(frame buffer)를 포함한다.There is a framework work layer 230 above the OS 220. The framework 230 connects the application layer 240 and the OS layer 220. That is, the framework layer 230 includes a location manager, a notification manager, and a frame buffer for displaying an image on the display unit.
프레임워크 계층(230) 상부 계층에는 사용자 단말(100)의 다양한 기능을 구현하는 어플리케이션 계층(240)이 위치한다. 예컨대, 통화 어플리케이션(241), 동영상 편집 어플리케이션(242), 카메라 어플리케이션(243), 브라우저 어플리케이션(244) 및 제스처 어플리케이션(245) 등 다양한 응용프로그램이 포함될 수 있다.In the upper layer of the framework layer 230, an application layer 240 for implementing various functions of the user terminal 100 is located. For example, various applications may be included, such as a call application 241, a video editing application 242, a camera application 243, a browser application 244, and a gesture application 245.
사용자 제어 명령이 사용자 단말(100)에 입력되면 어플리케이션 계층(240)부터 하드웨어(210)까지 전달되면서 입력된 제어 명령에 대응하는 특정 어플리케이션이 실행되고, 그 결과가 디스플레이부(110)에 표시될 수 있다.When the user control command is input to the user terminal 100, a specific application corresponding to the input control command is executed while being transmitted from the application layer 240 to the hardware 210, and the result may be displayed on the display 110. have.
사용자 단말(100)의 디스플레이부(110)에 화면이 표시되는 것에 대한 보다 상세한 설명은 이하 도 4를 참고하여 설명한다. A more detailed description of displaying the screen on the display unit 110 of the user terminal 100 will be described with reference to FIG. 4.
도 4는 사용자 단말에서 프레임 버퍼를 이용하여 디스플레이부의 동작을 제어하는 구성을 나타내는 블럭도이다.4 is a block diagram illustrating a configuration of controlling an operation of a display unit using a frame buffer in a user terminal.
도 4를 참고하면, 프레임 버퍼(131)는 디스플레이부(110)에 디스플레이될 이미지 프레임을 버퍼링하기 위한 구성이다. 가령, GPU(미도시)에 의해서 디지털 신호 처리된 이미지 프레임은 프레임버퍼(131)에 비트맵 형태로 저장된다. 이 경우, 프레임 버퍼(131)의 버퍼링 영역은 디스플레이부(110)에서 지원 가능한 최대 픽셀 크기에 맞게 할당된다. 예를 들어 디스플레이부(110)에서 표시할 수 있는 최대 픽셀이 1024X1200일 경우에, 프레임 버퍼(131)는 1024X1200 크기의 비트맵 형식의 이미지가 저장될 수 있도록 버퍼 저장 영역을 할당한다. 디스플레이 드라이버(132)는 프레임 버퍼(131)에 비트맵 형식으로 저장된 이미지 프레임을 분석해서 이미지 소스 신호로 변환한다. 디스플레이 드라이버(132)는 이미지 소스 신호를 디스플레이부(110)로 제공하여, 디스플레이부(110)가 이미지 프레임을 디스플레이하도록 구동시킨다. Referring to FIG. 4, the frame buffer 131 is configured to buffer an image frame to be displayed on the display 110. For example, an image frame digitally processed by a GPU (not shown) is stored in the frame buffer 131 in a bitmap form. In this case, the buffering area of the frame buffer 131 is allocated according to the maximum pixel size supported by the display 110. For example, when the maximum pixel that can be displayed on the display 110 is 1024 × 1200, the frame buffer 131 allocates a buffer storage area so that an image having a size of 1024 × 1200 bitmap format can be stored. The display driver 132 analyzes an image frame stored in a bitmap format in the frame buffer 131 and converts the image frame into an image source signal. The display driver 132 provides an image source signal to the display 110 to drive the display 110 to display an image frame.
앞서 설명한 사용자 단말(100)의 하드웨어 구성은 이하의 설명을 위해 필요한 범위로 설명하였다. 이외에도 사용자 단말(100)은 다양한 업그레이드가 가능하며, 업그레이드에 따라 하드웨어의 구성 및 기능이 종전과 상이하게 구현될 수도 있겠다. 하지만, 이하에서 설명하는 바와 같이, 동영상과 자막을 클립 단위로 편집할 수 있는 본 발명의 기술적 사상을 실현하는 방법이 동일하다면 그러한 경우에 까지 본 발명의 기술적 사상이 미친다고 볼 수 있다. The hardware configuration of the user terminal 100 described above has been described in the necessary range for the following description. In addition, the user terminal 100 may be upgraded in various ways, and according to the upgrade, the configuration and function of hardware may be differently implemented. However, as will be described below, if the method of realizing the technical idea of the present invention that can edit video and subtitles in clip units is the same, it can be seen that the technical idea of the present invention until such a case.
동영상 클립 단위로 자막 입력 - 제1 실시 예Subtitle input by video clip unit-Embodiment 1
본 발명에 따른 제1 실시 예는 동영상 클립 단위로 임의의 자막을 입력하는 방법에 관한 것이다. 여기서, 동영상 클립(Clip)은 사용자의 선택에 따라 편집 대상 동영상에서 추출된 일부 구간의 동영상(예컨대, 복수의 프레임)을 의미한다. A first embodiment according to the present invention relates to a method for inputting an arbitrary subtitle on a video clip basis. Here, the video clip refers to a video (eg, a plurality of frames) of a partial section extracted from the editing target video according to a user's selection.
이하에서 설명하는 동영상 클립은 사용자에 의해서 기 생성되서 저장부(120)에 저장되어 있거나, 사용자가 동영상으로부터 실시간으로 프레임을 선택하여 생성할 수도 있다. 또는 사용자가 외부 서버로부터 기 생성된 동영상 클립을 다운로드 받을 수도 있다.The video clip described below may be pre-generated by the user and stored in the storage 120, or may be generated by the user selecting a frame in real time from the video. Alternatively, the user may download a previously generated video clip from an external server.
도 5 내지 도 11은 본 발명의 제1 실시 예에 따른 동영상 클립 단위로 자막을 입력하는 과정을 나타내는 도면이다.5 to 11 are diagrams illustrating a process of inputting a subtitle in units of a video clip according to a first embodiment of the present invention.
도 5를 참고하면, 사용자 단말(100)의 디스플레이부(110)는 적어도 하나 이상의 동영상의 미리보기 화면을 표시하는 동영상 표시 영역(111), 적어도 하나 이상의 동영상의 위치를 표시하는 마커 영역(113) 및 썸네일 형태로 적어도 하나 이상의 동영상 클립을 표시하는 클립 표시 영역(115)을 포함할 수 있다.Referring to FIG. 5, the display unit 110 of the user terminal 100 may include a video display area 111 displaying a preview screen of at least one video, and a marker area 113 displaying the location of at least one video. And a clip display area 115 displaying at least one video clip in thumbnail form.
예컨대, 도 5에서는 동영상 표시 영역(111)의 중앙에는 동영상 B에 대한 미리보기 화면이 디스플레이되고 있다. 사용자가 동영상 B 표시 영역을 터치한 상태로 클립 표시 영역(115)으로 드래그(drag)하는 제스처를 실행하면, 클립 표시 영역(115)에는 동영상 B에 대응하는 동영상 클립의 썸네일(도 5에서는 클립 B로 표시)이 디스플레이될 수 있다. 여기서 클립 표시 영역(115)은 사용자에 의해서 동영상 클립 및 자막 클립을 편집하기 위한 작업 공간이다. 사용자는 클립 표시 영역(115)에 디스플레이되는 동영상 클립이나 자막 클립을 선택하여 편집 등의 작업을 실행할 수 있다. For example, in FIG. 5, a preview screen for the video B is displayed at the center of the video display region 111. When the user performs a gesture of dragging to the clip display region 115 while touching the movie B display region, the clip display region 115 displays a thumbnail of the movie clip corresponding to the movie B (clip B in FIG. 5). May be displayed. Here, the clip display area 115 is a work space for editing a video clip and a subtitle clip by the user. The user may select a video clip or subtitle clip displayed on the clip display area 115 to perform an operation such as editing.
이러한 방식으로 사용자가 동영상 표시 영역(111)에 표시된 동영상 A, 동영상 B, 동영상 C 및 동영상 D을 클립 표시 영역(115)으로 터치 앤드 드래그(Touch and Drag)하는 제스처를 실행하면, 클립 표시 영역(115)에는 4개의 동영상 클립이 썸네일 방식으로 디스플레이될 수 있다. 도 5에 도시된 클립 표시 영역(115)에는 4개의 동영상 클립이 디스플레이되고 있지만, 4개 이상의 동영상 클립이 썸네일 방식으로 디스플레이될 수도 있고, 4개보다 적은 동영상 클립이 썸네일 방식으로 디스플레이될 수도 있다.In this way, when the user executes a gesture of touching and dragging the video A, the video B, the video C, and the video D displayed on the video display area 111 to the clip display area 115, the clip display area ( In 115, four video clips may be displayed in a thumbnail manner. Although four video clips are displayed in the clip display area 115 shown in FIG. 5, four or more video clips may be displayed in a thumbnail manner, or fewer than four video clips may be displayed in a thumbnail manner.
사용자는 동영상 표시 영역(111)에 표시되고 있는 적어도 하나 이상의 동영상을 터치한 뒤 좌측 또는 우측으로 슬라이딩하는 제스처를 실행함으로써, 적어도 하나 이상의 동영상을 검색할 수 있다.The user may search for at least one video by performing a gesture of touching at least one video displayed on the video display area 111 and sliding left or right.
또는 사용자는 마커 영역(113)에 표시된 삼각형 아이콘을 터치한 뒤 좌우로 슬라이딩하는 제스처를 실행함으로써, 적어도 하나 이상의 동영상을 검색할 수도 있다.Alternatively, the user may search for at least one video by touching a triangular icon displayed on the marker area 113 and performing a gesture of sliding left and right.
도 5에서 디스플레이되고 있는 동영상 표시 영역(111), 마커 영역(113) 및 클립 표시 영역(115)은 동영상 클립 단위로 동영상을 처리할 수 있는 작업 공간을 의미한다. 사용자에 의해서 동영상 편집이나 자막 편집이 완료되고 해당 작업이 저장되면, 작업 대상인 동영상 클립 및 자막 클립은 각각 동영상 파일 및 자막 파일로 변환되서 저장부(120)에 저장될 수 있다.The video display region 111, the marker region 113, and the clip display region 115 displayed in FIG. 5 refer to a work space capable of processing a video in units of video clips. When the video editing or subtitle editing is completed by the user and the corresponding work is stored, the video clip and the subtitle clip as the work target may be converted into the video file and the subtitle file, respectively, and stored in the storage 120.
이때, 동영상 파일과 자막 파일은 서로 별개의 파일 형식으로 저장부(120)에 저장될 수도 있다. 또는 동영상 파일 내에 자막 파일이 포함되는 통합 파일 형식으로 저장부(120)에 저장될 수도 있다. In this case, the video file and the subtitle file may be stored in the storage 120 in a separate file format. Alternatively, the storage 120 may be stored in an integrated file format in which a subtitle file is included in the video file.
도 6을 참고하면, 사용자가 클립 표시 영역(115)에 디스플레이된 적어도 하나의 동영상 클립(클립 B) 상에서 롱 프레스 제스처(도 6에서는 A라고 도시함)를 실행한다. 여기서 롱 프레스 제스처는 기 정의된 시간(예를 들어, 1초 내지 2초 이상)동안 디스플레이부(110)에 사용자의 손가락, 스타일러스펜, 전자펜 등을 접촉시키는 사용자 제스처를 의미한다. 이때, 손가락, 스타일러스펜, 전자펜 등이 디스플레이부(110)에 직접 접촉되는 방식 이외에 간접 접촉하는 방식으로도 구현될 수 있다. 기 정의된 시간은 사용자에 의해서 변경 가능하면, 사용자가 선택적으로 원하는 시간으로 설정할 수 있다. Referring to FIG. 6, a user executes a long press gesture (shown as A in FIG. 6) on at least one video clip (clip B) displayed in the clip display area 115. Here, the long press gesture refers to a user gesture of contacting the user's finger, stylus pen, electronic pen, etc. with the display 110 for a predetermined time (for example, 1 second to 2 seconds or more). In this case, a finger, a stylus pen, an electronic pen, or the like may be implemented in an indirect contact manner in addition to the direct contact method with the display 110. If the predefined time is changeable by the user, the user may selectively set the desired time.
사용자가 적어도 하나의 동영상 클립(예컨대, 클립 B)에 롱 프레스 제스처를 입력하면, 사용자 단말(100)은 롱 프레스 제스처(A)가 입력되었음을 감지하고, 동영상 클립 편집 모드에 진입한다. 클립 편집 모드에 진입하면, 사용자 단말(100)은 적어도 하나의 동영상 클립(예컨대, 클립 B)의 일 영역에 동영상 클립 편집을 위한 아이콘(X, Y)등을 디스플레이할 수 있다. 여기서, 제1 아이콘(X)은 해당 동영상 클립에 대응하는 신규의 자막 클립을 입력하기 위한 입력 아이콘이고, 제2 아이콘(Y)는 해당 동영상 클립을 삭제하는 삭제 아이콘이다.When a user inputs a long press gesture to at least one video clip (eg, clip B), the user terminal 100 detects that the long press gesture A is input and enters a video clip editing mode. When entering the clip editing mode, the user terminal 100 may display icons (X, Y) for editing a video clip in one region of at least one video clip (eg, clip B). Here, the first icon X is an input icon for inputting a new subtitle clip corresponding to the video clip, and the second icon Y is a delete icon for deleting the video clip.
여기서, 제1, 2 아이콘(X, Y)은 다양한 종류의 도형, 이미지, 색 또는 이들의 조합으로 구성될 수 있다. 도 7에서 제1 아이콘(X)은 사각형 박스로 디스플레이되고 있지만, 제1 아이콘(X)은 연필이나 펜 모양의 아이콘으로 구성될 수도 있다. 또한, 제2 아이콘(Y)는 "×"도형 과 "○" 도형을 겹쳐놓은 형태로 디스플레이되고 있지만, 이외에도 다양한 다른 종류의 아이콘으로 구성될 수도 있다. Here, the first and second icons X and Y may be configured of various types of figures, images, colors, or a combination thereof. In FIG. 7, the first icon X is displayed as a rectangular box, but the first icon X may be configured as a pencil or pen icon. In addition, although the second icon Y is displayed in a form in which the “×” figure and the “○” figure are superimposed, the second icon Y may be configured as various other kinds of icons.
도 8에 도시된 바와 같이, 사용자가 제1 아이콘(X)을 실행하기 위해서, 원터치 제스처(도 8에서 B라고 표시)를 실행한다. 여기서, 원터치 제스처(B)는 롱 프레스 제스처(A)의 터치 시간보다는 짧게 정의된 시간 동안 디스플레이부(110)에 사용자의 손가락, 스타일러스펜, 전자펜 등을 접촉시키는 사용자 제스처를 의미한다. 원터치 제스처도 역시 직접적 또는 간접적으로 디스플레이부(110)를 터치하도록 구현될 수 있다.As shown in FIG. 8, the user performs a one-touch gesture (marked B in FIG. 8) in order to execute the first icon (X). Here, the one-touch gesture B refers to a user gesture of contacting the user's finger, stylus pen, electronic pen, etc. with the display 110 for a defined time shorter than the touch time of the long press gesture A. FIG. One-touch gestures may also be implemented to touch the display 110 directly or indirectly.
사용자가 제1 아이콘(X)에 원터치 제스처를 입력하면, 사용자 단말(100)은 원터치 제스처가 입력되었음을 감지하고, 해당 동영상 클립에 대한 자막 입력 모드로 진입한다. 사용자 단말(100)은 자막 입력 모드에 진입하면 원터치 제스처가 입력된 동영상 클립(예컨대, 클립 B)에 대한 자막 입력을 위한 입력창(117)을 디스플레이한다(도 9 참고).When the user inputs the one-touch gesture to the first icon X, the user terminal 100 detects that the one-touch gesture is input, and enters a caption input mode for the corresponding video clip. When the user terminal 100 enters the caption input mode, the user terminal 100 displays an input window 117 for caption input for a video clip (eg, clip B) to which a one-touch gesture is input (see FIG. 9).
도 9에 도시된 바와 같이, 클립 B에 대한 자막 입력을 위한 입력창(117)은 입력되는 자막이 표시되는 표시창(117-1) 및 자막을 입력하기 위한 문자 등을 타이핑하는 가상 키보드(117-2)를 포함할 수 있다. 입력창(117)은 동영상 디스플레이 영역(111), 마커 영역(113) 및 클립 표시 영역(115)의 일부 또는 전부를 포함하도록 디스플레이부(110)에 디스플레이될 수 있다.As shown in FIG. 9, the input window 117 for caption input for the clip B includes a display window 117-1 on which the caption input is displayed and a virtual keyboard 117-typing characters for inputting captions. It may include 2). The input window 117 may be displayed on the display 110 to include some or all of the video display area 111, the marker area 113, and the clip display area 115.
도 10에 도시된 바와 같이, 사용자가 가상 키보드(117-2)를 이용하여 자막을 입력하면, 입력된 자막은 표시창(117-1)에 디스플레이될 수 있다. 사용자가 자막 입력을 완료하면, 사용자 단말(100)은 기 입력된 자막에 기초하여 자막 클립을 생성한다. As illustrated in FIG. 10, when a user inputs a caption using the virtual keyboard 117-2, the input caption may be displayed on the display window 117-1. When the user completes the caption input, the user terminal 100 generates a caption clip based on the previously input caption.
도 11에 도시된 바와 같이, 사용자 단말(100)은 사용자에 의해서 자막 입력이 종료되었음을 감지하면 입력된 자막(도 11에서 ST-B로 표시)을 클립 표시 영역(115)의 해당 동영상 클립(클립 B)에 디스플레이한다. 그리고 사용자 단말(100)은 해당 동영상 클립(클립 B)에 대한 시작 시간 및 재생 시간 정보를 추출하고, 추출된 시작 시간 및 재생 시간 정보를 자막 클립(ST-B)에 반영한다. 시작 시간 및 재생 시간 정보를 갖는 자막 클립(ST-B)을 이용하여 자막 파일을 형성하는 것에 대해서는 이하에서 별도로 설명한다. As shown in FIG. 11, when the user terminal 100 detects that the caption input is completed by the user, the user terminal 100 displays the input caption (indicated by ST-B in FIG. 11) in the corresponding video clip (clip) of the clip display area 115. Display on B). The user terminal 100 extracts start time and playback time information for the video clip (clip B), and reflects the extracted start time and playback time information to the subtitle clip (ST-B). Formation of a subtitle file using the subtitle clip (ST-B) having start time and reproduction time information will be described separately below.
상술한 바와 같이, 본 발명의 제1 실시 예에 따르면, 사용자가 동영상 클립 단위로 자막을 입력하여 자막 클립을 생성할 수 있으므로, 타임 라인을 이용하여 자막을 입력하는 종전의 방식에 비하여 디스플레이 화면의 크기 제약에도 불구하고 사용자가 직관적으로 자막을 입력할 수 있는 현저한 효과를 발휘한다.As described above, according to the first embodiment of the present invention, since the user can generate the caption clip by inputting the caption in the unit of the video clip, the display screen is compared with the conventional method of inputting the caption using the timeline. Despite the size constraints, the user can enter subtitles intuitively.
동영상 클립 단위로 입력된 자막 편집 - 제2 실시 예Edit subtitles input by video clip unit-Second embodiment
본 발명의 제2 실시 예에 따르면, 자막이 입력된 동영상 클립에 대해서 사용자가 동영상 클립 단위로 자막을 직관적으로 편집할 수 있는 특징이 있다. According to a second exemplary embodiment of the present invention, a user may intuitively edit a subtitle in a movie clip unit with respect to a video clip in which subtitles are input.
도 12 내지 도 16은 본 발명의 일 실시 예에 따른 동영상 클립에 입력된 자막을 편집하는 과정을 설명하기 위한 도면이다.12 to 16 are views for explaining a process of editing a subtitle input to a video clip according to an embodiment of the present invention.
도 12에 도시된 바와 같이, 도 11에 도시된 복수의 동영상 클립 중 적어도 하나(예컨대, 클립 B)에 대하여 사용자가 롱 프세스 제스처(도 12에서 A 영역으로 표시)를 입력하는 과정을 도시하고 있다. 도 12에서는 하나의 동영상 클립(클립 B)에만 자막이 입력된 상태이고, 나머지 동영상 클립(클립 A, 클립 C, 클립 D)에는 자막이 입력되지 않은 상태이다. As shown in FIG. 12, a process of a user inputting a long process gesture (indicated by an area A in FIG. 12) for at least one of the plurality of video clips (eg, clip B) shown in FIG. 11 is illustrated. have. In FIG. 12, subtitles are input to only one video clip (clip B), and subtitles are not input to the remaining video clips (clip A, clip C, and clip D).
도 13에 도시된 바와 같이, 사용자에 의해서 복수의 동영상 클립 중 적어도 하나의 동영상 클립에 롱 프레스 제스처가 입력되면, 해당 동영상 클립(클립 B)의 일 영역에는 롱 프레스 제스처의 접촉을 알리는 다양한 형태의 인디케이터가 디스플레이될 수 있다.As illustrated in FIG. 13, when a long press gesture is input to at least one video clip of a plurality of video clips by a user, various types of notifications of contact of the long press gesture are provided in one region of the video clip (clip B). The indicator can be displayed.
보다 구체적으로 살펴보면 다음과 같다. 사용자 단말(100)은 사용자에 의해서 입력된 적어도 하나의 동영상 클립(예컨대, 클립 B)에서의 롱 프레스 제스처를 감지하면, 동영상 클립 편집 모드로 진입한다. 사용자 단말(100)은 동영상 클립 편집 모드에 진입하면, 롱 프레스 제츠처가 입력된 동영상 클립(예컨대, 클립 B)의 일 영역에 동영상 클립 편집을 하기 위한 아이콘(X, Y)등을 디스플레이할 수 있다. Looking more specifically as follows. When the user terminal 100 detects a long press gesture in at least one video clip (eg, clip B) input by the user, the user terminal 100 enters a video clip editing mode. When the user terminal 100 enters the video clip editing mode, the user terminal 100 may display an icon (X, Y) or the like for editing the video clip in one region of the video clip (eg, the clip B) to which the long press gesture is input. .
여기서 제1 아이콘(X)은 자막 편집을 실행하기 위한 자막 편집 아이콘이고, 제2 아이콘(Y)은 동영상 클립을 삭제하기 위한 삭제 아이콘이다.Here, the first icon (X) is a caption editing icon for executing caption editing, and the second icon (Y) is a deletion icon for deleting a video clip.
이때, 제1, 2 아이콘(X, Y)는 다양한 종류의 도형, 이미지, 색 또는 이들의 조합으로 구성될 수 있다. 도 13에서 제1 아이콘(X)은 사각형 박스 형태로 디스플레이되고 있지만, 이외에도 제1 아이콘(X)은 연필 또는 펜 등의 아이콘 형태로 구성될 수도 있다. 또한, 제2 아이콘(Y)는 "×"도형 과 "○" 도형을 겹쳐놓은 형태로 디스플레이되고 있지만, 이외에도 제2 아이콘(Y)는 휴지통 형상 등의 다양한 아이콘 형태로 구성될 수도 있다. In this case, the first and second icons X and Y may be configured of various types of figures, images, colors, or a combination thereof. In FIG. 13, the first icon X is displayed in the form of a rectangular box, but in addition, the first icon X may be configured in the form of an icon such as a pencil or a pen. In addition, although the second icon Y is displayed in a form of overlapping the “×” figure and the “○” figure, the second icon Y may be configured in various icon forms such as a trash can.
도 13에 도시된 바와 같이, 동영상 클립 상에 편집 아이콘이 디스플레이된 상태에서, 사용자 단말(100)은 사용자에 의해서 입력된 편집 제스처에 의해서 해당 자막 클립을 편집할 수 있다. As shown in FIG. 13, while the edit icon is displayed on the video clip, the user terminal 100 may edit the caption clip by an edit gesture input by the user.
사용자가 제1 아이콘(X)에 대해서 원터치 제스처를 실행하면, 사용자 단말(100)은 사용자에 의해서 입력된 원터치 제스처를 감지하고, 원터치 제스처가 입력된 동영상 클립(도 14에서 클립 B)에 대한 자막 편집을 위한 입력창(117)을 디스플레이한다(도 14 참고).When the user executes the one-touch gesture on the first icon X, the user terminal 100 detects the one-touch gesture input by the user, and the caption for the video clip (clip B in FIG. 14) in which the one-touch gesture is input. The input window 117 for editing is displayed (see FIG. 14).
도 14에 도시된 바와 같이, 자막 편집을 위한 입력창(117)은 편집 대상 자막 클립의 내용이 표시되는 표시 영역(117-1) 및 자막 클립에 내용을 추가하거나 삭제하기 위해 문자 등을 타이핑하는 가상 키보드 영역(117-2)을 포함할 수 있다. 이러한 입력창(117)은 동영상 디스플레이 영역(111), 마커 영역(113) 및 클립 표시 영역(115)의 일부 또는 전부를 포함하도록 디스플레이될 수 있다.As shown in FIG. 14, the input window 117 for subtitle editing includes a display area 117-1 in which the contents of the subtitle clip to be edited is displayed, and a character or the like for adding or deleting contents to the subtitle clip. The virtual keyboard area 117-2 may be included. The input window 117 may be displayed to include some or all of the video display area 111, the marker area 113, and the clip display area 115.
이때, 표시 영역(117-1)에는 해당 동영상 클립에 기 입력된 자막 클립의 내용을 디스플레이할 수 있다. 사용자는 가상 키보드 영역(117-2)에 구비된 키패드를 터치함으로써, 표시영역(117-1)에 디스플레이된 기 입력된 자막 클립의 내용을 수정하거나 편집할 수 있다.In this case, the display area 117-1 may display the contents of the caption clip previously input to the video clip. By touching a keypad provided in the virtual keyboard area 117-2, the user may modify or edit the contents of a previously inputted subtitle clip displayed on the display area 117-1.
도 14 및 도 15를 참고하면, 사용자 단말(100)은 사용자에 의해서 입력된 가상 키보드 영역(117-2)의 일부 키(예컨대, 백스페이스 키 "←" )에 대한 원터치 제스처(도 15에서 B로 표시)를 감지하면, 터치된 키에 대응하는 명령을 실행한다. 예컨대, 백스페이스키가 터치된 경우에는 기 입력된 자막(예컨대, "ABCDEF")을 한 글자씩 삭제할 수 있다. 사용자 단말(100)은 사용자에 의해서 입력되는 자막 편집 제스처에 따라 동영상 클립 단위로 기 입력된 자막의 일부 내용을 수정하거나 신규 내용을 추가하는 다양한 편집 기능을 수행할 수 있다.Referring to FIGS. 14 and 15, the user terminal 100 may perform one-touch gestures (B in FIG. 15) for some keys (eg, the backspace key “←”) of the virtual keyboard area 117-2 input by the user. If a detection is performed, the command corresponding to the touched key is executed. For example, when the backspace key is touched, the previously input subtitle (eg, "ABCDEF") may be deleted one letter. The user terminal 100 may perform a variety of editing functions for modifying a part of the subtitles previously input in a video clip unit or adding new content according to a subtitle editing gesture input by a user.
도 16에 도시된 바와 같이, 사용자 단말(100)은 사용자에 의한 자막 편집 제스처가 완료되었음을 감지하면, 클립 표시 영역(115)에 표시되는 해당 동영상 클립(예컨대, 클립 B)에 편집된 자막(ST-B)을 디스플레이한다. 그리고, 사용자 단말(100)은 편집된 자막의 내용을 저장부(120)에 저장한다.As illustrated in FIG. 16, when the user terminal 100 detects that the caption editing gesture by the user is completed, the user terminal 100 edits the caption (ST) edited in the corresponding video clip (eg, clip B) displayed on the clip display area 115. -B) display. The user terminal 100 stores the content of the edited caption in the storage 120.
상술한 바와 같이, 본 발명의 제2 실시 예에 따르면, 사용자가 타임 라인을 이용하는 자막 편집 프로그램을 실행하지 않고도 동영상 클립 단위로 자막을 편집할 수 있으므로, 디스플레이 화면의 크기 제약에도 불구하고 사용자가 직관적으로 자막을 편집할 수 있다.As described above, according to the second embodiment of the present invention, the user can edit the subtitles by video clip unit without executing the subtitle editing program using the timeline, so that the user can intuitively Subtitles can be edited with.
동영상 클립 단위로 입력된 자막 삭제 - 제3 실시 예Deleting subtitles input by video clip unit-Third embodiment
본 발명의 제3 실시 예에 따르면, 자막 편집 중에서 동영상 클립 단위로 자막 클립을 삭제할 수 있는 특징이 있다. 이하에서 별도의 도면을 참고하여 보다 상세하게 설명한다. According to a third embodiment of the present invention, a subtitle clip may be deleted in a movie clip unit during subtitle editing. Hereinafter, with reference to the separate drawings will be described in more detail.
도 17 내지 도 20은 본 발명의 일 실시 예에 따른 동영상 클립에 입력된 자막을 삭제하는 과정을 나타내는 도면이다.17 to 20 are diagrams illustrating a process of deleting a caption input to a video clip according to an embodiment of the present invention.
도 17를 참고하면, 동영상 표시 영역(111)에는 복수의 동영상에 대한 미리보기 화면이 디스플레이되고 있다. 특히, 동영상 표시 영역(111)의 중심 영역에는 동영상 B에 대한 미리보기 화면이 표시되고 있다. 클립 표시 영역(115)에는 복수의 동영상 클립이 썸네일 형식으로 디스플레이되고 있다. 복수의 동영상 클립 중 적어도 하나의 클립(예컨대, 클립 B)에는 기 입력된 자막(ST-B)이 표시되고 있다.Referring to FIG. 17, a preview screen for a plurality of videos is displayed in the video display region 111. In particular, a preview screen for the video B is displayed in the center area of the video display region 111. In the clip display area 115, a plurality of video clips are displayed in a thumbnail format. Pre-input subtitles ST-B are displayed on at least one clip (eg, clip B) of the plurality of video clips.
도 17에 도시된 바와 같이, 사용자 단말(100)은 사용자에 의해서 입력된 자막 클립(ST-B)에 대한 롱 프레스 제스처(도 17에서 A라 표시)를 감지하면, 해당 자막 클립에 대한 자막 편집 모드로 진입한다. As shown in FIG. 17, when the user terminal 100 detects a long press gesture (marked as A in FIG. 17) with respect to the subtitle clip ST-B input by the user, the user terminal 100 edits the subtitle for the corresponding subtitle clip. Enter the mode.
이를 보다 구체적으로 살펴보면 다음과 같다. 사용자가 적어도 하나의 자막 클립(ST-B)에 롱 프레스 제스처를 입력하면, 사용자 단말(100)은 롱 프레스 제스처가 입력되었음을 감지하고, 롱 프레스 제츠처가 입력된 자막 클립(ST-B)의 일 영역에 자막 삭제를 위한 삭제 아이콘(Y) 및 해당 자막 클립이 편집 모드임을 표시하는 편집 인디케이터(Z)를 디스플레이한다(도 18 참고). 여기서, 삭제 아이콘(Y)은 해당 자막 클립을 삭제하기 위한 삭제 실행 아이콘이다. 편집 인디케이터(Z)는 롱 프레스 제스처가 입력된 자막이 편집 모드에 진입하였음을 사용자에게 표시하는 인디케이터이다. Looking at this in more detail as follows. When the user inputs the long press gesture to the at least one subtitle clip ST-B, the user terminal 100 detects that the long press gesture is input, and the one of the subtitle clips ST-B to which the long press gesture is input. A delete icon Y for subtitle deletion and an edit indicator Z indicating that the subtitle clip is in the edit mode are displayed in the region (see FIG. 18). Here, the delete icon Y is a delete execution icon for deleting the corresponding subtitle clip. The edit indicator Z is an indicator for displaying to the user that the subtitle in which the long press gesture is input has entered the edit mode.
도 18에 도시된 바와 같이, 삭제 아이콘(Y)은 "×"도형 과 "○" 도형을 겹쳐놓은 아이콘 형태로 디스플레이되고 있다. 하지만, 이외에도 삭제 아이콘(Y)는 휴지통을 형상화하는 다양한 아이콘 형태로 구성될 수도 있다. 그리고, 편집 인디케이터(Z)는 해당 자막을 둘러싸는 직사각형 박스 형상과, 박스 내부에는 반투명의 색이 채색되도록 구성될 수 있다. 또는 편집 인디케이터(Z)는 반짝거리는 효과, 진동 효과 및 깜빡이는 효과 등 해당 자막에 대해서 사용자가 시각적으로 인식할 수 있는 다양한 하이라이트 방식으로 구성될 수 있다. As shown in FIG. 18, the delete icon Y is displayed in the form of an icon in which the "×" figure and the "○" figure are superimposed. However, in addition to the delete icon (Y) may be configured in the form of various icons to shape the trash. In addition, the editing indicator Z may be configured to have a rectangular box shape surrounding the caption and a semi-transparent color inside the box. Alternatively, the editing indicator Z may be configured in various highlighting ways that the user can visually recognize the subtitle, such as a sparkling effect, a vibration effect, and a blinking effect.
도 19를 참고하면, 사용자 단말(100)은 사용자에 의해서 입력된 삭제 아이콘(Y)에 대한 원터치 제스처(도 19에서 B라고 표시)를 감지하면, 해당 자막 클립(ST-B)을 삭제한다.Referring to FIG. 19, when the user terminal 100 detects a one-touch gesture (indicated by B in FIG. 19) of the delete icon Y input by the user, the user terminal 100 deletes the corresponding caption clip ST-B.
즉, 사용자 단말(100)은 자막 클립(ST-B2)을 클립 표시 영역(115)의 동영상 클립(예컨대, 클립 B)에서 지운다(도 20 참고).That is, the user terminal 100 deletes the caption clip ST-B2 from the video clip (eg, clip B) of the clip display area 115 (see FIG. 20).
상술한 바와 같이, 본 발명의 제3 실시 예에 따르면, 사용자는 동영상 클립 상에 표시된 자막을 선택해서 해당 자막 클립을 삭제할 수 있으므로, 자막 틀립 단위로 삭제할 수 있으므로 사용자 편의성을 향상시키는 효과를 발휘한다. As described above, according to the third embodiment of the present invention, since the user can select the subtitle displayed on the video clip and delete the corresponding subtitle clip, the user can delete the subtitle clip in the unit of subtitle error, thereby improving user convenience. .
동영상 클립 단위로 입력된 자막 클립 이동/복사 - 제4 실시 예Moving / Copying Subtitle Clips Input by Movie Clip Unit-Embodiment 4
본 발명의 제4 실시 예에 따르면, 동영상 클립 별로 자막 클립을 입력하고 , 동영상 클립 상에 자막 클립을 다른 동영상 클립으로 손쉽게 이동하고 복사할 수 있는 특징이 있다. 이하에서 별도의 도면을 참고하여 보다 상세하게 설명한다. According to the fourth embodiment of the present invention, a caption clip is input for each video clip, and the caption clip can be easily moved and copied to another video clip on the video clip. Hereinafter, with reference to the separate drawings will be described in more detail.
도 21 내지 도 24는 본 발명의 일 실시 예에 따른 동영상 클립에 입력된 자막을 다른 동영상 클립으로 이동하는 과정을 설명하기 위한 도면이다.21 to 24 are diagrams for describing a process of moving a caption input to a video clip to another video clip according to an embodiment of the present invention.
도 21을 참고하면, 사용자가 클립 표시 영역(115)에서 적어도 하나의 동영상 클립(클립 B)에 롱 프레스 제스처를 입력하고, 동영상 클립(클립 B)에 기 입력된 자막 클립(ST-B)을 특정 방향으로 이동하기 위한 제1 이동 제스처(도 21에서 C1으로 표시)을 입력한 상태를 도시하고 있다. 여기서, 제1 이동 제스처(C1)는 이동 대상 자막 클립(ST-B2) 상에 사용자의 손가락, 스타일러스 펜 또는 전자 펜 등을 접촉하고 있는 상태의 제스처를 의미한다. Referring to FIG. 21, a user inputs a long press gesture to at least one video clip (clip B) in the clip display area 115, and the subtitle clip (ST-B) previously input to the video clip (clip B). A state in which a first movement gesture (indicated by C1 in FIG. 21) for moving in a specific direction is input is illustrated. Here, the first movement gesture C1 refers to a gesture in which a user's finger, a stylus pen, an electronic pen, or the like is in contact with the moving target caption clip ST-B2.
앞서 살펴본 바와 같이, 롱 프레스 제스처(A)는 기 정의된 시간 동안에 대상과 접촉하는 제스처를 의미하고, 원터치 제스처(B)는 롱 프레스 제스처의 접촉 시간 보다는 더 짧은 시간 동안에 대상과 접촉하는 제스처를 의미한다. As described above, the long press gesture A refers to a gesture of contacting the object for a predetermined time, and the one touch gesture B refers to a gesture of contacting the object for a shorter time than the contact time of the long press gesture. do.
이에 비하여, 제1 이동 제스처(C1)는 이동 대상 아이템인 자막 클립의 이동이 완료될 때까지 대상 아이템에 손가락 등을 계속적으로 접촉하는 있는 제스처를 의미한다. In contrast, the first movement gesture C1 refers to a gesture in which a finger or the like is continuously contacted with the target item until the movement of the subtitle clip which is the movement target item is completed.
따라서, 제1 이동 제스처(C1)는 롱 프레스 제스처(A)의 접촉시간 보다는 더 긴 시간 동안 접촉할 수도 있다. 하지만, 제1 이동 제스처(C1)는 롱 프레스 제스처(A)와 비교했을 때, 최초 접촉 영역에 정지하지 않고 특정 방향으로의 움직임을 포함한다는 점에서 차이가 있다.Therefore, the first movement gesture C1 may be in contact for a longer time than the contact time of the long press gesture A. FIG. However, when compared with the long press gesture A, the first movement gesture C1 is different in that it includes movement in a specific direction without stopping in the initial contact area.
도 22를 참고하면, 제2 이동 제스처(C2)에 의해서 자막 클립(ST-B)은 클립 B에서부터 클립 C로 이동하고 있음을 확인할 수 있다. 여기서, 제2 이동 제스처(C2)는 제1 이동 제스처(C1)의 연속적인 제스처를 의미한다.Referring to FIG. 22, it can be seen that the caption clip ST-B is moving from clip B to clip C by the second movement gesture C2. Here, the second movement gesture C2 means a continuous gesture of the first movement gesture C1.
도 23을 참고하면, 제3 이동 제스처(C3)에 의해서 자막 클립(ST-B)이 최종적으로 클립 D로 이동되어 표시되고 있음을 확인할 수 있다. 여기서, 제3 이동 제스처(C3)는 제2 이동 제스처(C2)의 연속적인 제스처를 의미한다.Referring to FIG. 23, it can be seen that the caption clip ST-B is finally moved to the clip D and displayed by the third movement gesture C3. Here, the third movement gesture C3 means a continuous gesture of the second movement gesture C2.
도 24를 참고하면, 사용자에 의해서 자막 클립(ST-B)이 클립 B에서부터 클립 D로 이동 복사되면. 클립 B에 표시된 자막은 지워지고 클립 D에 자막 클립(ST-B)이 표시된다. Referring to Fig. 24, when the subtitle clip ST-B is copied from clip B to clip D by the user. The subtitle displayed in the clip B is erased, and the subtitle clip ST-B is displayed in the clip D.
상술한 바와 같이, 본 발명의 제4 실시 예에 따르면, 사용자가 동영상 클립상에서 자막 클립을 직관적인 제스처에 의해서 다른 동영상 클립으로 이동/복사할 수 있으므로, 자막 클립을 간편한 방식으로 이동하고 복사할 수 있는 효과를 발휘한다. As described above, according to the fourth embodiment of the present invention, since the user can move / copy the subtitle clip to another video clip by intuitive gesture on the video clip, the subtitle clip can be moved and copied in a convenient manner. It has an effect.
동영상 클립 및 자막 클립의 동기화 - 제5 실시 예Synchronization of Video Clips and Subtitle Clips-Embodiment 5
본 발명의 제5 실시 예에 따르면, 동영상 클립에서 추출된 시간 정보를 이용하여 동영상 클립에 입력된 자막 클립을 자막 파일로 변환하는 방법을 제공한다. 이에 대한 보다 자세한 설명은 이하에서 별도의 도면을 참고하여 설명한다. According to a fifth embodiment of the present invention, a method of converting a caption clip input to a video clip into a caption file using time information extracted from the video clip is provided. A more detailed description thereof will be described below with reference to a separate drawing.
도 25 내지 도 28은 본 발명의 일 실시 예에 따른 동영상 클립에 대한 시간 정보에 기초하여 입력된 자막 클립을 자막 파일로 변환하는 과정을 나타내는 도면이다.25 to 28 are diagrams illustrating a process of converting an input caption clip into a caption file based on time information of a video clip according to an embodiment of the present invention.
도 25를 참고하면, 동영상 표시 영역(111)에는 복수의 동영상 미리보기 화면이 디스플레이되고, 클립 표시 영역(115)에는 4개의 동영상 클립들이 디스플레이되고 있다. 4개의 동영상 클립에는 각각의 자막 클립이 입력된 상태이다. Referring to FIG. 25, a plurality of video preview screens are displayed in the video display region 111, and four video clips are displayed in the clip display region 115. Each subtitle clip is input to four video clips.
사용자 단말(100)은 사용자에 의해서 동영상 클립별로 자막 클립이 입력되면, 각각의 동영상 클립에 대한 시간 정보를 추출한다. 추출된 시간 정보를 해당 자막 클립에 반영하고, 시간 정보에 기초하여 자막 클립을 자막 파일로 변환한다.When a caption clip is input for each video clip by the user, the user terminal 100 extracts time information for each video clip. The extracted time information is reflected in the corresponding subtitle clip, and the subtitle clip is converted into a subtitle file based on the time information.
도 26을 참고하면, 사용자 단말(100)은 4개의 동영상 클립(1100, 1200, 1300, 1400)에 대한 시간 정보를 분석한다. 예컨대, 사용자 단말(100)은 제1 동영상 클립(1100)에 대한 제1 시간 정보(Time 1)를 추출한다. 이때, 제1 시간 정보(Time 1)는 동영상 클립의 시작 시간 정보 및 재생 시간 정보를 포함한다. 마찬가지 방법으로 사용자 단말(100)은 제2 동영상 클립(1200)에 대한 제2 시간 정보(Time 2)를 추출하며, 제3 동영상 클립(1300)에 대한 제3 시간 정보(Time 3)를 추출하고, 제4 동영상 클립(1400)에 대한 제4 시간 정보(Time 4)를 추출한다.Referring to FIG. 26, the user terminal 100 analyzes time information of four video clips 1100, 1200, 1300, and 1400. For example, the user terminal 100 extracts first time information Time 1 for the first video clip 1100. In this case, the first time information Time 1 includes start time information and playback time information of the video clip. In the same manner, the user terminal 100 extracts second time information (Time 2) for the second video clip 1200, and extracts third time information (Time 3) for the third video clip 1300. The fourth time information (Time 4) of the fourth video clip 1400 is extracted.
사용자 단말(100)은 사용자에 의해서 클립 A(1100)에 제1 자막 클립(2100)이 입력되고, 클립 B(1200)에 제2 자막(2200)이 입력되며, 클립 C(1300)에 제3 자막(2300)이 입력되고, 클립 D(1400)에 제4 자막(2400)이 입력되었음을 감지한다. In the user terminal 100, a first subtitle clip 2100 is input to a clip A 1100 by a user, a second subtitle 2200 is input to a clip B 1200, and a third is input to a clip C 1300. The caption 2300 is input, and the fourth caption 2400 is detected in the clip D 1400.
도 27을 참고하면, 사용자 단말(100)은 추출된 4개의 동영상 클립(1100, 1200, 1300, 1400)에 대한 시간 정보에 기초하여 재생 순서 및 상대적인 길이를 분석한다. 그리고, 사용자 단말(100)은 분석된 상대적 길이에 따라 4개의 동영상 클립에 대한 가상의 타임 라인을 생성한다. Referring to FIG. 27, the user terminal 100 analyzes a playback order and a relative length based on time information of four extracted video clips 1100, 1200, 1300, and 1400. The user terminal 100 generates virtual timelines for four video clips according to the analyzed relative lengths.
도 27에 도시되고 있는 바와 같이, 클립 A는 클립 B보다 좌측에 위치하고 있다. 즉, 클립 표시 영역에 디스플레이된 복수의 클립은 좌측에서 우측으로 순차적으로 재생될 수 있다. 따라서, 클립 A의 시작 시간 정보가 클립 B의 시작 시간 정보다 더 앞서게 된다. 이때, 클립 A에 대한 시작 시간 정보를 추출하면, 클립 A의 시작 시간 정보에 클립 A의 재생 시간을 더하여 클립 B 의 시작 시간 정보를 예측할 수도 있다.As shown in FIG. 27, the clip A is located to the left of the clip B. FIG. That is, the plurality of clips displayed in the clip display area may be sequentially played from left to right. Therefore, the start time information of the clip A is earlier than the start time information of the clip B. At this time, when the start time information of the clip A is extracted, the start time information of the clip B may be predicted by adding the play time of the clip A to the start time information of the clip A. FIG.
도 28을 참고하면, 사용자 단말(100)은 4개의 자막 클립(2100, 2200, 2300, 2400)이 각각 어떤 동영상 클립 상에서 입력되었는지를 분석한다. Referring to FIG. 28, the user terminal 100 analyzes which video clips four subtitle clips 2100, 2200, 2300, and 2400 are respectively input.
사용자 단말(100)은 4개의 동영상 클립에 대해서 추출한 시간 정보를 4개의 자막 클립(2100, 2200, 2300, 2400)에 각각 반영한다.The user terminal 100 reflects the time information extracted for the four video clips to the four subtitle clips 2100, 2200, 2300, and 2400, respectively.
사용자 단말(100)은 자막 클립의 입력이 완료된 4개의 동영상 클립을 합쳐서 하나의 동영상 파일로 생성하고, 이를 저장부(120)에 저장할 수 있다. 이 경우에, 사용자 단말(100)은 대응하는 4개의 자막 클립도 하나의 자막 파일로 생성하고, 이를 저장부(120)에 저장할 수 있다.The user terminal 100 may combine the four video clips of which the input of the subtitle clip is completed into one video file and store the same in the storage 120. In this case, the user terminal 100 may also generate four corresponding subtitle clips as one subtitle file, and store them in the storage 120.
또는, 사용자 단말(100)은 4개의 동영상 클립으로 생성된 동영상 파일 내에 4개의 자막 클립으로 생성된 자막 파일을 포함하는 형식으로 저장부(120)에 통합하여 저장할 수 있다.Alternatively, the user terminal 100 may be integrated and stored in the storage 120 in a format including a caption file generated by four caption clips in a video file generated by four video clips.
만약, 사용자가 4개의 동영상 클립이 합쳐져서 완성된 동영상의 재생을 요청하면, 사용자 단말(100)은 저장부(120)에 저장된 동영상 파일을 독출하고, 인코딩하여 디스플레이부(110)를 통해서 재생한다. 이와 함께 사용자 단말(100)은 저장부(120)에 저장된 자막 파일을 독출하고, 인코딩하여 동영상이 재생되고 있는 디스플레이부(110)에 함께 재생할 수 있다.If a user requests to play a completed video by combining four video clips, the user terminal 100 reads a video file stored in the storage 120, encodes the video, and plays the video through the display 110. In addition, the user terminal 100 may read the subtitle file stored in the storage unit 120, encode the subtitle file, and play the same together on the display unit 110 where the video is being played.
또는, 동영상 파일 내에 자막 파일을 포함하고 있는 경우에 통합 동영상 파일을 독출하고, 인코딩하여 디스플레이부(110)를 통해서 재생한다.Alternatively, when the caption file is included in the video file, the integrated video file is read, encoded, and played back through the display 110.
상술한 바와 같이, 본 발명의 제5 실시 예에 따르면, 사용자는 동영상 클립에 대한 시간 정보를 인식하지 않고, 단순히 동영상 클립 상에서 자막 클립을 입력하더라도, 동영상 클립의 시간 정보에 기초하여 자막 클립을 자막 파일로 변환하는 효과를 발휘한다. As described above, according to the fifth embodiment of the present invention, even if the user does not recognize the time information on the video clip and simply inputs the caption clip on the video clip, the user may close the caption clip based on the time information of the video clip. Convert to a file.
복수의 동영상 클립에 입력된 복수의 자막 편집 - 제6 실시 예Editing a plurality of subtitles input to a plurality of video clips-Embodiment 6
본 발명의 제6 실시 예에 따르면, 복수의 동영상 클립에 복수의 자막 클립이 각각 입력되면, 입력된 복수의 자막 클립을 삭제하거나 합치거나 이동할 수 있다. 이하에서 별도의 도면을 참고하여 보다 상세하게 설명한다. According to the sixth embodiment of the present disclosure, when a plurality of caption clips are respectively input to the plurality of video clips, the plurality of input caption clips may be deleted, combined, or moved. Hereinafter, with reference to the separate drawings will be described in more detail.
도 29 내지 도 38은 본 발명의 일 실시 예에 따른 복수의 입력 자막 클립을 편집하는 과정을 나타내는 도면이다.29 to 38 are views illustrating a process of editing a plurality of input caption clips according to an embodiment of the present invention.
도 29를 참고하면, 동영상 표시 영역(111)에는 복수의 동영상의 미리보기 화면이 디스플레이되고 있다. 클립 표시 영역(115)에는 복수의 동영상 클립이 썸네일 형태로 디스플레이되고 있다.Referring to FIG. 29, a preview screen of a plurality of videos is displayed in the video display area 111. The clip display area 115 displays a plurality of video clips in the form of thumbnails.
복수의 동영상 클립(클립 A, 클립 B, 클립 C, 클립 D)의 일 영역에는 복수의 자막 클립(ST-A, ST-B, ST-C, ST-D)이 각각 표시되고 있다. A plurality of subtitle clips ST-A, ST-B, ST-C, and ST-D are displayed in one region of the plurality of video clips (clip A, clip B, clip C, clip D).
사용자 단말(100)은 사용자에 의해서 입력된 복수의 자막 중 적어도 하나의 자막 클립(ST-B)에 대한 롱 프레스 체스처(도 29에서 A로 표시)를 감지하면, 복수의 자막 클립(ST-A, ST-B, ST-C, ST-D)에 대한 자막 편집 모드로 진입한다.When the user terminal 100 detects a long press chess destination (indicated by A in FIG. 29) of at least one subtitle clip ST-B among a plurality of subtitles input by the user, the user terminal 100 receives a plurality of subtitle clips ST-B. A, ST-B, ST-C, ST-D) enters the subtitle editing mode.
도 30에 도시된 바와 같이, 복수의 자막 클립(ST-A, ST-B, ST-C, ST-D)이 자막 편집 모드로 진입하면, 사용자 단말(100)은 각각의 자막 클립의 일 영역에 삭제 아이콘들(Y1, Y2, Y3, Y4)을 디스플레이할 수 있다. 동시에 사용자 단말(100)은 각각의 자막 클립들이 편집 모드에 진입하였을 표시하는 편집 인디케이터(Z1, Z2, Z3, Z4)를 디스플레이할 수 있다.As illustrated in FIG. 30, when a plurality of subtitle clips ST-A, ST-B, ST-C, and ST-D enter a subtitle editing mode, the user terminal 100 may select one region of each subtitle clip. The deletion icons Y1, Y2, Y3, and Y4 may be displayed on the screen. At the same time, the user terminal 100 may display the editing indicators Z1, Z2, Z3, and Z4 indicating that each subtitle clip has entered the editing mode.
이를 보다 구체적으로 살펴보면 다음과 같다. 사용자가 적어도 하나의 자막 클립(ST-B)에 롱 프레스 제스처를 입력하면, 사용자 단말(100)은 롱 프레스 제스처가 입력되었음을 감지하고, 롱 프레스 제스처가 입력된 자막 클립(ST-B)뿐만 아니라 그 밖의 자막 클립에 대해서도 자막을 삭제할 수 있는 삭제 아이콘들(Y1, Y2, Y3, Y4) 및 해당 자막 클립이 편집 모드임을 표시하는 편집 인디케이터(Z1, Z2, Z3, Z4)를 디스플레이한다(도 30 참고). 여기서, 삭제 아이콘들(Y1, Y2, Y3, Y4)은 해당 동영상 클립에 입력된 자막을 삭제하기 위한 삭제 아이콘이다. 편집 인디케이터(Z1, Z2, Z3, Z4)는 편집이 가능한 자막을 하이라이트(highlight)하며 표시하는 인디케이터를 의미한다. Looking at this in more detail as follows. When the user inputs the long press gesture to the at least one subtitle clip ST-B, the user terminal 100 detects that the long press gesture is input, and not only the subtitle clip ST-B to which the long press gesture is input. For other subtitle clips, delete icons Y1, Y2, Y3, and Y4 capable of deleting subtitles and editing indicators Z1, Z2, Z3, and Z4 indicating that the subtitle clip is in the edit mode are also displayed (FIG. 30). Reference). Here, the deletion icons Y1, Y2, Y3, and Y4 are deletion icons for deleting subtitles input to the video clip. The editing indicators Z1, Z2, Z3, and Z4 refer to indicators that highlight and display editable subtitles.
도 30에 도시된 바와 같이, 삭제 아이콘들(Y1, Y2, Y3, Y4)은 "×"도형 과 "○" 도형을 겹쳐놓은 형태로 디스플레이되고 있지만, 이외에도 삭제 아이콘들(Y1, Y2, Y3, Y4)는 휴지통 형상 등의 다양한 아이콘 형태로 구성될 수도 있다. 그리고, 편집 인디케이터(Z1, Z2, Z3, Z4)는 해당 자막을 둘러싸는 직사각형 박스 형상에 내부에는 반투명의 색이 채색되도록 구성될 수 있다. 또는 편집 인디케이터(Z1, Z2, Z3, Z4)는 반짝거림 효과, 진동 효과 및 깜빡이는 효과 등 해당 자막에 대해서 사용자가 시각적으로 인식할 수 있는 다양한 하이라이트 방식으로 구성될 수도 있다. As shown in FIG. 30, the delete icons Y1, Y2, Y3, and Y4 are displayed in a form in which the "×" figure and the "○" figure are superimposed, but in addition to the delete icons Y1, Y2, Y3, Y4) may be configured in the form of various icons such as a trash can. The editing indicators Z1, Z2, Z3, and Z4 may be configured such that a semi-transparent color is colored inside the rectangular box shape surrounding the subtitle. Alternatively, the editing indicators Z1, Z2, Z3, and Z4 may be configured in various highlighting ways that the user can visually recognize the subtitles, such as a sparkling effect, a vibration effect, and a flickering effect.
도 31을 참고하면, 사용자 단말(100)은 사용자에 의해서 입력된 삭제 아이콘(Y4)에서 원터치 제스처(도 31에서 B로 표시)를 감지하면, 클립 D에 입력된 자막 클립(ST-D)을 삭제한다.Referring to FIG. 31, if the user terminal 100 detects a one-touch gesture (indicated by B in FIG. 31) in the delete icon Y4 input by the user, the user terminal 100 detects the subtitle clip ST-D input in the clip D. FIG. Delete it.
도 32를 참고하면, 사용자 단말(100)은 특정 동영상 클립(예컨대, 클립 D)에 입력된 특정 자막 클립(예컨대, ST-D)에 대한 삭제 명령을 감지하면, 클립 D의 일 영역에 디스플레이된 자막을 지운다.Referring to FIG. 32, when the user terminal 100 detects a delete command for a specific caption clip (eg, ST-D) input to a specific video clip (eg, clip D), the user terminal 100 is displayed in one region of clip D. Delete subtitles.
도 33을 참고하면, 사용자가 편집 모드에 진입한 복수의 자막 클립 중 적어도 하나의 자막 클립(예컨대, ST-A)에 롱 프레스 제스처(도 33에서 A1로 표시)를 입력하면, 롱 프레스 제스처가 입력된 자막 클립(ST-A)은 다른 동영상 클립으로 이동/복사될 수 있다.Referring to FIG. 33, when a user inputs a long press gesture (denoted as A1 in FIG. 33) to at least one subtitle clip (eg, ST-A) among a plurality of subtitle clips that have entered the edit mode, the long press gesture may be performed. The input subtitle clip ST-A may be moved / copyed to another video clip.
이를 보다 구체적으로 살펴보면, 자막 편집 모드에서 롱 프레스 제스처가 입력된 자막 클립(예컨대, ST-A)은 자막 클립을 구성하는 문자, 기호, 숫자, 도형 또는 이들이 조합 등이 하이라이트 효과로 표현될 수 있다(도 34 참조). In more detail, the subtitle clip (eg, ST-A) in which the long press gesture is input in the subtitle editing mode may be represented by a highlight effect such as letters, symbols, numbers, shapes, or a combination thereof constituting the subtitle clip. (See Figure 34).
이때, 하이라이트 효과로 표현된 자막 클립(예컨대, ST-A2)은 다른 자막 클립의 문자보다 더 진하게 표시될 수 있다. 또는, 이동/복사 대상 자막 클립(예컨대, ST-A)은 다른 자막 클립과 달리 깜빡이도록 표시될 수 있다. 또는, 이동/복사 대상 자막 클립(예컨대, ST-A)은 좌측에서 우측으로 혹은 우측에서 좌측으로 스트리밍(streaming)하는 효과로 표시될 수도 있다.At this time, the subtitle clip (eg, ST-A2) expressed by the highlight effect may be displayed darker than the characters of other subtitle clips. Alternatively, the moving / copying subtitle clip (eg, ST-A) may be displayed to flicker unlike other subtitle clips. Alternatively, the moving / copying subtitle clip (eg, ST-A) may be displayed as an effect of streaming from left to right or from right to left.
도 35를 참고하면, 사용자 단말(100)은 사용자에 의해서 입력된 클립 D의 일 영역 상에서 롱 프레스 제스처를 감지하면, 사용자에 의해서 복사된 자막 클립(예컨대, ST-A)을 클립 D에 붙여넣기(paste)를 실행한다. Referring to FIG. 35, when the user terminal 100 detects a long press gesture on an area of clip D input by the user, the user terminal 100 pastes the caption clip (eg, ST-A) copied by the user into clip D. Run (paste)
도 36을 참고하면, 사용자가 이동/복사 대상 자막 클립(예컨대, ST-A)에 제1 터치 제스처(C1)를 입력하고 클립 B 방향으로 드래그한다. 그리고 사용자가 클립 B에서 이동/복사 대상 자막 클립(예컨대, ST-A)에 제2 터치 제스처(C2)를 입력하면, 사용자에 의해서 잘라내기 된 자막 클립(예컨대, ST-A)이 클립 B에 기 입력된 자막 클립(ST-B)과 합쳐진다. 여기서, 자막 클립이 합쳐지는 것은 복수의 자막 클립이 하나의 자막 클립을 형성하는 것을 의미한다. 이는 복수의 동영상 클립을 하나의 동영상 클립으로 합치는 것과 동일한 원리이다. 이렇게 합쳐진 자막 클립은 하나의 자막 클립으로 관리될 수 잇다.Referring to FIG. 36, a user inputs a first touch gesture C1 to a moving / copying subtitle clip (eg, ST-A) and drags it in the clip B direction. When the user inputs the second touch gesture C2 to the moving / copying subtitle clip (eg, ST-A) in the clip B, the subtitle clip cut out by the user (eg, ST-A) is inserted into the clip B. It is merged with the subtitle clip ST-B previously input. Here, subtitle clips are combined to mean that a plurality of subtitle clips form one subtitle clip. This is the same principle as combining multiple movie clips into one movie clip. The combined subtitle clips can be managed as one subtitle clip.
도 37을 참고하면, 사용자 단말(100)은 사용자에 의해서 입력된 클립 A의 자막 클립(ST-A)과 클립 B의 자막 클립(ST-B)을 합치는 명령을 감지하면, 제1 자막 클립(ST-A) 및 제2 자막 클립(ST-B)을 합쳐서 타겟 동영상 클립(예컨대, 클립 B)의 자막 클립(ST-B)으로 변환한다. Referring to FIG. 37, when the user terminal 100 detects a command for combining a subtitle clip ST-A of clip A and a subtitle clip ST-B of clip B input by the user, the first subtitle clip (ST-A) and the second subtitle clip (ST-B) are combined and converted into the subtitle clip (ST-B) of the target video clip (e.g., clip B).
사용자 단말(100)은 사용자에 의해서 입력된 클립 표시 영역(115) 이외의 영역에서의 원터치 제스처(도 38에서 B로 표시)를 감지하면, 진행중인 복수의 자막 클립의 편집, 이동 또는 복사 등의 기능은 종료하고, 종료 직전의 동영상 클립 및 자막 클립을 저장부(120)에 저장한다(도 38 참고).When the user terminal 100 detects a one-touch gesture (indicated by B in FIG. 38) in an area other than the clip display area 115 input by the user, the user terminal 100 may edit, move, or copy a plurality of subtitle clips in progress. Ends and stores the video clip and the subtitle clip immediately before the end in the storage 120 (see FIG. 38).
상술한 바와 같이, 본 발명의 제6 실시 예에 따르면, 사용자는 자막 편집 어플리케이션을 별도로 구동시키지 않고도 동영상 클립 단위로 입력된 자막 클립을 다른 동영상 클립의 자막 클립으로 이동, 복사, 통합, 삭제할 수 있는 사용자 인터페이스를 제공할 수 있다.As described above, according to the sixth exemplary embodiment of the present invention, a user can move, copy, merge, and delete a subtitle clip input in a movie clip unit into a subtitle clip of another movie clip without separately operating a subtitle editing application. A user interface can be provided.
본 발명의 다양한 실시 예에 따르면, 동영상을 클리핑(Clipping)하여 동영상 클립을 생성한 뒤, 동영상 클립 상에 자막 클립을 입력하도록 함으로써, 사용자가 직관적으로 자막 클립에 자막을 입력하고 편집할 수 있다. According to various embodiments of the present disclosure, after generating a video clip by clipping a video, a subtitle clip may be input on the video clip so that the user may intuitively input and edit the subtitle clip.
또한, 본 발명에서 동영상에 입력된 자막 클립은 동영상 클립 단위로 관리할 수 있으므로, 종래의 타임 라인을 이용하여 동영상에 대한 시간 정보를 확인해서 자막을 입력해야 하는 번거로운 과정을 없애준다. In addition, the caption clip input to the video in the present invention can be managed in the unit of the video clip, thereby eliminating the cumbersome process of checking the time information on the video using the conventional timeline.
자막을 포함하는 동영상의 클립화 - 제7 실시 예Clipping of Movies Containing Subtitles-Seventh Embodiment
본 발명의 제7 실시 예에 따르면, 동영상을 적어도 둘 이상의 동영상 클립으로 클립화하는 경우에, 동영상에 기 입력된 자막을 자막 클립으로 생성할 수 있다. 이하에서 별도의 도면을 참고하여 보다 상세하게 설명한다. According to the seventh embodiment of the present invention, when a video is clipped into at least two video clips, the subtitles pre- inputted to the video may be generated as subtitle clips. Hereinafter, with reference to the separate drawings will be described in more detail.
도 39 내지 도 43은 본 발명의 일 실시 예에 따른 자막을 포함하는 동영상을 클립화하는 과정을 나타내는 도면이다.39 to 43 are diagrams illustrating a process of clipping a video including a caption according to an embodiment of the present invention.
도 39를 참고하면, 동영상(300)은 연속적인 프레임(프레임 1 내지 프레임 7)으로 구성될 수 있다. 그리고 자막 파일(400)은 동영상(300)과 동기화되어 있다. 즉, 동영상(300)이 사용자 단말(100)의 디스플레이부(110)에서 재생될 경우에, 디스플레이부(110)의 일 영역에는 자막(400)이 재생될 수 있다. Referring to FIG. 39, the video 300 may be composed of consecutive frames (frames 1 to 7). The subtitle file 400 is synchronized with the video 300. That is, when the video 300 is played on the display 110 of the user terminal 100, the subtitle 400 may be played on one region of the display 110.
사용자는 동영상(300)을 2개의 동영상 클립(클립 A, 클립 B)으로 클립화할 수 있다. 구체적으로 살펴보면, 사용자는 제1 동영상을 구성하는 적어도 하나 이상의 프레임을 임의로 선택하여 원하는 동영상 클립을 생성할 수 있다. The user can clip the video 300 into two video clips (clip A, clip B). In detail, the user may arbitrarily select at least one or more frames constituting the first video to generate a desired video clip.
즉, 사용자가 복수의 동영상 프레임에서 첫번째 프레임을 선택하고, 마지막 프레임을 선택하면 첫번째 플레임과 마지막 프레임에 속하는 복수의 프레임으로 구성되는 1개의 동영상 클립이 생성될 수 있다. That is, when the user selects the first frame from the plurality of video frames and selects the last frame, one video clip composed of the first frame and the plurality of frames belonging to the last frame may be generated.
도 39를 참고하면, 사용자 단말(100)은 사용자에 의해서 동영상(300) 중 첫번째 프레임(프레임 1)과 마지막 프레임(프레임 4)이 선택되면, 선택된 제1 내지 4 프레임으로 구성되는 제1 동영상 클립(클립 A)을 생성한다. 그리고 사용자 단말(100)은 사용자에 의해서 동영상(300) 중 첫번째 프레임(프레임 5)과 마지막 프레임(프레임 7)이 선택되면, 선택된 제5 내지 7 프레임으로 구성되는 제2 동영상 클립(클립 B)를 생성한다.Referring to FIG. 39, when the first frame (frame 1) and the last frame (frame 4) of the video 300 are selected by the user, the user terminal 100 includes a first video clip composed of the selected first to fourth frames. Create (clip A). When the first frame (frame 5) and the last frame (frame 7) of the video 300 are selected by the user, the user terminal 100 selects a second video clip (clip B) consisting of selected fifth to seventh frames. Create
사용자 단말(100)은 사용자의 동영상 클립화 제스처에 따라 동영상의 프레임을 그룹화하여 2개의 동영상 클립(클립 A, 클립 B)을 생성하고, 동시에 사용자 단말(100)은 동영상과 관련된 자막에 대한 클립화를 자동으로 실행할 수 있다.The user terminal 100 generates two video clips (clip A, clip B) by grouping the frames of the video according to the video clip gesture of the user, and at the same time, the user terminal 100 clips the subtitles related to the video. Can be run automatically.
즉, 사용자 단말(100)은 동영상(300)과 자막(400) 사이의 동기화 정보를 이용하여 자막(400)에 대해서도 클립화를 실행한다. 구체적으로 살펴보면, 사용자 단말(100)은 동영상(300)의 제1 동영상 클립(클립 A)이 속하는 시간 동안 표시되는 자막(400)을 분석한다. 사용자 단말(100)은 분석 결과에 따라 프레임 1 내지 3에 동기화된 제1 자막(도 39에서 "가나다라마바사"로 표시)을 제1 자막 클립(2100)으로 클립화하고, 프레임 4와 동기화된 제2 자막(도 39에서 "ABCDEFG"로 표시)을 제2 자막 클립(2200-1)으로 클립화한다. 마찬가지 방식으로, 사용자 단말(100)은 프레임 5 내지 7에 동기화된 제2 자막(도 39에서 "ABCDEFG"로 표시)을 제3 자막 클립(2200-2)으로 클립화한다. That is, the user terminal 100 also performs clipping on the caption 400 using the synchronization information between the video 300 and the caption 400. In detail, the user terminal 100 analyzes the caption 400 displayed during the time to which the first video clip clip A of the video 300 belongs. According to the analysis result, the user terminal 100 clips the first subtitles synchronized with the frames 1 to 3 (indicated by "Kanadaramabasa" in FIG. 39) to the first subtitle clip 2100, and is synchronized with the frame 4. The second subtitle (indicated by "ABCDEFG" in FIG. 39) is clipped to the second subtitle clip 2200-1. In the same manner, the user terminal 100 clips the second subtitles (indicated by "ABCDEFG" in FIG. 39) synchronized to the frames 5 to 7 to the third subtitle clip 2200-2.
도 40을 참고하면, 동영상 표시 영역(111)에는 2개의 동영상의 미리보기 화면이 디스플레이되고, 클립 표시 영역(115)에는 2개의 동영상 클립이 디스플레이되고 있다. Referring to FIG. 40, a preview screen of two videos is displayed in the video display region 111, and two video clips are displayed in the clip display region 115.
클립 표시 영역(115)에서, 제1 동영상 클립(클립 A)에는 제1 자막 클립(ST-A)이 표시되고 있고, 제2 동영상 클립(클립 B)에는 제2 자막 클립(ST-B)이 표시되고 있다. 도 40에서 제1 자막 클립(ST-A)에는 앞서 설명한 제1 자막 클립(2100)의 내용만이 표시되고 있지만, 제1 자막 클립(ST-A)은 제1 자막 클립(2100) 및 제2 자막 클립(2200-1)을 포함한다.In the clip display area 115, the first subtitle clip ST-A is displayed in the first movie clip (clip A), and the second subtitle clip ST-B is displayed in the second movie clip (clip B). It is displayed. In FIG. 40, only the contents of the first subtitle clip 2100 described above are displayed on the first subtitle clip ST-A, but the first subtitle clip ST-A includes the first subtitle clip 2100 and the second. Subtitle clip 2200-1.
사용자는 제1 자막 클립(ST-A)처럼 복수의 자막 클립으로 구성된 자막 클립에 대한 내용을 확인하기 위해서, 해당 자막 클립의 세부 내용을 확인할 수 있다.The user may check the details of the corresponding subtitle clip in order to check the contents of the subtitle clip composed of the plurality of subtitle clips like the first subtitle clip ST-A.
도 41을 참고하면, 사용자 단말(100)은 사용자에 의해서 입력된 제1 자막(ST-A)에서 롱 프레스 제스처(도 41에서 A로 표시)를 감지하면, 제1 자막 클립(ST-A)에 대한 편집 모드로 진입을 한다. Referring to FIG. 41, if the user terminal 100 detects a long press gesture (indicated by A in FIG. 41) from the first subtitle ST-A input by the user, the first subtitle clip ST-A. Enter edit mode for.
도 42에서는 설명의 편의를 위해서 자막 편집 모드에 진입하였지만, 해당 자막 클립에서 삭제 아이콘 및/또는 편집 아이콘 등이 표시되지 않은 상태를 도시하고 있다. 사용자가 자막 편집 모드로 진입한 상태에서 해당 자막에 대한 터치 제스처(도 42에서 D로 표시)를 입력하면, 사용자 단말(100)은 터치된 자막에 대한 세부 내용을 디스플레이한다.FIG. 42 illustrates a state in which a caption editing mode is entered for convenience of explanation, but a delete icon and / or an edit icon are not displayed in the caption clip. When the user enters a touch gesture (indicated by D in FIG. 42) for the corresponding subtitle while entering the subtitle editing mode, the user terminal 100 displays the details of the touched subtitle.
도 43을 참고하면, 클립 A에 입력된 자막 클립(ST-A)에 대한 편집 모드 상태에서 사용자가 터치 제스처(D)가 입력되고, 사용자 단말(100)은 해당 자막 클립(ST-A)의 세부 내용을 표시하기 위한 별도의 윈도우(119)을 디스플레이부(110)에 디스플레이한다.Referring to FIG. 43, a touch gesture D is input by a user in an edit mode state of a subtitle clip ST-A input to clip A, and the user terminal 100 of the subtitle clip ST-A is connected to the subtitle clip ST-A. A separate window 119 for displaying the details is displayed on the display 110.
이러한 별도의 윈도우(119)에는 앞서 살펴본 바와 같이, 제1 자막 클립(도 43에서 "가나다라마바사"로 표시)과 제2 자막 클립(도 43에서 "ABCDEFG"로 표시)에 대한 세부 내용이 디스플레이될 수 있다.  In this separate window 119, as described above, the details of the first subtitle clip (indicated as "Kanadaramabasa" in FIG. 43) and the second subtitle clip (indicated as "ABCDEFG" in FIG. 43) are displayed. Can be.
본 발명에 따르면, 자막을 갖는 동영상에 대한 자막 클립화를 실행하면, 자막에 대해서도 클립화를 실행할 수 있다.According to the present invention, if the caption is clipped for the video having the caption, the caption can be executed for the caption.
본 발명의 다양한 실시 예에 따른 상술한 방법들은 컴퓨터 판독가능한 저장 매체에 코드로 저장될 수 있다. 이러한 본 발명의 다양한 실시예에 따른 상술한 방법들을 수행하기 위한 코드는, RAM(Random Access Memory), 플레시메모리, ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electronically Erasable and Programmable ROM), 레지스터, 하드디스크, 리무버블 디스크, 메모리 카드, USB 메모리, CD-ROM 등과 같이, 전자 장치에서 판독 가능한 다양한 유형의 기록 매체에 저장되어 있을 수 있다. The above-described methods according to various embodiments of the present disclosure may be stored in a code in a computer-readable storage medium. Code for performing the above-described methods according to various embodiments of the present invention, RAM (Random Access Memory), flash memory, ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electronically Erasable and Programmable ROM) ), A register, a hard disk, a removable disk, a memory card, a USB memory, a CD-ROM, and the like, may be stored in various types of recording media readable by an electronic device.
비록 본 발명의 예시적인 실시예 및 적용예가 도시되고 설명되었더라도, 본 발명의 기술적 사상의 범위를 벗어나지 않는 범위에서 많은 변화 및 수정이 가능하고, 이러한 변형은 본 발명이 속하는 기술 분야의 통상의 기술자에게 명확하게 이해될 수 있다. 따라서, 설명된 실시예는 예시적이지 제한적인 것이 아니며, 본 발명은 첨부된 상세한 설명에 의해서 제한되는 것이 아니지만 청구항의 기술적 범위 내에서 수정 가능하다.Although exemplary embodiments and applications of the present invention have been shown and described, many changes and modifications are possible without departing from the scope of the spirit of the present invention, and such modifications may be made to those skilled in the art. Can be clearly understood. Accordingly, the described embodiments are to be considered as illustrative and not restrictive, and the invention is not to be limited by the following detailed description, but may be modified within the technical scope of the claims.
본 발명은 동영상 자막을 편집하는데 이용될 수 있다.The present invention can be used to edit video subtitles.

Claims (12)

  1. 자막 편집 장치에 있어서,In the caption editing apparatus,
    적어도 하나 이상의 동영상 미리보기 화면을 표시하는 동영상 표시 영역과 상기 표시된 미리보기 화면에 대응하는 적어도 하나 이상의 동영상 클립을 표시하는 클립 표시 영역을 디스플레이하는 디스플레이부; 및A display unit configured to display a video display area displaying at least one video preview screen and a clip display area displaying at least one video clip corresponding to the displayed preview screen; And
    상기 클립 표시 영역에 표시된 동영상 클립에 대한 사용자 제스처를 감지하면, 상기 감지된 사용자 제스처에 대응하여 상기 동영상 클립에 대한 자막 편집 모드로 진입하도록 제어하는 제어부;를 포함하되,And a controller configured to enter a subtitle editing mode for the video clip in response to the detected user gesture when detecting a user gesture for the video clip displayed in the clip display area.
    상기 제어부는, 상기 자막 편집 모드에서 상기 적어도 하나 이상의 동영상 클립에 대한 사용자 제스처를 감지하면, 상기 감지된 사용자 제스처에 따라 상기 자막 편집 모드에 있는 동영상 클립 상에 자막 클립을 편집하는 것을 특징으로 하는 자막 편집 장치.If the control unit detects a user gesture for the at least one video clip in the subtitle editing mode, the control unit edits the subtitle clip on the video clip in the subtitle editing mode according to the detected user gesture. Editing device.
  2. 제1 항에 있어서,According to claim 1,
    상기 제어부는, 상기 동영상 클립에서 시작 시간 및 재생 시간 정보를 추출하고, 상기 추출된 시작 시간 및 재생 시간 정보를 상기 동영상 클립에 입력된 자막 클립에 반영하며, 상기 시작 시간 및 재생 시간 정보에 기초하여 상기 자막 클립을 자막 파일로 변환하는 것을 특징으로 하는 자막 편집 장치.The control unit extracts start time and playback time information from the video clip, reflects the extracted start time and playback time information to a subtitle clip input to the video clip, and based on the start time and playback time information. And converting the subtitle clip into a subtitle file.
  3. 제1 항에 있어서,According to claim 1,
    상기 제어부는, 상기 사용자 제스처로 자막 입력 제스처를 감지하면 자막 입력을 위한 입력창을 표시하고, 상기 입력창을 통해서 입력된 자막에 기초하여 자막 클립을 생성하여 상기 동영상 클립 상에 표시하도록 제어하는 것을 특징으로 하는 자막 편집 장치.The control unit may display an input window for caption input when the caption input gesture is detected by the user gesture, and generate a caption clip based on the caption input through the input window and control the caption clip to be displayed on the video clip. A subtitle editing device.
  4. 제1 항에 있어서,According to claim 1,
    상기 제어부는, 상기 사용자 제스처로 자막 삭제 제스처를 감지하면 상기 동영상 클립 상에 입력된 자막 클립을 삭제하도록 제어하는 것을 특징으로 하는 자막 편집 장치.And the controller controls to delete the caption clip input on the video clip when the caption deletion gesture is detected by the user gesture.
  5. 제1 항에 있어서,According to claim 1,
    상기 제어부는, 상기 사용자 제스처로 자막 이동 제스처를 감지하면 원본 동영상 클립 상에 표시된 자막 클립을 대상 동영상 클립 상으로 이동하도록 제어하는 것을 특징으로 하는 자막 편집 장치.And the control unit controls to move the caption clip displayed on the original video clip onto the target video clip when the caption movement gesture is detected by the user gesture.
  6. 제1 항에 있어서,According to claim 1,
    상기 제어부는, 상기 사용자 제스처로 자막 복사 제스처를 감지하면 원본 동영상 클립 상에 표시된 자막 클립을 복사하고, 복사된 자막 클립을 대상 동영상 클립 상에 불여넣기 하도록 제어하는 것을 특징으로 하는 자막 편집 장치.The control unit, when detecting a subtitle copy gesture by the user gesture, the subtitle editing device characterized in that to copy the subtitle clip displayed on the original video clip, and to inject the copied subtitle clip on the target movie clip.
  7. 디스플레이부에 표시되는 동영상 및 자막을 편집할 수 있는 자막 편집 장치를 이용한 자막 편집 방법에 있어서,In the subtitle editing method using a subtitle editing device that can edit the video and subtitles displayed on the display unit,
    상기 디스플레이부에 적어도 하나 이상의 동영상 미리보기 화면을 표시하는 동영상 표시 영역과 상기 표시된 미리보기 화면에 대응하는 적어도 하나 이상의 동영상 클립을 표시하는 클립 표시 영역을 디스플레이하는 단계; Displaying a video display area displaying at least one video preview screen on the display unit and a clip display area displaying at least one video clip corresponding to the displayed preview screen;
    상기 클립 표시 영역에 표시된 동영상 클립에 대한 사용자 제스처를 감지하는 단계;Detecting a user gesture with respect to a video clip displayed in the clip display area;
    상기 감지된 사용자 제스처에 대응하여 상기 동영상 클립에 대한 자막 편집 모드로 진입하는 단계; 및Entering a subtitle editing mode for the video clip in response to the detected user gesture; And
    상기 자막 편집 모드에서 상기 적어도 하나 이상의 동영상 클립에 대한 사용자 제스처를 감지하면, 상기 감지된 사용자 제스처에 따라 상기 자막 편집 모드에 있는 동영상 클립 상에 자막 클립을 편집하는 단계;를 포함하는 자막 편집 방법.And if the user gesture for the at least one video clip is detected in the subtitle editing mode, editing the subtitle clip on the video clip in the subtitle editing mode according to the detected user gesture.
  8. 제7 항에 있어서,The method of claim 7, wherein
    상기 자막 클립을 편집하는 단계 이후에, After editing the subtitle clip,
    상기 동영상 클립에서 시작 시간 및 재생 시간 정보를 추출하는 단계; Extracting start time and playback time information from the video clip;
    상기 추출된 시작 시간 및 재생 시간 정보를 상기 동영상 클립에 입력된 자막 클립에 반영하는 단계; 및 Reflecting the extracted start time and playback time information to a caption clip input to the video clip; And
    상기 시작 시간 및 재생 시간 정보에 기초하여 상기 자막 클립을 자막 파일로 변환하는 단계;를 포함하는 것을 특징으로 하는 자막 편집 방법.And converting the subtitle clip into a subtitle file based on the start time and the play time information.
  9. 제7 항에 있어서,The method of claim 7, wherein
    상기 자막 클립을 편집하는 단계는,Editing the subtitle clip,
    상기 사용자 제스처로 자막 입력 제스처를 감지하는 단계;Detecting a caption input gesture with the user gesture;
    상기 감지된 자막 입력 제스처에 대응하여 자막 입력을 위한 입력창을 표시하는 단계; Displaying an input window for caption input in response to the detected caption input gesture;
    상기 입력창을 통해서 입력된 자막에 기초하여 자막 클립을 생성하는 단계;Generating a caption clip based on the caption input through the input window;
    상기 생성된 자막 클립을 상기 동영상 클립 상에 표시하는 단계;를 포함하는 자막 편집 방법.Displaying the generated caption clip on the video clip.
  10. 제7 항에 있어서,The method of claim 7, wherein
    상기 자막 클립을 편집하는 단계는, Editing the subtitle clip,
    상기 사용자 제스처로 자막 삭제 제스처를 감지하는 단계; 및Detecting a subtitle deletion gesture by the user gesture; And
    상기 감지된 자막 삭제 제스처에 대응하여 상기 동영상 클립 상에 입력된 자막 클립을 삭제하는 단계;를 포함하는 자막 편집 방법.And deleting a caption clip input on the video clip in response to the detected caption deletion gesture.
  11. 제7 항에 있어서,The method of claim 7, wherein
    상기 자막 클립을 편집하는 단계는,Editing the subtitle clip,
    상기 사용자 제스처로 자막 이동 제스처를 감지하는 단계;Detecting a subtitle movement gesture by the user gesture;
    상기 감지된 자막 이동 제스처에 대응하여 원본 동영상 클립 상에 표시된 자막 클립을 대상 동영상 클립 상으로 이동하는 단계;를 포함하는 자막 편집 방법.Moving the subtitle clip displayed on the original movie clip onto the target movie clip in response to the detected subtitle movement gesture.
  12. 제7 항에 있어서,The method of claim 7, wherein
    상기 자막 클립을 편집하는 단계는,Editing the subtitle clip,
    상기 사용자 제스처로 자막 복사 제스처를 감지하는 단계;Detecting a subtitle copy gesture with the user gesture;
    상기 감지된 자막 복사 제스처에 대응하여 원본 동영상 클립 상에 표시된 자막 클립을 복사하는 단계; 및Copying a caption clip displayed on an original video clip in response to the detected caption copy gesture; And
    상기 복사된 자막 클립을 대상 동영상 클립 상으로 붙여넣기 하는 단계;를 포함하는 자막 편집 방법.And pasting the copied subtitle clip onto a target movie clip.
PCT/KR2014/011891 2013-12-09 2014-12-05 Subtitle editing apparatus and subtitle editing method WO2015088196A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020130152088A KR101419871B1 (en) 2013-12-09 2013-12-09 Apparatus and method for editing subtitles
KR10-2013-0152088 2013-12-09

Publications (1)

Publication Number Publication Date
WO2015088196A1 true WO2015088196A1 (en) 2015-06-18

Family

ID=51742265

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2014/011891 WO2015088196A1 (en) 2013-12-09 2014-12-05 Subtitle editing apparatus and subtitle editing method

Country Status (2)

Country Link
KR (1) KR101419871B1 (en)
WO (1) WO2015088196A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017217613A1 (en) * 2016-06-17 2017-12-21 주식회사 사이 Method for creating and sharing subtitles of video content by using machine learning
CN113905267A (en) * 2021-08-27 2022-01-07 北京达佳互联信息技术有限公司 Subtitle editing method and device, electronic equipment and storage medium
CN114501098A (en) * 2022-01-06 2022-05-13 北京达佳互联信息技术有限公司 Subtitle information editing method and device and storage medium
CN114666637A (en) * 2022-03-10 2022-06-24 阿里巴巴(中国)有限公司 Video editing method, audio editing method and electronic equipment

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101949149B1 (en) * 2017-10-20 2019-02-18 박준혁 Search processing device for Seeking and processing of Video file with subtitle file

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080090218A (en) * 2007-04-04 2008-10-08 엔에이치엔(주) Method for uploading an edited file automatically and apparatus thereof
KR20090058305A (en) * 2007-12-04 2009-06-09 삼성전자주식회사 Apparatus for photographing moving image and method thereof
KR20100086136A (en) * 2009-01-22 2010-07-30 (주)코드엑트 Editor system for moving pictures
KR20130027412A (en) * 2011-09-07 2013-03-15 이-린 첸 Editing system used to make personalized audio and video

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101328199B1 (en) 2012-11-05 2013-11-13 넥스트리밍(주) Method and terminal and recording medium for editing moving images

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080090218A (en) * 2007-04-04 2008-10-08 엔에이치엔(주) Method for uploading an edited file automatically and apparatus thereof
KR20090058305A (en) * 2007-12-04 2009-06-09 삼성전자주식회사 Apparatus for photographing moving image and method thereof
KR20100086136A (en) * 2009-01-22 2010-07-30 (주)코드엑트 Editor system for moving pictures
KR20130027412A (en) * 2011-09-07 2013-03-15 이-린 첸 Editing system used to make personalized audio and video

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017217613A1 (en) * 2016-06-17 2017-12-21 주식회사 사이 Method for creating and sharing subtitles of video content by using machine learning
WO2017217612A1 (en) * 2016-06-17 2017-12-21 주식회사 사이 Method for creating and sharing subtitles of video content by using one-touch feature
CN113905267A (en) * 2021-08-27 2022-01-07 北京达佳互联信息技术有限公司 Subtitle editing method and device, electronic equipment and storage medium
CN114501098A (en) * 2022-01-06 2022-05-13 北京达佳互联信息技术有限公司 Subtitle information editing method and device and storage medium
CN114501098B (en) * 2022-01-06 2023-09-26 北京达佳互联信息技术有限公司 Subtitle information editing method, device and storage medium
CN114666637A (en) * 2022-03-10 2022-06-24 阿里巴巴(中国)有限公司 Video editing method, audio editing method and electronic equipment
CN114666637B (en) * 2022-03-10 2024-02-02 阿里巴巴(中国)有限公司 Video editing method, audio editing method and electronic equipment

Also Published As

Publication number Publication date
KR101419871B1 (en) 2014-07-16

Similar Documents

Publication Publication Date Title
WO2016093506A1 (en) Mobile terminal and control method therefor
WO2014069964A1 (en) Method for editing motion picture, terminal for same and recording medium
WO2012108729A2 (en) Device including plurality of touch screens and screen change method for the device
WO2014157893A1 (en) Method and device for providing a private page
WO2016072674A1 (en) Electronic device and method of controlling the same
WO2014092451A1 (en) Information search method and device and computer readable recording medium thereof
WO2014098528A1 (en) Text-enlargement display method
WO2015105271A1 (en) Apparatus and method of copying and pasting content in a computing device
WO2015041438A1 (en) Method for screen mirroring and source device thereof
WO2015088196A1 (en) Subtitle editing apparatus and subtitle editing method
WO2012011640A1 (en) Computing device, operating method of the computing device using user interface
WO2013055089A1 (en) Method and apparatus for operating function in touch device
WO2010143843A2 (en) Content broadcast method and device adopting same
WO2015009103A1 (en) Method of providing message and user device supporting the same
WO2010143839A2 (en) Method for providing a gui for searching for content, and device adopting same
WO2014017841A1 (en) User terminal apparatus and control method thereof cross-reference to related applications
WO2013125863A1 (en) Method and device for generating captured image for display windows
WO2014088253A1 (en) Method and system for providing information based on context, and computer-readable recording medium thereof
WO2019160238A1 (en) Electronic apparatus and operating method of the same
WO2014098539A1 (en) User terminal apparatus and control method thereof
WO2013191315A1 (en) Apparatus and method for digital image processing
WO2019039739A1 (en) Display apparatus and control method thereof
WO2016129923A1 (en) Display device, display method and computer-readable recording medium
WO2016080653A1 (en) Method and apparatus for image processing
WO2015041491A1 (en) Method and device for displaying content

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14870112

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 21.10.2016)

122 Ep: pct application non-entry in european phase

Ref document number: 14870112

Country of ref document: EP

Kind code of ref document: A1