WO2015020497A1 - Method for processing video editing user interface running on mobile device having touch screen, mobile device and recording medium - Google Patents

Method for processing video editing user interface running on mobile device having touch screen, mobile device and recording medium Download PDF

Info

Publication number
WO2015020497A1
WO2015020497A1 PCT/KR2014/007412 KR2014007412W WO2015020497A1 WO 2015020497 A1 WO2015020497 A1 WO 2015020497A1 KR 2014007412 W KR2014007412 W KR 2014007412W WO 2015020497 A1 WO2015020497 A1 WO 2015020497A1
Authority
WO
WIPO (PCT)
Prior art keywords
user interface
frames
frame
video
user
Prior art date
Application number
PCT/KR2014/007412
Other languages
French (fr)
Korean (ko)
Inventor
정춘선
김경중
김종득
Original Assignee
넥스트리밍(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 넥스트리밍(주) filed Critical 넥스트리밍(주)
Publication of WO2015020497A1 publication Critical patent/WO2015020497A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 

Definitions

  • the present invention relates to a Graphic User Interface (GUI) of video editing software executed on a mobile.
  • GUI Graphic User Interface
  • FIG. 1 is a view for explaining a general user interface of such a video editing software for a personal computer (PC).
  • PC personal computer
  • video files are loaded into a memory and a part of the video is selected to insert a video clip corresponding to the selected part in the timeline.
  • the video editing software when rendering is performed to obtain the final result, the video editing software generates the final video edit result by rendering each video clip arranged in the timeline in chronological order.
  • These user interfaces are implemented to allow the user to accurately select the portion to be edited from the video file and easily select the desired length.
  • a part of the video file may be selected by loading a video file into a memory and then setting a start position and an end position in seconds.
  • an instance corresponding to the selected portion may be created and inserted into an appropriate position of the timeline by dragging it with a mouse.
  • the hot topic in the recent software technology field can be said to be mobile computing using a smartphone.
  • Video editing software is no exception, and video editing software for smartphones running on smartphones is being developed and distributed one after another.
  • mobile devices such as smartphones or tablet computers have a rather small screen size of only 3 or 4 inches up to 10 inches, which is inherently disadvantageous for video editing. can do.
  • Patent Literature 1 Korean Intellectual Property Office, Patent Publication No. 10-2009-0058305 "Video recording editing apparatus and method"
  • Patent Document 2 Korean Intellectual Property Office, Patent Registration No. 10-0860510 "Generating a slide show with visual effects inserted into a mobile device"
  • Non-Patent Literature 1 (Non-Patent Literature 1) Literature 3. Choi, Young-Young, Choi, Study on Mobile Video Editing Techniques in the Smartphone Market, Journal of the Korea Contents Association 10 (5) 115-123 1738-6764 KCI, 2010
  • the present invention was developed to solve the problems of the prior art as described above, a mobile video editing software for selecting a portion of the video to create a video clip and insert it on the timeline with only simple and intuitive operation.
  • the purpose is to present a user interface.
  • Another object of the present invention is to display a plurality of frames to visually know the contents of the video on a relatively narrow screen, and to generate a video clip by selecting some of them, but it is simple and An intuitive operation is to provide a user interface for dynamically adjusting the time interval of frames.
  • an apparatus for providing a video editing user interface includes: user interface processing means for displaying a first user interface on one side of a touch screen and a second user interface on the other side of the screen;
  • Frame acquiring means for acquiring frames to be displayed on the first user interface using a predetermined frame acquiring interval from the moving image data selected by the user;
  • Frame interval adjusting means for setting a frame acquisition interval by a user operation
  • rendering means for generating a moving picture file including the moving picture clips by rendering moving picture clips arranged in a second user interface.
  • the user interface processing means displays the frames acquired by the frame obtaining means on the first user interface, and the user touches and drags any two frames displayed on the first user interface in the direction of the second user interface. Accordingly, a video clip is generated from the position of the video corresponding to the frame leading in time order among the two selected frames to the position of the video corresponding to the later frame.
  • the icons representing this are arranged in the second user interface, that is, the timeline.
  • the frame interval adjusting means changes the frame acquisition interval in real time as the user touches any two points on the first user interface and then narrows or increases the distance between the two contact points while maintaining the contact state.
  • the frame acquiring means re-acquires frames by using the frame acquiring interval changed from the video data when the frame acquiring interval is changed in real time.
  • the user interface processing means then updates the obtained frames by displaying them on the first user interface.
  • a method for providing a video editing user interface includes: a) acquiring a frame at a predetermined frame acquisition interval from a portion of video data;
  • step d) changing the frame acquisition interval in real time as the user narrows or increases the distance between the two contact points while simultaneously touching the first user interface area and maintains the contact state, and branches to step a);
  • the user touches any two of them and then drags the two selected frames simply by dragging in the direction of the timeline.
  • 1 is a view for explaining the user interface configuration of the conventional video editing software
  • FIG. 2 is a diagram illustrating a user interface of mobile video editing software according to the present invention.
  • FIG. 3 is a view for explaining the configuration of a video editing user interface providing apparatus using a touch screen gesture input according to the present invention
  • FIG. 4 is a diagram illustrating a process of generating a video clip and inserting it into a timeline through a touch screen gesture input.
  • FIG. 5 is a flowchart illustrating a method of providing a video editing user interface using a touch screen gesture input in a time series.
  • FIG. 6 is a diagram illustrating a process of adjusting a frame interval in real time through a touch screen gesture input.
  • a mobile device having a touch screen comprising: user interface processing means for displaying a first user interface on one side of a touch screen and a second user interface on the other side of the screen; Frame acquiring means for acquiring frames to be displayed on the first user interface using a predetermined frame acquiring interval from the moving image data selected by the user; Frame interval adjusting means for setting a frame acquisition interval by a user operation; And rendering means for generating a video file including the video clips by rendering the video clips arranged in a second user interface.
  • the user interface processing means displays the frames acquired by the frame acquiring means on a first user interface, and as the user touches and drags any two frames displayed on the first user interface toward the second user interface, Among the two selected frames, a video clip is generated from the position of the video corresponding to the frame leading in chronological order to the position of the video corresponding to the later frame, and the icons representing the same are arranged in the second user interface.
  • the user touches any two points on the first user interface and then changes the frame acquisition interval in real time as the interval between the two contact points is narrowed or increased while maintaining the contact state, and the frame acquiring means obtains the frame acquisition interval. In the real-time change of the frame, the frames are re-obtained using the changed frame acquisition interval from the video data, and the user interface processing means displays the updated frames on the first user interface and updates the frames.
  • a video editing user interface processing method executed in a mobile device having a touch screen comprising: a) a frame obtaining step of obtaining a frame at predetermined frame acquisition intervals from the moving image data; b) displaying at least a portion of the obtained plurality of frames in chronological order along one side of the screen of the touch screen; c) As a user selects any two frames among the plurality of frames displayed in the chronological order, the position of the video corresponding to the preceding frame in chronological order among the selected two frames is a starting point, and the video corresponding to the later frames in chronological order.
  • step d as the frame acquisition interval is changed in real time, the frame is acquired again according to the changed frame acquisition interval, and at least some of the plurality of acquired frames are updated in real time by displaying in chronological order along one side of the screen. It is characterized by.
  • the mobile inserts the generated video clip at the timeline position corresponding to the coordinate where the drag ends.
  • step e) further comprises a rendering step of rendering the video clips inserted in the timeline in the timeline order.
  • step d) if the user touches any two points on the touch screen area where the plurality of frames are displayed and drags the two contact points apart, the frame acquisition interval is widened.
  • the frame acquisition interval is narrowed and then branched to the frame acquisition step.
  • step d) when the user drags the two contact points apart from each other, the newly acquired frames are displayed in both directions about a frame adjacent to the center coordinates of the first contact point of the two contact points.
  • step d as the user drags the two contact points apart from each other, an animation is displayed in which the frames move away in both directions about a center coordinate of the first contact point of the two contact points, and then the newly acquired frames are displayed. Characterized in that.
  • step d) when the user drags so that the distance between the two contact points becomes narrow, the newly acquired frames are displayed in both directions about a frame adjacent to the center coordinates of the last contact positions of the two contact points.
  • step d as the user drags the gap between the two contact points to be narrowed, an animation is displayed in which the frames on both sides move closer in the direction of the center coordinate of the last contact point of the two contact points, and then newly acquired frames are displayed. It is characterized by displaying.
  • a computer-readable recording medium having a program code comprising: a) obtaining a frame at predetermined frame acquisition intervals from a partial section of moving image data; b) displaying at least a portion of the obtained plurality of frames on a first user interface region shown on one side of a screen of the touch screen; c) Any two frames among the frames displayed in the first user interface area are selected by the user and dragged toward the second user interface area on the other side of the touch screen, corresponding to the frames preceding the time in the selected two frames. Creates a movie clip with the start point of the movie as the starting point and the ending point of the movie corresponding to the late frames in chronological order, and the generated movie clip on the timeline corresponding to the position where the dragging of the second user interface area ends. Inserting in position; And d) changing the frame acquisition interval in real time as the user narrows or increases the distance between the two contact points while simultaneously touching the first user interface area and maintains a contact state, and branches to step a). Characterized in that it comprises a.
  • ⁇ means means a unit that processes at least one function or operation, Each of these may be implemented by software or hardware, or a combination thereof.
  • the timeline literally means the time base.
  • the user arranges a number of video clips along the timeline, sets effects on each of the arranged video clips, and then renders the resulting video file.
  • the timeline means a time position occupied by each video clip in the video file that is rendered as the final result.
  • the video clip may be used at a location on a timeline corresponding to a section “1 minute 10 seconds to 1 minute 30 seconds”.
  • a video clip refers to a piece or a portion of a video that is split into pieces for authoring a video edit.
  • the user can insert a locally stored movie file as a whole into the timeline, or select a portion of the movie file to insert into the timeline, in which case they are part of the output of the final rendered movie file, arranged on the timeline. It may be referred to as a video clip in that it is configured.
  • FIG. 2 is a diagram illustrating a user interface of mobile video editing software according to the present invention.
  • the first user interface 11 is displayed at the top of the screen.
  • the first user interface 11 displays various scenes of the video in time series.
  • the first user interface 11 displays a plurality of frames in chronological order. Each frame visually displays the scenes of the video.
  • the user may generate a video clip by selecting a desired portion of the entire video through the first user interface 11.
  • the second user interface 12 is displayed at the bottom of the screen.
  • the second user interface 12 visually represents the timeline.
  • the user can place multiple movie clips at appropriate locations on the second user interface 12.
  • a second user interface 12 having a shape extended to the left and right is shown, and an icon of a video clip is displayed thereon.
  • the position at which the icon of the movie clip is displayed corresponds to the position on the timeline of the movie to be edited.
  • the present invention presupposes the user interface configuration of the video editing software for mobile as shown in FIG.
  • a user interface is further proposed to generate a video clip by accurately selecting a part of the video by simple operation.
  • Video editing user interface providing apparatus is to provide such a user interface, which is software executed in the mobile 1, It may be implemented in the form of firmware.
  • FIG. 3 is a view for explaining the configuration of a video editing user interface providing apparatus according to the present invention.
  • the apparatus 100 for providing a video editing user interface includes a user interface processing unit 110, a frame obtaining unit 120, a frame interval adjusting unit 130, and a rendering unit ( 140).
  • the user interface processing unit 110 displays a first user interface 11 displaying a plurality of frames obtained from a video in chronological order and a second user interface 12 corresponding to a timeline. Mark each on.
  • the frame obtaining means 120 is a predetermined from such video data. A plurality of frames are obtained using the frame acquisition interval.
  • the frame obtaining unit 120 may obtain a plurality of frames by decoding the video and generating a still image at 10 second intervals.
  • the nearest key frame may be obtained every 10 seconds.
  • the frame acquisition interval is not necessarily limited to the time interval, but may be set as, for example, "every fifth keyframe". In such a case, the frame acquiring means 120 may acquire one for every five key frames.
  • the frames may be preferably obtained in the form of thumbnails (Thumbnail).
  • the user interface processing means 110 displays the plurality of frames thus obtained on the first user interface 11 in chronological order.
  • thumbnails of frames may be displayed in chronological order from left to right.
  • the scenes of the partial sections of the video are displayed in chronological order through the first user interface 11.
  • the user may check various scenes of the video at a glance through the first user interface 11.
  • FIG. 4 is a diagram illustrating a process of generating a video clip and inserting it into a timeline through a touch screen gesture input.
  • the user touches any two of the frames shown in the first user interface 11, and then drags to a specific position of the second user interface 12 and then touches.
  • the user interface processing means 110 moves a video clip corresponding to a position corresponding to a later frame from a position corresponding to a frame preceding the time frame among the two frames.
  • the generated video clip is inserted at a position on the timeline corresponding to the coordinate on the second user interface 12 where the user lifts a finger and displays an icon of the video clip.
  • the frame touched and dragged by the user is not necessarily included in the video clip, and according to an algorithm for extracting a part of the video, the video clip is based on a keyframe immediately before or after the frame touched and dragged by the user. You can also create
  • the frames corresponding to the first scene and the last scene of the section desired by the user will not be simultaneously displayed on the first user interface 11.
  • the user may widen the time interval of the frames displayed on the first user interface 11 by touching and spreading any two points of the first user interface 11 to both sides.
  • the time interval of the frames displayed on the first user interface 11 may be narrowed by touching two points of the first user interface 11 and then narrowing them toward the center.
  • the frame interval adjusting means 130 may obtain a frame acquisition interval. Changes dynamically.
  • the frame acquiring means 120 newly acquires frames from the video using the dynamically changed frame acquiring interval.
  • the user interface processing means 110 updates the obtained new frames by displaying them on the first user interface 11.
  • the user can create a video clip of the desired length from the video scene by the user through a simple operation process.
  • the generated video clip may be arranged on the timeline of the second user interface 12 with a simple operation.
  • the user can obtain the final video edit result through a rendering process as in the conventional video editing software.
  • the rendering means 140 generates a video file which is the final edited product including the video clips by rendering the video clips arranged in the second user interface 12.
  • FIGS. 4 to 6 a video editing user interface providing method using a touch screen gesture input according to the present invention will be described with reference to FIGS. 4 to 6.
  • FIG. 5 is a flowchart illustrating a method of providing a video editing user interface using a touch screen gesture input in time series
  • FIG. 6 is a diagram illustrating a process of adjusting a frame interval in real time through a touch screen gesture input.
  • FIGS. 4 and 6 illustrates a process of providing a user interface as shown in FIGS. 4 and 6 by a mobile 1 having a touch screen while a video editing app is executed.
  • the present invention provides a frame acquisition step (step a), a frame display step (b step), a clip selection step (c step), an acquisition interval adjustment step (d step), and a rendering step (e). Step).
  • the mobile 1 acquires a frame at a predetermined frame acquisition interval from the video data (step a).
  • the frame is preferably obtained in the form of a thumbnail.
  • the frames may not necessarily be acquired at regular intervals with respect to the entire video data, and the frames may be acquired only as much as the portions to be displayed on the first user interface 11.
  • the frame display step After acquiring the frame in this way, in the frame display step, at least a part of the obtained plurality of frames is displayed on the first user interface 11.
  • the display is preferably performed in one direction in the region of the first user interface 11 in chronological order.
  • frames leading in chronological order may be displayed on the first user interface 11 as shown in FIG. 2.
  • the frames displayed on the first user interface 11 may be frames obtained from a portion of the video, and when a user wants to check a frame of another portion, the user manipulates the progress bar by dragging the progress bar. can do.
  • the mobile 1 may dynamically acquire and display the corresponding portion of the video on the first user interface 11.
  • the clip selection step corresponds to the preceding frame in chronological order among the two frames selected by the user.
  • a moving clip is created by using the position of the moving image as a starting point and using the ending position of the moving image corresponding to a late frame in chronological order.
  • a movie clip it is referred to as the creation of a movie clip, but it does not necessarily mean creating an instance corresponding to a selected portion from the movie and storing it as independent data, and relates to the start position and end position of the selected region in the presence of the original movie data. You can also treat it as generating information.
  • the user selects one of the plurality of frames displayed on the first user interface 11 corresponding to the start point and the end point, respectively, and then selects the movie clip function by selecting a movie clip function. You can also create
  • the mobile 1 can display any two frames shown in the first user interface 11 as shown in FIG. 4 so that the video clip can be selected and created through a touch screen operation in a more intuitive and simple manner. Touch and then drag to the lower second user interface 12 to create a video clip, and automatically place the created video clip on the timeline.
  • the mobile 1 creates a video clip corresponding to the section between the two frames, and the user's dragging.
  • the video clip is inserted on the timeline corresponding to the position on the second user interface 12 where the drag is terminated.
  • a four-step editing process by selecting the start position of the movie clip / then the end position of the movie clip / by pressing the Create button of the movie clip / and dragging the created movie clip onto the timeline This is completed by the drag operation after only one multi-touch.
  • the frames corresponding to the start position and the end position that the user wants to select in the first user interface 11 should be simultaneously displayed.
  • the user touches two points on the first user interface 11 with two fingers, for example, a thumb and an index finger, and then drags the fingers apart.
  • two adjacent frames may be simultaneously touched and then dragged left and right in a feeling of spreading the distance between the two frames.
  • FIG. 6A illustrates a case in which the user touches two points on the first user interface 11 and then performs a control operation of widening the distance between the two contact points.
  • the mobile 1 widens the frame acquisition interval in real time in the acquisition interval adjustment step (d step).
  • the mobile 1 branches to step a).
  • the frame is acquired again according to the frame acquisition interval changed in step a).
  • step b) the newly acquired frames are updated by displaying them on the first user interface 11.
  • the time interval of the frames simultaneously displayed on the first user interface 11 is wider.
  • the user can repeatedly perform the same operation.
  • the physical interval between the frames as the user moves the finger apart to intuitively know that the time interval between the frames (that is, the time interval at which two frames are played in the video) has become wider. (I.e., the distance between frames on the screen) is animated to move away from each other.
  • the center coordinates of two touch points that is, when the user touches the touch screen with two fingers attached, the frames are left and right centered on the coordinates between the two fingers. You can display away animations.
  • the newly acquired frames around the frame are displayed while the frame adjacent to the coordinate between the two fingers is displayed on the first user interface 11 as possible. Display.
  • the user may narrow the time intervals of the frames to manipulate the frames to appear on the first user interface 11.
  • the user may touch the two points on the first user interface 11 with two fingers apart and then drag them in such a way as to pinch them.
  • 6B illustrates a case in which the user touches two points on the first user interface 11 and then performs a control operation of narrowing the distance between the two contact points.
  • the mobile 1 narrows the frame acquisition interval in real time in the acquisition interval adjustment step (d step).
  • the frame is reacquired according to the frame acquisition interval changed in step a), and the control unit proceeds to step b) to update the newly acquired frames by displaying them on the first user interface 11.
  • the time interval between the frames is not narrow, so that the user can intuitively know that the physical intervals between the frames are closer to each other during the user's finger-drag dragging operation.
  • the newly acquired frames are displayed around the corresponding frame while keeping adjacent frames as possible in the intermediate coordinates of the two contact points.
  • the mobile 1 generates the final video edit result by rendering the video clips arranged in the second user interface 12 in the timeline order.
  • the mobile 1 may store it locally or automatically upload it to a social network service or cloud through a network according to a user's selection or setting.
  • each step of the method of providing a user interface for the mobile 1 to dynamically widen or narrow the time interval of frames for selecting a movie clip is a software that is a set of computer readable instructions. It can be implemented in the form of and recorded on the recording medium.
  • the recording medium may include all types of media that can be read by a computer, and examples thereof include DVD-ROM, CD-ROM, hard disk, USB memory, and flash memory.
  • the expression contained in the recording medium includes the case of being recorded on this type of recording medium, as well as the case provided through the communication line in the form of an intangible carrier wave (Carrier Wave).
  • the expression "mobile” in the above but a smart phone and a tablet computer as an example, but not limited to any means equipped with a touch screen, a portable electronic device running video editing software.
  • a well-known type such as a mobile communication terminal or a PDA may be a new type of device satisfying the above condition.
  • the present invention can be applied to the mobile user interface technology.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Television Signal Processing For Recording (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Disclosed is a method for processing a video editing user interface running on a mobile device having a touch screen. In accordance with the present invention, a frame is acquired at every predetermined frame acquisition interval from some sections of a video selected by a user and is then displayed in a first user interface region. Thereafter, when the user drags any two frames among a number of frames being displayed to a second user interface region on the other side of a screen, a video clip that corresponds to a section between the two selected frames is generated and is then inserted into a position on a timeline corresponding to the point at which the drag has terminated. Meanwhile, when the user simultaneously touches two points on the first user interface and then drags the two contact points away from or close to each other, the frame acquisition interval is dynamically reset, a frame is re-acquired from the video, and the above processes is then repeated.

Description

터치스크린을 갖는 모바일 디바이스에서 실행되는 동영상 편집 사용자 인터페이스 처리방법, 모바일 디바이스 및 기록매체Method of processing video editing user interface running on mobile device with touch screen, mobile device and recording medium
본 발명은 모바일에서 실행되는 동영상 편집 소프트웨어의 그래픽 사용자 인터페이스(GUI : Graphic User Interface)에 관한 것이다.The present invention relates to a Graphic User Interface (GUI) of video editing software executed on a mobile.
과거에는 동영상의 편집에 대단히 전문적인 기술과 고가의 장비를 필요로 했다.In the past, video editing required very professional skills and expensive equipment.
그러나, 컴퓨팅 기술의 비약적인 발전, 그리고 컨텐츠들을 일반 사용자들이 스스로 만들어 배포하거나, 공유할 수 있도록 하는 다양한 플랫폼의 등장으로 최근에는 일반 사용자들도 동영상을 간단히 촬영하고 편집할 수 있게 되었다.However, with the rapid development of computing technology and the emergence of various platforms that allow general users to create, distribute, or share their contents, general users have recently been able to easily shoot and edit videos.
동영상 편집도구에 대한 수요가 점차 증가하면서 전문가를 위한 동영상 편집 패키지에서부터 간단한 편집 기능을 제공하는 라이트 유저를 위한 동영상 편집 소프트웨어에 이르기까지 다양한 저작도구들이 제작되어 유통되기에 이르렀다.As demand for video editing tools grew, a variety of authoring tools were produced and distributed, ranging from video editing packages for professionals to video editing software for light users with simple editing features.
도 1은 이와 같은 공지의 PC(Personal Computer)용 동영상 편집 소프트웨어의 일반적인 사용자 인터페이스를 설명하는 도면이다.1 is a view for explaining a general user interface of such a video editing software for a personal computer (PC).
한편, 동영상 편집 과정을 살펴보면, 동영상 파일들을 메모리에 적재한 다음 해당 동영상의 일부분을 선택하여 선택된 부분에 해당하는 동영상 클립을 타임라인에 삽입하게 된다.In the meantime, in the video editing process, video files are loaded into a memory and a part of the video is selected to insert a video clip corresponding to the selected part in the timeline.
이와 같이 타임라인에 다수의 동영상 클립을 삽입한 다음에는 적절한 효과나 배경음을 삽입하고, 자막을 추가하는 등의 편집과정을 거치게 된다.In this way, after inserting a plurality of video clips in the timeline, an appropriate effect or background sound is inserted, and subtitles are added.
이후, 최종결과물을 얻기 위해 렌더링을 실행하면, 동영상 편집 소프트웨어는 타임라인에 배열된 각 동영상 클립을 시간순으로 렌더링함으로써 최종 동영상 편집 결과물을 생성한다.Then, when rendering is performed to obtain the final result, the video editing software generates the final video edit result by rendering each video clip arranged in the timeline in chronological order.
한편, 원활한 동영상의 편집을 위하여 사용자는 동영상 파일 가운데 자신이 원하는 만큼을 정확하게 선택하여 동영상 클립으로 타임라인에 삽입할 수 있어야 하며, 공지의 동영상 편집 소프트웨어들은 이를 위하여 몇 가지의 사용자 인터페이스를 제공한다.Meanwhile, in order to edit a video smoothly, a user should select exactly as he wants from a video file and insert it into a timeline as a video clip. Known video editing software provides several user interfaces for this purpose.
이러한 사용자 인터페이스들은 사용자가 동영상 파일로부터 편집에 사용할 부분을 정확하게 선택하고, 원하는 길이만큼 손쉽게 선택할 수 있도록 구현된다.These user interfaces are implemented to allow the user to accurately select the portion to be edited from the video file and easily select the desired length.
예컨대, 도 1에 도시된 바와 같이 동영상 파일을 메모리에 적재한 다음, 초 단위로 시작위치와 종료위치를 설정함으로써 상기 동영상 파일의 일부를 선택할 수 있다. For example, as shown in FIG. 1, a part of the video file may be selected by loading a video file into a memory and then setting a start position and an end position in seconds.
그리고, 선택된 부분에 해당하는 인스턴스를 생성하여 이를 마우스로 드래그하는 것에 의하여 타임라인의 적절한 위치에 삽입할 수 있다.In addition, an instance corresponding to the selected portion may be created and inserted into an appropriate position of the timeline by dragging it with a mouse.
한편, 동영상 편집 과정 그 자체의 특성상 동영상 편집 소프트웨어에서 어떤 사용자 인터페이스가 제공되는지와 무관하게 편집화면에는 많은 정보가 동시에 표시되어야 하므로 가급적 고해상도의 대형 모니터를 사용하는 것이 편집 작업에 도움이 된다.On the other hand, regardless of which user interface is provided in the video editing software due to the nature of the video editing process itself, since a large amount of information must be simultaneously displayed on the edit screen, it is helpful to use a high-resolution monitor as much as possible.
때로는 둘 이상의 고해상도 모니터를 연결하여 듀얼 모니터로 사용함으로써 동영상의 편집에 필요한 많은 정보를 표시하기도 한다.Sometimes you can connect two or more high-definition monitors and use them as dual monitors, displaying a lot of information for editing a video.
한편, 최근 소프트웨어 기술분야의 화두는 단연 스마트폰(Smartphone)을 이용한 모바일 컴퓨팅이라 할 수 있다.On the other hand, the hot topic in the recent software technology field can be said to be mobile computing using a smartphone.
동영상 편집 소프트웨어 역시 예외가 아니어서 스마트폰에서 실행되는 스마트폰용 동영상 편집 소프트웨어들이 속속 개발되어 배포되고 있다.Video editing software is no exception, and video editing software for smartphones running on smartphones is being developed and distributed one after another.
그런데, 스마트폰 또는 타블렛 컴퓨터(Tablet Computer)와 같은 모바일 디바이스들은 작게는 3, 4인치에서부터 최대 10인치 정도에 불과한 다소 작은 크기의 화면을 가지고 있을 뿐이어서 태생적으로 동영상 편집작업에는 매우 불리한 환경이라 할 수 있다.By the way, mobile devices such as smartphones or tablet computers have a rather small screen size of only 3 or 4 inches up to 10 inches, which is inherently disadvantageous for video editing. can do.
이에 따라, 모바일에 최적화된 동영상 편집 소프트웨어용의 사용자 인터페이스의 개발이 절실한 실정이다.Accordingly, there is an urgent need to develop a user interface for video editing software optimized for mobile.
특히, 모바일의 상대적으로 작은 크기의 화면에 동영상 데이터를 표시하되 그 가운데 일부를 원하는 길이만큼, 원하는 위치에서 정확하게 선택할 수 있도록 할 필요성이 있다.In particular, there is a need to display video data on a relatively small screen of a mobile device, and to select a portion of the video data at a desired position accurately.
그러나, 공지의 PC용 동영상 편집소프트웨어의 사용자 인터페이스를 그대로 적용하기에는 화면의 크기가 작아 표시할 수 있는 정보가 매우 제한적임은 물론, 마우스가 아닌 손가락을 이용하여 터치스크린을 터치하여 조작해야하는 관계로 정확하고 세밀한 조작이 어렵다는 문제가 있다.However, in order to apply the user interface of the known video editing software for PC as it is, the size of the screen is small and the information that can be displayed is very limited, and since it is necessary to operate by touching the touch screen using a finger rather than a mouse. There is a problem that detailed operation is difficult.
(특허문헌 1) 문헌 1. 대한민국특허청, 특허공개 제10-2009-0058305호 "동영상 촬영 편집 장치 및 방법"(Patent Literature 1) Literature 1. Korean Intellectual Property Office, Patent Publication No. 10-2009-0058305 "Video recording editing apparatus and method"
(특허문헌 2) 문헌 2. 대한민국특허청, 특허등록 제10-0860510호 "모바일 장치에서 시각 효과가 삽입된 슬라이드 쇼의 생성 방법"(Patent Document 2) Document 2. Korean Intellectual Property Office, Patent Registration No. 10-0860510 "Generating a slide show with visual effects inserted into a mobile device"
(비특허문헌 1)문헌 3. 최은영, 최훈, 스마트폰 시장 확대에 따른 모바일 동영상 편집 기법 연구, 한국콘텐츠학회논문지 10(5) 115-123 1738-6764 KCI, 2010년(Non-Patent Literature 1) Literature 3. Choi, Young-Young, Choi, Study on Mobile Video Editing Techniques in the Smartphone Market, Journal of the Korea Contents Association 10 (5) 115-123 1738-6764 KCI, 2010
본 발명은 상기와 같은 종래기술의 문제점을 해소하기 위하여 개발된 것으로, 직관적이고 간단한 조작만으로 동영상의 일부분을 선택하여 동영상 클립을 생성하고 타임라인 상에 삽입할 수 있도록 하는 모바일용의 동영상 편집 소프트웨어의 사용자 인터페이스를 제시하는 것에 그 목적이 있다.The present invention was developed to solve the problems of the prior art as described above, a mobile video editing software for selecting a portion of the video to create a video clip and insert it on the timeline with only simple and intuitive operation. The purpose is to present a user interface.
본 발명의 다른 목적은 상대적으로 협소한 크기의 화면에 동영상의 내용을 시각적으로 알 수 있도록 다수의 프레임을 표시하고, 그 가운데 일부를 선택하는 것에 의하여 동영상 클립을 생성할 수 있도록 하되, 이때 간단하고 직관적인 조작을 통해 프레임들의 시간 간격을 동적으로 조절할 수 있도록 하는 사용자 인터페이스의 제공에 있다.Another object of the present invention is to display a plurality of frames to visually know the contents of the video on a relatively narrow screen, and to generate a video clip by selecting some of them, but it is simple and An intuitive operation is to provide a user interface for dynamically adjusting the time interval of frames.
이러한 목적을 달성하기 위하여 본 발명에 의한 동영상 편집 사용자 인터페이스 제공장치는 터치스크린 화면 일측에 제 1 사용자 인터페이스, 화면 타측에 제 2 사용자 인터페이스를 표시하는 사용자 인터페이스 처리수단;In order to achieve the above object, an apparatus for providing a video editing user interface according to the present invention includes: user interface processing means for displaying a first user interface on one side of a touch screen and a second user interface on the other side of the screen;
사용자에 의하여 선택된 동영상 데이터로부터 소정의 프레임 획득 간격을 이용하여 제 1 사용자 인터페이스에 표시할 프레임들을 획득하는 프레임 획득 수단;Frame acquiring means for acquiring frames to be displayed on the first user interface using a predetermined frame acquiring interval from the moving image data selected by the user;
사용자 조작에 의하여 프레임 획득 간격을 설정하는 프레임 간격 조절 수단; 및Frame interval adjusting means for setting a frame acquisition interval by a user operation; And
제 2 사용자 인터페이스에 배열된 동영상 클립들을 렌더링함으로써 상기 동영상 클립들을 포함하는 동영상 파일을 생성하는 렌더링 수단;을 구비한다.And rendering means for generating a moving picture file including the moving picture clips by rendering moving picture clips arranged in a second user interface.
이때, 상기 사용자 인터페이스 처리수단은 제 1 사용자 인터페이스에 상기 프레임 획득 수단에 의하여 획득된 프레임들을 표시하되, 사용자가 제 1 사용자 인터페이스에 표시된 임의의 두 프레임을 터치하여 상기 제 2 사용자 인터페이스 방향으로 드래그함에 따라 상기 선택된 두 프레임 가운데 시간순으로 앞서는 프레임에 해당하는 동영상의 위치에서부터 나중의 프레임에 해당하는 동영상의 위치에 이르는 동영상 클립을 생성한다.In this case, the user interface processing means displays the frames acquired by the frame obtaining means on the first user interface, and the user touches and drags any two frames displayed on the first user interface in the direction of the second user interface. Accordingly, a video clip is generated from the position of the video corresponding to the frame leading in time order among the two selected frames to the position of the video corresponding to the later frame.
그리고, 이를 나타내는 아이콘을 제 2 사용자 인터페이스, 즉, 타임라인에 배열한다.And, the icons representing this are arranged in the second user interface, that is, the timeline.
한편, 상기 프레임 간격 조절 수단은 사용자가 상기 제 1 사용자 인터페이스 상의 임의의 두 지점을 터치한 다음 접촉상태를 유지한 채 상기 두 접촉점의 간격을 좁히거나 늘림에 따라 프레임 획득 간격을 실시간으로 변경하며,Meanwhile, the frame interval adjusting means changes the frame acquisition interval in real time as the user touches any two points on the first user interface and then narrows or increases the distance between the two contact points while maintaining the contact state.
상기 프레임 획득 수단은 프레임 획득 간격의 실시간 변경시, 상기 동영상 데이터로부터 변경된 프레임 획득 간격을 이용하여 프레임들을 재차 획득한다.The frame acquiring means re-acquires frames by using the frame acquiring interval changed from the video data when the frame acquiring interval is changed in real time.
그리고, 상기 사용자 인터페이스 처리수단은 재차 획득된 프레임들을 상기 제 1 사용자 인터페이스에 표시함으로써 갱신한다.The user interface processing means then updates the obtained frames by displaying them on the first user interface.
한편, 이러한 목적을 달성하기 위하여 본 발명에 의한 동영상 편집 사용자 인터페이스 제공방법은 a) 동영상 데이터의 일부 구간으로부터 소정의 프레임 획득 간격마다 프레임을 획득하는 단계; Meanwhile, in order to achieve the above object, a method for providing a video editing user interface according to the present invention includes: a) acquiring a frame at a predetermined frame acquisition interval from a portion of video data;
b) 획득된 다수의 프레임 가운데 적어도 일부를 터치스크린의 화면 일측에 도시된 제 1 사용자 인터페이스 영역에 표시하는 단계; b) displaying at least a portion of the obtained plurality of frames on a first user interface region shown on one side of a screen of the touch screen;
c) 사용자에 의하여 상기 시간순으로 표시된 다수의 프레임 가운데 임의의 두 개의 프레임이 선택되어 터치스크린 타측의 제 2 사용자 인터페이스 영역을 향해 드래그 됨에 따라, 상기 선택된 두 프레임 가운데 시간순으로 앞선 프레임에 대응하는 동영상의 위치를 시작점으로 하되, 시간순으로 늦은 프레임에 대응하는 동영상의 위치를 종료점으로 하는 동영상 클립을 생성하고, 생성된 동영상 클립을 제 2 사용자 인터페이스 영역의 드래그가 종료된 위치에 해당하는 타임라인상 위치에 삽입하는 단계;c) Any two frames among the plurality of frames displayed in the chronological order by the user are selected and dragged toward the second user interface region on the other side of the touch screen, so that the video corresponding to the frames preceding the chronological order among the two selected frames is displayed. Create a movie clip with the location as the starting point, but with the ending point as the location of the movie corresponding to the later frames in chronological order, and place the created movie clip at the location on the timeline that corresponds to the location where the dragging of the second user interface area ends. Inserting;
d) 사용자가 제 1 사용자 인터페이스 영역을 동시에 터치한 후 접촉상태를 유지한 채 상기 두 접촉점의 간격을 좁히거나 늘림에 따라 상기 프레임 획득 간격을 실시간으로 변경한 다음 a) 단계로 분기하는 단계; 및d) changing the frame acquisition interval in real time as the user narrows or increases the distance between the two contact points while simultaneously touching the first user interface area and maintains the contact state, and branches to step a); And
e) 타임라인에 배열된 동영상 클립들을 타임라인 순서에 따라 렌더링하는 단계;를 포함한다.e) rendering the video clips arranged in the timeline according to the timeline order.
이러한 본 발명에 의할 때, 동영상으로부터 얻어진 다수의 프레임들이 화면 일측에 시간순으로 표시된 상태에서, 사용자는 그 가운데 임의의 두 개를 터치한 다음 타임라인의 방향으로 단순히 드래그하는 것만으로 선택된 두 프레임을 시작점과 종료점으로 하는 동영상 클립을 생성하고, 생성된 동영상 클립을 타임 라인으로 삽입하는 일련의 편집과정을 간단히 처리할 수 있게 된다.According to the present invention, with a plurality of frames obtained from a video displayed in chronological order on one side of the screen, the user touches any two of them and then drags the two selected frames simply by dragging in the direction of the timeline. You can easily create a series of edits by creating a movie clip with start and end points and inserting the created movie clip into the timeline.
뿐만 아니라, 다수의 프레임들이 표시된 터치스크린 영역 내의 임의의 두 지점을 동시에 터치한 다음 그 사이 간격을 벌리거나 좁히는 동작을 통해 동영상으로부터 프레임들을 획득하는 간격을 변경할 수 있게 되며, 변경된 프레임 획득 간격에 의해 새롭게 획득된 다수의 프레임들이 화면 일측에 재차 표시되면 그 가운데 임의의 두 프레임을 선택하여 드래그하는 동작을 통해 원하는 위치, 원하는 길이만큼 정확하게 동영상 클립을 선택하여 생성할 수 있게 된다.In addition, it is possible to change the interval of acquiring frames from the video by simultaneously touching any two points within the touch screen area where a plurality of frames are displayed and then opening or closing the gap therebetween. When a plurality of newly acquired frames are displayed again on one side of the screen, a video clip can be selected and created exactly as desired and desired length by selecting and dragging two random frames among them.
도 1은 종래의 동영상 편집 소프트웨어의 사용자 인터페이스 구성을 설명하는 도면이며,1 is a view for explaining the user interface configuration of the conventional video editing software,
도 2는 본 발명이 제시하는 모바일용 동영상 편집 소프트웨어의 사용자 인터페이스를 설명하는 도면이며,2 is a diagram illustrating a user interface of mobile video editing software according to the present invention.
도 3은 본 발명에 의한 터치스크린 제스쳐 입력을 이용하는 동영상 편집 사용자 인터페이스 제공장치의 구성을 설명하는 도면이며,3 is a view for explaining the configuration of a video editing user interface providing apparatus using a touch screen gesture input according to the present invention;
도 4는 터치스크린 제스쳐 입력을 통해 동영상 클립을 생성하고 타임라인에 삽입하는 과정을 설명하는 도면이며,4 is a diagram illustrating a process of generating a video clip and inserting it into a timeline through a touch screen gesture input.
도 5는 터치스크린 제스쳐 입력을 이용하는 동영상 편집 사용자 인터페이스 제공방법을 시계열적으로 설명하는 플로우차트이며,5 is a flowchart illustrating a method of providing a video editing user interface using a touch screen gesture input in a time series.
도 6은 터치스크린 제스쳐 입력을 통해 프레임 간격을 실시간으로 조절하는 과정을 설명하는 도면이다.6 is a diagram illustrating a process of adjusting a frame interval in real time through a touch screen gesture input.
터치스크린을 갖는 모바일 디바이스에 있어서, 터치스크린 화면 일측에 제 1 사용자 인터페이스, 화면 타측에 제 2 사용자 인터페이스를 표시하는 사용자 인터페이스 처리수단; 사용자에 의하여 선택된 동영상 데이터로부터 소정의 프레임 획득 간격을 이용하여 제 1 사용자 인터페이스에 표시할 프레임들을 획득하는 프레임 획득 수단; 사용자 조작에 의하여 프레임 획득 간격을 설정하는 프레임 간격 조절 수단; 및 제 2 사용자 인터페이스에 배열된 동영상 클립들을 렌더링함으로써 상기 동영상 클립들을 포함하는 동영상 파일을 생성하는 렌더링 수단;을 구비하되,A mobile device having a touch screen, comprising: user interface processing means for displaying a first user interface on one side of a touch screen and a second user interface on the other side of the screen; Frame acquiring means for acquiring frames to be displayed on the first user interface using a predetermined frame acquiring interval from the moving image data selected by the user; Frame interval adjusting means for setting a frame acquisition interval by a user operation; And rendering means for generating a video file including the video clips by rendering the video clips arranged in a second user interface.
상기 사용자 인터페이스 처리수단은 제 1 사용자 인터페이스에 상기 프레임 획득 수단에 의하여 획득된 프레임들을 표시하되, 사용자가 제 1 사용자 인터페이스에 표시된 임의의 두 프레임을 터치하여 상기 제 2 사용자 인터페이스 방향으로 드래그함에 따라 상기 선택된 두 프레임 가운데 시간순으로 앞서는 프레임에 해당하는 동영상의 위치에서부터 나중의 프레임에 해당하는 동영상의 위치에 이르는 동영상 클립을 생성하고, 이를 나타내는 아이콘을 제 2 사용자 인터페이스에 배열하며, 상기 프레임 간격 조절 수단은 사용자가 상기 제 1 사용자 인터페이스 상의 임의의 두 지점을 터치한 다음 접촉상태를 유지한 채 상기 두 접촉점의 간격을 좁히거나 늘림에 따라 프레임 획득 간격을 실시간으로 변경하며, 상기 프레임 획득 수단은 프레임 획득 간격의 실시간 변경시, 상기 동영상 데이터로부터 변경된 프레임 획득 간격을 이용하여 프레임들을 재차 획득하며, 상기 사용자 인터페이스 처리수단은 재차 획득된 프레임들을 상기 제 1 사용자 인터페이스에 표시하여 갱신하는 것을 특징으로 한다.The user interface processing means displays the frames acquired by the frame acquiring means on a first user interface, and as the user touches and drags any two frames displayed on the first user interface toward the second user interface, Among the two selected frames, a video clip is generated from the position of the video corresponding to the frame leading in chronological order to the position of the video corresponding to the later frame, and the icons representing the same are arranged in the second user interface. The user touches any two points on the first user interface and then changes the frame acquisition interval in real time as the interval between the two contact points is narrowed or increased while maintaining the contact state, and the frame acquiring means obtains the frame acquisition interval. In the real-time change of the frame, the frames are re-obtained using the changed frame acquisition interval from the video data, and the user interface processing means displays the updated frames on the first user interface and updates the frames.
터치스크린을 갖는 모바일 디바이스에서 실행되는 동영상 편집 사용자 인터페이스 처리방법에 있어서, a) 동영상 데이터로부터 소정의 프레임 획득 간격마다 프레임을 획득하는 프레임 획득 단계; b) 획득된 다수의 프레임 가운데 적어도 일부를 터치스크린의 화면의 일측 방향을 따라 시간순으로 표시하는 프레임 표시 단계; c) 사용자에 의하여 상기 시간순으로 표시된 다수의 프레임 가운데 임의의 두 개의 프레임이 선택됨에 따라 상기 선택된 두 프레임 가운데 시간순으로 앞선 프레임에 대응하는 동영상의 위치를 시작점으로 하되, 시간순으로 늦은 프레임에 대응하는 동영상의 위치를 종료점으로 하는 동영상 클립을 생성하는 클립 선택 단계; 및 d) 사용자가 상기 터치스크린 상의 두 지점을 동시에 터치한 후 접촉상태를 유지한 채 상기 두 접촉점의 간격을 좁히거나 늘림에 따라 모바일이 상기 프레임 획득 간격을 실시간으로 변경하는 획득 간격 조정단계;를 포함하되,A video editing user interface processing method executed in a mobile device having a touch screen, comprising: a) a frame obtaining step of obtaining a frame at predetermined frame acquisition intervals from the moving image data; b) displaying at least a portion of the obtained plurality of frames in chronological order along one side of the screen of the touch screen; c) As a user selects any two frames among the plurality of frames displayed in the chronological order, the position of the video corresponding to the preceding frame in chronological order among the selected two frames is a starting point, and the video corresponding to the later frames in chronological order. A clip selecting step of generating a moving clip having the position of the end point; And d) an acquisition interval adjusting step of changing the frame acquisition interval in real time by the mobile as the user touches two points on the touch screen at the same time and then maintains the contact state and decreases or increases the interval between the two contact points. Including,
상기 d) 단계에서는, 프레임 획득 간격이 실시간으로 변경됨에 따라 변경된 프레임 획득 간격에 따라 프레임을 재차 획득하며, 재차 획득된 다수의 프레임 가운데 적어도 일부를 화면 일측 방향을 따라 시간순으로 표시함으로써 실시간으로 갱신하는 것을 특징으로 한다.In step d), as the frame acquisition interval is changed in real time, the frame is acquired again according to the changed frame acquisition interval, and at least some of the plurality of acquired frames are updated in real time by displaying in chronological order along one side of the screen. It is characterized by.
상기 c) 단계에서, 사용자가 임의의 두 개의 프레임을 터치한 다음 화면 타측으로 드래그함에 따라, 모바일이 드래그가 종료된 좌표에 해당하는 타임라인 위치에 상기 생성된 동영상 클립을 삽입하는 것을 특징으로 한다.In the step c), as the user touches any two frames and then drags them to the other side of the screen, the mobile inserts the generated video clip at the timeline position corresponding to the coordinate where the drag ends. .
상기 d) 단계 이후, e) 타임라인에 삽입된 동영상 클립들을 타임라인 순서에 따라 렌더링하는 렌더링 단계를 더 포함한다.After the step d), e) further comprises a rendering step of rendering the video clips inserted in the timeline in the timeline order.
상기 d) 단계에서, 사용자가 상기 다수의 프레임이 표시된 터치스크린 화면 영역의 임의의 두 지점을 터치한 후 상기 두 접촉점의 간격이 멀어지도록 드래그하면 상기 프레임 획득 간격을 넓히되, In step d), if the user touches any two points on the touch screen area where the plurality of frames are displayed and drags the two contact points apart, the frame acquisition interval is widened.
상기 두 접촉점의 간격이 좁아지도록 드래그하면 상기 프레임 획득 간격을 좁힌 다음 프레임 획득 단계로 분기하는 것을 특징으로 한다.When the two contact points are dragged to be narrowed, the frame acquisition interval is narrowed and then branched to the frame acquisition step.
상기 d) 단계에서, 사용자가 두 접촉점의 간격이 멀어지도록 드래그한 경우, 상기 두 접촉점의 최초 접촉위치의 중심좌표에 인접한 프레임을 중심으로 양측방향으로 새롭게 획득된 프레임들을 표시하는 것을 특징으로 한다.In step d), when the user drags the two contact points apart from each other, the newly acquired frames are displayed in both directions about a frame adjacent to the center coordinates of the first contact point of the two contact points.
상기 d) 단계에서, 사용자가 두 접촉점의 간격이 멀어지도록 드래그함에 따라, 상기 두 접촉점의 최초 접촉위치의 중심좌표를 중심으로 양측방향으로 프레임들이 멀어지는 애니메이션을 표시한 다음, 새롭게 획득된 프레임들을 표시하는 것을 특징으로 한다.In step d), as the user drags the two contact points apart from each other, an animation is displayed in which the frames move away in both directions about a center coordinate of the first contact point of the two contact points, and then the newly acquired frames are displayed. Characterized in that.
상기 d) 단계에서, 사용자가 두 접촉점의 간격이 좁아지도록 드래그한 경우, 상기 두 접촉점의 최후 접촉위치의 중심좌표에 인접한 프레임을 중심으로 양측방향으로 새롭게 획득된 프레임들을 표시하는 것을 특징으로 한다.In step d), when the user drags so that the distance between the two contact points becomes narrow, the newly acquired frames are displayed in both directions about a frame adjacent to the center coordinates of the last contact positions of the two contact points.
상기 d) 단계에서, 사용자가 두 접촉점의 간격이 좁아지도록 드래그함에 따라, 상기 두 접촉점의 최후 접촉위치의 중심좌표의 방향으로 양측의 프레임들이 가까이 이동하는 애니메이션을 표시한 다음, 새롭게 획득된 프레임들을 표시하는 것을 특징으로 한다.In step d), as the user drags the gap between the two contact points to be narrowed, an animation is displayed in which the frames on both sides move closer in the direction of the center coordinate of the last contact point of the two contact points, and then newly acquired frames are displayed. It is characterized by displaying.
프로그램 코드를 갖는 컴퓨터로 판독가능한 기록매체에 있어서, a) 동영상 데이터의 일부 구간으로부터 소정의 프레임 획득 간격마다 프레임을 획득하는 단계; b) 획득된 다수의 프레임 가운데 적어도 일부를 터치스크린의 화면 일측에 도시된 제 1 사용자 인터페이스 영역에 표시하는 단계; c) 사용자에 의하여 상기 제 1 사용자 인터페이스 영역에 표시된 프레임 가운데 임의의 두 개의 프레임이 선택되어 터치스크린 타측의 제 2 사용자 인터페이스 영역을 향해 드래그 됨에 따라, 상기 선택된 두 프레임 가운데 시간순으로 앞선 프레임에 대응하는 동영상의 위치를 시작점으로 하되, 시간순으로 늦은 프레임에 대응하는 동영상의 위치를 종료점으로 하는 동영상 클립을 생성하고, 생성된 동영상 클립을 제 2 사용자 인터페이스 영역의 드래그가 종료된 위치에 해당하는 타임라인상 위치에 삽입하는 단계; 및 d) 사용자가 제 1 사용자 인터페이스 영역을 동시에 터치한 후 접촉상태를 유지한 채 상기 두 접촉점의 간격을 좁히거나 늘림에 따라 상기 프레임 획득 간격을 실시간으로 변경한 다음 a) 단계로 분기하는 단계;를 포함하는 것을 특징으로 한다.A computer-readable recording medium having a program code, comprising: a) obtaining a frame at predetermined frame acquisition intervals from a partial section of moving image data; b) displaying at least a portion of the obtained plurality of frames on a first user interface region shown on one side of a screen of the touch screen; c) Any two frames among the frames displayed in the first user interface area are selected by the user and dragged toward the second user interface area on the other side of the touch screen, corresponding to the frames preceding the time in the selected two frames. Creates a movie clip with the start point of the movie as the starting point and the ending point of the movie corresponding to the late frames in chronological order, and the generated movie clip on the timeline corresponding to the position where the dragging of the second user interface area ends. Inserting in position; And d) changing the frame acquisition interval in real time as the user narrows or increases the distance between the two contact points while simultaneously touching the first user interface area and maintains a contact state, and branches to step a). Characterized in that it comprises a.
이하에서는 본 발명의 바람직한 실시예 및 첨부하는 도면을 참조하여 본 발명을 상세히 설명하되, 도면의 동일한 참조부호는 동일한 구성요소를 지칭함을 전제하여 설명하기로 한다.Hereinafter, with reference to the preferred embodiments of the present invention and the accompanying drawings will be described in detail, the same reference numerals in the drawings will be described on the assumption that the same components.
발명의 상세한 설명 또는 특허청구범위에서 어느 하나의 구성요소가 다른 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 당해 구성요소만으로 이루어지는 것으로 한정되어 해석되지 아니하며, 다른 구성요소들을 더 포함할 수 있는 것으로 이해되어야 한다.When any one element in the description or claims of the invention "includes" another element, unless otherwise stated, it is not limited to consisting only of that element, and other elements are not interpreted. It should be understood that it may include more.
또한, 발명의 상세한 설명 또는 특허청구범위에서 "~수단", "~부", "~모듈", "~블록"으로 명명된 구성요소들은 적어도 하나 이상의 기능이나 동작을 처리하는 단위를 의미하며, 이들 각각은 소프트웨어 또는 하드웨어, 또는 이들의 결합에 의하여 구현될 수 있다.Further, in the detailed description of the invention or in the claims, the elements designated as "~ means", "~ part", "~ module", and "~ block" mean a unit that processes at least one function or operation, Each of these may be implemented by software or hardware, or a combination thereof.
본 발명의 구성에 대하여 본격적으로 설명하기에 앞서 본 발명에서 사용되는 용어들을 다음과 같이 정의한다.Before describing the configuration of the present invention in earnest, terms used in the present invention are defined as follows.
타임라인이란 말 그대로 시간축을 의미한다. 동영상 편집 소프트웨어를 사용하여 동영상을 오쏘링할 때에 사용자는 타임라인을 따라서 다수의 동영상 클립을 배열하고, 배열된 각 동영상 클립에 이펙트를 설정한 다음 렌더링을 함으로써 최종 결과물인 하나의 동영상 파일을 얻게 된다.The timeline literally means the time base. When authoring a video using video editing software, the user arranges a number of video clips along the timeline, sets effects on each of the arranged video clips, and then renders the resulting video file.
즉, 타임라인이란 최종 결과물로 렌더링되어 얻어지는 동영상 파일에서 각각의 동영상 클립이 차지하는 시간상 위치를 의미한다. 예컨대, 특정 동영상 클립이 "1분 10초 내지 1분 30초" 구간에 해당하는 타임라인상 위치에 존재한다는 등의 용법으로 사용할 수 있다.In other words, the timeline means a time position occupied by each video clip in the video file that is rendered as the final result. For example, the video clip may be used at a location on a timeline corresponding to a section “1 minute 10 seconds to 1 minute 30 seconds”.
한편, 동영상 클립이란 동영상 편집물을 오쏘링하기 위하여 잘게 쪼개진 동영상의 조각, 일부분을 의미한다.Meanwhile, a video clip refers to a piece or a portion of a video that is split into pieces for authoring a video edit.
사용자는 로컬에 저장된 동영상 파일을 전체로서 타임라인에 삽입할 수도 있으며, 또는 그 일부를 선택하여 타임라인에 삽입할 수 있는데 어느 경우이건 이들은 타임라인에 배열되었다가 최종 렌더링 된 동영상 파일의 결과물의 일부분을 구성한다는 점에서 동영상 클립이라 지칭될 수 있다.The user can insert a locally stored movie file as a whole into the timeline, or select a portion of the movie file to insert into the timeline, in which case they are part of the output of the final rendered movie file, arranged on the timeline. It may be referred to as a video clip in that it is configured.
도 2는 본 발명이 제시하는 모바일용 동영상 편집 소프트웨어의 사용자 인터페이스를 설명하는 도면이다.2 is a diagram illustrating a user interface of mobile video editing software according to the present invention.
도 2에 도시된 바에 의할 때, 화면 상단에 제 1 사용자 인터페이스(11)가 표시되어 있다.As shown in FIG. 2, the first user interface 11 is displayed at the top of the screen.
제 1 사용자 인터페이스(11)는 동영상의 여러 장면들을 시계열적으로 표시한다.The first user interface 11 displays various scenes of the video in time series.
제 1 사용자 인터페이스(11)에는 다수의 프레임들이 시간순에 따라 표시된다. 각 프레임은 동영상의 장면들을 시각적으로 표시한다.The first user interface 11 displays a plurality of frames in chronological order. Each frame visually displays the scenes of the video.
사용자는 이러한 제 1 사용자 인터페이스(11)를 통해 전체 동영상 가운데 자신이 원하는 부분을 선택하여 동영상 클립을 생성할 수 있다.The user may generate a video clip by selecting a desired portion of the entire video through the first user interface 11.
한편, 화면 하단에는 제 2 사용자 인터페이스(12)가 표시되어 있는 것을 알 수 있다.On the other hand, it can be seen that the second user interface 12 is displayed at the bottom of the screen.
제 2 사용자 인터페이스(12)는 타임라인을 시각적으로 나타낸다.The second user interface 12 visually represents the timeline.
사용자는 다수의 동영상 클립을 제 2 사용자 인터페이스(12) 상의 적절한 위치에 배치할 수 있다.The user can place multiple movie clips at appropriate locations on the second user interface 12.
도 2의 하단에는 좌우로 길게 연장된 형상의 제 2 사용자 인터페이스(12)가 도시되어 있으며, 그 위에 동영상 클립의 아이콘이 표시된 것을 볼 수 있다.In the lower part of FIG. 2, a second user interface 12 having a shape extended to the left and right is shown, and an icon of a video clip is displayed thereon.
도 2 하단의 "1", "2", "3", "4"와 같이 각각 쓰여있는 네 개의 사각형을 확인할 수 있는데, 생성되어 제 2 사용자 인터페이스(12) 상에 배치된 각 동영상 클립을 나타내는 아이콘에 해당한다.In the lower part of FIG. 2, four rectangles written as "1", "2", "3", and "4" can be seen, respectively, and represent each movie clip generated and disposed on the second user interface 12. Corresponds to the icon.
동영상 클립의 아이콘이 표시된 위치는 편집할 동영상의 타임라인 상의 위치에 해당한다.The position at which the icon of the movie clip is displayed corresponds to the position on the timeline of the movie to be edited.
본 발명은 도 2에 도시된 바와 같은 모바일용 동영상 편집 소프트웨어의 사용자 인터페이스 구성을 전제한다.The present invention presupposes the user interface configuration of the video editing software for mobile as shown in FIG.
특히, 이와 같은 구성을 갖는 모바일용 동영상 편집 소프트웨어의 사용자 인터페이스를 전제로 하여, 간단한 조작만으로 동영상의 일부를 정확하게 선택하여 동영상 클립을 생성할 수 있도록 사용자 인터페이스를 더 제시하고자 한다.In particular, on the premise of a user interface of mobile video editing software having such a configuration, a user interface is further proposed to generate a video clip by accurately selecting a part of the video by simple operation.
본 발명에 의한 터치스크린 제스쳐 입력을 이용하는 동영상 편집 사용자 인터페이스 제공장치(이하 "동영상 편집 사용자 인터페이스 제공장치"라 함.)는 바로 이러한 사용자 인터페이스를 제공하기 위한 것으로, 모바일(1)에서 실행되는 소프트웨어, 펌웨어의 형태로 구현될 수 있다.Apparatus for providing a video editing user interface using a touch screen gesture input according to the present invention (hereinafter referred to as "video editing user interface providing apparatus") is to provide such a user interface, which is software executed in the mobile 1, It may be implemented in the form of firmware.
도 3은 본 발명에 의한 동영상 편집 사용자 인터페이스 제공장치의 구성을 설명하는 도면이다.3 is a view for explaining the configuration of a video editing user interface providing apparatus according to the present invention.
도 3에 도시된 바에 의할 때, 본 발명에 의한 동영상 편집 사용자 인터페이스 제공장치(100)는 사용자 인터페이스 처리수단(110), 프레임 획득 수단(120), 프레임 간격 조절 수단(130), 렌더링 수단(140)을 구비한다.As shown in FIG. 3, the apparatus 100 for providing a video editing user interface according to the present invention includes a user interface processing unit 110, a frame obtaining unit 120, a frame interval adjusting unit 130, and a rendering unit ( 140).
사용자 인터페이스 처리수단(110)은 도 2에 도시된 바와 같이 동영상으로부터 얻어진 다수의 프레임을 시간순으로 표시하는 제 1 사용자 인터페이스(11)와 타임라인에 해당하는 제 2 사용자 인터페이스(12)를 터치스크린 화면에 각각 표시한다.As illustrated in FIG. 2, the user interface processing unit 110 displays a first user interface 11 displaying a plurality of frames obtained from a video in chronological order and a second user interface 12 corresponding to a timeline. Mark each on.
한편, 사용자가 모바일(1)의 로컬에 저장된 동영상 파일을 선택하거나, 또는 모바일(1)에 내장된 카메라 모듈을 이용하여 동영상을 촬영하면, 프레임 획득 수단(120)은 이와 같은 동영상 데이터로부터 소정의 프레임 획득 간격을 이용하여 다수의 프레임을 획득한다.On the other hand, when the user selects a video file stored locally on the mobile 1, or shoots a video using the camera module built in the mobile 1, the frame obtaining means 120 is a predetermined from such video data. A plurality of frames are obtained using the frame acquisition interval.
예를 들어, 프레임 획득 간격이 "10초"로 설정되어 있는 경우라면 프레임 획득 수단(120)은 동영상을 디코딩하여 10초 간격으로 정지영상을 생성함으로써 다수의 프레임들을 획득할 수 있을 것이다. 또는, 10초 간격마다 가장 가까운 키 프레임을 획득할 수도 있을 것이다.For example, if the frame acquisition interval is set to "10 seconds", the frame obtaining unit 120 may obtain a plurality of frames by decoding the video and generating a still image at 10 second intervals. Alternatively, the nearest key frame may be obtained every 10 seconds.
프레임 획득 간격은 반드시 시간 간격으로 한정되지는 않으며, 예컨대 "매 5번째의 키프레임"과 같이 설정될 수도 있을 것이다. 이러한 경우라면 프레임 획득 수단(120)은 매 5개의 키프레임마다 하나씩 획득할 수 있다.The frame acquisition interval is not necessarily limited to the time interval, but may be set as, for example, "every fifth keyframe". In such a case, the frame acquiring means 120 may acquire one for every five key frames.
한편, 프레임들은 바람직하게는 썸네일(Thumbnail)의 형태로 획득될 수 있다.On the other hand, the frames may be preferably obtained in the form of thumbnails (Thumbnail).
사용자 인터페이스 처리수단(110)은 이와 같이 얻어진 다수의 프레임들을 시간순으로 제 1 사용자 인터페이스(11)에 표시한다.The user interface processing means 110 displays the plurality of frames thus obtained on the first user interface 11 in chronological order.
도 2의 상단에 도시된 제 1 사용자 인터페이스(11)의 예를 참조할 때, 좌측에서 우측으로 시간순에 따라 프레임들의 썸네일들을 표시할 수 있다.Referring to the example of the first user interface 11 shown at the top of FIG. 2, thumbnails of frames may be displayed in chronological order from left to right.
즉, 제 1 사용자 인터페이스(11)를 통해 동영상의 일부 구간의 각 장면들이 시간순으로 표시되는 영역에 해당한다.That is, the scenes of the partial sections of the video are displayed in chronological order through the first user interface 11.
사용자는 제 1 사용자 인터페이스(11)를 통해 동영상의 여러 장면들을 한 눈에 확인할 수 있게 된다.The user may check various scenes of the video at a glance through the first user interface 11.
그리고, 그 상태에서 제 1 사용자 인터페이스(11)에 표시된 다수의 프레임 가운데 임의의 두 개를 동시에 터치한 다음, 제 2 사용자 인터페이스(12) 방향으로 드래그함으로써 동영상 클립의 생성과 타임라인으로의 동영상 클립의 추가, 두 가지의 편집동작을 간단히 행할 수 있다.In this state, by simultaneously touching any two of the plurality of frames displayed on the first user interface 11 and dragging them toward the second user interface 12, the creation of the movie clip and the movie clip to the timeline In addition, two editing operations can be performed simply.
도 4는 터치스크린 제스쳐 입력을 통해 동영상 클립을 생성하고 타임라인에 삽입하는 과정을 설명하는 도면이다.4 is a diagram illustrating a process of generating a video clip and inserting it into a timeline through a touch screen gesture input.
도 4의 (a)에 도시된 바와 같이 사용자가 제 1 사용자 인터페이스(11)에 도시된 프레임들 가운데 임의의 두 개를 터치한 다음, 제 2 사용자 인터페이스(12)의 특정 위치까지 드래그한 다음 터치를 해제하면 - 즉, 터치스크린 화면에서 손가락을 떼면, 상기 사용자 인터페이스 처리수단(110)은 상기 두 개의 프레임 가운데 시간순으로 앞 선 프레임에 해당하는 위치에서부터 나중의 프레임에 해당하는 위치에 해당하는 동영상 클립을 생성한다.As shown in FIG. 4A, the user touches any two of the frames shown in the first user interface 11, and then drags to a specific position of the second user interface 12 and then touches. Releasing the finger from the touch screen screen, the user interface processing means 110 moves a video clip corresponding to a position corresponding to a later frame from a position corresponding to a frame preceding the time frame among the two frames. Create
그리고, 사용자가 손가락을 뗀 제 2 사용자 인터페이스(12) 상의 좌표에 해당하는 타임라인 상의 위치에 상기 생성된 동영상 클립을 삽입하고, 상기 동영상 클립의 아이콘을 표시한다.Then, the generated video clip is inserted at a position on the timeline corresponding to the coordinate on the second user interface 12 where the user lifts a finger and displays an icon of the video clip.
도 4의 (b) 하단에는 제 2 사용자 인터페이스(12) 위에 "1"이라 쓰여있는 사각형이 표시되어 있는 것을 확인할 수 있으며, 이는 삽입된 동영상 클립의 아이콘에 해당한다.It can be seen at the bottom of FIG. 4B that a rectangle written as “1” is displayed on the second user interface 12, which corresponds to an icon of an inserted video clip.
이때, 사용자가 터치하여 드래그를 한 프레임이 반드시 동영상 클립에 포함되어야 하는 것은 아니며, 동영상의 일부를 추출하는 알고리즘에 따라서는 사용자가 터치하여 드래그했던 프레임의 직전 또는 직후의 키프레임을 기준으로 동영상 클립을 생성할 수도 있다. In this case, the frame touched and dragged by the user is not necessarily included in the video clip, and according to an algorithm for extracting a part of the video, the video clip is based on a keyframe immediately before or after the frame touched and dragged by the user. You can also create
이와 관련한 구체적인 알고리즘은 본 출원인의 대한민국 특허출원 제10-2012-0124330호를 통해 개시된 바 있으며, 본 발명에서는 다루지 아니한다.A detailed algorithm related to this has been disclosed through Korean Patent Application No. 10-2012-0124330 of the applicant, and is not dealt with in the present invention.
한편, 제 1 사용자 인터페이스(11)의 물리적인 화면 크기의 한계상 한 화면에 표시할 수 있는 프레임의 수는 극히 제한적이라 할 수 있는데, 사용자는 제 2 사용자 인터페이스(12)의 타임라인 자체를 앞뒤로 드래그하거나 또는 미도시된 별도의 프로그레스 바를 드래그하여 전후의 다른 장면에 해당하는 프레임들을 돌려볼 수 있다.On the other hand, due to the limitation of the physical screen size of the first user interface 11, the number of frames that can be displayed on one screen is extremely limited, and the user can move back and forth the timeline itself of the second user interface 12. By dragging or dragging a separate progress bar not shown, frames corresponding to other scenes before and after may be rotated.
그런데, 동영상 클립으로 선택하고자 하는 동영상 파일의 구간이 다소 긴 경우라면 제 1 사용자 인터페이스(11)에 자신이 원하는 구간의 첫 장면과 마지막 장면에 해당하는 프레임들이 동시에 표시되지 않을 것이다.However, if the section of the video file to be selected as the video clip is rather long, the frames corresponding to the first scene and the last scene of the section desired by the user will not be simultaneously displayed on the first user interface 11.
이러한 경우 사용자는 제 1 사용자 인터페이스(11)의 임의의 두 지점을 터치한 후 양쪽으로 벌려줌으로써 제 1 사용자 인터페이스(11)에 표시되는 프레임들의 시간 간격을 넓힐 수 있다.In this case, the user may widen the time interval of the frames displayed on the first user interface 11 by touching and spreading any two points of the first user interface 11 to both sides.
또는 반대로 제 1 사용자 인터페이스(11)의 임의의 두 지점을 터치한 후 가운데 쪽으로 좁혀줌으로써 제 1 사용자 인터페이스(11)에 표시되는 프레임들의 시간 간격을 좁힐 수도 있다.Alternatively, the time interval of the frames displayed on the first user interface 11 may be narrowed by touching two points of the first user interface 11 and then narrowing them toward the center.
이와 같이 사용자가 제 1 사용자 인터페이스(11)의 임의의 두 지점을 터치한 후 상기 두 접촉점 - 즉, 터치가 이루어진 두 지점의 좌표를 벌려주거나 또는 좁혀주면 프레임 간격 조절 수단(130)은 프레임 획득 간격을 동적으로 변경한다.In this way, when the user touches any two points of the first user interface 11 and then expands or narrows the coordinates of the two contact points, that is, the two points at which the touch is made, the frame interval adjusting means 130 may obtain a frame acquisition interval. Changes dynamically.
이에 따라 프레임 획득 수단(120)은 동적으로 변경된 프레임 획득 간격을 이용하여 상기 동영상으로부터 프레임들을 새롭게 획득한다.Accordingly, the frame acquiring means 120 newly acquires frames from the video using the dynamically changed frame acquiring interval.
프레임들이 새롭게 획득됨에 따라 사용자 인터페이스 처리수단(110)은 획득된 새로운 프레임들을 제 1 사용자 인터페이스(11)에 표시함으로써 갱신한다.As the frames are newly acquired, the user interface processing means 110 updates the obtained new frames by displaying them on the first user interface 11.
이와 같은 과정을 통해 사용자는 간편한 조작과정을 통해 동영상으로부터 자신이 원하는 장면에서, 자신이 원하는 길이만큼 동영상 클립을 만들 수 있게 된다.Through this process, the user can create a video clip of the desired length from the video scene by the user through a simple operation process.
뿐만 아니라, 생성된 동영상 클립을 간단한 동작만으로 제 2 사용자 인터페이스(12)의 타임라인 상에 배열할 수 있다.In addition, the generated video clip may be arranged on the timeline of the second user interface 12 with a simple operation.
타임라인 상에 배열된 다수의 동영상 클립들을 드래그하는 등의 동작에 의해 동영상 클립들의 선후관계나 타임라인 상의 위치를 간단히 변경할 수 있다.By dragging a plurality of video clips arranged on the timeline, it is possible to simply change the relationship between the video clips and the position on the timeline.
한편, 이와 같이 편집할 동영상 클립들을 배열하고, 트랜지션 효과나 배경음, 자막 등의 설정이 끝난 후 사용자는 종래의 동영상 편집 소프트웨어에서와 마찬가지로 렌더링 과정을 통해 최종 동영상 편집결과물을 얻을 수 있게 된다.On the other hand, after arranging video clips to be edited as described above and setting transition effects, background sounds, subtitles, etc., the user can obtain the final video edit result through a rendering process as in the conventional video editing software.
렌더링 수단(140)은 제 2 사용자 인터페이스(12)에 배열된 동영상 클립들을 렌더링함으로써 상기 동영상 클립들을 포함하는 최종 편집결과물인 동영상 파일을 생성한다.The rendering means 140 generates a video file which is the final edited product including the video clips by rendering the video clips arranged in the second user interface 12.
렌더링 과정에서 다양한 효과나 배경음, 자막 등이 입혀진다.Various effects, background sounds, and subtitles are applied during the rendering process.
이하에서는 도 4 내지 도 6을 참조하여 본 발명에 의한 터치스크린 제스쳐 입력을 이용하는 동영상 편집 사용자 인터페이스 제공방법을 살펴보기로 한다.Hereinafter, a video editing user interface providing method using a touch screen gesture input according to the present invention will be described with reference to FIGS. 4 to 6.
도 5는 터치스크린 제스쳐 입력을 이용하는 동영상 편집 사용자 인터페이스 제공방법을 시계열적으로 설명하는 플로우차트이며, 도 6은 터치스크린 제스쳐 입력을 통해 프레임 간격을 실시간으로 조절하는 과정을 설명하는 도면이다.FIG. 5 is a flowchart illustrating a method of providing a video editing user interface using a touch screen gesture input in time series, and FIG. 6 is a diagram illustrating a process of adjusting a frame interval in real time through a touch screen gesture input.
도 5에 도시된 본 발명은 터치스크린을 갖는 모바일(1)이 동영상 편집 앱이 실행된 상태에서 도 4 및 도 6에 도시된 바와 같은 사용자 인터페이스를 제공하는 과정을 설명한다.5 illustrates a process of providing a user interface as shown in FIGS. 4 and 6 by a mobile 1 having a touch screen while a video editing app is executed.
도 5에 도시된 바에 의할 때, 본 발명은 프레임 획득 단계(a 단계), 프레임 표시 단계(b 단계), 클립 선택 단계(c 단계), 획득 간격 조정단계(d 단계) 및 렌더링 단계(e 단계)를 포함한다.As shown in Fig. 5, the present invention provides a frame acquisition step (step a), a frame display step (b step), a clip selection step (c step), an acquisition interval adjustment step (d step), and a rendering step (e). Step).
프레임 획득단계에서, 사용자가 동영상 데이터를 선택함에 따라 모바일(1)은 상기 동영상 데이터로부터 미리 설정된 프레임 획득 간격마다 프레임을 획득한다(a 단계).In the frame acquiring step, as the user selects the video data, the mobile 1 acquires a frame at a predetermined frame acquisition interval from the video data (step a).
프레임은 바람직하게는 썸네일의 형태로 획득할 수 있다.The frame is preferably obtained in the form of a thumbnail.
이때 반드시 동영상 데이터 전체에 대하여 일정 간격으로 프레임을 획득할 필요는 없으며, 제 1 사용자 인터페이스(11)에 표시될 부분만큼만 프레임을 획득하여도 무방하다.In this case, the frames may not necessarily be acquired at regular intervals with respect to the entire video data, and the frames may be acquired only as much as the portions to be displayed on the first user interface 11.
이와 같이 프레임을 획득한 다음, 프레임 표시 단계에서는 획득된 다수의 프레임 가운데 적어도 일부를 제 1 사용자 인터페이스(11)에 표시한다.After acquiring the frame in this way, in the frame display step, at least a part of the obtained plurality of frames is displayed on the first user interface 11.
이때, 바람직하게는 제 1 사용자 인터페이스(11)의 영역 내에서 일측 방향으로 시간순에 따라 표시한다.In this case, the display is preferably performed in one direction in the region of the first user interface 11 in chronological order.
예컨대, 도 2에 도시된 바와 같은 제 1 사용자 인터페이스(11) 상에서 좌측으로 갈수록 시간순으로 앞서는 프레임들을 표시할 수 있다.For example, frames leading in chronological order may be displayed on the first user interface 11 as shown in FIG. 2.
이때, 제 1 사용자 인터페이스(11) 상에 표시되는 프레임들은 동영상의 일부분으로부터 획득한 프레임들일 수 있으며, 다른 부분의 프레임을 확인하고자 하는 경우 사용자는 미도시 된 프로그레스 바를 드래그하는 등의 방식으로 조작할 수 있다.In this case, the frames displayed on the first user interface 11 may be frames obtained from a portion of the video, and when a user wants to check a frame of another portion, the user manipulates the progress bar by dragging the progress bar. can do.
이 경우 모바일(1)은 동영상의 해당 부분의 동적으로 획득하여 제 1 사용자 인터페이스(11)에 표시할 수 있다.In this case, the mobile 1 may dynamically acquire and display the corresponding portion of the video on the first user interface 11.
한편, 이와 같이 제 1 사용자 인터페이스(11) 상에 다수의 프레임이 표시된 상태에서 사용자가 임의의 두 개의 프레임을 선택함에 따라, 클립 선택 단계에서는 사용자에 의하여 선택된 두 프레임 가운데 시간순으로 앞선 프레임에 대응하는 동영상의 위치를 시작점으로 하되, 시간순으로 늦은 프레임에 대응하는 동영상의 위치를 종료점으로 하는 동영상 클립을 생성한다.Meanwhile, as the user selects any two frames while the plurality of frames are displayed on the first user interface 11 as described above, the clip selection step corresponds to the preceding frame in chronological order among the two frames selected by the user. A moving clip is created by using the position of the moving image as a starting point and using the ending position of the moving image corresponding to a late frame in chronological order.
이때, 동영상 클립의 생성이라 표현하였으나 반드시 동영상으로부터 선택된 부분에 해당하는 인스턴스를 만들어 독립적인 데이터로 저장하는 것만을 의미하지 않으며, 원본 동영상 데이터가 존재하는 상태에서 선택된 영역의 시작 위치와 종료 위치에 관한 정보를 생성하는 것으로 처리할 수도 있을 것이다.In this case, it is referred to as the creation of a movie clip, but it does not necessarily mean creating an instance corresponding to a selected portion from the movie and storing it as independent data, and relates to the start position and end position of the selected region in the presence of the original movie data. You can also treat it as generating information.
한편, 동영상 클립을 생성하기 위하여 사용자는 제 1 사용자 인터페이스(11)에 표시된 다수의 프레임 가운데 시작점과 종료점에 해당하는 것을 각각 하나씩 선택한 다음, 동영상 클립 만들기 기능을 선택하는 등의 방식에 의하여 동영상 클립을 생성할 수도 있을 것이다.Meanwhile, in order to generate a movie clip, the user selects one of the plurality of frames displayed on the first user interface 11 corresponding to the start point and the end point, respectively, and then selects the movie clip function by selecting a movie clip function. You can also create
그러나, 보다 직관적이고 단순한 방식에 의한 터치스크린 조작을 통해 동영상 클립을 선택, 생성할 수 있도록 모바일(1)은 도 4에 도시된 바와 같이 제 1 사용자 인터페이스(11)에 도시된 임의의 두 개의 프레임을 터치한 다음 아래쪽의 제 2 사용자 인터페이스(12)로 드래그하는 동작에 의하여 동영상 클립을 만들고, 만들어진 동영상 클립을 타임 라인에 자동으로 배치한다.However, the mobile 1 can display any two frames shown in the first user interface 11 as shown in FIG. 4 so that the video clip can be selected and created through a touch screen operation in a more intuitive and simple manner. Touch and then drag to the lower second user interface 12 to create a video clip, and automatically place the created video clip on the timeline.
이를 구체적으로 살펴보면, 두 개의 프레임에 대한 사용자의 드래그 동작이 제 1 사용자 인터페이스(11)의 영역을 벗어남에 따라 모바일(1)은 상기 두 프레임 사이의 구간에 해당하는 동영상 클립을 만들고, 사용자의 드래그가 제 2 사용자 인터페이스(12) 상에서 종료되면, 드래그가 종료된 제 2 사용자 인터페이스(12) 상의 위치에 해당하는 타임라인 상에 상기 동영상 클립을 삽입한다.Specifically, as the user's dragging operation on the two frames leaves the area of the first user interface 11, the mobile 1 creates a video clip corresponding to the section between the two frames, and the user's dragging. When is terminated on the second user interface 12, the video clip is inserted on the timeline corresponding to the position on the second user interface 12 where the drag is terminated.
동영상 클립의 시작 위치를 선택하고 / 그 다음으로 동영상 클립의 종료 위치를 선택한 다음 / 동영상 클립의 만들기 버튼을 누르는 조작을 하고 / 생성된 동영상 클립을 드래그하여 타임라인으로 끌어놓는 4 단계에 걸친 편집과정이 단 한 차례의 멀티 터치 후 드래그 동작에 의하여 완료된다.A four-step editing process by selecting the start position of the movie clip / then the end position of the movie clip / by pressing the Create button of the movie clip / and dragging the created movie clip onto the timeline This is completed by the drag operation after only one multi-touch.
그런데, 이와 같이 한 차례의 터치스크린 조작에 의하여 이러한 과정이 완료되기 위해서는 제 1 사용자 인터페이스(11) 내에 사용자가 선택하고자 하는 시작 위치 및 종료 위치에 해당하는 프레임이 동시에 표시가 되어 있어야 한다.However, in order for this process to be completed by one touch screen operation, the frames corresponding to the start position and the end position that the user wants to select in the first user interface 11 should be simultaneously displayed.
그러나, 한정된 제 1 사용자 인터페이스(11)의 크기 한계상 많은 수의 프레임이 동시에 표시되기는 어렵다.However, due to the limited size of the first user interface 11, it is difficult to display a large number of frames simultaneously.
특히, 선택하고자 하는 시작 위치와 종료 위치 사이의 시간차이가 커서 시간 위치에 해당하는 프레임과 종료 위치에 해당하는 프레임이 제 1 사용자 인터페이스(11) 상에 모두 포함되기 어려운 경우가 있다.In particular, it may be difficult to include both the frame corresponding to the time position and the frame corresponding to the end position on the first user interface 11 because the time difference between the start position and the end position to be selected is large.
이러한 경우 사용자는 두 개의 손가락, 예컨대 엄지와 검지를 오므린 채 제 1 사용자 인터페이스(11) 상의 두 지점을 터치한 다음 두 손가락을 벌리는 방식으로 드래그한다.In this case, the user touches two points on the first user interface 11 with two fingers, for example, a thumb and an index finger, and then drags the fingers apart.
예컨대, 도 6의 (a)에 도시된 바와 같이 인접한 임의의 두 개의 프레임을 동시에 터치한 다음 그 둘 사이의 거리를 벌리는 느낌으로 각각 좌우로 드래그할 수 있다.For example, as shown in (a) of FIG. 6, two adjacent frames may be simultaneously touched and then dragged left and right in a feeling of spreading the distance between the two frames.
도 6의 (a)는 바로 이와 같이 사용자가 제 1 사용자 인터페이스(11) 상의 두 지점을 터치한 다음 두 접촉점 간의 간격을 넓히는 제어동작을 하는 경우를 설명한다.FIG. 6A illustrates a case in which the user touches two points on the first user interface 11 and then performs a control operation of widening the distance between the two contact points.
이와 같은 사용자의 조작이 있으면, 획득 간격 조정단계에서 모바일(1)은 프레임 획득 간격을 실시간으로 넓힌다(d 단계).If there is such a user's operation, the mobile 1 widens the frame acquisition interval in real time in the acquisition interval adjustment step (d step).
한편, 프레임 획득 간격의 변경 이벤트가 발생하면 모바일(1)은 a) 단계로 분기한다.On the other hand, when a change event of the frame acquisition interval occurs, the mobile 1 branches to step a).
그리고, a) 단계에서 변경된 프레임 획득 간격에 따라 프레임을 재차 획득한다.Then, the frame is acquired again according to the frame acquisition interval changed in step a).
그리고, b) 단계로 이행하여 새롭게 획득한 프레임들을 제 1 사용자 인터페이스(11)에 표시함으로써 갱신한다.In step b), the newly acquired frames are updated by displaying them on the first user interface 11.
프레임 획득 간격이 넓어졌으므로 제 1 사용자 인터페이스(11)에 동시에 표시되는 프레임들의 시간 간격이 더 넓어지게 된다.Since the frame acquisition interval is wider, the time interval of the frames simultaneously displayed on the first user interface 11 is wider.
그래도, 원하는 프레임들이 제 1 사용자 인터페이스(11)에 모두 표시되어 있지 않다면 사용자는 동일한 동작을 반복적으로 할 수 있다.Nevertheless, if the desired frames are not all displayed on the first user interface 11, the user can repeatedly perform the same operation.
이때, 바람직하게는 프레임들 사이의 시간 간격(즉, 동영상 내에서 두 프레임이 재생되는 시간 간격)이 넓어졌음을 직관적으로 알 수 있도록 사용자가 손가락을 벌리는 드래그 동작을 함에 따라 프레임들 사이의 물리적 간격(즉, 화면상에서의 프레임 간의 거리)이 서로 멀어지게끔 애니메이션 처리를 한다.In this case, preferably, the physical interval between the frames as the user moves the finger apart to intuitively know that the time interval between the frames (that is, the time interval at which two frames are played in the video) has become wider. (I.e., the distance between frames on the screen) is animated to move away from each other.
이때, 사용자가 제 1 사용자 인터페이스 영역(11)을 터치했을 때의 두 접촉점의 중심좌표, 즉 사용자가 두 손가락을 붙인 상태에서 터치스크린을 터치한 경우 두 손가락 사이의 좌표를 중심으로 하여 프레임들이 좌우로 멀어지는 애니메이션을 표시할 수 있다.In this case, when the user touches the first user interface area 11, the center coordinates of two touch points, that is, when the user touches the touch screen with two fingers attached, the frames are left and right centered on the coordinates between the two fingers. You can display away animations.
그 이후 새롭게 획득한 프레임들을 제 1 사용자 인터페이스(11) 상에 표시할 수 있다.Thereafter, newly acquired frames may be displayed on the first user interface 11.
이때, 사용자가 두 손가락을 붙인 상태에서 터치스크린을 터치했을 때, 두 손가락 사이의 좌표에 인접한 프레임을 가급적 그대로 제 1 사용자 인터페이스(11)에 표시한 상태에서 해당 프레임의 주위로 새롭게 획득한 프레임들을 표시한다.In this case, when the user touches the touch screen while attaching two fingers, the newly acquired frames around the frame are displayed while the frame adjacent to the coordinate between the two fingers is displayed on the first user interface 11 as possible. Display.
그 반대의 경우도 생각할 수 있다.The reverse is also possible.
제 1 사용자 인터페이스(11)에 표시된 프레임들의 간격이 너무 넓어 원하는 프레임이 생략된 경우 사용자는 프레임들의 시간 간격을 좁혀서 원하는 프레임이 제 1 사용자 인터페이스(11)에 나타나도록 조작할 수도 있다.When the frames of the frames displayed on the first user interface 11 are too wide and the desired frames are omitted, the user may narrow the time intervals of the frames to manipulate the frames to appear on the first user interface 11.
이를 위하여 사용자는 두 손가락을 벌린 상태에서 제 1 사용자 인터페이스(11) 상의 임의의 두 점을 터치한 다음 오므리는 방식으로 드래그 동작을 할 수 있다.To this end, the user may touch the two points on the first user interface 11 with two fingers apart and then drag them in such a way as to pinch them.
도 6의 (b)는 이와 같이 사용자가 제 1 사용자 인터페이스(11) 상의 두 지점을 터치한 다음 두 접촉점 간의 간격을 좁히는 제어동작을 하는 경우를 설명한다.6B illustrates a case in which the user touches two points on the first user interface 11 and then performs a control operation of narrowing the distance between the two contact points.
이와 같은 사용자의 조작이 있으면, 획득 간격 조정단계에서 모바일(1)은 프레임 획득 간격을 실시간으로 좁힌다(d 단계).If there is such a user's operation, the mobile 1 narrows the frame acquisition interval in real time in the acquisition interval adjustment step (d step).
이에 따라 프레임 획득 간격의 변경 이벤트가 발생하며, 모바일(1)은 a) 단계로 분기한다.Accordingly, a change event of the frame acquisition interval occurs, and the mobile 1 branches to step a).
그리고, a) 단계에서 변경된 프레임 획득 간격에 따라 프레임을 재차 획득하며, b) 단계로 이행하여 새롭게 획득한 프레임들을 제 1 사용자 인터페이스(11)에 표시함으로써 갱신한다.The frame is reacquired according to the frame acquisition interval changed in step a), and the control unit proceeds to step b) to update the newly acquired frames by displaying them on the first user interface 11.
이 경우 프레임들 사이의 시간 간격이 좁하지므로, 이를 사용자가 직관적으로 알 수 있도록 사용자가 손가락을 오므리는 드래그 동작을 하는 동안 프레임들 사이의 물리적 간격이 서로 가까워지게끔 애니메이션 처리를 한다.In this case, the time interval between the frames is not narrow, so that the user can intuitively know that the physical intervals between the frames are closer to each other during the user's finger-drag dragging operation.
이때, 사용자가 제 1 사용자 인터페이스 영역(11)에서의 드래그 동작을 끝내고 터치를 해제할 때 - 즉, 손가락을 터치스크린에서 뗄 때의 두 접촉점의 중간에 해당하는 좌표를 중심으로 프레임들이 모이는 애니메이션을 표시할 수 있다.At this time, when the user finishes the drag operation in the first user interface area 11 and releases the touch-that is, when the finger is lifted off the touch screen, the animations are gathered around the coordinates corresponding to the middle of the two touch points. I can display it.
그 이후 새롭게 획득한 프레임들을 제 1 사용자 인터페이스(11) 상에 표시할 수 있다.Thereafter, newly acquired frames may be displayed on the first user interface 11.
이때에도, 사용자가 터치를 해제했을 때 두 접촉점의 중간 좌표에서 인접한 프레임을 가급적 그대로 둔 채로 해당 프레임의 주위로 새롭게 획득한 프레임들을 표시한다.In this case, when the user releases the touch, the newly acquired frames are displayed around the corresponding frame while keeping adjacent frames as possible in the intermediate coordinates of the two contact points.
이러한 과정을 거쳐 다수 개의 동영상 클립이 제 2 사용자 인터페이스(12) - 즉, 타임라인 상에 배열되면, 사용자는 트랜지션 효과의 설정이나 배경음의 삽입과 같은 편집을 거친 다음 최종 결과물의 획득을 위하여 렌더링 기능을 실행한다.Through this process, if a plurality of movie clips are arranged on the second user interface 12-that is, the user, the user performs editing such as setting transition effects or inserting a background sound and then rendering functions for obtaining the final result. Run
이에 따라 렌더링 단계에서 모바일(1)은 제 2 사용자 인터페이스(12)에 배열된 동영상 클립들을 타임라인 순서에 따라 렌더링함으로써 최종 동영상 편집결과물을 생성한다.Accordingly, in the rendering step, the mobile 1 generates the final video edit result by rendering the video clips arranged in the second user interface 12 in the timeline order.
이와 같이 동영상 편집결과물이 생성됨에 따라 모바일(1)은 이를 로컬에 저장하거나, 또는 사용자의 선택이나 설정에 따라서 네트워크를 통해 소셜 네트워크 서비스나 클라우드에 자동으로 업로드 할 수도 있다.As the video editing result is generated, the mobile 1 may store it locally or automatically upload it to a social network service or cloud through a network according to a user's selection or setting.
이상 살펴본 바와 같이 모바일(1)이 동영상 클립을 선택하기 위한 프레임들의 시간 간격을 동적으로 넓히거나, 또는 좁힐 수 있도록 사용자 인터페이스를 제공하는 방법의 각 단계들은 컴퓨터가 판독할 수 있는 명령어의 집합인 소프트웨어의 형태로 구현되어 기록 매체에 수록될 수 있다.As described above, each step of the method of providing a user interface for the mobile 1 to dynamically widen or narrow the time interval of frames for selecting a movie clip is a software that is a set of computer readable instructions. It can be implemented in the form of and recorded on the recording medium.
이때, 기록매체는 컴퓨터에 의하여 읽을 수 있는 모든 종류의 매체를 포함할 수 있으며, 그 예로는 DVD-ROM, CD-ROM, 하드 디스크, USB 메모리, 플래쉬 메모리와 같은 유형물을 들 수 있다.In this case, the recording medium may include all types of media that can be read by a computer, and examples thereof include DVD-ROM, CD-ROM, hard disk, USB memory, and flash memory.
한편, 기록매체에 수록된다는 표현은 이와 같은 유형의 기록매체에 수록되는 경우는 물론, 무형의 반송파(Carrier Wave)의 형태로 통신회선을 통해 제공되는 경우를 포함한다.On the other hand, the expression contained in the recording medium includes the case of being recorded on this type of recording medium, as well as the case provided through the communication line in the form of an intangible carrier wave (Carrier Wave).
한편, 상기에서는 "모바일"이라는 표현을 사용하되, 그 예로 스마트폰과 타블렛 컴퓨터를 들었으나, 터치스크린을 구비하되 휴대할 수 있는 전자기기로서 동영상 편집 소프트웨어가 실행되는 수단이라면 이에 국한되지 아니한다. 즉, 이동통신단말기나 PDA와 같은 공지의 형태는 물론 상기 조건을 만족하는 새로운 형태의 디바이스일 수도 있을 것이다.On the other hand, the expression "mobile" in the above, but a smart phone and a tablet computer as an example, but not limited to any means equipped with a touch screen, a portable electronic device running video editing software. In other words, a well-known type such as a mobile communication terminal or a PDA may be a new type of device satisfying the above condition.
본 발명은 첨부 도면 및 상기와 같은 실시예를 참조하여 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다.Although the present invention has been described with reference to the accompanying drawings and the above embodiments, these are merely exemplary and will be understood by those skilled in the art that various modifications and equivalent other embodiments are possible. .
본 발명은 모바일 사용자 인터페이스 기술분야에 적용될 수 있다.The present invention can be applied to the mobile user interface technology.

Claims (10)

  1. 터치스크린을 갖는 모바일 디바이스에 있어서,In a mobile device having a touch screen,
    터치스크린 화면 일측에 제 1 사용자 인터페이스, 화면 타측에 제 2 사용자 인터페이스를 표시하는 사용자 인터페이스 처리수단;User interface processing means for displaying a first user interface on one side of the touch screen screen and a second user interface on the other side of the screen;
    사용자에 의하여 선택된 동영상 데이터로부터 소정의 프레임 획득 간격을 이용하여 제 1 사용자 인터페이스에 표시할 프레임들을 획득하는 프레임 획득 수단;Frame acquiring means for acquiring frames to be displayed on the first user interface using a predetermined frame acquiring interval from the moving image data selected by the user;
    사용자 조작에 의하여 프레임 획득 간격을 설정하는 프레임 간격 조절 수단; 및Frame interval adjusting means for setting a frame acquisition interval by a user operation; And
    제 2 사용자 인터페이스에 배열된 동영상 클립들을 렌더링함으로써 상기 동영상 클립들을 포함하는 동영상 파일을 생성하는 렌더링 수단;을 구비하되,Rendering means for generating a video file comprising the video clips by rendering the video clips arranged in a second user interface;
    상기 사용자 인터페이스 처리수단은 제 1 사용자 인터페이스에 상기 프레임 획득 수단에 의하여 획득된 프레임들을 표시하되, 사용자가 제 1 사용자 인터페이스에 표시된 임의의 두 프레임을 터치하여 상기 제 2 사용자 인터페이스 방향으로 드래그함에 따라 상기 선택된 두 프레임 가운데 시간순으로 앞서는 프레임에 해당하는 동영상의 위치에서부터 나중의 프레임에 해당하는 동영상의 위치에 이르는 동영상 클립을 생성하고, 이를 나타내는 아이콘을 제 2 사용자 인터페이스에 배열하며,The user interface processing means displays the frames acquired by the frame acquiring means on a first user interface, and as the user touches and drags any two frames displayed on the first user interface toward the second user interface, Create a video clip from the position of the movie corresponding to the frame leading in time chronologically to the position of the movie corresponding to the later frame among the two selected frames, arrange the icons representing the same in the second user interface,
    상기 프레임 간격 조절 수단은 사용자가 상기 제 1 사용자 인터페이스 상의 임의의 두 지점을 터치한 다음 접촉상태를 유지한 채 상기 두 접촉점의 간격을 좁히거나 늘림에 따라 프레임 획득 간격을 실시간으로 변경하며,The frame interval adjusting means changes the frame acquisition interval in real time as the user touches any two points on the first user interface and then reduces or increases the distance between the two contact points while maintaining the contact state.
    상기 프레임 획득 수단은 프레임 획득 간격의 실시간 변경시, 상기 동영상 데이터로부터 변경된 프레임 획득 간격을 이용하여 프레임들을 재차 획득하며, The frame acquiring means re-acquires frames by using the frame acquiring interval changed from the video data when the frame acquiring interval is changed in real time.
    상기 사용자 인터페이스 처리수단은 재차 획득된 프레임들을 상기 제 1 사용자 인터페이스에 표시하여 갱신하는 동영상 편집 사용자 인터페이스를 갖는 모바일 디바이스.The user interface processing means has a video editing user interface which displays and updates the obtained frames on the first user interface again.
  2. 터치스크린을 갖는 모바일 디바이스에서 실행되는 동영상 편집 사용자 인터페이스 처리방법에 있어서,In the video editing user interface processing method executed in a mobile device having a touch screen,
    a) 동영상 데이터로부터 소정의 프레임 획득 간격마다 프레임을 획득하는 프레임 획득 단계; a) a frame obtaining step of obtaining a frame at predetermined frame acquisition intervals from the moving image data;
    b) 획득된 다수의 프레임 가운데 적어도 일부를 터치스크린의 화면의 일측 방향을 따라 시간순으로 표시하는 프레임 표시 단계; b) displaying at least a portion of the obtained plurality of frames in chronological order along one side of the screen of the touch screen;
    c) 사용자에 의하여 상기 시간순으로 표시된 다수의 프레임 가운데 임의의 두 개의 프레임이 선택됨에 따라 상기 선택된 두 프레임 가운데 시간순으로 앞선 프레임에 대응하는 동영상의 위치를 시작점으로 하되, 시간순으로 늦은 프레임에 대응하는 동영상의 위치를 종료점으로 하는 동영상 클립을 생성하는 클립 선택 단계; 및c) As a user selects any two frames among the plurality of frames displayed in the chronological order, the position of the video corresponding to the preceding frame in chronological order among the selected two frames is a starting point, and the video corresponding to the later frames in chronological order. A clip selecting step of generating a moving clip having the position of the end point; And
    d) 사용자가 상기 터치스크린 상의 두 지점을 동시에 터치한 후 접촉상태를 유지한 채 상기 두 접촉점의 간격을 좁히거나 늘림에 따라 모바일이 상기 프레임 획득 간격을 실시간으로 변경하는 획득 간격 조정단계;를 포함하되,d) an acquisition interval adjusting step of changing the frame acquisition interval in real time by the mobile as the user narrows or increases the interval between the two touch points while simultaneously touching two points on the touch screen while maintaining a contact state; But
    상기 d) 단계에서는, 프레임 획득 간격이 실시간으로 변경됨에 따라 변경된 프레임 획득 간격에 따라 프레임을 재차 획득하며, 재차 획득된 다수의 프레임 가운데 적어도 일부를 화면 일측 방향을 따라 시간순으로 표시함으로써 실시간으로 갱신하는 터치스크린을 갖는 모바일 디바이스에서 실행되는 동영상 편집 사용자 인터페이스 처리방법.In step d), as the frame acquisition interval is changed in real time, the frame is acquired again according to the changed frame acquisition interval, and at least some of the plurality of acquired frames are updated in real time by displaying in chronological order along one side of the screen. A video editing user interface processing method executed in a mobile device having a touch screen.
  3. 제 2 항에 있어서,The method of claim 2,
    상기 c) 단계에서, 사용자가 임의의 두 개의 프레임을 터치한 다음 화면 타측으로 드래그함에 따라, 모바일이 드래그가 종료된 좌표에 해당하는 타임라인 위치에 상기 생성된 동영상 클립을 삽입하는 터치스크린을 갖는 모바일 디바이스에서 실행되는 동영상 편집 사용자 인터페이스 처리방법.In step c), as the user touches any two frames and then drags to the other side of the screen, the mobile has a touch screen for inserting the generated video clip at the timeline position corresponding to the coordinate where the drag ends. How to handle video editing user interface running on mobile device.
  4. 제 3 항에 있어서,The method of claim 3, wherein
    상기 d) 단계 이후,After step d),
    e) 타임라인에 삽입된 동영상 클립들을 타임라인 순서에 따라 렌더링하는 렌더링 단계;를 더 포함하는 터치스크린을 갖는 모바일 디바이스에서 실행되는 동영상 편집 사용자 인터페이스 처리방법.e) a rendering step of rendering the video clips inserted in the timeline according to the timeline order. The video editing user interface processing method executed in a mobile device having a touch screen.
  5. 제 2 항에 있어서,The method of claim 2,
    상기 d) 단계에서, 사용자가 상기 다수의 프레임이 표시된 터치스크린 화면 영역의 임의의 두 지점을 터치한 후 상기 두 접촉점의 간격이 멀어지도록 드래그하면 상기 프레임 획득 간격을 넓히되, In step d), if the user touches any two points on the touch screen area where the plurality of frames are displayed and drags the two contact points apart, the frame acquisition interval is widened.
    상기 두 접촉점의 간격이 좁아지도록 드래그하면 상기 프레임 획득 간격을 좁힌 다음 프레임 획득 단계로 분기하는 터치스크린을 갖는 모바일 디바이스에서 실행되는 동영상 편집 사용자 인터페이스 처리방법.And dragging such that the two contact points are narrowed to narrow the frame acquisition interval and then branch to a frame acquisition step.
  6. 제 5 항에 있어서,The method of claim 5,
    상기 d) 단계에서, 사용자가 두 접촉점의 간격이 멀어지도록 드래그한 경우, 상기 두 접촉점의 최초 접촉위치의 중심좌표에 인접한 프레임을 중심으로 양측방향으로 새롭게 획득된 프레임들을 표시하는 터치스크린을 갖는 모바일 디바이스에서 실행되는 동영상 편집 사용자 인터페이스 처리방법.In step d), when the user drags the two contact points apart from each other, the mobile screen having the touch screen displaying newly acquired frames in both directions about a frame adjacent to the center coordinates of the first contact point of the two contact points. How to handle video editing user interface running on device.
  7. 제 6 항에 있어서,The method of claim 6,
    상기 d) 단계에서, 사용자가 두 접촉점의 간격이 멀어지도록 드래그함에 따라, 상기 두 접촉점의 최초 접촉위치의 중심좌표를 중심으로 양측방향으로 프레임들이 멀어지는 애니메이션을 표시한 다음, 새롭게 획득된 프레임들을 표시하는 터치스크린을 갖는 모바일 디바이스에서 실행되는 동영상 편집 사용자 인터페이스 처리방법.In step d), as the user drags the two contact points apart from each other, an animation is displayed in which the frames move away in both directions about a center coordinate of the first contact point of the two contact points, and then the newly acquired frames are displayed. A video editing user interface processing method executed in a mobile device having a touch screen.
  8. 제 5 항에 있어서,The method of claim 5,
    상기 d) 단계에서, 사용자가 두 접촉점의 간격이 좁아지도록 드래그한 경우, 상기 두 접촉점의 최후 접촉위치의 중심좌표에 인접한 프레임을 중심으로 양측방향으로 새롭게 획득된 프레임들을 표시하는 터치스크린을 갖는 모바일 디바이스에서 실행되는 동영상 편집 사용자 인터페이스 처리방법.In the step d), when the user drags so that the distance between the two contact point is narrowed, the mobile having a touch screen displaying the newly acquired frames in both directions about the frame adjacent to the center coordinate of the last contact position of the two contact points How to handle video editing user interface running on device.
  9. 제 8 항에 있어서,The method of claim 8,
    상기 d) 단계에서, 사용자가 두 접촉점의 간격이 좁아지도록 드래그함에 따라, 상기 두 접촉점의 최후 접촉위치의 중심좌표의 방향으로 양측의 프레임들이 가까이 이동하는 애니메이션을 표시한 다음, 새롭게 획득된 프레임들을 표시하는 터치스크린을 갖는 모바일 디바이스에서 실행되는 동영상 편집 사용자 인터페이스 처리방법.In step d), as the user drags the gap between the two contact points to be narrowed, an animation is displayed in which the frames on both sides move closer in the direction of the center coordinate of the last contact point of the two contact points, and then newly acquired frames are displayed. A video editing user interface processing method executed in a mobile device having a touch screen to display.
  10. 프로그램 코드를 갖는 컴퓨터로 판독가능한 기록매체에 있어서,A computer-readable recording medium having program code,
    a) 동영상 데이터의 일부 구간으로부터 소정의 프레임 획득 간격마다 프레임을 획득하는 단계; a) obtaining a frame at every predetermined frame acquisition interval from a partial section of the moving picture data;
    b) 획득된 다수의 프레임 가운데 적어도 일부를 터치스크린의 화면 일측에 도시된 제 1 사용자 인터페이스 영역에 표시하는 단계;b) displaying at least a portion of the obtained plurality of frames on a first user interface region shown on one side of a screen of the touch screen;
    c) 사용자에 의하여 상기 제 1 사용자 인터페이스 영역에 표시된 프레임 가운데 임의의 두 개의 프레임이 선택되어 터치스크린 타측의 제 2 사용자 인터페이스 영역을 향해 드래그 됨에 따라, 상기 선택된 두 프레임 가운데 시간순으로 앞선 프레임에 대응하는 동영상의 위치를 시작점으로 하되, 시간순으로 늦은 프레임에 대응하는 동영상의 위치를 종료점으로 하는 동영상 클립을 생성하고, 생성된 동영상 클립을 제 2 사용자 인터페이스 영역의 드래그가 종료된 위치에 해당하는 타임라인상 위치에 삽입하는 단계; 및c) Any two frames among the frames displayed in the first user interface area are selected by the user and dragged toward the second user interface area on the other side of the touch screen, corresponding to the frames preceding the time in the selected two frames. Creates a movie clip with the start point of the movie as the starting point and the ending point of the movie corresponding to the late frames in chronological order, and the generated movie clip on the timeline corresponding to the position where the dragging of the second user interface area ends. Inserting in position; And
    d) 사용자가 제 1 사용자 인터페이스 영역을 동시에 터치한 후 접촉상태를 유지한 채 상기 두 접촉점의 간격을 좁히거나 늘림에 따라 상기 프레임 획득 간격을 실시간으로 변경한 다음 a) 단계로 분기하는 단계;를 포함하는 모바일 디바이스의 동영상 편집 사용자 인터페이스 처리방법을 수행하기 위한 프로그램 코드를 갖는 컴퓨터로 판독가능한 기록매체.d) changing the frame acquisition interval in real time as the user narrows or increases the distance between the two contact points while simultaneously touching the first user interface area and maintains the contact state, and branches to step a); A computer-readable recording medium having program code for performing a video editing user interface processing method of a mobile device.
PCT/KR2014/007412 2013-08-09 2014-08-08 Method for processing video editing user interface running on mobile device having touch screen, mobile device and recording medium WO2015020497A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2013-0094881 2013-08-09
KR1020130094881A KR101399234B1 (en) 2013-08-09 2013-08-09 Enhanced user interface based on gesture input for motion picture authoring tool on a mobile device

Publications (1)

Publication Number Publication Date
WO2015020497A1 true WO2015020497A1 (en) 2015-02-12

Family

ID=50895235

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2014/007412 WO2015020497A1 (en) 2013-08-09 2014-08-08 Method for processing video editing user interface running on mobile device having touch screen, mobile device and recording medium

Country Status (2)

Country Link
KR (1) KR101399234B1 (en)
WO (1) WO2015020497A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113032623A (en) * 2021-03-10 2021-06-25 珠海安士佳电子有限公司 Intelligent video data retrieval method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106911953A (en) 2016-06-02 2017-06-30 阿里巴巴集团控股有限公司 A kind of video playing control method, device and audio/video player system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090058305A (en) * 2007-12-04 2009-06-09 삼성전자주식회사 Apparatus for photographing moving image and method thereof
KR20100086136A (en) * 2009-01-22 2010-07-30 (주)코드엑트 Editor system for moving pictures
JP2012156686A (en) * 2011-01-25 2012-08-16 Grafficia Inc Search method, search device, and moving image editing device
KR20130027412A (en) * 2011-09-07 2013-03-15 이-린 첸 Editing system used to make personalized audio and video

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130052753A (en) * 2011-08-16 2013-05-23 삼성전자주식회사 Method of executing application using touchscreen and terminal supporting the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090058305A (en) * 2007-12-04 2009-06-09 삼성전자주식회사 Apparatus for photographing moving image and method thereof
KR20100086136A (en) * 2009-01-22 2010-07-30 (주)코드엑트 Editor system for moving pictures
JP2012156686A (en) * 2011-01-25 2012-08-16 Grafficia Inc Search method, search device, and moving image editing device
KR20130027412A (en) * 2011-09-07 2013-03-15 이-린 첸 Editing system used to make personalized audio and video

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113032623A (en) * 2021-03-10 2021-06-25 珠海安士佳电子有限公司 Intelligent video data retrieval method
CN113032623B (en) * 2021-03-10 2024-04-05 珠海安士佳电子有限公司 Intelligent video data retrieval method

Also Published As

Publication number Publication date
KR101399234B1 (en) 2014-05-27

Similar Documents

Publication Publication Date Title
WO2015020496A1 (en) Device for providing user interface for video editing, and providing method thereof and recording medium
WO2016056871A1 (en) Video editing using contextual data and content discovery using clusters
WO2014193161A1 (en) User interface method and device for searching for multimedia content
US10622021B2 (en) Method and system for video editing
WO2014137131A1 (en) Method and apparatus for manipulating data on electronic device display
WO2016028042A1 (en) Method of providing visual sound image and electronic device implementing the same
WO2012165867A2 (en) Method and apparatus for controlling a display of multimedia content using a timeline-based interface
WO2016095071A1 (en) Video processing method, video processing device and playing device
AU2013355486A1 (en) Display device and method of controlling the same
EP2601570A2 (en) Touch-sensitive device and touch-based folder control method thereof
WO2016022002A1 (en) Apparatus and method for controlling content by using line interaction
WO2013125863A1 (en) Method and device for generating captured image for display windows
WO2018038428A1 (en) Electronic device and method for rendering 360-degree multimedia content
WO2015178677A1 (en) User terminal device, method for controlling user terminal device, and multimedia system thereof
WO2019139270A1 (en) Display device and content providing method thereof
WO2014098539A1 (en) User terminal apparatus and control method thereof
WO2015005674A1 (en) Method for displaying and electronic device thereof
WO2017057960A1 (en) Electronic device and method for controlling the same
WO2016204449A1 (en) Electronic device for displaying a plurality of images and method for processing an image
WO2019037542A1 (en) Television source preview method and apparatus, and computer-readable storage medium
WO2015088196A1 (en) Subtitle editing apparatus and subtitle editing method
WO2015020497A1 (en) Method for processing video editing user interface running on mobile device having touch screen, mobile device and recording medium
EP3039519A1 (en) Method and device for displaying content
WO2016076593A1 (en) Method of displaying memo and device therefor
WO2018056587A1 (en) Electronic apparatus and controlling method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14834308

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 02.06.2016)

122 Ep: pct application non-entry in european phase

Ref document number: 14834308

Country of ref document: EP

Kind code of ref document: A1