JP2017505012A - Video processing method, apparatus, and playback apparatus - Google Patents
Video processing method, apparatus, and playback apparatus Download PDFInfo
- Publication number
- JP2017505012A JP2017505012A JP2016536996A JP2016536996A JP2017505012A JP 2017505012 A JP2017505012 A JP 2017505012A JP 2016536996 A JP2016536996 A JP 2016536996A JP 2016536996 A JP2016536996 A JP 2016536996A JP 2017505012 A JP2017505012 A JP 2017505012A
- Authority
- JP
- Japan
- Prior art keywords
- video
- video clip
- attribute information
- clip
- editing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 39
- 238000012545 processing Methods 0.000 claims abstract description 56
- 230000015572 biosynthetic process Effects 0.000 claims description 11
- 238000012937 correction Methods 0.000 claims description 11
- 238000003786 synthesis reaction Methods 0.000 claims description 11
- 238000012217 deletion Methods 0.000 claims description 10
- 230000037430 deletion Effects 0.000 claims description 10
- 230000002194 synthesizing effect Effects 0.000 claims description 6
- 238000012986 modification Methods 0.000 claims description 4
- 230000004048 modification Effects 0.000 claims description 4
- 239000000203 mixture Substances 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 2
- 238000000034 method Methods 0.000 abstract description 13
- 230000006870 function Effects 0.000 description 10
- 238000003384 imaging method Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 239000002131 composite material Substances 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/414—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Television Signal Processing For Recording (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
Abstract
本発明の実施例は、ビデオ処理方法、ビデオ処理装置及び再生装置を提供する。前記方法は、再生している目標ビデオに対する編集操作を取得し、前記編集操作により選定されたビデオクリップを決定するステップと、前記目標ビデオを編集するために、前記選定されたビデオクリップの属性情報を記録するステップと、を含む。本発明では目標ビデオにおいてビデオクリップを決定し且つビデオクリップ情報を記憶することによって、ユーザーは記憶されたビデオクリップの属性情報に基づきビデオファイルを合成することができ、専門的なビデオ編集ソフトウェアにより編集する必要がなく、操作が簡単である。Embodiments of the present invention provide a video processing method, a video processing apparatus, and a playback apparatus. The method includes obtaining an editing operation on a target video being played, determining a video clip selected by the editing operation, and attribute information of the selected video clip for editing the target video. Recording. In the present invention, by determining the video clip in the target video and storing the video clip information, the user can synthesize the video file based on the stored attribute information of the video clip and can be edited by professional video editing software. The operation is simple.
Description
本発明はマルチメディア技術の分野に関し、特にビデオ処理方法、装置及び再生装置に関する。 The present invention relates to the field of multimedia technology, and more particularly to a video processing method, apparatus, and playback apparatus.
電子製品の普及に伴い、デジタルカメラ、ビデオカメラ及びスマートフォンなどの大部分は撮像機能を備え、且つ幅広く用いられてビデオを記録する。 With the widespread use of electronic products, most digital cameras, video cameras, smartphones, and the like have an imaging function and are widely used to record video.
現在、ビデオの編集は一般的に、ある録画されたビデオに音楽、字幕を加える編集、複数の録画されたビデオを1つの結合ビデオに組み合わせる編集、及び録画されたビデオを専門的なビデオクリップアプリケーションによってクリッピングし、不要なビデオ内容を削除して、必要な内容のみを保持するなどの編集を含む。 Currently, video editing is generally music, editing to add subtitles to one recorded video, editing combining multiple recorded videos into one combined video, and professional video clip application for recorded video Including editing such as clipping, deleting unnecessary video content and keeping only necessary content.
現在のビデオの編集方式は、比較的専門的なビデオクリップアプリケーションを用いて録画されたビデオを編集処理し、普通のユーザーにとっては操作が不便で、手間や時間がかかる。 The current video editing method edits a recorded video using a relatively specialized video clip application, which is inconvenient for ordinary users and takes time and effort.
本発明の実施例が主に解決しようとする技術的課題は、容易且つ迅速に再生しているビデオを編集記録することができるビデオ処理方法、ビデオ処理装置及び再生装置を提供することである。 The technical problem to be solved mainly by the embodiments of the present invention is to provide a video processing method, a video processing apparatus, and a playback apparatus capable of editing and recording a video being played back easily and quickly.
一態様において、本発明の実施例は、ビデオ処理方法であって、
再生している目標ビデオに対する編集操作を取得し、前記編集操作により選定されたビデオクリップを決定するステップと、
前記選定されたビデオクリップの属性情報を記録して、前記目標ビデオを編集するステップと、
を含むビデオ処理方法を提供する。
In one aspect, an embodiment of the present invention is a video processing method comprising:
Obtaining an editing operation on the target video being played, and determining a video clip selected by the editing operation;
Recording attribute information of the selected video clip and editing the target video;
A video processing method is provided.
別の態様において、本発明の実施例は、ビデオ処理装置であって、
再生している目標ビデオに対する編集操作を取得し、前記編集操作により選定されたビデオクリップを決定するための取得モジュールと、
前記選定されたビデオクリップの属性情報を記録して、前記目標ビデオを編集するための記録モジュールと、
を含むビデオ処理装置を更に提供する。
In another aspect, an embodiment of the present invention is a video processing apparatus comprising:
An acquisition module for acquiring an editing operation on a target video being played and determining a video clip selected by the editing operation;
A recording module for recording attribute information of the selected video clip and editing the target video;
A video processing apparatus is further provided.
また別の態様において、本発明の実施例は、再生装置であって、プレーヤーとプロセッサを含み、
前記プレーヤーは、ビデオを再生することに用いられており、
前記プロセッサは、再生している目標ビデオに対する編集操作を取得し、前記編集操作により選定されたビデオクリップを決定しており、且つ前記目標ビデオを編集するために、前記選定されたビデオクリップの属性情報を記録することに用いられる再生装置を更に提供する。
In another aspect, an embodiment of the present invention is a playback device, which includes a player and a processor,
The player is used to play a video,
The processor obtains an editing operation on the target video being played, determines a video clip selected by the editing operation, and attributes of the selected video clip to edit the target video There is further provided a playback apparatus used for recording information.
本発明の実施例では目標ビデオにおいてビデオクリップを決定し且つビデオクリップ情報を記憶することによって、ユーザーは記憶されたビデオクリップの属性情報に基づきビデオファイルを合成することができ、専門的なビデオ編集ソフトウェアにより編集する必要がなく、操作が簡単である。 In an embodiment of the present invention, by determining a video clip in the target video and storing the video clip information, the user can synthesize a video file based on the stored video clip attribute information, and professional video editing There is no need to edit by software, and operation is simple.
以下は、本発明の実施形態に係る添付図面を参照しながら、本発明の実施形態に係る技術的解決手段を明確かつ詳細に説明する。当然ながら、ここで説明する実施形態は本発明の実施形態の全てではなく一部にすぎない。当業者が創造的な作業なしに本発明の実施形態に基づいて得る他の全ての実施形態は、本発明の保護範囲に含むべきである。 The technical solutions according to the embodiments of the present invention will be described clearly and in detail below with reference to the accompanying drawings according to the embodiments of the present invention. Of course, the embodiments described herein are only a part rather than all of the embodiments of the present invention. All other embodiments obtained by a person of ordinary skill in the art based on the embodiments of the present invention without creative efforts shall fall within the protection scope of the present invention.
矛盾しない場合には、下記の実施例及び実施例における特徴を相互に組み合わせることができる。 If there is no contradiction, the following embodiments and the features in the embodiments can be combined with each other.
図1は、本発明の実施例に係るビデオ処理方法のフローチャートである。本発明の実施例に係る前記方法は、航空撮像装置、携帯電話、タブレットなどのビデオを再生可能な電子装置において実現することができる。具体的には、前記方法は、以下のステップを含む。 FIG. 1 is a flowchart of a video processing method according to an embodiment of the present invention. The method according to the embodiment of the present invention can be realized in an electronic device capable of reproducing a video such as an aerial imaging device, a mobile phone, and a tablet. Specifically, the method includes the following steps.
S101では、再生している目標ビデオに対する編集操作を取得し、前記編集操作により選定されたビデオクリップを決定する。 In S101, the editing operation for the target video being played back is acquired, and the video clip selected by the editing operation is determined.
前記再生している目標ビデオは、録画中のビデオ、録画済みのプレビューするビデオ又はプレイバックするビデオであってもよい。録画済みのビデオをプレビューし又はプレイバックするとき、ビデオ取得機器、例えばカメラ、ビデオカメラなどの撮像機能を有する電子機器に再生してもよく、サードパーティーの電子機器、例えば携帯電話、タブレット、パソコンなどの電子機器に再生してもよい。 The target video being played may be a video that is being recorded, a video that has been recorded, or a video that is to be played back. When the recorded video is previewed or played back, it may be played back on a video acquisition device such as an electronic device having an imaging function such as a camera or a video camera, or a third party electronic device such as a mobile phone, tablet or personal computer. You may reproduce | regenerate to electronic devices, such as.
ビデオを再生する間に、目標ビデオに対する編集操作を検出且つ取得し、編集操作を検出した後、編集操作に関連する決定ルールに基づき、目標ビデオからビデオクリップを決定する。 While playing the video, an editing operation on the target video is detected and acquired, and after detecting the editing operation, a video clip is determined from the target video based on a decision rule associated with the editing operation.
編集操作はシングルクリック操作、ダブルクリック操作又は長押し操作であってもよい。 The editing operation may be a single click operation, a double click operation, or a long press operation.
具体的には、決定ルールは、
編集操作がシングルクリック操作である場合、目標ビデオにおいてシングルクリックの時点から両側へ予め設定された時間の長さを延長し、一定の長さのビデオクリップを決定することである。本実施例において、シングルクリック時点から目標ビデオの開始方向へ2秒と延長し、目標ビデオの終了方向へ3秒と延長し、時間の長さが5秒であるビデオクリップを決定する。当然のことながら、延長時間を他の値に設定してもよく、例えば、目標ビデオの開始方向へ5秒と延長し、目標ビデオの終了方向へ5秒と延長し、時間の長さが10秒であるビデオクリップを決定してもよい。
Specifically, the decision rule is
When the editing operation is a single click operation, the length of a preset time is extended to both sides from the time of the single click in the target video, and a video clip having a certain length is determined. In this embodiment, a video clip is determined that extends from the point of single click to 2 seconds in the start direction of the target video, extends to 3 seconds in the end direction of the target video, and has a length of 5 seconds. As a matter of course, the extension time may be set to another value, for example, it is extended to 5 seconds in the start direction of the target video, 5 seconds in the end direction of the target video, and the length of time is 10 A video clip that is seconds may be determined.
編集操作が2回のダブルクリック操作である場合、前後2回のダブルクリック操作の時点に基づき、この2回のダブルクリック操作の間のビデオクリップを決定する。 When the editing operation is two double-click operations, a video clip between the two double-click operations is determined based on the time point of two double-click operations before and after.
編集操作が長押し操作である場合、この長押し操作の開始時点と終了時点に基づき、目標ビデオにおいて開始時点と終了時点の間のビデオクリップを決定する。ユーザーの機能ボタンを押す動作がビデオの再生より遅いことを回避するために、機能ボタンが押された時点を前に数秒と延長し且つこれを開始点にして、切り出されたビデオクリップがより完全であることを保証する。本実施例において、機能ボタンを押すとき、目標ビデオの開始方向へ2秒と延長する。当然のことながら、他の時間の長さを延長してもよく、同様に、目標ビデオの終了方向へ予め設定された時間の長さを延長してもよい。 When the editing operation is a long press operation, a video clip between the start time and the end time is determined in the target video based on the start time and end time of the long press operation. In order to avoid that the user presses the function button slower than the playback of the video, the time point when the function button is pressed is extended to a few seconds before and the cut video clip is more complete. Is guaranteed. In this embodiment, when the function button is pressed, the target video is extended by 2 seconds in the start direction. Of course, other lengths of time may be extended, and similarly, a preset length of time may be extended in the end direction of the target video.
S102では、前記選定されたビデオクリップの属性情報を記録して、前記目標ビデオを編集する。 In S102, attribute information of the selected video clip is recorded, and the target video is edited.
前記S101において決定されたビデオクリップの属性情報を記憶し、この属性情報が目標ビデオにおけるビデオクリップの開始時点、終了時点及びこのビデオクリップが選定された時の時間情報を含む。また、属性情報は幾つかの記述情報、例えばビデオクリップのフォーマット、時間の長さ、メモリ消費量、撮影地点、撮影経路、及びビデオクリップの選択元となる目標ビデオのファイル名、解像度、フレームレートなどを含んでもよい。 The attribute information of the video clip determined in S101 is stored, and this attribute information includes the start time and end time of the video clip in the target video and time information when this video clip is selected. The attribute information includes some description information, such as video clip format, length of time, memory consumption, shooting location, shooting route, and target video file name, resolution, frame rate from which the video clip is selected. Etc. may be included.
このビデオクリップが記録した属性情報は、目標ビデオを編集することに用いられてもよい。具体的には、ビデオ合成指令を検出すると、記録された属性情報に基づき、目標ビデオからすべての属性情報が対応するビデオクリップを抽出し、抽出されたビデオクリップを結合して、ビデオファイルを作成する。ここで、ビデオクリップを結合するとき、目標ビデオにおけるビデオクリップの時点に基づきビデオクリップを順序付け、そして結合してもよく、ビデオクリップの目標ビデオにおいて決定された時点に基づきビデオクリップを順序付け、結合してもよい。具体的には、結合ルールはユーザーの要求に応じて設定されてもよい。 The attribute information recorded by this video clip may be used to edit the target video. Specifically, when a video compositing command is detected, based on the recorded attribute information, video clips corresponding to all the attribute information are extracted from the target video, and the extracted video clips are combined to create a video file. To do. Here, when combining video clips, the video clips may be ordered and combined based on the time points of the video clips in the target video, and the video clips may be ordered and combined based on the determined time points in the target video of the video clips. May be. Specifically, the combination rule may be set according to a user request.
また、航空撮像装置などのビデオ取得とローカル操作とが分離した機器は、ローカルにキャッシュされたビデオにおいてビデオクリップを決定し、前記ビデオクリップの対応の記述情報を記憶し、続いて保存された各ビデオクリップに対応の記述情報に基づき前記航空撮像装置における記憶媒体、例えばメモリカードに記録されたビデオから対応のビデオクリップを抽出してもよい。このため、ローカルにキャッシュされた解像度が比較的低いが、航空撮像装置の記憶媒体に記録されたビデオの解像度が比較的高いとき、まず低解像度のビデオにおいてビデオクリップの記述情報を決定し、記述情報に基づき続いて高解像度のビデオからビデオクリップを抽出する。 In addition, a device that separates video acquisition and local operation, such as an aerial imaging device, determines a video clip in a locally cached video, stores corresponding description information of the video clip, and then saves each saved video Based on the description information corresponding to the video clip, the corresponding video clip may be extracted from the video recorded on the storage medium in the aerial imaging apparatus, for example, the memory card. For this reason, when the locally cached resolution is relatively low but the resolution of the video recorded on the storage medium of the aerial imaging device is relatively high, the video clip description information is first determined and described in the low resolution video. The video clip is then extracted from the high resolution video based on the information.
目標ビデオからビデオクリップを抽出するとき、ビデオクリップの解像度を変更してもよい。例えば、前記ビデオクリップの解像度を縮小して、空間を節約してもよく、又は補間技術などの方法を用いてビデオクリップの解像度を向上させてもよい。 When extracting a video clip from the target video, the resolution of the video clip may be changed. For example, the video clip resolution may be reduced to save space, or the video clip resolution may be improved using methods such as interpolation techniques.
また、記録された属性情報を編集する編集操作指令を受信し取得すると、編集操作指令に基づきビデオクリップの属性情報を編集してもよい。具体的には、この編集操作は、記録された属性情報の修正、新たな属性情報の追加、及び属性情報の削除の中のいずれか一つ又は複数を含む。 Further, when an editing operation command for editing the recorded attribute information is received and acquired, the attribute information of the video clip may be edited based on the editing operation command. Specifically, this editing operation includes one or more of correction of recorded attribute information, addition of new attribute information, and deletion of attribute information.
編集操作が記録された属性情報の修正である場合、修正操作指令を受信すると、属性情報中のビデオの開始時点及び/又は終了時点を修正してもよく、これによって、決定されたビデオクリップを延長又は短縮し、あるいはビデオクリップを前又は後ろに移動する。ビデオクリップの他の属性情報、例えば撮影地点、フォーマット、解像度などの記述情報を修正してもよい。 When the editing operation is a modification of the recorded attribute information, when the modification operation command is received, the start time and / or the end time of the video in the attribute information may be modified. Extend or shorten, or move video clip forward or backward. Other attribute information of the video clip, for example, description information such as a shooting point, format, and resolution may be modified.
編集操作が新たな属性情報の追加である場合、追加操作指令を受信すると、目標ビデオを再度再生し、目標ビデオに対する編集操作を再び受け、且つ編集操作により選定されたビデオクリップを決定して、この新たに選定されたビデオクリップの属性情報を追加し記録する。 When the editing operation is addition of new attribute information, when an additional operation command is received, the target video is reproduced again, the editing operation for the target video is received again, and the video clip selected by the editing operation is determined. The attribute information of the newly selected video clip is added and recorded.
編集操作が属性情報の削除である場合、削除操作指令を受信すると、削除操作指令により指定されたビデオクリップに基づき、この指定されたビデオクリップの対応の属性情報を削除する。 When the editing operation is deletion of attribute information, when a deletion operation command is received, the corresponding attribute information of the specified video clip is deleted based on the video clip specified by the deletion operation command.
属性情報に対する編集を完成した後、ビデオ合成指令を検出するとき、編集された属性情報に基づき目標ビデオからビデオクリップを抽出し結合して、ビデオファイルを生成する。 When the video compositing command is detected after the editing of the attribute information is completed, the video clip is extracted from the target video based on the edited attribute information and combined to generate a video file.
更に、ビデオクリップを決定した後、決定されたビデオクリップを記憶してもよい。ビデオクリップのビデオストリームを特定のフォーマット、例えばMP4(Moving Picture Experts Group Audio Layer IV、MPEGオーディオレイヤ4)、AVI(Audio Video Interleave、オーディオ ビデオ インターリーブ)、及びMOV(Quicktime Movie Format、クイックタイムムービーフォーマット)などのフォーマットに従って記憶媒体内に記憶する。ユーザーは各ビデオクリップをプレビューしてもよく、ビデオクリップを1つのビデオファイルに結合して再生又はプレビューしてもよい。記憶されたビデオクリップは、1回再生中に選定されてもよく、目標ビデオを複数回再生して選定されてもよい。このため、ビデオクリップの記憶時間の時間順と目標ビデオにおけるビデオクリップの時間順とは一致しない可能性がある。ビデオクリップを結合する間に、ビデオクリップが記憶された時の時間順に基づき順次重ね合わせてもよく、目標ビデオにおけるビデオクリップの時点に基づき順序付けて、ビデオファイルに結合してもよい。 Further, after the video clip is determined, the determined video clip may be stored. The video stream of the video clip is in a specific format such as MP4 (Moving Picture Experts Group Audio Layer IV, MPEG Audio Layer 4), AVI (Audio Video Interleave, Audio Video Interleave), and MOV (Quicktime Movie). Or the like in the storage medium according to the format. The user may preview each video clip or combine the video clips into a single video file for playback or preview. The stored video clip may be selected during one playback or may be selected by playing the target video multiple times. For this reason, there is a possibility that the time order of the storage time of the video clip does not match the time order of the video clip in the target video. While combining video clips, they may be sequentially superimposed based on the time order when the video clips were stored, or may be combined based on the time points of the video clips in the target video and combined into the video file.
この実施例において、目標ビデオからビデオクリップを選択することと、ビデオクリップの属性情報に基づきビデオクリップを抽出し、ビデオクリップを結合してビデオファイルにすることはいずれも専門的なアプリケーション・プログラムにより実現することができる。 In this embodiment, selecting a video clip from the target video, extracting the video clip based on the video clip attribute information, and combining the video clip into a video file are both performed by a specialized application program. Can be realized.
本発明の実施例によるビデオ処理方法は、操作が簡単であり、ユーザーは専門的なビデオ編集技術を持つ必要がない。 The video processing method according to the embodiment of the present invention is easy to operate, and the user does not need to have specialized video editing technology.
図2に示すように、本発明の実施例に係る別のビデオ処理方法のフローチャートであり、具体的には、前記方法は以下のステップを含む。 As shown in FIG. 2, it is a flowchart of another video processing method according to an embodiment of the present invention. Specifically, the method includes the following steps.
S201では、再生している目標ビデオに対する編集操作を取得する。 In S201, an editing operation for the target video being played back is acquired.
本実施例において、再生している目標ビデオは、録画中のビデオ、録画済みのプレビューするビデオ又はプレイバックするビデオであってもよい。 In this embodiment, the target video being played back may be a video that is being recorded, a video that has been recorded, or a video that is to be played back.
S202では、前記編集操作に関連する決定ルールに基づき、前記目標ビデオからビデオクリップを決定する。 In S202, a video clip is determined from the target video based on a determination rule related to the editing operation.
前記編集操作は、物理的ボタン又はアプリケーション・プログラム中の機能ボタンに対するシングルクリック、ダブルクリック、又は長押し操作を含む。 The editing operation includes a single click, a double click, or a long press operation on a physical button or a function button in an application program.
編集操作がシングルクリック操作である場合、目標ビデオにおいてシングルクリックの時点より前後に予め設定された時間の長さを延長して、ビデオクリップを決定する。 When the editing operation is a single click operation, a video clip is determined by extending a preset length of time before and after the single click point in the target video.
編集操作がダブルクリック操作である場合、前後2回のダブルクリック操作の時点に基づき、この2回のダブルクリック操作の間のビデオクリップを決定する。 When the editing operation is a double-click operation, a video clip between the two double-click operations is determined based on the time point of the two double-click operations before and after.
編集操作が長押し操作である場合、この長押し操作の開始時点と終了時点に基づき、目標ビデオにおいて開始時点と終了時点の間のビデオクリップを決定する。 When the editing operation is a long press operation, a video clip between the start time and the end time is determined in the target video based on the start time and end time of the long press operation.
S203では、前記ビデオクリップの属性情報を取得する。 In S203, the attribute information of the video clip is acquired.
目標ビデオからビデオクリップを決定した後、ビデオクリップの属性情報を抽出する。 After determining the video clip from the target video, the video clip attribute information is extracted.
また、決定されたビデオクリップを記憶してもよい。 Further, the determined video clip may be stored.
S204では、前記属性情報を予め用意されたドキュメント中に記憶する。 In S204, the attribute information is stored in a prepared document.
前記ビデオクリップの属性情報をドキュメント中に記憶する。前記ドキュメントの名称は目標ビデオの名称と関連するため、ユーザーは属性情報のドキュメント名に基づきそれと対応する目標ビデオを検索することができる。このドキュメントは前記目標ビデオから独立する。 The attribute information of the video clip is stored in the document. Since the name of the document is related to the name of the target video, the user can search the corresponding target video based on the document name of the attribute information. This document is independent of the target video.
S205では、合成ビデオ操作指令を取得する。ビデオ合成イベントを検出するとき、前記ドキュメント中の属性情報に基づき目標ビデオから属性情報が指示するビデオクリップを抽出する。 In S205, a composite video operation command is acquired. When a video composition event is detected, a video clip indicated by the attribute information is extracted from the target video based on the attribute information in the document.
ドキュメント中の属性情報に基づき目標ビデオから属性情報が指示するビデオクリップを抽出する前、ユーザーの要求に応じて属性情報を編集して、ドキュメントから幾つかのビデオクリップの属性情報を削除し、幾つかのビデオクリップと対応する属性情報を修正し、又はドキュメントに新たなビデオクリップの属性情報を追加してもよい。前記ドキュメントを複数回編集してもよい。 Before extracting the video clip indicated by the attribute information from the target video based on the attribute information in the document, edit the attribute information according to the user's request and delete the attribute information of some video clips from the document. The attribute information corresponding to the video clip may be corrected, or new video clip attribute information may be added to the document. The document may be edited multiple times.
編集されたビデオクリップの属性情報のドキュメントがユーザーの要求を満たすとき、修正された属性情報のドキュメントに基づき目標ビデオからビデオクリップを抽出する。 When the edited video clip attribute information document satisfies the user's request, the video clip is extracted from the target video based on the modified attribute information document.
S206では、抽出されたビデオクリップをビデオファイルに合成する。 In S206, the extracted video clip is combined with the video file.
ビデオファイルに合成するとき、目標ビデオにおけるビデオクリップの時間順又はビデオクリップの目標ビデオにおいて決定された時点に基づき順序付け、順序付けられたビデオクリップをビデオファイルに結合する。 When compositing to a video file, the video clips are ordered based on the time order of the video clips in the target video or the time points determined in the target video of the video clips, and the ordered video clips are combined into the video file.
このビデオクリッピングは、合成された後すぐ再生されるか又は後の再生のために導出されて記憶媒体例えばパソコン、携帯電話、タブレット又はポータブルハードディスクなどの電子機器内に記憶されてもよい。 This video clipping may be played back immediately after being synthesized or may be derived for later playback and stored in an electronic device such as a personal computer, mobile phone, tablet or portable hard disk.
ユーザーは新たな目標ビデオを開き新たな目標ビデオからビデオクリップを選択するとき、上述のステップを繰り返して、新たな目標ビデオからビデオクリップを決定し、ビデオクリップの属性情報を新たなドキュメント中に記憶する。 When the user opens a new target video and selects a video clip from the new target video, the above steps are repeated to determine the video clip from the new target video and store the video clip attribute information in the new document To do.
本発明の実施例では、ビデオクリップの属性情報を予め用意されたドキュメント中に記憶するため、ユーザーがクリッピングしたビデオクリップを記憶しなくても、このドキュメント中の情報に基づき目標ビデオからビデオを抽出し、メモリスペースを節約することができる。 In the embodiment of the present invention, since the attribute information of the video clip is stored in a document prepared in advance, the video is extracted from the target video based on the information in the document without storing the video clip clipped by the user. And memory space can be saved.
図3に示すように、本発明の実施例に係るまた別のビデオ処理方法のフローチャートであり、具体的には、前記方法は以下のステップを含む。 FIG. 3 is a flowchart of still another video processing method according to an embodiment of the present invention. Specifically, the method includes the following steps.
S301では、再生している目標ビデオに対する編集操作を取得する。 In S301, an editing operation for the target video being played back is acquired.
S302では、前記編集操作に関連する決定ルールに基づき、前記目標ビデオからビデオクリップを決定する。 In S302, a video clip is determined from the target video based on a determination rule related to the editing operation.
S303では、前記ビデオクリップの属性情報を取得する。 In S303, the attribute information of the video clip is acquired.
S304では、前記属性情報を目標ビデオに埋め込む。 In S304, the attribute information is embedded in the target video.
具体的には、取得されたビデオクリップの属性情報を目標ビデオ中に埋め込み、例えば目標ビデオにビデオクリップの開始時点と終了時点をマーキングし、このビデオクリップを命名し又は簡単に記述してもよく、又は、このビデオクリップが決定された時点をマーキングしてもよい。このビデオクリップの属性情報は共に目標ビデオ中にカプセル化する。ユーザーは目標ビデオを開いた後、決定されたビデオクリップをクリックし、ビデオクリップをプレビューする。 Specifically, the acquired video clip attribute information may be embedded in the target video, for example, the start time and end time of the video clip may be marked in the target video, and this video clip may be named or simply described Alternatively, the point in time when this video clip is determined may be marked. Both the attribute information of this video clip are encapsulated in the target video. After opening the target video, the user clicks on the determined video clip to preview the video clip.
S305では、合成ビデオ操作指令を取得する。ビデオ合成イベントを検出するとき、前記ドキュメント中の属性情報に基づき目標ビデオから属性情報が指示するビデオクリップを抽出する。 In S305, a composite video operation command is acquired. When a video composition event is detected, a video clip indicated by the attribute information is extracted from the target video based on the attribute information in the document.
合成ビデオ操作指令を取得するとき、目標ビデオを開き、決定されたビデオクリップを抽出し、ビデオクリップを記憶する。 When obtaining the composite video operation command, the target video is opened, the determined video clip is extracted, and the video clip is stored.
S306では、抽出されたビデオクリップをビデオファイルに合成する。 In S306, the extracted video clip is combined with a video file.
抽出されたビデオクリップを結合する前に、ビデオクリップの目標ビデオにおける時間又はビデオクリップが決定された時点に基づき順序付け、順序付けられたビデオクリップを結合して、ビデオファイルを得る。 Prior to combining the extracted video clips, the video clips are ordered based on the time in the target video or when the video clips are determined, and the ordered video clips are combined to obtain a video file.
本実施例において、目標ビデオに選定されたビデオクリップの属性情報を埋め込むため、目標ビデオを再生すると同時にビデオクリップの属性情報を知ることができ、且つ目標ビデオを再生する間に、ユーザーはビデオクリップの属性情報をいつでも修正することができる。 In this embodiment, since the attribute information of the selected video clip is embedded in the target video, the user can know the attribute information of the video clip at the same time as the target video is played, and the user can play the video clip while playing the target video. The attribute information can be corrected at any time.
本発明の実施例では、目標ビデオにおいてビデオクリップを決定し且つビデオクリップの情報を記憶することによって、ユーザーは記憶されたビデオクリップの属性情報に基づきビデオファイルを合成することができる。且つ、ビデオクリップの属性情報を編集することによってビデオファイルの編集を実現することができ、専門的なビデオ編集ソフトウェアにより編集する必要がなく、操作が簡単である。録画する間にビデオクリップをマーキングすることができ、続いて目標ビデオをプレイバックしてビデオクリップを決定する必要がなく、時間を節約する。 In an embodiment of the present invention, by determining a video clip in the target video and storing the video clip information, a user can synthesize a video file based on the stored video clip attribute information. In addition, editing of the video file can be realized by editing the attribute information of the video clip, and it is not necessary to edit with specialized video editing software, and the operation is simple. Video clips can be marked during recording, and the target video need not be subsequently played back to determine the video clip, saving time.
以下では、本発明の実施例に係るビデオ処理装置及び再生装置を説明する。 Hereinafter, a video processing apparatus and a playback apparatus according to an embodiment of the present invention will be described.
図4に示すように、本発明の実施例に係る1つのビデオ処理装置の構造を示す図である。このビデオ処理装置は、航空撮像装置、携帯電話、タブレット、ビデオカメラ、航空撮像装置などのビデオ再生可能な電子装置に配置されることができる。具体的には、前記ビデオ処理装置は、取得モジュール1と記録モジュール2を含み、
取得モジュール1は、再生している目標ビデオに対する編集操作を取得し、前記編集操作により選定されたビデオクリップを決定することに用いられており、
記録モジュール2は、前記選定されたビデオクリップの属性情報を記録して、前記目標ビデオを編集することに用いられる。
As shown in FIG. 4, it is a figure which shows the structure of one video processing apparatus based on the Example of this invention. This video processing device can be arranged in an electronic device capable of reproducing video such as an aerial imaging device, a mobile phone, a tablet, a video camera, an aerial imaging device. Specifically, the video processing apparatus includes an
The
The
目標ビデオを再生する間に、取得モジュール1はユーザーが目標ビデオに対する編集操作、例えばユーザーが編集操作する時のシングルクリック操作、ダブルクリック操作又は長押し操作を取得し、シングルクリック操作、ダブルクリック操作及び長押し操作と対応する決定ルールに基づき目標ビデオからビデオクリップを決定する。
While the target video is played back, the
記録モジュール2は、前記取得モジュール1が決定したビデオクリップの属性情報を記憶して、記憶された属性情報に基づき目標ビデオを編集する。
The
図5に示すように、前記ビデオ処理装置は、再生モジュール3、編集モジュール4、合成モジュール5、及び処理モジュール6を更に含んでもよい。
As shown in FIG. 5, the video processing apparatus may further include a playback module 3, an editing module 4, a
前記再生モジュール3は、ビデオを再生することに用いられる。前記再生モジュール3が再生するビデオは、録画中のビデオ、録画済みのプレビューするビデオ又はプレイバックするビデオであってもよく、決定されたビデオクリップ又は最終的に合成されたビデオファイルであってもよい。 The reproduction module 3 is used for reproducing video. The video played by the playback module 3 may be a video that is being recorded, a video that has been recorded, a video that is to be played back, a video clip that has been determined, or a final synthesized video file. Good.
編集モジュール4は、記録されたビデオクリップの属性情報の編集に用いられる。この編集は、幾つかのビデオクリップの属性情報を修正、削除すること及びビデオクリップの属性情報を追加することを含む。前記合成モジュール5は、ビデオファイルを合成することに用いられる。処理モジュール6は、ビデオクリップを処理することに用いられる。
The editing module 4 is used for editing the attribute information of the recorded video clip. This editing includes modifying and deleting some video clip attribute information and adding video clip attribute information. The
図6に示すように、前記取得モジュール1は、編集取得ユニット11とビデオマーキングユニット12を含む。前記編集取得ユニット11は、再生している目標ビデオに対する編集操作を取得することに用いられ、この操作がシングルクリック操作、ダブルクリック操作及び長押し操作を含む。ビデオマーキングユニット12は、前記編集操作に関連する決定ルールに基づき、前記再生している目標ビデオからビデオクリップを決定することに用いられる。
As shown in FIG. 6, the
具体的には、編集取得ユニット11が取得した編集操作はシングルクリック操作である場合、ビデオマーキングユニット12は目標ビデオにおいてシングルクリックの時点から両側へ予め設定された時間の長さを延長して、一定の長さのビデオクリップを決定する。本実施例において、シングルクリック時点から目標ビデオの開始方向へ2秒延長し、目標ビデオの終了方向へ3秒延長し、時間の長さが5秒であるビデオクリップを決定する。当然のことながら、延長時間を他の値に設定してもよく、例えば、目標ビデオの開始方向へ5秒延長し、目標ビデオの終了方向へ5秒延長し、時間の長さが10秒であるビデオクリップを決定してもよい。
Specifically, when the editing operation acquired by the
編集取得ユニット11が取得した編集操作は2回のダブルクリック操作である場合、ビデオマーキングユニット12は前後2回のダブルクリック操作の時点に基づき、この2回のダブルクリック操作の間のビデオクリップを決定する。
When the editing operation acquired by the
編集取得ユニット11が取得した編集操作は長押し操作である場合、ビデオマーキングユニット12はこの長押し操作の開始時点と終了時点に基づき、目標ビデオから開始時点と終了時点の間のビデオクリップを決定する。ユーザーの機能ボタンを押す動作がビデオの再生より遅いことを回避するために、機能ボタンが押された時点を前に数秒と延長し且つこれを開始点にして、切り出された対象ビデオクリップがより完全であることを保証する。本実施例において、機能ボタンを押すとき、目標ビデオの開始方向へ2秒と延長する。当然のことながら、他の時間の長さを延長してもよく、同様に、目標ビデオの終了方向へ予め設定された時間の長さを延長してもよい。
When the editing operation acquired by the
図7に示すように、前記記録モジュール2は、属性取得ユニット21、第1の属性記憶ユニット22及び第2の属性記憶ユニット23を含む。
As shown in FIG. 7, the
前記属性取得ユニット21は、前記ビデオクリップの属性情報を取得することに用いられ、この属性情報が目標ビデオにおけるビデオクリップの開始時点、終了時点及びこのビデオクリップが決定された時の時間情報を含む。また、属性情報は、ビデオクリップのフォーマット、時間の長さ、メモリ消費量、撮影地点、撮影経路、及びビデオクリップの選択元となる目標ビデオのファイル名、解像度、フレームレートなどの記述情報を含んでもよい。
The
前記第1の属性記憶ユニット22は、前記属性取得ユニット21が取得したビデオクリップの属性情報を予め用意されたドキュメント中に記憶することに用いられる。
The first
前記ビデオクリップの属性情報を、予め用意されたドキュメント中に記憶する方式で記憶するとき、前記ドキュメントの名称は目標ビデオの名称と関連するため、ユーザーは属性情報のドキュメント名に基づきそれと対応する目標ビデオを検索することができる。当然のことながら、このドキュメントは他の名称に命名されてもよい。このドキュメントは前記目標ビデオから独立する。 When the attribute information of the video clip is stored in a manner to be stored in a document prepared in advance, since the name of the document is related to the name of the target video, the user can select the target corresponding to the name based on the document name of the attribute information. You can search for videos. Of course, this document may be named under other names. This document is independent of the target video.
前記第2の属性記憶ユニット23は、前記属性取得ユニット21が取得したビデオクリップの属性情報を目標ビデオの情報中に埋め込むことに用いられる。
The second attribute storage unit 23 is used for embedding the attribute information of the video clip acquired by the
前記ビデオクリップの属性情報を、目標ビデオに埋め込む方式で記憶するとき、取得されたビデオクリップの属性情報を目標ビデオ中に埋め込み、例えば目標ビデオにビデオクリップの開始時点と終了時点をマーキングし、このビデオクリップを命名し又は簡単に記述してもよく、あるいは、このビデオクリップが決定された時点をマーキングしてもよい。このビデオクリップの情報は共に目標ビデオ中にカプセル化する。ユーザーは目標ビデオを開いた後、決定されたビデオクリップをクリックし、ビデオクリップをプレビューする。 When storing the attribute information of the video clip in a method of embedding in the target video, the acquired attribute information of the video clip is embedded in the target video, for example, marking the start time and end time of the video clip in the target video, The video clip may be named or briefly described, or it may be marked when this video clip is determined. Both information of this video clip is encapsulated in the target video. After opening the target video, the user clicks on the determined video clip to preview the video clip.
図8に示すように、記憶されたビデオクリップの属性情報を編集する必要があるとき、編集モジュール4を用いて編集する。前記編集モジュール4は、指令取得ユニット41と編集ユニット42を含む。前記指令取得ユニットは、記録された属性情報を編集する編集操作指令を取得することに用いられる。指令取得ユニット41は、記録された属性情報を編集する編集操作指令を受信し取得すると、前記編集ユニット42は、取得された編集操作指令に基づきビデオクリップの属性情報を編集する。具体的には、この編集操作は、記録された属性情報の修正、新たな属性情報の追加、及び属性情報の削除の中のいずれか一つ又は複数を含む。
As shown in FIG. 8, when the attribute information of the stored video clip needs to be edited, the editing is performed using the editing module 4. The editing module 4 includes a
指令取得ユニット41は、修正操作指令を受信すると、前記ビデオクリップの属性情報に記録された開始時点、終了時点及び記述情報の中のいずれか一つ又は複数を修正する。
指令取得ユニット41は、削除操作指令を受信すると、削除指令により指定されたビデオクリップに基づき、この指定されたビデオクリップと対応する属性情報を削除する。
指令取得ユニット41は、追加操作指令を受信すると、目標ビデオを再度再生し、再度再生する目標ビデオに対する編集操作を受け、前記編集操作により選定されたビデオクリップを決定して、前記選定されたビデオクリップの属性情報を追加し記録する。
When receiving the correction operation command, the
When receiving the delete operation command, the
Upon receiving the additional operation command, the
図9に示すように、前記合成モジュール5は、制御ユニット51と合成ユニット52を含む。前記合成モジュール4は、前記記録モジュール2に記録されたビデオクリップの属性情報に基づきビデオを編集することに用いられる。
As shown in FIG. 9, the
前記制御ユニット51は、ビデオ合成イベントを検出するとき、前記現在目標ビデオから前記属性情報が指示するビデオクリップを抽出することに用いられる。合成ユニット52は、制御ユニット51が抽出した各ビデオクリップを結合してビデオファイルを得る。ビデオファイルを合成するとき、ビデオクリップの目標ビデオにおける時点順序又はビデオクリップの決定時間に基づき順序付けて、更に結合してもよい。このビデオクリッピングは、合成された後すぐ再生されるか又は後の再生のために導出されて記憶媒体例えばパソコン、携帯電話、タブレット又はポータブルハードディスクなどの電子機器内に記憶されてもよい。
When the
図10に示すように、処理モジュール6は、直接にビデオクリップを結合することに用いられる。記録モジュール2は、取得モジュール1がマーキングしたビデオクリップを一括で記憶するとき、直接に処理モジュール6により記憶されたビデオクリップをビデオファイルに合成してもよい。処理モジュール6は、ビデオ取得ユニット61とビデオ処理ユニット62を含む。ビデオ取得ユニット61は、決定されたビデオクリップを取得することに用いられ、ビデオ処理ユニット62は、前記ビデオクリップを合成する。結合の時、ビデオファイルを合成するために前記ビデオクリップを順次重ね合わせてもよく、又は前記目標ビデオにおけるビデオクリップの時点に基づき前記ビデオクリップを順序付けて、前記順序付けられたビデオクリップを結合する。
As shown in FIG. 10, the processing module 6 is used to directly combine video clips. When the
本発明の実施例に係るビデオ処理装置における各モジュール及びユニットの具体的な実現は図1〜図3と対応する実施例に記載の説明を参照してもよい。 The specific implementation of each module and unit in the video processing apparatus according to the embodiment of the present invention may refer to the description in the embodiment corresponding to FIGS.
本発明の実施形態では、目標ビデオにおいてビデオクリップを決定し且つビデオクリップの情報を記憶することによって、ユーザーは記憶されたビデオクリップの属性情報に基づきビデオファイルを合成することができる。且つ、ビデオクリップの属性情報を編集することによってビデオファイルの編集を実現することができ、専門的なビデオ編集ソフトウェアにより編集する必要がなく、操作が簡単である。録画する間にビデオクリップをマーキングすることができ、続いて目標ビデオをプレイバックしてビデオクリップを決定する必要がなく、時間を節約する。 In an embodiment of the present invention, by determining a video clip in the target video and storing the video clip information, the user can synthesize a video file based on the stored video clip attribute information. In addition, editing of the video file can be realized by editing the attribute information of the video clip, and it is not necessary to edit with specialized video editing software, and the operation is simple. Video clips can be marked during recording, and the target video need not be subsequently played back to determine the video clip, saving time.
図11は、本発明の実施例に係る再生装置の構造を示す図である。本発明の実施例に係る前記再生装置は、航空撮像装置、携帯電話、タブレット、ビデオカメラ、航空撮像装置などのビデオを再生可能な電子装置であってもよい。本発明の再生装置は、プレーヤー100とプロセッサ200を含む。
FIG. 11 is a diagram showing the structure of a playback apparatus according to an embodiment of the present invention. The playback device according to an embodiment of the present invention may be an electronic device capable of playing back video, such as an aerial imaging device, a mobile phone, a tablet, a video camera, and an aerial imaging device. The playback device of the present invention includes a
前記プレーヤー100は、ビデオを再生することに用いられており、
前記プロセッサ200は、再生している目標ビデオに対する編集操作を取得し、前記編集操作により選定されたビデオクリップを決定しており、且つ前記目標ビデオを編集するために、前記選定されたビデオクリップの属性情報を記録することに用いられる。
The
The
具体的には、前記プレーヤー100は、録画中のビデオ、録画済みのプレビューするビデオ又はプレイバックするビデオであってもよい目標ビデオの再生のために用いられてもよく、目標ビデオにおいて決定されたビデオクリップ又は最終的に合成されたビデオファイルの再生のために用いられてもよい。
Specifically, the
前記プロセッサ200は、プレーヤー100が再生する目標ビデオに対する編集操作を取得し、編集操作に関連する決定ルールに基づき、前記編集操作により選定されたビデオクリップを決定しており、前記選定されたビデオクリップの属性情報を記録することに用いられる。
The
更に、前記プロセッサ200は、プレーヤー100が再生する目標ビデオに対するシングルクリック操作、ダブルクリック操作又は長押し操作を取得し、編集操作に関連する決定ルールに基づき、目標ビデオからビデオクリップを決定する。
Further, the
取得された編集操作がシングルクリック操作である場合、前記シングルクリック操作が選定した時点より前に及び/又は後に予め設定された時間の長さを延長して、前記目標ビデオからビデオクリップを決定する。
取得された編集操作が2回のダブルクリック操作である場合、前後の前記2回のダブルクリック操作の時点に基づき、前記目標ビデオから前記2回のダブルクリック操作の間のビデオクリップを決定する。
取得された編集操作が長押し操作である場合、前記長押し操作の開始時点と終了時点に基づき、前記目標ビデオからビデオクリップを決定する。
When the acquired editing operation is a single click operation, a video clip is determined from the target video by extending a predetermined length of time before and / or after the time point when the single click operation is selected. .
When the acquired editing operation is two double-click operations, a video clip between the two double-click operations is determined from the target video based on the previous and second double-click operations.
If the acquired editing operation is a long press operation, a video clip is determined from the target video based on the start time and end time of the long press operation.
更に、前記プロセッサ200は具体的に、ビデオクリップの属性情報を取得し、属性情報を予め用意されたドキュメント中に記憶するか、又は属性情報を目標ビデオの情報中に埋め込むことに用いられる。ここで、前記属性情報は、ビデオクリップの目標ビデオにおける時点及び前記ビデオクリップが選定された時の時点を含んでもよく、撮影地点、撮影軌跡、解像度などの記述情報を含んでもよい。
Further, the
プロセッサ200が記録された属性情報を編集するための編集操作指令を取得するとき、プロセッサ200は編集操作指令に基づき属性情報を編集する。ここで、この編集操作は、記録された属性情報の修正、新たな属性情報の追加、及び属性情報の削除の中のいずれか一つ又は複数を含む。
When the
具体的には、修正操作指令を受信すると、前記ビデオクリップの属性情報に記録された開始時点、終了時点及び記述情報の中のいずれか一つ又は複数を修正する。
削除操作指令を受信すると、削除指令により指定されたビデオクリップに基づき、この指定されたビデオクリップと対応する属性情報を削除する。
追加操作指令を受信すると、目標ビデオを再度再生し、再度再生する目標ビデオに対する編集操作を受け、前記編集操作により選定されたビデオクリップを決定して、前記選定されたビデオクリップの属性情報を追加し記録する。
Specifically, when a correction operation command is received, one or more of the start time, end time, and description information recorded in the attribute information of the video clip is corrected.
When the delete operation command is received, the attribute information corresponding to the specified video clip is deleted based on the video clip specified by the delete command.
Upon receiving an additional operation command, the target video is played back again, an editing operation is performed on the target video to be played back again, the video clip selected by the editing operation is determined, and attribute information of the selected video clip is added And record.
更に、プロセッサ200は、ビデオ合成指令を取得すると、目標ビデオから前記属性情報が指示するビデオクリップを抽出しており、抽出された各ビデオクリップをビデオファイルに合成する。ビデオファイルを合成するとき、前記目標ビデオにおけるビデオクリップの時点に基づき順序付けて、結合してもよく、又はビデオクリップが決定された時点に基づき順序付けて、更に結合してもよい。
Furthermore, when the video synthesizing instruction is acquired, the
また、プロセッサ200は、目標ビデオから決定されたビデオクリップを直接に記憶してもよいため、ビデオ合成指令を受信すると、直接に取得し決定されたビデオクリップを、順次重ね合わせる方式で結合するか、又はまず前記ビデオクリップの目標ビデオにおける時点に基づき前記ビデオクリップを順序付けて、そして結合する。
In addition, since the
本発明の実施例では、目標ビデオにおいてビデオクリップを決定し且つビデオクリップの情報を記憶することによって、ユーザーは記憶されたビデオクリップの属性情報に基づきビデオファイルを合成することができる。且つ、ビデオクリップの属性情報を編集することによってビデオファイルの編集を実現することができ、専門的なビデオ編集ソフトウェアにより編集する必要がなく、操作が簡単である。録画する間にビデオクリップをマーキングすることができ、続いて目標ビデオをプレイバックしてビデオクリップを決定する必要がなく、時間を節約する。 In an embodiment of the present invention, by determining a video clip in the target video and storing the video clip information, a user can synthesize a video file based on the stored video clip attribute information. In addition, editing of the video file can be realized by editing the attribute information of the video clip, and it is not necessary to edit with specialized video editing software, and the operation is simple. Video clips can be marked during recording, and the target video need not be subsequently played back to determine the video clip, saving time.
本発明による幾つかの実施例において、理解されるように、開示された関連する装置と方法は、他の方式で実現されてもよい。例えば、上述のような装置実施例は、単なる例にすぎない。例えば、前記モジュールまたはユニットの区分は、単なる論理的な機能による区分であり、実際に実現するとき他の区分方式であってもよく、例えば、複数のユニットまたは組立体が組み合わされるかまたは別のシステムに一体化してもよく、或いは幾つかの特徴が省略されまたは実行されなくてもよい。一方、示されたまたは解説された相互間の結合又は直接的な結合又は通信接続は、幾つかのインターフェイス、装置又はユニットによる間接的な結合又は通信接続であってもよく、電気的、機械的または他の形態であってもよい。 As will be appreciated, in some embodiments according to the invention, the disclosed related apparatus and methods may be implemented in other ways. For example, the apparatus embodiments as described above are merely examples. For example, the division of the module or unit is merely a division based on a logical function, and may be other division schemes when actually realized, for example, a plurality of units or assemblies may be combined or separated. It may be integrated into the system or some features may be omitted or not performed. On the other hand, the mutual coupling or direct coupling or communication connection shown or described may be an indirect coupling or communication connection by several interfaces, devices or units, electrical, mechanical Or another form may be sufficient.
前記分離部材として説明されたユニットは、物理的に分離されてもよく、物理的に分離されなくてもよく、ユニットとして示された部材は、物理的なユニットであってもよく、物理的なユニットでなくてもよく、同じところに位置してもよく、複数のネットワークユニット上に分散されてもよい。実際の需要に応じて、一部または全部のユニットを選択し、本実施例の目的を実現することができる。 The unit described as the separation member may be physically separated or may not be physically separated, and the member shown as a unit may be a physical unit, It may not be a unit, may be located at the same place, and may be distributed over a plurality of network units. Depending on the actual demand, a part or all of the units can be selected to realize the object of the present embodiment.
なお、本発明の各実施例における各機能ユニットは、1つの処理ユニットに集積されていてもよく、各ユニットが単独に物理的に存在していてもよく、2つまたは2つ以上のユニットが1つのユニットに集積されていてもよい。上述の一体化されたユニットは、ハードウエアの形で実現されてもよく、ソフトウェア機能ユニットの形で実現されてもよい。 Note that each functional unit in each embodiment of the present invention may be integrated into one processing unit, each unit may be physically present alone, or two or more units may be present. It may be integrated in one unit. The integrated unit described above may be realized in the form of hardware or may be realized in the form of a software functional unit.
前記一体化されたユニットは、ソフトウェア機能ユニットの形で実現され、かつ独立した製品として販売または使用されるとき、コンピュータにより読み取り可能な記憶媒体内に記憶されてもよい。このような理解に基づき、本発明の技術案は、本質的に、或いは、従来技術への寄与部分、或いは、この技術案の全部若しくは一部に対して、ソフトウェア製品の形式で表すことができ、このコンピュータソフトウェア製品は、1つの記録媒体に記録され、コンピュータプロセッサ(processor)に本発明の各実施例における前記方法の全部若しくは一部のステップを実行させる複数の指令が含まれていてもよい。前記記憶媒体は、USBメモリ、リムーバブルハードディスク、読み取り専用メモリ(ROM、Read−Only Memory)、ランダムアクセスメモリ(RAM、Random Access Memory)、フロッピー(登録商標)ディスクまたは光ディスクなどの様々なプログラム・コードを記憶可能である媒体を含む。 The integrated unit may be implemented in the form of a software functional unit and stored in a computer readable storage medium when sold or used as an independent product. Based on this understanding, the technical solution of the present invention can be expressed in the form of a software product in essence, a part that contributes to the prior art, or all or part of the technical solution. The computer software product may be recorded on a single recording medium, and may include a plurality of instructions that cause a computer processor to execute all or some of the steps of the method in each embodiment of the present invention. . The storage medium includes various program codes such as a USB memory, a removable hard disk, a read-only memory (ROM), a random access memory (RAM), a floppy (registered trademark) disk, or an optical disk. Includes media that can be stored.
以上の説明は本発明に係る実施形態にすぎず、本発明の特許保護範囲を限定するものではない。本発明の明細書及び添付図面によって作成したすべての同等の構造又は同等のフローの変更を、直接又は間接的に他の関連する技術分野に実施することは、いずれも同じ理由により本発明の特許保護範囲内に含まれるべきである。 The above description is only an embodiment according to the present invention, and does not limit the patent protection scope of the present invention. Any equivalent structural or equivalent flow modifications made by the specification of the present invention and the accompanying drawings may be directly or indirectly implemented in other related technical fields for the same reason. Should be within the scope of protection.
Claims (51)
再生している目標ビデオに対する編集操作を取得し、前記編集操作により選定されたビデオクリップを決定するステップと、
前記目標ビデオを編集するために、前記選定されたビデオクリップの属性情報を記録するステップと、
を含む、
ことを特徴とするビデオ処理方法。 A video processing method comprising:
Obtaining an editing operation on the target video being played, and determining a video clip selected by the editing operation;
Recording attribute information of the selected video clip to edit the target video;
including,
A video processing method characterized by the above.
前記ビデオクリップの属性情報を取得するステップと、
前記属性情報を予め用意されたドキュメント中に記憶するステップと、
を含む、
ことを特徴とする請求項1に記載のビデオ処理方法。 In order to edit the target video, recording attribute information of the selected video clip comprises:
Obtaining attribute information of the video clip;
Storing the attribute information in a prepared document;
including,
The video processing method according to claim 1, wherein:
前記選定されたビデオクリップの属性情報を前記目標ビデオの情報中に埋め込むステップを含む、
ことを特徴とする請求項1に記載のビデオ処理方法。 In order to edit the target video, recording attribute information of the selected video clip comprises:
Embedding attribute information of the selected video clip in the information of the target video,
The video processing method according to claim 1, wherein:
目標ビデオにおける前記ビデオクリップの時点及び前記ビデオクリップが選定された時の時点及び/又は前記ビデオクリップの記述情報を含む、
ことを特徴とする請求項2又は3に記載のビデオ処理方法。 The attribute information of the selected video clip is
Including the time point of the video clip in the target video and the time point when the video clip was selected and / or descriptive information of the video clip;
The video processing method according to claim 2, wherein the video processing method is a video processing method.
抽出された各ビデオクリップをビデオファイルに合成するステップと、
を更に含む、
ことを特徴とする請求項2又は3に記載のビデオ処理方法。 Detecting a video synthesis command, extracting a video clip indicated by the attribute information from the current target video;
Compositing each extracted video clip into a video file;
Further including
The video processing method according to claim 2, wherein the video processing method is a video processing method.
現在目標ビデオからビデオクリップを抽出するとき、前記ビデオクリップの解像度を調節するステップを更に含む、
ことを特徴とする請求項5に記載のビデオ処理方法。 Extracting the video clip indicated by the attribute information from the current target video,
Adjusting the resolution of the video clip when extracting the video clip from the current target video;
The video processing method according to claim 5, wherein:
前記目標ビデオにおける前記ビデオクリップの時点に基づき、各ビデオクリップをビデオファイルに合成するステップを含む、
ことを特徴とする請求項5に記載のビデオ処理方法。 Combining each extracted video clip into a video file
Compositing each video clip into a video file based on the time of the video clip in the target video;
The video processing method according to claim 5, wherein:
前記編集操作指令に基づき前記ビデオクリップの属性情報を編集するステップと、
を更に含み、
前記編集操作は、記録された属性情報の修正、新たな属性情報の追加、及び属性情報の削除の中のいずれか一つ又は複数を含む、
ことを特徴とする請求項1に記載のビデオ処理方法。 Obtaining an editing operation command for editing the recorded attribute information;
Editing the attribute information of the video clip based on the editing operation command;
Further including
The editing operation includes any one or more of correction of recorded attribute information, addition of new attribute information, and deletion of attribute information.
The video processing method according to claim 1, wherein:
修正操作指令を受信すると、前記ビデオクリップの属性情報に記録された開始時点、終了時点及び記述情報の中のいずれか一つ又は複数を修正するステップを含む、
ことを特徴とする請求項8に記載のビデオ処理方法。 If the editing operation is a modification of the recorded attribute information, the step of editing the attribute information of the video clip based on the editing operation command,
Receiving a correction operation command, including a step of correcting any one or more of the start time, end time, and description information recorded in the attribute information of the video clip;
The video processing method according to claim 8, wherein:
削除操作指令を受信すると、削除指令により指定されたビデオクリップに基づき、前記指定されたビデオクリップと対応する属性情報を削除するステップを含む、
ことを特徴とする請求項8に記載のビデオ処理方法。 When the editing operation is deletion of attribute information, the step of editing the attribute information of the video clip based on the editing operation command,
Receiving a delete operation command, including deleting the attribute information corresponding to the specified video clip based on the video clip specified by the delete command;
The video processing method according to claim 8, wherein:
追加操作指令を受信すると、目標ビデオを再度再生するステップと、
再度再生する目標ビデオに対する編集操作を取得し、前記編集操作により選定されたビデオクリップを決定するステップと、
前記選定されたビデオクリップの属性情報を追加して記録するステップと、
を含む、
ことを特徴とする請求項8に記載のビデオ処理方法。 When the editing operation is addition of new attribute information, the step of editing the attribute information of the video clip based on the editing operation command includes:
Receiving an additional operation command, replaying the target video;
Obtaining an editing operation for the target video to be played again, and determining a video clip selected by the editing operation;
Adding and recording attribute information of the selected video clip;
including,
The video processing method according to claim 8, wherein:
再生している録画中のビデオ、又は録画済みのプレビューするビデオ又はプレイバックするビデオを含む、
ことを特徴とする請求項1に記載のビデオ処理方法。 The target video being played is
Including the recorded video being played, or the recorded previewed video or the video to be played back,
The video processing method according to claim 1, wherein:
再生している目標ビデオに対する編集操作を取得するステップと、
前記編集操作に関連する決定ルールに基づき、前記再生している目標ビデオからビデオクリップを決定するステップと、
を含む、
ことを特徴とする請求項1〜3のいずれか一項に記載のビデオ処理方法。 Obtaining an editing operation for the target video being played and determining a video clip selected by the editing operation,
Obtaining an editing operation on the target video being played;
Determining a video clip from the target video being played based on a decision rule associated with the editing operation;
including,
The video processing method according to claim 1, wherein the video processing method is a video processing method.
取得された編集操作がシングルクリック操作である場合、
前記シングルクリック操作が選定した時点より前に及び/又は後に予め設定された時間の長さを延長して、前記目標ビデオからビデオクリップを決定するステップを含む、
ことを特徴とする請求項13に記載のビデオ処理方法。 Based on the decision rule associated with the editing operation, the step of determining a video clip from the target video being played comprises:
If the acquired editing operation is a single click operation,
Determining a video clip from the target video by extending a pre-set length of time before and / or after the single click operation is selected;
The video processing method according to claim 13.
取得された編集操作が2回のダブルクリック操作である場合、
前後の前記2回のダブルクリック操作の時点に基づき、前記目標ビデオから前記2回のダブルクリック操作の間のビデオクリップを決定するステップを含む、
ことを特徴とする請求項13に記載のビデオ処理方法。 Based on the decision rule associated with the editing operation, the step of determining a video clip from the target video being played comprises:
If the acquired editing operation is two double-click operations,
Determining a video clip between the two double-click operations from the target video based on the time points of the two double-click operations before and after,
The video processing method according to claim 13.
取得された編集操作が長押し操作である場合、
前記長押し操作の開始時点と終了時点に基づき、前記目標ビデオからビデオクリップを決定するステップを含む、
ことを特徴とする請求項13に記載のビデオ処理方法。 Based on the decision rule associated with the editing operation, the step of determining a video clip from the target video being played comprises:
If the acquired editing operation is a long press operation,
Determining a video clip from the target video based on a start time and an end time of the long press operation;
The video processing method according to claim 13.
前記ビデオクリップを順次重ね合わせてビデオファイルに合成するステップと、
を更に含む、
ことを特徴とする請求項13に記載のビデオ処理方法。 Obtaining the determined video clip;
Combining the video clips sequentially into a video file;
Further including
The video processing method according to claim 13.
目標ビデオにおける前記ビデオクリップの時点に基づき前記ビデオクリップを順序付けるステップと、
前記順序付けられたビデオクリップを結合するステップと、
を更に含む、
ことを特徴とする請求項13に記載のビデオ処理方法。 Obtaining the determined video clip;
Ordering the video clips based on the time points of the video clips in a target video;
Combining the ordered video clips;
Further including
The video processing method according to claim 13.
前記ビデオクリップを取得するとき、前記ビデオクリップの解像度を調節するステップを含む、
ことを特徴とする請求項17又は18に記載のビデオ処理方法。 Obtaining the determined video clip comprises:
Adjusting the resolution of the video clip when obtaining the video clip;
The video processing method according to claim 17 or 18, characterized in that:
再生している目標ビデオに対する編集操作を取得し、前記編集操作により選定されたビデオクリップを決定するための取得モジュールと、
前記選定されたビデオクリップの属性情報を記録して、前記目標ビデオを編集するための記録モジュールと、
を含む、
ことを特徴とするビデオ処理装置。 A video processing device,
An acquisition module for acquiring an editing operation on a target video being played and determining a video clip selected by the editing operation;
A recording module for recording attribute information of the selected video clip and editing the target video;
including,
A video processing apparatus.
前記ビデオクリップの属性情報を取得するための属性取得ユニットと、
前記属性情報を予め用意されたドキュメント中に記憶するための第1の属性記憶ユニットと、
を含む、
ことを特徴とする請求項20に記載のビデオ処理装置。 The recording module includes:
An attribute acquisition unit for acquiring the attribute information of the video clip;
A first attribute storage unit for storing the attribute information in a prepared document;
including,
21. A video processing apparatus according to claim 20, wherein
前記ビデオクリップの属性情報を取得するための属性取得ユニットと、
前記属性情報を前記目標ビデオの情報中に埋め込むための第2の属性記憶ユニットと、
を含む、
ことを特徴とする請求項20に記載のビデオ処理装置。 The recording module includes:
An attribute acquisition unit for acquiring the attribute information of the video clip;
A second attribute storage unit for embedding the attribute information in the information of the target video;
including,
21. A video processing apparatus according to claim 20, wherein
ことを特徴とする請求項21又は22に記載のビデオ処理装置。 The attribute acquisition unit is specifically used to acquire the time point of the video clip in the target video and the time point when the video clip is selected and / or the description information of the video clip.
23. The video processing apparatus according to claim 21, wherein the video processing apparatus is a video processing apparatus.
前記合成モジュールは、
ビデオ合成指令を検出すると、前記現在目標ビデオから前記属性情報が指示するビデオクリップを抽出するための制御ユニットと、
抽出された各ビデオクリップをビデオファイルに合成するための合成ユニットと、
を含む、
ことを特徴とする請求項21又は22に記載のビデオ処理装置。 Further comprising a synthesis module;
The synthesis module is
Upon detecting a video composition command, a control unit for extracting a video clip indicated by the attribute information from the current target video;
A synthesis unit for synthesizing each extracted video clip into a video file;
including,
23. The video processing apparatus according to claim 21, wherein the video processing apparatus is a video processing apparatus.
ことを特徴とする請求項24に記載のビデオ処理装置。 The control unit is specifically used to adjust the resolution of the video clip when extracting the video clip from the current target video.
25. A video processing apparatus according to claim 24.
ことを特徴とする請求項24に記載のビデオ処理装置。 The combining unit is specifically used to combine each video clip into a video file based on the time of the video clip in the target video.
25. A video processing apparatus according to claim 24.
前記編集モジュールは、
記録された属性情報を編集する編集操作指令を取得するための指令取得ユニットと、
前記編集操作指令に基づき前記ビデオクリップの属性情報を編集するための編集ユニットと、
を含み、
前記編集操作は、記録された属性情報の修正、新たな属性情報の追加、及び属性情報の削除の中のいずれか一つ又は複数を含む、
ことを特徴とする請求項20に記載のビデオ処理装置。 An edit module,
The editing module is
A command acquisition unit for acquiring an editing operation command for editing the recorded attribute information;
An editing unit for editing the attribute information of the video clip based on the editing operation command;
Including
The editing operation includes any one or more of correction of recorded attribute information, addition of new attribute information, and deletion of attribute information.
21. A video processing apparatus according to claim 20, wherein
修正操作指令を受信すると、前記ビデオクリップの属性情報に記録された開始時点、終了時点及び記述情報の中のいずれか一つ又は複数を修正しており、
削除操作指令を受信すると、削除指令により指定されたビデオクリップに基づき、前記指定されたビデオクリップと対応する属性情報を削除しており、
追加操作指令を受信すると、目標ビデオを再度再生し、再度再生する目標ビデオに対する編集操作を受け、前記編集操作により選定されたビデオクリップを決定して、前記選定されたビデオクリップの属性情報を追加して記録することに用いられる、
ことを特徴とする請求項27に記載のビデオ処理装置。 The editing unit is specifically:
When receiving the correction operation command, one or more of the start time, the end time, and the description information recorded in the attribute information of the video clip are corrected,
Upon receiving the delete operation command, the attribute information corresponding to the specified video clip is deleted based on the video clip specified by the delete command,
Upon receiving an additional operation command, the target video is played back again, an editing operation is performed on the target video to be played back again, the video clip selected by the editing operation is determined, and attribute information of the selected video clip is added Used to record,
28. A video processing apparatus according to claim 27.
ことを特徴とする請求項20に記載のビデオ処理装置。 The playback module is used for playback of a video being recorded, or playback of a recorded preview video or playback video.
21. A video processing apparatus according to claim 20, wherein
再生している目標ビデオに対する編集操作を取得するための編集取得ユニットと、
前記編集操作に関連する決定ルールに基づき、前記再生している目標ビデオからビデオクリップを決定するためのビデオマーキングユニットと、
を含む、
ことを特徴とする請求項20〜22のいずれか一項に記載のビデオ処理装置。 The acquisition module is
An edit acquisition unit for acquiring an edit operation for the target video being played,
A video marking unit for determining a video clip from the target video being played based on a determination rule associated with the editing operation;
including,
The video processing apparatus according to claim 20, wherein the video processing apparatus is a video processing apparatus.
ことを特徴とする請求項30に記載のビデオ処理装置。 When the editing operation acquired by the editing acquisition unit is a single click operation, the video marking unit extends the length of time set in advance before and / or after the time point when the single click operation is selected. Determine a video clip from the target video,
31. A video processing apparatus according to claim 30, wherein
ことを特徴とする請求項30に記載のビデオ処理装置。 When the editing operation acquired by the editing acquisition unit is two double-click operations, the video marking unit is configured to perform the two double-clicks from the target video based on the time points of the two previous double-click operations. Determine the video clip during the click,
31. A video processing apparatus according to claim 30, wherein
ことを特徴とする請求項30に記載のビデオ処理装置。 When the editing operation acquired by the editing acquisition unit is a long press operation, the video marking unit determines a video clip from the target video based on a start time and an end time of the long press operation.
31. A video processing apparatus according to claim 30, wherein
前記処理モジュールは、
前記決定されたビデオクリップを取得するためのビデオ取得ユニットと、
前記ビデオクリップを順次重ね合わせてビデオファイルに合成するためのビデオ処理ユニットと、
を含む、
ことを特徴とする請求項30に記載のビデオ処理装置。 A processing module;
The processing module is
A video acquisition unit for acquiring the determined video clip;
A video processing unit for sequentially superimposing the video clips into a video file;
including,
31. A video processing apparatus according to claim 30, wherein
前記処理モジュールは、
前記決定されたビデオクリップを取得するためのビデオ取得ユニットと、
目標ビデオにおける前記ビデオクリップの時点に基づき前記ビデオクリップを順序付けて、前記順序付けられたビデオクリップを結合するためのビデオ処理ユニットと、
を含む、
ことを特徴とする請求項30に記載のビデオ処理装置。 A processing module;
The processing module is
A video acquisition unit for acquiring the determined video clip;
A video processing unit for ordering the video clips based on the time points of the video clips in a target video and combining the ordered video clips;
including,
31. A video processing apparatus according to claim 30, wherein
ことを特徴とする請求項34又は35に記載のビデオ処理装置。 The video acquisition unit is specifically used to adjust the resolution of the video clip when acquiring the determined video clip.
36. A video processing apparatus according to claim 34 or 35.
前記プレーヤーは、ビデオを再生することに用いられており、
前記プロセッサは、再生している目標ビデオに対する編集操作を取得し、前記編集操作により選定されたビデオクリップを決定しており、且つ前記選定されたビデオクリップの属性情報を記録して、前記目標ビデオの編集を容易にすることに用いられる、
ことを特徴とする再生装置。 A playback device comprising a player and a processor,
The player is used to play a video,
The processor acquires an editing operation for the target video being played back, determines a video clip selected by the editing operation, records attribute information of the selected video clip, and records the target video. Used to facilitate editing of
A reproducing apparatus characterized by that.
請求項37に記載の再生装置。 Specifically, the processor is used to acquire attribute information of the video clip and store the attribute information in a document prepared in advance.
The playback device according to claim 37.
請求項37に記載の再生装置。 Specifically, the processor is used to acquire attribute information of the video clip and embed the attribute information in the information of the target video.
The playback device according to claim 37.
ことを特徴とする請求項38又は39に記載の再生装置。 The processor is specifically used to obtain the time point of the video clip in the target video and the time point when the video clip is selected and / or description information of the video clip.
40. A reproducing apparatus according to claim 38 or 39, wherein
ことを特徴とする請求項38又は39に記載の再生装置。 Specifically, when the processor detects a video synthesis command, the processor extracts video clips indicated by the attribute information from the current target video, and is used to synthesize each extracted video clip into a video file.
40. A reproducing apparatus according to claim 38 or 39, wherein
ことを特徴とする請求項41に記載の再生装置。 The processor is specifically used to adjust the resolution of the video clip when extracting the video clip indicated by the attribute information from the current target video.
42. The reproducing apparatus according to claim 41.
ことを特徴とする請求項41に記載の再生装置。 The processor is specifically used to compose each video clip into a video file based on the time of the video clip in the target video.
42. The reproducing apparatus according to claim 41.
前記編集操作は、記録された属性情報の修正、新たな属性情報の追加、及び属性情報の削除の中のいずれか一つ又は複数を含む、
ことを特徴とする請求項37に記載の再生装置。 The processor specifically acquires an editing operation command for editing the recorded attribute information, and is used for editing the attribute information of the video clip based on the editing operation command.
The editing operation includes any one or more of correction of recorded attribute information, addition of new attribute information, and deletion of attribute information.
38. A playback apparatus according to claim 37.
修正操作指令を受信すると、前記ビデオクリップの属性情報に記録された開始時点、終了時点及び記述情報の中のいずれか一つ又は複数を修正しており、
削除操作指令を受信すると、削除指令により指定されたビデオクリップに基づき、該前記指定されたビデオクリップと対応する属性情報を削除しており、
追加操作指令を受信すると、目標ビデオを再度再生し、再度再生する目標ビデオに対する編集操作を受け、前記編集操作により選定されたビデオクリップを決定して、前記選定されたビデオクリップの属性情報を追加して記録することに用いられる、
ことを特徴とする請求項44に記載の再生装置。 The processor is specifically:
When receiving the correction operation command, one or more of the start time, the end time, and the description information recorded in the attribute information of the video clip are corrected,
Upon receiving the delete operation command, the attribute information corresponding to the specified video clip is deleted based on the video clip specified by the delete command,
Upon receiving an additional operation command, the target video is played back again, an editing operation is performed on the target video to be played back again, the video clip selected by the editing operation is determined, and attribute information of the selected video clip is added Used to record,
45. The playback apparatus according to claim 44.
ことを特徴とする請求項37に記載の再生装置。 The player is used to play a video that is being recorded, a video that has already been recorded, or a video that is to be played back.
38. A playback apparatus according to claim 37.
ことを特徴とする請求項37〜39のいずれか一項に記載の再生装置。 Specifically, the processor obtains an editing operation for the target video being played, and is used to determine a video clip from the target video being played based on a determination rule associated with the editing operation. Be
The playback device according to any one of claims 37 to 39, wherein:
取得された編集操作がシングルクリック操作である場合、前記シングルクリック操作が選定した時点より前に及び/又は後に予め設定された時間の長さを延長して、前記目標ビデオからビデオクリップを決定しており、
取得された編集操作が2回のダブルクリック操作である場合、前後の前記2回のダブルクリック操作の時点に基づき、前記目標ビデオから前記2回のダブルクリック操作の間のビデオクリップを決定しており、
取得された編集操作が長押し操作である場合、前記長押し操作の開始時点と終了時点に基づき、前記目標ビデオからビデオクリップを決定することに用いられる、
ことを特徴とする請求項47に記載の再生装置。 The processor is specifically:
When the acquired editing operation is a single click operation, a video clip is determined from the target video by extending a predetermined length of time before and / or after the time point when the single click operation is selected. And
If the acquired editing operation is two double-click operations, a video clip between the two double-click operations is determined from the target video based on the time points of the two previous double-click operations. And
When the acquired editing operation is a long press operation, it is used to determine a video clip from the target video based on the start time and end time of the long press operation.
The playback apparatus according to claim 47, wherein:
ことを特徴とする請求項47に記載の再生装置。 The processor specifically acquires the determined video clip, and is used to sequentially superimpose the video clip and compose it into a video file.
The playback apparatus according to claim 47, wherein:
ことを特徴とする請求項47に記載の再生装置。 The processor specifically obtains the determined video clip and is used to order the video clips based on the time points of the video clips in a target video and combine the ordered video clips.
The playback apparatus according to claim 47, wherein:
ことを特徴とする請求項49又は50に記載の再生装置。 The processor is specifically used to adjust the resolution of the video clip when obtaining the determined video clip.
The playback apparatus according to claim 49 or 50, wherein:
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2014/093785 WO2016095071A1 (en) | 2014-12-14 | 2014-12-14 | Video processing method, video processing device and playing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017505012A true JP2017505012A (en) | 2017-02-09 |
JP6367334B2 JP6367334B2 (en) | 2018-08-01 |
Family
ID=55725078
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016536996A Expired - Fee Related JP6367334B2 (en) | 2014-12-14 | 2014-12-14 | Video processing method, apparatus, and playback apparatus |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP6367334B2 (en) |
CN (1) | CN105519095B (en) |
WO (1) | WO2016095071A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021137671A1 (en) * | 2020-01-03 | 2021-07-08 | Samsung Electronics Co., Ltd. | Video generation apparatus and video generation method performed by the video generation apparatus |
WO2022114924A1 (en) * | 2020-11-30 | 2022-06-02 | 키네마스터 주식회사 | Video editing ui control method and device |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106791909B (en) * | 2016-12-01 | 2020-03-17 | 中央电视台 | Video data processing method and device and server |
CN106851385B (en) * | 2017-02-20 | 2019-12-27 | 北京乐我无限科技有限责任公司 | Video recording method and device and electronic equipment |
CN108632541B (en) * | 2017-03-20 | 2021-07-20 | 杭州海康威视数字技术股份有限公司 | Multi-video-clip merging method and device |
CN107809670B (en) * | 2017-10-31 | 2020-05-12 | 长光卫星技术有限公司 | Video editing system and method suitable for large-area-array meter-level high-resolution satellite |
CN115103166A (en) | 2018-01-19 | 2022-09-23 | 深圳市大疆创新科技有限公司 | Video processing method and terminal equipment |
CN110309351A (en) * | 2018-02-14 | 2019-10-08 | 阿里巴巴集团控股有限公司 | Video image generation, device and the computer system of data object |
CN108965919A (en) * | 2018-07-31 | 2018-12-07 | 优视科技新加坡有限公司 | Method for processing video frequency, device, equipment/terminal/server and computer readable storage medium |
CN109104642A (en) * | 2018-09-26 | 2018-12-28 | 北京搜狗科技发展有限公司 | A kind of video generation method and device |
CN111263211B (en) * | 2018-12-03 | 2022-02-08 | 深圳市炜博科技有限公司 | Method for caching video data and terminal equipment |
CN113645482A (en) * | 2020-04-27 | 2021-11-12 | 阿里巴巴集团控股有限公司 | Video processing method and device, electronic equipment and storage medium |
CN112997506A (en) * | 2020-05-28 | 2021-06-18 | 深圳市大疆创新科技有限公司 | Video file editing method, device, system and computer readable storage medium |
CN112135187B (en) * | 2020-07-30 | 2023-07-28 | 广州方硅信息技术有限公司 | Multimedia data generation method, intercepting method, device, equipment and storage medium |
CN112422846B (en) * | 2020-11-18 | 2022-08-30 | 维沃移动通信有限公司 | Video recording method and electronic equipment |
CN114900713B (en) * | 2022-07-13 | 2022-09-30 | 深圳市必提教育科技有限公司 | Video clip processing method and system |
CN115567655A (en) * | 2022-09-16 | 2023-01-03 | 广西电网有限责任公司南宁供电局 | Circuit breaker mechanism image acquisition system |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11176137A (en) * | 1997-12-15 | 1999-07-02 | Matsushita Electric Ind Co Ltd | Optical disk medium and its recording method and device |
JP2002297630A (en) * | 2001-03-30 | 2002-10-11 | Internatl Business Mach Corp <Ibm> | Method and device for index generation, index addition system, program, and storage medium |
JP2006303594A (en) * | 2005-04-15 | 2006-11-02 | Sony Corp | Material recording apparatus and material recording method |
JP2008227860A (en) * | 2007-03-12 | 2008-09-25 | Matsushita Electric Ind Co Ltd | Device for photographing content |
JP2012049840A (en) * | 2010-08-27 | 2012-03-08 | Nippon Telegr & Teleph Corp <Ntt> | Video editing device, video editing method, video editing program, and computer readable storage medium |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8020100B2 (en) * | 2006-12-22 | 2011-09-13 | Apple Inc. | Fast creation of video segments |
KR101978216B1 (en) * | 2013-01-04 | 2019-05-14 | 엘지전자 주식회사 | Mobile terminal and method for controlling thereof |
CN103716712A (en) * | 2013-12-31 | 2014-04-09 | 上海艾麒信息科技有限公司 | Video processing method based on mobile terminal |
CN104052935B (en) * | 2014-06-18 | 2017-10-20 | 广东欧珀移动通信有限公司 | A kind of video editing method and device |
-
2014
- 2014-12-14 JP JP2016536996A patent/JP6367334B2/en not_active Expired - Fee Related
- 2014-12-14 CN CN201480010538.9A patent/CN105519095B/en not_active Expired - Fee Related
- 2014-12-14 WO PCT/CN2014/093785 patent/WO2016095071A1/en active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11176137A (en) * | 1997-12-15 | 1999-07-02 | Matsushita Electric Ind Co Ltd | Optical disk medium and its recording method and device |
JP2002297630A (en) * | 2001-03-30 | 2002-10-11 | Internatl Business Mach Corp <Ibm> | Method and device for index generation, index addition system, program, and storage medium |
JP2006303594A (en) * | 2005-04-15 | 2006-11-02 | Sony Corp | Material recording apparatus and material recording method |
JP2008227860A (en) * | 2007-03-12 | 2008-09-25 | Matsushita Electric Ind Co Ltd | Device for photographing content |
JP2012049840A (en) * | 2010-08-27 | 2012-03-08 | Nippon Telegr & Teleph Corp <Ntt> | Video editing device, video editing method, video editing program, and computer readable storage medium |
Non-Patent Citations (1)
Title |
---|
北田 裕保: "NHK「第32回番組技術展」", 放送技術, vol. 第5号,第56巻, JPN6017047156, 1 May 2003 (2003-05-01), pages 136 - 141 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021137671A1 (en) * | 2020-01-03 | 2021-07-08 | Samsung Electronics Co., Ltd. | Video generation apparatus and video generation method performed by the video generation apparatus |
WO2022114924A1 (en) * | 2020-11-30 | 2022-06-02 | 키네마스터 주식회사 | Video editing ui control method and device |
Also Published As
Publication number | Publication date |
---|---|
WO2016095071A1 (en) | 2016-06-23 |
CN105519095A (en) | 2016-04-20 |
CN105519095B (en) | 2018-06-12 |
JP6367334B2 (en) | 2018-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6367334B2 (en) | Video processing method, apparatus, and playback apparatus | |
WO2018149175A1 (en) | Video-recording method and apparatus, and electronic device | |
WO2019057198A1 (en) | Video recording method and device | |
JP4551668B2 (en) | Minute file generation method, minutes file management method, conference server, and network conference system | |
JP5112287B2 (en) | Method and system for providing distributed editing and storage of digital media over a network | |
JP2017503394A (en) | VIDEO PROCESSING METHOD, VIDEO PROCESSING DEVICE, AND DISPLAY DEVICE | |
JP3636830B2 (en) | Intelligent video camera and intelligent still camera | |
US11570415B2 (en) | Methods, systems, and media for generating a summarized video using frame rate modification | |
CN104916298B (en) | Decoding method, coding and decoding device, electronic equipment and talking picture generation method | |
TW200822078A (en) | Unit and method for processing information, and computer program | |
JP2008092492A (en) | Data processing apparatus and method, and computer program | |
JP5135733B2 (en) | Information recording apparatus, information recording method, and computer program | |
JP5759212B2 (en) | Scenario editing apparatus, scenario editing method, and imaging system | |
WO2008032495A1 (en) | Data processing device, data processing method, and computer program | |
JP2012217144A (en) | Image editing device, image editing method, and program | |
WO2009022781A1 (en) | Method and apparatus for generating and reproducing media object-based metadata | |
JP2005117083A (en) | Reproducing apparatus, recording apparatus, reproduction program and computer-readable recording medium with reproduction program recorded thereon | |
CN105407282A (en) | Photographing method and replay method | |
JP2012138804A (en) | Image processor, image processing method, and program | |
KR101449430B1 (en) | Method and apparatus for generating movie-in-short of contents | |
JP2008283708A (en) | Playback apparatus | |
JP2002101381A (en) | Reproducing device and method, and storage medium | |
KR100902497B1 (en) | Mobile contents playing device with play point selection function by selecting script and method for the same | |
JP2011193386A (en) | Electronic apparatus and image processing method | |
JP2003333487A (en) | Device for recording/reproducing moving image and method for the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161124 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20161219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170322 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170606 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170904 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20171212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180412 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20180420 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180605 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180704 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6367334 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |