JP2017505012A - Video processing method, apparatus, and playback apparatus - Google Patents

Video processing method, apparatus, and playback apparatus Download PDF

Info

Publication number
JP2017505012A
JP2017505012A JP2016536996A JP2016536996A JP2017505012A JP 2017505012 A JP2017505012 A JP 2017505012A JP 2016536996 A JP2016536996 A JP 2016536996A JP 2016536996 A JP2016536996 A JP 2016536996A JP 2017505012 A JP2017505012 A JP 2017505012A
Authority
JP
Japan
Prior art keywords
video
video clip
attribute information
clip
editing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016536996A
Other languages
Japanese (ja)
Other versions
JP6367334B2 (en
Inventor
バイ、ガオピン
ライ、ヤジュン
リアン、タイウェン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Publication of JP2017505012A publication Critical patent/JP2017505012A/en
Application granted granted Critical
Publication of JP6367334B2 publication Critical patent/JP6367334B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

本発明の実施例は、ビデオ処理方法、ビデオ処理装置及び再生装置を提供する。前記方法は、再生している目標ビデオに対する編集操作を取得し、前記編集操作により選定されたビデオクリップを決定するステップと、前記目標ビデオを編集するために、前記選定されたビデオクリップの属性情報を記録するステップと、を含む。本発明では目標ビデオにおいてビデオクリップを決定し且つビデオクリップ情報を記憶することによって、ユーザーは記憶されたビデオクリップの属性情報に基づきビデオファイルを合成することができ、専門的なビデオ編集ソフトウェアにより編集する必要がなく、操作が簡単である。Embodiments of the present invention provide a video processing method, a video processing apparatus, and a playback apparatus. The method includes obtaining an editing operation on a target video being played, determining a video clip selected by the editing operation, and attribute information of the selected video clip for editing the target video. Recording. In the present invention, by determining the video clip in the target video and storing the video clip information, the user can synthesize the video file based on the stored attribute information of the video clip and can be edited by professional video editing software. The operation is simple.

Description

本発明はマルチメディア技術の分野に関し、特にビデオ処理方法、装置及び再生装置に関する。   The present invention relates to the field of multimedia technology, and more particularly to a video processing method, apparatus, and playback apparatus.

電子製品の普及に伴い、デジタルカメラ、ビデオカメラ及びスマートフォンなどの大部分は撮像機能を備え、且つ幅広く用いられてビデオを記録する。   With the widespread use of electronic products, most digital cameras, video cameras, smartphones, and the like have an imaging function and are widely used to record video.

現在、ビデオの編集は一般的に、ある録画されたビデオに音楽、字幕を加える編集、複数の録画されたビデオを1つの結合ビデオに組み合わせる編集、及び録画されたビデオを専門的なビデオクリップアプリケーションによってクリッピングし、不要なビデオ内容を削除して、必要な内容のみを保持するなどの編集を含む。   Currently, video editing is generally music, editing to add subtitles to one recorded video, editing combining multiple recorded videos into one combined video, and professional video clip application for recorded video Including editing such as clipping, deleting unnecessary video content and keeping only necessary content.

現在のビデオの編集方式は、比較的専門的なビデオクリップアプリケーションを用いて録画されたビデオを編集処理し、普通のユーザーにとっては操作が不便で、手間や時間がかかる。   The current video editing method edits a recorded video using a relatively specialized video clip application, which is inconvenient for ordinary users and takes time and effort.

本発明の実施例が主に解決しようとする技術的課題は、容易且つ迅速に再生しているビデオを編集記録することができるビデオ処理方法、ビデオ処理装置及び再生装置を提供することである。   The technical problem to be solved mainly by the embodiments of the present invention is to provide a video processing method, a video processing apparatus, and a playback apparatus capable of editing and recording a video being played back easily and quickly.

一態様において、本発明の実施例は、ビデオ処理方法であって、
再生している目標ビデオに対する編集操作を取得し、前記編集操作により選定されたビデオクリップを決定するステップと、
前記選定されたビデオクリップの属性情報を記録して、前記目標ビデオを編集するステップと、
を含むビデオ処理方法を提供する。
In one aspect, an embodiment of the present invention is a video processing method comprising:
Obtaining an editing operation on the target video being played, and determining a video clip selected by the editing operation;
Recording attribute information of the selected video clip and editing the target video;
A video processing method is provided.

別の態様において、本発明の実施例は、ビデオ処理装置であって、
再生している目標ビデオに対する編集操作を取得し、前記編集操作により選定されたビデオクリップを決定するための取得モジュールと、
前記選定されたビデオクリップの属性情報を記録して、前記目標ビデオを編集するための記録モジュールと、
を含むビデオ処理装置を更に提供する。
In another aspect, an embodiment of the present invention is a video processing apparatus comprising:
An acquisition module for acquiring an editing operation on a target video being played and determining a video clip selected by the editing operation;
A recording module for recording attribute information of the selected video clip and editing the target video;
A video processing apparatus is further provided.

また別の態様において、本発明の実施例は、再生装置であって、プレーヤーとプロセッサを含み、
前記プレーヤーは、ビデオを再生することに用いられており、
前記プロセッサは、再生している目標ビデオに対する編集操作を取得し、前記編集操作により選定されたビデオクリップを決定しており、且つ前記目標ビデオを編集するために、前記選定されたビデオクリップの属性情報を記録することに用いられる再生装置を更に提供する。
In another aspect, an embodiment of the present invention is a playback device, which includes a player and a processor,
The player is used to play a video,
The processor obtains an editing operation on the target video being played, determines a video clip selected by the editing operation, and attributes of the selected video clip to edit the target video There is further provided a playback apparatus used for recording information.

本発明の実施例では目標ビデオにおいてビデオクリップを決定し且つビデオクリップ情報を記憶することによって、ユーザーは記憶されたビデオクリップの属性情報に基づきビデオファイルを合成することができ、専門的なビデオ編集ソフトウェアにより編集する必要がなく、操作が簡単である。   In an embodiment of the present invention, by determining a video clip in the target video and storing the video clip information, the user can synthesize a video file based on the stored video clip attribute information, and professional video editing There is no need to edit by software, and operation is simple.

図1は、本発明の実施例に係るビデオ処理方法のフローチャートである。FIG. 1 is a flowchart of a video processing method according to an embodiment of the present invention. 図2は、本発明の実施例に係る別のビデオ処理方法のフローチャートである。FIG. 2 is a flowchart of another video processing method according to an embodiment of the present invention. 図3は、本発明の実施例に係るまた別のビデオ処理方法のフローチャートである。FIG. 3 is a flowchart of another video processing method according to an embodiment of the present invention. 図4は、本発明の実施例に係る1つのビデオ処理装置の構造を示す図である。FIG. 4 is a diagram illustrating the structure of one video processing apparatus according to an embodiment of the present invention. 図5は、本発明の実施例に係る別の1つのビデオ処理装置の構造を示す図である。FIG. 5 is a diagram showing the structure of another video processing apparatus according to an embodiment of the present invention. 図6は、図4又は図5におけるビデオ処理装置の取得モジュールを示す図である。FIG. 6 is a diagram showing an acquisition module of the video processing apparatus in FIG. 4 or FIG. 図7は、図4又は図5におけるビデオ処理装置の記録モジュールを示す図である。FIG. 7 is a diagram showing a recording module of the video processing apparatus in FIG. 4 or FIG. 図8は、図5におけるビデオ処理装置の編集モジュールを示す図である。FIG. 8 is a diagram showing an editing module of the video processing apparatus in FIG. 図9は、図5におけるビデオ処理装置の合成モジュールを示す図である。FIG. 9 is a diagram showing a synthesis module of the video processing apparatus in FIG. 図10は、図5におけるビデオ処理装置の処理モジュールを示す図である。FIG. 10 is a diagram showing a processing module of the video processing apparatus in FIG. 図11は、本発明の実施例に係る再生装置の構造を示す図である。FIG. 11 is a diagram showing the structure of a playback apparatus according to an embodiment of the present invention.

以下は、本発明の実施形態に係る添付図面を参照しながら、本発明の実施形態に係る技術的解決手段を明確かつ詳細に説明する。当然ながら、ここで説明する実施形態は本発明の実施形態の全てではなく一部にすぎない。当業者が創造的な作業なしに本発明の実施形態に基づいて得る他の全ての実施形態は、本発明の保護範囲に含むべきである。   The technical solutions according to the embodiments of the present invention will be described clearly and in detail below with reference to the accompanying drawings according to the embodiments of the present invention. Of course, the embodiments described herein are only a part rather than all of the embodiments of the present invention. All other embodiments obtained by a person of ordinary skill in the art based on the embodiments of the present invention without creative efforts shall fall within the protection scope of the present invention.

矛盾しない場合には、下記の実施例及び実施例における特徴を相互に組み合わせることができる。   If there is no contradiction, the following embodiments and the features in the embodiments can be combined with each other.

図1は、本発明の実施例に係るビデオ処理方法のフローチャートである。本発明の実施例に係る前記方法は、航空撮像装置、携帯電話、タブレットなどのビデオを再生可能な電子装置において実現することができる。具体的には、前記方法は、以下のステップを含む。   FIG. 1 is a flowchart of a video processing method according to an embodiment of the present invention. The method according to the embodiment of the present invention can be realized in an electronic device capable of reproducing a video such as an aerial imaging device, a mobile phone, and a tablet. Specifically, the method includes the following steps.

S101では、再生している目標ビデオに対する編集操作を取得し、前記編集操作により選定されたビデオクリップを決定する。   In S101, the editing operation for the target video being played back is acquired, and the video clip selected by the editing operation is determined.

前記再生している目標ビデオは、録画中のビデオ、録画済みのプレビューするビデオ又はプレイバックするビデオであってもよい。録画済みのビデオをプレビューし又はプレイバックするとき、ビデオ取得機器、例えばカメラ、ビデオカメラなどの撮像機能を有する電子機器に再生してもよく、サードパーティーの電子機器、例えば携帯電話、タブレット、パソコンなどの電子機器に再生してもよい。   The target video being played may be a video that is being recorded, a video that has been recorded, or a video that is to be played back. When the recorded video is previewed or played back, it may be played back on a video acquisition device such as an electronic device having an imaging function such as a camera or a video camera, or a third party electronic device such as a mobile phone, tablet or personal computer. You may reproduce | regenerate to electronic devices, such as.

ビデオを再生する間に、目標ビデオに対する編集操作を検出且つ取得し、編集操作を検出した後、編集操作に関連する決定ルールに基づき、目標ビデオからビデオクリップを決定する。   While playing the video, an editing operation on the target video is detected and acquired, and after detecting the editing operation, a video clip is determined from the target video based on a decision rule associated with the editing operation.

編集操作はシングルクリック操作、ダブルクリック操作又は長押し操作であってもよい。   The editing operation may be a single click operation, a double click operation, or a long press operation.

具体的には、決定ルールは、
編集操作がシングルクリック操作である場合、目標ビデオにおいてシングルクリックの時点から両側へ予め設定された時間の長さを延長し、一定の長さのビデオクリップを決定することである。本実施例において、シングルクリック時点から目標ビデオの開始方向へ2秒と延長し、目標ビデオの終了方向へ3秒と延長し、時間の長さが5秒であるビデオクリップを決定する。当然のことながら、延長時間を他の値に設定してもよく、例えば、目標ビデオの開始方向へ5秒と延長し、目標ビデオの終了方向へ5秒と延長し、時間の長さが10秒であるビデオクリップを決定してもよい。
Specifically, the decision rule is
When the editing operation is a single click operation, the length of a preset time is extended to both sides from the time of the single click in the target video, and a video clip having a certain length is determined. In this embodiment, a video clip is determined that extends from the point of single click to 2 seconds in the start direction of the target video, extends to 3 seconds in the end direction of the target video, and has a length of 5 seconds. As a matter of course, the extension time may be set to another value, for example, it is extended to 5 seconds in the start direction of the target video, 5 seconds in the end direction of the target video, and the length of time is 10 A video clip that is seconds may be determined.

編集操作が2回のダブルクリック操作である場合、前後2回のダブルクリック操作の時点に基づき、この2回のダブルクリック操作の間のビデオクリップを決定する。   When the editing operation is two double-click operations, a video clip between the two double-click operations is determined based on the time point of two double-click operations before and after.

編集操作が長押し操作である場合、この長押し操作の開始時点と終了時点に基づき、目標ビデオにおいて開始時点と終了時点の間のビデオクリップを決定する。ユーザーの機能ボタンを押す動作がビデオの再生より遅いことを回避するために、機能ボタンが押された時点を前に数秒と延長し且つこれを開始点にして、切り出されたビデオクリップがより完全であることを保証する。本実施例において、機能ボタンを押すとき、目標ビデオの開始方向へ2秒と延長する。当然のことながら、他の時間の長さを延長してもよく、同様に、目標ビデオの終了方向へ予め設定された時間の長さを延長してもよい。   When the editing operation is a long press operation, a video clip between the start time and the end time is determined in the target video based on the start time and end time of the long press operation. In order to avoid that the user presses the function button slower than the playback of the video, the time point when the function button is pressed is extended to a few seconds before and the cut video clip is more complete. Is guaranteed. In this embodiment, when the function button is pressed, the target video is extended by 2 seconds in the start direction. Of course, other lengths of time may be extended, and similarly, a preset length of time may be extended in the end direction of the target video.

S102では、前記選定されたビデオクリップの属性情報を記録して、前記目標ビデオを編集する。   In S102, attribute information of the selected video clip is recorded, and the target video is edited.

前記S101において決定されたビデオクリップの属性情報を記憶し、この属性情報が目標ビデオにおけるビデオクリップの開始時点、終了時点及びこのビデオクリップが選定された時の時間情報を含む。また、属性情報は幾つかの記述情報、例えばビデオクリップのフォーマット、時間の長さ、メモリ消費量、撮影地点、撮影経路、及びビデオクリップの選択元となる目標ビデオのファイル名、解像度、フレームレートなどを含んでもよい。   The attribute information of the video clip determined in S101 is stored, and this attribute information includes the start time and end time of the video clip in the target video and time information when this video clip is selected. The attribute information includes some description information, such as video clip format, length of time, memory consumption, shooting location, shooting route, and target video file name, resolution, frame rate from which the video clip is selected. Etc. may be included.

このビデオクリップが記録した属性情報は、目標ビデオを編集することに用いられてもよい。具体的には、ビデオ合成指令を検出すると、記録された属性情報に基づき、目標ビデオからすべての属性情報が対応するビデオクリップを抽出し、抽出されたビデオクリップを結合して、ビデオファイルを作成する。ここで、ビデオクリップを結合するとき、目標ビデオにおけるビデオクリップの時点に基づきビデオクリップを順序付け、そして結合してもよく、ビデオクリップの目標ビデオにおいて決定された時点に基づきビデオクリップを順序付け、結合してもよい。具体的には、結合ルールはユーザーの要求に応じて設定されてもよい。   The attribute information recorded by this video clip may be used to edit the target video. Specifically, when a video compositing command is detected, based on the recorded attribute information, video clips corresponding to all the attribute information are extracted from the target video, and the extracted video clips are combined to create a video file. To do. Here, when combining video clips, the video clips may be ordered and combined based on the time points of the video clips in the target video, and the video clips may be ordered and combined based on the determined time points in the target video of the video clips. May be. Specifically, the combination rule may be set according to a user request.

また、航空撮像装置などのビデオ取得とローカル操作とが分離した機器は、ローカルにキャッシュされたビデオにおいてビデオクリップを決定し、前記ビデオクリップの対応の記述情報を記憶し、続いて保存された各ビデオクリップに対応の記述情報に基づき前記航空撮像装置における記憶媒体、例えばメモリカードに記録されたビデオから対応のビデオクリップを抽出してもよい。このため、ローカルにキャッシュされた解像度が比較的低いが、航空撮像装置の記憶媒体に記録されたビデオの解像度が比較的高いとき、まず低解像度のビデオにおいてビデオクリップの記述情報を決定し、記述情報に基づき続いて高解像度のビデオからビデオクリップを抽出する。   In addition, a device that separates video acquisition and local operation, such as an aerial imaging device, determines a video clip in a locally cached video, stores corresponding description information of the video clip, and then saves each saved video Based on the description information corresponding to the video clip, the corresponding video clip may be extracted from the video recorded on the storage medium in the aerial imaging apparatus, for example, the memory card. For this reason, when the locally cached resolution is relatively low but the resolution of the video recorded on the storage medium of the aerial imaging device is relatively high, the video clip description information is first determined and described in the low resolution video. The video clip is then extracted from the high resolution video based on the information.

目標ビデオからビデオクリップを抽出するとき、ビデオクリップの解像度を変更してもよい。例えば、前記ビデオクリップの解像度を縮小して、空間を節約してもよく、又は補間技術などの方法を用いてビデオクリップの解像度を向上させてもよい。   When extracting a video clip from the target video, the resolution of the video clip may be changed. For example, the video clip resolution may be reduced to save space, or the video clip resolution may be improved using methods such as interpolation techniques.

また、記録された属性情報を編集する編集操作指令を受信し取得すると、編集操作指令に基づきビデオクリップの属性情報を編集してもよい。具体的には、この編集操作は、記録された属性情報の修正、新たな属性情報の追加、及び属性情報の削除の中のいずれか一つ又は複数を含む。   Further, when an editing operation command for editing the recorded attribute information is received and acquired, the attribute information of the video clip may be edited based on the editing operation command. Specifically, this editing operation includes one or more of correction of recorded attribute information, addition of new attribute information, and deletion of attribute information.

編集操作が記録された属性情報の修正である場合、修正操作指令を受信すると、属性情報中のビデオの開始時点及び/又は終了時点を修正してもよく、これによって、決定されたビデオクリップを延長又は短縮し、あるいはビデオクリップを前又は後ろに移動する。ビデオクリップの他の属性情報、例えば撮影地点、フォーマット、解像度などの記述情報を修正してもよい。   When the editing operation is a modification of the recorded attribute information, when the modification operation command is received, the start time and / or the end time of the video in the attribute information may be modified. Extend or shorten, or move video clip forward or backward. Other attribute information of the video clip, for example, description information such as a shooting point, format, and resolution may be modified.

編集操作が新たな属性情報の追加である場合、追加操作指令を受信すると、目標ビデオを再度再生し、目標ビデオに対する編集操作を再び受け、且つ編集操作により選定されたビデオクリップを決定して、この新たに選定されたビデオクリップの属性情報を追加し記録する。   When the editing operation is addition of new attribute information, when an additional operation command is received, the target video is reproduced again, the editing operation for the target video is received again, and the video clip selected by the editing operation is determined. The attribute information of the newly selected video clip is added and recorded.

編集操作が属性情報の削除である場合、削除操作指令を受信すると、削除操作指令により指定されたビデオクリップに基づき、この指定されたビデオクリップの対応の属性情報を削除する。   When the editing operation is deletion of attribute information, when a deletion operation command is received, the corresponding attribute information of the specified video clip is deleted based on the video clip specified by the deletion operation command.

属性情報に対する編集を完成した後、ビデオ合成指令を検出するとき、編集された属性情報に基づき目標ビデオからビデオクリップを抽出し結合して、ビデオファイルを生成する。   When the video compositing command is detected after the editing of the attribute information is completed, the video clip is extracted from the target video based on the edited attribute information and combined to generate a video file.

更に、ビデオクリップを決定した後、決定されたビデオクリップを記憶してもよい。ビデオクリップのビデオストリームを特定のフォーマット、例えばMP4(Moving Picture Experts Group Audio Layer IV、MPEGオーディオレイヤ4)、AVI(Audio Video Interleave、オーディオ ビデオ インターリーブ)、及びMOV(Quicktime Movie Format、クイックタイムムービーフォーマット)などのフォーマットに従って記憶媒体内に記憶する。ユーザーは各ビデオクリップをプレビューしてもよく、ビデオクリップを1つのビデオファイルに結合して再生又はプレビューしてもよい。記憶されたビデオクリップは、1回再生中に選定されてもよく、目標ビデオを複数回再生して選定されてもよい。このため、ビデオクリップの記憶時間の時間順と目標ビデオにおけるビデオクリップの時間順とは一致しない可能性がある。ビデオクリップを結合する間に、ビデオクリップが記憶された時の時間順に基づき順次重ね合わせてもよく、目標ビデオにおけるビデオクリップの時点に基づき順序付けて、ビデオファイルに結合してもよい。   Further, after the video clip is determined, the determined video clip may be stored. The video stream of the video clip is in a specific format such as MP4 (Moving Picture Experts Group Audio Layer IV, MPEG Audio Layer 4), AVI (Audio Video Interleave, Audio Video Interleave), and MOV (Quicktime Movie). Or the like in the storage medium according to the format. The user may preview each video clip or combine the video clips into a single video file for playback or preview. The stored video clip may be selected during one playback or may be selected by playing the target video multiple times. For this reason, there is a possibility that the time order of the storage time of the video clip does not match the time order of the video clip in the target video. While combining video clips, they may be sequentially superimposed based on the time order when the video clips were stored, or may be combined based on the time points of the video clips in the target video and combined into the video file.

この実施例において、目標ビデオからビデオクリップを選択することと、ビデオクリップの属性情報に基づきビデオクリップを抽出し、ビデオクリップを結合してビデオファイルにすることはいずれも専門的なアプリケーション・プログラムにより実現することができる。   In this embodiment, selecting a video clip from the target video, extracting the video clip based on the video clip attribute information, and combining the video clip into a video file are both performed by a specialized application program. Can be realized.

本発明の実施例によるビデオ処理方法は、操作が簡単であり、ユーザーは専門的なビデオ編集技術を持つ必要がない。   The video processing method according to the embodiment of the present invention is easy to operate, and the user does not need to have specialized video editing technology.

図2に示すように、本発明の実施例に係る別のビデオ処理方法のフローチャートであり、具体的には、前記方法は以下のステップを含む。   As shown in FIG. 2, it is a flowchart of another video processing method according to an embodiment of the present invention. Specifically, the method includes the following steps.

S201では、再生している目標ビデオに対する編集操作を取得する。   In S201, an editing operation for the target video being played back is acquired.

本実施例において、再生している目標ビデオは、録画中のビデオ、録画済みのプレビューするビデオ又はプレイバックするビデオであってもよい。   In this embodiment, the target video being played back may be a video that is being recorded, a video that has been recorded, or a video that is to be played back.

S202では、前記編集操作に関連する決定ルールに基づき、前記目標ビデオからビデオクリップを決定する。   In S202, a video clip is determined from the target video based on a determination rule related to the editing operation.

前記編集操作は、物理的ボタン又はアプリケーション・プログラム中の機能ボタンに対するシングルクリック、ダブルクリック、又は長押し操作を含む。   The editing operation includes a single click, a double click, or a long press operation on a physical button or a function button in an application program.

編集操作がシングルクリック操作である場合、目標ビデオにおいてシングルクリックの時点より前後に予め設定された時間の長さを延長して、ビデオクリップを決定する。   When the editing operation is a single click operation, a video clip is determined by extending a preset length of time before and after the single click point in the target video.

編集操作がダブルクリック操作である場合、前後2回のダブルクリック操作の時点に基づき、この2回のダブルクリック操作の間のビデオクリップを決定する。   When the editing operation is a double-click operation, a video clip between the two double-click operations is determined based on the time point of the two double-click operations before and after.

編集操作が長押し操作である場合、この長押し操作の開始時点と終了時点に基づき、目標ビデオにおいて開始時点と終了時点の間のビデオクリップを決定する。   When the editing operation is a long press operation, a video clip between the start time and the end time is determined in the target video based on the start time and end time of the long press operation.

S203では、前記ビデオクリップの属性情報を取得する。   In S203, the attribute information of the video clip is acquired.

目標ビデオからビデオクリップを決定した後、ビデオクリップの属性情報を抽出する。   After determining the video clip from the target video, the video clip attribute information is extracted.

また、決定されたビデオクリップを記憶してもよい。   Further, the determined video clip may be stored.

S204では、前記属性情報を予め用意されたドキュメント中に記憶する。   In S204, the attribute information is stored in a prepared document.

前記ビデオクリップの属性情報をドキュメント中に記憶する。前記ドキュメントの名称は目標ビデオの名称と関連するため、ユーザーは属性情報のドキュメント名に基づきそれと対応する目標ビデオを検索することができる。このドキュメントは前記目標ビデオから独立する。   The attribute information of the video clip is stored in the document. Since the name of the document is related to the name of the target video, the user can search the corresponding target video based on the document name of the attribute information. This document is independent of the target video.

S205では、合成ビデオ操作指令を取得する。ビデオ合成イベントを検出するとき、前記ドキュメント中の属性情報に基づき目標ビデオから属性情報が指示するビデオクリップを抽出する。   In S205, a composite video operation command is acquired. When a video composition event is detected, a video clip indicated by the attribute information is extracted from the target video based on the attribute information in the document.

ドキュメント中の属性情報に基づき目標ビデオから属性情報が指示するビデオクリップを抽出する前、ユーザーの要求に応じて属性情報を編集して、ドキュメントから幾つかのビデオクリップの属性情報を削除し、幾つかのビデオクリップと対応する属性情報を修正し、又はドキュメントに新たなビデオクリップの属性情報を追加してもよい。前記ドキュメントを複数回編集してもよい。   Before extracting the video clip indicated by the attribute information from the target video based on the attribute information in the document, edit the attribute information according to the user's request and delete the attribute information of some video clips from the document. The attribute information corresponding to the video clip may be corrected, or new video clip attribute information may be added to the document. The document may be edited multiple times.

編集されたビデオクリップの属性情報のドキュメントがユーザーの要求を満たすとき、修正された属性情報のドキュメントに基づき目標ビデオからビデオクリップを抽出する。   When the edited video clip attribute information document satisfies the user's request, the video clip is extracted from the target video based on the modified attribute information document.

S206では、抽出されたビデオクリップをビデオファイルに合成する。   In S206, the extracted video clip is combined with the video file.

ビデオファイルに合成するとき、目標ビデオにおけるビデオクリップの時間順又はビデオクリップの目標ビデオにおいて決定された時点に基づき順序付け、順序付けられたビデオクリップをビデオファイルに結合する。   When compositing to a video file, the video clips are ordered based on the time order of the video clips in the target video or the time points determined in the target video of the video clips, and the ordered video clips are combined into the video file.

このビデオクリッピングは、合成された後すぐ再生されるか又は後の再生のために導出されて記憶媒体例えばパソコン、携帯電話、タブレット又はポータブルハードディスクなどの電子機器内に記憶されてもよい。   This video clipping may be played back immediately after being synthesized or may be derived for later playback and stored in an electronic device such as a personal computer, mobile phone, tablet or portable hard disk.

ユーザーは新たな目標ビデオを開き新たな目標ビデオからビデオクリップを選択するとき、上述のステップを繰り返して、新たな目標ビデオからビデオクリップを決定し、ビデオクリップの属性情報を新たなドキュメント中に記憶する。   When the user opens a new target video and selects a video clip from the new target video, the above steps are repeated to determine the video clip from the new target video and store the video clip attribute information in the new document To do.

本発明の実施例では、ビデオクリップの属性情報を予め用意されたドキュメント中に記憶するため、ユーザーがクリッピングしたビデオクリップを記憶しなくても、このドキュメント中の情報に基づき目標ビデオからビデオを抽出し、メモリスペースを節約することができる。   In the embodiment of the present invention, since the attribute information of the video clip is stored in a document prepared in advance, the video is extracted from the target video based on the information in the document without storing the video clip clipped by the user. And memory space can be saved.

図3に示すように、本発明の実施例に係るまた別のビデオ処理方法のフローチャートであり、具体的には、前記方法は以下のステップを含む。   FIG. 3 is a flowchart of still another video processing method according to an embodiment of the present invention. Specifically, the method includes the following steps.

S301では、再生している目標ビデオに対する編集操作を取得する。   In S301, an editing operation for the target video being played back is acquired.

S302では、前記編集操作に関連する決定ルールに基づき、前記目標ビデオからビデオクリップを決定する。   In S302, a video clip is determined from the target video based on a determination rule related to the editing operation.

S303では、前記ビデオクリップの属性情報を取得する。   In S303, the attribute information of the video clip is acquired.

S304では、前記属性情報を目標ビデオに埋め込む。   In S304, the attribute information is embedded in the target video.

具体的には、取得されたビデオクリップの属性情報を目標ビデオ中に埋め込み、例えば目標ビデオにビデオクリップの開始時点と終了時点をマーキングし、このビデオクリップを命名し又は簡単に記述してもよく、又は、このビデオクリップが決定された時点をマーキングしてもよい。このビデオクリップの属性情報は共に目標ビデオ中にカプセル化する。ユーザーは目標ビデオを開いた後、決定されたビデオクリップをクリックし、ビデオクリップをプレビューする。   Specifically, the acquired video clip attribute information may be embedded in the target video, for example, the start time and end time of the video clip may be marked in the target video, and this video clip may be named or simply described Alternatively, the point in time when this video clip is determined may be marked. Both the attribute information of this video clip are encapsulated in the target video. After opening the target video, the user clicks on the determined video clip to preview the video clip.

S305では、合成ビデオ操作指令を取得する。ビデオ合成イベントを検出するとき、前記ドキュメント中の属性情報に基づき目標ビデオから属性情報が指示するビデオクリップを抽出する。   In S305, a composite video operation command is acquired. When a video composition event is detected, a video clip indicated by the attribute information is extracted from the target video based on the attribute information in the document.

合成ビデオ操作指令を取得するとき、目標ビデオを開き、決定されたビデオクリップを抽出し、ビデオクリップを記憶する。   When obtaining the composite video operation command, the target video is opened, the determined video clip is extracted, and the video clip is stored.

S306では、抽出されたビデオクリップをビデオファイルに合成する。   In S306, the extracted video clip is combined with a video file.

抽出されたビデオクリップを結合する前に、ビデオクリップの目標ビデオにおける時間又はビデオクリップが決定された時点に基づき順序付け、順序付けられたビデオクリップを結合して、ビデオファイルを得る。   Prior to combining the extracted video clips, the video clips are ordered based on the time in the target video or when the video clips are determined, and the ordered video clips are combined to obtain a video file.

本実施例において、目標ビデオに選定されたビデオクリップの属性情報を埋め込むため、目標ビデオを再生すると同時にビデオクリップの属性情報を知ることができ、且つ目標ビデオを再生する間に、ユーザーはビデオクリップの属性情報をいつでも修正することができる。   In this embodiment, since the attribute information of the selected video clip is embedded in the target video, the user can know the attribute information of the video clip at the same time as the target video is played, and the user can play the video clip while playing the target video. The attribute information can be corrected at any time.

本発明の実施例では、目標ビデオにおいてビデオクリップを決定し且つビデオクリップの情報を記憶することによって、ユーザーは記憶されたビデオクリップの属性情報に基づきビデオファイルを合成することができる。且つ、ビデオクリップの属性情報を編集することによってビデオファイルの編集を実現することができ、専門的なビデオ編集ソフトウェアにより編集する必要がなく、操作が簡単である。録画する間にビデオクリップをマーキングすることができ、続いて目標ビデオをプレイバックしてビデオクリップを決定する必要がなく、時間を節約する。   In an embodiment of the present invention, by determining a video clip in the target video and storing the video clip information, a user can synthesize a video file based on the stored video clip attribute information. In addition, editing of the video file can be realized by editing the attribute information of the video clip, and it is not necessary to edit with specialized video editing software, and the operation is simple. Video clips can be marked during recording, and the target video need not be subsequently played back to determine the video clip, saving time.

以下では、本発明の実施例に係るビデオ処理装置及び再生装置を説明する。   Hereinafter, a video processing apparatus and a playback apparatus according to an embodiment of the present invention will be described.

図4に示すように、本発明の実施例に係る1つのビデオ処理装置の構造を示す図である。このビデオ処理装置は、航空撮像装置、携帯電話、タブレット、ビデオカメラ、航空撮像装置などのビデオ再生可能な電子装置に配置されることができる。具体的には、前記ビデオ処理装置は、取得モジュール1と記録モジュール2を含み、
取得モジュール1は、再生している目標ビデオに対する編集操作を取得し、前記編集操作により選定されたビデオクリップを決定することに用いられており、
記録モジュール2は、前記選定されたビデオクリップの属性情報を記録して、前記目標ビデオを編集することに用いられる。
As shown in FIG. 4, it is a figure which shows the structure of one video processing apparatus based on the Example of this invention. This video processing device can be arranged in an electronic device capable of reproducing video such as an aerial imaging device, a mobile phone, a tablet, a video camera, an aerial imaging device. Specifically, the video processing apparatus includes an acquisition module 1 and a recording module 2,
The acquisition module 1 is used to acquire an editing operation for the target video being played and determine a video clip selected by the editing operation.
The recording module 2 is used to record attribute information of the selected video clip and edit the target video.

目標ビデオを再生する間に、取得モジュール1はユーザーが目標ビデオに対する編集操作、例えばユーザーが編集操作する時のシングルクリック操作、ダブルクリック操作又は長押し操作を取得し、シングルクリック操作、ダブルクリック操作及び長押し操作と対応する決定ルールに基づき目標ビデオからビデオクリップを決定する。   While the target video is played back, the acquisition module 1 acquires a single-click operation, a double-click operation or a long-press operation when the user performs an editing operation on the target video, for example, a user performs an editing operation. A video clip is determined from the target video based on a determination rule corresponding to the long press operation.

記録モジュール2は、前記取得モジュール1が決定したビデオクリップの属性情報を記憶して、記憶された属性情報に基づき目標ビデオを編集する。   The recording module 2 stores the attribute information of the video clip determined by the acquisition module 1, and edits the target video based on the stored attribute information.

図5に示すように、前記ビデオ処理装置は、再生モジュール3、編集モジュール4、合成モジュール5、及び処理モジュール6を更に含んでもよい。   As shown in FIG. 5, the video processing apparatus may further include a playback module 3, an editing module 4, a synthesis module 5, and a processing module 6.

前記再生モジュール3は、ビデオを再生することに用いられる。前記再生モジュール3が再生するビデオは、録画中のビデオ、録画済みのプレビューするビデオ又はプレイバックするビデオであってもよく、決定されたビデオクリップ又は最終的に合成されたビデオファイルであってもよい。   The reproduction module 3 is used for reproducing video. The video played by the playback module 3 may be a video that is being recorded, a video that has been recorded, a video that is to be played back, a video clip that has been determined, or a final synthesized video file. Good.

編集モジュール4は、記録されたビデオクリップの属性情報の編集に用いられる。この編集は、幾つかのビデオクリップの属性情報を修正、削除すること及びビデオクリップの属性情報を追加することを含む。前記合成モジュール5は、ビデオファイルを合成することに用いられる。処理モジュール6は、ビデオクリップを処理することに用いられる。   The editing module 4 is used for editing the attribute information of the recorded video clip. This editing includes modifying and deleting some video clip attribute information and adding video clip attribute information. The synthesizing module 5 is used for synthesizing video files. The processing module 6 is used to process video clips.

図6に示すように、前記取得モジュール1は、編集取得ユニット11とビデオマーキングユニット12を含む。前記編集取得ユニット11は、再生している目標ビデオに対する編集操作を取得することに用いられ、この操作がシングルクリック操作、ダブルクリック操作及び長押し操作を含む。ビデオマーキングユニット12は、前記編集操作に関連する決定ルールに基づき、前記再生している目標ビデオからビデオクリップを決定することに用いられる。   As shown in FIG. 6, the acquisition module 1 includes an edit acquisition unit 11 and a video marking unit 12. The edit acquisition unit 11 is used to acquire an edit operation for the target video being played back, and this operation includes a single click operation, a double click operation, and a long press operation. The video marking unit 12 is used to determine a video clip from the target video being played based on a determination rule related to the editing operation.

具体的には、編集取得ユニット11が取得した編集操作はシングルクリック操作である場合、ビデオマーキングユニット12は目標ビデオにおいてシングルクリックの時点から両側へ予め設定された時間の長さを延長して、一定の長さのビデオクリップを決定する。本実施例において、シングルクリック時点から目標ビデオの開始方向へ2秒延長し、目標ビデオの終了方向へ3秒延長し、時間の長さが5秒であるビデオクリップを決定する。当然のことながら、延長時間を他の値に設定してもよく、例えば、目標ビデオの開始方向へ5秒延長し、目標ビデオの終了方向へ5秒延長し、時間の長さが10秒であるビデオクリップを決定してもよい。   Specifically, when the editing operation acquired by the editing acquisition unit 11 is a single click operation, the video marking unit 12 extends the length of time set in advance to both sides from the time of the single click in the target video, Determine a video clip of a certain length. In the present embodiment, a video clip is determined that extends 2 seconds from the single click point in the target video start direction, extends 3 seconds in the target video end direction, and has a time length of 5 seconds. Of course, the extension time may be set to other values, for example, 5 seconds in the start direction of the target video, 5 seconds in the end direction of the target video, and the length of time is 10 seconds. A video clip may be determined.

編集取得ユニット11が取得した編集操作は2回のダブルクリック操作である場合、ビデオマーキングユニット12は前後2回のダブルクリック操作の時点に基づき、この2回のダブルクリック操作の間のビデオクリップを決定する。   When the editing operation acquired by the editing acquisition unit 11 is two double-click operations, the video marking unit 12 selects a video clip between the two double-click operations based on the time points of the two double-click operations. decide.

編集取得ユニット11が取得した編集操作は長押し操作である場合、ビデオマーキングユニット12はこの長押し操作の開始時点と終了時点に基づき、目標ビデオから開始時点と終了時点の間のビデオクリップを決定する。ユーザーの機能ボタンを押す動作がビデオの再生より遅いことを回避するために、機能ボタンが押された時点を前に数秒と延長し且つこれを開始点にして、切り出された対象ビデオクリップがより完全であることを保証する。本実施例において、機能ボタンを押すとき、目標ビデオの開始方向へ2秒と延長する。当然のことながら、他の時間の長さを延長してもよく、同様に、目標ビデオの終了方向へ予め設定された時間の長さを延長してもよい。   When the editing operation acquired by the editing acquisition unit 11 is a long press operation, the video marking unit 12 determines a video clip between the start time and the end time from the target video based on the start time and end time of the long press operation. To do. In order to avoid the user's pressing of the function button being slower than the video playback, the time point when the function button is pressed is extended to a few seconds before and the starting target video clip is more Guarantee completeness. In this embodiment, when the function button is pressed, the target video is extended by 2 seconds in the start direction. Of course, other lengths of time may be extended, and similarly, a preset length of time may be extended in the end direction of the target video.

図7に示すように、前記記録モジュール2は、属性取得ユニット21、第1の属性記憶ユニット22及び第2の属性記憶ユニット23を含む。   As shown in FIG. 7, the recording module 2 includes an attribute acquisition unit 21, a first attribute storage unit 22, and a second attribute storage unit 23.

前記属性取得ユニット21は、前記ビデオクリップの属性情報を取得することに用いられ、この属性情報が目標ビデオにおけるビデオクリップの開始時点、終了時点及びこのビデオクリップが決定された時の時間情報を含む。また、属性情報は、ビデオクリップのフォーマット、時間の長さ、メモリ消費量、撮影地点、撮影経路、及びビデオクリップの選択元となる目標ビデオのファイル名、解像度、フレームレートなどの記述情報を含んでもよい。   The attribute acquisition unit 21 is used to acquire attribute information of the video clip, and the attribute information includes a start time and an end time of the video clip in the target video, and time information when the video clip is determined. . The attribute information includes description information such as the video clip format, time length, memory consumption, shooting location, shooting route, and the target video file name, resolution, and frame rate from which the video clip is selected. But you can.

前記第1の属性記憶ユニット22は、前記属性取得ユニット21が取得したビデオクリップの属性情報を予め用意されたドキュメント中に記憶することに用いられる。   The first attribute storage unit 22 is used to store the attribute information of the video clip acquired by the attribute acquisition unit 21 in a document prepared in advance.

前記ビデオクリップの属性情報を、予め用意されたドキュメント中に記憶する方式で記憶するとき、前記ドキュメントの名称は目標ビデオの名称と関連するため、ユーザーは属性情報のドキュメント名に基づきそれと対応する目標ビデオを検索することができる。当然のことながら、このドキュメントは他の名称に命名されてもよい。このドキュメントは前記目標ビデオから独立する。   When the attribute information of the video clip is stored in a manner to be stored in a document prepared in advance, since the name of the document is related to the name of the target video, the user can select the target corresponding to the name based on the document name of the attribute information. You can search for videos. Of course, this document may be named under other names. This document is independent of the target video.

前記第2の属性記憶ユニット23は、前記属性取得ユニット21が取得したビデオクリップの属性情報を目標ビデオの情報中に埋め込むことに用いられる。   The second attribute storage unit 23 is used for embedding the attribute information of the video clip acquired by the attribute acquisition unit 21 in the information of the target video.

前記ビデオクリップの属性情報を、目標ビデオに埋め込む方式で記憶するとき、取得されたビデオクリップの属性情報を目標ビデオ中に埋め込み、例えば目標ビデオにビデオクリップの開始時点と終了時点をマーキングし、このビデオクリップを命名し又は簡単に記述してもよく、あるいは、このビデオクリップが決定された時点をマーキングしてもよい。このビデオクリップの情報は共に目標ビデオ中にカプセル化する。ユーザーは目標ビデオを開いた後、決定されたビデオクリップをクリックし、ビデオクリップをプレビューする。   When storing the attribute information of the video clip in a method of embedding in the target video, the acquired attribute information of the video clip is embedded in the target video, for example, marking the start time and end time of the video clip in the target video, The video clip may be named or briefly described, or it may be marked when this video clip is determined. Both information of this video clip is encapsulated in the target video. After opening the target video, the user clicks on the determined video clip to preview the video clip.

図8に示すように、記憶されたビデオクリップの属性情報を編集する必要があるとき、編集モジュール4を用いて編集する。前記編集モジュール4は、指令取得ユニット41と編集ユニット42を含む。前記指令取得ユニットは、記録された属性情報を編集する編集操作指令を取得することに用いられる。指令取得ユニット41は、記録された属性情報を編集する編集操作指令を受信し取得すると、前記編集ユニット42は、取得された編集操作指令に基づきビデオクリップの属性情報を編集する。具体的には、この編集操作は、記録された属性情報の修正、新たな属性情報の追加、及び属性情報の削除の中のいずれか一つ又は複数を含む。   As shown in FIG. 8, when the attribute information of the stored video clip needs to be edited, the editing is performed using the editing module 4. The editing module 4 includes a command acquisition unit 41 and an editing unit 42. The command acquisition unit is used to acquire an editing operation command for editing the recorded attribute information. When the command acquisition unit 41 receives and acquires an editing operation command for editing the recorded attribute information, the editing unit 42 edits the attribute information of the video clip based on the acquired editing operation command. Specifically, this editing operation includes one or more of correction of recorded attribute information, addition of new attribute information, and deletion of attribute information.

指令取得ユニット41は、修正操作指令を受信すると、前記ビデオクリップの属性情報に記録された開始時点、終了時点及び記述情報の中のいずれか一つ又は複数を修正する。
指令取得ユニット41は、削除操作指令を受信すると、削除指令により指定されたビデオクリップに基づき、この指定されたビデオクリップと対応する属性情報を削除する。
指令取得ユニット41は、追加操作指令を受信すると、目標ビデオを再度再生し、再度再生する目標ビデオに対する編集操作を受け、前記編集操作により選定されたビデオクリップを決定して、前記選定されたビデオクリップの属性情報を追加し記録する。
When receiving the correction operation command, the command acquisition unit 41 corrects one or more of the start time, end time, and description information recorded in the attribute information of the video clip.
When receiving the delete operation command, the command acquisition unit 41 deletes the attribute information corresponding to the specified video clip based on the video clip specified by the delete command.
Upon receiving the additional operation command, the command acquisition unit 41 plays back the target video again, receives an editing operation on the target video to be played back again, determines a video clip selected by the editing operation, and selects the selected video. Add and record clip attribute information.

図9に示すように、前記合成モジュール5は、制御ユニット51と合成ユニット52を含む。前記合成モジュール4は、前記記録モジュール2に記録されたビデオクリップの属性情報に基づきビデオを編集することに用いられる。   As shown in FIG. 9, the synthesis module 5 includes a control unit 51 and a synthesis unit 52. The synthesizing module 4 is used to edit a video based on the attribute information of the video clip recorded in the recording module 2.

前記制御ユニット51は、ビデオ合成イベントを検出するとき、前記現在目標ビデオから前記属性情報が指示するビデオクリップを抽出することに用いられる。合成ユニット52は、制御ユニット51が抽出した各ビデオクリップを結合してビデオファイルを得る。ビデオファイルを合成するとき、ビデオクリップの目標ビデオにおける時点順序又はビデオクリップの決定時間に基づき順序付けて、更に結合してもよい。このビデオクリッピングは、合成された後すぐ再生されるか又は後の再生のために導出されて記憶媒体例えばパソコン、携帯電話、タブレット又はポータブルハードディスクなどの電子機器内に記憶されてもよい。   When the control unit 51 detects a video synthesis event, the control unit 51 is used to extract a video clip indicated by the attribute information from the current target video. The synthesizing unit 52 combines the video clips extracted by the control unit 51 to obtain a video file. When compositing video files, they may be further combined by ordering based on the time order in the target video of the video clips or the determination time of the video clips. This video clipping may be played back immediately after being synthesized or may be derived for later playback and stored in an electronic device such as a personal computer, mobile phone, tablet or portable hard disk.

図10に示すように、処理モジュール6は、直接にビデオクリップを結合することに用いられる。記録モジュール2は、取得モジュール1がマーキングしたビデオクリップを一括で記憶するとき、直接に処理モジュール6により記憶されたビデオクリップをビデオファイルに合成してもよい。処理モジュール6は、ビデオ取得ユニット61とビデオ処理ユニット62を含む。ビデオ取得ユニット61は、決定されたビデオクリップを取得することに用いられ、ビデオ処理ユニット62は、前記ビデオクリップを合成する。結合の時、ビデオファイルを合成するために前記ビデオクリップを順次重ね合わせてもよく、又は前記目標ビデオにおけるビデオクリップの時点に基づき前記ビデオクリップを順序付けて、前記順序付けられたビデオクリップを結合する。   As shown in FIG. 10, the processing module 6 is used to directly combine video clips. When the recording module 2 stores the video clips marked by the acquisition module 1 in a lump, the recording module 2 may directly synthesize the video clips stored by the processing module 6 into a video file. The processing module 6 includes a video acquisition unit 61 and a video processing unit 62. The video acquisition unit 61 is used to acquire the determined video clip, and the video processing unit 62 synthesizes the video clip. At the time of merging, the video clips may be sequentially superimposed to synthesize video files, or the video clips are ordered based on the time of the video clip in the target video, and the ordered video clips are merged.

本発明の実施例に係るビデオ処理装置における各モジュール及びユニットの具体的な実現は図1〜図3と対応する実施例に記載の説明を参照してもよい。   The specific implementation of each module and unit in the video processing apparatus according to the embodiment of the present invention may refer to the description in the embodiment corresponding to FIGS.

本発明の実施形態では、目標ビデオにおいてビデオクリップを決定し且つビデオクリップの情報を記憶することによって、ユーザーは記憶されたビデオクリップの属性情報に基づきビデオファイルを合成することができる。且つ、ビデオクリップの属性情報を編集することによってビデオファイルの編集を実現することができ、専門的なビデオ編集ソフトウェアにより編集する必要がなく、操作が簡単である。録画する間にビデオクリップをマーキングすることができ、続いて目標ビデオをプレイバックしてビデオクリップを決定する必要がなく、時間を節約する。   In an embodiment of the present invention, by determining a video clip in the target video and storing the video clip information, the user can synthesize a video file based on the stored video clip attribute information. In addition, editing of the video file can be realized by editing the attribute information of the video clip, and it is not necessary to edit with specialized video editing software, and the operation is simple. Video clips can be marked during recording, and the target video need not be subsequently played back to determine the video clip, saving time.

図11は、本発明の実施例に係る再生装置の構造を示す図である。本発明の実施例に係る前記再生装置は、航空撮像装置、携帯電話、タブレット、ビデオカメラ、航空撮像装置などのビデオを再生可能な電子装置であってもよい。本発明の再生装置は、プレーヤー100とプロセッサ200を含む。   FIG. 11 is a diagram showing the structure of a playback apparatus according to an embodiment of the present invention. The playback device according to an embodiment of the present invention may be an electronic device capable of playing back video, such as an aerial imaging device, a mobile phone, a tablet, a video camera, and an aerial imaging device. The playback device of the present invention includes a player 100 and a processor 200.

前記プレーヤー100は、ビデオを再生することに用いられており、
前記プロセッサ200は、再生している目標ビデオに対する編集操作を取得し、前記編集操作により選定されたビデオクリップを決定しており、且つ前記目標ビデオを編集するために、前記選定されたビデオクリップの属性情報を記録することに用いられる。
The player 100 is used to play a video,
The processor 200 obtains an editing operation on the target video being played, determines a video clip selected by the editing operation, and edits the target video to edit the target video. Used to record attribute information.

具体的には、前記プレーヤー100は、録画中のビデオ、録画済みのプレビューするビデオ又はプレイバックするビデオであってもよい目標ビデオの再生のために用いられてもよく、目標ビデオにおいて決定されたビデオクリップ又は最終的に合成されたビデオファイルの再生のために用いられてもよい。   Specifically, the player 100 may be used for playback of a target video, which may be a video that is being recorded, a video that has been recorded, a preview video, or a video to be played back, as determined in the target video It may be used for playback of video clips or finally synthesized video files.

前記プロセッサ200は、プレーヤー100が再生する目標ビデオに対する編集操作を取得し、編集操作に関連する決定ルールに基づき、前記編集操作により選定されたビデオクリップを決定しており、前記選定されたビデオクリップの属性情報を記録することに用いられる。   The processor 200 acquires an editing operation for a target video to be played back by the player 100, determines a video clip selected by the editing operation based on a determination rule related to the editing operation, and the selected video clip It is used to record the attribute information.

更に、前記プロセッサ200は、プレーヤー100が再生する目標ビデオに対するシングルクリック操作、ダブルクリック操作又は長押し操作を取得し、編集操作に関連する決定ルールに基づき、目標ビデオからビデオクリップを決定する。   Further, the processor 200 acquires a single click operation, a double click operation, or a long press operation on the target video to be played by the player 100, and determines a video clip from the target video based on a determination rule related to the editing operation.

取得された編集操作がシングルクリック操作である場合、前記シングルクリック操作が選定した時点より前に及び/又は後に予め設定された時間の長さを延長して、前記目標ビデオからビデオクリップを決定する。
取得された編集操作が2回のダブルクリック操作である場合、前後の前記2回のダブルクリック操作の時点に基づき、前記目標ビデオから前記2回のダブルクリック操作の間のビデオクリップを決定する。
取得された編集操作が長押し操作である場合、前記長押し操作の開始時点と終了時点に基づき、前記目標ビデオからビデオクリップを決定する。
When the acquired editing operation is a single click operation, a video clip is determined from the target video by extending a predetermined length of time before and / or after the time point when the single click operation is selected. .
When the acquired editing operation is two double-click operations, a video clip between the two double-click operations is determined from the target video based on the previous and second double-click operations.
If the acquired editing operation is a long press operation, a video clip is determined from the target video based on the start time and end time of the long press operation.

更に、前記プロセッサ200は具体的に、ビデオクリップの属性情報を取得し、属性情報を予め用意されたドキュメント中に記憶するか、又は属性情報を目標ビデオの情報中に埋め込むことに用いられる。ここで、前記属性情報は、ビデオクリップの目標ビデオにおける時点及び前記ビデオクリップが選定された時の時点を含んでもよく、撮影地点、撮影軌跡、解像度などの記述情報を含んでもよい。   Further, the processor 200 is specifically used to acquire the attribute information of the video clip and store the attribute information in a document prepared in advance, or to embed the attribute information in the information of the target video. Here, the attribute information may include a time point in the target video of the video clip and a time point when the video clip is selected, and may include description information such as a shooting point, a shooting locus, and a resolution.

プロセッサ200が記録された属性情報を編集するための編集操作指令を取得するとき、プロセッサ200は編集操作指令に基づき属性情報を編集する。ここで、この編集操作は、記録された属性情報の修正、新たな属性情報の追加、及び属性情報の削除の中のいずれか一つ又は複数を含む。   When the processor 200 acquires an editing operation command for editing the recorded attribute information, the processor 200 edits the attribute information based on the editing operation command. Here, the editing operation includes any one or more of correction of recorded attribute information, addition of new attribute information, and deletion of attribute information.

具体的には、修正操作指令を受信すると、前記ビデオクリップの属性情報に記録された開始時点、終了時点及び記述情報の中のいずれか一つ又は複数を修正する。
削除操作指令を受信すると、削除指令により指定されたビデオクリップに基づき、この指定されたビデオクリップと対応する属性情報を削除する。
追加操作指令を受信すると、目標ビデオを再度再生し、再度再生する目標ビデオに対する編集操作を受け、前記編集操作により選定されたビデオクリップを決定して、前記選定されたビデオクリップの属性情報を追加し記録する。
Specifically, when a correction operation command is received, one or more of the start time, end time, and description information recorded in the attribute information of the video clip is corrected.
When the delete operation command is received, the attribute information corresponding to the specified video clip is deleted based on the video clip specified by the delete command.
Upon receiving an additional operation command, the target video is played back again, an editing operation is performed on the target video to be played back again, the video clip selected by the editing operation is determined, and attribute information of the selected video clip is added And record.

更に、プロセッサ200は、ビデオ合成指令を取得すると、目標ビデオから前記属性情報が指示するビデオクリップを抽出しており、抽出された各ビデオクリップをビデオファイルに合成する。ビデオファイルを合成するとき、前記目標ビデオにおけるビデオクリップの時点に基づき順序付けて、結合してもよく、又はビデオクリップが決定された時点に基づき順序付けて、更に結合してもよい。   Furthermore, when the video synthesizing instruction is acquired, the processor 200 extracts a video clip indicated by the attribute information from the target video, and synthesizes each extracted video clip into a video file. When compositing video files, they may be ordered and combined based on the time points of the video clips in the target video, or may be ordered and further combined based on when the video clips are determined.

また、プロセッサ200は、目標ビデオから決定されたビデオクリップを直接に記憶してもよいため、ビデオ合成指令を受信すると、直接に取得し決定されたビデオクリップを、順次重ね合わせる方式で結合するか、又はまず前記ビデオクリップの目標ビデオにおける時点に基づき前記ビデオクリップを順序付けて、そして結合する。   In addition, since the processor 200 may directly store the video clip determined from the target video, when the video synthesis command is received, the processor 200 may combine the video clips that are directly acquired and determined in a method of sequentially overlapping. Or first order and combine the video clips based on the time points in the target video of the video clips.

本発明の実施例では、目標ビデオにおいてビデオクリップを決定し且つビデオクリップの情報を記憶することによって、ユーザーは記憶されたビデオクリップの属性情報に基づきビデオファイルを合成することができる。且つ、ビデオクリップの属性情報を編集することによってビデオファイルの編集を実現することができ、専門的なビデオ編集ソフトウェアにより編集する必要がなく、操作が簡単である。録画する間にビデオクリップをマーキングすることができ、続いて目標ビデオをプレイバックしてビデオクリップを決定する必要がなく、時間を節約する。   In an embodiment of the present invention, by determining a video clip in the target video and storing the video clip information, a user can synthesize a video file based on the stored video clip attribute information. In addition, editing of the video file can be realized by editing the attribute information of the video clip, and it is not necessary to edit with specialized video editing software, and the operation is simple. Video clips can be marked during recording, and the target video need not be subsequently played back to determine the video clip, saving time.

本発明による幾つかの実施例において、理解されるように、開示された関連する装置と方法は、他の方式で実現されてもよい。例えば、上述のような装置実施例は、単なる例にすぎない。例えば、前記モジュールまたはユニットの区分は、単なる論理的な機能による区分であり、実際に実現するとき他の区分方式であってもよく、例えば、複数のユニットまたは組立体が組み合わされるかまたは別のシステムに一体化してもよく、或いは幾つかの特徴が省略されまたは実行されなくてもよい。一方、示されたまたは解説された相互間の結合又は直接的な結合又は通信接続は、幾つかのインターフェイス、装置又はユニットによる間接的な結合又は通信接続であってもよく、電気的、機械的または他の形態であってもよい。   As will be appreciated, in some embodiments according to the invention, the disclosed related apparatus and methods may be implemented in other ways. For example, the apparatus embodiments as described above are merely examples. For example, the division of the module or unit is merely a division based on a logical function, and may be other division schemes when actually realized, for example, a plurality of units or assemblies may be combined or separated. It may be integrated into the system or some features may be omitted or not performed. On the other hand, the mutual coupling or direct coupling or communication connection shown or described may be an indirect coupling or communication connection by several interfaces, devices or units, electrical, mechanical Or another form may be sufficient.

前記分離部材として説明されたユニットは、物理的に分離されてもよく、物理的に分離されなくてもよく、ユニットとして示された部材は、物理的なユニットであってもよく、物理的なユニットでなくてもよく、同じところに位置してもよく、複数のネットワークユニット上に分散されてもよい。実際の需要に応じて、一部または全部のユニットを選択し、本実施例の目的を実現することができる。   The unit described as the separation member may be physically separated or may not be physically separated, and the member shown as a unit may be a physical unit, It may not be a unit, may be located at the same place, and may be distributed over a plurality of network units. Depending on the actual demand, a part or all of the units can be selected to realize the object of the present embodiment.

なお、本発明の各実施例における各機能ユニットは、1つの処理ユニットに集積されていてもよく、各ユニットが単独に物理的に存在していてもよく、2つまたは2つ以上のユニットが1つのユニットに集積されていてもよい。上述の一体化されたユニットは、ハードウエアの形で実現されてもよく、ソフトウェア機能ユニットの形で実現されてもよい。   Note that each functional unit in each embodiment of the present invention may be integrated into one processing unit, each unit may be physically present alone, or two or more units may be present. It may be integrated in one unit. The integrated unit described above may be realized in the form of hardware or may be realized in the form of a software functional unit.

前記一体化されたユニットは、ソフトウェア機能ユニットの形で実現され、かつ独立した製品として販売または使用されるとき、コンピュータにより読み取り可能な記憶媒体内に記憶されてもよい。このような理解に基づき、本発明の技術案は、本質的に、或いは、従来技術への寄与部分、或いは、この技術案の全部若しくは一部に対して、ソフトウェア製品の形式で表すことができ、このコンピュータソフトウェア製品は、1つの記録媒体に記録され、コンピュータプロセッサ(processor)に本発明の各実施例における前記方法の全部若しくは一部のステップを実行させる複数の指令が含まれていてもよい。前記記憶媒体は、USBメモリ、リムーバブルハードディスク、読み取り専用メモリ(ROM、Read−Only Memory)、ランダムアクセスメモリ(RAM、Random Access Memory)、フロッピー(登録商標)ディスクまたは光ディスクなどの様々なプログラム・コードを記憶可能である媒体を含む。   The integrated unit may be implemented in the form of a software functional unit and stored in a computer readable storage medium when sold or used as an independent product. Based on this understanding, the technical solution of the present invention can be expressed in the form of a software product in essence, a part that contributes to the prior art, or all or part of the technical solution. The computer software product may be recorded on a single recording medium, and may include a plurality of instructions that cause a computer processor to execute all or some of the steps of the method in each embodiment of the present invention. . The storage medium includes various program codes such as a USB memory, a removable hard disk, a read-only memory (ROM), a random access memory (RAM), a floppy (registered trademark) disk, or an optical disk. Includes media that can be stored.

以上の説明は本発明に係る実施形態にすぎず、本発明の特許保護範囲を限定するものではない。本発明の明細書及び添付図面によって作成したすべての同等の構造又は同等のフローの変更を、直接又は間接的に他の関連する技術分野に実施することは、いずれも同じ理由により本発明の特許保護範囲内に含まれるべきである。   The above description is only an embodiment according to the present invention, and does not limit the patent protection scope of the present invention. Any equivalent structural or equivalent flow modifications made by the specification of the present invention and the accompanying drawings may be directly or indirectly implemented in other related technical fields for the same reason. Should be within the scope of protection.

Claims (51)

ビデオ処理方法であって、
再生している目標ビデオに対する編集操作を取得し、前記編集操作により選定されたビデオクリップを決定するステップと、
前記目標ビデオを編集するために、前記選定されたビデオクリップの属性情報を記録するステップと、
を含む、
ことを特徴とするビデオ処理方法。
A video processing method comprising:
Obtaining an editing operation on the target video being played, and determining a video clip selected by the editing operation;
Recording attribute information of the selected video clip to edit the target video;
including,
A video processing method characterized by the above.
前記目標ビデオを編集するために、前記選定されたビデオクリップの属性情報を記録するステップは、
前記ビデオクリップの属性情報を取得するステップと、
前記属性情報を予め用意されたドキュメント中に記憶するステップと、
を含む、
ことを特徴とする請求項1に記載のビデオ処理方法。
In order to edit the target video, recording attribute information of the selected video clip comprises:
Obtaining attribute information of the video clip;
Storing the attribute information in a prepared document;
including,
The video processing method according to claim 1, wherein:
前記目標ビデオを編集するために、前記選定されたビデオクリップの属性情報を記録するステップは、
前記選定されたビデオクリップの属性情報を前記目標ビデオの情報中に埋め込むステップを含む、
ことを特徴とする請求項1に記載のビデオ処理方法。
In order to edit the target video, recording attribute information of the selected video clip comprises:
Embedding attribute information of the selected video clip in the information of the target video,
The video processing method according to claim 1, wherein:
前記選定されたビデオクリップの属性情報は、
目標ビデオにおける前記ビデオクリップの時点及び前記ビデオクリップが選定された時の時点及び/又は前記ビデオクリップの記述情報を含む、
ことを特徴とする請求項2又は3に記載のビデオ処理方法。
The attribute information of the selected video clip is
Including the time point of the video clip in the target video and the time point when the video clip was selected and / or descriptive information of the video clip;
The video processing method according to claim 2, wherein the video processing method is a video processing method.
ビデオ合成指令を検出すると、前記現在目標ビデオから前記属性情報が指示するビデオクリップを抽出するステップと、
抽出された各ビデオクリップをビデオファイルに合成するステップと、
を更に含む、
ことを特徴とする請求項2又は3に記載のビデオ処理方法。
Detecting a video synthesis command, extracting a video clip indicated by the attribute information from the current target video;
Compositing each extracted video clip into a video file;
Further including
The video processing method according to claim 2, wherein the video processing method is a video processing method.
前記現在目標ビデオから前記属性情報が指示するビデオクリップを抽出するステップは、
現在目標ビデオからビデオクリップを抽出するとき、前記ビデオクリップの解像度を調節するステップを更に含む、
ことを特徴とする請求項5に記載のビデオ処理方法。
Extracting the video clip indicated by the attribute information from the current target video,
Adjusting the resolution of the video clip when extracting the video clip from the current target video;
The video processing method according to claim 5, wherein:
抽出された各ビデオクリップをビデオファイルに合成するステップは、
前記目標ビデオにおける前記ビデオクリップの時点に基づき、各ビデオクリップをビデオファイルに合成するステップを含む、
ことを特徴とする請求項5に記載のビデオ処理方法。
Combining each extracted video clip into a video file
Compositing each video clip into a video file based on the time of the video clip in the target video;
The video processing method according to claim 5, wherein:
記録された属性情報を編集する編集操作指令を取得するステップと、
前記編集操作指令に基づき前記ビデオクリップの属性情報を編集するステップと、
を更に含み、
前記編集操作は、記録された属性情報の修正、新たな属性情報の追加、及び属性情報の削除の中のいずれか一つ又は複数を含む、
ことを特徴とする請求項1に記載のビデオ処理方法。
Obtaining an editing operation command for editing the recorded attribute information;
Editing the attribute information of the video clip based on the editing operation command;
Further including
The editing operation includes any one or more of correction of recorded attribute information, addition of new attribute information, and deletion of attribute information.
The video processing method according to claim 1, wherein:
前記編集操作が記録された属性情報の修正である場合、前記編集操作指令に基づき前記ビデオクリップの属性情報を編集する前記ステップは、
修正操作指令を受信すると、前記ビデオクリップの属性情報に記録された開始時点、終了時点及び記述情報の中のいずれか一つ又は複数を修正するステップを含む、
ことを特徴とする請求項8に記載のビデオ処理方法。
If the editing operation is a modification of the recorded attribute information, the step of editing the attribute information of the video clip based on the editing operation command,
Receiving a correction operation command, including a step of correcting any one or more of the start time, end time, and description information recorded in the attribute information of the video clip;
The video processing method according to claim 8, wherein:
前記編集操作が属性情報の削除である場合、前記編集操作指令に基づき前記ビデオクリップの属性情報を編集する前記ステップは、
削除操作指令を受信すると、削除指令により指定されたビデオクリップに基づき、前記指定されたビデオクリップと対応する属性情報を削除するステップを含む、
ことを特徴とする請求項8に記載のビデオ処理方法。
When the editing operation is deletion of attribute information, the step of editing the attribute information of the video clip based on the editing operation command,
Receiving a delete operation command, including deleting the attribute information corresponding to the specified video clip based on the video clip specified by the delete command;
The video processing method according to claim 8, wherein:
前記編集操作が新たな属性情報の追加である場合、前記編集操作指令に基づき前記ビデオクリップの属性情報を編集する前記ステップは、
追加操作指令を受信すると、目標ビデオを再度再生するステップと、
再度再生する目標ビデオに対する編集操作を取得し、前記編集操作により選定されたビデオクリップを決定するステップと、
前記選定されたビデオクリップの属性情報を追加して記録するステップと、
を含む、
ことを特徴とする請求項8に記載のビデオ処理方法。
When the editing operation is addition of new attribute information, the step of editing the attribute information of the video clip based on the editing operation command includes:
Receiving an additional operation command, replaying the target video;
Obtaining an editing operation for the target video to be played again, and determining a video clip selected by the editing operation;
Adding and recording attribute information of the selected video clip;
including,
The video processing method according to claim 8, wherein:
前記再生している目標ビデオは、
再生している録画中のビデオ、又は録画済みのプレビューするビデオ又はプレイバックするビデオを含む、
ことを特徴とする請求項1に記載のビデオ処理方法。
The target video being played is
Including the recorded video being played, or the recorded previewed video or the video to be played back,
The video processing method according to claim 1, wherein:
再生している目標ビデオに対する編集操作を取得し、前記編集操作により選定されたビデオクリップを決定するステップは、
再生している目標ビデオに対する編集操作を取得するステップと、
前記編集操作に関連する決定ルールに基づき、前記再生している目標ビデオからビデオクリップを決定するステップと、
を含む、
ことを特徴とする請求項1〜3のいずれか一項に記載のビデオ処理方法。
Obtaining an editing operation for the target video being played and determining a video clip selected by the editing operation,
Obtaining an editing operation on the target video being played;
Determining a video clip from the target video being played based on a decision rule associated with the editing operation;
including,
The video processing method according to claim 1, wherein the video processing method is a video processing method.
前記編集操作に関連する決定ルールに基づき、前記再生している目標ビデオからビデオクリップを決定する前記ステップは、
取得された編集操作がシングルクリック操作である場合、
前記シングルクリック操作が選定した時点より前に及び/又は後に予め設定された時間の長さを延長して、前記目標ビデオからビデオクリップを決定するステップを含む、
ことを特徴とする請求項13に記載のビデオ処理方法。
Based on the decision rule associated with the editing operation, the step of determining a video clip from the target video being played comprises:
If the acquired editing operation is a single click operation,
Determining a video clip from the target video by extending a pre-set length of time before and / or after the single click operation is selected;
The video processing method according to claim 13.
前記編集操作に関連する決定ルールに基づき、前記再生している目標ビデオからビデオクリップを決定する前記ステップは、
取得された編集操作が2回のダブルクリック操作である場合、
前後の前記2回のダブルクリック操作の時点に基づき、前記目標ビデオから前記2回のダブルクリック操作の間のビデオクリップを決定するステップを含む、
ことを特徴とする請求項13に記載のビデオ処理方法。
Based on the decision rule associated with the editing operation, the step of determining a video clip from the target video being played comprises:
If the acquired editing operation is two double-click operations,
Determining a video clip between the two double-click operations from the target video based on the time points of the two double-click operations before and after,
The video processing method according to claim 13.
前記編集操作に関連する決定ルールに基づき、前記再生している目標ビデオからビデオクリップを決定する前記ステップは、
取得された編集操作が長押し操作である場合、
前記長押し操作の開始時点と終了時点に基づき、前記目標ビデオからビデオクリップを決定するステップを含む、
ことを特徴とする請求項13に記載のビデオ処理方法。
Based on the decision rule associated with the editing operation, the step of determining a video clip from the target video being played comprises:
If the acquired editing operation is a long press operation,
Determining a video clip from the target video based on a start time and an end time of the long press operation;
The video processing method according to claim 13.
前記決定されたビデオクリップを取得するステップと、
前記ビデオクリップを順次重ね合わせてビデオファイルに合成するステップと、
を更に含む、
ことを特徴とする請求項13に記載のビデオ処理方法。
Obtaining the determined video clip;
Combining the video clips sequentially into a video file;
Further including
The video processing method according to claim 13.
前記決定されたビデオクリップを取得するステップと、
目標ビデオにおける前記ビデオクリップの時点に基づき前記ビデオクリップを順序付けるステップと、
前記順序付けられたビデオクリップを結合するステップと、
を更に含む、
ことを特徴とする請求項13に記載のビデオ処理方法。
Obtaining the determined video clip;
Ordering the video clips based on the time points of the video clips in a target video;
Combining the ordered video clips;
Further including
The video processing method according to claim 13.
前記決定されたビデオクリップを取得するステップは、
前記ビデオクリップを取得するとき、前記ビデオクリップの解像度を調節するステップを含む、
ことを特徴とする請求項17又は18に記載のビデオ処理方法。
Obtaining the determined video clip comprises:
Adjusting the resolution of the video clip when obtaining the video clip;
The video processing method according to claim 17 or 18, characterized in that:
ビデオ処理装置であって、
再生している目標ビデオに対する編集操作を取得し、前記編集操作により選定されたビデオクリップを決定するための取得モジュールと、
前記選定されたビデオクリップの属性情報を記録して、前記目標ビデオを編集するための記録モジュールと、
を含む、
ことを特徴とするビデオ処理装置。
A video processing device,
An acquisition module for acquiring an editing operation on a target video being played and determining a video clip selected by the editing operation;
A recording module for recording attribute information of the selected video clip and editing the target video;
including,
A video processing apparatus.
前記記録モジュールは、
前記ビデオクリップの属性情報を取得するための属性取得ユニットと、
前記属性情報を予め用意されたドキュメント中に記憶するための第1の属性記憶ユニットと、
を含む、
ことを特徴とする請求項20に記載のビデオ処理装置。
The recording module includes:
An attribute acquisition unit for acquiring the attribute information of the video clip;
A first attribute storage unit for storing the attribute information in a prepared document;
including,
21. A video processing apparatus according to claim 20, wherein
前記記録モジュールは、
前記ビデオクリップの属性情報を取得するための属性取得ユニットと、
前記属性情報を前記目標ビデオの情報中に埋め込むための第2の属性記憶ユニットと、
を含む、
ことを特徴とする請求項20に記載のビデオ処理装置。
The recording module includes:
An attribute acquisition unit for acquiring the attribute information of the video clip;
A second attribute storage unit for embedding the attribute information in the information of the target video;
including,
21. A video processing apparatus according to claim 20, wherein
前記属性取得ユニットは具体的に、目標ビデオにおける前記ビデオクリップの時点及び前記ビデオクリップが選定された時の時点及び/又は前記ビデオクリップの記述情報を取得することに用いられる、
ことを特徴とする請求項21又は22に記載のビデオ処理装置。
The attribute acquisition unit is specifically used to acquire the time point of the video clip in the target video and the time point when the video clip is selected and / or the description information of the video clip.
23. The video processing apparatus according to claim 21, wherein the video processing apparatus is a video processing apparatus.
合成モジュールを更に含み、
前記合成モジュールは、
ビデオ合成指令を検出すると、前記現在目標ビデオから前記属性情報が指示するビデオクリップを抽出するための制御ユニットと、
抽出された各ビデオクリップをビデオファイルに合成するための合成ユニットと、
を含む、
ことを特徴とする請求項21又は22に記載のビデオ処理装置。
Further comprising a synthesis module;
The synthesis module is
Upon detecting a video composition command, a control unit for extracting a video clip indicated by the attribute information from the current target video;
A synthesis unit for synthesizing each extracted video clip into a video file;
including,
23. The video processing apparatus according to claim 21, wherein the video processing apparatus is a video processing apparatus.
前記制御ユニットは具体的に、前記現在目標ビデオからビデオクリップを抽出するとき、前記ビデオクリップの解像度を調節することに用いられる、
ことを特徴とする請求項24に記載のビデオ処理装置。
The control unit is specifically used to adjust the resolution of the video clip when extracting the video clip from the current target video.
25. A video processing apparatus according to claim 24.
前記合成ユニットは具体的に、前記目標ビデオにおける前記ビデオクリップの時点に基づき、各ビデオクリップをビデオファイルに合成することに用いられる、
ことを特徴とする請求項24に記載のビデオ処理装置。
The combining unit is specifically used to combine each video clip into a video file based on the time of the video clip in the target video.
25. A video processing apparatus according to claim 24.
編集モジュールを更に含み、
前記編集モジュールは、
記録された属性情報を編集する編集操作指令を取得するための指令取得ユニットと、
前記編集操作指令に基づき前記ビデオクリップの属性情報を編集するための編集ユニットと、
を含み、
前記編集操作は、記録された属性情報の修正、新たな属性情報の追加、及び属性情報の削除の中のいずれか一つ又は複数を含む、
ことを特徴とする請求項20に記載のビデオ処理装置。
An edit module,
The editing module is
A command acquisition unit for acquiring an editing operation command for editing the recorded attribute information;
An editing unit for editing the attribute information of the video clip based on the editing operation command;
Including
The editing operation includes any one or more of correction of recorded attribute information, addition of new attribute information, and deletion of attribute information.
21. A video processing apparatus according to claim 20, wherein
前記編集ユニットは具体的に、
修正操作指令を受信すると、前記ビデオクリップの属性情報に記録された開始時点、終了時点及び記述情報の中のいずれか一つ又は複数を修正しており、
削除操作指令を受信すると、削除指令により指定されたビデオクリップに基づき、前記指定されたビデオクリップと対応する属性情報を削除しており、
追加操作指令を受信すると、目標ビデオを再度再生し、再度再生する目標ビデオに対する編集操作を受け、前記編集操作により選定されたビデオクリップを決定して、前記選定されたビデオクリップの属性情報を追加して記録することに用いられる、
ことを特徴とする請求項27に記載のビデオ処理装置。
The editing unit is specifically:
When receiving the correction operation command, one or more of the start time, the end time, and the description information recorded in the attribute information of the video clip are corrected,
Upon receiving the delete operation command, the attribute information corresponding to the specified video clip is deleted based on the video clip specified by the delete command,
Upon receiving an additional operation command, the target video is played back again, an editing operation is performed on the target video to be played back again, the video clip selected by the editing operation is determined, and attribute information of the selected video clip is added Used to record,
28. A video processing apparatus according to claim 27.
再生モジュールは、録画中のビデオの再生、又は録画済みのプレビューするビデオの再生若しくはプレイバックするビデオの再生のために用いられる、
ことを特徴とする請求項20に記載のビデオ処理装置。
The playback module is used for playback of a video being recorded, or playback of a recorded preview video or playback video.
21. A video processing apparatus according to claim 20, wherein
前記取得モジュールは、
再生している目標ビデオに対する編集操作を取得するための編集取得ユニットと、
前記編集操作に関連する決定ルールに基づき、前記再生している目標ビデオからビデオクリップを決定するためのビデオマーキングユニットと、
を含む、
ことを特徴とする請求項20〜22のいずれか一項に記載のビデオ処理装置。
The acquisition module is
An edit acquisition unit for acquiring an edit operation for the target video being played,
A video marking unit for determining a video clip from the target video being played based on a determination rule associated with the editing operation;
including,
The video processing apparatus according to claim 20, wherein the video processing apparatus is a video processing apparatus.
前記編集取得ユニットにより取得された編集操作がシングルクリック操作である場合、前記ビデオマーキングユニットは、前記シングルクリック操作が選定した時点より前に及び/又は後に予め設定された時間の長さを延長して、前記目標ビデオからビデオクリップを決定する、
ことを特徴とする請求項30に記載のビデオ処理装置。
When the editing operation acquired by the editing acquisition unit is a single click operation, the video marking unit extends the length of time set in advance before and / or after the time point when the single click operation is selected. Determine a video clip from the target video,
31. A video processing apparatus according to claim 30, wherein
前記編集取得ユニットにより取得された編集操作が2回のダブルクリック操作である場合、前記ビデオマーキングユニットは、前後の前記2回のダブルクリック操作の時点に基づき、前記目標ビデオから前記2回のダブルクリック操作の間のビデオクリップを決定する、
ことを特徴とする請求項30に記載のビデオ処理装置。
When the editing operation acquired by the editing acquisition unit is two double-click operations, the video marking unit is configured to perform the two double-clicks from the target video based on the time points of the two previous double-click operations. Determine the video clip during the click,
31. A video processing apparatus according to claim 30, wherein
前記編集取得ユニットにより取得された編集操作が長押し操作である場合、前記ビデオマーキングユニットは前記長押し操作の開始時点と終了時点に基づき、前記目標ビデオからビデオクリップを決定する、
ことを特徴とする請求項30に記載のビデオ処理装置。
When the editing operation acquired by the editing acquisition unit is a long press operation, the video marking unit determines a video clip from the target video based on a start time and an end time of the long press operation.
31. A video processing apparatus according to claim 30, wherein
処理モジュールを更に含み、
前記処理モジュールは、
前記決定されたビデオクリップを取得するためのビデオ取得ユニットと、
前記ビデオクリップを順次重ね合わせてビデオファイルに合成するためのビデオ処理ユニットと、
を含む、
ことを特徴とする請求項30に記載のビデオ処理装置。
A processing module;
The processing module is
A video acquisition unit for acquiring the determined video clip;
A video processing unit for sequentially superimposing the video clips into a video file;
including,
31. A video processing apparatus according to claim 30, wherein
処理モジュールを更に含み、
前記処理モジュールは、
前記決定されたビデオクリップを取得するためのビデオ取得ユニットと、
目標ビデオにおける前記ビデオクリップの時点に基づき前記ビデオクリップを順序付けて、前記順序付けられたビデオクリップを結合するためのビデオ処理ユニットと、
を含む、
ことを特徴とする請求項30に記載のビデオ処理装置。
A processing module;
The processing module is
A video acquisition unit for acquiring the determined video clip;
A video processing unit for ordering the video clips based on the time points of the video clips in a target video and combining the ordered video clips;
including,
31. A video processing apparatus according to claim 30, wherein
前記ビデオ取得ユニットは具体的に、前記決定されたビデオクリップを取得するとき、前記ビデオクリップの解像度を調節することに用いられる、
ことを特徴とする請求項34又は35に記載のビデオ処理装置。
The video acquisition unit is specifically used to adjust the resolution of the video clip when acquiring the determined video clip.
36. A video processing apparatus according to claim 34 or 35.
再生装置であって、プレーヤーとプロセッサを含み、
前記プレーヤーは、ビデオを再生することに用いられており、
前記プロセッサは、再生している目標ビデオに対する編集操作を取得し、前記編集操作により選定されたビデオクリップを決定しており、且つ前記選定されたビデオクリップの属性情報を記録して、前記目標ビデオの編集を容易にすることに用いられる、
ことを特徴とする再生装置。
A playback device comprising a player and a processor,
The player is used to play a video,
The processor acquires an editing operation for the target video being played back, determines a video clip selected by the editing operation, records attribute information of the selected video clip, and records the target video. Used to facilitate editing of
A reproducing apparatus characterized by that.
前記プロセッサは具体的に、前記ビデオクリップの属性情報を取得し、前記属性情報を予め用意されたドキュメント中に記憶することに用いられる、
請求項37に記載の再生装置。
Specifically, the processor is used to acquire attribute information of the video clip and store the attribute information in a document prepared in advance.
The playback device according to claim 37.
前記プロセッサは具体的に、前記ビデオクリップの属性情報を取得し、前記属性情報を前記目標ビデオの情報中に埋め込むことに用いられる、
請求項37に記載の再生装置。
Specifically, the processor is used to acquire attribute information of the video clip and embed the attribute information in the information of the target video.
The playback device according to claim 37.
前記プロセッサは具体的に、目標ビデオにおける前記ビデオクリップの時点及び前記ビデオクリップが選定された時の時点及び/又は前記ビデオクリップの記述情報を取得することに用いられる、
ことを特徴とする請求項38又は39に記載の再生装置。
The processor is specifically used to obtain the time point of the video clip in the target video and the time point when the video clip is selected and / or description information of the video clip.
40. A reproducing apparatus according to claim 38 or 39, wherein
前記プロセッサは具体的に、ビデオ合成指令を検出すると、前記現在目標ビデオから前記属性情報が指示するビデオクリップを抽出しており、抽出された各ビデオクリップをビデオファイルに合成することに用いられる、
ことを特徴とする請求項38又は39に記載の再生装置。
Specifically, when the processor detects a video synthesis command, the processor extracts video clips indicated by the attribute information from the current target video, and is used to synthesize each extracted video clip into a video file.
40. A reproducing apparatus according to claim 38 or 39, wherein
前記プロセッサは具体的に、前記現在目標ビデオから前記属性情報が指示するビデオクリップを抽出するとき、前記ビデオクリップの解像度を調節することに用いられる、
ことを特徴とする請求項41に記載の再生装置。
The processor is specifically used to adjust the resolution of the video clip when extracting the video clip indicated by the attribute information from the current target video.
42. The reproducing apparatus according to claim 41.
前記プロセッサは具体的に、前記目標ビデオにおける前記ビデオクリップの時点に基づき、各ビデオクリップをビデオファイルに合成することに用いられる、
ことを特徴とする請求項41に記載の再生装置。
The processor is specifically used to compose each video clip into a video file based on the time of the video clip in the target video.
42. The reproducing apparatus according to claim 41.
前記プロセッサは具体的に、記録された属性情報を編集する編集操作指令を取得しており、前記編集操作指令に基づき前記ビデオクリップの属性情報を編集することに用いられ、
前記編集操作は、記録された属性情報の修正、新たな属性情報の追加、及び属性情報の削除の中のいずれか一つ又は複数を含む、
ことを特徴とする請求項37に記載の再生装置。
The processor specifically acquires an editing operation command for editing the recorded attribute information, and is used for editing the attribute information of the video clip based on the editing operation command.
The editing operation includes any one or more of correction of recorded attribute information, addition of new attribute information, and deletion of attribute information.
38. A playback apparatus according to claim 37.
前記プロセッサは具体的に、
修正操作指令を受信すると、前記ビデオクリップの属性情報に記録された開始時点、終了時点及び記述情報の中のいずれか一つ又は複数を修正しており、
削除操作指令を受信すると、削除指令により指定されたビデオクリップに基づき、該前記指定されたビデオクリップと対応する属性情報を削除しており、
追加操作指令を受信すると、目標ビデオを再度再生し、再度再生する目標ビデオに対する編集操作を受け、前記編集操作により選定されたビデオクリップを決定して、前記選定されたビデオクリップの属性情報を追加して記録することに用いられる、
ことを特徴とする請求項44に記載の再生装置。
The processor is specifically:
When receiving the correction operation command, one or more of the start time, the end time, and the description information recorded in the attribute information of the video clip are corrected,
Upon receiving the delete operation command, the attribute information corresponding to the specified video clip is deleted based on the video clip specified by the delete command,
Upon receiving an additional operation command, the target video is played back again, an editing operation is performed on the target video to be played back again, the video clip selected by the editing operation is determined, and attribute information of the selected video clip is added Used to record,
45. The playback apparatus according to claim 44.
前記プレーヤーは、録画中のビデオ、録画済みのプレビューするビデオ、又はプレイバックするビデオを再生することに用いられる、
ことを特徴とする請求項37に記載の再生装置。
The player is used to play a video that is being recorded, a video that has already been recorded, or a video that is to be played back.
38. A playback apparatus according to claim 37.
前記プロセッサは具体的に、再生している目標ビデオに対する編集操作を取得しており、前記編集操作と関連する決定ルールに基づき、前記再生している目標ビデオからビデオクリップを決定出することに用いられる、
ことを特徴とする請求項37〜39のいずれか一項に記載の再生装置。
Specifically, the processor obtains an editing operation for the target video being played, and is used to determine a video clip from the target video being played based on a determination rule associated with the editing operation. Be
The playback device according to any one of claims 37 to 39, wherein:
前記プロセッサは具体的に、
取得された編集操作がシングルクリック操作である場合、前記シングルクリック操作が選定した時点より前に及び/又は後に予め設定された時間の長さを延長して、前記目標ビデオからビデオクリップを決定しており、
取得された編集操作が2回のダブルクリック操作である場合、前後の前記2回のダブルクリック操作の時点に基づき、前記目標ビデオから前記2回のダブルクリック操作の間のビデオクリップを決定しており、
取得された編集操作が長押し操作である場合、前記長押し操作の開始時点と終了時点に基づき、前記目標ビデオからビデオクリップを決定することに用いられる、
ことを特徴とする請求項47に記載の再生装置。
The processor is specifically:
When the acquired editing operation is a single click operation, a video clip is determined from the target video by extending a predetermined length of time before and / or after the time point when the single click operation is selected. And
If the acquired editing operation is two double-click operations, a video clip between the two double-click operations is determined from the target video based on the time points of the two previous double-click operations. And
When the acquired editing operation is a long press operation, it is used to determine a video clip from the target video based on the start time and end time of the long press operation.
The playback apparatus according to claim 47, wherein:
前記プロセッサは具体的に、前記決定されたビデオクリップを取得しており、前記ビデオクリップを順次重ね合わせてビデオファイルに合成することに用いられる、
ことを特徴とする請求項47に記載の再生装置。
The processor specifically acquires the determined video clip, and is used to sequentially superimpose the video clip and compose it into a video file.
The playback apparatus according to claim 47, wherein:
前記プロセッサは具体的に、前記決定されたビデオクリップを取得しており、目標ビデオにおける前記ビデオクリップの時点に基づき前記ビデオクリップを順序付けて、前記順序付けられたビデオクリップを結合することに用いられる、
ことを特徴とする請求項47に記載の再生装置。
The processor specifically obtains the determined video clip and is used to order the video clips based on the time points of the video clips in a target video and combine the ordered video clips.
The playback apparatus according to claim 47, wherein:
前記プロセッサは具体的に、前記決定されたビデオクリップを取得するとき、前記ビデオクリップの解像度を調節することに用いられる、
ことを特徴とする請求項49又は50に記載の再生装置。
The processor is specifically used to adjust the resolution of the video clip when obtaining the determined video clip.
The playback apparatus according to claim 49 or 50, wherein:
JP2016536996A 2014-12-14 2014-12-14 Video processing method, apparatus, and playback apparatus Expired - Fee Related JP6367334B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2014/093785 WO2016095071A1 (en) 2014-12-14 2014-12-14 Video processing method, video processing device and playing device

Publications (2)

Publication Number Publication Date
JP2017505012A true JP2017505012A (en) 2017-02-09
JP6367334B2 JP6367334B2 (en) 2018-08-01

Family

ID=55725078

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016536996A Expired - Fee Related JP6367334B2 (en) 2014-12-14 2014-12-14 Video processing method, apparatus, and playback apparatus

Country Status (3)

Country Link
JP (1) JP6367334B2 (en)
CN (1) CN105519095B (en)
WO (1) WO2016095071A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021137671A1 (en) * 2020-01-03 2021-07-08 Samsung Electronics Co., Ltd. Video generation apparatus and video generation method performed by the video generation apparatus
WO2022114924A1 (en) * 2020-11-30 2022-06-02 키네마스터 주식회사 Video editing ui control method and device

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106791909B (en) * 2016-12-01 2020-03-17 中央电视台 Video data processing method and device and server
CN106851385B (en) * 2017-02-20 2019-12-27 北京乐我无限科技有限责任公司 Video recording method and device and electronic equipment
CN108632541B (en) * 2017-03-20 2021-07-20 杭州海康威视数字技术股份有限公司 Multi-video-clip merging method and device
CN107809670B (en) * 2017-10-31 2020-05-12 长光卫星技术有限公司 Video editing system and method suitable for large-area-array meter-level high-resolution satellite
CN115103166A (en) 2018-01-19 2022-09-23 深圳市大疆创新科技有限公司 Video processing method and terminal equipment
CN110309351A (en) * 2018-02-14 2019-10-08 阿里巴巴集团控股有限公司 Video image generation, device and the computer system of data object
CN108965919A (en) * 2018-07-31 2018-12-07 优视科技新加坡有限公司 Method for processing video frequency, device, equipment/terminal/server and computer readable storage medium
CN109104642A (en) * 2018-09-26 2018-12-28 北京搜狗科技发展有限公司 A kind of video generation method and device
CN111263211B (en) * 2018-12-03 2022-02-08 深圳市炜博科技有限公司 Method for caching video data and terminal equipment
CN113645482A (en) * 2020-04-27 2021-11-12 阿里巴巴集团控股有限公司 Video processing method and device, electronic equipment and storage medium
CN112997506A (en) * 2020-05-28 2021-06-18 深圳市大疆创新科技有限公司 Video file editing method, device, system and computer readable storage medium
CN112135187B (en) * 2020-07-30 2023-07-28 广州方硅信息技术有限公司 Multimedia data generation method, intercepting method, device, equipment and storage medium
CN112422846B (en) * 2020-11-18 2022-08-30 维沃移动通信有限公司 Video recording method and electronic equipment
CN114900713B (en) * 2022-07-13 2022-09-30 深圳市必提教育科技有限公司 Video clip processing method and system
CN115567655A (en) * 2022-09-16 2023-01-03 广西电网有限责任公司南宁供电局 Circuit breaker mechanism image acquisition system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11176137A (en) * 1997-12-15 1999-07-02 Matsushita Electric Ind Co Ltd Optical disk medium and its recording method and device
JP2002297630A (en) * 2001-03-30 2002-10-11 Internatl Business Mach Corp <Ibm> Method and device for index generation, index addition system, program, and storage medium
JP2006303594A (en) * 2005-04-15 2006-11-02 Sony Corp Material recording apparatus and material recording method
JP2008227860A (en) * 2007-03-12 2008-09-25 Matsushita Electric Ind Co Ltd Device for photographing content
JP2012049840A (en) * 2010-08-27 2012-03-08 Nippon Telegr & Teleph Corp <Ntt> Video editing device, video editing method, video editing program, and computer readable storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8020100B2 (en) * 2006-12-22 2011-09-13 Apple Inc. Fast creation of video segments
KR101978216B1 (en) * 2013-01-04 2019-05-14 엘지전자 주식회사 Mobile terminal and method for controlling thereof
CN103716712A (en) * 2013-12-31 2014-04-09 上海艾麒信息科技有限公司 Video processing method based on mobile terminal
CN104052935B (en) * 2014-06-18 2017-10-20 广东欧珀移动通信有限公司 A kind of video editing method and device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11176137A (en) * 1997-12-15 1999-07-02 Matsushita Electric Ind Co Ltd Optical disk medium and its recording method and device
JP2002297630A (en) * 2001-03-30 2002-10-11 Internatl Business Mach Corp <Ibm> Method and device for index generation, index addition system, program, and storage medium
JP2006303594A (en) * 2005-04-15 2006-11-02 Sony Corp Material recording apparatus and material recording method
JP2008227860A (en) * 2007-03-12 2008-09-25 Matsushita Electric Ind Co Ltd Device for photographing content
JP2012049840A (en) * 2010-08-27 2012-03-08 Nippon Telegr & Teleph Corp <Ntt> Video editing device, video editing method, video editing program, and computer readable storage medium

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
北田 裕保: "NHK「第32回番組技術展」", 放送技術, vol. 第5号,第56巻, JPN6017047156, 1 May 2003 (2003-05-01), pages 136 - 141 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021137671A1 (en) * 2020-01-03 2021-07-08 Samsung Electronics Co., Ltd. Video generation apparatus and video generation method performed by the video generation apparatus
WO2022114924A1 (en) * 2020-11-30 2022-06-02 키네마스터 주식회사 Video editing ui control method and device

Also Published As

Publication number Publication date
WO2016095071A1 (en) 2016-06-23
CN105519095A (en) 2016-04-20
CN105519095B (en) 2018-06-12
JP6367334B2 (en) 2018-08-01

Similar Documents

Publication Publication Date Title
JP6367334B2 (en) Video processing method, apparatus, and playback apparatus
WO2018149175A1 (en) Video-recording method and apparatus, and electronic device
WO2019057198A1 (en) Video recording method and device
JP4551668B2 (en) Minute file generation method, minutes file management method, conference server, and network conference system
JP5112287B2 (en) Method and system for providing distributed editing and storage of digital media over a network
JP2017503394A (en) VIDEO PROCESSING METHOD, VIDEO PROCESSING DEVICE, AND DISPLAY DEVICE
JP3636830B2 (en) Intelligent video camera and intelligent still camera
US11570415B2 (en) Methods, systems, and media for generating a summarized video using frame rate modification
CN104916298B (en) Decoding method, coding and decoding device, electronic equipment and talking picture generation method
TW200822078A (en) Unit and method for processing information, and computer program
JP2008092492A (en) Data processing apparatus and method, and computer program
JP5135733B2 (en) Information recording apparatus, information recording method, and computer program
JP5759212B2 (en) Scenario editing apparatus, scenario editing method, and imaging system
WO2008032495A1 (en) Data processing device, data processing method, and computer program
JP2012217144A (en) Image editing device, image editing method, and program
WO2009022781A1 (en) Method and apparatus for generating and reproducing media object-based metadata
JP2005117083A (en) Reproducing apparatus, recording apparatus, reproduction program and computer-readable recording medium with reproduction program recorded thereon
CN105407282A (en) Photographing method and replay method
JP2012138804A (en) Image processor, image processing method, and program
KR101449430B1 (en) Method and apparatus for generating movie-in-short of contents
JP2008283708A (en) Playback apparatus
JP2002101381A (en) Reproducing device and method, and storage medium
KR100902497B1 (en) Mobile contents playing device with play point selection function by selecting script and method for the same
JP2011193386A (en) Electronic apparatus and image processing method
JP2003333487A (en) Device for recording/reproducing moving image and method for the same

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161124

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20161219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170904

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180412

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180605

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180704

R150 Certificate of patent or registration of utility model

Ref document number: 6367334

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees