JP2013055409A - Video editing device and control method therefor - Google Patents
Video editing device and control method therefor Download PDFInfo
- Publication number
- JP2013055409A JP2013055409A JP2011190685A JP2011190685A JP2013055409A JP 2013055409 A JP2013055409 A JP 2013055409A JP 2011190685 A JP2011190685 A JP 2011190685A JP 2011190685 A JP2011190685 A JP 2011190685A JP 2013055409 A JP2013055409 A JP 2013055409A
- Authority
- JP
- Japan
- Prior art keywords
- video
- section
- unnecessary section
- unnecessary
- background
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は映像を編集する技術に関する。 The present invention relates to a technique for editing video.
従来、撮影に熟練していない人が撮影を行う際、手ブレなどの失敗映像が多々記録される。そのため映像編集時に、失敗映像部分をカットまたは修正する編集がよく行われている。不要区間を削除する処理として、手ブレの量が所定の値より大きい動画像は記録しない又は削除するという処理が行われている。(特許文献1参照)
しかし、失敗映像部分をカットし、そのまま繋げる編集を行うと、オブジェクトが瞬間的に移動してしまったように感じるジャンプカットのような違和感が生じてしまう場合がある。そのため映像編集において時間的に不連続な映像を違和感なく繋げるために、インサートカットと呼ばれる前後の映像とは異なる映像を挿入する手法が、一般的に良く行われている。映像の一部を挿入する処理として、ユーザが選んだ映像から挿入する映像を決定するという処理が行われている。(特許文献2参照)
2. Description of the Related Art Conventionally, when a person who is not skilled in shooting performs shooting, many failure videos such as camera shake are recorded. Therefore, during video editing, editing that cuts or corrects a failed video portion is often performed. As processing for deleting unnecessary sections, processing for not recording or deleting moving images in which the amount of camera shake is greater than a predetermined value is performed. (See Patent Document 1)
However, when editing is performed by cutting the failed video portion and connecting them as they are, there may be a sense of incongruity such as a jump cut that makes it seem that the object has moved instantaneously. For this reason, in order to connect discontinuous images without any sense of incongruity in video editing, a method of inserting a video different from the previous and next video called “insert cut” is generally performed. As a process of inserting a part of the video, a process of determining the video to be inserted from the video selected by the user is performed. (See Patent Document 2)
しかしながら、特許文献2の場合、ユーザが選んだ映像によっては、不要区間前後の映像との繋がりが不自然になってしまうことがある。例えば、挿入した映像に、不要区間前後に存在していたオブジェクトが存在していると、映像の繋ぎ目の部分で、オブジェクトが瞬間的に移動したように見えてしまい、不自然である。
そこで本発明では、上記問題を解決し、映像の不要区間を削除した区間に他の映像を挿入する映像編集を行う際、編集後の映像が自然な映像となることを目的としている。
However, in Patent Document 2, depending on the video selected by the user, the connection with the video before and after the unnecessary section may become unnatural. For example, if there is an object that exists before and after the unnecessary section in the inserted video, the object appears to move instantaneously at the joint of the video, which is unnatural.
Therefore, the present invention aims to solve the above-described problem and to make the edited video a natural video when performing video editing in which another video is inserted into a section in which an unnecessary section of the video is deleted.
上記の目的を達成するための本発明の一態様による情報処理装置は以下の構成を備える。すなわち、
編集対象映像から不要区間の映像を抽出する抽出手段と、前記抽出された不要区間の映像に対応する画像に基づいて、前記不要区間に挿入する映像を前記編集対象映像から決定する決定手段と、前記決定された映像を前記不要区間に挿入する挿入手段とを備えることを特徴とする。
In order to achieve the above object, an information processing apparatus according to an aspect of the present invention includes the following arrangement. That is,
Extraction means for extracting video of an unnecessary section from the editing target video; and determination means for determining a video to be inserted into the unnecessary section from the editing target video based on an image corresponding to the extracted video of the unnecessary section; And inserting means for inserting the determined video into the unnecessary section.
本発明によれば、映像の不要区間を削除した区間に他の映像を挿入する映像編集を行う際、編集後の映像が自然な映像となるような編集を可能とする効果を得られる。 According to the present invention, when video editing is performed in which another video is inserted into a section in which an unnecessary section of the video is deleted, it is possible to obtain an effect that enables editing so that the edited video becomes a natural video.
以下、本発明の好適な実施形態について添付の図面を参照して詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
(実施形態1)
実施形態1を図面に基づいて説明する。図1は、本実施形態の映像編集装置のハードウェア構成例である。ハードディスクドライブ101は、映像データやオブジェクト情報、背景情報などのデータを蓄積する。ROM102は、プログラム格納用として用いられる。後述するフローの処理プログラムもここに格納される。RAM103は、プログラム実行時に用いられる。CPU104は、映像編集装置を統括する制御部である。後述するフローの処理もCPU104で制御される。入力機器105は、映像編集装置がユーザーからの入力を受け付ける際に用いられる。ディスプレイ106は、映像編集装置からの出力結果を表示するのに用いられる。バス107は、上記ハードディスクドライブ101、ROM102、RAM103、CPU104、入力機器105、ディスプレイ106を接続するデータ線である。
(Embodiment 1)
Embodiment 1 is demonstrated based on drawing. FIG. 1 is a hardware configuration example of a video editing apparatus according to the present embodiment. The
尚、以降では、動画像のことを映像と呼び、静止画像のことを画像と呼ぶ。途中、図3および図4を用いて、オブジェクト情報および背景情報について説明し、図5を用いて本実施形態における背景の類似判定処理について説明する。 Hereinafter, a moving image is referred to as a video, and a still image is referred to as an image. In the middle, object information and background information will be described with reference to FIGS. 3 and 4, and background similarity determination processing in the present embodiment will be described with reference to FIG.
図2は本実施形態の映像編集装置の概略を示した機能ブロック図である。記憶媒体201は、データを蓄積するハードディスク101などから成り、映像データ、オブジェクト情報、背景情報などを蓄積する。
FIG. 2 is a functional block diagram schematically showing the video editing apparatus according to the present embodiment. The
図3にオブジェクト情報の一例を示す。ID301は、オブジェクトを検出した映像を特定するための情報である。タイムスタンプ302は、オブジェクトを検出したフレームの時間情報で、単位はミリ秒である。303と304はオブジェクトの画面上の位置のx座標とy座標で、単位はピクセルである。305は検出したオブジェクトの領域の面積で、ピクセル数で表す。
FIG. 3 shows an example of object information.
306は、オブジェクトの色相の情報である。例えばオブジェクト領域のRGBの色分布情報などが上げられる。エッジ情報307は、オブジェクトのエッジの情報を示す画像データである。例えば、この画像307は、フレーム画像のオブジェクト領域を二値化し細線化した画像データである。ただし、上記エッジの情報を示すものであれば、他の方法でエッジ情報を取得しても構わない。
図4に背景情報の一例を示す。ID401は、背景を検出した映像を特定するための情報である。タイムスタンプ402は、背景を検出したフレームの時間情報で、単位はミリ秒である。403は、背景の色相の情報である。エッジ情報404は、上記エッジ情報307と同様のエッジの情報である。これも、上記エッジの情報を示すものであれば、種々の方法でエッジ情報を取得して構わない。
FIG. 4 shows an example of background information.
引き続き図2に基づいて本実施形態の映像編集装置の概略を説明する。映像編集装置202は、映像の不要区間を削除し、削除した区間に他のデータを挿入する映像編集を行う。不要区間抽出部203は、編集対象映像の不要区間を抽出する。不要区間抽出部203では、手ブレの激しい区間、明る過ぎる区間、または暗過ぎる区間などを不要区間として抽出する。例えば、手ブレの激しい区間は、各フレームの動きベクトルの平均と頻度分布の分散値から検出する。また、明る過ぎる区間と暗過ぎる区間は、フレーム画像の輝度の平均値があらかじめ定めた上限値以上または下限値以下かどうかで判定する。また、ユーザーが不要区間を抽出しても良い。尚、これらは一例でありこれらに限るものではない。
The outline of the video editing apparatus according to this embodiment will be described with reference to FIG. The
オブジェクト判定部204は、不要区間抽出部203で抽出した不要区間の直前および直後の映像に存在するオブジェクトと同一のオブジェクトが存在する映像か判定する。オブジェクトの弁別は、オブジェクトの色相情報306またはエッジ情報307をパターンマッチングすることによって行う。例えば、オブジェクトの領域を予め定めた規定数のブロックに分割し、分割したブロックごとに色の分布が一致するか判定する。一致したブロックが、予め定めた規定値以上の割合の場合同一オブジェクトと判定する。尚、これはオブジェクト弁別の方法の一例であり、これに限るものではない。
The
尚、不要区間直前および直後の映像のオブジェクトとして、不要区間直前および直後のフレーム1枚だけに存在するオブジェクトだけを用いても良いし、不要区間直前および直後のフレームから規定フレーム数前およびフレーム数後に存在するオブジェクトを用いても良い。また、不要区間内であってもオブジェクトが特定できれば、不要区間内のオブジェクトを用いてもよく、要は不要区間のオブジェクトに対応するオブジェクトであればよい。 Note that as the video object immediately before and after the unnecessary section, only an object existing in one frame immediately before and after the unnecessary section may be used, or the number of frames before and after the specified number of frames from the frames immediately before and after the unnecessary section. An object that exists later may be used. Further, if an object can be specified even in an unnecessary section, the object in the unnecessary section may be used, and the object may be any object corresponding to the object in the unnecessary section.
背景判定部205は、不要区間抽出部203で抽出した不要区間の直前または直後の映像の背景と類似する背景の映像か判定する。背景の弁別は、背景の色相情報403またはエッジ情報404をパターンマッチングすることにより行う。例えば、背景領域を予め定めた規定数のブロックに分割し、分割したブロックごとに色の分布が一致するか判定する。一致したブロックが、予め定めた規定値以上の割合の場合同一オブジェクトと判定する。尚、これは背景弁別の方法の一例であり、これに限るものではない。
The
尚、不要区間直前および直後の映像の背景として、不要区間直前および直後のフレーム1枚だけに存在する背景だけを用いても良いし、不要区間直前および直後のフレームから予め定めた規定フレーム数前およびフレーム数後の背景を用いても良い。また、不要区間内であっても背景が特定できれば、不要区間内のオブジェクトを用いてもよく、要は不要区間の背景に対応する背景であればよい。 Note that only the background existing in one frame immediately before and after the unnecessary section may be used as the background of the video immediately before and immediately after the unnecessary section, or a predetermined number of frames before the frame immediately before and after the unnecessary section. Alternatively, the background after the number of frames may be used. Further, if the background can be specified even in the unnecessary section, an object in the unnecessary section may be used, and the background may be any background corresponding to the background of the unnecessary section.
図5に基づいて、背景の類似判定処理を説明する。フレーム画像502、503は、フレーム画像501の時より少しズームインして撮影して得られた画像である。領域504は、フレーム画像502とフレーム画像503の重なり部分を示す。フレーム画像502とフレーム画像503を用いて、部分的にパターンマッチングを行うと、重なり部分504の領域がマッチする。このマッチした領域が予め定めた規定値以上の場合、フレーム画像502とフレーム画像503を類似した背景と判定する。
The background similarity determination process will be described with reference to FIG.
また、フレーム画像511は、フレーム画像502よりズームインして撮影したフレーム画像となる。フレーム画像502とフレーム画像511のどちらか一方を拡大または縮小しパターンマッチングを行う。一致した際の拡大率または縮小率が予め定めた規定値未満の場合、フレーム画像502とフレーム画像511は類似した背景の映像と判定する。
The
挿入映像決定部206は、オブジェクト判定部204および背景判定部205によって、同一オブジェクトが存在せず、かつ類似する背景ではないと判定された素材映像を、不要映像を削除した区間へ挿入する映像と決定する。尚、オブジェクト判定部204か背景判定部205の一方のみの構成で、一方の判定によって決定させてもよい。
The inserted
尚、挿入する映像として、映像ファイル単位で決定しても良いし、映像を時間的に区切った映像区間で決定しても良い。 Note that the video to be inserted may be determined in units of video files, or may be determined in video sections obtained by temporally dividing the video.
また、挿入する映像を決定する素材映像の範囲を限定してもよい。例えば、編集対象映像の撮影時刻から、予め定めた規定値だけ前後させた撮影時刻内の映像に限定してもよい。このように限定することにより、不要区間直前および直後の映像と時間的に近く、関連の強い映像から挿入する映像が可能となる。検討
また、背景の判断を行わず、不要区間直前または直後に存在するオブジェクトと同一オブジェクトが存在する映像や、類似した背景の映像に限定したり、同一オブジェクトが存在しない画像に限定してもよいし、さらに背景の判断と組み合わせてもよい。
Further, the range of the material video that determines the video to be inserted may be limited. For example, you may limit to the image | video in the imaging | photography time made to move back and forth by the predetermined defined value from the imaging | photography time of the edit object image | video. By limiting in this way, it becomes possible to insert a video that is close in time to the video immediately before and immediately after the unnecessary section and that is inserted from a highly related video. Consideration Further, without determining the background, it may be limited to a video with the same object as the object existing immediately before or immediately after the unnecessary section, a video with a similar background, or an image without the same object. In addition, it may be combined with background judgment.
例えば、同一の背景で、オブジェクトが存在しない画像に限定することは有効である。これによって、風景のみの画像が選択されるようにすることもできる。 For example, it is effective to limit the images to the same background and no object. Thereby, it is possible to select an image of only a landscape.
また、オブジェクトを認識するようにして、挿入する画像のオブジェクトは人以外にするようにし、背景は同じ画像に限定してもよい。 Further, the object may be recognized, the object of the image to be inserted may be other than a person, and the background may be limited to the same image.
ここでは、挿入する映像を不要区間の映像と類似しない映像にすることにより、上述したような違和感を感じないようすることが有効である。 Here, it is effective to prevent the above-mentioned uncomfortable feeling by making the video to be inserted a video that is not similar to the video in the unnecessary section.
このように限定することにより、不要区間直前および直後の映像と時間的に離れていても、関連のある映像から、挿入する映像を決定することが可能となる。 By limiting in this way, it is possible to determine the video to be inserted from the related video even if it is temporally separated from the video immediately before and immediately after the unnecessary section.
尚、単一の機器で撮影した映像だけではなく、複数の機器で再生した映像や、ネットワーク上の映像を挿入する映像の素材映像としてもよい。 In addition, it is good also as the raw material image | video of not only the image | video image | photographed with the single apparatus but the image | video reproduced | regenerated with the several apparatus, and the image | video on a network.
引き続き図2に基づいて本実施形態の映像編集装置の概略を説明する。映像削除挿入部207は、不要区間抽出部203で抽出した不要区間を削除し、削除した区間に、挿入映像決定部206によって決定された映像を挿入する編集を行う。表示部208は、映像削除挿入部207で映像編集された映像データを表示する。
The outline of the video editing apparatus according to this embodiment will be described with reference to FIG. The video deletion /
本実施形態における処理例を、図6を用いて説明する。 A processing example in this embodiment will be described with reference to FIG.
本件を用いて映像編集を行う前後の映像のスクリーンショットを示す。オブジェクトA601は映像内で検出されたオブジェクトである。602〜604は、映像編集前の映像のスクリーンショットである。605は不要区間直前のフレームである。606は不要区間直後のフレームである。607は挿入映像決定部206によって決定された挿入映像のスクリーンショットである。オブジェクトB608は映像内で検出されたオブジェクトである。不要区間抽出部203によって、スクリーンショット603の部分が激しい手ブレのため不要区間として抽出される。オブジェクト判定部204によって、不要区間直前のオブジェクトをフレーム605から、不要区間直後のオブジェクトをフレーム606から検出し、映像607に同一のオブジェクトが存在するか判定する。
Screen shots of the video before and after video editing using this case are shown. An object A601 is an object detected in the video.
尚、不要区間直前および直後のオブジェクトを、フレーム605およびフレーム606から検出したが、これは一例であり、これに限るものではない。例えば、不要区間直前のオブジェクトを、フレーム605から規定フレーム数遡ったフレームまでの間の複数のフレームから検出しても良い。
Although the objects immediately before and immediately after the unnecessary section are detected from the
背景判定部205によって、フレーム605から不要区間直前の背景を、フレーム606から不要区間直後の背景を検出し、映像607が類似した背景の映像かを判定する。尚、不要区間直前および直後の背景を、フレーム605およびフレーム606から検出したが、これは一例であり、これに限るものではない。例えば、不要区間直前の背景を、フレーム605から規定フレーム数遡ったフレームまでの間の複数のフレームから検出しても良い。
The
挿入映像決定部206は、オブジェクト判定部204および背景判定部205の判定結果に基づき、映像602と映像604のオブジェクト及び背景とは異なる映像607を、挿入する映像として決定する。映像削除挿入部207は、不要区間603を削除し、削除した区間に、映像607を挿入する映像編集を行う。
Based on the determination results of the
このように挿入する映像を決定し挿入することにより、編集後も自然な繋がりの映像にすることが可能となる。 By determining and inserting the video to be inserted in this way, it is possible to obtain a naturally connected video after editing.
図7に、本実施形態における映像編集装置202の映像編集処理のフローチャートを示す。
FIG. 7 shows a flowchart of the video editing process of the
映像編集処理を開始すると、編集対象映像を記録媒体201から読み出し、手ブレの激しい区間を不要区間として抽出する(S701)。尚、本実施形態では、手ぶれの激しい区間を不要区間として抽出したが、明る過ぎる区間、暗すぎる区間を抽出しても良い。また、ユーザーが抽出しても良い。
When the video editing process is started, the video to be edited is read from the
映像削除挿入部207は、挿入する映像として用いる素材映像の範囲を、編集対象映像の撮影時刻から規定時間前後させた撮影時刻内の素材映像とする(S702)。尚、本実施形態では、挿入する映像を編集対象映像の撮影時刻から規定時間前後させた撮影時刻内の素材映像としたが、同一オブジェクトが存在する素材映像や、類似した背景の素材映像を挿入する映像としても良い。また、ユーザーが決定しても良い。
The video deletion /
撮影挿入映像決定部206は、決定した範囲の素材映像内から、挿入する映像を決定する挿入映像決定処理を行う(S703)。挿入映像決定処理の詳細は、図8を用いて後で説明する。
The shooting insertion
映像削除挿入部207は、不要区間を削除し、不要区間を削除した区間に、挿入映像決定部206で決定した映像を挿入する映像編集を行い(S704)、映像編集処理を終了する。図8に、実施形態1の挿入映像決定処理のフローチャートを示す。挿入映像決定処理を開始する。ステップS702で決定した範囲内の素材映像で、撮影時刻が最も編集対象映像に近い映像を候補映像とする(S801)。
The video deletion /
オブジェクト判定部204は、不要区間抽出部203によって抽出された不要区間の直前および直後の映像に存在するオブジェクトと、候補映像に存在するオブジェクトが同一のオブジェクトかを判定する(S802)。
The
ステップS802において同一のオブジェクトが存在した場合、ステップS702において決定した範囲内に、撮影時刻が、現候補映像の次に編集対象に近い素材映像があるか判定する(S803)。撮影時刻が次に編集対象に近い素材映像が存在する場合(S803)、候補映像を現候補映像の次に、撮影時刻が、編集対象の撮影時刻に近い素材映像にし(S804)、ステップS802へ移行する。 If the same object exists in step S802, it is determined whether there is a material video whose shooting time is closest to the editing target next to the current candidate video in the range determined in step S702 (S803). If there is a material video whose shooting time is closest to the editing target next (S803), the candidate video is changed to the material video whose shooting time is close to the shooting time of the editing target next to the current candidate video (S804), and the process proceeds to step S802. Transition.
撮影時刻が次に編集対象に近い素材映像が存在しない場合(S803)、ステップS702において決定した範囲内の素材映像で、編集対象の背景と最も類似していない背景を持つ素材映像を(S805)、挿入映像決定処理を終了する。 If there is no material video whose shooting time is closest to the editing target next (S803), a material video having a background that is most similar to the background of the editing target in the range determined in step S702 is selected (S805). Then, the insertion video determination process is terminated.
尚、ここで挿入する映像を、ステップS702で決定した範囲内の素材映像で、編集対象の背景と最も類似していない背景を持つ素材映像としたが、これは一例であり、これに限るものではない。例えば、撮影時刻が、編集対象に最も近い素材映像としても良い。 The video to be inserted here is a material video within the range determined in step S702 and has a background that is not most similar to the background to be edited. However, this is only an example, and the video is limited to this. is not. For example, the material time may be a material image closest to the editing target.
同一のオブジェクトが存在しなかった場合(S802)、背景判定部205で、不要区間抽出部203によって抽出された不要区間直前および直後の映像の背景と、候補映像の背景が類似するか判定する(S806)。もし類似する背景だった場合(S806)、ステップS803へ移行する。類似しない背景だった場合(S806)、候補映像を挿入する映像と決定し(S807)、挿入映像決定処理を終了する。
When the same object does not exist (S802), the
尚、素材映像を撮影映像が編集対象に次に近いものから候補映像としているが、候補映像を選ぶ方法はこれに限るものではない。例えば、撮影時間が新しい素材映像から候補映像として選択しても良い。 Note that although the material video is selected as the candidate video from the next closest to the editing video, the method for selecting the candidate video is not limited to this. For example, the shooting time may be selected as a candidate video from a new material video.
以上説明したように、実施形態1によれば、映像の不要区間を削除した区間に他の映像を挿入する映像編集を行う際、編集後の映像が自然な映像となるような編集を可能とする効果を得られる。 As described above, according to the first embodiment, when performing video editing in which another video is inserted into a section in which an unnecessary section of the video is deleted, editing can be performed so that the edited video becomes a natural video. The effect to do.
(実施形態2)
実施形態2を図面に基づいて説明する。基本的な構成は図1〜図4で説明した実施形態1と同じである。以降、実施形態1に準ずる箇所は、説明を割愛する。
(Embodiment 2)
Embodiment 2 is demonstrated based on drawing. The basic configuration is the same as that of the first embodiment described with reference to FIGS. Hereinafter, the description according to the first embodiment is omitted.
実施形態2では、実施形態1の挿入映像決定処理で挿入する映像が素材映像内に存在しなかった場合、映像のフレーム内を空間的に切り取る加工処理を行うことによって挿入映像を生成する処理を行う。 In the second embodiment, when the video to be inserted in the inserted video determination process of the first embodiment does not exist in the material video, a process of generating an inserted video by performing a processing process of spatially cutting the frame of the video is performed. Do.
図9を用いて、映像の加工処理例を説明する。 An example of video processing will be described with reference to FIG.
映像901は、挿入する映像の加工前の映像である。背景902は、不要区間前後の映像に存在するオブジェクトの近傍の背景である。領域903は、切り出し範囲である。スクリーンショット904は、映像901に加工処理を行った後の映像のスクリーンショットである。
A
挿入映像決定部206によって、挿入する映像を、映像901の背景のうち、不要区間前後の映像に存在するオブジェクトの近傍の背景ではない領域903の部分を切り出した映像に決定する。映像削除挿入部207では、挿入映像決定部206によって決定された切り出し範囲903を、映像901からを切り出し拡大する加工処理を行うことにより、挿入する映像703を生成し、挿入する。
The inserted
このように挿入する映像を決定し、映像を挿入することにより、編集後も自然な繋がりの映像にすることが可能となる。 By determining the video to be inserted in this way and inserting the video, it is possible to obtain a video having a natural connection after editing.
尚、この処理は一例である。加工後の挿入する映像が、不要区間の直前および直後に存在するオブジェクトが存在せず、背景が類似していない映像に加工されていれば、この例に限られない。 This process is an example. The video to be inserted after processing is not limited to this example as long as no object exists immediately before and after the unnecessary section and the background is not similar.
図10に実施形態2における挿入映像決定処理のフローチャートを示す。 FIG. 10 shows a flowchart of the inserted video determination process in the second embodiment.
実施形態2では、撮影時刻が次に編集対象に近い素材映像が無いと判定した場合(S803)、ステップS702において決定した範囲内の素材映像のなかで、不要区間直前および直後の背景と最も類似していない背景を持つ素材映像を加工対象映像とする(S1001)。 In the second embodiment, when it is determined that there is no material video whose shooting time is next closest to the editing target (S803), the material video within the range determined in step S702 is most similar to the background immediately before and immediately after the unnecessary section. A material video having a background that has not been processed is set as a processing target video (S1001).
尚、ここで加工対象映像を編集対象の背景と最も類似していない背景を持つ素材映像としたが、これは一例であり、これに限るものではない。例えば、撮影時刻が編集対象に最も近い素材映像を加工対象映像としても良い。 Here, the processing target video is a material video having a background that is not most similar to the editing target background, but this is only an example, and the present invention is not limited to this. For example, a material video whose shooting time is closest to the editing target may be used as the processing target video.
不要区間直前および直後の映像に存在するオブジェクトの近傍の背景ではない、加工対象映像の背景の一部を切り出し拡大した部分を挿入する映像とし(S1002)、挿入映像決定処理を終了する。 The inserted video determination process is terminated by setting a portion of the background of the processing target video that is not the background in the vicinity of the object existing in the video immediately before and immediately after the unnecessary section and inserting the enlarged portion (S1002).
尚、本実施形態では、加工処理として、映像の領域を切り出し拡大する処理を行っているが、これは一例であり、これに限るものではない。 In the present embodiment, the processing for cutting out and enlarging the video area is performed as the processing, but this is an example, and the present invention is not limited to this.
以上実施形態2で説明したように、このように構成し処理することにより、映像の不要区間を削除した区間に他の映像を加工して挿入することにより、編集後の映像が自然な映像となる効果を得られる。 As described above in the second embodiment, by configuring and processing in this way, by editing and inserting another video into a section in which an unnecessary section of the video is deleted, the edited video becomes a natural video. The effect becomes.
以上、実施形態1、2によれば、映像の不要区間を削除した区間に他の映像を挿入する映像編集を行う際、編集後の映像が自然な映像となるような編集を可能とする効果を得られる。 As described above, according to the first and second embodiments, when performing video editing in which another video is inserted into a section in which an unnecessary section of the video is deleted, an effect that enables editing so that the edited video becomes a natural video. Can be obtained.
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
Claims (11)
前記抽出された不要区間の映像に対応する画像に基づいて、前記不要区間に挿入する映像を前記編集対象映像から決定する決定手段と、
前記決定された映像を前記不要区間に挿入する挿入手段と
を備えることを特徴とする映像編集装置。 Extraction means for extracting video of unnecessary sections from the video to be edited;
Determining means for determining from the editing target video a video to be inserted into the unnecessary section, based on an image corresponding to the extracted video of the unnecessary section;
An image editing apparatus comprising: an inserting unit that inserts the determined image into the unnecessary section.
前記不要区間の映像に対応する画像の背景と類似する背景を有する映像かを判定する背景判定手段とを更に有し、
前記決定手段は、少なくとも前記オブジェクト判定手段と、前記背景判定手段の一方による判定結果に基づいて映像を決定することを特徴とする請求項1または2に記載の映像編集装置。 An object determination means for determining whether an object exists in an image corresponding to the video of the unnecessary section;
A background determination means for determining whether the image has a background similar to the background of the image corresponding to the video of the unnecessary section;
The video editing apparatus according to claim 1, wherein the determination unit determines a video based on a determination result by at least one of the object determination unit and the background determination unit.
前記決定手段は、加工手段によって加工された映像を挿入する映像として決定することを特徴とする請求項1から7に記載の映像編集装置。 It further has a processing means for cutting out a part of the image,
8. The video editing apparatus according to claim 1, wherein the determination unit determines the video processed by the processing unit as a video to be inserted.
前記抽出された不要区間の映像に対応する画像に基づいて、前記不要区間に挿入する映像を前記編集対象映像から決定する決定工程と、
前記決定された映像を前記不要区間に挿入する挿入工程と
を備えることを特徴とする映像編集装置の制御方法。 An extraction process for extracting images of unnecessary sections from the images;
A determination step for determining a video to be inserted into the unnecessary section from the editing target video based on an image corresponding to the extracted video of the unnecessary section;
An image editing apparatus control method comprising: an inserting step of inserting the determined image into the unnecessary section.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011190685A JP2013055409A (en) | 2011-09-01 | 2011-09-01 | Video editing device and control method therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011190685A JP2013055409A (en) | 2011-09-01 | 2011-09-01 | Video editing device and control method therefor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013055409A true JP2013055409A (en) | 2013-03-21 |
Family
ID=48132058
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011190685A Withdrawn JP2013055409A (en) | 2011-09-01 | 2011-09-01 | Video editing device and control method therefor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013055409A (en) |
-
2011
- 2011-09-01 JP JP2011190685A patent/JP2013055409A/en not_active Withdrawn
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8515254B2 (en) | Video editing apparatus and video editing method | |
US9769377B2 (en) | Imaging apparatus and control method for handling a raw image of a moving image or a still image | |
CN106797498A (en) | Message processing device, information processing method and program | |
CN110996183B (en) | Video abstract generation method, device, terminal and storage medium | |
US20200275084A1 (en) | Information processing apparatus, information processing method, and storage medium | |
KR101672691B1 (en) | Method and apparatus for generating emoticon in social network service platform | |
JP2010258768A (en) | Image display device and control method thereof, program and storage medium | |
KR102037997B1 (en) | Electronic apparatus and method for generating contents | |
JP5408037B2 (en) | Image processing apparatus and method, and program | |
US20150009227A1 (en) | Color grading preview method and apparatus | |
JP2011155477A (en) | Video processing apparatus, video processing method, and program | |
JP3897476B2 (en) | Image processing apparatus and method, and computer-readable memory | |
JP7458713B2 (en) | Image processing device, image processing system, control method, and program | |
JP2012060468A (en) | Imaging apparatus, image generating apparatus, image generating program and image generating method | |
JP4189575B2 (en) | Image processing apparatus, thumbnail movie creation method, and thumbnail movie creation program | |
JP2013055409A (en) | Video editing device and control method therefor | |
JPH1196361A (en) | Device and method for extracting object and medium recording object extraction program and object detection program | |
JP2008263657A (en) | Image processor, thumbnail moving image creation method and thumbnail moving image creation program | |
JP6625598B2 (en) | Image generation apparatus, image generation method, image generation program, and image generation system | |
JP2008020944A (en) | Image processing method, program, and device | |
JP2012123721A (en) | Image processing device and image processing method | |
JP2000235637A (en) | Image processing system and image processing method | |
JP7166796B2 (en) | Information processing device, information processing method, and program | |
JP2010021728A (en) | Image processing apparatus and image processing method | |
JP2007324910A (en) | Photographing system, photographing method and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20141104 |