JP2013055409A - Video editing device and control method therefor - Google Patents

Video editing device and control method therefor Download PDF

Info

Publication number
JP2013055409A
JP2013055409A JP2011190685A JP2011190685A JP2013055409A JP 2013055409 A JP2013055409 A JP 2013055409A JP 2011190685 A JP2011190685 A JP 2011190685A JP 2011190685 A JP2011190685 A JP 2011190685A JP 2013055409 A JP2013055409 A JP 2013055409A
Authority
JP
Japan
Prior art keywords
video
section
unnecessary section
unnecessary
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011190685A
Other languages
Japanese (ja)
Inventor
Daiki Kondo
大己 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011190685A priority Critical patent/JP2013055409A/en
Publication of JP2013055409A publication Critical patent/JP2013055409A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To make an edited video be a natural video in performing video editing for inserting another video into a section where an unnecessary section of a video is deleted.SOLUTION: A video editing device extracts a video in an unnecessary section from a video to be edited (203), determines a video to be inserted into the unnecessary section on the basis of an image corresponding to the extracted video in the unnecessary section (206), and inserts the determined video into the unnecessary section (207).

Description

本発明は映像を編集する技術に関する。   The present invention relates to a technique for editing video.

従来、撮影に熟練していない人が撮影を行う際、手ブレなどの失敗映像が多々記録される。そのため映像編集時に、失敗映像部分をカットまたは修正する編集がよく行われている。不要区間を削除する処理として、手ブレの量が所定の値より大きい動画像は記録しない又は削除するという処理が行われている。(特許文献1参照)
しかし、失敗映像部分をカットし、そのまま繋げる編集を行うと、オブジェクトが瞬間的に移動してしまったように感じるジャンプカットのような違和感が生じてしまう場合がある。そのため映像編集において時間的に不連続な映像を違和感なく繋げるために、インサートカットと呼ばれる前後の映像とは異なる映像を挿入する手法が、一般的に良く行われている。映像の一部を挿入する処理として、ユーザが選んだ映像から挿入する映像を決定するという処理が行われている。(特許文献2参照)
2. Description of the Related Art Conventionally, when a person who is not skilled in shooting performs shooting, many failure videos such as camera shake are recorded. Therefore, during video editing, editing that cuts or corrects a failed video portion is often performed. As processing for deleting unnecessary sections, processing for not recording or deleting moving images in which the amount of camera shake is greater than a predetermined value is performed. (See Patent Document 1)
However, when editing is performed by cutting the failed video portion and connecting them as they are, there may be a sense of incongruity such as a jump cut that makes it seem that the object has moved instantaneously. For this reason, in order to connect discontinuous images without any sense of incongruity in video editing, a method of inserting a video different from the previous and next video called “insert cut” is generally performed. As a process of inserting a part of the video, a process of determining the video to be inserted from the video selected by the user is performed. (See Patent Document 2)

特開2008−160637号公報JP 2008-160637 A 特開2008−22519号公報JP 2008-22519 A

しかしながら、特許文献2の場合、ユーザが選んだ映像によっては、不要区間前後の映像との繋がりが不自然になってしまうことがある。例えば、挿入した映像に、不要区間前後に存在していたオブジェクトが存在していると、映像の繋ぎ目の部分で、オブジェクトが瞬間的に移動したように見えてしまい、不自然である。
そこで本発明では、上記問題を解決し、映像の不要区間を削除した区間に他の映像を挿入する映像編集を行う際、編集後の映像が自然な映像となることを目的としている。
However, in Patent Document 2, depending on the video selected by the user, the connection with the video before and after the unnecessary section may become unnatural. For example, if there is an object that exists before and after the unnecessary section in the inserted video, the object appears to move instantaneously at the joint of the video, which is unnatural.
Therefore, the present invention aims to solve the above-described problem and to make the edited video a natural video when performing video editing in which another video is inserted into a section in which an unnecessary section of the video is deleted.

上記の目的を達成するための本発明の一態様による情報処理装置は以下の構成を備える。すなわち、
編集対象映像から不要区間の映像を抽出する抽出手段と、前記抽出された不要区間の映像に対応する画像に基づいて、前記不要区間に挿入する映像を前記編集対象映像から決定する決定手段と、前記決定された映像を前記不要区間に挿入する挿入手段とを備えることを特徴とする。
In order to achieve the above object, an information processing apparatus according to an aspect of the present invention includes the following arrangement. That is,
Extraction means for extracting video of an unnecessary section from the editing target video; and determination means for determining a video to be inserted into the unnecessary section from the editing target video based on an image corresponding to the extracted video of the unnecessary section; And inserting means for inserting the determined video into the unnecessary section.

本発明によれば、映像の不要区間を削除した区間に他の映像を挿入する映像編集を行う際、編集後の映像が自然な映像となるような編集を可能とする効果を得られる。   According to the present invention, when video editing is performed in which another video is inserted into a section in which an unnecessary section of the video is deleted, it is possible to obtain an effect that enables editing so that the edited video becomes a natural video.

映像編集装置のハードウェア構成図Hardware configuration diagram of video editing device 映像編集装置の概略を示した機能ブロック図Functional block diagram showing the outline of the video editing device オブジェクト情報の一例を表した表Table showing an example of object information 背景情報の一例を表した表Table showing an example of background information 背景の類似判定の処理を説明する図The figure explaining the background similarity determination process 映像編集装置の映像編集処理の概要を説明する図The figure explaining the outline of the video editing processing of the video editing device 映像編集処理の一連の処理の詳細を説明するフローチャートFlow chart explaining details of a series of video editing processing 挿入映像決定処理の詳細を説明するフローチャートFlowchart for explaining details of insertion video determination process 映像編集装置の映像編集処理の概要を説明する図The figure explaining the outline of the video editing processing of the video editing device 挿入映像決定処理の一連の処理の詳細説明するフローチャートFlowchart for explaining in detail a series of processing of inserted video determination processing

以下、本発明の好適な実施形態について添付の図面を参照して詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

(実施形態1)
実施形態1を図面に基づいて説明する。図1は、本実施形態の映像編集装置のハードウェア構成例である。ハードディスクドライブ101は、映像データやオブジェクト情報、背景情報などのデータを蓄積する。ROM102は、プログラム格納用として用いられる。後述するフローの処理プログラムもここに格納される。RAM103は、プログラム実行時に用いられる。CPU104は、映像編集装置を統括する制御部である。後述するフローの処理もCPU104で制御される。入力機器105は、映像編集装置がユーザーからの入力を受け付ける際に用いられる。ディスプレイ106は、映像編集装置からの出力結果を表示するのに用いられる。バス107は、上記ハードディスクドライブ101、ROM102、RAM103、CPU104、入力機器105、ディスプレイ106を接続するデータ線である。
(Embodiment 1)
Embodiment 1 is demonstrated based on drawing. FIG. 1 is a hardware configuration example of a video editing apparatus according to the present embodiment. The hard disk drive 101 stores data such as video data, object information, and background information. The ROM 102 is used for storing programs. A flow processing program to be described later is also stored here. The RAM 103 is used when executing a program. The CPU 104 is a control unit that controls the video editing apparatus. Processing of a flow to be described later is also controlled by the CPU 104. The input device 105 is used when the video editing apparatus accepts input from the user. The display 106 is used to display the output result from the video editing device. A bus 107 is a data line that connects the hard disk drive 101, ROM 102, RAM 103, CPU 104, input device 105, and display 106.

尚、以降では、動画像のことを映像と呼び、静止画像のことを画像と呼ぶ。途中、図3および図4を用いて、オブジェクト情報および背景情報について説明し、図5を用いて本実施形態における背景の類似判定処理について説明する。   Hereinafter, a moving image is referred to as a video, and a still image is referred to as an image. In the middle, object information and background information will be described with reference to FIGS. 3 and 4, and background similarity determination processing in the present embodiment will be described with reference to FIG.

図2は本実施形態の映像編集装置の概略を示した機能ブロック図である。記憶媒体201は、データを蓄積するハードディスク101などから成り、映像データ、オブジェクト情報、背景情報などを蓄積する。   FIG. 2 is a functional block diagram schematically showing the video editing apparatus according to the present embodiment. The storage medium 201 includes a hard disk 101 that stores data, and stores video data, object information, background information, and the like.

図3にオブジェクト情報の一例を示す。ID301は、オブジェクトを検出した映像を特定するための情報である。タイムスタンプ302は、オブジェクトを検出したフレームの時間情報で、単位はミリ秒である。303と304はオブジェクトの画面上の位置のx座標とy座標で、単位はピクセルである。305は検出したオブジェクトの領域の面積で、ピクセル数で表す。   FIG. 3 shows an example of object information. ID 301 is information for specifying the video in which the object is detected. The time stamp 302 is time information of the frame in which the object is detected, and its unit is milliseconds. 303 and 304 are the x-coordinate and y-coordinate of the position of the object on the screen, and the unit is a pixel. Reference numeral 305 denotes the area of the detected object area, which is represented by the number of pixels.

306は、オブジェクトの色相の情報である。例えばオブジェクト領域のRGBの色分布情報などが上げられる。エッジ情報307は、オブジェクトのエッジの情報を示す画像データである。例えば、この画像307は、フレーム画像のオブジェクト領域を二値化し細線化した画像データである。ただし、上記エッジの情報を示すものであれば、他の方法でエッジ情報を取得しても構わない。   Reference numeral 306 denotes information on the hue of the object. For example, RGB color distribution information of the object area is raised. The edge information 307 is image data indicating information about the edge of the object. For example, the image 307 is image data obtained by binarizing and thinning the object area of the frame image. However, the edge information may be acquired by other methods as long as the information indicates the edge information.

図4に背景情報の一例を示す。ID401は、背景を検出した映像を特定するための情報である。タイムスタンプ402は、背景を検出したフレームの時間情報で、単位はミリ秒である。403は、背景の色相の情報である。エッジ情報404は、上記エッジ情報307と同様のエッジの情報である。これも、上記エッジの情報を示すものであれば、種々の方法でエッジ情報を取得して構わない。   FIG. 4 shows an example of background information. ID 401 is information for specifying a video whose background has been detected. The time stamp 402 is time information of a frame in which the background is detected, and its unit is milliseconds. Reference numeral 403 denotes background hue information. The edge information 404 is edge information similar to the edge information 307. As long as this also indicates the edge information, the edge information may be acquired by various methods.

引き続き図2に基づいて本実施形態の映像編集装置の概略を説明する。映像編集装置202は、映像の不要区間を削除し、削除した区間に他のデータを挿入する映像編集を行う。不要区間抽出部203は、編集対象映像の不要区間を抽出する。不要区間抽出部203では、手ブレの激しい区間、明る過ぎる区間、または暗過ぎる区間などを不要区間として抽出する。例えば、手ブレの激しい区間は、各フレームの動きベクトルの平均と頻度分布の分散値から検出する。また、明る過ぎる区間と暗過ぎる区間は、フレーム画像の輝度の平均値があらかじめ定めた上限値以上または下限値以下かどうかで判定する。また、ユーザーが不要区間を抽出しても良い。尚、これらは一例でありこれらに限るものではない。   The outline of the video editing apparatus according to this embodiment will be described with reference to FIG. The video editing device 202 deletes an unnecessary section of the video and performs video editing by inserting other data into the deleted section. The unnecessary section extraction unit 203 extracts an unnecessary section of the editing target video. The unnecessary section extraction unit 203 extracts a section with a lot of camera shake, a section that is too bright, a section that is too dark, or the like as an unnecessary section. For example, a section where camera shake is severe is detected from the average of the motion vectors of each frame and the variance value of the frequency distribution. Further, a section that is too bright and a section that is too dark is determined based on whether the average value of the luminance of the frame image is greater than or equal to a predetermined upper limit value or less than a lower limit value. Further, the user may extract unnecessary sections. In addition, these are examples and are not limited to these.

オブジェクト判定部204は、不要区間抽出部203で抽出した不要区間の直前および直後の映像に存在するオブジェクトと同一のオブジェクトが存在する映像か判定する。オブジェクトの弁別は、オブジェクトの色相情報306またはエッジ情報307をパターンマッチングすることによって行う。例えば、オブジェクトの領域を予め定めた規定数のブロックに分割し、分割したブロックごとに色の分布が一致するか判定する。一致したブロックが、予め定めた規定値以上の割合の場合同一オブジェクトと判定する。尚、これはオブジェクト弁別の方法の一例であり、これに限るものではない。   The object determination unit 204 determines whether or not the same object exists in the video immediately before and immediately after the unnecessary section extracted by the unnecessary section extraction unit 203. The discrimination of the object is performed by pattern matching the hue information 306 or the edge information 307 of the object. For example, the object region is divided into a predetermined number of blocks, and it is determined whether the color distributions match for each of the divided blocks. If the matching blocks are equal to or higher than a predetermined value, they are determined to be the same object. This is an example of the object discrimination method and is not limited to this.

尚、不要区間直前および直後の映像のオブジェクトとして、不要区間直前および直後のフレーム1枚だけに存在するオブジェクトだけを用いても良いし、不要区間直前および直後のフレームから規定フレーム数前およびフレーム数後に存在するオブジェクトを用いても良い。また、不要区間内であってもオブジェクトが特定できれば、不要区間内のオブジェクトを用いてもよく、要は不要区間のオブジェクトに対応するオブジェクトであればよい。   Note that as the video object immediately before and after the unnecessary section, only an object existing in one frame immediately before and after the unnecessary section may be used, or the number of frames before and after the specified number of frames from the frames immediately before and after the unnecessary section. An object that exists later may be used. Further, if an object can be specified even in an unnecessary section, the object in the unnecessary section may be used, and the object may be any object corresponding to the object in the unnecessary section.

背景判定部205は、不要区間抽出部203で抽出した不要区間の直前または直後の映像の背景と類似する背景の映像か判定する。背景の弁別は、背景の色相情報403またはエッジ情報404をパターンマッチングすることにより行う。例えば、背景領域を予め定めた規定数のブロックに分割し、分割したブロックごとに色の分布が一致するか判定する。一致したブロックが、予め定めた規定値以上の割合の場合同一オブジェクトと判定する。尚、これは背景弁別の方法の一例であり、これに限るものではない。   The background determination unit 205 determines whether the background image is similar to the background of the image immediately before or immediately after the unnecessary section extracted by the unnecessary section extraction unit 203. Background discrimination is performed by pattern matching of background hue information 403 or edge information 404. For example, the background region is divided into a predetermined number of blocks, and it is determined whether the color distributions match for each of the divided blocks. If the matching blocks are equal to or higher than a predetermined value, they are determined to be the same object. This is an example of a background discrimination method and is not limited to this.

尚、不要区間直前および直後の映像の背景として、不要区間直前および直後のフレーム1枚だけに存在する背景だけを用いても良いし、不要区間直前および直後のフレームから予め定めた規定フレーム数前およびフレーム数後の背景を用いても良い。また、不要区間内であっても背景が特定できれば、不要区間内のオブジェクトを用いてもよく、要は不要区間の背景に対応する背景であればよい。   Note that only the background existing in one frame immediately before and after the unnecessary section may be used as the background of the video immediately before and immediately after the unnecessary section, or a predetermined number of frames before the frame immediately before and after the unnecessary section. Alternatively, the background after the number of frames may be used. Further, if the background can be specified even in the unnecessary section, an object in the unnecessary section may be used, and the background may be any background corresponding to the background of the unnecessary section.

図5に基づいて、背景の類似判定処理を説明する。フレーム画像502、503は、フレーム画像501の時より少しズームインして撮影して得られた画像である。領域504は、フレーム画像502とフレーム画像503の重なり部分を示す。フレーム画像502とフレーム画像503を用いて、部分的にパターンマッチングを行うと、重なり部分504の領域がマッチする。このマッチした領域が予め定めた規定値以上の場合、フレーム画像502とフレーム画像503を類似した背景と判定する。   The background similarity determination process will be described with reference to FIG. Frame images 502 and 503 are images obtained by zooming in a little from the frame image 501 and shooting. A region 504 indicates an overlapping portion of the frame image 502 and the frame image 503. When partial pattern matching is performed using the frame image 502 and the frame image 503, the overlapping portions 504 are matched. If the matched area is equal to or greater than a predetermined value, the frame image 502 and the frame image 503 are determined as similar backgrounds.

また、フレーム画像511は、フレーム画像502よりズームインして撮影したフレーム画像となる。フレーム画像502とフレーム画像511のどちらか一方を拡大または縮小しパターンマッチングを行う。一致した際の拡大率または縮小率が予め定めた規定値未満の場合、フレーム画像502とフレーム画像511は類似した背景の映像と判定する。   The frame image 511 is a frame image taken by zooming in on the frame image 502. Either one of the frame image 502 and the frame image 511 is enlarged or reduced to perform pattern matching. If the enlargement rate or reduction rate when they match is less than a predetermined value, the frame image 502 and the frame image 511 are determined to have similar background images.

挿入映像決定部206は、オブジェクト判定部204および背景判定部205によって、同一オブジェクトが存在せず、かつ類似する背景ではないと判定された素材映像を、不要映像を削除した区間へ挿入する映像と決定する。尚、オブジェクト判定部204か背景判定部205の一方のみの構成で、一方の判定によって決定させてもよい。   The inserted video determination unit 206 includes a video that is inserted by the object determination unit 204 and the background determination unit 205 into a section in which the same object does not exist and the background is determined not to be similar to the section from which the unnecessary video is deleted. decide. Note that only one of the object determination unit 204 and the background determination unit 205 may be configured, and the determination may be made by one determination.

尚、挿入する映像として、映像ファイル単位で決定しても良いし、映像を時間的に区切った映像区間で決定しても良い。   Note that the video to be inserted may be determined in units of video files, or may be determined in video sections obtained by temporally dividing the video.

また、挿入する映像を決定する素材映像の範囲を限定してもよい。例えば、編集対象映像の撮影時刻から、予め定めた規定値だけ前後させた撮影時刻内の映像に限定してもよい。このように限定することにより、不要区間直前および直後の映像と時間的に近く、関連の強い映像から挿入する映像が可能となる。検討
また、背景の判断を行わず、不要区間直前または直後に存在するオブジェクトと同一オブジェクトが存在する映像や、類似した背景の映像に限定したり、同一オブジェクトが存在しない画像に限定してもよいし、さらに背景の判断と組み合わせてもよい。
Further, the range of the material video that determines the video to be inserted may be limited. For example, you may limit to the image | video in the imaging | photography time made to move back and forth by the predetermined defined value from the imaging | photography time of the edit object image | video. By limiting in this way, it becomes possible to insert a video that is close in time to the video immediately before and immediately after the unnecessary section and that is inserted from a highly related video. Consideration Further, without determining the background, it may be limited to a video with the same object as the object existing immediately before or immediately after the unnecessary section, a video with a similar background, or an image without the same object. In addition, it may be combined with background judgment.

例えば、同一の背景で、オブジェクトが存在しない画像に限定することは有効である。これによって、風景のみの画像が選択されるようにすることもできる。   For example, it is effective to limit the images to the same background and no object. Thereby, it is possible to select an image of only a landscape.

また、オブジェクトを認識するようにして、挿入する画像のオブジェクトは人以外にするようにし、背景は同じ画像に限定してもよい。   Further, the object may be recognized, the object of the image to be inserted may be other than a person, and the background may be limited to the same image.

ここでは、挿入する映像を不要区間の映像と類似しない映像にすることにより、上述したような違和感を感じないようすることが有効である。   Here, it is effective to prevent the above-mentioned uncomfortable feeling by making the video to be inserted a video that is not similar to the video in the unnecessary section.

このように限定することにより、不要区間直前および直後の映像と時間的に離れていても、関連のある映像から、挿入する映像を決定することが可能となる。   By limiting in this way, it is possible to determine the video to be inserted from the related video even if it is temporally separated from the video immediately before and immediately after the unnecessary section.

尚、単一の機器で撮影した映像だけではなく、複数の機器で再生した映像や、ネットワーク上の映像を挿入する映像の素材映像としてもよい。   In addition, it is good also as the raw material image | video of not only the image | video image | photographed with the single apparatus but the image | video reproduced | regenerated with the several apparatus, and the image | video on a network.

引き続き図2に基づいて本実施形態の映像編集装置の概略を説明する。映像削除挿入部207は、不要区間抽出部203で抽出した不要区間を削除し、削除した区間に、挿入映像決定部206によって決定された映像を挿入する編集を行う。表示部208は、映像削除挿入部207で映像編集された映像データを表示する。   The outline of the video editing apparatus according to this embodiment will be described with reference to FIG. The video deletion / insertion unit 207 deletes the unnecessary section extracted by the unnecessary section extraction unit 203 and performs editing to insert the video determined by the insertion video determination unit 206 into the deleted section. The display unit 208 displays the video data edited by the video deletion / insertion unit 207.

本実施形態における処理例を、図6を用いて説明する。   A processing example in this embodiment will be described with reference to FIG.

本件を用いて映像編集を行う前後の映像のスクリーンショットを示す。オブジェクトA601は映像内で検出されたオブジェクトである。602〜604は、映像編集前の映像のスクリーンショットである。605は不要区間直前のフレームである。606は不要区間直後のフレームである。607は挿入映像決定部206によって決定された挿入映像のスクリーンショットである。オブジェクトB608は映像内で検出されたオブジェクトである。不要区間抽出部203によって、スクリーンショット603の部分が激しい手ブレのため不要区間として抽出される。オブジェクト判定部204によって、不要区間直前のオブジェクトをフレーム605から、不要区間直後のオブジェクトをフレーム606から検出し、映像607に同一のオブジェクトが存在するか判定する。   Screen shots of the video before and after video editing using this case are shown. An object A601 is an object detected in the video. Reference numerals 602 to 604 are screen shots of video before video editing. Reference numeral 605 denotes a frame immediately before the unnecessary section. Reference numeral 606 denotes a frame immediately after the unnecessary section. Reference numeral 607 denotes a screen shot of the inserted video determined by the inserted video determining unit 206. Object B608 is an object detected in the video. The unnecessary section extracting unit 203 extracts the portion of the screen shot 603 as an unnecessary section due to severe camera shake. The object determination unit 204 detects an object immediately before the unnecessary section from the frame 605 and an object immediately after the unnecessary section from the frame 606, and determines whether the same object exists in the video 607.

尚、不要区間直前および直後のオブジェクトを、フレーム605およびフレーム606から検出したが、これは一例であり、これに限るものではない。例えば、不要区間直前のオブジェクトを、フレーム605から規定フレーム数遡ったフレームまでの間の複数のフレームから検出しても良い。   Although the objects immediately before and immediately after the unnecessary section are detected from the frame 605 and the frame 606, this is an example, and the present invention is not limited to this. For example, the object immediately before the unnecessary section may be detected from a plurality of frames between the frame 605 and a frame that is a predetermined number of frames back.

背景判定部205によって、フレーム605から不要区間直前の背景を、フレーム606から不要区間直後の背景を検出し、映像607が類似した背景の映像かを判定する。尚、不要区間直前および直後の背景を、フレーム605およびフレーム606から検出したが、これは一例であり、これに限るものではない。例えば、不要区間直前の背景を、フレーム605から規定フレーム数遡ったフレームまでの間の複数のフレームから検出しても良い。   The background determination unit 205 detects the background immediately before the unnecessary section from the frame 605 and the background immediately after the unnecessary section from the frame 606, and determines whether the video 607 is a similar background video. The background immediately before and immediately after the unnecessary section is detected from the frame 605 and the frame 606. However, this is an example, and the present invention is not limited to this. For example, the background immediately before the unnecessary section may be detected from a plurality of frames between the frame 605 and a frame that is a predetermined number of frames back.

挿入映像決定部206は、オブジェクト判定部204および背景判定部205の判定結果に基づき、映像602と映像604のオブジェクト及び背景とは異なる映像607を、挿入する映像として決定する。映像削除挿入部207は、不要区間603を削除し、削除した区間に、映像607を挿入する映像編集を行う。   Based on the determination results of the object determination unit 204 and the background determination unit 205, the insertion video determination unit 206 determines a video 607 different from the object and background of the video 602 and the video 604 as a video to be inserted. The video deletion / insertion unit 207 deletes the unnecessary section 603 and performs video editing to insert the video 607 in the deleted section.

このように挿入する映像を決定し挿入することにより、編集後も自然な繋がりの映像にすることが可能となる。   By determining and inserting the video to be inserted in this way, it is possible to obtain a naturally connected video after editing.

図7に、本実施形態における映像編集装置202の映像編集処理のフローチャートを示す。   FIG. 7 shows a flowchart of the video editing process of the video editing apparatus 202 in the present embodiment.

映像編集処理を開始すると、編集対象映像を記録媒体201から読み出し、手ブレの激しい区間を不要区間として抽出する(S701)。尚、本実施形態では、手ぶれの激しい区間を不要区間として抽出したが、明る過ぎる区間、暗すぎる区間を抽出しても良い。また、ユーザーが抽出しても良い。   When the video editing process is started, the video to be edited is read from the recording medium 201, and a section with severe camera shake is extracted as an unnecessary section (S701). In the present embodiment, a section with severe camera shake is extracted as an unnecessary section, but a section that is too bright or a section that is too dark may be extracted. Also, the user may extract it.

映像削除挿入部207は、挿入する映像として用いる素材映像の範囲を、編集対象映像の撮影時刻から規定時間前後させた撮影時刻内の素材映像とする(S702)。尚、本実施形態では、挿入する映像を編集対象映像の撮影時刻から規定時間前後させた撮影時刻内の素材映像としたが、同一オブジェクトが存在する素材映像や、類似した背景の素材映像を挿入する映像としても良い。また、ユーザーが決定しても良い。   The video deletion / insertion unit 207 sets the range of the material video used as the video to be inserted as the material video within the shooting time that is around the specified time from the shooting time of the editing target video (S702). In this embodiment, the video to be inserted is the material video within the shooting time that is around the specified time from the shooting time of the video to be edited. However, a material video that contains the same object or a material video of a similar background is inserted. It is good also as an image to do. Also, the user may decide.

撮影挿入映像決定部206は、決定した範囲の素材映像内から、挿入する映像を決定する挿入映像決定処理を行う(S703)。挿入映像決定処理の詳細は、図8を用いて後で説明する。   The shooting insertion video determination unit 206 performs an insertion video determination process for determining a video to be inserted from within the determined range of material video (S703). Details of the insertion video determination process will be described later with reference to FIG.

映像削除挿入部207は、不要区間を削除し、不要区間を削除した区間に、挿入映像決定部206で決定した映像を挿入する映像編集を行い(S704)、映像編集処理を終了する。図8に、実施形態1の挿入映像決定処理のフローチャートを示す。挿入映像決定処理を開始する。ステップS702で決定した範囲内の素材映像で、撮影時刻が最も編集対象映像に近い映像を候補映像とする(S801)。   The video deletion / insertion unit 207 deletes the unnecessary section, performs video editing for inserting the video determined by the inserted video determination unit 206 into the section from which the unnecessary section has been deleted (S704), and ends the video editing process. FIG. 8 is a flowchart of the insertion video determination process according to the first embodiment. The insertion video determination process is started. Of the material videos within the range determined in step S702, a video whose shooting time is closest to the video to be edited is set as a candidate video (S801).

オブジェクト判定部204は、不要区間抽出部203によって抽出された不要区間の直前および直後の映像に存在するオブジェクトと、候補映像に存在するオブジェクトが同一のオブジェクトかを判定する(S802)。   The object determination unit 204 determines whether the object existing in the video immediately before and immediately after the unnecessary section extracted by the unnecessary section extraction unit 203 is the same as the object existing in the candidate video (S802).

ステップS802において同一のオブジェクトが存在した場合、ステップS702において決定した範囲内に、撮影時刻が、現候補映像の次に編集対象に近い素材映像があるか判定する(S803)。撮影時刻が次に編集対象に近い素材映像が存在する場合(S803)、候補映像を現候補映像の次に、撮影時刻が、編集対象の撮影時刻に近い素材映像にし(S804)、ステップS802へ移行する。   If the same object exists in step S802, it is determined whether there is a material video whose shooting time is closest to the editing target next to the current candidate video in the range determined in step S702 (S803). If there is a material video whose shooting time is closest to the editing target next (S803), the candidate video is changed to the material video whose shooting time is close to the shooting time of the editing target next to the current candidate video (S804), and the process proceeds to step S802. Transition.

撮影時刻が次に編集対象に近い素材映像が存在しない場合(S803)、ステップS702において決定した範囲内の素材映像で、編集対象の背景と最も類似していない背景を持つ素材映像を(S805)、挿入映像決定処理を終了する。   If there is no material video whose shooting time is closest to the editing target next (S803), a material video having a background that is most similar to the background of the editing target in the range determined in step S702 is selected (S805). Then, the insertion video determination process is terminated.

尚、ここで挿入する映像を、ステップS702で決定した範囲内の素材映像で、編集対象の背景と最も類似していない背景を持つ素材映像としたが、これは一例であり、これに限るものではない。例えば、撮影時刻が、編集対象に最も近い素材映像としても良い。   The video to be inserted here is a material video within the range determined in step S702 and has a background that is not most similar to the background to be edited. However, this is only an example, and the video is limited to this. is not. For example, the material time may be a material image closest to the editing target.

同一のオブジェクトが存在しなかった場合(S802)、背景判定部205で、不要区間抽出部203によって抽出された不要区間直前および直後の映像の背景と、候補映像の背景が類似するか判定する(S806)。もし類似する背景だった場合(S806)、ステップS803へ移行する。類似しない背景だった場合(S806)、候補映像を挿入する映像と決定し(S807)、挿入映像決定処理を終了する。   When the same object does not exist (S802), the background determination unit 205 determines whether the background of the video immediately before and immediately after the unnecessary section extracted by the unnecessary section extraction unit 203 is similar to the background of the candidate video ( S806). If the background is similar (S806), the process proceeds to step S803. If the background is not similar (S806), it is determined that the candidate video is to be inserted (S807), and the inserted video determination process is terminated.

尚、素材映像を撮影映像が編集対象に次に近いものから候補映像としているが、候補映像を選ぶ方法はこれに限るものではない。例えば、撮影時間が新しい素材映像から候補映像として選択しても良い。   Note that although the material video is selected as the candidate video from the next closest to the editing video, the method for selecting the candidate video is not limited to this. For example, the shooting time may be selected as a candidate video from a new material video.

以上説明したように、実施形態1によれば、映像の不要区間を削除した区間に他の映像を挿入する映像編集を行う際、編集後の映像が自然な映像となるような編集を可能とする効果を得られる。   As described above, according to the first embodiment, when performing video editing in which another video is inserted into a section in which an unnecessary section of the video is deleted, editing can be performed so that the edited video becomes a natural video. The effect to do.

(実施形態2)
実施形態2を図面に基づいて説明する。基本的な構成は図1〜図4で説明した実施形態1と同じである。以降、実施形態1に準ずる箇所は、説明を割愛する。
(Embodiment 2)
Embodiment 2 is demonstrated based on drawing. The basic configuration is the same as that of the first embodiment described with reference to FIGS. Hereinafter, the description according to the first embodiment is omitted.

実施形態2では、実施形態1の挿入映像決定処理で挿入する映像が素材映像内に存在しなかった場合、映像のフレーム内を空間的に切り取る加工処理を行うことによって挿入映像を生成する処理を行う。   In the second embodiment, when the video to be inserted in the inserted video determination process of the first embodiment does not exist in the material video, a process of generating an inserted video by performing a processing process of spatially cutting the frame of the video is performed. Do.

図9を用いて、映像の加工処理例を説明する。   An example of video processing will be described with reference to FIG.

映像901は、挿入する映像の加工前の映像である。背景902は、不要区間前後の映像に存在するオブジェクトの近傍の背景である。領域903は、切り出し範囲である。スクリーンショット904は、映像901に加工処理を行った後の映像のスクリーンショットである。   A video 901 is a video before processing the video to be inserted. The background 902 is a background in the vicinity of the object existing in the video before and after the unnecessary section. A region 903 is a cutout range. A screen shot 904 is a screen shot of the video after processing the video 901.

挿入映像決定部206によって、挿入する映像を、映像901の背景のうち、不要区間前後の映像に存在するオブジェクトの近傍の背景ではない領域903の部分を切り出した映像に決定する。映像削除挿入部207では、挿入映像決定部206によって決定された切り出し範囲903を、映像901からを切り出し拡大する加工処理を行うことにより、挿入する映像703を生成し、挿入する。   The inserted video determination unit 206 determines the video to be inserted as a video obtained by cutting out a portion of the region 903 that is not the background in the vicinity of the object existing in the video before and after the unnecessary section in the background of the video 901. The video deletion / insertion unit 207 generates and inserts a video 703 to be inserted by performing a process of cutting out and expanding the cutout range 903 determined by the insertion video determination unit 206 from the video 901.

このように挿入する映像を決定し、映像を挿入することにより、編集後も自然な繋がりの映像にすることが可能となる。   By determining the video to be inserted in this way and inserting the video, it is possible to obtain a video having a natural connection after editing.

尚、この処理は一例である。加工後の挿入する映像が、不要区間の直前および直後に存在するオブジェクトが存在せず、背景が類似していない映像に加工されていれば、この例に限られない。   This process is an example. The video to be inserted after processing is not limited to this example as long as no object exists immediately before and after the unnecessary section and the background is not similar.

図10に実施形態2における挿入映像決定処理のフローチャートを示す。   FIG. 10 shows a flowchart of the inserted video determination process in the second embodiment.

実施形態2では、撮影時刻が次に編集対象に近い素材映像が無いと判定した場合(S803)、ステップS702において決定した範囲内の素材映像のなかで、不要区間直前および直後の背景と最も類似していない背景を持つ素材映像を加工対象映像とする(S1001)。   In the second embodiment, when it is determined that there is no material video whose shooting time is next closest to the editing target (S803), the material video within the range determined in step S702 is most similar to the background immediately before and immediately after the unnecessary section. A material video having a background that has not been processed is set as a processing target video (S1001).

尚、ここで加工対象映像を編集対象の背景と最も類似していない背景を持つ素材映像としたが、これは一例であり、これに限るものではない。例えば、撮影時刻が編集対象に最も近い素材映像を加工対象映像としても良い。   Here, the processing target video is a material video having a background that is not most similar to the editing target background, but this is only an example, and the present invention is not limited to this. For example, a material video whose shooting time is closest to the editing target may be used as the processing target video.

不要区間直前および直後の映像に存在するオブジェクトの近傍の背景ではない、加工対象映像の背景の一部を切り出し拡大した部分を挿入する映像とし(S1002)、挿入映像決定処理を終了する。   The inserted video determination process is terminated by setting a portion of the background of the processing target video that is not the background in the vicinity of the object existing in the video immediately before and immediately after the unnecessary section and inserting the enlarged portion (S1002).

尚、本実施形態では、加工処理として、映像の領域を切り出し拡大する処理を行っているが、これは一例であり、これに限るものではない。   In the present embodiment, the processing for cutting out and enlarging the video area is performed as the processing, but this is an example, and the present invention is not limited to this.

以上実施形態2で説明したように、このように構成し処理することにより、映像の不要区間を削除した区間に他の映像を加工して挿入することにより、編集後の映像が自然な映像となる効果を得られる。   As described above in the second embodiment, by configuring and processing in this way, by editing and inserting another video into a section in which an unnecessary section of the video is deleted, the edited video becomes a natural video. The effect becomes.

以上、実施形態1、2によれば、映像の不要区間を削除した区間に他の映像を挿入する映像編集を行う際、編集後の映像が自然な映像となるような編集を可能とする効果を得られる。   As described above, according to the first and second embodiments, when performing video editing in which another video is inserted into a section in which an unnecessary section of the video is deleted, an effect that enables editing so that the edited video becomes a natural video. Can be obtained.

(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (11)

編集対象映像から不要区間の映像を抽出する抽出手段と、
前記抽出された不要区間の映像に対応する画像に基づいて、前記不要区間に挿入する映像を前記編集対象映像から決定する決定手段と、
前記決定された映像を前記不要区間に挿入する挿入手段と
を備えることを特徴とする映像編集装置。
Extraction means for extracting video of unnecessary sections from the video to be edited;
Determining means for determining from the editing target video a video to be inserted into the unnecessary section, based on an image corresponding to the extracted video of the unnecessary section;
An image editing apparatus comprising: an inserting unit that inserts the determined image into the unnecessary section.
前記決定手段は、前記挿入する映像を、前記不要区間の映像と類似しない映像に決定することを特徴とする請求項1に記載の映像編集装置。   The video editing apparatus according to claim 1, wherein the determination unit determines the video to be inserted as a video that is not similar to the video in the unnecessary section. 前記不要区間の映像に対応する画像に存在するオブジェクトが存在する映像かを判定するオブジェクト判定手段と、
前記不要区間の映像に対応する画像の背景と類似する背景を有する映像かを判定する背景判定手段とを更に有し、
前記決定手段は、少なくとも前記オブジェクト判定手段と、前記背景判定手段の一方による判定結果に基づいて映像を決定することを特徴とする請求項1または2に記載の映像編集装置。
An object determination means for determining whether an object exists in an image corresponding to the video of the unnecessary section;
A background determination means for determining whether the image has a background similar to the background of the image corresponding to the video of the unnecessary section;
The video editing apparatus according to claim 1, wherein the determination unit determines a video based on a determination result by at least one of the object determination unit and the background determination unit.
前記決定手段は、前記オブジェクト判定手段によって前記不要区間の映像に対応する画像に存在するオブジェクトが存在しないと判定され、かつ、前記背景判定手段によって前記不要区間の映像に対応する画像の背景と類似する背景を有する映像でないと判定された映像を挿入する映像と決定することを特徴とする請求項3に記載の映像編集装置。   The determining means determines that there is no object present in the image corresponding to the video in the unnecessary section by the object determining means, and is similar to the background of the image corresponding to the video in the unnecessary section by the background determining means. The video editing apparatus according to claim 3, wherein the video editing apparatus determines that the video to be inserted is a video that is determined not to be a video having a background. 前記決定手段は、前記編集対象映像のうち、前記不要区間の映像に時間的に近い映像を前記挿入する映像と決定することを特徴とする請求項1から4に記載の映像編集装置。   5. The video editing apparatus according to claim 1, wherein the determination unit determines, as the video to be inserted, a video that is temporally close to a video in the unnecessary section among the video to be edited. 前記不要区間の映像に対応する画像とは、前記編集対象映像の前記不要区間の映像の直前と直後のフレーム画像であることを特徴とする請求項1から5に記載の映像編集装置。   6. The video editing apparatus according to claim 1, wherein the image corresponding to the video in the unnecessary section is a frame image immediately before and after the video in the unnecessary section of the editing target video. 前記不要区間の映像とは、少なくとも手ブレの激しい区間、明るすぎる区間、暗すぎる区間のいずれかであることを特徴とする請求項1から6に記載の映像編集装置。   The video editing apparatus according to claim 1, wherein the video in the unnecessary section is at least one of a section where camera shake is intense, a section that is too bright, and a section that is too dark. 映像の一部を切り出す加工手段をさらに有し、
前記決定手段は、加工手段によって加工された映像を挿入する映像として決定することを特徴とする請求項1から7に記載の映像編集装置。
It further has a processing means for cutting out a part of the image,
8. The video editing apparatus according to claim 1, wherein the determination unit determines the video processed by the processing unit as a video to be inserted.
映像から不要区間の映像を抽出する抽出工程と、
前記抽出された不要区間の映像に対応する画像に基づいて、前記不要区間に挿入する映像を前記編集対象映像から決定する決定工程と、
前記決定された映像を前記不要区間に挿入する挿入工程と
を備えることを特徴とする映像編集装置の制御方法。
An extraction process for extracting images of unnecessary sections from the images;
A determination step for determining a video to be inserted into the unnecessary section from the editing target video based on an image corresponding to the extracted video of the unnecessary section;
An image editing apparatus control method comprising: an inserting step of inserting the determined image into the unnecessary section.
請求項9に記載の映像編集装置の制御方法の各工程をコンピュータに実行させるためのプログラム。   The program for making a computer perform each process of the control method of the video editing apparatus of Claim 9. 請求項10に記載のコンピュータプログラムを記憶したことを特徴とするコンピュータ可読記憶媒体。   A computer-readable storage medium storing the computer program according to claim 10.
JP2011190685A 2011-09-01 2011-09-01 Video editing device and control method therefor Withdrawn JP2013055409A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011190685A JP2013055409A (en) 2011-09-01 2011-09-01 Video editing device and control method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011190685A JP2013055409A (en) 2011-09-01 2011-09-01 Video editing device and control method therefor

Publications (1)

Publication Number Publication Date
JP2013055409A true JP2013055409A (en) 2013-03-21

Family

ID=48132058

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011190685A Withdrawn JP2013055409A (en) 2011-09-01 2011-09-01 Video editing device and control method therefor

Country Status (1)

Country Link
JP (1) JP2013055409A (en)

Similar Documents

Publication Publication Date Title
US8515254B2 (en) Video editing apparatus and video editing method
US9769377B2 (en) Imaging apparatus and control method for handling a raw image of a moving image or a still image
CN106797498A (en) Message processing device, information processing method and program
CN110996183B (en) Video abstract generation method, device, terminal and storage medium
US20200275084A1 (en) Information processing apparatus, information processing method, and storage medium
KR101672691B1 (en) Method and apparatus for generating emoticon in social network service platform
JP2010258768A (en) Image display device and control method thereof, program and storage medium
KR102037997B1 (en) Electronic apparatus and method for generating contents
JP5408037B2 (en) Image processing apparatus and method, and program
US20150009227A1 (en) Color grading preview method and apparatus
JP2011155477A (en) Video processing apparatus, video processing method, and program
JP3897476B2 (en) Image processing apparatus and method, and computer-readable memory
JP7458713B2 (en) Image processing device, image processing system, control method, and program
JP2012060468A (en) Imaging apparatus, image generating apparatus, image generating program and image generating method
JP4189575B2 (en) Image processing apparatus, thumbnail movie creation method, and thumbnail movie creation program
JP2013055409A (en) Video editing device and control method therefor
JPH1196361A (en) Device and method for extracting object and medium recording object extraction program and object detection program
JP2008263657A (en) Image processor, thumbnail moving image creation method and thumbnail moving image creation program
JP6625598B2 (en) Image generation apparatus, image generation method, image generation program, and image generation system
JP2008020944A (en) Image processing method, program, and device
JP2012123721A (en) Image processing device and image processing method
JP2000235637A (en) Image processing system and image processing method
JP7166796B2 (en) Information processing device, information processing method, and program
JP2010021728A (en) Image processing apparatus and image processing method
JP2007324910A (en) Photographing system, photographing method and recording medium

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141104