JP4639043B2 - Moving picture editing apparatus and moving picture editing method - Google Patents

Moving picture editing apparatus and moving picture editing method Download PDF

Info

Publication number
JP4639043B2
JP4639043B2 JP2003400173A JP2003400173A JP4639043B2 JP 4639043 B2 JP4639043 B2 JP 4639043B2 JP 2003400173 A JP2003400173 A JP 2003400173A JP 2003400173 A JP2003400173 A JP 2003400173A JP 4639043 B2 JP4639043 B2 JP 4639043B2
Authority
JP
Japan
Prior art keywords
moving image
section
image data
frame
evaluation value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003400173A
Other languages
Japanese (ja)
Other versions
JP2005167377A (en
Inventor
貴裕 荒木
太郎 志潟
幸子 佐々木
洋志 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003400173A priority Critical patent/JP4639043B2/en
Publication of JP2005167377A publication Critical patent/JP2005167377A/en
Application granted granted Critical
Publication of JP4639043B2 publication Critical patent/JP4639043B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、撮影済みの動画像データを編集する動画像編集装置及び動画像編集方法に関し、特に、撮影時のカメラ設定、カメラ操作のミスにより生じた撮影失敗区間を検出可能な動画像編集装置及び動画像編集方法に関する。   The present invention relates to a moving image editing apparatus and a moving image editing method for editing captured moving image data, and in particular, a moving image editing apparatus capable of detecting a shooting failure section caused by a camera setting at the time of shooting and a camera operation error. And a moving image editing method.

従来、ビデオカメラによる撮影時に、映像がメディアに記録される直前で、自動的に「手ぶれ」、「ピンボケ」、「白飛び/黒つぶれ」、「露出アンダー/オーバー」など設定または撮影ミスを検出し、カメラ内で機械的、光学的または電子的な設定変更または抑制措置を取り、見易く良好な映像をメディアに記録するよう図った技術が多く提案されている。   Conventionally, when shooting with a video camera, immediately before the video is recorded on the media, settings such as “camera shake”, “bokeh”, “overexposure / underexposure”, and “underexposure / overexposure” are automatically detected. However, many techniques have been proposed in which a mechanical, optical, or electronic setting change or suppression measure is taken in the camera so as to record an easy-to-see and good image on a medium.

しかし、このような技術を利用しても、実際の撮影状態によっては上述の設定または撮影ミスがカバーしきれず、意図しない映像が記録されることが多い。また一方で、熟練者やプロのカメラマンはダイレクトに撮影意図をカメラに伝えられるよう上記技術を利用せず、マニュアル設定で撮影を行う傾向にあるが、熟練者やプロのカメラマンであっても設定または撮影ミスが発生して意図しない映像が記録される場合もある。従って、これら意図しない撮影区間は、撮影後にPC(Personal Computer)やビデオ編集機による動画編集作業でカットまたは修正される。   However, even if such a technique is used, depending on the actual shooting state, the above settings or shooting mistakes cannot be covered, and unintended videos are often recorded. On the other hand, skilled people and professional photographers tend to shoot manually without using the above technology so that the intention of photographing can be directly communicated to the camera. Or an unintended video may be recorded due to a shooting mistake. Therefore, these unintended shooting sections are cut or corrected by moving image editing work by a PC (Personal Computer) or a video editor after shooting.

ところで、撮影済みの映像データからユーザが所望の区間を検出し、組み合わせて編集する際に、それらの各区間が所定のシーンルールに従っているか否かを自動的に検出する動画像処理装置が下記特許文献1に記載されている。この特許文献1に記載の動画像処理装置は、撮影時のカメラの操作情報などを取得しておき、動画像の編集の際、パンで終了・開始するシーンは両方のパンの方向が揃っていること、チルトで終了・開始するシーンで両方のチルトの方向が揃っていることというシーンルールに照らし合わせ、これらのルールに合わないときは見づらい映像になることを通知する警告をユーザに対して表示するものである。   By the way, a moving image processing apparatus that automatically detects whether or not each section complies with a predetermined scene rule when a user detects a desired section from captured video data and edits the combined section is disclosed in the following patent. It is described in Document 1. The moving image processing apparatus described in Patent Document 1 acquires camera operation information at the time of shooting, and when editing a moving image, a panning end and start scene has both pan directions aligned. And a warning that informs the user that the video will be difficult to see if they do not meet these rules. To display.

しかし、所定のシーンルールを自動検出するために、このように撮影と同時にカメラ操作情報を取得し動画像と共に記録しておくと、カメラ側にカメラ操作情報を取得するための機構を搭載する必要があり、これを撮影部に搭載していない場合、ユーザはその恩恵を得ることができない。また、上述のカメラの設定及び操作情報などのカメラ操作情報は動画像に多重化され記録されるものであるが、動画編集部側にもこのカメラ操作情報を読み出す機構が別途必要になり、操作部及び動画編集部共に装置が複雑になる。   However, in order to automatically detect a predetermined scene rule, it is necessary to mount a mechanism for acquiring camera operation information on the camera side when camera operation information is acquired simultaneously with shooting and recorded together with a moving image. If this is not installed in the photographing unit, the user cannot obtain the benefit. In addition, camera operation information such as the camera settings and operation information described above is multiplexed and recorded in a moving image, but a separate mechanism for reading this camera operation information is also required on the video editing unit side. Both the video editing unit and the video editing unit become complicated.

また、このカメラ操作情報を取得する機構は、撮影部(カメラ)にて撮影時に働く必要があり、その為にリアルタイム性を要求されると共に、撮影部側の電力も含めたサイズ的な制約から、それ程強力な計算装置を搭載することは困難である為、十分な動画解析能力を持つことができないという問題点がある。   In addition, the mechanism for acquiring the camera operation information needs to work at the time of shooting in the shooting unit (camera). For this reason, real-time performance is required, and due to size restrictions including power on the shooting unit side. However, since it is difficult to mount such a powerful computing device, there is a problem in that it cannot have sufficient moving image analysis capability.

したがって、特許文献1においては、撮影時にカメラの操作情報を得る手段がない場合には、撮影した動画像から、先ずフレーム間類似度を使用してクリップの変わり目(カット点)を検出し、検出されたクリップ(フレーム群)からハフ変換などを用いてカメラ操作を判定し、これらのデータを用いて上述と同様、所定のルールに照らし合わせて動画像編集を行う方法が記載されている。   Therefore, in Patent Document 1, when there is no means for obtaining camera operation information at the time of shooting, the transition between the clips (cut points) is first detected from the captured moving image using the inter-frame similarity, and detection is performed. A method is described in which camera operation is determined from a clip (frame group) that has been recorded using Hough transform or the like, and using these data, moving image editing is performed in the same manner as described above in accordance with predetermined rules.

特開2003−69947号公報JP 2003-69947 A

しかしながら、上記特許文献1においては、撮影した動画像から、ハフ変換を用いて動きのベクトル消失点を求め、複数ある消失点のうち最大投票数を得た消失点を背景に対する消失点とし、カメラ操作情報に関する拘束式を解くことでカメラの操作を判定するものであり、「手ぶれ」、「ピンボケ」、「白飛び/黒つぶれ」、「露出アンダー/オーバー」など、操作ミス又は撮影ミスにより所定の再生基準を満たしていないものを検出することができない。   However, in Patent Document 1, a motion vector vanishing point is obtained from a captured moving image using Hough transform, and the vanishing point that has obtained the maximum number of votes among a plurality of vanishing points is used as a vanishing point with respect to the background. The camera operation is determined by solving the constraint formula related to the operation information. Predetermined by an operation error or shooting error such as “shake,” “out of focus,” “overexposure / underexposure”, “underexposure / overexposure”, etc. Cannot be detected.

上述したように、映像データには、撮影者の意図しない不要な撮影区間が含まれる場合があり、特に長時間の動画像データを編集するような場合、操作ミス又は撮影ミスなどにより生じてしまって見えづらい又はユーザが意図しない撮影区間を探し出す作業は極めて時間がかかる作業となってしまう。   As described above, the video data may include unnecessary shooting sections that are not intended by the photographer, particularly when editing moving image data for a long time, which may be caused by an operation error or a shooting error. It is very time consuming to find a shooting section that is difficult to see or intended by the user.

本発明は、このような従来の実情に鑑みて提案されたものであり、既に記録された動画像データに対して、編集時に削除または修正される可能性が高い区間を動画解析により検出し、編集時その情報を動画像データと共に表示することで高速かつ容易にその区間をカットまたは修正することを可能にした動画編集装置及び動画像編集方法を提供することを目的とする。   The present invention has been proposed in view of such a conventional situation, and for moving image data that has already been recorded, a section that is highly likely to be deleted or corrected during editing is detected by moving image analysis, An object of the present invention is to provide a moving image editing apparatus and a moving image editing method capable of cutting or correcting a section at high speed and easily by displaying the information together with moving image data during editing.

上述した目的を達成するために、本発明に係る動画像編集装置は、撮影手段により撮影された動画像データを記憶する記憶手段と、上記動画像データを解析して、予め定められた再生基準を満たすか否かを判定する複数の判定項目について上記動画像データのフレーム又はフィールド毎の輝度分布、輝度微分値分布、及び動きベクトル分布の少なくとも1つに基づきフレーム又はフィールド単位で個別にその評価値を算出する画像解析手段と、上記画像解析手段によって算出された上記判定項目毎の上記評価値が上記再生基準を満たすとされる所定の閾値未満である撮影失敗フレーム数又はフィールド数に基づき、上記動画像データから、上記再生基準を満たさないと判定された撮影失敗候補区間を上記判定項目毎に検出するとともに、上記判定項目毎の上記撮影失敗候補区間が少なくとも1つ検出された区間をカット推奨区間として検出する候補区間検出手段と、上記動画像の時間軸上に、上記判定項目毎の上記評価値を上記フレーム単位でグラフ表示するとともに、当該時間軸上に、上記判定項目毎の上記撮影失敗候補区間と、上記カット推奨区間とを上記動画像データと共に表示する表示手段と、上記動画像データを削除又は修正するための操作手段と、上記操作手段により削除又は修正された動画像データの上記評価値に基づき、撮影失敗候補区間を検出するための上記再生基準を再設定する学習手段とを有する。   In order to achieve the above-described object, a moving image editing apparatus according to the present invention includes a storage unit that stores moving image data shot by a shooting unit, and analyzes the moving image data to obtain a predetermined reproduction standard. A plurality of determination items for determining whether or not the condition is satisfied are evaluated individually for each frame or field based on at least one of the luminance distribution, luminance differential value distribution, and motion vector distribution for each frame or field of the moving image data. Based on the image analysis means for calculating the value, and the number of shooting failure frames or the number of fields in which the evaluation value for each of the determination items calculated by the image analysis means is less than a predetermined threshold that satisfies the reproduction criterion, From the moving image data, a shooting failure candidate section determined not to satisfy the reproduction criterion is detected for each determination item, and Candidate section detecting means for detecting a section in which at least one shooting failure candidate section for each fixed item is detected as a recommended cut section, and the evaluation value for each determination item on the time axis of the moving image In addition to displaying a graph in units, on the time axis, display means for displaying the shooting failure candidate section for each determination item and the recommended cut section together with the moving image data, and deleting or correcting the moving image data And learning means for resetting the reproduction reference for detecting a shooting failure candidate section based on the evaluation value of the moving image data deleted or modified by the operation means.

本発明においては、予め定められた再生基準を満たさないと判定される撮影失敗候補区間を自動的に検出し、これを動画像データと共に表示するため、動画像を編集するユーザは、撮影失敗候補区間の映像を確認しつつ編集作業を進めることができる。   In the present invention, a shooting failure candidate section that is determined not to satisfy a predetermined reproduction criterion is automatically detected and displayed together with moving image data. Editing can be performed while checking the video of the section.

また、上記画像解析手段は、上記再生基準を満たすか否かを判定する複数の判定項目について個別にその評価値を算出し、上記候補区間検出手段は、各判定項目毎に上記評価値に基づき上記撮影失敗候補区間を検出することができ、複数の判定項目を設定し、各判定項目における評価値により個別に撮影失敗候補区間を検出することで、映像の種類やその編集目的に応じた区間を選択して削除または修正を行うことができる。   Further, the image analysis means individually calculates evaluation values for a plurality of determination items for determining whether or not the reproduction criterion is satisfied, and the candidate section detection means is based on the evaluation values for each determination item. The above shooting failure candidate sections can be detected, a plurality of determination items are set, and the shooting failure candidate sections are individually detected based on the evaluation values in the respective determination items, so that the sections according to the type of video and the editing purpose thereof. You can select to delete or modify.

更に、上記表示手段は、上記動画像の時間軸上に上記撮影失敗候補区間を表示することができ、これにより、編集作業を更に高効率化させる。   Furthermore, the display means can display the shooting failure candidate section on the time axis of the moving image, thereby further improving the efficiency of editing work.

更にまた、上記候補区間検出手段は、各判定項目毎に検出された各撮影失敗候補区間に基づきカット推奨区間を検出し、上記表示手段は、上記動画像データと共に上記カット推奨区間を表示することができ、複数の判定項目における撮影失敗候補区間を検出することで、削除するべき区間として確信度が高いカット推奨区間をユーザに認識させることができる。   Furthermore, the candidate section detecting means detects a recommended cut section based on each shooting failure candidate section detected for each determination item, and the display means displays the recommended cut section together with the moving image data. By detecting the shooting failure candidate sections in the plurality of determination items, the user can be made to recognize the recommended cut section having a high certainty as the section to be deleted.

また、上記画像解析手段は、上記動画像データのフレームまたはフィールド毎の輝度分布、輝度微分値分布、及び動きベクトル分布の少なくとも1つに基づきフレームまたはフィールド単位で上記評価値を算出することができ、「手ぶれ」、「ピンボケ」、「白飛び/黒つぶれ」、「露出アンダー/オーバー」などが生じているか否かを評価するための判定項目を設けてその評価値を算出することができる。   The image analysis means can calculate the evaluation value in units of frames or fields based on at least one of a luminance distribution, a luminance differential value distribution, and a motion vector distribution for each frame or field of the moving image data. Evaluation items can be calculated by providing judgment items for evaluating whether or not “camera shake”, “out-of-focus”, “out-of-white / black-out”, “under-exposure / over-exposure”, and the like have occurred.

更に、上記候補区間検出手段は、上記評価値が上記再生基準を満たすとされる所定の閾値未満である撮影失敗フレームまたはフィールドが所定区間以上連続する区間を上記撮影失敗候補区間として検出することができ、鮮明でなかったり、全体が大きく動いてしまっていたり、適切な明るさではなかったり、白飛び・黒潰れなどが生じることで撮影失敗フレームまたはフィールドと判定され、それが連続している区間を撮影失敗候補区間として検出することができる。   Further, the candidate section detection means may detect, as the shooting failure candidate section, a section in which a shooting failure frame or field whose evaluation value is less than a predetermined threshold that satisfies the reproduction criterion is continuous for a predetermined section or more. It is determined that it is a shooting failure frame or field because it is not clear, the whole has moved greatly, the brightness is not appropriate, whiteout, blackout, etc. occur, and it is continuous Can be detected as a shooting failure candidate section.

更にまた、上記候補区間検出手段は、上記評価値が上記再生基準を満たすとされる所定の閾値未満である撮影失敗フレームまたはフィールドが出現する間隔が所定の間隔未満である区間が複数連続して所定の区間以上となった場合、当該区間を上記撮影失敗候補区間として検出することができ、手ぶれなどにより、所定間隔毎に評価値が下がり撮影失敗フレームまたはフィールドが出現するような区間を撮影失敗候補区間として検出することができる。   Still further, the candidate section detecting means is configured such that a plurality of sections in which the intervals at which shooting failure frames or fields whose evaluation values satisfy the reproduction criterion are less than a predetermined threshold appear are less than the predetermined intervals are consecutive. If the interval exceeds a predetermined interval, the interval can be detected as the above-mentioned shooting failure candidate interval, and shooting failure occurs when an evaluation value drops at a predetermined interval due to camera shake or the like, or a shooting failure frame or field appears. It can be detected as a candidate section.

また、上記表示手段は、上記各判定項目毎に上記評価値を表示することができ、撮影失敗候補区間として検出されていないフレームにおいても、評価値を編集指標として参照し、編集作業を行うことができる。   Further, the display means can display the evaluation value for each of the determination items, and perform editing work with reference to the evaluation value as an editing index even in a frame that is not detected as a shooting failure candidate section. Can do.

更に、上記動画像データを削除又は修正するための操作手段を有し、上記操作手段により削除又は修正された動画像データの上記評価値に基づき、撮影失敗候補区間を検出するための上記再生基準を再設定する学習手段を有することができ、学習により撮影失敗候補区間検出の精度を向上させることができる。   Further, the reproduction criterion for detecting the shooting failure candidate section based on the evaluation value of the moving image data deleted or modified by the operation unit, further comprising an operation unit for deleting or correcting the moving image data. The learning means for resetting can be provided, and the accuracy of detection of the shooting failure candidate section can be improved by learning.

本発明に係る動画像編集方法は、撮影手段により撮影された動画像データを記憶する記憶工程と、上記動画像データを解析して、予め定められた再生基準を満たすか否かを判定する複数の判定項目について上記動画像データのフレーム又はフィールド毎の輝度分布、輝度微分値分布、及び動きベクトル分布の少なくとも1つに基づきフレーム又はフィールド単位で個別にその評価値を算出する画像解析工程と、上記画像解析工程にて算出された上記判定項目毎の上記評価値が上記再生基準を満たすとされる所定の閾値未満である撮影失敗フレーム数又はフィールド数に基づき、上記動画像データから、上記再生基準を満たさないと判定された撮影失敗候補区間を上記判定項目毎に検出するとともに、上記判定項目毎の上記撮影失敗候補区間が少なくとも1つ検出された区間をカット推奨区間として検出する候補区間検出工程と、上記動画像の時間軸上に、上記判定項目毎の上記評価値を上記フレーム単位でグラフ表示するとともに、当該時間軸上に、上記判定項目毎の上記撮影失敗候補区間と、上記カット推奨区間とを上記動画像データと共に表示する表示工程と、上記動画像データを削除又は修正するための操作工程と、上記操作工程にて削除又は修正された動画像データの上記評価値に基づき、撮影失敗候補区間を検出するための上記再生基準を再設定する学習工程とを有する。   The moving image editing method according to the present invention includes a storage step of storing moving image data shot by a shooting unit, and a plurality of determinations whether the moving image data is analyzed to satisfy a predetermined reproduction criterion. An image analysis step for calculating the evaluation value individually for each frame or field based on at least one of the luminance distribution for each frame or field of the moving image data, the luminance differential value distribution, and the motion vector distribution for the determination item; Based on the number of unsuccessful frames or the number of fields in which the evaluation value for each of the determination items calculated in the image analysis step is less than a predetermined threshold that satisfies the reproduction criterion, the reproduction from the moving image data is performed. A shooting failure candidate section determined not to satisfy the criterion is detected for each determination item, and the shooting failure candidate section for each determination item is A candidate section detection step for detecting at least one detected section as a recommended cut section, and the evaluation value for each determination item on the time axis of the moving image is displayed as a graph in units of frames, and the time On the axis, a display step for displaying the shooting failure candidate interval for each determination item and the recommended cut interval together with the moving image data, an operation step for deleting or correcting the moving image data, and the operation And a learning step of resetting the reproduction reference for detecting a shooting failure candidate section based on the evaluation value of the moving image data deleted or corrected in the step.

本発明に係る動画像編集装置及び方法によれば、撮影手段により撮影された動画像データを記憶し、上記動画像データを解析し、その解析結果に基づき、上記動画像データから、予め定められた再生基準を満たさないと判定される撮影失敗候補区間を検出し、上記撮影失敗候補区間を上記動画像データと共に表示するので、動画像を編集するユーザは、予め定められた再生基準を満たさないと判定された撮影失敗候補区間の映像を確認しつつ編集作業を進めることができ、撮影失敗候補区間を検索する手間が省け、編集作業が高効率化すると共に、撮影失敗候補区間を自動的に検索することで見逃しを防止することができる。   According to the moving image editing apparatus and method of the present invention, the moving image data shot by the shooting unit is stored, the moving image data is analyzed, and the moving image data is determined in advance from the moving image data based on the analysis result. Since the shooting failure candidate section determined to not satisfy the reproduction criterion is detected and the shooting failure candidate section is displayed together with the moving image data, the user who edits the moving image does not satisfy the predetermined reproduction criterion. The editing work can be performed while checking the video of the shooting failure candidate section determined to be, and the trouble of searching for the shooting failure candidate section can be saved, the editing work becomes highly efficient, and the shooting failure candidate section is automatically selected. Searching can prevent oversight.

以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。この実施の形態は、本発明を、ビデオカメラなどにより撮影した動画像データから撮影時の設定ミスや操作ミスにより生じる「手ぶれ」、「ピンボケ」、「白飛び/黒つぶれ」、「露出アンダー/オーバー」などの撮影失敗区間を自動検出し、動画像編集作業を高効率化すると共に撮影失敗区間の見逃しを防止した動画像編集装置及び方法に適用したものである。   Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings. In this embodiment, the present invention can be applied to “camera shake”, “blurring”, “overexposure / blackout”, “underexposure / The present invention is applied to a moving image editing apparatus and method that automatically detects a shooting failure section such as “over” to improve the efficiency of the moving image editing work and prevent the shooting failure section from being overlooked.

図1は、本発明の実施形態における動画像編集システムを示すブロック図である。図1に示すように、動画像編集システム1は、画像を撮影するためのビデオカメラ10と、撮影した動画像データを記録し、動画像データを編集をするための例えばPCなどの情報処理装置20とを有する。   FIG. 1 is a block diagram showing a moving image editing system according to an embodiment of the present invention. As shown in FIG. 1, a moving image editing system 1 includes a video camera 10 for capturing an image, and an information processing apparatus such as a PC for recording the captured moving image data and editing the moving image data. 20.

ビデオカメラ10は、映像を電気信号に変換するCCD(Charge Coupled Devise)と、CCDからの電気信号を所定の記録信号に変換する記録信号処理モジュール12と、メディア入出力(I/O)モジュール13を介した動画像データが記録される記録メディア14とを有する。更に、メディアI/Oモジュールから記録メディア14に記録された動画像データを読み出し、外部の機器に対して動画像データを出力するためのシリアルインターフェース入出力モジュール(IEEE(Institute of Electrical and Electronics Engineers)1394I/Oモジュール)15を有する。記録メディア14は、磁気テープ、光ディスク、光磁気ディスク、磁気ディスク、不揮発性メモリなどである。ビデオカメラ10は例えばIEEE1394などを介して情報処理装置20と接続されることで、記録メディア14に記録された動画像データを情報処理装置20に出力することができる。   The video camera 10 includes a CCD (Charge Coupled Devise) that converts an image into an electric signal, a recording signal processing module 12 that converts an electric signal from the CCD into a predetermined recording signal, and a media input / output (I / O) module 13. And a recording medium 14 on which moving image data is recorded. Further, a serial interface input / output module (IEEE (Institute of Electrical and Electronics Engineers)) for reading moving image data recorded on the recording medium 14 from the media I / O module and outputting the moving image data to an external device. 1394 I / O module) 15. The recording medium 14 is a magnetic tape, an optical disk, a magneto-optical disk, a magnetic disk, a nonvolatile memory, or the like. The video camera 10 is connected to the information processing apparatus 20 via, for example, IEEE 1394, so that moving image data recorded on the recording medium 14 can be output to the information processing apparatus 20.

情報処理装置20は、ビデオカメラ10から出力された動画像データを受信するIEEE1394I/FCard21と、IEEE1394I/FCard21により受信された動画像データを記録するハードディスクHD(HardDisk)22と、HD22から読み出されたプログラムを格納するRAM(Random Access Memory)23と、RAM23にロードされたプログラムに従って各種の処理を実行するCPU24とを有し、IEEE1394I/FCard21、HD22、RAM23及びCPU24はバス25を介して接続されている。   The information processing device 20 is read from the IEEE 1394 I / FCard 21 that receives the moving image data output from the video camera 10, the hard disk HD (HardDisk) 22 that records the moving image data received by the IEEE 1394 I / FCard 21, and the HD 22. A random access memory (RAM) 23 for storing the program and a CPU 24 for executing various processes in accordance with the program loaded in the RAM 23. The IEEE 1394 I / FCard 21, the HD 22, the RAM 23, and the CPU 24 are connected via a bus 25. ing.

バス25にはまたビデオ入出力部(VideoI/O)26が接続され、デジタルビデオインターフェース(Digital Video Interface(VDI))28を介してディスプレイ29に接続されている。また、バス25には、USB(Universal Serial Bus)I/F27が接続され、USB29を介してキーボード31、マウス32と接続されている。   A video input / output unit (Video I / O) 26 is also connected to the bus 25, and is connected to a display 29 via a digital video interface (VDI) 28. In addition, a USB (Universal Serial Bus) I / F 27 is connected to the bus 25, and is connected to a keyboard 31 and a mouse 32 via the USB 29.

ディスプレイ29には、HD22に記録された動画像データをブラウジングするためのGUI(Graphic User Interface)を表示することができる。また、後述するように、本動画像編集システム1においては、カメラ設定ミスや撮影ミスにより、例えば「手ぶれ」、「ピンボケ」、「白飛び/黒つぶれ」、「露出アンダー/オーバー」などが生じ、見え難い又は撮影者の意図しない撮影失敗区間(以下、NG候補区間という。)を自動的に検出し、これを動画像編集時にGUIによって表示することができる。   The display 29 can display a GUI (Graphic User Interface) for browsing moving image data recorded on the HD 22. Further, as will be described later, in the moving image editing system 1, for example, “camera shake”, “out-of-focus”, “overexposure / underexposure”, “underexposure / overexposure”, etc. occur due to camera setting mistakes or shooting mistakes. It is possible to automatically detect a shooting failure section (hereinafter referred to as an NG candidate section) that is difficult to see or unintended by the photographer, and display this by the GUI when editing a moving image.

ユーザはこのGUIによって、記録された動画像データの再生や、本動画像編集システム1で検出された動画像データ内のNG候補区間を修正または削除をする処理を行い動画像を編集することができる。このディスプレイ29に表示されるGUIは、ユーザからの入力デバイスであるキーボード31及びマウス32により操作することができる。   The user can edit the moving image by playing back the recorded moving image data and correcting or deleting the NG candidate section in the moving image data detected by the moving image editing system 1 using this GUI. it can. The GUI displayed on the display 29 can be operated by a keyboard 31 and a mouse 32 which are input devices from the user.

先ず、本実施の形態における動画像編集装置における動作の流れについて説明する。図2は、図1のシステムを用いて動画像編集装置1によりNG候補区間を検出してGUIに表示させ、編集作業を行わせるまののワークフローを示す図である。   First, an operation flow in the moving image editing apparatus according to the present embodiment will be described. FIG. 2 is a diagram showing a workflow until an NG candidate section is detected and displayed on the GUI by the moving image editing apparatus 1 using the system of FIG.

先ず、ビデオカメラ10のCCD11により動画像(映像)が撮影され、動画像データがキャプチャされて、記録信号処理モジュール12、メディアI/Oモジュール13を介して記録メディア14に記録される。そして、記録メディア14に記録された動画像データが、メディアI/Oモジュール13により読み出され、IEEE1394I/Oモジュールを介してIEE1394I/Fカード21により受信され、HD22に記録される(ステップS1)。   First, a moving image (video) is captured by the CCD 11 of the video camera 10, and moving image data is captured and recorded on the recording medium 14 via the recording signal processing module 12 and the media I / O module 13. Then, the moving image data recorded on the recording medium 14 is read by the media I / O module 13, received by the IEEE 1394 I / F card 21 via the IEEE 1394 I / O module, and recorded on the HD 22 (step S1). .

次に、HD22に記録された動画像データの画像解析を行う。画像解析は、HD22の動画像データをRAM23に読み出しCPU24にて後述の方法にて、フレーム毎に輝度分布、輝度微分値、動きベクトル分布などを計算する(ステップS2)。   Next, image analysis of the moving image data recorded on the HD 22 is performed. In the image analysis, the moving image data of the HD 22 is read into the RAM 23, and the CPU 24 calculates the luminance distribution, the luminance differential value, the motion vector distribution, etc. for each frame by the method described later (step S2).

次に、得られた画像解析結果に基づき、動画像データの見え易さを、「シャープで鮮明」か否か、「動きが少ない」か否か、「動きの変化が少ない」か否か、「明る過ぎたり暗過ぎたりしない」か否か、「白飛びや黒潰れが多くない」か否かなど、所定の再生基準を満たすか否かを判定する各判定項目について、所定の基準に照らし合わせて評価し、ある一定の撮影区間より長い区間、その基準を満たさない区間があった場合にこれをNG候補区間として抽出し記憶する(ステップS3)。   Next, based on the obtained image analysis result, whether the visibility of the moving image data is “sharp and clear”, “whether there is little movement”, “whether there is little change in movement”, Each judgment item that determines whether or not it meets the specified playback criteria, such as whether it is "too bright or too dark" or "no whiteout or blackout", In addition, if there is a section longer than a certain shooting section or a section that does not satisfy the standard, it is extracted and stored as an NG candidate section (step S3).

そして、例えばユーザが動画像を編集する際またはステップS2及びステップS3の処理が終了した時点でNG候補区間を動画像と共にGUIの時間軸上に表示することで、NG候補区間を削除したり、修正したりするユーザの動画像編集作業の手助けとする(ステップS4)。   For example, when the user edits a moving image or when the processing of step S2 and step S3 ends, the NG candidate interval is displayed on the GUI time axis together with the moving image, thereby deleting the NG candidate interval, This is to help the user to correct the moving image editing work (step S4).

また、ステップS2及びステップS3の処理は、HD22に動画像データを記録するステップS1の処理が終わった後で行われても構わないし、ステップS1の処理と平行して、パイプライン的に行われてもよい。   Further, the processing in step S2 and step S3 may be performed after the processing in step S1 for recording moving image data on the HD 22 is completed, and is performed in a pipeline in parallel with the processing in step S1. May be.

ここで、本実施の形態における動画像編集システムでは、ステップS2の動画像データの解析処理、ステップS3のNG候補区間の検出処理、ステップS4のNG候補区間の削除・修正処理により、動画像データの中から、NG候補区間及び各NG候補区間に基づき選択されるカット推奨区間など、見えづらいと思われる撮影区間をユーザに通知し、排除しやすくすることで、編集作業を高効率化させるものである。   Here, in the moving image editing system according to the present embodiment, moving image data is analyzed by moving image data analysis processing in step S2, NG candidate section detection processing in step S3, and NG candidate section deletion / correction processing in step S4. The NG candidate section and the recommended cut section selected based on each NG candidate section are notified to the user of shooting sections that are considered difficult to see, making it easy to eliminate, thereby making editing work highly efficient It is.

先ず、ステップS2における動画像解析処理について詳細に説明する。ここでは、この動画像データの見え易さの評価として、A:「シャープで鮮明(Dis)」か否か、B:「動きが少ない(Stl)」か否か、C:「動きの変化が少ない(Stb)」か否か、D:「明る過ぎたり暗すぎたりしない(Lum)」か否か、E:「白飛びや黒潰れが多くない(Sat)」か否かという5つの見え易さ判定項目における評価を行う例について説明する。なお、全ての評価値は、その値が高いほど、動画像データが見やすいデータ、すなわち撮影に成功していると推定されることを示すものとする。   First, the moving image analysis process in step S2 will be described in detail. Here, as evaluation of the visibility of the moving image data, A: “sharp and clear (Dis)”, B: “no movement (St1)”, C: “change in movement” 5: Ease of visibility: whether it is “low (Stb)”, D: “does not be too bright or too dark (Lum)”, E: “does not have many overexposure or blackout (Sat)” An example in which evaluation is performed on the determination items will be described. It should be noted that all the evaluation values indicate that the higher the value is, the easier it is to see the moving image data, that is, it is estimated that the shooting is successful.

ここで、「動きが少ない」か否かの判定項目は、フレーム間で動きが少ないほど高い評価とされるが、これは例えば前方を撮影中に後方から物音が聞こえ、撮影者がカメラを前方から後方に移動させた場合などにおいて、移動中のフレーム間の動きは大きくなり、「動きが少ない」評価値が下がる。このような場合において、移動中の画像をカットし、移動後の画像を使用したいような場合に、この「動きが少ない」か否かの判定項目は有効となる。   Here, the item for determining whether or not “there is little movement” is evaluated as being highly evaluated as there is little movement between frames. This is because, for example, a subject can hear a sound from behind while photographing the front, and the photographer moves the camera forward. For example, when moving from the rear to the rear, the movement between the moving frames increases, and the evaluation value of “less movement” decreases. In such a case, when the moving image is cut and it is desired to use the moved image, the determination item of whether “there is little movement” is effective.

また、「動きの変化が少ない」か否かの判定項目においては、動きの変化が少ないほど高い評価とするものであるが、これは主に手ぶれを検出するものであり、手ぶれが生じると動きの変化が多くなって評価値が下がるため、手ぶれ区間を検出することができる。   In addition, in the determination item of whether or not “the change in motion is small”, the higher the evaluation is the smaller the change in motion, this is mainly to detect camera shake. Since the evaluation value decreases due to an increase in the change in camera shake, it is possible to detect a camera shake section.

本実施の形態実施の形態においては、上記見え易さの各判定項目の評価を示す評価値を算出するパラメータとして、動画像データ内の各フレームについて、下記8つのパラメータを算出する。   In the present embodiment, the following eight parameters are calculated for each frame in the moving image data as parameters for calculating an evaluation value indicating the evaluation of each determination item for visibility.

(1)平均輝度
(2)輝度標準偏差
(3)白飛び率
(4)黒潰れ率
(5)平均輪郭階差
(6)パターンマッチング成功率P
(7)平均移動量Avg_m
(8)平均移動方向Avg_d
(1) Average luminance (2) Luminance standard deviation (3) Whiteout ratio (4) Black crush rate (5) Average contour difference (6) Pattern matching success rate P
(7) Average movement amount Avg_m
(8) Average moving direction Avg_d

これらのパラメータは、以下の様に各見え易さ判定項目の評価を示す評価値の算出に利用される。   These parameters are used to calculate an evaluation value indicating the evaluation of each visibility evaluation item as follows.

A:「シャープで鮮明」か否かの評価
(2)輝度標準偏差
(5)平均輪郭階差
B:「動きが少ない」か否かの評価
(6)パターンマッチング成功率
(7)平均移動量
(8)平均移動方向
C:「動きの変化が少ない」
(7)平均移動量
(8)平均移動方向
D:「明る過ぎたり暗過ぎたりしない」か否かの評価
(1)平均輝度
E:「白飛びや黒潰れが多くない」か否かの評価
(3)白飛び率
(4)黒潰れ率
A: Evaluation of “sharp and clear” (2) Luminance standard deviation (5) Average contour difference B: Evaluation of “no movement” (6) Pattern matching success rate (7) Average movement amount (8) Average moving direction C: “There is little change in movement”
(7) Average moving amount (8) Average moving direction D: Evaluation of whether it is “too bright or too dark” (1) Average luminance E: Evaluation of whether there are not many overexposures or blackouts (3) White skip ratio (4) Black crush ratio

図3は、上述の(1)乃至(8)を算出する動画像データの解析処理方法を示すフローチャートである。図3に示すように、先ず、入力された動画像データを伸長し(ステップS11)、1フレーム毎に輝度分布計算を行う(ステップS12)。   FIG. 3 is a flowchart showing a moving image data analysis processing method for calculating (1) to (8) described above. As shown in FIG. 3, first, the input moving image data is decompressed (step S11), and the luminance distribution is calculated for each frame (step S12).

このステップS12における輝度分布計算で、動画像データ内のあるフレームについて輝度ヒストグラムを求め、(1)平均輝度、(2)輝度標準偏差、(3)白飛び率、(4)黒潰れ率を求める。図4は、横軸に明度をとり、縦軸に画素数をとって、1フレームにおける輝度ヒストグラムを示すグラフ図である。この輝度ヒストグラムから、輝度ヒストグラムの平均値を(1)平均輝度として算出し、輝度ヒストグラムの標準偏差を(2)輝度標準偏差として算出する。また、(3)白飛び率、及び(4)黒潰れ率は、明度の最大値を持つ画素数Ymax及び明度の最小値を持つ画素数Yminから以下に示す式にて容易に算出することができる。 In the luminance distribution calculation in step S12, a luminance histogram is obtained for a certain frame in the moving image data, and (1) average luminance, (2) luminance standard deviation, (3) whiteout rate, and (4) black crushing rate are obtained. . FIG. 4 is a graph showing a luminance histogram in one frame, with the horizontal axis representing brightness and the vertical axis representing the number of pixels. From this luminance histogram, the average value of the luminance histogram is calculated as (1) average luminance, and the standard deviation of the luminance histogram is calculated as (2) luminance standard deviation. Further, (3) overexposure ratio, and (4) black crushing rate is easily calculated by a formula shown below from the number of pixels Y min with a minimum value of the pixel number Y max and luminosity with maximum brightness be able to.

(1)平均輝度=輝度ヒストグラムの平均値Yavg
(2)輝度標準偏差=輝度ヒストグラムの標準偏差
(3)白飛び率(%)=(明度の最大値を持つ画素数Ymax/全画素数)×100
(4)黒潰れ率(%)=(明度の最小値を持つ画素数Ymin/全画素数)×100
(1) Average luminance = Average value Y avg of luminance histogram
(2) Luminance standard deviation = Standard deviation of luminance histogram (3) Whiteout ratio (%) = (number of pixels having the maximum value of brightness Y max / total number of pixels) × 100
(4) Black crushing rate (%) = (number of pixels having the minimum value of brightness Y min / total number of pixels) × 100

図3に戻って、次に、輝度微分値分布計算をする(ステップS13)。これにより、(5)平均輪郭階差を求める。図5は、横軸に輝度微分値をとり、縦軸に画素数をとって、輝度微分値分布計算の課程で用いられる微分値ヒストグラムを示すグラフ図である。図5に示す輝度微分値は、動画像データ内のあるフレームについて、各画素の水平方向、垂直方向における隣接画素についての差分を取り、水平方向及び垂直方向の隣接画素の差分のうち絶対値が大きい方を微分値としてヒストグラムを求めた例である。そして、ある閾値Th以上の微分値を持つ画素、すなわち図5においては領域Pに含まれる画素について、その画素数が一定量以上に達した場合、領域Pに含まれる輝度微分値の平均値を求め、下記に示す(5)平均輪郭階差とする。ここで、一定量以上に達しない場合、最小値となる閾値Thを(5)平均輪郭階差とする。ここで、閾値Thは、閾値Thより輝度微分値が大きい画素は、フレームのうちシャープな部分を構成する画素、閾値Thより輝度微分値が小さい画素は、フレームのうちボケた部分を構成する画素と見なせるよう適宜設定される値である。   Returning to FIG. 3, next, the luminance differential value distribution calculation is performed (step S13). Thus, (5) an average contour difference is obtained. FIG. 5 is a graph showing a differential value histogram used in the process of calculating the luminance differential value distribution, with the luminance differential value on the horizontal axis and the number of pixels on the vertical axis. The luminance differential value shown in FIG. 5 takes the difference between adjacent pixels in the horizontal and vertical directions of each pixel for a certain frame in the moving image data, and the absolute value of the difference between adjacent pixels in the horizontal and vertical directions is This is an example in which a histogram is obtained using a larger value as a differential value. Then, for pixels having a differential value equal to or greater than a certain threshold Th, that is, for pixels included in the region P in FIG. 5, the average value of the luminance differential values included in the region P is obtained when the number of pixels reaches a certain amount or more. Obtain (5) average contour difference shown below. Here, when it does not reach a certain amount or more, the threshold Th that is the minimum value is set as (5) average contour difference. Here, the threshold value Th is a pixel that forms a sharp portion of the frame when the pixel has a larger luminance differential value than the threshold value Th, and a pixel that forms a blurred portion of the frame when the pixel has a smaller luminance differential value than the threshold value Th. It is a value set as appropriate so that it can be considered.

(5)平均輪郭階差=閾値Th以上の微分値を持つ画素の平均微分値 (5) Average contour difference = average differential value of pixels having a differential value greater than or equal to the threshold Th

次に、図3のステップS14に示すように、動きベクトル分布の計算をし、(6)パターンマッチング成功率、(7)平均移動量、(8)平均移動方向を求める。   Next, as shown in step S14 of FIG. 3, the motion vector distribution is calculated to determine (6) pattern matching success rate, (7) average movement amount, and (8) average movement direction.

図6及び図7に、動きベクトル計算課程で用いられるグラフを示す。あるフレーム(現フレーム)内の各ブロック(例えば16×16画素)について、前のフレームとのパターンマッチングを行い、その移動量(移動距離)および移動方向を求め、ヒストグラムにした例である。すなわち、図6は、横軸に移動量をとり、縦軸にブロック数をとって各ブロックの移動量のヒストグラムを示すグラフ図、図7は、横軸に移動方向をとり、縦軸にブロック数をとって各ブロックの移動方向のヒストグラムを示すグラフ図である。なお、この動画像データがインターレース画像である場合は、前フレームでなく奇数・偶数フィールド間でパターンマッチングを行ってもよい。ここで用いられるパターンマッチングでは単純に、現フレームの対象となるブロック(対象ブロック)と、前フレームにおいて、対象ブロックの座標近傍であって、対象ブロックと同サイズのブロックとの輝度微分の絶対値の和が最小となるブロックを検索し、この距離が閾値以下であったならそのブロックに対してパターンマッチング成功とする。これにより、(6)パターンマッチング成功率は容易に求まるが、この成功率は上記検索を行う範囲と関連する。ここで求めたい「動き」とは被写体の動きのことで、これは「動きが大きい」ブロックより、「動きが小さい」ブロックと定義するため、この検索範囲はそれ程広くなくてよい。すなわち、ある程度の検索範囲内にてマッチングが成功しないような大きい動きのあるブロックは「動きが少ない」判定項目における評価に使用しない。そして、図6に示す移動量ヒストグラム、図7に示す移動方向ヒストグラムのそれぞれの平均値avg_m、avg_θは、それぞれ(7)平均移動量、(8)平均移動方向となる。   6 and 7 show graphs used in the motion vector calculation process. In this example, each block (for example, 16 × 16 pixels) in a certain frame (current frame) is subjected to pattern matching with the previous frame, and its movement amount (movement distance) and movement direction are obtained to form a histogram. That is, FIG. 6 is a graph showing a histogram of the movement amount of each block with the movement amount on the horizontal axis and the number of blocks on the vertical axis, and FIG. 7 shows the movement direction on the horizontal axis and the block on the vertical axis. It is a graph which shows the histogram of the moving direction of each block taking a number. When the moving image data is an interlaced image, pattern matching may be performed between the odd and even fields instead of the previous frame. In the pattern matching used here, simply the absolute value of the luminance differential between the target block (target block) of the current frame and the block of the same size as the target block in the vicinity of the target block coordinates in the previous frame. A block with the smallest sum of the values is searched, and if this distance is less than or equal to the threshold, pattern matching is successful for that block. Thereby, (6) the pattern matching success rate can be easily obtained, but this success rate is related to the range in which the search is performed. The “movement” to be obtained here is the movement of the subject, and this is defined as a “small movement” block rather than a “large movement” block, so this search range does not have to be so wide. That is, a block having a large movement that does not succeed in matching within a certain search range is not used for the evaluation in the “less movement” determination item. The average values avg_m and avg_θ of the movement amount histogram shown in FIG. 6 and the movement direction histogram shown in FIG. 7 are (7) average movement amount and (8) average movement direction, respectively.

(6)パターンマッチング成功率(%)=(マッチング成功ブロック数/全ブロック数)×100
(7)平均移動量=移動量の平均値avg_m
(8)平均移動方向=移動方向の平均値avg_θ
(6) Pattern matching success rate (%) = (number of successful matching blocks / total number of blocks) × 100
(7) Average movement amount = Average value of movement amount avg_m
(8) Average moving direction = Average value avg_θ in the moving direction

こうして動きベクトル分布を計算した後、最終フレームか否かを判断し(ステップS15)、最終フレームであれば画像解析処理を終了する。一方、最終フレームでない場合には次のフレームを読出し(ステップS16)、ステップS11からステップS15までの処理を繰り返す。このように、各フレーム毎に、各見え易さ判定項目の評価値算出に必要な上記(1)乃至(8)のパラメータを求めておく。   After calculating the motion vector distribution in this way, it is determined whether or not it is the last frame (step S15). If it is the last frame, the image analysis processing is terminated. On the other hand, if it is not the last frame, the next frame is read (step S16), and the processing from step S11 to step S15 is repeated. As described above, the parameters (1) to (8) necessary for calculating the evaluation value of each visibility determination item are obtained for each frame.

次に、図2に示すステップS3のNG候補区間の検出処理について説明する。まず、図3に示すステップS12からステップS14にて求まった(1)〜(8)のパラメータを利用して、動画像データの見え易さを評価するために、A:「シャープで鮮明(Dis)」か否か、B:「動きが少ない(Stl)」か否か、C:「動きの変化が少ない(Stb)」か否か、D:「明る過ぎたり暗すぎたりしない(Lum)」か否か、E:「白飛びや黒潰れが多くない(Sat)」か否かの各判定項目における評価値を算出する。なお、以下の例では、全ての評価値は、説明の簡単のため、0〜100の値として算出する。   Next, the NG candidate section detection process in step S3 shown in FIG. 2 will be described. First, in order to evaluate the visibility of moving image data using the parameters (1) to (8) obtained in steps S12 to S14 shown in FIG. 3, A: “Sharp and clear (Dis) ) ”, B:“ There is little movement (Stl) ”, C:“ There is little change in movement (Stb) ”, D:“ It is neither too bright nor too dark (Lum) ” Whether or not E: “Evaluation value in each determination item of whether there are not many overexposures or blackouts (Sat)” is calculated. In the following example, all evaluation values are calculated as values from 0 to 100 for simplicity of explanation.

あるフレームが「シャープで鮮明」か否かを示す判定項目Aの評価値(Dis)は、図3のステップS12にて求めた(2)輝度標準偏差(Def)、ステップS13で求めた(5)平均輪郭階差(Edg)を利用して算出することができる。先ず、予め「シャープで鮮明」な基準画像1と、「ボケて不鮮明」な基準画像2とを用意し、これらの基準画像1、2について、(2)輝度標準偏差、(5)平均輪郭階差を算出する。そして、基準画像1及び基準画像2の輝度標準偏差を輝度標準偏差のそれぞれ上限値及び下限値(Defmax,Defmin)とし、基準画像1及び基準画像2の平均輪郭階差を平均輪郭階差のそれぞれ上限値及び下限値(Edgmax,Edgmin)とする。そして、評価値算出対象のフレームにおける(2)輝度標準偏差、(5)平均輪郭階差と、基準画像1、2により予め得られている(Defmax,Defmin)及び(Edgmax,Edgmin)とから、下記式(1)に示すようにそれぞれの割合を算出し、さらに評価値(Dis)が0〜100となるよう、適当な重み付け(Wdef,Wedg)を行った後、その和を取り、これを「シャープで鮮明」さを判定する判定項目Aの評価値とする。すなわち、下記式(1)にて評価値(Dis)を算出する。評価値(Dis)が高いほどシャープで鮮明である画像であることを示す。 The evaluation value (Dis) of the determination item A indicating whether or not a certain frame is “sharp and clear” is obtained in step S12 of FIG. 3 (2) luminance standard deviation (Def) and obtained in step S13 (5 ) It can be calculated using the average contour difference (Edg). First, a “sharp and clear” reference image 1 and a “blurred and unclear” reference image 2 are prepared in advance. For these reference images 1 and 2, (2) luminance standard deviation and (5) average contour level. Calculate the difference. Then, the luminance standard deviation of the reference image 1 and the reference image 2 is set as the upper limit value and the lower limit value (Def max , Def min ) of the luminance standard deviation, respectively, and the average contour difference of the reference image 1 and the reference image 2 is determined as the average contour difference. Are the upper limit value and the lower limit value (Edg max , Edg min ), respectively. Then, (2) luminance standard deviation in the evaluation value calculation target frame, (5) average contour difference, and (Def max , Def min ) and (Edg max , Edg min ) obtained in advance by the reference images 1 and 2. ) To calculate the respective ratios as shown in the following formula (1), and after performing appropriate weighting (W def , W edg ) so that the evaluation value (Dis) is 0 to 100, The sum is taken and this is used as the evaluation value of the judgment item A for judging “sharp and clear”. That is, the evaluation value (Dis) is calculated by the following formula (1). A higher evaluation value (Dis) indicates a sharper and clearer image.

Figure 0004639043
Figure 0004639043

また、あるフレームが「動きが少ない」か否かを示す判定項目Bにおける評価値(Stl)は、図3のステップS14にて求めた(6)パターンマッチング成功率(Pm)、(7)平均移動量(Disavg)、及び(8)平均移動方向(Diravg)を使用し算出することができる。ここで、(6)パターンマッチング成功率は、「被写体を捕らえているか」否かを示し、(7)及び(8)にて得られる平均移動量及び平均移動方向からなる平均移動ベクトルは「被写体がどれだけ動いているか」を示しているものと見なす。つまり、全くの静止画では、(6)パターンマッチング成功率は100で、(7)及び(8)で得られる平均移動ベクトルは(0,0)である。ここでは、「動きの少なさ」を計算するが、その基準として、静止した被写体に対して静止して撮影をした場合を100、全てパターンマッチング可能な限界の速度でカメラをパンさせた場合を50、全てがパターンマッチングできない大きな動きである場合を0と定義する。これを基に、パターンマッチングに成功する最大距離Dismaxを求め、この「動きの少なさ」、すなわち被写体をうまく捉えられているか否かの判定項目Bの評価値(Stl)を下記に示す式(2)により0〜100で算出する。 Further, the evaluation value (Stl) in the determination item B indicating whether or not a certain frame is “little movement” is obtained by (6) pattern matching success rate (Pm) obtained in step S14 of FIG. It can be calculated by using the movement amount (Dis avg ) and (8) the average movement direction (Dir avg ). Here, (6) the pattern matching success rate indicates whether or not “subject is captured”, and the average movement vector and the average movement vector obtained in (7) and (8) are “subject”. It is assumed that it shows how much is moving. That is, in a completely still image, (6) the pattern matching success rate is 100, and the average movement vector obtained in (7) and (8) is (0, 0). Here, “less motion” is calculated. As a reference, 100 is a case where a stationary subject is photographed while still, and a case where the camera is panned at a limit speed capable of pattern matching. 50, the case where all are large movements that cannot be pattern matched is defined as 0. Based on this, the maximum distance Dis max that succeeds in pattern matching is obtained, and this “little motion”, that is, the evaluation value (St1) of the determination item B as to whether or not the subject is successfully captured is expressed by the following equation: Calculate from 0 to 100 according to (2).

Figure 0004639043
Figure 0004639043

また、この(7)及び(8)で得られる平均移動ベクトルにより、「手ぶれ」区間の検出のための「動きの変化が少ない」か否かを示す判定項目Cの評価値(Stb)を算出することができる。まず、(7)及び(8)で求められる、現フレームにおける平均移動ベクトルと、前フレームにおける平均移動ベクトルとの差を求め、このベクトル距離を元に速度変化量を求める。現フレームIの平均移動ベクトルを(uI、vI)、前フレーム(I−1)の平均移動ベクトルを(uI−1、vI−1)としたとき、「動きの変化の少なさ」の判定項目Cにおける評価値(Stb)を下記に示す式(3)により0〜100で算出する。   Also, the evaluation value (Stb) of the determination item C indicating whether or not “motion change is small” for detecting the “hand shake” section is calculated from the average movement vector obtained in (7) and (8). can do. First, the difference between the average movement vector in the current frame and the average movement vector in the previous frame obtained in (7) and (8) is obtained, and the speed change amount is obtained based on this vector distance. When the average movement vector of the current frame I is (uI, vI) and the average movement vector of the previous frame (I-1) is (uI-1, vI-1), a determination item of “little change in motion” The evaluation value (Stb) in C is calculated from 0 to 100 by the following equation (3).

Figure 0004639043
Figure 0004639043

また、「明る過ぎたり暗すぎたりしない」か否かを示す判定項目Dの評価値(Lum)は、図3のステップS11にて求めた(1)平均輝度(Lumavg)および輝度の最大値Lummaxを用いていて、下記式(4)により、0〜100の値として算出することができる。 In addition, the evaluation value (Lum) of the determination item D indicating whether it is “not too bright or too dark” is the (1) average luminance (Lum avg ) and the maximum luminance value obtained in step S11 of FIG. Lum max is used, and can be calculated as a value of 0 to 100 by the following formula (4).

Figure 0004639043
Figure 0004639043

次に、「白飛びや黒潰れが多くない」か否かを示す判定項目Eの評価値(Sat)は、図3のステップS12にて求めた(3)白飛び率(Satmax)、(4)黒潰れ率(Satmin)を用いて、下記式(5)により、0〜100の値として算出することができる。 Next, the evaluation value (Sat) of the determination item E indicating whether or not “there is no whiteout or blackout” is obtained in step S12 of FIG. 3 (3) whiteout rate (Sat max ), ( 4) Using the black crushing rate (Sat min ), it can be calculated as a value of 0 to 100 by the following formula (5).

Figure 0004639043
Figure 0004639043

以上で動画像データ中の各フレームにおける各5つの判定項目についての評価値が求まる。そして、これらを使用して、図2に示すステップS3のNG候補区間の検出処理を行う。このNG候補区間の検出処理は、各判定項目、すなわち、A:「シャープで鮮明(Dis)」か否か、B:「動きが少ない(Stl)」か否か、C:「動きの変化が少ない(Stb)」か否か、D:「明る過ぎたり暗すぎたりしない(Lum)」か否か、E:「白飛びや黒潰れが多くない(Sat)」か否かの5つの判定項目について、NG候補区間を個別に検出する。   Thus, evaluation values for each of the five determination items in each frame in the moving image data are obtained. And using these, the detection process of the NG candidate area of step S3 shown in FIG. 2 is performed. This NG candidate section detection process is performed for each determination item, that is, whether A: “sharp and clear (Dis)”, B: “less movement (St1)”, or C: “change in movement”. 5 judgment items: whether it is “low (Stb)”, D: “not too bright or too dark (Lum)”, E: “does not cause excessive whiteout or blackout (Sat)” NG candidate sections are individually detected.

先ず、「動きの変化の少なさ(Stb)」を示す判定項目C以外の判定項目についてのNG候補区間の検出方法について説明する。これら検出には、各項目毎に、各フレームについて得られた評価値の閾値判定により、OKフレームかNGフレームかに分別し、例えば例えばn=10〜20程度の最低区間長n以上、NGフレームが連続する区間をNG候補区間として検出する。   First, a method for detecting an NG candidate section for a determination item other than the determination item C indicating “less change in motion (Stb)” will be described. For these detections, each item is classified into an OK frame or an NG frame by determining the threshold value of the evaluation value obtained for each frame. For example, an NG frame having a minimum section length n of about n = 10 to 20, for example. Are detected as NG candidate sections.

図8は、E:「動きの変化の少なさ(Stb)」以外の判定項目について、すなわち、上記判定項目A、B、D、EにおけるNG候補区間検出処理方法を示すフローチャートである。上述した如く各フレームの各評価値を算出したら、NG候補区間検出処理をスタートする。ここでは、判定項目A:「シャープで鮮明(Dis)」において、評価値が小さい区間をNG候補区間として検出する方法を例にとって説明する。先ず、図8に示すように、時系列に順に入力される現在のフレーム(フレームカウント)iが最後のフレームI以下か否かを判定し(ステップS21)、最終フレームIまでステップS22に進む。そして、ステップS22において、上記式(1)の評価値(Dis)が所定の閾値未満か否かにより、NGフレームか否かを判定する。NGフレームでないと判定された場合には、次のフレームの処理に移行し(ステップS23)、ステップS21からの処理を繰り返す。   FIG. 8 is a flowchart showing an NG candidate section detection processing method for determination items other than E: “less change in motion (Stb)”, that is, the determination items A, B, D, and E. When each evaluation value of each frame is calculated as described above, the NG candidate section detection process is started. Here, a method for detecting a section having a small evaluation value as an NG candidate section in determination item A: “sharp and clear (Dis)” will be described as an example. First, as shown in FIG. 8, it is determined whether or not the current frame (frame count) i that is sequentially input in time series is equal to or less than the last frame I (step S21), and the process proceeds to step S22 until the last frame I. In step S22, it is determined whether or not the frame is an NG frame depending on whether or not the evaluation value (Dis) of the equation (1) is less than a predetermined threshold. If it is determined that the frame is not an NG frame, the process proceeds to the next frame (step S23), and the process from step S21 is repeated.

また、ステップS22にて、閾値判定によりシャープで鮮明でなく、NGフレームであると判定された場合、当該判定されたフレームを仮NG候補区間仮開始・終了フレームに設定する(ステップS24)。そして、次のフレームiを読出し(ステップS25)、これが最終フレームIより大きいか否かを判定し(ステップS26)、最終フレームIまでステップS27に進み、ステップS22と同様に、上記式(1)の評価値(Dis)が所定の閾値未満か否かにより、NGフレームか否かを判定する。そして、このフレームがNGフレームである場合、当該フレームを仮NG候補区間の仮終了フレームに設定する(ステップS28)。そして、次のフレームを読み出すステップS25からの処理を繰り返す。   If it is determined in step S22 that the threshold is determined to be sharp and not clear and an NG frame, the determined frame is set as a temporary NG candidate section temporary start / end frame (step S24). Then, the next frame i is read (step S25), it is determined whether or not this is larger than the final frame I (step S26), and the process proceeds to step S27 up to the final frame I. Similarly to step S22, the above equation (1) Whether or not the frame is an NG frame is determined based on whether or not the evaluation value (Dis) is less than a predetermined threshold. If this frame is an NG frame, the frame is set as a temporary end frame of the temporary NG candidate section (step S28). Then, the processing from step S25 for reading the next frame is repeated.

一方、ステップS26で次のフレームがないと判定された場合、及びステップS27で現在のフレームiがNGフレームではないと判定された場合、それまでにNGフレームと判定された連続区間である仮NG候補区間の長さ(フレーム数)が最低区間長n以上であるか否かを判定する(ステップS29)。そして、仮NG候補区間の長さがn未満である場合は、NG候補区間として検出するには短すぎるため、この仮NG候補区間をクリアし(ステップS31)、ステップS21からの処理を繰り返す。また、ステップS29にて仮NG候補区間の長さがn以上であった場合、この仮NG候補区間をNG候補区間としてHD22などに記憶し(ステップS30)、ステップS31に進んで記憶済みの仮NG候補区間をクリアし、ステップS21からの処理を繰り返す。なお、ステップS30でNG候補区間を記憶する場所は、図1に示すHD22が適当であるが、別のランダムアクセス可能なメモリや、光ディスクに記憶することも可能である。   On the other hand, if it is determined in step S26 that there is no next frame, and if it is determined in step S27 that the current frame i is not an NG frame, temporary NG that is a continuous section that has been determined to be an NG frame until then. It is determined whether or not the length of the candidate section (the number of frames) is not less than the minimum section length n (step S29). If the length of the temporary NG candidate section is less than n, it is too short to be detected as an NG candidate section, so this temporary NG candidate section is cleared (step S31), and the processing from step S21 is repeated. If the length of the temporary NG candidate section is greater than or equal to n in step S29, the temporary NG candidate section is stored as an NG candidate section in the HD 22 or the like (step S30), and the process proceeds to step S31 to store the stored temporary NG candidate section. The NG candidate section is cleared and the processing from step S21 is repeated. Note that the HD 22 shown in FIG. 1 is suitable as the location for storing the NG candidate section in step S30, but it can also be stored in another random accessible memory or an optical disk.

これにより、図9(a)に示すように、NGフレームFNGがnフレーム以上連続する区間がNG候補区間Iとして検出される。なお、図9においては、図面の都合上、n=5以上である場合にNG候補区間Iとして検出するものとする。 As a result, as shown in FIG. 9A, a section in which the NG frame F NG continues for n frames or more is detected as the NG candidate section I c . In FIG. 9, for the convenience of drawing, when n = 5 or more, it is detected as an NG candidate section I c .

また、NG候補区間の連続判定について、連続している区間中、数フレームのOKフレームは見逃すことで判定に幅を持たせ、本来撮影に失敗などして見え難い画像となっている部分の検出漏れを防止することも可能である。具体的には、図9(a)においては、例えば左から3つめのフレームは、OKフレームFOK(1)であるが、これをNGフレームと見なし、NG候補区間Iの開始フレームをFNG(3)ではなく、FNG(1)としたNG候補区間I’として検出するなどすることができる。 In addition, regarding the continuous determination of NG candidate sections, in a continuous section, several OK frames are overlooked to give a wider range of determination, and detection of a portion that is difficult to see due to a failure in photographing or the like is detected. It is also possible to prevent leakage. Specifically, in FIG. 9A, for example, the third frame from the left is an OK frame F OK (1), but this is regarded as an NG frame, and the start frame of the NG candidate section I c is defined as F. It is possible to detect not as NG (3) but as NG candidate section I c ′ as F NG (1).

また、図8では、判定項目A:「シャープで鮮明(Dis)」でない区間をNG候補区間として検出する処理を例にとって説明したが、判定項目B:「動きが少ない(Stl)」と評価できない区間、判定項目C:「明る過ぎたり暗すぎたりしない(Lum)」と評価できない区間、及び判定項目D:「白飛びや黒潰れが多くない(Sat)」と評価できない区間をNG区間候補として検出する方法も同様に行うことができる。すなわち、NGフレームであるか否かを判定するステップS22、ステップS27において、それぞれ上記式(2)、式(4)、式(5)に示す各評価値を用いて閾値判定すればよい。   Further, in FIG. 8, the process of detecting the determination item A: the section that is not “sharp and clear (Dis)” as an NG candidate section has been described as an example, but the determination item B: “motion is small (Stl)” cannot be evaluated. Section, judgment item C: a section that cannot be evaluated as “not too bright or too dark (Lum)”, and judgment item D: a section that cannot be evaluated as “not overexposed or underexposed (Sat)” as NG section candidates The detection method can be similarly performed. That is, in step S22 and step S27 for determining whether or not the frame is an NG frame, the threshold value may be determined using the evaluation values shown in the equations (2), (4), and (5), respectively.

次に、判定項目E:「動きの変化の少なさ(Stb)」についてのNG候補区間の計算について説明する。この計算においても、やはり各フレームについて単純に閾値判定により、OKフレームであるか、NGフレームであるかを判定するが、この場合、NGフレームが出現する最大間隔(最大フレーム数)がm(<n)以内の区間が、最低区間長n以上連続する区間をNG候補区間とする。すなわち、図9(a)と同様、n=5とした場合、図9(b)に示すように、例えばNGフレームFNG(2)とNGフレームFNG(3)との間隔は4フレームであり、m(=4)<n=5を満たす。また、NGフレームFNG(3)とNGフレームFNG(4)との間隔は2フレームであり、同じくm(=2)<n=5を満たす。また、NGフレームFNG(5)以降のフレームは、5フレーム以上連続してOKフレームであるとする。この場合、「動きの変化の少なさ(Stb)」についてのNG候補区間としてNGフレームFNG(1)〜NGフレームFNG(5)の区間が検出され、この区間の長さは11フレームとなり、最低区間長n=5以上であるので、これをNG候補区間Iとして検出する。 Next, calculation of the NG candidate section for the determination item E: “little change in motion (Stb)” will be described. Also in this calculation, it is determined whether each frame is an OK frame or an NG frame simply by threshold determination. In this case, the maximum interval (maximum number of frames) at which an NG frame appears is m (< A section in which the sections within n) continue for the minimum section length n or more is defined as an NG candidate section. That is, as in FIG. 9A, when n = 5, as shown in FIG. 9B, for example, the interval between the NG frame F NG (2) and the NG frame F NG (3) is 4 frames. Yes, m (= 4) <n = 5 is satisfied. The interval between the NG frame F NG (3) and the NG frame F NG (4) is two frames, and similarly satisfies m (= 2) <n = 5. Further, it is assumed that the frames after the NG frame F NG (5) are OK frames continuously for 5 frames or more. In this case, an NG frame F NG (1) to NG frame F NG (5) is detected as an NG candidate section for “little change in motion (Stb)”, and the length of this section is 11 frames. since a minimum interval length n = 5 or more, it detects this as NG candidate sections I c.

これは「動きの変化の少なさ(Stb)」以外の評価値は、連続的にNGとなる(評価が低くなる)性質にあるが、「動きの変化の少なさ(Stb)」については手ぶれによる発生が予想されるため、連続してNGとならず、ある間隔を置いてNGとなるためである。このようにNG候補区間の検出は、NGフレームの発生原因に基づき、適宜検出方法を設定するものとする。   This is because the evaluation values other than “less change in motion (Stb)” are NG continuously (evaluation becomes lower), but there is a shake about “less change in motion (Stb)”. This is because NG is expected to occur, so that it does not become NG continuously but becomes NG at a certain interval. As described above, the detection method of the NG candidate section is appropriately set based on the cause of the NG frame.

そして、最後に、図2のステップS4に従って、図2のステップS1〜ステップS3の処理結果として、動画像データと、評価値に基づき得られる画像の見え難さ及びNG候補区間と、これにより推定されるカット推奨区間とを、図1のディスプレイ29のGUIにてユーザに表示する。次に、このGUIについて説明する。   And finally, according to step S4 of FIG. 2, as the processing results of step S1 to step S3 of FIG. 2, the motion image data, the visibility of the image obtained based on the evaluation value, and the NG candidate section are estimated thereby. The recommended cut section is displayed to the user on the GUI of the display 29 in FIG. Next, this GUI will be described.

図10は、ユーザが動画像を編集する際にディスプレイに表示される典型的なGUIを示す模式図である。GUI50は、動画像を表示するモニタ51と、動画像データの各シーンのリストを表示するシーンリスト52と、時間順に図2のステップS2により算出した画像の見え易さの各評価値、NG候補区間などを表示するタイムライン53などを有する。   FIG. 10 is a schematic diagram showing a typical GUI displayed on the display when the user edits a moving image. The GUI 50 includes a monitor 51 that displays a moving image, a scene list 52 that displays a list of each scene of moving image data, evaluation values of image visibility calculated in step S2 of FIG. 2 in time order, and NG candidates. A timeline 53 for displaying sections and the like is included.

モニタ51は、シーンリスト52で選択された動画像データ・ファイルについて再生を行い、実際の映像を確認するための領域である。また、シーンリスト52は、図1に示すPC20内のHD22に記録された動画像データ・ファイルをリスト表示し、ユーザに選択させるための領域である。このシステムでは図1に示すHD22に記録する動画像データを、例えばカメラ側での録画ボタンのON/OFF情報や、シーンの変更点の検出、ユーザの操作などに基づき所定区間で区切り、ファイルとして整理している。   The monitor 51 is an area for reproducing the moving image data file selected in the scene list 52 and confirming the actual video. The scene list 52 is an area for displaying a list of moving image data files recorded on the HD 22 in the PC 20 shown in FIG. In this system, the moving image data to be recorded on the HD 22 shown in FIG. 1 is divided into predetermined sections based on ON / OFF information of the recording button on the camera side, detection of scene change points, user operation, etc., for example, as a file I'm organizing.

また、タイムライン53は、シーンリスト52で選択された動画像データ・ファイルについて、上述の方法にて算出した評価値、NG候補区間などを表示するための領域である。ここでは時間方向を横軸にとり、縦方向に参照する「タイムコード」、「映像」を表示する各欄に加え、上述の方法にて算出された各見えやすさの判定項目の評価値を編集指標となるよう行として並べて表示する。各評価値は、各判定項目を示す行内の縦軸に各フレーム単位などでグラフ表示することで、フレーム単位の編集をも可能にする。   The timeline 53 is an area for displaying the evaluation value, the NG candidate section, and the like calculated by the above-described method for the moving image data file selected in the scene list 52. Here, the horizontal axis is the time direction, and in addition to the columns for displaying the “time code” and “video” referenced in the vertical direction, the evaluation values of the visibility items calculated by the above method are edited. Displayed side by side as an index. Each evaluation value is displayed in a graph in units of frames on the vertical axis in a row indicating each determination item, thereby enabling editing in units of frames.

更にステップS3にて検出したNG候補区間がユーザに認識できるような表示がされるものとする。具体的には、NG候補区間が枠取りされて表示されたり、NG候補区間と、そうでない区間とを別の色で表示するなどすればよい。   Furthermore, it is assumed that a display is made so that the user can recognize the NG candidate section detected in step S3. Specifically, the NG candidate section may be displayed with a frame, or the NG candidate section and the other section may be displayed in different colors.

ここで、本実施の形態においては、図2のステップS2において算出された、見えやすさの判定項目A:「シャープで鮮明(Dis)」か否か、判定項目B:「動きが少ない(Stl)」か否か、判定項目C:「動きの変化が少ない(Stb)」か否か、判定項目D:「明る過ぎたり暗すぎたりしない(Lum)」か否か、判定項目E:「白飛びや黒潰れが多くない(Sat)」か否かの各評価値が、それぞれ100から減算され、それぞれ「動き」、「手ぶれ」、「ボケ」、「飛び・潰れ」、「明るさ」の見え難さの判定項目についての負の評価値とされ、編集指標として表示するものとする。すなわち、NG候補区間を削除・修正しやすくするため、見え易さの評価値と反対の評価値グラフを各見え難さの判定項目の見え難さの指標(評価値)として表示するものであり、上述のようにして算出した見え易さの評価値をその最大値の100から引いた値を見え難さの評価値グラフとして表示する。このことにより、撮影画像のうち見えにくい、又は撮影者が意図しない撮影区間をユーザに視認させ、修正・削除し易くするものである。   Here, in the present embodiment, visibility determination item A calculated in step S2 of FIG. 2: whether or not it is “sharp and clear (Dis)”, determination item B: “motion is small (Stl ) ”, Judgment item C:“ There is little change in motion (Stb) ”, Judgment item D:“ Never too bright or too dark (Lum) ”, Judgment item E:“ White ” Each evaluation value of whether or not there is not much skipping or black crushing (Sat) is subtracted from 100, and each of “movement”, “camera shake”, “blur”, “flying / crushing”, “brightness” It is assumed that the evaluation item is a negative evaluation value for the visibility item and is displayed as an editing index. That is, in order to facilitate deletion / correction of the NG candidate section, an evaluation value graph opposite to the evaluation value of visibility is displayed as an index (evaluation value) of the visibility of each judgment item of visibility. The value obtained by subtracting the visibility value calculated as described above from the maximum value of 100 is displayed as the visibility evaluation value graph. This makes it easy for the user to visually recognize and correct or delete a shooting section that is difficult to see in the captured image or is not intended by the photographer.

また、タイムライン53には、各見え難さを示す判定項目について個別にNG候補区間が表示される他、更にユーザの操作性を考慮し、それらのORを取った区間をカット推奨区間として表示する。   Further, in the timeline 53, NG candidate sections are individually displayed for the determination items indicating the difficulty of seeing, and further, taking into account the user's operability, a section obtained by ORing them is displayed as a recommended cut section. To do.

そして、ユーザは、GUI50上でユーザ操作54に示すように、図1に示すキーボード31またはマウス32を利用して、本実施の形態における動画像編集システム1が検出した例えばカット推奨区間を選び、それを対象として削除・修正を行う。また各評価値がグラフ表示されているため、これを目安に、削除・修正対象となる区間の延長・縮小といった変更も行うことができる。   Then, the user selects, for example, the recommended cut section detected by the moving image editing system 1 according to the present embodiment using the keyboard 31 or the mouse 32 shown in FIG. Deletion / correction is performed for it. Since each evaluation value is displayed in a graph, it is possible to make changes such as extension / reduction of a section to be deleted / modified using this as a guide.

また、各見え難さの判定項目について、NG候補区間が視認可能に表示されているため、カット推奨区間であっても、NG候補区間となっている判定項目が少ないような場合は、削除・修正は行わないものとしたり、カット推奨区間のうち、NG候補区間となっている判定項目が多い順に削除・修正していったりと各判定項目のNG候補区間などを参照しながら編集の優先順位などを決定したり、編集するかしないかを決定したりすることができ、短時間での編集も可能となる。   In addition, since the NG candidate section is displayed so as to be visible for each of the difficulty-of-visibility determination items, even if it is a cut recommended section, if there are few determination items that are NG candidate sections, deletion / Priority of editing with reference to the NG candidate section of each judgment item, such as no modification or deletion / correction in the order of the number of judgment items that are NG candidate sections in the recommended cut section It is possible to determine whether or not to edit, etc., and editing in a short time is also possible.

更に、カット推奨区間(NG候補区間)として表示されていない区間、例えばNG候補区間として検出するにはNGフレーム数が少ない短い区間などであっても、見え難さの判定項目における見え難さの評価値が高い区間を視認することができるため、ユーザの必要に応じて削除・修正することができる。すなわち、ユーザは、編集目的、編集時間などに応じて、見え難さの指標として示される評価値毎、NG候補区間毎、カット推奨区間毎に修正・削除を行うことができる。   Furthermore, even if it is a section that is not displayed as a recommended cut section (NG candidate section), for example, a short section with a small number of NG frames to be detected as an NG candidate section, it is difficult to see in the visibility item. Since a section having a high evaluation value can be visually recognized, it can be deleted / corrected as required by the user. That is, the user can make corrections / deletions for each evaluation value, each NG candidate section, and each recommended cut section indicated as an index of difficulty of viewing according to the editing purpose, editing time, and the like.

更にまた、このNG候補区間の削除・修正、又はNG候補区間に対する、例えば、ユーザがこの区間の評価値を基準映像に加えるかの選択を行うようなフィードバックにより、基準となる評価値について統計を取ることができ、このような学習作業により、各フレームのOKフレーム/NGフレームを判別する閾値を適宜変更したり、NG候補区間として検出する最低区間長n又は最大間隔mを適宜変更することで、更にユーザの意図に即したNG候補区間検出を行うようにさせることもできる。   Furthermore, statistics on the reference evaluation value can be obtained by deleting or correcting this NG candidate section, or by providing feedback to the NG candidate section, for example, by selecting whether to add the evaluation value of this section to the reference video. By such learning work, the threshold value for discriminating the OK frame / NG frame of each frame is appropriately changed, or the minimum interval length n or the maximum interval m detected as the NG candidate interval is appropriately changed. Further, it is possible to perform NG candidate section detection in accordance with the user's intention.

このように、本実施の形態における動画像編集システムによれば、撮影された「ぶれ」、「ぼけ」、「白飛び/黒つぶれ」、「露出アンダー/オーバー」などの撮影失敗区間を含む映像から、NG候補区間を自動検索することで、操作ミス又は設定ミスなどにより撮影が失敗したり、ユーザが意図しないような撮影区間を検索する手間が省け、編集作業を効率化できると共に、NG候補区間を自動的に検出することで、編集の見逃しを防止することができる。   As described above, according to the moving image editing system of the present embodiment, a video including a shooting failure section such as “blur”, “blur”, “overexposure / blackout”, “underexposure / overexposure”, and the like. Thus, by automatically searching for NG candidate sections, it is possible to save the trouble of shooting due to an operation mistake or setting mistake or to search for a shooting section that is not intended by the user, and to improve the efficiency of the editing work. By automatically detecting the section, it is possible to prevent overlooking of editing.

本発明の実施形態における動画像編集システムを示すブロック図である。It is a block diagram which shows the moving image editing system in embodiment of this invention. 動画像編集システムを用いてNG候補区間を検出してGUIに表示させ、編集作業を行わせるまでのワークフローを示す図である。It is a figure which shows a workflow until it detects an NG candidate area using a moving image editing system, displays it on GUI, and performs an edit operation. 各評価値及び評価値を求めるためのパラメータを算出する動画像データの解析処理方法を示すフローチャートである。It is a flowchart which shows the analysis processing method of the moving image data which calculates each parameter for calculating | requiring each evaluation value and evaluation value. 横軸に明度をとり、縦軸に画素数をとって、1フレームにおける輝度ヒストグラムを示すグラフ図である。It is a graph which shows the brightness | luminance histogram in 1 frame, taking lightness on a horizontal axis and taking the number of pixels on a vertical axis | shaft. 横軸に輝度微分値をとり、縦軸に画素数をとって、輝度微分値分布計算の課程で用いられる微分値ヒストグラムを示すグラフ図である。It is a graph which shows a differential value histogram used in the process of luminance differential value distribution calculation, taking a luminance differential value on the horizontal axis and taking the number of pixels on the vertical axis. 横軸に移動量をとり、縦軸にブロック数をとって各ブロックの移動量のヒストグラムを示すグラフ図である。It is a graph which shows the histogram of the movement amount of each block, taking a movement amount on a horizontal axis and taking the number of blocks on a vertical axis. 横軸に移動方向をとり、縦軸にブロック数をとって各ブロックの移動方向のヒストグラムを示すグラフ図である。It is a graph which shows the histogram of the moving direction of each block, taking a moving direction on the horizontal axis and taking the number of blocks on the vertical axis. 判定項目A、B、D、EにおけるNG候補区間検出処理方法を示すフローチャートである。It is a flowchart which shows the NG candidate area detection processing method in determination item A, B, D, E. (a)は判定項目A、B、D、EにおけるNG候補区間Iを示す図、(b)は判定項目CにおけるNG候補区間Iを示す図である。(A) is a diagram showing judgment items A, B, D, the NG candidate section I c in E, illustrates the NG candidate section I c in (b) is determined Item C. ユーザが動画像を編集する際にディスプレイに表示される典型的なGUIを示す模式図である。It is a schematic diagram which shows the typical GUI displayed on a display when a user edits a moving image.

符号の説明Explanation of symbols

10 ビデオカメラ、12 記録信号処理モジュール、13 メディア入出力モジュール、14 記録メディア、15 シリアルインターフェース入出力モジュール、20 情報処理装置、21 IEEE1394I/FCard、25 バス、26 ビデオ入出力部、27 USBI/F、29 ディスプレイ、31 キーボード、32 マウス、51 モニタ、52 シーンリスト、53 タイムライン、54 ユーザ操作 DESCRIPTION OF SYMBOLS 10 Video camera, 12 Recording signal processing module, 13 Media input / output module, 14 Recording medium, 15 Serial interface input / output module, 20 Information processing apparatus, 21 IEEE1394I / FCard, 25 Bus, 26 Video input / output part, 27 USB I / F , 29 Display, 31 Keyboard, 32 Mouse, 51 Monitor, 52 Scene list, 53 Timeline, 54 User operation

Claims (6)

撮影手段により撮影された動画像データを記憶する記憶手段と、
上記動画像データを解析して、予め定められた再生基準を満たすか否かを判定する複数の判定項目について上記動画像データのフレーム又はフィールド毎の輝度分布、輝度微分値分布、及び動きベクトル分布の少なくとも1つに基づきフレーム又はフィールド単位で個別にその評価値を算出する画像解析手段と、
上記画像解析手段によって算出された上記判定項目毎の上記評価値が上記再生基準を満たすとされる所定の閾値未満である撮影失敗フレーム数又はフィールド数に基づき、上記動画像データから、上記再生基準を満たさないと判定された撮影失敗候補区間を上記判定項目毎に検出するとともに、上記判定項目毎の上記撮影失敗候補区間が少なくとも1つ検出された区間をカット推奨区間として検出する候補区間検出手段と、
上記動画像の時間軸上に、上記判定項目毎の上記評価値を上記フレーム単位でグラフ表示するとともに、当該時間軸上に、上記判定項目毎の上記撮影失敗候補区間と、上記カット推奨区間とを上記動画像データと共に表示する表示手段と、
上記動画像データを削除又は修正するための操作手段と、
上記操作手段により削除又は修正された動画像データの上記評価値に基づき、撮影失敗候補区間を検出するための上記再生基準を再設定する学習手段と
を有する動画像編集装置。
Storage means for storing moving image data photographed by the photographing means;
A plurality of determination items for analyzing the moving image data to determine whether or not a predetermined reproduction criterion is satisfied, a luminance distribution, a luminance differential value distribution, and a motion vector distribution for each frame or field of the moving image data. Image analysis means for individually calculating the evaluation value for each frame or field based on at least one of
Based on the number of unsuccessful shooting frames or the number of fields in which the evaluation value for each of the determination items calculated by the image analysis means is less than a predetermined threshold that satisfies the reproduction standard, the reproduction standard is obtained from the moving image data. Candidate section detection means for detecting a shooting failure candidate section determined not to satisfy each of the determination items and detecting a section in which at least one shooting failure candidate section for each determination item is detected as a recommended cut section When,
On the time axis of the moving image, the evaluation value for each determination item is displayed in a graph in units of frames, and on the time axis, the shooting failure candidate interval for each determination item, and the recommended cut interval Displaying means together with the moving image data;
Operating means for deleting or correcting the moving image data;
A moving image editing apparatus comprising: learning means for resetting the reproduction criterion for detecting a shooting failure candidate section based on the evaluation value of the moving image data deleted or modified by the operation means.
上記候補区間検出手段は、上記評価値が上記再生基準を満たすとされる所定の閾値未満である撮影失敗フレーム又はフィールドが所定区間以上連続する区間を上記撮影失敗候補区間として検出する請求項1記載の動画像編集装置。   2. The candidate section detection means detects, as the shooting failure candidate section, a section in which a shooting failure frame or field in which the evaluation value is less than a predetermined threshold value that satisfies the reproduction criterion is continued for a predetermined section or more. Video editing device. 上記候補区間検出手段は、上記評価値が上記再生基準を満たすとされる所定の閾値未満である撮影失敗フレーム又はフィールドが出現する間隔が所定の間隔未満である区間が複数連続して所定の区間以上となった場合、当該区間を上記撮影失敗候補区間として検出する請求項1記載の動画像編集装置。   The candidate section detecting means is a predetermined section in which a plurality of sections in which the shooting failure frame or field in which the evaluation value is less than a predetermined threshold that is considered to satisfy the reproduction criterion appear is less than the predetermined interval. The moving image editing apparatus according to claim 1, wherein, when the number of times becomes above, the section is detected as the shooting failure candidate section. 撮影手段により撮影された動画像データを記憶する記憶工程と、
上記動画像データを解析して、予め定められた再生基準を満たすか否かを判定する複数の判定項目について上記動画像データのフレーム又はフィールド毎の輝度分布、輝度微分値分布、及び動きベクトル分布の少なくとも1つに基づきフレーム又はフィールド単位で個別にその評価値を算出する画像解析工程と、
上記画像解析工程にて算出された上記判定項目毎の上記評価値が上記再生基準を満たすとされる所定の閾値未満である撮影失敗フレーム数又はフィールド数に基づき、上記動画像データから、上記再生基準を満たさないと判定された撮影失敗候補区間を上記判定項目毎に検出するとともに、上記判定項目毎の上記撮影失敗候補区間が少なくとも1つ検出された区間をカット推奨区間として検出する候補区間検出工程と、
上記動画像の時間軸上に、上記判定項目毎の上記評価値を上記フレーム単位でグラフ表示するとともに、当該時間軸上に、上記判定項目毎の上記撮影失敗候補区間と、上記カット推奨区間とを上記動画像データと共に表示する表示工程と、
上記動画像データを削除又は修正するための操作工程と、
上記操作工程にて削除又は修正された動画像データの上記評価値に基づき、撮影失敗候補区間を検出するための上記再生基準を再設定する学習工程と
を有する動画像編集方法。
A storage step for storing moving image data photographed by the photographing means;
A plurality of determination items for analyzing the moving image data to determine whether or not a predetermined reproduction criterion is satisfied, a luminance distribution, a luminance differential value distribution, and a motion vector distribution for each frame or field of the moving image data. An image analysis step for calculating the evaluation value individually for each frame or field based on at least one of
Based on the number of unsuccessful frames or the number of fields in which the evaluation value for each of the determination items calculated in the image analysis step is less than a predetermined threshold that satisfies the reproduction criterion, the reproduction from the moving image data is performed. Candidate section detection for detecting a shooting failure candidate section determined not to satisfy the criterion for each determination item and detecting a section in which at least one shooting failure candidate section for each determination item is detected as a recommended cut section Process,
On the time axis of the moving image, the evaluation value for each determination item is displayed in a graph in units of frames, and on the time axis, the shooting failure candidate interval for each determination item, and the recommended cut interval Displaying with the moving image data,
An operation step for deleting or correcting the moving image data;
And a learning step of resetting the reproduction reference for detecting a shooting failure candidate section based on the evaluation value of the moving image data deleted or modified in the operation step.
上記候補区間検出工程では、上記評価値が上記再生基準を満たすとされる所定の閾値未満である上記フレーム又はフィールドが所定区間以上連続する区間を上記撮影失敗候補区間として検出する請求項4記載の動画像編集方法。   The said candidate area detection process detects the area where the said frame or field in which the said evaluation value is less than the predetermined threshold considered to satisfy | fill the said reproduction | regeneration standard is more than a predetermined area as said imaging | photography failure candidate area. Video editing method. 上記候補区間検出工程では、上記評価値が上記再生基準を満たすとされる所定の閾値未満である撮影失敗フレーム又はフィールドが出現する間隔が所定の間隔未満である区間が複数連続して所定の区間以上となった場合、当該区間を上記撮影失敗候補区間として検出する請求項4記載の動画像編集方法。   In the candidate section detection step, a plurality of sections in which the interval at which a shooting failure frame or field in which the evaluation value satisfies the reproduction criterion is less than a predetermined threshold is less than the predetermined interval appears is a predetermined section. 5. The moving image editing method according to claim 4, wherein, when the number of times becomes above, the section is detected as the shooting failure candidate section.
JP2003400173A 2003-11-28 2003-11-28 Moving picture editing apparatus and moving picture editing method Expired - Fee Related JP4639043B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003400173A JP4639043B2 (en) 2003-11-28 2003-11-28 Moving picture editing apparatus and moving picture editing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003400173A JP4639043B2 (en) 2003-11-28 2003-11-28 Moving picture editing apparatus and moving picture editing method

Publications (2)

Publication Number Publication Date
JP2005167377A JP2005167377A (en) 2005-06-23
JP4639043B2 true JP4639043B2 (en) 2011-02-23

Family

ID=34724519

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003400173A Expired - Fee Related JP4639043B2 (en) 2003-11-28 2003-11-28 Moving picture editing apparatus and moving picture editing method

Country Status (1)

Country Link
JP (1) JP4639043B2 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008127589A1 (en) * 2007-04-12 2008-10-23 Thomson Licensing Centralized work flow monitoring
JP2008278347A (en) * 2007-05-02 2008-11-13 Nikon System:Kk Image display system
JP2008278344A (en) * 2007-05-02 2008-11-13 Nikon System:Kk Image output system
JP2009004950A (en) * 2007-06-20 2009-01-08 Victor Co Of Japan Ltd Imaging apparatus and editing apparatus
JP5054608B2 (en) * 2008-05-08 2012-10-24 日本電信電話株式会社 Content evaluation method and apparatus, program, and computer-readable recording medium
JP4645707B2 (en) * 2008-09-01 2011-03-09 ソニー株式会社 Content data processing device
JP5423305B2 (en) * 2008-10-16 2014-02-19 株式会社ニコン Image evaluation apparatus and camera
JP2010232814A (en) * 2009-03-26 2010-10-14 Nikon Corp Video editing program, and video editing device
JP2012065128A (en) * 2010-09-16 2012-03-29 Nikon Corp Image evaluation apparatus and image evaluation program
US9143823B2 (en) * 2012-10-01 2015-09-22 Google Inc. Providing suggestions for optimizing videos to video owners
JP2018125674A (en) 2017-01-31 2018-08-09 オリンパス株式会社 Imaging apparatus and imaging method
JP6879277B2 (en) * 2018-09-03 2021-06-02 コニカミノルタ株式会社 Image display device, radiography system, image display program and image display method
WO2021019645A1 (en) * 2019-07-29 2021-02-04 日本電気株式会社 Learning data generation device, learning device, identification device, generation method, and storage medium

Also Published As

Publication number Publication date
JP2005167377A (en) 2005-06-23

Similar Documents

Publication Publication Date Title
JP4981128B2 (en) Keyframe extraction from video
JP4241709B2 (en) Image processing device
JP4840426B2 (en) Electronic device, blurred image selection method and program
US9036977B2 (en) Automatic detection, removal, replacement and tagging of flash frames in a video
US7453506B2 (en) Digital camera having a specified portion preview section
JP4498104B2 (en) Monitoring device, control method thereof, and program
US8780214B2 (en) Imaging apparatus using shorter and larger capturing intervals during continuous shooting function
JP4639043B2 (en) Moving picture editing apparatus and moving picture editing method
US20050232588A1 (en) Video processing device
US20070283269A1 (en) Method and system for onboard camera video editing
JP2006510072A (en) Method and system for detecting uniform color segments
US9477138B2 (en) Autofocus
JP4327827B2 (en) Video recording / reproducing system and video recording / reproducing method
JP2012105205A (en) Key frame extractor, key frame extraction program, key frame extraction method, imaging apparatus, and server device
JP2003061038A (en) Video contents edit aid device and video contents video aid method
JP2009267773A (en) Video editing device, photographic device, and video-editing method
JP2006332789A (en) Video photographing method, apparatus, and program, and storage medium for storing the program
JP2000261757A (en) Method and system for classifying video block for edit and recording medium recording this method
JP4259421B2 (en) Representative image selection method and program for video
JP4568797B2 (en) Video camera shooting support program and editing support program
JP5434057B2 (en) Image display device and image display program
JP4966167B2 (en) Image evaluation apparatus and camera having the image evaluation apparatus
JP3926497B2 (en) Index image display device
JP2005057623A (en) Image data processor
JP2012123721A (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080624

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080825

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080916

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081117

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20081202

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20081226

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101129

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131203

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131203

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees