JP4369308B2 - Representative image selection device, representative image selection method, and representative image selection program - Google Patents
Representative image selection device, representative image selection method, and representative image selection program Download PDFInfo
- Publication number
- JP4369308B2 JP4369308B2 JP2004172035A JP2004172035A JP4369308B2 JP 4369308 B2 JP4369308 B2 JP 4369308B2 JP 2004172035 A JP2004172035 A JP 2004172035A JP 2004172035 A JP2004172035 A JP 2004172035A JP 4369308 B2 JP4369308 B2 JP 4369308B2
- Authority
- JP
- Japan
- Prior art keywords
- representative image
- region
- target object
- moving
- image selection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は,カメラによって物体を撮影した動画像に,その動画像を利用するためのインデックスを与える技術に関し,特に,動画像中から注目物体を決め,注目物体と背景が最もよく分離できるフレームを選択し,代表画像とする代表画像選択装置,代表画像選択方法および代表画像選択プログラムに関するものである。 The present invention relates to a technique for giving an index for using a moving image to a moving image obtained by photographing an object with a camera, and in particular, determines a target object from the moving image and determines a frame that can best separate the target object and the background. The present invention relates to a representative image selection device, a representative image selection method, and a representative image selection program that are selected to be representative images.
映像の検索,編集,早見など,用途に応じて映像にインデキシングを行う技術の従来例として,次のようなものがある。 The following are examples of conventional techniques for indexing video depending on the application, such as video search, editing, and quick viewing.
下記の特許文献1「ビデオの代表画像一覧作成方法および装置」には,ビデオの代表的な画像を選択し,その代表画像がもつシーンの継続時間と場所を一覧化する技術が記載されている。代表画像の選択方法は,手動または自動で,自動の場合には,一定間隔のフレームとするか,あるいはシーンの切り替わりを検出している。この場合,自動でシーンの切り替わりを検出しても,切り替わりの瞬間のフレームに必ずしも注目物体が鮮明に含まれているとは限らず,的確な代表画像になるとは限らない。
The following
特許文献2「ショット検出方法および代表画像記録・表示装置」に記載された技術も,ショットの変化を検出し,映像を適当な単位にまとめ,その単位ごとに代表的な画像を抽出する技術である。画像の選択は,ズーム,パン,色ヒストグラム,周波数などに基づいて行う。シーンの切り替わりは検出できるが,これが代表画像に必ずしも適しているとは限らない。
The technique described in
特許文献3「代表画像表示方法,代表画像表示装置およびこの装置を用いた動画像検索装置」に記載された技術は,あるシーンにおいて,そのシーンに含まれる各フレームから動物体の輪郭を抽出し,この輪郭を重ね合わせた合成画像をそのシーンの代表画像とする技術である。しかし,後述する本発明で目的としているように,各フレームの代表画像としての適合度を評価したり,映像の各フレームにユーザの活用用途に応じた代表画像を選択するためのインデックスを与えることはできない。 The technique described in Patent Document 3 “Representative image display method, representative image display device and moving image search device using this device” extracts the contour of the moving object from each frame included in the scene. , A technique in which a composite image obtained by superimposing the contours is used as a representative image of the scene. However, as will be described later in the present invention, it is possible to evaluate the adaptability of each frame as a representative image, and to give an index for selecting a representative image according to a user's application to each frame of video. I can't.
下記の非特許文献1,非特許文献2は,輪郭抽出技術であり,後述する本発明中の注目物体輪郭抽出部に応用することは可能であるが,各フレームの代表画像としての適合度を評価したり,映像の各フレームにインデックスを与えることはできない。
上記のように,従来技術では,動画像からの代表画像の選択方法としては,シーン変化を検出して,シーンの切り替わりのフレームを代表画像としていた。しかし,カメラのパンやズーム,色などの変化によって定義されたシーンの変わり目のフレームには,必ずしもそのシーンで最も注目したい被写体が含まれているとは限らない。 As described above, in the prior art, as a method for selecting a representative image from a moving image, a scene change is detected and a scene switching frame is used as the representative image. However, a frame at the transition of a scene defined by changes in camera pan, zoom, color, etc. does not necessarily include the subject that is most interested in the scene.
代表画像は,それだけを閲覧しても映像のダイジェストとして映像全体の内容が把握できるような画像が選ばれることが望ましい。もとの映像が,何か対象物体を撮影したものであった場合,その対象物体が含まれている必要がある。また,対象物体が含まれるフレームの中でも,どれを代表画像とするかは,その後の用途にもよるため,ユーザが代表画像の選択方法を指示できることが望ましい。 As the representative image, it is desirable to select an image that allows the content of the entire video to be grasped as a video digest even if only that image is viewed. If the original video is an image of a target object, the target object needs to be included. In addition, it is desirable that the user can instruct the selection method of the representative image because which of the frames including the target object is the representative image depends on the subsequent use.
本発明は,以上のような事情に基づきなされたものであって,注目物体がぶれずに最も鮮明に映っているフレームを代表画像として選択することができ,また,ユーザの活用用途に応じた代表画像の選択を可能にすることを目的とする。 The present invention has been made based on the circumstances as described above, and can select a frame in which the object of interest is most clearly reflected without blurring as a representative image, and also according to the usage application of the user. An object is to enable selection of a representative image.
上記の目的を達成するため,本発明は,動画像を入力し,動画像の各フレームから一つまたは複数の動領域である注目物体領域を含む領域を小領域に分割する。その小領域内の各画素について,少なくとも動きに基づく特徴量を含む特徴量を抽出し,抽出した特徴量を用いて前記小領域内の各画素が注目物体領域とそれ以外の領域である背景領域のどちらのクラスに属するのかクラス分けする。その後,隣接する前記小領域間で,前記特徴量の分布形状が近いクラス同士を同じクラスとし,前記小領域間でクラスの境界同士をつなぎ合わせることで,前記注目物体領域の輪郭を抽出する。このようにして抽出された注目物体領域および背景領域それぞれの領域内の全画素について前記特徴量の分布の平均値を求め,双方の平均値間の距離を各フレームの代表画像としての適合度を示す点数とする。 In order to achieve the above object, the present invention inputs a moving image and divides a region including a target object region, which is one or a plurality of moving regions, from each frame of the moving image into small regions. For each pixel in the small region, a feature amount including at least a feature amount based on motion is extracted, and using the extracted feature amount, each pixel in the small region is a target object region and a background region other than that region Classify which class belongs to. Thereafter, the classes having similar feature distribution shapes between the adjacent small areas are set as the same class, and the boundaries of the classes are connected between the small areas, thereby extracting the contour of the target object area. The average value of the distribution of the feature values is obtained for all the pixels in each of the target object region and the background region extracted in this way, and the distance between the two average values is used as the representative image of each frame. The number of points shown.
さらに,前記適合度の点数として,前記距離の他に,注目物体領域の形状と所定のテンプレートとの一致度,または該注目物体領域の大きさ,または該注目物体領域の輪郭の長さと所定の基準値とを比較した値,または該注目物体領域の輪郭の形状と所定の基準値とを比較した値,のいずれか1つ以上を求めてもよい。そして,その適合度の点数および点数を算出した方法に関する情報をインデックスとして動画像の各フレームに付与し,インデックスを付与された動画像を出力することができる。
Further, as the score of the degree of matching, in addition to the distance, the degree of coincidence between the shape of the target object region and the predetermined template, the size of the target object region, or the length of the contour of the target object region Any one or more of a value compared with a reference value or a value obtained by comparing a contour shape of the object region of interest with a predetermined reference value may be obtained. Then, the score of the degree of fitness and information on the method for calculating the score can be assigned to each frame of the moving image as an index, and the indexed moving image can be output .
上記注目物体領域の輪郭の抽出は,以下のようにして行う。まず,入力された動画像を,フレームごとに,上記一つまたは複数の注目物体の一部または全体を含む小領域に分割する。そして,分割された各小領域内の各画素について一つまたは複数の特徴量を抽出する。特徴量は,例えば,輝度,色,オプティカルフローなどである。特徴量を抽出する場合,例えば,処理対象のフレームとその近傍のフレームとを使って動きに基づく特徴量を抽出するか,処理対象のフレームを使って動きに基づかない特徴量を抽出するか,その双方の特徴量を抽出する。 The extraction of the contour of the target object region is performed as follows. First, the input moving image is divided into small regions including some or all of the one or more objects of interest for each frame. Then, one or a plurality of feature amounts are extracted for each pixel in each divided small area. The feature amount is, for example, luminance, color, optical flow, and the like. When extracting feature quantities, for example, whether to extract feature quantities based on motion using the processing target frame and neighboring frames, or to extract feature quantities not based on motion using the processing target frame, Both feature quantities are extracted.
分割された各小領域ごとに,特徴量の全てあるいは一部を用いて各画素が2つの領域のどちらに属するのかをクラス分けする場合に,そのクラス分けの分離度を示す尤度が最も高くなる値を示すことになるクラス分けを行う。次に,隣接する各小領域について,前記特徴量を用いて,同じクラスにクラス分けされた領域の対応づけを行い,それに基づいて,同じクラスにクラス分けされた領域同士をつなぎ合わせることで,前記注目物体の輪郭を抽出して背景から分離する。 For each divided small area, when classifying which pixel each pixel belongs to, using all or part of the feature quantity, the likelihood indicating the separation of the classification is the highest. Classify that will show the value Next, for each adjacent small region, using the feature amount, the regions classified into the same class are associated, and based on this, the regions classified into the same class are joined together, The outline of the object of interest is extracted and separated from the background.
本発明を用いて,注目物体を背景から最もきれいに分離できるフレームの原画像を代表画像とすることで,注目物体が動きのためにぶれている画像ではなく,注目物体が鮮明なフレームを代表画像として選択することができる。このようにして得られた代表画像は,注目物体が鮮明に映っているため,利用しやすい。 By using the present invention as the representative image, the original image of the frame that can most clearly separate the object of interest from the background is used as the representative image. Can be selected. The representative image obtained in this way is easy to use because the object of interest is clearly visible.
また,輪郭の抽出方法は,前景も背景も動きがある場合に適用可能な手法であるため,携帯カメラや携帯端末で移動しながら撮影して注目物体も背景も動いているような画像にも適用できる。 In addition, the contour extraction method can be applied when the foreground and the background are both moving, so it can be used for images where the object of interest and the background are moving while moving with a mobile camera or mobile device. Applicable.
本発明の装置は,コンピュータとプログラムによっても実現でき,プログラムを記録媒体に記録することも,ネットワークを通して提供することも可能である。 The apparatus of the present invention can be realized by a computer and a program, and the program can be recorded on a recording medium or provided through a network.
本発明によれば,映像から対象物体を抽出し,対象物体に基いた判定基準によって,映像中のフレームの代表画像としての適合性を評価し,適合度をインデックスとしてフレームに付加することができる。これによって,ユーザの活用用途に応じた代表画像を選択することができる。 According to the present invention, it is possible to extract a target object from a video, evaluate the suitability of a frame in the video as a representative image according to a criterion based on the target object, and add the suitability to the frame as an index. . This makes it possible to select a representative image according to the usage application of the user.
〔第1の実施の形態〕
はじめに,図1を用いて本発明の第1の実施の形態を説明する。図1は,代表画像選択装置の構成例を示す図である。また,図2は,その処理フローチャートである。代表画像選択装置1は,動画像入力部11,注目物体輪郭抽出部12,代表画像適合度算出部13,インデックス付与部14,動画像出力部15,輪郭評価基準格納部16を備える。160は輪郭評価基準格納部16に格納される輪郭評価基準である。
[First Embodiment]
First, a first embodiment of the present invention will be described with reference to FIG. FIG. 1 is a diagram illustrating a configuration example of a representative image selection device. FIG. 2 is a flowchart showing the processing. The representative
動画像入力部11は,動画像を入力し(図2のステップS1),動画像のフレームごとに順番に注目物体輪郭抽出部12へ送る。以下の処理は,フレームごとに行われるため,入力の動画像としては,ビデオカメラで撮影された動画像のほか,デジタルカメラの連写機能で撮影したMotionJPEG形式の動画像などでもよい。
The moving
注目物体輪郭抽出部12は,図1(A)に示すような画像の時系列の各フレームごとに注目物体の輪郭抽出を行う(図2のステップS2)。注目物体領域は,デフォルトで動領域とする。隣接するフレーム間で局所的なテンプレートマッチングを行うなどの方法で動領域を検出することができる(例えば,「デジタル画像入力の基礎」コロナ社,第3章,pp.137参照)。
The target object
この領域を注目物体領域の初期値,それ以外の領域を背景領域の初期値として,注目物体領域の輪郭抽出を行う。輪郭抽出の技術としては,例えば,上記非特許文献1に記載されたような,動的輪郭モデルを用いる方法などがある。
Using this region as the initial value of the target object region and the other region as the initial value of the background region, contour extraction of the target object region is performed. Examples of the contour extraction technique include a method using a dynamic contour model as described in Non-Patent
輪郭評価基準格納部16は,輪郭評価基準160を格納する手段である。輪郭評価基準160は,各フレームが代表画像となり得るかどうかを評価するためにあらかじめ用意された基準で,注目物体輪郭抽出部12の出力について評価を行う基準である。輪郭評価基準160は,外部の装置から入力されるようなものであってもよい。
The contour evaluation
代表画像適合度算出部13は,注目物体輪郭抽出部12の出力と,輪郭評価基準160とに基づいて,各フレームの代表画像としての適合度を算出する(図2のステップS3)。
The representative image
例えば,代表画像適合度算出部13は,注目物体輪郭抽出部12で算出された,最終的な尤度(注目物体と背景との特徴量の分布のあてはまりの良さ),各画素の座標値と,背景領域/注目物体領域のいずれかを示すフラグと,輪郭上の画素の座標値と,領域分割の過程で算出した特徴量とを対応させたデータ配列,を入力とし,輪郭評価基準160に基づいて,各フレームの代表画像としての適合度を点数として算出する。適合度は,理想的な代表画像との近さを示すものであり,点数は,適合度を評価するため,画像の特徴量のテンプレートとの距離に基づく評価関数に特徴量を代入して得られる値である。
For example, the representative image
インデックス付与部14は,例えば,代表画像適合度算出部13から入力された各フレームの画像と,そのフレームから抽出された注目物体の輪郭と,その輪郭の背景からの分離度と,輪郭を評価した評価方法とその結果の点数を,評価方法と点数をインデックスとする図3に示すようなデータ構造に書き込むことで,各フレームの画像にインデックスを付与する(図2のステップS4)。動画像出力部15は,インデックスを付与された動画像を出力する(図2のステップS5)。
For example, the
各フレームの画像へのインデックスの付与によって,ユーザは,例えば,所望の評価方法で評価した結果,点数が高かった図1(B)の斜線部に示すフレームだけを代表画像として検索することができる。 By assigning an index to the image of each frame, for example, the user can search only the frames indicated by the hatched portion in FIG. .
また,インデックス付与部14は,代表画像適合度算出部13から入力された各フレームの画像と,そのフレームから抽出された注目物体の輪郭と,その輪郭の背景からの分離度と,輪郭を評価した評価方法とその結果の点数と,後述する代表画像条件入力部によって入力された代表画像を選択する条件とを,評価方法と点数と条件をインデックスとする図11に示すようなデータ構造に書き込む場合もある。
Further, the
図4および図5に従って,輪郭評価基準160を用いた代表画像適合度算出部13の処理の例を述べる。輪郭評価基準160による評価方法として,(a)注目物体領域の形状と大きさを評価する方法,(b)輪郭線の性質を定量的に評価する方法,(c)注目物体領域と背景領域の分離度,分離度の時間的な変化,注目物体輪郭抽出部12の出力である全体の尤度(注目物体と背景との特徴量の分布のあてはまりの良さ)が一定値以上であるかどうかを評価する方法,(d)上記評価方法を複数組み合わせる方法などがある。
An example of processing of the representative image
(a)注目物体領域の形状と大きさの評価
図4(A),(B)は,注目物体輪郭抽出部12の出力である注目物体領域の形状や大きさの評価の例を説明する図である。これらの図に示すように,例えば,注目物体輪郭抽出部12の出力である各画素の座標値と,その画素が背景領域/注目物体領域のいずれに属するかを示すフラグが対応している配列から,背景領域を“0”,注目物体領域を“1”とする二値画像を作成し,テンプレートマッチング(例えば,「コンピュータ画像処理入門」総研出版,第5章,pp.149参照)を行う。作成した二値画像に対して,形状の内部を“1”,背景を“0”とした二値画像によるテンプレートを,その大きさと位置を変えながら重ね合わせて,重なる面積が最大となるときの形状内部の面積に対する重なり部分の面積の比率を一致度とする。
(A) Evaluation of shape and size of target object region FIGS. 4A and 4B are diagrams illustrating an example of evaluation of the shape and size of the target object region, which is the output of the target object
点数は,この一致度と,その時の大きさでもよいし,それらから所定の関数で算出された値でもよい。その他,輪郭の凹凸性などの特徴の評価関数を用いてもよい(例えば,「コンピュータ画像処理入門」総研出版,第3章 3.4図形形状特徴を参照)。以上の例に限らず,注目物体領域の形状と大きさを定量的に評価できる手法であればよい。 The score may be the degree of coincidence and the magnitude at that time, or may be a value calculated from them using a predetermined function. In addition, an evaluation function for features such as contour unevenness may be used (for example, see “Introduction to Computer Image Processing”, Soken Publishing, Chapter 3, 3.4 Graphic Shape Features). The method is not limited to the above example, and any method that can quantitatively evaluate the shape and size of the object region of interest may be used.
(b)輪郭線の性質の評価
図4(C)は,輪郭線の性質の評価の例を説明する図である。輪郭の長さ,輪郭が閉曲線であるかどうか,端点の位置,輪郭の滑らかさなどを評価する。輪郭の長さは,境界線追跡などにより求める(例えば,「画像処理工学基礎編」共立出版株式会社,第7章,pp.126参照)。
(B) Evaluation of outline property FIG. 4C is a diagram illustrating an example of evaluation of the outline property. Evaluate the length of the contour, whether the contour is a closed curve, the position of the end points, the smoothness of the contour, etc. The length of the contour is obtained by boundary line tracking or the like (for example, see “Image Processing Engineering Basics”, Kyoritsu Publishing Co., Ltd., Chapter 7, pp. 126).
閉曲線かどうかは,始点と終点が一致するかどうかで判定する。端点の位置は,図4(C)に示すように,注目物体領域と背景領域の境界(輪郭線)上の画素をたどり,画像領域のxまたはyの最大値か最小値をとる画素があるかどうかで判定する。輪郭の滑らかさは,輪郭の1次差分や2次差分を用いた評価関数によって求める。 Whether it is a closed curve is determined by whether the start and end points match. As shown in FIG. 4C, the position of the end point follows a pixel on the boundary (contour line) between the target object region and the background region, and there is a pixel that takes the maximum or minimum value of x or y in the image region. Judge whether or not. The smoothness of the contour is obtained by an evaluation function using the primary difference or the secondary difference of the contour.
これらと,これらの項目の基準値とを比較した結果の点数を与える。各項目をパラメータとする適当な関数を用意しておき,これを用いて算出する。以上の例に限らず,輪郭線の性質を定量的に評価できる手法であればよい。 Scores are given as a result of comparing these items with the reference values of these items. An appropriate function with each item as a parameter is prepared and calculated using this function. The method is not limited to the above example, and any method that can quantitatively evaluate the properties of the contour line may be used.
(c)注目物体領域と背景領域の分離度,分離度の時間的な変化,注目物体輪郭抽出部12の出力である全体の尤度が一定値以上であるかどうかの評価
図5は,この評価の例を説明する図である。注目物体領域と背景領域の分離度,分離度の時間的な変化,注目物体と背景との特徴量の分布のあてはまりの良さが一定値以上であるかどうかを評価する。分離度は,ここでは注目物体領域に属する画素の特徴量の分布と,背景領域に属する画素の特徴量の分布との特徴空間における重なりの程度を示すものであり,分布の重なりが大きい場合を分離度が低い,重なりが小さい場合を分離度が高いとしている。点数は,この注目物体領域と背景領域の特徴量の分布の分離度などとする。図5(B)に示す例では,図5(A)に示す画像中の背景領域内画素の特徴量の分布の平均と,注目物体領域内画素の特徴量の分布の平均を求め,双方の平均値間の距離を分離度としている。なお,分離度としては,マハラノビス距離(例えば,「わかりやすいパターン認識」オーム社,pp.121−122参照)などを用いることもできる。
(C) Evaluation of the degree of separation between the target object region and the background region, the temporal change in the degree of separation, and whether or not the overall likelihood that is the output of the target object
また,注目物体と背景との特徴量の分布のあてはまりの良さ(尤度)が一定値以上であるかどうかを評価してもよい。また,それらを入力とした関数を用意しておいてもよい。また,尤度が時間的にどのように変化するかを評価してもよい。尤度小→大または尤度大→小など,フレーム間で尤度に急な変化が生じたとき,これを検出する。点数は,尤度の変化量でもよいし,それを入力とした関数を用意しておいてもよい。以上の例に限らず,注目物体領域と背景領域の分離度やその時間変化を定量的に評価できる手法であればよい。 Also, it may be evaluated whether the goodness of fit (likelihood) of the feature quantity distribution between the object of interest and the background is a certain value or more. In addition, a function using them as input may be prepared. Moreover, you may evaluate how likelihood changes with time. When a sudden change in likelihood occurs between frames, such as likelihood small → large or likelihood large → small, this is detected. The score may be the amount of change in likelihood, or a function with the input as an input may be prepared. The method is not limited to the above example, and any method that can quantitatively evaluate the degree of separation between the object region of interest and the background region and the temporal change thereof may be used.
(d)上記の評価の組み合わせ
本発明の実施の形態では,上記の例のような評価の複数の組み合わせを行ってもよい。また,どの基準を用いるかは,ユーザがその後の用途に応じて選択することができる。
(D) Combination of the above evaluations In the embodiment of the present invention, a plurality of combinations of evaluations as in the above example may be performed. In addition, which criterion is used can be selected by the user according to the subsequent use.
〔第2の実施の形態〕
次に図6を用いて,本発明の第2の実施の形態を説明する。図6は,第2の実施の形態に係る代表画像選択装置の構成例を示す図である。代表画像選択装置2は,図1に示す代表画像選択装置1の構成に,注目物体指示部21を加えた構成である。注目物体指示部21以外の構成は,図1に示す代表画像選択装置1が備える構成と同じである。
[Second Embodiment]
Next, a second embodiment of the present invention will be described with reference to FIG. FIG. 6 is a diagram illustrating a configuration example of a representative image selection device according to the second embodiment. The representative
注目物体指示部21は,注目物体領域をユーザが指示するための手段である。上記第1の実施の形態において,注目物体輪郭抽出部12では,デフォルトで動領域すべてを注目物体とみなす例を述べた。第2の実施の形態では,それ以外に図6に示すように,注目物体指示部21を設け,複数の決定方法を持たせ,これを注目物体指示部21によりユーザに指示させたのち画像処理を行うことによって注目物体を決定することができるようにしている。
The target
指示方法の例としては以下のようなものがある。(1)ある一定以上の面積をもつ動領域を選択する,(2)動きベクトルの絶対値がある一定以上の値をもつ領域を選択する,(3)動領域のうち,あらかじめ登録されたテンプレートによるテンプレートマッチングを行い,相関の高い領域を選択する,(4)GUI(Graphical User Interface)によって,注目物体領域をユーザにマウス等で選択させる,などである。 Examples of the instruction method include the following. (1) Select a moving region having a certain area or more, (2) Select a region having an absolute value of a motion vector having a certain value or more, (3) Pre-registered templates among the moving regions Template matching is performed to select a highly correlated area, and (4) the user selects a target object area with a mouse or the like by using a GUI (Graphical User Interface).
〔第3の実施の形態〕
次に,本発明の第3の実施の形態を説明する。図7は,本発明の第3の実施の形態に係る注目物体輪郭抽出部の構成例を示す図である。第3の実施の形態は,第1および第2の実施の形態における代表画像選択装置1,2における注目物体輪郭抽出部12の一例として,図6に示す注目物体輪郭抽出部12を用いた例である。
[Third Embodiment]
Next, a third embodiment of the present invention will be described. FIG. 7 is a diagram illustrating a configuration example of an attention object contour extraction unit according to the third embodiment of the present invention. The third embodiment is an example in which the target object
注目物体輪郭抽出部12は,小領域設定部121と,特徴ベクトル抽出部122と,小領域分割部123と,領域抽出部124とからなり,動画像入力部11から入力された画像の時系列の各フレームについて,注目物体の輪郭を求める。
The target object
まず,小領域設定部121は,注目物体を含むような領域を複数個の小領域に分割する。例えば,注目物体指示部21からの指示入力がある場合には,指示された領域全体を含むような1つ以上の小領域を設定する。例えば,図8に示すように,画像領域をN(N≧2)個の小領域に分割して,それらの小領域を単位とする画素の座標と画素値とを組とする情報を保持する。
First, the small
特徴ベクトル抽出部122は,小領域内の画素について特徴量を求める。特徴量は,輝度,色,オプティカルフローなどで,すべての画素について求める。そして,画素の座標と特徴量とを組とする情報を保持する。
The feature
次に,小領域分割部123において,各小領域内の注目物体領域と背景領域のそれぞれの特徴量の分布に基づいて,各画素がそれぞれの領域に含まれる確率を求め,最もあてはまりのよいように,すなわち,尤度が最大となるように,小領域における注目物体領域と背景領域を分割し直し,その時の尤度を算出する。
Next, the small
よく知られている一般的な尤度の定義について簡単に説明する。確率密度関数がf(y,θ)で与えられるとき,確率変数Y1 ,Y2 ,…,Yn の観測値y1 ,y2 ,…,yn に対して,
L=Πi f(yi ,θ)
をθの関数とみて,これを尤度関数と呼ぶ(“確率モデルによる音声認識”(電子情報通信学会),p.51参照)。このLのとり得るいろいろな値を尤度と呼ぶ。すなわち,確率モデルf(y,θ)を仮定したときに,観測値y1 ,y2 ,…,yn が得られる確率であり,確率モデルf(y,θ)への観測値のあてはまりの良さを評価する値である。
A well-known general definition of likelihood is briefly described. When the probability density function is given by f (y, θ), the random variables Y 1, Y 2, ..., observed value y 1, y 2 of Y n, ..., with respect to y n,
L = Π i f (y i , θ)
Is regarded as a function of θ, and this is called a likelihood function (see “Speech Recognition by Probability Model” (The Institute of Electronics, Information and Communication Engineers), p. 51). Various values that L can take are called likelihoods. That is, when assuming a probability model f (y, theta), observed value y 1, y 2, ..., the probability of y n is obtained, the probability model f (y, theta) of observations to apply the It is a value that evaluates goodness.
本実施の形態では,この尤度が最大となるように小領域を分割し直す処理を繰り返すことによって,注目物体領域と背景領域とを正確に分離する。繰り返しの回数は所定回数に達するか,または尤度が所定値以上になるまでとする。 In the present embodiment, the object region and the background region are accurately separated by repeating the process of re-dividing the small region so that the likelihood becomes maximum. The number of repetitions is until the predetermined number of times is reached or the likelihood becomes equal to or greater than a predetermined value.
小領域分割部123の処理について,さらに詳しく説明する。小領域分割部123は,特徴ベクトル抽出部122から各小領域Ci (1≦i≦N)の持つ画素の座標と特徴量とを組とする情報を受信し,小領域ごとに各特徴量(F1 〜FM )を使って,各画素を2つのクラスに分割する処理を行う。具体的にはその特徴量を使うと,その画素がどちらのクラスに属するのかということと,そのクラスに属する確率と,その特徴量を用いてクラス分けを行う場合の小領域全体の尤度(クラス分けの分離度を示す値:高い値ほど特徴量の分布のモデルへのあてはまりがよいことを示す)とを算出する処理を行う。そして,画素の座標と特徴量とを組とする情報に,上記処理結果である,画素ごとの推定クラスとそのクラスに属する確率と小領域全体の尤度とを加えた情報を保持する。
The processing of the small
小領域Ci を領域Z1 と領域Z2 の2つのクラスに分割する手順について説明する。この分割は,画素の特徴量に基づいて行う。小領域内において特徴量は,物体部分と背景部分のそれぞれにおいて,おおむね一様であるが,通常はガウス分布のように,ある平均値のまわりに多少の分散をもって分布すると考えられる。 A procedure for dividing the small area C i into two classes of area Z 1 and area Z 2 will be described. This division is performed based on the feature amount of the pixel. In the small area, the feature value is almost uniform in each of the object part and the background part, but it is usually considered to be distributed with some dispersion around a certain average value like a Gaussian distribution.
領域分割においては,この分布を推定する統計的手法が有効である。例えば,ガウス分布を仮定して,平均と分散とをパラメータとし,領域分割の形状とパラメータ値とを推定する最尤推定を行う。物体候補領域F’と背景候補領域B’との境界を含む複数の小領域について,特徴量の平均値,分散値などのパラメータの推定と尤度算出とを繰り返すことで,最終的に領域分割の形状を推定する。 A statistical method for estimating this distribution is effective in region segmentation. For example, assuming a Gaussian distribution, maximum likelihood estimation is performed to estimate the shape and parameter values of the region division using the mean and variance as parameters. For a plurality of small regions including the boundary between the object candidate region F ′ and the background candidate region B ′, it is finally divided into regions by repeatedly estimating parameters such as feature value average values and variance values and calculating likelihoods. Estimate the shape of
アルゴリズムとしては,例えば,パラメータの推定(E(Expectation)ステップ)と最大尤度推定(M(Maximization) ステップ)とを繰り返すEMアルゴリズム(参考文献:情報処理, vol.37, No.1, pp.43-46, Jan, 1996)を用いる。 As an algorithm, for example, an EM algorithm that repeats parameter estimation (E (Expectation) step) and maximum likelihood estimation (M (Maximization) step) (reference: information processing, vol.37, No.1, pp. 43-46, Jan, 1996).
このEMアルゴリズムは,最急降下法と同様に解を逐次改良していく繰り返し探索のアルゴリズムであり,このアルゴリズムによって正確な領域を決定し,小領域Ci を領域Z1 と領域Z2 との2つのクラスに分割する。EMアルゴリズムでは,Eステップで,すべての特徴量について並列的にパラメータの推定を行ない,Mステップで,すべての特徴量の尤度の合計(下記に示すQi (Fm )の合計)を評価関数として最尤推定を行う。
The EM algorithm is an algorithm for the iterative search continue to iterative improvement solutions like the steepest descent method to determine the exact area The
例えば,i番目の小領域をM個の特徴量F1 〜FM によって分割した処理結果は,
(イ)k番目の画素について求めた特徴量F1 〜FM :F1k〜FMk
(ロ)k番目の画素が各特徴量mにより領域Zi1と領域Zi2のどちらのクラスに分類されたのかを示す情報:Zmk
(ハ)k番目の画素がクラス分けされた領域Zmkに属する確率:Pmk(Zmk)
(ニ)特徴量ごとの小領域Ci 全体での尤度:Qi (F1 )〜Qi (FM )
但し,Qi (Fm )=Σk logPmk(Zmk)
という値の組として得られる。
For example, the processing result obtained by dividing the i-th small region by M feature amounts F 1 to F M is as follows:
(A) Feature quantities F 1 to F M obtained for the k-th pixel: F 1k to F Mk
(B) Information indicating whether the k-th pixel is classified into the region Z i1 or the region Z i2 by each feature amount m: Z mk
(C) Probability that the k-th pixel belongs to the classified region Z mk : P mk (Z mk )
(D) Likelihood in the entire small region C i for each feature quantity: Q i (F 1 ) to Q i (F M )
However, Q i (F m ) = Σ k log P mk (Z mk )
Is obtained as a set of values.
最後に,領域抽出部124では,一つの小領域に含まれる注目物体領域と背景領域と,それに隣接する小領域に含まれる注目物体領域と背景領域とを,それぞれの領域の特徴量の分布の近いもの同士を同じ領域とみなすことで,統合する。ここで,領域が統合されたとは,隣り合う2つの小領域で,接する辺上の境界線をつなぎ,つながれた境界線の同じ側が同じクラス(ここでは,物体領域と背景領域の2つのクラス)に属するように決定されたことをいう。
Finally, the
各小領域を以下のようにして統合することにより,画像全体の物体領域と画像全体の背景領域とが求められる。各小領域の統合処理について,具体的に説明する。統合の基本的なルールとして,ある2つの隣り合う小領域Ci,Cj において,小領域Ci 内の2つのクラスZi1/Zi2と,小領域Cj 内の2つのクラスZj1/Zj2とのクラス間の対応を決定する。そして,クラス同士をつなぐ境界線を矛盾なくつなぐ。 By integrating the small areas as follows, the object area of the entire image and the background area of the entire image are obtained. The integration process of each small area will be specifically described. As a rule of integration, small areas C i neighboring are two, the C j, the two classes Z i1 / Z i2 in the small area C i, two classes Z in the small area C j j1 / Determine the correspondence between classes with Z j2 . And, the boundary line connecting classes is connected without contradiction.
統合処理では,まず,特徴量の分布(例えば平均値)を使って,図9(A)に示す小領域Ci 内の2つのクラスZi1/Zi2と,小領域Cj 内の2つのクラスZj1/Zj2とのクラス間の対応を決定する。例えば,Zi1とZj1とが同じクラスに属し,Zi2とZj2とが同じクラスに属するという対応関係を決定するのである。 In the integration process, first, with the distribution of the feature (e.g., average value), and two classes Z i1 / Z i2 in small areas C i shown in FIG. 9 (A), the two in the small area C j The correspondence between classes with class Z j1 / Z j2 is determined. For example, the correspondence relationship that Z i1 and Z j1 belong to the same class and Z i2 and Z j2 belong to the same class is determined.
図9(A)および(B)の上段に示すように,小領域Ci はクラスZi1とZi2とに分割され,Ci と隣り合う小領域Cj はクラスZj1とZj2とに分割されているものとする。図9(A)および(B)の下段に示す各小領域における各クラスの特徴量の分布に基づいて,特徴量の分布形状の近い方を同じクラスとしてラベルづけする。その後,図9(C)に示すように,クラス同士をつなぐ境界線を矛盾なくつなぐ。特徴量の分布の近さは,平均値などの統計量を比較するか,マハラノビス距離などにより判定することができる。 9A and 9B, the small area C i is divided into classes Z i1 and Z i2, and the small area C j adjacent to C i is divided into classes Z j1 and Z j2 . It is assumed that it is divided. Based on the distribution of the feature quantity of each class in each small area shown in the lower part of FIGS. 9A and 9B, the one with the closest feature quantity distribution shape is labeled as the same class. Thereafter, as shown in FIG. 9C, the boundary lines connecting the classes are connected without contradiction. The closeness of the distribution of feature values can be determined by comparing statistics such as average values or by Mahalanobis distance.
以上の処理の結果,注目物体輪郭抽出部12は,時系列の画像と,画像の各フレームに対応づけられた輪郭情報と,輪郭抽出の際に得られた注目物体の背景からの分離度を出力する。
As a result of the above processing, the target object
〔第4の実施の形態〕
次に図10を用いて,本発明の第4の実施の形態を説明する。図10に示す代表画像選択装置3は,図6に示す代表画像選択装置2の構成に,代表画像条件入力部31と代表画像条件判定部32とを加えたものである。代表画像条件入力部31と代表画像条件判定部32以外の構成は,代表画像選択装置2が備える構成と同じである。
[Fourth Embodiment]
Next, a fourth embodiment of the present invention will be described with reference to FIG. A representative image selection device 3 shown in FIG. 10 is obtained by adding a representative image
代表画像条件入力部31は,輪郭評価基準160で与えられた輪郭に基づく評価基準とは別の,代表画像の選択条件を,ユーザに選択入力させる手段である。代表画像の選択条件の例として,背景色の特定,背景に特定の物体(人,顔,文字,テロップなど)が含まれるかどうかなどの条件がある。ユーザは,これらのうち一つまたは複数の条件を選択することができる。
The representative image
代表画像条件判定部32は,代表画像条件入力部31で入力された条件に従って,動画像入力部11から入力されたフレームの条件判定を行う。代表画像条件判定部32は,代表画像条件入力部31が持つ条件に対応した判定処理関数をもち,条件判定を行う。
The representative image
例えば,特定の背景色を選択するという条件に対応する判定処理としては,色ヒストグラムを求めて,特定の背景色の色ヒストグラムと比較する。代表画像条件判定部32による判定の結果,現在の着目フレームについて,例えば「背景色が青」というような選択のための条件が検出されると,その選択条件をインデックス付与部14に通知する。また,代表画像条件判定部32は,特定の物体が含まれるという条件に対応する判定処理としては,特定の物体のテンプレートとのマッチングを行う。その結果,現在の着目フレームについて,例えば「顔が含まれる」というような選択のための条件が検出されると,その選択条件をインデックス付与部14に通知する。
For example, as a determination process corresponding to the condition of selecting a specific background color, a color histogram is obtained and compared with a color histogram of a specific background color. As a result of the determination by the representative image
この条件判定は,入力された動画像のすべてのフレームに対して行うようにしてもよいし,代表画像適合度算出部13において算出された点数が所定値以上のフレームに対してのみ行うようにしてもよい。
This condition determination may be performed for all the frames of the input moving image, or may be performed only for the frames for which the score calculated by the representative image
インデックス付与部14では,代表画像適合度算出部13から入力された各フレームの画像と,そのフレームから抽出された注目物体の輪郭と,その輪郭の背景からの分離度と,輪郭を評価した評価方法とその結果の点数と,代表画像条件入力部31によって入力された,代表画像を選択する条件を,評価方法と点数と条件をインデックスとする図11に示すようなデータ構造に書き込む。
The
〔第5の実施の形態〕
次に,図12を用いて,本発明の第5の実施の形態を説明する。図12に示す代表画像選択装置4は,図1の代表画像選択装置1の構成にシーン分離部41とシーン結合部42とを加えた構成を採る。
[Fifth Embodiment]
Next, a fifth embodiment of the present invention will be described with reference to FIG. The representative
シーン分離部41とシーン結合部42以外の構成は,代表画像選択装置1が備える構成と同じである。シーン分離部41は,例えば図13(A)に示すような長時間の映像を入力とし,これを図13(B)に示すシーン1とシーン2のような短いシーンに分割する手段であり,映像からのシーン検出方法の従来手法(例えば,上記特許文献1,特許文献2,特許文献3に記載された手法)に置き換えることができる。これ以外でも,一定時間に分割するなどの方法で分割してもよい。
The configuration other than the
インデックス付与部14により,シーン1とシーン2のそれぞれに含まれるフレームにインデックスが付与され,図13(C)の斜線部に示すフレームが各シーンの代表画像とされると,シーン結合部42は,図13(D)に示すように,分割されてそれぞれ代表画像が選択されたシーン1およびシーン2をもとの時間の順序で結合する。
When the
1,2,3,4 代表画像選択装置
11 動画像入力部
12 注目物体輪郭抽出部
13 代表画像適合度算出部
14 インデックス付与部
15 動画像出力部
16 輪郭評価基準格納部
21 注目物体指示部
31 代表画像条件入力部
32 代表画像条件判定部
41 シーン分離部
42 シーン結合部
121 小領域設定部
122 特徴ベクトル抽出部
123 小領域分割部
124 領域抽出部
160 輪郭評価基準
1, 2, 3, 4 Representative
Claims (11)
動画像を入力する動画像入力手段と,
前記動画像の各フレームから一つまたは複数の動領域である注目物体領域を含む領域を小領域に分割する小領域設定手段と,
前記小領域内の各画素について,少なくとも動きに基づく特徴量を含む特徴量を抽出する特徴ベクトル抽出手段と,
前記特徴量を用いて前記小領域内の各画素が注目物体領域とそれ以外の領域である背景領域のどちらのクラスに属するのかクラス分けする小領域分割手段と,
隣接する前記小領域間で,前記特徴量の分布形状が近いクラス同士を同じクラスとし,前記小領域間でクラスの境界同士をつなぎ合わせることで,前記注目物体領域の輪郭を抽出する領域抽出手段と,
前記領域抽出手段で抽出された注目物体領域および背景領域それぞれの領域内の全画素について前記特徴量の分布の平均値を求め,双方の平均値間の距離を各フレームの代表画像としての適合度を示す点数とする代表画像適合度算出手段とを備える
ことを特徴とする代表画像選択装置。 A representative image selection device for selecting a representative image from a moving image,
A moving image input means for inputting a moving image;
A small area setting means for dividing an area including an object area of interest which is one or a plurality of moving areas from each frame of the moving image into small areas;
Feature vector extraction means for extracting a feature quantity including at least a feature quantity based on motion for each pixel in the small area;
Sub-region dividing means for classifying each pixel in the sub-region using the feature amount to belong to a class of a target object region or a background region other than the target object region;
Region extracting means for extracting the contour of the object region of interest by connecting classes that are close to each other in the same class and having the same class between the adjacent small regions and connecting the boundaries of the classes between the small regions When,
The average value of the distribution of the feature amount is obtained for all the pixels in each of the target object region and the background region extracted by the region extracting means, and the distance between both average values is used as a representative image of each frame. representative image selection apparatus, comprising a representative image matching degree calculation means to score indicating a.
前記小領域設定手段に対し,入力により一つまたは複数の動領域である注目物体領域を指定する注目物体指示手段を備える
ことを特徴とする代表画像選択装置。 The representative image selection device according to claim 1,
A representative image selection device comprising: an object-of-interest instruction means for designating an object-of-interest area that is one or a plurality of moving areas by input to the small area setting means .
前記代表画像適合度算出手段は,
前記適合度の点数として,前記距離の他に,前記領域抽出手段で抽出された注目物体領域の形状と所定のテンプレートとの一致度,または該注目物体領域の大きさ,または該注目物体領域の輪郭の長さと所定の基準値とを比較した値,または該注目物体領域の輪郭の形状と所定の基準値とを比較した値,のいずれか1つ以上を求めるものであり,
さらに,前記適合度の点数および前記点数を算出した方法に関する情報をインデックスとしてフレームに付与するインデックス付与手段と,
前記インデックスを付与された動画像を出力する動画像出力手段とを備える
ことを特徴とする代表画像選択装置。 In the representative image selection device according to claim 1 or 2,
The representative image suitability calculating means includes:
As the score of the fitness, in addition to the distance, the degree of coincidence between the shape of the target object region extracted by the region extraction unit and a predetermined template, the size of the target object region, or the target object region Obtaining one or more of a value obtained by comparing the length of the contour and a predetermined reference value, or a value obtained by comparing the shape of the contour of the object region of interest and a predetermined reference value;
Furthermore, index assigning means for assigning information about the score of the fitness and the method for calculating the score to the frame as an index;
A representative image selection device comprising: a moving image output unit that outputs the indexed moving image .
代表画像を選択する条件を入力する代表画像条件入力手段と,
前記入力された代表画像を選択する条件を用いて前記動画像入力手段により入力された動画像に対して条件判定を行う代表画像条件判定手段とを備え,
前記インデックス付与手段は,前記代表画像条件判定手段による条件判定結果を受けとって,前記動画像のフレームの代表画像としての適合度と前記代表画像を選択する条件に関する情報を含むインデックスを,前記動画像のフレームに付与する
ことを特徴とする代表画像選択装置。 In the representative image selection device according to claim 3 ,
Representative image condition input means for inputting conditions for selecting a representative image;
Representative image condition determining means for performing condition determination on the moving image input by the moving image input means using a condition for selecting the input representative image;
The index assigning means receives the condition determination result by the representative image condition determining means, and uses the moving image as an index including information on the degree of matching of the frame of the moving image as a representative image and the condition for selecting the representative image. The representative image selection device is characterized in that the image is added to the frame.
前記動画像を複数のシーンに分割するシーン分離手段を備え,
前記インデックス付与手段は,前記分割されたシーンごとに,各シーン中のフレームに前記インデックスを付与する
ことを特徴とする代表画像選択装置。 In the representative image selection device according to claim 3 or 4 ,
Scene separation means for dividing the moving image into a plurality of scenes;
The index assigning means assigns the index to a frame in each scene for each of the divided scenes.
動画像を入力する動画像入力過程と,
前記動画像の各フレームから一つまたは複数の動領域である注目物体領域を含む領域を小領域に分割する小領域設定過程と,
前記小領域内の各画素について,少なくとも動きに基づく特徴量を含む特徴量を抽出する特徴ベクトル抽出過程と,
前記特徴量を用いて前記小領域内の各画素が注目物体領域とそれ以外の領域である背景領域のどちらのクラスに属するのかクラス分けする小領域分割過程と,
隣接する前記小領域間で,前記特徴量の分布形状が近いクラス同士を同じクラスとし,前記小領域間でクラスの境界同士をつなぎ合わせることで,前記注目物体領域の輪郭を抽出する領域抽出過程と,
前記領域抽出過程で抽出された注目物体領域および背景領域それぞれの領域内の全画素について前記特徴量の分布の平均値を求め,双方の平均値間の距離を各フレームの代表画像としての適合度を示す点数とする代表画像適合度算出過程とを有する
ことを特徴とする代表画像選択方法。 A representative image selection method in which a computer selects a representative image from moving images,
A moving image input process for inputting a moving image;
A small region setting process for dividing a region including a target object region, which is one or a plurality of moving regions, from each frame of the moving image into small regions;
A feature vector extraction process for extracting a feature amount including at least a feature amount based on motion for each pixel in the small region;
A small area dividing process of classifying each pixel in the small area to the class of which of the object object area and the background area, which is the other area, using the feature amount;
A region extraction process for extracting the contour of the object region of interest by joining classes that are close to each other in the same feature class between adjacent small regions and connecting the boundaries of the classes between the small regions When,
The average value of the distribution of the feature amount is obtained for all pixels in each of the target object region and the background region extracted in the region extraction process, and the distance between the two average values is used as a representative image of each frame. representative image selection method characterized by having a representative image matching degree calculation step of a number indicating the.
前記小領域設定過程に対し,入力により一つまたは複数の動領域である注目物体領域を指定する注目物体指示過程を有する
ことを特徴とする代表画像選択方法。 In the representative image selection method according to claim 6,
A representative image selection method comprising: an object-of-interest instruction process that designates an object-of-interest area that is one or a plurality of moving areas by input with respect to the small area setting process .
前記代表画像適合度算出過程は,
前記適合度の点数として,前記距離の他に,前記領域抽出過程で抽出された注目物体領域の形状と所定のテンプレートとの一致度,または該注目物体領域の大きさ,または該注目物体領域の輪郭の長さと所定の基準値とを比較した値,または該注目物体領域の輪郭の形状と所定の基準値とを比較した値,のいずれか1つ以上を求めるものであり,
さらに,前記適合度の点数および前記点数を算出した方法に関する情報をインデックスとしてフレームに付与するインデックス付与過程と,
前記インデックスを付与された動画像を出力する動画像出力過程とを有する
ことを特徴とする代表画像選択方法。 In the representative image selection method according to claim 6 or 7,
The representative image fitness calculation process includes:
As the score of the fitness, in addition to the distance, the degree of coincidence between the shape of the target object region extracted in the region extraction process and a predetermined template, the size of the target object region, or the target object region Obtaining one or more of a value obtained by comparing the length of the contour and a predetermined reference value, or a value obtained by comparing the shape of the contour of the object region of interest and a predetermined reference value;
And an indexing process for assigning information about the score of the fitness and a method for calculating the score to the frame as an index,
A representative image selection method comprising: a moving image output process of outputting the indexed moving image .
代表画像を選択する条件を入力する代表画像条件入力過程と,
前記入力された代表画像を選択する条件を用いて前記動画像入力過程により入力された動画像に対して条件判定を行う代表画像条件判定過程とを有し,
前記インデックス付与過程は,前記代表画像条件判定過程による条件判定結果を受けとって,前記動画像のフレームの代表画像としての適合度と前記代表画像を選択する条件に関する情報を含むインデックスを,前記動画像のフレームに付与する
ことを特徴とする代表画像選択方法。 In the representative image selection method according to claim 8 ,
A representative image condition input process for inputting a condition for selecting a representative image;
And a representative image condition determination process of performing condition determination on the moving image inputted by the moving image input step using the conditions for selecting a representative image that is the input,
The indexing process receives a condition determination result from the representative image condition determination process, and includes an index including information on a degree of matching of the frame of the moving image as a representative image and a condition for selecting the representative image. A representative image selecting method, characterized by being applied to a frame of
前記動画像を複数のシーンに分割するシーン分離過程を有し,
前記インデックス付与過程は,前記分割されたシーンごとに,各シーン中のフレームに前記インデックスを付与する
ことを特徴とする代表画像選択方法。 In the representative image selection method according to claim 8 or 9 ,
Has a scene separation process of dividing the moving picture into a plurality of scenes,
In the index assigning process, the index is assigned to a frame in each scene for each of the divided scenes.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004172035A JP4369308B2 (en) | 2004-06-10 | 2004-06-10 | Representative image selection device, representative image selection method, and representative image selection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004172035A JP4369308B2 (en) | 2004-06-10 | 2004-06-10 | Representative image selection device, representative image selection method, and representative image selection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005352718A JP2005352718A (en) | 2005-12-22 |
JP4369308B2 true JP4369308B2 (en) | 2009-11-18 |
Family
ID=35587159
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004172035A Expired - Fee Related JP4369308B2 (en) | 2004-06-10 | 2004-06-10 | Representative image selection device, representative image selection method, and representative image selection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4369308B2 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4508112B2 (en) * | 2006-01-11 | 2010-07-21 | ノーリツ鋼機株式会社 | Still image extraction system |
JP5063098B2 (en) * | 2006-12-12 | 2012-10-31 | ヤフー株式会社 | Information providing apparatus, information providing method, and computer program |
JP2008217701A (en) * | 2007-03-07 | 2008-09-18 | Sharp Corp | Metadata providing device, metadata providing method, metadata providing program, and recording medium recording metadata providing program |
US20100278396A1 (en) | 2008-01-18 | 2010-11-04 | Nikon Corporation | Image group title assigning device, image grouping device, representative image determination device for image group, image display device, camera, and image display program |
JP5434057B2 (en) * | 2008-01-18 | 2014-03-05 | 株式会社ニコン | Image display device and image display program |
JP5330120B2 (en) * | 2009-06-29 | 2013-10-30 | 公立大学法人公立はこだて未来大学 | Three-dimensional shape measuring apparatus and semiconductor integrated circuit |
JP5989443B2 (en) * | 2012-07-31 | 2016-09-07 | 公立大学法人公立はこだて未来大学 | Semiconductor integrated circuit and object distance measuring device |
JP5822893B2 (en) * | 2013-10-31 | 2015-11-25 | キヤノン株式会社 | Image processing apparatus, image processing system, image processing method, program, and recording medium |
JP6904614B2 (en) | 2017-12-08 | 2021-07-21 | 日本電気通信システム株式会社 | Object detection device, prediction model creation device, object detection method and program |
WO2020235060A1 (en) * | 2019-05-22 | 2020-11-26 | 三菱電機ビルテクノサービス株式会社 | Video processing device and video processing method |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05282380A (en) * | 1992-03-31 | 1993-10-29 | Nippon Telegr & Teleph Corp <Ntt> | Animation image retrieving method |
JPH08191411A (en) * | 1994-11-08 | 1996-07-23 | Matsushita Electric Ind Co Ltd | Scene discrimination method and representative image recording and display device |
JP3625935B2 (en) * | 1995-12-27 | 2005-03-02 | 株式会社日立製作所 | Important image extracting apparatus and important image extracting method for moving images |
JP3612227B2 (en) * | 1998-01-07 | 2005-01-19 | 株式会社東芝 | Object extraction device |
JP2001126157A (en) * | 1999-10-29 | 2001-05-11 | Ricoh Co Ltd | Crime prevention system using moving picture retrieval |
JP2001268479A (en) * | 2000-03-16 | 2001-09-28 | Nippon Hoso Kyokai <Nhk> | Moving image retrieval device |
JP4536940B2 (en) * | 2001-01-26 | 2010-09-01 | キヤノン株式会社 | Image processing apparatus, image processing method, storage medium, and computer program |
JP2003348528A (en) * | 2002-05-22 | 2003-12-05 | Nippon Telegr & Teleph Corp <Ntt> | Representative image selection method, representative image selection apparatus, representative image selection program and recording medium for representative image selection program |
JP4244584B2 (en) * | 2002-08-01 | 2009-03-25 | ソニー株式会社 | Important image detection apparatus, important image detection method, program and recording medium, and important image detection system |
-
2004
- 2004-06-10 JP JP2004172035A patent/JP4369308B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005352718A (en) | 2005-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4898800B2 (en) | Image segmentation | |
JP4381310B2 (en) | Media processing system | |
US7336830B2 (en) | Face detection | |
US8384791B2 (en) | Video camera for face detection | |
US7515739B2 (en) | Face detection | |
US20040090453A1 (en) | Method of and system for detecting uniform color segments | |
US7421149B2 (en) | Object detection | |
US20060104487A1 (en) | Face detection and tracking | |
US20040175021A1 (en) | Face detection | |
US20050129311A1 (en) | Object detection | |
US9626585B2 (en) | Composition modeling for photo retrieval through geometric image segmentation | |
US20060198554A1 (en) | Face detection | |
JP2006508601A5 (en) | ||
CN111311475A (en) | Detection model training method and device, storage medium and computer equipment | |
JP4369308B2 (en) | Representative image selection device, representative image selection method, and representative image selection program | |
CN111783729A (en) | Video classification method, device, equipment and storage medium | |
Zhang et al. | Detecting and removing visual distractors for video aesthetic enhancement | |
JP5116017B2 (en) | Video search method and system | |
Liu et al. | Automatic body segmentation with graph cut and self-adaptive initialization level set (SAILS) | |
Chung et al. | Video object extraction via MRF-based contour tracking | |
CN112383824A (en) | Video advertisement filtering method, device and storage medium | |
JP4455980B2 (en) | Moving image processing method, moving image processing apparatus, moving image processing program, and recording medium recording the program | |
Çakar et al. | Creating cover photos (thumbnail) for movies and tv series with convolutional neural network | |
CN111144363B (en) | Behavior identification method under first view angle based on scene and object information | |
Yeh | Selecting interesting image regions to automatically create cinemagraphs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060719 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090602 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090729 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20090729 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090825 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090827 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120904 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130904 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |