JP2006244074A - Moving object close-up frame detection method and program, storage medium storing program, moving object close-up shot detection method, moving object close-up frame or shot detection method and program, and storage medium storing program - Google Patents

Moving object close-up frame detection method and program, storage medium storing program, moving object close-up shot detection method, moving object close-up frame or shot detection method and program, and storage medium storing program Download PDF

Info

Publication number
JP2006244074A
JP2006244074A JP2005057904A JP2005057904A JP2006244074A JP 2006244074 A JP2006244074 A JP 2006244074A JP 2005057904 A JP2005057904 A JP 2005057904A JP 2005057904 A JP2005057904 A JP 2005057904A JP 2006244074 A JP2006244074 A JP 2006244074A
Authority
JP
Japan
Prior art keywords
frame
moving object
video
storage means
procedure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005057904A
Other languages
Japanese (ja)
Other versions
JP4496992B2 (en
Inventor
Yosuke Torii
陽介 鳥井
Seiichi Konya
精一 紺谷
Masashi Morimoto
正志 森本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2005057904A priority Critical patent/JP4496992B2/en
Publication of JP2006244074A publication Critical patent/JP2006244074A/en
Application granted granted Critical
Publication of JP4496992B2 publication Critical patent/JP4496992B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a moving object close-up frame detection method that can accurately detect the video time of moving object close-up frames imaging a moving object in close-up, and moving object close-up shots, irrespective of the type of the subject. <P>SOLUTION: Whether motion vectors of input video conform to a predetermined camerawork model is determined. If they do not conform, the video is detected as a moving object close-up frame. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、動物体アップフレーム検出方法及びプログラム及びプログラムを格納した記憶媒体及び動物体アップショット検出方法及び動物体アップフレームあるいはショット検出方法及びプログラム及びプログラムを格納した記憶媒体に係り、特に、映像構造化技術において映像の代表画像を生成するための動物体アップフレーム検出方法及びプログラム及びプログラムを格納した記憶媒体及び動物体アップショット検出方法及び動物体アップフレームあるいはショット検出方法及びプログラム及びプログラムを格納した記憶媒体に関する。   The present invention relates to an animal up-frame detection method, a program, and a storage medium storing the program, and an animal up-shot detection method, an animal up-frame or shot detection method, a program, and a storage medium storing the program. A storage medium storing a moving object up-frame detection method, a program, and a program for generating a representative image of a video in a structured technology, a moving object up-shot detection method, a moving object up-frame detection method, a program, and a program Related to the storage medium.

第1の従来の技術として、編集やカメラのオン・オフによって生じる映像の変化点(カット点)を検出し、その画像をユーザに提示する映像概覧生成技術がある(例えば、非特許文献1参照)。   As a first conventional technique, there is a video overview generation technique for detecting a video change point (cut point) caused by editing or turning on / off a camera and presenting the image to a user (for example, Non-Patent Document 1). reference).

第2の従来の技術として、検出すべき物体を事前に学習しておき、その物体の色特徴量を記憶し、その特徴量と映像中の該特徴量とをマッチングすることにより、特定の物体が存在する画像領域を検出する技術がある。この技術は、領域がわかるので物体の大きさ、位置を算出することが可能である(例えば、特許文献1参照)。また、この他にも事前に記憶された色特徴、形状特徴の類似特徴を映像中から探し出し、注目する物体として提示する技術は種々存在する。
谷口、外村、浜田「映像ショット切換え検出方法とその映像アクセスインタフェースへの応用」電子情報通信学会論文誌、D-II Vol.J79-D-II No.4. pp.538-546 Apr. 1996 特開平10−247246号公報
As a second conventional technique, an object to be detected is learned in advance, the color feature amount of the object is stored, and the feature amount and the feature amount in the video are matched to thereby obtain a specific object. There is a technique for detecting an image area in which there is. This technique can calculate the size and position of an object since the area is known (see, for example, Patent Document 1). In addition to this, there are various techniques for finding similar features of color features and shape features stored in advance in a video and presenting them as objects of interest.
Taniguchi, Tonomura, Hamada “Video Shot Switching Detection Method and Its Application to Video Access Interface” IEICE Transactions, D-II Vol.J79-D-II No.4. Pp.538-546 Apr. 1996 Japanese Patent Laid-Open No. 10-247246

しかしながら、上記従来の技術には以下のような問題点がある。   However, the conventional technique has the following problems.

第1の従来技術に関する課題として、
(a)テレビ番組等の映像では、カット点画像は一つの映像に対し、非常に多くなり、見難くなる。また、個人撮影映像などカット点のほとんどない映像に対しては有効でない。
As issues related to the first prior art,
(A) In a video such as a television program, the cut point image is very large for one video and is difficult to see. Also, it is not effective for videos with few cut points, such as personal shot images.

(b)また、カット点画像に映像内容として有意なものが写っていないことがある。   (B) In addition, there is a case where no significant image content is shown in the cut point image.

また、第2の従来技術に関する課題として、
(c)ユーザの指定した、あるいは、事前に記憶されている特定の物体しか検出することができない。
In addition, as a problem related to the second prior art,
(C) Only specific objects designated by the user or stored in advance can be detected.

(d)物体の色特徴量や形状特徴は撮影時の物体の動きによって見た目上の変化が起こり易くそれらの特徴量では検出できなくなることがある。また、見た目上の変化に対応するためには多数のテンプレートを用意する必要があり、それらを総当り的に比較する計算コストは比較的高い。   (D) The color feature amount and shape feature of an object are likely to change in appearance due to the movement of the object at the time of shooting, and may not be detected with those feature amounts. Moreover, in order to cope with the change in appearance, it is necessary to prepare a large number of templates, and the calculation cost for comparing them brute force is relatively high.

本発明は、上記の点に鑑みなされたもので、被写体の種類に関わらず、動物体が大きく写っている動物体アップフレームの映像時刻を精度よく検出でき、映像概覧提供及び映像ダイジェストに利用可能なインデックスを提供することが可能な、動物体アップフレーム検出方法及びプログラム及びプログラムを格納した記憶媒体及び動物体アップショット検出方法及び動物体アップフレームあるいはショット検出方法及びプログラム及びプログラムを格納した記憶媒体を提供することを目的とする。   The present invention has been made in view of the above points, and can accurately detect the video time of an up-frame of a moving object in which the moving object is large regardless of the type of subject, and can be used for providing a video overview and a video digest. Storage medium storing moving object up-frame detection method, program and program, moving object up-shot detection method, moving object up-frame or shot detection method, program and program capable of providing possible index The purpose is to provide a medium.

図1は、本発明の原理を説明するための図である。   FIG. 1 is a diagram for explaining the principle of the present invention.

本発明(請求項1)は、映像が記憶されている映像記憶手段から動物体が比較的大きく写っている映像フレーム画像(動物体アップフレーム画像)を検出する動物体アップフレーム検出装置における、動物体アップフレーム検出方法において、
映像記憶手段から読み込まれた複数のフレーム画像を用いて動きベクトルを算出し、メモリに格納する動きベクトル算出手順(ステップ1)と、
メモリから動きベクトルを取得して、該動きベクトル全体が所定のカメラワークモデルに則しているかを判定するカメラワークモデル適合判定手順(ステップ2)と、
カメラワークモデル適合判定手順において、カメラワークモデルに則していないと判定された場合に、動物体アップフレームとして検出する手順(ステップ3)と、を行う。
The present invention (Claim 1) is directed to an animal in an up-frame detection apparatus for moving objects that detects a video frame image (moving body up-frame image) in which a moving object is relatively large from a video storage means in which video is stored. In the body up frame detection method,
A motion vector calculation procedure (step 1) for calculating a motion vector using a plurality of frame images read from the video storage means and storing the motion vector in a memory;
A camera work model conformity determination procedure (step 2) for acquiring a motion vector from a memory and determining whether the entire motion vector conforms to a predetermined camera work model;
When it is determined in the camera work model conformity determination procedure that the camera work model does not conform to the camera work model, a procedure (step 3) of detecting as a moving object up frame is performed.

上記の請求項1では、動きベクトルを算出し、それがカメラワークモデルに則しているかどうかを判定することで、カメラワークモデルに則さない動きをしている動物体が大きく写っているかどうか判定することができる。すなわち、カメラワークモデルを例えば、平行移動モデルとしたとき、動物体の映像上の動きは、その動きモデルに則していないことが多い。特に、動物体が大きく写っている場合は、その物体上に現れる動きは物体の奥行き方向の大きさの影響を受けやすくなり、カメラワークモデルに則さない動きとなる。本発明はこれを動きベクトルのばらつき度合等で検出することで動物体アップフレーム検出を行うことができる。   In claim 1 above, by calculating a motion vector and determining whether or not the motion vector conforms to the camera work model, whether or not the moving object that does not conform to the camera work model is greatly reflected Can be determined. That is, when the camera work model is, for example, a parallel movement model, the movement of the moving object on the video image is often not in accordance with the movement model. In particular, when a moving object is large, the movement that appears on the object is easily affected by the size of the object in the depth direction, and the movement does not conform to the camera work model. The present invention can detect an animal up-frame by detecting this based on the degree of motion vector variation.

また、本発明(請求項2)は、動きベクトル算出手順(ステップ1)の前に、映像記憶手段から読み込まれたフレーム画像のカット点を検出する処理を行い、該カット点が検出されなかった場合には、該動きベクトル算出手順の処理に移行するカット点検出手順を更に行う。   Further, the present invention (Claim 2) performs a process of detecting a cut point of the frame image read from the video storage means before the motion vector calculation procedure (Step 1), and the cut point is not detected. In this case, a cut point detection procedure for shifting to the motion vector calculation procedure is further performed.

上記の請求項2では、カット点においてもカメラワークモデルに則さない動きベクトルが発生し、カット点において動物体アップショットが誤検出されることを解決するため、既存手法によりカット点検出を行い、カット点前後では動物体アップフレームの検出を行わないことで、誤検出を抑え、動物体アップフレームの検出精度を向上させることが可能となる。   In the second aspect of the present invention, in order to solve the problem that a motion vector that does not conform to the camera work model is generated even at the cut point and the up-shot of the moving object is erroneously detected at the cut point, the cut point is detected by an existing method. By not detecting the moving object up frame before and after the cut point, it is possible to suppress erroneous detection and improve the detection accuracy of the moving object up frame.

また、本発明(請求項3)は、カメラワークモデル適合判定手順(ステップ2)において、
メモリから動きベクトルを取得して、カメラワークパラメータを算出してパラメータ記憶手段に格納するカメラワークパラメータ算出手順と、
パラメータ記憶手段からカメラワークパラメータを取得して、該カメラワークパラメータが異常か否かを判定するカメラワークパラメータ異常判定手順と、を行う。
Further, the present invention (Claim 3) is a camera work model conformity determination procedure (Step 2),
A camera work parameter calculation procedure for obtaining a motion vector from a memory, calculating a camera work parameter and storing it in a parameter storage means;
The camera work parameter is determined from the parameter storage means, and a camera work parameter abnormality determination procedure for determining whether the camera work parameter is abnormal is performed.

上記の請求項3では、カメラワークモデルに則するかどうかの判定を、カメラワークモデルを表すカメラワークパラメータを算出し、その異常を判定することでカメラワークモデルに則さないことを判定することにより、動物体アップフレームを検出できる。   According to the third aspect of the present invention, the determination as to whether or not the camera work model conforms is made by calculating the camera work parameter representing the camera work model and determining whether or not the camera work model does not comply with the camera work model. Thus, the moving object up frame can be detected.

本発明(請求項4)は、カメラワークモデル適合判定手順(ステップ2)において、正常であると判定された場合に、
パラメータ記憶手段からカメラワークパラメータを取得し、動きベクトル算出手順において動きベクトルを算出する際に用いたフレーム画像の単位のうち、カメラワークモデルに則さないフレーム画像の単位を、その画像単位の動きと該カメラパラメータとのずれを用いて算出し、その画像単位の数の割合あるいは重み付き和の値に基づいて動物体アップフレームを検出し、該動物体アップフレームの映像時刻をアップフレーム記憶手段に格納する動物体アップフレーム判定手順を行う。
In the present invention (Claim 4), when it is determined to be normal in the camera work model conformity determination procedure (Step 2),
Of the frame image units used when the camera work parameters are acquired from the parameter storage means and the motion vector is calculated in the motion vector calculation procedure, the unit of the frame image that does not conform to the camera work model is the motion of the image unit. And the camera parameter is calculated using the ratio of the number of image units or the weighted sum value to detect the animal up frame, and the video time of the animal up frame is stored in the up frame storage means. The moving body up frame determination procedure is performed.

上記の請求項4では、カメラワークモデルに則しており、上記の手法によりカメラワークパラメータが算出できた場合には、動きベクトルを算出する画像単位の動きを検出し、算出されたカメラワークパラメータとのずれを算出し、そのずれが大きな画像単位の数の割合が大きいか判定することで動物体アップフレームを検出できる。なぜなら、ずれの大きな画像単位は動物体の一部となっている画像単位と考えられるから、その画面に占める割合でアップかどうか検出可能だからである。その画面に占める割合を各画像単位の重みとして付与し、その総和で量ってもよいし、その数で量ってもよい。   According to the fourth aspect of the present invention, in accordance with the camera work model, when the camera work parameter can be calculated by the above method, the motion of the image unit for calculating the motion vector is detected, and the calculated camera work parameter is calculated. The up-frame of the moving object can be detected by calculating whether the ratio of the number of image units having a large deviation is large. This is because an image unit with a large deviation is considered to be an image unit that is a part of a moving object, and it can be detected whether the image unit is up in the proportion of the screen. The proportion of the image on the screen may be given as a weight for each image unit, and may be measured by the sum or by the number.

本発明(請求項5)は、映像が記憶されている映像記憶手段から動物体が比較的大きく写っている映像フレーム画像(動物体アップフレーム画像)を検出する動物体アップフレーム検出プログラムであって、
複数のメモリ、アップフレーム時刻記憶手段及びパラメータ記憶手段を有するコンピュータに、上記の請求項1乃至4記載の動物体アップフレーム検出方法を実現するための処理を実行させるプログラムである。
The present invention (Claim 5) is a moving object up frame detection program for detecting a video frame image (moving body up frame image) in which a moving object is relatively large from a video storage means in which the video is stored. ,
A program for causing a computer having a plurality of memories, up-frame time storage means, and parameter storage means to execute processing for realizing the moving object up-frame detection method according to claim 1.

本発明(請求項6)は、映像が記憶されている映像記憶手段から動物体が比較的大きく写っている映像フレーム画像(動物体アップフレーム画像)を検出する動物体アップフレーム検出プログラムを格納した記憶媒体であって、
複数のメモリ、アップフレーム時刻記憶手段及びパラメータ記憶手段を有するコンピュータに、上記の請求項1乃至4記載の動物体アップフレーム検出方法を実現するための処理を実行させるプログラムを格納した記憶媒体である。
The present invention (Claim 6) stores a moving object up-frame detection program for detecting a video frame image (moving object up-frame image) in which a moving object is relatively large from a video storage means in which the video is stored. A storage medium,
A storage medium storing a program for causing a computer having a plurality of memories, an up-frame time storage unit, and a parameter storage unit to execute processing for realizing the moving-body up-frame detection method according to claim 1. .

本発明(請求項7)は、映像が記憶されている映像記憶手段から動物体がアップで写っている映像区間(動物体アップショット)を検出する動物体アップショット検出装置における、動物体アップショット検出方法において、
請求項1乃至4記載の少なくともいずれか1項記載の動物体アップフレーム検出方法の手順に、さらに、検出された動物体アップフレームを時系列に記憶手段に蓄積し、時間的まとまりを算出する映像区間算出手順を追加する。
The present invention (Claim 7) is a moving object up-shot in a moving object up-shot detection device for detecting a video section (moving object up-shot) in which a moving object is shown up from a video storage means in which video is stored. In the detection method,
5. An image for calculating a temporal unit by further accumulating the detected moving object up frame in the storage means in time series in the procedure of the moving object up frame detecting method according to claim 1. Add section calculation procedure.

上記の請求項7では、検出された動物体アップフレームを映像区間にまとめることにより、動物体が大きく写っている映像区間を作成することができ、ダイジェスト的な映像区間閲覧のためのインデックスを利用者に提供することもできる。   In the above-mentioned claim 7, by collecting the detected moving object up-frames in the video section, it is possible to create a video section in which the moving object is greatly reflected, and use an index for browsing the digest video section. It can also be provided to a person.

本発明(請求項8)は、映像が記憶されている映像記憶手段から動物体がアップで写っているフレーム、あるいは、映像区間(動物体アップショット)を検出する動物体アップフレームあるいは、ショット検出装置における、動物体アップフレームあるいは、ショット検出方法において、
請求項1乃至4記載の少なくともいずれか1項記載の動物体アップフレーム検出方法の手順、または、前記請求項7記載の動物体アップショット検出方法の手順に、動きベクトル算出手順に利用する複数フレーム選択を、その算出される動きを用いて行う映像入力更新手順を追加する。
According to the present invention (Claim 8), a frame in which a moving object is shown up from a video storage means in which a video is stored, or a moving object up-frame or shot detection for detecting a video section (moving object up-shot) In the moving object up frame or shot detection method in the apparatus,
A plurality of frames used for a motion vector calculation procedure in the procedure of the moving object up-frame detection method according to claim 1 or the procedure of the moving object up-shot detection method according to claim 7. A video input update procedure for selecting using the calculated movement is added.

上記の請求項8では、アップフレームを検出する処理フレーム間隔を、動物体の大きさや画像の対応の良さなどの指標を用いて可変にすることで、アップフレーム検出精度の向上及び処理速度の向上が見込める。   According to the eighth aspect of the present invention, the processing frame interval for detecting the up frame is made variable by using an index such as the size of the moving object or the compatibility of the image, thereby improving the up frame detection accuracy and the processing speed. Can be expected.

本発明(請求項9)は、映像が記憶されている映像記憶手段から動物体がアップで写っている映像区間(動物体アップショット)を検出する動物体アップショット検出プログラムであって、
複数のメモリ、アップフレーム時刻記憶手段及びパラメータ記憶手段を有するコンピュータに、請求項7または8記載の動物体アップショット検出方法を実現させるための処理を実行させるプログラムである。
The present invention (Claim 9) is a moving body upshot detection program for detecting a video section (moving body upshot) in which a moving body is captured from video storage means in which video is stored,
A program for causing a computer having a plurality of memories, an up frame time storage unit, and a parameter storage unit to execute a process for realizing the moving object up-shot detection method according to claim 7 or 8.

本発明(請求項10)は、映像が記憶されている映像記憶手段から動物体がアップで写っている映像区間(動物体アップショット)を検出する動物体アップショット検出プログラムを格納した記憶媒体であって、
複数のメモリ、アップフレーム時刻記憶手段及びパラメータ記憶手段を有するコンピュータに、請求項7または8記載の動物体アップショット検出方法を実現させるための処理を実行させるプログラムを格納した記憶媒体である。
The present invention (Claim 10) is a storage medium that stores a moving object upshot detection program for detecting a video section (moving body upshot) in which a moving object is captured from a video storage means in which a video is stored. There,
A storage medium storing a program for causing a computer having a plurality of memories, an up-frame time storage unit, and a parameter storage unit to execute processing for realizing the moving object up-shot detection method according to claim 7 or 8.

上記のように、本発明では、映像中の動いている物体(動物体)が、見る者が注目する重要な物体であると考え、動物体が比較的大きく写っている映像フレーム(動物体アップフレーム画像)の映像時刻(または、映像区間)を自動検出し、当該映像時刻に基づいて映像を取得し、利用者へ一覧提示することを可能にするものである。   As described above, in the present invention, it is considered that a moving object (animal body) in an image is an important object that is viewed by a viewer, and an image frame (animated body up) in which the moving object is relatively large is shown. The video time (or video section) of the frame image) is automatically detected, the video is acquired based on the video time, and a list can be presented to the user.

本発明では、ショット全てを提示するのではなく、動物体アップフレームが検出されたショット(動物体アップショット)に限定し、1ショットに対して1枚程度の動物体アップフレーム画像を提示することで、提示するフレーム画像を減らすことができる。   In the present invention, not all shots are presented, but only shots in which an animal up frame is detected (animal up shot), and about one animal up frame image is presented for each shot. Thus, the number of frame images to be presented can be reduced.

また、カット点のほとんどない映像の場合であっても、検出される動物体アップフレームの時間間隔等により、それらを区間にまとめて、その区間単位で任意の1枚の代表映像を提示することができる。   In addition, even in the case of a video having almost no cut points, it is possible to combine them into sections according to the time interval of the detected animal up frame, etc., and present any one representative video for each section. Can do.

これらにより、前述の問題(a)が解消される。   As a result, the above-mentioned problem (a) is solved.

また、映像に動物体があることを動きにより検出するので、その検出フレーム内に動物体が存在していることが保証される。これにより、前述の問題(b)が解決される。   In addition, since the presence of a moving object in the video is detected by movement, it is guaranteed that the moving object is present in the detection frame. Thereby, the above-mentioned problem (b) is solved.

また、動き情報により物体を特定しない動物体アップフレーム検出を行うことにより、前述の問題(c)が解決される。   Moreover, the above-mentioned problem (c) is solved by performing the moving body up-frame detection which does not specify an object by motion information.

さらに、動き情報を用いて動物体アップフレーム画像を検出することで、動物体の見た目の形状変化や色変化に頑強に動物体アップフレームを検出することができるので、前述の問題(d)が解決される。   Furthermore, since the moving body up-frame image is detected by using the motion information, the moving body up-frame can be detected robustly to the change in the shape and color of the appearance of the moving body. Solved.

本発明によれば、被写体の種類に関わらず、動いている物体が大きく写っている動物体アップフレームの映像時刻を精度よく検出することができる。   According to the present invention, it is possible to accurately detect the video time of a moving object up frame in which a moving object is greatly shown regardless of the type of subject.

また、動物体アップフレームを映像区間としてまとめて、インデックスとして利用することが可能である。つまり、映像概覧提供、及び、映像の飛ばし見る際に利用可能なインデックスの提供が可能になる。   In addition, it is possible to collect moving object up frames as video sections and use them as an index. That is, it is possible to provide a video overview and an index that can be used when skipping video.

他にも特定の物体を比較的計算コストの高い物体検出・認識などの既存技術にて検出・認識を行うための前処理として、本発明の動物体アップフレーム検出を行い、その検出された動物体アップフレームにのみ検出・認識を行うことにより、被写体の特定のための計算時間を削減する利用方法も可能となる。   In addition, as a pre-processing for detecting and recognizing a specific object with existing techniques such as object detection and recognition with relatively high calculation cost, the animal body up-frame detection of the present invention is performed, and the detected animal By detecting and recognizing only the body up frame, it is possible to use a method of reducing the calculation time for specifying the subject.

以下、図面と共に本発明の実施の形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図2は、本発明の一実施の形態における装置構成図である。   FIG. 2 is an apparatus configuration diagram according to an embodiment of the present invention.

同図に示す検出装置は、映像記憶部10、映像入力部20、カット点検出部30、動きベクトル算出部40、カメラワークモデル適合判定部50、映像区間算出部60、パラメータ記憶リスト70、アップフレーム時刻記憶リスト80から構成される。   The detection apparatus shown in FIG. 1 includes a video storage unit 10, a video input unit 20, a cut point detection unit 30, a motion vector calculation unit 40, a camera work model conformity determination unit 50, a video section calculation unit 60, a parameter storage list 70, and an upload. It consists of a frame time storage list 80.

上記の映像記憶部10、パラメータ記憶リスト70、アップフレーム時刻記憶リスト80は、ディスク装置等の記憶媒体に格納されているものとする。   It is assumed that the video storage unit 10, the parameter storage list 70, and the uplink time storage list 80 are stored in a storage medium such as a disk device.

カメラワークモデル適合判定部50は、カメラワークパラメータ算出部51、カメラワークパラメータ異常判定部52、動物体アップフレーム判定部53から構成される。   The camerawork model conformity determination unit 50 includes a camerawork parameter calculation unit 51, a camerawork parameter abnormality determination unit 52, and a moving object upframe determination unit 53.

映像入力部20は、映像記憶部10から映像データを読み出し、指定した時刻のフレーム画像を出力する。オペレータから入力装置(図示せず)を介して時刻情報(映像時刻)が入力されると、その映像時刻に対応するフレーム画像を映像記憶部10から取得することができる。また、映像入力部20は、現在の参照フレーム時刻を次の処理対象フレーム時刻として指定し、次の参照フレームの時刻を指定して、映像記憶部10から映像データを処理対象フレーム画像(1枚)、参照フレーム画像(複数枚可)として読み出す。   The video input unit 20 reads video data from the video storage unit 10 and outputs a frame image at a designated time. When time information (video time) is input from an operator via an input device (not shown), a frame image corresponding to the video time can be acquired from the video storage unit 10. Further, the video input unit 20 designates the current reference frame time as the next processing target frame time, designates the time of the next reference frame, and sends the video data from the video storage unit 10 as a processing target frame image (one frame). ), And read out as a reference frame image (multiple images are possible).

カット点検出部30は、映像入力部20から複数の時刻のフレーム画像とその時刻情報が入力されると、その中に含まれるカット点を検出し、カット点が存在する映像時刻をメモリ(図示せず)に出力する。カット点が存在しない場合は負の時刻を出力するなど、実際に存在しない時刻を出力する。動作の詳細については第2の実施の形態において説明する。   When a frame image at a plurality of times and its time information are input from the video input unit 20, the cut point detection unit 30 detects a cut point included therein and stores the video time at which the cut point exists in the memory (see FIG. (Not shown). When there is no cut point, a time that does not actually exist is output, for example, a negative time is output. Details of the operation will be described in the second embodiment.

動きベクトル算出部40は、映像入力部20から複数の時刻のフレーム画像が入力されると、既定の2つのフレーム画像間の動きベクトルを算出し、カメラワークモデル適合判定部50で利用されるまで当該動きベクトルをメモリに保持する。動作の詳細については第1の実施の形態において説明する。   When a frame image at a plurality of times is input from the video input unit 20, the motion vector calculation unit 40 calculates a motion vector between two predetermined frame images and uses it until the camerawork model conformity determination unit 50 uses it. The motion vector is stored in the memory. Details of the operation will be described in the first embodiment.

カメラワークモデル適合判定部50は、カメラワークパラメータを算出するカメラワークパラメータ算出部51、算出されたカメラワークパラメータが異常かどうかを判定するカメラワークパラメータ異常判定部52、カメラワークパラメータが正常である場合に更に動物体アップフレームかどうかを判定する動物体アップフレーム判定部53を有する。   The camera work model conformity determination unit 50 includes a camera work parameter calculation unit 51 that calculates camera work parameters, a camera work parameter abnormality determination unit 52 that determines whether the calculated camera work parameters are abnormal, and the camera work parameters are normal. In this case, it further includes a moving object up frame determination unit 53 that determines whether the moving object is an up frame.

カメラワークパラメータ算出部51は、動きベクトル算出部40で算出された動きベクトルからカメラワークパラメータを算出し、パラメータ記憶リスト70に格納する。動作の詳細については第1の実施の形態で説明する。   The camera work parameter calculation unit 51 calculates camera work parameters from the motion vectors calculated by the motion vector calculation unit 40 and stores them in the parameter storage list 70. Details of the operation will be described in the first embodiment.

カメラワークパラメータ異常判定部52は、カメラワークパラメータ算出部51で算出されたカメラワークパラメータと、パラメータ記憶部70から算出されているカメラワークパラメータを取得して、所定のカメラワークモデルに則しているかを判定する。動作の詳細については第1の実施の形態で説明する。   The camera work parameter abnormality determination unit 52 acquires the camera work parameter calculated by the camera work parameter calculation unit 51 and the camera work parameter calculated from the parameter storage unit 70, and follows a predetermined camera work model. It is determined whether or not. Details of the operation will be described in the first embodiment.

動物体アップフレーム判定部53は、カメラワークパラメータ異常判定部52においてカメラワークモデルに則していると判定されたカメラワークパラメータについて、動物体アップフレームかどうかを判定し、動物体アップフレームが検出された場合に、その映像時刻等を出力する。動作の詳細については第3の実施の形態で説明する。   The moving object up frame determination unit 53 determines whether the camera work parameter abnormality determination unit 52 determines that the camera work parameter conforms to the camera work model is a moving object up frame, and the moving object up frame is detected. If it is, the video time and the like are output. Details of the operation will be described in a third embodiment.

映像区間算出部60は、動物体アップフレーム判定部53から動物体アップフレームの時刻が入力されると、映像区間にまとめてその区間の始点・終点の時刻を出力する。当該映像区間算出部60の出力は、算出された動物体アップフレーム時刻や区間である。   When the up-frame time of the moving object is input from the moving object up frame determination unit 53, the video section calculation unit 60 outputs the time of the start point and end point of the section together in the video section. The output of the video section calculation unit 60 is the calculated moving object up frame time and section.

以下に、上記の構成における種々の動作を説明する。   Hereinafter, various operations in the above configuration will be described.

[第1の実施の形態]
図3は、本発明の第1の実施の形態における動作のフローチャートである。
[First Embodiment]
FIG. 3 is a flowchart of the operation in the first embodiment of the present invention.

ステップ101) 初期フレーム入力手順:
本ステップは、映像入力部20において実行される手順であり、映像記憶部10に記憶されている処理対象の画像から当該映像から処理開始位置のフレーム画像(処理対象フレーム画像)と、その後の、動きを参照するためのフレーム画像(参照フレーム画像)とを読み込む。このとき、フレーム画像は時系列順に読み込むものとする。処理対象フレーム画像の初期位置は、映像初期フレームなど任意に決定可能である。また、参照フレーム画像の選び方は処理対象フレームから一定フレーム後のフレーム画像などとする。
Step 101) Initial frame input procedure:
This step is a procedure executed in the video input unit 20, from a processing target image stored in the video storage unit 10 to a frame image (processing target frame image) at a processing start position from the video, A frame image (reference frame image) for referring to motion is read. At this time, the frame images are read in chronological order. The initial position of the processing target frame image can be arbitrarily determined such as a video initial frame. The reference frame image is selected as a frame image after a certain frame from the processing target frame.

ステップ102) 動きベクトル算出手順:
本ステップは、動きベクトル算出部40において実行される手順であり、初期フレーム入力手順あるいは、後述する映像入力更新手順において、入力または更新された処理対象フレーム画像と参照フレーム画像を入力し、画像の局所的非類似度を用いて、その間の動きベクトルを算出してメモリに出力する。動きベクトルの参照方法としては、既存技術のブロックマッチングや、「Jianbo Shi, et al, “Good Features to Track”,IEEE CVPR94, pp.593-600, 1994」(以下、文献1と記す)に記載されている特徴点追跡技術など種々の技術を利用することができる。
Step 102) Motion vector calculation procedure:
This step is a procedure executed in the motion vector calculation unit 40. In the initial frame input procedure or the video input update procedure described later, the processing target frame image and the reference frame image input or updated are input, and the image Using the local dissimilarity, a motion vector between them is calculated and output to the memory. The motion vector reference method is described in block matching of existing technology or “Jianbo Shi, et al,“ Good Features to Track ”, IEEE CVPR94, pp.593-600, 1994” (hereinafter referred to as Reference 1). Various techniques such as a feature point tracking technique can be used.

1つの動きベクトルを算出する画像の単位を、以下では単に画像単位と略記する。例えば、ブロックマッチングでの画像単位は画像ブロックを指し、また、特徴点追跡における画像単位は特徴点である。ここでは、例として上記の文献1に記載されている特徴点追跡技術を用いた動きベクトル算出手順を利用するものとする。   An image unit for calculating one motion vector is simply abbreviated as an image unit below. For example, an image unit in block matching indicates an image block, and an image unit in feature point tracking is a feature point. Here, as an example, it is assumed that a motion vector calculation procedure using the feature point tracking technique described in Document 1 above is used.

また、各動きベクトル算出技術において、画像単位同士の非類似度が一定以上である場合には、消失した画像単位として動きベクトルを算出しない。   Also, in each motion vector calculation technique, when the degree of dissimilarity between image units is greater than or equal to a certain level, no motion vector is calculated as a lost image unit.

ステップ103) カメラワークモデル適合判定手順:
当該カメラワークモデル適合判定手順は、カメラワークモデル適合判定部50において、ステップ102で算出され、メモリに格納されている動きベクトルを取得して、動きベクトルが所定のカメラワークモデルに則しているかを判定する手順である。例えば、カメラワークモデルを平行移動と定義したときは、ステップ102で算出された動きベクトルの分散値が大きな時をカメラワークに則さない場合であると判定することができる。
Step 103) Camerawork model conformity determination procedure:
In the camera work model conformity determination procedure, the camera work model conformity determination unit 50 obtains the motion vector calculated in step 102 and stored in the memory, and whether the motion vector conforms to a predetermined camera work model. This is a procedure for determining. For example, when the camera work model is defined as parallel movement, it can be determined that the time when the variance value of the motion vector calculated in step 102 is large does not conform to the camera work.

また、カメラワークモデルを2次元射影変換モデルなどとし、動きベクトルを用いてカメラワークパラメータを算出し、その値が異常な値かどうかで、カメラワークモデルに則しているかどうかを判定することもできる。   Also, the camerawork model may be a two-dimensional projective transformation model, etc., and camerawork parameters are calculated using motion vectors, and whether the values are abnormal values or not is determined according to the camerawork model. it can.

ここでは、例として後者の例を採用して詳細に説明する。   Here, the latter example is adopted as an example and described in detail.

以下、動きベクトルからカメラワークパラメータを算出するカメラワークパラメータ算出手順と、算出されたカメラワークパラメータからその値の異常を検出するカメラワークパラメータ異常判定手順とを順に説明する。   Hereinafter, a camera work parameter calculation procedure for calculating a camera work parameter from a motion vector and a camera work parameter abnormality determination procedure for detecting an abnormality of the value from the calculated camera work parameter will be described in order.

ステップ103−1)カメラワークパラメータ算出手順は、カメラワークパラメータ算出部51において実行される手順であり、ステップ102の動きベクトル算出手順において算出された動きベクトルを入力し、カメラワークモデルに当てはめてカメラワークパラメータを算出し、出力する。ここで用いるカメラワークモデルの例として式(1)のようなモデルを利用する。2次元射影変換行列などカメラワークモデルとして利用できるほかの行列を用いても勿論よい。このモデルにおけるカメラワークパラメータは(a1,a2,a3,a4)の4つの値のセット(パラメータセット)である。カメラワークパラメータ算出の手法は、文献1に記載の手法が利用可能である。例えば、動き算出にブロックマッチングを用いた場合は、画像単位である画像ブロックの中心座標を特徴と見なすことで、特徴点追跡におけるカメラワークパラメータ算出を利用することができる。すなわち、算出された動きベクトルとその代表点座標を足し合わせて対応点を算出することで点対応を算出すれば、後は、特徴点追跡による手法である「譲田他、「移動ビデオカメラ画像からの運動物体の抽出」、情報処理学会、研究報告、2004-CVIM-143 Mar. 2004」(以下、文献2と記す)の2フレーム間の軌跡を利用した手法により、特徴点をモデルに当てはまる点(背景点)とそれ以外の点に分類し、背景点の動きを利用することで、式(1)のカメラワークパラメータの算出を実行できる。また、他の方法として特徴点の軌跡を用いて式(1)の方程式を解く任意の手法で各カメラワークパラメータを算出することが可能である。   Step 103-1) The camera work parameter calculation procedure is a procedure executed in the camera work parameter calculation unit 51. The motion vector calculated in the motion vector calculation procedure in step 102 is input and applied to the camera work model. Calculate and output work parameters. As an example of the camera work model used here, a model such as Expression (1) is used. Of course, other matrices that can be used as a camera work model such as a two-dimensional projective transformation matrix may be used. The camera work parameters in this model are a set of four values (parameter set) of (a1, a2, a3, a4). As a camera work parameter calculation method, the method described in Document 1 can be used. For example, when block matching is used for motion calculation, camera work parameter calculation in feature point tracking can be used by regarding the center coordinates of an image block that is an image unit as a feature. In other words, if the point correspondence is calculated by adding the calculated motion vector and the representative point coordinates to calculate the corresponding point, then the feature point tracking technique “Jeda et al.” Feature points are applied to the model by the method using the trajectory between two frames of "Extraction of moving object from", Information Processing Society of Japan, Research Report, 2004-CVIM-143 Mar. 2004 (hereinafter referred to as Reference 2). By classifying the points into points (background points) and other points and using the movement of the background points, the camera work parameters in Expression (1) can be calculated. Further, as another method, it is possible to calculate each camera work parameter by any method for solving the equation (1) using the trajectory of the feature point.

Figure 2006244074
(但し、x,yの原点は画像中心座標とする。)
ステップ103−2) カメラワークパラメータ異常判定手順:
カメラワークパラメータ異常判定手順は、カメラワークパラメータ異常判定部53において実行される手順であり、上記で算出されたカメラワークパラメータを入力してその値を検証し、そのカメラワークパラメータが異常かどうかを判定することでカメラワークモデルに則している動きベクトルであるかどうかを判定する手順である。ここで、カメラワークモデルに則していないと判定される場合は、以下の2つの場合である。
Figure 2006244074
(However, the origin of x and y is the image center coordinates.)
Step 103-2) Camerawork parameter abnormality determination procedure:
The camera work parameter abnormality determination procedure is a procedure executed by the camera work parameter abnormality determination unit 53. The camera work parameter abnormality determination unit 53 inputs the camera work parameter calculated above, verifies the value, and determines whether the camera work parameter is abnormal. This is a procedure for determining whether or not a motion vector conforms to the camera work model. Here, the case where it is determined that the camera work model is not followed is the following two cases.

(1)上記カメラワークパラメータ算出手順において、カメラワークパラメータが算出できなかった場合。   (1) The camera work parameter cannot be calculated in the above camera work parameter calculation procedure.

この場合は、算出されている動きベクトルの全てがカメラワークモデルに則していなかったと判定でき、画像全体としてカメラワークモデルに則していないといえる。   In this case, it can be determined that all of the calculated motion vectors do not conform to the camera work model, and the entire image does not conform to the camera work model.

(2)算出されたパラメータセットの時間変化量が閾値以上の場合。   (2) When the time change amount of the calculated parameter set is equal to or greater than a threshold value.

つまり、一つ前で算出されパラメータ記憶リスト70に格納されているパラメータセットと現算出のパラメータセットとの各成分の差分絶対値のいずれかが閾値以上の場合である。ここで用いる閾値はパラメータの各成分それぞれに対して設定する。但し、一つ前のカメラワークパラメータが算出されておらず、パラメータ記憶リスト70に格納されていない場合は、現算出のパラメータセットの各成分の値がそれぞれ一定範囲にあるかどうかを判定し、どれか一つでも外れている場合は、カメラワークモデルに則していないと判定する。この場合では、算出されたカメラワークパラメータの値が異常であることを検知して、カメラワークモデルに則さないことを検出している。   In other words, this is a case where any one of the absolute difference values of each component between the parameter set calculated immediately before and stored in the parameter storage list 70 is equal to or greater than the threshold value. The threshold value used here is set for each parameter component. However, if the previous camera work parameter has not been calculated and is not stored in the parameter storage list 70, it is determined whether the value of each component of the currently calculated parameter set is within a certain range, If any one is off, it is determined that the camerawork model is not followed. In this case, it is detected that the value of the calculated camera work parameter is abnormal, and it is detected that it does not conform to the camera work model.

ステップ104) カメラワークパラメータ異常判定部52において、カメラワークモデルに則さないと判定された場合には、ステップ105に移行し、そうでない場合には、ステップ106に移行する。   Step 104) If the camera work parameter abnormality determination unit 52 determines that the camera work model does not conform to the camera work model, the process proceeds to step 105. If not, the process proceeds to step 106.

ステップ105) カメラワークモデルに則さないと判断された場合であり、現処理対象フレームの映像時刻をアップフレーム時刻記憶リスト80に記憶し、あるいは、現処理対象フレーム(あるいは参照フレーム)の映像時刻を出力して映像終了条件へ移行する。   Step 105) When it is determined that the camera work model is not followed, the video time of the current process target frame is stored in the up frame time storage list 80, or the video time of the current process target frame (or reference frame). Is output to shift to the video end condition.

ステップ106) 映像終了条件を判定する際に、次に読み込む参照フレーム時刻が最終フレームの時刻を越えているかどうか判定し、越えている場合は処理を終了し、越えていない場合は映像入力更新手順(ステップ107)に移行する。終了の際の出力は、動物体のアップフレームの映像時刻の数列である。次の参照フレーム画像の選択方法は、初期フレーム入力手順(ステップ101)と同じく、処理対象フレームから一定間隔おいたフレーム画像などとする。   Step 106) When determining the video end condition, it is determined whether the reference frame time to be read next exceeds the time of the last frame. If it exceeds, the process is terminated, and if not, the video input update procedure is performed. The process proceeds to (Step 107). The output at the end is a sequence of video times of the up frame of the moving object. The next reference frame image selection method is a frame image that is spaced from the processing target frame by the same manner as in the initial frame input procedure (step 101).

ステップ107) 映像入力更新手順:
当該映像入力更新手順は、映像入力部20によって行われる手順であり、現在の参照フレーム時刻を次の処理対象フレーム時刻として指定し、また次の参照フレームの時刻を映像入力部20へ出力し、それぞれの画像を入力することで、処理対象フレーム画像及び参照フレーム画像を更新する。
Step 107) Video input update procedure:
The video input update procedure is a procedure performed by the video input unit 20, specifies the current reference frame time as the next processing target frame time, outputs the time of the next reference frame to the video input unit 20, By inputting each image, the processing target frame image and the reference frame image are updated.

[第2の実施の形態]
図4は、本発明の第2の実施の形態における動作のフローチャートである。
[Second Embodiment]
FIG. 4 is a flowchart of the operation in the second embodiment of the present invention.

同図において、前述の図3の処理と同一部分については同一のステップ番号を付し、その説明を省略する。   In the figure, the same parts as those in the process of FIG. 3 described above are denoted by the same step numbers and the description thereof is omitted.

本実施の形態では、前述の第1の実施の形態の処理に、カット点検出手順とその判定による場合分けの手順を追加したものであり、その他の処理は、第1の実施の形態と同様の処理手順である。   In the present embodiment, a cut point detection procedure and a case classification procedure based on the determination are added to the processing of the first embodiment described above, and other processing is the same as that of the first embodiment. It is a processing procedure.

ステップ201) カット点検出手順:
当該カット点検出手順は、カット点検出部30において実行される手順であり、既存のカット点検出技術を用いて処理対象フレームと参照フレームの間のカット点(編集やカメラのオン・オフによる映像の不連続点)の有無を検出し、その真偽値をメモリ等の記憶手段に出力する。
Step 201) Cut point detection procedure:
The cut point detection procedure is a procedure executed in the cut point detection unit 30, and uses the existing cut point detection technique to cut the cut point between the processing target frame and the reference frame (video by editing or camera on / off). The discontinuity point) is detected, and the true / false value is output to storage means such as a memory.

カット点検出技術としては、「谷口、外村、浜田「映像ショット切換え検出方法とその映像アクセスインタフェースへの応用」電子情報通信学会論文誌、D-II Vol.J79-D-II No.4. pp.538-546 Apr. 1996」の技術など種々の技術が利用可能である。   Cut point detection technologies include `` Taniguchi, Tonomura, Hamada `` Video shot switching detection method and its application to video access interface '', IEICE Transactions, D-II Vol.J79-D-II No.4. Various technologies such as “pp.538-546 Apr. 1996” can be used.

また、カット時刻の検出の他の例として、事前にカット点検出処理を映像全体(あるいは映像の一部)について行い、カット点の時刻を算出してメモリ(図示せず)に格納しておき、入力することがあげられる。これは、カット検出が原理的にこのループに組み込むことが不可能な場合(前述の文献1)、事前に人手で入力したカット点情報などが利用可能なときに行うことができる。この場合、処理対象フレームの時刻と参照フレームの時刻の間にカット時刻が存在する場合をカットがあるものと判定する。   As another example of the detection of the cut time, the cut point detection process is performed on the entire video (or a part of the video) in advance, and the time of the cut point is calculated and stored in a memory (not shown). , Input. This can be performed when cut detection in principle cannot be incorporated into this loop (the above-mentioned document 1) and cut point information input in advance by hand is available. In this case, when there is a cut time between the time of the processing target frame and the time of the reference frame, it is determined that there is a cut.

なお、カット点検出技術が映像クロスフェードなどの時間的なエフェクトのかかったカットを区間(カット区間)として検出可能なときや、カット点検出の精度にある程度誤差が見込まれる時は、上記の「カット時刻が処理対象フレーム時刻と参照フレーム時刻の間に存在する」、という条件を、処理対象フレーム時刻と参照フレーム時刻との間の区間とカット区間と、あるいは誤差幅とに重なりが存在するという、条件に変更して同様の条件処理を行う。   In addition, when the cut point detection technology can detect a cut with a time effect such as a video crossfade as a section (cut section), or when an error is expected to some extent in the accuracy of the cut point detection, the above “ The condition that “the cut time exists between the processing target frame time and the reference frame time” means that there is an overlap in the section between the processing target frame time and the reference frame time and the cut section, or the error width. The condition processing is changed to the same condition.

ステップ202) カット点があると判定された場合は、ステップ106に移行し、終了条件を判定し、それ以外はステップ102の動きベクトル算出手順に移行する。   Step 202) If it is determined that there is a cut point, the process proceeds to Step 106, the end condition is determined, and otherwise, the process proceeds to the motion vector calculation procedure in Step 102.

[第3の実施の形態]
図5は、本発明の第3の実施の形態における動作のフローチャートである。同図において、図3、図4と同一処理について同一のステップ番号を付し、その説明は省略する。
[Third Embodiment]
FIG. 5 is a flowchart of the operation in the third embodiment of the present invention. In this figure, the same steps as those in FIGS. 3 and 4 are denoted by the same step numbers, and description thereof is omitted.

同図に示す動作は、第2の実施の形態のカメラワークパラメータ異常判定手順の後に、動物体アップフレーム判定手順を加え、その後の分岐条件を動物体アップフレームの検出有無に変更したものである。以下では、変更された処理手順についてのみ説明する。   The operation shown in the figure is obtained by adding a moving object up frame determination procedure after the camera work parameter abnormality determination procedure of the second embodiment, and changing the subsequent branch condition to whether or not a moving object up frame is detected. . Only the changed processing procedure will be described below.

ステップ103−3) 動物体アップフレーム判定手順:
当該動物体アップフレーム判定手順は、動物体アップフレーム判定部53において実行される手順である。カメラワークパラメータ異常判定部52における判定結果を入力し、その入力がパラメータ値の異常を示している場合は、動物体アップフレームが検出されたと出力し、条件判定手順に移行する。入力が正常判定の場合には、動物体アップフレーム判定部53において以下の判定を行う。
Step 103-3) Moving object up frame determination procedure:
The moving object up frame determination procedure is a procedure executed in the moving object up frame determination unit 53. When the determination result in the camera work parameter abnormality determination unit 52 is input and the input indicates an abnormality in the parameter value, it is output that the moving object up frame is detected, and the process proceeds to the condition determination procedure. When the input is normal determination, the moving object up frame determination unit 53 performs the following determination.

算出された動きベクトルと、パラメータセットから算出できる動きベクトルとの差が大きな画像単位(ブロックあるいは特徴点など)数が全体に占める割合が閾値以上であるかどうかを判定する。以下に詳細に説明する。   It is determined whether or not the ratio of the number of image units (blocks or feature points) having a large difference between the calculated motion vector and the motion vector that can be calculated from the parameter set is equal to or greater than a threshold value. This will be described in detail below.

パラメータセットから算出される動きベクトル(u,v)は、式(1)のカメラワークモデルを用いている場合には式(2)のように算出することができる。 Motion is calculated from the parameter set vectors (u p, v p) it is, in the case of using the camera work model of Equation (1) can be calculated by the equation (2).

Figure 2006244074
但し、式(2)内の(x,y)は、動きベクトルの算出単位(画像単位)の座標である。この座標は、例えばブロックマッチングの場合は画像ブロックの中心座標、また、特徴点追跡の場合は特徴点の座標である。
Figure 2006244074
However, (x, y) in the equation (2) is a coordinate of a motion vector calculation unit (image unit). This coordinate is, for example, the center coordinate of the image block in the case of block matching, or the coordinate of the feature point in the case of feature point tracking.

上記の動きベクトル算出手順(ステップ102)にて算出された動きベクトル(u,v)との差のベクトルを算出し、そのベクトル長の二乗値が一定値以上である座標数を計算し、その座標数を全体の座標数で割った値が閾値以上の場合に動物体アップフレームが検出されたとする。それ以外の場合には、動物体アップフレーム未検出と判定する。 Calculating a vector difference between the motion vector calculation procedure motion vector calculated at (step 102) (u p, v p ), calculates the number of coordinates is the square value of the vector length is more than a predetermined value It is assumed that the moving object up frame is detected when the value obtained by dividing the number of coordinates by the total number of coordinates is equal to or greater than the threshold value. In other cases, it is determined that the moving object up frame is not detected.

また、他の検出方法として、動きの検出に特徴点を用いている場合、上記同様、各特徴点の動きベクトルとパラメータセットから算出される動きベクトルの差が大きな特徴点と小さなものとに分け、差が大きな特徴点各々について、例えば、そこから最も近くに存在する他の特徴点までの距離をその特徴点の重みとし、その総和を閾値処理することでアップ検出を行う方法がある。これは、各特徴点が担う領域の大きさを考慮したものである。   As another detection method, when feature points are used for motion detection, as described above, the difference between the motion vector of each feature point and the motion vector calculated from the parameter set is divided into a feature point and a small feature point. For each feature point having a large difference, for example, there is a method of performing up-detection by using a distance to another feature point closest to the feature point as a weight of the feature point and performing threshold processing on the sum of the feature points. This takes into account the size of the area that each feature point bears.

なお、動きベクトル算出方法として特徴点追跡手法を用いた場合は、特徴点追跡により算出された対応点の座標値と、式(1)から求まる代表点のカメラワークによる移動先座標との間のベクトルの長さを用いても同様の処理を行うことができる。   When the feature point tracking method is used as the motion vector calculation method, the coordinates between the coordinate values of the corresponding points calculated by the feature point tracking and the movement destination coordinates by the camera work of the representative points obtained from Expression (1). Similar processing can be performed using the vector length.

この条件は、カメラワークモデルに則さない場合への追加条件であり、カメラワークが正常に判定された場合に、画像内で大きな物体が存在しているかどうかを判定するための条件である。   This condition is an additional condition for not complying with the camera work model, and is a condition for determining whether a large object exists in the image when the camera work is normally determined.

ステップ301) 動物体アップフレームが検出された場合は、ステップ105に移行して映像時刻をアップフレーム時刻記憶リスト80に記憶し、検出されなかった場合はステップ106に移行して、そのまま映像終了条件の判定を行う。   Step 301) When the moving object up frame is detected, the process goes to Step 105, where the video time is stored in the up frame time storage list 80. When it is not detected, the process goes to Step 106, and the video end condition is continued. Judgment is made.

[第4の実施の形態]
図6は、本発明の第4の実施の形態における動作のフローチャートである。同図において、図3、図4、図5と同一処理について同一のステップ番号を付し、その説明は省略する。
[Fourth Embodiment]
FIG. 6 is a flowchart of the operation in the fourth embodiment of the present invention. In this figure, the same steps as those in FIGS. 3, 4, and 5 are denoted by the same step numbers, and description thereof is omitted.

同図に示す動作は、第3の実施の形態における動作に映像区間算出手順を付加した処理手順であり、カット点がある場合、動物体アップフレームの映像時刻を記憶したそれぞれ後の処理が映像区間算出手順となる。ここでは、追加された映像区間算出手順のみについて説明する。   The operation shown in the figure is a processing procedure in which a video section calculation procedure is added to the operation in the third embodiment, and when there is a cut point, each subsequent process storing the video time of the moving object up frame is a video. This is the section calculation procedure. Here, only the added video section calculation procedure will be described.

ステップ401) 映像区間算出手順:
当該映像区間算出手順は、映像区間差出部60において行われる手順であり、アップフレーム時刻記憶リスト80に記憶されている検出された動物体アップフレームの時刻を映像区間としてまとめるための処理である。この処理方法としては以下の2つの例を挙げる。
Step 401) Video section calculation procedure:
The video section calculation procedure is a procedure performed in the video section sending unit 60, and is a process for collecting the detected moving object up-frame times stored in the up-frame time storage list 80 as a video section. The following two examples are given as this processing method.

(1)ステップ202の「カットあり」から分岐した際に、アップフレーム記憶リスト80に記憶されている動物体アップフレーム時刻の最小値と最大値との組を一つの映像区間として出力し、個々の動物体アップフレーム時刻をアップフレーム時刻記憶リスト80から消去する。   (1) When branching from “with cut” in step 202, a set of minimum and maximum values of moving object up-frame times stored in the up-frame storage list 80 is output as one video section. Are deleted from the up frame time storage list 80.

こうすることで各カットにおいて動物体アップフレーム時刻を映像区間にまとめて出力することができる。   By doing so, it is possible to collectively output the moving object up frame time in the video section in each cut.

(2) アップフレーム時刻記憶リスト80へ映像時刻を記憶する際に、始点と終点が同じ映像区間として記憶することにする。前回アップフレーム時刻記憶リスト80に記憶された映像区間がある場合はそれを参照し、その終端との時間差が閾値以内の場合に、その映像区間の終端を現在記憶された映像時刻に更新する。閾値以上の場合は一つの映像時刻を始点と終点が同時刻の映像区間として記憶する。また、ステップ202の「カットあり」から分岐してこの処理手順に到達した場合(ステップ202、Yes)は、現在アップフレーム時刻記憶リスト80に記憶されている映像区間を出力し、当該アップフレーム時刻記憶リスト80から消去する。また、前記時間差の閾値処理をフレーム画像の類似度の閾値処理としてもよい。ある一定以上の類似度の場合、上記の終端更新を行うとする。   (2) When the video time is stored in the upframe time storage list 80, the start point and the end point are stored as the same video section. If there is a video section stored in the previous up-frame time storage list 80, it is referred to, and if the time difference from the end is within a threshold, the end of the video section is updated to the currently stored video time. If it is greater than or equal to the threshold, one video time is stored as a video section having the same start and end points. Further, when the processing procedure is reached after branching from “with cut” in step 202 (step 202, Yes), the video section currently stored in the upframe time storage list 80 is output, and the upframe time Erase from storage list 80. The time difference threshold processing may be frame image similarity threshold processing. In the case of a certain degree of similarity or more, it is assumed that the above-described terminal update is performed.

こうすることで一定範囲内かつ、同一カット内の映像区間として動物体がアップで写っている区間を検出することができる。   By doing so, it is possible to detect a section in which the moving object is captured as a video section within a certain range and within the same cut.

上記のようにして算出された動物体がアップで写っている映像区間を動物体アップショットと表す。カット点検出手順(ステップ201)においてカットが検出されたときに、動物体アップショットが新たに検出されたかどうか調べ、検出されている場合は、その映像区間で一枚のフレーム画像を任意に選び、その映像区間の時刻を出力する。   The video section in which the moving object calculated as described above is shown as an up shot is represented as a moving object up shot. When a cut is detected in the cut point detection procedure (step 201), it is checked whether or not a moving object upshot is newly detected. If it is detected, one frame image is arbitrarily selected in the video section. The time of the video section is output.

[第5の実施の形態]
図7は、本発明の第5の実施の形態における動作のフローチャートである。
[Fifth Embodiment]
FIG. 7 is a flowchart of the operation in the fifth embodiment of the present invention.

同図では、動物体アップ検出の方法を示しており、図6との違いは、初期フレーム入力手順、カット点検出手順、動きベクトル算出手順、及び映像入力更新手順である。   This figure shows a method for detecting the moving object up, and the differences from FIG. 6 are the initial frame input procedure, cut point detection procedure, motion vector calculation procedure, and video input update procedure.

それぞれ複数のフレーム間に対応する処理に変更されている。   Each is changed to a process corresponding to a plurality of frames.

ステップ501) 初期複数フレーム入力手順:
当該初期複数フレーム入力手順では、映像入力部20が、参照フレームを所定のフレーム間隔で一定の枚数(F枚)を取得する。
Step 501) Initial multiple frame input procedure:
In the initial multiple frame input procedure, the video input unit 20 acquires a fixed number (F) of reference frames at a predetermined frame interval.

ステップ502) 複数フレーム間カット点検出手順:
当該複数フレーム間カット点検出手順では、カット点検出部30において、複数の参照フレーム各々に対して、処理対象フレーム画像との間にカット点があるかどうかを前述と同様の方法で判定する。その判定の結果、F枚の参照フレーム画像の中にf番目(f:F以下の自然数の定数)の参照フレームで初めてカット点が検出された場合に、そのフレームを選択された参照フレームとして次の処理対象フレームとなるようにセットして、カットが検出されたと判定する方法がある。また、次処理する参照フレームとのフレーム間隔を初期の入力手段における間隔にリセットする。
Step 502) Procedure for detecting cut points between multiple frames:
In the inter-frame cut point detection procedure, the cut point detection unit 30 determines whether or not there is a cut point between each of the plurality of reference frames and the processing target frame image by the same method as described above. A result of the determination, f a th in F reference frames picture: When the first cut point is detected in the reference frame (f a F or less constant natural number), the selected reference frame to the frame There is a method of determining that a cut has been detected by setting the frame to be the next processing target frame. Also, the frame interval with the reference frame to be processed next is reset to the interval in the initial input means.

ステップ503) カット点がある場合にはステップ401に移行し、ない場合にはステップ504に移行する。   Step 503) When there is a cut point, the routine proceeds to step 401, and when there is no cut point, the routine proceeds to step 504.

ステップ504) 複数フレーム間動きベクトル算出手順:
当該複数フレーム間動きベクトル算出手順では、動きベクトル算出部40において、一つの処理フレームに対し、複数の参照フレームそれぞれについて2フレーム間の動きベクトル算出を行い、算出結果を用いて参照フレームを決定する。2フレーム間の動きベクトル算出手順は動きベクトル算出手順(ステップ102)と同様である。これをF枚の参照フレームに対して行うと、動きベクトルはF枚分算出される。これらF枚の動きベクトルを利用してそのうちの1枚のフレーム画像を選択し、採用する参照フレーム画像とする。選択方法は、例えば、動きの算出の際の非類似度が高い、あるいは、他の方法で算出不可能な画像単位(例えば、消失した特徴点)の数が最小(あるいは一定値以下)となっている参照フレームのうち、フレーム間隔が最大のフレーム画像とする方法などが例として考えられる。ここで採用されたフレーム間隔をfselとして映像入力部20へ出力し、映像入力複数フレーム更新手順(ステップ505)で利用する。
Step 504) Multi-frame motion vector calculation procedure:
In the inter-frame motion vector calculation procedure, the motion vector calculation unit 40 calculates a motion vector between two frames for each of a plurality of reference frames for one processing frame, and determines a reference frame using the calculation result. . The motion vector calculation procedure between two frames is the same as the motion vector calculation procedure (step 102). When this is performed for F reference frames, F motion vectors are calculated. Using these F motion vectors, one of the frame images is selected as a reference frame image to be adopted. In the selection method, for example, the number of image units (for example, lost feature points) that have a high degree of dissimilarity when calculating motion or cannot be calculated by other methods is minimized (or less than a certain value). For example, a method of setting a frame image having a maximum frame interval among the reference frames is considered. The frame interval adopted here is output to the video input unit 20 as f sel and used in the video input multiple frame update procedure (step 505).

ステップ505) 映像入力複数フレーム更新手順:
当該映像入力複数フレーム更新手順では、上記で算出された参照フレームを次回の処理フレームにセットする。また、フレーム間隔fselを用いて映像記憶部10から次回の参照フレームを最大F枚読み込む。
Step 505) Video input multiple frame update procedure:
In the video input multiple frame update procedure, the reference frame calculated above is set as the next processing frame. Further, a maximum of F next reference frames are read from the video storage unit 10 using the frame interval f sel .

参照フレームの決定方法は、例えば、処理対象フレームと参照フレームとのフレーム間隔の最大値をFMax(>F)としたときに、0<f<fselの範囲において等間隔にmin{(fsel−1)/2,F/2}枚(小数点以下切捨て)、fsel≦f≦FMaxの範囲において等間隔にmin{(FMax−fsel+1)/2,F/2}枚(小数点以下切捨て)、それぞれ参照フレームを選択し、読み込むとする。例えば、FMax=10,fsel=9,F=4のときは選択される参照フレームの間隔は、3(8×1/3),5(8×2/3),10((9+10)/2であり(以上は四捨五入)、またFMax=10、fsel=7、F=2のときは選択される参照フレームの間隔は3(6/2),9(7+10)/2)である。また、このフレーム間隔の更新方法に限らず、任意の算術演算を用いて複数の参照フレームの選択を行ってもよい。 For example, when the maximum value of the frame interval between the processing target frame and the reference frame is set to F Max (> F), the reference frame is determined at equal intervals in the range of 0 <f <f sel {(f sel −1) / 2, F / 2} (truncated after the decimal point), min {(F Max −f sel +1) / 2, F / 2} at equal intervals in the range of f sel ≦ f ≦ F Max ( It is assumed that each reference frame is selected and read. For example, when F Max = 10, f sel = 9, and F = 4, the selected reference frame intervals are 3 (8 × 1/3), 5 (8 × 2/3), 10 ((9 + 10) / 2 (rounded up), and when F Max = 10, f sel = 7, and F = 2, the selected reference frame interval is 3 (6/2), 9 (7 + 10) / 2) is there. In addition to the frame interval update method, a plurality of reference frames may be selected using an arbitrary arithmetic operation.

上記のようにフレーム間隔を変化させることで、動きの大きな映像区間ではフレーム間隔を狭くしてカメラパラメータの誤算出を抑えることができる。また、動きの少ない映像区間では、フレーム間隔を大きくすることにより全体の処理速度の向上につながる。   By changing the frame interval as described above, it is possible to reduce the frame interval in a video section with a large motion and suppress erroneous calculation of camera parameters. Also, in a video section with little motion, the overall processing speed is improved by increasing the frame interval.

また、動きの少ない映像区間でフレーム間隔を広げることで、広い時間間隔での動物体の動きを用いて動物体アップフレームの検出を行うことができる。すなわち、動きが少ない場合でも動物体アップフレームを検出することが可能になる。   Further, by expanding the frame interval in a video section with little movement, it is possible to detect the moving object up frame using the movement of the moving object at a wide time interval. That is, it is possible to detect the moving object up frame even when there is little movement.

上記の図3〜図7に示すフローチャートの動作をプログラムとして構築し、動物体アップフレーム検出装置、動物体アップショット検出装置として利用されるコンピュータにインストールして実行させる、または、ネットワークを介して流通させることも可能である。   The operations of the flowcharts shown in FIG. 3 to FIG. 7 are constructed as a program, installed in a computer used as an animal up-frame detection apparatus and an animal up-shot detection apparatus, executed, or distributed via a network. It is also possible to make it.

また、構築されたプログラムを動物体アップフレーム検出装置、動物体アップショット検出装置として利用されるコンピュータに接続されるハードディスクや、フレキシブルディスク、CD−ROM等の可搬記憶媒体に格納しておき、コンピュータにインストールして実行する、または、配布することが可能である。   Further, the constructed program is stored in a portable storage medium such as a hard disk connected to a computer used as a moving object up-frame detection device or a moving object up-shot detection device, a flexible disk, a CD-ROM, It can be installed and run on a computer or distributed.

なお、本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において種々変更・応用が可能である。   The present invention is not limited to the above-described embodiment, and various modifications and applications can be made within the scope of the claims.

本発明は、映像構造化技術における映像の代表画像を生成するための技術に適用可能である。   The present invention is applicable to a technique for generating a representative image of a video in the video structuring technique.

本発明の原理を説明するための図である。It is a figure for demonstrating the principle of this invention. 本発明の一実施の形態における装置構成図である。It is an apparatus block diagram in one embodiment of this invention. 本発明の第1の実施の形態における動作のフローチャートである。It is a flowchart of the operation | movement in the 1st Embodiment of this invention. 本発明の第2の実施の形態における動作のフローチャートである。It is a flowchart of the operation | movement in the 2nd Embodiment of this invention. 本発明の第3の実施の形態における動作のフローチャートである。It is a flowchart of the operation | movement in the 3rd Embodiment of this invention. 本発明の第4の実施の形態における動作のフローチャートである。It is a flowchart of the operation | movement in the 4th Embodiment of this invention. 本発明の第5の実施の形態における動作のフローチャートである。It is a flowchart of the operation | movement in the 5th Embodiment of this invention.

符号の説明Explanation of symbols

10 映像記憶部
20 映像入力部
30 カット点検出部
40 動きベクトル算出部
50 カメラワークモデル適合判定部
51 カメラワークパラメータ算出部
52 カメラワークパラメータ異常判定部
53 動物体アップフレーム判定部
60 映像区間算出部
70 パラメータ記憶リスト
80 アップフレーム時刻記憶リスト
DESCRIPTION OF SYMBOLS 10 Image | video memory | storage part 20 Image | video input part 30 Cut point detection part 40 Motion vector calculation part 50 Camera work model conformity determination part 51 Camera work parameter calculation part 52 Camera work parameter abnormality determination part 53 Moving object up-frame determination part 60 Image | video area calculation part 70 Parameter storage list 80 Upframe time storage list

Claims (10)

映像が記憶されている映像記憶手段から動物体が比較的大きく写っている映像フレーム画像(動物体アップフレーム画像)を検出する動物体アップフレーム検出装置における、動物体アップフレーム検出方法において、
前記映像記憶手段から読み込まれた複数のフレーム画像を用いて動きベクトルを算出し、メモリに格納する動きベクトル算出手順と、
前記メモリから前記動きベクトルを取得して、該動きベクトル全体が所定のカメラワークモデルに則しているかを判定するカメラワークモデル適合判定手順と、
前記カメラワークモデル適合判定手順において、前記カメラワークモデルに則していないと判定された場合に、動物体アップフレームとして検出する手順と、
を行うことを特徴とする動物体アップフレーム検出方法。
In a moving object up frame detection method in a moving object up frame detection device for detecting a video frame image (moving object up frame image) in which a moving object is relatively large from a video storage means in which a video is stored,
A motion vector calculation procedure for calculating a motion vector using a plurality of frame images read from the video storage means and storing the motion vector in a memory;
A camera work model conformity determination procedure for acquiring the motion vector from the memory and determining whether the entire motion vector conforms to a predetermined camera work model;
In the camerawork model conformity determination procedure, when it is determined that the camerawork model does not conform to the camerawork model, a procedure for detecting as an animal up-frame,
A method for detecting an up-frame of an animal body, comprising:
前記動きベクトル算出手順の前に、前記映像記憶手段から読み込まれたフレーム画像のカット点を検出する処理を行い、該カット点が検出されなかった場合には、該動きベクトル算出手順の処理に移行するカット点検出手順を更に行う請求項1記載の動物体アップフレーム検出方法。   Before the motion vector calculation procedure, a process of detecting a cut point of the frame image read from the video storage means is performed. If the cut point is not detected, the process proceeds to the motion vector calculation procedure. The moving object frame detection method according to claim 1, wherein a cut point detection procedure is further performed. 前記カメラワークモデル適合判定手順において、
前記メモリから前記動きベクトルを取得して、カメラワークパラメータを算出してパラメータ記憶手段に格納するカメラワークパラメータ算出手順と、
前記パラメータ記憶手段から前記カメラワークパラメータを取得して、該カメラワークパラメータが異常か否かを判定するカメラワークパラメータ異常判定手順と、
を行う請求項1または、2記載の動物体アップフレーム検出方法。
In the camera work model conformity determination procedure,
A camera work parameter calculation procedure for acquiring the motion vector from the memory, calculating a camera work parameter, and storing it in a parameter storage unit;
A camera work parameter abnormality determination procedure for obtaining the camera work parameter from the parameter storage means and determining whether or not the camera work parameter is abnormal;
The method for detecting an animal body up-frame according to claim 1 or 2, wherein:
前記カメラワークモデル適合判定手順において、正常であると判定された場合に、
前記パラメータ記憶手段から前記カメラワークパラメータを取得し、前記動きベクトル算出手順において動きベクトルを算出する際に用いたフレーム画像の単位のうち、カメラワークモデルに則さないフレーム画像の単位を、その画像単位の動きとカメラパラメータとのずれを用いて算出し、その画像単位の数の割合あるいは重み付き和の値に基づいて動物体アップフレームを検出し、該動物体アップフレームの映像時刻をアップフレーム記憶手段に格納する動物体アップフレーム判定手順を行う請求項3記載の動物体アップフレーム検出方法。
In the camera work model conformity determination procedure, when determined to be normal,
Of the frame image units used when the camera work parameters are obtained from the parameter storage means and the motion vectors are calculated in the motion vector calculation procedure, the frame image units that do not conform to the camera work model are Calculated using the difference between the unit motion and the camera parameter, detects the animal up frame based on the ratio of the number of image units or the weighted sum, and the video time of the animal up frame is up-framed. 4. A moving object up frame detection method according to claim 3, wherein a moving object frame determination procedure stored in the storage means is performed.
映像が記憶されている映像記憶手段から動物体が比較的大きく写っている映像フレーム画像(動物体アップフレーム画像)を検出する動物体アップフレーム検出プログラムであって、
複数のメモリ、アップフレーム時刻記憶手段及びパラメータ記憶手段を有するコンピュータに、
前記請求項1乃至4記載の動物体アップフレーム検出方法を実現するための処理を実行させることを特徴とする動物体アップフレーム検出プログラム。
An animal up-frame detection program for detecting a video frame image (animal up-frame image) in which a moving object is relatively large from a video storage means in which video is stored,
In a computer having a plurality of memories, up frame time storage means and parameter storage means,
5. A moving object frame detection program for executing the moving object frame detection method according to claim 1.
映像が記憶されている映像記憶手段から動物体が比較的大きく写っている映像フレーム画像(動物体アップフレーム画像)を検出する動物体アップフレーム検出プログラムを格納した記憶媒体であって、
複数のメモリ、アップフレーム時刻記憶手段及びパラメータ記憶手段を有するコンピュータに、
前記請求項1乃至4記載の動物体アップフレーム検出方法を実現するための処理を実行させるプログラムを格納したことを特徴とする動物体アップフレーム検出プログラムを格納した記憶媒体。
A storage medium storing a moving object up frame detection program for detecting a video frame image (moving object up frame image) in which a moving object is shown relatively large from a video storage means storing a video,
In a computer having a plurality of memories, up frame time storage means and parameter storage means,
5. A storage medium storing a moving object up frame detection program, wherein a program for executing processing for realizing the moving object up frame detection method according to claim 1 is stored.
映像が記憶されている映像記憶手段から動物体がアップで写っている映像区間(動物体アップショット)を検出する動物体アップショット検出装置における、動物体アップショット検出方法において、
前記請求項1乃至4記載の少なくともいずれか1項記載の前記動物体アップフレーム検出方法の手順に、さらに、検出された動物体アップフレームを時系列に記憶手段に蓄積し、時間的まとまりを算出する映像区間算出手順を追加したことを特徴とする動物体アップショット検出方法。
In a moving body upshot detection method in a moving body upshot detection device that detects a video section (moving body upshot) in which a moving body is captured from a video storage means in which a video is stored,
5. The procedure of the moving object up frame detection method according to claim 1, further comprising: storing the detected moving object up frame in a storage means in time series to calculate a temporal unit. A method for detecting an upshot of a moving object, characterized in that a video section calculation procedure is added.
映像が記憶されている映像記憶手段から動物体がアップで写っているフレーム、あるいは、映像区間(動物体アップショット)を検出する動物体アップフレーム、あるいは、ショット検出装置における、動物体アップフレームあるいは、ショット検出方法において、
前記請求項1乃至4記載の少なくともいずれか1項記載の前記動物体アップフレーム検出方法の手順、または、前記請求項7記載の動物体アップショット検出方法の手順に、前記動きベクトル算出手順に利用する複数フレーム選択を、その算出される動きを用いて行う映像入力更新手順を追加したことを特徴とする動物体アップフレームあるいはショット検出方法。
The frame in which the moving object is shown up from the image storage means in which the image is stored, the moving object up frame for detecting the video section (moving object up shot), or the moving object up frame in the shot detection device In the shot detection method,
The motion vector calculation procedure is used for the procedure of the moving object up frame detection method according to claim 1 or the procedure of the moving object up shot detection method of claim 7. A moving object up-frame or shot detection method characterized in that a video input update procedure for selecting a plurality of frames to be performed using the calculated motion is added.
映像が記憶されている映像記憶手段から動物体がアップで写っている映像区間(動物体アップショット)を検出する動物体アップショット検出プログラムであって、
複数のメモリ、アップフレーム時刻記憶手段及びパラメータ記憶手段を有するコンピュータに、
前記請求項7または8記載の動物体アップショット検出方法を実現させるための処理を実行させることを特徴とする動物体アップショット検出プログラム。
A moving body upshot detection program for detecting a video section (moving body upshot) in which a moving body is captured from a video storage means in which the video is stored,
In a computer having a plurality of memories, up frame time storage means and parameter storage means,
9. A moving object upshot detection program for executing a process for realizing the moving object upshot detection method according to claim 7 or 8.
映像が記憶されている映像記憶手段から動物体がアップで写っている映像区間(動物体アップショット)を検出する動物体アップショット検出プログラムを格納した記憶媒体であって、
複数のメモリ、アップフレーム時刻記憶手段及びパラメータ記憶手段を有するコンピュータに、
前記請求項7または8記載の動物体アップショット検出方法を実現させるための処理を実行させるプログラムを格納したことを特徴とする動物体アップショット検出プログラムを格納した記憶媒体。
A storage medium storing a moving object upshot detection program for detecting a video section (moving body upshot) in which a moving object is captured from a video storage means in which a video is stored,
In a computer having a plurality of memories, up frame time storage means and parameter storage means,
9. A storage medium storing an animal upshot detection program, wherein a program for executing a process for realizing the animal upshot detection method according to claim 7 or 8 is stored.
JP2005057904A 2005-03-02 2005-03-02 Animal up-frame detection method, program, and storage medium storing program, and animal up-shot detection method, animal up-frame or shot detection method, program, and storage medium Active JP4496992B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005057904A JP4496992B2 (en) 2005-03-02 2005-03-02 Animal up-frame detection method, program, and storage medium storing program, and animal up-shot detection method, animal up-frame or shot detection method, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005057904A JP4496992B2 (en) 2005-03-02 2005-03-02 Animal up-frame detection method, program, and storage medium storing program, and animal up-shot detection method, animal up-frame or shot detection method, program, and storage medium

Publications (2)

Publication Number Publication Date
JP2006244074A true JP2006244074A (en) 2006-09-14
JP4496992B2 JP4496992B2 (en) 2010-07-07

Family

ID=37050436

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005057904A Active JP4496992B2 (en) 2005-03-02 2005-03-02 Animal up-frame detection method, program, and storage medium storing program, and animal up-shot detection method, animal up-frame or shot detection method, program, and storage medium

Country Status (1)

Country Link
JP (1) JP4496992B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007105560A1 (en) * 2006-03-10 2007-09-20 Pioneer Corporation Information processing device, information processing method, and information processing program
WO2008129656A1 (en) * 2007-04-16 2008-10-30 Pioneer Corporation Device and method for detecting close-up shot, electronic apparatus, and computer program
JP2010039877A (en) * 2008-08-07 2010-02-18 Nippon Telegr & Teleph Corp <Ntt> Apparatus and program for generating digest content
JP2011100428A (en) * 2009-10-06 2011-05-19 Nanao Corp Motion vector detection device, frame interpolation processor, and method therefor
CN102118561A (en) * 2010-05-27 2011-07-06 周渝斌 Camera movement detection system in monitoring system and method
JP2014017852A (en) * 2013-09-11 2014-01-30 Sony Corp Information processing apparatus, information processing method, imaging apparatus, and information processing system
US8724960B2 (en) 2009-07-09 2014-05-13 Sony Corporation Imaging device, image processing method, and program thereof
CN110909579A (en) * 2018-09-18 2020-03-24 杭州海康威视数字技术股份有限公司 Video image processing method and device, electronic equipment and storage medium
CN114501061A (en) * 2022-01-25 2022-05-13 上海影谱科技有限公司 Video frame alignment method and system based on object detection

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004310595A (en) * 2003-04-09 2004-11-04 Ntt Data Corp Animal body detecting device, and animal body detecting method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004310595A (en) * 2003-04-09 2004-11-04 Ntt Data Corp Animal body detecting device, and animal body detecting method

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007105560A1 (en) * 2006-03-10 2007-09-20 Pioneer Corporation Information processing device, information processing method, and information processing program
US8024376B2 (en) 2006-03-10 2011-09-20 Pioneer Corporation Information processing apparatus, information processing method, and information processing program
JPWO2007105560A1 (en) * 2006-03-10 2009-07-30 パイオニア株式会社 Information processing apparatus, information processing method, and information processing program
JP4673916B2 (en) * 2006-03-10 2011-04-20 パイオニア株式会社 Information processing apparatus, information processing method, and information processing program
JPWO2008129656A1 (en) * 2007-04-16 2010-07-22 パイオニア株式会社 UPSHOT DETECTING DEVICE AND METHOD, ELECTRONIC DEVICE, AND COMPUTER PROGRAM
WO2008129656A1 (en) * 2007-04-16 2008-10-30 Pioneer Corporation Device and method for detecting close-up shot, electronic apparatus, and computer program
US8340353B2 (en) 2007-04-16 2012-12-25 Pioneer Corporation Close-up shot detecting apparatus and method, electronic apparatus and computer program
JP2010039877A (en) * 2008-08-07 2010-02-18 Nippon Telegr & Teleph Corp <Ntt> Apparatus and program for generating digest content
US8724960B2 (en) 2009-07-09 2014-05-13 Sony Corporation Imaging device, image processing method, and program thereof
US9361010B2 (en) 2009-07-09 2016-06-07 Sony Corporation Imaging device, image processing method, and program thereof
JP2011100428A (en) * 2009-10-06 2011-05-19 Nanao Corp Motion vector detection device, frame interpolation processor, and method therefor
CN102118561A (en) * 2010-05-27 2011-07-06 周渝斌 Camera movement detection system in monitoring system and method
JP2014017852A (en) * 2013-09-11 2014-01-30 Sony Corp Information processing apparatus, information processing method, imaging apparatus, and information processing system
CN110909579A (en) * 2018-09-18 2020-03-24 杭州海康威视数字技术股份有限公司 Video image processing method and device, electronic equipment and storage medium
CN114501061A (en) * 2022-01-25 2022-05-13 上海影谱科技有限公司 Video frame alignment method and system based on object detection
CN114501061B (en) * 2022-01-25 2024-03-15 上海影谱科技有限公司 Video frame alignment method and system based on object detection

Also Published As

Publication number Publication date
JP4496992B2 (en) 2010-07-07

Similar Documents

Publication Publication Date Title
US20230077355A1 (en) Tracker assisted image capture
JP4496992B2 (en) Animal up-frame detection method, program, and storage medium storing program, and animal up-shot detection method, animal up-frame or shot detection method, program, and storage medium
Lai et al. Semantic-driven generation of hyperlapse from 360 degree video
JP5950973B2 (en) Method, apparatus and system for selecting a frame
EP3084577B1 (en) Selection and tracking of objects for display partitioning and clustering of video frames
US10089330B2 (en) Systems, methods, and apparatus for image retrieval
JP4973188B2 (en) Video classification device, video classification program, video search device, and video search program
JP4542207B1 (en) Moving object detection method and moving object detection apparatus
US8126207B2 (en) Subject tracking method, subject tracking device, and computer program product
US20070269080A1 (en) Object Pose Estimation and Comparison System, Object Pose Estimation and Comparison Method, and Program Therefor
KR20130025944A (en) Method, apparatus and computer program product for providing object tracking using template switching and feature adaptation
CN112703533A (en) Object tracking
WO2014154533A1 (en) Method and apparatus for automatic keyframe extraction
JPWO2018235219A1 (en) Self-location estimation method, self-location estimation device, and self-location estimation program
JP5192437B2 (en) Object region detection apparatus, object region detection method, and object region detection program
JP2007072789A (en) Image structuring method, device, and program
JP2014110020A (en) Image processor, image processing method and image processing program
JP4559375B2 (en) Object position tracking method, apparatus, and program
JP2006215655A (en) Method, apparatus, program and program storage medium for detecting motion vector
CN115720252A (en) Apparatus and method for shortening video with event preservation
JP2009302723A (en) Image processing device, method and program
KR102496462B1 (en) Algorihm for keyframe extraction from video
JP2010122840A (en) Method, apparatus and program for detecting object area, and computer readable recording medium recording the program
RU2778355C1 (en) Device and method for prediction autofocus for an object
JP7266490B2 (en) IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM THEREOF

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091215

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100323

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100405

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130423

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4496992

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140423

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350