JP2010087937A - Video detection device, video detection method and video detection program - Google Patents

Video detection device, video detection method and video detection program Download PDF

Info

Publication number
JP2010087937A
JP2010087937A JP2008255885A JP2008255885A JP2010087937A JP 2010087937 A JP2010087937 A JP 2010087937A JP 2008255885 A JP2008255885 A JP 2008255885A JP 2008255885 A JP2008255885 A JP 2008255885A JP 2010087937 A JP2010087937 A JP 2010087937A
Authority
JP
Japan
Prior art keywords
video
cut
detection
stationary
feature vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008255885A
Other languages
Japanese (ja)
Inventor
Hidenori Tanaka
秀典 田中
Kyoko Sudo
恭子 数藤
Hiroyuki Arai
啓之 新井
Hideki Koike
秀樹 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2008255885A priority Critical patent/JP2010087937A/en
Publication of JP2010087937A publication Critical patent/JP2010087937A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To detect as user-intended non-constant video image from among video images photographed by an imaging apparatus. <P>SOLUTION: Frame images of photographed video images are time-sequentially input to a video detection device 1. A change region extraction section 12 extracts a change region by frame sequentially input from an imaging apparatus. A cut segmentation section 14 segments a change region image included in a specific time unit as a video cut. A feature vector calculation section 15 calculates a feature vector from the video cut. A non-constant cut detection section 19 uses a dimension-compressed feature vector and a detection parameter to detect candidates of the non-constant video cut. A non-constant cut detection feedback section 23 updates the detection parameter using a feature vector corresponding to a video cut regarded constant among the candidates of the non-constant video cut. A non-constant cut detection section 19 uses the updated detection parameter to detect the candidates of the non-constant video cut. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮像装置(例えばカメラ、ビデオカメラなど)で撮影された映像中から、画像処理により非定常なカットを検出する技術に関する。   The present invention relates to a technique for detecting an unsteady cut by image processing from video captured by an imaging device (for example, a camera or a video camera).

現在、カメラによる監視システムが多く利用されているが、人による動画像からの異常検出は労力も多大であり、これをコンピュータで代替できるならば大変な労力削減につながる。例えば、銀行などではATM操作での挙動不審を検出することなどが可能となる。また、老人介護においては、発作などに対する自動通報システムがあれば介護者の負担を減らすことができる。そのため、異常を通知するなどのカメラによるモニタリングシステムが必要とされている。   Currently, many surveillance systems using cameras are used, but detection of anomalies from moving images by humans is labor intensive, and if this can be replaced by a computer, it will lead to a significant labor reduction. For example, a bank or the like can detect a suspicious behavior in an ATM operation. In elderly care, if there is an automatic notification system for seizures, the burden on the caregiver can be reduced. Therefore, there is a need for a camera monitoring system for notifying abnormality.

従来の非定常映像検出技術としては、非特許文献1に記載の異常動作をあらかじめ学習しておき非定常映像検出を行う方法、および非特許文献2に記載の学習なしで非定常映像検出を行う方法が知られている。   As the conventional non-stationary video detection technique, the abnormal operation described in Non-Patent Document 1 is learned in advance and the non-stationary video detection is performed, and the non-stationary video detection is performed without learning described in Non-Patent Document 2. The method is known.

非特許文献1記載の検出方法では、異常動作をあらかじめ学習しておくことで、エレベーターにおける人物の暴れを検知している。また、非特許文献2記載の検出方法では、それまでの映像から抽出した人物の動き特徴と大きく異なる特徴を持った映像を異常動作として検出している。
林健太郎、関真規人、塩崎秀樹、文屋太陽、森光正、濱地浩秋、「エレベーター向け画像応用防犯センサ」、昇降機・遊戯施設等の最近の技術と進歩技術講演会講演論文集、2005(平成18年1月) pp.29−32 南里卓也、大津展之、「複数人動画像からの異常動作検出」、電子情報通信学会技術研究報告PRMU2004−77、2004−09(平成16年9月)、pp.9−16
In the detection method described in Non-Patent Document 1, a rampage of a person in an elevator is detected by learning abnormal operations in advance. In addition, in the detection method described in Non-Patent Document 2, a video having a feature that is significantly different from the motion feature of the person extracted from the previous video is detected as an abnormal operation.
Kentaro Hayashi, Norihito Seki, Hideki Shiozaki, Taibunya Tai, Mitsumasa Mori, Hiroaki Kaji, “Image Application Security Sensors for Elevators”, Recent Technologies and Progressive Technology Lectures in Elevators / Amusement Facilities, 2005 ( January 2006) pp. 29-32 Takuya Nanzato, Nobuyuki Otsu, “Detection of Abnormal Motion from Multiple Human Motion Images”, IEICE Technical Report PRMU 2004-77, 2004-09 (September 2004), pp. 9-16

しかしながら、上述の非定常映像検出技術では、学習の有無に関わらず、非定常と判定する基準は手法に大きく依存するため、ユーザの意図するような非定常映像を検出することは難しい。   However, in the above-described non-stationary video detection technique, the criterion for determining non-stationary regardless of the presence or absence of learning largely depends on the method, and it is difficult to detect a non-stationary video as intended by the user.

そこで、本発明は、このような問題に鑑み、非定常映像の候補に対するユーザの定常・非定常の判定結果を検出処理にフィードバックすることにより、ユーザの意図する非定常映像の検出を可能にすることを解決課題としている。   Therefore, in view of such problems, the present invention enables detection of a non-stationary video intended by the user by feeding back a result of determination of the user's steady / non-stationary with respect to a candidate for non-stationary video to a detection process. This is a solution issue.

本発明は、前記課題を解決するために創作された技術的思想であって、背景が変化した箇所を基準に所定フレームの部分映像を取得し、該部分映像の特徴ベクトルを用いて、定常状態を示す空間から外れている距離が所定閾値以上であれば非定常映像の候補とし、ユーザに提示して定常・非定常を判別してもらう。そして、定常と指定された映像区間により所定閾値が更新されて、検出処理にフィードバックされる。   The present invention is a technical idea created in order to solve the above-described problem, and acquires a partial video of a predetermined frame on the basis of a place where the background has changed, and uses a feature vector of the partial video to obtain a steady state. If the distance deviating from the space showing is equal to or greater than a predetermined threshold, it is determined as a candidate for a non-stationary video, and is presented to the user to determine whether it is stationary or non-stationary. Then, the predetermined threshold is updated by the video section designated as steady and fed back to the detection process.

具体的には、請求項1記載の発明は、撮像装置をもって空間を撮影した映像中、該撮影空間の非定常的な映像カットを検出する映像検出装置であって、前記撮像装置から連続的に入力されたフレームに変化が現れた変化領域を抽出する抽出手段と、前記変化領域の画像を任意列に切り出した映像カットから、変化の特徴ベクトルを求める特徴量算出手段と、前記特徴ベクトルが前記撮影空間の定常状態を示す識別空間の分布から外れている値を求め、該値が閾値を超えているときに非定常的な映像カットの候補とする検出手段と、前記候補中、ユーザが定常とみなした映像カットの前記特徴ベクトルを用いて前記閾値を順次更新して、前記検出手段の検出処理に反映させるフィードバック手段とを備えることを特徴としている。   Specifically, the invention described in claim 1 is a video detection device that detects an unsteady video cut in a shooting space in a video shot of a space by the imaging device, and is continuously from the imaging device. Extraction means for extracting a change area in which a change appears in an input frame; feature quantity calculation means for obtaining a feature vector of change from a video cut obtained by cutting out an image of the change area into an arbitrary column; and A value that deviates from the distribution of the identification space indicating the steady state of the imaging space is obtained, and when the value exceeds a threshold value, detection means that is a non-stationary video cut candidate, and among the candidates, the user is stationary Feedback means for sequentially updating the threshold value using the feature vector of the video cut considered to be reflected in the detection process of the detection means.

また、請求項2記載の発明は、撮像装置をもって空間を撮影した映像中、該撮影空間の非定常的な映像カットを検出する映像検出装置であって、前記撮像装置から連続的に入力されたフレームから動体を抽出し、該抽出された動体の動き方向の特徴量を動きベクトルとして求めるベクトル算出手段と、前記動きベクトルを任意列に切り出した動きベクトルカットから、動体の動きの特徴ベクトルを求める特徴量算出手段と、前記特徴ベクトルが前記撮影空間の定常状態を示す識別空間の分布から外れている値を求め、該値が閾値を超えているときに非定常的な映像カットの候補とする検出手段と、前記候補中、ユーザが定常とみなした映像カットの前記特徴ベクトルを用いて前記閾値を順次更新して、前記検出手段の検出処理に反映させるフィードバック手段とを備えることを特徴としている。   The invention described in claim 2 is a video detection device that detects non-stationary video cuts in a shooting space in a video shot of a space by the imaging device, and is continuously input from the imaging device. A moving object is extracted from the frame, a vector calculating means for obtaining a feature quantity in the motion direction of the extracted moving object as a motion vector, and a motion vector cut obtained by extracting the motion vector into an arbitrary column to obtain a motion feature vector of the moving object. A feature amount calculation unit and a value that the feature vector deviates from the distribution of the identification space indicating the steady state of the shooting space is obtained, and when the value exceeds a threshold value, it is determined as a non-stationary video cut candidate. The threshold value is sequentially updated using the detection vector and the feature vector of the video cut that the user considers to be stationary among the candidates, and is reflected in the detection process of the detection unit. It is characterized in that it comprises a readback means.

また、請求項3記載の発明は、前記特徴ベクトルの次元を圧縮する圧縮手段をさらに備えているとともに、前記検出手段において、次元圧縮された前記特徴ベクトルが前記識別空間の分布から外れている値を求めることを特徴としている。   The invention according to claim 3 further includes compression means for compressing the dimension of the feature vector, and in the detection means, the value of the dimension-compressed feature vector deviating from the distribution of the identification space. It is characterized by seeking.

また、請求項4記載の発明は、前記検出手段の検出した非定常な映像カットの候補をユーザに提示する表示手段をさらに備え、前記表示手段が、前記閾値の更新前に検出した非定常な映像カットの候補を併せて表示可能なことを特徴としている。   The invention according to claim 4 further includes display means for presenting a non-stationary video cut candidate detected by the detection means to a user, and the display means detects the non-stationary image detected before the threshold is updated. It is characterized by being able to display video cut candidates together.

また、請求項5記載の発明は、撮像装置をもって空間を撮影した映像中、該撮影空間の非定常的な映像カットを検出する映像検出方法であって、抽出手段が、前記撮像装置から連続的に入力されたフレームに変化が現れた変化領域を抽出する第1ステップと、特徴量算出手段が、前記変化領域の画像を任意列に切り出した映像カットから変化の特徴ベクトルを求める第2ステップと、検出手段が、前記撮影空間の定常状態を示す識別空間の分布から前記特徴ベクトルが外れている値を求め、該値が閾値を超えているときに非定常的な映像カットの候補とする第3ステップと、フィードバック手段が、前記候補中、ユーザが定常とみなした映像カットの前記特徴ベクトルを用いて前記閾値を順次更新して、前記検出手段の検出処理に反映させる第4ステップとを有することを特徴としている。   The invention described in claim 5 is a video detection method for detecting a non-stationary video cut in a shooting space in a video shot of a space by the imaging device, wherein the extraction means is continuously connected to the imaging device. A first step of extracting a change area in which a change appears in the frame input to the second step, and a second step in which the feature amount calculation means obtains a change feature vector from a video cut obtained by cutting out an image of the change area into an arbitrary column; The detection means obtains a value out of the feature vector from the distribution of the identification space indicating the steady state of the shooting space, and sets the value as a non-stationary video cut candidate when the value exceeds a threshold value. 3 steps, and the feedback means sequentially updates the threshold value using the feature vector of the video cut that the user considers to be stationary among the candidates, and reflects it in the detection process of the detection means. It is characterized by having 4 and steps.

また、請求項6記載の発明は、撮像装置をもって空間を撮影した映像中、該撮影空間の非定常的な映像カットを検出する映像検出方法であって、ベクトル算出手段が、前記撮像装置から連続的に入力されたフレームから動体を抽出し、該抽出された動体の動き方向の特徴量を動きベクトルとして求める第1ステップと、特徴量算出手段が、前記動きベクトルを任意列に切り出した動きベクトルカットから、動体の動きの特徴ベクトルを求める第2ステップと、検出手段が、前記撮影空間の定常状態を示す識別空間の分布から前記特徴ベクトルが外れている値を求め、該値が閾値を超えているときに非定常的な映像カットの候補とする第3ステップと、フィードバック手段が、前記候補中、ユーザが定常とみなした映像カットの前記特徴ベクトルを用いて前記閾値を順次更新して、前記検出手段の検出処理に反映させる第4ステップとを有することを特徴としている。   The invention described in claim 6 is a video detection method for detecting a non-stationary video cut in a shooting space in a video shot of a space by the imaging device, wherein the vector calculation means is continuously connected to the imaging device. A first step of extracting a moving object from a frame that is input automatically, and obtaining a feature quantity in the motion direction of the extracted moving object as a motion vector, and a motion vector in which the feature quantity calculation means cuts the motion vector into an arbitrary column A second step of obtaining a feature vector of motion of the moving object from the cut; and a detecting means obtains a value that is out of the feature vector from the distribution of the identification space indicating the steady state of the shooting space, and the value exceeds a threshold value And a third step of selecting a non-stationary video cut as a candidate and the feature vector of the video cut that the feedback unit considers to be stationary among the candidates. Sequentially updates the threshold using, is characterized by a fourth step of reflecting the detection process of the detection means.

また、請求項7記載の発明は、前記特徴ベクトルの次元を圧縮するステップをさらに有し、前記第3ステップにおいて、次元圧縮された前記特徴ベクトルが前記識別空間の分布から外れている値を求めることを特徴としている。   The invention according to claim 7 further includes a step of compressing the dimension of the feature vector, and in the third step, a value for which the dimension-compressed feature vector deviates from the distribution of the identification space is obtained. It is characterized by that.

また、請求項8記載の発明は、前記第3ステップにおいて検出した非定常な映像カットの候補をユーザに提示するステップをさらに有し、該ステップにおいて、前記閾値の更新前に検出した非定常な映像カットの候補を併せて表示可能なことを特徴としている。   The invention according to claim 8 further includes a step of presenting a non-stationary video cut candidate detected in the third step to the user, and in this step, the non-stationary detected before the threshold is updated. It is characterized by being able to display video cut candidates together.

また、請求項9記載の発明は、映像検出プログラムであり、請求項1〜4のいずれか1項に記載の映像検出装置を構成する各手段としてコンピュータを機能させることを特徴としている。   The invention described in claim 9 is a video detection program, characterized by causing a computer to function as each means constituting the video detection device according to any one of claims 1 to 4.

請求項1〜9記載の発明によれば、非定常映像の候補に対するユーザの判定結果が以後の検出処理に反映されることから、ユーザの意図する検出が可能になる。   According to the first to ninth aspects of the present invention, the determination result of the user with respect to the candidate for the unsteady video is reflected in the subsequent detection processing, so that the detection intended by the user is possible.

特に、請求項4.8記載の発明によれば、現在の非定常映像の候補と過去の非定常映像の候補とを対比して確認することができる。   In particular, according to the invention of claim 4.8, the current non-stationary video candidate and the past non-stationary video candidate can be compared and confirmed.

本発明では、所定位置に固定されたカメラなどの撮像装置をもって、一定の空間を連続的に撮影した映像中、該空間の非定常な映像カットを検出している。撮影空間としては、例えば銀行のATMコーナーや、エレベーターのかご内などが挙げられる。この場合には、ATMコーナーの天井などに設置されたカメラで内部空間が連続的に撮影される。このとき、カメラで不審者の侵入などの非定常状態が撮影されると、そのシーンの映像カットが検出される。   In the present invention, an unsteady image cut in the space is detected in an image obtained by continuously capturing a certain space with an imaging device such as a camera fixed at a predetermined position. Examples of the shooting space include an ATM corner of a bank and an elevator car. In this case, the internal space is continuously photographed by a camera installed on the ceiling of an ATM corner or the like. At this time, when an unsteady state such as the intrusion of a suspicious person is photographed by the camera, a video cut of the scene is detected.

ここでは、前記撮像装置で撮影された画像(フレーム画像)が映像検出装置に時系列的に入力される状況(静止画系列や映像ストリームなど)を想定して説明する。また、ここでは前記映像検出装置がコンピュータにより構成された例を説明するが、映像検出装置はこれに限定されるものではなく、例えば映像検出の処理ロジックを実装したIC(Integrated Circuit)チップを備えた計算機などでもよい。   Here, a description will be given assuming a situation (a still image series, a video stream, etc.) in which images (frame images) captured by the imaging device are input to the video detection device in a time series. In addition, although an example in which the video detection device is configured by a computer will be described here, the video detection device is not limited to this, and includes, for example, an IC (Integrated Circuit) chip on which video detection processing logic is mounted. It may be a calculator.

(1)第1実施形態
図1は、本発明の第1実施形態に係る映像検出装置1を示し、該映像検出装置1には、カメラ2で撮影された画像データがネットワークを介して時系列に入力されている。ここでは撮像装置としてのカメラ2にデジタルカメラあるいはデジタルビデオカメラが使用されているものとする。
(1) First Embodiment FIG. 1 shows a video detection apparatus 1 according to a first embodiment of the present invention. In the video detection apparatus 1, image data taken by a camera 2 is time-sequentially via a network. Has been entered. Here, it is assumed that a digital camera or a digital video camera is used for the camera 2 as the imaging device.

前記映像検出装置1は、図1に示すように、キーボードやマウスなどの入力部3と、固定データなどを記憶する読み取り専用メモリ(ROM)4と、各部の制御や計算処理などを行う処理部(CPU:Central Processor Unit等)5と、処理データなどを一時記憶する書き換え可能なメモリ(RAM)6と、前記カメラ2などとのネットワーク接続に使用する通信インタフェース部(I/F)7と、ハードディスクドライブ装置などの外部記憶部8と、CD−ROMやDVD−ROMなどの記録媒体10を読み込む記録媒体駆動部9とを備えている。また、該映像検出装置1には、処理データなどを表示するディスプレイなどの表示装置11が接続されている。   As shown in FIG. 1, the video detection apparatus 1 includes an input unit 3 such as a keyboard and a mouse, a read-only memory (ROM) 4 that stores fixed data, and a processing unit that performs control and calculation processing of each unit. (CPU: Central Processor Unit, etc.) 5, a rewritable memory (RAM) 6 for temporarily storing processing data and the like, a communication interface unit (I / F) 7 used for network connection with the camera 2 and the like, An external storage unit 8 such as a hard disk drive device and a recording medium drive unit 9 for reading a recording medium 10 such as a CD-ROM or a DVD-ROM are provided. Further, a display device 11 such as a display for displaying processing data or the like is connected to the video detection device 1.

前記各構成要素3〜9は、図2に示すように、変化領域抽出部12、変化領域記憶部13、カット切り出し部14、特徴ベクトル算出部15、次元圧縮パラメータ記憶部16、次元圧縮部17、外れ値検出パラメータ記憶部18、非定常カット検出部19、非定常カット記憶部20、非定常カット表示部21、定常カット取得部22、非定常カット検出フィードバック部23として機能している。前記各機能ブロック12〜23の機能は、前記処理部(CPU)5が映像検出プログラムを読み込んで実現されている。このうち前記各記憶部13.16.18.20は、前記ハードディスクドライブ装置上にデータベースとして構築されている。   As shown in FIG. 2, each of the components 3 to 9 includes a change region extraction unit 12, a change region storage unit 13, a cut cutout unit 14, a feature vector calculation unit 15, a dimension compression parameter storage unit 16, and a dimension compression unit 17. , Functioning as an outlier detection parameter storage unit 18, an unsteady cut detection unit 19, an unsteady cut storage unit 20, an unsteady cut display unit 21, a steady cut acquisition unit 22, and an unsteady cut detection feedback unit 23. The functions of the functional blocks 12 to 23 are realized by the processing unit (CPU) 5 reading a video detection program. Among these, each said memory | storage part 13.16.18.20 is constructed | assembled as a database on the said hard-disk drive apparatus.

具体的には、前記変化領域抽出部12には、図3に示すように、前記カメラ2で撮影された画像データ(フレーム)が時系列で順次入力されている。この画像データから変化の表れた変化領域を抽出し、抽出した変化領域画像のデータを前記変化領域記憶部13に順次出力する。   Specifically, as shown in FIG. 3, image data (frames) photographed by the camera 2 is sequentially input to the change area extraction unit 12 in time series. The change area where the change appears is extracted from the image data, and the data of the extracted change area image is sequentially output to the change area storage unit 13.

前記変化領域記憶部13は、入力された前記変化領域画像のデータを時系列に記憶して変化領域画像列とし、該画像列のデータを前記カット切り出し部14に出力する。   The change area storage unit 13 stores the input data of the change area image in time series to form a change area image sequence, and outputs the data of the image sequence to the cut cutout unit 14.

前記カット切り出し部14は、入力された前記変化領域画像列から一定数のフレームを切り出し、切り出されたフレームを変化領域映像カットとして前記特徴ベクトル算出部15に出力する。   The cut cutout unit 14 cuts out a certain number of frames from the input change area image sequence, and outputs the cut out frames to the feature vector calculation unit 15 as change area video cuts.

前記特徴ベクトル算出部15は、入力された前記変化領域映像カットから特徴ベクトルを算出し、算出した該特徴ベクトルを前記次元圧縮部17に出力する。   The feature vector calculation unit 15 calculates a feature vector from the input change area video cut, and outputs the calculated feature vector to the dimension compression unit 17.

前記次元圧縮部17は、前記次元圧縮パラメータ記憶部16から入力された次元圧縮パラメータを用いて、前記特徴ベクトル算出部15から入力された前記特徴ベクトルの次元を圧縮し、得られた次元圧縮ベクトルを前記非定常カット検出部19に出力する。   The dimension compression unit 17 compresses the dimension of the feature vector input from the feature vector calculation unit 15 using the dimension compression parameter input from the dimension compression parameter storage unit 16, and the obtained dimension compression vector Is output to the unsteady cut detector 19.

前記非定常カット検出部19は、前記外れ値検出パラメータ記憶部18から入力された外れ値検出パラメータに所定の識別手法を適用して、前記次元圧縮部17から入力された前記次元圧縮ベクトルが識別空間の分布から外れているかを判定する。そして、外れている前記次元圧縮ベクトルに対応する映像カットを非定常映像カットの候補(以下、非定常候補とする)として検出し、検出した該候補を前記非定常カット記憶部20に出力する。   The unsteady cut detection unit 19 applies a predetermined identification method to the outlier detection parameter input from the outlier detection parameter storage unit 18 to identify the dimension compression vector input from the dimension compression unit 17. Determine if it is out of the spatial distribution. Then, a video cut corresponding to the dimensional compression vector that has been removed is detected as a candidate for a non-stationary video cut (hereinafter referred to as a non-stationary candidate), and the detected candidate is output to the non-stationary cut storage unit 20.

前記非定常カット記憶部20は、前記非定常カット検出部19から入力された前記非定常候補を順次記憶し、記憶した非定常候補群を前記非定常カット表示部21に出力する。   The unsteady cut storage unit 20 sequentially stores the unsteady candidates input from the unsteady cut detection unit 19 and outputs the stored unsteady candidate group to the unsteady cut display unit 21.

前記非定常カット表示部21は、前記非定常カット記憶部20から入力された前記非定常候補群を前記定常カット取得部22に出力するとともに、該非定常候補群を前記表示装置11に表示させる。この表示された非定常候補群の各映像に対し、ユーザは各映像が定常映像であるか非定常映像であるかを判定し、該判定結果を前記入力部3をもって入力する。   The unsteady cut display unit 21 outputs the unsteady candidate group input from the unsteady cut storage unit 20 to the steady cut acquisition unit 22 and causes the display device 11 to display the unsteady candidate group. For each video of the displayed non-stationary candidate group, the user determines whether each video is a stationary video or a non-stationary video, and inputs the determination result through the input unit 3.

前記定常カット取得部22は、ユーザが非定常候補群の各映像に対して行った判定結果として、各映像に付与された定常・非定常のラベルを取得する。そして、前記非定常カット表示部21で出力された前記非定常候補群中、定常のラベルが付与された映像カット群を抽出し、これを定常映像カット群として前記非定常カット検出フィードバック部23に出力する。   The steady cut acquisition unit 22 acquires a steady / unsteady label attached to each video as a determination result made by the user for each video in the non-stationary candidate group. Then, from the non-stationary candidate group output from the non-stationary cut display unit 21, a video cut group to which a stationary label is assigned is extracted, and is used as a stationary video cut group to the non-stationary cut detection feedback unit 23. Output.

前記非定常カット検出フィードバック部23は、前記定常カット取得部22から前記定常映像カット群を受信すると、該カット群に対応する次元圧縮ベクトルを用いて前記識別手法の学習を行う。これにより前記外れ値検出パラメータを更新して、該更新後のパラメータを前記外れ値検出パラメータ記憶部18に出力する。   When the unsteady cut detection feedback unit 23 receives the steady image cut group from the steady cut acquisition unit 22, the unsteady cut detection feedback unit 23 learns the identification method using a dimensional compression vector corresponding to the cut group. As a result, the outlier detection parameter is updated, and the updated parameter is output to the outlier detection parameter storage unit 18.

前記非定常カット検出部19は、このように更新された外れ値検出パラメータを用いて以後の非定常候補の検出を行う。これにより、ユーザの判定結果が以後の検出処理に随時フィードバックされ、ユーザの意図により近い検出結果の出力が可能になる。なお、前記各機能ブロック12〜23の入出力データの詳細を表1に示しておく。   The non-stationary cut detection unit 19 performs subsequent detection of non-stationary candidates using the outlier detection parameter updated in this way. Thereby, the determination result of the user is fed back to the subsequent detection process as needed, and the detection result closer to the user's intention can be output. The details of the input / output data of each of the functional blocks 12 to 23 are shown in Table 1.

Figure 2010087937
Figure 2010087937

以下、前記各機能ブロック12〜23の実行する処理ステップを、図4のフローチャートに基づき説明する。図4中のS01〜S10は表1の入出力データに基づいて処理されている。   Hereinafter, processing steps executed by the functional blocks 12 to 23 will be described with reference to the flowchart of FIG. S01 to S10 in FIG. 4 are processed based on the input / output data shown in Table 1.

S01:まず、変化領域抽出部12は、カメラ2で撮影された現時点の入力画像データと、あらかじめカメラ2で前記撮影空間を撮影した過去数フレームの平均画像データとを対比して、入力画像において定常状態からの変化が表れた領域を抽出した変化領域画像を得る。この過去数フレームの平均画像データは、前記ハードディスクドライブ装置などに格納されているものとする。   S01: First, the change area extraction unit 12 compares the current input image data captured by the camera 2 with the average image data of the past several frames captured in advance by the camera 2 in the input image. A changed region image is obtained by extracting a region where a change from the steady state appears. It is assumed that the average image data of the past several frames is stored in the hard disk drive device or the like.

具体的には、変化領域抽出部12は、背景の時間的な変化を考慮した変化領域抽出方法(あるいは変化検出方法)を適用し、カメラ2で撮影された現時点の入力画像から変化領域画像を取得する。変化領域抽出方法には、過去数フレームの平均画像と現在のフレームとの画素値の差分で、一定の閾値を超えた領域を変化領域として抽出するなどの方法が考えられる。このように、時間的な変化を考慮した変化領域抽出方法を用いることにより、例えば、朝、昼、夜と日照の変化に応じて画素値が変化しても、変化領域を頑健に抽出することができる。このとき、変化領域画像の変化領域には画素値1、変化がない領域には画素値0が割り当てられている。   Specifically, the change region extraction unit 12 applies a change region extraction method (or change detection method) that takes into account temporal changes in the background, and extracts a change region image from the current input image taken by the camera 2. get. As the change area extraction method, a method of extracting an area that exceeds a certain threshold value by a difference in pixel values between an average image of the past several frames and the current frame is considered as a change area. In this way, by using the change area extraction method that takes into account temporal changes, for example, even if the pixel value changes according to changes in morning, noon, night, and sunshine, the change area can be extracted robustly. Can do. At this time, a pixel value 1 is assigned to the change area of the change area image, and a pixel value 0 is assigned to the area where there is no change.

そして、前記変化領域抽出部12は、このように取得した変化領域画像のデータを前記変化領域記憶部13に順次格納していき、変化領域画像列を生成する。   Then, the change area extraction unit 12 sequentially stores the data of the change area image acquired in this manner in the change area storage unit 13 to generate a change area image sequence.

S02:カット切り出し部14は、前記変化領域記憶部13に格納された前記変化領域の画像列を読み出し、該画像列から一定数(または一定時間)のフレームを切り出す。そして、切り出した一定数のフレームを変化領域映像カットとして前記特徴ベクトル算出部15に出力する。   S02: The cut cutout unit 14 reads out the image sequence of the change area stored in the change region storage unit 13, and cuts out a certain number (or a fixed time) of frames from the image sequence. Then, the fixed number of frames that have been cut out are output to the feature vector calculation unit 15 as a change area video cut.

ここで、切り出すフレーム数(または時間)は、前記映像検出プログラムにあらかじめ定義しておくものとする。なお、このような変化領域映像カットの切り出しは、一定数分のフレームが前記変化領域記憶部13に蓄積される毎に行ってもよい。また、切り出された変化領域映像カットのデータは、前記メモリ(RAM)6などに一時記憶してもよく、また前記外部記憶部8に保存してもよい。   Here, the number of frames (or time) to be cut out is defined in advance in the video detection program. Note that such cutout of the change area video cut may be performed every time a certain number of frames are accumulated in the change area storage unit 13. Further, the cut data of the changed area video cut may be temporarily stored in the memory (RAM) 6 or the like, or may be stored in the external storage unit 8.

S03:特徴ベクトル算出部15は、S02で切り出された前記変化領域映像カットから、該映像カットに対応する特徴ベクトルを算出し、算出した該ベクトルを前記次元圧縮部17に出力する。   S03: The feature vector calculation unit 15 calculates a feature vector corresponding to the video cut from the change area video cut cut out in S02, and outputs the calculated vector to the dimension compression unit 17.

ここで特徴ベクトルは、前記変化領域画像において画像サイズをx×y(縦x画素、横y画素)とすると、切り出した一定のフレーム数nを掛けたx×y×n次元の特徴ベクトルである。なお、算出した特徴ベクトルのデータは、前記メモリ(RAM)6などに一時記憶してもよく、また前記外部記憶部8に保存してもよい。   Here, the feature vector is an x × y × n-dimensional feature vector obtained by multiplying the cut-out constant frame number n, where the image size is x × y (vertical x pixel, horizontal y pixel) in the change area image. . Note that the calculated feature vector data may be temporarily stored in the memory (RAM) 6 or the like, or may be stored in the external storage unit 8.

S04:次元圧縮部17は、S03で算出した特徴ベクトルの次元を、次元圧縮パラメータを用いて圧縮し、次元数の少ない特徴ベクトルを得る。ここで、次元の圧縮には、映像からの類似シーン検索の分野で用いられている圧縮手法である主成分分析(PCA:Principal Component Analysis)を用いる。   S04: The dimension compression unit 17 compresses the dimension of the feature vector calculated in S03 using a dimension compression parameter, and obtains a feature vector with a small number of dimensions. Here, principal component analysis (PCA), which is a compression method used in the field of similar scene retrieval from video, is used for dimension compression.

具体的には、あらかじめ取得しておいた映像カットに対応する特徴ベクトルF(k)(k=1,...,K、Kはカットの数)の主成分分析を行う。ここで、特徴ベクトルF(k)を圧縮座標系に投影する際に、予め定めた寄与率を超える次数までの主軸に前記特徴ベクトルF(k)を投影し、そのときに得られる係数を次元圧縮パラメータとして取得して、これをあらかじめ前記次元圧縮パラメータ記憶部16に記憶しておく。そして、前記次元圧縮部17は、前記次元圧縮パラメータ記憶部16から前記次元圧縮パラメータを読み出し、これを用いてS03で算出した特徴ベクトルの次元を圧縮する。そして、圧縮した該ベクトルを次元圧縮ベクトルとし、前記非定常カット検出部19に出力する。このように前記特徴ベクトルの次元を圧縮することにより、該ベクトルの情報量を低減することができる。   Specifically, a principal component analysis of a feature vector F (k) (k = 1,..., K, K is the number of cuts) corresponding to a video cut acquired in advance is performed. Here, when the feature vector F (k) is projected onto the compression coordinate system, the feature vector F (k) is projected onto the principal axis up to the order exceeding the predetermined contribution rate, and the coefficient obtained at that time is expressed as a dimension. Obtained as a compression parameter and stored in advance in the dimension compression parameter storage unit 16. Then, the dimension compression unit 17 reads the dimension compression parameter from the dimension compression parameter storage unit 16, and uses this to compress the dimension of the feature vector calculated in S03. Then, the compressed vector is used as a dimensional compression vector and is output to the unsteady cut detection unit 19. Thus, by compressing the dimension of the feature vector, the information amount of the vector can be reduced.

なお、長時間の映像で環境条件が変化していくような場合には、逐次ある程度の時間のまとまりごとに次元圧縮パラメータを得て、次元圧縮を行ってもよい。   When the environmental condition changes with a long-time video, the dimensional compression may be performed by obtaining the dimensional compression parameter for each group of a certain amount of time.

S05:非定常カット検出部19は、あらかじめ前記外れ値検出パラメータ記憶部18に記憶されている外れ値検出パラメータを用いて、S04で算出した次元圧縮ベクトルが定常状態を示す識別空間の分布から外れているかどうかを判定し、該外れている次元圧縮ベクトルに対応する映像カットを非定常候補として検出する。   S05: The unsteady cut detection unit 19 uses the outlier detection parameter stored in the outlier detection parameter storage unit 18 in advance, and the dimension compression vector calculated in S04 deviates from the distribution of the identification space indicating the steady state. And the video cut corresponding to the off-dimensional compression vector is detected as a non-stationary candidate.

ここでは、識別手法としてサポートベクターマシン(Support Vector Machine:SVM)を用いて外れ値検出を行う。例えば1クラスSVMは、元の特徴空間における特徴ベクトルが高次特徴空間に写像されるときに、元の特徴空間における外れ点が高次特徴空間の原点付近に写像されることを利用して、外れ点検出を行う方法である。つまり、前記外れ値検出パラメータを用いることにより、識別軸上に写像された次元圧縮ベクトルの原点からの距離が外れ具合(非定常度)とみなされ、この非定常度があらかじめ定めた値(閾値)を超えるものを外れ点とする。そして、外れていると判定された次元圧縮ベクトルに対応する映像カットを非定常候補とし、これを前記非定常カット記憶部20に順次格納して、非定常候補群を生成する。   Here, outlier detection is performed using a support vector machine (SVM) as an identification method. For example, the 1 class SVM uses the fact that the outlier point in the original feature space is mapped near the origin of the higher-order feature space when the feature vector in the original feature space is mapped to the higher-order feature space, This is a method of detecting outliers. That is, by using the outlier detection parameter, the distance from the origin of the dimension compression vector mapped on the identification axis is regarded as an outlier (unsteadiness), and this unsteadiness is a predetermined value (threshold value). Exceeding) shall be the off-point. Then, the video cuts corresponding to the dimension compression vectors determined to be out of place are set as non-stationary candidates, which are sequentially stored in the non-stationary cut storage unit 20 to generate a non-stationary candidate group.

なお、外れ点を識別する前記閾値は、前記映像検出プログラムに定義されているものとする。また、前記外れ値検出パラメータは、あらかじめ取得した任意の映像カットを用いて求めてもよいし、長時間の映像で環境条件が変化していくような場合には、ある程度の時間のまとまりごとに求めてもよい。   It is assumed that the threshold value for identifying an outlier is defined in the video detection program. In addition, the outlier detection parameter may be obtained by using an arbitrary video cut acquired in advance, or when environmental conditions change in a long-time video, for every certain amount of time. You may ask for it.

S06:非定常カット表示部21は、前記非定常カット記憶部20から非定常候補群を読み出し、該候補群を前記定常カット取得部22に出力する。また、図5に示すように、読み出した非定常候補群を非定常度が高い順にディスプレイなどの前記表示装置11に表示する。これにより、ユーザは現在の非定常映像カットの候補と過去の非定常映像カットの候補とを対比しながら見ることができる。なお、このとき図5中の領域Rに映像毎の非定常度を併せて表示してもよい。   S06: The unsteady cut display unit 21 reads the unsteady candidate group from the unsteady cut storage unit 20 and outputs the candidate group to the steady cut acquisition unit 22. Moreover, as shown in FIG. 5, the read non-stationary candidate group is displayed on the display device 11 such as a display in the order of higher non-stationary degree. Thus, the user can view the current non-stationary video cut candidates and the past non-stationary video cut candidates while comparing them. At this time, the unsteadiness degree for each image may be displayed in the region R in FIG.

また、図6に示すように、非定常映像カットの候補や非定常度とともに、定常・非定常の選択インタフェース(領域S)を表示してもよい。これにより、ユーザは表示された各映像が定常であるかどうかをクリックで選択することができる。なお、ここでは選択インタフェースとしてラジオボタンが表示されているが、該インタフェースはこれに限定されるものではなく、仕様に合わせて適宜変更してもよい。   Further, as shown in FIG. 6, a stationary / unsteady selection interface (region S) may be displayed together with the unsteady video cut candidates and the unsteadiness degree. Thereby, the user can select by clicking whether or not each displayed video is steady. Here, radio buttons are displayed as the selection interface, but the interface is not limited to this, and may be appropriately changed according to the specification.

S07:S06で表示した非定常候補群の各映像に対して、マウスなどの前記入力部3からユーザによる定常・非定常の判定が入力されたかを確認する。入力があるときはS08へ、ないときはS10に進む。   S07: For each image of the non-stationary candidate group displayed in S06, it is confirmed whether or not a determination of whether the user is stationary or unsteady is input from the input unit 3 such as a mouse. When there is an input, the process proceeds to S08, and when there is no input, the process proceeds to S10.

S08:定常カット取得部22は、S06で表示した非定常候補群の各映像に対するユーザの判定結果として、各映像に付与された定常・非定常のラベルを取得する。このうち、定常のラベルに対応する映像カットを、前記非定常カット表示部21から受信した前記非定常候補群から抽出し、これを定常映像カット群として前記非定常カット検出フィードバック部23に出力する。なお、抽出した定常映像カット群のデータは、前記メモリ(RAM)6などに一時記憶してもよく、また前記外部記憶部8に保存してもよい。   S08: The steady cut acquisition unit 22 acquires a steady / unsteady label given to each video as a user determination result for each video of the non-stationary candidate group displayed in S06. Among these, a video cut corresponding to a stationary label is extracted from the non-stationary candidate group received from the non-stationary cut display unit 21 and is output to the non-stationary cut detection feedback unit 23 as a stationary video cut group. . Note that the extracted data of the regular video cut group may be temporarily stored in the memory (RAM) 6 or the like, or may be stored in the external storage unit 8.

S09:非定常カット検出フィードバック部23は、S08で抽出された定常映像カット群に対応する次元圧縮ベクトルを用いて、前記SVMの学習を行う。これにより、前記外れ値検出パラメータは、S06でユーザの行った定常・非定常の判定が反映された値に更新される。そして、前記非定常カット検出フィードバック部23は、このように更新された外れ値検出パラメータを前記外れ値検出パラメータ記憶部18に格納する。   S09: The non-stationary cut detection feedback unit 23 learns the SVM using the dimension compression vector corresponding to the stationary video cut group extracted in S08. Thereby, the outlier detection parameter is updated to a value reflecting the steady / unsteady determination made by the user in S06. The unsteady cut detection feedback unit 23 stores the outlier detection parameter updated in this way in the outlier detection parameter storage unit 18.

この更新後の外れ値検出パラメータは、次回以降の非定常候補の検出に用いられる。即ち、S05の処理にて、前記非定常カット検出部19は順次更新された外れ値検出パラメータを用いて非定常候補を検出する。したがって、以後の検出処理では、ユーザの意図が反映した非定常候補が検出され、S06において非定常度の高い映像カットが前記表示装置11に表示される。   This updated outlier detection parameter is used for detection of non-stationary candidates after the next time. That is, in the process of S05, the non-stationary cut detection unit 19 detects non-stationary candidates using the outlier detection parameters that are sequentially updated. Therefore, in the subsequent detection process, a non-stationary candidate reflecting the user's intention is detected, and a video cut with a high degree of unsteadiness is displayed on the display device 11 in S06.

S10:次に、終了条件を満たしたかの判定を行う。ここでは、全てのフレームの処理が終了した場合に、検出処理を終了する。全てのフレームの処理が終了していない場合にはS01へ戻り、終了条件を満たすまでS01〜S09を繰り返す。   S10: Next, it is determined whether the end condition is satisfied. Here, when the processing of all the frames is completed, the detection process is terminated. If all the frames have not been processed, the process returns to S01, and S01 to S09 are repeated until the end condition is satisfied.

以上のように、本実施形態に係る映像検出装置1によれば、非定常映像カットの候補に対するユーザの判断が以後の非定常映像カットの検出処理にフィードバックされることから、ユーザの意図する非定常映像カットの検出が可能になる。   As described above, according to the video detection device 1 according to the present embodiment, the user's judgment on the non-stationary video cut candidate is fed back to the subsequent non-stationary video cut detection process. It is possible to detect a steady image cut.

また、非定常映像カットの候補に対する定常・非定常の判定、および外れ値検出パラメータの更新を繰り返すことにより、ユーザそれぞれにカスタマイズされた非定常映像カットの検出が高精度に実現できる。この意味で誤検出が防止され、ユーザの作業負担が軽減される。   In addition, by repeating the determination of stationary / unsteady with respect to the unsteady video cut candidates and the update of the outlier detection parameter, the detection of unsteady video cuts customized for each user can be realized with high accuracy. In this sense, false detection is prevented and the work burden on the user is reduced.

(2)第2実施形態
図7は、本発明の第2実施形態に係る映像検出装置26を示し、該検出装置26では、前記次元圧縮パラメータ記憶部16、前記次元圧縮部17が廃止されているとともに、前記変化領域抽出部12、前記変化領域記憶部13に代わって動きベクトル算出部24、動きベクトル記憶部25が設けられている。
(2) Second Embodiment FIG. 7 shows a video detection device 26 according to a second embodiment of the present invention, in which the dimension compression parameter storage unit 16 and the dimension compression unit 17 are eliminated. In addition, instead of the change region extraction unit 12 and the change region storage unit 13, a motion vector calculation unit 24 and a motion vector storage unit 25 are provided.

即ち、該検出装置26では、入力画像から変化領域を抽出する代わりに動きベクトルを算出し、この動きベクトルを利用して非定常映像カットの候補を検出している。前記動きベクトル記憶部25は、前記変化領域記憶部13と同様に前記ハードディスクドライブ装置上にデータベースとして構築されている。   That is, the detection device 26 calculates a motion vector instead of extracting a change area from the input image, and detects a candidate for an unsteady video cut using this motion vector. The motion vector storage unit 25 is constructed as a database on the hard disk drive device in the same manner as the change area storage unit 13.

具体的には、動きベクトル算出部24は、図8に示すように、カメラ2から順次入力される画像データから動きベクトルを算出し、該ベクトルを前記動きベクトル記憶部25に順次出力する。   Specifically, as shown in FIG. 8, the motion vector calculation unit 24 calculates a motion vector from image data sequentially input from the camera 2 and sequentially outputs the vector to the motion vector storage unit 25.

前記動きベクトル記憶部25は、入力された前記動きベクトルを時系列に記憶して動きベクトル列とし、該ベクトル列を前記カット切り出し部14に出力する。   The motion vector storage unit 25 stores the input motion vectors in time series to form a motion vector sequence, and outputs the vector sequence to the cut cutout unit 14.

前記カット切り出し部14は、入力された前記動きベクトル列から一定数のフレームを切り出し、切り出されたフレームを動きベクトルカットとして前記特徴ベクトル算出部15に出力する。   The cut cutout unit 14 cuts out a certain number of frames from the input motion vector sequence, and outputs the cut out frames to the feature vector calculation unit 15 as motion vector cuts.

前記特徴ベクトル算出部15は、入力された前記動きベクトルカットから特徴ベクトルを算出し、算出した該特徴ベクトルを前記非定常カット検出部19に出力する。   The feature vector calculation unit 15 calculates a feature vector from the input motion vector cut, and outputs the calculated feature vector to the unsteady cut detection unit 19.

そして、第1実施形態と同様に、算出された特徴ベクトルを用いて非定常候補を検出し、検出した非定常候補に対するユーザの判定結果を用いて外れ値検出パラメータを更新して、更新した該パラメータを以後の検出処理にフィードバックさせている。   Then, as in the first embodiment, the non-stationary candidate is detected using the calculated feature vector, the outlier detection parameter is updated using the user's determination result for the detected non-stationary candidate, and the updated The parameter is fed back to the subsequent detection process.

なお、本実施形態における前記各機能ブロック14.15.18〜25の入出力データの詳細を表2に示しておく。   Table 2 shows details of input / output data of each of the functional blocks 14.15.18 to 25 in the present embodiment.

Figure 2010087937
Figure 2010087937

以下、本実施形態における前記各機能ブロック14.15.18〜25の実行する処理ステップを、図9のフローチャートに基づき説明する。図9中のS21〜S29は表2の入出力データに基づいて処理されている。   Hereinafter, processing steps executed by each of the functional blocks 14.15.18 to 25 in the present embodiment will be described based on the flowchart of FIG. S21 to S29 in FIG. 9 are processed based on the input / output data in Table 2.

S21:まず、動きベクトル算出部24は、カメラ2で撮影された現時点の入力画像データからオプティカルフローを検出する。オプティカルフローは、画像上の各点における移動量と方向を表したもので、時間的に連続した画像間の対応点を探索することで求められる。オプティカルフローの検出では、輝度勾配に基づく方法や、領域のマッチングに基づく方法が考えられるが、シーンによって安定的にフローが出る方法を選択すればよい。   S21: First, the motion vector calculation unit 24 detects the optical flow from the current input image data photographed by the camera 2. The optical flow represents the amount of movement and direction at each point on the image, and is obtained by searching for corresponding points between temporally continuous images. For the detection of optical flow, a method based on luminance gradient and a method based on region matching are conceivable, but a method in which a flow is stably generated may be selected depending on the scene.

そして、検出したオプティカルフローの検出始点の画素位置(u,v)と動き方向(U,V)を動きベクトルとして算出し、該動きベクトルのデータを前記動きベクトル記憶部25に順次格納して、動きベクトル列を生成する。   Then, the pixel position (u, v) and the motion direction (U, V) at the detection start point of the detected optical flow are calculated as motion vectors, and the motion vector data are sequentially stored in the motion vector storage unit 25, Generate a motion vector sequence.

S22:カット切り出し部14は、前記動きベクトル記憶部25に蓄積された前記動きベクトル列を読み出し、該ベクトル列から一定数分(または一定時間分)のフレームを切り出す。そして、切り出した一定数のフレームを動きベクトルカットとして前記特徴ベクトル算出部15に出力する。   S22: The cut cutout unit 14 reads the motion vector sequence stored in the motion vector storage unit 25, and cuts out a certain number of frames (or a fixed time) from the vector sequence. Then, the fixed number of cut out frames are output to the feature vector calculation unit 15 as a motion vector cut.

なお、動きベクトルカットの切り出しは、一定数分のフレームが前記動きベクトル記憶部25に蓄積される毎に行ってもよい。また、切り出された動きベクトルカットは、前記メモリ(RAM)6などに一時記憶してもよく、また前記外部記憶部8に保存してもよい。   The motion vector cut may be cut out every time a certain number of frames are accumulated in the motion vector storage unit 25. The extracted motion vector cut may be temporarily stored in the memory (RAM) 6 or the like, or may be stored in the external storage unit 8.

S23:特徴ベクトル算出部15は、前記カット切り出し部14で切り出された前記動きベクトルカットから、該動きベクトルカットに対応する特徴ベクトルを算出し、算出した該ベクトルを前記非定常カット検出部19に出力する。ここで特徴ベクトルは、一定のフレーム数n分の動きベクトル(u,v,U,V)に対応する特徴ベクトルである。   S23: The feature vector calculation unit 15 calculates a feature vector corresponding to the motion vector cut from the motion vector cut cut out by the cut cutout unit 14, and sends the calculated vector to the unsteady cut detection unit 19. Output. Here, the feature vector is a feature vector corresponding to a certain number n of motion vectors (u, v, U, V).

算出した特徴ベクトルは、前記メモリ(RAM)6などに一時記憶してもよく、また前記外部記憶部8に保存してもよい。また、第1実施形態と同様に、前記次元圧縮パラメータ記憶部16および前記次元圧縮部17を設けて前記算出した特徴ベクトルの次元圧縮を行い、該圧縮された特徴ベクトルを前記非定常カット検出部19に出力するようにしてもよい。   The calculated feature vector may be temporarily stored in the memory (RAM) 6 or the like, or may be stored in the external storage unit 8. Similarly to the first embodiment, the dimension compression parameter storage unit 16 and the dimension compression unit 17 are provided to perform dimension compression of the calculated feature vector, and the compressed feature vector is converted into the unsteady cut detection unit. 19 may be output.

S24〜S29:S05〜S10と同様に、S23で算出された特徴ベクトルと外れ値検出パラメータとを用いて非定常候補を検出し、これを前記非定常カット記憶部20に順次格納する(S24)。そして、格納された非定常候補群を前記表示装置11に表示し(S25)、表示した非定常候補群の各映像に対するユーザの判断に基づいて定常映像カット群を取得する(S27)。そして、取得した定常映像カット群に対応する特徴ベクトルを用いて前記SVMの学習を行うことにより、外れ値検出パラメータを更新し、更新後の該パラメータを前記外れ値検出パラメータ記憶部18に格納する(S28)。そして、S24の処理にて、前記非定常カット検出部19は順次更新された外れ値検出パラメータを用いて非定常候補を検出する。   S24 to S29: Similarly to S05 to S10, non-stationary candidates are detected using the feature vector calculated in S23 and outlier detection parameters, and these are sequentially stored in the non-stationary cut storage unit 20 (S24). . Then, the stored unsteady candidate group is displayed on the display device 11 (S25), and a steady image cut group is acquired based on the user's judgment on each image of the displayed unsteady candidate group (S27). Then, the outlier detection parameter is updated by learning the SVM using the feature vector corresponding to the acquired stationary video cut group, and the updated parameter is stored in the outlier detection parameter storage unit 18. (S28). In the process of S24, the unsteady cut detection unit 19 detects unsteady candidates using the outlier detection parameters that are sequentially updated.

以上のように、本実施形態に係る映像検出装置26によれば、入力画像から算出した動きベクトルを用いて非定常映像カットの候補を検出しているものの、検出した非定常映像カットの候補に対するユーザの判断が以後の検出処理にフィードバックされることから、第1実施形態と同等の効果を奏することができる。   As described above, according to the video detection device 26 according to the present embodiment, although the non-stationary video cut candidate is detected using the motion vector calculated from the input image, the detected non-stationary video cut candidate is detected. Since the user's judgment is fed back to the subsequent detection process, the same effect as that of the first embodiment can be obtained.

なお、本発明は、上記実施形態に限定されるものではなく、例えばコンピュータを前記映像検出装置1.26の各機能ブロック12〜25として機能させる映像検出プログラムとしても提供することができる。このプログラムは、第1.2実施形態の全ての処理ステップをコンピュータに実行させるものでもよく、あるいは一部の処理ステップを実行させるものであってもよい。   In addition, this invention is not limited to the said embodiment, For example, a computer can be provided as a video detection program which functions as each functional block 12-25 of the said video detection apparatus 1.26. This program may cause the computer to execute all the processing steps of the first embodiment, or may execute a part of the processing steps.

このプログラムは、Webサイトなどからのダウンロードによってコンピュータに提供される。また、前記プログラムは、CD−ROM,DVD−ROM,CD−R,CD−RW,DVD−R,DVD−RW,MO,HDD,Blu−ray Disk(登録商標)などの記録媒体10に格納してコンピュータに提供してもよい。   This program is provided to the computer by downloading from a website or the like. The program is stored in a recording medium 10 such as a CD-ROM, a DVD-ROM, a CD-R, a CD-RW, a DVD-R, a DVD-RW, an MO, an HDD, or a Blu-ray Disk (registered trademark). May be provided to a computer.

本発明の第1実施形態に係る映像検出装置の構成図。1 is a configuration diagram of a video detection apparatus according to a first embodiment of the present invention. 同 主要機能ブロック図。The main functional block diagram. 同 入出力データ図。The input / output data diagram. 同 処理フロー図。FIG. 同 非定常映像カット群の表示例。Display example of the same unsteady video cut group. 同 非定常映像カット群の表示の他例。The other example of the display of the same unsteady image cut group. 本発明の第2実施形態に係る映像検出装置の主要機能ブロック図。The main functional block diagram of the image | video detection apparatus which concerns on 2nd Embodiment of this invention. 同 入出力データ図。The input / output data diagram. 同 処理フロー図。FIG.

符号の説明Explanation of symbols

1.26…映像検出装置
2…カメラ(撮像装置)
3…入力部
4…読み取り専用メモリ(ROM)
5…処理部(CPU)
6…書き換え可能メモリ(RAM)
7…通信インタフェース部
8…外部記憶部
9…記録媒体駆動部
10…記録媒体
11…表示装置
12…変化領域抽出部(抽出手段)
13…変化領域記憶部
14…カット切り出し部
15…特徴ベクトル算出部(特徴量算出手段)
16…次元圧縮パラメータ記憶部
17…次元圧縮部(圧縮手段)
18…外れ値検出パラメータ記憶部
19…非定常カット検出部(検出手段)
20…非定常カット記憶部
21…非定常カット表示部(表示手段)
22…定常カット取得部
23…非定常カット検出フィードバック部(フィードバック手段)
24…動きベクトル算出部(ベクトル算出手段)
25…動きベクトル記憶部
R…非定常度の表示領域
S…選択インタフェースの表示領域
1.26 ... Video detection device 2 ... Camera (imaging device)
3 ... Input unit 4 ... Read only memory (ROM)
5. Processing unit (CPU)
6 ... Rewritable memory (RAM)
DESCRIPTION OF SYMBOLS 7 ... Communication interface part 8 ... External storage part 9 ... Recording medium drive part 10 ... Recording medium 11 ... Display apparatus 12 ... Change area extraction part (extraction means)
DESCRIPTION OF SYMBOLS 13 ... Change area memory | storage part 14 ... Cut cutout part 15 ... Feature vector calculation part (feature amount calculation means)
16 ... Dimension compression parameter storage unit 17 ... Dimension compression unit (compression means)
18 ... Outlier detection parameter storage unit 19 ... Unsteady cut detection unit (detection means)
20 ... Unsteady cut storage unit 21 ... Unsteady cut display unit (display means)
22 ... Steady cut acquisition unit 23 ... Unsteady cut detection feedback unit (feedback means)
24 ... Motion vector calculation unit (vector calculation means)
25: Motion vector storage unit R: Display area of non-stationary degree S: Display area of selected interface

Claims (9)

撮像装置をもって空間を撮影した映像中、該撮影空間の非定常的な映像カットを検出する映像検出装置であって、
前記撮像装置から連続的に入力されたフレームに変化が現れた変化領域を抽出する抽出手段と、
前記変化領域の画像を任意列に切り出した映像カットから、変化の特徴ベクトルを求める特徴量算出手段と、
前記特徴ベクトルが前記撮影空間の定常状態を示す識別空間の分布から外れている値を求め、該値が閾値を超えているときに非定常的な映像カットの候補とする検出手段と、
前記候補中、ユーザが定常とみなした映像カットの前記特徴ベクトルを用いて前記閾値を順次更新して、前記検出手段の検出処理に反映させるフィードバック手段と、
を備えることを特徴とする映像検出装置。
A video detection device for detecting a non-stationary video cut in a shooting space in a video shot of a space with an imaging device,
Extracting means for extracting a change area in which a change appears in frames continuously input from the imaging device;
Feature amount calculation means for obtaining a feature vector of change from a video cut obtained by cutting out the image of the change area into an arbitrary column;
A detection means for obtaining a value that deviates from the distribution of the identification space indicating the steady state of the shooting space, and when the value exceeds a threshold value,
Feedback means for sequentially updating the threshold value using the feature vector of the video cut that the user considers to be stationary among the candidates, and reflecting it in the detection process of the detection means;
A video detection apparatus comprising:
撮像装置をもって空間を撮影した映像中、該撮影空間の非定常的な映像カットを検出する映像検出装置であって、
前記撮像装置から連続的に入力されたフレームから動体を抽出し、該抽出された動体の動き方向の特徴量を動きベクトルとして求めるベクトル算出手段と、
前記動きベクトルを任意列に切り出した動きベクトルカットから、動体の動きの特徴ベクトルを求める特徴量算出手段と、
前記特徴ベクトルが前記撮影空間の定常状態を示す識別空間の分布から外れている値を求め、該値が閾値を超えているときに非定常的な映像カットの候補とする検出手段と、
前記候補中、ユーザが定常とみなした映像カットの前記特徴ベクトルを用いて前記閾値を順次更新して、前記検出手段の検出処理に反映させるフィードバック手段と、
を備えることを特徴とする映像検出装置。
A video detection device for detecting a non-stationary video cut in a shooting space in a video shot of a space with an imaging device,
A vector calculation means for extracting a moving object from frames continuously input from the imaging device and obtaining a feature quantity in the movement direction of the extracted moving object as a motion vector;
A feature quantity calculating means for obtaining a motion feature vector of a moving object from a motion vector cut obtained by cutting the motion vector into an arbitrary column;
A detection means for obtaining a value that deviates from the distribution of the identification space indicating the steady state of the shooting space, and when the value exceeds a threshold value,
Feedback means for sequentially updating the threshold value using the feature vector of the video cut that the user considers to be stationary among the candidates, and reflecting it in the detection process of the detection means;
A video detection apparatus comprising:
前記特徴ベクトルの次元を圧縮する圧縮手段をさらに備えているとともに、
前記検出手段において、次元圧縮された前記特徴ベクトルが前記識別空間の分布から外れている値を求める
ことを特徴とする請求項1または2のいずれか1項に記載の映像検出装置。
And further comprising compression means for compressing the dimension of the feature vector,
3. The video detection apparatus according to claim 1, wherein the detection unit obtains a value in which the dimension-compressed feature vector deviates from the distribution of the identification space. 4.
前記検出手段の検出した非定常な映像カットの候補をユーザに提示する表示手段をさらに備え、
前記表示手段が、前記閾値の更新前に検出した非定常な映像カットの候補を併せて表示可能なこと
を特徴とする請求項1〜3のいずれか1項に記載の映像検出装置。
And further comprising display means for presenting a user with the unsteady video cut candidate detected by the detection means,
The video detection apparatus according to any one of claims 1 to 3, wherein the display unit is capable of displaying a non-stationary video cut candidate detected before the threshold is updated.
撮像装置をもって空間を撮影した映像中、該撮影空間の非定常的な映像カットを検出する映像検出方法であって、
抽出手段が、前記撮像装置から連続的に入力されたフレームに変化が現れた変化領域を抽出する第1ステップと、
特徴量算出手段が、前記変化領域の画像を任意列に切り出した映像カットから変化の特徴ベクトルを求める第2ステップと、
検出手段が、前記撮影空間の定常状態を示す識別空間の分布から前記特徴ベクトルが外れている値を求め、該値が閾値を超えているときに非定常的な映像カットの候補とする第3ステップと、
フィードバック手段が、前記候補中、ユーザが定常とみなした映像カットの前記特徴ベクトルを用いて前記閾値を順次更新して、前記検出手段の検出処理に反映させる第4ステップと、
を有することを特徴とする映像検出方法。
A video detection method for detecting a non-stationary video cut in a shooting space in a video shot of a space with an imaging device,
A first step of extracting a change area in which a change appears in frames continuously input from the imaging device;
A second step in which a feature quantity calculating means obtains a feature vector of change from a video cut obtained by cutting out the image of the change area into an arbitrary column;
The detection means obtains a value that deviates the feature vector from the distribution of the identification space indicating the steady state of the shooting space, and when the value exceeds a threshold value, a third candidate is set as a non-stationary video cut candidate. Steps,
A fourth step in which the feedback means sequentially updates the threshold value using the feature vector of the video cut that the user considers to be stationary among the candidates, and reflects it in the detection process of the detection means;
A video detection method comprising:
撮像装置をもって空間を撮影した映像中、該撮影空間の非定常的な映像カットを検出する映像検出方法であって、
ベクトル算出手段が、前記撮像装置から連続的に入力されたフレームから動体を抽出し、該抽出された動体の動き方向の特徴量を動きベクトルとして求める第1ステップと、
特徴量算出手段が、前記動きベクトルを任意列に切り出した動きベクトルカットから、動体の動きの特徴ベクトルを求める第2ステップと、
検出手段が、前記撮影空間の定常状態を示す識別空間の分布から前記特徴ベクトルが外れている値を求め、該値が閾値を超えているときに非定常的な映像カットの候補とする第3ステップと、
フィードバック手段が、前記候補中、ユーザが定常とみなした映像カットの前記特徴ベクトルを用いて前記閾値を順次更新して、前記検出手段の検出処理に反映させる第4ステップと、
を有することを特徴とする映像検出方法。
A video detection method for detecting a non-stationary video cut in a shooting space in a video shot of a space with an imaging device,
A first step in which a vector calculating means extracts a moving object from frames continuously input from the imaging device, and obtains a feature quantity in the moving direction of the extracted moving object as a motion vector;
A second step of calculating a feature vector of motion of the moving object from a motion vector cut obtained by cutting out the motion vector into an arbitrary column;
The detection means obtains a value that deviates the feature vector from the distribution of the identification space indicating the steady state of the shooting space, and when the value exceeds a threshold value, a third candidate is set as a non-stationary video cut candidate. Steps,
A fourth step in which the feedback means sequentially updates the threshold value using the feature vector of the video cut that the user considers to be stationary among the candidates, and reflects it in the detection process of the detection means;
A video detection method comprising:
前記特徴ベクトルの次元を圧縮するステップをさらに有し、
前記第3ステップにおいて、次元圧縮された前記特徴ベクトルが前記識別空間の分布から外れている値を求める
ことを特徴とする請求項5または6のいずれか1項に記載の映像検出方法。
Further comprising compressing the dimension of the feature vector;
The video detection method according to claim 5, wherein, in the third step, a value in which the dimension-compressed feature vector deviates from the distribution of the identification space is obtained.
前記第3ステップにおいて検出した非定常な映像カットの候補をユーザに提示するステップをさらに有し、
該ステップにおいて、前記閾値の更新前に検出した非定常な映像カットの候補を併せて表示可能なこと
を特徴とする請求項5〜7のいずれか1項に記載の映像検出方法。
Further comprising the step of presenting a non-stationary video cut candidate detected in the third step to the user,
The video detection method according to any one of claims 5 to 7, wherein in the step, candidates for unsteady video cuts detected before the threshold value is updated can be displayed together.
請求項1〜4のいずれか1項に記載の映像検出装置を構成する各手段としてコンピュータを機能させることを特徴とする映像検出プログラム。   A video detection program for causing a computer to function as each means constituting the video detection device according to claim 1.
JP2008255885A 2008-10-01 2008-10-01 Video detection device, video detection method and video detection program Pending JP2010087937A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008255885A JP2010087937A (en) 2008-10-01 2008-10-01 Video detection device, video detection method and video detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008255885A JP2010087937A (en) 2008-10-01 2008-10-01 Video detection device, video detection method and video detection program

Publications (1)

Publication Number Publication Date
JP2010087937A true JP2010087937A (en) 2010-04-15

Family

ID=42251414

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008255885A Pending JP2010087937A (en) 2008-10-01 2008-10-01 Video detection device, video detection method and video detection program

Country Status (1)

Country Link
JP (1) JP2010087937A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104301712A (en) * 2014-08-25 2015-01-21 浙江工业大学 Monitoring camera shaking detection method based on video analysis
WO2016107216A1 (en) * 2014-12-30 2016-07-07 华为技术有限公司 Video detection method and device
WO2021166688A1 (en) * 2020-02-19 2021-08-26 株式会社日立国際電気 Event detecting system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104301712A (en) * 2014-08-25 2015-01-21 浙江工业大学 Monitoring camera shaking detection method based on video analysis
WO2016107216A1 (en) * 2014-12-30 2016-07-07 华为技术有限公司 Video detection method and device
CN105809659A (en) * 2014-12-30 2016-07-27 华为技术有限公司 Video detection method and device
CN105809659B (en) * 2014-12-30 2019-05-03 华为技术有限公司 A kind of video detecting method and device
WO2021166688A1 (en) * 2020-02-19 2021-08-26 株式会社日立国際電気 Event detecting system

Similar Documents

Publication Publication Date Title
US10218899B2 (en) Control method in image capture system, control apparatus and a non-transitory computer-readable storage medium
US8472668B2 (en) Image analyzing apparatus, image analyzing method, and computer readable medium
JP5208893B2 (en) Moving object tracking device
JP2018160219A (en) Moving route prediction device and method for predicting moving route
US10146992B2 (en) Image processing apparatus, image processing method, and storage medium that recognize an image based on a designated object type
JP5388829B2 (en) Intruder detection device
JP6436077B2 (en) Image processing system, image processing method, and program
JPWO2015137190A1 (en) Video surveillance support apparatus, video surveillance support method, and storage medium
JPWO2014010174A1 (en) Angle of view variation detection device, angle of view variation detection method, and field angle variation detection program
JP2019152802A (en) Work operation analysis system and work operation analysis method
KR101979375B1 (en) Method of predicting object behavior of surveillance video
JP2010015469A (en) Still area detection method, and apparatus, program and recording medium therefor
JP4572175B2 (en) Unsteady image detection device, unsteady image detection method, and program implementing the method
JP4641492B2 (en) Singular image detection device, singular image detection method and program
JP2010087937A (en) Video detection device, video detection method and video detection program
JP5002575B2 (en) Unsteady degree estimation device, unsteady degree estimation method, unsteady degree estimation program
US10007842B2 (en) Same person determination device and method, and control program therefor
JP6527183B2 (en) Leftover object detection device
US11527091B2 (en) Analyzing apparatus, control method, and program
JP2021144525A (en) Detection apparatus, detection method, and program
JP4773998B2 (en) Surveillance camera system, moving image search device, face image database update device, and operation control method thereof
US11205258B2 (en) Image processing apparatus, image processing method, and storage medium
US20170255818A1 (en) Person verification system and person verification method
JP5599228B2 (en) Busy detection system and busy detection program
CN111860070A (en) Method and device for identifying changed object

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20100609