JP2010087937A - Video detection device, video detection method and video detection program - Google Patents
Video detection device, video detection method and video detection program Download PDFInfo
- Publication number
- JP2010087937A JP2010087937A JP2008255885A JP2008255885A JP2010087937A JP 2010087937 A JP2010087937 A JP 2010087937A JP 2008255885 A JP2008255885 A JP 2008255885A JP 2008255885 A JP2008255885 A JP 2008255885A JP 2010087937 A JP2010087937 A JP 2010087937A
- Authority
- JP
- Japan
- Prior art keywords
- video
- cut
- detection
- stationary
- feature vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
Abstract
Description
本発明は、撮像装置(例えばカメラ、ビデオカメラなど)で撮影された映像中から、画像処理により非定常なカットを検出する技術に関する。 The present invention relates to a technique for detecting an unsteady cut by image processing from video captured by an imaging device (for example, a camera or a video camera).
現在、カメラによる監視システムが多く利用されているが、人による動画像からの異常検出は労力も多大であり、これをコンピュータで代替できるならば大変な労力削減につながる。例えば、銀行などではATM操作での挙動不審を検出することなどが可能となる。また、老人介護においては、発作などに対する自動通報システムがあれば介護者の負担を減らすことができる。そのため、異常を通知するなどのカメラによるモニタリングシステムが必要とされている。 Currently, many surveillance systems using cameras are used, but detection of anomalies from moving images by humans is labor intensive, and if this can be replaced by a computer, it will lead to a significant labor reduction. For example, a bank or the like can detect a suspicious behavior in an ATM operation. In elderly care, if there is an automatic notification system for seizures, the burden on the caregiver can be reduced. Therefore, there is a need for a camera monitoring system for notifying abnormality.
従来の非定常映像検出技術としては、非特許文献1に記載の異常動作をあらかじめ学習しておき非定常映像検出を行う方法、および非特許文献2に記載の学習なしで非定常映像検出を行う方法が知られている。
As the conventional non-stationary video detection technique, the abnormal operation described in Non-Patent Document 1 is learned in advance and the non-stationary video detection is performed, and the non-stationary video detection is performed without learning described in Non-Patent
非特許文献1記載の検出方法では、異常動作をあらかじめ学習しておくことで、エレベーターにおける人物の暴れを検知している。また、非特許文献2記載の検出方法では、それまでの映像から抽出した人物の動き特徴と大きく異なる特徴を持った映像を異常動作として検出している。
しかしながら、上述の非定常映像検出技術では、学習の有無に関わらず、非定常と判定する基準は手法に大きく依存するため、ユーザの意図するような非定常映像を検出することは難しい。 However, in the above-described non-stationary video detection technique, the criterion for determining non-stationary regardless of the presence or absence of learning largely depends on the method, and it is difficult to detect a non-stationary video as intended by the user.
そこで、本発明は、このような問題に鑑み、非定常映像の候補に対するユーザの定常・非定常の判定結果を検出処理にフィードバックすることにより、ユーザの意図する非定常映像の検出を可能にすることを解決課題としている。 Therefore, in view of such problems, the present invention enables detection of a non-stationary video intended by the user by feeding back a result of determination of the user's steady / non-stationary with respect to a candidate for non-stationary video to a detection process. This is a solution issue.
本発明は、前記課題を解決するために創作された技術的思想であって、背景が変化した箇所を基準に所定フレームの部分映像を取得し、該部分映像の特徴ベクトルを用いて、定常状態を示す空間から外れている距離が所定閾値以上であれば非定常映像の候補とし、ユーザに提示して定常・非定常を判別してもらう。そして、定常と指定された映像区間により所定閾値が更新されて、検出処理にフィードバックされる。 The present invention is a technical idea created in order to solve the above-described problem, and acquires a partial video of a predetermined frame on the basis of a place where the background has changed, and uses a feature vector of the partial video to obtain a steady state. If the distance deviating from the space showing is equal to or greater than a predetermined threshold, it is determined as a candidate for a non-stationary video, and is presented to the user to determine whether it is stationary or non-stationary. Then, the predetermined threshold is updated by the video section designated as steady and fed back to the detection process.
具体的には、請求項1記載の発明は、撮像装置をもって空間を撮影した映像中、該撮影空間の非定常的な映像カットを検出する映像検出装置であって、前記撮像装置から連続的に入力されたフレームに変化が現れた変化領域を抽出する抽出手段と、前記変化領域の画像を任意列に切り出した映像カットから、変化の特徴ベクトルを求める特徴量算出手段と、前記特徴ベクトルが前記撮影空間の定常状態を示す識別空間の分布から外れている値を求め、該値が閾値を超えているときに非定常的な映像カットの候補とする検出手段と、前記候補中、ユーザが定常とみなした映像カットの前記特徴ベクトルを用いて前記閾値を順次更新して、前記検出手段の検出処理に反映させるフィードバック手段とを備えることを特徴としている。 Specifically, the invention described in claim 1 is a video detection device that detects an unsteady video cut in a shooting space in a video shot of a space by the imaging device, and is continuously from the imaging device. Extraction means for extracting a change area in which a change appears in an input frame; feature quantity calculation means for obtaining a feature vector of change from a video cut obtained by cutting out an image of the change area into an arbitrary column; and A value that deviates from the distribution of the identification space indicating the steady state of the imaging space is obtained, and when the value exceeds a threshold value, detection means that is a non-stationary video cut candidate, and among the candidates, the user is stationary Feedback means for sequentially updating the threshold value using the feature vector of the video cut considered to be reflected in the detection process of the detection means.
また、請求項2記載の発明は、撮像装置をもって空間を撮影した映像中、該撮影空間の非定常的な映像カットを検出する映像検出装置であって、前記撮像装置から連続的に入力されたフレームから動体を抽出し、該抽出された動体の動き方向の特徴量を動きベクトルとして求めるベクトル算出手段と、前記動きベクトルを任意列に切り出した動きベクトルカットから、動体の動きの特徴ベクトルを求める特徴量算出手段と、前記特徴ベクトルが前記撮影空間の定常状態を示す識別空間の分布から外れている値を求め、該値が閾値を超えているときに非定常的な映像カットの候補とする検出手段と、前記候補中、ユーザが定常とみなした映像カットの前記特徴ベクトルを用いて前記閾値を順次更新して、前記検出手段の検出処理に反映させるフィードバック手段とを備えることを特徴としている。
The invention described in
また、請求項3記載の発明は、前記特徴ベクトルの次元を圧縮する圧縮手段をさらに備えているとともに、前記検出手段において、次元圧縮された前記特徴ベクトルが前記識別空間の分布から外れている値を求めることを特徴としている。
The invention according to
また、請求項4記載の発明は、前記検出手段の検出した非定常な映像カットの候補をユーザに提示する表示手段をさらに備え、前記表示手段が、前記閾値の更新前に検出した非定常な映像カットの候補を併せて表示可能なことを特徴としている。 The invention according to claim 4 further includes display means for presenting a non-stationary video cut candidate detected by the detection means to a user, and the display means detects the non-stationary image detected before the threshold is updated. It is characterized by being able to display video cut candidates together.
また、請求項5記載の発明は、撮像装置をもって空間を撮影した映像中、該撮影空間の非定常的な映像カットを検出する映像検出方法であって、抽出手段が、前記撮像装置から連続的に入力されたフレームに変化が現れた変化領域を抽出する第1ステップと、特徴量算出手段が、前記変化領域の画像を任意列に切り出した映像カットから変化の特徴ベクトルを求める第2ステップと、検出手段が、前記撮影空間の定常状態を示す識別空間の分布から前記特徴ベクトルが外れている値を求め、該値が閾値を超えているときに非定常的な映像カットの候補とする第3ステップと、フィードバック手段が、前記候補中、ユーザが定常とみなした映像カットの前記特徴ベクトルを用いて前記閾値を順次更新して、前記検出手段の検出処理に反映させる第4ステップとを有することを特徴としている。
The invention described in
また、請求項6記載の発明は、撮像装置をもって空間を撮影した映像中、該撮影空間の非定常的な映像カットを検出する映像検出方法であって、ベクトル算出手段が、前記撮像装置から連続的に入力されたフレームから動体を抽出し、該抽出された動体の動き方向の特徴量を動きベクトルとして求める第1ステップと、特徴量算出手段が、前記動きベクトルを任意列に切り出した動きベクトルカットから、動体の動きの特徴ベクトルを求める第2ステップと、検出手段が、前記撮影空間の定常状態を示す識別空間の分布から前記特徴ベクトルが外れている値を求め、該値が閾値を超えているときに非定常的な映像カットの候補とする第3ステップと、フィードバック手段が、前記候補中、ユーザが定常とみなした映像カットの前記特徴ベクトルを用いて前記閾値を順次更新して、前記検出手段の検出処理に反映させる第4ステップとを有することを特徴としている。 The invention described in claim 6 is a video detection method for detecting a non-stationary video cut in a shooting space in a video shot of a space by the imaging device, wherein the vector calculation means is continuously connected to the imaging device. A first step of extracting a moving object from a frame that is input automatically, and obtaining a feature quantity in the motion direction of the extracted moving object as a motion vector, and a motion vector in which the feature quantity calculation means cuts the motion vector into an arbitrary column A second step of obtaining a feature vector of motion of the moving object from the cut; and a detecting means obtains a value that is out of the feature vector from the distribution of the identification space indicating the steady state of the shooting space, and the value exceeds a threshold value And a third step of selecting a non-stationary video cut as a candidate and the feature vector of the video cut that the feedback unit considers to be stationary among the candidates. Sequentially updates the threshold using, is characterized by a fourth step of reflecting the detection process of the detection means.
また、請求項7記載の発明は、前記特徴ベクトルの次元を圧縮するステップをさらに有し、前記第3ステップにおいて、次元圧縮された前記特徴ベクトルが前記識別空間の分布から外れている値を求めることを特徴としている。
The invention according to
また、請求項8記載の発明は、前記第3ステップにおいて検出した非定常な映像カットの候補をユーザに提示するステップをさらに有し、該ステップにおいて、前記閾値の更新前に検出した非定常な映像カットの候補を併せて表示可能なことを特徴としている。 The invention according to claim 8 further includes a step of presenting a non-stationary video cut candidate detected in the third step to the user, and in this step, the non-stationary detected before the threshold is updated. It is characterized by being able to display video cut candidates together.
また、請求項9記載の発明は、映像検出プログラムであり、請求項1〜4のいずれか1項に記載の映像検出装置を構成する各手段としてコンピュータを機能させることを特徴としている。
The invention described in
請求項1〜9記載の発明によれば、非定常映像の候補に対するユーザの判定結果が以後の検出処理に反映されることから、ユーザの意図する検出が可能になる。 According to the first to ninth aspects of the present invention, the determination result of the user with respect to the candidate for the unsteady video is reflected in the subsequent detection processing, so that the detection intended by the user is possible.
特に、請求項4.8記載の発明によれば、現在の非定常映像の候補と過去の非定常映像の候補とを対比して確認することができる。 In particular, according to the invention of claim 4.8, the current non-stationary video candidate and the past non-stationary video candidate can be compared and confirmed.
本発明では、所定位置に固定されたカメラなどの撮像装置をもって、一定の空間を連続的に撮影した映像中、該空間の非定常な映像カットを検出している。撮影空間としては、例えば銀行のATMコーナーや、エレベーターのかご内などが挙げられる。この場合には、ATMコーナーの天井などに設置されたカメラで内部空間が連続的に撮影される。このとき、カメラで不審者の侵入などの非定常状態が撮影されると、そのシーンの映像カットが検出される。 In the present invention, an unsteady image cut in the space is detected in an image obtained by continuously capturing a certain space with an imaging device such as a camera fixed at a predetermined position. Examples of the shooting space include an ATM corner of a bank and an elevator car. In this case, the internal space is continuously photographed by a camera installed on the ceiling of an ATM corner or the like. At this time, when an unsteady state such as the intrusion of a suspicious person is photographed by the camera, a video cut of the scene is detected.
ここでは、前記撮像装置で撮影された画像(フレーム画像)が映像検出装置に時系列的に入力される状況(静止画系列や映像ストリームなど)を想定して説明する。また、ここでは前記映像検出装置がコンピュータにより構成された例を説明するが、映像検出装置はこれに限定されるものではなく、例えば映像検出の処理ロジックを実装したIC(Integrated Circuit)チップを備えた計算機などでもよい。 Here, a description will be given assuming a situation (a still image series, a video stream, etc.) in which images (frame images) captured by the imaging device are input to the video detection device in a time series. In addition, although an example in which the video detection device is configured by a computer will be described here, the video detection device is not limited to this, and includes, for example, an IC (Integrated Circuit) chip on which video detection processing logic is mounted. It may be a calculator.
(1)第1実施形態
図1は、本発明の第1実施形態に係る映像検出装置1を示し、該映像検出装置1には、カメラ2で撮影された画像データがネットワークを介して時系列に入力されている。ここでは撮像装置としてのカメラ2にデジタルカメラあるいはデジタルビデオカメラが使用されているものとする。
(1) First Embodiment FIG. 1 shows a video detection apparatus 1 according to a first embodiment of the present invention. In the video detection apparatus 1, image data taken by a
前記映像検出装置1は、図1に示すように、キーボードやマウスなどの入力部3と、固定データなどを記憶する読み取り専用メモリ(ROM)4と、各部の制御や計算処理などを行う処理部(CPU:Central Processor Unit等)5と、処理データなどを一時記憶する書き換え可能なメモリ(RAM)6と、前記カメラ2などとのネットワーク接続に使用する通信インタフェース部(I/F)7と、ハードディスクドライブ装置などの外部記憶部8と、CD−ROMやDVD−ROMなどの記録媒体10を読み込む記録媒体駆動部9とを備えている。また、該映像検出装置1には、処理データなどを表示するディスプレイなどの表示装置11が接続されている。
As shown in FIG. 1, the video detection apparatus 1 includes an
前記各構成要素3〜9は、図2に示すように、変化領域抽出部12、変化領域記憶部13、カット切り出し部14、特徴ベクトル算出部15、次元圧縮パラメータ記憶部16、次元圧縮部17、外れ値検出パラメータ記憶部18、非定常カット検出部19、非定常カット記憶部20、非定常カット表示部21、定常カット取得部22、非定常カット検出フィードバック部23として機能している。前記各機能ブロック12〜23の機能は、前記処理部(CPU)5が映像検出プログラムを読み込んで実現されている。このうち前記各記憶部13.16.18.20は、前記ハードディスクドライブ装置上にデータベースとして構築されている。
As shown in FIG. 2, each of the
具体的には、前記変化領域抽出部12には、図3に示すように、前記カメラ2で撮影された画像データ(フレーム)が時系列で順次入力されている。この画像データから変化の表れた変化領域を抽出し、抽出した変化領域画像のデータを前記変化領域記憶部13に順次出力する。
Specifically, as shown in FIG. 3, image data (frames) photographed by the
前記変化領域記憶部13は、入力された前記変化領域画像のデータを時系列に記憶して変化領域画像列とし、該画像列のデータを前記カット切り出し部14に出力する。
The change
前記カット切り出し部14は、入力された前記変化領域画像列から一定数のフレームを切り出し、切り出されたフレームを変化領域映像カットとして前記特徴ベクトル算出部15に出力する。
The
前記特徴ベクトル算出部15は、入力された前記変化領域映像カットから特徴ベクトルを算出し、算出した該特徴ベクトルを前記次元圧縮部17に出力する。
The feature
前記次元圧縮部17は、前記次元圧縮パラメータ記憶部16から入力された次元圧縮パラメータを用いて、前記特徴ベクトル算出部15から入力された前記特徴ベクトルの次元を圧縮し、得られた次元圧縮ベクトルを前記非定常カット検出部19に出力する。
The
前記非定常カット検出部19は、前記外れ値検出パラメータ記憶部18から入力された外れ値検出パラメータに所定の識別手法を適用して、前記次元圧縮部17から入力された前記次元圧縮ベクトルが識別空間の分布から外れているかを判定する。そして、外れている前記次元圧縮ベクトルに対応する映像カットを非定常映像カットの候補(以下、非定常候補とする)として検出し、検出した該候補を前記非定常カット記憶部20に出力する。
The unsteady
前記非定常カット記憶部20は、前記非定常カット検出部19から入力された前記非定常候補を順次記憶し、記憶した非定常候補群を前記非定常カット表示部21に出力する。
The unsteady
前記非定常カット表示部21は、前記非定常カット記憶部20から入力された前記非定常候補群を前記定常カット取得部22に出力するとともに、該非定常候補群を前記表示装置11に表示させる。この表示された非定常候補群の各映像に対し、ユーザは各映像が定常映像であるか非定常映像であるかを判定し、該判定結果を前記入力部3をもって入力する。
The unsteady
前記定常カット取得部22は、ユーザが非定常候補群の各映像に対して行った判定結果として、各映像に付与された定常・非定常のラベルを取得する。そして、前記非定常カット表示部21で出力された前記非定常候補群中、定常のラベルが付与された映像カット群を抽出し、これを定常映像カット群として前記非定常カット検出フィードバック部23に出力する。
The steady
前記非定常カット検出フィードバック部23は、前記定常カット取得部22から前記定常映像カット群を受信すると、該カット群に対応する次元圧縮ベクトルを用いて前記識別手法の学習を行う。これにより前記外れ値検出パラメータを更新して、該更新後のパラメータを前記外れ値検出パラメータ記憶部18に出力する。
When the unsteady cut
前記非定常カット検出部19は、このように更新された外れ値検出パラメータを用いて以後の非定常候補の検出を行う。これにより、ユーザの判定結果が以後の検出処理に随時フィードバックされ、ユーザの意図により近い検出結果の出力が可能になる。なお、前記各機能ブロック12〜23の入出力データの詳細を表1に示しておく。
The non-stationary
以下、前記各機能ブロック12〜23の実行する処理ステップを、図4のフローチャートに基づき説明する。図4中のS01〜S10は表1の入出力データに基づいて処理されている。
Hereinafter, processing steps executed by the
S01:まず、変化領域抽出部12は、カメラ2で撮影された現時点の入力画像データと、あらかじめカメラ2で前記撮影空間を撮影した過去数フレームの平均画像データとを対比して、入力画像において定常状態からの変化が表れた領域を抽出した変化領域画像を得る。この過去数フレームの平均画像データは、前記ハードディスクドライブ装置などに格納されているものとする。
S01: First, the change
具体的には、変化領域抽出部12は、背景の時間的な変化を考慮した変化領域抽出方法(あるいは変化検出方法)を適用し、カメラ2で撮影された現時点の入力画像から変化領域画像を取得する。変化領域抽出方法には、過去数フレームの平均画像と現在のフレームとの画素値の差分で、一定の閾値を超えた領域を変化領域として抽出するなどの方法が考えられる。このように、時間的な変化を考慮した変化領域抽出方法を用いることにより、例えば、朝、昼、夜と日照の変化に応じて画素値が変化しても、変化領域を頑健に抽出することができる。このとき、変化領域画像の変化領域には画素値1、変化がない領域には画素値0が割り当てられている。
Specifically, the change
そして、前記変化領域抽出部12は、このように取得した変化領域画像のデータを前記変化領域記憶部13に順次格納していき、変化領域画像列を生成する。
Then, the change
S02:カット切り出し部14は、前記変化領域記憶部13に格納された前記変化領域の画像列を読み出し、該画像列から一定数(または一定時間)のフレームを切り出す。そして、切り出した一定数のフレームを変化領域映像カットとして前記特徴ベクトル算出部15に出力する。
S02: The
ここで、切り出すフレーム数(または時間)は、前記映像検出プログラムにあらかじめ定義しておくものとする。なお、このような変化領域映像カットの切り出しは、一定数分のフレームが前記変化領域記憶部13に蓄積される毎に行ってもよい。また、切り出された変化領域映像カットのデータは、前記メモリ(RAM)6などに一時記憶してもよく、また前記外部記憶部8に保存してもよい。
Here, the number of frames (or time) to be cut out is defined in advance in the video detection program. Note that such cutout of the change area video cut may be performed every time a certain number of frames are accumulated in the change
S03:特徴ベクトル算出部15は、S02で切り出された前記変化領域映像カットから、該映像カットに対応する特徴ベクトルを算出し、算出した該ベクトルを前記次元圧縮部17に出力する。
S03: The feature
ここで特徴ベクトルは、前記変化領域画像において画像サイズをx×y(縦x画素、横y画素)とすると、切り出した一定のフレーム数nを掛けたx×y×n次元の特徴ベクトルである。なお、算出した特徴ベクトルのデータは、前記メモリ(RAM)6などに一時記憶してもよく、また前記外部記憶部8に保存してもよい。 Here, the feature vector is an x × y × n-dimensional feature vector obtained by multiplying the cut-out constant frame number n, where the image size is x × y (vertical x pixel, horizontal y pixel) in the change area image. . Note that the calculated feature vector data may be temporarily stored in the memory (RAM) 6 or the like, or may be stored in the external storage unit 8.
S04:次元圧縮部17は、S03で算出した特徴ベクトルの次元を、次元圧縮パラメータを用いて圧縮し、次元数の少ない特徴ベクトルを得る。ここで、次元の圧縮には、映像からの類似シーン検索の分野で用いられている圧縮手法である主成分分析(PCA:Principal Component Analysis)を用いる。
S04: The
具体的には、あらかじめ取得しておいた映像カットに対応する特徴ベクトルF(k)(k=1,...,K、Kはカットの数)の主成分分析を行う。ここで、特徴ベクトルF(k)を圧縮座標系に投影する際に、予め定めた寄与率を超える次数までの主軸に前記特徴ベクトルF(k)を投影し、そのときに得られる係数を次元圧縮パラメータとして取得して、これをあらかじめ前記次元圧縮パラメータ記憶部16に記憶しておく。そして、前記次元圧縮部17は、前記次元圧縮パラメータ記憶部16から前記次元圧縮パラメータを読み出し、これを用いてS03で算出した特徴ベクトルの次元を圧縮する。そして、圧縮した該ベクトルを次元圧縮ベクトルとし、前記非定常カット検出部19に出力する。このように前記特徴ベクトルの次元を圧縮することにより、該ベクトルの情報量を低減することができる。
Specifically, a principal component analysis of a feature vector F (k) (k = 1,..., K, K is the number of cuts) corresponding to a video cut acquired in advance is performed. Here, when the feature vector F (k) is projected onto the compression coordinate system, the feature vector F (k) is projected onto the principal axis up to the order exceeding the predetermined contribution rate, and the coefficient obtained at that time is expressed as a dimension. Obtained as a compression parameter and stored in advance in the dimension compression
なお、長時間の映像で環境条件が変化していくような場合には、逐次ある程度の時間のまとまりごとに次元圧縮パラメータを得て、次元圧縮を行ってもよい。 When the environmental condition changes with a long-time video, the dimensional compression may be performed by obtaining the dimensional compression parameter for each group of a certain amount of time.
S05:非定常カット検出部19は、あらかじめ前記外れ値検出パラメータ記憶部18に記憶されている外れ値検出パラメータを用いて、S04で算出した次元圧縮ベクトルが定常状態を示す識別空間の分布から外れているかどうかを判定し、該外れている次元圧縮ベクトルに対応する映像カットを非定常候補として検出する。
S05: The unsteady
ここでは、識別手法としてサポートベクターマシン(Support Vector Machine:SVM)を用いて外れ値検出を行う。例えば1クラスSVMは、元の特徴空間における特徴ベクトルが高次特徴空間に写像されるときに、元の特徴空間における外れ点が高次特徴空間の原点付近に写像されることを利用して、外れ点検出を行う方法である。つまり、前記外れ値検出パラメータを用いることにより、識別軸上に写像された次元圧縮ベクトルの原点からの距離が外れ具合(非定常度)とみなされ、この非定常度があらかじめ定めた値(閾値)を超えるものを外れ点とする。そして、外れていると判定された次元圧縮ベクトルに対応する映像カットを非定常候補とし、これを前記非定常カット記憶部20に順次格納して、非定常候補群を生成する。
Here, outlier detection is performed using a support vector machine (SVM) as an identification method. For example, the 1 class SVM uses the fact that the outlier point in the original feature space is mapped near the origin of the higher-order feature space when the feature vector in the original feature space is mapped to the higher-order feature space, This is a method of detecting outliers. That is, by using the outlier detection parameter, the distance from the origin of the dimension compression vector mapped on the identification axis is regarded as an outlier (unsteadiness), and this unsteadiness is a predetermined value (threshold value). Exceeding) shall be the off-point. Then, the video cuts corresponding to the dimension compression vectors determined to be out of place are set as non-stationary candidates, which are sequentially stored in the non-stationary
なお、外れ点を識別する前記閾値は、前記映像検出プログラムに定義されているものとする。また、前記外れ値検出パラメータは、あらかじめ取得した任意の映像カットを用いて求めてもよいし、長時間の映像で環境条件が変化していくような場合には、ある程度の時間のまとまりごとに求めてもよい。 It is assumed that the threshold value for identifying an outlier is defined in the video detection program. In addition, the outlier detection parameter may be obtained by using an arbitrary video cut acquired in advance, or when environmental conditions change in a long-time video, for every certain amount of time. You may ask for it.
S06:非定常カット表示部21は、前記非定常カット記憶部20から非定常候補群を読み出し、該候補群を前記定常カット取得部22に出力する。また、図5に示すように、読み出した非定常候補群を非定常度が高い順にディスプレイなどの前記表示装置11に表示する。これにより、ユーザは現在の非定常映像カットの候補と過去の非定常映像カットの候補とを対比しながら見ることができる。なお、このとき図5中の領域Rに映像毎の非定常度を併せて表示してもよい。
S06: The unsteady
また、図6に示すように、非定常映像カットの候補や非定常度とともに、定常・非定常の選択インタフェース(領域S)を表示してもよい。これにより、ユーザは表示された各映像が定常であるかどうかをクリックで選択することができる。なお、ここでは選択インタフェースとしてラジオボタンが表示されているが、該インタフェースはこれに限定されるものではなく、仕様に合わせて適宜変更してもよい。 Further, as shown in FIG. 6, a stationary / unsteady selection interface (region S) may be displayed together with the unsteady video cut candidates and the unsteadiness degree. Thereby, the user can select by clicking whether or not each displayed video is steady. Here, radio buttons are displayed as the selection interface, but the interface is not limited to this, and may be appropriately changed according to the specification.
S07:S06で表示した非定常候補群の各映像に対して、マウスなどの前記入力部3からユーザによる定常・非定常の判定が入力されたかを確認する。入力があるときはS08へ、ないときはS10に進む。
S07: For each image of the non-stationary candidate group displayed in S06, it is confirmed whether or not a determination of whether the user is stationary or unsteady is input from the
S08:定常カット取得部22は、S06で表示した非定常候補群の各映像に対するユーザの判定結果として、各映像に付与された定常・非定常のラベルを取得する。このうち、定常のラベルに対応する映像カットを、前記非定常カット表示部21から受信した前記非定常候補群から抽出し、これを定常映像カット群として前記非定常カット検出フィードバック部23に出力する。なお、抽出した定常映像カット群のデータは、前記メモリ(RAM)6などに一時記憶してもよく、また前記外部記憶部8に保存してもよい。
S08: The steady
S09:非定常カット検出フィードバック部23は、S08で抽出された定常映像カット群に対応する次元圧縮ベクトルを用いて、前記SVMの学習を行う。これにより、前記外れ値検出パラメータは、S06でユーザの行った定常・非定常の判定が反映された値に更新される。そして、前記非定常カット検出フィードバック部23は、このように更新された外れ値検出パラメータを前記外れ値検出パラメータ記憶部18に格納する。
S09: The non-stationary cut
この更新後の外れ値検出パラメータは、次回以降の非定常候補の検出に用いられる。即ち、S05の処理にて、前記非定常カット検出部19は順次更新された外れ値検出パラメータを用いて非定常候補を検出する。したがって、以後の検出処理では、ユーザの意図が反映した非定常候補が検出され、S06において非定常度の高い映像カットが前記表示装置11に表示される。
This updated outlier detection parameter is used for detection of non-stationary candidates after the next time. That is, in the process of S05, the non-stationary
S10:次に、終了条件を満たしたかの判定を行う。ここでは、全てのフレームの処理が終了した場合に、検出処理を終了する。全てのフレームの処理が終了していない場合にはS01へ戻り、終了条件を満たすまでS01〜S09を繰り返す。 S10: Next, it is determined whether the end condition is satisfied. Here, when the processing of all the frames is completed, the detection process is terminated. If all the frames have not been processed, the process returns to S01, and S01 to S09 are repeated until the end condition is satisfied.
以上のように、本実施形態に係る映像検出装置1によれば、非定常映像カットの候補に対するユーザの判断が以後の非定常映像カットの検出処理にフィードバックされることから、ユーザの意図する非定常映像カットの検出が可能になる。 As described above, according to the video detection device 1 according to the present embodiment, the user's judgment on the non-stationary video cut candidate is fed back to the subsequent non-stationary video cut detection process. It is possible to detect a steady image cut.
また、非定常映像カットの候補に対する定常・非定常の判定、および外れ値検出パラメータの更新を繰り返すことにより、ユーザそれぞれにカスタマイズされた非定常映像カットの検出が高精度に実現できる。この意味で誤検出が防止され、ユーザの作業負担が軽減される。 In addition, by repeating the determination of stationary / unsteady with respect to the unsteady video cut candidates and the update of the outlier detection parameter, the detection of unsteady video cuts customized for each user can be realized with high accuracy. In this sense, false detection is prevented and the work burden on the user is reduced.
(2)第2実施形態
図7は、本発明の第2実施形態に係る映像検出装置26を示し、該検出装置26では、前記次元圧縮パラメータ記憶部16、前記次元圧縮部17が廃止されているとともに、前記変化領域抽出部12、前記変化領域記憶部13に代わって動きベクトル算出部24、動きベクトル記憶部25が設けられている。
(2) Second Embodiment FIG. 7 shows a
即ち、該検出装置26では、入力画像から変化領域を抽出する代わりに動きベクトルを算出し、この動きベクトルを利用して非定常映像カットの候補を検出している。前記動きベクトル記憶部25は、前記変化領域記憶部13と同様に前記ハードディスクドライブ装置上にデータベースとして構築されている。
That is, the
具体的には、動きベクトル算出部24は、図8に示すように、カメラ2から順次入力される画像データから動きベクトルを算出し、該ベクトルを前記動きベクトル記憶部25に順次出力する。
Specifically, as shown in FIG. 8, the motion
前記動きベクトル記憶部25は、入力された前記動きベクトルを時系列に記憶して動きベクトル列とし、該ベクトル列を前記カット切り出し部14に出力する。
The motion
前記カット切り出し部14は、入力された前記動きベクトル列から一定数のフレームを切り出し、切り出されたフレームを動きベクトルカットとして前記特徴ベクトル算出部15に出力する。
The
前記特徴ベクトル算出部15は、入力された前記動きベクトルカットから特徴ベクトルを算出し、算出した該特徴ベクトルを前記非定常カット検出部19に出力する。
The feature
そして、第1実施形態と同様に、算出された特徴ベクトルを用いて非定常候補を検出し、検出した非定常候補に対するユーザの判定結果を用いて外れ値検出パラメータを更新して、更新した該パラメータを以後の検出処理にフィードバックさせている。 Then, as in the first embodiment, the non-stationary candidate is detected using the calculated feature vector, the outlier detection parameter is updated using the user's determination result for the detected non-stationary candidate, and the updated The parameter is fed back to the subsequent detection process.
なお、本実施形態における前記各機能ブロック14.15.18〜25の入出力データの詳細を表2に示しておく。 Table 2 shows details of input / output data of each of the functional blocks 14.15.18 to 25 in the present embodiment.
以下、本実施形態における前記各機能ブロック14.15.18〜25の実行する処理ステップを、図9のフローチャートに基づき説明する。図9中のS21〜S29は表2の入出力データに基づいて処理されている。 Hereinafter, processing steps executed by each of the functional blocks 14.15.18 to 25 in the present embodiment will be described based on the flowchart of FIG. S21 to S29 in FIG. 9 are processed based on the input / output data in Table 2.
S21:まず、動きベクトル算出部24は、カメラ2で撮影された現時点の入力画像データからオプティカルフローを検出する。オプティカルフローは、画像上の各点における移動量と方向を表したもので、時間的に連続した画像間の対応点を探索することで求められる。オプティカルフローの検出では、輝度勾配に基づく方法や、領域のマッチングに基づく方法が考えられるが、シーンによって安定的にフローが出る方法を選択すればよい。
S21: First, the motion
そして、検出したオプティカルフローの検出始点の画素位置(u,v)と動き方向(U,V)を動きベクトルとして算出し、該動きベクトルのデータを前記動きベクトル記憶部25に順次格納して、動きベクトル列を生成する。
Then, the pixel position (u, v) and the motion direction (U, V) at the detection start point of the detected optical flow are calculated as motion vectors, and the motion vector data are sequentially stored in the motion
S22:カット切り出し部14は、前記動きベクトル記憶部25に蓄積された前記動きベクトル列を読み出し、該ベクトル列から一定数分(または一定時間分)のフレームを切り出す。そして、切り出した一定数のフレームを動きベクトルカットとして前記特徴ベクトル算出部15に出力する。
S22: The
なお、動きベクトルカットの切り出しは、一定数分のフレームが前記動きベクトル記憶部25に蓄積される毎に行ってもよい。また、切り出された動きベクトルカットは、前記メモリ(RAM)6などに一時記憶してもよく、また前記外部記憶部8に保存してもよい。
The motion vector cut may be cut out every time a certain number of frames are accumulated in the motion
S23:特徴ベクトル算出部15は、前記カット切り出し部14で切り出された前記動きベクトルカットから、該動きベクトルカットに対応する特徴ベクトルを算出し、算出した該ベクトルを前記非定常カット検出部19に出力する。ここで特徴ベクトルは、一定のフレーム数n分の動きベクトル(u,v,U,V)に対応する特徴ベクトルである。
S23: The feature
算出した特徴ベクトルは、前記メモリ(RAM)6などに一時記憶してもよく、また前記外部記憶部8に保存してもよい。また、第1実施形態と同様に、前記次元圧縮パラメータ記憶部16および前記次元圧縮部17を設けて前記算出した特徴ベクトルの次元圧縮を行い、該圧縮された特徴ベクトルを前記非定常カット検出部19に出力するようにしてもよい。
The calculated feature vector may be temporarily stored in the memory (RAM) 6 or the like, or may be stored in the external storage unit 8. Similarly to the first embodiment, the dimension compression
S24〜S29:S05〜S10と同様に、S23で算出された特徴ベクトルと外れ値検出パラメータとを用いて非定常候補を検出し、これを前記非定常カット記憶部20に順次格納する(S24)。そして、格納された非定常候補群を前記表示装置11に表示し(S25)、表示した非定常候補群の各映像に対するユーザの判断に基づいて定常映像カット群を取得する(S27)。そして、取得した定常映像カット群に対応する特徴ベクトルを用いて前記SVMの学習を行うことにより、外れ値検出パラメータを更新し、更新後の該パラメータを前記外れ値検出パラメータ記憶部18に格納する(S28)。そして、S24の処理にて、前記非定常カット検出部19は順次更新された外れ値検出パラメータを用いて非定常候補を検出する。
S24 to S29: Similarly to S05 to S10, non-stationary candidates are detected using the feature vector calculated in S23 and outlier detection parameters, and these are sequentially stored in the non-stationary cut storage unit 20 (S24). . Then, the stored unsteady candidate group is displayed on the display device 11 (S25), and a steady image cut group is acquired based on the user's judgment on each image of the displayed unsteady candidate group (S27). Then, the outlier detection parameter is updated by learning the SVM using the feature vector corresponding to the acquired stationary video cut group, and the updated parameter is stored in the outlier detection
以上のように、本実施形態に係る映像検出装置26によれば、入力画像から算出した動きベクトルを用いて非定常映像カットの候補を検出しているものの、検出した非定常映像カットの候補に対するユーザの判断が以後の検出処理にフィードバックされることから、第1実施形態と同等の効果を奏することができる。
As described above, according to the
なお、本発明は、上記実施形態に限定されるものではなく、例えばコンピュータを前記映像検出装置1.26の各機能ブロック12〜25として機能させる映像検出プログラムとしても提供することができる。このプログラムは、第1.2実施形態の全ての処理ステップをコンピュータに実行させるものでもよく、あるいは一部の処理ステップを実行させるものであってもよい。 In addition, this invention is not limited to the said embodiment, For example, a computer can be provided as a video detection program which functions as each functional block 12-25 of the said video detection apparatus 1.26. This program may cause the computer to execute all the processing steps of the first embodiment, or may execute a part of the processing steps.
このプログラムは、Webサイトなどからのダウンロードによってコンピュータに提供される。また、前記プログラムは、CD−ROM,DVD−ROM,CD−R,CD−RW,DVD−R,DVD−RW,MO,HDD,Blu−ray Disk(登録商標)などの記録媒体10に格納してコンピュータに提供してもよい。
This program is provided to the computer by downloading from a website or the like. The program is stored in a
1.26…映像検出装置
2…カメラ(撮像装置)
3…入力部
4…読み取り専用メモリ(ROM)
5…処理部(CPU)
6…書き換え可能メモリ(RAM)
7…通信インタフェース部
8…外部記憶部
9…記録媒体駆動部
10…記録媒体
11…表示装置
12…変化領域抽出部(抽出手段)
13…変化領域記憶部
14…カット切り出し部
15…特徴ベクトル算出部(特徴量算出手段)
16…次元圧縮パラメータ記憶部
17…次元圧縮部(圧縮手段)
18…外れ値検出パラメータ記憶部
19…非定常カット検出部(検出手段)
20…非定常カット記憶部
21…非定常カット表示部(表示手段)
22…定常カット取得部
23…非定常カット検出フィードバック部(フィードバック手段)
24…動きベクトル算出部(ベクトル算出手段)
25…動きベクトル記憶部
R…非定常度の表示領域
S…選択インタフェースの表示領域
1.26 ...
3 ... Input unit 4 ... Read only memory (ROM)
5. Processing unit (CPU)
6 ... Rewritable memory (RAM)
DESCRIPTION OF
DESCRIPTION OF
16 ... Dimension compression
18 ... Outlier detection
20 ... Unsteady
22 ... Steady
24 ... Motion vector calculation unit (vector calculation means)
25: Motion vector storage unit R: Display area of non-stationary degree S: Display area of selected interface
Claims (9)
前記撮像装置から連続的に入力されたフレームに変化が現れた変化領域を抽出する抽出手段と、
前記変化領域の画像を任意列に切り出した映像カットから、変化の特徴ベクトルを求める特徴量算出手段と、
前記特徴ベクトルが前記撮影空間の定常状態を示す識別空間の分布から外れている値を求め、該値が閾値を超えているときに非定常的な映像カットの候補とする検出手段と、
前記候補中、ユーザが定常とみなした映像カットの前記特徴ベクトルを用いて前記閾値を順次更新して、前記検出手段の検出処理に反映させるフィードバック手段と、
を備えることを特徴とする映像検出装置。 A video detection device for detecting a non-stationary video cut in a shooting space in a video shot of a space with an imaging device,
Extracting means for extracting a change area in which a change appears in frames continuously input from the imaging device;
Feature amount calculation means for obtaining a feature vector of change from a video cut obtained by cutting out the image of the change area into an arbitrary column;
A detection means for obtaining a value that deviates from the distribution of the identification space indicating the steady state of the shooting space, and when the value exceeds a threshold value,
Feedback means for sequentially updating the threshold value using the feature vector of the video cut that the user considers to be stationary among the candidates, and reflecting it in the detection process of the detection means;
A video detection apparatus comprising:
前記撮像装置から連続的に入力されたフレームから動体を抽出し、該抽出された動体の動き方向の特徴量を動きベクトルとして求めるベクトル算出手段と、
前記動きベクトルを任意列に切り出した動きベクトルカットから、動体の動きの特徴ベクトルを求める特徴量算出手段と、
前記特徴ベクトルが前記撮影空間の定常状態を示す識別空間の分布から外れている値を求め、該値が閾値を超えているときに非定常的な映像カットの候補とする検出手段と、
前記候補中、ユーザが定常とみなした映像カットの前記特徴ベクトルを用いて前記閾値を順次更新して、前記検出手段の検出処理に反映させるフィードバック手段と、
を備えることを特徴とする映像検出装置。 A video detection device for detecting a non-stationary video cut in a shooting space in a video shot of a space with an imaging device,
A vector calculation means for extracting a moving object from frames continuously input from the imaging device and obtaining a feature quantity in the movement direction of the extracted moving object as a motion vector;
A feature quantity calculating means for obtaining a motion feature vector of a moving object from a motion vector cut obtained by cutting the motion vector into an arbitrary column;
A detection means for obtaining a value that deviates from the distribution of the identification space indicating the steady state of the shooting space, and when the value exceeds a threshold value,
Feedback means for sequentially updating the threshold value using the feature vector of the video cut that the user considers to be stationary among the candidates, and reflecting it in the detection process of the detection means;
A video detection apparatus comprising:
前記検出手段において、次元圧縮された前記特徴ベクトルが前記識別空間の分布から外れている値を求める
ことを特徴とする請求項1または2のいずれか1項に記載の映像検出装置。 And further comprising compression means for compressing the dimension of the feature vector,
3. The video detection apparatus according to claim 1, wherein the detection unit obtains a value in which the dimension-compressed feature vector deviates from the distribution of the identification space. 4.
前記表示手段が、前記閾値の更新前に検出した非定常な映像カットの候補を併せて表示可能なこと
を特徴とする請求項1〜3のいずれか1項に記載の映像検出装置。 And further comprising display means for presenting a user with the unsteady video cut candidate detected by the detection means,
The video detection apparatus according to any one of claims 1 to 3, wherein the display unit is capable of displaying a non-stationary video cut candidate detected before the threshold is updated.
抽出手段が、前記撮像装置から連続的に入力されたフレームに変化が現れた変化領域を抽出する第1ステップと、
特徴量算出手段が、前記変化領域の画像を任意列に切り出した映像カットから変化の特徴ベクトルを求める第2ステップと、
検出手段が、前記撮影空間の定常状態を示す識別空間の分布から前記特徴ベクトルが外れている値を求め、該値が閾値を超えているときに非定常的な映像カットの候補とする第3ステップと、
フィードバック手段が、前記候補中、ユーザが定常とみなした映像カットの前記特徴ベクトルを用いて前記閾値を順次更新して、前記検出手段の検出処理に反映させる第4ステップと、
を有することを特徴とする映像検出方法。 A video detection method for detecting a non-stationary video cut in a shooting space in a video shot of a space with an imaging device,
A first step of extracting a change area in which a change appears in frames continuously input from the imaging device;
A second step in which a feature quantity calculating means obtains a feature vector of change from a video cut obtained by cutting out the image of the change area into an arbitrary column;
The detection means obtains a value that deviates the feature vector from the distribution of the identification space indicating the steady state of the shooting space, and when the value exceeds a threshold value, a third candidate is set as a non-stationary video cut candidate. Steps,
A fourth step in which the feedback means sequentially updates the threshold value using the feature vector of the video cut that the user considers to be stationary among the candidates, and reflects it in the detection process of the detection means;
A video detection method comprising:
ベクトル算出手段が、前記撮像装置から連続的に入力されたフレームから動体を抽出し、該抽出された動体の動き方向の特徴量を動きベクトルとして求める第1ステップと、
特徴量算出手段が、前記動きベクトルを任意列に切り出した動きベクトルカットから、動体の動きの特徴ベクトルを求める第2ステップと、
検出手段が、前記撮影空間の定常状態を示す識別空間の分布から前記特徴ベクトルが外れている値を求め、該値が閾値を超えているときに非定常的な映像カットの候補とする第3ステップと、
フィードバック手段が、前記候補中、ユーザが定常とみなした映像カットの前記特徴ベクトルを用いて前記閾値を順次更新して、前記検出手段の検出処理に反映させる第4ステップと、
を有することを特徴とする映像検出方法。 A video detection method for detecting a non-stationary video cut in a shooting space in a video shot of a space with an imaging device,
A first step in which a vector calculating means extracts a moving object from frames continuously input from the imaging device, and obtains a feature quantity in the moving direction of the extracted moving object as a motion vector;
A second step of calculating a feature vector of motion of the moving object from a motion vector cut obtained by cutting out the motion vector into an arbitrary column;
The detection means obtains a value that deviates the feature vector from the distribution of the identification space indicating the steady state of the shooting space, and when the value exceeds a threshold value, a third candidate is set as a non-stationary video cut candidate. Steps,
A fourth step in which the feedback means sequentially updates the threshold value using the feature vector of the video cut that the user considers to be stationary among the candidates, and reflects it in the detection process of the detection means;
A video detection method comprising:
前記第3ステップにおいて、次元圧縮された前記特徴ベクトルが前記識別空間の分布から外れている値を求める
ことを特徴とする請求項5または6のいずれか1項に記載の映像検出方法。 Further comprising compressing the dimension of the feature vector;
The video detection method according to claim 5, wherein, in the third step, a value in which the dimension-compressed feature vector deviates from the distribution of the identification space is obtained.
該ステップにおいて、前記閾値の更新前に検出した非定常な映像カットの候補を併せて表示可能なこと
を特徴とする請求項5〜7のいずれか1項に記載の映像検出方法。 Further comprising the step of presenting a non-stationary video cut candidate detected in the third step to the user,
The video detection method according to any one of claims 5 to 7, wherein in the step, candidates for unsteady video cuts detected before the threshold value is updated can be displayed together.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008255885A JP2010087937A (en) | 2008-10-01 | 2008-10-01 | Video detection device, video detection method and video detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008255885A JP2010087937A (en) | 2008-10-01 | 2008-10-01 | Video detection device, video detection method and video detection program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010087937A true JP2010087937A (en) | 2010-04-15 |
Family
ID=42251414
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008255885A Pending JP2010087937A (en) | 2008-10-01 | 2008-10-01 | Video detection device, video detection method and video detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010087937A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104301712A (en) * | 2014-08-25 | 2015-01-21 | 浙江工业大学 | Monitoring camera shake detection method based on video analysis |
WO2016107216A1 (en) * | 2014-12-30 | 2016-07-07 | 华为技术有限公司 | Video detection method and device |
WO2021166688A1 (en) * | 2020-02-19 | 2021-08-26 | 株式会社日立国際電気 | Event detecting system |
-
2008
- 2008-10-01 JP JP2008255885A patent/JP2010087937A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104301712A (en) * | 2014-08-25 | 2015-01-21 | 浙江工业大学 | Monitoring camera shake detection method based on video analysis |
WO2016107216A1 (en) * | 2014-12-30 | 2016-07-07 | 华为技术有限公司 | Video detection method and device |
CN105809659A (en) * | 2014-12-30 | 2016-07-27 | 华为技术有限公司 | Video detection method and device |
CN105809659B (en) * | 2014-12-30 | 2019-05-03 | 华为技术有限公司 | A kind of video detecting method and device |
WO2021166688A1 (en) * | 2020-02-19 | 2021-08-26 | 株式会社日立国際電気 | Event detecting system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10218899B2 (en) | Control method in image capture system, control apparatus and a non-transitory computer-readable storage medium | |
US8472668B2 (en) | Image analyzing apparatus, image analyzing method, and computer readable medium | |
US10146992B2 (en) | Image processing apparatus, image processing method, and storage medium that recognize an image based on a designated object type | |
JP5208893B2 (en) | Moving object tracking device | |
JP5388829B2 (en) | Intruder detection device | |
JPWO2015137190A1 (en) | Video surveillance support apparatus, video surveillance support method, and storage medium | |
JP6436077B2 (en) | Image processing system, image processing method, and program | |
JPWO2014010174A1 (en) | Angle of view variation detection device, angle of view variation detection method, and field angle variation detection program | |
JP2019152802A (en) | Work operation analysis system and work operation analysis method | |
JP2010015469A (en) | Still area detection method, and apparatus, program and recording medium therefor | |
JP4572175B2 (en) | Unsteady image detection device, unsteady image detection method, and program implementing the method | |
JP4641492B2 (en) | Singular image detection device, singular image detection method and program | |
JP2010087937A (en) | Video detection device, video detection method and video detection program | |
JP5002575B2 (en) | Unsteady degree estimation device, unsteady degree estimation method, unsteady degree estimation program | |
US10007842B2 (en) | Same person determination device and method, and control program therefor | |
US11205258B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP6527183B2 (en) | Leftover object detection device | |
US11527091B2 (en) | Analyzing apparatus, control method, and program | |
JP2021144525A (en) | Detection apparatus, detection method, and program | |
JP4773998B2 (en) | Surveillance camera system, moving image search device, face image database update device, and operation control method thereof | |
US20170255818A1 (en) | Person verification system and person verification method | |
CN115136216A (en) | Information processing system, information processing apparatus, information processing method, and computer readable medium | |
JP5599228B2 (en) | Busy detection system and busy detection program | |
CN111860070A (en) | Method and device for identifying changed object | |
JP2010165195A (en) | Feature value selection method, feature value selecting device, and feature value selection program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20100609 |