JP2013122755A - イベント検出装置及びその方法、動作認識装置及びその方法、プログラム - Google Patents

イベント検出装置及びその方法、動作認識装置及びその方法、プログラム Download PDF

Info

Publication number
JP2013122755A
JP2013122755A JP2012247357A JP2012247357A JP2013122755A JP 2013122755 A JP2013122755 A JP 2013122755A JP 2012247357 A JP2012247357 A JP 2012247357A JP 2012247357 A JP2012247357 A JP 2012247357A JP 2013122755 A JP2013122755 A JP 2013122755A
Authority
JP
Japan
Prior art keywords
image sample
image
time
event
series images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012247357A
Other languages
English (en)
Other versions
JP6161257B2 (ja
Inventor
Masao Yamanaka
正雄 山中
Masakazu Matsugi
優和 真継
Yasuo Katano
康生 片野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012247357A priority Critical patent/JP6161257B2/ja
Publication of JP2013122755A publication Critical patent/JP2013122755A/ja
Application granted granted Critical
Publication of JP6161257B2 publication Critical patent/JP6161257B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • G06V20/47Detecting features for summarising video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/147Scene change detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 動画像中のイベントを検出する装置を提供する。
【解決手段】 イベント検出装置に、時系列の複数の画像を入力する入力手段と、第1のスケールパラメータに基づいて、前記時系列の複数の画像の第1の時間範囲からサンプルのスケールがそれぞれ異なる第1の画像サンプル列のセットを抽出する第1の抽出手段と、第2のスケールパラメータに基づいて、前記時系列の複数の画像の第2の時間範囲からサンプルのスケールがそれぞれ異なる第2の画像サンプル列のセットを抽出する第2の抽出手段と、前記第1及び第2の画像サンプル列のセットに基づいて、当該第1及び第2の画像サンプル列の非類似度を算出する非類似度算出手段と、前記非類似度に基づいて前記時系列の複数の画像からイベントを検出する検出手段とを備える。
【選択図】 図1

Description

本発明は、イベント検出に関し、特に画像のシーケンスからイベントを検出する技術に関するものである。
動画像中の適切なイベント検出手法として、たとえば特許文献1および非特許文献1のような方法が提案されている。特許文献1および非特許文献1では、動画像中から立体高次局所自己相関特徴(CHLAC)を抽出し、部分空間法によって異常値を算出することにより、動画像中のイベント検出を行う。
特開2006−79272号公報
南里卓也,大津展之「複数人動画像からの異常動作検出」情報処理学会論文誌.コンピュータビジョンとイメージメディア,Vol.45, No.SIG15, pp.43−50, 2005 T. Kobayashi and N. Otsu, "Action and Simultaneous Multiple−Person Identification Using Cubic Higher−Order Local Auto−Correlation", International Conference on Pattern Recognition, 2004. N. Dalal, B. Triggs, "Histograms of oriented gradients for human detection", Proc. of IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 886−893, 2005. David G. Lowe, "Distinctive image features from scale−invariant keypoints" , Journal of Computer Vision, 60, 2 , pp. 91−110, 2004. T. Kanamori, S. Hido, and M Sugiyama. "A least−squares approach to direct importance estimation". Journal of Machine Learning Research, 10:1391−1445, Jul. 2009. T. Kanamori, S. Hido, and M Sugiyama. "A least−squares approach to direct importance estimation". Journal of Machine Learning Research, 10:1391−1445, Jul. 2009.
しかしながら、特許文献1および非特許文献1のような部分空間法に基づく手法の場合、あらかじめ正常動作を定義し、この正常動作に対する大量の動画シーケンスを用意しなければならないという課題があった。
上記課題を解決するために、本発明によれば、イベント検出装置に、時系列の複数の画像を入力する入力手段と、第1のスケールパラメータに基づいて、前記時系列の複数の画像の第1の時間範囲からサンプルのスケールがそれぞれ異なる第1の画像サンプル列のセットを抽出する第1の抽出手段と、第2のスケールパラメータに基づいて、前記時系列の複数の画像の第2の時間範囲からサンプルのスケールがそれぞれ異なる第2の画像サンプル列のセットを抽出する第2の抽出手段と、前記第1及び第2の画像サンプル列のセットに基づいて、当該第1及び第2の画像サンプル列の非類似度を算出する非類似度算出手段と、前記非類似度に基づいて前記時系列の複数の画像からイベントを検出する検出手段とを備える。
本発明によれば、教師なしでイベントを検出できるという効果がある。
第1の実施形態に係るイベント検出装置の機能構成を示すブロック図である。 画像サンプルの例を示す図である。 画像サンプルのセットの例を示す図である。 第1の画像サンプル列のセットの例を示す図である。 第2の画像サンプル列のセットの例を示す図である。 非類似度の算出処理を説明する図である。 第1の実施形態に係るイベント検出装置のハードウェア構成例を示す図である。 第1の実施形態に係るイベント検出処理の手順を示すフローチャートである。 第2の実施形態に係るイベント検出装置の機能構成を示すブロック図である。 画像サンプルの例を示す図である。 画像サンプル列のセットの例を示す図である。 参照画像サンプル列のセットの例を示す図である。 非類似度の算出を説明する図である。 時系列パターン特徴の算出を説明する図である。 第4の実施形態に係る動作認識装置の機能構成を示すブロック図である。 動作認識に用いる動画像の例を示す図である。 特徴量の算出を説明する図である。
以下、添付図面を参照しながら本発明の実施形態を説明する。
<第1の実施形態>
図1は、本発明の第1の実施形態に係るイベント検出装置1の機能構成を示すブロック図である。本実施形態に係わるイベント検出装置は、半導体集積回路(LSI)を用いて実現される。図1に示すように、イベント検出装置1は、画像生成部11、スケールパラメータ設定部12、第1画像サンプルセット抽出部13、第2画像サンプルセット抽出部14、非類似度算出部15、イベント検出部16を有する。これらの構成要素はイベント検出装置1が果たす機能にそれぞれ対応している。
また、本実施形態において、「イベント」とは、被写体(人や物体)の運動パターン、状態パターン、あるいは、それらの変化を総称して指すものとする。例えば、イベントとして被写体の動作を認識することができる。
ここで、イベント検出装置1によって得られたイベント検出結果は、イベント検出装置1の上位階層(アプリケーション層)に伝達され、セキュリティーカメラに実装される異常行動検出、DVDレコーダーや家庭用ビデオカメラ等に実装されるビデオセグメンテーション機能など、様々な画像処理アプリケーションに適用される。
図2は、画像サンプルの例を示す図である。画像生成部11は、図2に示すように、イベント検出対象の動画像の所定時刻Tにおける画像サンプル(キーフレームとよぶ)を基点とし、このキーフレームより所定時間ΔT前までの画像サンプルを第1画像サンプルセット抽出部13に出力する。同様に、画像生成部11は、キーフレームより所定時間ΔT後までの画像サンプルを第2画像サンプルセット抽出部14に出力する。
図3は、画像サンプルのセットの例を示す図である。スケールパラメータ設定部12は、図3に示すように、第1の画像サンプル列のセットと第2の画像サンプル列のセットを設定するために必要な第1のスケールパラメータ及び第2のスケールパラメータ(N,Sn1,Sn2,Ln1,Ln2)を設定する。すなわち、第1の画像サンプル列と第2の画像サンプル列のセット数(階層数)N(図3の例ではN=5となる)と、第1の画像サンプル列と第2の画像サンプル列のn番目のペア(図3の例ではn=1〜5となる)における第1と第2の画像サンプル列の各々のサンプル数(Sn1,Sn2)と、第1の画像サンプル列と第2の画像サンプル列のn番目のペアにおける第1と第2各々の画像サンプル列のサンプリング間隔(Ln1,Ln2)を設定する。また、スケールパラメータとして、所定時刻Tや所定時間ΔTなどで定まる時間的な範囲を設定するようにしてもよい。
ここで、これらのパラメータは、イベント検出結果を利用する後続の処理に応じて設定すればよい。例えば、イベント検出結果を、ビデオセグメンテーションなどのようにオフライン処理で利用する場合は、階層数Nおよび画像サンプル数(Sn1,Sn2)は比較的大きめに設定し、サンプリング間隔(Ln1,Ln2)は比較的小さめに設定すればよい。一方、イベント検出結果をセキュリティーカメラなどによりオンライン処理で利用する場合には、階層数Nおよび画像サンプル数(Sn1,Sn2)は比較的小さめに設定し、サンプリング間隔(Ln1,Ln2)は比較的大きめに設定すればよい。
図4は、第1の画像サンプル列のセットの例を示す図である。第1の抽出部である第1画像サンプルセット抽出部13は、図4に示すように、スケールパラメータ設定部12で設定されたパラメータ(N,Sn1,Ln1)に応じて、時間スケールの異なる画像サンプル列のセットを生成する。
同様に、図5は、第2の画像サンプル列のセットの例を示す図である。第2の抽出部である第2画像サンプルセット抽出部14は、図5に示すように、スケールパラメータ設定部12で設定されたパラメータ(N,Sn2,Ln2)に応じて、時間スケールの異なる画像サンプルのセットを生成する。
図6は、非類似度の算出処理を説明する図である。非類似度算出部15は、図6に示すように、第1画像サンプルセット抽出部13で得られた第1の画像サンプル列と、第2画像サンプルセット抽出部14で得られた第2の画像サンプル列との非類似度Dを階層毎に算出する。
具体的には、第1の画像サンプル列から算出した所定特徴量の確率密度p1と、第2の画像サンプル列から算出した所定特徴量の確率密度p2との比(R=p1/p2)に基づいて非類似度Dを算出する。
ここで、第1と第2の各々の画像サンプル列から算出する所定特徴量は、例えば、非特許文献2の立体高次局所自己相関特徴(CHLAC)を用いて算出できる。あるいは、第1と第2の各々の画像サンプル列から算出する所定特徴量は、非特許文献3のHistograms of Oriented Gradients(HOG)や、非特許文献4のScale Invariant Feature Transform(SIFT)を用いて算出してもよい。あるいは、第1と第2の各々の画像サンプル列から算出する所定特徴量は、画像の速度場(物体の速度+カメラの速度)を求め、それをベクトル集合で表現したオプティカルフローを用いてもよい。また、以上に例示したような特徴量の組み合わせを用いてもよい。
また、非類似度Dとしては、密度比(R=p1/p2)の基本統計量である分散を用いればよい。あるいは、非類似度Dは、密度比(R=p1/p2)の基本統計量である尖度や歪度を用いてもよい。あるいは、非類似度Dは、第1の画像サンプルによる密度比の平均値と、第2の画像サンプルによる密度比の平均値との差分絶対値を用いてもよい。
ここで、第1の画像サンプルから算出した所定特徴量の確率密度p1と、第2の画像サンプルから算出した所定特徴量の確率密度p2の密度比(R=p1/p2)は、たとえば、非特許文献5あるいは特許文献6の密度比推定法を用いて算出できる。
すなわち、まず、訓練データとしてあるサンプルから特徴量を算出する。同様に、検証データとして訓練データとは別のサンプルから特徴量を算出する。このとき、訓練データの特徴量と検証データの特徴量の確率密度の比を求めるには、訓練データの特徴量と検証データの特徴量の各々の確率密度を推定すればよい。しかしながら、有限個のサンプルから正確な確率密度を推定することは非常に困難であることが知られており、確率密度の直接的な推定を避ける必要がある。
そこで、訓練データにおける確率密度と検証データにおける確率密度の比を推定する際のモデルパラメータを交差確認法により決定することで、訓練データと検証データの各々の確率密度を推定することなく、訓練データと検証データの確率密度の比を直接的に推定する。
イベント検出部16は、非類似度算出部15で算出した第1の画像サンプル列と第2の画像サンプル列のn番目の階層に対する非類似度Dn(n=0〜N)に基づいてイベントを検出する。ここで、前記Nはスケールパラメータ設定部で設定した、第1の画像サンプルと第2の画像サンプルのペア数N(図3の例ではN=5)を表す。
具体的には、非類似度Dn(n=0〜N)が得られたキーフレームにおける時刻Tにおいてイベントが発生したかどうかに関する尤度Lを、たとえば式(1)を用いて尤度算出し、尤度Lが所定の閾値であるThより大きい場合、時刻Tにおいてイベントが発生したと判定する。ここで、所定閾値Thは、イベント検出装置1の上位階層(アプリケーション層)からイベント検出対象である動画像の特性に応じてあらかじめ設定する。
Figure 2013122755
また、尤度Lは式(2)のように非類似度Dn(n=0〜N)の積で与えてもよい。
Figure 2013122755
あるいは、尤度Lは式(3)のように非類似度Dn(n=0〜N)と、あらかじめ与えられた重みWn(n=0〜N)の積和で与えてもよい。
Figure 2013122755
あるいは、上記式(1)〜(3)により複数の時刻またはフレームで尤度Lを計算し、尤度Lが極大となる時刻またはフレームでイベントが発生したと判定してもよい。
このようにして得られたイベント検出結果は、イベント検出装置1の上位階層に伝達される。例えば、DVDレコーダーや家庭用ビデオカメラ内において、動画像中のイベントを検出し、あらかじめ用意されたデータベースと比較することにより、当該イベントにイベント名称を付けるような使用形態においては、イベント検出装置1を制御するCPU、プログラム等に伝達される。
なお、本実施形態のイベント検出装置は、ソフトウェアで実現してもよい。図7は、本実施形態に係るイベント検出装置をソフトウェアで実現する場合のハードウェア構成例を示す図である。イベント検出装置は、CPU101、ROM102、RAM103、HDD(ハードディスクドライブ)104、KB(キーボード)105、マウス106、モニタ107、ネットワークのインターフェース(I/F)108を有する。これらは、バス109を介して互いに通信可能に接続されて構成されている。
CPU101は、イベント検出装置全体の動作制御を司るものであり、ROM102内のプログラムを実行するほか、HDD104等から各種の処理プログラム(ソフトウェア)をRAM103に読み出して実行する。ROM102は、プログラムやプログラム内で用いられる各種データ等を記憶する。RAM103は、CPU101での各種処理のために、処理プログラムや処理対象の画像サンプル、スケールパラメータなどを一時的に格納するための作業用エリア等として使用される。
HDD104は、大容量記憶装置の一例としての構成要素であり、入力画像、画像サンプル、スケールパラメータなどの各種データ、あるいは各種処理の実行時にRAM1203等へ転送される処理プログラム等を保存する。
キーボード105及びマウス106は、イベント検出装置に対する各種指示等をユーザが入力するために用いられる。モニタ107は、ユーザへの各種指示情報や解析結果等の各種情報の表示を行う。インターフェース108は、ネットワークや他の装置から情報を取り込んだり、ネットワークや他の装置へ情報を送信したりするために用いられる。
図8は、第1の実施形態に係るイベント検出処理の手順を示すフローチャートである。同図に示すように、イベント検出装置1において、まずステップS801で、画像生成部11がイベント検出対象となる動画像を生成する。
次にステップS802で、スケールパラメータ設定部12が、画像サンプル列のセットの個数である階層数Nや、第1の画像サンプル列と第2の画像サンプル列のn番目のペアにおける第1と第2の画像サンプル列の各々の列数(Sn1,Sn2)、サンプリング間隔(Ln1,Ln2)を設定する。
そして、ステップS803で、第1画像サンプルセット抽出部13が第1画像サンプル列のセットを抽出し、ステップS804で、第2画像サンプルセット抽出部14が、第2画像サンプル列のセットを抽出する。さらにステップS805で、非類似度算出部15が、各階層nについて第1の画像サンプル列と第2の画像サンプル列との所定特徴量の確率密度の比に基づいて非類似度Dnを算出する。
そして、ステップS806において、イベント検出部16が、各階層nの非類似度Dnに基づいてイベントが発生したかどうかに関する尤度Lを算出し、所定閾値Thと比較してキーフレームでイベントが発生したかを判定する。
<第2の実施形態>
本発明の第2の実施形態について、図9〜図13を参照して説明する。図9は、本実施形態に係るイベント検出装置の機能構成を示す図である。本実施形態に係わるイベント検出装置2は、第1の実施形態におけるイベント検出装置1と多くの機能が重複するため、以下では第1の実施形態との相違点を中心に説明する。
本実施形態では、予め用意された参照用の動画像を用いてイベント検出対象の動画像からイベントを検出する。参照用の動画像として特定の行動パターンやイベントカテゴリの時系列画像を与えてもよい。また、そのような特定カテゴリのみを含む映像の集合を与えてもよい。
図10の(A)は、画像サンプルの例を示す図である。画像生成部21は、図10の(A)に示すように、イベント検出対象の動画像の所定時刻Tにおける画像サンプルを基点とし、この基点より所定時間ΔT後までの画像サンプルを第1画像サンプルセット抽出部13に出力する。ここで、時刻T=T+ΔT/2における画像サンプルを第1の画像サンプルにおけるキーフレームとよぶ。
図10の(B)は、参照画像サンプルの例を示す図である。画像生成部21は、図10の(B)に示すように、あらかじめ用意された参照用の動画像の所定時刻T’における画像サンプルを基点とし、この基点より所定時間ΔT’後までの画像サンプルを第1画像サンプルセット抽出部13に出力する。ここで、時刻T’=T’+ΔT’/2における画像サンプルを参照画像サンプルにおけるキーフレームとよぶ。
図11は、画像サンプル列のセットの例を示す図である。スケールパラメータ設定部22は、図11に示すように、第1の画像サンプル列のセットを設定するために必要なパラメータ(N,Sn,Ln)を設定する。すなわち、第1の画像サンプル列の階層数N(図11の例ではN=4となる)と、所定階層n(図11の例ではn=1〜4)における第1の画像サンプル列のサンプル数Snと、所定階層nにおける第1の画像サンプルのサンプリング間隔Lnを設定する。
図12は、参照画像サンプル列のセットの例を示す図である。スケールパラメータ設定部22は、図12に示すように、参照画像サンプルのセットを設定するために必要なパラメータ(N’,S’n,L’n)を設定する。すなわち、参照画像サンプルの階層数N’(図12の例ではN’=4)と、所定階層n(図12の例ではn=1〜4)における参照画像サンプルのサンプル数S’nと、所定階層nにおける参照画像サンプルのサンプリング間隔L’nを設定する。
ここで、これらのパラメータは、ビデオセグメンテーションなどオフライン処理を想定する場合には、階層数(N,N’)および画像サンプル数(Sn,S’n)は比較的大きめに設定し、サンプリング間隔(Ln,L’n)は比較的小さめに設定すればよい。一方、セキュリティーカメラなどオンライン処理を想定する場合には、階層数(N,N’)および画像サンプル数(Sn,S’n)は比較的小さめに設定し、サンプリング間隔(Ln,L’n)は比較的大きめに設定すればよい。
第1画像サンプルセット抽出部23は、図11のように、スケールパラメータ設定部22で設定されたパラメータ(N,Sn,Ln)に応じて、時間スケールの異なる画像サンプルのセットを生成する。
同様に、参照画像サンプルセット抽出部24は、図12のように、スケールパラメータ設定部22で設定されたパラメータ(N’,S’n,L’n)に応じて、あらかじめ用意した参照用の動画像から時間スケールの異なる画像サンプルのセットを生成する。
図13は、非類似度の算出を説明する図である。類似度算出部25は、図13に示すように、第1画像サンプルセット抽出部13で得られた第1の画像サンプルと、参照画像サンプルセット抽出部24で得られた参照画像サンプルの類似度Sを算出する。具体的には、第1の画像サンプルから算出した所定特徴量の確率密度p1と、参照画像サンプルから算出した所定特徴量の確率密度p2の比(R=p1/p2)に基づいて類似度Sを算出する。
たとえば、類似度Sは、密度比(R=p1/p2)の基本統計量である分散の逆数や、尖度の逆数、あるいは歪度の逆数を用いればよい。あるいは、類似度Sは、第1の画像サンプルによる密度比の平均値と、参照画像サンプルによる密度比の平均値の差分絶対値の逆数を用いてもよい。
ここで、第1の画像サンプルから算出した所定特徴量の確率密度p1と、参照画像サンプルから算出した所定特徴量の確率密度p2との確率密度の比(R=p1/p2)は、実施形態1と同様に非特許文献2あるいは特許文献3の密度比推定法を用いて算出できる。
イベント検出部26は、類似度算出部15で算出した第1の画像サンプル列と参照画像サンプル列とのn番目の階層に対する類似度Sn(n=0〜N)に基づいてイベントを検出する。ここで、前記Nはスケールパラメータ設定部で設定した、第1の画像サンプル列と参照画像サンプル列の階層数N(図13の例ではN=4)を表す。
具体的には、類似度Sn(n=0〜N)が得られた第1の画像サンプルにおけるキーフレームの時刻Tにおいて、あらかじめ用意した参照用の画像サンプルにおけるキーフレームの時刻T’のイベントが発生したことの尤度Lを、たとえば式(4)を用いて算出し、尤度Lが所定閾値Thより大きい場合、第1の画像サンプルにおけるキーフレームの時刻Tにおいて、あらかじめ用意した参照用の画像サンプルにおけるキーフレームの時刻T’のイベントが発生したと判定する。
ここで、参照用の画像サンプルにおけるキーフレームの時刻T’のイベント名称は、あらかじめ与えることができるため、第1の画像サンプルにおけるキーフレームの時刻Tにおいて、具体的にどんなイベントが発生したのか検知することができる。また、所定閾値Thは、イベント検出装置2の上位階層からイベント検出対象である動画像の特性に応じてあらかじめ設定する。
Figure 2013122755
また、尤度Lは式(5)のように類似度Sn(n=0〜N)の積で与えてもよい。
Figure 2013122755
あるいは、尤度Lは式(6)のように類似度Sn(n=0〜N)と、あらかじめ与えられた重みWn(n=0〜N)の積和で与えてもよい。
Figure 2013122755
あるいは、上記式(1)〜式(3)におけるLが極大となる時刻またはフレームでイベントが発生したと判定してもよい。
このようにして得られたイベント検出結果およびイベント名称は、イベント検出装置2の上位階層(アプリケーション層)、たとえば、DVDレコーダーや家庭用ビデオカメラ内におけるビデオセグメンテーションや映像要約を行うような想定下においては、イベント検出装置1を制御するCPU、プログラム等に伝達される。
<第3の実施形態>
本発明の第3の実施形態について、図14を参照して説明する。本実施形態に係るイベント検出装置の機能構成は、第1の実施形態と同様、図1に示した構成である。ただし、第1の実施形態とは、一部の構成において機能の詳細が異なっている。本実施形態に係わるイベント検出装置は、第1の実施形態におけるイベント検出装置1と多くの機能が重複するため、以下ではこれらの相違点のみを説明する。
イベント検出部16は、非類似度算出部15で算出した第1の画像サンプル列と第2の画像サンプル列のn番目の階層に対する非類似度Dn(n=0〜N)に基づいてイベントを検出する。ここで、前記Nはスケールパラメータ設定部で設定した、第1の画像サンプルと第2の画像サンプルの階層数N(図13の例ではN=4)を表す。
図14は、時系列パターン特徴の算出を説明する図である。イベント検出部16は、図14に示すように、所定時刻Tで算出した非類似度Dn(T) (n=0〜N)を用いて時系列パターン特徴F(T)を算出する。時系列パターン特徴F(T)は、たとえば、N=4の場合、F(T)=(D1,D2,D3,D4)のように与えられる。さらに、あらかじめ与えられた参照画像サンプルから複数の時系列パターン特徴F(T)を算出することにより、識別器D(F(T))を生成する。
ここで、識別器D(F(T))は、たとえば、時系列パターン特徴F(T)を入力とする、既存技術であるサポート・ベクターマシン(SVM)を用いて生成することができる。あるいは、識別器D(F(T))は、時系列パターン特徴F(T)を入力とする、既存技術であるk近傍法(kNN)を用いて生成してもよい。あるいは、識別器D(F(T))は、時系列パターン特徴F(T)を入力とする、その他の機械学習手法を用いて生成してもよい。
さらに、イベント検出部16は、所定時刻Tで算出した時系列パターン特徴F(T)を識別器D(F(T))に入力し、識別器D(F(T))からの出力が正の実数値の場合、所定時刻Tにおいて、あらかじめ与えられた参照画像サンプルにおける既知のイベントが発生したと判定する。
このようにして得られたイベント検出結果およびイベント名称は、イベント検出装置1の上位階層(アプリケーション層)、たとえば、DVDレコーダーや家庭用ビデオカメラ内において、動画像中のイベントを検出し、あらかじめ用意されたデータベースと比較することにより、当該イベントにイベント名称を付けるような想定下においては、イベント検出装置1を制御するCPU、プログラム等に伝達される。
<第4の実施形態>
本発明の第4の実施形態について、図15〜図17を参照して説明する。
図15は、第4の実施形態に係る動作認識装置4の概略構成を示すブロック図である。本実施形態に係わる動作認識装置は、半導体集積回路(LSI)を用いて実現されるが、ソフトウェアとして実装してもよい。図15に示すように動作認識装置4は、第1画像サンプル抽出部41、第2画像サンプル抽出部42、第1特徴量算出部43、第2特徴量算出部44、第1連結特徴量算出部45、第2連結特徴量算出部46、類似度算出部47、動作認識部48を有する。これらの構成要素は動作認識装置4が果たす機能にそれぞれ対応している。
ここで、本実施形態では、参照画像として特定の行動パターンやイベントカテゴリの時系列画像を与えてもよい。また、そのような特定カテゴリのみを含む映像の集合を与えてもよい。
図16は、動作認識に用いる動画像の例を示す図である。参照用の動画像に基づいて、動作認識の対象である動画像における動作を認識する。第1画像サンプル抽出部41は、図16に示すように、あらかじめ用意された参照用の動画像から、所定時刻T’0における画像サンプルを基点とし、この基点の前後ΔT’の区間の画像サンプルを抽出して第1特徴量算出部43に出力する。
また、第2画像サンプル抽出部42は、図16に示すように、動作認識対象の動画像から、所定時刻Tにおける画像サンプルを基点とし、この基点の前後ΔTの区間の画像サンプルを抽出して第2特徴量算出部44に出力する。
第1特徴量算出部43は、第1画像サンプル抽出部41により抽出された参照用の画像サンプル群から特徴量を抽出し、第1特徴量連結部45に出力する。同様に、第2特徴量算出部44は、第2画像サンプル抽出部42により抽出された、動作認識の対象である画像サンプル群から特徴量を抽出し、第2連結特徴量算出部46に出力する。ここで、上記特徴量(特徴量1、特徴量2、特徴量3…)は、それぞれどのように時間的に区切って抽出するか、あるいは、それぞれ何フレーム分のデータに対する特徴量か、さらに、特徴量の抽出単位(フレーム数)の大きさなど、これらを様々に変えて抽出を行ってもよい。
ここで、上記特徴量は、実施形態1と同様に、CHLAC、HOG、SIFT、MBHなどの特徴量やそれらの組み合わせを用いて算出してもよい。あるいは、画像の速度場をベクトル集合で表現したオプティカルフローを用いて算出してもよい。
図17は、特徴量の算出を説明する図である。第1連結特徴量算出部45は、図17に示すように、第1特徴量算出部43で算出した特徴量を入力とし、特徴i, 特徴i+1,…,特徴i+kのようにk個の連続する特徴が時間的順序を保ちつつ部分的に重複するように連結して生成した複数の連結特徴量を類似度算出部47に出力する。
同様に、第2連結特徴量算出部46は、第2特徴量算出部44で算出した特徴量を入力とし、それらの時間的順序を入れ替えることなく所定個数分連結し、冗長性を持たせながら生成した複数の連結特徴量を類似度算出部47に出力する。ここで、上記連結回数は、あらかじめ識別性能および処理時間を鑑みて適切に決定される。
類似度算出部47は、図16のように、前記第1連結特徴量算出部45で算出した第1の連結特徴量および第2連結特徴量算出部46で算出した第2の連結特徴量を入力とし、前記第1画像サンプルセット抽出部41で抽出した第1の画像サンプル群と、前記第2画像サンプルセット抽出部42で抽出した第2の画像サンプル群との類似度Sを算出する。
具体的には、第1の連結特徴量の確率密度p1と、第2の連結特徴量の確率密度p2の比(R=p1/p2)に基づいて類似度Sを算出する。具体的には、たとえば、類似度Sは、比Rの推定値を用いればよい。あるいは、類似度Sは、密度比(R=p1/p2)の基本統計量である分散の逆数を用いればよい。あるいは、類似度Sは、密度比(R=p1/p2)の基本統計量である尖度の逆数を用いてもよい。あるいは、類似度Sは、密度比(R=p1/p2)の基本統計量である歪度の逆数を用いてもよい。
ここで、第1の連結特徴量の確率密度p1、第2の連結特徴量の確率密度p2の確率密度の比(R=p1/p2)は、Yamada, M., Suzuki, T., Kanamori, T., Hachiya, H., & Sugiyama, M. Relative density−ratio estimation for robust distribution comparison. In J. Shawe−Taylor, R. S. Zemel, P. Bartlett, F. C. N. Pereira, and K. Q. Weinberger (Eds.), Advances in Neural Information Processing Systems 24, pp.594−602, 2011. (Presented at Neural Information Processing Systems (NIPS2011), Granada, Spain, Dec. 13−15, 2011)に記載された密度比推定法を用いて算出できる。
動作認識部48は、類似度算出部47で算出した、第1の画像サンプル群と第2の画像サンプル群との類似度Sに基づいて、第1の画像サンプル群と第2の画像サンプル群が同じ動作カテゴリに属すかどうか判定する。具体的には、上記類似度Sが所定閾値Thより小さい場合、図16の第2の画像サンプル群の時刻Tにおいて、図16の第1の画像サンプル群の時刻T’と同一カテゴリの動作が発生したと判定する。
ここで、第1の画像サンプル群における時刻T’0のイベント名称は、あらかじめ付与することができるため、第2の画像サンプルにおける時刻Tにおいて、実際にどんな動作が行われたのか検知することができる。また、所定閾値Thは、動作認識装置4の上位階層から動作認識対象である動画像の特性に応じてあらかじめ設定する。
このようにして得られた動作認識結果は、動作認識装置4の上位階層(アプリケーション層)、例えば、DVDレコーダーや家庭用ビデオカメラ内におけるビデオセグメンテーションや映像要約を行うような想定下においては、動作認識装置4を制御するCPU、プログラム等に伝達される。
<その他の実施形態>
以上、実施形態を詳述したが、本発明は、例えば、システム、装置、方法、コンピュータ読み取り可能なプログラムもしくは記憶媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
更に、本発明は、ソフトウェアのプログラムをシステム或いは装置に直接或いは遠隔から供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによって前述した実施形態の機能が達成される場合を含む。この場合、供給されるプログラムは実施形態で図に示したフローチャートに対応したコンピュータプログラムである。
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどとの協働で実施形態の機能が実現されてもよい。この場合、OSなどが、実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される。

Claims (23)

  1. 時系列の複数の画像を入力する入力手段と、
    第1のスケールパラメータに基づいて、前記時系列の複数の画像の第1の時間範囲からサンプルのスケールがそれぞれ異なる第1の画像サンプル列のセットを抽出する第1の抽出手段と、
    第2のスケールパラメータに基づいて、前記時系列の複数の画像の第2の時間範囲からサンプルのスケールがそれぞれ異なる第2の画像サンプル列のセットを抽出する第2の抽出手段と、
    前記第1及び第2の画像サンプル列のセットに基づいて、当該第1及び第2の画像サンプル列の非類似度を算出する非類似度算出手段と、
    前記非類似度に基づいて前記時系列の複数の画像からイベントを検出する検出手段と
    を有することを特徴とするイベント検出装置。
  2. 前記第1の抽出手段は、前記時系列の複数の画像において、所定の画像より前の画像から前記第1の画像サンプル列のセットを抽出し、
    前記第2の抽出手段は、前記所定の画像より後の画像から前記第2の画像サンプル列のセットを抽出することを特徴とする請求項1に記載のイベント検出装置。
  3. 前記第1及び第2のスケールパラメータは、前記第1及び第2の時間範囲を含むことを特徴とする請求項1に記載のイベント検出装置。
  4. 前記第1及び第2のスケールパラメータは、前記第1の画像サンプル列及び前記第2の画像サンプル列における画像サンプルの個数を含むことを特徴とする請求項1に記載のイベント検出装置。
  5. 前記第1及び第2のスケールパラメータは、前記第1の画像サンプル列及び前記第2の画像サンプル列のサンプリング間隔を含むことを特徴とする請求項1に記載のイベント検出装置。
  6. 前記第1及び第2のスケールパラメータは、前記第1の画像サンプル列及び前記第2の画像サンプル列のセット数を含むことを特徴とする請求項1に記載のイベント検出装置。
  7. 前記第1及び第2のスケールパラメータを設定する設定手段を更に備えることを特徴とする請求項1に記載のイベント検出装置。
  8. 前記検出手段は、前記第1及び第2の画像サンプル列のセットにおいて、それぞれ対応する第1及び第2の画像サンプル列の非類似度のパターンから、所定の参照画像より求められた複数の非類似度のパターンに基づいてイベントを検出することを特徴とする請求項1に記載のイベント検出装置。
  9. 前記非類似度算出手段は、前記第1の画像サンプル列のセットと第2の画像サンプル列のセットとにおいて、それぞれ対応する前記第1の画像サンプル列から算出される所定特徴量と前記第2の画像サンプル列から算出される所定特徴量との確率密度の比に基づいて、前記非類似度を算出することを特徴とする請求項1に記載のイベント検出装置。
  10. 前記検出手段は、前記非類似度に基づいて前記時系列の複数の画像における特定の画像にイベントが発生した尤度を算出する尤度算出手段と、前記尤度に基づいて前記特定の画像にイベントが発生したか否かを判定する判定手段とを備えることを特徴とする請求項1に記載のイベント検出装置。
  11. 前記判定手段は、前記尤度が所定の閾値より大きい場合に、前記特定の画像にイベントが発生したと判定することを特徴とする請求項10に記載のイベント検出装置。
  12. 前記尤度算出手段は、複数の特定の画像について前記尤度を算出し、前記判定手段は、前記尤度が極大となる特定の画像でイベントが発生したと判定することを特徴とする請求項10に記載のイベント検出装置。
  13. 時系列の複数の画像を入力する入力手段と、
    スケールパラメータに基づいて、前記時系列の複数の画像からサンプルのスケールがそれぞれ異なる第1の画像サンプル列のセットを抽出する第1の抽出手段と、
    前記第1の画像サンプル列のセットとあらかじめ与えられた第2の画像サンプル列のセットとに基づいて、当該第1及び第2の画像サンプル列の類似度を算出する類似度算出手段と、
    前記類似度に基づいて前記時系列の複数の画像からイベントを検出する検出手段と
    を有することを特徴とするイベント検出装置。
  14. 前記第2の画像サンプル列のセットは、所定のイベントが発生した画像を含んでおり、
    前記検出手段は、前記時系列の複数の画像から前記所定のイベントを検出することを特徴とする請求項13に記載のイベント検出装置。
  15. 時系列の複数の画像を入力する入力工程と、
    第1のスケールパラメータに基づいて、前記時系列の複数の画像の第1の時間範囲からサンプルのスケールがそれぞれ異なる第1の画像サンプル列のセットを抽出する第1の抽出工程と、
    第2のスケールパラメータに基づいて、前記時系列の複数の画像の第2の時間範囲からサンプルのスケールがそれぞれ異なる第2の画像サンプル列のセットを抽出する第2の抽出工程と、
    前記第1及び第2の画像サンプル列のセットに基づいて、当該第1及び第2の画像サンプル列の非類似度を算出する非類似度算出手段と、
    前記非類似度に基づいて前記時系列の複数の画像からイベントを検出する検出工程と
    を有することを特徴とするイベント検出方法。
  16. コンピュータに、請求項15に記載のイベント検出方法を実行させることを特徴とするコンピュータ読み取り可能なプログラム。
  17. 時系列の複数の画像を入力する入力工程と、
    スケールパラメータに基づいて、前記時系列の複数の画像からサンプルのスケールがそれぞれ異なる第1の画像サンプル列のセットを抽出する第1の抽出工程と、
    前記第1の画像サンプル列のセットとあらかじめ与えられた第2の画像サンプル列のセットとに基づいて、当該第1及び第2の画像サンプル列の非類似度を算出する非類似度算出工程と、
    前記非類似度に基づいて前記時系列の複数の画像からイベントを検出する検出工程と
    を有することを特徴とするイベント検出方法。
  18. コンピュータに、請求項17に記載のイベント検出方法を実行させることを特徴とするコンピュータ読み取り可能なプログラム。
  19. 時系列の複数の画像中のオブジェクトの動作を認識する装置であって、
    動作カテゴリが既知である時系列の複数の画像から第1の画像サンプルを抽出する第1画像サンプル抽出手段と、
    認識の対象とする時系列の複数の画像から第2の画像サンプルを抽出する第2画像サンプル抽出手段と、
    前記第1及び第2の画像サンプルのそれぞれに対する特徴量を算出する特徴量算出手段と、
    前記第1及び第2の画像サンプルのそれぞれに対する特徴量を時間方向に連結して第1及び第2の連結特徴量を生成する連結手段と、
    前記第1の連結特徴量と第2の連結特徴量との類似度を算出する類似度算出手段と、
    前記類似度に基づいて前記オブジェクトの動作を認識する認識手段と
    を備えることを特徴とする動作認識装置。
  20. 前記連結手段は、前記第1及び第2の画像サンプルのそれぞれに対する特徴量に基づいて、連続する特徴量が時間的順序を保ちつつ部分的に重複するように生成した複数の特徴量を連結することを特徴とする請求項19に記載の動作認識装置。
  21. 前記類似度算出手段は、前記第1の連結特徴量と第2の連結特徴量の確率密度の比に基づいて、前記類似度を算出することを特徴とする請求項19に記載の動作認識装置。
  22. 動作カテゴリが既知である時系列の複数の画像から第1の画像サンプルを抽出する工程と、
    認識の対象とする時系列の複数の画像から第2の画像サンプルを抽出する工程と、
    前記第1及び第2の画像サンプルのそれぞれに対する特徴量を算出する工程と、
    前記第1及び第2の画像サンプルのそれぞれに対する特徴量を時間方向に連結して第1及び第2の連結特徴量を生成する工程と、
    前記第1の連結特徴量と第2の連結特徴量との類似度を算出する工程と、
    前記類似度に基づいて前記オブジェクトの動作を認識する工程と
    を備えることを特徴とする動作認識方法。
  23. コンピュータに、請求項22に記載の動作認識方法を実行させることを特徴とするコンピュータ読み取り可能なプログラム。
JP2012247357A 2011-11-10 2012-11-09 イベント検出装置及びその方法、動作認識装置及びその方法、プログラム Active JP6161257B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012247357A JP6161257B2 (ja) 2011-11-10 2012-11-09 イベント検出装置及びその方法、動作認識装置及びその方法、プログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011246705 2011-11-10
JP2011246705 2011-11-10
JP2012247357A JP6161257B2 (ja) 2011-11-10 2012-11-09 イベント検出装置及びその方法、動作認識装置及びその方法、プログラム

Publications (2)

Publication Number Publication Date
JP2013122755A true JP2013122755A (ja) 2013-06-20
JP6161257B2 JP6161257B2 (ja) 2017-07-12

Family

ID=48280714

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012247357A Active JP6161257B2 (ja) 2011-11-10 2012-11-09 イベント検出装置及びその方法、動作認識装置及びその方法、プログラム

Country Status (2)

Country Link
US (1) US9824296B2 (ja)
JP (1) JP6161257B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015133065A (ja) * 2014-01-15 2015-07-23 キヤノン株式会社 画像認識装置、画像認識方法およびプログラム
JP2015133085A (ja) * 2014-01-15 2015-07-23 キヤノン株式会社 情報処理装置およびその方法
JP2019520647A (ja) * 2016-06-22 2019-07-18 マイクロソフト テクノロジー ライセンシング,エルエルシー 画像妥当性確認の自動化
JP2020135482A (ja) * 2019-02-20 2020-08-31 日本電信電話株式会社 イベント発生時刻学習装置、イベント発生時刻推定装置、イベント発生時刻推定方法、イベント発生時刻学習プログラム、及びイベント発生時刻推定プログラム
US11749021B2 (en) 2019-05-27 2023-09-05 Nec Corporation Retrieval device, control method, and non-transitory storage medium

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8639028B2 (en) * 2006-03-30 2014-01-28 Adobe Systems Incorporated Automatic stacking based on time proximity and visual similarity
US10043060B2 (en) * 2008-07-21 2018-08-07 Facefirst, Inc. Biometric notification system
US8897556B2 (en) 2012-12-17 2014-11-25 Adobe Systems Incorporated Photo chapters organization
US8983150B2 (en) 2012-12-17 2015-03-17 Adobe Systems Incorporated Photo importance determination
JP6338429B2 (ja) * 2014-04-15 2018-06-06 キヤノン株式会社 被写体検出装置、被写体検出方法及びプログラム
US9554100B2 (en) 2014-09-30 2017-01-24 Qualcomm Incorporated Low-power always-on face detection, tracking, recognition and/or analysis using events-based vision sensor
US9986179B2 (en) 2014-09-30 2018-05-29 Qualcomm Incorporated Sensor architecture using frame-based and event-based hybrid scheme
US9762834B2 (en) 2014-09-30 2017-09-12 Qualcomm Incorporated Configurable hardware for computing computer vision features
US10515284B2 (en) 2014-09-30 2019-12-24 Qualcomm Incorporated Single-processor computer vision hardware control and application execution
US9923004B2 (en) 2014-09-30 2018-03-20 Qualcomm Incorporated Hardware acceleration of computer vision feature detection
US10728450B2 (en) 2014-09-30 2020-07-28 Qualcomm Incorporated Event based computer vision computation
US9838635B2 (en) 2014-09-30 2017-12-05 Qualcomm Incorporated Feature computation in a sensor element array
US9940533B2 (en) 2014-09-30 2018-04-10 Qualcomm Incorporated Scanning window for isolating pixel values in hardware for computer vision operations
US20170132466A1 (en) 2014-09-30 2017-05-11 Qualcomm Incorporated Low-power iris scan initialization
US9704056B2 (en) 2015-04-02 2017-07-11 Qualcomm Incorporated Computing hierarchical computations for computer vision calculations
CN105374052B (zh) * 2015-11-13 2018-02-13 大连大学 基于度量mds和改进斜交空间距离的运动捕捉数据分割方法
CN105843947B (zh) * 2016-04-08 2019-03-05 华南师范大学 基于大数据关联规则挖掘的异常行为检测方法和系统
US10984235B2 (en) 2016-12-16 2021-04-20 Qualcomm Incorporated Low power data generation for iris-related detection and authentication
US10614332B2 (en) 2016-12-16 2020-04-07 Qualcomm Incorportaed Light source modulation for iris size adjustment
US10379718B2 (en) * 2017-12-22 2019-08-13 Palo Alto Research Center Incorporated System and method for providing ambient information to user through layered visual montage
US10747962B1 (en) 2018-03-12 2020-08-18 Amazon Technologies, Inc. Artificial intelligence system using phrase tables to evaluate and improve neural network based machine translation
WO2021027440A1 (zh) * 2019-08-15 2021-02-18 华为技术有限公司 一种人脸检索方法及装置
CN112464965B (zh) * 2019-09-06 2024-06-21 富士通株式会社 估计模型的准确性和鲁棒性的方法及其装置
CN110928918B (zh) * 2019-11-13 2022-07-05 深圳大学 时间序列数据组成模式的提取方法、装置及终端设备
WO2022009807A1 (ja) * 2020-07-10 2022-01-13 ソニーセミコンダクタソリューションズ株式会社 撮像素子および撮像方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11259061A (ja) * 1998-03-12 1999-09-24 Toshiba Corp デジタル動画像処理装置およびデジタル動画像処理方法
JP2007328435A (ja) * 2006-06-06 2007-12-20 Mitsubishi Electric Corp 移動体行動分析装置
JP2010218022A (ja) * 2009-03-13 2010-09-30 Toshiba Corp 信号探索装置、信号探索方法及びプログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09130732A (ja) * 1995-11-01 1997-05-16 Matsushita Electric Ind Co Ltd シーンチェンジ検出方法および動画像編集装置
US5835163A (en) * 1995-12-21 1998-11-10 Siemens Corporate Research, Inc. Apparatus for detecting a cut in a video
JP3780623B2 (ja) * 1997-05-16 2006-05-31 株式会社日立製作所 動画像の記述方法
US5990980A (en) * 1997-12-23 1999-11-23 Sarnoff Corporation Detection of transitions in video sequences
US7038736B2 (en) * 2000-09-21 2006-05-02 Canon Kabushiki Kaisha Moving image processing apparatus and method, and computer readable memory
US7136508B2 (en) * 2000-11-09 2006-11-14 Minolta Co., Ltd. Image processing apparatus, method, and program for processing a moving image
US7499077B2 (en) * 2001-06-04 2009-03-03 Sharp Laboratories Of America, Inc. Summarization of football video content
US6870956B2 (en) * 2001-06-14 2005-03-22 Microsoft Corporation Method and apparatus for shot detection
US7110569B2 (en) * 2001-09-27 2006-09-19 Koninklijke Philips Electronics N.V. Video based detection of fall-down and other events
US7327885B2 (en) * 2003-06-30 2008-02-05 Mitsubishi Electric Research Laboratories, Inc. Method for detecting short term unusual events in videos
US7426301B2 (en) * 2004-06-28 2008-09-16 Mitsubishi Electric Research Laboratories, Inc. Usual event detection in a video using object and frame features
US20060018516A1 (en) * 2004-07-22 2006-01-26 Masoud Osama T Monitoring activity using video information
JP4368767B2 (ja) 2004-09-08 2009-11-18 独立行政法人産業技術総合研究所 異常動作検出装置および異常動作検出方法
US8009193B2 (en) * 2006-06-05 2011-08-30 Fuji Xerox Co., Ltd. Unusual event detection via collaborative video mining
US8340352B2 (en) * 2009-08-18 2012-12-25 Behavioral Recognition Systems, Inc. Inter-trajectory anomaly detection using adaptive voting experts in a video surveillance system
US8167430B2 (en) * 2009-08-31 2012-05-01 Behavioral Recognition Systems, Inc. Unsupervised learning of temporal anomalies for a video surveillance system
AU2009243442B2 (en) * 2009-11-30 2013-06-13 Canon Kabushiki Kaisha Detection of abnormal behaviour in video objects

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11259061A (ja) * 1998-03-12 1999-09-24 Toshiba Corp デジタル動画像処理装置およびデジタル動画像処理方法
JP2007328435A (ja) * 2006-06-06 2007-12-20 Mitsubishi Electric Corp 移動体行動分析装置
JP2010218022A (ja) * 2009-03-13 2010-09-30 Toshiba Corp 信号探索装置、信号探索方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
杉山 将: "確率密度比に基づく新たな機械学習パラダイム", 情報処理, vol. 第52巻 第8号, JPN6016040513, 15 July 2011 (2011-07-15), JP, pages 1011, ISSN: 0003423381 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015133065A (ja) * 2014-01-15 2015-07-23 キヤノン株式会社 画像認識装置、画像認識方法およびプログラム
JP2015133085A (ja) * 2014-01-15 2015-07-23 キヤノン株式会社 情報処理装置およびその方法
JP2019520647A (ja) * 2016-06-22 2019-07-18 マイクロソフト テクノロジー ライセンシング,エルエルシー 画像妥当性確認の自動化
JP7025354B2 (ja) 2016-06-22 2022-02-24 マイクロソフト テクノロジー ライセンシング,エルエルシー 画像妥当性確認の自動化
JP2020135482A (ja) * 2019-02-20 2020-08-31 日本電信電話株式会社 イベント発生時刻学習装置、イベント発生時刻推定装置、イベント発生時刻推定方法、イベント発生時刻学習プログラム、及びイベント発生時刻推定プログラム
JP7092062B2 (ja) 2019-02-20 2022-06-28 日本電信電話株式会社 イベント発生時刻学習装置、イベント発生時刻推定装置、イベント発生時刻推定方法、イベント発生時刻学習プログラム、及びイベント発生時刻推定プログラム
US11749021B2 (en) 2019-05-27 2023-09-05 Nec Corporation Retrieval device, control method, and non-transitory storage medium

Also Published As

Publication number Publication date
US20130121590A1 (en) 2013-05-16
JP6161257B2 (ja) 2017-07-12
US9824296B2 (en) 2017-11-21

Similar Documents

Publication Publication Date Title
JP6161257B2 (ja) イベント検出装置及びその方法、動作認識装置及びその方法、プログラム
JP6045549B2 (ja) 感情および行動を認識するための方法およびシステム
Tian et al. Eliminating background-bias for robust person re-identification
Elharrouss et al. Gait recognition for person re-identification
Qiao et al. Learning discriminative trajectorylet detector sets for accurate skeleton-based action recognition
Balazia et al. Human gait recognition from motion capture data in signature poses
Gong et al. Kernelized temporal cut for online temporal segmentation and recognition
JPWO2018025831A1 (ja) 人流推定装置、人流推定方法およびプログラム
Chattopadhyay et al. Frontal gait recognition from occluded scenes
CN114093022A (zh) 活动检测装置、活动检测系统及活动检测方法
JP7031685B2 (ja) モデル学習装置、モデル学習方法及びコンピュータプログラム
Hernández et al. Human activity recognition based on kinematic features
Bharadwaj et al. Can holistic representations be used for face biometric quality assessment?
JP2007280219A (ja) 動きパターン認識装置、動きパターン認識方法及び動きパターン認識プログラム
Liu et al. A hierarchical learning approach for railway fastener detection using imbalanced samples
Zhang et al. Fuzzy segmentation and recognition of continuous human activities
US20230386185A1 (en) Statistical model-based false detection removal algorithm from images
Bâce et al. How far are we from quantifying visual attention in mobile HCI?
JP2022062675A (ja) 類似画像検索による人流分析方法および装置
Mahmood et al. Contextual Anomaly Detection Based Video Surveillance System
Vo et al. Automatic hand gesture segmentation for recognition of Vietnamese sign language
Chen et al. Social distance monitoring of site workers for COVID-19 using context-guided data augmentation, deep learning, and homography transformation
Siyahjani et al. Online geometric human interaction segmentation and recognition
Chong et al. Modeling video-based anomaly detection using deep architectures: Challenges and possibilities
JP2018013913A (ja) 行動認識装置、行動認識方法、学習方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170613

R151 Written notification of patent or utility model registration

Ref document number: 6161257

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151