JP2021144525A - 検出装置、検出方法およびプログラム - Google Patents

検出装置、検出方法およびプログラム Download PDF

Info

Publication number
JP2021144525A
JP2021144525A JP2020043274A JP2020043274A JP2021144525A JP 2021144525 A JP2021144525 A JP 2021144525A JP 2020043274 A JP2020043274 A JP 2020043274A JP 2020043274 A JP2020043274 A JP 2020043274A JP 2021144525 A JP2021144525 A JP 2021144525A
Authority
JP
Japan
Prior art keywords
time zone
time
correction
likelihood
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020043274A
Other languages
English (en)
Other versions
JP7247133B2 (ja
Inventor
悠太 白川
Yuta Shirakawa
悠太 白川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2020043274A priority Critical patent/JP7247133B2/ja
Priority to US17/000,568 priority patent/US11580739B2/en
Publication of JP2021144525A publication Critical patent/JP2021144525A/ja
Application granted granted Critical
Publication of JP7247133B2 publication Critical patent/JP7247133B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】時間帯検出の精度および行動のカテゴリ検出の精度を向上する。【解決手段】検出装置は、設定部と推定部と検出部とを備える。設定部は、予め定められた1以上の時間帯候補を設定する。推定部は、複数の時系列画像から求められる特徴量と、時間帯候補と、を入力し、検出対象として予め定められた1以上の行動それぞれが発生した尤度を示す1以上の第1尤度と、1以上の時間帯候補それぞれを修正した1以上の修正時間帯を求めるための修正情報と、を出力する第1モデルに、特徴量および時間帯候補を入力し、第1モデルが出力する第1尤度および修正情報を得る。検出部は、修正情報に基づいて求められる1以上の修正時間帯と、第1尤度とに基づいて、時系列画像に含まれる行動と、行動が発生した時間帯の開始時刻および終了時刻と、を検出する。【選択図】図1

Description

本発明の実施形態は、検出装置、検出方法およびプログラムに関する。
時系列画像(動画、映像)から行動を示すカテゴリの尤度、カテゴリ名、行動の開始時刻、および、行動の終了時刻を求める行動時間帯検出技術が提案されている。例えば、動画全体から算出した特徴量から、あるモデル(モデルM1とする)によりカテゴリによらない時間帯候補を推定し、推定した時間帯候補ごとに別のモデル(モデルM2とする)により尤度を推定する技術が提案されている。
Yu-Wei Chao,et al., "Rethinking the Faster R-CNN Architecture for Temporal Action Localization", Google Research, Michigan university, CVPR2018.
しかしながら、従来技術では、カテゴリおよびカテゴリごとの時間帯(開始時刻、終了時刻)を適切に検出できない場合があった。例えば上記のように2つのモデル(モデルM1、モデルM2)を用いる技術では、モデルM1はカテゴリによらない時間帯候補を推定するため、カテゴリごとに適切な時間帯を推定できない場合があった。
実施形態の検出装置は、設定部と推定部と検出部とを備える。設定部は、予め定められた1以上の時間帯候補を設定する。推定部は、複数の時系列画像から求められる特徴量と、時間帯候補と、を入力し、検出対象として予め定められた1以上の行動それぞれが発生した尤度を示す1以上の第1尤度と、1以上の時間帯候補それぞれを修正した1以上の修正時間帯を求めるための修正情報と、を出力する第1モデルに、特徴量および時間帯候補を入力し、第1モデルが出力する第1尤度および修正情報を得る。検出部は、修正情報に基づいて求められる1以上の修正時間帯と、第1尤度とに基づいて、時系列画像に含まれる行動と、行動が発生した時間帯の開始時刻および終了時刻と、を検出する。
第1の実施形態にかかる検出装置のブロック図。 特徴量算出の例を示す図。 時間帯候補の例を示す図。 カテゴリごとに実行するNMS処理の例を示す図。 カテゴリを区別せずに実行するNMS処理の例を示す図。 第1の実施形態における特徴量抽出処理のフローチャート。 第1の実施形態における検出処理のフローチャート。 第2の実施形態にかかる検出装置のブロック図。 ノンパラメトリック手法による時間帯候補の生成例を示す図。 第2の実施形態における検出処理のフローチャート。 第3の実施形態にかかる検出装置のブロック図。 第3の実施形態の推定部による処理手順の例を説明する図。 第3の実施形態における検出処理のフローチャート。 第1〜第3の実施形態にかかる検出装置のハードウェア構成図。
以下に添付図面を参照して、この発明にかかる検出装置の好適な実施形態を詳細に説明する。
以下では、主に人物の行動(アクション、動作)を時系列画像から検出する例を説明するが、検出対象は人物の行動に限られるものではない。人物の代わりに、動物、ロボット、車両、および、飛行体などの他の移動体の行動を検出してもよい。
(第1の実施形態)
第1の実施形態にかかる検出装置は、複数の時間帯候補の基準を持つ推定モデルによりカテゴリごとに適切な時間帯を算出する。これにより、時間帯検出の精度、および、行動のカテゴリ検出の精度を向上することができる。
図1は、第1の実施形態にかかる検出装置100の構成の一例を示すブロック図である。本実施形態の検出装置100は、例えば人物が映るエリアを撮影し、撮影された動画から、予め定められたカテゴリ(種類)の行動(特定行動)が発生した時間帯、および、そのカテゴリを検出する検出装置(検出システム)である。以下、検出対象として予め定められた行動のカテゴリを行動カテゴリという場合がある。
本実施形態では、例えば商業施設の店舗内で、顧客が起こす行動を監視カメラにより監視し、以下の(A1)〜(A5)に示す5つの行動カテゴリ(動作)を検出する検出装置を例に説明する。このように、検出装置100は、監視カメラシステムに含まれるように構成することができる。
(A1)棚から商品を取り出す動作
(A2)棚に商品を戻す動作
(A3)商品を買い物カゴに入れる動作
(A4)商品を買い物カゴから出す動作
(A5)商品を自分の服に隠す動作
検出装置100は、カメラで撮影される動画内から、動画内に映る人物が上記5つの行動カテゴリに示す行動を起こしているか、また、起こしている場合は、いずれの時間帯にその行動を起こしているかを解析する。検出装置100は、解析の結果得られる時間帯、当該行動カテゴリ、および、行動カテゴリが示す行動が発生した尤もらしさを示す度合い(尤度、スコア)を出力する。以下ではこのような行動カテゴリごとの尤度を行動カテゴリ尤度(第1尤度)という場合がある。検出装置100は、報知が必要な行動カテゴリが検出された場合は、例えば監視員に対して注意喚起する等の出力処理を実行する。
なお検出する行動カテゴリは上記例に限られず、どのようなカテゴリであってもよい。例えば検出装置100は、スポーツ(例えばバスケットボール)の試合などを撮影した動画から、選手が起こした行動(例えば、シュート、ドリブルなど)と、その行動の開始時刻および終了時刻とを検出してもよい。
図1に示すように、検出装置100は、カメラ101と、画像記憶部111と、特徴量算出部102と、特徴量記憶部112と、出力部103と、記憶部113と、時間帯記憶部114と、制御部120と、を備えている。
画像記憶部111は、カメラ101によって取り込まれた画像を記憶する画像キューとして機能する。例えば画像記憶部111は、規定の長さの画像(フレーム)を記憶するように構成される。記憶する画像の長さが規定の長さを超える場合は、画像記憶部111は、記憶した時刻が古い画像から破棄し、規定の長さを維持する。
特徴量記憶部112は、特徴量算出部102により算出される特徴量を記憶する特徴量キューとして機能する。例えば特徴量記憶部112は、規定の長さの特徴量を記憶するように構成される。記憶する特徴量の長さが規定の長さを超える場合は、特徴量記憶部112は、記憶した時刻が古い特徴量から破棄し、規定の長さを維持する。
記憶部113は、検出装置100による各種処理で用いられる各種情報を記憶する記憶媒体である。例えば記憶部113は、後で再生可能とするため、画像記憶部111とは別に、カメラ101により撮影された画像(動画)を記憶する。時間帯記憶部114は、制御部120により算出される時間帯の情報を記憶する時間帯キューとして機能する。
なお、各記憶部(画像記憶部111、特徴量記憶部112、記憶部113、時間帯記憶部114)は、フラッシュメモリ、メモリカード、RAM(Random Access Memory)、HDD(Hard Disk Drive)、および、光ディスクなどの一般的に利用されているあらゆる記憶媒体により構成することができる。
各記憶部の一部または全部は、物理的に異なる記憶媒体としてもよいし、物理的に同一の記憶媒体の異なる記憶領域として実現してもよい。さらに記憶部のそれぞれは、物理的に異なる複数の記憶媒体により実現してもよい。例えば検出装置100を1つのコンピュータ(サーバコンピュータ、パーソナルコンピュータなど)として構成する場合、各記憶部を物理的に1つの記憶媒体により構成してもよい。
カメラ101は、例えば監視対象エリアを撮影して時系列の画像(動画)を出力する。例えばカメラ101は、フレームごとの画像(1画面分の静止画像)を1秒間に数十フレーム取り込むことで動画を撮影する。カメラ101は、後にユーザが検出結果と該当時間帯の動画とを合わせて一覧するときに必要な分だけ、取り込んだフレームを録画記録として記憶部113に記憶する。また、カメラ101は、動画の特徴的な情報を集約した特徴量を算出するため、取り込んだフレームを画像記憶部111に継続的に追加(記憶)する。
特徴量算出部102は、画像記憶部111に記憶される動画を解析し、動画の特徴量を算出する。図2は、特徴量算出の例を示す図である。例えば特徴量算出部102は、一定の時間間隔ごとに、画像記憶部111に記憶された動画201を読み出し、読み出した動画201から特徴量を算出する。一定の時間間隔ごとに算出される特徴量211は、特徴量記憶部112に記憶されている特徴量212に追加される。特徴量算出部102は、特徴量記憶部112に記憶された特徴量のうち、一定の長さの時間帯に対応する時系列の特徴量を定期的に出力してもよい。出力された一定の長さの特徴量は、例えば制御部120により取得され、行動カテゴリの検出に用いられる。
特徴量算出部102は、例えば、動画を入力して特徴量を出力するように学習された特徴量算出用のモデルを用いて特徴量を算出する。特徴量算出用のモデルは、例えば、1個以上の静止画像内の輝度値の位置に応じた変化、または、2個以上の隣接する静止画像間の輝度値の時間的な変化などに基づく特徴量を出力するように学習される。特徴量算出用のモデルは、例えばニューラルネットワークモデルである。
特徴量算出部102は、短く切り出された映像を行動カテゴリに分類するように事前に学習したニューラルネットワーク(特徴量算出用のモデルの一例)のカテゴリ出力層の1つ前の内部状態を特徴量として利用してよい。例えば特徴量算出部102は、上記の(A1)〜(A5)に示す行動カテゴリ(動作)が映った映像を(A1)〜(A5)に分類できるように事前に学習したニューラルネットワークのカテゴリ出力層の1つ前の内部状態を特徴量とみなし利用してよい。
カメラ101および画像記憶部111は物理的に一体に構成されてもよい。特徴量算出部102および特徴量記憶部112は物理的に一体に構成されてもよい。また、カメラ101、画像記憶部111、特徴量算出部102、および、特徴量記憶部112が物理的に一体に構成されてもよい。
例えばカメラ101、画像記憶部111、特徴量算出部102、および、特徴量記憶部112を備える機器が、監視対象エリアごとに備えられ、各機器がネットワークを介して制御部120に特徴量を送信するように構成してもよい。ネットワークはどのような形態であってもよいが、例えばインターネットである。ネットワークは有線であっても無線であってもよい。
出力部103は、検出結果などを出力するための装置である。出力部103は、例えば表示装置(ディスプレイ、照明装置など)、および、音声出力装置(スピーカなど)である。出力部103は、検出装置100の外部に備えられてもよい。例えば出力部103は、ネットワーク(インターネットなど)を介して制御部120と接続される情報処理装置(パーソナルコンピュータ、サーバコンピュータなど)であってもよい。
制御部120は、特徴量算出部102により算出され特徴量記憶部112に記憶された特徴量を参照して、行動カテゴリ尤度、カテゴリ名、行動の開始時刻、および、行動の終了時刻を検出する。制御部120は、取得部121と、設定部122と、推定部123と、検出部124と、出力制御部125と、を備えている。
取得部121は、制御部120で用いられる各種情報を取得する。例えば取得部121は、特徴量算出部102により算出される時系列の特徴量を取得し、推定部123へ出力する。
設定部122は、行動カテゴリを検出する時間帯の候補となる1以上の時間帯候補を設定する。設定された時間帯候補は、行動カテゴリを推定するための推定モデル(第1モデル)の入力として用いられる。例えば設定部122は、予め定められた時間帯候補を記憶部113から読み出し、読み出した時間帯候補を推定部123へ出力する。
設定部122は、取得された特徴量に応じて設定する時間帯候補を切り替えてもよい。例えば、設定部122は、特徴量を入力して1以上の時間帯候補を出力するモデル(ニューラルネットワークモデルなど)を用いて、取得された特徴量に応じた1以上の時間帯候補を選択し、選択した時間帯候補を設定する。取得された特徴量に応じた時間帯候補の選択方法はこれに限られるものではない。例えば、記憶部113に特徴量と1以上の時間帯候補を対応づけて記憶しておき、設定部122が、取得された特徴量に応じた時間帯候補を記憶部113から選択してもよい。このような処理により、検出結果の時間的な検出精度を改善することができる。
時間帯候補は、例えば、特徴量記憶部112が記憶する一定の長さの特徴量に相当する、一定の長さの時間帯(一定時間帯)に対する相対位置により定められる。図3は、時間帯候補の一例を示す図である。例えば、時間帯候補は以下のように定められる。
・一定時間帯の開始時刻から、一定時間帯の50%までの時間帯、すなわち一定時間帯の前半に対応する時間帯候補301
・一定時間帯の開始時刻から一定時間の30%経過した時刻から70%経過した時刻まで、すなわち一定時間帯の中心40%分に対応する時間帯候補302
・一定時間帯の末尾の25%に対応する時間帯候補303
以下では、この3つの時間帯候補が設定される例に説明する。時間帯候補はこれらに限られるものではなく、1つ以上の時間帯候補がどのような位置および範囲で設定されてよい。
推定部123は、取得部121により取得された時系列の特徴量と、設定部122により設定された時間帯候補とから、行動カテゴリごとの行動時間帯(開始時刻、終了時刻)、および、行動カテゴリ尤度を推定する。推定部123は、例えばニューラルネットワークモデルなどの推定モデルを用いて推定を行う。
推定モデルは、例えば、時系列の特徴量と時間帯候補とを入力し、行動カテゴリごとに、行動カテゴリ尤度、および、時間帯の修正量(修正情報の一例)を出力するように学習されたモデルである。推定モデルに入力する時系列の特徴量は、例えば特徴量記憶部112に記憶された規定の長さの特徴量である。修正量とは、行動カテゴリ尤度が他の時間帯より大きくなる時間帯へ時間帯候補を修正する量を示す。行動カテゴリ尤度が他の時間帯より大きくなる時間帯は、例えば、行動カテゴリ尤度が最大となる時間帯である。
修正量の代わりに、行動カテゴリ尤度が他の時間帯より大きくなる時間帯へ時間帯候補を修正した時間帯(修正情報の他の例)を出力するモデルを用いてもよい。推定部123は、このような推定モデルに特徴量および時間帯候補を入力し、推定モデルが出力する行動カテゴリ尤度および修正情報(修正量または修正した時間帯)を得る。
以下では、修正情報として修正量を用いる例を主に説明する。
推定モデルは、各時間帯候補および各行動カテゴリに対してそれぞれ独立に修正量を出力する。すなわち、本実施形態では3つの時間帯候補と5つの行動カテゴリとの15パターン(3候補×5カテゴリ)の組み合わせに対して、それぞれ最も尤もらしい修正量と、行動カテゴリ尤度とが算出される。
各修正量は、時刻をずらす量と、時間を拡縮する量と、を含む。例えば、時間帯候補302の行動カテゴリ(A1)(「棚から商品を取り出す動作」)に対する修正量は、中心が一定時間帯の10%過去側にずれ、時間の長さは10%拡大する、という情報を含む。この修正量に従い、中心が一定時間の50%位置、継続する長さが40%である時間帯候補302は、中心が一定時間の開始時刻から40%の位置、継続する長さが一定時間の44%である修正時間帯304に修正される。また、行動カテゴリ(A2)(「棚に商品を戻す動作」)に対する修正量も同様に算出され、この修正量に従い、例えば時間帯候補302は修正時間帯305に修正される。同様に、時間帯候補302に対して、残りの行動カテゴリ(A3)〜(A5)に基づく修正が実行される。また、他の時間帯候補301、303に対しても、5つの行動カテゴリ(A1)〜(A5)に基づく修正が実行される。
推定部123は、修正量を算出するとともに、修正時間帯の当該行動カテゴリに対する行動カテゴリ尤度を、例えば0以上1以下の値で算出する。推定部123は、修正量を対応する時間帯候補に適用した修正時間帯と、行動カテゴリ尤度と、を対応づけた情報(推定結果)を時間帯記憶部114へ追加する。
検出部124は、時間帯記憶部114に記憶された修正時間帯と行動カテゴリ尤度とに基づいて、動画に含まれる行動を示す情報と、行動が発生した時間帯(検出時間帯)の開始時刻および終了時刻と、を検出する。行動を示す情報は、例えば行動カテゴリの名称(行動カテゴリ名)である。検出部124は、検出時間帯に対する最終的な行動カテゴリ尤度(検出スコア)を出力してもよい。
検出部124は、例えば、時間帯記憶部114の記憶する推定結果(修正時間帯)が十分古くなった場合に、時間帯記憶部114に記憶された修正時間帯および行動カテゴリ尤度から確定検出結果を算出し、確定検出結果を出力制御部125へ出力する。検出部124は、確定検出結果の算出に用いた修正時間帯に関する情報を時間帯記憶部114から破棄する。
検出部124は、修正時間帯が十分古くなったかは、例えば以下のような基準に従い判定する。
(R1)特徴量算出部102が出力する時系列の特徴量が、時間帯記憶部114に記憶された修正時間帯を含まなくなった。
(R2)推定部123が新規に算出した修正時間帯と、時間帯記憶部114に記憶された修正時間帯とが重複を持たない時刻が一定時間以上経過した。
検出部124が確定検出結果を算出する処理は、以下の2つの除外処理を含む。
(S1)時間帯記憶部114に記憶された推定結果のうち、行動カテゴリ尤度が低い推定結果を除外する処理
(S2)時間帯の重複が多い複数の修正時間帯を対象とし、これらの複数の修正時間帯のうち最も行動カテゴリ尤度の高い修正時間帯のみを残し、その他の修正時間帯に対応する推定結果を除外するノンマキシマムサプレッション(Non-Maximum Suppression)処理(以下、NMS処理)
(S1)では、例えば検出部124は、修正時間帯に対応する行動カテゴリ尤度と、行動カテゴリの基準値とを比較し、行動カテゴリ尤度が基準値以下の修正時間帯を推定結果から取り除く。行動カテゴリの基準値は、例えば記憶部113に記憶され、検出部124から参照される。
(S2)では、例えば検出部124は、修正時間帯同士の重複度に基づきNMS処理の対象とする推定結果を選択する。例えば検出部124は、時間的インターセクションオーバーユニオン(tIoU:Temporal Intersection Over Union)に基づき重複度を算出し、算出したtIoUがtIoUの基準値より大きい推定結果を対象として選択する。tIoUの基準値は、例えば記憶部113に記憶され、検出部124から参照される。tIoUの基準値は、0より大きく1以下の値(例えば0.5)に設定される。
NMS処理は、カテゴリごとに実行されてもよいし、カテゴリを区別せずに実行されてもよい。図4は、カテゴリごとに実行するNMS処理の例を示す図である。図4は、行動カテゴリ(A1)(「棚から商品を取り出す動作」)、および、行動カテゴリ(A2)(「棚に商品を戻す動作」)それぞれに対してNMS処理を行う例を示す。行動カテゴリ(A1)に対しては、時間帯記憶部114に、修正時間帯401、402、403が記憶されているものとする。
検出部124は、まず、修正時間帯401、402、403を含む推定結果を未確定検出結果とする。検出部124は、未確定検出結果のうち、最も行動カテゴリ尤度が高い未確定検出結果を選択し、確定検出結果として未確定検出結果から取り除く。検出部124は、選択した確定検出結果と、他の未確定検出結果との間のtIoUを算出し、tIoUが基準値以上である未確定検出結果を棄却検出結果として未確定検出結果から取り除く。検出部124は、これらの処理を未確定検出結果がなくなるまで繰り返す。
修正時間帯401、402、403の行動カテゴリ尤度がそれぞれ0.9、0.7、0.3である場合のNMS処理の例を以下に説明する。
検出部124は、まず最も行動カテゴリ尤度が高い修正時間帯404を確定検出結果として未確定検出結果から取り除く。検出部124は、修正時間帯401とのtIoUが基準値0.5より大きい修正時間帯402を棄却検出結果として取り除く。次に検出部124は、残された未確定検出結果のうち最も行動カテゴリ尤度が高い修正時間帯403を確定検出結果として取り除く。この結果、未確定検出結果がなくなるため、NMS処理は終了する。
同様に、検出部124は、行動カテゴリ(A2)(「棚に商品を戻す動作」)に対応する修正時間帯404、405、406を対象にNMS処理を行い、修正時間帯405、406を確定検出結果として出力する。
次に、カテゴリを区別せずにNMS処理が実行される例について説明する。図5は、カテゴリを区別せずに実行するNMS処理の例を示す図である。時間帯記憶部114には、図4と同様に、修正時間帯401〜406が記憶されているものとする。
カテゴリを区別せずにNMS処理する場合、検出部124は、修正時間帯401〜406を対象に、カテゴリの区別なく行動カテゴリ尤度が高い修正時間帯に対応する推定結果から確定検出結果として取り除くNMS処理を行う。この結果、図5の例では、修正時間帯401、406が確定検出結果として出力される。
検出部124は、例えば、NMS処理の結果として得られる確定検出結果に、行動カテゴリ名を付加した情報を、出力制御部125へ出力する。行動カテゴリ名は、例えば行動カテゴリと対応づけて記憶部113に記憶され、検出部124から参照される。
検出部124は、行動が発生しない尤度(第2尤度)が高い修正時間帯を除外するように構成してもよい。この場合、例えば推定部123は、行動カテゴリ尤度のみでなく、予め定められた行動が発生しない尤度を出力するように学習された推定モデルを用いる。検出部124は、例えば行動が発生しない尤度が他のすべての行動カテゴリ尤度より大きい場合に、対応する修正時間帯を含む推定結果を棄却検出結果として取り除く。これにより、誤った検出(過検出)を削減することができる。
図1に戻り、出力制御部125は、検出装置100により処理される各種情報の出力を制御する。例えば出力制御部125は、検出部124が出力した検出結果と、記憶部113に記憶された録画記録とから、検出された行動カテゴリ名、行動カテゴリ尤度、検出時間帯、および、対応する時間帯の動画の組とを求め、記憶部113へ記憶する。
また、検出された行動カテゴリが、ユーザの犯罪行為(万引きなど)などのように報知が必要な行動カテゴリであった場合は、出力制御部125は、例えば監視員の注意を喚起する情報などを出力部103に出力させる。
上記各部(特徴量算出部102、および、制御部120)は、例えば、1または複数のプロセッサにより実現される。例えば上記各部は、CPU(Central Processing Unit)などのプロセッサにプログラムを実行させること、すなわちソフトウェアにより実現してもよい。上記各部は、専用のIC(Integrated Circuit)などのプロセッサ、すなわちハードウェアにより実現してもよい。上記各部は、ソフトウェアおよびハードウェアを併用して実現してもよい。複数のプロセッサを用いる場合、各プロセッサは、各部のうち1つを実現してもよいし、各部のうち2以上を実現してもよい。
次に、このように構成された第1の実施形態にかかる検出装置100による特徴量抽出処理について説明する。特徴量抽出処理は、撮影した動画から特徴量を抽出する処理である。図6は、第1の実施形態における特徴量抽出処理の一例を示すフローチャートである。
カメラ101は、例えば監視対象エリアを撮影して時系列の画像(動画)を取得する(ステップS101)。カメラ101は、取得した動画を画像記憶部111に記憶する(ステップS102)。特徴量算出部102は、例えば一定の時間間隔ごとに、画像記憶部111に記憶された動画から特徴量を算出する(ステップS103)。特徴量算出部102は、算出した特徴量を特徴量記憶部112に記憶する(ステップS104)。
このようにして、画像記憶部111には継続して動画が記憶される。また、特徴量記憶部112には一定の時間間隔で継続して特徴量が記憶される。
次に、検出装置100による検出処理について説明する。検出処理は、特徴量抽出処理により抽出された特徴量を用いて動画から行動のカテゴリおよび行動が発生した時間帯を検出する処理である。図7は、第1の実施形態における検出処理の一例を示すフローチャートである。
検出処理は、例えば、一定時間が経過するごとに、その時点で特徴量記憶部112に記憶されている規定の長さの複数の特徴量を用いて実行される。一定時間は、例えば特徴量記憶部112に記憶される規定の長さの特徴量に相当する時間より短い時間とする。これにより、特徴量を徐々にずらしながら(スライドさせながら)、検出処理の入力として用いることが可能となる。
設定部122は、例えば記憶部113に記憶された時間帯候補を読み出し、読み出した情報に基づき時間帯候補を設定する(ステップS201)。推定部123は、取得部121により特徴量記憶部112から取得された特徴量と、設定された時間帯候補とを推定モデルに入力し、行動カテゴリごとの修正量および尤度を推定し、修正量に従い時間帯候補を修正して修正時間帯を算出する(ステップS202)。
検出部124は、推定部123により算出された修正時間帯と、既に時間帯記憶部114に記憶されている修正時間帯とが重複するか否かを判定する(ステップS203)。この判定は、修正時間帯が十分古くなったかの判定であり、例えば上記の(R1)に相当する。検出部124は、上記の(R2)またはその他の基準に従い判定してもよい。
重複する場合(ステップS203:Yes)、推定部123は、算出した修正時間帯を含む推定結果を時間帯記憶部114に記憶し(ステップS204)、検出処理を終了する。重複しない場合(ステップS203:No)、検出部124は、以下のように確定検出結果を算出する処理を実行する。
すなわち、検出部124は、既に時間帯記憶部114に記憶されている修正時間帯を含む推定結果を、未確定検出結果とする(ステップS205)。検出部124は、行動カテゴリ尤度が基準値以下の修正時間帯を含む未確定検出結果を除外する(ステップS206)。検出部124は、残っている未確定検出結果のうち、行動カテゴリ尤度が最大となる修正時間帯を含む未確定検出結果を、確定検出結果として選択する(ステップS207)。検出部124は、上記のようなNMS処理を実行し、選択した確定検出結果に含まれる修正時間帯との重複が多い修正時間帯を含む未確定推定結果を除外する(ステップS208)。
検出部124は、確定検出結果が得られたか否かを判定する(ステップS209)。例えば行動カテゴリ尤度が基準値より大きい修正時間帯がないような場合は、確定検出結果が得られないと判定される。
確定検出結果が得られた場合(ステップS209:Yes)、検出部124は、確定した修正時間帯および行動カテゴリ尤度を、検出結果として出力制御部125に出力する。出力制御部125は、検出部124が出力した検出結果と、記憶部113に記憶された録画記録とから、検出された行動カテゴリ名、行動カテゴリ尤度、検出時間帯、および、対応する時間帯の動画の組とを求め、記憶部113へ記憶する(ステップS210)。また、出力制御部125は、検出された行動カテゴリが報知対象の行動カテゴリであった場合、報知対象に応じた情報を出力部103に出力させる。
検出部124は、ステップS205〜ステップS210の処理で対象とした修正時間帯を含む推定結果を時間帯記憶部114から削除し(ステップS211)、検出処理を終了する。
このように、第1の実施形態にかかる検出装置では、推定モデルによりカテゴリごとに行動を推定するとともに適切な時間帯を算出する。これにより、時間帯検出の精度、および、行動のカテゴリ検出の精度を向上することができる。
例えば商業施設などの監視対象エリアを撮影して行動を検出するシステムなどにおいて、監視対象の行動ごとに適切な時間帯を、予め定めた候補時間帯から算出することができる。従って、監視対象の行動が発生した時間帯と検出結果の行動カテゴリ尤度を高精度に算出することが可能となる。また、検出結果の行動カテゴリ名および対応する時間帯の動画は、例えば、ユーザが確認できるように出力することができる。
また、本実施形態では、継続して算出される特徴量を一定の時間間隔ごと取得し、一定の時間間隔で得られる行動の推定結果を統合して最終的な検出結果を得ることができる。すなわち、動画に基づく行動を高い頻度で継続的に検出することが可能になる。
(第2の実施形態)
第2の実施形態にかかる検出装置は、時間帯候補を調整する機能をさらに有する。図8は、第2の実施形態にかかる検出装置100−2の構成の一例を示すブロック図である。図8に示すように、検出装置100−2は、カメラ101と、画像記憶部111と、特徴量算出部102と、特徴量記憶部112と、出力部103と、記憶部113と、時間帯記憶部114と、制御部120−2と、を備えている。
第2の実施形態では、制御部120−2が備える設定部122−2の機能が第1の実施形態と異なっている。その他の構成および機能は、第1の実施形態にかかる検出装置100のブロック図である図1と同様であるので、同一符号を付し、ここでの説明は省略する。
設定部122−2は、時間帯記憶部114に記憶されている修正時間帯の傾向に基づき時間帯候補を調整する機能をさらに備えている。例えば設定部122−2は、時間帯記憶部114に記憶されている過去の修正時間帯の開始時刻および終了時刻から、予め記憶部113に設定されていた時間帯候補を修正した時間帯候補を算出する。修正した時間帯候補は、例えば予め設定されていた時間帯候補に追加して使用される。修正した時間帯候補を予め設定されていた時間帯候補の代わりに使用するように構成してもよい。
これにより、行動が発生している可能性の高い時間帯に時間帯候補を設定することが可能になり、より高精度に行動を検出することが可能になる。
設定部122−2は、例えば以下のような手法により、過去の修正時間帯に基づく時間帯候補を算出する。
・統計的クラスタリング手法
例えば設定部122−2は、時間帯記憶部114に記憶されている複数の修正時間帯の開始時刻および終了時刻に対して統計的クラスタリング手法を適用し、開始時刻および終了時刻が相互に類似する修正時間帯を含む複数のクラスタを算出する。設定部122−2は、各クラスタに含まれる修正時間帯の開始時刻および終了時刻の代表値(平均値、中央値など)を算出する。設定部122−2は、代表値を、新たな時間帯候補の開始時刻および終了時刻とする。
・ノンパラメトリック手法
例えば設定部122−2は、時間帯記憶部114に記憶されている複数の修正時間帯の開始時刻および終了時刻それぞれを近似するモデルを求める。設定部122−2は、求めたモデルから、モデルが示す値に応じて開始時刻および終了時刻をサンプリングし、サンプリングされた開始時刻および終了時刻により定められる時間帯候補を設定する。
設定部122−2は、最も頻度が大きい開始時刻および終了時刻を算出し、新たな時間帯候補の開始時刻および終了時刻としてもよい。
図9は、ノンパラメトリック手法による時間帯候補の生成例を示す図である。時間帯候補群901は、予め定められた複数の時間帯候補の例である。修正時間帯群911は、時間帯記憶部114に記憶されている修正時間帯の例である。
設定部122−2は、修正時間帯群911に含まれる修正時間帯の開始時刻をフィッティングしたモデル921と、終了時刻をフィッティングしたモデル922とを算出する。設定部122−2は、モデル921、922それぞれから同じ個数の時刻をサンプリングする。設定部122−2は、サンプリングした開始時刻および終了時刻で定められる時間帯を、新たな時間帯候補として生成する。図9では、3個の時刻をそれぞれサンプリングし、3つの追加の時間帯候補を生成した例が示されている。修正時間帯群931は、このように生成された修正時間帯を示している。
次に、このように構成された第2の実施形態にかかる検出装置100−2による検出処理について図10を用いて説明する。図10は、第2の実施形態における検出処理の一例を示すフローチャートである。
設定部122−2は、上記のような手法により新たな時間帯候補を生成し、例えば記憶部113に記憶されている時間帯候補に追加する(ステップS301)。設定部122−2は、追加した時間帯候補を含む時間帯候補を、以降の処理で使用する時間帯候補として設定する(ステップS302)。
ステップS303からステップS312までは、第1の実施形態にかかる検出装置100におけるステップS202からステップS211までと同様の処理なので、その説明を省略する。
このように、第2の実施形態では、過去の修正時間帯の開始時刻および終了時刻を参照して新たに時間帯候補を算出して使用することができる。これにより、行動が発生している可能性の高い時間帯に時間帯候補を設定することが可能になり、より高精度に行動を検出することが可能になる。
設定部122−2は、時間帯記憶部114に記憶された修正時間帯の一部または全部を時間帯候補として設定してもよい。この場合、上記の統計的クラスタリング手法およびノンパラメトリック手法などは適用しなくてもよい。
時間帯候補の個数、開始時刻、および、相対位置などは、例えば予めユーザにより決定され、記憶部113に記憶される。推定される修正時間帯が、予め決定された時間帯候補から大きくずれることにより、修正量が大きくなる場合がある。このような場合を考慮し、設定部122−2が、過去の推定結果等に基づき、記憶部113に記憶された時間帯候補を更新(修正)する機能を備えてもよい。
例えば設定部122−2は、過去の予め定められた期間または個数の検出結果を参照して、推定された修正時間帯と、時間帯候補との差分を算出する。設定部122−2は、差分が減少するように、時間帯候補を修正し、記憶部113に記憶する。このような処理により、時間帯候補の相対位置および長さなどがより適切に設定可能となり、検出精度をより改善することができる。
(第3の実施形態)
第1および第2の実施形態は、特徴量記憶部112に記憶される規定の長さの特徴量全てを用いて修正時間帯を算出した。このような方法によれば、規定の長さ全体に相当する大域的な特徴量に基づく行動の検出が可能となる。一方、一部の特徴量を用いれば、規定の長さより小さい局所的な特徴量(局所特徴量)に基づく行動の検出が可能となる。
第3の実施形態にかかる検出装置は、局所特徴量を用いた行動の検出を行う機能をさらに備える。図11は、第3の実施形態にかかる検出装置100−3の構成の一例を示すブロック図である。図11に示すように、検出装置100−3は、カメラ101と、画像記憶部111と、特徴量算出部102と、特徴量記憶部112と、出力部103と、記憶部113と、時間帯記憶部114と、制御部120−3と、を備えている。
第3の実施形態では、制御部120−3が備える推定部123−3の機能が第1の実施形態と異なっている。その他の構成および機能は、第1の実施形態にかかる検出装置100のブロック図である図1と同様であるので、同一符号を付し、ここでの説明は省略する。
推定部123−3は、第1の実施形態の推定部123に対して、以下のような機能が追加される。すなわち、推定部123−3は、推定モデル(推定モデルMAとする)を用いて修正時間帯を算出した後に、算出した修正時間帯に対応する特徴量である局所特徴量(第2特徴量)を算出する。そして推定部123−3は、別の推定モデルMB(第2モデル)に対して局所特徴量を入力し、推定モデルMBから出力される尤度修正量および時間帯再修正量を得る。推定モデルMBは、例えば、局所特徴量を入力して尤度修正量および時間帯再修正量を出力するように事前に学習される。
尤度修正量は、推定モデルMAにより推定された行動カテゴリ尤度を修正する量を示す。例えば推定部123−3は、行動カテゴリ尤度に尤度修正量を乗じることにより、行動カテゴリ尤度を修正することができる。時間帯再修正量は、推定モデルMAにより推定された修正量に従い修正された修正時間帯(第1修正時間帯)をさらに修正する量を示す。時間帯再修正量は、例えば時刻をずらす量と、時間を拡縮する量と、を含む。推定部123−3は、時間帯再修正量に従って時刻をずらす、または、時間を拡縮することにより、修正時間帯(第1修正時間帯)をさらに修正した修正時間帯(第2修正時間帯)を求めることができる。
局所特徴量、尤度修正量、および、時間帯再修正量は、例えば以下のような手順で算出される。図12は、推定部123−3による処理手順の例を説明する図である。
推定部123−3は、時間帯候補1201から、ある行動カテゴリに対応する修正時間帯1211を推定したとする。推定部123−3は、特徴量記憶部112に記憶された特徴量のうち、修正時間帯1211の開始時刻tおよび終了時刻tで定められる時間帯に対応した特徴量を求める。推定部123−3は、求めた特徴量を対象として、例えば1次元平均プーリングを適用し、時間の長さを固定長に正規化した時系列の特徴量1221を算出する。特徴量を正規化するのは、推定モデルMBへ入力する特徴量の長さを一定とするためである。時系列の特徴量の長さを一定とすることができる手法であれば、一次元平均プーリング以外の正規化手法を適用してもよい。
推定部123−3は、算出した特徴量1221を推定モデルMBに入力することにより、尤度修正量および時間帯再修正量を推定する。
推定部123−3は、推定モデルMAにより推定した対応する行動カテゴリの行動カテゴリ尤度に尤度修正量を乗じることにより、修正済み行動カテゴリ尤度を算出する。次に推定部123−3は、推定モデルMAにより推定された修正量に従い修正された修正時間帯に、時間帯再修正量を作用させた時間帯(再修正時間帯)を算出する。推定部123−3は、このようにして得られる修正済み行動カテゴリ尤度、および、再修正時間帯を、時間帯記憶部114に追加する。
時間帯記憶部114に記憶された修正時間帯を用いた検出部124による処理は、第1の実施形態と同様である。なお、検出部124は、推定モデルMAによる推定結果に加えて、推定部123−3により追加された修正済み行動カテゴリ尤度および再修正時間帯を含む推定結果を用いて、検出処理を実行する。検出部124は、推定部123−3により追加された修正済み行動カテゴリ尤度および再修正時間帯を含む推定結果のみを用いて検出処理を実行してもよい。
次に、このように構成された第3の実施形態にかかる検出装置100−3による検出処理について図13を用いて説明する。図13は、第3の実施形態における検出処理の一例を示すフローチャートである。
ステップS401、ステップS402は、第1の実施形態にかかる検出装置100におけるステップS201、ステップS202と同様である。
推定部123−3は、ステップS402に推定された修正時間帯に対応する特徴量(局所特徴量)を求め、局所特徴量を推定モデルMBに入力することにより、尤度修正量および時間帯再修正量を推定する(ステップS403)。推定部123−3は、ステップS402で求めた尤度および修正時間帯を、ステップS403で求めた尤度修正量、および、時間帯再修正量でそれぞれ修正し、修正した尤度および修正時間帯を時間帯記憶部114に追加する(ステップS404)。
ステップS405からステップS413までは、第1の実施形態にかかる検出装置100におけるステップS203からステップS211までと同様の処理なので、その説明を省略する。
このように、第3の実施形態にかかる検出装置は、推定モデルMAに基づき算出された行動カテゴリごとの修正時間帯に対応する特徴量から、行動カテゴリ尤度と、行動が発生した時間帯と、を算出する。これにより、行動時間帯の検出性能をさらに改善することができる。
なお、これまでは算出した修正時間帯に対応する局所特徴量を用いたが、時間帯候補に対応する局所特徴量を用いるように構成してもよい。例えば推定部123−3は、特徴量記憶部112に記憶された時系列の特徴量(第1特徴量)に加えて、この特徴量を時間帯候補に対応するように修正した特徴量(第2特徴量)を推定モデルMAに入力してもよい。修正した特徴量は、推定モデルMAへ入力する特徴量の長さとなるように正規化されてもよい。推定部123−3は、特徴量記憶部112に記憶された時系列の特徴量を時間帯候補に対応するように修正した特徴量(第2特徴量)のみを推定モデルMAに入力してもよい。
以上説明したとおり、第1から第3の実施形態によれば、時間帯検出の精度および行動のカテゴリ検出の精度を向上することができる。
次に、第1〜第3の実施形態にかかる検出装置のハードウェア構成について図14を用いて説明する。図14は、第1〜第3の実施形態にかかる検出装置のハードウェア構成例を示す説明図である。
第1〜第3の実施形態にかかる検出装置は、CPU(Central Processing Unit)51などの制御装置と、ROM(Read Only Memory)52やRAM(Random Access Memory)53などの記憶装置と、ネットワークに接続して通信を行う通信I/F54と、各部を接続するバス61を備えている。
第1〜第3の実施形態にかかる検出装置で実行されるプログラムは、ROM52等に予め組み込まれて提供される。
第1〜第3の実施形態にかかる検出装置で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録してコンピュータプログラムプロダクトとして提供されるように構成してもよい。
さらに、第1〜第3の実施形態にかかる検出装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、第1〜第3の実施形態にかかる検出装置で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
第1〜第3の実施形態にかかる検出装置で実行されるプログラムは、コンピュータを上述した検出装置の各部として機能させうる。このコンピュータは、CPU51がコンピュータ読取可能な記憶媒体からプログラムを主記憶装置上に読み出して実行することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
100、100−2、100−3 検出装置
101 カメラ
102 特徴量算出部
103 出力部
111 画像記憶部
112 特徴量記憶部
113 記憶部
114 時間帯記憶部
120、120−2、120−3 制御部
121 取得部
122、122−2 設定部
123、123−3 推定部
124 検出部
125 出力制御部

Claims (13)

  1. 予め定められた1以上の時間帯候補を設定する設定部と、
    複数の時系列画像から求められる特徴量と、前記時間帯候補と、を入力し、検出対象として予め定められた1以上の行動それぞれが発生した尤度を示す1以上の第1尤度と、1以上の前記時間帯候補それぞれを修正した1以上の修正時間帯を求めるための修正情報と、を出力する第1モデルに、前記特徴量および前記時間帯候補を入力し、前記第1モデルが出力する前記第1尤度および前記修正情報を得る推定部と、
    前記修正情報に基づいて求められる1以上の前記修正時間帯と、前記第1尤度とに基づいて、前記時系列画像に含まれる前記行動と、前記行動が発生した時間帯の開始時刻および終了時刻と、を検出する検出部と、
    を備える検出装置。
  2. 前記推定部は、定期的に求められる複数の特徴量および前記時間帯候補を前記第1モデルに入力し、前記第1モデルが出力する複数の第1尤度および複数の修正情報を得て、
    前記検出部は、複数の前記修正情報に基づいて求められる複数の前記修正時間帯のうち、対応する前記第1尤度が他の前記修正時間帯より大きい前記修正時間帯の開始時刻、終了時刻、および、対応する前記行動を検出する、
    請求項1に記載の検出装置。
  3. 前記設定部は、複数の前記特徴量に対して求められた複数の前記修正時間帯に基づいて得られる1以上の時間帯を、新たな時間帯候補として追加する、
    請求項2に記載の検出装置。
  4. 前記設定部は、前記修正時間帯と前記時間帯候補との差分が減少するように、前記時間帯候補を修正する、
    請求項1に記載の検出装置。
  5. 前記第1モデルは、さらに、前記行動が発生しない尤度である第2尤度を出力し、
    前記検出部は、前記修正時間帯と、前記第1尤度と、前記第2尤度と、に基づいて、前記時系列画像に含まれる前記行動と、前記行動が発生した時間帯の開始時刻および終了時刻と、を検出する、
    請求項1に記載の検出装置。
  6. 前記設定部は、複数の時間帯候補から前記特徴量に応じた1以上の前記時間帯候補を選択し、選択した前記時間帯候補を設定する、
    請求項1に記載の検出装置。
  7. 前記推定部は、
    複数の時系列画像から求められる第1特徴量および前記時間帯候補を前記第1モデルに入力し、前記第1尤度および前記修正情報を得て、
    特徴量を入力し、行動が発生した尤度の修正量を表す尤度修正量と、修正時間帯の修正量を表す時間帯再修正量と、を出力する第2モデルに、前記修正情報に基づいて求められる第1修正時間帯に対応する第2特徴量を入力し、前記第2モデルが出力する前記尤度修正量および前記時間帯再修正量を得て、
    前記検出部は、前記第1修正時間帯と、前記第1修正時間帯を前記時間帯再修正量により修正した第2修正時間帯と、前記第1尤度と、前記第1尤度を前記尤度修正量により修正した第2尤度と、に基づいて、前記時系列画像に含まれる前記行動、前記開始時刻および前記終了時刻を検出する、
    請求項1に記載の検出装置。
  8. 前記推定部は、
    複数の時系列画像から求められる第1特徴量および前記時間帯候補を前記第1モデルに入力し、前記第1尤度および前記修正情報を得て、
    特徴量を入力し、行動が発生した尤度の修正量を表す尤度修正量と、修正時間帯の修正量を表す時間帯再修正量と、を出力する第2モデルに、前記修正情報に基づいて求められる第1修正時間帯に対応する第2特徴量を入力し、前記第2モデルが出力する前記尤度修正量および前記時間帯再修正量を得て、
    前記検出部は、前記第1修正時間帯を前記時間帯再修正量により修正した第2修正時間帯と、前記第1尤度を前記尤度修正量により修正した第2尤度と、に基づいて、前記時系列画像に含まれる前記行動、前記開始時刻および前記終了時刻を検出する、
    請求項1に記載の検出装置。
  9. 前記推定部は、複数の時系列画像から求められる第1特徴量、および、前記第1特徴量を前記時間帯候補に対応するように修正した第2特徴量を前記第1モデルに入力し、前記第1モデルが出力する前記第1尤度および前記修正情報を得る、
    請求項1に記載の検出装置。
  10. 前記推定部は、複数の時系列画像から求められる第1特徴量を前記時間帯候補に対応するように修正した第2特徴量を前記第1モデルに入力し、前記第1モデルが出力する前記第1尤度および前記修正情報を得る、
    請求項1に記載の検出装置。
  11. 前記修正情報は、前記第1尤度が他の時間帯より大きくなる時間帯へ前記時間帯候補を修正する修正量、または、前記第1尤度が他の時間帯より大きくなる時間帯へ前記時間帯候補を修正した時間帯を示す、
    請求項1に記載の検出装置。
  12. 予め定められた1以上の時間帯候補を設定する設定ステップと、
    複数の時系列画像から求められる特徴量と、前記時間帯候補と、を入力し、検出対象として予め定められた1以上の行動それぞれが発生した尤度を示す1以上の第1尤度と、1以上の前記時間帯候補それぞれを修正した1以上の修正時間帯を求めるための修正情報と、を出力する第1モデルに、前記特徴量および前記時間帯候補を入力し、前記第1モデルが出力する前記第1尤度および前記修正情報を得る推定ステップと、
    前記修正情報に基づいて求められる1以上の前記修正時間帯と、前記第1尤度とに基づいて、前記時系列画像に含まれる前記行動と、前記行動が発生した時間帯の開始時刻および終了時刻と、を検出する検出ステップと、
    を含む検出方法。
  13. コンピュータに、
    予め定められた1以上の時間帯候補を設定する設定ステップと、
    複数の時系列画像から求められる特徴量と、前記時間帯候補と、を入力し、検出対象として予め定められた1以上の行動それぞれが発生した尤度を示す1以上の第1尤度と、1以上の前記時間帯候補それぞれを修正した1以上の修正時間帯を求めるための修正情報と、を出力する第1モデルに、前記特徴量および前記時間帯候補を入力し、前記第1モデルが出力する前記第1尤度および前記修正情報を得る推定ステップと、
    前記修正情報に基づいて求められる1以上の前記修正時間帯と、前記第1尤度とに基づいて、前記時系列画像に含まれる前記行動と、前記行動が発生した時間帯の開始時刻および終了時刻と、を検出する検出ステップと、
    を実行させるためのプログラム。
JP2020043274A 2020-03-12 2020-03-12 検出装置、検出方法およびプログラム Active JP7247133B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020043274A JP7247133B2 (ja) 2020-03-12 2020-03-12 検出装置、検出方法およびプログラム
US17/000,568 US11580739B2 (en) 2020-03-12 2020-08-24 Detection apparatus, detection method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020043274A JP7247133B2 (ja) 2020-03-12 2020-03-12 検出装置、検出方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2021144525A true JP2021144525A (ja) 2021-09-24
JP7247133B2 JP7247133B2 (ja) 2023-03-28

Family

ID=77664966

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020043274A Active JP7247133B2 (ja) 2020-03-12 2020-03-12 検出装置、検出方法およびプログラム

Country Status (2)

Country Link
US (1) US11580739B2 (ja)
JP (1) JP7247133B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114640608A (zh) * 2022-04-01 2022-06-17 上海商汤智能科技有限公司 测试方法及装置、电子设备及计算机可读存储介质
CN114664290B (zh) * 2022-05-17 2022-08-19 深圳比特微电子科技有限公司 声音事件检测方法、装置及可读存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190114487A1 (en) * 2017-10-12 2019-04-18 Google Llc Generating a video segment of an action from a video
JP2019149154A (ja) * 2018-02-27 2019-09-05 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109152555B (zh) * 2016-03-18 2022-09-06 哈佛大学校长及研究员协会 自动分类动物行为
US20180218303A1 (en) * 2017-02-01 2018-08-02 Weather Build, Inc. Systems and methods for analyzing weather event impacts on schedule activities
US10522186B2 (en) * 2017-07-28 2019-12-31 Adobe Inc. Apparatus, systems, and methods for integrating digital media content
US10417500B2 (en) * 2017-12-28 2019-09-17 Disney Enterprises, Inc. System and method for automatic generation of sports media highlights
EP3750140A4 (en) * 2018-02-09 2021-05-19 Skydio Inc. INTELLIGENT AIR VEHICLE LANDING
US10719712B2 (en) * 2018-02-26 2020-07-21 Canon Kabushiki Kaisha Classify actions in video segments using play state information
WO2019167775A1 (ja) * 2018-02-27 2019-09-06 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US11663307B2 (en) * 2018-09-24 2023-05-30 Georgia Tech Research Corporation RtCaptcha: a real-time captcha based liveness detection system
US11200424B2 (en) * 2018-10-12 2021-12-14 Adobe Inc. Space-time memory network for locating target object in video content
KR102374448B1 (ko) * 2018-11-02 2022-03-15 서울대학교산학협력단 사용자의 의도 예측 방법 및 이를 수행하기 위한 장치
CN110059661B (zh) * 2019-04-26 2022-11-22 腾讯科技(深圳)有限公司 动作识别方法、人机交互方法、装置及存储介质
US11562170B2 (en) * 2019-07-15 2023-01-24 Microsoft Technology Licensing, Llc Modeling higher-level metrics from graph data derived from already-collected but not yet connected data
CN110650368B (zh) * 2019-09-25 2022-04-26 新东方教育科技集团有限公司 视频处理方法、装置和电子设备
WO2021137671A1 (en) * 2020-01-03 2021-07-08 Samsung Electronics Co., Ltd. Video generation apparatus and video generation method performed by the video generation apparatus
JP7497223B2 (ja) * 2020-06-16 2024-06-10 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190114487A1 (en) * 2017-10-12 2019-04-18 Google Llc Generating a video segment of an action from a video
JP2019149154A (ja) * 2018-02-27 2019-09-05 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
US20210287010A1 (en) 2021-09-16
US11580739B2 (en) 2023-02-14
JP7247133B2 (ja) 2023-03-28

Similar Documents

Publication Publication Date Title
JP6213843B2 (ja) 画像処理システム、画像処理方法及びプログラム
CN110443833B (zh) 对象跟踪方法和设备
JP6973533B2 (ja) 解析装置、解析方法及びプログラム
US11379993B2 (en) Image processing apparatus, image processing method, and storage medium
EP3189469A1 (en) A method for selecting frames from video sequences based on incremental improvement
JP7247133B2 (ja) 検出装置、検出方法およびプログラム
US11080532B2 (en) Highlight processing method using human pose based triggering scheme and associated system
US9396538B2 (en) Image processing system, image processing method, and program
US20200311440A1 (en) Image processing apparatus and image processing method for image analysis process
WO2021211226A1 (en) Face clustering in video streams
JP7446060B2 (ja) 情報処理装置、プログラム及び情報処理方法
JP2014186547A (ja) 移動物体追跡システム、方法及びプログラム
CN113706837B (zh) 一种发动机异常状态检测方法和装置
US10997398B2 (en) Information processing apparatus, authentication system, method of controlling same, and medium
JPWO2017163283A1 (ja) 監視装置及び監視システム
CN112927258A (zh) 一种目标跟踪方法及装置
US11716448B2 (en) Information processing apparatus, information processing method, and storage medium
US11216667B2 (en) Information processing apparatus, method for information processing, and storage medium
JP2010087937A (ja) 映像検出装置、映像検出方法および映像検出プログラム
KR101994287B1 (ko) 영상 백업 장치 및 방법
JP5599228B2 (ja) 繁忙検知システム及び繁忙検知プログラム
US20200293785A1 (en) Information processing apparatus, information processing method, and medium
TW201431369A (zh) 異常物體偵測方法與電子裝置
JP5873415B2 (ja) 前景検出装置、前景検出方法及びコンピュータプログラム
JPWO2006129622A1 (ja) 特徴量の予測誤差に基づいて動画像のカット点を検出する装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230315

R151 Written notification of patent or utility model registration

Ref document number: 7247133

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151