JPWO2016136214A1 - 識別器学習装置、滞留物体検出システム、識別器学習方法、滞留物体検出方法およびプログラム - Google Patents

識別器学習装置、滞留物体検出システム、識別器学習方法、滞留物体検出方法およびプログラム Download PDF

Info

Publication number
JPWO2016136214A1
JPWO2016136214A1 JP2017501921A JP2017501921A JPWO2016136214A1 JP WO2016136214 A1 JPWO2016136214 A1 JP WO2016136214A1 JP 2017501921 A JP2017501921 A JP 2017501921A JP 2017501921 A JP2017501921 A JP 2017501921A JP WO2016136214 A1 JPWO2016136214 A1 JP WO2016136214A1
Authority
JP
Japan
Prior art keywords
images
analysis
staying
detection target
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017501921A
Other languages
English (en)
Other versions
JP6784254B2 (ja
Inventor
有紀江 海老山
有紀江 海老山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2016136214A1 publication Critical patent/JPWO2016136214A1/ja
Application granted granted Critical
Publication of JP6784254B2 publication Critical patent/JP6784254B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

[課題]滞留する物体を好適に検出できる滞留物体検出システム、滞留物体検出方法および滞留物体検出プログラム、並びに、滞留する物体を好適に識別する識別器を学習する識別器学習装置、識別器学習方法および識別器学習プログラムを提供する。[解決手段]滞留物体を識別する識別器を学習する識別器学習装置であって、識別器学習装置の学習部91は、同一の検出対象を含む複数の画像の組を滞留状態を示す正例とし、同一の検出対象を含まない複数の画像の組を非滞留状態を示す負例として、滞留物体を識別する識別器を学習する。

Description

本開示は、監視領域内に滞留している人や物を検出するためのシステム、方法およびプログラム記録媒体、並びに、滞留している人や物を識別する識別器を学習するための装置、方法およびプログラム記録媒体に関する。
物体を検出する技術が知られている(例えば、特許文献1〜4参照)。また、例えばビデオ監視などにおいて、置き去りにされた物体や一定時間以上滞留する人物を特定することが考えられている。
特許文献1には、カメラで撮影された画像のシーンから置き去りにされた物体を検出する方法が記載されている。特許文献1に記載された方法では、シーン中の動きを複数の時間スケールで解析し、長期間にわたって撮影された複数の撮影画像を用いて、画素値の出現頻度に基づいて長期背景モデルを生成する。そして、この長期背景モデルと、それよりも短い期間にわたって撮影された複数の撮影画像を用いて生成された短期背景モデルが比較される。
このとき、一定期間内の撮影画像から出現頻度が高い画素を用いて画像が生成されれば、例えばすぐにフレームアウトするような移動物体の画素の出現頻度は低く、静止物体の画素の出現頻度は高くなる。そのため、長期背景モデルおよび短期背景モデルでは、背景および静止物体が抽出されやすくなる。
そして、長期背景モデルと短期背景モデルとを比較すると、長期背景モデルでは、短い時間静止している置き去り物体の観測時間に比べて主に静止している背景の観測時間が長いため、背景画素が支配的になる。一方で、短期背景モデルでは、背景に加え、短い時間に亘って静止している置き去り物体の画素も支配的になる。そのため、長期背景モデルと短期背景モデルとでは、短い時間に亘って静止している置き去り物体に属する画素値の出現頻度に差分が生じる。
これにより、解析シーンにおいて、主に静止している背景部分と、ある短い時間に亘って静止している置き去り物体とに属する画素がそれぞれ区別される。
また、特許文献2には、対象領域の撮影画像に基づいて放置物を検出する放置物検出装置が記載されている。特許文献2に記載された放置物検出装置も、同様に、シーン中の動きを複数の時間スケールで解析している。具体的には、特許文献2に記載された放置物検出装置は、直近の複数フレームの撮影画像を用いて、画素値のばらつきに基づいて前景領域と背景領域を区別し、現在得られた背景領域と過去に得られた背景領域における画素値を比較する。
このとき、移動体が通過した領域では、移動体および背景や静止物体の画素が混在するため画素値のばらつきが大きくなり、背景や静止物体の領域では画素値のばらつきが小さくなることから、前景領域と背景領域とが区別される。そして、画素値のばらつきが小さい背景領域に注目し、現在の背景領域の画素値と過去の背景領域の画素値とを比較することで、静止物体が出現する前後では静止物体に属する画素値に差分が生まれる。
これにより、解析シーンにおいて、動的な前景部分に属する画素と、主に静止している背景に属する画素と、ある短い時間に亘って静止している置き去り物体に属する画素とをそれぞれ区別している。
このように、一般的には、ある複数の時間スケールで画像を解析した結果を比較し、差分が得られた領域に滞留物体が存在すると判断する手法(差分ベースの手法)が提案されている。
特許第5058010号公報 特許第4852355号公報 特開2010−176206号公報 特開2014−126942号公報
しかし、特許文献1および特許文献2に記載された差分ベースの方法では、撮影環境の変化に対して誤検出を起こしやすいという問題がある。差分ベースの手法では、複数の時間スケールにおいて得られた画素情報を比較し差分領域が抽出される。そのため、比較に用いられた時間スケール間で撮影環境に変化が生じた場合、その変化領域で誤検知が生じる。
撮影環境の変化の具体例として、撮影時間帯や天候などによる日照や照明条件の違い、物の移動、ポスターやデジタルサイネージなどの掲示物の変化、カメラのレンズ汚れ、風や振動や接触等によるカメラの撮影画角のずれなどがある。
本開示の例示的な目的は、滞留する物体を好適に検出できる技術、並びに、滞留する物体を好適に識別する技術を提供することである。
本開示に係る識別器学習装置は、同一の検出対象を含む複数の画像の組を滞留状態を示す正例とし、同一の検出対象を含まない複数の画像の組を非滞留状態を示す負例として、滞留物体を識別する識別器を学習する学習部を備えたことを特徴とする。
本開示に係る滞留物体検出システムは、撮影された時間が異なる複数の検出対象画像から、滞留の解析に適した時間差をおいて撮影された複数の検出対象画像を選択する対象画像選択手段と、選択された複数の検出対象画像から同一の解析領域を示す画像をそれぞれ抽出して、抽出した画像の組である解析画像を生成する解析画像生成手段と、複数の画像から滞留物体を識別する識別器を用いて、生成された解析画像から滞留物体を検出する滞留物体検出手段とを備え、対象画像選択手段が、検出対象の移動モデル又は解析領域の大きさの少なくとも一方に基づいて、滞留の解析に適した時間差を決定することを特徴とする。
本開示に係る識別器学習方法は、滞留物体を識別する識別器を学習する識別器学習方法であって、コンピュータが、同一の検出対象を含む複数の画像の組を滞留状態を示す正例とし、同一の検出対象を含まない複数の画像の組を非滞留状態を示す負例として、滞留物体を識別する識別器を学習することを特徴とする。
本開示に係る滞留物体検出方法は、撮影された時間が異なる複数の検出対象画像から、滞留の解析に適した時間差をおいて撮影された複数の検出対象画像を選択し、選択された複数の検出対象画像から同一の解析領域を示す画像をそれぞれ抽出して、抽出した画像の組である解析画像を生成し、複数の画像から滞留物体を識別する識別器を用いて、生成された解析画像から滞留物体を検出し、検出対象画像を選択する際、検出対象の移動モデル又は解析領域の大きさの少なくとも一方に基づいて、滞留の解析に適した時間差を決定することを特徴とする。
本開示に係る識別器学習プログラムは、滞留物体を識別する識別器を学習するコンピュータに適用される識別器学習プログラムであって、コンピュータに、同一の検出対象を含む複数の画像の組を滞留状態を示す正例とし、同一の検出対象を含まない複数の画像の組を非滞留状態を示す負例として、滞留物体を識別する識別器を学習する学習処理を実行させることを特徴とする。
本開示に係る滞留物体検出プログラムは、コンピュータに、撮影された時間が異なる複数の検出対象画像から、滞留の解析に適した時間差をおいて撮影された複数の検出対象画像を選択する対象画像選択処理、選択された複数の検出対象画像から同一の解析領域を示す画像をそれぞれ抽出して、抽出した画像の組である解析画像を生成する解析画像生成処理、および、複数の画像から滞留物体を識別する識別器を用いて、生成された解析画像から滞留物体を検出する滞留物体検出処理を実行させ、対象画像選択処理で、検出対象の移動モデル又は解析領域の大きさの少なくとも一方に基づいて、滞留の解析に適した時間差を決定させることを特徴とする。
本開示によれば、滞留する物体を好適に検出できる。
図1は、本開示による滞留物体検出システムの一実施形態の構成例を示すブロック図である。 図2は、解析画像取得手段の構成例を示すブロック図である。 図3は、解析領域を選択する例を示す説明図である。 図4は、滞留する人物を検出する方法の例を示す説明図である。 図5は、滞留する人物を検出する他の方法の例を示す説明図である。 図6は、滞留物体検出システムの動作例を示す説明図である。 図7は、識別器を学習する動作例を示すフローチャートである。 図8は、本開示による識別器学習装置の概要を示すブロック図である。 図9は、本開示による滞留物体検出システムの概要を示すブロック図である。 図10は、本開示によるコンピュータ装置の構成例を示すブロック図である。
以下、本開示の実施形態を図面を参照して説明する。なお、本開示において、「部」や「手段」、「装置」、「システム」とは、単に物理的手段や装置を意味するものではなく、その「部」や「手段」、「装置」、「システム」が有する機能をソフトウェアによって実現する場合も含まれる。また、1つの「部」や「手段」、「装置」、「システム」が有する機能が2つ以上の物理的手段や装置により実現されてもよく、2つ以上の「部」や「手段」、「装置」、「システム」の機能が1つの物理的手段や装置により実現されてもよい。
図1は、本開示による滞留物体検出システムの一実施形態を示すブロック図である。図1に示すように、本実施形態の滞留物体検出システムは、画像入力部1と、滞留検出部2と、出力部3と、識別器学習部4とを備えている。
画像入力部1は、所定の監視領域を撮影した時系列の画像を、滞留検出部2に逐次入力する。なお、画像入力部1から入力される入力画像は、検出対象が撮影された画像とも言えるため、以下においては「検出対象画像」と言う場合がある。画像の取得には、例えば監視カメラなどの撮影装置が用いられてもよい。また、画像入力部1は、記憶装置(図示せず)に記憶された映像データを読み出して得られる時系列の画像を、滞留検出部2に逐次入力してもよい。
なお、本開示において検出対象とする物体の種類は特に限定されず、人間、動物、車、ロボットなどであってもよい。
滞留検出部2は、画像入力部1から逐次入力される画像を解析し、画像中に存在する滞留物体を検出する。滞留検出部2は、解析画像取得手段21と、滞留識別器記憶部22と、滞留度算出手段23と、滞留判定手段24とを含む。
解析画像取得手段21は、画像入力部1から入力された画像を過去数フレーム分保持し、入力画像に写る検出対象の大きさに基づいて細分化した局所領域の画像の組を取得する。局所領域の画像の組は、後述する滞留度の算出に用いられる。
図2は、本実施形態の解析画像取得手段21の構成例を示すブロック図である。本実施形態の解析画像取得手段21は、解析領域選択手段211と、解析時刻選択手段212と、解析画像選択手段213とを有する。
解析領域選択手段211は、入力画像から滞留状態の解析を行う単位となる局所領域を選択する。以降、解析領域選択手段211で選択された局所領域を解析領域と呼ぶ。解析領域の大きさは任意であり、例えば、検出対象の大きさに基づいて決定されてもよい。
解析領域選択手段211は、例えば、所定の大きさの領域を、画像上の所定の間隔ごとに移動させて解析領域を選択してもよい。解析領域の大きさや間隔は、画像における検出対象の見かけ上の大きさに基づいて滞留物体検出システムの管理者によって決定されてもよい。解析領域選択手段211は、このように決定された大きさや間隔の値を用いて解析領域を選択してもよい。
また、検出対象の位置によって検出対象の見かけ上の大きさが変化する場合、解析領域選択手段211は、あらかじめ求めたカメラの姿勢を表わすカメラパラメータを用いて、画像上の位置ごとに検出対象の見かけ上の大きさを算出してもよい。そして、解析領域選択手段211は、見かけ上の大きさの算出結果に応じて解析領域の大きさを決定してもよい。
また、解析領域選択手段211は、滞留物体検出システムの起動時に最初に選択した解析領域を以降も使い続けるようにしてもよいし、新たな画像が入力される都度、新たに異なる位置や大きさの解析領域を選択し直すようにしてもよい。すなわち、解析領域選択手段211は、新たに選択した解析領域を用いて、複数の画像の同一領域を解析領域として選択してもよい。
図3は、解析領域選択手段211が解析領域を選択する例を示す説明図である。図3に示す例では、異なる時刻の画像で異なる解析領域が選択されていることを示す。例えば、解析領域選択手段211は、時刻t1および時刻t2においては領域R1を選択し、別の画像が入力された時点(時刻t11)の時点で領域R2を選択してもよい。ただし、画像を比較する際には、同一座標の領域が用いられる。例えば、時刻t11における画像と時刻t12における画像とを比較する場合には、両者の領域R2が用いられる。
解析時刻選択手段212は、解析領域選択手段211で選択された解析領域ごとに、画像入力部1から入力された過去数フレーム分の画像のうち、滞留の解析に適した時間をおいて撮影された(すなわち、滞留の解析に適した時間差で撮影された)画像を選択する。
解析時刻選択手段212は、この滞留の解析に適した時間差を、例えば、検出対象の移動モデルによって算出してもよい。具体例として、検出対象を人物とし、人物を中心とした幅0.6mの範囲を局所領域(解析領域)として切り出す場合を考える。例えば、一般的な人物の移動速度を1.2m/秒と仮定し、これを検出対象の移動モデルとする。この場合、解析時刻選択手段212は、0.5秒以上の間隔で撮影された画像を選択すればよい。これは、滞留人物のみが同じ位置に共通して撮影され、移動人物は解析領域を通り過ぎるため、同じ位置に共通して撮影されることはないからである。したがって、この場合の滞留の解析に適した時間差は、0.5秒となる。そこで、解析時刻選択手段212は、画像入力部1から入力された画像のうち、0.5秒以上の間隔で撮影された画像を選択すればよい。
このように、解析時刻選択手段212は、検出対象の移動モデルに基づいて、その検出対象が解析領域を通過するために要する時間を算出し、算出された時間以上の間隔で撮影された入力画像を選択してもよい。その際、解析領域の大きさは、事前に定義された固定の大きさであってもよい。
なお、移動モデルは、上述した例では、検出対象の移動速度をモデル化した場合が例示されている。ただし、移動モデルは、移動速度および移動方向をモデル化したものであってもよい。具体的には、移動モデルは、検出対象の移動方向とその移動方向に対して想定される移動速度とを導出可能なモデルであってもよい。また、このような移動モデルを用いずに、検出対象の移動方向と移動速度が事前に定義された固定値であってもよい。このように、解析時刻選択手段212は、検出対象の移動モデル又は解析領域の大きさのいずれか一方または両方を用いて、滞留の解析に適した時間差を決定してもよい。
なお、滞留物体検出システムの管理者が、事前に検出対象の移動モデルを決定し、その値が用いられてもよい。また、検出対象の位置によって画像における検出対象の見かけ上の移動速度が変化する場合がある。この場合、解析時刻選択手段212は、あらかじめ求めたカメラの姿勢を表すカメラパラメータを用いて、画像上の位置ごとにフレーム画像間における検出対象の見かけ上の移動距離を算出してもよい。そして、解析時刻選択手段212は、前後のフレームで移動物体が同じ解析領域に含まれない画像のみを選択してもよい。解析時刻選択手段212は、選択した解析領域ごとの画像を解析画像選択手段213に入力する。
解析画像選択手段213は、解析時刻選択手段212から入力された解析領域ごとの画像のうち、滞留度の算出に用いられる画像の組合せを選択する。ここにおいて、滞留度は、検出対象が滞留している確からしさを示す指標である。以降、解析画像選択手段213で選択された画像を解析画像と呼ぶ。
ここで、解析画像の取得方法を具体的に説明する。図4は、滞留する人物を検出する方法の例を示す説明図である。以下、図4を参照して、街頭で撮影された監視カメラ映像から滞留する人物を検出する方法を説明する。
図4では、人物の上半身に注目して滞留人物を検出する様子の例を示している。本例では、画像入力部1が図4に例示する時刻t1、時刻t2、時刻t3の画像を逐次入力し、解析画像取得手段21が、過去2枚の画像を保持するものとする。すなわち、時刻t1、時刻t2、時刻t3の順に入力画像が得られた場合、解析画像取得手段21は、時刻t2で、時刻t1と時刻t2の画像を元に1組の解析画像を取得し、時刻t3で、時刻t2と時刻t3の画像を元にさらに1組の解析画像を取得する。
このとき、解析領域選択手段211は、検出対象である人物の画像中の大きさに基づいて解析領域を選択する。図4では、説明を簡単にするため、あらかじめ定めた領域1、領域2、領域3の3個の解析領域が設定されている例を示す。
これらの解析領域は、異なる時刻に撮影されたそれぞれの入力画像に対して同じ座標(すなわち、同一の解析領域)に設定される。そして、解析時刻選択手段212は、選択された各解析領域に対し、入力画像の撮影時間間隔で人物が解析領域上を移動可能かどうか判定する。移動可能であれば、解析時刻選択手段212は、その時間間隔で撮影された画像を解析画像の候補とする。図4の例では、すべての解析領域において人物が移動可能であるとする。
そして、解析画像選択手段213は、各入力画像から解析領域の画像をそれぞれ取得する。すなわち、時刻t2では、時刻t1に撮影された領域1の画像と時刻t2に撮影された領域1の画像とのペアが、1組の解析画像となる。このように、解析画像選択手段213は、同じ解析領域から取得された画像の組を1組の解析画像とし、得られたすべての組の解析画像を滞留度算出手段23に入力する。言い換えると、解析画像選択手段213は、解析時刻選択手段212によって選択された複数の入力画像から同一の解析領域を示す画像をそれぞれ抽出して、抽出した画像の組解析画像を生成していると言うことができる。
なお、図4では、3個の解析領域が設定された例を示しているが、設定される解析領域の数は任意である。また、解析領域は、画像上の重複する範囲に設定されてもよい。
また、図4では、検出対象である人物の上半身を解析領域に含む例を示している。ただし、解析領域は、検出対象の任意の部位を含むように設定されてもよいし、検出対象を包含するように設定されてもよい。
また、図4では、解析領域を正方形とする例を示しているが、解析領域の形状は正方形に限らず、任意の矩形に設定されてもよい。
また、本例では、2枚の局所画像から1組の解析画像を生成する例について説明したが、局所画像の数は2枚に限られず、2枚以上の任意の数の画像を1組の解析画像としてもよい。
また、図4の例では、1組の解析画像に含まれる画像枚数と解析画像取得手段21が保持する過去画像の枚数とが一致する場合について説明した。ただし、1組の解析画像に含まれる画像枚数よりも解析画像取得手段21が保持する過去画像の枚数の方が多い場合、解析画像選択手段213は、複数組の解析画像を選択してもよい。
ここで、解析画像選択手段213が1つの解析領域に対し複数組の解析画像を取得する手順を、図5を用いて具体的に説明する。図5は、滞留する人物を検出する他の方法の例を示す説明図である。なお、図5に示す例は、解析画像取得手段21が過去3枚の画像を保持する以外は、図4に示す例と同じ条件であるとする。
図5に示す時刻t3では、領域1〜3のそれぞれの解析領域において、時刻t1〜t3の3つの画像が得られている。本例では、解析画像選択手段213は、時刻t1〜t3の3つの画像から2枚の画像を選択し1組の解析画像とするため、解析領域ごとに(t1,t2)、(t2,t3)、(t1,t3)の3組の解析画像を選択する。解析画像選択手段213は、このようにして解析領域ごとに選択した解析画像の組を滞留度算出手段23に入力する。
なお、解析画像選択手段213は、図5に示す例では解析画像全通りの組合せから解析画像を選択した。しかし、解析画像選択手段213は、必ずしも全通りの組合せを選択する必要はなく、その他の方法によって解析画像を選択してもよい。例えば、解析画像の組の選び方として、時刻t1〜t5までの5フレームの画像のうち2枚の画像を選択して解析画像の組を生成するとする。この場合、解析画像選択手段213は、(t1,t2)、(t2,t3)、・・・、(t4,t5)のように、隣接するフレーム同士から解析画像の組を生成してもよい。他にも、解析画像選択手段213は、(t5,t2)、(t5,t3)、・・・、(t5,t4)のように、最新のフレーム画像と過去のいずれかのフレーム画像を1組の解析画像としてもよい。
複数の解析画像の組を選択することによる利点は、以下の点である。
監視領域内に多数の移動体が存在している場合、ある時刻の画像と別の時刻の画像とを比較したときに、同じ解析領域に異なる移動体が偶然存在することが起こりやすくなる。この場合、異なる移動体の外見が類似していると、その解析領域では誤って高い滞留度が得られ、滞留の誤検出が起こりやすくなる。
一方、本実施形態の解析画像選択手段213は、画像入力部1から得られた過去数フレームの画像に対し、滞留度を算出するための複数組の解析画像を選択する。複数組の解析画像を選択することで、同じ解析領域に偶然異なる移動体が存在する可能性が低下し、誤検出を低減することができる。
解析画像選択手段213は、選択した解析画像の組を滞留度算出手段23に入力する。
滞留識別器記憶部22は、解析画像取得手段21から入力される解析画像の組に対して、後述する滞留度算出手段23が滞留度を算出するために用いる識別器を記憶する。なお、この識別器は、滞留物体検出システムが滞留物体を検出する処理を行う前にあらかじめ構築しておくものである。
滞留識別器記憶部22は、後述する識別器学習部4によって生成される識別器を記憶してもよいし、管理者等によって生成される識別器を記憶してもよい。
識別器学習部4は、複数の画像から滞留物体を識別する識別器を学習する。ここで、滞留物体を識別するとは、滞留物体かどうかを識別するだけでなく、滞留物体を識別するために検出対象が滞留している確からしさを示す指標(滞留度)を算出することも含まれる。
識別器学習部4は、例えば、複数の画像に対する判定結果として、滞留度を出力する識別器を生成してもよい。具体的には、識別器学習部4は、入力される複数の画像に同一の検出対象が含まれるほど、その検出対象の滞留度を高く算出するような識別器を生成してもよい。
以下、本実施形態の識別器学習部4が識別器を学習する具体的な方法を説明する。本実施形態の識別器学習部4は、正例と負例の学習画像を用いて識別器を学習する。具体的には、識別器学習部4は、同一の検出対象を含む複数の画像の組を、滞留状態を示す正例として用いる。また、識別器学習部4は、同一の検出対象を含まない複数の画像の組を、非滞留状態を示す負例として用いる。
そして、識別器学習部4は、この正例と負例の識別に適した識別器を機械学習により構築する。具体的には、識別器学習部4は、この正例または負例の組に含まれる画像の数と同数の画像が入力されたときに、それらの画像から滞留物体を識別する識別器を学習する。
ここで、学習画像について、検出対象を人物とする例を挙げて具体的に説明する。正例は、同一の検出対象が含まれる画像であればよい。また、正例は、必ずしも同一の検出対象が同一の状態で含まれている画像である必要はない。正例は、適用先の監視環境を想定し、例えば、滞留人物の前後に通行人など異なる人物が写りこむことを想定した画像の組や、滞留人物の周囲の照明条件が変化した画像の組であってもよい。
すなわち、学習画像は、正例とした組に含まれる画像のうち、少なくとも1つの画像の検出対象や背景に対して、光の当たり方や明るさ、影などの影響を反映させた摂動処理が施されていてもよい。このようにすることで、撮影環境が変わった場合でも滞留物体を識別する精度を維持することが可能になる。
また、正例は、同一の検出対象と共に少なくとも一部が同一の背景画像を含む複数の画像の組であってもよい。本実施形態のように、同一の解析領域を対象とした複数の画像を比較する場合には、比較する解析領域には同一の背景画像が映り込む可能性が高い。そのため、識別器学習部4が同一の検出対象と共に少なくとも一部が同一の背景画像を含む複数の画像の組を正例として識別器を学習することにより、より適切に滞留画像を判断できる。なお、このとき、背景画像に対しても上述した摂動処理が施されていてもよい。
負例は、同一の検出対象が含まれない画像であればよく、例えば、通行人を想定し異なる人物が撮影された画像の組、地面や建物などの背景同士の画像の組などが学習画像の例として挙げられる。また、負例も正例と同様に、上述する摂動処理が施されていてもよい。負例の画像に摂動処理が施されることにより、光の当たり方や影の出来方が撮影環境の変化によって変わる場合でも、誤検出を抑制することが可能になる。
識別器学習部4は、大量に収集されたこのような正例および負例を学習画像として使用し、識別器を学習する。すなわち、識別器学習部4は、正例または負例とした組に含まれる画像のうち、少なくとも1つの画像に摂動処理が施された画像の組を用いて識別器を学習する。このとき、摂動処理が施される対象は任意であり、例えば、正例や負例に含まれる検出対象や背景であってもよい。
なお、学習画像は、実画像から切り抜いた画像であってもよいし、実画像の背景と実画像の前景(検出対象)を合成した画像であってもよいし、CG(Computer graphics)により人工的に生成された画像であってもよい。
識別器学習部4は、用意された学習画像を用いて正例と負例の識別に適した識別器を構築する。識別器学習部4は、例えば、CNN(Convolutional Neural Network)などの機械学習手法を用いて、正例と負例の識別に適した識別器を構築してもよい。このように生成された識別器を用いることで、任意の入力画像に対し、正例または負例に属する確からしさを得ることができる。
ただし、識別器学習部4が用いる学習手法はCNNに限らず、任意の入力画像に対し、正例または負例に属する確からしさを出力する識別器を構築できる手法であればよい。なお、複数枚の画像をCNNで学習する方法も知られている。ただし、この方法は、等間隔で極めて近接する画像を対象に学習する方法であり、本実施形態の識別器学習部4のように、ある程度時間が離れて撮影された画像を用いる方法とは異なる。
また、滞留識別器記憶部22に記憶された識別器の学習に使用する1つの正例および負例に含まれる画像の枚数と、解析画像取得手段21で取得される解析画像の組に含まれる画像の枚数は一致するものとする。
滞留度算出手段23は、解析画像取得手段21から入力される解析画像の組に対し、滞留識別器記憶部22に記憶されている識別器を用いて滞留度を算出する。すなわち、滞留度は、解析領域ごとに算出される。滞留度算出手段23は、この解析領域の座標と算出した滞留度との組を、滞留判定手段24に入力する。
また、図5で例示するように、解析画像選択手段213が1つの解析領域に対し複数組の解析画像を選択している場合、滞留度算出手段23は、すべての組の解析画像に対して滞留度を算出し、算出した滞留度を解析領域ごとに統合する。
図5は、過去3フレーム分の入力画像が保持され、そのうちの2枚の局所画像が滞留度の算出に用いられる場合の例を示している。この例では、解析画像選択手段213が、解析領域である領域1から、図5に示す(t1,t2)、(t2,t3)、(t1,t3)の3組の解析画像を選択する。そのため、滞留度算出手段23は、これらの3組の解析画像に対して3つの滞留度を算出する。そして、滞留度算出手段23は、算出した各滞留度を統合するために、例えば、3つの値の平均値、中央値、最大値、最小値のいずれかの値を算出し、これを滞留度の統合結果としてもよい。
滞留判定手段24は、滞留度算出手段23から入力される解析領域の座標と算出した滞留度との組の情報を用いて滞留判定を行い、入力画像に対する滞留発生座標を出力する。言い換えると、滞留度算出手段23と滞留判定手段24で、生成された解析画像の組から滞留物体を検出する滞留物体検出処理が実行される。
滞留判定手段24は、例えば、あらかじめ設定された閾値と滞留度の値とを比較し、閾値以上の滞留度が得られた解析領域で滞留が発生したと判定してもよい。
滞留判定手段24は、解析領域が画像上で重複する場合において、重複する領域における滞留判定を行う際、重複する各解析領域について算出された滞留度の平均値、中央値、最大値、最小値のいずれかの値について所定の閾値以上であれば滞留と判定してもよい。
また、固定監視カメラで撮影された画像に対して滞留物体検出を行う場合、滞留度算出手段23は、事前に検出対象の滞留を含まない背景画像を特定し、その特定された背景画像部分に対して滞留度を算出しておいてもよい。そして、滞留判定手段24は、定常的に滞留度が高く算出されやすい領域(誤検出が起こりやすい領域)に対して、滞留度を下げる補正処理を行ってもよい。
また、滞留判定手段24は、事前に算出された、検出対象の滞留を含まない背景画像に対する滞留度に基づいて信頼度を算出してもよい。この場合、滞留判定手段24は、背景に対し滞留度が高く算出されやすい領域(誤検出が起こりやすい領域)の信頼度は低く、背景に対し滞留度が低く算出される領域の信頼度を高くなるように、滞留度から信頼度を算出する。そして、滞留判定手段24は、算出した信頼度を、領域ごとの滞留度と合わせて、出力部3に出力する。
滞留判定手段24は、出力する滞留発生座標として、画面上の座標を用いてもよいし、実世界座標に変換した座標を用いてもよい。
出力部3は、滞留検出部2から入力される滞留発生座標を出力する。出力部3の出力態様は、例えば、表示することである。この場合、出力部3は、ディスプレイ装置(図示せず)を備え、そのディスプレイ装置に表示を行えばよい。ただし、出力部3の出力態様は表示に限定されず、他の態様であってもよい。
滞留検出部2における解析画像取得手段21(より具体的には、解析領域選択手段211と、解析時刻選択手段212と、解析画像選択手段213)と、滞留度算出手段23と、滞留判定手段24とは、プログラム(滞留物体検出プログラム)に従って動作するコンピュータのCPU(Central Processing Unit)によって実現される。
例えば、プログラムは、滞留物体検出システムが備える記憶部(図示せず)に記憶されてもよい。CPUは、そのプログラムを読み込み、プログラムに従って、解析画像取得手段21(より具体的には、解析領域選択手段211と、解析時刻選択手段212と、解析画像選択手段213)、滞留度算出手段23および滞留判定手段24として動作してもよい。
また、解析画像取得手段21(より具体的には、解析領域選択手段211と、解析時刻選択手段212と、解析画像選択手段213)と、滞留度算出手段23と、滞留判定手段24とは、それぞれが専用のハードウェアで実現されていてもよい。
また、識別器学習部4は、プログラム(識別器学習プログラム)に従って動作するコンピュータのCPUによって実現される。識別器学習部4も、専用のハードウェアで実現されていてもよい。
次に、本実施形態に係る滞留物体検出システムの動作を説明する。図6は、本実施形態の滞留物体検出システムの動作例を示す説明図である。なお、後述の各処理ステップは、処理内容に矛盾を生じない範囲で、任意に順番が変更されてもよいし、並列に実行されてもよい。また、各処理ステップ間に他のステップが追加されても良い。更に、便宜上1つのステップとして記載されているステップを複数のステップに分けて実行することもでき、便宜上複数に分けて記載されているステップを1ステップとして実行することもできる。
解析画像取得手段21は、画像入力部1から、撮影画像とその撮影時刻を取得する(ステップS1)。次に、解析画像取得手段21は、保持する過去数フレームの画像のうち撮影時刻が最も古い画像を破棄し、ステップS1で取得した最新の入力画像を新たに保持することで、画像の履歴を更新する(ステップS2)。
次に、解析領域選択手段211は、画像から複数の解析領域を選択する(ステップS3)。解析画像取得手段21(具体的には、解析領域選択手段211)は、ステップS3で選択した複数の解析領域のうち、滞留度の算出がまだ行われていない未処理の解析領域が存在する場合(ステップS4のyes)、未処理の解析領域を1つ選択する(ステップS5)。
解析時刻選択手段212は、ステップS5で選択された解析領域において、事前に定義されている検出対象の移動モデルに基づいて、ステップS2で更新した画像履歴から各画像の撮影時間間隔を算出する。そして、解析時刻選択手段212は、検出対象がその時間間隔で対象とする解析領域上を移動可能かどうか判断し、移動可能と判断した画像を選択する(ステップS6)。
解析画像選択手段213は、ステップS6で選択された各履歴の画像から、滞留度の算出に用いるための解析画像の組合せを選択する(ステップS7)。
滞留度算出手段23は、ステップS7で選択された解析画像の組のうち、滞留度を算出していない未処理の解析画像の組が存在する場合(ステップS8のyes)、未処理の解析画像の組を1つ選択する(ステップS9)。
そして、滞留度算出手段23は、滞留識別器記憶部22が保持している識別器を用いて、ステップS9で選択した解析画像の組に対して滞留度を算出する(ステップS10)。
ステップS10が終了すると、滞留度算出手段23は、ステップS8以降の処理を繰り返す。ステップS8において、未処理の解析画像の組が存在しないと判定された場合(ステップS8のno)、滞留度算出手段23は、1つの解析領域に対して複数の滞留度を算出した結果を統合した数値を算出する(ステップS11)。滞留度算出手段23は、例えば、算出した各滞留度の平均値、中央値、最大値、最小値のいずれかを、統合した数値として算出する。
ステップS11の後、解析画像取得手段21は、ステップS4以降の処理を繰り返す。滞留判定手段24は、ステップS4において未処理の解析領域が存在しないと判断された場合(ステップS4のno)、解析領域ごとに算出された滞留度を用いて、滞留判定処理を行う(ステップS12)。滞留判定手段24は、例えば解析領域ごとに算出された滞留度が所定の閾値以上であれば滞留と判断するように滞留判定処理を行う。
解析領域が画像上で重複する場合、滞留判定手段24は、重複する領域における滞留判定を行う際、例えば、重複する各解析領域について算出された滞留度の平均値、中央値、最大値、最小値のいずれかの値について、所定の閾値以上であれば滞留と判定してもよい。
出力部3は、滞留判定手段24から出力される滞留検知結果を出力する(ステップS13)。出力部3は、例えば、滞留検知結果をアプリケーションに出力してもよし、記憶媒体などの外部モジュールに対して出力してもよい。
次に、本実施形態の識別器学習部4が識別器を学習する動作を説明する。図7は、本実施形態の識別器学習部4の動作例を示すフローチャートである。
識別器学習部4は、記憶部(図示せず)に記憶された正例と負例の学習画像を読み取る(ステップS21)。具体的には、識別器学習部4は、滞留状態を示す正例として、同一の検出対象を含む複数の画像の組を読み取り、非滞留状態を示す負例として、同一の検出対象を含まない複数の画像の組を読み取る。
そして、識別器学習部4は、正例と負例の学習画像から、正例または負例の組に含まれる画像の数と同数の入力画像から滞留物体を識別する識別器を学習する(ステップS22)。
以上のように、本実施形態では、解析時刻選択手段212が、撮影された時間が異なる複数の入力画像から、滞留の解析に適した時間差をおいて撮影された複数の入力画像を選択する。また、解析画像選択手段213が、選択された複数の入力画像から同一の解析領域を示す画像をそれぞれ抽出して、抽出した画像の組である解析画像の組を生成する。そして、滞留度算出手段23および滞留判定手段24が、複数の画像から滞留物体を識別する識別器を用いて、生成された解析画像の組から滞留物体を検出する。その際、解析時刻選択手段212は、検出対象の移動モデルまたは解析領域の大きさの少なくとも一方に基づいて、滞留の解析に適した時間差を決定する。そのため、滞留する物体を好適に検出できる。
特に、本実施形態では、滞留度算出手段23および滞留判定手段24が、上述した識別器を用いて、解析画像の組から滞留物体を検出する。そのため、監視領域の照明変動や、監視カメラのレンズ汚れ、物の移動などに代表される撮影環境の変化による誤検出増加の影響を受けずに、安定して滞留物を検出可能になる。
また、本実施形態では、識別器学習部4が、同一の検出対象を含む複数の画像の組を滞留状態を示す正例とし、同一の検出対象を含まない複数の画像の組を非滞留状態を示す負例として、滞留物体を識別する識別器を学習する。この識別器を用いることで、滞留する物体を好適に検出できる。
次に、本実施形態の概要を説明する。図8は、本開示による識別器学習装置の概要を示すブロック図である。本開示による識別器学習装置90は、滞留物体を識別する識別器を学習する学習部91(例えば、識別器学習部4)を備える。学習部91は、同一の検出対象を含む複数の画像の組を滞留状態を示す正例とし、同一の検出対象を含まない複数の画像の組を非滞留状態を示す負例として、滞留物体を識別する識別器を学習する。
そのような構成により生成された識別器を用いることで、滞留する物体を好適に検出できる。
また、学習部91は、正例または負例の組に含まれる画像の数と同数の検出対象画像から滞留物体を識別する識別器を学習してもよい。
また、学習部91は、同一の検出対象と共に少なくとも一部が同一の背景画像を含む複数の画像の組を正例として識別器を学習してもよい。同一の解析領域を対象とした複数の画像を比較する場合には、比較する解析領域には同一の背景画像が映り込む可能性が高いため、このような識別器を用いることで、より適切に滞留画像を判断できる。
また、学習部91は、正例または負例とした組に含まれる画像のうち、少なくとも1つの画像の検出対象に摂動処理(例えば、検出対象に対して、光の当たり方や明るさ、影などの影響を反映させた処理)が施された画像の組を用いて識別器を学習してもよい。このような画像を正例または負例として用いることで、撮影環境が変わった場合でも滞留物体を識別する精度を維持できる識別器を学習できる。
また、図9は、本開示による滞留物体検出システムの概要を示すブロック図である。本開示による滞留物体検出システム80は、対象画像選択手段81と、解析画像生成手段82と、滞留物体検出手段83とを備える。対象画像選択手段81(例えば、解析時刻選択手段212)は、撮影された時間が異なる複数の検出対象画像から、滞留の解析に適した時間差をおいて撮影された複数の検出対象画像を選択する。解析画像生成手段82(例えば、解析画像選択手段213)は、対象画像選択手段81により選択された複数の検出対象画像から同一の解析領域を示す画像をそれぞれ抽出して、抽出した画像の組である解析画像の組を生成する。滞留物体検出手段83(例えば、滞留度算出手段23、滞留判定手段24)は、複数の画像から滞留物体を識別する識別器を用いて、解析画像生成手段82により生成された解析画像の組から滞留物体を検出する。
そして、対象画像選択手段81は、検出対象の移動モデル(例えば、検出対象の移動速度および移動方向をモデル化した移動モデル)又は解析領域の大きさの少なくとも一方に基づいて、滞留の解析に適した時間差を決定する。
そのような構成により、滞留する物体を好適に検出できる。
また、滞留物体検出手段83は、入力される複数の画像に同一の検出対象が含まれるほどその検出対象が滞留している確からしさを表わす滞留度を高く算出する識別器を用いて、生成された解析画像の組から滞留物体を検出してもよい。
また、解析画像生成手段82は、同一の解析領域の複数組の解析画像を生成してもよい。この場合、滞留物体検出手段83は、複数生成された解析画像の組に対してそれぞれ識別器が算出する滞留度を取得し、取得された滞留度の平均値、中央値、最大値、最小値の少なくともいずれかの値を同一の解析領域の滞留度として算出してもよい。滞留物体検出手段83は、算出された滞留度に基づいて滞留物体を検出してもよい。
また、滞留物体検出手段83は、検出対象画像から背景画像部分を特定し、特定された背景画像部分に対応する領域の滞留度が低くなるように補正してもよい。そのような構成によれば、背景に対し滞留度が高く算出されやすい領域(誤検出が起こりやすい領域)の検出精度を向上させることができる。
また、対象画像選択手段81は、検出対象の移動モデルに基づいて、その検出対象が解析領域を通過するために要する時間を算出し、算出された時間以上の間隔で撮影された検出対象画像を選択してもよい。
図10は、識別器学習装置90または滞留物体検出システム80を実現するコンピュータ装置200のハードウェア構成を例示するブロック図である。コンピュータ装置200は、CPU201と、ROM(Read Only Memory)202と、RAM(Random Access Memory)203と、記憶装置204と、ドライブ装置205と、通信インタフェース206と、入出力インタフェース207とを備える。識別器学習装置90または滞留物体検出システム80は、図10に示される構成(またはその一部)によって実現され得る。
CPU201は、RAM203を用いてプログラム208を実行する。プログラム208は、ROM202に記憶されていてもよい。また、プログラム208は、フラッシュメモリなどの記録媒体209に記録され、ドライブ装置205によって読み出されてもよいし、外部装置からネットワーク210を介して送信されてもよい。通信インタフェース206は、ネットワーク210を介して外部装置とデータをやり取りする。入出力インタフェース207は、周辺機器(入力装置、表示装置など)とデータをやり取りする。通信インタフェース206及び入出力インタフェース207は、データを取得又は出力する手段として機能することができる。
なお、識別器学習装置90または滞留物体検出システム80は、単一の回路(プロセッサ等)によって構成されてもよいし、複数の回路の組み合わせによって構成されてもよい。ここでいう回路(circuitry)は、専用又は汎用のいずれであってもよい。
本開示によれば、監視領域内に滞留している人物や放置物などの物体を検出するシステムに好適に適用することができる。
また、本開示では特定の検出対象の滞留画像の特徴を学習する。そのため、差分ベースの手法では適用が困難だった屋外環境において、照明変動やレンズ汚れ、物の移動等による誤検知増加の影響を受けずに、対象となる滞留物体のみを検出する用途に本開示を好適に適用可能である。
また、本開示は、差分ベースの滞留検出手法と比較すると、事前に背景画像を生成する必要がない。そのため、検出対象が常に往来しているような背景画像の取得や生成が困難な環境に、滞留物体検知システムの導入が容易になる。
以上、上述した実施形態を模範的な例として本開示を説明した。しかしながら、本開示は、上述した実施形態には限定されない。即ち、本開示は、本開示のスコープ内において、当業者が理解し得る様々な態様を適用することができる。
この出願は、2015年2月27日に出願された日本出願特願2015−037926を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1 画像入力部
2 滞留検出部
3 出力部
4 識別器学習部
21 解析画像取得手段
22 滞留識別器記憶部
23 滞留度算出手段
24 滞留判定手段
211 解析領域選択手段
212 解析時刻選択手段
213 解析画像選択手段
本開示は、監視領域内に滞留している人や物を検出するためのシステム、方法およびプログラム、並びに、滞留している人や物を識別する識別器を学習するための装置、方法およびプログラムに関する。

Claims (13)

  1. 同一の検出対象を含む複数の画像の組を滞留状態を示す正例とし、同一の検出対象を含まない複数の画像の組を非滞留状態を示す負例として、滞留物体を識別する識別器を学習する学習部を備えた
    ことを特徴とする識別器学習装置。
  2. 前記学習部は、正例または負例に含まれる画像の数と同数の検出対象画像から滞留物体を識別する識別器を学習する
    請求項1記載の識別器学習装置。
  3. 前記学習部は、同一の検出対象と共に少なくとも一部が同一の背景画像を含む複数の画像の組を正例として識別器を学習する
    請求項1または請求項2記載の識別器学習装置。
  4. 前記学習部は、正例または負例とした組に含まれる画像のうち、少なくとも1つの画像に摂動処理が施された画像の組を用いて識別器を学習する
    請求項1から請求項3のうちのいずれか1項に記載の識別器学習装置。
  5. 撮影された時間が異なる複数の検出対象画像から、滞留の解析に適した時間差をおいて撮影された複数の検出対象画像を選択する対象画像選択手段と、
    選択された複数の検出対象画像から同一の解析領域を示す画像をそれぞれ抽出して、抽出した画像の組である解析画像の組を生成する解析画像生成手段と、
    複数の画像から滞留物体を識別する識別器を用いて、生成された解析画像の組から滞留物体を検出する滞留物体検出手段とを備え、
    前記対象画像選択手段は、検出対象の移動モデル又は前記解析領域の大きさの少なくとも一方に基づいて、前記滞留の解析に適した時間差を決定する
    ことを特徴とする滞留物体検出システム。
  6. 前記滞留物体検出手段は、入力される複数の画像に同一の検出対象が含まれるほど当該検出対象が滞留している確からしさを表わす滞留度を高く算出する識別器を用いて、生成された解析画像の組から滞留物体を検出する
    請求項5記載の滞留物体検出システム。
  7. 前記解析画像生成手段は、同一の解析領域の複数組の解析画像を生成し、
    前記滞留物体検出手段は、複数生成された解析画像の組に対してそれぞれ識別器が算出する滞留度を取得し、取得された滞留度の平均値、中央値、最大値、最小値の少なくともいずれかの値を前記同一の解析領域の滞留度として算出し、算出された滞留度に基づいて滞留物体を検出する
    請求項6記載の滞留物体検出システム。
  8. 前記滞留物体検出手段は、検出対象画像から背景画像部分を特定し、特定された背景画像部分に対応する領域の滞留度が低くなるように補正する
    請求項6または請求項7記載の滞留物体検出システム。
  9. 前記対象画像選択手段は、検出対象の移動モデルに基づいて、当該検出対象が解析領域を通過するために要する時間を算出し、算出された時間以上の間隔で撮影された検出対象画像を選択する
    請求項5から請求項8のうちのいずれか1項に記載の滞留物体検出システム。
  10. 同一の検出対象を含む複数の画像の組を滞留状態を示す正例とし、同一の検出対象を含まない複数の画像の組を非滞留状態を示す負例として、滞留物体を識別する識別器を学習する
    ことを特徴とする識別器学習方法。
  11. 撮影された時間が異なる複数の検出対象画像から、滞留の解析に適した時間差をおいて撮影された複数の検出対象画像を選択し、
    選択された複数の検出対象画像から同一の解析領域を示す画像をそれぞれ抽出して、抽出した画像の組である解析画像の組を生成し、
    複数の画像から滞留物体を識別する識別器を用いて、生成された解析画像の組から滞留物体を検出し、
    検出対象画像を選択する際、検出対象の移動モデル又はおよび前記解析領域の大きさの少なくとも一方に基づいて、前記滞留の解析に適した時間差を決定する
    ことを特徴とする滞留物体検出方法。
  12. コンピュータに、
    同一の検出対象を含む複数の画像の組を滞留状態を示す正例とし、同一の検出対象を含まない複数の画像の組を非滞留状態を示す負例として、滞留物体を識別する識別器を学習する学習処理
    を実行させるためのプログラムを記録したプログラム記録媒体。
  13. コンピュータに、
    撮影された時間が異なる複数の検出対象画像から、滞留の解析に適した時間差をおいて撮影された複数の検出対象画像を選択する対象画像選択処理、
    選択された複数の検出対象画像から同一の解析領域を示す画像をそれぞれ抽出して、抽出した画像の組である解析画像の組を生成する解析画像生成処理、および、
    複数の画像から滞留物体を識別する識別器を用いて、生成された解析画像の組から滞留物体を検出する滞留物体検出処理を実行させ、
    前記対象画像選択処理で、検出対象の移動モデル又は前記解析領域の大きさの少なくとも一方に基づいて、前記滞留の解析に適した時間差を決定させる
    ためのプログラムを記録したプログラム記録媒体。
JP2017501921A 2015-02-27 2016-02-18 滞留物体検出システム、滞留物体検出方法およびプログラム Active JP6784254B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015037926 2015-02-27
JP2015037926 2015-02-27
PCT/JP2016/000869 WO2016136214A1 (ja) 2015-02-27 2016-02-18 識別器学習装置、滞留物体検出システム、識別器学習方法、滞留物体検出方法およびプログラム記録媒体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020176571A Division JP7074174B2 (ja) 2015-02-27 2020-10-21 識別器学習装置、識別器学習方法およびコンピュータプログラム

Publications (2)

Publication Number Publication Date
JPWO2016136214A1 true JPWO2016136214A1 (ja) 2017-12-14
JP6784254B2 JP6784254B2 (ja) 2020-11-11

Family

ID=56788212

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017501921A Active JP6784254B2 (ja) 2015-02-27 2016-02-18 滞留物体検出システム、滞留物体検出方法およびプログラム
JP2020176571A Active JP7074174B2 (ja) 2015-02-27 2020-10-21 識別器学習装置、識別器学習方法およびコンピュータプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020176571A Active JP7074174B2 (ja) 2015-02-27 2020-10-21 識別器学習装置、識別器学習方法およびコンピュータプログラム

Country Status (2)

Country Link
JP (2) JP6784254B2 (ja)
WO (1) WO2016136214A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6849081B2 (ja) * 2017-09-04 2021-03-24 日本電気株式会社 情報処理装置、計数システム、計数方法およびコンピュータプログラム
WO2019069629A1 (ja) 2017-10-06 2019-04-11 富士フイルム株式会社 画像処理装置及び学習済みモデル

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0520461A (ja) * 1991-07-11 1993-01-29 Nippon Telegr & Teleph Corp <Ntt> 物体認識処理方法
JP2002157596A (ja) * 2000-11-17 2002-05-31 Sony Corp ロボット装置及び顔識別方法
JP2006178790A (ja) * 2004-12-22 2006-07-06 Ricoh Co Ltd 状態検知装置、状態検知方法、プログラムおよび記録媒体
JP2014085795A (ja) * 2012-10-23 2014-05-12 Toshiba Corp 学習画像収集装置、学習装置及び対象物検出装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0520461A (ja) * 1991-07-11 1993-01-29 Nippon Telegr & Teleph Corp <Ntt> 物体認識処理方法
JP2002157596A (ja) * 2000-11-17 2002-05-31 Sony Corp ロボット装置及び顔識別方法
JP2006178790A (ja) * 2004-12-22 2006-07-06 Ricoh Co Ltd 状態検知装置、状態検知方法、プログラムおよび記録媒体
JP2014085795A (ja) * 2012-10-23 2014-05-12 Toshiba Corp 学習画像収集装置、学習装置及び対象物検出装置

Also Published As

Publication number Publication date
JP2021007055A (ja) 2021-01-21
WO2016136214A1 (ja) 2016-09-01
JP6784254B2 (ja) 2020-11-11
JP7074174B2 (ja) 2022-05-24

Similar Documents

Publication Publication Date Title
WO2019218824A1 (zh) 一种移动轨迹获取方法及其设备、存储介质、终端
KR101507662B1 (ko) 비디오 내 객체들의 시맨틱 파싱
US8744125B2 (en) Clustering-based object classification
WO2021051601A1 (zh) 利用Mask R-CNN选择检测框的方法及系统、电子装置及存储介质
CN112560999A (zh) 一种目标检测模型训练方法、装置、电子设备及存储介质
CN112001230B (zh) 睡觉行为的监控方法、装置、计算机设备和可读存储介质
US20190258866A1 (en) Human presence detection in edge devices
CN111325769B (zh) 一种目标对象检测方法及装置
KR20150107579A (ko) 화상 처리 장치 및 화상 처리 방법
JP6095817B1 (ja) 物体検出装置
JP6157165B2 (ja) 視線検出装置及び撮像装置
WO2024051067A1 (zh) 红外图像处理方法、装置及设备、存储介质
JP2013152669A (ja) 画像監視装置
JP7074174B2 (ja) 識別器学習装置、識別器学習方法およびコンピュータプログラム
CN111191535A (zh) 基于深度学习的行人检测模型构建方法及行人检测方法
CN112541403A (zh) 一种利用红外摄像头的室内人员跌倒检测方法
Viraktamath et al. Comparison of YOLOv3 and SSD algorithms
CN111753587B (zh) 一种倒地检测方法及装置
CN103049748A (zh) 行为监测方法及装置
US11605220B2 (en) Systems and methods for video surveillance
JP2016095701A (ja) 画像処理装置、画像処理方法、及び、プログラム
KR102218255B1 (ko) 갱신 영역 학습을 통한 인공지능 기반의 영상 분석 시스템 및 방법과, 이를 위한 컴퓨터 프로그램
JP2009123150A (ja) 対象物検出装置及び方法、対象物検出システム、プログラム
JPWO2018179119A1 (ja) 映像解析装置、映像解析方法およびプログラム
JP2024516642A (ja) 行動検出方法、電子機器およびコンピュータ読み取り可能な記憶媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170809

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200923

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201006

R150 Certificate of patent or registration of utility model

Ref document number: 6784254

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150