JP2011209951A - 対象物検知装置 - Google Patents

対象物検知装置 Download PDF

Info

Publication number
JP2011209951A
JP2011209951A JP2010076218A JP2010076218A JP2011209951A JP 2011209951 A JP2011209951 A JP 2011209951A JP 2010076218 A JP2010076218 A JP 2010076218A JP 2010076218 A JP2010076218 A JP 2010076218A JP 2011209951 A JP2011209951 A JP 2011209951A
Authority
JP
Japan
Prior art keywords
detection
image
parts
information
detection information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010076218A
Other languages
English (en)
Other versions
JP5394967B2 (ja
Inventor
Hidenori Ujiie
秀紀 氏家
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2010076218A priority Critical patent/JP5394967B2/ja
Publication of JP2011209951A publication Critical patent/JP2011209951A/ja
Application granted granted Critical
Publication of JP5394967B2 publication Critical patent/JP5394967B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

【課題】画像監視装置において、隠蔽に対応するために検知対象物の部位を検出する場合、部位の検出効率と検出結果の信頼性との間にトレードオフの関係が生じる。
【解決手段】個々は対象物体像に応じた形状の枠領域内にて一部範囲を占め、位置が異なる複数種類を設けることにより当該枠領域の各所に配置される部位として、個々の大きさが異なる複数種類のものを設定する。部位ごとに検出器を設け、入力画像の対比部分が当該部位における対象物体像と一致するかを検出する。一致した部位にはその大きさに応じた投票値を設定する。同じ枠領域に属する部位について投票値を集計して、集計値が閾値を超える場合に対象物が存在すると判定する。
【選択図】図4

Description

本発明は、入力画像中に撮像されている対象物を検知する対象物検知装置に関する。
近年、監視カメラの画像やデジタルスチルカメラの画像から人や顔などの存在を検知する研究が盛んに行われている。検知処理には、パターンマッチング装置や識別器による探索的手法が用いられる。すなわち、画像内の各所に窓を設定して各窓画像をパターンマッチング装置や識別器に入力し、これらが出力する検出結果を集計して集計値が高い位置に対象物を検知する。
画像の対象物はその全体が撮像されているとは限らず、対象物の一部が他の物体に隠蔽されている場合もある。隠蔽に対応するために、従来、対象物を複数の部分に分けて各部分を検出し、それら部分の検出結果を統合・集計していた。
特許文献1に記載の発明では比較的小さく分けた部分を検出し、検出結果を統合していた。また対象物である人を頭・胴・脚というように比較的大きく分けて各部分を検出し、検出結果を統合する試みもなされている。
特開平9−21610号公報
対象物を複数の部分(部位)に分けて検出する場合、検出対象とする部位の大きさと隠蔽の受けやすさとの相関に起因して、部位の検出効率と検出結果の信頼性との間にはトレードオフの関係がある。
すなわち、部位の大きさを大きくした場合、当該部位が検出できた場合には検出結果の信頼性が高いが、当該部位が隠蔽を受け易くなるため検出漏れが生じる可能性が高くなるという問題がある。また隠蔽の状況は多様であり、隠れている箇所を予測して回避することは困難である。
逆に、部位の大きさを小さくした場合には、隠蔽を受けにくくなるため当該部位の検出漏れは減るが、マッチング等に用いる情報が少なくなる分、当該部位以外の像との間で偶発的に検出が成立する誤検出の可能性が高くなり、検出結果の信頼性が低くなるという問題がある。
しかしながら、従来技術においては上述のトレードオフを考慮せず、部位の検出結果を部位の大きさによらず統合していた。そのため、部位が大きすぎるために対象物を検知し損ねたり、部位が小さすぎるために非対象物を誤検知したりすることが多かった。
本発明は上記問題点を解決するためになされたものであり、多様な隠蔽状態においても検出漏れが少なく、かつ信頼性の高い対象物検知が可能な対象物検知装置を提供することを目的とする。
本発明に係る対象物検知装置は、入力画像中に撮像されている対象物を検知するものであって、前記対象物の標本画像内に設定された、大きさ及び位置の少なくとも一方が互いに異なる複数の部位と、前記部位間の位置関係とを予め記憶している記憶部と、前記標本画像が示す前記各部位の特徴を検出する検出器と、前記入力画像を前記各部位の前記検出器にて走査し、前記各部位の特徴が検出された前記入力画像内の検出位置を当該部位と対応付けた検出情報を生成する部位検出部と、前記検出位置が前記位置関係を略満たす前記検出情報同士をグループ化し、前記検出情報と対応する前記部位の大きさの総和を前記グループごとに求め、予め設定された閾値を超える前記総和が求められたときに前記対象物を検知する統合判定部と、を有する。
他の本発明に係る対象物検知装置においては、前記複数の部位が、互いの領域重複を許容して設定され、前記統合判定部が、前記グループごとに、前記検出情報と対応する前記部位を前記位置関係にて配置し、当該配置された部位の和領域の面積を前記総和として求める。
本発明の他の好適な態様においては、前記部位検出部が、予め設定された複数の倍率で前記部位又は前記入力画像を拡大又は縮小して前記走査処理を行って当該倍率を含めた前記検出情報を生成し、前記統合判定部が、前記倍率が近接する前記検出情報同士を前記グループ化する。
さらに他の本発明に係る対象物検知装置においては、前記複数の部位が、互いに前記大きさが異なる一方の部位が他方の部位を包含すること以外の領域重複を禁止して設定され、前記統合判定部が、前記各グループにおいて、前記部位ごとに前記検出情報を1つに集約し、前記集約された前記部位のうち当該集約された他の部位のいずれにも包含されない部位の前記大きさ同士を加算して前記総和を求める。
本発明の他の好適な態様においては、前記部分検出部が、前記大きさが大きな前記部位から順番に前記走査を行い、前記順番が下位である部位の前記走査は当該部位を包含する前記部位の前記検出位置と前記位置関係にない前記入力画像内の位置にて行う。
本発明によれば、多様な隠蔽状態においても検出漏れが少なく、かつ信頼性の高い対象物検知が可能となる。
本発明の実施形態に係る画像監視装置の概略のブロック構成図である。 対象物の標本画像の一例を示す模式図である。 相対位置ベクトルを説明する模式図である。 第1の実施形態における部位情報の具体例を模式的に示す説明図である。 部位検出処理の例を説明する模式図である。 統合判定処理の例を説明する模式図である。 第1の実施形態における統合判定処理の投票画像の例を説明する模式図である。 本発明の実施形態における画像監視処理の概略のフロー図である。 第1の実施形態における部位検出処理の概略のフロー図である。 第1の実施形態における統合判定処理の概略のフロー図である。 第2の実施形態における部位領域情報の具体例を模式的に示す説明図である。 第2の実施形態における部位検出処理の概略のフロー図である。 第2の実施形態における統合判定処理の概略のフロー図である。
以下、本発明の実施の形態(以下実施形態という)である画像監視装置1について、図面に基づいて説明する。画像監視装置1は、監視空間から得られた監視画像において、検知対象物(以下、対象物)である人間の特徴を有する領域を抽出することで侵入者を検知する。侵入者を検知すると画像監視装置1は異常信号を出力する。
[第1の実施形態]
図1は、本発明の実施形態に係る画像監視装置1の概略のブロック構成図である。画像監視装置1は、画像入力部2、記憶部3、画像処理部4及び出力部5を含んで構成される。画像入力部2、記憶部3及び出力部5は画像処理部4と接続される。
画像入力部2は、監視カメラであり、監視空間内に設置される。例えば、監視カメラは監視空間の天井部に監視空間を俯瞰して設置される。当該監視カメラは、監視空間を所定の時間間隔で撮影し、各画素が多階調の画素値で表現される監視画像を順次、画像処理部4へ出力する。以下、画像入力部2にて取得され画像処理部4に入力される画像を入力画像と称する。
記憶部3は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク等の記憶装置であり、画像処理部4で使用されるプログラムやデータを記憶する。記憶部3はこれらプログラム、データを画像処理部4との間で入出力する。記憶部3に記憶されるデータには部位情報30、部位検出器31、部位検出情報32が含まれる。
部位は対象物の一部であり、複数の部位が対象物の互いに異なる一部として設定される。部位の画像情報は、対象物が撮像されていることが既知である「対象物の標本画像」を基にして予め作成される。
具体的には、複数の部位それぞれが対象物の標本画像内の互いに異なる領域として設定される。ここで、隠蔽状態の多様性と検出の信頼性とのトレードオフを解消するために、複数種類の大きさの部位が設定される。部位の大きさと形状との組み合わせをパターンと呼ぶ。また、対象物の標本画像に対応する領域を標本領域と呼ぶ。
或るパターンの部位は標本領域内に位置をずらして複数設定され、これらパターンは同じであるが位置が相違する部位のセットにより標本領域の全体がカバーされる。すなわち、標本領域内の任意の位置には当該セットを構成するいずれかの部位が配置される。当該セットは、パターンが異なる部位ごとに設定される。よって、標本領域内の任意の位置には各パターンの部位が配置される。
部位情報30は画像上で部位が表す領域を規定する情報である。部位情報30は、検知処理に先立って生成され、記憶部3に格納される。
本実施形態では各部位の形状は正方形又は長方形とし、部位情報30は、パターンごとに識別番号、サイズ、配置数及び配置情報を含む。サイズはパターンの形状及び大きさを表す情報であり、画像水平方向の画素数と画像垂直方向の画素数とで表される。配置数は、標本領域内にて各パターンをいくつ配置するか、つまり、標本領域内にパターンが同じで位置が異なる部位をいくつ定義して、標本領域全体をカバーするかを表す。配置情報は各パターンの位置が異なる部位ごとに定義された、当該部位の識別符号(以下、部位ID(identification data)と称する)と相対位置ベクトルとからなる。各部位の相対位置ベクトルは標本領域の基準点に対する当該部位の相対位置を表す。基準点は全部位に共通して定められ、各部位の相対位置ベクトルによって部位間の位置関係が一意に規定される。本実施形態では、標本領域の重心を当該基準点と定める。別の実施形態では、任意の1つの部位の重心や標本領域の左上隅などを基準点に定める。
図2は、標本画像の一例を示す模式図である。本実施形態では対象物は人であり、標本画像は人の全体画像である。標本画像は、人の形状に合わせて幅(水平)方向64ピクセル×高さ(垂直)方向128ピクセルの縦長の矩形に設定している。この標本画像に対応させて標本領域300も64×128ピクセルの領域に設定する。
図3は相対位置ベクトルを説明する模式図である。標本領域300の基準点301としてその重心が設定され、部位302の重心303から基準点301へのベクトルが相対位置ベクトル304として定義される。
図4は、部位情報30の具体例を模式的に示す説明図である。部位IDはCi−jという形式で表しており、本実施形態では「i」はパターンの識別番号に一致させている。また「j」は各パターンに属する複数の部位の配置を識別する番号である。また、部位Ci−jの相対位置(相対位置ベクトル)をVi−jと表している。
本実施形態では、4パターンで39個の部位を設定する。パターン#1は各部位の大きさを64×64ピクセルとする。配置数は5個に設定し、5個の部位(C1−1〜C1−5)は高さ方向に16ピクセルずつずらして配置される。パターン#2は各部位の大きさを64×32ピクセルとする。配置数は7個に設定し、7個の部位(C2−1〜C2−7)は高さ方向に16ピクセルずつずらして配置される。パターン#3は各部位の大きさを48×48ピクセルとする。幅方向及び高さ方向に16ピクセルずつずらして、幅方向に2種類の位置、高さ方向に6種類の位置が設定される。これにより、配置数は12個となり、12個の部位(C3−1〜C3−12)が設定される。パターン#4は、各部位の大きさを32×64ピクセルとする。幅方向及び高さ方向に16ピクセルずつずらして、幅方向に3種類の位置、高さ方向に5種類の位置が設定される。これにより、配置数は15個となり、15個の部位(C4−1〜C4−15)が設定される。
各パターンの部位は隣接配置されるもの同士がオーバーラップするように設定されている。これにより、検出時の信頼度が高い「大きな部位」を数多く設定できるため、対象物検知の信頼度を向上させることが可能となる。
部位検出器31は、上述の部位それぞれに対応して設けられ、入力画像にて当該部位と同じ形状に設定される対比部分から当該部位の画像特徴を検出する検出器である。部位検出器31は対応する部位に対して予め設定された検出基準に基づいて対比部分が部位の画像特徴を有する度合い(検出度)、又は対比部分における部位の画像特徴の有無を出力する。各部位の検出基準は、予め、少なくとも対象物の標本画像を用いて学習されている。
具体的には、部位検出器31はパターン認識で用いられる識別器である。識別器は、未知の画像特徴(特徴ベクトルx=[x,x,・・・,x])が入力されると当該画像特徴が検出対象又は非検出対象である度合いを表す尤度を出力する識別関数H(x)を備える。つまりこの場合、部位検出器31の検出基準は識別関数H(x)であり、部位検出器31の検出度は尤度である。本実施形態において各部位の部位検出器31は、入力された画像特徴が当該部位の画像特徴として尤もらしければ正の検出度を出力し、そうでなければ負の検出度を出力する。
画像特徴としては照明変動に頑強な輝度勾配分布を用いるのが望ましい。このような画像特徴として公知のヒストグラム・オブ・オリエンティッド・グラディエント(HOG:Histograms of Oriented Gradients)やシェイプコンテキスト(Shape Context)等がある。本実施形態においては画像特徴としてHOGを用いる。識別器は公知のアダブースト法(Robert E.Schapire,Yoram Singer,"Improved Boosting Algorithms Using Confidence-rated Predictions",Machine Learning,Vol.37,No.3,pp.297-336,1999)等のブースティング法を用いて学習され、学習の結果、識別関数H(x)のパラメータが算出される。
各部位の部位検出器31の学習は、例えば、人が撮像された多数の標本画像と人が撮像されていない多数の標本画像のそれぞれから当該部位と対応する部分画像を切り出して各部分画像のHOGを算出し、算出されたHOGにアダブースト法を適用することにより行われる。学習の結果、HOGが表す特徴空間において検出対象の各部位とそれ以外とを識別する識別関数H(x)のパラメータが算出され、これらのパラメータが部位検出器31として部位ごとに記憶部3に記憶される。
入力画像中に撮像された部位を検出する別の構成として、部位検出器31をパターンマッチング器とすることもできる。この構成では、部位に対応する画像の検出基準に、当該部位の対象物標本画像から作成されたテンプレートを用いる。当該テンプレートとして、例えば部位を構成する画素ごとにエッジ強度を平均化して算出された平均エッジ強度パターンを用いることができる。この場合、部位検出器31に入力される画像特徴は、入力画像の対比部分の平均エッジ強度パターンであり、部位検出器31は、当該画像特徴とテンプレートとの類似度を検出度として出力する。
部位検出情報32は入力画像から各部位を検出した結果の情報である。部位検出情報32として、検出があるごとに、検出された部位の部位IDと、入力画像中での当該部位の検出位置とを組にした情報が記憶部3に記憶される。なお、各部位検出情報32には必要に応じて、部位検出器31により算出された検出度や、その他、例えば、部位を拡大又は縮小して検出した場合にはその拡大・縮小の倍率等が含められる。
画像処理部4はDSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成される。画像処理部4は、画像入力部2からの入力画像を処理して人の存在有無を判定し、人を検知すると異常信号を出力部5へ出力する処理を行う。具体的には、画像処理部4は、記憶部3からプログラムを読み出して実行し、後述する部位検出部40、統合判定部41、異常判定部42として機能する。
部位検出部40は、各部位検出器31に対応する部位の形状を有した対比部分を入力画像の各所に設定し、当該部位検出器31を用いて当該対比部分が当該部位の特徴を有するかを判定・検出する走査処理を行う。部位の特徴を検出した場合にはその結果を部位検出情報32として記憶部3に記憶させる。
具体的には、部位検出部40は、対比部分として入力画像内の各位置に各部位と相似の検出窓を順次設定する。そして、検出窓内の画像特徴を抽出し、当該部位の部位検出器31に画像特徴を入力して検出度を算出する。部位検出部40は、検出度を予め設定された検出閾値Tpと比較し、検出度がTpを超えた場合には当該部位の部位ID、当該検出窓の位置、及び得られた検出度を含んだ部位検出情報32を生成する。抽出する画像特徴は部位検出器31の学習に用いられた画像特徴と同種のものであり、本実施形態ではHOGである。
本実施形態では部位検出器31は上述したように、画像特徴が検出対象の部位であるときに正の検出度を出力し、検出対象の部位でないとき負の検出度を出力する。これに対応して、検出閾値Tpは0に設定される。
なお、一般的な識別器では上述のように検出対象/非検出対象の尤度の境界値を0に設定するが、0以外の境界値を設定する識別器も提案されている。境界値が0以外の識別器を部位検出器31として用いる場合は検出閾値Tpに当該境界値を設定する。
部位検出部40は、複数のパターン(#1〜4)を用いることで、対象物の各部の検出を複数の大きさ段階にて行えるので、複数の大きさの部位を組み合わせて多様な隠蔽状態に対応できる。
ここで、対象物の見かけ上の大きさは監視カメラと対象物との距離に依存して変化する。また、対象物のプロポーションには個体差があり、例えば対象物が人である場合、胴部や脚部に対する頭部の大きさバランスが標準から外れる者がいたり、コート装着の影響で見かけ上胴部と類似する部分が脚部に侵食して大きさバランスが標準から外れることがある。
そこで部位検出部40は各部位に対し複数段階の倍率で検出窓を拡大又は縮小させて設定し走査処理を行うことで、見かけ上の大きさ変化や個体差がある対象物の検出漏れの防止を図る。倍率は、例えば0.75倍〜1.5倍まで0.125刻みで7段階に設定することができる。このように、複数段階の倍率で検出を行なう場合、部位検出部40は検出時の倍率を含めた部位検出情報32を生成する。
図5は部位検出処理の例を説明する模式図である。図5(a)は、部位検出部40が入力画像400を部位C1−1の部位検出器31でラスタ走査している様子を示している。ラスタ走査の過程で、部位検出部40は、部位C1−1の大きさ及び形状を有する検出窓を順次設定する。図5(a)には例として検出窓401,402,403を示している。部位検出部40は、検出窓内の画像から得られる画像特徴を部位C1−1の部位検出器31に入力して検出窓内の画像が部位C1−1の画像特徴を有するか否かを判定する。図5(a)に示す例では、人物像上に配置された検出窓403の位置で部位C1−1の画像特徴が検出される。図5(b)に示す画像例410は、入力画像400全体について各部位検出器31を用いた部位検出部40による走査処理が完了した状態を示している。部位C1−1の画像特徴が検出された位置411の直下の位置412に部位C2−5の画像特徴が検出されている。また、机の右下端の2箇所413,414にて倍率0.75で部位C2−5の画像特徴が検出されている。
統合判定部41は、部位検出部40により生成された部位検出情報32のうち検出位置が部位情報30に規定された位置関係を略満たす部位検出情報32同士をグループ化し、同一のグループに属する部位検出情報32と対応する部位の大きさの集計値をグループごとに求め、求められた集計値のいずれかが予め設定された対象物検知閾値Tdを超えるときに入力画像に対象物が撮像されているとして対象物を検知する。
このように、検出された部位の大きさの集計値を求めることによって、集計値は部位の大きさにより変動する検出の信頼度を反映したものとなり、当該集計値を用いることで信頼性の高い対象物検知が可能となる。
具体的には、統合判定部41は、部位検出情報32それぞれについて、検出位置と、部位IDに対応する相対位置ベクトルと検出時の倍率とを用いて、検出位置を始点に設定し、倍率を乗じた相対位置ベクトルの終点座標を求める。この終点座標は個々の検出位置に合わせて入力画像の座標系に標本領域を相対的に配置したときの基準点を表すことから、当該終点座標を相対基準点と呼ぶ。図5(a)の例においては、各矢印が検出された部位の相対位置ベクトルを表し、各矢印の先端が相対基準点を表している。
そして統合判定部41は、部位検出情報32のうち、当該相対基準点が略一致するものをグループ化する。相対基準点が略一致する部位検出情報32は、その部位が互いに部位情報30に規定された位置関係を満たしており、同一の対象物に対して生成されたものであるということを表す。ここで、標本画像の対象物と入力画像の対象物とは完全に同一のものではなく、個体差や姿勢の変動等が原因で、同一の対象物に対して検出された部位同士であってもその検出位置は微小にずれる。統合判定部41が、(規定された位置関係を完全に満たす部位検出情報32ではなく)規定された位置関係を略満たす部位検出情報32をグループ化するのは検出位置の誤差が原因で同一対象物に対する部位検出情報32を統合し損ねる誤りを防止するためである。なお、誤差の許容範囲は対象物の隠蔽に対する許容の程度に依存して予め設定される。すなわち、隠蔽率50%までの対象物を検知しようとするならば誤差の許容範囲は標本領域サイズの50%未満に設定され、隠蔽率40%までの対象物を検知しようとするならば誤差の許容範囲は標本領域サイズの60%未満に設定される。
グループ化は公知のクラスタリング処理により行うことができる。統合判定部41は、相対基準点に注目し、相対基準点間の距離が上記許容範囲内であることを条件に設定したクラスタリング処理を部位検出情報32に対して行うことで、規定された位置関係を略満たす部位検出情報32をグループ化する。
また前述した見かけ上の大きさ変化や個体差が原因で同一対象物の部位が複数の倍率にまたがって検出される場合がある。そこで、統合判定部41は、倍率が近接する部位検出情報32のグループ化を許容することにより、見かけ上の大きさ変化や個体差が原因で同一対象物に対する部位検出情報32を統合し損ねる誤りを防止する。具体的には、統合判定部41は、相対基準点及び倍率に注目したクラスタリング処理を部位検出情報32に対して行う。なお、近接する倍率に限定してグループ化するのは、例えば、入力画像に子供を抱えている大人のような像がある場合に、大人と子供の像に対する部位検出情報32を分離するためである。
本実施形態では、統合判定部41は、グループごとに部位検出情報32と対応する部位を部位情報30に規定された位置関係にて配置し、配置された部位の和領域の面積を集計値として算出することで大きさの集計値を求める。
具体的には、統合判定部41は、標本領域の座標系の投票画像を用意し、同一グループに属する部位検出情報32のそれぞれについて当該部位検出情報32が示す部位と合致する投票領域を投票画像上に設定して投票領域内の各画素に1ずつ加算する投票処理を行い、得票領域の画素数を算出する。投票領域は、部位検出情報32が示す部位を#m、その中心位置ベクトルをRm、投票画像内の基準点をQとすると、P=Q−Rmなる座標Pを中心に部位#mの大きさ及び形状を有する領域として設定される。
このように、和領域の面積を大きさの集計値とすることで、複数パターンの部位による重複検出や、各パターンの部位に設けられたオーバーラップ部分での重複検出を単一の検出結果として合成できるので、多様な隠蔽状態に対応できる部位の設定の下で、さらに非対象物の誤検知の防止が図れる。
検知閾値Tdは標本画像300の大きさを基準に設定することができる。例えば、隠蔽率50%までを許容して対象物を検知するのであれば、本実施形態では、64×128ピクセルの標本領域の画素数の1/2をTdに設定することができ、この場合、Td=4096となる。なお、集計値を標本画像300の大きさで正規化してもよく、その場合、上記例に適合するTdは0.5となる。
図6、図7は統合判定処理の例を説明する模式図である。図6は、図5に示す例で算出された相対基準点を、その位置(X,Y)と検出時の倍率とで定義される三次元空間にプロットしたものである。ここで、Xは画面水平方向の座標、Yは垂直方向の座標である。図5に例示した人物像上の検出位置411(部位C1−1)と検出位置412(部位C2−5)の部位検出情報32はグループ510としてグループ化される。机の右下端の2つの検出位置413,414(部位C2−5)はグループ512としてグループ化される。
図7はグループごとの投票画像を模式的に示しており、グループ510の投票画像520を図7(a)に、またグループ512の投票画像522を図7(b)に示している。各投票画像520,522の斜線部は1画素に1票ずつの票を得ている得票部分であり、投票画像520では部位C1−1の4096票と部位C2−5の2048票が合算されて集計値は6144票となり、投票画像522では部位C2−5の重複投票が排除されて集計値は2048票となる。Td=4096としているので、グループ510の位置には人が存在すると正しく判定され、グループ512の位置には人は存在しないと正しく判定される。
異常判定部42は、統合判定部41により対象物の存在が判定されると、侵入異常が検知されたとして異常信号を出力部5へ出力する。
出力部5は、外部装置と接続され、当該外部装置へ異常信号を出力するインターフェース回路である。外部装置は、侵入者の存在を警報するスピーカー、ブザー又はランプ等の警報表示手段や、通信網を介して接続される遠隔地のセンタ装置等である。
次に画像監視装置1の動作を説明する。図8は、画像監視装置1における画像監視処理の概略のフロー図である。例えば、装置の管理者が電源を投入すると画像監視装置1の各部が動作を始める。画像入力部2は所定の時間間隔で(例えば1秒おきに)監視空間を撮像し、撮像した画像を画像処理部4に入力する。画像処理部4は画像が入力されるたびにS10〜S50の処理を繰り返す。
画像が入力されると(S10)、画像処理部4は部位検出部40により、入力画像から各部位の検出を行なって部位検出情報32を生成する(S20)。
図9は、部位検出処理S20の概略のフロー図である。図9を参照して部位検出処理S20を説明する。
部位検出部40は、部位情報30に設定されている複数の部位(C1−1,C1−2,・・・,C4−15)を順次、注目部位に設定し(S200)、全ての部位に対してステップS201〜S209の処理を繰り返すループ処理を実行する。また、当該ループ処理内にはさらに、7段階の倍率を順次設定して(S201)、各倍率に対してステップS202〜S208の処理を繰り返すループが設定される。
部位及び倍率のループ処理において、部位検出部40は入力画像の左上端から右下端へのラスタ走査で指定される各位置に、注目部位の検出窓を、注目倍率にて拡大又は縮小して設定する(S202)。なお、検出窓が入力画像からはみ出す位置での設定は省略される。
部位検出部40は、設定した検出窓内の入力画像から画像特徴を抽出する(S203)。そして、記憶部3から注目部位の部位検出器31を読み出し、当該部位検出器31に、ステップS203にて抽出した画像特徴を入力して、当該窓内の画像に対する注目部位の検出度を算出する(S204)。
部位検出部40は、算出した検出度を検出閾値Tpと比較し(S205)、検出度がTpより大きければ(S205にて「YES」)、検出窓内に注目部位が検出されたとして、注目部位の部位ID、検出位置(検出窓の中心座標)、注目倍率及び検出度を組にした部位検出情報32を生成して記憶部3に記憶させる(S206)。一方、検出度がTp以下のときは(S205にて「NO」)、検出窓内に注目部位が検出されなかったとして、ステップS206は省略される。
こうして注目部位について全倍率で入力画像全体を走査し終えると(S207にて「YES」、かつS208にて「YES」)、記憶部3には注目部位の部位検出情報32が部位の検出回数と同数だけ蓄積されている。
以上の処理を全ての部位に対して終えると(S209にて「YES」)、部位検出処理S20は終了する。
部位検出処理S20が終わると図8に示すように、画像監視処理は統合判定処理S30へ進む。画像処理部4は統合判定部41により、部位検出処理S20にて生成された部位検出情報32を統合して対象物が入力画像に撮像されているか否かを判定する(S30)。
図10は、統合判定処理S30の概略のフロー図である。図10を参照して統合判定処理S30を説明する。
統合判定部41は、部位検出情報32に対して部位ごと検出位置に注目したクラスタリングを行なうことで、検出位置が略一致する同一部位の部位検出情報32を集約する(S300)。すなわち、統合判定部41は、クラスタごとに当該クラスタに属する複数の部位検出情報32の検出位置、検出度及び倍率それぞれの平均値を算出し、同一とされた部位の部位IDと各平均値とを組にした新たな部位検出情報32を生成して記憶部3に記憶させる。また、統合判定部41は、元の部位検出情報32を記憶部3から削除する。この集約により、後段のステップS302におけるクラスタリング処理の負荷が軽減され、また、後段のステップS305〜S308における集計処理の負荷も軽減される。
統合判定部41は、全ての部位検出情報32に対して相対基準点を算出する(S301)。すなわち、統合判定部41は、各部位検出情報32の部位IDが示す部位の相対位置ベクトルを部位情報30から読み出し、読み出した相対位置ベクトルに注目倍率を乗算し、得られたベクトルを当該部位検出情報32の検出位置に加算して相対基準点を算出し、算出した相対基準点を当該部位検出情報32に追記する。
次に、統合判定部41は、部位検出情報32に対して相対基準点及び倍率に注目したクラスタリングを行なうことで、相対基準点及び倍率が略同一の部位検出情報32をグループ化する(S302)。
統合判定部41は、処理S302にて生成した各グループを順次、注目グループに設定し(S303)、全てのグループに対してステップS304〜S312の処理を繰り返すループ処理を実行する。
当該ループ処理にて、統合判定部41は注目グループに対して全画素値を0に初期化した投票画像を用意する(S304)。投票画像は標本画像と対応する画素位置ごとに投票値を集計するための記憶領域である。投票画像の重心を基準点とする。
当該投票画像を用いて投票処理が行われる。すなわち統合判定部41は、注目グループに属する部位検出情報32を順次、注目検出情報に設定し(S305)、注目検出情報の部位IDが示す部位と合致する投票領域を投票画像内に設定する(S306)。そして、投票領域内の画素の画素値に1を加算する処理(S307)を、注目グループに属する全ての部位検出情報32を処理するまで繰り返す(S308)。ステップS306の処理は注目検出情報に部位の大きさ(画素数)に応じた投票値を設定し、当該投票値を1画素1票で分配投票していることに相当する。
こうして投票が終わると(S308にて「YES」)、統合判定部41は、得票領域の和領域の面積を算出する(S309)。この和領域の算出は、投票画像内で画素値が1以上である画素を計数することにより行われる。
統合判定部41は和領域の面積を検知閾値Tdと比較し(S310)、面積がTdより大きければ(S310にて「Yes」)、注目グループの位置に対象物が存在するとして、注目グループの部位検出情報32に含まれている相対基準点の平均値と同部位検出情報32に含まれている倍率の平均値とステップS309にて算出した和領域の面積(大きさの集計値)とからなる対象物検知情報を生成して記憶部3に記憶させる(S311)。対象物検知情報が示す位置に、同情報の倍率に対応する大きさで同情報の大きさの集計値に対応する隠蔽度合いで対象物が撮像されていることが分かる。一方、面積がTd以下のときは(S310にて「NO」)、注目グループの位置に対象物は存在しないとして、ステップS311は省略される。
以上の処理を全てのグループに対して終えると(S312にて「YES」)、統合判定処理S30は終了する。
統合判定処理S30が終わると図8に示すように、画像監視処理は対象物の検知の有無に応じて(S40)、警報処理を行う(S50)。すなわち、画像処理部4は異常判定部42により、記憶部3を参照して対象物検知情報の有無を確認し(S40)、対象物検知情報が1つでも記憶されていれば(S40にて「YES」)、対象物が検知されたとして当該対象物検知情報を含めた異常信号を出力部5に出力し、出力部5に警報を出力させる(S50)。
以上の処理を終えると、処理は再びステップS10へ戻される。
[第2の実施形態]
本発明の第2の実施形態に係る画像監視装置1と、上述した第1の実施形態の画像監視装置1との基本的な相違点は、部位の設定の仕方、部位検出部40における走査処理、及び統合判定部41における集計処理にあり、それ以外の構成・動作は基本的に共通する。以下、同一の構成要素には同一の符号を付して第1の実施形態での説明を援用しここでの説明の簡素化を図ることとし、主に、第2の実施形態の画像監視装置1が第1の実施形態と異なる点について説明する。
まず、構成面での相違点を説明する。部位の設定の仕方に関して、第1の実施形態では同一パターンに属する部位は、相互間に重複領域の発生を許容して設定したのに対し、本実施形態では同一パターンに属する部位間に重複領域は設定されない。具体的には、或るパターンに属する部位を分割して形成される各小領域が他のパターンの部位として設定される。換言すれば、複数のパターン間には階層構造が存在し、大きさが段階的に異なる複数のパターンが設定される。パターンの数をn(nは2以上の自然数である。)とし、k番目(kは2≦k≦nを満たす自然数である。)の大きさのパターンに属する各部位は、k−1番目の大きさのパターンに属する部位を分割して得られる各小領域として設定される。本実施形態ではnは3に設定する。
図11は、本実施形態における部位情報30の具体例を模式的に示す説明図である。本実施形態の部位情報30は、第1の実施形態の場合と同様、パターンごとに識別番号、サイズ、配置数及び配置情報を含み、それぞれの意味も基本的には同じである。但し、上述のようにパターンが階層的に構成される本実施形態では、パターンの識別番号を階層の順を表す階層番号に一致させている。具体的には、n=3とする本実施形態では大きさが異なる3つのパターンが設定され、階層はパターンが大きい順に階層#1,#2,#3と表す。また、部位IDの表記「Ci−j」、及び相対位置ベクトルの表記「Vi−j」における「i」は第1の実施形態の部位と区別するために、階層#1〜3に対しi=5〜7を付与している。なお、「j」は第1の実施形態と同様、各パターン(階層)の部位の標本領域内での位置を識別する番号である。
最上層の階層#1の部位は標本領域300と一致させ、64×128ピクセルとする。階層#1の配置数は1となり、部位IDはC5−1となる。階層#2として、部位C5−1を大きさ64×64ピクセルに分割した2つの分割領域C6−1,C6−2を設定する。階層#3として、部位C6−1,C6−2をそれぞれ2×2に4等分した大きさ32×32ピクセルの分割領域C7−1〜C7−8を設定する。この部位の設定の仕方により、階層#2の部位C6−1,C6−2は階層#1の部位C5−1に包含される。また、階層#3の部位C7−1〜C7−4は階層#2の部位C6−1に包含され、階層#3の部位C7−5〜C7−8は階層#2の部位C6−2に包含される。
次に、部位検出部40における走査処理について説明する。部位検出部40は第1の実施形態では全ての部位検出器31で入力画像全体を走査した。これに対し、本実施形態では大きさ段階が最上位(階層#1)の部位から順に走査処理を行ない、k+1番目(本実施形態ではkは1又は2である。)の大きさ段階(階層#(k+1))の部位の走査処理は、k番目までの走査処理で当該部位を包含する部位が検出された位置と規定の位置関係にない入力画像内の位置で行う。つまり、入力画像のうち、或る階層にて部位が検出された部分では、当該部位に包含される下位の部位の検出は行わない。また、大きさ段階が最下位に達し部位の大きさが最小になった場合(階層#3に達した場合)も、階層を変えた新たな走査処理は行わない。このように、本実施形態では、大きさ段階が大なる部位の検出を優先しつつ、対象物の同一部分に対する重複検出を排除することで処理削減と省メモリ化を図る。
次に、統合判定部41における集計処理について説明する。統合判定部41は、第1の実施形態では部位の和領域の面積を集計値として算出した。これに対し、本実施形態では検出された部位の大きさを足し合わせて集計値とする。具体的には、統合判定部41は、まず第1の実施形態と同様に、位置関係を略満たす部位検出情報32同士をグループ化し、さらに各グループにおいて部位が同一である部位検出情報32同士を1つに集約する。そして、統合判定部41は各グループにおいて集約された部位のうち、当該部位を包含する他の部位が同一グループにない部位(つまり同一グループの他の部位により包含されない部位)同士で大きさを加算して集計値を求める。このように包含関係を利用して部位の重複検出を排除することで、単純集計しても非対称物の誤検知の防止できる。
本実施形態と第1の実施形態との動作面での相違点について説明する。画像監視処理の概略は第1の実施形態に示した図8で表されるフローと共通する。相違点は、図8に示す処理のうち部位検出処理S20と統合判定処理S30とにある。
図12は、本実施形態の部位検出処理S20の概略のフロー図である。図12を参照して本実施形態の部位検出処理S20を説明する。
部位検出部40は、7段階の倍率を順次、注目倍率に設定して(S250)、各倍率に対してステップS251〜S263の処理を繰り返すループ処理を実行する。
部位検出部40は、入力画像の左上端から右下端へのラスタ走査で指定される各位置を相対基準点として設定し(S251)、調査対象の部位をリスト化する調査リストを用意して当該リストに階層#1の部位、すなわち部位C5−1を設定する(S252)。
部位検出部40は、調査リストから任意の部位を1つ読み出して、読み出した部位を注目部位に設定する(S253)。なお、このとき読み出した部位は調査リストから削除しておく。
部位検出部40は、注目部位を注目倍率にて拡大又は縮小した検出窓をステップS251にて設定された相対基準点からみた規定位置に設定する(S254)。すなわち部位検出部40は、注目部位を#m、その相対位置ベクトルをRm、相対基準点をQ、注目倍率をαとすると、P=Q−Rm・αなる座標Pを算出して当該座標Pを中心に注目部位#mをα倍した検出窓を設定する。部位検出部40は、設定した検出窓内の入力画像から画像特徴を抽出し(S255)、注目部位の部位検出器31に抽出した画像特徴を入力して注目部位の検出度を算出し(S256)、算出された検出度を検出閾値Tpと比較する(S257)。
検出度がTpより大きければ(S257にて「YES」)、部位検出部40は、検出窓内に注目部位が検出されたとして、注目部位の部位ID、検出位置(検出窓の中心座標)、注目倍率及び検出度を組にした部位検出情報32を生成して記憶部3に記憶させる(S258)。
一方、検出度がTp以下のとき(S257にて「NO」)、部位検出部40は、部位情報30を参照して注目部位に下の階層が存在するかどうかの判定を行う(S259)。下の階層が存在する場合(S259にて「YES」)、部位検出部40は、注目部位より1つ下の階層であって注目部位が包含する部位を調査リストに追加する(S260)。具体的には、注目部位を部位C5−1に設定して当該部位が検出されなければ部位C6−1及びC6−2が追加され、注目部位を部位C6−1に設定して当該部位が検出されなければ部位C7−1〜C7−4が追加され、また、注目部位を部位C6−2に設定して当該部位が検出されなければ部位C7−5〜C7−8が追加される。注目部位に下の階層が存在しない場合(S259にて「NO」)、ステップS260は省略される。
なお、ステップS254にて検出窓が入力画像をはみ出す場合は、当該検出窓に対するステップS255〜S260までの処理は省略される(図示せず)。
部位検出部40は、調査リストが空になるまでステップS253〜S260までの処理を繰り返す(S261にて「NO」ならばS253へ)。調査リストが空になると(S261にて「YES」)、ステップS251にて設定された相対基準点に対する部位の調査リストのループ処理が終了する。
こうして全倍率で入力画像全体を走査し終えると(S262にて「YES」、かつS263にて「YES」)、部位検出処理S20は終了する。
部位検出処理S20が終わると図8に示すように、画像監視処理は統合判定処理S30へ進む。
図13は、本実施形態の統合判定処理S30の概略のフロー図である。図13を参照して本実施形態の統合判定処理S30を説明する。
統合判定部41は、図10のステップS300と同様にして全ての部位検出情報32に対して相対基準点を算出し、算出した相対基準位置を当該部位検出情報32に追記する(S350)。
次に、統合判定部41は、部位検出情報32に対して相対基準点及び倍率に注目したクラスタリングを行なうことで、相対基準点及び倍率が略同一の部位検出情報32をグループ化する(S351)。
統合判定部41は、処理S351にて生成した各グループを順次、注目グループに設定し(S352)、全てのグループに対してステップS353〜S361の処理を繰り返すループ処理を実行する。
グループのループ処理にて、統合判定部41は注目グループに対する集計値を0に初期化する(S353)。また統合判定部41は、注目グループに属する部位検出情報32のうち部位が同一の部位検出情報32を1つにまとめる(S354)。すなわち統合判定部41は、これら複数の部位検出情報32に含まれる検出位置、相対基準点、検出度及び倍率それぞれの平均値を算出し、同一であった部位の部位IDと各平均値とを組にした新たな部位検出情報32を生成して記憶部3に記憶させる。また、元の部位検出情報32を記憶部3から削除する。この集約処理により同一部位の重複集計が回避される。
しかる後、統合判定部41は、注目グループ内の部位検出情報32を順次、注目検出情報に設定し(S355)、注目グループ内の全ての部位検出情報32に対してステップS356〜S358のループ処理を行う。
注目グループ内のループ処理にて、統合判定部41は、部位情報30の階層関係を参照して、注目検出情報の部位IDが示す部位を包含する上位部位の部位IDが注目グループ内の注目検出情報以外の部位検出情報32に記録されていないか確認する(S356)。注目検出情報が示す部位を包含する他の部位がない場合(S356にて「YES」)、統合判定部41は、部位情報30から注目検出情報が示す部位の大きさを読み出して、当該大きさを集計値に加算する(S357)。一方、注目検出情報が示す部位を包含する他の部位がある場合(S356にて「NO」)、ステップS357は省略される。包含部位を集計から排除する処理によって、検出の信頼性が高い大きな部位を優先した集計が可能となり、また複数の部位に対する重複集計が排除される。
こうして注目グループ内の全ての部位検出情報32に対する処理を終えると(S358にて「YES」)、注目グループに関する大きさの集計値の算出が終わる。
続いて、統合判定部41は、集計値を検知閾値Tdと比較し(S359)、集計値がTdより大きければ(S359にて「Yes」)、注目グループの位置に対象物が存在するとして、注目グループの部位検出情報32に含まれている対象物位置の平均値と集計値とからなる対象物検知情報を生成して記憶部3に記憶させる(S360)。一方、集計値がTd以下のときは(S359にて「NO」)、注目グループの位置に対象物は存在しないとして、ステップS360は省略される。
以上の処理を全てのグループに対して終えると(S361にて「YES」)、統合判定処理S30は終了して、第1の実施形態と同様、画像監視処理は対象物の検知の有無に応じて(S40)、警報処理を行う(S50)。
1 画像監視装置、2 画像入力部、3 記憶部、4 画像処理部、5 出力部、30 部位情報、31 部位検出器、32 部位検出情報、40 部位検出部、41 統合判定部、42 異常判定部、300 標本画像(標本領域)、301 基準点、302 部位、303 重心、304 相対位置ベクトル、400 入力画像、401,402,403 検出窓、410 画像例、411,412,413,414 検出位置、510,512 グループ、520,522 投票画像。

Claims (5)

  1. 入力画像中に撮像されている対象物を検知する対象物検知装置であって、
    前記対象物の標本画像内に設定された、大きさ及び位置の少なくとも一方が互いに異なる複数の部位と、前記部位間の位置関係とを予め記憶している記憶部と、
    前記標本画像が示す前記各部位の特徴を検出する検出器と、
    前記入力画像を前記各部位の前記検出器にて走査し、前記各部位の特徴が検出された前記入力画像内の検出位置を当該部位と対応付けた検出情報を生成する部位検出部と、
    前記検出位置が前記位置関係を略満たす前記検出情報同士をグループ化し、前記検出情報と対応する前記部位の大きさの総和を前記グループごとに求め、予め設定された閾値を超える前記総和が求められたときに前記対象物を検知する統合判定部と、
    を有することを特徴とする対象物検知装置。
  2. 請求項1に記載の対象物検知装置において、
    前記複数の部位は、互いの領域重複を許容して設定され、
    前記統合判定部は、前記グループごとに、前記検出情報と対応する前記部位を前記位置関係にて配置し、当該配置された部位の和領域の面積を前記総和として求めること、
    を特徴とする対象物検知装置。
  3. 請求項1又は請求項2に記載の対象物検知装置において、
    前記部位検出部は、予め設定された複数の倍率で前記部位又は前記入力画像を拡大又は縮小して前記走査処理を行って当該倍率を含めた前記検出情報を生成し、
    前記統合判定部は、前記倍率が近接する前記検出情報同士を前記グループ化すること、
    を特徴とする対象物検知装置。
  4. 請求項1に記載の対象物検知装置において、
    前記複数の部位は、互いに前記大きさが異なる一方の部位が他方の部位を包含すること以外の領域重複を禁止して設定され、
    前記統合判定部は、前記各グループにおいて、前記部位ごとに前記検出情報を1つに集約し、前記集約された前記部位のうち当該集約された他の部位のいずれにも包含されない部位の前記大きさ同士を加算して前記総和を求めること、
    を特徴とする対象物検知装置。
  5. 請求項4に記載の対象物検知装置において、
    前記部分検出部は、前記大きさが大きな前記部位から順番に前記走査を行い、前記順番が下位である部位の前記走査は当該部位を包含する前記部位の前記検出位置と前記位置関係にない前記入力画像内の位置にて行うこと、
    を特徴とする対象物検知装置。
JP2010076218A 2010-03-29 2010-03-29 対象物検知装置 Expired - Fee Related JP5394967B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010076218A JP5394967B2 (ja) 2010-03-29 2010-03-29 対象物検知装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010076218A JP5394967B2 (ja) 2010-03-29 2010-03-29 対象物検知装置

Publications (2)

Publication Number Publication Date
JP2011209951A true JP2011209951A (ja) 2011-10-20
JP5394967B2 JP5394967B2 (ja) 2014-01-22

Family

ID=44940948

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010076218A Expired - Fee Related JP5394967B2 (ja) 2010-03-29 2010-03-29 対象物検知装置

Country Status (1)

Country Link
JP (1) JP5394967B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013117865A (ja) * 2011-12-02 2013-06-13 Kyushu Institute Of Technology 物体の検出方法及びその方法を用いた物体の検出装置
JP2013210968A (ja) * 2012-03-30 2013-10-10 Canon Inc 物体検出装置及びその方法、プログラム
JP2013210967A (ja) * 2012-03-30 2013-10-10 Canon Inc 体検出方法及び物体検出装置
JP2015170205A (ja) * 2014-03-07 2015-09-28 オリンパス株式会社 特徴量生成装置、特徴量生成方法、およびプログラム
JP2016095808A (ja) * 2014-11-17 2016-05-26 キヤノン株式会社 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム
JP2018156240A (ja) * 2017-03-16 2018-10-04 セコム株式会社 物体検出装置
WO2019107466A1 (ja) * 2017-12-01 2019-06-06 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JPWO2021033273A1 (ja) * 2019-08-20 2021-02-25

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003323616A (ja) * 2002-02-26 2003-11-14 Nippon Telegr & Teleph Corp <Ntt> 画像処理装置及びその方法と、画像処理プログラム及びそのプログラムを記録した記録媒体
JP2008152555A (ja) * 2006-12-18 2008-07-03 Olympus Corp 画像認識方法及び画像認識装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003323616A (ja) * 2002-02-26 2003-11-14 Nippon Telegr & Teleph Corp <Ntt> 画像処理装置及びその方法と、画像処理プログラム及びそのプログラムを記録した記録媒体
JP2008152555A (ja) * 2006-12-18 2008-07-03 Olympus Corp 画像認識方法及び画像認識装置

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013117865A (ja) * 2011-12-02 2013-06-13 Kyushu Institute Of Technology 物体の検出方法及びその方法を用いた物体の検出装置
JP2013210968A (ja) * 2012-03-30 2013-10-10 Canon Inc 物体検出装置及びその方法、プログラム
JP2013210967A (ja) * 2012-03-30 2013-10-10 Canon Inc 体検出方法及び物体検出装置
JP2015170205A (ja) * 2014-03-07 2015-09-28 オリンパス株式会社 特徴量生成装置、特徴量生成方法、およびプログラム
JP2016095808A (ja) * 2014-11-17 2016-05-26 キヤノン株式会社 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム
JP2018156240A (ja) * 2017-03-16 2018-10-04 セコム株式会社 物体検出装置
WO2019107466A1 (ja) * 2017-12-01 2019-06-06 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP2019101741A (ja) * 2017-12-01 2019-06-24 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
US11532095B2 (en) 2017-12-01 2022-12-20 Canon Kabushiki Kaisha Apparatus, method, and medium for merging pattern detection results
JP7253872B2 (ja) 2017-12-01 2023-04-07 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JPWO2021033273A1 (ja) * 2019-08-20 2021-02-25
WO2021033273A1 (ja) * 2019-08-20 2021-02-25 日本電信電話株式会社 推定プログラム、推定装置、検出モデルの生成方法、学習方法、および、学習装置

Also Published As

Publication number Publication date
JP5394967B2 (ja) 2014-01-22

Similar Documents

Publication Publication Date Title
JP5394967B2 (ja) 対象物検知装置
US9754160B2 (en) Method and device for detecting gathering of objects based on stereo vision as well as non-transitory computer-readable medium
CN108764085B (zh) 基于生成对抗网络的人群计数方法
Suhr et al. Mixture of Gaussians-based background subtraction for Bayer-pattern image sequences
RU2393544C2 (ru) Способ и устройство для обнаружения пламени
CN108416250A (zh) 人数统计方法及装置
JP5290227B2 (ja) 対象物検知装置及びその学習装置
CN109154976A (zh) 通过机器学习训练对象分类器的系统和方法
JP5147761B2 (ja) 画像監視装置
CN106326832A (zh) 基于物体区域处理图像的装置及方法
WO2019220589A1 (ja) 映像解析装置、映像解析方法、及びプログラム
CN111079518A (zh) 一种基于执法办案区场景下的倒地异常行为识别方法
JP2020135551A (ja) 対象物認識装置、対象物認識方法、及び対象物認識プログラム
JP2016162099A (ja) 画像判定装置、画像判定方法、及びプログラム
JP5101429B2 (ja) 画像監視装置
JP2008035301A (ja) 移動体追跡装置
JP2010117952A (ja) 物体判別方法および物体判別装置
Abd et al. Human fall down recognition using coordinates key points skeleton
JP5155250B2 (ja) 対象物検出装置
Wang et al. P-FAD: Real-time face detection scheme on embedded smart cameras
JP4390487B2 (ja) 頭部領域抽出装置
Guan et al. A video-based fall detection network by spatio-temporal joint-point model on edge devices
Villamizar et al. Watchnet: Efficient and depth-based network for people detection in video surveillance systems
JP7078295B2 (ja) 変状検出装置、変状検出方法、及びプログラム
JP5217917B2 (ja) 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131017

R150 Certificate of patent or registration of utility model

Ref document number: 5394967

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees