JP2016116137A - 画像処理装置、画像処理方法、及び、プログラム - Google Patents

画像処理装置、画像処理方法、及び、プログラム Download PDF

Info

Publication number
JP2016116137A
JP2016116137A JP2014254593A JP2014254593A JP2016116137A JP 2016116137 A JP2016116137 A JP 2016116137A JP 2014254593 A JP2014254593 A JP 2014254593A JP 2014254593 A JP2014254593 A JP 2014254593A JP 2016116137 A JP2016116137 A JP 2016116137A
Authority
JP
Japan
Prior art keywords
area
evaluation value
image processing
image
recommended
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014254593A
Other languages
English (en)
Inventor
敦史 川野
Atsushi Kawano
敦史 川野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014254593A priority Critical patent/JP2016116137A/ja
Publication of JP2016116137A publication Critical patent/JP2016116137A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 精度の高い通過判定のための設定をより簡単にできるようにするための方法を提供する。【解決手段】 画像処理装置100の追尾部102は、画像から物体の移動軌跡を特定し(S102)、評価部104は、移動軌跡の特定結果に基づく評価値が所定の条件を満たす領域を決定し(S204)、評価結果出力部105は、当該決定された推奨領域を識別可能に表示させる(S205)。そして、画像処理装置100のパラメータ設定部106は、推奨領域が識別可能に表示された後に入力された操作であって、物体の通過判定のための検知線及び検知領域のうち少なくとも何れか設定するための操作に応じて、推奨領域に重なる位置に検知線及び検知領域のうち少なくとも何れかを設定する。【選択図】 図1

Description

本発明は、物体の通過判定に関する設定を行うための技術に関するものである。
現在、監視カメラの映像から人物や人物の頭部等のオブジェクトを検出して追尾する追尾技術が実用的なレベルとなっており、追尾技術を応用したアプリケーションが利用されている。特許文献1では、人物を追尾した軌跡があらかじめ設定した領域を出入りした回数をカウントすることが記載されている。
特開2006−31153号公報
物体の通過判定のための設定によっては、物体の通過判定の精度が低くなってしまうケースが考えられる。
例えば、通過判定のためのアプリケーションを用いて精度の高い通過数カウントを行うためには、高い精度で人物の追尾できることが重要である。しかしながら、追尾の精度は、カメラ設置環境や被写体の写り方に応じて異なり、画像内においても精度が高いエリア、精度の低いエリアが存在する。このため、アプリケーションの利用者が追尾の精度が高い領域と低い領域を十分に理解せずに通過判定のための検知線や検知領域を設定すると、精度の低い通過判定が行われてしまう恐れがあった。
本発明は上記の問題点に鑑みてなされたものであり、その目的は、精度の高い通過判定のための設定をより簡単にできるようにすることである。
上記目的を達成するために、本発明の画像処理装置は、例えば、以下の構成を備える。すなわち、画像から物体の移動軌跡を特定する特定手段と、前記特定された移動軌跡に基づいて、物体の通過判定のための検知線及び検知領域のうち少なくとも何れかの設定に関する推奨領域を決定する決定手段と、前記決定手段により決定された推奨領域を識別可能に表示させる表示制御手段とを備える。
本発明によれば、精度の高い通過判定のための設定がより簡単にできるようになる。
実施形態の画像処理装置の構成を説明するためのブロック図 検知線設定の一例を示す図 検知線の設定推奨領域を決定する処理を説明するための図 実施形態の画像処理装置の動作を説明するためのフローチャート 実施形態の画像処理装置の動作を説明するためのフローチャート 実施形態の画像処理装置の動作を説明するためのフローチャート 実施形態の画像処理装置のハードウェア構成を説明するためのブロック図
以下、添付の図面を参照して、実施形態について詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
本実施形態の画像処理装置は、人物の通過判定、及び、通過判定に基づく通過数カウントを実行するための検知線や検知領域の設定に適した画面上の領域を利用者に提示する。なお、本実施形態では人物の通過判定や通過数カウントを実行する例を中心に説明するが、人物に限らず、自動車や動物など、様々な物体の通過判定や通過数カウントが行われるようにしてもよい。また、本実施形態では、人物の通過判定と通過数カウントの両方を実行する例を中心に説明するが、例えば、物体の通過判定のみが実行される場合もあり得る。物体の通過判定を実行し、通過数カウントを行わない場合の例としては、物体の通過が検知された場合、警告を出力するシステム等が考えられる。
図7は、本実施形態の画像処理装置100のハードウェア構成の一例を示すブロック図である。画像処理装置100は、CPU701と、ROM702と、RAM703と、外部メモリ704と、通信I/F705と、システムバス706とを備える。
CPU701は、画像処理装置100における動作を統括的に制御するものであり、システムバス706を介して、各構成部(702〜705)を制御する。ROM702は、CPU701が処理を実行するために必要な制御プログラム等を記憶する不揮発性メモリである。なお、当該プログラムは、外部メモリ704や着脱可能な記憶媒体(不図示)に記憶されていてもよい。
RAM703は、CPU701の主メモリ、ワークエリア等として機能する。すなわち、CPU701は、処理の実行に際してROM702から必要なプログラム等をRAM703にロードし、当該プログラム等を実行することで各種の機能動作を実現する。
外部メモリ704は、例えば、CPU701がプログラムを用いた処理を行う際に必要な各種データや各種情報等を記憶している。また、外部メモリ704には、例えば、CPU701がプログラム等を用いた処理を行うことにより得られた各種データや各種情報等が記憶される。
通信I/F705は、外部装置(例えば、画像処理装置100とネットワークを介して接続されるモニタ装置)と通信するためのインターフェースである。通信I/F705は、例えばLANインターフェースである。システムバス706は、CPU701、ROM702、RAM703、外部メモリ704及び通信I/F705を通信可能に接続する。
なお、本実施形態では、画像処理装置100が撮像部を有するネットワークカメラであり、ネットワークを介して接続されるモニタ装置(クライアント)に対して撮像画像を送信する場合の例を中心に説明する。この実施形態において、画像処理装置100としてのネットワークカメラは、モニタ装置から通過判定のための検知線または検知領域の位置情報を取得して、通過判定と通過数カウントを行う。ただし、画像処理装置100の機能がモニタ装置側に備わっていてもよいし、ネットワークに接続された他の装置に備わっていてもよい。
また、本実施形態の画像処理装置100は、通過判定のための検知線、及び、検知領域を設定可能であるが、検知線と検知領域のうち、少なくとも一方を設定できれば良い。本実施形態の画像処理装置100は、同一人物と判定された人物の移動軌跡が検知線を通過するか、検知領域を通過した場合に、通過があったと判定する。通過判定の詳細については後述する。また、検知線と検知領域は、幅があるか否かが異なる。言い換えると、検知線は、幅がない検知領域と言うことも可能である。
図1は、画像処理装置100のモジュール構成を示すブロック図である。画像処理装置100は、画像取得部101と追尾部102と人体情報記憶部103と評価部104と評価結果出力部105とパラメータ設定部106と通過判定部107と通過結果記憶部108と通過結果出力部109とから構成される。
画像取得部101は、レンズ、センサを備えた撮像部から所定の間隔で画像を順次取得して、追尾部102に提供する。
追尾部102は、画像取得部101から取得した画像から人体の検出処理を行い、検出した人体の追尾処理を行う。人体の検出は、パターンマッチング処理を用いる。すなわち、追尾部102は、画像取得部101から取得した画像と所定のパターンとの比較を行うことで、人体の中心座標と外接矩形座標を検出する。
また、人体の追尾は、ある画像から検出された人体と前の画像から検出された人体とを色特徴と画像間での位置関係とから対応付ける処理である。ただし、追尾部102は、現在の画像からの人体の検出が失敗し、現在の画像内に前の画像から検出された人体に対応付く人体がない場合、移動予測により人体の検出結果を補完して対応付けを行うことが可能である。また、ある画像から検出された人体に対応付く人体が、所定期間に対応する複数画像の何れもから検出されない場合、追尾部102は、当該人体に関する追尾処理を終了する。追尾部102は、対応付けた人体にはそれぞれ同じ人体IDを付与する。追尾部102は、追尾処理によって得られた人体IDと、当該人体IDに対応する人体の中心座標と、当該人体IDに対応する人体の外接矩形座標とに画像の取得時刻を加えて人体情報を生成し、当該人体情報を人体情報記憶部103に提供する。
人体情報記憶部103は、追尾部102から受け取った人体情報を人体IDごとに記憶する。評価部104は、人体情報記憶部103が管理する人体情報から人体の移動軌跡を特定し、当該移動軌跡に基づいて通過判定のための検知線(検知領域)の設定に適した画面上の場所(推奨領域)を決定する。評価部104は、移動軌跡に基づいて決定した推奨領域の位置情報を評価結果出力部105に提供する。評価部104による推奨領域の決定方法の詳細は後述する。
評価結果出力部105は、評価部104から受け取った推奨領域をディスプレイ上に識別可能に表示させる。画像処理装置100がネットワークカメラであり、ネットワークを介して接続されるモニタ装置に推奨領域を表示させる場合、画像処理装置100は撮像画像に推奨領域を重畳した画像をモニタ装置に対して送信する。一方、画像処理装置100の機能がモニタ装置に備わっている場合、画像処理装置100は、推奨領域を識別可能になるように撮像画像を加工してモニタ装置に備わるディスプレイに表示させる。
図3(D)は、推奨領域を識別可能に表示した場合の表示例である。図3(D)に示される通り、推奨領域204が、他の領域と識別可能に表示されている。利用者(監視者)は、検知線の設定に適した推奨領域204を確認しながら、推奨領域に検知線が重なるよう設定することで、より精度が高い通過判定ができる領域に検知線を設定できる。
パラメータ設定部106は、利用者による検知線の位置に関する入力を受け付ける。本実施形態のパラメータ設定部106は、利用者の操作に応じた検知線の位置情報(座標情報)を受け付ける。画像処理装置100がネットワークカメラの機能として実現される場合、パラメータ設定部106は、ネットワークを介して接続されるモニタ装置から検知線の位置情報を取得する。一方、画像処理装置100がモニタ装置の機能として実現される場合、パラメータ設定部106は、モニタ装置に接続されたユーザインタフェースから入力された検知線の位置情報を取得する。ただし、パラメータ設定部106の形態は、上記の形態に限らない。また、検知線は1つに限らず複数の検知線を設定することが可能である。図2は、利用者により設定された検知線を示している。図2の検知線は、図3(D)で示した推奨領域と重なっている。
通過判定部107は、パラメータ設定部106により設定された検知線の座標と人体情報記憶部103が記憶する人体情報に含まれる中心座標とに基づいて、人物が検知線(検知領域)を通過したか否かの判定を行う。より具体的には、通過判定部107は、現画像から検出された人体の中心座標と、現画像の直前に取得された前画像から検出された人体の中心座標とを結ぶ線分が、検知線と交差するか否かに基づいて検知線の通過判定を行う。なお、通過判定のために用いられる現画像の人体と、前画像の人体には同じ人体IDが付与されている。
また、検知領域の通過判定を行う場合は、3枚以上の画像のそれぞれから検出された人体であって、同じ人体IDが付与された人体の中心座標を結ぶことで得られる線分が、検知領域を通過するか否かに基づいて判定が行われる。本実施形態の通過判定部107は、通過の有無及び通過の方向を判定し、その結果を通過結果記憶部108に出力する。本実施形態では、通過判定部107の処理は、追尾部102が追尾処理を実施する度に実施される。通過結果記憶部108は、通過判定部107の出力を、検知線ごと、且つ、通過の方向ごとに分類して通過数のカウント値を記憶する。
通過結果出力部109は、検知線ごと、且つ、通過の方向ごとに通過数のカウント値を表示させる。画像処理装置100がネットワークカメラであり、ネットワークを介して接続されるモニタ装置に通過数のカウント値を表示させる場合、通過結果出力部109は、通過数のカウント値をモニタ装置に送信することで、通過結果をディスプレイに表示させる。一方、画像処理装置100の機能がモニタ装置において実現されている場合は、通過結果出力部109は、モニタ装置に接続されたディスプレイに通過結果を表示させる。
なお、画像取得部101の画像の取得は、画像処理装置100に備わる撮像部による撮像に限定されるものではなく、録画映像の読み込みやネットワークを介したストリーミング入力など他の方法であってもよい。
また、追尾部102による人体の検出方法は、パターンマッチング処理に限定されるものではなく、画像から人体を検出する画像処理であれば他の方法を用いることも可能である。また、追尾部102の追尾処理も上記の方法に限定されるものではない。
また、通過結果出力部109による表示制御処理は、上記の方法に限定されるものではなく、通過数のカウント値を外部に出力するための処理であればよい。また、時間や通過方向など条件判定の結果、限定された情報が、通過数のカウント値として出力されるようにしてもよい。さらに、画像処理装置100が通過数のカウントをせず、通過を検出した時点で、そのタイミングを他の装置に通知したり、画像処理装置100の通過結果出力部109において警告を出力したりする形態もあり得る。
次に、評価部104が検知線の設定に適した画面上の領域(推奨領域)を特定する方法について説明する。図3(A)は、画像取得部101より取得された画像であり、図3(B)は、追尾部102の追尾処理によって得られる人体の移動軌跡を示した図である。なお、移動軌跡は、人体の中心座標を人体IDごとに時系列に結ぶことで得られる。
図3(B)には、ドア201を出入りする人物や、通路202の上下方向に移動する人物の移動軌跡が示されている。しかしながら、ドア201付近で人の見え方が大きく変化することや、人物203の位置ではカメラからの仰角が大きくなることを原因として、人体の検出漏れや追尾の失敗が多く発生する。この結果、ドア201付近や人物203付近では、追尾部102により得られる移動軌跡が、不連続で断続的となる。
図3(C)は、移動軌跡の連続性と検出頻度を図3(B)の格子で区切られたブロックごとに評価した評価マップの一例である。本実施形態の評価部104は、各ブロックの評価値を、以下の手順により算出(決定)する。
ステップ1.人体の中心座標が属するブロックを特定する。
ステップ2.当該中心座標が属する移動軌跡を特定する。
ステップ3.当該移動軌跡の長さ(画素数)と、当該移動軌跡に属する中心座標の数とを乗算する。
ステップ4.乗算によって得られた値を、当該特定済みブロックの評価値に加算する。
ステップ5.ステップ1〜4の処理を、すべての中心座標について実行する。
すなわち、本実施形態の評価部104は、長い移動軌跡が検出された領域ほど、検知線(検知領域)の設定に適した領域であるとして、高い評価値を算出する。より具体的には、評価部104は、画像内の領域に対応する移動軌跡の長さが第1の長さである場合、当該領域に対応する移動軌跡の長さが第1の長さより短い第2の長さである場合よりも高い評価値を、当該領域に対応する評価値として算出する。
また、評価部104は、より人体の中心座標が多く検出された移動軌跡が通過する領域ほど、検知線(検知領域)の設定に適した領域であるとして、高い評価値を算出する。なお、本実施形態では、人体の中心座標に基づいて評価値を算出しているが、中心座標の代わりに人体の特定箇所(例えば顔)など、別の部位の座標に基づいて評価値を算出しても良い。即ち、評価部104は、画像内の領域から検出された移動軌跡に対応する物体が第1の回数、検出された場合、当該移動軌跡に対応する物体が第1の回数よりも少ない第2の回数、検出された場合よりも高い評価値を、当該領域に対応する評価値として算出する。
また、評価部104は、より多くの移動軌跡が通過する領域ほど、検知線(検知領域)の設定に適した領域であるとして、高い評価値を算出する。すなわち、評価部104は、画像内の領域に対応する移動軌跡の数が第1の数である場合、当該領域に対応する移動軌跡の数が第1の数より少ない第2の数の場合寄りも高い評価値を、当該領域に対応する評価値として算出する。ただし、評価値の算出方法は上記の方法に限るものではない。
図3(C)は、評価値を10段階に換算した結果である。本実施形態の評価部104は、10段階のうち6以上の評価値に対応する領域を検知線(検知領域)の設定のための推奨領域として特定し、推奨領域を決定するための情報(座標情報)を評価結果出力部105に提供する。評価結果出力部105は、推奨領域を識別可能に表示させる。
図3(D)は、評価結果出力部105による表示結果である。図3(D)に示すように、推奨領域204が他の領域とは識別可能に表示されている。なお、本実施形態の評価部104は、ブロック単位で評価値を算出する例を説明したが、この方法に限らない。また、評価値の算出方法も、上記のステップ1〜5で示した方法に限らない。評価部104は、移動軌跡の位置、長さ、継続性など、移動軌跡から取得可能な属性情報に基づいて評価値を判定すればよい。
また、本実施形態の評価部104は、すべての移動軌跡を評価するのではなく、所定の条件を満たす移動軌跡のみを用いて各ブロックの評価値を算出することができる。例えば、評価部104は、追尾部102により検出された移動軌跡のうち、所定の長さ以上の移動軌跡を用いて各ブロックの評価値を算出することが可能である。
さらに、評価部104は、所定の長さよりも短い移動軌跡が検出された領域については、当該短い移動軌跡が検出されなかった場合よりも、低い評価値を算出するようにすることも可能である。このようにすれば、長い移動軌跡と短い移動軌跡が混在する領域を、推奨領域から除外することができる。
次に、本実施形態の画像処理装置100の処理の流れについて図4〜図6を用いて説明する。図4は、画像処理装置100が人体の追尾処理を実行し、追尾処理により得られた人体情報を保存する処理の流れを説明するフローチャートである。本実施形態の画像処理装置100は、図4の処理を実行するためのプログラムをCPU701で実行することにより図4の処理を実現する。図4の処理は、利用者により追尾処理の開始が指示されたことにより開始される。ただし、開始タイミングは上記のタイミングに限らない。
図4の処理開始後、追尾部102は、画像取得部101から画像を取得する(S101)。そして、追尾部102は、取得した画像から人体の検出処理、及び、追尾処理を実行する(S102)。本実施形態の追尾部102は、パターンマッチング処理によって人体の検出を行う。また、本実施形態の追尾部102は、現画像から検出された人体と前画像から検出された人体とを色特徴と位置関係に基づいて対応づける処理を、追尾処理として実行する。ただし、人体の検出処理、及び、追尾処理の方法は上記の方法に限らない。
追尾部102は、追尾処理によって得られた人体情報を人体情報記憶部103に記憶させる(S103)。人体情報とは、人体ID、人体の中心座標、人体の外接矩形座標、そして、画像の取得時刻が関連付けられた情報である。追尾処理によって同一人物であると判定された人体には、同じ人体IDが付与される。S103の処理が完了すると、S104に進む。
追尾部102は、人体の検出及び追尾処理を継続するか終了するかを判定する(S104)。継続すると判定された場合は、S101に戻って次の画像に対してS101〜S103の処理を実行する。
図5は、画像処理装置100が人体情報に基づいて推奨領域を決定し、当該推奨領域を識別可能に表示させる処理の流れを説明するためのフローチャートである。本実施形態の画像処理装置100は、図5の処理を実行するためのプログラムをCPU701で実行することにより図5の処理を実現する。図5の処理は、利用者が検知線(検知領域)を設定するためのモードを選択したタイミングで開始される。ただし、図5の処理の開始タイミングは上記のタイミングに限らない。
図5の処理の開始後、評価部104は、上記のステップ1〜5で示した方法により評価値を算出する(S201)。なお、本実施形態では人体の検出処理、及び、人体の追尾処理を行う場合の例を中心に説明しているが、人体の代わりに、又は、人体と共に、自動車や動物など、他の物体の検出や追尾を行うことができる。すなわち、評価部104は、複数の画像から物体の移動軌跡を特定する。
そして、評価部104は、算出された評価値に基づいて評価マップを更新する(S202)。S202の終了後、評価部104は、評価マップの更新を終了するか否かを判定する。本実施形態の評価部104は、所定数の画像に基づいて評価値を算出すると、S204に進む。なお、本実施形態の画像処理装置100は、推奨領域の特定のために何枚の画像を用いるか(推奨領域の特定のためにどのくらいの時間をかけるか)の指定を受けつけることが可能である。S203において更新を終了しないと判定された場合、S201に戻り、次の画像に基づいて評価値を更新し、さらに評価マップを更新する。一方、評価マップの更新を終了すると判定された場合、S204に進む。
評価部104は、S203で得られた評価マップに基づいて、推奨領域を決定する(S204)。本実施形態において推奨領域とは、物体の通過の判定のために用いられる検知線や検知領域の設置が推奨される領域である。本実施形態において評価マップとは、画像内の領域(ブロック)ごとに評価値を対応付けた情報である。評価部104は、画像内の領域のうち、評価値が閾値よりも高い領域を推奨領域として特定し、特定した推奨領域を示す位置情報(座標情報)を評価結果出力部105に提供する。
なお、本実施形態の評価部104は、閾値以上の評価値に対応する領域の面積を判定し、当該面積が所定面積よりも狭い領域は、推奨領域から除外する。言い換えると、評価部104は、閾値上の評価値に対応する領域のうち、その面積が所定面積以上の領域を推奨領域として特定し、当該特定された推奨領域の位置情報(座標情報)を評価結果出力部105に提供する。すなわち、評価部104は、移動軌跡の検出結果に基づいて算出される評価値が所定の条件を満たす領域を特定する。ただし、面積に関する判定は、必須ではない。
評価結果出力部105は、評価部104から取得した位置情報に基づいて、推奨領域を識別可能にディスプレイに表示させる(S205)。すなわち、評価結果出力部105は、評価部104によって特定された推奨領域を識別可能にディスプレイに表示させる。画像処理装置100がネットワークカメラであり、ネットワークを介して接続される監視装置のディスプレイに推奨領域を表示させる場合、評価結果出力部105は、推奨領域を識別可能に加工した画像を監視装置に送信する。一方、画像処理装置100が監視装置で実現されている場合、評価結果出力部105は、撮像画像に対して推奨領域を識別可能にするための処理を施して、当該処理済みの画像をディスプレイに表示させる。図5で示したように、推奨領域を識別可能にディスプレイに表示させることで、利用者は、より人体(物体)の検知精度が高い領域に検知線(検知領域)を設定できるようになる。
また、図5のS205において、パラメータ設定部106は、推奨領域が識別可能に表示された後に利用者によって入力された操作であって、物体の通過判定のための検知線(検知領域)を設定するための操作に応じて、検知線(検知領域)を設定する。利用者が、検知線を推奨領域に重なるように設定した場合は、推奨領域に重なる位置に検知線が設定される。一方、利用者が、検知線を推奨領域とは重ならない位置に設定した場合、パラメータ設定部106は、推奨領域とは異なる位置に検知線を設定するが、警告を出力する。警告は、メッセージの表示であっても、アラーム音の出力であっても、ランプの点灯であっても良い。警告を出力することで、利用者は、推奨領域(高精度に人体を検出できる領域)とは異なる領域に検知線を設定したことを容易に知ることができる。
図6は、画像処理装置100が、検知線(検知領域)を通過する人体(物体)のカウントを行う処理の流れを説明するためのフローチャートである。本実施形態の画像処理装置100は、図6の処理を実行するためのプログラムをCPU701で実行することにより図6の処理を実現する。図6の処理は、利用者が検知線(検知領域)を設定後、通過数カウントの処理を有効にする設定を行ったタイミングで開始される。ただし開始タイミングは上記のタイミングに限らない。
S101からS103の処理は、図4で説明した内容と同様である。すなわち、追尾部102は、画像取得部101から画像を取得し(S101)、追尾部102は、取得した画像から人体の検出処理、及び、追尾処理を実行する(S102)。そして、追尾部102は、追尾処理によって得られた人体情報を人体情報記憶部103に記憶させる(S103)。
S301において、通過判定部107は、人体の通過判定を実施する。通過判定部107は人体に限らず、自動車や動物など他の物体の通過を判定することも可能である。すなわち、本実施形態の通過判定部107は、検知線(検知領域)の座標と、人体情報記憶部103に記憶される人体情報に含まれる中心座標とに基づいて、人物が検知線(検知領域)を通過したか否かを判定する。より具体的には、通過判定部107は、現画像から検出された人体の中心座標と、現画像の直前に取得された前画像から検出された人体の中心座標とを結ぶ線分が、検知線と交差するか否かに基づいて通過判定を行う。通過判定部107は、通過したと判定すると、通過結果記憶部108に記憶されている通過数のカウント値をインクリメントする。
通過結果記憶部108は、通過判定部107による通過判定の結果を記憶し、通過結果出力部109は、通過結果記憶部108に記憶された通過判定の結果を出力する(S302)。本実施形態では、通過判定部107により通過数のカウント値がインクリメントされたタイミングで、通過結果出力部109は、インクリメント後の通過数のカウント値を通過結果記憶部108から読み出して出力することで、通過結果を示す表示を更新する。なお、S301で通過が発生していないと判定された場合は、S303に進む。
S303では、通過数カウントの処理を終了するか否かの判定が行われる。継続すると判定された場合は、図6のS101の処理に戻り、次の画像を用いて通過判定が行われる。S303で通過数カウントの処理を終了すると判定された場合は、図6の処理を終了する。
以上説明の通り、本実施形態の画像処理装置100は、画像から検出された物体の移動軌跡に基づいて、検知線(検知領域)の推奨領域を決定し、当該推奨領域を識別可能に表示させる。そして、推奨領域の表示後に利用者により行われた操作に応じて、検知線を設定する。このような構成によれば、利用者は、推奨領域を参考に検知線を設定できるので、より正確に通過数をカウント可能な位置に検知線を設定できるようになる。
なお、上記の実施形態では、図2に示すように、画像の横方向に検知線を設定する例を中心に説明したが、縦方向や斜め方向に検知線(検知領域)を設定することも可能である。また、横方向に検知線を設定するための推奨領域と、縦方向に検知線を設定するための推奨領域が異なることがあり得る。
本実施形態の画像処理装置100は、例えば縦方向に検知線を設定するための推奨領域を決定するための評価値と、横方向に検知線を設定するための推奨領域を決定するための評価値を、別々に算出することが可能である。この場合、評価部104は上記のステップ1〜5の算出方法のうち3で得られた値(移動軌跡の長さと当該移動軌跡に属する中心座標の数を乗算して得られた値)に対して、当該移動軌跡の向きに応じた重みづけ係数(0〜1)を乗算する。すなわち、評価部104は、横方向に検知線を設定するための評価値を算出する場合において、ステップ3の処理対象となる移動軌跡の方向を判定し、当該方向が横方向に近いほど、高い重みづけ係数を乗算する。一方、評価部104は、移動軌跡の方向が縦方向に近いほど、低い重みづけ係数を乗算する。
このようにすることで、評価部104は、縦方向の検知線を設定するための推奨領域と、横方向の検知線を設定するための推奨領域を、個別に管理することが可能である。さらに、パラメータ設定部106は、利用者がどの方向の検知線を設定しようとしているのかに関する指定を、ユーザインタフェースからの信号に基づいて判定する。そして、評価結果出力部105は、当該指定された方向に応じた推奨領域を識別可能に表示させる。例えば、評価結果出力部105は、利用者が横方向の検知線を設定しようとしている場合は、横方向の検知線を設定するための推奨領域を識別可能に表示させる。一方、評価結果出力部105は、利用者が縦方向の検知線を設定しようとしている場合は、縦方向の検知線を設定するための推奨領域を識別可能に表示させる。このようにすれば、より人体(物体)の検出精度が高い領域に検知線や検知領域を設定しやすくなる。ただし、縦方向と横方向を区別する方法は、必須ではない。
なお、本実施形態の画像処理装置は、利用者が検知線(検知領域)を設定した後も、人体(物体)の移動軌跡に基づく評価を行い、その評価の結果に応じて利用者に警告を出力することが可能である。
画像処理装置100の評価部104は、利用者が検知線(検知領域)を設定した後、当該検知線に対応する領域の評価値の算出を行い、当該算出された評価値と閾値との比較によって推奨領域を再度決定する。評価値の算出方法は、上記のステップ1〜5で説明した方法と同様である。そして、評価部104は、検知線(検知領域)が、検知線の設定後に算出された評価値に基づく更新後の推奨領域に重なっているか否かを判定する。
評価部104は、検知線が、更新後の推奨領域に重なっていない(又は、重なり量が閾値未満に変化した)と判定した場合、その旨を評価結果出力部105に通知する。評価結果出力部105は、評価部104からの通知に応じて警告を出力する。警告は、メッセージの表示であっても、アラーム音の出力であっても、ランプの点灯であっても良い。
なお、検知線(検知領域)の設定後における評価は、常時行っても良いし、定期的に行っても良いし、不定期に行っても良い。不定期に行う場合は、例えば、通過数のカウント値の大きな変化が発生したことをトリガーとして、評価が行われるようにしても良い。このようにすれば、例えば、撮像範囲内に物体が置かれたことによって人の流れが変化した場合に、当該変化によって検知線(検知領域)の位置が適切でなくなったことを利用者が容易に認識できるようになる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101 画像取得部
102 追尾部
103 人体情報記憶部
104 評価部
105 評価結果出力部
106 パラメータ設定部
107 通過判定部
108 通過結果記憶部
109 通過結果出力部

Claims (12)

  1. 画像から物体の移動軌跡を特定する特定手段と、
    前記特定された移動軌跡に基づいて、物体の通過判定のための検知線及び検知領域のうち少なくとも何れかの設定に関する推奨領域を決定する決定手段と、
    前記決定手段により決定された推奨領域を識別可能に表示させる表示制御手段と
    を備えることを特徴とする画像処理装置。
  2. 前記決定手段は、前記画像内の領域から検出された移動軌跡に対応する物体が第1の回数、検出された場合、前記移動軌跡に対応する物体が前記第1の回数より少ない第2の回数、検出された場合よりも高い評価値を、前記領域に対応する評価値として決定し、前記評価値が閾値よりも高い領域を、前記推奨領域として決定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記決定手段は、前記画像内の領域に対応する移動軌跡の長さが第1の長さである場合、前記領域に対応する移動軌跡の長さが前記第1の長さより短い第2の長さの場合よりも高い評価値を、前記領域に対応する評価値として決定し、前記評価値が閾値よりも高い領域を、前記推奨領域として決定することを特徴とする請求項1に記載の画像処理装置。
  4. 前記決定手段は、前記画像内の領域から検出された移動軌跡に対応する物体が検出された回数と、前記領域に対応する物体の移動軌跡の長さとに基づいて当該領域に対応する評価値を決定し、前記評価値が閾値よりも高い領域を、前記推奨領域として決定することを特徴とする請求項1に記載の画像処理装置。
  5. 前記表示制御手段は、前記決定手段により決定された推奨領域のうち、面積が所定面積以上の推奨領域を識別可能に表示させることを特徴とする請求項1乃至4のうち、何れか1項に記載の画像処理装置。
  6. 前記通過判定の方向を指定する指定手段を備え、
    前記表示制御手段は、前記指定された方向に応じた推奨領域を識別可能に表示させることを特徴とする請求項1乃至5のうち、何れか1項に記載の画像処理装置。
  7. 前記推奨領域の表示後に設定される検知線及び検知領域のうち少なくとも何れかが前記推奨領域に重ならない場合に警告を出力する出力手段を備えることを特徴とする請求項1乃至6のうち、何れか1項に記載の画像処理装置。
  8. 前記決定手段は、前記検知線及び検知領域のうち少なくとも何れかが設定された後、前記検知線及び検知領域のうち少なくとも何れかに対応する領域の評価値を算出し、
    前記表示制御手段は、前記検知線及び検知領域の設定後に算出された評価値が所定の条件を満たさない場合に通知を表示させることを特徴とする請求項1乃至7のうち、何れか1項に記載の画像処理装置。
  9. 画像から特定された物体の移動軌跡に基づいて、物体の通過判定のための検知線及び検知領域のうち少なくとも何れかの設定に関する推奨領域を決定する決定工程と、
    前記決定工程により決定された推奨領域を識別可能に表示させる表示制御工程と
    を備えることを特徴とする画像処理方法。
  10. 前記決定工程は、前記画像内の領域から検出された移動軌跡に対応する物体が第1の回数、検出された場合、前記移動軌跡に対応する物体が前記第1の回数より少ない第2の回数、検出された場合よりも高い評価値を、前記領域に対応する評価値として決定し、前記評価値が閾値よりも高い領域を、前記推奨領域として決定することを特徴とする請求項9に記載の画像処理方法。
  11. 前記決定工程は、前記画像内の領域に対応する移動軌跡の長さが第1の長さの場合、前記第1の長さより短い第2の長さの場合よりも高い評価値を、当該領域に対応する評価値として決定し、前記評価値が閾値よりも高い領域を、前記推奨領域として決定することを特徴とする請求項9に記載の画像処理方法。
  12. コンピュータに、請求項1乃至8のうち、何れか1項に記載の画像処理装置として動作させるためのプログラム。
JP2014254593A 2014-12-16 2014-12-16 画像処理装置、画像処理方法、及び、プログラム Pending JP2016116137A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014254593A JP2016116137A (ja) 2014-12-16 2014-12-16 画像処理装置、画像処理方法、及び、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014254593A JP2016116137A (ja) 2014-12-16 2014-12-16 画像処理装置、画像処理方法、及び、プログラム

Publications (1)

Publication Number Publication Date
JP2016116137A true JP2016116137A (ja) 2016-06-23

Family

ID=56142379

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014254593A Pending JP2016116137A (ja) 2014-12-16 2014-12-16 画像処理装置、画像処理方法、及び、プログラム

Country Status (1)

Country Link
JP (1) JP2016116137A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109769102A (zh) * 2017-11-08 2019-05-17 株式会社东芝 图像处理装置、图像处理系统、图像处理方法及存储介质
JP2020013289A (ja) * 2018-07-17 2020-01-23 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2020155089A (ja) * 2019-03-12 2020-09-24 グローリー株式会社 エリア設定支援装置、エリア設定支援方法及びエリア設定支援プログラム
JP7494742B2 (ja) 2020-02-14 2024-06-04 富士通株式会社 交通量計数装置、方法及び電子機器
WO2024122371A1 (ja) * 2022-12-05 2024-06-13 住友電気工業株式会社 電波センサの設定支援装置、電波センサの設定支援方法、及びコンピュータプログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109769102A (zh) * 2017-11-08 2019-05-17 株式会社东芝 图像处理装置、图像处理系统、图像处理方法及存储介质
JP2019087925A (ja) * 2017-11-08 2019-06-06 株式会社東芝 画像処理装置、画像処理システム、画像処理方法、およびプログラム
US11145068B2 (en) 2017-11-08 2021-10-12 Kabushiki Kaisha Toshiba Image-processing apparatus, image-processing system, image-processing method, and storage medium
JP2020013289A (ja) * 2018-07-17 2020-01-23 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP7140583B2 (ja) 2018-07-17 2022-09-21 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2020155089A (ja) * 2019-03-12 2020-09-24 グローリー株式会社 エリア設定支援装置、エリア設定支援方法及びエリア設定支援プログラム
JP7359621B2 (ja) 2019-03-12 2023-10-11 グローリー株式会社 エリア設定支援装置、エリア設定支援方法及びエリア設定支援プログラム
JP7494742B2 (ja) 2020-02-14 2024-06-04 富士通株式会社 交通量計数装置、方法及び電子機器
WO2024122371A1 (ja) * 2022-12-05 2024-06-13 住友電気工業株式会社 電波センサの設定支援装置、電波センサの設定支援方法、及びコンピュータプログラム

Similar Documents

Publication Publication Date Title
US10708508B2 (en) Control apparatus, control method, and storage medium
US10810438B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
JP6583826B2 (ja) 混雑検知装置、混雑検知システムおよび混雑検知方法
JP2016116137A (ja) 画像処理装置、画像処理方法、及び、プログラム
US9367734B2 (en) Apparatus, control method, and storage medium for setting object detection region in an image
JPWO2016114134A1 (ja) 移動状況推定装置、移動状況推定方法およびプログラム
JP6381313B2 (ja) 制御装置、制御方法、およびプログラム
CN105404266B (zh) 一种监控区域的方法及装置
US8644553B2 (en) Image display device, image display method, and image display program
US20190215488A1 (en) Monitoring system, monitoring method, and monitoring program
US20160225160A1 (en) Monitoring camera, monitoring system, and motion detection method
JP2006067272A (ja) カメラキャリブレーション装置及びカメラキャリブレーション方法
JP2017229033A5 (ja)
JP2017011417A (ja) 表示制御装置、表示制御方法、プログラム
JP7074174B2 (ja) 識別器学習装置、識別器学習方法およびコンピュータプログラム
JP2009239507A (ja) 監視システム
US20160335916A1 (en) Portable device and control method using plurality of cameras
JP2015166854A (ja) 投影装置の投影制御装置、投影装置の投影制御方法、投影システム、投影システムの投影制御方法及びプログラム
US20130265420A1 (en) Video processing apparatus, video processing method, and recording medium
KR102107137B1 (ko) 팬틸트줌 카메라를 이용한 이벤트 감지방법 및 장치
KR101445361B1 (ko) 현장 모니터링 장치
JP2018055151A (ja) 炎検出装置及びプログラム
RU2636745C1 (ru) Способ и система мониторинга территории с помощью управляемой видеокамеры
KR20140066560A (ko) 영상 감시장치에서 객체영역을 설정하는 방법 및 이를 위한 장치
WO2024125650A1 (en) Regulation methods and tracking methods, systems, devices, and storage media