JP2018195292A - Information processing apparatus, information processing system, information processing method, and program - Google Patents
Information processing apparatus, information processing system, information processing method, and program Download PDFInfo
- Publication number
- JP2018195292A JP2018195292A JP2018025099A JP2018025099A JP2018195292A JP 2018195292 A JP2018195292 A JP 2018195292A JP 2018025099 A JP2018025099 A JP 2018025099A JP 2018025099 A JP2018025099 A JP 2018025099A JP 2018195292 A JP2018195292 A JP 2018195292A
- Authority
- JP
- Japan
- Prior art keywords
- determination
- area
- information processing
- region
- congested
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、情報処理装置、情報処理システム、情報処理方法及びプログラムに関する。 The present invention relates to an information processing apparatus, an information processing system, an information processing method, and a program.
空港の保安検査場、駅の発券窓口、銀行の自動預け払い機、店舗の支払い現場において、利用者の待ち行列が発生する。特許文献1には、背景差分に基づき監視カメラの画像から待ち行列を検出し、行列の待ち人数を推定する技術が開示されている。
User queues are generated at airport security checkpoints, station ticketing counters, bank automated teller machines, and store payment sites.
図1は、行列解析方式を説明する図である。図1(a)の、情報処理システムでは、カメラ102、PC103が互いに通信可能にネットワーク104に接続されている。カメラ102は、改札101等の実領域120を視野に収めて観測する。実領域120において、人物111、112、113を含む複数人物が行列に並んでおり、行列は左から右に移動する。図1(b)では背景差分に基づく行列長さ判定手法を示している。領域220は実領域120に対応する画像上の領域である。PC103は、領域220に対して背景差分を適用する。すると、差分結果は複数の部分領域221、222、223として検出される。次に、PC103が部分領域を連結する。このことによって、部分領域223の左端が行列末尾と判別される。PC103は、部分領域の連結を、例えば領域境界間の最短距離に基づいて行う。またノイズを除去するために、PC103は、連結候補となる部分領域221、222、223として所定値以上の面積を持つ領域を選択する。
FIG. 1 is a diagram for explaining a matrix analysis method. In the information processing system of FIG. 1A, a
背景差分の方式は照明条件や背景の変動に弱く、また、混雑する状況下で人物と荷物とを分離するのは容易ではなかった。その結果、行列の判定を精度よく行えない問題があった。 The background difference method is vulnerable to lighting conditions and background fluctuations, and it is not easy to separate a person and a luggage under crowded conditions. As a result, there has been a problem that the matrix cannot be accurately determined.
本発明の情報処理装置は、画像の判定領域内のオブジェクトを検出する検出手段と、前記検出手段により検出された前記判定領域内のオブジェクトの数に基づき前記判定領域が混雑状態か否かを決定する決定手段と、前記決定手段により第1の判定領域が混雑状態と決定され、かつ、前記第1の判定領域に隣接する第2の判定領域が混雑状態と決定された場合、前記第2の判定領域を行列状態と判定する判定手段と、を有する。 The information processing apparatus according to the present invention determines a detection unit that detects an object in a determination region of an image and whether the determination region is in a congested state based on the number of objects in the determination region detected by the detection unit. And when the first determination area is determined to be congested by the determination means and the second determination area adjacent to the first determination area is determined to be congested, the second determination area Determination means for determining the determination region as a matrix state.
本発明によれば、行列の判定を精度よく行うことができる。 According to the present invention, it is possible to accurately determine a matrix.
<実施形態1>
本実施形態では、PC103は、行列が形成される領域を複数に分割して事前に指定する。そして、PC103は、指定した領域の人物検出数をカウントすることによって、特定の領域まで行列が伸びたかどうかを判定する。
図2は、情報処理システムのシステム構成の一例を示す図である。図2の情報処理システムのシステム構成は図1(a)との情報処理システムと同様である。行列が形成される領域は、複数の領域(実領域131、132、133)に分割され、PC103は、各領域で人物を検出する。本実施形態では人物検出に人体検出技術を用いており、121、122、123は人体検出結果である。PC103は、領域毎の人数をカウントし、その結果に基づいて、特定の領域まで行列が伸びたかどうかを判定する。図2の例では、実領域131、132、133と向かう方向が、列が伸びる方向となっている。
<
In the present embodiment, the PC 103 divides an area where a matrix is formed into a plurality of areas and designates them in advance. Then, the PC 103 determines whether the matrix has been extended to a specific area by counting the number of people detected in the designated area.
FIG. 2 is a diagram illustrating an example of a system configuration of the information processing system. The system configuration of the information processing system in FIG. 2 is the same as that of the information processing system in FIG. The area where the matrix is formed is divided into a plurality of areas (
図3は、領域定義を説明する図である。行列領域300はカメラ102の画像上に定義された領域であり、複数の部分領域310、320、330から構成される。部分領域310、320、330は実領域131、132、133に対応する。部分領域内の人数カウントの結果を判定に用いることからこれらの領域を以下では判定領域と呼ぶ。判定領域は更に画像上に設定された検出領域に対応する。検出領域はカメラ接続情報と多角形の領域座標情報とを設定値として持つ。図3の例では、判定領域310は検出領域311に対応する。同様に判定領域320は検出領域321に対応し、判定領域330は検出領域331に対応する。PC103は、画像中の行列領域を複数の判定領域の集合によって定義し、判定領域内の人数カウントを用いて、特定の判定領域まで行列が伸びたことを検知する。
FIG. 3 is a diagram for explaining region definition. The
図4は、PC103のハードウェア構成の一例を示す図である。PC103は、各種のユニット(10〜16)を含んで構成される。CPU(Central Processing Unit)10は、各種のプログラムを実行し、様々な機能を実現するユニットである。RAM(Random Access Memory)11は、各種の情報を記憶するユニットである。また、RAM11は、CPU10の一時的な作業記憶領域としても利用されるユニットである。ROM(Read Only Memory)12は、各種のプログラム等を記憶するユニットである。例えば、CPU10は、ROM12に記憶されているプログラムをRAM11にロードしてプログラムを実行する。
加えて、CPU10がフラッシュメモリ、HDD(Hard Disk Drive)、又はSSD(Solid State Disk)といった外部記憶装置13に記憶されているプログラムに基づき処理を実行する。これにより、図5、図10(b)に示されるようなPC103のソフトウェア構成及び後述する図6、図8、図11(b)のフローチャートの各ステップの処理が実現される。
図5、図10(b)に示されるようなPC103のソフトウェア構成及び図6、図8、図11(b)のフローチャートの各ステップの処理の全部又は一部については専用のハードウェアを用いて実現されてもよい。
NIC(Network Interface Card)205は、PC103をネットワークに接続するためのユニットである。
入力装置I/F15は、PC103とマウス、キーボード等の入力装置130とを接続するインタフェースである。
表示装置I/F16は、PC103とディスプレイ等の表示装置140とを接続するインタフェースである。
PC103は、図4に示したように1つの装置、又はコンピュータで実現されてもよいし、複数の装置、又はコンピュータで実現されてもよい。
FIG. 4 is a diagram illustrating an example of a hardware configuration of the PC 103. The PC 103 includes various units (10 to 16). A CPU (Central Processing Unit) 10 is a unit that executes various programs and realizes various functions. A RAM (Random Access Memory) 11 is a unit that stores various types of information. The
In addition, the
Dedicated hardware is used for the software configuration of the PC 103 as shown in FIGS. 5 and 10B and the processing of each step in the flowcharts of FIGS. 6, 8, and 11B. It may be realized.
A NIC (Network Interface Card) 205 is a unit for connecting the PC 103 to a network.
The input device I / F 15 is an interface that connects the PC 103 and an
The display device I / F 16 is an interface that connects the PC 103 and a
The
図5は、PC103のソフトウェア構成の一例を示す図である。
PC103は、ソフトウェア構成として、通信部401、画像取得部402、人体検出部403、領域人数カウント部404、行列状態判定部405、結果出力部406、領域設定部407を含む。
画像取得部402は、カメラ102で撮像された画像を取得する。取得された画像は、特定の画像形式や圧縮方式に依存するものではない。
人体検出部403は、取得された画像中の人物位置、向きを検出する。人体検出部403による検出処理は、特定の人物検出方式に依存するものではない。例えば、人体検出部403は、上半身のシルエット形状を検出する方式、顔を検出する方式、その他の特徴量を学習させて人物を検出する方式等を利用して人物を検出する。
領域人数カウント部404は、判定領域310、320、330上にある人物の人数を、人体検出のパラメータ等を用いて検出し、検出結果に基づいてカウントする。領域設定部407は、入力装置410を介した入力操作等に応じて図3に示したような判定領域を設定する。
行列状態判定部405は、判定領域ごとの人数カウントの結果に基づいて、判定領域ごとに混雑状態か否かを判定し、隣接する判定領域が混雑状態であるか否かに基づいて、処理対象の判定領域が行列状態か否かを判定する。
結果出力部406は、行列状態判定部405の判定の結果を出力する。結果出力部406は、判定結果を、ファイル出力したり、表示出力したり、他の装置等へ送信出力したりする。
FIG. 5 is a diagram illustrating an example of a software configuration of the
The
The
The human
The area
The matrix
The
図6は、情報処理の一例を示すフローチャートである。図6(a)が主たる処理であり図6(b)はS507の処理の詳細である。
S501で画像取得部402は、画像を取得する。
S502で人体検出部403は、取得された画像の処理対象の判定領域から人体を検出する。
S504で領域人数カウント部404は、処理対象の判定領域内の人体検出数をカウントする。
S505で行列状態判定部405は、判定領域の混雑状態を判定する。例えば、CPU10は、入力装置130等を介した入力操作に応じて、判定領域ごとにあらかじめ人数の閾値を設定し、RAM11、ROM12、外部記憶装置13等のファイル等に設定しておく。行列状態判定部405は、処理対象の判定領域に対する人数の閾値をファイル等より取得し、処理対象の判定領域から検出された人体の数が取得した閾値に達している場合、処理対象の判定領域を混雑状態と判定する。S505の処理は、決定の処理の一例である。
S506で行列状態判定部405は、全ての判定領域に対する処理を終了したか否かを判定する。行列状態判定部405は、全ての判定領域に対する処理を終了したと判定すると(S506においてYES)、S507に進み、全ての判定領域に対する処理を終了していないと判定すると(S506においてNO)、S504に処理を戻す。
S507で行列状態判定部405は、混雑状態と判定された判定領域に基づき特定の判定領域が行列状態か否かを判定する。例えば、行列状態判定部405は、所定の隣接する判定領域から行列が伸びてきたか否かに基づき特定の判定領域が行列状態か否かを判定する。S507の処理の詳細は、図6(b)に示す。
S508で結果出力部406は、S507の判定結果に基づき結果を出力する。結果出力部406は、結果を、ファイル出力したり、表示出力したり、他の装置等へ送信出力したりする。
S510で結果出力部406は、図6(a)に示すフローチャートの処理を終了するか否かを判定する。結果出力部406は、処理を終了すると判定すると(S510においてYES)、図6(a)に示すフローチャートの処理を終了し、処理を終了しないと判定すると(S510においてNO)、S501に処理を戻す。
FIG. 6 is a flowchart illustrating an example of information processing. FIG. 6A shows the main processing, and FIG. 6B shows details of the processing in S507.
In step S501, the
In step S <b> 502, the human
In step S504, the area
In S505, the matrix
In step S <b> 506, the matrix
In S507, the matrix
In S508, the
In step S510, the
S507の詳細を図6(b)のS520からS525までに示す。S507は特定の判定領域が行列状態か否かを判定するものである。判定したい領域はNである。
S520で行列状態判定部405は、行列状態フラグを真とする。
S521で行列状態判定部405は、判定領域の領域変数Rを1とする。
S522で行列状態判定部405は、S505の判定結果に基づきRが示す領域が混雑状態かどうかを判定する。行列状態判定部405は、Rが示す領域が混雑状態でない場合(S522においてNO)、S523に処理を進め、Rが示す領域が混雑状態である場合(S522においてYES)、S524に処理を進める。
S523で行列状態判定部405は、行列状態フラグを偽とする。
S524で行列状態判定部405は、Rの値を1つ増加(インクリメント)する。
S525で行列状態判定部405は、領域Nまでの判定が完了したか否かを判定する。行列状態判定部405は、領域Nまでの判定が完了したと判定すると(S525においてYES)、図6(b)に示すフローチャートの処理を終了し、領域Nまでの判定が完了していないと判定すると(S525においてNO)、S522の処理に戻る。
図6(b)の処理によって領域Nが行列状態かどうかを判定できる。
S520からS525までの処理はNが数個の場合、実装を簡略化できる。例えばN=3の場合、「領域1と領域2と領域3とが全て混雑状態の場合に領域3が行列状態にある」といった論理式による実装が可能である。
またS505の混雑状態の判定において、行列状態判定部405は、どの程度の人数に達すれば混雑状態と判定するかの閾値を、直近の期間の判定領域内の人体検出数の統計量に基づいて決定するようにしてもよい。例えば、行列状態判定部405は、直近の期間の判定領域内の人体検出数の平均値、最頻値に対して所定の定数を乗算した値を用いて閾値を決定するようにしてもよい。
Details of S507 are shown from S520 to S525 in FIG. In step S507, it is determined whether or not the specific determination region is in a matrix state. The area to be determined is N.
In S520, the matrix
In S521, the matrix
In step S522, the matrix
In S523, the matrix
In S524, the matrix
In step S525, the matrix
It can be determined whether or not the region N is in a matrix state by the processing of FIG.
The processing from S520 to S525 can be simplified when N is several. For example, when N = 3, implementation by a logical expression such as “region 3 is in a matrix state when
Further, in the determination of the congestion state in S505, the matrix
以上の方法によれば、CPU10は、行列の先頭から末尾に向けて判定領域を配置し、人物検出結果を用いて行列の混雑状態を判別する。次に、CPU10は、行列の混雑状態に基づいて、判定領域の行列状態を判定する。これにより、CPU10は、正確な人数カウントに基づく判定を行うことができる。結果として、CPU10は、所定の位置まで行列が伸びた場合に誘導のための係員を増派する等の対処を効率よく行うことができる。
According to the above method, the
<変形例1>
上述した実施形態の変形例としては、PC103は、人体検出機能に加えて、人体追尾機能を有し、人体の位置に加えて人体の移動速度も検出する。判定領域を単に通過する人物も検出されるが、このような人物は、行列に並んでいる人物と比較して移動速度が速いと予想される。したがって、PC103は、各判定領域において、移動速度が一定値以上の人体は、人数カウントの対象から除外する(移動速度が一定値に満たないオブジェクトの数に基づいて混雑状態かどうか判定することになる)。処理としては、PC103は、図6のS502の後に、移動速度が一定値以上の人体は、人数カウントの対象から除外する人体追尾処理を追加する。以上により、真に行列待ち状態にある人物を検出し、行列状態の判別に用いる結果、判別精度を向上することができる。
<
As a modification of the above-described embodiment, the
<変形例2>
上述した実施形態の変形例としては、複数のカメラを用いて行列の判定領域を定義するようにしてもよい。領域設定部407は、入力装置410を介した入力操作等に応じて図7に示したような判定領域を設定する。これは行列の形状が複雑である場合に効果がある。例えば図7において、判定領域(2)320は、カメラ1の検出領域2(322)とカメラ2の検出領域1(323)とから構成される。カメラ1の検出領域2(322)は、カメラ1から取得された画像の部分領域であり、カメラ2の検出領域1(323)は、カ
メラ2から取得された画像の部分領域である。判定領域(2)320における人数カウント数は検出領域2(322)と検出領域1(323)との人数カウント数の和である。同様に判定領域(3)330は、カメラ2の検出領域2(332)とカメラ3の検出領域3(333)とから構成される。カメラ2の検出領域2(332)は、カメラ2から取得された画像の部分領域である。カメラ3の検出領域3(333)は、カメラ3から取得された画像の部分領域である。判定領域(3)330における人数カウント数は検出領域3(333)と検出領域2(332)とのカウント数の和である。
複数のカメラを用いれば、ある判定領域を1台のカメラの視野に収めることのできない場合、行列の形状が複雑で隠れが生じる場合等に対応できる。また、行列が奥行き方向に伸びており、画面内の位置によって人物検出ができない場合があるときにも有効である。
<Modification 2>
As a modification of the above-described embodiment, a matrix determination region may be defined using a plurality of cameras. The
If a plurality of cameras are used, it is possible to cope with a case where a certain determination region cannot be accommodated in the field of view of one camera, a case where the shape of the matrix is complicated and hiding occurs. It is also effective when the matrix extends in the depth direction and there is a case where a person cannot be detected depending on the position in the screen.
<実施形態2>
実施形態2としては、行列状態判定部405は、行列状態の判定に基づいて行列末尾の判定を行うこともできる。例えば、行列状態判定部405は、判定領域Rが先頭から順に連続して混雑状態か否かを確認し、混雑状態でなくなった領域の一つ手前の領域を末尾領域とするものである。
本実施形態の処理では、図6のS507の行列状態判定処理(S520からS525まで)を図8のように差し替える。Rは判定領域を示す変数である。
S701で行列状態判定部405は、Rを0に初期化する。
S702で行列状態判定部405は、判定領域R+1が混雑状態かどうかを判定する。行列状態判定部405は、判定領域R+1が混雑状態である場合(S702においてYES)、S703に処理を進め、判定領域R+1が混雑状態でない場合(S702においてNO)、S705に処理を進める。
S703で行列状態判定部405は、Rの値を1つ増加(インクリメント)する。
S704で行列状態判定部405は、全判定領域に対して処理を完了したか否かを判定する。行列状態判定部405は、全判定領域に対して処理を完了した場合、すなわち、R=Nの場合(S704においてYES)、S705に処理を進め、全判定領域に対して処理を完了していない場合(S704においてNO)、S702の処理に戻る。
S705で行列状態判定部405は、判定領域Rを末尾とする。
<Embodiment 2>
As the second embodiment, the matrix
In the process of this embodiment, the matrix state determination process (S520 to S525) in S507 of FIG. 6 is replaced as shown in FIG. R is a variable indicating the determination region.
In step S701, the matrix
In S702, the matrix
In step S703, the matrix
In step S704, the matrix
In S705, the matrix
以上の処理の結果、末尾が判定領域0の場合は、CPU10は、行列が存在しないことが分かる。また末尾が判定領域数と同じNの場合は、CPU10は、事前に設定した判定領域群の最後まで行列が伸びており、真の末尾は設定した判定領域の他にあることが分かる。CPU10は、判定の結果、行列の情報(例えば、末尾の判定領域の情報)等を表示装置140等に出力することができる。
As a result of the above processing, when the end is the
<実施形態3>
上述した実施形態では、PC103が各機能を有し、処理を行っていた。実施形態3では、上述した実施形態においてPC103が行っていた処理等をPC103とカメラ102とが行う例を説明する。
図9は、カメラ102のハードウェア構成の一例を示す図である。カメラ102は、各種のユニット(20〜26)を含んで構成される。撮像部20は、光学系と制御装置とを有し、シーンに合わせて光学系を制御し画像を撮像するユニットである。CPU21は、各種のプログラムを実行し、様々な機能を実現するユニットである。RAM22は、各種の情報を記憶するユニットである。また、RAM22は、CPU21の一時的な作業記憶領域としても利用されるユニットである。ROM23は、各種のプログラム等を記憶するユニットである。例えば、CPU21は、ROM23に記憶されているプログラムをRAM22にロードしてプログラムを実行する。これにより、図10に示されるようなカメラ102のソフトウェア構成及び後述する図11(a)のフローチャートの各ステップの処理が実現される。カメラ102のソフトウェア構成及び後述する図11(a)のフローチャートの各ステップの全部又は一部については専用のハードウェアを用いて実現されてもよい。
通信部24は、カメラ102をネットワークに接続するためのユニットである。入力部25は、ユーザの操作に基づいて操作情報をCPU21に入力するためのユニットである。表示部26は、CPU21の処理の結果等を表示するためのユニットである。
<Embodiment 3>
In the above-described embodiment, the
FIG. 9 is a diagram illustrating an example of a hardware configuration of the
The
図10(a)は、カメラ102のソフトウェア構成の一例を示す図である。
カメラ102は、ソフトウェア構成として、画像取得部501、人体検出部502、領域人数カウント部503、領域設定部504、通信部505を含む。
画像取得部501は、撮像部20で撮像された画像を取得し、画像処理可能な形式に変換する。
人体検出部502は、取得された画像中の人物位置、向きを検出する。人体検出部502による検出処理は、特定の人物検出方式に依存するものではない。例えば、人体検出部502は、上半身のシルエット形状を検出する方式、顔を検出する方式、その他の特徴量を学習させて人物を検出する方式等を利用して人物を検出する。
領域人数カウント部503は、判定領域上にある人物の人数をカウントする。例えば、領域人数カウント部503は、図3の判定領域310、320、330上にある人物の人数を、人体検出のパラメータ等を用いて検出し、検出結果に基づいてカウントする。
通信部505は、領域人数カウント部503がカウントした結果を、ネットワーク経由でPC103に送信する。また、通信部505は、ネットワーク経由でPC103より情報等を受信する。
領域設定部504は、入力部25等を介した入力操作、又は通信部505を介してPC103より受信した領域設定の設定情報に応じて図3に示したような判定領域を設定する。領域設定部504は、同一画像上に複数の領域を設定することもできるし、行列が一台のカメラの視野に収まらない場合、複数の画像上に複数の領域を設定することもできる。
FIG. 10A is a diagram illustrating an example of a software configuration of the
The
The
The human
The area
The
The
図10(b)は、PC103のソフトウェア構成の一例を示す図である。
PC103は、ソフトウェア構成として、通信部506、行列状態判定部507、結果出力部508、領域設定部509を含む。
通信部506は、ネットワーク経由でカメラ102より判定領域上にある人物の人数のカウント結果を受信する。また、通信部506は、領域設定部509において領域設定の設定情報が設定された場合、ネットワーク経由でカメラ102に設定情報を送信する。
行列状態判定部507は、判定領域ごとの人数カウントの結果及び領域設定部509によって設定されたパラメータに基づいて、判定領域ごとに混雑状態か否かを判定し、隣接する判定領域が混雑状態であるか否かに基づいて、処理対象の判定領域が行列状態か否かを判定する。
領域設定部509は、表示装置140上のGUI(グラフィカル・ユーザ・インターフェース)と入力装置130とを介してユーザ操作によって設定された行列状態の判定に関わるパラメータの設定を行う。また、領域設定部509は、表示装置140上のGUIと入力装置130とを介してユーザ操作によって設定された領域設定の設定情報の設定を行う。
結果出力部508は、行列状態判定部507の判定の結果を出力する。結果出力部508は、判定結果を、外部記憶装置13にファイル出力したり、表示装置140に表示出力したり、他の装置等へ送信出力したりする。
本実施形態において、カメラ102とPC103との間の通信は特定の通信方式やプロトコルに依存するものではない。例えば、プロトコルは、HTTP(HyperText Transfer Protocol)やRTP(Real−time Transport Protocol)、ONVIF(Opern Network Video InterfaceForum)であってもよい。
FIG. 10B is a diagram illustrating an example of a software configuration of the
The
The
The matrix
The
The
In the present embodiment, communication between the
図11は、実施形態3の情報処理の一例を示すフローチャートである。図11(a)は、カメラ102側の情報処理の一例を示すフローチャートである。
S1001で画像取得部501は、画像を取得する。
S1002で人体検出部502は、取得された画像の処理対象の判定領域から人体を検出する。
S1004で領域人数カウント部503は、処理対象の判定領域内の人体検出数をカウントする。
S1006で領域人数カウント部503は、全ての判定領域に対するカウントの処理を終了したか否かを判定する。領域人数カウント部503は、全ての判定領域に対するカウントの処理を終了したと判定すると(S1006においてYES)、S1008に進み、全ての判定領域に対するカウントの処理を終了していないと判定すると(S1006においてNO)、S1004に処理を戻す。
S1008で通信部505は、領域人数カウント部503がカウントした結果を、ネットワーク経由でPC103に送信する。
S1010で通信部505は、図11(a)に示すフローチャートの処理を終了するか否かを判定する。通信部505は、処理を終了すると判定すると(S1010においてYES)、図11(a)に示すフローチャートの処理を終了し、処理を終了しないと判定すると(S1010においてNO)、S1001に処理を戻す。
FIG. 11 is a flowchart illustrating an example of information processing according to the third embodiment. FIG. 11A is a flowchart illustrating an example of information processing on the
In step S1001, the
In step S <b> 1002, the human
In step S <b> 1004, the area
In step S <b> 1006, the area
In step S1008, the
In step S1010, the
図11(b)は、PC103側の情報処理の一例を示すフローチャートである。
S1020で通信部506は、カメラ102(情報処理システムに複数のカメラが含まれる場合は複数のカメラ)から全ての判定領域内の人体検出のカウント結果を受信する。
S1021で行列状態判定部507は、行列状態フラグを真とする。
S1022で行列状態判定部507は、判定領域の領域変数Rを1とする。
S1023で行列状態判定部507は、カウント結果に基づき判定領域の混雑状態を判定する。例えば、CPU10は、入力装置130等を介した入力操作に応じて、判定領域ごとにあらかじめ人数の閾値を設定し、RAM11、ROM12、外部記憶装置13等のファイル等に設定しておく。行列状態判定部507は、処理対象の判定領域に対する人数の閾値をファイル等より取得し、処理対象の判定領域から検出された人体の数が取得した閾値に達している場合、処理対象の判定領域を混雑状態と判定する。S1023の処理は、決定の処理の一例である。
S1024で行列状態判定部507は、S1023の判定結果に基づきRが示す領域が混雑状態かどうかを判定する。行列状態判定部507は、Rが示す領域が混雑状態でない場合(S1024においてNO)、S1026に処理を進め、Rが示す領域が混雑状態である場合(S1024においてYES)、S1025に処理を進める。
S1025で行列状態判定部507は、行列状態フラグを偽とする。
S1026で行列状態判定部507は、Rの値を1つ増加(インクリメント)する。
S1027で行列状態判定部507は、領域Nまでの判定が完了したか否かを判定する。行列状態判定部507は、領域Nまでの判定が完了したと判定すると(S1027においてYES)、S1028に処理を進め、領域Nまでの判定が完了していないと判定すると(S1027においてNO)、S1023の処理に戻る。
S1028で結果出力部508は、判定結果を出力する。結果出力部508は、判定結果を、外部記憶装置13にファイル出力したり、表示装置140に表示出力したり、他の装置等へ送信出力したりする。
S1029で結果出力部508は、図11(b)に示すフローチャートの処理を終了するか否かを判定する。結果出力部508は、処理を終了すると判定すると(S1029においてYES)、図11(b)に示すフローチャートの処理を終了し、処理を終了しないと判定すると(S1029においてNO)、S1020に処理を戻す。
FIG. 11B is a flowchart illustrating an example of information processing on the
In step S <b> 1020, the
In S1021, the matrix
In step S1022, the matrix
In step S1023, the matrix
In step S1024, the matrix
In step S1025, the matrix
In S1026, the matrix
In step S1027, the matrix
In step S1028, the
In step S1029, the
本実施形態によれば、少なくとも一つのカメラで行列の人数カウントを行い、カウント結果をPC103に送信する。そして、PC103で混雑状態の判定を行う。これにより行列待ち人数の観測に複数のカメラが必要となる構成において、PCの負荷を軽減することができる。
According to this embodiment, the number of people in the queue is counted by at least one camera, and the count result is transmitted to the
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium. It can also be realized by a process in which one or more processors in the computer of the system or apparatus read and execute the program. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
以上、本発明の実施形態の一例について詳述したが、本発明は係る特定の実施形態に限定されるものではない。
例えば、図5、図10(b)に示したPC103のソフトウェア構成の一部又は全てをハードウェア構成としてPC103に実装してもよい。また、PC103のハードウェア構成としてCPU、ROM、RAM、外部記憶装置、NIC等は1つである必要はない。複数のCPUがプログラムに基づき、複数のRAM、ROM、外部記憶装置に記憶されたデータ等を用いながら処理を実行するようにしてもよい。また、CPUに替えてGPU(Graphics Processing Unit)を用いることとしてもよい。
また、図10(a)に示したカメラ102のソフトウェア構成の一部又は全てをハードウェア構成としてカメラ102に実装してもよい。また、カメラ102のハードウェア構成としてCPU、RAM、ROM、通信部等は1つである必要はない。複数のCPUがプログラムに基づき、複数のRAM、ROMに記憶されたデータ等を用いながら処理を実行するようにしてもよい。また、CPUに替えてGPUを用いることとしてもよい。
上述した各実施形態では、人体が行列を構成している場合について説明したが、他のオブジェクト、例えば、自動車、動物等であってもよい。
The exemplary embodiment of the present invention has been described in detail above, but the present invention is not limited to the specific embodiment.
For example, a part or all of the software configuration of the
Further, a part or all of the software configuration of the
In each of the above-described embodiments, the case where the human body forms a matrix has been described. However, other objects such as a car and an animal may be used.
以上、上述した各実施形態によれば、行列の判定を精度よく行うことができる。 As mentioned above, according to each embodiment mentioned above, the determination of a matrix can be performed accurately.
10 CPU
102 カメラ
103 PC
10 CPU
102
Claims (12)
前記検出手段により検出された前記判定領域内のオブジェクトの数に基づき前記判定領域が混雑状態か否かを決定する決定手段と、
前記決定手段により第1の判定領域が混雑状態と決定され、かつ、前記第1の判定領域に隣接する第2の判定領域が混雑状態と決定された場合、前記第2の判定領域を行列状態と判定する判定手段と、
を有する情報処理装置。 Detection means for detecting an object in the determination region of the image;
Determining means for determining whether or not the determination area is congested based on the number of objects in the determination area detected by the detection means;
When the determination unit determines that the first determination region is congested and the second determination region adjacent to the first determination region is determined to be congested, the second determination region is set as a matrix state. Determining means for determining
An information processing apparatus.
前記検出手段は、前記取得手段により取得された画像の判定領域内のオブジェクトを検出し、
前記決定手段は、前記検出手段により検出された前記判定領域内のオブジェクトの数に基づき前記判定領域が混雑状態か否かを決定する請求項1記載の情報処理装置。 And further comprising an acquisition means for acquiring an image captured by at least one camera,
The detection means detects an object in a determination region of the image acquired by the acquisition means,
The information processing apparatus according to claim 1, wherein the determination unit determines whether or not the determination region is congested based on the number of objects in the determination region detected by the detection unit.
前記検出領域は少なくとも1つ以上のカメラで撮像された画像の部分領域である請求項1又は2記載の情報処理装置。 The determination area includes at least one detection area,
The information processing apparatus according to claim 1, wherein the detection area is a partial area of an image captured by at least one camera.
前記検出手段により検出された前記判定領域内のオブジェクトの数に基づき前記判定領域が混雑状態か否かを決定する決定手段と、
前記決定手段により第1の判定領域が混雑状態と決定され、かつ、前記第1の判定領域に隣接する第2の判定領域が混雑状態と決定された場合、前記第2の判定領域を行列状態と判定する判定手段と、
を有する情報処理システム。 Detection means for detecting an object in the determination region of the image;
Determining means for determining whether or not the determination area is congested based on the number of objects in the determination area detected by the detection means;
When the determination unit determines that the first determination region is congested and the second determination region adjacent to the first determination region is determined to be congested, the second determination region is set as a matrix state. Determining means for determining
An information processing system having
前記撮像装置は、
画像の判定領域内のオブジェクトを検出する検出手段と、
前記検出手段により検出された前記判定領域内のオブジェクトの数を前記情報処理装置に送信する送信手段と、
を有し、
前記情報処理装置は、
前記判定領域内のオブジェクトの数を前記撮像装置より受信する受信手段と、
前記受信手段により受信された前記判定領域内のオブジェクトの数に基づき前記判定領域が混雑状態か否かを決定する決定手段と、
前記決定手段により第1の判定領域が混雑状態と決定され、かつ、前記第1の判定領域に隣接する第2の判定領域が混雑状態と決定された場合、前記第2の判定領域を行列状態と判定する判定手段と、
を有する情報処理システム。 An information processing system including at least one imaging device and an information processing device,
The imaging device
Detection means for detecting an object in the determination region of the image;
Transmitting means for transmitting the number of objects in the determination area detected by the detecting means to the information processing apparatus;
Have
The information processing apparatus includes:
Receiving means for receiving the number of objects in the determination area from the imaging device;
Determining means for determining whether the determination area is congested based on the number of objects in the determination area received by the receiving means;
When the determination unit determines that the first determination region is congested and the second determination region adjacent to the first determination region is determined to be congested, the second determination region is set as a matrix state. Determining means for determining
An information processing system having
画像の判定領域内のオブジェクトを検出する検出工程と、
前記検出工程により検出された前記判定領域内のオブジェクトの数に基づき前記判定領域が混雑状態か否かを決定する決定工程と、
前記決定工程により第1の判定領域が混雑状態と決定され、かつ、前記第1の判定領域に隣接する第2の判定領域が混雑状態と決定された場合、前記第2の判定領域を行列状態と判定する判定工程と、
を含む情報処理方法。 An information processing method executed by an information processing apparatus,
A detection step of detecting an object in the determination region of the image;
A determination step of determining whether or not the determination region is congested based on the number of objects in the determination region detected by the detection step;
When the determination step determines that the first determination region is congested and the second determination region adjacent to the first determination region is determined to be congested, the second determination region is in a matrix state A determination step for determining
An information processing method including:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/971,824 US10691956B2 (en) | 2017-05-12 | 2018-05-04 | Information processing apparatus, information processing system, information processing method, and storage medium having determination areas corresponding to waiting line |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017095759 | 2017-05-12 | ||
JP2017095759 | 2017-05-12 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018195292A true JP2018195292A (en) | 2018-12-06 |
JP7009250B2 JP7009250B2 (en) | 2022-02-10 |
Family
ID=64571594
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018025099A Active JP7009250B2 (en) | 2017-05-12 | 2018-02-15 | Information processing equipment, information processing system, information processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7009250B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020107297A (en) * | 2018-12-26 | 2020-07-09 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002342748A (en) * | 2001-05-18 | 2002-11-29 | Av Planning Center:Kk | Method and device for detecting queue |
JP2009110054A (en) * | 2007-10-26 | 2009-05-21 | Panasonic Corp | Situation judging device, situation judging method, situation judging program, abnormality judging device, abnormality judging method and abnormality judging program |
JP2012212365A (en) * | 2011-03-31 | 2012-11-01 | Sony Corp | Information processor, congestion degree map generation device, information processing method, program, and recording medium |
JP2015087841A (en) * | 2013-10-29 | 2015-05-07 | パナソニック株式会社 | Congestion status analyzer, congestion status analyzing system, and congestion status analyzing method |
US20150169954A1 (en) * | 2012-07-18 | 2015-06-18 | Ats Group (Ip Holdings) Limited | Image processing to derive movement characteristics for a plurality of queue objects |
WO2016002400A1 (en) * | 2014-06-30 | 2016-01-07 | 日本電気株式会社 | Guidance processing device and guidance method |
JP2017045438A (en) * | 2015-08-27 | 2017-03-02 | 株式会社東芝 | Image analyzer, image analysis method, image analysis program and image analysis system |
-
2018
- 2018-02-15 JP JP2018025099A patent/JP7009250B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002342748A (en) * | 2001-05-18 | 2002-11-29 | Av Planning Center:Kk | Method and device for detecting queue |
JP2009110054A (en) * | 2007-10-26 | 2009-05-21 | Panasonic Corp | Situation judging device, situation judging method, situation judging program, abnormality judging device, abnormality judging method and abnormality judging program |
JP2012212365A (en) * | 2011-03-31 | 2012-11-01 | Sony Corp | Information processor, congestion degree map generation device, information processing method, program, and recording medium |
US20150169954A1 (en) * | 2012-07-18 | 2015-06-18 | Ats Group (Ip Holdings) Limited | Image processing to derive movement characteristics for a plurality of queue objects |
JP2015087841A (en) * | 2013-10-29 | 2015-05-07 | パナソニック株式会社 | Congestion status analyzer, congestion status analyzing system, and congestion status analyzing method |
WO2016002400A1 (en) * | 2014-06-30 | 2016-01-07 | 日本電気株式会社 | Guidance processing device and guidance method |
JP2017045438A (en) * | 2015-08-27 | 2017-03-02 | 株式会社東芝 | Image analyzer, image analysis method, image analysis program and image analysis system |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020107297A (en) * | 2018-12-26 | 2020-07-09 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP7418074B2 (en) | 2018-12-26 | 2024-01-19 | キヤノン株式会社 | Image processing device, image processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP7009250B2 (en) | 2022-02-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11222239B2 (en) | Information processing apparatus, information processing method, and non-transitory computer-readable storage medium | |
KR102335045B1 (en) | Method for detecting human-object using depth camera and device | |
US8938092B2 (en) | Image processing system, image capture apparatus, image processing apparatus, control method therefor, and program | |
JP6914699B2 (en) | Information processing equipment, information processing methods and programs | |
JP2020524348A (en) | Face image retrieval method and system, photographing device, and computer storage medium | |
EP2806374A1 (en) | Method and system for automatic selection of one or more image processing algorithm | |
US10691956B2 (en) | Information processing apparatus, information processing system, information processing method, and storage medium having determination areas corresponding to waiting line | |
JP6590609B2 (en) | Image analysis apparatus and image analysis method | |
US11170512B2 (en) | Image processing apparatus and method, and image processing system | |
JP5936561B2 (en) | Object classification based on appearance and context in images | |
KR20160033800A (en) | Method for counting person and counting apparatus | |
EP3107000A2 (en) | System and method for detecting outliers in real-time for a univariate time-series signal | |
AU2020278660B2 (en) | Neural network and classifier selection systems and methods | |
KR101821242B1 (en) | Method for counting vehicles based on image recognition and apparatus using the same | |
CN115861400A (en) | Target object detection method, training method and device and electronic equipment | |
JP7009250B2 (en) | Information processing equipment, information processing system, information processing method and program | |
JP7255173B2 (en) | Human detection device and human detection method | |
CN108334820B (en) | Information processing apparatus, information processing method, and storage medium | |
JP2020091649A (en) | Image processing device, image processing system, control method of image processing device, and program | |
KR101412369B1 (en) | Method and apparatus for decting object in image | |
JP2019207639A (en) | Information processing device, imaging apparatus, information processing method, and, program | |
US20200184483A1 (en) | Abnormality detection apparatus, control method, and program | |
JPWO2020137536A1 (en) | Person authentication device, control method, and program | |
CN112598725A (en) | Image processing apparatus, image processing method, and computer readable medium | |
JPWO2018179119A1 (en) | Video analysis device, video analysis method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220112 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7009250 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |