JP2018195292A - Information processing apparatus, information processing system, information processing method, and program - Google Patents

Information processing apparatus, information processing system, information processing method, and program Download PDF

Info

Publication number
JP2018195292A
JP2018195292A JP2018025099A JP2018025099A JP2018195292A JP 2018195292 A JP2018195292 A JP 2018195292A JP 2018025099 A JP2018025099 A JP 2018025099A JP 2018025099 A JP2018025099 A JP 2018025099A JP 2018195292 A JP2018195292 A JP 2018195292A
Authority
JP
Japan
Prior art keywords
determination
area
information processing
region
congested
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018025099A
Other languages
Japanese (ja)
Other versions
JP7009250B2 (en
Inventor
大矢 崇
Takashi Oya
崇 大矢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US15/971,824 priority Critical patent/US10691956B2/en
Publication of JP2018195292A publication Critical patent/JP2018195292A/en
Application granted granted Critical
Publication of JP7009250B2 publication Critical patent/JP7009250B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

To accurately determine the state of a matrix.SOLUTION: An information processing apparatus comprises: detection means that detects objects in determination areas of an image; determination means that determines whether the determination areas are in a congestion state on the basis of the number of objects in the determination areas detected by the detection means; and judging means that, when the first determination area is determined by the determination means to be in a congestion state and the second determination area adjacent to the first determination area is determined to be in a congestion state, determines the second determination area to be in a matrix state.SELECTED DRAWING: Figure 6

Description

本発明は、情報処理装置、情報処理システム、情報処理方法及びプログラムに関する。   The present invention relates to an information processing apparatus, an information processing system, an information processing method, and a program.

空港の保安検査場、駅の発券窓口、銀行の自動預け払い機、店舗の支払い現場において、利用者の待ち行列が発生する。特許文献1には、背景差分に基づき監視カメラの画像から待ち行列を検出し、行列の待ち人数を推定する技術が開示されている。   User queues are generated at airport security checkpoints, station ticketing counters, bank automated teller machines, and store payment sites. Patent Document 1 discloses a technique for detecting a queue from an image of a monitoring camera based on a background difference and estimating the number of queued people.

図1は、行列解析方式を説明する図である。図1(a)の、情報処理システムでは、カメラ102、PC103が互いに通信可能にネットワーク104に接続されている。カメラ102は、改札101等の実領域120を視野に収めて観測する。実領域120において、人物111、112、113を含む複数人物が行列に並んでおり、行列は左から右に移動する。図1(b)では背景差分に基づく行列長さ判定手法を示している。領域220は実領域120に対応する画像上の領域である。PC103は、領域220に対して背景差分を適用する。すると、差分結果は複数の部分領域221、222、223として検出される。次に、PC103が部分領域を連結する。このことによって、部分領域223の左端が行列末尾と判別される。PC103は、部分領域の連結を、例えば領域境界間の最短距離に基づいて行う。またノイズを除去するために、PC103は、連結候補となる部分領域221、222、223として所定値以上の面積を持つ領域を選択する。   FIG. 1 is a diagram for explaining a matrix analysis method. In the information processing system of FIG. 1A, a camera 102 and a PC 103 are connected to a network 104 so that they can communicate with each other. The camera 102 observes the real area 120 such as the ticket gate 101 in the field of view. In the real area 120, a plurality of persons including persons 111, 112, and 113 are arranged in a matrix, and the matrix moves from left to right. FIG. 1B shows a matrix length determination method based on the background difference. A region 220 is a region on the image corresponding to the real region 120. The PC 103 applies the background difference to the area 220. Then, the difference result is detected as a plurality of partial areas 221, 222, and 223. Next, the PC 103 connects the partial areas. As a result, the left end of the partial region 223 is determined as the end of the matrix. The PC 103 connects the partial areas based on, for example, the shortest distance between the area boundaries. In order to remove noise, the PC 103 selects a region having an area equal to or larger than a predetermined value as the partial regions 221, 222, and 223 that are candidates for connection.

特開2005−216217号公報JP 2005-216217 A

背景差分の方式は照明条件や背景の変動に弱く、また、混雑する状況下で人物と荷物とを分離するのは容易ではなかった。その結果、行列の判定を精度よく行えない問題があった。   The background difference method is vulnerable to lighting conditions and background fluctuations, and it is not easy to separate a person and a luggage under crowded conditions. As a result, there has been a problem that the matrix cannot be accurately determined.

本発明の情報処理装置は、画像の判定領域内のオブジェクトを検出する検出手段と、前記検出手段により検出された前記判定領域内のオブジェクトの数に基づき前記判定領域が混雑状態か否かを決定する決定手段と、前記決定手段により第1の判定領域が混雑状態と決定され、かつ、前記第1の判定領域に隣接する第2の判定領域が混雑状態と決定された場合、前記第2の判定領域を行列状態と判定する判定手段と、を有する。   The information processing apparatus according to the present invention determines a detection unit that detects an object in a determination region of an image and whether the determination region is in a congested state based on the number of objects in the determination region detected by the detection unit. And when the first determination area is determined to be congested by the determination means and the second determination area adjacent to the first determination area is determined to be congested, the second determination area Determination means for determining the determination region as a matrix state.

本発明によれば、行列の判定を精度よく行うことができる。   According to the present invention, it is possible to accurately determine a matrix.

行列解析方式を説明する図である。It is a figure explaining a matrix analysis system. 情報処理システムのシステム構成の一例を示す図である。It is a figure which shows an example of the system configuration | structure of an information processing system. 領域定義を説明する図(その1)である。FIG. 6 is a diagram (part 1) for explaining region definition; PCのハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of PC. PCのソフトウェア構成の一例を示す図である。It is a figure which shows an example of the software configuration of PC. 実施形態1の情報処理の一例を示すフローチャートである。3 is a flowchart illustrating an example of information processing according to the first exemplary embodiment. 領域定義を説明する図(その2)である。It is FIG. (2) explaining area | region definition. 実施形態2の情報処理の一例を示すフローチャートである。10 is a flowchart illustrating an example of information processing according to the second exemplary embodiment. カメラのハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of a camera. 情報処理システムのソフトウェア構成の一例を示す図である。It is a figure which shows an example of the software configuration of an information processing system. 実施形態3の情報処理の一例を示すフローチャートである。10 is a flowchart illustrating an example of information processing according to a third exemplary embodiment.

<実施形態1>
本実施形態では、PC103は、行列が形成される領域を複数に分割して事前に指定する。そして、PC103は、指定した領域の人物検出数をカウントすることによって、特定の領域まで行列が伸びたかどうかを判定する。
図2は、情報処理システムのシステム構成の一例を示す図である。図2の情報処理システムのシステム構成は図1(a)との情報処理システムと同様である。行列が形成される領域は、複数の領域(実領域131、132、133)に分割され、PC103は、各領域で人物を検出する。本実施形態では人物検出に人体検出技術を用いており、121、122、123は人体検出結果である。PC103は、領域毎の人数をカウントし、その結果に基づいて、特定の領域まで行列が伸びたかどうかを判定する。図2の例では、実領域131、132、133と向かう方向が、列が伸びる方向となっている。
<Embodiment 1>
In the present embodiment, the PC 103 divides an area where a matrix is formed into a plurality of areas and designates them in advance. Then, the PC 103 determines whether the matrix has been extended to a specific area by counting the number of people detected in the designated area.
FIG. 2 is a diagram illustrating an example of a system configuration of the information processing system. The system configuration of the information processing system in FIG. 2 is the same as that of the information processing system in FIG. The area where the matrix is formed is divided into a plurality of areas (real areas 131, 132, 133), and the PC 103 detects a person in each area. In this embodiment, human body detection technology is used for human detection, and 121, 122, and 123 are human body detection results. The PC 103 counts the number of people in each area, and determines whether the matrix has extended to a specific area based on the result. In the example of FIG. 2, the direction toward the real areas 131, 132, and 133 is the direction in which the column extends.

図3は、領域定義を説明する図である。行列領域300はカメラ102の画像上に定義された領域であり、複数の部分領域310、320、330から構成される。部分領域310、320、330は実領域131、132、133に対応する。部分領域内の人数カウントの結果を判定に用いることからこれらの領域を以下では判定領域と呼ぶ。判定領域は更に画像上に設定された検出領域に対応する。検出領域はカメラ接続情報と多角形の領域座標情報とを設定値として持つ。図3の例では、判定領域310は検出領域311に対応する。同様に判定領域320は検出領域321に対応し、判定領域330は検出領域331に対応する。PC103は、画像中の行列領域を複数の判定領域の集合によって定義し、判定領域内の人数カウントを用いて、特定の判定領域まで行列が伸びたことを検知する。   FIG. 3 is a diagram for explaining region definition. The matrix area 300 is an area defined on the image of the camera 102 and includes a plurality of partial areas 310, 320, and 330. The partial areas 310, 320, and 330 correspond to the real areas 131, 132, and 133. Since the result of counting the number of people in the partial area is used for determination, these areas are hereinafter referred to as determination areas. The determination area further corresponds to a detection area set on the image. The detection area has camera connection information and polygonal area coordinate information as set values. In the example of FIG. 3, the determination area 310 corresponds to the detection area 311. Similarly, the determination area 320 corresponds to the detection area 321, and the determination area 330 corresponds to the detection area 331. The PC 103 defines a matrix area in the image by a set of a plurality of determination areas, and detects that the matrix has extended to a specific determination area by using the number of people in the determination area.

図4は、PC103のハードウェア構成の一例を示す図である。PC103は、各種のユニット(10〜16)を含んで構成される。CPU(Central Processing Unit)10は、各種のプログラムを実行し、様々な機能を実現するユニットである。RAM(Random Access Memory)11は、各種の情報を記憶するユニットである。また、RAM11は、CPU10の一時的な作業記憶領域としても利用されるユニットである。ROM(Read Only Memory)12は、各種のプログラム等を記憶するユニットである。例えば、CPU10は、ROM12に記憶されているプログラムをRAM11にロードしてプログラムを実行する。
加えて、CPU10がフラッシュメモリ、HDD(Hard Disk Drive)、又はSSD(Solid State Disk)といった外部記憶装置13に記憶されているプログラムに基づき処理を実行する。これにより、図5、図10(b)に示されるようなPC103のソフトウェア構成及び後述する図6、図8、図11(b)のフローチャートの各ステップの処理が実現される。
図5、図10(b)に示されるようなPC103のソフトウェア構成及び図6、図8、図11(b)のフローチャートの各ステップの処理の全部又は一部については専用のハードウェアを用いて実現されてもよい。
NIC(Network Interface Card)205は、PC103をネットワークに接続するためのユニットである。
入力装置I/F15は、PC103とマウス、キーボード等の入力装置130とを接続するインタフェースである。
表示装置I/F16は、PC103とディスプレイ等の表示装置140とを接続するインタフェースである。
PC103は、図4に示したように1つの装置、又はコンピュータで実現されてもよいし、複数の装置、又はコンピュータで実現されてもよい。
FIG. 4 is a diagram illustrating an example of a hardware configuration of the PC 103. The PC 103 includes various units (10 to 16). A CPU (Central Processing Unit) 10 is a unit that executes various programs and realizes various functions. A RAM (Random Access Memory) 11 is a unit that stores various types of information. The RAM 11 is a unit that is also used as a temporary work storage area of the CPU 10. A ROM (Read Only Memory) 12 is a unit that stores various programs. For example, the CPU 10 loads a program stored in the ROM 12 into the RAM 11 and executes the program.
In addition, the CPU 10 executes processing based on a program stored in the external storage device 13 such as a flash memory, an HDD (Hard Disk Drive), or an SSD (Solid State Disk). Thereby, the software configuration of the PC 103 as shown in FIGS. 5 and 10B and the processing of each step of the flowcharts of FIGS. 6, 8, and 11B described later are realized.
Dedicated hardware is used for the software configuration of the PC 103 as shown in FIGS. 5 and 10B and the processing of each step in the flowcharts of FIGS. 6, 8, and 11B. It may be realized.
A NIC (Network Interface Card) 205 is a unit for connecting the PC 103 to a network.
The input device I / F 15 is an interface that connects the PC 103 and an input device 130 such as a mouse and a keyboard.
The display device I / F 16 is an interface that connects the PC 103 and a display device 140 such as a display.
The PC 103 may be realized by one device or a computer as shown in FIG. 4 or may be realized by a plurality of devices or computers.

図5は、PC103のソフトウェア構成の一例を示す図である。
PC103は、ソフトウェア構成として、通信部401、画像取得部402、人体検出部403、領域人数カウント部404、行列状態判定部405、結果出力部406、領域設定部407を含む。
画像取得部402は、カメラ102で撮像された画像を取得する。取得された画像は、特定の画像形式や圧縮方式に依存するものではない。
人体検出部403は、取得された画像中の人物位置、向きを検出する。人体検出部403による検出処理は、特定の人物検出方式に依存するものではない。例えば、人体検出部403は、上半身のシルエット形状を検出する方式、顔を検出する方式、その他の特徴量を学習させて人物を検出する方式等を利用して人物を検出する。
領域人数カウント部404は、判定領域310、320、330上にある人物の人数を、人体検出のパラメータ等を用いて検出し、検出結果に基づいてカウントする。領域設定部407は、入力装置410を介した入力操作等に応じて図3に示したような判定領域を設定する。
行列状態判定部405は、判定領域ごとの人数カウントの結果に基づいて、判定領域ごとに混雑状態か否かを判定し、隣接する判定領域が混雑状態であるか否かに基づいて、処理対象の判定領域が行列状態か否かを判定する。
結果出力部406は、行列状態判定部405の判定の結果を出力する。結果出力部406は、判定結果を、ファイル出力したり、表示出力したり、他の装置等へ送信出力したりする。
FIG. 5 is a diagram illustrating an example of a software configuration of the PC 103.
The PC 103 includes a communication unit 401, an image acquisition unit 402, a human body detection unit 403, an area number counting unit 404, a matrix state determination unit 405, a result output unit 406, and an area setting unit 407 as software configurations.
The image acquisition unit 402 acquires an image captured by the camera 102. The acquired image does not depend on a specific image format or compression method.
The human body detection unit 403 detects a person position and orientation in the acquired image. The detection process by the human body detection unit 403 does not depend on a specific person detection method. For example, the human body detection unit 403 detects a person using a method of detecting a silhouette shape of the upper body, a method of detecting a face, a method of detecting a person by learning other feature amounts, and the like.
The area number counting unit 404 detects the number of persons on the determination areas 310, 320, and 330 using a human body detection parameter or the like, and counts based on the detection result. The area setting unit 407 sets a determination area as illustrated in FIG. 3 according to an input operation or the like via the input device 410.
The matrix state determination unit 405 determines whether or not each determination region is congested based on the result of counting the number of people for each determination region, and determines whether the adjacent determination region is congested or not. It is determined whether or not the determination area is in a matrix state.
The result output unit 406 outputs the determination result of the matrix state determination unit 405. The result output unit 406 outputs the determination result to a file, displays it, or sends it to another device.

図6は、情報処理の一例を示すフローチャートである。図6(a)が主たる処理であり図6(b)はS507の処理の詳細である。
S501で画像取得部402は、画像を取得する。
S502で人体検出部403は、取得された画像の処理対象の判定領域から人体を検出する。
S504で領域人数カウント部404は、処理対象の判定領域内の人体検出数をカウントする。
S505で行列状態判定部405は、判定領域の混雑状態を判定する。例えば、CPU10は、入力装置130等を介した入力操作に応じて、判定領域ごとにあらかじめ人数の閾値を設定し、RAM11、ROM12、外部記憶装置13等のファイル等に設定しておく。行列状態判定部405は、処理対象の判定領域に対する人数の閾値をファイル等より取得し、処理対象の判定領域から検出された人体の数が取得した閾値に達している場合、処理対象の判定領域を混雑状態と判定する。S505の処理は、決定の処理の一例である。
S506で行列状態判定部405は、全ての判定領域に対する処理を終了したか否かを判定する。行列状態判定部405は、全ての判定領域に対する処理を終了したと判定すると(S506においてYES)、S507に進み、全ての判定領域に対する処理を終了していないと判定すると(S506においてNO)、S504に処理を戻す。
S507で行列状態判定部405は、混雑状態と判定された判定領域に基づき特定の判定領域が行列状態か否かを判定する。例えば、行列状態判定部405は、所定の隣接する判定領域から行列が伸びてきたか否かに基づき特定の判定領域が行列状態か否かを判定する。S507の処理の詳細は、図6(b)に示す。
S508で結果出力部406は、S507の判定結果に基づき結果を出力する。結果出力部406は、結果を、ファイル出力したり、表示出力したり、他の装置等へ送信出力したりする。
S510で結果出力部406は、図6(a)に示すフローチャートの処理を終了するか否かを判定する。結果出力部406は、処理を終了すると判定すると(S510においてYES)、図6(a)に示すフローチャートの処理を終了し、処理を終了しないと判定すると(S510においてNO)、S501に処理を戻す。
FIG. 6 is a flowchart illustrating an example of information processing. FIG. 6A shows the main processing, and FIG. 6B shows details of the processing in S507.
In step S501, the image acquisition unit 402 acquires an image.
In step S <b> 502, the human body detection unit 403 detects a human body from the processing target determination area of the acquired image.
In step S504, the area number counting unit 404 counts the number of human bodies detected in the determination area to be processed.
In S505, the matrix state determination unit 405 determines the congestion state of the determination region. For example, the CPU 10 sets a threshold for the number of people in advance for each determination area in accordance with an input operation via the input device 130 or the like, and sets it in a file or the like in the RAM 11, ROM 12, external storage device 13, or the like. The matrix state determination unit 405 acquires the threshold value of the number of persons for the determination area to be processed from a file or the like, and when the number of human bodies detected from the determination area to be processed reaches the acquired threshold value, the determination area for the processing object Is determined to be congested. The process of S505 is an example of a determination process.
In step S <b> 506, the matrix state determination unit 405 determines whether the processing for all the determination regions has been completed. If the matrix state determination unit 405 determines that the processing for all the determination regions has been completed (YES in S506), the process proceeds to S507, and if it is determined that the processing for all the determination regions has not been completed (NO in S506), S504 Return processing to.
In S507, the matrix state determination unit 405 determines whether or not the specific determination region is in the matrix state based on the determination region determined to be in the congested state. For example, the matrix state determination unit 405 determines whether or not a specific determination region is in a matrix state based on whether or not the matrix extends from a predetermined adjacent determination region. Details of the processing of S507 are shown in FIG.
In S508, the result output unit 406 outputs a result based on the determination result in S507. The result output unit 406 outputs the result to a file, displays it, and sends it to another device.
In step S510, the result output unit 406 determines whether to end the process of the flowchart illustrated in FIG. If the result output unit 406 determines to end the process (YES in S510), it ends the process of the flowchart shown in FIG. 6A, and if it determines not to end the process (NO in S510), returns the process to S501. .

S507の詳細を図6(b)のS520からS525までに示す。S507は特定の判定領域が行列状態か否かを判定するものである。判定したい領域はNである。
S520で行列状態判定部405は、行列状態フラグを真とする。
S521で行列状態判定部405は、判定領域の領域変数Rを1とする。
S522で行列状態判定部405は、S505の判定結果に基づきRが示す領域が混雑状態かどうかを判定する。行列状態判定部405は、Rが示す領域が混雑状態でない場合(S522においてNO)、S523に処理を進め、Rが示す領域が混雑状態である場合(S522においてYES)、S524に処理を進める。
S523で行列状態判定部405は、行列状態フラグを偽とする。
S524で行列状態判定部405は、Rの値を1つ増加(インクリメント)する。
S525で行列状態判定部405は、領域Nまでの判定が完了したか否かを判定する。行列状態判定部405は、領域Nまでの判定が完了したと判定すると(S525においてYES)、図6(b)に示すフローチャートの処理を終了し、領域Nまでの判定が完了していないと判定すると(S525においてNO)、S522の処理に戻る。
図6(b)の処理によって領域Nが行列状態かどうかを判定できる。
S520からS525までの処理はNが数個の場合、実装を簡略化できる。例えばN=3の場合、「領域1と領域2と領域3とが全て混雑状態の場合に領域3が行列状態にある」といった論理式による実装が可能である。
またS505の混雑状態の判定において、行列状態判定部405は、どの程度の人数に達すれば混雑状態と判定するかの閾値を、直近の期間の判定領域内の人体検出数の統計量に基づいて決定するようにしてもよい。例えば、行列状態判定部405は、直近の期間の判定領域内の人体検出数の平均値、最頻値に対して所定の定数を乗算した値を用いて閾値を決定するようにしてもよい。
Details of S507 are shown from S520 to S525 in FIG. In step S507, it is determined whether or not the specific determination region is in a matrix state. The area to be determined is N.
In S520, the matrix state determination unit 405 sets the matrix state flag to true.
In S521, the matrix state determination unit 405 sets the region variable R of the determination region to 1.
In step S522, the matrix state determination unit 405 determines whether the region indicated by R is congested based on the determination result in step S505. If the area indicated by R is not congested (NO in S522), the matrix state determination unit 405 proceeds to S523, and if the area indicated by R is congested (YES in S522), the process advances to S524.
In S523, the matrix state determination unit 405 sets the matrix state flag to false.
In S524, the matrix state determination unit 405 increases (increments) the value of R by one.
In step S525, the matrix state determination unit 405 determines whether the determination up to the region N has been completed. If the matrix state determination unit 405 determines that the determination up to the region N has been completed (YES in S525), the process of the flowchart illustrated in FIG. 6B ends, and it is determined that the determination up to the region N has not been completed. Then (NO in S525), the process returns to S522.
It can be determined whether or not the region N is in a matrix state by the processing of FIG.
The processing from S520 to S525 can be simplified when N is several. For example, when N = 3, implementation by a logical expression such as “region 3 is in a matrix state when region 1, region 2, and region 3 are all congested” is possible.
Further, in the determination of the congestion state in S505, the matrix state determination unit 405 determines a threshold value for determining the number of people to reach the congestion state based on the statistic of the number of detected human bodies in the determination region in the most recent period. It may be determined. For example, the matrix state determination unit 405 may determine the threshold using a value obtained by multiplying the average value and the mode value of the number of detected human bodies in the determination region in the most recent period by a predetermined constant.

以上の方法によれば、CPU10は、行列の先頭から末尾に向けて判定領域を配置し、人物検出結果を用いて行列の混雑状態を判別する。次に、CPU10は、行列の混雑状態に基づいて、判定領域の行列状態を判定する。これにより、CPU10は、正確な人数カウントに基づく判定を行うことができる。結果として、CPU10は、所定の位置まで行列が伸びた場合に誘導のための係員を増派する等の対処を効率よく行うことができる。   According to the above method, the CPU 10 arranges the determination areas from the top to the end of the matrix, and determines the congestion state of the matrix using the person detection result. Next, the CPU 10 determines the matrix state of the determination region based on the congestion state of the matrix. Thereby, the CPU 10 can make a determination based on an accurate number of people. As a result, the CPU 10 can efficiently take measures such as increasing the number of staff for guidance when the procession extends to a predetermined position.

<変形例1>
上述した実施形態の変形例としては、PC103は、人体検出機能に加えて、人体追尾機能を有し、人体の位置に加えて人体の移動速度も検出する。判定領域を単に通過する人物も検出されるが、このような人物は、行列に並んでいる人物と比較して移動速度が速いと予想される。したがって、PC103は、各判定領域において、移動速度が一定値以上の人体は、人数カウントの対象から除外する(移動速度が一定値に満たないオブジェクトの数に基づいて混雑状態かどうか判定することになる)。処理としては、PC103は、図6のS502の後に、移動速度が一定値以上の人体は、人数カウントの対象から除外する人体追尾処理を追加する。以上により、真に行列待ち状態にある人物を検出し、行列状態の判別に用いる結果、判別精度を向上することができる。
<Modification 1>
As a modification of the above-described embodiment, the PC 103 has a human body tracking function in addition to the human body detection function, and detects the moving speed of the human body in addition to the position of the human body. A person who simply passes through the determination area is also detected, but such a person is expected to have a higher moving speed than the persons lined up in the matrix. Therefore, in each determination area, the PC 103 excludes the human body whose moving speed is equal to or higher than a certain value from the target of counting the number of persons (determining whether the moving state is congested based on the number of objects whose moving speed is less than the predetermined value). Become). As a process, the PC 103 adds a human body tracking process for excluding a human body whose moving speed is equal to or greater than a certain value after S502 in FIG. As described above, it is possible to improve the discrimination accuracy as a result of detecting a person who is truly waiting in a queue and using it to discriminate the queue state.

<変形例2>
上述した実施形態の変形例としては、複数のカメラを用いて行列の判定領域を定義するようにしてもよい。領域設定部407は、入力装置410を介した入力操作等に応じて図7に示したような判定領域を設定する。これは行列の形状が複雑である場合に効果がある。例えば図7において、判定領域(2)320は、カメラ1の検出領域2(322)とカメラ2の検出領域1(323)とから構成される。カメラ1の検出領域2(322)は、カメラ1から取得された画像の部分領域であり、カメラ2の検出領域1(323)は、カ
メラ2から取得された画像の部分領域である。判定領域(2)320における人数カウント数は検出領域2(322)と検出領域1(323)との人数カウント数の和である。同様に判定領域(3)330は、カメラ2の検出領域2(332)とカメラ3の検出領域3(333)とから構成される。カメラ2の検出領域2(332)は、カメラ2から取得された画像の部分領域である。カメラ3の検出領域3(333)は、カメラ3から取得された画像の部分領域である。判定領域(3)330における人数カウント数は検出領域3(333)と検出領域2(332)とのカウント数の和である。
複数のカメラを用いれば、ある判定領域を1台のカメラの視野に収めることのできない場合、行列の形状が複雑で隠れが生じる場合等に対応できる。また、行列が奥行き方向に伸びており、画面内の位置によって人物検出ができない場合があるときにも有効である。
<Modification 2>
As a modification of the above-described embodiment, a matrix determination region may be defined using a plurality of cameras. The area setting unit 407 sets a determination area as shown in FIG. 7 according to an input operation or the like via the input device 410. This is effective when the shape of the matrix is complicated. For example, in FIG. 7, the determination area (2) 320 includes a detection area 2 (322) of the camera 1 and a detection area 1 (323) of the camera 2. The detection area 2 (322) of the camera 1 is a partial area of the image acquired from the camera 1, and the detection area 1 (323) of the camera 2 is a partial area of the image acquired from the camera 2. The number of people counted in the determination region (2) 320 is the sum of the number of people counted in the detection region 2 (322) and the detection region 1 (323). Similarly, the determination area (3) 330 includes a detection area 2 (332) of the camera 2 and a detection area 3 (333) of the camera 3. The detection area 2 (332) of the camera 2 is a partial area of the image acquired from the camera 2. The detection area 3 (333) of the camera 3 is a partial area of the image acquired from the camera 3. The number of people counted in the determination area (3) 330 is the sum of the count numbers of the detection area 3 (333) and the detection area 2 (332).
If a plurality of cameras are used, it is possible to cope with a case where a certain determination region cannot be accommodated in the field of view of one camera, a case where the shape of the matrix is complicated and hiding occurs. It is also effective when the matrix extends in the depth direction and there is a case where a person cannot be detected depending on the position in the screen.

<実施形態2>
実施形態2としては、行列状態判定部405は、行列状態の判定に基づいて行列末尾の判定を行うこともできる。例えば、行列状態判定部405は、判定領域Rが先頭から順に連続して混雑状態か否かを確認し、混雑状態でなくなった領域の一つ手前の領域を末尾領域とするものである。
本実施形態の処理では、図6のS507の行列状態判定処理(S520からS525まで)を図8のように差し替える。Rは判定領域を示す変数である。
S701で行列状態判定部405は、Rを0に初期化する。
S702で行列状態判定部405は、判定領域R+1が混雑状態かどうかを判定する。行列状態判定部405は、判定領域R+1が混雑状態である場合(S702においてYES)、S703に処理を進め、判定領域R+1が混雑状態でない場合(S702においてNO)、S705に処理を進める。
S703で行列状態判定部405は、Rの値を1つ増加(インクリメント)する。
S704で行列状態判定部405は、全判定領域に対して処理を完了したか否かを判定する。行列状態判定部405は、全判定領域に対して処理を完了した場合、すなわち、R=Nの場合(S704においてYES)、S705に処理を進め、全判定領域に対して処理を完了していない場合(S704においてNO)、S702の処理に戻る。
S705で行列状態判定部405は、判定領域Rを末尾とする。
<Embodiment 2>
As the second embodiment, the matrix state determination unit 405 can also determine the end of the matrix based on the determination of the matrix state. For example, the matrix state determination unit 405 confirms whether the determination region R is continuously congested in order from the top, and sets the region immediately before the region that is no longer congested as the end region.
In the process of this embodiment, the matrix state determination process (S520 to S525) in S507 of FIG. 6 is replaced as shown in FIG. R is a variable indicating the determination region.
In step S701, the matrix state determination unit 405 initializes R to 0.
In S702, the matrix state determination unit 405 determines whether or not the determination region R + 1 is congested. If the determination region R + 1 is in a congested state (YES in S702), the matrix state determination unit 405 proceeds to S703, and if the determination region R + 1 is not in a congested state (NO in S702), the process proceeds to S705.
In step S703, the matrix state determination unit 405 increments the value of R by one.
In step S704, the matrix state determination unit 405 determines whether the processing has been completed for all determination regions. When the process is completed for all the determination areas, that is, when R = N (YES in S704), the matrix state determination unit 405 proceeds to S705 and has not completed the process for all the determination areas. If so (NO in S704), the process returns to S702.
In S705, the matrix state determination unit 405 sets the determination region R as the end.

以上の処理の結果、末尾が判定領域0の場合は、CPU10は、行列が存在しないことが分かる。また末尾が判定領域数と同じNの場合は、CPU10は、事前に設定した判定領域群の最後まで行列が伸びており、真の末尾は設定した判定領域の他にあることが分かる。CPU10は、判定の結果、行列の情報(例えば、末尾の判定領域の情報)等を表示装置140等に出力することができる。   As a result of the above processing, when the end is the determination area 0, the CPU 10 knows that there is no matrix. When the end is N, which is the same as the number of determination areas, the CPU 10 knows that the matrix extends to the end of the predetermined determination area group, and the true end is in addition to the set determination area. As a result of the determination, the CPU 10 can output information on the matrix (for example, information on the determination area at the end) or the like to the display device 140 or the like.

<実施形態3>
上述した実施形態では、PC103が各機能を有し、処理を行っていた。実施形態3では、上述した実施形態においてPC103が行っていた処理等をPC103とカメラ102とが行う例を説明する。
図9は、カメラ102のハードウェア構成の一例を示す図である。カメラ102は、各種のユニット(20〜26)を含んで構成される。撮像部20は、光学系と制御装置とを有し、シーンに合わせて光学系を制御し画像を撮像するユニットである。CPU21は、各種のプログラムを実行し、様々な機能を実現するユニットである。RAM22は、各種の情報を記憶するユニットである。また、RAM22は、CPU21の一時的な作業記憶領域としても利用されるユニットである。ROM23は、各種のプログラム等を記憶するユニットである。例えば、CPU21は、ROM23に記憶されているプログラムをRAM22にロードしてプログラムを実行する。これにより、図10に示されるようなカメラ102のソフトウェア構成及び後述する図11(a)のフローチャートの各ステップの処理が実現される。カメラ102のソフトウェア構成及び後述する図11(a)のフローチャートの各ステップの全部又は一部については専用のハードウェアを用いて実現されてもよい。
通信部24は、カメラ102をネットワークに接続するためのユニットである。入力部25は、ユーザの操作に基づいて操作情報をCPU21に入力するためのユニットである。表示部26は、CPU21の処理の結果等を表示するためのユニットである。
<Embodiment 3>
In the above-described embodiment, the PC 103 has each function and performs processing. In the third embodiment, an example will be described in which the PC 103 and the camera 102 perform processing and the like performed by the PC 103 in the above-described embodiment.
FIG. 9 is a diagram illustrating an example of a hardware configuration of the camera 102. The camera 102 includes various units (20 to 26). The imaging unit 20 includes an optical system and a control device, and is a unit that captures an image by controlling the optical system according to a scene. The CPU 21 is a unit that executes various programs and realizes various functions. The RAM 22 is a unit that stores various types of information. The RAM 22 is a unit that is also used as a temporary work storage area for the CPU 21. The ROM 23 is a unit that stores various programs. For example, the CPU 21 loads a program stored in the ROM 23 into the RAM 22 and executes the program. Thereby, the software configuration of the camera 102 as shown in FIG. 10 and the processing of each step in the flowchart of FIG. The software configuration of the camera 102 and all or some of the steps in the flowchart of FIG. 11A described later may be realized using dedicated hardware.
The communication unit 24 is a unit for connecting the camera 102 to a network. The input unit 25 is a unit for inputting operation information to the CPU 21 based on a user operation. The display unit 26 is a unit for displaying the result of processing by the CPU 21.

図10(a)は、カメラ102のソフトウェア構成の一例を示す図である。
カメラ102は、ソフトウェア構成として、画像取得部501、人体検出部502、領域人数カウント部503、領域設定部504、通信部505を含む。
画像取得部501は、撮像部20で撮像された画像を取得し、画像処理可能な形式に変換する。
人体検出部502は、取得された画像中の人物位置、向きを検出する。人体検出部502による検出処理は、特定の人物検出方式に依存するものではない。例えば、人体検出部502は、上半身のシルエット形状を検出する方式、顔を検出する方式、その他の特徴量を学習させて人物を検出する方式等を利用して人物を検出する。
領域人数カウント部503は、判定領域上にある人物の人数をカウントする。例えば、領域人数カウント部503は、図3の判定領域310、320、330上にある人物の人数を、人体検出のパラメータ等を用いて検出し、検出結果に基づいてカウントする。
通信部505は、領域人数カウント部503がカウントした結果を、ネットワーク経由でPC103に送信する。また、通信部505は、ネットワーク経由でPC103より情報等を受信する。
領域設定部504は、入力部25等を介した入力操作、又は通信部505を介してPC103より受信した領域設定の設定情報に応じて図3に示したような判定領域を設定する。領域設定部504は、同一画像上に複数の領域を設定することもできるし、行列が一台のカメラの視野に収まらない場合、複数の画像上に複数の領域を設定することもできる。
FIG. 10A is a diagram illustrating an example of a software configuration of the camera 102.
The camera 102 includes an image acquisition unit 501, a human body detection unit 502, an area number counting unit 503, an area setting unit 504, and a communication unit 505 as software configurations.
The image acquisition unit 501 acquires the image captured by the imaging unit 20 and converts it into a format that can be processed.
The human body detection unit 502 detects a person position and orientation in the acquired image. The detection process by the human body detection unit 502 does not depend on a specific person detection method. For example, the human body detection unit 502 detects a person using a method of detecting a silhouette shape of the upper body, a method of detecting a face, a method of detecting a person by learning other feature amounts, and the like.
The area number counting unit 503 counts the number of persons on the determination area. For example, the area number counting unit 503 detects the number of persons on the determination areas 310, 320, and 330 in FIG. 3 using a human body detection parameter or the like, and counts based on the detection result.
The communication unit 505 transmits the result counted by the area number counting unit 503 to the PC 103 via the network. The communication unit 505 receives information from the PC 103 via the network.
The area setting unit 504 sets a determination area as shown in FIG. 3 according to the input operation via the input unit 25 or the like, or the area setting setting information received from the PC 103 via the communication unit 505. The region setting unit 504 can set a plurality of regions on the same image, or can set a plurality of regions on the plurality of images when the matrix does not fit in the field of view of one camera.

図10(b)は、PC103のソフトウェア構成の一例を示す図である。
PC103は、ソフトウェア構成として、通信部506、行列状態判定部507、結果出力部508、領域設定部509を含む。
通信部506は、ネットワーク経由でカメラ102より判定領域上にある人物の人数のカウント結果を受信する。また、通信部506は、領域設定部509において領域設定の設定情報が設定された場合、ネットワーク経由でカメラ102に設定情報を送信する。
行列状態判定部507は、判定領域ごとの人数カウントの結果及び領域設定部509によって設定されたパラメータに基づいて、判定領域ごとに混雑状態か否かを判定し、隣接する判定領域が混雑状態であるか否かに基づいて、処理対象の判定領域が行列状態か否かを判定する。
領域設定部509は、表示装置140上のGUI(グラフィカル・ユーザ・インターフェース)と入力装置130とを介してユーザ操作によって設定された行列状態の判定に関わるパラメータの設定を行う。また、領域設定部509は、表示装置140上のGUIと入力装置130とを介してユーザ操作によって設定された領域設定の設定情報の設定を行う。
結果出力部508は、行列状態判定部507の判定の結果を出力する。結果出力部508は、判定結果を、外部記憶装置13にファイル出力したり、表示装置140に表示出力したり、他の装置等へ送信出力したりする。
本実施形態において、カメラ102とPC103との間の通信は特定の通信方式やプロトコルに依存するものではない。例えば、プロトコルは、HTTP(HyperText Transfer Protocol)やRTP(Real−time Transport Protocol)、ONVIF(Opern Network Video InterfaceForum)であってもよい。
FIG. 10B is a diagram illustrating an example of a software configuration of the PC 103.
The PC 103 includes a communication unit 506, a matrix state determination unit 507, a result output unit 508, and an area setting unit 509 as software configurations.
The communication unit 506 receives the count result of the number of persons on the determination area from the camera 102 via the network. The communication unit 506 transmits the setting information to the camera 102 via the network when the region setting setting information is set in the region setting unit 509.
The matrix state determination unit 507 determines whether or not each determination region is congested based on the result of counting the number of people for each determination region and the parameters set by the region setting unit 509, and the adjacent determination region is congested. Based on whether or not there is, it is determined whether or not the determination region to be processed is in a matrix state.
The area setting unit 509 sets parameters related to determination of a matrix state set by a user operation via a GUI (graphical user interface) on the display device 140 and the input device 130. The area setting unit 509 sets area setting setting information set by a user operation via the GUI on the display device 140 and the input device 130.
The result output unit 508 outputs the determination result of the matrix state determination unit 507. The result output unit 508 outputs the determination result as a file to the external storage device 13, displays it on the display device 140, and transmits it to another device or the like.
In the present embodiment, communication between the camera 102 and the PC 103 does not depend on a specific communication method or protocol. For example, the protocol may be HTTP (HyperText Transfer Protocol), RTP (Real-time Transport Protocol), and ONVIF (Open Network Video Interface).

図11は、実施形態3の情報処理の一例を示すフローチャートである。図11(a)は、カメラ102側の情報処理の一例を示すフローチャートである。
S1001で画像取得部501は、画像を取得する。
S1002で人体検出部502は、取得された画像の処理対象の判定領域から人体を検出する。
S1004で領域人数カウント部503は、処理対象の判定領域内の人体検出数をカウントする。
S1006で領域人数カウント部503は、全ての判定領域に対するカウントの処理を終了したか否かを判定する。領域人数カウント部503は、全ての判定領域に対するカウントの処理を終了したと判定すると(S1006においてYES)、S1008に進み、全ての判定領域に対するカウントの処理を終了していないと判定すると(S1006においてNO)、S1004に処理を戻す。
S1008で通信部505は、領域人数カウント部503がカウントした結果を、ネットワーク経由でPC103に送信する。
S1010で通信部505は、図11(a)に示すフローチャートの処理を終了するか否かを判定する。通信部505は、処理を終了すると判定すると(S1010においてYES)、図11(a)に示すフローチャートの処理を終了し、処理を終了しないと判定すると(S1010においてNO)、S1001に処理を戻す。
FIG. 11 is a flowchart illustrating an example of information processing according to the third embodiment. FIG. 11A is a flowchart illustrating an example of information processing on the camera 102 side.
In step S1001, the image acquisition unit 501 acquires an image.
In step S <b> 1002, the human body detection unit 502 detects a human body from the determination area to be processed of the acquired image.
In step S <b> 1004, the area number counting unit 503 counts the number of human bodies detected in the determination area to be processed.
In step S <b> 1006, the area number counting unit 503 determines whether the counting process for all the determination areas is finished. If the area number counting unit 503 determines that the counting process for all the determination areas has been completed (YES in S1006), the process proceeds to S1008 and determines that the counting process for all the determination areas has not been completed (in S1006). NO), the process is returned to S1004.
In step S1008, the communication unit 505 transmits the result counted by the area number counting unit 503 to the PC 103 via the network.
In step S1010, the communication unit 505 determines whether to end the process of the flowchart illustrated in FIG. If communication unit 505 determines to end the process (YES in S1010), it ends the process of the flowchart shown in FIG. 11A, and determines that the process is not ended (NO in S1010), returns the process to S1001.

図11(b)は、PC103側の情報処理の一例を示すフローチャートである。
S1020で通信部506は、カメラ102(情報処理システムに複数のカメラが含まれる場合は複数のカメラ)から全ての判定領域内の人体検出のカウント結果を受信する。
S1021で行列状態判定部507は、行列状態フラグを真とする。
S1022で行列状態判定部507は、判定領域の領域変数Rを1とする。
S1023で行列状態判定部507は、カウント結果に基づき判定領域の混雑状態を判定する。例えば、CPU10は、入力装置130等を介した入力操作に応じて、判定領域ごとにあらかじめ人数の閾値を設定し、RAM11、ROM12、外部記憶装置13等のファイル等に設定しておく。行列状態判定部507は、処理対象の判定領域に対する人数の閾値をファイル等より取得し、処理対象の判定領域から検出された人体の数が取得した閾値に達している場合、処理対象の判定領域を混雑状態と判定する。S1023の処理は、決定の処理の一例である。
S1024で行列状態判定部507は、S1023の判定結果に基づきRが示す領域が混雑状態かどうかを判定する。行列状態判定部507は、Rが示す領域が混雑状態でない場合(S1024においてNO)、S1026に処理を進め、Rが示す領域が混雑状態である場合(S1024においてYES)、S1025に処理を進める。
S1025で行列状態判定部507は、行列状態フラグを偽とする。
S1026で行列状態判定部507は、Rの値を1つ増加(インクリメント)する。
S1027で行列状態判定部507は、領域Nまでの判定が完了したか否かを判定する。行列状態判定部507は、領域Nまでの判定が完了したと判定すると(S1027においてYES)、S1028に処理を進め、領域Nまでの判定が完了していないと判定すると(S1027においてNO)、S1023の処理に戻る。
S1028で結果出力部508は、判定結果を出力する。結果出力部508は、判定結果を、外部記憶装置13にファイル出力したり、表示装置140に表示出力したり、他の装置等へ送信出力したりする。
S1029で結果出力部508は、図11(b)に示すフローチャートの処理を終了するか否かを判定する。結果出力部508は、処理を終了すると判定すると(S1029においてYES)、図11(b)に示すフローチャートの処理を終了し、処理を終了しないと判定すると(S1029においてNO)、S1020に処理を戻す。
FIG. 11B is a flowchart illustrating an example of information processing on the PC 103 side.
In step S <b> 1020, the communication unit 506 receives the human body detection count results in all determination areas from the camera 102 (a plurality of cameras when the information processing system includes a plurality of cameras).
In S1021, the matrix state determination unit 507 sets the matrix state flag to true.
In step S1022, the matrix state determination unit 507 sets the region variable R of the determination region to 1.
In step S1023, the matrix state determination unit 507 determines the congestion state of the determination region based on the count result. For example, the CPU 10 sets a threshold for the number of people in advance for each determination area in accordance with an input operation via the input device 130 or the like, and sets it in a file or the like in the RAM 11, ROM 12, external storage device 13, or the like. The matrix state determination unit 507 acquires the threshold value of the number of persons for the determination area to be processed from a file or the like, and when the number of human bodies detected from the determination area to be processed reaches the acquired threshold value, the determination area for the processing object Is determined to be congested. The process of S1023 is an example of a determination process.
In step S1024, the matrix state determination unit 507 determines whether the region indicated by R is in a congested state based on the determination result in step S1023. If the area indicated by R is not congested (NO in S1024), the matrix state determination unit 507 proceeds to S1026. If the area indicated by R is congested (YES in S1024), the process advances to S1025.
In step S1025, the matrix state determination unit 507 sets the matrix state flag to false.
In S1026, the matrix state determination unit 507 increments the value of R by one.
In step S1027, the matrix state determination unit 507 determines whether the determination up to the region N is completed. If the matrix state determination unit 507 determines that the determination up to the region N has been completed (YES in S1027), the process proceeds to S1028, and if it is determined that the determination up to the region N has not been completed (NO in S1027), S1023 Return to the process.
In step S1028, the result output unit 508 outputs the determination result. The result output unit 508 outputs the determination result as a file to the external storage device 13, displays it on the display device 140, and transmits it to another device or the like.
In step S1029, the result output unit 508 determines whether to end the process of the flowchart illustrated in FIG. If the result output unit 508 determines to end the process (YES in S1029), it ends the process of the flowchart shown in FIG. 11B, and if it determines not to end the process (NO in S1029), returns the process to S1020. .

本実施形態によれば、少なくとも一つのカメラで行列の人数カウントを行い、カウント結果をPC103に送信する。そして、PC103で混雑状態の判定を行う。これにより行列待ち人数の観測に複数のカメラが必要となる構成において、PCの負荷を軽減することができる。   According to this embodiment, the number of people in the queue is counted by at least one camera, and the count result is transmitted to the PC 103. Then, the PC 103 determines the congestion state. As a result, the load on the PC can be reduced in a configuration in which a plurality of cameras are required for observing the queued number of people.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium. It can also be realized by a process in which one or more processors in the computer of the system or apparatus read and execute the program. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

以上、本発明の実施形態の一例について詳述したが、本発明は係る特定の実施形態に限定されるものではない。
例えば、図5、図10(b)に示したPC103のソフトウェア構成の一部又は全てをハードウェア構成としてPC103に実装してもよい。また、PC103のハードウェア構成としてCPU、ROM、RAM、外部記憶装置、NIC等は1つである必要はない。複数のCPUがプログラムに基づき、複数のRAM、ROM、外部記憶装置に記憶されたデータ等を用いながら処理を実行するようにしてもよい。また、CPUに替えてGPU(Graphics Processing Unit)を用いることとしてもよい。
また、図10(a)に示したカメラ102のソフトウェア構成の一部又は全てをハードウェア構成としてカメラ102に実装してもよい。また、カメラ102のハードウェア構成としてCPU、RAM、ROM、通信部等は1つである必要はない。複数のCPUがプログラムに基づき、複数のRAM、ROMに記憶されたデータ等を用いながら処理を実行するようにしてもよい。また、CPUに替えてGPUを用いることとしてもよい。
上述した各実施形態では、人体が行列を構成している場合について説明したが、他のオブジェクト、例えば、自動車、動物等であってもよい。
The exemplary embodiment of the present invention has been described in detail above, but the present invention is not limited to the specific embodiment.
For example, a part or all of the software configuration of the PC 103 illustrated in FIGS. 5 and 10B may be mounted on the PC 103 as a hardware configuration. The hardware configuration of the PC 103 does not have to be one CPU, ROM, RAM, external storage device, NIC, or the like. A plurality of CPUs may execute processing based on a program using a plurality of RAMs, ROMs, data stored in an external storage device, and the like. Moreover, it is good also as using GPU (Graphics Processing Unit) instead of CPU.
Further, a part or all of the software configuration of the camera 102 illustrated in FIG. 10A may be implemented in the camera 102 as a hardware configuration. Further, the hardware configuration of the camera 102 does not have to be one CPU, RAM, ROM, communication unit, or the like. A plurality of CPUs may execute processing based on a program using data stored in a plurality of RAMs and ROMs. Moreover, it is good also as using GPU instead of CPU.
In each of the above-described embodiments, the case where the human body forms a matrix has been described. However, other objects such as a car and an animal may be used.

以上、上述した各実施形態によれば、行列の判定を精度よく行うことができる。   As mentioned above, according to each embodiment mentioned above, the determination of a matrix can be performed accurately.

10 CPU
102 カメラ
103 PC
10 CPU
102 Camera 103 PC

Claims (12)

画像の判定領域内のオブジェクトを検出する検出手段と、
前記検出手段により検出された前記判定領域内のオブジェクトの数に基づき前記判定領域が混雑状態か否かを決定する決定手段と、
前記決定手段により第1の判定領域が混雑状態と決定され、かつ、前記第1の判定領域に隣接する第2の判定領域が混雑状態と決定された場合、前記第2の判定領域を行列状態と判定する判定手段と、
を有する情報処理装置。
Detection means for detecting an object in the determination region of the image;
Determining means for determining whether or not the determination area is congested based on the number of objects in the determination area detected by the detection means;
When the determination unit determines that the first determination region is congested and the second determination region adjacent to the first determination region is determined to be congested, the second determination region is set as a matrix state. Determining means for determining
An information processing apparatus.
少なくとも1つ以上のカメラで撮像された画像を取得する取得手段を更に有し、
前記検出手段は、前記取得手段により取得された画像の判定領域内のオブジェクトを検出し、
前記決定手段は、前記検出手段により検出された前記判定領域内のオブジェクトの数に基づき前記判定領域が混雑状態か否かを決定する請求項1記載の情報処理装置。
And further comprising an acquisition means for acquiring an image captured by at least one camera,
The detection means detects an object in a determination region of the image acquired by the acquisition means,
The information processing apparatus according to claim 1, wherein the determination unit determines whether or not the determination region is congested based on the number of objects in the determination region detected by the detection unit.
前記判定領域は少なくとも1つ以上の検出領域を含み、
前記検出領域は少なくとも1つ以上のカメラで撮像された画像の部分領域である請求項1又は2記載の情報処理装置。
The determination area includes at least one detection area,
The information processing apparatus according to claim 1, wherein the detection area is a partial area of an image captured by at least one camera.
前記判定領域を設定する設定手段を更に有する請求項1乃至3何れか1項記載の情報処理装置。   The information processing apparatus according to claim 1, further comprising a setting unit that sets the determination area. 前記決定手段は、判定領域内のオブジェクトの数が設定された閾値の数に達している場合、混雑状態であると決定する請求項1乃至4何れか1項記載の情報処理装置。   The information processing apparatus according to any one of claims 1 to 4, wherein the determination unit determines that the object is congested when the number of objects in the determination area reaches a set threshold value. 前記決定手段は、判定領域内のオブジェクトの数の統計量に基づいて前記閾値を設定する請求項5記載の情報処理装置。   The information processing apparatus according to claim 5, wherein the determination unit sets the threshold based on a statistic of the number of objects in the determination area. 前記決定手段は、判定領域内のオブジェクトのうち移動速度が一定値に満たないオブジェクトの数に基づき前記判定領域が混雑状態か否かを決定する請求項1乃至6何れか1項記載の情報処理装置。   7. The information processing according to claim 1, wherein the determination unit determines whether or not the determination region is in a congested state based on the number of objects whose moving speed is less than a certain value among the objects in the determination region. apparatus. 前記決定手段により第1の判定領域が混雑状態と決定され、かつ、前記第1の判定領域に隣接する第2の判定領域が混雑状態と決定され、かつ、前記第2の判定領域に隣接する第3の判定領域が混雑状態でないと決定された場合、前記判定手段は、前記第2の判定領域を行列の末尾領域と判定する請求項1乃至7何れか1項記載の情報処理装置。   The determination means determines that the first determination area is congested, and the second determination area adjacent to the first determination area is determined to be congested and is adjacent to the second determination area. The information processing apparatus according to any one of claims 1 to 7, wherein when it is determined that the third determination region is not congested, the determination unit determines the second determination region as the end region of the matrix. 画像の判定領域内のオブジェクトを検出する検出手段と、
前記検出手段により検出された前記判定領域内のオブジェクトの数に基づき前記判定領域が混雑状態か否かを決定する決定手段と、
前記決定手段により第1の判定領域が混雑状態と決定され、かつ、前記第1の判定領域に隣接する第2の判定領域が混雑状態と決定された場合、前記第2の判定領域を行列状態と判定する判定手段と、
を有する情報処理システム。
Detection means for detecting an object in the determination region of the image;
Determining means for determining whether or not the determination area is congested based on the number of objects in the determination area detected by the detection means;
When the determination unit determines that the first determination region is congested and the second determination region adjacent to the first determination region is determined to be congested, the second determination region is set as a matrix state. Determining means for determining
An information processing system having
少なくとも一つの撮像装置と、情報処理装置と、を含む情報処理システムであって、
前記撮像装置は、
画像の判定領域内のオブジェクトを検出する検出手段と、
前記検出手段により検出された前記判定領域内のオブジェクトの数を前記情報処理装置に送信する送信手段と、
を有し、
前記情報処理装置は、
前記判定領域内のオブジェクトの数を前記撮像装置より受信する受信手段と、
前記受信手段により受信された前記判定領域内のオブジェクトの数に基づき前記判定領域が混雑状態か否かを決定する決定手段と、
前記決定手段により第1の判定領域が混雑状態と決定され、かつ、前記第1の判定領域に隣接する第2の判定領域が混雑状態と決定された場合、前記第2の判定領域を行列状態と判定する判定手段と、
を有する情報処理システム。
An information processing system including at least one imaging device and an information processing device,
The imaging device
Detection means for detecting an object in the determination region of the image;
Transmitting means for transmitting the number of objects in the determination area detected by the detecting means to the information processing apparatus;
Have
The information processing apparatus includes:
Receiving means for receiving the number of objects in the determination area from the imaging device;
Determining means for determining whether the determination area is congested based on the number of objects in the determination area received by the receiving means;
When the determination unit determines that the first determination region is congested and the second determination region adjacent to the first determination region is determined to be congested, the second determination region is set as a matrix state. Determining means for determining
An information processing system having
情報処理装置が実行する情報処理方法であって、
画像の判定領域内のオブジェクトを検出する検出工程と、
前記検出工程により検出された前記判定領域内のオブジェクトの数に基づき前記判定領域が混雑状態か否かを決定する決定工程と、
前記決定工程により第1の判定領域が混雑状態と決定され、かつ、前記第1の判定領域に隣接する第2の判定領域が混雑状態と決定された場合、前記第2の判定領域を行列状態と判定する判定工程と、
を含む情報処理方法。
An information processing method executed by an information processing apparatus,
A detection step of detecting an object in the determination region of the image;
A determination step of determining whether or not the determination region is congested based on the number of objects in the determination region detected by the detection step;
When the determination step determines that the first determination region is congested and the second determination region adjacent to the first determination region is determined to be congested, the second determination region is in a matrix state A determination step for determining
An information processing method including:
コンピュータを、請求項1乃至8何れか1項記載の情報処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the information processing apparatus in any one of Claims 1 thru | or 8.
JP2018025099A 2017-05-12 2018-02-15 Information processing equipment, information processing system, information processing method and program Active JP7009250B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/971,824 US10691956B2 (en) 2017-05-12 2018-05-04 Information processing apparatus, information processing system, information processing method, and storage medium having determination areas corresponding to waiting line

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017095759 2017-05-12
JP2017095759 2017-05-12

Publications (2)

Publication Number Publication Date
JP2018195292A true JP2018195292A (en) 2018-12-06
JP7009250B2 JP7009250B2 (en) 2022-02-10

Family

ID=64571594

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018025099A Active JP7009250B2 (en) 2017-05-12 2018-02-15 Information processing equipment, information processing system, information processing method and program

Country Status (1)

Country Link
JP (1) JP7009250B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020107297A (en) * 2018-12-26 2020-07-09 キヤノン株式会社 Image processing apparatus, image processing method, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002342748A (en) * 2001-05-18 2002-11-29 Av Planning Center:Kk Method and device for detecting queue
JP2009110054A (en) * 2007-10-26 2009-05-21 Panasonic Corp Situation judging device, situation judging method, situation judging program, abnormality judging device, abnormality judging method and abnormality judging program
JP2012212365A (en) * 2011-03-31 2012-11-01 Sony Corp Information processor, congestion degree map generation device, information processing method, program, and recording medium
JP2015087841A (en) * 2013-10-29 2015-05-07 パナソニック株式会社 Congestion status analyzer, congestion status analyzing system, and congestion status analyzing method
US20150169954A1 (en) * 2012-07-18 2015-06-18 Ats Group (Ip Holdings) Limited Image processing to derive movement characteristics for a plurality of queue objects
WO2016002400A1 (en) * 2014-06-30 2016-01-07 日本電気株式会社 Guidance processing device and guidance method
JP2017045438A (en) * 2015-08-27 2017-03-02 株式会社東芝 Image analyzer, image analysis method, image analysis program and image analysis system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002342748A (en) * 2001-05-18 2002-11-29 Av Planning Center:Kk Method and device for detecting queue
JP2009110054A (en) * 2007-10-26 2009-05-21 Panasonic Corp Situation judging device, situation judging method, situation judging program, abnormality judging device, abnormality judging method and abnormality judging program
JP2012212365A (en) * 2011-03-31 2012-11-01 Sony Corp Information processor, congestion degree map generation device, information processing method, program, and recording medium
US20150169954A1 (en) * 2012-07-18 2015-06-18 Ats Group (Ip Holdings) Limited Image processing to derive movement characteristics for a plurality of queue objects
JP2015087841A (en) * 2013-10-29 2015-05-07 パナソニック株式会社 Congestion status analyzer, congestion status analyzing system, and congestion status analyzing method
WO2016002400A1 (en) * 2014-06-30 2016-01-07 日本電気株式会社 Guidance processing device and guidance method
JP2017045438A (en) * 2015-08-27 2017-03-02 株式会社東芝 Image analyzer, image analysis method, image analysis program and image analysis system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020107297A (en) * 2018-12-26 2020-07-09 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP7418074B2 (en) 2018-12-26 2024-01-19 キヤノン株式会社 Image processing device, image processing method, and program

Also Published As

Publication number Publication date
JP7009250B2 (en) 2022-02-10

Similar Documents

Publication Publication Date Title
US11222239B2 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
KR102335045B1 (en) Method for detecting human-object using depth camera and device
US8938092B2 (en) Image processing system, image capture apparatus, image processing apparatus, control method therefor, and program
JP6914699B2 (en) Information processing equipment, information processing methods and programs
JP2020524348A (en) Face image retrieval method and system, photographing device, and computer storage medium
EP2806374A1 (en) Method and system for automatic selection of one or more image processing algorithm
US10691956B2 (en) Information processing apparatus, information processing system, information processing method, and storage medium having determination areas corresponding to waiting line
JP6590609B2 (en) Image analysis apparatus and image analysis method
US11170512B2 (en) Image processing apparatus and method, and image processing system
JP5936561B2 (en) Object classification based on appearance and context in images
KR20160033800A (en) Method for counting person and counting apparatus
EP3107000A2 (en) System and method for detecting outliers in real-time for a univariate time-series signal
AU2020278660B2 (en) Neural network and classifier selection systems and methods
KR101821242B1 (en) Method for counting vehicles based on image recognition and apparatus using the same
CN115861400A (en) Target object detection method, training method and device and electronic equipment
JP7009250B2 (en) Information processing equipment, information processing system, information processing method and program
JP7255173B2 (en) Human detection device and human detection method
CN108334820B (en) Information processing apparatus, information processing method, and storage medium
JP2020091649A (en) Image processing device, image processing system, control method of image processing device, and program
KR101412369B1 (en) Method and apparatus for decting object in image
JP2019207639A (en) Information processing device, imaging apparatus, information processing method, and, program
US20200184483A1 (en) Abnormality detection apparatus, control method, and program
JPWO2020137536A1 (en) Person authentication device, control method, and program
CN112598725A (en) Image processing apparatus, image processing method, and computer readable medium
JPWO2018179119A1 (en) Video analysis device, video analysis method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220112

R151 Written notification of patent or utility model registration

Ref document number: 7009250

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151