JP7387080B1 - People flow measurement system, people flow measurement method, and people flow measurement program - Google Patents

People flow measurement system, people flow measurement method, and people flow measurement program Download PDF

Info

Publication number
JP7387080B1
JP7387080B1 JP2023555348A JP2023555348A JP7387080B1 JP 7387080 B1 JP7387080 B1 JP 7387080B1 JP 2023555348 A JP2023555348 A JP 2023555348A JP 2023555348 A JP2023555348 A JP 2023555348A JP 7387080 B1 JP7387080 B1 JP 7387080B1
Authority
JP
Japan
Prior art keywords
people
flow measurement
people flow
target
dimensional structure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023555348A
Other languages
Japanese (ja)
Inventor
博文 西川
亮史 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP7387080B1 publication Critical patent/JP7387080B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

人流計測システム(90)は、人物検出部(120)と人数計測部(130)と計測人数補正部(140)とを備える。人物検出部(120)は、対象空間を撮像した画像である入力画像に映っている物体であって、対象空間内に存在する物体である対象物体を検出する。人数計測部(130)は、検出された対象物体の数を計測する。計測人数補正部(140)は、対象空間の3次元構造に基づいて生成された係数であって、計測された対象物体の数を補正することに用いられる係数である補正係数を用いて、計測された対象物体の数を補正する。The people flow measurement system (90) includes a person detection section (120), a people measurement section (130), and a measured number of people correction section (140). The person detection unit (120) detects a target object, which is an object appearing in an input image that is a captured image of the target space, and is an object existing within the target space. The people counting section (130) measures the number of detected target objects. The measured number of people correction unit (140) uses a correction coefficient that is generated based on the three-dimensional structure of the target space and is used to correct the number of measured target objects. Correct the number of target objects.

Description

本開示は、人流計測システム、人流計測方法、及び人流計測プログラムに関する。 The present disclosure relates to a people flow measurement system, a people flow measurement method, and a people flow measurement program.

従来の人流計測方式では、画像に基づく人数計測の精度を向上させるために、画像の解析結果と、撮影時の様々な条件とに基づいて得られる補正係数を算出し、算出した補正係数を用いて既存の人数計測手法により得られた人数を補正していた(例えば特許文献1)。画像の解析結果は、具体例として、画像から検出された人体の部位と、画像から得られた動きベクトルとを示す結果である。撮影時の様々な条件は、具体例として画像の撮影時の画角及び撮影方向である。
特許文献1では、本方式を実現するために、撮影装置によって撮影された画像から人体を検出する検出手段と、検出手段により検出された人体の数をカウントするカウント手段と、画像の解析結果及び画像の撮影時の撮影条件のうち少なくとも一方に基づく補正係数を用いて、カウント手段によりカウントされた人体の数を補正する補正手段とを有する技術を開示している。ここで、補正係数は、画像から検出された人体の部位と、画像から得られた動きベクトルと、撮影時の画角及び撮影方向とにより決定される。
In conventional people flow measurement methods, in order to improve the accuracy of people measurement based on images, a correction coefficient is calculated based on the image analysis results and various conditions at the time of shooting, and the calculated correction coefficient is used. The number of people obtained using existing people counting methods was corrected (for example, Patent Document 1). The image analysis result is a result showing, as a specific example, a human body part detected from the image and a motion vector obtained from the image. Specific examples of various conditions at the time of photographing include the angle of view and the direction of photographing at the time of photographing the image.
In Patent Document 1, in order to realize this method, a detection means for detecting a human body from an image photographed by a photographing device, a counting means for counting the number of human bodies detected by the detection means, and an analysis result of the image and a The present invention discloses a technique including a correction means for correcting the number of human bodies counted by the counting means using a correction coefficient based on at least one of the photographing conditions at the time of photographing the image. Here, the correction coefficient is determined based on the part of the human body detected from the image, the motion vector obtained from the image, and the angle of view and shooting direction at the time of shooting.

特開2018-151960号公報Japanese Patent Application Publication No. 2018-151960

特許文献1が開示している技術において、補正係数は、撮影対象である対象空間の3次元構造を考慮せず、撮像された2次元画像における見え方に基づいて算出される。ここで、2次元画像における見え方が同じであっても、対象空間の3次元構造が同じであるとは限らない。そのため、対象空間の3次元構造を考慮せずに算出した補正係数を用いて対象空間内に存在する人体の数を補正すると、人数補正の精度が低下することがある。従って、特許文献1には、対象空間の3次元構造に基づいて算出された補正係数を用いないために人数補正の精度が低下するという課題がある。
本開示は、人流計測方式において、対象空間内における計測人数を比較的高い精度で補正するために、対象空間の3次元構造に基づいて算出された補正係数を用いて計測人数を補正することを目的とする。
In the technique disclosed in Patent Document 1, the correction coefficient is calculated based on the appearance in the captured two-dimensional image without considering the three-dimensional structure of the object space that is the imaging target. Here, even if the appearance in the two-dimensional images is the same, the three-dimensional structure of the target space is not necessarily the same. Therefore, if the number of human bodies present in the target space is corrected using a correction coefficient calculated without considering the three-dimensional structure of the target space, the accuracy of the number of people correction may decrease. Therefore, Patent Document 1 has a problem in that the accuracy of the number of people correction decreases because the correction coefficient calculated based on the three-dimensional structure of the target space is not used.
The present disclosure provides a method for correcting the measured number of people in a target space using a correction coefficient calculated based on the three-dimensional structure of the target space in a people flow measurement method in order to correct the measured number of people in the target space with relatively high accuracy. purpose.

本開示に係る人流計測システムは、
対象空間を撮像した画像である入力画像に映っている物体であって、前記対象空間内に存在する物体である対象物体を検出する人物検出部と、
検出された対象物体の数を計測する人数計測部と、
前記対象空間の3次元構造に基づいて生成された係数であって、計測された対象物体の数を補正することに用いられる係数である補正係数を用いて、計測された対象物体の数を補正する計測人数補正部と
を備える第1人流計測装置
を備える。
The people flow measurement system according to the present disclosure is
a person detection unit that detects a target object that is an object appearing in an input image that is a captured image of a target space and that is an object that exists within the target space;
a people counting unit that measures the number of detected target objects;
Correcting the number of measured target objects using a correction coefficient that is a coefficient generated based on the three-dimensional structure of the target space and used to correct the number of measured target objects. A first people flow measuring device is provided, which includes a measured number of people correction section.

本開示によれば、計測人数補正部が、対象空間の3次元構造に基づいて生成された補正係数を用いて対象物体の数を補正する。ここで、対象物体の数は対象空間における計測人数であってもよい。そのため、本開示によれば、人流計測方式において、対象空間内における計測人数を比較的高い精度で補正するために、対象空間の3次元構造を考慮して算出された補正係数を用いて計測人数を補正することができる。 According to the present disclosure, the measured number of people correction unit corrects the number of target objects using a correction coefficient generated based on the three-dimensional structure of the target space. Here, the number of target objects may be the number of people measured in the target space. Therefore, according to the present disclosure, in order to correct the number of people measured in a target space with relatively high accuracy in a people flow measurement method, the number of people measured using a correction coefficient calculated in consideration of the three-dimensional structure of the target space. can be corrected.

実施の形態1に係る人流計測システム90の構成例を示す図。1 is a diagram illustrating a configuration example of a people flow measurement system 90 according to Embodiment 1. FIG. 実施の形態1に係る人流計測システム90のハードウェア構成例を示す図。1 is a diagram showing an example of a hardware configuration of a people flow measurement system 90 according to Embodiment 1. FIG. 実施の形態1に係る人流計測システム90の動作を示すフローチャート。5 is a flowchart showing the operation of the people flow measurement system 90 according to the first embodiment. 実施の形態1に係る補正係数を説明する図。FIG. 3 is a diagram illustrating correction coefficients according to the first embodiment. 実施の形態1に係る補正係数を説明する図。FIG. 3 is a diagram illustrating correction coefficients according to the first embodiment. 実施の形態1の変形例に係る人流計測システム90のハードウェア構成例を示す図。FIG. 3 is a diagram illustrating a hardware configuration example of a people flow measurement system 90 according to a modification of the first embodiment.

実施の形態の説明及び図面において、同じ要素及び対応する要素には同じ符号を付している。同じ符号が付された要素の説明は、適宜に省略又は簡略化する。図中の矢印はデータの流れ又は処理の流れを主に示している。また、「部」を、「回路」、「工程」、「手順」、「処理」又は「サーキットリー」に適宜読み替えてもよい。 In the description of the embodiments and the drawings, the same elements and corresponding elements are denoted by the same reference numerals. Descriptions of elements labeled with the same reference numerals will be omitted or simplified as appropriate. Arrows in the figure mainly indicate the flow of data or processing. Furthermore, "unit" may be read as "circuit," "process," "procedure," "process," or "circuitry" as appropriate.

実施の形態1.
以下、本実施の形態について、図面を参照しながら詳細に説明する。
Embodiment 1.
Hereinafter, this embodiment will be described in detail with reference to the drawings.

***構成の説明***
図1は、実施の形態1に係る人流計測システム90のブロック図の一例を示している。人流計測システム90は、図1に示すようにカメラ100とサーバ200とを備える。カメラ100とサーバ200とは通信可能に接続している。人流計測システム90は複数のカメラ100を備えてもよい。サーバ200はクライアントサーバとも呼ばれる。クライアントサーバはコンピュータでもある。
カメラ100は、撮像部110と、人物検出部120と、人数計測部130と、計測人数補正部140とを備える。サーバ200は、画像受信部210と、3次元構造解析部220と、補正係数生成部230とを備える。カメラ100は第1人流計測装置とも呼ばれる。第1人流計測装置はコンピュータを備えてもよい。サーバ200は第2人流計測装置とも呼ばれる。第1人流計測装置と第2人流計測装置とは適宜一体的に構成されてもよく、各装置の各部を他の装置が備えてもよい。
***Explanation of configuration***
FIG. 1 shows an example of a block diagram of a people flow measurement system 90 according to the first embodiment. The people flow measurement system 90 includes a camera 100 and a server 200, as shown in FIG. The camera 100 and the server 200 are communicably connected. The people flow measurement system 90 may include a plurality of cameras 100. Server 200 is also called a client server. A client server is also a computer.
The camera 100 includes an imaging section 110, a person detection section 120, a people measurement section 130, and a measured number of people correction section 140. The server 200 includes an image receiving section 210, a three-dimensional structure analyzing section 220, and a correction coefficient generating section 230. The camera 100 is also called a first people flow measuring device. The first people flow measurement device may include a computer. The server 200 is also called a second people flow measuring device. The first people flow measuring device and the second people flow measuring device may be appropriately configured integrally, or each part of each device may be provided with another device.

撮像部110は、対象空間が映る画像を撮影する。対象空間は、カメラ100の撮影対象である3次元空間である。 The imaging unit 110 photographs an image showing the target space. The target space is a three-dimensional space that is an object to be photographed by the camera 100.

人物検出部120は対象物体を検出する。対象物体は、入力画像に映っている物体であって、対象空間内に存在する物体であり、具体例として人体である。入力画像は、対象空間を撮像した画像である。具体例として、人物検出部120は、撮像部110から出力された画像データ2が示す画像に含まれる人物を検出する。画像データ2が示す画像は入力画像でもある。
画像データ2は、撮像部110が撮像した画像を示すデータである。画像データ2は、静止画を示すデータであってもよく、動画を示すデータであってもよい。
The person detection unit 120 detects a target object. The target object is an object that appears in the input image and exists within the target space, and is, for example, a human body. The input image is an image of the target space. As a specific example, the person detection unit 120 detects a person included in the image indicated by the image data 2 output from the imaging unit 110. The image indicated by image data 2 is also an input image.
Image data 2 is data indicating an image captured by the imaging unit 110. The image data 2 may be data indicating a still image or may be data indicating a moving image.

人数計測部130は、人物検出部120によって検出された対象物体の数を計測する。具体例として、人数計測部130は、人物検出部120が検出した人物に基づいて対象空間内における人数を計測する。 The people counting section 130 measures the number of target objects detected by the person detecting section 120. As a specific example, the number of people measurement unit 130 measures the number of people in the target space based on the person detected by the person detection unit 120.

計測人数補正部140は、補正係数を用いて、人数計測部130によって計測された対象物体の数を補正する。補正係数は、対象空間の3次元構造に基づいて生成された係数であって、計測された対象物体の数を補正することに用いられる係数である。具体例として、計測人数補正部140は、補正係数生成部230から出力された補正係数を用いて、人数計測部130が計測した人数を補正する。 The measured number of people correction section 140 corrects the number of target objects measured by the number of people measurement section 130 using the correction coefficient. The correction coefficient is a coefficient generated based on the three-dimensional structure of the target space, and is used to correct the number of measured target objects. As a specific example, the measured number of people correction unit 140 uses the correction coefficient output from the correction coefficient generation unit 230 to correct the number of people measured by the number of people measurement unit 130.

画像受信部210は、カメラ100から画像データ2を受信する。 The image receiving unit 210 receives image data 2 from the camera 100.

3次元構造解析部220は、対象空間の3次元構造であって、画像受信部210が出力した画像内に表現されている3次元構造を解析する。 The three-dimensional structure analysis unit 220 analyzes the three-dimensional structure of the target space, which is expressed in the image output by the image reception unit 210.

補正係数生成部230は、3次元構造解析部220によって解析された3次元構造に基づいて補正係数を生成する。補正係数は、人数計測部130が計測した人数を補正することに用いられる係数である。補正係数は、単一の値であってもよく、検出された人物ごとに用意されてもよく、対象空間内の領域ごとに設定された値であって、領域ごとの人数及び人口密度を考慮して設定された値であってもよい。また、補正係数は、対象空間の周囲における天気及びイベント等を示す環境情報を考慮して設定された値であってもよい。補正係数は、傘の有無を考慮して設定された値であってもよい。
補正係数生成部230は、入力画像に遮蔽物が映っている場合において、参照領域内に映っている対象物体の数に基づいて、補正係数として、入力画像を撮影したカメラ100の位置を基準としたときに遮蔽物の背後に存在する対象物体の数を推定することに用いられる係数を生成してもよい。参照領域は、入力画像内の領域であって、入力画像における遮蔽物の大きさに対応する領域である。遮蔽物は、カメラ100の位置を基準として対象空間内の一部を遮蔽する3次元構造物である。
The correction coefficient generation unit 230 generates correction coefficients based on the three-dimensional structure analyzed by the three-dimensional structure analysis unit 220. The correction coefficient is a coefficient used to correct the number of people measured by the number of people measuring section 130. The correction coefficient may be a single value, or may be prepared for each detected person, and may be a value set for each area in the target space, taking into account the number of people and population density in each area. It may be a value set as follows. Further, the correction coefficient may be a value set in consideration of environmental information indicating weather, events, etc. around the target space. The correction coefficient may be a value set in consideration of the presence or absence of an umbrella.
When an obstructing object is shown in the input image, the correction coefficient generation unit 230 generates a correction coefficient based on the number of target objects shown in the reference area, using the position of the camera 100 that captured the input image as a reference. A coefficient may be generated for use in estimating the number of target objects existing behind the shielding object when the target object is hidden. The reference area is an area within the input image that corresponds to the size of the obstruction in the input image. The shielding object is a three-dimensional structure that shields a part of the target space based on the position of the camera 100.

補正後計測人数9は、計測人数補正部140によって補正された人数を示すデータであり、画像データ2が示す画像が撮像された時点において対象空間内に存在する人の数を示すデータである。 The corrected measured number of people 9 is data indicating the number of people corrected by the measured number of people correction unit 140, and is data indicating the number of people existing in the target space at the time when the image indicated by the image data 2 was captured.

人流計測システム90は、人流計測システム90が備える各部が一体的に構成されている場合において、具体例として図2に示すように、プロセッサ11と、メモリ12と、画像入力インタフェース13と、画像処理プロセッサ14と、ネットワークインタフェース15等のハードウェアを備える。これらのハードウェアは、信号線を介して適宜接続されている。人流計測システム90は、一般的なコンピュータから構成されてもよく、複数のコンピュータから構成されてもよい。 The people flow measurement system 90 includes a processor 11, a memory 12, an image input interface 13, an image processing It includes hardware such as a processor 14 and a network interface 15. These pieces of hardware are connected as appropriate via signal lines. The people flow measurement system 90 may be composed of a general computer or a plurality of computers.

プロセッサ11は、演算処理を行うIC(Integrated Circuit)であり、かつ、コンピュータが備えるハードウェアを制御する。プロセッサ11は、具体例として、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、又はGPU(Graphics Processing Unit)である。
人流計測システム90は、プロセッサ11を代替する複数のプロセッサを備えてもよい。複数のプロセッサはプロセッサ11の役割を分担する。
The processor 11 is an IC (Integrated Circuit) that performs arithmetic processing, and controls hardware included in the computer. The processor 11 is, for example, a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or a GPU (Graphics Processing Unit).
The people flow measurement system 90 may include a plurality of processors replacing the processor 11. A plurality of processors share the role of the processor 11.

メモリ12は、典型的には揮発性の記憶装置と不揮発性の記憶装置とから成る。揮発性の記憶装置は、具体例としてRAM(Random Access Memory)である。不揮発性の記憶装置は、具体例としてROM(Read Only Memory)、HDD(Hard Disk Drive)、又はフラッシュメモリである。 Memory 12 typically consists of volatile storage and non-volatile storage. A specific example of the volatile storage device is RAM (Random Access Memory). Specific examples of the nonvolatile storage device include a ROM (Read Only Memory), an HDD (Hard Disk Drive), or a flash memory.

画像入力インタフェース13は、画像データ2を受信するインタフェースであり、具体例としてUSB(Universal Serial Bus)端子である。
画像処理プロセッサ14は、画像処理を実行する機能を有するプロセッサである。プロセッサ11及び画像処理プロセッサ14は、人流計測システム90が備える各部の機能を実現してもよい。
ネットワークインタフェース15は、レシーバ及びトランスミッタであり、具体例として通信チップ又はNIC(Network Interface Card)である。
The image input interface 13 is an interface that receives the image data 2, and a specific example is a USB (Universal Serial Bus) terminal.
The image processing processor 14 is a processor that has a function of executing image processing. The processor 11 and the image processor 14 may realize the functions of each part included in the people flow measurement system 90.
The network interface 15 is a receiver and a transmitter, and a specific example is a communication chip or NIC (Network Interface Card).

本構成において、まず、画像データ2は、画像入力インタフェース13を経由して画像受信部210に入力される。
次に、入力された画像データ2は画像処理プロセッサ14に入力される。画像処理プロセッサ14は、画像内の人物を検出し、検出した人物を示す人物データをメモリ12に格納する。
次に、画像処理プロセッサ14は、メモリ12に格納されている人物データを取り込み、メモリ12に保存されているカウンタであって、人物数をカウントするカウンタをインクリメントし、インクリメントしたカウンタを再度メモリ12に人数計測結果として書き出す。
人流計測システム90は、上述の処理を1つの画像から検出された全ての人物データに対して処理する。
In this configuration, first, the image data 2 is input to the image receiving section 210 via the image input interface 13.
Next, the input image data 2 is input to the image processing processor 14. Image processing processor 14 detects a person in the image and stores person data indicating the detected person in memory 12 .
Next, the image processing processor 14 takes in the person data stored in the memory 12, increments a counter stored in the memory 12 that counts the number of people, and transfers the incremented counter back to the memory 12. Export as the result of counting the number of people.
The people flow measurement system 90 performs the above-described process on all human data detected from one image.

また、画像処理プロセッサ14は、画像データ2が示す3次元構造を解析し、解析結果を示す3次元構造情報をメモリ12に格納する。
次に、プロセッサ11は、メモリ12に格納されている3次元構造情報に基づいて前述の画像内において検出された人物の3次元位置を判定し、当該3次元構造情報に基づいて計測人数に対する補正係数を作成し、作成した補正係数をメモリ12に格納する処理を実行する。本処理は検出された全ての人物に対して実行される。
次に、画像処理プロセッサ14は、メモリ12に格納されている人数情報と、メモリ12に格納されている補正係数とを取り込み、取り込んだ人数情報と補正係数とを用いて補正処理を実行し、補正処理を実行した結果をメモリ12に出力する。補正処理を実行した結果を示すメモリ12上の計測人数9は、ネットワークインタフェース15を経由してネットワークに送出される。
Further, the image processing processor 14 analyzes the three-dimensional structure indicated by the image data 2, and stores three-dimensional structure information indicating the analysis result in the memory 12.
Next, the processor 11 determines the three-dimensional position of the person detected in the above-mentioned image based on the three-dimensional structure information stored in the memory 12, and corrects the number of people to be measured based on the three-dimensional structure information. A process of creating a coefficient and storing the created correction coefficient in the memory 12 is executed. This process is executed for all detected persons.
Next, the image processing processor 14 takes in the number of people information stored in the memory 12 and the correction coefficient stored in the memory 12, executes a correction process using the taken in number of people information and the correction coefficient, The results of the correction processing are output to the memory 12. The measured number of people 9 on the memory 12 indicating the result of the correction process is sent to the network via the network interface 15.

メモリ12は人流計測プログラムを記憶している。人流計測プログラムは、人流計測システム90が備える各部の機能をコンピュータに実現させるプログラムであり、人流計測システム90が備える各装置において実行されるプログラムの総称である。人流計測プログラムは、プロセッサ11及び画像処理プロセッサ14によって実行される。人流計測システム90が備える各部の機能は、ソフトウェアにより実現されてもよい。 The memory 12 stores a people flow measurement program. The people flow measurement program is a program that causes a computer to realize the functions of each part included in the people flow measurement system 90, and is a general term for programs executed in each device included in the people flow measurement system 90. The people flow measurement program is executed by the processor 11 and the image processing processor 14. The functions of each part included in the people flow measurement system 90 may be realized by software.

人流計測プログラムを実行する際に用いられるデータと、人流計測プログラムを実行することによって得られるデータ等は、記憶装置に適宜記憶される。人流計測システム90の各部は記憶装置を適宜利用する。記憶装置は、具体例として、メモリ12と、プロセッサ11内のレジスタと、プロセッサ11内のキャッシュメモリとの少なくとも1つから成る。なお、データという用語と情報という用語とは同等の意味を有することもある。記憶装置は、コンピュータと独立したものであってもよい。
メモリ12の機能は、他の記憶装置によって実現されてもよい。
Data used when executing the people flow measurement program, data obtained by executing the people flow measurement program, etc. are appropriately stored in the storage device. Each part of the people flow measurement system 90 uses a storage device as appropriate. As a specific example, the storage device includes at least one of the memory 12, a register within the processor 11, and a cache memory within the processor 11. Note that the terms "data" and "information" may have the same meaning. The storage device may be independent of the computer.
The functions of memory 12 may be realized by other storage devices.

人流計測プログラムは、コンピュータが読み取り可能な不揮発性の記録媒体に記録されていてもよい。不揮発性の記録媒体は、具体例として、光ディスク又はフラッシュメモリである。人流計測プログラムは、プログラムプロダクトとして提供されてもよい。 The people flow measurement program may be recorded on a computer-readable nonvolatile recording medium. Specific examples of the nonvolatile recording medium include an optical disk or a flash memory. The people flow measurement program may be provided as a program product.

***動作の説明***
人流計測システム90の動作手順は人流計測方法に相当する。また、人流計測システム90の動作を実現するプログラムは人流計測プログラムに相当する。
***Operation explanation***
The operation procedure of the people flow measurement system 90 corresponds to a people flow measurement method. Further, a program that realizes the operation of the people flow measurement system 90 corresponds to a people flow measurement program.

図3は、人流計測システム90が図1に示す構成である場合における人流計測システム90の処理の一例を示すフローチャートである。図3を用いて人流計測システム90の処理を説明する。なお、カメラ100である対象カメラがカメラ処理のフローチャートを実行するものとする。 FIG. 3 is a flowchart showing an example of the processing of the people flow measurement system 90 when the people flow measurement system 90 has the configuration shown in FIG. The processing of the people flow measurement system 90 will be explained using FIG. 3. Note that it is assumed that the target camera, which is the camera 100, executes the flowchart of camera processing.

(ステップS101)
撮像部110は、対象空間が映る画像を撮像し、撮像した画像を示す画像データ2をサーバ200に出力する。
(Step S101)
The imaging unit 110 captures an image showing the target space, and outputs image data 2 representing the captured image to the server 200.

(ステップS102)
計測人数補正部140は、補正係数生成部230から補正係数を受信する。
(Step S102)
The measured number of people correction unit 140 receives the correction coefficient from the correction coefficient generation unit 230.

(ステップS103)
対象カメラは、撮像部110が撮影した各画像について以下の処理を実行する。
(Step S103)
The target camera performs the following processing on each image captured by the imaging unit 110.

(ステップS104)
撮像部110は、対象空間が映る画像を撮像し、撮像した画像を示す画像データ2を出力する。
(Step S104)
The imaging unit 110 captures an image showing the target space, and outputs image data 2 representing the captured image.

(ステップS105)
人物検出部120は、撮像部110によって出力された画像データ2に映っている人物を検出する。
(Step S105)
The person detection unit 120 detects a person appearing in the image data 2 output by the imaging unit 110.

(ステップS106)
人数計測部130は、人物検出部120によって検出された人物に基づいて画像データ2が示す画像における人数を計測する。
(Step S106)
The number of people measuring unit 130 measures the number of people in the image shown by the image data 2 based on the person detected by the person detection unit 120.

(ステップS107)
計測人数補正部140は、対象カメラに対応する補正係数を用いて、人数計測部130によって計測された人数を補正し、補正した人数を示す補正後計測人数9を出力する。
(Step S107)
The measured number of people correction unit 140 corrects the number of people measured by the number of people measurement unit 130 using a correction coefficient corresponding to the target camera, and outputs a corrected number of people measured 9 indicating the corrected number of people.

(ステップS111)
サーバ200は、各カメラ100について以下の処理を実行する。
(Step S111)
The server 200 executes the following processing for each camera 100.

(ステップS112)
画像受信部210は、カメラ100から画像データ2を受信する。
(Step S112)
The image receiving unit 210 receives image data 2 from the camera 100.

(ステップS113)
3次元構造解析部220は、受信した画像データ2が示す画像に映っている対象空間における3次元構造を解析する。
(Step S113)
The three-dimensional structure analysis unit 220 analyzes the three-dimensional structure in the target space shown in the image indicated by the received image data 2.

(ステップS114)
補正係数生成部230は、3次元構造解析部220による3次元構造の解析結果に基づいて補正係数を算出し、算出した補正係数を計測人数補正部140に送信する。なお、送信される補正係数には補正係数に対応するカメラ100を示すデータが対応付けられているものとする。
(Step S114)
The correction coefficient generation unit 230 calculates a correction coefficient based on the analysis result of the three-dimensional structure by the three-dimensional structure analysis unit 220, and transmits the calculated correction coefficient to the measured number of people correction unit 140. It is assumed that the transmitted correction coefficient is associated with data indicating the camera 100 corresponding to the correction coefficient.

上述の構成及び動作により、補正係数生成部230には、各画像データ2に対応する撮影対象の3次元構造に基づく補正係数が蓄積される。 With the above-described configuration and operation, the correction coefficient generation unit 230 accumulates correction coefficients based on the three-dimensional structure of the object to be photographed corresponding to each image data 2.

図4は、補正係数を説明する図であり、入力画像の具体例と、説明の便宜上付与された各枠とを示す図である。図4において白色の実線枠と黒色の実線枠とは、3次元構造解析部220によって解析された3次元構造であって、入力画像が示す対象空間である3次元空間の3次元構造を示している。白色の実線枠は3次元空間の上部に対応する枠であり、黒色の実線枠は3次元空間の下部に対応する枠である。なお、図4において、説明の便宜上3次元空間の一部のみに対して白色の実線枠と黒色の実線枠とが付与されているが、実際には入力画像の全体に3次元空間が広がっている。そのため、3次元構造解析部220は、入力画像の全体に広がっている3次元空間の上部及び下部を解析する。
奥側エリアは、3次元空間において、カメラ100の位置を基準として相対的に奥側に存在するエリアを示している。手前側エリアは、3次元空間において、カメラ100の位置を基準として相対的に手前側に存在するエリアを示している。
人物検出部120は、入力画像に映っている各人物を検出する。ここで、一般的に、画像から人物を検出する技術において、相対的に大きく映っている人物については相対的に高い精度で検出することができ、相対的に小さく映っている人物については相対的に低い精度でしか検出することができない。従って、補正係数生成部230が、奥側エリア内に映っている人物に対応する補正が相対的に大きくなり、かつ、手前側エリア内に映っている人物に対応する補正が相対的に小さくなるような補正係数を算出した場合に、人流計測システム90は、全体として比較的高い精度で対象空間における人数を計測することができる。
FIG. 4 is a diagram illustrating correction coefficients, and is a diagram showing a specific example of an input image and each frame provided for convenience of explanation. In FIG. 4, the white solid line frame and the black solid line frame are the three-dimensional structure analyzed by the three-dimensional structure analysis unit 220, and indicate the three-dimensional structure of the three-dimensional space that is the target space shown by the input image. There is. The white solid line frame is a frame corresponding to the upper part of the three-dimensional space, and the black solid line frame is a frame corresponding to the lower part of the three-dimensional space. Note that in FIG. 4, a white solid line frame and a black solid line frame are given to only part of the three-dimensional space for convenience of explanation, but in reality, the three-dimensional space extends over the entire input image. There is. Therefore, the three-dimensional structure analysis unit 220 analyzes the upper and lower parts of the three-dimensional space that extends over the entire input image.
The back area indicates an area that exists on the back side relative to the position of the camera 100 in the three-dimensional space. The near side area indicates an area that exists relatively to the near side with respect to the position of the camera 100 in the three-dimensional space.
The person detection unit 120 detects each person appearing in the input image. Generally, with technology for detecting people from images, it is possible to detect relatively large people with relatively high accuracy, and relatively small people can be detected with relatively high accuracy. can only be detected with low accuracy. Therefore, the correction coefficient generation unit 230 makes a relatively large correction for a person shown in the back area, and a relatively small correction for a person shown in the front area. When such a correction coefficient is calculated, the people flow measurement system 90 can measure the number of people in the target space with relatively high accuracy as a whole.

図5は、3次元構造解析部220による3次元構造解析の結果、入力画像が示す3次元空間内において、画像データ2を撮影したカメラ100の位置から見た場合において一部の領域を遮蔽する遮蔽物である3次元構造物が解析された例を示している。本例において、3次元構造物の背後に人物が存在する可能性があるが、従来の人流計測方式では3次元構造物の背後に存在する人物を検出することができない。そのため、従来の人流計測方式では、比較的高い精度で対象空間における人数を計測することができないことがある。
本例において、3次元構造物の背後における人数に対応する補正係数であって、解析された3次元構造物の3次元的な大きさを手掛かりにして3次元構造物に対応する補正係数を設定することが望ましい。そこで、補正係数生成部230は、具体例として、3次元構造物の背後における人数が、3次元構造物の背後のエリアと3次元空間的に同等であるエリア(具体例として図5中の破線枠が示すエリア)において計測された人数と同等となるような補正係数を算出する。破線枠が示すエリアは参照領域に当たる。このようにして算出された補正係数を用いることにより、入力画像において遮蔽物により遮蔽されたエリアについてもある程度の確度を持った人数を算出することができる。そのため、人流計測システム90は、全体として比較的高い精度で人数を計測することができる。
なお、補正係数は、遮蔽物の背後における人数を推測する際に参照すべき領域を示すデータであってもよい。
FIG. 5 shows that as a result of three-dimensional structure analysis by the three-dimensional structure analysis unit 220, a part of the area is shielded when viewed from the position of the camera 100 that captured the image data 2 in the three-dimensional space indicated by the input image. An example is shown in which a three-dimensional structure that is a shield is analyzed. In this example, there is a possibility that a person exists behind the three-dimensional structure, but the conventional human flow measurement method cannot detect the person behind the three-dimensional structure. Therefore, with conventional people flow measurement methods, it may not be possible to measure the number of people in a target space with relatively high accuracy.
In this example, the correction coefficient corresponding to the number of people behind the three-dimensional structure is set based on the three-dimensional size of the analyzed three-dimensional structure. It is desirable to do so. Therefore, as a specific example, the correction coefficient generation unit 230 generates an area where the number of people behind the three-dimensional structure is three-dimensionally equivalent to the area behind the three-dimensional structure (as a specific example, the broken line in FIG. 5 Calculate a correction coefficient that will be equivalent to the number of people measured in the area indicated by the frame). The area indicated by the broken line frame corresponds to the reference area. By using the correction coefficients calculated in this way, it is possible to calculate the number of people with a certain degree of accuracy even in areas blocked by shielding objects in the input image. Therefore, the people flow measurement system 90 can measure the number of people with relatively high accuracy as a whole.
Note that the correction coefficient may be data indicating an area to be referred to when estimating the number of people behind the shielding object.

***実施の形態1の効果の説明***
以上のように、本実施の形態によれば、対象空間の3次元構造を考慮して算出された補正係数を用いて計測人数を補正する。そのため、本実施の形態によれば、人流計測方式においてより正確に人数を計測することができる。
***Explanation of effects of Embodiment 1***
As described above, according to the present embodiment, the number of people to be measured is corrected using a correction coefficient calculated in consideration of the three-dimensional structure of the target space. Therefore, according to this embodiment, the number of people can be measured more accurately using the people flow measurement method.

***他の構成***
<変形例1>
図6は、本変形例に係る人流計測システム90が備える各装置のハードウェア構成例を示している。図6は、各装置を代表してサーバ200を示している。
人流計測システム90が備える各装置は、プロセッサ11、プロセッサ11と画像処理プロセッサ14、あるいはプロセッサ11とメモリ12に代えて、処理回路18を備える。
処理回路18は、人流計測システム90が備える各部の少なくとも一部を実現するハードウェアである。
処理回路18は、専用のハードウェアであってもよく、また、メモリ12に格納されるプログラムを実行するプロセッサであってもよい。
***Other configurations***
<Modification 1>
FIG. 6 shows an example of the hardware configuration of each device included in the people flow measurement system 90 according to this modification. FIG. 6 shows a server 200 as a representative of each device.
Each device included in the people flow measurement system 90 includes a processing circuit 18 in place of the processor 11, the processor 11 and the image processing processor 14, or the processor 11 and the memory 12.
The processing circuit 18 is hardware that implements at least a portion of each part included in the people flow measurement system 90.
Processing circuit 18 may be dedicated hardware or may be a processor that executes a program stored in memory 12.

処理回路18が専用のハードウェアである場合、処理回路18は、具体例として、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)又はこれらの組み合わせである。
人流計測システム90は、処理回路18を代替する複数の処理回路を備えてもよい。複数の処理回路は、処理回路18の役割を分担する。
When the processing circuit 18 is dedicated hardware, the processing circuit 18 may be, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), or an FPGA (Field Programmable Gate Array) or a combination thereof.
The people flow measurement system 90 may include a plurality of processing circuits that replace the processing circuit 18. The plurality of processing circuits share the role of the processing circuit 18.

人流計測システム90において、一部の機能が専用のハードウェアによって実現されて、残りの機能がソフトウェア又はファームウェアによって実現されてもよい。 In the people flow measurement system 90, some functions may be realized by dedicated hardware, and the remaining functions may be realized by software or firmware.

処理回路18は、具体例として、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせにより実現される。
プロセッサ11とメモリ12と画像処理プロセッサ14と処理回路18とを、総称して「プロセッシングサーキットリー」という。つまり、人流計測システム90の各機能構成要素の機能は、プロセッシングサーキットリーにより実現される。
The processing circuit 18 is implemented, for example, by hardware, software, firmware, or a combination thereof.
The processor 11, memory 12, image processor 14, and processing circuit 18 are collectively referred to as a "processing circuitry." That is, the functions of each functional component of the people flow measurement system 90 are realized by processing circuitry.

***他の実施の形態***
実施の形態1について説明したが、本実施の形態のうち、複数の部分を組み合わせて実施しても構わない。あるいは、本実施の形態を部分的に実施しても構わない。その他、本実施の形態は、必要に応じて種々の変更がなされても構わず、全体としてあるいは部分的に、どのように組み合わせて実施されても構わない。
なお、前述した実施の形態は、本質的に好ましい例示であって、本開示と、その適用物と、用途の範囲とを制限することを意図するものではない。フローチャート等を用いて説明した手順は適宜変更されてもよい。
***Other embodiments***
Although Embodiment 1 has been described, a plurality of parts of this embodiment may be implemented in combination. Alternatively, this embodiment may be partially implemented. In addition, this embodiment may be modified in various ways as necessary, and may be implemented as a whole or in part in any combination.
Note that the embodiments described above are essentially preferable examples, and are not intended to limit the present disclosure, its applications, and the scope of use. The procedures described using flowcharts and the like may be changed as appropriate.

2 画像データ、9 補正後計測人数、11 プロセッサ、12 メモリ、13 画像入力インタフェース、14 画像処理プロセッサ、15 ネットワークインタフェース、18 処理回路、90 人流計測システム、100 カメラ、110 撮像部、120 人物検出部、130 人数計測部、140 計測人数補正部、200 サーバ、210 画像受信部、220 3次元構造解析部、230 補正係数生成部。 2 image data, 9 number of people measured after correction, 11 processor, 12 memory, 13 image input interface, 14 image processing processor, 15 network interface, 18 processing circuit, 90 people flow measurement system, 100 camera, 110 imaging unit, 120 person detection unit , 130 people counting section, 140 measured number of people correction section, 200 server, 210 image receiving section, 220 three-dimensional structure analysis section, 230 correction coefficient generation section.

Claims (7)

対象空間を撮像した画像である入力画像に映っている物体であって、前記対象空間内に存在する物体である対象物体を検出する人物検出部と、
検出された対象物体の数を計測する人数計測部と、
前記対象空間の3次元構造に基づいて生成された係数であって、計測された対象物体の数を補正することに用いられる係数である補正係数を用いて、計測された対象物体の数を補正する計測人数補正部と
を備える第1人流計測装置
を備える人流計測システムであって、
前記3次元構造は、前記入力画像を撮影した機器の位置を基準とした前記対象空間内における奥行を示す人流計測システム
a person detection unit that detects a target object that is an object appearing in an input image that is a captured image of a target space and that is an object that exists within the target space;
a people counting unit that measures the number of detected target objects;
Correcting the number of measured target objects using a correction coefficient that is a coefficient generated based on the three-dimensional structure of the target space and used to correct the number of measured target objects. A people flow measurement system comprising a first people flow measurement device comprising a measured number of people correction unit ,
The three-dimensional structure indicates the depth within the target space based on the position of the device that captured the input image.
前記人流計測システムは、さらに、
前記入力画像に基づいて前記対象空間の3次元構造を解析する3次元構造解析部と、
解析された3次元構造に基づいて前記補正係数を生成する補正係数生成部と
を備える第2人流計測装置
を備える請求項1に記載の人流計測システム。
The people flow measurement system further includes:
a three-dimensional structure analysis unit that analyzes a three-dimensional structure of the target space based on the input image;
The people flow measurement system according to claim 1, further comprising a second people flow measurement device including a correction coefficient generation unit that generates the correction coefficient based on an analyzed three-dimensional structure.
前記補正係数生成部は、前記入力画像に遮蔽物が映っている場合において、前記入力画像内の領域であって、前記入力画像における前記遮蔽物の大きさに対応する領域である参照領域内に映っている対象物体の数に基づいて、前記補正係数として、前記入力画像を撮影したカメラの位置を基準としたときに前記遮蔽物の背後に存在する対象物体の数を推定することに用いられる係数を生成する請求項2に記載の人流計測システム。 When the input image includes an obstruction, the correction coefficient generation unit is configured to calculate the correction coefficient within a reference area that is an area within the input image that corresponds to the size of the obstruction in the input image. Based on the number of target objects in the image, the correction coefficient is used to estimate the number of target objects that exist behind the shielding object when the position of the camera that captured the input image is used as a reference. The people flow measurement system according to claim 2, which generates a coefficient. 前記第1人流計測装置はカメラであり、
前記第2人流計測装置はコンピュータである請求項2又は3に記載の人流計測システム。
The first people flow measuring device is a camera,
The people flow measuring system according to claim 2 or 3, wherein the second people flow measuring device is a computer.
前記対象物体は人体である請求項1からのいずれか1項に記載の人流計測システム。 The human flow measuring system according to any one of claims 1 to 3 , wherein the target object is a human body. コンピュータが、対象空間を撮像した画像である入力画像に映っている物体であって、前記対象空間内に存在する物体である対象物体を検出し、
前記コンピュータが、検出された対象物体の数を計測し、
前記コンピュータが、前記対象空間の3次元構造に基づいて生成された係数であって、計測された対象物体の数を補正することに用いられる係数である補正係数を用いて、計測された対象物体の数を補正する人流計測方法であって、
前記3次元構造は、前記入力画像を撮影した機器の位置を基準とした前記対象空間内における奥行を示す人流計測方法
The computer detects a target object, which is an object appearing in an input image that is a captured image of a target space, and is an object existing within the target space,
the computer measures the number of detected target objects;
The computer calculates the measured target object using a correction coefficient that is a coefficient generated based on the three-dimensional structure of the target space and is used to correct the number of measured target objects. A method of measuring people flow that corrects the number of people ,
The three-dimensional structure indicates a depth within the target space based on the position of a device that captured the input image.
対象空間を撮像した画像である入力画像に映っている物体であって、前記対象空間内に存在する物体である対象物体を検出する人物検出処理と、
検出された対象物体の数を計測する人数計測処理と、
前記対象空間の3次元構造に基づいて生成された係数であって、計測された対象物体の数を補正することに用いられる係数である補正係数を用いて、計測された対象物体の数を補正する計測人数補正処理
を第1人流計測装置が備えるコンピュータに実行させる人流計測プログラムであって、
前記3次元構造は、前記入力画像を撮影した機器の位置を基準とした前記対象空間内における奥行を示す人流計測プログラム
A person detection process that detects a target object that is an object that is reflected in an input image that is an image of a target space and that is an object that exists within the target space;
A people counting process that measures the number of detected target objects;
Correcting the number of measured target objects using a correction coefficient that is a coefficient generated based on the three-dimensional structure of the target space and used to correct the number of measured target objects. A people flow measurement program that causes a computer included in a first people flow measurement device to execute a measured number of people correction process ,
The three-dimensional structure is a people flow measurement program that indicates the depth within the target space based on the position of the device that captured the input image.
JP2023555348A 2023-05-12 2023-05-12 People flow measurement system, people flow measurement method, and people flow measurement program Active JP7387080B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023017883 2023-05-12

Publications (1)

Publication Number Publication Date
JP7387080B1 true JP7387080B1 (en) 2023-11-27

Family

ID=88917941

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023555348A Active JP7387080B1 (en) 2023-05-12 2023-05-12 People flow measurement system, people flow measurement method, and people flow measurement program

Country Status (1)

Country Link
JP (1) JP7387080B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005025328A (en) * 2003-06-30 2005-01-27 Ntt Data Corp Congestion monitoring system and congestion monitoring program
JP2021071923A (en) * 2019-10-31 2021-05-06 キヤノン株式会社 Information processing device, information processing method, and program
JP2022022874A (en) * 2020-07-09 2022-02-07 キヤノン株式会社 Information processing device, information processing method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005025328A (en) * 2003-06-30 2005-01-27 Ntt Data Corp Congestion monitoring system and congestion monitoring program
JP2021071923A (en) * 2019-10-31 2021-05-06 キヤノン株式会社 Information processing device, information processing method, and program
JP2022022874A (en) * 2020-07-09 2022-02-07 キヤノン株式会社 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
WO2018161877A1 (en) Processing method, processing device, electronic device and computer readable storage medium
US10281264B2 (en) Three-dimensional measurement apparatus and control method for the same
JP4308319B2 (en) Image processing apparatus and image processing method
US9088715B2 (en) Image processing apparatus and image processing method for image correction
JP4317583B2 (en) Normal information generating apparatus and normal information generating method
EP1670237A2 (en) Matching un-synchronized image portions
KR101893771B1 (en) Apparatus and method for processing 3d information
KR20180113043A (en) Method and apparatus for refining depth image
CN108600736B (en) Terminal light sensation calibration method and device, terminal and storage medium
CN111272144B (en) Depth Sensing Camera System
WO2018023961A1 (en) Distance information processing method and device
JP4843544B2 (en) 3D image correction method and apparatus
CN111488775A (en) Device and method for judging degree of fixation
JPWO2020170299A1 (en) Fatigue judgment device, fatigue judgment method, and fatigue judgment program
US20210256729A1 (en) Methods and systems for determining calibration quality metrics for a multicamera imaging system
US8970691B2 (en) Removal of rayleigh scattering from images
JP7387080B1 (en) People flow measurement system, people flow measurement method, and people flow measurement program
Sabov et al. Identification and correction of flying pixels in range camera data
KR101701138B1 (en) Resolution and focus enhancement
KR101911860B1 (en) Method and Apparatus for Detecting Road Using Camera Model and Filter in Depth Image
CN118119336A (en) Deep body temperature estimation device, deep body temperature estimation method, and program
JP2020021314A (en) Image processing system and image processing method
JP6331789B2 (en) Imaging system, image processing apparatus, and program
KR101188476B1 (en) Apparatus and method for calculating photographing distance and correcting horizontality distance of subject
JP6780639B2 (en) Image analysis device, image analysis method, and image analysis program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230908

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230908

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231114

R150 Certificate of patent or registration of utility model

Ref document number: 7387080

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150