JP7387080B1 - People flow measurement system, people flow measurement method, and people flow measurement program - Google Patents
People flow measurement system, people flow measurement method, and people flow measurement program Download PDFInfo
- Publication number
- JP7387080B1 JP7387080B1 JP2023555348A JP2023555348A JP7387080B1 JP 7387080 B1 JP7387080 B1 JP 7387080B1 JP 2023555348 A JP2023555348 A JP 2023555348A JP 2023555348 A JP2023555348 A JP 2023555348A JP 7387080 B1 JP7387080 B1 JP 7387080B1
- Authority
- JP
- Japan
- Prior art keywords
- people
- flow measurement
- people flow
- target
- dimensional structure
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000005259 measurement Methods 0.000 title claims abstract description 49
- 238000000691 measurement method Methods 0.000 title description 9
- 238000012937 correction Methods 0.000 claims abstract description 81
- 238000001514 detection method Methods 0.000 claims abstract description 15
- 238000000034 method Methods 0.000 claims description 19
- 238000004458 analytical method Methods 0.000 claims description 13
- 238000012545 processing Methods 0.000 description 35
- 238000003384 imaging method Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
人流計測システム(90)は、人物検出部(120)と人数計測部(130)と計測人数補正部(140)とを備える。人物検出部(120)は、対象空間を撮像した画像である入力画像に映っている物体であって、対象空間内に存在する物体である対象物体を検出する。人数計測部(130)は、検出された対象物体の数を計測する。計測人数補正部(140)は、対象空間の3次元構造に基づいて生成された係数であって、計測された対象物体の数を補正することに用いられる係数である補正係数を用いて、計測された対象物体の数を補正する。The people flow measurement system (90) includes a person detection section (120), a people measurement section (130), and a measured number of people correction section (140). The person detection unit (120) detects a target object, which is an object appearing in an input image that is a captured image of the target space, and is an object existing within the target space. The people counting section (130) measures the number of detected target objects. The measured number of people correction unit (140) uses a correction coefficient that is generated based on the three-dimensional structure of the target space and is used to correct the number of measured target objects. Correct the number of target objects.
Description
本開示は、人流計測システム、人流計測方法、及び人流計測プログラムに関する。 The present disclosure relates to a people flow measurement system, a people flow measurement method, and a people flow measurement program.
従来の人流計測方式では、画像に基づく人数計測の精度を向上させるために、画像の解析結果と、撮影時の様々な条件とに基づいて得られる補正係数を算出し、算出した補正係数を用いて既存の人数計測手法により得られた人数を補正していた(例えば特許文献1)。画像の解析結果は、具体例として、画像から検出された人体の部位と、画像から得られた動きベクトルとを示す結果である。撮影時の様々な条件は、具体例として画像の撮影時の画角及び撮影方向である。
特許文献1では、本方式を実現するために、撮影装置によって撮影された画像から人体を検出する検出手段と、検出手段により検出された人体の数をカウントするカウント手段と、画像の解析結果及び画像の撮影時の撮影条件のうち少なくとも一方に基づく補正係数を用いて、カウント手段によりカウントされた人体の数を補正する補正手段とを有する技術を開示している。ここで、補正係数は、画像から検出された人体の部位と、画像から得られた動きベクトルと、撮影時の画角及び撮影方向とにより決定される。In conventional people flow measurement methods, in order to improve the accuracy of people measurement based on images, a correction coefficient is calculated based on the image analysis results and various conditions at the time of shooting, and the calculated correction coefficient is used. The number of people obtained using existing people counting methods was corrected (for example, Patent Document 1). The image analysis result is a result showing, as a specific example, a human body part detected from the image and a motion vector obtained from the image. Specific examples of various conditions at the time of photographing include the angle of view and the direction of photographing at the time of photographing the image.
In Patent Document 1, in order to realize this method, a detection means for detecting a human body from an image photographed by a photographing device, a counting means for counting the number of human bodies detected by the detection means, and an analysis result of the image and a The present invention discloses a technique including a correction means for correcting the number of human bodies counted by the counting means using a correction coefficient based on at least one of the photographing conditions at the time of photographing the image. Here, the correction coefficient is determined based on the part of the human body detected from the image, the motion vector obtained from the image, and the angle of view and shooting direction at the time of shooting.
特許文献1が開示している技術において、補正係数は、撮影対象である対象空間の3次元構造を考慮せず、撮像された2次元画像における見え方に基づいて算出される。ここで、2次元画像における見え方が同じであっても、対象空間の3次元構造が同じであるとは限らない。そのため、対象空間の3次元構造を考慮せずに算出した補正係数を用いて対象空間内に存在する人体の数を補正すると、人数補正の精度が低下することがある。従って、特許文献1には、対象空間の3次元構造に基づいて算出された補正係数を用いないために人数補正の精度が低下するという課題がある。
本開示は、人流計測方式において、対象空間内における計測人数を比較的高い精度で補正するために、対象空間の3次元構造に基づいて算出された補正係数を用いて計測人数を補正することを目的とする。In the technique disclosed in Patent Document 1, the correction coefficient is calculated based on the appearance in the captured two-dimensional image without considering the three-dimensional structure of the object space that is the imaging target. Here, even if the appearance in the two-dimensional images is the same, the three-dimensional structure of the target space is not necessarily the same. Therefore, if the number of human bodies present in the target space is corrected using a correction coefficient calculated without considering the three-dimensional structure of the target space, the accuracy of the number of people correction may decrease. Therefore, Patent Document 1 has a problem in that the accuracy of the number of people correction decreases because the correction coefficient calculated based on the three-dimensional structure of the target space is not used.
The present disclosure provides a method for correcting the measured number of people in a target space using a correction coefficient calculated based on the three-dimensional structure of the target space in a people flow measurement method in order to correct the measured number of people in the target space with relatively high accuracy. purpose.
本開示に係る人流計測システムは、
対象空間を撮像した画像である入力画像に映っている物体であって、前記対象空間内に存在する物体である対象物体を検出する人物検出部と、
検出された対象物体の数を計測する人数計測部と、
前記対象空間の3次元構造に基づいて生成された係数であって、計測された対象物体の数を補正することに用いられる係数である補正係数を用いて、計測された対象物体の数を補正する計測人数補正部と
を備える第1人流計測装置
を備える。The people flow measurement system according to the present disclosure is
a person detection unit that detects a target object that is an object appearing in an input image that is a captured image of a target space and that is an object that exists within the target space;
a people counting unit that measures the number of detected target objects;
Correcting the number of measured target objects using a correction coefficient that is a coefficient generated based on the three-dimensional structure of the target space and used to correct the number of measured target objects. A first people flow measuring device is provided, which includes a measured number of people correction section.
本開示によれば、計測人数補正部が、対象空間の3次元構造に基づいて生成された補正係数を用いて対象物体の数を補正する。ここで、対象物体の数は対象空間における計測人数であってもよい。そのため、本開示によれば、人流計測方式において、対象空間内における計測人数を比較的高い精度で補正するために、対象空間の3次元構造を考慮して算出された補正係数を用いて計測人数を補正することができる。 According to the present disclosure, the measured number of people correction unit corrects the number of target objects using a correction coefficient generated based on the three-dimensional structure of the target space. Here, the number of target objects may be the number of people measured in the target space. Therefore, according to the present disclosure, in order to correct the number of people measured in a target space with relatively high accuracy in a people flow measurement method, the number of people measured using a correction coefficient calculated in consideration of the three-dimensional structure of the target space. can be corrected.
実施の形態の説明及び図面において、同じ要素及び対応する要素には同じ符号を付している。同じ符号が付された要素の説明は、適宜に省略又は簡略化する。図中の矢印はデータの流れ又は処理の流れを主に示している。また、「部」を、「回路」、「工程」、「手順」、「処理」又は「サーキットリー」に適宜読み替えてもよい。 In the description of the embodiments and the drawings, the same elements and corresponding elements are denoted by the same reference numerals. Descriptions of elements labeled with the same reference numerals will be omitted or simplified as appropriate. Arrows in the figure mainly indicate the flow of data or processing. Furthermore, "unit" may be read as "circuit," "process," "procedure," "process," or "circuitry" as appropriate.
実施の形態1.
以下、本実施の形態について、図面を参照しながら詳細に説明する。Embodiment 1.
Hereinafter, this embodiment will be described in detail with reference to the drawings.
***構成の説明***
図1は、実施の形態1に係る人流計測システム90のブロック図の一例を示している。人流計測システム90は、図1に示すようにカメラ100とサーバ200とを備える。カメラ100とサーバ200とは通信可能に接続している。人流計測システム90は複数のカメラ100を備えてもよい。サーバ200はクライアントサーバとも呼ばれる。クライアントサーバはコンピュータでもある。
カメラ100は、撮像部110と、人物検出部120と、人数計測部130と、計測人数補正部140とを備える。サーバ200は、画像受信部210と、3次元構造解析部220と、補正係数生成部230とを備える。カメラ100は第1人流計測装置とも呼ばれる。第1人流計測装置はコンピュータを備えてもよい。サーバ200は第2人流計測装置とも呼ばれる。第1人流計測装置と第2人流計測装置とは適宜一体的に構成されてもよく、各装置の各部を他の装置が備えてもよい。***Explanation of configuration***
FIG. 1 shows an example of a block diagram of a people
The
撮像部110は、対象空間が映る画像を撮影する。対象空間は、カメラ100の撮影対象である3次元空間である。
The
人物検出部120は対象物体を検出する。対象物体は、入力画像に映っている物体であって、対象空間内に存在する物体であり、具体例として人体である。入力画像は、対象空間を撮像した画像である。具体例として、人物検出部120は、撮像部110から出力された画像データ2が示す画像に含まれる人物を検出する。画像データ2が示す画像は入力画像でもある。
画像データ2は、撮像部110が撮像した画像を示すデータである。画像データ2は、静止画を示すデータであってもよく、動画を示すデータであってもよい。The
人数計測部130は、人物検出部120によって検出された対象物体の数を計測する。具体例として、人数計測部130は、人物検出部120が検出した人物に基づいて対象空間内における人数を計測する。
The
計測人数補正部140は、補正係数を用いて、人数計測部130によって計測された対象物体の数を補正する。補正係数は、対象空間の3次元構造に基づいて生成された係数であって、計測された対象物体の数を補正することに用いられる係数である。具体例として、計測人数補正部140は、補正係数生成部230から出力された補正係数を用いて、人数計測部130が計測した人数を補正する。
The measured number of
画像受信部210は、カメラ100から画像データ2を受信する。
The
3次元構造解析部220は、対象空間の3次元構造であって、画像受信部210が出力した画像内に表現されている3次元構造を解析する。
The three-dimensional
補正係数生成部230は、3次元構造解析部220によって解析された3次元構造に基づいて補正係数を生成する。補正係数は、人数計測部130が計測した人数を補正することに用いられる係数である。補正係数は、単一の値であってもよく、検出された人物ごとに用意されてもよく、対象空間内の領域ごとに設定された値であって、領域ごとの人数及び人口密度を考慮して設定された値であってもよい。また、補正係数は、対象空間の周囲における天気及びイベント等を示す環境情報を考慮して設定された値であってもよい。補正係数は、傘の有無を考慮して設定された値であってもよい。
補正係数生成部230は、入力画像に遮蔽物が映っている場合において、参照領域内に映っている対象物体の数に基づいて、補正係数として、入力画像を撮影したカメラ100の位置を基準としたときに遮蔽物の背後に存在する対象物体の数を推定することに用いられる係数を生成してもよい。参照領域は、入力画像内の領域であって、入力画像における遮蔽物の大きさに対応する領域である。遮蔽物は、カメラ100の位置を基準として対象空間内の一部を遮蔽する3次元構造物である。The correction
When an obstructing object is shown in the input image, the correction
補正後計測人数9は、計測人数補正部140によって補正された人数を示すデータであり、画像データ2が示す画像が撮像された時点において対象空間内に存在する人の数を示すデータである。
The corrected measured number of
人流計測システム90は、人流計測システム90が備える各部が一体的に構成されている場合において、具体例として図2に示すように、プロセッサ11と、メモリ12と、画像入力インタフェース13と、画像処理プロセッサ14と、ネットワークインタフェース15等のハードウェアを備える。これらのハードウェアは、信号線を介して適宜接続されている。人流計測システム90は、一般的なコンピュータから構成されてもよく、複数のコンピュータから構成されてもよい。
The people flow
プロセッサ11は、演算処理を行うIC(Integrated Circuit)であり、かつ、コンピュータが備えるハードウェアを制御する。プロセッサ11は、具体例として、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、又はGPU(Graphics Processing Unit)である。
人流計測システム90は、プロセッサ11を代替する複数のプロセッサを備えてもよい。複数のプロセッサはプロセッサ11の役割を分担する。The
The people flow
メモリ12は、典型的には揮発性の記憶装置と不揮発性の記憶装置とから成る。揮発性の記憶装置は、具体例としてRAM(Random Access Memory)である。不揮発性の記憶装置は、具体例としてROM(Read Only Memory)、HDD(Hard Disk Drive)、又はフラッシュメモリである。
画像入力インタフェース13は、画像データ2を受信するインタフェースであり、具体例としてUSB(Universal Serial Bus)端子である。
画像処理プロセッサ14は、画像処理を実行する機能を有するプロセッサである。プロセッサ11及び画像処理プロセッサ14は、人流計測システム90が備える各部の機能を実現してもよい。
ネットワークインタフェース15は、レシーバ及びトランスミッタであり、具体例として通信チップ又はNIC(Network Interface Card)である。The
The
The
本構成において、まず、画像データ2は、画像入力インタフェース13を経由して画像受信部210に入力される。
次に、入力された画像データ2は画像処理プロセッサ14に入力される。画像処理プロセッサ14は、画像内の人物を検出し、検出した人物を示す人物データをメモリ12に格納する。
次に、画像処理プロセッサ14は、メモリ12に格納されている人物データを取り込み、メモリ12に保存されているカウンタであって、人物数をカウントするカウンタをインクリメントし、インクリメントしたカウンタを再度メモリ12に人数計測結果として書き出す。
人流計測システム90は、上述の処理を1つの画像から検出された全ての人物データに対して処理する。In this configuration, first, the
Next, the
Next, the
The people flow
また、画像処理プロセッサ14は、画像データ2が示す3次元構造を解析し、解析結果を示す3次元構造情報をメモリ12に格納する。
次に、プロセッサ11は、メモリ12に格納されている3次元構造情報に基づいて前述の画像内において検出された人物の3次元位置を判定し、当該3次元構造情報に基づいて計測人数に対する補正係数を作成し、作成した補正係数をメモリ12に格納する処理を実行する。本処理は検出された全ての人物に対して実行される。
次に、画像処理プロセッサ14は、メモリ12に格納されている人数情報と、メモリ12に格納されている補正係数とを取り込み、取り込んだ人数情報と補正係数とを用いて補正処理を実行し、補正処理を実行した結果をメモリ12に出力する。補正処理を実行した結果を示すメモリ12上の計測人数9は、ネットワークインタフェース15を経由してネットワークに送出される。Further, the
Next, the
Next, the
メモリ12は人流計測プログラムを記憶している。人流計測プログラムは、人流計測システム90が備える各部の機能をコンピュータに実現させるプログラムであり、人流計測システム90が備える各装置において実行されるプログラムの総称である。人流計測プログラムは、プロセッサ11及び画像処理プロセッサ14によって実行される。人流計測システム90が備える各部の機能は、ソフトウェアにより実現されてもよい。
The
人流計測プログラムを実行する際に用いられるデータと、人流計測プログラムを実行することによって得られるデータ等は、記憶装置に適宜記憶される。人流計測システム90の各部は記憶装置を適宜利用する。記憶装置は、具体例として、メモリ12と、プロセッサ11内のレジスタと、プロセッサ11内のキャッシュメモリとの少なくとも1つから成る。なお、データという用語と情報という用語とは同等の意味を有することもある。記憶装置は、コンピュータと独立したものであってもよい。
メモリ12の機能は、他の記憶装置によって実現されてもよい。Data used when executing the people flow measurement program, data obtained by executing the people flow measurement program, etc. are appropriately stored in the storage device. Each part of the people flow
The functions of
人流計測プログラムは、コンピュータが読み取り可能な不揮発性の記録媒体に記録されていてもよい。不揮発性の記録媒体は、具体例として、光ディスク又はフラッシュメモリである。人流計測プログラムは、プログラムプロダクトとして提供されてもよい。 The people flow measurement program may be recorded on a computer-readable nonvolatile recording medium. Specific examples of the nonvolatile recording medium include an optical disk or a flash memory. The people flow measurement program may be provided as a program product.
***動作の説明***
人流計測システム90の動作手順は人流計測方法に相当する。また、人流計測システム90の動作を実現するプログラムは人流計測プログラムに相当する。***Operation explanation***
The operation procedure of the people flow
図3は、人流計測システム90が図1に示す構成である場合における人流計測システム90の処理の一例を示すフローチャートである。図3を用いて人流計測システム90の処理を説明する。なお、カメラ100である対象カメラがカメラ処理のフローチャートを実行するものとする。
FIG. 3 is a flowchart showing an example of the processing of the people flow
(ステップS101)
撮像部110は、対象空間が映る画像を撮像し、撮像した画像を示す画像データ2をサーバ200に出力する。(Step S101)
The
(ステップS102)
計測人数補正部140は、補正係数生成部230から補正係数を受信する。(Step S102)
The measured number of
(ステップS103)
対象カメラは、撮像部110が撮影した各画像について以下の処理を実行する。(Step S103)
The target camera performs the following processing on each image captured by the
(ステップS104)
撮像部110は、対象空間が映る画像を撮像し、撮像した画像を示す画像データ2を出力する。(Step S104)
The
(ステップS105)
人物検出部120は、撮像部110によって出力された画像データ2に映っている人物を検出する。(Step S105)
The
(ステップS106)
人数計測部130は、人物検出部120によって検出された人物に基づいて画像データ2が示す画像における人数を計測する。(Step S106)
The number of
(ステップS107)
計測人数補正部140は、対象カメラに対応する補正係数を用いて、人数計測部130によって計測された人数を補正し、補正した人数を示す補正後計測人数9を出力する。(Step S107)
The measured number of
(ステップS111)
サーバ200は、各カメラ100について以下の処理を実行する。(Step S111)
The
(ステップS112)
画像受信部210は、カメラ100から画像データ2を受信する。(Step S112)
The
(ステップS113)
3次元構造解析部220は、受信した画像データ2が示す画像に映っている対象空間における3次元構造を解析する。(Step S113)
The three-dimensional
(ステップS114)
補正係数生成部230は、3次元構造解析部220による3次元構造の解析結果に基づいて補正係数を算出し、算出した補正係数を計測人数補正部140に送信する。なお、送信される補正係数には補正係数に対応するカメラ100を示すデータが対応付けられているものとする。(Step S114)
The correction
上述の構成及び動作により、補正係数生成部230には、各画像データ2に対応する撮影対象の3次元構造に基づく補正係数が蓄積される。
With the above-described configuration and operation, the correction
図4は、補正係数を説明する図であり、入力画像の具体例と、説明の便宜上付与された各枠とを示す図である。図4において白色の実線枠と黒色の実線枠とは、3次元構造解析部220によって解析された3次元構造であって、入力画像が示す対象空間である3次元空間の3次元構造を示している。白色の実線枠は3次元空間の上部に対応する枠であり、黒色の実線枠は3次元空間の下部に対応する枠である。なお、図4において、説明の便宜上3次元空間の一部のみに対して白色の実線枠と黒色の実線枠とが付与されているが、実際には入力画像の全体に3次元空間が広がっている。そのため、3次元構造解析部220は、入力画像の全体に広がっている3次元空間の上部及び下部を解析する。
奥側エリアは、3次元空間において、カメラ100の位置を基準として相対的に奥側に存在するエリアを示している。手前側エリアは、3次元空間において、カメラ100の位置を基準として相対的に手前側に存在するエリアを示している。
人物検出部120は、入力画像に映っている各人物を検出する。ここで、一般的に、画像から人物を検出する技術において、相対的に大きく映っている人物については相対的に高い精度で検出することができ、相対的に小さく映っている人物については相対的に低い精度でしか検出することができない。従って、補正係数生成部230が、奥側エリア内に映っている人物に対応する補正が相対的に大きくなり、かつ、手前側エリア内に映っている人物に対応する補正が相対的に小さくなるような補正係数を算出した場合に、人流計測システム90は、全体として比較的高い精度で対象空間における人数を計測することができる。FIG. 4 is a diagram illustrating correction coefficients, and is a diagram showing a specific example of an input image and each frame provided for convenience of explanation. In FIG. 4, the white solid line frame and the black solid line frame are the three-dimensional structure analyzed by the three-dimensional
The back area indicates an area that exists on the back side relative to the position of the
The
図5は、3次元構造解析部220による3次元構造解析の結果、入力画像が示す3次元空間内において、画像データ2を撮影したカメラ100の位置から見た場合において一部の領域を遮蔽する遮蔽物である3次元構造物が解析された例を示している。本例において、3次元構造物の背後に人物が存在する可能性があるが、従来の人流計測方式では3次元構造物の背後に存在する人物を検出することができない。そのため、従来の人流計測方式では、比較的高い精度で対象空間における人数を計測することができないことがある。
本例において、3次元構造物の背後における人数に対応する補正係数であって、解析された3次元構造物の3次元的な大きさを手掛かりにして3次元構造物に対応する補正係数を設定することが望ましい。そこで、補正係数生成部230は、具体例として、3次元構造物の背後における人数が、3次元構造物の背後のエリアと3次元空間的に同等であるエリア(具体例として図5中の破線枠が示すエリア)において計測された人数と同等となるような補正係数を算出する。破線枠が示すエリアは参照領域に当たる。このようにして算出された補正係数を用いることにより、入力画像において遮蔽物により遮蔽されたエリアについてもある程度の確度を持った人数を算出することができる。そのため、人流計測システム90は、全体として比較的高い精度で人数を計測することができる。
なお、補正係数は、遮蔽物の背後における人数を推測する際に参照すべき領域を示すデータであってもよい。FIG. 5 shows that as a result of three-dimensional structure analysis by the three-dimensional
In this example, the correction coefficient corresponding to the number of people behind the three-dimensional structure is set based on the three-dimensional size of the analyzed three-dimensional structure. It is desirable to do so. Therefore, as a specific example, the correction
Note that the correction coefficient may be data indicating an area to be referred to when estimating the number of people behind the shielding object.
***実施の形態1の効果の説明***
以上のように、本実施の形態によれば、対象空間の3次元構造を考慮して算出された補正係数を用いて計測人数を補正する。そのため、本実施の形態によれば、人流計測方式においてより正確に人数を計測することができる。***Explanation of effects of Embodiment 1***
As described above, according to the present embodiment, the number of people to be measured is corrected using a correction coefficient calculated in consideration of the three-dimensional structure of the target space. Therefore, according to this embodiment, the number of people can be measured more accurately using the people flow measurement method.
***他の構成***
<変形例1>
図6は、本変形例に係る人流計測システム90が備える各装置のハードウェア構成例を示している。図6は、各装置を代表してサーバ200を示している。
人流計測システム90が備える各装置は、プロセッサ11、プロセッサ11と画像処理プロセッサ14、あるいはプロセッサ11とメモリ12に代えて、処理回路18を備える。
処理回路18は、人流計測システム90が備える各部の少なくとも一部を実現するハードウェアである。
処理回路18は、専用のハードウェアであってもよく、また、メモリ12に格納されるプログラムを実行するプロセッサであってもよい。***Other configurations***
<Modification 1>
FIG. 6 shows an example of the hardware configuration of each device included in the people flow
Each device included in the people flow
The
Processing
処理回路18が専用のハードウェアである場合、処理回路18は、具体例として、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)又はこれらの組み合わせである。
人流計測システム90は、処理回路18を代替する複数の処理回路を備えてもよい。複数の処理回路は、処理回路18の役割を分担する。When the
The people flow
人流計測システム90において、一部の機能が専用のハードウェアによって実現されて、残りの機能がソフトウェア又はファームウェアによって実現されてもよい。
In the people flow
処理回路18は、具体例として、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせにより実現される。
プロセッサ11とメモリ12と画像処理プロセッサ14と処理回路18とを、総称して「プロセッシングサーキットリー」という。つまり、人流計測システム90の各機能構成要素の機能は、プロセッシングサーキットリーにより実現される。The
The
***他の実施の形態***
実施の形態1について説明したが、本実施の形態のうち、複数の部分を組み合わせて実施しても構わない。あるいは、本実施の形態を部分的に実施しても構わない。その他、本実施の形態は、必要に応じて種々の変更がなされても構わず、全体としてあるいは部分的に、どのように組み合わせて実施されても構わない。
なお、前述した実施の形態は、本質的に好ましい例示であって、本開示と、その適用物と、用途の範囲とを制限することを意図するものではない。フローチャート等を用いて説明した手順は適宜変更されてもよい。***Other embodiments***
Although Embodiment 1 has been described, a plurality of parts of this embodiment may be implemented in combination. Alternatively, this embodiment may be partially implemented. In addition, this embodiment may be modified in various ways as necessary, and may be implemented as a whole or in part in any combination.
Note that the embodiments described above are essentially preferable examples, and are not intended to limit the present disclosure, its applications, and the scope of use. The procedures described using flowcharts and the like may be changed as appropriate.
2 画像データ、9 補正後計測人数、11 プロセッサ、12 メモリ、13 画像入力インタフェース、14 画像処理プロセッサ、15 ネットワークインタフェース、18 処理回路、90 人流計測システム、100 カメラ、110 撮像部、120 人物検出部、130 人数計測部、140 計測人数補正部、200 サーバ、210 画像受信部、220 3次元構造解析部、230 補正係数生成部。 2 image data, 9 number of people measured after correction, 11 processor, 12 memory, 13 image input interface, 14 image processing processor, 15 network interface, 18 processing circuit, 90 people flow measurement system, 100 camera, 110 imaging unit, 120 person detection unit , 130 people counting section, 140 measured number of people correction section, 200 server, 210 image receiving section, 220 three-dimensional structure analysis section, 230 correction coefficient generation section.
Claims (7)
検出された対象物体の数を計測する人数計測部と、
前記対象空間の3次元構造に基づいて生成された係数であって、計測された対象物体の数を補正することに用いられる係数である補正係数を用いて、計測された対象物体の数を補正する計測人数補正部と
を備える第1人流計測装置
を備える人流計測システムであって、
前記3次元構造は、前記入力画像を撮影した機器の位置を基準とした前記対象空間内における奥行を示す人流計測システム。 a person detection unit that detects a target object that is an object appearing in an input image that is a captured image of a target space and that is an object that exists within the target space;
a people counting unit that measures the number of detected target objects;
Correcting the number of measured target objects using a correction coefficient that is a coefficient generated based on the three-dimensional structure of the target space and used to correct the number of measured target objects. A people flow measurement system comprising a first people flow measurement device comprising a measured number of people correction unit ,
The three-dimensional structure indicates the depth within the target space based on the position of the device that captured the input image.
前記入力画像に基づいて前記対象空間の3次元構造を解析する3次元構造解析部と、
解析された3次元構造に基づいて前記補正係数を生成する補正係数生成部と
を備える第2人流計測装置
を備える請求項1に記載の人流計測システム。 The people flow measurement system further includes:
a three-dimensional structure analysis unit that analyzes a three-dimensional structure of the target space based on the input image;
The people flow measurement system according to claim 1, further comprising a second people flow measurement device including a correction coefficient generation unit that generates the correction coefficient based on an analyzed three-dimensional structure.
前記第2人流計測装置はコンピュータである請求項2又は3に記載の人流計測システム。 The first people flow measuring device is a camera,
The people flow measuring system according to claim 2 or 3, wherein the second people flow measuring device is a computer.
前記コンピュータが、検出された対象物体の数を計測し、
前記コンピュータが、前記対象空間の3次元構造に基づいて生成された係数であって、計測された対象物体の数を補正することに用いられる係数である補正係数を用いて、計測された対象物体の数を補正する人流計測方法であって、
前記3次元構造は、前記入力画像を撮影した機器の位置を基準とした前記対象空間内における奥行を示す人流計測方法。 The computer detects a target object, which is an object appearing in an input image that is a captured image of a target space, and is an object existing within the target space,
the computer measures the number of detected target objects;
The computer calculates the measured target object using a correction coefficient that is a coefficient generated based on the three-dimensional structure of the target space and is used to correct the number of measured target objects. A method of measuring people flow that corrects the number of people ,
The three-dimensional structure indicates a depth within the target space based on the position of a device that captured the input image.
検出された対象物体の数を計測する人数計測処理と、
前記対象空間の3次元構造に基づいて生成された係数であって、計測された対象物体の数を補正することに用いられる係数である補正係数を用いて、計測された対象物体の数を補正する計測人数補正処理
を第1人流計測装置が備えるコンピュータに実行させる人流計測プログラムであって、
前記3次元構造は、前記入力画像を撮影した機器の位置を基準とした前記対象空間内における奥行を示す人流計測プログラム。 A person detection process that detects a target object that is an object that is reflected in an input image that is an image of a target space and that is an object that exists within the target space;
A people counting process that measures the number of detected target objects;
Correcting the number of measured target objects using a correction coefficient that is a coefficient generated based on the three-dimensional structure of the target space and used to correct the number of measured target objects. A people flow measurement program that causes a computer included in a first people flow measurement device to execute a measured number of people correction process ,
The three-dimensional structure is a people flow measurement program that indicates the depth within the target space based on the position of the device that captured the input image.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023017883 | 2023-05-12 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP7387080B1 true JP7387080B1 (en) | 2023-11-27 |
Family
ID=88917941
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023555348A Active JP7387080B1 (en) | 2023-05-12 | 2023-05-12 | People flow measurement system, people flow measurement method, and people flow measurement program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7387080B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005025328A (en) * | 2003-06-30 | 2005-01-27 | Ntt Data Corp | Congestion monitoring system and congestion monitoring program |
JP2021071923A (en) * | 2019-10-31 | 2021-05-06 | キヤノン株式会社 | Information processing device, information processing method, and program |
JP2022022874A (en) * | 2020-07-09 | 2022-02-07 | キヤノン株式会社 | Information processing device, information processing method, and program |
-
2023
- 2023-05-12 JP JP2023555348A patent/JP7387080B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005025328A (en) * | 2003-06-30 | 2005-01-27 | Ntt Data Corp | Congestion monitoring system and congestion monitoring program |
JP2021071923A (en) * | 2019-10-31 | 2021-05-06 | キヤノン株式会社 | Information processing device, information processing method, and program |
JP2022022874A (en) * | 2020-07-09 | 2022-02-07 | キヤノン株式会社 | Information processing device, information processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018161877A1 (en) | Processing method, processing device, electronic device and computer readable storage medium | |
US10281264B2 (en) | Three-dimensional measurement apparatus and control method for the same | |
JP4308319B2 (en) | Image processing apparatus and image processing method | |
US9088715B2 (en) | Image processing apparatus and image processing method for image correction | |
JP4317583B2 (en) | Normal information generating apparatus and normal information generating method | |
EP1670237A2 (en) | Matching un-synchronized image portions | |
KR101893771B1 (en) | Apparatus and method for processing 3d information | |
KR20180113043A (en) | Method and apparatus for refining depth image | |
CN108600736B (en) | Terminal light sensation calibration method and device, terminal and storage medium | |
CN111272144B (en) | Depth Sensing Camera System | |
WO2018023961A1 (en) | Distance information processing method and device | |
JP4843544B2 (en) | 3D image correction method and apparatus | |
CN111488775A (en) | Device and method for judging degree of fixation | |
JPWO2020170299A1 (en) | Fatigue judgment device, fatigue judgment method, and fatigue judgment program | |
US20210256729A1 (en) | Methods and systems for determining calibration quality metrics for a multicamera imaging system | |
US8970691B2 (en) | Removal of rayleigh scattering from images | |
JP7387080B1 (en) | People flow measurement system, people flow measurement method, and people flow measurement program | |
Sabov et al. | Identification and correction of flying pixels in range camera data | |
KR101701138B1 (en) | Resolution and focus enhancement | |
KR101911860B1 (en) | Method and Apparatus for Detecting Road Using Camera Model and Filter in Depth Image | |
CN118119336A (en) | Deep body temperature estimation device, deep body temperature estimation method, and program | |
JP2020021314A (en) | Image processing system and image processing method | |
JP6331789B2 (en) | Imaging system, image processing apparatus, and program | |
KR101188476B1 (en) | Apparatus and method for calculating photographing distance and correcting horizontality distance of subject | |
JP6780639B2 (en) | Image analysis device, image analysis method, and image analysis program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230908 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230908 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230908 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231017 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231114 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7387080 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |