JP2021009728A - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP2021009728A JP2021009728A JP2020173083A JP2020173083A JP2021009728A JP 2021009728 A JP2021009728 A JP 2021009728A JP 2020173083 A JP2020173083 A JP 2020173083A JP 2020173083 A JP2020173083 A JP 2020173083A JP 2021009728 A JP2021009728 A JP 2021009728A
- Authority
- JP
- Japan
- Prior art keywords
- estimation
- region
- image processing
- image
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method and a program.
近年、撮像装置で所定の領域を撮影して、撮影した画像を解析することによって画像中の人物の数を計測するシステムが提案されている。このようなシステムは、公共の空間での混雑の検知及び混雑時の人の流れを把握することでイベント時の混雑解消や災害時の避難誘導への活用が期待されている。
このような画像中の人物の数を計測する方法としては、人体検出手段によって検出した人物の数を計数する方法(特許文献1)がある。以下、この方法を「検出ベース人数推定法」と呼ぶ。また、機械学習によって得た認識モデルを用いて、画像の所定の領域に映る人数を直接推定する方法(非特許文献1)も提案されている。以下、この方法を「回帰ベース人数推定法」と呼ぶ。
In recent years, a system has been proposed in which a predetermined area is photographed by an imaging device and the number of people in the image is measured by analyzing the photographed image. Such a system is expected to be used for eliminating congestion at events and guiding evacuation in the event of a disaster by detecting congestion in a public space and grasping the flow of people during congestion.
As a method of measuring the number of people in such an image, there is a method of counting the number of people detected by the human body detecting means (Patent Document 1). Hereinafter, this method will be referred to as a "detection-based number estimation method". In addition, a method of directly estimating the number of people appearing in a predetermined area of an image by using a recognition model obtained by machine learning (Non-Patent Document 1) has also been proposed. Hereinafter, this method will be referred to as a "regression-based number estimation method".
検出ベース人数推定法は、人がまばらに存在し、かつ、所定の大きさ以上で映る場合には、高精度で人数を推定できる。しかしながら、人が高密度で存在し人体の大部分が隠れている場合、又は人体が所定の大きさより小さく映る場合には、人体検出手段の精度が劣化するため、人数推定の精度も劣化するという課題がある。
回帰ベース人数推定法は、人が高密度で存在する場合や所定の大きさより小さく映る場合においては、検出ベース人数推定法よりも高精度に人数を推定できる。一方、回帰ベース人数推定法は、人がまばらに存在し、かつ、所定の大きさ以上で映る場合においては、人数推定精度は検出ベース人数推定法に劣る。
本発明は、複数の人数推定法を組み合わせて、画像中の特定物体の数をより高精度に推定することを目的とする。
The detection-based number estimation method can estimate the number of people with high accuracy when the number of people is sparse and the image is larger than a predetermined size. However, when a person exists at a high density and most of the human body is hidden, or when the human body appears smaller than a predetermined size, the accuracy of the human body detecting means deteriorates, so that the accuracy of the number estimation also deteriorates. There are challenges.
The regression-based number estimation method can estimate the number of people with higher accuracy than the detection-based number estimation method when people are present at a high density or appear smaller than a predetermined size. On the other hand, the regression-based number estimation method is inferior to the detection-based number estimation method in the case where the number of people is sparse and the image is displayed in a predetermined size or larger.
An object of the present invention is to combine a plurality of number estimation methods to estimate the number of specific objects in an image with higher accuracy.
本発明の画像処理装置は、画像の第1領域に含まれる特定物体の数を、第1推定処理を用いて推定する第1推定手段と、前記画像の第2領域に含まれる特定物体の数を、前記第1推定処理と異なる第2推定処理を用いて推定する第2推定手段と、前記第1推定手段による推定結果と、前記第2推定手段による推定結果とを統合する統合手段と、を有し、前記第1推定処理は、前記画像に含まれる特定物体を検出する検出処理を用いて前記特定物体の数を推定する処理であり、前記第2推定処理は、人数が既知である複数の画像を学習データとした学習により得られた認識モデルを用いて前記特定物体の数を推定する処理であることを特徴とする。 The image processing apparatus of the present invention has a first estimation means for estimating the number of specific objects included in the first region of an image by using the first estimation process, and the number of specific objects included in the second region of the image. A second estimation means that estimates using a second estimation process different from the first estimation process, an integrated means that integrates the estimation result by the first estimation means and the estimation result by the second estimation means, and The first estimation process is a process of estimating the number of the specific objects by using the detection process of detecting the specific objects included in the image, and the second estimation process is a process of estimating the number of people. It is characterized in that it is a process of estimating the number of the specific object by using a recognition model obtained by learning using a plurality of images as training data.
本発明によれば、複数の人数推定法を組み合わせて、画像中の特定物体の数をより高精度に推定することができる。 According to the present invention, the number of specific objects in an image can be estimated with higher accuracy by combining a plurality of number estimation methods.
以下、本発明の実施形態について図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<第1の実施形態>
図1は、画像処理装置100のハードウェア構成の一例を示す図である。
画像処理装置100は、ハードウェア構成として、CPU10と、メモリ11と、ネットワークI/F12と、表示装置13と、入力装置14と、を含む。CPU10は、画像処理装置100の全体の制御を司る。メモリ11は、CPU10が処理に利用するデータ、プログラム等を記憶する。入力装置14は、マウス、又はボタン等であり、ユーザの操作を画像処理装置100に入力する。表示装置13は、液晶表示装置等であり、CPU10による処理の結果等を表示する。ネットワークI/F12は、画像処理装置100をネットワークに接続するインタフェースである。CPU10がメモリ11に記憶されたプログラムに基づき処理を実行することにより、後述する図2の画像処理装置100の機能構成及び後述する図3のフローチャートの処理が実現される。
<First Embodiment>
FIG. 1 is a diagram showing an example of a hardware configuration of the
The
図2は、画像処理装置100の機能構成の一例を示す図である。
画像処理装置100は、機能構成として、画像取得部101、領域決定部102、第1推定部103、第2推定部104、人数統合部105、表示部106を含む。
画像取得部101は、人数を推定する対象となる画像を取得する。
領域決定部102は、検出ベース人数推定を実施する領域と、回帰ベース人数推定を実施する領域と、を決定する。以下、検出ベース人数推定を実施する領域を検出領域、回帰ベース人数推定を実施する領域を回帰領域という。
第1推定部103は、検出領域に対して、検出ベース人数推定を実施する。検出ベース人数推定は、特定物体の検出処理の一例である。また、画像中の人は、特定物体の一例である。
第2推定部104は、回帰領域に対して、回帰ベース人数推定を実施する。回帰ベース人数推定は、所定の領域ごとに特定物体の数を推定する回帰処理の一例である。
人数統合部105は、第1推定部103による人数推定結果と、第2推定部104による人数推定結果と、を統合する。
表示部106は、人数統合部105により統合した人数推定結果を、表示装置13に表示する。
FIG. 2 is a diagram showing an example of the functional configuration of the
The
The
The
The
The
The
The
図3は、画像処理装置100による画像処理の一例を示すフローチャートである。
S201において、画像取得部101は、人数を推定する対象となる画像を取得する。画像取得部101は、CMOSセンサやCCDセンサ等の固体撮像素子から画像を取得してもよいし、ハードディスク等のメモリ11から画像を取得してもよい。
S202において、領域決定部102は、検出領域と、回帰領域と、を決定する。領域の決定には任意の方法を取ってよい。
例えば一つ目の方法は、領域決定部102が検出領域と回帰領域との両方とも、画像全体とする方法である。
二つ目の方法は、領域決定部102が検出領域と人数推定とを実施する領域の両方を、ユーザの明示的に設定操作に基づき設定する方法である。領域決定部102は、例えば、表示装置13、及び入力装置14等を介したユーザの領域の設定操作に基づき、検出領域と人数推定とを実施する領域の両方を決定する。
FIG. 3 is a flowchart showing an example of image processing by the
In S201, the
In S202, the
For example, in the first method, the
The second method is a method in which the
三つ目の方法は、領域決定部102が人体の大きさに従って検出領域と回帰領域とを設定する方法である。例えば、領域決定部102は、人体が第一の所定の大きさ以上で映る領域を、検出領域とし、人体が第二の所定の大きさ以下で映る領域を、回帰領域と設定することができる。図4(a)に、所定の高さより高所に設置した撮像装置により撮像される画像の一例を示す。灰色の物体は人体を表す。撮像装置を斜めに設置した場合、図4のように、撮像装置に近い手前側の人体は大きく、撮像装置から離れた奥側の人体は小さく映る。図4(b)の領域310は検出領域の例である。図4(c)の領域320は回帰領域の例である。
画像上の人体の大きさは、ユーザが入力装置14を用いて明示的に領域決定部102に与えてもよい。例えば、ユーザが、画像上の複数の地点における人体の平均的な大きさを教示することで、領域決定部102は、画像上の任意の地点における人体の平均的な大きさを補間により推定することができる。
また、領域決定部102は、画像上の人体の大きさを、統計処理により自動で推定してもよい。例えば、領域決定部102は、所定の学習画像群に対して画像全体に人体検出処理を行い、人体の位置を示す人体枠の集合を取得する。画像上の座標(x,y)における人体枠の大きさをsとしたとき、sは、x、y及び未知の1個以上のパラメータによって表せると仮定する。例えば、s=ax+by+cと仮定する。この例では、未知のパラメータはa、b及びcである。領域決定部102は、所定の学習画像群から取得した人体枠の集合を用いて、未知のパラメータを、例えば最小二乗法等の統計処理により求めることができる。領域決定部102は、この方法により、人が小さく映るために人体検出が失敗する領域における人体の大きさも推定することができる。
The third method is a method in which the
The size of the human body on the image may be explicitly given to the
Further, the
四つ目の方法は、領域決定部102が人の密集度に従って検出領域と回帰領域とを設定する方法である。例えば、領域決定部102は、人の密集度が所定の値以下である領域を検出領域とし、人の密集度が所定の値以上である領域を回帰領域と設定することができる。人の密集度は任意の方法で推定することができる。例えば、領域決定部102は、背景差分によって求めた動体領域に対して、動体が存在すると判定されたピクセル数の割合に従って密集度を推定できる。また、例えば、領域決定部102は、動きベクトル検出を所定の範囲に施し、動きベクトルの長さの和に従って密集度を推定できる。
領域の決定はこれらに限定されるものではない。例えば、領域決定部102は、三つ目の方法と四つ目の方法とを組み合わせ、人体の大きさと人の密集度との両方を考慮して領域を決定するようにしてもよい。また、領域決定部102は、検出領域を画面全体とし、回帰領域を三つ目の方法と四つ目の方法との内の少なくとも一方を用いて決定するようにしてもよい。領域決定部102は、一つ目の方法から四つ目の方法までの方法を任意に組み合わせて検出領域と回帰領域とを設定するようにしてもよい。また、領域決定部102は、時間帯や状況に応じて動的に領域を変化させてもよい。
The fourth method is a method in which the
The determination of the area is not limited to these. For example, the
S203において、第1推定部103は、S202にて設定された検出領域に対して、既知のパターン認識や機械学習の各種手法を利用し、人体検出を行う。ここで、人体検出とは、顔や人体の全体又はその一部等、予め定められた部位の位置を特定する処理を指す。以下では、人の頭部位置を検出する人体検出器を利用するものとする。第1推定部103は、例えば、画像の大きさを変更しながら照合パターンを画像全域に用いて複数の局所パターンを抽出し、それぞれの局所特徴量を算出する。そして、第1推定部103は、局所特徴量に重み付けを行った結果の総和から人体であるか否かを判定する。図5に、検出された人体の例を示す。矩形401は、人体検出処理によって得られた人体枠を表す。
ここで、第1推定部103は、S202において求められた人体の大きさの推定値を利用して、画像の大きさの変更範囲を限定することで、照合パターンの照合回数を減らし、計算量を削減してもよい。
次いで、第1推定部103は、検出された人体の数を数え上げ、推定人数を得る。
In S203, the
Here, the
Next, the
S204において、第2推定部104は、S202にて設定された回帰領域に対して、既知の回帰ベース人数推定手法を利用し、人数を直接推定する。一例として、ある固定サイズの小画像を入力とし、その小画像に映る人の数を出力とする回帰器を用いる手法について説明する。第2推定部104は、予め、人数が既知である大量の小画像を学習データとして、サポートベクターマシンや深層学習等既知の機械学習手法に基づいて回帰器を学習しておく。第2推定部104は、人数推定時には、入力画像の回帰領域を、人数推定を行う単位である小領域に分割する。そして、第2推定部104は、各小領域を固定サイズにリサイズして小画像とし、各小画像を回帰器の入力とすることで、各小領域の人数を推定する。図6(a)に回帰領域の小領域への分割例及び人数推定例を示す。この例では、第2推定部104は、回帰領域320を同一サイズの小領域510で分割している。また、図6(a)では小領域510ごとに回帰器を用いて推定した人数を、小領域の内部に数値で表している。第2推定部104が推定する人数は必ずしも整数とは限らず、実数を取ることもありえる。第2推定部104は、実数を四捨五入により整数に丸めて扱ってもよいし、実数のまま扱ってもよい。
第2推定部104は、小領域のサイズと人のサイズとの比率がほぼ一定となるように制約を加えることで、回帰器の精度向上を図ることもできる。第2推定部104は、S202で求められた人体の大きさの推定値を利用することで、小領域のサイズに対する人体のサイズがほぼ同一になるように、画像上で異なるサイズの小領域をとることができる。図6(b)に回帰領域の分割例を示す。この例では、回帰領域320を異なるサイズの小領域520で分割している。分割された小領域520はそれぞれリサイズを経て固定サイズの小画像に変形され、回帰器に入力される。
回帰ベース人数推定については、非特許文献1を参照することができる。
In S204, the
The
S205において、人数統合部105は、第1推定部103による人数推定結果と、第2推定部104による人数推定結果と、を統合する。
検出領域と回帰領域とに重複がない場合、人数統合部105は、第1推定部103による人数推定結果と、第2推定部104による人数推定結果と、の両方を合計することで、統合後の人数推定結果を得ることができる。
検出領域と回帰領域とに重複がある場合の統合例について以下に詳述する。
人数統合部105は、入力画像のうち、検出領域のみが設定されている領域に対しては、検出ベース人数推定の結果を統合後の推定人数とする。
また、人数統合部105は、入力画像のうち、回帰領域のみが設定されている領域に対しては、回帰ベース人数推定の結果を統合後の推定人数とする。
また、人数統合部105は、入力画像のうち、検出領域と回帰領域との両方が設定されている領域に対しては、双方の人数推定の結果を用いた任意の式を用いて、統合後の推定人数を算出する。人数統合部105は、式として、例えば推定人数の合計値を取る式、推定人数のうち小さい方を取る式、推定人数のうち大きい方を取る式、推定人数の平均を取る式、又は任意の重みによる重みづけ平均を取る式を用いることができる。
例として、図7に、回帰ベース人数推定時に分割した小領域601を示す。小領域601に対する回帰ベース人数推定の結果は6人であったとする。また、検出ベース人数推定によって得られた人体枠のうち、その重心が小領域600に含まれる人体枠の数が4であったとする。その人体枠を図7の611、612、613、614に示す。人数統合部105は、小領域601に対する検出ベース人数推定の推定人数は、4人とみなす。
人数統合部105が二つの推定人数のうち小さい方を取る場合、統合後の推定人数は4人となる。人数統合部105が二つの推定人数のうち大きい方を取る場合、統合後の推定
人数は6人となる。人数統合部105が二つの推定人数の平均を取る場合、統合後の推定人数は5人となる。人数統合部105が二つの推定人数を、回帰ベース人数推定の結果と検出ベース人数推定の結果とを3:5の重みで重みづけ平均をとる場合、統合後の推定人数は4.75人となる。
In S205, the number of
If there is no overlap between the detection area and the regression area, the
An example of integration when the detection region and the regression region overlap will be described in detail below.
The
In addition, the
In addition, the
As an example, FIG. 7 shows a
If the
推定人数の統合方法は、これらに限定されるものではない。例えば、人数統合部105は、画像の位置に応じて、異なる重みで重みづけ平均をとってもよい。より具体的には、人数統合部105は、人体が所定の大きさより大きく映る位置では検出ベース人数推定結果の重みを所定の重みより大きくし、人体が所定の大きさより小さく映る位置では回帰ベース人数推定結果の重みを所定の重みより大きくしてもよい。また、例えば、人数統合部105は、密集度に応じて、異なる重みで重みづけ平均をとってもよい。より具体的には、人数統合部105は、密集度が所定の値より小さい地点では検出ベース人数推定結果の重みを所定の値より大きくし、密集度が所定の値より大きい地点では回帰ベース人数推定結果の重みを所定の値より大きくしてもよい。
The method of integrating the estimated number of people is not limited to these. For example, the number-of-
S206において、表示部106は、人数統合部105により統合した人数推定結果を、表示装置13等に表示する。
まず、表示部106は、画像全体の統合後の人数推定結果を表示する。この際、表示部106は、S202にて設定された検出領域及び回帰領域を画像上に明示してもよい。また、表示部106は、S203において推定された検出領域における人数推定結果と、S204において推定された回帰領域における人数推定結果とをそれぞれ表示してもよい。
また、表示部106は、画像の位置ごとに推定人数が分かるように、より詳細な表示を行ってもよい。その方法の例を以下に示す。
一つ目の表示方法は、統合後の推定人数と等しい数の人体枠を画像上に重畳表示する方法である。図8(a)を用いて説明する。例えばS205において、図7の小領域601の推定人数を5人とした場合を考える。この場合、小領域601に対する検出ベース人数推定による推定人数は4人であったので、人体枠が1人分足りない。表示部106は、小領域601内のランダムな位置を選んで、不足する分の人体枠を重畳(ここでは枠701)することで、推定人数と等しい数の人体枠を画像上に重畳表示できる。この際、人体枠の大きさを、S202で述べた方法で推定することで、表示部106は、自然な大きさの人体枠を重畳できる。逆に、検出ベース人数推定結果が、統合後の推定人数を上回る場合は、表示部106は、ランダムに人体枠を選んで削除する処理を必要回数行えばよい。
In S206, the
First, the
Further, the
The first display method is a method of superimposing and displaying a number of human body frames equal to the estimated number of people after integration on the image. This will be described with reference to FIG. 8 (a). For example, in S205, consider the case where the estimated number of people in the
二つ目の表示方法は、回帰ベース人数推定時に分割した小領域ごとに、推定人数を表示する方法である。図8(b)を用いて説明する。例えばS205において、図7の小領域601の推定人数を5人とした場合を考える。この場合、表示部106は、小領域601に存在すると推定される人数を、小領域601に重畳して表示する。また、表示部106は、人数の多さに応じて、視覚的に異なる画像処理を各領域に施してもよい。例えば、表示部106は、人数が他の領域に比べて多い領域ほど色を濃くする(例えば、赤色)ように表示してもよい。二つ目の表示方法の処理は、所定の領域ごとに所定の領域に存在する特定物体の数に応じた表示処理を行う一例である。
三つ目の表示方法は、画像の場所によって異なる表示を行う方法である。例えば、表示部106は、人体枠が所定の大きさよりも大きく表示される領域においては、一つ目の表示方法を用い、それ以外の領域においては、二つ目の表示方法を用いる。三つ目の表示方法の処理は、画像の位置に応じて画像に対して異なる表示処理を行う一例である。
四つ目の表示方法は、人数によって異なる表示を行う方法である。例えば、表示部106は、推定人数が所定の値よりも小さい領域においては、一つ目の表示方法を用い、それ以外の領域においては、二つ目の表示方法を用いる。四つ目の表示方法の処理は、画像の特定物体の数に応じて画像に対して異なる表示処理を行う一例である。
三つ目の表示方法や四つ目の表示方法をとることにより、例えば、人が密集している領
域に対しては、図8(b)のような表示を行い、人が密集していない領域に対しては、図8(a)のような表示を行うことができる。したがって、ユーザは、人が密集している領域において、人が何人いるか速やかに把握することができる。
The second display method is a method of displaying the estimated number of people for each small area divided at the time of regression-based number of people estimation. This will be described with reference to FIG. 8 (b). For example, in S205, consider the case where the estimated number of people in the
The third display method is a method of displaying different images depending on the location of the image. For example, the
The fourth display method is a method of displaying differently depending on the number of people. For example, the
By adopting the third display method and the fourth display method, for example, in an area where people are crowded, the display as shown in FIG. 8B is performed, and people are not crowded. The area can be displayed as shown in FIG. 8A. Therefore, the user can quickly grasp how many people there are in a densely populated area.
<第2の実施形態>
検出ベース人数推定に用いる人体検出器及び回帰ベース人数推定に用いる回帰器は、共に既存の深層学習の手法を用いて学習してもよい。この際、CPU10は、人体検出器と回帰器とが、同一の畳込み層を共有する構成にしてもよい。構成例を図9に示す。
<Second embodiment>
Both the human body detector used for the detection-based number estimation and the regression device used for the regression-based number estimation may be learned using the existing deep learning method. At this time, the
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other Embodiments>
The present invention supplies a system or device via a network or storage medium with a program that realizes one or more functions of the above-described embodiment. It can also be realized by a process in which one or more processors in the computer of the system or device reads and executes a program. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではない。上述した実施形態では、推定の対象として人を例にとって説明を行った。しかし、人を例えば人以外の動物や自動車、自転車等の車、微生物等の任意の特定物体に読み替えることで、上述した実施形態の構成、情報処理を任意の特定物体の数の推定に利用することができる。 Although the preferred embodiment of the present invention has been described in detail above, the present invention is not limited to the specific embodiment. In the above-described embodiment, a person has been used as an example for estimation. However, by replacing a person with an arbitrary specific object such as an animal other than a human, an automobile, a car such as a bicycle, or a microorganism, the configuration and information processing of the above-described embodiment are used for estimating the number of an arbitrary specific object. be able to.
以上、上述した各実施形態によれば、検出ベース人数推定法を適用する領域及び回帰ベース人数推定法を適用する領域を自動で決定し、それぞれの結果を統合することで、単独の人数推定方法を用いる場合よりも高精度に人数推定することができる。
よって、複数の人数推定法を組み合わせて、画像中の特定物体の数をより高精度に推定することができる。
As described above, according to each of the above-described embodiments, an area to which the detection-based number estimation method is applied and an area to which the regression-based number estimation method is applied are automatically determined, and the results of each are integrated to obtain a single number estimation method. It is possible to estimate the number of people with higher accuracy than when using.
Therefore, the number of specific objects in the image can be estimated with higher accuracy by combining a plurality of number estimation methods.
10 CPU
11 メモリ
100 画像処理装置
10 CPU
11
Claims (26)
前記画像の第2領域に含まれる特定物体の数を、前記第1推定処理と異なる第2推定処理を用いて推定する第2推定手段と、
前記第1推定手段による推定結果と、前記第2推定手段による推定結果とを統合する統合手段と、を有し、
前記第1推定処理は、前記画像に含まれる特定物体を検出する検出処理を用いて前記特定物体の数を推定する処理であり、
前記第2推定処理は、人数が既知である複数の画像を学習データとした学習により得られた認識モデルを用いて前記特定物体の数を推定する処理であることを特徴とする画像処理装置。 A first estimation means that estimates the number of specific objects included in the first region of an image using the first estimation process, and
A second estimation means that estimates the number of specific objects included in the second region of the image using a second estimation process different from the first estimation process.
It has an integrated means for integrating the estimation result by the first estimation means and the estimation result by the second estimation means.
The first estimation process is a process of estimating the number of the specific objects by using the detection process of detecting the specific objects included in the image.
The second estimation process is an image processing device that estimates the number of the specific objects by using a recognition model obtained by learning using a plurality of images with a known number of people as learning data.
前記表示制御手段は、前記所定領域の各々について、当該所定領域において推定された前記特定物体の数を示す情報を前記表示手段に表示させる請求項17記載の画像処理装置。 The second estimation means estimates the number of the specific objects included in the second region by executing the second estimation process for each predetermined region in the second region of the image.
The image processing device according to claim 17, wherein the display control means causes the display means to display information indicating the number of the specific objects estimated in the predetermined area for each of the predetermined areas.
前記画像の第2領域に含まれる特定物体の数を、前記第1推定処理と異なる第2推定処理を用いて推定する第2推定工程と、
前記第1推定工程における推定結果と、前記第2推定工程における推定結果とを統合する統合工程と、を有し、
前記第1推定処理は、前記画像に含まれる特定物体を検出する検出処理を用いて前記特定物体の数を推定する処理であり、
前記第2推定処理は、人数が既知である複数の画像を学習データとした学習により得られた認識モデルを用いて前記特定物体の数を推定する処理であることを特徴とする画像処理方法。 The first estimation step of estimating the number of specific objects included in the first region of the image using the first estimation process, and
A second estimation step of estimating the number of specific objects included in the second region of the image using a second estimation process different from the first estimation process.
It has an integrated step of integrating the estimation result in the first estimation step and the estimation result in the second estimation step.
The first estimation process is a process of estimating the number of the specific objects by using the detection process of detecting the specific objects included in the image.
The second estimation process is an image processing method characterized in that the number of the specific objects is estimated by using a recognition model obtained by learning using a plurality of images with a known number of people as learning data.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020173083A JP6995960B2 (en) | 2020-10-14 | 2020-10-14 | Image processing equipment, image processing methods and programs |
JP2021203261A JP7314244B2 (en) | 2020-10-14 | 2021-12-15 | Image processing device, image processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020173083A JP6995960B2 (en) | 2020-10-14 | 2020-10-14 | Image processing equipment, image processing methods and programs |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016153072A Division JP6779699B2 (en) | 2016-08-03 | 2016-08-03 | Image processing equipment, information processing methods and programs |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021203261A Division JP7314244B2 (en) | 2020-10-14 | 2021-12-15 | Image processing device, image processing method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021009728A true JP2021009728A (en) | 2021-01-28 |
JP6995960B2 JP6995960B2 (en) | 2022-01-17 |
Family
ID=74199317
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020173083A Active JP6995960B2 (en) | 2020-10-14 | 2020-10-14 | Image processing equipment, image processing methods and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6995960B2 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03195922A (en) * | 1989-12-25 | 1991-08-27 | Mitsubishi Electric Corp | Detecting apparatus for degree of congestion |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3195922B2 (en) | 1993-02-09 | 2001-08-06 | 東洋機械金属株式会社 | Molding machine |
-
2020
- 2020-10-14 JP JP2020173083A patent/JP6995960B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03195922A (en) * | 1989-12-25 | 1991-08-27 | Mitsubishi Electric Corp | Detecting apparatus for degree of congestion |
Also Published As
Publication number | Publication date |
---|---|
JP6995960B2 (en) | 2022-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6779699B2 (en) | Image processing equipment, information processing methods and programs | |
Kumar et al. | Sharpness estimation for document and scene images | |
US9367734B2 (en) | Apparatus, control method, and storage medium for setting object detection region in an image | |
JP6793151B2 (en) | Object tracking device, object tracking method and object tracking program | |
JP2018116692A (en) | Human flow analysis apparatus and system | |
CN108140291A (en) | Mist detecting device, method and image processing equipment | |
JP6024658B2 (en) | Object detection apparatus, object detection method, and program | |
JP2018180619A (en) | Information processing device, information processing and program | |
JP2015528614A5 (en) | ||
US11915430B2 (en) | Image analysis apparatus, image analysis method, and storage medium to display information representing flow quantity | |
WO2016107638A1 (en) | An image face processing method and apparatus | |
JP2017129567A5 (en) | ||
CN110211021B (en) | Image processing apparatus, image processing method, and storage medium | |
JP2013206259A (en) | Region estimation device, region estimation method and region estimation program | |
JP2012057974A (en) | Photographing object size estimation device, photographic object size estimation method and program therefor | |
JP4818285B2 (en) | Congestion retention detection system | |
JP7266599B2 (en) | Devices, systems and methods for sensing patient body movement | |
US9478032B2 (en) | Image monitoring apparatus for estimating size of singleton, and method therefor | |
US12100212B2 (en) | Method, system and computer readable media for object detection coverage estimation | |
JP6995960B2 (en) | Image processing equipment, image processing methods and programs | |
JP7190871B2 (en) | Image analysis device, image analysis method, and program | |
JP7309392B2 (en) | Image processing device, image processing method and program | |
JP7370840B2 (en) | Image processing device, image processing method, computer program and storage medium | |
JP2021047538A (en) | Image processing device, image processing method, and program | |
JP2022033169A (en) | Image processing apparatus, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201014 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211116 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211215 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6995960 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |