JP2018022340A - Image processor, information processing method and program - Google Patents

Image processor, information processing method and program Download PDF

Info

Publication number
JP2018022340A
JP2018022340A JP2016153072A JP2016153072A JP2018022340A JP 2018022340 A JP2018022340 A JP 2018022340A JP 2016153072 A JP2016153072 A JP 2016153072A JP 2016153072 A JP2016153072 A JP 2016153072A JP 2018022340 A JP2018022340 A JP 2018022340A
Authority
JP
Japan
Prior art keywords
estimation
area
processing apparatus
image processing
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016153072A
Other languages
Japanese (ja)
Other versions
JP6779699B2 (en
Inventor
康夫 馬塲
Yasuo Baba
康夫 馬塲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016153072A priority Critical patent/JP6779699B2/en
Publication of JP2018022340A publication Critical patent/JP2018022340A/en
Application granted granted Critical
Publication of JP6779699B2 publication Critical patent/JP6779699B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processor capable of accurately estimating the number of specific objects in an image by combining plural person estimation methods.SOLUTION: The image processor includes: first estimation means that estimates the number of specific objects in a first area by carrying out a series of detection processing of the specific object on a first area of an image; second estimation means that estimates the number of the specific objects in a second area by carrying out a series of regression processing to estimate the number of the specific objects in each of predetermined areas on the second area of the image; and integration means that integrates estimation result by the first estimation means and estimation result by the second estimation means.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理装置、情報処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an information processing method, and a program.

近年、撮像装置で所定の領域を撮影して、撮影した画像を解析することによって画像中の人物の数を計測するシステムが提案されている。このようなシステムは、公共の空間での混雑の検知及び混雑時の人の流れを把握することでイベント時の混雑解消や災害時の避難誘導への活用が期待されている。
このような画像中の人物の数を計測する方法としては、人体検出手段によって検出した人物の数を計数する方法(特許文献1)がある。以下、この方法を「検出ベース人数推定法」と呼ぶ。また、機械学習によって得た認識モデルを用いて、画像の所定の領域に映る人数を直接推定する方法(非特許文献1)も提案されている。以下、この方法を「回帰ベース人数推定法」と呼ぶ。
In recent years, there has been proposed a system that measures the number of persons in an image by photographing a predetermined area with an imaging device and analyzing the photographed image. Such a system is expected to be used to eliminate congestion at an event and to guide evacuation during a disaster by detecting congestion in a public space and grasping the flow of people at the time of congestion.
As a method for measuring the number of persons in such an image, there is a method for counting the number of persons detected by the human body detection means (Patent Document 1). Hereinafter, this method is referred to as “detection-based number estimation method”. Further, a method (Non-Patent Document 1) for directly estimating the number of people appearing in a predetermined area of an image using a recognition model obtained by machine learning has been proposed. Hereinafter, this method is referred to as “regression-based number estimation method”.

特開2007−201556号公報JP 2007-201556 A

池田浩雄,大網亮磨,宮野博義.CNNを用いた群衆パッチ学習に基づく人数推定の高精度化.FIT,2014Hiroo Ikeda, Ryoma Ohami, Hiroyoshi Miyano. Increased accuracy of people estimation based on crowd patch learning using CNN. FIT, 2014

検出ベース人数推定法は、人がまばらに存在し、かつ、所定の大きさ以上で映る場合には、高精度で人数を推定できる。しかしながら、人が高密度で存在し人体の大部分が隠れている場合、又は人体が所定の大きさより小さく映る場合には、人体検出手段の精度が劣化するため、人数推定の精度も劣化するという課題がある。
回帰ベース人数推定法は、人が高密度で存在する場合や所定の大きさより小さく映る場合においては、検出ベース人数推定法よりも高精度に人数を推定できる。一方、回帰ベース人数推定法は、人がまばらに存在し、かつ、所定の大きさ以上で映る場合においては、人数推定精度は検出ベース人数推定法に劣る。
本発明は、複数の人数推定法を組み合わせて、画像中の特定物体の数をより高精度に推定することを目的とする。
The detection-based number estimation method can estimate the number of people with high accuracy when people are present sparsely and appear in a predetermined size or more. However, when humans are present at a high density and most of the human body is hidden, or when the human body appears smaller than a predetermined size, the accuracy of human body detection means deteriorates, so the accuracy of estimating the number of people also deteriorates. There are challenges.
The regression-based number-of-people estimation method can estimate the number of people with higher accuracy than the detection-based number of people estimation method when a person is present at a high density or appears smaller than a predetermined size. On the other hand, the regression-based number estimation method is inferior to the detection-based number estimation method when people are sparsely present and appear in a predetermined size or more.
It is an object of the present invention to estimate the number of specific objects in an image with higher accuracy by combining a plurality of person estimation methods.

本発明は、画像の第1の領域に対し、特定物体の検出処理を施すことで前記第1の領域の特定物体の数を推定する第1の推定手段と、前記画像の第2の領域に対し、所定の領域ごとに特定物体の数を推定する回帰処理を施すことで前記第2の領域の特定物体の数を推定する第2の推定手段と、前記第1の推定手段による推定の結果と前記第2の推定手段による推定の結果とを統合する統合手段と、を有する。   The present invention provides first estimation means for estimating the number of specific objects in the first region by performing a specific object detection process on the first region of the image, and a second region of the image. On the other hand, a second estimation unit that estimates the number of specific objects in the second region by performing a regression process that estimates the number of specific objects for each predetermined region, and a result of estimation by the first estimation unit And integration means for integrating the estimation results by the second estimation means.

本発明によれば、複数の人数推定法を組み合わせて、画像中の特定物体の数をより高精度に推定することができる。   According to the present invention, it is possible to estimate the number of specific objects in an image with higher accuracy by combining a plurality of person estimation methods.

画像処理装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of an image processing apparatus. 画像処理装置の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of an image processing apparatus. 画像処理装置による画像処理の一例を示すフローチャートである。It is a flowchart which shows an example of the image process by an image processing apparatus. 検出領域と回帰領域とを設定する方法を説明する図である。It is a figure explaining the method to set a detection area and a regression area. 検出された人体の例を示す図である。It is a figure which shows the example of the detected human body. 回帰領域の小領域への分割例及び人数推定例を示す図である。It is a figure which shows the example of a division | segmentation into the small area | region of a regression area, and a person estimation example. 回帰ベース人数推定時に分割した小領域の一例を示す図である。It is a figure which shows an example of the small area | region divided | segmented at the time of regression-based number estimation. 表示方法の例を示す図である。It is a figure which shows the example of the display method. 人体検出器と回帰器とが同一の畳込み層を共有する構成を示す図である。It is a figure which shows the structure in which a human body detector and a regression device share the same convolution layer.

以下、本発明の実施形態について図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<第1の実施形態>
図1は、画像処理装置100のハードウェア構成の一例を示す図である。
画像処理装置100は、ハードウェア構成として、CPU10と、メモリ11と、ネットワークI/F12と、表示装置13と、入力装置14と、を含む。CPU10は、画像処理装置100の全体の制御を司る。メモリ11は、CPU10が処理に利用するデータ、プログラム等を記憶する。入力装置14は、マウス、又はボタン等であり、ユーザの操作を画像処理装置100に入力する。表示装置13は、液晶表示装置等であり、CPU10による処理の結果等を表示する。ネットワークI/F12は、画像処理装置100をネットワークに接続するインタフェースである。CPU10がメモリ11に記憶されたプログラムに基づき処理を実行することにより、後述する図2の画像処理装置100の機能構成及び後述する図3のフローチャートの処理が実現される。
<First Embodiment>
FIG. 1 is a diagram illustrating an example of a hardware configuration of the image processing apparatus 100.
The image processing apparatus 100 includes a CPU 10, a memory 11, a network I / F 12, a display device 13, and an input device 14 as a hardware configuration. The CPU 10 governs overall control of the image processing apparatus 100. The memory 11 stores data, programs, etc. used by the CPU 10 for processing. The input device 14 is a mouse, a button, or the like, and inputs a user operation to the image processing device 100. The display device 13 is a liquid crystal display device or the like, and displays a result of processing by the CPU 10. The network I / F 12 is an interface that connects the image processing apparatus 100 to a network. When the CPU 10 executes processing based on the program stored in the memory 11, the functional configuration of the image processing apparatus 100 shown in FIG. 2 described later and the processing shown in the flowchart of FIG. 3 described later are realized.

図2は、画像処理装置100の機能構成の一例を示す図である。
画像処理装置100は、機能構成として、画像取得部101、領域決定部102、第1推定部103、第2推定部104、人数統合部105、表示部106を含む。
画像取得部101は、人数を推定する対象となる画像を取得する。
領域決定部102は、検出ベース人数推定を実施する領域と、回帰ベース人数推定を実施する領域と、を決定する。以下、検出ベース人数推定を実施する領域を検出領域、回帰ベース人数推定を実施する領域を回帰領域という。
第1推定部103は、検出領域に対して、検出ベース人数推定を実施する。検出ベース人数推定は、特定物体の検出処理の一例である。また、画像中の人は、特定物体の一例である。
第2推定部104は、回帰領域に対して、回帰ベース人数推定を実施する。回帰ベース人数推定は、所定の領域ごとに特定物体の数を推定する回帰処理の一例である。
人数統合部105は、第1推定部103による人数推定結果と、第2推定部104による人数推定結果と、を統合する。
表示部106は、人数統合部105により統合した人数推定結果を、表示装置13に表示する。
FIG. 2 is a diagram illustrating an example of a functional configuration of the image processing apparatus 100.
The image processing apparatus 100 includes an image acquisition unit 101, a region determination unit 102, a first estimation unit 103, a second estimation unit 104, a number integration unit 105, and a display unit 106 as functional configurations.
The image acquisition unit 101 acquires an image that is a target for estimating the number of people.
The area determination unit 102 determines an area for performing detection-based number estimation and an area for performing regression-based number estimation. Hereinafter, a region where detection-based number estimation is performed is referred to as a detection region, and a region where regression-based number estimation is performed is referred to as a regression region.
The first estimation unit 103 performs detection base number estimation for the detection area. Detection-based person estimation is an example of a specific object detection process. A person in the image is an example of a specific object.
The second estimation unit 104 performs regression-based number estimation for the regression region. The regression-based person estimation is an example of a regression process that estimates the number of specific objects for each predetermined area.
The number integration unit 105 integrates the number of people estimation result by the first estimation unit 103 and the number of people estimation result by the second estimation unit 104.
The display unit 106 displays the number estimation result integrated by the number integration unit 105 on the display device 13.

図3は、画像処理装置100による画像処理の一例を示すフローチャートである。
S201において、画像取得部101は、人数を推定する対象となる画像を取得する。画像取得部101は、CMOSセンサやCCDセンサ等の固体撮像素子から画像を取得してもよいし、ハードディスク等のメモリ11から画像を取得してもよい。
S202において、領域決定部102は、検出領域と、回帰領域と、を決定する。領域の決定には任意の方法を取ってよい。
例えば一つ目の方法は、領域決定部102が検出領域と回帰領域との両方とも、画像全体とする方法である。
二つ目の方法は、領域決定部102が検出領域と人数推定とを実施する領域の両方を、ユーザの明示的に設定操作に基づき設定する方法である。領域決定部102は、例えば、表示装置13、及び入力装置14等を介したユーザの領域の設定操作に基づき、検出領域と人数推定とを実施する領域の両方を決定する。
FIG. 3 is a flowchart illustrating an example of image processing by the image processing apparatus 100.
In step S <b> 201, the image acquisition unit 101 acquires an image that is a target for estimating the number of people. The image acquisition unit 101 may acquire an image from a solid-state imaging device such as a CMOS sensor or a CCD sensor, or may acquire an image from a memory 11 such as a hard disk.
In S202, the region determination unit 102 determines a detection region and a regression region. Any method may be used to determine the region.
For example, the first method is a method in which the region determination unit 102 sets both the detection region and the regression region as the entire image.
The second method is a method in which the area determination unit 102 explicitly sets both the detection area and the area where the number of persons is estimated based on a setting operation by the user. The area determination unit 102 determines both the detection area and the area where the number of persons is to be estimated based on, for example, the user's area setting operation via the display device 13 and the input device 14.

三つ目の方法は、領域決定部102が人体の大きさに従って検出領域と回帰領域とを設定する方法である。例えば、領域決定部102は、人体が第一の所定の大きさ以上で映る領域を、検出領域とし、人体が第二の所定の大きさ以下で映る領域を、回帰領域と設定することができる。図4(a)に、所定の高さより高所に設置した撮像装置により撮像される画像の一例を示す。灰色の物体は人体を表す。撮像装置を斜めに設置した場合、図4のように、撮像装置に近い手前側の人体は大きく、撮像装置から離れた奥側の人体は小さく映る。図4(b)の領域310は検出領域の例である。図4(c)の領域320は回帰領域の例である。
画像上の人体の大きさは、ユーザが入力装置14を用いて明示的に領域決定部102に与えてもよい。例えば、ユーザが、画像上の複数の地点における人体の平均的な大きさを教示することで、領域決定部102は、画像上の任意の地点における人体の平均的な大きさを補間により推定することができる。
また、領域決定部102は、画像上の人体の大きさを、統計処理により自動で推定してもよい。例えば、領域決定部102は、所定の学習画像群に対して画像全体に人体検出処理を行い、人体の位置を示す人体枠の集合を取得する。画像上の座標(x,y)における人体枠の大きさをsとしたとき、sは、x、y及び未知の1個以上のパラメータによって表せると仮定する。例えば、s=ax+by+cと仮定する。この例では、未知のパラメータはa、b及びcである。領域決定部102は、所定の学習画像群から取得した人体枠の集合を用いて、未知のパラメータを、例えば最小二乗法等の統計処理により求めることができる。領域決定部102は、この方法により、人が小さく映るために人体検出が失敗する領域における人体の大きさも推定することができる。
The third method is a method in which the region determination unit 102 sets the detection region and the regression region according to the size of the human body. For example, the area determination unit 102 can set an area in which a human body appears in a first predetermined size or more as a detection area and an area in which the human body appears in a second predetermined size or less as a regression area. . FIG. 4A shows an example of an image picked up by an image pickup device installed higher than a predetermined height. A gray object represents a human body. When the imaging device is installed obliquely, as shown in FIG. 4, the near-side human body close to the imaging device is large and the far-side human body away from the imaging device appears small. An area 310 in FIG. 4B is an example of a detection area. A region 320 in FIG. 4C is an example of a regression region.
The size of the human body on the image may be explicitly given to the region determination unit 102 by the user using the input device 14. For example, when the user teaches the average size of the human body at a plurality of points on the image, the region determination unit 102 estimates the average size of the human body at any point on the image by interpolation. be able to.
The region determination unit 102 may automatically estimate the size of the human body on the image by statistical processing. For example, the region determination unit 102 performs human body detection processing on the entire image for a predetermined learning image group, and acquires a set of human body frames indicating the positions of the human bodies. When the size of the human body frame at the coordinates (x, y) on the image is s, it is assumed that s can be expressed by x, y and one or more unknown parameters. For example, assume that s = ax + by + c. In this example, the unknown parameters are a, b and c. The region determination unit 102 can obtain an unknown parameter by a statistical process such as a least square method using a set of human body frames acquired from a predetermined learning image group. By this method, the region determination unit 102 can also estimate the size of the human body in a region where human body detection fails because a person appears small.

四つ目の方法は、領域決定部102が人の密集度に従って検出領域と回帰領域とを設定する方法である。例えば、領域決定部102は、人の密集度が所定の値以下である領域を検出領域とし、人の密集度が所定の値以上である領域を回帰領域と設定することができる。人の密集度は任意の方法で推定することができる。例えば、領域決定部102は、背景差分によって求めた動体領域に対して、動体が存在すると判定されたピクセル数の割合に従って密集度を推定できる。また、例えば、領域決定部102は、動きベクトル検出を所定の範囲に施し、動きベクトルの長さの和に従って密集度を推定できる。
領域の決定はこれらに限定されるものではない。例えば、領域決定部102は、三つ目の方法と四つ目の方法とを組み合わせ、人体の大きさと人の密集度との両方を考慮して領域を決定するようにしてもよい。また、領域決定部102は、検出領域を画面全体とし、回帰領域を三つ目の方法と四つ目の方法との内の少なくとも一方を用いて決定するようにしてもよい。領域決定部102は、一つ目の方法から四つ目の方法までの方法を任意に組み合わせて検出領域と回帰領域とを設定するようにしてもよい。また、領域決定部102は、時間帯や状況に応じて動的に領域を変化させてもよい。
The fourth method is a method in which the region determination unit 102 sets a detection region and a regression region according to the density of people. For example, the region determination unit 102 can set a region where the human congestion is a predetermined value or less as a detection region and a region where the human congestion is a predetermined value or more as a regression region. Human congestion can be estimated by any method. For example, the area determination unit 102 can estimate the density according to the ratio of the number of pixels determined to have a moving object with respect to the moving object area obtained from the background difference. Further, for example, the region determination unit 102 can perform motion vector detection in a predetermined range and estimate the density according to the sum of the lengths of the motion vectors.
The determination of the area is not limited to these. For example, the region determination unit 102 may combine the third method and the fourth method, and may determine the region in consideration of both the size of the human body and the density of people. Further, the region determination unit 102 may determine the detection region for the entire screen and determine the regression region using at least one of the third method and the fourth method. The region determination unit 102 may set the detection region and the regression region by arbitrarily combining the methods from the first method to the fourth method. Further, the region determination unit 102 may dynamically change the region according to the time zone and the situation.

S203において、第1推定部103は、S202にて設定された検出領域に対して、既知のパターン認識や機械学習の各種手法を利用し、人体検出を行う。ここで、人体検出とは、顔や人体の全体又はその一部等、予め定められた部位の位置を特定する処理を指す。以下では、人の頭部位置を検出する人体検出器を利用するものとする。第1推定部103は、例えば、画像の大きさを変更しながら照合パターンを画像全域に用いて複数の局所パターンを抽出し、それぞれの局所特徴量を算出する。そして、第1推定部103は、局所特徴量に重み付けを行った結果の総和から人体であるか否かを判定する。図5に、検出された人体の例を示す。矩形401は、人体検出処理によって得られた人体枠を表す。
ここで、第1推定部103は、S202において求められた人体の大きさの推定値を利用して、画像の大きさの変更範囲を限定することで、照合パターンの照合回数を減らし、計算量を削減してもよい。
次いで、第1推定部103は、検出された人体の数を数え上げ、推定人数を得る。
In S203, the 1st estimation part 103 performs a human body detection using the various methods of known pattern recognition and machine learning with respect to the detection area | region set in S202. Here, the human body detection refers to a process of specifying the position of a predetermined part such as the face or the whole or a part of the human body. In the following, it is assumed that a human body detector that detects a human head position is used. For example, the first estimation unit 103 extracts a plurality of local patterns using the matching pattern over the entire image while changing the size of the image, and calculates each local feature amount. And the 1st estimation part 103 determines whether it is a human body from the sum total of the result of having weighted the local feature-value. FIG. 5 shows an example of a detected human body. A rectangle 401 represents a human body frame obtained by the human body detection process.
Here, the first estimation unit 103 uses the estimated size of the human body obtained in S202 to limit the change range of the image size, thereby reducing the number of verifications of the verification pattern, and the amount of calculation May be reduced.
Next, the first estimation unit 103 counts the number of detected human bodies to obtain an estimated number of people.

S204において、第2推定部104は、S202にて設定された回帰領域に対して、既知の回帰ベース人数推定手法を利用し、人数を直接推定する。一例として、ある固定サイズの小画像を入力とし、その小画像に映る人の数を出力とする回帰器を用いる手法について説明する。第2推定部104は、予め、人数が既知である大量の小画像を学習データとして、サポートベクターマシンや深層学習等既知の機械学習手法に基づいて回帰器を学習しておく。第2推定部104は、人数推定時には、入力画像の回帰領域を、人数推定を行う単位である小領域に分割する。そして、第2推定部104は、各小領域を固定サイズにリサイズして小画像とし、各小画像を回帰器の入力とすることで、各小領域の人数を推定する。図6(a)に回帰領域の小領域への分割例及び人数推定例を示す。この例では、第2推定部104は、回帰領域320を同一サイズの小領域510で分割している。また、図6(a)では小領域510ごとに回帰器を用いて推定した人数を、小領域の内部に数値で表している。第2推定部104が推定する人数は必ずしも整数とは限らず、実数を取ることもありえる。第2推定部104は、実数を四捨五入により整数に丸めて扱ってもよいし、実数のまま扱ってもよい。
第2推定部104は、小領域のサイズと人のサイズとの比率がほぼ一定となるように制約を加えることで、回帰器の精度向上を図ることもできる。第2推定部104は、S202で求められた人体の大きさの推定値を利用することで、小領域のサイズに対する人体のサイズがほぼ同一になるように、画像上で異なるサイズの小領域をとることができる。図6(b)に回帰領域の分割例を示す。この例では、回帰領域320を異なるサイズの小領域520で分割している。分割された小領域520はそれぞれリサイズを経て固定サイズの小画像に変形され、回帰器に入力される。
回帰ベース人数推定については、非特許文献1を参照することができる。
In S204, the second estimation unit 104 directly estimates the number of people using the known regression-based number estimation method for the regression region set in S202. As an example, a method using a regressor that takes a small image of a certain fixed size as input and outputs the number of people shown in the small image will be described. The second estimation unit 104 previously learns the regressor based on a known machine learning method such as support vector machine or deep learning, using a large number of small images with known numbers as learning data. When estimating the number of people, the second estimation unit 104 divides the regression region of the input image into small regions that are units for estimating the number of people. Then, the second estimating unit 104 estimates the number of each small region by resizing each small region to a fixed size to form a small image and using each small image as an input to the regression unit. FIG. 6A shows an example of dividing the regression area into small areas and an example of estimating the number of people. In this example, the second estimation unit 104 divides the regression region 320 into small regions 510 having the same size. Further, in FIG. 6A, the number of persons estimated by using a regressor for each small area 510 is represented numerically inside the small area. The number of persons estimated by the second estimation unit 104 is not necessarily an integer, and may be a real number. The second estimating unit 104 may handle the real number by rounding it to an integer by rounding off, or may handle the real number as it is.
The second estimation unit 104 can also improve the accuracy of the regressor by adding a restriction so that the ratio between the size of the small region and the size of the person is substantially constant. The second estimation unit 104 uses the estimated value of the human body size obtained in S202, so that small areas of different sizes on the image are obtained so that the size of the human body is substantially the same as the size of the small area. Can take. FIG. 6B shows an example of dividing the regression area. In this example, the regression area 320 is divided into small areas 520 having different sizes. Each of the divided small areas 520 is resized to be transformed into a fixed-size small image and input to the regressor.
Non-patent document 1 can be referred to for regression-based number estimation.

S205において、人数統合部105は、第1推定部103による人数推定結果と、第2推定部104による人数推定結果と、を統合する。
検出領域と回帰領域とに重複がない場合、人数統合部105は、第1推定部103による人数推定結果と、第2推定部104による人数推定結果と、の両方を合計することで、統合後の人数推定結果を得ることができる。
検出領域と回帰領域とに重複がある場合の統合例について以下に詳述する。
人数統合部105は、入力画像のうち、検出領域のみが設定されている領域に対しては、検出ベース人数推定の結果を統合後の推定人数とする。
また、人数統合部105は、入力画像のうち、回帰領域のみが設定されている領域に対しては、回帰ベース人数推定の結果を統合後の推定人数とする。
また、人数統合部105は、入力画像のうち、検出領域と回帰領域との両方が設定されている領域に対しては、双方の人数推定の結果を用いた任意の式を用いて、統合後の推定人数を算出する。人数統合部105は、式として、例えば推定人数の合計値を取る式、推定人数のうち小さい方を取る式、推定人数のうち大きい方を取る式、推定人数の平均を取る式、又は任意の重みによる重みづけ平均を取る式を用いることができる。
例として、図7に、回帰ベース人数推定時に分割した小領域601を示す。小領域601に対する回帰ベース人数推定の結果は6人であったとする。また、検出ベース人数推定によって得られた人体枠のうち、その重心が小領域600に含まれる人体枠の数が4であったとする。その人体枠を図7の611、612、613、614に示す。人数統合部105は、小領域601に対する検出ベース人数推定の推定人数は、4人とみなす。
人数統合部105が二つの推定人数のうち小さい方を取る場合、統合後の推定人数は4人となる。人数統合部105が二つの推定人数のうち大きい方を取る場合、統合後の推定人数は6人となる。人数統合部105が二つの推定人数の平均を取る場合、統合後の推定人数は5人となる。人数統合部105が二つの推定人数を、回帰ベース人数推定の結果と検出ベース人数推定の結果とを3:5の重みで重みづけ平均をとる場合、統合後の推定人数は4.75人となる。
In S <b> 205, the number integration unit 105 integrates the number estimation result by the first estimation unit 103 and the number estimation result by the second estimation unit 104.
When there is no overlap between the detection region and the regression region, the number integration unit 105 adds up the number of people estimation result by the first estimation unit 103 and the number of people estimation result by the second estimation unit 104, thereby integrating Can be obtained.
An example of integration when there is an overlap between the detection area and the regression area will be described in detail below.
The number integration unit 105 sets the detection base number estimation result as an estimated number after integration for an area where only the detection area is set in the input image.
In addition, the number integration unit 105 sets the result of regression-based number estimation as an estimated number after integration for an area in which only the regression area is set in the input image.
Further, the number integration unit 105 uses an arbitrary expression that uses the result of estimation of the number of people for an area in which both the detection area and the regression area are set in the input image. Calculate the estimated number of people. For example, the number integration unit 105 is an expression that takes a total value of estimated persons, an expression that takes a smaller one of estimated persons, an expression that takes a larger one of estimated persons, an expression that takes an average of estimated persons, or an arbitrary An expression that takes a weighted average by weights can be used.
As an example, FIG. 7 shows a small area 601 divided at the time of regression-based number estimation. It is assumed that the result of the regression-based number estimation for the small area 601 is six. Also, it is assumed that the number of human body frames whose center of gravity is included in the small region 600 among the human body frames obtained by the detection-based number estimation is 4. The human body frame is shown at 611, 612, 613, and 614 in FIG. The number integration unit 105 regards the estimated number of detection base number estimates for the small area 601 as four.
When the number integration unit 105 takes the smaller of the two estimated numbers, the estimated number after integration is four. When the number integration unit 105 takes the larger of the two estimated numbers, the estimated number after integration is six. When the number integration unit 105 takes the average of the two estimated numbers, the estimated number after integration is five. When the number integrating unit 105 weights and averages the two estimated number of persons, the regression-based number estimation result and the detection-based number estimation result with a weight of 3: 5, the estimated number of persons after integration is 4.75. Become.

推定人数の統合方法は、これらに限定されるものではない。例えば、人数統合部105は、画像の位置に応じて、異なる重みで重みづけ平均をとってもよい。より具体的には、人数統合部105は、人体が所定の大きさより大きく映る位置では検出ベース人数推定結果の重みを所定の重みより大きくし、人体が所定の大きさより小さく映る位置では回帰ベース人数推定結果の重みを所定の重みより大きくしてもよい。また、例えば、人数統合部105は、密集度に応じて、異なる重みで重みづけ平均をとってもよい。より具体的には、人数統合部105は、密集度が所定の値より小さい地点では検出ベース人数推定結果の重みを所定の値より大きくし、密集度が所定の値より大きい地点では回帰ベース人数推定結果の重みを所定の値より大きくしてもよい。   The method of integrating the estimated number of people is not limited to these. For example, the number integration unit 105 may take a weighted average with different weights depending on the position of the image. More specifically, the number integration unit 105 increases the weight of the detection base number estimation result at a position where the human body appears larger than a predetermined size, and sets the regression base number at a position where the human body appears smaller than the predetermined size. The weight of the estimation result may be larger than a predetermined weight. For example, the number integration unit 105 may take a weighted average with different weights according to the density. More specifically, the number integration unit 105 increases the weight of the detection base number estimation result at a point where the density is smaller than a predetermined value, and sets the weight of the regression base number at a point where the density is higher than a predetermined value. The weight of the estimation result may be larger than a predetermined value.

S206において、表示部106は、人数統合部105により統合した人数推定結果を、表示装置13等に表示する。
まず、表示部106は、画像全体の統合後の人数推定結果を表示する。この際、表示部106は、S202にて設定された検出領域及び回帰領域を画像上に明示してもよい。また、表示部106は、S203において推定された検出領域における人数推定結果と、S204において推定された回帰領域における人数推定結果とをそれぞれ表示してもよい。
また、表示部106は、画像の位置ごとに推定人数が分かるように、より詳細な表示を行ってもよい。その方法の例を以下に示す。
一つ目の表示方法は、統合後の推定人数と等しい数の人体枠を画像上に重畳表示する方法である。図8(a)を用いて説明する。例えばS205において、図7の小領域601の推定人数を5人とした場合を考える。この場合、小領域601に対する検出ベース人数推定による推定人数は4人であったので、人体枠が1人分足りない。表示部106は、小領域601内のランダムな位置を選んで、不足する分の人体枠を重畳(ここでは枠701)することで、推定人数と等しい数の人体枠を画像上に重畳表示できる。この際、人体枠の大きさを、S202で述べた方法で推定することで、表示部106は、自然な大きさの人体枠を重畳できる。逆に、検出ベース人数推定結果が、統合後の推定人数を上回る場合は、表示部106は、ランダムに人体枠を選んで削除する処理を必要回数行えばよい。
In S206, the display unit 106 displays the number estimation result integrated by the number integration unit 105 on the display device 13 or the like.
First, the display unit 106 displays the number of people estimation result after the integration of the entire image. At this time, the display unit 106 may clearly indicate the detection region and the regression region set in S202 on the image. The display unit 106 may display the number of people estimation result in the detection region estimated in S203 and the number of people estimation result in the regression region estimated in S204.
Further, the display unit 106 may perform more detailed display so that the estimated number of people can be known for each position of the image. An example of the method is shown below.
The first display method is a method in which a number of human body frames equal to the estimated number of persons after integration are superimposed on the image. This will be described with reference to FIG. For example, consider a case where the estimated number of people in the small region 601 in FIG. In this case, since the estimated number of persons based on the detection-based number of persons estimation for the small area 601 is four, the human body frame is insufficient for one person. The display unit 106 can select and display a random position in the small area 601 and superimpose the human body frames for the shortage (here, the frame 701), thereby superimposing and displaying the same number of human body frames as the estimated number of people on the image. . At this time, by estimating the size of the human body frame by the method described in S202, the display unit 106 can superimpose a natural size human body frame. On the contrary, when the detection base number estimation result exceeds the estimated number after integration, the display unit 106 may perform a process of selecting and deleting a human body frame at random as many times as necessary.

二つ目の表示方法は、回帰ベース人数推定時に分割した小領域ごとに、推定人数を表示する方法である。図8(b)を用いて説明する。例えばS205において、図7の小領域601の推定人数を5人とした場合を考える。この場合、表示部106は、小領域601に存在すると推定される人数を、小領域601に重畳して表示する。また、表示部106は、人数の多さに応じて、視覚的に異なる画像処理を各領域に施してもよい。例えば、表示部106は、人数が他の領域に比べて多い領域ほど色を濃くする(例えば、赤色)ように表示してもよい。二つ目の表示方法の処理は、所定の領域ごとに所定の領域に存在する特定物体の数に応じた表示処理を行う一例である。
三つ目の表示方法は、画像の場所によって異なる表示を行う方法である。例えば、表示部106は、人体枠が所定の大きさよりも大きく表示される領域においては、一つ目の表示方法を用い、それ以外の領域においては、二つ目の表示方法を用いる。三つ目の表示方法の処理は、画像の位置に応じて画像に対して異なる表示処理を行う一例である。
四つ目の表示方法は、人数によって異なる表示を行う方法である。例えば、表示部106は、推定人数が所定の値よりも小さい領域においては、一つ目の表示方法を用い、それ以外の領域においては、二つ目の表示方法を用いる。四つ目の表示方法の処理は、画像の特定物体の数に応じて画像に対して異なる表示処理を行う一例である。
三つ目の表示方法や四つ目の表示方法をとることにより、例えば、人が密集している領域に対しては、図8(b)のような表示を行い、人が密集していない領域に対しては、図8(a)のような表示を行うことができる。したがって、ユーザは、人が密集している領域において、人が何人いるか速やかに把握することができる。
The second display method is a method of displaying the estimated number of people for each small area divided when the regression-based number of people is estimated. This will be described with reference to FIG. For example, consider a case where the estimated number of people in the small region 601 in FIG. In this case, the display unit 106 displays the number of people estimated to exist in the small area 601 in a superimposed manner on the small area 601. Further, the display unit 106 may perform visually different image processing on each region according to the number of people. For example, the display unit 106 may display an area with a larger number of people than other areas so that the color is darker (for example, red). The processing of the second display method is an example of performing display processing according to the number of specific objects existing in a predetermined area for each predetermined area.
The third display method is a method of performing different display depending on the location of the image. For example, the display unit 106 uses the first display method in an area where the human body frame is displayed larger than a predetermined size, and uses the second display method in other areas. The third display method process is an example of performing different display processes on an image according to the position of the image.
The fourth display method is a method of performing different display depending on the number of people. For example, the display unit 106 uses the first display method in an area where the estimated number of persons is smaller than a predetermined value, and uses the second display method in other areas. The process of the fourth display method is an example in which different display processes are performed on an image according to the number of specific objects in the image.
By using the third display method or the fourth display method, for example, a region as shown in FIG. 8B is displayed in a region where people are crowded, and people are not crowded. The display as shown in FIG. 8A can be performed on the area. Therefore, the user can quickly grasp how many people are in a densely populated area.

<第2の実施形態>
検出ベース人数推定に用いる人体検出器及び回帰ベース人数推定に用いる回帰器は、共に既存の深層学習の手法を用いて学習してもよい。この際、CPU10は、人体検出器と回帰器とが、同一の畳込み層を共有する構成にしてもよい。構成例を図9に示す。
<Second Embodiment>
Both the human body detector used for detection-based person estimation and the regressor used for regression-based person estimation may be learned using an existing deep learning technique. At this time, the CPU 10 may be configured such that the human body detector and the regressor share the same convolution layer. A configuration example is shown in FIG.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium. It can also be realized by a process in which one or more processors in the computer of the system or apparatus read and execute the program. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではない。上述した実施形態では、推定の対象として人を例にとって説明を行った。しかし、人を例えば人以外の動物や自動車、自転車等の車、微生物等の任意の特定物体に読み替えることで、上述した実施形態の構成、情報処理を任意の特定物体の数の推定に利用することができる。   As mentioned above, although preferable embodiment of this invention was explained in full detail, this invention is not limited to the specific embodiment which concerns. In the above-described embodiment, description has been made by taking a person as an example of estimation. However, the configuration and information processing of the above-described embodiment are used to estimate the number of arbitrary specific objects by replacing a human with an arbitrary specific object such as a non-human animal, a car such as a car, a bicycle, or a microorganism. be able to.

以上、上述した各実施形態によれば、検出ベース人数推定法を適用する領域及び回帰ベース人数推定法を適用する領域を自動で決定し、それぞれの結果を統合することで、単独の人数推定方法を用いる場合よりも高精度に人数推定することができる。
よって、複数の人数推定法を組み合わせて、画像中の特定物体の数をより高精度に推定することができる。
As described above, according to each of the above-described embodiments, a region to which the detection-based number estimation method and a region to which the regression-based number estimation method is applied are automatically determined, and the respective results are integrated to obtain a single number estimation method. It is possible to estimate the number of people with higher accuracy than when using.
Therefore, the number of specific objects in the image can be estimated with higher accuracy by combining a plurality of person estimation methods.

10 CPU
11 メモリ
100 画像処理装置
10 CPU
11 Memory 100 Image processing apparatus

Claims (26)

画像の第1の領域に対し、特定物体の検出処理を施すことで前記第1の領域の特定物体の数を推定する第1の推定手段と、
前記画像の第2の領域に対し、所定の領域ごとに特定物体の数を推定する回帰処理を施すことで前記第2の領域の特定物体の数を推定する第2の推定手段と、
前記第1の推定手段による推定の結果と前記第2の推定手段による推定の結果とを統合する統合手段と、
を有する画像処理装置。
First estimation means for estimating the number of specific objects in the first region by performing a specific object detection process on the first region of the image;
Second estimation means for estimating the number of specific objects in the second region by performing regression processing for estimating the number of specific objects for each predetermined region with respect to the second region of the image;
Integration means for integrating the result of estimation by the first estimation means and the result of estimation by the second estimation means;
An image processing apparatus.
前記画像の全体を前記第1の領域、及び前記第2の領域と決定する領域決定手段を更に有する請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising region determination means for determining the entire image as the first region and the second region. ユーザの設定操作に基づいて前記第1の領域と前記第2の領域とを決定する領域決定手段を更に有する請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising an area determination unit that determines the first area and the second area based on a user setting operation. 前記画像の特定物体の大きさに基づいて前記第1の領域と前記第2の領域との内の少なくとも一方を決定する領域決定手段を更に有する請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising an area determination unit that determines at least one of the first area and the second area based on a size of a specific object of the image. 前記領域決定手段は、前記特定物体の大きさを推定し、推定した前記特定物体の大きさに基づいて前記第1の領域と前記第2の領域との内の少なくとも一方を決定する請求項4記載の画像処理装置。   The area determination means estimates the size of the specific object, and determines at least one of the first area and the second area based on the estimated size of the specific object. The image processing apparatus described. 前記画像の特定物体の密集度に基づいて前記第1の領域と前記第2の領域との内の少なくとも一方を決定する領域決定手段を更に有する請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising an area determination unit that determines at least one of the first area and the second area based on a density of specific objects of the image. 前記領域決定手段は、動体、又は動きベクトルに基づいて前記密集度を推定し、推定した前記密集度に基づいて前記第1の領域と前記第2の領域との内の少なくとも一方を決定する請求項6記載の画像処理装置。   The area determination means estimates the density based on a moving object or a motion vector, and determines at least one of the first area and the second area based on the estimated density. Item 7. The image processing apparatus according to Item 6. 前記統合手段は、前記第1の推定手段による推定の結果と前記第2の推定手段による推定の結果とを合計することで統合する請求項1乃至7の何れか1項記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the integration unit integrates the result of estimation by the first estimation unit and the result of estimation by the second estimation unit by summing them up. 前記統合手段は、前記第1の領域と前記第2の領域とに重複している領域がない場合、前記第1の推定手段による推定の結果と前記第2の推定手段による推定の結果とを合計することで統合する請求項8記載の画像処理装置。   The integration unit calculates the result of estimation by the first estimation unit and the result of estimation by the second estimation unit when there is no overlapping area between the first region and the second region. The image processing apparatus according to claim 8, wherein the image processing apparatuses are integrated by summing up. 前記統合手段は、前記第1の領域と前記第2の領域とに重複している領域がある場合、前記第1の領域のみの領域に対しては前記第1の推定手段による推定の結果を統合後の特定物体の数とし、前記第2の領域のみの領域に対しては前記第2の推定手段による推定の結果を統合後の特定物体の数とし、前記重複している領域に対しては前記第1の推定手段による推定の結果と前記第2の推定手段による推定の結果とに基づいて統合後の特定物体の数を求めることで統合する請求項1乃至7の何れか1項記載の画像処理装置。   In the case where there is an overlapping area between the first area and the second area, the integration means displays the result of estimation by the first estimation means for the area of only the first area. The number of specific objects after integration, and for the area of only the second area, the result of estimation by the second estimation means is the number of specific objects after integration, and for the overlapping area 8. The integration is performed by obtaining the number of specific objects after integration based on a result of estimation by the first estimation unit and a result of estimation by the second estimation unit. Image processing apparatus. 前記統合手段は、前記重複している領域に対しては前記第1の推定手段による推定の結果と前記第2の推定手段による推定の結果とを合計することで統合後の特定物体の数を求める請求項10記載の画像処理装置。   The integration unit calculates the number of specific objects after integration by summing the estimation result by the first estimation unit and the estimation result by the second estimation unit for the overlapping region. The image processing apparatus according to claim 10 to be obtained. 前記統合手段は、前記重複している領域に対しては前記第1の推定手段による推定の結果と前記第2の推定手段による推定の結果とに基づいて小さい方の値とすることで統合後の特定物体の数を求める請求項10記載の画像処理装置。   The integration unit sets the overlapping region to a smaller value based on the estimation result by the first estimation unit and the estimation result by the second estimation unit after the integration. The image processing apparatus according to claim 10, wherein the number of specific objects is calculated. 前記統合手段は、前記重複している領域に対しては前記第1の推定手段による推定の結果と前記第2の推定手段による推定の結果とに基づいて大きい方の値とすることで統合後の特定物体の数を求める請求項10記載の画像処理装置。   The integration means sets the overlapping region to a larger value based on the estimation result by the first estimation means and the estimation result by the second estimation means after the integration. The image processing apparatus according to claim 10, wherein the number of specific objects is calculated. 前記統合手段は、前記重複している領域に対しては前記第1の推定手段による推定の結果と前記第2の推定手段による推定の結果とに基づいて平均をとることで統合後の特定物体の数を求める請求項10記載の画像処理装置。   The integrating means takes an average based on the result of estimation by the first estimating means and the result of estimation by the second estimating means for the overlapping region, and the specific object after the integration The image processing apparatus according to claim 10, wherein the number is calculated. 前記統合手段は、前記重複している領域に対しては前記第1の推定手段による推定の結果と前記第2の推定手段による推定の結果とに基づいて重みづけ平均をとることで統合後の特定物体の数を求める請求項10記載の画像処理装置。   The integration means takes the weighted average based on the result of the estimation by the first estimation means and the result of the estimation by the second estimation means for the overlapping region, and The image processing apparatus according to claim 10, wherein the number of specific objects is obtained. 前記統合手段は、前記画像の位置、又は特定物体の密集度に基づいて前記重みづけを変化させる請求項15記載の画像処理装置。   The image processing apparatus according to claim 15, wherein the integration unit changes the weighting based on a position of the image or a density of a specific object. 前記統合手段による統合の結果、求められた前記画像の特定物体の数を表示する表示手段を更に有する請求項1乃至16の何れか1項記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a display unit configured to display a number of specific objects of the image obtained as a result of integration by the integration unit. 前記表示手段は、前記第1の領域と前記第2の領域とを更に表示する請求項17記載の画像処理装置。   The image processing apparatus according to claim 17, wherein the display unit further displays the first area and the second area. 前記表示手段は、前記第1の推定手段による推定の結果と前記第2の推定手段による推定の結果とを更に表示する請求項17又は18記載の画像処理装置。   The image processing apparatus according to claim 17 or 18, wherein the display unit further displays a result of estimation by the first estimation unit and a result of estimation by the second estimation unit. 前記表示手段は、前記所定の領域ごとに前記所定の領域に存在する特定物体の数の枠を前記所定の領域に重畳して表示する請求項17記載の画像処理装置。   The image processing apparatus according to claim 17, wherein the display unit displays a frame of the number of specific objects existing in the predetermined area for each of the predetermined areas so as to be superimposed on the predetermined area. 前記表示手段は、前記所定の領域ごとに前記所定の領域に存在する特定物体の数を前記所定の領域に重畳して表示する請求項17記載の画像処理装置。   The image processing apparatus according to claim 17, wherein the display unit superimposes and displays the number of specific objects existing in the predetermined area for each predetermined area. 前記表示手段は、前記所定の領域ごとに前記所定の領域に存在する特定物体の数に応じた表示処理を行う請求項17記載の画像処理装置。   The image processing apparatus according to claim 17, wherein the display unit performs display processing according to the number of specific objects existing in the predetermined area for each predetermined area. 前記表示手段は、前記画像の位置、又は特定物体の数に応じて前記画像に対して異なる表示処理を行う請求項17記載の画像処理装置。   The image processing apparatus according to claim 17, wherein the display unit performs different display processing on the image according to the position of the image or the number of specific objects. 前記特定物体は、人、人以外の動物、微生物、車の何れかである請求項1乃至23の何れか1項記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the specific object is one of a person, an animal other than a person, a microorganism, and a car. 画像処理装置が実行する情報処理方法であって、
画像の第1の領域に対し、特定物体の検出処理を施すことで前記第1の領域の特定物体の数を推定する第1の推定ステップと、
前記画像の第2の領域に対し、所定の領域ごとに特定物体の数を推定する回帰処理を施すことで前記第2の領域の特定物体の数を推定する第2の推定ステップと、
前記第1の推定ステップによる推定の結果と前記第2の推定ステップによる推定の結果とを統合する統合ステップと、
を含む情報処理方法。
An information processing method executed by an image processing apparatus,
A first estimation step of estimating the number of specific objects in the first region by performing a specific object detection process on the first region of the image;
A second estimation step of estimating the number of specific objects in the second region by performing a regression process for estimating the number of specific objects for each predetermined region with respect to the second region of the image;
An integration step of integrating the estimation result of the first estimation step and the estimation result of the second estimation step;
An information processing method including:
コンピュータを、請求項1乃至24の何れか1項記載の画像処理装置の各手段として機能させるためのプログラム。   A program for causing a computer to function as each unit of the image processing apparatus according to any one of claims 1 to 24.
JP2016153072A 2016-08-03 2016-08-03 Image processing equipment, information processing methods and programs Active JP6779699B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016153072A JP6779699B2 (en) 2016-08-03 2016-08-03 Image processing equipment, information processing methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016153072A JP6779699B2 (en) 2016-08-03 2016-08-03 Image processing equipment, information processing methods and programs

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020173083A Division JP6995960B2 (en) 2020-10-14 2020-10-14 Image processing equipment, image processing methods and programs

Publications (2)

Publication Number Publication Date
JP2018022340A true JP2018022340A (en) 2018-02-08
JP6779699B2 JP6779699B2 (en) 2020-11-04

Family

ID=61165731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016153072A Active JP6779699B2 (en) 2016-08-03 2016-08-03 Image processing equipment, information processing methods and programs

Country Status (1)

Country Link
JP (1) JP6779699B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019136310A (en) * 2018-02-09 2019-08-22 株式会社大一商会 Game machine
JP2019149119A (en) * 2018-02-28 2019-09-05 キヤノン株式会社 Image processing device, image processing method, and program
WO2019188054A1 (en) * 2018-03-29 2019-10-03 Nec Corporation Method, system and computer readable medium for crowd level estimation
WO2019188053A1 (en) * 2018-03-29 2019-10-03 Nec Corporation Method, system and computer readable medium for integration and automatic switching of crowd estimation techniques
JP2020058939A (en) * 2020-01-27 2020-04-16 株式会社大一商会 Game machine
JP2020170303A (en) * 2019-04-02 2020-10-15 キヤノン株式会社 Image processing device, image processing method and program
JP2020170252A (en) * 2019-04-01 2020-10-15 キヤノン株式会社 Image processing device, image processing method, and program
CN112446275A (en) * 2019-09-04 2021-03-05 株式会社东芝 Object number estimation device, object number estimation method, and storage medium
JP2021092918A (en) * 2019-12-09 2021-06-17 キヤノン株式会社 Image processing apparatus, image processing method, computer program, and storage medium
EP4296976A2 (en) 2022-06-22 2023-12-27 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03195922A (en) * 1989-12-25 1991-08-27 Mitsubishi Electric Corp Detecting apparatus for degree of congestion

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03195922A (en) * 1989-12-25 1991-08-27 Mitsubishi Electric Corp Detecting apparatus for degree of congestion

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
池田浩雄 外2名: "群衆パッチ学習に基づく人数推定の高精度化", SSII2015 第21回 画像センシングシンポジウム ダイジェスト集, JPN6020034110, 11 June 2015 (2015-06-11), pages 3 - 13, ISSN: 0004343527 *

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019136310A (en) * 2018-02-09 2019-08-22 株式会社大一商会 Game machine
CN110211021B (en) * 2018-02-28 2023-09-05 佳能株式会社 Image processing apparatus, image processing method, and storage medium
JP2019149119A (en) * 2018-02-28 2019-09-05 キヤノン株式会社 Image processing device, image processing method, and program
CN110211021A (en) * 2018-02-28 2019-09-06 佳能株式会社 Image processing apparatus, image processing method and storage medium
JP7106296B2 (en) 2018-02-28 2022-07-26 キヤノン株式会社 Image processing device, image processing method and program
US11036974B2 (en) 2018-02-28 2021-06-15 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
WO2019188053A1 (en) * 2018-03-29 2019-10-03 Nec Corporation Method, system and computer readable medium for integration and automatic switching of crowd estimation techniques
US11893798B2 (en) 2018-03-29 2024-02-06 Nec Corporation Method, system and computer readable medium of deriving crowd information
CN111937003A (en) * 2018-03-29 2020-11-13 日本电气株式会社 Methods, systems, and computer readable media for integration and automatic switching of crowd estimation techniques
US11651493B2 (en) 2018-03-29 2023-05-16 Nec Corporation Method, system and computer readable medium for integration and automatic switching of crowd estimation techniques
US11615626B2 (en) 2018-03-29 2023-03-28 Nec Corporation Method, system and computer readable medium for estimating crowd level using image of crowd
EP3776464A4 (en) * 2018-03-29 2021-04-28 Nec Corporation Method, system and computer readable medium for integration and automatic switching of crowd estimation techniques
JP7040633B2 (en) 2018-03-29 2022-03-23 日本電気株式会社 Methods, systems and programs for crowd level estimation
WO2019188054A1 (en) * 2018-03-29 2019-10-03 Nec Corporation Method, system and computer readable medium for crowd level estimation
JP2021516825A (en) * 2018-03-29 2021-07-08 日本電気株式会社 Methods, systems and programs for integration and automatic switching of crowd estimation methods
JP2021516824A (en) * 2018-03-29 2021-07-08 日本電気株式会社 Methods, systems and programs for crowd level estimation
JP7040634B2 (en) 2018-03-29 2022-03-23 日本電気株式会社 Methods, systems and programs for integration and automatic switching of crowd estimation methods
JP2020170252A (en) * 2019-04-01 2020-10-15 キヤノン株式会社 Image processing device, image processing method, and program
JP2020170303A (en) * 2019-04-02 2020-10-15 キヤノン株式会社 Image processing device, image processing method and program
JP7418966B2 (en) 2019-04-02 2024-01-22 キヤノン株式会社 Image processing device, image processing method and program
JP7118934B2 (en) 2019-09-04 2022-08-16 株式会社東芝 Object number estimation device, object number estimation method, and object number estimation program
US11449975B2 (en) 2019-09-04 2022-09-20 Kabushiki Kaisha Toshiba Object count estimation apparatus, object count estimation method, and computer program product
JP2021039625A (en) * 2019-09-04 2021-03-11 株式会社東芝 Object number estimation device, object number estimation method, and object number estimation program
CN112446275A (en) * 2019-09-04 2021-03-05 株式会社东芝 Object number estimation device, object number estimation method, and storage medium
JP2021092918A (en) * 2019-12-09 2021-06-17 キヤノン株式会社 Image processing apparatus, image processing method, computer program, and storage medium
US11568557B2 (en) 2019-12-09 2023-01-31 Canon Kabushiki Kaisha Person counting image processing apparatus, method, and storage medium
JP7370840B2 (en) 2019-12-09 2023-10-30 キヤノン株式会社 Image processing device, image processing method, computer program and storage medium
JP2020058939A (en) * 2020-01-27 2020-04-16 株式会社大一商会 Game machine
EP4296976A2 (en) 2022-06-22 2023-12-27 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
JP6779699B2 (en) 2020-11-04

Similar Documents

Publication Publication Date Title
JP6779699B2 (en) Image processing equipment, information processing methods and programs
JP6942488B2 (en) Image processing equipment, image processing system, image processing method, and program
US9710698B2 (en) Method, apparatus and computer program product for human-face features extraction
WO2012066785A1 (en) People counting device, people counting method and people counting program
JP6793151B2 (en) Object tracking device, object tracking method and object tracking program
JP6024658B2 (en) Object detection apparatus, object detection method, and program
JP2015528614A5 (en)
US11915430B2 (en) Image analysis apparatus, image analysis method, and storage medium to display information representing flow quantity
US10600189B1 (en) Optical flow techniques for event cameras
KR102199094B1 (en) Method and Apparatus for Learning Region of Interest for Detecting Object of Interest
JP2013161405A5 (en) Subject determination device, subject determination method, and program
CN110211021B (en) Image processing apparatus, image processing method, and storage medium
US9478032B2 (en) Image monitoring apparatus for estimating size of singleton, and method therefor
JP7383435B2 (en) Image processing device, image processing method, and program
JP2012181710A (en) Object tracking device, method and program
JP2018197945A (en) Obstacle detection apparatus and obstacle detection method
JP6995960B2 (en) Image processing equipment, image processing methods and programs
JP7309392B2 (en) Image processing device, image processing method and program
JP5864230B2 (en) Object detection device
JP7314244B2 (en) Image processing device, image processing method and program
JP2019211914A (en) Object identity estimation device, method and program
JP7041046B2 (en) Group estimation device and group estimation method
JP5864231B2 (en) Moving direction identification device
JP7370840B2 (en) Image processing device, image processing method, computer program and storage medium
JP2019176261A (en) Image processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200915

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201014

R151 Written notification of patent or utility model registration

Ref document number: 6779699

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151