JP2021086391A - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP2021086391A JP2021086391A JP2019214782A JP2019214782A JP2021086391A JP 2021086391 A JP2021086391 A JP 2021086391A JP 2019214782 A JP2019214782 A JP 2019214782A JP 2019214782 A JP2019214782 A JP 2019214782A JP 2021086391 A JP2021086391 A JP 2021086391A
- Authority
- JP
- Japan
- Prior art keywords
- image
- estimation
- specific object
- image processing
- object information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理技術に関する。 The present invention relates to an image processing technique.
近年、撮像装置で所定の領域を撮像し、撮像した画像を解析することによって画像中の人物を計数するシステムが提案されている。このようなシステムは、公共の空間での混雑の検知及び混雑時の人物の流れを把握することでイベント時の混雑解消や災害時の避難誘導への活用が期待されている。 In recent years, a system has been proposed in which a predetermined area is imaged by an imaging device and a person in the image is counted by analyzing the captured image. Such a system is expected to be used for eliminating congestion at an event and guiding evacuation in the event of a disaster by detecting congestion in a public space and grasping the flow of people at the time of congestion.
非特許文献1では、機械学習によって得た認識モデルを用いて、画像の所定の推定領域に映る人数を直接推定する方法が開示されている。以下、この方法を回帰ベース推定法とする。
Non-Patent
回帰ベース推定法において、特定物体の数を推定する精度を向上させるために、画像上に映る特定物体のサイズに比例したサイズの推定領域を設定する必要がある。このとき、撮像装置により撮像された画像に対して複数の推定領域を設定する場合、該画像上で複数の異なる位置で映る特定物体のサイズをユーザが確認しながら該画像に対し複数の推定領域を設定する方法が考えられる。しかしながら、ユーザが確認する画像には必ずしも複数の異なる位置に特定物体が位置するとは限らないため、画像上の複数の異なる位置で映る特定物体のサイズに比例したサイズの推定領域を適切に設定できないことがあった。 In the regression-based estimation method, in order to improve the accuracy of estimating the number of specific objects, it is necessary to set an estimation area having a size proportional to the size of the specific objects displayed on the image. At this time, when a plurality of estimation regions are set for the image captured by the imaging device, the user confirms the size of a specific object displayed at a plurality of different positions on the image, and the plurality of estimation regions are set for the image. Can be considered. However, since the specific object is not always located at a plurality of different positions in the image confirmed by the user, it is not possible to appropriately set an estimation area having a size proportional to the size of the specific object appearing at a plurality of different positions on the image. There was something.
そこで本発明は、特定物体の数を推定する精度を高くするためにより適切な推定領域を設定することを目的としている。 Therefore, an object of the present invention is to set a more appropriate estimation area in order to improve the accuracy of estimating the number of specific objects.
上記課題を解決するために、本発明の画像処理装置は以下の構成を備える。すなわち、撮像手段により撮像された画像から特定物体を検出する検出処理を実行する検出手段と、前記特定物体の前記画像上の位置およびサイズを示す物体情報を保持する保持手段と、前記撮像手段により異なる時刻に撮像された複数の画像各々に対する前記検出処理に基づき、同一の特定物体を追尾する追尾手段と、前記追尾手段により追尾された前記同一の特定物体に対応する前記物体情報に基づき、前記撮像手段により撮像された画像に対して複数の推定領域を設定する設定手段と、前記複数の推定領域の各々に含まれる前記特定物体の数を推定する推定処理を実行する推定手段と、を有する。 In order to solve the above problems, the image processing apparatus of the present invention has the following configurations. That is, the detection means for executing the detection process for detecting the specific object from the image captured by the imaging means, the holding means for holding the object information indicating the position and size of the specific object on the image, and the imaging means. Based on the detection process for each of a plurality of images captured at different times, the tracking means for tracking the same specific object and the object information corresponding to the same specific object tracked by the tracking means are used. It has a setting means for setting a plurality of estimation regions for an image captured by the imaging means, and an estimation means for executing an estimation process for estimating the number of the specific object included in each of the plurality of estimation regions. ..
本発明によれば、特定物体の数を推定する精度を高くするためにより適切な推定領域を設定することができる。 According to the present invention, a more appropriate estimation region can be set in order to increase the accuracy of estimating the number of specific objects.
以下、添付図面を参照しながら、本発明に係る実施形態について説明する。なお、以下の実施形態において示す構成は一例に過ぎず、図示された構成に限定されるものではない。 Hereinafter, embodiments according to the present invention will be described with reference to the accompanying drawings. The configuration shown in the following embodiments is only an example, and is not limited to the illustrated configuration.
(実施形態1)
図1は、本実施形態におけるシステム構成を示す図である。本実施形態におけるシステムは、画像処理装置100、撮像装置110、記録装置120、およびディスプレイ130を有している。
(Embodiment 1)
FIG. 1 is a diagram showing a system configuration according to the present embodiment. The system in this embodiment includes an
画像処理装置100、撮像装置110、および記録装置120は、ネットワーク140を介して相互に接続されている。ネットワーク140は、例えばETHERNET(登録商標)等の通信規格に準拠する複数のルータ、スイッチ、ケーブル等から実現される。
The
なお、ネットワーク140は、インターネットや有線LAN(Local Area Network)、無線LAN(Wireless Lan)、WAN(Wide Area Network)等により実現されてもよい。
The
画像処理装置100は、例えば、後述する画像処理の機能を実現するためのプログラムがインストールされたパーソナルコンピュータ等によって実現される。撮像装置110は、画像を撮像する装置である。撮像装置110は、撮像した画像の画像データと、画像を撮像した撮像時刻の情報と、撮像装置110を識別する情報である識別情報とを関連付けて、ネットワーク140を介し、画像処理装置100や記録装置120等の外部装置へ送信する。なお、本実施形態に係るシステムにおいて、撮像装置110は1つとするが、複数であってもよい。
The
記録装置120は、撮像装置110が撮像した画像の画像データと、画像を撮像した撮像時刻の情報と、撮像装置110を識別する識別情報とを関連付けて記録する。そして、画像処理装置100からの要求に従って、記録装置120は、記録したデータ(画像、識別情報など)を画像処理装置100へ送信する。
The
ディスプレイ130は、LCD(Liquid Crystal Display)等により構成されており、画像処理装置100の画像処理の結果や、撮像装置110が撮像した画像などを表示する。ディスプレイ130は、HDMI(登録商標)(High Definition Multimedia Interface)等の通信規格に準拠したディスプレイケーブルを介して画像処理装置100と接続されている。
The
また、ディスプレイ130は、表示手段として機能し、撮像装置110が撮像した画像や、後述する画像処理による結果等を表示する。なお、ディスプレイ130、画像処理装置100、および記録装置120の少なくともいずれか2つ又は全ては、単一の筐体に設けられてもよい。また、画像処理装置100および撮像装置110は単一の筐体に設けられていてもよい。すなわち、撮像装置110が後述する画像処理装置100の機能および構成を有していてもよい。
In addition, the
なお、画像処理装置100の画像処理の結果や、撮像装置110により撮像された画像は、画像処理装置100にディスプレイケーブルを介して接続されたディスプレイ130に限らず、例えば、次のような外部装置が有するディスプレイに表示されてもよい。すなわち、ネットワーク140を介して接続されたスマートフォン、タブレット端末などのモバイルデバイスが有するディスプレイに表示されていてもよい。
The result of image processing of the
次に、図2に示す本実施形態に係る画像処理装置100の機能ブロックを参照して、本実施形態に係る画像処理装置100の画像処理について説明する。なお、図2に示す各機能は、本実施形態の場合、図12を参照して後述するROM(Read Only Memory)1202とCPU(Central Processing Unit)1200とを用いて、次のようにして実現されるものとする。図2に示す各機能は、画像処理装置100のROM1202に格納されたコンピュータプログラムを画像処理装置100のCPU1200が実行することにより実現される。
Next, the image processing of the
通信部200は、図12を参照して後述するI/F(Interface)1204によって実現でき、ネットワーク140を介して、撮像装置110や記録装置120と通信を行う。通信部200は、例えば、撮像装置110が撮像した画像の画像データを受信したり、撮像装置110を制御するための制御コマンドを撮像装置110へ送信したりする。なお、制御コマンドは、例えば、撮像装置110に対して画像を撮像するよう指示を行うコマンドなどを含む。
The
記憶部201は、図12を参照して後述するRAM(Random Access Memory)1201やHDD(Hard Disk Drive)1203等によって実現でき、画像処理装置100による画像処理に関わる情報やデータを記憶する。記憶部201は、後述する検出部204による検出処理により検出された特定物体の画像上の位置およびサイズの情報を示す物体情報を保持する。
The
出力制御部202は、撮像装置110が撮像した画像や、画像処理の結果を示す情報などを外部装置に出力したり、ディスプレイ130に表示させたりする。なお、出力制御部202による情報の出力先である外部装置は、例えば、他の画像処理装置(不図示)や記録装置120を含む。操作受付部203は、キーボードやマウス等の入力装置(不図示)を介して、ユーザが行った操作を受け付ける。
The
検出部204は、回帰ベース推定法と異なる方法を用いて、画像における特定物体を検出する検出処理を実行する。本実施形態における検出部204は、例えば、照合パターン(辞書)を使用して、パターンマッチング等の処理を行うことで、画像から特定物体の検出を行う。そして記憶部201は、画像において特定物体が検出されるたびに特定物体の画像上の位置およびサイズを示す物体情報を蓄積していく。
The
なお、画像から特定物体として人物を検出する場合において、人物が正面向きである場合の照合パターンと横向きである場合の照合パターンなど複数の照合パターンを用いて画像から人物を検出するようにしてもよい。このように、複数の照合パターンを用いた検出処理を実行することで、検出精度の向上が期待できる。 When detecting a person as a specific object from an image, the person may be detected from the image by using a plurality of matching patterns such as a matching pattern when the person is facing forward and a matching pattern when the person is facing sideways. Good. By executing the detection process using a plurality of collation patterns in this way, improvement in detection accuracy can be expected.
なお、照合パターンとして、斜め方向からや上方向からなど他の角度から特定の物体を見た場合の照合パターンを用意しておいてもよい。また、特定物体として人物を検出する場合、必ずしも全身の特徴を示す照合パターン(辞書)を用意しておく必要はなく、上半身、下半身、頭部、顔、足などの人物の一部について照合パターンを用意してもよい。 As a collation pattern, a collation pattern may be prepared when a specific object is viewed from another angle such as from an oblique direction or from an upward direction. In addition, when detecting a person as a specific object, it is not always necessary to prepare a collation pattern (dictionary) showing the characteristics of the whole body, and a collation pattern for a part of the person such as the upper body, lower body, head, face, and legs. May be prepared.
追尾部205は、撮像装置110により異なる時刻に撮像された複数の画像各々に対する検出処理に基づき、同一の特定物体を追尾する。本実施形態における追尾部205は、例えば、撮像装置110が撮像した画像を対象にして次のような処理を行う。すなわち、追尾部205は、現在のフレームよりも1つ以上前のフレームの画像から検出部204により検出された特定物体と同じ特定物体が現在のフレームの画像に存在する場合、それぞれのフレームにおける特定物体同士を対応づける。すなわち、時間的に近い複数のフレームについて画像間で同一の特定物体を追尾する。なお、追尾部205による同一の特定物体の追尾の詳細な説明については後述する。
The
第1推定部206は、追尾部205により追尾された同一の特定物体に対応する物体情報に基づき、撮像装置110により撮像される画像上の位置ごとの特定物体のサイズを推定する。ここでの同一の特定物体に対応する物体情報は、検出部204により該同一の特定物体が検出されるたびに記憶部201により蓄積される物体情報を示す。なお、以降の説明において、第1推定部206により推定される画像上の位置ごとの特定物体のサイズを示す情報をジオメトリ情報とする。
The
設定部207は、追尾部205により追尾された同一の特定物体に対応する物体情報に基づき第1推定部206により推定されたジオメトリ情報に従い、撮像装置110により撮像された画像に対して複数の推定領域を設定する。
The
第2推定部208は、回帰ベース推定法を用いて、設定部207により設定された画像における複数の推定領域の各々に含まれる特定物体の数を推定する推定処理を実行する。回帰ベース推定法では、ある固定サイズSの小画像を入力とし、該小画像に写っている特定物体の数を出力とする回帰器(学習済み認識モデル)を用いることで、撮像装置110により撮像された画像上の推定領域における特定物体の数を推定する。回帰器を学習させるにあたって、特定物体の位置が既知である固定サイズSの小画像を大量に用意し、該小画像を学習データとして、機械学習手法に基づいて回帰器を学習しておく。このとき、特定物体の数の推定精度を向上させるため、学習データである小画像のサイズ(固定サイズS)と当該小画像に映る特定物体のサイズとの比率が略一定であることが望ましい。そして第2推定部208は、複数の推定領域の各々について、該推定領域の画像を固定サイズSにリサイズしたものを小画像とし、該小画像を回帰器に入力することで「該推定領域内の特定物体の位置」を回帰器からの出力として求める。このとき、該推定領域内の特定物体の位置の数が、該推定領域内における特定物体の数となる。
The
また、設定部207が画像に対し複数の推定領域を設定するにあたって、推定領域のサイズと該推定領域における特定物体のサイズとの比率が、学習データである小画像のサイズと当該小画像に映る特定物体のサイズとの比率rと略同一になることが望ましい。このように、学習データの環境に近づくよう画像に対し推定領域を設定することで、推定領域に含まれる特定物体の数の推定精度をより高めることができる。
Further, when the
したがって、本実施形態における設定部207は、追尾部205により追尾された同一の特定物体に対応する物体情報に基づき、次のような処理を実行する。すなわち、設定部207は、追尾部205により追尾された同一の特定物体について蓄積された物体情報に基づき推定されたジオメトリ情報に従って、画像に対し複数の推定領域を設定する。このとき、設定部207は、該ジオメトリ情報に従って、推定領域のサイズと該推定領域に含まれる特定物体のサイズとの比率が学習データに対応する比率rとなるよう画像に対し複数の推定領域を設定する。
Therefore, the
計数部209は、撮像された画像に対し設定された複数の推定領域の各々に対する第2推定部208による推定処理に推定された特定物体の数を合算することで計数結果を取得する。出力制御部202は、推定領域の各々に対して推定された特定物体の数を合算した計数結果を示す情報を外部装置(ディスプレイ130等)へ出力する。
The
ここで、図3を参照して本実施形態に係る画像処理について更に具体的に説明する。なお、以降の説明において数の推定対象となる特定物体を人物として説明するが、人物に限定されるものではない。例えば、特定物体は、道路等を走行している各種車両、工場内のコンベアー上を流れている部品や製品、その他、動物等であってもよい。 Here, the image processing according to the present embodiment will be described more specifically with reference to FIG. In the following description, a specific object whose number is to be estimated will be described as a person, but the number is not limited to the person. For example, the specific object may be various vehicles traveling on a road or the like, parts or products flowing on a conveyor in a factory, or an animal or the like.
図3は、画像上の同一の人物が追尾部205により追尾される様子を示す図である。本実施形態における追尾部205は、複数のフレームの画像にわたって検出部204により検出された人物同士が同一であると判定することで、検出された人物の追尾を実行する。追尾部205による複数フレームの画像にわたって検出された人物同士が同一であると判定する方法として次のような方法を用いることができる。例えば、追尾部205は、検出された人物の移動ベクトルを用いて人物の移動予測位置と検出した人物の位置とが一定距離内であれば同一の人物であると判定する方法である。また、追尾部205は、人物の色、形状、大きさ(画素数)等を用いて、複数のフレームの画像間で相関の高い人物を対応付けてもよい。このように、追尾部205は、複数のフレームの画像にわたって同じ人物であると判断し追尾する処理を実行できればよく、特定の方法に限定されるものではない。
FIG. 3 is a diagram showing how the same person on the image is tracked by the
なお、本実施形態における検出部204は、照合パターンを用いたパターンマッチング法により画像上の人物の領域(以下人物領域)を検出するものとし、追尾部205は、複数フレームの画像にわたって検出された同一人物の人物領域を追尾する。ここで図3の説明に戻り、図3に示す物体情報302は、第1画像から検出部204により検出された人物301の人物領域の画像上における位置およびサイズを示す情報である。また、物体情報303は、第1画像より後に撮像された第2画像において検出された人物301の人物領域の画像上における位置およびサイズを示す情報である。また、物体情報304は、第2画像より後に撮像された第3画像において検出された人物301の人物領域の画像上における位置およびサイズを示す情報である。
The
なお物体情報302〜304における検出された人物領域の画像上の位置は、画像の左上の端点を原点としたときの該人物領域の中心位置におけるX座標およびY座標で示されるものとする。また、物体情報302〜304における検出された人物領域の画像上のサイズは、画像の垂直方向(Y軸方向)における該人物領域の長さを示すものとする。記憶部201は、図3に示すように複数のフレームの画像にわたって追尾される人物301に対応する物体情報を保持および蓄積していく。すなわち、記憶部201は、複数のフレームの画像にわたって検出された同一人物である人物301の物体情報301〜304を蓄積する。
The position on the image of the detected person area in the
第1推定部206は、複数のフレームの画像にわたって同一人物が追尾された場合、記憶部201により蓄積された人物の物体情報に基づき、画像上の任意の位置に映る人物のサイズを示すジオメトリ情報を推定する。ジオメトリ情報は、画像上の任意の位置(x,y)から、当該位置で映る平均的な人物のサイズf(x,y)として与えられる。画像上の任意の位置における人物のサイズであるf(x,y)は、例えば、x、y及び1個以上のパラメータによって表せると仮定する。例えば、f(x,y)=ax+by+cと仮定する。この例では、未知のパラメータはa、b及びcである。このとき第1推定部206は、記憶部201により蓄積された人物の物体情報を用いて、未知のパラメータを、例えば最小二乗法等の統計処理により求めることができる。最小二乗法やニュートン法などの既存の最適化手法によってf(x,y)のパラメータを推定する。
The
ここで、図4を参照して、ジオメトリ情報の一例について説明する。なお、図4を参照した説明において説明の簡略化のため、画像上の水平方向(x軸方向)では人物のサイズに変化はなく、画像上の垂直方向(y軸方向)にて人物のサイズに変化があるものとする。第1推定部206は、第1画像から検出された人物301に対応する物体情報302と、第2画像から検出された人物301に対応する物体情報303と、第3画像から検出された人物301に対応する物体情報304とに基づき、ジオメトリ情報を推定する。図4では、物体情報302〜304各々が示す画像上における人物301の位置およびサイズがプロットされている。そして、第1推定部206は、物体情報302〜304を用いて、最小二乗法やニュートン法等により図4に示すような曲線で示すジオメトリ情報を推定する。
Here, an example of geometry information will be described with reference to FIG. In the description with reference to FIG. 4, for simplification of the explanation, the size of the person does not change in the horizontal direction (x-axis direction) on the image, and the size of the person in the vertical direction (y-axis direction) on the image. Suppose there is a change in. The
なお、第1推定部206は、次のような条件を満たした場合、記憶部201により蓄積された同一人物の物体情報に基づき、ジオメトリ情報を推定するようにしてもよい。すなわち、第1推定部206は、同一人物が追尾部205により追尾された画像上の距離が所定値以上である同一人物について蓄積された物体情報に基づきジオメトリ情報を推定するようにしてもよい。また、第1推定部206は、追尾部205により追尾される同一人物の軌跡における第1の位置から該軌跡における第2の位置までの距離が所定値以上である場合、該同一人物について蓄積された物体情報に基づき、ジオメトリ情報を推定するようにしてもよい。また、第1推定部206は、追尾部205により追尾される同一人物が画像上の異なる位置で検出された回数が所定値に達した場合、該同一人物について蓄積された物体情報に基づき、ジオメトリ情報を推定するようにしてもよい。
When the following conditions are satisfied, the
ここで、図5を参照して本実施形態における設定部207による複数の推定領域を設定する処理について説明する。図5(a)〜(c)は、撮像装置110により撮像された画像500に対し設定部207により複数の推定領域を設定する様子を示す図である。なお図5に示す例において、ジオメトリ情報が示す画像上の任意の位置における人物のサイズとして、画像500の水平方向において人物のサイズは略同一であり、画像500の垂直方向における下部から上部に向かうにつれ人物のサイズは小さくなるものとする。まず、本実施形態における設定部207は、図5(a)に示すように、画像500の下端に沿って複数の推定領域501を設定する。このとき推定領域501のサイズと、該推定領域501内の下端の座標においてジオメトリ情報が示す人物のサイズとの比率が学習データに対応する比率rと略同一になるように、設定部207は推定領域501を設定する。次に、設定部207は、図5(b)に示すように、複数の推定領域501の上端に沿って、複数の推定領域502を設定する。このとき推定領域502のサイズと、該推定領域502内の下端の座標においてジオメトリ情報が示す人物のサイズとの比率が学習データに対応する比率rと略同一になるように、設定部207は推定領域502を設定する。次に、設定部207は、図5(c)に示すように、複数の推定領域502の上端に沿って、複数の推定領域503を設定する。このとき推定領域503のサイズと、該推定領域503内の下端の座標においてジオメトリ情報が示す人物のサイズとの比率が学習データに対応する比率rと略同一になるように、設定部207は推定領域503を複数設定する。このように、本実施形態における設定部207は、推定領域のサイズと該推定領域における特定物体のサイズとの比率が、学習データである小画像のサイズと当該小画像に映る特定物体のサイズとの比率rと略同一になるよう、画像に対し推定領域を設定する。このように、学習データの環境に近づくよう画像に対し推定領域を設定することで、推定領域に含まれる特定物体の数の推定精度をより高めることができる。なお図5(a)〜(b)を参照した上述の説明において画像の下端から順番に推定領域を設定したが、これに限らず、他の位置から推定領域を設定してもよい。
Here, a process of setting a plurality of estimation regions by the
第2推定部208は、設定された複数の推定領域の各々について、推定領域の画像を固定サイズSにリサイズしたものを小画像とし、機械学習に基づき学習した回帰器に該小画像を入力することで「該推定領域内の人物の位置」を回帰器からの出力として求める。このとき、該推定領域内の人物の位置の個数が該推定領域に含まれる人物の数を示す、なお、該推定領域内の人物の位置の個数は、整数であってもよいし、小数点以下の数値を含む実数値であってもよい。図6は、画像600に対して設定部207により設定された複数の小領域の各々に対する第2推定部208による推定処理の結果を示す模式図である。なお、図6に示すように、推定領域601に含まれる数値602は、推定領域601に対し推定された人物の数を示している。計数部209は、撮像された画像に対し設定された複数の推定領域の各々に対する第2推定部208による推定処理に推定された人物の数を合算した計数結果である12.1人を取得する。出力制御部202は、複数の推定領域601と、当該複数の推定領域601に対する推定処理の結果を示す情報である数値602とを画像600に重畳することで出力画像を生成し、生成した出力画像を外部装置(ディスプレイ130)に出力する。このとき、出力制御部202は、生成した該出力画像をディスプレイ130に表示させてもよい。
The
次に、図7を参照して、本実施形態における画像処理について更に詳細に説明する。なお、図7(a)に示すフローを実行することで、画像に対し複数の推定領域を設定することができる。また、図7(b)に示すフローを実行することで、画像に対し設定された複数の推定領域の各々に対し推定処理を実行することで画像に含まれる人物の数を推定することができる。なお、図7(a)に示すフローの処理は、例えば、ユーザによる指示に従って、開始又は終了するものとする。そして、図7(b)に示すフローの処理は、図7(a)に示すフロー処理が実行され複数の推定領域が設定されたのちに実行される。なお、図7に示すフローチャートの処理は、画像処理装置100のROM1202に格納されたコンピュータプログラムを画像処理装置100のCPU1200が実行して実現される図2に示す機能ブロックにより実行されるものとする。
Next, with reference to FIG. 7, the image processing in the present embodiment will be described in more detail. By executing the flow shown in FIG. 7A, a plurality of estimation regions can be set for the image. Further, by executing the flow shown in FIG. 7B, it is possible to estimate the number of people included in the image by executing the estimation process for each of the plurality of estimation areas set for the image. .. The flow processing shown in FIG. 7A shall be started or ended according to, for example, an instruction by the user. Then, the flow processing shown in FIG. 7B is executed after the flow processing shown in FIG. 7A is executed and a plurality of estimation regions are set. The processing of the flowchart shown in FIG. 7 is executed by the functional block shown in FIG. 2 realized by executing the computer program stored in the
まず、図7(a)に示すフローの処理について説明する。S701にて、通信部200は、撮像装置110により撮像された動画における1つのフレームの画像を処理対象の画像として取得する。なお、通信部200は、ネットワーク140を介して撮像装置110や記憶装置120から処理対象の画像を取得してもよいし、画像処理装置100の記憶部201から処理対象の画像を取得してもよい。
First, the flow processing shown in FIG. 7A will be described. In S701, the
次に、S702にて、検出部204は、画像における人物を検出する検出処理を実行する。本実施形態における検出部204は、照合パターン(辞書)を使用して、パターンマッチング等の処理を行うことで、人物の検出を行う。
Next, in S702, the
次に、S703にて、記憶部201は、画像において人物が検出されるたびに人物の画像上の位置およびサイズを示す物体情報を蓄積していく。
Next, in S703, the
次に、S704にて、追尾部205は、検出部204により検出された人物を追尾する。なお、追尾部205は、追尾する対象となる人物ごとにIDを付与する。例えば、追尾部205は、検出部204により新規に検出された人物について新規のIDとしてID“1”を付与。現在の処理対象とする画像のフレームよりも1つ以上前のフレームの画像から検出部204が検出した人物に対してID“1”を付与したとする。その場合において、検出部204が現在のフレームの画像からも当該人物を検出した場合、追尾部205は、当該人物にもID“1”を付与する。このように、追尾部205は、複数のフレームの画像にわたって同一の人物を追尾していく。
Next, in S704, the
次に、S705にて、第1推定部206は、追尾部206により追尾された同一人物が所定の条件を満たしたかを判定する。例えば、第1推定部206は、追尾部205により追尾された同一人物の画像上の距離が所定値以上かを判定する。そして、画像上の距離が所定値以上と判定された場合(S705にてYes)、S706へ遷移する。一方、画像上の距離が所定値未満と判定された場合(S705にてNo)、S701へ遷移し、通信部200は、撮像装置110により撮像された動画における次のフレームの画像を処理対象の画像として取得する。
Next, in S705, the
また、S705にて、第1推定部206は、追尾部205により追尾される同一人物の軌跡における第1の位置から該軌跡における第2の位置までの距離が所定値以上かを判定するようにしてもよい。この場合、軌跡上の任意の位置である第1の位置から該軌跡上の任意の位置である第2の位置までの距離が所定値以上であると判定された場合(S705にてYes)、S706へ遷移する。一方、軌跡上の任意の位置である第1の位置から該軌跡上の任意の位置である第2の位置までの距離が所定値以上でないと判定された場合(S705にてNo)、S701へ遷移する。そして、通信部200は、撮像装置110により撮像された動画における次のフレームの画像を処理対象の画像として取得する。このように、追尾部205により追尾される同一人物が所定の条件を満たすまでS701〜S704の処理が繰り返され、記憶部201は、該同一人物が検出されるたびに該同一人物の物体情報を蓄積していく。
Further, in S705, the
そして、S706にて第1推定部206は、追尾部205により追尾された同一人物について記憶部201により蓄積された物体情報に基づき、画像上の任意の位置に映る人物のサイズを示すジオメトリ情報を推定する。
Then, in S706, the
次に、S707にて、設定部207は、ジオメトリ情報に基づき、推定領域のサイズと該推定領域における特定物体のサイズとの比率が、学習データに対応する比率rと略同一になるよう、撮像装置110により撮像される画像に対し複数の推定領域を設定する。
Next, in S707, the
次に、図7(b)に示すフローの処理について説明する。まずS771にて、通信部200は、撮像装置110により撮像された動画における1つのフレームの画像を処理対象の画像として取得する。なお、通信部200は、ネットワーク140を介して撮像装置110や記憶装置120から処理対象の画像を取得してもよいし、画像処理装置100の記憶部201から処理対象の画像を取得してもよい。また、通信部200は、撮像装置110により撮像された静止画を処理対象の画像として取得してもよい。
Next, the flow processing shown in FIG. 7B will be described. First, in S771, the
次に、S772にて、設定部207は、S707にて設定した複数の推定領域の情報を取得し、現在処理対象とする画像に対し該複数の推定領域を設定する。次に、S773にて、第2推定部208は、現在処理対象とする画像に対し設定された複数の推定領域の各々に対し人物の数を推定する推定処理を実行する。
Next, in S772, the
次に、S774にて、計測部209は、撮像された画像に対し設定された複数の推定領域の各々に対する第2推定部208による推定処理に推定された特定物体の数を合算することで計数結果を取得する。次に、S775にて、出力制御部202は、推定領域の各々に対して推定された特定物体の数を合算した計数結果を示す情報を外部装置(ディスプレイ130等)へ出力する。次に、S776にて、ユーザによる終了の指示がない場合(S776にてNo)、S771へ遷移し、通信部200は、撮像装置110により撮像された動画における次のフレームの画像を処理対象の画像として取得する。一方、ユーザによる終了の指示がある場合(S776にてYes)、図7(b)に示す処理を終了する。
Next, in S774, the
なお、図7(a)に示すフローの処理は、例えば、撮像装置110のパンおよびチルトで示される撮像方向やズーム倍率が変化した場合に実行されるようにしてもよい。撮像装置110が撮像する範囲である撮像範囲(撮像方向およびズーム倍率により定まる)が変化した場合、画像上の任意の位置における人物のサイズ、すなわちジオメトリ情報が変化する。そのため図7(a)に示すフローの処理は、撮像装置110の撮像範囲の変化に伴って実行されるようにしてもよい。
The flow process shown in FIG. 7A may be executed, for example, when the imaging direction or zoom magnification indicated by the pan and tilt of the
なお、本実施形態における画像処理装置100では、1人の同一人物について追尾部205が追尾する過程で蓄積された物体情報に基づき、ジオメトリ情報を推定したが、これに限らない。例えば、本実施形態における画像処理装置100は、複数の人物各々について追尾部205は追尾を行い、複数の人物各々について追尾される過程で蓄積された物体情報に基づき、ジオメトリ情報を推定するようにしてもよい。例えば、図8に示す物体情報803〜808に基づき、第1推定部206は、ジオメトリ情報を推定する。具体的には、第1推定部206は、人物801が追尾される過程で蓄積された物体情報803〜805と、人物802が追尾される過程で蓄積された物体情報806〜808とに基づき、ジオメトリ情報を推定する。図9では、人物801に対応する物体情報803〜805に示す画像上の人物801の位置およびサイズと、人物802に対応する物体情報806〜808が示す画像上の人物802の位置およびサイズがプロットされている。そして、第1推定部206は、物体情報803〜808を用いて、最小二乗法やニュートン法等により図9に示すような曲線で示すジオメトリ情報を推定する。なお、図9に示す説明では、説明の簡略化のため、画像上の水平方向(x軸方向)では人物のサイズに変化はなく、画像上の垂直方向(y軸方向)にて人物のサイズに変化があるものとする。このように、本実施形態における画像処理装置100は、複数の人物各々について追尾部205は追尾を行い、複数の人物各々について追尾される過程で蓄積された物体情報に基づき、ジオメトリ情報を推定するようにしてもよい。
In the
以上説明したように、本実施形態において、画像処理装置100は、追尾された同一人物について蓄積した物体情報に基づき、画像上の任意の位置における特定物体のサイズの情報であるジオメトリ情報を推定する。そして画像処理装置100は、ジオメトリ情報に従って、推定領域のサイズと該推定領域に含まれる特定物体のサイズとの比率が学習データに対応する比率rとなるよう画像に対し複数の推定領域を設定する。このようにすることで、推定領域をより適切に設定することができ、結果的に推定領域における特定物体の数を推定する精度を高くすることができる。 (実施形態2)
本実施形態では、画像に対して検出領域を設定し、該検出領域において検出された特定物体に対応する物体情報と、追尾された同一の特定物体に対応する物体情報とに基づき、ジオメトリ情報を推定し、該ジオメトリ情報に従い複数の推定領域を設定する。なお、実施形態1と異なる部分を主に説明し、実施形態1と同一または同等の構成要素、および処理には同一の符号を付すとともに、重複する説明は省略する。また実施形態1と同様、以下の説明において特定物体を人物として説明するが、人物に限定されるものではない。例えば、特定物体は、道路等を走行している各種車両、工場内のコンベアー上を流れている部品や製品、その他、動物等であってもよい。
As described above, in the present embodiment, the
In the present embodiment, a detection area is set for the image, and geometry information is provided based on the object information corresponding to the specific object detected in the detection area and the object information corresponding to the same specific object tracked. Estimate and set a plurality of estimation areas according to the geometry information. The parts different from those of the first embodiment will be mainly described, and the same or equivalent components and the processes as those of the first embodiment are designated by the same reference numerals, and duplicate description will be omitted. Further, as in the first embodiment, the specific object will be described as a person in the following description, but the present invention is not limited to the person. For example, the specific object may be various vehicles traveling on a road or the like, parts or products flowing on a conveyor in a factory, or an animal or the like.
ここでまず図10を参照して本実施形態における画像処理装置100の処理について説明する。本実施形態における設定部207は、図7(a)に示すように、画像に対して検出領域1004を設定する。なお、設定部207により設定される検出領域1004は、画像における一部の領域であって、任意の位置であってもよい。また、設定部207は、例えば、画像上の一部の領域を指定するユーザ操作に従って、画像に対して検出領域1004を設定する。
Here, first, the processing of the
また、本実施形態における追尾部205は、複数のフレームの画像にわたって検出部204により検出された人物同士が同一であると判定することで、検出された人物の追尾を実行する。図10に示す例では、追尾部205は、人物1001と人物1011と人物1021とを同一人物と判定し、追尾を行っている。なお、以下の説明において人物1001、人物1011、および人物1021をある特定の人物Aとして説明する。なお、人物1001は、第1画像において人物Aが検出された位置およびサイズを示す。また、人物1011は、第1画像より後に撮像された第2画像から人物Aが検出された位置およびサイズを示す。また、人物1021は、第2画像より後に撮像された第3画像から人物Aが検出された位置およびサイズを示す。
Further, the
また、本実施形態における第1推定部206は、設定部204により設定された画像上の検出領域1004において検出部204により人物が検出された回数が所定値に達したかを判定する。またさらに、第1推定部206は、追尾部206により追尾された同一人物が所定の条件を満たしたかを判定する。ここでの所定の条件として、例えば、第1推定部206は、追尾部205により追尾された同一人物の画像上の距離が所定値以上かを判定する。また、所定の条件として、第1推定部206は、例えば、追尾部205により追尾される同一人物の軌跡における第1の位置から該軌跡における第2の位置までの距離が所定値以上かを判定するようにしてもよい。
In addition, the
そして第1推定部206は、検出領域1004にて人物が検出された回数が所定値に達したと判定し、かつ、追尾された同一人物が所定の条件を満たしたと判定した場合、画像から検出された人物について蓄積された物体情報に基づき、ジオメトリ情報を推定する。ここで、図10(b)を参照して第1推定部206の処理について具体的に説明する。図10(b)における人物1002は、検出領域1004にて検出された或る特定の人物Bの位置およびサイズを示す。また図10(b)における人物1003は、検出領域1004にて検出された或る特定の人物Cの位置およびサイズを示す。本実施形態における第1推定部206は、追尾部205により追尾された人物Aの画像上におけるサイズの変化の度合いに基づき、検出領域1004にて検出された人物Bおよび人物Cが検出領域1004以外の画像上の領域にて映るサイズを推定する。
Then, the
第1推定部206は、例えば、次のような処理を実行する。第1推定部206は、物体情報1001a、1011aに基づき、人物1001(人物A)対して人物1011(人物A)は位置に関してx軸上ではx1からx2へa倍となりy軸上ではy1からy2へb倍となったことに伴い、サイズがc倍となったと判定する。これより、第1推定部206は、人物1002(人物B)の物体情報1002bから仮想的な物体情報である仮想物体情報1012bを生成し、人物1003(人物C)の物体情報1003Cから仮想物体情報1013cを生成する。具体的には、仮想物体情報1012bが示すx座標のx2’は、物体情報1002bが示すx座標のx1’に対しa倍した値であり、仮想物体情報1012bが示すy座標のy2’は、物体情報1002bが示すy座標のy1’に対しb倍した値である。また、仮想物体情報1012bが示すサイズであるsize2’は、size1’に対してc倍した値である。
The
同様に、仮想物体情報1013cが示すx座標のx2’’は、物体情報1003cが示すx座標のx1’’に対しa倍した値であり、仮想物体情報1013cが示すy座標のy2’’は、物体情報1003cが示すy座標のy1’’に対しb倍した値である。また、仮想物体情報1013cが示すサイズであるsize2’’は、size1’’に対してc倍した値である。
Similarly, the x-coordinate x2'' indicated by the
更に、第1推定部206は、人物1001(人物A)対して人物1021(人物A)は位置に関してx軸上ではx1からx3へd倍となりy軸上ではy1からy2へe倍となったことに伴い、サイズがf倍となったと判定する。そして第1推定部206は、仮想物体情報1012bおよび仮想物体情報1013cを生成する上述の処理と同様にして、物体情報1002bから仮想物体情報1022bを生成し、物体情報1003cから仮想物体情報1023cを生成する。
Further, in the
以上説明したように第1推定部206は、追尾された人物Aの画像上におけるサイズの変化に基づき、検出領域1004にて検出された少なくとも1人の人物が検出領域1004以外で映る場合の仮想的な物体情報である仮想物体情報を推定する。そして第1推定部206は、同一人物が追尾される過程で該同一人物について蓄積された物体情報と、生成した仮想物体情報とに基づき、ジオメトリ情報を推定する。このとき、実施形態1と同様に、画像上の任意の位置における人物のサイズであるf(x,y)は、例えば、x、y及び1個以上のパラメータによって表せると仮定する。例えば、f(x,y)=ax+by+cと仮定する。この例では、未知のパラメータはa、b及びcである。このとき第1推定部206は、同一人物が追尾される過程で該同一人物について蓄積された物体情報と、生成された仮想物体情報とを用いて、未知のパラメータを、例えば最小二乗法等の統計処理により求めることができる。このようにしてジオメトリ情報としてf(x,y)の関数を推定する。
As described above, the
次に、図11に示すフローを参照して、本実施形態における画像処理装置100の画像処理について説明する。図12に示すフローの処理を実行することで、画像に対して複数の推定領域をより適切に設定することができる。なお、図12に示すフローチャートの処理は、画像処理装置100のROM1202に格納されたコンピュータプログラムを画像処理装置100のCPU1200が実行して実現される図2に示す機能ブロックにより実行されるものとする。
Next, the image processing of the
まず、S701にて、通信部200は、撮像装置110により撮像された動画における1つのフレームの画像を処理対象の画像として取得する。なお、通信部200は、ネットワーク140を介して撮像装置110や記憶装置120から処理対象の画像を取得してもよいし、画像処理装置100の記憶部201から処理対象の画像を取得してもよい。
First, in S701, the
次に、S1101にて、設定部207は、処理対象とする画像に対し検出領域を設定する。このとき、例えば、操作受付部203が受け付けた画像上の検出領域を指定する操作に基づき、設定部207は、図10に示すような検出領域1004を画像に対し設定する。S702〜S705の処理については実施形態1で説明した内容と同様であるため説明を省略する。S1102にて、第1推定部206は、設定部207にて設定された検出領域において人物が検出された回数が閾値以上かを判定する。検出領域において人物が検出された回数が閾値以上であると判定された場合(S1102にてYes)、S1103へ遷移する。一方、検出領域において人物が検出された回数が閾値未満であると判定された場合(S1102にてNo)、S701へ遷移し、通信部200は、撮像装置110により撮像された動画における次のフレームの画像を処理対象の画像として取得する。このように、追尾部205により追尾される同一人物が所定の条件を満たし、更に、検出領域において人物が検出された回数が閾値以上になるまでS701〜S704の処理が繰り返され、検出された人物について物体情報が蓄積される。
Next, in S1101, the
そして、S1103にて、第1推定部206は、追尾された同一人物の画像上におけるサイズの変化に基づき、検出領域にて検出された人物が検出領域1004以外で映る場合の仮想物体情報を生成する。例えば、第1推定部206は、検出領域1004にて検出された人物1002について仮想物体情報1012bおよび仮想物体情報1022bを生成する。さらに第1推定部206は、検出領域1004にて検出された人物1003について仮想物体情報1013cおよび仮想物体情報1023cを生成する。
Then, in S1103, the
次に、S1104にて、第1推定部206は、同一人物が画像上で追尾される過程で蓄積された物体情報と、検出領域において検出された人物について蓄積された物体情報と、生成した仮想物体情報とから、ジオメトリ情報を推定する。次に、S707にて、設定部207は、S1104にて推定されたジオメトリ情報に基づき、画像に対して複数の推定領域を設定する。
Next, in S1104, the
以上説明したように、本実施形態における画像処理装置100は、画像の一部領域において検出された人物について蓄積された物体情報と、同一人物が追尾される過程で蓄積された物体情報と、生成した仮想物体情報とからジオメトリ情報を推定する。そして、画像処理装置100は、推定したジオメトリ情報に基づき、画像に対して複数の推定領域を設定する。これより、より精度よくジオメトリ情報の推定が可能となるため、より適切に推定領域を設定することが可能となり、結果的に推定領域における特定物体の数を推定する精度を高くすることができる。
As described above, the
(その他の実施形態)
次に図12を参照して、各実施形態の各機能を実現するための画像処理装置100のハードウェア構成を説明する。なお、以降の説明において画像処理装置100のハードウェア構成について説明するが、記録装置120および撮像装置110も同様のハードウェア構成によって実現されるものとする。
(Other embodiments)
Next, with reference to FIG. 12, the hardware configuration of the
本実施形態における画像処理装置100は、CPU1200と、RAM1201と、ROM1202、HDD1203と、I/F1204と、を有している。
The
CPU1200は画像処理装置100を統括制御する中央処理装置である。RAM1201は、CPU1200が実行するコンピュータプログラムを一時的に記憶する。また、RAM1201は、CPU1200が処理を実行する際に用いるワークエリアを提供する。また、RAM1201は、例えば、フレームメモリとして機能したり、バッファメモリとして機能したりする。
The
ROM1202は、CPU1200が画像処理装置100を制御するためのプログラムなどを記憶する。HDD1203は、画像データ等を記録する記憶装置である。
The
I/F1204は、ネットワーク140を介して、TCP/IPやHTTPなどに従って、外部装置との通信を行う。
The I /
なお、上述した各実施形態の説明では、CPU1200が処理を実行する例について説明するが、CPU1200の処理のうち少なくとも一部を専用のハードウェアによって行うようにしてもよい。例えば、ディスプレイ130にGUI(GRAPHICAL USER INTERFACE)や画像データを表示する処理は、GPU(GRAPHICS PROCESSING UNIT)で実行してもよい。また、ROM1202からプログラムコードを読み出してRAM1201に展開する処理は、転送装置として機能するDMA(DIRECT MEMORY ACCESS)によって実行してもよい。
In the description of each of the above-described embodiments, an example in which the
なお、本発明は、上述の実施形態の1以上の機能を実現するプログラムを1つ以上のプロセッサが読出して実行する処理でも実現可能である。プログラムは、ネットワーク又は記憶媒体を介して、プロセッサを有するシステム又は装置に供給するようにしてもよい。また、本発明は、上述の実施形態の1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。また、画像処理装置100の各部は、図7に示すハードウェアにより実現してもよいし、ソフトウェアにより実現することもできる。
The present invention can also be realized by a process in which one or more processors read and execute a program that realizes one or more functions of the above-described embodiment. The program may be supplied to a system or device having a processor via a network or storage medium. The present invention can also be realized by a circuit (for example, an ASIC) that realizes one or more functions of the above-described embodiment. Further, each part of the
なお、上述した各実施形態に係る画像処理装置100の1以上の機能を他の装置が有していてもよい。例えば、各実施形態に係る画像処理装置100の1以上の機能を撮像装置110が有していてもよい。なお、上述した各実施形態を組み合わせて、例えば、上述した実施形態を任意に組み合わせて実施してもよい。
In addition, another device may have one or more functions of the
以上、本発明を実施形態と共に説明したが、上記実施形態は本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲は限定的に解釈されるものではない。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱しない範囲において、様々な形で実施することができる。例えば、各実施形態を組み合わせたものも本明細書の開示内容に含まれる。 Although the present invention has been described above with the embodiments, the above-described embodiments are merely examples of embodiment of the present invention, and the technical scope of the present invention is construed in a limited manner by these. It's not a thing. That is, the present invention can be implemented in various forms within a range that does not deviate from the technical idea or its main features. For example, a combination of the respective embodiments is also included in the disclosure contents of the present specification.
Claims (19)
前記特定物体の前記画像上の位置およびサイズを示す物体情報を保持する保持手段と、
前記撮像手段により異なる時刻に撮像された複数の画像各々に対する前記検出処理に基づき、同一の特定物体を追尾する追尾手段と、
前記追尾手段により追尾された前記同一の特定物体に対応する前記物体情報に基づき、前記撮像手段により撮像された画像に対して複数の推定領域を設定する設定手段と、
前記複数の推定領域の各々に含まれる前記特定物体の数を推定する推定処理を実行する推定手段と、を有することを特徴とする画像処理装置。 A detection means that executes a detection process that detects a specific object from an image captured by the imaging means,
A holding means for holding object information indicating the position and size of the specific object on the image, and
A tracking means that tracks the same specific object based on the detection process for each of a plurality of images captured at different times by the imaging means.
A setting means for setting a plurality of estimation regions for an image captured by the imaging means based on the object information corresponding to the same specific object tracked by the tracking means.
An image processing apparatus comprising: an estimation means for executing an estimation process for estimating the number of the specific object included in each of the plurality of estimation regions.
前記設定手段は、前記追尾手段により追尾された前記同一の特定物体について蓄積された前記物体情報に基づき、前記撮像手段により撮像された画像に対して複数の推定領域を設定することを特徴とする請求項1に記載の画像処理装置。 The holding means accumulates the object information of the specific object each time the specific object is detected from the image.
The setting means is characterized in that a plurality of estimation regions are set for an image captured by the imaging means based on the object information accumulated for the same specific object tracked by the tracking means. The image processing apparatus according to claim 1.
前記検出領域において前記特定物体が検出された回数が前記所定値に達したと前記判定手段により判定された場合、前記設定手段は、前記検出領域において検出された前記特定物体に対応する前記物体情報と、前記追尾手段により追尾された前記同一の特定物体に対応する前記物体情報とに基づき、前記撮像手段により撮像された画像に対して前記複数の推定領域を設定することを特徴とする請求項5に記載の画像処理装置。 Further, it has a determination means for determining whether or not the number of times the specific object is detected in the detection region on the image has reached a predetermined value.
When the determination means determines that the number of times the specific object has been detected in the detection region has reached the predetermined value, the setting means has the object information corresponding to the specific object detected in the detection region. The claim is characterized in that a plurality of estimation regions are set for an image captured by the imaging means based on the object information corresponding to the same specific object tracked by the tracking means. The image processing apparatus according to 5.
前記特定物体の前記画像上の位置およびサイズを示す物体情報を保持する保持工程と、
前記撮像手段により異なる時刻に撮像された複数の画像各々に対する前記検出処理に基づき、同一の特定物体を追尾する追尾工程と、
前記追尾工程において追尾された前記同一の特定物体に対応する前記物体情報に基づき、前記撮像手段により撮像された画像に対して複数の推定領域を設定する設定工程と、
前記複数の推定領域の各々に含まれる前記特定物体の数を推定する推定処理を実行する推定工程と、を有することを特徴とする画像処理方法。 A detection step that executes a detection process to detect a specific object from an image captured by an imaging means,
A holding step of holding object information indicating the position and size of the specific object on the image, and
A tracking step of tracking the same specific object based on the detection process for each of a plurality of images captured at different times by the imaging means.
A setting step of setting a plurality of estimation regions for an image captured by the imaging means based on the object information corresponding to the same specific object tracked in the tracking step.
An image processing method comprising an estimation step of executing an estimation process for estimating the number of the specific object included in each of the plurality of estimation regions.
前記設定工程において、前記追尾工程により追尾された前記同一の特定物体について蓄積された前記物体情報に基づき、前記撮像手段により撮像された画像に対して複数の推定領域を設定することを特徴とする請求項10に記載の画像処理方法。 In the holding step, each time the specific object is detected from the image, the object information of the specific object is accumulated.
The setting step is characterized in that a plurality of estimation regions are set for an image captured by the imaging means based on the object information accumulated for the same specific object tracked by the tracking step. The image processing method according to claim 10.
前記検出領域において前記特定物体が検出された回数が前記所定値に達したと前記判定工程において判定された場合、前記設定工程において、前記検出領域において検出された前記特定物体に対応する前記物体情報と、前記追尾工程において追尾された前記同一の特定物体に対応する前記物体情報とに基づき、前記撮像手段により撮像された画像に対して前記複数の推定領域を設定することを特徴とする請求項14に記載の画像処理方法。 Further, it has a determination step of determining whether or not the number of times the specific object is detected in the detection region on the image has reached a predetermined value.
When it is determined in the determination step that the number of times the specific object is detected in the detection region has reached the predetermined value, the object information corresponding to the specific object detected in the detection region in the setting step. The claim is characterized in that a plurality of estimation regions are set for an image captured by the imaging means based on the object information corresponding to the same specific object tracked in the tracking step. 14. The image processing method according to 14.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019214782A JP2021086391A (en) | 2019-11-27 | 2019-11-27 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019214782A JP2021086391A (en) | 2019-11-27 | 2019-11-27 | Image processing apparatus, image processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021086391A true JP2021086391A (en) | 2021-06-03 |
Family
ID=76087782
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019214782A Pending JP2021086391A (en) | 2019-11-27 | 2019-11-27 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021086391A (en) |
-
2019
- 2019-11-27 JP JP2019214782A patent/JP2021086391A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200167554A1 (en) | Gesture Recognition Method, Apparatus, And Device | |
JP6950692B2 (en) | People flow estimation device, people flow estimation method and program | |
JP2022166067A (en) | Information processing system, information processing method and program | |
JP5885398B2 (en) | Image processing apparatus and image processing method | |
CN104811660A (en) | Control apparatus and control method | |
JP6750385B2 (en) | Image processing program, image processing method, and image processing apparatus | |
JP2022507128A (en) | Intersection condition detection methods, devices, electronic devices and vehicles | |
KR20120044484A (en) | Apparatus and method for tracking object in image processing system | |
CN111382637A (en) | Pedestrian detection tracking method, device, terminal equipment and medium | |
KR102295183B1 (en) | object tracking method for CCTV video by use of CCTV projection model | |
JP2017027197A (en) | Monitoring program, monitoring device and monitoring method | |
CN111986229A (en) | Video target detection method, device and computer system | |
JP7214437B2 (en) | Information processing device, information processing method and program | |
JP2016525235A (en) | Method and device for character input | |
JP2021086391A (en) | Image processing apparatus, image processing method, and program | |
US11521330B2 (en) | Image processing apparatus, image processing method, and storage medium | |
KR101909326B1 (en) | User interface control method and system using triangular mesh model according to the change in facial motion | |
JP2022026849A (en) | Information processing device, information processing method, and program | |
JP2022123391A (en) | Information processing apparatus, information processing method, and program | |
JP2021125137A (en) | Image processing apparatus and image processing method | |
JP2021077177A (en) | Operation recognition apparatus, operation recognition method, and operation recognition program | |
JP2021056899A (en) | Image processor, image processing method, and program | |
JP2020166653A (en) | Information processing device, information processing method, and program | |
CN110736465A (en) | Navigation method, navigation device, robot and computer readable storage medium | |
WO2024089855A1 (en) | Point cloud movement estimation device, point cloud movement estimation method, and program |