JP6559378B2 - 画像処理装置、画像処理方法及び画像処理プログラム - Google Patents
画像処理装置、画像処理方法及び画像処理プログラム Download PDFInfo
- Publication number
- JP6559378B2 JP6559378B2 JP2019505568A JP2019505568A JP6559378B2 JP 6559378 B2 JP6559378 B2 JP 6559378B2 JP 2019505568 A JP2019505568 A JP 2019505568A JP 2019505568 A JP2019505568 A JP 2019505568A JP 6559378 B2 JP6559378 B2 JP 6559378B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- foreground
- subjects
- photographed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06M—COUNTING MECHANISMS; COUNTING OF OBJECTS NOT OTHERWISE PROVIDED FOR
- G06M11/00—Counting of objects distributed at random, e.g. on a surface
Description
被写体が存在する撮影空間が撮影された前記被写体が映されている撮影画像である第1の撮影画像から前記被写体の画像である被写体画像を抽出し、抽出した前記被写体画像に基づき、前記撮影空間に複数の被写体が存在する複数の参照画像を前記撮影空間に存在する被写体の数を参照画像ごとに変化させて生成する参照画像生成部と、
前記第1の撮影画像とは撮影時刻が異なる前記撮影空間の撮影画像である第2の撮影画像と、前記複数の参照画像とを比較し、前記第2の撮影画像に映されている被写体の数を推定する被写体数推定部とを有する。
***構成の説明***
図1は、実施の形態1に係る群集監視装置20の機能構成例を示す。
また、図22は、実施の形態1に係る群集監視装置20のハードウェア構成例を示す。
群集監視装置20は、画像処理装置に相当する。また、群集監視装置20により行われる動作は、画像処理方法及び画像処理プログラムに相当する。
図1に示されるように、群集監視装置20は、カメラ10と接続されている。
カメラ10は、被写体が存在する撮影空間を見下ろす位置に設置されている。撮影空間は、カメラ10の監視対象の空間である。本実施の形態では、被写体は人物である。また、本実施の形態では、撮影空間には複数の人物が存在しているものとする。以下、撮影空間に存在する複数の人物を群集ともいう。
群集監視装置20は、ハードウェアとして、プロセッサ1101、メモリ1102、ネットワークインタフェース1103、記憶装置1104を備える。
記憶装置1104には、図1に示す画像受信復号部201、切替スイッチ202、モード切替制御部203、パラメータ取得部204、人数解析部206及び解析結果出力部207の機能を実現するプログラムが記憶されている。当該プログラムは記憶装置1104からメモリ1102にロードされる。プロセッサ1101は当該プログラムをメモリ1102から読込む。そして、プロセッサ1101は、当該プログラムを実行して、後述する画像受信復号部201、切替スイッチ202、モード切替制御部203、パラメータ取得部204、人数解析部206及び解析結果出力部207の動作を行う。
図1に示すパラメータ保存ストレージ205は、記憶装置1104により実現される。
図23は、図1に示す機能構成と図22に示すハードウェア構成との関係を示す。図23では、画像受信復号部201、切替スイッチ202、モード切替制御部203、パラメータ取得部204、人数解析部206及び解析結果出力部207がプロセッサ1101により実現されることが示されている。また、図23では、パラメータ保存ストレージ205が記憶装置1104により実現されることが示されている。
ネットワークインタフェース1103は、カメラ10からの圧縮画像ストリームを受信する。
より具体的には、パラメータ取得部204は、カメラ10の外部パラメータとしてカメラ10の俯角を推定する。また、パラメータ取得部204は、第1の撮影画像たる画像フレームから被写体の画像である被写体画像を抽出し、抽出した被写体画像と推定したカメラ10の俯角とに基づき複数の前景マップを生成する。パラメータ取得部204は、撮影空間に存在する被写体の数を前景マップごとに変化させて複数の前景マップを生成する。前景マップは複数の部分領域に区分されている。前景マップでは、部分領域ごとに、部分領域に映されている被写体の数(領域被写体数)と部分領域における前景面積量とが示される。前景マップは、人数解析部206による人数解析の際に画像フレームと比較される画像である。前景マップは参照画像に相当する。
パラメータ取得部204は、生成した複数の前景マップを解析パラメータとしてパラメータ保存ストレージ205に格納する。
パラメータ取得部204は、参照画像生成部に相当する。また、パラメータ取得部204により行われる処理は、参照画像生成処理に相当する。
より具体的には、人数解析部206は、第2の撮影画像たる画像フレームと、パラメータ取得部204により生成された複数の前景マップとを比較し、画像フレームに映されている被写体の数を推定する。
人数解析部206は、被写体数推定部に相当する。人数解析部206により行われる処理は、被写体数推定処理に相当する。
パラメータ取得部204は、人物検出部2041、前景抽出部2042、俯角推定部2043、前景マップ生成部2044及び人物情報保存ストレージ2045で構成される。
そして、前景マップ生成部2044は、前景マップを、解析パラメータとしてパラメータ保存ストレージ205に格納する。
人数解析部206は、前景抽出部2061と人数推定部2062で構成される。
次に、実施の形態1に係る群集監視装置20の動作例を説明する。
図4は群集監視装置20の動作例を示すフローチャートである。
解析パラメータがパラメータ保存ストレージ205に格納された後のステップST02では、解析パラメータが取得済みと判定されて、処理がステップST03に進む。
群集監視装置20の起動前に既にパラメータ保存ストレージ205に解析パラメータが保存されている場合にステップST02がYESと判定される。また、前述のようにステップST04、ステップST05、ST06を経て解析パラメータがパラメータ保存ストレージ205に格納された後のステップST02もYESと判定される。
また、画像受信復号部201は、圧縮画像ストリームとして、上記以外の符号化方式で符号化された画像データ又は上記以外の配信フォーマットで配信された画像データを受信してもよい。画像受信復号部201は、圧縮画像ストリームとして、SDI(Serial Digital Interface)、HD(High Definition)−SDIなどの非圧縮の伝送規格で配信された画像データを受信してもよい。
つまり、切替スイッチ202は、モード切替制御部203からパラメータ取得モードを通知するモード制御信号が出力されていれば、画像フレームをパラメータ取得部204に出力する。一方、モード切替制御部203から人数カウントモードを通知するモード制御信号が出力されていれば、切替スイッチ202は、画像フレームを人数解析部206に出力する。
なお、以下の説明では、パラメータ取得部204と人数解析部206を排他的に動作させる構成を前提とする。しかしながら、人数解析部206を動作させながら同時にパラメータ取得部204を動作させ、解析パラメータを随時アップデートしていくような構成としてもよい。
解析結果出力部207は、例えば、モニタへの表示、ログファイルへの出力、外部接続機器への出力、またはネットワークへの送出などにより、人数解析結果を出力する。また、解析結果出力部207は、他の形式で人数解析結果を出力してもよい。また、人数解析部206から人数解析結果が出力されるたびに外部に出力してもよいし、特定の期間または特定数の人数解析結果を集計または統計処理した後に出力するなど、断続的な出力であってもよい。ステップST08の後はステップST04に戻り、次の画像フレームの処理を行う。
図5は、パラメータ取得部204の動作を示すフローチャートである。
人物検出部2041は、立った状態であること、足先と地面との接触位置及び頭頂部が見えていること、及び他の人物とのオクルージョンが起きていない又は他の人物とのオクルージョンの割合が小さいことを満足する人物を検出する。
図7は、人物検出部2041による人物検出結果のイメージを示す。
人物検出の手法として、HOG(Histgram of Oriented Gradients)、ICF(Integral Channel Features)、ACF(Aggregate Channel Features)などの静止画ベースの特徴量を利用した手法を用いてもよい。また、人物検出の手法として、時間的に近接した複数の画像フレームを用いた動画ベースの特徴量を利用する手法を用いてもよい。
また、本実施の形態では、人物検出部2041は、画像フレームに映っている人物のサイズが未知であることを前提とする人物検出手法を用いる。これに代えて、人物検出部2041は、人物検出を複数回行い、画像領域ごとの人物のスケールに対する傾向が得られた時点で、そのスケールを前提とした人物検出手法に切り替えて、より処理を高速化してもよい。
人物検出部2041は、接地点の移動速度の情報を、複数の画像フレームをまたがった特徴点の追跡、人物の追跡などにより取得する。また、カメラ10から入力された圧縮画像ストリーム内に圧縮符号化のための動きベクトルが含まれている場合は、人物検出部2041は、その動きベクトル情報をそのまま用いて、接地点の移動速度の情報を取得してもよい。
前景抽出部2042により抽出される前景画像は被写体画像に相当する。
また、図9は、人物情報保存ストレージ2045に保存される、人物検出結果情報と、それぞれの人物検出結果情報に対応する人物の前景画像のペアのイメージを示す。なお、人物検出結果情報と前景画像とを合わせて人物情報という。
背景差分法は、予め背景画像を登録しておき、入力画像と背景画像との差分を計算する手法である。また、適応型の背景差分法は、連続して入力される画像フレームから、MOG(Mixture of Gaussian) Distributionなどのモデルを用いて背景画像を自動更新する手法である。また、密なオプティカルフロー導出アルゴリズムは、画像内の動き情報を画素単位で取得する手法である。
十分な人物情報が取得できた場合は、処理はステップST15に進む。一方、十分な人物情報が取得できていない場合は、処理は終了する。
十分な人物情報が得られたかどうかの判定は、例えばこれまでに取得された人物情報の個数、パラメータ取得処理を開始してからの経過時間などの尺度で行う。また、ステップST15以降のパラメータ推定処理を実施し、パラメータ推定処理により推定されたパラメータの信頼度で、十分な人物情報が得られたかどうかの判定を行ってもよい。
図10、図11及び図12は俯角推定処理の概要を示す。
図10に示す通り、本実施の形態では、カメラが水平よりも下向きに設置されていることを前提とする。また、カメラのレンズ歪は補正され、ピンホールカメラとしてみなせることを前提とする。また、カメラの内部パラメータは既知であり、画像内の各座標の方向が、光軸からどれだけのなす角を持っているかが既知であることを前提とする。
この場合に、画像内で水平線高さに相当する画像座標が分かれば、光軸方向と水平方向がなす角α[rad]が一意に求まる。光軸方向と地面がなす角、すなわち俯角θ[rad]はθ=αで求められる。または、画像内で鉛直点に相当する画像座標が分かれば、光軸方向と鉛直方向がなす角β[rad]が一意に求まる。俯角θ[rad]はθ=π/2−βで求められる。
俯角推定部2043は、人物情報に基づき、移動する人物の接地点の移動の方向を延長し、複数の人物の移動方向の延長線が最もよく交わる点を水平線上の点とみなす。これは、複数の歩行者が並行かつ直進して歩いているという前提に基づく。移動方向検出の精度誤差や、平行に歩いていない歩行者などの影響で、各線は必ずしも一点には交わらない。このため、俯角推定部2043は、多くの人物情報を用いて、より尤もらしい結果を水平高さと推定する。
俯角推定部2043は、人物情報に基づき、頭頂部と接地点の座標を結んだ線、すなわち法線方向の線を延長し、複数の人物の法線方向の線が最もよく交わる点を鉛直点とみなす。これは、歩行者が地面に対して直立しているという前提に基づく。頭頂部と接地点の座標の検出誤差や、直立していない歩行者などの影響で、各線は必ずしも一点には交わらない。このため、俯角推定部2043は、多くの人物情報を用いて、より尤もらしい結果を鉛直点座標と推定する。
図13、図14及び図15は、群集前景画像の例を示す。図13は、混雑レベル1の群集前景画像の例を示す。図14は、混雑レベル2の群集前景画像の例を示す。図15は、混雑レベル3の群集前景画像の例を示す。
図13〜図15に示すように、前景マップ生成部2044は、撮影空間に複数の人物が存在する複数の群集前景画像を撮影空間に存在する人物の数を群集前景画像ごとに変化させて生成する。
また、図13〜図15に示すように、群集前景画像では、人物の密度や配置によっては人物間でオクルージョンが発生している。
前景マップ生成部2044は、これまでに取得された人物情報の接地点の画像座標を路面座標に変換したのちに、路面座標系で人物の密度が既定の値となる複数の位置に前景画像を貼り合わせて群集前景画像を生成する。例えば図13に示す路面座標のグリッドが、路面座標系で50cm間隔とする。すなわちグリッド全体は4[m2]である。混雑レベル1の群集密度が1[人/m2]であるとすると、前景マップ生成部2044は、グリッド内に4人の人物をランダムに配置する。混雑レベル2の群集密度が2[人/m2]であるとすると、前景マップ生成部2044は、グリッド内に8人の人物をランダムに配置する。混雑レベル3の群集密度が4[人/m2]であるとすると、前景マップ生成部2044は、グリッド内に16人の人物をランダムに配置する。いずれの場合も、前景マップ生成部2044は、人物同士が近くなりすぎないように、例えば人の肩幅平均値や、密度ごとのパーソナルスペース半径平均値以上の距離を保つようにして人物をランダムに配置する。
また、前景マップ生成部2044は、部分領域ごとに、部分領域に含まれる前景面積量を計算する。例えば、図16の符号161で示す部分領域では、例えば、90ピクセル/部分領域が得られる。群集前景画像は複数の人物の前景画像が合成されて生成されているため、前景マップ生成部2044は、各部分領域に映っている人物の数の真値を得ることができる。前景マップ生成部2044は、部分領域ごとに、部分領域に映っている人物の数を計数する。1つの部分領域に人物1人の前景画像の全体が含まれている場合は、当該部分領域に映っている人物の数は1人である(1人/部分領域)。1つの部分領域に人物の一部の前景画像しか含まれていない場合は、前景マップ生成部2044は、当該人物の前景画像の面積全体を当該部分領域に含まれている当該人物の部分の面積で割ることで、当該部分領域に含まれている人数を小数点以下の単位で求める。例えば、符号161の部分領域に含まれている人物の前景面積量は150ピクセルである。符号161の部分領域に90ピクセルが含まれていると仮定すると、前景マップ生成部2044は、符号161の部分領域に含まれる人数を0.6人(90÷150=0.6)として定義する(0.6人/部分領域)。
そして、前景マップ生成部2044は、各部分領域に、部分領域に含まれる人物の前景面積量(例:90ピクセル/部分領域)と部分領域に含まれる人物の数(例:1人/部分領域、0.6人/部分領域)を付加する。
以下、部分領域に含まれる人物の前景面積量(例:90ピクセル/部分領域)を領域人物面積量という。また、部分領域に含まれる人物の数(例:1人/部分領域、0.6人/部分領域)を領域人物数という。
各部分領域に領域人物面積量と領域人物数が付加された群集前景画像を前景マップという。前述したように、前景マップは参照画像に相当する。
図19、図20及び図21は人数推定処理を説明する。
人数推定部2062は、図19に示すように、画像フレームから前景画像を抽出する。そして、人数推定部2062は、前景画像を、前景マップと同じ部分領域に区分する。図19に示す前景画像における部分領域を、以下、推定対象部分領域という。
人数推定部2062は、図20に示すように、推定対象部分領域ごとに前景面積量を判定する。
次に、人数推定部2062は、推定対象部分領域ごとに、混雑レベル別の複数の前景マップから同じ位置にある部分領域を抽出し、抽出した部分領域の各々における前景面積量と、推定対象部分領域における前景面積量とを比較する。そして、人数推定部2062は、推定対象部分領域における前景面積量と最も類似する前景面積量の前景マップの部分領域を選択する。
人数推定部2062は、例えば、図20の前景画像の1行目1列目(最上段の左端)の推定対象部分領域に対して、混雑レベル1〜3の前景マップの各々から1行目1列目の部分領域を抽出する。次に、人数推定部2062は、混雑レベル1〜3の前景マップから抽出した3つの部分領域の各々における前景面積量と、図20の推定対象部分領域における部分領域とを比較する。そして、人数推定部2062は、図20の推定対象部分領域における前景面積量と最も類似する前景面積量が付加されている部分領域を、抽出した3つの部分領域の中から選択する。人数推定部2062は、以上の処理を、図20の全ての推定対象部分領域について行う。以下、推定対象領域に対して選択した部分領域を選択部分領域という。
このようにして人数推定部2062は推定対象部分領域ごとに混雑レベル1〜3の前景マップの中から選択部分領域を選択する。このため、推定対象部分領域によって、選択部分領域の混雑レベルが相違する場合がある。例えば、図20の前景画像のn行目m列目の推定対象部分領域に対しては、混雑レベル3の前景マップの部分領域が選択され、n行目m+1列目の推定対象部分領域に対しては、混雑レベル2の前景マップの部分領域が選択され、n行目m+2列目の推定対象部分領域に対しては、混雑レベル1の前景マップの部分領域が選択されるということが生じ得る。
次に、人数推定部2062は、推定対象部分領域ごとに、推定対象部分領域に含まれる人物の数を求める。具体的には、人数推定部2062は、推定対象部分領域の前景面積量を、選択部分領域の領域人物面積量で割り、除算値に選択部分領域の領域人物数を乗算する。つまり、人数推定部2062は、(推定対象部分領域の前景面積量)÷(選択部分領域の領域人物面積量)×(選択部分領域の領域人物数)という計算を行って、推定対象部分領域に含まれる人物の数を求める。
そして、人数推定部2062は、推定対象部分領域ごとに得られた人数を集計して、画像フレーム全体、または注目領域に含まれる人数を得る。
以上のように、本実施の形態では、パラメータ取得部204が、実際に観測された前景画像を用いて、オクルージョンを考慮して、領域人物面積量と領域人物数を求める。そして、人数解析部206が、人数推定対象の前景画像に領域人物面積量と領域人物数を適用して、人数推定を行うため、人物の平均寸法を予め得ることなく、高精度な人数推定が可能である。
また、本実施の形態では、パラメータ取得部204が、カメラの外部パラメータであるカメラの俯角を推定するため、カメラの外部パラメータを予め測定しておく必要がない。特許文献1に開示されている技術では、CGモデルの生成のために、カメラ外部パラメータを予め測定して取得しておく必要がある。カメラ外部パラメータは、例えば、カメラの俯角や、点在する人物の各々からカメラまでの距離などのパラメータである。このように、特許文献1に開示されている技術では、カメラ外部パラメータを予め測定して取得しておく必要があるため、カメラ設置時のコストが大きいという課題がある。本実施の形態では、前述のように、カメラの外部パラメータを予め測定しておく必要がないという効果がある。
最後に、群集監視装置20のハードウェア構成の補足説明を行う。
図22に示すプロセッサ901は、プロセッシングを行うIC(Integrated Circuit)である。
プロセッサ1101は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)等である。
図22に示すメモリ1102は、RAM(Random Access Memory)である。
図22に示す記憶装置1104は、ROM(Read Only Memory)、フラッシュメモリ、HDD(Hard Disk Drive)等である。
図22に示すネットワークインタフェース1103は、データを受信するレシーバー及びデータを送信するトランスミッターを含む。
ネットワークインタフェース1103は、例えば、通信チップ又はNIC(Network Interface Card)である。
そして、OSの少なくとも一部がプロセッサ1101により実行される。
プロセッサ1101はOSの少なくとも一部を実行しながら、画像受信復号部201、切替スイッチ202、モード切替制御部203、パラメータ取得部204、人数解析部206及び解析結果出力部207の機能を実現するプログラムを実行する。
プロセッサ1101がOSを実行することで、タスク管理、メモリ管理、ファイル管理、通信制御等が行われる。
また、画像受信復号部201、切替スイッチ202、モード切替制御部203、パラメータ取得部204、人数解析部206及び解析結果出力部207の処理の結果を示す情報、データ、信号値及び変数値の少なくともいずれかが、メモリ1102、記憶装置1104、プロセッサ1101内のレジスタ及びキャッシュメモリの少なくともいずれかに記憶される。
また、画像受信復号部201、切替スイッチ202、モード切替制御部203、パラメータ取得部204、人数解析部206及び解析結果出力部207の機能を実現するプログラムは、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD等の可搬記憶媒体に記憶されてもよい。
また、群集監視装置20は、ロジックIC(Integrated Circuit)、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)といった電子回路により実現されてもよい。
この場合は、画像受信復号部201、切替スイッチ202、モード切替制御部203、パラメータ取得部204、人数解析部206及び解析結果出力部207は、それぞれ電子回路の一部として実現される。
なお、プロセッサ及び上記の電子回路を総称してプロセッシングサーキットリーともいう。
Claims (8)
- 被写体が存在する撮影空間が撮影された前記被写体が映されている撮影画像である第1の撮影画像から前記被写体の画像である被写体画像を抽出し、抽出した前記被写体画像に基づき、前記撮影空間に複数の被写体が存在する複数の参照画像を前記撮影空間に存在する被写体の数を参照画像ごとに変化させて生成する参照画像生成部と、
前記第1の撮影画像とは撮影時刻が異なる前記撮影空間の撮影画像である第2の撮影画像と、前記複数の参照画像とを比較し、前記第2の撮影画像に映されている被写体の数を推定する被写体数推定部とを有する画像処理装置。 - 前記参照画像生成部は、
前記複数の参照画像の各参照画像を複数の部分領域に区分し、各参照画像の部分領域ごとに、部分領域に映されている被写体の数を領域被写体数として算出し、
前記被写体数推定部は、
前記第2の撮影画像を前記複数の部分領域に区分し、前記第2の撮影画像の部分領域ごとに、前記複数の参照画像の各参照画像から、前記第2の撮影画像の部分領域の位置と同じ位置にある部分領域を抽出し、抽出した複数の部分領域の各々と前記第2の撮影画像の部分領域とを比較し、抽出した前記複数の部分領域の中からいずれかの部分領域を選択し、選択した部分領域の領域被写体数を用いて、前記第2の撮影画像に映されている被写体の数を推定する請求項1に記載の画像処理装置。 - 前記参照画像生成部は、
各参照画像の部分領域ごとに、前記領域被写体数と、部分領域における前景面積量とを算出し、
前記被写体数推定部は、
前記第2の撮影画像の部分領域ごとに、前記第2の撮影画像の部分領域における前景面積量を算出し、
前記第2の撮影画像の部分領域ごとに、抽出した前記複数の部分領域の各々における前景面積量と、前記第2の撮影画像の部分領域における前景面積量とを比較し、前記第2の撮影画像の部分領域における前景面積量に類似する前景面積量の部分領域を選択し、
前記第2の撮影画像の部分領域ごとに、選択した部分領域の領域被写体数と、選択した部分領域における前景面積量と、前記第2の撮影画像の部分領域における前景面積量とを用いて、前記第2の撮影画像の部分領域に映されている被写体の数を推定し、
前記第2の撮影画像の部分領域ごとに推定した被写体の数に基づき、前記第2の撮影画像に映されている被写体の数を推定する請求項2に記載の画像処理装置。 - 前記参照画像生成部は、
前記撮影空間に存在する被写体の数ごとに、前記撮影空間に存在する被写体の数が同じで被写体の配置が異なる複数の参照画像を生成する請求項1に記載の画像処理装置。 - 前記参照画像生成部は、
被写体間でオクルージョンが発生している参照画像を生成する請求項1に記載の画像処理装置。 - 前記参照画像生成部は、
前記撮影空間を見下ろす位置に設置されたカメラにより撮影された前記第1の撮影画像から前記被写体画像を抽出し、前記第1の撮影画像を解析して前記カメラの俯角を推定し、抽出した前記被写体画像と、推定した前記カメラの俯角とに基づき、前記複数の参照画像を生成する請求項1に記載の画像処理装置。 - コンピュータが、被写体が存在する撮影空間が撮影された前記被写体が映されている撮影画像である第1の撮影画像から前記被写体の画像である被写体画像を抽出し、抽出した前記被写体画像に基づき、前記撮影空間に複数の被写体が存在する複数の参照画像を前記撮影空間に存在する被写体の数を参照画像ごとに変化させて生成し、
前記コンピュータが、前記第1の撮影画像とは撮影時刻が異なる前記撮影空間の撮影画像である第2の撮影画像と、前記複数の参照画像とを比較し、前記第2の撮影画像に映されている被写体の数を推定する画像処理方法。 - 被写体が存在する撮影空間が撮影された前記被写体が映されている撮影画像である第1の撮影画像から前記被写体の画像である被写体画像を抽出し、抽出した前記被写体画像に基づき、前記撮影空間に複数の被写体が存在する複数の参照画像を前記撮影空間に存在する被写体の数を参照画像ごとに変化させて生成する参照画像生成処理と、
前記第1の撮影画像とは撮影時刻が異なる前記撮影空間の撮影画像である第2の撮影画像と、前記複数の参照画像とを比較し、前記第2の撮影画像に映されている被写体の数を推定する被写体数推定処理とをコンピュータに実行させる画像処理プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/010247 WO2018167851A1 (ja) | 2017-03-14 | 2017-03-14 | 画像処理装置、画像処理方法及び画像処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018167851A1 JPWO2018167851A1 (ja) | 2019-06-27 |
JP6559378B2 true JP6559378B2 (ja) | 2019-08-14 |
Family
ID=63521936
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019505568A Active JP6559378B2 (ja) | 2017-03-14 | 2017-03-14 | 画像処理装置、画像処理方法及び画像処理プログラム |
Country Status (6)
Country | Link |
---|---|
JP (1) | JP6559378B2 (ja) |
CN (1) | CN110383295B (ja) |
MY (1) | MY184063A (ja) |
SG (1) | SG11201906822YA (ja) |
TW (1) | TW201833822A (ja) |
WO (1) | WO2018167851A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115701120A (zh) * | 2021-07-26 | 2023-02-07 | 荣耀终端有限公司 | 电子设备和摄像头模组 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005025328A (ja) * | 2003-06-30 | 2005-01-27 | Ntt Data Corp | 混雑監視システムおよび混雑監視プログラム |
JP2005242646A (ja) * | 2004-02-26 | 2005-09-08 | Ntt Data Corp | 人流計測装置、人流計測方法および人流計測プログラム |
JP5624809B2 (ja) * | 2010-06-24 | 2014-11-12 | 株式会社 日立産業制御ソリューションズ | 画像信号処理装置 |
JP5731354B2 (ja) * | 2011-10-21 | 2015-06-10 | 日本電信電話株式会社 | 物体数計測装置、物体数計測方法及び物体数計測プログラム |
JP2014164525A (ja) * | 2013-02-25 | 2014-09-08 | Nippon Telegr & Teleph Corp <Ntt> | 物体数推定方法、物体数推定装置、及び物体数推定プログラム |
JP6276519B2 (ja) * | 2013-05-22 | 2018-02-07 | 株式会社 日立産業制御ソリューションズ | 人数計測装置および人物動線解析装置 |
CN105165004B (zh) * | 2013-06-11 | 2019-01-22 | 夏普株式会社 | 摄影系统 |
WO2015029588A1 (ja) * | 2013-08-27 | 2015-03-05 | 日本電気株式会社 | 画像処理システム、画像処理方法及びプログラム |
JP6638723B2 (ja) * | 2015-03-04 | 2020-01-29 | ノーリツプレシジョン株式会社 | 画像解析装置、画像解析方法、及び、画像解析プログラム |
-
2017
- 2017-03-14 MY MYPI2019004399A patent/MY184063A/en unknown
- 2017-03-14 JP JP2019505568A patent/JP6559378B2/ja active Active
- 2017-03-14 SG SG11201906822YA patent/SG11201906822YA/en unknown
- 2017-03-14 WO PCT/JP2017/010247 patent/WO2018167851A1/ja active Application Filing
- 2017-03-14 CN CN201780088044.6A patent/CN110383295B/zh active Active
- 2017-07-13 TW TW106123456A patent/TW201833822A/zh unknown
Also Published As
Publication number | Publication date |
---|---|
CN110383295B (zh) | 2022-11-11 |
JPWO2018167851A1 (ja) | 2019-06-27 |
TW201833822A (zh) | 2018-09-16 |
CN110383295A (zh) | 2019-10-25 |
WO2018167851A1 (ja) | 2018-09-20 |
MY184063A (en) | 2021-03-17 |
SG11201906822YA (en) | 2019-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10893251B2 (en) | Three-dimensional model generating device and three-dimensional model generating method | |
US8331617B2 (en) | Robot vision system and detection method | |
CN110692083B (zh) | 用于动态视觉传感器的块匹配光流和立体视觉 | |
GB2507395B (en) | Video-based vehicle speed estimation from motion vectors in video streams | |
JP6561830B2 (ja) | 情報処理システム、情報処理方法及びプログラム | |
US9230333B2 (en) | Method and apparatus for image processing | |
US20200250885A1 (en) | Reconstruction method, reconstruction device, and generation device | |
KR101781154B1 (ko) | 장면을 캡쳐하는 영상 프레임들의 시퀀스 내의 영상 프레임의 노출을 장면 내의 모션의 레벨에 근거하여 최적화하기 위한 방법 및 카메라 | |
JP2017500659A (ja) | 不均一なサイズの空間領域に関するメタデータを生成するためのシステム、方法、および装置 | |
TWI393376B (zh) | 資料傳輸方法 | |
JP2015528614A5 (ja) | ||
KR20140045854A (ko) | 단일객체에 대한 기울기를 추정하는 영상을 감시하는 장치 및 방법 | |
US10853949B2 (en) | Image processing device | |
WO2018011944A1 (ja) | 群集監視装置、および、群集監視システム | |
CN112104869B (zh) | 一种视频大数据存储及转码优化系统 | |
CN110992393B (zh) | 一种基于视觉的目标运动跟踪方法 | |
JP6622575B2 (ja) | 制御装置、制御方法、およびプログラム | |
CN106530353B (zh) | 针对双目视觉系统稀疏三维重建的三维运动点检测方法 | |
JP6559378B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
WO2008154825A1 (en) | A method and device for extracting a background image in a motion image | |
WO2019087383A1 (ja) | 群集密度算出装置、群集密度算出方法および群集密度算出プログラム | |
JP4979083B2 (ja) | 監視システム、監視方法、及びプログラム | |
JP2004046464A (ja) | 移動物体3次元位置推定装置及びその方法、プログラム並びにその記録媒体 | |
KR20140045834A (ko) | 단일객체의 크기를 추정하는 영상 감시장치 및 방법 | |
US11272209B2 (en) | Methods and apparatus for determining adjustment parameter during encoding of spherical multimedia content |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190408 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190408 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190408 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20190611 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190618 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190716 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6559378 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |