JP6959444B2 - 計測情報処理装置 - Google Patents
計測情報処理装置 Download PDFInfo
- Publication number
- JP6959444B2 JP6959444B2 JP2020525216A JP2020525216A JP6959444B2 JP 6959444 B2 JP6959444 B2 JP 6959444B2 JP 2020525216 A JP2020525216 A JP 2020525216A JP 2020525216 A JP2020525216 A JP 2020525216A JP 6959444 B2 JP6959444 B2 JP 6959444B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- scene
- measurement
- scene information
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Description
本発明は計測情報処理装置に関し、例えば計測装置で取得された計測情報を処理する計測情報処理装置に適用して好適なものである。
計測装置が取得した情報(計測情報)により、物体を検出する物体検出技術へのニーズが高まっている。計測装置としては、監視カメラ、距離センサ、レーザレーダ、赤外線タグなどが多く活用されている。特に、装置を新設するための導入コストが掛からず、かつ、既設の装置を利用できる監視カメラへの期待が高い。監視カメラを適材適所に満遍なく設置できるならば、ユーザが求める計測精度を達成できるが、実際にはコスト面、設置場所の環境などによって使用する監視カメラの数、物体検出の性能などが限定され、期待された計測精度が得られない。そのため、技術者などが現地に赴き、計測精度を高めるために監視カメラが物体検出の際に使用するしきい値などのパラメータを長時間調整する場面が多々ある。
このような状況を鑑みて、近年では、設置環境に応じて監視カメラのパラメータを最適化する技術が開発されている。かかる技術は、設置した監視カメラの映像から真値情報が既知であるシーンを選定し、映像中の移動体の数、移動傾向、および画像パターンを学習することで、カメラの設置環境ごとに適したパラメータを推定する。
真値情報の入力方法としては人手による手動が考えられるものの、多数の監視カメラを活用したシステムである場合、調整に必要なコストの肥大化が懸念される。そのため、自動で真値が既知であるシーンを選定し、パラメータを最適化する技術が求められる。
この点、顔検出の結果を利用して真値の信頼度の高い学習用のシーンを選定し、人物追跡のパラメータを自動で最適化する技術が開示されている(特許文献1参照)。
特許文献1に記載の技術では、自動で人物追跡のパラメータを最適化できるものの、カメラの設置環境により顔検出自体が難しい場合、取得する真値の精度が低くなり、最適なパラメータを推定することが困難となる。また、顔検出が可能なシーンを選定するため、学習シーンは、人物がカメラ近傍の位置にいるシーンまたは人物の正面顔を撮像したシーンに限定される可能性があり、多様なシーンに有効なパラメータを取得できない懸念がある。
本発明は以上の点を考慮してなされたもので、計測装置のパラメータの最適化に用いるシーン情報を適切に得ることができる計測情報処理装置を提案しようとするものである。
かかる課題を解決するため本発明においては、計測装置で取得された計測情報を処理する計測情報処理装置であって、計測装置で取得された計測情報に基づいて前記計測情報が取得された時間情報および前記計測装置の計測範囲における物体の特定に係る特定情報を抽出し、前記計測情報と前記時間情報と前記特定情報とを含むシーン情報を生成するシーン情報抽出部と、前記シーン情報抽出部で生成されたシーン情報の時間情報と、計測装置の配置情報とに基づいて、第1の計測装置で取得された第1のシーン情報に関連付けられる第2の計測装置で取得された第2のシーン情報を特定し、前記第1のシーン情報と前記第2のシーン情報とに基づいて、前記第1の計測装置における物体の特定に係るパラメータを最適化するパラメータ最適化部と、を設けるようにした。
上記構成では、第1の計測装置で取得された第1のシーン情報と、第1のシーン情報に関連付けられる第2の計測装置で取得された第2のシーン情報とに基づいて、第1の計測装置における物体の特定に係るパラメータが最適化される。かかる構成によれば、例えば、第1の計測装置のパラメータの最適化において、第1のシーン情報に加えて、第1のシーン情報と関連付けられる第2のシーン情報を加味することで、パラメータの最適化に用いるシーン情報を適切に得ることができ、パラメータの精度を高めることができる。
本発明によれば、計測装置のパラメータの精度を高めることができる。
以下図面について、本発明の一実施の形態を詳述する。
(1)第1の実施の形態
図1において、100は全体として第1の実施の形態による画像処理システムを示す。画像処理システム100は、画像処理装置110と、複数のカメラ120(撮像装置)とを備え、カメラ120における物体の特定に係るパラメータをカメラ120ごとに自動で調整するシステムである。なお、本実施の形態では、カメラ120を例に挙げて説明するが、カメラ120に限られるものではなく、距離センサ、レーザレーダ、赤外線タグなど、他の計測装置にも適用できる。
図1において、100は全体として第1の実施の形態による画像処理システムを示す。画像処理システム100は、画像処理装置110と、複数のカメラ120(撮像装置)とを備え、カメラ120における物体の特定に係るパラメータをカメラ120ごとに自動で調整するシステムである。なお、本実施の形態では、カメラ120を例に挙げて説明するが、カメラ120に限られるものではなく、距離センサ、レーザレーダ、赤外線タグなど、他の計測装置にも適用できる。
カメラ120における物体の特定に係るパラメータ(パラメータの種類)としては、カメラ120の内部パラメータ、カメラ120の外部パラメータ、物体の検出に用いるしきい値パラメータ、物体の追跡などのアプリケーションに関連するしきい値パラメータなど、特に限定しない。なお、以下では、物体の特定としては、物体の検出(物体検出)を例に挙げて説明するが、物体の追跡であってもよい。
画像処理装置110は、計算機、コンピュータなどの計測情報処理装置の一例であり、カメラ120で取得されたデジタル画像データ(計測情報の一例)を処理する。画像処理装置110は、ノートパソコン、サーバ装置等であり、図示は省略するCPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、通信部などを含んで構成される。
画像処理装置110の機能(画像取得部130、シーン情報抽出部140、パラメータ最適化部150など)は、例えば、CPUがROMに格納されたプログラムをRAMに読み出して実行すること(ソフトウェア)により実現されてもよいし、専用の回路などのハードウェアにより実現されてもよいし、ソフトウェアとハードウェアとが組み合わされて実現されてもよい。また、画像処理装置110の機能の一部は、画像処理装置110と通信可能な他のコンピュータ(カメラ120であってもよいし、図示は省略する他のコンピュータであってもよい。)により実現されてもよい。
なお、HDD等の記憶部には、シーン情報160、カメラ配置情報170等が記憶されている。シーン情報160は、カメラ120で取得されたデジタル画像データからデジタル画像データが取得された撮像時刻(時間情報の一例)と真値とを含んで構成される。なお、シーン情報160の詳細については、図4および図5を用いて説明する。カメラ配置情報170は、カメラ120間の位置関係を特定可能な情報である。カメラ配置情報170は、カメラ120の位置を示す位置情報を含んで構成される。位置情報については、カメラ120間の位置関係を特定可能な情報を適宜に採用でき、経緯度の情報であってもよいし、カメラ120が設置されるフロアを示すフロアマップ上の座標情報であってもよい。なお、カメラ配置情報170には、カメラ120の向きを示すカメラ方向情報が含まれていてもよい。付言するならば、カメラ方向情報については、カメラ配置情報170に含まれることなく、デジタル画像データから必要に応じて推定されてもよい。
画像取得部130は、カメラ120からデジタル画像データを取得する。シーン情報抽出部140は、画像取得部130により取得されたデジタル画像データから画像特徴量を用いてシーン情報160を生成する。パラメータ最適化部150は、シーン情報変更部151、学習シーン選定部152、パラメータ算出部153、出力制御部154、および入力制御部155を含んで構成され、各カメラ120のパラメータを最適化する。
シーン情報変更部151は、複数のカメラ120におけるシーン情報160とカメラ配置情報170とに基づいて、カメラ120ごとのシーン情報160を変更する。学習シーン選定部152は、シーン情報変更部151により変更された後のシーン情報160からカメラ120のパラメータを最適化するためのシーン情報160を学習シーンとして選定する。パラメータ算出部153は、学習シーン選定部152により選定された学習シーンを用いて各カメラ120のパラメータを最適化する。出力制御部154は、パラメータに係る情報(最適化されたパラメータのカメラ120への設定、カメラ120の物体検出の精度が低いことを示す情報など)を出力装置180(例えば、カメラ120、他のコンピュータ、プリンタ)などに出力する。入力制御部155は、パラメータに係る情報(例えば、ユーザにより指定された真値)を入力する。
以下では、物体検出の対象を人物として説明するが、これに限られるものではなく、動物、ロボットなど、移動可能な他の物体を対象としてもよい。また、以下では、画像取得部130がカメラ120から取得するデジタル画像データを撮像画像と称する。
図2は、シーン情報抽出部140に係る構成の一例を示す図である。
シーン情報抽出部140は、シーン解析部210と、シーン信頼度算出部220とを含んで構成される。シーン解析部210は、画像取得部130により取得された撮像画像に対して画像特徴量などを利用した解析処理を実行することで解析情報を取得する。シーン信頼度算出部220は、シーン解析部210により取得された解析情報の信頼度を算出し、解析情報と信頼度とを含むシーン分析情報を生成し、撮像画像とシーン分析情報とを含むシーン情報160を生成(作成)する。なお、解析情報については、図4を用いて後述する。シーン分析情報およびシーン情報160については、図5を用いて後述する。
図3は、シーン情報変更部151に係る構成の一例を示す図である。
シーン情報変更部151は、シーン情報結合部310と、シーン分析情報修正部320とを含んで構成される。シーン情報結合部310は、カメラ配置情報170に基づいて各カメラ120のシーン情報160を結合する。シーン分析情報修正部320は、シーン情報結合部310により結合されたシーン情報160を比較して各カメラ120のシーン情報160(例えば、シーン分析情報)を変更する。なお、シーン情報変更部151の処理については、図6を用いて後述する。
図4は、解析情報を説明するための図である。
図4に示す撮像画像410,420は、図1の画像取得部130により異なる時刻に取得された撮像画像である。動体411,412,421,422は、カメラ120の検出対象である人物を示す。動体とは、計測開始時にカメラ120の撮像範囲内に存在せず、計測開始後にカメラ120の撮像範囲内に存在する物体をいう。固定物413,423は、カメラ120の検出対象外の設置物を示す。
動体領域画像430,440は、撮像画像410,420における動体411,412,421,422の領域である動体領域431,432,441を示す画像である。
解析情報450は、シーン解析部210により取得された情報を示す。解析情報450には、真値、および撮像時刻の情報が含まれる。混雑度合、動体領域数、動体領域詳細の情報のうちの少なくとも1つ以上については、解析情報450に、含まれていてもよいし、含まれていなくてもよい。
真値は、撮像画像中の検出対象の数である。真値は、検出対象を推定した値であり、カメラ120が初期のパラメータを用いて物体検出を実行した結果でもよいし、動体領域画像430,440に存在する動体領域431,432,441の数でもよく、必ずしも正確な値でなくてよい。
撮像時刻は、撮像画像を取得した時刻であり、カメラ120、画像処理装置110などに内蔵されている時刻情報から取得されたものである。
混雑度合は、計測範囲内の動体の密集度合を示す。例えば、混雑度合については、動体領域画像430,440の差分画像の解像度に対する動体領域431,432,441の差分領域の画素数の割合を算出することで求めることができる。混雑度合は、「0」〜「100」の値域としてそのまま使用してもよいし、「0」〜「5」のように、ダウンサンプリングした値域を使用してもよい。
動体領域数は、動体領域画像に存在する動体領域の数である。例えば、動体領域数については、動体領域画像430,440に存在する動体領域431,432,441の数がそのまま使用される。
動体領域詳細には、人数、位置、移動方向、移動速度などの情報が含まれる。
人数は、動体領域内に存在すると予想される動体の数である。例えば、人数については、予め動体領域431,432,441の大きさと動体領域431,432,441内の動体411,412,421,422の数との相関関係を保持することで取得する方法などにより算出される。例えば、動体領域431,432のように領域が小さい場合、人数を「1」とし、動体領域441のように領域が大きい場合、人数が「1」または「2」以上とする。
位置は、撮像画像中における動体領域の位置を示す。例えば、位置は、座標軸460を使用し、動体領域431,432,441の重心位置(x,y)を位置の情報として扱う方法により算出される。
移動方向は、動体の移動方向を示す。移動速度は、動体の移動速度を示す。
移動方向および移動速度については、オプティカルフローなどの一般的な画像処理技術を実施することで取得される。移動方向については、オプティカルフローの情報から動体方向470のような8方向などに分類してもよい。また、移動速度については、画素(ピクセル)単位の速度(ピクセル/秒)、動体領域431,432,441の大きさとカメラ120の設置位置とを考慮して大まかに求めた実測値(km/時間)を使用してよい。
なお、混雑度合、動体領域数、動体領域内の人数を算出する際、予めいくつかのパターンの設置環境における解像度との相関関係を学習しておき、シーン解析技術などによりカメラ120が設置された環境に最も近い相関関係を利用する方法を用いてもよく、特に限定しない。また、シーン解析部210において取得される解析情報450としては、少なくとも真値と撮像時刻とが含まれ、解析情報450に示すもの以外にも画像処理技術によって容易に取得可能である情報を追加することも可能であり、特に限定しない。
座標軸460は、撮像画像の座標軸を示す。動体方向470は、撮像画像中の動体の方向を示す。
図5は、シーン分析情報およびシーン情報を説明するための図である。図5に示すように、シーン分析情報510は、撮像画像410の解析情報に信頼度情報を加えた情報である。シーン情報160は、撮像画像410とシーン分析情報510とを総括した情報である。
信頼度は、カメラ120の計測範囲における真値の信頼性を示す信頼性情報の一例であり、撮像画像に対する解析情報(例えば、真値)の信頼性を示すものである。信頼度が高いシーン情報(例えば、撮像画像および真値)を学習シーンとして選定することで、後述のパラメータの最適化の精度が向上する。
このように、シーン情報(例えば、シーン情報160)には、計測装置(例えば、カメラ120)で取得された計測情報(例えば、撮像画像)と、計測情報が取得された時間情報(例えば、撮像時刻)と、計測装置の計測範囲における物体の特定に係る特定情報(例えば、真値)とが含まれる。また、シーン情報には、信頼性情報(例えば、信頼度)、計測装置の計測範囲内の物体の密集度合を示す混雑度合情報(例えば、混雑度合)、計測範囲内に存在する物体領域の数情報(例えば、動体領域数)、計測範囲における物体領域の位置情報(例えば、動体領域の位置)、物体領域の移動方向情報(例えば、動体領域の移動方向)、物体領域の移動速度情報(例えば、動体領域の移動速度)の少なくとも1つ以上が含まれる。
図6は、画像処理装置110における処理に係る処理手順の一例を示す図である。
ステップS601では、シーン解析部210は、撮像画像から解析情報と撮像時刻とを取得する。
シーン解析部210は、まず、撮像画像から画像処理により、動体領域画像を生成する。なお、動体領域画像の生成方法としては、一般的な公知な方法を用いることができ、特に限定しない。
例えば、シーン解析部210は、背景差分法を用いて、予め保持しておいた検出対象が存在しない背景画像と撮像画像との差分を計算し、差分量がしきい値より大きい領域を動体領域として判定する。ここでは、動体領域を大まかに取得する例を示したが、カメラ120の画像解像度が充分である場合、撮像画像中から動体(人物)が存在する正確な領域を画素単位で取得することもできる。また、単純な背景差分法を使用するのではなく、背景更新を活用した高精度な背景差分手法、連続する撮像画像間の差分を取得するフレーム間差分方法などを用いて動体領域画像を生成してもよい。
ステップS602では、シーン信頼度算出部220は、解析情報の信頼度を算出し、シーン情報160を生成する。
シーン信頼度算出部220は、例えば、シーン解析部210により抽出された解析情報の一部または全てを使用して解析情報の信頼度を算出する。信頼度を算出する際に使用する解析情報は、特に限定しない。
例えば、シーン信頼度算出部220は、撮像画像と背景画像との差分領域が少ない程、情報の抽出の際にノイズが入りにくいと判断し、信頼度を大きく設定する。また、例えば、シーン信頼度算出部220は、混雑度合が小さいまたは動体領域数が少ないという解析情報である場合、予め指定した値域の範囲内にて信頼度を線型的に大きく設定してもよいし、各動体領域の人数の和が真値と異なる解析情報の信頼度を小さく設定してもよい。
また、シーン信頼度算出部220は、カメラ情報(カメラ設置情報、カメラ特性情報)が取得できる状況である場合、信頼度の算出においてカメラ情報を使用してもよい。カメラ設置情報は、例えば、カメラ120の設置高さ、設置角度、設置位置である。カメラ特性情報は、物体検出の精度に影響し得るカメラ120の特性であり、例えば、画像解像度、フレームレート、カメラ120の種類(通常、直上タイプ、魚眼など)である。
カメラ情報を用いた信頼度の算出方法としては、カメラ120の設置位置と画像処理による解析情報の取得精度との関係性を考慮することで、信頼度を算出する方法などがある。例えば、シーン信頼度算出部220は、一般的にカメラ120と計測対象との距離が近いまたはカメラ120の俯角が大きいほど画像処理の精度が高くなることを踏まえ、カメラ設置情報からシミュレーションなどを用いてカメラ120と計測される人物との距離を推定し、人物との距離が短くなると予想されるカメラ120、人物を直上から撮像できるカメラ120、高解像度のカメラ120等から抽出した解析情報の信頼度を大きく設定する。
なお、シーン信頼度算出部220は、予め保持していたカメラ情報のデータベースなどを参照してカメラ情報を取得してもよいし、撮像画像中の画像特徴量などからカメラ120の設置位置を大よそに推定するなどによりカメラ情報を取得してもよい。
また、解析情報とカメラ情報とを組み合わせて信頼度を算出する方法でもよく、算出方法については、特に限定しない。例えば、シーン信頼度算出部220は、解析情報およびカメラ情報からそれぞれ算出した信頼度の和から最終的な信頼度を決定してもよい。また、例えば、シーン信頼度算出部220は、動体領域の移動速度といった解析情報と撮像のフレームレートといったカメラ情報とを組み合わせ、フレームレートが低いカメラ120において動体領域の移動速度が速いという解析情報の信頼度を小さく設定してもよい。また、例えば、シーン信頼度算出部220は、直上から撮像できるカメラ120において混雑度合が少ないという解析情報の信頼度を大きく設定してもよい。
また、物体検出の精度の低下が予想されるカメラ120の設置環境を示すカメラ設置環境情報に基づいて信頼度を算出する方法でもよく、算出方法については、特に限定しない。例えば、シーン信頼度算出部220は、直射日光が入る環境、鏡が設けられている環境、エスカレータのように常に動作するものが設置されている環境が撮影範囲にあると画像処理の精度が低下すると判断し、信頼度を小さく設定する。
このように、シーン情報抽出部(シーン情報抽出部140、シーン信頼度算出部220)は、計測装置(例えば、カメラ120)で取得された計測情報(撮像画像、撮像画像から抽出した解析情報など)、計測装置の設置情報、計測装置の設置環境情報、または計測装置の特性情報に基づいて(カメラ120の計測情報、カメラ設置情報、カメラ設置環境情報、カメラ特性情報の少なくとも1つを用いて)、信頼性情報(例えば、信頼度)を算出する。かかる構成によれば、信頼性情報を適切に算出することができる。
ステップS603では、シーン情報結合部310は、カメラ配置情報と撮像時刻とに基づいて、カメラ120間のシーン情報160を結合する。
図7を用いてシーン情報結合部310について説明する。図7の(A)は、カメラ120を設置したフロア(場所)を示すフロアマップの一例(2次元マップ710)を示す。2次元マップ710においては、オブジェクト720,730は、カメラ120の位置と撮影方向とを示す。カメラ配置情報170としては、図7の(A)のように、計測範囲におけるカメラ120間の位置関係が把握できるものであるならば、特に限定しない。撮影方向については、カメラ配置情報と撮像画像の画像特徴量とから大よそに推定した方向の情報などでもよい。なお、2次元マップ710については、カメラ配置情報170に基づいて生成可能である。以下では、説明の便宜上、オブジェクト720が示すカメラ120をカメラA、オブジェクト730が示すカメラ120をカメラBと適宜称する。
図7の(B)は、カメラAのシーン情報160とカメラBのシーン情報160とを結合する際の組み合わせ例を示す。
カメラAおよびカメラB間のシーン情報160を対応付ける方法としては、図7の(B)のように、カメラ配置情報170からカメラAにて撮影された人物がカメラBにて撮影されるエリアまで、標準の歩行速度で移動した際に必要な時間を利用する方法などがある。
例えば、シーン情報結合部310は、カメラAからカメラBへの移動時間が10秒であると算出した場合、カメラAのシーン情報160の撮像時刻の前後10秒が異なるまたは最も近い値の撮像時刻であるカメラBのシーン情報160を対応付ける。
なお、異なるカメラ120同士のシーン情報160を対応付ける方法については、図7の(A)のような計測範囲の2次元マップ710とカメラ120の配置関係とシーン情報160の撮像時刻とを比較する方法に限られるものではなく、特に限定しない。
ステップS604では、シーン分析情報修正部320は、シーン情報160を修正する。
シーン分析情報修正部320は、シーン情報結合部310により対応付けされたシーン情報160を比較することで、各カメラ120のシーン情報160(例えば、シーン分析情報)を変更する。比較するシーン情報160については特に限定しない。また、修正するシーン分析情報の候補としては真値が含まれていれば特に限定しない。
例えば、シーン分析情報修正部320は、信頼度を比較して、信頼度の低いシーン分析情報における真値を信頼度の高いシーン分析情報の真値に置き換えてもよい。また、例えば、シーン分析情報修正部320は、信頼度がしきい値より低い場合、対応付けたシーン情報160を破棄して学習シーンとしては使用しないようにしてもよい。
また、例えば、シーン分析情報修正部320は、信頼度が同じであるものの、真値の値が異なる場合は、混雑度合、および/または、動体領域数を比較して、小さい値であるほどノイズが少ないと判定し、小さい値の方の真値で大きい値の方の真値を変更してもよい。また、例えば、シーン分析情報修正部320は、混雑度合、および/または、動体領域数があまりにも異なる場合は、対応付けたシーン情報160を破棄してもよい。
また、例えば、シーン分析情報修正部320は、カメラ配置情報170、動体領域の詳細なシーン分析情報、カメラ情報を活用してもよい。例えば、シーン分析情報修正部320は、移動方向とカメラの配置情報とを考慮して、実際の人物の移動経路に適している場合、シーン情報160の対応付け自体の信頼性が高いものと判定し、どちらの真値も信頼度の高い方の真値とし、信頼度も大きく設定してもよい。
移動方向とカメラの配置情報170との考慮については、図7を例に見ると、オブジェクト720のカメラ120のシーン情報160の移動方向が左方向であり、対応付けられた10秒後のオブジェクト730のカメラ120のシーン情報160の移動方向が下方向である場合、人物の移動経路に適していると判断でき、仮に10秒前のオブジェクト730のカメラ120のシーン情報160とも対応付けられている場合は、その対応付けられたシーン情報160を破棄してもよい。
また、例えば、シーン分析情報修正部320は、全てのシーン分析情報を比較して各値の差異の合計を算出した値、または予め定めた重み付け係数を使用して算出した値がしきい値以下である場合、シーン情報160の対応付けの信頼性が高いと判断してもよい。また、例えば、シーン分析情報修正部320は、カメラ設置情報、カメラ特性情報を考慮し、信頼度が極めて高いと考えられるシーン情報160が存在する場合、シーン情報結合部310により対応付けられるシーン情報160の真値は、信頼度が極めて高いと考えられるシーン情報160の真値に全て置き換えてもよい。
このように、パラメータ最適化部(例えば、パラメータ最適化部150、シーン情報変更部151、シーン分析情報修正部320)は、第1のシーン情報の信頼性情報(例えば、カメラAの信頼度)と第2のシーン情報の信頼性情報(例えば、カメラAの信頼度)とに基づいて、第1のシーン情報(例えば、カメラAのシーン情報160、シーン分析情報、信頼度、真値)および/または第2のシーン情報(例えば、カメラBのシーン情報160、シーン分析情報、信頼度、真値)を修正する。かかる構成によれば、例えば、一方のカメラ120で取得された撮像画像の解析情報を他方のカメラ120で取得された撮像画像の解析情報で補完することができるので、より正確な信頼性情報が設定されたシーン情報160を効率的に得ることができる。また、パラメータ最適化部は、第1のシーン情報の信頼性情報と第2のシーン情報の信頼性情報とに基づいて、第1のシーン情報および/または第2のシーン情報を破棄する。かかる構成によれば、例えば、パラメータの最適化に不要であると判断したシーン情報160が破棄されるので、HDDの容量を削減することができる。
ステップS605では、学習シーン選定部152は、カメラ120ごとの学習シーンを選定する。
学習シーン選定部152は、シーン情報変更部151により出力されたシーン情報160の中から各カメラ120のパラメータを最適化するための学習シーンを選定する。
選定方法としては、信頼度を用いて選択する方法を適宜に採用できる。例えば、学習シーン選定部152は、信頼度が高いシーン情報160を予め設定されたデータ数だけ学習シーンとして選定してもよい。また、例えば、学習シーン選定部152は、学習シーンのバリエーションを増やすために、真値の値ごとに、シーン情報160を分類しておき、各真値において信頼度が高いシーン情報160をしきい値の数だけ学習シーンとして選定してもよい。
また、学習シーン選定部152は、撮像時刻、混雑度合、動体領域の情報などを用いて、シーンを設定してもよい。例えば、学習シーン選定部152は、撮像時刻に応じて、朝、昼、夕方、夜といった4つのシーンにシーン情報160を予め分類し、各シーンに対応するシーン情報160を選定してもよい。また、例えば、学習シーン選定部152は、混雑度合に応じて、混雑しているまたは混雑していないといった2つのシーンにシーン情報160を予め分類し、各シーンに対応するシーン情報160を選定してもよい。また、撮像時刻、混雑度合、動体領域の情報を組み合わせて、シーンを設定し、各シーンに対応するシーン情報160を選定してもよい。
このように、パラメータ最適化部(例えば、パラメータ最適化部150、学習シーン選定部152)は、シーン情報抽出部(例えば、シーン情報抽出部140)により抽出されるシーン情報の信頼性情報(例えば、シーン情報160の信頼度)に基づいて、シーン情報抽出部により生成されたシーン情報の中からパラメータを最適化するために用いるシーン情報を選定する。かかる構成によれば、例えば、信頼度の高いシーン情報160を学習シーンとすることができるので、カメラ120における物体検出の精度を高めることができるようになる。
続いて、ステップS606およびステップS607では、パラメータ算出部153は、学習シーン選定部152により選定された学習シーンを用いてカメラ120ごとの物体検出の精度に関連するパラメータを最適化する。なお、パラメータの最適化の方法については、最小二乗誤差などを利用した一般的なアルゴリズムを使用するなど、特に限定しない。
ステップS606では、パラメータ算出部153は、学習シーンに対し、初期パラメータにて物体検出を実行する。例えば、パラメータ算出部153は、選定された学習シーンの撮像画像と対応する真値とを抽出する。次に、パラメータ算出部153は、各撮像画像において初期パラメータによる物体検出を実行する。
ステップS607では、パラメータ算出部153は、計測結果と学習シーンの真値とが最小となるパラメータを算出する。
例えば、パラメータ算出部153は、ステップS606で物体検出した結果(物体検出結果)と真値との差異を求める。パラメータ算出部153は、予め設定した値域内で初期パラメータを変更し、または初期パラメータを無作為に変更する。
パラメータ算出部153は、ステップS606に処理を移し、同様に物体検出を実行し、ステップS607で真値との差異を求める。これらの処理を一定の回数繰り返し、最も差異が小さくなるパラメータを最終パラメータとして算出する。
また、最適化するパラメータの候補として物体検出のしきい値パラメータだけでなく、物体の追跡などのアプリケーションに関連するしきい値パラメータなどを含めてもよい。例えば、パラメータ算出部153は、シーン情報160の信頼度、撮像時刻、混雑状況などから、同一人物が計測範囲内を歩行している可能性が高いシーンを予め学習シーンとして選定し、当該人物を常に追跡できるしきい値パラメータに変更することで、物体の追跡に関連するパラメータの最適化を行う。
ステップS608では、出力制御部154は、出力処理を行う。例えば、出力制御部154は、パラメータ算出部153により算出されたパラメータをカメラ120に設定する。かかる構成によれば、自動でパラメータが最適化されてカメラ120に設定されるので、パラメータの設定に要する時間を削減できるようになる。更には、人件費を削減できるようになる。
付言するならば、パラメータ算出部153は、選定された学習シーンに対して必ずしも1組のパラメータを推定するのではなく、シーン情報160に応じて複数組のパラメータを推定してもよい。例えば、撮像時刻に応じて学習シーンを朝、昼、夕方、夜といった4つのシーンに予め分類しておき、各シーンに対して最適なパラメータを推定し、実際の物体検出時には撮像時刻に応じて使用するパラメータを切り替えてもよい。また、混雑度合に応じて分類したシーンに対して最適なパラメータを推定しておき、物体検出前にシーン情報抽出部140の一部の画像処理のみ実行して混雑度合を算出し、その値に応じてパラメータを切り替えてもよい。
このように、パラメータ最適化部(例えば、パラメータ最適化部150)は、シーン情報抽出部(例えば、シーン情報抽出部140)により生成されたシーン情報を複数のシーン(例えば、朝、昼、夕方、夜の4つのシーン、混雑している、混雑していないといった2つのシーン、これらを組み合わせた8つのシーン)に分類し、分類したシーンごとにパラメータを最適化し、シーンごとに最適化した計測装置のパラメータを計測装置に設定する。かかる構成によれば、様々なシーンに対応してパラメータを自動で設定できるようになる。
また、出力処理では、出力制御部154は、学習シーン選定部152により選定された学習シーンと信頼度とを解析することで、カメラ120の設置案を明示してもよい。例えば、出力制御部154は、選定された学習シーンの信頼度が全てしきい値以下である場合、現在のカメラ120の配置状況では最適なパラメータを推定できないと判断し、所定の信頼度よりも低い学習シーン(例えば、最も信頼度の低い学習シーン)であるカメラ120の近くに、カメラ120の追加設置が必要であるといった旨を出力装置180に表示し、使用者に明示することで、高精度な物体検出を実現するためのカメラ120の配置案を提案する。
このように、パラメータ最適化部(例えば、パラメータ最適化部150、出力制御部154)は、修正後の所定の計測装置の各シーン情報の信頼性情報(例えば、カメラ120のシーン情報160の信頼度)がしきい値より低いか否かを判定し、所定の割合以上、低いと判定した場合、所定の計測装置における物体の特定の精度が低いことを示す情報(例えば、カメラ120の追加設置が必要であるといった旨、現在のカメラ120の配置状況では最適なパラメータを推定できない旨)を出力する。
なお、本実施の形態では、カメラ120のHDDの空き容量、画像処理装置110のHDDの空き容量、カメラ120の処理スペック、または画像処理装置110の処理スペックを考慮して一連の処理を実行してもよい。換言するならば、シーン情報抽出部(シーン情報抽出部140)は、計測装置の処理スペック情報(例えば、カメラ120の処理スペック)、計測情報処理装置の処理スペック情報(例えば、画像処理装置110の処理スペック)、または計測情報処理装置のデータ容量情報(例えば、画像処理装置110のHDDの空き容量)に基づいて、抽出したシーン情報を記憶部に記憶してもよい。
例えば、シーン情報抽出部140は、シーン情報160を生成する際に、しきい値以下の信頼度であるシーン情報160を全て破棄する。かかる構成により、HDDの容量を削減してもよい。また、例えば、シーン情報抽出部140は、撮像画像ごとに生成したシーン情報160を全て出力する方法に替えて、複数のシーン情報160を蓄積しておき、代表的なシーン情報160を出力するようにしてもよい。例えば、連続した撮像画像10枚と対応するシーン情報160を保持しておき、中間である5枚目の撮像画像と各シーン分析情報の平均値とを新たなシーン分析情報とし、それらを総括したデータを最終的なシーン情報160としてもよい。かかる構成により、HDDの容量を削減してもよい。また、例えば、学習シーン選定部152は、シーン情報変更部151により出力されたシーン情報160から学習シーンを選定する際に、保持する学習シーン数をパラメータの最適化のアルゴリズムを考慮して制限してもよい。かかる構成によれば、処理コストが必要以上に大きくならないよう調整できるようになる。
また、本実施の形態では、人手による調整作業無しにパラメータを最適化する処理について説明したが、パラメータ最適化の精度を向上させるために、外部から入力された情報に従って、シーン情報抽出部140により生成されたシーン情報160を修正してもよい。例えば、出力制御部154は、学習シーン選定部152により出力される学習シーンにおいて信頼度がしきい値未満のシーン情報160が含まれている場合、当該シーン情報160の撮像画像を出力装置180などに表示し、入力制御部155は、GUIなどにより真値を人手にて入力するように人手作業を追加してもよい。かかる構成によれば、正確な学習データを取得でき、パラメータの推定精度も向上できる。さらに、かかる構成によれば、物体検出結果を用いて人流解析などを実施するシステムなどにおいて、ユーザが人流解析の精度に不満がある場合に、信頼度の低い学習シーンに真値を入力し、システムの精度を向上することも可能となる。
上述したように、シーン情報抽出部140は、計測装置(例えば、カメラ120)で取得された計測情報(例えば、デジタル画像データ)に基づいて計測情報が取得された時間情報(例えば、撮像時刻)および計測装置の計測範囲における物体の特定に係る特定情報(例えば、真値、真値および撮像時刻、真値および混雑度合)を抽出し、計測情報と時間情報と特定情報とを含むシーン情報を生成する。また、パラメータ最適化部150は、シーン情報抽出部140で生成されたシーン情報の時間情報と、計測装置の配置情報(例えば、カメラは位置情報)とに基づいて、第1の計測装置で取得された第1のシーン情報に関連付けられる第2の計測装置で取得された第2のシーン情報を特定(例えば、カメラAのシーン情報160と、カメラBのシーン情報160を結合)し、第1のシーン情報と第2のシーン情報とに基づいて、第1の計測装置における物体の特定に係るパラメータを最適化する。
かかる構成によれば、例えば、第1の計測装置のパラメータの最適化において、第1のシーン情報に加えて、第1のシーン情報と関連付けられる第2のシーン情報を加味することで、パラメータの最適化に用いるシーン情報を適切に得ることができ、パラメータの精度を高めることができる。
本実施の形態によれば、真値の精度が高く多様な学習シーンを計測装置ごとに選定できる。
(2)第2の実施の形態
固定物の配置(レイアウト)が変更となったとき、カメラ120が劣化したとき、カメラ120を増設または交換したとき等に、カメラ120のパラメータを更新することが求められる。カメラ120のパラメータを常に更新する構成も取り得るが、パラメータを常に更新すると、パラメータの更新が必要でないときでも処理が行われてしまい、画像処理装置の負荷が大きくなってしまう問題がある。そこで、本実施の形態では、カメラ120のパラメータを適切に更新する構成について説明する。なお、本実施の形態では、第1の実施の形態と同じ構成については、同じ符号を用いてその説明を適宜省略する。
固定物の配置(レイアウト)が変更となったとき、カメラ120が劣化したとき、カメラ120を増設または交換したとき等に、カメラ120のパラメータを更新することが求められる。カメラ120のパラメータを常に更新する構成も取り得るが、パラメータを常に更新すると、パラメータの更新が必要でないときでも処理が行われてしまい、画像処理装置の負荷が大きくなってしまう問題がある。そこで、本実施の形態では、カメラ120のパラメータを適切に更新する構成について説明する。なお、本実施の形態では、第1の実施の形態と同じ構成については、同じ符号を用いてその説明を適宜省略する。
図8は、本実施の形態の画像処理システム800に係る構成の一例を示す図である。画像処理システム800は、複数のカメラ120と画像処理装置810とを含んで構成される。
画像処理装置810は、カメラ120を使用して物体検出する際に、パラメータを最適化する必要があると判定したとき、自カメラと他のカメラの新シーン情報860とカメラ配置情報170とに基づいて学習シーンを選定し、パラメータを最適化する装置である。
物体検出部820は、画像取得部130によって取得した撮像画像に対して、現在のパラメータを用いて物体を検出する。
パラメータ最適化判定部830は、物体検出部820による物体検出の結果(物体検出結果)を用いて、パラメータを最適化するか否かを判定する。物体検出結果とは、撮像画像に対して物体検出を実行した際の結果であり、物体検出数、シーン分析情報の動体領域の位置のような撮像画像中における物体の位置情報などである。
シーン情報抽出部840は、第1の実施形態のシーン情報抽出部140の機能をほぼ踏襲している。
パラメータ最適化部850に含まれる学習シーン変更部851は、シーン情報変更部151から新たに取得したシーン情報(新シーン情報860)と、予め学習シーンとして保持していたシーン情報(保存シーン情報870)とを比較して学習シーンを変更する。以下、パラメータ最適化判定部830、学習シーン変更部851について説明する。
パラメータ最適化判定部830では、物体検出部820より出力される物体検出結果を用いてパラメータを最適化する必要があるか否かを判定し、最適化する必要がある場合、シーン情報抽出部840に信号(指令)を出力して画像取得部130により取得した撮像画像から新シーン情報860を生成するようにシーン情報抽出部840を制御する。
パラメータの最適化の必要性の判断方法としては、特に限定しない。例えば、パラメータ最適化判定部830は、1日分の物体検出結果を参照し、常に物体が検出されている、または全く検出されてない場合、パラメータの最適化が必要であると判定してもよい。また、例えば、パラメータ最適化判定部830は、計測範囲を予め考慮して最大物体検出数などのしきい値を指定しておき、物体検出数がしきい値を上回る場合にパラメータの最適化が必要であると判定してもよい。
また、物体検出結果以外の情報を用いてもよい。例えば、パラメータ最適化判定部830は、カメラ120の配置を示す最新のレイアウト情報を保持し、レイアウト情報が大きく変化した場合にパラメータを最適化すると判定してもよい。また、例えば、パラメータ最適化判定部830は、カメラ120を最初に設置した際の背景画像と現在の背景画像とを比較し、差分がしきい値以上ある場合、パラメータを最適化すると判定してもよい。このように、物体検出の精度の低下が予想できるカメラ120の情報、カメラ設置環境情報、簡易な画像処理により前回パラメータを最適化した際の撮像画像と現在の撮像画像との差異を把握できる情報を適宜に採用してもよい。また、例えば、パラメータ最適化判定部830は、カメラ120が設置された日時を特定可能な情報(カメラ設置時間情報)に基づいて、カメラ120が設置されてから所定の時間が経過したときにパラメータの最適化が必要であると判定してもよい。また、例えば、パラメータ最適化判定部830は、ユーザからの指示によりパラメータの最適化が必要であると判定してもよい。
このように、パラメータ最適化判定部(例えば、パラメータ最適化判定部830)は、計測装置の計測情報(例えば、カメラ120の撮像画像)から物体の特定が行われた結果(例えば、物体検出結果)、計測装置の設置環境情報(例えば、カメラ設置環境情報)、または計測装置の設置時間情報(カメラ設置時間情報)に基づいて、計測装置のパラメータを最適化するか否かを判定する。かかる構成によれば、パラメータの最適化のタイミングを適切に判定できるので、パラメータの最適化における計測情報処理装置の負荷を低減することができる。
なお、パラメータの最適化を行うカメラ120については、全てのカメラ120を対象とするのではなく、カメラ配置情報170などを用いてパラメータを最適化する必要があると判定されたカメラ120周辺のカメラ120を対象としてもよい。
図9は、学習シーン変更部851に係る構成の一例を示す図である。学習シーン変更部851は、学習シーン選定部152と学習シーン比較部910とを含んで構成される。学習シーン比較部910は、学習シーン選定部152により通知された現在の学習シーン(新シーン情報860)と予め保存した学習シーン(保存シーン情報870)とを比較し、信頼度の高い学習シーンを出力する。
より具体的には、学習シーン比較部910では、学習シーンが保持されている場合、学習シーン選定部152により通知された現在の学習シーンの新シーン情報860と保存されている学習シーンの保存シーン情報870とを比較し、信頼度の高い学習シーンのシーン情報を保存シーン情報870として保存するとともに、パラメータ算出部153に出力する。
信頼度の高い学習シーンのシーン情報を選定する方法としては、特に限定しない。例えば、学習シーン比較部910は、真値(なお、真値およびシーンであってもよい。)が同じであるシーン情報の信頼度を比較し、信頼度の高いシーン情報を保存シーン情報870としてもよい。また、学習シーン比較部910は、シーン分析情報を使用してシーン分析情報修正部320と同様に信頼度の高いシーン情報を選定し、保存シーン情報870としてもよい。
このように、パラメータ最適化部(例えば、パラメータ最適化部850、学習シーン比較部910)は、パラメータ最適化判定部(例えば、パラメータ最適化判定部830)により最適化をすると判定された場合、シーン情報抽出部(例えば、シーン情報抽出部840)により生成されたシーン情報(例えば、新シーン情報860)に基づいて、記憶部(例えば、HDD)に記憶された上記シーン情報(例えば、新シーン情報860)の特定情報(例えば、真値、真値およびシーン)と同じ特定情報のシーン情報(例えば、保存シーン情報870)を更新する。
なお、学習シーンのシーン情報の保存方法としては、現在の学習シーンの方が保存されている学習シーンよりも信頼度の高いシーン情報を多く持つ場合は、保存されている学習シーンの保存シーン情報870を破棄して現在の学習シーンの新シーン情報860を保存する方法、保存されている学習シーンの中で一部の保存シーン情報870を置き換えて保存する方法などがある。後者の方法では、例えば、保存されている学習シーンとして真値が「1」〜「10」までの学習シーンが保存されている状況下にて、学習シーン選定部152により取得された学習シーンが真値「1」〜「5」までの新シーン情報860が含まれ、何れも信頼度が高いと判断された場合、真値「1」〜「5」までの保存されている学習シーンの保存シーン情報870は、置き換え、真値「6」〜「10」までの保存されている学習シーンの保存シーン情報870は、そのまま保持するなどの方法がある。
本実施の形態では、以上説明した構成により、2つ以上の計測装置を備え、物体を検出するような画像処理装置において、物体検出結果によりパラメータを最適化する必要があると判定された計測装置と、周囲に設置された計測装置とにより撮像した映像から抽出したシーン情報に基づいて、学習シーンを選定または更新することで、物体検出の精度に応じて真値の精度が高く多様な学習シーンを選定できる。また、本処理を繰り返し実施することで、設置したカメラの周囲の環境変化への対応、長期間設置した際のカメラの経年劣化などにも対応できる。
(3)他の実施の形態
なお上述の実施の形態においては、本発明を画像処理システム100,800に適用するようにした場合について述べたが、本発明はこれに限らず、この他種々の画像処理装置、画像処理方法、計測情報処理システム、計測情報処理装置、計測情報処理方法などに広く適用することができる。
なお上述の実施の形態においては、本発明を画像処理システム100,800に適用するようにした場合について述べたが、本発明はこれに限らず、この他種々の画像処理装置、画像処理方法、計測情報処理システム、計測情報処理装置、計測情報処理方法などに広く適用することができる。
また上述の実施の形態においては、画像取得部130がカメラ120ごとに設けられる場合について述べたが、本発明はこれに限らず、画像取得部130は、カメラ120の数にかかわらず、1つ設けられる構成であってもよい。
また上述の実施の形態においては、シーン情報抽出部140がカメラ120ごとに設けられる場合について述べたが、本発明はこれに限らず、シーン情報抽出部140は、カメラ120の数にかかわらず、1つ設けられる構成であってもよい。
また、上記の説明において各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、HDD、SSD(Solid State Drive)等の記憶装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
また上述した構成については、本発明の要旨を超えない範囲において、適宜に、変更したり、組み替えたり、組み合わせたり、省略したりしてもよい。
上述した構成によれば、計測装置のパラメータの精度を高めることができる。
100……画像処理システム、110……画像処理装置、120……カメラ、130……画像取得部、140……シーン情報抽出部、150……パラメータ最適化部、160……シーン情報、170……カメラ配置情報。
Claims (15)
- 計測装置で取得された計測情報を処理する計測情報処理装置であって、
計測装置で取得された計測情報に基づいて前記計測情報が取得された時間情報および前記計測装置の計測範囲における物体の特定に係る特定情報を抽出し、前記計測情報と前記時間情報と前記特定情報とを含むシーン情報を生成するシーン情報抽出部と、
前記シーン情報抽出部で生成されたシーン情報の時間情報と、計測装置の配置情報とに基づいて、第1の計測装置で取得された第1のシーン情報に関連付けられる第2の計測装置で取得された第2のシーン情報を特定し、前記第1のシーン情報と前記第2のシーン情報とに基づいて、前記第1の計測装置における物体の特定に係るパラメータを最適化するパラメータ最適化部と、
を備えることを特徴とする計測情報処理装置。 - 前記シーン情報抽出部により抽出されるシーン情報には、計測装置の計測範囲における物体の特定に係る特定情報の信頼性を示す信頼性情報が含まれる、
ことを特徴とする請求項1に記載の計測情報処理装置。 - 前記シーン情報抽出部は、前記計測装置で取得された計測情報、前記計測装置の設置情報、前記計測装置の設置環境情報、または前記計測装置の特性情報に基づいて、前記信頼性情報を算出する、
ことを特徴とする請求項2に記載の計測情報処理装置。 - 前記パラメータ最適化部は、前記シーン情報抽出部により抽出されるシーン情報の信頼性情報に基づいて、前記シーン情報抽出部により生成されたシーン情報の中からパラメータを最適化するために用いるシーン情報を選定する、
ことを特徴とする請求項2に記載の計測情報処理装置。 - 前記シーン情報抽出部は、計測装置の処理スペック情報、前記計測情報処理装置の処理スペック情報、または前記計測情報処理装置のデータ容量情報に基づいて、抽出したシーン情報を記憶部に記憶する、
ことを特徴とする請求項2に記載の計測情報処理装置。 - 前記パラメータ最適化部は、前記第1のシーン情報の信頼性情報と前記第2のシーン情報の信頼性情報とに基づいて、前記第1のシーン情報および/または前記第2のシーン情報を修正する、
ことを特徴とする請求項2に記載の計測情報処理装置。 - 前記パラメータ最適化部は、前記第1のシーン情報の信頼性情報と前記第2のシーン情報の信頼性情報とに基づいて、前記第1のシーン情報および/または前記第2のシーン情報を破棄する、
ことを特徴とする請求項2に記載の計測情報処理装置。 - 前記パラメータ最適化部は、修正後の所定の計測装置の各シーン情報の信頼性情報がしきい値より低いか否かを判定し、所定の割合以上、低いと判定した場合、前記所定の計測装置における物体の特定の精度が低いことを示す情報を出力する、
ことを特徴とする請求項6に記載の計測情報処理装置。 - 前記パラメータ最適化部は、最適化した計測装置のパラメータを前記計測装置に設定する、
ことを特徴とする請求項1に記載の計測情報処理装置。 - 前記パラメータ最適化部は、前記シーン情報抽出部により生成されたシーン情報を複数のシーンに分類し、分類したシーンごとにパラメータを最適化し、シーンごとに最適化した計測装置のパラメータを前記計測装置に設定する、
ことを特徴とする請求項9に記載の計測情報処理装置。 - 前記パラメータ最適化部は、外部から入力された情報に従って、前記シーン情報抽出部により生成されたシーン情報を修正する、
ことを特徴とする請求項1に記載の計測情報処理装置。 - 計測装置の計測情報から物体の特定が行われた結果、計測装置の設置環境情報、または計測装置の設置時間情報に基づいて、前記計測装置のパラメータを最適化するか否かを判定するパラメータ最適化判定部を備える、
ことを特徴とする請求項1に記載の計測情報処理装置。 - 前記シーン情報抽出部は、抽出したシーン情報を記憶部に記憶し、
前記パラメータ最適化部は、前記パラメータ最適化判定部により最適化をすると判定された場合、前記シーン情報抽出部により生成されたシーン情報に基づいて、前記記憶部に記憶された前記シーン情報の特定情報と同じ特定情報のシーン情報を更新する、
ことを特徴とする請求項12に記載の計測情報処理装置。 - 前記シーン情報抽出部により抽出されるシーン情報には、計測装置の計測範囲内の物体の密集度合を示す混雑度合情報、前記計測範囲内に存在する物体領域の数情報、前記計測範囲における前記物体領域の位置情報、前記物体領域の移動方向情報、前記物体領域の移動速度情報の少なくとも1つ以上が含まれる、
ことを特徴とする請求項2に記載の計測情報処理装置。 - 計測装置は、カメラであり、
前記パラメータ最適化部は、カメラの内部パラメータ、カメラの外部パラメータ、物体の検出に用いるしきい値パラメータの少なくとも1つを最適化する、
ことを特徴とする請求項1に記載の計測情報処理装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/023902 WO2019244360A1 (ja) | 2018-06-22 | 2018-06-22 | 計測情報処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019244360A1 JPWO2019244360A1 (ja) | 2021-02-15 |
JP6959444B2 true JP6959444B2 (ja) | 2021-11-02 |
Family
ID=68983282
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020525216A Active JP6959444B2 (ja) | 2018-06-22 | 2018-06-22 | 計測情報処理装置 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6959444B2 (ja) |
WO (1) | WO2019244360A1 (ja) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5459674B2 (ja) * | 2010-09-13 | 2014-04-02 | 株式会社東芝 | 移動物体追跡システムおよび移動物体追跡方法 |
WO2013179335A1 (ja) * | 2012-05-30 | 2013-12-05 | 株式会社 日立製作所 | 監視カメラ制御装置及び映像監視システム |
JP6471934B2 (ja) * | 2014-06-12 | 2019-02-20 | パナソニックIpマネジメント株式会社 | 画像認識方法、カメラシステム |
-
2018
- 2018-06-22 WO PCT/JP2018/023902 patent/WO2019244360A1/ja active Application Filing
- 2018-06-22 JP JP2020525216A patent/JP6959444B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
WO2019244360A1 (ja) | 2019-12-26 |
JPWO2019244360A1 (ja) | 2021-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101271098B1 (ko) | 디지털 촬영장치, 추적방법 및 추적방법을 실행시키기 위한프로그램을 저장한 기록매체 | |
EP2549738B1 (en) | Method and camera for determining an image adjustment parameter | |
US10748294B2 (en) | Method, system, and computer-readable recording medium for image object tracking | |
WO2016114134A1 (ja) | 移動状況推定装置、移動状況推定方法およびプログラム記録媒体 | |
US20110255747A1 (en) | Moving object detection apparatus and moving object detection method | |
JP2021119684A (ja) | カメラを自動設定するための方法及びシステム | |
JP7272024B2 (ja) | 物体追跡装置、監視システムおよび物体追跡方法 | |
JP6036824B2 (ja) | 画角変動検知装置、画角変動検知方法および画角変動検知プログラム | |
KR101747216B1 (ko) | 표적 추출 장치와 그 방법 및 상기 방법을 구현하는 프로그램이 기록된 기록 매체 | |
KR20150032630A (ko) | 촬상 시스템에 있어서의 제어방법, 제어장치 및 컴퓨터 판독 가능한 기억매체 | |
JP6217635B2 (ja) | 転倒検知装置および転倒検知方法、転倒検知カメラ、並びにコンピュータ・プログラム | |
JP6521626B2 (ja) | 被写体追跡装置、方法およびプログラム | |
EP3761629B1 (en) | Information processing device, autonomous mobile body, information processing method, and program | |
JP2020149641A (ja) | 物体追跡装置および物体追跡方法 | |
JP7354767B2 (ja) | 物体追跡装置および物体追跡方法 | |
US11948312B2 (en) | Object detection/tracking device, method, and program recording medium | |
JPWO2018163243A1 (ja) | 物体追跡装置及び物体追跡方法 | |
US20210256713A1 (en) | Image processing apparatus and image processing method | |
US11394870B2 (en) | Main subject determining apparatus, image capturing apparatus, main subject determining method, and storage medium | |
JP7243372B2 (ja) | 物体追跡装置および物体追跡方法 | |
JP6959444B2 (ja) | 計測情報処理装置 | |
JP7384158B2 (ja) | 画像処理装置、移動装置、および方法、並びにプログラム | |
JP2021149687A (ja) | 物体認識装置、物体認識方法及び物体認識プログラム | |
JPH09322153A (ja) | 自動監視装置 | |
JP6555940B2 (ja) | 被写体追跡装置、撮像装置、及び被写体追跡装置の制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200820 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210921 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211007 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6959444 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |