JP5136703B2 - カメラ設置位置評価プログラム、カメラ設置位置評価方法およびカメラ設置位置評価装置 - Google Patents

カメラ設置位置評価プログラム、カメラ設置位置評価方法およびカメラ設置位置評価装置 Download PDF

Info

Publication number
JP5136703B2
JP5136703B2 JP2011552604A JP2011552604A JP5136703B2 JP 5136703 B2 JP5136703 B2 JP 5136703B2 JP 2011552604 A JP2011552604 A JP 2011552604A JP 2011552604 A JP2011552604 A JP 2011552604A JP 5136703 B2 JP5136703 B2 JP 5136703B2
Authority
JP
Japan
Prior art keywords
camera
installation position
visual field
position evaluation
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011552604A
Other languages
English (en)
Other versions
JPWO2011096049A1 (ja
Inventor
正芳 橋間
真一 佐沢
弘樹 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Application granted granted Critical
Publication of JP5136703B2 publication Critical patent/JP5136703B2/ja
Publication of JPWO2011096049A1 publication Critical patent/JPWO2011096049A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Description

この発明は、カメラ設置位置評価プログラム、カメラ設置位置評価方法およびカメラ設置位置評価装置に関する。
従来、ロボットなどに搭載する環境計測カメラや建物に設置する監視カメラなど、機器や構造物、移動体などに組み込むカメラの設置位置の決定に関する技術が種々提案されている。
ところで、機器や構造物などにカメラを埋め込んで設置する場合、カメラを隠すために深く埋め込む方が望ましい。しかし、機器や構造物などにカメラを深く埋め込むと、カメラの視野範囲の中に、機器や構造物などが写り込んでしまう。カメラの設置位置を決定する場合には、カメラの視野範囲の中から、機器や構造物などが写り込む範囲をできるだけ少なくしたい。そこで、カメラの設置位置を決定する場合に、例えば、カメラ画像を用いたシミュレーションを行う従来技術1や、カメラの視野範囲が表現された3次元モデルを生成する従来技術2が採用されている。
上述した従来技術1を用いてカメラの設置位置を決定する場合、カメラ設置位置の設計者は、まず、カメラを埋め込む機器や構造物の3次元モデル上でカメラの設置位置を指定する。従来技術1は、設計者から指定された3次元モデル上の位置にカメラが設置されたと仮定した場合に、カメラにより取得される仮想的な画像を、画角やレンズ歪などのカメラ特性を考慮して生成する。そして、従来技術1は、生成した仮想的な画像を表示出力する。設計者は、表示出力された画像を見て、カメラの視野範囲や、カメラが設置される機器や構造物などが視野範囲への写り込む範囲を確認し、カメラの設置位置を調整するという手順でカメラの設置位置を決定する。なお、仮想的なカメラ画像を生成する技術としては、3次元CAD(Computer Aided Design)システムやデジタルモックアップ(Digital Mock-Up)、コンピュータグラフィクス(Computer Graphics)やバーチャルリアリティ(Virtual Reality)などが存在する。
また、上述した従来技術2を用いてカメラの設置位置を決定する場合、カメラ設置位置の設計者は、まず、カメラを埋め込む機器や構造物の3次元モデル上でカメラの設置位置を指定する。従来技術2は、設計者から指定された3次元モデル上の位置にカメラが設置されたと仮定した場合に、この設置位置に応じたカメラの視野範囲を表わす仮想的な視野範囲モデルを生成する。そして、従来技術2は、生成した視野範囲モデルを表示出力する。設計者は、表示出力された視野範囲モデルを見て、カメラの視野範囲を狭める死角領域を確認し、カメラの設置位置を調整するという手順でカメラの設置位置を決定する。
特開2009−105802号公報
しかしながら、上述した従来技術1を用いてカメラ設置位置を決定する場合、設計者は、表示出力される画像を確認して、カメラの設置位置の良し悪しを判断するという手順でカメラの設置位置を決定する。同様に、上述した従来技術2を用いてカメラ設置位置の設計を行う場合、設計者は、表示出力される視野範囲モデルを確認してカメラの設置位置の良し悪しを判断するという手順でカメラ設置位置を決定する。従来技術1および従来技術2ともに、カメラ設置位置の設計を行う場合に設計者の試行錯誤を要するという点が問題である。
また、上述した従来技術2を用いてカメラ設置位置を決定する場合、生成される視野範囲モデルには死角となる領域が含まれている。このため、設計者は、カメラの視野範囲を正確に認識することが難しいという点も問題である。
開示の技術は、上記に鑑みてなされたものであって、カメラの設置位置を効率的又は正確に決定することが可能なカメラ設置位置評価プログラム、カメラ設置位置評価方法およびカメラ設置位置評価装置を提供することを目的とする。
本願の開示する技術は、一つの態様において、コンピュータに、カメラ搭載対象物に搭載されるカメラの光軸に直交する仮想面を設定する設定手順を実行させる。さらに、カメラ搭載対象物の3次元モデルのデータ、前記設定手順により設定される仮想面のデータおよび前記カメラのパラメータを用いて、当該カメラにより取得される仮想的なカメラ画像を生成する生成手順を実行させる。さらに、前記生成手順により生成されたカメラ画像上で、前記3次元モデルと前記仮想面との境界を算出する算出手順を実行させる。
本願の開示する技術の一つの態様によれば、カメラの設置位置を決定する場合に設計者による試行錯誤を必要とせず、カメラの設置位置を効率的又は正確に決定できる。
図1は、実施例1に係るカメラ設置位置評価装置を示す図である。 図2は、実施例2に係るカメラ設置位置評価装置の構成を示す図である。 図3は、実施例2に係るモデルの斜視図である。 図4は、実施例2に係るモデルの側面図である。 図5は、実施例2に係る背景面の設定の説明に用いる図である。 図6は、実施例2に係る背景面の一例を示す図である。 図7は、実施例2に係るカメラ画像の一例を示す図である。 図8は、実施例2に係る第1視野範囲計算部の説明に用いる図である。 図9は、実施例2に係る第1視野範囲計算部の説明に用いる図である。 図10は、実施例2に係る視野モデル生成部の説明に用いる図である。 図11は、実施例2に係る視野モデル生成部の説明に用いる図である。 図12は、実施例2に係る第2視野範囲計算部の説明に用いる図である。 図13は、実施例2に係るカメラ設置位置評価装置の処理の流れを示す図である。 図14は、実施例2に係るカメラ設置位置評価装置の処理の説明に用いる図である。 図15は、実施例2に係るカメラ設置位置評価装置の処理の流れを示す図である。 図16は、カメラ設置位置評価プログラムを実行するコンピュータの一例を示す図である。
以下に、図面を参照しつつ、本願の開示するカメラ設置位置評価プログラム、カメラ設置位置評価方法およびカメラ設置位置評価装置の一実施形態について詳細に説明する。なお、以下では、本願の開示するカメラ設置位置評価プログラム、カメラ設置位置評価方法およびカメラ設置位置評価装置の一実施形態として後述する実施例により、本願が開示する技術が限定されるものではない。
図1は、実施例1に係るカメラ設置位置評価装置を示す図である。図1に示すように、カメラ設置位置評価装置1は、設定部2、生成部3および算出部4を有する。
設定部2は、カメラ搭載対象物に搭載されるカメラの光軸に直交する仮想面を設定する。なお、仮想面とは、カメラの光軸に直交する仮想的な平面である。生成部3は、カメラ搭載対象物の3次元モデルのデータ、設定部2により設定される仮想面のデータおよびカメラのパラメータを用いて、カメラにより取得される仮想的なカメラ画像を生成する。算出部4は、生成部3により生成されたカメラ画像上で、カメラ搭載対象物の3次元モデルと設定部2により設定される仮想面との境界を算出する。
カメラ設置位置評価装置1は、カメラ搭載対象物に搭載されるカメラの光軸方向に、この光軸と直交する仮想的な平面を設定してから、カメラにより撮影が行われたと仮定した場合の仮想的なカメラ画像を生成する。よって、カメラ設置位置評価装置1は、カメラ搭載対象物がカメラの視野範囲にどのように写りこんでいるかを表すデータを得ることができる。そして、カメラ設置位置評価装置1は、この仮想的なカメラ画像上で、カメラ搭載対象物の3次元モデルと設定部2により設定される仮想面との境界を算出するので、この境界を元に、現在のカメラ設置位置におけるカメラの視野範囲を定量的に得られる。このようなことから、実施例1に係るカメラ設置位置評価装置1は、カメラの設置位置を決定する場合に設計者による試行錯誤を必要とせず、カメラの設置位置を効率的かつより正確に決定できる。
[カメラ設置位置評価装置の構成(実施例2)]
図2は、実施例2に係るカメラ設置位置評価装置の構成を示す図である。図2に示すように、実施例2に係るカメラ設置位置評価装置100は、3次元モデル入力部101、カメラ設置位置入力部102およびカメラ特性データ入力部103を有する。
さらに、カメラ設置位置評価装置100は、図2に示すように、背景面生成部104、3次元モデル管理部105および3次元モデル表示部106を有する。さらに、カメラ設置位置評価装置100は、図2に示すように、カメラ画像生成部107、カメラ画像表示部108、第1視野範囲計算部109、視野モデル生成部110、第2視野範囲計算部111および視野情報出力部112を有する。
なお、背景面生成部104、カメラ画像生成部107、カメラ画像表示部108、第1視野範囲計算部109、視野モデル生成部110、第2視野範囲計算部111および視野情報出力部112は、例えば、電子回路や集積回路である。電子回路としては、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)があり、集積回路としては、例えば、ASIC(Application Specific Integrated Circuit)やFPGA (Field Programmable Gate Array)などがある。
3次元モデル入力部101は、カメラ搭載対象物の3次元モデルを入力する。3次元モデルは、形状データ、位置データ、色データを含み、例えば、VRML(Virtual Reality Modeling Language)など、汎用のフォーマット言語を用いて表現される。カメラ搭載対象物とは、例えば、車両、建物などの構造物、ロボットなど、カメラが搭載される物体を意味する。また、3次元モデルは、ワールド座標系における床面の平面位置のデータも含んでいるものとする。ワールド座標系とは、3次元空間にある物体の位置を定義する上で基準となる座標系であり、X軸、Y軸およびZ軸からなる座標軸と原点を有する。X軸およびY軸は床面上で直交する座標軸である。Z軸は、X軸およびY軸の交点から床面に対して鉛直方向にのびる座標軸である。
形状データは3角形ポリゴンの数および3角形ポリゴンのモデル座標系における頂点位置の座標を有する。上述したカメラ搭載対象物の3次元モデルは、複数の3角形ポリゴンを各頂点位置の座標に基づいて組み合わせることで作成される。
モデル座標系とは、3次元モデルごとに定義されるローカル座標系であり、原点および互いに直交する3つの座標軸であるX軸、Y軸およびZ軸を有する。ワールド座標系に対して、モデル座標系における位置および姿勢を定義することにより、3次元空間上での3次元モデルの位置および姿勢が決定される。
カメラ設置位置入力部102はカメラの設置位置やカメラの姿勢の候補として複数のサンプルを入力する。なお、複数のサンプルとは、例えば、カメラ座標系の位置や姿勢を変化させて作った位置ベクトルや回転ベクトルの組合せである。カメラ座標系とは、カメラごとに定義されるローカル座標系であり、カメラのレンズの中心を原点とし、カメラの光軸方向の軸であるZ軸、原点を通り撮像面の横軸と並行な方向の軸であるX軸、および原点を通りX軸に直交する方向の軸であるY軸を有する。カメラの設置位置は、カメラ座標系の原点の位置ベクトル値で得られる。また、カメラの姿勢は、カメラ座標系のX軸、Y軸およびZ軸の回転ベクトル値で得られる。回転ベクトルは、例えば、ロール角、ピッチ角、ヨー角、オイラー角などに該当する。ロール角は、カメラ搭載対象物に対して水平方向のカメラの傾きを示す角度である。ピッチ角は、カメラ搭載対象物に対して鉛直方向のカメラの傾きを示す角度である。ヨー角は、例えば、Z軸を基準としたカメラの回転角度である。オイラー角は、カメラ座標系における各座標軸の回転角度の組合せである。
カメラ特性データ入力部103は、カメラの画角、焦点距離、撮像面サイズなどカメラ画像を生成するために必要なパラメータを入力する。
図3は、実施例2に係るモデルの斜視図である。図4は、実施例2に係るモデルの側面図である。図3の200はカメラ搭載対象物の3次元モデルを示し、図3の300はカメラ搭載対象物に搭載されるカメラのモデルを示す。また、図3の31はカメラ座標系を示し、図3の32はモデル座標系を示す。また、図4の200はカメラ搭載対象物の3次元モデルを示し、図4の300はカメラ搭載対象物に搭載されるカメラのモデルを示す。図4の41はカメラ搭載対象物が配置される床面を示し、図4の42はカメラの視野範囲を示し、図4の43はカメラの光軸を示す。
例えば、3次元モデル入力部101は、カメラ搭載対象物の3次元モデルを入力すると、図3に示すようなモデル座標系32を3次元モデルに動的に定義する。また、例えば、カメラ設置位置入力部102は、カメラの設置位置および姿勢の候補として入力する複数のサンプルごとにカメラ座標系31を動的に定義する。また、カメラ特性データ入力部103により入力されるカメラの画角、焦点距離、撮像面サイズなどにより、図4に示すようなカメラの視野範囲42やカメラの光軸43のデータが得られる。
背景面生成部104は、カメラ搭載対象物に搭載されるカメラの光軸に直交する仮想的な背景面を設定する。図5は、実施例2に係る背景面の設定の説明に用いる図である。図5には、カメラ搭載対象物の3次元モデルと、設置されるカメラの様子を横から見た側面図を示す。図5の200はカメラ搭載対象物の3次元モデルを示し、図5の300はカメラのモデルを示し、図5の51は、バウンディングボックス(Bounding Box)を示し、図5の52は背景面を示し、図5の53はカメラの視野範囲を示し、図5の54はカメラの光軸を示す。図5の51に示すように、バウンディングボックスとは、3次元モデルを取り囲む境界線で表現された矩形領域である。
例えば、図5に示すように、背景面生成部104は、まず、後述する3次元モデル入力部101により入力されたカメラ搭載対象物の3次元モデルのデータを用いて、3次元モデルのバウンディングボックス51を計算する。次に、背景面生成部104は、カメラ設置位置入力部102により入力されたカメラの設置位置についてのデータおよびカメラ特性データ入力部103により入力されたカメラの特性についてのデータを用いて、カメラの設置位置およびカメラの光軸方向を計算する。そして、背景面生成部104は、カメラの光軸54に垂直な平面で、かつバウンディングボックス51の頂点を通る平面を計算し、計算した平面の中から、カメラの光軸54の起点から最も遠い平面を背景面52として設定する。カメラの光軸54の起点とは、例えば、カメラが有するレンズの中心、いわゆる光学中心である。なお、背景面52は、平面に限られるものではなく、例えば、魚眼レンズを有するカメラをカメラ搭載対象物に搭載する場合には、背景面を球面にすることもできる。また、背景面52は、光軸に直交する平面に限られるものではなく、平面のローカル座標を定義した背景面を用いることもできる。
図6は、実施例2に係る背景面の一例を示す図である。図6の61は背景面を示し、図6の62はカメラ座標系のX軸と平行な軸を示し、図6の63はカメラ座標系のY軸と平行な軸を示し、図6の64はカメラ座標系のZ軸との交点を示す。
背景面生成部104は、カメラ搭載対象物の3次元モデルに使用される色とは異なる色を用いて、例えば、図6に示すように、背景面61に等間隔の格子線を有する格子模様を貼り付ける。背景面生成部104は、カメラの光軸方向の座標軸をZ軸、図6に示す格子模様の水平方向をX軸62、格子模様の垂直方向をY軸63とする背景面座標系を背景面61に設定する。
3次元モデル管理部105は、カメラ搭載対象物の3次元モデルのデータ、背景面のデータ、視野範囲モデルのデータを管理する。3次元モデル管理部105は、例えば、RAM(Random Access Memory)やフラッシュメモリ(flash memory)などの半導体メモリ素子などの記憶部であり、3次元モデルのデータ、背景面のデータ、視野範囲モデルのデータを記憶する。
3次元モデル表示部106は、3次元モデル管理部105に管理されているカメラ搭載対象物の3次元モデルのデータ、背景面のデータ、視野範囲モデルのデータをディスプレイやモニタなどに表示出力する。
カメラ画像生成部107は、カメラ搭載対象物の3次元モデルのデータ、背景面のデータおよびカメラ搭載対象物に搭載されるカメラのパラメータを用いて、カメラにより取得される仮想的なカメラ画像を生成する。例えば、カメラ画像生成部107は、3次元モデル管理部105からカメラ搭載対象物の3次元モデルのデータおよび背景面のデータを取得する。さらに、カメラ画像生成部107は、カメラ特性データ入力部103により入力されたカメラの画角、焦点距離および撮像面サイズなどのパラメータを取得する。そして、カメラ画像生成部107は、射影変換などの公知技術を用いて仮想的なカメラ画像を生成する。
図7は、実施例2に係るカメラ画像の一例を示す図である。図7には、中心射影により生成されたカメラ画像を示す。図7の71はカメラ画像を示し、図7の72は、カメラ画像における座標系を示し、図7の73はカメラ画像内に写りこむカメラ搭載対象物の3次元モデルを示し、図7の74は背景面を示す。なお、以下では、カメラ画像内の背景面74に対応する領域から、カメラ搭載対象物の3次元モデルが写りこんだ領域を除いた領域を視野領域と表記する。カメラ画像生成部107は、図7に示すように、計算したカメラの撮像イメージに対してカメラ画像における座標系72を設定することにより、カメラ画像の生成を完了する。なお、カメラ画像の生成に関する公知技術については、例えば、特開2009−105802号公報を参照されたい。
カメラ画像表示部108は、カメラ画像生成部107により生成されたカメラ画像をディスプレイやモニタなどに表示出力する。
第1視野範囲計算部109は、カメラ画像を元に、仮想的な背景面上におけるカメラの視野範囲を特定するためのデータを計算する。図8は、実施例2に係る第1視野範囲計算部の説明に用いる図である。図8の81はカメラ画像を示し、図8の82はカメラ画像上の背景面を示し、図8の83はカメラ搭載対象物を示し、図8の84は視野領域の境界線を示し、図8の85および86はカメラ画像の座標系の座標軸を示す。また、図8の87は座標軸85と同一方向の格子線を示し、図8の88は境界線84と格子線87との交点を示す。
例えば、第1視野範囲計算部109は、まず、背景面に設定された色と、カメラ搭載対象物に設定された色との違いに基づいて、カメラ画像上の背景面82から、カメラ搭載対象物83の3次元モデルに対応する領域を除外する。その後、第1視野範囲計算部109は、カメラ搭載対象物83の3次元モデルに対応する領域が除外されたカメラ画像のエッジを抽出することにより、カメラ搭載対象物83の3次元モデルに対応する領域と視野領域との境界線84を検出する。そして、第1視野範囲計算部109は、視野領域の境界線84と格子線87との交点88を検出する。同様にして、第1視野範囲計算部109は、背景面に設定された格子線と境界線84との交点を全て検出する。
続いて、第1視野範囲計算部109は、カメラ画像上で検出した全ての交点に対応する背景面上の点を検出する。図9は、実施例2に係る第1視野範囲計算部の説明に用いる図である。図9の91は背景面を示し、図9の92はカメラの撮像面を示し、図9の93はカメラのレンズ中心、いわゆる光学中心を示し、図9の94は撮像面上の点を示し、図9の95は背景面上の点を示す。なお、図9に示す撮像面92は、図8に示すカメラ画像81が撮影される面である。
例えば、第1視野範囲計算部109は、まず、カメラ画像上で検出された交点の位置を撮像面92上の3次元位置に変換する。次に、第1視野範囲計算部109は、撮像面92上の交点の3次元位置を射影変換することにより、撮像面92上の3次元位置に対応する背景面上の位置を計算する。例えば、第1視野範囲計算部109は、撮像面92上の点94の3次元位置を射影変換することにより、点94に対応する背景面上の点95の位置を計算する。同様にして、第1視野範囲計算部109は、カメラ画像上で検出された全ての交点に対応する背景面上の位置を計算する。例えば、カメラ画像上で検出された全ての交点に対応する背景面上の位置の座標値は、仮想的な背景面上におけるカメラの視野範囲を特定するためのデータとなる。そして、例えば、カメラ画像上で検出された全ての交点に対応する背景面上の位置を接続する滑らかな曲線は、カメラ画像上における背景面と3次元モデルとの境界を表す。
視野モデル生成部110は、カメラ画像上で検出された全ての交点に対応する背景面上の位置を用いてカメラの視野領域を示す3次元形状を生成する。図10および図11は、実施例2に係る視野モデル生成部の説明に用いる図である。図10の10−1は、カメラのレンズの中心を示し、図10の10−2は、撮像面上の視野領域の形状を示し、図10の10−3は、背景面上の視野領域の形状を示す。また、図11の11−1は、カメラのレンズの中心を示し、図11の11−2は、背景面上の視野領域の形状を示し、図11の11−3は、視野領域の3次元形状を示す。
まず、視野モデル生成部110は、カメラ画像上で検出された全ての交点に対応する背景面上の位置と、背景面の各頂点の位置とに基づいて、図10に示すように、背景面上の視野領域の形状10−3を求める。例えば、カメラ画像上で検出された全ての交点に対応する背景面上の3次元位置を示す座標と、背景面の各頂点の位置を示す3次元位置の座標とを接続することにより、背景面上における視野領域の形状を求める。そして、視野モデル生成部110は、図11に示すように、カメラのレンズの中心11−1を頂点とし、背景面上の視野領域の形状11−2を底面とする3次元形状11−3を求める。この3次元形状11−3は、視野範囲モデルともいう。
第2視野範囲計算部111は、カメラのレンズの中心を頂点とし、背景面上の視野領域の形状を底面とする3次元形状、つまり視野範囲モデルを用いて床面上の視野領域の形状を計算する。図12は、実施例2に係る第2視野範囲計算部の説明に用いる図である。図12の12−1はカメラのレンズの中心を示し、図12の12−2は視野範囲モデルを示し、図12の12−3は床面の平面モデルを示し、図12の12−4は床面上の視野領域の形状を示す。
まず、第2視野範囲計算部111は、カメラ座標系に属する視野範囲モデルの位置を、カメラ搭載対象物の3次元モデルが属するモデル座標系の位置を変換する。さらに、第2視野範囲計算部111は、視野範囲モデルの位置を、床面の平面モデルが属するワールド座標系の位置に変換する。また、第2視野範囲計算部111は、カメラ座標系に属する視野範囲モデルの位置を、床面の平面モデルが属するワールド座標系の位置に一度に変換することもできる。
次に、第2視野範囲計算部111は、入力された床面のデータを用いて床面の平面モデル12−3を設定する。続いて、第2視野範囲計算部111は、カメラのレンズの中心12−1と背景面上の視野領域の形状の各頂点とを結ぶ直線12−2をそれぞれ求める。そして、第2視野範囲計算部111は、カメラのレンズの中心と背景面上の視野領域の形状の各頂点とを結ぶ直線と、床面との交点を元にして、例えば、図12に示すように、床面の平面モデル12−3上の視野領域の形状12−4を求める。
なお、カメラ設置位置評価装置100は、カメラ設置位置入力部102により入力されるカメラの設置位置および姿勢について複数のサンプルについて、床面の平面モデル上の視野領域の形状をサンプルごとに求める。
視野情報出力部112は、床面の平面モデル上に投影されたカメラの視野領域がなす面積に基づいて、カメラの設置位置および姿勢の最適解を出力する。例えば、床面の平面モデル上に投影されたカメラの視野領域がなす面積が最大となるときのカメラの設置位置および姿勢の最適解として出力する。
なお、上述した実施例において「位置」という場合には、対応する座標系における座標値に該当する。
[カメラ設置位置評価装置の処理(実施例2)]
まず、図13を用いて、カメラ設置位置評価装置100の全体の処理の流れを説明する。図13は、実施例2に係るカメラ設置位置評価装置の処理の流れを示す図である。なお、図13は、カメラの設置位置や姿勢についての複数の候補を入力し、入力された候補についてカメラの撮影範囲を計算し、計算結果に基づいて最適な解を抽出するまでの処理の流れを示す。また、図13に示すカメラ設置位置評価装置100による処理は、カメラの設置位置および姿勢の候補として、カメラ設置位置入力部102により入力される複数のサンプルごとに実行される。複数のサンプルとは、上述したように、例えば、設置させるカメラごとに入力されるカメラ座標系におけるカメラの設置位置に対応した座標値や、カメラのロール角などに対応したカメラ座標系における各座標軸の回転ベルトル値である。
図13に示すように、カメラの設置範囲およびシミュレーションを実行するサンプル数の指定を受け付けると(ステップS1301)、例えば、カメラ設置位置入力部102は、サンプル毎にカメラの設置位置および姿勢を計算する(ステップS1302)。
例えば、カメラのチルト角の最小値「X1」〜最大値「X2」までをカメラの設置範囲として指定されたものとする。なお、チルト角とは、カメラの光軸が水平方向から何度下向きに傾いているかを示す角度である。また、シミュレーションのサンプル数として「N」を指定されたものとする。Nは正の整数とし、シミュレーションとはカメラの撮影範囲を計算するシミュレーションを意味するものとする。例えば、i番目のサンプルに対応するカメラのチルト角は、X1+(X2−X1)/Niで表される。
次に、背景面生成部104は、カメラ搭載対象物の3次元モデルの背後に仮想的な背景面をサンプル毎に設定する(ステップS1303)。続いて、カメラ画像生成部107は、サンプル毎にカメラ画像を生成する(ステップS1304)。そして、カメラ設置位置評価装置100は、床面上の視野領域計算処理を実行する(ステップS1305)。なお、ステップS1305に対応する視野領域計算処理については、図15を用いて後述する。
視野情報出力部112は、床面における視野領域面積「A」およびカメラ搭載対象物から床面上の視野領域までの最短距離「B」を計算する(ステップS1306)。図14は、実施例2に係るカメラ設置位置評価装置の処理の説明に用いる図である。図14の14−1は床面を示し、図14の14−2は床面上の視野領域を示し、図14の14−3はカメラ搭載対象物の3次元モデルを示し、図14の14−4は、床面上の視野領域とカメラ搭載対象物の3次元モデルとの間の最短距離を示す。視野情報出力部112が計算する視野領域面積「A」は、図14に示す14−2の面積に対応し、視野情報出力部112が計算する最短距離「B」は、図14に示す14−4の距離に対応する。
さらに、視野情報出力部112は、サンプル毎に「uA−vB」を計算する(ステップS1307)。なお、u,vは、任意に設定する重み係数である。そして、視野情報出力部112は、「uA−vB」が最大となるときのサンプルと特定し、特定したサンプルに対応するカメラの設置位置および姿勢を最適解として抽出し(ステップS1308)、処理を終了する。
続いて、図15を用いて、カメラ設置位置評価装置100による床面上の視野領域計算処理の流れを説明する。図15は、実施例2に係るカメラ設置位置評価装置の処理の流れを示す図である。
図15に示すように、第1視野範囲計算部109は、カメラ画像から背景面上におけるカメラの視野領域を計算する(ステップS1501)。次に、第1視野範囲計算部109は、背景面上におけるカメラの視野領域の境界線を検出し(ステップS1502)、検出した境界線と、背景面上の格子線との交点「C〜C」を検出する(ステップS1503)。なお、nは、交点の数に応じた正の整数に該当し、交点の数が10個であれば「C10」と表記されることとなる。
視野モデル生成部110は、カメラ画像上での交点「C〜C」の位置を撮像面上での位置に変換する(ステップS1504)。そして、視野モデル生成部110は、射影変換により、撮像面上の交点「C〜C」の位置に対応する、背景面上の位置を計算する(ステップS1505)。
第2視野範囲計算部111は、背景面上での交点「C〜C」の位置を用いて、背景面上での視野範囲領域を算出する(ステップS1506)。そして、第2視野範囲算出部111は、カメラのレンズの中心位置と背景面上の視野領域形状とに基づいて、床面上の視野領域形状を計算し(ステップS1507)、床面上の視野領域計算処理を終了する。
[実施例2による効果]
上述してきたように、実施例2によれば、カメラ設置位置評価装置100は、カメラ搭載対象物に搭載されるカメラの光軸方向に、この光軸と直交する仮想的な平面を設定してから、カメラにより撮影が行われたと仮定した場合の仮想的なカメラ画像を生成する。そして、カメラ設置位置評価装置100は、カメラ搭載対象物の3次元モデルと設定部2により設定される仮想面との境界を算出するので、この境界を元に、現在のカメラ設置位置におけるカメラの視野範囲を定量的に得ることができる。このようなことから、カメラの設置位置を決定する場合に設計者による試行錯誤を必要とせず、例えば、カメラの視野範囲が最大となるようなカメラの設置位置を効率的かつより正確に決定できる。
また、実施例2によれば、カメラの視野範囲を表す3次元モデルを用いて、カメラ搭載対象物が配置された床面におけるカメラの視野領域を算出するので、カメラで実際に撮影した画像に対応する視野領域を設計者に提供することができる。
また、実施例2によれば、カメラ搭載対象物の3次元モデルの色とは異なる色を背景面に設定するので、生成した仮想的なカメラ画像からカメラの視野領域を効率的に算出できる。
以下、本願の開示するカメラ設置位置評価装置の他の実施形態を説明する。
(1)装置構成等
例えば、図2に示したカメラ設置位置評価装置100の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、カメラ設置位置評価装置100の分散・統合の具体的形態は図示のものに限られず、例えば、第1視野範囲計算部109と第2視野範囲計算部111とを機能的または物理的に統合する。このように、カメラ設置位置評価装置100の全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
(2)カメラ設置位置評価方法
上述してきた実施例2により以下のようなステップを含むカメラ設置位置評価方法が実現される。すなわち、このカメラ設置位置評価方法は、カメラ搭載対象物に搭載されるカメラの光軸に直交する仮想的な背景面を設定する設定ステップを含む。この設定ステップは、図2の背景面生成部104にて実行される処理に対応する。さらに、このカメラ設置位置評価方法は、カメラ搭載対象物の3次元モデルのデータ、設定ステップにより設定される仮想的な背景面のデータおよびカメラのパラメータを用いて、カメラにより取得される仮想的なカメラ画像を生成する生成ステップを含む。この生成ステップは、図2のカメラ画像生成部107にて実行される処理に対応する。さらに、このカメラ設置位置評価方法は、生成ステップにより生成されたカメラ画像上で、カメラ搭載対象物の3次元モデルと仮想的な背景面との境界を算出する算出ステップを含む。この算出ステップは、図2の第1視野範囲計算部109にて実行される処理に対応する。
(3)カメラ設置位置評価プログラム
また、例えば、実施例1で説明したカメラ設置位置評価装置100の各種の処理は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータシステムで実行することによって実現することもできる。なお、カメラ設置位置評価装置100の各種の処理については、例えば、図13等を参照されたい。
そこで、以下では、図16を用いて、実施例2で説明したカメラ設置位置評価装置100による処理と同様の機能を実現するカメラ設置位置評価プログラムを実行するコンピュータの一例を説明する。図16は、カメラ設置位置評価プログラムを実行するコンピュータの一例を示す図である。
図16に示すように、カメラ設置位置評価装置100として機能するコンピュータ400は、入力装置401、モニタ402、RAM(Random Access Memory)403、ROM(Read Only Memory)404を有する。また、コンピュータ400は、CPU(Central Processing Unit)405、HDD(Hard Disk Drive)406を有する。
なお、入力装置401は、例えば、キーボードやマウスなどである。モニタ402は、入力装置401であるマウスと協働して、ポインティングデバイス機能を実現する。また、モニタ402は、各種の情報、例えば三次元モデル画像を表示する表示デバイスであり、ディスプレイやタッチパネルなどで代用が可能である。なお、入力装置401であるマウスによってポインティングデバイス機能が実現される場合に限られるものではなく、タッチパッドなどの他の入力デバイスによりポインティングデバイス機能が実現されてもよい。
なお、CPU405の代わりに、例えば、MPU(Micro Processing Unit)などの電子回路、ASIC(Application Specific Integrated Circuit)やFPGA (Field Programmable Gate Array)などの集積回路を用いることもできる。また、RAM403やROM404の代わりに、フラッシュメモリ(flash memory)などの半導体メモリ素子を用いることもできる。
そして、コンピュータ400は、入力装置401、モニタ402、RAM403、ROM404、CPU405およびHDD406をバス407で相互に接続する。
そして、HDD406には、上述したカメラ設置位置評価装置100の機能と同様の機能を発揮するカメラ設置位置評価プログラム406aが記憶されている。なお、このカメラ設置位置評価プログラム406aを適宜分散させて、ネットワークを介して通信可能に接続された他のコンピュータの記憶部に記憶させておくこともできる。
そして、CPU405が、カメラ設置位置評価プログラム406aをHDD406から読み出してRAM403に展開することにより、図16に示すように、カメラ設置位置評価プログラム406aはカメラ設置位置評価プロセス405aとして機能する。
すなわち、カメラ設置位置評価プロセス405aは、各種データ403aをRAM403において身に割り当てられた領域に展開し、この展開した各種データ403aに基づいて各種処理を実行する。
なお、カメラ設置位置評価プロセス405aは、例えば、図2に示した背景面生成部104にて実行される処理に対応する処理を含む。また、カメラ設置位置評価プロセス405aは、例えば、図2に示したカメラ画像生成部107にて実行される処理に対応する処理を含む。また、カメラ設置位置評価プロセス405aは、例えば、図2に示したカメラ画像表示部108にて実行される処理に対応する処理を含む。また、カメラ設置位置評価プロセス405aは、例えば、図2に示した第1視野範囲計算部109にて実行される処理に対応する処理を含む。また、カメラ設置位置評価プロセス405aは、例えば、図2に示した視野モデル生成部110にて実行される処理に対応する処理を含む。また、カメラ設置位置評価プロセス405aは、例えば、図2に示した第2視野範囲計算部111にて実行される処理に対応する処理を含む。また、カメラ設置位置評価プロセス405aは、例えば、図2に示した視野情報出力部112にて実行される処理に対応する処理を含む。
なお、カメラ設置位置評価プログラム406aについては、必ずしも最初からHDD406に記憶させておく必要はない。例えば、コンピュータ400に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ400がこれらから各プログラムを読み出して実行するようにしてもよい。
さらには、公衆回線、インターネット、LAN、WANなどを介してコンピュータ400に接続される「他のコンピュータ(またはサーバ)」などに各プログラムを記憶させておく。そして、コンピュータ400がこれらから各プログラムを読み出して実行するようにしてもよい。
1 カメラ設置位置評価装置
2 設定部
3 生成部
4 算出部
100 カメラ設置位置評価装置
101 3次元モデル入力部
102 カメラ設置位置入力部
103 カメラ特性データ入力部
104 背景面生成部
105 3次元モデル管理部
106 3次元モデル表示部
107 カメラ画像生成部
108 カメラ画像表示部
109 第1視野範囲計算部
110 視野モデル生成部
111 第2視野範囲計算部
112 視野情報出力部
200 カメラ搭載対象物の3次元モデル
300 カメラのモデル
400 コンピュータ
401 入力装置
402 モニタ
403 RAM
404 ROM
405 CPU
406 HDD
407 バス

Claims (5)

  1. コンピュータに、
    カメラ搭載対象物に搭載されるカメラの光軸に直交する仮想面を設定する設定手順と、
    カメラ搭載対象物の3次元モデルのデータ、前記設定手順により設定される仮想面のデータおよび前記カメラのパラメータを用いて、当該カメラにより取得される仮想的なカメラ画像を生成する生成手順と、
    前記生成手順により生成されたカメラ画像上で、前記3次元モデルと前記仮想面との境界を算出する算出手順と
    を実行させることを特徴とするカメラ設置位置評価プログラム。
  2. 前記コンピュータに、
    前記算出手順により算出された前記境界を用いて、前記設定手順により設定された前記仮想面における前記カメラの視野領域を算出する第1の視野領域算出手順と、
    前記第1の視野範囲算出手順により算出された前記仮想面上の視野範囲を底面とし、前記カメラの光学中心を頂点とする視野範囲モデルを生成するモデル生成手順と、
    前記モデル生成手順により生成された前記視野範囲モデルを用いて、前記3次元モデルが配置されている床面における前記カメラの視野領域を算出する第2の視野領域算出手順と
    をさらに実行させることを特徴とする請求項1に記載のカメラ設置位置評価プログラム。
  3. 前記設定手順は、前記3次元モデルに使用する色とは異なる色を前記仮想面に設定することを特徴とする請求項2に記載のカメラ設置位置評価プログラム。
  4. カメラの設置位置を評価するカメラ設置位置評価装置が行うカメラ設置位置評価方法であって、
    カメラ搭載対象物に搭載されるカメラの光軸に直交する仮想面を設定する設定ステップと、
    カメラ搭載対象物の3次元モデルのデータ、前記設定ステップにより設定される仮想面のデータおよび前記カメラのパラメータを用いて、当該カメラにより取得される仮想的なカメラ画像を生成する生成ステップと、
    前記生成ステップにより生成されたカメラ画像上で、前記3次元モデルと前記仮想面との境界を算出する算出ステップと
    を含んだことを特徴とするカメラ設置位置評価方法。
  5. カメラ搭載対象物に搭載されるカメラの光軸に直交する仮想面を設定する設定部と、
    カメラ搭載対象物の3次元モデルのデータ、前記設定部により設定される仮想面のデータおよび前記カメラのパラメータを用いて、当該カメラにより取得される仮想的なカメラ画像を生成する生成部と、
    前記生成部により生成されたカメラ画像上で、前記3次元モデルと前記仮想面との境界を算出する算出部と
    を有することを特徴とするカメラ設置位置評価装置。
JP2011552604A 2010-02-02 2010-02-02 カメラ設置位置評価プログラム、カメラ設置位置評価方法およびカメラ設置位置評価装置 Expired - Fee Related JP5136703B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/051450 WO2011096049A1 (ja) 2010-02-02 2010-02-02 カメラ設置位置評価プログラム、カメラ設置位置評価方法およびカメラ設置位置評価装置

Publications (2)

Publication Number Publication Date
JP5136703B2 true JP5136703B2 (ja) 2013-02-06
JPWO2011096049A1 JPWO2011096049A1 (ja) 2013-06-06

Family

ID=44355078

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011552604A Expired - Fee Related JP5136703B2 (ja) 2010-02-02 2010-02-02 カメラ設置位置評価プログラム、カメラ設置位置評価方法およびカメラ設置位置評価装置

Country Status (3)

Country Link
US (1) US20120293628A1 (ja)
JP (1) JP5136703B2 (ja)
WO (1) WO2011096049A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130084720A (ko) * 2012-01-18 2013-07-26 삼성전기주식회사 영상 처리 장치 및 방법
JP6490675B2 (ja) 2013-10-07 2019-03-27 グーグル エルエルシー 適切な瞬間において非警報ステータス信号を与えるスマートホームハザード検出器
WO2017134786A1 (ja) * 2016-02-04 2017-08-10 三菱電機株式会社 設置位置決定装置、設置位置決定方法及び設置位置決定プログラム
US10672243B2 (en) * 2018-04-03 2020-06-02 Chengfu Yu Smart tracker IP camera device and method
CN110399622A (zh) * 2018-04-24 2019-11-01 上海欧菲智能车联科技有限公司 车载摄像头的布置方法及车载摄像头的布置系统
CN111683241B (zh) * 2019-03-11 2023-06-27 西安光启智能技术有限公司 一种快速测量摄像机视野盲区距离的方法和系统
JP7291013B2 (ja) 2019-06-28 2023-06-14 セコム株式会社 カメラ配置評価装置、カメラ配置評価方法、及びコンピュータプログラム
JP7311327B2 (ja) 2019-06-28 2023-07-19 セコム株式会社 撮影シミュレーション装置、撮影シミュレーション方法およびコンピュータプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003009135A (ja) * 2001-06-21 2003-01-10 Toshiba Corp カメラ監視制御システム及び画像サーバ
JP2008154188A (ja) * 2006-12-20 2008-07-03 Sony Corp 画像伝送システム及び画像伝送方法
JP2009105802A (ja) * 2007-10-25 2009-05-14 Toa Corp カメラ設置シミュレータプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4992866A (en) * 1989-06-29 1991-02-12 Morgan Jack B Camera selection and positioning system and method
JPH04136974A (ja) * 1990-09-28 1992-05-11 Toshiba Lighting & Technol Corp カメラ運用シュミレーション装置
SG112894A1 (en) * 1999-04-07 2005-07-28 Federal Express Corp System and method for dimensioning objects
JP2001070473A (ja) * 1999-09-09 2001-03-21 Sekisui House Ltd Cg画像の生成・表示方法
JP4152698B2 (ja) * 2002-09-06 2008-09-17 三菱電機株式会社 3次元建物モデルデータ生成装置
JP2007090481A (ja) * 2005-09-28 2007-04-12 Fanuc Ltd ロボットシミュレーション装置
JP2008021092A (ja) * 2006-07-12 2008-01-31 Fanuc Ltd ロボットシステムのシミュレーション装置
US20100315421A1 (en) * 2009-06-16 2010-12-16 Disney Enterprises, Inc. Generating fog effects in a simulated environment

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003009135A (ja) * 2001-06-21 2003-01-10 Toshiba Corp カメラ監視制御システム及び画像サーバ
JP2008154188A (ja) * 2006-12-20 2008-07-03 Sony Corp 画像伝送システム及び画像伝送方法
JP2009105802A (ja) * 2007-10-25 2009-05-14 Toa Corp カメラ設置シミュレータプログラム

Also Published As

Publication number Publication date
JPWO2011096049A1 (ja) 2013-06-06
WO2011096049A1 (ja) 2011-08-11
US20120293628A1 (en) 2012-11-22

Similar Documents

Publication Publication Date Title
JP5136703B2 (ja) カメラ設置位置評価プログラム、カメラ設置位置評価方法およびカメラ設置位置評価装置
US7663649B2 (en) Information processing device and method for aiding control operations relating to controlling the position and orientation of a virtual object and method for changing the positioning and orientation of a virtual object
JP7294396B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5521750B2 (ja) シミュレーションプログラム、シミュレーション装置及びシミュレーション方法
JP2019049533A (ja) 対象物の3−d計測を実施するための解像度適応型メッシュ
CN105264566A (zh) 建模装置、三维模型生成装置、建模方法、程序和布局模拟器
JP2010129063A (ja) 運転模擬装置、広角カメラ映像模擬装置および画像変形合成装置
KR101642975B1 (ko) 객체를 관찰하기 위한 파노라마 공간 모델링 방법
JP6902881B2 (ja) 情報処理装置及び三次元モデルの生成方法
KR20210115281A (ko) 가상 시점 영상을 합성하기 위한 입력 영상을 제공하는 카메라 선별 방법 및 장치
JP2010239515A (ja) カメラキャリブレーションの算出方法
JP2001184526A (ja) 3次元形状データにおける面生成方法
CN111833428B (zh) 一种可视域确定方法、装置及设备
JP6405539B2 (ja) 多視点画像に対するラベル情報の処理装置及びそのラベル情報の処理方法
JP6306903B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP6984583B2 (ja) 情報処理装置および情報処理方法
JP5593911B2 (ja) 映像生成装置、映像生成プログラム及び映像生成方法
JP6246435B1 (ja) 設置位置決定装置、設置位置決定方法及び設置位置決定プログラム
JP2020187626A (ja) 画像処理装置、画像処理方法、及びプログラム
JP5287613B2 (ja) 画像表示方法、情報処理装置および画像表示プログラム
JP2020160756A (ja) 画像生成装置、画像生成方法、及びプログラム
JP2020024499A (ja) 撮影状況予測装置、撮影状況予測方法および監視エリア変更方法
US20230289987A1 (en) Shape estimation apparatus, processing method, and computer-readable storage medium
JP7311327B2 (ja) 撮影シミュレーション装置、撮影シミュレーション方法およびコンピュータプログラム
JP6429240B2 (ja) 形状検出装置、形状検出方法、及びプログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121016

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121029

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151122

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees