JP2003279315A - カメラの自動校正方法 - Google Patents
カメラの自動校正方法Info
- Publication number
- JP2003279315A JP2003279315A JP2003004247A JP2003004247A JP2003279315A JP 2003279315 A JP2003279315 A JP 2003279315A JP 2003004247 A JP2003004247 A JP 2003004247A JP 2003004247 A JP2003004247 A JP 2003004247A JP 2003279315 A JP2003279315 A JP 2003279315A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- cameras
- observation
- information
- orientation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
測を共有する必要がなく、基準カメラと共有されない局
所的な観測もカメラの位置・姿勢推定に利用することが
できるようになるカメラの自動校正方法を提供すること
を目的とする。 【解決手段】 複数のカメラを備えたシステムにおける
カメラの自動校正方法において、各カメラ毎に、周囲の
カメラと共有する観測情報と、周囲のカメラの現在の位
置および姿勢推定値とに基づいて、自己のカメラの位置
および姿勢推定値を更新するようにした。
Description
正方法に関する。
フェースを目指し、人間の動きを画像処理によって検出
する手法を検討している(文献1,2,3参照)。
n Ohya, and Masahiko Yachida. Human tracking syste
m using adaptive camera selection. In Proc. of RO
_MAN '98, pp. 494-499, 1998.文献2:森大樹,内海
章,大谷淳,谷内田正彦.非同期多視点情報を用いた複
数人物追跡手法の検討.信学技報,PRMU98-178, p
p. 15-22, 1999.文献3: Howard Yang, 内海章,大谷
淳. 非同期多視点画像を用いた複数人物追跡の安定化.
信学技報,PRMU99-150, pp. 1-7, 1999.
られるが、ここでは、各人物の同定に必要な顔画像、背
丈、服の色等の抽出、追跡に必要な位置・移動方向の検
出、さらに着座動作を含むいくつかの動作について検討
している。これらの動作情報を検出することにより、仮
想環境でのインタラクション、監視システムといった応
用が可能となる。
多くの提案があったが、その多くは単眼または2眼画像
によるものであり(文献4,5,6,7参照)、オクル
ージョンに対応できない、検出エリアが狭い、といった
問題があった。
3-d model-based tracking of humans in action: a m
ulti-view approach. In Proc. of CVPR '96, pp. 73-8
0, 1996. 文献5:Ali Azarbayejani and Alex Pentland. Real-t
ime self-calibratingstereo person tracking using 3
-d shape estimation from blob features. In 13th In
ternational Conference on Pattern Recognition, pp.
627-632, 1996. 文献6:C. Wren, A. Azarbayejani, T. Darrell, and
A. Pentland. P finder: Real-time tracking of the h
uman body. In SPIE proceeding vol. 2615, pp. 89-9
8, 1996. 文献7:M. Patrick Johnson, P. Maes,and T. Darrel
l. Evolving visual routines. In Proc. of Artificia
l Life IV, pp. 198-209, 1994.
点画像を利用した人物追跡システムが盛んに研究されて
いる(文献8,9,10参照)。多視点画像を利用する
ことで、オクルージョンの発生を低減し、より安定した
検出が可能になると考えられる。
A camera-based system for tracking people in real
time. In Proc. of 13th International Conference o
n Pattern Recognition, pp. 63-67, 1996. 文献9:Q. Cai, A. Mitiche, and J. K. Aggarwal. Tr
acking human motionin an indoor environment. In Pr
oc. of 2nd International Conference on Image Proce
ssing, pp. 215-218, 1995. 文献10:Q. Cai, J. K. Aggarwal. Tracking human m
otion using multiplecameras. In Proc. of 13th Inte
rnational Conference on Pattern Recognition, pp. 6
8-72, 1996.
間の動きを追跡するには検出エリアに合わせて多くのカ
メラが必要になり、そのために生じる問題も多い。例え
ば、多くのビジョンシステムは、3次元計測のために各
カメラが同時刻に観測を行うことを前提としており、そ
のための同期機構の導入によりシステムが複雑化する。
さらに、複数の観測を同時に行うことは観測間の冗長性
を増大させ、システムの処理効率を低下させる。また、
多数のカメラの全てをあらかじめ校正しておくことは、
視点数(カメラ数)が増えるにしたがって困難になる。
るに伴ってより顕著になると考えられる。本発明者ら
は、多視点画像による追跡システムにおいては、これら
規模の拡大によって生じる問題が本質的であると考えて
いる。
おけるカメラの位置・姿勢推定(カメラ校正)について
考えることにする。多視点画像による追跡システムで
は、事前のカメラ校正に加えて、運用中の障害によるカ
メラ位置・姿勢の変化への対応など維持・管理のための
手法の確立も重要となる。
メラ校正については既にいくつかの手法が提案されてい
る。
メラと他のカメラ間の基礎行列を両者間で共有する観測
を用いて求めることで、大規模な3次元映像システムの
構築を容易にした。
e. Shape reconstruction in projective grid space f
rom large number of images. In Proc. of CVPR, pp.
49-54, 1999.
上を運動する対象物体を利用して基準カメラと各カメラ
とで共有する観測により、基準カメラからの相対位置・
姿勢を求める手法を提案した。
tein. Monitoring activities frommultiple video str
eams: Establishing a common coordinate frame. IEEE
Pattern Anal. Machine Intell., Vol. 22, No. 8, p
p. 758-767, 2000.
のカメラと基準カメラとが観測を共有していない場合に
は、適用できないという問題がある。
物の3次元運動を利用してカメラの位置・姿勢を推定す
る手法を提案した(文献13参照)。しかしながら、こ
の手法では、人物の運動を求めるために複数の校正済カ
メラを要する。
mi, Nobuji Tetsutani, and Masahiko Yachida. Automa
tic camera calibration method for multiple camera
based human tracking system. In Proc. of IWAIT 200
1, pp. 77-82, 2001.
メラが基準カメラと観測を共有する必要がなく、基準カ
メラと共有されない局所的な観測もカメラの位置・姿勢
推定に利用することができるようになるカメラの自動校
正方法を提供することを目的とする。
物体追跡システムにおいて、観測部の追加削除を容易に
行うことが可能となる、カメラの自動校正方法を提供す
ることを目的とする。
ラを備えたシステムにおけるカメラの自動校正方法にお
いて、各カメラ毎に、周囲のカメラと共有する観測情報
と、周囲のカメラの現在の位置および姿勢推定値とに基
づいて、自己のカメラの位置および姿勢推定値を更新す
るようにしたことを特徴とする。
での観測対象像の2次元座標値および観測対象像の大き
さである。
新するための処理は、たとえば、周囲の他のカメラと共
有する観測情報と、自己のカメラおよび当該他のカメラ
の現在の位置および姿勢推定値とに基づいて、自己のカ
メラと当該他のカメラとの相対姿勢および相対位置に関
する情報を算出する第1ステップ、ならびに第1ステッ
プによって算出された相対姿勢および相対位置に関する
情報に基づいて、自己のカメラの位置および姿勢推定値
を更新する第2ステップを備えている。
値、自己のカメラと周囲の各カメラとの姿勢推定精度に
関する情報、周囲の各カメラの位置推定値および自己の
カメラと周囲の各カメラとの位置推定精度に関する情報
を保持している。そして、上記第2ステップは、上記第
1ステップによって算出された相対姿勢に関する情報
と、自己のカメラが保持している周囲の各カメラの姿勢
推定値および自己のカメラと周囲の各カメラとの姿勢推
定精度に関する情報とに基づいて、自己の姿勢推定値を
更新するステップ、ならびに上記第1ステップによって
算出された相対位置に関する情報と、自己のカメラが保
持している周囲の各カメラの位置推定値および自己のカ
メラと周囲の各カメラとの位置推定精度に関する情報と
に基づいて、自己の位置推定値を更新するステップを備
えている。
新するための処理は、各カメラにおいて新たな観測情報
が得られる度に行われることが好ましい。世界座標を決
定するために、最低限1台のカメラの世界座標系での姿
勢と、最低限2台のカメラの世界座標系での位置とが基
準として与えられていることが好ましい。
間で共有されるカメラの画像面上での観測対象像の2次
元座標値である。この場合には、自己のカメラの位置お
よび姿勢推定値を更新するための処理においては、たと
えば、周囲の他のカメラと共有する観測情報と、当該他
のカメラの現在の位置および姿勢推定値とに基づいて、
自己のカメラの位置および姿勢推定値を更新するといっ
た処理が、各カメラ毎に分散的に行われる。
の実施の形態について説明する。
期多視点画像による人物追跡システムについて説明し、
その後に本願発明の特徴であるカメラの自動校正方法に
ついて説明する。
説明
を示している。
2、…、2#n(以下、総称的にはカメラ2という)、
各カメラに対応して設けられた観測部4#1、4#2、
…、4#n(以下、総称的には観測部4という)、発見
部6および追跡部8を備えている。各観測部4、発見部
6および追跡部8は、たとえば、異なる計算機で構成さ
れ、それぞれの計算機はLANによって接続されてい
る。
れた入力画像に基づいて特徴量抽出処理を行う。各観測
部4で得られた特徴量(代表点位置、頭頂点位置、服領
域の色等)は、追跡部8から送られてくる予測位置情報
をもとに追跡モデルと対応付けられた後、観測時刻情報
とともに追跡部8に送られる。追跡モデルと対応付けら
れた後に、各観測部4から追跡部8に送られる情報を対
応点の観測情報ということにする。
は発見部6に送られる。追跡モデルとの対応がとれなか
ったときに、各観測部4から発見部6に送られる情報を
未対応点の観測情報ということにする。なお、各観測部
4は独立に動作する。
未対応点の観測情報を用いて、シーン中に新たに現れた
人物の検出を行う。新規人物の位置情報(初期値)は追
跡部8に送信され、追跡部8による追跡が開始される。
とし、対応点の観測情報を入力値として、カルマンフィ
ルタを用いて人物状態(位置・方向角・背丈等)を更新
し、さらに後述する観測モデルに基づいて位置を予測す
る。予測位置情報は観測部4に送信される。
説明する。まず、入力画像を人物領域と背景領域に分割
する。領域分割手法としては、文献14に記載されてい
る手法を用いることができる。
推定による時系列画像からの動物体領域抽出. 信学論,
Vol.J81-D-II, No. 8, pp. 1768-1775, 1998.
を行う。つまり、人物領域を構成する各画素毎に、各画
素から人物領域の境界までの最短距離を求めて、得られ
た距離を当該画素の距離変換値とする。この結果、距離
変換された画像における人物領域内の各画素は、最近傍
の領域境界までの距離に応じた距離変換値を持つ。
値化画像を示し、図2(b)は距離変換によって得られ
た距離変換画像を示している。図2(b)では、距離変
換値が大きい画素ほど黒く表されている。
る点(重心点)Gをその領域の代表点(特徴点)として
選択する。さらに、画像中から頭頂点と足先点の位置、
胴体部分の色情報を抽出する。色情報は異なるカメラ間
での画像特徴の対応付けに用いられる。頭頂点と足先点
との画像上での距離は、特徴点(代表点)の大きさとし
て利用される。この後、抽出された特徴点と既に発見さ
れている追跡モデルとの間の対応付けを行なう。
跡モデルと間の対応付けの方法について説明する。後述
するように、追跡部8では人物が等速運動をしていると
仮定しており、時刻tにおける人物hj の予測位置は2
次元のガウス分布で表される。ここでは、時刻tにおけ
る人物hj の世界座標(X,Y)系での予測位置をX
hj,t、その平均をX ̄hj,t、共分散行列をS ̄hj,tとす
る。
を画像iに弱透視投影した結果は、次式(1)で示され
る確率Pi (xi )からなる1次元ガウス分布n(x ̄
hj,t ,i,s ̄hj,t,i)となり、これは画像i上での人物
の存在確率を示している。ここで、x ̄hj,t,iは、X ̄
hj,tを画像面上に投影したものを表し、s ̄hj,t,iはS
 ̄hj,tを画像面上に投影したものを表している。
し、追跡モデルに対して観測値の生起確率を最大にする
特徴点を観測時間での人物hj に対応する観測とし、h
j のラベルを付ける(上記文献3参照)。
情報として追跡部8に送信される。ただし、複数の人物
に対応付けられた特徴点は、観測時にオクルージョンが
発生していると判断し、送信されない。
い特徴点が存在する場合には、これらの特徴点は、新規
人物に属すると考えられるので、未対応点の観測情報
(位置・時刻)として発見部6に送られる。
を検出し、対応するモデルを追跡部8に追加する。
のステレオ対応をそのまま適用することはできない。そ
こでカルマンフィルタを利用した時系列情報による対応
(発見)手法を用いる(上記文献2参照)。
応点の観測情報のうち、異なる4時刻の観測情報を各1
点ずつ選出してカルマンフィルタの更新処理を行い、得
られた予測軌跡と各観測情報の誤差が一定の閾値以内で
あれば、新規人物に属する特徴点集合とし、最新観測時
刻における推定位置を初期発見位置として追跡部8に送
信する。
て追跡モデルと対応付けられた画像特徴を用いて更新さ
れる(上記文献2参照)。
を示している。図3において、liはカメラ2#iとそ
の画像面20#iとの距離(焦点距離)を示し、Lhj,i
はカメラ2#iと人物hjとの距離を示している。ま
た、ψhj,iはカメラ2#iと人物hjとを結ぶ線とY軸
とのなす角度を示している。
るものと仮定し、時刻tにおける人物hj の状態を、世
界座標(X,Y)系上で、次式(2)で表す。
向の速度を、上部に”・”が付けられた記号YhjはY方
向の速度をそれぞれ表している。ただし初期状態は、発
見部6から送信される新規モデル情報によって決定され
る。行列に付される”’”は転置を表している。
行われたとする。観測部4#iから送られてきた観測情
報により、この観測は次式(3)のように表すことがで
きる。
ピポーラ線とY軸のなす角度ψhj,t ,iの時計回りの回転
である(H=[1000])。eは観測誤差で平均0、
標準偏差σhj,t,iとする。σhj,t,iはカメラからの距離
が大きくなるほど増加すると考え、次式(4)のように
表す。
距離Lhj,t,iは未知のため、Xhj,tの予測位置X ̄hj,t
により計算したL ̄hj,t,iで近似する。
を構成し、人物hj の状態を更新する。
状態予測を行う。時刻t+1における人物hj の状態予
測は、平均をX ̄hj,t+1、共分散行列をS ̄hj,t+1とす
るガウス分布で与えられる。状態予測結果は、観測部4
の要求に応じて計算・送信され、上述したように特徴点
の対応付けに利用される。検出範囲外へ移動した人物モ
デルは削除し、その人物の追跡を中止する。
よる観測を独立した観測部4によって処理しており、カ
メラの追加、削除が容易に行えるという利点を持ってい
る。このような分散型の追跡システムでは、カメラの位
置・姿勢情報についても、各カメラが独立に維持・管理
することが処理効率・対障害性の確保から望ましいとい
える。以下、本発明の特徴である分散型のカメラ位置・
姿勢推定アルゴリズムについて説明する。
(カメラ校正アルゴリズム)の説明
るためには、現在の推定値、共分散行列等の校正情報を
保持する必要があるが、カメラ数の増加とともに保持す
べき校正情報量も増加し、大規模なシステムで全てのカ
メラの位置・姿勢推定に関する情報を一元的に保持する
ことは困難となる。
情報は、各カメラ(観測部)毎に分散して保持される。
している。
…,N)はカメラを、ti は各カメラの位置を、Ri は
各カメラの姿勢を、Σiiは位置推定値に関する共分散行
列を、Mijは姿勢推定値に関する行列を示している。
びに周囲のカメラと共有する観測情報と、周囲のカメラ
のその時点での位置推定値および姿勢推定値を用いて自
身の位置および姿勢を修正する。ここで、周囲のカメラ
とは、自己のカメラと観測情報を共有する可能性がある
カメラをいう。位置および姿勢を修正する際、基準カメ
ラの位置・姿勢にはより高い重みが与えられる。なお、
この実施の形態では、世界座標を決定するために、カメ
ラ1台の姿勢と、カメラ2台の位置が基準として与えら
れる。
測情報についての説明
報について説明する。
l と共有する複数回の観測から、カメラCk とカメラC
l との間の相対姿勢(Rl Rk -1)に関する行列m
klと、カメラCk のカメラ座標系でのカメラCl の方向
(相対位置)ykl(=Rk (tl−tk ))とが観測情
報として得られるものとする。なお、相対姿勢に関する
行列mklと相対位置yklとは、上述した画像特徴(代表
点位置、頭頂点と足先点との画像上での距離)から求め
られるが、その方法については後述する。
定義される。
Ck ’,Cl ’がともに世界座標原点にあるとする。カ
メラCk ,Cl の姿勢をRk ,Rl とすると、Ck ’の
カメラ座標系上での方向Xk,d に観測される観測点d
は、カメラCl ’上では次式(5)で示す方向Xl,d に
観測される。
る。
に基づいて算出される。
記号”’”は転置を表している。fは観測回数を表して
いる。カメラCk ,Cl 間の相対姿勢Rl Rk -1は、上
記式(6)から、特異値分解を利用して求めることがで
きる(文献15参照)。
determination using vector observations and the s
ingular value decomposition. the Journal of the As
tronautical Sciences, Vol. 36, No.3, pp. 245-258,
1988.
について求まった相対姿勢に関する行列mkiおよび相対
位置ykiから、カメラCk の位置tk および姿勢Rk が
推定される。
明
l 間の相対姿勢に関する行列mklおよび相対位置yklを
用いてカメラCk の位置tk および姿勢Rk を更新する
ことについて説明する。
行列Σii、姿勢Ri 、姿勢推定に関する行列Mijの初期
状態について説明する。
tn(n≧2)については、世界座標上での位置tt1 ,…
ttnを初期値として与える。
示すような初期値を与える。
付け定数であり、p1 ≪p2 である。また、Iは単位行
列である。
rm(m≧1)については、世界座標上での姿勢Rr1 ,…
Rrmを初期として与える。
次式(8)に示すような初期値を与える。
付け定数であり、q1 ≫q2 である。また、Iは単位行
列である。
的に最適化することにより、最終的に全カメラの位置・
姿勢推定値を得る。
周囲にある全てのカメラCi (i≠k)の位置推定値t
i 、姿勢推定値Ri 、位置推定値に関する共分散行列
(位置推定精度に関する情報)Σii、自己の姿勢に関す
る行列Mkk、さらに自己とカメラCi との間の相対姿勢
に関する行列(姿勢推定精度に関する情報)Mkiを保持
している。
klが得られたときの姿勢推定値Riおよび位置推定値t
i の更新方法について説明する。
する。
Ri と、カメラCk と各カメラCiとの相対姿勢に関す
る行列Mklを保持している。
する行列mklと次式(9)とを用いて、行列Mklを更新
する。次式(9)において添字(t)および(t−1)
は、時点を表している。
る。
に関する行列Mkkを更新する。この際、Mkl (t) として
は、更新された行列Mklが用いられる。
解することによって得られる。
する。
時点での位置推定値ti と、各カメラとの共分散行列Σ
iiを保持している。
(11)とを用いて、新たな位置推定値tk を求める。
2)で表される。
ある。
を、次式(14)を用いて、更新する。
である。
4)、(15)は、カルマンフィルタの更新式である。
る方法についての説明 図6に示すように、世界座標系(XYZ)における人物
(特徴点)の3次元位置XのカメラCk の画像面上の観
測位置をxk とし、3次元位置XのカメラClの画像面
上の観測位置をxl とする。
知とすると、世界座標系における人物の3次元位置X
と、カメラCk の画像面上での当該人物の観測位置xk
との関係は、世界座標系に対するカメラCk の姿勢を表
す回転行列Rk と位置を表す並進ベクトルtk とにより
次式(16)のように表される。
YckZck)での上記人物の3次元位置をXckとすると、
XckとXとの間には次式(17)の関係が成立する。
観測位置xk と、カメラCk のカメラ座標系での当該人
物の3次元位置Xckとの関係は、次式(18)で表され
る。
次式(19)が得られる。
は次式(20)で表される。
し、画像面上での特徴点xk の大きさ(この実施の形態
では、頭頂点と足先点との画像上での距離)をwk とす
ると、Zxck は次式(21)で表される。
り、次式(22)が成立する。
2)は、次式(23)に書き換えられる。
式(24)が得られる。
clZcl)での上記人物の3次元位置をXclとすると、X
clもXckと同様に求められ、次式(25)で表される。
l の内部パラメータ行列であり、w l はカメラCl の画
像面上での特徴点xl の大きさ(この実施の形態では、
頭頂点と足先点との画像上での距離)である。
を表す回転行列とし、tl を世界座標に対するカメラC
l の位置を表す並進ベクトルとする。そして、f回の観
測について考えると、次式(26)が得られる。
を求めると、次式(27)が得られる。
8)が求められる。
(29)を最小とするRk RL -1である。
値分解することによって求められる。
カメラCl の方向ベクトルykl(=Rk (tl −
tk ))は、得られた相対姿勢Rk RL -1を、上記式
(27)に代入することにより、求められる。
次のような実験を行った。
座標系を決めるためにカメラ1 の位置および姿勢と、カ
メラ2 の位置は予め与えた。
ら10000 点をランダムに選択し、各点について、5台の
カメラからランダムに2台のカメラを選択した。その2
台による2次元観測位置と2次元の大きさを計算し、さ
らにガウス誤差を加えたものを、各カメラでの観測とし
た。
する校正情報を、各観測によって更新した。
定結果を示している。
X、Y、Zの推定結果を示している。図7において、右
側のグラフはカメラ姿勢を表すオイラー角α、β、γの
推定結果を示している。なお、これらのグラフの横軸は
データ数を表している。
は、位置・姿勢とも大きな誤差を含んでいる。しかし、
データ数の増加に伴い推定誤差が減少しており、最終的
には位置で平均7.35[cm]、姿勢で平均0.85[de
g] の高い推定精度が得られていることがわかる。以上
の結果から、上記実施の形態で示した校正手法によって
多数のカメラの位置・姿勢推定が行えることが示され
た。
(カメラ校正アルゴリズム)の変形例の説明
れる観測情報を用いて、カメラ間の幾何学的整合性をと
のながらシステム内の全てのカメラの位置・姿勢を推定
する。世界座標系を与えるための基準としては、2台の
カメラ位置、1台のカメラ姿勢を与えることが必要であ
る。これらの基準カメラは必ずしも校正対象の全てのカ
メラと観測を共有する必要はない。
次のようにして得られる。まず、入力画像を人物領域と
背景領域とに分割する。人物領域からカメラ位置・姿勢
推定に用いる2次元観測情報として、頭頂点と足先点を
抽出する。
多視点システムにおいて、2台のカメラ間で共有される
観測情報を用いて、カメラ間の幾何学的整合性をとのな
がらシステム内の全てのカメラの位置・姿勢を推定する
手法について説明する。
各カメラの位置・姿勢の推定値を保持する必要がある。
しかし、カメラ数の増加にともない保持すべき情報は増
加し、一元的に管理するのは困難となる。そのため、本
手法では、観測情報を各カメラ毎に分散して保持し、カ
メラの位置・姿勢推定を分散的に行うことを考える。
ムにより各カメラの内部パラメータを計算する。内部パ
ラメータは他のカメラの存在や位置・姿勢の変化とは独
立であるため、内部パラメータと位置・姿勢を分離して
計算しても問題ないものと考えられる。以後の処理で
は、各カメラの内部パラメータは既知・一定であるとし
て、カメラの位置・姿勢のみを推定する。
amera calibration technique forhigh-accuracy 3d ma
chine vision metrology using off-the shelf tv came
ras and lenses. IEEE Journal of Robotics and Autom
ation, Vol. 3, No.4, pp.323-344, 1987.
している。
ラの観測情報、位置・姿勢推定値を利用して、自己のカ
メラの位置・姿勢を推定する。新たな観測が得られる度
に推定を繰り返す。全てのカメラで上記処理を分散的に
繰り返すことにより、システム全体のカメラ位置・姿勢
を求めることができる。
て説明する。
するエピポーラ幾何について簡単に説明する。
を観測しているとし、カメラCk 、Cl 上での2次元観
測位置をそれぞれxk,i =(xk,i,yk,i ),xl,i =
(x l,i,yl,i )t とする。
1)、(32)のように表す。
点距離である。
におけるカメラCl の相対位置、姿勢とすると、mk,i
とml,i は、次式(33)を満たす。
る。
テム内の全てのカメラの世界座標系での位置・姿勢を推
定する手法について説明する。
Tk ,Rk (k=1,…,N)を世界座標系でのカメラ
Ck の姿勢および位置とする。上記〔3−1〕で述べた
ようにカメラCp ,Cq が3次元点iを観測している
時、各カメラ上での2次元観測位置をxp,i ,xq,i と
すると、上記式(33)を満たす必要がある。
測が得られたとすると、カメラCpの座標系におけるカ
メラCq の相対位置・姿勢tpq, rpqは、次式(35)
を満たす。
られたとすると、次式(36)に示すように、上記式
(35)の左辺を最小化することにより、tpq, rpqを
求めることができる。
には、システム内の全ての2カメラ間の観測について考
える必要があり、次式(37)に示すように、システム
全体に関する誤差Jall を最小化することになる。
p ,Tq 、姿勢Rp ,Rq より、カメラCp の座標系に
おけるカメラCq の相対位置・姿勢tpq, rpqは次式
(38)、(39)のように表すことができる。
0)となる。
り、全カメラの位置・姿勢R1,…,RN 、T1,…, TN
を計算することができる。
全体の観測情報が必要となるが、カメラ数の増加にとも
ない最小化に必要な観測情報の量は増加し、カメラ間で
観測情報をやりとりするための通信コストも増加する。
そこで、Jall を全カメラの位置・姿勢R1,…,RN 、
T1,…, TN に関して、一度に最小化するのではなく、
各カメラに関して分散的に最小化を行うことにより、最
終的にJall を最小化することを考える。
小化について考える。まず、JallをカメラCk に関す
る情報(カメラCk の位置・姿勢、観測情報)を含む項
と含まない項とに分割する。それぞれを、JK , J
other とする。JK ,Jother ,Jall は、次式(4
1)、(42)、(43)に示すようになる。
う。ここで、Jother には、カメラCk に関する項が含
まれていないため、Jk の最小化によってRk,Tk が変
化しても、Jother は変化しない。
ラCk 上で得られる観測と、カメラCk と観測を共有す
るカメラの観測だけが必要となる。そのため、各カメラ
では、図8に示すように、それぞれのカメラに関する情
報だけを保存すればよいことになり、各カメラで保存す
べきカメラ位置・姿勢推定に必要な情報量を減らすこと
ができる。
してそれぞれ独立に最小化を行うことにより、最終的に
システム全体の誤差Jall を最小化することが可能とな
る。
に必要な観測データの保存やカメラ位置・姿勢の推定処
理が各カメラで分散して行えるため、分散システムに適
していると考えられる。
最小化について説明する。
メラの位置・姿勢推定
最小化し、カメラCk の位置,姿勢Tk ,Rk を推定す
る方法について説明する。
計算
勢が既知または位置・姿勢初期推定値が決定済であり、
一定数以上の観測を共有するカメラ群G(G={Cg1,
Cg2 , …, Cgm})を選択する。
の観測を共有するカメラCl との相対関係から、カメラ
Ck の世界座標系での姿勢推定値Rk を、次式(44)
に基づいて計算する。
Eklを固有値分解、特異値分解を用いてrklとtklに分
解することにより計算できる(文献17参照)。
oimonos. Optimal computing of structure from motio
n using point corrspondences in two frames. In Pro
c. of ICCV, pp. 449-453, 1998.
て、Jk ’を次式(45)のように定義する。
を最小とするTk を算出する。
のようにして計算したカメラCk の位置・姿勢推定値T
k ,Rk を、初期の位置・姿勢推定値Tk (1) ,Rk
(1) とする。
満たすTk を求めれば良い。
8)に示すように、R1,…, RN ,T1,…, TN の関数
として計算することができる。
り行う。
ω1 Δω2 Δω3 )、微小回転行列をΔRとする
と、ΔRは次式(49)で表される。
て、次式(50)を満たすような(Δω1 Δω2 Δ
ω3 )を計算する(上記文献17参照)。
最小とするRk を求めることができる。
置、姿勢を求めることができる。さらに全てのカメラで
以上の手順を繰り返すことにより、上記式(40)を満
たす全カメラの位置・姿勢を求めることができる。
除
システムに新規カメラを設置する場合には、初期校正時
と同様に観測を共有する姿勢既知の周囲のカメラとの相
対関係から初期姿勢を計算し、位置・姿勢推定を開始す
る。
から削除するカメラに関する項を削除する。
2カメラ間での同時刻の観測結果が必要である。しかし
ながら、上記〔1〕で述べた人物追跡システムは非同期
システムであり、一般に各観測の起こる時刻は異なる。
そのため、2カメラ間での観測の時間差を補正する必要
がある。
元観測位置をxk (t)とする。カメラCk による観測
xk (t1 ),xk (t3 )、カメラCl による観測x
l (t2 )が得られたとする。ここで、t1 <t2 <t
3 、t3 −t1 <εとする。
測位置をハット記号(∧)付きのx k (t2 )を、次式
(51)から求める。そして、得られたハット記号
(∧)付きのxk (t2 )と、xl (t2 )とをカメラ
Ck ,Cl 間での対応する観測として、カメラ位置・姿
勢推定に用いる。
験を行った。4台のカメラ(camera1-4)が図9のように
配置されており、世界座標系を決めるためにcamera1 の
位置・姿勢と、camera2 の位置を予め与えた。また、推
定値の推定値の精度評価を行うため、各カメラの位置・
姿勢を手作業により求めておく。
人物について約3分の観測を行った。このとき各カメラ
(camera1-4)で得られた2次元観測情報を図10に示
す。
で共有される観測情報を約500組得た。各カメラの位
置・姿勢は、この観測情報により更新される。
示す。図11において、左側のグラフはカメラ位置X、
Y、Zの推定結果を示している。図11において、右側
のグラフはカメラ姿勢を表すオイラー角α、β、γの推
定結果を示している。なお、これらのグラフの横軸はデ
ータ数を表している。
は位置・姿勢ともに大きな誤差を含んでいる。しかし、
データ数の増加に伴い推定誤差が減少しており、最終的
には位置で約10[cm]未満、姿勢で約3[deg] 未満の高
い推定精度が得られていることがわかる。
カメラと観測を共有する必要がなく、基準カメラと共有
されない局所的な観測もカメラの位置・姿勢推定に利用
することができるようになる。
る移動物体追跡システムにおいて、観測部の追加削除を
容易に行うことが可能となる。
ク図である。
模式図である。
す模式図である。
る。
模式図である。
するための模式図である。
る。
る。
元観測情報を示すグラフである。
Claims (8)
- 【請求項1】 複数のカメラを備えたシステムにおける
カメラの自動校正方法において、各カメラ毎に、周囲の
カメラと共有する観測情報と、周囲のカメラの現在の位
置および姿勢推定値とに基づいて、自己のカメラの位置
および姿勢推定値を更新するようにしたことを特徴とす
るカメラの自動校正方法。 - 【請求項2】 観測情報が、カメラの画像面上での観測
対象像の2次元座標値および観測対象像の大きさである
ことを特徴とする請求項1に記載のカメラの自動校正方
法。 - 【請求項3】 自己のカメラの位置および姿勢推定値を
更新するための処理は、 周囲の他のカメラと共有する観測情報と、自己のカメラ
および当該他のカメラの現在の位置および姿勢推定値と
に基づいて、自己のカメラと当該他のカメラとの相対姿
勢および相対位置に関する情報を算出する第1ステッ
プ、ならびに第1ステップによって算出された相対姿勢
および相対位置に関する情報に基づいて、自己のカメラ
の位置および姿勢推定値を更新する第2ステップ、 を備えていることを特徴とする請求項1および2のいず
れかに記載のカメラの自動校正方法。 - 【請求項4】 各カメラは、周囲の各カメラの姿勢推定
値、自己のカメラと周囲の各カメラとの姿勢推定精度に
関する情報、周囲の各カメラの位置推定値および自己の
カメラと周囲の各カメラとの位置推定精度に関する情報
を保持しており、 上記第2ステップは、上記第1ステップによって算出さ
れた相対姿勢に関する情報と、自己のカメラが保持して
いる周囲の各カメラの姿勢推定値および自己のカメラと
周囲の各カメラとの姿勢推定精度に関する情報とに基づ
いて、自己の姿勢推定値を更新するステップ、ならびに
上記第1ステップによって算出された相対位置に関する
情報と、自己のカメラが保持している周囲の各カメラの
位置推定値および自己のカメラと周囲の各カメラとの位
置推定精度に関する情報とに基づいて、自己の位置推定
値を更新するステップを備えていることを特徴とする請
求項3に記載のカメラの自動校正方法。 - 【請求項5】 自己のカメラの位置および姿勢推定値を
更新するための処理は、各カメラにおいて新たな観測情
報が得られる度に行われることを特徴とする請求項1、
2、3および4のいずれかに記載のカメラの自動校正方
法。 - 【請求項6】 世界座標を決定するために、最低限1台
のカメラの世界座標系での姿勢と、最低限2台のカメラ
の世界座標系での位置とが、基準として与えられている
ことを特徴とする請求項1、2、3、4および5のいず
れかに記載のカメラの自動校正方法。 - 【請求項7】 観測情報が、最低2台のカメラ間で共有
されるカメラの画像面上での観測対象像の2次元座標値
であることを特徴とする請求項1に記載のカメラの自動
校正方法。 - 【請求項8】 自己のカメラの位置および姿勢推定値を
更新するための処理においては、周囲の他のカメラと共
有する観測情報と、当該他のカメラの現在の位置および
姿勢推定値とに基づいて、自己のカメラの位置および姿
勢推定値を更新するといった処理が、各カメラ毎に分散
的に行われることを特徴とする請求項7に記載のカメラ
の自動校正方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003004247A JP2003279315A (ja) | 2002-01-16 | 2003-01-10 | カメラの自動校正方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002-7904 | 2002-01-16 | ||
JP2002007904 | 2002-01-16 | ||
JP2003004247A JP2003279315A (ja) | 2002-01-16 | 2003-01-10 | カメラの自動校正方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2003279315A true JP2003279315A (ja) | 2003-10-02 |
Family
ID=29252940
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003004247A Pending JP2003279315A (ja) | 2002-01-16 | 2003-01-10 | カメラの自動校正方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2003279315A (ja) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005233639A (ja) * | 2004-02-17 | 2005-09-02 | Mitsubishi Electric Corp | ステレオカメラシステムおよび該システムのステレオカメラ同士のキャリブレーション方法 |
JP2005241323A (ja) * | 2004-02-25 | 2005-09-08 | Advanced Telecommunication Research Institute International | 撮像システム及び校正方法 |
JP2006226965A (ja) * | 2005-02-21 | 2006-08-31 | Sumitomo Electric Ind Ltd | 画像処理装置、コンピュータプログラム、及び画像処理方法 |
JP2006250722A (ja) * | 2005-03-10 | 2006-09-21 | Toshiba Corp | キャリブレーション装置及びその方法、キャリブレーション用プログラム |
JP2008304269A (ja) * | 2007-06-06 | 2008-12-18 | Sony Corp | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
JP2009186288A (ja) * | 2008-02-05 | 2009-08-20 | Canon Inc | 画像処理装置、画像処理方法 |
JP2010510697A (ja) * | 2006-11-20 | 2010-04-02 | アデレード リサーチ アンド イノヴェーション ピーティーワイ エルティーディー | ネットワーク監視システム |
JP2010119117A (ja) * | 2009-12-25 | 2010-05-27 | Panasonic Corp | 撮影システム、移動カメラおよび撮影方法 |
JP2011076573A (ja) * | 2009-10-02 | 2011-04-14 | Fujitsu Ltd | 監視カメラシステム及びその異常検出方法 |
JP2012522231A (ja) * | 2009-03-31 | 2012-09-20 | アルカテル−ルーセント | 第1の画像デバイスおよび第2の画像デバイスの相対位置を決定する方法及びこれらデバイス |
JP2013515959A (ja) * | 2009-12-24 | 2013-05-09 | コグネックス・コーポレイション | カメラのミスキャリブレーションの実行時決定のためのシステムと方法 |
WO2016111066A1 (ja) * | 2015-01-07 | 2016-07-14 | ソニー株式会社 | 情報処理装置、情報処理方法、および情報処理システム |
JP2019095345A (ja) * | 2017-11-24 | 2019-06-20 | 国立大学法人 岡山大学 | 物体識別システム |
JP2020042028A (ja) * | 2018-09-07 | 2020-03-19 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | コレクターの相対パラメータのキャリブレーション方法、装置、機器及び媒体 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000348181A (ja) * | 1999-03-26 | 2000-12-15 | Atr Media Integration & Communications Res Lab | 移動物体追跡装置 |
JP2002005625A (ja) * | 2000-06-27 | 2002-01-09 | Atr Media Integration & Communications Res Lab | カメラの自動校正方法 |
-
2003
- 2003-01-10 JP JP2003004247A patent/JP2003279315A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000348181A (ja) * | 1999-03-26 | 2000-12-15 | Atr Media Integration & Communications Res Lab | 移動物体追跡装置 |
JP2002005625A (ja) * | 2000-06-27 | 2002-01-09 | Atr Media Integration & Communications Res Lab | カメラの自動校正方法 |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005233639A (ja) * | 2004-02-17 | 2005-09-02 | Mitsubishi Electric Corp | ステレオカメラシステムおよび該システムのステレオカメラ同士のキャリブレーション方法 |
JP2005241323A (ja) * | 2004-02-25 | 2005-09-08 | Advanced Telecommunication Research Institute International | 撮像システム及び校正方法 |
JP2006226965A (ja) * | 2005-02-21 | 2006-08-31 | Sumitomo Electric Ind Ltd | 画像処理装置、コンピュータプログラム、及び画像処理方法 |
JP2006250722A (ja) * | 2005-03-10 | 2006-09-21 | Toshiba Corp | キャリブレーション装置及びその方法、キャリブレーション用プログラム |
JP2014078962A (ja) * | 2006-11-20 | 2014-05-01 | Adelaide Research And Innovation Pty Ltd | ネットワーク監視システム |
US9185355B2 (en) | 2006-11-20 | 2015-11-10 | Snap Network Surveillance Pty Limited | Network surveillance system |
JP2010510697A (ja) * | 2006-11-20 | 2010-04-02 | アデレード リサーチ アンド イノヴェーション ピーティーワイ エルティーディー | ネットワーク監視システム |
JP2008304269A (ja) * | 2007-06-06 | 2008-12-18 | Sony Corp | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
JP2009186288A (ja) * | 2008-02-05 | 2009-08-20 | Canon Inc | 画像処理装置、画像処理方法 |
JP2012522231A (ja) * | 2009-03-31 | 2012-09-20 | アルカテル−ルーセント | 第1の画像デバイスおよび第2の画像デバイスの相対位置を決定する方法及びこれらデバイス |
JP2011076573A (ja) * | 2009-10-02 | 2011-04-14 | Fujitsu Ltd | 監視カメラシステム及びその異常検出方法 |
JP2013515959A (ja) * | 2009-12-24 | 2013-05-09 | コグネックス・コーポレイション | カメラのミスキャリブレーションの実行時決定のためのシステムと方法 |
US11699247B2 (en) | 2009-12-24 | 2023-07-11 | Cognex Corporation | System and method for runtime determination of camera miscalibration |
JP2010119117A (ja) * | 2009-12-25 | 2010-05-27 | Panasonic Corp | 撮影システム、移動カメラおよび撮影方法 |
WO2016111066A1 (ja) * | 2015-01-07 | 2016-07-14 | ソニー株式会社 | 情報処理装置、情報処理方法、および情報処理システム |
US10489929B2 (en) | 2015-01-07 | 2019-11-26 | Sony Corporation | Information processing apparatus, information processing method, and information processing system |
JP2019095345A (ja) * | 2017-11-24 | 2019-06-20 | 国立大学法人 岡山大学 | 物体識別システム |
JP2020042028A (ja) * | 2018-09-07 | 2020-03-19 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | コレクターの相対パラメータのキャリブレーション方法、装置、機器及び媒体 |
US10984556B2 (en) | 2018-09-07 | 2021-04-20 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and apparatus for calibrating relative parameters of collector, device and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7212228B2 (en) | Automatic camera calibration method | |
WO2021035669A1 (zh) | 位姿预测方法、地图构建方法、可移动平台及存储介质 | |
CN108829232B (zh) | 基于深度学习的人体骨骼关节点三维坐标的获取方法 | |
JP2023175052A (ja) | 3次元空間内の姿勢推定 | |
CN112304307A (zh) | 一种基于多传感器融合的定位方法、装置和存储介质 | |
JP2003279315A (ja) | カメラの自動校正方法 | |
JP5480667B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、プログラム | |
CN110726406A (zh) | 一种改进的非线性优化单目惯导slam的方法 | |
JP2007310707A (ja) | 姿勢推定装置及びその方法 | |
Cheng et al. | Improving visual localization accuracy in dynamic environments based on dynamic region removal | |
JP2019185557A (ja) | 画像解析装置、方法およびプログラム | |
KR101193223B1 (ko) | 인체 동작의 3d 모션 구현방법 | |
JP3411889B2 (ja) | カメラの自動校正方法 | |
CN111489392B (zh) | 多人环境下单个目标人体运动姿态捕捉方法及系统 | |
Martínez-González et al. | Residual pose: A decoupled approach for depth-based 3D human pose estimation | |
JP3520050B2 (ja) | 移動物体追跡装置 | |
JP3401512B2 (ja) | 移動物体追跡装置 | |
Zhu et al. | Enhancing accuracy in visual slam by tightly coupling sparse ranging measurements between two rovers | |
JP2007109126A (ja) | 移動体分布推定装置、移動体分布推定方法及び移動体分布推定プログラム | |
CN111583331B (zh) | 用于同时定位和地图构建的方法及装置 | |
CN111598927A (zh) | 一种定位重建方法和装置 | |
JPH07302341A (ja) | 姿勢検出装置および方法 | |
Datta et al. | Linearized motion estimation for articulated planes | |
Li et al. | IMU-Assisted Uncertainty-Weighted Attitude Estimation Algorithm from Non-Corresponding Points | |
CN116385663B (zh) | 动作数据生成方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050419 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070914 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071009 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071204 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080710 |