JP2003279315A - カメラの自動校正方法 - Google Patents

カメラの自動校正方法

Info

Publication number
JP2003279315A
JP2003279315A JP2003004247A JP2003004247A JP2003279315A JP 2003279315 A JP2003279315 A JP 2003279315A JP 2003004247 A JP2003004247 A JP 2003004247A JP 2003004247 A JP2003004247 A JP 2003004247A JP 2003279315 A JP2003279315 A JP 2003279315A
Authority
JP
Japan
Prior art keywords
camera
cameras
observation
information
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003004247A
Other languages
English (en)
Inventor
Akira Uchiumi
章 内海
Hirotake Yamazoe
大丈 山添
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2003004247A priority Critical patent/JP2003279315A/ja
Publication of JP2003279315A publication Critical patent/JP2003279315A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 この発明は、全てのカメラが基準カメラと観
測を共有する必要がなく、基準カメラと共有されない局
所的な観測もカメラの位置・姿勢推定に利用することが
できるようになるカメラの自動校正方法を提供すること
を目的とする。 【解決手段】 複数のカメラを備えたシステムにおける
カメラの自動校正方法において、各カメラ毎に、周囲の
カメラと共有する観測情報と、周囲のカメラの現在の位
置および姿勢推定値とに基づいて、自己のカメラの位置
および姿勢推定値を更新するようにした。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は、カメラの自動校
正方法に関する。
【0002】
【従来の技術】本発明者らは、計算機との非接触インタ
フェースを目指し、人間の動きを画像処理によって検出
する手法を検討している(文献1,2,3参照)。
【0003】文献1: Hiroki Mori, Akira Utsumi, Ju
n Ohya, and Masahiko Yachida. Human tracking syste
m using adaptive camera selection. In Proc. of RO
_MAN '98, pp. 494-499, 1998.文献2:森大樹,内海
章,大谷淳,谷内田正彦.非同期多視点情報を用いた複
数人物追跡手法の検討.信学技報,PRMU98-178, p
p. 15-22, 1999.文献3: Howard Yang, 内海章,大谷
淳. 非同期多視点画像を用いた複数人物追跡の安定化.
信学技報,PRMU99-150, pp. 1-7, 1999.
【0004】人間の動き情報としては種々のものが考え
られるが、ここでは、各人物の同定に必要な顔画像、背
丈、服の色等の抽出、追跡に必要な位置・移動方向の検
出、さらに着座動作を含むいくつかの動作について検討
している。これらの動作情報を検出することにより、仮
想環境でのインタラクション、監視システムといった応
用が可能となる。
【0005】従来から画像を用いた人物追跡については
多くの提案があったが、その多くは単眼または2眼画像
によるものであり(文献4,5,6,7参照)、オクル
ージョンに対応できない、検出エリアが狭い、といった
問題があった。
【0006】文献4:D. M. Gavrila and L. S. Davis.
3-d model-based tracking of humans in action: a m
ulti-view approach. In Proc. of CVPR '96, pp. 73-8
0, 1996. 文献5:Ali Azarbayejani and Alex Pentland. Real-t
ime self-calibratingstereo person tracking using 3
-d shape estimation from blob features. In 13th In
ternational Conference on Pattern Recognition, pp.
627-632, 1996. 文献6:C. Wren, A. Azarbayejani, T. Darrell, and
A. Pentland. P finder: Real-time tracking of the h
uman body. In SPIE proceeding vol. 2615, pp. 89-9
8, 1996. 文献7:M. Patrick Johnson, P. Maes,and T. Darrel
l. Evolving visual routines. In Proc. of Artificia
l Life IV, pp. 198-209, 1994.
【0007】これらの問題を解決するため、近年、多視
点画像を利用した人物追跡システムが盛んに研究されて
いる(文献8,9,10参照)。多視点画像を利用する
ことで、オクルージョンの発生を低減し、より安定した
検出が可能になると考えられる。
【0008】文献8:Jakub Segen and Sarma Pingali.
A camera-based system for tracking people in real
time. In Proc. of 13th International Conference o
n Pattern Recognition, pp. 63-67, 1996. 文献9:Q. Cai, A. Mitiche, and J. K. Aggarwal. Tr
acking human motionin an indoor environment. In Pr
oc. of 2nd International Conference on Image Proce
ssing, pp. 215-218, 1995. 文献10:Q. Cai, J. K. Aggarwal. Tracking human m
otion using multiplecameras. In Proc. of 13th Inte
rnational Conference on Pattern Recognition, pp. 6
8-72, 1996.
【0009】しかし、このようなシステムで広範囲の人
間の動きを追跡するには検出エリアに合わせて多くのカ
メラが必要になり、そのために生じる問題も多い。例え
ば、多くのビジョンシステムは、3次元計測のために各
カメラが同時刻に観測を行うことを前提としており、そ
のための同期機構の導入によりシステムが複雑化する。
さらに、複数の観測を同時に行うことは観測間の冗長性
を増大させ、システムの処理効率を低下させる。また、
多数のカメラの全てをあらかじめ校正しておくことは、
視点数(カメラ数)が増えるにしたがって困難になる。
【0010】これらの問題は、利用する視点数が増加す
るに伴ってより顕著になると考えられる。本発明者ら
は、多視点画像による追跡システムにおいては、これら
規模の拡大によって生じる問題が本質的であると考えて
いる。
【0011】そこで、多視点画像による追跡システムに
おけるカメラの位置・姿勢推定(カメラ校正)について
考えることにする。多視点画像による追跡システムで
は、事前のカメラ校正に加えて、運用中の障害によるカ
メラ位置・姿勢の変化への対応など維持・管理のための
手法の確立も重要となる。
【0012】多視点画像による追跡システムにおけるカ
メラ校正については既にいくつかの手法が提案されてい
る。
【0013】文献11において、斉藤らは2台の基準カ
メラと他のカメラ間の基礎行列を両者間で共有する観測
を用いて求めることで、大規模な3次元映像システムの
構築を容易にした。
【0014】文献11: Hideo Saito and Takeo Kanad
e. Shape reconstruction in projective grid space f
rom large number of images. In Proc. of CVPR, pp.
49-54, 1999.
【0015】また、文献12において、Lee らは、平面
上を運動する対象物体を利用して基準カメラと各カメラ
とで共有する観測により、基準カメラからの相対位置・
姿勢を求める手法を提案した。
【0016】文献12: L. Lee, R. Romano, and G. S
tein. Monitoring activities frommultiple video str
eams: Establishing a common coordinate frame. IEEE
Pattern Anal. Machine Intell., Vol. 22, No. 8, p
p. 758-767, 2000.
【0017】しかしながら、これらの手法は、校正対象
のカメラと基準カメラとが観測を共有していない場合に
は、適用できないという問題がある。
【0018】これに対して、本発明者らは、追跡中の人
物の3次元運動を利用してカメラの位置・姿勢を推定す
る手法を提案した(文献13参照)。しかしながら、こ
の手法では、人物の運動を求めるために複数の校正済カ
メラを要する。
【0019】文献13: Hirotake Yamazoe, Akira Utu
mi, Nobuji Tetsutani, and Masahiko Yachida. Automa
tic camera calibration method for multiple camera
based human tracking system. In Proc. of IWAIT 200
1, pp. 77-82, 2001.
【0020】
【発明が解決しようとする課題】この発明は、全てのカ
メラが基準カメラと観測を共有する必要がなく、基準カ
メラと共有されない局所的な観測もカメラの位置・姿勢
推定に利用することができるようになるカメラの自動校
正方法を提供することを目的とする。
【0021】また、この発明は、多視点画像による移動
物体追跡システムにおいて、観測部の追加削除を容易に
行うことが可能となる、カメラの自動校正方法を提供す
ることを目的とする。
【0022】
【課題を解決するための手段】この発明は、複数のカメ
ラを備えたシステムにおけるカメラの自動校正方法にお
いて、各カメラ毎に、周囲のカメラと共有する観測情報
と、周囲のカメラの現在の位置および姿勢推定値とに基
づいて、自己のカメラの位置および姿勢推定値を更新す
るようにしたことを特徴とする。
【0023】観測情報は、たとえば、カメラの画像面上
での観測対象像の2次元座標値および観測対象像の大き
さである。
【0024】自己のカメラの位置および姿勢推定値を更
新するための処理は、たとえば、周囲の他のカメラと共
有する観測情報と、自己のカメラおよび当該他のカメラ
の現在の位置および姿勢推定値とに基づいて、自己のカ
メラと当該他のカメラとの相対姿勢および相対位置に関
する情報を算出する第1ステップ、ならびに第1ステッ
プによって算出された相対姿勢および相対位置に関する
情報に基づいて、自己のカメラの位置および姿勢推定値
を更新する第2ステップを備えている。
【0025】各カメラは、周囲の各カメラの姿勢推定
値、自己のカメラと周囲の各カメラとの姿勢推定精度に
関する情報、周囲の各カメラの位置推定値および自己の
カメラと周囲の各カメラとの位置推定精度に関する情報
を保持している。そして、上記第2ステップは、上記第
1ステップによって算出された相対姿勢に関する情報
と、自己のカメラが保持している周囲の各カメラの姿勢
推定値および自己のカメラと周囲の各カメラとの姿勢推
定精度に関する情報とに基づいて、自己の姿勢推定値を
更新するステップ、ならびに上記第1ステップによって
算出された相対位置に関する情報と、自己のカメラが保
持している周囲の各カメラの位置推定値および自己のカ
メラと周囲の各カメラとの位置推定精度に関する情報と
に基づいて、自己の位置推定値を更新するステップを備
えている。
【0026】自己のカメラの位置および姿勢推定値を更
新するための処理は、各カメラにおいて新たな観測情報
が得られる度に行われることが好ましい。世界座標を決
定するために、最低限1台のカメラの世界座標系での姿
勢と、最低限2台のカメラの世界座標系での位置とが基
準として与えられていることが好ましい。
【0027】観測情報は、たとえば、最低2台のカメラ
間で共有されるカメラの画像面上での観測対象像の2次
元座標値である。この場合には、自己のカメラの位置お
よび姿勢推定値を更新するための処理においては、たと
えば、周囲の他のカメラと共有する観測情報と、当該他
のカメラの現在の位置および姿勢推定値とに基づいて、
自己のカメラの位置および姿勢推定値を更新するといっ
た処理が、各カメラ毎に分散的に行われる。
【0028】
【発明の実施の形態】以下、図面を参照して、この発明
の実施の形態について説明する。
【0029】まず、本発明者らが既に開発している非同
期多視点画像による人物追跡システムについて説明し、
その後に本願発明の特徴であるカメラの自動校正方法に
ついて説明する。
【0030】〔1〕人物追跡システムについての説明 〔1−1〕人物追跡システムの全体的な構成についての
説明
【0031】図1は、人物追跡システムの全体的な構成
を示している。
【0032】人物追跡システムは、カメラ2#1、2#
2、…、2#n(以下、総称的にはカメラ2という)、
各カメラに対応して設けられた観測部4#1、4#2、
…、4#n(以下、総称的には観測部4という)、発見
部6および追跡部8を備えている。各観測部4、発見部
6および追跡部8は、たとえば、異なる計算機で構成さ
れ、それぞれの計算機はLANによって接続されてい
る。
【0033】各観測部4は、対応するカメラ2から得ら
れた入力画像に基づいて特徴量抽出処理を行う。各観測
部4で得られた特徴量(代表点位置、頭頂点位置、服領
域の色等)は、追跡部8から送られてくる予測位置情報
をもとに追跡モデルと対応付けられた後、観測時刻情報
とともに追跡部8に送られる。追跡モデルと対応付けら
れた後に、各観測部4から追跡部8に送られる情報を対
応点の観測情報ということにする。
【0034】追跡モデルとの対応がとれなかった特徴量
は発見部6に送られる。追跡モデルとの対応がとれなか
ったときに、各観測部4から発見部6に送られる情報を
未対応点の観測情報ということにする。なお、各観測部
4は独立に動作する。
【0035】発見部6では、観測部4から送られてきた
未対応点の観測情報を用いて、シーン中に新たに現れた
人物の検出を行う。新規人物の位置情報(初期値)は追
跡部8に送信され、追跡部8による追跡が開始される。
【0036】追跡部8は、新規人物の位置情報を初期値
とし、対応点の観測情報を入力値として、カルマンフィ
ルタを用いて人物状態(位置・方向角・背丈等)を更新
し、さらに後述する観測モデルに基づいて位置を予測す
る。予測位置情報は観測部4に送信される。
【0037】〔1−2〕観測部についての説明
【0038】観測部4によって行なわれる処理について
説明する。まず、入力画像を人物領域と背景領域に分割
する。領域分割手法としては、文献14に記載されてい
る手法を用いることができる。
【0039】文献14:内海章,大谷淳. 画素値分布の
推定による時系列画像からの動物体領域抽出. 信学論,
Vol.J81-D-II, No. 8, pp. 1768-1775, 1998.
【0040】次に、得られた人物領域に対して距離変換
を行う。つまり、人物領域を構成する各画素毎に、各画
素から人物領域の境界までの最短距離を求めて、得られ
た距離を当該画素の距離変換値とする。この結果、距離
変換された画像における人物領域内の各画素は、最近傍
の領域境界までの距離に応じた距離変換値を持つ。
【0041】図2(a)は領域分割によって得られた2
値化画像を示し、図2(b)は距離変換によって得られ
た距離変換画像を示している。図2(b)では、距離変
換値が大きい画素ほど黒く表されている。
【0042】次に、人物領域内で距離変換値が最大とな
る点(重心点)Gをその領域の代表点(特徴点)として
選択する。さらに、画像中から頭頂点と足先点の位置、
胴体部分の色情報を抽出する。色情報は異なるカメラ間
での画像特徴の対応付けに用いられる。頭頂点と足先点
との画像上での距離は、特徴点(代表点)の大きさとし
て利用される。この後、抽出された特徴点と既に発見さ
れている追跡モデルとの間の対応付けを行なう。
【0043】抽出された特徴点と既に発見されている追
跡モデルと間の対応付けの方法について説明する。後述
するように、追跡部8では人物が等速運動をしていると
仮定しており、時刻tにおける人物hj の予測位置は2
次元のガウス分布で表される。ここでは、時刻tにおけ
る人物hj の世界座標(X,Y)系での予測位置をX
hj,t、その平均をX ̄hj,t、共分散行列をS ̄hj,tとす
る。
【0044】予測位置の分布N(X ̄hj,t,S ̄hj,t
を画像iに弱透視投影した結果は、次式(1)で示され
る確率Pi (xi )からなる1次元ガウス分布n(x ̄
hj,t ,i,s ̄hj,t,i)となり、これは画像i上での人物
の存在確率を示している。ここで、x ̄hj,t,iは、X ̄
hj,tを画像面上に投影したものを表し、s ̄hj,t,iはS
hj,tを画像面上に投影したものを表している。
【0045】
【数1】
【0046】頭頂点の高さおよび服の色の分布も考慮
し、追跡モデルに対して観測値の生起確率を最大にする
特徴点を観測時間での人物hj に対応する観測とし、h
j のラベルを付ける(上記文献3参照)。
【0047】ラベル付けられた特徴点は、対応点の観測
情報として追跡部8に送信される。ただし、複数の人物
に対応付けられた特徴点は、観測時にオクルージョンが
発生していると判断し、送信されない。
【0048】これらの処理の後、対応付けがされていな
い特徴点が存在する場合には、これらの特徴点は、新規
人物に属すると考えられるので、未対応点の観測情報
(位置・時刻)として発見部6に送られる。
【0049】〔1−3〕発見部についての説明
【0050】発見部6は、新たにシーンに登場した人物
を検出し、対応するモデルを追跡部8に追加する。
【0051】観測情報は非同期に獲得されるため、通常
のステレオ対応をそのまま適用することはできない。そ
こでカルマンフィルタを利用した時系列情報による対応
(発見)手法を用いる(上記文献2参照)。
【0052】観測部4から発見部6に送られてきた未対
応点の観測情報のうち、異なる4時刻の観測情報を各1
点ずつ選出してカルマンフィルタの更新処理を行い、得
られた予測軌跡と各観測情報の誤差が一定の閾値以内で
あれば、新規人物に属する特徴点集合とし、最新観測時
刻における推定位置を初期発見位置として追跡部8に送
信する。
【0053】〔1−4〕追跡部についての説明
【0054】追跡中の人物モデルは、各観測部4におい
て追跡モデルと対応付けられた画像特徴を用いて更新さ
れる(上記文献2参照)。
【0055】図3は、位置推定に用いられる観測モデル
を示している。図3において、liはカメラ2#iとそ
の画像面20#iとの距離(焦点距離)を示し、Lhj,i
はカメラ2#iと人物hjとの距離を示している。ま
た、ψhj,iはカメラ2#iと人物hjとを結ぶ線とY軸
とのなす角度を示している。
【0056】ここでは、人物hjは等速度運動をしてい
るものと仮定し、時刻tにおける人物hj の状態を、世
界座標(X,Y)系上で、次式(2)で表す。
【0057】
【数2】
【0058】上部に”・”が付けられた記号XhjはX方
向の速度を、上部に”・”が付けられた記号YhjはY方
向の速度をそれぞれ表している。ただし初期状態は、発
見部6から送信される新規モデル情報によって決定され
る。行列に付される”’”は転置を表している。
【0059】ここで観測部4#iにより、1回の観測が
行われたとする。観測部4#iから送られてきた観測情
報により、この観測は次式(3)のように表すことがで
きる。
【0060】
【数3】
【0061】ここでCi はカメラ位置、Rψhj,t,iはエ
ピポーラ線とY軸のなす角度ψhj,t ,iの時計回りの回転
である(H=[1000])。eは観測誤差で平均0、
標準偏差σhj,t,iとする。σhj,t,iはカメラからの距離
が大きくなるほど増加すると考え、次式(4)のように
表す。
【0062】
【数4】
【0063】ここで、カメラCi と人物Xhj,tとの間の
距離Lhj,t,iは未知のため、Xhj,tの予測位置X ̄hj,t
により計算したL ̄hj,t,iで近似する。
【0064】以上の観測モデルによりカルマンフィルタ
を構成し、人物hj の状態を更新する。
【0065】各カメラ毎に独立に更新処理を行い、人物
状態予測を行う。時刻t+1における人物hj の状態予
測は、平均をX ̄hj,t+1、共分散行列をS ̄hj,t+1とす
るガウス分布で与えられる。状態予測結果は、観測部4
の要求に応じて計算・送信され、上述したように特徴点
の対応付けに利用される。検出範囲外へ移動した人物モ
デルは削除し、その人物の追跡を中止する。
【0066】上記人物追跡システムでは、各カメラ2に
よる観測を独立した観測部4によって処理しており、カ
メラの追加、削除が容易に行えるという利点を持ってい
る。このような分散型の追跡システムでは、カメラの位
置・姿勢情報についても、各カメラが独立に維持・管理
することが処理効率・対障害性の確保から望ましいとい
える。以下、本発明の特徴である分散型のカメラ位置・
姿勢推定アルゴリズムについて説明する。
【0067】〔2〕カメラ位置・姿勢推定アルゴリズム
(カメラ校正アルゴリズム)の説明
【0068】多数のカメラの位置・姿勢を同時に推定す
るためには、現在の推定値、共分散行列等の校正情報を
保持する必要があるが、カメラ数の増加とともに保持す
べき校正情報量も増加し、大規模なシステムで全てのカ
メラの位置・姿勢推定に関する情報を一元的に保持する
ことは困難となる。
【0069】そこで、カメラの位置・姿勢推定に関する
情報は、各カメラ(観測部)毎に分散して保持される。
【0070】図4は、カメラ位置・姿勢推定の流れを示
している。
【0071】図4において、Ci (i=1,2,…k,
…,N)はカメラを、ti は各カメラの位置を、Ri
各カメラの姿勢を、Σiiは位置推定値に関する共分散行
列を、Mijは姿勢推定値に関する行列を示している。
【0072】各カメラCi は、新たな観測が得られるた
びに周囲のカメラと共有する観測情報と、周囲のカメラ
のその時点での位置推定値および姿勢推定値を用いて自
身の位置および姿勢を修正する。ここで、周囲のカメラ
とは、自己のカメラと観測情報を共有する可能性がある
カメラをいう。位置および姿勢を修正する際、基準カメ
ラの位置・姿勢にはより高い重みが与えられる。なお、
この実施の形態では、世界座標を決定するために、カメ
ラ1台の姿勢と、カメラ2台の位置が基準として与えら
れる。
【0073】〔2−1〕位置・姿勢推定に用いられる観
測情報についての説明
【0074】位置・姿勢推定値の更新に利用する観測情
報について説明する。
【0075】ここでは、カメラCk について、カメラC
l と共有する複数回の観測から、カメラCk とカメラC
l との間の相対姿勢(Rl k -1)に関する行列m
klと、カメラCk のカメラ座標系でのカメラCl の方向
(相対位置)ykl(=Rk (tl−tk ))とが観測情
報として得られるものとする。なお、相対姿勢に関する
行列mklと相対位置yklとは、上述した画像特徴(代表
点位置、頭頂点と足先点との画像上での距離)から求め
られるが、その方法については後述する。
【0076】相対姿勢に関する行列mklは、次のように
定義される。
【0077】カメラCk ,Cl と同じ姿勢を持つカメラ
k ’,Cl ’がともに世界座標原点にあるとする。カ
メラCk ,Cl の姿勢をRk ,Rl とすると、Ck ’の
カメラ座標系上での方向Xk,d に観測される観測点d
は、カメラCl ’上では次式(5)で示す方向Xl,d
観測される。
【0078】
【数5】
【0079】上記式(5)において、eは観測誤差であ
る。
【0080】相対姿勢に関する行列mklは、次式(6)
に基づいて算出される。
【0081】
【数6】
【0082】上記式(6)において、Xl,d に付された
記号”’”は転置を表している。fは観測回数を表して
いる。カメラCk ,Cl 間の相対姿勢Rl k -1は、上
記式(6)から、特異値分解を利用して求めることがで
きる(文献15参照)。
【0083】文献15: F.Landis Markley. Attitude
determination using vector observations and the s
ingular value decomposition. the Journal of the As
tronautical Sciences, Vol. 36, No.3, pp. 245-258,
1988.
【0084】図5に示すように、カメラCk と各カメラ
について求まった相対姿勢に関する行列mkiおよび相対
位置ykiから、カメラCk の位置tk および姿勢Rk
推定される。
【0085】〔2−2〕位置・姿勢の更新についての説
【0086】以下、カメラCk から見たカメラCk ,C
l 間の相対姿勢に関する行列mklおよび相対位置ykl
用いてカメラCk の位置tk および姿勢Rk を更新する
ことについて説明する。
【0087】〔2−2−1〕初期状態 まず、各カメラの位置ti 、位置推定値に関する共分散
行列Σii、姿勢Ri 、姿勢推定に関する行列Mijの初期
状態について説明する。
【0088】位置の基準となる基準カメラCt1, … C
tn(n≧2)については、世界座標上での位置tt1 ,
tnを初期値として与える。
【0089】共分散行列Σiiについては、次式(7)に
示すような初期値を与える。
【0090】
【数7】
【0091】上記式(7)において、p1 ,p2 は重み
付け定数であり、p1 ≪p2 である。また、Iは単位行
列である。
【0092】姿勢の基準となる基準カメラCr1, … C
rm(m≧1)については、世界座標上での姿勢Rr1 ,
rmを初期として与える。
【0093】姿勢推定値に関する行列Mijについては、
次式(8)に示すような初期値を与える。
【0094】
【数8】
【0095】上記式(8)において、q1 ,q2 は重み
付け定数であり、q1 ≫q2 である。また、Iは単位行
列である。
【0096】〔2−2−2〕位置・姿勢の更新 新たに観測が得られる度に、各カメラでの推定値を局所
的に最適化することにより、最終的に全カメラの位置・
姿勢推定値を得る。
【0097】図5に示すように、カメラCk は、自己の
周囲にある全てのカメラCi (i≠k)の位置推定値t
i 、姿勢推定値Ri 、位置推定値に関する共分散行列
(位置推定精度に関する情報)Σii、自己の姿勢に関す
る行列Mkk、さらに自己とカメラCi との間の相対姿勢
に関する行列(姿勢推定精度に関する情報)Mkiを保持
している。
【0098】カメラCk において、新たな観測ykl、m
klが得られたときの姿勢推定値Riおよび位置推定値t
i の更新方法について説明する。
【0099】まず、姿勢推定値Ri の更新について説明
する。
【0100】カメラCk は、周囲のカメラの姿勢推定値
i と、カメラCk と各カメラCiとの相対姿勢に関す
る行列Mklを保持している。
【0101】ここで、観測により得られた相対姿勢に関
する行列mklと次式(9)とを用いて、行列Mklを更新
する。次式(9)において添字(t)および(t−1)
は、時点を表している。
【0102】
【数9】
【0103】上記式(9)において、uは忘却係数であ
る。
【0104】次に、次式(10)を用いて、自己の姿勢
に関する行列Mkkを更新する。この際、Mkl (t) として
は、更新された行列Mklが用いられる。
【0105】
【数10】
【0106】新たな姿勢推定値Rk は、Mkkを特異値分
解することによって得られる。
【0107】次に、位置推定値ti の更新について説明
する。
【0108】カメラCk は、各カメラの位置に関して現
時点での位置推定値ti と、各カメラとの共分散行列Σ
iiを保持している。
【0109】観測により得られた相対位置yklと次式
(11)とを用いて、新たな位置推定値tk を求める。
【0110】
【数11】
【0111】上記式(11)において、Hは、次式(1
2)で表される。
【0112】
【数12】
【0113】Rklは、次式(13)を満たす回転行列で
ある。
【0114】
【数13】
【0115】また、位置推定値に関する共分散行列Σkk
を、次式(14)を用いて、更新する。
【0116】
【数14】
【0117】ただし、Kは、次式(15)で表される。
【0118】
【数15】
【0119】上記式(15)において、Gは、観測誤差
である。
【0120】なお、上記式(11)、(12)、(1
4)、(15)は、カルマンフィルタの更新式である。
【0121】〔2−3〕画像特徴からmkl,yklを求め
る方法についての説明 図6に示すように、世界座標系(XYZ)における人物
(特徴点)の3次元位置XのカメラCk の画像面上の観
測位置をxk とし、3次元位置XのカメラClの画像面
上の観測位置をxl とする。
【0122】カメラCk の内部パラメータ行列Ak を既
知とすると、世界座標系における人物の3次元位置X
と、カメラCk の画像面上での当該人物の観測位置xk
との関係は、世界座標系に対するカメラCk の姿勢を表
す回転行列Rk と位置を表す並進ベクトルtk とにより
次式(16)のように表される。
【0123】
【数16】
【0124】ここで、カメラCk のカメラ座標系(Xck
ckck)での上記人物の3次元位置をXckとすると、
ckとXとの間には次式(17)の関係が成立する。
【0125】
【数17】
【0126】つまり、カメラCk の画像面上での人物の
観測位置xk と、カメラCk のカメラ座標系での当該人
物の3次元位置Xckとの関係は、次式(18)で表され
る。
【0127】
【数18】
【0128】上記式(18)を変形することによって、
次式(19)が得られる。
【0129】
【数19】
【0130】Xck のz成分をZxck とすると、Zxck
は次式(20)で表される。
【0131】
【数20】
【0132】一方、画像特徴に関して弱透視変換を仮定
し、画像面上での特徴点xk の大きさ(この実施の形態
では、頭頂点と足先点との画像上での距離)をwk とす
ると、Zxck は次式(21)で表される。
【0133】
【数21】
【0134】上記式(20)と上記式(21)とによ
り、次式(22)が成立する。
【0135】
【数22】
【0136】a3 =〔0 0 1〕であるため、式(2
2)は、次式(23)に書き換えられる。
【0137】
【数23】
【0138】上記式(18)と上記式(23)から、次
式(24)が得られる。
【0139】
【数24】
【0140】カメラCl のカメラ座標系(Xcl
clcl)での上記人物の3次元位置をXclとすると、X
clもXckと同様に求められ、次式(25)で表される。
【0141】
【数25】
【0142】上記式(25)において、Al はカメラC
l の内部パラメータ行列であり、w l はカメラCl の画
像面上での特徴点xl の大きさ(この実施の形態では、
頭頂点と足先点との画像上での距離)である。
【0143】Rl を世界座標に対するカメラCl の姿勢
を表す回転行列とし、tl を世界座標に対するカメラC
l の位置を表す並進ベクトルとする。そして、f回の観
測について考えると、次式(26)が得られる。
【0144】
【数26】
【0145】上記式(26)から、f回分のXckの平均
を求めると、次式(27)が得られる。
【0146】
【数27】
【0147】上記式(26)、(27)から、次式(2
8)が求められる。
【0148】
【数28】
【0149】上記式(28)を満たす回転行列は、次式
(29)を最小とするRk L -1である。
【0150】
【数29】
【0151】この解は、次式(30)の行列mklを特異
値分解することによって求められる。
【0152】
【数30】
【0153】一方、カメラCk のカメラ座標系から見た
カメラCl の方向ベクトルykl(=Rk (tl
k ))は、得られた相対姿勢Rk L -1を、上記式
(27)に代入することにより、求められる。
【0154】〔2−4〕検証実験
【0155】上記校正方法の有効性を確かめるために、
次のような実験を行った。
【0156】5台のカメラ(カメラ1 〜5)を用い、世界
座標系を決めるためにカメラ1 の位置および姿勢と、カ
メラ2 の位置は予め与えた。
【0157】シーン中の150 ×150 ×150[cm] の領域か
ら10000 点をランダムに選択し、各点について、5台の
カメラからランダムに2台のカメラを選択した。その2
台による2次元観測位置と2次元の大きさを計算し、さ
らにガウス誤差を加えたものを、各カメラでの観測とし
た。
【0158】各カメラに保存されている位置・姿勢に関
する校正情報を、各観測によって更新した。
【0159】図7は、全カメラのカメラパラメータの推
定結果を示している。
【0160】図7において、左側のグラフはカメラ位置
X、Y、Zの推定結果を示している。図7において、右
側のグラフはカメラ姿勢を表すオイラー角α、β、γの
推定結果を示している。なお、これらのグラフの横軸は
データ数を表している。
【0161】図7からわかるように、校正の初期段階で
は、位置・姿勢とも大きな誤差を含んでいる。しかし、
データ数の増加に伴い推定誤差が減少しており、最終的
には位置で平均7.35[cm]、姿勢で平均0.85[de
g] の高い推定精度が得られていることがわかる。以上
の結果から、上記実施の形態で示した校正手法によって
多数のカメラの位置・姿勢推定が行えることが示され
た。
【0162】〔3〕カメラ位置・姿勢推定アルゴリズム
(カメラ校正アルゴリズム)の変形例の説明
【0163】この変形例では、2台のカメラ間で共有さ
れる観測情報を用いて、カメラ間の幾何学的整合性をと
のながらシステム内の全てのカメラの位置・姿勢を推定
する。世界座標系を与えるための基準としては、2台の
カメラ位置、1台のカメラ姿勢を与えることが必要であ
る。これらの基準カメラは必ずしも校正対象の全てのカ
メラと観測を共有する必要はない。
【0164】各カメラ上で得られる2次元観測情報は、
次のようにして得られる。まず、入力画像を人物領域と
背景領域とに分割する。人物領域からカメラ位置・姿勢
推定に用いる2次元観測情報として、頭頂点と足先点を
抽出する。
【0165】以下、上述した人物追跡システムのような
多視点システムにおいて、2台のカメラ間で共有される
観測情報を用いて、カメラ間の幾何学的整合性をとのな
がらシステム内の全てのカメラの位置・姿勢を推定する
手法について説明する。
【0166】カメラの位置・姿勢を推定するためには、
各カメラの位置・姿勢の推定値を保持する必要がある。
しかし、カメラ数の増加にともない保持すべき情報は増
加し、一元的に管理するのは困難となる。そのため、本
手法では、観測情報を各カメラ毎に分散して保持し、カ
メラの位置・姿勢推定を分散的に行うことを考える。
【0167】まず、Tsai(文献16参照)のアルゴリズ
ムにより各カメラの内部パラメータを計算する。内部パ
ラメータは他のカメラの存在や位置・姿勢の変化とは独
立であるため、内部パラメータと位置・姿勢を分離して
計算しても問題ないものと考えられる。以後の処理で
は、各カメラの内部パラメータは既知・一定であるとし
て、カメラの位置・姿勢のみを推定する。
【0168】文献16: Roger Y.Tsai. A versatile c
amera calibration technique forhigh-accuracy 3d ma
chine vision metrology using off-the shelf tv came
ras and lenses. IEEE Journal of Robotics and Autom
ation, Vol. 3, No.4, pp.323-344, 1987.
【0169】図8は、カメラ位置・姿勢推定の流れを示
している。
【0170】各カメラでは、観測を共有する周囲のカメ
ラの観測情報、位置・姿勢推定値を利用して、自己のカ
メラの位置・姿勢を推定する。新たな観測が得られる度
に推定を繰り返す。全てのカメラで上記処理を分散的に
繰り返すことにより、システム全体のカメラ位置・姿勢
を求めることができる。
【0171】以下、カメラ位置・姿勢推定の詳細につい
て説明する。
【0172】〔3−1〕2カメラ間の幾何学的拘束
【0173】ここでは、2カメラ間で得られる観測に関
するエピポーラ幾何について簡単に説明する。
【0174】カメラCk とカメラCl が同じ3次元点i
を観測しているとし、カメラCk 、Cl 上での2次元観
測位置をそれぞれxk,i =(xk,i,k,i ),xl,i
(x l,i,l,i t とする。
【0175】これらの観測を同次座標系で次式(3
1)、(32)のように表す。
【0176】
【数31】
【0177】ただし、fk,l はカメラCk 、Cl の焦
点距離である。
【0178】ここで、tklとrklをカメラCk の座標系
におけるカメラCl の相対位置、姿勢とすると、mk,i
とml,i は、次式(33)を満たす。
【0179】
【数32】
【0180】ここで、Eklは、次式(34)で表され
る。
【0181】
【数33】
【0182】〔3−2〕分散カメラの位置・姿勢推定
【0183】上記〔3−1〕で述べた関係を用いてシス
テム内の全てのカメラの世界座標系での位置・姿勢を推
定する手法について説明する。
【0184】ここでは、N個のカメラについて考える。
k ,Rk (k=1,…,N)を世界座標系でのカメラ
k の姿勢および位置とする。上記〔3−1〕で述べた
ようにカメラCp ,Cq が3次元点iを観測している
時、各カメラ上での2次元観測位置をxp,i ,xq,i
すると、上記式(33)を満たす必要がある。
【0185】カメラCp ,Cq 間でnpq個の共有する観
測が得られたとすると、カメラCpの座標系におけるカ
メラCq の相対位置・姿勢tpq, pqは、次式(35)
を満たす。
【0186】
【数34】
【0187】カメラCp ,Cq 間で8点以上の観測が得
られたとすると、次式(36)に示すように、上記式
(35)の左辺を最小化することにより、tpq, pq
求めることができる。
【0188】
【数35】
【0189】システム全体のカメラについて考えた場合
には、システム内の全ての2カメラ間の観測について考
える必要があり、次式(37)に示すように、システム
全体に関する誤差Jall を最小化することになる。
【0190】
【数36】
【0191】カメラCp ,Cq の世界座標系での位置T
p ,Tq 、姿勢Rp ,Rq より、カメラCp の座標系に
おけるカメラCq の相対位置・姿勢tpq, pqは次式
(38)、(39)のように表すことができる。
【0192】
【数37】
【0193】したがって、上記式(37)は、次式(4
0)となる。
【0194】
【数38】
【0195】したがって、Jall を最小化することによ
り、全カメラの位置・姿勢R1,…,RN 、T1,, N
を計算することができる。
【0196】Jall の最小化を行うためには、システム
全体の観測情報が必要となるが、カメラ数の増加にとも
ない最小化に必要な観測情報の量は増加し、カメラ間で
観測情報をやりとりするための通信コストも増加する。
そこで、Jall を全カメラの位置・姿勢R1,…,RN
1,, N に関して、一度に最小化するのではなく、
各カメラに関して分散的に最小化を行うことにより、最
終的にJall を最小化することを考える。
【0197】ここでは、カメラCk に関するJall の最
小化について考える。まず、JallをカメラCk に関す
る情報(カメラCk の位置・姿勢、観測情報)を含む項
と含まない項とに分割する。それぞれを、JK ,
other とする。JK ,Jother ,Jall は、次式(4
1)、(42)、(43)に示すようになる。
【0198】
【数39】
【0199】次に、Rk,k についてJk の最小化を行
う。ここで、Jother には、カメラCk に関する項が含
まれていないため、Jk の最小化によってRk,k が変
化しても、Jother は変化しない。
【0200】カメラCk 上でのJk の最小化には、カメ
ラCk 上で得られる観測と、カメラCk と観測を共有す
るカメラの観測だけが必要となる。そのため、各カメラ
では、図8に示すように、それぞれのカメラに関する情
報だけを保存すればよいことになり、各カメラで保存す
べきカメラ位置・姿勢推定に必要な情報量を減らすこと
ができる。
【0201】全てのカメラCk (k=1,…,N)に関
してそれぞれ独立に最小化を行うことにより、最終的に
システム全体の誤差Jall を最小化することが可能とな
る。
【0202】以上のように、本手法では位置・姿勢推定
に必要な観測データの保存やカメラ位置・姿勢の推定処
理が各カメラで分散して行えるため、分散システムに適
していると考えられる。
【0203】次に、各カメラで分散して行われるJk
最小化について説明する。
【0204】〔3−2−1〕周囲のカメラ情報によるカ
メラの位置・姿勢推定
【0205】ここでは、カメラCk に関する誤差Jk
最小化し、カメラCk の位置,姿勢Tk ,Rk を推定す
る方法について説明する。
【0206】(1)Rk ,Tk の初期推定値Rk (1)
計算
【0207】カメラCk の周囲のカメラのうち位置・姿
勢が既知または位置・姿勢初期推定値が決定済であり、
一定数以上の観測を共有するカメラ群G(G={Cg1,
g2 , , gm})を選択する。
【0208】カメラ群Gのうち、カメラCk と最も多く
の観測を共有するカメラCl との相対関係から、カメラ
k の世界座標系での姿勢推定値Rk を、次式(44)
に基づいて計算する。
【0209】
【数40】
【0210】ここで、rlkは、上記式(36)を満たす
klを固有値分解、特異値分解を用いてrklとtklに分
解することにより計算できる(文献17参照)。
【0211】文献17: M.E. Spetsakis and J.(Y.)Al
oimonos. Optimal computing of structure from motio
n using point corrspondences in two frames. In Pro
c. of ICCV, pp. 449-453, 1998.
【0212】カメラ群Gと共有する観測のみを利用し
て、Jk ’を次式(45)のように定義する。
【0213】
【数41】
【0214】次に、次式(46)に示すように、Jk
を最小とするTk を算出する。
【0215】
【数42】
【0216】Jk ’<ε(εはしきい値)の場合、以上
のようにして計算したカメラCk の位置・姿勢推定値T
k ,Rk を、初期の位置・姿勢推定値Tk (1) ,Rk
(1) とする。
【0217】(2)Rk (t-1) におけるTk (t) の計算
【0218】Jk を最小とするTk は、次式(47)を
満たすTk を求めれば良い。
【0219】
【数43】
【0220】上記式(47)を満たすTk は、次式(4
8)に示すように、R1,, N ,T1,, N の関数
として計算することができる。
【0221】
【数44】
【0222】(3)Rk (t) の更新
【0223】Rk に関するJk の最小化は数値計算によ
り行う。
【0224】X軸、Y軸、Z軸まわりの微小回転を(Δ
ω1 Δω2 Δω3 )、微小回転行列をΔRとする
と、ΔRは次式(49)で表される。
【0225】
【数45】
【0226】ここで、Rk (t) =ΔRRk (t-1) とし
て、次式(50)を満たすような(Δω1 Δω2 Δ
ω3 )を計算する(上記文献17参照)。
【0227】
【数46】
【0228】以上の計算を繰り返すことにより、Jk
最小とするRk を求めることができる。
【0229】ここで述べた手順により、カメラCk の位
置、姿勢を求めることができる。さらに全てのカメラで
以上の手順を繰り返すことにより、上記式(40)を満
たす全カメラの位置・姿勢を求めることができる。
【0230】〔3−3〕新規カメラの設置、カメラの削
【0231】上述した人物追跡システムのような多視点
システムに新規カメラを設置する場合には、初期校正時
と同様に観測を共有する姿勢既知の周囲のカメラとの相
対関係から初期姿勢を計算し、位置・姿勢推定を開始す
る。
【0232】カメラを削除する場合には、評価値Jall
から削除するカメラに関する項を削除する。
【0233】〔3−4〕観測間の時間差補正
【0234】本手法によるカメラ位置・姿勢推定では、
2カメラ間での同時刻の観測結果が必要である。しかし
ながら、上記〔1〕で述べた人物追跡システムは非同期
システムであり、一般に各観測の起こる時刻は異なる。
そのため、2カメラ間での観測の時間差を補正する必要
がある。
【0235】カメラCk について、時刻tにおける2次
元観測位置をxk (t)とする。カメラCk による観測
k (t1 ),xk (t3 )、カメラCl による観測x
l (t2 )が得られたとする。ここで、t1 <t2 <t
3 、t3 −t1 <εとする。
【0236】この時、カメラCk における補正された観
測位置をハット記号(∧)付きのx k (t2 )を、次式
(51)から求める。そして、得られたハット記号
(∧)付きのxk (t2 )と、xl (t2 )とをカメラ
k ,Cl 間での対応する観測として、カメラ位置・姿
勢推定に用いる。
【0237】
【数47】
【0238】〔3−5〕実験
【0239】まず、4台のカメラの実システムにより実
験を行った。4台のカメラ(camera1-4)が図9のように
配置されており、世界座標系を決めるためにcamera1 の
位置・姿勢と、camera2 の位置を予め与えた。また、推
定値の推定値の精度評価を行うため、各カメラの位置・
姿勢を手作業により求めておく。
【0240】5台のカメラにより、シーン内を移動する
人物について約3分の観測を行った。このとき各カメラ
(camera1-4)で得られた2次元観測情報を図10に示
す。
【0241】ここで、得られた観測情報から2カメラ間
で共有される観測情報を約500組得た。各カメラの位
置・姿勢は、この観測情報により更新される。
【0242】図11に全カメラパラメータの推定結果を
示す。図11において、左側のグラフはカメラ位置X、
Y、Zの推定結果を示している。図11において、右側
のグラフはカメラ姿勢を表すオイラー角α、β、γの推
定結果を示している。なお、これらのグラフの横軸はデ
ータ数を表している。
【0243】ここに見られるように、校正の初期段階で
は位置・姿勢ともに大きな誤差を含んでいる。しかし、
データ数の増加に伴い推定誤差が減少しており、最終的
には位置で約10[cm]未満、姿勢で約3[deg] 未満の高
い推定精度が得られていることがわかる。
【0244】
【発明の効果】この発明によれば、全てのカメラが基準
カメラと観測を共有する必要がなく、基準カメラと共有
されない局所的な観測もカメラの位置・姿勢推定に利用
することができるようになる。
【0245】また、この発明によれば、多視点画像によ
る移動物体追跡システムにおいて、観測部の追加削除を
容易に行うことが可能となる。
【図面の簡単な説明】
【図1】人物追跡システムの全体的な構成を示すブロッ
ク図である。
【図2】観測部による特徴点抽出処理を説明するための
模式図である。
【図3】追跡部の位置推定に用いられる観測モデルを示
す模式図である。
【図4】カメラ位置・姿勢推定の流れを示す模式図であ
る。
【図5】カメラ位置・姿勢の更新方法を説明するための
模式図である。
【図6】画像特徴から、mkl、yklを求める方法を説明
するための模式図である。
【図7】実験結果を示すグラフである。
【図8】カメラ位置・姿勢推定の流れを示す模式図であ
る。
【図9】実験で用いたカメラの配置例を示す模式図であ
る。
【図10】図9の各カメラ(camera1-4)で得られた2次
元観測情報を示すグラフである。
【図11】実験結果を示すグラフである。
【符号の説明】
2#1〜2#n カメラ 4#1〜4#n 観測部 6 発見部 8 追跡部
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2F065 AA00 AA01 AA31 FF04 JJ02 JJ05 JJ19 JJ26 QQ17 5B057 AA19 DA07 DB02 DC04 DC06 DC22 DC36 5C022 AB61 AB63 AB64 5L096 BA02 CA04 FA14 FA59 FA60 FA66 FA69 HA05

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】 複数のカメラを備えたシステムにおける
    カメラの自動校正方法において、各カメラ毎に、周囲の
    カメラと共有する観測情報と、周囲のカメラの現在の位
    置および姿勢推定値とに基づいて、自己のカメラの位置
    および姿勢推定値を更新するようにしたことを特徴とす
    るカメラの自動校正方法。
  2. 【請求項2】 観測情報が、カメラの画像面上での観測
    対象像の2次元座標値および観測対象像の大きさである
    ことを特徴とする請求項1に記載のカメラの自動校正方
    法。
  3. 【請求項3】 自己のカメラの位置および姿勢推定値を
    更新するための処理は、 周囲の他のカメラと共有する観測情報と、自己のカメラ
    および当該他のカメラの現在の位置および姿勢推定値と
    に基づいて、自己のカメラと当該他のカメラとの相対姿
    勢および相対位置に関する情報を算出する第1ステッ
    プ、ならびに第1ステップによって算出された相対姿勢
    および相対位置に関する情報に基づいて、自己のカメラ
    の位置および姿勢推定値を更新する第2ステップ、 を備えていることを特徴とする請求項1および2のいず
    れかに記載のカメラの自動校正方法。
  4. 【請求項4】 各カメラは、周囲の各カメラの姿勢推定
    値、自己のカメラと周囲の各カメラとの姿勢推定精度に
    関する情報、周囲の各カメラの位置推定値および自己の
    カメラと周囲の各カメラとの位置推定精度に関する情報
    を保持しており、 上記第2ステップは、上記第1ステップによって算出さ
    れた相対姿勢に関する情報と、自己のカメラが保持して
    いる周囲の各カメラの姿勢推定値および自己のカメラと
    周囲の各カメラとの姿勢推定精度に関する情報とに基づ
    いて、自己の姿勢推定値を更新するステップ、ならびに
    上記第1ステップによって算出された相対位置に関する
    情報と、自己のカメラが保持している周囲の各カメラの
    位置推定値および自己のカメラと周囲の各カメラとの位
    置推定精度に関する情報とに基づいて、自己の位置推定
    値を更新するステップを備えていることを特徴とする請
    求項3に記載のカメラの自動校正方法。
  5. 【請求項5】 自己のカメラの位置および姿勢推定値を
    更新するための処理は、各カメラにおいて新たな観測情
    報が得られる度に行われることを特徴とする請求項1、
    2、3および4のいずれかに記載のカメラの自動校正方
    法。
  6. 【請求項6】 世界座標を決定するために、最低限1台
    のカメラの世界座標系での姿勢と、最低限2台のカメラ
    の世界座標系での位置とが、基準として与えられている
    ことを特徴とする請求項1、2、3、4および5のいず
    れかに記載のカメラの自動校正方法。
  7. 【請求項7】 観測情報が、最低2台のカメラ間で共有
    されるカメラの画像面上での観測対象像の2次元座標値
    であることを特徴とする請求項1に記載のカメラの自動
    校正方法。
  8. 【請求項8】 自己のカメラの位置および姿勢推定値を
    更新するための処理においては、周囲の他のカメラと共
    有する観測情報と、当該他のカメラの現在の位置および
    姿勢推定値とに基づいて、自己のカメラの位置および姿
    勢推定値を更新するといった処理が、各カメラ毎に分散
    的に行われることを特徴とする請求項7に記載のカメラ
    の自動校正方法。
JP2003004247A 2002-01-16 2003-01-10 カメラの自動校正方法 Pending JP2003279315A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003004247A JP2003279315A (ja) 2002-01-16 2003-01-10 カメラの自動校正方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2002-7904 2002-01-16
JP2002007904 2002-01-16
JP2003004247A JP2003279315A (ja) 2002-01-16 2003-01-10 カメラの自動校正方法

Publications (1)

Publication Number Publication Date
JP2003279315A true JP2003279315A (ja) 2003-10-02

Family

ID=29252940

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003004247A Pending JP2003279315A (ja) 2002-01-16 2003-01-10 カメラの自動校正方法

Country Status (1)

Country Link
JP (1) JP2003279315A (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005233639A (ja) * 2004-02-17 2005-09-02 Mitsubishi Electric Corp ステレオカメラシステムおよび該システムのステレオカメラ同士のキャリブレーション方法
JP2005241323A (ja) * 2004-02-25 2005-09-08 Advanced Telecommunication Research Institute International 撮像システム及び校正方法
JP2006226965A (ja) * 2005-02-21 2006-08-31 Sumitomo Electric Ind Ltd 画像処理装置、コンピュータプログラム、及び画像処理方法
JP2006250722A (ja) * 2005-03-10 2006-09-21 Toshiba Corp キャリブレーション装置及びその方法、キャリブレーション用プログラム
JP2008304269A (ja) * 2007-06-06 2008-12-18 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2009186288A (ja) * 2008-02-05 2009-08-20 Canon Inc 画像処理装置、画像処理方法
JP2010510697A (ja) * 2006-11-20 2010-04-02 アデレード リサーチ アンド イノヴェーション ピーティーワイ エルティーディー ネットワーク監視システム
JP2010119117A (ja) * 2009-12-25 2010-05-27 Panasonic Corp 撮影システム、移動カメラおよび撮影方法
JP2011076573A (ja) * 2009-10-02 2011-04-14 Fujitsu Ltd 監視カメラシステム及びその異常検出方法
JP2012522231A (ja) * 2009-03-31 2012-09-20 アルカテル−ルーセント 第1の画像デバイスおよび第2の画像デバイスの相対位置を決定する方法及びこれらデバイス
JP2013515959A (ja) * 2009-12-24 2013-05-09 コグネックス・コーポレイション カメラのミスキャリブレーションの実行時決定のためのシステムと方法
WO2016111066A1 (ja) * 2015-01-07 2016-07-14 ソニー株式会社 情報処理装置、情報処理方法、および情報処理システム
JP2019095345A (ja) * 2017-11-24 2019-06-20 国立大学法人 岡山大学 物体識別システム
JP2020042028A (ja) * 2018-09-07 2020-03-19 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド コレクターの相対パラメータのキャリブレーション方法、装置、機器及び媒体

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000348181A (ja) * 1999-03-26 2000-12-15 Atr Media Integration & Communications Res Lab 移動物体追跡装置
JP2002005625A (ja) * 2000-06-27 2002-01-09 Atr Media Integration & Communications Res Lab カメラの自動校正方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000348181A (ja) * 1999-03-26 2000-12-15 Atr Media Integration & Communications Res Lab 移動物体追跡装置
JP2002005625A (ja) * 2000-06-27 2002-01-09 Atr Media Integration & Communications Res Lab カメラの自動校正方法

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005233639A (ja) * 2004-02-17 2005-09-02 Mitsubishi Electric Corp ステレオカメラシステムおよび該システムのステレオカメラ同士のキャリブレーション方法
JP2005241323A (ja) * 2004-02-25 2005-09-08 Advanced Telecommunication Research Institute International 撮像システム及び校正方法
JP2006226965A (ja) * 2005-02-21 2006-08-31 Sumitomo Electric Ind Ltd 画像処理装置、コンピュータプログラム、及び画像処理方法
JP2006250722A (ja) * 2005-03-10 2006-09-21 Toshiba Corp キャリブレーション装置及びその方法、キャリブレーション用プログラム
JP2014078962A (ja) * 2006-11-20 2014-05-01 Adelaide Research And Innovation Pty Ltd ネットワーク監視システム
US9185355B2 (en) 2006-11-20 2015-11-10 Snap Network Surveillance Pty Limited Network surveillance system
JP2010510697A (ja) * 2006-11-20 2010-04-02 アデレード リサーチ アンド イノヴェーション ピーティーワイ エルティーディー ネットワーク監視システム
JP2008304269A (ja) * 2007-06-06 2008-12-18 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2009186288A (ja) * 2008-02-05 2009-08-20 Canon Inc 画像処理装置、画像処理方法
JP2012522231A (ja) * 2009-03-31 2012-09-20 アルカテル−ルーセント 第1の画像デバイスおよび第2の画像デバイスの相対位置を決定する方法及びこれらデバイス
JP2011076573A (ja) * 2009-10-02 2011-04-14 Fujitsu Ltd 監視カメラシステム及びその異常検出方法
JP2013515959A (ja) * 2009-12-24 2013-05-09 コグネックス・コーポレイション カメラのミスキャリブレーションの実行時決定のためのシステムと方法
US11699247B2 (en) 2009-12-24 2023-07-11 Cognex Corporation System and method for runtime determination of camera miscalibration
JP2010119117A (ja) * 2009-12-25 2010-05-27 Panasonic Corp 撮影システム、移動カメラおよび撮影方法
WO2016111066A1 (ja) * 2015-01-07 2016-07-14 ソニー株式会社 情報処理装置、情報処理方法、および情報処理システム
US10489929B2 (en) 2015-01-07 2019-11-26 Sony Corporation Information processing apparatus, information processing method, and information processing system
JP2019095345A (ja) * 2017-11-24 2019-06-20 国立大学法人 岡山大学 物体識別システム
JP2020042028A (ja) * 2018-09-07 2020-03-19 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド コレクターの相対パラメータのキャリブレーション方法、装置、機器及び媒体
US10984556B2 (en) 2018-09-07 2021-04-20 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for calibrating relative parameters of collector, device and storage medium

Similar Documents

Publication Publication Date Title
US7212228B2 (en) Automatic camera calibration method
WO2021035669A1 (zh) 位姿预测方法、地图构建方法、可移动平台及存储介质
CN108829232B (zh) 基于深度学习的人体骨骼关节点三维坐标的获取方法
JP2023175052A (ja) 3次元空間内の姿勢推定
CN112304307A (zh) 一种基于多传感器融合的定位方法、装置和存储介质
JP2003279315A (ja) カメラの自動校正方法
JP5480667B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、プログラム
CN110726406A (zh) 一种改进的非线性优化单目惯导slam的方法
JP2007310707A (ja) 姿勢推定装置及びその方法
Cheng et al. Improving visual localization accuracy in dynamic environments based on dynamic region removal
JP2019185557A (ja) 画像解析装置、方法およびプログラム
KR101193223B1 (ko) 인체 동작의 3d 모션 구현방법
JP3411889B2 (ja) カメラの自動校正方法
CN111489392B (zh) 多人环境下单个目标人体运动姿态捕捉方法及系统
Martínez-González et al. Residual pose: A decoupled approach for depth-based 3D human pose estimation
JP3520050B2 (ja) 移動物体追跡装置
JP3401512B2 (ja) 移動物体追跡装置
Zhu et al. Enhancing accuracy in visual slam by tightly coupling sparse ranging measurements between two rovers
JP2007109126A (ja) 移動体分布推定装置、移動体分布推定方法及び移動体分布推定プログラム
CN111583331B (zh) 用于同时定位和地图构建的方法及装置
CN111598927A (zh) 一种定位重建方法和装置
JPH07302341A (ja) 姿勢検出装置および方法
Datta et al. Linearized motion estimation for articulated planes
Li et al. IMU-Assisted Uncertainty-Weighted Attitude Estimation Algorithm from Non-Corresponding Points
CN116385663B (zh) 动作数据生成方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050419

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071009

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071204

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080710