JP3411889B2 - カメラの自動校正方法 - Google Patents

カメラの自動校正方法

Info

Publication number
JP3411889B2
JP3411889B2 JP2000192387A JP2000192387A JP3411889B2 JP 3411889 B2 JP3411889 B2 JP 3411889B2 JP 2000192387 A JP2000192387 A JP 2000192387A JP 2000192387 A JP2000192387 A JP 2000192387A JP 3411889 B2 JP3411889 B2 JP 3411889B2
Authority
JP
Japan
Prior art keywords
camera
observation
equation
uncalibrated
calibrated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000192387A
Other languages
English (en)
Other versions
JP2002005625A (ja
Inventor
章 内海
大丈 山添
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2000192387A priority Critical patent/JP3411889B2/ja
Publication of JP2002005625A publication Critical patent/JP2002005625A/ja
Application granted granted Critical
Publication of JP3411889B2 publication Critical patent/JP3411889B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は、カメラの自動校
正方法に関する。
【0002】
【従来の技術】従来から画像を用いた人物追跡について
は多くの提案がなされている。これには画像を用いるこ
とで非装着、非接触の検出が可能になり、ユーザへの負
担が軽減する、応用範囲が広がる等の理由が考えられ
る。従来提案された画像による人物追跡システムの多く
は、文献1、2、3、4に示すように、単眼または2眼
画像によるものであったが、限られた視点数ではオクル
ージョンに対応できない、検出エリアが狭い、十分な精
度が得られないといった問題点があった。
【0003】文献1:D. M. Gavrila and L. S. Davis.
3-d model-based tracking of humans in action: a m
ulti-view approach. In Proc. of CVPR '96,pp. 73-8
0, 1996.
【0004】文献2:A. Azarbayejani and A. Pentlan
d. Real-time self-calibrating stereo person tracki
ng using 3-d shape estimation from blob features.
In Proc. of ICPR '96,pp. 627-632, 1996.
【0005】文献3:C. Wren, A. Azarbayejani, T. D
arrell, and A. Pentland. P finder: Real-time track
ing of the human body. In SPIE proceeding vol.261
5, pp. 89-98, 1996.
【0006】文献4:M. Patrick Johnson, P. Mase,an
d T. Darrell. Evolving visual routines. In Proc. o
f Artificial Life IV,pp. 198-209, 1994.
【0007】これに対し、多視点画像を利用した人物追
跡システムは、オクルージョンの発生を低減し、より安
定した検出が可能になると期待され、文献5、6、7に
示すように、いくつかの提案が行われている。
【0008】文献5:Jakub Segen and Sarma Pingali.
A camera-based system for tracking people in real
time. In Proc. of ICPR '96,pp. 63-67, 1996.
【0009】文献6:Q. Cai, A. Mitiche, and J. K.
Aggarwal. Tracking human motionin an indoor enviro
nment. In Proc. of 2nd International Conference on
Image Processing, pp. 215-218, 1995.
【0010】文献7:Q. Cai, J. K. Aggarwal. Tracki
ng human motion using multiple cameras. In Proc. o
f ICPR '96,pp. 68-72, 1996.
【0011】しかし、このようなシステムで広範囲の人
間の動きを追跡するには検出エリアに合わせて多くのカ
メラが必要になり、そのことにより生じる問題も多い。
多くのビジョンシステムは、3次元計測のために各カメ
ラが同時刻に観測を行うことを前提としており、そのた
めの同期機構の導入によりシステムが複雑化する。ま
た、各カメラ画像の処理に要する時間が一定でないと、
カメラ数の増加に伴い処理効率が低下する。さらに、複
数の観測を同時に行うことは観測間の冗長性を増大させ
る。また、多数のカメラ全てをあらかじめキャリブレー
ションしておくことは、視点数(カメラ数)が増えるに
したがって困難になる。
【0012】本発明者は、多視点画像による移動物体追
跡システムにおいては、これらの規模の拡大によって生
じる問題(スケーラビリティ)が本質的であると考え、
規模の拡大を容易にする手法の検討を行っている。本発
明者は、文献8に示すように、既にカメラ間の同期を前
提としない人物追跡手法を提案した(文献8参照)。
【0013】文献8:森大樹,内海章,大谷淳,谷内田
正彦.非同期多視点情報を用いた複数人物追跡手法の検
討.信学技報,PRMU98-178, pp. 15-22, 1999.
【0014】そこでは、非同期に独立に動作する多数の
観測ノードで得られる観測情報をカルマンフィルタを用
いて統合することにより、カメラ間の同期を必要とせ
ず、拡張が容易な追跡システムを実現している。これに
より、観測間の冗長性を低減し視点数の増加による処理
効率の低下も抑制できる。
【0015】
【発明が解決しようとする課題】この発明は、未校正カ
メラの位置および姿勢を自動的に校正することが可能と
なるカメラの自動校正方法を提供することを目的とす
る。
【0016】また、この発明は、多視点画像による移動
物体追跡システムにおいて、観測部の追加削除を容易に
行うことが可能となる、カメラの自動校正方法を提供す
ることを目的とする。
【0017】
【課題を解決するための手段】この発明による第1のカ
メラの自動校正方法は、未校正カメラの画像面上での対
象物体像の2次元座標値および対象物体像の大きさの対
からなる観測データを、複数位置の対象物体毎に取得
し、各位置での対象物体の世界座標系の3次元座標値と
取得した観測データとに基づいて、未校正カメラの位置
および姿勢を校正することを特徴とする。
【0018】対象物体の世界座標系の3次元座標値は、
たとえば、複数の校正済カメラから得られた画像に基づ
いて得られる。
【0019】この発明による第2のカメラの自動校正方
法は、未校正カメラの他に少なくとも2台の校正済カメ
ラを用い、未校正カメラと各校正済カメラとの対毎に、
未校正カメラと校正済カメラとで同時に対象物体を撮像
するといったことを、複数位置の対象物体に対して行な
うことにより、未校正カメラと校正済カメラとの画像面
上での対象物体像の2次元座標値の対と対象物体像の大
きさの対とからなる複数組の観測データを、各校正済カ
メラ毎に取得し、取得した観測データに基づいて未校正
カメラの位置および姿勢を校正することを特徴とする。
【0020】
【発明の実施の形態】以下、図面を参照して、この発明
の実施の形態について説明する。
【0021】まず、本発明者が既に開発している非同期
多視点画像による人物追跡システムについて説明し、そ
の後に本願発明の特徴である未校正カメラの自動校正方
法について説明する。
【0022】〔1〕人物追跡システムについての説明
【0023】〔1−1〕人物追跡システムの全体的な構
成についての説明
【0024】図1は、人物追跡システムの全体的な構成
を示している。
【0025】人物追跡システムは、カメラ2#1、2#
2、…、2#n(以下、総称的にはカメラ2という)、
各カメラに対応して設けられた観測部4#1、4#2、
…、4#n(以下、総称的には観測部4という)、発見
部6および追跡部8を備えている。各観測部4、発見部
6および追跡部8は、たとえば、異なる計算機で構成さ
れ、それぞれの計算機はLANによって接続されてい
る。
【0026】各観測部4は、対応するカメラ2から得ら
れた入力画像に基づいて特徴量抽出処理を行う。各観測
部4で得られた特徴量(代表点位置、頭頂点位置、服領
域の色等)は、追跡部8から送られてくる予測位置情報
をもとに追跡モデルと対応づけられた後、観測時刻情報
とともに追跡部8に送られる。追跡モデルと対応づけら
れた後に、各観測部4から追跡部8に送られる情報を対
応点の観測情報ということにする。
【0027】追跡モデルとの対応がとれなかった特徴量
は発見部6に送られる。追跡モデルとの対応がとれなか
ったときに、各観測部4から発見部6に送られる情報を
未対応点の観測情報ということにする。なお、各観測部
4は独立に動作する。
【0028】発見部6では、観測部4から送られてきた
未対応点の観測情報を用いて、シーン中に新たに現れた
人物の検出を行う。新規人物の位置情報(初期値)は追
跡部8に送信され、追跡部8による追跡が開始される。
【0029】追跡部8は、新規人物の位置情報を初期値
とし、対応点の観測情報を入力値として、カルマンフィ
ルタを用いて人物の位置情報(位置・方向角等)を更新
し、さらに後述する観測モデルに基づいて位置を予測す
る。予測位置情報は観測部4に送信される。
【0030】〔1−2〕観測部についての説明
【0031】観測部4によって行なわれる処理について
説明する。まず、入力画像を人物領域と背景領域に分割
する。領域分割手法としては、文献9に記載されている
手法を用いることができる。
【0032】文献9:内海章,大谷淳. 画素値分布の推
定による時系列画像からの動物体領域抽出. 信学論,Vo
l.J81-D-II, No. 8, pp. 1768-1775, 1998.
【0033】次に、得られた人物領域に対して距離変換
を行う。つまり、人物領域を構成する各画素毎に、各画
素から人物領域の境界までの最短距離を求めて、得られ
た距離を当該画素の距離変換値とする。この結果、距離
変換された画像における人物領域内の各画素は、最近傍
の領域境界までの距離に応じた距離変換値を持つ。
【0034】図2(a)は領域分割によって得られた2
値化画像を示し、図2(b)は距離変換によって得られ
た距離変換画像を示している。図2(b)では、距離変
換値が大きい画素ほど黒く表されている。
【0035】次に、人物領域内で距離変換値が最大とな
る点(重心点)Gをその領域の代表点(特徴点)として
選択する。さらに、画像中から頭頂点の位置、胴体部分
の色情報を抽出する。この後、抽出された特徴点と既に
発見されている追跡モデルとの間の対応づけを行なう。
【0036】抽出された特徴点と既に発見されている追
跡モデルと間の対応づけの方法について説明する。後述
するように、追跡部8では人物が等速運動をしていると
仮定しており、時刻tにおける人物hj の予測位置は2
次元のガウス分布で表される。ここでは、時刻tにおけ
る人物hj の世界座標(X,Y)系での予測位置をX
hj,t、その平均をX ̄hj,t、共分散行列をS ̄hj,tとす
る。
【0037】予測位置の分布N(X ̄hj,t,S ̄hj,t
を画像iに弱透視投影した結果は、次式1で示される確
率からなる1次元ガウス分布n(x ̄hj,t,i,s ̄
hj,t,i)となり、これは画像i上での人物の存在確率を
示している。ここで、x ̄hj,t,iは、X ̄hj,tを画像面
上に投影したものを表し、s ̄hj,t,iはS ̄hj,tを画像
面上に投影したものを表している。
【0038】
【数1】
【0039】頭頂点の高さおよび服の色の分布も考慮
し、追跡モデルに対して観測値の生起確率を最大にする
特徴点を観測時間での人物hj に対応する観測とし、h
j のラベルをつける(文献10参照)。
【0040】文献10:Howard Yang ,内海章, 大谷
淳. 非同期多視点画像を用いた複数人物追跡の安定化.
信学技報,PRMU99-150, pp. 1-7, 1999.
【0041】ラベルづけられた特徴点は、対応点の観測
情報として追跡部8に送信される。ただし、複数の人物
に対応づけられた特徴点は、観測時にオクルージョンが
発生していると判断し、送信されない。
【0042】これらの処理の後、対応付けがされていな
い特徴点が存在する場合には、これらの特徴点は、新規
人物に属すると考えられるので、未対応点の観測情報
(位置・時刻)として発見部6に送られる。
【0043】〔1−3〕発見部についての説明
【0044】発見部6は、新たにシーンに登場した人物
を検出し、対応するモデルを追跡部8に追加する。
【0045】観測情報は非同期に獲得されるため、通常
のステレオ対応をそのまま適用することはできない。そ
こでカルマンフィルタを利用した時系列情報による対応
(発見)手法を用いる(上記文献8参照)。
【0046】観測部4から発見部6に送られてきた未対
応点の観測情報のうち、異なる4時刻の観測情報を各1
点ずつ選出してカルマンフィルタの更新処理を行い、得
られた予測軌跡と各観測情報の誤差が一定の閾値以内で
あれば、新規人物に属する特徴点集合とし、最新観測時
刻における推定位置を初期発見位置として追跡部8に送
信する。
【0047】〔1−4〕追跡部についての説明
【0048】追跡中の人物モデルは、各観測部4におい
て追跡モデルと対応づけられた画像特徴を用いて更新さ
れる(上記文献8参照)。
【0049】図3は、位置推定に用いられる観測モデル
を示している。図3において、liはカメラ2#iとそ
の画像面20#iとの距離(焦点距離)を示し、Lhj,i
はカメラ2#iと人物hjとの距離を示している。ま
た、ψhj,iはカメラ2#iと人物hjとを結ぶ線とY軸
とのなす角度を示している。
【0050】ここでは、人物hjは等速度運動をしてい
るものと仮定し、時刻tにおける人物hj の状態を、世
界座標(X,Y)系上で、次式2で表す。
【0051】
【数2】
【0052】上部に”・”が付けられた記号XhjはX方
向の速度を、上部に”・”が付けられた記号YhjはY方
向の速度をそれぞれ表している。ただし初期状態は、発
見部6から送信される新規モデル情報によって決定され
る。行列に付される”’”は転置を表している。
【0053】ここで観測部4#iにより、1回の観測が
行われたとする。観測部4#iから送られてきた観測情
報により、この観測は次式3のように表すことができ
る。
【0054】
【数3】
【0055】ここでCi はカメラ位置、Rψhj,t,iはエ
ピポーラ線とY軸のなす角度ψhj,t ,iの時計回りの回転
である(H=[1000])。eは観測誤差で平均0、
標準偏差σhj,t,iとする。σhj,t,iはカメラからの距離
が大きくなるほど増加すると考え、次式4のように表
す。
【0056】
【数4】
【0057】ここで、カメラCi と人物Xhj,tとの間の
距離Lhj,t,iは未知のため、Xhj,tの予測位置X ̄hj,t
により計算したL ̄hj,t,iで近似する。
【0058】以上の観測モデルによりカルマンフィルタ
を構成し、人物hj の状態を更新する。
【0059】各カメラ毎に独立に更新処理を行い、人物
状態予測を行う。時刻t+1における人物hj の状態予
測は、平均をX ̄hj,t+1、共分散行列をS ̄hj,t+1とす
るガウス分布で与えられる。状態予測結果は、観測部4
の要求に応じて計算・送信され、上述したように特徴点
の対応づけに利用される。検出範囲外へ移動した人物モ
デルは削除し、その人物の追跡を中止する。
【0060】〔2〕3次元推定値によるカメラ位置・姿
勢の校正方法の説明
【0061】ここでは、上記の人物追跡システムに、新
たに位置・姿勢が未知の1台の未校正カメラ2#(n+
1)を追加し、この未校正カメラ2#(n+1)の位置
・姿勢を他の校正済のカメラ2#1〜2#nの観測状態
に基づいて推定する方法について説明する。
【0062】シーン内を人物が移動し、その動きが未校
正カメラ2#(n+1)を含む各カメラ2で観測されて
いるものとする。他のカメラ2#1〜2#nの観測情報
から得られた人物の3次元情報は、追跡部8を通じて取
得できる。一方、未校正カメラ2#(n+1)上では、
人物像から得られる特徴点の位置および人物像の大きさ
(幅)の情報が得られるものとする。これらの情報を用
いて、未校正カメラ2#(n+1)を校正する。
【0063】〔2−1〕 校正アルゴリズムについての
説明
【0064】まず、図4に示すように、人物像hjの特
徴点の3次元位置Xと、未校正カメラ2#(n+1)の
画像面上での当該特徴点の観測位置(2次元位置)x
と、未校正カメラ2#(n+1)の画像面上での当該人
物像hjの大きさwの組が得られるものと仮定する。た
だし、追跡対象hjの3次元の大きさは未知である。人
物像hjの大きさwは、この例では、人物像hjの特徴
点を含む部分の幅とする。
【0065】未校正カメラ2#(n+1)の内部パラメ
ータ行列Aを既知とすると、世界座標系における特徴点
の3次元位置Xと、未校正カメラ2#(n+1)の画像
面上での当該特徴点の観測位置xとの関係は、未校正カ
メラ2#(n+1)の位置・姿勢を示す回転行列Rおよ
び並進ベクトルtにより次式5のように表される。
【0066】
【数5】
【0067】ここで、未校正カメラ2#(n+1)のカ
メラ座標系での特徴点の3次元位置をXc とすると、次
式6が成立する。
【0068】
【数6】
【0069】つまり、未校正カメラ2#(n+1)の画
像面上での特徴点の観測位置xと、未校正カメラ2#
(n+1)のカメラ座標系での特徴点の3次元位置をX
c との関係は、次式7で表される。
【0070】
【数7】
【0071】上記式7を変形することによって、次式8
が得られる。
【0072】
【数8】
【0073】Xc のz成分をZxcとすると、Zxcは次式
9で表される。
【0074】
【数9】
【0075】一方、画像特徴に関して弱透視変換を仮定
し、画像面上での追跡対象hjの幅(サイズ)をwとす
ると、Zxcは次式10で表される。
【0076】
【数10】
【0077】上記式9と上記式10とにより、次式11
が成立する。
【0078】
【数11】
【0079】a3 =〔0 0 1〕であるため、式11
はmを定数として、次式12に書き換えられる。
【0080】
【数12】
【0081】上記式7と上記式12から、次式13が得
られる。
【0082】
【数13】
【0083】観測値の組、{X1,, n }、{x1,
, n }、{w1,, n }が与えられたとする。な
お、特徴点は3以上必要である。つまり、nは3以上の
自然数である。まず、上記式13式により、{x1,,
n }、{w1,, n }からXf1, , fnを計算す
る。
【0084】上記式6および上記式13式から、各X
f1, , fnを用いて、次式14、15が得られる。
【0085】
【数14】
【0086】
【数15】
【0087】上記式14、15式により、次式16が得
られる。
【0088】
【数16】
【0089】上記式16を満たす回転行列Rは、次式1
7を最小にするRとして特異値分解を利用して求められ
る。
【0090】
【数17】
【0091】Rが決まると、mの値は、上記式16から
最小自乗法により、次式18のように計算できる。
【0092】
【数18】
【0093】並進ベクトルtは、上記式15にm、Rを
代入することによって求められる。
【0094】〔2−2〕検証実験
【0095】上記校正方法の有効性を確かめるために、
次のような実験を行った。
【0096】まず、計算機シミュレーションにより入力
値の持つ誤差に対するパラメータの推定精度を評価し
た。シミュレーションでは、未校正カメラの前方約35
0[cm]の位置を中心に200×200×200[c
m]の立方体内部から無作為に100の3次元観測点を
選択し、未校正カメラによる観測値を計算した。ただ
し、未校正カメラの内部パラメータ行列Aは、次式19
で表される行列とした。
【0097】
【数19】
【0098】3次元位置にガウス誤差を加え、観測値と
ともにカメラパラメータの推定を行った。図5にその推
定結果を示す。図5において、X、Y、Zはカメラ位置
を、α、β、γはカメラ姿勢を表すオイラー角を示して
いる。また、図5の水平軸は3次元位置に加えた推定誤
差の標準偏差である。
【0099】このように、入力誤差の増加に伴い推定誤
差の増加が見られるものの、大きな入力誤差に対しても
安定した推定が可能であることがわかる。特に標準偏差
50[cm]という大きな誤差に対しても、位置パラメ
ータについての誤差は数cm以内、姿勢パラメータにつ
いての誤差は1度未満という高い推定精度が得られてい
る。
【0100】次に、図6のようにカメラ2#1〜カメラ
2#5の5台のカメラを配置し、実画像により実験し
た。各カメラ2#1〜カメラ2#5はそれぞれ1台のP
C(Pentium(登録商標)II,400MHz)
からなる観測部4に接続されている。画像処理はこれら
のPC(観測部4)上で行われる。処理速度は約5〜6
frame/sec である。
【0101】各PCはLANで互いに接続されており、
NTPにより内部時計を同期させている。この他に発見
部6、追跡部8をそれぞれ構成する2台の計算機がLA
Nに接続されている。
【0102】カメラ2#5を除く他のカメラ2#1〜カ
メラ2#4は、あらかじめ全てキャリブレーションされ
ており、各観測部4のキャリブレーション情報は観測情
報(観測時刻、特徴量)とともに、発見部6および追跡
部8に送信される。実験では、シーン内で人物が移動・
着座を繰り返し、カメラ2#5を除く4台のカメラ2#
1〜カメラ2#4を用いて位置追跡を行った。
【0103】未校正のカメラ2#5を持つ観測部は、追
跡部8から各時刻の頭頂点の推定3次元位置Xを取得
し、自身の入力画像から得られる画像特徴(頭頂点の2
次元座標x、および人物領域の幅情報w)を利用してカ
メラの位置・姿勢の校正を行う。図7に実験で得られた
頭頂点の3次元位置推定値の分布を示す。
【0104】図8にパラメータ推定結果を示す。図8の
横軸は校正に用いたデータ数nを示し、実線はパラメー
タ推定結果を示し、破線は手動校正で得たパラメータ値
を示している。
【0105】図8に示すように、観測数の増加に伴い推
定誤差が減少し、最終的に高い推定精度が得られている
のがわかる。以上より、上記校正方法を用いることで、
大きな誤差を含む追跡データによっても十分精度の高い
カメラ校正が行えることが示されたといえる。上記校正
方法を用いることにより、多視点画像による人物追跡シ
ステムへの観測部の追加削除が容易に行えるようにな
る。
【0106】なお、姿勢角α等にバイアス成分が見られ
るが、これは特徴点として頭頂点のみを用いたために入
力データの高さ方向に対する変位が十分でなかったため
と考えられる。肩や足先等、より多くの特徴点を利用す
れば、姿勢角α等の改善が図れると考えられる。
【0107】〔3〕 校正済カメラの2次元観測値によ
るカメラ位置・姿勢の校正
【0108】上記〔2〕で説明した特徴点の3次元追跡
結果を用いた校正法では、3次元の絶対位置を校正に利
用できるという利点があるが、一方で何らかの手段によ
り特徴点の3次元追跡を行なう必要があることから適用
範囲が限られるという問題が生じる。
【0109】そこで、同じ特徴点について校正対象のカ
メラ(未校正カメラ)と校正済のカメラ間で同時観測を
行なうことにより、より広い状況で適用可能な校正方法
を提案する。
【0110】〔3−1〕 校正アルゴリズムの説明
【0111】ここでは、1台の未校正カメラC0 と複数
の校正済カメラ(少なくとも2台以上の校正済カメラ)
による観測を考える。同じ大きさを持つ特徴点について
未校正カメラと他の特定の1台の校正済カメラで同時に
行われた複数の観測をまとめてひとつの観測群とする。
【0112】観測群i(i=1,…,N)は、未校正カ
メラC0 と校正済カメラCi によって同時に観測された
i 組の観測データの集合であり、1組の観測j(j=
1,…,gi )は未校正カメラC0 と校正済カメラCi
による特徴点観測位置xi Co ,j,xi Ci,j、特徴点の大
きさwi Co,j,wi Ci,jからなる。なお、N,gi は共
に2以上の自然数である。
【0113】同じ特徴点列が未校正カメラC0 と複数の
校正済カメラで観測される場合には、各校正済カメラ毎
に別の観測群と考え、異なる番号iを当てる。
【0114】未校正カメラC0 の位置、姿勢をt0 、R
0 、観測群iの校正済カメラCi の位置、姿勢をti
i とすると、観測群i内の観測は、上記式14と同様
にして次式20、21のように表される。
【0115】
【数20】
【0116】
【数21】
【0117】ここで、Xi,j は観測群i内の観測jで用
いられた特徴点の3次元位置である。また、添字fi
co,jが付されたXおよび添字fi ci,jが付されたXは、
特徴点観測位置xi Co,j、xi Ci,j、特徴点の大きさw
i Co,j、wi Ci,jから次式22により、計算される3次
元予測位置である。
【0118】
【数22】
【0119】ただし、カメラの内部パラメータ行列
0 、Ai は既知とする。上記式21より、次式23を
得る。
【0120】
【数23】
【0121】上記式23を上記式20に代入して、次式
24を得る。
【0122】
【数24】
【0123】したがって、次式25が得られる。
【0124】
【数25】
【0125】上記式24、25により、次式26が得ら
れる。
【0126】
【数26】
【0127】複数の観測群についてまとめると、次式2
7が得られる。
【0128】
【数27】
【0129】上記式27を満たす回転行列R0 は、次式
28を最小にするR0 として特異値分解などを利用して
求められる。
【0130】
【数28】
【0131】回転行列R0 が求まると、次式29によ
り、k1 =n1 /m1 ,…,kN =n N /mN をそれぞ
れ計算できる。
【0132】
【数29】
【0133】これにより、上記式24は、次式30に示
すように、t0 に関する直線の方程式になる。
【0134】
【数30】
【0135】観測群iのj番目の観測に対するこの直線
の単位方向ベクトルをvi,j とおくと、vi,j は次式3
1によって表される。
【0136】
【数31】
【0137】すると、上記式30は次式32のように書
き換えられる。
【0138】
【数32】
【0139】すべての観測群についてまとめると、次式
33が得られる。
【0140】
【数33】
【0141】上記式33により、最小自乗法によりt0
を求めることができる。
【0142】〔3−2〕検証実験
【0143】〔3−1〕で説明した2次元観測値による
カメラ位置・姿勢の校正方法についても、〔2−1〕で
説明した3次元推定値によるカメラ位置・姿勢の校正方
法と同様に有効性を確認するためシミュレーション実験
を行った。
【0144】シミュレーションでは、カメラの前方約3
50[cm]の位置を中心に200×200×200
[cm]の立法体内部から無作為に100の3次元観測
点を選択し、各カメラによる観測値を計算した。
【0145】各カメラの内部パラメータ行列Aは、次式
34で表されるものとする。
【0146】
【数34】
【0147】2次元位置にガウス誤差を加え、観測値と
ともにカメラパラメータの推定を行った。図9に推定結
果を示す。図9の水平軸は2次元観測位置に加えた誤差
の標準偏差である。
【0148】このように、入力誤差の増加に伴い推定誤
差の増加が見られるものの、大きな入力誤差に対しても
安定した推定が可能であることがわかる。
【0149】
【発明の効果】この発明によれば、未校正カメラの位置
および姿勢を自動的に校正することが可能となる。ま
た、この発明によれば、多視点画像による移動物体追跡
システムにおいて、観測部の追加削除が容易に行うこと
が可能となる。
【図面の簡単な説明】
【図1】人物追跡システムの全体的な構成を示すブロッ
ク図である。
【図2】観測部による特徴点抽出処理を説明するための
模式図である。
【図3】追跡部の位置推定に用いられる観測モデルを示
す模式図である。
【図4】3次元推定値によるカメラ位置・姿勢の校正方
法を説明するための模式図である。
【図5】カメラパラメータの推定結果を示すグラフであ
る。
【図6】3次元推定値によるカメラ位置・姿勢の校正方
法を検証するための実験システムを示す模式図である。
【図7】図6の実験システムで得られた頭頂点の3次元
位置推定値の分布を示す。
【図8】図6の実験システムで得られたパラメータ推定
結果を示すグラフである。。
【図9】カメラパラメータの推定結果を示すグラフであ
る。
【符号の説明】
2#1〜2#n カメラ 4#1〜4#n 観測部 6 発見部 8 追跡部
フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G01B 11/00 - 11/30 G06T 1/00 G06T 7/20 H04N 7/18

Claims (3)

    (57)【特許請求の範囲】
  1. 【請求項1】 未校正カメラの画像面上での対象物体像
    の2次元座標値および対象物体像の大きさの対からなる
    観測データを、複数位置の対象物体毎に取得し、各位置
    での対象物体の世界座標系の3次元座標値と取得した観
    測データとに基づいて、未校正カメラの位置および姿勢
    を校正することを特徴とするカメラの自動校正方法。
  2. 【請求項2】 対象物体の世界座標系の3次元座標値
    は、複数の校正済カメラから得られた画像に基づいて得
    られることを特徴とする請求項1に記載のカメラの自動
    校正方法。
  3. 【請求項3】 未校正カメラの他に少なくとも2台の校
    正済カメラを用い、未校正カメラと各校正済カメラとの
    対毎に、未校正カメラと校正済カメラとで同時に対象物
    体を撮像するといったことを、複数位置の対象物体に対
    して行なうことにより、未校正カメラと校正済カメラと
    の画像面上での対象物体像の2次元座標値の対と対象物
    体像の大きさの対とからなる複数組の観測データを、各
    校正済カメラ毎に取得し、取得した観測データに基づい
    て未校正カメラの位置および姿勢を校正することを特徴
    とするカメラの自動校正方法。
JP2000192387A 2000-06-27 2000-06-27 カメラの自動校正方法 Expired - Fee Related JP3411889B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000192387A JP3411889B2 (ja) 2000-06-27 2000-06-27 カメラの自動校正方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000192387A JP3411889B2 (ja) 2000-06-27 2000-06-27 カメラの自動校正方法

Publications (2)

Publication Number Publication Date
JP2002005625A JP2002005625A (ja) 2002-01-09
JP3411889B2 true JP3411889B2 (ja) 2003-06-03

Family

ID=18691527

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000192387A Expired - Fee Related JP3411889B2 (ja) 2000-06-27 2000-06-27 カメラの自動校正方法

Country Status (1)

Country Link
JP (1) JP3411889B2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003279315A (ja) * 2002-01-16 2003-10-02 Advanced Telecommunication Research Institute International カメラの自動校正方法
JP4307283B2 (ja) * 2004-02-17 2009-08-05 三菱電機株式会社 ステレオカメラシステムおよび該システムのステレオカメラ同士のキャリブレーション方法
JP2006215939A (ja) * 2005-02-07 2006-08-17 Kumamoto Univ 自由視点画像合成方法および自由視点画像合成装置
JP4714078B2 (ja) * 2006-05-24 2011-06-29 株式会社日立国際電気 移動物体検知システム
JP5106903B2 (ja) * 2007-03-30 2012-12-26 株式会社東芝 移動体監視システム
JP4991395B2 (ja) * 2007-05-28 2012-08-01 キヤノン株式会社 情報処理方法及び情報処理装置
JP4906683B2 (ja) * 2007-11-12 2012-03-28 日本放送協会 カメラパラメータ推定装置およびカメラパラメータ推定プログラム
CN103745484B (zh) * 2013-12-31 2017-02-15 国家电网公司 一种电力设施带电作业的人员目标安全预警方法
JP6433200B2 (ja) * 2014-08-28 2018-12-05 株式会社トプコン 演算装置、演算方法、およびプログラム
JP6619927B2 (ja) * 2014-10-24 2019-12-11 株式会社日立製作所 キャリブレーション装置
JP6803570B2 (ja) * 2016-09-08 2020-12-23 パナソニックIpマネジメント株式会社 カメラパラメタセット算出装置、カメラパラメタセット算出方法、および、プログラム
JP2019041261A (ja) * 2017-08-25 2019-03-14 株式会社 日立産業制御ソリューションズ 画像処理システムおよび画像処理システムの設定方法
JP7047306B2 (ja) * 2017-09-27 2022-04-05 沖電気工業株式会社 情報処理装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
JP2002005625A (ja) 2002-01-09

Similar Documents

Publication Publication Date Title
US7212228B2 (en) Automatic camera calibration method
WO2020054442A1 (ja) 関節位置の取得方法及び装置、動作の取得方法及び装置
JP4148281B2 (ja) モーションキャプチャ装置及びモーションキャプチャ方法、並びにモーションキャプチャプログラム
Ballan et al. Marker-less motion capture of skinned models in a four camera set-up using optical flow and silhouettes
JP3411889B2 (ja) カメラの自動校正方法
US20170330375A1 (en) Data Processing Method and Apparatus
Sundaresan et al. Markerless motion capture using multiple cameras
JP2023502795A (ja) 実世界環境の4d時空間モデルを生成するためのリアルタイムシステム
Tang et al. Joint multi-view people tracking and pose estimation for 3D scene reconstruction
CN113077519B (zh) 一种基于人体骨架提取的多相机外参自动标定方法
WO2007102537A1 (ja) 姿勢推定装置および方法
KR101193223B1 (ko) 인체 동작의 3d 모션 구현방법
JP2018013999A (ja) 姿勢推定装置、方法、及びプログラム
CN111489392B (zh) 多人环境下单个目标人体运动姿态捕捉方法及系统
JP2014085933A (ja) 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム
JP2003279315A (ja) カメラの自動校正方法
JP4670010B2 (ja) 移動体分布推定装置、移動体分布推定方法及び移動体分布推定プログラム
JP2002218449A (ja) 移動物体追跡装置
JP2009048305A (ja) 形状解析プログラム及び形状解析装置
JP4673241B2 (ja) 動体追跡装置、動体追跡方法及びその方法を実現したプログラムを格納した記録媒体
Datta et al. Linearized motion estimation for articulated planes
Xie et al. RHOBIN Challenge: Reconstruction of Human Object Interaction
Muhlbauer et al. A model-based algorithm to estimate body poses using stereo vision
Liu et al. Cascaded particle filter for real-time tracking using RGB-D sensor
KR101148234B1 (ko) 신뢰 전달 알고리즘을 이용한 정면 걸음걸이 추적 장치 및 방법

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100320

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110320

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees