JP2012526995A - 大規模カメラネットワークの較正 - Google Patents
大規模カメラネットワークの較正 Download PDFInfo
- Publication number
- JP2012526995A JP2012526995A JP2012511047A JP2012511047A JP2012526995A JP 2012526995 A JP2012526995 A JP 2012526995A JP 2012511047 A JP2012511047 A JP 2012511047A JP 2012511047 A JP2012511047 A JP 2012511047A JP 2012526995 A JP2012526995 A JP 2012526995A
- Authority
- JP
- Japan
- Prior art keywords
- calibration
- camera
- nodes
- node
- parameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 159
- 238000005259 measurement Methods 0.000 claims abstract description 104
- 238000004891 communication Methods 0.000 claims abstract description 62
- 230000004044 response Effects 0.000 claims abstract description 7
- 241000854291 Dianthus carthusianorum Species 0.000 claims description 13
- 238000007670 refining Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 description 68
- 238000004422 calculation algorithm Methods 0.000 description 44
- 230000010354 integration Effects 0.000 description 29
- 239000011159 matrix material Substances 0.000 description 27
- 230000003993 interaction Effects 0.000 description 16
- 230000006870 function Effects 0.000 description 14
- 238000004364 calculation method Methods 0.000 description 11
- 238000013459 approach Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 9
- 230000009466 transformation Effects 0.000 description 8
- 230000008901 benefit Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 4
- 230000004807 localization Effects 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000000638 solvent extraction Methods 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000065675 Cyclops Species 0.000 description 1
- 238000012897 Levenberg–Marquardt algorithm Methods 0.000 description 1
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000011065 in-situ storage Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
- H04N17/002—Diagnosis, testing or measuring for television systems or their details for television cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B17/00—Monitoring; Testing
- H04B17/40—Monitoring; Testing of relay systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/13—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
- H04N23/15—Image signal generation with circuitry for avoiding or correcting image misregistration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/81—Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
カメラベースのセンサの大規模ネットワークを構成する1つの公知の方法は、各センサから画像特徴データを受信し、次にネットワーク全体についての較正誤差の最小化を行う単一の中央集中プロセッサを必要とする。この単一プロセッサ法は、(例えば、50個よりも少ないセンサを有する)小規模ネットワークを構成するときは正確であるが、(例えば、50個よりも多くのセンサを有する)より大きなネットワークに拡大されたときには適していない。
本願は、合衆国法典第35巻第119条(e)の下で、2009年5月15日に出願された米国仮特許出願第61/178,727号に基づく優先権を主張し、その内容を本願に援用する。
によって表わされ、式中、Rw,iは、(3自由度の回転パラメータを含む)回転行列を表わし、tw,iは、(残りの3自由度の位置パラメータを含む)並進ベクトルを表わす。このような一組の回転パラメータ及び位置パラメータ(6次元パラメータ)は、「外部カメラパラメータ」の一例である。本開示ではワールド座標系とi番目のカメラ座標系の関係を表わすために上述の6次元パラメータを用いるが、当業者によれば、外部カメラパラメータを表わす多くの可能な変形例が利用されうることが認められるであろう。例えば、制約のある環境(例えば、一定の高さ)にカメラノード12が置かれている場合、位置パラメータは2自由度の2次元ベクトルによって表わされうる。
と表わされ、i番目のカメラにおいて測定されるj番目のオブジェクトを表わす同次画像座標ベクトルは、
と表わされる。
であることを示しており、式中、Piはi番目のカメラの3×4投影行列である。式2は、投影行列Piを更に分解することにより、
と書き直すことができ、式中、Aiは、カメラノードiの外部パラメータ(例えば、焦点距離、主点等)を符号化する3×3の上三角行列であり、Ri,w及びti,wは、それぞれ、ワールド座標系からi番目のカメラの座標系への3D変換(または3D変位)を記述する3×3回転行列及び並進ベクトルである。
によって表わすことができ、式中、
である。単位四元数qに対応する回転行列R は、以下の式、
によって表わされる。従って、カメラノードiの外部較正パラメータは、
と表わすことができ、式中、qw,i及びtw,iは、それぞれ、i番目のカメラ座標系からワールド座標系への変換を記述する四元数ベクトル及び並進ベクトルである。同様に、j番目のカメラからi番目のカメラへの相対変換パラメータは、pi,jと表わされてもよい。較正パラメータベクトルpw,iに対応する4×4の同次変換行列H は、以下の式、
によって表わされる。最後に、各カメラパラメータpi,jについて、本開示は、その対応する共分散行列をΣi,jと表わす。画像の測定が測定誤差を伴っているとき、推定プロセスを通じて計算されたパラメータ中にどのくらいの誤差が予想されるかを求めることが可能である。共分散行列は、このような推定誤差を統計的に記述するのにしばしば用いられる。
によって定義することができ、式中、jは、j=1,2,,,,,nのオブジェクト点に対する添え字である。オブジェクト点の少なくとも8対のマッチした画像座標が与えられているとき、Hartley et al.,(上述において引用)に記載のように、基本行列Fは、式(7)を解くことによって決定されてもよい。次に、基本行列Fは、各カメラの外部パラメータ(即ち、式3における行列A)とともに、(例えば、上述において引用したWeng et al., に記載された手順を用いて)未知のスケールに至るまでj番目のカメラとi番目のカメラの間の相対的な位置及び姿勢パラメータpj,i を計算するのに使用されうる。
の集合の推定を可能とする。これらの較正パラメータ Pi は、上述の1ホップ通信リンクを通じて各カメラノード12からその通信近傍へ送られる。
最後に、タプルは、測定値交換モジュール42及び推定値初期化モジュール44に渡される。
メッセージnがモジュール42によって受け取られると、プロセス52が開始する。
メッセージ内のカメラノードIDが、同一のカメラノード12の測定値センシングモジュール40から発せられたことを示す場合、すなわちin=iである場合、メッセージはノードの通信近傍へブロードキャストされる。そうでない場合は、メッセージnは、カメラノード12の推定値初期化モジュール44へ渡される。
表わされるカメラノードID及び測定値タプルからなるメッセージnを受け取った場合、プロセス54が開始される。カメラノードiは、較正オブジェクト20に関する測定値を収集し続けるため、Ziによって指定される測定値タプルの集合を構成する。Zi は、数学的には以下のように定義することができる。
ネットワーク上の各カメラノード12は、自己のローカル測定値集合Ziだけでなく、その通信近傍、k∈Siから受信する測定値集合Zkも蓄積する。各カメラノードiにおいて、測定値センシングモジュール40から新しいタプルを受け取ると、タプルはZiに追加される。近傍ノードからメッセージを受信すると、メッセージ内のタプルは、タプルの集合Zkに追加される。通信近傍の各ペアについて、両方のカメラノード12が互いについてのローカル較正情報を計算する。プロセス45のこのタプル収集ステップの間、
の条件を満たすコンパニオン測定値を有する場合であり、式中、f(.,.) は記述とタイムスタンプのペアの間の差を測定するための関数であり、eは所定の閾値である。
と定義することができる。
で表わせる組み合わされたタプルのスタックへと集積されてもよい。各カメラノード12の中に十分な数の測定値が集積されると、近傍のカメラノード12から得られる多数の対応する測定値もまた集積されてもよい。式7に示すように、未知のスケールに至るまでの2つのカメラ間の相対較正パラメータを計算するために、ペアのカメラ間の8つ又はそれ以上の対応する画像点が使用されうる。従って、少なくとも8つの対応する測定値を有する各近傍カメラノード12について、近傍カメラノード12の相対的な位置及び姿勢を計算するためにペアワイズ較正が実行されうる。より具体的には、対応する画像座標の集合Ci,kを用いて、相対較正パラメータ
(ハット記号 ^ は未知のスケールを示す)を推定することが可能である。
におけるカメラノードi及びカメラノードkについてのカメラパラメータ推定値に基づき、未知のスケールを用いたステレオ三角測量法を用いて、Ci,kにおける対応する測定値の夫々の3D座標が計算されうる。この三角測量法により得られる2つの顕著な特徴22及び24の再構成された3D座標は、2つの顕著な特徴22及び24の距離が既知であるため、距離制約を満たさねばならない。従って、ペアワイズカメラパラメータ
に関連づけられたスケールを推定すること、したがって、ペアワイズカメラパラメータ
を推定することが可能となるわけである。
の共分散行列は、その共分散行列Σi,kによって表わされてもよい。各ペアワイズ較正が完了した後、以下の一連の計算を用いて、較正パラメータベクトル pi,kに対応する共分散Σi,kが推定されうる。
式12の行列の左上の部分は、Σi,kの相対位置パラメータの共分散に対応する。いったん較正推定ベクトルpi,k及びそのコンパニオン共分散行列Σi,kの推定値がわかると、以下に説明するように、推定ベクトルpi,k及びコンパニオン共分散行列Σi,kの両方を再帰的に更新することができる。
アルゴリズム3(プロセス54)
Estimate-Initialization ( )
If 送信側のカメラノードID(=k)及び測定値タプルからなるメッセージを
受け取る, then
自己のカメラノードiと送信側のカメラノードkのペアについて測定値タプルを
測定値タプルスタックCi,kに追加する。
If 測定値タプルスタックCi,kが十分なデータを含む, then
自己のカメラノードi及び送信側のカメラノードkについてペアワイズカメラ
パラメータ(pi,k,Σi,k)の較正を実行する。
カメラノードIDのペア(i,k)及びペアワイズカメラパラメータ推定値
(pi,k,Σi,k)からなるメッセージを自己のカメラノード内の2つの
推定値交換モジュール及び推定値統合モジュールへ渡す。
End if
End if
によって表わされるペアワイズカメラパラメータ推定値からなるメッセージnを受け取ると、プロセス56が開始する。メッセージ内のカメラノードIDが、同じカメラノード12の推定値統合モジュール48から生じたことを示す場合、即ちin=iの場合、メッセージnはノードの通信近傍k∈Siへブロードキャストされる。そうでない場合、メッセージnは、カメラノード12の中の推定値統合モジュール48へ渡される。
が用いられる。ガウスノイズ仮定の下では、式14のp(t)は、各カメラノード12の実際のカメラ特性の不偏推定量である。
アルゴリズム5(プロセス58)
Estimate-Integration ( )
Whenメッセージ n を受け取る。
IfメッセージnはカメラノードIDのペア(i,k)及びペアワイズカメラ
パラメータ推定値からなる、即ち、n=(i,k,pi,k,Σi,k)
である,then
ペアワイズカメラパラメータ推定値(pi,k,Σi,k)をカメラノードの
ペア(i, k)について更新する。
Else if メッセージnはカメラノードIDのペア(k, i)及び
ペアワイズカメラパラメータ推定値、即ち、
n=(k,i,pk,i,Σk,i), then
ペアワイズカメラパラメータ推定値(pi,k,Σi,k)を反対にした
カメラノードのペア(k, i)について更新する。
If 所与の推定量が自己のカメラノードiのワールドカメラパラメータを
更新するのに適用可能である, then
自己のカメラノードiのワールドカメラパラメータを更新する。
End if
End if
アルゴリズム6
Peer-to-Peer-Calibration ()
While 1
Measurement-Sensing () //アルゴリズム1の呼び出し
If Measurement-Exchange ()がメッセージを受け取る then
//アルゴリズム2の呼び出し
Estimate-Initialization() //アルゴリズム3の呼び出し
End if
If Estimate-Exchange()がメッセージを受け取る then
//アルゴリズム4の呼び出し
Estimate-Integration() //アルゴリズム5の呼び出し
End if
End while
クラスタヘッドは、較正オブジェクト20がその視野を出て、クラスタヘッドの役割が他のカメラノード12に割り当てられるまで、これらの受信された測定値だけでなく自己のローカル測定値も格納する。Measurement Exchange: Cluster-Based () と名付けられたアルゴリズム7は、第2の実施態様において(上述のプロセス52の代わりに)分散ローカル較正プロセスを実施するよう、各カメラノード12の測定値交換モジュール42によって実行されうる例示的なクラスタ・ベースの測定値交換プロセス60の概要を示す。図15は、アルゴリズム7をフローチャート形式で表わす。
アルゴリズム8
Cluster-Based-Calibration ()
While 1
Measurement-Sensing () // アルゴリズム1の呼び出し
If Measurement-Exchange: Cluster-Based ()がメッセージを受け取る then
// アルゴリズム7の呼び出し
If Estimate-Initialization ()がメッセージを受け取る then
// アルゴリズム3の呼び出し
If Estimate-Exchange()がメッセージを受け取る then
// アルゴリズム4の呼び出し
Estimate-Integration() // アルゴリズム5の呼び出し
End if
End if
End if
End while
で表わすことができる。
他の実施態様では、所与の精度レベルがカメラノード12によって達成されているかを判定するために、他の評価基準が使用されてもよいことが認められてもよい。更に、第3の実施態様では、各カメラノード12による精度評価手続きの実行が伴っているが、各カメラノード12が情報をユーザインタフェース72へ送信し、次にそれが精度評価の手続きの一部又は全部を実行することも考えられる。
で表わすことができ、重み付け正規方程式、すなわち、
を反復的に解くことによって達成でき、式中、Jはhのヤコビ行列であり、Σmは測定値ベクトルの共分散行列であり、δは反復のたびに求められるパラメータベクトルの更新値であり、εは再投影誤差ベクトルである。
この大きな非線形最適化問題に対する効率的な実施スキームが利用可能である一方で、ある種のカメラ・ベースのセンサについては計算上の要求が厳しすぎ、幾つかの実施態様はバンドル調整を用いることができない。しかしながら、ペアワイズカメラパラメータの推定にバンドル調整を加えることにより、第5の実施態様は、第1の実施態様よりも高い較正精度を与える。
アルゴリズム12(修正されたプロセス54)
Estimate-Initialization ( )
If 送信側カメラノードID(=k)及び測定値タプルからなるメッセージを
受け取る, then
自己のカメラノードi及び送信側カメラノードkのペアについて
測定値タプルスタックCi,kに測定値タプルを追加する。
If 測定値タプルスタックCi,kが十分なデータを含む, then
自己のカメラノードi及び送信側カメラノードkについて
ペアワイズカメラパラメータ(pi,k,Σi,k)の較正を実行する。
カメラノードIDのペア(i,k)及びペアワイズカメラパラメータ
推定値(pi,k,Σi,k)からなるメッセージを自己のカメラノード中
の2推定値交換モジュールへ渡す。
End if
End if
Claims (24)
- 複数の指向性を有するセンサノード(12)により較正オブジェクト(20)をセンシングすることと、
前記複数の指向性を有するセンサノード(12)間で前記較正オブジェクト(20)に関する測定データを交換することと、
前記交換された測定データに応じて前記複数の指向性を有するセンサノード(12)の各々について較正パラメータの初期集合を推定することと、
前記複数の指向性を有するセンサノード(12)間で前記較正パラメータの初期集合を交換することと、
前記交換された較正パラメータの初期集合に応じて前記複数の指向性を有するセンサノード(12)の各々について較正パラメータの更新された集合を推定することと、を含む方法。 - 前記較正パラメータの初期集合を推定するステップ及び前記較正パラメータの更新された集合を推定するステップは、前記複数の指向性を有するセンサノード(12)の各々によって分散して実行される、請求項1記載の方法。
- 前記複数の指向性を有するセンサノード(12)による較正オブジェクト(20)のセンシングは、複数のカメラノード(12)により少なくとも2つの顕著な特徴(22、24)を有する較正オブジェクト(20)を同時に観察することを含む、請求項1記載の方法。
- 前記較正オブジェクト(20)に関する測定データの交換は、前記複数の指向性を有するセンサノード(12)の各々がその全ての1ホップ通信近傍(12)へ測定データをブロードキャストし、前記全ての1ホップ通信近傍(12)から測定データを受信することを含む、請求項1記載の方法。
- 前記較正オブジェクト(20)に関する測定データの交換は、指向性を有するセンサノード(12)の動的クラスタを形成し、前記動的クラスタのクラスタヘッドに測定データを集めることを含む、請求項1記載の方法。
- 前記クラスタヘッドは、前記クラスタヘッドが前記動的クラスタから離れた後の前記動的クラスタ内の前記複数の指向性を有するセンサノード(12)の各々について較正パラメータの初期集合を推定する段階を行う、請求項5記載の方法。
- 前記複数の指向性を有するセンサノード(12)の各々についての前記較正パラメータの初期集合の推定は、前記測定データのうち前記較正オブジェクト(20)に関する8つ以上の対応するデータ点を有する指向性を有するセンサノード(12)の各ペアの間の相対位置ベクトル及び対応する共分散を決定することを含む、請求項1記載の方法。
- 前記較正パラメータの初期集合の交換は、前記複数の指向性を有するセンサノード(12)の各々がその較正パラメータの集合をその全ての1ホップ通信近傍(12)へブロードキャストし、前記全ての1ホップ通信近傍(12)から受信することを含む、請求項1記載の方法。
- 前記複数の指向性を有するセンサノード(12)の各々の前記較正パラメータの更新された集合を推定することは、再帰最小二乗法を用いて前記複数の指向性を有するセンサノード(12)の各々について前記較正パラメータの初期集合をリファインすることを含む、請求項1記載の方法。
- 前記複数の指向性を有するセンサノード(12)の各々についての前記較正パラメータの更新された集合をグローバル座標系に合うよう調整することを更に含む、請求項1記載の方法。
- 前記複数の指向性を有するセンサノード(12)の各々についての前記較正パラメータの更新された集合を調整することは、前記複数の指向性を有するセンサノード(12)のローカル座標系を互いに動的に位置合わせすることを含む、請求項10記載の方法。
- バンドル調整スキームを用いて前記較正パラメータの更新された集合をリファインすることを更に含む、請求項1記載の方法。
- 前記それぞれの指向性を有するセンサノード(12)が所定の較正精度レベルを達成するまで、前記較正パラメータの初期集合を交換するステップ及び較正パラメータの更新された集合を推定するステップを再帰的に実行することを更に含む、請求項1記載の方法。
- 2つの連続して推定された較正パラメータの集合の間の差が所定の値よりも小さいとき、前記それぞれの指向性を有するセンサノード(12)は、所定の較正精度レベルを達成する、請求項13記載の方法。
- 前記それぞれの指向性を有するセンサノード(12)が所定の較正精度レベルを達成したことを操作者(70)に報告することを更に含む、請求項13記載の方法。
- 前記較正オブジェクト(20)を、前記所定の較正精度レベルをまだ達成していない指向性を有するセンサノード(12)の視野領域に配置することを更に含む、請求項15記載の方法。
- 実行されることにより、複数の指向性を有するセンサノード(12)に請求項1乃至16のうちいずれか一項記載の方法を行わせる複数の命令を含む、有形な機械読み取り可能な媒体。
- 複数のノード(12)を含み、各ノードは、指向性を有するセンサ(18)と、通信モジュール(14)と、前記指向性を有するセンサ(18)から較正オブジェクト(20)のローカルな測定値を受信し、前記通信モジュール(14)を介して近傍ノード(12)から前記較正オブジェクト(20)の追加的な測定値を受信し、前記ローカルな及び追加的な測定値に応じて較正パラメータの初期集合を推定し、前記通信モジュール(14)を介して近傍ノード(12)から較正パラメータの追加的なセットを受信し、前記較正パラメータの追加的な集合に応じて較正パラメータの更新された集合を再帰的に推定するよう構成されたプロセッサ(16)とを有する、
センサネットワーク(10)。 - 前記複数のノード(12)の各々の前記指向性を有するセンサ(18)はカメラ(18)である、請求項18記載のセンサネットワーク。
- 前記複数のノード(12)の各々の前記通信モジュール(14)は無線ラジオである、請求項18記載のセンサネットワーク。
- 前記複数のノード(12)とそれらの通信モジュール(14)を介して通信し、前記複数のノード(12)に関する較正情報を表示するよう構成されたユーザインタフェース(72)を更に含む、請求項18記載のセンサネットワーク。
- 前記ユーザインタフェースは、前記複数のノード(12)の各々によって達成される前記較正精度レベルの表示(94、96、98)を含む、請求項21記載のセンサネットワーク。
- 前記ユーザインタフェースは、前記複数のノード(12)の各々が所定の較正精度レベルを達成したかどうかの表示(94、96、98)を含む、請求項22記載のセンサネットワーク。
- 前記ユーザインタフェースは、グローバル座標系に対する前記複数のノード(12)の相対的な位置及び姿勢を示すグラフィック表示部(92)を含む、請求項21記載のセンサネットワーク。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17872709P | 2009-05-15 | 2009-05-15 | |
US61/178,727 | 2009-05-15 | ||
PCT/US2010/034937 WO2010132791A1 (en) | 2009-05-15 | 2010-05-14 | Calibration of large camera networks |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012526995A true JP2012526995A (ja) | 2012-11-01 |
JP5973910B2 JP5973910B2 (ja) | 2016-08-23 |
Family
ID=43085350
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012511047A Expired - Fee Related JP5973910B2 (ja) | 2009-05-15 | 2010-05-14 | 大規模カメラネットワークの較正 |
Country Status (3)
Country | Link |
---|---|
US (1) | US8760521B2 (ja) |
JP (1) | JP5973910B2 (ja) |
WO (1) | WO2010132791A1 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012202694A (ja) * | 2011-03-23 | 2012-10-22 | Canon Inc | カメラ校正方法 |
KR20150004263A (ko) * | 2013-07-02 | 2015-01-12 | 더 보잉 컴파니 | 계측 시스템을 위한 로봇 장착형 표지 시스템 |
JP2018014686A (ja) * | 2016-07-22 | 2018-01-25 | 日本電信電話株式会社 | カメラキャリブレーション装置、カメラキャリブレーション方法及びカメラキャリブレーションプログラム |
US10127687B2 (en) | 2014-11-13 | 2018-11-13 | Olympus Corporation | Calibration device, calibration method, optical device, image-capturing device, projection device, measuring system, and measuring method |
JPWO2017149869A1 (ja) * | 2016-02-29 | 2018-12-27 | ソニー株式会社 | 情報処理装置、方法、プログラム及びマルチカメラシステム |
JPWO2018043225A1 (ja) * | 2016-09-01 | 2019-06-24 | パナソニックIpマネジメント株式会社 | 多視点撮像システム、三次元空間再構成システム、及び三次元空間認識システム |
JP2022014921A (ja) * | 2020-12-30 | 2022-01-20 | 阿波羅智聯(北京)科技有限公司 | 路側カメラの外部パラメータに基づく三次元感知情報取得方法及び路側機器 |
Families Citing this family (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8515257B2 (en) | 2007-10-17 | 2013-08-20 | International Business Machines Corporation | Automatic announcer voice attenuation in a presentation of a televised sporting event |
US8248476B2 (en) * | 2008-09-03 | 2012-08-21 | University Of South Carolina | Robust stereo calibration system and method for accurate digital image correlation measurements |
JP5958462B2 (ja) * | 2011-03-17 | 2016-08-02 | 日本電気株式会社 | 撮影装置、撮影方法、及びプログラム |
US9058565B2 (en) * | 2011-08-17 | 2015-06-16 | At&T Intellectual Property I, L.P. | Opportunistic crowd-based service platform |
US9202278B2 (en) * | 2011-08-19 | 2015-12-01 | Adobe Systems Incorporated | Plane-based self-calibration for structure from motion |
US20130208121A1 (en) * | 2012-02-10 | 2013-08-15 | Xerox Corporation | Traffic camera diagnostics via test targets |
US9338439B2 (en) | 2012-04-02 | 2016-05-10 | Intel Corporation | Systems, methods, and computer program products for runtime adjustment of image warping parameters in a multi-camera system |
US9516223B2 (en) * | 2012-06-06 | 2016-12-06 | Apple Inc. | Motion-based image stitching |
US9870704B2 (en) * | 2012-06-20 | 2018-01-16 | Conduent Business Services, Llc | Camera calibration application |
US20140211018A1 (en) * | 2013-01-29 | 2014-07-31 | Hewlett-Packard Development Company, L.P. | Device configuration with machine-readable identifiers |
US10037474B2 (en) * | 2013-03-15 | 2018-07-31 | Leap Motion, Inc. | Determining the relative locations of multiple motion-tracking devices |
US9542585B2 (en) | 2013-06-06 | 2017-01-10 | Apple Inc. | Efficient machine-readable object detection and tracking |
JP5950122B2 (ja) * | 2013-12-27 | 2016-07-13 | 株式会社国際電気通信基礎技術研究所 | キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム |
US11054289B2 (en) * | 2014-06-11 | 2021-07-06 | At&T Intellectual Property I, L.P. | Sensor calibration |
EP2983131A1 (en) * | 2014-08-06 | 2016-02-10 | Thomson Licensing | Method and device for camera calibration |
WO2016046690A1 (en) * | 2014-09-22 | 2016-03-31 | Nortech International (Pty) Limited | Method of configuring a monitoring region |
JP6458439B2 (ja) | 2014-10-09 | 2019-01-30 | 株式会社デンソー | 車載カメラ較正装置、画像生成装置、車載カメラ較正方法、画像生成方法 |
US9791264B2 (en) | 2015-02-04 | 2017-10-17 | Sony Corporation | Method of fast and robust camera location ordering |
US9947111B2 (en) * | 2015-10-28 | 2018-04-17 | Sony Corporation | Method of multiple camera positioning utilizing camera ordering |
GB2544269A (en) * | 2015-11-05 | 2017-05-17 | Canon Europa Nv | A method of determining location information of an imaging apparatus forming part of a surveillance system |
US10546385B2 (en) * | 2016-02-25 | 2020-01-28 | Technion Research & Development Foundation Limited | System and method for image capture device pose estimation |
CA2961921C (en) | 2016-03-29 | 2020-05-12 | Institut National D'optique | Camera calibration method using a calibration target |
US20190122389A1 (en) * | 2016-05-30 | 2019-04-25 | Sony Corporation | Information processing apparatus, information processing method, program, and imaging system |
US10217225B2 (en) * | 2016-06-01 | 2019-02-26 | International Business Machines Corporation | Distributed processing for producing three-dimensional reconstructions |
GB2553108B (en) * | 2016-08-22 | 2020-07-15 | Canon Kk | Method, processing device and system for managing copies of media samples in a system comprising a plurality of interconnected network cameras |
EP3328060A1 (en) * | 2016-11-23 | 2018-05-30 | Nokia Technologies OY | Positioning cameras |
US10601678B2 (en) | 2017-08-24 | 2020-03-24 | Nternational Business Machines Corporation | Localized sensor quality analysis and control |
US20190180475A1 (en) * | 2017-12-08 | 2019-06-13 | Qualcomm Incorporated | Dynamic camera calibration |
CN108521557A (zh) * | 2018-04-10 | 2018-09-11 | 陕西工业职业技术学院 | 一种适用于大型物流仓库摄像头的监控方法及监控系统 |
EP3803776A4 (en) * | 2018-05-25 | 2022-03-23 | Packsize, LLC | SYSTEMS AND METHODS FOR MULTI-CAMERA PLACEMENT |
DE102018128990B4 (de) * | 2018-11-19 | 2021-11-18 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Verfahren zum Kalibrieren sowie Verfahren und Vorrichtung zur Vermessung |
US11367347B2 (en) | 2020-02-24 | 2022-06-21 | Ford Global Technologies, Llc | Enhanced sensor operation |
DE102020211507A1 (de) * | 2020-09-14 | 2022-03-17 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zum Bewerten einer Kamerakalibrierung |
US11961259B2 (en) | 2021-12-30 | 2024-04-16 | Blue River Technology Inc. | Camera array calibration in a farming machine |
CN116797669B (zh) * | 2023-08-24 | 2024-01-12 | 成都飞机工业(集团)有限责任公司 | 一种基于多面工装的多相机阵列标定方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1089957A (ja) * | 1996-09-13 | 1998-04-10 | Sakurada:Kk | 構造部材の三次元計測方法 |
JP2005172803A (ja) * | 2003-11-10 | 2005-06-30 | Mitsubishi Electric Research Laboratories Inc | 環境中に分散した複数のセンサのポーズを求める方法 |
US7062861B2 (en) * | 2001-06-28 | 2006-06-20 | Snap-On Incorporated | Self-calibrating position determination system and user interface |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7020701B1 (en) | 1999-10-06 | 2006-03-28 | Sensoria Corporation | Method for collecting and processing data using internetworked wireless integrated network sensors (WINS) |
US7671893B2 (en) | 2004-07-27 | 2010-03-02 | Microsoft Corp. | System and method for interactive multi-view video |
US20080255911A1 (en) | 2007-04-13 | 2008-10-16 | Raytheon Company | Method and system for adaptive closed loop resource management |
US9086499B2 (en) * | 2008-09-23 | 2015-07-21 | Purdue Research Foundation | Clustering protocol for directional sensor networks |
-
2010
- 2010-05-14 US US13/201,064 patent/US8760521B2/en not_active Expired - Fee Related
- 2010-05-14 JP JP2012511047A patent/JP5973910B2/ja not_active Expired - Fee Related
- 2010-05-14 WO PCT/US2010/034937 patent/WO2010132791A1/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1089957A (ja) * | 1996-09-13 | 1998-04-10 | Sakurada:Kk | 構造部材の三次元計測方法 |
US7062861B2 (en) * | 2001-06-28 | 2006-06-20 | Snap-On Incorporated | Self-calibrating position determination system and user interface |
JP2005172803A (ja) * | 2003-11-10 | 2005-06-30 | Mitsubishi Electric Research Laboratories Inc | 環境中に分散した複数のセンサのポーズを求める方法 |
Non-Patent Citations (1)
Title |
---|
JPN6014013379; Dhanya Devarajan,etc.: 'Calibrating Distributed Camera Networks' Proceedings of the IEEE Vol.96,No.10, 200810, p.1625-1639 * |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012202694A (ja) * | 2011-03-23 | 2012-10-22 | Canon Inc | カメラ校正方法 |
CN110780672A (zh) * | 2013-07-02 | 2020-02-11 | 波音公司 | 用于度量系统的机器人安装的界标系统 |
KR20150004263A (ko) * | 2013-07-02 | 2015-01-12 | 더 보잉 컴파니 | 계측 시스템을 위한 로봇 장착형 표지 시스템 |
JP2015014600A (ja) * | 2013-07-02 | 2015-01-22 | ザ・ボーイング・カンパニーTheBoeing Company | 計測システムのためのロボット搭載モニュメントシステム |
CN110780672B (zh) * | 2013-07-02 | 2023-08-15 | 波音公司 | 用于度量系统的机器人安装的界标系统 |
KR102224047B1 (ko) * | 2013-07-02 | 2021-03-10 | 더 보잉 컴파니 | 계측 시스템을 위한 로봇 장착형 표지 시스템 |
US10725478B2 (en) | 2013-07-02 | 2020-07-28 | The Boeing Company | Robotic-mounted monument system for metrology systems |
US10127687B2 (en) | 2014-11-13 | 2018-11-13 | Olympus Corporation | Calibration device, calibration method, optical device, image-capturing device, projection device, measuring system, and measuring method |
JPWO2017149869A1 (ja) * | 2016-02-29 | 2018-12-27 | ソニー株式会社 | 情報処理装置、方法、プログラム及びマルチカメラシステム |
US11165945B2 (en) | 2016-02-29 | 2021-11-02 | Sony Corporation | Information processing device, method, and multi-camera system |
JP2018014686A (ja) * | 2016-07-22 | 2018-01-25 | 日本電信電話株式会社 | カメラキャリブレーション装置、カメラキャリブレーション方法及びカメラキャリブレーションプログラム |
JPWO2018043225A1 (ja) * | 2016-09-01 | 2019-06-24 | パナソニックIpマネジメント株式会社 | 多視点撮像システム、三次元空間再構成システム、及び三次元空間認識システム |
JP7113294B2 (ja) | 2016-09-01 | 2022-08-05 | パナソニックIpマネジメント株式会社 | 多視点撮像システム |
JP2022014921A (ja) * | 2020-12-30 | 2022-01-20 | 阿波羅智聯(北京)科技有限公司 | 路側カメラの外部パラメータに基づく三次元感知情報取得方法及び路側機器 |
JP7321231B2 (ja) | 2020-12-30 | 2023-08-04 | 阿波羅智聯(北京)科技有限公司 | 路側カメラの外部パラメータに基づく三次元感知情報取得方法及び路側機器 |
US11893884B2 (en) | 2020-12-30 | 2024-02-06 | Apollo Intelligent Connectivity (Beijing) Technology Co., Ltd. | Method for acquiring three-dimensional perception information based on external parameters of roadside camera, and roadside device |
Also Published As
Publication number | Publication date |
---|---|
JP5973910B2 (ja) | 2016-08-23 |
WO2010132791A1 (en) | 2010-11-18 |
US20110310255A1 (en) | 2011-12-22 |
US8760521B2 (en) | 2014-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5973910B2 (ja) | 大規模カメラネットワークの較正 | |
US8115814B2 (en) | Mobile tracking system, camera and photographing method | |
US10062178B2 (en) | Locating a portable device based on coded light | |
JP2019125354A (ja) | 情報処理装置、システム、方法、およびプログラム | |
Yao et al. | Distributed roadmaps for robot navigation in sensor networks | |
CN207115193U (zh) | 一种用于处理任务区域的任务的移动电子设备 | |
CN112544097A (zh) | 用于执行三维无线电模型构建的方法、装置和计算机程序 | |
Radke | A survey of distributed computer vision algorithms | |
JP6735446B2 (ja) | カメラシステムとその制御方法、及び電子機器とその制御プログラム | |
CN207067803U (zh) | 一种用于处理任务区域的任务的移动电子设备 | |
US11528452B2 (en) | Indoor positioning system using beacons and video analytics | |
CN108459597A (zh) | 一种用于处理任务区域的任务的移动电子设备以及方法 | |
CN104700408A (zh) | 一种基于摄像机网络的室内单目标定位方法 | |
TWI739255B (zh) | 移動式機器人 | |
WO2019165779A1 (zh) | 一种定位方法及系统 | |
Feng et al. | Three-dimensional robot localization using cameras in wireless multimedia sensor networks | |
WO2020110359A1 (en) | System and method for estimating pose of robot, robot, and storage medium | |
Sohn et al. | Localization system for mobile robot using wireless communication with IR landmark | |
de San Bernabé et al. | Efficient integration of RSSI for tracking using Wireless Camera Networks | |
CN109782755B (zh) | 控制agv进行校准、agv校准位置的方法、计算机存储介质及agv | |
Miller et al. | Cappella: Establishing multi-user augmented reality sessions using inertial estimates and peer-to-peer ranging | |
Alves et al. | Cost-effective indoor localization for autonomous robots using kinect and wifi sensors | |
CN206833252U (zh) | 一种移动电子设备 | |
Abboud et al. | eSNAP: Enabling sensor network automatic positioning in IoT lighting systems | |
Kulkarni et al. | Approximate initialization of camera sensor networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130401 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140401 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140626 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150106 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20150403 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20150501 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150604 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20151117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160314 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160413 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20160413 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20160511 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160628 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160715 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5973910 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |