JP2011530706A - 3d−tofカメラ装置及びそのための位置・向き較正方法 - Google Patents

3d−tofカメラ装置及びそのための位置・向き較正方法 Download PDF

Info

Publication number
JP2011530706A
JP2011530706A JP2011522445A JP2011522445A JP2011530706A JP 2011530706 A JP2011530706 A JP 2011530706A JP 2011522445 A JP2011522445 A JP 2011522445A JP 2011522445 A JP2011522445 A JP 2011522445A JP 2011530706 A JP2011530706 A JP 2011530706A
Authority
JP
Japan
Prior art keywords
camera
reference plane
orientation
tof
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011522445A
Other languages
English (en)
Inventor
ガルシア、フレデリック
フレデリック グランディジエール、
ブルーノ ミルバッハ、
オルセロ、ロベルト
ソリニャック、トーマス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IEE International Electronics and Engineering SA
Original Assignee
IEE International Electronics and Engineering SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IEE International Electronics and Engineering SA filed Critical IEE International Electronics and Engineering SA
Publication of JP2011530706A publication Critical patent/JP2011530706A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

カメラ装置は、シーンのカメラ投射レンジイメージを捕捉する3D−TOFカメラと、レンジイメージを処理するイメージプロセッサを備える。イメージプロセッサは、そのハードウェア及びソフトウェアが組み込まれた位置及び向き較正ルーチンを含み、該位置及び向き較正ルーチンはイメージプロセッサにより実行されるとき、3D−TOFカメラにより捕捉されるレンジイメージ内の1つ以上の面を検出し、該1つ以上の検出面から基準面を選択し、基準面に対する3D−TOFカメラの位置及び向きパラメタ、例えば基準面上方の高さ及び/又はカメラロール角及び/又はカメラピッチ角を計算する。

Description

本発明は、概して3Dコンピュータバージョンの技術分野、特に3D飛行時間カメラ装置のための位置・向き較正方法に関する。
3D飛行時間カメラ(以下、「3D−TOFカメラ」又は単に「カメラ」という)は本書で使用するとき、飛行時間測定原理を用いることにより、シーンに関する距離情報を含むイメージ(以下、「レンジイメージ(距離画像)」)を捕捉するカメラを云う。斯かるカメラは一般に、変調又はパルス光を3Dで画像化しようとするシーン内に出射する光源と、該シーンを光学系により画像化する画素アレイを含む。カメラはそして、画素にて検出される光と出射光とを相関し、出射光と受取光間の位相差又は出射時刻と受取時刻の時間差を画素毎に特定する。これ等の量は、カメラと、斯かる画素上に画像化されるシーンの部分との間のラジアル(投射線)距離に比例する。レンジイメージを実時間で捕捉する3D−TOFカメラも、知られている。
3D−TOFカメラの応用分野は数多く、多様である。斯かる3D−TOFカメラを自動車分野に、例えば自動車における、自動車の環境を監視する搭乗者検出及び分類のために採用することが提案されている。3D−TOFカメラはまた、制限領域(例えば飛行場、銀行又は公共建築物)への近接を制御する、特に人々及び物体を検出、追跡及び計数するのに提案されている。3D−TOFカメラ装置の重要なメリットは、深さ(又は距離)情報が即入手可能であり、例えばステレオ方式におけるようなコスト集約的計算を要しないことである。
本発明者等の知る限り、3D−TOFカメラの位置及び向き較正は現在、カメラを設置する撮影者が比較的複雑な手順を踏むのを要し、これ等が斯かるカメラの市場における成功を阻んでいるようである。Beraldin等は論文”Practical Range Camera Calibration”Proc. Soc. Photo-Opt. Instrum. Eng. で、宇宙空間応用を想定したレンジカメラのための較正方法を提示している。較正を実行する、第1手順が近接距離量(0.5m〜1.5m)に対する特定の較正である2手順方法を提案している。この第1の手順において、正確なリニアステージを用いるレンジカメラの視野の既知位置に位置付けたターゲットのアレイを用いる。第2の手順で、正確な電子距離測定装置を使って1.5mより長い距離に位置付けた、より少数のターゲットを用いることを提案している。この論文が示すように、シーン中における基準点は較正方法の実行のために用いられる。論文“High Resolution Segmentation with a Time-of-Flight 3D-Camera using the Example of a Lecture Scene” by Sandra et al. (Freie Universitaet Berlin, 2006) は、3D−TOFカメラからのレンジイメージと2Dカメラからのイメージの組み合わせを論じている。これ等2つのカメラへのイメージをマップ化するため、セグメント化のためのカメラ組み合わせ使用前に較正手順が実行される。この目的のため、特性点が少なくとも5x5である較正パターンが2つのカメラの前に、これ等の点が両カメラのシーン上にできるだけ均一に分布されるように置かれる。論文”Calibration for increased accuracy on the range imaging camera Swissranger”, ISPRES Commission V Symposium Image Engineering and Version Metrology, XXVI Part 5, Dresden 25 -27 September 2006 で、 Kalmann et al. はSwissranger SR-2 カメラの特性決定と、カメラの精度を向上できるようにするセンサ較正方法とを提示している。この場合、較正方法はNIR−LEDsにより代表される基準点の5x5マトリックスを用いる写真測量的較正に基づいていた。
"Practical Range Camera Calibration"by Beraldin et al., Proc. Soc. Photo-Opt. Instrum. Eng. "High Resolution Segmentation with a Time-of-Flight 3D-Camera using the Example of a Lecture Scene" by Sandra et al. (Freie Universitaet Berlin, 2006) "Calibration for increased accuracy on the range imaging camera Swissranger"by Kalmann et al., ISPRES Commission V Symposium Image Engineering and Version Metrology, XXVI Part 5, Dresden 25 -27 September 2006
3D(TOF)カメラで捕捉されるイメージデータからのシーン座標の実時間又は近実時間較正は、カメラから、カメラの向き及び位置パラメタを含むワールド座標系への変換の知識を要する。交通交差点、建造物又は生産区域の監視等の実ワールド応用に対して、カメラ位置決め及び配向は設置毎に異なる場合があり、このことは目下、外部カメラ較正が個別設置毎に実行されなければならないと云うことを示唆している。上記のように、現状技術方法は既知の基準座標をもつ何らかのボードが正確に設置されることを要する。斯かる較正ツールの設置は時間がかかり、利用可能な空間によっては、不可能でないとしても複雑になるものである。
本発明の目的は、3D−TOFカメラの設置、特に位置及び向きの較正を容易にすることにある。この目的は、請求項1に記載の方法又は請求項9に記載の3D−TOFカメラ装置により達成される。
3D−TOFカメラを含むカメラ装置のための位置及び向き較正方法は
3D−TOFカメラを用いて画像化されるべきシーンのカメラ投射レンジイメージ(距離画像)を捕捉し、
レンジイメージ内の1つ以上の面(即ち平面)を検出し、且つ検出される該1つ以上の面の中から、基準面を選択し、
基準面に関する3D−TOFカメラの位置及び向きパラメタを計算することを含む。斯かる位置及び向きパラメタは好ましくは、基準面上方の高さ(即ち、カメラと基準面間の距離)、カメラロール角及びカメラピッチ角の少なくとも1つ、最も好ましくは全てを含む。
当業者は、一般に3D−TOFカメラの設置の最終手順の1つとしての実行が期待されるこの提唱方法は、規定の較正パターンも、シ−ン内の規定の基準点をマークする較正工具も何等用いるのを要しないことを理解するであろう。本方法の目的ためには、カメラの視野内の領域がワールド座標系に関する既知の向きをもつ面に対応すれば十分である。一般に、この基準面はシーン内のフロアであろう。本提唱方法には、3Dカメラはカメラ投射における(即ち、カメラ座標系における)シーンの3Dデータ点を提供すると云う利点がある。カメラにより捕捉されるこれ等3Dデータにモデル面を合わせることにより、ワールド座標系とカメラ座標系間の関係を規定する、少なくとも3つの方程式の系(面を規定するために少なくとも3つの点が必要である)を計算することができる。この系を解くことにより、上記のカメラ位置及び向きパラメタ:基準面に対するカメラのロール角、ピッチ角及び高さを特定することができる。本発明の目的のため、カメラは負のカメラz軸方向に向き、カメラx軸及びカメラy軸は互いに、且つカメラz軸に直角に配向されているものとする。これ等の制限の場合を除いて、カメラx軸及びカメラy軸はそうでなく、自由に選ぶこともできる。本文脈において、「ロール角」はカメラx軸の周りの回転を測定する角度、ピッチ角はカメラy軸の周りの回転を測定する角度を指す。発明者の知り得る限り、これは、提供される粗データの利点を生かし、且つシーン内の規定の基準点(即ち、実際のシーン内で、レンジイメージにおいて特定されるようにマークされなければならない点)を用いずに非実験室状態で3D−TOFカメラの向き及び位置パラメタを特定できる最良の方法である。
本方法のため、内部カメラ較正が予め、例えばカメラ工場にて実行されていなければならないと云うことに言及されるべきである。「内部較正」は本書で用いられるとき、カメラが設置される場所に無関係なカメラパラメタ、例えば焦点距離、主点位置及びレンズ歪等の光学系パラメタの較正を指す。内部カメラ較正方法は例えば、EP1662440A1に開示されている。内部較正とは異なり、本方法は「外部較正」、即ち、カメラが設置される場所に依存しないパラメタの較正に取り組むものである。
3D−TOFカメラ装置の目的とする応用分野を問わず、得られるレンジイメージは好ましくは自動的に推定される。この目的のため、レンジイメージは、例えば物体又はパターン認識ソフトウェア等の適宜手段により処理されなければならない。本提唱方法では、カメラ間の位置及び/又は向きの差を補償することができる。本発明の利点の1つは従って、異なる場所に取付けられた3D−TOFカメラにより得られるレンジイメージに同一のソフトウェアを用い得ることである。
本発明の更なる側面は、位置及び向き較正方法を実施するように構成及び配置されるカメラ装置に関する。斯かる装置は、シーンのカメラ投射レンジイメージ(距離画像)を捕捉する3D−TOFカメラと、該レンジイメージを処理するイメージプロセッサとを含む。イメージプロセッサは、そのハードウェア及び/又はソフトウェアが組み込まれた位置及び向き較正ルーチンを含み、該位置及び向き較正ルーチンはイメージプロセッサにより実行されるとき、3D−TOFカメラにより捕捉されるレンジイメージ内の1つ以上の面を検出し、該少なくとも1つ以上の検出面の中から基準面を選択し、且つ該基準面に対する3D−TOFカメラの位置及び向きパラメタ、例えば基準面上方の高さ及び/又はカメラロール角及び/又はカメラピッチ角を計算する。
レンジイメージ内の1つ以上の面の検出は、RANSACによる面検出を用いて実行することができる。RANSAC(RANdom SAmple Consensus)はアウトライアー(異常値)に対して特に頑健な、モデルの適合アルゴリズムである。RANSACアルゴリズムの簡潔な記述がH. Cantzler (University of Edinburg)による論文”Random Sample Consensus (RANSAC)”に与えられており、より詳細なものはM. A. Fischler及びR. C. Bollesの”Random sample consensus: A paradigm for model fitting with application to image analysis and automated cartography”, Communications of ACM, 24(6): 381 − 395, 1981に与えられている。
RANSACアルゴリズムを用いても、用いなくても、1つ以上の面の検出は有利には、3D−TOFカメラにおける光の拡がりにより惹起されるレンジ誤差を補償し、且つ/或いは信頼できないと考えられるレンジ情報を含むイメージ画素(例えば輝度又はアウトライアーが少なすぎる画素)を棄却することを含むと良い。光の拡がりの効果を補償する好適な方法は、欧州特許出願07024505.5に記載されている。
検出面から基準面の選択は好ましくは、フロア面を特定し、フロア面を基準面として固定することを含む。殆どの応用において、監視カメラは監視されるべき場所の上方の高さ位置に取付けられ、下方に向けられるので、フロアはカメラの視野にあることが見込まれる。最も好ましくは、基準面の選択はフロア面に対するカメラロール角及び/又はカメラピッチ角のユーザ規定限界の入力に基づき、且つそれに追従する較正ルーチンにより自律的に行われる。カメラにより画像化されるシーンが1つを超える平面(例えば、フロア及び壁等)を含むことが起こり得る。この場合、カメラを設置する人は、カメラがフロア面を自律的に特定できるようにするため、大ざっぱな向き示度(「−45°と+45°間のロール角、「−90°と0°間のピッチ角」等」を入力することができる。
基準面の選択はまた、ユーザインターフェースを用いて行う1つ以上の検出面の提示及びユーザ対話に基づく基準面の固定を含むことができる。
方法がユーザとの何らかの対話を要する場合、カメラ装置は好ましくはユーザへの出力データの提示、及び/又はユーザからの入力データの受取を含む。斯かるユーザインターフェースは例えば、ディスプレースクリーン、キーボード又はキーパッド、タッチスクリーン等を含むことができる。代替として、カメラ装置はユーザが装置の設定のためユーザインターフェースに一時的に接続できるようにするハードウェアインターフェース(例えば、ラップトップ)を含むことができる。好ましくは、ユーザインターフェースは、カメラの設置者がカメラ配景におけるシーンを映像化できるようにするディスプレースクリーンを含む。面を同設置者が選ばなければならない場合、1つ以上の検出面はこのディスプレースクリーン上に(例えば、異なる色彩で)表示することができる。
好ましくは、較正ルーチンはカメラ座標系とワールド座標系間の座標変換の座標変換パラメタを含む。斯かる座標変換はシーンのカメラ投射レンジイメージに適用されるとき、斯かるレンジイメージを、座標が基準面に関して定義されるシーンの直交座標表示に変換する。カメラ装置は好ましくは、座標変換パラメタを保存できる記憶機構を含む。
カメラ装置は以下に提示されるように、特に横断歩道における歩行者検出に、斯かる応用において画像化されるシーンは基準面として作用可能なフロア面が拡大したものであるから、適していることが理解されるであろう。
本発明の更なる詳細及び利点は、添付図面を参照する以下の非限定実施態様の詳細な説明から明らかになるであろう。図面において、
図1はワールド座標系とカメラ座標系の間の関係を示す概略図である;
図2は3D−TOFカメラ装置の概略図である;
図3は3D−TOFカメラを含む横断歩道監視システムの斜視図である;
図4は3D−TOFカメラの好適な設置方法のフロー図である。
図2は、3D−TOFカメラ装置12と、イメージプロセッサ14(カメラから分離された構成部品として示されているが、同一収納容器にカメラと一体に組み込んでも良い)を含む3D−TOFカメラ装置10の概略図を示す。カメラはレンズ16で示す光学画像化機構と、変調又はパルス光で画像化されるべきシーンを照射する、LEDアレイ18で示す照射ユニットを含む。カメラ装置はまた、ユーザインターフェース(この場合、ラップトップコンピュータ20)と接続できるようにするハードウェアインターフェース、例えばUSBポート、ファイアワイヤ等(図示せず)を含む。
3D−TOFカメラで捕捉されるレンジイメージは、カメラから画像化表面要素への距離を表す距離値dのマトリックスに相当する。カメラの内部カメラパラメタ(例えば、焦点距離、カメラの主点及び歪みパラメタ)が与えられると、シーン内の可視表面要素の3D座標c[X, Y, Z]Tをカメラ座標系に関して決定することができる。カメラ座標系に関して表される座標の前に、ワールド座標系で表される、上付き番号“w”により先行される座標で区別するため、上付き文字“c”が付せられる。可能な実施態様において、これは、画素毎の捕捉距離と画素毎の内部カメラパラメタで規定される単位ベクトルc[ex, ey, ezTの間で結果を計算することにより得られる。この計算は、ここに引用によりその全体に付き挿入されるEP1662440A1に説明されている。
ワールド座標系{W}とカメラ座標系{C}間の関係が回転マトリックス(3x3)と並進(translation)ベクトルから成る(図1に示すように)限り、次の式を規定することができる:
Figure 2011530706
ここで、
Figure 2011530706
は最後の要素として1増大された座標ベクトル
Figure 2011530706
を表し、カメラ座標系とワールド座標系の間の同形異義性表示ができるようにする。
この回転マトリックスRは、z軸、y軸及びx軸の周りの夫々3つの要素回転の数列を定義するオイラー角α、β及びγを用いて提示される。一般に、回転が時計回り方法に、先ずz軸の周り、次いで既に一度回転されているy軸の周り、最後に、前の段階で既に二度回転されているx軸の周りになされるものとする。
Figure 2011530706
ここで、要素回転マトリックスは[R]、[R]及び[R]は次式で与えられる。
Figure 2011530706
Figure 2011530706
Figure 2011530706
(2)に回転マトリックス(3、4、5)を代入することにより、カメラ向きを定義する、結果となる回転マトリックスは
Figure 2011530706
従って、(1)から
Figure 2011530706
表示を簡単にするため、回転マトリックスRのith行及びjth列のマトリックス要素をaijで表す。(7)から、
Figure 2011530706
が得られる。
カメラの外部較正が行われない限り、カメラ座標系に関する3Dシーン点の座標、即ち[X, Y, Z]のみが既知である。カメラ座標系とワールド座標系間の変換マトリックス[Rt]を決定するため、データに何らかの拘束を付すことが必要になろう。
次に、カメラにより画像化されるシーンがフロアを含み、これが基準面として較正ルーチンにおいて選ばれているものと仮定する。
シーン内の面を選んでいることによりワールド座標系に関して、その面内に含まれる点の座標を特定値に固定することができる。便宜上、この座標をゼロに固定しよう。従って、座標Z=0を考慮して、(8)から
Figure 2011530706
となる。
式(9)の系の最後の方程式は興味あるものである。この方程式は4つの未知の変数[α31、α32、α33、t]を提示し、フロアに属する少なくとも4つの点[CXk,CYk, CZk], k=1, ..., nが以下の式の系を解くのに必要であることを示唆している。
Figure 2011530706
ここで、n≧4である。フロアに由来する点が多ければ多いほど、各未知変数の値は正確になるであろう。
(10)の系を効率的に解く方法は、(10)をマトリックス形式で書く。
Figure 2011530706
そして、例えばGolub et al による”Matrix Computations”, 3rd edition, 1996, Johns Hopkins University Press, Baltimoreに記述されている特異値分解(SVD:singular value decomposition)を適用することによる。
SVD計算から、その最小特異値に対応する特異ベクトルはその解に対して最小二乗近似を与えるが、これはλと呼ばれるスケールファクタまでである。従って、SVD計算から、[α31、α32、α33、t]値の代わりに、結果として得られるのは[ν、ν、ν、ν]であり、
Figure 2011530706
となる。
未知変数[a31 3233]に対する正しい値を固定するため、λ値を特定する必要がある。未知変数は最後の回転マトリックスに、且つ直交回転マトリックス特性:
Figure 2011530706
(ここでIは単位マトリックスを表す)の1つから対応するので、以下の拘束を定義することができる。
Figure 2011530706
スケールファクタλを決定して、この拘束(14)における式(12)を次のように整理することができる。
Figure 2011530706
符号の異なる2つの可能な解がある。次のものに対して、マトリックス係数α33(式(12)参照)が正である、λの解を考えてみよう。この解は、フロアの法線ベクトルが、カメラ規準系の原点がワールド座標系における正のz成分を有するようなワールド座標系のz軸に対応する状態に相当する。
SVD計算の代替として、式(14)の拘束を伴う直接最小二乗計算を、例えばFitzgibbonによる”Direct Least Square Fitting of Ellipses”, Tern Analysis and Machine Intelligence, Vol. 21, No. 5, May 1999に提示されているように計算することができる。(11)におけるカメラ座標系とワールド座標系の間の変換マトリックスの分散マトリックスを計算することにより、4x4マトリックスが得られる。このマトリックスを(14)の拘束マトリックスと組み合わせて、解くべき一般化固有系を得ることができる。直接最小二乗法はSVDと比較して計算コストが安いので、実際のマイクロプロセッサでの実現に適している。
λの値が一旦固定されると、(12)にλを代入することにより、未知変数を自動的に推定することができる。従って、直接決定されるのは、z方向の並進t並びに回転マトリックス(6)の第3行である:
Figure 2011530706
式(16)を解いて回転角β及びγを次のように得ることができる。
Figure 2011530706
Figure 2011530706
β及びγには、同一解に導く2つの値があることに注目。角度γの範囲を半円、例えば間隔[−π/2、π/2]に限定すると、解は不明瞭なところが無くなる。この拘束は、カメラ座標系がワールド座標系と一致する初期向きから90°未満でx軸の周りにカメラが回転されるものと仮定されることを意味するであろう。
これ等の計算から、ピッチ回転及びロール回転に対応する角度β及びγが推定されたことになる。回転を完結するための残る角度は任意の値、例えば便宜のため0°に固定できる偏揺れ(yaw)角αである。並進ベクトルtは[0,0,tz]に固定でき、これはワールド座標系の原点がカメラ座標系の原点の下に垂直にあることを意味する。従って、(1)に提示の変換マトリックスは、フロアを基準面として用いて、完全に決定することができる。
この詳細な記載にこれまで提示されたような方法は、基準面の選択に続く、外部カメラ較正の部分に相当する。以下、シーン内の面の検出及び基準面の選択に付いて、より詳細に論じる。物(例えば、家具又は人々)及び/又は1つ以上の面(屋根又は壁)がシーン内にあるとき、頑健(robust)な適合ルーチンを用いてシーン内の面を検出しなければならない。面に属するレンジイメージ内の点と物に属する点とを区別するため、RANSACベース面検出を用いるのが好ましい。RANSACアルゴリズムはモデルの頑健な適合のための反復アルゴリズムである。実験データにおけるアウトライアー(outliers)に対して良好な耐性をもつと云う意味で、頑健である。その構造は簡単だが、次の手順に基づき力強い:第1に、このアルゴリズムはレンジイメージの3つの点を無秩序に選び、これ等3つの点で測られる面に属するインライアー(inliers)の数を計算する(ある程度の誤差許容度をもって)。アルゴリズムは次いで、3つの新たな点を選び、面に合うデータがそれ以上無くなる迄、又は繰返し所定数に達する迄、同一動作を行う。最良面(最高数のインライアーのある)を定義する、これ等3つの点がアルゴリズムにより復元されるであろう。異なる点トリプレットで定義される面は必ずしも、シーン内に実際に存在する面に対して最良のフィットではない。従って、面パラメタのより良い推定値を、例えば最小二乗法を用いて計算すると良い。シーン内の複数の物又は人に属する複数点は通常、1つの面には属さないので、棄却されるものと理解されるであろう。
シーン内に1つの面のみが存在するとは演繹的(a priori)に仮定することはできない。従って、検出面から基準面を選択するための方法が採用されなければならない。1つの面のみが検出される場合、殆どの監視応用例では、この面がフロア面であり、較正ルーチンがその面を基準面として固定できるものと、ある程度の妥当な確信を以て仮定することができる。1つ以上の面が検出される場合、カメラの設置者によって、何らかの入力が較正ルーチンに与えられるべきである。
カメラがフロアに面している場合、フロアはシーン内の他の面(例えば、天井又は壁)から次のようにして区別することができる:カメラをフロア上方に設置し、ワールド座標系のカメラの推定z軸tを正とする(ここで、ワールド座標系はフロアレベル上方の点のz座標が正となるように配向されるものとする)。カメラ上方の天井は何れも、検出面に、更なる考慮のため条件t>0を課すことによりフロア面の座標セットから容易に棄却することができる。y軸の周りのピッチ角βが間隔[−π/4、π/4]内にあるよう要求することにより、検出面に、更なる考慮のため条件|α31|=|sinβ|<21/2/2を課すことができる。推定回転マトリックス係数α31はカメラx軸の、較正面の法線ベクトルへの投影であるので、上記条件により側壁、即ちワールドz軸に平行な壁を棄却することができる。カメラをy軸の周りにπ/4より大きく回転させる状態にも対処することができる。これ等の場合、ユーザは、4つの可能な象限の中どの象限に、較正方法の適用前レンジイメージがそれに応じて0、π/2、π、3π/2回転可能になるようなロール角があるかをユーザインターフェースに指示しなければならないであろう。ロール角の象限の指示は、その側のどれが上側であるかをカメラに指示することに基本的に相当する。
当業者は、レンジイメージ内で検出されるどんな面も、ワールド座標系に関する検出面の相対向きが指示(直接、又は間接的に、例えばカメラの上側又は下側の表示を介して)されさえしていれば、用いることができることに気付くであろう。較正ルーチンは好ましくは、設置を通してユーザを案内するように構成され、例えばユーザに、カメラのだいたいの向き、例えばカメラが下向きか、上向きか、また円のどの象限にロール角があるかの指定を求めることができる。較正ルーチンはまた、レンジイメージ内で検出される異なる面を表示(例えば、色調、ハイライト等により)するように構成されて、そしてユーザが選ばれるべき基準面を指示するよう求められても良い。
好ましくは、ユーザは、面検出がなされる前に、だいたいのカメラ向きを指示する。較正ルーチンが基準面としてだいたいのカメラ向きに対して所定の向きを選ぶように構成されるべき場合、RANSACアルゴリズムにおいて無秩序に選ばれた点トリプレットが含まれる何らかの仮想面は、それ等の向きは上記だいたいのカメラ向きとは相いれないので、直ちに棄却することができる。従って、RANSACアルゴリズムは好ましくは、仮想面をだいたいのカメラ向きと一致して定義する斯かる点トリプレットのみのための費用関数(cost function:通常はインライアーの数)を推定するように最適化される。
較正ルーチンを更に良くするため、面検出のベースとして働くレンジイメージのコントラストを高めることができる。このような実施は、コントラスト損により生ずる距離測定誤差を低減する。特に、較正ルーチンは好ましくは、シーンからの反射光の変調の振幅が所定の閾値下である(カメラの明瞭距離からずっと遠いシーンの部分が取り除かれるような)レンジイメージ内の領域を、面検出実施前に棄却して、面検出アルゴリズムで考慮されるべきイメージ点のプールを減少し、それより計算時間の改良をはかるように構成される。
まとめとして次に、3D−TOFカメラ装置を設置する好適な方法を、図4を参照して説明する。第1に手順41において、カメラ装置の設置担当者が3D−TOFカメラ12を指定場所、例えば図3に示すような横断歩道22の上方の高い位置に取付ける。一旦カメラが正確に位置付けられ、配向される(ディスプレースクリーンをカメラに繋いで、又は利用可能な造付けディスプレースクリーンを用いて確認されるべきである)と、ユーザはカメラ較正ルーチンを含むカメラ設定プログラムを開始する。
手順42において、較正ルーチンがユーザにカメラのおおよその向きを指定するよう求める。これは例えば、異なる予定のカメラ位置及び/又は向きを示す1組の図像又は画像を提示し、且つユーザに実際のカメラ向きに最も良く対応する図像又は画像を選択することを要求することにより行われる。その後、カメラの向きはそれ以上変更されるべきではない。斯かる変更がそれでも必要な場合、設定プログラムは再度開始されるべきである。監視されるべきシーンのレンジイメージは次いで、手順43にて捕捉される。カメラ向きがその間変更されていないなら、予め(カメラが設置されたとき)捕捉されたレンジイメージを較正のために用いることができ、手順43を省略することができる。
較正ルーチンは次いで、例えばEP1662440A1に提案の方法を用いて、カメラ座標系におけるレンジの点の座標を計算(手順44)し、それによりカメラの光学パラメタ(予め知られ、カメラの記憶機構に保存されている)が考慮される。EP1662440A1では、カメラ光学パラメタは、各ベクトルがレンジイメージの特定画素に属する1組のベクトルとして保存される。この手順の座標計算方法は画素毎に、画素に対して特定されるレンジ値と、特定画素に対応するその保存ベクトルとの乗算:
Figure 2011530706
を含む。ここで、dはi番目の画素で測定される距離、[ ]はi番目画素に保存されるベクトル、左側はカメラ規準系におけるイメージ点の座標ベクトルである。この手順の結果は、カメラ規準系におけるシーンの直交座標表示である。
続く手順は、上記のように好ましくはRANSACアルゴリズムを用いて実行される面検出(参照番号45)と、検出面からの基準面の選択(手順46)である。上記のように、フロア面の特定は、例えば先に定義したのカメラ向きを用いて自律的に(この段階ではユーザとの対話無しに)、又はユーザ対話に基づいて(ユーザにフロア面の指定を要求して)なされる。工程のこの段階で、較正ルーチンにはカメラ位置(基準面からの垂直距離による)及び向き(基準面に対するロール及びピッチ角)を計算するための十分な情報があり、従って較正ルーチンは手順47で実行される。上記のように、カメラ位置及び向きはカメラ座標系からワールド座標系に座標変換される。従って、手順48で、較正ルーチンはこの座標変換(例えば、マトリックス形式の)を計算し、それを上記の座標計算方法に組み合わせることにより、1組のベクトル[ ]が手順49で得られ、それにより画素毎に測定される距離がワールド規準系におけるその座標により表される点に直接変換:
Figure 2011530706
されるようにする。ここで、Rは式(2)で与えられる。このルーチンの実用的実施態様では、手順48及び49を単一手順としても実施しても良いことに注意すべきである。レンジイメージ(即ち、距離がdの画素の組)から、ワールド規準系における点の座標を
Figure 2011530706
により計算することができる。
一旦較正ルーチンが上手く実行されたら、カメラにより取得されたレンジイメージをワールド座標系におけるシーンの直交座標表示に変換するのに必要なデータは、ベクトル[ ]及び[t,t,t]である。されど、カメラは好ましくは、較正が反復(例えば、カメラの保守点検後に)を要する場合、ベクトル[ ]を記憶機構に保存する。
本発明は3D−TOFカメラの殆どの応用に適しており、実世界環境での斯かるカメラの設置を大きく促進するものと当業者は理解するであろう。
10 3D−TOFカメラ装置
12 3D−TOFカメラ
14 イメージプロセッサ
16 レンズ
18 LEDアレイ
20 ラップトップコンピュータ
22 横断歩道

Claims (15)

  1. 3D−TOFカメラを含むカメラ装置のための位置及び向きの較正方法であって、該方法が
    前記3D−TOFカメラを用いてシーンのカメラ投射レンジイメージを捕捉し、
    前記レンジイメージ内の1つ以上の面を検出し、該1つ以上の検出面の中から基準面を選択し、
    前記基準面に対する前記3D−TOFカメラの位置及び向きパラメタを計算することを含んで成る位置及び向きの較正方法。
  2. 前記3D−TOFカメラの前記位置及び向きパラメタが前記基準面上方の高さ、カメラロール角及びカメラピッチ角の少なくとも1つを含んで成る、請求項1に記載の方法。
  3. 前記レンジイメージ内の1つ以上の面の検出がRANSACによる面検出から成る、請求項1又は2に記載の方法。
  4. 基準面の前記選択がフロア面を識別し、該フロア面を前記基準面として固定して成る、請求項1〜3の何れかに記載の方法。
  5. 前記基準面の前記選択が、前記フロア面に対するカメラロール角及び/又はカメラピッチ角のユーザ規定限界の入力に基づき、それに追従する前記カメラにより実行されて成る、請求項4に記載の方法。
  6. 前記基準面の前記選択が、ユーザインターフェースを用いて前記1つ以上の検出面を提示し、且つユーザ対話に基づいて前記基準面を固定して成る、請求項1〜5の何れかに記載の方法。
  7. 座標変換の座標変換パラメタを計算し、該座標変換が前記シーンのカメラ投射レンジイメージに適用されるとき、斯かるレンジイメージを、座標が前記基準面に関して定義される前記シーンの直交座標表示に変換し、且つ前記カメラの記憶機構内に座標変換パラメタを保存して成る、請求項1〜6の何れかに記載の方法。
  8. 1つ以上の面の前記検出が、前記3D−TOFカメラにおける光の拡がりにより惹起されるレンジ誤差を補償し、及び/又は信頼できないと考えられるレンジ情報を含むイメージ画素を棄却して成る、請求項1〜7の何れかに記載の方法。
  9. シーンのカメラ投影レンジイメージを捕捉する3D−TOFカメラと、
    前記レンジイメージを処理するイメージプロセッサを含むカメラ装置において、
    前記イメージプロセッサは、そのハードウェア及びソフトウェアが組み込まれた位置及び向き較正ルーチンを含み、該位置及び向き較正ルーチンが前記イメージプロセッサにより実行されるとき、前記3D−TOFカメラにより捕捉されるレンジイメージ内の1つ以上の面を検出し、該1つ以上の検出面から基準面を選択し、且つ前記基準面に対する3D−TOFカメラの位置及び向きパラメタ、例えば前記基準面上方の高さ及び/又はカメラロール角及び/又はカメラピッチ角を計算するようにして成ることを特徴とするカメラ装置。
  10. ユーザに出力データを提示し、且つ/或いはユーザから入力データを受取するユーザインターフェースを含んで成る、請求項9に記載のカメラ装置。
  11. 前記位置及び向き較正ルーチンが前記イメージプロセッサにより実行されるとき、フロア面を特定し、且つ該フロア面を前記基準面として固定することにより前記基準面を選択するようにして成る、請求項9又は10に記載のカメラ装置。
  12. 前記較正ルーチンが前記イメージプロセッサにより実行されるとき、前記フロア面に対するカメラロール角及び/又はカメラピッチ角のユーザ規定限界の入力に基づき、且つそれに追従して、前記ユーザインターフェースを介して選択するようにして成る、請求項11に記載のカメラ装置。
  13. 前記基準面の前記選択が、ユーザインターフェースを用いて前記1つ以上の検出面を提示し、且つ前記基準面をユーザ対話に基づいて固定することを含んで成る、請求項11又は12に記載のカメラ装置。
  14. 前記装置が記憶機構を含み、且つ前記較正ルーチンが前記イメージプロセッサにより実行されるとき、前記カメラ規準系から、座標が前記基準面に関して定義されるワールド規準系への座標変換の座標変換パラメタを計算し、該座標変換パラメタを前記記憶機構内に保存するようにして成る、請求項9〜13の何れかに記載のカメラ装置。
  15. 横断歩道における歩行者検出のために用いる、請求項9〜14の何れかに記載のカメラ装置の使用。
JP2011522445A 2008-08-12 2009-04-27 3d−tofカメラ装置及びそのための位置・向き較正方法 Pending JP2011530706A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP08162222A EP2154650A1 (en) 2008-08-12 2008-08-12 3D time-of-flight camera system and position/orientation calibration method therefor
EP08162222.7 2008-08-12
PCT/EP2009/055054 WO2010018009A1 (en) 2008-08-12 2009-04-27 3d time-of-flight camera system and position/orientation calibration method therefor

Publications (1)

Publication Number Publication Date
JP2011530706A true JP2011530706A (ja) 2011-12-22

Family

ID=40193539

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011522445A Pending JP2011530706A (ja) 2008-08-12 2009-04-27 3d−tofカメラ装置及びそのための位置・向き較正方法

Country Status (5)

Country Link
US (1) US10795006B2 (ja)
EP (1) EP2154650A1 (ja)
JP (1) JP2011530706A (ja)
DE (1) DE112009001833B4 (ja)
WO (1) WO2010018009A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140031345A (ko) * 2012-01-13 2014-03-12 소프트키네틱 소프트웨어 자동 장면 교정
KR20180077017A (ko) * 2016-12-28 2018-07-06 이승희 필기 입력 장치
JP2018162977A (ja) * 2017-03-24 2018-10-18 住友電工システムソリューション株式会社 電波センサ、調整方法および調整プログラム
US10324033B2 (en) 2012-07-20 2019-06-18 Samsung Electronics Co., Ltd. Image processing apparatus and method for correcting an error in depth

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8515257B2 (en) 2007-10-17 2013-08-20 International Business Machines Corporation Automatic announcer voice attenuation in a presentation of a televised sporting event
US10831093B1 (en) 2008-05-19 2020-11-10 Spatial Cam Llc Focus control for a plurality of cameras in a smartphone
KR101619076B1 (ko) * 2009-08-25 2016-05-10 삼성전자 주식회사 모바일 플랫폼의 동적 물체 검출 및 추적 방법
US8964028B2 (en) * 2009-12-21 2015-02-24 Mesa Imaging Ag Stray light compensation method and system for time of flight camera systems
EP2378310B1 (en) * 2010-04-15 2016-08-10 Rockwell Automation Safety AG Time of flight camera unit and optical surveillance system
JP5471853B2 (ja) * 2010-06-03 2014-04-16 株式会社Ihi 3次元形状測定装置、3次元形状測定付加装置および3次元形状測定方法
TWI466065B (zh) * 2010-07-23 2014-12-21 Hon Hai Prec Ind Co Ltd 偵測裝置及偵測方法
US9013550B2 (en) * 2010-09-09 2015-04-21 Qualcomm Incorporated Online reference generation and tracking for multi-user augmented reality
CN102034234B (zh) * 2010-10-20 2012-12-12 浙江工业大学 一种多视图结构光系统自标定方法
US8866889B2 (en) 2010-11-03 2014-10-21 Microsoft Corporation In-home depth camera calibration
DK2453254T3 (da) * 2010-11-15 2013-04-08 Cedes Ag Indretning til overvågning af en dør med en 3D-sensor
CN102162738B (zh) * 2010-12-08 2012-11-21 中国科学院自动化研究所 摄像头与惯性传感器组合定位定姿系统的标定方法
DE102011100628B4 (de) * 2011-05-05 2013-04-25 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zur Bestimmung mindestens eines Kameraparameters
TWI478107B (zh) * 2011-11-29 2015-03-21 Hon Hai Prec Ind Co Ltd 票閘控制裝置及方法
KR101909544B1 (ko) * 2012-01-19 2018-10-18 삼성전자주식회사 평면 검출 장치 및 방법
WO2013111229A1 (ja) * 2012-01-23 2013-08-01 日本電気株式会社 カメラ校正装置、カメラ校正方法およびカメラ校正用プログラム
CN104169966A (zh) * 2012-03-05 2014-11-26 微软公司 基于光衰减来生成深度图像
CN102693539A (zh) * 2012-03-13 2012-09-26 夏东 一种用于智能监控系统的宽基线快速三维标定方法
US9870704B2 (en) * 2012-06-20 2018-01-16 Conduent Business Services, Llc Camera calibration application
CN102835974A (zh) * 2012-08-23 2012-12-26 华南理工大学 基于并行计算机的医学超声三维成像方法
US10712529B2 (en) 2013-03-13 2020-07-14 Cognex Corporation Lens assembly with integrated feedback loop for focus adjustment
US11002854B2 (en) 2013-03-13 2021-05-11 Cognex Corporation Lens assembly with integrated feedback loop and time-of-flight sensor
US9658717B2 (en) 2013-05-14 2017-05-23 Otter Products, Llc Virtual writing surface
US9229583B2 (en) 2013-05-29 2016-01-05 Otter Products, Llc Object location determination including writing pressure information of a stylus
US20140363073A1 (en) * 2013-06-11 2014-12-11 Microsoft Corporation High-performance plane detection with depth camera data
US9170685B2 (en) 2013-06-20 2015-10-27 Otter Products, Llc Object location determination
US9335866B2 (en) 2013-11-20 2016-05-10 Otter Products, Llc Retractable touchscreen adapter
US9846969B2 (en) * 2014-12-01 2017-12-19 Thinkware Corporation Electronic apparatus, control method thereof, computer program, and computer-readable recording medium
US9729806B2 (en) * 2015-01-06 2017-08-08 Semiconductor Components Industries, Llc Imaging systems with phase detection pixels
WO2016149938A1 (zh) * 2015-03-26 2016-09-29 北京旷视科技有限公司 视频监控方法、视频监控系统以及计算机程序产品
CN105444681A (zh) * 2015-11-16 2016-03-30 安徽省道一电子科技有限公司 基于单相机标定及编码点的高精度铁轨爬行测量方法
IL286156B1 (en) 2015-11-20 2024-03-01 Magic Leap Inc Methods and systems for large-scale determination of RGBD camera displays
KR102535617B1 (ko) * 2016-01-04 2023-05-24 한국전자통신연구원 깊이 영상에서의 객체 검출 시스템 및 방법
US10346949B1 (en) 2016-05-27 2019-07-09 Augmented Pixels, Inc. Image registration
CN107808398B (zh) * 2016-09-08 2023-04-07 松下知识产权经营株式会社 摄像头参数算出装置以及算出方法、程序、记录介质
WO2019032736A1 (en) 2017-08-08 2019-02-14 Smart Picture Technologies, Inc. METHOD OF MEASURING AND MODELING SPACES USING AUGMENTED REALITY WITHOUT MARKER
CN109901137B (zh) * 2017-12-08 2021-06-04 浙江舜宇智能光学技术有限公司 广角tof模组的标定方法及其标定设备
CN109920003B (zh) * 2017-12-12 2023-09-15 广东虚拟现实科技有限公司 相机标定检测方法、装置以及设备
AU2018389234B2 (en) 2017-12-21 2023-06-01 Magic Leap, Inc. Method for calibrating an augmented reality device
CN109143252B (zh) * 2018-08-08 2022-08-30 合肥泰禾智能科技集团股份有限公司 Tof深度相机距离校准的方法及装置
CN109300159B (zh) * 2018-09-07 2021-07-20 百度在线网络技术(北京)有限公司 位置检测方法、装置、设备、存储介质及车辆
CN109903241B (zh) * 2019-01-31 2021-06-15 武汉市聚芯微电子有限责任公司 一种tof相机系统的深度图像校准方法及系统
CN110232714B (zh) * 2019-04-30 2021-07-20 北京云迹科技有限公司 深度相机的标定方法及系统
WO2020231872A1 (en) 2019-05-10 2020-11-19 Smart Picture Technologies, Inc. Methods and systems for measuring and modeling spaces using markerless photo-based augmented reality process
CN110852180B (zh) * 2019-10-17 2022-08-02 上海快仓智能科技有限公司 用于自动引导车的tof相机标定方法及自动引导车
AU2021261001A1 (en) * 2020-04-24 2022-10-06 Crown Equipment Corporation Calibration of a distance and range measurement device
MX2023000409A (es) * 2020-07-08 2023-02-02 Crown Equip Corp Calibracion de dispositivo de medicion de distancia y alcance de un vehiculo industrial.
CN112361962B (zh) * 2020-11-25 2022-05-03 天目爱视(北京)科技有限公司 一种多俯仰角度的智能视觉3d信息采集设备
US11463270B2 (en) * 2021-01-28 2022-10-04 Dell Products, Lp System and method for operating an intelligent face framing management system for videoconferencing applications
CN113418467A (zh) * 2021-06-16 2021-09-21 厦门硅谷动能信息技术有限公司 基于ToF点云数据检测一般及黑色行李尺寸的方法
CN113284197B (zh) * 2021-07-22 2021-11-23 浙江华睿科技股份有限公司 Agv的tof相机外参标定方法及装置、电子设备
CN113689391A (zh) * 2021-08-16 2021-11-23 炬佑智能科技(苏州)有限公司 ToF设备的安装参数获取方法、系统和ToF设备
CN115097427B (zh) * 2022-08-24 2023-02-10 北原科技(深圳)有限公司 基于飞行时间法的自动标定方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5699444A (en) * 1995-03-31 1997-12-16 Synthonics Incorporated Methods and apparatus for using image data to determine camera location and orientation
JPH10132935A (ja) * 1996-11-01 1998-05-22 Nec Corp 飛翔体位置計測装置
JP2002504785A (ja) * 1998-02-18 2002-02-12 ゲーエムデー−フォルシュングスチェントルム インフォマーションズテクニク ゲーエムベーハー 仮想テレビ・ビデオスタジオのためのカメラ追跡システム
JP2005092820A (ja) * 2003-09-19 2005-04-07 Sony Corp 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置
WO2007029686A1 (ja) * 2005-09-07 2007-03-15 Sharp Kabushiki Kaisha 立体画像記録再生システム
JP2007300191A (ja) * 2006-04-27 2007-11-15 Fujitsu Ltd 赤外線画像処理装置および赤外線画像処理方法
US7741961B1 (en) * 2006-09-29 2010-06-22 Canesta, Inc. Enhanced obstacle detection and tracking for three-dimensional imaging systems used in motor vehicles

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5259037A (en) * 1991-02-07 1993-11-02 Hughes Training, Inc. Automated video imagery database generation using photogrammetry
EP1662440A1 (en) 2004-11-30 2006-05-31 IEE INTERNATIONAL ELECTRONICS & ENGINEERING S.A. Method for determining the position of an object from a digital image
US8022990B2 (en) * 2006-08-18 2011-09-20 General Electric Company Systems and methods for on-line marker-less camera calibration using a position tracking system
US8044991B2 (en) * 2007-09-28 2011-10-25 The Boeing Company Local positioning system and method
EP2615580B1 (en) * 2012-01-13 2016-08-17 Softkinetic Software Automatic scene calibration

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5699444A (en) * 1995-03-31 1997-12-16 Synthonics Incorporated Methods and apparatus for using image data to determine camera location and orientation
JPH10132935A (ja) * 1996-11-01 1998-05-22 Nec Corp 飛翔体位置計測装置
JP2002504785A (ja) * 1998-02-18 2002-02-12 ゲーエムデー−フォルシュングスチェントルム インフォマーションズテクニク ゲーエムベーハー 仮想テレビ・ビデオスタジオのためのカメラ追跡システム
JP2005092820A (ja) * 2003-09-19 2005-04-07 Sony Corp 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置
WO2007029686A1 (ja) * 2005-09-07 2007-03-15 Sharp Kabushiki Kaisha 立体画像記録再生システム
JP2007300191A (ja) * 2006-04-27 2007-11-15 Fujitsu Ltd 赤外線画像処理装置および赤外線画像処理方法
US7741961B1 (en) * 2006-09-29 2010-06-22 Canesta, Inc. Enhanced obstacle detection and tracking for three-dimensional imaging systems used in motor vehicles

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140031345A (ko) * 2012-01-13 2014-03-12 소프트키네틱 소프트웨어 자동 장면 교정
JP2014529727A (ja) * 2012-01-13 2014-11-13 ソフトキネティック ソフトウェア 自動シーン較正
KR101590530B1 (ko) * 2012-01-13 2016-02-01 소프트키네틱 소프트웨어 자동 장면 교정
US9578310B2 (en) 2012-01-13 2017-02-21 Softkinetic Software Automatic scene calibration
US10324033B2 (en) 2012-07-20 2019-06-18 Samsung Electronics Co., Ltd. Image processing apparatus and method for correcting an error in depth
KR20180077017A (ko) * 2016-12-28 2018-07-06 이승희 필기 입력 장치
KR101949046B1 (ko) 2016-12-28 2019-05-20 이승희 필기 입력 장치
JP2018162977A (ja) * 2017-03-24 2018-10-18 住友電工システムソリューション株式会社 電波センサ、調整方法および調整プログラム

Also Published As

Publication number Publication date
DE112009001833B4 (de) 2022-11-03
US10795006B2 (en) 2020-10-06
EP2154650A1 (en) 2010-02-17
WO2010018009A1 (en) 2010-02-18
US20110205340A1 (en) 2011-08-25
DE112009001833T5 (de) 2011-07-28

Similar Documents

Publication Publication Date Title
JP2011530706A (ja) 3d−tofカメラ装置及びそのための位置・向き較正方法
David et al. Simultaneous pose and correspondence determination using line features
CN107449459B (zh) 自动调试系统和方法
US9984177B2 (en) Modeling device, three-dimensional model generation device, modeling method, program and layout simulator
JP6057298B2 (ja) 迅速な3dモデリング
JP5593177B2 (ja) 点群位置データ処理装置、点群位置データ処理方法、点群位置データ処理システム、および点群位置データ処理プログラム
US20130010079A1 (en) Calibration between depth and color sensors for depth cameras
US20100296724A1 (en) Method and System for Estimating 3D Pose of Specular Objects
CN103377471B (zh) 物体定位方法和装置、最优摄像机对确定方法和装置
KR102354299B1 (ko) 단일 영상을 이용한 카메라 캘리브레이션 방법 및 이를 위한 장치
US8217961B2 (en) Method for estimating 3D pose of specular objects
KR20110068469A (ko) 메타정보 없는 단일 영상에서 3차원 개체정보 추출방법
WO2011005783A2 (en) Image-based surface tracking
US20080297502A1 (en) Method and System for Detecting and Evaluating 3D Changes from Images and a 3D Reference Model
US20210374978A1 (en) Capturing environmental scans using anchor objects for registration
Gallegos et al. Appearance-based slam relying on a hybrid laser/omnidirectional sensor
US10447991B1 (en) System and method of mapping elements inside walls
Burbano et al. 3D cameras benchmark for human tracking in hybrid distributed smart camera networks
JP5441752B2 (ja) 環境内の3d物体の3d姿勢を推定する方法及び装置
KR101189167B1 (ko) 메타정보 없는 단일 영상에서 3차원 개체정보 추출방법
WO2018134866A1 (ja) カメラ校正装置
JP5230354B2 (ja) 位置特定装置及び異動建物検出装置
Cheng et al. Texture mapping 3d planar models of indoor environments with noisy camera poses
US20230106749A1 (en) Three-dimensional measurement device
Sim et al. Closed loop-based extrinsic calibration of multi-modal sensors

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130619

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131113