JP2008522268A - 物体の位置をディジタル画像から特定する方法 - Google Patents

物体の位置をディジタル画像から特定する方法 Download PDF

Info

Publication number
JP2008522268A
JP2008522268A JP2007541998A JP2007541998A JP2008522268A JP 2008522268 A JP2008522268 A JP 2008522268A JP 2007541998 A JP2007541998 A JP 2007541998A JP 2007541998 A JP2007541998 A JP 2007541998A JP 2008522268 A JP2008522268 A JP 2008522268A
Authority
JP
Japan
Prior art keywords
image
point
predetermined vector
camera
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007541998A
Other languages
English (en)
Inventor
ミルバッハ、ブルーノ
フランコ、マルタ カスティリョー
ギヌー、ロムアルド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IEE International Electronics and Engineering SA
Original Assignee
IEE International Electronics and Engineering SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IEE International Electronics and Engineering SA filed Critical IEE International Electronics and Engineering SA
Publication of JP2008522268A publication Critical patent/JP2008522268A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Abstract

シーン(場面)内の物点の位置を、光学系を通して取得したディジタル画像から特定する方法が呈示される。画像は物点に対応する像点の一組から成り、物点の位置は像点に関連する所定のベクトルにより特定される。所定のベクトルは、光学系の全ての歪効果を含む光学系を通してこの像点を生成することになる物空間内光線の反転方向を表す。

Description

本発明は一般にカメラ画像化(撮像)を用いる物点の特定、より詳しくは、特に車両搭乗者保護システムに用いられる、シーン(場面)内の物点の位置の、そのディジタル画像からの決定に関する。
エアバッグや受動シートベルト機構を含む自動車搭乗者保護システムが当該技術で周知であり、現在生産されている大多数の自動車に装備されている。かかる保護システムの展開又は作動は一般的に、感知される加速度が所定の閾値を超えるときトリガー信号を出力する加速度センサに基づいている。
エアバッグの導入は事故で蒙る傷害の厳しさを低減するのに成功している一方、或る種の状況下では、例えば幼い、又は着座が不適切な搭乗者に対して、深刻な、ときには致命的な損傷を引き起こすこともある。これは例えば、後ろ向きの幼児シートが車両の前部席に取り付けられる場合、ドライバがステアリングホイールに近すぎる場合、搭乗者がダッシュボードに近すぎる場合、又は子供が前部搭乗者シートに座っている場合の状況でそうである。そのような状況では、エアバッグを作動しないようにするか、エアバッグ展開条件を搭乗者に合わせるのが望ましい場合がある。
従って、車両内の特定の搭乗者種に応じてエアバッグ展開を合わせるため、搭乗者条件の変化を考慮した制御システムが開発されている。
車両搭乗者の種類と位置を検出する種々の視覚型制御システムが提案されている。それ等は一般的には、光学系(1つ以上のレンズを含む)を特徴とする少なくとも一個のカメラ、並びにシート部の画像を捕捉する撮像素子アレイから成る。車両内の空間が制限されていることから、車両内の搭乗者エリアを調べられる広角レンズが通常必要になる。取得画像は制御装置で処理され、車両搭乗者を検出・分類し、次いでこの搭乗者分類はエアバッグ制御のための入力として用いられる。
視覚型制御システムに固有の技術的問題は、カメラレンズを通る光が光学的に歪むことである。例えば、たる形歪曲は広角レンズの場合に見られる周知の効果である。この歪みのため直線が画像では曲がって見え、即ちあらゆる像点が変位して見える。
従って、歪みを除くために画像予備処理が用いられることが多く、搭乗者位置は、取得され、修正された、歪曲されていない画像から特定される。これは明らかに、大量のデータ処理、高い計算機能力及び高い記憶容量を必要とする。更に、歪曲除去方法は一般的に、修正画像内の物体の位置に近似を導入し、これはまた、かかる修正画像からの位置特定に明らかに影響を及ぼす。
US6005958には、単一カメラ装置を用いて車両搭乗者の種類と位置を検出する方法及びシステムが記載されている。これは、車両の内部の画像を周期的に画像輪郭データに変換し、記憶基準輪郭データと調和する画像輪郭を用いて搭乗者又は物体の種類を決定することにより、物体と前向き又は後向きの幼児シートと成人搭乗者とを区別することができる方法及びシステムである。瞬間距離も測定され、測定距離の変化が追跡される。次いで、この情報の全てが、搭乗者保護システムの展開制御を最適化するのに用いられる。
WO02/078346には、特に搭乗者保護システム用の画像を修正する方法が記載されている。この方法では、カメラオプティクスにより歪められる原像が、表画像化規則を用いて修正画像に変換される。原像の各原画素には、目標画像の1つ又は数個の目標画素が割り当てられる。この変換は撮像素子からの、即ち実時間での読出し中に直接行われる。この方法では、原像が減寸の無ひずみ目標画像に変換されるが、これは記憶容量を節約する。だが、そのような変換規則では、近似が導入され、かかる歪曲修正画像に基づく位置特定に誤差を招くことになる。
本発明の目的は物体の位置をディジタル画像から特定する、改良された方法を提供することにある。
上記目的は、請求の範囲請求項1に記載の方法によって達成される。
本発明は、シーン(場面)内の物点(一般に広幅の物体内の点)の位置を、光学系を通して取得したこのシーンの、該物点に対応する像点から成るディジタル画像から特定する方法を提案する。本発明の重要な観点によれば、像点の位置は、この像点と関連する所定のベクトルによって決定され、この所定のベクトルとは、光学系を通して該像点を生成する物空間内の光線の方向を表す。換言すれば、そのような所定ベクトルは、像点を作る光が出て来る物点の方向を表している。
修正された無ひずみ画像を提供するため画像変換を伴う既知の物体位置特定方法と異なり、本発明は、像点を実際に生成する光線の方向を表すベクトルによって物空間内の後方に像点を写像(mapping)することに基づく。そのようなベクトルは光学系を通しての光学的ひずみを含むので、原像データを変換しなくても、観測シーン内の物点の位置を正確に特定することができる。方法は更に、画像データに対する近似を要せず、また付加的計算機能力を要しないと云う利点がある。
そこで、本方法で得られる正確な位置情報をエアバッグ装置等の自動車搭乗者保護システムの制御での搭乗者分類に用いると好都合である。
像点に関連する所定のベクトルが光学系のレンズ装置の光学的中心を通る光線の方向を表すようにすると良い。これより、像点を生成する光線が出て来た物点の方向が明瞭に表されるようになる。
対応する物点の測定遠隔を表す各像点に距離情報が関連するようにすると好都合である。そのような場合、物点の位置は所定ベクトル及び距離情報に基づいて特定することができる。
好適な実施態様では、光学系はレンズ装置を含み、観測シーンの画像は光学系を通して、レンズ装置に光学的に結合する撮像素子アレイにより取得される。取得画像には、物点に対応する像点が多数含まれる。好ましくは、各像点に距離情報が関連するようにする。各像点にグレー値(grey value)が関連するようにするのが良い。各像点には各自所定ベクトルが関連し、レンズ装置通過後にセンサアレイ上に像点を生成する光線の物空間内の方向を表す。所定ベクトルは好ましくは、レンズ装置の光学的中心を通る光線の方向を表すようにする。
従って、この実施態様は、所定ベクトルと距離情報に基づいて観測シーン(例えば、搭乗者区画)内の物体の3D位置を特定できる。この方法は新たな修正画像の計算を要せず、センサにより取得された未修正画像から物体の3D位置を直接得ることができ、従って従来技術による解決策とは根本的に異なっている。
所定のベクトルは好ましくは、校正により得られる。この校正は撮像素子の所定エリア(画素)に対して、光学系を通過時にこれ等のエリアに夫々当たる物空間内の光線を識別するステップを含むことになる。そのような校正処理手順は当該技術で知られており、ここで詳細な説明を要しない。この識別ステップに続いて、これ等光線の方向が所定ベクトルの計算に用いられる。これら所定ベクトルは光学系の所定の構成に対応し、画像毎に系統的に再計算される必要は無いことが理解されよう。これ等所定ベクトルは従って、記憶しておくことが有利である。
各所定ベクトルは好ましくは、基準座標系のユニタリーベクトルである。これにより、像点に対応する物点の座標は、測定距離情報にこの像点に関連する所定ベクトルを単に掛けることにより、決定することができる。この基準座標系を、例えばカメラ座標系、即ちその原点が光学系の光学的中心と一致する3次元座標系とすることができる。
望まれれば、基準座標系内の夫々ユニットベクトルであるベクトルは通常の計算により、別の座標系で用いられるように変換することができる。車両内の搭乗者分類に適用するためには、座標系をカメラ座標系ではなく、車両座標系とするのが良い。
本発明方法は特に自動車搭乗者保護システムに用いるのに十分適しているが、物体位置のディジタル画像からの決定を要する種々の用途に用いることができる。
本発明方法は、種々の光学系で得られる画像から物体の位置を抽出するのに実施することができる。物体の3次元座標決定のため、各画素(即ち、画像の各点)毎に距離情報を取得するカメラを用いるのが有利である。だが、距離情報はまた、任意の適宜方法(例えば、立体視)により決定し、その後、対応する像点に関連させることができる。尚、本方法は立体カメラシステムの2つのカメラの一方で取得された画像でも利用することができる。
本発明方法の好適な一実施態様を以下、詳細に説明する。本方法の特性及び利点は、カメラ撮像により座標決定する従来手法との比較により、より明らかになろう。
ピンホールカメラモデル
理想的カメラ(所謂ピンホールカメラ)はシーン(場面)の純粋な透視投影を行う。この投影−ここでは説明の目的のために用いる−は、所謂カメラ座標系r=(x, y, z)から画像座標系(u, v)への簡単な次の関係による簡単な写像として記述することができる。
u=x・f/z 及び v=y・f/z (1)
この場合、投影中心はカメラ座標系の原点O=(0, 0, 0)である。投影面Pは(x,y)面に平行で、z軸(光軸)に沿ってOから距離f(焦点距離)変位している。
理想的には、シーン(場面)から来る光線は光学的中心を直線状に通る筈である(図1)。その場合、位置(u, v)で投影面に交差する点は画像内の点:
(u,v)=(u,v) (2)
に写像されることになる。それに関連して、像平面Iは軸がカメラ座標系に平行するカメラレンズの後方の光学的中心か距離fに置かれる、即ち、像平面は鏡像投影面とみなされる。
あらゆる画素に対して距離値d=|r|=(x+y+z1/2を取得できる開発中の3Dカメラがある。この距離は画像上の対応画素の位置(u,v)と共に、式(1)及び(2)の反転である式:
z=d・f/(f+u +v 1/2 (3)
x=u・z/f,
y=v・z/f.
を介して対応物点の(x、y、z)座標を与える。
実際には、カメラレンズシステムはこの理想的で、簡単な写像(2)を示さず、光路に、従って結果となる画像に、非線形なゆがみを導入する。広角レンズに対して典型的に発生する所謂バレル(樽形)歪曲の一例を図2に示す。画像座標(u,v)が対応投影点(u、v)に対して変位され、式(2)は下の式(4)になるので、直線は曲がって見える。
(u,v)=F(u,v) (4)
径方向のゆがみに加えて、接線方向のゆがみ、または非線形関数F(式4)で全て表すことができる修正位置からの撮像素子アレイの変位によるゆがみもある。3Dカメラでは、あらゆる種類の画像ゆがみが、画像座標(u,v)の変位により実位置から計算位置(x、y、z)の変位を発生することになる。
従来のゆがみ矯正
2Dカメラはグレー値gのマトリックスを記録する。ここでマトリックスとは像平面内の或る固定点(a、b)に置かれた画素から成るものである。3Dカメラはグレー値のみならず、あらゆる画素位置における距離値を記録する。
従来の画像矯正は、歪曲画像で得られた値gから理想的画像、即ちピンホールカメラで得られる画像の再構築を目的としている。この矯正のためには好ましくは、先ずカメラの校正を行い、変位を記述する関数F(式4)を特定することからなる。
これは特定の基準パターンを、種々の観点から取られるその画像と比較することによりなされる。既定のカメラモデルに基づく種々の校正方法がある(例えば、Janne Heikkilae, Geometric Camera Calibration using Circular Control Points, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol 20, p. 1066-1074 (2000), R. Y. Tsai, A Versatile Camera Calibration Technique for High Accuracy (3D) Machine Vision Metrology Using Off-the-Shelf TV Camera and Lenses, IEEE J. Robotics Automat. Pages 323-344, Vol. RA-3 (1987))が、ここで詳細に記載する必要は無い。
図3は、校正関数の特定の後、どのように画像矯正が従来行われているか示す。各画素iに対して、画素位置(a、b)が理想的に、即ちカメラがあたかもピンホールカメラであるかのように、投影面P上に逆写像される。投影点(u、v)=(a、b)から、画像面上の対応する変位位置(udi、vdi)が歪曲関数(4)を用いて計算される。図3の矢印は画素位置(a、b)と画素の変位画像位置間の変位を表している。理想的画像を構成するため、歪曲位置(udi、vdi)の周りの4画素が特定され、理想的画像内の画素iのグレー値は4つ画素の最近接のもののグレー値又は4つの画素のグレー値の線形組み合わせにより置き換えられる。この方法は矯正画像を生ずるあらゆる画素に対して行われる。この矯正を実時間システムで行う方法は例えば、WO02/078346A1に記載されている。
だが、矯正画像は常に、上記の処理手順による、非歪曲画像に対する近似に過ぎないことに注目しなければならない。最近接近傍修正を用いるか、又は画像が平滑化され、コントラストを失っている場合の何れにおいても、画素寸法の1/2までの画素変位が訂正されるに過ぎない。
画像マトリックスがグレー値データの代わりに(又はグレー値データに加えて)距離データを含む場合にも、同じ矯正処理手順を適用することができる。だが、画素位置(a、b)と矯正距離から式(3)を介して計算される(x、y、z)座標は上記近似のため不正確であろう。更に、この矯正法ではコーナー画素の一部のものの情報は従って無視され、引き続く画像処理に対して失われることになる。
本方法を用いる3Dカメラデータからの無ひずみ座標決定
本方法は、シーン内の物点の位置を、像点と関連した所定ベクトル群(像点当り一ベクトル)手段によって、このシーンのディジタル画像から決定することを提案する。これらのベクトル群は、各像点を生ずる光線が現れる、観察されるシーン内の方向を示している。カメラの光学ひずみを含むこれ等ベクトル群を用いることにより、ディジタル画像から物体の位置(又は物点)を正確に特定することができる。
本方法はエアバッグ等の自動車搭乗者保護システムの搭乗者分類方法に用い、搭乗者の種類と位置にエアバッグの展開を合せるのに特に適している。
従って、ドライバ及び/又は搭乗者着座部を含む視野をもつように配置されたカメラを用いて、ディジタル画像を取得することができる。好ましくは、カメラはピクセル毎に距離値が得られる3D型のものである。そのようなカメラは当該技術で知られ、ここに詳細な説明を要しない。
可視、好ましくはIRレンジで動作可能なカメラは、基本的に1つ以上のレンズをもつ光学系と、光学系に作動的に連結する撮像素子(センサ)アレイを含み、センサアレイが観測シーンを2次元ディジタル画像にトランスレート(変換)するようにする。撮像素子アレイはCCD又はCMOS型のもので良い。従って、取得ディジタル画像は、光学系を通してシーンの画像を反射する像点を形成する複数の画素から成る。画素毎に取得される距離情報は例えば、光の伝搬(飛行)時間測定に基づいて特定することができる。
実際には、飛行時間カメラは1つの撮像素子アレイに連結する1つのレンズ、並びに変調光源を有することができる。この方法はまた、いわゆるステレオカメラを備えることができる。そのようなカメラは一般には、2つのレンズと2つの撮像素子アレイを有し、更に追加の(非変調)光源を有しても良い。後者の場合には、これ等2つのレンズの一方から得られる画像に本方法を適用することができる。
以下の記載から明らかになろうが、方法の本実施態様は画像の変換を要せず、そのような3Dカメラにより取得されるディジタル画像から物点の3次元座標を正確に特定できる。また、これにより、画像に近似を導入することや付加的計算機能力の必要が回避される。
ディジタル画像(カメラにより取得される)は矯正される必要は無く、従って好ましくは、もとのままに留まるのが良いことを注意すべきである。その代わりに、参照3次元座標系で表される一組の所定ベクトル群が用いられる。この参照座標系は好ましくは、その中心がカメラレンズ装置の光学的中心に一致するようにする。更に、所定ベクトル群は好ましくは、光学系の中心を通る光線の方向を表すようにすべきである。
これ等のベクトル群を参照座標系のユニットベクトル群として計算すると有利である(図4)。これは、センサアレイの所定の画素に対応する物点の座標を得るのに、単にユニットベクトルに測定距離を掛ければ良いことを意味する。
各画素iに対して、光学系を通過後、その画素に当たる光線の物空間内方向を表す、特定されたユニットベクトルeがなければならない。これは像点を、図4に示すような投影面に逆に投影できることを意味し、従って実際には、ユニットベクトルは好ましくは光線の反転方向(図4に示すような)を表すことになる。だが、問題は、このユニットベクトル、即ち各所定ベクトルは光線の指向ベクトル(即ち、この光線の大域配向を表す)でなければならないと云うことが理解されよう。
上記のようにベクトルは撮像素子アレイの画素毎に特定することができるが、撮像素子アレイの部分によっては、実際には該当情報を受け取らないことがある。従って、素子アレイのこれ等の部分に位置する画素ではベクトル群を計算する必要はない。
光学的ひずみを有するユニットベクトルの特定
物点の座標特定の前提条件は所定ベクトル群の組を計算することである。既に述べたように、これは所定のカメラ構成に対する校正によりなされ、撮像素子の画素毎に、夫々の画素に当たる物空間内の光線の方向の識別を基本的に含む。
これ等の方向は好ましくは、逆ひずみ関数F´を用いて特定される。
(u,v)=F´(u,v) (5)
この逆ひずみ関数を校正法で得る方法はHeikkilaeにより論じられている (上記参照) 。
あらゆる画素iに対して、逆ひずみ関数は画素位置(a、b)を投影面P内のその投影点(uci、vci)に写(像)し戻す(図4参照)。これは、カメラオプティクスにより画素iにそのとき写像される投影面内の点である。点(x、y、z)=(uci、vci、f)を単位長さに対して正規化すると、光学的中心から投影点の方向に向くユニットベクトルが得られる、即ち
Figure 2008522268
ユニットベクトルを用いて正確な座標を計算する
ユニットベクトル群が計算されたら、それ等は記憶することができ、画像取得中には再計算を要しない。次いで、カメラ座標系における3D座標の計算は、画素iで測定された距離値dを対応するユニットベクトルに乗ずることにより達成される、即ち
Figure 2008522268
ユニットベクトルは好ましくは記憶されるので、方法の実行毎に計算を新たに行う必要は無い。これは、位置特定のために画像変換を要する方法と比較して、計算時間とデータ処理の利得を示唆する。
世界座標系に付いての座標計算
本方法では、物点の座標はカメラ座標系で特定される。だが、もう1つの座標系(所謂「世界座標系」)での座標を計算すべき場合には、カメラユニットベクトル系から世界ユニットベクトル系を生成すれば良い。
通常、1つの座標系から別の座標系への変換は、3x3回転マトリックスRと変換ベクトルTを含む所謂線形変換により達成される。回転マトリックスRをカメラ座標系のユニットベクトルeに適用すると、世界座標系におけるユニットベクトルe が得られる。即ち、
=R・e 全てのiについて (7)
ここでも、世界座標系のこれ等のユニットベクトル群は一度計算すれば良く、実行時間中にメモリー内に維持しておけば良い。実行時間中の座標計算はこの場合、次の簡単な式により得られる。
Figure 2008522268
ピンホールカメラモデルの原理を示す図である。 樽形歪曲現象を示す図である。 従来の歪曲修正法を示す図である。 ユニットベクトル決定の原理を示す図である。

Claims (12)

  1. シーン(場面)内の物点の位置を、光学系を通して取得したこのシーンの、該物点に対応する像点から成るディジタル画像から特定する方法であって、上記像点に関連し、上記光学系を通して該像点を生成する物空間内の光線の方向を表す、所定のベクトルにより上記物点の位置を特定するようにして成る方法。
  2. 前記原像が夫々の物点に対応する多数の像点から成り、各自の所定ベクトルが該物点の各々に関連するようにして成る請求項1に記載の方法。
  3. 各所定ベクトルが、前記光学系のレンズ装置の光学的中心を通る光線の方向を表すようにして成る請求項1又は2に記載の方法。
  4. 各所定ベクトルを校正によって特定するようにして成る上記請求項の何れか1つに記載の方法。
  5. 距離情報が像点に関連し、対応する物点の位置を該像点に関連する所定ベクトルと上記距離情報に基づいて特定するようにして成る請求項1〜3の何れか1つに記載の方法。
  6. 測定される距離情報が各像点に関連し、該距離情報が対応する物点の測定遠隔を表すようにして成る請求項5に記載の方法。
  7. 各所定ベクトルが基準座標系のユニタリーベクトルであり、測定距離情報にこの像点に関連する所定ベクトルを乗ずることにより、像点に対応する物点の座標を特定するようにして成る請求項6に記載の方法。
  8. 前記測定距離情報が、前記光学系の中心から対応物点までの距離を表すようにして成る請求項7に記載の方法。
  9. 前記ディジタル画像が撮像素子アレイにより取得されるようにして成る請求項1〜8の何れか1つに記載の方法。
  10. グレー値が各像点に関連するようにして成る請求項1〜9の何れか1つに記載の方法。
  11. 基準座標系で表現される前記所定ベクトルの座標を他の座標系に変換するようにして成る請求項1〜10の何れか1つに記載の方法。
  12. 請求項1〜11の何れか1つに記載の方法を用いた、自動車搭乗者保護システムの搭乗者を検出、且つ分類する方法。
JP2007541998A 2004-11-30 2005-11-28 物体の位置をディジタル画像から特定する方法 Pending JP2008522268A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP04106185A EP1662440A1 (en) 2004-11-30 2004-11-30 Method for determining the position of an object from a digital image
PCT/EP2005/056267 WO2006058872A1 (en) 2004-11-30 2005-11-28 Method for determining the position of an object from a digital image

Publications (1)

Publication Number Publication Date
JP2008522268A true JP2008522268A (ja) 2008-06-26

Family

ID=34929970

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007541998A Pending JP2008522268A (ja) 2004-11-30 2005-11-28 物体の位置をディジタル画像から特定する方法

Country Status (5)

Country Link
US (1) US8396251B2 (ja)
EP (2) EP1662440A1 (ja)
JP (1) JP2008522268A (ja)
CN (1) CN101069212A (ja)
WO (1) WO2006058872A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10127687B2 (en) 2014-11-13 2018-11-13 Olympus Corporation Calibration device, calibration method, optical device, image-capturing device, projection device, measuring system, and measuring method

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7774075B2 (en) * 2002-11-06 2010-08-10 Lin Julius J Y Audio-visual three-dimensional input/output
US7337410B2 (en) * 2002-11-06 2008-02-26 Julius Lin Virtual workstation
FR2917824A3 (fr) * 2007-06-20 2008-12-26 Renault Sas Procede et dispositif de detection en temps reel de la position du soleil par rapport a un vehicule automobile
EP2154650A1 (en) 2008-08-12 2010-02-17 IEE INTERNATIONAL ELECTRONICS & ENGINEERING S.A. 3D time-of-flight camera system and position/orientation calibration method therefor
WO2010088290A1 (en) * 2009-01-27 2010-08-05 Arthur Thomas D Tight optical intergation (toi) of images with gps range measurements
LU91745B1 (en) 2010-10-15 2012-04-16 Iee Sarl Range image pixel matching method
TWI502958B (zh) * 2011-06-30 2015-10-01 Acer Inc 立體影像顯示裝置及其方法
EP2785173B1 (en) * 2011-12-02 2016-03-16 DeLaval Holding AB Camera cleaning system and method and rotary milking system
FR3018940B1 (fr) * 2014-03-24 2018-03-09 Survision Systeme de classification automatique de vehicules automobiles
CN106596063B (zh) * 2014-06-27 2019-05-24 歌尔科技有限公司 一种测量透镜畸变的方法及系统
CN110447220B (zh) * 2017-03-21 2021-03-09 奥林巴斯株式会社 校准装置、校准方法、光学装置、摄影装置以及投影装置
US10936885B2 (en) 2018-05-15 2021-03-02 Toyota Research Institute, Inc. Systems and methods of processing an image
CN110874135B (zh) * 2018-09-03 2021-12-21 广东虚拟现实科技有限公司 光学畸变的校正方法、装置、终端设备及存储介质
CN109520415A (zh) * 2018-09-18 2019-03-26 武汉移动互联工业技术研究院有限公司 通过摄像头实现六自由度传感的方法及系统
WO2021207722A1 (en) * 2020-04-10 2021-10-14 The Research Foundation For The States University Of New York System and method for 3d image scanning

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004213332A (ja) * 2002-12-27 2004-07-29 Olympus Corp キャリブレーション装置、キャリブレーション方法、キャリブレーション用プログラム、及び、キャリブレーション治具

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3209828B2 (ja) 1993-05-25 2001-09-17 松下電器産業株式会社 車間距離計測装置とステレオ画像取り込み装置
US5802202A (en) * 1993-12-24 1998-09-01 Mazda Motor Corporation Method of determining three dimensional position of object and apparatus therefor
US5983147A (en) * 1997-02-06 1999-11-09 Sandia Corporation Video occupant detection and classification
JP4031122B2 (ja) * 1998-09-30 2008-01-09 本田技研工業株式会社 差分画像を用いた被写体の検出装置
US7050205B2 (en) * 2000-12-26 2006-05-23 Fuji Photo Film Co., Ltd. Method of correcting image data picked up from photographic film
JP4512293B2 (ja) * 2001-06-18 2010-07-28 パナソニック株式会社 監視システムおよび監視方法
US7324663B2 (en) * 2002-06-06 2008-01-29 Wintriss Engineering Corporation Flight parameter measurement system
US7277599B2 (en) * 2002-09-23 2007-10-02 Regents Of The University Of Minnesota System and method for three-dimensional video imaging using a single camera
WO2004038657A2 (en) * 2002-10-22 2004-05-06 Artoolworks Tracking a surface in a 3-dimensional scene using natural visual features of the surface
US7774075B2 (en) * 2002-11-06 2010-08-10 Lin Julius J Y Audio-visual three-dimensional input/output
US7916898B2 (en) * 2003-09-15 2011-03-29 Deere & Company Method and system for identifying an edge of a crop

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004213332A (ja) * 2002-12-27 2004-07-29 Olympus Corp キャリブレーション装置、キャリブレーション方法、キャリブレーション用プログラム、及び、キャリブレーション治具

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10127687B2 (en) 2014-11-13 2018-11-13 Olympus Corporation Calibration device, calibration method, optical device, image-capturing device, projection device, measuring system, and measuring method

Also Published As

Publication number Publication date
CN101069212A (zh) 2007-11-07
EP1662440A1 (en) 2006-05-31
WO2006058872A1 (en) 2006-06-08
US8396251B2 (en) 2013-03-12
EP1828979A1 (en) 2007-09-05
US20090129628A1 (en) 2009-05-21
EP1828979B1 (en) 2019-05-15

Similar Documents

Publication Publication Date Title
JP2008522268A (ja) 物体の位置をディジタル画像から特定する方法
EP2030139B1 (en) Method and apparatus for obtaining photogrammetric data to estimate impact severity
JP3983573B2 (ja) ステレオ画像特性検査システム
JP6767998B2 (ja) 画像の線からのカメラの外部パラメータ推定
EP2751521B1 (en) Method and system for alignment of a pattern on a spatial coded slide image
JP4803449B2 (ja) 車載カメラの校正装置、校正方法、並びにこの校正方法を用いた車両の生産方法
JP7002007B2 (ja) カメラパラメタセット算出装置、カメラパラメタセット算出方法及びプログラム
JP2006252473A (ja) 障害物検出装置、キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム
JP6891954B2 (ja) 物体検知装置、物体検知方法、及びプログラム
US20140085409A1 (en) Wide fov camera image calibration and de-warping
CN111462172B (zh) 一种基于行驶场景估计的三维全景影像自适应生成方法
US20180281698A1 (en) Vehicular camera calibration system
JP2008131250A (ja) 車載カメラの校正装置及び当該装置を用いた車両の生産方法
JP2022515225A (ja) センサキャリブレーション方法及び装置、記憶媒体、キャリブレーションシステム並びにプログラム製品
US11055541B2 (en) Vehicle lane marking and other object detection using side fisheye cameras and three-fold de-warping
US20200410650A1 (en) Signal processing apparatus, signal processing method, and program
CN114007054B (zh) 车载屏幕画面投影矫正的方法及装置
JP6669182B2 (ja) 乗員監視装置
JP6543935B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP2004354256A (ja) キャリブレーションずれ検出装置及びこの装置を備えたステレオカメラ並びにステレオカメラシステム
JP2011130290A (ja) カメラ画像の補正方法およびカメラ装置および座標変換パラメータ決定装置
JP2021051347A (ja) 距離画像生成装置及び距離画像生成方法
WO2015182771A1 (ja) 撮像装置、画像処理装置、画像処理方法およびコンピュータプログラム
JP6996582B2 (ja) 校正方法、校正装置及びプログラム
JP6680335B2 (ja) ステレオカメラ、車両、算出方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080606

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100915

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110302