JP4374625B2 - 画像生成装置及び方法 - Google Patents
画像生成装置及び方法 Download PDFInfo
- Publication number
- JP4374625B2 JP4374625B2 JP55651299A JP55651299A JP4374625B2 JP 4374625 B2 JP4374625 B2 JP 4374625B2 JP 55651299 A JP55651299 A JP 55651299A JP 55651299 A JP55651299 A JP 55651299A JP 4374625 B2 JP4374625 B2 JP 4374625B2
- Authority
- JP
- Japan
- Prior art keywords
- distance
- image
- imaging
- image data
- correlation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Description
本発明は、ステレオ法を採用して距離画像及び濃淡画像を生成する画像生成装置及び方法に関し、2台以上のカメラを用いて仮想位置と撮像対象物との距離を示す距離画像及び仮想位置から撮像対象物を撮像したときの濃淡画像を生成する画像生成装置及び方法に関する。
背景技術
一般的にステレオ法と称されている手法を用いたものとしては、例えばカメラ装置から撮像対象物までの距離情報を生成する距離計測装置が知られている。この距離計測装置は、撮像対象物の表面の三次元座標位置すなわち三次元形状を計測するために、視点の異なる複数台のカメラ装置で同一の撮像対象物を同時に撮像した画像を用い、その画像間での各画素毎に対応する対応点を求め、その視差によって距離計測装置から撮像対象物までの距離情報を得る。
従来において、仮想的な位置・向きに配置したカメラ装置で距離情報からなる距離画像と輝度情報等からなる濃淡画像とを生成する代表的な第1の手法を説明する。距離画像及び濃淡画像を生成するときには、先ず、撮像対象物を複数のカメラ装置で撮像することにより三次元計測を行う。次に、撮像対象物の空間的な座標(形状)を求める。次に、その空間内にカメラ装置を仮想的に配設し、撮像対象物の空間的な座標(形状)を用いて仮想的に配設したカメラ装置で観察されるべき距離画像を生成するとともに、濃淡画像を生成する。
つぎに、ステレオ法を採用して、一般的に撮像対象物についての距離画像を求める第2の手法ついて説明する。ここでは、説明の簡単のため、基準カメラと当該基準カメラと撮像対象物との距離を検出する検出カメラとを用い、対応点を求めて距離画像を生成する一例について説明する。
先ず、それぞれ異なる位置に配設された基準カメラ及び検出カメラで撮像対象物を撮像し、基準カメラにより得た画像データから所定領域を切り出し、当該切り出した所定領域の画像データを検出カメラの画像上で順次変移させる。このとき、検出カメラの内部パラメータや位置関係から求められるエピポーララインと称される直線上で所定領域の画像を変移させる。このように検出カメラの画像上を順次変移させることにより、基準カメラで撮像した所定領域の画像と、検出カメラで撮像した画像とを比較して一致度を求める。そして、最も一致度の高い変移位置における変移量を、切り出した所定領域の画像の中心画素における視差に設定する。そして、基準カメラの画像の各画素についてこれらの処理を繰り返すことにより、距離画像を生成する。
すなわち、図1に示すように基準カメラと検出カメラとで撮像対象物を観察し、3次元画像中の点Pが基準カメラによって撮像点nbに観察され、検出カメラによって撮像点ndに観察されたことがわかれば、点Pの3次元位置を求めることができる。ここで、基準カメラの撮像点nbに対応する検出カメラの撮像点ndであることを判断するのは容易ではなく、これをステレオ視における対応点問題と呼んでいる。
現在一般に行われている対応点を検索するときには、図1を参照して明らかなように、撮像点ndが基準カメラ及び検出カメラの光学中心と基準カメラの撮像点nbで決定される平面と検出カメラの撮像面が交わる直線上に存在している。この直線は、エピポーララインと称される。そして、基準カメラと検出カメラとの位置関係及び各カメラの固有のパラメータ(焦点距離等)が既知であれば、基準カメラの各撮像点nb毎に検出カメラの画像面上のエピポーララインを求めることができ、このエピポーラライン上で対応点の検索を行えばよいことになる。
ここで、基準カメラにより撮像された画像上の撮像点nbの対応点を検出カメラで撮像した画像上で検出する一例について述べる。このとき、図2に示すように、基準カメラの撮像点nb周辺の小領域100をテンプレートとして、検出カメラの画像のエピポーラライン上の数点で相関値を求める。ここでは、エピポーララインの分解能、すなわち距離の分解能は撮像点nd1〜撮像点nd6までの6点で、これら撮像点nd1〜撮像点nd6までが基準カメラからの距離に対応する距離番号1〜6に相当する。そして、この距離番号1〜6は、基準カメラからの視線上距離に相当する。相関は、I(x)を基準カメラで撮像した画像の輝度値とし、I’(x’)を検出カメラで撮像した画像の輝度値とすると、以下の式1で算出される。
この式1によれば、相関が大きくなるほど基準カメラで撮像した画像と検出カメラで撮像した画像との一致度が高く、相関が小さいほど一致度は低くなる。そして、この一致度に対応したパラメータを評価値とし、当該評価値とエピポーラライン上の各撮像点nd1〜撮像点nd6との関係を図3に示す。ここで評価値は、相関が小さいほど大きくなり、相関が大きいほど小さくなる値である。
この図3によれば、式1で算出される相関に基づく評価値が最も低いところに対応する撮像点ndを対応点とし、この場合では距離番号が「3」となる。または、前述のように各撮像点ndから評価値が最低点に相当する距離を決定しても良いが、評価値が最低となるところの周辺の値から、サンプリングしたデータ間を補間して最低値を求める場合もある。このように基準カメラと検出カメラとから基準カメラが撮像した画像の距離を求めることにより、輝度情報を有する濃淡画像とともに距離画像を生成している。
しかし、上述の仮想的な位置・向きに配置したカメラ装置で距離情報からなる距離画像と輝度情報等からなる濃淡画像とを生成する第1の手法では、撮像対象物を3次元の画像に展開し、この3次元に展開することにより得た3次元画像を用いて距離画像を生成するので、多大な計算量を必要とする。また、この第1の手法では、複数のカメラ装置で撮像した撮像対象物に対して3次元計測を行うときに仮想的なカメラ装置から観察することができる座標を全て撮像する必要があり、多くの視点から3次元計測を行わなければならない。さらに、第1の手法では、3次元画像を生成するときに各カメラ装置で撮像した画像を張り合わせる必要もある。
また、図1〜図3を参照して説明した第2の手法では、基準カメラで撮像した画像をテンプレートとして検出カメラで撮像した画像を変移させて検索することで距離画像を生成するので、基準カメラの存在が不可欠となる。
発明の開示
本発明の目的は、上述したような実情に鑑みて提案されたものであり、基準カメラを用いないで、検出カメラのみで本来基準カメラが配される位置から撮像対象物までの距離を示す距離画像及び基準カメラから撮像対象物を撮像したときの濃淡画像を生成することができる画像生成装置及び方法を提供することにある。
上述したような目的を達成するため、本発明に係る画像生成装置は、仮想位置に配された第1の撮像手段により撮像対象物を撮像して得られた基準画像データが記憶されている第1の記憶手段と、撮像対象物を撮像して検出画像データを生成し、それぞれが仮想位置と異なる位置に配された2以上の第2の撮像手段と、第1の記憶手段に記憶される基準画像データの各座標と、第2の撮像手段により生成された検出画像データとの対応関係から求められ、基準画像の各座標で観察される仮想位置から撮像対象物への視線が、各第2の撮像手段の撮像面に射影されることで決定されるエピポーララインが記憶されている第2の記憶手段と、第2の記憶手段に記憶され、仮想位置上の同一視線に対応するエピポーラライン上に位置する複数の画素データからなる小領域毎に、第2の撮像手段により生成された各検出画像データ同士を比較して相関を検出する相関検出手段と、相関検出手段により検出された相関関係に基づいて仮想位置と撮像対象物との距離を示す距離画像を生成する距離画像生成手段とを備えることを特徴とするものである。
このような画像生成装置によれば、2以上の撮像手段で生成した画像データを用いて、相関検出手段で各撮像手段で生成した画像データを比較し、距離画像生成手段で仮想位置と撮像対象物との距離を示す距離画像を生成する。
本発明に係る画像生成方法は、それぞれが仮想位置と異なる位置に配された2以上の検出用撮像手段で撮像対象物を撮像して検出画像データを生成し、仮想位置に配された撮像手段により撮像対象物を撮像して得られた基準画像データの各座標と、検出用撮像手段により生成された検出画像データとの対応関係から求められ、基準画像の各座標で観察される仮想位置から撮像対象物への視線が、各検出用撮像手段の撮像面に射影されることで決定されるエピポーララインを記憶する記憶手段を参照して、仮想位置上の同一視線に対応するエピポーラライン上に位置する複数の画素データからなる小領域毎に、各第2の撮像手段により生成された各検出画像データ同士を比較して相関を検出し、検出された相関関係に基づいて仮想位置と撮像対象物との距離を示す距離画像を生成することを特徴とする。
このような画像生成方法によれば、2以上の検出用撮像手段で生成した画像データを比較して相関を検出し、相関関係に基づいて仮想位置と撮像対象物との距離を示す距離画像を生成する。
本発明の更に他の目的、本発明によって得られる具体的な利点は、以下に説明される実施例の説明から一層明らかにされるであろう。
【図面の簡単な説明】
図1は、従来の手法で基準カメラ及び検出カメラを用いて基準カメラと撮像対象物との距離を示す距離情報を生成することを説明するための図である。
図2Aは基準カメラの撮像点周辺の小領域をテンプレートすることを説明するための図であり、図2Bは検出カメラの画像上に設定されるエピポーラライン上の数点で相関値を求めることを説明するための図である。
図3は、評価値とエピポーラライン上の数点での位置との関係を示す図である。
図4は、本発明に係る画像生成装置の一例を示すブロック図である。
図5は、仮想点Aにおける距離画像及び濃淡画像を生成する前提として行うキャリブレーションを行うキャリブレーション装置の一例を示すブロック図である。
図6は、基準画像の各座標に対応した各検出画像上のエピポーララインを求める一例について説明するための図である。
図7は、撮像対象物が距離Z1と距離Z2に存在する場合に検出カメラの画像面に観察される観察点nd1とnd2とを示す図である。
図8は、本発明に係る距離画像生成部で距離画像及び濃淡画像を生成するときの前提として行うキャリブレーションの一例を説明するための図である。
図9は、キャリブレーション装置により生成されるルックアップテーブルの一例について説明するための図である。
図10は、本発明に係る画像生成装置に備えられる距離画像生成部で距離画像及び濃淡画像を生成するときの処理の一例を示すフローチャートである。
図11は、仮想カメラが撮像すべき画像上の座標nbに対応する検出画像のエピポーラライン上の距離番号ごとの画素(nd1〜nd6)を導出することを説明するための図である。
図12は、評価値と距離番号との関係を示す図である。
図13は、本発明に係る画像生成装置に備えられる距離画像生成部で距離画像及び濃淡画像を生成するときの処理の他の一例を示すフローチャートである。
図14は、本発明に係る画像生成装置に備えられる距離画像生成部で評価値画像を生成するときの処理の一例を示すフローチャートである。
発明を実施するための最良の形態
以下、本発明の実施の形態について図面を参照しながら詳細に説明する。
本発明は、例えば図4に示すように構成され、距離を測定して距離画像を生成するときに用いる画像生成装置1に適用される。この画像生成装置1は、撮像対象物2を撮像する複数の検出カメラ3(3a、3b)と、複数の検出カメラ3で撮像した画像データが格納されるフレームメモリ4a、4bと、フレームメモリ4a、4bに格納された画像データを用いて距離画像及び濃淡画像を生成する距離画像生成部5とからなる。画像生成装置1は、検出カメラ3a、3bで撮像対象物2を撮像することにより、仮想点Aに仮想的に配設し実在しない仮想カメラ3cで撮像するべき距離画像及び濃淡画像(以下、「仮想画像」と称する。)を生成するものである。
検出カメラ3a、3bは、例えばCCDイメージセンサ等を備え、撮像対象物2を撮像することにより輝度情報等からなる画像(以下、「検出画像」と略す。)を生成し、当該画像データをフレームメモリ4a、4bに格納する。このとき、検出カメラ3a、3bは、生成した画像データをフレーム毎にフレームメモリ4a、4bに格納する。
検出カメラ3a、3bは、図4中の仮想点Aとは異なる位置に複数台配設されている。本例では、検出カメラ3を検出カメラ3a、検出カメラ3bとしてそれぞれ異なる位置に配設している。なお、これらの検出カメラ3a、3bが配設される位置、台数はこれに限定されず任意に設定可能である。
フレームメモリ4は、検出カメラ3a、3bからの画像データをそれぞれフレームメモリ4a、4bに格納し、距離画像生成部5に出力する。
距離画像生成部5は、フレームメモリ4a、4bからの画像データを処理することにより、仮想カメラ3cで生成される仮想画像を生成する。
つぎに、上述の図4に示した画像生成装置1に備えられた距離画像生成部5で仮想点Aにおける距離画像及び濃淡画像を生成する前提として行うキャリブレーションについて図5のキャリブレーション装置10を参照して説明する。なお、キャリブレーション装置10の説明において、上述の画像生成装置1と同様の部分については同一符号を付することによりその詳細な説明を省略する。
図5に示したキャリブレーション装置10は、上述の仮想点Aに配設された基準カメラ11と、この基準カメラ11で撮像した画像データが格納されるフレームメモリ12とを備え、キャリブレーション部13により撮像対象物2を撮像した基準カメラ11で撮像した画像(以下、「基準画像」と称する。)及び検出カメラ3a、3bで撮像した画像(以下、「検出画像」と称する。)を用いてキャリブレーションを行う。
キャリブレーション部13は、検出カメラ3a、3b及び基準カメラ11を位置決めして、検出画像上にエピポーララインを決定し、基準画像の座標と検出画像との対応関係を予め求めておき、例えば上述の距離画像生成部5にルックアップテーブルとして格納する処理を行う。
このエピポーララインは、基準カメラ11及び検出カメラ3a、3bの光学中心(光軸)と基準カメラ11の観察点nbによって決まる平面と、検出カメラ3a、3bの画像面が交わる直線である。ここで、基準画像の各座標に対応した各検出画像上のエピポーララインを求める一例について説明する。例えば図6に示すように、3次元空間に置かれた平面上の点Pが基準カメラ11の基準画像で点nbに観察され、検出カメラ3の検出画像で点ndに観察されたとする。このような関係にある場合、検出画像の点ndは、点nbから点ndへ変換を行う3×3の射影変換行列をHとすると、
と表現される。そして、この距離画像生成部5は、この射影変換行列Hのパラメータを変化させながら基準カメラ11で撮像された基準画像に対して所定の射影変換を施し、検出画像と基準画像間の輝度の誤差が最小となるように射影変換行列Hのパラメータを決定する。射影変換行列Hを求めることにより、キャリブレーション部13は、基準画像の任意の点に対応する対応点を検出画像上から検索することが可能となる。なお、本例では、変換後の検出画像と基準画像とが正確に一致する射影変換行列Hを求める方法(画像合わせ込み方法)としては、Levenberg-Marquardt最小法(L−M法)を用いている。このキャリブレーション部13は、このような手法を用いて射影変換行列Hを各距離毎に求め、当該射影変換行列Hを用いてエピポーララインを求める。
すなわち、このキャリブレーション部13は、例えば図7に示すように、上述のL−M法を用いて基準位置からの距離Z1についての射影変換行列H1を求めると、基準位置からの距離Z1における基準画像上の点nbに対応する検出画像上の点nd1が決定できる。ここで、基準画像上の点nbは任意であるので、キャリブレーション部13は、距離Z1における射影変換行列H1を用いて、基準画像上の全ての点nbに対応する対応点を検出画像上の点ndとして算出することができる。キャリブレーション部13は、同様にして、観察する平面を距離Z2に、距離Z1の位置に置かれていた平面と平行となるように置いた場合の射影変換行列H2を求める。
そして、キャリブレーション部13は、距離Z1及び距離Z2に対応した射影変換行列H1及び射影変換行列H2により、基準画像上の点nbが距離Z1又は距離Z2にある場合には、検出画像上の点nd1又は点nd2にそれぞれ射影されることを算出する。このようにキャリブレーション部13は、検出画像上の点nd1と点nd2との2点を補間してエピポーララインを算出することにより、基準画像上の点nb、距離Z及び検出画像上の点ndとの関係を求めることができる。この射影変換行列Hを距離Z毎に記憶しておくことにより、後述の方法を用い、画像生成装置1に備えられた仮想カメラ3cで生成すべき仮想画像の距離情報を得ることができる。ただし、このように補間を行うときには、距離Z1と距離Z2との間に位置する距離に置いた平面を設定することが必要となる。なお、上述のキャリブレーション部13が行うキャリブレーションの例に関する詳細は、特願平9−207951号に記載されている。
つぎに、基準画像上の点nbと検出画像上の点ndとから距離Zを求めるには、次のようにしても良い。キャリブレーション部13は、算出したエピポーラライン上において図6及び図7に示すキャリブレーションを行うことにより、基準画像上の点nbと、検出画像上の点ndとの関係を求め、この関係を、例えばルックアップテーブルに格納する。
このキャリブレーションは、例えば図8に示すように検出画像のエピポーラライン上における点nd1と光学中心とを結ぶ視線と、基準画像上の点nbと基準カメラ11の光学中心とを結ぶ視線との交わる点が基準カメラ11から撮像対象物までの距離Z1に対応することを用いて行い、距離Z1を距離番号「1」とする。このエピポーララインは、上述の射影変換行列Hを用いて算出される。また、検出画像のエピポーラライン上における点nd2と光学中心とを結ぶ視線と、基準画像上の点nbと基準カメラ11の光学中心とを結ぶ視線との交わる点が基準カメラ11から撮像対象物までの距離Z2に対応する。このとき、距離Z2を距離番号「2」とする。
このように、キャリブレーション部13は、検出画像の点nd1〜nd6に対して順次、検出画像のエピポーラライン上における点nd1〜nd6と光学中心とを結ぶ視線と、基準画像上の点nbと基準カメラ11の光学中心とを結ぶ視線との交わる点に対応する距離Z1〜Z6を距離番号1〜6として検出することにより、上述の画像生成装置1で行う距離画像生成の前にキャリブレーションを行う。そして、キャリブレーション部13は、基準画像上の点nbと検出画像上の点ndとの関係から、基準画像上の点nbが撮像すべき画像の距離番号1〜6を得ることができる。
また、キャリブレーション部13は、各距離Z1〜距離Z6について各平面を設定して基準画像上の点nbと検出画像上の点ndとの対応関係を示す各射影変換行列を生成しても良く、例えば距離Z1、距離Z3、距離Z6の3つの距離についてのみ平面を設定して検出画像上の点nbと検出画像上の点ndとの対応関係を示す射影変換行列を求めてから、距離Z1,Z3,Z6の間に位置する距離Z2,Z4についての射影変換行列を補間して求めても良い。
すなわち、このキャリブレーション部13は、光学中心(光軸)から基準画像上の点nbに対応する検出画像上の点ndをエピポーラライン上で順次キャリブレーションすることにより、エピポーラライン上で対応点nd1〜nd6を決定することにより距離Z1〜Z6を決定し、対応点nd1〜nd6と距離番号1〜6との対応付けを行い、基準画像上の点nbと、検出画像上の点ndとの関係を求め、例えば図9に示すようなルックアップテーブルを作成する。
この図9においては、例えば基準画像上のある点nbに対応する距離(Z1,Z2,Z3,・・・)の検出カメラ3aが撮像した検出画像上の点(nd1,nd2,nd3,・・・)及び検出カメラ3bが撮像した検出画像上の点(nd1,nd2,nd3,・・・)が格納されてなる。そして、このルックアップテーブルは、例えば基準画像上の各画素毎に生成され、画像生成装置1で距離画像を生成するときに、キャリブレーション部13における基準画像上の画素が仮想画像上の画素として参照される。
つぎに、画像生成装置1に備えられた距離画像生成部5で検出カメラ3a、3bで生成された画像データを用い、上述のキャリブレーション装置10で生成したルックアップテーブルを参照して距離画像及び濃淡画像を生成するときの一例について図10のフローチャートを用いて説明する。
図10に示したフローチャートによれば、先ず、ステップST1において距離画像生成部5は、仮想カメラ3cの仮想画像の画像データ上の画素の座標iを初期化することでi=0とする。
次に、ステップST2において距離画像生成部5は、キャリブレーションを行ったときの距離方向の分解能に応じた距離番号jを初期化することでj=0としてステップST3及びステップST4に進む。
ステップST3において距離画像生成部5は、図11に示すように、仮想カメラ3cが撮像すべき画像上の座標i(nb)に対応する検出画像のエピポーラライン上の距離番号jでの画素nda(i,j)(nd1〜nd6)を導出する。すなわち、距離画像生成部5は、ステップST1で仮想カメラ3cが撮像すべき仮想画像上の座標iが決定すると、上述の処理により決定された検出カメラ3aのエピポーラライン上の画素nda(i,j)をルックアップテーブルから検出してステップST5に進む。なお、決定された検出画像の画素nda(i,j)の位置は、整数値のみならず、サブピクセルで表現しても良い。
ステップST5において距離画像生成部5は、上述のステップST3で決定した距離番号jにおける画素nda(i,j)の近傍を当該画素nda(i,j)を中心に小領域WA(i,j)として切り出す。
一方、距離画像生成部5は、ステップST4において上述のステップST3で説明した処理を検出カメラ3bについても行う。すなわち、この距離画像生成部5は、仮想カメラ3cが撮像すべき画像上の座標iに対応する検出カメラ3bが撮像した検出画像上のエピポーラライン上の距離番号jでの画素ndb(i,j)をルックアップテーブルから検出してステップST6に進む。
距離画像生成部5は、ステップST6においても、上述のステップST5と同様の処理を検出カメラ3bについて行う。すなわち、距離画像生成部5は、上述のステップST4で決定した距離番号jにおける画素ndb(i,j)の近傍を当該画素ndb(i,j)を中心に小領域WB(i,j)として切り出す。
次に、ステップST7において距離画像生成部5は、上述のステップST5で切り出した小領域WA(i,j)と、ステップST6で切り出した小領域WB(i,j)とを比較することにより、相関を計算し、評価値s(j)を得る。ここで、評価値s(j)は、距離番号jにおける相関を示しており、例えば下式により算出される。
相関は大きいほど小領域WA(i,j)と小領域WB(i,j)との類似度が高いことを示している。また、評価値s(j)は、距離画像生成部5で相関に対応して上記式2で算出されることにより、相関が大きいほど評価値は小さい値を有する。すなわち、この距離画像生成部5は、検出カメラ3aにより生成した検出画像の小領域WA(i,j)と、検出カメラ3bにより生成した検出画像の小領域WB(i,j)との輝度パターンを比較することで類似度を評価値s(j)として生成する。
次に、ステップST8において距離画像生成部5は、距離番号jを認識することにより全距離番号について評価値s(j)を算出したか否かを判断し、全距離番号jについて処理をしたときにはステップST10に進む。一方、全距離番号jについて処理をしていないときにはステップST9に進み、距離番号jをインクリメントして再びステップST3及びステップST4に進む。すなわち、距離画像生成部5は、仮想カメラ3cの仮想画像の画素の座標iに対して全距離番号jについて上述のステップST3〜ステップST7で説明した処理を行う。
次に、ステップST10において距離画像生成部5は、仮想画像の座標iに対する全距離番号jについての各評価値s(j)のうち、最小の値を有する評価値s(jmin)を選択する。例えば図12に示すように距離番号1〜6に対応する評価値s(j)を距離画像生成部5で得たとき、距離番号が「3」が最小の値を有する評価値s(jmin)となる。このとき、距離画像生成部5は、ステップST7で得た各評価値s(j)間を補間して最小の評価値s(jmin)を求めても良い。距離画像生成部5は、補間して最小の評価値s(jmin)を得るときには距離番号ndmが「3.3」を最小の評価値s(jmin)として得る。従って、この距離画像生成部5は、補間して評価値s(jmin)を得ることにより評価値の精度を高くすることができる。
次に、ステップST11において距離画像生成部5は、上述のステップST10において得た最小の値を有する評価値s(jmin)が示す距離番号jに対応する距離Zを仮想カメラ3cで撮像した距離画像の座標iの距離情報として記憶する。
次に、ステップST12において距離画像生成部5は、上述のステップST10において得た最小の値を有する評価値s(jmin)が示す距離番号jに対応する検出カメラ3aで撮像した検出画像と検出カメラ3bで撮像した検出画像の画素の例えば片方の値又は双方の値を仮想画像の座標iにおける輝度情報として記憶する。
次に、ステップST13において距離画像生成部5は、上述のステップST3〜ステップST12までの処理を仮想カメラ3c上の各座標iについて行うことで、仮想画像の全ての座標iについて距離情報及び輝度情報を求める処理がなされたかを判断する。そして、距離画像生成部5は、全ての座標iについて距離情報及び輝度情報が求められたと判断したときには処理を終了し、全ての座標iについて距離情報及び輝度情報が求められていないと判断したときには座標iの値をステップST14でインクリメントしてステップST2に戻り、インクリメントした座標i+1についてステップST2〜ステップST12までの処理を行い、全ての座標iについて距離情報及び輝度情報を求めるまで繰り返す。
このような距離画像生成部5を備えた画像生成装置1は、仮想カメラ3cで生成すべき仮想画像について、仮想位置にカメラを配置しないで、検出カメラ3a、3bのみで本来カメラが配される仮想点Aから撮像対象物2までの距離を示す距離画像及び仮想点Aから撮像対象物2を撮像したときの濃淡画像を生成することができる。したがって、この画像生成装置1によれば、仮想カメラ3cのみでは電子的に画像として生成することができない、各画素についての距離情報を有してなる距離画像を生成することができる。
また、画像生成装置1によれば、仮想的な位置に配された仮想カメラからの距離画像及び濃淡画像を生成するときに、仮想カメラからの位置に実際にカメラを位置させてキャリブレーションを行うことにより、従来のように撮像対象物の三次元空間の座標系に展開するという煩雑な処理を行う必要がなく仮想カメラで生成すべき距離画像及び濃淡画像を生成することができる。
更に、この画像生成装置1によれば、例えばユーザの正面に画像を表示するスクリーンが存在している場合であって、ユーザの正面にカメラを配置することができない状態であっても、ユーザの周囲に複数台の検出カメラ3を配置することにより、ユーザの正面から撮像して生成すべき距離画像及び濃淡画像を生成することができる。
更にまた、この画像生成装置1によれば、仮想カメラ3cの位置に高精細な撮像カメラ若しくは、フィルムを使用するカメラ等のように検出カメラ3a、3bとは異なるタイプのカメラを配設しても良い。このような画像生成装置1は、仮想的な位置に配された仮想カメラ3cと撮像対象物2との距離を測定する処理とは独立に輝度情報及び色情報からなる濃淡画像を撮像することが可能となるとともに、仮想カメラ3cが配設される仮想的な位置に配置された通常のカメラで撮像されている撮像対象物2の距離を測定することも可能となる。
つぎに、距離画像生成部5が検出カメラ3a、3bで生成された画像データを用いて、距離画像及び濃淡画像を生成するときの他の一例について図13に示すフローチャートを参照して説明する。
この距離画像生成部5は、先ず、ステップST21において、キャリブレーションを行ったときの距離方向の分解能に応じた距離番号jを初期化することでj=0とする。
次に、ステップST22において距離画像生成部5は、仮想カメラ3cの仮想画像上の各画素の座標iを初期化することでi=0としてステップST23及びステップST24に進む。
ステップST23において距離画像生成部5は、上述のステップST3と同様に仮想カメラ3cが撮像すべき仮想画像上の座標iに対応する検出カメラ3aが撮像した検出画像上のエピポーラライン上の距離番号jでの画素nda(i,j)を導出してステップST25に進む。
ステップST25において距離画像生成部5は、上述のステップST23において導出した画素nda(i,j)の輝度値を、視差画像Daの画素Da(i)として記憶する。
一方、ステップST24において距離画像生成部5は、上述のステップST4と同様に、仮想カメラ3cが撮像すべき仮想画像上の座標iに対応する検出画像上のエピポーラライン上の距離番号jでの画素ndb(i,j)を導出してステップST26に進む。
そして、距離画像生成部5は、ステップST26において上述のステップST24において導出した画素ndb(i,j)の輝度値を、視差画像Dbの画素Db(i)として記憶する。
このように、距離画像生成部5は、ステップST25及びステップST26で示す処理を行うことにより、仮想画像の座標i=0において各検出カメラ3a、3bの距離番号jでの視差画像Da、Dbの画素Da(i)、Db(i)を記憶する。このとき、距離画像生成部5は、各検出画像のエピポーラライン上をキャリブレーション装置10でキャリブレーションしたときの距離番号jに対応する画素Da(i)、Db(i)をルックアップテーブルを参照して導出する。
次に、ステップST27において距離画像生成部5は、距離番号jにおいて仮想画像の全ての座標iについて視差画像Da、Dbの画素Da(i)、Db(i)を記憶したか否かを判断する。そして、この距離画像生成部5は、全ての座標iについて視差画像Da、Dbの画素Da(i)、Db(i)と記憶したと判断したらステップST29に進み、全ての座標iについて記憶していないと判断したときにはステップST28において座標iをインクリメントすることにより座標i+1として再びステップST23及びステップST24に戻る。すなわち、距離画像生成部5は、距離番号jにおける全ての座標iについて視差画像Da、Dbの画素Da(i)、Db(i)を記憶するまでステップST23〜ステップST28までの処理を繰り返す。
ステップST29において距離画像生成部5は、上述のステップST23〜ステップST28までの処理を行うことにより得た視差画像Daに含まれる画素Da(i、j)と、視差画像Dbに含まれるDb(i,j)とを式1を用いて比較することにより、検出カメラ3aで撮像した検出画像と検出カメラ3bで撮像した検出画像との相関を求め、各画素について相関に応じた評価値s(i,j)を求める。そして、距離画像生成部5は、距離jにおける座標iの評価値s(i,j)からなる評価値画像s(i,j)を生成する。なお、この評価値画像S(i,j)を生成する処理についての詳細は後述する。
次に、ステップST30において距離画像生成部5は、距離番号jを認識することにより全距離番号jについて評価値画像S(i,j)を生成したか否かを判断し、全距離番号jについて処理をしたときにはステップST32に進む。一方、全距離番号jについて処理をしていないときにはステップST31に進み、距離番号jをインクリメントして距離番号j+1とし再びステップST23〜ステップST31までの処理を繰り返す。
ステップST32では、仮想カメラ3cの仮想画像上の各画素の座標iを初期化することで座標i=0とする。
次に、ステップST33で距離画像生成部5は、上述の処理により得た座標iにおける各距離番号j毎の評価値画像S(i,j)の値である評価値s(j)が最小となる値を検索し、最小の評価値を有する画素s(i,jmin)に対応する距離番号jminを導出する。また、この距離画像生成部5は、各距離番号j毎の各評価値s(j)を補間して最小の評価値s(jmin)を求めても良い。このように、距離画像生成部5は、補間して最小の評価値s(jmin)を求めることにより、評価値s(j)の精度をより高くすることができる。
次に、ステップST34において距離画像生成部5は、上述のステップST33において得た最小の評価値s(i,jmin)が示す距離番号jminに対応する距離Zを仮想カメラ3cで撮像する距離画像の座標iの距離情報として記憶する。
次に、ステップST35において距離画像生成部5は、上述のステップST33において得た最小の評価値s(i,jmin)が示す距離番号jminに対応する検出カメラ3aで撮像した検出画像と検出カメラ3bで撮像した検出画像の画素の輝度情報の例えば片方の値又は双方の値の平均の値を仮想画像の位置iにおける輝度情報として記憶する。
次に、ステップST36において距離画像生成部5は、上述のステップST33〜ステップST35までの処理が仮想カメラ3c上の画素の各位置iについて行うことで、仮想画像の全ての座標iについて距離情報及び輝度情報を求める処理がなされたか否かを判断する。そして、距離画像生成部5は、全ての座標iについて距離情報及び輝度情報が求められたと判断したときには処理を終了し、全ての座標iについて距離情報及び輝度情報が求められていないと判断したときには座標iをステップST37でインクリメントしてステップST33に戻り、インクリメントした座標i+1についてステップST33〜ステップST36までの処理を行い、全ての座標iについて距離情報及び輝度情報を求めるまでステップST33〜ステップST37の処理を繰り返す。
つぎに、上述のステップST29で視差画像Daと視差画像Dbとから評価値画像S(i,j)を生成する一例について図14を参照して説明する。
評価値画像S(i,j)を生成するときには、先ず、ステップST41において距離画像生成部5は、評価値画像S(i,j)の画像の座標iを「0」に初期化する。
次に、ステップST42において距離画像生成部5は、視差画像Da(i)の近傍の小領域と、視差画像Db(i)の近傍の小領域との輝度パターンを比較することにより、小領域毎に評価値s(j)を計算する。この結果、各画素の情報としては、距離番号jに対応した評価値s(j)が存在することになる。このとき、距離画像生成部5は、上述の式1を用いて評価値s(j)を計算しても良い。
次に、ステップST43において距離画像生成部5は、上述のステップST42で計算して得た評価値を評価値画像S(i,j)の画素として記憶する。
次に、ステップST44において距離画像生成部5は、画面全体について評価値画像S(i,j)の画素を生成したか否かを判断し、仮想画像の座標iより全ての画素について評価値画像S(i,j)の画素として記憶したら処理を終了し、座標iより全ての画素について評価値画像S(i,j)の画素として記憶していないと判断したときには座標iをインクリメントして座標i+1として再びステップST42〜ステップST43の処理を行い、結果的に全ての座標iについて評価値画像S(i,j)の画素を記憶するまで繰り返すこととなる。
このように、画像生成装置1は、仮想カメラ3cで生成すべき仮想画像について、仮想位置にカメラを配置しないで、検出カメラ3a、3bのみで本来カメラが配される位置から撮像対象物2までの距離を示す距離画像及び仮想カメラ3cから撮像対象物2を撮像したときの濃淡画像を生成することができる。
更に、この画像生成装置1は、視差画像Da(i)の近傍の小領域と、視差画像Db(i)の近傍の小領域との輝度パターンを比較することにより、小領域毎に評価値s(j)を計算して仮想画像の座標を順次インクリメントしながら計算することにより、各距離番号毎の評価値画像S(i,j)を生成して最小の評価値s(jmin)を選択して距離情報からなる距離画像及び輝度情報からなる濃淡画像を生成するので、上述の図10若しくは図12で示した処理よりも計算量を減らすことができる。
なお、上述のフローチャートを参照して説明した距離画像生成部5の処理においては、仮想画像の全体の座標iについて距離情報及び輝度情報を求める一例について説明したが、仮想画像の一部の座標iについて距離情報及び輝度情報を求めても良い。
また、上述のフローチャートを参照して説明した距離画像生成部5の処理の前提として行うキャリブレーション時に、例えば撮像対象の平面にパターン光を投光することにより、撮像対象物にテクスチャを貼り付けても良い。このように画像生成装置1は、キャリブレーション時に撮像対象物にテクスチャを貼り付けることにより、キャリブレーションの精度を向上させることができ、距離計測の精度を向上させることができる。
更に、この画像生成装置1は、距離計測の精度を上げるために、例えば赤外線領域のパターン光を撮像対象物に投光し、仮想カメラ3cを配する位置に配され赤外線遮断フィルタを備えたカメラと、その周囲に位置する検出カメラ3とから構成しても良い。このとき、キャリブレーションを行ったカメラを仮想カメラとしてそのまま用いることとなる。これにより、この画像生成装置1は、周囲の検出カメラにより赤外線領域のパターン光を受像して距離画像を生成し、仮想カメラ3cを配する位置に配されたカメラで濃淡画像を生成する。このとき、仮想カメラ3cを配する位置に配されたカメラで生成した画像をそのまま濃淡画像として利用する。
産業上の利用可能性
以上詳細に説明したように、本発明によれば、仮想位置に配された撮像手段により撮像対象物を撮像して得られた基準画像データの各座標と、検出用撮像手段により生成された検出画像データとの対応関係から求められ、基準画像の各座標で観察される仮想位置から撮像対象物への視線が、各検出用撮像手段の撮像面に射影されることで決定されるエピポーララインを記憶する記憶手段を参照して、仮想位置上の同一視線に対応するエピポーララインに位置する複数の画素データからなる小領域毎に、各第2の撮像手段により生成された各検出画像データ同士を比較して相関を検出するので、検出時においては仮想位置にカメラを配置しないで、仮想位置から撮像対象物までの距離を示す距離画像及び仮想位置から撮像対象物を撮像したときの濃淡画像を検出された相関関係に基づいて生成することができる。
Claims (15)
- 仮想位置に配された第1の撮像手段により撮像対象物を撮像して得られた基準画像データが記憶されている第1の記憶手段と、
上記撮像対象物を撮像して検出画像データを生成し、それぞれが上記仮想位置と異なる位置に配された2以上の第2の撮像手段と、
上記第1の記憶手段に記憶される基準画像データの各座標と、上記第2の撮像手段により生成された検出画像データとの対応関係から求められ、上記基準画像の各座標で観察される上記仮想位置から上記撮像対象物への視線が、上記各第2の撮像手段の撮像面に射影されることで決定されるエピポーララインが記憶されている第2の記憶手段と、
上記第2の記憶手段に記憶され、上記仮想位置上の同一視線に対応するエピポーラライン上に位置する複数の画素データからなる小領域毎に、上記第2の撮像手段により生成された各検出画像データ同士を比較して相関を検出する相関検出手段と、
上記相関検出手段により検出された相関関係に基づいて上記仮想位置と上記撮像対象物との距離を示す距離画像を生成する距離画像生成手段とを備える画像生成装置。 - 上記第2の撮像手段により生成された各検出画像データに基づいて上記仮想位置から上記撮像対象物を撮像したときの濃淡画像を生成する濃淡画像生成手段を更に備え、
上記濃淡画像生成手段は、上記第2の撮像手段により生成された検出画像データの輝度情報を用いて濃淡画像を生成する請求の範囲第1項に記載の画像生成装置。 - 上記仮想位置に配置された第1の撮像手段を備え、
上記第1の撮像手段は、上記撮像対象物の濃淡画像を生成し、
上記距離画像生成手段は、上記第2の撮像手段により生成された上記検出画像データに基づいて上記第1の撮像手段と上記撮像対象物との距離を示す距離画像を生成する請求の範囲第1項に記載の画像生成装置。 - 上記撮像対象物に所定領域のパターン光を照射する発光手段と、
上記第1の撮像手段に入射される上記所定領域のパターン光を遮断するフイルタ手段とを備え、
上記第1の撮像手段は、上記撮像対象物の濃淡画像を生成し、
上記距離画像生成手段は、上記パターン光が照射された撮像対象物から反射する光を用いて上記第2の撮像手段が生成した各検出画像データに基づいて上記第1の撮像手段と上記撮像対象物との距離を示す距離画像を生成する請求の範囲第3項に記載の画像生成装置。 - 上記相関検出手段は、上記第2の記憶手段に記憶されている各エピポーラライン上に位置する複数の画素データからなる小領域毎に、上記第2の撮像手段により生成された検出画像データ同士を比較して、距離画像を構成する少なくとも一画素からなる各画素ブロックについて各距離毎の相関を検出し、
上記距離画像生成手段は、上記相関検出手段で検出された各距離毎の相関のうち、最も相関が高い各画像データにおける距離を距離画像の画素ブロックの撮像対象物との距離とする請求の範囲第1項に記載の画像生成装置。 - 上記最も相関が高い距離に対応するエピポーラライン上の上記各第2の撮像手段で撮像した複数の検出画像データを用いて、上記仮想位置から上記撮像対象物を撮像したときの画像データを生成する濃淡画像生成手段を備える請求の範囲第5項に記載の画像生成装置。
- 上記相関検出手段は、上記仮想位置と上記撮像対象物との距離に対応する上記各エピポーラライン上の複数の上記検出画像データのうち、所定の距離を示す画像データ同士を比較して上記所定の距離についての相関を上記距離画像全体について検出する処理を全距離について行い、
上記距離画像生成手段は、各距離画像を構成する少なくとも一画素からなる各画素ブロック毎に、各距離毎の相関のうち、最も相関が高い各画像データにおける距離を各画素ブロックについての撮像対象物との距離とする請求の範囲第1項に記載の画像生成装置。 - 上記最も相関が高い距離に対応するエピポーラライン上の上記各第2の撮像手段で撮像した複数の検出画像データを用いて、上記仮想位置から上記撮像対象物を撮像したときの画像データを生成する濃淡画像生成手段を備える請求の範囲第7項に記載の画像生成装置。
- それぞれが仮想位置と異なる位置に配された2以上の検出用撮像手段で撮像対象物を撮像して検出画像データを生成し、
仮想位置に配された撮像手段により撮像対象物を撮像して得られた基準画像データの各座標と、上記検出用撮像手段により生成された検出画像データとの対応関係から求められ、上記基準画像の各座標で観察される上記仮想位置から上記撮像対象物への視線が、上記各検出用撮像手段の撮像面に射影されることで決定されるエピポーララインを記憶する記憶手段を参照して、上記仮想位置上の同一視線に対応するエピポーラライン上に位置する複数の画素データからなる小領域毎に、上記各第2の撮像手段により生成された各検出画像データ同士を比較して相関を検出し、
検出された相関関係に基づいて上記仮想位置と上記撮像対象物との距離を示す距離画像を生成する画像生成方法。 - 上記検出用撮像手段により生成された各検出画像データの輝度パターンを用いて濃淡画像を生成する請求の範囲第9項に記載の画像生成方法。
- 上記検出用撮像手段で撮像した各検出画像データ同士を比較して画像全体の相関を検出し、
画像全体の相関関係に基づいて上記仮想位置と上記撮像対象物との距離を示す距離画像を生成する請求の範囲第9項に記載の画像生成方法。 - 上記仮想位置と上記撮像対象物との距離に対応する上記各エピポーラライン上の画像データ同士を比較し、
上記距離画像を構成する少なくとも一画素からなる各画素ブロックについて各距離毎の相関を検出し、
各距離毎の相関のうち、最も相関が高い各画像データにおける距離を上記仮想位置と上記撮像対象物との距離とする請求の範囲第9項に記載の画像生成方法。 - 上記最も相関が高い各画像データにおける距離に対応するエピポーラライン上の上記各検出用撮像手段で撮像した複数の検出画像データを用いて、上記仮想位置から上記撮像対象物を撮像したときの画像データを生成する請求の範囲第12項に記載の画像生成方法。
- 上記仮想位置と上記撮像対象物との距離に対応する上記各エピポーラライン上の複数の検出画像データのうち、所定の距離を示す画像データ同士を比較して上記所定の距離についての相関を上記距離画像全体について検出する処理を全距離について行い、
各距離画像を構成する少なくとも一画素からなる各画素ブロック毎に、各距離毎の相関のうち、最も相関が高い各画像データにおける距離を各画素ブロックについての撮像対象物との距離とする請求の範囲第9項に記載の画像生成方法。 - 上記最も相関が高い各画像データにおける距離に対応するエピポーラライン上の上記各検出用撮像手段で撮像した複数の検出画像データを用いて、上記仮想位置から上記撮像対象物を撮像したときの画像データを生成する請求の範囲第14項に記載の画像生成方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP12623798 | 1998-05-08 | ||
PCT/JP1999/002381 WO1999058927A1 (en) | 1998-05-08 | 1999-05-07 | Image generating device and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP4374625B2 true JP4374625B2 (ja) | 2009-12-02 |
Family
ID=14930195
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP55651299A Expired - Lifetime JP4374625B2 (ja) | 1998-05-08 | 1999-05-07 | 画像生成装置及び方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US7015951B1 (ja) |
JP (1) | JP4374625B2 (ja) |
WO (1) | WO1999058927A1 (ja) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8085293B2 (en) * | 2001-03-14 | 2011-12-27 | Koninklijke Philips Electronics N.V. | Self adjusting stereo camera system |
JP3951695B2 (ja) * | 2001-12-11 | 2007-08-01 | ソニー株式会社 | 画像配信システムおよび方法、画像配信装置および方法、画像受信装置および方法、記録媒体、並びにプログラム |
US7307654B2 (en) * | 2002-10-31 | 2007-12-11 | Hewlett-Packard Development Company, L.P. | Image capture and viewing system and method for generating a synthesized image |
EP1685538B1 (en) * | 2003-08-21 | 2011-03-02 | Philips Intellectual Property & Standards GmbH | Device and method for generating a three-dimensional vascular model |
US7570803B2 (en) * | 2003-10-08 | 2009-08-04 | Microsoft Corporation | Virtual camera translation |
US7809183B2 (en) * | 2003-10-08 | 2010-10-05 | Microsoft Corporation | Gaze manipulation |
JP4069855B2 (ja) * | 2003-11-27 | 2008-04-02 | ソニー株式会社 | 画像処理装置及び方法 |
DE102004007049A1 (de) * | 2004-02-13 | 2005-09-01 | Robert Bosch Gmbh | Verfahren zur Klassifizierung eines Objekts mit einer Stereokamera |
EP1648181A1 (en) * | 2004-10-12 | 2006-04-19 | Dialog Semiconductor GmbH | A multiple frame grabber |
CN101198964A (zh) * | 2005-01-07 | 2008-06-11 | 格斯图尔泰克股份有限公司 | 使用红外图案照射创建对象的三维图像 |
US7554575B2 (en) * | 2005-10-28 | 2009-06-30 | Seiko Epson Corporation | Fast imaging system calibration |
JP4999854B2 (ja) * | 2006-09-20 | 2012-08-15 | 日本電信電話株式会社 | 画像符号化方法及び復号方法、それらの装置、及びそれらのプログラム並びにプログラムを記録した記憶媒体 |
JP4839298B2 (ja) * | 2007-11-28 | 2011-12-21 | キヤノン株式会社 | 画像処理装置、画像処理装置の制御方法、プログラム及び記憶媒体 |
JP5086120B2 (ja) * | 2008-02-07 | 2012-11-28 | 日本電信電話株式会社 | 奥行き情報取得方法、奥行き情報取得装置、プログラムおよび記録媒体 |
CA2714492C (en) | 2008-02-08 | 2014-07-15 | Google, Inc. | Panoramic camera with multiple image sensors using timed shutters |
WO2011149558A2 (en) | 2010-05-28 | 2011-12-01 | Abelow Daniel H | Reality alternate |
JP2013073515A (ja) * | 2011-09-28 | 2013-04-22 | Sumitomo Heavy Ind Ltd | 物体検出方法及び物体検出装置 |
JP5631833B2 (ja) * | 2011-09-28 | 2014-11-26 | 住友重機械工業株式会社 | 物体検出装置を搭載する移動体 |
JP5631834B2 (ja) * | 2011-09-28 | 2014-11-26 | 住友重機械工業株式会社 | 物体検出装置を搭載する移動体 |
US8965107B1 (en) | 2012-05-18 | 2015-02-24 | Google Inc. | Feature reduction based on local densities for bundle adjustment of images |
US8897543B1 (en) * | 2012-05-18 | 2014-11-25 | Google Inc. | Bundle adjustment based on image capture intervals |
JP2015095802A (ja) | 2013-11-13 | 2015-05-18 | ソニー株式会社 | 表示制御装置、表示制御方法、およびプログラム |
JP6459972B2 (ja) * | 2013-11-13 | 2019-01-30 | ソニー株式会社 | 表示制御装置、表示制御方法、およびプログラム |
US10008027B1 (en) * | 2014-10-20 | 2018-06-26 | Henry Harlyn Baker | Techniques for determining a three-dimensional representation of a surface of an object from a set of images |
JP6426594B2 (ja) * | 2015-12-16 | 2018-11-21 | 日本電信電話株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
JP7038315B2 (ja) * | 2016-09-08 | 2022-03-18 | パナソニックIpマネジメント株式会社 | カメラパラメータ算出装置、カメラパラメータ算出方法、プログラム、及び記録媒体 |
JP7038345B2 (ja) * | 2017-04-20 | 2022-03-18 | パナソニックIpマネジメント株式会社 | カメラパラメタセット算出方法、カメラパラメタセット算出プログラム及びカメラパラメタセット算出装置 |
JP7038346B2 (ja) * | 2017-05-01 | 2022-03-18 | パナソニックIpマネジメント株式会社 | カメラパラメータ算出方法、カメラパラメータ算出プログラム、及びカメラパラメータ算出装置 |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4825393A (en) * | 1986-04-23 | 1989-04-25 | Hitachi, Ltd. | Position measuring method |
US5577130A (en) * | 1991-08-05 | 1996-11-19 | Philips Electronics North America | Method and apparatus for determining the distance between an image and an object |
US5383013A (en) * | 1992-09-18 | 1995-01-17 | Nec Research Institute, Inc. | Stereoscopic computer vision system |
US5680474A (en) * | 1992-10-27 | 1997-10-21 | Canon Kabushiki Kaisha | Corresponding point extraction method for a plurality of images |
JP3252293B2 (ja) * | 1992-10-29 | 2002-02-04 | セイコープレシジョン株式会社 | 測距装置 |
JP3058774B2 (ja) * | 1993-01-29 | 2000-07-04 | 株式会社河合楽器製作所 | 映像合成装置及び映像合成方法 |
JPH0719832A (ja) | 1993-06-21 | 1995-01-20 | Canon Inc | 複数画像の対応点抽出方法 |
JPH07246184A (ja) * | 1994-03-09 | 1995-09-26 | Fuji Photo Optical Co Ltd | 面順次式撮像装置 |
JPH07287761A (ja) * | 1994-04-19 | 1995-10-31 | Canon Inc | 画像処理装置及び画像処理方法 |
DE69529548T2 (de) * | 1994-04-22 | 2003-11-27 | Canon Kk | Bilderzeugungsverfahren und -gerät |
WO1996006507A1 (de) * | 1994-08-19 | 1996-02-29 | Leica Ag | Verfahren und vorrichtung zur darstellung von stereoskopischen videobildern auf einem display |
US6839081B1 (en) * | 1994-09-09 | 2005-01-04 | Canon Kabushiki Kaisha | Virtual image sensing and generating method and apparatus |
US5703961A (en) * | 1994-12-29 | 1997-12-30 | Worldscape L.L.C. | Image transformation and synthesis methods |
JPH08233527A (ja) * | 1995-02-28 | 1996-09-13 | Oki Electric Ind Co Ltd | 対応点探索装置および対応点探索方法 |
US5729471A (en) * | 1995-03-31 | 1998-03-17 | The Regents Of The University Of California | Machine dynamic selection of one video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene |
US5963664A (en) * | 1995-06-22 | 1999-10-05 | Sarnoff Corporation | Method and system for image combination using a parallax-based technique |
EP0838068B1 (en) * | 1995-07-10 | 2005-10-26 | Sarnoff Corporation | Method and system for rendering and combining images |
JPH10160410A (ja) * | 1996-11-27 | 1998-06-19 | Minolta Co Ltd | 測距装置 |
JP3008875B2 (ja) | 1997-02-25 | 2000-02-14 | 日本電気株式会社 | 被写体抽出装置 |
JPH10334244A (ja) | 1997-06-04 | 1998-12-18 | Matsushita Electric Ind Co Ltd | ステレオマッチング装置 |
JP3145059B2 (ja) * | 1997-06-13 | 2001-03-12 | 株式会社ナムコ | 情報記憶媒体及び画像生成装置 |
JPH1153549A (ja) | 1997-08-01 | 1999-02-26 | Sony Corp | 画像処理装置、画像処理方法、および、伝送媒体 |
US20020113865A1 (en) * | 1997-09-02 | 2002-08-22 | Kotaro Yano | Image processing method and apparatus |
JPH11125522A (ja) * | 1997-10-21 | 1999-05-11 | Sony Corp | 画像処理装置および方法 |
US6266068B1 (en) * | 1998-03-13 | 2001-07-24 | Compaq Computer Corporation | Multi-layer image-based rendering for video synthesis |
JPH11264724A (ja) * | 1998-03-18 | 1999-09-28 | Sony Corp | 画像処理装置および方法、並びに提供媒体 |
WO1999061948A1 (fr) * | 1998-05-25 | 1999-12-02 | Matsushita Electric Industrial Co., Ltd. | Telemetre et appareil photographique |
JP2000055658A (ja) * | 1998-08-06 | 2000-02-25 | Sony Corp | 画像処理装置および方法、並びに提供媒体 |
JP2000172878A (ja) * | 1998-12-09 | 2000-06-23 | Sony Corp | 情報処理装置および情報処理方法、並びに提供媒体 |
US6801653B1 (en) * | 1999-08-05 | 2004-10-05 | Sony Corporation | Information processing apparatus and method as well as medium |
-
1999
- 1999-05-07 US US09/462,345 patent/US7015951B1/en not_active Expired - Fee Related
- 1999-05-07 JP JP55651299A patent/JP4374625B2/ja not_active Expired - Lifetime
- 1999-05-07 WO PCT/JP1999/002381 patent/WO1999058927A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO1999058927A1 (en) | 1999-11-18 |
US7015951B1 (en) | 2006-03-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4374625B2 (ja) | 画像生成装置及び方法 | |
US6438507B1 (en) | Data processing method and processing device | |
KR100513055B1 (ko) | 변이지도 및 깊이지도의 융합을 통한 3차원 장면 모델생성 장치 및 그 방법 | |
TWI555379B (zh) | 一種全景魚眼相機影像校正、合成與景深重建方法與其系統 | |
CN104335005B (zh) | 3d扫描以及定位系统 | |
CN106705849B (zh) | 线结构光传感器标定方法 | |
JP5715735B2 (ja) | 3次元測定方法、装置、及びシステム、並びに画像処理装置 | |
JP3347508B2 (ja) | 撮像画像処理装置および撮像画像処理方法 | |
Bonfort et al. | General specular surface triangulation | |
WO2014002849A1 (ja) | 3次元測定方法、装置及びシステム、並びに画像処理装置 | |
US20130272600A1 (en) | Range image pixel matching method | |
JP4717863B2 (ja) | 複眼撮像装置のキャリブレーション方法および装置ならびにこれに用いられるキャリブレーションチャート | |
JP2003130621A (ja) | 3次元形状計測方法およびその装置 | |
JPH07294215A (ja) | 画像処理方法及び装置 | |
CN111009030A (zh) | 一种多视高分辨率纹理图像与双目三维点云映射方法 | |
JP3637226B2 (ja) | 動き検出方法、動き検出装置及び記録媒体 | |
JPH1079029A (ja) | 立体情報検出方法及びその装置 | |
JP4193292B2 (ja) | 多眼式データ入力装置 | |
JP3842988B2 (ja) | 両眼立体視によって物体の3次元情報を計測する画像処理装置およびその方法又は計測のプログラムを記録した記録媒体 | |
JPH1069543A (ja) | 被写体の曲面再構成方法及び被写体の曲面再構成装置 | |
WO2019087253A1 (ja) | ステレオカメラのキャリブレーション方法 | |
CN111028299A (zh) | 基于图像中点属性数据集计算标定点空间距的系统和方法 | |
CN116503553A (zh) | 一种基于双目视觉和扩散模型的三维重建方法及装置 | |
JP3221384B2 (ja) | 三次元座標計測装置 | |
JP2001235819A (ja) | カメラのキャリブレーション方法および装置ならびに対応点探索方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060302 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090217 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090415 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090818 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090831 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120918 Year of fee payment: 3 |