JP4740481B2 - 3D image information generation apparatus, 3D image information generation method, and 3D image information generation program - Google Patents

3D image information generation apparatus, 3D image information generation method, and 3D image information generation program Download PDF

Info

Publication number
JP4740481B2
JP4740481B2 JP2001200143A JP2001200143A JP4740481B2 JP 4740481 B2 JP4740481 B2 JP 4740481B2 JP 2001200143 A JP2001200143 A JP 2001200143A JP 2001200143 A JP2001200143 A JP 2001200143A JP 4740481 B2 JP4740481 B2 JP 4740481B2
Authority
JP
Japan
Prior art keywords
image
information
dimensional
processing
preprocessing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001200143A
Other languages
Japanese (ja)
Other versions
JP2003016477A (en
Inventor
和彦 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2001200143A priority Critical patent/JP4740481B2/en
Publication of JP2003016477A publication Critical patent/JP2003016477A/en
Application granted granted Critical
Publication of JP4740481B2 publication Critical patent/JP4740481B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、3次元画像情報生成装置、3次元画像情報生成方法並びに3次元画像情報生成プログラムに関する。
【0002】
【従来の技術】
従来、ステレオ撮像系により取得したステレオ画像に基いて3次元情報を獲得する場合、1つの基準となる画像上の点がその他の画像上のどの点に対応しているかを対応点探索によって認識し、そのずれ(以下、視差)量と複数の撮像系の視点位置、視線方向から三角測量の原理によって対応した点までの距離情報を得ている。これは複数の視点からの画像を獲得し、各視点の位置関係と各画像の見え方の違いから3次元情報を得るというものである。
【0003】
ここで、「ステレオ撮像系」とは、複数の視点からの撮像系を意味している。さらに1台の撮影装置からステレオコンバータ等を用いて複数視点の画像を得る物や、複数の撮像装置を使用したものも含む。また、「ステレオ撮像系によって得られたステレオ画像」とは複数視点からの画像を意味する。複数の撮像装置からの複数の画像だけでなく、1枚の画像の中に複数の視点の画像が埋め込まれているものも含む。
【0004】
例えば図8で示すように、複数(この場合カメラ100,101)の視点からステレオ画像2−1,2−2を獲得し、その中の1枚を基準画像3とする(ここではステレオ画像2−1)。次に被撮影物4上の点Aの、基準画像3座標上での位置と、ステレオ画像2−2座標上での位置の差(以下、視差)の量と視点位置と視線方向から三角測量の原理に基づいて被撮影物4上の点Aまでの距離が算出できる。
【0005】
従来、ステレオ画像により3次元情報の取得を行う場合、1つの基準となる画像上の点がその他の画像上のどの点に対応しているかを対応点探索によって認識する。例えば特開平6−215111号公報にこのような手法の一例が開示されている。
【0006】
図9は、ステレオ撮像系で得た画像から3次元画像を生成する手順を説明するための図である。
【0007】
複数台(ここでは2台)のカメラで構成されるステレオ撮像系1(テクスチャ貼り付けの為少なくとも1台のカメラはカラーカメラ)によって撮像されたステレオ画像2−1,2−2を取得して格納する。ここではステレオ画像2−1を基準画像3とする(ステップS1)。次に、前処理として、ステレオマッチングを簡易に行うためにレンズ歪み(レンズディストーション)の除去と平行投影(レクティフィケーション)を行い歪みを除去した画像5−1,5−2を生成する(ステップS2)。このうち基準画像3の歪みが除去された画像を歪み除去基準画像6とする。
【0008】
次にカラー画像5−1,5−2をそれぞれモノクロ画像7−1,7−2に変換する(ステップS3)。次にモノクロ画像7−1,7−2に対してステレオマッチングを行い距離画像7を取得して収納する(ステップS4)。次に距離画像7の3次元情報にステップS2−1で取得した歪み除去基準画像6をテクスチャとして貼り付ける(ステップS5)。
【0009】
この際、各処理に必要な処理時間は装置構成や、レンズディストーション除去及びレクティフィケーション処理(ステップS2)、ステレオマッチング(ステップS4)の各アルゴリズムによって異なる。出願人の実験によればステップS2やステップS4の処理に少なからぬ時間を要することがわかっており、特にカラー画像に対してステップS2の処理を行なう場合はモノクロ画像と比較して3倍の時間を要する。したがってシステムの高速化を図るためにはステップS2の計算量削減が非常に重要な課題となる。
【0010】
図10はレクティフィケーション処理について説明するための図である。ここで言うレクティフィケーションとは、カメラ100,101からなる撮像系1により被撮影物4を撮像して得られたステレオ画像2−1,2−2を同一平面に平行投影することによりレクティフィケーション処理した画像5を得ることである。
【0011】
図11(A)〜(D)はレンズディストーション除去について説明するための図である。レンズディストーション除去とは、ピンホールレンズを仮定した場合には存在しない画像の歪みを除去することである。まずステレオ撮像系により本来の画像(図11(A))を撮像すると、ステレオ撮像系のレンズによる歪みを含んだ画像(図11(B)、(C))が得られる。この画像に対してレンズディストーション除去による画像変形を行なってもとの画像を得る(図11(D))。
【0012】
これらの処理を行う事によってステレオマッチングを行う際に対応点の存在し得る領域はステレオ画像上の直線上(エピポーラライン)に限定される。このことによって対応点探索が容易になる。
【0013】
形状の絶対値が決まっている画像を撮影し、画像変形(レンズディストーション除去やレクティフィケーション)のパラメータを決定し、そのパラメータに従って画像を変形させる等の手法がある。
【0014】
【発明が解決しようとする課題】
しかしながら、レクティフィケーションやレンズディストーション等の画像変形処理は非常に計算量の多い作業であり、高速な処理を行なう場合の妨げになっていた。
【0015】
本発明はこのような課題に着目してなされたものであり、その目的とするところは、画像変換処理の回数を減らしてステレオマッチングを行う際の計算量を減らすことができる3次元画像情報生成装置、3次元画像情報生成方法並びに3次元画像情報生成プログラムを提供することにある。
【0016】
【課題を解決するための手段】
上記の目的を達成するために、第1の発明は、撮像対象を撮像した画像に基づいて撮像対象の3次元情報を取得し、前記撮像対象の3次元画像情報を生成する3次元画像情報生成装置であって、少なくとも1枚のカラー画像を含み、複数視点から撮像対象を撮像した画像を入力する入力手段(ステレオ撮像系)と、前記カラー画像の輝度情報を抽出する抽出手段(モノクロ化、グレースケール画像化手段)と、前記抽出手段により抽出された輝度情報に前処理(レンズディストーション処理、レクティフィケーション処理)行う前処理手段と、前記前処理手段により処理された画像から3次元情報を取得する3次元情報取得手段(ステレオマッチング手段)と、前記3次元情報に、前記前処理の効果を補償する処理を行う補償処理手段(逆レンズディストーション処理、逆レクティフィケーション処理、または拡大縮小、平行移動処理)と、前記補償処理された3次元情報に前記カラー画像をテクスチャとして貼付して3次元画像を生成する3次元画像生成手段とを具備する。
【0017】
また、第2の発明は、第1の発明に係る3次元画像情報生成装置において、前記補償処理手段は、前記前処理の逆変換処理を行う。
【0018】
また、第3の発明は、第1の発明に係る3次元画像情報生成装置において、前記補償処理手段は、前記前処理結果を打ち消すように拡縮処理および平行移動処理、あるいはその一方を行う。
【0019】
また、第4の発明は、少なくともステレオ撮像系と計算装置を有する3次元画像情報生成装置において、撮像対象を撮像した画像に基づいて撮像対象の3次元情報を取得し、前記撮像対象の3次元画像情報を生成する3次元画像情報生成方法であって、前記ステレオ撮像系で、少なくとも1枚のカラー画像を含み、複数視点から撮像対象を撮像した画像を入力する入力ステップと、前記計算装置で、前記カラー画像の輝度情報を抽出する抽出ステップと、前記計算装置で、前記抽出した輝度情報に前処理を行なう前処理ステップと、前記計算装置で、前記前処理により処理された画像から3次元情報を取得する3次元情報取得ステップと、前記計算装置で、前記取得した3次元情報に、前記前処理の効果を補償する処理を行なう補償処理ステップと、前記計算装置で、前記補償処理された3次元情報に前記カラー画像をテクスチャとして貼付して3次元画像を生成する3次元画像生成ステップと、を具備する。
【0020】
また、第5の発明は、第4の発明に係る3次元画像情報生成方法において、前記補償処理は、前記前処理の逆変換処理である。
【0021】
また、第6の発明は、第4の発明に係る3次元画像情報生成方法において、前記補償処理は、前記前処理結果を打ち消す拡縮処理および平行移動処理、あるいはその一方である。
【0022】
また、第7の発明は、3次元画像情報生成プログラムであって、撮像対象を撮像した画像に基づいて撮像対象の3次元情報を取得し、前記撮像対象の3次元画像情報を生成するために、コンピュータを、少なくとも1枚のカラー画像を含み、複数視点から撮像対象を撮像した画像を入力する入力手段、前記カラー画像の輝度情報を抽出する抽出手段、前記抽出した輝度情報に前処理を行う前処理手段、前記前処理手段により処理された画像から3次元情報を取得する3次元情報取得手段、前記取得した3次元情報に、前記前処理の効果を補償する処理を行う補償処理手段、及び、前記補償処理された3次元情報に前記カラー画像をテクスチャとして貼付して3次元画像を生成する3次元画像生成手段、として機能させる。
【0023】
また、第8の発明は、第7の発明に係る3次元画像情報生成プログラムにおいて、前記補償処理手段は、前記前処理の逆変換処理を実行する。
【0024】
また、第9の発明は、第7の発明に係る3次元画像情報生成プログラムにおいて、前記補償処理手段は、前記前処理結果を打ち消す拡縮処理および平行移動処理、あるいはその一方を実行する。
【0025】
【発明の実施の形態】
以下、図面を参照して本発明の実施形態を詳細に説明する。
【0026】
(第1実施形態)
図1は、本発明の3次元画像情報生成装置の概略構成を示すブロック図であり、記憶装置10を備えた計算装置12と、これに接続された入力手段としてのステレオ撮像系1と、表示装置11とから構成される。ステレオ撮像系1の構成は図8と同様であり、レクティフィケーション処理では図10の構成を用い、レンズディストーション除去では図11の構成を用いる。また、図2、図3は3次元画像情報生成の手順を説明するためのフローチャートである。
【0027】
図8に示すカラーカメラ100とモノクロカメラ101によって構成されるステレオ撮像系1によって被撮影物4を撮影してステレオ画像2−1,2−2(図3の(A))を取得して記憶装置10に格納する(ステップS1)。ここではカラーカメラ100によって撮影されたステレオ画像2−1を基準画像3とする。次に計算装置12はこの基準画像3をモノクロ化してモノクロ画像7(図3の(B))を取得する(ステップS3)。
【0028】
次にモノクロ画像7及びステレオ画像2−2に対する前処理としてレクティフィケーション処理及び/又はレンズディストーション処理を行い(ステップS2’、図3の(C))、歪みを除去したステレオ画像5−1,5−2を生成して記憶装置10に格納する。
【0029】
次に計算装置12は歪みが除去されたステレオ画像5−1,5−2にステレオマッチング処理を行い被撮影物4に関する3次元情報としての距離画像8(図3の(D))を取得して、これを記憶装置10に格納する(ステップS4)。次に計算装置12は、距離画像8に対してステップ2’で行ったレクティフィケーション及び/又はレンズディストーション処理の逆変換処理(補償処理)を行い距離画像9(図3の(E))を生成して記憶装置10に格納する(ステップS2”)。計算装置12は距離画像9から得られる3次元情報にステップS1で取得した基準画像3をテクスチャとして貼り付けて(ステップS5)表示装置11に表示する(図3の(F))。
【0030】
図6(A)、(B)は、上記した第1実施形態の効果を従来例と比較して示す図である。この例ではカラーカメラ4台、モノクロカメラ4台からなるステレオ撮像系を想定している。
【0031】
図6(A)、(B)において、S2、S2’、S2”、S3、S4は図2及び図8に示す各ステップを意味する。3Aはカラー画像を前処理するのに要する時間、Aはモノクロ画像を前処理するのに要する時間、Bはカラー画像をモノクロ画像に変換するのに要する時間、Cはステレオマッチング処理に要する時間である。
【0032】
ステップS3、S4を実行するのに要する時間は本発明と従来例とで同じである。また、図示していないが、ステップS1、S5を実行するのに要する時間も本発明と従来例とで同じである。
【0033】
一方、カラーカメラ4台、モノクロカメラ4台の場合、従来方式によりステップS2を実行するのに要する時間は、3A×4+A×4=16Aであるが、本発明の方式によりステップS2’、S2”を実行するのに要する時間はA×4+A×4+A=9Aである。
【0034】
このことをカラーカメラをx台、モノクロカメラをy台に一般化して両者を比較してみる。
【0035】
カラーカメラの台数:x
モノクロカメラの台数:y
モノクロ画像1枚当たりの歪み除去処理時間:A
カラー画像1枚当たりのモノクロ変換処理時間:B
ステレオマッチング処理時間:C
とすると、
従来例では、
3Ax+Ay+Bx+C=A(3x+y)+Bx+C
本発明の場合
Bx+A(x+y)+C+A=A(x+y+1)+Bx+C
となり、その差はA(2x−1)である。
【0036】
この結果から明らかなように、カラーカメラの台数が多いほど、かつ歪み除去処理時間が大きいほど本発明と従来との差が大きくなることがわかる。
【0037】
A,B,Cの値は使用する計算装置とアルゴリズムによって大きく変化するが、例えば出願人による実験システム(CPU:Pentium III-733 RAM:256M)では、
カラーカメラ4台(x=4)、
モノクロカメラ4台(y=4)
モノクロ画像サイズ(640×800×8)
カラー画像サイズ(640×800×24)
モノクロ画像1枚当たりの歪み除去処理時間A=2.5秒
カラー画像1枚当たりのモノクロ変換処理時間B=0.005秒
ステレオマッチング処理時間 C=20秒
であり、
従来例で
A(3x+y)+Bx+C=2.5×(12+4)+(0.005×4)+20=60.02秒
本発明で
A(x+y+1)+Bx+C=2.5×(4+4+1)+(0.005×4)+20=42.52秒
となり30%の高速化になる。
【0038】
なお、この発明の実施の形態の各構成は当然各種の変形、変更が可能である。例えばカメラの台数は上記したように任意で良く、テクスチャは基準画像3からだけでなく、その他の複数のステレオ画像2から合成しても良い。また、ステレオ撮像系1と計算装置12はオンラインで接続されている必要はなく、オフラインで画像を送っても良い。また、処理の途中で生成される距離画像等はデータとして存在すれば良く必ずしも画像として存在する必要はない。
【0039】
(第2実施形態)
以下に図4及び図5を参照して本発明の第2実施形態を説明する。第2実施形態に係る3次元画像情報生成装置の構成は、前記した第1実施形態と同様に、図1及び前記した図8,図10,図11である。
【0040】
図8に示すカラーカメラ100とモノクロカメラ101によって構成されるステレオ撮像系1によって撮影された被撮影物4を撮影してステレオ画像2−1,2−2(図5の(A))を取得して記憶装置10に格納する(ステップS1)。ここではカラーカメラ100によって撮影されたステレオ画像2−1を基準画像3とする。次に計算装置9はこの基準画像3をモノクロ化してモノクロ画像7(図5の(B))を取得する(ステップS3)。
【0041】
次にモノクロ画像7及びステレオ画像2−2に対する前処理としてレクティフィケーション処理及び/又はレンズディストーション処理を行い(ステップS2’、図5の(C))、歪みを除去したステレオ画像5−1、5−2を生成して記憶装置10に格納する。
【0042】
次に計算装置12はステレオ画像5−1,5−2にステレオマッチング処理を行い被撮影物4に関する3次元情報としての距離画像8(図5の(D))を生成して記憶装置10に格納する(ステップS4)。次に計算装置12は距離画像8に対して前もって格納されている値で拡大縮小及び平行移動処理(補償処理)を行い距離画像9(図5の(E))を生成して記憶装置10に格納する(ステップS6)。次に計算装置9は距離画像9から得られる3次元形状情報にステップS1で取得した基準画像3をテクスチャとして貼り付けて(ステップS5)画像(図5の(F))を表示装置11に表示する。
【0043】
以下にステップS6で説明した拡大縮小及び平行移動処理で用いられる拡大率と平行移動量の決定方法について説明する。通常、レンズディストーション(歪み)は光軸から離れるほど大きくなる。歪みの少ないレンズで撮像された画像であってもステレオマッチングをするには歪み除去処理が必須であるが、人間が画像として鑑賞するためであれば歪み除去処理を行わなくとも実用に耐えることができる(ホームビデオの撮影や鑑賞など)。
【0044】
このような考えのもとに本実施形態では、既に取得した3次元情報に貼り付けるテクスチャ画像に対する歪み除去を省略することで計算量を削減する方法を図7を参照して説明する。
【0045】
1.前もって形状の既知な物(あるパターンを記載したボード等が好ましい)を撮像し、その画像(歪み有り)13と既知な形状の関係から画面上の歪み量を獲得する。
【0046】
2.ある許容量e1を設定し歪み量が許容量e1以下の領域15を処理対象とする。この場合は矩形領域を抽出する。
【0047】
3.画像13に対して歪み除去を行った画像14を用意する。
【0048】
4.歪み有り画像13の領域15と歪み除去画像14の領域15の差が最小になる画像13の拡大率と平行移動量を探索する。
【0049】
探索された拡大率と平行移動量を使用して領域15に対して図4及び図5の処理を行う。
【0050】
このような方法によれば、複雑な歪み除去を行う必要がなくなる。レンズディストーションの大きさと許容量e1の値によっては処理を行わずに(拡大率1、平行移動0)貼り付けることが可能である。しかしこの方法により正確な画像が提供されるわけではなく、かつ画像中央(殆どの場合光軸)から離れたところに撮像されているものに対しては適用できない。
【0051】
なお、この発明の実施の形態の各構成は当然各種の変形、変更が可能である。
【0052】
例えばカメラの台数は任意で良く、テクスチャは基準画像3からだけでなく、その他の複数のステレオ画像2から合成しても良い。また、ステレオ撮像系1と計算装置12はオンラインで接続されている必要はなく、オフラインで画像を送っても良い。また、処理の途中で生成される距離画像等はデータとして存在すれば良く必ずしも画像として存在する必要はない。
【0053】
上記した第2実施形態における処理時間を計算すると以下のようになる。
【0054】
カラーカメラの台数:x
モノクロカメラの台数:y
モノクロ画像1枚当たりの歪み除去処理時間:A
カラー画像1枚当たりのモノクロ変換処理時間:B
ステレオマッチング処理時間:C
画像1枚当たりの縮小及び平行移動処理時間:D
とすると、
Bx+A(x+y)+C+D
で求めることができる。ここでAとDの処理時間は同じオーダである。
【0055】
(付記)
1. ステレオ撮像系によって得られた複数視点からの画像に対して
ステレオマッチングを行う事によって被撮影物の立体情報を取得する方法において、
各画像の持っている情報量を減らした後、各画像に対する変換処理を行い、
その後、変換後の複数の画像に対してステレオマッチング処理を行う事で距離情報を獲得し、
その獲得した距離情報に対して前記変換処理に対する逆変換処理を行い
元の画像に適用する事を特徴とするステレオ画像からの3次元画像情報生成方法。
【0056】
(対応する発明の実施の形態)
この発明に関する実施の形態は上記した第1及び第2実施形態が対応する。
【0057】
(作用)
ステレオ撮像系1によって得られた被撮影物4の複数の画像2−1,2−2に対して、その中の1枚の画像を基準画像3とする。(例えば左右ステレオ画像ならば左画像等)(図8)
複数の画像2−1,2−2に対して情報量の削減(カラー画像のモノクロ化、フィルタ処理等)を行う。その後、情報量を減らした画像2−1,2−2をステレオマッチングを行うのに適した形に変形させた複数の画像5−1,5−2を生成する。画像5−1、5−2に対してステレオマッチング処理を行い被撮影物4に対する距離情報を獲得し、距離画像8を生成する。
【0058】
距離画像8に対して前記変換処理に対する逆変換処理を行い距離画像9を生成する。
【0059】
距離画像9を3次元情報とし、画像2−1(基準画像3)をテクスチャとして貼り付ける(図3、図5)。
【0060】
(効果)
情報量の削減を行う前の画像2に対してステレオマッチングを行うのに適した形に画像変形させる必要がなく、情報量の削減を行った後に画像変形を行う為、必要とされる計算量が削減される。
【0061】
2. 少なくとも1つはカラー撮像系を含むステレオ撮像系によって得られた複数視点からの画像に対してステレオマッチングを行う事によって被撮影物の立体情報を取得する方法において、
カラー撮像系によって撮影された画像はグレー画像に変換した後、各画像に対して画像歪みを修正する変換処理を行い、
その後、変換後の複数の画像に対してステレオマッチング処理を行う事で距離情報を獲得し、
その獲得した距離情報に対して前記変換処理に対する逆変換処理を行い
元のカラー画像に対する距離情報として使用する事を特徴とするステレオ画像からの3次元画像情報生成方法。
【0062】
(対応する発明の実施の形態)
この発明に関する実施の形態は第1の実施の形態が対応する。
【0063】
(作用)
ステレオ撮像系1によって得られた被撮影物4の複数の画像2−1,2−2(少なくとも1つはカラー画像)に対して、その中の1枚のカラー画像(ここでは2−1)を基準画像3とする。(例えば左右ステレオ画像ならば左画像等)(図8)
複数の画像2−1,2−2の中でカラー画像2−1に関してモノクロ化してモノクロ画像7に変換する。
【0064】
モノクロ画像7,2−2に対してレクティフィケーション及び/又はレンズディストーション処理を行い複数の画像5−1,5−2を生成する。複数の画像5−1,5−2に対してステレオマッチング処理を行い被撮影物4に対する距離情報を獲得し、距離画像8を生成する。
【0065】
距離画像8に対して前記変換処理(レクティフィケーション及びレンズディストーション)に対する逆変換処理を行い距離画像9を生成する。
【0066】
距離画像9を3次元情報とし、カラー情報を持った画像2−1(基準画像3)をテクスチャとして貼り付ける。(図2)
(効果)
カラー画像に対してレクティフィケーション及び/又はレンズディストーション処理を行う必要が無い為、必要とされる計算量が削減される。
【0067】
3. 少なくとも1つはカラー撮像系を含むステレオ撮像系によって得られた複数視点からの画像に対してステレオマッチングを行う事によって被撮影物の立体情報を取得する方法において、
カラー撮像系によって撮影された画像をグレー画像に変換した後、各画像に対して画像歪みを修正する変換処理を行い、
その後、変換後の複数の画像に対してステレオマッチング処理を行う事で距離情報を獲得し、
その獲得した距離情報に対してスケール変換及び又は平行移動を行い
元のカラー画像に対する距離情報として使用する事を特徴とする3次元画像情報生成方法。
【0068】
(対応する発明の実施の形態)
この発明に関する実施の形態は第2実施形態が対応する。
【0069】
(作用)
ステレオ撮像系1によって得られた被撮影物4の複数の画像2−1,2−2(少なくとも1つはカラー画像)に対して、その中の1枚(ここでは2−1)のカラー画像を基準画像3とする。(例えば左右ステレオ画像ならば左画像等)(図8)
複数の画像2−1,2−2の中でカラー画像2−1に関してモノクロ化してモノクロ画像7に変換する。
【0070】
モノクロ画像7,2−2に対してレクティフィケーション及び/又はレンズディストーション処理を行い複数の画像5−1,5−2を生成する。
【0071】
複数の画像5−1,5−2に対してステレオマッチング処理を行い被撮影物4に対する距離情報を獲得し、距離画像8を生成する。
【0072】
距離画像8に対してスケール変換及び又は平行移動処理を行い距離画像9を生成する。
【0073】
距離画像9を3次元情報とし、カラー情報を持った画像2−1(基準画像3)をテクスチャとして貼り付ける。
【0074】
(効果)
カラー画像に対してレクティフィケーション及び/又はレンズディストーション処理を行う必要が無い為、必要とされる計算量が削減される。
【0075】
4. ステレオ撮像系によって得られた複数視点からの画像に対して
ステレオマッチングを行う事によって被撮影物の立体情報を取得する装置において、
各画像の持っている情報量を減らした後、各画像に対する変換処理を行い、
その後、変換後の複数の画像に対してステレオマッチング処理を行う事で距離情報を獲得し、
その獲得した距離情報に対し変換処理を行い元の画像に適用する事を特徴とする3次元画像情報生成装置。
【0076】
5.
少なくとも1つはカラー撮像系を含むステレオ撮像系によって得られた複数視点からの画像に対してステレオマッチングを行う事によって被撮影物の立体情報を取得する装置において、
カラー撮像系によって撮影された画像はグレー画像に変換した後、各画像に対して画像歪みを修正する変換処理を行い、
その後、変換後の複数の画像に対してステレオマッチング処理を行う事で距離情報を獲得し、
その獲得した距離情報に対して前記変換処理に対する逆変換処理を行い
元のカラー画像に対する距離情報として使用する事を特徴とする3次元画像情報生成装置。
【0077】
6. 少なくとも1つはカラー撮像系を含むステレオ撮像系によって得られた複数視点からの画像に対して
ステレオマッチングを行う事によって被撮影物の立体情報を取得する装置において、
カラー撮像系によって撮影された画像をグレー画像に変換した後、
各画像に対して画像歪みを修正する変換処理を行い、
その後、変換後の複数の画像に対してステレオマッチング処理を行う事で距離情報を獲得し、
その獲得した距離情報に対してスケール変換及び又は平行移動を行い
元のカラー画像に対する距離情報として使用する事を特徴とする3次元画像情報生成装置。
【0078】
7. ステレオ撮像系によって得られた複数視点からの画像に対してステレオマッチングを行う事によって被撮影物の立体情報を取得するプログラムにおいて、
各画像の持っている情報量を減らした後、各画像に対する変換処理を行い、
その後、変換後の複数の画像に対してステレオマッチング処理を行う事で距離情報を獲得し、
その獲得した距離情報に対して変換処理を行い元の画像に適用する事を特徴とする3次元画像情報生成プログラム。
【0079】
8. 少なくとも1つはカラー撮像系を含むステレオ撮像系によって得られた複数視点からの画像に対してステレオマッチングを行う事によって被撮影物の立体情報を取得するプログラムにおいて、
カラー撮像系によって撮影された画像をグレー画像に変換した後、各画像に対して画像歪みを修正する変換処理を行い、
その後、変換後の複数の画像に対してステレオマッチング処理を行う事で距離情報を獲得し、
その獲得した距離情報に対して前記変換処理に対する逆変換処理を行い
元のカラー画像に対する距離情報として使用する事を特徴とする3次元画像情報生成プログラム。
【0080】
9. 少なくとも1つはカラー撮像系を含むステレオ撮像系によって得られた複数視点からの画像に対してステレオマッチングを行う事によって被撮影物の立体情報を取得するプログラムにおいて、
カラー撮像系によって撮影された画像をグレー画像に変換した後、各画像に対して画像歪みを修正する変換処理を行い、
その後、変換後の複数の画像に対してステレオマッチング処理を行う事で距離情報を獲得し、
その獲得した距離情報に対してスケール変換及び又は平行移動を行い
元のカラー画像に対する距離情報として使用する事を特徴とする3次元画像情報生成プログラム。
【0081】
【発明の効果】
本発明によれば、画像変換処理の回数を減らしてステレオマッチングを行う際の計算量を減らすことができるという効果を奏する。
【図面の簡単な説明】
【図1】本発明の3次元画像情報生成装置の概略構成を示すブロック図である。
【図2】本発明の第1実施形態における3次元画像情報生成の手順を説明するためのフローチャートである。
【図3】本発明の第1実施形態における3次元画像情報生成の手順を説明するための図である。
【図4】本発明の第2実施形態における3次元画像情報生成の手順を説明するためのフローチャートである。
【図5】本発明の第2実施形態における3次元画像情報生成の手順を説明するための図である。
【図6】本発明の第1実施形態の効果を従来例と比較して示す図である。
【図7】計算量を削減する方法を説明するための図である。
【図8】ステレオ撮像系の一構成例を示す図である。
【図9】ステレオ撮像系で得た画像から3次元画像を生成する手順を説明するための図である。
【図10】レクティフィケーション処理について説明するための図である。
【図11】レンズディストーション除去について説明するための図である。
【符号の説明】
1 ステレオ撮像系
2−1,2−2 ステレオ画像
3 基準画像
4 被撮影物
10 記憶装置
11 表示装置
12 計算装置
13 歪み有り画像
14 歪み除去画像
15 領域
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a three-dimensional image information generation apparatus, a three-dimensional image information generation method, and a three-dimensional image information generation program.
[0002]
[Prior art]
Conventionally, when acquiring three-dimensional information based on a stereo image acquired by a stereo imaging system, it is recognized by corresponding point search which point on the other image corresponds to a point on one reference image. The distance information from the deviation (hereinafter referred to as “parallax”), the viewpoint positions of a plurality of imaging systems, and the distance from the line-of-sight direction to the corresponding point by the principle of triangulation is obtained. In this method, images from a plurality of viewpoints are acquired, and three-dimensional information is obtained from the difference in the positional relationship between the viewpoints and the appearance of the images.
[0003]
Here, the “stereo imaging system” means an imaging system from a plurality of viewpoints. Furthermore, the thing which acquires the image of a several viewpoint using a stereo converter etc. from one imaging device, and the thing using a some imaging device are included. The “stereo image obtained by the stereo imaging system” means an image from a plurality of viewpoints. This includes not only a plurality of images from a plurality of imaging devices but also a plurality of viewpoint images embedded in one image.
[0004]
For example, as shown in FIG. 8, stereo images 2-1 and 2-2 are acquired from a plurality of viewpoints (in this case, cameras 100 and 101), and one of them is used as a reference image 3 (here, stereo image 2). -1). Next, triangulation is performed based on the difference between the position of the point A on the subject 4 on the reference image 3 coordinate and the position on the stereo image 2-2 coordinate (hereinafter referred to as parallax), the viewpoint position, and the viewing direction. Based on this principle, the distance to the point A on the object 4 can be calculated.
[0005]
Conventionally, when three-dimensional information is acquired using a stereo image, it is recognized by corresponding point search which point on the image serving as one reference corresponds to which point on the other image. For example, JP-A-6-215111 discloses an example of such a method.
[0006]
FIG. 9 is a diagram for explaining a procedure for generating a three-dimensional image from an image obtained by the stereo imaging system.
[0007]
Acquire stereo images 2-1 and 2-2 captured by a stereo imaging system 1 composed of a plurality of cameras (two in this case) (at least one camera is a color camera for pasting textures). Store. Here, the stereo image 2-1 is set as the reference image 3 (step S1). Next, as pre-processing, in order to easily perform stereo matching, removal of lens distortion (lens distortion) and parallel projection (rectification) are performed to generate images 5-1 and 5-2 from which distortion is removed (Step S1). S2). Among these, the image from which the distortion of the reference image 3 is removed is referred to as a distortion removal reference image 6.
[0008]
Next, the color images 5-1 and 5-2 are converted into monochrome images 7-1 and 7-2, respectively (step S3). Next, stereo matching is performed on the monochrome images 7-1 and 7-2, and the distance image 7 is acquired and stored (step S4). Next, the distortion removal reference image 6 acquired in step S2-1 is pasted on the three-dimensional information of the distance image 7 as a texture (step S5).
[0009]
At this time, the processing time required for each process varies depending on the apparatus configuration, the lens distortion removal and rectification process (step S2), and the stereo matching (step S4) algorithms. According to the applicant's experiment, it has been found that the processing in step S2 and step S4 requires a considerable amount of time. In particular, when the processing in step S2 is performed on a color image, the processing time is three times that of a monochrome image. Cost. Therefore, in order to increase the speed of the system, the amount of calculation in step S2 is a very important issue.
[0010]
FIG. 10 is a diagram for explaining the rectification process. Rectification as used herein refers to rectification by projecting stereo images 2-1 and 2-2 obtained by imaging the subject 4 by the imaging system 1 including the cameras 100 and 101 to the same plane. To obtain the processed image 5.
[0011]
11A to 11D are diagrams for explaining lens distortion removal. Lens distortion removal is removal of image distortion that does not exist when a pinhole lens is assumed. First, when an original image (FIG. 11A) is picked up by a stereo image pickup system, images (FIGS. 11B and 11C) including distortion due to the lens of the stereo image pickup system are obtained. An original image is obtained by performing image deformation on the image by removing lens distortion (FIG. 11D).
[0012]
By performing these processes, the region where the corresponding points can exist when performing stereo matching is limited to a straight line (epipolar line) on the stereo image. This facilitates searching for corresponding points.
[0013]
There is a method of taking an image whose shape has an absolute value, determining parameters for image deformation (lens distortion removal or rectification), and deforming the image according to the parameters.
[0014]
[Problems to be solved by the invention]
However, image deformation processing such as rectification and lens distortion is an operation with a large amount of calculation, and has been an obstacle to high-speed processing.
[0015]
The present invention has been made paying attention to such problems, and the object of the present invention is to generate three-dimensional image information that can reduce the amount of calculation when performing stereo matching by reducing the number of image conversion processes. An apparatus, a three-dimensional image information generation method, and a three-dimensional image information generation program are provided.
[0016]
[Means for Solving the Problems]
To achieve the above object, the first invention obtains three-dimensional information of an imaging target based on an image obtained by imaging the imaging target, and generates three-dimensional image information of the imaging target. An apparatus including an input unit (stereo imaging system) that includes at least one color image and that captures an imaging target from a plurality of viewpoints, and an extraction unit that extracts luminance information of the color image (monochrome, Gray scale imaging means), pre-processing means for pre-processing (lens distortion processing, rectification processing) on the luminance information extracted by the extraction means, and three-dimensional information from the image processed by the pre-processing means. Three-dimensional information acquisition means (stereo matching means) to be acquired, and compensation processing means (reverse processing) for performing processing for compensating the effect of the preprocessing on the three-dimensional information. Distortion processing, reverse rectification processing, enlargement / reduction processing, parallel movement processing), and 3D image generation means for generating a 3D image by pasting the color image as a texture to the compensated 3D information It comprises.
[0017]
According to a second aspect of the present invention, in the three-dimensional image information generating apparatus according to the first aspect of the invention, the compensation processing means performs an inverse conversion process of the preprocessing.
[0018]
According to a third aspect of the present invention, in the three-dimensional image information generating apparatus according to the first aspect of the invention, the compensation processing means performs an enlargement / reduction process and / or a parallel movement process so as to cancel the preprocess result.
[0019]
In addition, the fourth invention is In a three-dimensional image information generation device having at least a stereo imaging system and a calculation device, A three-dimensional image information generation method for acquiring three-dimensional information of an imaging target based on an image obtained by imaging the imaging target and generating three-dimensional image information of the imaging target, In the stereo imaging system, An input step of inputting an image including at least one color image and imaging an imaging target from a plurality of viewpoints; In the computing device, An extraction step of extracting luminance information of the color image; In the computing device, A preprocessing step of performing preprocessing on the extracted luminance information; In the computing device, A three-dimensional information acquisition step of acquiring three-dimensional information from the image processed by the preprocessing; In the computing device, A compensation processing step for performing processing for compensating the effect of the preprocessing on the acquired three-dimensional information; In the computing device, A three-dimensional image generation step of generating a three-dimensional image by pasting the color image as a texture on the compensated three-dimensional information.
[0020]
According to a fifth aspect of the present invention, in the three-dimensional image information generation method according to the fourth aspect of the invention, the compensation process is an inverse conversion process of the preprocess.
[0021]
According to a sixth aspect of the present invention, in the three-dimensional image information generation method according to the fourth aspect of the invention, the compensation process is an enlargement / reduction process and / or a parallel movement process that cancels the preprocess result.
[0022]
The seventh invention is a three-dimensional image information generation program for obtaining three-dimensional information of an imaging target based on an image obtained by imaging the imaging target and generating the three-dimensional image information of the imaging target. The computer includes at least one color image, an input unit that inputs an image of the imaging target from a plurality of viewpoints, an extraction unit that extracts luminance information of the color image, and preprocesses the extracted luminance information Pre-processing means, said pre-processing means 3D information acquisition means for acquiring 3D information from the image processed by the above, compensation processing means for performing processing for compensating the effect of the preprocessing on the acquired 3D information, and the compensation processed 3D The color image is affixed to the information as a texture to function as a three-dimensional image generation unit that generates a three-dimensional image.
[0023]
The eighth invention is the three-dimensional image information generation program according to the seventh invention, wherein the compensation processing is performed. means Performs the inverse transformation process of the pre-process.
[0024]
According to a ninth aspect, in the three-dimensional image information generation program according to the seventh aspect, the compensation processing is performed. means Executes an enlargement / reduction process and / or a parallel movement process that cancels the preprocess result.
[0025]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0026]
(First embodiment)
FIG. 1 is a block diagram showing a schematic configuration of a three-dimensional image information generating apparatus according to the present invention. A computing apparatus 12 having a storage device 10, a stereo imaging system 1 as input means connected thereto, and a display The apparatus 11 is comprised. The configuration of the stereo imaging system 1 is the same as that shown in FIG. 8, and the configuration shown in FIG. 10 is used for the rectification process, and the configuration shown in FIG. 11 is used for removing the lens distortion. 2 and 3 are flowcharts for explaining the procedure for generating the three-dimensional image information.
[0027]
The to-be-photographed object 4 is image | photographed with the stereo imaging system 1 comprised by the color camera 100 and the monochrome camera 101 shown in FIG. 8, and stereo image 2-1 and 2-2 ((A) of FIG. 3) are acquired and memorize | stored. Store in the device 10 (step S1). Here, a stereo image 2-1 photographed by the color camera 100 is set as a reference image 3. Next, the calculation device 12 converts the reference image 3 to monochrome and obtains a monochrome image 7 ((B) in FIG. 3) (step S3).
[0028]
Next, rectification processing and / or lens distortion processing is performed as preprocessing for the monochrome image 7 and the stereo image 2-2 (step S2 ′, FIG. 3C), and the stereo image 5-1 from which distortion has been removed. 5-2 is generated and stored in the storage device 10.
[0029]
Next, the calculation device 12 performs stereo matching processing on the stereo images 5-1 and 5-2 from which distortion is removed, and obtains a distance image 8 ((D) in FIG. 3) as three-dimensional information related to the subject 4. This is stored in the storage device 10 (step S4). Next, the calculation device 12 performs the inverse transformation process (compensation process) of the rectification and / or the lens distortion process performed in Step 2 ′ on the distance image 8 and performs the distance image 9 ((E) in FIG. 3). It is generated and stored in the storage device 10 (step S2 ″). The calculation device 12 pastes the reference image 3 acquired in step S1 as a texture on the three-dimensional information obtained from the distance image 9 (step S5). ((F) in FIG. 3).
[0030]
6A and 6B are diagrams showing the effects of the first embodiment as compared with the conventional example. In this example, a stereo imaging system including four color cameras and four monochrome cameras is assumed.
[0031]
6A and 6B, S2, S2 ′, S2 ″, S3, and S4 mean the steps shown in FIGS. 2 and 8. 3A is the time required to preprocess the color image, A Is the time required for preprocessing a monochrome image, B is the time required to convert a color image to a monochrome image, and C is the time required for stereo matching processing.
[0032]
The time required to execute steps S3 and S4 is the same between the present invention and the conventional example. Although not shown, the time required to execute steps S1 and S5 is the same between the present invention and the conventional example.
[0033]
On the other hand, in the case of four color cameras and four monochrome cameras, the time required to execute step S2 by the conventional method is 3A × 4 + A × 4 = 16A, but steps S2 ′ and S2 ″ are performed by the method of the present invention. The time required to execute is A × 4 + A × 4 + A = 9A.
[0034]
This will be generalized to x color cameras and y monochrome cameras, and the two will be compared.
[0035]
Number of color cameras: x
Number of monochrome cameras: y
Distortion removal processing time per monochrome image: A
Monochrome conversion processing time per color image: B
Stereo matching processing time: C
Then,
In the conventional example,
3Ax + Ay + Bx + C = A (3x + y) + Bx + C
In the case of the present invention
Bx + A (x + y) + C + A = A (x + y + 1) + Bx + C
And the difference is A (2x-1).
[0036]
As is apparent from this result, it can be seen that the difference between the present invention and the prior art increases as the number of color cameras increases and the distortion removal processing time increases.
[0037]
The values of A, B, and C vary greatly depending on the computing device and algorithm used. For example, in the experimental system (CPU: Pentium III-733 RAM: 256M) by the applicant,
4 color cameras (x = 4),
4 monochrome cameras (y = 4)
Monochrome image size (640 x 800 x 8)
Color image size (640 x 800 x 24)
Distortion removal processing time per monochrome image A = 2.5 seconds
Monochrome conversion processing time per color image B = 0.005 seconds
Stereo matching processing time C = 20 seconds
And
Conventional example
A (3x + y) + Bx + C = 2.5 × (12 + 4) + (0.005 × 4) + 20 = 60.02 seconds
In the present invention
A (x + y + 1) + Bx + C = 2.5 × (4 + 4 + 1) + (0.005 × 4) + 20 = 42.52 seconds
And 30% faster.
[0038]
In addition, naturally each deformation | transformation of embodiment of this invention can be variously modified and changed. For example, the number of cameras may be arbitrary as described above, and the texture may be synthesized not only from the reference image 3 but also from a plurality of other stereo images 2. Further, the stereo imaging system 1 and the computing device 12 do not need to be connected online, and may send images offline. Further, the distance image or the like generated in the middle of the process may be present as data, and is not necessarily present as an image.
[0039]
(Second Embodiment)
A second embodiment of the present invention will be described below with reference to FIGS. The configuration of the three-dimensional image information generation apparatus according to the second embodiment is shown in FIG. 1 and FIGS. 8, 10, and 11 as in the first embodiment.
[0040]
The object 4 photographed by the stereo imaging system 1 configured by the color camera 100 and the monochrome camera 101 shown in FIG. 8 is photographed to obtain stereo images 2-1 and 2-2 ((A) in FIG. 5). And stored in the storage device 10 (step S1). Here, a stereo image 2-1 photographed by the color camera 100 is set as a reference image 3. Next, the calculation device 9 converts the reference image 3 to monochrome and obtains a monochrome image 7 ((B) in FIG. 5) (step S3).
[0041]
Next, rectification processing and / or lens distortion processing is performed as preprocessing for the monochrome image 7 and the stereo image 2-2 (step S2 ′, FIG. 5C), and the stereo image 5-1, from which distortion has been removed, 5-2 is generated and stored in the storage device 10.
[0042]
Next, the calculation device 12 performs a stereo matching process on the stereo images 5-1 and 5-2, generates a distance image 8 ((D) in FIG. 5) as three-dimensional information related to the object 4 and stores it in the storage device 10. Store (step S4). Next, the calculation device 12 performs enlargement / reduction and parallel movement processing (compensation processing) on the distance image 8 with values stored in advance to generate a distance image 9 ((E) in FIG. 5) and store it in the storage device 10. Store (step S6). Next, the calculation device 9 pastes the reference image 3 acquired in step S1 as a texture on the three-dimensional shape information obtained from the distance image 9 (step S5) and displays the image ((F) in FIG. 5) on the display device 11. To do.
[0043]
Hereinafter, a method for determining the enlargement ratio and the amount of translation used in the enlargement / reduction and translation processing described in step S6 will be described. Normally, the lens distortion (distortion) increases as the distance from the optical axis increases. Distortion removal processing is indispensable for stereo matching even for images taken with a lens with little distortion, but it can be used practically without distortion removal processing for human viewing as an image. Yes (for home video shooting and viewing).
[0044]
Based on this idea, in the present embodiment, a method for reducing the amount of calculation by omitting distortion removal for a texture image to be pasted on already acquired three-dimensional information will be described with reference to FIG.
[0045]
1. An object having a known shape (a board or the like on which a certain pattern is described is preferable) is imaged in advance, and a distortion amount on the screen is acquired from the relationship between the image (with distortion) 13 and the known shape.
[0046]
2. A certain allowable amount e1 is set, and a region 15 having a distortion amount equal to or smaller than the allowable amount e1 is set as a processing target. In this case, a rectangular area is extracted.
[0047]
3. An image 14 obtained by removing distortion from the image 13 is prepared.
[0048]
4). A search is performed for an enlargement ratio and a translation amount of the image 13 in which the difference between the region 15 of the image 13 with distortion and the region 15 of the image 14 with distortion removed is minimized.
[0049]
The processing shown in FIGS. 4 and 5 is performed on the region 15 using the searched enlargement ratio and parallel movement amount.
[0050]
According to such a method, it is not necessary to remove complicated distortion. Depending on the size of the lens distortion and the value of the allowable amount e1, it is possible to perform the pasting without performing processing (magnification rate 1, translation 0). However, this method does not provide an accurate image, and it cannot be applied to an image taken away from the center of the image (in most cases, the optical axis).
[0051]
In addition, naturally each deformation | transformation of embodiment of this invention can be variously modified and changed.
[0052]
For example, the number of cameras may be arbitrary, and the texture may be synthesized not only from the reference image 3 but also from a plurality of other stereo images 2. Further, the stereo imaging system 1 and the computing device 12 do not need to be connected online, and may send images offline. Further, the distance image or the like generated in the middle of the process may be present as data, and is not necessarily present as an image.
[0053]
The processing time in the second embodiment described above is calculated as follows.
[0054]
Number of color cameras: x
Number of monochrome cameras: y
Distortion removal processing time per monochrome image: A
Monochrome conversion processing time per color image: B
Stereo matching processing time: C
Reduction and translation processing time per image: D
Then,
Bx + A (x + y) + C + D
Can be obtained. Here, the processing times of A and D are in the same order.
[0055]
(Appendix)
1. For images from multiple viewpoints obtained by a stereo imaging system
In a method of acquiring stereoscopic information of an object to be photographed by performing stereo matching,
After reducing the amount of information each image has, perform conversion processing on each image,
After that, distance information is acquired by performing stereo matching processing for multiple images after conversion,
A reverse conversion process is performed on the acquired distance information with respect to the conversion process.
A method for generating three-dimensional image information from a stereo image, characterized by being applied to an original image.
[0056]
(Corresponding Embodiment of the Invention)
The first and second embodiments described above correspond to the embodiments relating to the present invention.
[0057]
(Function)
Of the plurality of images 2-1 and 2-2 of the subject 4 obtained by the stereo imaging system 1, one of the images is set as a reference image 3. (For example, left image if left and right stereo image) (FIG. 8)
Information amount reduction (monochrome color image, filter processing, etc.) is performed on the plurality of images 2-1 and 2-2. Thereafter, a plurality of images 5-1 and 5-2 are generated by transforming the images 2-1 and 2-2 with a reduced amount of information into a shape suitable for stereo matching. Stereo matching processing is performed on the images 5-1 and 5-2 to acquire distance information for the object to be photographed 4, and a distance image 8 is generated.
[0058]
A distance image 9 is generated by performing an inverse conversion process on the distance image 8 with respect to the conversion process.
[0059]
The distance image 9 is set as three-dimensional information, and the image 2-1 (reference image 3) is pasted as a texture (FIGS. 3 and 5).
[0060]
(effect)
It is not necessary to transform the image 2 into a shape suitable for performing stereo matching on the image 2 before the information amount is reduced, and the amount of calculation required because the image is deformed after the information amount is reduced. Is reduced.
[0061]
2. In a method for obtaining stereoscopic information of a subject by performing stereo matching on images from a plurality of viewpoints obtained by a stereo imaging system including a color imaging system,
After the image captured by the color imaging system is converted to a gray image, a conversion process for correcting image distortion is performed on each image,
After that, distance information is acquired by performing stereo matching processing for multiple images after conversion,
A reverse conversion process is performed on the acquired distance information with respect to the conversion process.
A method for generating three-dimensional image information from a stereo image, which is used as distance information for an original color image.
[0062]
(Corresponding Embodiment of the Invention)
The first embodiment corresponds to the embodiment relating to the present invention.
[0063]
(Function)
Among a plurality of images 2-1 and 2-2 (at least one is a color image) of the subject 4 obtained by the stereo imaging system 1, one color image (here, 2-1) among them. Is a reference image 3. (For example, left image if left and right stereo image) (FIG. 8)
Of the plurality of images 2-1 and 2-2, the color image 2-1 is converted into a monochrome image and converted to a monochrome image 7.
[0064]
Rectification and / or lens distortion processing is performed on the monochrome images 7 and 2-2 to generate a plurality of images 5-1 and 5-2. Stereo matching processing is performed on the plurality of images 5-1 and 5-2, distance information for the object 4 is acquired, and a distance image 8 is generated.
[0065]
A distance image 9 is generated by performing an inverse conversion process on the distance image 8 with respect to the conversion process (rectification and lens distortion).
[0066]
The distance image 9 is set as three-dimensional information, and the image 2-1 (reference image 3) having color information is pasted as a texture. (Figure 2)
(effect)
Since there is no need to perform rectification and / or lens distortion processing on the color image, the amount of calculation required is reduced.
[0067]
3. In a method for obtaining stereoscopic information of a subject by performing stereo matching on images from a plurality of viewpoints obtained by a stereo imaging system including a color imaging system,
After converting images captured by the color imaging system into gray images, each image is subjected to conversion processing to correct image distortion,
After that, distance information is acquired by performing stereo matching processing for multiple images after conversion,
Perform scale conversion and / or translation on the acquired distance information.
A three-dimensional image information generation method characterized by being used as distance information with respect to an original color image.
[0068]
(Corresponding Embodiment of the Invention)
The embodiment relating to this invention corresponds to the second embodiment.
[0069]
(Function)
Among a plurality of images 2-1 and 2-2 (at least one is a color image) of the subject 4 obtained by the stereo imaging system 1, one (here, 2-1) color image among them. Is a reference image 3. (For example, left image if left and right stereo image) (FIG. 8)
Of the plurality of images 2-1 and 2-2, the color image 2-1 is converted into a monochrome image and converted to a monochrome image 7.
[0070]
Rectification and / or lens distortion processing is performed on the monochrome images 7 and 2-2 to generate a plurality of images 5-1 and 5-2.
[0071]
Stereo matching processing is performed on the plurality of images 5-1 and 5-2, distance information for the object 4 is acquired, and a distance image 8 is generated.
[0072]
The distance image 9 is generated by performing scale conversion and / or parallel movement processing on the distance image 8.
[0073]
The distance image 9 is set as three-dimensional information, and the image 2-1 (reference image 3) having color information is pasted as a texture.
[0074]
(effect)
Since there is no need to perform rectification and / or lens distortion processing on the color image, the amount of calculation required is reduced.
[0075]
4). For images from multiple viewpoints obtained by a stereo imaging system
In a device that acquires stereo information of an object by performing stereo matching,
After reducing the amount of information each image has, perform conversion processing on each image,
After that, distance information is acquired by performing stereo matching processing for multiple images after conversion,
A three-dimensional image information generation device characterized in that the acquired distance information is converted and applied to the original image.
[0076]
5.
In an apparatus for acquiring three-dimensional information of a subject by performing stereo matching on images from a plurality of viewpoints obtained by a stereo imaging system including a color imaging system,
After the image captured by the color imaging system is converted to a gray image, a conversion process for correcting image distortion is performed on each image,
After that, distance information is acquired by performing stereo matching processing for multiple images after conversion,
A reverse conversion process is performed on the acquired distance information with respect to the conversion process.
A three-dimensional image information generation apparatus characterized by being used as distance information with respect to an original color image.
[0077]
6). At least one of the images from multiple viewpoints obtained by a stereo imaging system including a color imaging system
In a device that acquires stereo information of an object by performing stereo matching,
After converting the image captured by the color imaging system to a gray image,
Perform a conversion process to correct image distortion for each image,
After that, distance information is acquired by performing stereo matching processing for multiple images after conversion,
Perform scale conversion and / or translation on the acquired distance information.
A three-dimensional image information generation apparatus characterized by being used as distance information with respect to an original color image.
[0078]
7). In a program for acquiring three-dimensional information of a subject by performing stereo matching on images from a plurality of viewpoints obtained by a stereo imaging system,
After reducing the amount of information each image has, perform conversion processing on each image,
After that, distance information is acquired by performing stereo matching processing for multiple images after conversion,
A three-dimensional image information generation program characterized in that the acquired distance information is converted and applied to the original image.
[0079]
8). In a program for obtaining stereoscopic information of a subject by performing stereo matching on images from a plurality of viewpoints obtained by a stereo imaging system including a color imaging system,
After converting images captured by the color imaging system into gray images, each image is subjected to conversion processing to correct image distortion,
After that, distance information is acquired by performing stereo matching processing for multiple images after conversion,
A reverse conversion process is performed on the acquired distance information with respect to the conversion process.
A three-dimensional image information generation program characterized by being used as distance information for an original color image.
[0080]
9. In a program for obtaining stereoscopic information of a subject by performing stereo matching on images from a plurality of viewpoints obtained by a stereo imaging system including a color imaging system,
After converting images captured by the color imaging system into gray images, each image is subjected to conversion processing to correct image distortion,
After that, distance information is acquired by performing stereo matching processing for multiple images after conversion,
Perform scale conversion and / or translation on the acquired distance information.
A three-dimensional image information generation program characterized by being used as distance information for an original color image.
[0081]
【The invention's effect】
According to the present invention, it is possible to reduce the amount of calculation when performing stereo matching by reducing the number of image conversion processes.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of a three-dimensional image information generation apparatus of the present invention.
FIG. 2 is a flowchart for explaining a procedure of generating three-dimensional image information in the first embodiment of the present invention.
FIG. 3 is a diagram for describing a procedure for generating three-dimensional image information according to the first embodiment of the present invention.
FIG. 4 is a flowchart for explaining a procedure of generating three-dimensional image information according to the second embodiment of the present invention.
FIG. 5 is a diagram for explaining a procedure for generating three-dimensional image information in a second embodiment of the present invention.
FIG. 6 is a diagram showing the effect of the first embodiment of the present invention in comparison with a conventional example.
FIG. 7 is a diagram for explaining a method of reducing a calculation amount.
FIG. 8 is a diagram illustrating a configuration example of a stereo imaging system.
FIG. 9 is a diagram for explaining a procedure for generating a three-dimensional image from an image obtained by a stereo imaging system.
FIG. 10 is a diagram for explaining rectification processing;
FIG. 11 is a diagram for explaining lens distortion removal;
[Explanation of symbols]
1 Stereo imaging system
2-1, 2-2 Stereo image
3 reference images
4 Subject
10 Storage device
11 Display device
12 Calculator
13 Image with distortion
14 Distortion-removed image
15 areas

Claims (9)

撮像対象を撮像した画像に基づいて撮像対象の3次元情報を取得し、前記撮像対象の3次元画像情報を生成する3次元画像情報生成装置であって、
少なくとも1枚のカラー画像を含み、複数視点から撮像対象を撮像した画像を入力する入力手段と、
前記カラー画像の輝度情報を抽出する抽出手段と、
前記抽出手段により抽出された輝度情報に前処理を行う前処理手段と、
前記前処理手段により処理された画像から3次元情報を取得する3次元情報取得手段と、
前記3次元情報に、前記前処理の効果を補償する処理を行う補償処理手段と、
前記補償処理された3次元情報に前記カラー画像をテクスチャとして貼付して3次元画像を生成する3次元画像生成手段と、
を具備することを特徴とする3次元画像情報生成装置。
A three-dimensional image information generation device that acquires three-dimensional information of an imaging target based on an image obtained by imaging the imaging target and generates three-dimensional image information of the imaging target,
An input unit that includes at least one color image and inputs an image of an imaging target from a plurality of viewpoints;
Extracting means for extracting luminance information of the color image;
Pre-processing means for pre-processing the luminance information extracted by the extraction means;
Three-dimensional information acquisition means for acquiring three-dimensional information from the image processed by the preprocessing means;
Compensation processing means for performing processing for compensating the effect of the preprocessing on the three-dimensional information;
3D image generation means for generating a 3D image by pasting the color image as a texture on the compensated 3D information;
A three-dimensional image information generating apparatus comprising:
前記補償処理手段は、前記前処理の逆変換処理を行うことを特徴とする請求項1に記載の3次元画像情報生成装置。  The three-dimensional image information generation apparatus according to claim 1, wherein the compensation processing unit performs an inverse transformation process of the preprocessing. 前記補償処理手段は、前記前処理結果を打ち消すように拡縮処理および平行移動処理、あるいはその一方を行うことを特徴とする請求項1に記載の3次元画像情報生成装置。  The three-dimensional image information generation apparatus according to claim 1, wherein the compensation processing unit performs enlargement / reduction processing and / or parallel movement processing so as to cancel the preprocessing result. 少なくともステレオ撮像系と計算装置を有する3次元画像情報生成装置において、撮像対象を撮像した画像に基づいて撮像対象の3次元情報を取得し、前記撮像対象の3次元画像情報を生成する3次元画像情報生成方法であって、
前記ステレオ撮像系で、少なくとも1枚のカラー画像を含み、複数視点から撮像対象を撮像した画像を入力する入力ステップと、
前記計算装置で、前記カラー画像の輝度情報を抽出する抽出ステップと、
前記計算装置で、前記抽出した輝度情報に前処理を行なう前処理ステップと、
前記計算装置で、前記前処理により処理された画像から3次元情報を取得する3次元情報取得ステップと、
前記計算装置で、前記取得した3次元情報に、前記前処理の効果を補償する処理を行なう補償処理ステップと、
前記計算装置で、前記補償処理された3次元情報に前記カラー画像をテクスチャとして貼付して3次元画像を生成する3次元画像生成ステップと、
を具備することを特徴とする3次元画像情報生成方法。
A three-dimensional image information generation device having at least a stereo imaging system and a calculation device, acquires three-dimensional information of an imaging target based on an image obtained by imaging the imaging target, and generates three-dimensional image information of the imaging target An information generation method,
An input step of inputting an image including at least one color image in the stereo imaging system and imaging an imaging target from a plurality of viewpoints;
An extraction step of extracting luminance information of the color image in the computing device ;
A preprocessing step of performing preprocessing on the extracted luminance information in the computing device ;
A three-dimensional information acquisition step of acquiring three-dimensional information from the image processed by the preprocessing in the computing device ;
A compensation processing step for performing processing for compensating the effect of the preprocessing on the acquired three-dimensional information in the calculation device ;
A three-dimensional image generation step of generating a three-dimensional image by pasting the color image as a texture on the compensated three-dimensional information in the calculation device ;
A three-dimensional image information generating method comprising:
前記補償処理は、前記前処理の逆変換処理であることを特徴とする請求項4に記載の3次元画像情報生成方法。  The three-dimensional image information generation method according to claim 4, wherein the compensation process is an inverse transform process of the preprocess. 前記補償処理は、前記前処理結果を打ち消す拡縮処理および平行移動処理、あるいはその一方であることを特徴とする請求項4に記載の3次元画像情報生成方法。  5. The three-dimensional image information generation method according to claim 4, wherein the compensation process is an enlargement / reduction process and / or a parallel movement process that cancels the preprocess result. 撮像対象を撮像した画像に基づいて撮像対象の3次元情報を取得し、前記撮像対象の3次元画像情報を生成するために、コンピュータを、
少なくとも1枚のカラー画像を含み、複数視点から撮像対象を撮像した画像を入力する入力手段、
前記カラー画像の輝度情報を抽出する抽出手段、
前記抽出した輝度情報に前処理を行う前処理手段、
前記前処理手段により処理された画像から3次元情報を取得する3次元情報取得手段、
前記取得した3次元情報に、前記前処理の効果を補償する処理を行う補償処理手段、及び、
前記補償処理された3次元情報に前記カラー画像をテクスチャとして貼付して3次元画像を生成する3次元画像生成手段、
として機能させるための3次元画像情報生成プログラム。
In order to acquire the three-dimensional information of the imaging target based on the image obtained by imaging the imaging target and generate the three-dimensional image information of the imaging target,
An input unit that includes at least one color image and inputs an image of an imaging target from a plurality of viewpoints;
Extraction means for extracting luminance information of the color image;
Preprocessing means for performing preprocessing on the extracted luminance information;
Three-dimensional information acquisition means for acquiring three-dimensional information from the processed image by the preprocessing means,
Compensation processing means for performing processing for compensating the effect of the preprocessing on the acquired three-dimensional information; and
3D image generation means for generating a 3D image by pasting the color image as a texture on the compensated 3D information;
Program for generating three-dimensional image information.
前記補償処理手段は、前記前処理の逆変換処理を実行することを特徴とする請求項7に記載の3次元画像情報生成プログラム。The three-dimensional image information generation program according to claim 7, wherein the compensation processing unit executes an inverse transformation process of the preprocessing. 前記補償処理手段は、前記前処理結果を打ち消す拡縮処理および平行移動処理、あるいはその一方を実行することを特徴とする請求項7に記載の3次元画像情報生成プログラム。8. The three-dimensional image information generation program according to claim 7, wherein the compensation processing means executes enlargement / reduction processing and / or parallel movement processing for canceling the preprocessing result.
JP2001200143A 2001-06-29 2001-06-29 3D image information generation apparatus, 3D image information generation method, and 3D image information generation program Expired - Fee Related JP4740481B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001200143A JP4740481B2 (en) 2001-06-29 2001-06-29 3D image information generation apparatus, 3D image information generation method, and 3D image information generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001200143A JP4740481B2 (en) 2001-06-29 2001-06-29 3D image information generation apparatus, 3D image information generation method, and 3D image information generation program

Publications (2)

Publication Number Publication Date
JP2003016477A JP2003016477A (en) 2003-01-17
JP4740481B2 true JP4740481B2 (en) 2011-08-03

Family

ID=19037316

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001200143A Expired - Fee Related JP4740481B2 (en) 2001-06-29 2001-06-29 3D image information generation apparatus, 3D image information generation method, and 3D image information generation program

Country Status (1)

Country Link
JP (1) JP4740481B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10148931B2 (en) 2016-11-10 2018-12-04 KANEKO Manufacturing Co., Ltd. Three-dimensional video image display processing device, video information recording medium, video information providing server, and recording medium storing a program

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6029306B2 (en) 2012-03-29 2016-11-24 住友建機株式会社 Perimeter monitoring equipment for work machines
US11122180B2 (en) * 2014-05-02 2021-09-14 Dentsply Sirona Inc. Systems, methods, apparatuses, and computer-readable storage media for collecting color information about an object undergoing a 3D scan

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06215097A (en) * 1992-06-17 1994-08-05 Fujitsu Ltd Three-dimensional object cg preparing device
JPH11325889A (en) * 1998-05-14 1999-11-26 Fuji Heavy Ind Ltd Picture correcting apparatus for stereoscopic camera

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06215097A (en) * 1992-06-17 1994-08-05 Fujitsu Ltd Three-dimensional object cg preparing device
JPH11325889A (en) * 1998-05-14 1999-11-26 Fuji Heavy Ind Ltd Picture correcting apparatus for stereoscopic camera

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10148931B2 (en) 2016-11-10 2018-12-04 KANEKO Manufacturing Co., Ltd. Three-dimensional video image display processing device, video information recording medium, video information providing server, and recording medium storing a program

Also Published As

Publication number Publication date
JP2003016477A (en) 2003-01-17

Similar Documents

Publication Publication Date Title
JP6330987B2 (en) Image processing apparatus, image processing method, and storage medium
JP5812599B2 (en) Information processing method and apparatus
JP3347508B2 (en) Captured image processing device and captured image processing method
JP2998791B2 (en) 3D structure estimation device
CN104935909B (en) Multi-image super-resolution method based on depth information
CN106981078B (en) Sight line correction method and device, intelligent conference terminal and storage medium
US20120162220A1 (en) Three-dimensional model creation system
JP2000354257A (en) Image processor, image processing method and program provision medium
JPH07294215A (en) Method and apparatus for processing image
JP7064257B2 (en) Image depth determination method and creature recognition method, circuit, device, storage medium
JP2953154B2 (en) Shape synthesis method
WO2020152927A1 (en) Training data generation method, training data generation device, and inference processing method
WO2013105381A1 (en) Image processing method, image processing apparatus, and image processing program
WO2019186787A1 (en) Image processing device, image processing method, and image processing program
CN105005964A (en) Video sequence image based method for rapidly generating panorama of geographic scene
JP6052186B2 (en) Image processing device
JP4631973B2 (en) Image processing apparatus, image processing apparatus control method, and image processing apparatus control program
JP3561446B2 (en) Image generation method and apparatus
JP3008875B2 (en) Subject extraction device
JP3103478B2 (en) Compound eye imaging device
JP4740481B2 (en) 3D image information generation apparatus, 3D image information generation method, and 3D image information generation program
JP6931267B2 (en) A program, device and method for generating a display image obtained by transforming the original image based on the target image.
CN117196955A (en) Panoramic image stitching method and terminal
KR101818992B1 (en) COSMETIC SURGERY method USING DEPTH FACE RECOGNITION
CN113487487B (en) Super-resolution reconstruction method and system for heterogeneous stereo image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080501

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110316

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110419

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110502

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees