JP4193292B2 - Multi-view data input device - Google Patents

Multi-view data input device Download PDF

Info

Publication number
JP4193292B2
JP4193292B2 JP18833999A JP18833999A JP4193292B2 JP 4193292 B2 JP4193292 B2 JP 4193292B2 JP 18833999 A JP18833999 A JP 18833999A JP 18833999 A JP18833999 A JP 18833999A JP 4193292 B2 JP4193292 B2 JP 4193292B2
Authority
JP
Japan
Prior art keywords
image
color
image sensor
dimensional
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP18833999A
Other languages
Japanese (ja)
Other versions
JP2001016621A (en
Inventor
敬行 浜口
琢人 上古
悟 広瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP18833999A priority Critical patent/JP4193292B2/en
Publication of JP2001016621A publication Critical patent/JP2001016621A/en
Application granted granted Critical
Publication of JP4193292B2 publication Critical patent/JP4193292B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Color Television Image Signal Generators (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、3次元データの取得のための多眼式データ入力装置に関する。
【0002】
【従来の技術】
従来より、多眼式データ入力装置は、パッシブタイプの3次元データ入力装置の1つとして知られている。多眼式データ入力装置は、2次元画像を得るための複数の入力部、得られた複数の2次元画像に基づいて3次元データを算出する算出部などを有している。
【0003】
このような装置を用いて3次元データを生成するには、得られた複数の2次元画像のうち、その1つを基準画像とする。基準画像における被写体を示す領域内の全ての座標点について、他の2次元画像においてそれらに対応する座標点を求める。これらの対応点は、2次元画像を構成する画素の濃淡を用い、勾配法又は相関法などにより求めることができる。対応点に基づいて、ステレオ視の原理により、3次元空間上での点の位置を求める。求められた点の位置データの集合が被写体についての3次元データである。
【0004】
従来の装置では、左右の入力部にモノクロの2次元画像を取得する撮像素子が用いられている。
【0005】
【発明が解決しようとする課題】
ところが、モノクロの撮像素子を用いた場合には、対応点の探索には都合がよいが、カラーの画像が得られないので、3次元データを生成した後において、3次元データに対するカラーマッピングを実現することができない。
【0006】
そのため、カラーの2次元画像を撮影可能なカメラを別途用い、3次元データのための撮影とは別個に撮影を行う必要があった。そのため、撮影のために手間が掛かるとともに、3次元データのための撮影とカラーの2次元画像のための撮影との位置関係が一定しないため、カラーマッピングを行う際の位置合わせが容易ではないという問題もあった。
【0007】
本発明は、上述の問題に鑑みてなされたもので、3次元データのための2次元画像及びカラーマッピングのための2次元画像を1回の撮影によって同時に取得することができ、しかも構成の簡単な多眼式データ入力装置を提供することを目的とする。
【0008】
請求項1の発明に係る装置は、写体の2次元画像を互いに異なる複数の視点位置から入力する複数の画像入力部を有してなる多眼式データ入力装置であって、前記複数の画像入力部のうちの1つの画像入力部にはカラーの2次元画像を取得することのできる撮像素子が設けられ、他の画像入力部には、モノクロの2次元画像を取得する撮像素子が設けられ、前記カラーの撮像素子と前記モノクロの撮像素子とは解像度が同じであり、前記カラーの撮像素子について、その画素のうちの画像データが出力されない色の画素についてはその近傍の画素から出力される画像データを用いて補間を行うことにより、全ての画素について各色の画像データを得て、同じ画素についての各色の画像データのデータ値を所定の割合で加算することにより、各画素の輝度を示す画像データを得るようにし、前記モノクロの撮像素子については全ての画素について各画素から出力される画像データから輝度を示す画像データを得るように構成されている。
【0009】
請求項2および6の発明に係る装置は、カラーの撮像素子は、カラーフィルタを有した単板式の撮像素子である。
【0010】
請求項3および7の発明に係る装置では、前記カラーの撮像素子は、カラーフィルタを有した多板式の撮像素子である。
【0011】
請求項4および8の発明に係る装置は、前記2次元画像に基づいて前記被写体の3次元データを算出する算出部を有してなる。
【0012】
請求項5の発明に係る装置は被写体の2次元画像を互いに異なる複数の視点位置から入力する複数の画像入力部を有してなる多眼式データ入力装置であって、前記複数の画像入力部のうちの1つの画像入力部には、カラーの2次元画像を取得することのできる撮像素子が設けられ、他の画像入力部には、モノクロの2次元画像を取得する撮像素子が設けられ、前記カラーの撮像素子は、前記モノクロの撮像素子よりも高解像度である。
【0018】
【発明の実施の形態】
〔第1の実施形態〕
図1は本発明の第1の実施形態を示す多眼入力カメラ5の斜視図、図2は多眼入力カメラ5を含んだ3次元データ生成装置1の構成の例を示す図、図3は多眼入力カメラ5を用いて被写体Qを撮影する際の様子を概念的に示す図である。
【0019】
図1に示すように、多眼入力カメラ5には、カメラ本体11、撮影レンズ12a,13aをそれぞれ有する画像入力部12,13、テクスチャ投影部16、及びシャッター155などが設けられている。なお、図1には示されていないが、多眼入力カメラ5の内部には処理回路15が内蔵されている。
【0020】
図2に示すように、3次元データ生成装置1は、情報処理装置4及び多眼入力カメラ5からなる。情報処理装置4は、処理装置21、表示面HGを有した表示装置22、キーボード及びマウスを始めとする入力装置23などからなる。処理装置21には、CPU、RAM、ROM、その他の周辺素子、インタフェース装置、ハードディスク装置、フロッピィディスク装置、CD−ROM装置、モデム、及びその他の機器が内蔵されている。このような情報処理装置4として、適当なプログラムをインストールしたパーソナルコンピュータなどを用いることができる。
【0021】
多眼入力カメラ5には、図2に示すように、撮影した2次元画像QL,QRを表示するための、液晶パネルなどからなる表示装置12c,13cがそれぞれ設けられている。
【0022】
多眼入力カメラ5と情報処理装置4との間では、データ転送を行うことができる。また、多眼入力カメラ5から入力された2次元画像を情報処理装置4において表示することも可能である。情報処理装置4は、多眼入力カメラ5から入力された2次元画像に基づいて、3次元データを生成し、生成した3次元データを表示面HGに表示することができる。
【0023】
図3に示すように、被写体Qは、その背景QKとともに2つの撮影レンズ12a,13aによって視差を有して取り込まれ、それぞれの表示装置12c,13cに、2次元画像QL,QRとして表示されている。これらの2次元画像QL,QRに基づいて、3次元データの生成の前処理として、対応点の探索を行う。つまり、2つの2次元画像QL,QRのうちの1つを基準画像とし、基準画像における被写体Qを示す領域内の全ての座標点について、他の2次元画像においてそれらに対応する対応点を求める。対応点に基づいて、ステレオ視の原理によって3次元データを演算により求める。なお、本明細書において、対応点を探索すること、又はそのための処理を、「対応点探索」ということがある。
【0024】
図4は対応点探索の概念を説明するための図である。
図4において、被写体Qの画像は、画像入力部12,13に設けられた撮像素子12b,13bの撮像面上に結像している。左方の撮像素子12bに結像する2次元画像QLを基準画像とする。なお、撮像素子12b,13bで得られる2次元画像QL,QRは、表示装置12c,13cに表示される2次元画像QL,QRと同じである。対応点探索は、次のようにして行われる。
【0025】
すなわち、対応点探索は、被写体Q上の任意の点を注視点Aとした場合に、基準画像を撮像する撮像素子12bの撮像面上における注視点Aを示す点L1が、他の撮像素子13cの撮像面上において如何なる座標の点に対応しているかを求める作業である。対応点探索において、2次元画像QL,QRの輝度を用い、また勾配法又は相関法などの従来公知の方法を用いることができる。これらの方法を用いることにより、図4においては、撮像素子12bの撮像面上の点L1は、撮像素子13cの撮像面上のR1に対応していることが分かる。被写体Q上の全ての点について、このような対応点探索を行うことにより、全ての点について3次元座標上での位置が分かり、被写体Qの3次元形状を求めることができる。
【0026】
対応点探索を行いやすい被写体としては、隣り合う画素同士で輝度差があるものが良い。また、単色のものよりはテクスチャ(模様柄)のあるものが良い。テクスチャがない場合には、平らなものよりも湾曲やエッジの効いているものが良い。但し、湾曲やエッジがある場合に、その程度によってはオクルージョン(死角)が生じるという問題がある。
【0027】
つまり、被写体Qが奥行き方向に深い場合には、多眼入力カメラ5の2つの画像入力部12,13の光軸間の距離である基線長、レンズの焦点距離、及び撮像素子12b,13bの画素のサイズなどに応じて、各画像間で見える部分と見えない部分が出てくる可能性がある。特に、対応点探索に勾配法を用いる場合は、段差が問題となる。したがって、程度の問題はあるが、表面に輝度差があり、なだらかな傾斜を示す被写体が対応点の求めやすい被写体であるということとなる。
【0028】
さて、3次元データを生成した後において、3次元データに対するカラーマッピングが行われる。つまり、3次元データにカラーの2次元画像を貼り付けてカラー表示を行う。そのために、カラーの2次元画像を取得することのできる撮像素子が備えられる。
【0029】
図5は多眼入力カメラ5の構成を示すブロック図、図6は撮像素子12b,13bの画素構成の例を示す図、図7は単板式カラーCCDの各色の画素を抜き出して示す図である。
【0030】
図5において、多眼入力カメラ5は、上にも述べたように、画像入力部12,13及び処理回路15などからなる。画像入力部12,13には、撮影レンズ12a,13a及び撮像素子12b,13bが設けられる。
【0031】
撮像素子12bとして、単板式カラーCCDが用いられる。撮像素子12bにより得られる2次元画像は、対応点探索用及びカラーマッピング用の両方に用いられる。撮像素子13bとして、モノクロCCDが用いられる。撮像素子13bにより得られる2次元画像は、対応点探索用としてのみ用いられる。
【0032】
処理回路15は、CPU151、及びメモリ152,153などからなる。なお、図示は省略したが、上に述べたシャッター155、多眼入力カメラ5の通常の操作のための種々のボタン、その他の機器も備えられている。
【0033】
撮像素子12b,13bから出力される画像データは、メモリ152,153に一旦格納される。メモリ152,153に格納された画像データは、CPU151によって読み出され、必要な処理が施される。CPU151の処理として、3次元データを生成する処理を行うことも可能である。また、メモリ152,153に格納された画像データ、又はCPU151によって処理された画像データは、外部に出力することが可能である。
【0034】
図6(a)に示すように、単板式カラーCCDからなる撮像素子12bは、1枚のCCD面上に、R(レッド),G(グリーン),B(ブルー)の各色の画素が割り当てられている。したがって、全ての画素についてR,G,Bの各色の画像データが得られるのではなく、1つの画素からは1色のみの画像データが得られる。
【0035】
他方、図6(b)に示すように、モノクロCCDからなる撮像素子13bは、撮像素子12bと解像度が同じであり、全ての画素から輝度を示す画像データが得られる。
【0036】
なお、これまでの記述で理解できるように、本明細書における撮像素子の「画素」は、撮像素子の1つのセルを指す。また、撮像素子についての「解像度」は、撮像素子のセルの個数によって決まる値である。
【0037】
図7(a)(b)(c)には、撮像素子12bのRについての配置がR画素面12bRとして、Gについての配置がG画素面12bGとして、Bについての配置がB画素面12bBとして、それぞれ示されている。
【0038】
これらの図から分かるように、各色について見ると、画像データのない画素がそれぞれ存在する。したがって、各色について、画像データのない画素については、補完により作成する必要がある。
【0039】
例えば、G画素面12bGについて見ると、G(0,0)はそのままのデータ値を用いることができる。しかし、G(1,0)は画像データがないので、その近傍であるG(0,0)、G(2,0)、及びG(1,1)の各画像データを用いて補間する必要がある。すなわち、
G(1,0)=〔G(0,0)+G(2,0)+G(1,1)〕/3
として求める。また、G(2,1)については、
G(2,1)=〔G(2,0)+G(1,1)+G(1,3)+G(2,2)〕/4
として求める。このように、画像データのない画素については、近傍の画素の画像データを用いて補間によりデータ値を求める。
【0040】
R画素面12bR及びB画素面12bBについても、画像データのない画素については同様の処理を行ってデータ値を求める。これにより、全ての画素のついて、R,G,Bの各色の画像データが得られる。
【0041】
そして、得られた画像データに基づいて、各画素の輝度及び色情報が求められる。各画素の輝度を得るには、同じ画素についての、R、G、Bの各色のデータ値を所定の割合で加算する。つまり、画素の座標をi,jとすると、その画素の輝度値Yi,j は、次の(1)式、
Yi,j =A1・Ri,j +B1・Gi,j +C1・Bi,j ……(1)
で示される。A1、B1、C1はそれぞれ係数であり、例えば、A1=0.2990、B1=0.5870、C1=0.1140である。
【0042】
このようにして撮像素子12bから得られた各画素の輝度値と、撮像素子13bから得られた各画素の輝度値とに基づいて、対応点探索が行われる。カラーマッピング用には、撮像素子12bから得られる画像データがそのまま用いられる。このように、1つの撮像素子12bによって、対応点探索のための2次元画像とカラーマッピングのための2次元画像とが同時に得られる。
【0043】
但し、このような補間による方法では、全ての画素についての正確な輝度を求めることはできない。その結果、モノクロ画像により、対応点探索を行った場合に比べると、本来対応すべき画素との対応がとれないことがあり、精度面で落ちる場合がある。
【0044】
しかし、3次元形状を再構成する際のアルゴリズムによる最適化処理によって視覚的な補正を行い、ほぼ正確な3次元形状の形成を実現することが可能である。
【0045】
上の実施形態によると、簡単な構成によって3次元データの生成が可能である。対応点探索用とカラーマッピング用の撮像素子を1つの撮像素子12bで兼ねるので、構成が簡易であるとともに、2次元画像と3次元データとの対応関係が既知となり、カラーマッピングの際の位置合わせが容易である。また、3次元データの再構成の際に必要な画像入力部12,13間の位置関係を求めるキャリブレーションについても、撮像素子の個数が少ない分だけその手間を軽減することができる。
〔第2の実施形態〕
図8は本発明の第2の実施形態による撮像素子12Bb,13Bbの画素構成の例を示す図である。
【0046】
第2の実施形態において、多眼入力カメラ5B及び3次元データ生成装置1の構成は、基本的には第1の実施形態と同一である。多眼入力カメラ5Bの相違点は次のとおりである。
【0047】
すなわち、第1の実施形態では、撮像素子12b,13bは、一方がカラーCCDであり他方がモノクロCCDであるという違いはあるものの、解像度は同じである。これに対して、第2の実施形態においては、カラーCCDである一方の撮像素子12Bbの解像度が、モノクロCCDである他方の撮像素子13Bbの解像度よりも高い。具体的には、撮像素子12Bbの解像度は撮像素子13Bbの解像度の4倍である。しかし、他の適当な倍数の解像度のものを用いることが可能である。
【0048】
図8に示すように、モノクロCCDの撮像素子13Bbの1つの画素は、カラーCCDの撮像素子12Bbの4つの画素に対応する。したがって、カラーCCDの4つの画素、つまり、R,G,G,Bの各色の画像データから、補間を行うことなく、モノクロCCDの1つの画素の輝度値に対応する輝度値を正確に求めることができる。これにより、第1の実施形態の場合と比較して、対応点探索をより一層正確に行うことができ、信頼性の高い3次元形状を再構成することができる。
【0049】
なお、モノクロCCDの1つの画素の輝度値に対応するカラーCCDの輝度値を求める方法として、第1の実施形態で示したように、カラーCCDの各画素毎の輝度値を求め、4つの画素の輝度値を所定の割合で加算してもよい。この場合でも、補間を行う必要がないので、輝度値を正確に求めることができ、対応点探索をより一層正確に行うことができる。
【0050】
ここで、カラーマッピングの方法について説明する。
図9は3次元データ生成装置1によって再構成された3次元形状QF1の例を示す図、図10及び図11は3次元形状QFを形成するポリゴンPGと各点に対応するカラーマッピング用の2次元画像(以下、「マッピング画像QM」ということがある)との関係を示す図である。なお、図10はマッピング画像QM2が低解像度である場合を、図11はマッピング画像QM3が高解像度である本実施形態の場合を、それぞれ示す。
【0051】
図9において、黒丸で示す各点1,2,3…は、3次元形状QF1を構成する点、つまり各点の3次元データである。いずれか3つの点によって、ポリゴンPGがそれぞれ形成される。
【0052】
さて、3次元形状QFの各点は、撮像素子12Bb,13Bbに入力される2つの2次元画像の対応に基づいて求められるが、その際に用いた点の色情報を用いることにより、3次元形状QFの各ポリゴンPGに対するカラーマッピングを行うことができる。
【0053】
図10において、3次元形状QF2のポリゴンPG2に対するカラーマッピングについて説明する。ポリゴンPG2を形成する各点「1」「2」「3」は、マッピング画像QM2の画像「4」「5」「6」にそれぞれ対応する。したがって、ポリゴンPG2には、図に示すようにそれら3つの画像が貼り付けられる。
【0054】
図11において、3次元形状QF3のポリゴンPG3に対するカラーマッピングについて説明する。ポリゴンPG3を形成する各点「1」「2」「3」は、マッピング画像QM3の画像「4」「5」「6」にそれぞれ対応する。これらの画像は、それぞれ4つの画素からなり、したがって画像の解像度が高い。ポリゴンPG3には、図に示すようにそれら3つの画像が貼り付けられるが、各画像の解像度が高いので、ポリゴンPG3にカラーマッピングされた画像の解像度は、図10の場合よりも高くなっていることが分かる。
【0055】
つまり、本実施形態のように、カラーCCDの解像度をモノクロCCDの解像度よりも高くすることによって、解像度の高いマッピング画像QMを得ることができ、これによって、3次元形状QFに高解像度の画像をマッピングすることができる。したがって、カラーマッピングされた3次元形状QFの視覚効果が高い。例えば、3次元形状QFの精度が悪い場合、又は3次元形状QFに欠陥がある場合であっても、高解像度のマッピング画像QMによって視覚的には良好なものとすることが可能である。
〔第3の実施形態〕
図12は本発明の第3の実施形態による画像入力部12Cの構成を示す図、図13は画像入力部13Cの構成を示す図である。
【0056】
第3の実施形態において、多眼入力カメラ5C及び3次元データ生成装置1の構成は、基本的には第1の実施形態と同一である。多眼入力カメラ5Cの相違点は次のとおりである。
【0057】
すなわち、第1の実施形態では、撮像素子12bとして単板式カラーCCDが用いられているが、第3の実施形態においては、撮像素子12Cbとして、図12に示すような多板式カラーCCDが用いられる。
【0058】
図12において、画像入力部12Cは、撮影レンズ12Ca、プリズム121、R成分を反射するフィルタ122、G成分のみを反射するフィルタ123、及び、R,G,Bの各色用の撮像素子12CbR,12CbG,12CbBを備える。
【0059】
撮影レンズ12Caを通過してプリズム121に入射した光LLは、まず、フィルタ122により光路が分けられる。光LLのR成分は、プリズム121で反射し、撮像素子12CbRにより受光される。G成分は、フィルタ122を透過し且つフィルタ123で反射し、撮像素子12CbGにより受光される。B成分は、フィルタ122及び123を透過し、撮像素子12CbBにより受光される。
【0060】
図13において、画像入力部13Cは、撮影レンズ13Ca、モノクロCCDである撮像素子13Cbを備える。なお、画像入力部13Cの構成は、第1及び第2の実施形態の画像入力部13、13Bの構成と同一である。
【0061】
各撮像素子12CbR,12CbG,12CbBの解像度と、撮像素子13Cbの解像度とは同じである。つまり、各カラーCCDにおけるR,G,Bの各色成分の1つの画素は、モノクロCCDの1つの画素と同じ大きさである。
【0062】
したがって、画像入力部12Cにおいて、各画素の輝度は、撮像素子12CbR,12CbG,12CbBの各画素のR,G,Bの画像データから上の(1)式により求めることができる。つまり、補間を行うことなく、モノクロCCDの1つの画素の輝度値に対応する輝度値を正確に求めることができる。これにより、対応点探索をより一層正確に行うことができ、信頼性の高い3次元形状を再構成することができる。また、画像入力部12Cにより得られるマッピング画像QMについても、その色情報が補間によることなく完全な色情報を求めることができ、視覚的効果が良好である。
〔第4の実施形態〕
図14は本発明の第4の実施形態による撮像素子12Db,13Dbの画素構成の例を示す図である。
【0063】
第4の実施形態において、多眼入力カメラ5D及び3次元データ生成装置1の構成は、基本的には第1及び第3の実施形態と同一である。多眼入力カメラ5Dの第3の実施形態との相違点は次のとおりである。
【0064】
すなわち、第3の実施形態では、カラーCCDとモノクロCCDとは解像度が同じである。これに対して、第4の実施形態においては、カラーCCDである撮像素子12DbR,12DbG,12DbBの解像度は、モノクロCCDである撮像素子13Dbの解像度よりも高い。
【0065】
図14に示すように、モノクロCCDである撮像素子13Dbの1画素が、カラーCCDである撮像素子12DbR,12DbG,12DbBの複数の画素領域(本実施形態においては4画素の領域)にまたがっている。したがって、モノクロCCDの1画素に対応するカラーCCDによる輝度値は、複数個の画素の平均値などにより正確に求めることができる。
【0066】
そして、撮像素子12DbR,12DbG,12DbBによって、解像度の高いマッピング画像QMを得ることができ、これによって高解像度の画像をマッピングすることができる。
〔第5の実施形態〕
図15は本発明の第5の実施形態による多眼入力カメラ5Eの構成を示すブロック図である。
【0067】
図15において、多眼入力カメラ5Eは、画像入力部12E,13E及び処理回路15Eなどからなる。画像入力部12Eには、撮影レンズ12Ea、フィルタ125、及び、2つの撮像素子12EbC,12EbKが設けられる。画像入力部13Eには、撮影レンズ13Ea、モノクロCCDである撮像素子13Ebが設けられる。画像入力部13Eの構成は、第1乃至第4の実施形態の画像入力部13〜13Dの構成と同一である。
【0068】
撮像素子12EbCとして、図6(a)に示す撮像素子12bと同じ単板式カラーCCDが用いられる。したがって、撮像素子12EbCは、モノクロCCDである撮像素子12EbK,13Ebと解像度が同じであって、1枚のCCD面上に、R,G,Bの各色の画素が割り当てられており、1つの画素からは1色のみの画像データが得られる。撮像素子12EbK,13Ebとして、図6(b)に示す撮像素子13bと同じモノクロCCDが用いられる。
【0069】
フィルタ125は、撮影レンズ12Eaに入射した光を2つの光路に分け、カラーCCDである撮像素子12EbC及びモノクロCCDである撮像素子12EbKに導く。撮像素子12EbCにより得られる2次元画像はカラーマッピング用に用いられ、撮像素子12EbKにより得られる2次元画像は対応点探索用として用いられる。また、撮像素子13Ebにより得られる2次元画像は対応点探索用として用いられる。
【0070】
つまり、対応点探索用として、モノクロCCDである撮像素子12EbK,13Ebが用いられ、これとは別に、カラーマッピング用として単板式カラーCCDである撮像素子12EbCが用いられる。
【0071】
処理回路15Eには、各撮像素子12EbC,12EbK,13Ebから出力される画像データをそれぞれ格納するためのメモリ152C,152K,153が設けられる。CPU151は、これらメモリ152C,152K,153に格納された画像データなどを処理し、対応点探索、3次元形状QFの生成、カラーマッピングなどのための処理を行う。
【0072】
本実施形態においては、モノクロCCDからなって解像度が同じである2つの撮像素子12EbK,13Ebにより得られた2次元画像によって対応点探索が行われるので、信頼性の高い理想的な対応点探索が行われ、3次元形状QFを正確に再構成することができる。
〔第6の実施形態〕
第6の実施形態において、多眼入力カメラ5F及び3次元データ生成装置1の構成は、基本的には第5の実施形態と同一である。多眼入力カメラ5Fの相違点は次のとおりである。
【0073】
すなわち、第5の実施形態では、カラーCCDの解像度とモノクロCCDの解像度とは同じであるが、第6の実施形態においては、カラーCCDの解像度が、モノクロCCDの解像度よりも高い。具体的には、例えば、図8に示すカラーCCDである撮像素子12BbとモノクロCCDである撮像素子13Bbとの関係である。
【0074】
つまり、第6の実施形態の多眼入力カメラ5Fは、第5の実施形態の多眼入力カメラ5Eの特徴と第2の実施形態の多眼入力カメラ5Bの特徴とを組み合わせたものということができる。
【0075】
したがって、第6の実施形態によると、解像度の高いマッピング画像QMを得ることができ、3次元形状QFに高解像度の画像をマッピングすることができる。したがって、カラーマッピングされた3次元形状QFの視覚効果が高くなるという効果を奏する。
〔第7の実施形態〕
第7の実施形態において、多眼入力カメラ5G及び3次元データ生成装置1の構成は、基本的には第5の実施形態と同一である。多眼入力カメラ5Gの相違点は次のとおりである。
【0076】
すなわち、第5の実施形態では、単板式カラーCCDが用いられているが、第6の実施形態においては、図12に示すような多板式カラーCCDが用いられる。
【0077】
つまり、第7の実施形態の多眼入力カメラ5Gは、第5の実施形態の多眼入力カメラ5Eの特徴と第3の実施形態の多眼入力カメラ5Cの特徴とを組み合わせたものということができる。
【0078】
したがって、第7の実施形態によると、補間を行うことなく、モノクロCCDの1つの画素の輝度値に対応する輝度値を正確に求めることができ、これによって、対応点探索をより一層正確に行うことができ、信頼性の高い3次元形状を再構成することができる。
〔第8の実施形態〕
第8の実施形態において、多眼入力カメラ5H及び3次元データ生成装置1の構成は、基本的には第7の実施形態と同一である。多眼入力カメラ5Hの相違点は次のとおりである。
【0079】
すなわち、第7の実施形態では、多板式カラーCCDとモノクロCCDとは解像度が同じである。これに対して、第8の実施形態においては、多板式カラーCCDの解像度は、モノクロCCDの解像度よりも高い。
【0080】
つまり、第8の実施形態の多眼入力カメラ5Hは、第7の実施形態の多眼入力カメラ5Gの特徴と第4の実施形態の多眼入力カメラ5Dの特徴とを組み合わせたものということができる。
【0081】
したがって、第8の実施形態によると、モノクロCCDの1画素に対応する多板式カラーCCDによる輝度値は、複数個の画素の平均値などにより正確に求めることができる。そして、多板式カラーCCDによって、解像度の高いマッピング画像QMを得ることができ、これによって高解像度の画像をマッピングすることができる。
【0082】
上に述べた各実施形態によると、複数の画像入力部のうち、1つの画像入力部のみについて、画像品質に関する仕様が他の画像入力部とは異なるように構成することにより、簡単な構成によって、撮影をワンショットで行った後、対応点探索とカラーマッピングとの両方に用いることのできる2次元画像を同時に得ることができる。
【0083】
以上、8つの実施形態について説明した。それぞれの実施形態による効果について、説明の一部を省略したが、関連する他の実施形態の効果を考えれば明らかである。また、これらの実施形態を種々組み合わせることも可能である。
【0084】
上に述べた実施形態においては、2次元画像として静止画を入力した場合について説明したが、2次元画像として動画を入力する場合にも同様に適用することが可能である。その他、情報処理装置4、多眼入力カメラ5〜5H、3次元データ生成装置1の全体又は各部の構成、形状、材質、処理内容及び順序などは、本発明の趣旨に沿って適宜変更することができる。
【0085】
【発明の効果】
本発明によると、3次元データのための2次元画像及びカラーマッピングのための2次元画像を1回の撮影によって同時に取得することができ、しかも構成の簡単な多眼式データ入力装置を提供することができる。
【0086】
請求項2および6の発明によると、構成が一層簡単である。
請求項5ないし8の発明によると、解像度の高いマッピング画像を得ることができ、カラーマッピングされた3次元形状の視覚効果を高めることが可能である。
【0087】
また、対応点探索に必要な輝度値を補間を行うことなく正確に求めることができる。そして、信頼性の高い理想的な対応点探索が行われ、3次元形状を正確に再構成することが可能となる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態を示す多眼入力カメラの斜視図である。
【図2】多眼入力カメラを含んだ3次元データ生成装置の構成の例を示す図である。
【図3】多眼入力カメラを用いて被写体を撮影する際の様子を概念的に示す図である。
【図4】対応点探索の概念を説明するための図である。
【図5】多眼入力カメラの構成を示すブロック図である。
【図6】撮像素子の画素構成の例を示す図である。
【図7】単板式カラーCCDの各色の画素を抜き出して示す図である。
【図8】本発明の第2の実施形態による撮像素子の画素構成の例を示す図である。
【図9】3次元データ生成装置によって再構成された3次元形状の例を示す図である。
【図10】ポリゴンと低解像度のマッピング画像との関係を示す図である。
【図11】ポリゴンと高解像度のマッピング画像との関係を示す図である。
【図12】本発明の第3の実施形態による画像入力部の構成を示す図である。
【図13】画像入力部の構成を示す図である。
【図14】本発明の第4の実施形態による撮像素子の画素構成の例を示す図である。
【図15】本発明の第5の実施形態による多眼入力カメラの構成を示すブロック図である。
【符号の説明】
1 3次元データ生成装置
5〜5H 多眼入力カメラ(多眼式データ入力装置)
12 画像入力部(1つの画像入力部)
13 画像入力部(他の画像入力部)
12b 撮像素子(単板式の撮像素子)
12Bb 撮像素子(高解像度の単板式の撮像素子)
12Cb 撮像素子(多板式の撮像素子)
12Db 撮像素子(高解像度の多板式の撮像素子)
12EbC 撮像素子(単板式の撮像素子)
12EbK 撮像素子(モノクロの2次元画像を取得する撮像素子)
13b,13Bb,13Cb,13Db,13Eb,13Fb,13Gb,13Hb 撮像素子(モノクロの2次元画像を取得する撮像素子)
151 CPU(算出部)
Q 被写体
QL,QR 2次元画像
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a multi-view data input device for acquiring three-dimensional data.
[0002]
[Prior art]
Conventionally, a multi-view data input device is known as one of passive type three-dimensional data input devices. The multi-view data input device includes a plurality of input units for obtaining a two-dimensional image, a calculation unit for calculating three-dimensional data based on the obtained two-dimensional images, and the like.
[0003]
In order to generate three-dimensional data using such an apparatus, one of the obtained two-dimensional images is set as a reference image. For all coordinate points in the region indicating the subject in the reference image, coordinate points corresponding to them in other two-dimensional images are obtained. These corresponding points can be obtained by the gradient method or the correlation method using the shades of the pixels constituting the two-dimensional image. Based on the corresponding points, the positions of the points in the three-dimensional space are obtained by the principle of stereo vision. A set of position data of the obtained points is three-dimensional data about the subject.
[0004]
In the conventional apparatus, an imaging element that acquires a monochrome two-dimensional image is used in the left and right input units.
[0005]
[Problems to be solved by the invention]
However, when a monochrome image sensor is used, it is convenient to search for corresponding points, but since a color image cannot be obtained, color mapping for three-dimensional data is realized after generating three-dimensional data. Can not do it.
[0006]
For this reason, it is necessary to separately use a camera capable of shooting a color two-dimensional image and to perform shooting separately from shooting for three-dimensional data. For this reason, it takes time for photographing, and the positional relationship between photographing for three-dimensional data and photographing for a color two-dimensional image is not constant, so that it is not easy to perform alignment when performing color mapping. There was also a problem.
[0007]
The present invention has been made in view of the above-described problems. A two-dimensional image for three-dimensional data and a two-dimensional image for color mapping can be simultaneously acquired by one photographing, and the configuration is simple. An object of the present invention is to provide a multi-view data input device.
[0008]
  An apparatus according to the invention of claim 1CoveredA multi-view data input device having a plurality of image input units for inputting a two-dimensional image of a subject from a plurality of different viewpoint positions, wherein one image input unit of the plurality of image input unitsIn,An imaging device capable of acquiring a color two-dimensional image is provided,Other image input sectionIs provided with an image pickup device that acquires a monochrome two-dimensional image, and the color image pickup device and the monochrome image pickup device have the same resolution. For pixels of colors that are not output, the image data of each color is obtained for all pixels by performing interpolation using image data output from neighboring pixels, and the data value of the image data of each color for the same pixel Is added at a predetermined ratio to obtain image data indicating the luminance of each pixel, and for the monochrome image sensor, image data indicating the luminance is obtained from the image data output from each pixel for all pixels. likeIt is configured.
[0009]
  Claim 2And 6The device according to the inventionsoIsColor image sensor, Single-plate image sensor with color filterIt is.
[0010]
  Claim 3And 7In the apparatus according to the invention,The color image sensor is a multi-plate image sensor having a color filter.
[0011]
  Claim 4And 8The device according to the invention ofA calculation unit configured to calculate three-dimensional data of the subject based on the two-dimensional image;
[0012]
  A device according to the invention of claim 5Is,A multi-view data input device having a plurality of image input units for inputting a two-dimensional image of a subject from a plurality of different viewpoint positions, wherein one image input unit of the plurality of image input units Is provided with an image sensor that can acquire a color two-dimensional image, and the other image input unit is provided with an image sensor that acquires a monochrome two-dimensional image.SaidColorThe image sensorMonochromeThe resolution is higher than that of the image sensor.
[0018]
DETAILED DESCRIPTION OF THE INVENTION
[First Embodiment]
FIG. 1 is a perspective view of a multi-lens input camera 5 showing a first embodiment of the present invention, FIG. 2 is a diagram showing an example of the configuration of a three-dimensional data generation apparatus 1 including the multi-lens input camera 5, and FIG. It is a figure which shows notionally the mode at the time of imaging | photography of the to-be-photographed object Q using the multi-lens input camera 5.
[0019]
As shown in FIG. 1, the multi-lens input camera 5 includes a camera body 11, image input units 12 and 13 having photographing lenses 12 a and 13 a, a texture projection unit 16, a shutter 155, and the like. Although not shown in FIG. 1, a processing circuit 15 is built in the multi-lens input camera 5.
[0020]
As shown in FIG. 2, the three-dimensional data generation device 1 includes an information processing device 4 and a multi-lens input camera 5. The information processing device 4 includes a processing device 21, a display device 22 having a display surface HG, an input device 23 including a keyboard and a mouse, and the like. The processing device 21 incorporates a CPU, RAM, ROM, other peripheral elements, an interface device, a hard disk device, a floppy disk device, a CD-ROM device, a modem, and other devices. As such an information processing apparatus 4, a personal computer in which an appropriate program is installed can be used.
[0021]
As shown in FIG. 2, the multi-lens input camera 5 is provided with display devices 12c and 13c made of a liquid crystal panel or the like for displaying the captured two-dimensional images QL and QR, respectively.
[0022]
Data transfer can be performed between the multi-lens input camera 5 and the information processing apparatus 4. It is also possible to display a two-dimensional image input from the multi-lens input camera 5 on the information processing apparatus 4. The information processing device 4 can generate three-dimensional data based on the two-dimensional image input from the multi-lens input camera 5 and display the generated three-dimensional data on the display surface HG.
[0023]
As shown in FIG. 3, the subject Q is captured with parallax by the two photographing lenses 12a and 13a together with the background QK, and is displayed as the two-dimensional images QL and QR on the respective display devices 12c and 13c. Yes. Based on these two-dimensional images QL and QR, corresponding points are searched as pre-processing for generating three-dimensional data. That is, one of the two two-dimensional images QL and QR is used as a reference image, and corresponding points corresponding to them in other two-dimensional images are obtained for all coordinate points in the region indicating the subject Q in the reference image. . Based on the corresponding points, three-dimensional data is obtained by calculation according to the principle of stereo vision. In the present specification, searching for a corresponding point or processing for that purpose may be referred to as “corresponding point search”.
[0024]
FIG. 4 is a diagram for explaining the concept of corresponding point search.
In FIG. 4, the image of the subject Q is formed on the imaging surfaces of the imaging elements 12 b and 13 b provided in the image input units 12 and 13. A two-dimensional image QL formed on the left image sensor 12b is set as a reference image. Note that the two-dimensional images QL and QR obtained by the imaging elements 12b and 13b are the same as the two-dimensional images QL and QR displayed on the display devices 12c and 13c. The corresponding point search is performed as follows.
[0025]
That is, in the corresponding point search, when an arbitrary point on the subject Q is set as the gazing point A, the point L1 indicating the gazing point A on the imaging surface of the imaging element 12b that captures the reference image is changed to the other imaging element 13c. This is an operation for determining what coordinate point corresponds to the image pickup surface. In the corresponding point search, the brightness of the two-dimensional images QL and QR can be used, and a conventionally known method such as a gradient method or a correlation method can be used. By using these methods, it can be seen in FIG. 4 that the point L1 on the imaging surface of the imaging device 12b corresponds to R1 on the imaging surface of the imaging device 13c. By performing such corresponding point search for all points on the subject Q, the positions of all the points on the three-dimensional coordinates can be known, and the three-dimensional shape of the subject Q can be obtained.
[0026]
As a subject for which the corresponding point search is easily performed, an object having a luminance difference between adjacent pixels is preferable. Moreover, the thing with a texture (pattern pattern) is better than the thing of a single color. If there is no texture, it is better to have curves and edges than to a flat one. However, when there is a curve or an edge, there is a problem that an occlusion (a blind spot) occurs depending on the degree.
[0027]
That is, when the subject Q is deep in the depth direction, the base line length, which is the distance between the optical axes of the two image input units 12 and 13 of the multi-lens input camera 5, the focal length of the lens, and the imaging elements 12b and 13b. Depending on the pixel size and the like, there is a possibility that a visible part and an invisible part appear between the images. In particular, when the gradient method is used for the corresponding point search, a step is a problem. Therefore, although there is a problem of degree, a subject having a gentle difference in brightness on the surface and a gentle inclination is a subject whose corresponding points are easily obtained.
[0028]
Now, after generating the three-dimensional data, color mapping is performed on the three-dimensional data. That is, color display is performed by pasting a color two-dimensional image on three-dimensional data. For this purpose, an image sensor capable of acquiring a color two-dimensional image is provided.
[0029]
FIG. 5 is a block diagram showing the configuration of the multi-lens input camera 5, FIG. 6 is a diagram showing an example of the pixel configuration of the imaging elements 12b and 13b, and FIG. 7 is a diagram showing extracted pixels of each color of the single-plate color CCD. .
[0030]
In FIG. 5, the multi-lens input camera 5 includes the image input units 12 and 13 and the processing circuit 15 as described above. The image input units 12 and 13 are provided with photographing lenses 12a and 13a and imaging elements 12b and 13b.
[0031]
A single-plate color CCD is used as the image sensor 12b. The two-dimensional image obtained by the image sensor 12b is used for both corresponding point search and color mapping. A monochrome CCD is used as the image sensor 13b. The two-dimensional image obtained by the image sensor 13b is used only for searching for corresponding points.
[0032]
The processing circuit 15 includes a CPU 151, memories 152 and 153, and the like. Although not shown, the shutter 155 described above, various buttons for normal operation of the multi-lens input camera 5, and other devices are also provided.
[0033]
Image data output from the image sensors 12b and 13b is temporarily stored in the memories 152 and 153. The image data stored in the memories 152 and 153 is read by the CPU 151 and subjected to necessary processing. As processing of the CPU 151, processing for generating three-dimensional data can also be performed. The image data stored in the memories 152 and 153 or the image data processed by the CPU 151 can be output to the outside.
[0034]
As shown in FIG. 6A, an image sensor 12b made of a single-plate color CCD is assigned pixels of each color of R (red), G (green), and B (blue) on one CCD surface. ing. Therefore, R, G, B image data is not obtained for all pixels, but only one color image data is obtained from one pixel.
[0035]
On the other hand, as shown in FIG. 6B, the image sensor 13b made of a monochrome CCD has the same resolution as the image sensor 12b, and image data indicating luminance is obtained from all pixels.
[0036]
As can be understood from the above description, the “pixel” of the image sensor in this specification refers to one cell of the image sensor. The “resolution” for the image sensor is a value determined by the number of cells of the image sensor.
[0037]
7A, 7 </ b> B, and 7 </ b> C, the arrangement of the image sensor 12 b with respect to R is the R pixel surface 12 b R, the arrangement with respect to G is the G pixel surface 12 b G, and the arrangement with respect to B is the B pixel surface 12 b B. , Respectively.
[0038]
As can be seen from these figures, each color has pixels without image data. Therefore, for each color, pixels without image data need to be created by complementation.
[0039]
For example, when viewing the G pixel surface 12bG, G (0, 0) can use the same data value. However, since G (1, 0) has no image data, it is necessary to interpolate using the image data of G (0, 0), G (2, 0), and G (1, 1) that are in the vicinity thereof. There is. That is,
G (1,0) = [G (0,0) + G (2,0) + G (1,1)] / 3
Asking. For G (2,1),
G (2,1) = [G (2,0) + G (1,1) + G (1,3) + G (2,2)] / 4
Asking. Thus, for pixels without image data, data values are obtained by interpolation using image data of neighboring pixels.
[0040]
For the R pixel surface 12bR and the B pixel surface 12bB, the same processing is performed for pixels without image data to obtain data values. As a result, image data of R, G, and B colors can be obtained for all pixels.
[0041]
Then, luminance and color information of each pixel is obtained based on the obtained image data. To obtain the luminance of each pixel, the data values of R, G, and B for the same pixel are added at a predetermined ratio. That is, assuming that the coordinates of a pixel are i, j, the luminance value Y i, j of the pixel is expressed by the following equation (1):
Yi, j = A1.Ri, j + B1.Gi, j + C1.Bi, j (1)
Indicated by A1, B1, and C1 are coefficients, respectively. For example, A1 = 0.2990, B1 = 0.5870, and C1 = 0.1140.
[0042]
In this manner, the corresponding point search is performed based on the luminance value of each pixel obtained from the image sensor 12b and the luminance value of each pixel obtained from the image sensor 13b. For color mapping, the image data obtained from the image sensor 12b is used as it is. In this way, a two-dimensional image for searching for corresponding points and a two-dimensional image for color mapping are obtained simultaneously by one image sensor 12b.
[0043]
However, with such an interpolation method, it is not possible to obtain accurate luminance for all pixels. As a result, compared with a case where a corresponding point search is performed using a monochrome image, there is a case where it is not possible to correspond to a pixel that should originally correspond, and there is a case where accuracy is lowered.
[0044]
However, it is possible to realize a substantially accurate three-dimensional shape formation by performing visual correction by an optimization process using an algorithm for reconstructing the three-dimensional shape.
[0045]
According to the above embodiment, it is possible to generate three-dimensional data with a simple configuration. Since the single image sensor 12b serves as both the corresponding point search image sensor and the color mapping image sensor, the configuration is simple and the correspondence between the two-dimensional image and the three-dimensional data is known, so that the alignment is performed during color mapping. Is easy. Also, the calibration for obtaining the positional relationship between the image input units 12 and 13 necessary for the reconstruction of the three-dimensional data can be reduced by the amount of the image sensor.
[Second Embodiment]
FIG. 8 is a diagram showing an example of the pixel configuration of the image sensors 12Bb and 13Bb according to the second embodiment of the present invention.
[0046]
In the second embodiment, the configurations of the multi-lens input camera 5B and the three-dimensional data generation device 1 are basically the same as those in the first embodiment. The differences between the multi-lens input camera 5B are as follows.
[0047]
That is, in the first embodiment, the image pickup devices 12b and 13b have the same resolution, although there is a difference that one is a color CCD and the other is a monochrome CCD. In contrast, in the second embodiment, the resolution of one image sensor 12Bb that is a color CCD is higher than the resolution of the other image sensor 13Bb that is a monochrome CCD. Specifically, the resolution of the image sensor 12Bb is four times the resolution of the image sensor 13Bb. However, other suitable multiple resolutions can be used.
[0048]
As shown in FIG. 8, one pixel of the monochrome CCD image sensor 13Bb corresponds to four pixels of the color CCD image sensor 12Bb. Therefore, the luminance value corresponding to the luminance value of one pixel of the monochrome CCD can be accurately obtained from the four pixels of the color CCD, that is, image data of each color of R, G, G, and B, without performing interpolation. Can do. Thereby, compared with the case of 1st Embodiment, a corresponding point search can be performed still more correctly and a reliable three-dimensional shape can be reconfigure | reconstructed.
[0049]
As a method for obtaining the luminance value of the color CCD corresponding to the luminance value of one pixel of the monochrome CCD, as shown in the first embodiment, the luminance value for each pixel of the color CCD is obtained. May be added at a predetermined ratio. Even in this case, since it is not necessary to perform interpolation, the luminance value can be obtained accurately, and the corresponding point search can be performed more accurately.
[0050]
Here, a color mapping method will be described.
FIG. 9 is a diagram showing an example of the three-dimensional shape QF1 reconstructed by the three-dimensional data generation apparatus 1, and FIGS. 10 and 11 are polygons PG forming the three-dimensional shape QF and 2 for color mapping corresponding to each point. It is a figure which shows the relationship with a dimension image (henceforth "mapping image QM"). 10 shows a case where the mapping image QM2 has a low resolution, and FIG. 11 shows a case of the present embodiment where the mapping image QM3 has a high resolution.
[0051]
In FIG. 9, each point 1, 2, 3,... Indicated by a black circle is a point constituting the three-dimensional shape QF1, that is, three-dimensional data of each point. The polygon PG is formed by any three points.
[0052]
Now, each point of the three-dimensional shape QF is obtained based on the correspondence between the two two-dimensional images input to the image sensors 12Bb and 13Bb. By using the color information of the points used at that time, the three-dimensional shape QF Color mapping can be performed for each polygon PG of the shape QF.
[0053]
In FIG. 10, the color mapping for the polygon PG2 of the three-dimensional shape QF2 will be described. The points “1”, “2”, and “3” that form the polygon PG2 correspond to the images “4”, “5”, and “6” of the mapping image QM2, respectively. Therefore, these three images are pasted on the polygon PG2 as shown in the figure.
[0054]
In FIG. 11, the color mapping for the polygon PG3 of the three-dimensional shape QF3 will be described. The points “1”, “2”, and “3” that form the polygon PG3 correspond to the images “4”, “5”, and “6” of the mapping image QM3, respectively. Each of these images consists of four pixels, and therefore the resolution of the images is high. These three images are pasted on the polygon PG3 as shown in the figure, but since the resolution of each image is high, the resolution of the image color-mapped to the polygon PG3 is higher than in the case of FIG. I understand that.
[0055]
That is, as in the present embodiment, by setting the color CCD resolution higher than the monochrome CCD resolution, a high-resolution mapping image QM can be obtained. Can be mapped. Therefore, the visual effect of the color-mapped three-dimensional shape QF is high. For example, even when the accuracy of the three-dimensional shape QF is poor, or even when the three-dimensional shape QF has a defect, it can be visually improved by the high-resolution mapping image QM.
[Third Embodiment]
FIG. 12 is a diagram showing the configuration of the image input unit 12C according to the third embodiment of the present invention, and FIG. 13 is a diagram showing the configuration of the image input unit 13C.
[0056]
In the third embodiment, the configurations of the multi-lens input camera 5C and the three-dimensional data generation device 1 are basically the same as those in the first embodiment. The difference between the multi-lens input camera 5C is as follows.
[0057]
That is, in the first embodiment, a single-plate color CCD is used as the image sensor 12b. However, in the third embodiment, a multi-plate color CCD as shown in FIG. 12 is used as the image sensor 12Cb. .
[0058]
In FIG. 12, an image input unit 12C includes a photographing lens 12Ca, a prism 121, a filter 122 that reflects an R component, a filter 123 that reflects only a G component, and imaging elements 12CbR and 12CbG for R, G, and B colors. , 12CbB.
[0059]
The light LL that has entered the prism 121 after passing through the photographing lens 12Ca is first divided in optical path by the filter 122. The R component of the light LL is reflected by the prism 121 and received by the image sensor 12CbR. The G component is transmitted through the filter 122, reflected by the filter 123, and received by the image sensor 12CbG. The B component passes through the filters 122 and 123 and is received by the image sensor 12CbB.
[0060]
In FIG. 13, the image input unit 13C includes a photographing lens 13Ca and an image sensor 13Cb that is a monochrome CCD. The configuration of the image input unit 13C is the same as the configuration of the image input units 13 and 13B of the first and second embodiments.
[0061]
The resolution of each image sensor 12CbR, 12CbG, 12CbB and the resolution of the image sensor 13Cb are the same. That is, one pixel of each color component of R, G, B in each color CCD is the same size as one pixel of the monochrome CCD.
[0062]
Therefore, in the image input unit 12C, the luminance of each pixel can be obtained from the R, G, and B image data of each pixel of the imaging elements 12CbR, 12CbG, and 12CbB by the above equation (1). That is, the luminance value corresponding to the luminance value of one pixel of the monochrome CCD can be accurately obtained without performing interpolation. Thereby, the corresponding point search can be performed more accurately, and a highly reliable three-dimensional shape can be reconstructed. Further, for the mapping image QM obtained by the image input unit 12C, complete color information can be obtained without interpolating the color information, and the visual effect is good.
[Fourth Embodiment]
FIG. 14 is a diagram showing an example of the pixel configuration of the image sensors 12Db and 13Db according to the fourth embodiment of the present invention.
[0063]
In the fourth embodiment, the configurations of the multi-lens input camera 5D and the three-dimensional data generation device 1 are basically the same as those in the first and third embodiments. The differences between the multi-view input camera 5D and the third embodiment are as follows.
[0064]
That is, in the third embodiment, the color CCD and the monochrome CCD have the same resolution. On the other hand, in the fourth embodiment, the resolutions of the image pickup devices 12DbR, 12DbG, and 12DbB that are color CCDs are higher than the resolution of the image pickup device 13Db that is a monochrome CCD.
[0065]
As shown in FIG. 14, one pixel of the image pickup device 13Db that is a monochrome CCD extends over a plurality of pixel regions (a region of four pixels in this embodiment) of the image pickup devices 12DbR, 12DbG, and 12DbB that are color CCDs. . Therefore, the luminance value by the color CCD corresponding to one pixel of the monochrome CCD can be accurately obtained from the average value of a plurality of pixels.
[0066]
Then, a high-resolution mapping image QM can be obtained by the imaging elements 12DbR, 12DbG, and 12DbB, whereby a high-resolution image can be mapped.
[Fifth Embodiment]
FIG. 15 is a block diagram showing a configuration of a multi-lens input camera 5E according to the fifth embodiment of the present invention.
[0067]
In FIG. 15, the multi-lens input camera 5E includes image input units 12E and 13E and a processing circuit 15E. The image input unit 12E is provided with a photographing lens 12Ea, a filter 125, and two imaging elements 12EbC and 12EbK. The image input unit 13E is provided with a photographing lens 13Ea and an image sensor 13Eb that is a monochrome CCD. The configuration of the image input unit 13E is the same as the configuration of the image input units 13 to 13D of the first to fourth embodiments.
[0068]
As the image sensor 12EbC, the same single-plate color CCD as the image sensor 12b shown in FIG. 6A is used. Therefore, the image pickup device 12EbC has the same resolution as the image pickup devices 12EbK and 13Eb, which are monochrome CCDs, and R, G, and B pixels are assigned to one CCD surface, and one pixel Can obtain image data of only one color. As the image pickup devices 12EbK and 13Eb, the same monochrome CCD as the image pickup device 13b shown in FIG. 6B is used.
[0069]
The filter 125 divides the light incident on the photographing lens 12Ea into two optical paths, and guides the light to the imaging element 12EbC that is a color CCD and the imaging element 12EbK that is a monochrome CCD. The two-dimensional image obtained by the image sensor 12EbC is used for color mapping, and the two-dimensional image obtained by the image sensor 12EbK is used for searching for corresponding points. The two-dimensional image obtained by the image sensor 13Eb is used for searching for corresponding points.
[0070]
That is, the image sensors 12EbK and 13Eb, which are monochrome CCDs, are used for searching for corresponding points, and separately, the image sensor 12EbC, which is a single-plate color CCD, is used for color mapping.
[0071]
The processing circuit 15E is provided with memories 152C, 152K, and 153 for storing image data output from the imaging elements 12EbC, 12EbK, and 13Eb, respectively. The CPU 151 processes the image data stored in the memories 152C, 152K, and 153, and performs processing for searching for corresponding points, generating a three-dimensional shape QF, color mapping, and the like.
[0072]
In the present embodiment, since the corresponding point search is performed by the two-dimensional images obtained by the two image pickup devices 12EbK and 13Eb having the same resolution made of the monochrome CCD, the ideal corresponding point search with high reliability is performed. It is possible to accurately reconstruct the three-dimensional shape QF.
[Sixth Embodiment]
In the sixth embodiment, the configurations of the multi-lens input camera 5F and the three-dimensional data generation device 1 are basically the same as those of the fifth embodiment. The difference between the multi-lens input camera 5F is as follows.
[0073]
That is, in the fifth embodiment, the resolution of the color CCD and the resolution of the monochrome CCD are the same, but in the sixth embodiment, the resolution of the color CCD is higher than the resolution of the monochrome CCD. Specifically, for example, there is a relationship between the image sensor 12Bb which is a color CCD and the image sensor 13Bb which is a monochrome CCD shown in FIG.
[0074]
That is, the multi-view input camera 5F of the sixth embodiment is a combination of the features of the multi-view input camera 5E of the fifth embodiment and the features of the multi-view input camera 5B of the second embodiment. it can.
[0075]
Therefore, according to the sixth embodiment, a high-resolution mapping image QM can be obtained, and a high-resolution image can be mapped to the three-dimensional shape QF. Accordingly, the visual effect of the color-mapped three-dimensional shape QF is enhanced.
[Seventh Embodiment]
In the seventh embodiment, the configurations of the multi-lens input camera 5G and the three-dimensional data generation device 1 are basically the same as those of the fifth embodiment. The differences between the multi-view input camera 5G are as follows.
[0076]
That is, a single-plate color CCD is used in the fifth embodiment, but a multi-plate color CCD as shown in FIG. 12 is used in the sixth embodiment.
[0077]
That is, the multi-view input camera 5G of the seventh embodiment is a combination of the features of the multi-view input camera 5E of the fifth embodiment and the features of the multi-view input camera 5C of the third embodiment. it can.
[0078]
Therefore, according to the seventh embodiment, it is possible to accurately obtain the luminance value corresponding to the luminance value of one pixel of the monochrome CCD without performing interpolation, and thereby the corresponding point search is performed more accurately. And a highly reliable three-dimensional shape can be reconstructed.
[Eighth Embodiment]
In the eighth embodiment, the configurations of the multi-lens input camera 5H and the three-dimensional data generation device 1 are basically the same as those in the seventh embodiment. The differences between the multi-view input camera 5H are as follows.
[0079]
That is, in the seventh embodiment, the multi-plate color CCD and the monochrome CCD have the same resolution. On the other hand, in the eighth embodiment, the resolution of the multi-plate color CCD is higher than that of the monochrome CCD.
[0080]
That is, the multiview input camera 5H of the eighth embodiment is a combination of the features of the multiview input camera 5G of the seventh embodiment and the features of the multiview input camera 5D of the fourth embodiment. it can.
[0081]
Therefore, according to the eighth embodiment, the luminance value by the multi-plate color CCD corresponding to one pixel of the monochrome CCD can be accurately obtained from the average value of a plurality of pixels. A multi-plate color CCD can obtain a high-resolution mapping image QM, and thereby a high-resolution image can be mapped.
[0082]
According to each embodiment described above, by configuring only one image input unit among the plurality of image input units so that the specifications relating to image quality are different from those of other image input units, After shooting with one shot, a two-dimensional image that can be used for both corresponding point search and color mapping can be obtained simultaneously.
[0083]
The eight embodiments have been described above. Although part of the description of the effects of the respective embodiments has been omitted, it is obvious when considering the effects of other related embodiments. Also, various combinations of these embodiments are possible.
[0084]
In the embodiment described above, the case where a still image is input as a two-dimensional image has been described, but the present invention can be similarly applied to a case where a moving image is input as a two-dimensional image. In addition, the configuration, shape, material, processing content, order, etc. of the whole or each part of the information processing apparatus 4, the multi-lens input camera 5 to 5H, or the three-dimensional data generation apparatus 1 may be appropriately changed in accordance with the spirit of the present invention. Can do.
[0085]
【The invention's effect】
According to the present invention, there is provided a multi-view data input device that can simultaneously acquire a two-dimensional image for three-dimensional data and a two-dimensional image for color mapping by one photographing, and has a simple configuration. be able to.
[0086]
  Claim 2And 6According to the present invention, the configuration is simpler.
  Claim5 to 8According to the invention, it is possible to obtain a mapping image with high resolution, and to enhance the visual effect of the color-mapped three-dimensional shape.
[0087]
  AlsoThus, the luminance value necessary for the corresponding point search can be accurately obtained without performing interpolation.AndAn ideal corresponding point search with high reliability is performed, and the three-dimensional shape can be accurately reconstructed.
[Brief description of the drawings]
FIG. 1 is a perspective view of a multi-lens input camera showing a first embodiment of the present invention.
FIG. 2 is a diagram illustrating an example of a configuration of a three-dimensional data generation apparatus including a multi-view input camera.
FIG. 3 is a diagram conceptually showing a state when a subject is photographed using a multi-lens input camera.
FIG. 4 is a diagram for explaining a concept of corresponding point search.
FIG. 5 is a block diagram illustrating a configuration of a multi-lens input camera.
FIG. 6 is a diagram illustrating an example of a pixel configuration of an image sensor.
FIG. 7 is a view showing pixels of each color extracted from a single-plate color CCD.
FIG. 8 is a diagram illustrating an example of a pixel configuration of an image sensor according to a second embodiment of the present invention.
FIG. 9 is a diagram illustrating an example of a three-dimensional shape reconstructed by a three-dimensional data generation apparatus.
FIG. 10 is a diagram illustrating a relationship between a polygon and a low-resolution mapping image.
FIG. 11 is a diagram illustrating a relationship between a polygon and a high-resolution mapping image.
FIG. 12 is a diagram illustrating a configuration of an image input unit according to a third embodiment of the present invention.
FIG. 13 is a diagram illustrating a configuration of an image input unit.
FIG. 14 is a diagram illustrating an example of a pixel configuration of an image sensor according to a fourth embodiment of the present invention.
FIG. 15 is a block diagram showing a configuration of a multi-lens input camera according to a fifth embodiment of the present invention.
[Explanation of symbols]
1 3D data generator
5-5H multi-lens input camera (multi-lens data input device)
12 Image input unit (one image input unit)
13 Image input unit (other image input units)
12b Image sensor (single-plate image sensor)
12Bb image sensor (high resolution single-plate image sensor)
12Cb image sensor (multi-plate image sensor)
12Db image sensor (high resolution multi-plate image sensor)
12EbC image sensor (single-plate image sensor)
12EbK image pickup device (image pickup device for obtaining a monochrome two-dimensional image)
13b, 13Bb, 13Cb, 13Db, 13Eb, 13Fb, 13Gb, 13Hb Image sensor (image sensor for acquiring a monochrome two-dimensional image)
151 CPU (calculation unit)
Q Subject
QL, QR 2D image

Claims (8)

被写体の2次元画像を互いに異なる複数の視点位置から入力する複数の画像入力部を有してなる多眼式データ入力装置であって、
前記複数の画像入力部のうちの1つの画像入力部にはカラーの2次元画像を取得することのできる撮像素子が設けられ、他の画像入力部には、モノクロの2次元画像を取得する撮像素子が設けられ、
前記カラーの撮像素子と前記モノクロの撮像素子とは解像度が同じであり、
前記カラーの撮像素子について、その画素のうちの画像データが出力されない色の画素についてはその近傍の画素から出力される画像データを用いて補間を行うことにより、全ての画素について各色の画像データを得て、同じ画素についての各色の画像データのデータ値を所定の割合で加算することにより、各画素の輝度を示す画像データを得るようにし、
前記モノクロの撮像素子については全ての画素について各画素から出力される画像データから輝度を示す画像データを得るようにした、
ことを特徴とする多眼式データ入力装置。
A multi-view data input device having a plurality of image input units for inputting a two-dimensional image of a subject from a plurality of different viewpoint positions,
Into one image input unit of the plurality of image input unit, an imaging device is provided that can obtain a two-dimensional color image, other image input unit, acquires the two-dimensional image of the monochrome An image sensor is provided,
The color image sensor and the monochrome image sensor have the same resolution,
With respect to the color image sensor, by interpolating using the image data output from the neighboring pixels for the color pixels for which no image data is output among the pixels, the image data for each color is obtained for all the pixels. Obtaining the image data indicating the luminance of each pixel by adding the data values of the image data of each color for the same pixel at a predetermined ratio,
For the monochrome image sensor, image data indicating luminance is obtained from image data output from each pixel for all pixels.
A multi-view data input device.
前記カラーの撮像素子は、カラーフィルタを有した単板式の撮像素子である、
請求項1記載の多眼式データ入力装置。
The color image sensor is a single-plate image sensor having a color filter .
The multi-view data input device according to claim 1.
前記カラーの撮像素子は、カラーフィルタを有した多板式の撮像素子である、The color image sensor is a multi-plate image sensor having a color filter.
請求項1記載の多眼式データ入力装置。The multi-view data input device according to claim 1.
前記2次元画像に基づいて前記被写体の3次元データを算出する算出部を有してなる、A calculation unit that calculates three-dimensional data of the subject based on the two-dimensional image;
請求項1乃至請求項3記載の多眼式データ入力装置。The multi-view data input device according to claim 1.
被写体の2次元画像を互いに異なる複数の視点位置から入力する複数の画像入力部を有してなる多眼式データ入力装置であって、
前記複数の画像入力部のうちの1つの画像入力部には、カラーの2次元画像を取得することのできる撮像素子が設けられ、他の画像入力部には、モノクロの2次元画像を取得する撮像素子が設けられ、
前記カラーの撮像素子は、前記モノクロの撮像素子よりも高解像度である、
ことを特徴とする多眼式データ入力装置。
A multi-view data input device having a plurality of image input units for inputting a two-dimensional image of a subject from a plurality of different viewpoint positions,
One image input unit among the plurality of image input units is provided with an imaging device capable of acquiring a color two-dimensional image, and the other image input unit acquires a monochrome two-dimensional image. An image sensor is provided,
The color image sensor has a higher resolution than the monochrome image sensor.
A multi-view data input device.
前記カラーの撮像素子は、カラーフィルタを有した単板式の撮像素子である、The color image sensor is a single-plate image sensor having a color filter.
請求項5記載の多眼式データ入力装置。The multi-view data input device according to claim 5.
前記カラーの撮像素子は、カラーフィルタを有した多板式の撮像素子である、The color image sensor is a multi-plate image sensor having a color filter.
請求項5記載の多眼式データ入力装置。The multi-view data input device according to claim 5.
前記2次元画像に基づいて前記被写体の3次元データを算出する算出部を有してなる、A calculation unit that calculates three-dimensional data of the subject based on the two-dimensional image;
請求項5乃至請求項7記載の多眼式データ入力装置。The multi-view data input device according to claim 5.
JP18833999A 1999-07-02 1999-07-02 Multi-view data input device Expired - Fee Related JP4193292B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18833999A JP4193292B2 (en) 1999-07-02 1999-07-02 Multi-view data input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18833999A JP4193292B2 (en) 1999-07-02 1999-07-02 Multi-view data input device

Publications (2)

Publication Number Publication Date
JP2001016621A JP2001016621A (en) 2001-01-19
JP4193292B2 true JP4193292B2 (en) 2008-12-10

Family

ID=16221895

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18833999A Expired - Fee Related JP4193292B2 (en) 1999-07-02 1999-07-02 Multi-view data input device

Country Status (1)

Country Link
JP (1) JP4193292B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105025193A (en) * 2014-04-29 2015-11-04 钰创科技股份有限公司 Portable stereo scanner and method for generating stereo scanning result of corresponding object
CN105282375A (en) * 2014-07-24 2016-01-27 钰创科技股份有限公司 Attached Stereo Scanning Module
WO2020193036A1 (en) 2019-03-22 2020-10-01 Arcelik Anonim Sirketi A washing machine comprising a lifter

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4540322B2 (en) * 2003-09-29 2010-09-08 Hoya株式会社 Inter-image corresponding point detection apparatus and inter-image corresponding point detection method
JP2007263563A (en) 2004-06-03 2007-10-11 Matsushita Electric Ind Co Ltd Camera module
EP2202682A4 (en) 2007-10-15 2011-06-01 Nippon Telegraph & Telephone Image generation method, device, its program and program recorded medium
JP5549564B2 (en) 2010-12-02 2014-07-16 コニカミノルタ株式会社 Stereo camera
JP5863280B2 (en) * 2011-05-24 2016-02-16 キヤノン株式会社 Imaging apparatus, image processing method, and program
JP5598425B2 (en) * 2011-06-07 2014-10-01 コニカミノルタ株式会社 Image processing apparatus, program thereof, image processing system, and image processing method
JP6152646B2 (en) * 2012-03-21 2017-06-28 株式会社リコー Compound eye camera device and vehicle equipped with the same
JP2013236172A (en) * 2012-05-07 2013-11-21 Samsung Techwin Co Ltd Parallax detection device and parallax detection method
JP2012257282A (en) * 2012-07-26 2012-12-27 Casio Comput Co Ltd Three-dimensional image generation method
JP6201476B2 (en) * 2013-07-18 2017-09-27 凸版印刷株式会社 Free viewpoint image capturing apparatus and method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105025193A (en) * 2014-04-29 2015-11-04 钰创科技股份有限公司 Portable stereo scanner and method for generating stereo scanning result of corresponding object
CN105025193B (en) * 2014-04-29 2020-02-07 钰立微电子股份有限公司 Portable stereo scanner and method for generating stereo scanning result of corresponding object
CN105282375A (en) * 2014-07-24 2016-01-27 钰创科技股份有限公司 Attached Stereo Scanning Module
CN105282375B (en) * 2014-07-24 2019-12-31 钰立微电子股份有限公司 Attached stereo scanning module
WO2020193036A1 (en) 2019-03-22 2020-10-01 Arcelik Anonim Sirketi A washing machine comprising a lifter

Also Published As

Publication number Publication date
JP2001016621A (en) 2001-01-19

Similar Documents

Publication Publication Date Title
JP4065488B2 (en) 3D image generation apparatus, 3D image generation method, and storage medium
US8581961B2 (en) Stereoscopic panoramic video capture system using surface identification and distance registration technique
JP6021541B2 (en) Image processing apparatus and method
TWI489858B (en) Image capture using three-dimensional reconstruction
US20040001138A1 (en) Stereoscopic panoramic video generation system
TW200816800A (en) Single lens auto focus system for stereo image generation and method thereof
US20110025830A1 (en) Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation
CN102387374B (en) For obtaining equipment and the method for high-precision depth map
JP4193292B2 (en) Multi-view data input device
JP2018514237A (en) Texture mapping apparatus and method for dental 3D scanner
JP5633058B1 (en) 3D measuring apparatus and 3D measuring method
CN102484721A (en) Four-channel color filter array pattern
JPH09170914A (en) Method and apparatus for measurement with image
JP2011060216A (en) Device and method of processing image
WO2018032841A1 (en) Method, device and system for drawing three-dimensional image
JP5370606B2 (en) Imaging apparatus, image display method, and program
JPH05303629A (en) Method for synthesizing shape
JP6128748B2 (en) Image processing apparatus and method
JP2011165081A (en) Method and apparatus for generating image, and program
JPH1069543A (en) Method and device for reconstituting curved surface of object
JP2006119843A (en) Image forming method, and apparatus thereof
JP4554231B2 (en) Distortion parameter generation method, video generation method, distortion parameter generation apparatus, and video generation apparatus
JP6367803B2 (en) Method for the description of object points in object space and combinations for its implementation
JP6257260B2 (en) Imaging apparatus and control method thereof
JP3614898B2 (en) PHOTOGRAPHIC APPARATUS, IMAGE PROCESSING APPARATUS, AND STEREOGRAPHIC CREATION METHOD

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050613

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20050704

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080902

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080915

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111003

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121003

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131003

Year of fee payment: 5

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees