JP4983905B2 - 撮像装置、3dモデリングデータ生成方法、および、プログラム - Google Patents

撮像装置、3dモデリングデータ生成方法、および、プログラム Download PDF

Info

Publication number
JP4983905B2
JP4983905B2 JP2009294804A JP2009294804A JP4983905B2 JP 4983905 B2 JP4983905 B2 JP 4983905B2 JP 2009294804 A JP2009294804 A JP 2009294804A JP 2009294804 A JP2009294804 A JP 2009294804A JP 4983905 B2 JP4983905 B2 JP 4983905B2
Authority
JP
Japan
Prior art keywords
imaging
image
subject
corresponding point
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009294804A
Other languages
English (en)
Other versions
JP2011134221A (ja
Inventor
光康 中嶋
由紀 吉濱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2009294804A priority Critical patent/JP4983905B2/ja
Priority to US12/963,763 priority patent/US8786679B2/en
Priority to CN201010615610.4A priority patent/CN102164233B/zh
Publication of JP2011134221A publication Critical patent/JP2011134221A/ja
Application granted granted Critical
Publication of JP4983905B2 publication Critical patent/JP4983905B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、撮像装置、3Dモデリングデータ生成方法、および、プログラムに関し、特に、明暗差のある被写体からの3Dモデリングデータの生成に好適な撮像装置、3Dモデリングデータ生成方法、および、プログラムに関する。
コンピュータグラフィクスによる3次元(3D)表現が多く用いられるようになり、よりリアリティのある3D表現が求められている。このような要求に対し、実際の立体物をカメラで撮像して3Dモデリングデータを作成する手法が確立している。
この場合、立体物の3次元的位置を認識するため、視差に相当する光軸のズレが設定された、いわゆる複眼カメラ(ステレオカメラ)が用いられる。
また、撮像対象の立体物にテクスチャがなく、凹凸などの立体的形状が認識しにくい場合でも、例えば、ドットパターンなどのパターンを対象物に投影することで特徴点を得るようにしたパターン投影法も知られている(例えば、特許文献1)。
特開2007−101276号公報
パターンを投影した被写体を撮像することで3Dモデリングデータを作成する場合において、被写体に明暗差があると、被写体全体を適正露出とすることが困難であり、投影されたパターンを撮像画像から正確に認識することができないことがある。このような場合、高精度な3Dモデリングデータを容易に得ることができない。
本発明は、被写体に明暗差がある場合でも高精度な3Dモデリングデータを容易に作成することができる撮像装置、3Dモデリングデータ作成方法、および、プログラムを提供することを目的とする。
上記目的を達成するため、本発明の第1の観点にかかる撮像装置は、
同一の被写体について光軸位置が異なる2つの撮像画像を取得する撮像手段と、
前記撮像手段による前記被写体の撮像にかかる複数の露出条件を設定する露出設定手段と、
前記撮像手段を制御し、前記露出設定手段が設定した露出条件の数に応じた回数の撮像動作をおこなう撮像制御手段と、
前記撮像制御手段の制御によって得られた前記撮像画像に基づいて、前記2つの撮像画像間で対応する特徴点である対応点を抽出する対応点抽出手段と、
前記対応点抽出手段が抽出した、前記複数の露出条件それぞれで撮像された前記対応点ごとに、所定の条件に当てはまる前記対応点を選択する対応点最適化手段と、
前記対応点最適化手段が選択した前記対応点を重畳する対応点合成手段と、
前記対応点合成手段が重畳した前記対応点を用いて前記被写体の形状を表す3Dモデリングデータを生成する3Dモデリングデータ生成手段と、
を備えることを特徴とする。
上記撮像装置は、
被写体に投影パターンを投影するパターン投影手段をさらに備え
前記対応点抽出手段は、前記投影パターンを前記撮像画像上に写した像である画像パターンに基づいて、前記2つの撮像画像間で対応する特徴点である対応点を抽出することが望ましい。
上記撮像装置において、
前記露出設定手段は、少なくとも、前記被写体の明部が適正露出となる露出条件と、前記被写体の暗部が適正露出となる露出条件とを設定することが望ましい。
上記撮像装置において、
前記対応点最適化手段は、前記対応点抽出手段が抽出した前記対応点の密度が所定の条件にあてはまる前記対応点を選択することが望ましい。
上記撮像装置において、
前記対応点最適化手段は、前記対応点抽出手段が抽出した前記対応点の画素の値が所定の条件にあてはまる前記対応点を選択することが望ましい。
上記撮像装置は、
前記被写体の明暗差を判別する判別手段をさらに備えていてもよく、この場合、
前記露出設定手段は、前記判別手段の判別結果に応じて露出条件を設定することが望ましい。
上記目的を達成するため、本発明の第2の観点にかかる3Dモデリングデータ生成方法は、
同一の被写体について光軸位置が異なる画像ペアを得る撮像手段を備える撮像装置で当該被写体の3Dモデリングデータを生成する3Dモデリングデータ生成方法であって、
被写体の明部を適正露出とする前記撮像手段の撮像動作で第1の画像ペアを取得する第1の撮像ステップと、
前記被写体の暗部を適正露出とする前記撮像手段の撮像動作で第2の画像ペアを取得する第2の撮像ステップと、
前記第1の画像ペアおよび前記第2の画像ペアのそれぞれにおいて、対応する特徴点である対応点を抽出する対応点抽出ステップと、
前記第1の画像ペアおよび前記第2の画像ペアのそれぞれにおいて、前記対応点抽出ステップで抽出された前記対応点の密度が所定の条件にあてはまる前記対応点を選択する第1の対応点最適化ステップと、
前記第1の画像ペアおよび前記第2の画像ペア間において、前記対応点抽出ステップで抽出された前記対応点ごとに、画素の値が所定の条件にあてはまる前記対応点を選択する第2の対応点最適化ステップと、
前記第1の対応点最適化ステップおよび前記第2の対応点最適化ステップで選択した前記対応点を重畳し、該重畳した対応点を用いて前記被写体の形状を表す3Dモデリングデータを生成する3Dモデリングデータ生成ステップと、
を含むことを特徴とする。
上記目的を達成するため、本発明の第3の観点にかかるプログラムは、
同一の被写体について光軸位置が異なる2つの撮像画像を取得する撮像手段を備える撮像装置のコンピュータに、
前記撮像手段による前記被写体の撮像にかかる複数の露出条件を設定する機能と、
前記撮像手段を制御し、前記設定された露出条件の数に応じた回数の撮像動作をおこなう機能と、
前記撮像動作によって得られた前記撮像画像に基づいて、前記2つの撮像画像間で対応する特徴点である対応点を抽出する機能と、
前記抽出した、前記複数の露出条件それぞれで撮像された前記対応点ごとに、所定の条件に当てはまる前記対応点を選択する機能と、
前記選択した対応点を重畳する機能と、
前記重畳した対応点を用いて前記被写体の形状を表す3Dモデリングデータを生成する機能と、
を実現させることを特徴とする。
本発明によれば、高精度な3Dモデリングデータを容易に作成することができる。
本発明の実施形態にかかるデジタルカメラが複眼カメラ(平行ステレオカメラ)であることを説明するための図であり、(a)はデジタルカメラの外観構成を示し、(b)は平行ステレオの概念を示す。 本発明の実施形態にかかるデジタルカメラの構成を示すブロック図である。 図1に示す制御部によって実現される機能を示す機能ブロック図である。 図1(a)に示したデジタルカメラによる撮像動作を説明するための図であり、(a)は撮像対象となる被写体の例を示し、(b)は撮像によって得られる画像ペアの例を示す。 本発明の実施形態にかかる「3Dモデリング用撮像処理」を説明するためのフローチャートである。 図5に示す「3Dモデリング用撮像処理」で実行される「多段露出決定処理」を説明するためのフローチャートである。 図6に示す「多段露出決定処理」で表示される「測光点指定画面」の例を示す図であり、(a)はメッセージの表示例を示し、(b)は測光点の例を示す。 図5に示す「3Dモデリング用撮像処理」における撮像動作を説明するための図であり、(a)はパターンが投影された被写体の例を示し、(b)は被写体の明部を適正露出とした場合に得られる画像ペアの例を示し、(c)は被写体の暗部を適正露出とした場合に得られる画像ペアの例を示す。 図5に示す「3Dモデリング用撮像処理」で実行される「3Dモデリング処理」を説明するためのフローチャートである。 図9に示す「3Dモデリング処理」を説明するための図であり、(a)および(b)はテンプレートマッチングによって得られる対応点パターンの例を示し、(c)は最適化された対応点を合成した合成対応点の例を示す。 図9に示す「3Dモデリング処理」で実行される「対応点最適化処理(1)」を説明するためのフローチャートである。 図11に示す「対応点最適化処理(1)」を説明するための図であり、(a)および(b)はドット間の距離に基づく最適化の動作例を示し、(c)および(d)は最適化された対応点の例を示す。 図9に示す「3Dモデリング処理」で実行される「対応点最適化処理(2)」を説明するためのフローチャートである。 図13に示す「対応点最適化処理(2)」を説明するための図であり、(a)および(b)は異なる露出画像間での輝度に基づく最適化の動作例を示し、(c)および(d)は最適化された対応点の例を示す。 三角測量の原理を説明するための図である。
本発明にかかる実施形態を、図面を参照して以下に説明する。本実施形態では、本発明をデジタルスチルカメラ(以下、デジタルカメラ)によって実現した場合を例示する。本実施形態にかかるデジタルカメラ1は、一般的なデジタルスチルカメラが有する機能を備えているものとするが、図1(a)に示すように、撮像にかかる構成を2つ備えた、いわゆる複眼カメラ(ステレオカメラ)とする。
このような複眼カメラの構成を有するデジタルカメラ1には、通常の撮像機能に加え、撮像される画像を用いて3次元モデリング(3Dモデリング)をおこなう機能を有する。このため、3Dモデリングに好適な撮像画像が得られるよう、図1(a)に示すように、パターン投影部130(詳細後述)が構成されている。
このようなデジタルカメラ1の構成を、図2を参照して説明する。図2は、本発明の実施形態にかかるデジタルカメラ1の構成を示すブロック図である。本実施形態にかかるデジタルカメラ1の概略的構成は、図示するように、撮像動作部100、データ処理部200、インタフェース(I/F)部300、などである。
撮像動作部100は、デジタルカメラ1による撮像時の動作をおこなうものであり、図2に示すように、第1撮像部110、第2撮像部120、パターン投影部130、などから構成される。
第1撮像部110および第2撮像部120は、デジタルカメラ1の撮像動作をおこなう部分である。上述したように、本実施形態にかかるデジタルカメラ1は複眼カメラであるため、第1撮像部110と第2撮像部120とを有する構成であるが、第1撮像部110と第2撮像部120は同一の構成である。以下、第1撮像部110についての構成には110番台の参照符号を付し、第2撮像部120についての構成には120番台の参照符号を付す。
図2に示すように、第1撮像部110(第2撮像部120)は、光学装置111(121)やイメージセンサ部112(122)などから構成されている。
光学装置111(121)は、例えば、レンズ、絞り機構、シャッタ機構、などを含み、撮像にかかる光学的動作をおこなう。すなわち、光学装置111(121)の動作により、入射光が集光されるとともに、焦点距離、絞り、シャッタスピードなどといった、画角やピント、露出などにかかる光学的要素の調整がなされる。
なお、光学装置111(121)に含まれるシャッタ機構はいわゆるメカニカルシャッタであり、イメージセンサの動作のみでシャッタ動作をおこなう場合には、光学装置111(121)にシャッタ機構が含まれていなくてもよい。また、光学装置111(121)は、後述する制御部210による制御によって動作する。
イメージセンサ部112(122)は、光学装置111(121)によって集光された入射光に応じた電気信号を生成する、例えば、CCD(Charge Coupled Device:電荷結合素子)やCMOS(Complementally Metal Oxide Semiconductor:相補型金属酸化物半導体)などのイメージセンサから構成される。イメージセンサ部112(122)は、光電変換をおこなうことで、受光に応じた電気信号を発生してデータ処理部200に出力する。
上述したように、第1撮像部110と第2撮像部120は同一の構成である。より詳細には、レンズの焦点距離fやF値、絞り機構の絞り範囲、イメージセンサのサイズや画素数、配列、画素面積などの各仕様がすべて同一である。
このような第1撮像部110と第2撮像部120を有するデジタルカメラ1は、図1(a)に示すように、光学装置111に構成されたレンズと光学装置121に構成されたレンズとが、デジタルカメラ1の外面における同一面上に形成された構成とする。
ここでは、シャッタボタンが上になる方向でデジタルカメラ1を水平にした場合に、中心位置が水平方向で同一線上となるよう2つのレンズ(受光部)が配置されるものとする。つまり、第1撮像部110と第2撮像部120とを同時に動作させた場合、同一被写体についての画像が撮像されることになるが、各画像における光軸位置が横方向にずれている画像となる。
この場合、図1(b)の透視射影モデルに示すような光学的特性となるよう第1撮像部110と第2撮像部120が配置される。図1(b)に示す透視射影モデルは、X、Y、Zからなる3次元直交座標系に基づくものであり、第1撮像部110についてのこの座標系を以下「カメラ座標」と呼ぶ。図1(b)では、第1撮像部110の光学中心を原点としたカメラ座標を示している。
カメラ座標においては、Z軸をカメラの光学方向に一致する方向とし、X軸とY軸はそれぞれ画像の横方向と縦方向に平行する。ここで、光軸と画像座標面の交点を原点(すなわち、光学中心)とし、イメージセンサの画素間隔を換算してカメラ座標と長さの単位を合わせた場合、第1撮像部110についての画像座標面で被写体A1を示す画像座標を(u1, v1)とし、第2撮像部120についての画像座標面では(u'1, v'1)とする。
第1撮像部110と第2撮像部120は、それぞれの光軸が平行(すなわち、輻輳角が0)になり、かつ、第1撮像部110についての画像座標u軸と第2撮像部120についての画像座標u'軸が同一線上で同じ方向となるよう配置される(すなわち、エピポーラ線が一致)。また、上述したように、第1撮像部110および第2撮像部120の焦点距離fや画素間隔は同じであり、光軸と画像座標面とが垂直に交わっている。このような構成を「平行ステレオ」と呼び、デジタルカメラ1の第1撮像部110と第2撮像部120は平行ステレオの構成となっている。
図2に戻り、デジタルカメラ1の構成の説明を続ける。
パターン投影部130は、デジタルカメラ1の撮像による3Dモデリングを、パターン投影法を利用しておこなう際にパターンを投影するものであり、例えば、キセノンフラッシュやLEDなどの発光装置から構成される光源、光源からの光によって被写体に投影されるパターン、投影光の集光や拡散をおこなうためのレンズや反射板、などから構成される。
このようなパターン投影部130は、上記のような構成を有する専用装置として実現できる他、例えば、通常のデジタルカメラが備えている内蔵ストロボやAF補助光などのような発光機能をもつ構成に、パターンを投影できる構成を付加することで実現されてもよい。
データ処理部200は、第1撮像部110および第2撮像部120による撮像動作によって生成された電気信号を処理し、撮像画像を示すデジタルデータを生成するとともに、撮像画像に対する画像処理などをおこなう。図2に示すように、データ処理部200は、制御部210、画像処理部220、画像メモリ230、画像出力部240、記憶部250、外部記憶部260、などから構成される。
制御部210は、例えば、CPU(Central Processing Unit:中央演算処理装置)などのプロセッサや、RAM(Random Access Memory)などの主記憶装置(メモリ)、などから構成され、後述する記憶部250などに格納されているプログラムを実行することで、デジタルカメラ1の各部を制御する。また、本実施形態では、所定のプログラムを実行することで、後述する各処理にかかる機能が制御部210によって実現される。本実施形態では、3Dモデリングにかかる処理についても制御部210にておこなわれるものとするが、制御部210とは独立した専用プロセッサなどがおこなうように構成してもよい。
画像処理部220は、例えば、ADC(Analog-Digital Converter:アナログ−デジタル変換器)、バッファメモリ、画像処理用のプロセッサ(いわゆる、画像処理エンジン)などから構成され、イメージセンサ部112および122によって生成された電気信号に基づいて、撮像画像を示すデジタルデータを生成する。
すなわち、イメージセンサ部112(122)から出力されたアナログ電気信号をADCがデジタル信号に変換して順次バッファメモリに格納すると、バッファされたデジタルデータに対し、画像処理エンジンがいわゆる現像処理などをおこなうことで、画質の調整やデータ圧縮などをおこなう。
画像メモリ230は、例えば、RAMやフラッシュメモリなどの記憶装置から構成され、画像処理部220によって生成された撮像画像データや、制御部210によって処理される画像データなどを一時的に格納する。
画像出力部240は、例えば、RGB信号の生成回路などから構成され、画像メモリ230に展開された画像データをRGB信号などに変換して表示画面(後述する表示部310など)に出力する。
記憶部250は、例えば、ROM(Read Only Memory)やフラッシュメモリなどの記憶装置から構成され、デジタルカメラ1の動作に必要なプログラムやデータなどを格納する。本実施形態では、制御部210などが実行する動作プログラムや処理に必要となるパラメータや演算式などが記憶部250に格納されているものとする。
外部記憶部260は、例えば、メモリカードなどといった、デジタルカメラ1に着脱可能な記憶装置から構成され、デジタルカメラ1で撮像した画像データや生成された3Dモデリングデータなどを格納する。
インタフェース部300は、デジタルカメラ1とその使用者あるいは外部装置とのインタフェースにかかる構成であり、図2に示すように、表示部310、外部インタフェース(I/F)部320、操作部330、などから構成される。
表示部310は、例えば、液晶表示装置などから構成され、デジタルカメラ1を操作するために必要な種々の画面や、撮影時のライブビュー画像、撮像画像、3Dモデリングデータ、などを表示出力する。本実施形態では、画像出力部240からの画像信号(RGB信号)などに基づいて撮像画像等の表示出力がおこなわれる。
外部インタフェース部320は、例えば、USB(Universal Serial Bus)コネクタやビデオ出力端子などから構成され、画像データや3Dモデリングデータなどを外部のコンピュータ装置へ転送したり、撮像画像や3Dモデリング画像などを外部のモニタ装置に表示出力したりする。
操作部330は、デジタルカメラ1の外面上に構成されている各種ボタンなどによって構成され、デジタルカメラ1の使用者による操作に応じた入力信号を生成して制御部210に入力する。操作部330を構成するボタンとして、例えば、シャッタ動作を指示するためのシャッタボタンや、デジタルカメラ1のもつ動作モードを指定するためのモードボタン、3Dモデリングをおこなうための設定をはじめとした各種設定をおこなうための十字キーや機能ボタン、などが含まれているものとする。
ここで、本実施形態では、記憶部250に格納されている動作プログラムを制御部210が実行することで、後述する各処理が実現されるが、この場合に制御部210によって実現される機能を、図3を参照して説明する。
図3は、制御部210によって実現される機能を示した機能ブロック図である。ここでは、複眼カメラによって撮像された画像から被写体画像を抽出する機能を実現するために必要な機能構成を示す。この場合、図示するように、制御部210は、動作モード処理部211、撮像制御部212、特徴点抽出部213、対応点最適化部214、3Dモデリング部215、などとして機能する。
動作モード処理部211は、表示部310との協働により、デジタルカメラ1が有する各種動作モードをデジタルカメラ1のユーザに指定させるために必要な画面表示や指定された動作モード毎の設定画面表示などをおこなう他、操作部330との協働により、ユーザが指定した動作モードを認識し、当該動作モードの実行に必要なプログラムや演算式などを記憶部250から読み出し、制御部210の主記憶装置(メモリ)にロードする。
本実施形態では、デジタルカメラ1での撮影後に撮像画像から3Dモデリングをおこなう動作モード(3Dモデリングモード)がユーザによって指定されるものとし、以下に説明する制御部210の各機能構成は、3Dモデリングモードが指定されたことに応じて動作モード処理部211がロードしたプログラムを実行することで実現される機能構成である。
撮像制御部212は、第1撮像部110および第2撮像部120を制御することでデジタルカメラ1での撮像動作を実行する。この場合、撮像制御部212は、例えば、一般的なデジタルカメラにおいておこなわれている、測光、合焦、自動露出、撮像時の画面表示、などのような撮像にかかる各種の処理と制御をおこなう。
また、本実施形態にかかる3Dモデリング機能は、平行ステレオ構成となっている第1撮像部110と第2撮像部120から得られた複数枚の撮像画像を利用する。よって、本実施形態にかかる撮像制御部212は、第1撮像部110と第2撮像部120が同時に連続撮像(連写)するよう制御する。また、撮像制御部212は、このような連写の際、露出を異ならせて撮像するよう制御する。これにより、同一の被写体について、光軸位置の異なる2つの撮像画像を1組(画像ペア)とした露出の異なる複数組の撮像画像が取得される。
また、本実施形態では、「3Dモデリングモード」で撮像動作をおこなう場合、撮像制御部212は、パターン投影部130を制御することで、被写体へのパターン投影をおこなう。
特徴点抽出部213は、撮像された画像間で照合をおこなうことにより、パターン投影部130によって被写体に投影されたパターンで示される特徴点を抽出する。この場合、特徴点抽出部213は、複眼カメラによって得られる、光軸位置の異なる複数画像間で対応する特徴点(対応点)を抽出する。
本実施形態では、一方の画像をテンプレートとして照合するテンプレート照合(テンプレートマッチング)による画像間の照合によって対応点の抽出をおこなうものとし、この場合、例えば、差の2乗和を評価式とするSSD(Sum of Squared Difference)を用いたテンプレート照合をおこなうものとする。SSDによるテンプレート照合の場合、照合した画像同士が完全に一致すると値が「0」となる。すなわち、画像間の相違が大きい程より大きい値となるので、テンプレート照合によって得られる値は、テンプレートとの相違度を示すことになる。このようなテンプレート照合には、例えば、各画像の輝度値あるいは緑値を用いるものとする。
対応点最適化部214は、特徴点抽出部213によって抽出された対応点を、3Dモデリングでの利用に好適となるよう最適化する。この場合、対応点最適化部214は、特徴点抽出部213が抽出した各対応点と周辺対応点の距離、あるいは、フレームが異なる(撮像時間が異なる)対応点との距離を算出し、距離に基づく条件により対応点の削除をおこなうことで最適化する。ここでの距離は、ユークリッド距離であるものとする。
また、対応点最適化部214は、露出の異なる画像が得られている場合には、対応点間の距離に基づく最適化に加え、露出の異なる画像間で対応する位置での輝度を比較し、輝度に基づく条件により対応点の削除をおこなうことで最適化する。
3Dモデリング部215は、対応点最適化部214によって最適化された対応点(特徴点)を用いて3Dモデリングをおこなう。この場合、3Dモデリング部215は、例えば、対応点をドロネー分割することによりポリゴンを生成して3Dモデリングをおこなう。
以上が制御部210によって実現される機能である。なお、本実施形態では、制御部210がプログラムを実行することによる論理的処理で上述した各機能が実現されるものとするが、これらの機能を、例えば、ASIC(Application Specific Integrated Circuit:特定用途向け集積回路)などのハードウェアによって構成してもよい。この場合、図3に示した機能のうち、画像処理にかかる機能については、画像処理部220によって実現されてもよい。
以上説明したデジタルカメラ1の構成は、本発明を実現するために必要な構成であり、デジタルカメラとしての基本機能や種々の付加機能に用いられる構成は必要に応じて備えられているものとする。
このような構成のデジタルカメラ1による動作を以下に説明する。ここでは、デジタルカメラ1の動作モードのうち、上述した「3Dモデリングモード」が選択された場合の動作例を示す。この場合、デジタルカメラ1によって撮像をおこない、その撮像画像から3Dモデリングをおこなう。
その撮像の際、本実施形態では、図4(a)に示すような被写体TGを撮像することを想定する。被写体TGは、図4(a)に示すように、反射率の高い白っぽい部分(明部)と反射率の低い黒っぽい部分(暗部)とを含んでいるものとし、以下、被写体TGにおける明部を被写体TGとし、暗部を被写体TGとする。なお、図面においては、単純化した図形によって被写体TGを示すが、実際に撮像される被写体TGは立体物(例えば、人物、動物、美術品、など)である。そして、本実施形態では、このような立体物である被写体TGをデジタルカメラ1で撮像し、その撮像画像から被写体TGを3次元的な画像として表すための3Dモデリングデータを生成する。
上述したように、本実施形態にかかるデジタルカメラ1は、複眼カメラの構成を有しており、このようなデジタルカメラ1で被写体TGを撮像した場合の撮像画像の例を図4(b)に示す。本実施形態では、第1撮像部110を構成するレンズが被写体に向かって右側に配置されているものとし、このような第1撮像部110(右側カメラ)によって撮像される画像を基準画像とする。すなわち、第1撮像部110によって撮像された画像がファインダ画像などとして用いられ、例えば、被写体が画面中央となるようにフレーミングした場合、図4(b)に示すように、第1撮像部110による撮像画像である画像IM(R)に反映される。
一方、第2撮像部120は、第1撮像部110よりも左側に配置されているため、このような第2撮像部120(左側カメラ)によって撮像された画像である画像IM(L)では、図4(b)に示すように、写っている被写体の位置が画像IM(R)よりも右側にずれた状態となる。
本実施形態では、第1撮像部110と第2撮像部120が同時に撮像動作をおこなうので、図4(b)に示したような画像IM(L)と画像IM(R)が同時に取得される。このような、1回の撮像動作によって得られる画像IM(L)と画像IM(R)の組を画像ペアIPとする。
上記のような撮像画像を得るデジタルカメラ1において「3Dモデリングモード」が選択された場合に実行される「3Dモデリング用撮像処理」を、図5に示すフローチャートを参照して説明する。この「3Dモデリング用撮像処理」は、デジタルカメラ1のユーザが操作部330を操作することで、3Dモデリングモードを選択したことを契機に開始される。この場合、動作モード処理部211が、被写体抽出動作にかかるプログラムなどを記憶部250からロードすることで、図3に示した各機能構成により以下の処理が実行される。
処理が開始されると、撮像制御部212は、操作部330からの入力信号に基づいて、シャッタボタンが操作されたか否かを判別する(ステップS11)。ここで、本実施形態にかかるデジタルカメラ1では、通常のカメラと同様、シャッタボタンのストロークが2段階になっているものとし、ストロークの1段階目(全ストロークの途中)まで押下された状態を「半押し」、ストロークの2段階目(全ストロークの最深)まで押下された状態を「全押し」とする。
ステップS11では、シャッタボタンが半押しされたか否かを判別する。なお、シャッタボタンが半押しされるのは、通常のカメラと同様、被写体への合焦をおこなう場合であり、ステップS11で半押しが検出されたときは、図4(a)に示したような状況において、被写体TGのフレーミングが確定し、被写体TGに対する合焦をおこなう場合であるものとする。
なお、本実施形態では、撮像画像から3Dモデリングをおこなうため、被写体TGがファインダ中央に位置し、かつ、被写体TGの全体が収まるフレーミングで撮像されるものとする。また、連写によって複数回の撮像をおこなって得られる画像を用いるので、画像間で被写体TGの位置がずれないよう、デジタルカメラ1は撮像時に固定されていることが望ましい。
シャッタボタンが半押しされると(ステップS11:Yes)、撮像制御部212は第1撮像部110を制御し合焦のための動作をおこなう。このとき、撮像制御部212は、自動露出(AE:Auto Exposure)による露出決定をおこなう(ステップS12)。ここでは、AEにおける標準的な測光方式である多分割測光によって露出決定をおこなうものとする。すなわち、画面全体を複数の領域に分割して測光し、全体の明るさが反射率18%のグレーと同じとなるような露出を算出する。ステップS12での多分割測光による露出(すなわち、絞り、シャッタスピード、ISO感度などの組み合わせを示す露出条件)を「EV0」(EV:Exposure Value)とする。撮像制御部212は、決定したEV0をメモリに保持する。
露出を算出すると、撮像制御部212は、当該露出による撮像画像(ここでは、ファインダ画像となる動画像)についての輝度分布を示すヒストグラムを作成し、当該ヒストグラムを検証することで(ステップS13)、被写体TGに大きな明暗差があるか否かを判別する(ステップS14)。ここでは、ヒストグラムの暗部側と明部側の双方に大きな山がある場合、被写体TGの明暗差があると判別する。すなわち、図4(a)に示したような、被写体TGと被写体TGを含む被写体TGを撮像した場合、被写体の明暗差が大きいと判別する。
ここで、本実施形態では、撮像画像から3Dモデリングデータを取得するため、被写体TGに対してパターン投影をおこなう(詳細後述)。この場合において、被写体TGに大きな明暗差があると、全体を一定の明るさとする多分割測光によって露出を決定した場合、撮像画像上でのパターンが部分的に識別できない状態となり、正確な3Dモデリングをおこなうことができない。
このため、本実施形態では、ステップS14で被写体TGの明暗差が大きいと判別した場合、被写体TGの明部(すなわち、被写体TG)と暗部(すなわち、被写体TG)とで別々に露出をとり(以下、「多段露出」とする)、それぞれの露出で撮像をおこなうことで、撮像画像から正確にパターンを抽出できるようにする。
よって、撮像制御部212は、被写体TGの明暗差が大きいと判別した場合(ステップS14:Yes)、多段露出における露出を決定するための「多段露出決定処理」を実行する(ステップS100)。この「多段露出決定処理」を、図6に示すフローチャートを参照して説明する。
処理が開始されると、撮像制御部212は、被写体TG上での測光点を撮影者に指定させるための「測光点指定画面」を表示部310に表示する(ステップS101)。ここでは、例えば、図7に示すような「測光点指定画面」が表示部310に表示される。「測光点指定画面」ではまず、図7(a)に示すような、「被写体に明暗差がある」旨のメッセージとともに、測光点の指定を促すメッセージを表示部310に表示する。
その後、撮像制御部212は、図7(b)に示すような、選択可能な複数の測光点をファインダ画像上に表示した測光点指定画面を表示部310に表示する。撮影者は、操作部330の十字キーなどを操作して、被写体TGの明るい部分(すなわち、被写体TG)の位置にある測光点を指定する。
被写体TGの測光点が指定されると(ステップS102:Yes)、撮像制御部212は、第1撮像部110を制御し、いわゆるスポット測光により、指定された測光点を中心とした狭範囲(例えば、画面全体の数%程度の面積)を測光して露出を決定する(ステップS103)。被写体TGをスポット測光した露出を「EV」とする。撮像制御部212は、決定したEVをメモリに保持する。
被写体TGについての露出を決定すると、撮像制御部212は、図7(b)に示したような測光点指定画面を再度表示部310に表示し、被写体TGの暗い部分(すなわち、被写体TG)の位置にある測光点を撮影者に指定させる。
被写体TGの測光点が指定されると(ステップS104:Yes)、撮像制御部212は、被写体TGの場合と同様に、指定された測光点(すなわち、被写体TGの位置にある測光点)を中心としたスポット測光により露出を決定する(ステップS105)。被写体TGをスポット測光した露出を「EV」とする。撮像制御部212は、決定したEVをメモリに保持する。
このようにして、被写体TGのうちの被写体TGと被写体TGのそれぞれで個別に露出をとると、「3Dモデリング用撮像処理」(図5)のフローに戻る。
ここで、ステップS12で決定された露出で被写体TGの明暗差が大きくないと判別された場合には(ステップS14:No)、「多段露出決定処理」(ステップS100)は、実行されない。この場合、ステップS12でおこなった多分割測光による露出EV0が以後の撮像に用いられる。
このようにして露出(EV0もしくはEVとEV)を決定すると、撮像制御部212は、パターン投影部130を制御し、被写体TGに対するパターン投影を開始する(ステップS15)。すなわち、図8(a)に示すように、被写体TGにパターンが投影される。ここで、パターン投影部130によって投影されるパターンは、例えば、小円が規則的に配列されたドットパターンとするが、これに限られず、3Dモデリングのパターン投影法で用いられている種々のパターン(例えば、ランダムパターンなど)が採用されうる。
この状態で、撮像動作を指示するシャッタボタンの全押しが検出されると(ステップS16:Yes)、撮像制御部212は、第1撮像部110と第2撮像部120を制御し、決定した露出での撮像をおこなう(ステップS17)。ここで、被写体TGに大きな明暗差がないと判別された場合(多段露出)には、ステップS12で決定されたEV0で撮像をおこない、被写体TGの明暗差が大きいと判別された場合には、「多段露出決定処理」(図6)のステップS103で決定されたEVで撮像をおこなう。
そして、多段露出の場合(ステップS18:Yes)、撮像制御部212は、続けて第1撮像部110と第2撮像部120を制御し、「多段露出決定処理」(図6)のステップS105で決定したEVでの撮像をおこなう(ステップS19)。
すなわち、被写体TGに大きな明暗差がなければ、EV0を露出とした1回の撮像動作がおこなわれ、図4(b)に例示したような画像ペアIPが取得される。一方、被写体TGに大きな明暗差がある場合には、EVとEVのそれぞれの露出で2回撮像動作がおこなわれる。この場合、図8(b)と図8(c)に示すような2つの画像ペアIP(画像ペアIPと画像ペアIP)が取得される。
ここで、被写体TGをスポット測光した露出EVで得られる画像ペアIPを画像ペアIP(図8(b)とし、画像ペアIPを構成している画像IM(L)を画像IM(L)+、画像IM(R)を画像IM(R)+とする。ここでは、被写体TGの明部である被写体TGにスポット測光しているので、被写体TGが適正露出(被写体TGにおける階調変化も描写される状態)となる。この場合、図8(b)に示すように、被写体TGの暗部である被写体TGは露出アンダーとなり、場合によっては、いわゆる黒つぶれとなる。この場合、被写体TG上に投影されたパターン(露出の違いを明示するため、図8(b)ではパターンは不図示)を撮像画像から正確に抽出することは困難となる。
また、被写体TGをスポット測光した露出EVで得られる画像ペアIPを画像ペアIP(図8(c)とし、画像ペアIPを構成している画像IM(L)を画像IM(L)−、画像IM(R)を画像IM(R)−とする。ここでは、被写体TGの暗部である被写体TGにスポット測光しているので、被写体TGが適正露出(被写体TGにおける階調変化も描写される状態)となる。この場合、図8(c)に示すように、被写体TGの明部である被写体TGは露出オーバーとなり、場合によっては、いわゆる白飛びとなる。この場合も、被写体TG上に投影されたパターン(露出の違いを明示するため、図8(c)ではパターンは不図示)を撮像画像から正確に抽出することは困難となる。
このような撮像画像が得られると、撮像制御部212は、得られた画像ペアIPもしくは画像ペアIPと画像ペアIPを画像メモリ上に保持するとともに、パターン投影部130を制御し、パターン投影を終了する(ステップS20)。そして、得られた撮像画像から3Dモデリングをおこなう「3Dモデリング処理」が実行される(ステップS200)。この「3Dモデリング処理」を、図9に示すフローチャートを参照して説明する。
本処理における3Dモデリングにおいては、まず、被写体TGに投影されたパターンを撮像画像から抽出する。よって、処理が開始されると、特徴点抽出部213により、対象となる撮像画像が取得される。上述したように、被写体TGの明暗差の有無により撮像動作が異なっているので、特徴点抽出部213は、「3Dモデリング用撮像処理」(図5)での撮像が多段露出であったか否かを判別する(ステップS201)。
多段露出である場合(ステップS201:Yes)、上述したように、画像ペアIPと画像ペアIPの2組の画像ペアが得られているので、特徴点抽出部213はまず、画像メモリ230から画像ペアIPを取得する(ステップS202)。
特徴点抽出部213は、取得した画像ペアIPを構成している画像IM(L)+と画像IM(R)+とでテンプレートマッチングをおこなう(ステップS203)。ここでは、パターン投影部130が投影したパターンの特徴(形状や大きさ、配列パターンなど)に基づいて、画像IM(L)+に写っているパターン(特徴点候補)を既知の画像認識技術によって抽出し、画像IM(L)+から抽出した特徴点候補の画像をテンプレートとする。
そして、このようなテンプレートと一方の画像である画像IM(R)+とでSSDなどによるテンプレートマッチングをおこなう。この結果、所望の閾値以上の一致度となった特徴点が、画像ペア間で対応する特徴点(以下、「対応点」とする)として特定される。ここでは、同じ露出で得られた画像ペア間での対応点となり、このような対応点で構成されたパターン(以下、「パターンPA」とする)として特定する(ステップS204)。すなわち、3Dモデリングで必要となる、デジタルカメラ1から各特徴点までの距離算出に用いることができるよう、視差に相当する光軸位置の違いが反映されている画像ペア間で、対応点のパターンを特定する。
画像ペアIPを構成する画像IM(L)+と画像IM(R)+との間でテンプレートマッチングをおこなった後のイメージをIM(PM)+として図10(a)に例示する。ここでは、図示するように、画像IM(L)+と画像IM(R)+との間で一致する対応点が得られているが、画像ペアIPは被写体TGを適正露出とした画像ペアであるため、被写体TGにおける対応点はほぼ完全に特定されている。一方、露出アンダーとなっている被写体TGにおいては、対応点の特定は不完全である。
ここで、被写体TG全体の3Dモデリングをおこなうには、被写体TGと被写体TGの双方において、ほぼ完全な対応点を特定する必要がある。本実施形態では、後述する処理において不完全な対応点を補完する。
同様に、被写体TGを適正露出とする画像ペアIPでのテンプレートマッチングをおこなうことで、被写体TGではほぼ完全な対応点であるが、被写体TGでは対応点が不完全である対応点からなるパターンPA(図10(b))も特定する。
すなわち、特徴点抽出部213が画像メモリ230から画像ペアIPを取得し(ステップS205)、画像IM(L)−から抽出したパターン画像をテンプレートとしたテンプレートマッチングをおこなうことで(ステップS206)、所望の閾値以上の一致度となる特徴点を、同じ露出で得られた画像ペア間の対応点からなるパターンPAとして特定する(ステップS207)。
なお、撮像時に多段露出でなかった場合(ステップS201:No)、特徴点抽出部213は、EV0で撮像された画像ペアIPを画像メモリ230から取得し(ステップS208)、取得した画像ペアIPを構成している画像IM(L)と画像IM(R)でテンプレートマッチングをおこなうことで(ステップS209)、所望の閾値以上の一致度となる特徴点候補を、同じ露出で得られた画像ペア間で対応する特徴点(対応点)からなるパターンPAとして特定する(ステップS210)。この場合、被写体TGに大きな明暗差がないため、EV0で撮像した画像IM(L)と画像IM(R)のいずれにおいても、被写体TGに投影されたパターンが明確に得られることになる。
このようにして、各画像ペアを構成している画像間でのテンプレートマッチングによって対応点を抽出すると、特徴点抽出部213は、テンプレートマッチングの結果を画像メモリ230に保持する。その後、抽出した対応点を最適化するための「対応点最適化処理(1)」が対応点最適化部214によって実行される(ステップS300)。ここでの「最適化」とは、露出オーバーもしくは露出アンダーとなっている被写体TGや被写体TGにおいて不完全であったパターンを補完するため、より状態のよいパターン部分を抽出することをいう。この「対応点最適化処理(1)」を、図11に示すフローチャートを参照して説明する。
処理が開始されると、対応点最適化部214は、図10(b)に例示したようなパターンPAを画像メモリ230から取得する(ステップS301)。ここで、パターンPAは、対応点PA1〜PAn(すなわち、n個の対応点)を含んでいるものとし、対応点最適化部214は、対応点PA1〜PAnに1〜nのナンバリングをおこなう(ステップS302)。
パターンPAの各対応点にナンバリングすると、対応点最適化部214は、当該パターンPAを構成している対応点を指定するためのカウンタmに初期値1を設定し(ステップS303)、パターンPAからm番目の対応点である対応点PAmを探索する(ステップS304)。
対応点PAmが探索されると、対応点最適化部214は、パターンPA内において、例えば、図12(a)に示すような、対応点PAmの最も近傍に位置する対応点である最近傍点PAxを特定し(ステップS305)、対応点PAmと最近傍点PAxとの距離(距離Dmx)を算出する(ステップS306)。
対応点最適化部214は、算出した距離Dmxと閾値Dthとを比較し、対応点PAmとその最近傍点PAxとの距離Dmxが閾値Dth以上である場合(ステップS307:Yes)、例えば、図12(b)に示すように、パターンPAから対応点PAmを削除する(ステップS308)。
一方、距離Dmxが閾値Dth未満である場合には(ステップS307:No)、対応点PAmはパターンPAに残ることになる。
次に、対応点最適化部214は、カウンタmを+1し(ステップS309)、その値が対応点の数であるn以内であれば(ステップS310:No)、次の対応点についてのステップS304以降の処理をおこなう。このような処理を、パターンPAのすべての対応点でおこなうと(ステップS310:Yes)、図12(c)に示すように、ステップS308で削除されなかった対応点が残存する。対応点最適化部214は、このような対応点で構成されるパターンをパターンPBとし、画像メモリ230に保持する(ステップS311)。
すなわち、画像ペアIPを構成する画像間でテンプレートマッチングしたことで得られたパターンPAのドットパターンを、ドット間の距離に基づいて最適化し、最適化されたパターンPBとする。
次に対応点最適化部214は、画像メモリ230からパターンPAを取得し(ステップS312)、取得したパターンPAについて、上述したステップS302〜ステップS310と同様の処理をおこなうことで(ステップS313)、パターンPAをドット間の距離に基づいて最適化したパターンPB(図12(d))を得る(ステップS314)。このようにして得られたパターンPBも、同様に画像メモリ230に保持される。
以上のようにして、撮像画像上での投影パターンについて、そのドットパターンのドット間距離による最適化が露出の異なるそれぞれの撮像画像でおこなわれる。すなわち、同一の露出で撮像された画像ペアにおいて、対応点の密度が低い点を除去することで、対応点の密度が高い部分のみが残るように最適化される。
なお、被写体TGに明暗差がなく、EV0で撮像がおこなわれた場合は、ステップS302〜ステップS310と同様の処理をおこなうことで、画像ペアIPの各画像でテンプレートマッチングをおこなうことで得られるパターンPAについて、距離に基づく最適化がおこなわれる。
すなわち、「対応点最適化処理(1)」では、対象とする撮像画像が撮像された際の露出が多段露出であるか否かにかかわらず、対応点の最適化がおこなわれる。なお、最初に取得するパターンPA、パターンPA、パターンPAのそれぞれに含まれている対応点の数を、便宜上いずれもn個とするが、同数を意味するものではない。
このような「対応点最適化処理(1)」が終了すると、「3Dモデリング処理」(図9)のフローに戻る。「3Dモデリング処理」では、多段露出による撮像であった場合(ステップS211:Yes)、さらなる最適化をおこなうための「対応点最適化処理(2)」が実行される(ステップS400)。この「対応点最適化処理(2)」を、図13に示すフローチャートを参照して説明する。
対応点最適化部214は、「対応点最適化処理(1)」(図11)で得られたパターンPBとパターンPBを画像メモリ230から取得する(ステップS401)。ここで、パターンPBは、対応点PB1〜PBn(すなわち、n個の対応点)を含んでいるものとし、対応点最適化部214は、対応点PB1〜PBnに1〜nのナンバリングをおこなう(ステップS402)。本実施形態では、対応点の数を便宜的にn個とするが、いずれも同数であることを意味するものではない。
パターンPBの各対応点にナンバリングすると、対応点最適化部214は、当該パターンPBを構成している対応点を指定するためのカウンタmに初期値1を設定し(ステップS403)、パターンPB内で、例えば、図14(a)に示すような、m番目の対応点である対応点PBmを探索する(ステップS404)。
次に、対応点最適化部214は、例えば、図14(b)に示すような、パターンPBにおける対応点PBmと同じ座標位置(2次元平面位置)をパターンPBにおいて特定し(ステップS405)、その位置から一定の距離内にある複数の対応点である対応点群PBm(図14(b))を特定する(ステップS406)。
パターンPBで対応点群PBmを特定すると、対応点最適化部214は、対応点群PBmの平均輝度を算出する(ステップS407)とともに、ステップS404で探索した、パターンPBにおける対応点PBmの輝度を特定する(ステップS408)。
対応点最適化部214は、算出した対応点群PBmの平均輝度、および、対応点PBmの輝度のそれぞれと、参照輝度値BRrefと比較する(ステップS409)。この参照輝度値BRrefは、例えば、輝度階調のメジアン(例えば、8ビットの輝度である場合の参照輝度値BRrefは「127」)であるものとする。
比較の結果、対応点群PBmの平均輝度より、対応点PBmの輝度の方が参照輝度値BRrefから遠い場合(ステップS410:Yes)、対応点最適化部214は、パターンPBから対応点PBmを削除する(ステップS411)。一方、対応点群PBmの平均輝度の方が参照輝度値BRrefから遠ければ(ステップS410:No)、対応点PBmはパターンPBに残存する。すなわち、対応点PBmの輝度が極端に明るかったり暗かったりすると認識しづらいので、このような対応点を除外する。
対応点PBmについてこのような処理をおこなうと、対応点最適化部214は、カウンタmを+1し(ステップS412)、その値が対応点の数であるn以内であれば(ステップS413:No)、次の対応点についてのステップS404以降の処理をおこなう。このような処理を、パターンPBのすべての対応点でおこなうと(ステップS413:Yes)、図14(c)に示すように、ステップS411で削除されなかった対応点が残存する。対応点最適化部214は、このような対応点で構成されるパターンをパターンPCとし、画像メモリ230に保持する(ステップS414)。
以上のように、対応点最適化部214は、ステップS401で取得したパターンPBとパターンPBのうち、パターンPB内の対応点PBmと、当該対応点PBmと同じ位置にあるパターンPBにおける対応点群PBmとの間で輝度比較をおこなうことで対応点の最適化をおこなった。
次に、対応点最適化部214は、パターンPBについてステップS402〜ステップS413と同様の処理をおこなうことで(ステップS415)、図14(d)に示すようなパターンPCを得る(ステップS416)。すなわち、パターンPBにおける対応点(対応点PBm)を順次探索し、パターンPBで同じ座標位置となる対応点群PBmを特定する。そして、対応点群PBmの平均輝度および対応点PBmの輝度のそれぞれと参照輝度値BRrefとを比較し、対応点PBmの輝度の方が参照輝度値BRrefからより遠ければ、当該対応点PBmがパターンPBから削除される。
このようにして、良好な輝度となっているパターン部分が残存することになる。すなわち、より認識しやすい画像状態(撮像状態)で現れているパターンが選別されるよう最適化される。このような輝度に基づく最適化がなされたパターンPC(図14(c))とパターンPC(図14(d))が得られると、「3Dモデリング処理」(図9)のフローに戻る。
ここでは、多段露出での撮像がおこなわれたことにより「対応点最適化処理(2)」が実行された場合には、得られたパターンPC(図14(c))とパターンPC(図14(d))のそれぞれを構成している対応点を合成し、図10(c)に示すような合成対応点のパターンとする(ステップS212)。すなわち、各画像ペアにおいては、略同じカメラ位置により撮像がなされているので、露出の異なる画像ペア間において、2次元平面にて単純に対応点を合成することで合成対応点とする。
この場合、3Dモデリング部215は、合成された対応点を用いて3Dモデリングをおこなう(ステップS213)。
一方、多段露出での撮像でなかった場合(ステップS211:No)、ステップS210で特定されたパターンPAに対してなされた「対応点最適化処理(1)」(ステップS300)で得られた対応点が、3Dモデリング部215による3Dモデリングに用いられる(ステップS213)。
3Dモデリング部215による3Dモデリングでは、三角測量の原理により、対応点に基づく3Dモデリングをおこなう。ここで、ある対応点をA1とし、カメラ座標におけるA1の3次元位置を示す座標が(X1、Y1、Z1)であるものとする。この場合、図1(b)に示したような平行ステレオ構成のデジタルカメラ1においては、A1の座標(X1、Y1、Z1)はそれぞれ、以下の数1〜数3で表される。ここで、(u1, v1)は、第1撮像部110についての対応点A1への射影点を示し、(u'1, v'1)は、第2撮像部120についての対応点A1への射影点を示す。また、bは第1撮像部110および第2撮像部120の光軸間距離(基線間距離)を示す。
(数1)
X1=(b×(u1))/((u'1)−u1)
(数2)
Y1=(b×(v1))/((u'1)−u1)
(数3)
Z1=(b×f)/((u'1)−u1)
ここで、デジタルカメラ1からA1までの距離は、A1の座標Z1によって示されるので、対応点最適化部214は、上記数3を演算することで、被写体TGにおける対応点A1までの撮影距離を算出することができる。
この数3は、三角測量の原理によって導かれるものである。三角測量の原理を、図15を参照して説明する。
図15は、図1(b)に示した平行ステレオ構成におけるカメラ座標を上から見た模式図である。第1撮像部110による視点がカメラ座標となっているので、被写体位置A1のX軸方向の座標はカメラ座標上のX1で与えられ、この数値は図15に示した数式(1)で求められる。
一方、第2撮像部120からの視点におけるA1のX軸方向の座標は、光軸間距離bとカメラ座標のX1との和であり、図15に示した数式(2)で求められ、これらの数式(1)と数式(2)から、上記数3が導き出される。
このような三角測量の原理を用いて、各対応点までの撮影距離を算出することで、被写体TGについての3Dモデリングデータが生成される。
3Dモデリング部215は、このようにして生成した3Dモデリングデータを、記憶部250や外部記憶部260などに保存し(ステップS214)、「3Dモデリング用撮像処理」(図5)のフローに戻る。
「3Dモデリング用撮像処理」においては、例えば、3Dモデリングモードの解除や、デジタルカメラ1の電源オフなどといった、所定の終了イベントが発生しなければ(ステップS21:No)、ステップS11以降の処理がおこなわれる。すなわち、さらなる撮像動作がなされ、これによって得られた撮像画像から3Dモデリングデータの生成がおこなわれる。そして、終了イベントの発生により処理を終了する(ステップS21:Yes)。
以上説明したように、本発明を上記実施形態の如く適用することにより、デジタルカメラで撮像した被写体を表す高精度な3Dモデリングデータを容易に得ることができる。
被写体について1または複数の露出条件を設定するので、被写体の明部と暗部のそれぞれを適正露出とする撮像画像を複数取得することができ、被写体に明暗差がある場合でも、被写体に投影されたパターンを正確に取得して高精度の3Dモデリングデータを生成することができる。
この場合において、被写体にパターンを投影する構成を撮像装置が備えているので、撮像から3Dモデリングデータの生成までを1台の撮像装置でシームレスにおこなうことができ、高精度の3Dモデリングデータを容易に作成することができる。
また、撮像画像から認識できるパターンを、パターンの密度に基づいて最適化するので、例えば、パターンの密度が高い部分を抽出することができ、3Dモデリングデータの生成に必要なパターンの認識精度を高めることができる。
さらに、パターンの画像状態に基づいてパターンを最適化するので、例えば、パターンの輝度が高い部分を抽出することができ、3Dモデリングデータの生成に必要なパターンの認識精度を高めることができる。
この場合、最適化されたパターンを合成して3Dモデリングデータを生成するので、被写体全体から精度の高いパターンを抽出することができ、被写体に明暗差がある場合であっても、高精度な3Dモデリングデータを生成することができる。
また、撮像時に被写体の明暗差を判別し、例えば、被写体の明暗差が大きい場合に、複数の露出を設定するようにできるので、撮像から3Dモデリングデータの生成までの一連の作業をより効率的におこなうことができる。
上記実施形態は一例であり、本発明の適用範囲はこれに限られない。すなわち、種々の応用が可能であり、あらゆる実施の形態が本発明の範囲に含まれる。
例えば、上記実施形態では、被写体に明暗差がある場合、被写体の明部と暗部のそれぞれを撮影者に指定させたが、例えば、通常のデジタルカメラで一般的となっているAEB(Auto Exposure Bracket:自動多段露出)機能を用いることで、例えば、多分割測光で決定した露出EV0のEV値を所定段数±方向にずらした露出条件を自動的に設定するようにしてもよい。
また、上記実施形態の「対応点最適化処理(1)」では、ある対応点と、その対応点の最近傍点との距離に基づいて最適化をおこなったが、対応点の密度に基づいて最適化できるのであれば、その方法はこれに限られるものではない。例えば、ある対応点を中心とした一定範囲内の対応点の数に基づいて密度を判別して最適化するようにしてもよい。
また、上記実施形態の「対応点最適化処理(2)」では、輝度の比較によって対応点の最適化をおこなったが、パターンを示す画像状態に基づいて最適化できるのであれば、その方法はこれに限られるものではない。例えば、パターンを示す部分の緑値を比較することで最適化するようにしてもよい。
また、上記実施形態では、2次元画像上で対応点をとって3Dモデリングデータを生成する例を示したが、対応点を特定する際に3次元位置推定をおこない、3次元の対応点として最適化や合成の処理をおこなうようにしてもよい。
なお、上記実施形態では、光軸の異なる2つの撮像部を撮像装置内に構成した複眼カメラ(ステレオカメラ)によって本発明を実現した場合を例示したが、撮像部が1つの単眼カメラによって本発明を実現してもよい。この場合、撮像部の位置をずらして複数回の撮像動作をおこなうことになるが、撮像部を機械的に移動させる構成を加えることなどにより、視差に相当する光軸のずれを生じさせるようにすればよい。
また、上記実施形態では、2つの撮像部を平行ステレオ構成とした場合を例示したが、任意の位置関係であってもよい。この場合、2つの撮像部の位置関係(外部パラメータ)を予め測定しておき、この外部パラメータを用いることで、撮像画像を平行同位画像に変換することができる。この場合、平行ステレオ構成の複眼カメラで撮像した場合と同様に、平行同位画像内の任意点の対応関係を得るために、X方向またはY方向の1方向のみを探索すればよい。
また、上記実施形態では、被写体にパターンを投影する構成を撮像装置が有している場合を例示したが、撮像時にパターンを被写体に投影できるのであれば、パターンを投影する構成が撮像装置に備えられていなくてもよい。
なお、上記実施形態の撮像装置と同様の機能や構成を予め備えた撮像装置によって本発明を実現できることはもとより、視差に相当する撮像画像が得られるのであれば、既存の撮像装置装置(デジタルカメラなど)にプログラムを適用することで、本発明にかかる撮像装置として機能させることもできる。この場合、上記実施形態で例示したデジタルカメラ1と同様の構成を備えた撮像装置のコンピュータ(CPUなどの制御部)に、上述した制御部210の機能と同様の機能を実現させるためのプログラムを実行させることで、本発明にかかる撮像装置として機能させることができる。
なお、上記実施形態では、撮像装置の例として、デジタルスチルカメラを示したが、上記実施形態で例示したデジタルカメラ1と同様の構成を備えているものであれば撮像装置の形態は任意であり、例えば、デジタルビデオカメラなどで本発明にかかる撮像装置を実現することもできる。
いずれの場合でも、プログラムを適用することで、既存の装置を本発明にかかる画像表示装置として機能させることができる。このようなプログラムの適用方法は任意であり、例えば、CD−ROMやメモリカードなどの記憶媒体に格納して適用できる他、例えば、インターネットなどの通信媒体を介して適用することもできる。
1…デジタルカメラ、110…第1撮像部、111…光学装置、112…イメージセンサ部、120…第2撮像部、121…光学装置、122…イメージセンサ部、130…パターン投影部、200…データ処理部、210…制御部、211…動作モード処理部、212…撮像制御部、213…特徴点抽出部、214…対応点最適化部、215…3Dモデリング部、220…画像処理部、230…画像メモリ、240…画像出力部、250…記憶部、260…外部記憶部、300…インタフェース部、310…表示部、320…外部インタフェース部、330…操作部

Claims (8)

  1. 同一の被写体について光軸位置が異なる2つの撮像画像を取得する撮像手段と、
    前記撮像手段による前記被写体の撮像にかかる複数の露出条件を設定する露出設定手段と、
    前記撮像手段を制御し、前記露出設定手段が設定した露出条件の数に応じた回数の撮像動作をおこなう撮像制御手段と、
    前記撮像制御手段の制御によって得られた前記撮像画像に基づいて、前記2つの撮像画像間で対応する特徴点である対応点を抽出する対応点抽出手段と、
    前記対応点抽出手段が抽出した、前記複数の露出条件それぞれで撮像された前記対応点ごとに、所定の条件に当てはまる前記対応点を選択する対応点最適化手段と、
    前記対応点最適化手段が選択した前記対応点を重畳する対応点合成手段と、
    前記対応点合成手段が重畳した前記対応点を用いて前記被写体の形状を表す3Dモデリングデータを生成する3Dモデリングデータ生成手段と、
    を備えることを特徴とする撮像装置。
  2. 被写体に投影パターンを投影するパターン投影手段をさらに備え、
    前記対応点抽出手段は、前記投影パターンを前記撮像画像上に写した像である画像パターンに基づいて、前記2つの撮像画像間で対応する特徴点である対応点を抽出する、
    ことを特徴とする請求項1に記載の撮像装置。
  3. 前記露出設定手段は、少なくとも、前記被写体の明部が適正露出となる露出条件と、前記被写体の暗部が適正露出となる露出条件とを設定する、
    ことを特徴とする請求項1または2に記載の撮像装置。
  4. 前記対応点最適化手段は、前記対応点抽出手段が抽出した前記対応点の密度が所定の条件にあてはまる前記対応点を選択する、
    ことを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。
  5. 前記対応点最適化手段は、前記対応点抽出手段が抽出した前記対応点の画素の値が所定の条件にあてはまる前記対応点を選択する、
    ことを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。
  6. 前記被写体の明暗差を判別する判別手段をさらに備え、
    前記露出設定手段は、前記判別手段の判別結果に応じて露出条件を設定する、
    ことを特徴とする請求項1乃至のいずれか1項に記載の撮像装置。
  7. 同一の被写体について光軸位置が異なる画像ペアを得る撮像手段を備える撮像装置で当該被写体の3Dモデリングデータを生成する3Dモデリングデータ生成方法であって、
    被写体の明部を適正露出とする前記撮像手段の撮像動作で第1の画像ペアを取得する第1の撮像ステップと、
    前記被写体の暗部を適正露出とする前記撮像手段の撮像動作で第2の画像ペアを取得する第2の撮像ステップと、
    前記第1の画像ペアおよび前記第2の画像ペアのそれぞれにおいて、対応する特徴点である対応点を抽出する対応点抽出ステップと、
    前記第1の画像ペアおよび前記第2の画像ペアのそれぞれにおいて、前記対応点抽出ステップで抽出された前記対応点の密度が所定の条件にあてはまる前記対応点を選択する第1の対応点最適化ステップと、
    前記第1の画像ペアおよび前記第2の画像ペア間において、前記対応点抽出ステップで抽出された前記対応点ごとに、画素の値が所定の条件にあてはまる前記対応点を選択する第2の対応点最適化ステップと、
    前記第1の対応点最適化ステップおよび前記第2の対応点最適化ステップで選択した前記対応点を重畳し、該重畳した対応点を用いて前記被写体の形状を表す3Dモデリングデータを生成する3Dモデリングデータ生成ステップと、
    を含むことを特徴とする3Dモデリングデータ生成方法。
  8. 同一の被写体について光軸位置が異なる2つの撮像画像を取得する撮像手段を備える撮像装置のコンピュータに、
    前記撮像手段による前記被写体の撮像にかかる複数の露出条件を設定する機能と、
    前記撮像手段を制御し、前記設定された露出条件の数に応じた回数の撮像動作をおこなう機能と、
    前記撮像動作によって得られた前記撮像画像に基づいて、前記2つの撮像画像間で対応する特徴点である対応点を抽出する機能と、
    前記抽出した、前記複数の露出条件それぞれで撮像された前記対応点ごとに、所定の条件に当てはまる前記対応点を選択する機能と、
    前記選択した対応点を重畳する機能と、
    前記重畳した対応点を用いて前記被写体の形状を表す3Dモデリングデータを生成する機能と、
    を実現させることを特徴とするプログラム。
JP2009294804A 2009-12-25 2009-12-25 撮像装置、3dモデリングデータ生成方法、および、プログラム Expired - Fee Related JP4983905B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009294804A JP4983905B2 (ja) 2009-12-25 2009-12-25 撮像装置、3dモデリングデータ生成方法、および、プログラム
US12/963,763 US8786679B2 (en) 2009-12-25 2010-12-09 Imaging device, 3D modeling data creation method, and computer-readable recording medium storing programs
CN201010615610.4A CN102164233B (zh) 2009-12-25 2010-12-24 摄像装置和3d建模数据的生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009294804A JP4983905B2 (ja) 2009-12-25 2009-12-25 撮像装置、3dモデリングデータ生成方法、および、プログラム

Publications (2)

Publication Number Publication Date
JP2011134221A JP2011134221A (ja) 2011-07-07
JP4983905B2 true JP4983905B2 (ja) 2012-07-25

Family

ID=44187030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009294804A Expired - Fee Related JP4983905B2 (ja) 2009-12-25 2009-12-25 撮像装置、3dモデリングデータ生成方法、および、プログラム

Country Status (3)

Country Link
US (1) US8786679B2 (ja)
JP (1) JP4983905B2 (ja)
CN (1) CN102164233B (ja)

Families Citing this family (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
KR101733443B1 (ko) 2008-05-20 2017-05-10 펠리칸 이매징 코포레이션 이종 이미저를 구비한 모놀리식 카메라 어레이를 이용한 이미지의 캡처링 및 처리
JP5127787B2 (ja) * 2009-07-30 2013-01-23 富士フイルム株式会社 複眼撮影装置及びその制御方法
US8514491B2 (en) 2009-11-20 2013-08-20 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
JP5848754B2 (ja) 2010-05-12 2016-01-27 ペリカン イメージング コーポレイション 撮像装置アレイおよびアレイカメラのためのアーキテクチャ
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
JP2014519741A (ja) 2011-05-11 2014-08-14 ペリカン イメージング コーポレイション アレイカメラ画像データを伝送および受信するためのシステムおよび方法
KR20140045458A (ko) 2011-06-28 2014-04-16 펠리칸 이매징 코포레이션 어레이 카메라와 함께 사용하는 광학 장치
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
WO2013043761A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Determining depth from multiple views of a scene that include aliasing using hypothesized fusion
KR102002165B1 (ko) 2011-09-28 2019-07-25 포토내이션 리미티드 라이트 필드 이미지 파일의 인코딩 및 디코딩을 위한 시스템 및 방법
EP2817955B1 (en) 2012-02-21 2018-04-11 FotoNation Cayman Limited Systems and methods for the manipulation of captured light field image data
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
WO2014001023A1 (de) * 2012-06-26 2014-01-03 Siemens Aktiengesellschaft Vorrichtung zur mobilen musterprojektion und deren verwendung
JP5953142B2 (ja) * 2012-06-27 2016-07-20 オリンパス株式会社 画像処理装置及びそれを備えた撮像装置、画像処理方法、並びに画像処理プログラム
EP2873028A4 (en) * 2012-06-28 2016-05-25 Pelican Imaging Corp SYSTEMS AND METHOD FOR DETECTING DEFECTIVE CAMERA ARRAYS, OPTICAL ARRAYS AND SENSORS
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
EP4296963A3 (en) 2012-08-21 2024-03-27 Adeia Imaging LLC Method for depth detection in images captured using array cameras
CN104685513B (zh) 2012-08-23 2018-04-27 派力肯影像公司 根据使用阵列源捕捉的低分辨率图像的基于特征的高分辨率运动估计
KR101207343B1 (ko) * 2012-08-30 2012-12-04 재단법인대구경북과학기술원 영상 밝기 조절 방법 및 그 장치와, 스테레오 카메라
WO2014043641A1 (en) 2012-09-14 2014-03-20 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images
US20140092281A1 (en) 2012-09-28 2014-04-03 Pelican Imaging Corporation Generating Images from Light Fields Utilizing Virtual Viewpoints
US9143711B2 (en) 2012-11-13 2015-09-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
JP2014115497A (ja) * 2012-12-11 2014-06-26 Samsung Electronics Co Ltd 補助光投影装置、閃光装置、及びカメラ
WO2014130849A1 (en) 2013-02-21 2014-08-28 Pelican Imaging Corporation Generating compressed light field representation data
WO2014133974A1 (en) 2013-02-24 2014-09-04 Pelican Imaging Corporation Thin form computational and modular array cameras
US9638883B1 (en) 2013-03-04 2017-05-02 Fotonation Cayman Limited Passive alignment of array camera modules constructed from lens stack arrays and sensors based upon alignment information obtained during manufacture of array camera modules using an active alignment process
WO2014138697A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for high dynamic range imaging using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
WO2014164909A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Array camera architecture implementing quantum film sensors
WO2014164550A2 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation System and methods for calibration of an array camera
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
US9519972B2 (en) 2013-03-13 2016-12-13 Kip Peli P1 Lp Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
WO2014159779A1 (en) 2013-03-14 2014-10-02 Pelican Imaging Corporation Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
WO2014153098A1 (en) 2013-03-14 2014-09-25 Pelican Imaging Corporation Photmetric normalization in array cameras
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
WO2014150856A1 (en) 2013-03-15 2014-09-25 Pelican Imaging Corporation Array camera implementing quantum dot color filters
US9438888B2 (en) 2013-03-15 2016-09-06 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US9633442B2 (en) 2013-03-15 2017-04-25 Fotonation Cayman Limited Array cameras including an array camera module augmented with a separate camera
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
US9615012B2 (en) 2013-09-30 2017-04-04 Google Inc. Using a second camera to adjust settings of first camera
CN104581112B (zh) * 2013-10-14 2016-10-05 钰立微电子股份有限公司 快速产生摄像机的距离对视差关系表的系统及其相关方法
US9185276B2 (en) 2013-11-07 2015-11-10 Pelican Imaging Corporation Methods of manufacturing array camera modules incorporating independently aligned lens stacks
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
US9426361B2 (en) 2013-11-26 2016-08-23 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
US9247117B2 (en) 2014-04-07 2016-01-26 Pelican Imaging Corporation Systems and methods for correcting for warpage of a sensor array in an array camera module by introducing warpage into a focal plane of a lens stack array
US9521319B2 (en) 2014-06-18 2016-12-13 Pelican Imaging Corporation Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor
US10250871B2 (en) 2014-09-29 2019-04-02 Fotonation Limited Systems and methods for dynamic calibration of array cameras
JP5989283B1 (ja) * 2014-12-15 2016-09-07 オリンパス株式会社 撮像システム及び信号処理装置
WO2016145625A1 (en) * 2015-03-18 2016-09-22 Xiaoou Tang 3d hand pose recovery from binocular imaging system
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
JP2017003469A (ja) * 2015-06-11 2017-01-05 キヤノン株式会社 三次元計測装置、三次元計測装置の制御方法及びプログラム
CN105763793B (zh) * 2016-02-18 2017-06-16 西安科技大学 一种三维照片采集方法及采集系统
CN105578173A (zh) * 2016-02-20 2016-05-11 深圳市晶源动力科技有限公司 一种快速三维空间投影摄像视觉识别系统
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
EP3821267A4 (en) 2019-09-17 2022-04-13 Boston Polarimetrics, Inc. SURFACE MODELING SYSTEMS AND METHODS USING POLARIZATION MARKERS
CN114746717A (zh) 2019-10-07 2022-07-12 波士顿偏振测定公司 利用偏振进行表面法线感测的系统和方法
EP3809692B1 (en) * 2019-10-17 2023-10-04 Denso Wave Incorporated Imaging device provided with event-based camera
MX2022005289A (es) 2019-11-30 2022-08-08 Boston Polarimetrics Inc Sistemas y metodos para segmentacion de objetos transparentes usando se?ales de polarizacion.
US11195303B2 (en) 2020-01-29 2021-12-07 Boston Polarimetrics, Inc. Systems and methods for characterizing object pose detection and measurement systems
JP2023511747A (ja) 2020-01-30 2023-03-22 イントリンジック イノベーション エルエルシー 偏光画像を含む異なる撮像モダリティで統計モデルを訓練するためのデータを合成するためのシステムおよび方法
WO2021243088A1 (en) 2020-05-27 2021-12-02 Boston Polarimetrics, Inc. Multi-aperture polarization optical systems using beam splitters
CN114078103A (zh) * 2020-08-21 2022-02-22 先临三维科技股份有限公司 重建数据的方法及系统,扫描设备
CN112291459B (zh) * 2020-10-23 2022-02-11 杭州思锐迪科技有限公司 一种摄影装置和三维扫描设备
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
CN114454177A (zh) * 2022-03-15 2022-05-10 浙江工业大学 一种基于双目立体视觉的机器人末端位置补偿方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3570198B2 (ja) * 1998-01-07 2004-09-29 オムロン株式会社 画像処理方法およびその装置
JP2001082938A (ja) * 1999-09-16 2001-03-30 Gen Tec:Kk 3次元物体への光模様の投射・撮影方法及び同システム
JP2002058046A (ja) * 2000-08-11 2002-02-22 Minolta Co Ltd 撮像システムおよび3次元カメラ
EP1946567A4 (en) * 2005-10-04 2009-02-18 Eugene J Alexander DEVICE FOR GENERATING THREE-DIMENSIONAL SURFACE MODELS OF MOBILE OBJECTS

Also Published As

Publication number Publication date
CN102164233A (zh) 2011-08-24
JP2011134221A (ja) 2011-07-07
US20110157321A1 (en) 2011-06-30
US8786679B2 (en) 2014-07-22
CN102164233B (zh) 2014-08-27

Similar Documents

Publication Publication Date Title
JP4983905B2 (ja) 撮像装置、3dモデリングデータ生成方法、および、プログラム
JP4894939B2 (ja) 撮像装置、表示方法、および、プログラム
JP4752918B2 (ja) 画像処理装置、画像照合方法、および、プログラム
US8648961B2 (en) Image capturing apparatus and image capturing method
JP5067450B2 (ja) 撮影装置、撮影装置の制御装置、撮影装置の制御プログラム、及び撮影装置の制御方法
KR20160028490A (ko) 화상 처리 장치, 화상 처리 방법, 및 촬상 시스템
CN113141448B (zh) 摄像装置
US8294785B2 (en) Method for adjusting photosensitiveness of digital camera
US20090086050A1 (en) Image capture device and image capture method
US20080100721A1 (en) Method of detecting specific object region and digital camera
JP5950664B2 (ja) 撮像装置およびその制御方法
US9894339B2 (en) Image processing apparatus, image processing method and program
JP6635764B2 (ja) 撮像装置、その制御方法、および制御プログラム
JP2014137482A (ja) 撮影装置および撮影用照明装置
JP2001249265A (ja) 測距装置
CN107547789B (zh) 影像获取装置及其摄影构图的方法
JP5359930B2 (ja) 撮像装置、表示方法、および、プログラム
JP7158841B2 (ja) 撮像装置、撮像方法、プログラム、記録媒体および画像処理装置
JP2010154323A (ja) 画像処理装置、画像抽出方法、および、プログラム
JP2019087924A (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2016099322A (ja) 撮像装置、撮像装置の制御方法およびプログラム
JP5126442B2 (ja) 三次元モデル生成装置、及び三次元モデル生成方法
JP2014011639A (ja) 撮像装置
JP2005216191A (ja) ステレオ画像処理装置およびステレオ画像処理方法
JP2010245582A (ja) 電子カメラ

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120327

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120409

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4983905

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees