JP2011205198A - 立体撮影装置及び方法 - Google Patents

立体撮影装置及び方法 Download PDF

Info

Publication number
JP2011205198A
JP2011205198A JP2010067954A JP2010067954A JP2011205198A JP 2011205198 A JP2011205198 A JP 2011205198A JP 2010067954 A JP2010067954 A JP 2010067954A JP 2010067954 A JP2010067954 A JP 2010067954A JP 2011205198 A JP2011205198 A JP 2011205198A
Authority
JP
Japan
Prior art keywords
light sources
cameras
data
subject
light source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010067954A
Other languages
English (en)
Inventor
Takafumi Koike
崇文 小池
Chigiri Utsugi
契 宇都木
Hideyuki Sakai
秀行 坂井
Takuma Shibahara
琢磨 柴原
Michio Oikawa
道雄 及川
Masami Yamazaki
眞見 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2010067954A priority Critical patent/JP2011205198A/ja
Publication of JP2011205198A publication Critical patent/JP2011205198A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】立体撮影装置において、奥行き推定を誤らせる、被写体の鏡面反射成分を抽出する。
【解決手段】2台の光源と2台のカメラと、光源とカメラを制御する制御装置で構成される立体撮影装置において、2台の光源のうちの第1の光源を点灯して、2台のカメラで撮影した撮影データから第1の奥行きデータを求める手段、2台の光源のうちの第2の光源を点灯して、2台のカメラで撮影した撮影データから第2の奥行きデータを求める手段、第1の奥行きデータと第2の奥行きデータとの画素ごとの差を求める手段、及び、差が予め定めた閾値以上である画素により構成される領域を鏡面反射領域とする手段を設ける。
【選択図】図1

Description

本発明は、被写体の反射特性の取得が可能な立体撮影装置に関するものである。
非特許文献1に示されるように、2台のカメラで撮影した2枚の画像間の差異を比べることによる奥行き推定技術が存在する。非特許文献1の奥行き推定技術は、画像の横ライン毎に、画素の輝度を用いたコスト関数が最小になるような推定を行う。
また、非特許文献2に示されるように、位置が固定された照明とカメラを用いて、被写体を回転させながら画像群を撮影し、その画像群から鏡面反射成分を推定する技術がある。
Stan Birchfield and Carlo Tomasi, "Depth Discontinuities by Pixel-to-Pixel Stereo",Proc. of ICCV, pp. 1073-1080, 1998. Yoichi Sato, Mark D. Wheeler, and Katsushi Ikeuchi, "Object shape and reflectance modeling from observation", Proc. SIGGRAPH 97, pp. 379-387, 1997.
解決しようとする問題点は、2台、または、それ以上の数のカメラを用いた立体撮影装置において、それぞれのカメラにより撮影した画像群から奥行き推定を行う方法に関して、被写体の鏡面反射成分の影響により、奥行き推定を誤ることである。ここで、拡散反射は、被写体に光が当たった時に、全方向に同じ強度の光を反射する特性のことを言い、その反射強度を拡散反射成分と呼ぶ。通常、紙や木などは拡散反射成分が多い。一方で鏡面反射とは、光の入射角に対応する反射角方向に強く光を反射する特性のことを言い、その反射強度を鏡面反射成分とよぶ。通常、金属や鏡なでは鏡面反射成分が多い。たとえば、非特許文献1に記載の方法では、被写体は拡散成分のみを持つと仮定しているため、鏡面反射成分を持つ場合には、正しい奥行きを得ることができない。表面が光を反射する被写体に照明を当ててカメラで撮影すると、光を反射している部分は明るく撮影され、被写体が拡散成分のみを持つと仮定して奥行き推定すると、光を反射している明るい部分は、たとえカメラから、その周辺と同じ距離にあるとしても、その周辺より手前にあると推定される。
そこで、奥行き推定を誤らせる、被写体の鏡面反射成分を抽出することが要求される。
また、非特許文献2に記載の方法では、被写体を回転させて撮影した多数の画像群を必要とするため、大規模なシーンの撮影などには適用できない。
本発明は、2台の光源と2台のカメラと、光源とカメラを制御する制御装置で構成される立体撮影装置において、2台の光源のうちの第1の光源を点灯して、2台のカメラで撮影した撮影データから第1の奥行きデータを求め、2台の光源のうちの第2の光源を点灯して、2台のカメラで撮影した撮影データから第2の奥行きデータを求め、第1の奥行きデータと第2の奥行きデータとの画素ごとの差を求め、及び、差が予め定めた閾値以上である画素により構成される領域を鏡面反射領域とする。
本発明の他の態様は、2台、または、それ以上の数のカメラから構成される立体撮影装置において、被写体を照らす照明が二つ以上存在し、その照明の位置が既知で、かつ、照明間の距離が十分に小さいか、その照明の位置が既知で、かつ、その照明の位置が変更可能な一つ以上の照明を用いる。
本発明の立体撮影装置によれば、被写体の反射成分の推定が可能になる。
立体撮影装置の構成図である。 照明部の実施例図である。 撮影部の実施例図である。 被写体と立体撮影装置の位置関係図である。 立体撮影処理のフローチャートである。 鏡面での光源の反射を表す図である。
図1は、立体撮影装置1の構成図である。立体撮影装置1は、図1に示すように、照明部11、撮影部12、制御部13を設けた構成である。本立体撮影装置1は、撮影部12により被写体2を撮影し、立体画像を取得する。制御部13は、照明部11及び撮影部12に接続し、CPU、メモリなどにより構成され、これらの構成によりコンピュータ制御により、光源111、112の所定位置への位置制御、光源111、112の点滅の制御、カメラ121、122の所定位置への制御、カメラ121、122による撮影の制御を実現する。
照明部11は、可動部を持つ一つの光源111か、二つ以上の距離が近い(又は、稼動部を持ち、近い距離に制御される)光源111、112から構成される。照明部11は、図2に示すような構成である。図2には、光源111を代表させて示している。可動部を持つ照明部11は、光源111と、光源可動ステージ113と、可動レール114から構成される。光源111は、制御部13が、可動レール114に沿って光源可動ステージ113を移動させることにより、所定の位置に制御される。
撮影部12の詳細について、図3を用いて説明する。撮影部12は、可動部を持つ1台のカメラ121か、2台以上のステレオ撮影が可能なカメラ121、122から構成される。可動部を持つ撮影部12は、図3に示すような構成で実現できる。図3には、カメラ121を代表させて示している。可動部を持つ撮影部12は、カメラ121と、カメラ可動ステージ123と可動レール124から構成される。カメラ121は、制御部13が、可動レール124に沿って光源可動ステージ123を移動させることにより、所定の位置に制御される。
図5を用いて、立体撮影の処理方法を説明する。立体撮影とは、視差を持つ2枚以上の実写画像を取得することである。一般に、カメラ光軸が、ほぼ同一方向である2台のカメラで被写体を撮影し、カメラが持つメモリ又はカメラに接続するPC(パーソナルコンピュータ)に撮影した画像データを記憶する。被写体が動く場合は同時撮影機構が必要であり、動く被写体の動画像を取得するためには同期撮影機構が必要である。同期撮影機構はカメラのシャッタースピードの半分程度の精度で同期されていても良い。被写体が動かない場合か、動いていても、その動きが無視できる場合には、撮影は手動で行ってもよい。
照明制御部114による制御により一方の光源111を点灯した状態の照明で(S1001)、被写体2をカメラ121、カメラ122で撮影する(S1002)。この時得られた撮影データをそれぞれ、撮影データ1−1、撮影データ1−2とする。この時の、撮影データは、二次元の画素配列である。
続いて、照明制御部114による制御により他方の光源112を点灯した状態の照明で(S1003)、被写体2をカメラ121、カメラ122で撮影する(S1004)。この時得られた撮影データをそれぞれ、撮影データ2−1、撮影データ2−2とする。
撮影データ1−1と撮影データ1−2を用いて、被写体2の奥行きを推定し、奥行き推定データ1を求め、撮影データ2−1と撮影データ2−2を用いて、被写体2の奥行きを推定し、奥行き推定データ2を求める(S1005)。被写体の奥行き推定は、例えば非特許文献1に記載の手法を用いる。
撮影データ1−1の対応画素と同色の画素である対応点を、撮影データ1−2の同じ縦軸をもつ画素群から求め、その差分、つまり横座標の対応点間の距離を視差1とする。視差と奥行きは反比例の関係であるので、視差を求めることは奥行きを求めることと同じ意味になる。
通常の奥行き推定は、前述のように、被写体表面の反射特性を拡散成分が主であると仮定する。この仮定が成立する被写体の表面上の一点は、他の被写体に隠されない限り、どの方向からもほぼ同じ色である可能性が高い。しかし、鏡などのように、被写体の反射特性がほぼ鏡面反射特性である場合は、拡散成分が主であるとの仮定が成立しない。このような場合を図6を用いて説明する。光源111が鏡に映り込む場合、光源111は光源116の位置にあるようにカメラ121に写る。このようにして撮影した画像データを基に奥行き推定すると、カメラ121から鏡面までの距離と、鏡面から光源111までの距離との和の奥行きであると推定される。
被写体の反射特性がほぼ拡散反射特性である場合は、被写体で光源111からの光が反射するときに、被写体表面に面した全方向にほぼ等しく同じ強度で光が反射する。このときカメラ121には、光源111の位置によらず、ほぼ同じ輝度で写ることになる。言い換えれば、拡散反射成分のみを持つ場合には、光源の位置を推定することができない。
鏡面反射成分を持つ被写体に対する二つの光源111、112は、異なる位置の光源であると推定されるので、この差の出る領域を鏡面反射成分領域であると推定できる。一方、拡散成分のみを持つ場合には、微小な光源の位置移動により、被写体の輝度や色はほとんど変化しないので、この差の出ない領域を拡散反射成分領域であると推定することになる。
奥行きデータ1は、撮影データ1−1の対応画素における被写体2の奥行き値で構成される二次元配列データである。同様に、奥行きデータ2は、撮影データ2-1の対応画素における被写体2の奥行き値で構成される二次元配列データである。奥行きデータ1や奥行きデータ2は、通常、撮影データと同じ要素数、つまり、各次元が同じ要素数を持つ、2次元配列であるが、撮影データより少ない要素数であってもよい。2次元配列と同等な一次元配列であっても良い。この時、被写体の材質や反射特性が拡散成分のみで構成される場合、奥行きデータ1と奥行きデータ2は、同一となる。
奥行きデータ1と奥行きデータ2の、各画素成分に対して、差の絶対値を計算し、奥行き差分データ1に格納する(S1006)。奥行き差分データ1の各要素は、撮影データの各要素に対応するため、差の絶対値が予め定めた閾値以上である領域を求める(S1007)。この領域を、被写体の鏡面反射領域とする。この領域を初期値として、グラフカット手法(Y. Boykov, O. Veksler and R. Zabih (2001), "Fast approximate energy minimisation via graph cuts", IEEE Transactions on Pattern Analysis and Machine Intelligence, 29, 1222-1239.参照)を用いて、鏡面反射領域を求めても良い。誤差に対する輝度の変化量は20%を許容量とする。
被写体2と立体撮影装置1との関係を図4を用いて説明する。図4は、被写体2と立体撮影装置1のカメラ121と光源111がなす平面を示す。被写体2の法線方向がわかっている場合は、それを用いてもよい。被写体2の法線と、被写体2の中心と光源111とのなす角度θ1と、被写体2の法線と、被写体2の中心とカメラ121のなす角度θ2に対して、下記の関係式
|θ1|≒|θ2|
が成り立つと推定がやりやすい。絶対値の20%程度の誤差範囲内で同一であれば良い。
光源の間隔は、カメラの間隔より短い方が良い。一般に、成人した人間の眼間距離は、60mmから65mm程度と言われているため、光源の間隔は、60mmより短い方が良い。
被写体2の中心は、撮影時のカメラ中央を被写体2の中心とするなどが考えられる。
被写体2は、一つで構成される必要はなく、複数であって良い。複数の場合でも、カメラ中央を被写体2の中心とするか、撮影時に最も大きく写る被写体の中心を、被写体2の中心とするなどが考えられる。
照明部11は、位置が既知であればよい。もし、既知でない場合でも、形状や反射特性が既知の被写体を撮影し、その撮影データから、光源位置の推定が出来れば良い。
光源は、手動で点滅状態が制御出来ればよく、制御装置に接続されている必要はない。照明部11を構成する光源111、112は、被写体2を撮影するのに必要な光量が得られる照明であれば、蛍光灯、白熱電球、LED光源、または、プロジェクタでも良い。光源としてプロジェクタを用いる場合は、それ自身が照明部の役割を満たしても良い。照明部11を構成する光源111、112の形状は、処理時に、点光源と近似可能な球状のものが好ましいが、一般的な蛍光灯のような棒状のものでも構わない。光源の形状が既知である場合は、推定時にその形状を用いても良い。
1:立体撮影装置、2:被写体、11:照明部、12:撮影部、13:制御部、111、112:光源、113:可動ステージ、114:可動レール、121、122:カメラ、123:可動ステージ、124:可動レール。

Claims (4)

  1. 2台の光源と2台のカメラと、前記光源と前記カメラを制御する制御装置で構成される立体撮影装置において、
    2台の前記光源のうちの第1の光源を点灯して、2台の前記カメラで撮影した撮影データから第1の奥行きデータを求める手段、
    2台の前記光源のうちの第2の光源を点灯して、2台の前記カメラで撮影した撮影データから第2の奥行きデータを求める手段、
    前記第1の奥行きデータと前記第2の奥行きデータとの画素ごとの差を求める手段、及び、
    前記差が予め定めた閾値以上である画素により構成される領域を鏡面反射領域とする手段を設けることを特徴とする立体撮影装置。
  2. 2台の光源と2台のカメラと、前記光源と前記カメラを制御する制御装置で構成される立体撮影装置において、2台の前記光源の間隔が、2台の前記カメラの間隔より短い距離を有することを特徴とする立体撮影装置。
  3. 前記制御装置が、2台の前記光源の間隔を制御することを特徴とする請求項2記載の立体撮影装置。
  4. 2台の光源と2台のカメラと、前記光源と前記カメラを制御する制御装置で構成される立体撮影装置における立体撮影方法であって、前記制御装置が、
    2台の前記光源のうちの第1の光源を点灯して、2台の前記カメラで撮影した撮影データから第1の奥行きデータを求め、
    2台の前記光源のうちの第2の光源を点灯して、2台の前記カメラで撮影した撮影データから第2の奥行きデータを求め、
    前記第1の奥行きデータと前記第2の奥行きデータとの画素ごとの差を求め、
    前記差が予め定めた閾値以上である画素により構成される領域を鏡面反射領域とすることを特徴とする立体撮影方法。
JP2010067954A 2010-03-24 2010-03-24 立体撮影装置及び方法 Pending JP2011205198A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010067954A JP2011205198A (ja) 2010-03-24 2010-03-24 立体撮影装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010067954A JP2011205198A (ja) 2010-03-24 2010-03-24 立体撮影装置及び方法

Publications (1)

Publication Number Publication Date
JP2011205198A true JP2011205198A (ja) 2011-10-13

Family

ID=44881419

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010067954A Pending JP2011205198A (ja) 2010-03-24 2010-03-24 立体撮影装置及び方法

Country Status (1)

Country Link
JP (1) JP2011205198A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012251866A (ja) * 2011-06-02 2012-12-20 Fuji Electric Co Ltd 物品認識装置、物品認識システム、プログラムおよび物品認識方法
CN110119731A (zh) * 2018-02-05 2019-08-13 广达电脑股份有限公司 三维图像处理的装置及方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002260017A (ja) * 2001-03-02 2002-09-13 Minolta Co Ltd 3次元形状データ生成方法および装置
JP2004021388A (ja) * 2002-06-13 2004-01-22 Nippon Hoso Kyokai <Nhk> 画像処理装置及びそれを備えた撮影システム
JP2004170305A (ja) * 2002-11-21 2004-06-17 Nippon Telegr & Teleph Corp <Ntt> 3次元形状計測方法および3次元形状計測装置
JP2007114168A (ja) * 2005-10-17 2007-05-10 Applied Vision Systems Corp 画像処理方法および装置、並びにプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002260017A (ja) * 2001-03-02 2002-09-13 Minolta Co Ltd 3次元形状データ生成方法および装置
JP2004021388A (ja) * 2002-06-13 2004-01-22 Nippon Hoso Kyokai <Nhk> 画像処理装置及びそれを備えた撮影システム
JP2004170305A (ja) * 2002-11-21 2004-06-17 Nippon Telegr & Teleph Corp <Ntt> 3次元形状計測方法および3次元形状計測装置
JP2007114168A (ja) * 2005-10-17 2007-05-10 Applied Vision Systems Corp 画像処理方法および装置、並びにプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012251866A (ja) * 2011-06-02 2012-12-20 Fuji Electric Co Ltd 物品認識装置、物品認識システム、プログラムおよび物品認識方法
CN110119731A (zh) * 2018-02-05 2019-08-13 广达电脑股份有限公司 三维图像处理的装置及方法
JP2019135483A (ja) * 2018-02-05 2019-08-15 廣達電腦股▲ふん▼有限公司 3次元画像処理装置及び方法
US10440217B2 (en) 2018-02-05 2019-10-08 Quanta Computer Inc. Apparatus and method for processing three dimensional image
CN110119731B (zh) * 2018-02-05 2022-11-15 广达电脑股份有限公司 三维图像处理的装置及方法

Similar Documents

Publication Publication Date Title
US9392262B2 (en) System and method for 3D reconstruction using multiple multi-channel cameras
Murmann et al. A dataset of multi-illumination images in the wild
JP6286481B2 (ja) オブジェクト向上のためのライティング・システムおよび方法
WO2019184184A1 (zh) 目标图像获取系统与方法
WO2019184185A1 (zh) 目标图像获取系统与方法
JP7421518B2 (ja) 歪みが低減された物体の3次元再構成を生成するための方法及び装置
US20170206704A1 (en) Image processing apparatus, image capturing apparatus, image processing method and storage medium storing image processing program
Hawkins et al. A Dual Light Stage.
US9417185B1 (en) Controlling light arrays to determine properties of an object
JP2003202216A (ja) 三次元画像処理方法、三次元画像処理装置、三次元画像処理システムおよび三次元画像処理プログラム
US10863082B2 (en) Image processing apparatus, image processing method, and storage medium
JP2011205198A (ja) 立体撮影装置及び方法
JP6292968B2 (ja) 疑似hdr画像推定装置及び方法
JP5647084B2 (ja) 面法線計測装置、面法線計測システム及び面法線計測プログラム
JP2009021964A (ja) 画像合成装置、画像合成方法及び画像合成プログラム
US10379393B2 (en) 3D shape reconstruction using projection onto electronic light diffusing layers
US9818234B2 (en) 3D shape reconstruction using reflection onto electronic light diffusing layers
JP5441752B2 (ja) 環境内の3d物体の3d姿勢を推定する方法及び装置
Kang et al. View-dependent scene appearance synthesis using inverse rendering from light fields
JP2003058873A (ja) 形状抽出装置および方法、並びに画像切り出し装置および方法
JP5227883B2 (ja) 合成映像生成システム、照明制御装置及びプログラム
Chotikakamthorn Near point light source location estimation from shadow edge correspondence
JP2002260017A (ja) 3次元形状データ生成方法および装置
Matsuyama et al. Multi-camera systems for 3d video production
KR20210037288A (ko) 포토메트릭 스테레오를 이용한 영상 합성 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130514

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130917