JP5425305B2 - 立体画像制御装置ならびにその動作制御方法およびその動作制御プログラム - Google Patents
立体画像制御装置ならびにその動作制御方法およびその動作制御プログラム Download PDFInfo
- Publication number
- JP5425305B2 JP5425305B2 JP2012518300A JP2012518300A JP5425305B2 JP 5425305 B2 JP5425305 B2 JP 5425305B2 JP 2012518300 A JP2012518300 A JP 2012518300A JP 2012518300 A JP2012518300 A JP 2012518300A JP 5425305 B2 JP5425305 B2 JP 5425305B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- eye
- eye image
- target
- target image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/139—Format conversion, e.g. of frame-rate or size
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
Description
立体画像では,立体画像を構成する左目用画像と右目用画像とに共通に含まれる,ある画像部分の視差が無いようにする必要がある。従来は,左目用画像と右目用画像とのそれぞれのほぼ中央部分の視差が無いようにしているが,表示される立体画像が不自然となってしまうことがある。
第1の発明による立体画像制御装置は,立体画像を構成する左目用画像と右目用画像とのそれぞれの画像から所望の対象画像部分を見つける第1の対象画像部分検出装置(第1の対象画像部分検出手段),上記第1の対象画像部分検出装置においてそれぞれ見つけられた,上記左目用画像の対象画像部分と上記右目用画像の対象画像部分との視差ずれが除かれるように上記左目用画像と上記右目用画像とをずらす視差ずらし装置(視差ずらし手段),上記視差ずらし装置によってずらされた上記左目用画像と上記右目用画像とのうち,上記視差ずらし装置によって視差ずれが除かれた対象画像部分を含む表示領域を決定する表示領域決定装置(表示領域決定手段),および上記視差ずらし装置によってずらされた上記左目用画像と上記右目用画像とのうち,上記表示領域決定装置によって決定された表示領域内の画像を拡大して表示するように表示装置を制御する表示制御装置(表示制御手段)を備えていることを特徴とする。
第1の発明は,上記立体画像制御装置の動作制御方法も提供している。すなわち,この方法は,対象画像部分検出装置が,立体画像を構成する左目用画像と右目用画像とのそれぞれの画像から所望の対象画像部分を見つけ,視差ずらし装置が,上記第2の対象画像部分検出装置においてそれぞれ見つけられた,上記左目用画像の対象画像部分と上記右目用画像の対象画像部分との視差ずれが除かれるように上記左目用画像と上記右目用画像とをずらし,表示領域決定装置が,上記視差ずらし装置によってずらされた上記左目用画像と上記右目用画像とのうち,上記視差ずらし装置によって視差ずれが除かれた対象画像部分を含む表示領域を決定し,表示制御装置が,上記視差ずらし装置によってずらされた上記左目用画像と上記右目用画像とのうち,上記表示領域決定装置によって決定された表示領域内の画像を拡大して表示するように表示装置を制御するものである。
第1の発明は,上記立体画像制御装置の動作制御方法を実施するための動作プログラムも提供している。さらに,そのような動作プログラムを格納した記録媒体も提供するようにしてもよい。
第1の発明によると,立体画像を構成する左目用画像と右目用画像とのそれぞれの画像から所望の対象画像部分が見つけられる。左目用画像から見つけられた対象画像部分と右目用画像から見つけられた対象画像部分との視差が除かれるように,左目用画像と右目用画像との視差ずらしが行われる。左目用画像と右目用画像とのうち,視差ずれが除かれた対象画像部分を含む表示領域(好ましくは所定の最小表示サイズ以上で立体画像の大きさ未満)が決定される。決定された表示領域内の画像が拡大して表示されるように表示装置が制御される。
単に,左目用画像の中央部分と右目用画像の中央部分との視差ずれが無くなるように視差ずらしが行われるのではなく,観賞者が着目するような所望の対象画像部分の視差ずれが無くなるように視差ずらしが行われる。観賞者が着目する対象画像部分の視差ずれが無いので自然な立体画像が得られる。さらに,そのような対象画像部分を含む表示領域が決定され,決定された表示領域内の画像が拡大して表示されるので,表示領域外の画像部分は表示されない。立体画像表示では,手前の被写体を表わす被写体像は,画像を撮像した装置に含まれる撮像レンズの収差の影響により視差ずれが大きく,目への負担が大きいが,表示領域外の画像部分は表示されないので観賞者の目の負担を軽くできる。
上記第1の対象画像部分検出装置によって検出された対象画像部分により表される対象物よりも手前に存在する被写体を表す手前被写体像(手前二重像)が上記左目用画像および上記右目用画像のそれぞれに含まれているかどうかを判定する第1の判定装置(第1の判定手段),および上記第1の判定装置によって,上記手前被写体像が上記左目用画像および上記右目用画像のそれぞれに含まれていると判定されたことにより,上記左目用画像に含まれている手前被写体像と上記右目用画像に含まれている手前被写体像とのずれ量が許容範囲外かどうかを判定する第2の判定装置(第2の判定手段)をさらに備えてもよい。この場合,上記表示領域決定装置は,たとえば,上記第2の判定装置により上記許容範囲外と判定されたことに応じて上記表示領域を決定するものである。
上記対象画像部分検出装置において,上記左目用画像と上記右目用画像との両方の画像から見つけられた対象画像部分の大きさよりも上記左目用画像と上記右目用画像とのうちの一方の画像からは見つけられずに他方の画像からは見つけられた対象画像部分の大きさの方が大きいかどうかを判定する大きさ判定装置(大きさ判定手段),および上記大きさ判定装置によって,上記左目用画像と上記右目用画像との両方の画像から見つけられた対象画像部分の大きさよりも上記他方の画像からは見つけられた対象画像部分の大きさの方が大きいと判定され,かつ上記一方の画像が上記左目用画像の場合,または上記左目用画像と上記右目用画像との両方の画像から見つけられた対象画像部分の大きさよりも上記他方の画像からは見つけられた対象画像部分の大きさの方が小さいと判定され,かつ上記一方の画像が上記右目用画像の場合には,上記一方の画像からは見つけられなかった対象画像部分を,上記他方の画像において見つけられた対象画像部分に対応する位置の右側から見つけ,上記大きさ判定装置によって,上記左目用画像と上記右目用画像との両方の画像から見つけられた対象画像部分の大きさよりも上記他方の画像からは見つけられた対象画像部分の大きさの方が大きいと判定され,かつ上記一方の画像が上記右目用画像の場合,または上記左目用画像と上記右目用画像との両方の画像から見つけられた対象画像部分の大きさよりも上記他方の画像からは見つけられた対象画像部分の大きさの方が小さいと判定され,かつ上記一方の画像が上記左目用画像の場合には,上記一方の画像からは見つけられなかった対象画像部分を,上記他方の画像において見つけられた対象画像部分に対応する位置の左側から見つける第2の対象画像検出装置(第2の対象画像検出手段)をさらに備えてもよい。この場合,上記表示領域決定装置は,たとえば,上記視差ずらし装置によってずらされた上記左目用画像と上記右目用画像とのうち,上記視差ずらし装置によって視差ずれが除かれた対象画像部分,上記第1の対象画像部分検出装置において他方の画像から見つけられた対象画像部分および上記第2の対象画像部分検出装置において一方の画像から見つけられた対象画像部分を含む表示領域を決定するものとなろう。
上記左目用画像と上記右目用画像とのうち,上記第1の対象画像検出装置において他方の画像からのみ見つけられた対象画像部分によって表される対象物の位置が,その他方の画像の中心部にある画像に対応する被写体の位置よりも手前にあり,かつ上記一方の画像が左目用画像の場合,または上記左目用画像と上記右目用画像とのうち,上記第1の対象画像検出装置において他方の画像からのみ見つけられた対象画像部分によって表される対象物の位置が,その他方の画像の中心部にある画像に対応する被写体の位置よりも奥にあり,かつ上記一方の画像が右目用画像の場合には,上記一方の画像からは見つけられなかった対象画像部分を,上記他方の画像において見つけられた対象画像部分に対応する位置の右側から見つけ,上記左目用画像と上記右目用画像とのうち,上記第1の対象画像検出装置において他方の画像からのみ見つけられた対象画像部分によって表される対象物の位置が,その他方の画像の中心部にある画像に対応する被写体の位置よりも手前にあり,かつ上記一方の画像が右目用画像の場合,または上記左目用画像と上記右目用画像とのうち,上記第1の対象画像検出装置において他方の画像からのみ見つけられた対象画像部分によって表される対象物の位置が,その他方の画像の中心部にある画像に対応する被写体の位置よりも奥にあり,かつ上記一方の画像が左目用画像の場合には,上記一方の画像からは見つけられなかった対象画像部分を,上記他方の画像において見つけられた対象画像部分に対応する位置の左側から見つける第3の対象画像部分検出装置(第3の対象画像部分検出手段)をさらに備えてもよい。この場合,上記表示領域決定装置は,たとえば,上記視差ずらし装置によってずらされた上記左目用画像と上記右目用画像とのうち,上記視差ずらし装置によって視差ずれが除かれた対象画像部分,上記第1の対象画像部分検出装置において他方の画像からのみ見つけられた対象画像部分および上記第3の対象画像部分検出装置において一方の画像から見つけられた対象画像部分を含む表示領域を決定するものとなろう。
上記左目用画像の中央部分と上記右目用画像の中央部分とのそれぞれに,上記第1の対象画像部分検出装置によって検出された対象画像部分によって表される対象物よりも手前に存在する被写体を表す中央被写体像があることにより,上記中央被写体像の主要被写体らしさと上記第1の対象画像部分検出装置によって検出された対象画像部分の主要被写体らしさを比較する比較装置(比較手段)をさらに備えてもよい。この場合,上記視差ずらしそうちは,たとえば,上記比較装置により,上記中央被写体像の主要被写体らしさが上記第1の対象画像部分検出装置によって検出された対象画像部分の主要被写体らしさよりも大きいと判定されたことにより,上記左目用画像の上記中央被写体像と上記右目用画像の上記中央被写体像との菱さずれが除かれるように上記左目用画像と上記右目用画像とをずらすものである。
上記表示制御装置による拡大表示制御が行われることにより,上記左目用画像検出装置において見つけられた対象画像部分が表示されないかどうかを判定する表示判定装置(表示判定手段),および上記表示判定装置において,上記左目用画像検出装置において見つけられた対象画像部分が表示されないと判定されたことに応じて上記左目用画像の中央部分と上記右目用画像の中央部分との視差ずれが除かれるように上記左目用画像と上記右目用画像とをずらすように上記視差ずらし装置を制御する視差ずらし制御装置(視差ずらし制御手段)を備えてもよい。
上記左目用画像を表す左目用画像データ,上記右目用画像を表す右目用画像データ,ならびに上記視差ずらし装置によって視差ずれが除かれる部分および上記表示領域決定装置によって決定された表示領域をそれぞれ表すデータを可搬型記録媒体に記録する記録制御装置(記録制御手段)をさらに備えてもよい。
上記左目用画像を表す左目用画像データ,および上記右目用画像を表す右目用画像データが可搬型記録媒体に記録されている場合には,上記視差ずらし装置によって視差ずれが除かれる部分および上記表示領域決定装置によって決定された表示領域をそれぞれ表すデータを上記可搬型記録媒体に記録する記録制御装置(記録制御手段)をさらに備えてもよい。
第2の発明による立体画像制御装置は,左目用画像と右目用画像とを重ね合わせて立体画像を生成する立体画像生成装置(立体画像生成手段),上記立体画像生成装置によって生成された立体画像の中から所望の対象画像部分を見つける対象画像検出装置(対象画像検出手段),上記立体画像生成装置によって生成された立体画像の中から電子ズーム領域を指定する電子ズーム領域指定装置(電子ズーム領域指定手段),上記電子ズーム領域指定装置によって指定された電子ズーム領域の中に,上記対象画像検出装置によって検出された対象画像が含まれているかどうかを判定する判定装置(判定手段),上記判定装置によって,電子ズーム領域に対象画像が含まれていないと判定されたことにより,上記立体画像または上記電子ズーム領域の中央部分の視差ずれが無くなるように,左目用画像と右目用画像とをずらし,上記判定装置によって電子ズーム領域に対象画像が含まれていると判定されたことにより,上記対象画像検出装置によって検出された対象画像の視差ずれが無くなるように,左目用画像と右目用画像とをずらす視差ずらし装置(視差ずらし手段),および上記電子ズーム領域内の画像を拡大して表示する表示制御装置(表示制御手段)を備えていることを特徴とする。
第2の発明は,上記立体画像制御装置に適した動作制御方法も提供している。すなわち,この方法は,立体画像生成装置が,左目用画像と右目用画像とを重ね合わせて立体画像を生成し,対象画像検出装置が,上記立体画像生成装置によって生成された立体画像の中から所望の対象画像部分を見つけ,電子ズーム領域指定装置が,上記立体画像生成装置によって生成された立体画像の中から電子ズーム領域を指定し,判定装置が,上記電子ズーム領域指定装置によって指定された電子ズーム領域の中に,上記対象画像検出装置によって検出された対象画像が含まれているかどうかを判定し,視差ずらし装置が,上記判定装置によって,電子ズーム領域に対象画像が含まれていないと判定されたことにより,上記立体画像または上記電子ズーム領域の中央部分の視差ずれが無くなるように,左目用画像と右目用画像とをずらし,上記判定装置によって電子ズーム領域に対象画像が含まれていると判定されたことにより,上記対象画像検出装置によって検出された対象画像の視差ずれが無くなるように,左目用画像と右目用画像とをずらし,表示制御装置が,上記電子ズーム領域内の画像を拡大して表示するものである。
第2の発明によると,指定された電子ズーム領域内に対象画像部分が含まれていれば,その対象画像部分の視差ずれが無くなるように視差ずらしが行われ,指定された電子ズーム領域内に対象画像部分が含まれていなければ,立体画像または電子ズーム領域の中央部分の視差ずれが無くなるように視差ずらしが行われる。自然な立体画像が得られる。
第2a図は左目用画像を,第2b図は右目用画像を示している。
第3図は被写体像と立体撮像ディジタル・カメラとの関係を示している。
第4図は立体画像一例である。
第5図は立体画像の一例である。
第6図は立体撮像ディジタル・カメラの電気的構成を示すブロック図である。
第7図は立体撮像ディジタル・カメラの処理手順を示すフローチャートである。
第8図は被写体と立体撮像ディジタル・カメラとの位置関係を示している。
第9a図は左目用画像を,第9b図は右目用画像を示している。
第10図は検出された対象画像部分の一例である。
第11図は被写体像と立体撮像ディジタル・カメラとの関係を示している。
第12a図は左目用画像を,第12b図は右目用画像を示している。
第13図は被写体像と立体撮像ディジタル・カメラとの関係を示している。
第14a図は左目用画像を,第14b図は右目用画像を示している。
第15図は被写体像と立体撮像ディジタル・カメラとの関係を示している。
第16図(A)は左目用画像を,第16b図は右目用画像を示している。
第17図は被写体像と立体撮像ディジタル・カメラとの関係を示している。
第18図は画像の中央部のフォーカス・レンズ位置と対象画像部分のフォーカス・レンズ位置とを示している。
第19a図は左目用画像を,第19b図は右目用画像を示している。
第20a図は左目用画像を,第20b図は右目用画像を示している。
第21a図は左目用画像を,第21b図は右目用画像を示している。
第22a図は左目用画像を,第22b図は右目用画像を示している。
第23図は立体画像の一例である。
第24図は立体撮像ディジタル・カメラの電気的構成を示すブロック図である。
第25図は表示領域算出処理手順を示すフローチャートである。
第26図は被写体と立体撮像ディジタル・カメラとの位置関係を示している。
第27a図は左目用画像を,第27b図は右目用画像を示している。
第28図は画像の中央部のフォーカス・レンズ位置と対象画像部分のフォーカス・レンズ位置と主要被写体らしさとの関係を示している。
第29図は画像の中央部のフォーカス・レンズ位置と対象画像部分のフォーカス・レンズ位置と主要被写体らしさとの関係を示している。
第30図は画像の中央部のフォーカス・レンズ位置と対象画像部分のフォーカス・レンズ位置と主要被写体らしさとの関係を示している。
第31図は立体画像の一例である。
第32図は立体撮像ディジタル・カメラの電気的構成を示すブロック図である。
第33図は画像ずらしの処理手順を示すフローチャートである。
第34図は立体画像の一例である。
第35図は立体画像の一例である。
第36図は立体撮像ディジタル・カメラの処理手順を示すフローチャートである。
第37図は再生処理手順を示すフローチャートである。
第38図は立体画像の一例である。
第39図は立体画像の一例である。
第40図は立体画像の一例である。
第41図は立体画像の一例である。
第42図は立体撮像ディジタル・カメラの電気的構成を示すブロック図である。
立体撮像ディジタル・カメラ1には,観賞者が左目で見る左目用画像を撮像する第1の撮像装置2および観賞者が右目で見る右目用画像を撮像する第2の撮像装置3が設けられている。
立体撮像ディジタル・カメラ1の前方には,立体撮像ディジタル・カメラ1から遠い順に,タワー11,人物12および壁13が存在している。
第2a図および第2b図は,第1図に示す立体撮像ディジタル・カメラ1を用いて撮像して得られた左目用画像および右目用画像をそれぞれ表している。
第2a図に示す左目用画像10Lは,立体撮像ディジタル・カメラ1の第1の撮像装置2によって撮像されたものである。第2b図に示す右目用画像10Rは,立体撮像ディジタル・カメラ1の第2の撮像装置3によって撮像されたものである。
第2a図を参照して,左目用画像10Lには,中央のタワー11に対応するタワー画像11Lが中央に表示されている。このタワー画像11Lの左側に人物12に対応する人物像12Lが表示されている。左目用画像10Lの右下隅には壁13に対応する壁画像13Lが表示されている。
第2b図を参照して,右目用画像10Rにも,中央にタワー画像11Rが表示され,そのタワー画像11Rの左に人物像12Rが表示されている。右目用画像10Rの右下隅には壁画像13Rが表示されている。
第2a図に示す左目用画像10Lと第2b図に示す右目用画像10Rとの間には視差がある。立体画像として表示する場合には,左目用画像10Lと右目用画像10Rとに共通に含まれる,ある画像部分の視差が除かれるように(無くなるように),左目用画像10Lと右目用画像10Rとを水平方向にずらす必要がある。この実施例では,左目用画像10Lと右目用画像10Rとのそれぞれの画像から所望の対象画像部分が検出され,その検出された対象画像部分の視差が除かれるように,左目用画像10Lと右目用画像10Rとが水平方向にずらされる。複数の対象画像部分が見つけられた場合には,複数の対象画像部分のうちいずれか1つの対象画像部分の視差が除かれる。
この実施例では,人物12の顔画像が所望の対象画像部分とされるが,他の画像部分でもよいのはいうまでもない。
第2a図を参照して,左目用画像10Lから人物像12Lの顔画像5Lの検出処理が行われ,その顔画像5Lが検出される。検出された顔画像5Lを指定する枠15Lが左目用画像10Lに表示される。同様に,第2b図に示す右目用画像10Rにおいても人物像12Rの顔画像5Rの検出処理が行われ,その顔画像5Rが検出される。検出された顔画像5Rを指定する枠15Rが右目用画像10Rに表示される。
第3図は,被写体像と立体撮像ディジタル・カメラ1との関係を示している。
上述のように,左目用画像10Lから検出された顔画像5L(人物像12L)と右目用画像10Rから検出された顔画像5R(人物像12R)との視差が除かれるように左目用画像10Lと右目用画像10Rとがずらされると,人物像12には,ずれが無くなる。
人物12の後方にあるタワー11は,左目用画像10Lに含まれるタワー画像11Lと右目用画像10Rに含まれるタワー画像11Rとによって表される。これらのタワー画像11Lと11Rとの間にずれが生じる(奥側二重像)。また,人物12の前方にある壁13は,左目用画像10Lに含まれる壁画像13Lと右目用画像10Rに含まれる壁画像13Rとによって表される。これらの壁画像13Rと壁画像13Lとの間にもずれが生じる(手前二重像)。
タワー11は,視差ずれの無い人物12の後方にあるので,左目用画像10Lに含まれるタワー画像11Lは右目用画像10Rに含まれるタワー画像11Rの右側にある。これに対して,壁13は,視差ずれの無い人物12の手前にあるので,左目用画像10Lに含まれる壁画像13Lは右目用画像10Rに含まれる壁画像13Rの左側にある。
第4図は,第2a図に示す左目用画像10Lと第2b図に示す右目用画像10Rとを重ね合わせる(ずらされる)ことにより得られる立体画像の一例である。
この立体画像10は,左目用画像10Lから検出された顔画像5Lと右目用画像10Rから検出された顔画像5Rとの視差が除かれるように左目用画像10Lと右目用画像10Rとがずらされているものである。
立体画像10には,タワー11,人物12および壁13にそれぞれ対応するタワー画像11,人物画像12および壁画像13(これらの符号もタワー11,人物12および壁13の符号と同じ符号を使用する)が含まれている。人物像12には視差ずれが無いが,タワー画像11および壁画像13には,視差ずれがあり二重の画像となっている。この実施例では,立体画像10のうち,検出された顔画像5を含む表示領域を決定し,その表示領域内の画像を拡大して表示するものである。
第5図は,立体画像10の一例である。
上述したように,立体画像10において,検出された顔画像5を含むように表示領域17が決定される。表示領域17は,立体画像10のアスペクト比と同じアスペクト比をもち,かつ立体画像10の上下左右の辺にそれぞれ平行な辺を有している。表示領域17内の画像が表示装置の表示画面全体に表示されるように拡大される。表示領域17外の画像には,検出された対象画像部分によって表される人物12の顔よりも手前にある(立体撮像ディジタル・カメラ1に近い)対象物である壁13を表す壁画像13(視差があるため二重である)も含まれている。人物12の顔よりも奥にある(立体撮像ディジタル・カメラから遠い)対象物であるタワー11を表すタワー画像11は,視差があるために二重であるが,このように視差が無い顔画像5によって表される顔5よりも奥にある対象物の画像は立体感を出すために必要であるが,顔5よりも手前にある対象物の画像は観賞者の目の負担を減らすためにも無くした方が好ましい。この実施例では,表示領域17外の画像は表示されないので,顔5よりも手前にある対象物の二重像が表示されなくなることが多い。しかも,顔画像5が含むように表示領域17が決定されているので,観賞者が見たい対象画像部分が表示されない,ということも未然に防止できる。
第6図は,立体撮像ディジタル・カメラの電気的構成を示すブロック図である。
立体撮像ディジタル・カメラの全体の動作は,メインCPU20によって統括される。立体撮像ディジタル・カメラには,撮像モード,再生モードなどのモード設定ボタン,立体動画記録の開始および終了を指定する動画ボタンなどの各種ボタン類が含まれている操作装置27が設けられている。操作装置27から出力される操作信号は,メインCPU20に入力する。
上述したように,立体撮像ディジタル・カメラには,第1の撮像装置2と第2の撮像装置3とが含まれている。これらの第1の撮像装置2と第2の撮像装置3とによって被写体が撮像される。
第1の撮像装置2は,被写体を撮像することにより,立体画像を構成する左目用画像を表す画像データを出力するものである。第1の撮像装置2には,第1の撮像素子(CCD,CMOSなど)34が含まれている。第1の撮像素子34の前方には,ズーム・レンズ31,フォーカス・レンズ32および絞り33が設けられている。これらのズーム・レンズ31,フォーカス・レンズ32および絞り33は,それぞれズーム・レンズ制御装置35,フォーカス・レンズ制御装置36および絞り制御装置37によって駆動させられる。撮像モードが設定され,第1の撮像素子34の受光面に左目用画像が結像すると,タイミング・ジェネレータ42から与えられるクロック・パルスにもとづいて,左目用画像を表す左目用映像信号が第1の撮像素子34から出力される。
第1の撮像素子34から出力された左目用映像信号は,アナログ信号処理装置39において,所定のアナログ信号処理が行われ,アナログ/ディジタル変換装置40においてディジタルの左目用画像データに変換される。左目用画像データは,画像入力コントローラ41からディジタル信号処理装置62に入力する。ディジタル信号処理装置62において左目用画像データに対して所定のディジタル信号処理が行われる。ディジタル信号処理装置62から出力された左目用画像データはAF検出装置76に入力し,フォーカス・レンズ32のレンズ位置を決定するAF評価値が算出される。算出されたAF評価値にもとづいてフォーカス・レンズ32が位置決めされる。また,左目用画像データは,AE/AWB検出装置77にも入力し,露出量および白バランス調整量が算出される。算出された露出量にもとづいて絞り33の絞り値および第1の撮像素子34のシャッタ速度(電子シャッタ)が決定される。また,算出された白バランス調整量にもとづいてアナログ信号処理装置39において白バランス調整が行われる。
第2の撮像装置3には,第2の撮像素子54が含まれている。第2の撮像素子54の前方には,ズーム・レンズ制御装置55,フォーカス・レンズ制御装置56および絞り制御装置57によってそれぞれ駆動させられるズーム・レンズ51,フォーカス・レンズ52および絞り53が設けられている。撮像モードが設定され,第2の撮像素子54の受光面に右目用画像が結像すると,タイミング・ジェネレータ62から与えられるクロック・パルスにもとづいて,右目用画像を表す右目用映像信号が第2の撮像素子54から出力される。
第2の撮像素子54から出力された右目用映像信号は,アナログ信号処理装置59において,所定のアナログ信号処理が行われ,アナログ/ディジタル変換装置60においてディジタルの右目用画像データに変換される。右目用画像データは,画像入力コントローラ61からディジタル信号処理装置62に入力する。ディジタル信号処理装置62において右目用画像データに対して所定のディジタル信号処理が行われる。ディジタル信号処理装置62から出力された右目用画像データもAF検出装置76に入力し,フォーカス・レンズ52のレンズ位置を決定するAF評価値が算出される。算出されたAF評価値にもとづいてフォーカス・レンズ52が位置決めされる。また,右目用画像データも,AE/AWB検出装置77に入力し,露出量および白バランス調整量が算出される。算出された露出量にもとづいて絞り53の絞り値および第2の撮像素子54のシャッタ速度(電子シャッタ)が決定される。また,算出された白バランス調整量にもとづいてアナログ信号処理装置59において白バランス調整が行われる。
上述のようにして得られた左目用画像データおよび右目用画像データは,被写体検出装置85にも入力する。被写体検出装置85において,上述のように,所望の対象画像部分(顔画像)が左目用画像および右目用画像のそれぞれから検出される。さらに,左目用画像データおよび右目用画像データならびに検出された対象画像部分の位置を示すデータは,視差調整装置83および二重像判定装置86を単に通過して位置ずれ量測定装置88に入力する。位置ずれ量測定装置88において,左目用画像および右目用画像のそれぞれの画像において,お互いに対応する画像部分のずれ方向およびずれ量が測定される。さらに,位置ずれ量測定装置88において,検出された対象画像部分によって表される対象物よりも手前の被写体を表す画像(手前二重像)の位置ずれか,その対象物よりも奥の被写体を表す画像(奥側二重像)の位置ずれかも検出される。
左目用画像において検出された対象画像部分と右目用画像において検出された対象画像部分との位置ずれがなくなるように(視差ずれが無くなるように),視差調節装置83において,左目用画像と右目用画像とがずらされる。視差調節装置83において画像がずらされた左目用画像データおよび右目用画像データは表示制御装置81に入力する。
また,検出された対象画像部分の位置を表すデータならびに左目用画像データおよび右目用画像データは表示領域計算装置87にも入力する。表示領域計算装置87において,上述したように表示領域の位置および大きさが算出される。算出された表示領域の位置および大きさを表すデータは,二重像判定装置86を単に通過して表示制御装置81に与えられる。
表示制御装置81において,検出された対象画像部分の視差が無くなり,かつ表示領域内の画像が表示画面全体に表示されるように拡大されて表示されるようにモニタ表示装置82が制御される。
さらに,立体撮像ディジタル・カメラには,左目用画像および右目用画像のうち,対象画像部分が一方から見つけられた場合に他方の画像から対象画像部分を見つける対応点検出装置84も含まれている。また,立体撮像ディジタル・カメラには,後述するように対象画像部分によって表される対象物よりも手前の被写体を表す手前二重像が存在するか,その手前二重像のずれの程度が許容範囲内かどうかを判定する二重像判定装置86も含まれている。
操作装置27に含まれているシャッタ・レリーズ・ボタンが押されると,上述のようにして得られる立体画像を表すデータ(左目用画像データおよび右目用画像データ)がメディア制御装置79によってメモリ・カード80に記録される。メモリ・カード80には,表示領域内の画像を表す左目用画像データおよび右目用画像データを記録するようにしてもよいが,好ましくは,表示領域外の画像も含めて撮像により得られた右目用画像データおよび左目用画像データがメモリ・カード80に記録される。
さらに,立体撮像ディジタル・カメラには,各種データ類を記憶するVRAM71,SDRAM72,フラッシュROM73およびROM74も含まれている。また,立体撮像ディジタル・カメラには,バッテリィ21が含まれており,このバッテリィ21から供給される電源が電源制御装置22に与えられる。電源制御装置22から立体撮像ディジタル・カメラを構成する各装置に電源が供給される。さらに,立体撮像ディジタル・カメラには,フラッシュ制御装置25によって制御されるフラッシュ24,姿勢検出センサ26および手振れ制御装置78も含まれている。
上述したメモリ・カード80に立体撮像ディジタル・カメラの動作プログラムが格納されており,その動作プログラムが立体撮像ディジタル・カメラにインストールされることにより,立体撮像ディジタル・カメラが動作する。もっとも,その動作プログラムは立体撮像ディジタル・カメラにプリ・インストールされていてもよいし,メモリ・カード80以外の可搬型記録媒体に記録されていてもよい。さらに,動作プログラムはネットワークを介して立体撮像ディジタル・カメラに与えられてもよい。その場合には立体撮像ディジタル・カメラには,ネットワークに接続するための通信装置が設けられよう。
第7図は,立体撮像ディジタル・カメラの処理手順を示すフローチャートである。
上述のように被写体が撮像され,第2a図および第2b図に示すように左目用画像と右目用画像とが得られる。得られた左目用画像と右目用画像とのそれぞれの画像から,対象画像部分(顔画像)が検出される。左目用画像と右目用画像とのうち,いずれか一方からでも対象画像部分が検出されると(ステップ91でYES),第4図に示したように,対象画像部分の視差ずれが除かれるように左目用画像と右目用画像とがずらされる(ステップ92)。対象画像部分が左目用画像および右目用画像のうち,一方の画像からのみ検出された場合には,特徴点検出装置84において他方の画像から特徴点を検出する処理が行われ,一方の画像から検出された対象画像部分に対応する画像部分が他方の画像から検出される。
上述したように,位置ずれ測定装置88によって得られる位置ずれの測定結果にもとづいて,検出された対象画像部分によって表される対象物よりも手前の被写体を表す手前二重像があるかどうかが判定される(ステップ93)。そのような手前二重像がある場合には(ステップ93でYES),位置ずれ測定装置88によって測定された位置ずれの結果にもとづいて,その手前二重像のずれが許容範囲内かどうかが判定される(ステップ94)。許容範囲外であれば(ステップ94でNO),上述したように,検出された対象画像部分が含まれるように表示領域(たとえば立体画像の大きさよりも小さく,立体画像と同じアスペクト比をもつ)が計算される(ステップ95)。
表示領域が計算されると,立体画像(左目用画像および右目用画像)から除外される範囲があるかどうかが確認される(ステップ96)。除外される範囲があると(ステップ96でYES),計算された表示領域が最低のサイズ(たとえばVGA:Video Graphic Array)よりも大きいかどうかが確認される(ステップ97)。
計算された表示領域が最低のサイズ以上であれば(ステップ97でYES),その表示領域内の画像を表示画面全体にわたって表示させることができるので,表示領域内の画像が拡大されて表示される(ステップ98)。目の負担が少なく,かつ観賞する場合に不快と感じる手前二重像が除去された立体画像が表示されるようになる。計算された表示領域が最低のサイズ未満であれば(ステップ97でNO),表示領域内の画像を表示画面全体にわたって表示させることはできないので,表示領域内の画像を拡大して表示せずに立体画像全体が表示画面全体にわたって表示される(ステップ99)。
対象画像部分が検出されなかった場合(ステップ91でNO),手前二重像が無い場合(ステップ93でNO),手前二重像のずれ量が許容範囲内の場合(ステップ94でYES),除外範囲が無い場合(ステップ96でNO)にも,表示領域内の画像を表示画面全体にわたって表示させることはできないので,表示領域内の画像を拡大して表示せずに立体画像全体が表示画面全体にわたって表示される(ステップ99)。
上述の実施例は,撮像時の得られた左目用画像データおよび右目用画像データについて行われているが,撮像時でなく,メモリ・カード80などの可搬型記録媒体(可搬型でなくともよい)に記録された左目用画像データおよび右目用画像データの再生時にも同様の処理を実施できるのはいうまでもない。
上述の実施例においては,手前二重像が除去された立体画像を表示させることができる。これにより,撮像時,いわゆるライブビューの時,再生時に,撮像した画像のアスペクト比と同じアスペクト比をもち,かつ視差ずれが少ない画像をユーザに見せることができる。上述の実施例では,いわゆるオート再生を考慮するものであり,そのようなオート再生において観賞者の目の負担を軽くできる。
手前二重像を除去するために,左目用画像および右目用画像のそれぞれの画像において,顔画像(対象画像)を正確に検出したいが,顔が立体撮像ディジタル・カメラ1から遠い場合,顔が正面ではなく斜めを向いている場合,顔の一部または全体が暗い場合などには顔画像が正確に検出できずに,右目用画像と左目用画像とのうち,一方の画像からしか検出できないことがある。そのような場合であっても,右目用画像と左目用画像とのうち他方の画像からも顔画像を検出して上述のように,手前二重像を除去することが好ましい。顔画像を検出するために,右目用画像および左目用画像のうち,顔画像が検出できなかった他方の画像全体に対して顔画像のテンプレートとのマッチング処理を行い,顔画像を検出すると,とくに上述した表示領域の計算(第7図ステップ95の処理)に比較的時間がかかってしまう。このために,顔画像が検出できなかった他方の画像から顔画像を比較的速く検出することが好ましい。以下に述べる実施例は,顔画像が検出できなかった他方の画像から顔画像を比較的速く検出するものである。
第8図から第17図は,他の実施例を示している。この実施例は,上述のように,左目用画像および右目用画像のうち,対象画像が検出できなかった他方の画像から対象画像を比較的速く検出し,一方の画像からのみ検出された対象画像部分も表示領域内に入るように表示領域を決定するものである。最初に,第8図から第17図を参照して,左目用画像および右目用画像のそれぞれに複数の人物が含まれており,少なくとも一人の人物については左目用画像および右目用画像の両方の画像で顔画像が検出される場合の処理について説明する。両方の画像で検出された顔画像について視差ずれがないようにした上で後述の顔画像を検出する処理の検出対象領域が設定される。
第8図は,立体撮像ディジタル・カメラ1と被写体との位置関係を平面的に示すもので,第1図に対応している。第8図において第1図に示すものと同一物については同一符号を付して説明を省略する。
第8図においては,上述した人物(第1の人物とする)12の右側の奥であって,タワー11よりも手前に第2の人物14がいる。上述した実施例では,撮像範囲内に対象画像となる人物像(顔画像)は一人であったが,この実施例においては,第2の人物14が新たに加わっており,撮像範囲内に二人の人物像が含まれている(三人以上であってもよい)。
第9a図および第9b図は,第8図に示す位置関係にある被写体を,立体撮像装置1の第1の撮像装置2および3においてそれぞれ撮像することにより得られた左目用画像および右目用画像である。これらの第9a図および第9b図も第2a図および第2b図にそれぞれ対応するもので,第2a図および第2b図に示すものと同一物については同一符号を付して説明を省略する。
左目用画像10Lにおいて,対象画像部分の検出処理が行われ,第1の人物12の顔画像5Lおよび第2の人物14の顔画像6Lがそれぞれ検出されたものとする(顔画像5Lを囲む枠15Lおよび顔画像6Lを囲む枠16Lも表示されている)。同様に,右目用画像10Rにおいて対象画像部分の検出処理が行われ,第1の人物12の顔画像5Rは検出されたが(顔画像5Rを囲む枠15Rが表示されている),第2の人物14の顔画像6Rは検出されなかったものとする。
左目用画像10Lから検出された顔画像6Lを利用して,その顔画像6Lに対応する顔画像6Rが右目用画像10Rから見つけられる。
第10図は,左目用画像10Lと右目用画像10Rとの両方の画像から検出された顔画像5L(5R)の大きさと,左目用画像10Lと右目用画像10Rとのうち一方の画像からのみ検出された顔画像6Lの大きさとを比較している。
この実施例においては,両方の画像から検出された顔画像5L(5R)の大きさが一方の画像からのみ検出された顔画像6Lの大きさよりも大きい場合には,一方の画像のみから検出された顔画像6Lによって表される被写体は,両方の画像から検出された顔画像5Lによって表される被写体よりも遠い(奥側)位置にあるものとされる。
第3図を参照して説明したように,両方の画像から検出された対象画像5L(第9a図参照)と対象画像5R(第9b図参照)との視差ずれが無くなると,その対象画像5よりも奥にある被写体は,左目用画像10Lによって表されるものが右側に,右目用画像10Rによって表されるものが左側となる。このため,左目用画像10Lに検出された顔画像6Lに対応する右目用画像10Rの位置よりも右側で顔画像6Lに対応する顔画像を右目用画像10Rから見つけると,比較的短時間で見つけられる。
目的としては,顔画像を見つけて顔画像に視差を合わせたいということであるが,顔画像が左目用画像および右目用画像のそれぞれの画像で見つかっている場合には,それらの画像がファイルに格納されており,そのファイルのヘッダ情報に顔画像の領域を表す座標情報が記録されているときには,視差を調節するために対応点検出する範囲は極めて限られた範囲となる。しかしながら,左目用画像および右目用画像のうち一方の画像でのみ顔画像が検出された場合であって,顔画像がどこにあるのかの情報が不足している状況で画像空間を総当りするようなシステムでは,対となる顔画像を探し出すところに膨大に時間的コストがかかるため,使用時のレスポンスを向上させるためには何らかの手段でこの探索範囲を限定し,高速に対応点検出処理を実施することがポイントとなる。ここでは,左目用画像および右目用画像の両方の画像から検出できた顔画像(両目検出顔画像)の大きさと,左目用画像と右目用画像とのうち一方の画像から検出できた顔画像(片目検出顔画像)の大きさとを比較することで,片目検出顔画像が両目検出顔画像よりも手前か奥かを判断し,手前か奥かの判断情報から手前側で探すか奥側を探すかの探索範囲を限定することで高速化を実現する。
この実施例では,左目用画像10Lと上記右目用画像10Rとの両方の画像から見つけられた対象画像部分の大きさよりも他方の画像からのみ見つけられた対象画像部分の大きさの方が大きいと判定され,かつ対象画像部分を見つけられなかった一方の画像が左目用画像の場合,または左目用画像と右目用画像との両方の画像から見つけられた対象画像部分の大きさよりも他方の画像からのみ見つけられた対象画像部分の大きさの方が小さいと判定され,かつ対象画像部分を見つけられなかった一方の画像が右目用画像の場合には,一方の画像からは見つけられなかった対象画像部分を,他方の画像において見つけられた対象画像部分に対応する位置の右側から見つける。
第11図は,第9a図および第9b図に示すように立体撮像ディジタル・カメラ1を用いて撮像された左目用画像10Lおよび右目用画像10Rにそれぞれ含まれる顔画像5Lおよび6Lならびに顔画像5Rおよび6Rを,それらの顔画像5Lおよび6Lならびに顔画像5Rおよび6Rの人物12および14と立体撮像ディジタル・カメラ1との位置関係に対応して表現しているものである。
第9a図および第9b図も参照して,立体撮像ディジタル・カメラ1に近い位置にいる人物については左目用画像10Lから顔画像5Lとして検出され,右目用画像10Rから顔画像5Rとして検出されたものとする。左目用画像10Lから顔画像5Lが検出されたことにより,第9a図および第11図に示すように枠15Lが顔画像5Lの周りに表示されている。右目用画像10Rから顔画像5Rが検出されたことにより,第9a図および第11図に示すように枠15Rが表示されている。
立体撮像ディジタル・カメラ1から遠い位置にいる人物については左目用画像10Lから顔画像6Lとして検出されるが,右目用画像10Rからは顔画像6Rが検出されなかったものとする。すると,右目用画像10Rにおいて,左目用画像10Lから検出された顔画像6Lに対応する位置の右側が顔画像6Rを検出する検出対象領域210として設定される。具体的には,この検出対象領域210は,左目用画像10Lにおいて検出された顔画像6Lを囲む枠16Lの左端に対応する右目用画像10Rの位置から右側に,最大幅w1が視差ずれの最大量に検出された顔の幅を加算した値以下となり,高さh1が左目用画像10Lにおいて検出された顔画像6Lの高さに対応する。もっとも,検出対象領域210の左端は,左目用画像10Lにおいて検出された顔画像6Lを囲む枠16Lの左端よりも少し左側とし,検出対象領域201の高さh1は,左目用画像10Lにおいて検出された顔画像6Lの高さよりも上下に少し大きくしてもよい。検出対象領域210から顔画像6Lが検出されるので,比較的迅速に顔画像6Lを検出できる。
第12a図は左目用画像の一例であり,第12b図は右目用画像の一例である。第13図は,第11図に対応するもので,第12a図および第12b図に示すように立体撮像ディジタル・カメラ1を用いて撮像された左目用画像10Lおよび右目用画像10Rにそれぞれ含まれる顔画像5Lおよび6Lならびに顔画像5Rおよび6Rを,それらの顔画像5Lおよび6Lならびに顔画像5Rおよび6Rの人物12および14と立体撮像ディジタル・カメラ1との位置関係に対応して表現しているものである。
立体撮像ディジタル・カメラ1から遠くにいる人物については左目用画像10Lから顔画像6Lとして検出され,右目用画像10Rから顔画像6Rとして検出されたものとする。左目用画像10Lから顔画像6Lが検出されたことにより,第12a図および第13図に示すように枠16Lが顔画像6Lの周りに表示されている。右目用画像10Rから顔画像6Rが検出されたことにより,第12a図および第13図に示すように枠16Rが表示されている。
立体撮像ディジタル・カメラ1から近い位置にいる人物については右目用画像10Rから顔画像5Rとして検出されるが,左目用画像10Lからは顔画像5Lが検出されなかったものとする。すると,左目用画像10Lにおいて,右目用画像10Rから検出された顔画像5Rに対応する位置の右側が顔画像5Lを検出する検出対象領域211として設定される。具体的には,この検出対象領域211は,右目用画像10Rにおいて検出された顔画像5Rを囲む枠15Rの右端に対応する左目用画像10Lの位置から左側に最大幅w2が視差ずれの最大量に検出された顔の幅を加算した値以下となり,高さh2が右目用画像10Rにおいて検出された顔画像5Rの高さに対応する。もっとも,検出対象領域211の左端も,右目用画像10Rにおいて検出された顔画像5Rを囲む枠15Rの左端よりも少し左側とし,検出対象領域211の高さh1は,右目用画像10Rにおいて検出された顔画像5Rの高さよりも上下に少し大きくしてもよい。検出対象領域211から顔画像5Lが検出されるので,比較的迅速に顔画像6Lを検出できる。
また,左目用画像と右目用画像との両方の画像から見つけられた対象画像部分の大きさよりも他方の画像からのみ見つけられた対象画像部分の大きさの方が大きいと判定され,かつ対象画像部分を見つけられなかった一方の画像が右目用画像の場合,または左目用画像と右目用画像との両方の画像から見つけられた対象画像部分の大きさよりも他方の画像からのみ見つけられた対象画像部分の大きさの方が小さいと判定され,かつ対象画像部分を見つけられなかった一方の画像が左目用画像の場合には,一方の画像からは見つけられなかった対象画像部分を,他方の画像において見つけられた対象画像部分に対応する位置の左側から見つける。
第14a図は左目用画像の一例であり,第14b図は右目用画像の一例である。第15図は,第11図,第13図に対応するもので,第14a図および第14b図に示すように立体撮像ディジタル・カメラ1を用いて撮像された左目用画像10Lおよび右目用画像10Rにそれぞれ含まれる顔画像5Lおよび6Lならびに顔画像5Rおよび6Rを,それらの顔画像5Lおよび6Lならびに顔画像5Rおよび6Rの人物12および14と立体撮像ディジタル・カメラ1との位置関係に対応して表現しているものである。
第9a図および第9b図ならびに第11図を参照して説明したのと同様に,立体撮像ディジタル・カメラ1に近い位置にいる人物については左目用画像10Lから顔画像5Lとして検出され,右目用画像10Rから顔画像5Rとして検出されたものとする。
立体撮像ディジタル・カメラ1から遠い位置にいる人物については右目用画像10Rから顔画像6Rとして検出されるが,左目用画像10Lからは顔画像6Lが検出されなかったものとする。すると,左目用画像10Lにおいて,右目用画像10Rから検出された顔画像6Rに対応する位置の左側が顔画像6Lを検出する検出対象領域212として設定される。この検出対象領域212は,右目用画像10Rにおいて検出された顔画像6Rを囲む枠16Rの右端に対応する左目用画像10Lの位置から左側に設定される。検出対象領域212の大きさは,上述した検出対象領域210の大きさと同じである(もっとも異なってもよい)。
第16a図は左目用画像の一例であり,第16b図は右目用画像の一例である。第17図は,第11図,第13図,第15図に対応するもので,第16a図および第16b図に示すように立体撮像ディジタル・カメラ1を用いて撮像された左目用画像10Lおよび右目用画像10Rにそれぞれ含まれる顔画像5Lおよび6Lならびに顔画像5Rおよび6Rを,それらの顔画像5Lおよび6Lならびに顔画像5Rおよび6Rの人物12および14と立体撮像ディジタル・カメラ1との位置関係に対応して表現しているものである。
立体撮像ディジタル・カメラ1から遠くにいる人物については左目用画像10Lから顔画像6Lとして検出され,右目用画像10Rから顔画像6Rとして検出されたものとする。
立体撮像ディジタル・カメラ1から近い位置にいる人物については左目用画像10Lから顔画像5Lとして検出されるが,右目用画像10Rからは顔画像5Rが検出されなかったものとする。すると,右目用画像10Rにおいて,左目用画像10Lから検出された顔画像5Lに対応する位置の左側が顔画像5Rを検出する検出対象領域213として設定される。検出対象領域213は,上述した検出対象領域211(第12a図参照)の大きさと同じである(異なってもよい)。
上述の実施例では,左目用画像と右目用画像との両方の画像から検出された顔画像の大きさと,左目用画像と右目用画像とのうち一方の画像からのみ検出された顔画像の大きさとを比較して,一方の画像からのみ検出され,他方の画像からは検出されない顔画像を検出する検出対象領域を決定しているが,左目用画像と右目用画像との両方の画像から検出される顔画像が少なくとも一つは存在しなければ(安定して顔画像が検出できなければ),その検出対象領域を決定できない。次に述べる実施例では,左目用画像と右目用画像との両方の画像から検出される顔画像が存在しなくとも,左目用画像と右目用画像とのうち一方の画像からのみ検出され,他方の画像からは検出されない顔画像を検出する検出対象領域を決定するものである。
第18図は,フォーカス・レンズ位置を示している。
左目用画像10Lおよび右目用画像10Rの両方から共通の対象画像部分(顔画像)が検出できなかった場合には,フォーカス・レンズ位置を利用して,一方の画像において検出された対象画像部分に対応する他方の画像における対象画像部分を検出する部分が決定される。
左目用画像および右目用画像のうち,対象画像部分が検出された方の画像の中央部が合焦するときのフォーカス・レンズの位置がP1であり,検出された対象画像部分が合焦するときのフォーカス・レンズの位置がP2であったものとする。すると,それらの位置P1と位置P2との位置関係から,画像の中央部に存在する被写体と検出された対象画像部分によって表される対象物との位置関係がわかる。この実施例では画像の中央部は視差ずれが無いように左目用画像と右目用画像とが調整される。
左目用画像と右目用画像とのうち,他方の画像からのみ見つけられた対象画像部分によって表される対象物の位置が,その他方の画像の中央部にある視差ずれの無い画像に対応する被写体の位置よりも手前にあり,かつ対象画像部分を見つけられなかった一方の画像が右目用画像の場合,または左目用画像と右目用画像とのうち,他方の画像からのみ見つけられた対象画像部分によって表される対象物の位置が,その他方の画像の中央部にある視差ずれの無い画像に対応する被写体の位置よりも奥にあり,かつ一方の画像が左目用画像の場合には,一方の画像からは見つけられなかった対象画像部分を,他方の画像において見つけられた対象画像部分に対応する位置の左側から見つける。
第19a図は左目用画像の一例であり,第19b図は右目用画像の一例である。これらの図において,第9a図および第9b図と同一物については同一符号を付して説明を省略する。
左目用画像10Lには中央にタワー画像11Lがあり,右目用画像10Rにも中央にタワー画像11Rがある。上述の実施例と異なり,左目用画像10Lと右目用画像10Rとは中央部にあるタワー画像11Lと11Rとの視差ずれが除去されているものとする。
また,左目用画像10Lから顔画像6Lが検出されているが,右目用画像10Rからは顔画像6Rが検出されていないものとする。第18図に示すように,中央部(タワー11)のフォーカス・レンズ位置P1よりも対象画像(左目用画像10Lから検出された顔画像6L)のフォーカス・レンズ位置P2がNear側にあるので,タワー11よりも顔6の人物14の方が手前にいることがわかる。すると,タワー11と人物14とは,第17図に示す位置関係に相当するので,右目用画像10Rにおいて,検出された顔画像6Lに対応する位置から左側に,顔画像6Rを検出する検出対象領域210Aが設定される。
第20a図は左目用画像の一例であり,第20b図は右目用画像の一例である。これらの図において,第16a図および第16b図と同一物については同一符号を付して説明を省略する。第20a図および第20b図においても,上述の実施例と異なり,左目用画像10Lと右目用画像10Rとはタワー画像11Lと11Rとの視差ずれが除去されているものとする。
左目用画像10Lから顔画像5Lが検出されているが,右目用画像10Rからは顔画像5Rが検出されていないものとする。この場合も,第19a図および第19b図に示すものと同様に,顔画像5Rを検出する人物12はタワー11よりも手前にあるから,右目用画像10Rにおいて,検出された顔画像5Lに対応する位置から左側に,顔画像5Rを検出する検出対象領域213が設定されることは理解できよう。
左目用画像と右目用画像とのうち,他方の画像からのみ見つけられた対象画像部分によって表される対象物の位置が,その他方の画像の中央部にある視差ずれの無い画像に対応する被写体の位置よりも手前にあり,かつ対象画像部分を見つけられなかった一方の画像が左目用画像の場合,または左目用画像と右目用画像とのうち,他方の画像からのみ見つけられた対象画像部分によって表される対象物の位置が,その他方の画像の中央部にある視差ずれの無い画像に対応する被写体の位置よりも奥にあり,かつ対象画像部分を見つけられなかった一方の画像が右目用画像の場合には,一方の画像からは見つけられなかった対象画像部分を,他方の画像において見つけられた対象画像部分に対応する位置の右側から見つける。
第21a図は左目用画像の一例であり,第21b図は右目用画像の一例である。これらの図において,第14a図および第14b図と同一物については同一符号を付して説明を省略する。これらの図においても,左目用画像10Lと右目用画像10Rとはタワー画像11Lと11Rとの視差ずれが除去されているものとする。
また,右目用画像10Rから顔画像6Rが検出されているが,左目用画像10Lからは顔画像6Lが検出されていないものとする。タワー11と人物14とは,第13図に示す位置関係に相当するので,左目用画像10Lにおいて,検出された顔画像6Rに対応する位置から右側に,顔画像6Lを検出する検出対象領域212Aが設定される。
第22a図は左目用画像の一例であり,第22b図は右目用画像の一例である。これらの図において,第12a図および第12b図と同一物については同一符号を付して説明を省略する。第22a図および第20b図においても,左目用画像10Lと右目用画像10Rとはタワー画像11Lと11Rとの視差ずれが除去されているものとする。
右目用画像10Rから顔画像5Rが検出されているが,左目用画像10Lからは顔画像5Lが検出されていないものとする。この場合も,第21a図および第21b図に示すものと同様に,顔画像5Rを検出する人物12はタワー11よりも手前にあるから,左目用画像10Lにおいて,検出された顔画像5Rに対応する位置から右側に,顔画像5Lを検出する検出対象領域211が設定されることは理解できよう。
第9b図では,左目用画像10Lにおいて検出された顔画像6Lを基準として右側に検出対象領域210が設定されているのに対し,第19b図では,左目用画像10Lにおいて検出された顔画像6Lを基準として左側に検出対象領域210Aが設定されている。また,第14a図では,右目用画像10Rにおいて検出された顔画像6Rを基準として左側に検出対象領域212が設定されているのに対し,第21a図では,右目用画像10Rにおいて検出された顔画像6Rを基準として左側に検出対象領域212Aが設定されている。このように検出対象領域が設定される方向が異なるのは,第9b図および第14a図では,顔画像が左目用画像10Lおよび右目用画像10Rの両方の画像で検出された人物12の視差ずれが除去され,その人物12を基準として顔画像6Rまたは6Lを検出する人物14が人物12よりも奥にいる状況で検出対象領域210および212を設定しているのに対し,第19b図および第21a図では,タワー11の画像11Lおよび11Rの視差ずれが除去され,そのタワー11を基準として顔画像6Rまたは6Lを検出する人物14がタワー11よりも手前にいる状況で検出対象領域210Aおよび212Aが設定されているからである。
第23図は,左目用画像と右目用画像とを重ねあわせた立体画像の一例であり,第5図に対応する。第23図において第5図に示すものと同一物については同一符号を付して説明を省略する。
上述のようにして,左目用画像10Lからは検出された顔画像6Lに対応する顔画像が,右目用画像10Rからは検出されなかった場合においても,顔画像6Rが見つけられる。立体画像に含まれる顔画像5および6(枠15および16も表示されている)を囲むように表示領域18が決定される。決定された表示領域内の画像が表示画面全体に表示されるようになる。
第24図は,立体撮像ディジタル・カメラの電気的構成を示すブロック図である。この図において,第5図に示すものと同一物については同一符号を付して説明を省略する。
第24図に示す立体撮像ディジタル・カメラには,フォーカス位置比較演算装置89が設けられている。このフォーカス位置比較演算装置89は,図18に示すように,左目用画像および右目用画像のうち対象画像部分が検出された画像において中央部分のフォーカス・レンズ位置と検出された対象画像部分のフォーカス・レンズ位置とを比較して,その中央部分に存在する被写体と検出された対象画像部分によって表される対象物との位置関係を算出するものである。算出された位置関係にもとづいて,対象画像部分が検出されなかった画像から,その対象画像部分を見つける領域が決定される。
第25図は,表示領域決定処理手順(第7図ステップ95の処理手順)を示すフローチャートである。
左目用画像および右目用画像のうち,一方の画像でのみ検出された対象画像部分があるかどうかが確認される(ステップ101)。一方の画像でのみ検出された対象画像部分があると(ステップ101でYES),左目用画像および右目用画像の両方の画像で検出された対象画像部分があるかどうかが確認される(ステップ102)。
両方の画像で検出された対象画像部分があると(ステップ102でYES),第10図を参照して説明したように,両方の画像で検出された対象画像部分の大きさが,一方の画像でのみ検出された対象画像部分の大きさよりも大きいかどうかが判定される(ステップ103)。両方の画像で検出された対象画像部分の大きさが,一方の画像でのみ検出された対象画像部分の大きさよりも大きい場合には(ステップ103でYES),両方の画像で検出された対象画像部分によって表される対象物よりも,一方の画像でのみ検出された対象画像部分によって表される対象物の方が手前にあると考えられる(マッチング方向を手前側にする)。上述したように,対象画像部分が検出できなかった画像が左目用画像か右目用画像によって,対象画像部分が検出できなかった一方の画像のうち,他方の画像において対象画像部分が検出された位置に対応する位置の右側または左側に設定される検出対象表示領域から検出されなかった対象画像部分が見つけられる(ステップ104,107)。ここで,マッチングとは,左目用画像および右目用画像のうち,一方の画像でしか見つかっていない対象画像を探す際に,他方の画像の中を,いわゆるパターン・マッチングのようにして対応点検出を行う演算作業の意味である。具体的には,第8図から第22a図および第22b図を参照して説明したように,顔画像を検出する処理である。
両方の画像で検出された対象画像部分の大きさが,一方の画像でのみ検出された対象画像部分の大きさよりも小さい場合には(ステップ103でNO),両方の画像で検出された対象画像部分によって表される対象物よりも,一方の画像でのみ検出された対象画像部分によって表される対象物の方が奥側にあると考えられる(マッチング方向を奥側にする)。そのために,上述したように,対象画像部分が検出できなかった画像が左目用画像か右目用画像によって,対象画像部分が検出できなかった一方の画像のうち,他方の画像において対象画像部分が検出された位置に対応する位置の右側または左側に設定される検出対象領域から検出されなかった対象画像部分が見つけられる(ステップ105,107)。
両方の画像から検出された対象画像部分が無かった場合には(ステップ102でNO),第18図を参照して説明したように,フォーカス・レンズの位置を利用して検出されなかった対象画像部分を見つける範囲が決定される。
中央部のフォーカス・レンズの位置に比較して,一方の画像からのみ検出された対象画像部分のフォーカス・レンズの位置が手前であると(ステップ106でYES),中央に存在する被写体よりも,一方の画像でのみ検出された対象画像部分によって表される対象物の方が手前にあると考えられる(マッチング方向を手前側にする)。上述したように,検出対象領域を設定し,対象画像部分が検出できなかった画像が左目用画像か右目用画像によって,対象画像部分が検出できなかった一方の画像のうち,検出されなかった対象画像部分が検出対象領域から見つけられる(ステップ104,107)。
中央部のフォーカス・レンズの位置に比較して,一方の画像からのみ検出された対象画像部分のフォーカス・レンズの位置が奥側であると(ステップ106でNO),中央に存在する被写体よりも,一方の画像でのみ検出され対象画像部分によって表される対象物の方が奥側にあると考えられる(マッチング方向を奥側にする)。上述したように,検出対象領域を設定し,対象画像部分が検出できなかった画像が左目用画像か右目用画像によって,対象画像部分が検出できなかった一方の画像のうち,検出されなかった対象画像部分が検出対象領域から見つけられる(ステップ105,107)。
一方の画像でのみ検出された対象画像部分が無ければ(ステップ101でNO),ステップ102からステップ107の処理はスキップされる。
見つけられた(検出された)すべての対象画像部分を含むように表示領域が計算される(ステップ108)。
上述の実施例は,顔画像を正確に検出し,手前二重像を除去するためのものであるが,マクロ・モードのように手前二重像を除去しないことが好ましい場合もある。その実施例が次に述べるものである。
第26図から第33図は,他の実施例を示している。この実施例は,対象画像部分が検出された場合であっても対象画像部分以外の画像部分が主要被写体であると考えられる場合に,その画像部分の視差ずれが無くなるように,左目用画像と右目用画像とをずらすものである。
第19図は,立体撮像ディジタル・カメラと被写体との位置関係を平面的に示すもので,第1図に対応している。この図において,第1図に示すものと同一物については同一符号を付して説明を省略する。
立体撮像ディジタル・カメラ1の前方には,人物111および花112がある。人物111よりも花112の方が手前にあり,花112は立体撮像ディジタル・カメラ1によって撮像できる撮像範囲のほぼ中心にある。
第27a図および第27b図は,第26図に示す位置関係にある人物111および花112を立体撮像ディジタル・カメラ1によって撮像した場合に得られる左目用画像110Lおよび右目用画像110Rの一例である。
第27a図を参照して,左目用画像110Lには,左上に人物111を表す人物像111Lが表示され,ほぼ中心に花112を表す花画像112Lが表示されている。対象画像部分検出処理が行われることにより,顔画像115Lが検出され,その検出された顔画像115Lの周りに枠113Lが表示されている。
第27b図を参照して,右目用画像110Rには,左上に人物111を表す人物像111Rが表示され,ほぼ中心に花112を表す花画像112Rが表示されている。対象画像部分検出処理が行われることにより,顔画像115Rが検出され,その検出された顔画像115Rの周りに枠113Rが表示されている。
第28図から第30図は,対象画像部分を検出したときの撮像レンズのフォーカス位置と中央部の撮像レンズのフォーカス位置と,主要被写体らしさを表す指数との関係を示している。第28図は,ズーム・レンズがワイド側に設定されている場合の関係のグラフG1を示し,第29図は,ズーム・レンズがワイド側とテレ側との中間に設定されている場合の関係のグラフG2を示し,第30図は,ズーム・レンズがテレ側に設定されている場合の関係のグラフG3を示している。
主要被写体らしさを表す指数FPは,ズーム・レンズのズーム・ポジションに対応してそれぞれのズーム・ポジションごとにあらかじめ記憶されている。第28図に示すように,ズーム・レンズがワイド側(広角側)であれば,Near側が最大値となるようなグラフG1となる。第29図に示すように,ズーム・レンズがワイド側とテレ側との中間であれば,Near側とFar側とのほぼ中間が最大値となるようなグラフG2となる。第30図に示すように,ズーム・レンズがテレ側(望遠側)であれば,Far側が最大値となるようなグラフG3となる。これらのフォーカス・レンズ位置と主要被写体らしさの指数との関係を示すグラフはズーム・ポジションに応じて連続的に変化する。ズーム・ポジションに応じて,フォーカス・レンズ位置と主要被写体らしさの指数との関係を示すグラフがあらかじめ記憶されており(実際にはテーブルの形態で記憶されていよう),それらのグラフの中から設定されているズーム・ポジションに対応したグラフが選択され,その選択されたグラフを用いて対象画像部分を検出したときの撮像レンズのフォーカス位置および中央部の撮像レンズのフォーカス位置を決定したときの主要被写体らしさを表す指数FPが算出される。
対象画像部分を検出したときのフォーカス・レンズの位置はP12であり,中央部分の被写体を合焦するときのフォーカス・レンズの位置はP11であるとする。
ズーム・ポジションがワイド側の場合には第28図に示すグラフG1を用いて,フォーカス・レンズの位置P11およびP12を垂直に伸ばしたときに,グラフG1との交点の指数がそれぞれの主用被写体らしさとなる。中央部分の被写体の主要被写体らしさを表す指数はF1であり,対象画像部分の主要被写体らしさを表す指数はF2である。F1>F2であるため,中央部分の被写体の方が対象画像部分によって表される対象物よりも主要被写体らしいと考えられる。
ズーム・ポジションが中間の場合であり,第29図に示すグラフG2が用いられる場合には,中央部分の被写体の主要被写体らしさを表す指数はF3であり,対象画像部分の主要被写体らしさを表す指数はF1である。F1>F3であるため,対象画像部分によって表される対象物の方が中央部分の被写体よりも主要被写体らしいと考えられる。
ズーム・ポジションがテレ側の場合には第30図に示すグラフG3を用いて,中央部分の被写体の主要被写体らしさを表す指数はF4であり,対象画像部分の主要被写体らしさを表す指数はF1である。F1>F4であるため,対象画像部分によって表される対象物の方が中央部分の被写体よりも主要被写体らしいと考えられる。
ズーム・レンズがワイド側に設定されるマクロ・モードのように,ユーザが近距離にある被写体を狙って撮像している場合には,その被写体の視差を除去し,手前二重像の除去は行われない。
第31図は,第27a図および第27b図に示す左目用画像と右目用画像とを重ね合わせた立体画像110の一例である。
立体画像110には,人物111を表す人物像111および花112を表す花画像112が含まれている(人物像111および花画像112も人物111および花112と同じ符号とする)。人物像111は顔画像115が検出されており,その顔画像115の周りに枠113が表示されている。
この実施例では,マクロ・モードが設定され,第28図に示したように,人物像111の主要被写体らしさの指数F2よりも花画像112の主要被写体らしさの指数F1の方が大きいので,人物像111に視差ずれが生じないように左目用画像110Lと右目用画像110Rとをずらすのではなく,主要被写体と考えられる花画像112に視差ずれが生じないように左目用画像110Lと右目用画像110Rとがずらされる。立体画像110に含まれる花画像112は視差ずれが除去される。
第32図は,立体撮像ディジタル・カメラ1の電気的構成を示すブロック図である。この図において,第24図に示すものと同一物については同一符号を付して説明を省略する。
第32図に示す立体撮像ディジタル・カメラ1には,主要被写体らしさ判定装置109が設けられている。この主要被写体らしさ判定装置109において,上述したように,画像の中央に存在する画像の主要被写体らしさの指数と検出された対象画像部分の主要被写体らしさの指数とが比較され,主要被写体らしさの指数の高い画像の視差ずれが無くなるように,左目用画像と右目用画像とがずらされる。
第33図は,左目用画像と右目用画像とをずらす処理手順(第7図ステップ92の処理手順)を示すフローチャートである。
左目用画像と右目用画像とを重ね合わせて得られる立体画像の中央部に二重像があるかどうかが判定される(ステップ121)。中央部に二重像があれば(ステップ121でYES),上述のように中央部にある二重像の主要被写体らしさの指数が算出される(ステップ122)。つづいて,検出された対象画像部分の主要被写体らしさの指数も算出される(ステップ123)。
算出された主要被写体らしさの指数が比較され(ステップ124),中央部にある二重像の主要被写体らしさの指数の方が検出された対象画像部分の主要被写体らしさの指数よりも大きければ,中央部の二重像の視差ずれを除くように左目用画像と右目用画像とがずらされる(ステップ126)。逆に,検出された対象画像部分の主要被写体らしさの指数よりも中央部にある二重像の主要被写体らしさの指数の方が大きければ,複数の対象画像部分が存在するかどうかが確認される(ステップ125)。複数の対象画像部分が存在する場合には(ステップ124),優先度の高い対象画像部分の視差ずれが除かれるように左目用画像および右目用画像がずらされる(ステップ127)。優先度には,検出された対象画像部分の大きさの大きい順,検出された対象画像部分の位置が中央に近い順などがあり,あらかじめ設定されているのはいうまでもない。複数の対象画像部分が存在しない場合には(ステップ124でNO),検出された対象画像部分の視差ずれが除かれるように,左目用画像と右目用画像とがずらされる(ステップ128)。
上述の実施例は,いわゆるオート再生を考慮しているものであるが,ユーザがマニアル・ズームを利用して再生する場合もある。そのような場合であっても,ズーム動作に応じて,視差ずれが少なく,ユーザの目に負担の少ない良好の画像を再生することが好ましい。そのような実施例が次に述べるものである。
第34図から第37図は,他の実施例を示している。この実施例は,再生時における電子ズーム処理についてのものである。
第34図および第35図は,再生された立体画像(左目用画像と右目用画像とが重ねられた画像)の一例である。第34図は,対象画像部分5の視差ずれが除かれた立体画像であり,第35図は,中央のタワー画像11の視差ずれが除かれた立体画像である。これらの図は,第1図に示す位置関係にある被写体を撮像して得られたものであり,第4図に示すものと同一物については同一符号を付して説明を省略する。
再生時に電子ズーム処理が行われる場合,第21図および第22図に示すようにズーム領域131が指定される。立体撮像ディジタル・カメラ1に含まれる操作装置27を利用してズーム領域131が指定される。指定されたズーム領域131内の画像が表示画面全体に表示されるように拡大処理が行われる。
再生時に対象画像部分を検出し,検出された対象画像部分の視差ずれがなくなるように左目用画像と右目用画像とをずらして立体画像を表示する場合において,上述のように電子ズーム処理が行われると,指定されたズーム領域131から対象画像部分が外れることがある。第34図に示すように,そのような状況で電子ズーム処理が行われると拡大された立体画像には視差ずれが除かれた対象画像部分が含まれていない立体画像が表示されることとなる。このために,この実施例では,第35図に示すように,検出された対象画像部分がズーム領域131から外れた場合に中央部に存在する画像部分(タワー画像11)の視差ずれがなくなるように左目用画像と右目用画像とがずらされる。
第36図は,立体撮像ディジタル・カメラの電気的構成を示すブロック図である。この図において,第32図に示すものと同一物については同一符号を付して説明を省略する。
第36図に示す立体撮像ディジタル・カメラには,ズーム領域判定装置132が含まれている。ズーム領域判定装置132において,上述のように,指定されたズーム領域内の対象画像部分が含まれているかどうかが判定される。ズーム領域内に対象画像部分が含まれていない場合には,画像の中心またはズーム領域の中心にある画像の視差が除かれるように左目用画像と右目用画像とがずらされて,ズーム領域内の画像が拡大される。
第37図は,電子ズームによる再生処理手順を示すフローチャートである。
メモリ・カード80から左目用画像データおよび右目用画像データが読み出され,左目用画像データおよび右目用画像データによってそれぞれ表される左目用画像および右目用画像のそれぞれから対象画像部分の検出処理が行われる。左目用画像または右目用画像のいずれか一方の画像から対象画像部分の検出処理が行われるようにしてもよい。左目用画像および右目用画像から構成される立体画像がモニタ表示装置80の表示画面に表示され,電子ズーム領域が指定される。
ユーザによりズーム操作(マニアル・ズーム操作)が行われると(ステップ140でYES),立体画像の中に対象画像があるかどうかの判定処理が行われる。立体画像の中に対象画像部分があれば(ステップ141でYES),検出された対象画像部分が,指定された電子ズーム領域内にあるかどうかが判定される(ステップ142)。
検出された対象画像部分が,指定された電子ズーム領域内にあると(ステップ142でYES),表示領域内に複数の対象画像部分が含まれているかどうかが確認される(ステップ143)。
複数の対象画像部分が存在する場合には(ステップ143でYES),上述したのと同様に優先度の高い対象画像部分の視差ずれが除かれるように左目用画像および右目用画像がずらされる(ステップ145)。複数の対象画像部分が存在しない場合には(ステップ142でNO),検出された対象画像部分の視差ずれが除かれるように,左目用画像と右目用画像とがずらされる(ステップ146)。
立体画像に対象画像部分が存在しない場合(ステップ141でNO),検出された対象画像部分が,指定された電子ズーム領域内にない場合には(ステップ142でNO),上述のように,立体画像の中央部分または電子ズーム領域の中央部分の画像の視差ずれが除かれるように左目用画像と右目用画像とがずらされて表示される(ステップ144)。
ユーザによるズーム操作が無ければ(ステップ140でNO),上述したステップ141から146までの処理はスキップされる。視差ずれの変更処理は行われない。
第38図から第42図は,他の実施例を示している。立体画像のプリントにおいて,手前二重像のような観賞する上で目障りで,目に負担のかかる部分を除去するものである。これにより,視差ずれが少なく,ユーザの目が疲れないようなプリントを提供するシステムを提供できる。この実施例は,上述のように,視差ずれ量が除かれる部分および表示領域をそれぞれ表すデータが,メモリ・カード80に記録されるものである。視差ずれ量が除かれる部分および表示領域をそれぞれ表すデータは,撮像によって得られた左目用画像データおよび右目用画像データとともにメモリ・カード80に記録されてもよいし,すでに左目用画像データおよび右目用画像データが記録されているメモリ・カード80に記録されるようにしてもよい。
第38図は,立体画像10の一例である。この第38図は第23図に対応するもので,第23図に示すものと同一物については同一符号を付して説明を省略する。
第38図を参照して,立体画像10に含まれる第1の人物像12の顔画像5の視差ずれが無くなるように表示される場合には,その顔画像5を囲む矩形枠15の左上の座標(x1,y1)および右下の座標(x2,y2)をそれぞれ示すデータが視差ずれ量が除かれる部分を表すデータとされる。
第39図は,立体画像10の一例である。この第39図も第23図に対応するもので,第23図に示すものと同一物については同一符号を付して説明を省略する。
立体画像10には第1の人物像12の顔画像5および第2の人物像14の顔画像6が検出されており,顔画像5を含むように矩形の表示領域18が決定される。すると,表示領域18の左上の座標(x3,y3)および右下の座標(x4,y4)をそれぞれ示すデータが表示領域18を表すデータとされる。
これらのデータが,視差ずれが除かれる部分および表示領域をそれぞれ表すデータとしてメモリ・カード80に記録される(たとえば,メモリ・カード80のヘッダ領域に記録される)。
視差ずれが除かれる部分および表示領域をそれぞれ表すデータならびに左目用画像データおよび右目用画像データが記録されているメモリ・カード80を写真店に持っていき,視差ずれが除かれる部分を表すデータが読み出されることにより,立体画像から視差ずれが除かれる画像部分が分かる。その画像部分の視差ずれがなくなるような立体画像をプリントできる。さらに,メモリ・カード80から表示領域を表すデータが読み出されることにより,立体画像のうち表示領域が分かる。その表示領域内の画像が1枚の画像となるようにプリントできる。
第42図は,立体画像10の一例である。この第42図も第23図に対応するもので,第23図に示すものと同一物については同一符号を付して説明を省略する。
第40図を参照して,立体画像10に含まれる第1の人物像12の顔画像6の視差ずれが無くなるように表示される場合には,その顔画像6を囲む矩形枠16の左上の座標(x5,y5)および右下の座標(x6,y7)をそれぞれ示すデータが視差ずれ量が除かれる部分を表すデータとされる。
第41図は,立体画像10の一例である。この第41図も第23図に対応するもので,第23図に示すものと同一物については同一符号を付して説明を省略する。
立体画像10には第1の人物像12の顔画像5および第2の人物像14の顔画像6が検出されており,顔画像6を含むように矩形の表示領域18が決定される。すると,表示領域18の左上の座標(x7,y7)および右下の座標(x8,y8)をそれぞれ示すデータが表示領域18を表すデータとされる。
これらのデータが,上述したのと同様に視差ずれが除かれる部分および表示領域をそれぞれ表すデータとしてメモリ・カード80に記録される。
上述したのと同様に,視差ずれが除かれる部分および表示領域をそれぞれ表すデータならびに左目用画像データおよび右目用画像データが記録されているメモリ・カード80を写真店に持っていき,視差ずれが除かれる部分を表すデータが読み出されることにより,立体画像から視差ずれが除かれる画像部分が分かる。その画像部分の視差ずれがなくなるような立体画像をプリントできる。さらに,メモリ・カード80から表示領域を表すデータが読み出されることにより,立体画像のうち表示領域が分かる。その表示領域内の画像が1枚の画像となるようにプリントできる。
上述した実施例では,視差ずれが除かれる画像部分および表示領域は立体画像10における座標として捉えているが,実際には立体画像は左目用画像と右目用画像とから構成されるので,左目用画像および右目用画像のそれぞれの画像において視差ずれが無くなる部分を示す座標位置ならびに表示領域を示す座標位置がメモリ・カード80に記録されることとなる。
第42図は,立体撮像ディジタル・カメラの電気的構成を示すブロック図である。この図において,第36図に示すものと同一物については同一符号を付して説明を省略する。
第42図に示す立体撮像ディジタル・カメラには,プリント・オーダ情報生成装置109が設けられている。このプリント・オーダ情報生成装置109は,立体画像のプリントに関する情報を生成するものである。プリントする立体画像がモニタ表示装置82に立体画像が表示される。モニタ表示装置82に表示された立体画像(左目用画像および右目用画像)を特定するデータ(例えばフレーム番号データ),プリント枚数を表すデータのほか,上述したように,視差ずれを無くす画像部分を示すデータおよび表示領域を示すデータがプリント・オーダ情報として生成される。生成されたプリント・オーダ情報がメモリ・カード80に記録され,そのプリント・オーダ情報にしたがって,立体画像がプリントされる。
Claims (12)
- 立体画像を構成する左目用画像と右目用画像とのそれぞれの画像から所望の対象画像部分を見つける第1の対象画像部分検出装置,
上記第1の対象画像部分検出装置においてそれぞれ見つけられた,上記左目用画像の対象画像部分と上記右目用画像の対象画像部分との視差ずれが除かれるように上記左目用画像と上記右目用画像とをずらす視差ずらし装置,
上記視差ずらし装置によってずらされた上記左目用画像と上記右目用画像とのうち,上記視差ずらし装置によって視差ずれが除かれた対象画像部分を含む表示領域を決定する表示領域決定装置,および
上記視差ずらし装置によってずらされた上記左目用画像と上記右目用画像とのうち,上記表示領域決定装置によって決定された表示領域内の画像を拡大して表示するように表示装置を制御する表示制御装置,
を備えた立体画像制御装置。 - 上記第1の対象画像部分検出装置によって検出された対象画像部分により表される対象物よりも手前に存在する被写体を表す手前被写体像が上記左目用画像および上記右目用画像のそれぞれに含まれているかどうかを判定する第1の判定装置,および
上記第1の判定装置によって,上記手前被写体像が上記左目用画像および上記右目用画像のそれぞれに含まれていると判定されたことにより,上記左目用画像に含まれている手前被写体像と上記右目用画像に含まれている手前被写体像とのずれ量が許容範囲外かどうかを判定する第2の判定装置をさらに備え,
上記表示領域決定装置は,上記第2の判定装置により上記許容範囲外と判定されたことに応じて上記表示領域を決定するものである,
請求の範囲第1項に記載の立体画像制御装置。 - 上記対象画像部分検出装置において,上記左目用画像と上記右目用画像との両方の画像から見つけられた対象画像部分の大きさよりも上記左目用画像と上記右目用画像とのうちの一方の画像からは見つけられずに他方の画像からは見つけられた対象画像部分の大きさの方が大きいかどうかを判定する大きさ判定装置,および
上記大きさ判定装置によって,上記左目用画像と上記右目用画像との両方の画像から見つけられた対象画像部分の大きさよりも上記他方の画像からは見つけられた対象画像部分の大きさの方が大きいと判定され,かつ上記一方の画像が上記左目用画像の場合,または上記左目用画像と上記右目用画像との両方の画像から見つけられた対象画像部分の大きさよりも上記他方の画像からは見つけられた対象画像部分の大きさの方が小さいと判定され,かつ上記一方の画像が上記右目用画像の場合には,上記一方の画像からは見つけられなかった対象画像部分を,上記他方の画像において見つけられた対象画像部分に対応する位置の右側から見つけ,上記大きさ判定装置によって,上記左目用画像と上記右目用画像との両方の画像から見つけられた対象画像部分の大きさよりも上記他方の画像からは見つけられた対象画像部分の大きさの方が大きいと判定され,かつ上記一方の画像が上記右目用画像の場合,または上記左目用画像と上記右目用画像との両方の画像から見つけられた対象画像部分の大きさよりも上記他方の画像からは見つけられた対象画像部分の大きさの方が小さいと判定され,かつ上記一方の画像が上記左目用画像の場合には,上記一方の画像からは見つけられなかった対象画像部分を,上記他方の画像において見つけられた対象画像部分に対応する位置の左側から見つける第2の対象画像検出装置をさらに備え,
上記表示領域決定装置は,
上記視差ずらし装置によってずらされた上記左目用画像と上記右目用画像とのうち,上記視差ずらし装置によって視差ずれが除かれた対象画像部分,上記第1の対象画像部分検出装置において他方の画像から見つけられた対象画像部分および上記第2の対象画像部分検出装置において一方の画像から見つけられた対象画像部分を含む表示領域を決定するものである,
請求の範囲第2項に記載の立体画像制御装置。 - 上記左目用画像と上記右目用画像とのうち,上記第1の対象画像検出装置において他方の画像からのみ見つけられた対象画像部分によって表される対象物の位置が,その他方の画像の中心部にある画像に対応する被写体の位置よりも手前にあり,かつ上記一方の画像が左目用画像の場合,または上記左目用画像と上記右目用画像とのうち,上記第1の対象画像検出装置において他方の画像からのみ見つけられた対象画像部分によって表される対象物の位置が,その他方の画像の中心部にある画像に対応する被写体の位置よりも奥にあり,かつ上記一方の画像が右目用画像の場合には,上記一方の画像からは見つけられなかった対象画像部分を,上記他方の画像において見つけられた対象画像部分に対応する位置の右側から見つけ,上記左目用画像と上記右目用画像とのうち,上記第1の対象画像検出装置において他方の画像からのみ見つけられた対象画像部分によって表される対象物の位置が,その他方の画像の中心部にある画像に対応する被写体の位置よりも手前にあり,かつ上記一方の画像が右目用画像の場合,または上記左目用画像と上記右目用画像とのうち,上記第1の対象画像検出装置において他方の画像からのみ見つけられた対象画像部分によって表される対象物の位置が,その他方の画像の中心部にある画像に対応する被写体の位置よりも奥にあり,かつ上記一方の画像が左目用画像の場合には,上記一方の画像からは見つけられなかった対象画像部分を,上記他方の画像において見つけられた対象画像部分に対応する位置の左側から見つける第3の対象画像部分検出装置をさらに備え,
上記表示領域決定装置は,
上記視差ずらし装置によってずらされた上記左目用画像と上記右目用画像とのうち,上記視差ずらし装置によって視差ずれが除かれた対象画像部分,上記第1の対象画像部分検出装置において他方の画像からのみ見つけられた対象画像部分および上記第3の対象画像部分検出装置において一方の画像から見つけられた対象画像部分を含む表示領域を決定するものである,
請求の範囲第3項に記載の立体画像制御装置。 - 上記左目用画像の中央部分と上記右目用画像の中央部分とのそれぞれに,上記第1の対象画像部分検出装置によって検出された対象画像部分によって表される対象物よりも手前に存在する被写体を表す中央被写体像があることにより,上記中央被写体像の主要被写体らしさと上記第1の対象画像部分検出装置によって検出された対象画像部分の主要被写体らしさを比較する比較装置をさらに備え,
上記視差ずらし装置は,
上記比較装置により,上記中央被写体像の主要被写体らしさが上記第1の対象画像部分検出装置によって検出された対象画像部分の主要被写体らしさよりも大きいと判定されたことにより,上記左目用画像の上記中央被写体像と上記右目用画像の上記中央被写体像との菱さずれが除かれるように上記左目用画像と上記右目用画像とをずらすものである,
請求の範囲第4項に記載の立体画像制御装置。 - 上記左目用画像を表す左目用画像データ,上記右目用画像を表す右目用画像データ,ならびに上記視差ずらし装置によって視差ずれが除かれる部分および上記表示領域決定装置によって決定された表示領域をそれぞれ表すデータを可搬型記録媒体に記録する記録制御装置,
をさらに備えた請求の範囲第5項に記載の立体画像制御装置。 - 上記左目用画像を表す左目用画像データ,および上記右目用画像を表す右目用画像データが可搬型記録媒体に記録されており,
上記視差ずらし装置によって視差ずれが除かれる部分および上記表示領域決定装置によって決定された表示領域をそれぞれ表すデータを上記可搬型記録媒体に記録する記録制御装置,
をさらに備えた請求の範囲第6項に記載の立体画像制御装置。 - 左目用画像と右目用画像とを重ね合わせて立体画像を生成する立体画像生成装置,
上記立体画像生成装置によって生成された立体画像の中から所望の対象画像部分を見つける対象画像検出装置,
上記立体画像生成装置によって生成された立体画像の中から電子ズーム領域を指定する電子ズーム領域指定装置,
上記電子ズーム領域指定装置によって指定された電子ズーム領域の中に,上記対象画像検出装置によって検出された対象画像が含まれているかどうかを判定する判定装置,
上記判定装置によって,電子ズーム領域に対象画像が含まれていないと判定されたことにより,上記立体画像または上記電子ズーム領域の中央部分の視差ずれが無くなるように,左目用画像と右目用画像とをずらし,上記判定装置によって電子ズーム領域に対象画像が含まれていると判定されたことにより,上記対象画像検出装置によって検出された対象画像の視差ずれが無くなるように,左目用画像と右目用画像とをずらす視差ずらし装置,および
上記電子ズーム領域内の画像を拡大して表示する表示制御装置,
を備えた立体画像制御装置。 - 対象画像部分検出装置が,立体画像を構成する左目用画像と右目用画像とのそれぞれの画像から所望の対象画像部分を見つけ,
視差ずらし装置が,上記第2の対象画像部分検出装置においてそれぞれ見つけられた,上記左目用画像の対象画像部分と上記右目用画像の対象画像部分との視差ずれが除かれるように上記左目用画像と上記右目用画像とをずらし,
表示領域決定装置が,上記視差ずらし装置によってずらされた上記左目用画像と上記右目用画像とのうち,上記視差ずらし装置によって視差ずれが除かれた対象画像部分を含む表示領域を決定し,
表示制御装置が,上記視差ずらし装置によってずらされた上記左目用画像と上記右目用画像とのうち,上記表示領域決定装置によって決定された表示領域内の画像を拡大して表示するように表示装置を制御する,
立体画像制御装置の動作制御方法。 - 立体画像生成装置が,左目用画像と右目用画像とを重ね合わせて立体画像を生成し,
対象画像検出装置が,上記立体画像生成装置によって生成された立体画像の中から所望の対象画像部分を見つけ,
電子ズーム領域指定装置が,上記立体画像生成装置によって生成された立体画像の中から電子ズーム領域を指定し,
判定装置が,上記電子ズーム領域指定装置によって指定された電子ズーム領域の中に,上記対象画像検出装置によって検出された対象画像が含まれているかどうかを判定し,
視差ずらし装置が,上記判定装置によって,電子ズーム領域に対象画像が含まれていないと判定されたことにより,上記立体画像または上記電子ズーム領域の中央部分の視差ずれが無くなるように,左目用画像と右目用画像とをずらし,上記判定装置によって電子ズーム領域に対象画像が含まれていると判定されたことにより,上記対象画像検出装置によって検出された対象画像の視差ずれが無くなるように,左目用画像と右目用画像とをずらし,
表示制御装置が,上記電子ズーム領域内の画像を拡大して表示する,
立体画像制御装置の動作制御方法。 - 立体画像制御装置の動作を制御するコンピュータ読み取り可能なプログラムであって,
立体画像を構成する左目用画像と右目用画像とのそれぞれの画像から所望の対象画像部分を見つけさせ,
それぞれ見つけられた,上記左目用画像の対象画像部分と上記右目用画像の対象画像部分との視差ずれが除かれるように上記左目用画像と上記右目用画像とをずらさせ,
ずらされた上記左目用画像と上記右目用画像とのうち,視差ずれが除かれた対象画像部分を含む表示領域を決定させ,
ずらされた上記左目用画像と上記右目用画像とのうち,決定された表示領域内の画像を拡大して表示するように表示装置を制御させるように上記立体画像制御装置の動作を制御するプログラム。 - 立体画像制御装置の動作を制御するコンピュータ読み取り可能なプログラムであって,
左目用画像と右目用画像とを重ね合わせて立体画像を生成させ,
生成された立体画像の中から所望の対象画像部分を見つけさせ,
生成された立体画像の中から電子ズーム領域を指定させ,
指定された電子ズーム領域の中に,検出された対象画像が含まれているかどうかを判定させ,
電子ズーム領域に対象画像が含まれていないと判定されたことにより,上記立体画像または上記電子ズーム領域の中央部分の視差ずれが無くなるように,左目用画像と右目用画像とをずらし,電子ズーム領域に対象画像が含まれていると判定されたことにより,検出された対象画像の視差ずれが無くなるように,左目用画像と右目用画像とをずらさせ,
上記電子ズーム領域内の画像を拡大して表示させるように立体画像制御装置の動作を制御するプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012518300A JP5425305B2 (ja) | 2010-05-31 | 2011-04-22 | 立体画像制御装置ならびにその動作制御方法およびその動作制御プログラム |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010123669 | 2010-05-31 | ||
JP2010123669 | 2010-05-31 | ||
JP2012518300A JP5425305B2 (ja) | 2010-05-31 | 2011-04-22 | 立体画像制御装置ならびにその動作制御方法およびその動作制御プログラム |
PCT/JP2011/060496 WO2011152167A1 (ja) | 2010-05-31 | 2011-04-22 | 立体画像制御装置ならびにその動作制御方法およびその動作制御プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2011152167A1 JPWO2011152167A1 (ja) | 2013-07-25 |
JP5425305B2 true JP5425305B2 (ja) | 2014-02-26 |
Family
ID=45066549
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012518300A Expired - Fee Related JP5425305B2 (ja) | 2010-05-31 | 2011-04-22 | 立体画像制御装置ならびにその動作制御方法およびその動作制御プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US9357205B2 (ja) |
JP (1) | JP5425305B2 (ja) |
CN (1) | CN103069818B (ja) |
WO (1) | WO2011152167A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4787369B1 (ja) * | 2010-03-30 | 2011-10-05 | 富士フイルム株式会社 | 画像処理装置および方法並びにプログラム |
JP5143262B1 (ja) * | 2011-08-30 | 2013-02-13 | 株式会社東芝 | 立体映像処理装置、立体映像処理方法 |
JP5281720B1 (ja) * | 2011-09-20 | 2013-09-04 | パナソニック株式会社 | 立体映像処理装置及び立体映像処理方法 |
US20140055579A1 (en) * | 2012-03-02 | 2014-02-27 | Panasonic Corporation | Parallax adjustment device, three-dimensional image generation device, and method of adjusting parallax amount |
US9886636B2 (en) * | 2013-05-23 | 2018-02-06 | GM Global Technology Operations LLC | Enhanced top-down view generation in a front curb viewing system |
US9729865B1 (en) | 2014-06-18 | 2017-08-08 | Amazon Technologies, Inc. | Object detection and tracking |
US10027883B1 (en) * | 2014-06-18 | 2018-07-17 | Amazon Technologies, Inc. | Primary user selection for head tracking |
CN104581115B (zh) * | 2014-12-03 | 2018-05-15 | 深圳市魔眼科技有限公司 | 一种基于人脸识别的景深自适应的全息显示方法及其装置 |
JP2017192086A (ja) * | 2016-04-15 | 2017-10-19 | キヤノン株式会社 | 画像生成装置、画像観察装置、撮像装置および画像処理プログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08317429A (ja) * | 1995-05-23 | 1996-11-29 | Matsushita Electric Ind Co Ltd | 立体電子ズーム装置及び立体画質制御装置 |
JP2004129186A (ja) * | 2002-07-31 | 2004-04-22 | Sharp Corp | 立体画像データ処理装置ならびに立体画像データ処理用プログラムおよび記録媒体 |
JP2008022150A (ja) * | 2006-07-11 | 2008-01-31 | Fujifilm Corp | 撮像装置 |
JP2009129420A (ja) * | 2007-11-28 | 2009-06-11 | Fujifilm Corp | 画像処理装置および方法並びにプログラム |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6762794B1 (en) * | 1997-12-03 | 2004-07-13 | Canon Kabushiki Kaisha | Image pick-up apparatus for stereoscope |
JP2001004370A (ja) | 1999-06-23 | 2001-01-12 | Fuji Photo Film Co Ltd | 視差画像撮像装置、視差画像処理装置、視差画像撮像方法、及び視差画像処理方法 |
JP3261115B2 (ja) * | 1999-09-22 | 2002-02-25 | 富士重工業株式会社 | ステレオ画像処理装置 |
JP2001148800A (ja) | 1999-11-18 | 2001-05-29 | Fuji Photo Film Co Ltd | デジタルカメラおよび画像処理方法 |
US7660472B2 (en) * | 2004-02-10 | 2010-02-09 | Headplay (Barbados) Inc. | System and method for managing stereoscopic viewing |
US7512262B2 (en) * | 2005-02-25 | 2009-03-31 | Microsoft Corporation | Stereo-based image processing |
JP4431547B2 (ja) * | 2006-04-14 | 2010-03-17 | 富士フイルム株式会社 | 画像表示制御装置ならびにそれらの制御方法およびそれらの制御プログラム |
JP5022630B2 (ja) | 2006-05-19 | 2012-09-12 | Hoya株式会社 | 電子内視鏡装置 |
EP2067360A1 (en) * | 2006-09-25 | 2009-06-10 | Nokia Corporation | Supporting a 3d presentation |
FR2917845B1 (fr) * | 2007-06-19 | 2011-08-19 | Christophe Brossier | Procede de visualisation d'une sequence d'images produisant une sensation de relief |
KR100918480B1 (ko) * | 2007-09-03 | 2009-09-28 | 한국전자통신연구원 | 스테레오 비전 시스템 및 그 처리 방법 |
JP4959535B2 (ja) * | 2007-12-13 | 2012-06-27 | 株式会社日立製作所 | 撮像装置 |
WO2009157707A2 (en) * | 2008-06-24 | 2009-12-30 | Samsung Electronics Co,. Ltd. | Image processing method and apparatus |
CN101562754B (zh) * | 2009-05-19 | 2011-06-15 | 无锡景象数字技术有限公司 | 一种改善平面图像转3d图像视觉效果的方法 |
US20110080466A1 (en) * | 2009-10-07 | 2011-04-07 | Spatial View Inc. | Automated processing of aligned and non-aligned images for creating two-view and multi-view stereoscopic 3d images |
US20120242803A1 (en) * | 2010-01-13 | 2012-09-27 | Kenjiro Tsuda | Stereo image capturing device, stereo image capturing method, stereo image display device, and program |
-
2011
- 2011-04-22 CN CN201180027164.8A patent/CN103069818B/zh not_active Expired - Fee Related
- 2011-04-22 WO PCT/JP2011/060496 patent/WO2011152167A1/ja active Application Filing
- 2011-04-22 JP JP2012518300A patent/JP5425305B2/ja not_active Expired - Fee Related
-
2012
- 2012-11-29 US US13/689,040 patent/US9357205B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08317429A (ja) * | 1995-05-23 | 1996-11-29 | Matsushita Electric Ind Co Ltd | 立体電子ズーム装置及び立体画質制御装置 |
JP2004129186A (ja) * | 2002-07-31 | 2004-04-22 | Sharp Corp | 立体画像データ処理装置ならびに立体画像データ処理用プログラムおよび記録媒体 |
JP2008022150A (ja) * | 2006-07-11 | 2008-01-31 | Fujifilm Corp | 撮像装置 |
JP2009129420A (ja) * | 2007-11-28 | 2009-06-11 | Fujifilm Corp | 画像処理装置および方法並びにプログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2011152167A1 (ja) | 2011-12-08 |
JPWO2011152167A1 (ja) | 2013-07-25 |
US9357205B2 (en) | 2016-05-31 |
CN103069818B (zh) | 2015-08-26 |
CN103069818A (zh) | 2013-04-24 |
US20130083174A1 (en) | 2013-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5425305B2 (ja) | 立体画像制御装置ならびにその動作制御方法およびその動作制御プログラム | |
JP5214826B2 (ja) | 立体パノラマ画像作成装置、立体パノラマ画像作成方法及び立体パノラマ画像作成プログラム並びに立体パノラマ画像再生装置、立体パノラマ画像再生方法及び立体パノラマ画像再生プログラム、記録媒体 | |
EP2590421B1 (en) | Single-lens stereoscopic image capture device | |
JP5814692B2 (ja) | 撮像装置及びその制御方法、プログラム | |
US10587860B2 (en) | Imaging apparatus and method for controlling same | |
JP2011077900A (ja) | 画像処理装置、カメラ及び画像処理方法 | |
JP5526233B2 (ja) | 立体視用画像撮影装置およびその制御方法 | |
US20130162764A1 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable medium | |
JP2011199478A (ja) | 撮影装置及びその表示制御方法並びに3次元情報取得装置 | |
JP5550791B2 (ja) | 画像処理装置、撮像装置及び視差量調整方法 | |
JP5449551B2 (ja) | 画像出力装置、方法およびプログラム | |
JP2008172342A (ja) | 立体画像記録装置および立体画像記録方法 | |
KR20140109868A (ko) | 화상 처리 장치, 화상 처리 방법, 및 비일시적 컴퓨터 판독가능 기억 매체 | |
US20120236126A1 (en) | Image pickup device, image pickup method, program, and integrated circuit | |
CN103339948B (zh) | 3d视频再现装置、3d成像装置和3d视频再现方法 | |
JP2014154907A (ja) | 立体撮像装置 | |
JP2017143354A (ja) | 画像処理装置及び画像処理方法 | |
JP2009258005A (ja) | 三次元測定装置及び三次元測定方法 | |
US9124866B2 (en) | Image output device, method, and recording medium therefor | |
US9094671B2 (en) | Image processing device, method, and recording medium therefor | |
JP6257260B2 (ja) | 撮像装置及びその制御方法 | |
JPWO2012043003A1 (ja) | 立体画像表示装置および立体画像表示方法 | |
JP2013046343A (ja) | 画像撮像装置 | |
JP2005072674A (ja) | 三次元画像生成装置および三次元画像生成システム | |
JP2013070154A (ja) | 複眼撮像装置およびその動作制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131029 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131126 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5425305 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |