JP2012099896A - 3d画像処理装置 - Google Patents
3d画像処理装置 Download PDFInfo
- Publication number
- JP2012099896A JP2012099896A JP2010243461A JP2010243461A JP2012099896A JP 2012099896 A JP2012099896 A JP 2012099896A JP 2010243461 A JP2010243461 A JP 2010243461A JP 2010243461 A JP2010243461 A JP 2010243461A JP 2012099896 A JP2012099896 A JP 2012099896A
- Authority
- JP
- Japan
- Prior art keywords
- image
- face
- unit
- eye
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Television Signal Processing For Recording (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
【課題】被写体の飛び出しや引き込み等の立体感について、好みの3D画像を手軽に撮影することができる3D画像処理装置を提供する
【解決手段】メモリ133は第一及び第二の撮影画像を記録する。顔検出部121は前記第一及び第二の撮影画像から被写体の顔画像を検出する。立体感決定部122は前記顔検出部121が検出した顔画像を有する被写体の立体感を決定し、算出部123は前記検出された顔画像から第一の撮影画像中の基準部分とその基準部分に対応する第二の撮影画像中の対応部分を算出する。視差調整部124は基準部分と対応部分の水平方向の視差を前記決定された立体感に基づいて調整する。出力画像領域決定部125は、前記視差調整部124によって調整された視差を有するように第一及び第二の出力画像の領域を決定し、画像出力部140はその決定された領域の出力画像を出力する。
【選択図】図1
【解決手段】メモリ133は第一及び第二の撮影画像を記録する。顔検出部121は前記第一及び第二の撮影画像から被写体の顔画像を検出する。立体感決定部122は前記顔検出部121が検出した顔画像を有する被写体の立体感を決定し、算出部123は前記検出された顔画像から第一の撮影画像中の基準部分とその基準部分に対応する第二の撮影画像中の対応部分を算出する。視差調整部124は基準部分と対応部分の水平方向の視差を前記決定された立体感に基づいて調整する。出力画像領域決定部125は、前記視差調整部124によって調整された視差を有するように第一及び第二の出力画像の領域を決定し、画像出力部140はその決定された領域の出力画像を出力する。
【選択図】図1
Description
本発明は3D画像処理装置に関し、より詳細にはユーザが被写体画像を好みの立体感とした3D画像を生成することができる3D画像処理装置に関する。
近年、水平方向に視差を有する2つの画像が左眼用画像及び右眼用画像として同一ディスプレイ上に表示され、観察者が左眼用画像を左眼で、右眼用画像を右眼でそれぞれ独立して観察することで、ディスプレイ上に表示された被写体画像があたかも立体的に存在するかのように知覚できる3D画像に関する技術の開発が盛んに行われている。
3D画像の表示及び観察方式としては、互いに直交する直線偏光を有する左眼用画像及び右眼用画像が同一ディスプレイ上に重ねて表示され、観察者が偏光フィルタの付いた眼鏡を用いて各画像を左右眼で独立して観察する方式がよく知られている。
また、左眼用画像及び右眼用画像それぞれが交互にディスプレイ上に表示され、観察者が左右の視界が交互に遮蔽される液晶シャッタの付いた眼鏡を用いて各画像を左右眼で独立して観察する方式等もよく知られている。
また、左眼用画像及び右眼用画像それぞれが交互にディスプレイ上に表示され、観察者が左右の視界が交互に遮蔽される液晶シャッタの付いた眼鏡を用いて各画像を左右眼で独立して観察する方式等もよく知られている。
これらの3D画像に関する技術では、被写体画像が観察者から見てディスプレイ面に対しどの程度前方に飛び出しているかのように知覚されるか、又は被写体画像が観察者から見てディスプレイ面に対しどの程度後方に引っ込んでいるかのように知覚されるかは、左眼用画像と右眼用画像との間の水平方向の視差によって決定される。
そこで、左眼用画像と右眼用画像との間の水平方向の視差を適切に調整しつつ3D画像を撮影する撮像装置に関する技術が盛んに開発されており、近年ではこの水平方向の視差の調整に被写体となる人物の顔検出を利用する技術が開示されている。
例えば、特許文献1には、被写体となる人物の顔を検出し、検出された顔の位置を基準として二つの撮像部における両光軸間の角度、すなわち輻輳角を調整することで、左眼用画像と右眼用画像との間の水平方向の視差を調整した3D画像を撮影することができる撮像装置が開示されている。
また、特許文献2には、メモリに一時記録された左眼用及び右眼用の撮影画像データから被写体となる人物の顔画像データを検出し、それら顔画像データ間の差分ベクトルに基づいて左眼用及び右眼用の撮影データの切り出し範囲を調整することで、左眼用画像と右眼用画像との間の水平方向の視差を調整した3D画像を撮影することができる撮像装置が開示されている。
また、特許文献2には、メモリに一時記録された左眼用及び右眼用の撮影画像データから被写体となる人物の顔画像データを検出し、それら顔画像データ間の差分ベクトルに基づいて左眼用及び右眼用の撮影データの切り出し範囲を調整することで、左眼用画像と右眼用画像との間の水平方向の視差を調整した3D画像を撮影することができる撮像装置が開示されている。
上記特許文献1及び特許文献2に記載の撮像装置では、顔検出がされた被写体となる人物についての水平方向の視差がゼロとなるように左眼用画像と右眼用画像との間の視差を調整し撮影を行っている。
従って、その人物の画像が観察者から見て丁度ディスプレイ面上にあるかのように知覚され、その他の被写体画像が観察者から見てディスプレイ面に対し前方に飛び出している、又はディスプレイ面に対し後方に引っ込んでいるかのように知覚される3D画像を撮影することができる。
従って、その人物の画像が観察者から見て丁度ディスプレイ面上にあるかのように知覚され、その他の被写体画像が観察者から見てディスプレイ面に対し前方に飛び出している、又はディスプレイ面に対し後方に引っ込んでいるかのように知覚される3D画像を撮影することができる。
一方で、顔検出がされた人物の画像が、観察者から見てディスプレイ面に対し前方に飛び出している、又はディスプレイ面に対し後方に引っ込んでいるかのように知覚される3D画像の撮影をユーザが望む場合には、改めて左眼用画像と右眼用画像との間の水平方向の視差を調整する必要があり、ユーザは手軽にこういった3D画像の撮影を行うことができないという問題があった。
また、これらの撮像装置では、複数の人物が被写体となった場合に、左眼用画像と右眼用画像との間の視差調整の基準とされる人物が、必ずしもユーザの望む人物とはならないという問題が推察される。
また、これらの撮像装置では、複数の人物が被写体となった場合に、左眼用画像と右眼用画像との間の視差調整の基準とされる人物が、必ずしもユーザの望む人物とはならないという問題が推察される。
本発明はこれらの問題に鑑みてなされたものであり、被写体画像が観察者から見てディスプレイ面に対し前方に飛び出しているかのように知覚されるのか、観察者からみて丁度ディスプレイ面上にあるかのように知覚されるのか、又は観察者から見て画面に対し後方に引っ込んでいるかのように知覚されるのかの区別と、これら前方への飛び出し又は後方への引っ込みの度合い(以下、これらの区別と度合いを総じて「立体感」という)について、ユーザの好みに合わせた3D画像を簡単に撮影することができる3D画像処理装置を提供することを目的とする。
また、複数の被写体の中から主として撮影されている被写体を特定し、その被写体の立体感をユーザの好みのものとすることができる3D画像処理装置を提供することを目的とする。
前記目的を達成するために、本発明は、第一の撮影画像及び第二の撮影画像を記録するメモリ(133)と、前記メモリに記録された前記第一の撮影画像及び前記第二の撮影画像のそれぞれから被写体の顔画像を検出する顔検出部(121)と、前記顔検出部によって顔画像の検出された被写体の立体感を決定する立体感決定部(122)と、前記顔検出部が検出した顔画像から、前記第一の撮影画像中の基準部分と、その基準部分に対応する前記第二の撮影画像中の対応部分をそれぞれ算出する算出部(123)と、前記算出部によって算出された前記基準部分と前記対応部分との間の視差を前記立体感決定部が決定した立体感に基づいて調整する視差調整部(124)と、前記視差調整部によって調整された視差を有するように第一の出力画像及び第二の出力画像の領域をそれぞれ決定する出力画像領域決定部(125)と、前記出力画像領域決定部によって決定された領域の前記第一の出力画像及び前記第二の出力画像を、前記メモリに記録された前記第一の撮影画像及び前記第二の撮影画像のそれぞれから切り出して出力する画像出力部(140)とを有することを特徴とする3D画像処理装置を提供する。
また、本発明は、第一の撮影画像及び第二の撮影画像を記録するメモリ(133)と、前記メモリに記録された前記第一の撮影画像及び前記第二の撮影画像のそれぞれから被写体の顔画像を検出する顔検出部(121)と、前記顔検出部によって複数の顔画像が検出された場合に、前記第一の撮影画像及び前記第二の撮影画像のそれぞれにおいて、それら複数の顔画像から一の顔画像を特定する顔画像特定部(126)と、前記顔画像特定部が特定した顔画像を有する被写体の立体感を決定する立体感決定部(122)と、前記顔画像特定部が特定した顔画像から、前記第一の撮影画像中の基準部分と、その基準部分に対応する前記第二の撮影画像中の対応部分をそれぞれ算出する算出部(123)と、前記算出部によって算出された前記基準部分と前記対応部分との間の視差を前記立体感決定部が決定した立体感に基づいて調整する視差調整部(124)と、前記視差調整部によって調整された視差を有するように第一の出力画像及び第二の出力画像の領域をそれぞれ決定する出力画像領域決定部(125)と、前記出力画像領域決定部によって決定された領域の前記第一の出力画像及び前記第二の出力画像を、前記メモリに記録された前記第一の撮影画像及び前記第二の撮影画像のそれぞれから切り出して出力する画像出力部(140)とを有することを特徴とする3D画像処理装置を提供する。
本発明によれば、ユーザは被写体の立体感について、自分の好みに合わせた3D画像を簡単に撮影することができる。
また、複数の被写体の中から主被写体を特定し、その主被写体について、好みの立体感を有する3D画像を簡単に撮影することができる。
また、複数の被写体の中から主被写体を特定し、その主被写体について、好みの立体感を有する3D画像を簡単に撮影することができる。
以下に図面を参照しながら、本発明に係る3D画像撮影装置の好適な実施形態を説明する。
なお、本明細書及び図面において、実質的に同一の機能、構成を有する要素に関し同一の符号を付すことにより重複説明を省略し、本発明に直接関係のない要素は図示を省略する。
なお、本明細書及び図面において、実質的に同一の機能、構成を有する要素に関し同一の符号を付すことにより重複説明を省略し、本発明に直接関係のない要素は図示を省略する。
図1は、本発明の実施形態に係る撮像装置(デジタルビデオカメラ)1の内部構成の例を示すブロック図である。撮像装置1は動画及び静止画を撮影することができる。
なお、本実施形態に係る撮像装置では二つの撮像部を有し、それぞれの光軸のなす輻輳角を調整できる構成としているが、両光軸が平行となるように固定され輻輳角を調整できない撮像装置においても本発明は採用できる。また、本発明は、デジタルスチルカメラをはじめ、携帯電話、PHS(Personal Handyphone System)、PDA(Personal Digital Assistant)等、撮影が可能なその他の電子機器においても採用することができる。
なお、本実施形態に係る撮像装置では二つの撮像部を有し、それぞれの光軸のなす輻輳角を調整できる構成としているが、両光軸が平行となるように固定され輻輳角を調整できない撮像装置においても本発明は採用できる。また、本発明は、デジタルスチルカメラをはじめ、携帯電話、PHS(Personal Handyphone System)、PDA(Personal Digital Assistant)等、撮影が可能なその他の電子機器においても採用することができる。
CPU120は、撮影、表示又は記録等の撮像装置1全体の動作を統括制御する。また、CPU120は、操作部142からの入力に基づき所定の制御プログラムに従って各部を制御する。
撮像装置1には、左右一対の左眼用画像撮像部L100及び右眼用画像撮像部R100が、人の眼の間隔より少し短い所定の間隔(例えば5cm)離れて設置されている。左眼用画像撮像部L100及び右眼用画像撮像部R100は、それぞれズームレンズL101及びR101、フォーカスレンズL102及びR102、絞りL103及びR103、並びに固体撮像素子L104及びR104を備える。
ズームレンズL101及びR101は、図示しないズームアクチュエータによって光軸AL100及びAR100に沿って移動する。フォーカスレンズL102及びR102は、図示しないフォーカスアクチュエータによって光軸AL100及びAR100に沿って移動する。絞りL103及びR103は、図示しない絞りアクチュエータに駆動されて動作する。
左眼用画像撮像部L100及び右眼用画像R100は輻輳角アクチュエータL109及びR109とそれぞれ接続されており、輻輳角アクチュエータL109及びR109はCPU120から指令を受けて、両撮像部を駆動し、光軸AL100とAR100とのなす輻輳角を調整する。
ROM131はバス130を介してCPU120に接続されており、CPU120が実行する制御プログラム及び制御に必要な各種データ等を格納している。フラッシュROM132は、ユーザの設定情報等、撮像装置1の動作に関する各種設定情報を格納している。
SDRAM133は、CPU120の演算作業領域として使用されるとともに、画像データの一時記憶領域としても使用される。VRAM134は、表示用の画像データの一時記憶領域として使用される。
SDRAM133は、CPU120の演算作業領域として使用されるとともに、画像データの一時記憶領域としても使用される。VRAM134は、表示用の画像データの一時記憶領域として使用される。
撮影装置1を用いた3D画像の撮影は以下の手順で行われる。左眼用の固体撮像素子L104及び右眼用の固体撮像素子R104がそれぞれ、左眼用画像撮像部L100と右眼用撮像部R100とを通過した光を光電変換して、左右それぞれの被写体のアナログ撮像信号を生成する。
アナログ信号処理部L105及びR105が両アナログ撮像信号を増幅した後、A/D変換器L106及びR106がその増幅された信号をデジタルデータに変換する。画像入力コントローラL107及びR107は、A/D変換機L106及びR106から出力されたデジタルデータを取り込んで、SDRAM133に格納する。
アナログ信号処理部L105及びR105が両アナログ撮像信号を増幅した後、A/D変換器L106及びR106がその増幅された信号をデジタルデータに変換する。画像入力コントローラL107及びR107は、A/D変換機L106及びR106から出力されたデジタルデータを取り込んで、SDRAM133に格納する。
デジタル信号処理部L108及びR108は、CPU120からの指令に基づき、SDRAM133に格納されたデジタルデータを取り込み、所定の信号処理を施して輝度信号と色差信号とからなる信号を生成する。
デジタル信号処理部L108及びR108はまた、オフセット処理、ホワイトバランス調整処理、ガンマ補正処理、RGB補完処理、ノイズ低減処理、輪郭補正処理、色調補正処理、光源種別判定処理等の各種デジタル補正を行う。
デジタル信号処理部L108及びR108はまた、オフセット処理、ホワイトバランス調整処理、ガンマ補正処理、RGB補完処理、ノイズ低減処理、輪郭補正処理、色調補正処理、光源種別判定処理等の各種デジタル補正を行う。
圧縮・伸張処理部135、メディア制御部136、画像処理部137、カードI/F138及び入出力I/F140はデータバス130に接続されている。
圧縮・伸張処理部135は、CPU120からの指令に従い、SDRAM133に格納されたデジタルデータに所定形式の圧縮処理を施し、圧縮画像データを生成する。また、CPU120からの指令に従い、カード型記録媒体139等に格納された圧縮画像データに所定形式の伸張処理を施し、非圧縮画像データを生成する。
なお、本実施の形態の撮像装置1では、動画に対してはMPEG規格、静止画に対してはJPEG規格に準拠した圧縮方式が採用される。
なお、本実施の形態の撮像装置1では、動画に対してはMPEG規格、静止画に対してはJPEG規格に準拠した圧縮方式が採用される。
メディア制御部136は、CPU120からの指令に従い、カードI/F138を介してカード型記録媒体139へのデータの書き込み、又はカード型記録媒体139からのデータの読み出しを制御する。
液晶モニタ141、操作部142及び入出力端子143は入出力I/F140に接続されている。
液晶モニタ141、操作部142及び入出力端子143は入出力I/F140に接続されている。
図2は、3D画像を表示可能な液晶モニタ141の構造の例を説明するための図である。図2においては、撮像装置1の通常の使用姿勢における液晶モニタ141に対して、水平方向をX軸、垂直方向をY軸、及び液晶モニタ141の直交
方向をZ軸として以下を説明する。
液晶モニタ141と観察者の左眼LE20及び右眼RE20の間には、レンチキュラ・レンズLL20が設置されている。このレンチキュラ・レンズLL20は、複数の円筒状凸レンズを図2のX軸方向に連ねることで構成されている。
方向をZ軸として以下を説明する。
液晶モニタ141と観察者の左眼LE20及び右眼RE20の間には、レンチキュラ・レンズLL20が設置されている。このレンチキュラ・レンズLL20は、複数の円筒状凸レンズを図2のX軸方向に連ねることで構成されている。
液晶モニタ141に表示される3D画像の表示領域は、左眼用短冊画像表示領域Lと右眼用短冊画像表示領域Rとから構成されている。左眼用短冊画像表示領域L及び右眼用短冊画像表示領域Rは、それぞれ図2のZ軸方向に細長い短冊形状をしており、X軸方向に交互に配置されている。
レンチキュラ・レンズLL20を構成する各凸レンズは、観察者の所定の観察点を基準として、それぞれ一組の左眼用短冊画像表示領域L及び右眼用短冊画像表示領域Rを含む各短冊集合画像領域に対応した位置に形成される。
レンチキュラ・レンズLL20を構成する各凸レンズは、観察者の所定の観察点を基準として、それぞれ一組の左眼用短冊画像表示領域L及び右眼用短冊画像表示領域Rを含む各短冊集合画像領域に対応した位置に形成される。
そして、レンチキュラ・レンズLL20を構成する各凸レンズは、観察者の左眼LE20には液晶モニタ141の左眼用短冊画像表示領域Lに表示された左眼用短冊画像が入射され、観察者の右眼RE20には液晶モニタ141の右眼用短冊画像表示領域Rに表示された右眼用短冊画像が入射されるように、その曲率等が設定される。
従って、観察者の左眼は左眼用短冊画像のみを、右眼は右眼用短冊画像のみを観察することになり、撮像装置1によって撮影している画像を液晶モニタ141を通じて3D画像として知覚することができる。
なお、3D画像の表示のための液晶モニタ141の構造として、図2に基づきレンチキュラ方式を用いた場合の例を説明したが、本発明はレンチキュラ方式には限定されず、視差バリア方式や光方向制御方式等、3D画像表示のための別方式を採用することもできる。
液晶モニタ141は、撮影画像を3Dで表示するだけでなく、左眼用画像又は右眼用画像のいずれか一方を2Dで表示することもできる。また、左右眼画像の両方をいわゆるサイド・バイ・サイド方式で、二つ並べて2Dで表示することもできる。
液晶モニタ141は、撮影画像を3Dで表示するだけでなく、左眼用画像又は右眼用画像のいずれか一方を2Dで表示することもできる。また、左右眼画像の両方をいわゆるサイド・バイ・サイド方式で、二つ並べて2Dで表示することもできる。
操作部142は、図示しないリレーズ・スイッチや電源スイッチを含む操作キー、十字キー、ジョイスティック、又は液晶モニタ141上に重畳されたタッチパネル等から構成されており、ユーザの撮像装置1への操作入力を受け付ける。
入出力端子143は、図示しないテレビモニタやPC(Personal Computer)等に接続される。
入出力端子143は、図示しないテレビモニタやPC(Personal Computer)等に接続される。
画像処理部137は、例えば、SDRAM133から読み出したデジタル撮像信号に所定の画像処理を施す。CPU120の指示を受けて、画像処理部137は、各種処理のための画像データを生成し、その画像データをSDRAM133から読み出されたオリジナルの撮像データに重畳させて液晶モニタ141に出力する。この出力によって、液晶モニタ141に表示される画像は各種画像データが合成されたものとなる。
例えば、詳細を後述する飛び出しモード、標準モード及び引っ込みモードの選択画面や、視差調整の結果として撮影画像データに不足が生じた場合にその旨をユーザに提示する画面等を生成する。そして、画像処理部137は左眼用画像又は右眼用画像の何れか一方等にそれらの選択画面等を重畳して液晶モニタ141に出力する。
顔検出部121は、SDRAM133に一時記録された左眼用及び右眼用の撮影画像データの中から被写体となる人物の顔画像データを検出する。
立体感決定部122は、顔画像データが検出された被写体を画面表示する際の立体感を決定する。
立体感決定部122は、顔画像データが検出された被写体を画面表示する際の立体感を決定する。
算出部123は、左眼用画像及び右眼用画像のそれぞれから、視差調整に使用する基準点及び対応点を算出する。
視差調整部124は、立体感決定部122が決定した立体感に基づき、算出部123が算出した基準点と対応点との間の視差を調整する。
出力画像領域決定部125は、視差調整部124が調整した視差に基づき、SDRAM133に一時記録されている撮影データの中から出力する画像データの領域を決定する。
視差調整部124は、立体感決定部122が決定した立体感に基づき、算出部123が算出した基準点と対応点との間の視差を調整する。
出力画像領域決定部125は、視差調整部124が調整した視差に基づき、SDRAM133に一時記録されている撮影データの中から出力する画像データの領域を決定する。
出力画像判定部127は、SDRAM133に一時記録された撮像画像データから、出力画像領域決定部125が決定した領域の画像データを過不足なく作成できるかどうかの判定を行う。
顔画像記録部128は、特定の人物の顔画像データの特徴量を予め記録しており、顔画像特定部126は、この予め記録された特徴量に基づき左眼用画像と右眼用画像との間の水平方向の視差調整の基準とする人物の特定を行う。
顔画像記録部128は、特定の人物の顔画像データの特徴量を予め記録しており、顔画像特定部126は、この予め記録された特徴量に基づき左眼用画像と右眼用画像との間の水平方向の視差調整の基準とする人物の特定を行う。
以下に上記構成を有する撮像装置1による、被写体をユーザの好みの立体感を有する3D画像として動画を撮影する処理、複数の被写体の中から主として撮影されている被写体を特定しユーザの好みの立体感を有する3D画像として動画を撮影する処理、及び立体感を調整することによって撮像データが不足する際の処理を、それぞれ第一〜第三の実施形態として順に説明する。
なお、第一〜第三の実施形態は動画の撮影における処理として説明するが、静止画の撮影においても本発明は採用することができる。
なお、第一〜第三の実施形態は動画の撮影における処理として説明するが、静止画の撮影においても本発明は採用することができる。
<第一の実施形態>
まず、撮像装置1による、被写体をユーザの好みの立体感を有する3D画像として動画を撮影する処理を第一の実施形態として説明する。
図3は、この第一の実施形態に係る処理を説明するためのフローチャートである。
まず、撮像装置1による、被写体をユーザの好みの立体感を有する3D画像として動画を撮影する処理を第一の実施形態として説明する。
図3は、この第一の実施形態に係る処理を説明するためのフローチャートである。
本処理は、ユーザが操作部142の図示しない録画ボタンを押したとき、図1のCPU120の統括制御によりプログラムに従い実行される。また、ユーザが撮像装置1の電源を入れ、操作部142の図示しないボタン等を使用して撮影モードを選択したとき、或は録画ボタンを半押しにしたときに取得されるスルー画像に対して本処理を開始するようにしてもよい。
上述の通り、左眼用撮像部L100及び右眼用撮像部R100を介して、左眼用及び右眼用の撮影画像データがそれぞれ取得され、SDRAM133に一時記憶される(ステップS101)。
ステップS101で左眼用及び右眼用の撮影画像データがSDRAM133に一時記憶されると、顔検出部121がこれらの撮影画像データから顔画像データを検出する(ステップS102)。
ここで、顔検出部121は、SDRAM133に一時記録された撮影画像データから顔らしさを示す特徴点を算出し、顔画像データとして検出する。例えば、特開2001−16573号公報等に記載された処理によって顔画像を検出する手法が採用され、特徴点としては、例えば、眉、目、鼻、唇の各端点、顔の輪郭点、顔の頂点や顎の下端点等が用いられる。
なお、顔検出部121が顔画像データの検出に用いるアルゴリズムは上述したものに限定されず、任意のアルゴリズムを用いることができる。
なお、顔検出部121が顔画像データの検出に用いるアルゴリズムは上述したものに限定されず、任意のアルゴリズムを用いることができる。
図4に顔画像データが検出された場合の、液晶モニタ141の表示態様の例を示す。液晶モニタ141は図4に示すように左眼用画像LP40及び右眼用画像RP40をサイド・バイ・サイドで表示する。左眼用画像LP40中には人物画像LA40が、右眼用画像RP40中には人物画像RA40が表示されている。そして、画像処理部137が生成した図形画像LS40及びRS40が人物画像LA40及びRA40中の検出された顔画像の付近に重畳して表示される。
顔検出部121が顔画像データを検出すると(ステップS102でYES)、ユーザは顔画像データの検出された人物について、観察者から見てディスプレイ面に対し前方に飛び出しているかのように知覚される3D画像とするか、観察者からみて丁度ディスプレイ面上にあるかのように知覚される3D画像とするか、又は観察者からみてディスプレイ面に対し後方に引っ込んでいるかのように知覚される3D画像とするかの選択を行う(ステップS103)。この選択処理は、例えば以下のようにして行われる。
図5に撮像装置1において、ユーザがこの選択を行う際の液晶モニタ141の表示態様の例を説明する。
撮像装置1には、被写体画像を観察者から見てディスプレイ面に対し前方に飛び出しているかのように知覚されるようにする「飛び出しモード」、被写体画像を丁度ディスプレイ面上にあるかのように知覚されるようにする「標準モード」、及び被写体画像を観察者からみてディスプレイ面に対し後方に引っ込んでいるかのように知覚されるようにする「引っ込みモード」の3種類のモードが予め設定されている。
撮像装置1には、被写体画像を観察者から見てディスプレイ面に対し前方に飛び出しているかのように知覚されるようにする「飛び出しモード」、被写体画像を丁度ディスプレイ面上にあるかのように知覚されるようにする「標準モード」、及び被写体画像を観察者からみてディスプレイ面に対し後方に引っ込んでいるかのように知覚されるようにする「引っ込みモード」の3種類のモードが予め設定されている。
そして、画像処理部137は、ユーザがこれら三種類のモードの中からいずれかのモードを選択するためのモード選択画面SP50を生成し、このモード選択画面SP50がステップS102で液晶モニタ141に表示されている画面上に重畳して表示される。
図5において、ユーザが「飛び出しモード」を選択すると、被写体画像が観察者から見てディスプレイ面に対し前方に飛び出しているかのように知覚される3D画像を生成する旨を、立体感決定部122が決定する。ユーザが「標準モード」を選択すると、被写体画像が観察者からみて丁度ディスプレイ面上にあるかのように知覚される3D画像を生成する旨を、立体感決定部122が決定する。そして、ユーザが「引き込みモード」を選択すると、被写体画像が観察者から見て画面に対し後方に引っ込んでいるかのように知覚される3D画像を生成する旨を立体感決定部122が決定する。
各モードの選択は、指示画像SP51を操作部142の図示しない十字キー等をユーザが操作することで行われる。指示画像SP51は、選択の際は点滅表示され、ユーザがモードを確定すると点滅表示を止めて周囲の画像と色を変える等の態様とすることが考えられる。
図3に戻り、ステップS103の選択がなされると、算出部123がステップS102で検出された左右眼画像中の顔画像データから、視差調整に利用する基準点及び対応点の算出を行う(ステップS104)。この基準点及び対応点の算出は、例えば顔画像の領域を特定し、その領域の中心座標を求める方法が採用される。
顔画像の領域の特定には、例えば特開2000−339476号公報等に記載された手法が採用される。
すなわち、図6に示すように算出部123は先ずステップS102で検出された顔画像の中心線fcを特定する。この中心線fcの特定は顔画像中の左右の画素値の対象性が高いx座標を求めることで行われる。
すなわち、図6に示すように算出部123は先ずステップS102で検出された顔画像の中心線fcを特定する。この中心線fcの特定は顔画像中の左右の画素値の対象性が高いx座標を求めることで行われる。
顔画像の中心線が特定されると、顔画像の濃淡からx方向及びy方向のエッジを強調したx方向エッジ情報とy方向エッジ情報が算出される。そして、算出部123は先ずx方向エッジ情報をx方向に投影加算処理し、x方向エッジ投影ヒストグラムXHGを求める。
顔画像の場合、x方向のエッジは通常顔の輪郭の部分の多くに現れる。算出部123は、x方向エッジ投影ヒストグラムXHGの値の高いところを顔中心線から左右方向に探索し、顔画像の領域の横幅Whを決定する。
顔画像の場合、x方向のエッジは通常顔の輪郭の部分の多くに現れる。算出部123は、x方向エッジ投影ヒストグラムXHGの値の高いところを顔中心線から左右方向に探索し、顔画像の領域の横幅Whを決定する。
横幅Whが決定されると、y方法エッジ情報をy方向に投影加算処理し、y方向エッジ投影ヒストグラムYHGを求める。顔の縦幅を決定する場合、目の付近にy方向エッジが集中的に現れ、その下の頬の部分にはy方向エッジがほとんど現れないことを利用して、目のy座標候補位置を検出し、その目のy座標候補と横エッジ投影ヒストグラムHHGから顔画像の領域の縦幅Wvを決定する。
以上のようにして、算出部123は、顔画像の領域を特定する。そして、算出部123は、図7に示すように顔画像の領域の4つの頂点P71、P72、P73、及びP74の座標を算出し、この4つの頂点座標から顔画像の領域の中央座標CP70を算出する。そして、左眼用画像中の顔画像の中央座標が基準点とされ、右眼用画像中の顔画像の中央座標が対応点とされる。
なお、右眼用画像中の顔画像の中央座標を基準点とし、左眼用が像中の中央座標を対応点としてもよい。また、顔画像の領域の特定は、上記に述べた以外にも既知の他のアルゴリズムを使用して行ってもよい。
なお、右眼用画像中の顔画像の中央座標を基準点とし、左眼用が像中の中央座標を対応点としてもよい。また、顔画像の領域の特定は、上記に述べた以外にも既知の他のアルゴリズムを使用して行ってもよい。
ステップS104で算出部123が基準点及び対応点を算出すると、視差調整部124がその基準点と及び対応点との間の水平方向の視差調整を行う(ステップS105)。図8は左右眼画像における基準点及び対応点間の水平方向の視差と、被写体画像のディスプレイ面に対する前方への飛び出し又は後方への引っ込み等の関係を示す概念図である。
図8において、液晶モニタ141又は入出力端子143を介して接続される外部モニタ等のディスプレイ面をDP80、観察者とディスプレイ面DP80の距離をDとする。以下にステップS103で選択された各モードにおける視差調整について説明する。
<飛び出しモードにおける視差調整>
図8(a)において、ディスプレイ面DP80上の左眼用画像中の被写体画像の位置をLf、右眼用画像中の被写体画像の位置をRfとすると、観察者が左眼LE80でLf、右眼RE80でRfを観察した場合、被写体はPfの位置で結像する。これにより観察者からは被写体画像がディスプレイ面DP80に対して前方に飛び出しているかのように知覚されることになる。
図8(a)において、ディスプレイ面DP80上の左眼用画像中の被写体画像の位置をLf、右眼用画像中の被写体画像の位置をRfとすると、観察者が左眼LE80でLf、右眼RE80でRfを観察した場合、被写体はPfの位置で結像する。これにより観察者からは被写体画像がディスプレイ面DP80に対して前方に飛び出しているかのように知覚されることになる。
視差調整部124は、ステップS104で算出された左眼用画像中の基準点及び右眼用画像中の対応点について、図8(a)に示したLf及びRfの配置と同様に、基準点を対応点の右側に配置し、被写体画像がディスプレイ面DP80の前方で結像する関係となるよう視差調整を行う。
ここで、観察者の左眼LE80と右眼RE80の距離をE、像LfとRfの視差をVfとすると、ディスプレイ面DP80から結像位置までの距離Zfは以下の式(1)の通りとなる。
(E+Vf)Zf=D・Vf ・・・(1)
上述の通り、飛び出しモードでは、観察者は被写体画像をディスプレイ面D80とは異なるところで知覚することになる。一方で、ピントはディスプレイ面DP80にあっていることになるため、この両者の乖離が大きいと、観察者に視覚疲労や不快感を生じるおそれがある。
また、視差Vfが大きすぎると、被写体は飛び出しているようには知覚されず、単なる二重の画像として知覚されてしまうおそれがある。
また、視差Vfが大きすぎると、被写体は飛び出しているようには知覚されず、単なる二重の画像として知覚されてしまうおそれがある。
上記観察者の左眼LE80と右眼RE80の距離Eを一般的な人の瞳孔間隔である6.5cmとし、上記観察者からディスプレイ面DP80までの視聴距離Dを標準観視距離であるディスプレイの長辺の3倍距離とした場合に、観察者の眼に負担をかけず、快適に3D画像として認識できる左眼用画像と右眼用画像との間の視差量として、ディスプレイ面の幅の2.9%(視差角にして約1度)以下とすることが望ましい旨が報告されている(「人に優しい3D普及のための3DC安全ガイドライン」 3Dコンソーシアム安全ガイドライン部会発行 2010年4月20日改訂版)。
そこで、視差調整部124は、図8(a)に示すディスプレイ面幅DWと視差Vfが以下の式(2)の関係となるように視差の調整を行う。
Vf/DW = 0.029 ・・・(2)
ここで、上記ディスプレイ面幅DWには、撮像装置1が備える液晶モニタ141の幅が予め設定されている値として採用される。ユーザが所有しているTVディスプレイ等の外部モニタに画像を表示させる場合は、その幅を入力し、その値を採用するようにしてもよい。
上記Vfは予め設定又は入力されたディスプレイ面幅DWから式(2)に基づいて算出された値を採用する。ここで、ユーザが操作部142を使用して、事前にその値を調整することで、ディスプレイ面DP80から結像位置までの距離Zfをさらに好みの値として変更することができるようにしてもよい。
上記Vfは予め設定又は入力されたディスプレイ面幅DWから式(2)に基づいて算出された値を採用する。ここで、ユーザが操作部142を使用して、事前にその値を調整することで、ディスプレイ面DP80から結像位置までの距離Zfをさらに好みの値として変更することができるようにしてもよい。
以上のように撮像装置1によれば、ユーザが、被写体画像が観察者からみてディスプレイ面に対し前方に飛び出しているかのような3D画像の撮影を望む場合に、簡単に適切な飛び出し度合いに調整された3D画像を撮影することができる。
また、動画の撮影中に被写体となる人物が移動した場合であっても、その人物の顔画像から基準点及び対応点を算出するため、移動中及び移動後もその人物を適切な飛び出し度合いに調整された3D画像として撮影することができる。
また、動画の撮影中に被写体となる人物が移動した場合であっても、その人物の顔画像から基準点及び対応点を算出するため、移動中及び移動後もその人物を適切な飛び出し度合いに調整された3D画像として撮影することができる。
<通常モードにおける視差調整>
図8(b)において、ディスプレイ面DP80上の左眼用画像中の被写体の位置と、右眼用画像中の被写体の位置が同一となった場合、被写体は表示面D80上のPcで結像する。これにより観察者からは被写体画像がディスプレイ面DP80上にあるかのように知覚されることになる。
図8(b)において、ディスプレイ面DP80上の左眼用画像中の被写体の位置と、右眼用画像中の被写体の位置が同一となった場合、被写体は表示面D80上のPcで結像する。これにより観察者からは被写体画像がディスプレイ面DP80上にあるかのように知覚されることになる。
視差調整部124は、ステップS104で算出された左眼用画像中の基準点及び右眼用画像中の対応点について、この図8(b)に示すように、両者の水平座標が等しくなるように配置し、被写体画像が表示面DP80上で結像する関係となるよう視差調整を行う。
以上のように撮像装置1によれば、ユーザが、被写体画像が観察者からみて丁度画面上にあるかのような3D画像の撮影を望む場合に、そのように調整された3D画像を簡単に撮影することができる。
また、動画の撮影中に被写体となる人物が移動した場合であっても、その人物の顔画像から基準点及び対応点を算出するため、移動中及び移動後もその人物がちょうど画面上にあるかのように知覚できる3D画像として撮影することができる。
また、動画の撮影中に被写体となる人物が移動した場合であっても、その人物の顔画像から基準点及び対応点を算出するため、移動中及び移動後もその人物がちょうど画面上にあるかのように知覚できる3D画像として撮影することができる。
<引き込みモードにおける視差調整>
図8(c)において、ディスプレイ面DP80上の左眼用画像中の被写体画像の位置をLb、右眼用画像中の被写体画像の位置をRbとすると、観察者が左眼LE80でLb、右眼RE80でRbを観察した場合、被写体画像はPbの位置で結像する。これにより観察者からは被写体画像がディスプレイ面DP80に対して後方に引き込んでいるかのように知覚されることになる。
図8(c)において、ディスプレイ面DP80上の左眼用画像中の被写体画像の位置をLb、右眼用画像中の被写体画像の位置をRbとすると、観察者が左眼LE80でLb、右眼RE80でRbを観察した場合、被写体画像はPbの位置で結像する。これにより観察者からは被写体画像がディスプレイ面DP80に対して後方に引き込んでいるかのように知覚されることになる。
視差調整部124は、ステップS104で算出された左眼用画像中の基準点及び右眼用画像中の対応点について、図8(c)に示したLb及びRbの配置と同様に、基準点を対応点の左側に配置し、被写体画像がディスプレイ面DP80の後方で結像する関係となるよう調整を行う。
ここで、観察者の左眼LE80と右眼RE80の距離をE、像LbとRbの視差をVfとすると、ディスプレイ面DP80から結像位置までの距離Zbは以下の式(3)の通りとなる。
(E−Vb)Zb=D・Vb ・・・(3)
引き込みモードにおいても、左右眼画像間の視差によっては、観察者に視覚疲労や不快感を生じるおそれがあること、被写体が引き込んでいるようには知覚されず、単なる二重の画像として知覚されるおそれがあることは、上述の飛び出しモードと同様である。
そこで、視差調整部124は、図8(c)に示すディスプレイ面幅DWと視差Vbが以下の式(4)関係となるように視差の調整を行う。
Vb/DW = 0.029 ・・・(4)
ここで、上記ディスプレイ面幅DWには、撮像装置1が備える液晶モニタ141の幅が予め設定されている値として採用される。ユーザが所有しているTVディスプレイ等の外部モニタに画像を表示させる場合は、その幅を入力し、その値を採用するようにしてもよい。
上記Vbは予め設定又は入力されたディスプレイ面幅DWから式(4)に基づいて算出された値を採用する。ここで、ユーザが操作部142を使用して、事前にその値を調整することで、ディスプレイ面DP80から結像位置までの距離Zbをさらに好みの値として変更することができるようにしてもよい。
上記Vbは予め設定又は入力されたディスプレイ面幅DWから式(4)に基づいて算出された値を採用する。ここで、ユーザが操作部142を使用して、事前にその値を調整することで、ディスプレイ面DP80から結像位置までの距離Zbをさらに好みの値として変更することができるようにしてもよい。
さらに、表示面から引き込んでいるかのうように知覚される3D画像では、ディスプレイ上における水平方向の視差が5cmを超えないようにすることが望ましい旨が方向されている(「人に優しい3D普及のための3DC安全ガイドライン」 3Dコンソーシアム安全ガイドライン部会発行 2010年4月20日改訂版)。
人の両眼は外側には開かないことから、両眼の瞳孔間隔以上に離れた被写体を左眼及び右眼でそれぞれ独立して観察することは、眼精疲労や3D画像の破綻を誘発するおそれがあるためである。
人の両眼は外側には開かないことから、両眼の瞳孔間隔以上に離れた被写体を左眼及び右眼でそれぞれ独立して観察することは、眼精疲労や3D画像の破綻を誘発するおそれがあるためである。
そこで、視差調整部124は、上記式(4)で導き出されるVbが5cmを超える場合には、Vbを5cmとするようにしても良い。Vbが5cm以上かどうかの判定及び、5cmとする調整は、予め設定又は入力されているDWの値から5cm相当のピクセル数を算出することで行われる。
以上のように撮像装置1によれば、ユーザが、被写体画像が観察者からみてディスプレイ面に対し後方に引っ込んでいるかのような3D画像の撮影を望む場合に、簡単に適切な引っ込み度合いに調整された3D画像を撮影することができる。
また、動画の撮影中に被写体となる人物が移動した場合であっても、その人物の顔画像から基準点及び対応点を算出するため、移動中及び移動後もその人物を適切な引っ込み度合いに調整された3D画像として撮影することができる。
また、動画の撮影中に被写体となる人物が移動した場合であっても、その人物の顔画像から基準点及び対応点を算出するため、移動中及び移動後もその人物を適切な引っ込み度合いに調整された3D画像として撮影することができる。
図3に戻り、ステップS105で視差調整部124による視差の調整が完了すると、出力画像領域決定部125が当該視差に基づき、ステップS101でSDRAM133に一時記録された撮影画像データから出力する画像データの領域を決定する(ステップS106)。
図9に示すように、出力画像領域決定部125は、左眼用撮影データLP90から左眼用出力画像データLP91を、右眼用撮影データRP90から右眼用出力画像データRP91を、基準点LCP90及び対応点RCP90が視差V90を有するように出力画像の領域として決定する。
図9に示すように、出力画像領域決定部125は、左眼用撮影データLP90から左眼用出力画像データLP91を、右眼用撮影データRP90から右眼用出力画像データRP91を、基準点LCP90及び対応点RCP90が視差V90を有するように出力画像の領域として決定する。
ステップS106で出力画像領域決定部125に決定された領域の画像データは、入出力I/F140を解して液晶モニタ141に出力・表示される、或はカードI/F138を解してカード型記録媒体139に出力され記録される(ステップS107)
ユーザが操作部142の図示しない録画ボタンを離す等して撮影を終了すると、撮像装置1はこの処理を終了する。
また、ステップS102で顔画像を検出しなかった場合も、ユーザが撮影を終了すると、撮像装置1はこの処理を終了する。
また、ステップS102で顔画像を検出しなかった場合も、ユーザが撮影を終了すると、撮像装置1はこの処理を終了する。
以上のように、撮像装置1によれば、ユーザは被写体について適切な視差を有する好みの3D画像を撮影することができる。
また、動画撮影中に被写体が移動した場合であっても、その被写体を好みの立体感を有する3D画像としたまま撮影を続けることができる。
また、動画撮影中に被写体が移動した場合であっても、その被写体を好みの立体感を有する3D画像としたまま撮影を続けることができる。
<第二の実施形態>
次に、撮像装置1による、複数の被写体の中から主として撮影されている被写体を特定し、その被写体がユーザの好みの立体感を有する3D画像として動画を撮影する処理を第二の実施形態として説明する。
図10は、この第二の実施形態に係る処理を説明するためのフローチャートである。
次に、撮像装置1による、複数の被写体の中から主として撮影されている被写体を特定し、その被写体がユーザの好みの立体感を有する3D画像として動画を撮影する処理を第二の実施形態として説明する。
図10は、この第二の実施形態に係る処理を説明するためのフローチャートである。
本処理は、ユーザが操作部142の図示しない録画ボタンを押したとき、図1のCPU120の統括制御によりプログラムに従い実行される。また、ユーザが撮像装置1の電源を入れ、操作部142の図示しないボタン等を使用して撮影モードを選択したとき、或は録画ボタンを半押しにしたときに取得されるスルー画像に対して本処理を開始するようにしてもよい。
左眼用撮像部L100及び右眼用撮像部R100を介して、左眼用及び右眼用の撮影画像データがそれぞれ取得され、SDRAM133に一時記憶される(ステップS201)。
ステップS201で左眼用及び右眼用の撮影データがSDRAM133に一時記憶されると、顔検出部121がこれらの撮影画像データから顔画像データを検出する(ステップS202)。顔検出部121による顔画像データの検出は、上述のステップS102と同様にして行われる。
ここで、顔検出部121が複数の顔画像データを検出した場合(ステップS202でYES)、顔画像特定部126が、左右眼画像間の視差調整に使用する主となる被写体の顔画像データを特定する(ステップS203)。
図11に、顔検出部121が複数の顔画像を検出した場合の、液晶モニタ141の表示態様の例を示す。液晶モニタ141は図11に示すように左眼用画像LP110及び右眼用画像RP110をサイド・バイ・サイドで表示する。左眼用画像LP110中には人物画像LA11、LB11及びLC11が表示されている。右眼用画像RP110中には人物画像RA11、RB11及びRC11が表示されている。
左眼用画像LP110では、画像処理部137が生成した図形画像LS111、LS112及びLS113が人物画像LA11、LB11及びLC11中の検出された顔画像の付近に重畳して表示される。
右眼用画像RP110では、画像処理部137が生成した図形画像RS111、RS112及びRS113が人物画像RA11、RB11及びRC11中の検出された顔画像の付近に重畳して表示される。
右眼用画像RP110では、画像処理部137が生成した図形画像RS111、RS112及びRS113が人物画像RA11、RB11及びRC11中の検出された顔画像の付近に重畳して表示される。
顔画像特定部126による特定には、以下に例示するような方法が考えられる。
<顔画像の大きさによる特定>
顔画像特定部126は、検出された顔画像データそれぞれの領域を特定する。この顔画像の領域の特定には、ステップS104において説明した算出部123による顔画像データの領域の特定と同様の手法が用いられる。
顔画像特定部126は、それぞれの顔画像データの領域の特定が完了すると、その縦幅及び横幅から各領域の面積を算出する。
<顔画像の大きさによる特定>
顔画像特定部126は、検出された顔画像データそれぞれの領域を特定する。この顔画像の領域の特定には、ステップS104において説明した算出部123による顔画像データの領域の特定と同様の手法が用いられる。
顔画像特定部126は、それぞれの顔画像データの領域の特定が完了すると、その縦幅及び横幅から各領域の面積を算出する。
そして、顔画像特定部126は、算出された面積が最も大きい顔画像データを主被写体の顔画像データとし、左眼用画像及び右眼用画像の視差を調整する基準として特定する。主として撮影されている被写体は、撮影画像の中でも大きく撮影されていることが多いからである。図11の例では、人物画像LA11及びRA11の顔画像データを視差調整の基準として使用する。
或は、算出された面積の値が中間となる顔画像データを、左右願画像の視差を調整する基準として特定することもできる。撮影されている各人物の顔画像データの大きさと、撮像装置1から各人物までの距離とは、概ね比例する関係にある。全被写体の中で撮影装置との距離が中間の関係にある人物が主として撮影されている被写体となることも多いからである。
なお、左眼用画像及び右眼用画像の視差調整の基準とする人物を、顔画像データの面積の最も大きい人物とするか、中間の人物とするか、或は最も小さい人物をするかを予めユーザが設定できるようにしてもよい。
<顔画像の登録の有無による特定>
顔画像記録部128には、予め登録した人物の顔画像データの情報が記録されている。顔画像特定部126は、検出された顔画像の中から顔画像記録部128に予め記録されている人物の顔画像データがあるかどうかを判定する。そして、検出された顔画像データが、顔画像記録部128に記録されている人物のものである場合は、その顔画像を左眼用画像及び右眼用画像の視差調整の基準とする。
予め顔画像データが登録されているような人物は、撮像装置1を使用するユーザが主として撮影している被写体である可能性が高いためである。
顔画像記録部128には、予め登録した人物の顔画像データの情報が記録されている。顔画像特定部126は、検出された顔画像の中から顔画像記録部128に予め記録されている人物の顔画像データがあるかどうかを判定する。そして、検出された顔画像データが、顔画像記録部128に記録されている人物のものである場合は、その顔画像を左眼用画像及び右眼用画像の視差調整の基準とする。
予め顔画像データが登録されているような人物は、撮像装置1を使用するユーザが主として撮影している被写体である可能性が高いためである。
なお、検出された顔画像データと顔画像記録部128に登録された顔画像データとの一致の判定は、既知のアルゴリズムを用い、顔らしさを示す特徴点が類似しているかどうかの観点から行う。
<ユーザの指定による特定>
顔画像特定部126は、ユーザが指定した顔画像データを、左眼用画像及び右眼用画像の視差調整の基準として使用することもできる。
例えば、図11に示した顔検出の結果表示画面において、検出された顔画像の中から、ユーザが基準となる顔画像を指定する手法が考えられる。この指定は、操作部142の図示しないタッチパネルや十字キーを用いて行うことが考えられる。
顔画像特定部126は、ユーザが指定した顔画像データを、左眼用画像及び右眼用画像の視差調整の基準として使用することもできる。
例えば、図11に示した顔検出の結果表示画面において、検出された顔画像の中から、ユーザが基準となる顔画像を指定する手法が考えられる。この指定は、操作部142の図示しないタッチパネルや十字キーを用いて行うことが考えられる。
このユーザによる指定に当たっては、サイド・バイ・サイドで表示された左眼用画像及び右眼用画像の両方から同一の人物の顔画像を指定するようにしてもよい。また、左眼用画像又は右眼用画像の何れか一方から指定し、他方の画像においては顔らしさを示す特徴量が似た顔画像を抽出する等して特定してもよい。
以上のように撮像装置1によれば、複数の人物を撮影している場合や、人ごみのなかで撮影を行った場合等においても、好みの立体感としたい人物を特定した上で3D画像の撮影を行える。
ステップS203で、顔画像特定部126が、左右眼画像間の視差調整の基準とする顔画像データを特定すると、ユーザは顔画像データの検出された人物について、観察者から見てディスプレイ面に対し前方に飛び出しているかのように知覚される3D画像とするか、観察者からみて丁度ディスプレイ面上にあるかのように知覚される3D画像とするか、又は観察者からみてディスプレイ面に対し後方に引っ込んでいるかのように知覚される3D画像とするかの選択を行う(ステップS204)
この選択処理は、上述のステップS103と同様に、立体感を選択する画面を使用して、「飛び出しモード」、「標準モード」、及び「引き込みモード」の中からユーザがいずれかのモードを選択することで行われる。
この選択処理は、上述のステップS103と同様に、立体感を選択する画面を使用して、「飛び出しモード」、「標準モード」、及び「引き込みモード」の中からユーザがいずれかのモードを選択することで行われる。
ステップS204の選択がなされると、算出部123がステップS203で特定された左右眼画像中の顔画像データから、視差調整に利用する基準点及び対応点の算出を行う(ステップS205)。
この対応点の算出は、上述のステップS104と同様に左眼用画像中の顔画像及び右眼用画像中の顔画像の中央座標をそれぞれ算出し、基準点又は対応点とする方法で行われる。
この対応点の算出は、上述のステップS104と同様に左眼用画像中の顔画像及び右眼用画像中の顔画像の中央座標をそれぞれ算出し、基準点又は対応点とする方法で行われる。
ステップS205で算出部123が基準点及び対応点を算出すると、視差調整部124がその基準点と及び対応点との間の水平方向の視差調整を行う(ステップS206)。
この視差調整は、上述のステップS105と同様に、基準点及び対応点を、飛び出しモード、標準モード、又は引き込みモードのそれぞれに応じた配置とすることで行われる。
この視差調整は、上述のステップS105と同様に、基準点及び対応点を、飛び出しモード、標準モード、又は引き込みモードのそれぞれに応じた配置とすることで行われる。
ステップS206で視差調整部124による視差の調整が完了すると、出力画像領域決定部125が当該視差に基づき、ステップS201でSDRAM133に一時記録された撮影画像データから出力する画像データの範囲を決定する(ステップS207)。
この画像データの範囲の決定は、上述のステップS106と同様にして行われる。
この画像データの範囲の決定は、上述のステップS106と同様にして行われる。
ステップS207で出力画像領域決定部125に決定された領域の画像データは、入出力I/F140を解して液晶モニタ141に出力・表示される、或はカードI/F138を解してカード型記録媒体139に出力され記録される(ステップS208)
顔検出部121が複数の顔画像データを検出しなかった場合(ステップS202でNO)で、顔検出部121が一人の人物の顔画像データを検出した場合(ステップS209でYES)は、この検出された顔画像データに基づいて、ユーザの好みの立体化を有する3D画像の撮影処理が行われる。
この処理は、上述の第一の実施態様で述べた例と同様であるため詳細な説明は省略する。
この処理は、上述の第一の実施態様で述べた例と同様であるため詳細な説明は省略する。
ユーザが操作部142の図示しない録画ボタンを離す等して撮影を終了すると、撮像装置1はこの処理を終了する。
また、ステップS209で顔画像を検出しなかった場合(ステップS209でNO)も、ユーザが撮影を終了すると、撮像装置1はこの処理を終了する。
また、ステップS209で顔画像を検出しなかった場合(ステップS209でNO)も、ユーザが撮影を終了すると、撮像装置1はこの処理を終了する。
以上のように、撮像装置1によれば、複数の被写体を撮影する、又は人ごみの中で撮影する等の場合であっても、主として撮影されている被写体が特定され、その特定された被写体について適切な視差を有する好みの3D画像を撮影することができる。
また、動画撮影中に特定された被写体が移動した場合であっても、その被写体を好みの立体感を有する3D画像としたまま撮影を続けることができる。
また、動画撮影中に特定された被写体が移動した場合であっても、その被写体を好みの立体感を有する3D画像としたまま撮影を続けることができる。
<第三の実施形態>
上記第一及び第二の実施形態において説明したように、左眼用画像及び右眼用画像の視差に基づく立体感の調整を行った場合、SDRAM133に一時記憶された撮影データが不足することがある。このときの撮像装置1の処理を第三の実施形態として以下に説明する。
図12は、この第三の実施形態に係る処理を説明するためのフローチャートである。
上記第一及び第二の実施形態において説明したように、左眼用画像及び右眼用画像の視差に基づく立体感の調整を行った場合、SDRAM133に一時記憶された撮影データが不足することがある。このときの撮像装置1の処理を第三の実施形態として以下に説明する。
図12は、この第三の実施形態に係る処理を説明するためのフローチャートである。
本処理は、ユーザが操作部142の図示しない録画ボタンを押したとき、図1のCPU120の統括制御によりプログラムに従い実行される。また、ユーザが撮像装置1の電源を入れ、操作部142の図示しないボタン等を使用して撮影モードを選択したとき、或は録画ボタンを半押しにしたときに取得されるスルー画像に対して本処理を開始するようにしてもよい。
図12に示したステップS301からステップS306までの各処理の詳細は、上述の第一の実施態様で述べたステップS101からステップS106と同様であるため、説明を省略する。
出力画像判定部127は、出力画像領域決定部125が領域を決定した左眼用及び右眼用の画像データの領域が、ステップS301でSDRAM133に一時記録された撮影データに収まるか否かの判定を行う(ステップS307)。
算出部123が算出した基準点及び対応点に基づき左右眼画像間の視差を調整した場合、水平方向の撮影画像データが不足する場合がある。
算出部123が算出した基準点及び対応点に基づき左右眼画像間の視差を調整した場合、水平方向の撮影画像データが不足する場合がある。
例えば、図13に示すように、SDRAM133に一時記録されている左眼用撮影画像データLP130及び右眼用撮影画像データRP130から視差V13を有するように画像データを切り出そうとすると、左眼用画像データLP131の範囲では領域LP132の分だけ、右眼用画像データRP131の範囲では領域RP132の分だけ一時記録されている撮像画像データに不足が生じる。
このように、出力画像領域決定部125が決定した領域の画像データを出力する際に、少なくとも左眼用又は右眼用いずれか一方の一時記録された撮影画像データに不足がある場合は(ステップS307でNO)、撮影画像データに不足がある旨がユーザに提示される。
この提示の例としては、図14に示す態様が考えられる。画像処理部137が提示画像SP14を生成し、ステップS302で液晶モニタ141に表示されている画面上に重畳して表示する。
この提示により、ユーザが左右眼画像の何れか一方又は両方について、出力画像が不足した3D画像を誤って撮影するのを防止することができる。また、ユーザはズーム倍率を変更する、又は各モードにおける視差量の設定を変更する等して、改めて好みの3D画像を撮影することができる。
この提示により、ユーザが左右眼画像の何れか一方又は両方について、出力画像が不足した3D画像を誤って撮影するのを防止することができる。また、ユーザはズーム倍率を変更する、又は各モードにおける視差量の設定を変更する等して、改めて好みの3D画像を撮影することができる。
出力画像領域決定部125が決定した領域の画像データを出力する際に、少なくとも左右眼用いずれか一方の一時記録された撮影画像データに不足がないと判断した場合は(ステップS307でYES)、ステップS306で出力画像領域決定部125に決定された範囲の画像が、入出力I/F140を解して液晶モニタ141に出力・表示される、或はカードI/F138を解してカード型記録媒体139に出力され記録される(ステップS308)
ユーザが操作部142の図示しない録画ボタンを離す等して撮影を終了すると、撮像装置1はこの処理を終了する。
また、ステップS302で顔画像データを検出しなかった場合(ステップS302でNO)も、ユーザが撮影を終了すると、撮像装置1はこの処理を終了する。
また、ステップS302で顔画像データを検出しなかった場合(ステップS302でNO)も、ユーザが撮影を終了すると、撮像装置1はこの処理を終了する。
以上のように、撮像装置1によれば左右眼画像間の視差調整の結果、一時記録されている撮影画像データに不足が生じてしまう場合であっても、その旨をユーザに提示することができるため、3D画像撮影の失敗を防止することができる。
また、上記第三の実施態様の中で説明した出力画像判定部127による判定処理は、図15のフローチャートに示すように、複数の被写体の中からユーザが任意に選択した被写体に関し、好みの立体感を有する3D画像を撮影する処理においても採用できる。
図15に示した各ステップの詳細は、上記第一から第三の実施態様の中で説明したものと同様であるため、繰り返して説明することは省略する。
以上に述べた通り、本発明によれば、ユーザは被写体の立体感について、自分の好みに合わせた適切な3D画像を簡単に撮影することができる。
また、複数の被写体の中から任意に選択した被写体に対し、好みの立体感を有する適切な3D画像を簡単に撮影することができる。
また、複数の被写体の中から任意に選択した被写体に対し、好みの立体感を有する適切な3D画像を簡単に撮影することができる。
なお、本発明は、本明細書において説明した例や図示された例、特に例のなかで述べた数値に限定されず、本発明の要旨を逸脱しない範囲において、各種の設計変更や改良を行ってもよいのはもちろんである。
1 撮像装置
121 顔検出部
122 立体感決定部
123 算出部
124 視差調整部
125 出力画像領域決定部
126 顔画像特定部
127 出力画像判定部
128 顔画像記録部
133 SDRAM
138 カードI/F
139 カード型記録媒体
140 入出力I/F
141 液晶モニタ
142 操作部
121 顔検出部
122 立体感決定部
123 算出部
124 視差調整部
125 出力画像領域決定部
126 顔画像特定部
127 出力画像判定部
128 顔画像記録部
133 SDRAM
138 カードI/F
139 カード型記録媒体
140 入出力I/F
141 液晶モニタ
142 操作部
Claims (7)
- 第一の撮影画像及び第二の撮影画像を記録するメモリと、
前記メモリに記録された前記第一の撮影画像及び前記第二の撮影画像のそれぞれから被写体の顔画像を検出する顔検出部と、
前記顔検出部によって顔画像の検出された被写体の立体感を決定する立体感決定部と、
前記顔検出部が検出した顔画像から、前記第一の撮影画像中の基準部分と、その基準部分に対応する前記第二の撮影画像中の対応部分をそれぞれ算出する算出部と、
前記算出部によって算出された前記基準部分と前記対応部分との間の視差を前記立体感決定部が決定した立体感に基づいて調整する視差調整部と、
前記視差調整部によって調整された視差を有するように第一の出力画像及び第二の出力画像の領域をそれぞれ決定する出力画像領域決定部と、
前記出力画像領域決定部によって決定された領域の前記第一の出力画像及び前記第二の出力画像を、前記メモリに記録された前記第一の撮影画像及び前記第二の撮影画像のそれぞれから抽出して出力する画像出力部と
を有することを特徴とする3D画像処理装置。 - 前記顔検出部によって複数の顔画像が検出された場合に、前記第一の撮影画像及び前記第二の撮影画像のそれぞれにおいて、それら複数の顔画像から一の顔画像を特定する顔画像特定部をさらに備え、
前記立体感決定部は、前記顔画像特定部が特定した顔画像を有する被写体の立体感を決定し、
前記算出部は、前記顔画像特定部が特定した顔画像から、前記第一の撮影画像中の基準部分と、その基準点に対応する前記第二の撮影画像中の対応部分とをそれぞれ算出することを特徴とする請求項1に記載の3D画像処理装置。 - 前記顔画像特定部は、前記顔検出部が検出した前記複数の顔画像の大きさに基づいて前記一の顔画像を特定することを特徴とする請求項2に記載の3D画像処理装置。
- 前記顔検出部が検出した複数の顔画像の中から、ユーザが一の顔画像を選択する選択部をさらに備え、
前記顔画像特定部は、前記選択部によりユーザが選択した顔画像を前記一の顔画像として特定することを特徴とする請求項2に記載の3D画像処理装置。 - 予め登録された人物の顔画像の情報を記録した顔画像記録部をさらに備え、
前記顔画像特定部は、前記顔画像記録部に予め登録された人物の顔画像を前記一の顔画像として特定することを特徴とする請求項2に記載の3D画像処理装置。 - 前記出力画像領域決定部によって決定された前記第一の出力画像の領域が前記メモリに記録された前記第一の撮影画像内に収まるものであるかどうか、及び前記第二の出力画像の領域が前記メモリに記録された前記第二の撮影画像内に収まるものであるかどうかを判定する出力画像判定部と、
前記出力画像判定部が、前記第一の出力画像の領域が前記メモリに記録された前記第一の撮影画像内に収まらないと判定した場合、又は前記第二の出力画像の領域が前記メモリに記録された前記第二の撮影画像内に収まらないと判定した場合には、ユーザにその旨を提示する提示部とをさらに有することを特徴とする前記請求項1から5のいずれか1項に記載の3D画像処理装置。 - 前記算出部は前記顔検出部が検出した前記第一の撮影画像及び前記第二の撮影画像の顔画像の中心座標を、前記第一の撮影画像中の基準部分及び前記第二の撮影画像中の対応部分として算出することを特徴とする請求項1から6のいずれか1項に記載の3D画像処理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010243461A JP2012099896A (ja) | 2010-10-29 | 2010-10-29 | 3d画像処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010243461A JP2012099896A (ja) | 2010-10-29 | 2010-10-29 | 3d画像処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012099896A true JP2012099896A (ja) | 2012-05-24 |
Family
ID=46391369
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010243461A Pending JP2012099896A (ja) | 2010-10-29 | 2010-10-29 | 3d画像処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012099896A (ja) |
-
2010
- 2010-10-29 JP JP2010243461A patent/JP2012099896A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5963422B2 (ja) | 撮像装置、表示装置、コンピュータプログラムおよび立体像表示システム | |
JP2012156680A (ja) | 3d画像処理装置 | |
JP5572094B2 (ja) | ワンソース・マルチユース(osmu)タイプのステレオカメラ及びそのステレオ画像コンテンツ制作方法 | |
US8760502B2 (en) | Method for improving 3 dimensional effect and reducing visual fatigue and apparatus enabling the same | |
US9104096B2 (en) | 3D-image display apparatus, 3D-image capturing apparatus, and 3D-image display method using longitudinal line images for parallax information | |
JP2011064894A (ja) | 立体画像表示装置 | |
JP5814692B2 (ja) | 撮像装置及びその制御方法、プログラム | |
WO2003081921A1 (fr) | Procede de traitement d'images tridimensionnelles et dispositif | |
JP5425305B2 (ja) | 立体画像制御装置ならびにその動作制御方法およびその動作制御プログラム | |
JP2010278878A (ja) | 立体画像表示装置及びその表示画像切替方法 | |
JP5467993B2 (ja) | 画像処理装置、複眼デジタルカメラ、及びプログラム | |
JP2014501086A (ja) | 立体画像取得システム及び方法 | |
JP5420076B2 (ja) | 再生装置、複眼撮像装置、再生方法及びプログラム | |
JP5550791B2 (ja) | 画像処理装置、撮像装置及び視差量調整方法 | |
JP5840022B2 (ja) | 立体画像処理装置、立体画像撮像装置、立体画像表示装置 | |
JP6155471B2 (ja) | 画像生成装置、撮像装置および画像生成方法 | |
JP6257260B2 (ja) | 撮像装置及びその制御方法 | |
JP5586788B2 (ja) | 画像表示装置及び画像撮像装置 | |
JP5718502B2 (ja) | 画像作成装置及び画像作成方法 | |
JP2012099896A (ja) | 3d画像処理装置 | |
JP4249187B2 (ja) | 立体映像処理装置並びにそのプログラム | |
JP2016054415A (ja) | 立体撮像装置および立体撮像プログラム | |
JP2012182786A (ja) | 3d画像撮影装置 | |
JP2015029215A (ja) | 立体画像処理装置 | |
JP2012165207A (ja) | 3d画像撮影装置 |