JP5449550B2 - 立体画像表示装置、立体画像表示方法、立体画像表示プログラムおよび記録媒体 - Google Patents

立体画像表示装置、立体画像表示方法、立体画像表示プログラムおよび記録媒体 Download PDF

Info

Publication number
JP5449550B2
JP5449550B2 JP2012521382A JP2012521382A JP5449550B2 JP 5449550 B2 JP5449550 B2 JP 5449550B2 JP 2012521382 A JP2012521382 A JP 2012521382A JP 2012521382 A JP2012521382 A JP 2012521382A JP 5449550 B2 JP5449550 B2 JP 5449550B2
Authority
JP
Japan
Prior art keywords
face
parallax
face area
image
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012521382A
Other languages
English (en)
Other versions
JPWO2011162063A1 (ja
Inventor
仁史 桜武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2012521382A priority Critical patent/JP5449550B2/ja
Publication of JPWO2011162063A1 publication Critical patent/JPWO2011162063A1/ja
Application granted granted Critical
Publication of JP5449550B2 publication Critical patent/JP5449550B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body

Description

本発明は、立体画像の表示に関し、特に、複数の顔を含む立体画像の表示に関する。
特許文献1によると、顔検出部30が、撮像部21A,21Bが取得した第1の画像G1から被写体が存在する基準被写体領域を検出し、第2の画像G2から基準被写体領域に対応する対応被写体領域を検出する。領域設定部31が、第1の画像G1に基準被写体領域を含む所定範囲の基準切り出し領域を、第2の画像G2に対応被写体領域を含む所定範囲の仮の切り出し領域を設定する。そして、仮の切り出し領域を第2の画像G2上において移動させつつ、基準切り出し領域に含まれる被写体の所定の構造物と、仮の切り出し領域に含まれる被写体の所定の構造物とのずれ量を検出し、ずれ量が最小となる位置における仮の切り出し領域を、基準切り出し領域の対応切り出し領域に設定する。トリミング部32が第1の画像G1から基準切り出し領域を、第2の画像G2から対応切り出し領域をトリミングする。
特許文献2によると、複数の撮像ユニットの光軸が平行になるようにして被写体の撮影を行ってフレームメモリ12に画像データを記憶する。CPU10は、双方の撮像ユニットI1,I2で得られた複数の撮影画像中の顔の位置を検出し、モータドライバ11に指示してナットN1,N2を移動させることにより輻輳角を調節させる。双方の撮像ユニットI1,I2それぞれで右視点用、左視点用の画像データを生成する。
特開2009−129420号公報 特開2008−22150号公報
立体画像を再生するには、視差を視点画像のどこかの一点に合わせる必要がある。そのため、立体画像の中には視差の合っている位置と合っていない位置が生じる。一般に視差は画角中央付近(画像中央部)で調節するため、人物撮影など顔を主要被写体とした場合に、画面の中央以外に人物がいたときには、中心に視差を合わせると、顔には視差が合わないこととなる(図11Aから図11E)。
図11Aは、立体撮像装置の左右の撮像部と被写体(人およびタワー)の位置関係を模式的に示す図であり、図11Bは、図11Aの位置関係の場合に左右の撮像部を用いて被写体を撮影して得られた画像(それぞれ左撮像部画像および右撮像部画像)を示している。図11Cは、被写体の位置と左撮像部画像および右撮像部画像により得られた被写体の画像の関係を模式的に示す図である。図11Dは、画像の中央部にクロスポイントを設定した場合の左撮像部画像および右撮像部画像を示しており、図11Eは、顔認識した被写体にクロスポイントを設定した場合の左撮像部画像および右撮像部画像を示している。なお、図11Bから図11Eにおいて、実線は左撮像部により得られた画像を示しており、破線は右撮像部により得られた画像を示している。
図11Cに示すように、被写体の位置が、クロスポイント設定位置(中間距離)およびその近傍の場合には、左撮像部画像および右撮像部画像の再生像はほぼ重なる。一方、被写体の位置が、クロスポイント設定位置よりも近距離の場合と遠距離の場合には、被写体の再生像が二重像になる。このため、図11Aの位置関係の場合に、画像中央部にクロスポイントを設定すると、図11Dに示すように、画像中央部の被写体(タワー)よりも近距離にある被写体(人)の顔が二重像になる。
そこで、特許文献1のように、顔認識を行って、画角の中央ではなく顔認識した位置に視差を合わせることが考えられる(図11E)。しかし、複数の顔が画角内にあった場合、視差が合わない顔が存在し得る。
本発明は、主要な顔以外の全ての顔に対応する視差情報に基づいて、どの顔を見る場合でも視差が適正に合うよう視差を制御し、人物が多数存在する場合の自然な立体画像の表示を実現する。
本発明の一態様に係る立体画像表示装置は、異なる視点画像に存在する複数の顔領域ごとの視差情報を取得する視差情報取得部と、複数の顔領域の表示方法を選択する表示方法選択部と、表示方法選択部が選択した表示方法に従い、複数の顔領域の中から特定の顔領域を選択する顔領域選択部と、顔領域選択部の選択した特定の顔領域の視差情報に基づいて、視点画像内の特定の顔領域の視差量を調節する視差調節部と、視差調節部が特定の顔領域の視差量を調節した視点画像に基づいて、立体画像を所定の表示装置に表示する表示制御部とを備える。
好ましくは、表示方法選択部は、顔領域の中からいずれか1つを選択して選択された顔領域を表示する表示方法を選択し、顔領域選択部は、選択操作に基づいて顔領域の中からいずれか1つの顔領域を選択し、視差調節部は、選択された顔領域の視差情報に基づき、視点画像内の選択された顔領域の視差量を調節する。
好ましくは、顔領域選択部は、表示装置に一覧表示された複数の顔領域の中からいずれか1つを選択する。
好ましくは、表示方法選択部は、複数の顔領域の中からいずれか1つを順次選択して順次選択された顔領域を順次個別に表示する表示方法を選択し、顔領域選択部は、複数の顔領域の中からいずれか1つの顔領域を順次選択し、視差調節部は、順次選択された顔領域の視差情報に基づき、順次選択された顔領域の視差量を調節し、表示制御部は、視差量の調節された顔領域を順次表示する。
好ましくは、表示方法選択部は、顔領域の各々を分割画面の各々に分けて表示する表示方法を選択し、顔領域選択部は、顔領域の中から各分割画面に表示する顔領域を選択し、顔領域選択部が選択した各顔領域を視点画像から切り出す切出部を備え、視差調節部は、各分割画面に表示する各顔領域の視差情報に基づき、切出部の切り出した顔領域ごとの視差量を調節し、表示制御部は、視差量の調節された各顔領域を各分割画面に表示する。
好ましくは、表示方法選択部は、顔領域の中からいずれか1つを選択して選択された顔領域を基準に顔領域の全てが所定の画角内に収まるよう表示する表示方法を選択し、顔領域選択部は、顔領域の中からいずれか1つの顔領域を選択し、選択された顔領域を基準に複数の顔領域の全てが所定の画角内に収まるような切り出し範囲を視点画像に設定し、視点画像から切り出し範囲内の画像を切り出す切出部を備え、視差調節部は、選択された顔領域の視差情報に基づき、切出部の切り出した視点画像内の選択された顔領域の視差量を調節し、表示制御部は、視差量の調節された切り出し画像を表示する。
好ましくは、表示方法選択部は、顔領域の各々を分割画面の各々に分けて表示する表示方法を選択し、顔領域選択部は、顔領域の中から各分割画面に表示する顔領域を選択し、視差調節部は、各分割画面に表示する各顔領域の視差情報に基づき、各分割画面に表示する顔領域ごとの視差量を調節し、顔領域選択部が選択した各顔領域を顔領域ごとの視差量の調整された視点画像から切り出す切出部を備え、表示制御部は、切出部の切り出した各顔領域の視点画像を各分割画面に表示する。
好ましくは、表示方法選択部は、顔領域の中からいずれか1つを選択して選択された顔領域を基準に顔領域の全てが所定の画角内に収まるよう表示する表示方法を選択し、顔領域選択部は、顔領域の中からいずれか1つの顔領域を選択し、視差調節部は、選択された顔領域の視差情報に基づき、顔領域選択部の選択した視点画像内の選択された顔領域の視差量を調節し、選択された顔領域を基準に複数の顔領域の全てが所定の画角内に収まるような切り出し範囲を視点画像に設定し、視点画像から切り出し範囲内の画像を切り出す切出部を備え、表示制御部は、切出部が視点画像から切り出した画像を表示する。
本発明の一態様に係る立体画像表示方法は、コンピュータが、異なる視点画像に存在する複数の顔領域ごとの視差情報を取得するステップと、複数の顔領域の表示方法を選択するステップと、選択した表示方法に従い、複数の顔領域の中から特定の顔領域を選択するステップと、選択した特定の顔領域の視差情報に基づいて、視点画像内の特定の顔領域の視差量を調節するステップと、特定の顔領域の視差量を調節した視点画像に基づいて、立体画像を所定の表示装置に表示するステップとを含む。
本発明の一態様に係る立体画像表示プログラムは、異なる視点画像に存在する複数の顔領域ごとの視差情報を取得する機能と、前記複数の顔領域の表示方法を選択する機能と、前記選択した表示方法に従い、前記複数の顔領域の中から特定の顔領域を選択する機能と、前記選択した特定の顔領域の視差情報に基づいて、前記視点画像内の前記特定の顔領域の視差量を調節する機能と、前記特定の顔領域の視差量を調節した視点画像に基づいて、立体画像を所定の表示装置に表示する機能とをコンピュータに実現させる。
本発明の一態様に係る記録媒体は、コンピュータ読取可能な記録媒体であって、プロセッサが前記記録媒体に格納された指令を読み取って実行した場合に、異なる視点画像に存在する複数の顔領域ごとの視差情報を取得するステップと、前記複数の顔領域の表示方法を選択するステップと、前記選択した表示方法に従い、前記複数の顔領域の中から特定の顔領域を選択するステップと、前記選択した特定の顔領域の視差情報に基づいて、前記視点画像内の前記特定の顔領域の視差量を調節するステップと、前記特定の顔領域の視差量を調節した視点画像に基づいて、立体画像を所定の表示装置に表示するステップとを実行するように構成されている。
この発明によると、視点画像間で対応関係にある顔領域の情報とそれらの視差情報を画像とともに取得し、表示方法に応じて選択された顔の視差に応じて視差調節を行い、立体画像が表示される。従って、複数の顔がある立体画像で目的の顔に視差が最適化された、目に負担が少なく自然な立体映像の表示が可能となる。
本発明の一実施形態に係る立体画像表示装置を備えた撮像装置(デジタルカメラ)の正面斜視図 本発明の一実施形態に係る立体画像表示装置を備えた撮像装置(デジタルカメラ)の背面斜視図 本発明の一実施形態に係る立体画像表示装置を備えた撮像装置(デジタルカメラ)のブロック図 本発明の一実施形態に係る立体画像表示装置を備えた撮像装置(デジタルカメラ)のブロック図 第1実施形態に係る表示処理のフローチャート 表示再生装置の要部ブロック図 第1実施形態に係る立体画像の表示例を示す図 第1実施形態に係る立体画像の表示例を示す図 第1実施形態に係る立体画像の表示例を示す図 第2実施形態に係る表示処理のフローチャート 第2実施形態に係る立体画像の表示例を示す図 第2実施形態に係る立体画像の表示例を示す図 第2実施形態に係る立体画像の表示例を示す図 第2実施形態に係る立体画像の表示例を示す図 第3実施形態に係る表示処理のフローチャート 第3実施形態に係る立体画像の表示例を示す図 第3実施形態に係る立体画像の表示例を示す図 第3実施形態に係る立体画像の表示例を示す図 立体撮像装置の左右の撮像部と被写体(人およびタワー)の位置関係を模式的に示す図 図11Aの位置関係の場合に左右の撮像部を用いて被写体を撮影して得られた画像(それぞれ左撮像部画像および右撮像部画像)を示す図 被写体の位置と左撮像部画像および右撮像部画像により得られた被写体の画像の関係を模式的に示す図 画像の中央部にクロスポイントを設定した場合の左撮像部画像および右撮像部画像 顔認識した被写体にクロスポイントを設定した場合の左撮像部画像および右撮像部画像
図1は、本発明の立体撮像装置の一実施形態であるデジタルカメラ10の外観構成を示す正面斜視図である。図2は、そのデジタルカメラの一例の外観構成を示す背面斜視図である。
デジタルカメラ10は、複数の撮像部(図1では2つを例示)を備えており、同一被写体を複数視点(図1では左右2つの視点を例示)から撮影可能となっている。なお、本例では、説明の便宜のため2つの撮像部を備えた場合を例に説明するが、本発明はこれに限定されず、3つ以上の撮像部を備えた場合であっても同様に適用可能である。
本例のデジタルカメラ10のカメラボディ112は、矩形の箱状に形成されており、その正面には、図1に示すように、一対の撮影光学系11R、11Lと、ストロボ116が設けられている。また、カメラボディ112の上面には、レリーズボタン14、電源/モードスイッチ120、モードダイヤル122等が設けられている。また、カメラボディ112の背面には、図2に示すように、液晶表示装置(LCD:liquid crystal display)などで構成されたモニタ13、ズームボタン126、十字ボタン128、MENU/OKボタン130、DISPボタン132、BACKボタン134等が設けられている。
左右一対の撮影光学系11R、11Lは、それぞれ沈胴式のズームレンズ(図3の18R、18L)を含んで構成されており、デジタルカメラ10の電源をONすると、カメラボディ112から繰り出される。なお、撮影光学系におけるズーム機構や沈胴機構については、公知の技術なので、ここでは、その具体的な説明を省略する。
モニタ13は、半円筒状のレンズ群を有したいわゆるレンチキュラレンズが前面に配置されたカラー液晶パネル等の表示装置である。このモニタ13は、撮影済み画像を表示するための画像表示部として利用されるとともに、各種設定時にGUI(graphical user interface)として利用される。また、撮影時には、撮像素子で捉えた画像がスルー表示され、電子ファインダとして利用される。なお、モニタ13の立体画像の表示方式は、レンチキュラレンズを用いるものに限られない。例えば、パララックスバリア方式を適用してもよいし、めがねを利用した立体画像の表示方式(例えば、アナグリフ方式、偏光フィルタ方式、液晶シャッタ方式など)を適用してもよい。
レリーズボタン14は、いわゆる「半押し」と「全押し」とからなる2段ストローク式のスイッチで構成されている。デジタルカメラ10は、静止画撮影時(例えば、モードダイヤル122またはメニューによる静止画撮影モード選択時)、このレリーズボタン14を半押しすると撮影準備処理、すなわち、AE(Automatic Exposure:自動露出)、AF(Auto Focus:自動焦点合わせ)、AWB(Automatic White Balance:自動ホワイトバランス)の各処理を行い、全押しすると、画像の撮影・記録処理を行う。また、動画撮影時(例えば、モードダイヤル122またはメニューにより動画撮影モード選択時)、このレリーズボタン14を全押しすると、動画の撮影を開始し、再度全押しすると、撮影を終了する。なお、設定により、レリーズボタン14を全押ししている間、動画の撮影を行い、全押しを解除すると、撮影を終了するようにもできる。なお、静止画撮影専用のレリーズボタンおよび動画撮影専用のレリーズボタンを設けてもよい。
電源/モードスイッチ120(電源スイッチ及びモードスイッチ)は、デジタルカメラ10の電源スイッチとして機能するとともに、デジタルカメラ10の再生モードと撮影モードとを切り替える切替スイッチとして機能する。モードダイヤル122は、撮影モードの設定に用いられる。デジタルカメラ10は、このモードダイヤル122を「2D静止画位置」にセットすることにより、2Dの静止画を撮影する2D静止画撮影モードに設定され、「3D静止画位置」にセットすることにより、3Dの静止画を撮影する3D静止画撮影モードに設定される。さらに、「3D動画位置」にセットすることにより、3Dの動画を撮影する3D動画撮影モードに設定される。
ズームボタン126は、撮影光学系11R、11Lのズーム操作に用いられ、望遠側へのズームを指示するズームテレボタンと、広角側へのズームを指示するズームワイドボタンとで構成されている。十字ボタン128は、上下左右4方向に押圧操作可能に設けられており、各方向の押圧操作に対して、カメラの設定状態に応じた機能が割り当てられる。MENU/OKボタン130は、メニュー画面の呼び出し(MENU機能)に用いられるとともに、選択内容の確定、処理の実行指示等(OK機能)に用いられる。DISPボタン132は、モニタ13の表示内容の切り替え指示等の入力に用いられ、BACKボタン134は入力操作のキャンセル等の指示の入力に用いられる。
図3Aおよび図3Bは、デジタルカメラ10の要部を示すブロック図である。
デジタルカメラ10は、右視点用の撮影光学系11Rおよび撮像素子29Rを有する右視点用の撮像部と、左視点用の撮影光学系11Lおよび撮像素子29Lを有する左視点用の撮像部を備える。
2つの撮影光学系11(11R、11L)は、それぞれ、ズームレンズ18(18R、18L)、フォーカスレンズ19(19R、19L)、および、絞り20(20R、20L)を有する。これらのズームレンズ18、フォーカスレンズ19、および、絞り20は、それぞれ、ズームレンズ制御部22(22R、22L)、フォーカスレンズ制御部23(23R、23L)、絞り制御部24(24R、24L)により駆動される。各制御部22、23、24は、ステッピングモータからなり、CPU26に接続された不図示のモータドライバから与えられる駆動パルスにより制御される。
2つの撮影光学系11(11R、11L)の背後には、それぞれ、CCD(charge−coupled device)イメージセンサ(以下単に「CCD」という)29(29R、29L)が配置されている。なお、CCD29の代りに、MOS(metal−oxide semiconductor)型のイメージセンサを用いるようにしてもよい。CCD29は、周知のように、複数の光電変換素子が並べられた光電変換面を有し、この光電変換面に撮影光学系11を介して被写体光が入射することにより、被写体像が結像される。CCD29には、CPU26によって制御されるタイミングジェネレータ:TG31(31R、31L)が接続され、このTG31から入力されるタイミング信号(クロックパルス)により、電子シャッタのシャッタ速度(各光電変換素子の電荷蓄積時間である)が決定される。
CCD29から出力された撮像信号は、アナログ信号処理回路33(33R、33L)に入力される。アナログ信号処理回路33は、相関二重サンプリング回路(CDS)、増幅器(AMP)、A/D変換器などを有する。CDSは、撮像信号から各画素の蓄積電荷時間に対応したR(red)、G(green)、B(blue)の画像データを生成する。AMPは、生成された画像データを増幅する。A/D変換器は、増幅された画像データをアナログからデジタルに変換する。
AMPは、CCD29の感度を調節する感度調節装置として機能する。CCD29のISO感度(International Organization for Standardization)は、AMPのゲインによって決定される。そして、A/D変換器36(36R、36L)から出力されたデジタルの画像データは、画像入力コントローラ38(38R、38L)を介して、作業用のメモリであるSDRAM(synchronous dynamic random access memory)39によりそれぞれ右の視点の画像データ、左の視点の画像データとして一時的に記憶される。
デジタル信号処理部41は、SDRAM39から画像データを読み出して、階調変換、ホワイトバランス補正、γ補正処理、YC変換処理などの各種画像処理を施し、この画像データを再度SDRAM39に記憶させる。デジタル信号処理部41による画像処理済みの画像データは、VRAM(video random access memory)65にスルー画として取得されたのち、表示制御部42で映像出力用のアナログ信号に変換され、モニタ13に表示される。また、レリーズボタン14の全押しに伴って取得された画像処理済みの画像データは、圧縮伸張処理部43で所定の圧縮形式(例えばJPEG(Joint Photographic Experts Group)形式)で圧縮された後、メディア制御部15を経由して、記録用画像としてメモリカード16に記録される。
操作部25は、デジタルカメラ10の各種操作を行うためのものであり、図1および図2に示した各種のボタン・スイッチ120から134を含んでいる。
CPU26は、デジタルカメラ10を統括的に制御するために設けられている。CPU26は、フラッシュROM(read−only memory)60やROM61に記憶された各種制御用のプログラムや設定情報、姿勢検出センサ73や操作部25からの入力信号などに基づいて、バッテリー70、電源制御部71、時計部72など各部を制御する。
また、デジタルカメラ10には、AE(Auto Exposure)/AWB(Auto White Balance)制御を行うAE/AWB制御部47、顔領域に対する視差検出を行う視差検出部49が設けられている。また、デジタルカメラ10は、フラッシュ5の発光タイミングや発光量を制御するフラッシュ制御部23を備える。
AE/AWB制御部47は、レリーズボタン14が半押しされたときに、CCD29により得られた画像(撮像画像)を解析して、被写体の輝度情報等に基づき、絞り20の絞り値およびCCD29の電子シャッタのシャッタ速度を算出する。そして、これらの算出結果に基づきAE/AWB制御部47は、絞り制御部24を介して絞り値を制御し、TG31を介してシャッタ速度を制御する。
例えば、2つの撮影光学系11R、11Lのうちの一方の撮影光学系のCCD29Rまたは29Lにより得られた撮像画像(右視点画像または左視点画像)に基づいて、両方の撮影光学系11R、11Lの絞り値およびシャッタ速度を算出する。両方の撮影光学系11Rおよび11Lにより得られた撮像画像(右視点画像および左視点画像)に基づいて、それぞれの撮影光学系11R、11Lの絞り値およびシャッタ速度を算出してもよい。
AF制御部45は、レリーズボタン14が半押しされたときに、フォーカスレンズ19R、19Lを光軸方向に沿って移動させてコントラスト値を算出するAFサーチ制御、および、コントラスト値に基づく合焦レンズ位置にフォーカスレンズ19R、19Lを移動させる合焦制御を行う。ここで、「コントラスト値」は、CCD29R、29Lにより得られた撮像画像に基づいて算出される。「合焦レンズ位置」は、フォーカスレンズ19R、19Lが少なくとも主要被写体に合焦するフォーカスレンズ19R、19Lの位置である。
例えば、2つの撮影光学系11R、11Lのフォーカスレンズ19R、19Lのうち少なくとも一方を、モータドライバ27Rまたは27Lの駆動により移動させながら、一方の撮影光学系11Rまたは11Lの撮像画像(右視点画像または左視点画像)に基づいて、コントラスト値を算出する。そのコントラスト値に基づき、2つの撮影光学系11R、11Lのフォーカスレンズ19R、19Lの合焦レンズ位置をそれぞれ決定し、モータドライバ27Rおよび27Lをそれぞれ駆動して、各フォーカスレンズ19R、19Lをそれぞれの合焦レンズ位置に移動させる。なお、両方の撮影光学系11R、11LにおいてそれぞれAFサーチを行って、それぞれの合焦レンズ位置を決定してもよい。
姿勢検出センサ73は、撮影光学系11R、11Lが予め決められた姿勢に対して回転された方向および角度を検出する。
手ブレ制御部62は、撮影光学系11R、11Lに設けられた図示しない補正レンズをモータによって駆動することで、姿勢検出センサ73の検出した光軸のずれを補正して手ブレを防止する。
CPU26は、撮影光学系11R、11Lの被写体像に対応する左右の画像データに基づいて顔認識を行うよう顔認識部64を制御する。顔認識部64は、CPU26の制御に応じて顔認識を開始し、左右の画像データからそれぞれ顔認識を行う。顔認識部64は、顔認識の結果、左右の画像データからそれぞれから認識された顔領域の位置情報を含む顔領域情報をSDRAM39に記憶する。顔認識部64は、テンプレートマッチングなど公知の方法により、SDRAM39に記憶された画像から顔領域を認識することができる。なお被写体の顔領域とは、撮像画像中の人物や動物の顔領域が挙げられる。
顔対応判定部66は、右の画像データから認識された顔領域と左の画像データから認識された顔領域の対応関係を判定する。すなわち、顔対応判定部66は、左右の画像データのそれぞれから認識された顔領域の位置情報同士が最も近接する顔領域の組を特定する。そして、顔対応判定部66は、当該組を構成する顔領域同士の画像情報をマッチングし、両者の同一性の確度が所定の閾値を超えた場合、当該組を構成する顔領域同士は対応関係にあると判定する。
視差検出部49は、対応関係にあると判定された顔領域同士の位置情報に基づいて、当該顔領域間の視差を算出する。視差検出部49は、対応関係にあると判定された顔領域の組ごとに視差の算出を繰り返し、この顔領域の組ごとの視差をSDRAM39に記憶する。
例えば、対応関係にある顔領域同士の視差の算出は、次のようにする。まず、視差検出部49は、組を構成する顔領域間で対応する特定の点(対応点)間の位置の差(対応点間距離)を算出する。そして、視差検出部49は、当該組の顔領域に含まれる点の視差の平均値を算出し、これを当該組の視差とする。対応関係にある顔領域の位置情報とその視差は、左右の画像データと対応づけられてSDRAM39に記憶される。例えば、対応関係にある顔領域の位置情報とその視差は、画像データの付帯情報(ヘッダ、タグ、メタ情報など)として記憶される。画像データがメモリカード16に記録用画像として圧縮記録される際は、対応関係にある顔領域の位置情報とその視差に関する情報は、例えば、Exif(Exchangeable image file format)などのタグ情報として、この顔領域の位置情報と視差が合わせて記録用画像の付帯情報に記録される。当然ながら、画像データ内に顔領域が存在しなかったり、顔領域が存在しても対応関係になければ、この情報は記憶されない。
図4は第1実施形態に係る表示処理のフローチャートを示す。この処理はCPU26によって制御される。この処理をCPU26に実行させるプログラムはROM61などのコンピュータ読み取り可能な記録媒体に記録されている。この処理は、画像データの付帯情報に上記の顔領域の位置情報と視差が記憶された後に実行される。
なお、この処理を実行するのに必要なブロックは、デジタルカメラ以外の電子機器に備えられていてもよい。例えば、図5に示すような、CPU26、VRAM65、SDRAM39、フラッシュROM60、ROM61、圧縮伸張処理部43、メディア制御部15、視差検出部49、視差調節部63、表示制御部42、モニタ13などの平面または立体画像を表示するブロックを備えた表示再生装置がこの処理を実行することもできる。
S1では、CPU26は、SDRAM39またはメモリカード16に記憶された左右の画像データと、当該画像データの付帯情報から、対応関係にある顔領域の位置情報と視差の読み出しを試みる。
S2では、CPU26は、顔領域の位置情報の読み出しが成功したか否かを判断する。Yesの場合はS3に進み、Noの場合はS5に進む。
S3では、CPU26は、顔領域の組の位置情報に対応する視差情報の読み出しが成功したか否かを判断する。Yesの場合はS4に進み、Noの場合はS5に進む。
S4では、CPU26は、「通常再生」、「顔選択再生」、「顔拡大再生」、「スライドショー」など、画像の再生方法を受け付ける。
CPU26は、顔拡大再生の再生方法として「顔選択再生」または「顔拡大再生」が選択された場合、さらに、操作部25を介して、視差調節を希望する所望の顔を選択させる。CPU26は、操作部25から選択された顔を示す情報を顔選択情報としてSDRAM39に記憶する。CPU26は、操作部25を介し、一覧表示された顔情報の中から、所望の顔情報の選択を受け付けてもよい。例えば、CPU26は、画像の再生方法の選択後、左右いずれかの画像データを平面画像として表示するとともに、当該画像の中にある顔領域のうち、左右の画像データ内で対応関係にある顔領域を平面画像あるいは立体画像で一覧表示する。
CPU26は、顔拡大再生の再生方法として「スライドショー」が選択された場合、顔選択情報として、各顔情報に重複のないよう表示順序を付与し、その各顔の表示順序を顔選択情報としてSDRAM39に記憶する。表示順序の付与は自動でも手動でもよい。例えば、CPU26は、画像データの付帯情報に記録された撮影日時の昇順または降順に沿って表示順序を付与する。あるいは、CPU26は、操作部25を介した表示順序の指定に従って表示順序を付与する。
顔拡大再生の再生方法として、「顔拡大再生」または「スライドショー」の選択があった場合はS6、ない場合はS7に進む。
S5では、CPU26は、画面中央を基準に視差調節を行うよう視差調節部63に指示する。視差調節部63は、画面中央にクロスポイントが設定されるよう左右画像データの視差量を調節し、表示制御部42を介してモニタ13に立体画像を表示する。図6Aはこの立体画像の表示例である。
S6では、CPU26は、顔選択情報で示された選択された顔領域を基準に左右の画像データの視差調節を行うよう視差調節部63に指示する。視差調節部63は、選択された顔領域にクロスポイントが設定されるよう左右の画像データの視差量を調節し、表示制御部42を介してモニタ13に立体画像を表示する。
CPU26は、「顔選択再生」が選択されている場合、選択された顔領域に対応する視差情報を基準に、左右の画像データの視差調節を行うよう視差調節部63に指示する。視差調節部63は、選択された顔領域にクロスポイントが設定されるよう左右の画像データの視差量を調節し、表示制御部42を介してモニタ13に当該視差調節の完了した左右の画像データを立体表示する。図6Bはこの立体画像の表示例であり、顔Dにクロスポイントが設定されている。
CPU26は、「顔拡大再生」が選択されている場合、顔選択情報で示された選択された顔領域を左右の画像データから切り出す。そして、CPU26は、選択された顔領域に対応する視差情報を基準に、当該切り出した顔領域の視差調節を行うよう視差調節部63に指示する。視差調節部63は、選択された顔領域にクロスポイントが設定されるよう当該切り出した顔領域の視差量を調節し、表示制御部42を介してモニタ13に当該切り出した顔領域の立体画像を表示する。この際、表示制御部42は、モニタ13の表示領域の周縁に達するまで顔領域を拡大する。図6Cは、それぞれ顔AからDが選択された顔領域である場合の立体画像の表示例を示す。
なお、左右の画像データから顔領域を切り出した後に視差調整をすると、切り出し画像データ間の共通領域が減少し、立体表示領域が減少する可能性がある。よって、まず視差調節部63が、選択された顔領域にクロスポイントが設定されるよう視差量を調節することが好ましい。そして、CPU26は、視差調節後の左右の画像データから顔領域を切り出し、表示制御部42は、当該視差調節された左右の画像データからの切り出し顔領域をモニタ13に表示することが好ましい。
CPU26は、「スライドショー」が選択されている場合、顔選択情報で示された表示順に従って、各顔領域を左右の画像データから順次1つずつ切り出す。そして、CPU26は、当該切り出した顔領域に対応する視差情報を基準に、当該切り出した顔領域の視差調節を行うよう視差調節部63に指示する。視差調節部63は、選択された顔領域にクロスポイントが設定されるよう当該切り出した顔領域の視差量を調節し、表示制御部42を介してモニタ13に当該切り出した顔領域の立体画像を表示する。これを、表示順に従って各顔領域の全てに対して繰り返すことで、立体表示される顔領域が順次切り替わるスライドショーを実行する。この際、表示制御部42は、モニタ13の表示領域の周縁に達するまで各顔領域を拡大表示してもよい。
S7では、CPU26は、主要な顔領域を基準に視差調節を行うよう視差調節部63に指示する。視差調節部63は、選択された顔領域にクロスポイントが設定されるよう左右画像データの視差量を調節し、表示制御部42を介してモニタ13に立体画像を表示する。例えば、主要な顔領域とは、画面中央に最も近い位置に存在する顔領域である。あるいは、サイズが最も大きい顔領域である。あるいは、順位が最高の顔領域である。
以上の処理によると、予め記録されている、対応関係にある顔領域の情報とそれらの視差情報を画像とともに読み出しておき、再生時の顔選択情報と選択された顔の視差に応じて視差調節を行い、選択された再生方法に応じて立体画像が表示される。従って、複数の顔がある立体画像で目的の顔に視差が最適化された、目に負担が少なく自然な立体映像の表示が可能となる。
<第2実施形態>
図7は、第2実施形態に係る表示処理のフローチャートを示す。この処理はCPU26によって制御される。この処理をCPU26に実行させるプログラムはROM61などのコンピュータ読み取り可能な記録媒体に記録されている。この処理は、画像データの付帯情報に上記の顔領域の位置情報と視差が記憶された後に実行される。この処理は図5の表示再生装置によって実行されてもよい。
S11からS13は、それぞれS1からS3と同様である。
S14では、CPU26は、「インデックス表示」か「分割表示」の再生方法が操作部25を介してユーザから選択されたか否かを判断する。「インデックス表示」は、画像データ内の顔の全てを一覧表示した上、その顔の中から任意に選択された顔を一覧以外のモニタ13の表示領域に表示する方法である。「分割表示」は、モニタ13の表示領域を顔領域の数だけ分割し、画像データ内の顔領域の各々を対応する分割画面で立体表示する再生方法である。「インデックス表示」が選択された場合はS15に進み、「分割表示」が選択された場合はS22に進む。
S15では、CPU26は、対応関係にある顔領域の全個数をNとすると、画面分割数をN+1と決定する。CPU26は、所望の顔領域の選択を受け付ける。選択はユーザ操作などの手動によるもの、あるいは顔領域の順序などに応じた自動的なもののいずれでもよい。所定の順序は、顔認識部64による顔認識の順番などである。ユーザ操作の場合は、画像データ内の顔の全てをモニタ13の分割画面のそれぞれの表示領域に一覧表示して、その中から顔領域を選択させるとよい。CPU26は、一覧から選択された顔領域は立体画像、一覧から選択されない顔領域は平面画像で表示してもよい。こうすると注目度の高い顔領域をより効果的に見せることができる。この一覧は平面画像でも立体画像でもよい。ただし、立体画像として表示する場合は、各顔領域ごとに個別に視差調節がされる。
CPU26は、S11で読み込まれた顔領域の位置情報に応じて、選択された顔領域を、左右の画像データのそれぞれから切り出す。
S16では、CPU26は、当該切り出した顔領域に対応する視差情報を基準に、当該切り出した顔領域の視差調節を行うよう視差調節部63に指示する。視差調節部63は、選択された顔領域にクロスポイントが設定されるよう当該切り出した顔領域の視差量を調節する。
S17では、CPU26は、表示制御部42を介してモニタ13に当該切り出した顔領域の立体画像を表示する。顔領域の立体画像を表示する位置は、上記の顔領域の一覧が表示されるN個分の分割画面とは異なる分割画面である。この結果、モニタ13には図8Dのような画面が表示される。
S18では、CPU26は、全ての顔領域についてS15からS18の処理が完了し、全ての顔領域が立体表示されたか否かを判断する。例えばこの判断は、S15からS18の処理のループ回数が認識された顔領域の数以上となったか否かにより行われる。Yesの場合はS19に進み、Noの場合はS15に戻る。
S19では、CPU26は、主要な顔領域を基準に左右の画像データの視差量を調節するよう視差調節部63に指示する。例えば、主要な顔領域とは、画面中央に最も近い位置に存在する顔領域である。あるいは、サイズが最も大きい顔領域である。あるいは、顔認識時の顔らしさの評価値の順位が最高の顔領域である。
S20では、視差調節部63は、主要な顔領域にクロスポイントが設定されるよう左右画像データの視差量を調節し、表示制御部42を介してモニタ13に立体画像を表示する。この結果、図8Cのように、顔領域の一覧以外の分割画面に当該立体画像が表示される。あるいは、図8Aのような画面がモニタ13に表示されてもよい。
S21では、CPU26は、画面中央を基準に視差調節を行うよう視差調節部63に指示する。視差調節部63は、画面中央にクロスポイントが設定されるよう左右画像データの視差量を調節し、表示制御部42を介してモニタ13に立体画像を表示する。
S22では、CPU26は、画面分割数を対応関係にある顔領域の全個数Nと決定する。CPU26は、対応関係にある顔領域の各々を左右画像データから切り出した上、それぞれ独立した上記個数分の分割画面で切り出した顔領域の各々を視差調節した上で表示するよう指示する。視差調節部63は、分割画面の顔領域ごとにクロスポイントが設定されるよう左右画像データの視差量を調節し、表示制御部42を介してモニタ13の分割画面ごとに各顔領域の立体画像を表示する。この結果、モニタ13には図8Bのような画面が表示される。
S23では、CPU26は、処理を終了するか否かの選択を操作部から受け付ける。Yesの場合は処理を終了し、Noの場合はS11に戻る。
なお、上述したとおり、左右の画像データから顔領域を切り出した後に視差調整をすると、切り出し画像データ間の共通領域が減少し、立体表示領域が減少する可能性がある。よって、S22では左右の画像データについて各顔領域の視差調節を行い、視差調整後の各顔領域を左右の画像データから切り出して各分割画面で表示するとよい。
図8Aから図8Dは本処理による表示例を示す。図8Aに示すように、画像全体をモニタ13の表示領域全体で表示するときには、主要な顔領域を基準に視差調節する(S19)。なお、一覧から顔領域が選択されていないときにも、これと同様の表示を行うこともできる。また、図8Bに示すように、各顔領域を切り出して分割画面で各顔領域を表示するときは、各顔領域の視差を基準に各分割画面の視差を調節する(S22)。また、図8Cに示すように、分割画面で各顔を一覧表示するとともに、画像全体をモニタ13の残りの1つの分割画面全体で表示する(S20)。一覧の視差調節は分割画面の場合と同様にすることができる。また、図8Dに示すように、一覧から特定の顔領域が選択された場合は、一覧以外の残りの分割画面内で、一覧から選択された顔領域を基準に視差調節された顔領域が表示される(S15からS17)。
上記の処理で、「分割表示」が選択されると、画面分割された各表示面内で顔に視差が調節され、全ての顔が二重像にならない自然で目の負担が少ない立体画像の表示が可能となり、多画面での視認性が向上する。
上記の処理で、「インデックス表示」が選択されると、図8Cあるいは図8Dのように大きい画面と小さい画面を組み合わせて表示する。この際、分割画面ごとに2D表示と3D表示の使い分けを行う。よって、注目度の高い画面をより効果的に見せることが可能である。
<第3実施形態>
図9は第3実施形態に係る表示処理のフローチャートを示す。この処理はCPU26によって制御される。この処理をCPU26に実行させるプログラムはROM61などのコンピュータ読み取り可能な記録媒体に記録されている。この処理は、画像データの付帯情報に上記の顔領域の位置情報と視差が記憶された後に実行される。この処理は図5の表示再生装置によって実行されてもよい。
S31からS37は、それぞれS1からS7と同様である。
S38では、CPU26は、ユーザの選択した顔領域が左右の画像データの中心付近に存在するか否かを判断する。Yesの場合はS40、Noの場合はS39に進む。
S39では、CPU26は、画像の中に顔領域が2以上存在するか否かを判断する。Yesの場合はS42、Noの場合はS41に進む。
S40はS35と同様である。
S41では、CPU26は、ユーザの選択した顔領域が画像中心付近に存在するように、左右の画像データからモニタ13の表示領域のアスペクトに相当する領域を切り出す。そして、CPU26は、切り出した領域の中心を基準に視差量を調節するよう視差調節部63を制御し、当該切り出した領域を立体画像としてモニタ13に表示するよう表示制御部42を制御する。
S42では、CPU26は、ユーザの選択した顔領域およびそれ以外の顔領域が画像中心付近に存在するように、所定のサイズおよびアスペクトを有する切り出し枠を左右の画像上に設定する。かつ、CPU26は、ユーザの選択した顔領域が切り出し枠内に収まるよう切り出し枠の位置を設定する。CPU26は、切り出し枠内の画像の部分領域を切り出す。そして、CPU26は、切り出した領域の中心を基準に視差量を調節し、当該切り出した領域を立体画像としてモニタ13に表示する。切り出し領域のサイズは、モニタ13の表示領域のサイズよりも小さく、例えばモニタ13の表示領域のサイズの70から50%である。切り出し領域のアスペクト比は、モニタ13の表示領域のアスペクト比と同一である。
なお、上述したとおり、左右の画像データから画像を切り出した後に視差調整をすると、切り出し画像データ間の共通領域が減少し、立体表示領域が減少する可能性がある。よって、S42では左右の画像データについて切り出し枠の中心を基準した視差調節を行い、視差調整後の左右画像データから切り出し枠内の領域の切り出しを行って表示するとよい。
図10Aから図10Cは本処理に従った表示例を示す。図10Aに示すように、画像全体を表示するときは、主要な顔領域を基準に視差調節する(S37)。図10Bに示すように、選択された顔領域、ここでは顔Dが画面中心付近に存在しない場合、図10Cに示すように、ユーザの選択した顔領域Dおよびそれ以外の顔領域A/B/Dが画像中心付近に存在するように、切り出し枠の位置を調節する。すなわち、顔領域Dが図中破線で囲まれる領域内に入るようにする。
通常、撮影した時点での構図で画像の再生が行われるが、顔情報が含まれている画像では、全体の雰囲気を変えずに特定の顔をクローズアップしてみたいという場合がある。そのような場合、選択した顔も他の顔も画角の中央にある程度近いところにあり、かつ画角の中に選択した顔が収まるように、自動的に視差と画角を調節する。このため、表示された顔領域の中で視差がどの顔領域に合っているのかがユーザに分かりやすく、かつ、選択した顔と他の顔の双方の視認性が向上する。
上記の各実施形態に係る立体画像表示装置および立体画像表示方法は、立体画像を表示する機能を有する立体画像表示装置または撮像装置に適用可能であり、上記の処理を行わせるためのコンピュータ読取可能なプログラムや、該プログラムが格納される記録媒体としても提供することができる。
42:表示制御部、49:視差検出部、63:視差調節部、64:顔認識部、66:顔対応判定部

Claims (11)

  1. 異なる視点画像に存在する複数の顔領域ごとの視差情報を取得する視差情報取得部と、
    前記複数の顔領域の表示方法を選択する表示方法選択部と、
    前記表示方法選択部が選択した表示方法に従い、前記複数の顔領域の中から特定の顔領域を選択する顔領域選択部と、
    前記顔領域選択部の選択した特定の顔領域の視差情報に基づいて、前記視点画像内の前記特定の顔領域の視差量を調節する視差調節部と、
    前記視差調節部が前記特定の顔領域の視差量を調節した視点画像に基づいて、立体画像を所定の表示装置に表示する表示制御部と、
    を備える立体画像表示装置。
  2. 前記表示方法選択部は、前記顔領域の中からいずれか1つを選択して前記選択された顔領域を表示する表示方法を選択し、
    前記顔領域選択部は、選択操作に基づいて前記顔領域の中からいずれか1つの顔領域を選択し、
    前記視差調節部は、前記選択された顔領域の視差情報に基づき、前記視点画像内の前記選択された顔領域の視差量を調節する請求項1に記載の立体画像表示装置。
  3. 前記顔領域選択部は、前記表示装置に一覧表示された前記複数の顔領域の中からいずれか1つを選択する請求項2に記載の立体画像表示装置。
  4. 前記表示方法選択部は、前記複数の顔領域の中からいずれか1つを順次選択して前記順次選択された顔領域を順次個別に表示する表示方法を選択し、
    前記顔領域選択部は、前記複数の顔領域の中からいずれか1つの顔領域を順次選択し、
    前記視差調節部は、前記順次選択された顔領域の視差情報に基づき、前記順次選択された顔領域の視差量を調節し、
    前記表示制御部は、前記視差量の調節された前記顔領域を順次表示する請求項1から3のいずれかに記載の立体画像表示装置。
  5. 前記表示方法選択部は、前記顔領域の各々を分割画面の各々に分けて表示する表示方法を選択し、
    前記顔領域選択部は、前記顔領域の中から各分割画面に表示する顔領域を選択し、
    前記顔領域選択部が選択した各顔領域を前記視点画像から切り出す切出部を備え、
    前記視差調節部は、前記各分割画面に表示する各顔領域の視差情報に基づき、前記切出部の切り出した顔領域ごとの視差量を調節し、
    前記表示制御部は、前記視差量の調節された各顔領域を各分割画面に表示する請求項1から3のいずれかに記載の立体画像表示装置。
  6. 前記表示方法選択部は、前記顔領域の中からいずれか1つを選択して前記選択された顔領域を基準に前記顔領域の全てが所定の画角内に収まるよう表示する表示方法を選択し、
    前記顔領域選択部は、前記顔領域の中からいずれか1つの顔領域を選択し、
    前記選択された顔領域を基準に前記複数の顔領域の全てが所定の画角内に収まるような切り出し範囲を前記視点画像に設定し、前記視点画像から前記切り出し範囲内の画像を切り出す切出部を備え、
    前記視差調節部は、前記選択された顔領域の視差情報に基づき、前記切出部の切り出した視点画像内の前記選択された顔領域の視差量を調節し、
    前記表示制御部は、前記視差量の調節された切り出し画像を表示する請求項1から3のいずれかに記載の立体画像表示装置。
  7. 前記表示方法選択部は、前記顔領域の各々を分割画面の各々に分けて表示する表示方法を選択し、
    前記顔領域選択部は、前記顔領域の中から各分割画面に表示する顔領域を選択し、
    前記視差調節部は、前記各分割画面に表示する各顔領域の視差情報に基づき、前記各分割画面に表示する顔領域ごとの視差量を調節し、
    前記顔領域選択部が選択した各顔領域を前記顔領域ごとの視差量の調整された視点画像から切り出す切出部を備え、
    前記表示制御部は、前記切出部の切り出した各顔領域の視点画像を各分割画面に表示する請求項1から3のいずれかに記載の立体画像表示装置。
  8. 前記表示方法選択部は、前記顔領域の中からいずれか1つを選択して前記選択された顔領域を基準に前記顔領域の全てが所定の画角内に収まるよう表示する表示方法を選択し、
    前記顔領域選択部は、前記顔領域の中からいずれか1つの顔領域を選択し、
    前記視差調節部は、前記選択された顔領域の視差情報に基づき、前記顔領域選択部の選択した視点画像内の前記選択された顔領域の視差量を調節し、
    前記選択された顔領域を基準に前記複数の顔領域の全てが所定の画角内に収まるような切り出し範囲を前記視点画像に設定し、前記視点画像から前記切り出し範囲内の画像を切り出す切出部を備え、
    前記表示制御部は、前記切出部が前記視点画像から切り出した画像を表示する請求項1から3のいずれかに記載の立体画像表示装置。
  9. コンピュータが、
    異なる視点画像に存在する複数の顔領域ごとの視差情報を取得するステップと、
    前記複数の顔領域の表示方法を選択するステップと、
    前記選択した表示方法に従い、前記複数の顔領域の中から特定の顔領域を選択するステップと、
    前記選択した特定の顔領域の視差情報に基づいて、前記視点画像内の前記特定の顔領域の視差量を調節するステップと、
    前記特定の顔領域の視差量を調節した視点画像に基づいて、立体画像を所定の表示装置に表示するステップと、
    を含む立体画像表示方法。
  10. 異なる視点画像に存在する複数の顔領域ごとの視差情報を取得する機能と、
    前記複数の顔領域の表示方法を選択する機能と、
    前記選択した表示方法に従い、前記複数の顔領域の中から特定の顔領域を選択する機能と、
    前記選択した特定の顔領域の視差情報に基づいて、前記視点画像内の前記特定の顔領域の視差量を調節する機能と、
    前記特定の顔領域の視差量を調節した視点画像に基づいて、立体画像を所定の表示装置に表示する機能と、
    をコンピュータに実現させる立体画像表示プログラム。
  11. コンピュータ読取可能な記録媒体であって、プロセッサが前記記録媒体に格納された指令を読み取って実行した場合に、
    異なる視点画像に存在する複数の顔領域ごとの視差情報を取得するステップと、
    前記複数の顔領域の表示方法を選択するステップと、
    前記選択した表示方法に従い、前記複数の顔領域の中から特定の顔領域を選択するステップと、
    前記選択した特定の顔領域の視差情報に基づいて、前記視点画像内の前記特定の顔領域の視差量を調節するステップと、
    前記特定の顔領域の視差量を調節した視点画像に基づいて、立体画像を所定の表示装置に表示するステップと、
    を実行する、記録媒体。
JP2012521382A 2010-06-22 2011-05-24 立体画像表示装置、立体画像表示方法、立体画像表示プログラムおよび記録媒体 Expired - Fee Related JP5449550B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012521382A JP5449550B2 (ja) 2010-06-22 2011-05-24 立体画像表示装置、立体画像表示方法、立体画像表示プログラムおよび記録媒体

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010141781 2010-06-22
JP2010141781 2010-06-22
JP2012521382A JP5449550B2 (ja) 2010-06-22 2011-05-24 立体画像表示装置、立体画像表示方法、立体画像表示プログラムおよび記録媒体
PCT/JP2011/061803 WO2011162063A1 (ja) 2010-06-22 2011-05-24 立体画像表示装置、立体画像表示方法、立体画像表示プログラムおよび記録媒体

Publications (2)

Publication Number Publication Date
JPWO2011162063A1 JPWO2011162063A1 (ja) 2013-08-19
JP5449550B2 true JP5449550B2 (ja) 2014-03-19

Family

ID=45371260

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012521382A Expired - Fee Related JP5449550B2 (ja) 2010-06-22 2011-05-24 立体画像表示装置、立体画像表示方法、立体画像表示プログラムおよび記録媒体

Country Status (4)

Country Link
US (1) US9332245B2 (ja)
JP (1) JP5449550B2 (ja)
CN (1) CN102948157B (ja)
WO (1) WO2011162063A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5539146B2 (ja) * 2010-10-12 2014-07-02 キヤノン株式会社 立体映像処理装置及びその制御方法
JP5993937B2 (ja) * 2012-03-30 2016-09-14 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP2013219556A (ja) 2012-04-09 2013-10-24 Olympus Imaging Corp 撮像装置
JP6178048B2 (ja) * 2012-06-06 2017-08-09 ソニー株式会社 画像処理装置、画像処理方法、及びプログラム
JP2014003465A (ja) * 2012-06-19 2014-01-09 Seiko Epson Corp 画像表示装置及びその制御方法
US20150195502A1 (en) * 2014-01-06 2015-07-09 Innolux Corporation Display device and controlling method thereof
US10027883B1 (en) * 2014-06-18 2018-07-17 Amazon Technologies, Inc. Primary user selection for head tracking
US9729865B1 (en) 2014-06-18 2017-08-08 Amazon Technologies, Inc. Object detection and tracking
JP6436761B2 (ja) * 2014-12-24 2018-12-12 キヤノン株式会社 ズーム制御装置、撮像装置、ズーム制御装置の制御方法、及びズーム制御装置の制御プログラム
CN106101685B (zh) * 2016-07-14 2018-06-19 腾讯科技(深圳)有限公司 一种信息处理方法、穿戴式电子设备、处理装置及系统

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3261115B2 (ja) * 1999-09-22 2002-02-25 富士重工業株式会社 ステレオ画像処理装置
JP2002051255A (ja) * 2000-07-31 2002-02-15 Olympus Optical Co Ltd 主要被写体検出カメラ
JP2003209858A (ja) * 2002-01-17 2003-07-25 Canon Inc 立体画像生成方法及び記録媒体
KR100892022B1 (ko) * 2005-08-12 2009-04-07 소니 컴퓨터 엔터테인먼트 인코포레이티드 얼굴 화상표시장치, 얼굴 화상표시방법 및 얼굴 화상표시프로그램
JP4431547B2 (ja) 2006-04-14 2010-03-17 富士フイルム株式会社 画像表示制御装置ならびにそれらの制御方法およびそれらの制御プログラム
JP2008022150A (ja) * 2006-07-11 2008-01-31 Fujifilm Corp 撮像装置
JP4998026B2 (ja) * 2007-03-15 2012-08-15 ソニー株式会社 画像処理装置、撮像装置、および画像表示制御方法、並びにコンピュータ・プログラム
US20090015681A1 (en) * 2007-07-12 2009-01-15 Sony Ericsson Mobile Communications Ab Multipoint autofocus for adjusting depth of field
JP5243003B2 (ja) * 2007-11-28 2013-07-24 富士フイルム株式会社 画像処理装置および方法並びにプログラム
JP2009239391A (ja) * 2008-03-26 2009-10-15 Fujifilm Corp 複眼撮影装置およびその制御方法並びにプログラム
JP4995175B2 (ja) * 2008-10-29 2012-08-08 富士フイルム株式会社 立体撮像装置及び合焦制御方法
JP5620651B2 (ja) * 2009-06-26 2014-11-05 キヤノン株式会社 再生装置、撮像装置、及びその制御方法
US20110025830A1 (en) * 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation

Also Published As

Publication number Publication date
CN102948157B (zh) 2016-05-11
US9332245B2 (en) 2016-05-03
WO2011162063A1 (ja) 2011-12-29
JPWO2011162063A1 (ja) 2013-08-19
US20130107018A1 (en) 2013-05-02
CN102948157A (zh) 2013-02-27

Similar Documents

Publication Publication Date Title
JP5449550B2 (ja) 立体画像表示装置、立体画像表示方法、立体画像表示プログラムおよび記録媒体
US9560341B2 (en) Stereoscopic image reproduction device and method, stereoscopic image capturing device, and stereoscopic display device
JP5595499B2 (ja) 単眼立体撮像装置
JP5722975B2 (ja) 撮像装置、撮像装置用シェーディング補正方法及び撮像装置用プログラム
US9258545B2 (en) Stereoscopic imaging apparatus
US9256116B2 (en) Stereoscopic imaging device, image reproducing device, and editing software
JP5368350B2 (ja) 立体撮像装置
WO2012023330A1 (ja) 画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体
JP5449551B2 (ja) 画像出力装置、方法およびプログラム
JP5336662B2 (ja) 画像処理装置、方法およびプログラム
US9310672B2 (en) Stereoscopic image capturing device and method of controlling thereof
JP2008294530A (ja) 撮像装置、画像再生装置、撮像方法、画像再生方法及びプログラム
US9124875B2 (en) Stereoscopic imaging apparatus
JP5580486B2 (ja) 画像出力装置、方法およびプログラム
JP5571257B2 (ja) 画像処理装置、方法およびプログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131224

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5449550

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees