JP2011013993A - 画像表示装置および方法並びにプログラム - Google Patents

画像表示装置および方法並びにプログラム Download PDF

Info

Publication number
JP2011013993A
JP2011013993A JP2009158379A JP2009158379A JP2011013993A JP 2011013993 A JP2011013993 A JP 2011013993A JP 2009158379 A JP2009158379 A JP 2009158379A JP 2009158379 A JP2009158379 A JP 2009158379A JP 2011013993 A JP2011013993 A JP 2011013993A
Authority
JP
Japan
Prior art keywords
image
subject
depth
stereoscopic
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009158379A
Other languages
English (en)
Other versions
JP5214547B2 (ja
Inventor
Takashi Misawa
岳志 三沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2009158379A priority Critical patent/JP5214547B2/ja
Priority to US12/830,055 priority patent/US8648953B2/en
Publication of JP2011013993A publication Critical patent/JP2011013993A/ja
Application granted granted Critical
Publication of JP5214547B2 publication Critical patent/JP5214547B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】立体画像に含まれる被写体の奥行き方向における距離を容易に確認できるようにする。
【解決手段】撮影部2A,2Bが取得した2つの画像を用いて、立体画像生成部5が立体画像を生成する。被写体抽出部6が2つの画像から人物等の被写体領域を抽出し、奥行き情報取得部7が、被写体領域の立体画像の奥行き方向における距離を、奥行き情報として取得する。奥行き画像生成部8が、被写体領域についての被写体画像を距離順に並べて奥行き画像を生成する。被写体画像を奥行き方向と直交する軸に関して回転させる。
【選択図】図1

Description

本発明は、立体視を行うための立体画像から、立体画像の奥行きを表す奥行き画像を生成して表示する画像表示装置および方法並びに画像表示方法をコンピュータに実行させるためのプログラムに関するものである。
同一の被写体を異なる複数の視点から撮影することにより取得した複数の画像から立体視可能な立体画像を生成し、生成した立体画像を立体視表示することにより、視差を利用して立体視できることが知られている。立体画像を立体視表示するための具体的な手法として、パララックスバリア方式およびレンチキュラー方式のように、複数の画像を立体視可能なモニタに表示する手法が提案されている。この場合、複数の画像を垂直方向に短冊状に切り取って交互に配置することにより立体画像を生成して、立体視表示が行われる。また、画像分離メガネを使用したり、光学素子を液晶に貼ることで左右の画像の光線方向を変えながら、左右の画像を交互に高速で切り替えて表示することにより、残像効果によって立体視表示を行う方式も提案されている(スキャンバックライト方式)。
また、立体視表示される立体画像を見やすくするための各種手法が提案されている。例えば、撮影により取得した立体画像とCGにより作成した立体画像とを合成して合成画像を生成する際に、立体画像の周波数特性を調整し、合成画像の違和感をなくすようにする手法が提案されている(特許文献1参照)。
特開2006−211383号公報
しかしながら、特許文献1に記載された手法は、立体画像を合成する際の違和感をなくすことができるものの、立体画像に含まれる被写体の奥行き方向における距離を確認することができない。このため、合成画像において含まれる被写体の奥行き方向の位置関係が、実際の位置関係と異なるものとなってしまうおそれがある。
本発明は、上記事情に鑑みなされたものであり、立体画像に含まれる被写体の奥行き方向における距離を容易に確認できるようにすることを目的とする。
本発明による画像表示装置は、異なる視点において取得した複数の画像から生成された立体視を行うための立体画像を取得する立体画像取得手段と、
前記立体画像に含まれる少なくとも1つの被写体の、該立体画像の奥行き方向における距離を表す奥行き情報を取得する奥行き情報取得手段と、
前記奥行き方向における基準位置からの前記被写体画像の位置までの距離と、前記被写体の前記奥行き方向における距離とを対応づけて前記被写体画像を配置して、奥行き画像を生成する奥行き画像生成手段と、
前記奥行き画像に配置された前記被写体画像を、前記奥行き方向と直交する軸に関して回転可能に表示制御する回転表示制御手段と、
該被写体画像が回転可能に表示制御された前記奥行き画像を表示する表示手段とを備えたことを特徴とするものである。
「立体画像の奥行き方向における距離」とは、立体画像を取得するための撮影を行う場合における、撮影装置から被写体までの光軸方向における距離を意味し、具体的には、あらかじめ定められた基準位置(例えば撮影装置における撮像素子の位置あるいは撮影レンズの主点の位置等)を基準とした被写体までの距離を意味する。また、被写体は通常3次元形状を有するため、被写体上の各点において奥行き方向における距離は異なる。このため、被写体までの距離としては、被写体上のあらかじめ定められた点における距離、被写体上の所定領域内における距離の平均値、あるいは被写体上の全領域における距離の平均値等を用いることが好ましい。
「奥行き方向と直交する軸」とは、実際に立体画像の奥行き方向と直交する軸を意味する。このため、奥行き方向を奥行き画像上のいずれの方向に設定するかに応じて、「奥行き方向と直交する軸」は、奥行き画像上の奥行き方向と必ずしも直交しない場合がある。例えば、奥行き方向が奥行き画像の水平方向に設定されており、被写体画像が奥行き画像の水平方向に並んでいれば、「奥行き方向と直交する軸」は奥行き画像においても奥行き方向と直交する。一方、奥行き画像の水平方向にx軸、垂直方向にz軸、斜め方向にy軸を設定することにより奥行き画像上の3次元空間を設定し、y軸を奥行き方向とした場合、奥行き画像上においては奥行き方向と直交する軸はz軸となるため、「奥行き方向と直交する軸」は、奥行き画像上においては奥行き方向とは直交しないこととなる。
「被写体画像を奥行き方向と直交する軸に関して回転可能」とするとは、被写体画像のサイズを、奥行き方向と直交する軸にさらに直交する方向に圧縮することにより、被写体画像のサイズをその直交方向に小さくし、奥行き画像を表示した際に、板状の被写体画像が奥行き方向と直交する軸に対して回転して見えるようにすることを意味する。なお、被写体画像のサイズを圧縮する際に、回転の基準となる軸の左右の画像を、それぞれ軸に平行に逆方向に移動させることにより、板状の被写体画像が立体感を持って回転して見えることとなる。なお、圧縮した被写体画像のサイズを元に戻すことにより、被写体画像を逆方向に回転できることはもちろんである。
なお、本発明による画像表示装置においては、前記立体画像に含まれる所定被写体を抽出する被写体抽出手段をさらに備えるものとし、
前記奥行き情報取得手段を、前記所定被写体の奥行き情報を取得する手段とし、
前記奥行き画像生成手段を、前記所定被写体を表す2次元の被写体画像を含む前記奥行き画像を生成する手段としてもよい。
また、本発明による画像表示装置においては、前記表示手段を、前記奥行き画像とともに前記立体画像を表示する手段としてもよい。
本発明による画像表示方法は、異なる視点において取得した複数の画像から生成された立体視を行うための立体画像を取得し、
前記立体画像に含まれる少なくとも1つの被写体の、該立体画像の奥行き方向における距離を表す奥行き情報を取得し、
前記奥行き方向における基準位置からの前記被写体画像の位置までの距離と、前記被写体の前記奥行き方向における距離とを対応づけて前記被写体画像を配置して、奥行き画像を生成し、
前記奥行き画像に配置された前記被写体画像を、前記奥行き方向と直交する軸に関して回転可能に表示制御し、
該被写体画像が回転可能に表示制御された前記奥行き画像を表示することを特徴とするものである。
なお、本発明による画像表示方法においては、前記立体画像に含まれる所定被写体を抽出し、
前記所定被写体についての前記奥行き情報を取得し、
前記所定被写体を表す2次元の被写体画像を含む前記奥行き画像を生成するようにしてもよい。
また、本発明による画像表示方法においては、前記奥行き画像とともに前記立体画像を表示してもよい。
なお、本発明による画像表示方法をコンピュータに実行させるためのプログラムとして提供してもよい。
本願発明によれば、立体画像に含まれる少なくとも1つの被写体の、立体画像の奥行き方向における距離を表す奥行き情報が取得され、奥行き方向における基準位置からの被写体画像の位置までの距離と、被写体の奥行き方向における距離とが対応づけられて被写体画像が配置されて奥行き画像が生成され、奥行き画像に配置された被写体画像が、奥行き方向と直交する軸に関して回転可能に表示制御され、被写体画像が回転可能に表示制御された奥行き画像が表示される。このため、奥行き画像を見たユーザは、立体画像に含まれる被写体の奥行き方向の距離を容易に認識することができ、その結果、立体画像における被写体の奥行き方向における位置の確認をより容易に行うことができる。とくに、複数の立体画像を合成する場合、本発明による奥行き画像を生成することにより、被写体の奥行き方向における距離関係を誤ることがなくなるため、正しい立体感を持った合成画像を生成することができる。
また、奥行き画像に配置された被写体画像を、奥行き方向と直交する軸に関して回転可能に表示制御しているため、奥行き画像を表示した際に、板状の被写体画像が奥行き方向と直交する軸に関して、回転して見えるようにすることができる。したがって、奥行き画像において、被写体画像に立体感を付与することができる。
また、立体画像に含まれる所定被写体を抽出し、所定被写体の奥行き情報を取得し、所定被写体を表す2次元の被写体画像を含む奥行き画像を生成することにより、所定被写体についての立体画像の奥行き方向における位置関係を容易に確認できることとなる。
また、奥行き画像とともに立体画像を表示することにより、立体画像において立体感を確認しつつ、立体画像に含まれる被写体の奥行き方向における位置を確認することができる。
本発明の実施形態による画像表示装置を適用した複眼撮影装置の構成を示す概略ブロック図 撮影部の構成を示す図 撮影部の配置を説明するための図 撮影部が取得した画像を示す図 抽出した被写体領域を示す図 奥行き画像を示す図 被写体画像の回転を説明するための図 奥行き画像の他の例を示す図 画像ファイルのファイルフォーマットを示す図 付帯情報の内容を示す図 本実施形態において奥行き画像の生成時に行われる処理を示すフローチャート 本実施形態において合成時に行われる処理を示すフローチャート 合成に使用する2つの立体画像を示す図 合成に使用する2つの立体画像の奥行き画像を示す図 合成の指示を説明するための図 合成画像を示す図 奥行き画像と立体画像とを同時に表示する状態を示す図
以下、図面を参照して本発明の実施形態について説明する。図1は本発明の実施形態による画像表示装置を適用した複眼撮影装置の構成を示す概略ブロック図である。図1に示すように本実施形態による複眼撮影装置1は、2つの撮影部2A,2B、撮影制御部3、画像処理部4、立体画像生成部5、被写体抽出部6、奥行き情報取得部7、奥行き画像生成部8、合成部9、ファイル生成部10、メディア制御部11、各種入力を行う操作ボタン等からなる入力部13、各種表示を行う液晶モニタ等の表示部14、および制御部15を備え、各部がバス16により接続されている。
図2は撮影部2A,2Bの構成を示す図である。図2に示すように、撮影部2A,2Bは、レンズ20A,20B、絞り21A,21B、シャッタ22A,22B、撮像素子23A,23B、アナログフロントエンド(AFE)24A,24BおよびA/D変換部25A,25Bをそれぞれ備える。なお、撮影部2A,2Bは、図3に示すように、被写体を見込む輻輳角αを持って、あらかじめ定められた基線長Kとなるように配置されている。なお、輻輳角および基線長の情報は後述するROM15Cに記憶されている。
レンズ20A,20Bは、被写体に焦点を合わせるためのフォーカスレンズ、ズーム機能を実現するためのズームレンズ等の複数の機能別レンズにより構成され、撮影制御部3が行うAF処理により得られる合焦データおよび不図示のズームレバーを操作することにより得られるズームデータに基づいて、不図示のレンズ駆動部によりその位置が調整される。
絞り21A,21Bは、撮影制御部3が行うAE処理により得られる絞り値データに基づいて、不図示の絞り駆動部により絞り径の調整が行われる。
シャッタ22A,22Bはメカニカルシャッタであり、不図示のシャッタ駆動部により、AE処理により得られるシャッタスピードに応じて駆動される。
撮像素子23A,23Bは、多数の受光素子を2次元的に配列した光電面を有しており、被写体光がこの光電面に結像して光電変換されてアナログ撮像信号が取得される。また、撮像素子23A,23Bの前面には、R,G,B各色のフィルタが規則的に配列されたカラーフィルタが配設されている。
AFE24A,24Bは、撮像素子23A,23Bから出力されるアナログ撮像信号に対して、アナログ撮像信号のノイズを除去する処理、およびアナログ撮像信号のゲインを調節する処理(以下アナログ処理とする)を施す。
A/D変換部25A,25Bは、AFE24A,24Bによりアナログ処理が施されたアナログ撮像信号をデジタル信号に変換する。なお、撮影部2A,2Bのそれぞれにより取得されるデジタルの画像データにより表される画像を画像L1,R1とする。
撮影制御部3は、不図示のAF処理部およびAE処理部からなる。AF処理部は入力部13に含まれるレリーズボタンの半押し操作により撮影部2A,2Bが取得したプレ画像に基づいてレンズ20A,20Bの焦点距離を決定し、撮影部2A,2Bに出力する。AE処理部は、プレ画像に基づいて絞り値とシャッタ速度とを決定し、撮影部2A,2Bに出力する。なお、AF処理およびAE処理を行うことなく、あらかじめ定められたフォーカス位置、絞り値およびシャッタ速度を用いて撮影を行うことも可能である。
また、撮影制御部3は、レリーズボタンの全押し操作により、撮影部2A,2Bに対して立体画像生成用の画像L1,R1の本画像を取得させる指示を行う。なお、レリーズボタンが操作される前は、撮影制御部3は、撮影部2A,2Bに対して撮影範囲を確認させるための本画像よりも画素数が少ないスルー画像を取得させる指示を行う。
ここで、画像L1,R1は、図3に示すように、撮影部2A,2Bを用いて被写体を異なる2つの撮影位置において撮影を行うことにより取得されるものである。なお、立体画像生成時に左側に表示される画像が画像L1、右側に表示される画像が画像R1となる。
また、本実施形態においては、2つの画像L1,R1から立体画像を生成するものであるが、3以上の撮影部を備え、3以上の異なる撮影位置において撮影を行うことにより取得した3以上の画像から立体画像を生成するものであってもよい。
画像処理部4は、撮影部2A,2Bが取得した画像L1,R1のデジタルの画像データに対して、撮影部2A,2Bの画角のずれ、ズーム倍率の相違、撮像素子の回転による画像のずれ、撮影部2A,2Bが輻輳角αを持って被写体を撮影することにより生じる台形歪み等を補正する補正処理、並びにホワイトバランスを調整する処理、階調補正、シャープネス補正、および色補正等の画質補正処理を施す。なお、画像処理部4における処理後の画像L1,R1についても処理前の参照符号L1,R1を用いるものとする。
立体画像生成部5は、画像L1,R1を表示部14に立体視表示させるために、画像L1,R1から立体画像を生成する。ここで、本実施形態における立体視表示の方式としては、公知の任意の方式を用いることができる。例えば、画像L1,R1を並べて表示して裸眼平衡法により立体視を行う方式を用いることができる。この場合、立体画像は画像L1,R1を並べた画像となる。また、表示部14にレンチキュラーレンズを貼り付け、表示部14の表示面の所定位置に画像L1,R1を短冊状に切り取って交互に配置して表示することにより、左右の目に画像L1,R1をそれぞれ入射させて立体視表示を実現するレンチキュラー方式を用いることができる。また、表示部14に左右の目への光路を変更するバリアを貼り付け、表示部14の表示面の所定位置に画像L1,R1を短冊状に切り取って交互に配置して表示することにより、左右の目に画像L1,R1をそれぞれ入射させて立体視表示を実現するパララックスバリア方式を用いることができる。レンチキュラー方式およびパララックスバリア方式の場合、立体画像は画像L1,R1を短冊状に切り取って交互に配置した画像となる。
また、画像L1,R1の色を例えば赤と青のように異ならせて重ね合わせたり、画像L1,R1の偏光方向を異ならせて重ね合わせることにより、画像L1,R1を合成して立体視表示を実現する方式(アナグリフ方式、偏光フィルタ方式)を用いることができる。この場合、立体画像は画像L1,R1を重ね合わせた画像となる。さらに、表示部14のバックライトの光路を光学的に左右の目に対応するように交互に分離し、表示部14の表示面に画像L1,R1をバックライトの左右への分離にあわせて交互に表示することにより、立体視表示を実現するスキャンバックライト方式を用いることができる。この場合、立体画像は画像L1,R1を交互に表示する動的に変化する画像となる。
なお、表示部14は立体視表示の方式に応じた加工がなされている。例えば、立体視表示の方式がレンチキュラー方式の場合には、表示部14の表示面にレンチキュラーレンズが取り付けられており、パララックスバリア方式の場合には、表示部14の表面にバリアが取り付けられている。また、スキャンバックライト方式の場合には、左右の画像の光線方向を変えるための光学素子が表示部14の表示面に取り付けられている。
被写体抽出部6は、画像L1,R1から所定被写体の領域を被写体領域として抽出する。なお、本実施形態においては、所定被写体として人物を用いるものとする。なお、被写体抽出部6は、テンプレートマッチングによる手法、あるいは顔の多数のサンプル画像を用いてマシンラーニング学習により得られた顔判別器を用いる手法等により、画像L1,R1から顔を検出し、さらに顔に隣接する背景と異なる領域を人物の体として検出する。そして、顔および体からなる領域を人物の被写体領域として抽出する。なお、画像L1,R1に複数の人物が含まれる場合、被写体抽出部6はすべての人物の被写体領域を抽出する。ここで、画像L1,R1に含まれる人物のうち、サイズがあまりに小さい人物については、撮影の対象としたものではなく、撮影者が意図しない人物である場合が多い。このため、被写体抽出部6は、あらかじめ定めた所定のしきい値以上の面積を有する人物のみを被写体領域として抽出するものとする。
奥行き情報取得部7は、被写体抽出部6が抽出した被写体について、立体画像生成部5が生成した立体画像の奥行き方向における距離を表す奥行き情報を生成する。具体的には、撮影部2A,2Bから撮影部2A,2Bの撮影範囲に含まれる、抽出した被写体までの距離を測定し、測定した距離を奥行き情報として生成する。以下、奥行き情報の生成について説明する。
奥行き情報取得部7は、まずステレオマッチングの手法を用いて撮影部2A,2Bが取得した画像L1,R1上において互いに対応する対応点を求める。例えば、画像L1,R1から部分的な行列(例えば3×3画素)を取り出して相関値を求めることにより対応点を求める。そして、求めた対応点、撮影部2A,2Bの基線長、輻輳角およびズーム倍率を用いて、三角測量の原理を用いて画像L1,R1に共通に含まれる被写体までの距離(被写体距離)を算出する。具体的には、画像L1,R1から抽出した被写体領域上のすべての画素について、画素毎に距離を算出する。
さらに、奥行き情報取得部7は、被写体領域内について算出した画素毎の距離の平均値を被写体までの距離を表す奥行き情報として算出する。例えば、図4に示すように3人の人物を含む画像L1,R1を取得した場合、被写体抽出部6は、図5に示すように画像L1,R1からそれぞれ3人の人物に対応する被写体領域A1〜A3を抽出する。したがって、奥行き情報取得部7は、被写体領域A1〜A3のそれぞれについて、距離の平均値を奥行き情報D1〜D3として算出する。
奥行き画像生成部8は、被写体領域A1〜A3の画像を奥行き情報D1〜D3、すなわち距離に応じて配置した奥行き画像を生成する。図6は奥行き画像を示す図である。図6に示すように奥行き画像40は、水平方向が立体画像の奥行きを表すものであり、被写体領域A1〜A3の2次元の画像(被写体画像とする)G1〜G3が、距離順に並んでいる。なお、図6においては、奥行き画像40の左端を基準位置として、右端に向かうほど距離が大きくなるものとする。
なお、奥行き画像40においては、図7に示すように、被写体画像G1〜G3を水平方向に圧縮しつつ、被写体画像G1〜G3における中心を通る垂直軸X0の左右の画像をそれぞれ上下に逆方向に移動させることにより、被写体画像G1〜G3を垂直軸X0に関して回転させるようにしてもよい。なお、垂直軸X0は、水平方向すなわち立体画像の奥行き方向と直交する軸である。また、被写体画像G1〜G3の回転は、回転表示制御部16が行う。これにより、図8に示す奥行き画像41のように、板状の被写体画像G1〜G3が水平方向に垂直な軸に対して回転して見えるようにすることができる。また、入力部13において被写体画像の回転の指示を受け付けるようにすることにより、被写体画像を回転するようにしてもよい。これにより、被写体画像G1〜G3の回転して見える度合を変更できるため、所望とする回転度合の被写体画像G1〜G3を奥行き画像40に含めることができる。なお、奥行き画像40に複数の被写体画像が含まれる場合には、すべての被写体画像について同時に回転してもよく、入力部13により被写体画像の指定を受け付け、指定された被写体画像のみ回転するようにしてもよい。
合成部9は、複数の立体画像を合成して合成画像を生成する。なお、合成部9が行う処理については後述する。
ファイル生成部10は、画像L1,R1の画像データに対して、例えばJPEG等の圧縮形式で圧縮処理を行い、立体画像の画像ファイルF0を生成する。この画像ファイルF0には、Exifフォーマット等に基づいて、撮影日時等の付帯情報が格納されたヘッダが付加される。図9は画像ファイルF0のファイルフォーマットを示す図である。図9に示すように画像ファイルF0には、画像L1の付帯情報H1、画像L1の画像データ(画像データについても参照符号L1を用いるものとする)、画像R1の付帯情報H2、および画像R1の画像データ(画像データについても参照符号R1を用いるものとする)が格納されてなる。また、図示はしないが、第1および第2の画像G1,G2についての付帯情報および画像データの前後には、データの開始位置および終了位置を表す情報が含まれる。
図10は付帯情報の詳細な内容を示す図である。図10に示すように付帯情報H1,H2には画像L1,R1の撮影日、基線長、輻輳角、含まれる被写体の位置座標および奥行き情報が含まれる。なお、位置座標および奥行き情報は、被写体毎に付帯情報に含まれる。図10においては2つの被写体A,Bの位置座標および奥行き情報が含まれている。ここで、被写体の位置座標としては、被写体領域の重心または顔領域の中心等の座標を用いることができる。
メディア制御部11は、メモリカード等のメディア12にアクセスして画像ファイルF0の書き込みと読み込みの制御を行う。
制御部15は、CPU15A、装置1が各種処理を行う際の作業領域となるRAM15B、並びに装置1の動作プログラムおよび各種定数等を記憶したROM15Cを備えてなり、装置1の各部の動作を制御する。
次いで、本実施形態において行われる処理について説明する。図11は本実施形態において奥行き画像の生成時に行われる処理を示すフローチャートである。ユーザが撮影部2A,2Bを用いて被写体を撮影して画像L1,R1が取得されることにより制御部15が処理を開始し、立体画像生成部5が画像L1,R1から立体画像を生成する(ステップST1)。そして、被写体抽出部6が、画像L1,R1から被写体領域を抽出し(ステップST2)、奥行き情報取得部7が被写体領域A1〜A3毎に奥行き情報D1〜D3を取得する(ステップST3)。さらに奥行き画像生成部8が奥行き画像を生成し(ステップST4)、制御部15が奥行き画像を表示部14に表示する(ステップST5)。なお、立体画像の生成の処理と、奥行き画像の表示の処理とを並列に行ってもよく、奥行き画像を生成してから立体画像を生成するようにしてもよい。また、立体画像を生成することなく、奥行き画像のみを生成してもよい。
続いて、制御部15は、入力部13から被写体画像の回転指示があったか否かを判定し(ステップST6)、ステップST6が肯定されると、回転表示制御部16が、奥行き画像に含まれる被写体画像を垂直軸に関して回転する(ステップST7)。なお、ステップST6が否定されるとステップST8に進む。そして、制御部15は入力部13から終了指示がなされたか否かを判定し(ステップST8)、ステップST8が否定されると、ステップST6に戻る。ステップST8が肯定されると処理を終了する。
このように、本実施形態においては、立体画像に含まれる被写体の立体画像の奥行き方向における距離を表す奥行き情報を取得し、被写体画像G1〜G3を距離に応じて配置して奥行き画像を生成するようにしたものである。このため、奥行き画像を表示部14に表示することにより、奥行き画像を見たユーザは、立体画像に含まれる被写体の奥行き方向の距離を容易に認識することができる。
また、奥行き画像の水平方向に奥行き方向を設定し、奥行き画像の左端からの被写体画像の位置までの距離と、被写体の奥行き方向における距離とを対応づけて奥行き画像を生成することにより、立体画像における被写体の奥行き方向における位置の確認をより容易に行うことができる。
また、奥行き画像において、被写体画像を垂直軸に関して回転することにより、奥行き画像を表示した際に、板状の被写体画像が水平方向に垂直な軸に対して回転して見えるようにすることができる。したがって、奥行き画像において、被写体画像に立体感を付与することができる。
次いで、本実施形態における立体画像の合成について説明する。図12は合成時に行われる処理を示すフローチャートである。なお、ここでは2つの立体画像から1つの合成画像を生成する場合の処理について説明する。入力部13から合成する2つの立体画像を表示する指示が行われることにより制御部15が処理を開始し、2つの立体画像を表示部14に表示する(ステップST21)。図13は合成に使用する2つの立体画像を示す図である。図13に示すように2つの立体画像51には二人の人物の被写体領域A11,A12が、立体画像52には一人の人物の被写体領域A13が含まれ、それぞれ図13の立体画像51,52の下方に示すように背景B0を基準として、図13に示すような立体感を有するものとなっている。
入力部13から2つの立体画像についての奥行き画像の生成の指示がなされると、制御部15が図11に示すフローチャートの処理を行って奥行き画像を生成し(ステップST22)、奥行き画像を表示部14に表示する(ステップST23)。図14は2つの立体画像51,52の奥行き画像を示す図である。
ここで、上述した2つの立体画像51,52を使用して、立体画像52に含まれる被写体領域A13を立体画像51に合成することを考える。この場合、被写体領域A13をどの程度立体感を持たせればよいか、すなわち、立体画像51の生成に使用する2つの画像に被写体領域A13をそれぞれ合成する際にどの程度の視差を持たせればよいかについて、立体画像51,52を見るのみでは分かりにくい。
このため、図14に示すように、立体画像51,52の奥行き画像53,54をそれぞれ生成して表示部14に表示することにより、立体画像51,52における被写体画像G11〜G13の奥行き方向の位置関係を容易に確認することができる。したがって、奥行き画像53,54により表される被写体画像G11〜G13の位置関係に基づいて、立体画像52に含まれる被写体領域A13の立体画像51における奥行き方向における合成位置を、図15に示すように容易に指定することができる。
制御部15は、奥行き画像53,54を用いての合成位置の指示がなされたか否かを判定し(ステップST24)、ステップST24が否定されるとステップST23に戻る。ステップST24が肯定されると、合成部9が立体画像51,52を合成して合成画像を生成し(ステップST25)、制御部15が表示部14に合成画像を表示し(ステップST26)、処理を終了する。
なお、合成部9は、指示された合成位置における立体感が得られるような視差を付与して、立体画像51を生成する2つの画像のそれぞれに被写体領域A13を合成することにより合成画像を生成する。これにより、図16に示すように、被写体の奥行き方向における距離関係を誤ることがなく、正しい奥行き感を持った合成画像56を生成することができる。
なお、上記実施形態においては、奥行き画像上の水平方向を立体画像の奥行き方向に設定しているが、これに限定されるものではなく、奥行き画像上の垂直方向あるいはあらかじめ定めた方向を奥行き方向に設定してもよい。
また、上記実施形態においては、奥行き画像における被写体画像を垂直軸に関して回転しているが、被写体画像を何ら回転することなく奥行き画像に含めてもよいことはもちろんである。
また、上記実施形態においては、図17に示すように、立体画像60と奥行き画像61とを同時に表示部14に表示するようにしてもよい。なお、図17においては立体画像60は立体感を表すことができないため、2次元画像で示している。これにより、立体画像60において立体感を確認しつつ、奥行き画像61により立体画像60に含まれる被写体の奥行き方向における位置を確認することができる。
また、上記実施形態においては、被写体抽出部6において人物を被写体領域として抽出しているが、人物の顔のみを被写体領域として抽出してもよい。また、人物以外の木、草、川、道路および建物等の構造物を被写体領域として抽出するようにしてもよい。
また、上記実施形態においては、奥行き情報取得部7において、ステレオマッチングの手法を用いて画像L1,R1の対応点を求めて、撮影装置1から被写体までの距離を算出して被写体領域の奥行き情報を生成しているが、他の方式により奥行き情報を生成してもよい。例えば、複眼撮影装置1に、被写体に向けて出射した近赤外線等の測距光が被写体により反射して戻ってくるまでの時間を計測することにより、複眼撮影装置1から被写体までの距離を測定する、TOF(Time Of Flight)方式のカメラを複眼撮影装置1に設け、TOF方式のカメラを用いて撮影を行うことにより、複眼撮影装置1から被写体までの距離を算出して被写体領域の奥行き情報を生成してもよい。また、撮影する画像の焦点位置を検出し、その焦点位置に基づいて被写体までの距離を算出して奥行き情報を取得するようにしてもよい。
また、立体画像およびあらかじめ作成した立体画像に含まれる被写体の距離を表す距離画像をメディア12に記録しておき、メディア12から距離画像を読み出すことにより、奥行き情報を取得するようにしてもよい。なお、距離画像とは、立体画像の各画素について算出した距離を、各画素の画素値とする画像である。
また、上記実施形態においては、本発明による画像表示装置を撮影部2A,2Bを備えた複眼撮影装置1に適用しているが、本発明による画像表示装置を単独で提供するようにしてもよい。この場合、同一の被写体を異なる複数の位置において撮影することにより取得した複数の画像が入力され、上記実施形態と同様に奥行き画像が生成され、表示される。
以上、本発明の実施形態に係る複眼撮影装置1について説明したが、コンピュータを、上記の立体画像生成部5、被写体抽出部6、奥行き情報取得部7、奥行き画像生成部8および合成部9に対応する手段として機能させ、図11,12に示すような処理を行わせるプログラムも、本発明の実施形態の1つである。また、そのようなプログラムを記録したコンピュータ読取り可能な記録媒体も、本発明の実施形態の1つである。
1 複眼撮影装置
2A,2B 撮影部
3 撮影制御部
4 画像処理部
5 立体画像生成部
6 被写体抽出部
7 奥行き情報取得部
8 奥行き画像生成部
9 合成部
10 ファイル生成部
11 メディア制御部
12 メディア
13 入力部
14 表示部
15 制御部
16 回転表示制御部

Claims (7)

  1. 異なる視点において取得した複数の画像から生成された立体視を行うための立体画像を取得する立体画像取得手段と、
    前記立体画像に含まれる少なくとも1つの被写体の、該立体画像の奥行き方向における距離を表す奥行き情報を取得する奥行き情報取得手段と、
    前記奥行き方向における基準位置からの前記被写体画像の位置までの距離と、前記被写体の前記奥行き方向における距離とを対応づけて前記被写体画像を配置して、奥行き画像を生成する奥行き画像生成手段と、
    前記奥行き画像に配置された前記被写体画像を、前記奥行き方向と直交する軸に関して回転可能に表示制御する回転表示制御手段と、
    該被写体画像が回転可能に表示制御された前記奥行き画像を表示する表示手段とを備えたことを特徴とする画像表示装置。
  2. 前記立体画像に含まれる所定被写体を抽出する被写体抽出手段をさらに備え、
    前記奥行き情報取得手段は、前記所定被写体の奥行き情報を取得する手段であり、
    前記奥行き画像生成手段は、前記所定被写体を表す2次元の被写体画像を含む前記奥行き画像を生成する手段であることを特徴とする請求項1記載の画像表示装置。
  3. 前記表示手段は、前記奥行き画像とともに前記立体画像を表示する手段であることを特徴とする請求項1または2記載の画像表示装置。
  4. 異なる視点において取得した複数の画像から生成された立体視を行うための立体画像を取得し、
    前記立体画像に含まれる少なくとも1つの被写体の、該立体画像の奥行き方向における距離を表す奥行き情報を取得し、
    前記奥行き方向における基準位置からの前記被写体画像の位置までの距離と、前記被写体の前記奥行き方向における距離とを対応づけて前記被写体画像を配置して、奥行き画像を生成し、
    前記奥行き画像に配置された前記被写体画像を、前記奥行き方向と直交する軸に関して回転可能に表示制御し、
    該被写体画像が回転可能に表示制御された前記奥行き画像を表示することを特徴とする画像表示方法。
  5. 前記立体画像に含まれる所定被写体を抽出し、
    前記所定被写体についての前記奥行き情報を取得し、
    前記所定被写体を表す2次元の被写体画像を含む前記奥行き画像を生成することを特徴とする請求項4記載の画像表示方法。
  6. 前記奥行き画像とともに前記立体画像を表示することを特徴とする請求項4または5記載の画像表示方法。
  7. 異なる視点において取得した複数の画像から生成された立体視を行うための立体画像を取得する手順と、
    前記立体画像に含まれる少なくとも1つの被写体の、該立体画像の奥行き方向における距離を表す奥行き情報を取得する手順と、
    前記奥行き方向における基準位置からの前記被写体画像の位置までの距離と、前記被写体の前記奥行き方向における距離とを対応づけて前記被写体画像を配置して、奥行き画像を生成する手順と、
    前記奥行き画像に配置された前記被写体画像を、前記奥行き方向と直交する軸に関して回転可能に表示制御する手順と、
    該被写体画像が回転可能に表示制御された前記奥行き画像を表示する手順とを有することを特徴とする画像表示方法をコンピュータに実行させるためのプログラム。
JP2009158379A 2009-07-03 2009-07-03 画像表示装置および方法並びにプログラム Expired - Fee Related JP5214547B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009158379A JP5214547B2 (ja) 2009-07-03 2009-07-03 画像表示装置および方法並びにプログラム
US12/830,055 US8648953B2 (en) 2009-07-03 2010-07-02 Image display apparatus and method, as well as program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009158379A JP5214547B2 (ja) 2009-07-03 2009-07-03 画像表示装置および方法並びにプログラム

Publications (2)

Publication Number Publication Date
JP2011013993A true JP2011013993A (ja) 2011-01-20
JP5214547B2 JP5214547B2 (ja) 2013-06-19

Family

ID=43412414

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009158379A Expired - Fee Related JP5214547B2 (ja) 2009-07-03 2009-07-03 画像表示装置および方法並びにプログラム

Country Status (2)

Country Link
US (1) US8648953B2 (ja)
JP (1) JP5214547B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012160039A (ja) * 2011-02-01 2012-08-23 Fujifilm Corp 画像処理装置、立体画像印刷システム、画像処理方法およびプログラム
JP2012182582A (ja) * 2011-02-28 2012-09-20 Olympus Imaging Corp 撮像装置
WO2013046833A1 (ja) * 2011-09-30 2013-04-04 富士フイルム株式会社 画像表示装置及びその視差調整表示方法並びに画像撮像装置
US9225959B2 (en) 2012-01-10 2015-12-29 Samsung Electronics Co., Ltd. Method and apparatus for recovering depth value of depth image

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101877764B (zh) * 2009-04-29 2012-05-30 鸿富锦精密工业(深圳)有限公司 拍摄系统及使用该拍摄系统进行辅助构图的方法
JP5594477B2 (ja) * 2011-01-26 2014-09-24 Nltテクノロジー株式会社 画像表示装置、画像表示方法、及びプログラム
CN105930710B (zh) * 2016-04-22 2019-11-12 北京旷视科技有限公司 活体检测方法和装置
CN111583365B (zh) * 2020-04-24 2023-09-19 完美世界(北京)软件科技发展有限公司 动画元素显示的处理方法及装置、存储介质、终端

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001012927A (ja) * 1999-06-29 2001-01-19 Fuji Photo Film Co Ltd 視差画像入力装置及び撮像装置
JP2002197486A (ja) * 2000-12-22 2002-07-12 Square Co Ltd ビデオゲーム装置およびその制御方法、ならびにビデオゲームのプログラムおよびそのプログラムを記録したコンピュータ読取り可能な記録媒体。
JP2003099807A (ja) * 2001-09-25 2003-04-04 Mitsubishi Electric Corp ポートレート生成装置およびポートレート生成方法
JP2006201950A (ja) * 2005-01-19 2006-08-03 Konica Minolta Photo Imaging Inc 画像処理システム及び画像処理方法
JP2006211383A (ja) * 2005-01-28 2006-08-10 Konica Minolta Photo Imaging Inc 立体画像処理装置、立体画像表示装置、及び立体画像生成方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6590573B1 (en) * 1983-05-09 2003-07-08 David Michael Geshwind Interactive computer system for creating three-dimensional image information and for converting two-dimensional image information for three-dimensional display systems
US5592599A (en) * 1991-12-18 1997-01-07 Ampex Corporation Video special effects system with graphical operator interface
JPH10145674A (ja) * 1996-11-12 1998-05-29 Sony Corp ビデオ信号処理装置及びビデオ信号処理方法
US6118843A (en) * 1998-10-10 2000-09-12 Nanotek Instruments, Inc. Quantitative stereoscopic radiography method
US7283901B2 (en) * 2005-01-13 2007-10-16 Trw Automotive U.S. Llc Controller system for a vehicle occupant protection device
US7586534B2 (en) * 2005-03-22 2009-09-08 Fujifilm Corporation Multi-eye image pickup device, adjusting method and device therefor, and image-area adjusting system and method
US20070285554A1 (en) * 2005-10-31 2007-12-13 Dor Givon Apparatus method and system for imaging
JP4861952B2 (ja) * 2007-09-28 2012-01-25 富士フイルム株式会社 画像処理装置及び撮像装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001012927A (ja) * 1999-06-29 2001-01-19 Fuji Photo Film Co Ltd 視差画像入力装置及び撮像装置
JP2002197486A (ja) * 2000-12-22 2002-07-12 Square Co Ltd ビデオゲーム装置およびその制御方法、ならびにビデオゲームのプログラムおよびそのプログラムを記録したコンピュータ読取り可能な記録媒体。
JP2003099807A (ja) * 2001-09-25 2003-04-04 Mitsubishi Electric Corp ポートレート生成装置およびポートレート生成方法
JP2006201950A (ja) * 2005-01-19 2006-08-03 Konica Minolta Photo Imaging Inc 画像処理システム及び画像処理方法
JP2006211383A (ja) * 2005-01-28 2006-08-10 Konica Minolta Photo Imaging Inc 立体画像処理装置、立体画像表示装置、及び立体画像生成方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012160039A (ja) * 2011-02-01 2012-08-23 Fujifilm Corp 画像処理装置、立体画像印刷システム、画像処理方法およびプログラム
JP2012182582A (ja) * 2011-02-28 2012-09-20 Olympus Imaging Corp 撮像装置
WO2013046833A1 (ja) * 2011-09-30 2013-04-04 富士フイルム株式会社 画像表示装置及びその視差調整表示方法並びに画像撮像装置
JP5586788B2 (ja) * 2011-09-30 2014-09-10 富士フイルム株式会社 画像表示装置及び画像撮像装置
JPWO2013046833A1 (ja) * 2011-09-30 2015-03-26 富士フイルム株式会社 画像表示装置及び画像撮像装置
US9325975B2 (en) 2011-09-30 2016-04-26 Fujifilm Corporation Image display apparatus, parallax adjustment display method thereof, and image capturing apparatus
US9225959B2 (en) 2012-01-10 2015-12-29 Samsung Electronics Co., Ltd. Method and apparatus for recovering depth value of depth image

Also Published As

Publication number Publication date
US20110001802A1 (en) 2011-01-06
JP5214547B2 (ja) 2013-06-19
US8648953B2 (en) 2014-02-11

Similar Documents

Publication Publication Date Title
JP4637942B2 (ja) 3次元表示装置および方法並びにプログラム
JP4657313B2 (ja) 立体画像表示装置および方法並びにプログラム
JP5214547B2 (ja) 画像表示装置および方法並びにプログラム
JP5127787B2 (ja) 複眼撮影装置及びその制御方法
EP2328354A1 (en) Three-dimensional imaging device, method, and program
US8130259B2 (en) Three-dimensional display device and method as well as program
JP2011064894A (ja) 立体画像表示装置
JP5295426B2 (ja) 複眼撮像装置、その視差調整方法及びプログラム
JP2010068182A (ja) 3次元撮影装置および方法並びにプログラム
JP5467993B2 (ja) 画像処理装置、複眼デジタルカメラ、及びプログラム
JP4895312B2 (ja) 3次元表示装置および方法並びにプログラム
JP2009129420A (ja) 画像処理装置および方法並びにプログラム
JP2010181826A (ja) 立体画像形成装置
JP2012257105A (ja) 立体画像取得装置
JP2009258005A (ja) 三次元測定装置及び三次元測定方法
JP5190882B2 (ja) 複眼撮影装置およびその制御方法並びにプログラム
JP2010288253A (ja) 画像処理装置および方法並びにプログラム
JP5191864B2 (ja) 3次元表示装置および方法並びにプログラム
JP4852169B2 (ja) 3次元表示装置および方法並びにプログラム
JP5049231B2 (ja) 3次元表示装置および方法並びにプログラム
JP5351878B2 (ja) 立体画像表示装置および方法並びにプログラム
JP2010102137A (ja) 3次元撮影装置および方法並びにプログラム
JP4847500B2 (ja) 3次元表示装置および方法並びにプログラム
JP4925070B2 (ja) 3次元撮影装置および方法並びにプログラム
JP2013070153A (ja) 撮像装置

Legal Events

Date Code Title Description
RD15 Notification of revocation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7435

Effective date: 20110421

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130227

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160308

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees