JP2011147067A - 画像処理装置及び方法、並びにプログラム - Google Patents

画像処理装置及び方法、並びにプログラム Download PDF

Info

Publication number
JP2011147067A
JP2011147067A JP2010008132A JP2010008132A JP2011147067A JP 2011147067 A JP2011147067 A JP 2011147067A JP 2010008132 A JP2010008132 A JP 2010008132A JP 2010008132 A JP2010008132 A JP 2010008132A JP 2011147067 A JP2011147067 A JP 2011147067A
Authority
JP
Japan
Prior art keywords
image
eye
parallax
data
eye image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010008132A
Other languages
English (en)
Inventor
Takahiro Tokuda
貴宏 徳田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010008132A priority Critical patent/JP2011147067A/ja
Priority to US12/956,227 priority patent/US8686993B2/en
Priority to EP20110150400 priority patent/EP2360933A3/en
Priority to CN2011100041934A priority patent/CN102131099A/zh
Publication of JP2011147067A publication Critical patent/JP2011147067A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

【課題】ユーザにとって直感的な操作で、3D表示されるオブジェクトの凹凸の度合いを調整できるようにする。
【解決手段】 画像表示処理部162は、3D画像のための左目用画像及び右目用画像の間の視差を、2D画像の奥行き方向に対する所定の操作が割り当てられた操作部の操作に応じて設定する。3D画像生成処理部163は、視差設定部により設定された前記視差の分だけ離間した位置に対応するオブジェクトをそれぞれ配置させた左目用画像及び右目用画像のデータを生成する。本発明は、デジタルカメラに適用することができる。
【選択図】図11

Description

本発明は、画像処理装置及び方法、並びにプログラムに関し、特に、ユーザにとって直感的な操作で、3D表示されるオブジェクトの凹凸の度合いを調整できるようにした、画像処理装置及び方法、並びにプログラムに関する。
従来、3D(Dimension)表示用に被写体を撮影し、その結果得られる左目用画像及び右目用画像(以下、これらをまとめて3D画像と適宜称する)を用いて、被写体像を3D表示する技術が知られている。なお、以下、画像に含まれる物体像を、前景に位置する場合、および背景に位置する場合を含めてオブジェクトと称する。
3D画像を表示する場合、3D表示されるオブジェクトの凹凸の度合いを調整することが提案されている(例えば、特許文献1参照)。
特開平4−35491号公報
ところで、3D表示されるオブジェクトの凹凸の度合いをユーザに調整させる場合、ユーザは従来の2D画像の表示に慣れているため、その操作に違和感を覚える場合がある。
そこで、3D表示されるオブジェクトの凹凸の度合いを、ユーザにとって直感的な操作で調整できるようにすることが望まれる。
本発明は、このような状況に鑑みてなされたものであり、ユーザにとって直感的な操作で、3D表示されるオブジェクトの凹凸の度合いを調整できるようにするものである。
本発明の一側面の画像処理装置は、3D画像のための左目用画像及び右目用画像の間の視差を、2D画像の奥行き方向に対する所定の操作が割り当てられた操作部の操作に応じて設定する視差設定手段と、前記視差設定手段により設定された前記視差の分だけ離間した位置に対応するオブジェクトをそれぞれ配置させた前記左目用画像及び前記右目用画像のデータを生成する3D画像生成手段とを備える。
前記操作部は、奥行き方向に対する所定の操作が割り当てられたハードウェアのボタン若しくはタッチパネルに表示されるソフトウェアのボタンとすることができる。
前記視差の可変範囲は、前記操作部の可動範囲に対応付けられており、前記視差設定手段は、前記操作部の前記可動範囲内の可動位置に対応付けられた大きさの前記視差を設定することができる。
被写体を撮影することによってパノラマ画像のデータを得る撮影手段をさらに備え、前記3D画像生成手段は、前記撮影手段により得られた前記パノラマ画像のデータを用いて、前記左目用画像及び前記右目用画像のデータを生成することができる。
1度の撮影指示により被写体に対して相対的に略水平方向に移動しながら一定の間隔毎に撮影することによって複数の画像のデータを得る撮影手段と、前記3D画像生成手段は、前記撮影手段により得られた前記複数の画像のデータを用いて、前記左目用画像及び前記右目用画像のデータを生成することができる。
前記視差設定手段は、前記左目用画像及び前記右目用画像の少なくとも一部の領域の上にそれぞれ合成される前景オブジェクトの間の視差を、前記左目用画像及び前記右目用画像の間の視差として設定し、前記3D画像生成手段は、前記前景オブジェクトが所定位置に配置された前景画像のデータと、左目用背景画像のデータとを合成することによって、前記左目用画像のデータを生成し、前記前景オブジェクトが前記所定位置から前記視差の分だけずれた位置に配置された前景画像のデータと、右目用背景画像のデータとを合成することによって、前記右目用画像のデータを生成することができる。
本発明の一側面の画像処理方法及びプログラムは、上述した本発明の一側面の画像処理装置に対応する方法及びプログラムである。
本発明の一側面の画像処理装置及び方法並びにプログラムにおいては、3D画像のための左目用画像及び右目用画像の間の視差が、2D画像の奥行き方向に対する所定の操作が割り当てられた操作部の操作に応じて設定され、設定された前記視差の分だけ離間した位置に対応するオブジェクトをそれぞれ配置させた前記左目用画像及び前記右目用画像のデータが生成される。
以上のごとく、本発明によれば、ユーザにとって直感的な操作で、3D表示されるオブジェクトの凹凸の度合いを調整できる。
3D画像の第1の生成手法について説明する図である。 3D画像の第2の生成手法について説明する図である。 3D画像の第3の生成手法について説明する図である。 パノラマ画像から3D画像を生成する手法について説明する図である。 パノラマ画像から3D画像を生成する手法について説明する図である。 パノラマ画像から3D画像を生成する手法について説明する図である。 パノラマ画像から3D画像を生成する手法について説明する図である。 3D表示の例について説明する図である。 3D表示の例について説明する図である。 本発明が適用される画像処理装置の一実施の形態としての撮像装置の外観構成例を示す図である。 撮像装置の内部構成例を示す図である。 記録処理部の機能的構成例を示すブロック図である。 画像表示処理部の機能的構成例を示すブロック図である。 3D画像生成処理部の機能的構成例を示すブロック図である。 画像記録処理の一例を説明するフローチャートである。 画像表示処理の一例を説明するフローチャートである。 3D画像生成処理の一例を説明するフローチャートである。 処理対象領域内の基準点について説明する図である。 視差と、処理対象領域から抽出される左目用領域及び右目用領域との関係を示す図である。 記録デバイスの記録内容の一例を示す図である。 画像記録処理の一例を説明するフローチャートである。 対応関係表のデータ構造の一例を示す図である。 3D画像生成処理の一例を説明するフローチャートである。 左目用画像及び右目用画像を抽出する処理の例を示す図である。 左目用画像及び右目用画像を抽出する処理の例を示す図である。 対応関係表のデータ構造の他の例を示す図である。 左目用画像及び右目用画像を抽出する処理の例を示す図である。 左目用画像及び右目用画像を抽出する処理の例を示す図である。 3D画像の生成手法を説明する図である。 3D画像の生成手法を説明する図である。 画像表示処理の一例を説明するフローチャートである。 スタンプ画像合成処理の一例を説明するフローチャートである。 操作部の表示例を示す図である。 3D表示の他の例について説明する図である。 3D表示の他の例について説明する図である。
[3D画像の生成手法の概略]
本発明の実施の形態は、3D画像を表示する。そこで、本発明の実施の形態の理解を容易なものとすべく、本発明の実施形態の説明の前に、左目用画像及び右目用画像から構成される3D画像の生成手法の概略について説明する。3D画像の生成手法は、主に次の3つの手法に大別される。以下、それぞれを、第1の生成手法、第2の生成手法、及び第3の生成手法と称する。
図1は、3D画像の第1の生成手法について説明する図である。
第1の生成手法は、2つのレンズが設けられた撮像装置を用いる手法である。すなわち、第1の生成手法では、ユーザ等は、このような撮像装置を、2つのレンズが略水平方向に配置されるように保持して、撮影を1度行う。すると、2つのレンズのうち、左側に位置するレンズを透過した光によって左目用画像のデータが生成され、右側に位置するレンズを透過した光によって右目用画像のデータが生成される。
このようにして生成された左目用画像及び右目用画像の各々には、対応するオブジェクトが、撮像装置の2つのレンズ間の距離に応じた分だけ離間した位置にそれぞれ含まれる。ここで、左目用画像及び右目用画像の各々に含まれる対応するオブジェクトの略水平方向の配置位置の差分(すなわち、距離)を、以下、視差と称する。このような、視差が大きくなるほど、3D表示されるオブジェクトの奥行きが深くなる、すなわち、凹凸の度合いが強くなる、という特徴がある。従って、かかる特徴を有する視差は、3D表示されるオブジェクトの凹凸の度合いを決定づけるパラメータとして使用することができる。
しかしながら、第1の生成手法では、2つのレンズ間の距離は固定であることから視差も固定であり、その結果、オブジェクトの凹凸の度合いを可変設定することができない。
図2は、3D画像の第2の生成手法について説明する図である。
第2の生成手法は、1度の撮影で1枚のパノラマ画像のデータを生成し、そのパノラマ画像のデータから、所定の視差の分だけ離間した位置に対応するオブジェクトをそれぞれ配置させた左目用画像及び右目用画像のデータを生成する手法である。ここで、パノラマ画像とは、通常の画角で被写体を撮影した結果得られる通常サイズの画像と比較して、広い画角で被写体を撮影した結果得られる水平方向のサイズが長い画像をいう。第2の生成手法では、視差は、ユーザにより可変設定することができる。すなわち、第2の生成手法は、ユーザが3D表示されるオブジェクトの凹凸の度合いを可変設定することができる手法である。なお、第2の生成手法の詳細については後述する。
図3は、3D画像の第3の生成手法について説明する図である。
第3の生成手法は、1度の撮影指示で撮像装置が被写体に対して相対的に略水平方向に移動しながら一定の間隔毎に撮像(以下、連写と称する)することによって得られた複数の画像のデータの中から2つの画像のデータを選択し、選択された2つの画像を左目用画像と右目用画像として採用する手法である。このようにして左目用画像及び右目用画像の各々として選択された2つの画像には、対応するオブジェクトが、撮像装置の移動距離に応じた分の視差だけ離間した位置にそれぞれ含まれる。従って、ユーザは、選択する2つの画像の組み合わせを変えることによって、視差を変えることができる。すなわち、第3の生成手法は、ユーザが3D表示されるオブジェクトの凹凸の度合いを可変設定することができる手法である。なお、第3の手法の詳細については後述する。
以下、第2の生成手法と第3の生成手法の各々による3D画像のオブジェクトの凹凸の度合いの調整の例を、それぞれ第1実施形態、第2実施形態として説明する。さらに、3D画像としてのスタンプ画像の凹凸の度合いの調整の例を第3実施形態として説明する。詳細については後述するが、スタンプ画像とは、背景画像の少なくとも一部の領域の上に合成されて表示される画像をいう。
以下、3つの実施形態について、次の順序で説明する。
1.第1実施形態(パノラマ画像から生成した3D画像のオブジェクトの凹凸の度合いの調整の例)
2.第2実施形態(連写撮影により得られる複数画像から生成した3D画像のオブジェクトの凹凸の度合いの調整の例)
3.第3実施形態(3D画像としてのスタンプ画像の凹凸の度合いの調整の例)
<第1実施形態>
[パノラマ画像から3D画像を生成する手法]
ここで、第1実施形態の理解を容易なものとすべく、第1実施形態の画像処理装置の構成等を説明する前に、第2の生成手法、すなわち、パノラマ画像から3D画像を生成する手法を詳細に説明し、次に、当該第2の手法に従って生成された3D画像の表示の例について説明する。
図4乃至図7は、パノラマ画像から3D画像を生成する手法について説明する図である。
図4に示されるように、まず、パノラマ画像11のデータが複数の処理単位Sk(k=1乃至Nのうちの何れかの整数値。ただし、Nは2以上の任意の整数値)に区分される。ここで、処理単位Skの大きさは、水平方向のサイズ(水平方向の画素数)によって表わされるとする。この場合、処理単位Skは、その大きさが一定になるように区分される。
このようにしてパノラマ画像11のデータから区分された複数の処理単位S1乃至SNのうち、はじめに、処理単位S1が処理対象領域21として設定され、処理対象領域21に対して次のような一連の処理が実行される。
すなわち、処理対象領域21の水平方向の所定位置が基準点Pに設定される。基準点Pに対して同一距離だけ離間している左右の領域が、それぞれ左目用領域31L1及び右目用領域31R1として抽出される。具体的には、左目用領域31L1と右目用領域31R1との間の距離が視差dとなるため、図5に示されるように、基準点Pから視差dの半分(=d/2)の距離だけ左側に離間した幅wの領域が左目用領域31L1として抽出される。同様に、基準点Pから視差dの半分(=d/2)の距離だけ右側に離間した幅wの領域が右目用領域31R1として抽出される。抽出された左目用領域31L1及び右目用領域31R1の各々は、左目用画像及び右目用画像の各々の一部分として設定される。
このようにして、処理単位S1が処理対象領域21として設定され、上述した一連の処理が実行されると、今度は、処理単位S2が処理対象領域21として設定され、上述した一連の処理が実行される。すなわち、今度は、処理単位S2である処理対象領域21から、左目用領域31L2と右目用領域31R2の各々が抽出される。抽出された左目用領域31L2は、これまでの左目用画像の一部分であった左目用領域31L1の右側に追加される。これにより、左目用領域31L1及び31L2が、新たな左目用画像の一部分として設定される。同様に、抽出された右目用領域31R2は、これまでの右目用画像の一部分であった右目用領域31R1の右側に追加される。これにより、右目用領域31R1及び31R2が、新たな左目用画像の一部分として設定される。
以下、処理単位S3乃至SNの各々が順次処理対象領域21として選択され、上述した一連の処理が繰り返し実行される。すなわち、図6に示されるように、処理単位Sk(kは3乃至Nのうちの何れかの整数値)が処理対象領域21として設定されると、処理単位Skである処理対象領域21から、左目用領域31Lkと右目用領域31Rkとの各々が抽出される。抽出された左目用領域31Lkは、これまでの左目用画像の一部分であった左目用領域31L1乃至31L(k−1)の右側に追加される。これにより、左目用領域31L1乃至31Lkが、新たな左目用画像の一部分として設定される。同様に、抽出された右目用領域31Rkは、これまでの右目用画像の一部分であった右目用領域31R1乃至31R(k−1)の右側に追加される。これにより、右目用領域31R1乃至31Rkが、新たな右目用画像の一部分として設定される。
最後の処理単位SNに対して上述の一連の処理が実行されると、図7に示されるように、左目用領域31L1乃至31LNが得られ、これらがすきまなく結合されて左目用画像41Lとして設定される。同様に、右目用領域31R1乃至31RNが得られ、これらがすきまなく結合されて右目用画像41Rとして設定される。
このようにして3D画像として完成した左目用画像41L及び右目用画像41Rを用いることにより、パノラマ画像11に含まれていたオブジェクトの3D表示が可能になる。
ここで、上述したように、左目用領域31L1と右目用領域31R1との間の距離である視差dが大きいほど、3D表示されるオブジェクトの凹凸の度合い(前方に突出するか、または後退する度合い)は強くなる。従って、ユーザは、上述した一連の処理が実行される前に視差dを調整することによって、3D表示されるオブジェクトの凹凸の度合いを調整することが可能になる。
なお、単に処理対象領域21内の基準点Pの領域の画像をつなぎ合わせていくと、もとのパノラマ画像11が生成される。
[3D表示の例]
図8と図9は、左目用画像41L及び右目用画像41Rを用いた3D表示の例について説明する図である。
図8に示されるように、撮像装置の液晶等の表示部は、左目用画像41Lを垂直偏光画像とし、右目用画像41Rを水平偏光画像として、両者を同時に偏光画像51として表示する。
この状態で、図9に示されるように、ユーザが、偏光メガネ61をかけて偏光画像51を見たとする。この場合、左目用画像41Lの垂直偏光のみが左レンズ71Lを透過するので、ユーザの左目には左目用画像41Lのみが映ることになる。一方、右目用画像41Rの水平偏光のみが右レンズ71Rを透過するので、ユーザの右目には右目用画像41Rのみが映ることになる。上述したように、左目用画像41L及び右目用画像41Rの各々においては、各種オブジェクト(図9の例では、山や湖等のオブジェクト)は、所定の視差分だけ離間して配置されている。従って、ユーザは、各種オブジェクトが3D表示されている、と視認することができる。
なお、その他の3D画像の表示の例については、図34と図35を参照して後述する。
[画像処理装置の外観構成例]
次に、このようなパノラマ画像から3D画像を生成する、第1実施形態の画像処理装置の構成について説明する。
図10は、本発明が適用される画像処理装置の一実施の形態としての撮像装置91の外観構成例を示す図である。
図10Aは、撮像装置91の正面を、図10Bは、その背面をそれぞれ示している。
図10Aに示されるように、例えばデジタルカメラで構成される撮像装置91の正面の向かって右側には、レンズ部111が設けられている。レンズ部111は、被写体からの光を集光するレンズやフォーカス(ピント)の調整をするためのフォーカスレンズ、絞り等の光学系その他から構成されている(いずれも図示せず)。レンズ部111は、撮像装置91の電源がオンにされたときに撮像装置91の筐体から突出し、撮像装置91の電源がオフにされたときに、撮像装置91の筐体内部に収納されるようになっている。図10Aでは、レンズ部111は、撮像装置91の筐体内部に収納された状態になっている。
撮像装置91の正面の、レンズ部111の右上には、AF(Auto Focus)補助光投光部112が設けられている。AF補助光投光部112は、レンズ部111の光学系の光軸方向に向かって、AF補助光としての光を照射することにより、被写体を照明する。これにより、例えば、暗い場所でも、被写体の画像を撮像して、その画像に基づいて、被写体にフォーカス(ピント)を合わせる、いわゆるオートフォーカス機能が働くようになっている。
撮像装置91の正面の中央上方には、ストロボ113が配置されている。
撮像装置91の上面の、正面側から見て右側には、電源をオン/オフするときに操作される電源ボタン114が設けられ、正面側から見て左側には、撮像されている画像を記録するときに操作されるシャッタボタン(レリーズボタン)115とが設けられている。
図10Bに示されるように、撮像装置91の背面の右上には、ズームボタン116が設けられている。本実施形態では、操作部としてのズームボタン116には、第1の機能乃至第3の機能が割り当てられている。
第1の機能とは、撮像装置91が被写体を撮像する場合に実現される機能であって、望遠(Tele)の指示(被写体の拡大指示)又は広角(Wide)の指示(被写体の縮小指示)を行う機能である。具体的には、ユーザは、撮像装置91を用いて被写体を撮像する場合、望遠(Tele)の指示を行うときには、ズームボタン116のうちの「T」と印字された部分(以下、Tボタンと称する)を押下する。一方、ユーザは、広角(Wide)の指示を行うときには、ズームボタン116のうちの「W」と印字された部分(以下、Wボタンと称する)を押下する。なお、ユーザは、Tボタン又はWボタンの押下状態を継続することによって、望遠(Tele)又は広角(Wide)の連続指示を行うことができる。
第2の機能とは、撮像装置91が2次元表示用画像を表示する場合に実現される機能であって、オブジェクトの拡大指示又は縮小指示を行う機能である。具体的には、ユーザは、2次元表示用画像に含まれるオブジェクトの拡大表示の指示を行うときには、Tボタンを押下する。一方、ユーザは、縮小表示の指示を行うときには、Wボタンを押下する。なお、ユーザは、Tボタン又はWボタンの押下状態を継続することによって、オブジェクトの拡大表示又は縮小表示の連続指示を行うことができる。
第3の機能とは、撮像装置91が3D画像を表示する場合に実現される機能であって、3D表示されるオブジェクトの凹凸の度合いの調整を行う機能である。具体的には、ユーザは、3D表示されるオブジェクトの凹凸の度合いを強くする指示を行うときには、Tボタンを押下する。一方、ユーザは、3D表示されるオブジェクトの凹凸の度合いを弱くする指示を行うときには、Wボタンを押下する。なお、ユーザは、Tボタン又はWボタンの押下状態を継続することによって、オブジェクトの凹凸の度合いの強弱の連続指示を行うことができる。なお、3D画像のオブジェクトの凹凸の度合いの調整については後述する。
このような第1乃至第3の機能が割り当てられたズームボタン116の下方には、モードダイヤル117が設けられている。モードダイヤル117は、撮像装置91の各種モードを選択するとき等に操作される。撮像装置91の動作モードとしては、例えば、被写体を撮影する撮影モードや、被写体が撮影された結果得られる撮影画像を表示させる画像表示モードが存在する。また、撮影モード時の各種操作に関連するモードとして、ストロボ113の発光を強制的にオン又はオフにするモードや、セルフタイマを使用するモード、後述する液晶パネル120にメニュー画面を表示するモード等が存在する。例示は省略するが、画像表示モード時の各種操作に関連するモードが存在する。
このようなモードダイヤル117の下方には、操作ボタン118が設けられている。操作ボタン118は、予め割り当てられた指示操作をユーザが行う場合に用いられる。本実施形態では、液晶パネル120に表示されたメニュー画面に対する各種指示操作が、操作ボタン118に割り当てられている。
例えば、ユーザは、操作ボタン118を操作することで、メニュー画面におけるカーソルを移動させ、カーソルの配置位置に存在する項目を選択することができる。このような項目として、例えば撮影モード時の複数の撮影方式を示す項目がメニュー画面に表示される。そこで、ユーザは、操作ボタン118を操作して、所望の撮影方式の項目にカーソルを配置させて、その項目を選択することで、その項目が示す所望の撮影方式を選択することができる。なお、このような複数の撮影方式としては、パノラマ撮影方式、連写撮影方式、通常撮影方式等が存在する。なお、パノラマ撮影方式とは、撮影画像としてパノラマ画像を得るように撮影する方式をいう。連写撮影方式とは、連写により撮影する方式をいう。また、通常撮影方式とは、撮影画像として通常のサイズの1枚の画像を得るように撮影する方式をいう。
また例えば、メニュー画面に表示される項目として、画像表示モード時の複数の表示方式を示す項目がメニュー画面に表示される。ユーザは、操作ボタン118の操作により、液晶パネル120に表示されたメニュー画面から、3D表示、2次元での画像の表示(以下、2D表示と称する)等の画像表示モード時の表示方式を選択することができる。
タッチスクリーン119は、液晶パネル120とその上に配置されたタッチパネル121とが一体的になったもので、液晶パネル120によって各種の画像を表示するとともに、タッチパネル121によって、ユーザの操作を受け付けることができる。ユーザは、ズームボタン116のみならず、タッチスクリーン119を操作することによっても、3D画像のオブジェクトの凹凸の度合いの調整することができる。なお、タッチスクリーン119による3D画像のオブジェクトの凹凸の度合いの調整については後述する。
[撮像装置の内部構成例]
図11は、図10の撮像装置91の内部構成例を示す図である。
なお、図11では、図10のAF補助光投光部112、及びストロボ113の図示は、省略してある。
CCD(Charge Coupled Device)131は、タイミングジェネレータ(TG)141から供給されるタイミング信号に従って動作することにより、レンズ部111を介して入射する被写体からの光を受光して光電変換を行い、受光量に応じた電気信号としてのアナログの画像信号を、アナログ信号処理部132に供給する。
アナログ信号処理部132は、CPU(Central Processing Unit)136の制御にしたがい、CCD131からのアナログの画像信号を増幅等するアナログ信号処理を行い、そのアナログ信号処理の結果得られる画像信号を、A/D(Analog/Digital)変換部133に供給する。
A/D変換部133は、CPU136の制御にしたがい、アナログ信号処理部132からのアナログ信号の画像信号をA/D変換し、その結果得られるディジタル信号の画像のデータを、ディジタル信号処理部134に供給する。
ディジタル信号処理部134は、CPU136の制御にしたがい、A/D変換部133からの画像のデータに対し、ノイズ除去処理等のディジタル信号処理を施し、処理後の画像のデータを液晶パネル120に供給する。これにより、液晶パネル120には、供給された画像のデータに対応する画像、すなわち、撮影中の撮影画像(以下、スルー画と称する)が表示される。また、ディジタル信号処理部134は、A/D変換部133からの画像のデータを、例えば、JPEG(Joint Photographic Experts Group)方式等で圧縮符号化し、その結果得られる圧縮符号化データを、記録デバイス135に供給して記録させる。さらに、ディジタル信号処理部134は、記録デバイス135に記録された圧縮符号化データを伸張復号し、その結果得られる画像のデータを液晶パネル120に供給する。これにより、液晶パネル120には、供給された画像のデータに対応する画像、すなわち、記録された撮影画像が表示される。
記録デバイス135は、例えば、DVD(Digital Versatile Disc)等のディスクや、メモリカード等の半導体メモリその他のリムーバブルなリムーバブル記録媒体であり、撮像装置91に対して、容易に着脱可能になっている。記録デバイス135には、撮影画像のデータが記録される。すなわち、第1実施形態においては、通常撮影方式で撮影された結果得られる通常サイズの撮影画像、及びパノラマ撮影方式で撮影された結果得られるパノラマサイズの撮影画像(以下、パノラマ画像と適宜称する)の各々のデータが記録される。また、記録デバイス135には、撮影画像のサムネイル画像のデータが記録される。
CPU136は、プログラムROM(Read Only Memory)139に記録されているプログラムを実行することにより、撮像装置91を構成する各部を制御し、また、タッチパネル121からの信号や、操作部137からの信号に応じて、各種の処理を行う。
本実施形態では、CPU136は、所定のプログラムを実行することにより、記録処理部161、画像表示処理部162、及び3D画像生成処理部163の各機能を発揮させることができる。なお、記録処理部161、画像表示処理部162、及び3D画像生成処理部163の各機能については、図12乃至図14を参照して後述する。
操作部137は、ユーザによって操作され、その操作に対応した信号を、CPU136に供給する。なお、操作部137には、図10に示した、電源ボタン114、シャッタボタン115、ズームボタン116、モードダイヤル117、操作ボタン118等が含まれる。
EEPROM(Electrically Erasable Programmable ROM)138は、CPU136の制御にしたがい、撮像装置91に設定された各種の情報その他の、撮像装置91の電源がオフにされたときも保持しておく必要があるデータ等を記憶する。
プログラムROM139は、CPU136が実行するプログラム、さらには、CPU136がプログラムを実行する上で必要なデータを記憶している。RAM(Read Only Memory)140は、CPU136が各種の処理を行う上で必要なプログラムやデータを一時記憶する。
タイミングジェネレータ141は、CPU136の制御にしたがい、タイミング信号を、CCD131に供給する。タイミングジェネレータ141からCCD131に供給されるタイミング信号によって、CCD131における露出時間(シャッタスピード)等が制御される。
モータドライバ142は、CPU136の制御にしたがい、モータにより構成されるアクチュエータ143を駆動する。アクチュエータ143が駆動されることにより、レンズ部111は、撮像装置91の筐体から突出し、あるいは、撮像装置91の筐体内部に収納される。また、アクチュエータ143が駆動されることにより、レンズ部111を構成する絞りの調整や、レンズ部111を構成するフォーカスレンズの移動が行われる。
以上のように構成される撮像装置91においては、CCD131が、レンズ部111を介して入射する被写体からの光を受光して光電変換を行い、その結果得られるアナログの画像信号を出力する。CCD131が出力するアナログの画像信号は、アナログ信号処理部132及びA/D変換部133を介することにより、ディジタル信号の画像のデータとされ、ディジタル信号処理部134に供給される。
ディジタル信号処理部34は、A/D変換部133からの画像のデータを、液晶パネル120に供給し、これにより、液晶パネル120では、いわゆるスルー画が表示される。
その後、ユーザが、シャッタボタン115(図10)を操作すると、その操作に応じた信号が、操作部137からCPU136に供給される。CPU136は、操作部137から、シャッタボタン115の操作に応じた信号が供給されると、ディジタル信号処理部134を制御し、そのときA/D変換部133からディジタル信号処理部134に供給された画像のデータを圧縮させ、その結果得られる圧縮画像のデータを、記録デバイス135に記録させる。
以上のようにして、いわゆる写真撮影が行われる。
なお、CPU136に実行させるプログラムは、あらかじめプログラムROM139にインストール(記憶)させておく他、記録デバイス135に記録しておき、パッケージメディアとしてユーザに提供して、その記録デバイス135から、ディジタル信号処理部134及びCPU136を介して、EEPROM138にインストールすることができる。また、CPU136に実行させるプログラムは、ダウンロードサイトから、図11の撮像装置91に直接ダウンロードし、あるいは、図示せぬコンピュータでダウンロードして、図11の撮像装置91に供給し、EEPROM138にインストールすることも可能である。
[記録処理部161の構成例]
図12は、図11のCPU136が有する記録処理部161の機能的構成例を示すブロック図である。
図12の記録処理部161は、判定部181、撮影制御部182、記録指示部183、及び生成部184から構成される。
判定部181は、撮像装置91の複数の撮影方式の中で何れの撮影方式がユーザにより選択されたのかを判定する。本実施形態では、通常のサイズの画像を撮影する通常撮影方式と、パノラマ画像を撮影するパノラマ撮影方式とが採用されている。これらの撮影方式の選択操作は、メニュー画面を用いて行われる。すなわち、ユーザは、液晶パネル120に表示されたメニュー画面を見ながら、操作ボタン118の所定の押下操作をすることで、通常撮影方式又はパノラマ撮影方式を選択する。判定部181は、ユーザによる操作ボタン118の押下操作の内容を解析することにより、通常撮影方式とパノラマ撮影方式とのうち何れが選択されたのかを判定する。
撮影制御部182は、レンズ部111、CCD131、アナログ信号処理部132、及びA/D変換部133(以下、撮影部と称する)を制御する。すなわち、撮影部は、撮影制御部182の制御の下、判定部181により判定された撮影方式に従って、被写体を撮影する。これにより、当該撮影方式により規定されている画像のデータが得られる。すなわち、通常撮影方式であれば通常のサイズの画像のデータが得られ、パノラマ撮影方式であればパノラマ画像のデータが得られる。
記録指示部183は、ディジタル信号処理部134に対して、撮影制御部182が被写体を撮影した結果得られる画像(以下、撮影画像と称する)の記録を指示する。この指示に対応してディジタル信号処理部134は、撮影画像のデータを、記録デバイス135に記録させる。
生成部184は、撮影画像のサムネイル画像のデータを生成し、記録デバイス135に記録する。なお、サムネイル画像とは、一覧表示される対象の画像であって、撮影画像が縮小された画像をいう。
[画像表示処理部162の構成例]
図13は、図11のCPU136が有する画像表示処理部162の機能的構成例を示すブロック図である。
図13の画像表示処理部162は、表示制御部201、操作認識部202、及び視差設定部203から構成される。
表示制御部201は、各種画像を液晶パネル120に表示させる制御をする。表示制御部201の制御対象となる各種画像、すなわち、液晶パネル120の表示対象の各種画像としては、3D画像の他、操作時にユーザを支援する画像(以下、操作用画像と称する)、すなわち、メニュー画面や、奥行き情報を含む画像等が存在する。なお、奥行き情報とは、3D画像のオブジェクトの凹凸の度合いを示す情報、すなわち、視差を特定する情報をいう。奥行き情報の用途等については後述する。
操作認識部202は、表示制御部201の制御に基づいて液晶パネル120に操作用画像が表示されている状態で、ユーザによりズームボタン116や操作ボタン118が操作された場合、その操作内容を認識する。例えば、表示制御部201の制御に基づいて液晶パネル120に奥行き情報を含む画像が表示されている状態で、ズームボタン116が押下された場合、操作認識部202は、奥行き情報の調整指示操作がなされたと認識する。また、例えば、表示制御部201の制御に基づいて液晶パネル120に表示されたメニュー画面から、3D表示、2D表示等が選択されて操作ボタン118が押下された場合、操作認識部202は、画像表示モード時の表示方式の指示がなされたと認識する。また、例えば、表示制御部201の制御に基づいて液晶パネル120に表示されたメニュー画面から、画像表示モードの終了が選択されて操作ボタン118が押下された場合、操作認識部202は、処理終了の指示がなされたと認識する。
視差設定部203は、操作認識部202により認識された奥行き情報の調整指示操作に基づいて、視差dを設定する。すなわち、本実施形態では、奥行き情報の値と視差dとは、奥行き情報の値が大きくなると視差dも大きくなるように対応付けられている。従って、奥行き情報を含む画像が表示されている状態で、ユーザがズームボタン116を押下して奥行き情報の調整指示操作をすると、視差設定部203は、ズームボタン116の押下操作に応じて特定される奥行き情報の値に対応させて、視差dを設定する。そして、上述したように、視差dに応じて、3D表示されるオブジェクトの凹凸の度合いが決定される。従って、視差設定部203により視差dが調整されることは、3D表示されるオブジェクトの凹凸の度合いが調整されることを意味する。
[3D画像生成処理部163の構成例]
図14は、図11のCPU136が有する3D画像生成処理部163の機能的構成例を示すブロック図である。
3D画像生成処理部163は、データ取得部221、設定部222、抽出部223、及び生成部224から構成される。
データ取得部221は、3D画像の生成の元となる画像のデータ、本実施形態では、記録デバイス135に記録されたパノラマ画像のデータを取得する。
設定部222は、データ取得部221により取得されたパノラマ画像のデータを水平方向に複数の処理単位Skに区分し、複数の処理単位Skのうちの1つを処理対象領域21に設定する。また、設定部222は、処理対象領域21の水平方向の所定位置に基準点Pを設定する。
抽出部223は、設定部222により設定された処理対象領域21のデータを抽出する。そして、抽出部223は、抽出した処理対象領域21のデータのうち、設定部222により設定された基準点Pに対して同一距離だけ離間している左右の領域の各データを、左目用領域31Lk及び右目用領域31Rkの各データとして抽出する。
3D画像生成手段としての生成部224は、複数の処理単位Sk毎の抽出部223により抽出された左目用領域31Lkの各々を積算していくことで、左目用画像のデータを生成する。同様に、生成部224は、複数の処理単位Sk毎の抽出部223により抽出された右目用領域31Rkの各々を積算していくことで、右目用画像のデータを生成する。
[画像記録処理]
次に、記録処理部161が実行する処理(以下、画像記録処理と称する)について図15を参照して説明する。
図15は、記録処理部161による画像記録処理の一例を説明するフローチャートである。
ユーザが、モードダイヤル117を操作して撮影モードを選択すると、画像記録処理が開始される。
ステップS1において、判定部181は、パノラマ撮影方式が指示されたか否かを判定する。
本実施形態では、ユーザが、液晶パネル120に表示されたメニュー画面をみながら、操作ボタン118を押下操作して、パノラマ撮影方式を選択した場合には、ステップS1においてYESであると判定されて、処理はステップS2に進む。
ステップS2において、撮影制御部182は、上述した撮影部を制御することにより、パノラマ撮影方式で被写体を撮影する。これにより、撮影画像のデータとして、パノラマ画像のデータが得られ、処理はステップS3に進む。
ステップS3において、記録指示部183は、ディジタル信号処理部134を制御して、ステップS2の処理の結果得られたパノラマ画像のデータを、記録デバイス135に記録する。
ステップS4において、生成部184は、撮影画像(いまの場合、パノラマ画像)のサムネイル画像のデータを生成し、記録デバイス135に記録する。これにより、画像記録処理は終了する。
このようにして、ユーザがパノラマ撮影方式を選択した場合には、パノラマ画像及びそのサムネイル画像の各データが記録デバイス135に記録される。これに対して、ユーザが通常撮影方式を選択した場合には、ステップS1において、パノラマ撮影方式が指示されていないと判定されて、処理はステップS5に進む。
ステップS5において、撮影制御部182は、上述した撮影部を制御することにより、通常撮影方式で被写体を撮影する。これにより、撮影画像のデータとして、通常サイズの画像のデータが得られ、処理はステップS6に進む。
ステップS6において、記録指示部183は、ディジタル信号処理部134を制御して、ステップS5の処理の結果得られた通常サイズの画像のデータを、記録デバイス135に記録する。通常サイズの画像のデータが、記録デバイス135に記録されると、処理はステップS4に進む。
ステップS4において、生成部184は、撮影画像(いまの場合、通常サイズの画像)のサムネイル画像のデータを生成し、記録デバイス135に記録する。これにより、画像記録処理は終了する。
[画像表示処理]
次に、画像表示処理部162が実行する処理(以下、画像表示処理と称する)について図16を参照して説明する。
図16は、画像表示処理部162による画像表示処理の一例を説明するフローチャートである。
ユーザが、モードダイヤル117を操作して画像表示モードを選択すると、画像表示処理が開始される。
ステップS31において、表示制御部201は、サムネイル画像を液晶パネル120に表示する。すなわち、表示制御部201は、図15の画像記録処理によって記録デバイス135に記録されたサムネイル画像のデータを読み出して、そのサムネイル画像を液晶パネル120に表示させる。
ステップS32において、操作認識部202は、ステップS31の処理で表示されたサムネイル画像が選択されたか否かを判定する。
サムネイル画像が1枚も選択されない場合、ステップS32においてNOであると判定されて、処理はステップS32に戻され、それ以降の処理が繰り返される。すなわち、サムネイル画像が選択されるまでの間、ステップS32の判定処理が繰り返される。
その後、ユーザが、液晶パネル120に表示されたメニュー画面を見ながら、操作ボタン118を押下操作してサムネイル画像の中から所定の1枚を選択した場合には、ステップS32においてYESであると判定されて、処理はステップS33に進む。
ステップS33において、表示制御部201は、ステップS32の処理で選択された画像を液晶パネル120に表示する。すなわち、サムネイル画像に対応する元の画像が表示される。
ステップS34において、操作認識部202は、3D表示の指示がされたか否かを判定する。
3D表示の指示がされなかった場合、ステップS34においてNOであると判定されて、処理はステップS45に進む。
ステップS45において、表示制御部201は、ステップS32の処理で選択されたサムネイル画像に対応する撮影画像を液晶パネルに2D表示させる。これにより画像表示処理は終了する。
これに対して、ユーザが、液晶パネル120に表示されたメニュー画面をみながら、操作ボタン118を押下操作して、3D表示での表示方式を選択した場合、3D表示の指示がされたとして、ステップS34においてYESと判定されて、処理はステップS35に進む。
ステップS35において、操作認識部202は、ステップS32の処理で選択された画像は通常サイズの画像であるか否かを判定する。つまり、ステップS33の処理で表示されている画像が通常サイズの画像であるのかが判定される。
ステップS32の処理で選択されたサムネイル画像に対応する撮影画像が通常撮影方式で撮影された画像であった場合には、ステップS35においてYESであると判定されて、処理はステップS46に進む。
ステップS46において、表示制御部201は、3D表示不可のメッセージを液晶パネル120に表示させる。すなわち、本実施形態では、3D画像はパノラマ画像から生成されるので、撮影画像が通常サイズの画像であった場合には、その撮影画像を3D表示させることができない。従って、3D表示不可のメッセージが液晶パネル120に表示されて、画像表示処理は終了する。
これに対して、ステップS32の処理で選択されたサムネイル画像に対応する撮影画像がパノラマ画像であった場合、3D表示することができることから、ステップS35においてNOであると判定されて、処理はステップS36に進む。
ステップS36において、表示制御部201は、奥行き指定を促すメッセージを液晶パネル120に表示させる。
ステップS37において、表示制御部201は奥行き情報を含む画像を液晶パネル120に表示させる。奥行き情報の表示形態は、特に限定されないが、本実施形態では0乃至100パーセントの値が表示される形態であるとする。ここで、奥行き情報の値が0パーセントとは、オブジェクトの凸凹がなく、2D表示と同様の表示がされることを意味する。これに対して、奥行き情報の値が100パーセントとは、オブジェクトの凸凹の度合いが最大限に強く表示されることを意味する。なお、推奨される奥行き情報の値がデフォルトの値として設定されており、ステップS36の処理により奥行き指定を促すメッセージが表示された後のステップS37の処理では、奥行き情報のデフォルトの値が液晶パネル120に表示される。
ステップS38において、操作認識部202は、ズームボタン116が押下されたか否かを判定する。
ズームボタン116が押下されない場合、ステップS38においてNOであると判定されて、処理はステップS37に戻され、それ以降の処理が繰り返される。すなわち、ズームボタン116が押下されない限り、ステップS37,S38のNOのループ処理が繰り返されて、奥行き情報の値が更新されずに維持されたままの画像が、液晶パネル120に表示され続ける。
その後、ズームボタン116が押下されると、ステップS38においてYESであると判定されて、処理はステップS39に進む。
ステップS39において、視差設定部203は、ズームボタン116の押下に応じて、奥行き情報の値を変更する。具体的には例えば、ズームボタン116のTボタンが押下されると、視差設定部203は、表示されている奥行き情報の値を大きくするように変更する。これにより、後述するステップS43の処理で表示される3D画像のオブジェクトの凸凹の度合いが大きくなる。一方、ズームボタン116のWボタンが押下されると、視差設定部203は、表示されている奥行き情報の値を小さくなるように変更する。これにより、後述するステップS43の処理で表示される3D画像のオブジェクトの凸凹の度合いが小さくなる。
なお、ズームボタン116の可動範囲の下限位置、すなわち、Wボタンの押下を続けた場合に可動が禁止される制限位置に、奥行き情報の0の値が対応付けられている。逆に、ズームボタン116の可動範囲の上限位置、すなわち、Tボタンの押下を続けた場合に可動が禁止される制限位置に、奥行き情報の100の値が対応付けられている。そして、ズームボタン116の可動範囲が100等分された各々の位置に、奥行き情報の0乃至100の各値が対応付けられている。このようにして、奥行き情報の値は、ズームボタン116の可動範囲内でマッピングされている。
ステップS40において、操作認識部202は、ズームボタン116の押下が解除されたか否かを判定する。
ズームボタン116の押下が解除されていない場合(すなわち、ズームボタン116が押下され続けている場合)、ステップS40においてNOであると判定されて、処理はステップS37に戻され、それ以降の処理が繰り返される。すなわち、ズームボタン116の押下が継続されている限り、ステップS37、S38のYES、S39、及びS40のNOのループ処理が繰り返されて、奥行き情報の値が逐次更新され、奥行き情報の値が逐次更新されていく様子が液晶パネル120に表示される。
その後、ズームボタン116の押下が解除された場合、ステップS40においてYESであると判定されて、処理はステップS41に進む。
ステップS41において、視差設定部203は、ズームボタン116の押下が解除された時点の奥行き情報に基づいて視差dを設定する。上述したように、視差dが大きくなるほど、表示される3D画像のオブジェクトの凹凸の度合いも強くなる。本実施形態では、奥行き情報の各値と視差dの各値が対応付けられており、奥行き情報の値が大きくなる程、大きな値の視差dが設定される。
ステップS42において、3D画像生成処理部163は、ステップS41の処理で設定された視差dに基づいて、3D画像、すなわち左目用画像及び右目用画像を生成する。なお、以下、このような3D画像生成処理部163により3D画像が生成される一連の処理を、3D画像生成処理と称する。3D画像生成処理の詳細については、図17を参照して後述する。
ステップS42の3D画像生成処理が実行され、3D画像、すなわち左目用画像及び右目用画像が生成されると、処理はステップS43に進む。
ステップS43において、表示制御部201は、ステップS42の3D画像生成処理により生成された3D画像を液晶パネル120に表示させる。すなわち、表示制御部201は、図8を参照して上述したように、左目用画像及び右目用画像をそれぞれ例えば垂直偏光画像と水平偏光画像とし、両者を同時に液晶パネル120に表示させる。この状態で、ユーザは、偏光メガネをかけて偏光画像を見ることにより、3D表示されたオブジェクトを視認すること、すなわち、視差dに応じた度合いで各種オブジェクトが凹凸している様子を視認することができる。
ステップS44において、操作認識部202は、奥行き情報の更新指示がされたか否かを判定する。
本実施形態では、ユーザは、3D表示されたオブジェクトを見て凹凸の度合いを変化させたいと所望した場合、すなわち、奥行き情報の更新指示をする場合、その操作として、改めてズームボタン116を押下する。従って、本実施形態では、3D画像が液晶パネル120に表示された状態でズームボタン116が押下操作された場合、ステップS44においてYESであると判定されて、処理はステップS37に戻され、それ以降の処理が繰り返される。すなわち、奥行き情報の更新指示がされる度に、ステップS37乃至S44のループ処理が繰り返されて、奥行き情報の更新値に基づいて視差dが再設定され、表示される3D画像のオブジェクトの凹凸の度合いが変化する。
奥行き情報の更新指示がされない場合、ステップS44においてNOであると判定されて、処理はステップS45に進む。
ステップS45において、操作認識部202は、処理終了の指示がされたか否かを判定する。
処理終了の指示がされない場合、ステップS45においてNOと判定されて、処理はステップS43に戻され、それ以降の処理が繰り返される。すなわち、処理終了の指示がされない限り、ステップS43乃至S45のループ処理が繰り返されて、ステップS42の3D画像生成処理により生成された3D画像が液晶パネル120に表示される。
その後、処理終了の指示がされた場合、ステップS45においてYESであると判定されて、画像表示処理は終了する。
このように、画像表示処理が実行されると、ズームボタン116の押下操作に応じて、視差dが設定され、設定された視差dに応じた凹凸の度合いでオブジェクトが3D表示される。具体的には例えば、ズームボタン116のTボタンが押下されると、奥行き情報の値が大きくなり、それに応じて、視差dも大きな値に設定される。その結果、3D表示されるオブジェクトの凸凹の度合い(突出する距離)が大きくなる。これに対して、ズームボタン116のWボタンが押下されると、奥行き情報の値が小さくなり、それに応じて、視差dも小さな値が設定される。その結果、3D表示されるオブジェクトの凸凹の度合い(突出する距離)が小さくなる。すなわち、ユーザは、ズームボタン116といった、2D画像の奥行き方向を操作する操作部を用いた直感的な操作をするだけで、3D表示されるオブジェクトの凹凸の度合いを調整することが可能となる。
[3D画像生成処理部163の3D画像生成処理]
次に、図17に示されるフローチャートを参照して、図16に示される画像表示処理のステップS42の3D画像生成処理について説明する。
図17は、3D画像生成処理部163による3D画像生成処理の一例を説明するフローチャートである。
ステップS61において、データ取得部221は、画像のデータを取得する。すなわち、図16に示される画像表示処理のステップS32において選択されたパノラマ画像のデータが記録デバイス135から取得される。
ステップS62において、設定部222は、画像のうち1つの処理単位を、処理対象領域に設定する。すなわち、図4に示されるように、設定部222は、取得したパノラマ画像のデータを複数の処理単位S1乃至SNに区分し、そのうちの1つの処理単位Skを、処理対象領域21に設定する。
ステップS63において、抽出部223は、処理対象領域の画像のデータを抽出する。
ステップS64において、設定部222は、処理対象領域内の基準点を設定する。すなわち、図4に示されるように、設定部222は、設定した処理対象領域21内の水平方向の所定位置である基準点Pを決定する。
ステップS65において、抽出部223は、基準点から左に視差の1/2だけ離れた領域を左目用領域として抽出する。すなわち、図5に示されるように、設定部222は、基準点Pから視差dの半分(=d/2)の距離だけ左側に離間した所定の幅wの領域を左目用領域31L1として抽出する。
ステップS66において、抽出部223は、基準点から右に視差の1/2だけ離れた領域を右目用領域として抽出する。すなわち、図5に示されるように、設定部222は、基準点Pから視差dの半分(=d/2)の距離だけ右側に離間した所定の幅wの領域を右目用領域31R1として抽出する。ステップS65とS66の処理における視差dは、図16に示される画像表示処理のステップS40の処理においてユーザがズームボタン116の押下を解除した時点の奥行き情報に基づいて設定されたものである。
ここで、図18を参照して基準点Pについて説明する。また、図19を参照して視差dと抽出される左目用領域31L及び右目用領域32Rとの関係について説明する。
図18は、処理対象領域内の基準点Pについて説明する図である。
図18Aに示されるように、基準点Pが処理対象領域21の中心に設定されている場合には、基準点Pからそれぞれ視差dの半分(=d/2)の距離LAだけ左右に離間した領域が、それぞれ左目用領域31L、右目用領域31Rとして抽出される。すなわち、処理対象領域21の両端の各々の領域が、左目用領域31L及び右目用領域31Rのそれぞれとして抽出される。
一方、図18Bに示されるように、基準点Pが処理対象領域21の中心に設定されていない場合には、処理対象領域21の両端の領域のうち、基準点Pからより近い端までの距離をLBと記述して、基準点Pからより遠い端までの距離をLC(>LB)と記述するものとする。この場合、視差dの半分(=d/2)の距離は、距離LB−w/2となる。すなわち、基準点Pからそれぞれ視差dの半分(=d/2)の距離LB−w/2だけ左右に離間した領域が、それぞれ左目用領域31L、右目用領域31Rとして抽出される。例えば、図18Bの例では、基準点Pが処理対象領域21の中心よりも右側に設定されているので、基準点Pから右側の端までの距離が、距離LBになる。従って、基準点Pから右側に距離LB−w/2だけ離間した、幅wの領域が、右目用領域31Rとして抽出される。また、基準点Pから左側に距離LB−w/2だけ離間した幅wの領域が、左目用領域31Lとして抽出される。
図19は、視差dと、処理対象領域21から抽出される左目用領域及び右目用領域との関係を示す図である。
図19において、横軸は視差dの大きさを示している。ズームボタン116のTボタンが押下されると視差dが大きくなり、Wボタンが押下されると、視差dが小さくなる。
本実施形態においては、視差dの推奨値がデフォルト値Qとして設定されている。具体的には例えば、視差dがデフォルト値Qである場合の処理対象領域21が図19の左から3番目に示されている。このとき、基準点Pから視差dの半分(=d/2)の距離だけ左側に離間した幅wの領域が左目用領域31Lとして抽出され、基準点Pから視差dの半分(=d/2)の距離だけ右側に離間した幅wの領域が右目用領域31Rとして抽出される。なお、図16のステップS37において表示される奥行き情報の値は、視差dのデフォルト値Qに対応する値である。
視差dがデフォルト値Qである状態からズームボタン116のWボタンが押下されると、奥行き情報の値が小さくなり、それに応じて、視差dがデフォルト値Qよりも小さくなるように設定される。視差dがデフォルト値Qよりも小さい所定の値に設定されると、例えば、図19の左から2番目に示されるように、処理対象領域21から抽出される幅wの左目用領域31Lと幅wの右目用領域31Rとの各々の一部が重なった状態になる。この場合、表示される3D画像のオブジェクトの凹凸の度合いは、視差dがデフォルト値Qである状態よりも弱くなる。
この状態からさらにズームボタン116のWボタンが押下されると、奥行き情報の値が小さくなり、それに応じて、視差dがさらに小さくなるように設定される。例えば、図19の1番左に示されるように、視差dが0となった場合には、処理対象領域21から抽出される幅wの左目用領域31Lと幅wの右目用領域31Rとが完全に重なった状態になる。すなわち、幅wの左目用領域31Lと幅wの右目用領域31Rとの水平方向の中心位置が、基準点Pと一致する。この場合、3D表示されるオブジェクトは、奥行きがゼロ、すなわち凸凹がない通常の2D表示と同様の表示となる。視差dが0の状態が、上述したように、ズームボタン116の位置が可動範囲の下限位置となっている状態なので、さらにズームボタン116のWボタンが押下されても、これ以上視差dが小さくなることはない。
これに対して、視差dがデフォルト値Qである状態からズームボタン116のTボタンが押下されると、奥行き情報の値が大きくなり、それに応じて視差dがデフォルト値Qよりも大きくなるように設定される。例えば、図19の左から4番目(最も右)に示されるように、視差dが100となった場合には、処理対象領域21から抽出される幅wの左目用領域31Lと幅wの右目用領域31Rとのそれぞれが、処理対象領域21の両端に一致した状態になる。この場合、3D表示されるオブジェクトの凹凸の度合いは、視差dがデフォルト値Qである状態よりも強くなる。視差dが100の状態が、上述したように、ズームボタン116の位置が可動範囲の上限位置となっている状態なので、さらにズームボタン116のTボタンが押下されても、これ以上視差dが大きくなることはない。
図17のフローチャートの説明に戻り、ステップS67において、生成部224は、抽出部223により抽出された左目用領域を左目用画像に追加したデータを生成する。すなわち、図6に示されるように、抽出された左目用領域31Lkは、左目用画像に追加される。
ステップS68において、生成部224は、抽出部223により抽出された右目用領域を右目用画像に追加したデータを生成する。すなわち、図6に示されるように、抽出された右目用領域31Rkは、右目用画像に追加される。
ステップS69において、設定部222は、処理対象領域がすべて設定されたか否かを判定する。
処理対象領域としてすべてがまだ設定されていない場合、ステップS69においてNOであると判定されて、処理はステップS62に戻され、それ以降の処理が繰り返される。すなわち、図6に示されるように、複数の処理単位S1乃至SNに区分されたパノラマ画像11のデータのうち、処理単位S1から処理単位S2、S3・・・と順番に処理対象領域21に設定され、処理対象領域21から抽出された左目用領域31L1及び右目用領域31Rが、それぞれ左目用画像及び右目用画像に追加されていく。すなわち、処理対象領域がすべて設定されるまで、ステップS62乃至S69のループ処理が繰り返され、処理対象領域21から抽出された左目用領域31L及び右目用領域31Rが、それぞれ左目用画像及び右目用画像に追加されていく。
その後、処理対象領域がすべて設定された場合、ステップS69においてYESであると判定されて、3D画像生成処理は終了し、処理は図16のステップS43に進む。
このように、ユーザが、2D表示においてはオブジェクトの拡大指示又は縮小指示を行うズームボタン116を操作することにより、3D表示においては視差dが設定され、設定された視差dに応じた凹凸の度合いでオブジェクトが3D表示される。すなわち、ユーザは、ズームボタン116といった、2D画像の奥行き方向を操作する操作部を用いた直感的な操作をするだけで、3D表示されるオブジェクトの凹凸の度合いを調整することが可能となる。
<2.第2実施形態>
以上の第1実施形態では、3D画像は、パノラマ画像を用いて生成された。これに対して、第2実施形態では、3D画像は、連写撮影方式によって被写体が撮影された結果得られる複数の画像(以下、連写撮影画像と称する)を用いて生成される。
なお、第2実施形態の撮像装置91の構成は、図10及び図11に示される第1実施形態と基本的に同様であるので、一致点の説明は省略し、差異点である記録デバイス135についてのみ説明する。
[記録デバイス135の構成例]
図20は、記録デバイス135の記録内容の一例を示す図である。
記録デバイス135に記録される画像は、第1実施形態ではパノラマ画像であったのに対して、第2実施形態では、図20に示されるように、複数の連写撮影画像である。すなわち、記録デバイス135には、連写時の撮像装置91の水平方向の移動に応じて配置位置が水平方向に徐々にずれたオブジェクトがそれぞれ含まれる連写撮影画像G1乃至GN(Nは2以上の整数値)のデータが記録される。
さらに、記録デバイス135には、対応関係表241のデータが記録される。対応関係表241は、視差dと、左目用画像又は右目用画像として抽出される連写撮影画像との対応関係を示す表である。すなわち、N枚の連写撮影画像G1乃至GNのうち、左目用画像又は右目用画像として選択される2つの連写撮影画像が、視差dの各値毎に予め規定されており、この規定の内容が対応関係表241に示されている。
[画像記録処理]
次に、連写撮影時に記録処理部161が実行する画像記録処理について図21を参照して説明する。
図21は、記録処理連写撮影時における部161による画像記録処理の一例を説明するフローチャートである。
ユーザが、モードダイヤル117を操作して撮影モードを選択すると、画像記録処理が開始される。
ステップS91において、判定部181は、連写撮影方式が指示されたか否かを判定する。
本実施形態では、ユーザが、液晶パネル120に表示されたメニュー画面を見ながら、操作ボタン118を押下操作して、連写撮影方式を選択した場合には、ステップS91においてYESであると判定されて、処理はステップS92に進む。
ステップS92において、撮影制御部182は、被写体を連写撮影方式で撮影する。すなわち、撮影制御部182は、上述した撮影部を制御することにより、連写撮影方式による被写体の撮影、すなわち、被写体に対して撮像装置91を相対的に水平方向に移動しながら一定時間おきにN回の撮影をする。これにより、撮影画像のデータとして、N枚の連写撮影画像G1乃至GNのデータが得られ、処理はステップS93に進む。
ステップS93において、記録指示部183は、ディジタル信号処理部134を制御して、ステップS92の処理の結果得られたN枚の連写撮影画像G1乃至GNのデータを、記録デバイス135に記録する。
ステップS94において、生成部184は、対応関係表241を生成し、記録デバイス135に記録させる。
ステップS95において、生成部184は、連写撮影画像G1乃至GNの各々のサムネイル画像のデータを生成し、記録デバイス135に記録する。これにより、画像記録処理は終了する。
なお、ステップS92の処理が毎回同様の処理である場合、すなわち、撮像装置91の移動速度や移動距離、N回の撮影の時間間隔等が毎回同一である場合、予め対応関係表241を生成して記録デバイス135に記録させておいてもよい。この場合、ステップS94の処理は省略可能である。
[対応関係表]
図22は、対応関係表241のデータ構造の一例を示す図である。
本実施形態においては、対応関係表241は行列構造を有しているため、以下、図22の横方向の項目の集合体を「行」と称し、同図の縦方向の項目の集合体を「列」と称する。所定の行には、視差dの所定の値が対応付けられている。すなわち、所定の行には、当該行に対応する視差dの値についての、「視差」、「左目用画像」、及び「右目用画像」という項目がそれぞれ配置されている。
所定の行の「視差」には、当該行に対応する視差dに対応する値Dが格納される。
所定の行の「左目用画像」には、当該行に対応する視差dが値Dである場合に、N枚の連写撮影画像G1乃至GNのうち、左目用画像として選択される連写撮影画像を特定する情報(図22の例では画像に付された番号)が格納される。
所定の行の「右目用画像」には、当該行に対応する視差dが値Dである場合に、N枚の連写撮影画像G1乃至GNのうち、右目用画像として選択される連写撮影画像を特定する情報(図22の例では画像に付された番号)が格納される。
なお、図22の例では、連写撮影画像GK(Kは番号であり、1乃至N−1のうちの何れかの整数値)と連写撮影画像G(K+1)との各々に含まれる同一オブジェクトの水平方向の配置位置のズレ量が、視差dの値D(Dは、1以上の整数値)と値(D+1)との差分量(値1つ分)に対応することが前提となっている。
なお、以上の対応関係表241に関する記載事項については、後述する図26の例についても同様に当てはまるとする。
図22の例の対応関係表241から明らかなように、視差dの値が「1」である場合、左目用画像としては連写撮影画像G2(2番目に撮影された画像)が選択され、右目用画像としては連写撮影画像G3(3番目に撮影された画像)が選択される。ここで、本実施形態では、連写撮影画像G2が、連写撮影方式による撮影時に決定される代表画R(EXIF規格)であるとする。そして、このような代表画Rである連写撮影画像G2が左目用画像として選択され、連写撮影画像G2の直後の回に撮影された連写撮影画像G3が右目用画像として選択される視差dの値D、すなわち「1」がデフォルト値とされている。
視差dの値Dが「2」以上の場合には、視差dの値Dが1つ増えるたびに、次のパターン1とパターン2との選択手法が交互に繰り返されて適用されることによって、左目用画像及び右目用画像が選択される。換言すると、図22の例の対応関係表241は、「視差dの値Dが1つ増えるたびに、次のパターン1とパターン2との選択手法が交互に繰り返されて適用される」という規定に則って、ステップS94の処理で生成されたものである。
パターン1の選択手法とは、次のようにして左目用画像及び右目用画像が選択される手法をいう。すなわち、左目用画像としては、1つ少ない視差dの値Dで選択されるのと同一の連写撮影画像が選択される。そして、右目用画像としては、1つ少ない視差dの値Dで連写撮影画像GKが選択されるとすると、その直後の回に撮影された連写撮影画像G(K+1)が選択される。
パターン2の選択手法とは、次のようにして左目用画像及び右目用画像が選択される手法をいう。すなわち、左目用画像としては、1つ少ない視差dの値Dで連写撮影画像GKが選択されるとすると、その直前の回に撮影された連写撮影画像G(K−1)が選択される。そして、右目用画像としては、1つ少ない視差dの値Dで選択されるのと同一の連写撮影画像が選択される。
具体的には、例えば、視差dの値Dが「1」から1つ増えた「2」の場合、パターン1の選択手法により、左目用画像としては、視差dの値Dが「1」で選択されるのと同一の連写撮影画像G2が選択される。また、右目用画像としては、視差dの値Dが「1」の場合には連写撮影画像G3が選択されるので、その直後の回に撮影された連写撮影画像G4が選択される。
さらに、視差dの値Dが「2」から1つ増えた「3」の場合、パターン2の選択手法により、左目用画像としては、視差dの値Dが「2」の場合には連写撮影画像G2が選択されるので、その直前の回に撮影された連写撮影画像G1が選択される。また、右目用画像としては、視差dの値Dが「2」で選択されるのと同一の連写撮影画像G4が選択される。
さらに、視差dの値Dが「3」から1つ増えた「4」の場合、パターン1の選択手法により、左目用画像としては、視差dの値Dが「3」の場合に選択されるのと同一の連写撮影画像G1が選択される。また、右目用画像としては、視差dの値Dが「3」の場合には連写撮影画像G4が選択されるので、その直後の回に撮影された連写撮影画像G5が選択される。
ただし、視差dの所定値で左目用画像として連写撮影画像G1が選択された場合、その所定値以降の値では、パターン2の選択手法を適用することが出来ないので、パターン1の選択手法が繰り返し適用される。逆に、視差dの所定値で右目用画像として連写撮影画像GNが選択された場合、その所定値以降の値では、パターン1の選択手法を適用することが出来ないので、パターン2の選択手法が繰り返し適用される。
図21のフローチャートの説明に戻り、ステップS95において、生成部184は、連写撮影画像G1乃至GNの各々のサムネイル画像のデータを生成し、記録デバイス135に記録する。これにより、画像記録処理は終了する。
このようにして、ユーザが連写撮影方式を選択した場合には、N枚の連写撮影画像G1乃至GN及びそれらのサムネイル画像の各データが記録デバイス135に記録される。これに対して、ユーザが通常撮影方式を選択した場合には、ステップS91において、連写撮影方式が指示されていないと判定されて、処理はステップS96に進む。
ステップS96において、撮影制御部182は、上述した撮影部を制御することにより、通常撮影方式で被写体を撮影する。これにより、撮影画像のデータとして、通常サイズの画像のデータが得られ、処理はステップS97に進む。
ステップS97において、記録指示部183は、ディジタル信号処理部134を制御して、ステップS96の処理の結果得られた通常サイズの画像のデータを、記録デバイス135に記録する。通常サイズの画像のデータが、記録デバイス135に記録されると、処理はステップS95に進む。
ステップS95において、生成部184は、撮影画像(いまの場合、通常サイズの画像)のサムネイル画像のデータを生成し、記録デバイス135に記録する。これにより、画像記録処理は終了する。
[3D画像生成処理]
次に、連写撮影時に画像表示処理部162が実行する画像表示処理について説明する。本実施形態における画像表示処理は、図16に示される画像表示処理と基本的に同様であるので、一致点の説明は省略し、差異点であるステップS42の3D画像生成処理についてのみ説明する。
図23は、連写撮影画像に対する3D画像生成処理部163による3D画像生成処理の一例を説明するフローチャートである。
図16のステップS41において、ズームボタン116の押下が解除された時点の奥行き情報に基づいて視差dが設定されると、処理はステップS42の3D画像生成処理に進み、図23のフローチャートに従った処理が実行される。
すなわち、ステップS121において、データ取得部221は、記録デバイス135から対応関係表241のデータを取得する。
ステップS122において、抽出部223は、ステップS121の処理で取得された対応関係表241のデータ、及び視差dに基づいて、左目用画像と右目用画像との各データを抽出する。このときの視差dの値は、図16のステップS40の処理においてユーザがズームボタン116の押下を解除した時点の奥行き情報に基づいて設定された値である。すなわち、抽出部223は、設定された視差dの値と、ステップS121の処理で取得された対応関係表241とを用いて、設定された視差dの値に対応づけられた2枚の連写撮影画像を左目用画像及び右目用画像として各々のデータを抽出する。左目用画像及び右目用画像の各データが抽出されると、3D画像生成処理は終了し、処理は図16のステップS43に進む。
さらに、以下、図24及び図25を参照して、3D画像生成処理の具体例について説明する。
図24及び図25は、図22の例の対応関係表241を用いて左目用画像及び右目用画像を抽出する処理の具体例を示す図である。
図24の記録デバイス135には、連写撮影方式により得られたN枚の連写撮影画像G1乃至GNのデータが記録されている。また、横軸は視差dの値を示している。ズームボタン116のTボタンが押下されると視差dの値が大きくなる。すなわち、図24に示されるように、視差dの値が図中右方向に変化する。
例えば図16のステップS41の処理で奥行き情報に基づいて設定された視差dの値が「1」であったとする。この場合、図23のステップS121の処理で図22の対応関係表241のデータが取得されると、次のステップS122の処理では、左目用画像のデータとしては代表画Rである連写撮影画像G2のデータが抽出されて、右目用画像としては連写撮影画像G3のデータが抽出される。そして、図16のステップS43の処理で、連写撮影画像G2が左目用画像として、連写撮影画像G3が右目用画像として、液晶パネル120に表示される。
この状態からズームボタン116のTボタンが押下されると、図16のステップS44の処理でYESであると判定されて、処理はステップS37に戻され、ステップS37乃至S41の処理によって、奥行き情報の値が大きくなるように設定され、それに応じて、視差dの値も大きくなるように設定される。例えば図16のステップS41の処理で奥行き情報に基づいて設定された視差dの値が「2」であったとする。この場合、図23のステップS121の処理で図22の対応関係表241のデータが取得されると、次のステップS122の処理では、左目用画像のデータとしては代表画Rである連写撮影画像G2のデータが抽出され、右目用画像としては連写撮影画像G4のデータが抽出される。そして、図16のステップS43の処理で、連写撮影画像G2が左目用画像として、連写撮影画像G4が右目用画像として、液晶パネル120に表示される。
この状態からさらにTボタンが押下されて、同様の処理が繰り返された結果、例えば、視差dの値が「3」に設定された場合、図22の対応関係表241に従って、左目用画像としては連写撮影画像G1のデータが抽出され、右目用画像としては連写撮影画像G4のデータが抽出される。さらにTボタンが押下されて、例えば、視差dの値が「4」に設定された場合、左目用画像としては連写撮影画像G1のデータが抽出され、右目用画像としては連写撮影画像G5のデータが抽出される。
図25は、図24に示される視差dが「4」である状態から、ズームボタン116のWボタンが押下された場合の左目用画像及び右目用画像を抽出する処理の具体例を示す図である。
図25の記録デバイス135には、図24と同様に、連写撮影方式により得られたN枚の連写撮影画像G1乃至GNのデータが記録されている。また、横軸は視差dの値を示している。ズームボタン116のWボタンが押下されると、視差dの値が小さくなる。すなわち、図25に示されるように、視差dの値が図中左方向に変化する。
例えば、図24で視差dの値が「4」に設定され、左目用画像としては連写撮影画像G1が抽出され、右目用画像としては連写撮影画像G5が抽出された場合、図16のステップS43の処理で、連写撮影画像G1が左目用画像として、連写撮影画像G5が右目用画像として、液晶パネル120に表示される。
この状態からズームボタン116のWボタンが押下されると、図16のステップS44の処理でYESであると判定されて、処理はステップS37に戻され、ステップS37乃至S41の処理によって、奥行き情報の値が小さくなるように設定され、それに応じて、視差dの値も小さくなるように設定される。例えば図16のステップS41の処理で奥行き情報に基づいて設定された視差dの値が「3」であったとする。この場合、図23のステップS121の処理で図22の対応関係表241のデータが取得されると、次のステップS122の処理では、左目用画像のデータとしては連写撮影画像G1のデータが抽出されて、右目用画像としては連写撮影画像G4のデータが抽出される。そして、図16のステップS43の処理で、連写撮影画像G1が左目用画像として、連写撮影画像G4が右目用画像として、液晶パネル120に表示される。
この状態からさらにWボタンが押下されて、同様の処理が繰り返された結果、例えば、視差dの値が「2」に設定された場合、左目用画像としては代表画Rである連写撮影画像G2のデータが抽出されて、右目用画像としては連写撮影画像G4のデータが抽出される。
なお、図21のステップS94の処理において生成される対応関係表は、図22に示される対応関係表に限定されず、例えば、図26に示される対応関係表であってもよい。
図26は、対応関係表241のデータ構造の他の例を示す図である。
図26に示される対応関係表241から明らかなように、視差dの値が「1」である場合、左目用画像としては連写撮影画像G2が抽出され、右目用画像としては連写撮影画像G3が抽出される。ここで、上述したように、本実施形態では、連写撮影画像G2が、連写撮影方式による撮影時に決定される代表画R(EXIF規格)である。そして、このような代表画Rである連写撮影画像G2が左目用画像として選択され、連写撮影画像G2の直後の回に撮影された連写撮影画像G3が右目用画像として選択される視差dの値、すなわち「1」がデフォルト値とされている。
視差dの値が「2」以上の場合には、次の選択手法が適用されることによって、左目用画像及び右目用画像が選択される。すなわち、図26の例の対応関係表241に適用された選択手法は、次のようにして左目用画像及び右目用画像が選択される手法である。すなわち、左目用画像としては、代表画Rである連写撮影画像G2が選択される。一方、右目用画像としては、1つ少ない視差dの値で連写撮影画像GKが選択されるとすると、その直後の回に撮影された連写撮影画像G(K+1)が選択される。
具体的には、例えば、視差dの値が「1」から1つ増えた「2」の場合、図26の例の対応関係表241に適用された選択手法により、左目用画像としては、代表画Rである連写撮影画像G2が選択される。また、右目用画像としては、視差dの値が「1」では連写撮影画像G3が選択されるので、その直後の回に撮影された連写撮影画像G4が選択される。
さらに、視差dの値が「2」から1つ増えた「3」の場合、図26の例の対応関係表241に適用された選択手法により、左目用画像としては、代表画Rである連写撮影画像G2が選択される。また、右目用画像としては、視差dの値が「2」では連写撮影画像G4が選択されるので、その直後の回に撮影された連写撮影画像G5が選択される。
ただし、視差dの所定値で右目用画像として連写撮影画像GNが選択された場合、その所定値以降の値では、図26の例の対応関係表241に適用された選択手法を適用することが出来ないので、左目用画像としては、代表画Rである連写撮影画像G2の直前の回に撮影された連写撮影画像G1が選択される。
具体的には、視差dの所定値「m」で右目用画像として連写撮影画像GNが選択された場合、視差dの値が「m」から1つ増えた「m+1」では、左目用画像としては、代表画Rである連写撮影画像G2の直前の回に撮影された連写撮影画像G1が選択される。「m+1」が視差dの最大値である。
図27及び図28は、図26に示される対応関係表241を用いて左目用画像及び右目用画像を抽出する処理の具体的な処理結果の例を示す図である。
図27の記録デバイス135には、連写撮影方式により得られたN枚の連写撮影画像G1乃至GNのデータが記録されている。また、横軸は視差dの値を示している。ズームボタン116のTボタンが押下されると視差dの値が大きくなる。すなわち、図27に示されるように、視差dの値が図中右方向に変化する。
例えば図16のステップS41の処理で奥行き情報に基づいて設定された視差dの値が「1」であったとする。この場合、図23のステップS121の処理で図26の対応関係表241のデータが取得されると、次のステップS122の処理では、左目用画像のデータとしては代表画Rである連写撮影画像G2のデータが抽出されて、右目用画像としては連写撮影画像G3のデータが抽出される。そして、図16のステップS43の処理で、連写撮影画像G2が左目用画像として、連写撮影画像G3が右目用画像として、液晶パネル120に表示される。
この状態からズームボタン116のTボタンが押下されると、図16のステップS44の処理でYESであると判定されて、処理はステップS37に戻され、ステップS37乃至S41の処理によって、奥行き情報の値が大きくなるように設定され、それに応じて、視差dの値も大きくなるように設定される。例えば図16のステップS41の処理で奥行き情報に基づいて設定された視差dの値が「2」であったとする。この場合、図23のステップS121の処理で図26の対応関係表241が取得されると、次のステップS122の処理では、左目用画像のデータとしては代表画Rである連写撮影画像G2のデータが抽出されて、右目用画像としては連写撮影画像G4のデータが抽出される。そして、図16のステップS43の処理で、連写撮影画像G2が左目用画像として、連写撮影画像G4が右目用画像として、液晶パネル120に表示される。
この状態からさらにTボタンが押下されて、同様の処理が繰り返された結果、例えば、視差dの値が「3」に設定された場合、左目用画像としては代表画Rである連写撮影画像G2のデータが抽出され、右目用画像としては連写撮影画像G5のデータが抽出される。さらにTボタンが押下されて、例えば、視差dの値が「m」に設定された場合、左目用画像としては代表画Rである連写撮影画像G2のデータが抽出され、右目用画像としては連写撮影画像GNのデータが抽出される。
図28は、図27に示される視差dが「m」である状態から、さらにズームボタン116のTボタンが押下された場合の左目用画像及び右目用画像を抽出する処理の具体例を示す図である。
図28の記録デバイス135には、図27と同様に、連写撮影方式により得られたN枚の連写撮影画像G1乃至GNのデータが記録されている。また、横軸は視差dの値を示している。ズームボタン116のTボタンが押下されると視差dの値が大きくなる。
例えば、図27で視差dの値が「m」に設定され、左目用画像としては代表画Rである連写撮影画像G2のデータが抽出され、右目用画像としては連写撮影画像GNのデータが抽出された場合、図16のステップS43の処理で、連写撮影画像G2が左目用画像として、連写撮影画像GNが右目用画像として、液晶パネル120に表示される。
この状態からズームボタン116のTボタンが押下されると、図16のステップS44の処理でYESであると判定されて、処理はステップS37に戻される。そして、ステップS37乃至S41の処理によって、奥行き情報の値が大きくなるように設定され、それに応じて、視差dの値も大きくなるように設定される。
例えば図16のステップS41の処理で奥行き情報に基づいて設定された視差dの値が「m+1」であったとする。この場合、図23のステップS121の処理で図26の対応関係表241が取得されると、次のステップS122の処理では、左目用画像としては連写撮影画像G1のデータが抽出されて、右目用画像としては連写撮影画像GNのデータが抽出される。そして、図16のステップS43の処理で、連写撮影画像G1が左目用画像として、連写撮影画像GNが右目用画像として、液晶パネル120に表示される。
このように、画像表示処理が実行されると、ズームボタン116の押下操作に応じて、視差dが設定され、設定された視差dに応じた凹凸の度合いでオブジェクトが3D表示される。具体的には例えば、ズームボタン116のTボタンが押下されると、奥行き情報の値が大きくなり、それに応じて、視差dも大きな値に設定され、選択される右目用画像及び左目用画像の組み合わせが、画像に付された番号の差が大きい組み合わせとなる。その結果、3D表示されるオブジェクトの凸凹の度合いが大きくなる。これに対して、ズームボタン116のWボタンが押下されると、奥行き情報の値が小さくなり、それに応じて、視差dも小さな値に設定され、選択される右目用画像及び左目用画像の組み合わせが、画像に付された番号の差が小さい組み合わせとなる。その結果、3D表示されるオブジェクトの凸凹の度合いが小さくなる。すなわち、ユーザは、ズームボタン116といった、2D画像の奥行き方向を操作する操作部を用いた直感的な操作をするだけで、3D表示されるオブジェクトの凹凸の度合いを調整することが可能となる。
<3.第3実施形態>
以上説明したように、第1実施形態では、パノラマ撮影方式によって撮影された結果得られるパノラマ画像のデータから、3D画像のデータが生成された。また、第2実施形態では、連写撮影方式によって撮影された結果得られる複数枚の画像のデータから選択された2枚の画像データが、3D画像のデータとして生成された。すなわち、第1実施形態及び第2実施形態では、撮影画像に含まれるオブジェクトが3D表示されるように、3D画像のデータが生成された。これに対して、第3実施形態では、撮影画像は背景画像として用いられ、これらの背景画像のデータの上にスタンプ画像のデータが合成されることによって、3D画像のデータが生成される。すなわち、第3実施形態では、少なくともスタンプ画像に含まれるオブジェクトが3D表示されるように、3D画像が生成される。
なお、第3実施形態の撮像装置91の構成は、図10及び図11に示される第1実施形態と基本的に同様であるので、一致点の説明は省略し、差異点である記録デバイス135についてのみ説明する。
図示はしないが、第3実施形態の撮像装置91の記録デバイス135には、通常サイズの画像のデータが記憶されている。この撮影画像は、3D画像として生成される左目用画像及び右目用画像の背景画像(以下、左目用背景画像、右目用背景画像と各々称する)として用いられる。
この場合、対となる左目用背景画像及び右目用背景画像には、対応するオブジェクトが含まれている必要があるが、そのオブジェクトの配置位置は、同一であってもよいし、所定の視差d分だけ水平方向にずれていてもよい。
例えば、通常撮像方式によって撮影された結果得られる通常サイズの画像のデータをそのまま、左目用背景画像及び右目用背景画像の各々に採用してもよい。この場合、オブジェクトの配置位置は同一になるため、当該オブジェクトは3D表示されず、後述するスタンプ画像のオブジェクトのみが3D表示される。
一方、例えば第1実施形態又は第2実施形態において撮影画像から左目用画像として生成された通常サイズの画像を、左目用背景画像として採用し、第1実施形態又は第2実施形態において撮影画像から右目用画像として生成された通常サイズの画像を、右目用背景画像として採用してもよい。この場合、オブジェクトの配置位置は、左目用背景画像及び右目用背景画像において所定の視差d分だけ水平方向にずれるため、当該オブジェクトは、その視差dに応じた凹凸の度合いで3D表示される。すなわち、この場合には、左目用背景画像及び右目用背景画像に含まれる対応するオブジェクトは、後述するスタンプ画像のオブジェクトと共に3D表示される。
なお、以下、左目用背景画像及び右目用背景画像に含まれる対応するオブジェクトを、背景オブジェクトと称する。これに対して、後述するスタンプ画像のオブジェクトを、前景オブジェクトと称する。
この記録デバイス135にはまた、このような左目用背景画像又は右目用背景画像のデータの上に合成させるスタンプ画像のデータが記録されている。スタンプ画像には、前景オブジェクトが含まれており、それ以外の領域は透明領域となっている。このようなスタンプ画像は1枚でなく、同一の前景オブジェクトの配置位置が水平方向に徐々にずれた複数枚のスタンプ画像の各データが、記録デバイス135に記憶されている。このような複数のスタンプ画像のうち、所定位置に配置された前景オブジェクトを含むスタンプ画像のデータが、左目用背景画像のデータの上に合成されることによって、左目用画像のデータが生成される。一方、所定位置から視差d分だけ水平方向にずれた位置に配置された前景オブジェクトを含むスタンプ画像のデータが、右目用背景画像のデータの上に合成されることによって、右目用画像のデータが生成される。勿論、スタンプ画像は1枚とし、その合成位置をずらすようにしてもよい。このようにして生成された左目用画像及び右目用画像の各データに基づいて、前景オブジェクトは、視差dに応じた凹凸の度合いで3D表示される。なお、背景オブジェクトが3D表示されるか否かは、上述したように、左目用背景画像及び右目用背景画像内の背景オブジェクトの各々の配置位置に依存する。
[3D画像の生成手法]
このような第3実施形態の3D画像の生成手法について、図29及び図30を参照して具体的に説明する。
図29及び図30は、第3実施形態の3D画像の生成手法を模式的に説明する図である。
図29に示されるように、左目用背景画像261L及び右目用背景画像261Rのそれぞれには、運転手が乗った自動車のオブジェクトが背景オブジェクトとして含まれている。なお、図29の例では、同一の撮影画像が、左目用背景画像261L及び右目用背景画像261Rの各々として採用されている。すなわち、左目用背景画像261L及び右目用背景画像261R内の背景オブジェクトの各配置位置は同一であることから、背景オブジェクトは3D表示されない。
第3実施形態では、このような左目用背景画像261L及び右目用背景画像261Rの各データの上にスタンプ画像のデータがそれぞれ合成される。なお、図29にはスタンプ画像に含まれるハート型の前景オブジェクト271のみが図示されており、スタンプ画像(透明領域の部分)の図示は省略されている。
すなわち、左目用背景画像261Lのデータに対して、所定位置に前景オブジェクト271Lが配置されたスタンプ画像のデータが合成されることによって、左目用画像のデータが生成される。同様に、右目用背景画像261Rのデータに対して、所定位置に前景オブジェクト271Rが配置されたスタンプ画像のデータが合成されることによって、右目用画像のデータが生成される。ただし、図30に示されるように、右目用背景画像261Rのデータに対して前景オブジェクト271Rが配置されたスタンプ画像のデータが合成される位置は、左目用背景画像261Lの挿入位置から視差d分だけ水平方向にずれている。このようにして生成された左目用画像及び右目用画像のデータに基づいて、視差dに応じた凹凸の度合いで前景オブジェクト271が3D表示される。
[第3実施形態における画像表示処理]
次に、このような第3実施形態の3D画像の生成手法が適用された画像表示処理について説明する。
図31は、第3実施形態における画像表示処理部162による画像表示処理の一例を説明するフローチャートである。
ユーザが、モードダイヤル117を操作して画像表示モードを選択すると、画像表示処理が開始される。
ステップS141において、表示制御部201は、サムネイル画像を液晶パネル120に表示する。ここで、液晶パネル120に表示されるサムネイル画像は、背景画像のサムネイル画像である。
ステップS142において、操作認識部202は、ステップS141の処理で表示されたサムネイル画像が選択されたか否かを判定する。
サムネイル画像が1枚も選択されない場合、ステップS142においてNOであると判定されて、処理はステップS142に戻され、それ以降の処理が繰り返される。すなわち、サムネイル画像が選択されるまでの間、ステップS142の判定処理が繰り返される。
その後、ユーザが、液晶パネル120に表示されたメニュー画面を見ながら、操作ボタン118を押下操作してサムネイル画像の中から所定の1枚を選択した場合には、ステップS142においてYESであると判定されて、処理はステップS143に進む。
ステップS143において、表示制御部201は、ステップS142の処理で選択された画像を液晶パネル120に表示する。すなわち、サムネイル画像の元の画像が表示される。
ステップS144において、操作認識部202は、スタンプ画像付加の指示がされたか否かを判定する。
ユーザは、液晶パネル120に表示された画像、すなわち背景画像を見て、スタンプ画像を付加させたいと所望した場合には、スタンプ付加の指示操作をする。本実施形態では、ユーザは、スタンプ付加の指示操作として、液晶パネル120に表示されたメニュー画面をみながら、操作ボタン118を押下操作して、スタンプ画像の付加を選択する。従って、操作ボタン118が押下操作されなかった場合、スタンプ画像付加の指示がされなかったとして、ステップS144においてNOであると判定されて、画像表示処理は終了する。
これに対して、ユーザが操作ボタン118を押下操作して、スタンプ画像の付加を選択した場合、スタンプ画像付加の指示がされたとして、ステップS144においてYESであると判定されて、処理はステップS145に進む。
なお、ステップS145乃至S150の処理は、図16のステップS36乃至S41の処理と同様であるので、その説明は省略する。
ステップS150において、ズームボタン116の押下が解除された時点の奥行き情報に基づいて視差dが設定されると、処理はステップS151に進む。
ステップS151において、3D画像生成処理部163は、ステップS150の処理で設定された視差dに基づいて、スタンプ画像の前景オブジェクトを含む3D画像のデータを生成する。すなわち、所定位置に配置された前景オブジェクトを含むスタンプ画像のデータが、左目用背景画像のデータの上に合成されることによって、左目用画像のデータが生成される。一方、所定位置から視差d分だけ水平方向にずれた位置に配置された前景オブジェクトを含むスタンプ画像のデータが、右目用背景画像のデータの上に合成されることによって、右目用画像のデータが生成される。このようにして生成された左目用画像及び右目用画像が表示されると、前景オブジェクトは、視差dに応じた凹凸の度合いで3D表示される。なお、背景オブジェクトが3D表示されるか否かは、上述したように、背景オブジェクトの左目用背景画像及び右目用背景画像の各々の配置位置に依存する。なお、以下、このようなステップS151の処理を、スタンプ画像合成処理と称する。スタンプ画像合成処理の詳細については、図32を参照して後述する。
ステップS152において、表示制御部201は、ステップS151のスタンプ画像合成処理により生成されたスタンプ画像が合成された画像を液晶パネル120に表示させる。すなわち、表示制御部201は、図8を参照して上述したように、左目用画像及び右目用画像をそれぞれ例えば垂直方向と水平方向の偏光画像として液晶パネル120に表示させる。この状態で、ユーザは、偏光メガネをかけて偏光画像を見ることにより、3D表示された前景オブジェクトを視認すること、すなわち、視差dに応じた度合いで前景オブジェクトが凹凸している様子を視認することができる。なお、背景オブジェクトが3D表示されるか否かは、上述したように、左目用背景画像及び右目用背景画像内の背景オブジェクトの各々の配置位置に依存する。
ステップS153において、操作認識部202は、奥行き情報の更新指示がされたか否かを判定する。
本実施形態では、ユーザは、3D表示された前景オブジェクトを見て凹凸の度合いを変化させたいと所望した場合、すなわち、奥行き情報の更新指示をする場合、その操作として、改めてズームボタン116を押下するものとする。従って、本実施形態では、3D画像が液晶パネル120に表示された状態でズームボタン116が押下操作された場合、ステップS153においてYESと判定されて、処理はステップS146に戻され、それ以降の処理が繰り返される。すなわち、奥行き情報の更新指示がされる度に、ステップS146乃至S153のループ処理が繰り返されて、奥行き情報の更新値に基づいて視差dが再設定され、表示される3D画像の前景オブジェクトの凹凸の度合いが変化する。
奥行き情報の更新指示がされない場合、ステップS153においてNOであると判定されて、処理はステップS154に進む。
ステップS154において、操作認識部202は、処理終了の指示がされたか否かを判定する。
処理終了の指示がされない場合、ステップS154においてNOと判定されて、処理はステップS152に戻され、それ以降の処理が繰り返される。すなわち、処理終了の指示がされない限り、ステップS152乃至S154のループ処理が繰り返されて、ステップS151のスタンプ画像合成処理により生成された3D画像が液晶パネル120に表示される。
その後、処理終了の指示がされた場合、ステップS154においてYESであると判定されて、画像表示処理は終了する。
このように、画像表示処理が実行されると、ズームボタン116の押下操作に応じて、視差dが設定され、設定された視差dに応じた凹凸の度合いで、スタンプ画像に含まれていた前景オブジェクトが3D表示される。
[スタンプ画像合成処理]
次に、図32に示されるフローチャートを参照して、図31に示される画像表示処理のステップS151のスタンプ画像合成処理について説明する。
図32は、3D画像生成処理部163によるスタンプ画像合成処理の一例を説明するフローチャートである。
ステップS181において、設定部222は、視差dに基づいて、左目用背景画像と右目用背景画像の各々における、スタンプ画像の前景オブジェクトの合成位置を設定する。
ステップS182において、生成部224は、ステップS181の処理で左目用背景画像の合成位置として設定された位置に前景オブジェクトが配置されたスタンプ画像のデータを取得する。そして、生成部224は、取得したスタンプ画像のデータを左目用背景画像のデータの上に合成することによって、左目用画像のデータを生成する。
具体的には例えば上述の図30の例では、同図の左側の左目用背景画像261Lの上にひかれた実線の垂直線で示される位置が、左目用背景画像の合成位置となる。従って、ステップS182において、この合成位置にハート形状の前景オブジェクト271Lが配置されたスタンプ画像のデータが取得されて、左目用背景画像261Lのデータに合成される。これにより、図30の左側に示されるような左目用画像のデータが生成される。
ステップS183において、生成部224は、ステップS181の処理で右目用背景画像の合成位置として設定された位置に前景オブジェクトが配置されたスタンプ画像のデータを取得する。そして、生成部224は、取得したスタンプ画像のデータを右目用背景画像のデータを合成することによって、右目用画像のデータを生成する。
具体的には例えば上述の図30の例では、同図の右側の右目用背景画像261Rの上にひかれた実線の垂直線で示される位置、すなわち、点線の垂直線で示される位置(左目用背景画像の合成位置)から視差d分だけ水平右方向にずれた位置が、右目用背景画像の合成位置となる。従って、ステップS183において、この合成位置にハート形状の前景オブジェクト271Rが配置されたスタンプ画像のデータが取得されて、右目用背景画像261Rのデータに合成される。これにより、図30の右側に示されるような右目用画像のデータが生成される。
左目用画像のデータと右目用画像のデータが生成されると、スタンプ画像合成処理は終了し、処理は図31のステップS152に進む。
なお、記録デバイス135に記録されるスタンプ画像のサイズは、上述の例では背景画像と同一のサイズとされたが、これに特に限定されない。例えば、前景オブジェクト(図29の例ではハート形状のオブジェクト)を囲む矩形程度のサイズ、すなわち、背景画像よりも小さいサイズを、スタンプ画像のサイズとしてもよい。この場合、記録デバイス135に記録されるスタンプ画像のデータは、1つだけ用意すれば足りる。この場合、図32のステップS182の処理として、生成部224は、次のような処理を実行すればよい。すなわち、生成部224は、左目用背景画像の合成位置にスタンプ画像(前景オブジェクト)を配置させるように、そのスタンプ画像のデータを左目用背景画像のデータの上に合成する。同様に、図32のステップS183の処理とし、生成部224は、次のような処理を実行すればよい。生成部224は、右目用背景画像の設定された合成位置にスタンプ画像(前景オブジェクト)を配置させるように、そのスタンプ画像のデータを右目用背景画像のデータの上に合成する。
このように、画像表示処理が実行されると、ズームボタン116の押下操作に応じて、視差dが設定され、設定された視差dに応じた凹凸の度合いで、少なくともスタンプ画像の前景オブジェクトが3D表示される。具体的には例えば、ズームボタン116のTボタンが押下されると、奥行き情報の値が大きくなり、それに応じて、視差dも大きな値に設定される。その結果、3D表示される前景オブジェクトの凸凹の度合いが大きくなる。これに対して、ズームボタン116のWボタンが押下されると、奥行き情報の値が小さくなり、それに応じて、視差dも小さな値が設定される。その結果、3D表示される前景オブジェクトの凸凹の度合いが小さくなる。すなわち、ユーザは、ズームボタン116といった、2D画像の奥行き方向を操作する操作部を用いた直感的な操作をするだけで、3D表示される前景オブジェクトの凹凸の度合いを調整することが可能となる。
[タッチパネル121による操作]
図33は、タッチスクリーン119に含まれる液晶パネル120による操作部の表示例を示す図である。
図33Aの例では、タッチスクリーン119に含まれる液晶パネル120には、スライダー291が表示されている。ユーザが、スライダー291の表示位置に指等を接触させ、その接触状態を維持したまま指等を上下方向に動かすと、その指等の軌跡はタッチスクリーン119に含まれるタッチパネル121により検出される。すると、CPU136は、この検出結果に基づいて、スライダー291を上下方向に移動させた画像を液晶パネル120に表示させる。このようにして、ユーザは、表示されているスライダー291を上下方向に移動させることができる。このようなスライダー291の上下方向の移動操作は、ズームボタン116のTボタンとWボタンの押下操作に対応している。すなわち、スライダー291には、上述した第1乃至第3の機能が割り当てられている。すなわち、2D画像の奥行き方向の操作機能が割り当てられている。例えば第3の機能が実現される場合には、スライダー291の上下方向の移動に応じて、視差dが設定され、設定された視差dに応じた凹凸の度合いでオブジェクトが3D表示される。具体的には、例えば、スライダー291が上方向に移動されると、奥行き情報の値が大きくなり、それに応じて、視差dも大きな値に設定される。その結果、3D表示されるオブジェクトの凸凹の度合いが大きくなる。これに対して、スライダー291が下方向に移動されると、奥行き情報の値が小さくなり、それに応じて、視差dも小さな値が設定される。その結果、3D表示されるオブジェクトの凸凹の度合いが小さくなる。
図33Bの例では、タッチスクリーン119に含まれる液晶パネル120には、プラスボタンとマイナスボタンとからなる調整ボタン301が表示されている。ユーザが、プラスボタン又はマイナスボタンを押下操作すると、すなわち、プラスボタン又はマイナスボタンに指等を接触させると、その指等の接触位置は、タッチスクリーン119に含まれるタッチパネル121により検出される。すると、CPU136は、この検出結果に基づいて、プラスボタン又はマイナスボタンの押下操作を検出する。このような調整ボタン301のプラスボタンとマイナスボタンとの各々は、ズームボタン116のTボタンとWボタンとの各々に対応している。すなわち、調整ボタン301には、上述した第1乃至第3の機能が割り当てられている。すなわち、2D画像の奥行き方向の操作機能が割り当てられている。例えば第3の機能が実現される場合には、調整ボタン301の押下操作に応じて、視差dが設定され、設定された視差dに応じた凹凸の度合いでオブジェクトが3D表示される。具体的には例えば、調整ボタン301のプラスボタンが押下操作されると、奥行き情報の値が大きくなり、それに応じて、視差dも大きな値に設定される。その結果、3D表示されるオブジェクトの凸凹の度合いが大きくなる。これに対して、調整ボタン301のマイナスボタンが押下操作されると、奥行き情報の値が小さくなり、それに応じて、視差dも小さな値が設定される。その結果、3D表示されるオブジェクトの凸凹の度合いが小さくなる。
このように、ユーザは、液晶パネル120に表示されたスライダー291や調整ボタン301といった2D画像の奥行き方向を操作するソフトウェア上の操作部を、タッチパネル121に指等接触して操作することができる。ユーザは、このような直感的な操作をするだけで、3D表示されるオブジェクトの凹凸の度合いを調整することが可能となる。
[3D表示の例]
図34と図35は、左目用画像41L及び右目用画像41Rを用いた3D表示の他の例について説明する図である。
図34は、シャッタメガネ321を用いた3D画像の表示の例について説明する図である。
図34に示されるように、画像処理装置は、左目用画像41L及び右目用画像41Rを、時分割で交互に切り替えて表示する。
この状態で、ユーザが、シャッタメガネ321をかけて左目用画像41L及び右目用画像41Rを見たとする。このシャッタメガネ321は、左目用画像41L及び右目用画像41Rの表示タイミングに同期して時分割で交互に開放される左レンズ331Lと右レンズ331Rとを有している。すなわち、左目用画像41Lが表示されるとき、左レンズ331Lが開放され、右レンズ331Rが閉じられる。その結果、左目用画像41Lは左レンズ331Lを通して、ユーザの左目に映ることになる。一方、右目用画像41Rが表示されるとき、右レンズ331Rが開放され、左レンズ331Lが閉じられる。その結果、右目用画像41Rは右レンズ331Rを通して、ユーザの右目に映ることになる。上述したように、左目用画像41L及び右目用画像41Rの各々においては、各種オブジェクト(図34の例では、山や湖等のオブジェクト)は、所定の視差d分だけ離間して配置されている。従って、ユーザは、各種オブジェクトが3D表示されている、と視認することができる。
図35は、指向性を持つ光を用いた3D画像の表示の例について説明する図である。
図35に示されるように、表示部351は、指向性を持つ光を画素単位で出射することができる。そこで、図示せぬ画像処理装置は、表示部351から出射されてユーザの左目と右目との各々に届く光の方向を制御することによって、左目には左目用画像361Lだけを投影させ、右目には右目用画像361Rだけを投影させることができる。ここで、左目用画像361L及び右目用画像361Rの各々においては、左目用画像41L及び右目用画像41Rの各々と同様に、各種オブジェクト(図35の例では、三角柱のオブジェクト371)は、所定の視差d分だけ離間して配置されているとする。この場合、ユーザは、特別なメガネ等をかけずに裸眼のままで、各種オブジェクト(図35の例では、三角柱のオブジェクト371)が3D表示されている、と視認することができる。
本発明は、デジタルカメラ、パーソナルコンピュータ、携帯電話機、タッチパネル付きフォトフレーム等、奥行き方向を操作する操作部を備えた装置であって、画像を表示可能な装置に適用することができる。
11 パノラマ画像, 21 処理対象領域, 31L 左目用領域, 31R 右目用領域, 41L 左目用画像, 41R 右目用画像, 91 撮像装置, 114 電源ボタン, 115 シャッタボタン, 116 ズームボタン, 117 モードダイヤル, 118 操作ボタン, 119 タッチスクリーン, 120 液晶パネル, 121 タッチパネル, 135 記録デバイス, 136 CPU, 137 操作部, 161 記録処理部, 162 画像表示処理部, 163 3D画像生成処理部, 181 判定部, 182 撮影制御部, 183 記録指示部, 184 生成部, 201 表示制御部, 202 操作認識部, 203 視差設定部, 221 データ取得部, 222 設定部 , 223 抽出部, 224 生成部, 241 対応関係表, 261L 左目用背景画像, 261R 右目用背景画像, 271 前景オブジェクト, 291 スライダー, 301 調整ボタン

Claims (8)

  1. 3D画像のための左目用画像及び右目用画像の間の視差を、2D画像の奥行き方向に対する所定の操作が割り当てられた操作部の操作に応じて設定する視差設定手段と、
    前記視差設定手段により設定された前記視差の分だけ離間した位置に対応するオブジェクトをそれぞれ配置させた前記左目用画像及び前記右目用画像のデータを生成する3D画像生成手段と
    を備える画像処理装置。
  2. 前記操作部は、奥行き方向に対する所定の操作が割り当てられたハードウェアのボタン若しくはタッチパネルに表示されるソフトウェアのボタンである
    請求項1に記載の画像処理装置。
  3. 前記視差の可変範囲は、前記操作部の可動範囲に対応付けられており、
    前記視差設定手段は、前記操作部の前記可動範囲内の可動位置に対応付けられた大きさの前記視差を設定する
    請求項2に記載の画像処理装置。
  4. 被写体を撮影することによってパノラマ画像のデータを得る撮影手段
    をさらに備え、
    前記3D画像生成手段は、前記撮影手段により得られた前記パノラマ画像のデータを用いて、前記左目用画像及び前記右目用画像のデータを生成する
    請求項3に記載の画像処理装置。
  5. 1度の撮影指示により被写体に対して相対的に略水平方向に移動しながら一定の間隔毎に撮影することによって複数の画像のデータを得る撮影手段
    をさらに備え、
    前記3D画像生成手段は、前記撮影手段により得られた前記複数の画像のデータを用いて、前記左目用画像及び前記右目用画像のデータを生成する
    請求項3に記載の画像処理装置。
  6. 前記視差設定手段は、
    前記左目用画像及び前記右目用画像の少なくとも一部の領域の上にそれぞれ合成される前景オブジェクトの間の視差を、前記左目用画像及び前記右目用画像の間の視差として設定し、
    前記3D画像生成手段は、
    前記前景オブジェクトが所定位置に配置された前景画像のデータと、左目用背景画像のデータとを合成することによって、前記左目用画像のデータを生成し、
    前記前景オブジェクトが前記所定位置から前記視差の分だけずれた位置に配置された前景画像のデータと、右目用背景画像のデータとを合成することによって、前記右目用画像のデータを生成する
    請求項1に記載の画像処理装置。
  7. 3D画像のための左目用画像及び右目用画像の間の視差を、2D画像の奥行き方向に対する所定の操作が割り当てられた操作部の操作に応じて設定する視差設定ステップと、
    前記視差設定ステップの処理により設定された前記視差の分だけ離間した位置に対応するオブジェクトをそれぞれ配置させた前記左目用画像及び前記右目用画像のデータを生成する3D画像生成ステップと
    を備える画像処理方法。
  8. 3D画像のための左目用画像及び右目用画像の間の視差を、2D画像の奥行き方向に対する所定の操作が割り当てられた操作部の操作に応じて設定し、
    設定された前記視差の分だけ離間した位置に対応するオブジェクトをそれぞれ配置させた前記左目用画像及び前記右目用画像のデータを生成する
    ステップを含む制御処理をコンピュータに実行させるプログラム。
JP2010008132A 2010-01-18 2010-01-18 画像処理装置及び方法、並びにプログラム Withdrawn JP2011147067A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2010008132A JP2011147067A (ja) 2010-01-18 2010-01-18 画像処理装置及び方法、並びにプログラム
US12/956,227 US8686993B2 (en) 2010-01-18 2010-11-30 Image processing for controlling disparity in 3D images
EP20110150400 EP2360933A3 (en) 2010-01-18 2011-01-07 Image Processing Apparatus, Image Processing Method, and Program
CN2011100041934A CN102131099A (zh) 2010-01-18 2011-01-11 图像处理装置、图像处理方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010008132A JP2011147067A (ja) 2010-01-18 2010-01-18 画像処理装置及び方法、並びにプログラム

Publications (1)

Publication Number Publication Date
JP2011147067A true JP2011147067A (ja) 2011-07-28

Family

ID=43877267

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010008132A Withdrawn JP2011147067A (ja) 2010-01-18 2010-01-18 画像処理装置及び方法、並びにプログラム

Country Status (4)

Country Link
US (1) US8686993B2 (ja)
EP (1) EP2360933A3 (ja)
JP (1) JP2011147067A (ja)
CN (1) CN102131099A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140088450A (ko) * 2013-01-02 2014-07-10 엘지전자 주식회사 이동 단말기 및 이의 제어방법
JP2018500778A (ja) * 2014-09-26 2018-01-11 サムスン エレクトロニクス カンパニー リミテッド 3dパノラマイメージ生成のための映像生成装置及び方法
JP2019508928A (ja) * 2015-12-30 2019-03-28 クリエイティブ テクノロジー リミテッドCreative Technology Ltd 立体視画像シーケンスを作成するための方法

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5005080B2 (ja) * 2010-09-06 2012-08-22 キヤノン株式会社 パノラマ画像の生成方法
KR101723235B1 (ko) * 2010-10-04 2017-04-04 삼성전자주식회사 입체 영상의 입체감을 감쇠하기 위한 장치 및 방법
JP2013042301A (ja) * 2011-08-12 2013-02-28 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
JP5281720B1 (ja) * 2011-09-20 2013-09-04 パナソニック株式会社 立体映像処理装置及び立体映像処理方法
KR101888155B1 (ko) * 2011-11-22 2018-08-16 삼성전자주식회사 디스플레이 장치 및 그 디스플레이 방법
KR101804205B1 (ko) * 2012-03-15 2017-12-04 삼성전자주식회사 영상 처리 장치 및 방법
KR101370718B1 (ko) * 2012-10-26 2014-03-06 한국과학기술원 파노라마 이미지를 이용한 2d에서 3d로의 변환 방법 및 장치
CN102905076B (zh) * 2012-11-12 2016-08-24 深圳市维尚境界显示技术有限公司 一种3d立体拍摄智能控制的装置、系统及其方法
US9538081B1 (en) 2013-03-14 2017-01-03 Amazon Technologies, Inc. Depth-based image stabilization
US20150130915A1 (en) * 2013-11-08 2015-05-14 Nvidia Corporation Apparatus and system for dynamic adjustment of depth for stereoscopic video content
CN105120256A (zh) * 2015-07-31 2015-12-02 努比亚技术有限公司 移动终端及其通过拍摄3d图像合成图片的方法和装置
US10621690B2 (en) * 2015-09-17 2020-04-14 Qualcomm Incorporated Storing bandwidth-compressed graphics data
CN106060510B (zh) * 2016-05-31 2018-02-06 北京聚力维度科技有限公司 全景图片处理方法和装置
JP6840645B2 (ja) * 2017-09-08 2021-03-10 株式会社小松製作所 施工管理装置および施工管理方法
CN109151442B (zh) * 2018-09-30 2021-01-08 维沃移动通信有限公司 一种图像拍摄方法及终端
CN111754558B (zh) * 2019-03-26 2023-09-26 舜宇光学(浙江)研究院有限公司 用于rgb-d摄像系统与双目显像系统的匹配方法及其相关系统
CN112801874B (zh) * 2021-02-03 2024-04-05 广州六环信息科技有限公司 一种车辆图像拼接方法、装置和车辆
CN113245990A (zh) * 2021-07-05 2021-08-13 南通好的防腐装备有限公司 一种用于防腐管道生产的打磨装置
CN113949827B (zh) * 2021-09-30 2023-04-07 安徽尚趣玩网络科技有限公司 一种视频内容融合方法及装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0435491A (ja) 1990-05-30 1992-02-06 Nippon Hoso Kyokai <Nhk> 立体映像の画質制御回路
US6005607A (en) * 1995-06-29 1999-12-21 Matsushita Electric Industrial Co., Ltd. Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus
US6791598B1 (en) * 2000-03-17 2004-09-14 International Business Machines Corporation Methods and apparatus for information capture and steroscopic display of panoramic images
JP2001326947A (ja) * 2000-05-12 2001-11-22 Sony Corp 立体画像表示装置
JP4072674B2 (ja) * 2002-09-06 2008-04-09 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4635477B2 (ja) * 2003-06-10 2011-02-23 カシオ計算機株式会社 画像撮影装置、擬似3次元画像生成方法、及び、プログラム
JP2005100367A (ja) * 2003-09-02 2005-04-14 Fuji Photo Film Co Ltd 画像生成装置、画像生成方法、及び画像生成プログラム
GB2405764A (en) * 2003-09-04 2005-03-09 Sharp Kk Guided capture or selection of stereoscopic image pairs.
KR101345303B1 (ko) * 2007-03-29 2013-12-27 삼성전자주식회사 스테레오 또는 다시점 영상의 입체감 조정 방법 및 장치
US8018493B2 (en) * 2007-11-21 2011-09-13 Panasonic Corporation Image data transfer apparatus
US8233077B2 (en) * 2007-12-27 2012-07-31 Qualcomm Incorporated Method and apparatus with depth map generation
CN101527762A (zh) * 2008-03-04 2009-09-09 深圳华为通信技术有限公司 数码相框及立体图像显示方法
JP5190943B2 (ja) 2008-06-25 2013-04-24 有限会社清田製作所 2探針ケルビンプローブ
WO2011014419A1 (en) * 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for creating three-dimensional (3d) images of a scene

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140088450A (ko) * 2013-01-02 2014-07-10 엘지전자 주식회사 이동 단말기 및 이의 제어방법
KR101984097B1 (ko) * 2013-01-02 2019-05-30 엘지전자 주식회사 이동 단말기 및 이의 제어방법
JP2018500778A (ja) * 2014-09-26 2018-01-11 サムスン エレクトロニクス カンパニー リミテッド 3dパノラマイメージ生成のための映像生成装置及び方法
US10559063B2 (en) 2014-09-26 2020-02-11 Samsung Electronics Co., Ltd. Image generating apparatus and method for generation of 3D panorama image
JP2019508928A (ja) * 2015-12-30 2019-03-28 クリエイティブ テクノロジー リミテッドCreative Technology Ltd 立体視画像シーケンスを作成するための方法

Also Published As

Publication number Publication date
EP2360933A3 (en) 2013-03-20
EP2360933A2 (en) 2011-08-24
US20110175907A1 (en) 2011-07-21
CN102131099A (zh) 2011-07-20
US8686993B2 (en) 2014-04-01

Similar Documents

Publication Publication Date Title
JP2011147067A (ja) 画像処理装置及び方法、並びにプログラム
JP5214826B2 (ja) 立体パノラマ画像作成装置、立体パノラマ画像作成方法及び立体パノラマ画像作成プログラム並びに立体パノラマ画像再生装置、立体パノラマ画像再生方法及び立体パノラマ画像再生プログラム、記録媒体
JP5269252B2 (ja) 単眼立体撮像装置
JP5595499B2 (ja) 単眼立体撮像装置
JP5788518B2 (ja) 単眼立体撮影装置、撮影方法及びプログラム
CN109155815A (zh) 摄像装置及其设定画面
US20130113892A1 (en) Three-dimensional image display device, three-dimensional image display method and recording medium
US20110018970A1 (en) Compound-eye imaging apparatus
US10587860B2 (en) Imaging apparatus and method for controlling same
JP5647740B2 (ja) 視差調節装置及び方法、撮影装置、再生表示装置
JP4763827B2 (ja) 立体画像表示装置、複眼撮像装置及び立体画像表示プログラム
JPWO2012002046A1 (ja) 立体パノラマ画像合成装置及び複眼撮像装置並びに立体パノラマ画像合成方法
US20130314510A1 (en) Imaging device and imaging method
JP4683337B2 (ja) 画像表示装置及び画像表示方法
JP2006121229A (ja) ステレオカメラ
WO2012043003A1 (ja) 立体画像表示装置および立体画像表示方法
WO2013031392A1 (ja) 立体撮像装置
JP2021180366A (ja) 撮像装置及びその制御方法、並びにプログラム
JP5307189B2 (ja) 立体画像表示装置、複眼撮像装置及び立体画像表示プログラム
JP2012165247A (ja) 画像処理装置、撮影装置および画像処理プログラム

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130402