JP2012109934A - 立体画像表示装置 - Google Patents

立体画像表示装置 Download PDF

Info

Publication number
JP2012109934A
JP2012109934A JP2011131722A JP2011131722A JP2012109934A JP 2012109934 A JP2012109934 A JP 2012109934A JP 2011131722 A JP2011131722 A JP 2011131722A JP 2011131722 A JP2011131722 A JP 2011131722A JP 2012109934 A JP2012109934 A JP 2012109934A
Authority
JP
Japan
Prior art keywords
image
display
unit
stereoscopic
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011131722A
Other languages
English (en)
Inventor
Yoichi Sugino
陽一 杉野
Michihiro Yamagata
道弘 山形
Kenichi Hayashi
謙一 林
Shinji Yamaguchi
伸二 山口
Yoshinori Yoshiji
慶記 吉次
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2011131722A priority Critical patent/JP2012109934A/ja
Priority to US13/240,630 priority patent/US20120092457A1/en
Publication of JP2012109934A publication Critical patent/JP2012109934A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

【課題】立体表示された画像から任意の領域を違和感なく選択する。
【解決手段】表示装置100は、メモリ130と、表示部101と、操作部110と、制御部150と、を備える。メモリ130は、記憶部120に記憶された画像データを取得する。表示部101は、この取得された画像データに基づく画像を立体画像または平面画像として表示する。操作部110は、表示された平面画像の一部の領域の選択指示を受け付ける。制御部150は、メモリ130で取得された画像データに基づく画像を立体画像として表示している場合において、操作部110が選択指示を受付可能な状態になるのに応じて、メモリ130で取得された画像データに基づく画像を平面画像として表示するよう表示部101を制御する。
【選択図】図1

Description

本発明は、立体画像表示装置に関するものである。
近年、画像を立体表示できる様々な装置が提案・開発されている。例えば特許文献1には、立体視可能なコンテンツを再生できるコンテンツ再生装置が開示されている。
特開2005−267655号公報
ところで、立体表示された画像の一部を抽出し、その抽出された画像を別の立体画像に合成することができれば、利用者の娯楽性を高めることができる。
しかし、以下に説明するとおり、立体表示された画像から任意の領域を違和感なく選択することは困難である。
立体表示された画像は、表示画面の手前や奥に存在するように表示される。表示装置の利用者は、このように立体表示された画像には直接手で触れることができない。そのため、立体表示された画像の任意の領域を正確に指し示すことは難しい。特に表示画面よりも奥に見えている表示内容については、表示内容を指し示すことは不可能である。
立体表示された画像の任意の領域を選択する方法として、ポインタや枠などの選択用表示を用いる方法が考えられる。しかし、選択用表示自体が視差量を有していないため、立体表示された画像の任意の領域を選択する際に、立体表示された画像に選択用表示を違和感なく重畳表示することは容易ではない。例えば、立体画像よりも常に手前に選択用表示を表示しようとした場合、選択したい領域の奥行きと選択用表示の奥行きとが一致しないため、利用者には違和感が生じる。また、選択したい領域の奥行きと選択用表示の奥行きとを一致させようとした場合、画素ごとに奥行き情報の計算が必要になるため、計算量が増えたり、選択用表示の移動に応じて選択用表示の奥行きが逐一変わるため見づらくなったりするといった弊害が発生する。
本発明は上記課題に鑑みてなされたものであり、立体表示された画像を容易に選択したり編集したりすることができる立体画像表示装置を提供することを目的とする。
上記課題を解決するため、本発明の立体画像表示装置は、画像データを取得する取得手段と、前記取得された画像データに基づく画像を立体画像としてまたは平面画像として表示する表示手段と、前記表示された平面画像の一部の領域の選択指示を受け付ける受付手段と、前記取得手段で取得された画像データに基づく画像を立体画像として前記表示手段が表示している場合において、前記受付手段が前記選択指示を受付可能な状態になるのに応じて、前記取得手段で取得された画像データに基づく画像を平面画像として表示するよう前記表示手段を制御する制御手段と、を備える。
本発明の立体画像表示装置によれば、利用者が立体画像の任意の領域を選択する際に、立体表示が一時的に平面表示に切り替わる。これにより利用者は、平面画像を用いて任意の領域を選択することができるので、違和感なく任意の領域を選択することが可能になる。このように、利用者は立体表示された画像を容易に選択することができ、さらに編集することもできる。
実施の形態1の表示装置の構成を示すブロック図 実施の形態1の表示パネルの一部を示す概略的な平面断面図 (a)は、第1画像の任意の領域が選択枠表示により選択されている状態を示す図、(b)は、第1画像から抽出された画像を第2画像の任意の位置に合成した状態を示す図 第1画像から任意の領域を選択して、抽出する処理を示すフローチャート 抽出された画像を第2画像に合成する処理を示すフローチャート 実施の形態2の表示装置の構成を示すブロック図 (a)は、第1画像の任意の領域を選択している状態を示す図、(b)は、第1画像から抽出された画像を第2画像の任意の位置に合成した状態を示す図 実施の形態2の表示装置で抽出された画像の奥行きを調整する際の操作画面の一例を示す図 第1画像から任意の領域を選択し抽出する処理を示すフローチャート 抽出された画像を第2画像に合成する処理を示すフローチャート 近接センサによる処理を示すフローチャート (a)は、実施の形態3の、第1画像上で指をなぞり始めた状態を示す図、(b)は、実施の形態3の、第1画像上で指をなぞり終わった状態を示す図
以下、実施の形態について、図面を参照しながら説明する。
(実施の形態1)
図1は、実施の形態1における立体画像表示装置100の構成を示すブロック図である。図2は、表示部101の一部を示す概略的な平面断面図である。図3は、立体画像表示装置100の編集操作画面を示す概略図である。なお、これらの図では、立体画像表示装置100がデジタルスチルカメラに備えられている場合を示しているが、これに限るものではなく、その他の機器、例えば、スマートフォンや携帯電話などに備えられていてもよい。
立体画像表示装置100(以下、単に表示装置100と称する。)は、立体画像の表示および編集を行う装置である。図1に示すように表示装置100は、表示部101と、操作部110と、記憶部120と、メモリ130と、画像処理部140と、制御部150と、バス160と、を備えている。
表示部101は、画像データに基づく画像を立体画像として、または、平面画像として表示することができるディスプレイである。立体画像を表示する際、表示部101は、画像データに含まれる奥行き情報に基づいて立体画像を表示する。図2に示すように、表示部101は、表示パネル220と、表示パネルを制御するコントローラ装置(図示せず)と、画像の立体表示を実現するためのレンチキュラーレンズ210とで構成される。表示部101は、表示手段の一例である。
表示パネル220は、典型的にはプラズマディスプレイパネルや液晶ディスプレイパネルである。表示パネル220は、「R」で表された右目用画像と、「L」で表された左目用画像とを表示する。右目用画像と左目用画像は交互に配列されている。
レンチキュラーレンズ210は、断面凸形状のレンズがストライプ状に配置されたレンズであり、表示パネル220から発光された光の光路を右目用と左目用とに分けることができる。レンチキュラーレンズ210を通すことにより、利用者の右目には「R」で表された右目用画像が認識され、利用者の左目には「L」で表された左目用画像が認識される。右目用画像と左目用画像との間には視差があるため、利用者は画像の立体感を認識することができる。
操作部110は、上下左右の方向を指示可能な方向ボタンや決定ボタン、メニューボタンをはじめとする種々のボタン類から構成され、利用者からの入力を受け付ける。利用者は、これらの種々のボタン類を操作することで、表示部101に表示された画像の一部または全部の領域を選択することができる。つまり、操作部110は、表示部101に表示された画像の一部または全部の領域の選択指示を受け付ける受付手段の一例である。
記憶部120は、典型的にはハードディスクや不揮発性メモリなどに代表される記録媒体である。記憶部120には、編集対象となる画像データが蓄積されている。この画像データには立体画像データと平面画像データが含まれる。表示部101は、この画像データに基づいて立体画像や平面画像を表示する。立体画像とは例えば左右の視差を有する2枚の画像(右目用画像および左目用画像)であり、典型的にはJPEGなどの不可逆圧縮を施されて1つのファイルとして保存されている。また、記憶部120は、画像処理部140によって編集された情報を記録する。
メモリ130は、記憶部120から画像データを取得する取得手段の一例である。また、メモリ130は、編集中の画像データを一時的に記憶するRAM(Random Access Memory)である。操作部110によって選択された領域の一部または全部が、メモリ130に一時的に記憶される。
画像処理部140は、メモリ130上に読み込まれている編集対象の立体画像に対して、各種の画像処理を行う。各種の画像処理とは、例えば、立体画像の奥行き、色、輝度、位置等を編集する処理である。画像処理部140は、操作部110によって選択された第1画像の少なくとも一部の領域の画像を抽出し、抽出画像を生成することができる。画像処理部140は、抽出手段の一例である。また、画像処理部140は、この抽出画像を、第1画像とは異なる第2画像に合成することができる。画像処理部140は、合成手段の一例である。
制御部150は、表示装置100の各ブロックを統合的に制御する。また、制御部150は、表示部101に表示される画像を、立体表示から平面表示に切り替えることができる。具体的には、取得された画像データに基づく画像を立体画像として表示部101が表示している場合において、この取得された画像データに基づく画像を平面画像として表示するように表示部101を制御する。例えば、右目用画像のみを表示部101で表示することにより、立体表示された画像を平面表示に切り替えることができる。制御部150は、制御手段の一例である。
表示装置100を構成する主要なブロックは、バス160にて相互に接続されており、バス160を経由して画像データや各種制御信号等のやり取りが行われる。
次に、本実施形態の表示装置100における編集操作画面の一例を、図3を用いて説明する。図3(a)は、第1画像の任意の領域が選択枠表示300により選択されている状態を示す図であり、図3(b)は、第1画像から抽出された画像を第2画像の任意の位置に合成した状態を示す図である。図3(a)の表示部101に表示されている画像を第1画像と称し、図3(b)の表示部101に表示されている画像を第2画像と称する。
第1画像は人物を含む画像であり、第2画像は山を写した風景画像である。本実施形態では、第1画像に含まれる「人物」を抽出し、第2画像上に合成する方法について説明する。なお、合成用画像である第2画像は被写体の大きさやカメラから被写体までの距離に応じてそれぞれ撮影時のステレオベースを変えて撮影することが望ましく、前記第2画像のステレオベースが前記第1画像のステレオベースよりも大きいことがより好ましい。ステレオベースとは、右目用画像を撮像するためのレンズと、左目用画像を撮像するためのレンズとの間の距離のことである。例えば、人物などを至近距離(0.5〜3m程度)にて撮影する場合には、ステレオベースは10〜50mm程度が適切であり、建築物などを10m程度の距離から撮影する場合には40〜80mm程度が適切であり、さらに大きなものをより遠距離から撮影する場合には70mm以上が適切な値となる。
図3に示すように、操作部110は、操作部110a、110b、110cからなり、操作部110aは上下左右の方向を指示可能な操作ボタンである。操作部110bは決定動作を指示する決定ボタンである。操作部110cは画像の編集を開始することを指示する編集ボタンである。
選択枠表示300は、画像の任意の領域を指定することができる表示の一例であり、操作部110cの押下により表示される。利用者は、操作部110aを用いて選択枠表示300を表示部101内の任意の位置に移動させることができる。
選択枠表示300が表示される前、すなわち利用者が操作部110cを押下する前の状態では、表示部101には立体画像が表示されている。利用者が操作部110cを押下すること、すなわち選択動作の開始に応じて、立体表示されていた画像は平面表示に切り替えられる。利用者は、選択枠表示300を用いて、平面表示された画像の任意の領域を選択することができる。例えば図3(a)に示すように、選択枠表示300によって画像の中の人物が選択されると、選択された人物全体の画像が抽出される。抽出された画像は、例えば図3(b)に示されるように、図3(a)で表示された第1画像とは異なる第2画像の中に合成される。
次に、表示装置100を用いて合成画像を生成する処理についてフローチャートを用いて説明する。図4は、第1画像から任意の領域を選択し、抽出する処理を示すフローチャートである。
まず、表示部101に第1画像が立体表示される(S400)。この第1画像には、利用者が抽出したいと所望する領域が含まれている。記憶部120から読み出された立体画像ファイルは、右目用画像、左目用画像の2つの画像に分解され、それぞれ画像処理部140にて画像の復号化がなされ、メモリ130に格納される。その後、表示部101の解像度に合わせた縮小処理、レンチキュラーレンズ210の配置を考慮した間引き処理、および右目画像と左目画像の合成の処理が画像処理部140にて適宜行われた後、第1画像が表示部101に立体表示される。記憶部120に記憶されている立体画像ファイルが複数ある場合は、操作部110aの左右のボタンの操作により、複数の立体画像が表示部101に順次表示される。
表示部101に第1画像が立体表示された状態で、利用者が操作部110cを押下すると、第1画像の選択処理(編集処理)が開始される(S410)。
第1画像の選択処理(編集処理)が開始されると、表示部101の表示が、立体表示から平面表示に切り替えられる(S420)。具体的には、立体表示の際には右目用画像と左目用画像とを縦1ラインごとに交互に合成した画像を表示部101に表示していたが、本処理を行わず、右目用画像、左目用画像のいずれか一方を表示部101に表示する。本実施形態では便宜上、右目用画像を表示するものとする。利用者の右目にも左目にも同一の画像が映るようになるため、表示された画像は平面画像として認識されるようになる。そして、平面表示された第1画像の上に選択枠表示300が表示される。
平面表示された第1画像の上に選択枠表示300が表示されると、利用者は選択枠表示300を用いて第1画像の所望の領域を選択する(S430)。利用者は、操作部110aにて上下左右に選択枠表示300を移動させ、決定ボタンである操作部110bを押下することで、第1画像の所望の領域を選択することができる。利用者が選択枠表示300を用いて所望の領域を選択する場合、選択枠表示300の大きさよりも利用者が指定したい領域の大きさの方が大きくなることが多い。すなわち、利用者が指定した領域は、本来利用者が選択したい領域の一部であることが多い。例えば、利用者が画像から人体を選択しようとしても、選択枠表示300の大きさよりも画像に表示されている人体の大きさの方が大きい場合などである。このような場合、選択枠表示300により人体の一部が選択されることで、人体全体が選択されるように処理することが好ましい。そこで、本実施形態における表示装置100では、選択枠表示300が選択した画像の領域を元に利用者が選択したいであろう領域が推定されるとともに、推定された領域が選択され、さらに選択された領域が抽出される。具体的には、選択枠表示300内に人物の顔が存在していた場合は、顔を含む人物領域を検出し、検出した人体領域を選択領域とする。あるいは、選択枠表示300内に存在する色情報や輝度情報に基づき、周囲の類似領域を含めた領域を選択領域とする。あるいは選択枠表示300のエッジ領域を抽出し、選択枠表示300のエッジで囲まれた領域を選択領域としてもよい。他にも任意の領域を選択する方法は種々考えられるが、公知の方法を含めたいずれの方法を用いてもよい。あるいは複数の方法を組み合わせてもよい。更にはそれらの方法を利用者が選択できるように構成してもよい。なお、これらの画像処理は画像処理部140にて実施される。
第1画像の任意の領域が選択された後、その選択された領域が抽出される(S440)。抽出された画像は、右目用画像の画像データである。対応する左目用画像の画像データを得るため、左目用画像の中から、抽出した右目用画像ともっとも類似する画像領域が抽出される(S450)。これはテンプレートマッチングなどの既存の画像処理操作により実現が可能である。
以上の処理により、右目用画像、左目用画像双方において利用者の指定した画像領域を選択・抽出することができる。選択操作が完了すると、選択枠表示300が消去され、表示部101での表示が立体表示に戻される(S460)。
次に図5を用いて、抽出された画像を第2画像に合成する処理について説明する。図5は、抽出された画像を第2画像に合成する処理を示すフローチャートである。
まず、第1画像とは異なる第2画像が表示部101に立体表示される(S500)。所望の立体画像を表示する処理内容、および操作手順はステップS400と同一である。
合成対象である第2画像が表示部101に表示されたら、この第2画像に抽出された画像が重畳される(S510)。具体的には、表示部101に立体表示されている第2画像の右目用画像の所定の位置に、抽出された右目用画像を、表示部101に表示されている立体画像の左目用画像の所定の位置に、抽出された左目用画像を重畳する。この際、抽出された右目用画像と左目用画像との縦方向の座標は同一となるように重畳され、また、横方向の座標はあらかじめ定められた画素数分のずれが存在するように重畳される。あらかじめ定められた画素数分のずれとは、利用者から見て最も手前の位置に画像が立体的に表示されるように認識されるずれ量である。
第2画像の上に抽出された画像が重畳された後、抽出された画像の位置調整と奥行き調整が行われる(S520)。まず、利用者が操作部110aの上下左右のボタンを適宜押下することで、抽出された画像を所望の位置に移動させる。利用者により決定ボタンである操作部110bが押下されると、抽出された画像の位置が決定され、続いて抽出された画像の奥行きの調整が行えるようになる。利用者による操作部110aの上下ボタンの押下に応じて、抽出された画像の奥行きが増減される。奥行きの増減は、抽出された画像の右目用画像と左目用画像とのずれ量を変化させることで実現される。奥行き調整が完了したら、利用者により決定ボタンである操作部110bが押下され、抽出された画像の奥行きが確定する。
抽出された画像の位置調整および奥行き調整が完了すると、画像処理部140で右目用画像、左目用画像がそれぞれ圧縮されメモリ130に一時的に保存される。制御部150は、メモリ130上の圧縮された右目用画像と左目用画像を1つのファイルに結合し、画像サイズなどのヘッダ情報を付与した後、記憶部120にファイルを記録する。記憶部120に記録されるファイルには、抽出された画像の位置情報や奥行き情報を含めてもよい。このようにして合成画像が生成される。
本実施形態では、利用者による選択動作の開始に応じて、立体表示されていた画像が平面表示に切り替えられる。これにより、利用者は、表示部101に表示された画像の任意の領域を違和感なく選択することができる。したがって、利用者は従来よりも容易に立体画像の選択動作や編集処理を行うことができる。
また、記憶部120には、抽出された画像の位置情報や奥行き情報が保存されている。したがって、抽出された画像をまた別の画像に再度合成する場合に、これらの情報を利用することで、効率よく画像を合成することが可能となる。
また、上記のように、第1画像が人物などを含む画像であり、第2画像が山などの風景画像であり、第1画像に含まれる人物などを抽出し、第2画像上に合成する場合には、前記第2画像のステレオベースが前記第1画像のステレオベースよりも大きいことがより好ましい。このように、第2画像を建築物や風景を含む背景画とし、この第2画像に人物を含む第1画像を合成する場合、第2画像の撮影時のステレオベースは第1画像のステレオベースよりも大きくしておくことで、人物と背景画像との立体感のある画像を得ることができる。つまり、第2画像の撮影時のステレオベースが第1画像のステレオベースと同等であったり、小さくしたりすると、人物の画像が極めて立体感のないものとなってしまうが、上記構成によりこのような不具合を防止できる。
(実施の形態2)
次に、実施の形態2に係る表示装置600について説明する。実施の形態1と同様の構成には同じ符号を付与し、再度の説明を省略する場合がある。
図6は、実施の形態2の表示装置600の構成を示すブロック図である。表示装置600は、近接センサ610を備えている点で実施の形態1に係る表示装置100と構成が異なる。近接センサ610は、非接触で物体が近づいたことを検出可能なセンサであり、赤外線発光部および赤外線受光部を備えている。赤外線発光部から発光された赤外線は、対象物に当たって反射し、赤外線受光部にて受光される。赤外線受光部にて受光される赤外線の強さにより、近接センサ610は物体が近づいたことを検出する。
本実施形態の表示部101は、時分割立体テレビジョン方式により、画像を立体表示することができる。具体的には、左目用画像と右目用画像とをフィールド周期ごとに交互に表示するようにし、その画像を、表示部101のフィールド周期に同期して左目側と右目側を交互に開閉する液晶シャッターメガネを用いて見る方法である。また、表示部101の表示パネルはタッチパネルも備えており、表示パネルで接触された位置の座標を検出することができる。タッチパネルとしては、静電容量方式のものや電磁誘導方式のものを用いることができるが、これに限るものではない。
次に、本実施形態の表示装置600における編集操作画面の一例について図7を用いて説明する。図7(a)は、第1画像の任意の領域を利用者の指を用いて選択している状態を示す図であり、図7(b)は、第1画像から抽出された画像を第2画像の任意の位置に合成した状態を示す図である。実施の形態1と同様に、図7(a)の表示部101に表示されている画像を第1画像とし、図7(b)の表示部101に表示されている画像を第2画像とする。
図7(a)に示すように、近接センサ610は表示部101の下方に設置されている。使用者の指が表示部101に接近すると、表示部101の近くに配置された近接センサ610が指の接近を検出する。指の接近が検出されると、立体表示が平面表示に切り替えられる。利用者は平面表示された第1画像の任意の領域を選択し、選択された領域を抽出することができる。そして、図7(b)に示すように、利用者は抽出画像を第2画像の任意の位置に配置することができる。
図8は、本実施形態の表示装置600で抽出された画像の奥行きを調整する際の操作画面の一例を示す図である。表示部101には、抽出された画像が第2画像に重畳されて表示されている。
図8に示すように、表示部101には、抽出された画像の奥行きを調整するための奥行き調整用スライダ800を表示できるよう構成されている。そして、奥行き調整用スライダ800を指で動かすことにより、抽出された画像の奥行きを適宜修正することができる。例えば、奥行き調整用スライダ800を使用者の指で左側にスライドさせれば、抽出画像が手前に飛び出すように表示され、奥行き調整用スライダ800を使用者の指で右にスライドさせれば、抽出画像が奥に引っ込むように表示される。使用者の指の動きはタッチパネルにより検出され、奥行き調整用スライダ800の動きに反映される。
次に、合成画像を生成する処理についてフローチャートを用いて説明する。図9は、第1画像から任意の領域を選択し、抽出する処理を示すフローチャートである。また、図10、図11は、抽出された画像を第2画像に合成する処理を示すフローチャートである。
図9に示すように、まず、第1画像が表示部101に立体表示される(S900)。この第1画像には、利用者が抽出したいと所望する領域が含まれている。記憶部120から読み出された立体画像ファイルは、右目画像、左目画像の2つの画像に分解され、それぞれ、画像処理部140にて画像の復号化がなされ、メモリ130に格納される。その後、表示部101の解像度に合わせた縮小処理等が画像処理部140にて適宜行われた後、表示部101に表示される。
表示部101に第1画像が立体表示された状態で利用者の指が表示部101に近づくと、近接センサ610が指(または手)の接近を検知する(S910)。近接センサ610に反応があった場合、表示部101の表示が、立体表示から平面表示に切り替えられる(S920)。
第1画像が平面表示された状態で、利用者によりタッチパネルが長押しされると(S930)、利用者による領域の選択が開始可能となる(S940)。
次に、利用者は領域の選択を行う(S950)。具体的には、利用者がタッチパネルをタッチしたまま、選択したい領域を指でなぞっていくことで、選択領域が形成される。指を表示部101から離すと、選択された領域が決定され、その領域の画像が抽出される(S960)。抽出された画像は右目用画像の画像データである。対応する左目用画像の画像データを得るため、左目用画像の中から、抽出した画像ともっとも類似する画像領域が抽出される(S970)。これはテンプレートマッチングなどの既存の画像処理操作により実現が可能である。
以上の処理により、右目用画像、左目用画像双方において利用者の指定した画像領域を選択・抽出することができる。次に、図10、図11を用いて、抽出された画像を第2画像に合成する処理について説明する。図10は、抽出された画像を第2画像に合成する処理を示すフローチャートであり、図11は、近接センサによる処理を詳細に説明するフローチャートである。
図10に示すように、まず第1画像とは異なる第2画像が表示部101に表示される(S1000)。所望の立体画像を表示する処理内容、および操作手順はステップS900と同一である。合成対象の画像が表示部101に表示されたら、近接センサ610にて指や手といった物体の接近を判定し、表示部101の表示内容を適宜切り替える(S1010a)。ここで、ステップS1010aにおける処理について、図11を用いて詳細に説明する。まず、近接センサの出力をチェックし、指や手といった物体が接近しているかどうかを判定する(S1020)。物体が接近していると判定された場合は、表示部101の表示を平面表示にする(S1022)。次に、平面表示された画像に、図9に示すフローチャートに基づいて抽出された画像が合成されているかどうかが判定される(S1024)。すでに合成済みであれば、合成した画像の下部に、合成画像の奥行きを調整可能な奥行き調整スライダを表示し(S1026)、処理を終了する。ステップS1024において、平面表示された画像が合成済みでなければ特に何もせず処理を終了する。
一方、ステップS1020にて物体が接近していないと判定された場合、表示部101の表示を立体表示にする(S1027)。その後、図9に示すフローチャートに基づいて抽出された画像が合成されているかどうかが判定される(S1028)。すでに合成済みであれば、ステップS1029へと進み、合成した画像の下部に表示されている、合成画像の奥行きを調整可能な奥行き調整スライダ800を消去して(S1029)、処理を終了する。合成済みでなければ特に何もせず処理を終了する。
ステップS1010aにおける近接センサ処理終了後、ステップS1030に進み、表示部101のタッチパネルにおいて、同じ位置で一定時間以上タッチが継続されたかどうかが判定される(S1030)。表示部101のタッチパネルにて、同じ位置で一定時間以上タッチが継続された場合、図9に示すフローチャートの処理によって抽出された画像を、現在表示部101に立体表示されている第2画像と重畳させる(S1035)。重畳する位置は、タッチパネルがタッチされた位置である。具体的には、第2画像の右目用画像に、抽出された右目用画像を重畳し、第2画像の左目用画像に、抽出した左目用画像を重畳する。この際、抽出された右目用画像と左目用画像の縦方向の座標が同一となるように重畳される。また、抽出された右目用画像と左目用画像の横方向の座標は、あらかじめ定められた画素数分のずれが存在するように重畳される。あらかじめ定められた画素数分のずれとは、利用者から見て最も手前の位置に画像が立体的に表示されるように認識されるずれ量である。
ステップS1030において、同じ位置で一定時間以上のタッチの継続が検出されなかった場合、ステップS1010aに戻る。
ステップS1035において、抽出された画像が第2画像に重畳された後、近接センサによる処理が行われる(S1010b)。ステップS1010bの処理はステップS1010aと同様であるため説明は省略する。近接センサによる処理が終わると、続くステップS1040にて、タッチパネル上にて合成抽出された画像がドラッグされたかどうかが判定される(S1040)。ドラッグ動作が行われたと判定された場合、ステップS1045に進み、抽出された画像の位置がドラッグ動作に応じて変更される(S1045)。一方、ドラッグ操作が行われなかった場合、抽出された画像の位置はステップS1035にて重畳された位置で位置決めされる。
抽出された画像の位置が位置決めされた後、奥行き調整用スライダ800がドラッグされたかどうかが判定される(S1050)。奥行き調整用スライダ800がドラッグされたと判定された場合、ドラッグされた量に応じて、合成画像の奥行きが調整される(S1055)。奥行き調整用スライダのドラッグが行われなかった場合、抽出された画像は、ステップS1035で設定された奥行き(利用者から見て最も手前の位置)で設定される。
抽出された画像の奥行きが決められた後、表示部101のタッチパネルがダブルタップされた(指で2回軽く叩かれた)かどうかが判定される(S1060)。ダブルタップされたと判定された場合、抽出された画像の位置および奥行きが確定され、合成画像として保存される(S1065)。ダブルタップされていなければ、処理はステップS1010bに戻る。
ステップS1065では、まず画像処理部140で合成画像の右目用画像、左目用画像がそれぞれ圧縮され、メモリ130に一時的に保存される。制御部150は、メモリ130上の圧縮された右目用画像と左目用画像を1つのファイルに結合し、画像サイズなどのヘッダ情報を付与した後、記憶部120にファイルを記録する。
本実施形態では、近接センサが利用者の指や手の接近を検出することで、立体表示されていた画像が平面表示に切り替えられる。これにより、利用者は、表示部101に表示された画像の任意の領域を違和感なく選択することができる。したがって、利用者は従来よりも容易に立体画像の選択および編集を行うことができる。
(実施の形態3)
上述した実施形態では、何れの表示装置においても、立体画像を合成して編集する機能を有する場合を述べたが、編集する機能を有しない表示装置の場合にも適用できる。この実施の形態3に係る表示装置1200は、編集する機能については有していないが、実施の形態2と同様に、表示部101はタッチパネルを備えているとともに、表示部101の下方には、物体が近づいたことを検出する近接センサ610が設けられている。すなわち、本実施形態の表示装置1200は、編集する機能については有していないことと、後述するように選択時の表示機能を有する機能以外は、実施の形態3に係る表示装置600とかわらない。
本実施形態の表示装置1200では、図12(a)、(b)に示すように、表示部101上で指を右から左に、あるいは左から右になぞることにより、表示部101にて表示する画像を切り替えることができる。つまり、指を表示部101に近づけた際、近接センサ610にて指(あるいは手)の接近が検出される。近接センサ610により指(あるいは手)の接近が検出されている間、表示部101で表示している立体表示を平面表示に切り替える。具体的には、左目用画像と右目用画像とのフィールド周期ごとに交互に表示していた処理を、左目用画像、あるいは右目用画像のみを表示する処理に切り替える。本実施形態においては便宜上右目用画像を表示するものとする。利用者の右目にも左目にも同一の画像が映るようになるため、画像は平面として認識されるようになる。
近接センサ610にて指(あるいは手)の接近が検出されなくなったら、再び画像を立体表示するよう表示処理を変更する。
この実施形態でも、近接センサが利用者の指や手の接近を検出することで、立体表示されていた画像が平面表示に切り替えられる。これにより、利用者は、表示部101に表示された画像の任意の領域を違和感なく選択することができる。したがって、利用者は従来よりも容易に立体画像の選択を行うことができる。
また、上記実施形態では、タッチパネルを備えた表示部101とは別に近接センサ610を設けた場合を述べたが、近接センサ610を省いて、表示部101に指(あるいは手)の接近が検出されている間、または表示部101に指(あるいは手)の接触が検出されている間に、表示部101で表示している立体表示を平面表示に切り替えてもよい。
(まとめ)
上述した実施形態に係る表示装置100、600、1200は、取得手段としてのメモリ130と、表示手段としての表示部101と、受付手段としての操作部110と、制御手段としての制御部150と、を備える。メモリ130は、記憶部120に記憶された画像データを取得する。表示部101は、この取得された画像データに基づく画像を立体画像または平面画像として表示する。操作部110は、表示された平面画像の一部の領域の選択指示を受け付ける。制御部150は、メモリ130で取得された画像データに基づく画像を立体画像として表示している場合において、操作部130が選択指示を受付可能な状態になるのに応じて、メモリ130で取得された画像データに基づく画像を平面画像として表示するよう表示部101を制御する。
このような構成によれば、利用者による選択動作の開始に応じて、立体表示されていた画像が平面表示に切り替えられる。これにより、利用者は、表示部101に表示された画像の任意の領域を違和感なく選択することができる。したがって、利用者は従来よりも容易に立体画像を選択したり編集したりすることができる。
また、表示装置100、600、1200は、抽出手段としての画像処理部140を備える。画像処理部140は、制御部150による制御にしたがって表示部101が表示している平面画像から、操作部110で受け付けた選択指示にしたがって一部の領域を特定し、この特定された一部の領域を立体画像として表示する際に用いられる画像データをメモリ130で取得された画像データから抽出することができる。また、画像処理部140は、抽出された画像データを別の画像データに合成することができる。
また、表示装置100、600、1200は、調整手段としての、操作部110や奥行き調整用スライダ800を備える。操作部110や奥行き調整用スライダ800は、合成された画像データに基づく画像を立体画像として表示部101が表示している状態で、抽出された画像データの奥行きを調整する。このような構成により、利用者は、操作部110や奥行き調整用スライダ800を用いて容易に立体画像を編集することができる。
また、表示装置100、600、1200は、奥行きの調整が反映された画像データを記録する記録手段としての記録部120をさらに備える。このような構成により、奥行き調整された画像データをさらに別の画像データに合成させる場合に、これらの情報を利用することで効率よく画像を合成することが可能となる。
(その他の実施形態)
上述した実施形態1、2では、表示装置は表示および編集を行う装置として説明したが、表示装置の機能はこれに限られることはなく、実施形態3のように選択機能を有する表示装置にも用いられる。また、表示装置は上記実施形態のようにデジタルスチルカメラに搭載されていてもよいがこれに限るものではなく、テレビやレコーダー、パソコンなどに搭載されていてもよく、また、スマートフォンや携帯電話、タブレット型端末などに搭載されていてもよい。
実施形態2、3では、利用者の指や手を用いてタッチパネル操作を行っているが、タッチパネル操作はこれに限られない。例えば、タッチペンを用いてタッチパネルを操作してもよい。この場合、近接センサを用いる代わりに、タッチペンとパネルとの間で発生する電磁誘導を検知する方法で、タッチペンの接近を検出するようにしてもよい。
また、実施形態2、3では、利用者の指や手が近接センサや表示部に近接または接触した場合に、すなわち、近接または接触した瞬間に、立体表示から平面表示に切り換えた場合を述べたが、近接または接触した時間が所定の時間を越えた場合に立体表示から平面表示に切り換えるよう構成してもよい。
第2実施形態では、奥行き調整用スライダを操作することで、画像の奥行きを調整しているが、奥行きを調整する方法はこれに限られない。例えば、画像を利用者の指で押し込むような操作により、利用者が指でタッチしている時間や強さに応じて奥行きを調整してもよい。また、利用者が2本の指で画像をつまむような操作(いわゆるピンチイン操作)を行うことで、画像が奥側に表示され、2本の指を離すように操作(いわゆるピンチアウト操作)を行うことで、画像が手前側に表示されるように、いわゆるピンチ操作により奥行きを調整してもよい。
第3実施形態では、表示部上で指を右から左に、あるいは左から右になぞる際の指の接近などより、表示部にて表示する画像を立体表示から平面表示に切り替える場合を述べた。しかしさらに、利用者が2本の指を離すように操作(ピンチアウト操作)を行うことで、画像を拡大する際や、2本の指で画像をつまむような操作(ピンチイン操作)を行う際に、この時の指の表示部への接近や接触を検知して、表示部にて表示する画像を立体表示から平面表示に切り替えてもよい。
また、表示部にて表示する画像を立体表示から平面表示に切り替えることを受付ける他の方法として、加速度センサなどを備えた表示装置において、表示装置を揺らすと表示を切り替えたり、音声認識手段を有する表示装置において、所定の音声を認識した際に表示を切り替えたりしてもよい。
上述した実施形態では、表示装置は、第1画像から所望の領域を抽出して第2画像に合成する構成としたがこれに限らず、あらかじめ用意された第3画像や図形、文字等を選択し、第1画像や第2画像に合成するようにしてもよい。この場合、第3画像や図形は、記憶部120にあらかじめ記録される。
上述した実施形態では、立体表示方法として、レンチキュラーレンズを用いる方式と時分割立体テレビジョン方式とを例に挙げて説明したが、立体表示方法はこれらに限られず、別の表示方法を用いてもよい。例えば、例えば赤と青のカラーフィルタがついた眼鏡で映像を視聴するアナグリフ方式や、右目用画像と左目用画像を異なる偏光状態で投影し、偏光フィルタのついた眼鏡で映像を視聴する偏光眼鏡方式などを、立体表示方法として用いてもなんら問題はない。
上述した実施形態では、合成をするための立体画像を記憶部から読み出すよう構成したが、このような構成に限らず、例えばインターネットを通して画像を得る構成であってもよい。また、上記実施形態1、2では、第1画像の一部を選択して第2画像に合成する場合を述べたが、これに限るものではなく、第1画像の全部を選択して第2画像の一部に合成可能に構成してもよい。
上記実施の形態では、表示装置が一体化された装置である場合を述べたが、これに限るものではなく、例えば表示手段や制御手段が別体となっているものにも、適用可能である。
本発明の立体画像表示装置は、デジタルスチルカメラや、携帯電話、テレビやパーソナルコンピュータなどに対して好適に利用可能である。
100、600、1200 立体画像表示装置
101 表示部
110 操作部
120 記憶部
130 メモリ
140 画像処理部
150 制御部
160 バス
210 レンチキュラーレンズ
220 表示パネル
300 選択枠表示
610 近接センサ
800 奥行き調整用スライダ

Claims (9)

  1. 画像データを取得する取得手段と、
    前記取得された画像データに基づく画像を立体画像としてまたは平面画像として表示する表示手段と、
    前記表示された平面画像の少なくとも一部の領域の選択指示を受け付ける受付手段と、
    前記取得手段で取得された画像データに基づく画像を立体画像として前記表示手段が表示している場合において、前記受付手段が前記選択指示を受付可能な状態になるのに応じて、前記取得手段で取得された画像データに基づく画像を平面画像として表示するよう前記表示手段を制御する制御手段と、
    を備える立体画像表示装置。
  2. 前記制御手段による制御にしたがって前記表示手段が表示している平面画像から、前記受付手段で受け付けた選択指示にしたがって少なくとも一部の領域を特定し、前記特定された少なくとも一部の領域を立体画像として表示する際に用いられる画像データを、前記取得手段で取得された画像データから抽出する抽出手段をさらに備える、
    請求項1に記載の立体画像表示装置。
  3. 前記抽出された画像データを別の画像データに合成する合成手段をさらに備える、
    請求項2に記載の立体画像表示装置。
  4. 前記合成手段により合成された画像データに基づく画像を立体画像として前記表示手段が表示している状態で、前記抽出された画像データの奥行きを調整可能な調整手段をさらに備える、
    請求項3に記載の立体画像表示装置。
  5. 前記調整手段による奥行きの調整が反映された画像データを記録する記録手段をさらに備える、
    請求項4に記載の立体画像表示装置。
  6. 前記制御手段による制御にしたがって前記表示手段が表示している平面画像から、前記受付手段で受け付けた選択指示にしたがって少なくとも一部の領域を特定し、前記特定された少なくとも一部の領域に前記取得された画像データとは異なる画像データを合成する、合成手段をさらに備える、
    請求項1に記載の立体画像表示装置。
  7. 前記立体画像は、左右の視差を有する右目用画像と左目用画像とからなる、
    請求項1に記載の立体画像表示装置。
  8. 前記取得手段で取得された画像データに基づく画像を第1画像とし、前記別の画像データに基づく画像を第2画像としたとき、
    前記第1および第2画像は、立体画像を撮影可能なカメラ装置で撮影されたものであり、前記第1画像を撮影した時のステレオベースと第2画像を撮影した時のステレオベースとが互いに異なる、
    請求項3に記載の立体画像表示装置。
  9. 前記第2画像を撮影した際のステレオベースは、前記第1画像を撮影した際のステレオベースよりも広い、
    請求項8に記載の立体画像表示装置。
JP2011131722A 2010-10-19 2011-06-14 立体画像表示装置 Pending JP2012109934A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011131722A JP2012109934A (ja) 2010-10-19 2011-06-14 立体画像表示装置
US13/240,630 US20120092457A1 (en) 2010-10-19 2011-09-22 Stereoscopic image display apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010234315 2010-10-19
JP2010234315 2010-10-19
JP2011131722A JP2012109934A (ja) 2010-10-19 2011-06-14 立体画像表示装置

Publications (1)

Publication Number Publication Date
JP2012109934A true JP2012109934A (ja) 2012-06-07

Family

ID=45933820

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011131722A Pending JP2012109934A (ja) 2010-10-19 2011-06-14 立体画像表示装置

Country Status (2)

Country Link
US (1) US20120092457A1 (ja)
JP (1) JP2012109934A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014150506A (ja) * 2013-02-04 2014-08-21 Canon Inc 撮像装置およびその制御方法
WO2019150880A1 (ja) * 2018-01-30 2019-08-08 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101731343B1 (ko) * 2010-07-14 2017-04-28 엘지전자 주식회사 이동 단말기 및 그 제어방법
JP2013097593A (ja) * 2011-11-01 2013-05-20 Sony Corp 情報処理装置、情報処理方法及びプログラム
WO2013169259A1 (en) * 2012-05-10 2013-11-14 Intel Corporation Gesture responsive image capture control and/or operation on image
KR102101740B1 (ko) * 2013-07-08 2020-04-20 엘지전자 주식회사 이동 단말기 및 이의 제어방법
JP6347934B2 (ja) * 2013-10-11 2018-06-27 株式会社デンソーテン 画像表示装置、画像表示システム、画像表示方法、及び、プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005130310A (ja) * 2003-10-24 2005-05-19 Sony Corp 立体視画像処理装置
JP2008227865A (ja) * 2007-03-12 2008-09-25 Canon Inc 頭部装着型撮像表示装置及び画像生成装置
JP2009059113A (ja) * 2007-08-30 2009-03-19 Univ Waseda 立体画像生成装置およびプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4478639A (en) * 1977-12-27 1984-10-23 Three Dimensional Photography Corporation Method for stereoscopic photography
US6912293B1 (en) * 1998-06-26 2005-06-28 Carl P. Korobkin Photogrammetry engine for model construction
US8213711B2 (en) * 2007-04-03 2012-07-03 Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Industry, Through The Communications Research Centre Canada Method and graphical user interface for modifying depth maps

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005130310A (ja) * 2003-10-24 2005-05-19 Sony Corp 立体視画像処理装置
JP2008227865A (ja) * 2007-03-12 2008-09-25 Canon Inc 頭部装着型撮像表示装置及び画像生成装置
JP2009059113A (ja) * 2007-08-30 2009-03-19 Univ Waseda 立体画像生成装置およびプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014150506A (ja) * 2013-02-04 2014-08-21 Canon Inc 撮像装置およびその制御方法
WO2019150880A1 (ja) * 2018-01-30 2019-08-08 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US11327317B2 (en) 2018-01-30 2022-05-10 Sony Corporation Information processing apparatus and information processing method

Also Published As

Publication number Publication date
US20120092457A1 (en) 2012-04-19

Similar Documents

Publication Publication Date Title
EP2346263B1 (en) GUI providing method, and display apparatus and 3D image providing system using the same
US9741152B2 (en) Image processing apparatus, image processing method, and computer program
JP6070544B2 (ja) 映像表示装置および映像表示方法
JP6309749B2 (ja) 画像データ再生装置および画像データ生成装置
US20110126160A1 (en) Method of providing 3d image and 3d display apparatus using the same
JP2012109934A (ja) 立体画像表示装置
US20150350626A1 (en) Method for providing three-dimensional (3d) image, method for converting 3d message, graphical user interface (gui) providing method related to 3d image, and 3d display apparatus and system for providing 3d image
JP4925354B2 (ja) 画像処理装置、画像表示装置、撮像装置及び画像処理方法
WO2003081921A1 (fr) Procede de traitement d'images tridimensionnelles et dispositif
JP5488056B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP5851625B2 (ja) 立体視映像処理装置、立体視映像処理方法及び立体視映像処理用プログラム
US20120086714A1 (en) 3d image display apparatus and display method thereof
JPWO2011024352A1 (ja) 立体視画像編集装置および立体視画像編集方法
TW201301131A (zh) 影像處理裝置及方法,以及程式
JP2011166666A (ja) 画像処理装置、画像処理方法およびプログラム
JP5685079B2 (ja) 画像処理装置、画像処理プログラム、画像処理方法および画像処理システム
JPWO2019004073A1 (ja) 画像配置決定装置、表示制御装置、画像配置決定方法、表示制御方法及びプログラム
WO2011065191A1 (ja) 表示制御装置、表示制御方法、表示制御プログラム、コンピュータ読み取り可能な記録媒体、上記表示制御装置を備えた記録再生装置、音声出力装置、及び音声出力装置を備えた記録再生装置
KR20130059151A (ko) 이동 단말기 및 그 제어방법
JP2012257150A (ja) 立体映像撮像装置および立体映像再生装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140520

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140924