JP2012190184A - 画像処理装置および方法、並びにプログラム - Google Patents

画像処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP2012190184A
JP2012190184A JP2011052086A JP2011052086A JP2012190184A JP 2012190184 A JP2012190184 A JP 2012190184A JP 2011052086 A JP2011052086 A JP 2011052086A JP 2011052086 A JP2011052086 A JP 2011052086A JP 2012190184 A JP2012190184 A JP 2012190184A
Authority
JP
Japan
Prior art keywords
image
touch screen
display
unit
icon
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011052086A
Other languages
English (en)
Other versions
JP2012190184A5 (ja
Inventor
Maiko Nakagawa
舞子 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011052086A priority Critical patent/JP2012190184A/ja
Priority to TW101106738A priority patent/TW201301130A/zh
Priority to PCT/JP2012/001429 priority patent/WO2012120849A1/en
Priority to US13/984,095 priority patent/US9348485B2/en
Priority to CN2012100524597A priority patent/CN102685526A/zh
Publication of JP2012190184A publication Critical patent/JP2012190184A/ja
Publication of JP2012190184A5 publication Critical patent/JP2012190184A5/ja
Priority to US15/095,972 priority patent/US10222950B2/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional [3D], e.g. changing the user viewpoint with respect to the environment or object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】選択不可能なアイコンなどを、ユーザに確実に認識させるとともに、面白味に富んだ形態で表示させることができるようにする。
【解決手段】近接判定部181は、近接パネル121から出力される近接検知信号に基づいて、タッチスクリーン119に対するユーザの指などの近接の度合を判定する。選択可否判定部182は、近接判定部181から出力されたデータに含まれる情報に基づいて、ユーザが選択しようとしているオブジェクトを特定して、選択可能なオブジェクトであるか否かを判定する。視差調整部183は、選択不可能なオブジェクトについての3D表示に係る視差を設定する。3D画像生成部183は、視差に対応して定まる距離であって、基準点から同一距離だけ離間している左右の領域の各データを、左目用画像のデータ、および右目用画像のデータとして生成する。
【選択図】図7

Description

本発明は、画像処理装置および方法、並びにプログラムに関し、特に、選択不可能なアイコンなどを、ユーザに確実に認識させるとともに、面白味に富んだ形態で表示させることができるようにする画像処理装置および方法、並びにプログラムに関する。
従来より、GUI(Graphical User Interface)の機能の拡充が図られている。
例えば、アイコンを採用するGUIとしては、例えば、アイコン等を表示する液晶パネル等の表示パネルと、ユーザの指等のタッチを検出するタッチパネルとが一体的に構成されたタッチスクリーンに表示されるGUIがある。
タッチスクリーンを用いたGUIでは、タッチスクリーンに表示されたアイコンに、タッチがされると、そのアイコンに割り当てられた機能が実行される。
また、例えば、表示画面と指の近接を感知し、アイコンを拡大表示することができるようにする技術も提案されている(例えば、特許文献1、特許文献2参照)。
特開2006−236143号公報 特開2005−51876号公報
ところで、従来のGUI(Graphical User Interface)などにおいて、選択不可能な部品(アイコンなど)はグレーアウトされて表示されることが一般的であった。
しかしながら、近年のタッチスクリーンの表示機能は、着々と高度化しており、選択不可能なアイコンについても、より面白味に富んだ表示が期待される。
また、例えば、小型のタッチスクリーンを有する携帯可能な電子機器などにおいて、ユーザから見て、表示されているアイコンがグレーアウトされたアイコンであるか否かを判別することが難しい場合もある。このような場合、選択不可能であるにもかかわらず、ユーザが何度も選択操作を繰り返してしまうことがある。
本発明は、このような状況に鑑みてなされたものであり、選択不可能なアイコンなどを、ユーザに確実に認識させるとともに、面白味に富んだ形態で表示させることができるようにするものである。
本発明の一側面は、GUI部品を表示する表示部に対して、前記GUIを操作するための物体が近接したか否かを検知する近接検知部と、前記物体が近接した場合、操作される前記GUI部品を特定する部品特定部と、特定された前記GUI部品の操作の可否を判定する操作可否判定部と、前記GUI部品の操作の可否の判定の結果に基づいて、前記GUI部品が前記物体から遠ざかるように前記表示部の奥行き表示を制御するための画像データを生成する画像データ生成部とを備える画像処理装置である。
前記画像データ生成部は、前記物体が前記表示部に近接した度合に応じて前記表示部の奥行き表示を制御するための画像データを生成するようにすることができる。
前記近接の度合を予め設定された閾値と比較することで、前記比較の結果に対応して前記表示部の奥行き表示の制御に用いられる視差が設定されるようにすることができる。
前記画像データ生成部は、特定された前記GUI部品の画像の色が変化するように前記画像データを生成するようにすることができる。
前記画像データ生成部は、特定された前記GUI部品の画像の形が変化するように前記画像データを生成するようにすることができる。
前記GUI部品が、前記物体が近接してくる方向とは異なる方向に移動するとともに、前記物体から遠ざかるように表示させるための画像データが生成されるようにすることができる。
前記表示部は、視差バリア方式を採用した3Dディスプレイを有するようにすることができる。
前記近接検知部は、タッチスクリーンであるようにすることができる。
本発明の一側面は、近接検知部が、GUI部品を表示する表示部に対して、前記GUIを操作するための物体が近接したか否かを検知し、部品特定部が、前記物体が近接した場合、操作される前記GUI部品を特定し、操作可否判定部が、特定された前記GUI部品の操作の可否を判定し、画像データ生成部が、前記GUI部品の操作の可否の判定の結果に基づいて、前記GUI部品が前記物体から遠ざかるように前記表示部の奥行き表示を制御するための画像データを生成するステップを含む画像処理方法である。
本発明の一側面は、コンピュータを、GUI部品を表示する表示部に対して、前記GUIを操作するための物体が近接したか否かを検知する近接検知部と、前記物体が近接した場合、操作される前記GUI部品を特定する部品特定部と、特定された前記GUI部品の操作の可否を判定する操作可否判定部と、前記GUI部品の操作の可否の判定の結果に基づいて、前記GUI部品が前記物体から遠ざかるように前記表示部の奥行き表示を制御するための画像データを生成する画像データ生成部とを備える画像処理装置として機能させるプログラムである。
本発明の一側面においては、GUI部品を表示する表示部に対して、前記GUIを操作するための物体が近接したか否かが検知され、前記物体が近接した場合、操作される前記GUI部品が特定され、特定された前記GUI部品の操作の可否が判定され、前記GUI部品の操作の可否の判定の結果に基づいて、前記GUI部品が前記物体から遠ざかるように前記表示部の奥行き表示を制御するための画像データが生成される。
本発明によれば、選択不可能なアイコンなどを、ユーザに確実に認識させるとともに、面白味に富んだ形態で表示させることができる。
3D画像の生成手法について説明する図である。 3D画像を表示するディスプレイの構成例を示す図である。 視差バリアをONにして画像を表示した場合の例を示す図である。 視差バリアをOFFにして画像を表示した場合の例を示す図である。 本技術が適用される画像処理装置の一実施の形態としての撮像装置の外観構成例を示す図である。 図5の撮像装置の内部構成例を示すブロック図である。 CPUにより実行されるソフトウェアの機能的構成例を示すブロック図である。 タッチスクリーンに表示される画像の例を示す図である。 アイコンが選択される場合のタッチスクリーンの表示画面の遷移を説明する図である。 アイコンが選択される場合のタッチスクリーンの表示画面の遷移を説明する図である。 アイコンが選択される場合のタッチスクリーンの表示画面の遷移を説明する図である。 アイコン選択表示制御処理の例を説明する図である。 アイコンが選択される場合のタッチスクリーンの表示画面の遷移の別の例を説明する図である。 アイコンが選択される場合のタッチスクリーンの表示画面の遷移の別の例を説明する図である。 アイコンが選択される場合のタッチスクリーンの表示画面の遷移の別の例を説明する図である。 アイコンが選択される場合のタッチスクリーンの表示画面の遷移のさらに別の例を説明する図である。 アイコンが選択される場合のタッチスクリーンの表示画面の遷移のさらに別の例を説明する図である。 アイコンが選択される場合のタッチスクリーンの表示画面の遷移のさらに別の例を説明する図である。 アイコンが選択される場合のタッチスクリーンの表示画面の遷移のさらに別の例を説明する図である。 パーソナルコンピュータの構成例を示すブロック図である。
以下、図面を参照して、本発明の実施の形態について説明する。
以下に説明する実施の形態は、3D画像(3次元で表現された画像)を表示する。そこで、本発明の実施の形態の理解を容易なものとすべく、本発明の実施形態の説明の前に、左目用画像及び右目用画像から構成される3D画像の生成手法の概略について説明する。
図1は、3D画像の生成手法について説明する図である。
第1の生成手法は、2つのレンズが設けられた撮像装置を用いる手法である。すなわち、第1の生成手法では、ユーザ等は、このような撮像装置を、2つのレンズが略水平方向に配置されるように保持して、撮影を1度行う。すると、2つのレンズのうち、左側に位置するレンズを透過した光によって左目用画像のデータが生成され、右側に位置するレンズを透過した光によって右目用画像のデータが生成される。
なお、撮像装置などを用いずに、CG(Computer Graphics)により生成された画像に対応させて、左目用画像のデータ、および右目用画像のデータが生成されるようにしてもよい。
このようにして生成された左目用画像及び右目用画像の各々には、対応するオブジェクトが、撮像装置の2つのレンズ間の距離に応じた分だけ離間した位置にそれぞれ含まれる。ここで、左目用画像及び右目用画像の各々に含まれる対応するオブジェクトの略水平方向の配置位置の差分(すなわち、距離)を、以下、視差と称する。このような、視差が大きくなるほど、3D表示されるオブジェクトの奥行きが深くなる、すなわち、凹凸の度合いが強くなる、という特徴がある。従って、かかる特徴を有する視差は、3D表示されるオブジェクトの凹凸の度合いを決定づけるパラメータとして使用することができる。
図2は、上述したような3D画像を表示するディスプレイの構成例を示す図である。同図に示されるディスプレイは、いわゆる視差バリア方式と称される方式で3D画像を表示する3Dディスプレイ30であり、ユーザに3Dディスプレイ30を裸眼で観察させることにより、3D表示されるオブジェクトの凹凸を感じさせることができる。
図2に示されるように、3Dディスプレイ30は、表示層31と視差バリア層32により構成されている。表示層31には、水平方向に単位画素数(1列)毎に左目用の画像と右目用の画像が交互に表示されるようになされている。同図において、表示層31の左目用の画像が表示されている列は「L」と表示されており、右目用の画像が表示されている列は「R」と表示されている。
視差バリア層32は、表示層31の画像の列と同じ周期の列を有する格子状のバリアとされ、バリアの開口部の幅が表示層31の1列の画像の幅と等しく設定されている。ユーザが、視差バリア層32を介して表示層31に表示された画像を所定の距離から見ると、ユーザの左右の目に「L」と「R」の画像をそれぞれ分離して提示することができるので視差が発生する。
例えば、図3に示されるように、ユーザ40が、視差バリア層32を介して表示層31に表示された画像を所定の距離から見ると、ユーザ40の左目には、左目用の画像の列のみにより構成される画像が提示され、ユーザ40の右目には、右目用の画像の列のみにより構成される画像が提示される。同図の例では、ユーザ40の左目には、「L1(左目用の画像の第1列目を表している)」、・・・「Ln(左目用の画像の第n列目を表している)」、・・・「LN(左目用の画像の第N列目を表している)」の各列により構成される画像が提示されている。また、ユーザ40の右目には、「R1(右目用の画像の第1列目を表している)」、・・・「Rn(右目用の画像の第n列目を表している)」、・・・「RN(右目用の画像の第N列目を表している)」の各列により構成される画像が提示されている。
このように、ユーザ40に3Dディスプレイ30を裸眼で観察させることで、3D表示されるオブジェクトの凹凸を感じさせることができる。なお、視差バリア層32を介して観察される画像は、表示層31が本来有する水平方向の解像度の1/2の解像度しか表現することはできない。このため、3Dディスプレイ30は、図3に示されるように視差バリアをONにして画像を表示させることができるとともに、図4に示されるように視差バリアをOFFにして画像を表示させることもできるようになされている。
図4は、視差バリアをOFFにして画像を表示した場合の例を示す図である。図4の例の場合、表示層31の各列に表示された画像が、ユーザ40の左目および右目にそれぞれ提示されるようになされている。従って、視差バリアをOFFして画像を表示する場合、表示層31の各列に、左右の両目に提示させる画像「LR1」、「LR2」、・・・を表示させることで、表示層31が本来有する水平方向の解像度で画像を表示させることができる。ただし、図4に示される場合、ユーザに、視差を有する画像を提示することができないので、画像を3D表示させることはできず、2次元での表示(2D表示)のみさせることができる。
このように、3Dディスプレイ30は、図3に示されるように画像を3D表示させたり、図4に示されるように画像を2D表示させたりすることができるようになされている。
図5は、本技術が適用される画像処理装置の一実施の形態としての撮像装置50の外観構成例を示す図である。
図5Aは、撮像装置50の正面を、図5Bは、その背面をそれぞれ示している。
図5Aに示されるように、例えばデジタルカメラとして構成される撮像装置50の正面の向かって右側には、レンズ部111が設けられている。レンズ部111は、被写体からの光を集光するレンズやフォーカス(ピント)の調整をするためのフォーカスレンズ、絞り等の光学系その他から構成されている(いずれも図示せず)。レンズ部111は、撮像装置50の電源がオンにされたときに撮像装置50の筐体から突出し、撮像装置50の電源がオフにされたときに、撮像装置50の筐体内部に収納されるようになっている。図5Aでは、レンズ部111は、撮像装置50の筐体内部に収納された状態になっている。
撮像装置50の正面の、レンズ部111の右上には、AF(Auto Focus)補助光投光部112が設けられている。AF補助光投光部112は、レンズ部111の光学系の光軸方向に向かって、AF補助光としての光を照射することにより、被写体を照明する。これにより、例えば、暗い場所でも、被写体の画像を撮像して、その画像に基づいて、被写体にフォーカス(ピント)を合わせる、いわゆるオートフォーカス機能が働くようになっている。
撮像装置50の正面の中央上方には、ストロボ113が配置されている。
撮像装置50の上面の、正面側から見て右側には、電源をオン/オフするときに操作される電源ボタン114が設けられ、正面側から見て左側には、撮像されている画像を記録するときに操作されるシャッタボタン(レリーズボタン)115とが設けられている。
図5Bに示されるように、撮像装置50の背面の右上には、ズームボタン116が設けられている。
例えば、ユーザが、撮像装置50を用いて被写体を撮像する場合、望遠(Tele)の指示を行うときには、ズームボタン116のうちの「T」と印字された部分(以下、Tボタンと称する)を押下する。一方、ユーザは、広角(Wide)の指示を行うときには、ズームボタン116のうちの「W」と印字された部分(以下、Wボタンと称する)を押下する。なお、ユーザは、Tボタン又はWボタンの押下状態を継続することによって、望遠(Tele)又は広角(Wide)の連続指示を行うことができる。
ズームボタン116の下方には、モードダイヤル117が設けられている。モードダイヤル117は、撮像装置50の各種モードを選択するとき等に操作される。撮像装置50の動作モードとしては、例えば、被写体を撮影する撮影モードや、被写体が撮影された結果得られる撮影画像を表示させる画像表示モードが存在する。また、撮影モード時の各種操作に関連するモードとして、ストロボ113の発光を強制的にオン又はオフにするモードや、セルフタイマを使用するモード、後述する液晶パネル120にメニュー画面を表示するモード等が存在する。
モードダイヤル117の下方には、操作ボタン118が設けられている。操作ボタン118は、予め割り当てられた指示操作をユーザが行う場合に用いられる。
例えば、ユーザは、操作ボタン118を操作することで、メニュー画面におけるカーソルを移動させ、カーソルの配置位置に存在する項目を選択することができる。
タッチスクリーン119は、液晶パネル120とその上に配置された近接パネル121とが一体的になったもので、液晶パネル120によって各種の画像を表示するとともに、近接パネル121によって、ユーザの操作を受け付けることができる。
液晶パネル120は、例えば、図2乃至図4を参照して上述した3Dディスプレイ30と同様の構成を有するディスプレイとされ、必要に応じて画像を3D表示または2D表示することができるようになされている。
近接パネル121は、例えば、静電容量方式のタッチスクリーンと同様の方式により、静電容量の変化を検出し、ユーザの指などが近接したことを検出するようになされている。近接パネル121は、パネル上の所定の位置における静電容量の変化を検出し、その位置において、ユーザの指などがどの程度近接しているのかを表す信号を出力するようになされている。
図6は、図5の撮像装置50の内部構成例を示すブロック図である。
なお、図6では、図5のAF補助光投光部112、及びストロボ113の図示は、省略してある。
CCD(Charge Coupled Device)131は、タイミングジェネレータ(TG)141から供給されるタイミング信号に従って動作することにより、レンズ部111を介して入射する被写体からの光を受光して光電変換を行い、受光量に応じた電気信号としてのアナログの画像信号を、アナログ信号処理部132に供給する。
アナログ信号処理部132は、CPU(Central Processing Unit)136の制御にしたがい、CCD131からのアナログの画像信号を増幅等するアナログ信号処理を行い、そのアナログ信号処理の結果得られる画像信号を、A/D(Analog/Digital)変換部133に供給する。
A/D変換部133は、CPU136の制御にしたがい、アナログ信号処理部132からのアナログ信号の画像信号をA/D変換し、その結果得られるデジタル信号の画像のデータを、デジタル信号処理部134に供給する。
デジタル信号処理部134は、CPU136の制御にしたがい、A/D変換部133からの画像のデータに対し、ノイズ除去処理等のデジタル信号処理を施し、処理後の画像のデータを液晶パネル120に供給する。これにより、液晶パネル120には、供給された画像のデータに対応する画像、すなわち、撮影中の撮影画像(以下、スルー画と称する)が表示される。また、デジタル信号処理部134は、A/D変換部133からの画像のデータを、例えば、JPEG(Joint Photographic Experts Group)方式等で圧縮符号化し、その結果得られる圧縮符号化データを、記録デバイス135に供給して記録させる。さらに、デジタル信号処理部134は、記録デバイス135に記録された圧縮符号化データを伸張復号し、その結果得られる画像のデータを液晶パネル120に供給する。これにより、液晶パネル120には、供給された画像のデータに対応する画像、すなわち、記録された撮影画像が表示される。
また、デジタル信号処理部134は、CPU136の制御にしたがい、液晶パネル120に表示させるGUI(例えば、後述するメニュー画面)の表示を制御する。
記録デバイス135は、例えば、DVD(Digital Versatile Disc)等のディスクや、メモリカード等の半導体メモリその他のリムーバブルなリムーバブル記録媒体であり、撮像装置50に対して、容易に着脱可能になっている。記録デバイス135には、撮影画像のデータが記録される。
CPU136は、プログラムROM(Read Only Memory)139に記録されているプログラムを実行することにより、撮像装置50を構成する各部を制御し、また、近接パネル121からの信号や、操作部137からの信号に応じて、各種の処理を行う。
操作部137は、ユーザによって操作され、その操作に対応した信号を、CPU136に供給する。なお、操作部137には、図5に示した、電源ボタン114、シャッタボタン115、ズームボタン116、モードダイヤル117、操作ボタン118等が含まれる。
EEPROM(Electrically Erasable Programmable ROM)138は、CPU136の制御にしたがい、撮像装置50に設定された各種の情報その他の、撮像装置50の電源がオフにされたときも保持しておく必要があるデータ等を記憶する。
プログラムROM139は、CPU136が実行するプログラム、さらには、CPU136がプログラムを実行する上で必要なデータを記憶している。RAM(Read Only Memory)140は、CPU136が各種の処理を行う上で必要なプログラムやデータを一時記憶する。
タイミングジェネレータ141は、CPU136の制御にしたがい、タイミング信号を、CCD131に供給する。タイミングジェネレータ141からCCD131に供給されるタイミング信号によって、CCD131における露出時間(シャッタスピード)等が制御される。
モータドライバ142は、CPU136の制御にしたがい、モータにより構成されるアクチュエータ143を駆動する。アクチュエータ143が駆動されることにより、レンズ部111は、撮像装置50の筐体から突出し、あるいは、撮像装置50の筐体内部に収納される。また、アクチュエータ143が駆動されることにより、レンズ部111を構成する絞りの調整や、レンズ部111を構成するフォーカスレンズの移動が行われる。
以上のように構成される撮像装置50においては、CCD131が、レンズ部111を介して入射する被写体からの光を受光して光電変換を行い、その結果得られるアナログの画像信号を出力する。CCD131が出力するアナログの画像信号は、アナログ信号処理部132及びA/D変換部133を介することにより、デジタル信号の画像のデータとされ、デジタル信号処理部134に供給される。
デジタル信号処理部34は、A/D変換部133からの画像のデータを、液晶パネル120に供給し、これにより、液晶パネル120では、いわゆるスルー画が表示される。
その後、ユーザが、シャッタボタン115(図5)を操作すると、その操作に応じた信号が、操作部137からCPU136に供給される。CPU136は、操作部137から、シャッタボタン115の操作に応じた信号が供給されると、デジタル信号処理部134を制御し、そのときA/D変換部133からデジタル信号処理部134に供給された画像のデータを圧縮させ、その結果得られる圧縮画像のデータを、記録デバイス135に記録させる。
以上のようにして、いわゆる写真撮影が行われる。
また、CPU136は、所定のプログラムを実行することにより、3D画像の画像データを生成するようになされている。
3D画像を生成する場合、CPU136は、視差dを設定する。視差dが大きい値として設定された場合、視差を有する画像に表示されるオブジェクトの遠近感(3D表示されるオブジェクトの凹凸の度合い)も大きくなる。例えば、視差dが大きい値として設定された場合、画面を観察するユーザから見て、オブジェクトが画面から手前に大きく飛び出している(または画面の奥深くに引き込まれている)ように感じられる。
一方、視差dが小さい値として設定された場合、視差を有する画像に表示されるオブジェクトの遠近感(3D表示されるオブジェクトの凹凸の度合い)も小さくなる。例えば、視差dが小さい値として設定された場合、画面を観察するユーザから見て、オブジェクトが画面とほぼ同じ位置にあるように感じられる。
CPU136は、3D画像の生成の元となる画像のデータを取得し、3D表示させるべきオブジェクトが表示された処理対象領域を設定し、処理対象領域の水平方向の所定位置に基準点Pを設定する。そして、CPU136は、基準点Pに対して視差dに対応して定まる距離であって、同一距離だけ離間している左右の領域の各データを、左目用画像のデータ、および右目用画像のデータとして生成する。
このようにして生成された視差dを有する左目用画像のデータ、および右目用画像のデータに対応する画像を、タッチスクリーン119に表示させることにより、ユーザに3D画像を観察させることができる。
図7は、CPU136により実行されるプログラムなどのソフトウェアの機能的構成例を示すブロック図である。
近接判定部181は、近接パネル121から出力される近接検知信号に基づいて、タッチスクリーン119に対するユーザの指などの近接の度合を判定する。近接判定部181は、例えば、タッチスクリーン119からの距離が所定の閾値未満となるまでユーザの指などが近接した場合、近接判定部181はその旨を表す所定のデータを生成して出力する。また、近接していたユーザの指などがタッチスクリーン119からの距離が所定の閾値以上となるまで遠ざかった場合、近接判定部181はその旨を表すデータを生成して出力する。なお、近接判定部181により生成されるデータには、タッチスクリーン119(近接パネル121)のどの部分において、ユーザの指などが近接しているのかを表す情報も含まれている。
選択可否判定部182は、例えば、近接判定部181から出力されたデータに含まれるタッチスクリーン119のどの部分において、ユーザの指などが近接しているのかを表す情報に基づいて、ユーザが選択しようとしているオブジェクトを特定する。例えば、タッチスクリーン119に表示されているアイコンなどが、ユーザが選択しようとしているオブジェクトとして特定される。
そして、選択可否判定部182は、特定されたオブジェクトが選択可能なオブジェクトであるか否かを判定する。すなわち、当該アイコンなどのオブジェクトに割り当てられた機能などを実行することが許可されているか否かが判定される。例えば、ストロボ113の発光を強制的にオフにするモードでの撮影が行われる際には、ストロボ113を発光させる設定を行うアイコンは選択可能ではない(選択不可能な)オブジェクトであると判定される。
特定されたオブジェクトが選択可能なオブジェクトではない(選択不可能なオブジェクト)と判定された場合、選択可否判定部182は、視差調整部183にその旨を表す情報を出力する。
視差調整部183は、選択可否判定部182により特定されたオブジェクトが選択不可能なオブジェクトである場合、当該オブジェクトについての3D表示に係る視差を設定する。3D画像の視差は、例えば、近接判定部181から出力されるデータに基づいて、ユーザの指などの近接の度合が特定され、その近接の度合に基づいて設定される。例えば、ユーザの指が第1の閾値未満の距離まで近接していると特定された場合、視差d1が設定され、ユーザの指が第1の閾値より小さい第2の閾値未満の距離まで近接していると特定された場合、視差d1より大きい視差d2が設定される。
また、視差調整部183は、3D画像の生成の元となる画像(例えば、後述するメニュー画面の画像)のデータを取得し、3D表示させるべきオブジェクトが表示された処理対象領域を特定する。このとき、例えば、選択可否判定部182により特定されたオブジェクトが3D表示させるべきオブジェクトとして特定され、視差調整部183は、例えば、3D表示させるべきオブジェクトの中心位置に基準点Pを設定する。
視差調整部183により設定された視差と基準点Pに係る情報は、3D画像生成部184に出力される。
3D画像生成部184は、上述したように、視差に対応して定まる距離であって、上述した基準点から同一距離だけ離間している左右の領域の各データを、左目用画像のデータ、および右目用画像のデータとして生成する。これにより、3D画像のデータが生成されたことになる。
図8は、タッチスクリーン119に表示される画像の例を示している。同図は、例えば、撮像装置50において、上述したモードダイヤル117によりメニュー画面を表示するモードが選択されているときに表示されるメニュー画面とされる。
このメニュー画面には、各種のアイコンが表示されている。例えば、図中右側上部には、ごみ箱のアイコン201が表示されている。
ユーザは、タッチスクリーン119に表示されたアイコンに指を近接することで、所望のアイコンを選択することができる。アイコンが選択されると、そのアイコンに対応する機能が実行されたり、所定の設定が行われたりするようになされている。
例えば、ユーザが、予め記録デバイス135に記録されている撮影画像のデータのサムネイル(図示せず)などを選択した状態でアイコン201を選択した場合、当該サムネイルに対応する画像データが削除されるようになされている。
一方、ユーザが撮影画像のデータのサムネイルなどを選択していない状態では、アイコン201は選択不可能なアイコンとなる。
図9乃至図11を参照して、ユーザによりアイコン201が選択される場合のタッチスクリーン119の表示画面の遷移について説明する。
図9Aは、ユーザの視線からタッチスクリーン119を見た画像の例を示す図である。図9Aに示されるように、ユーザが指221をタッチスクリーン119のアイコン201が表示されている部分に近接させる。いまの場合、まだ、指221は、タッチスクリーン119に十分に近接していないものとする。例えば、指221のタッチスクリーン119からの距離が閾値Th1以上であるものとする。
図9Bは、ユーザがタッチスクリーン119を観察した結果感じられる、タッチスクリーン119のアイコン201と指221との仮想的な距離の感覚を説明する図であり、タッチスクリーン119を図9Aの図中左方向から見た図である。なお、同図は、3D画像によりユーザが感じる遠近感を説明するものであり、実際には、アイコン201は、タッチスクリーン119の表面に表示されている画像(すなわち、厚みや奥行がない平面的存在)にすぎない。
図9Bに示されるように、アイコン201は、タッチスクリーン119の奥に引き込まれていない。すなわち、指221のタッチスクリーン119からの距離が閾値Th1以上であるため、視差のある画像が生成されず、ユーザから見たアイコン201は、タッチスクリーン119の表面上に位置しているように見えるのである。
図10Aは、ユーザの視線からタッチスクリーン119を見た画像の別の例を示す図である。図10Aに示されるように、ユーザが指221をタッチスクリーン119のアイコン201が表示されている部分にさらに近接させる。いまの場合、例えば、指221のタッチスクリーン119からの距離が閾値Th1未満、閾値Th2以上であるものとする。
図10Bは、ユーザがタッチスクリーン119を観察した結果感じられる、タッチスクリーン119のアイコン201と指221との仮想的な距離の感覚を説明する図であり、タッチスクリーン119を図10Aの図中左方向から見た図である。なお、同図は、3D画像によりユーザが感じる遠近感を説明するものであり、実際には、アイコン201は、タッチスクリーン119の表面に表示されている画像(すなわち、厚みや奥行がない平面的存在)にすぎない。
図10Bに示されるように、アイコン201が、タッチスクリーン119の奥に引き込まれており、指221から遠ざかっている。すなわち、指221のタッチスクリーン119からの距離が閾値Th1未満となったため、視差のある画像が生成され、ユーザから見たアイコン201は、タッチスクリーン119の奥に引き込まれているように見えるのである。
なお、ここでは、アイコンがタッチスクリーン119の表面から図中下方向に移動した(ように見える)状態を、「タッチスクリーン119の奥に引き込まれている」と表現している。
図11Aは、ユーザの視線からタッチスクリーン119を見た画像のさらに別の例を示す図である。図11Aに示されるように、ユーザが指221をタッチスクリーン119のアイコン201が表示されている部分にさらに近接させる。いまの場合、例えば、指221のタッチスクリーン119からの距離が閾値Th2未満であるものとする。
図11Bは、ユーザがタッチスクリーン119を観察した結果感じられる、タッチスクリーン119のアイコン201と指221との仮想的な距離の感覚を説明する図であり、タッチスクリーン119を図11Aの図中左方向から見た図である。なお、同図は、3D画像によりユーザが感じる遠近感を説明するものであり、実際には、アイコン201は、タッチスクリーン119の表面に表示されている画像(すなわち、厚みや奥行がない平面的存在)にすぎない。
図11Bに示されるように、アイコン201が、タッチスクリーン119のさらに奥に引き込まれている。すなわち、指221のタッチスクリーン119からの距離が閾値Th2未満となったため、さらに大きい視差のある画像が生成され、ユーザから見たアイコン201は、タッチスクリーン119のさらに奥に引き込まれているように見えるのである。
このようにすることで、ユーザは、アイコン201が選択不可能なアイコンであることを確実に実感することができる。このようにすることで、ユーザに対してアイコンの選択操作をフィードバックさせることができ、アイコン201を選択できないことを確実に実感させることができる。
また、単にアイコン201をグレーアウトさせる場合などと異なり、3D表示による面白味のある画面を提示することができる。
さらに、メニュー画面が3D表示される際、所定の効果音などが出力されるようにしてもよい。
次に、図12のフローチャートを参照して、撮像装置50によるアイコン選択表示制御処理の例について説明する。この処理は、例えば、撮像装置50が、タッチスクリーン119を介してユーザの操作を受け付けるとき実行される。
ステップS21において、CPU136は、デジタル信号処理部134を制御して、液晶パネル120(タッチスクリーン119)にメニュー画面を表示させる。
これにより、例えば、図8を参照して上述したようなメニュー画面が表示される。
ステップS22において、近接判定部181は、ユーザの指221の近接を検知したか否かを判定し、まだ、近接していないと判定された場合、処理は、ステップS21に戻る。例えば、図9に示されるような状態の場合、ユーザの指221がまだ近接していないと判定される。
ステップS22において、ユーザの指221の近接を検知したと判定された場合、処理は、ステップS23に進む。例えば、図10に示されるような状態の場合、ユーザの指221の近接を検知したと判定される。例えば、指221のタッチスクリーン119からの距離が閾値Th1未満となった場合、ユーザの指221の近接を検知したと判定される。
ステップS23において、選択可否判定部182は、ユーザが選択しようとしているアイコンを特定する。このとき、例えば、近接判定部181から出力されたデータに含まれるタッチスクリーン119のどの部分において、ユーザの指などが近接しているのかを表す情報に基づいて、ユーザが選択しようとしているアイコンが特定される。
ステップS24において、選択可否判定部182は、ステップS23の処理で特定されたオブジェクトが選択不可能なオブジェクトであるか否かを判定する。ステップS24において、当該オブジェクトが選択不可能なオブジェクトであると判定された場合、処理は、ステップS25に進む。
ステップS25において、視差調整部183は、タッチスクリーン119と指221との距離を特定する。タッチスクリーン119と指221との距離は、例えば、近接判定部181から出力されるデータに基づいて得られる近接の度合に基づいて特定される。
ステップS26において、視差調整部183は、3D画像生成部184により生成される3D画像の視差を設定する。このとき、例えば、ステップS25で特定された距離に対応する視差が設定される。例えば、ユーザの指が第1の閾値未満の距離まで近接していると特定された場合、視差d1が設定され、ユーザの指が第1の閾値より小さい第2の閾値未満の距離まで近接していると特定された場合、視差d1より大きい視差d2が設定される。
また、このとき、例えば、選択可否判定部182により特定されたオブジェクトが3D表示させるべきオブジェクトとして特定され、視差調整部183は、例えば、3D表示させるべきオブジェクトの中心位置に基準点Pを設定する。
ステップS27において、3D画像生成部184は、ステップS26の処理で設定された視差と基準点に基づいて、左目用画像のデータ、および右目用画像のデータとして生成する。これにより、3D画像のデータが生成されたことになる。そして、3D画像のデータに基づいて、タッチスクリーン119のメニュー画面が3D表示される。
このようにして、アイコン選択表示制御処理が実行される。このようにすることで、例えば、図9乃至図11を参照して上述したように、ユーザが指221を近接させるとアイコン201がタッチスクリーン119の奥に引き込まれているように感じられる。そして、ユーザが指221をさらに近接させると、アイコン201がタッチスクリーン119のさらに奥に引き込まれているように感じられる。
従って、3D表示を用いた面白味のある表現により、アイコン201が選択不可能なアイコンであることを、ユーザに確実に実感させることができる。
なお、上述した例では、指を近接させるとタッチスクリーンからアイコンが奥に引き込まれるように見えるように表示させる例について説明したが、別の方式で表示されるようにしてもよい。例えば、タッチスクリーンから飛び出しているように見えたアイコンが、指を近接させると沈んでいくように見えるように表示させてもよい。要は、指を近接させるとアイコンが遠ざかっていくように見える表示データが生成されるようにすればよい。
ところで、図9乃至図11を参照して上述した例においては、ユーザが指221を近接させると、アイコン201がタッチスクリーン119の画面の垂直下方向に移動する(ように見える)例について説明したが、アイコン201が別の方向に移動するようにしてもよい。
図13乃至図14は、ユーザによりアイコン201が選択される場合のタッチスクリーン119の表示画面の遷移の別の例について説明する図である。
図13Aは、ユーザの視線からタッチスクリーン119を見た画像の例を示す図である。図13Aに示されるように、ユーザが指221をタッチスクリーン119のアイコン201が表示されている部分に近接させる。いまの場合、まだ、指221は、タッチスクリーン119に十分に近接していないものとする。例えば、指221のタッチスクリーン119からの距離が閾値Th1以上であるものとする。
図13Bは、ユーザがタッチスクリーン119を観察した結果感じられる、タッチスクリーン119のアイコン201と指221との仮想的な距離の感覚を説明する図であり、タッチスクリーン119を図13Aの図中下方向から見た図である。なお、同図は、3D画像によりユーザが感じる遠近感を説明するものであり、実際には、アイコン201は、タッチスクリーン119の表面に表示されている画像にすぎない。
図13Bに示されるように、アイコン201は、タッチスクリーン119の奥に引き込まれていない。すなわち、指221のタッチスクリーン119からの距離が閾値Th1以上であるため、視差のある画像が生成されず、ユーザから見たアイコン201は、タッチスクリーン119の表面上に位置しているように見えるのである。
図14Aは、ユーザの視線からタッチスクリーン119を見た画像の別の例を示す図である。図14Aに示されるように、ユーザが指221をタッチスクリーン119のアイコン201が表示されている部分にさらに近接させる。いまの場合、例えば、指221のタッチスクリーン119からの距離が閾値Th1未満、閾値Th2以上であるものとする。
図14Bは、ユーザがタッチスクリーン119を観察した結果感じられる、タッチスクリーン119のアイコン201と指221との仮想的な距離の感覚を説明する図であり、タッチスクリーン119を図14Aの図中下方向から見た図である。なお、同図は、3D画像によりユーザが感じる遠近感を説明するものであり、実際には、アイコン201は、タッチスクリーン119の表面に表示されている画像にすぎない。
図14Bに示されるように、アイコン201が、タッチスクリーン119の奥に引き込まれており、指221から遠ざかっている。すなわち、指221のタッチスクリーン119からの距離が閾値Th1未満となったため、視差のある画像が生成され、ユーザから見たアイコン201は、タッチスクリーン119の奥に引き込まれているように見えるのである。
また、図14Bの場合、図10Bの場合と異なり、アイコン201が図中下側右方向に移動している。
図15Aは、ユーザの視線からタッチスクリーン119を見た画像のさらに別の例を示す図である。図15Aに示されるように、ユーザが指221をタッチスクリーン119のアイコン201が表示されている部分にさらに近接させる。いまの場合、例えば、指221のタッチスクリーン119からの距離が閾値Th2未満であるものとする。
図15Bは、ユーザがタッチスクリーン119を観察した結果感じられる、タッチスクリーン119のアイコン201と指221との仮想的な距離の感覚を説明する図であり、タッチスクリーン119を図15Aの図中下方向から見た図である。なお、同図は、3D画像によりユーザが感じる遠近感を説明するものであり、実際には、アイコン201は、タッチスクリーン119の表面に表示されている画像にすぎない。
図15Bに示されるように、アイコン201が、タッチスクリーン119のさらに奥に引き込まれている。すなわち、指221のタッチスクリーン119からの距離が閾値Th2未満となったため、さらに大きい視差のある画像が生成され、ユーザから見たアイコン201は、タッチスクリーン119のさらに奥に引き込まれているように見えるのである。
また、図15Bの場合、図11Bの場合と異なり、アイコン201が図中下側右方向にさらに移動している。
図13乃至図15を参照して上述したように3D表示させると、あたかもアイコン201がユーザの指221から逃げていくように感じられる。このようにすることで、より確実に、アイコン201が選択不可能なアイコンであることを、ユーザに実感させることができる。
なお、図14Bと図15Bでは、指221を近接させると、アイコン201が図中下側右方向に移動する(ように見える)例について説明したが、勿論、図中下側左方向などの方向に移動する(ように見える)ようにしてもよい。つまり、指221がタッチスクリーン119に対して近接してくる方向(例えば、図14Bと図15Bの垂直下方向)とは異なる方向にアイコン201を移動させるようにすればよい。
あるいはまた、ユーザが逃げていくアイコン201を再度選択しようとした場合、アイコン201がさらに逃げていくように感じられる3D表示が行われるようにしてもよい。
図16乃至図19は、ユーザによりアイコン201が選択される場合のタッチスクリーン119の表示画面の遷移のさらに別の例について説明する図である。
図16Aは、ユーザの視線からタッチスクリーン119を見た画像の例を示す図である。図16Aに示されるように、ユーザが指221をタッチスクリーン119のアイコン201が表示されている部分に近接させる。いまの場合、まだ、指221は、タッチスクリーン119に十分に近接していないものとする。例えば、指221のタッチスクリーン119からの距離が閾値Th1以上であるものとする。
図16Bは、ユーザがタッチスクリーン119を観察した結果感じられる、タッチスクリーン119のアイコン201と指221との仮想的な距離の感覚を説明する図であり、タッチスクリーン119を図16Aの図中下方向から見た図である。
図16Bに示されるように、アイコン201は、タッチスクリーン119の奥に引き込まれていない。すなわち、指221のタッチスクリーン119からの距離が閾値Th1以上であるため、視差のある画像が生成されず、ユーザから見たアイコン201は、タッチスクリーン119の表面上に位置しているように見えるのである。なお、同図は、3D画像によりユーザが感じる遠近感を説明するものであり、実際には、アイコン201は、タッチスクリーン119の表面に表示されている画像にすぎない。
図17Aは、ユーザの視線からタッチスクリーン119を見た画像の別の例を示す図である。図17Aに示されるように、ユーザが指221をタッチスクリーン119のアイコン201が表示されている部分にさらに近接させる。いまの場合、例えば、指221のタッチスクリーン119からの距離が閾値Th1未満、閾値Th2以上であるものとする。
図17Bは、ユーザがタッチスクリーン119を観察した結果感じられる、タッチスクリーン119のアイコン201と指221との仮想的な距離の感覚を説明する図であり、タッチスクリーン119を図17Aの図中下方向から見た図である。なお、同図は、3D画像によりユーザが感じる遠近感を説明するものであり、実際には、アイコン201は、タッチスクリーン119の表面に表示されている画像にすぎない。
図17Bに示されるように、アイコン201が、タッチスクリーン119の奥に引き込まれており、指221から遠ざかっている。すなわち、指221のタッチスクリーン119からの距離が閾値Th1未満となったため、視差のある画像が生成され、ユーザから見たアイコン201は、タッチスクリーン119の奥に引き込まれているように見えるのである。また、アイコン201が図中下側右方向に移動している。ここまでは、図13および図14を参照して上述した場合と同様である。
図18Aは、ユーザの視線からタッチスクリーン119を見た画像のさらに別の例を示す図である。図18Aに示されるように、図17でアイコン201が右方向に移動したことに伴って、ユーザが指221を、右方向に移動させている。すなわち、ユーザは、逃げていくアイコン201を再度選択しようとしているのである。なお、同図においては、指を点線で描くことにより指の移動を表している。
図18Bは、ユーザがタッチスクリーン119を観察した結果感じられる、タッチスクリーン119のアイコン201と指221との仮想的な距離の感覚を説明する図であり、タッチスクリーン119を図18Aの図中下方向から見た図である。なお、同図は、3D画像によりユーザが感じる遠近感を説明するものであり、実際には、アイコン201は、タッチスクリーン119の表面に表示されている画像にすぎない。
図18Bにおいては、ユーザが指221を右方向に移動させたためアイコン201の図中垂直上方向に指221が位置する状態となっている。
図19Aは、ユーザの視線からタッチスクリーン119を見た画像のさらに別の例を示す図である。図19Aに示されるように、ユーザが指221をタッチスクリーン119のアイコン201が表示されている部分にさらに近接させる。いまの場合、例えば、指221のタッチスクリーン119からの距離が閾値Th2未満であるものとする。
図19Bは、ユーザがタッチスクリーン119を観察した結果感じられる、タッチスクリーン119のアイコン201と指221との仮想的な距離の感覚を説明する図であり、タッチスクリーン119を図19Aの図中下方向から見た図である。なお、同図は、3D画像によりユーザが感じる遠近感を説明するものであり、実際には、アイコン201は、タッチスクリーン119の表面に表示されている画像にすぎない。
図19Bに示されるように、アイコン201が、タッチスクリーン119のさらに奥に引き込まれている。すなわち、指221のタッチスクリーン119からの距離が閾値Th2未満となったため、さらに大きい視差のある画像が生成され、ユーザから見たアイコン201は、タッチスクリーン119のさらに奥に引き込まれているように見えるのである。また、図19Bに示されるように、アイコン201がさらに図中下側右方向に移動している。
なお、図17B、図18B、および図19Bでは、指221を近接させると、アイコン201が図中下側右方向に移動する(ように見える)例について説明したが、勿論、図中下側左方向などの方向に移動する(ように見える)ようにしてもよい。つまり、指221がタッチスクリーン119に対して近接してくる方向(例えば、図17B、図18B、および図19Bの垂直下方向)とは異なる方向にアイコン201を移動させるようにすればよい。
図16乃至図19を参照して上述したように3D表示させると、あたかもアイコン201がユーザの指221から逃げていくように感じられる。そして、ユーザが逃げていくアイコン201を再度選択しようとした場合、アイコン201がさらに逃げていくように感じられる。つまり、選択不可能なアイコン201を追いかけても、アイコン201が指221から逃げていくように感じられる。このようにすることで、より確実に、アイコン201が選択不可能なアイコンであることを、ユーザに実感させることができるとともに、3D表示を用いた面白味のある画像を提示することができる。
なお、図14、図15、図17乃至図19に示されるように、アイコン201が、タッチスクリーン119の奥に引き込まれる際に、アイコン201の色が変化するようにしてもよい。このようにすることで、より確実に、アイコン201が選択不可能なアイコンであることを、ユーザに実感させることができる。
あるいはまた、アイコン201が、タッチスクリーン119の奥に引き込まれる際に、アイコン201の形が変化するようにしてもよい。例えば、アイコン201がねじれたように見えるように、形が変化して表示されるようにしてもよい。このようにすることで、さらに、面白味のある画像を提示することができる。
以上においては、本技術を撮像装置50に適用する例について説明したが、撮像装置以外の別の電子機器に本技術を適用してもよい。タッチスクリーンなどを用いた操作を行う機器であれば、本技術を適用することが可能である。
また、以上においては、指でタッチスクリーンに表示されたアイコンなどを操作する例について説明したが、例えば、スタイラスペンなどを用いてタッチスクリーンに表示されたアイコンなどを操作する場合であっても、本技術を適用することができる。
さらに、以上においては、タッチスクリーンに表示されたメニュー画面の中のアイコンが選択される際に3D表示が行われる例について説明したが、本技術の適用はこれに限られるものではない。要は、タッチスクリーンに何等かのGUIが表示されており、GUIの部品が操作されるものであれば、本技術を適用することが可能である。
例えば、タッチスクリーンに表示されたサムネイル画像などが選択される際に3D表示が行われるようにしてもよい。例えば、従来の技術のようにサムネイル画像などをグレーアウト表示する場合と比較して、本技術を適用した場合には、サムネイル画像をもとの色のままで表示させることができるので、より美しい画面を表示させることができる。
また、以上においては、視差バリア方式が採用された3Dディスプレイを有するタッチスクリーンにより3D表示させる場合の例について説明したが、視差バリア方式以外の方式で3D表示させる場合であっても、本発明を適用することができる。例えば、レンチキュラー方式を採用した3Dディスプレイを有するタッチスクリーンが用いられるようにしてもよい。
あるいはまた、ユーザに裸眼で観察させる3Dディスプレイではなく、ユーザに特殊なメガネなどを装着させて観察させる3Dディスプレイを有するタッチスクリーンが用いられるようにしてもよい。
なお、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば図20に示されるような汎用のパーソナルコンピュータ700などに、ネットワークや記録媒体からインストールされる。
図20において、CPU(Central Processing Unit)701は、ROM(Read Only Memory)702に記憶されているプログラム、または記憶部708からRAM(Random Access Memory)703にロードされたプログラムに従って各種の処理を実行する。RAM703にはまた、CPU701が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU701、ROM702、およびRAM703は、バス704を介して相互に接続されている。このバス704にはまた、入出力インタフェース705も接続されている。
入出力インタフェース705には、キーボード、マウスなどよりなる入力部706、LCD(Liquid Crystal display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部707、ハードディスクなどより構成される記憶部708、モデム、LANカードなどのネットワークインタフェースカードなどより構成される通信部709が接続されている。通信部709は、インターネットを含むネットワークを介しての通信処理を行う。
入出力インタフェース705にはまた、必要に応じてドライブ710が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア711が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部708にインストールされる。
上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、インターネットなどのネットワークや、リムーバブルメディア711などからなる記録媒体からインストールされる。
なお、この記録媒体は、図20に示される、装置本体とは別に、ユーザにプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フロッピディスク(登録商標)を含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)(登録商標)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア711により構成されるものだけでなく、装置本体に予め組み込まれた状態でユーザに配信される、プログラムが記録されているROM702や、記憶部708に含まれるハードディスクなどで構成されるものも含む。
なお、本明細書において上述した一連の処理は、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
50 撮像装置, 119 タッチスクリーン, 120 液晶パネル, 121 近接パネル 134 デジタル信号処理部, 136 CPU, 137 操作部, 138 EEPROM, 139 プログラムROM, 140 RAM, 181 近接判定部, 182 選択可否判定部, 183 視差調整部, 184 3D画像生成部, 201 アイコン

Claims (10)

  1. GUI部品を表示する表示部に対して、前記GUIを操作するための物体が近接したか否かを検知する近接検知部と、
    前記物体が近接した場合、操作される前記GUI部品を特定する部品特定部と、
    特定された前記GUI部品の操作の可否を判定する操作可否判定部と、
    前記GUI部品の操作の可否の判定の結果に基づいて、前記GUI部品が前記物体から遠ざかるように前記表示部の奥行き表示を制御するための画像データを生成する画像データ生成部と
    を備える画像処理装置。
  2. 前記画像データ生成部は、
    前記物体が前記表示部に近接した度合に応じて前記表示部の奥行き表示を制御するための画像データを生成する
    請求項1に記載の画像処理装置。
  3. 前記近接の度合を予め設定された閾値と比較することで、前記比較の結果に対応して前記表示部の奥行き表示の制御に用いられる視差が設定される
    請求項2に記載の画像処理装置。
  4. 前記画像データ生成部は、特定された前記GUI部品の画像の色が変化するように前記画像データを生成する
    請求項1に記載の画像処理装置。
  5. 前記画像データ生成部は、特定された前記GUI部品の画像の形が変化するように前記画像データを生成する
    請求項1に記載の画像処理装置。
  6. 前記GUI部品が、前記物体が近接してくる方向とは異なる方向に移動するとともに、前記物体から遠ざかるように表示させるための画像データが生成される
    請求項1に記載の画像処理装置。
  7. 前記表示部は、視差バリア方式を採用した3Dディスプレイを有する
    請求項1に記載の画像処理装置。
  8. 前記近接検知部は、タッチスクリーンである
    請求項1に記載の画像処理装置。
  9. 近接検知部が、GUI部品を表示する表示部に対して、前記GUIを操作するための物体が近接したか否かを検知し、
    部品特定部が、前記物体が近接した場合、操作される前記GUI部品を特定し、
    操作可否判定部が、特定された前記GUI部品の操作の可否を判定し、
    画像データ生成部が、前記GUI部品の操作の可否の判定の結果に基づいて、前記GUI部品が前記物体から遠ざかるように前記表示部の奥行き表示を制御するための画像データを生成するステップ
    を含む画像処理方法。
  10. コンピュータを、
    GUI部品を表示する表示部に対して、前記GUIを操作するための物体が近接したか否かを検知する近接検知部と、
    前記物体が近接した場合、操作される前記GUI部品を特定する部品特定部と、
    特定された前記GUI部品の操作の可否を判定する操作可否判定部と、
    前記GUI部品の操作の可否の判定の結果に基づいて、前記GUI部品が前記物体から遠ざかるように前記表示部の奥行き表示を制御するための画像データを生成する画像データ生成部とを備える画像処理装置として機能させる
    プログラム。
JP2011052086A 2011-03-09 2011-03-09 画像処理装置および方法、並びにプログラム Pending JP2012190184A (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2011052086A JP2012190184A (ja) 2011-03-09 2011-03-09 画像処理装置および方法、並びにプログラム
TW101106738A TW201301130A (zh) 2011-03-09 2012-03-01 影像處理設備及方法和電腦程式產品
PCT/JP2012/001429 WO2012120849A1 (en) 2011-03-09 2012-03-02 Image processing apparatus and method, and computer program product
US13/984,095 US9348485B2 (en) 2011-03-09 2012-03-02 Image processing apparatus and method, and computer program product
CN2012100524597A CN102685526A (zh) 2011-03-09 2012-03-02 图像处理设备和方法,和计算机程序产品
US15/095,972 US10222950B2 (en) 2011-03-09 2016-04-11 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011052086A JP2012190184A (ja) 2011-03-09 2011-03-09 画像処理装置および方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2012190184A true JP2012190184A (ja) 2012-10-04
JP2012190184A5 JP2012190184A5 (ja) 2014-03-20

Family

ID=46797822

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011052086A Pending JP2012190184A (ja) 2011-03-09 2011-03-09 画像処理装置および方法、並びにプログラム

Country Status (5)

Country Link
US (2) US9348485B2 (ja)
JP (1) JP2012190184A (ja)
CN (1) CN102685526A (ja)
TW (1) TW201301130A (ja)
WO (1) WO2012120849A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014127836A (ja) * 2012-12-26 2014-07-07 Japan Display Inc 立体表示装置における映像表示方法
JP2014219812A (ja) * 2013-05-07 2014-11-20 富士通株式会社 入力装置および入力プログラム
CN106030464A (zh) * 2014-02-21 2016-10-12 微软技术许可有限责任公司 使用接近度感测来调整在移动设备上所提供的信息
JP2022000731A (ja) * 2020-06-19 2022-01-04 ブラザー工業株式会社 プログラムおよび電子デバイス

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5507773B1 (ja) * 2012-07-13 2014-05-28 太郎 諌山 要素選択装置、要素選択方法、および、プログラム
EP2749209A1 (en) * 2012-12-28 2014-07-02 Canon Kabushiki Kaisha Object information acquisition apparatus, display method, and program
WO2016094928A1 (en) * 2014-12-18 2016-06-23 Halgo Pty Limited Replicating effects of optical lenses
CN105094553B (zh) * 2015-07-24 2018-05-18 广州久邦世纪科技有限公司 一种子菜单栏特效的实现方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001195170A (ja) * 2000-01-17 2001-07-19 Funai Electric Co Ltd 携帯型電子機器、入力制御装置、及び記憶媒体
JP2004280496A (ja) * 2003-03-17 2004-10-07 Kyocera Mita Corp 操作パネル装置
JP2005316790A (ja) * 2004-04-30 2005-11-10 Nippon Telegr & Teleph Corp <Ntt> 情報入力方法および情報入出力装置並びにプログラム
JP2006236143A (ja) * 2005-02-25 2006-09-07 Sony Ericsson Mobilecommunications Japan Inc 入力処理プログラム、携帯端末装置、及び入力処理方法
JP2008509473A (ja) * 2004-08-03 2008-03-27 マイクロソフト コーポレーション 多平面3次元ユーザ・インターフェース

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9606791D0 (en) * 1996-03-29 1996-06-05 British Telecomm Control interface
JP3949333B2 (ja) * 1999-04-12 2007-07-25 富士通株式会社 画像計測方法、画像計測装置、および画像計測プログラム記憶媒体
JP2002082745A (ja) * 2000-09-07 2002-03-22 Sony Corp 情報処理装置及び方法、並びにプログラム格納媒体
GB0105801D0 (en) * 2001-03-09 2001-04-25 Koninkl Philips Electronics Nv Apparatus
JP4098680B2 (ja) 2003-07-31 2008-06-11 矢崎総業株式会社 ヒューズキャビティおよび電気接続箱
JP4325449B2 (ja) * 2004-03-19 2009-09-02 ソニー株式会社 表示制御装置,表示制御方法,記録媒体
JP4608947B2 (ja) * 2004-05-26 2011-01-12 カシオ計算機株式会社 液晶表示装置
ATE552478T1 (de) * 2004-06-03 2012-04-15 Making Virtual Solid L L C Navigationsanzeigeverfahren und vorrichtung für unterwegs unter verwendung eines head-up-displays
KR100832355B1 (ko) * 2004-10-12 2008-05-26 니폰 덴신 덴와 가부시끼가이샤 3차원 포인팅 방법, 3차원 표시제어방법, 3차원 포인팅장치, 3차원 표시 제어장치, 3차원 포인팅 프로그램, 및3차원 표시제어 프로그램
KR101109582B1 (ko) * 2004-11-02 2012-02-06 삼성전자주식회사 영상 확대/축소 위치 제어 장치 및 방법
WO2006074290A2 (en) * 2005-01-07 2006-07-13 Gesturetek, Inc. Optical flow based tilt sensor
KR20070119018A (ko) * 2005-02-23 2007-12-18 크레이그 써머스 3d 카메라 및 3d비디오를 위한 자동 씬 모델링
CA2623503A1 (en) * 2005-10-07 2007-04-19 Nokia Corporation A graphical user interface, a method, a device and a computer program for providing a menu and/or inputting an access code
US8279168B2 (en) * 2005-12-09 2012-10-02 Edge 3 Technologies Llc Three-dimensional virtual-touch human-machine interface system and method therefor
JP4707034B2 (ja) * 2006-07-07 2011-06-22 株式会社ソニー・コンピュータエンタテインメント 画像処理方法、入力インタフェース装置
US8166421B2 (en) * 2008-01-14 2012-04-24 Primesense Ltd. Three-dimensional user interface
CN101587386B (zh) * 2008-05-21 2011-02-02 华为终端有限公司 光标处理方法、装置及系统
US9092053B2 (en) * 2008-06-17 2015-07-28 Apple Inc. Systems and methods for adjusting a display based on the user's position
CN101308445B (zh) * 2008-06-26 2010-10-13 无敌科技(西安)有限公司 在图片背景下有效凸显菜单图标的方法
KR101558210B1 (ko) * 2008-08-05 2015-10-19 엘지전자 주식회사 터치 스크린을 구비한 이동 단말기 및 이를 이용한 메시지처리 방법
JP5111312B2 (ja) * 2008-09-16 2013-01-09 任天堂株式会社 3次元画像処理プログラム、3次元画像処理装置、3次元画像処理システムおよび3次元画像処理方法
US20100115471A1 (en) * 2008-11-04 2010-05-06 Apple Inc. Multidimensional widgets
WO2011003171A1 (en) * 2009-07-08 2011-01-13 Smart Technologies Ulc Three-dimensional widget manipulation on a multi-touch panel
US10198854B2 (en) * 2009-08-14 2019-02-05 Microsoft Technology Licensing, Llc Manipulation of 3-dimensional graphical objects for view in a multi-touch display
JP5531497B2 (ja) * 2009-08-18 2014-06-25 ソニー株式会社 表示装置及び表示方法
US9104275B2 (en) * 2009-10-20 2015-08-11 Lg Electronics Inc. Mobile terminal to display an object on a perceived 3D space
KR101613555B1 (ko) * 2009-10-26 2016-04-19 엘지전자 주식회사 이동 단말기
US8302031B1 (en) * 2010-04-14 2012-10-30 Symantec Corporation Systems and methods for configuring information displayed on a screen
KR101334107B1 (ko) * 2010-04-22 2013-12-16 주식회사 굿소프트웨어랩 차량용 멀티미디어 제어를 위한 사용자 인터페이스 장치 및 방법
US8565830B2 (en) * 2010-05-12 2013-10-22 Lg Electronics Inc. Mobile terminal and method of displaying 3D images thereon
US20120056989A1 (en) * 2010-09-06 2012-03-08 Shimane Prefectural Government Image recognition apparatus, operation determining method and program
US20120117514A1 (en) * 2010-11-04 2012-05-10 Microsoft Corporation Three-Dimensional User Interaction
US8589822B2 (en) * 2010-12-10 2013-11-19 International Business Machines Corporation Controlling three-dimensional views of selected portions of content
US9618972B2 (en) * 2011-01-20 2017-04-11 Blackberry Limited Three-dimensional, multi-depth presentation of icons in association with differing input components of a user interface
JP5765070B2 (ja) * 2011-06-13 2015-08-19 ソニー株式会社 表示切換装置、表示切換方法、表示切換プログラム
JP2013123970A (ja) * 2011-12-14 2013-06-24 Toshiba Corp 表示装置
WO2015029318A1 (ja) * 2013-08-26 2015-03-05 パナソニックIpマネジメント株式会社 3次元表示装置および3次元表示方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001195170A (ja) * 2000-01-17 2001-07-19 Funai Electric Co Ltd 携帯型電子機器、入力制御装置、及び記憶媒体
JP2004280496A (ja) * 2003-03-17 2004-10-07 Kyocera Mita Corp 操作パネル装置
JP2005316790A (ja) * 2004-04-30 2005-11-10 Nippon Telegr & Teleph Corp <Ntt> 情報入力方法および情報入出力装置並びにプログラム
JP2008509473A (ja) * 2004-08-03 2008-03-27 マイクロソフト コーポレーション 多平面3次元ユーザ・インターフェース
JP2006236143A (ja) * 2005-02-25 2006-09-07 Sony Ericsson Mobilecommunications Japan Inc 入力処理プログラム、携帯端末装置、及び入力処理方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014127836A (ja) * 2012-12-26 2014-07-07 Japan Display Inc 立体表示装置における映像表示方法
JP2014219812A (ja) * 2013-05-07 2014-11-20 富士通株式会社 入力装置および入力プログラム
CN106030464A (zh) * 2014-02-21 2016-10-12 微软技术许可有限责任公司 使用接近度感测来调整在移动设备上所提供的信息
JP2022000731A (ja) * 2020-06-19 2022-01-04 ブラザー工業株式会社 プログラムおよび電子デバイス

Also Published As

Publication number Publication date
US10222950B2 (en) 2019-03-05
US20130318480A1 (en) 2013-11-28
US9348485B2 (en) 2016-05-24
CN102685526A (zh) 2012-09-19
TW201301130A (zh) 2013-01-01
WO2012120849A1 (en) 2012-09-13
US20160224200A1 (en) 2016-08-04

Similar Documents

Publication Publication Date Title
KR101817653B1 (ko) 디지털 촬영 장치, 그 제어 방법, 및 컴퓨터 판독가능 저장매체
JP2012190184A (ja) 画像処理装置および方法、並びにプログラム
JP6214236B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
CN103858043B (zh) 摄像设备及其控制方法
CN202551243U (zh) 图像处理设备和控制单元
US8686993B2 (en) Image processing for controlling disparity in 3D images
CN107547800B (zh) 控制装置的相机的方法及其装置
CN113545030B (zh) 通过移动相机自动生成全焦图像的方法、用户设备以及系统
JP5760324B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム並びにこの画像処理プログラムが記録された記録媒体
CN105026976B (zh) 图像处理装置、摄像装置及图像处理方法
JP2014197824A5 (ja)
KR20150139159A (ko) 촬영 장치 및 촬영 장치의 비디오 생성방법
JP2013058861A (ja) 画像処理装置、画像処理装置の制御方法およびプログラム
US20240236503A1 (en) Electronic device, control method thereof and non-transitory computer-readable medium
JP5825921B2 (ja) 表示装置及びその制御方法
JP5239280B2 (ja) 撮像装置、撮像制御プログラム及び撮像方法
JP6408866B2 (ja) 画像処理装置およびその制御方法
JP2021158559A (ja) 電子機器、その制御方法およびプログラム
JP2012015619A (ja) 立体表示装置及び立体撮影装置
JP5984887B2 (ja) ズーム制御装置およびその制御方法
JP5930693B2 (ja) 動画記録装置及びその制御方法
JP2021005168A (ja) 画像処理装置、撮像装置、画像処理装置の制御方法、及びプログラム
JP5967172B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP7592395B2 (ja) 焦点調節装置、撮像装置および焦点調節方法
JP2021144121A (ja) 表示制御装置およびその制御方法、プログラム、並びに記憶媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140204

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150106

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150430