JPWO2013005586A1 - 画像処理装置、画像処理方法、及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法、及び画像処理プログラム Download PDF

Info

Publication number
JPWO2013005586A1
JPWO2013005586A1 JP2013522818A JP2013522818A JPWO2013005586A1 JP WO2013005586 A1 JPWO2013005586 A1 JP WO2013005586A1 JP 2013522818 A JP2013522818 A JP 2013522818A JP 2013522818 A JP2013522818 A JP 2013522818A JP WO2013005586 A1 JPWO2013005586 A1 JP WO2013005586A1
Authority
JP
Japan
Prior art keywords
image processing
pop
setting value
image
sensitivity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013522818A
Other languages
English (en)
Other versions
JP5915651B2 (ja
Inventor
龍男 荒巻
龍男 荒巻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Publication of JPWO2013005586A1 publication Critical patent/JPWO2013005586A1/ja
Application granted granted Critical
Publication of JP5915651B2 publication Critical patent/JP5915651B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

画像処理装置は、画像を立体的に表示させる表示部と、空間認識されるように立体的に表示され、ユーザによる操作のインタフェースとなる操作部と、前記表示部による画像表示情報と前記操作部による空間認識情報とを整合させながら連動させる制御部とを備える。

Description

本発明は、画像を立体的に表示させるための画像処理を行う画像処理装置、画像処理方法、及び画像処理プログラムに関する。
近年、画像を立体的に表示させる3D(Three Dimensional)の画像処理機能を備える、液晶テレビや、携帯電話機能と携帯情報端末機能とを備えたスマートフォンが知られている。画像を立体的に表示させる方法としては、偏光メガネを用いて立体画像を見せる方法と、偏光メガネを用いないで裸眼で立体画像を見せる方法とがある。後者の裸眼で立体画像を見せる方法は、左眼と右眼との視差を利用して画像を立体的に見せる視差バリア方式(バララックスバリア方式)を用いている。すなわち、この視差バリア方式は、液晶で微細な隙間を作り、左右両眼に別々の画像を分離して見せることによって画像の立体視を可能としている。
このような視差バリア方式の3Dの立体画像表示装置として、立体画像の結像位置での操作検出が可能なユーザインタフェースを備えた装置が知られている(例えば、特許文献1参照)。この技術によれば、例えば、ユーザインタフェースとして4つの操作ボタン(スタートボタン)が同一の3D表示高さ(Hf)で立体表示されている。立体表示された4つのスタートボタン“START・A”、“START・B”、“START・C”、“START・D”のうち、“START・C”のボタンが操作されると、その時点で、すぐにセンサ反応(物体判定)が発生する。また、直ちに、操作された“START・C”のボタンのみが3D表示高さHf=0の2次元(2D)の表示状態に変更される。そのため、操作者は、立体画像であっても、通常の2次元画像の場合と同様に、操作時点において瞬時に操作結果がわかる。そのため、操作上の違和感が解消される。
このような操作上の反応性のよさは、センサの反応位置を、液晶パネルの外面から離れたところの立体画像の結像位置(つまり、3D表示高さHf)に合わせておくことによって達成される。このとき、スタートボタン“START・C”を除く他の3つのスタートボタン“START・A”、“START・B”、“START・D”の画像状態はそのままであり、操作されたスタートボタン“START・C”の画像状態は切り替わる。すなわち、3つのスタートボタン“START・A”、“START・B”、“START・D”画像状態は3D表示高さHfのままであるため、バララックスバリアはそのまま維持される。一方、スタートボタン“START・C”の画像状態のみが2Dに切り替わる。このような画像の表示現象を実現するためには、前述した感度特性に関する望ましい要件(つまり、3Dの結像位置でのスタートボタンの操作検出によって、直ちに、そのスタートボタンが2Dの表示状態に切り替わる現象)が満たされるように、立体画像表示装置が構成されている必要がある。
他の関連技術として、立体画像における一部領域のオブジェクトの飛び出し量を変更することができる画像表示システムの技術が開示されている(例えば、特許文献2参照)。すなわち、通常は、視差バリア方式を用いた左右両眼形式のデータのみから立体画像の各オブジェクトの飛び出し量を変更することはできない。ところが、特許文献2に開示された技術では、左右両眼形式のデータが、例えばステレオカメラを用いて取得したような画像データなどの場合、飛び出し量の変更が可能な形式のデータ(以下「変更可能データ」ともいう。)を3Dデータに含め、飛び出し量の固定された左右両眼形式のデータと、この変更可能データとの合成処理を行う。この処理により、端末装置の側で立体画像の一部の領域について、飛び出し量を変更することを可能としている。上記の変更可能データには、単眼形式のデータを立体表示可能なフォーマットに変換したデータの他、左右両眼形式のデータであって両眼に対応するデータの水平方向相対距離を変更することにより飛び出し量を変更することが可能な形式のデータなども含まれる。言い換えると、この関連技術では、変更可能データに基づいて立体画像の一部領域の飛び出し量を変更している。
他の関連技術として、タッチパネルによって空間位置を検知することにより、より現実的な3次元空間の操作に近い操作感を実現できる技術が開示されている(例えば、特許文献3、特許文献4参照)。
日本国特開2011−13778号公報 日本国特開2005−135375号公報 日本国特開2011−22961号公報 日本国特開2010−257160号公報
前記特許文献1の技術は、立体画像の結像位置で操作検出が可能なユーザインタフェースを実現することにより、立体画像の操作上の違和感を解消することができる。しかしながら、この技術は、立体画像の飛び出量に応じたきめ細かな操作性の改善を図ることはできない。
特許文献2の技術は、立体画像の一部領域の飛び出し量を変更することができる。しかしながら、この技術は、立体画像の飛び出し量に応じて、立体表示された操作ボタン(ユーザインタフェース)の空間認識の感度設定を可変することができない。そのため、立体画像の飛び出量に応じた臨場感のある操作を実現することができない。
特許文献3、4の技術は、タッチパネルによって空間位置を検知することにより、より現実的な3次元空間の操作に近い操作感を実現することができる。しかしながら、この技術は、立体画像の飛び出し量に応じてタッチパネルの操作性の改善を図ることはできない。
さらに、前記の各特許文献の技術を組み合わせたとしても、3Dに飛び出している画像領域とタッチパネルでタッチして検知できる領域とが一致しない場合には、所望のタッチパネルのタッチ検出を行うことができなかったり、タッチパネルの誤操作が発生したりするおそれがある。
本発明は、このような事情に鑑みてなされた。本発明の目的の一例は、立体画像の飛出し量に応じてタッチパネルの感度を可変設定できるようにして、タッチパネルの操作性の改善を図った画像処理装置、画像処理方法、及び画像処理プログラムを提供することである。
上記の目的を達成するために、本発明の一態様に係る画像処理装置は、画像を立体的に表示させる表示部と、空間認識されるように立体的に表示され、ユーザによる操作のインタフェースとなる操作部と、前記表示部による画像表示情報と前記操作部による空間認識情報とを整合させながら連動させる制御部とを備える。
本発明の一態様に係る画像処理方法は、画像を立体的に表示させる表示手順と、空間認識されるように立体的に表示され、ユーザによる操作のインタフェースとして機能させる操作手順と、前記表示手順によって表示された画像表示情報と前記操作手順によって実現された空間認識情報とを整合させながら連動させる制御手順とを含む。
本発明の一態様に係る画像処理プログラムは、コンピュータに、画像を立体的に表示させる表示手順、空間認識されるように立体的に表示され、ユーザによる操作のインタフェースとして機能させる操作手順、前記表示手順によって表示された画像表示情報と前記操作手順によって実現された空間認識情報とを整合させながら連動させる制御手順を実行させる。
本発明によれば、3D/2D時の空間タッチパネルの操作性を改善することができると共に、感覚的な見誤りによる空間タッチパネルの誤操作を防止することができる。
本発明の実施形態に適用される画像処理装置の基本構成を示すブロック図である。 本発明の実施形態に適用される画像処理装置の具体的な構成を示すブロック図である。 図2に示す画像処理装置において、表示部の3D飛び出し量の強弱設定に連動して、操作部における空間タッチパネルの検出感度の強弱設定を選択する画面例である。 図2に示す画像処理装置において、操作部における空間タッチパネルの検出感度の強弱設定に連動して、表示部の3D飛び出し量の強弱設定を選択する画面例である。 図3に示す表示部の3D飛び出し量の強弱設定に連動する、操作部における空間タッチパネルの検出感度の強弱設定の選択肢を設けた場合の制御の流れを示すフローチャートである。 図4に示す操作部における空間タッチパネルの検出感度の強弱設定に連動する、表示部の3D飛び出し量の強弱設定の選択肢を設けた場合の制御の流れを示すフローチャートである。
《概要》
本発明の実施形態に係る画像処理装置は、立体画像における3D飛び出し量の強弱設定(3D飛び出し強弱設定値)と、空間認識が可能な立体表示のタッチパネル(以下、空間タッチパネルという)の感度レベルの設定(空間認識感度設定値)とを連動させる。これにより、3D/2D時において空間タッチパネルの操作性の改善を図っている。
さらに詳しく述べると、本発明の実施形態に係る画像処理装置は、立体画像の表示が可能な液晶の表示部と、空間認識が可能なタッチパネル(空間タッチパネル)とを備えている。立体画像の表示状態(3D飛び出し量の強弱設定)に合わせて、空間タッチパネルの検出感度の強弱設定(感度レベル設定)を変化させている。あるいは、空間タッチパネルの検出感度の強弱設定(感度レベル設定)に合わせて、立体画像の表示状態(3D飛び出し量の強弱設定)を変化させている。これによって、3D/2D時において空間タッチパネルの操作性を改善することができる。以下、本発明の実施形態に係る画像処理装置について、図面を参照しながら好適な実施形態を詳細に説明する。
《実施形態》
図1は、本発明の実施形態に適用される画像処理装置の基本構成を示すブロック図である。図1に示すように、画像処理装置10aは、制御手段11a、操作手段12a、及び表示手段13aを備えて構成されている。表示手段13aは、画像を立体的に表示させる機能を備えている。操作手段12aは、空間認識が可能に立体的に表示され、ユーザによる操作のインタフェースとしての機能を備えている。制御手段11aは、表示手段13aによる画像表示情報と、操作手段12aによる空間認識情報とを整合させながら連動させる制御を行う機能を備えている。
このような構成により、制御手段11aは、表示手段13aに表示された画像の3D飛び出し強弱設定値が強く設定されているほど、操作手段12aによる空間認識感度設定値を強い感度に設定する。または、制御手段11aは、操作手段12aによる空間認識感度設定値が強い感度に設定されているほど、表示手段13aに表示された画像の3D飛び出し強弱設定値を強く設定する。
図2は、本発明の実施形態に適用される画像処理装置の具体的な構成を示すブロック図である。図1の構成要素と図2の構成要素の対応関係に関しては、制御手段11aがCPU(Central Processing Unit:中央処理装置)11b、操作手段12aが操作部12b、表示手段13aが表示部13bに相当する。すなわち、図2に示す画像処理装置10bは、CPU(制御部)11b、操作部(空間タッチパネル)12b、及び、表示部13bに加えて、さらに、メモリ部14bと、記憶部15bとを備える構成となっている。CPU11bは、画像処理装置10b全体の制御を行う。操作部12bは、ユーザが各種入力操作を行うためのユーザインタフェースとなる。表示部13bは、ユーザに対して各種情報を2D/3Dで出力する。メモリ部14bは、ユーザが入力した情報や演算情報などを一時的に保存する。記憶部15bは、ユーザが入力した情報や演算情報などを記憶する。
次に、図2に示す画像処理装置10bの動作について説明する。図3は、図2に示す画像処理装置10bにおいて、表示部13bの3D飛び出し量の強弱設定に連動して、操作部12bにおける空間タッチパネルの検出感度の強弱設定を選択する画面例である。すなわち、図2は、ユーザが、表示部13bの立体画像の表示状態(3D飛び出し量の強弱設定)に連動して、操作部12bにける空間タッチパネルの検出感度の強弱設定(感度レベル設定)を選択するように選択肢を設けた場合の画面例を示している。
図4は、図2に示す画像処理装置10bにおいて、操作部12bにおける空間タッチパネルの検出感度の強弱設定に連動して、表示部13bの3D飛び出し量の強弱設定を選択する画面例である。すなわち、図3は、ユーザが、操作部12bにおける空間タッチパネルの検出感度の強弱設定(感度レベル設定)に連動して、2D/3Dの表示が可能な表示部13bの3D飛び出し量の強弱設定を選択するように選択肢を設けた場合の画面例を示している。
図5は、図3に示す表示部13bの3D飛び出し量の強弱設定に連動する、操作部12bにおける空間タッチパネルの検出感度の強弱設定の選択肢を設けた場合の制御の流れを示すフローチャートである。図6は、図4に示す操作部12bにおける空間タッチパネルの検出感度の強弱設定に連動する、表示部13bの3D飛び出し量の強弱設定の選択肢を設けた場合の制御の流れを示すフローチャートである。
以下、図3、図4、図5、及び図6を参照して、図2に示す画像処理装置10bの動作を説明する。最初に、図3と図5を参照して、3D飛び出し量の強弱設定に連動する空間タッチパネルの検出感度の強弱設定の選択手順を説明する。
図5に示すフローチャートにおける動作の初期設定画面として、図3の右画面に示すように、『3D飛び出し強弱設定』として、「強」,「中」,「弱」および「3D OFF」からなる選択肢が表示される。図3の右画面に示す例では、これらの選択肢の中で「強」が選択されている。すなわち「強」の右側に黒マークが表示されている。このように、『3D飛び出し強弱設定』が「強」に設定されていると、その画面の下部には、『3Dの飛び出しを強くします。』と表示される。図3の左画面に示すように、『空間タッチパネル感度設定』に関しては、「3D設定に連動」の右側に黒マークが表示されている。このように、『空間タッチパネル感度設定』が「3D設定に連動」に設定されていると、その画面の下部には、『3Dの飛び出し強弱設定を元に感度設定を自動的に変更します。』と表示される。
次に、図5のフローチャートに基づいて図3の画面の場合における、3D飛び出し量の設定に連動して、空間タッチパネルの感度を設定する動作を説明する。まず、図3の左画面において、CPU11bは、『空間タッチパネル感度設定』が、「3D設定に連動する」に設定されているか否かをチェックする(ステップS1)。『空間タッチパネル感度設定』が「3D設定に連動する」に設定されていなければ(ステップS1でNo)、この処理は終了する。一方、『空間タッチパネル感度設定』が「3D設定に連動する」に設定されていれば(ステップS1でYes)、CPU11bは、図3の右画面の『3D飛び出し強弱設定』が「強」に設定されているか否かをチェックする(ステップS2)。
ステップS2において、右画面の『3D飛び出し強弱設定』が「強」に設定されていれば(ステップS2でYes)、CPU11bは、空間タッチパネルの感度を「強」に設定する(ステップS3)。
一方、ステップS2において、右画面の『3D飛び出し強弱設定』が「強」に設定されていなければ(ステップS2でNo)、CPU11bは、右画面の『3D飛び出し強弱設定』が「中」に設定されているか否かをチェックする(ステップS4)。右画面の『3D飛び出し強弱設定』が「中」に設定されていれば(ステップS4でYes)、CPU11bは、空間タッチパネルの感度を「中」に設定する(ステップS5)。
一方、ステップS4において、右画面の『3D飛び出し強弱設定』が「中」に設定されていなければ(ステップS4でNo)、CPU11bは、右画面の『3D飛び出し強弱設定』が「弱」に設定されているか否かをチェックする(ステップS6)。右画面の『3D飛び出し強弱設定』が「弱」に設定されていれば(ステップS6でYes)、CPU11bは、空間タッチパネルの感度を「弱」に設定する(ステップS7)。
一方、ステップS6において、右画面の『3D飛び出し強弱設定』が「弱」に設定されていなければ(ステップS6でNo)、CPU11bは、空間タッチパネルの感度を「OFF」に設定する(ステップS8)。このようにして、図3の左画面の『空間タッチパネル感度設定』が「3D設定に連動する」になっている場合は、右画面の『3D飛び出し強弱設定』の強弱の設定内容に対応してそれぞれの判断を行い、ステップS2〜S8の処理のように、空間タッチパネルの感度を対応した強弱に設定する処理を行う。
次に、図4と図6を参照して、空間タッチパネルの検出感度の強弱設定に連動する3D飛び出し量の強弱設定の選択手順を説明する。
図6に示すフローチャートにおける動作の初期設定画面として、図4の右画面に示す例においては、「空間タッチパネル設定に連動」の右側に黒マークが表示されている。このように、『3D飛び出し強弱設定』が、「空間タッチパネル設定に連動」に設定されていると、その画面の下部には、『空間タッチパネル感度設定を元に設定を自動的に変更します。』と表示される。図4の左画面に示すように、『空間タッチパネル感度設定』に関しては、「強」,「中」,「弱」および「OFF」からなる選択肢の中で「強」が選択されている。すなわち、「強」の右側に黒マークが表示されている。このように、『空間タッチパネル感度設定』が「強」に設定されていると、その画面の下部には、『空間でタッチを認識する感度を強くします。』と表示される。
次に、図6のフローチャートに基づいて図4の画面の場合における、空間タッチパネルの感度の設定に連動して、3D飛び出し量を設定する動作を説明する。まず、図4の右画面を参照して、CPU11bは、『3D飛び出し強弱設定』が、「空間タッチパネル設定に連動する」に設定されているか否かをチェックする(ステップS11)。『3D飛び出し強弱設定』が「空間タッチパネル設定に連動する」に設定されていなければ(ステップS11でNo)、この処理は終了する。一方、『3D飛び出し強弱設定』が「空間タッチパネル設定に連動する」に設定されていれば(ステップS11でYes)、CPU11bは、図4の左画面の『空間タッチパネル感度設定』が「強」に設定されているか否かをチェックする(ステップS12)。
ステップS12において、図4の左画面の『空間タッチパネル感度設定』が「強」に設定されていれば(ステップS12でYes)、CPU11bは、3D飛び出し強度を「強」に設定する(ステップS13)。
一方、ステップS12において、図4の左画面の『空間タッチパネル感度設定』が「強」に設定されていなければ(ステップS12でNo)、CPU11bは、その左画面の『空間タッチパネル感度設定』が「中」に設定されているか否かをチェックする(ステップS14)。図4の左画面の『空間タッチパネル感度設定』が「中」に設定されていれば(ステップS14でYes)、CPU11bは、3D飛び出し強度を「中」に設定する(ステップS15)。
一方、ステップS14において、図4の左画面の『空間タッチパネル感度設定』が「中」に設定されていなければ(ステップS14でNo)、CPU11bは、その左画面の『空間タッチパネル感度設定』が「弱」に設定されているか否かをチェックする(ステップS16)。図4の左画面の『空間タッチパネル感度設定』が「弱」に設定されていれば(ステップS16でYes)、CPU11bは、3D飛び出し強度を「弱」に設定する(ステップS17)。
一方、ステップS16において、図4の左画面の『空間タッチパネル感度設定』が「弱」に設定されていなければ(ステップS16でNo)、CPU11bは、3D飛び出し強度を「3D OFF」に設定する(ステップS18)。このようにして、図4の右画面の『3D飛び出し強弱設定』が「空間タッチパネル設定に連動する」になっている場合は、左画面の『空間タッチパネル感度設定』の強弱の設定内容に対応してそれぞれの判断を行い、ステップS12〜S18の処理のように、3D飛び出し強度を対応した強弱に設定する処理を行う。
以上のように、本発明の実施形態に係る画像処理装置は、図5及び図6のフローチャートから分かるように、CPU(制御部)11bが、表示部13bに表示された立体画像の3D飛び出し量の強弱設定と、操作部12による空間タッチパネルの認識感度の設定とを、整合させながら連動して制御する。この制御により、3D/2D時における空間タッチパネルの操作性の改善を図ることができる。また、これによって、感覚的な見誤りによる空間タッチパネルの誤操作を防止することができる。
以上、本発明に係る画像処理装置の実施形態について図面を参照して詳述してきたが、本発明の具体的な構成は上述した実施形態の内容に限定されるものではなく、本発明の趣旨を逸脱しない範囲の設計の変更等があっても、それらは本発明に含まれる。
上述した画像処理装置10bの動作は、プログラムの形式でコンピュータ読み取り可能な記憶媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上述した各処理が実現される。コンピュータ読み取り可能な記憶媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータがそのプログラムを実行するようにしてもよい。
上記プログラムは、前述した機能の一部を実現するためのものであってもよい。
上記プログラムは、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
この出願は、2011年7月4日に出願された日本出願特願2011−147919を基礎とする優先権を主張し、その開示の全てをここに取り込む。
本発明の画像処理装置は、テレビや携帯電話機やスマートフォンなどに限らず、ゲーム機やタブレットPC(Personal Computer)やノートPCなどにも利用することができる。
10a、10b 画像処理装置
11a 制御手段
11b CPU(制御部)
12a 操作手段
12b 操作部(空間タッチパネル)
13a 表示手段
13b 表示部
14b メモリ部
15b 記憶部

Claims (11)

  1. 画像を立体的に表示させる表示部と、
    空間認識されるように立体的に表示され、ユーザによる操作のインタフェースとなる操作部と、
    前記表示部による画像表示情報と前記操作部による空間認識情報とを整合させながら連動させる制御部と
    を備える画像処理装置。
  2. 前記画像表示情報は、前記表示部に表示された画像の立体的な飛び出し量を示す3D飛び出し強弱設定値であり、
    前記空間認識情報は、前記操作部を操作したユーザによる空間認識の感度の大きさを示す空間認識感度設定値であって、
    前記制御部は、前記3D飛び出し強弱設定値と前記空間認識感度設定値とを連動させる請求項1に記載の画像処理装置。
  3. 前記制御部は、前記3D飛び出し強弱設定値が強く設定されているほど、前記空間認識感度設定値を強い感度に設定する請求項2に記載の画像処理装置。
  4. 前記制御部は、前記空間認識感度設定値が強い感度に設定されているほど、前記3D飛び出し強弱設定値を強く設定する請求項2に記載の画像処理装置。
  5. 前記操作部は、空間認識されるように立体的に表示された空間タッチパネルである請求項1乃至4のいずれか一項に記載の画像処理装置。
  6. 前記表示部は、前記画像表示情報に応じて、立体的に表示する画像の三次元の飛び出し量を変化させ、
    前記操作部は、前記空間認識情報に応じて、前記ユーザから受け付ける操作に対する感度を変化させる請求項1乃至5のいずれか一項に記載の画像処理装置。
  7. 画像を立体的に表示させる表示手順と、
    空間認識されるように立体的に表示され、ユーザによる操作のインタフェースとして機能させる操作手順と、
    前記表示手順によって表示された画像表示情報と前記操作手順によって実現された空間認識情報とを整合させながら連動させる制御手順と
    を含む画像処理方法。
  8. 前記画像表示情報は、前記表示手順によって表示された画像の立体的な飛び出し量を示す3D飛び出し強弱設定値であり、
    前記空間認識情報は、前記操作手順を実行したユーザによる空間認識の感度の大きさを示す空間認識感度設定値であって、
    前記制御手順は、前記3D飛び出し強弱設定値と前記空間認識感度設定値とを連動させる請求項7に記載の画像処理方法。
  9. 前記制御手順は、前記3D飛び出し強弱設定値が強く設定されているほど、前記空間認識感度設定値を強い感度に設定する請求項8に記載の画像処理方法。
  10. 前記制御手順は、前記空間認識感度設定値が強い感度に設定されているほど、前記3D飛び出し強弱設定値を強く設定する請求項8に記載の画像処理方法。
  11. コンピュータに、
    画像を立体的に表示させる表示手順、
    空間認識されるように立体的に表示され、ユーザによる操作のインタフェースとして機能させる操作手順、
    前記表示手順によって表示された画像表示情報と前記操作手順によって実現された空間認識情報とを整合させながら連動させる制御手順
    を実行させるための画像処理プログラム。
JP2013522818A 2011-07-04 2012-06-22 画像処理装置、画像処理方法及びプログラム Expired - Fee Related JP5915651B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011147919 2011-07-04
JP2011147919 2011-07-04
PCT/JP2012/066021 WO2013005586A1 (ja) 2011-07-04 2012-06-22 画像処理装置、画像処理方法、及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JPWO2013005586A1 true JPWO2013005586A1 (ja) 2015-02-23
JP5915651B2 JP5915651B2 (ja) 2016-05-11

Family

ID=47436942

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013522818A Expired - Fee Related JP5915651B2 (ja) 2011-07-04 2012-06-22 画像処理装置、画像処理方法及びプログラム

Country Status (4)

Country Link
US (1) US9591296B2 (ja)
EP (1) EP2730998B1 (ja)
JP (1) JP5915651B2 (ja)
WO (1) WO2013005586A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105334692B (zh) * 2015-09-28 2018-06-29 联想(北京)有限公司 信息处理方法及电子设备
CN109710119B (zh) * 2018-12-28 2021-07-16 Oppo广东移动通信有限公司 控制方法、控制装置、电子装置和存储介质
CN109756623A (zh) * 2018-12-28 2019-05-14 Oppo广东移动通信有限公司 控制方法、控制装置、电子装置和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09190278A (ja) * 1996-01-09 1997-07-22 Mitsubishi Motors Corp 機器の操作系選択装置
WO2012053033A1 (ja) * 2010-10-20 2012-04-26 三菱電機株式会社 3次元立体表示装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005135375A (ja) 2003-10-08 2005-05-26 Sharp Corp 立体表示システム、データ配信装置、端末装置、データ処理方法、プログラム及び記録媒体
US20080278454A1 (en) * 2007-05-08 2008-11-13 Samsung Electronics Co. Ltd. Method for setting touch sensitivity in portable terminal
US8576181B2 (en) * 2008-05-20 2013-11-05 Lg Electronics Inc. Mobile terminal using proximity touch and wallpaper controlling method thereof
KR20100041006A (ko) 2008-10-13 2010-04-22 엘지전자 주식회사 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법
KR101521219B1 (ko) * 2008-11-10 2015-05-18 엘지전자 주식회사 플렉서블 디스플레이를 이용하는 휴대 단말기 및 그 제어방법
JP5288643B2 (ja) * 2009-02-06 2013-09-11 パナソニック株式会社 画像表示装置
JP5158606B2 (ja) 2009-04-23 2013-03-06 Necカシオモバイルコミュニケーションズ株式会社 端末装置、表示方法、及びプログラム
JP5563250B2 (ja) 2009-06-30 2014-07-30 株式会社ジャパンディスプレイ 立体画像表示装置
JP2011022961A (ja) 2009-07-21 2011-02-03 Panasonic Corp 入力制御装置
JP2011081480A (ja) * 2009-10-05 2011-04-21 Seiko Epson Corp 画像入力システム
KR101647722B1 (ko) * 2009-11-13 2016-08-23 엘지전자 주식회사 영상표시장치 및 그 동작방법
JP2011147919A (ja) 2010-01-25 2011-08-04 Matsui Kiki Kogyo Kk ノズル
US8565830B2 (en) * 2010-05-12 2013-10-22 Lg Electronics Inc. Mobile terminal and method of displaying 3D images thereon
JP5704854B2 (ja) 2010-07-26 2015-04-22 オリンパスイメージング株式会社 表示装置
US9043732B2 (en) * 2010-10-21 2015-05-26 Nokia Corporation Apparatus and method for user input for controlling displayed information
KR101781908B1 (ko) * 2011-03-24 2017-09-26 엘지전자 주식회사 이동 단말기 및 그것의 제어방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09190278A (ja) * 1996-01-09 1997-07-22 Mitsubishi Motors Corp 機器の操作系選択装置
WO2012053033A1 (ja) * 2010-10-20 2012-04-26 三菱電機株式会社 3次元立体表示装置

Also Published As

Publication number Publication date
EP2730998A4 (en) 2015-04-01
US20140104400A1 (en) 2014-04-17
US9591296B2 (en) 2017-03-07
EP2730998A1 (en) 2014-05-14
JP5915651B2 (ja) 2016-05-11
EP2730998B1 (en) 2018-05-02
WO2013005586A1 (ja) 2013-01-10

Similar Documents

Publication Publication Date Title
US10225547B2 (en) Mobile display device
US9164621B2 (en) Stereoscopic display apparatus and stereoscopic shooting apparatus, dominant eye judging method and dominant eye judging program for use therein, and recording medium
JP5710934B2 (ja) コンテンツ表示装置、およびコンテンツ表示方法
JP6569496B2 (ja) 入力装置、入力方法、及びプログラム
JP5766019B2 (ja) 2眼撮像装置、その制御方法、および、制御プログラムおよびコンピュータ読み取り可能な記録媒体
KR20110037657A (ko) 모션을 이용한 gui 제공방법 및 이를 적용한 디스플레이 장치
JP5598232B2 (ja) 情報処理装置、情報処理システムおよび情報処理方法
US20130106694A1 (en) Three-dimensional display device, three-dimensional image capturing device, and pointing determination method
WO2008062586A1 (fr) Dispositif d'affichage, procédé d'affichage, programme d'affichage, et support d'enregistrement
KR20170055865A (ko) 롤러블 이동 단말기 및 그것의 제어방법
CN105808015A (zh) 防窥用户交互装置及方法
JP5915651B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2012113385A (ja) 電子機器、表示制御方法、およびプログラム
US20120313934A1 (en) Electronic device, display control method and program
JP6266229B2 (ja) 画像処理装置、方法、及びプログラム
JP2013105356A (ja) タッチ機能付き表示手段を有する機器及びカメラ
JP5848811B2 (ja) 送信機、受信機、およびプログラム
JP5628645B2 (ja) 送信機、受信機、通信システム、表示制御方法、およびプログラム
WO2013111201A1 (ja) 立体画像表示制御装置及び立体画像表示制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150512

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151006

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160321

R150 Certificate of patent or registration of utility model

Ref document number: 5915651

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees