JPWO2013121807A1 - 情報処理装置、情報処理方法およびコンピュータプログラム - Google Patents

情報処理装置、情報処理方法およびコンピュータプログラム Download PDF

Info

Publication number
JPWO2013121807A1
JPWO2013121807A1 JP2014500118A JP2014500118A JPWO2013121807A1 JP WO2013121807 A1 JPWO2013121807 A1 JP WO2013121807A1 JP 2014500118 A JP2014500118 A JP 2014500118A JP 2014500118 A JP2014500118 A JP 2014500118A JP WO2013121807 A1 JPWO2013121807 A1 JP WO2013121807A1
Authority
JP
Japan
Prior art keywords
image
display
operation target
unit
target image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014500118A
Other languages
English (en)
Inventor
玲 若月
玲 若月
薫 八田
薫 八田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2014500118A priority Critical patent/JPWO2013121807A1/ja
Publication of JPWO2013121807A1 publication Critical patent/JPWO2013121807A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

直感的な操作で3次元画像内の情報を自由に操作できる情報処理装置を提供する。本技術の情報処理装置は、操作入力を行う操作体の3次元空間における位置を検出する入力検出部による検出結果に基づいて、表示部に表示された3次元画像から操作対象となる操作対象画像を特定し、操作対象画像の目標表示位置を算出する演算部と、操作対象画像を演算部により算出した目標表示位置に表示されるように表示部に表示させる表示処理部と、を備える。

Description

本開示は、表示部に表示された3次元画像の表示位置を操作可能な情報処理装置、情報処理方法およびコンピュータプログラムに関する。
近年、テレビ番組や映画、ゲーム等の画像を表示する表示装置として、被写体を縦横の情報に奥行感を持たせて3次元で表現した立体画像を表示可能な3Dディスプレイ等の表示装置が普及しつつある。3次元画像は、人間が両目で物を見る仕組みを利用して視聴者に奥行感や立体感を認識させることで、リアリティや臨場感の表現を可能にしている。また、例えばテレビ番組や映画、ゲーム等の画像と共に表示されるメニューやアイコン等のOSD(On Screen Display)画像も3次元表示することも可能となっている(例えば、特許文献1)。
特開2010−252055号公報
3次元画像は、画像の表示位置情報として、表示面の縦横の位置情報に加えて奥行情報を有する。このため、3次元画像を表示させているときにOSD画像を表示させると、これらの画像の組み合わせによってはOSD画像が3次元画像中に埋もれてしまうこともある。OSD画像が3次元画像に埋もれるケースを予測してOSD画像の表示位置を調整することは困難であるため、表示を行う時点でその表示位置を調整する必要がある。
従来、例えば3次元画像内に表示されている字幕情報の奥行方向における表示位置は、ダイヤル型操作部からの操作入力やタッチパネル上での指の動き等によって調整されているが、奥行方向という限られた範囲での調整しかできない。そこで、直感的な操作で3次元画像内の情報を自由に操作できることが望まれる。
本開示によれば、操作入力を行う操作体の3次元空間における位置を検出する入力検出部による検出結果に基づいて、表示部に表示された3次元画像から操作対象となる操作対象画像を特定し、操作対象画像の目標表示位置を算出する演算部と、操作対象画像を演算部により算出した目標表示位置に表示されるように表示部に表示させる表示処理部と、を備える、情報処理装置が提供される。
本開示によれば、情報処理装置は、入力検出部により検出された操作体の位置に基づいて、表示部に表示されている3次元画像から操作対象画像を特定し、当該操作対象画像を操作体の動きに応じて移動させるように表示処理を行う。これにより、ユーザは直感的な操作で3次元画像の一部の表示位置を調整することができる。
また、本開示によれば、操作入力を行う操作体の3次元空間における位置を検出すること、操作体の位置の検出結果に基づいて、表示部に表示された3次元画像から操作対象となる操作対象画像を特定し、操作対象画像の目標表示位置を算出すること、操作対象画像を算出された目標表示位置に表示されるように表示部に表示させること、を含む、情報処理方法が提供される。
さらに、本開示によれば、コンピュータを、操作入力を行う操作体の3次元空間における位置を検出する入力検出部による検出結果に基づいて、表示部に表示された3次元画像から操作対象となる操作対象画像を特定し、操作対象画像の目標表示位置を算出する演算部と、操作対象画像を演算部により算出した目標表示位置に表示されるように表示部に表示させる表示処理部と、を備える、情報処理装置として機能させるコンピュータプログラムが提供される。
以上説明したように本開示によれば、直感的な操作で3次元画像内の情報を自由に操作できるようになる。
本開示の第1の実施形態に係る情報処理装置を備える表示装置の概略構成を示す説明図である。 同実施形態に係る表示装置の機能構成を示す機能ブロック図である。 同実施形態に係る表示装置による表示処理を示すフローチャートである。 表示部に表示された3次元画像およびOSD画像の一例を示す説明図である。 図4のOSD画像の一部を移動させる操作を示す説明図である。 本開示の第2の実施形態に係る表示装置の機能構成を示す機能ブロック図である。 同実施形態に係る表示装置による表示処理を示すフローチャートである。 3D画像の一部を移動させる操作を示す説明図である。 同実施形態に係る表示装置の一ハードウェア構成例を示すハードウェア構成図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.第1の実施形態(ユーザによる操作対象画像の表示位置調整)
1−1.表示装置の概要
1−2.機能構成
1−3.表示処理
2.第2の実施形態(操作対象画像の表示位置の自動調整)
2−1.機能構成
2−2.表示処理
3.変形例
3−1.操作対象となる画像について
3−2.操作対象となる画像の選択
4.ハードウェア構成例
<1.第1の実施形態>
[1−1.表示装置の概要]
まず、図1を参照して、本開示の第1の実施形態に係る表示装置100の概略構成について説明する。なお、図1は、本実施形態に係る表示装置100の概略構成を示す説明図である。
本実施形態に係る表示装置100は、3次元画像を表示可能な3Dディスプレイ102を備える出力装置である。かかる表示装置100は、例えばテレビや撮像装置等、表示部を備える機器に設けることができる。
本実施形態に係る表示装置100は、3Dディスプレイ102に表示されている情報を操作する操作体(例えば、ユーザの指等)について、表示面に対する操作体の位置を検出するための入力検出デバイス104を備えている。入力検出デバイス104は、当該入力デバイス104に対する操作体の位置を検出可能なセンサであり、3Dディスプレイ102と同位置座標軸で情報を共有できる位置に設置することで、3Dディスプレイ102の表示面と操作体との位置関係を取得できる。入力検出デバイス104は、当該入力検出デバイス104の平面座標(xy座標)における位置情報に加えて、入力検出デバイス104に対する操作体の近接状態を奥行情報(z方向の位置)として取得できる。
入力検出デバイス104は、所定のタイミングで操作体の位置情報を取得し、演算部120に出力する。演算部120は、入力検出デバイス104から入力された操作体の位置情報に基づき操作体の動きを認識する。例えば、演算部120は、操作体の位置情報の変化に基づいて、つまむ、動かす、放すといった操作体による操作入力を認識する。
本実施形態に係る表示装置100は、3次元空間における操作体の位置を検出可能な入力検出デバイス104を備えることで、立体的に表示された画像の位置を操作体によって移動させることが可能となる。これにより、ユーザは直感的な操作で画像の表示位置を自由に調整できる。以下、本実施形態に係る表示装置100の構成とその機能について詳細に説明していく。
[1−2.機能構成]
まず、図2に基づいて、本実施形態に係る表示装置100の機能構成を説明する。なお、図2は、本実施形態に係る表示装置100の機能構成を示す機能ブロック図である。本実施形態に係る表示装置100は、図2に示すように、入力検出部110と、演算部120と、表示処理部130と、表示部140とを備える。本実施形態において、演算部120および表示処理部130は、3次元画像の表示位置を調整する表示処理を行う情報処理装置として機能する。
入力検出部110は、表示部140に表示されている情報を操作する操作体について、表示面に対する操作体の位置を検出する。入力検出部110は、図1の入力検出デバイス104に相当する。入力検出部110は、例えば静電気による電気信号を感知することで入力検出部110の検出面に対する平面座標における位置情報および近接状態を検出できる。近接状態の検出には接触状態の検出も含まれる。近接状態は、電気信号の大きさより認識することができる。なお、入力検出部110の近接状態の検知方式はかかる例に限定されず、他の検出方式であってもよい。入力検出部110は、検出結果(例えば静電気による電気信号)を所定の周期、例えば検出値を取得する度に、演算部120へ出力する。
演算部120は、入力検出部110からの検出結果に基づいて、操作体の位置を特定し、操作対象となる画像の目標表示位置を算出する。演算部120は、操作位置算出部122と、操作対象操作位置算出部124とからなる。
操作位置算出部122は、入力検出部110の検出結果より操作体の位置を算出する。操作位置算出部122は、入力検出部110から入力された例えば電気信号の大きさより、xy平面座標における位置情報および入力検出部110の検出面からの距離を操作体の操作位置情報として算出する。なお、入力検出部110と表示部140とは同位置座標軸で情報を共有できる位置に設置されており、入力検出部110の検出面から操作体までの距離は表示部140の表示面と操作体との距離とすることができる。操作位置算出部122は、算出した操作体の操作位置情報を記憶部(図示せず。)に記録して履歴管理している。
操作位置算出部122は、操作体の操作位置情報の変化に基づき、ユーザが行った動作を判定する。本実施形態に係る表示装置100では、ユーザが表示されている画像を直接操作して移動することを可能にする。例えば、ユーザは、表示されている画像のうち移動させたい画像をつまみ、移動させるという操作入力を行うことで、画像の表示位置を調整することができる。このとき操作位置算出部122は、ユーザがつまむという動作を行ったことを認識すると、その動作を位置に表示されている画像を操作対象として特定する。そして、操作位置算出部122は、入力検出部110の検出結果より、つまむ動作が行われている状態での操作体の移動を監視しながら、つまむ動作から放す動作が行われるのを監視する。
なお、ユーザのつまむ動作は、入力検出部110が検出する2つ以上の操作体領域が1つの操作体領域となった時点で認識することができる。操作対象をつまむ動作は、通常、親指と親指以外の指とを接触させることで行われる。これより、入力検出部110の検出結果より表される操作体の存在を示す操作体領域が複数から1つになったとき、つまむ動作が行われたと判定することができる。つまむ動作が行われたとき、操作対象をつまむ前に複数あった操作体領域は、これよりも小さい1つの操作体領域となる。
操作位置算出部122は、ユーザによりつまむ動作が行われたことを認識すると、表示部140の視差情報と操作体の操作位置情報とを照らし合わせる。そして、操作体の操作位置情報に画像が表示されている場合には、操作位置算出部122は、当該画像を操作対象に特定する。操作位置算出部122は、操作対象を特定すると、操作対象の画像を特定する情報および操作体の操作位置情報を操作対象目標表示位置算出部124へ出力する。これらの情報は、操作体がつまんでいる画像を放す動作が行われるまで、継続して操作対象目標表示位置算出部124へ出力される。
操作対象目標表示位置算出部124は、操作体の操作位置情報の変化に応じて操作対象の画像を表示させる位置を算出する。操作対象目標表示位置算出部124は、操作位置算出部122から操作対象として特定された画像の情報を受けると、操作体の操作位置情報の変化に応じて操作対象の画像を移動させる。これにより、ユーザが画像をつまんで手を動かすことで、画像を所望の位置に移動させる操作を実現できる。また、操作位置算出部122よりユーザが画像を放す動作を行ったことが通知されると、操作対象目標表示位置算出部124は、画像を放したときの操作体の位置に当該画像を表示し、次に操作されるまで表示位置を固定する。操作対象目標表示位置算出部124は、算出した操作対象の画像の目標表示位置を表示処理部130へ出力する。
画像処理部130は、操作対象目標表示位置算出部124から入力された操作対象の画像の目標表示位置に当該画像が表示されるように処理を行う。画像処理部130は、画像処理後の表示情報を表示部140に出力し、3次元画像を表示させる。
表示部140は、3次元画像を表示可能な出力装置であって、図1の3Dディスプレイ102に相当する。表示部140は、画像処理部130の出力指示に従って、入力された表示情報を表示する。
[1−3.表示処理]
次に、図3〜図5に基づいて、本実施形態に係る表示装置100による表示処理について説明する。なお、図3は、本実施形態に係る表示装置100による表示処理を示すフローチャートである。図4は、表示部140に表示された3次元画像およびOSD画像の一例を示す説明図である。図5は、図4のOSD画像の一部を移動させる操作を示す説明図である。
本実施形態では、表示部140に表示される立体的な画像の一例として、図4に示すように、テレビ番組や映画、ゲーム等の画像(コンテンツ画像)である3D画像300と、OSD画像310とが表示されている場合を考える。ユーザは、図4の前面側から画像を視認しているものとする。3D画像300は、家302や木304、306から構成されている。また、OSD画像310には、それに関連付けられたイベントを実行するためのアイコン312や、表示されている3D画像300の説明文字314がある。これらのOSD画像は3D画像300の表示を妨げないように表示されることが望ましいが、図4に示すように、3D画像より背面側に表示されてしまい、その内容を視認できないことも生じる。
そこで、本実施形態に係る表示装置100では、3D画像300より背面側に表示されているOSD画像310をユーザが手で移動させ、OSD画像310の情報を視認できるようにする。
まず、ユーザは、表示されている画像のうち表示位置を変更したい操作対象となる画像を、操作体(例えば手)で選択する操作入力を行う(S100)。本実施形態では、例えば表示されている画像を手でつまむ動作を選択の動作とする。ユーザは表示部140の前の空間に表示されている画像から、移動させる画像をつまむ動作を行う。例えば図4に示すOSDによる説明文字314をユーザが視認できる位置まで前面側(z軸正方向側)に移動させる場合、ユーザは説明文字314が表示されている位置に手を移動させ、当該画像をつまむ動作を行う。
このとき、入力検出部110は操作体の位置を検出し続けており、入力検出部110が操作体を検出すると、操作位置算出部122は、操作体の操作位置情報に基づいて、操作対象の画像を選択する動作(例えば画像をつまむ動作)が行われたか否かを判定する。操作対象の画像の特定は、例えば上述したように、操作体の操作位置情報と表示部140の視差情報とを照らし合わせることにより行うことができる。操作体の操作位置情報と表示部140の視差情報とが一致するとき、ユーザはその位置に表示されている画像を操作対象として特定したと判断できる(S110)。
操作対象の画像を特定すると、操作位置算出部122は、入力検出部110からの検出結果より操作体の操作位置情報を算出し、操作体の移動や操作対象の画像を放す動作が行われたか否かを監視する。操作対象目標表示位置算出部124は、操作位置算出部122の算出した操作体の操作位置情報に基づき、操作体の位置に操作対象の画像が表示されるように表示位置情報を算出する(S120)。画像処理部130は、操作対象の画像の表示位置情報に基づき、表示部140に3D画像300およびOSD画像310を表示させる(S130)。
一方、操作位置算出部122は、入力検出部110の検出結果に基づき、操作体が操作対象の画像の移動を終了する動作が行われたか否かを判定する(S140)。操作対象の画像の移動を終了する動作としては、例えば放す動作とすることができる。画像を放す動作は、例えば画像をつまむ動作の認識条件と逆の認識条件により、すなわち、入力検出部110が検出する1つの操作体領域が2つ以上の操作体領域となった時点で認識することができる。ステップS140にて画像を放す動作が行われたと判定されたとき、操作対象の画像は、ユーザが当該画像を放した時点での表示位置に表示させたままとして、図3の処理を終了する。一方、ステップS140にて画像を放す動作は行われていないと判定されたとき、ステップS120からの処理が繰り返される。
例えば、図4にて、3D画像300の背面側にある説明文字314を移動するとき、ユーザは、図5に示すように、説明文字314が表示されている位置で当該画像をつまみ、つまんだ状態で手を前面側(z軸正方向側)に移動させる。これにより、手の位置の変化に応じて説明文字314も移動される。そして、説明文字314が3D画像310よりも前面側に位置したときに画像から手を放すと、手を放す動作を行った位置に操作対象であった説明文字314が固定される。このように、ユーザの手の動きに応じて画像の表示位置を変更することができる。
なお、図4および図5に示した例では、OSD画像310である説明文字314を奥行方向(z方向)のみに移動させたが、本技術はかかる例に限定されない。操作体の位置を移動させることによって、操作対象の画像もx方向およびy方向についても移動させることができる。
また、操作対象の画像の移動は、奥行方向(z方向)において移動可能領域を設け、その範囲内のみ移動できるようにしてもよい。移動可能範囲は、例えば3次元画像を見易く表示できる範囲や3次元画像を鮮明に表示できる範囲とすることができる。ユーザが移動可能領域を超えて操作対象の画像を移動させようとしたときには、表示装置100は、ユーザに対して移動可能領域を超えた旨をポップアップ表示や音声により通知してもよい。これにより、ユーザに操作対象の画像の移動方向の変更を促すことができる。
<2.第2の実施形態>
次に、図6および図7に基づいて、本開示の第2の実施形態に係る情報処理装置を備える表示装置200について説明する。表示装置200は、第1の実施形態の表示装置100と比較して、ユーザが操作対象の画像を移動させたとき、他の画像(3D画像300やOSD画像310)と重複して視認できない状態である場合には自動的に操作対象の画像の表示位置を調整する点で相違する。以下、第1の実施形態に係る表示装置100との相違点を主に、本実施形態に係る表示装置200の構成とその機能について説明する。
[2−1.機能構成]
まず、図6に基づいて、本実施形態に係る表示装置200の機能構成を説明する。なお、図6は、本実施形態に係る表示装置200の機能構成を示す機能ブロック図である。本実施形態に係る表示装置100は、図2に示すように、入力検出部110と、演算部220と、表示処理部130と、表示部140とを備える。入力検出部110、表示処理部130、および表示部140については第1の実施形態と同様の機能を有するため、ここでは説明を省略する。本実施形態において、演算部220および表示処理部130は、3次元画像の表示位置を調整する表示処理を行う情報処理装置として機能する。
演算部220は、入力検出部110からの検出結果に基づいて、操作体の位置を特定し、操作対象となる画像の目標表示位置を算出する。演算部220は、操作位置算出部222と、操作対象操作位置算出部224と、表示位置調整部226とからなる。
操作位置算出部222および操作対象操作位置算出部224は、第1の実施形態に係る操作位置算出部122および操作対象操作位置算出部124と同様に機能する。操作位置算出部222は入力検出部110の検出結果より操作体の位置を算出し、操作対象目標表示位置算出部224へ出力する。また、操作対象目標表示位置算出部224は、操作体の操作位置情報の変化に応じて操作対象の画像を表示させる位置を算出し、表示位置調整部226へ出力する。
表示位置調整部226は、操作対象目標表示位置算出部224により算出した操作対象の画像を表示させる位置と、表示部140に表示されている他の画像との奥行方向の位置関係に応じて、操作対象の画像の目標表示位置を調整する。操作対象の画像の表示位置がユーザによって変更された後であっても、依然として操作対象の画像が他の画像の背面側に位置しており操作対象の画像を視認できない場合もある。そこで、表示位置調整部226は、ユーザにより移動された操作対象と表示部140に表示されている他の画像との奥行方向の位置を比較して、操作対象が他の画像の背面側に位置する場合には自動的にそれよりも前面側に表示されるように調整する。
表示位置調整部226による目標表示位置の自動調整は、操作対象の画像を最前面に表示するようにしてもよく、奥行方向(z方向)において移動可能領域を設け、その範囲内で最前面に位置するようにしてもよい。例えば、3次元画像では、ユーザと画像との位置が近付き過ぎると画像が見難くなる。そこで、見易い画像を提供できる範囲内で操作対象の画像を調整するようにしてもよい。また、3次元画像を鮮明に認識できなくなる領域がある場合には、当該領域に操作対象が移動しない範囲で操作対象の画像の目標表示位置を調整してもよい。
表示位置調整部226は、操作対象の画像の目標表示位置を調整すると、調整後の目標表示位置情報を表示処理部130へ出力する。表示処理部130は当該表示位置情報に基づき、表示部に3次元画像を表示させる。
[2−2.表示処理]
次に、図7に基づいて、本実施形態に係る表示装置200による表示処理について説明する。なお、図7は、本実施形態に係る表示装置100による表示処理を示すフローチャートである。
本実施形態における表示処理でも、第1の実施形態と同様、まず、ユーザは、表示されている画像のうち表示位置を変更したい操作対象となる画像を、操作体(例えば手)で選択する操作入力を行う(S200)。本実施形態では、例えば表示されている画像を手でつまむ動作を選択の動作とする。ユーザは表示部140の前の空間に表示されている画像から、移動させる画像をつまむ動作を行う。
このとき、入力検出部110は操作体の位置を検出し続けており、入力検出部110が操作体を検出すると、操作位置算出部222は、操作体の操作位置情報に基づいて、操作対象の画像を選択する動作(例えば画像をつまむ動作)が行われたか否かを判定する。操作対象の画像の特定は、第1の実施形態と同様、操作体の操作位置情報と表示部140の視差情報とを照らし合わせることにより行うことができる。操作体の操作位置情報と表示部140の視差情報とが一致するとき、ユーザはその位置に表示されている画像を操作対象として特定したと判断できる(S210)。例えば、図4の例において、OSD画像310である説明文字314が操作対象として特定されたとする。
操作対象の画像を特定すると、操作位置算出部222は、入力検出部110からの検出結果より操作体の操作位置情報を算出し、操作体の移動や操作対象の画像を放す動作が行われたか否かを監視する。操作対象目標表示位置算出部224は、操作位置算出部122の算出した操作体の操作位置情報に基づき、操作体の位置に操作対象の画像が表示されるように表示位置情報を算出する(S220)。
一方、操作位置算出部222は、入力検出部110の検出結果に基づき、操作体が操作対象の画像の移動を終了する動作が行われたか否かを判定する。操作対象の画像の移動を終了する動作としては、例えば放す動作とすることができる。画像を放す動作が行われたと判定されたとき、表示位置調整部226は、操作対象の画像が他の画像より背面側(z軸負方向側)にあるか否かを判定する。
例えば、図4の例においては、OSD画像310である説明文字314が操作対象として選択されているとき、ユーザが移動した後の説明文字314の表示位置よりも前面側に他の画像(少なくとも3D画像300)があるかが判定される。これは、説明文字314の内容をユーザが視認できるようにするために行われ、説明文字314よりも前面側に他の画像がある場合には、説明文字314が他の画像(3D画像300)より前面に位置するように、説明文字314の奥行方向の表示位置を調整する(S240)。なお、説明文字314が最前面にある場合には、当該説明文字314の表示位置は変更されない。
その後、画像処理部130は、表示位置調整部226により調整された操作対象の画像の表示位置情報に基づき、表示部140に3D画像300およびOSD画像310を表示させる(S250)。
また、操作位置算出部222は、入力検出部110の検出結果に基づき、操作体が操作対象の画像の移動を終了する動作が行われたか否かを判定する(S260)。操作対象の画像の移動を終了する動作としては、例えば放す動作とすることができる。ステップS260にて画像を放す動作が行われたと判定されたとき、操作対象の画像は、ステップS250にて表示した状態のままとして、図7の処理を終了する。一方、ステップS260にて画像を放す動作は行われていないと判定されたとき、ステップS220からの処理が繰り返される。
以上、本実施形態に係る表示装置200による表示処理について説明した。本実施形態によれば、3次元画像として表示された画像のうち、手で任意の画像をつまんで選択し移動させることで、直感的に画像の表示位置を調整することができる。また、本実施形態では、操作対象の画像が、ユーザが移動させた後もなお他の画像に埋もれてしまう場合には、自動的に操作対象の画像を前面側に表示するように調整する。これにより、ユーザは操作対象の画像を確実に視認できるようになる。
なお、本実施形態においても、OSD画像310である説明文字314を奥行方向(z方向)のみだけでなく、操作体による操作時および自動補正時において、操作対象の画像をx方向およびy方向に移動させることも可能である。
<3.変形例>
[3−1.操作対象となる画像について]
上記実施形態では、図4および図5に示すように、3次元画像のうち、メニューやアイコン、文字説明等のようなOSD画像310を移動させる場合について説明したが、本技術はかかる例に限定されない。例えば、図8に示すように、3D画像300を構成する画像の一部を移動することも可能である。図8の例では、3D画像300を構成する木306を手でつまみ、前面側に移動させている。このときの表示装置の処理は、上記実施形態のいずれの方法を用いてもよい。また、操作対象の画像は前面側だけでなく背面側に移動させることも可能である。これにより、操作対象の画像を他の画像に意図的に隠すことができる。このように、上記実施形態の表示処理を用いることで、画像毎に柔軟に表示位置を変更することができる。
[3−2.操作対象となる画像の選択]
上記実施形態では、操作対象となる画像を選択する動作として、手で移動させたい画像をつまむ動作を行う場合を説明したが、本技術はかかる例に限定されない。例えば、表示部140に表示されている3次元画像のうち操作対象とする画像上で指を所定の方向(例えば上下、左右等)に素早く振る動作を、操作対象の画像を選択する動作としてもよい。あるいは、操作体を動かして選択対象とする画像を円や四角等の枠で囲む操作を、操作対象の画像を選択する動作としてもよい。
指を振ったり操作対象の画像を囲んだりする動作は、予めユーザが任意のジェスチャ操作として表示装置の記憶部(図示せず。)に記憶しておくこともできる。任意のジェスチャとしては、例えば、操作対象とする画像上で指を上下に2回振った後、左右に1回振る動作等がある。このように任意のジェスチャ操作を設定することで、ユーザの好みの操作によって操作対象の画像を選択することができる。
また、操作対象とする画像は、1つのみ選択してもよく、複数選択してもよい。複数の画像を操作対象とする場合、例えば複数の画像を1つの枠で囲むように操作体を動かすことで、これらの画像を選択することができる。そして、操作体を移動させることで、選択された複数の画像を同時に移動させることができる。このとき、各画像の移動は、操作体の移動量だけそれぞれ移動させてもよく、ある1つの操作対象の画像(例えば最前面に表示されている画像や、最初に選択された画像、あるいはユーザがつまんでいる画像等)の移動後の奥行方向の位置と同位置に他の操作対象の画像を移動させてもよい。
<4.ハードウェア構成例>
本実施形態に係る表示装置100による処理は、ハードウェアにより実行させることもでき、ソフトウェアによって実行させることもできる。この場合、表示装置100は、図9に示すように構成することもできる。以下、図9に基づいて、本実施形態に係る表示装置100の一ハードウェア構成例について説明する。なお、図6に示す表示装置200も同様に構成できる。
本実施形態に係る表示装置100は、上述したように、コンピュータ等の処理装置により実現することができる。表示装置100は、図9に示すように、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ホストバス904aとを備える。また、表示装置100は、ブリッジ904と、外部バス904bと、インタフェース905と、入力装置906と、出力装置907と、ストレージ装置(HDD)908と、ドライブ909と、接続ポート911と、通信装置913とを備える。
CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って表示装置100内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス904aにより相互に接続されている。
ホストバス904aは、ブリッジ904を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス904bに接続されている。なお、必ずしもホストバス904a、ブリッジ904および外部バス904bを分離構成する必要はなく、一のバスにこれらの機能を実装してもよい。
入力装置906は、マウス、キーボード、タッチパネル、ボタン、マイク、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。出力装置907は、例えば、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置や、スピーカなどの音声出力装置を含む。
ストレージ装置908は、表示装置100の記憶部の一例であり、データ格納用の装置である。ストレージ装置908は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置908は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置908は、ハードディスクを駆動し、CPU901が実行するプログラムや各種データを格納する。
ドライブ909は、記憶媒体用リーダライタであり、表示装置100に内蔵、あるいは外付けされる。ドライブ909は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記録媒体に記録されている情報を読み出して、RAM903に出力する。
接続ポート911は、外部機器と接続されるインタフェースであって、例えばUSB(Universal Serial Bus)などによりデータ伝送可能な外部機器との接続口である。また、通信装置913は、例えば、通信網5に接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置913は、無線LAN(Local Area Network)対応通信装置であっても、ワイヤレスUSB対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記実施形態では、表示装置に演算部および表示処理部を設けたが、本技術はかかる例に限定されない。例えば、例えば入力検出部および表示部を備える表示装置と通信可能に接続された機器に演算部および表示処理部を設け、当該機器で表示部に表示する3次元画像の各表示位置を算出し、算出された表示位置に基づいて表示部に3次元画像を表示させてもよい。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
操作入力を行う操作体の3次元空間における位置を検出する入力検出部と、
前記入力検出部による検出結果に基づいて、表示部に表示された3次元画像から操作対象となる操作対象画像を特定し、前記操作対象画像の目標表示位置を算出する演算部と、
前記操作対象画像を前記演算部により算出した前記目標表示位置に表示されるように前記表示部に表示させる表示処理部と、
を備える、情報処理装置。
(2)
前記演算部は、
前記入力検出部の検出結果に基づいて、前記表示部に対する前記操作体の位置を算出し、前記操作対象画像を特定する操作位置算出部と、
前記操作体の位置変化に基づいて、前記操作対象画像の前記目標表示位置を算出する操作対象目標表示位置算出部と、
からなる、前記(1)に記載の情報処理装置。
(3)
前記操作位置算出部は、
前記入力検出部の検出結果から前記操作対象画像を選択する選択動作が行われたか否かを判定し、
前記選択動作が行われたとき、前記操作体の位置と表示位置が一致する前記表示部に表示されている3次元画像の少なくとも一部を前記操作対象画像として特定する、前記(2)に記載の情報処理装置。
(4)
前記演算部は、前記操作対象画像の少なくとも奥行方向における前記目標表示位置を算出する、前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(5)
前記操作対象画像の前記目標表示位置と他の3次元画像の表示位置とを比較して、前記操作対象画像の前記目標表示位置を自動的に調整する表示位置調整部をさらに備える、前記(1)〜(4)のいずれか1項に記載の情報処理装置。
(6)
前記表示位置調整部は、操作体による移動後の前記操作対象画像が前記他の3次元画像より背面側に位置するとき、当該操作対象画像を前記他の3次元画像より前面側に表示されるように前記目標表示位置を調整する、前記(5)に記載の情報処理装置。
(7)
前記操作対象画像は、前記操作対象画像を移動可能な移動可能領域内でのみ移動可能である、前記(1)〜(6)のいずれか1項に記載の情報処理装置。
(8)
前記3次元画像は、3次元表示されるコンテンツ画像と、前記コンテンツ画像と共に表示されるOSD画像とからなり、
前記操作対象画像はOSD画像である、前記(1)〜(7)のいずれか1項に記載の情報処理装置。
100、200 表示装置
102 3Dディスプレイ
104 入力検出デバイス
110 入力検出部
120、220 演算部
122、222 操作位置算出部
124、224 操作対象目標表示位置算出部
130 表示処理部
140 表示部
226 表示位置調整部
300 3D画像
310 OSD画像

Claims (10)

  1. 操作入力を行う操作体の3次元空間における位置を検出する入力検出部による検出結果に基づいて、表示部に表示された3次元画像から操作対象となる操作対象画像を特定し、前記操作対象画像の目標表示位置を算出する演算部と、
    前記操作対象画像を前記演算部により算出した前記目標表示位置に表示されるように前記表示部に表示させる表示処理部と、
    を備える、情報処理装置。
  2. 前記演算部は、
    前記入力検出部の検出結果に基づいて、前記表示部に対する前記操作体の位置を算出し、前記操作対象画像を特定する操作位置算出部と、
    前記操作体の位置変化に基づいて、前記操作対象画像の前記目標表示位置を算出する操作対象目標表示位置算出部と、
    からなる、請求項1に記載の情報処理装置。
  3. 前記操作位置算出部は、
    前記入力検出部の検出結果から前記操作対象画像を選択する選択動作が行われたか否かを判定し、
    前記選択動作が行われたとき、前記操作体の位置と表示位置が一致する前記表示部に表示されている3次元画像の少なくとも一部を前記操作対象画像として特定する、請求項2に記載の情報処理装置。
  4. 前記演算部は、前記操作対象画像の少なくとも奥行方向における前記目標表示位置を算出する、請求項1に記載の情報処理装置。
  5. 前記操作対象画像の前記目標表示位置と他の3次元画像の表示位置とを比較して、前記操作対象画像の前記目標表示位置を自動的に調整する表示位置調整部をさらに備える、請求項1に記載の情報処理装置。
  6. 前記表示位置調整部は、操作体による移動後の前記操作対象画像が前記他の3次元画像より背面側に位置するとき、当該操作対象画像を前記他の3次元画像より前面側に表示されるように前記目標表示位置を調整する、請求項5に記載の情報処理装置。
  7. 前記操作対象画像は、前記操作対象画像を移動可能な移動可能領域内でのみ移動可能である、請求項1に記載の情報処理装置。
  8. 前記3次元画像は、3次元表示されるコンテンツ画像と、前記コンテンツ画像と共に表示されるOSD画像とからなり、
    前記操作対象画像はOSD画像である、請求項1に記載の情報処理装置。
  9. 操作入力を行う操作体の3次元空間における位置を検出すること、
    前記操作体の位置の検出結果に基づいて、表示部に表示された3次元画像から操作対象となる操作対象画像を特定し、前記操作対象画像の目標表示位置を算出すること、
    前記操作対象画像を前記算出された前記目標表示位置に表示されるように前記表示部に表示させること、
    を含む、情報処理方法。
  10. コンピュータを、
    操作入力を行う操作体の3次元空間における位置を検出する入力検出部による検出結果に基づいて、表示部に表示された3次元画像から操作対象となる操作対象画像を特定し、前記操作対象画像の目標表示位置を算出する演算部と、
    前記操作対象画像を前記演算部により算出した前記目標表示位置に表示されるように前記表示部に表示させる表示処理部と、
    を備える、情報処理装置として機能させるコンピュータプログラム。
JP2014500118A 2012-02-17 2013-01-08 情報処理装置、情報処理方法およびコンピュータプログラム Pending JPWO2013121807A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014500118A JPWO2013121807A1 (ja) 2012-02-17 2013-01-08 情報処理装置、情報処理方法およびコンピュータプログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012032484 2012-02-17
JP2012032484 2012-02-17
JP2014500118A JPWO2013121807A1 (ja) 2012-02-17 2013-01-08 情報処理装置、情報処理方法およびコンピュータプログラム

Publications (1)

Publication Number Publication Date
JPWO2013121807A1 true JPWO2013121807A1 (ja) 2015-05-11

Family

ID=48983935

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014500118A Pending JPWO2013121807A1 (ja) 2012-02-17 2013-01-08 情報処理装置、情報処理方法およびコンピュータプログラム

Country Status (5)

Country Link
US (1) US10409446B2 (ja)
EP (1) EP2816456A1 (ja)
JP (1) JPWO2013121807A1 (ja)
CN (1) CN104094209A (ja)
WO (1) WO2013121807A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2816456A1 (en) * 2012-02-17 2014-12-24 Sony Corporation Information processing device, information processing method, and computer program
US10133342B2 (en) * 2013-02-14 2018-11-20 Qualcomm Incorporated Human-body-gesture-based region and volume selection for HMD
JP6425299B2 (ja) * 2013-12-10 2018-11-21 国立大学法人 筑波大学 手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システム
WO2015108112A1 (ja) * 2014-01-15 2015-07-23 株式会社Juice Design 操作判定装置、操作判定方法、および、プログラム
US10691324B2 (en) * 2014-06-03 2020-06-23 Flow Labs, Inc. Dynamically populating a display and entering a selection interaction mode based on movement of a pointer along a navigation path
WO2016006731A1 (ko) 2014-07-09 2016-01-14 엘지전자 주식회사 촬영 모드를 제어하는 포터블 디바이스 및 그 제어 방법
WO2016197247A1 (en) * 2015-06-12 2016-12-15 Nureva, Inc. Method and apparatus for managing and organizing objects in a virtual repository
US20170278308A1 (en) * 2016-03-23 2017-09-28 Intel Corporation Image modification and enhancement using 3-dimensional object model based recognition
JP7040041B2 (ja) * 2018-01-23 2022-03-23 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム及びプログラム
US11442591B2 (en) * 2018-04-09 2022-09-13 Lockheed Martin Corporation System, method, computer readable medium, and viewer-interface for prioritized selection of mutually occluding objects in a virtual environment

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04257014A (ja) * 1991-02-12 1992-09-11 Matsushita Electric Ind Co Ltd 入力装置
JP2558984B2 (ja) 1991-03-12 1996-11-27 松下電器産業株式会社 3次元情報会話システム
US7439975B2 (en) * 2001-09-27 2008-10-21 International Business Machines Corporation Method and system for producing dynamically determined drop shadows in a three-dimensional graphical user interface
JP2004029979A (ja) * 2002-06-21 2004-01-29 Nippon Telegr & Teleph Corp <Ntt> 多量数情報の配置補正方法およびその装置
JP3971694B2 (ja) 2002-12-11 2007-09-05 日本電信電話株式会社 オブジェクト表示方法及びその実施装置
JP4773170B2 (ja) * 2005-09-14 2011-09-14 任天堂株式会社 ゲームプログラムおよびゲームシステム
JP4248584B2 (ja) * 2006-07-31 2009-04-02 シャープ株式会社 表示装置、表示プログラムおよびコンピュータ読み取り可能な記録媒体
US20080231926A1 (en) * 2007-03-19 2008-09-25 Klug Michael A Systems and Methods for Updating Dynamic Three-Dimensional Displays with User Input
US9772689B2 (en) * 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
JP2010252055A (ja) 2009-04-15 2010-11-04 Sony Corp データ構造、記録媒体、再生装置および再生方法、並びにプログラム
JP5589625B2 (ja) * 2010-07-08 2014-09-17 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
KR20120020477A (ko) * 2010-08-30 2012-03-08 삼성전자주식회사 입체영상표시장치 및 그 구동 방법
US8558759B1 (en) * 2011-07-08 2013-10-15 Google Inc. Hand gestures to signify what is important
AU2011265428B2 (en) * 2011-12-21 2014-08-14 Canon Kabushiki Kaisha Method, apparatus and system for selecting a user interface object
EP2816456A1 (en) * 2012-02-17 2014-12-24 Sony Corporation Information processing device, information processing method, and computer program

Also Published As

Publication number Publication date
US20150234567A1 (en) 2015-08-20
EP2816456A1 (en) 2014-12-24
WO2013121807A1 (ja) 2013-08-22
CN104094209A (zh) 2014-10-08
US10409446B2 (en) 2019-09-10

Similar Documents

Publication Publication Date Title
WO2013121807A1 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
US11816330B2 (en) Display device, display controlling method, and computer program
US8610678B2 (en) Information processing apparatus and method for moving a displayed object between multiple displays
JP6370893B2 (ja) 検出されたジェスチャーに基づいてデバイス動作を実行するためのシステムおよび方法
KR101981822B1 (ko) 전-공간적 제스쳐 입력
AU2013223015A1 (en) Method and apparatus for moving contents in terminal
JP2015508211A (ja) カメラモジュールを通じてユーザの頭部を追跡することによりスクリーンを制御する方法及び装置、並びにそのコンピュータ可読記録媒体
US11803233B2 (en) IMU for touch detection
KR102542913B1 (ko) 회전체를 구비한 전자 장치 및 이의 동작 방법
US20200104025A1 (en) Remote touch detection enabled by peripheral device
KR101872272B1 (ko) 제어 기기를 이용한 전자기기의 제어 방법 및 장치
KR20140056860A (ko) 광 센서를 구비한 전자 기기 및 이의 제어 방법, 이 전자 기기를 위한 제스처 인식 장치와 방법
CN113396378A (zh) 针对用于二维和三维环境的多用途输入装置的系统和方法
JP5865615B2 (ja) 電子機器および制御方法
KR20170049991A (ko) 압력 터치를 이용한 사용자 인터렉션 제공 방법 및 그를 이용하는 전자 장치
US20160147294A1 (en) Apparatus and Method for Recognizing Motion in Spatial Interaction
US9665260B2 (en) Method and apparatus for controlling screen of mobile device
JP2013152529A (ja) 情報処理装置及びその制御方法
US11054941B2 (en) Information processing system, information processing method, and program for correcting operation direction and operation amount
US20230367468A1 (en) Information processing device, information processing method, and information processing program
WO2015059992A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2016035621A1 (ja) 情報処理装置、情報処理方法およびプログラム