JP6575518B2 - 表示制御装置、表示制御方法およびプログラム - Google Patents

表示制御装置、表示制御方法およびプログラム Download PDF

Info

Publication number
JP6575518B2
JP6575518B2 JP2016529171A JP2016529171A JP6575518B2 JP 6575518 B2 JP6575518 B2 JP 6575518B2 JP 2016529171 A JP2016529171 A JP 2016529171A JP 2016529171 A JP2016529171 A JP 2016529171A JP 6575518 B2 JP6575518 B2 JP 6575518B2
Authority
JP
Japan
Prior art keywords
application
unit
display
operation target
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016529171A
Other languages
English (en)
Other versions
JPWO2015198729A1 (ja
Inventor
克也 兵頭
克也 兵頭
邦在 鳥居
邦在 鳥居
遼 深澤
遼 深澤
佐藤 直之
直之 佐藤
浩一 川崎
浩一 川崎
昭彦 泉
昭彦 泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2015198729A1 publication Critical patent/JPWO2015198729A1/ja
Application granted granted Critical
Publication of JP6575518B2 publication Critical patent/JP6575518B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本開示は、表示制御装置、表示制御方法およびプログラムに関する。
近年、1または複数のアプリケーションそれぞれに関連付けられた表示オブジェクトを表示し、マウスを用いたクリック操作によって指定された表示オブジェクトに関連付けられたアプリケーションを操作対象のアプリケーションとして選択する技術が知られている。また、タッチパネルへのタップ操作によって指定された表示オブジェクトに関連付けられたアプリケーションを操作対象のアプリケーションとして選択する技術も知られている(例えば、特許文献1参照)。
表示オブジェクトの例としては、ウィンドウ、アイコンなどといった各種のオブジェクトが挙げられる。このようにして選択された操作対象のアプリケーションに対しては、ユーザが操作を行うことが可能となる。
特開2011−034140号公報
しかし、タッチパネルへのタップ操作によって表示オブジェクトが指定される場合、表示オブジェクトが表示される画面が大きくなるにつれてタッチパネルへのタップ操作を行うのがユーザにとって煩雑になり得る。また、マウスを用いたクリック操作によって表示オブジェクトが指定される場合、表示オブジェクトが表示される画面が大きくなるにつれてポインティング位置をドラッグ操作によって移動させるのがユーザにとって煩雑になり得る。
そこで、ユーザが操作対象のアプリケーションを容易に指定することが可能な技術が提供されることが望まれる。
本開示によれば、1または複数のアプリケーションそれぞれに関連付けられた表示オブジェクトが表示されるように出力部を制御する出力制御部と、ユーザの指差し方向を検出する行動検出部と、前記1または複数のアプリケーションそれぞれに関連付けられた表示オブジェクトと前記指差し方向とに基づいて、操作対象のアプリケーションを選択するアプリケーション選択部と、を備える、表示制御装置が提供される。
本開示によれば、1または複数のアプリケーションそれぞれに関連付けられた表示オブジェクトが表示されるように出力部を制御することと、ユーザの指差し方向を検出することと、前記1または複数のアプリケーションそれぞれに関連付けられた表示オブジェクトと前記指差し方向とに基づいて、操作対象のアプリケーションを選択することと、を備える、表示制御方法が提供される。
本開示によれば、コンピュータを、1または複数のアプリケーションそれぞれに関連付けられた表示オブジェクトが表示されるように出力部を制御する出力制御部と、ユーザの指差し方向を検出する行動検出部と、前記1または複数のアプリケーションそれぞれに関連付けられた表示オブジェクトと前記指差し方向とに基づいて、操作対象のアプリケーションを選択するアプリケーション選択部と、を備える、表示制御装置として機能させるためのプログラムが提供される。
以上説明したように本開示によれば、ユーザが操作対象のアプリケーションを容易に指定することが可能な技術が提供される。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の実施形態に係る情報処理システムの構成例を示す図である。 同実施形態に係る情報処理システムの機能構成例を示すブロック図である。 操作対象のアプリケーション選択の第1の例を示す図である。 操作対象のアプリケーション選択の第2の例を示す図である。 操作対象のアプリケーション選択の第3の例を示す図である。 操作対象のアプリケーション選択の第4の例を示す図である。 操作対象のアプリケーション選択の第5の例を示す図である。 操作対象のアプリケーション選択の第6の例を示す図である。 操作対象のアプリケーション選択の第7の例を示す図である。 操作対象のアプリケーションに対応する動作の第1の例を示す図である。 操作対象のアプリケーションに対応する動作の第2の例を示す図である。 操作対象のアプリケーションに対応する動作の第3の例を示す図である。 操作対象のアプリケーションに対応する動作の第4の例を示す図である。 本開示の実施形態に係る表示制御装置の動作の例を示すフローチャートである。 同実施形態に係る情報処理システムのハードウェア構成例を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットまたは数字を付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
なお、説明は以下の順序で行うものとする。
1.本開示の実施形態
1.1.システム構成例
1.2.機能構成例
1.3.操作対象のアプリケーション選択例
1.4.操作対象のアプリケーションに対応する動作例
1.5.表示制御装置の動作例
1.6.ハードウェア構成例
2.むすび
<1.本開示の実施形態>
[1.1.システム構成例]
まず、図面を参照しながら本開示の実施形態に係る情報処理システム100の構成例について説明する。図1は、本開示の実施形態に係る情報処理システム100の構成例を示す説明図である。図1に示したように、本開示の実施形態に係る情報処理システム100は、入力部110(110A、110B)と、出力部130(130A、130B)とを備える。情報処理システム100は、各種の情報を表示し、情報処理システム100を使用するユーザU(以下、単に「ユーザ」とも言う。)に各種の情報に対する操作をさせるシステムである。
入力部110Aは、情報を入力する機能を有する。図1に示した例では、入力部110Aは、テーブル140の上方に天井から吊り下げられている。しかし、入力部110Aが設けられる位置は特に限定されない。入力部110Aには、単眼カメラが含まれてもよいし、ステレオカメラが含まれてもよい。また、入力部110Aには、ユーザが発する音声を収音するマイクが追加的に含まれてもよい。
出力部130Aは、テーブル140に画面G1を表示する機能を有する。図1に示した例では、出力部130Aは、テーブル140の上方に天井から吊り下げられている。しかし、出力部130Aが設けられる位置は特に限定されない。例えば、出力部130Aには、テーブル140の天面に画面G1を投影することが可能なプロジェクタが含まれてもよい。また、出力部130Aは、音声信号に基づいて音声を出力することが可能なスピーカが追加的に含まれてもよい。
ここで、スピーカの数は1つであってもよいし、複数であってもよい。例えば、出力部130Aに含まれるスピーカの数が複数である場合、複数のスピーカの中から、音声を出力するスピーカが選択されてもよい。また、出力部130Aに含まれるスピーカの数が1または複数である場合、1または複数のスピーカの一部または全部による音声の出力方向が調整されてもよい。
なお、本明細書では、テーブル140の天面が画面G1の表示面となる場合を主に説明するが、画面G1の表示面は、テーブル140の天面以外であってもよい。例えば、画面G1の表示面は、壁、建物、床面、地面などであってもよい。また、出力部130Aが表示面を有する場合には、画面G1の表示面は、出力部130Aが有する表示面であってもよい。
入力部110Bは、情報を入力する機能を有する。図1に示した例では、入力部110Bは、情報入力端末に設けられている。しかし、入力部110Bが設けられる位置は特に限定されない。入力部110Bには、ユーザのタッチ操作やドラッグ操作などを検出することが可能なタッチパネルが含まれてもよいし、ユーザによる押下操作を検出することが可能なボタンが含まれてもよい。
出力部130Bは、情報を出力する機能を有する。図1に示した例では、出力部130Bは、情報入力端末に設けられている。しかし、出力部130Bが設けられる位置は特に限定されない。例えば、出力部130Bには、情報を表示することが可能な表示装置が含まれてもよい。また、出力部130Bは、音声信号に基づいて音声を出力することが可能なスピーカが追加的に含まれてもよい。
以上、本開示の実施形態に係る情報処理システム100の構成例について説明した。
[1.2.機能構成例]
続いて、本開示の実施形態に係る情報処理システム100の機能構成例について説明する。図2は、本開示の実施形態に係る情報処理システム100の機能構成例を示すブロック図である。図2に示したように、本開示の実施形態に係る情報処理システム100は、入力部110(110A、110B)と、制御部120(以下、「表示制御装置120」とも言う。)と、出力部130(130A、130B)とを備える。
表示制御装置120は、情報処理システム100の各部の制御を実行する。例えば、表示制御装置120は、出力部130から出力する情報を生成する。また、例えば、表示制御装置120は、入力部110が入力した情報を、出力部130から出力する情報に反映させる。図2に示したように、表示制御装置120は、行動検出部121と、デバイス状態検出部122と、アプリケーション状態検出部123と、アプリケーション選択部124と、出力制御部125とを備える。これらの各機能ブロックについての詳細は、後に説明する。
なお、表示制御装置120は、例えば、CPU(Central Processing Unit;中央演算処理装置)などで構成されていてもよい。表示制御装置120がCPU等の装置で構成される場合は、かかる装置は電子回路で構成され得る。
以上、本開示の実施形態に係る情報処理システム100の機能構成例について説明した。続いて、本開示の実施形態に係る表示制御装置120が有する機能の詳細について説明する。まず、出力制御部125は、表示制御装置120による制御に従って、出力部130Aに画面G1を出力させる。画面G1には、1または複数のアプリケーションそれぞれに関連付けられた表示オブジェクトが含まれていてよい。
ユーザが画面G1を参照して、操作しようとするアプリケーションに関連付けられた表示オブジェクトを見つけた場合、その表示オブジェクトに対して指差しを行う。ここで、指差しに用いられる指の種類は特に限定されない。そして、行動検出部121は、ユーザの指差し方向を検出する。例えば、行動検出部121は、入力部110Aによって撮像された画像から指差し方向を検出する。
なお、本明細書においては、行動検出部121が、テーブル140への指の接触を検出したときに、指の付け根から先端に向かう方向を示す二次元的な情報を指差し方向として検出する場合について主に説明する。二次元的な情報は、入力部110Aがカメラを含む場合、カメラによって撮像された画像に映る指の付け根から先端に向かう方向であってよい。ここで、テーブル140への指の接触は、どのように検出されてもよい。
例えば、入力部110Aがステレオカメラを含む場合には、行動検出部121は、ステレオカメラによって撮像された画像を解析して得られる指の奥行情報と画像における指の座標とに基づいて、テーブル140への指の接触を検出してもよい。あるいは、入力部110Aがテーブル140に積層されたタッチパネルを含む場合には、行動検出部121は、タッチパネルによる指の接触検出によって、テーブル140への指の接触を検出してもよい。
なお、行動検出部121が指差し方向を検出するタイミングは、テーブル140への指の接触を検出したときでなくてもよい。例えば、行動検出部121は、カメラによって撮像された画像に基づいて所定の領域内への指の進入を検出したときに、指差し方向を検出してもよい。また、指差し方向は、指の付け根から先端に向かう方向を示す三次元的な情報であってよい。例えば、入力部110Aがステレオカメラを含む場合には、行動検出部121は、ステレオカメラによって撮像された画像を解析して指の付け根から先端に向かう方向を示す三次元的な情報を検出してもよい。
行動検出部121によって指差し方向が検出されると、アプリケーション選択部124は、1または複数のアプリケーションそれぞれに関連付けられた表示オブジェクトと指差し方向とに基づいて、操作対象のアプリケーションを選択する。かかる構成によれば、ユーザが操作対象のアプリケーションを容易に指定することが可能となる。以下、アプリケーション選択部124による操作対象のアプリケーション選択例について詳細に説明する。
[1.3.操作対象のアプリケーション選択例]
図3は、操作対象のアプリケーション選択の第1の例を示す図である。図3を参照すると、出力制御部125は、それぞれがアプリケーションに関連付けられた表示オブジェクトA1〜A3を含む画面G1を出力部130Aに表示させている。図3には、表示オブジェクトA1〜A3それぞれは、アプリケーション実行時に画面G1に現れるウィンドウである場合が例として示されているが、表示オブジェクトA1〜A3それぞれは、ウィンドウに限定されず、アイコンであってもよいし、他のオブジェクトであってもよい。また、画面G1に含まれる表示オブジェクトの数も特に限定されない。
表示オブジェクトA1〜A3それぞれの画面G1における位置は、ユーザUのドラッグ操作によって移動可能であってもよく、表示制御装置120によって記憶されている。ここで、ユーザUは、表示オブジェクトA1に関連付けられたアプリケーションを操作したいと考えた場合、テーブル140に指を接触させるとともに表示オブジェクトA1を指差しすればよい。そうすると、アプリケーション選択部124は、指の位置Pfを基準として指差し方向Df(ラインLf上)に存在する表示オブジェクトA1に関連付けられたアプリケーションを、操作対象のアプリケーションとして選択する。
このように指の位置Pfを基準とすれば、ユーザUがより直感的に操作対象のアプリケーションを指定することが可能である。指の位置Pfは、画面G1における位置であってよい。例えば、アプリケーション選択部124は、入力部110Aによって入力された画像を解析することによって指の位置Pfを取得してよい。また、図3には、ユーザの位置Puも示されている。ユーザの位置Puについては、後に説明する。
図4は、操作対象のアプリケーション選択の第2の例を示す図である。図4を参照すると、図3に示した例と同様に、出力制御部125は、それぞれがアプリケーションに関連付けられた表示オブジェクトA1〜A3を含む画面G1を出力部130Aに表示させている。ここで、ユーザUから見て、表示オブジェクトA2が手前側にあり、表示オブジェクトA3が奥側にある。
このような場合であっても、テーブル140に指を接触させるとともに表示オブジェクトA2および表示オブジェクトA3を指差しすればよい。アプリケーション選択部124は、ラインLf上に存在する表示オブジェクトA2および表示オブジェクトA3のうち、指の位置から最も近い表示オブジェクトA2に関連付けられたアプリケーションを、操作対象のアプリケーションとして選択すればよい。指の位置から最も近い表示オブジェクトA2に関連付けられたアプリケーションを、操作対象のアプリケーションとして指定したいとユーザUが考える可能性がより高いからである。
図5は、操作対象のアプリケーション選択の第3の例を示す図である。図5を参照すると、図3に示した例と同様に、出力制御部125は、それぞれがアプリケーションに関連付けられた表示オブジェクトA1〜A3を含む画面G1を出力部130Aに表示させている。ここで、ユーザUから見て、表示オブジェクトA2が手前側にあり、表示オブジェクトA3が奥側にある。
このような場合、図4に示したように、アプリケーション選択部124は、ラインLf上に存在する表示オブジェクトA2および表示オブジェクトA3のうち、指の位置から最も近い表示オブジェクトA2に関連付けられたアプリケーションを、操作対象のアプリケーションとして選択すればよい。しかし、ユーザUは、操作対象のアプリケーションを表示オブジェクトA3に関連付けられたアプリケーションに切り替えたいと考える場合も想定される。
このような場合であっても、ユーザUは、一度テーブル140から指を離脱させ、再度テーブル140に指を接触させるとともに表示オブジェクトA2および表示オブジェクトA3を指差しすればよい。そうすると、アプリケーション選択部124は、指の位置を基準として指差し方向Df(ラインLf上)に存在する表示オブジェクトA3に関連付けられたアプリケーションに、操作対象のアプリケーションを切り替える。なお、操作対象のアプリケーションを切り替える操作は、かかる例に限定されない。
以上に示した例においては、表示オブジェクトA1〜A3それぞれに関連付けられたアプリケーションの状態に関わらず、アプリケーション選択部124が操作対象のアプリケーションを選択する例について説明した。しかし、アプリケーション選択部124による操作対象のアプリケーションの選択に、表示オブジェクトA1〜A3それぞれに関連付けられたアプリケーションの状態が考慮されてもよい。
具体的には、アプリケーション状態検出部123は、表示オブジェクトA1〜A3それぞれの状態をアプリケーション状態として検出し、アプリケーション選択部124は、アプリケーション状態に基づいて操作対象のアプリケーションを選択するとよい。アプリケーション状態は特に限定されないが、アプリケーションに対する操作が必要か否かを示す情報であってもよい。以下、かかる例について説明する。
図6は、操作対象のアプリケーション選択の第4の例を示す図である。図6を参照すると、図3に示した例と同様に、出力制御部125は、それぞれがアプリケーションに関連付けられた表示オブジェクトA1〜A3を含む画面G1を出力部130Aに表示させている。ここで、表示オブジェクトA2に関連付けられたアプリケーションに対する操作は不要であり、表示オブジェクトA3に関連付けられたアプリケーションに対する操作は必要である。
このような場合、図6に示したように、表示オブジェクトA2および表示オブジェクトA3がラインLf上に存在するが、アプリケーション選択部124は、表示オブジェクトA2に関連付けられたアプリケーションに対する操作は不要であるため、表示オブジェクトA2に関連付けられたアプリケーションを操作対象のアプリケーションとして選択しなくてよい。操作が不要なアプリケーションは、操作対象のアプリケーションとして選択される必要性がないからである。
一方、アプリケーション選択部124は、表示オブジェクトA3に関連付けられたアプリケーションに対する操作は必要であるため、表示オブジェクトA3に関連付けられたアプリケーションを操作対象のアプリケーションとして選択すればよい。操作が必要なアプリケーションは、操作対象のアプリケーションとして選択される必要性があるからである。
なお、ここでは、アプリケーション状態として、アプリケーションに対する操作が必要か否かを示す情報を例として挙げたが、アプリケーション状態は特に限定されない。例えば、アプリケーション状態は、アプリケーションに対する操作が必要か否かを示す情報の他、アプリケーションに対する操作が必要になった時刻、アプリケーションの実行開始からの経過時間、アプリケーションに対する最終操作がなされてからの経過時間およびアプリケーションに関連付けられた表示オブジェクトとユーザとの距離のうち少なくとも何れか一つを含んでもよい。例えば、アプリケーション選択部124は、アプリケーションに対する操作が必要になった時刻が古いアプリケーションほど優先的に選択してもよい。あるいは、アプリケーション選択部124は、アプリケーションの実行開始からの経過時間が長いアプリケーションほど優先的に選択してもよい。また、アプリケーション選択部124は、アプリケーションに対する最終操作がなされてからの経過時間が短いアプリケーションほど優先的に選択してもよい。また、アプリケーション選択部124は、アプリケーションに関連付けられた表示オブジェクトとユーザとの距離が近いアプリケーションほど優先的に選択してもよい。
以上に示した例においては、表示制御装置120の状態に関わらず、アプリケーション選択部124が操作対象のアプリケーションを選択する例について説明した。しかし、アプリケーション選択部124による操作対象のアプリケーションの選択に、出力部130Aの状態が考慮されてもよい。
具体的には、デバイス状態検出部122は、表示制御装置120の状態をデバイス状態として検出し、アプリケーション選択部124は、デバイス状態に基づいて操作対象のアプリケーションを選択するとよい。デバイス状態は特に限定されないが、ネットワークに接続されているか否かを示す情報であってもよい。ネットワークに接続されているか否かを示す情報は、アプリケーションに関連付けられている各種の情報から取得されてもよい。あるいは、ネットワークを介した通信履歴が残っているか否かによってネットワークに接続されているか否かが判断されてもよい。以下、かかる例について説明する。
図7は、操作対象のアプリケーション選択の第5の例を示す図である。図7を参照すると、図3に示した例と同様に、出力制御部125は、それぞれがアプリケーションに関連付けられた表示オブジェクトA1〜A3を含む画面G1を出力部130Aに表示させている。ここで、表示制御装置120はネットワークに接続されておらず、表示オブジェクトA2に関連付けられたアプリケーションはネットワークへの接続が必要であり、表示オブジェクトA3に関連付けられたアプリケーションはネットワークへの接続が不要である。
このような場合、図7に示したように、表示オブジェクトA2および表示オブジェクトA3がラインLf上に存在するが、アプリケーション選択部124は、表示オブジェクトA2に関連付けられたアプリケーションがネットワークへの接続が必要であるため、表示オブジェクトA2に関連付けられたアプリケーションを操作対象のアプリケーションから除外してよい。ネットワークへの接続が必要なアプリケーションは、ネットワークへの非接続状態において操作対象のアプリケーションとして選択される必要性がないからである。
一方、アプリケーション選択部124は、表示オブジェクトA3に関連付けられたアプリケーションがネットワークへの接続が不要であるため、表示オブジェクトA3に関連付けられたアプリケーションを操作対象のアプリケーションとして選択すればよい。ネットワークへの接続が不要なアプリケーションは、ネットワーク非接続状態においても操作対象のアプリケーションとして選択される必要性があるからである。
なお、ここでは、デバイス状態として、表示制御装置120がネットワークに接続されているか否かを示す情報を例として挙げたが、デバイス状態は特に限定されない。
以上に示した例においては、アプリケーション選択部124は、指の位置を基準として指差し方向に存在する表示オブジェクトに関連付けられたアプリケーションを操作対象のアプリケーションとして選択する例について説明した。しかし、他の動作によって操作対象のアプリケーションが指定されてもよい。例えば、操作対象のアプリケーションとして指定したいアプリケーションに対してユーザが視線を当てることによって操作対象のアプリケーションが指定されてもよい。
具体的には、行動検出部121は、ユーザUの視線を検出し、アプリケーション選択部124は、視線上に存在する表示オブジェクトに関連付けられたアプリケーションを、操作対象のアプリケーションとして選択するとよい。ユーザUの視線はどのように検出されてもよいが、入力部110Aによって入力された画像を解析することによって検出されてもよいし、他のカメラ(例えば、ユーザUの目を撮像するカメラ)によって撮像された画像を解析することによって検出されてもよい。以下、かかる例について説明する。
図8は、操作対象のアプリケーション選択の第6の例を示す図である。図8を参照すると、図3に示した例と同様に、出力制御部125は、それぞれがアプリケーションに関連付けられた表示オブジェクトA1〜A3を含む画面G1を出力部130Aに表示させている。また、画面G1の三次元位置と表示オブジェクトA1〜A3それぞれの画面G1における位置と目の三次元位置Peとは、あらかじめ表示制御装置120によって記憶されている。
ここで、ユーザUは、表示オブジェクトA2に関連付けられたアプリケーションを操作したいと考えた場合、表示オブジェクトA2に視線を当てればよい。そうすると、アプリケーション選択部124は、目の三次元位置Peを基準として三次元的な視線方向De(ラインLe上)に存在する表示オブジェクトA2に関連付けられたアプリケーションを、操作対象のアプリケーションとして選択することができる。このように視線を利用することによって、直感的に操作対象のアプリケーションを指定することが可能である。
また、ユーザが視線を当てるという動作以外の動作によって操作対象のアプリケーションが指定されてもよい。例えば、操作対象のアプリケーションとして指定したいアプリケーションを識別するための情報(以下、単に「アプリケーション識別情報」とも言う。)をユーザが発声することによって操作対象のアプリケーションが指定されてもよい。ユーザから発せられる音声は、入力部110Aによって入力されてよい。かかる例について以下に説明する。
図9は、操作対象のアプリケーション選択の第7の例を示す図である。図9を参照すると、図3に示した例と同様に、出力制御部125は、それぞれがアプリケーションに関連付けられた表示オブジェクトA1〜A3を含む画面G1を出力部130Aに表示させている。また、表示オブジェクトA1〜A3それぞれに関連付けられたアプリケーションを識別するための情報が、あらかじめ表示制御装置120によって記憶されている。
ここで、ユーザUは、表示オブジェクトA2に関連付けられたアプリケーションを操作したいと考えた場合、そのアプリケーションを識別するための情報をユーザUが発声すればよい。そうすると、行動検出部121は、ユーザUから発せられた音声から文字列を検出し、アプリケーション選択部124は、その文字列と記憶されているアプリケーションを識別情報とを照合し、その文字列に一致または類似するアプリケーション識別情報によって識別されるアプリケーションを、操作対象のアプリケーションとして選択することができる。
このようにユーザUから発せられた音声を利用することによって、直感的に操作対象のアプリケーションを指定することが可能である。なお、ユーザUから発せられる音声は、アプリケーション識別情報自体であってもよいが、図9に示したように、所定のフレーズがアプリケーション識別情報の末尾に付された音声であってもよい。あるいは、ユーザUから発せられる音声は、所定のフレーズがアプリケーション識別情報の先頭に付された音声であってもよい。
[1.4.操作対象のアプリケーションに対応する動作例]
以上に説明したように、アプリケーション選択部124は、操作対象のアプリケーションを選択することが可能である。操作対象のアプリケーションが選択されると、出力制御部125は、操作対象のアプリケーションに対応する所定の動作が実行されるように出力部130を制御する。操作対象のアプリケーションに対応する動作は特に限定されない。以下では、操作対象のアプリケーションに対応する動作の例について説明する。
図10は、操作対象のアプリケーションに対応する動作の第1の例を示す図である。図10を参照すると、図3に示した例と同様に、出力制御部125は、それぞれがアプリケーションに関連付けられた表示オブジェクトA1〜A3を含む画面G1を出力部130Aに表示させている。また、表示オブジェクトA1〜A3それぞれに関連付けられたアプリケーションには、アプリケーションを操作するための操作オブジェクトが関連付けられている。
ここで、図10に示したように、アプリケーション選択部124によって操作対象のアプリケーションとして表示オブジェクトA1に関連付けられたアプリケーションが選択された場合を想定する。かかる場合、出力制御部125は、操作対象のアプリケーションに関連付けられた操作オブジェクトE1が表示されるように出力部130Aを制御してよい。そうすれば、表示された操作オブジェクトE1への操作により操作対象のアプリケーションを操作することが可能となる。例えば、操作対象のアプリケーションに対する操作は、操作対象のアプリケーションがコンテンツ群の再生を行うアプリケーションである場合には、コンテンツの再生開始であってもよいし、次のコンテンツの再生を行う操作であってもよいし、前のコンテンツの再生を行う操作であってもよい。
操作オブジェクトE1の位置は特に限定されないが、ユーザにとって操作しやすい領域に操作オブジェクトE1が表示されるのがよい。したがって、出力制御部125は、操作オブジェクトE1がユーザの位置Puに応じた位置に表示されるように出力部130Aを制御するとよい。より具体的には、出力制御部125は、画面G1の中でユーザの位置Puから最も近い位置に操作オブジェクトE1が表示されるように出力部130Aを制御するとよい。
なお、ユーザの位置Puはどのように取得されてもよい。例えば、出力制御部125は、入力部110Aによって入力された画像を解析することによってユーザの位置Puも取得してよい。ユーザの位置Puは、ユーザUの身体の全部であってもよいし、ユーザUの身体の一部(例えば、顔、目など)であってもよい。また、ユーザの位置Puおよび画面G1それぞれの位置は、二次元位置であってもよいし、三次元位置であってもよい。
また、ユーザにとって操作しやすい領域に操作オブジェクトE1が表示されるのがよいのは上記した通りであるが、操作オブジェクトE1の位置は、画面G1には限定されない。例えば、出力部130が、出力部130Aおよび出力部130Bといったように複数のデバイスに分かれて存在する場合もある。かかる場合、出力制御部125は、操作オブジェクトE1がユーザの位置Puに応じたデバイスに表示されるように当該デバイスを制御するとよい。以下、かかる例について説明する。
図11は、操作対象のアプリケーションに対応する動作の第2の例を示す図である。図11を参照すると、図3に示した例と同様に、出力制御部125は、それぞれがアプリケーションに関連付けられた表示オブジェクトA1〜A3を含む画面G1を出力部130Aに表示させている。また、表示オブジェクトA1〜A3それぞれに関連付けられたアプリケーションには、アプリケーションを操作するための操作オブジェクトが関連付けられている。
また、出力部130Aおよび出力部130Bそれぞれの二次元位置または三次元位置が表示制御装置120によって記憶されている。例えば、移動可能性のある出力部130Bの位置は、適宜に表示制御装置120によって取得されて更新されてもよい。出力部130Bの位置は、例えば、情報入力装置に搭載されたGPS(Global Positioning System)センサによって検出されてもよいが、どのように検出されてもよい。
ここで、図11に示したように、アプリケーション選択部124によって操作対象のアプリケーションとして表示オブジェクトA1に関連付けられたアプリケーションが選択された場合を想定する。かかる場合、出力制御部125は、ユーザの位置Puから出力部130Aおよび出力部130Bまでの距離をそれぞれ算出してよい。そして、出力制御部125は、ユーザの位置Puからの距離がより小さい出力部130に操作オブジェクトE1が表示されるように出力部130を制御するのがよい。ユーザの位置Puは、二次元位置であってもよいし、三次元位置であってもよい。
図11に示した例では、出力制御部125は、ユーザの位置Puから出力部130Aまでの距離よりユーザの位置Puから出力部130Bまでの距離がより小さいと判定している。そのため、出力制御部125は、ユーザの位置Puまでの距離がより小さいと判定した出力部130Bに操作オブジェクトE1が表示されるように出力部130を制御している。
以上に示した例においては、入力部110の状態に関わらず、出力制御部125が、操作対象のアプリケーションに対応する動作を実行させる例について説明した。しかし、出力制御部125による動作の実行に、入力部110の状態が考慮されてもよい。
具体的には、デバイス状態検出部122は、入力部110の状態をデバイス状態として検出し、出力制御部125は、デバイス状態に基づいて操作オブジェクトE1の位置を制御するとよい。デバイス状態は特に限定されないが、操作受付可能であるか否かを示す情報であってもよい。例えば、操作受付不可能な状態は、操作が受け付けられない何らかの事由が生じている状態を意味し、ビジー状態などが該当し得る。操作受付可能な状態は、操作が受け付けられない如何なる事由も生じていない状態を意味する。以下、かかる例について説明する。
図12は、操作対象のアプリケーションに対応する動作の第3の例を示す図である。図12を参照すると、図3に示した例と同様に、出力制御部125は、それぞれがアプリケーションに関連付けられた表示オブジェクトA1〜A3を含む画面G1を出力部130Aに表示させている。また、表示オブジェクトA1〜A3それぞれに関連付けられたアプリケーションには、アプリケーションを操作するための操作オブジェクトが関連付けられている。
ここで、図12に示したように、アプリケーション選択部124によって操作対象のアプリケーションとして表示オブジェクトA1に関連付けられたアプリケーションが選択された場合を想定する。かかる場合、デバイス状態検出部122は、入力部110Aおよび入力部110Bそれぞれが操作受付可能であるか否かを検出する。図12に示した例では、出力制御部125は、入力部110Aが操作受付不可能であると判定し、入力部110Bが操作受付可能であると判定している。
かかる場合、出力制御部125は、操作受付可能な入力部110Bに対応する出力部130Bによって操作オブジェクトE1が表示されるように出力部130Bを制御するとよい。一方、出力制御部125は、操作受付不可能な入力部110Aに対応する出力部130Aによって操作オブジェクトE1が表示されないように出力部130Aを制御するとよい。
以上に示した例においては、操作対象のアプリケーションに対応する動作の例として、操作対象のアプリケーションに関連付けられた操作オブジェクトE1を表示させる動作について説明した。しかし、操作対象のアプリケーションに対応する動作は、かかる動作に限定されない。例えば、出力制御部125は、操作対象のアプリケーションに関連付けられた表示オブジェクトがユーザの位置Puに応じた位置に移動されるように出力部130Aを制御してもよい。そうすれば、操作対象のアプリケーションに対する操作を表示オブジェクトに対して容易に行うことが可能となる。以下、かかる例について説明する。
図13は、操作対象のアプリケーションに対応する動作の第4の例を示す図である。図13を参照すると、図3に示した例と同様に、出力制御部125は、それぞれがアプリケーションに関連付けられた表示オブジェクトA1〜A3を含む画面G1を出力部130Aに表示させている。また、表示オブジェクトA1〜A3それぞれに関連付けられたアプリケーションには、アプリケーションを操作するための操作オブジェクトが関連付けられている。
ここで、図13に示したように、アプリケーション選択部124によって操作対象のアプリケーションとして表示オブジェクトA1に関連付けられたアプリケーションが選択された場合を想定する。かかる場合、出力制御部125は、表示オブジェクトA1が画面G1のうちユーザの位置Puから最も近い位置に移動されるように出力部130Aを制御するとよい。そうすれば、操作対象のアプリケーションに対する操作を表示オブジェクトA1に対して容易に行うことが可能となる。
[1.5.表示制御装置の動作例]
以上、操作対象のアプリケーションに対応する動作の例について説明した。続いて、本開示の実施形態に係る表示制御装置120の動作例について説明する。図14は、本開示の実施形態に係る表示制御装置120の動作の例を示すフローチャートである。なお、図14に示した動作例は、本開示の実施形態に係る表示制御装置120の動作の一例に過ぎない。したがって、本開示の実施形態に係る表示制御装置120の動作は、図14に示した動作例に限定されない。
行動検出部121は、ユーザの行動を検出する(S11)。また、デバイス状態検出部122は、デバイス状態を検出する(S12)。また、アプリケーション状態検出部123は、アプリケーション状態を検出する(S13)。続いて、アプリケーション選択部124は、ユーザの行動、デバイス状態およびアプリケーション状態に基づいて、操作対象のアプリケーションの選択を試みる(S20)。
なお、図14には、アプリケーション選択部124が、行動検出部121、デバイス状態検出部122およびアプリケーション状態検出部123の全部の検出結果に基づいて操作対象のアプリケーションを選択する例が示されている。しかし、アプリケーション選択部124は、行動検出部121、デバイス状態検出部122およびアプリケーション状態検出部123の一部の検出結果に基づいて操作対象のアプリケーションを選択してもよい。
続いて、出力制御部125は、操作対象のアプリケーションが選択された場合には(S30において「Yes」)、操作対象のアプリケーションに関連付けられた操作オブジェクトを表示させる(S40)。なお、図14には、操作対象のアプリケーションに対応する動作の例として、操作オブジェクトを表示させる動作が示されているが、操作対象のアプリケーションに対応する動作は、操作オブジェクトを表示させる動作に限定されない。一方、出力制御部125は、操作対象のアプリケーションが選択されない場合には(S30において「No」)、S50に動作を移行させる。
続いて、出力制御部125は、操作対象のアプリケーションを再度選択する場合には(S50において「Yes」)、一定時間待機した後(S60)、S11〜S13に動作を移行させる。一方、出力制御部125は、操作対象のアプリケーションを再度選択しない場合には(S50において「No」)、動作を終了する。
以上、本開示の実施形態に係る表示制御装置120の動作例について説明した。
[1.6.ハードウェア構成例]
次に、図15を参照して、本開示の実施形態に係る情報処理システム100のハードウェア構成について説明する。図15は、本開示の実施形態に係る情報処理システム100のハードウェア構成例を示すブロック図である。
図15に示すように、情報処理システム100は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理システム100は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。さらに、情報処理システム100は、必要に応じて、撮像装置933、およびセンサ935を含んでもよい。情報処理システム100は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)またはASIC(Application Specific Integrated Circuit)と呼ばれるような処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理システム100内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一次記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置915は、ユーザの音声を検出するマイクを含んでもよい。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理システム100の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理システム100に対して各種のデータを入力したり処理動作を指示したりする。また、後述する撮像装置933も、ユーザの手の動き、ユーザの指などを撮像することによって、入力装置として機能しうる。このとき、手の動きや指の向きに応じてポインティング位置が決定されてよい。
出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro−Luminescence)ディスプレイ、プロジェクタなどの表示装置、ホログラムの表示装置、スピーカおよびヘッドホンなどの音声出力装置、ならびにプリンタ装置などでありうる。出力装置917は、情報処理システム100の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音声として出力したりする。また、出力装置917は、周囲を明るくするためライトなどを含んでもよい。
ストレージ装置919は、情報処理システム100の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理システム100に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
接続ポート923は、機器を情報処理システム100に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどでありうる。また、接続ポート923は、RS−232Cポート、光オーディオ端子、HDMI(登録商標)(High−Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理システム100と外部接続機器929との間で各種のデータが交換されうる。
通信装置925は、例えば、通信ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどでありうる。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続される通信ネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
撮像装置933は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置933は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
センサ935は、例えば、加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、音センサなどの各種のセンサである。センサ935は、例えば情報処理システム100の筐体の姿勢など、情報処理システム100自体の状態に関する情報や、情報処理システム100の周辺の明るさや騒音など、情報処理システム100の周辺環境に関する情報を取得する。また、センサ935は、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPSセンサを含んでもよい。
以上、情報処理システム100のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
<2.むすび>
以上説明したように、本開示の実施形態によれば、1または複数のアプリケーションそれぞれに関連付けられた表示オブジェクトが表示されるように出力部130を制御する出力制御部125と、ユーザの指差し方向を検出する行動検出部121と、前記1または複数のアプリケーションそれぞれに関連付けられた表示オブジェクトと前記指差し方向とに基づいて、操作対象のアプリケーションを選択するアプリケーション選択部124と、を備える、表示制御装置120が提供される。かかる構成によれば、ユーザが操作対象のアプリケーションを容易に指定することが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、操作対象のアプリケーションに対応する動作の例を説明したが、操作対象のアプリケーションに対応する動作は上記に限定されない。例えば、操作対象のアプリケーションがコンテンツの再生を行うアプリケーションである場合には、操作対象のアプリケーションに対応する動作は、コンテンツの再生停止中にはコンテンツを開始する動作であってよく、コンテンツの再生中にはコンテンツを停止する動作であってもよい。あるいは、操作対象のアプリケーションに対応する動作は、表示オブジェクトを拡大または縮小する動作であってもよい。
また、上記では、デバイス状態の例を説明したが、デバイス状態は上記に限定されない。例えば、デバイス状態が表示オブジェクトの存在する位置を示す場合であってもよい。かかる場合、出力制御部125は、少なくとも表示オブジェクトの存在しない位置に操作オブジェクトが表示されるように出力部130Aを制御するとよい。そうすれば、表示オブジェクトと操作オブジェクトとの重なりを防ぐことが可能となる。
また、コンピュータに内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上記した情報処理システム100が有する機能と同等の機能を発揮させるためのプログラムも作成可能である。また、該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。
また、出力制御部125は、出力部130に表示内容を表示させるための表示制御情報を生成し、生成した表示制御情報を出力部130に出力することで、当該表示内容が出力部130に表示されるように出力部130を制御することが可能である。かかる表示制御情報の内容はシステム構成にあわせて適宜変更されてよい。
具体的な一例として、情報処理システム100を実現するためのプログラムは、ウェブアプリケーションであってもよい。かかる場合、表示制御情報は、HTML(HyperText Markup Language)、SGML(Standard Generalized Markup Language)、XML(Extensible Markup Language)などのマークアップ言語により実現されてもよい。
なお、上述した情報処理システム100の動作が実現されれば、各構成の位置は特に限定されない。具体的な一例として、入力部110と出力部130と表示制御装置120とは、ネットワークを介して接続された互いに異なる装置に設けられてもよい。この場合には、表示制御装置120が、例えば、ウェブサーバやクラウドサーバのようなサーバに相当し、入力部110および出力部130が当該サーバにネットワークを介して接続されたクライアントに相当し得る。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
1または複数のアプリケーションそれぞれに関連付けられた表示オブジェクトが表示されるように出力部を制御する出力制御部と、
ユーザの指差し方向を検出する行動検出部と、
前記1または複数のアプリケーションそれぞれに関連付けられた表示オブジェクトと前記指差し方向とに基づいて、操作対象のアプリケーションを選択するアプリケーション選択部と、
を備える、表示制御装置。
(2)
前記出力制御部は、前記操作対象のアプリケーションに対応する所定の動作が実行されるように前記出力部を制御する、
前記(1)に記載の表示制御装置。
(3)
前記出力制御部は、前記操作対象のアプリケーションに関連付けられた操作オブジェクトが表示されるように前記出力部を制御する、
前記(2)に記載の表示制御装置。
(4)
前記出力制御部は、前記操作オブジェクトが前記ユーザの位置に応じた位置に表示されるように前記出力部を制御する、
前記(3)に記載の表示制御装置。
(5)
前記アプリケーション選択部は、指の位置を基準として前記指差し方向に存在する表示オブジェクトに関連付けられたアプリケーションを、前記操作対象のアプリケーションとして選択する、
前記(1)〜前記(4)の何れか一項に記載の表示制御装置。
(6)
前記アプリケーション選択部は、前記指の位置を基準として前記指差し方向に存在する複数の表示オブジェクトのうち前記指の位置に最も近い表示オブジェクトに関連付けられたアプリケーションを、前記操作対象のアプリケーションとして選択する、
前記(5)に記載の表示制御装置。
(7)
前記アプリケーション選択部は、前記指の位置を基準として前記指差し方向に存在する複数の表示オブジェクトの間で、ユーザによる所定の操作に従って前記操作対象のアプリケーションを切り替える、
前記(5)または前記(6)に記載の表示制御装置。
(8)
前記表示制御装置は、前記表示制御装置の状態をデバイス状態として検出するデバイス状態検出部を備え、
前記アプリケーション選択部は、前記デバイス状態に基づいて前記操作対象のアプリケーションを選択する、
前記(1)〜前記(7)の何れか一項に記載の表示制御装置。
(9)
前記アプリケーション選択部は、前記デバイス状態がネットワークへの非接続を示す場合、前記ネットワークへの接続を必要とするアプリケーションを前記操作対象のアプリケーションから除外する、
前記(8)に記載の表示制御装置。
(10)
前記表示制御装置は、前記出力部に対応する入力部の状態をデバイス状態として検出するデバイス状態検出部を備え、
前記出力制御部は、前記デバイス状態に基づいて前記操作オブジェクトの位置を制御する、
前記(3)または前記(4)に記載の表示制御装置。
(11)
前記入力部は、複数のデバイスに分かれて存在し、
前記出力制御部は、前記デバイス状態がデバイスごとに操作受付可能か否かを示す場合、前記操作オブジェクトが操作受付可能なデバイスに対応する出力部によって表示されるように当該デバイスを制御する、
前記(10)に記載の表示制御装置。
(12)
前記出力制御部は、前記デバイス状態が表示オブジェクトの存在する位置を示す場合、少なくとも前記表示オブジェクトの存在しない位置に前記操作オブジェクトが表示されるように前記出力部を制御する、
前記(10)に記載の表示制御装置。
(13)
前記表示制御装置は、前記1または複数のアプリケーションそれぞれの状態をアプリケーション状態として検出するアプリケーション状態検出部を備え、
前記アプリケーション選択部は、前記アプリケーション状態に基づいて前記操作対象のアプリケーションを選択する、
前記(1)〜前記(12)の何れか一項に記載の表示制御装置。
(14)
前記アプリケーション状態は、アプリケーションに対する操作が必要か否かを示す情報、前記アプリケーションに対する操作が必要になった時刻、前記アプリケーションの実行開始からの経過時間、前記アプリケーションに対する最終操作がなされてからの経過時間および前記アプリケーションに関連付けられた表示オブジェクトとユーザとの距離のうち少なくとも何れか一つを含む、
前記(13)に記載の表示制御装置。
(15)
前記行動検出部は、ユーザから発せられた音声から文字列を検出し、
前記アプリケーション選択部は、前記文字列に一致または類似するアプリケーション識別情報によって識別されるアプリケーションを、前記操作対象のアプリケーションとして選択する、
前記(1)に記載の表示制御装置。
(16)
前記行動検出部は、ユーザの視線を検出し、
前記アプリケーション選択部は、前記視線上に存在する表示オブジェクトに関連付けられたアプリケーションを、前記操作対象のアプリケーションとして選択する、
前記(1)〜前記(15)の何れか一項に記載の表示制御装置。
(17)
前記出力部は、複数のデバイスに分かれて存在し、
前記出力制御部は、前記操作オブジェクトが前記ユーザの位置に応じたデバイスによって表示されるように当該デバイスを制御する、
前記(3)に記載の表示制御装置。
(18)
前記出力制御部は、前記操作対象のアプリケーションに関連付けられた前記表示オブジェクトが前記ユーザの位置に応じた位置に移動されるように前記出力部を制御する、
前記(2)に記載の表示制御装置。
(19)
1または複数のアプリケーションそれぞれに関連付けられた表示オブジェクトが表示されるように出力部を制御することと、
ユーザの指差し方向を検出することと、
前記1または複数のアプリケーションそれぞれに関連付けられた表示オブジェクトと前記指差し方向とに基づいて、操作対象のアプリケーションを選択することと、
を備える、表示制御方法。
(20)
コンピュータを、
1または複数のアプリケーションそれぞれに関連付けられた表示オブジェクトが表示されるように出力部を制御する出力制御部と、
ユーザの指差し方向を検出する行動検出部と、
前記1または複数のアプリケーションそれぞれに関連付けられた表示オブジェクトと前記指差し方向とに基づいて、操作対象のアプリケーションを選択するアプリケーション選択部と、
を備える、表示制御装置として機能させるためのプログラム。
100 情報処理システム
110(110A、110B) 入力部
120 表示制御装置(制御部)
121 行動検出部
122 デバイス状態検出部
123 アプリケーション状態検出部
124 アプリケーション選択部
125 出力制御部
130(130A、130B) 出力部
140 テーブル
G1 画面
A1〜A3 表示オブジェクト
E1 操作オブジェクト

Claims (19)

  1. 1または複数のアプリケーションそれぞれに関連付けられた表示オブジェクトが表示されるように出力部を制御する出力制御部と、
    ユーザの指差し方向を検出する行動検出部と、
    前記1または複数のアプリケーションそれぞれに関連付けられた表示オブジェクトと前記指差し方向とに基づいて、操作対象のアプリケーションを選択するアプリケーション選択部と、
    を備え
    前記アプリケーション選択部は、指の位置を基準として前記指差し方向に存在する複数の表示オブジェクトのうち前記指の位置に最も近い表示オブジェクトに関連付けられたアプリケーションを、前記操作対象のアプリケーションとして選択する、表示制御装置。
  2. 1または複数のアプリケーションそれぞれに関連付けられた表示オブジェクトが表示されるように出力部を制御する出力制御部と、
    ユーザの指差し方向を検出する行動検出部と、
    前記1または複数のアプリケーションそれぞれに関連付けられた表示オブジェクトと前記指差し方向とに基づいて、操作対象のアプリケーションを選択するアプリケーション選択部と、
    を備え、
    前記アプリケーション選択部は、指の位置を基準として前記指差し方向に存在する複数の表示オブジェクトの間で、ユーザによる所定の操作に従って前記操作対象のアプリケーションを切り替える、表示制御装置。
  3. 1または複数のアプリケーションそれぞれに関連付けられた表示オブジェクトが表示されるように出力部を制御する出力制御部と、
    ユーザの指差し方向を検出する行動検出部と、
    前記1または複数のアプリケーションそれぞれに関連付けられた表示オブジェクトと前記指差し方向とに基づいて、操作対象のアプリケーションを選択するアプリケーション選択部と、
    を備え、
    前記出力部は、複数のデバイスに分かれて存在し、
    前記出力制御部は、前記操作対象のアプリケーションに関連付けられた操作オブジェクトが前記ユーザの位置に応じたデバイスによって表示されるように当該デバイスを制御する、表示制御装置。
  4. 表示制御装置であって、
    1または複数のアプリケーションそれぞれに関連付けられた表示オブジェクトが表示されるように出力部を制御する出力制御部と、
    ユーザの指差し方向を検出する行動検出部と、
    前記1または複数のアプリケーションそれぞれに関連付けられた表示オブジェクトと前記指差し方向とに基づいて、操作対象のアプリケーションを選択するアプリケーション選択部と、
    前記表示制御装置の状態をデバイス状態として検出するデバイス状態検出部と、
    を備え、
    前記アプリケーション選択部は、前記デバイス状態がネットワークへの非接続を示す場合、前記ネットワークへの接続を必要とするアプリケーションを前記操作対象のアプリケーションから除外する、表示制御装置。
  5. 1または複数のアプリケーションそれぞれに関連付けられた表示オブジェクトが表示されるように出力部を制御する出力制御部と、
    ユーザの指差し方向を検出する行動検出部と、
    前記1または複数のアプリケーションそれぞれに関連付けられた表示オブジェクトと前記指差し方向とに基づいて、操作対象のアプリケーションを選択するアプリケーション選択部と、
    前記出力部に対応する入力部の状態をデバイス状態として検出するデバイス状態検出部と、
    を備え、
    前記出力制御部は、前記デバイス状態に基づいて前記操作対象のアプリケーションに関連付けられた操作オブジェクトの位置を制御し、
    前記入力部は、複数のデバイスに分かれて存在し、
    前記出力制御部は、前記デバイス状態がデバイスごとに操作受付可能か否かを示す場合、前記操作オブジェクトが操作受付可能なデバイスに対応する出力部によって表示されるように当該デバイスを制御する、表示制御装置。
  6. 前記出力制御部は、前記操作対象のアプリケーションに対応する所定の動作が実行されるように前記出力部を制御する、
    請求項1〜3の何れか一項に記載の表示制御装置。
  7. 前記出力制御部は、前記操作対象のアプリケーションに関連付けられた操作オブジェクトが表示されるように前記出力部を制御する、
    請求項に記載の表示制御装置。
  8. 前記出力制御部は、前記操作オブジェクトが前記ユーザの位置に応じた位置に表示されるように前記出力部を制御する、
    請求項に記載の表示制御装置。
  9. 前記アプリケーション選択部は、指の位置を基準として前記指差し方向に存在する表示オブジェクトに関連付けられたアプリケーションを、前記操作対象のアプリケーションとして選択する、
    請求項1〜の何れか一項に記載の表示制御装置。
  10. 前記表示制御装置は、前記表示制御装置の状態をデバイス状態として検出するデバイス状態検出部を備え、
    前記アプリケーション選択部は、前記デバイス状態に基づいて前記操作対象のアプリケーションを選択する、
    請求項1〜の何れか一項に記載の表示制御装置。
  11. 前記表示制御装置は、前記出力部に対応する入力部の状態をデバイス状態として検出するデバイス状態検出部を備え、
    前記出力制御部は、前記デバイス状態に基づいて前記操作オブジェクトの位置を制御する、
    請求項またはに記載の表示制御装置。
  12. 前記出力制御部は、前記デバイス状態が表示オブジェクトの存在する位置を示す場合、少なくとも前記表示オブジェクトの存在しない位置に前記操作オブジェクトが表示されるように前記出力部を制御する、
    請求項11に記載の表示制御装置。
  13. 前記表示制御装置は、前記1または複数のアプリケーションそれぞれの状態をアプリケーション状態として検出するアプリケーション状態検出部を備え、
    前記アプリケーション選択部は、前記アプリケーション状態に基づいて前記操作対象のアプリケーションを選択する、
    請求項1〜12の何れか一項に記載の表示制御装置。
  14. 前記アプリケーション状態は、アプリケーションに対する操作が必要か否かを示す情報、前記アプリケーションに対する操作が必要になった時刻、前記アプリケーションの実行開始からの経過時間、前記アプリケーションに対する最終操作がなされてからの経過時間および前記アプリケーションに関連付けられた表示オブジェクトとユーザとの距離のうち少なくとも何れか一つを含む、
    請求項13に記載の表示制御装置。
  15. 前記行動検出部は、ユーザから発せられた音声から文字列を検出し、
    前記アプリケーション選択部は、前記文字列に一致または類似するアプリケーション識別情報によって識別されるアプリケーションを、前記操作対象のアプリケーションとして選択する、
    請求項1〜5の何れか一項に記載の表示制御装置。
  16. 前記行動検出部は、ユーザの視線を検出し、
    前記アプリケーション選択部は、前記視線上に存在する表示オブジェクトに関連付けられたアプリケーションを、前記操作対象のアプリケーションとして選択する、
    請求項1〜15の何れか一項に記載の表示制御装置。
  17. 前記出力制御部は、前記操作対象のアプリケーションに関連付けられた前記表示オブジェクトが前記ユーザの位置に応じた位置に移動されるように前記出力部を制御する、
    請求項に記載の表示制御装置。
  18. 1または複数のアプリケーションそれぞれに関連付けられた表示オブジェクトが表示されるように出力部を制御することと、
    ユーザの指差し方向を検出することと、
    前記1または複数のアプリケーションそれぞれに関連付けられた表示オブジェクトと前記指差し方向とに基づいて、操作対象のアプリケーションを選択することと、
    を備え
    指の位置を基準として前記指差し方向に存在する複数の表示オブジェクトのうち前記指の位置に最も近い表示オブジェクトに関連付けられたアプリケーションを、前記操作対象のアプリケーションとして選択する、表示制御方法。
  19. コンピュータを、
    1または複数のアプリケーションそれぞれに関連付けられた表示オブジェクトが表示されるように出力部を制御する出力制御部と、
    ユーザの指差し方向を検出する行動検出部と、
    前記1または複数のアプリケーションそれぞれに関連付けられた表示オブジェクトと前記指差し方向とに基づいて、操作対象のアプリケーションを選択するアプリケーション選択部と、
    を備え
    前記アプリケーション選択部は、指の位置を基準として前記指差し方向に存在する複数の表示オブジェクトのうち前記指の位置に最も近い表示オブジェクトに関連付けられたアプリケーションを、前記操作対象のアプリケーションとして選択する、表示制御装置として機能させるためのプログラム。
JP2016529171A 2014-06-25 2015-05-12 表示制御装置、表示制御方法およびプログラム Expired - Fee Related JP6575518B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014129899 2014-06-25
JP2014129899 2014-06-25
PCT/JP2015/063652 WO2015198729A1 (ja) 2014-06-25 2015-05-12 表示制御装置、表示制御方法およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2015198729A1 JPWO2015198729A1 (ja) 2017-04-20
JP6575518B2 true JP6575518B2 (ja) 2019-09-18

Family

ID=54937827

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016529171A Expired - Fee Related JP6575518B2 (ja) 2014-06-25 2015-05-12 表示制御装置、表示制御方法およびプログラム

Country Status (5)

Country Link
US (1) US10684707B2 (ja)
EP (1) EP3163403A4 (ja)
JP (1) JP6575518B2 (ja)
CN (1) CN106462251B (ja)
WO (1) WO2015198729A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6911870B2 (ja) * 2016-11-25 2021-07-28 ソニーグループ株式会社 表示制御装置、表示制御方法及びコンピュータプログラム
JP2021141346A (ja) * 2018-05-31 2021-09-16 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
KR102621236B1 (ko) * 2018-11-07 2024-01-08 삼성전자주식회사 디스플레이장치 및 그 제어방법
WO2021059479A1 (ja) * 2019-09-27 2021-04-01 三菱電機株式会社 操作対象物を操作可能範囲内に表示する表示制御装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1091326A (ja) 1996-09-13 1998-04-10 Yoshiro Nakamatsu アクセス容易コンピュータ
US7633483B2 (en) * 2006-06-27 2009-12-15 Microsoft Corporation Display extension using terminal clients
JP4991458B2 (ja) * 2007-09-04 2012-08-01 キヤノン株式会社 画像表示装置及びその制御方法
JP5238635B2 (ja) 2009-07-29 2013-07-17 京セラ株式会社 情報処理装置及びアプリケーションプログラムの起動方法
JP2011081480A (ja) * 2009-10-05 2011-04-21 Seiko Epson Corp 画像入力システム
JP5830997B2 (ja) * 2011-07-19 2015-12-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP5102412B1 (ja) * 2011-12-27 2012-12-19 パナソニック株式会社 情報端末、情報端末の制御方法、及び、プログラム
JP5945417B2 (ja) * 2012-01-06 2016-07-05 京セラ株式会社 電子機器
US9213436B2 (en) 2012-06-20 2015-12-15 Amazon Technologies, Inc. Fingertip location for gesture input
JP2014014037A (ja) 2012-07-05 2014-01-23 Nissan Motor Co Ltd アプリケーション実行端末判定装置及びアプリケーション実行端末判定方法
JP6068901B2 (ja) 2012-09-26 2017-01-25 京セラ株式会社 情報端末、音声操作プログラムおよび音声操作方法
US20140123077A1 (en) * 2012-10-29 2014-05-01 Intel Corporation System and method for user interaction and control of electronic devices
KR102057629B1 (ko) * 2013-02-19 2020-01-22 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
KR102089447B1 (ko) * 2013-06-04 2020-03-16 삼성전자 주식회사 전자 기기 및 그의 애플리케이션 제어 방법

Also Published As

Publication number Publication date
JPWO2015198729A1 (ja) 2017-04-20
CN106462251B (zh) 2020-09-08
EP3163403A1 (en) 2017-05-03
US10684707B2 (en) 2020-06-16
US20170205899A1 (en) 2017-07-20
WO2015198729A1 (ja) 2015-12-30
EP3163403A4 (en) 2018-02-28
CN106462251A (zh) 2017-02-22

Similar Documents

Publication Publication Date Title
JP6635049B2 (ja) 情報処理装置、情報処理方法およびプログラム
EP2832107B1 (en) Information processing apparatus, information processing method, and program
JP6729555B2 (ja) 情報処理システムおよび情報処理方法
JP2013025605A (ja) 情報処理装置、情報処理方法及びプログラム
JP6575518B2 (ja) 表示制御装置、表示制御方法およびプログラム
WO2017030193A1 (ja) 情報処理装置、情報処理方法、及びプログラム
EP3528024B1 (en) Information processing device, information processing method, and program
WO2016152200A1 (ja) 情報処理システムおよび情報処理方法
CN107148614B (zh) 信息处理设备、信息处理方法和程序
WO2015104884A1 (ja) 情報処理システム、情報処理方法およびプログラム
JP2016109726A (ja) 情報処理装置、情報処理方法およびプログラム
JP2016156877A (ja) 情報処理装置、情報処理方法およびプログラム
WO2019054037A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2016180778A (ja) 情報処理システムおよび情報処理方法
JP2017138698A (ja) 情報処理装置、情報処理方法およびプログラム
JP2015111371A (ja) 情報処理装置、情報処理方法およびプログラム
JP2016170584A (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180326

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180326

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190521

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190805

R151 Written notification of patent or utility model registration

Ref document number: 6575518

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees