JP6504058B2 - 情報処理システム、情報処理方法およびプログラム - Google Patents

情報処理システム、情報処理方法およびプログラム Download PDF

Info

Publication number
JP6504058B2
JP6504058B2 JP2015556712A JP2015556712A JP6504058B2 JP 6504058 B2 JP6504058 B2 JP 6504058B2 JP 2015556712 A JP2015556712 A JP 2015556712A JP 2015556712 A JP2015556712 A JP 2015556712A JP 6504058 B2 JP6504058 B2 JP 6504058B2
Authority
JP
Japan
Prior art keywords
predetermined
information processing
control unit
processing system
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015556712A
Other languages
English (en)
Other versions
JPWO2015104884A1 (ja
Inventor
安田 亮平
亮平 安田
野田 卓郎
卓郎 野田
山本 一幸
一幸 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2015104884A1 publication Critical patent/JPWO2015104884A1/ja
Application granted granted Critical
Publication of JP6504058B2 publication Critical patent/JP6504058B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本開示は、情報処理システム、情報処理方法およびプログラムに関する。
近年、ユーザによるポインティング位置を制御する手法として様々な手法が開示されている。例えば、センサによって検出された動きに基づいてポインティング位置を決定させる手法が開示されている。一例として、ジャイロセンサによって検出された角速度に基づいてポインティング位置を決定する手法が開示されている(例えば、特許文献1参照)。
国際公開第2009/008372号
しかしながら、ポインティング位置を制御するに際して、ポインティング位置をユーザの所望する位置に容易に移動させることが可能な技術が提供されることが望ましい。
本開示によれば、ユーザの視線を検出する視線検出部と、前記ユーザによる空間上の操作を検出する操作検出部と、前記操作に基づいてポインティング位置を決定する位置制御部と、を備え、前記位置制御部は、所定の操作が検出された場合に前記視線に基づいて前記ポインティング位置を移動させる、情報処理システムが提供される。
本開示によれば、ユーザの視線を検出することと、前記ユーザによる空間上の操作を検出することと、前記操作に基づいてポインティング位置を決定することと、を含み、プロセッサにより所定の操作が検出された場合に前記視線に基づいて前記ポインティング位置を移動させること、を含む、情報処理方法が提供される。
本開示によれば、コンピュータを、ユーザの視線を検出する視線検出部と、前記ユーザによる空間上の操作を検出する操作検出部と、前記操作に基づいてポインティング位置を決定する位置制御部と、を備え、前記位置制御部は、所定の操作が検出された場合に前記視線に基づいて前記ポインティング位置を移動させる、情報処理システムとして機能させるためのプログラムが提供される。
以上説明したように本開示によれば、ポインティング位置を制御するに際して、ポインティング位置をユーザの所望する位置に容易に移動させることが可能である。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の実施形態に係る情報処理システムの概要を説明するための図である。 同実施形態に係る情報処理システムの機能構成例を示す図である。 ユーザによる操作を所定の操作として検出するための条件の例を説明するための図である。 ユーザによる操作を所定の操作として検出するための条件の例を説明するための図である。 ユーザによる操作を所定の操作として検出しないための条件の例を説明するための図である。 所定の操作が検出された場合における位置移動前のカーソル表示例を示す図である。 所定の操作が検出された場合におけるオブジェクト表示例を示す図である。 所定の操作が検出された場合における位置移動後のカーソル表示例を示す図である。 本開示の実施形態に係る情報処理システムの動作の流れを示すフローチャートである。 ポインティング位置が表示領域の端部に達した場合におけるカーソル表示の第一の例を示す図である。 ポインティング位置が表示領域の内部に収まらない場合におけるカーソル表示の第一の例を示す図である。 ポインティング位置が表示領域の端部に達した場合におけるカーソル表示の第二の例を示す図である。 ポインティング位置が表示領域の内部に収まらない場合におけるカーソル表示の第二の例を示す図である。 本開示の実施形態に係る情報処理システムの機能構成の変形例を示す図である。 同実施形態に係る情報処理システムのハードウェア構成例を示す図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットまたは数字を付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
なお、説明は以下の順序で行うものとする。
1.情報処理システムの概要
2.情報処理システムの機能構成例
3.情報処理システムの機能詳細
4.情報処理システムの機能構成の変形例
5.情報処理システムのハードウェア構成例
6.むすび
<1.情報処理システムの概要>
まず、本開示の実施形態に係る情報処理システム10の概要について説明する。図1は、本開示の実施形態に係る情報処理システム10の概要を説明するための図である。図1を参照すると、情報処理システム10は、検出部120、撮像部130および表示部150を備えている。表示部150は表示領域151を有し、表示領域151に画面を表示する。表示領域151に表示される画面は特に限定されない。図1に示したように、ユーザUは、表示領域151に表示された画面を閲覧可能な位置に存在してよい。
検出部120は、所定の検出データを検出する。検出部120によって検出された検出データは、ユーザUによるポインティング位置Pの決定に用いられる。本明細書においては、検出部120がジャイロセンサを含み、検出部120の初期姿勢とジャイロセンサによって検出された角速度とに応じた表示領域151におけるXY座標をポインティング位置Pとして算出する例を主に説明する。かかるポインティング位置Pの算出の詳細は、特許文献1(国際公開第2009/008372号)に開示されている。しかし、ユーザUによるポインティング位置Pの決定は、後に説明するようにどのようになされてもよい。
また、図1に示すように、表示部150は、ポインティング位置PにカーソルCuを表示してよい。図1に示した例では、カーソルCuは、鮮明度の高い白抜きの矢印によって示されているが、カーソルCuの色、形状、鮮明度などは限定されない。例えば、カーソルCuの形状は、後に説明するように楕円や円などであってもよい。また、カーソルCuは、表示領域151に表示される他のオブジェクトよりも鮮明度が低くてもよい。また、表示部150は、ポインティング位置PにカーソルCuを表示しなくてもよい。
例えば、表示領域151にオブジェクトが表示されている場合、そのオブジェクトにポインティング位置Pが合わせられた状態においてユーザUによって所定の決定操作がなされると、このオブジェクトに対応する動作が実行されてよい。表示領域151に表示されるオブジェクトは特に限定されず、静止画であってもよいし、動画であってもよいし、ボタンであってもよいし、文字列であってもよい。
また、所定の決定操作も特に限定されず、検出部120に設けられたボタンを押下する操作であってもよいし、検出部120が所定の動きを示すように検出部120を動かす操作であってもよい。オブジェクトに対応する動作も特に限定されず、オブジェクトに対応する画面への遷移であってよい。撮像部130は、ユーザUの身体の一部または全部を含む画像を撮像する機能を有する。ユーザUの身体の一部が撮像される場合、ユーザUの身体の一部は、ユーザUの顔領域であってもよいし、ユーザUの目領域であってもよい。
ここで、検出部120によって検出された検出データに基づいてポインティング位置Pが決定される場合、ポインティング位置Pをユーザの所望する位置に容易に移動させることが可能な技術が提供されることが望ましい。そこで、本明細書においては、検出部120によって検出された検出データに基づいてポインティング位置Pが決定される場合、ポインティング位置Pをユーザの所望する位置に容易に移動させることが可能な技術を提案する。
具体的な事例としては、ポインティング位置Pがユーザの所望する位置から外れてしまう可能性もある。このようにポインティング位置Pがユーザの所望する位置から外れてしまう原因としては、ユーザUの意図とは無関係にポインティング位置Pが動いてしまうドリフト現象や、ポインティング位置Pの初期位置がユーザの所望する位置から外れてしまっていることなどが想定される。ポインティング位置Pをユーザの所望する位置に容易に移動させる技術は、このような状況に対して特に有効に適用され得る。
以上、本開示の実施形態に係る情報処理システム10の概要について説明した。
<2.情報処理システムの機能構成例>
続いて、本開示の実施形態に係る情報処理システム10の機能構成例について説明する。図2は、本開示の実施形態に係る情報処理システム10の機能構成例を示す図である。図2に示すように、情報処理システム10は、制御部110、検出部120、撮像部130、記憶部140および表示部150を備える。
制御部110は、記憶部140または他の記憶媒体に記憶されるプログラムを実行することにより制御部110が有する様々な機能を発揮する。図2に示すように、制御部110は、視線検出部111、操作検出部112、位置制御部113および表示制御部114などの各機能ブロックを有する。これら各機能ブロックが有する機能の詳細については後に説明する。
なお、制御部110は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)、SoC(System on Chip)などのプロセッサにより構成されてよい。また、制御部110は、各種の演算処理を実行するための電子回路により構成されてよい。
検出部120は、所定の検出データを検出して制御部110に出力する。本明細書においては、検出部120がジャイロセンサを含む場合を主に説明するが、検出部120は他のセンサを含んでもよい。例えば、検出部120は3軸加速度センサを含んでもよい。また、後に説明するように、撮像部130によってユーザによる空間上の動きが検出される場合には、情報処理システム10は、検出部120を備えなくてもよい。なお、図2に示した例では、検出部120は情報処理システム10と一体化されているが、検出部120は、情報処理システム10と別体に構成されていてもよい。
撮像部130は、画像を撮像するカメラモジュールである。撮像部130は、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いて実空間を撮像し、画像を生成する。撮像部130により生成される画像は、制御部110に出力される。なお、図2に示した例では、撮像部130は情報処理システム10と一体化されているが、撮像部130は、情報処理システム10と別体に構成されていてもよい。例えば、情報処理システム10と有線または無線で接続される撮像装置が撮像部130として扱われてもよい。
記憶部140は、半導体メモリまたはハードディスクなどの記憶媒体を用いて、制御部110を動作させるためのプログラムを記憶する。また、例えば、記憶部140は、プログラムによって使用される各種のデータを記憶することもできる。なお、図2に示した例では、記憶部140は情報処理システム10と一体化されているが、記憶部140は情報処理システム10と別体に構成されていてもよい。
表示部150は、制御部110による制御に従って、各種情報の表示を行う。表示部150は、LCD(Liquid Crystal Display)により実現されてもよいし、有機EL(Electro−luminescence)ディスプレイにより実現されてもよいし、プロジェクタにより実現されてもよいし、ホログラムディスプレイにより実現されてもよい。なお、図2に示した例では、表示部150は情報処理システム10と一体化されているが、表示部150は情報処理システム10と別体に構成されていてもよい。例えば、情報処理システム10と有線または無線で接続される表示装置が表示部150として扱われてもよい。
以上、本開示の実施形態に係る情報処理システム10の機能構成例について説明した。
<3.情報処理システムの機能詳細>
続いて、本開示の実施形態に係る情報処理システム10の機能詳細について説明する。情報処理システム10において、視線検出部111は、ユーザの視線を検出する。視線検出部111によるユーザの視線の検出手法は特に限定されない。例えば、視線検出部111は、撮像部130によって撮像された画像に目領域が映っている場合には、目領域に基づいてユーザの視線を検出すればよい。より詳細には、視線検出部111は、目領域に対するパターンマッチングによりユーザの視線を検出してよい。
操作検出部112は、検出データに基づいてユーザによる空間上の操作を検出する。そして、位置制御部113は、操作検出部112によって検出された操作に基づいてポインティング位置Pを決定する。本明細書においては、位置制御部113が、検出部120の初期姿勢とジャイロセンサによって検出された角速度とに応じた表示領域151におけるXY座標をポインティング位置Pとして算出する例を主に説明する。しかし、ポインティング位置Pの決定は、後に説明するようにどのようになされてもよい。
また、位置制御部113は、操作検出部112によって所定の操作が検出された場合にユーザの視線に基づいてポインティング位置Pを移動させる。そうすれば、ポインティング位置Pをユーザの所望する位置に容易に移動させることが可能となる。操作検出部112によって検出される所定の操作は特に限定されない。例えば、操作検出部112は、検出データに基づいて所定の操作を検出してよい。例えば、操作検出部112は、検出データから認識される所定の動きを所定の操作として検出してよい。
なお、本明細書においては、検出部120の初期姿勢とジャイロセンサによって検出された角速度とに応じた表示領域151におけるXY座標の所定の変化を所定の動きとして扱う場合を主に説明するが、所定の動きは特に限定されない。例えば、加速度センサによって検出される加速度の所定の変化が所定の動きとして扱われてもよいし、ジャイロセンサによって検出される角速度の所定の変化が所定の動きとして扱われてもよい。また、後に説明するように、操作検出部112は、検出データから認識される所定の状態を所定の操作として検出してもよい。
ここで、所定の操作の例について、図3および図4を参照しながら、さらに詳細に説明する。図3および図4は、ユーザによる操作を所定の操作として検出するための条件の例を説明するための図である。図3には、ポインティング位置Pの軌跡が示されており、開始位置Psおよび終了位置Peが示されている。例えば、操作検出部112は、所定方向の動きの変化が所定の条件を満たした場合に、所定の操作を検出してもよい。図3には、所定時間内に水平方向の反転が上限回数を超えた場合に、操作検出部112によって所定の操作が検出される例が示されている。
なお、図3には、上限回数が3回である場合が例として示されているが、上限回数は特に限定されない。また、所定方向も水平方向に限定されず、垂直方向であってもよく、他の方向であってもよい。また、所定時間も特に限定されない。例えば、図4に示したように、操作検出部112は、反転1回目から所定時間tの間に反転3回目を検出した場合には、所定の操作を検出してもよい。所定時間tは特に限定されないが、例えば、400msであってもよい。また、操作検出部112は、反転1回目から所定時間tの間に反転3回目が検出されなかった場合には、反転1回目からの経過時間をリセットしてよい。
図3には、所定時間内に水平方向の反転が上限回数を超えた場合に、操作検出部112によって所定の操作が検出される例を示したが、所定の操作が検出される例はかかる例に限定されない。例えば、検出データから認識される動きによって所定の軌跡が描かれた場合に、操作検出部112によって所定の操作が検出されてもよい。所定の軌跡は特に限定されないが、円であってもよいし、所定の文字や所定の記号などの筆跡であってもよい。
以上に説明したようにして、操作検出部112によって所定の操作が検出され得るが、所定の操作は誤って検出されてしまう可能性もある。例えば、ユーザが垂直方向に検出部120を持ち上げた場合、検出部120が水平方向にも振動してしまい、所定時間内に水平方向の反転が上限回数を超えてしまう場合もあり得る。そこで、所定の動きが検出されたとしても、所定の操作が検出されない場合があってもよい。具体的な例について図5を参照しながら、さらに詳細に説明する。
図5は、ユーザによる操作を所定の操作として検出しないための条件の例を説明するための図である。例えば、操作検出部112は、所定時間内に水平方向の反転が上限回数を超えたとしても、所定時間におけるポインティング位置Pの垂直方向への移動量M(図5参照)が上限量を超える場合には、所定の操作を検出しなくてよい。また、例えば、所定時間内に水平方向の反転が上限回数を超えたとしても、所定時間におけるポインティング位置Pの水平方向への振れ幅W(図5参照)が下限量を超える場合には、所定の操作を検出しなくてよい。
図6〜図8を参照しながら、情報処理システム10の機能についてさらに詳細に説明する。図1に示した例において、ユーザUがポインティング位置Pを移動させたいと考えた場合を想定する。かかる場合、ユーザUは所定の操作が検出されるようにジェスチャを行う。そうすれば、操作検出部112によって所定の操作が検出され、位置制御部113によってポインティング位置Pが視線に基づいて移動される。図6は、所定の操作が検出された場合における位置移動前のカーソル表示例を示す図である。
図6を参照すると、表示制御部114がポインティング位置PにカーソルCuを表示させている。ここで、ユーザUがポインティング位置Pを移動させたいと考えた場合を想定する。かかる場合、ユーザUは、検出部120を水平方向に振り、ポインティング位置Pを移動させたいと考える位置に視線を移動させる。すると、例えば、所定時間内に水平方向の反転が上限回数を超えた場合に、操作検出部112によって所定の操作が検出され、視線に基づいてポインティング位置Pが移動される。例えば、ポインティング位置Pの移動先は、ユーザUの視線と表示領域151との交点であってよい。図6を参照すると、かかる交点は視点Vとして示されている。
所定の操作が検出された旨はユーザに把握されるのがよい。そこで、表示制御部114は、所定の操作が検出された場合に所定のオブジェクトを表示させるようにするとよい。図7は、所定の操作が検出された場合におけるオブジェクト表示例を示す図である。図7に示すように、表示制御部114は、所定の操作が検出された場合に、オブジェクトObjを表示させてよい。オブジェクトObjは、どのようなオブジェクトであってもよいが、ポインティング位置Pを基準としたオブジェクトであるとよい。図7には、オブジェクトObjがポインティング位置Pを中心とした円である場合が例として示されている。
所定の操作が検出された場合、ポインティング位置Pの制御は継続されてもよいが、所定の操作が検出されるようにユーザUがジェスチャを行っている間もポインティング位置Pが移動してしまうと、ポインティング位置PがユーザUの意志に反して移動してしまう可能性もある。そこで、位置制御部113は、少なくともオブジェクトObjが表示されてから所定時間が経過するまでポインティング位置Pを固定するとよい。
図7には、徐々にオブジェクトObjが小さくなっていき、オブジェクトObjの表示が開始されてから所定時間が経過したときには、オブジェクトObjが視点Vに収束してオブジェクトObjの表示が終了される動画である場合が例として示されている。この例のように、表示制御部114は、ポインティング位置Pが固定されている期間がユーザUに把握されるようなオブジェクトを表示させるとよい。そうすれば、ユーザUは、ポインティング位置Pの移動が再開されるタイミングを把握することが可能となる。
図8は、所定の操作が検出された場合における位置移動後のカーソル表示例を示す図である。図8に示すように、表示制御部114は、このようにしてユーザUの視線に基づいて移動されたポインティング位置PにカーソルCuを表示させてよい。また、ポインティング位置Pが固定されていない場合には、位置制御部113は、検出データに基づいてポインティング位置Pを制御することが可能となる。かかる場合、表示制御部114は、ポインティング位置Pの移動に合わせてカーソルCuを移動させてよい。
なお、ユーザUの視線が検出されていないときには、所定の操作が検出されても視線に応じたポインティング位置Pの移動がなされないため、ユーザUにフィードバックがなされるとよい。例えば、表示制御部114は、視線の非検出時に所定のインジケータを表示させてもよい。インジケータは特に限定されないが、視線が検出されていない旨を示すオブジェクト(例えば、メッセージなど)の表示であってもよい。また、表示制御部114は、視線の非検出時にカーソルCuを変化させてもよい。カーソルCuをどのように変化させるかは限定されないが、カーソルCuの色、形状および鮮明度の少なくとも何れか1つを変化させてもよい。
また、ユーザUの視線が検出されていないときに所定の操作が検出された場合には、視線に応じたポインティング位置Pの移動がなされないため、ユーザUにフィードバックがなされるとよい。すなわち、表示制御部114は、視線の非検出時に所定の操作が検出された場合には、所定のフィードバックを行うとよい。フィードバックの手法は特に限定されないが、視線が検出されていない旨を示すオブジェクト(例えば、メッセージなど)の表示であってもよい。
カーソルCuは常に表示され続けてもよいが、所定のカーソル非表示条件が満たされた場合には非表示にされてもよい。すなわち、表示制御部114は、所定のカーソル非表示条件が満たされた場合にカーソルCuを非表示にしてもよい。カーソル非表示条件は特に限定されないが、表示制御部114は、検出データから検出される動き量が閾値を下回る時間が所定時間継続された場合には、カーソルCuを非表示にしてもよい。かかる場合には、ユーザUがポインティング位置Pを変更する意図を有していないと考えられるからである。
また、カーソルCuが表示されているか否かによって異なる制御がなされてもよい。例えば、表示制御部114は、カーソルCuが表示されている状態において視線の非検出時に所定の操作が検出された場合に、所定のフィードバックを行ってもよい。フィードバックの手法は特に限定されないが、視線が検出されていない旨を示すオブジェクト(例えば、メッセージなど)の表示であってもよい。
一方、位置制御部113は、カーソルCuが非表示にされた状態において所定の操作が検出された場合に、視線に基づいてポインティング位置Pを移動させてよい。そうすれば、ポインティング位置Pをユーザが見失う可能性を低減することが可能になるという効果を奏し得る。表示領域151が大きくなるほど、かかる効果が顕著になり得る。ポインティング位置Pの移動先は、ユーザUの視線と表示領域151との交点であってよい。
また、位置制御部113は、カーソルCuが非表示にされた状態において視線の非検出時に所定の再表示操作が検出された場合には、視線に応じたポインティング位置Pの移動がなされない。そのため、かかる場合には、位置制御部113は、カーソルCuを非表示にしたときのカーソルCuの位置にポインティング位置Pを決定してもよい。所定の再表示操作は特に限定されないが、検出データに基づいて検出される動きのない状態から動きのある状態への遷移であってもよい。
続いて、図9を参照しながら、本開示の実施形態に係る情報処理システム10の動作の流れを説明する。図9は、本開示の実施形態に係る情報処理システム10の動作の流れを示すフローチャートである。なお、図9に示した動作の流れは、情報処理システム10の動作の流れの一例を示したに過ぎない。したがって、情報処理システム10の動作の流れは、図9に示した例に限定されない。
操作検出部112は、検出データに基づいてユーザによる空間上の操作を検出する(S11)。続いて、位置制御部113は、操作検出部112によって検出された操作に基づいてポインティング位置を決定する(S12)。続いて、表示制御部114は、ポインティング位置にカーソルを表示させる(S13)。なお、カーソルは表示されなくてもよい。続いて、視線検出部111は、ユーザの視線を検出する(S14)。ここでは、S13の後に、視線検出部111による視線検出がなされる例が示されているが、視線検出部111による視線検出のタイミングは、S13の後に限定されない。
続いて、位置制御部113は、操作検出部112によって所定の操作が検出されたか否かを判断する(S15)。位置制御部113は、操作検出部112によって所定の操作が検出されなかった場合には(S15において「No」)、制御部110は、動作をS11に移行させる。一方、位置制御部113は、操作検出部112によって所定の操作が検出された場合には(S15において「Yes」)、視線に基づいてポインティング位置を移動させる(S16)。このようにしてポインティング位置が移動されれば、ポインティング位置をユーザの所望する位置に容易に移動させることが可能となる。
所定の操作が検出された旨はユーザに把握されるのがよい。そこで、表示制御部114は、所定のオブジェクトを表示させる(S17)。また、所定の操作が検出されるようにユーザがジェスチャを行っている間もポインティング位置が移動してしまうと、ポインティング位置がユーザの意志に反して移動してしまう可能性もある。そのため、位置制御部113は、少なくともオブジェクトが表示されてから所定時間が経過するまでポインティング位置を固定する(S18)。また、表示制御部114は、ポインティング位置にカーソルを移動させる(S19)。
制御部110は、動作を継続させるか否かを判断し(S20)、動作を継続させると判断した場合には(S20において「Yes」)、動作をS11に移行させる。一方、制御部110は、動作を終了させると判断した場合には(S20において「No」)、動作を終了させる。以上、図9を参照しながら、本開示の実施形態に係る情報処理システム10の動作の流れを説明した。
ユーザによる空間上の操作に基づいてポインティング位置が移動された場合、ポインティング位置が表示領域151に収まらなくなるような状況も想定される。かかる状況においては、カーソルの位置は表示領域151の外部に表示され得ないため、ポインティング位置が表示領域151の内部に収まらない場合、表示制御部114は、カーソルの位置を表示領域151の端部に固定すればよい。
一方、ポインティング位置は、表示領域151の内部であってもよいし、表示領域151の外部であってもよい。すなわち、位置制御部113は、ユーザによる空間上の操作に基づいてポインティング位置を表示領域151の内部または外部に決定してよい。第一の例として、位置制御部113は、ポインティング位置が表示領域151の内部に収まらない場合、ポインティング位置を表示領域151の端部に固定してよい。かかる第一の例によれば、ポインティング位置がユーザの所望する位置からずれてしまった場合に、ポインティング位置を表示領域151の端部に固定して補正することができる。かかる第一の例について、図10および図11を参照しながら、詳細に説明する。
図10は、ポインティング位置Pが表示領域151の端部に達した場合におけるカーソル表示の第一の例を示す図である。図10を参照すると、位置制御部113がユーザによる空間上の操作に基づいてポインティング位置Pを決定した結果、ポインティング位置Pが表示領域151の端部に達している。また、表示制御部114は、ポインティング位置PにカーソルCuの位置を表示させている。この状況において、ポインティング位置Pが表示領域151の外部に移動されるような操作がなされることを想定する。
図11は、ポインティング位置Pが表示領域151の内部に収まらない場合におけるカーソル表示の第一の例を示す図である。図11を参照すると、カーソルCuの位置は表示領域151の外部に表示され得ないため、ポインティング位置Pが表示領域151の内部に収まらない場合、表示制御部114は、カーソルCuの位置を表示領域151の端部に固定している。また、位置制御部113は、ポインティング位置Pが表示領域151の内部に収まらない場合、ポインティング位置Pを表示領域151の端部に固定している。
以上、第一の例においては、ポインティング位置が表示領域151の内部に収まらない場合、ポインティング位置が表示領域151の端部に固定されることとしたが、ポインティング位置は他の手法により制御されてもよい。第二の例として、位置制御部113は、ポインティング位置が表示領域151の内部に収まらない場合、ポインティング位置を表示領域151の外部に移動させるようにしてもよい。かかる第二の例によれば、ポインティング位置が表示領域151に収まらない状況が生じても、ポインティング位置がユーザの所望する位置からずれてしまう可能性が低減され得る。かかる第二の例について、図12および図13を参照しながら、詳細に説明する。
図12は、ポインティング位置Pが表示領域151の端部に達した場合におけるカーソル表示の第二の例を示す図である。図12を参照すると、位置制御部113がユーザによる空間上の操作に基づいてポインティング位置Pを決定した結果、ポインティング位置Pが表示領域151の端部に達している。また、表示制御部114は、ポインティング位置PにカーソルCuの位置を表示させている。この状況において、ポインティング位置Pが表示領域151の外部に移動されるような操作がなされることを想定する。
図13は、ポインティング位置Pが表示領域151の内部に収まらない場合におけるカーソル表示の第二の例を示す図である。図13を参照すると、カーソルCuの位置は表示領域151の外部に表示され得ないため、ポインティング位置Pが表示領域151の内部に収まらない場合、表示制御部114は、カーソルCuの位置を表示領域151の端部に固定している。また、図13を参照すると、位置制御部113は、ポインティング位置Pが表示領域151の内部に収まらない場合、表示領域151を拡張した仮想平面におけるXY座標にポインティング位置Pを決定している。
ここで、ポインティング位置Pが表示領域151の外部に存在する場合、カーソルCuの位置は表示領域151の内部にしか表示されないため、ユーザは、ポインティング位置Pがどこにあるのかを把握できない状況が起こり得る。そこで、図13に示したように、表示制御部114は、ポインティング位置Pが表示領域151の内部に収まらない場合、ポインティング位置Pと表示領域151の端部との距離Dに応じてカーソルCuを変化させるとよい。
図13には、表示制御部114が、距離Dが大きくなるほどカーソルCuの変形度合いを強める例が示されている。しかし、カーソルCuの変化は、カーソルCuの色の変化であってもよい。例えば、表示制御部114は、距離Dが大きくなるほどカーソルCuの色の変化を大きくしてもよい。また、カーソルCuの変化は、カーソルCuの鮮明度であってもよい。例えば、表示制御部114は、距離Dが大きくなるほどカーソルCuの鮮明度の変化を大きくしてもよい。
以上、本開示の実施形態に係る情報処理システム10の機能詳細について説明した。
<4.情報処理システムの機能構成の変形例>
以上に説明したように、操作検出部112は、検出データに基づいてユーザによる空間上の操作を検出する。上記では、検出データが検出部120によって検出される例を示したが、検出部120によって検出される検出データの代わりに、撮像部130によって撮像された画像が用いられてもよい。
図14は、本開示の実施形態に係る情報処理システム10の機能構成の変形例を示す図である。図14に示したように、検出部120によって検出される検出データの代わりに、撮像部130によって撮像された画像が用いられる場合、情報処理システム10は検出部120を有していなくてもよい。例えば、操作検出部112は、撮像部130によって撮像された画像から所定の認識対象を認識し、認識対象の動きまたは状態に基づいて操作を検出してよい。認識対象は、ユーザによって動かされる物体であってもよいし、ユーザ自身の身体であってもよい。ユーザ自身の身体は、ユーザ自身の身体の一部であってもよいし、ユーザ自身の身体の全部であってもよい。
例えば、ユーザによって動かされる物体の方向が操作検出部112によって検出された場合、位置制御部113は、物体の方向に基づいてポインティング位置を決定してもよい。また、物体の動きが操作検出部112によって検出された場合、位置制御部113は、物体の動きに基づいてポインティング位置を決定してもよい。さらに、操作検出部112は、物体が所定の動きを示した場合に、所定の操作を検出してもよいし、物体が所定の状態となった場合に、所定の操作を検出してもよい。
例えば、ユーザ自身の身体の方向が操作検出部112によって検出された場合、位置制御部113は、ユーザ自身の身体の方向に基づいてポインティング位置を決定してもよい。ユーザ自身の身体の方向は、ユーザの指が示す方向であってもよいし、肘から指先までの方向であってもよい。また、ユーザ自身の身体の動きが操作検出部112によって検出された場合、位置制御部113は、ユーザ自身の身体の動きに基づいてポインティング位置を決定してもよい。
さらに、操作検出部112は、ユーザ自身の身体が所定の動きを示した場合に、所定の操作を検出してもよいし、ユーザ自身の身体が所定の状態となった場合に、所定の操作を検出してもよい。所定の動きは、ユーザが手を振る動きであってもよいし、他の動きであってもよい。また、所定の状態は、ユーザが手を広げた状態であってもよいし、ユーザが手を握った状態であってもよいし、他の状態であってもよい。
<5.情報処理システムのハードウェア構成例>
続いて、本開示の実施形態に係る情報処理システム10のハードウェア構成例について説明する。図15は、本開示の実施形態に係る情報処理システム10のハードウェア構成例を示す図である。ただし、図15に示したハードウェア構成例は、情報処理システム10のハードウェア構成の一例を示したに過ぎない。したがって、情報処理システム10のハードウェア構成は、図15に示した例に限定されない。
図15に示したように、情報処理システム10は、CPU(Central Processing Unit)801と、ROM(Read Only Memory)802と、RAM(Random Access Memory)803と、センサ804と、入力装置808と、出力装置810と、ストレージ装置811と、ドライブ812と、撮像装置813と、通信装置815とを備える。
CPU801は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理システム10内の動作全般を制御する。また、CPU801は、マイクロプロセッサであってもよい。ROM802は、CPU801が使用するプログラムや演算パラメータなどを記憶する。RAM803は、CPU801の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一時記憶する。これらはCPUバスなどから構成されるホストバスにより相互に接続されている。
センサ804は、情報処理システム10の状態を検知するための状態検知センサなどの各種検知用センサとその周辺回路とを含む。センサ804としては、例として、測位センサ、傾きセンサ、加速度センサ、ジャイロセンサ、方位センサ、温度センサ、湿度センサ、照度センサなどを挙げることができる。センサ804による検知信号は、CPU801に送られる。これにより、CPU801は、情報処理システム10の状態(位置、傾き、加速度、角速度、方位、温度、湿度、照度など)を知ることができる。
入力装置808は、マウス、キーボード、タッチパネル、ボタン(電源ボタンなど)、マイクロフォン、スイッチ、ダイヤルおよびレバーなどユーザが情報を入力するための操作部と、ユーザによる入力に基づいて入力信号を生成し、CPU801に出力する入力制御回路などから構成されている。情報処理システム10のユーザは、該入力装置808を操作することにより、情報処理システム10に対して各種のデータを入力したり処理動作を指示したりすることができる。なお、これらの操作部が設けられる位置は特に限定されない。例えば、情報処理システム10の筐体側面に当該操作部が設けられてもよいし、ディスプレイが設けられる面と同一面上に設けられてもよい。
出力装置810は、例えば、LCD(Liquid Crystal Display)、OLED(Organic Light Emitting Diode)およびランプなどの表示装置を含んでよい。さらに、出力装置810は、スピーカおよびヘッドホンなどの音声出力装置を含んでもよい。例えば、表示装置は、撮像された画像や生成された画像などを表示する。一方、音声出力装置は、音声データなどを音声に変換して出力する。
ストレージ装置811は、情報処理システム10の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置811は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置811は、CPU801が実行するプログラムや各種データを格納する。
ドライブ812は、記憶媒体用リーダライタであり、情報処理システム10に内蔵、あるいは外付けされる。ドライブ812は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記憶媒体に記録されている情報を読み出して、RAM803に出力する。また、ドライブ812は、リムーバブル記憶媒体に情報を書き込むこともできる。
撮像装置813は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置813は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
通信装置815は、ネットワークを介して(あるいは、直接的に)外部装置と通信する。通信装置815は、無線通信用のインタフェースであってもよく、例えば、通信アンテナ、RF(Radio Frequency)回路、ベースバンドプロセッサなどを含んでもよい。無線通信用のインタフェースの具体的な例としては、CDMA(Code Division Multiple
Access)、W−CDMA(Wideband Code Division Multiple Access)、LTE(Long Term Evolution)、Wi−fi(登録商標)(Wireless Fidelity)のような通信方式に対応したモデムなどの通信ユニットが挙げられる。
また、通信装置815は、有線通信用のインタフェースであってもよく、例えば、接続端子、伝送回路およびその他の通信処理用の回路を含んでもよい。また、CPU801と通信装置815とは1つのチップにより構成されてもよいし、別々のデバイスとして実現されてもよい。また、図15には図示していないが、情報処理システム10は、例えば、充電式電池のような電力源から供給される電力により駆動してもよく、当該電力源は、情報処理システム10に対して着脱可能に構成されていてもよい。
以上、本開示の実施形態に係る情報処理システム10のハードウェア構成例について説明した。例えば、表示部150および記憶部140は、出力装置810およびストレージ装置811によりそれぞれ実現され得る。また、制御部110は、CPU801により実現され得る。したがって、コンピュータを制御部110を有する情報処理システム10として機能させるためのプログラムがストレージ装置811、ROM802またはRAM803に保持され、CPU801が当該プログラムを実行し得る。
また、表示制御情報を表示部150に出力するための構成が、「出力部」の一例に相当する。具体的な一例として、出力部は、図15に示したCPU801とバスとの間に位置する信号線などのデバイスにより実現され得る。また、表示制御情報は、例えば、CPU801が出力装置810(例えば、ディスプレイなど)を制御するための、RGB信号やHDMI(High−Definition Multimedia Interface)信号などの映像信号により実現され得る。
なお、上述した情報処理システム10の動作が実現されれば、図5に示した各構成の位置は特に限定されない。具体的な一例として、検出部120および表示部150と制御部110および記憶部140とのそれぞれが、ネットワークを介して接続された互いに異なる情報処理装置に設けられてもよい。この場合には、制御部110および記憶部140が設けられた情報処理装置が、例えば、ウェブサーバやクラウドサーバのようなサーバに相当し、検出部120および表示部150が当該サーバにネットワークを介して接続されたクライアントに相当し得る。
上記に示すように、情報処理システム10が有する機能をクライアントおよびサーバにより実現した場合、制御部110を有するサーバが、ネットワークを介してクライアントに表示制御情報を送信するための構成(例えば、モデムなどの通信インタフェース)が、「出力部」の一例に相当する。
また、情報処理システム10が有する機能をクライアントおよびサーバにより実現した場合には、表示制御情報の内容がシステム構成にあわせて適宜変更されてよい。具体的な一例として、クライアント側においてブラウザ上に前述した画面を表示させる場合には、表示制御情報は、HTML(HyperText Markup Language)、SGML(Standard Generalized Markup Language)、XML(Extensible Markup Language)などのマークアップ言語により実現されてもよい。
また、上記に示す表示制御情報は、あくまで一例であり、表示制御部114と表示部150との間で情報を送受信するための方式、伝送路の種別、または、情報の送受信に用いる媒体(例えば、無線信号や光)に応じて適宜変更されてもよい。
<6.むすび>
以上説明したように、本開示の実施形態によれば、ユーザの視線を検出する視線検出部と、前記ユーザによる空間上の操作を検出する操作検出部と、前記操作に基づいてポインティング位置を決定する位置制御部と、を備え、前記位置制御部は、所定の操作が検出された場合に前記視線に基づいて前記ポインティング位置を移動させる、情報処理システムが提供される。かかる構成によれば、ポインティング位置をユーザの所望する位置に容易に移動させることが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記した例では、空間上の操作を行うユーザが1人である場合を主に説明したが、空間上の操作を行うユーザは複数人であってもよい。かかる場合には、位置制御部113によって複数のユーザそれぞれのポインティング位置が決定されてよい。また、位置制御部113は、所定の操作が検出された場合、その操作を行ったユーザの視線に応じてそのユーザのポインティング位置を移動させてよい。
また、表示制御部114は、複数のユーザそれぞれのポインティング位置にカーソルを表示させてよい。このとき、複数のユーザそれぞれのカーソルはユーザごとに異なっていてもよい。例えば、表示制御部114は、ユーザごとに異なった色でカーソルを表示させてもよい。かかる場合、表示制御部114は、ユーザによって操作される検出部120の色にカーソルの色を合わせてもよい。検出部120の色は、表示制御部114によって画像から認識されてもよいし、情報処理システム10に登録されている検出部120のIDに応じて決められてもよい。
また、例えば、情報処理システム10の動作は、必ずしもフローチャートに記載された順序に沿って時系列になされる必要はない。例えば、情報処理システム10の動作は、フローチャートに記載した順序と異なる順序でなされてもよいし、フローチャートに記載された動作の少なくとも一部が並列的になされてもよい。
また、コンピュータに内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上記した情報処理システム10が有する機能と同等の機能を発揮させるためのプログラムも作成可能である。また、該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
ユーザの視線を検出する視線検出部と、
前記ユーザによる空間上の操作を検出する操作検出部と、
前記操作に基づいてポインティング位置を決定する位置制御部と、を備え、
前記位置制御部は、所定の操作が検出された場合に前記視線に基づいて前記ポインティング位置を移動させる、
情報処理システム。
(2)
前記情報処理システムは、前記所定の操作が検出された場合に所定のオブジェクトを表示させる表示制御部を備える、
前記(1)に記載の情報処理システム。
(3)
前記位置制御部は、少なくとも前記所定のオブジェクトが表示されてから所定時間が経過するまで前記ポインティング位置を固定する、
前記(2)に記載の情報処理システム。
(4)
前記表示制御部は、前記視線の非検出時に前記所定の操作が検出された場合に、所定のフィードバックを行う、
前記(2)または(3)に記載の情報処理システム。
(5)
前記表示制御部は、前記視線の非検出時に所定のインジケータを表示させる、
前記(2)〜(4)のいずれか一項に記載の情報処理システム。
(6)
前記表示制御部は、前記視線の非検出時にカーソルを変化させる、
前記(2)〜(4)のいずれか一項に記載の情報処理システム。
(7)
前記操作検出部は、検出データに基づいて前記所定の操作を検出する、
前記(1)〜(6)のいずれか一項に記載の情報処理システム。
(8)
前記操作検出部は、前記検出データから認識される所定の状態を前記所定の操作として検出する、
前記(7)に記載の情報処理システム。
(9)
前記操作検出部は、前記検出データから認識される所定の動きを前記所定の操作として検出する、
前記(7)に記載の情報処理システム。
(10)
前記表示制御部は、前記ポインティング位置にカーソルを表示させる、
前記(2)〜(9)のいずれか一項に記載の情報処理システム。
(11)
前記表示制御部は、前記カーソルが表示されている状態において前記視線の非検出時に前記所定の操作が検出された場合に、所定のフィードバックを行う、
前記(10)に記載の情報処理システム。
(12)
前記表示制御部は、所定のカーソル非表示条件が満たされた場合に前記カーソルを非表示にする、
前記(2)〜(11)のいずれか一項に記載の情報処理システム。
(13)
前記位置制御部は、前記カーソルが非表示にされた状態において前記所定の操作が検出された場合に、前記視線に基づいて前記ポインティング位置を移動させる、
前記(12)に記載の情報処理システム。
(14)
前記位置制御部は、前記カーソルが非表示にされた状態において前記視線の非検出時に所定の再表示操作が検出された場合に、前記カーソルを非表示にしたときの前記カーソルの位置に前記ポインティング位置を決定する、
前記(12)に記載の情報処理システム。
(15)
前記位置制御部は、前記操作に基づいて前記ポインティング位置を表示領域の内部または外部に決定する、
前記(2)〜(14)のいずれか一項に記載の情報処理システム。
(16)
前記表示制御部は、前記ポインティング位置が前記表示領域の内部に収まらない場合、前記カーソルの位置を前記表示領域の端部に固定する、
前記(15)に記載の情報処理システム。
(17)
前記表示制御部は、前記ポインティング位置が表示領域の内部に収まらない場合、前記ポインティング位置と前記表示領域の端部との距離に応じて前記カーソルを変化させる、
前記(16)に記載の情報処理システム。
(18)
前記位置制御部は、前記ポインティング位置が表示領域の内部に収まらない場合、前記ポインティング位置を前記表示領域の端部に固定する、
前記(1)〜(14)のいずれか一項に記載の情報処理システム。
(19)
ユーザの視線を検出することと、
前記ユーザによる空間上の操作を検出することと、
前記操作に基づいてポインティング位置を決定することと、を含み、
プロセッサにより所定の操作が検出された場合に前記視線に基づいて前記ポインティング位置を移動させること、
を含む、情報処理方法。
(20)
コンピュータを、
ユーザの視線を検出する視線検出部と、
前記ユーザによる空間上の操作を検出する操作検出部と、
前記操作に基づいてポインティング位置を決定する位置制御部と、を備え、
前記位置制御部は、所定の操作が検出された場合に前記視線に基づいて前記ポインティング位置を移動させる、
情報処理システムとして機能させるためのプログラム。
10 情報処理システム
110 制御部
111 視線検出部
112 操作検出部
113 位置制御部
114 表示制御部
120 検出部
130 撮像部
140 記憶部
150 表示部
151 表示領域
Cu カーソル
D 距離
Obj オブジェクト
P ポインティング位置
U ユーザ

Claims (18)

  1. ユーザの視線を検出する視線検出部と、
    前記ユーザによる空間上の操作を検出する操作検出部と、
    前記操作に基づいてポインティング位置を決定する位置制御部と
    所定の操作が検出された場合に所定のオブジェクトを表示させる表示制御部と、
    を備え、
    前記オブジェクトは、前記所定の操作が検出されてから所定の時間が経過するまで動きを有する動画であり、
    前記位置制御部は、前記所定の操作が検出された場合に前記視線に基づいて前記ポインティング位置を移動させ、少なくとも前記所定のオブジェクトが表示されてから前記所定の時間が経過するまで前記ポインティング位置を固定する、
    情報処理システム。
  2. 前記表示制御部は、前記視線の非検出時に前記所定の操作が検出された場合に、所定のフィードバックを行う、
    請求項に記載の情報処理システム。
  3. 前記表示制御部は、前記視線の非検出時に所定のインジケータを表示させる、
    請求項に記載の情報処理システム。
  4. 前記表示制御部は、前記視線の非検出時にカーソルを変化させる、
    請求項に記載の情報処理システム。
  5. 前記操作検出部は、検出データに基づいて前記所定の操作を検出する、
    請求項1に記載の情報処理システム。
  6. 前記操作検出部は、前記検出データから認識される所定の状態を前記所定の操作として検出する、
    請求項に記載の情報処理システム。
  7. 前記操作検出部は、前記検出データから認識される所定の動きを前記所定の操作として検出する、
    請求項に記載の情報処理システム。
  8. 前記表示制御部は、前記ポインティング位置にカーソルを表示させる、
    請求項に記載の情報処理システム。
  9. 前記表示制御部は、前記カーソルが表示されている状態において前記視線の非検出時に前記所定の操作が検出された場合に、所定のフィードバックを行う、
    請求項に記載の情報処理システム。
  10. 前記表示制御部は、所定のカーソル非表示条件が満たされた場合に前記カーソルを非表示にする、
    請求項に記載の情報処理システム。
  11. 前記位置制御部は、前記カーソルが非表示にされた状態において前記所定の操作が検出された場合に、前記視線に基づいて前記ポインティング位置を移動させる、
    請求項10に記載の情報処理システム。
  12. 前記位置制御部は、前記カーソルが非表示にされた状態において前記視線の非検出時に所定の再表示操作が検出された場合に、前記カーソルを非表示にしたときの前記カーソルの位置に前記ポインティング位置を決定する、
    請求項10に記載の情報処理システム。
  13. 前記位置制御部は、前記操作に基づいて前記ポインティング位置を表示領域の内部または外部に決定する、
    請求項に記載の情報処理システム。
  14. 前記表示制御部は、前記ポインティング位置が前記表示領域の内部に収まらない場合、カーソルの位置を前記表示領域の端部に固定する、
    請求項13に記載の情報処理システム。
  15. 前記表示制御部は、前記ポインティング位置が表示領域の内部に収まらない場合、前記ポインティング位置と前記表示領域の端部との距離に応じて前記カーソルを変化させる、
    請求項14に記載の情報処理システム。
  16. 前記位置制御部は、前記ポインティング位置が表示領域の内部に収まらない場合、前記ポインティング位置を前記表示領域の端部に固定する、
    請求項1に記載の情報処理システム。
  17. ユーザの視線を検出することと、
    前記ユーザによる空間上の操作を検出することと、
    前記操作に基づいてポインティング位置を決定することと、
    所定の操作が検出された場合に所定のオブジェクトを表示させることと、
    を含み、
    前記オブジェクトは、前記所定の操作が検出されてから所定の時間が経過するまで動きを有する動画であり、
    プロセッサにより前記所定の操作が検出された場合に前記視線に基づいて前記ポインティング位置を移動させ、少なくとも前記所定のオブジェクトが表示されてから前記所定の時間が経過するまで前記ポインティング位置を固定すること、
    を含む、情報処理方法。
  18. コンピュータを、
    ユーザの視線を検出する視線検出部と、
    前記ユーザによる空間上の操作を検出する操作検出部と、
    前記操作に基づいてポインティング位置を決定する位置制御部と
    所定の操作が検出された場合に所定のオブジェクトを表示させる表示制御部と、
    を備え、
    前記オブジェクトは、前記所定の操作が検出されてから所定の時間が経過するまで動きを有する動画であり、
    前記位置制御部は、前記所定の操作が検出された場合に前記視線に基づいて前記ポインティング位置を移動させ、少なくとも前記所定のオブジェクトが表示されてから前記所定の時間が経過するまで前記ポインティング位置を固定する、
    情報処理システムとして機能させるためのプログラム。
JP2015556712A 2014-01-08 2014-10-22 情報処理システム、情報処理方法およびプログラム Active JP6504058B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014001763 2014-01-08
JP2014001763 2014-01-08
PCT/JP2014/078117 WO2015104884A1 (ja) 2014-01-08 2014-10-22 情報処理システム、情報処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2015104884A1 JPWO2015104884A1 (ja) 2017-03-23
JP6504058B2 true JP6504058B2 (ja) 2019-04-24

Family

ID=53523726

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015556712A Active JP6504058B2 (ja) 2014-01-08 2014-10-22 情報処理システム、情報処理方法およびプログラム

Country Status (5)

Country Link
US (1) US20160291692A1 (ja)
EP (1) EP3093738A4 (ja)
JP (1) JP6504058B2 (ja)
CN (1) CN105874409A (ja)
WO (1) WO2015104884A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11520400B2 (en) 2019-12-20 2022-12-06 Canon Kabushiki Kaisha Electronic apparatus and method for controlling the same

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017091327A (ja) * 2015-11-12 2017-05-25 富士通株式会社 ポインティング支援装置、ポインティング支援方法およびポインティング支援プログラム
CN107402691A (zh) * 2017-07-13 2017-11-28 深圳Tcl新技术有限公司 终端光标的显示方法、显示装置及计算机可读存储介质
US10579163B2 (en) * 2018-06-02 2020-03-03 Mersive Technologies, Inc. System and method of annotation of a shared display using a mobile device
JP7178763B2 (ja) 2019-03-25 2022-11-28 富士フイルム株式会社 投影制御装置、投影装置、投影制御方法、及び投影制御プログラム
JP7467071B2 (ja) 2019-10-24 2024-04-15 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、記憶媒体

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6204828B1 (en) * 1998-03-31 2001-03-20 International Business Machines Corporation Integrated gaze/manual cursor positioning system
US8793620B2 (en) * 2011-04-21 2014-07-29 Sony Computer Entertainment Inc. Gaze-assisted computer interface
WO2009008372A1 (ja) 2007-07-06 2009-01-15 Sony Corporation 入力装置、制御装置、制御システム、制御方法及びハンドヘルド装置
JP5531616B2 (ja) * 2007-12-07 2014-06-25 ソニー株式会社 制御装置、入力装置、制御システム、制御方法及びハンドヘルド装置
US8896527B2 (en) * 2009-04-07 2014-11-25 Samsung Electronics Co., Ltd. Multi-resolution pointing system
US8982160B2 (en) * 2010-04-16 2015-03-17 Qualcomm, Incorporated Apparatus and methods for dynamically correlating virtual keyboard dimensions to user finger size
EP2579329A1 (en) * 2010-05-26 2013-04-10 Hitachi Chemical Company, Ltd. Wavelength conversion-type solar cell sealing material, and solar cell module
JP5656514B2 (ja) * 2010-08-27 2015-01-21 キヤノン株式会社 情報処理装置及び方法
US8395362B2 (en) * 2010-10-29 2013-03-12 R2 Semiconductor, Inc. Controlling a dead time of a switching voltage regulator
JP2012105034A (ja) * 2010-11-10 2012-05-31 Panasonic Corp リモートコントロールシステム
JP5387557B2 (ja) * 2010-12-27 2014-01-15 カシオ計算機株式会社 情報処理装置及び方法、並びにプログラム
JP5810874B2 (ja) * 2011-12-06 2015-11-11 株式会社日本自動車部品総合研究所 表示制御システム
JP2013125985A (ja) * 2011-12-13 2013-06-24 Sharp Corp 表示システム
JP2013134717A (ja) * 2011-12-27 2013-07-08 Aisin Aw Co Ltd 操作入力システム
GB2504492A (en) * 2012-07-30 2014-02-05 John Haddon Gaze detection and physical input for cursor symbol
GB2533520B (en) * 2013-08-27 2021-02-10 Auckland Uniservices Ltd Gaze-controlled interface method and system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11520400B2 (en) 2019-12-20 2022-12-06 Canon Kabushiki Kaisha Electronic apparatus and method for controlling the same

Also Published As

Publication number Publication date
US20160291692A1 (en) 2016-10-06
EP3093738A4 (en) 2017-06-21
EP3093738A1 (en) 2016-11-16
WO2015104884A1 (ja) 2015-07-16
CN105874409A (zh) 2016-08-17
JPWO2015104884A1 (ja) 2017-03-23

Similar Documents

Publication Publication Date Title
US11494000B2 (en) Touch free interface for augmented reality systems
JP6504058B2 (ja) 情報処理システム、情報処理方法およびプログラム
US9983687B1 (en) Gesture-controlled augmented reality experience using a mobile communications device
US8549418B2 (en) Projected display to enhance computer device use
JP6121647B2 (ja) 情報処理装置、情報処理方法およびプログラム
WO2018077206A1 (zh) 增强现实场景生成方法、装置、系统及设备
US11768578B2 (en) User interfaces for tracking and finding items
JP6524661B2 (ja) 入力支援方法、入力支援プログラムおよび入力支援装置
EP2832107B1 (en) Information processing apparatus, information processing method, and program
JP6658518B2 (ja) 情報処理装置、情報処理方法及びプログラム
US11572653B2 (en) Interactive augmented reality
US20150128036A1 (en) Method, apparatus and electronic device for moving target element
JP5295839B2 (ja) 情報処理装置、フォーカス移動制御方法及びフォーカス移動制御プログラム
KR20210023680A (ko) 증강 현실 환경에서의 콘텐트 생성
JP2009288951A (ja) 画像処理装置、画像処理方法、画像処理プログラム
JP2021531589A (ja) 目標対象の動作認識方法、装置及び電子機器
CN106201284B (zh) 用户界面同步系统、方法
JP2014513357A (ja) レーザー・ダイオード・モード
US9665232B2 (en) Information-processing device, storage medium, information-processing method, and information-processing system for enlarging or reducing an image displayed on a display device
US20180059811A1 (en) Display control device, display control method, and recording medium
JP6065084B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6481360B2 (ja) 入力方法、入力プログラムおよび入力装置
JP6523509B1 (ja) ゲームプログラム、方法、および情報処理装置
US10855639B2 (en) Information processing apparatus and information processing method for selection of a target user
TWI621034B (zh) 虛擬實境環境中實境資訊之顯示方法及系統,及其相關電腦程式產品

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180814

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180928

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

TRDD Decision of grant or rejection written
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190311

R151 Written notification of patent or utility model registration

Ref document number: 6504058

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515