JPWO2014207828A1 - 情報処理装置およびプログラム - Google Patents

情報処理装置およびプログラム Download PDF

Info

Publication number
JPWO2014207828A1
JPWO2014207828A1 JP2015523705A JP2015523705A JPWO2014207828A1 JP WO2014207828 A1 JPWO2014207828 A1 JP WO2014207828A1 JP 2015523705 A JP2015523705 A JP 2015523705A JP 2015523705 A JP2015523705 A JP 2015523705A JP WO2014207828 A1 JPWO2014207828 A1 JP WO2014207828A1
Authority
JP
Japan
Prior art keywords
input
area
line
sight
guide
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015523705A
Other languages
English (en)
Other versions
JP6004103B2 (ja
Inventor
哲典 田口
哲典 田口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Application granted granted Critical
Publication of JP6004103B2 publication Critical patent/JP6004103B2/ja
Publication of JPWO2014207828A1 publication Critical patent/JPWO2014207828A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

視線検出部は、使用者の視線を検出する。第1の領域決定部は、検出された視線の表示画面上の視線位置に基づき、使用者の動きによる入力方法を示す第1の情報を表示される、表示画面上の第1の領域を決定する。第1の表示制御部は、第1の領域に第1の情報を表示する。入力検出部は、使用者による入力を検出する。第2の領域決定部は、第1の領域外であって、第1の領域よりも視線位置から遠い点を含み、検出された入力における前記使用者の動きに応じた軌跡を示す第2の情報が表示される第2の領域を決定する。第2の表示制御部は、第2の領域に、第2の情報を表示する。これにより、使用者は、視線を動かさずに、入力ガイドおよび入力経過を参照しながら入力を行うことができる。

Description

本発明は、情報処理装置およびプログラムに関する。
携帯端末などの情報処理装置の高性能・機能化により、例えば携帯端末を様々な場面や用途で利用する機会が増えている。これにより、タッチパネルを搭載した携帯端末を持っている手で、そのまま入力も行いたいというような要求が増えてきている。このような要求は、例えば、電車で吊革を持っているとき、バッグや傘を持っているとき、横になりながら、などの場面で存在することが想定される。そのため、携帯端末を持ったままで入力を可能にするインタフェースが求められている。
例えば、使用者の注視箇所を検出して注視情報として生成し、注視情報に基づいて、使用者の入力を補助するためのガイド情報を提示する位置を求め、求められた位置にガイド情報を提示制御する技術が知られている。この技術により、使用者の注視箇所近傍にガイド情報が提示される(例えば、特許文献1参照)。
特開2000−250677号公報
ところで、例えばタッチパネルにおける指の動きによる入力など、時間変化がある入力方法を用いる場合、どのような入力を行っているかを使用者が認識できるように、画面に指の動き等の表示をすることがある。しかし、例えば、入力可能な選択肢が複数あり、選択肢を選択するための入力方法を示す入力ガイドが表示される場合、入力ガイド上に入力された動きに関する表示を行ってしまうと、入力ガイドが見にくくなってしまう。入力操作を覚えていない場合には、途中で入力ガイドを見ることが困難になり、行いたい入力のための指の動き等が分からなくなってしまうことも考えられる。逆に、入力ガイドと入力された動きに関する表示とが離れすぎている場合には、使用者は視線を動かしてそれぞれを確認する必要が生じる。このように、入力ガイドと入力における動きに関する情報とを同時に確認できるように表示をレイアウトすることができないという問題がある。
ひとつの側面によれば、本発明の目的は、視線位置に基づく位置に表示した入力ガイドと動きによる入力経過とを視線を動かさずに同時に認識できるようにすることである。
ひとつの態様である情報処理装置は、視線検出部、第1の領域決定部、第1の表示制御部、入力検出部、第2の領域決定部、および第2の表示制御部を有している。視線検出部は、使用者の視線を検出する。第1の領域決定部は、検出された視線の表示画面上の視線位置に基づき、使用者の動きによる入力方法を示す第1の情報を表示される、表示画面上の第1の領域を決定する。第1の表示制御部は、第1の領域に第1の情報を表示する。入力検出部は、使用者による入力を検出する。第2の領域決定部は、第1の領域外であって、第1の領域よりも視線位置から遠い点を含み、検出された入力における前記使用者の動きに応じた軌跡を示す第2の情報が表示される第2の領域を決定する。第2の表示制御部は、第2の領域に、第2の情報を表示する。
実施形態の情報処理装置によれば、視線位置に基づく位置に表示した入力ガイドと動きによる入力経過とを視線を動かさずに同時に認識することが可能となる。
携帯端末装置のハードウエア構成の一例を示すブロック図である。 携帯端末装置の機能の一例を示すブロック図である。 本実施の形態による入力方法の一例を概念的に説明する図である。 本実施の形態による入力方法の一例を概念的に説明する図である。 表示領域の一例を示す図である。 表示位置決定情報の一例を示す図である。 携帯端末装置における入力処理を示すフローチャートである。 変形例1による入力表示例を示す図である。 ガイド表示領域と入力表示領域との変形例を示す図である。 ガイド表示領域と入力表示領域との変形例を示す図である。 ガイド表示領域と入力表示領域との変形例を示す図である。 標準的なコンピュータのハードウエア構成の一例を示すブロック図である。
以下、図面を参照しながら、一実施の形態による携帯端末装置1について説明する。図1は、携帯端末装置1のハードウエア構成の一例を示すブロック図、図2は、携帯端末装置1の機能の一例を示すブロック図である。
携帯端末装置1は、演算処理装置3、記憶部5、通信部11、アンテナ13、音声入出力部15、スピーカ17、マイク19、視線検出装置21、タッチパネル23、表示部25などを有している。携帯端末装置1は、例えば、多機能携帯電話機、タブレット型コンピュータ等である。
演算処理装置3は、携帯端末装置1における動作に伴うデータの処理を行う演算処理装置である。記憶部5は、情報を記憶する記憶装置であり、Read Only Memory(ROM)7、Random Access Memory(RAM)9を有している。ROM7は、随時読み出し可能な記憶装置であり、携帯端末装置1に所定の処理を実行させるためのプログラムを記憶するようにしてもよい。RAM9は、随時読み出し及び書込可能な記憶装置であり、演算結果などの情報を記憶するようにしてもよい。
無線部11は、外部へ通信する情報を変換して、アンテナ13を介して無線通信により送信するための信号を生成したり、アンテナ13により受信された信号を変換して演算処理装置3に出力したりする装置である。アンテナ13は、電波を送信及び受信する装置である。無線通信は、例えば、3rd Generation(3G)回線、WiFi(商標)通信である。
音声入出力部15は、音声により出力する情報を変換してスピーカ17に出力するとともに、マイク19からの入力信号を変換して演算処理装置3に出力する装置である。スピーカ17は、電気信号を変換して音声を出力する装置である。マイク19は、音声を収音し、電気信号に変換する装置である。
視線検出装置21は、例えば、カメラと光源などを有することができる。視線検出装置21は、例えば、使用者の目を撮影することにより視線を検出する。タッチパネル23は、接触により情報の入力を行う装置である。表示部25は、情報を表示する例えば液晶表示装置である。
図2に示すように、携帯端末装置1は、視線検出部31、操作対象検出部33、ガイド作成部35、表示位置決定部37、ガイド表示部39、入力検出部41、入力表示領域決定部43、入力表示部45、表示位置決定情報47を有している。これらの機能は、例えばRAM9に記憶されたプログラムを演算処理装置3が読み込んで実行することにより実現される。
視線検出部31は、視線検出装置21により取得された、例えば使用者の目の画像を解析することにより、視線を検出する。視線の検出は、例えば、タッチパネル23等を介して視線検出の開始が入力されると、開始される。操作対象検出部33は、視線検出部31により検出された視線に基づき、表示部25上の視線位置を検出し、視線の位置に表示された対象を操作対象として検出する。
ガイド作成部35は、検出された操作対象に対して可能な処理に応じた選択肢と、その選択肢に対応する入力方法とを示す入力ガイドを作成する。表示位置決定部37は、作成された入力ガイドを表示する位置を決定する。表示位置決定部37は、例えば、視線検出部31が検出した視線位置に、ガイド作成部35が作製した入力ガイドの中心がくるように表示位置を決定してもよい。表示位置決定部37は、視線検出部31が検出した視線位置に基づき表示を行うある範囲を設定することが好ましい。
ガイド表示部39は、表示位置決定部37が決定した位置に、作成された入力ガイドを表示する。このときガイド表示部39は、表示位置決定部37により設定された範囲に収まるように、入力ガイドを表示してもよい。入力ガイドは、選択肢を選択するための例えば、タッチパネル23上の指の動きなど、入力のための動きに応じた軌跡を含むことが好ましい。
入力検出部41は、入力ガイドに表示された選択肢のいずれかを選択するための入力を検出する。入力表示領域決定部43は、検出された入力に応じた軌跡の表示を行う領域を決定する。入力表示領域決定部43は、表示位置決定部37により決定された位置または範囲に表示される入力ガイドと重ならないように、表示領域を決定することが好ましい。なお、動きを表示する場合には、文字を認識する必要のある情報よりも視線から離れた位置でも認識できることが知られている。そこで、入力ガイドを表示する位置はより視線位置に近く、動きに応じた表示を行う位置は、入力ガイドを表示する位置より視線位置から離れた位置とすることができる。入力表示部45は、表示位置決定部37により決定された位置に、入力に応じた表示を行う。
表示位置決定情報47は、ガイド表示領域と、入力表示領域の形状を決定するための情報である。表示位置決定情報47は、例えば表示ルール毎に、ガイド表示領域の半径r1、入力表示領域の半径r2、または、それぞれの長径r3、短径r4、長径r5、短径r6などを有するようにしてもよい。例えば、表示位置決定情報47の例では、領域は、円または楕円で表される。ルールは複数設け、選択された操作対象に応じて変更するようにしてもよい。表示位置決定情報47は、表示位置決定部37、入力表示領域決定部43により参照される。
図3、図4は、本実施の形態による入力方法の一例を概念的に説明する図である。図3に示すように、入力例71は、使用者の手53が携帯端末装置1を持って入力している場合の表示例を示している。画面上には、入力の一例が表示されている。
入力ガイド57は、選択肢と選択のための入力方法を含む情報である。入力ガイド57には、選択可能な処理と、時間的な変化のある、例えば、入力装置や利用環境に対応した使用者の身体の動きによる入力方法とが対応付けられることが好ましい。入力ガイド57には、例えば、操作対象を上下移動させる処理に対応して下向きの動きの入力が指定されるようにしてもよい。図3、図4の入力ガイド57においては、入力に必要な動きが矢印で表示されているが、それぞれの動きと対応する、操作対象に対する特定の処理と対応付けて表示されるようにしてもよい。
ガイド表示領域59は、予め検出された視線の位置55に応じて決定される領域であり、入力ガイド57が表示される領域である。ガイド表示領域59は、例えば、色や物の形が認識可能な、例えば中心視が可能な領域としてもよい。このとき、入力ガイド57により提示される入力は、例えば、上下の動きや、左右の動き等、動きを伴うものであることが好ましい。
入力表示領域61は、入力ガイド57に基づき選択された選択方法において入力される、例えばタッチ操作などにより検出される動き、または動きの経過に応じた表示が行われる領域である。入力表示領域61は、例えば、物の動きの認識が可能な周辺視が可能な領域としてもよい。
入力63は、使用者が、携帯端末装置1を手53で持った状態で、入力ガイド57を見ながら、選択したい選択肢に応じた動きの入力を手53により行っている状態を示す。例えば入力63のように、円を描くような動きが入力される。入力表示65は、検出された入力63と同様の動きの軌跡を矢印により表示したものであり、入力表示領域61に表示される。入力表示65は、例えば入力63を検出すると逐次表示されることが好ましい。入力表示65は、入力中に継続して逐次表示されることが好ましい。
図4に示すように、入力例73は、使用者の手75が携帯端末装置1を持った状態で入力を行っている場合の別の例を示している。入力例73は、使用者が、入力ガイド57を見ながら、手75により、入力77のように直線的な動きを入力する例である。入力77は、手75により行われる入力のための動きを示している。入力表示79は、入力77の動きを表示したものであり、入力表示領域61に表示される。
図5は、表示領域の一例を示す図である。図5に示すように、この例では、ガイド表示領域83、入力表示領域85が示されている。ガイド表示領域83は、選択肢と選択のための入力方法を含む入力ガイドを表示する領域である。入力表示領域85は、入力ガイドに応じた選択を行う際の動きを表示する領域である。ガイド表示領域83は、視線位置81を中心とする半径が距離87の円である。入力表示領域85は、視線位置81を中心とする半径が距離89の円であって、ガイド表示領域83以外の部分である。入力表示領域85は、この例では、ガイド表示領域83の外側に接する領域であり、視線位置81からの距離が、ガイド表示領域83よりも遠い点を含む。
図7は、本実施の形態による携帯端末装置1における入力処理を示すフローチャートである。図7に示す各処理は、例えば演算処理装置3が、所定のプログラムを読み込み実行することにより行われるが、ここでは、図2の各機能により実行されるものとして説明する。
図7に示すように、視線検出部31は、使用者の視線の検出を開始する(S101)。視線の検出は、上記のように、画像解析により検出する方法、その他、従来のどのような方法により行われてもよい。操作対象検出部33は、例えば、タッチパネル23の所定の位置など、操作対象検出の開始のトリガとなるタッチが検出されるまで検出を繰り返す(S102:NO)。このとき、一定時間入力が検出されない場合には、処理を終了するようにしてもよい。
操作対象検出部33は、タッチが検出されると(S102:YES)、例えば、図3、図4に示したように、タッチが検出された時点での視線の表示部25上の視線位置55を検出し、検出された視線位置55に基づき、操作対象を検出する(S103)。例えば、操作対象検出部33は、視線位置55に表示されている画像を操作対象として検出する。
表示位置決定部37は、表示位置決定情報47のガイド表示領域の項目を参照し、例えば、図5に示すように、ガイド表示領域83を決定するとともに、ガイド表示領域83内の、例えば図3、図4に示した入力ガイド57の表示位置を決定する(S104)。
入力表示領域決定部43は、表示位置決定情報47の入力表示領域の項目を参照し、例えば、図5に示す入力表示領域85を決定するとともに、入力表示領域85内の入力を表示する位置を決定する(S105)。
ガイド作成部35は、検出された操作対象に応じた入力ガイドを生成する。ガイド表示部39は、決定された位置に生成された入力ガイドを表示する(S106)。このとき、例えば、ガイド表示部39は、決定されたガイド表示領域83の所定の位置に入力ガイドの中心を配置する。また、ガイド表示部39は、ガイド表示領域83内に入力ガイドが納まるように、表示倍率を調整するようにしてもよい。
入力検出部41は、タッチパネル23などへの動きを伴う入力が検出されるか否か判別する(S107)。例えば、図3、図4で説明したように、入力検出部41が入力63、入力77などを検出すると(S107:YES)、入力表示部45は、入力表示領域決定部43により決定された例えば入力表示領域85の所定位置に入力を逐次表示し(S108)、処理をS107に戻す。なお、例えば入力ガイド57が表示されてから、入力の表示が終了するまでの間、視線検出は行わないようにしてもよい。
S107では、タッチが検出されるまで処理を繰り返す(S107:NO)。S107では、入力検出部41は、例えば、一定時間経過するまで、S107の処理を繰り返し、一定時間経過後には処理を終了するようにしてもよい。また、S107、S108の処理を繰り返すことにより、逐次入力の状況を目視で確認しながら、入力が行われるようになる。このとき、入力検出部41により検出された入力に応じた処理が行われる。
以上詳細に説明したように、本実施の形態による携帯端末装置1によれば、トリガとなる入力が検出されると、視線検出部31は、例えば、視線の表示部25上の視線位置55を検出する。検出された視線位置55に基づき、操作対象検出部33は、操作対象を検出する。ガイド作成部35は、例えば、操作対象に対応する入力ガイド57を生成する。また、例えば視線位置55に基づき、表示位置決定部37は、表示位置決定情報47を参照してガイド表示領域83を決定する。入力検出部41が、入力ガイドに基づく、動きを伴う入力を検出すると、入力表示領域決定部43が、例えば入力表示領域85を決定する。入力表示部45は、入力による動きを表示する。このとき、入力表示領域85は、ガイド表示領域83以外の領域であって、ガイド表示領域83のいずれの点よりも視線位置55から遠い点を含むように決定される。
以上のように、本実施の形態による携帯端末装置1によれば、視線位置により操作対象を検出することができる。操作対象に対する処理を選択するための入力は、例えば、タッチパネル23上の指の動きを視覚で確認しながら実現することができる。これにより、使用者が見ている全てのものを常に操作対象とするのでなく、使用者が入力したいと思って視線を向けた際にのみ、操作対象を決定することが可能になる。そのため、必要な場合以外には視線位置周辺に入力ガイドが表示されず、表示を見る行為の妨げになることを防ぐことが可能になる。
本実施の形態においては、視線検出を先に、または常時起動しておき、トリガとなるタッチなどを検出すると、タッチ検出時の視線情報から画面上の視線位置を検出する。これにより、過去の視線情報を用いて視線位置を推定することも可能であり、トリガ検出時に瞬きしたなどの要因で、視線が検出できなかった場合にも対応が可能となる。
例えば入力ガイド57は、視線位置55に基づきガイド表示領域83に表示されるので、視線を動かさずに、入力を説明する入力ガイド57を参照することが可能となる。入力表示領域85は、ガイド表示領域83以外の領域であって、ガイド表示領域83の全ての点よりも視線位置55から遠い点を含む。このように、入力ガイド57は、例えば色や形の認識が可能な視野内に表示されるため、入力ガイド57を参照しながら、視線を動かさずに同時に、例えば指の動きも確認できる状態で入力を行うことができる。
入力された動きを示す入力表示は、動きの認識が可能な視野内に表示されるため、入力された動きを視覚的に確認することが可能になる。このとき、入力ガイド57と、入力表示65、入力表示79などは重ならないため、入力により入力ガイド57の参照を妨げられることが防止できる。ガイド表示領域83、入力表示領域85の設定方法は、表示位置決定情報47等により予め定義しておくことができる。よって、操作対象に合わせた入力ガイド57、入力表示65、入力表示79などを表示させることが可能となる。
このように、本実施の形態による入力方法は、視野の特性上、文字などを認識できる視野よりも動きを認識できる視野が広いという、例えば中心視野と周辺視野との関係を利用した入力方法とすることができる。すなわち、ある位置に視線があった場合、文字が認識不可能であっても、動きを認識可能な領域があるという関係である。したがって、入力ガイド57が表示されている領域の外側の領域に、動きによる入力状態を表示するようにガイド表示領域と入力状態の表示領域を分けることで、視線を動かさずに、入力ガイドも入力経過も同時に認識が可能になる。
よって、入力操作を覚えていない場合でも、途中で入力を見ることができ、行いたい入力のための指の動き等が分からなくなってしまうことが防止される。逆に、入力ガイドと入力された動きに関する表示とが離れすぎている場合のように、使用者が視線を動かしてそれぞれを確認する必要が生じることもない。
このように、検出された視線位置に応じた位置に入力ガイドを表示した際に、入力ガイドの視認性を下げることなく、視線を動かさずに、動きによる入力経過の表示を認識可能な位置に自動的にレイアウトすることが可能となる。
(変形例1)
以下、図8を参照しながら、入力表示の変形例を説明する。図8は、変形例1による入力表示例を示す図である。図8に示すように、視線位置81に対しガイド表示領域83、入力表示領域85が設定されている。補助線91は、入力表示領域85に表示されている。入力表示93は、補助線91を跨いで表示されている。図8の例では、例えば、入力表示93が補助線91を跨いだときに、入力された入力が上から下への入力を示していると判断するようにする。また、使用者は、補助線91を跨ぐ入力を行うように、視覚で確認することが容易になる。
本変形例によれば、使用者がタッチパネル23により動きを入力する際の基準を示すことができ、意図する入力を行うことが容易になる。また、携帯端末装置1において検出された入力の種別の判断がより容易になる。
(変形例2)
以下、図9から図11を参照しながら、ガイド表示領域と入力表示領域との変形例を説明する。図9から図11は、ガイド表示領域と入力表示領域との変形例を示す図である。図9に示す例では、ガイド表示領域95を、例えば視線位置81を中心とした所定の第1の半径の図の左側の半円の領域とする。入力表示領域97は、第1の半径より大きい第2の半径の図の右側の半円の領域とすることができる。
図10に示す例では、入力表示領域99は、視線位置81を中心とする第1の半径より大きい第2の半径の図の左側の半円の領域であって、ガイド表示領域95以外の領域とすることができる。
図11に示す例では、入力表示領域85は、視線位置81を中心とする第1の半径より大きい第2の半径の円の領域であって、ガイド表示領域95以外の領域とすることができる。
図9から図11のいずれの場合にも、入力表示領域85、97、99は、ガイド表示領域95の全ての点よりも視線位置81から遠い点を含んでいる。携帯端末装置1は、ガイド表示領域95に例えば入力ガイド57を表示し、入力表示領域85、97、99のいずれかに、入力を表示することにより、視線位置81に視線を固定したまま、入力ガイド57を参照しながら動きを確認することが可能な入力方法が実現される。
上記実施の形態、および変形例1、2において、ガイド表示領域59、83、95は、第1の領域の一例であり、入力表示領域61、85、97、99は、第2の領域の一例である。ガイド57は、第1の情報の一例であり、入力表示65、79、93は、第2の情報の一例である。表示位置決定部37は、第1の領域決定部の一例であり、入力表示領域決定部43は、第2の領域決定部の一例である。
なお、本発明は、以上に述べた実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の構成または実施形態を採ることができる。例えば視線検出装置21は、カメラを含むものに限定されず、例えば、顔の筋肉の動きを検出して視線を検出するなど、他の装置によるものでもよい。
視線位置検出のトリガとしては、注視や瞬きのような視線と関連する情報、タップやスワイプのような指の動きに関連する情報、音声、データグローブ等のように、その他の情報を入力する入力手段を用いることができる。また、視線検出を、トリガとなる入力が行われると開始されるように設定することにより、視線検出を常時起動する分の消費電力を削減することが可能となる。
選択肢を選択するための入力方法は、タッチパネル23に限定されず、他の動きを検出できる装置、例えばデータグローブ等、動きを検出可能な他の装置による方法でもよい。選択肢を選択するための入力を、時間的な変化により行うようにしてもよい。このとき用いられる装置としては、時間的変化を検出可能な装置となる。例えば、ボタンの押下の強弱、例えば、端末との奥行き方向の距離の変化などにより入力を行うことも可能である。このとき、色の変化等は周辺視のほうが知覚しやすいことを利用して、第2の領域全体の色を変化させて入力状態を通知するようにしてもよい。
表示位置決定情報47は一例であり、他のパラメータによる情報など、他の形態でもよい。例えば、視野角による指定などでもよい。一例として、ガイド表示領域を視野角2度の領域、入力表示領域を、視野角5度の領域などとしてもよい。
上記実施の形態においては、入力ガイド57を表示し、入力の入力を受け付ける状態になって一定時間以上入力がなければ、入力ガイドを消すようにしたが、操作対象を注視していると判断した場合には、入力ガイドを固定することも可能である。これによれば、入力ガイドを認識しやすくなる。なお、例えば、視線が、操作対象を含む一定の範囲内にとどまっている時間が所定時間よりも長い場合に、操作対象を注視していると判断されるようにしてもよい。
操作対象の検出においては、視線位置近傍のカーソルの位置から操作対象を検出するようにしてもよい。このとき、そのカーソルを視線位置とみなす処理を行う。これにより、視線位置よりも精度が高い操作対象検出が可能になる。
入力ガイドは、少なくとも一部を透過表示するようにしてもよい。これによれば、入力表示領域と入力ガイド57との少なくとも一部が重なった場合に、重なった部分の認識を妨げることを防止でき、両方を同時に認識可能とすることができる。
入力ガイドを表示した場合に、所定時間以上操作のない場合には、使用者に操作の意思がないと判断して、入力ガイドの表示を消去するようにしてもよい。また、視線位置が、検出された操作対象と一定距離以上はなれた場合に、操作する意思が無いと判断されるようにしてもよい。これによれば、次の操作がしやすくなるとともに、電力消費を抑制することもできる。入力ガイドに示される入力方法は、一つの入力手段による入力方法に限定されない。複数の入力手段で、同一の操作を可能にするようにすることが好ましい。
入力ガイド57は様々な例が可能である。例えば、階層型のメニューなど、複数の動きの組み合わせによる入力方法であれば、動き毎に分けて表示することも可能である。図9の変形例として、タッチパネル23により入力が検出された位置により近い側に入力表示領域97を表示することにより、動きを確認しやすくすることができる。ガイド表示領域、入力表示領域の形状は上記に限定されず、様々な形状、位置関係を採用することができる。
ここで、上記実施の形態および変形例1、2による入力方法の動作をコンピュータに行わせるために共通に適用されるコンピュータの例について説明する。図12は、標準的なコンピュータのハードウエア構成の一例を示すブロック図である。図12に示すように、コンピュータ300は、Central Processing Unit(CPU)302、メモリ304、入力装置306、出力装置308、外部記憶装置312、媒体駆動装置314、ネットワーク接続装置等がバス310を介して接続されている。
CPU302は、コンピュータ300全体の動作を制御する演算処理装置である。メモリ304は、コンピュータ300の動作を制御するプログラムを予め記憶したり、プログラムを実行する際に必要に応じて作業領域として使用したりするための記憶部である。メモリ304は、例えばRandom Access Memory(RAM)、Read Only Memory(ROM)等である。入力装置306は、コンピュータの使用者により入力されると、その入力内容に対応付けられている使用者からの各種情報の入力を取得し、取得した入力情報をCPU302に送付する装置であり、例えばキーボード装置、マウス装置などである。出力装置308は、コンピュータ300による処理結果を出力する装置であり、表示装置などが含まれる。例えば表示装置は、CPU302により送付される表示データに応じてテキストや画像を表示する。
外部記憶装置312は、例えば、ハードディスクなどの記憶装置であり、CPU302により実行される各種制御プログラムや、取得したデータ等を記憶しておく装置である。媒体駆動装置314は、可搬記録媒体316に書き込みおよび読み出しを行うための装置である。CPU302は、可搬記録媒体316に記録されている所定の制御プログラムを、記録媒体駆動装置314を介して読み出して実行することによって、各種の制御処理を行うようにすることもできる。可搬記録媒体316は、例えばCompact Disc(CD)−ROM、Digital Versatile Disc(DVD)、Universal Serial Bus(USB)メモリ等である。ネットワーク接続装置318は、有線または無線により外部との間で行われる各種データの授受の管理を行うインタフェース装置である。バス310は、上記各装置等を互いに接続し、データのやり取りを行う通信経路である。
上記実施の形態および変形例1、2による入力方法をコンピュータに実行させるプログラムは、例えば外部記憶装置312に記憶させる。CPU302は、外部記憶装置312からプログラムを読み出し、コンピュータ300に入力の動作を行なわせる。このとき、まず、入力の処理をCPU302に行わせるための制御プログラムを作成して外部記憶装置312に記憶させておく。そして、入力装置306から所定の指示をCPU302に与えて、この制御プログラムを外部記憶装置312から読み出させて実行させるようにする。また、このプログラムは、可搬記録媒体316に記憶するようにしてもよい。
1 携帯端末装置
3 演算処理装置
5 記憶部
7 ROM
9 RAM
11 通信部
13 アンテナ
15 音声入出力部
17 スピーカ
19 マイク
21 視線検出装置
23 タッチパネル
25 表示部
31 視線検出部
33 操作対象検出部
35 ガイド作成部
37 表示位置決定部
39 ガイド表示部
41 入力検出部
43 入力表示領域決定部
45 入力表示部
47 表示位置決定情報
51 表示例
53 手
55 視線位置
57 入力ガイド
59 ガイド表示領域
61 入力表示領域

Claims (10)

  1. 使用者の視線を検出する視線検出部と、
    検出された視線の表示画面上の視線位置に基づき、前記使用者の動きによる入力方法を示す第1の情報が表示される前記表示画面上の第1の領域を決定する第1の領域決定部と、
    前記第1の領域に前記第1の情報を表示する第1の表示制御部と
    前記使用者による入力を検出する入力検出部と、
    前記第1の領域外であって、前記第1の領域よりも前記視線位置から遠い点を含み、検出された前記入力における前記使用者の動きに応じた軌跡を示す第2の情報が表示される第2の領域を決定する第2の領域決定部と、
    前記第2の領域に前記第2の情報を表示する第2の表示制御部と、
    を有する情報処理装置。
  2. 前記第2の領域は、前記第1の領域の外側に接する領域であることを特徴とする請求項1に記載の情報処理装置。
  3. 前記入力検出部は、前記表示画面上における入力を検出し、
    前記第2の領域は、前記入力が検出された前記表示画面上の位置と前記第1の領域との間の領域を含むことを特徴とする請求項1に記載の情報処理装置。
  4. 前記第2の領域には、前記入力の基準となる補助線が表示され、前記入力検出部は、前記補助線に対する相対的な動きを検出することを特徴とする請求項1から請求項3のいずれかに記載の情報処理装置。
  5. 前記第1の領域は、中心視が可能な領域に対応し、前記第2の領域は、周辺視が可能な領域に対応することを特徴とする請求項1から請求項4のいずれかに記載の情報処理装置。
  6. 使用者の視線を検出し、
    検出された視線の表示画面上の視線位置に基づき、前記使用者の動きによる入力方法を示す第1の情報が表示される前記表示画面上の第1の領域を決定し、
    前記第1の領域外であって、前記第1の領域よりも前記視線位置から遠い点を含み、前記使用者による入力における前記使用者の動きに応じた軌跡を示す第2の情報が表示される第2の領域を決定し、
    前記第1の領域に前記第1の情報を表示し、
    前記使用者による入力を検出し、
    前記第2の領域に、前記第2の情報を表示する
    処理をコンピュータに実行させるプログラム。
  7. 前記第2の領域は、前記第1の領域の外側に接する領域であることを特徴とする請求項6に記載のプログラム。
  8. 前記入力を検出する処理においては、前記表示画面上における入力を検出し、
    前記第2の領域は、前記入力が検出された前記表示画面上の位置と前記第1の領域との間の領域を含むことを特徴とする請求項6に記載のプログラム。
  9. 前記第2の領域には、前記入力の基準となる補助線が表示され、前記補助線に対する相対的な動きが検出されることを特徴とする請求項6から請求項8のいずれかに記載のプログラム。
  10. 前記第1の領域は、中心視が可能な領域に対応し、前記第2の領域は、周辺視が可能な領域に対応することを特徴とする請求項6から請求項9のいずれかに記載のプログラム。
JP2015523705A 2013-06-25 2013-06-25 情報処理装置およびプログラム Expired - Fee Related JP6004103B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/067423 WO2014207828A1 (ja) 2013-06-25 2013-06-25 情報処理装置およびプログラム

Publications (2)

Publication Number Publication Date
JP6004103B2 JP6004103B2 (ja) 2016-10-05
JPWO2014207828A1 true JPWO2014207828A1 (ja) 2017-02-23

Family

ID=52141235

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015523705A Expired - Fee Related JP6004103B2 (ja) 2013-06-25 2013-06-25 情報処理装置およびプログラム

Country Status (6)

Country Link
US (1) US20160077586A1 (ja)
EP (1) EP3015963A4 (ja)
JP (1) JP6004103B2 (ja)
KR (2) KR101795204B1 (ja)
CN (1) CN105324733A (ja)
WO (1) WO2014207828A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016136351A (ja) * 2015-01-23 2016-07-28 京セラ株式会社 電子機器及び制御方法
US20180004288A1 (en) * 2015-01-29 2018-01-04 Kyocera Corporation Electronic device
CN106527725A (zh) * 2016-11-16 2017-03-22 上海楼顶网络科技有限公司 一种vr/ar环境下的利用视野中心轨迹给设备输入信息或指令的方法
WO2019189403A1 (en) * 2018-03-28 2019-10-03 Ricoh Company, Ltd. Information processing apparatus, information processing system, information processing method, and program
JP7338184B2 (ja) * 2018-03-28 2023-09-05 株式会社リコー 情報処理装置、情報処理システム、移動体、情報処理方法、及びプログラム
JP7215254B2 (ja) * 2019-03-13 2023-01-31 株式会社リコー 情報処理装置、表示制御方法、及びプログラム
JP7327368B2 (ja) * 2020-12-02 2023-08-16 横河電機株式会社 装置、方法およびプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3753882B2 (ja) 1999-03-02 2006-03-08 株式会社東芝 マルチモーダルインターフェース装置及びマルチモーダルインターフェース方法
US7499033B2 (en) * 2002-06-07 2009-03-03 Smart Technologies Ulc System and method for injecting ink into an application
WO2009018314A2 (en) * 2007-07-30 2009-02-05 Perceptive Pixel, Inc. Graphical user interface for large-scale, multi-user, multi-touch systems
JP5256109B2 (ja) * 2009-04-23 2013-08-07 株式会社日立製作所 表示装置
KR101517742B1 (ko) * 2009-06-10 2015-05-04 닛본 덴끼 가부시끼가이샤 전자 기기, 제스처 처리 방법, 및 제스처 처리 프로그램
JP5306105B2 (ja) * 2009-08-18 2013-10-02 キヤノン株式会社 表示制御装置及び表示制御装置の制御方法、プログラム、記憶媒体
JP2012231249A (ja) * 2011-04-25 2012-11-22 Sony Corp 表示制御装置、表示制御方法、およびプログラム
JP5845079B2 (ja) * 2011-12-12 2016-01-20 シャープ株式会社 表示装置およびosd表示方法

Also Published As

Publication number Publication date
EP3015963A4 (en) 2016-07-13
EP3015963A1 (en) 2016-05-04
KR20170109077A (ko) 2017-09-27
WO2014207828A1 (ja) 2014-12-31
KR20160010540A (ko) 2016-01-27
KR101795204B1 (ko) 2017-11-07
CN105324733A (zh) 2016-02-10
US20160077586A1 (en) 2016-03-17
JP6004103B2 (ja) 2016-10-05

Similar Documents

Publication Publication Date Title
JP6004103B2 (ja) 情報処理装置およびプログラム
EP2996018B1 (en) Ring-type mobile terminal
RU2677566C1 (ru) Способ, устройство и электронное оборудование для управления виртуальной реальностью
KR20090101733A (ko) 휴대 단말기 및 그의 얼굴 인식을 이용한 표시정보의 표시방법
KR20170006559A (ko) 이동단말기 및 그 제어방법
JP2015041052A (ja) リストバンド型情報処理装置および記憶媒体
EP2927792A1 (en) Mobile terminal and control method for the mobile terminal
KR101642808B1 (ko) 이동단말기 및 그 제어방법
KR20140115906A (ko) 시선 위치를 디텍트하는 디스플레이 디바이스 및 제어 방법
JP6062416B2 (ja) 情報入力装置及び情報表示方法
KR102308201B1 (ko) 사용자 단말 장치 및 그 제어 방법
JP2009042967A (ja) 情報入力表示システム、情報端末および表示装置
KR20170087292A (ko) Hmd 디바이스 및 그 제어 방법
KR20190104758A (ko) 이동단말기 및 그 제어 방법
CN108369451B (zh) 信息处理装置、信息处理方法及计算机可读存储介质
JP2014130590A (ja) ディスプレイ装置及びその制御方法
KR20170055865A (ko) 롤러블 이동 단말기 및 그것의 제어방법
KR20180103866A (ko) 이동 단말기 및 그 제어 방법
US11429200B2 (en) Glasses-type terminal
JPWO2019021418A1 (ja) 表示制御装置および表示制御方法
JP2012238086A (ja) 画像処理装置、画像処理方法および画像処理プログラム
KR101695695B1 (ko) 이동단말기 및 그 제어방법
KR20160001229A (ko) 이동단말기 및 그 제어방법
KR20160068534A (ko) 이동단말기 및 그 제어방법
KR101622695B1 (ko) 이동 단말기 및 그것의 제어방법

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160822

R150 Certificate of patent or registration of utility model

Ref document number: 6004103

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees