JP2023127116A - 情報処理システム、情報処理方法、及び情報処理プログラム - Google Patents

情報処理システム、情報処理方法、及び情報処理プログラム Download PDF

Info

Publication number
JP2023127116A
JP2023127116A JP2022030692A JP2022030692A JP2023127116A JP 2023127116 A JP2023127116 A JP 2023127116A JP 2022030692 A JP2022030692 A JP 2022030692A JP 2022030692 A JP2022030692 A JP 2022030692A JP 2023127116 A JP2023127116 A JP 2023127116A
Authority
JP
Japan
Prior art keywords
eyeball position
input
gui element
user
eyeball
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022030692A
Other languages
English (en)
Inventor
岳明 立花
Takeaki Tachibana
和大 石橋
Kazuhiro Ishibashi
信寛 宮内
Nobuhiro Miyauchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NISSHIN DENKI KOSAKU KK
Original Assignee
NISSHIN DENKI KOSAKU KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NISSHIN DENKI KOSAKU KK filed Critical NISSHIN DENKI KOSAKU KK
Priority to JP2022030692A priority Critical patent/JP2023127116A/ja
Priority to PCT/JP2023/002835 priority patent/WO2023166893A1/ja
Publication of JP2023127116A publication Critical patent/JP2023127116A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】注視点のズレを気にすることなくGUI要素の操作を行う情報処理システムを提供する。【解決手段】情報処理システムは、ユーザーUの眼球運動による方向情報の入力を認識し所定のGUI要素に応じた処理を行い、過去に取得された基準眼球位置から基準眼球位置の取得の後に取得される入力眼球位置への眼球の移動方向に基づいて方向情報の入力を認識する入力認識手段140と、認識された方向情報の入力に基づいて、現在選択状態となっている第一のGUI要素の隣であって入力を受けた方向に存在する第二のGUI要素に応じた処理を行うGUI処理手段160と、を含む。基準眼球位置は、取得されるユーザーUの眼球位置に基づいて動的に繰り返し更新される。【選択図】図3

Description

本発明は、ユーザーの眼球運動による方向情報の入力を認識し所定のGUI要素に応じた処理を行う情報処理システム、情報処理方法、及び、コンピュータにこのような処理を行わせる情報処理プログラムに関する。
従来、特許文献1に記載の視線検出機能及び視線を示す印を表示する表示機能を備える画像形成装置が知られていた。特許文献1には、下記発明が開示されている。
「記録材に画像を形成可能な画像形成装置であって、前記画像形成装置に関する情報を表示可能な表示手段と、ユーザの顔を撮像する撮像部と、前記撮像部にユーザの顔を撮像させた撮像結果に基づいて当該ユーザの視線を検出する制御部と、を備え、前記制御部は、検出したユーザの視線に基づいて、ユーザの視線を示す印を前記表示手段に表示させる、ことを特徴とする画像形成装置。」
また、特許文献2には、校正に必要な処理を減らすと共に、高い精度で視線入力処理を行うことができる視線入力装置が記載されている。特許文献2の段落(0062)では、「入力操作者Mが注視している点の座標(p,q)がディスプレイ107の右側の所定領域にある場合は、入力操作者Mが右を見ていると判定し、入力操作者Mが注視している点の座標(p,q)がディスプレイ107の左側の所定領域にある場合は、入力操作者Mが左を見ていると判定する」旨説明されている。
しかしながら、携帯電子端末、パーソナルコンピュータ、画像形成装置、又は据え置き式のゲーム機などのコンピュータにおいて、ユーザーが実際に見ている注視点を認識し、当該注視点を示すポインターなどを表示部に表示する場合には、下記の問題が生じていた。
注視点を認識する視線認識技術は、コンピュータとユーザーとの相対位置(上下左右やコンピュータとユーザーとの距離)の変化、ユーザーの顔の向きの変化、実際にユーザーが注視している点を厳密に検出することの困難さ、などの各種の要因を受けて、正確な注視点の認識が困難であった。この点、現実のユーザーの注視点とコンピュータが検出した注視点との間にずれが存在する場合、現実のユーザーの注視点からずれた位置に注視点を示すポインターなどが表示されることとなる。この場合、ユーザーの視線によりコンピュータなどを操作する際に、ユーザーの視線からずれた位置に表示されたポインターなどが現実のユーザーの注視点の動きに追従するように動作することとなり、極めて操作が困難であるという問題が生じていた。
またこのような現実の注視点とコンピュータが検出した注視点との間のズレは、キャリブレーションされるまで継続することから、視線認識技術を用いたコンピュータなどの操作は極めて不便であった。
特に、コンピュータとユーザーとの相対位置(上下左右やコンピュータとユーザーとの距離)の変化、ユーザーの顔の向きの変化といったズレを引き起こす要因は、ユーザーの動作により生ずるものであり、完全に排除することができず、視線認識技術において特に解決が困難な課題であった。
特開2020―119093号公報 特開2009―54101号公報
そこで本発明は、注視点のズレを気にすることなくGUI要素の操作を行うことができる情報処理システム、情報処理方法、及び情報処理プログラムを提供することを目的とする。
そこで、上記課題を解決する手段として本発明に係る情報処理システムは、コンピュータを用いて、ユーザーの眼球運動による方向情報の入力を認識し所定のGUI要素に応じた処理を行う情報処理システムであって、過去に取得されたユーザーの眼球位置を基準となる基準眼球位置とし、該基準眼球位置の取得の後に取得されるユーザーの眼球位置を入力眼球位置として、該基準眼球位置から該入力眼球位置への眼球の移動方向に基づいて方向情報の入力を認識する入力認識手段と、認識された方向情報の入力に基づいて、当初選択状態となっている第一のGUI要素の隣であって入力を受けた方向に存在する第二のGUI要素に応じた処理を行うGUI処理手段と、を含み、前記基準眼球位置は、取得されるユーザーの眼球位置に基づいて動的に繰り返し更新されることを特徴とする。
また、前記入力認識手段は、前記基準眼球位置から前記入力眼球位置への眼球の移動方向に基づいて方向情報の入力を認識する処理を反復して繰り返すこととしてもよい。
またさらに、反復してユーザーの眼球位置を取得する眼球位置取得手段を含み、現在よりも所定時間前の時点での眼球位置が前記基準眼球位置となるように、前記基準眼球位置を動的に繰り返し更新する更新処理と、前記基準眼球位置から前記入力眼球位置への眼球の移動方向を検出する検出処理と、検出した移動方向を、方向情報の入力として認識する認識処理と、を行うこととしてもよい。
また、前記入力認識手段は、前記基準眼球位置から前記入力眼球位置への眼球の移動における移動量が所定の閾値以上となった場合に方向情報の入力を認識することとしてもよい。
また、前記閾値は、ユーザーの固視微動による眼球位置のばらつきの程度に基づいて設定されることとしてもよい。
また、前記GUI処理手段は、前記入力認識手段による方向情報の入力の認識から所定時間経過後に、前記第二のGUI要素に応じた処理を行うよう構成されており、さらに、前記第二のGUI要素が表示されている領域に、前記第二のGUI要素に応じた処理を行うまでの時間を表示する時間表示手段を含み、前記閾値は、ユーザーが前記第二のGUI要素を視認した際の眼球位置から前記第二のGUI要素が表示されている領域に表示された時間を視認した際の眼球位置までの眼球の移動によって、方向情報の入力が認識されないように設定されていることとしてもよい。
また、前記GUI要素に応じた処理は、前記第一のGUI要素の選択状態から前記第二のGUI要素の選択状態への遷移であり、前記第二のGUI要素が選択状態となってから所定の時間が経過したときに、前記第二のGUI要素の選択状態から他のGUI要素の選択状態へと遷移していない場合に、前記第二のGUI要素の選択を確定することとしてもよい。
また、前記GUI要素に応じた処理は、前記第一のGUI要素の選択状態から前記第二のGUI要素の選択状態への遷移であり、前記第二のGUI要素が選択状態となってから所定の時間方向情報の入力が認識されなかった場合に、前記第二のGUI要素の選択を確定することとしてもよい。
また、前記GUI要素は、行方向及び列方向のうち少なくとも一方に沿って、3行×3列以内で並べられていることとしてもよい。
また、情報処理システムは、ユーザーの注視点及びユーザーが注視しているGUI要素の両方を認識しないこととしてもよい。
また、上記課題を解決する手段として本発明に係る情報処理方法は、コンピュータを用いて、ユーザーの眼球運動による方向情報の入力を認識し所定のGUI要素に応じた処理を行う情報処理方法であって、過去に取得されたユーザーの眼球位置を基準となる基準眼球位置とし、該基準眼球位置の取得の後に取得されるユーザーの眼球位置を入力眼球位置として、該基準眼球位置から該入力眼球位置への眼球の移動方向に基づいて方向情報の入力を認識する入力認識ステップと、認識された方向情報の入力に基づいて、現在選択状態となっている第一のGUI要素の隣であって入力を受けた方向に存在する第二のGUI要素に応じた処理を行うGUI処理ステップと、を含み、前記基準眼球位置は、取得されるユーザーの眼球位置に基づいて動的に繰り返し更新されることを特徴とする。
また、上記課題を解決する手段として本発明に係る情報処理プログラムは、コンピュータに、ユーザーの眼球運動による方向情報の入力を認識し所定のGUI要素に応じた処理を実行させるための情報処理プログラムであって、過去に取得されたユーザーの眼球位置を基準となる基準眼球位置とし、該基準眼球位置の取得の後に取得されるユーザーの眼球位置を入力眼球位置として、該基準眼球位置から該入力眼球位置への眼球の移動方向に基づいて方向情報の入力を認識する入力認識処理と、認識された方向情報の入力に基づいて、現在選択状態となっている第一のGUI要素の隣であって入力を受けた方向に存在する第二のGUI要素に応じた処理を行うGUI処理と、前記基準眼球位置を、取得されるユーザーの眼球位置に基づいて動的に繰り返し更新する更新処理と、をコンピュータに実行させることを特徴とする。
本発明によれば、注視点のズレを気にすることなくGUI要素の操作を行うことができる情報処理システム、情報処理方法、及び情報処理プログラムを提供することができる。
実施形態において一例を示す情報処理システムの概略概念図である。(A)は本実施形態に係る情報処理システムをユーザーUが利用する場面の一例を示す図であり、(B)は本実施形態に係る情報処理システムにおける方向情報の入力の概念を示す図である。 実施形態における一例を示す情報処理システムのハードウェア構成図である。 実施形態における一例を示す情報処理システムの機能連関図である。 実施形態における一例を示す情報処理システムのフロー図である。 実施形態における一例を示す情報処理システムのフレーム処理の概要図である。 実施形態における一例を示す情報処理システムのGUI処理の画面図である。(A)は行方向及び列方向に沿って表示されたGUI要素に対する処理の一例を示す図であり、(B)は列方向に沿って表示されたGUI要素に対する処理の一例を示す図であり、(C)は行方向及び列方向に沿って表示されたGUI要素としてのキーボードKに対する処理の一例を示す図である。 その他の実施形態における一例を示す会話支援システムのフロー図である。 その他の実施形態における一例を示す会話支援システムの画面図である。
以下、本発明に係る実施の形態を、図を参照しながら詳しく説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本実施形態において説明する事項は、いずれも本発明の実施形態の一例を示したものであり、本発明の技術的範囲はこれに限定されるものではない。本実施形態におけるシステムの語は、一のコンピュータを用いて実現するものに限定されるものではなく、相互に情報通信が行われる複数のコンピュータを用いて実現するものも含む。本実施形態において説明する情報処理システム、情報処理方法、情報処理プログラム、及び情報処理装置は、いずれもその分散及び集中の態様は適宜変更可能なものであり、本実施形態において説明するものに限定されるものではない。
本実施形態においては、情報処理システムが1台の情報処理装置1によって実現される例を説明する。しかしながら、情報処理システムは、複数の情報処理装置が通信を行うことで協働して特定の情報処理を行う、いわゆるクライアント・サーバ・システムなどによって実現することとしてもよい。
(実施形態の概要)
図1は、本実施形態において一例を示す情報処理システムの概略概念図である。
一例として、情報処理システムは、図1(A)で示すように、情報処理装置1をユーザーUが利用することで、ユーザーUの眼球運動により方向情報の入力を認識することができる。情報処理システムは、情報処理装置1が認識した方向情報の入力により、所定のGUI要素に応じた処理を行う。
なお、GUI要素は、表示部30に表示される表示要素であり、選択処理、実行処理、その他の情報処理に関するものである。GUI要素は、方向情報の入力に応じて単に選択状態となるものであってもよく、方向情報の入力により所定の情報処理を行うものであってもよく、方向情報の入力により選択状態となると共に所定の情報処理を行うものであってもよい。すなわち、GUI要素としては、方向情報の入力をトリガーとして選択処理、実行処理等の所定の処理を実行し得るものであれば種々の表示要素を採用することができる。以下、GUI要素の一例を挙げると、方向情報の入力に応じて単に選択状態となるものとしては、例えば、複数並んだ選択可能なアイコン、カード、文字要素、イラスト等、ラジオボタン、チェックボックス、ドロップダウンリスト等のリスト、キーボード等を想定することができる。また、方向情報の入力により所定の情報処理を行うものとしては、例えば、写真等のスライドショーにおける次の写真の表示、電子書籍のページにおける次のページの表示等を行うものを想定することができる。また、方向情報の入力により選択状態となると共に所定の情報処理を行うものとしては、例えば、音楽や動画の再生リストにおけるコンテンツの選択と共に再生処理等を行うものを想定することができる。
また、眼球位置は、ユーザーUの眼球における瞳孔の中央部分である。また、眼球の中心と眼球位置との法線方向がユーザーUの視線の方向となる。眼球位置αは、例えば、眼球の中心からの距離である動径座標rと、鉛直方向のz軸と動径がなす角度座標θと、z軸と垂直な平面にある別の軸であるx軸と動径の該平面への射影がなす角度座標φとにより表す眼球座標系(r,θ,φ)とにより表すことができる。ここで、動径座標rは眼球の中心から瞳孔の中央部分までの距離が常に一定であることから省略してα=(θ,φ)としてもよい。
また、眼球位置は、カメラ等の撮像手段により取得される画像のXY平面に投影された座標によって表してもよい。この場合にあっては、目Eの任意の一点を原点とする画像座標系(x,y)によって眼球位置を表してもよく、目Eの任意の一点を原点として、原点から眼球位置αまでの距離である動径座標rと、原点を通る所定の軸xと動径がなす角度座標δとにより画像座標系(r,δ)として表してもよい。すなわち、眼球位置は、ユーザーUの視線の方向を表すこととなるユーザーUの瞳孔の中央部分の位置を特定するものであれば、物理的な眼球自体に定義される眼球座標系で表してもよく、眼球を含む画像等に定義される画像座標系で表してもよい。
図1(A)に示すように、情報処理装置1を利用するユーザーUは、ユーザーUの眼球位置を認識することができる位置に情報処理装置1をセットする。ユーザーUの眼球位置を認識することができる位置としては、ユーザーUの顔面が情報処理装置1と対向する正面となる位置に情報処理装置1をセットすることが好ましい。しかしながら、ユーザーUの顔面と情報処理装置1との位置は、情報処理装置1によってユーザーUの眼球位置を取得することができるものであれば、ユーザーUの顔面と情報処理装置1とが斜めの位置関係となってもよい。
なお、図1(A)においては情報処理装置1としてタブレット型の端末を示している。しかしながら、情報処理システムを実現する情報処理装置はこれに限定されるものではない。例えば、情報処理システムは、スマートフォン、フューチャーフォン、ラップトップパソコン、デスクトップパソコン、テレビ、モニター、印刷機、ゲーム機、券売機、ATM、情報処理機能付き眼鏡等のウェアラブルデバイス、若しくは各種機器の操作パネルなど、様々なコンピュータを用いて実現することができる。
図1(B)は、本実施形態が説明する眼球運動による方向情報の入力を説明する概念図である。縦に並んだ、左端の眼球の列は左の方向情報の入力を表し、真ん中の眼球の列は上の方向情報の入力を表し、右端の眼球の列は右の方向情報の入力を表している。
横に並んだ、一行目は基準眼球位置を表し、二行目は入力眼球位置を表し、三行目は方向入力により入力される方向情報を表している。ここで、基準眼球位置は過去に取得されたユーザーUの眼球位置を、入力眼球位置は基準眼球位置の取得の後に取得されるユーザーUの眼球位置をそれぞれ表している。
図1(B)の左端の眼球の列に示すように、眼球運動による方向情報の入力は、基準とされた基準眼球位置から左(すなわちユーザーUの顔面と対向する情報処理装置1を基準として、情報処理装置1から向かって右)に、眼球が移動したときに左の方向情報の入力があったものと認識する。同様に図1(B)の真ん中の眼球の列に示すように、眼球運動による方向情報の入力は、基準眼球位置から上(すなわちユーザーUの顔面と対向する情報処理装置1を基準として情報処理装置1から向かって上)に、眼球が移動したときに上の方向情報の入力があったものと認識する。また同様に図1(B)の右端の眼球列に示すように、眼球運動による方向情報の入力は、基準眼球位置から右(すなわちユーザーUの顔面と対向する情報処理装置1を基準として、情報処理装置1から向かって左)に眼球が移動したときに右の方向情報の入力があったものと認識する。
すなわち、本実施形態における方向情報の入力は、眼球の移動方向に起因するものである。具体的には、過去に取得されたユーザーUの眼球位置を基準となる基準眼球位置とし、基準眼球位置の取得の後に取得されるユーザーUの眼球位置を入力眼球位置として、基準眼球位置から入力眼球位置への眼球の移動方向に基づいて、方向情報の入力が認識される。
また、図1(B)では、眼球位置が上段左端、下段左端、上段真ん中、下段真ん中、上段右端、下段右端と順次変化するように図示している。
そして、基準眼球位置は、取得されるユーザーUの眼球位置に基づいて動的に繰り返し更新される。例えば図1(B)において上段真ん中の基準眼球位置は、過去に取得されたユーザーUの眼球位置である下段左端の入力眼球位置に基づいて更新された基準眼球位置である。また例えば図1(B)において上段右端の基準眼球位置は、過去に取得されたユーザーUの眼球位置である下段真ん中の入力眼球位置に基づいて更新された基準眼球位置である。なお、基準眼球位置は、必ずしも過去に入力眼球位置として用いた眼球位置が基準眼球位置となるように眼球位置を更新しなければならないものではない。例えば、所定のフレームレートで繰り返し取得される眼球位置のうち、方向情報の入力の認識を行う時点でのフレームから所定フレーム前の眼球位置を基準眼球位置とする、方向情報の入力の認識を行う時点から所定時間前の時点における眼球位置を基準眼球位置とする、などの所定のルールに基づいて、基準眼球位置を設定することとしてもよい。
また、情報処理装置1は、認識された方向情報の入力に基づいて、現在選択状態となっている第一のGUI要素の隣であって入力を受けた方向に存在する第二のGUI要素に応じた処理を行う。このようなGUI要素及びGUI処理としては、後述する各種の態様を採用することができる。
また、第一のGUI要素と第二のGUI要素との区別は記載の便宜のためのものである。当初選択状態となっているGUI要素を第一のGUI要素とし、これの隣であって入力を受けた方向に存在するGUI要素を第二のGUI要素としている。
なお、当初選択状態となっている第一のGUI要素は、GUI処理手段160が処理の対象とする第二のGUI要素を特定するための起点となる。換言すると、第二のGUI要素を特定するための起点は、当初選択状態となっている第一のGUI要素である。このような起点となる第一のGUI要素としては、方向情報の入力を受けた際に現在選択状態となっているGUI要素を採用することとしてもよく、過去の所定の時点において選択状態となっているGUI要素を採用することとしてもよい。
すなわち、第一のGUI要素として現在選択状態となっているGUI要素を採用することとした場合には、GUI処理を行うタイミングに応じて現在選択状態となっているGUI要素が異なる場合があり、表示部30に複数表示されたGUI要素の中から第二のGUI要素を特定するための起点を適宜変更することが可能となる。
一方で、第一のGUI要素として過去の所定の時点において選択状態となっているGUI要素を採用することとした場合には、GUI処理を行うタイミングに応じて第二のGUI要素を特定するための起点を変更することなく、一貫した起点から第二GUI要素に応じた処理を行うことが可能となる。
以上の技術思想に基づく本実施形態に係る情報処理システムによれば、注視点のズレを気にすることなくGUI要素の操作を行うことができる。
すなわち、ユーザーUは情報処理装置1などの表示部30に表示されたGUI要素を視認するために、適宜眼球を移動させる。これと並行して情報処理装置1は、ユーザーUの眼球位置を基準眼球位置として取得し、この基準眼球位置を動的に更新する。そして、情報処理装置1は、動的に更新された基準眼球位置から、基準眼球位置の取得の後に取得される入力眼球位置への眼球位置の移動方向により、方向情報の入力を認識する。そして、情報処理装置1は、認識された方向情報に応じて、当初選択状態となっている第一のGUI要素の隣であって入力を受けた方向に存在する第二のGUI要素に応じた処理を行う。
これによって、表示部30に表示されたGUI要素を視認するために行われる眼球移動によって、選択状態となっている第一のGUI要素の隣に存在する第二のGUI要素に応じた処理が実行される。このため、ユーザーUは注視点のズレを気にすることなくGUI要素の操作を行うことができる。
本実施形態に係る情報処理システムによれば、ユーザーUが注視する画面上の点である注視点及び注視しているGUI要素を情報処理装置1が認識する必要がない。すなわち、本実施形態に係る情報処理システムは、動的に更新される基準眼球位置からの眼球位置の移動の方向を方向情報の入力として認識するため、情報処理装置1がユーザーUの注視点を認識する必要がない。
このため、ユーザーUと情報処理装置1との間の相対位置の変化などにより、ユーザーUが現実に注視している注視点と、情報処理装置1が計算によって算出する注視点がずれることで視線入力の操作性が悪くなるという従来方式による問題点を克服することができる。
以下では、本実施形態に係る情報処理システムを実現する情報処理装置1の一例について、具体的に説明することとする。
(実施形態における情報処理装置1のハードウェアの構成)
図2は、実施形態における一例を示す情報処理装置1のハードウェア構成図である。
以下では、本実施形態において情報処理システムを実現する情報処理装置1の、一例としてのハードウェアの構成を説明する。
図2に示すように、一例として情報処理装置1は、制御部10と、記憶部20を構成する主記憶部21及び補助記憶部22と、表示部30と、眼球位置取得部40と、を含む。本実施形態における情報処理装置1は、制御部10と、記憶部20と、表示部30と、眼球位置取得部40とがそれぞれ協働することで、本実施形態に特有の情報処理システムを構成する。
制御部10は、例えば一又は複数のCPU(Central Processing Unit)、MPU(Micro Processor Unit)、GPU(Graphics Processing Unit)等の演算処理装置若しくはこれらの組み合わせによって構成することができる。制御部10は、補助記憶部22に記憶されたプログラムを読み出し、記憶部20と協働することで、様々な情報処理若しくは制御処理などの演算処理を行う。
主記憶部21は、例えばSRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、キャッシュメモリ、フラッシュメモリ等の一時的な記憶領域若しくはこれらの組み合わせにより構成することができる。主記憶部21は、制御部10が様々な演算処理を行うために必要なデータを一時的に記憶する。
補助記憶部22は、例えばHDD(Hard Disk Drive)、SSD(Solid State Drive)等の不揮発性記憶領域若しくはこれらの組み合わせによって構成することができる。補助記憶部22は、制御部10が処理を実行するために必要なプログラム及びデータ、その他のプログラムやデータを記憶する。
表示部30は、例えば液晶、有機EL等のディスプレイ、タッチパネル、プロジェクター等の表示手段130若しくはこれらの組み合わせによって構成することができる。表示部30には、制御部10の処理によって所定の情報が表示される。特に、表示部30にはユーザーUによって視認されるGUI要素が表示される。
眼球位置取得部40は、例えば情報処理装置1に取り付けられているカメラ、赤外線カメラ、紫外線カメラ等の撮像手段その他のセンサー、ユーザーUの眼球の近傍に取り付けられて眼球位置を取得する情報処理機能付き眼鏡等のウェアラブルデバイスが有するセンサー等、若しくは、ユーザーUの身体に取り付けられて、ユーザーUの眼球近傍の筋電位を測定するセンサー、又はこれらの組み合わせによって構成することができる。眼球位置取得部40は、制御部10が処理を行うために必要なユーザーUの眼球位置等を取得する。なお、眼球位置取得部40は、単独のハードウェア要素によって眼球位置を取得するセンサー等であってもよく、また、眼球が含まれる像を撮像するカメラ等と、制御部10によって実行される眼球位置を算出するプログラムとの組み合わせによるものであってもよい。
なお、本実施形態においては、眼球位置取得部40をカメラと眼球位置を算出するプログラムとの組み合わせにより構成することとしているが、眼球位置取得部40は情報処理装置1と物理的に独立した、ユーザーUの身体に対して装着されるセンサーであってもよい。
(実施形態における情報処理装置1の各機能とその連関性)
図3は、本実施形態における一例としての情報処理システムを実現する情報処理装置1の機能連関図である。手段として表されたここに示す各機能要素は、情報処理装置1のハードウェア要素がそれぞれ協働することにより実現されるものである。
具体的には、情報処理システムは、情報処理装置1の各種ハードウェア要素によって、制御手段110と、表示手段130と、記憶手段120と、入力認識手段140と、基準更新手段150と、GUI処理手段160とが構成されている。
制御手段110は、例えば、制御部10と、補助記憶部22から読み出される制御プログラムその他のプログラムにより構成される。制御手段110は、本実施形態に係る情報処理装置1における様々な情報処理若しくは制御処理などの演算処理を行う。
表示手段130は、例えば、表示部30と、制御部10と、補助記憶部22から読み出されるプログラム及び表示用データとにより構成される。本実施形態においては、表示手段130は複数のGUI要素を表示する。選択中のGUI要素をユーザーUが把握できるように、現在選択状態となっているGUI要素に対して所定の判別手段を設けることが好ましい。このような判別手段としては、例えば他のGUI要素との明度若しくは色彩の差をつける、選択中であることを示す所定のマークを表示する、選択中のGUI要素を枠で囲む、等の手段を採用することができる。
記憶手段120は、例えば、主記憶部21及び補助記憶部22と、これらを制御する制御部10とにより構成される。本実施形態においては、記憶手段120は、基準眼球位置及び入力眼球位置を含む眼球位置と、閾値と、選択中GUI要素と、表示用データとを記憶する。
ここで、記憶手段120に記憶された各情報を説明する。
眼球位置は、眼球位置取得手段141により取得された眼球位置の情報である。眼球位置は前述のとおりカメラ座標系に基づく座標情報として記憶されている。
基準眼球位置は、所定の時点における眼球位置であり、方向情報の入力を認識する時点からみた過去に取得されたユーザーUの眼球位置である。基準眼球位置は、取得されるユーザーUの眼球位置に基づいて動的に繰り返し更新される。
入力眼球位置は、基準眼球位置の取得の後に取得されるユーザーUの眼球位置である。
閾値は、方向情報の入力を行うか否かを決定するために用いられ、眼球位置の移動量と比較される値である。閾値は、情報処理装置1の処理により適宜更新されてもよく、予め設定された値であってもよい。
選択中GUI要素は、表示部30に表示されるGUI要素のうち、現在選択中となっているGUI要素示す情報である。選択中のGUI要素が更新された場合には、選択中GUI要素が示す情報も更新される。
表示用データは、表示部30に表示される画面のコンテンツデータである。
入力認識手段140は、例えば、眼球位置取得手段141、移動方向検出手段142、及び移動量算出手段143を含むことが好ましい。入力認識手段140は、例えば、眼球位置取得部40と、制御部10と、補助記憶部22から読み出されるプログラムとにより構成される。入力認識手段140は、眼球位置取得手段141及び移動方向検出手段142によって、ユーザーUの眼球位置の取得と、眼球の移動方向の検出を行うことで、ユーザーUによる方向情報の入力を認識し、GUI処理手段160に対してGUI処理を行うための処理命令を送信する。
なお、本実施形態においては一例として移動量算出手段143を含むことで、ユーザーUの眼球の移動における移動量を用いた好適な方向情報の入力の認識を可能とする。
眼球位置取得手段141は、例えば、眼球位置取得部40によって構成される。眼球位置取得手段141は、表示部30を視認しているユーザーUの眼球位置を取得する。そして、眼球位置取得手段141は、ユーザーUの眼球位置を取得して、取得された眼球位置を記憶手段120に記憶させる。
また、眼球位置取得手段141は、反復してユーザーUの眼球位置を取得することが好ましい。特に眼球位置取得手段141は、所定のフレーム毎に繰り返して眼球位置を取得することが好ましい。
本実施形態においては、眼球位置取得手段141により取得される眼球位置は、眼球が投影されたXY平面画像に定義された画像座標系により表す。しかしながら、例えば、眼球位置は眼球の近傍に取り付けられるセンサー等により取得されたユーザーUの物理的な眼球自体に定義された眼球座標系によって表すこととしてもよい。
なお、眼球位置取得手段141により取得された眼球位置は、記憶手段120によって主記憶部21若しくは補助記憶部22に記憶される。そして、制御部10等が実行するプログラムによって、所定の眼球位置を基準眼球位置として設定する。その後、制御部10等が実行するプログラムによって、基準眼球位置の取得の後に眼球位置取得手段141により取得されたユーザーUの眼球位置が入力眼球位置として設定される。
移動方向検出手段142は、例えば、制御部10、及び主記憶部21により構成される。移動方向検出手段142は、記憶手段120により記憶された基準眼球位置及び入力眼球位置を読み出して、基準眼球位置から入力眼球位置への眼球の移動方向を検出する。移動方向の検出にあたっては、例えば基準眼球位置における座標と入力眼球位置における座標とを比較することで、移動方向を検出することができる。一例として、本実施形態においては、上下左右の4方向の眼球の移動方向を検出する。
また、移動方向検出手段142は、新たな眼球位置の取得に応じて、当該新たな眼球位置を記憶部20への記憶することなくそのまま入力眼球位置とし、過去に取得された基準眼球位置と比較することで、眼球の移動方向を検出することとしてもよい。
なお、移動方向としては、上下左右の4方向に限定されるものではなく、例えば、上下左右の4方向に右上、右下、左上、及び左下を加えた8方向の移動方向を検出することとしてもよく、また、これ以上の移動方向を検出することとしてもよい。同様に、上下、若しくは左右といった2方向等のより少ない移動方向を検出することとしてもよい。このような移動方向は、表示部30に表示されるGUI要素の配置との関係で設定されることが好ましい。
移動量算出手段143は、例えば、制御部10、及び主記憶部21により構成される。移動量算出手段143は、基準眼球位置から入力眼球位置への眼球の移動における移動量を算出し、当該移動量が主記憶部21に記憶された所定の閾値以上となるか否かを判定する。そして、基準眼球位置から入力眼球位置への眼球の移動における移動量が所定の閾値以上となった場合に方向情報の入力を認識して、GUI処理手段160に対してGUI処理を行うための処理命令を送信する。
なお、情報処理システムにおいて、閾値及び移動量算出手段143を含まない構成とした場合にあっても、移動方向検出手段142が基準眼球位置から入力眼球位置への眼球の移動方向を検出して、これをユーザーUの眼球運動による方向情報の入力として認識し、GUI処理手段160に対してGUI処理を行うための処理命令を送信することで、本実施形態に係る情報処理システムを機能させることができる。
基準更新手段150は、例えば、制御部10、及び記憶部20により構成される。基準更新手段150は、主記憶部21若しくは補助記憶部22に記憶された基準眼球位置を、取得されるユーザーUの眼球位置に基づいて動的に繰り返し更新する。本実施形態においては、眼球位置取得手段141が反復してユーザーUの眼球位置を取得し、これに応じて基準更新手段150が基準眼球位置を動的に繰り返し更新する。
なお、基準更新手段150は、記憶部20に基準眼球位置を記憶する領域を予め割り当て、これを動的に繰り返し更新することとしてもよく、眼球の移動方向を検出する際に過去に取得された眼球位置を読み出すことで、基準眼球位置を動的に繰り返し更新することとしてもよい。
GUI処理手段160は、例えば制御部10、及び記憶部20により構成される。認識された方向情報が含まれるGUI処理を行うための処理命令を入力認識手段140から受信することで、認識された方向情報の入力に基づいて、現在選択状態となっている第一のGUI要素の隣であって入力を受けた方向に存在する第二のGUI要素に応じた処理を行う。
このようなGUI処理としては、例えば所定のGUI要素の選択処理、実行処理、選択と共に行われる実行処理等の各種情報処理を想定することができる。具体的な例を挙げると、方向情報の入力に基づいて、選択状態となっている第一のGUI要素の隣であって入力を受けた方向に存在する第二のGUI要素を選択する処理、方向情報の入力に基づいて、選択状態となっている第一のGUI要素の隣であって入力を受けた方向に存在する第二のGUI要素を実行する実行処理、方向情報の入力に基づいて、選択状態となっている第一のGUI要素の隣であって入力を受けた方向に存在する第二のGUI要素を選択すると共に所定の情報処理を行うものなどを想定することができる。すなわち、GUI処理は、情報処理として一般にコンピュータの方向キーの入力、タッチパネルのフリック、などによって行われている方向情報を必要とする各種の処理を含むものである。GUI処理の一例を挙げると、方向情報の入力に基づいて選択処理を行うものとしては、例えば、複数並んだ選択可能なアイコン、カード、文字要素、イラスト等、ラジオボタン、チェックボックス、ドロップダウンリスト等のリスト、キーボード等の所定のGUI要素の選択を想定することができる。また、方向情報の入力に基づいて実行処理を行うものとしては、例えば、写真等のスライドショーにおける次の写真の表示処理、電子書籍のページにおける次のページの表示処理等を想定することができる。また、方向情報の入力に基づいて選択処理と共に所定の情報処理を行うものとしては、例えば、音楽や動画の再生リストにおけるコンテンツの選択処理と共に再生処理等を行うものを想定することができる。またさらに、第一のGUI要素の隣であって入力を受けた方向に存在する第二のGUI要素が、表示部30に表示されていない状態において、画面をスクロール等により切り替えて第二のGUI要素を表示すると共に第二のGUI要素を選択する処理を行うこととしてもよい。
(実施形態における情報処理装置1の処理のフロー)
次に、図4を参照しながら、本実施形態に係る情報処理システムの処理フローを説明する。図4は、実施形態における一例を示す情報処理システムのフロー図である。
眼球位置の取得ステップS1は、眼球位置取得手段141がユーザーUの眼球位置を取得するステップである。眼球位置の取得ステップS1では、情報処理装置1が備えるカメラ等の眼球位置取得部40が眼球を含む画像を撮像し、当該画像から眼球位置の座標を取得する。眼球位置の座標は、記憶手段120により主記憶部21若しくは補助記憶部22に記憶される。
移動方向検出の要否判断ステップS2は、移動方向検出の要否を判断する。移動方向検出の要否判断ステップS2においては、移動方向の検出が必要であると判断した場合には基準眼球位置の照会ステップS3に進み、移動方向の検出が必要でないと判断した場合には眼球位置の取得ステップS1に戻る。このような例として例えば、図5で示すように所定のフレームレートで眼球位置を取得し、所定フレーム毎に眼球の移動方向を検出する場合が存在する。
また、移動方向検出の要否判断ステップS2については、例えばカウンター等を用いることで構成することができる。すなわち、移動方向検出の要否判断ステップS2において、移動方向の検出を不要と判断した回数カウンターを加算し、カウンターが所定の数になった際に移動方向の検出を必要と判断することができる。
基準眼球位置の照会ステップS3は、主記憶部21若しくは補助記憶部22に記憶されている基準眼球位置を照会する。
なお、基準眼球位置の照会に際しては、キャッシュやメモリ上に基準眼球位置を記憶する領域を確保し、一定間隔毎に基準眼球位置を更新すると共に、基準眼球位置が照会されるタイミングで、当該記憶領域から基準眼球位置を読み出すことが好ましい。
しかしながら、基準眼球位置の照会にあたっては、所定時間の間に取得された複数の眼球位置を記憶部20に記憶しておき、基準眼球位置の照会を行うタイミングで、一定時間前の眼球位置又は所定フレーム前の眼球位置を記憶部20から取得することで基準眼球位置を動的に繰り返し更新することとしてもよい。
照会される基準眼球位置としては、例えば入力眼球位置の取得の0.1秒~0.4秒前の基準眼球位置を照会することが好ましい。しかしながら、基準眼球位置の取得された時間はこれに限定されるものではない。
一例として、一秒間に60回眼球位置を取得するフレームレート60fpsにおいて、入力眼球位置の取得時点から0.25秒前に相当する15フレーム前の眼球位置を基準眼球位置として読み出す。これにより、入力眼球位置を取得し、移動方向を検出するたびに、基準眼球位置が15フレーム前のものに更新され、好適な眼球の移動方向の検出を行うことができる。
移動方向の検出ステップS4は、基準眼球位置となる眼球位置の取得の後に取得されるユーザーUの眼球位置を入力眼球位置として、基準眼球位置から入力眼球位置への眼球の移動方向を検出する。例えば、入力眼球位置は現在又は直近に取得されたユーザーUの眼球位置であることが好ましい。
一例として、本実施形態においては、現在又は直近に取得されたユーザーUの眼球位置を入力眼球位置とし、入力眼球位置の取得時点のフレームから所定フレーム前の眼球位置を基準眼球位置として設定する。そして、設定された基準眼球位置と設定された入力眼球位置とを比較することで、基準眼球位置から入力眼球位置への眼球の移動方向を検出する。
一例として、フレーム処理の流れを図5に基づいて説明する。図5は、実施形態における一例を示す情報処理システムのフレーム処理の概要図である。
図5は、右方向に向かうにつれて時間Tが経過している。横方向に並んで立ち上がるパルスは、所定のフレームレートで眼球位置を取得する眼球位置取得手段141の処理のタイミングを表している。黒色で塗りつぶされたパルスは、眼球位置取得手段141により取得された眼球位置のうち入力眼球位置となるものを表している。ハッチングが付されたパルスは、基準眼球位置の照会ステップS3で照会されて基準眼球位置となる、入力眼球位置よりも5フレーム前の段階における眼球位置を表している。
移動方向検出ステップでは、例えば、所定の間隔で入力眼球位置を取得し、当該入力眼球位置よりも所定フレーム前の時点における眼球位置を照会することで、基準眼球位置を動的に繰り返し更新する。そして、更新された基準眼球位置から入力眼球位置への眼球の移動方向に基づいて、移動方向を検出することができる。
またさらに例えば、入力眼球位置を取得する処理を所定の間隔毎に繰り返すことで、入力眼球位置及び基準眼球位置を動的に繰り返し更新しながら、繰り返し方向情報の入力及びGUI処理を行うことが可能となる。
方向情報の入力認識ステップS5は、移動方向の検出ステップS4により検出された眼球の移動方向に基づいて、ユーザーUによる方向情報の入力を認識する。
方向情報の入力認識ステップS5は、基準眼球位置の座標と入力眼球位置の座標との間の差異に係る眼球の移動方向に基づいて方向情報の入力を認識することができる。
なお一例として、方向情報の入力の認識にあたっては、基準眼球位置から入力眼球位置への眼球の移動量を取得し、当該移動量が記憶部20に記憶された所定の閾値以上となった場合に方向情報の入力を認識することが好ましい。すなわち、眼球位置の認識精度、ユーザーUの顔面と情報処理装置1との相対的位置関係、ユーザーUの眼球の固視微動等によって、取得される眼球位置の値はわずかに変化することがある。基準眼球位置から入力眼球位置への眼球の移動における移動量が所定の閾値以上となった場合に方向情報の入力を認識することとすれば、これらの方向情報の入力を意図していない眼球位置の変化によって方向情報の入力が認識されないようにすることができる。
また、一例として、閾値はユーザーUの固視微動による眼球位置のばらつきの程度に基づいて設定されることが好ましい。すなわち、ユーザーUの固視微動による眼球位置のばらつきの程度に基づいて閾値を設定した場合には、固視微動による眼球移動の移動量が閾値を下回ることため、ユーザーUの固視微動によっては方向情報の入力を認識しない。このため、ユーザーUの意識的な眼球移動の場合にのみ方向情報の入力を認識することができ、方向情報の入力操作がより便利なものとなる。
ここで、閾値は一定の値をあらかじめ設定しておくこととしてもよく、ユーザーUの過去に取得された複数の眼球位置のデータに基づいて、ユーザーUの固視微動における眼球の移動量の標準偏差を算出し、当該標準偏差に基づいて固視微動の一部によっては方向情報の入力を認識しないように閾値を設定してもよい。このような標準偏差による閾値の設定については、例えば、生産管理等における信頼区間の算出方法を利用することができ、標準偏差をσとした場合における平均値+σを閾値とした場合には約68.3%の固視微動を方向情報の入力として認識しないこととなり、平均値+2σを閾値とした場合には約95.4%の固視微動を方向情報の入力として認識しないこととなる。
GUI処理ステップS6は、方向情報の入力認識ステップS5により認識された方向情報の入力に基づいて、現在選択状態となっている第一のGUI要素の隣であって入力を受けた方向に存在する第二のGUI要素に応じた処理を行う。
GUI処理としてはすでに説明したとおり、例えば所定のGUI要素の選択処理、実行処理、選択と共に行われる実行処理等の各種情報処理を想定することができる。
ここで、図6を用いてGUI処理のうち所定のGUI要素の選択処理の代表的な一例を説明する。図6は、実施形態における一例を示す情報処理システムのGUI処理の画面図である。
図6(A)は、選択可能なGUI要素として画面上に3行×2列のカードCが配置された図である。ハッチングを設けたカードCが現在選択状態となっている第一のGUI要素である。ここで、左側の情報処理装置1では左上のカードCが選択状態となっている第一のGUI要素である。そして、右方向の方向情報の入力を認識した場合、右側の情報処理装置1のとおり、GUI処理手段160は、破線で表された左上のカードCの隣であって右側に存在する右上のカードCを第二のGUI要素として選択する。そして、右側の情報処理装置1の図においては、新たに右上のカードCが現在選択状態となっていることから、右上のカードCを第一のGUI要素として取り扱う。なお、このような縦横方向に設けた複数のGUI要素については、3行×3列以内で設置することが好ましい。すなわち、3行×3列以内であれば、2回以下の回数の方向情報の入力の認識により、左右のうち一方の端から他方の端へ、又は上下のうち一方の端から他方の端へと選択状態を移動することができ、ユーザーUの操作が簡便である。また、このような方向情報の入力の認識に係る方向は、縦方向及び横方向の選択状態のGUI要素からみた4方向に限られるものではなく、例えば斜め等の方向情報の入力を認識することとしてもよい。
図6(B)は、選択可能なGUI要素として画面上に縦に5つのラジオボタンRが配置された図である。実線の矩形によって囲われたラジオボタンRが現在選択状態となっている第一のGUI要素である。ここで、左側の情報処理装置1では最も上の「犬」のラジオボタンRが選択状態となっている第一のGUI要素である。そして、下方向の方向情報の入力を認識した場合、真ん中の情報処理装置1のとおり、GUI処理手段160は破線で囲われた「犬」のラジオボタンRの隣であって下側に存在する「猫」のラジオボタンRを第二のGUI要素として選択する。そして真ん中の情報処理装置1の図においては、新たに「猫」のラジオボタンRが現在選択状態となっていることから、「猫」のラジオボタンRを第一のGUI要素として取り扱う。さらに、GUI要素がラジオボタンRである場合には、選択状態となっているGUI要素について確定処理を行う必要がある。確定処理としては、例えば所定の時間ユーザーUが「猫」のラジオボタンRを注視することにより、所定の時間方向情報の入力が認識されない場合に確定処理を行い、左側の情報処理装置1のように「猫」のラジオボタンRに中黒(・)を表示させることができる。またこの他確定処理として、第二のGUI要素であった「猫」のラジオボタンRが選択状態となってから所定の時間が経過したときに、「猫」のラジオボタンRの選択状態から他のGUI要素の選択状態へと遷移していない場合に、「猫」のラジオボタンRに中黒を表示させることができる。この他にも、例えばまばたきと区別し得る意識的な閉眼を確定処理として取り扱うことができる。
図6(C)は、選択可能なGUI要素として画面上にキーボードKが配置された図である。情報処理装置1において黒色に塗られたキーが現在選択状態となっている第一のGUI要素である。ここで、左側の情報処理装置1では「I」のキーが選択状態となっている第一のGUI要素である。そして左方向の方向情報の入力を認識した場合、右側の情報処理装置1のとおり、GUI処理手段160はハッチングが施された「I」のキーの隣であって左側に存在する「U」のキーを第二のGUI要素として選択する。そして左側の情報処理装置1の図においては、新たに「U」のキーが現在選択状態となっていることから「U」のキーを第一のGUI要素として取り扱う。また、既に説明した図6(B)のラジオボタンRの場合と同様に、キーボードKの場合はキーの入力を行うための確定処理を行うことが好ましい。
なお、既に述べた通りGUI処理はここで述べた代表的な選択処理に限定されるものではなく、その他の各種情報処理を含むものである。
処理終了の判断ステップS7は、方向情報の入力の認識及びGUI処理等の処理を終了するか否かを判断する。処理を終了すると判断する場合としては、例えば本実施形態に係る方向情報の入力及びGUI処理が完了した場合が想定され、具体的には本実施形態に係る発明を利用するアプリケーションの終了等を想定することができる。一方で、処理を終了しないと判断した場合としては、例えばさらに続けて本実施形態に係る方向情報の入力及びGUI処理を行う場合が想定され、具体的には本実施形態に係る発明を利用するアプリケーションが続けて継続的に利用される場合等を想定することができる。
なお例えば、図4におけるフローを複数回ループして継続して処理を終了しないと判断する場合には、入力認識手段140が、基準眼球位置から入力眼球位置への眼球の移動方向に基づいて方向情報の入力を認識する処理を繰り返すこととなる。またこの場合には、基準眼球位置及び入力眼球位置が動的に繰り返し更新されることとなる。
このため、GUI処理が例えば選択を伴う処理である場合には、現在選択状態となっている第一のGUI要素の隣であって入力を受けた方向に存在する第二のGUI要素に応じた選択処理を行うことで第二のGUI要素が選択状態となり、次のループ処理では第二のGUI要素であったものが現在選択状態となっている第一のGUI要素として取り扱われることとなる。このため、順次選択される第二のGUI要素が次のループで第一のGUI要素として取り扱われることで、表示部30に複数表示されたGUI要素を走査するように、選択していくことが可能となる。
一方で、GUI処理が例えば選択処理を伴わない処理である場合には、現在選択状態となっている第一のGUI要素の隣であって入力を受けた方向に存在する第二のGUI要素に応じた処理を行い、次のループ処理では再度同一のGUI要素を第一のGUI要素として取り扱うこととなる。このため、第一のGUI要素の隣に存在する一又は複数のGUI要素について、入力された方向情報に合致するGUI処理を行うことができると共に、所望により同一の方向の情報を複数回入力することで、複数回同じGUI処理を行うことができる。
(実施形態における情報処理装置1の作用及び機能)
本実施形態に係る情報処理システムは、過去に取得されたユーザーUの眼球位置を基準となる基準眼球位置とし、基準眼球位置の取得の後に取得されるユーザーUの眼球位置を入力眼球位置として、基準眼球位置から入力眼球位置への眼球の移動方向に基づいて方向情報の入力を認識する入力認識手段140と、認識された方向情報の入力に基づいて、現在選択状態となっている第一のGUI要素の隣であって入力を受けた方向に存在する第二のGUI要素に応じた処理を行うGUI処理手段160と、を含んで構成されている。さらに、基準眼球位置は、取得されるユーザーUの眼球位置に基づいて動的に繰り返し更新されることとされている。
このため、ユーザーUが表示部30に表示されたGUI要素を視認するために適宜眼球を移動させることに伴って、ユーザーUの眼球位置の移動による方向情報の入力を認識し、GUI処理を行うことが可能である。より具体的には、ユーザーUの眼球位置の移動と並行して、情報処理システムは、ユーザーUの眼球位置を基準眼球位置として取得し、この基準眼球位置を動的に更新する。そして情報処理システムは、動的に更新された基準眼球位置から、基準眼球位置の取得の後に取得される入力眼球位置への眼球位置の移動を検出し、眼球位置の移動方向に基づく方向情報の入力を認識する。そして、情報処理装置1は、認識された方向情報に応じて、現在選択状態となっている第一のGUI要素の隣であって入力を受けた方向に存在する第二のGUI要素に応じた処理を行う。
これによって、表示部30に表示されたGUI要素を視認するために行われる眼球移動によって、選択状態となっている第一のGUI要素の隣に存在する第二のGUI要素に応じた処理が実行される。このため、ユーザーUは注視点のズレを気にすることなくGUI要素の操作を行うことができる。
また、繰り返し更新される基準眼球位置を基礎として方向情報の入力を認識することから、注視点を常時認識して画面上にポインターを表示する従来の方式と比べ、顔面とコンピュータとの相対位置のズレやユーザーUの顔の向きの変化等の影響を抑制し、ユーザーUによる現実の注視点とコンピュータが認識した注視点とのキャリブレーション処理を必要とせず、入力精度の高い眼球位置の移動による方向情報の入力が可能な情報処理システムを提供することができる。
本実施形態に係る情報処理システムの入力認識手段140は、基準眼球位置から入力眼球位置への眼球の移動方向に基づいて方向情報の入力を認識する処理を反復して繰り返すこととしてもよい。
この場合、GUI処理が例えば選択を伴う処理であれば、現在選択状態となっている第一のGUI要素の隣であって入力を受けた方向に存在する第二のGUI要素に応じた選択処理を行うことで第二のGUI要素が選択状態となり、その後繰り返して方向情報の入力を認識する処理を行う際には、第二のGUI要素であったものが現在選択状態となっている第一のGUI要素として取り扱われることとなる。このため、順次選択される第二のGUI要素が次のループで第一のGUI要素として取り扱われることで、表示部30に複数表示されたGUI要素を走査するように、選択していくことが可能となる。
一方で、GUI処理が例えば選択処理を伴わない処理である場合には、現在選択状態となっている第一のGUI要素の隣であって入力を受けた方向に存在する第二のGUI要素に応じた処理を行い、次のループ処理では再度同一のGUI要素を第一のGUI要素として取り扱うこととなる。このため、第一のGUI要素の隣に存在する一又は複数のGUI要素について、入力された方向情報に合致するGUI処理を行うことができると共に、所望により同一の方向の情報を複数回入力することで、複数回同じGUI処理を行うことができる。
これにより、現在選択状態となっている第一のGUI要素の隣に存在する第二のGUI要素に応じた処理を実行した後に、さらに追加的な方向情報の入力及び入力された方向情報に応じたGUI処理を反復して行うことができる。このため、ユーザーUにとってより実用性の高い情報処理システムを提供することができる。
本実施形態に係る情報処理システムは、入力認識手段140が、基準眼球位置から入力眼球位置への眼球の移動における移動量が所定の閾値以上となった場合に方向情報の入力を認識することとしてもよい。
この場合、閾値を適宜設定することで、所望により基準眼球位置から入力眼球位置への眼球位置の移動の距離が小さい場合には、方向情報の入力を認識しないこととすることができる。
このため、例えば閾値をユーザーUの固視微動による眼球位置のばらつきの程度に基づいて設定した場合には、ユーザーUの固視微動により方向情報の入力を誤認識することを抑制することができる。また例えば、画面に表示されるGUI要素の大きさが大きい場合には閾値を大きくし、GUI要素の大きさが小さい場合には閾値を小さくすることができる。この場合、ユーザーUが所定のGUI要素を継続して視認しているにもかかわらず、注視点が僅かにズレ動くことにより、方向情報の入力があったものと誤認識して、隣接するGUI要素に応じた処理が行われることを抑制することができる。
本実施形態に係る情報処理システムは、GUI要素に応じた処理が、第一のGUI要素の選択状態から第二のGUI要素の選択状態への遷移であり、第二のGUI要素が選択状態となってから所定の時間が経過したときに、第二のGUI要素の選択状態から他のGUI要素の選択状態へと遷移していない場合に、第二のGUI要素の選択を確定することとすることができる。
また本実施形態に係る情報処理システムは、GUI要素に応じた処理が、第一のGUI要素の選択状態から第二のGUI要素の選択状態への遷移であり、第二のGUI要素が選択状態となってから所定の時間方向情報の入力が認識されなかった場合に、第二のGUI要素の選択を確定することとすることができる。
この場合には、第二のGUI要素を選択してから第二のGUI要素の選択を確定するまでに、所定の時間の間隔が生じることとなる。
このため誤って方向情報の入力が認識されることで所定のGUI要素が選択状態となった場合にあっても、元のGUI要素の方向に眼球位置を移動させることで、誤認識により選択状態となった所定のGUI要素を実行することなく、元のGUI要素の選択状態へと戻ることができる。
本実施形態に係る情報処理システムは、GUI要素が、行方向及び列方向のうち少なくとも一方に沿って、3行×3列以内で並べられていることとしてもよい。
この場合、2回以下の回数の方向情報の入力により、左右のうち一方の端から他方の端へ、又は上下のうち一方の端から他方の端へと選択状態を移動することができ、ユーザーUの操作が簡便である。
本実施形態に係る情報処理システムは、ユーザーUの注視点及びユーザーUが注視しているGUI要素の両方を認識しないこととしてもよい。
すなわち、本実施形態に係る情報処理システムは、基準眼球位置から入力眼球位置への眼球位置の移動により方向情報の入力を認識することから、ユーザーUの注視点及びユーザーUが注視しているGUI要素を認識することなくコンピュータの操作を可能とするものである。
また、ユーザーUの注視点及びユーザーUが注視しているGUI要素の両方を認識しないこととした場合、簡易に構成することができ、且つユーザーUの注視点及びユーザーUが注視しているGUI要素のいずれかにコンピュータによる認識結果とのズレが生じる事態を防止することができる。
方向情報の検出のタイミングで用いられる基準眼球位置が、入力眼球位置が取得された時点よりも一定時間前の時点での眼球位置となるように、基準眼球位置を動的に繰り返し更新することができる。
この場合、常に方向情報の検出に用いられる基準眼球位置の取得のタイミングと入力眼球位置の取得のタイミングとの間の間隔が一定となる。
これにより、ユーザーUは基準眼球位置の取得タイミングと入力眼球位置の取得のタイミングとの間の間隔に慣れることで、より快適に眼球位置の移動による方向情報の入力を行うことが可能となる。
また、基準眼球位置の取得の時点から入力眼球位置の取得の時点までの間隔は1秒以下であることが好ましく、0.1秒から0.4秒であることがより好ましい。
基準眼球位置から入力眼球位置の取得の時点までの間隔がこの程度である場合には、人間の眼球の移動が行われる速度に合致し、眼球位置の移動の開始時点における眼球位置を基準眼球位置とし、眼球位置の移動の終了時点における眼球位置を入力眼球位置として好適に眼球位置の移動を検出することがより確実となる。
また、情報処理システムは、瞬きの検出手段を設けることが好ましい。例えばこのような瞬きの検出手段としては、眼球位置取得部40により撮像された画像に対して、画像認識等を行うことで瞬きを検出することとしてもよく、また、眼球位置の取得ステップS1で取得される眼球位置の値から瞬きを検出することとしてもよい。瞬きと同時に取得される眼球位置の値は、通常の眼球位置の移動量と比較して顕著に大きい値を示すことが多い。このため、瞬き検出用の所定の閾値を設け、当該閾値を超える眼球の移動量が算出された場合には、瞬きによる異常値であるとして、方向情報の入力の認識をしないこととすることができる。
(他の実施形態)
次に、他の実施形態として、既に説明した情報処理システムを実現する情報処理装置1を利用した会話支援システムの一例について説明する。すでに説明した構成については同一の符号を付すことにより説明を省略する。
一例として示す他の実施形態に係る会話支援システムは、ユーザーUが選択するGUI要素に応じて、当該GUI要素に対応する音声を出力することで、ユーザーUが会話を行うことを望む者に対してユーザーUの意図を伝えるものである。
例えば、ALS(筋萎縮性側索硬化症)や筋ジストロフィーといった疾患では、発話が困難となった場合においても、眼球運動が可能な場合が多い。このため、一例として示す他の実施形態に係る会話支援システムを利用することで、発話が困難な場合であっても、ユーザーUが会話を行うことを望む者に対してユーザーUの意図を伝えることが可能となる。
一例として情報処理装置1は、制御部10と、記憶部20を構成する主記憶部21及び補助記憶部22と、表示部30と、眼球位置取得部40と、音声出力部とを含む。本実施形態における情報処理装置1は、制御部10と、記憶部20と、表示部30と、眼球位置取得部40と、音声出力部とがそれぞれ協働することで、他の実施形態に特有の会話支援システムを構成する。
音声出力部は、内蔵若しくは外付けのスピーカー、イヤホン、若しくはヘッドホン等の音声出力装置、若しくはこれらの組み合わせにより構成することができる。音声出力部としては、ユーザーUが会話を行うことを望む者に対して音声を認識させるものであれば、種々の態様を採用することができる。例えば、情報処理装置1が音を発するものであってもよく、ユーザーUが会話を行うことを望む者が使用しているイヤホン等に対して信号を送信することで、当該無線イヤホンが音を発するように命令する等の各種態様を採用することができる。音声出力部は、情報処理装置1を使用するユーザーUが選択したGUI要素に応じた音声を出力することで、ユーザーUが会話を行うことを望む者に対して当該音声を認識させる。
一例として示す他の実施形態における会話支援システムを実現する情報処理装置1は、その機能単位として、制御手段110と、表示手段130と、記憶手段120と、入力認識手段140と、基準更新手段150と、GUI処理手段160と、時間表示手段とを含む。
記憶手段120は、基準眼球位置及び入力眼球位置を含む眼球位置、閾値、選択中GUI要素、及び表示用データを記憶する。
一例として示す他の実施形態における表示用データとしては、図8に示すようにカードCを画面に表示するためのコンテンツデータが採用される。すなわち、一例として示す他の実施形態においては、表示部30に表示されるカードCがGUI要素として採用される。一例として示す他の実施形態において、1つのカードCの表示領域内には、音声出力部により出力させたい内容に対応した文字、イラスト、アイコン、記号、若しくは図形等のメッセージ要素201が一対一で対応付けて表示されることが好ましい。なお、記憶手段120は、表示用データのそれぞれのメッセージ要素201に対応させて、音声出力部により出力させる音声データを記憶する。
また、一例として示す他の実施形態においては、図8に示すカードCの表示領域の大きさに応じて適宜閾値の値を設定することで、方向情報の入力の誤認識を低減することができる。すなわち、スマートフォン等の比較的画面が小さい端末を情報処理装置1として採用することで1つのカードCの表示されている領域である表示領域が小さくなる場合には、閾値を小さく設定することとなり、タブレット端末、ラップトップパソコン、デスクトップパソコン等の比較的画面が大きい端末を情報処理装置1として採用することでカードCの表示領域が大きくなる場合には、閾値を大きく設定することとなる。なお、このようなカードCの表示領域の大きさは、適宜設定可能なカードCの表示枚数によっても変化することから、カードCの表示枚数に応じて閾値を設定することとしてもよい。
また、閾値は、ユーザーUが第二のGUI要素である所定のカードCを視認した際の眼球位置から当該カードCの表示領域内に表示された時間を視認した際の眼球位置までの眼球位置の移動量によって、方向情報の入力が認識されないように設定されることが好ましい。このために閾値は、例えば、ユーザーUが第二のGUI要素である所定のカードCを視認した際の眼球位置から当該カードCの表示領域内に表示された時間を視認した際の眼球位置までの眼球位置の移動量よりも高く設定される。具体的には例えば、ユーザーUが注視することとなるカードCの中央或いはメッセージ要素201の位置から時間を表すインジケータ202等の位置までの眼球位置の移動量によっては、方向情報の入力を認識しないこととすることが好ましい。
入力認識手段140は、ユーザーUが第二のGUI要素であるカードCを視認した際の眼球位置から第二のGUI要素が表示されている領域に表示された時間を視認した際の眼球位置までの眼球の移動によって、方向情報の入力を認識しないこととすることが好ましい。
GUI処理手段160は、認識された方向情報が含まれるGUI処理を行うための処理命令を入力認識手段140から受信することで、認識された方向情報の入力に基づいて、現在選択状態となっている第一のGUI要素である所定のカードCの隣であって入力を受けた方向に存在する第二のGUI要素である他のカードCに応じた処理を行う。
ここでは特に、カードCの選択処理を行うと共に、選択状態となっているカードCの表示領域内にカードCの選択を確定するまでの時間を表示してカードCの選択を確定するまでのタイマーを開始する。そして、タイマーが終了してカードCの選択を確定した場合には、当該カードCに含まれるメッセージ要素201に対応した音声を音声出力部から出力する。
時間表示手段は、例えば制御部10と記憶部20とを組み合わせることで構成される。時間表示手段は、方向情報の入力の認識に基づいて所定のカードCが選択状態となった際に、当該カードCの選択が確定するまでの時間を当該カードCの表示領域内に表示する。カードCの表示領域内に表示される時間としては、種々の態様による表示を行うことができる。例えば、カードCの選択が確定されるまでの時間を、数字をカウントダウンにより表示することとしてもよく、カウントアップにより表示することとしてもよく、また、図8に示すように所定のインジケータ202の減少若しくは増加により時間を表示してもよい。
次に、図7を参照しながら、一例として示す他の実施形態における処理フローを説明する。
他の実施形態における会話支援システムの、眼球位置の取得ステップS1、移動方向の検出の要否判断ステップ、基準眼球位置の照会ステップS3、移動方向の検出ステップS4、及び方向情報の入力認識ステップS5は、既に説明した処理と同様に構成される。このため、以下では他の実施形態に特有のステップについて特に説明することとする。
方向情報の入力の有無判断ステップS8は、方向情報の入力の有無を判断する。方向情報の入力の有無の判断にあたっては、基準眼球位置から入力眼球位置への眼球の移動量が所定の閾値以上となった場合に方向情報の入力が有ったものと判断する。一方で眼球の移動量が所定の閾値を下回った場合に方向情報の入力が無かったものと判断する。方向情報の入力の有無判断ステップS8において、方向情報の入力が有ったものと判断された場合は、次のカードの選択ステップS9に進み、方向情報の入力が無かったものと判断された場合には、スキップしてタイマー終了の判断ステップS11に進む。
カードの選択ステップS9は、方向情報の入力認識ステップS5で認識された方向情報に基づいて、現在選択状態となっているカードCの隣であって入力を受けた方向に存在するカードCを選択する。また選択状態となったカードCなどのGUI要素をユーザーUが容易に認識することができるように、GUI要素に対して所定の判別手段を設けることが好ましい。このような判別手段として、一例として、図8に示すように現在選択状態となっているカードCを周囲のカードCと比べて大きく表示することとしてもよく、選択中のGUI要素を円形、矩形等の枠により囲うこととしてもよい。
なお、図8に示すように、現在選択状態となっているカードCには、方向情報の入力を行うことで次に選択することができるカードCの方向を示す方向指示要素203を表示することとしてもよい。この場合には、カードの選択ステップS9でカードCを選択した後に、さらに異なるカードCを選択したいと考えた場合に、眼球をどの方向に動かすべきであるかを認識し易くなる。
タイマーの開始ステップS10は、カードの選択ステップS9でカードCが選択状態となったことに応じて、現在選択状態となっているカードCの選択を確定するまでの時間を計測するタイマーを開始する。またこれに合わせて、時間表示手段は、カードCの選択を確定するまでの時間をユーザーUが認識することができるように、インジケータ202等の時間を表す所定の表示要素を選択中のカードCの表示領域内に表示する。
タイマー終了の判断ステップS11は、タイマーの開始ステップS10で開始されたタイマーが終了したか否か、すなわちカードCの選択を確定する状態となったか否かを判断する。タイマー終了の判断ステップS11において、タイマーが終了した場合には、次の音声出力ステップS12に進み、タイマーが終了していない場合には、眼球位置の取得ステップS1に戻る。
より具体的には、タイマーが終了した場合には、会話支援のために選択が確定されたカードCのメッセージ要素201に対応する音声を出力する。一方で、タイマーが終了していない場合には、眼球位置の取得に戻り、新たに眼球位置の移動を検出し、ユーザーUが異なるカードCを選択するか否かの方向情報の入力の認識を繰り返す。ここでループ処理を行うことにより、ユーザーUが誤ってカードCを選択した場合或いはユーザーUがさらに別のカードCを選択したい場合には、タイマーが終了するまでに異なるカードCを選ぶために再度方向情報の入力を行うことができる。
音声出力ステップS12は、選択が確定されたカードCのメッセージ要素201に対応した音声を音声出力部が出力する。これにより、ユーザーUが会話を行うことを望む者に対して、ユーザーUの意図を反映したカードCに対応した音声が伝わり、口頭での会話を行うことなくユーザーUの意図を伝えることが可能となる。
なお、以上で説明した実施形態に係る情報処理システム若しくは会話支援システムの構成及び処理のフローは、実施形態における一例として示したものである。本実施形態に係る情報処理システムは、動的に繰り返し更新される基準眼球位置から基準眼球位置の取得の後に取得される入力眼球位置への眼球の移動方向に基づいて方向情報の入力を認識し、当該方向情報の入力に基づいて、現在選択状態となっている第一のGUI要素の隣であって入力を受けた方向に存在する第二のGUI要素に応じた処理を行うものであれば、所望により各種のハードウェア要素及び処理のフローにより実現することができるものである。また、本実施形態に係る情報処理システムは、全ての情報入力を眼球位置の移動により行うことを要するものではない。したがって、眼球位置の移動に基づく方向情報の入力に加えて、マウス、キーボード、タッチパネル等の入力手段による処理を可能とするものであってもよい。
以上では、情報処理システムの例示的な実施形態を示したが、本発明の技術的範囲はこのような実施形態における開示に限定されるものではない。
1 情報処理装置
10 制御部
20 記憶部
21 主記憶部
22 補助記憶部
30 表示部
40 眼球位置取得部
110 制御手段
120 記憶手段
130 表示手段
140 入力認識手段
141 眼球位置取得手段
142 移動方向検出手段
143 移動量算出手段
150 基準更新手段
160 GUI処理手段
201 メッセージ要素
202 インジケータ
203 方向指示要素
C カード
R ラジオボタン
K キーボード
U ユーザー
E 目

Claims (12)

  1. コンピュータを用いて、ユーザーの眼球運動による方向情報の入力を認識し所定のGUI要素に応じた処理を行う情報処理システムであって、
    過去に取得されたユーザーの眼球位置を基準となる基準眼球位置とし、該基準眼球位置の取得の後に取得されるユーザーの眼球位置を入力眼球位置として、該基準眼球位置から該入力眼球位置への眼球の移動方向に基づいて方向情報の入力を認識する入力認識手段と、
    認識された方向情報の入力に基づいて、当初選択状態となっている第一のGUI要素の隣であって入力を受けた方向に存在する第二のGUI要素に応じた処理を行うGUI処理手段と、を含み、
    前記基準眼球位置は、取得されるユーザーの眼球位置に基づいて動的に繰り返し更新される
    ことを特徴とする情報処理システム。
  2. 前記入力認識手段は、
    前記基準眼球位置から前記入力眼球位置への眼球の移動方向に基づいて方向情報の入力を認識する処理を反復して繰り返す
    ことを特徴とする請求項1に記載の情報処理システム。
  3. さらに、反復してユーザーの眼球位置を取得する眼球位置取得手段を含み、
    現在よりも所定時間前の時点での眼球位置が前記基準眼球位置となるように、前記基準眼球位置を動的に繰り返し更新する更新処理と、
    前記基準眼球位置から前記入力眼球位置への眼球の移動方向を検出する検出処理と、
    検出した移動方向を、方向情報の入力として認識する認識処理と、を行う
    ことを特徴とする請求項1若しくは2に記載の情報処理システム。
  4. 前記入力認識手段は、
    前記基準眼球位置から前記入力眼球位置への眼球の移動における移動量が所定の閾値以上となった場合に方向情報の入力を認識する
    ことを特徴とする請求項1~3のいずれか一つに記載の情報処理システム。
  5. 前記閾値は、ユーザーの固視微動による眼球位置のばらつきの程度に基づいて設定される
    ことを特徴とする請求項4に記載の情報処理システム。
  6. 前記GUI処理手段は、前記入力認識手段による方向情報の入力の認識から所定時間経過後に、前記第二のGUI要素に応じた処理を行うよう構成されており、
    さらに、前記第二のGUI要素が表示されている領域に、前記第二のGUI要素に応じた処理を行うまでの時間を表示する時間表示手段を含み、
    前記閾値は、ユーザーが前記第二のGUI要素を視認した際の眼球位置から前記第二のGUI要素が表示されている領域に表示された時間を視認した際の眼球位置までの眼球の移動によって、方向情報の入力が認識されないように設定されている
    ことを特徴とする請求項4若しくは5に記載の情報処理システム。
  7. 前記GUI要素に応じた処理は、前記第一のGUI要素の選択状態から前記第二のGUI要素の選択状態への遷移であり、
    前記第二のGUI要素が選択状態となってから所定の時間が経過したときに、前記第二のGUI要素の選択状態から他のGUI要素の選択状態へと遷移していない場合に、前記第二のGUI要素の選択を確定する
    ことを特徴とする請求項1~6のいずれか一つに記載の情報処理システム。
  8. 前記GUI要素に応じた処理は、前記第一のGUI要素の選択状態から前記第二のGUI要素の選択状態への遷移であり、
    前記第二のGUI要素が選択状態となってから所定の時間方向情報の入力が認識されなかった場合に、前記第二のGUI要素の選択を確定する
    ことを特徴とする請求項1~6のいずれか一つに記載の情報処理システム。
  9. 前記GUI要素は、行方向及び列方向のうち少なくとも一方に沿って、3行×3列以内で並べられている
    ことを特徴とする請求項1~8のいずれか一つに記載の情報処理システム。
  10. ユーザーの注視点及びユーザーが注視しているGUI要素の両方を認識しない
    ことを特徴とする請求項1~9のいずれか一つに記載の情報処理システム。
  11. コンピュータを用いて、ユーザーの眼球運動による方向情報の入力を認識し所定のGUI要素に応じた処理を行う情報処理方法であって、
    過去に取得されたユーザーの眼球位置を基準となる基準眼球位置とし、該基準眼球位置の取得の後に取得されるユーザーの眼球位置を入力眼球位置として、該基準眼球位置から該入力眼球位置への眼球の移動方向に基づいて方向情報の入力を認識する入力認識ステップと、
    認識された方向情報の入力に基づいて、現在選択状態となっている第一のGUI要素の隣であって入力を受けた方向に存在する第二のGUI要素に応じた処理を行うGUI処理ステップと、を含み、
    前記基準眼球位置は、取得されるユーザーの眼球位置に基づいて動的に繰り返し更新される
    ことを特徴とする情報処理方法。
  12. コンピュータに、ユーザーの眼球運動による方向情報の入力を認識し所定のGUI要素に応じた処理を実行させるための情報処理プログラムであって、
    過去に取得されたユーザーの眼球位置を基準となる基準眼球位置とし、該基準眼球位置の取得の後に取得されるユーザーの眼球位置を入力眼球位置として、該基準眼球位置から該入力眼球位置への眼球の移動方向に基づいて方向情報の入力を認識する入力認識処理と、
    認識された方向情報の入力に基づいて、現在選択状態となっている第一のGUI要素の隣であって入力を受けた方向に存在する第二のGUI要素に応じた処理を行うGUI処理と、
    前記基準眼球位置を、取得されるユーザーの眼球位置に基づいて動的に繰り返し更新する更新処理と、をコンピュータに実行させる
    ことを特徴とする情報処理プログラム。
JP2022030692A 2022-03-01 2022-03-01 情報処理システム、情報処理方法、及び情報処理プログラム Pending JP2023127116A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022030692A JP2023127116A (ja) 2022-03-01 2022-03-01 情報処理システム、情報処理方法、及び情報処理プログラム
PCT/JP2023/002835 WO2023166893A1 (ja) 2022-03-01 2023-01-30 情報処理システム、情報処理方法、及び情報処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022030692A JP2023127116A (ja) 2022-03-01 2022-03-01 情報処理システム、情報処理方法、及び情報処理プログラム

Publications (1)

Publication Number Publication Date
JP2023127116A true JP2023127116A (ja) 2023-09-13

Family

ID=87883297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022030692A Pending JP2023127116A (ja) 2022-03-01 2022-03-01 情報処理システム、情報処理方法、及び情報処理プログラム

Country Status (2)

Country Link
JP (1) JP2023127116A (ja)
WO (1) WO2023166893A1 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61243508A (ja) * 1985-04-22 1986-10-29 Nippon Hoso Kyokai <Nhk> 意志伝達装置
IL303037A (en) * 2015-03-10 2023-07-01 Eyefree Assisting Communication Ltd A system and method of communication through visual feedback
JP6738641B2 (ja) * 2016-04-11 2020-08-12 株式会社バンダイナムコエンターテインメント シミュレーション制御装置及びシミュレーション制御プログラム

Also Published As

Publication number Publication date
WO2023166893A1 (ja) 2023-09-07

Similar Documents

Publication Publication Date Title
US11231777B2 (en) Method for controlling device on the basis of eyeball motion, and device therefor
JP5387557B2 (ja) 情報処理装置及び方法、並びにプログラム
US11231845B2 (en) Display adaptation method and apparatus for application, and storage medium
US10642348B2 (en) Display device and image display method
EP3333675A1 (en) Wearable device user interface control
US20170293351A1 (en) Head mounted display linked to a touch sensitive input device
KR101919009B1 (ko) 안구 동작에 의한 제어 방법 및 이를 위한 디바이스
CN105765513A (zh) 信息处理装置、信息处理方法和程序
WO2015170520A1 (ja) 情報処理システムおよび情報処理方法
CN105339870A (zh) 用于提供虚拟输入界面的方法和可穿戴装置
US9792032B2 (en) Information processing apparatus, information processing method, and program for controlling movement of content in response to user operations
US11915671B2 (en) Eye gaze control of magnification user interface
JP2019062464A (ja) 電子機器
CN111045577A (zh) 一种横竖屏切换方法、可穿戴设备和具有存储功能的装置
US11354031B2 (en) Electronic apparatus, computer-readable non-transitory recording medium, and display control method for controlling a scroll speed of a display screen
KR20160078160A (ko) 사용자의 움직임을 검출하여 사용자 입력을 수신하는 방법 및 이를 위한 장치
CN113918258B (zh) 页面滚动处理方法、装置、终端以及存储介质
WO2023166893A1 (ja) 情報処理システム、情報処理方法、及び情報処理プログラム
CN102981662A (zh) 手持装置和调整位置信息方法
WO2021208965A1 (zh) 文本输入方法、移动设备、头戴式显示设备以及存储介质
US20200257396A1 (en) Electronic device and control method therefor
JP2018097443A (ja) 入力システム、入力プログラム
US10691250B2 (en) Information processing device, information processing method, and program for preventing reflection of an operation in an output
JP2013254063A (ja) 情報端末
US20200033959A1 (en) Electronic apparatus, computer-readable non-transitory recording medium, and display control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240402