JP6177482B1 - タッチパネル入力装置、タッチジェスチャ判定装置、タッチジェスチャ判定方法、及びタッチジェスチャ判定プログラム - Google Patents
タッチパネル入力装置、タッチジェスチャ判定装置、タッチジェスチャ判定方法、及びタッチジェスチャ判定プログラム Download PDFInfo
- Publication number
- JP6177482B1 JP6177482B1 JP2017522564A JP2017522564A JP6177482B1 JP 6177482 B1 JP6177482 B1 JP 6177482B1 JP 2017522564 A JP2017522564 A JP 2017522564A JP 2017522564 A JP2017522564 A JP 2017522564A JP 6177482 B1 JP6177482 B1 JP 6177482B1
- Authority
- JP
- Japan
- Prior art keywords
- touch panel
- sight
- line
- determination
- touch
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000003825 pressing Methods 0.000 claims description 5
- 230000005484 gravity Effects 0.000 claims description 3
- 230000008602 contraction Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 17
- 238000010079 rubber tapping Methods 0.000 description 6
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 4
- 230000002159 abnormal effect Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0968—Systems involving transmission of navigation instructions to the vehicle
- G08G1/0969—Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Human Computer Interaction (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
前記タッチジェスチャ判定装置は、前記タッチジェスチャ操作に対応する入力情報を受け取り、前記入力情報に基づいて、前記タッチジェスチャ操作が、前記ユーザの視線が前記画面に向けられている視線有り状態における操作又は前記ユーザの視線が前記画面に向けられていない視線無し状態における操作のいずれであるかを判定し、前記判定の結果を示す視線判定情報を出力する視線有無判定部と、前記視線判定情報に基づく命令情報を出力する操作モード切替部と、前記命令情報に従う判定方法で、前記操作情報に基づく前記選択値を生成する操作判定部と、前記タッチパネルに、前記操作用画像として前記命令情報に従う画像を表示させる表示制御部と、を有し、
前記操作判定部は、前記視線有り状態のときに、前記タッチパネルに前記操作用画像として表示された表示部品に対して行われたタッチジェスチャ操作に基づく操作情報から前記選択値を決定する表示部品ジェスチャ決定部と、前記視線無し状態のときに、前記タッチパネルの画面全体に対して行われたタッチジェスチャ操作に基づく操作情報から前記選択値を決定する画面全体ジェスチャ決定部と、を有するものである。
前記タッチジェスチャ操作に対応する入力情報に基づいて、前記タッチジェスチャ操作が、前記ユーザの視線が前記画面に向けられている視線有り状態における操作又は前記ユーザの視線が前記画面に向けられていない視線無し状態における操作のいずれであるかを判定し、前記判定の結果を示す視線判定情報を出力する視線有無判定ステップと、前記視線判定情報に基づく命令情報に従う判定方法で、前記操作情報に基づく前記選択値を生成する操作判定ステップと、前記タッチパネルに、前記操作用画像として前記命令情報に従う画像を表示させる表示制御ステップと、を有し、
前記操作判定ステップにおいて、前記視線有り状態のときに、前記タッチパネルに前記操作用画像として表示された表示部品に対して行われたタッチジェスチャ操作に基づく操作情報から前記選択値を決定し、前記視線無し状態のときに、前記タッチパネルの画面全体に対して行われたタッチジェスチャ操作に基づく操作情報から前記選択値を決定するものである。
《1−1》構成
図1は、本発明の実施の形態1に係るタッチパネル入力装置1の概略構成を示す機能ブロック図である。図1に示されるように、実施の形態1に係るタッチパネル入力装置1は、タッチジェスチャ判定装置10と、タッチパネル20とを有している。タッチジェスチャ判定装置10は、実施の形態1に係るタッチジェスチャ判定方法及び実施の形態1に係るタッチジェスチャ判定プログラムを実行することができる装置である。
図4は、実施の形態1に係るタッチパネル入力装置1におけるタッチジェスチャ判定装置10の動作(タッチジェスチャ判定方法)を示すフローチャートである。
・判定条件(1):指がタッチパネル20の画面上の1点に接触し、予め決められた閾値以上の時間、接触位置が移動していない場合
・判定条件(2):複数の指がタッチパネル20の画面上の複数の接触点に接触し、予め決められた閾値以上の時間、接触し続けている場合
・判定条件(3):手の平がタッチパネル20の画面上に接触し続けている(すなわち、予め決められた閾値以上の広い面積が、予め決められた閾値以上の時間、接触し続けている)場合
ただし、判定基準として、他の判定基準を用いてもよい。
以上に説明したように、実施の形態1においては、ユーザのタッチジェスチャ操作に基づく操作情報A0が、視線有り状態におけるタッチジェスチャ操作であるか、視線無し状態におけるタッチジェスチャ操作であるかに応じて、操作判定部14における入力情報A1の判定方法、表示制御部16による表示制御方法、通知部15による通知方法を変更することができる。このため、ユーザは、タッチパネル20の画面を見ている状態では、画面に表示された表示部品としてのボタンを指でタップしたり、画面に表示されたリストを指でなぞったりすることで視線有り状態のタッチジェスチャ操作が可能である。また、ユーザは、画面を見ていない状態では、画面全体を使ったタッチジェスチャ操作の受け付けと、操作状態の通知で操作が可能である。このように、実施の形態1においては、タッチパネル20において、視線有り状態のタッチジェスチャ操作と視線無し状態のタッチジェスチャ操作のいずれを行っても、視線有り状態におけるタッチジェスチャ操作又は視線無し状態におけるタッチジェスチャ操作と適切に判定されるので、正確にタッチジェスチャ操作による入力操作を行うことができる。
図4のステップST103における視線有無判定の他の例として、視線有無判定部12は、3点以上のタッチ点(指の接触点)が発生した場合に視線無し状態における操作モードと判定してもよい。このようにした場合には、タッチパネル20における2点タッチの操作(例えば、ピンチ、回転などの操作)を、タッチジェスチャ操作として使用することができる。
《2−1》構成
上記実施の形態1においては、視線無し状態の操作モードにおけるタッチジェスチャ操作は、タッチパネル20の画面全体を操作有効領域とした、簡単なタッチジェスチャ操作に限定されている。実施の形態2においては、視線無し状態の操作モードにおいて、画面を見ないことによる意図しない操作を防ぎ、より複雑なタッチジェスチャ操作を可能にする装置及び方法について説明する。
図7は、実施の形態2に係るタッチパネル入力装置2におけるタッチジェスチャ判定装置10aの動作(タッチジェスチャ判定方法)を示すフローチャートである。図7において、図4に示される処理ステップと同一又は対応する処理ステップには、図4に示されるステップ番号と同じステップ番号が付される。実施の形態2におけるタッチジェスチャ判定装置10aの動作は、タッチジェスチャ操作の判定ステップST109の後に、タッチジェスチャ操作を記憶させる処理ステップ(ステップST201)とジェスチャ補正処理ステップ(ステップST202)とを有する点において、実施の形態1におけるタッチジェスチャ判定装置10の動作と相違する。これらの点を除き、実施の形態2におけるタッチジェスチャ判定装置10aの動作は、実施の形態1のものと同じである。
以上に説明したように、実施の形態2においては、操作判定部14で認識したジェスチャの履歴を取り、補正することで、画面を見ずに操作することによる意図しない操作を防ぐことができ、かつ、より複雑なタッチジェスチャ操作であっても、画面を見ずにタッチジェスチャ操作することができるようになる。
《3−1》構成
実施の形態1及び2においては、視線有無判定部12は、タッチジェスチャ操作に基づく操作情報A0から、視線有無判定(操作モード判定)を行っている。しかし、実施の形態1及び2に係るタッチパネル入力装置1及び2においては、視線有無判定に使用する操作を、本来の情報入力のためのタッチジェスチャ操作として使用することができない。そこで、実施の形態3においては、タッチジェスチャ操作に基づく操作情報A0から視線有無判定(操作モード判定)を行う代わりに、ユーザの顔を撮影する撮影装置としてのカメラを備え、ユーザの顔のカメラ画像から、視線有無判定を行う。
図14は、実施の形態3に係るタッチパネル入力装置3におけるタッチジェスチャ判定装置10bの動作(タッチジェスチャ判定方法)を示すフローチャートである。図14において、図4に示される処理ステップと同一又は対応する処理ステップには、図4に示されるステップ番号と同じステップ番号が付される。実施の形態3におけるタッチジェスチャ判定装置10bの動作は、視線有無判定部12bが、カメラ画像入力部19を通して取得したユーザの顔のカメラ画像から視線有無判定を行う点(ステップST301、ST302)及びカメラ画像に基づく視線有無判定の後にタッチジェスチャ操作による操作情報A0を取得する点(ステップST303)において、実施の形態1におけるタッチジェスチャ判定装置10の動作と相違する。これらの点を除き、実施の形態3に係るタッチパネル入力装置3の動作は、実施の形態1のものと同じである。したがって、以下に、実施の形態1の動作と異なる動作を説明する。
以上に説明したように、実施の形態3に係るタッチパネル入力装置3、タッチジェスチャ判定装置10b、タッチジェスチャ判定方法、及びタッチジェスチャ判定プログラムにおいては、カメラ34のカメラ画像を用いてユーザの視線がタッチパネル20の画面に向けられている視線有り状態であるか、視線有り状態以外の状態である視線無し状態であるのかを判定することで、ユーザが操作モードの切り替えのためのタッチジェスチャ操作を行わなくても、視線有無判定(操作モード判定)を容易且つ正確に行うことができる。
Claims (20)
- 画面に操作用画像を表示し、ユーザのタッチジェスチャ操作を受け付け、前記タッチジェスチャ操作に対応する操作情報を出力するタッチパネルと、
前記操作情報を受け取り、前記操作情報に基づく選択値を生成するタッチジェスチャ判定装置と
を有するタッチパネル入力装置であって、
前記タッチジェスチャ判定装置は、
前記タッチジェスチャ操作に対応する入力情報を受け取り、前記入力情報に基づいて、前記タッチジェスチャ操作が、前記ユーザの視線が前記画面に向けられている視線有り状態における操作又は前記ユーザの視線が前記画面に向けられていない視線無し状態における操作のいずれであるかを判定し、前記判定の結果を示す視線判定情報を出力する視線有無判定部と、
前記視線判定情報に基づく命令情報を出力する操作モード切替部と、
前記命令情報に従う判定方法で、前記操作情報に基づく前記選択値を生成する操作判定部と、
前記タッチパネルに、前記操作用画像として前記命令情報に従う画像を表示させる表示制御部と、を有し、
前記操作判定部は、
前記視線有り状態のときに、前記タッチパネルに前記操作用画像として表示された表示部品に対して行われたタッチジェスチャ操作に基づく操作情報から前記選択値を決定する表示部品ジェスチャ決定部と、
前記視線無し状態のときに、前記タッチパネルの画面全体に対して行われたタッチジェスチャ操作に基づく操作情報から前記選択値を決定する画面全体ジェスチャ決定部と、を有する
ことを特徴とするタッチパネル入力装置。 - 前記タッチジェスチャ判定装置は、前記命令情報に従う通知内容の通知を発する又は通知信号を出力する通知部をさらに有することを特徴とする請求項1に記載のタッチパネル入力装置。
- 前記視線有無判定部は、前記タッチジェスチャ操作として、前記タッチパネルを予め決められた第1の閾値以上の時間押し続ける長押し操作、前記タッチパネルに複数の指を接触させる複数点操作、及び前記タッチパネルに手の平を接触させる手の平操作の内のいずれかが発生した場合に、前記ユーザの視線が前記視線無し状態であると判定する請求項1又は2に記載のタッチパネル入力装置。
- 前記視線有無判定部は、前記タッチジェスチャ操作として、前記タッチパネルの表示内容を変化させない操作を予め決められた第2の閾値以上の時間継続した場合に、前記ユーザの視線が前記視線無し状態であると判定する請求項1又は2に記載のタッチパネル入力装置。
- 前記視線有無判定部は、前記タッチパネルの特定の領域が、予め決められた方向に、前記特定の領域からはみ出さずになぞられる操作が行われた場合に、前記ユーザの視線が前記視線無し状態であると判定する請求項1から4のいずれか1項に記載のタッチパネル入力装置。
- 前記視線有無判定部は、前記タッチパネルの画面上で特定の軌跡が描かれた場合に、前記ユーザの視線が前記視線無し状態であると判定する請求項1から5のいずれか1項に記載のタッチパネル入力装置。
- 前記視線有無判定部は、前記タッチパネルの画面上で予め決められた第3の閾値以上の時間操作が無い場合に、前記ユーザの視線が前記視線無し状態であると判定する請求項1から6のいずれか1項に記載のタッチパネル入力装置。
- 前記視線有無判定部により前記視線無し状態と判定された場合に、
前記操作判定部は、前記タッチパネルの画面の予め決められた第1端部側の領域をタッチすると前記選択値を増やし、前記タッチパネルの画面の前記第1端部側の反対側である第2端部側をタッチすると前記選択値を減らす
ことを特徴とする請求項1から7のいずれか1項に記載のタッチパネル入力装置。 - 前記視線有無判定部により前記視線無し状態と判定された場合に、
前記操作判定部は、前記タッチパネルの画面上において、前記画面をなぞる操作を行った位置に応じた値を、前記選択値として選択する
ことを特徴とする請求項1から7のいずれか1項に記載のタッチパネル入力装置。 - 前記視線有無判定部により前記視線無し状態と判定された場合に、
前記操作判定部は、前記タッチパネルの画面上を複数の接触点で第1の回転方向に回転する操作を行うことで前記選択値を増やし、前記第1の回転方向の反対方向である第2の回転方向に回転する操作を行うことで前記選択値を減らす
ことを特徴とする請求項1から7のいずれか1項に記載のタッチパネル入力装置。 - 前記タッチジェスチャ判定装置は、
前記タッチジェスチャ操作の履歴情報を記憶するジェスチャ操作記憶部と、
前記ジェスチャ操作記憶部が記憶する前記履歴情報を基に、前記操作判定部による前記タッチジェスチャ操作の認識を補正するジェスチャ補正部と、
をさらに有することを特徴とする請求項1から7のいずれか1項に記載のタッチパネル入力装置。 - 前記視線有無判定部により前記視線無し状態と判定された場合に、
前記操作判定部は、前記タッチパネルの画面上を複数の接触点で第1の回転方向に回転する操作を行うことで前記選択値を増やし、前記第1の回転方向の反対方向である第2の回転方向に回転する操作を行うことで前記選択値を減らし、
前記ジェスチャ補正部は、前記回転する操作で描かれた円の位置及び軌跡を補正する
ことを特徴とする請求項11に記載のタッチパネル入力装置。 - 前記タッチパネルの画面上において1つの接触点を移動させて円を繰り返し描く操作の、前記接触点の初期位置は、複数の接触点の重心点又は中心点であることを特徴とする請求項11に記載のタッチパネル入力装置。
- 前記視線有無判定部により前記視線無し状態と判定された場合に、
前記ジェスチャ補正部は、
前記タッチパネルの画面上で入力された3点以上の接触点の移動量、2点の接触点間の距離の変化量で示される拡縮量、及び回転の角度を、現時点から予め決められた時間遡った時点までの期間について取得し、
前記接触点の移動量の合計値、前記接触点間の距離の変化量の合計値、及び前記回転の回転方向の変化量の合計値を求め、これら変化量の合計値の内の最も大きい合計値の操作を意図している操作として出力する
ことを特徴とする請求項11に記載のタッチパネル入力装置。 - 前記視線有無判定部により前記視線有り状態と判定された場合に、
前記タッチパネルの画面に対する複数点のタッチ操作が発生すると、前記操作判定部は、前記選択値を確定する
ことを特徴とする請求項8、9、及び12のいずれか1項に記載のタッチパネル入力装置。 - 前記視線有無判定部により前記視線無し状態と判定された場合に、
前記タッチパネルの画面に対するダブルタップが発生すると、前記操作判定部は、前記選択値を確定する
ことを特徴とする請求項10、13、及び14のいずれか1項に記載のタッチパネル入力装置。 - 前記視線有無判定部により前記視線無し状態と判定された場合に、
前記タッチパネルの画面に対する操作が予め決められた時間無ければ、前記操作判定部は、前記選択値を確定する
ことを特徴とする請求項8から10、12、及び14のいずれか1項に記載のタッチパネル入力装置。 - 画面に操作用画像を表示し、ユーザのタッチジェスチャ操作を受け付け、前記タッチジェスチャ操作に対応する操作情報を出力するタッチパネルから、前記操作情報を受け取り、前記操作情報に基づく選択値を生成するタッチジェスチャ判定装置であって、
前記タッチジェスチャ操作に対応する入力情報を受け取り、前記入力情報に基づいて、前記タッチジェスチャ操作が、前記ユーザの視線が前記画面に向けられている視線有り状態における操作又は前記ユーザの視線が前記画面に向けられていない視線無し状態における操作のいずれであるかを判定し、前記判定の結果を示す視線判定情報を出力する視線有無判定部と、
前記視線判定情報に基づく命令情報を出力する操作モード切替部と、
前記命令情報に従う判定方法で、前記操作情報に基づく前記選択値を生成する操作判定部と、
前記タッチパネルに、前記操作用画像として前記命令情報に従う画像を表示させる表示制御部と、を有し、
前記操作判定部は、
前記視線有り状態のときに、前記タッチパネルに前記操作用画像として表示された表示部品に対して行われたタッチジェスチャ操作に基づく操作情報から前記選択値を決定する表示部品ジェスチャ決定部と、
前記視線無し状態のときに、前記タッチパネルの画面全体に対して行われたタッチジェスチャ操作に基づく操作情報から前記選択値を決定する画面全体ジェスチャ決定部と、を有する
ことを特徴とするタッチジェスチャ判定装置。 - 画面に操作用画像を表示し、ユーザのタッチジェスチャ操作を受け付け、前記タッチジェスチャ操作に対応する操作情報を出力するタッチパネルから、前記操作情報を受け取り、前記操作情報に基づく選択値を生成するタッチジェスチャ判定方法であって、
前記タッチジェスチャ操作に対応する入力情報に基づいて、前記タッチジェスチャ操作が、前記ユーザの視線が前記画面に向けられている視線有り状態における操作又は前記ユーザの視線が前記画面に向けられていない視線無し状態における操作のいずれであるかを判定し、前記判定の結果を示す視線判定情報を出力する視線有無判定ステップと、
前記視線判定情報に基づく命令情報に従う判定方法で、前記操作情報に基づく前記選択値を生成する操作判定ステップと、
前記タッチパネルに、前記操作用画像として前記命令情報に従う画像を表示させる表示制御ステップと、
を有し、
前記操作判定ステップにおいて、前記視線有り状態のときに、前記タッチパネルに前記操作用画像として表示された表示部品に対して行われたタッチジェスチャ操作に基づく操作情報から前記選択値を決定し、前記視線無し状態のときに、前記タッチパネルの画面全体に対して行われたタッチジェスチャ操作に基づく操作情報から前記選択値を決定する
ことを特徴とするタッチジェスチャ判定方法。 - コンピュータに、
画面に操作用画像を表示し、ユーザのタッチジェスチャ操作を受け付け、前記タッチジェスチャ操作に対応する操作情報を出力するタッチパネルから、前記操作情報を受け取り、前記操作情報に基づく選択値を生成するために、
前記タッチジェスチャ操作に対応する入力情報に基づいて、前記タッチジェスチャ操作が、前記ユーザの視線が前記画面に向けられている視線有り状態における操作又は前記ユーザの視線が前記画面に向けられていない視線無し状態における操作のいずれであるかを判定し、前記判定の結果を示す視線判定情報を出力する視線有無判定処理と、
前記視線判定情報に基づく命令情報に従う判定方法で、前記操作情報に基づく前記選択値を生成する操作判定処理と、
前記タッチパネルに、前記操作用画像として前記命令情報に従う画像を表示させる表示制御処理と、
を実行させ、
前記操作判定処理において、前記視線有り状態のときに、前記タッチパネルに前記操作用画像として表示された表示部品に対して行われたタッチジェスチャ操作に基づく操作情報から前記選択値を決定し、前記視線無し状態のときに、前記タッチパネルの画面全体に対して行われたタッチジェスチャ操作に基づく操作情報から前記選択値を決定する
ことを特徴とするタッチジェスチャ判定プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2016/088610 WO2018122891A1 (ja) | 2016-12-26 | 2016-12-26 | タッチパネル入力装置、タッチジェスチャ判定装置、タッチジェスチャ判定方法、及びタッチジェスチャ判定プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6177482B1 true JP6177482B1 (ja) | 2017-08-09 |
JPWO2018122891A1 JPWO2018122891A1 (ja) | 2018-12-27 |
Family
ID=59559217
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017522564A Active JP6177482B1 (ja) | 2016-12-26 | 2016-12-26 | タッチパネル入力装置、タッチジェスチャ判定装置、タッチジェスチャ判定方法、及びタッチジェスチャ判定プログラム |
Country Status (5)
Country | Link |
---|---|
JP (1) | JP6177482B1 (ja) |
KR (1) | KR102254794B1 (ja) |
CN (1) | CN110114749B (ja) |
DE (1) | DE112016007545T5 (ja) |
WO (1) | WO2018122891A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7014874B1 (ja) | 2020-09-24 | 2022-02-01 | レノボ・シンガポール・プライベート・リミテッド | 情報処理装置及び情報処理方法 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114270299B (zh) * | 2019-09-04 | 2024-07-19 | 三菱电机株式会社 | 触摸面板装置、操作识别方法和记录有操作识别程序的记录介质 |
US10983601B1 (en) * | 2020-01-17 | 2021-04-20 | Assa Abloy Ab | Visually impaired mode keypad |
CN111352529B (zh) * | 2020-02-20 | 2022-11-08 | Oppo(重庆)智能科技有限公司 | 触摸事件的上报方法、装置、终端及存储介质 |
CN113495620A (zh) * | 2020-04-03 | 2021-10-12 | 百度在线网络技术(北京)有限公司 | 一种交互模式的切换方法、装置、电子设备及存储介质 |
WO2021240668A1 (ja) * | 2020-05-27 | 2021-12-02 | 三菱電機株式会社 | ジェスチャ検出装置およびジェスチャ検出方法 |
US20230154226A1 (en) * | 2020-05-27 | 2023-05-18 | Mitsubishi Electric Corporation | Gesture detection apparatus and gesture detection method |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000231446A (ja) * | 1999-02-10 | 2000-08-22 | Sharp Corp | 表示一体型タブレット装置及びタブレット自動補正プログラムを記憶した記憶媒体 |
JP2003240560A (ja) * | 2002-02-13 | 2003-08-27 | Alpine Electronics Inc | 視線を用いた画面制御装置 |
JP2006017478A (ja) * | 2004-06-30 | 2006-01-19 | Xanavi Informatics Corp | ナビゲーション装置 |
JP2007302223A (ja) * | 2006-04-12 | 2007-11-22 | Hitachi Ltd | 車載装置の非接触入力操作装置 |
JP2008024070A (ja) * | 2006-07-19 | 2008-02-07 | Xanavi Informatics Corp | 車載情報端末 |
JP2008195142A (ja) * | 2007-02-09 | 2008-08-28 | Aisin Aw Co Ltd | 車載機器の操作支援装置、操作支援方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101055193A (zh) * | 2006-04-12 | 2007-10-17 | 株式会社日立制作所 | 车载装置的非接触输入操作装置 |
KR101252169B1 (ko) * | 2011-05-27 | 2013-04-05 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
US20140002376A1 (en) * | 2012-06-29 | 2014-01-02 | Immersion Corporation | Method and apparatus for providing shortcut touch gestures with haptic feedback |
KR102268045B1 (ko) * | 2014-06-27 | 2021-06-22 | 엘지전자 주식회사 | 쇼 윈도우에 전시된 제품의 제품 정보 제공 장치 및 방법 |
JP6385173B2 (ja) | 2014-07-15 | 2018-09-05 | 三菱電機株式会社 | エレベータのタッチパネル式行き先階登録操作盤およびエレベータのタッチパネル式行き先階登録操作盤における利用者判定方法 |
JP6214779B2 (ja) | 2014-09-05 | 2017-10-18 | 三菱電機株式会社 | 車載機器制御システム |
KR102216944B1 (ko) | 2014-09-23 | 2021-02-18 | 대원정밀공업(주) | 펌핑 디바이스 |
KR102073222B1 (ko) * | 2014-12-18 | 2020-02-04 | 한국과학기술원 | 사용자 단말 및 이의 햅틱 서비스 제공 방법 |
-
2016
- 2016-12-26 DE DE112016007545.6T patent/DE112016007545T5/de active Pending
- 2016-12-26 JP JP2017522564A patent/JP6177482B1/ja active Active
- 2016-12-26 CN CN201680091771.3A patent/CN110114749B/zh active Active
- 2016-12-26 WO PCT/JP2016/088610 patent/WO2018122891A1/ja active Application Filing
- 2016-12-26 KR KR1020197017714A patent/KR102254794B1/ko active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000231446A (ja) * | 1999-02-10 | 2000-08-22 | Sharp Corp | 表示一体型タブレット装置及びタブレット自動補正プログラムを記憶した記憶媒体 |
JP2003240560A (ja) * | 2002-02-13 | 2003-08-27 | Alpine Electronics Inc | 視線を用いた画面制御装置 |
JP2006017478A (ja) * | 2004-06-30 | 2006-01-19 | Xanavi Informatics Corp | ナビゲーション装置 |
JP2007302223A (ja) * | 2006-04-12 | 2007-11-22 | Hitachi Ltd | 車載装置の非接触入力操作装置 |
JP2008024070A (ja) * | 2006-07-19 | 2008-02-07 | Xanavi Informatics Corp | 車載情報端末 |
JP2008195142A (ja) * | 2007-02-09 | 2008-08-28 | Aisin Aw Co Ltd | 車載機器の操作支援装置、操作支援方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7014874B1 (ja) | 2020-09-24 | 2022-02-01 | レノボ・シンガポール・プライベート・リミテッド | 情報処理装置及び情報処理方法 |
JP2022053121A (ja) * | 2020-09-24 | 2022-04-05 | レノボ・シンガポール・プライベート・リミテッド | 情報処理装置及び情報処理方法 |
Also Published As
Publication number | Publication date |
---|---|
KR20190087510A (ko) | 2019-07-24 |
CN110114749B (zh) | 2022-02-25 |
CN110114749A (zh) | 2019-08-09 |
JPWO2018122891A1 (ja) | 2018-12-27 |
DE112016007545T5 (de) | 2019-09-19 |
WO2018122891A1 (ja) | 2018-07-05 |
KR102254794B1 (ko) | 2021-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6177482B1 (ja) | タッチパネル入力装置、タッチジェスチャ判定装置、タッチジェスチャ判定方法、及びタッチジェスチャ判定プログラム | |
US9733752B2 (en) | Mobile terminal and control method thereof | |
CN104932809B (zh) | 用于控制显示面板的装置和方法 | |
JP4275151B2 (ja) | ユーザが調整可能な閾値を用いる赤目補正方法及び装置 | |
US20150213274A1 (en) | Device and method of shielding region of display screen | |
US20150002424A1 (en) | Information processing apparatus and control method, and recording medium | |
US20090262187A1 (en) | Input device | |
KR20150090840A (ko) | 디스플레이 화면의 영역을 보호하는 디바이스 및 방법 | |
JP5222967B2 (ja) | 携帯端末 | |
JPWO2013141161A1 (ja) | 情報端末、入力受付制御方法及び入力受付制御プログラム | |
CN107450820B (zh) | 界面控制方法及移动终端 | |
TW201816581A (zh) | 介面控制方法和電子裝置 | |
JP2007172303A (ja) | 情報入力システム | |
US10802620B2 (en) | Information processing apparatus and information processing method | |
EP2824562A1 (en) | Method and apparatus to reduce display lag of soft keyboard presses | |
US11354031B2 (en) | Electronic apparatus, computer-readable non-transitory recording medium, and display control method for controlling a scroll speed of a display screen | |
JP6153487B2 (ja) | 端末及び制御方法 | |
US20160224111A1 (en) | Method for controlling touch screen by detecting position of line of sight of user | |
JP6682951B2 (ja) | プログラムおよび情報処理装置 | |
JP6329373B2 (ja) | 電子機器および電子機器を制御するためのプログラム | |
JP6616379B2 (ja) | 電子機器 | |
US20200033959A1 (en) | Electronic apparatus, computer-readable non-transitory recording medium, and display control method | |
JP6971573B2 (ja) | 電子機器、その制御方法およびプログラム | |
WO2019148904A1 (zh) | 一种放缩智能眼镜屏幕的方法与智能眼镜 | |
JP6686885B2 (ja) | 情報処理装置、情報処理方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170425 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170425 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20170425 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20170515 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170613 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170711 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6177482 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |