JP6177482B1 - タッチパネル入力装置、タッチジェスチャ判定装置、タッチジェスチャ判定方法、及びタッチジェスチャ判定プログラム - Google Patents

タッチパネル入力装置、タッチジェスチャ判定装置、タッチジェスチャ判定方法、及びタッチジェスチャ判定プログラム Download PDF

Info

Publication number
JP6177482B1
JP6177482B1 JP2017522564A JP2017522564A JP6177482B1 JP 6177482 B1 JP6177482 B1 JP 6177482B1 JP 2017522564 A JP2017522564 A JP 2017522564A JP 2017522564 A JP2017522564 A JP 2017522564A JP 6177482 B1 JP6177482 B1 JP 6177482B1
Authority
JP
Japan
Prior art keywords
touch panel
sight
line
determination
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017522564A
Other languages
English (en)
Other versions
JPWO2018122891A1 (ja
Inventor
佐々木 雄一
雄一 佐々木
森 健太郎
健太郎 森
堀 淳志
淳志 堀
絢子 永田
絢子 永田
丸山 清泰
清泰 丸山
美穂 石川
美穂 石川
山崎 聡
聡 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6177482B1 publication Critical patent/JP6177482B1/ja
Publication of JPWO2018122891A1 publication Critical patent/JPWO2018122891A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

タッチパネル入力装置(1)は、タッチジェスチャ操作が視線有り状態における操作又は視線無し状態における操作のいずれであるかを判定し、視線判定情報(A2)を出力する視線有無判定部(12)と、視線判定情報(A2)に基づく命令情報(A3)を出力する操作モード切替部(13)と、命令情報(A3)に従う判定方法で操作情報(A0)に基づく選択値を生成する操作判定部(14)と、タッチパネル(20)に命令情報(A3)に従う画像を表示させる表示制御部(16)とを有し、操作判定部(14)は、視線有り状態のときに操作用画像として表示された表示部品に対して行われたタッチジェスチャ操作に基づく操作情報(A0)から選択値を決定する表示部品ジェスチャ判定部(141)と、視線無し状態のときに画面全体に対して行われたタッチジェスチャ操作に基づく操作情報(A0)から選択値を決定する画面全体ジェスチャ判定部(142)とを有する。

Description

本発明は、タッチジェスチャ操作を受け付け、タッチジェスチャ操作に基づく信号を出力するタッチパネル入力装置、並びに、タッチジェスチャ操作に対応する操作情報が入力され、入力された操作情報に基づく信号を出力するためのタッチジェスチャ判定装置、タッチジェスチャ判定方法及びタッチジェスチャ判定プログラムに関する。
一般に、タッチパネル入力装置を使用するユーザは、タッチパネルに表示されているGUI(Graphical User Interface)画面を見ながらタッチジェスチャ操作を行う。しかし、自動車の運転中又はカメラの位置調整中などのようなタスク実行中には、ユーザがタッチパネルの画面を見ながら、すなわち、ユーザが視線をタッチパネルの画面に向けている状態である「視線有り状態」で、タッチジェスチャ操作を行うことはできない。
この対策として、特許文献1は、タッチパネルに接触している複数の指の接触点を結んでできる形状と予め設定された形状との類似度に基づいて、タッチパネルに表示する操作パーツ(以下「表示部品」とも言う)を決定する装置を提案している。
また、特許文献2は、タッチパネルに接触している複数の指の位置で規定される1つの領域の面積が、予め設定された閾値以上である場合に、ユーザがタッチパネルの画面を見ずに、すなわち、ユーザが視線をタッチパネルの画面に向けない状態である「視線無し状態」で、タッチジェスチャ操作を行う者(例えば、視覚障がい者など)であると判断する装置を提案している。
国際公開2016/035207号 特開2016−020267号公報
しかしながら、上記特許文献1及び2に記載の装置では、ユーザは、複数の指先で特定の形状を作るためのタッチジェスチャ操作に意識を集中させる必要があるので、タッチジェスチャ操作と並行して行われる他のタスクに対する注意力が低下する場合がある。
また、特許文献1に記載の装置では、ユーザは、視線をタッチパネルの画面に向けずに、タッチパネルに表示された表示部品を用いるタッチジェスチャ操作を行う必要があるので、表示部品に対して正確なタッチジェスチャ操作を行うことが難しい場合がある。
また、特許文献2に記載の装置では、ユーザは、タッチパネルの操作有効領域内でタッチジェスチャ操作を行う必要があるので、タッチパネルの画面を見ていない状態では適切な操作情報が入力できない場合がある。
本発明の目的は、タッチパネルに表示された表示部品を用いてタッチジェスチャ操作を行う視線有り状態の操作モードの内容及びタッチパネルの画面全体をタッチジェスチャ操作の受け付け領域としてタッチジェスチャ操作を行う視線無し状態の操作モードの内容を適切に切り替えることで、容易且つ正確にタッチジェスチャ操作による入力操作を行うことができるタッチパネル入力装置、並びに、視線有り状態の操作モードの内容又は視線無し状態の操作モードの内容を適切に切り替えることで、容易且つ正確にタッチジェスチャ操作による入力操作を行うことができるようにするためのタッチジェスチャ判定装置、タッチジェスチャ判定方法及びタッチジェスチャ判定プログラムを提供することである。
本発明の一態様に係るタッチパネル入力装置は、画面に操作用画像を表示し、ユーザのタッチジェスチャ操作を受け付け、前記タッチジェスチャ操作に対応する操作情報を出力するタッチパネルと、前記操作情報を受け取り、前記操作情報に基づく選択値を生成するタッチジェスチャ判定装置とを有する装置であって、
前記タッチジェスチャ判定装置は、前記タッチジェスチャ操作に対応する入力情報を受け取り、前記入力情報に基づいて、前記タッチジェスチャ操作が、前記ユーザの視線が前記画面に向けられている視線有り状態における操作又は前記ユーザの視線が前記画面に向けられていない視線無し状態における操作のいずれであるかを判定し、前記判定の結果を示す視線判定情報を出力する視線有無判定部と、前記視線判定情報に基づく命令情報を出力する操作モード切替部と、前記命令情報に従う判定方法で、前記操作情報に基づく前記選択値を生成する操作判定部と、前記タッチパネルに、前記操作用画像として前記命令情報に従う画像を表示させる表示制御部と、を有し、
前記操作判定部は、前記視線有り状態のときに、前記タッチパネルに前記操作用画像として表示された表示部品に対して行われたタッチジェスチャ操作に基づく操作情報から前記選択値を決定する表示部品ジェスチャ決定部と、前記視線無し状態のときに、前記タッチパネルの画面全体に対して行われたタッチジェスチャ操作に基づく操作情報から前記選択値を決定する画面全体ジェスチャ決定部と、を有するものである。
本発明の他の態様に係るタッチジェスチャ判定方法は、画面に操作用画像を表示し、ユーザのタッチジェスチャ操作を受け付け、前記タッチジェスチャ操作に対応する操作情報を出力するタッチパネルから、前記操作情報を受け取り、前記操作情報に基づく選択値を生成する方法であって、
前記タッチジェスチャ操作に対応する入力情報に基づいて、前記タッチジェスチャ操作が、前記ユーザの視線が前記画面に向けられている視線有り状態における操作又は前記ユーザの視線が前記画面に向けられていない視線無し状態における操作のいずれであるかを判定し、前記判定の結果を示す視線判定情報を出力する視線有無判定ステップと、前記視線判定情報に基づく命令情報に従う判定方法で、前記操作情報に基づく前記選択値を生成する操作判定ステップと、前記タッチパネルに、前記操作用画像として前記命令情報に従う画像を表示させる表示制御ステップと、を有し、
前記操作判定ステップにおいて、前記視線有り状態のときに、前記タッチパネルに前記操作用画像として表示された表示部品に対して行われたタッチジェスチャ操作に基づく操作情報から前記選択値を決定し、前記視線無し状態のときに、前記タッチパネルの画面全体に対して行われたタッチジェスチャ操作に基づく操作情報から前記選択値を決定するものである。
本発明によれば、タッチパネルに表示された表示部品を用いてタッチジェスチャ操作を行う視線有り状態の操作モードの内容及びタッチパネルの画面全体をタッチジェスチャ操作の受け付け領域としてタッチジェスチャ操作を行う視線無し状態の操作モードの内容を適切に切り替えることで、容易且つ正確にタッチジェスチャ操作による入力操作を行うことができる。
本発明の実施の形態1に係るタッチパネル入力装置の概略構成を示す機能ブロック図である。 実施の形態1に係るタッチパネル入力装置のハードウェア構成の一例を示す図である。 (a)及び(b)は、実施の形態1に係るタッチパネル入力装置おけるタッチパネルの画面の例を示す図である。 実施の形態1に係るタッチパネル入力装置におけるタッチジェスチャ判定装置の動作(タッチジェスチャ判定方法)を示すフローチャートである。 実施の形態1の変形例に係るタッチパネル入力装置におけるタッチパネルの画面の一例を示す図である。 本発明の実施の形態2に係るタッチパネル入力装置の概略構成を示す機能ブロック図である。 実施の形態2に係るタッチパネル入力装置におけるタッチジェスチャ判定装置の動作(タッチジェスチャ判定方法)を示すフローチャートである。 実施の形態2に係るタッチパネル入力装置におけるタッチジェスチャ操作の履歴情報の取得方法を示す図である。 タッチパネル入力装置においてタッチパネルの画面を見ない状態である視線無し状態でタッチジェスチャ操作を行うことで意図通りの入力ができない例を示す図である。 実施の形態2に係るタッチパネル入力装置においてタッチパネルの画面を見ない状態である視線無し状態で行われるタッチジェスチャ操作の例を示す図である。 実施の形態2に係るタッチパネル入力装置と通信するカメラ映像撮影装置におけるカメラの向き、角度、映像の拡縮量を、タッチパネル入力装置のタッチパネルの画面を見ずに調整する例を示す図である。 本発明の実施の形態3に係るタッチパネル入力装置の概略構成を示す機能ブロック図である。 実施の形態3に係るタッチパネル入力装置のハードウェア構成の一例を示す図である。 実施の形態3に係るタッチパネル入力装置におけるタッチジェスチャ判定装置の動作(タッチジェスチャ判定方法)を示すフローチャートである。 (a)及び(b)は、実施の形態3に係るタッチパネル入力装置における視線有り状態及び視線無し状態の判定方法を示す図である。
以下に、本発明の実施の形態を、添付図面を参照しながら説明する。以下の説明において、タッチパネル入力装置は、タッチ式の操作用の画面(操作画面)を持つタッチパネルと、タッチパネルにおける操作情報を受け取るタッチジェスチャ判定装置とを具備する。タッチパネル入力装置は、対象機器に搭載されることにより、又は、対象機器と通信可能に接続されることにより、対象機器としての電気機器の操作画面、対象機器としてのカメラの操作画面、対象機器としての工場設備の操作画面、対象機器としての自動車、船舶、航空機などに搭載される操作画面、対象機器としてのスマートフォン及びタブレット端末などの携帯情報端末の操作画面などに適用可能である。タッチパネル入力装置は、タッチパネルの操作画面からタッチジェスチャ操作(「タッチ操作」とも言う)によって入力された操作情報に基づく信号(例えば、選択値)を、タッチパネル入力装置を搭載した対象機器、又は、タッチパネル入力装置と通信可能な対象機器に提供することができる。
タッチパネルは、ユーザが行うタッチジェスチャ操作を受け付けるタッチジェスチャ入力手段である。また、タッチジェスチャ操作は、ユーザの指(又は、ユーザの手の平、又は、指ユーザの指及び手の平)などの特定の動きによる情報入力操作である。タッチジェスチャ操作は、タッチパネルの操作画面を指で軽く叩く操作であるタップ、タッチパネルの操作画面を指ではじく操作であるフリック、タッチパネルの操作画面を指でなぞる操作(指を滑らす操作)であるスワイプを含むことができる。また、タッチジェスチャ操作は、タッチパネルにおける表示部品を指で引きずる操作であるドラッグ、タッチパネルの操作画面において複数本の指でつまみながら指の間隔を狭める操作であるピンチイン、タッチパネルの操作画面において複数本の指の間隔を広げる操作であるピンチアウトなどを含むことができる。なお、タッチジェスチャ操作は、ペン型の入力補助具であるタッチペンを用いる操作をも含むことができる。
《1》実施の形態1.
《1−1》構成
図1は、本発明の実施の形態1に係るタッチパネル入力装置1の概略構成を示す機能ブロック図である。図1に示されるように、実施の形態1に係るタッチパネル入力装置1は、タッチジェスチャ判定装置10と、タッチパネル20とを有している。タッチジェスチャ判定装置10は、実施の形態1に係るタッチジェスチャ判定方法及び実施の形態1に係るタッチジェスチャ判定プログラムを実行することができる装置である。
図1に示されるように、タッチパネル20は、ユーザによって行われるタッチジェスチャ操作を受け付け、タッチジェスチャ操作に対応する操作情報(「タッチ情報」とも言う)A0を出力する操作パネル部21と、操作パネル部21と重ねて配置され、GUI画面などのような操作用画像を表示することができる表示パネル部22とを有している。表示パネル部22は、例えば、液晶ディスプレイである。
図1に示されるように、タッチジェスチャ判定装置10は、操作情報入力部11と、操作モード判定部としての視線有無判定部12と、操作モード切替部13と、操作判定部14と、通知部15と、表示制御部16とを有している。操作判定部14は、表示部品ジェスチャ判定部141と、画面全体ジェスチャ判定部142とを有している。
操作情報入力部11は、操作パネル部21から出力された操作情報(操作信号)A0を受け取る。操作情報入力部11は、受け取った操作情報A0に対応する入力情報A1を視線有無判定部12と操作判定部14とに出力する。入力情報A1は、操作情報A0に対応する情報であり、操作情報A0と同じ情報であってもよい。
視線有無判定部12は、操作情報入力部11から受け取った入力情報A1に基づいて、タッチジェスチャ操作が、ユーザがタッチパネル20の画面を見ながら行った操作、すなわち、ユーザの視線がタッチパネル20の画面に向けられた状態である視線有り状態における操作であるか、タッチジェスチャ操作が、ユーザがタッチパネル20の画面を見ずに行った操作、すなわち、ユーザの視線がタッチパネル20の画面に向けられていない状態である視線無し状態における操作であるかを判定する。視線有り状態を前提とした操作モードは、例えば、タッチパネル20に表示された表示部品に対してタッチジェスチャ操作を行う操作モードである。視線無し状態を前提とした操作モードは、例えば、タッチパネル20の画面全体をタッチジェスチャ操作の受け付けのための1つの操作有効領域とする操作モードである。
視線有無判定部12は、ユーザのタッチジェスチャ操作に基づく入力情報A1から、タッチジェスチャ操作が、視線有り状態における操作であるか視線無し状態における操作であるかの判定結果を示す視線判定情報A2を操作モード切替部13に送る。この判定は、例えば、視線有無判定部12が、予め決められたタッチジェスチャ操作のパターンを記憶する記憶部(例えば、後述の図2におけるメモリ)を備え、入力情報A1が示すタッチジェスチャ操作と記憶部に記憶されているタッチジェスチャ操作のパターンとの類似度に基づいて行うことができる。
操作モード切替部13は、視線有無判定部12から受け取った視線判定情報A2から、タッチパネル20の画面の表示内容、タッチパネル20からのタッチジェスチャ操作に基づく入力情報A1の操作判定部14による判定方法、及び通知部15による通知方法を切り替える(設定する)ための命令情報A3を出力する。
操作判定部14は、操作モード切替部13から命令情報A3を受け取り、この命令情報A3に従って入力情報A1の判定方法を切り替える。
画面全体ジェスチャ判定部142は、タッチパネル20の画面全体に対するタッチジェスチャ操作を判定して、入力情報A1に基づく出力信号である選択値A7の決定を行う。タッチパネル20の画面全体に対するタッチジェスチャ操作の判定は、視線有り状態におけるタッチジェスチャ操作では、タッチパネル20の限られた狭い領域内(タッチパネル20の画面の一部分)で使用され、視線無し状態におけるタッチジェスチャ操作では、タッチパネル20の広い領域内(タッチパネル20の画面の全体)で使用される。
表示部品ジェスチャ判定部141は、表示パネル部22によって表示された操作用画像としての表示部品と入力情報A1とから、タッチジェスチャ操作を判定して、表示部品と入力情報A1とに基づく出力信号である選択値A7の決定を行う。タッチパネル20の表示部品に対するタッチジェスチャ操作の判定は、視線有り状態におけるタッチジェスチャ操作では、タッチパネル20の広い領域内(タッチパネル20の画面全体)で使用され、視線無し状態におけるタッチジェスチャ操作において限られた狭い領域内(タッチパネル20の画面の一部分)で使用される。
表示制御部16は、タッチパネル20の表示パネル部22に表示される操作用画像の画像信号A6を出力する。表示制御部16は、操作判定部14から受け取った操作判定情報A4及び操作モード切替部13から受け取った命令情報A3に応じて表示パネル部22の画面の表示内容を変更する。
通知部15は、視線有り状態におけるタッチジェスチャ操作時と視線無し状態におけるタッチジェスチャ操作時とで、ユーザに対する情報の通知方法を切り替える。通知部15は、命令情報A3に従う通知内容の通知を発する又は通知信号を出力する。例えば、通知部15は、操作判定部14により受け取られた入力情報A1に応じて、ユーザのタッチジェスチャ操作の状況を、例えば、音、画面表示、バイブレータによる振動、又はランプ点灯などで通知する。このように、通知部15は、操作判定部14から受け取られた操作判定情報A4及び操作モード切替部13から受け取られた命令情報A3に応じて通知内容を変更する。通知部15による通知が音による通知である場合には、通知部15は音声出力部としてのスピーカに通知信号を出力する。スピーカは、後述の図2に示される。通知部15による通知が画像表示である場合には、通知部15は通知情報A5を表示制御部16に送り、表示制御部16が通知情報に基づく画像信号を表示パネル部22に送信する。
操作判定部14から出力される選択値A7は、操作判定部14が入力情報A1を基に決定した選択値であり、この選択値A7を基に、タッチパネル入力装置1を搭載した装置のアプリケーションプログラム等が、機器制御などを行う。
図2は、実施の形態1に係るタッチパネル入力装置1のハードウェア(H/W)構成の一例を示す図である。図2に示されるように、実施の形態1に係るタッチパネル入力装置1は、タッチパネル20と、プロセッサ31と、メモリ32と、スピーカ33とを有している。図1に示されるタッチジェスチャ判定装置10は、ソフトウェアとしてのタッチジェスチャ判定プログラムを格納する記憶装置としてのメモリ32と、メモリ32に格納されたタッチジェスチャ判定プログラムを実行する情報処理部としてのプロセッサ31とを用いて(例えば、コンピュータにより)実現することができる。この場合には、図1における構成要素11〜16は、図2においてタッチジェスチャ判定プログラムを実行するプロセッサ31に相当する。なお、図1に示されるタッチジェスチャ判定装置10の一部を、図2に示されるメモリ32と、タッチジェスチャ判定プログラムを実行するプロセッサ31とによって実現することもできる。
スピーカ33は、例えば、視線無し状態で行われているタッチジェスチャ操作状況をアナウンスなど音で通知する場合に使用される音出力部である。タッチパネル入力装置1は、スピーカ33に代えて、又は、追加の構成として、バイブレータ、ランプ、通知信号を無線送信するための送信装置などの追加の装置を備えてもよい。
図3(a)及び(b)は、実施の形態1に係るタッチパネル入力装置1におけるタッチパネル20の画面及びタッチジェスチャ操作の例を示す図である。
図3(a)は、視線有り状態の操作モードにおけるタッチパネル20の画面の一例を示している。図3(a)は、視線有無判定部12が、タッチジェスチャ操作を示す入力情報A1から、視線有り状態の操作モードであると判定した場合の画面の一例である。ユーザは、画面を指で左方向又は右方向にスワイプする操作を行うことによって画面の表示内容を切り替えることが可能である。リスト231は、視線有無判定部12が視線有り状態と判定した場合に表示されるリストである。リスト231は、複数のボタン(数字が付されている四角領域)で構成されており、指を上方向又は下方向になぞる(滑らせる)ことでリスト231を同じ方向に移動させることが可能である。例えば、指でボタン232をタッチすることで、視線有無判定部12は視線有り状態と判定し、ボタンをタップする(指でボタンを触り、指を動かさないまま予め決められた時間内に離す)ことで選択値を決定(確定)する。
図3(b)は、視線無し状態の操作モードにおけるタッチパネル20の画面の一例を示している。図3(b)は、視線有無判定部12が、タッチジェスチャ操作を示す入力情報A1から、視線無し状態の操作モードであると判定した場合の画面の一例である。例えば、視線無し状態におけるキャンセル領域241は、「>>Cancel>>」を囲む矩形領域であり、この矩形領域内で、予め決められた方向に、すなわち、指を左から右になぞる(滑らせる)と、視線無し状態の操作モードはキャンセルされて、視線有り状態の操作モードに切り替わる。
《1−2》動作
図4は、実施の形態1に係るタッチパネル入力装置1におけるタッチジェスチャ判定装置10の動作(タッチジェスチャ判定方法)を示すフローチャートである。
ステップST101において、操作モード切替部13は、初期操作モードとして、視線有り状態の操作モードを設定する。このとき、タッチパネル20の画面が、視線有り状態の操作モードの画面となり、タッチパネル20の入力方法は、視線有り状態の操作モードを用いた表示部品による入力方法になるように、操作モード切替部13は、命令情報A3を出力する。なお、初期操作モードを視線無し状態の操作モードとすることも可能である。
次のステップST102において、操作情報入力部11は、タッチパネル20から、操作情報A0(指の接触点の位置を示す座標、指の接触状態、複数の接触点についての指識別番号など)を取得し、記憶部(例えば、図2に示されるメモリ32)に記憶させる。
次のステップST103において、視線有無判定部12は、記憶部に記憶した操作情報A0(指の接触点に関する情報など)の履歴情報から、タッチジェスチャ操作が視線有り状態での操作であるか、視線無し状態での操作であるかの判定、すなわち、視線有無判定(操作モードの判定)を行う。
次のステップST103において、視線有無判定部12は、例えば、以下の判定条件(1)〜(3)のいずれかが満たされた場合に、視線無し状態と判定し、それ以外の場合を視線有り状態と判定する。
・判定条件(1):指がタッチパネル20の画面上の1点に接触し、予め決められた閾値以上の時間、接触位置が移動していない場合
・判定条件(2):複数の指がタッチパネル20の画面上の複数の接触点に接触し、予め決められた閾値以上の時間、接触し続けている場合
・判定条件(3):手の平がタッチパネル20の画面上に接触し続けている(すなわち、予め決められた閾値以上の広い面積が、予め決められた閾値以上の時間、接触し続けている)場合
ただし、判定基準として、他の判定基準を用いてもよい。
ステップST103における視線無し状態とする判定条件(3)を満たすときには、検出される複数の接触点の座標及び接触点の数が不安定である(すなわち、時間に伴って大きく変動する)可能性がある。このため、現時点から予め決められた期間遡った時点までの期間の操作情報A0(入力情報A1)の履歴情報を用いて、この期間内における接触点の座標のぶれ(座標の移動量)の程度を基に(例えば、最大の移動量が予め決められた閾値を超える場合に)、手の平の接触であると判定してもよい。
また、ステップST103における視線無し状態とする判定条件(3)における、画面上に手の平を接触させる操作時には、タッチパネル20からの操作情報A0は、接触状態が異常であることを示す情報である。このため、現時点から予め決められた期間遡った時点までの期間の操作情報A0の履歴情報を用いて、この期間内に接触状態が異常であることを示す履歴がある場合に、手の平の接触であると判定してもよい。
また、ステップST103における視線無し状態とする判定条件(3)における、画面上に手の平を接触させる操作時には、タッチパネル20の画面から指が離れたと誤判定され、その結果、タッチパネル20の画面の表示部品であるボタンをタップしたタッチジェスチャ操作と誤って判定される可能性がある。このため、現時点から予め決められた期間遡った時点までの期間の操作情報A0の履歴情報を用いて、この期間内に、タッチパネル20の指が全て離れてから予め決められた時間、不安定なタッチ検出(すなわち、時間に伴って接触点の数及び位置が大きく変動する状況の検出)がされないかどうか、又は、異常な接触状態の通知がないかどうかを検出するための待機処理を介在させ、これらが検出されたときに、手の平の接触であると判定してもよい。
また、ステップST103において、視線有無判定部12は、画面上の表示通りに指を接触させてなぞった場合に視線有り状態と判定する。例えば、図3(b)に示される視線無し状態時の画面において、視線無し状態におけるキャンセル領域241の内側でタッチを開始して、左のマーク「>>」から文字「Cancel」を経由して右のマーク「>>」を通過するように指を滑らせてから、指を離す操作をした場合、又は、左のマーク「>>」から文字「Cancel」を経由して右のマーク「>>」を通過するように指を滑らせて、キャンセル領域241の右側の境界線を超えた場合に、視線有無判定部12は、視線有り状態への切り替え操作であると判定する。なお、ステップST103の視線有り状態への切り替え操作の判定は、視線無し状態においてキャンセル領域241の外側からキャンセル領域241の内側に連続的になぞった場合、又は、視線無し状態においてキャンセル領域241をなぞっている途中でキャンセル領域241の上又は下にはみ出した場合、又は、視線無し状態においてキャンセル領域241を右方向になぞった後に、後左方向へ指を戻してなぞった場合は、視線有り状態と判定しないことと判定してもよい。
また、ステップST103において、視線有無判定部12が視線有り状態への切り替えの操作であると判定する条件は、図3(b)の左のマーク「>>」から文字「Cancel」を経由して右のマーク「>>」を通過するように指を滑らせた場合だけでなく、視線無し状態において、キャンセル領域241をタッチして右方向に予め決められた距離以上移動した場合としてもよい。
ステップST104において、視線有無判定に変更があった場合(YESの場合)、処理はステップST105〜ST108へ進み、操作モード切替部13は、タッチパネル20の操作画面の切り替えによる入力方法の切り替え、通知部15による通知方法を切り替えるための命令情報A3を出力する。ステップST104において、視線有無判定への変更が発生しなかった場合(NOの場合)、処理はステップST109へ進む。
ステップST105において、操作判定部14は、操作モード切替部13から命令情報A3を受け取り、画面全体に対する有効な入力方法を切り替える命令を出し、画面全体ジェスチャ判定部142は、画面全体に対する有効な入力方法を切り替える。
次のステップST106において、操作判定部14は、操作モード切替部13から命令情報A3を受け取り、表示部品に対する有効な入力方法を切り替える命令を出し、表示部品ジェスチャ判定部141は、表示部品に対する有効な入力方法を切り替える。ステップST105とST106の処理の順番は、逆であってもよい。
次のステップST107において、表示制御部16は、操作モード切替部13から画面を切り替える命令情報A3を受け取り、画面を切り替える。例えば、表示制御部16は、画面の切り替えを命令する命令情報A3を受け取ったときに、視線有り状態の場合、例えば、図3(a)に示される視線有り状態時の画面を表示し、視線無し状態の場合、例えば、図3(b)に示される視線無し状態時の画面を表示する。
次のステップST108において、通知部15は、操作モード切替部13の通知内容を切り替える命令情報A3を受け取り、通知内容を切り替える。例えば、通知部15は、視線有り状態の場合、「画面を長押しすると、画面を見ないで操作するモードに切り替わります。」といった音声アナウンスをスピーカから出力させ、また、視線無し状態に切り替わった場合、「長押し操作されたため、障がい者用の操作画面に切り替わります。」とアナウンスを流す。そして、視線無し状態になった場合、「画面の上側をタッチすると選択値が増え、下側をタッチすると選択値が減ります。2点タップで選択値を確定します。」といった音声アナウンスをスピーカに出力させる。また、このとき、通知部15は、画面の上側、下側のタップが発生するたびに、現在の選択値を音声アナウンスで通知させてもよい。
ステップST108において、通知部15の通知は、音声アナウンスだけでなく、操作中のタッチパネル20とは、別の表示装置によって通知したり、スマートウォッチからの音声アナウンスで通知したり、又はタッチパネルを振動させて通知したりしてもよい。
ステップST109において、操作判定部14は、入力情報に基づき選択値を決定(確定)する。例えば、操作判定部14は、視線有り状態の操作モードにおいては、表示されているボタンをタップすると、ボタンに表示されている番号が選択値として決定する。一方、操作判定部14は、視線無し状態の操作モードにおいては、画面の上側のタッチが発生すると、選択値を増やし、画面の下側のタッチが発生すると、選択値を減らす。操作判定部14は、2点のタッチが発生し同時に指を離した場合に、選択値を確定する。操作判定部14で、タッチジェスチャ操作が受け付けられた場合、表示制御部16は、タッチジェスチャ操作に応じて表示内容を変更し、通知部15は、タッチジェスチャ操作に応じて操作状況の通知を行う。
また、ステップST109において、視線無し状態におけるキャンセル領域241をタップした場合は、キャンセル領域241をなぞる操作ではないため、画面の下側操作とみなし、選択値を減らす。
ステップST103の視線有無判定部12の判定と、ステップST109の操作判定部14の判定動作は、視線有無判定部12の記憶部に、例えば、表1のような操作判定テーブルを格納し、このテーブルの内容に従って処理することで実現することができる。
Figure 0006177482
《1−3》効果
以上に説明したように、実施の形態1においては、ユーザのタッチジェスチャ操作に基づく操作情報A0が、視線有り状態におけるタッチジェスチャ操作であるか、視線無し状態におけるタッチジェスチャ操作であるかに応じて、操作判定部14における入力情報A1の判定方法、表示制御部16による表示制御方法、通知部15による通知方法を変更することができる。このため、ユーザは、タッチパネル20の画面を見ている状態では、画面に表示された表示部品としてのボタンを指でタップしたり、画面に表示されたリストを指でなぞったりすることで視線有り状態のタッチジェスチャ操作が可能である。また、ユーザは、画面を見ていない状態では、画面全体を使ったタッチジェスチャ操作の受け付けと、操作状態の通知で操作が可能である。このように、実施の形態1においては、タッチパネル20において、視線有り状態のタッチジェスチャ操作と視線無し状態のタッチジェスチャ操作のいずれを行っても、視線有り状態におけるタッチジェスチャ操作又は視線無し状態におけるタッチジェスチャ操作と適切に判定されるので、正確にタッチジェスチャ操作による入力操作を行うことができる。
また、実施の形態1においては、視線有り状態において、視線有り状態のタッチジェスチャ操作としては発生しない操作が行われた場合に、視線無し状態のタッチジェスチャ操作であると判定し、視線無し状態において、視線無し状態のタッチジェスチャ操作としては発生しない操作が行われた場合に、視線有り状態のタッチジェスチャ操作であると判定することができる。この場合には、視線有無判定の誤判定は、少ないので操作モードの判定精度が向上する。
《1−4》変形例
図4のステップST103における視線有無判定の他の例として、視線有無判定部12は、3点以上のタッチ点(指の接触点)が発生した場合に視線無し状態における操作モードと判定してもよい。このようにした場合には、タッチパネル20における2点タッチの操作(例えば、ピンチ、回転などの操作)を、タッチジェスチャ操作として使用することができる。
また、図4のステップST103における視線有無判定の他の例として、タッチパネル20の画面の指による接触の開始からタッチパネル20の画面の内容が変更されない状態が予め決められた時間以上続いた場合に、視線無し状態であると判定してもよい。例えば、1本の指をタッチパネル20の画面に接触させ、なぞる操作が発生しても、指の左右スワイプによる画面スクロール、又は、画面の上下なぞり操作によるリストのスクロールが発生しない場合に、視線有無判定部12は、視線無し状態であると判定してもよい。
また、図4のステップST103における視線有無判定の他の例として、視線有無判定部12は、指の接触点の縦方向の移動、横方向の移動、斜め方向の移動のいずれの検出時に視線有り状態と判定してもよい。
また、図4のステップST103における視線有無判定の他の例として、視線有無判定部12は、指の接触点の移動で、丸、四角、又は文字など特定の軌跡を描く場合に、視線有り状態と判定してもよい。
また、図4のステップST103における視線有無判定部12の判定が、視線無し状態から視線有り状態に変わる条件として、タッチパネル20からの入力操作が無い状態で予め決められた時間経過した場合としてもよい。例えば、視線無し状態に切り替わってから、タッチジェスチャ操作が無い状態が予め決められた閾値時間以上続くと、視線有り状態へと自動的に戻るように構成してもよい。この場合、通知部15の音声アナウンスを頼りに、再度長押し等の視線無し状態と判定されるタッチジェスチャ操作をして、画面を見ずにタッチジェスチャ操作することができる。
また、図4のステップST109における視線無し状態の他の操作方法として、画面を上下に分けてタップすることで選択値を増減させる方法だけでなく、図5のように画面上に数値入力のための複数のボタンが配列された画像を表示させ、指でなぞった位置に対応するボタンの項目が、通知部15で読み上げられるようにしてもよい。
また、図4のステップST109における視線無し状態の他の操作方法として、画面上を2点タッチしてダイヤルを回すように回転させて、時計回りの場合、選択値を増やし、反時計周りの場合、選択値を減らすようにしてもよい。この場合、2点タップを決定操作とした場合、決定と回転操作を間違う可能性があるため、例えば、予め決められた時間内にタップが2回連続して発生(ダブルタップが発生)した場合を選択値の決定操作としてもよい。
《2》実施の形態2
《2−1》構成
上記実施の形態1においては、視線無し状態の操作モードにおけるタッチジェスチャ操作は、タッチパネル20の画面全体を操作有効領域とした、簡単なタッチジェスチャ操作に限定されている。実施の形態2においては、視線無し状態の操作モードにおいて、画面を見ないことによる意図しない操作を防ぎ、より複雑なタッチジェスチャ操作を可能にする装置及び方法について説明する。
図6は、本発明の実施の形態2に係るタッチパネル入力装置2の概略構成を示す機能ブロック図である。図6において、図1に示される構成要素と同一又は対応する構成要素には、図1に示される符号と同じ符号が付される。タッチパネル入力装置2は、タッチパネル20と、タッチジェスチャ判定装置10aとを有している。タッチジェスチャ判定装置10aは、実施の形態2に係るタッチジェスチャ判定方法及び実施の形態2に係るタッチジェスチャ判定プログラムを実行することができる装置である。実施の形態2におけるタッチジェスチャ判定装置10aは、ジェスチャ操作記憶部17及びジェスチャ補正部18を有する点において、実施の形態1におけるタッチジェスチャ判定装置10と相違する。この点を除き、実施の形態2は、実施の形態1と同じである。したがって、以下に相違点を中心に説明する。
ジェスチャ操作記憶部17は、操作判定部14が認識したタッチジェスチャ操作の履歴情報を記憶する。ジェスチャ補正部18は、ジェスチャ操作記憶部17に記憶されたタッチジェスチャ操作のデータから、操作判定部14において判定されたタッチジェスチャ操作認識結果を補正し選択値A8を決定する。
実施の形態2に係るタッチパネル入力装置2のH/W構成は、図2に示されるように、タッチパネル20と、プロセッサ31と、メモリ32と、スピーカ33とを有している。図6に示されるタッチジェスチャ判定装置10aは、ソフトウェアとしてのタッチジェスチャ判定プログラムを格納する記憶装置としてのメモリ32と、メモリ32に格納されたタッチジェスチャ判定プログラムを実行する情報処理部としてのプロセッサ31とを用いて(例えば、コンピュータにより)実現することができる。この場合には、図6における構成要素11〜18は、図2においてタッチジェスチャ判定プログラムを実行するプロセッサ31に相当する。なお、図6示されるタッチジェスチャ判定装置10a一部を、図2に示されるメモリ32と、タッチジェスチャ判定プログラムを実行するプロセッサ31とによって実現することもできる。
《2−2》動作
図7は、実施の形態2に係るタッチパネル入力装置2におけるタッチジェスチャ判定装置10aの動作(タッチジェスチャ判定方法)を示すフローチャートである。図7において、図4に示される処理ステップと同一又は対応する処理ステップには、図4に示されるステップ番号と同じステップ番号が付される。実施の形態2におけるタッチジェスチャ判定装置10aの動作は、タッチジェスチャ操作の判定ステップST109の後に、タッチジェスチャ操作を記憶させる処理ステップ(ステップST201)とジェスチャ補正処理ステップ(ステップST202)とを有する点において、実施の形態1におけるタッチジェスチャ判定装置10の動作と相違する。これらの点を除き、実施の形態2におけるタッチジェスチャ判定装置10aの動作は、実施の形態1のものと同じである。
図7のステップST201において、ジェスチャ操作記憶部17は、操作判定部14が認識したタッチジェスチャ操作を履歴情報として記憶する。タッチジェスチャ操作の履歴情報の例を表2に示す。
Figure 0006177482
図8は、実施の形態2に係るタッチパネル入力装置2におけるタッチジェスチャ操作の履歴情報の取得方法を示す図である。ステップST201において、表2に示されるタッチジェスチャ操作の履歴情報は、例えば、図8に示される方法で計算される。図8の例において、回転方向の移動量、すなわち、角度変化量H[pixel]は、前回のタッチジェスチャ操作でタッチされた2つの点P1,P2を結ぶ直線Q1に対して、現在のタッチジェスチャ操作でタッチされた点P3から垂線Q2を下ろし、この垂線Q2の長さとする。距離変化量D[pixel]は、現在の2点間距離(P1とP3間距離)L2と前回の2点間距離(P1とP2間距離)L1の間の変化量とする。移動量M[pixel]は、現在の2点間(P1とP3間距離)の中心位置I2と前回の2点間(P1とP2間距離)の中心位置I1との間の移動量とする。
ステップST202において、ジェスチャ補正部18は、ジェスチャ操作記憶部17が記憶した履歴情報から、画面を見ずにタッチジェスチャ操作を行った場合に、意図通りの操作情報がタッチジェスチャ判定装置10aに入力されない認識結果を補正する。
図9は、タッチパネル入力装置2においてタッチパネル20の画面を見ずにタッチジェスチャ操作を行った場合に、意図通りの操作情報がタッチジェスチャ判定装置10aに入力されないタッチジェスチャ操作の一例を示す図である。図9に示されるように、タッチパネル20の画面上で第1の回転方向としての時計回りに指で円を繰り返し描くことで選択値を増やし、第1の回転方向の反対方向の第2の回転方向としての反時計周りに指で円を繰り返し描くことで選択値を減らすタッチジェスチャ操作が挙げられる。
タッチパネル20に目を向けずに指で円を描くと、円を描いているつもりであっても、円の位置が少しずつずれて、移動量M[pixel]に対する角度変化量H[pixel]が変化するため予め決められた操作量を得るための調整がしにくくなる。そこで、ジェスチャ補正部18は、ジェスチャ操作記憶部17に蓄積されている、現時点から所定時間遡った過去の時点までの期間におけるタッチ軌跡情報を用い、最小二乗法のようなフィッティング方式により円の形状を推測し、円の位置を更新する。円の位置を更新後、ジェスチャ補正部18は、前回の指の接触点と円の中心位置と現在の指の接触点のなす角度を計算することで、角度の変化量を求める。以上により、図9に示されるように、タッチパネル20の0画面に目を向けずに円を繰り返し描くタッチジェスチャ操作が実現できる。
ジェスチャ補正部18は、円の位置を更新するだけでなく、円の形状が楕円である場合、楕円の縦横の縮尺を変更して円とする補正すに座標軌跡を再計算し、前回の指の接触点と円の中心位置と現在の指の接触点のなす角度を計算してもよい。
ジェスチャ補正部18が円の位置を補正する前については、操作判定部14が円を描くタッチジェスチャ操作を判定する。この際の、円の初期位置は、タッチパネル20の画面の中心位置としてもよいし、又は、所定時間分の軌跡から最小二乗法等で求め出してもよい。
図10は、実施の形態2に係るタッチパネル入力装置2においてタッチパネル20の画面を見ずに行われるタッチジェスチャ操作の一例を示す図である。操作判定部14が円を描くタッチジェスチャ操作を判定し始めるトリガとなる操作を、図10の左側に示すような、複数の指先による複数の接触点のタッチとして、接触する指の数が予め決められた少なくなった場合としてもよい。例えば、図10のように、3点でタッチ後、接触点が1点になったとき、操作判定部14は、3点の重心位置(重心点)を中心とし、円を描くタッチジェスチャ操作を判定し始め、以降履歴が予め決められたデータ量以上蓄積されたときに、ジェスチャ補正部18により、円の位置の更新による回転量の補正を行ってもよい。
画面を見ずに行うことで意図通りにならないタッチジェスチャ操作のもう1つの例として、多点のピンチ、回転、平行移動のタッチジェスチャ操作が挙げられる。図11は、実施の形態2に係るタッチパネル入力装置2においてカメラの向き、角度、拡縮量について手元のタッチパネル入力装置2を見ずに調整する場面を示す図である。図11は、カメラの向き及び角度、拡縮量について手元のタッチパネルを見ずに調整する場面を説明している。
図11において、カメラ映像表示機器401は、カメラにより撮影された映像を表示する。これに加え、カメラ映像表示機器401には、通知部15が現在のカメラ操作状況(向き、拡大率、回転角)を重畳して表示する。
手元操作画面402は、操作情報入力部11にタッチ情報を渡し、視線有り状態と視線無し状態の画面の表示を切り替え、操作判定部14により判定されたタッチジェスチャ操作に応じて画面の表示内容を変更する。
視線有り状態の操作モードにおいて、画面403は、視線有無判定部12が視線有り状態と判定した場合の画面であり、マニュアルを表示し、ハイパーリンクをタップして画面を切り替えるタッチジェスチャ操作が可能である。
視線無し状態の操作モードにおいて、画面404は、視線有無判定部12が視線無し状態と判定した場合の画面である。
視線有無判定部12は、3点以上のタッチ操作を判定し、指が全て離れる操作があり、予め決められた時間が経過すると、視線有り状態と判定する。操作判定部14は、3点以上タッチ操作後、拡縮、移動、回転のタッチジェスチャ操作があるか判定し、それぞれの操作量に応じて、拡縮時カメラ映像407、移動時カメラ映像408、回転時カメラ映像409のようなカメラの向きや拡縮量を変えた映像を表示する。
画面を見ずに行うことで意図通りにならないタッチジェスチャ操作のもう1つの例として、タッチパネルを強く押下する操作がある。例えば、視線有り無し判定部が長押しによって視線無し状態と判定する操作をする場合、画面を見ずに長押しすると指を強く押しこむ傾向が表れる。
指を強く押しこむとタッチしている位置が指先から指の腹の方向へ少し移動する傾向がある。そこで、ジェスチャ補正部18は、表2のタッチジェスチャ操作の履歴情報から、指位置の移動量が一定以上変化しない、あるいは押下圧が弱くなることで移動量が一定以下になることを用いて長押しを判断する。
前記ジェスチャ補正部18の補正処理は、長押しだけでなく、タップや2点操作の場合にも適用することが可能である。
画面を見ずに拡縮、移動、回転のタッチジェスチャ操作を行う場合、拡大しているつもりであっても、タッチジェスチャ操作が回転操作と誤認識される場合がある。そこで、ジェスチャ補正部18は、ジェスチャ操作記憶部17に蓄積されている現時点から所定時間遡った過去の時点までの期間における3点以上の接触点の移動量の合計値、2点の接触点間の距離の変化量の合計値、及び回転方向の変化量の合計値を求め、これら変化量の合計値の内の最も大きい合計値の操作を意図している操作として出力する。以上により、画面を見ずにタッチジェスチャ操作したときでも、意図通りの操作ができるようになる。
《2−3》効果
以上に説明したように、実施の形態2においては、操作判定部14で認識したジェスチャの履歴を取り、補正することで、画面を見ずに操作することによる意図しない操作を防ぐことができ、かつ、より複雑なタッチジェスチャ操作であっても、画面を見ずにタッチジェスチャ操作することができるようになる。
《3》実施の形態3
《3−1》構成
実施の形態1及び2においては、視線有無判定部12は、タッチジェスチャ操作に基づく操作情報A0から、視線有無判定(操作モード判定)を行っている。しかし、実施の形態1及び2に係るタッチパネル入力装置1及び2においては、視線有無判定に使用する操作を、本来の情報入力のためのタッチジェスチャ操作として使用することができない。そこで、実施の形態3においては、タッチジェスチャ操作に基づく操作情報A0から視線有無判定(操作モード判定)を行う代わりに、ユーザの顔を撮影する撮影装置としてのカメラを備え、ユーザの顔のカメラ画像から、視線有無判定を行う。
図12は、実施の形態3に係るタッチパネル入力装置3の概略構成を示す機能ブロック図である。図12において、図1に示される構成要素と同一又は対応する構成要素には、図1に示される符号と同じ符号が付される。タッチパネル入力装置3は、タッチパネル20と、タッチジェスチャ判定装置10bとを具備する。タッチジェスチャ判定装置10bは、実施の形態3に係るタッチジェスチャ判定方法及び実施の形態3に係るタッチジェスチャ判定プログラムを実行することができる装置である。実施の形態3におけるタッチジェスチャ判定装置10bは、視線有無判定部12bがカメラ画像入力部19を通してカメラ34から取得したユーザの顔のカメラ画像から、視線有無判定(操作モード判定)を行う点が、実施の形態1におけるタッチジェスチャ判定装置10と相違する。この点を除き、実施の形態3は、実施の形態1と同じである。また、実施の形態3におけるカメラ画像入力部19及び視線有無判定部12bを、実施の形態2に係るタッチパネル入力装置2に適用することもできる。
カメラ画像入力部19は、カメラ34がユーザの顔を撮影することで取得したカメラ画像(画像データ)を受け取る。操作モード判定部としての視線有無判定部12bは、カメラ画像入力部19からユーザの顔のカメラ画像を受け取り、顔全体及び目の画像データを抽出する画像処理を行い、顔の向き及び目の視線の方向を検出する。目がタッチパネル20の画面を向いていれば視線有り状態の操作モードであると判定し、目がタッチパネル20の画面を向いていなければ視線無し状態の操作モードであると判定する。
図13は、実施の形態3に係るタッチパネル入力装置3のH/W構成の一例を示す図である。図13において、図2に示される構成要素と同一又は対応する構成要素には、図2に示される符号と同じ符号が付される。実施の形態3に係るタッチパネル入力装置3のH/W構成は、カメラ34を備えている点及びメモリ32bが格納しているタッチジェスチャ判定プログラムの点において、実施の形態1に係るタッチパネル入力装置1のH/W構成と相違する。これらの点を除いて、実施の形態3のH/W構成は、実施の形態1のものと同じである。
カメラ34は、カメラ撮影で取得されたユーザの顔のカメラ画像(画像データ)を記憶部としてのメモリ32bに記憶させ、プロセッサ31は、カメラ画像入力部19の処理において、メモリ32bからカメラ画像を取得し、視線有無判定部12bにて画像処理を行う。
《3−2》動作
図14は、実施の形態3に係るタッチパネル入力装置3におけるタッチジェスチャ判定装置10bの動作(タッチジェスチャ判定方法)を示すフローチャートである。図14において、図4に示される処理ステップと同一又は対応する処理ステップには、図4に示されるステップ番号と同じステップ番号が付される。実施の形態3におけるタッチジェスチャ判定装置10bの動作は、視線有無判定部12bが、カメラ画像入力部19を通して取得したユーザの顔のカメラ画像から視線有無判定を行う点(ステップST301、ST302)及びカメラ画像に基づく視線有無判定の後にタッチジェスチャ操作による操作情報A0を取得する点(ステップST303)において、実施の形態1におけるタッチジェスチャ判定装置10の動作と相違する。これらの点を除き、実施の形態3に係るタッチパネル入力装置3の動作は、実施の形態1のものと同じである。したがって、以下に、実施の形態1の動作と異なる動作を説明する。
図14のステップST301において、カメラ画像入力部19は、カメラ34からユーザの顔の画像データを受け取り、メモリ32bにこの画像データを記憶させる。
図15(a)及び(b)は、実施の形態3に係るタッチパネル入力装置3における視線有り状態及び視線無し状態の判定方法を示す図である。ステップST302において、視線有無判定部12bは、図15(a)に示されるようなカメラ画像入力部19がメモリ32bに記憶させたユーザの顔の画像データを受け取り、顔の向き及び視線を抽出する画像処理を行い、図15(b)の左側に示されるように、視線がタッチパネル20の画面に向かう方向を向いていれば、視線有り状態と判定する。また、視線有無判定部12bは、図15(b)の右側に示されるように、視線がタッチパネル20の画面に向かう方向を向いていなければ、視線無し状態と判定する。
顔の向きは、例えば、Haar特徴量に基づくCascade識別器によって検出可能であり、視線は、例えば、顔のパーツである目の部分を抽出し、目の画像に対してエッジフィルタを適用し、虹彩の外径を抽出し、楕円をフィッティングして瞳孔の位置を推測することで検出可能である。顔の向き及び視線の検出方法は、これらの例に限定されず、他の方法を採用してもよい。
《3−3》効果
以上に説明したように、実施の形態3に係るタッチパネル入力装置3、タッチジェスチャ判定装置10b、タッチジェスチャ判定方法、及びタッチジェスチャ判定プログラムにおいては、カメラ34のカメラ画像を用いてユーザの視線がタッチパネル20の画面に向けられている視線有り状態であるか、視線有り状態以外の状態である視線無し状態であるのかを判定することで、ユーザが操作モードの切り替えのためのタッチジェスチャ操作を行わなくても、視線有無判定(操作モード判定)を容易且つ正確に行うことができる。
また、実施の形態3に係るタッチパネル入力装置3、タッチジェスチャ判定装置10b、タッチジェスチャ判定方法、及びタッチジェスチャ判定プログラムによれば、視線有無判定をカメラ画像に基づいて行うので、本来の情報入力のためのタッチジェスチャ操作において、使用が制限される操作を無くすることができる。
また、実施の形態3に係るタッチパネル入力装置3を搭載した携帯端末装置では、機器を点検する場合又は遠く離れた位置に設置された大画面の表示装置を見る場合において、タッチパネル20を見ているとき(視線有り状態)は、通常の表示部品を用いたボタン操作によるタッチジェスチャ操作を行うことができ、タッチパネル20を見ていないとき(視線無し状態)には、タッチパネル20の画面全体をタッチジェスチャ操作を受け付ける操作有効領域とすることができる。このため、タッチパネル20を見ていないときは、携帯端末装置を、機器の点検、又は、遠方に設置された大画面の表示装置の操作機器として使うことができる。
上記実施の形態1から3は、本発明の例示であり、本発明の範囲内において、種々の変更が可能である。
1,2,3 タッチパネル入力装置、 10,10a,10b タッチジェスチャ判定装置、 11 操作情報入力部、 12,12b 視線有無判定部(操作モード判定部)、 13 操作モード切替部、 14 操作判定部、 15 通知部、 16 表示制御部、 17 ジェスチャ操作記憶部、 18 ジェスチャ補正部、 19 カメラ画像入力部、 20 タッチパネル、 21 表示パネル部、 22 操作パネル部、 31 プロセッサ、 32,32b メモリ、 33 スピーカ、 34 カメラ、 141 表示部品ジェスチャ判定部、 142 画面全体ジェスチャ判定部、 A0 操作情報、 A1 入力情報、 A2 視線判定情報、 A3 命令情報、 A4 操作判定情報、 A5 通知情報、 A6 画像信号、 A7,A8 選択値(出力信号)、 A9 カメラ画像。

Claims (20)

  1. 画面に操作用画像を表示し、ユーザのタッチジェスチャ操作を受け付け、前記タッチジェスチャ操作に対応する操作情報を出力するタッチパネルと、
    前記操作情報を受け取り、前記操作情報に基づく選択値を生成するタッチジェスチャ判定装置と
    を有するタッチパネル入力装置であって、
    前記タッチジェスチャ判定装置は、
    前記タッチジェスチャ操作に対応する入力情報を受け取り、前記入力情報に基づいて、前記タッチジェスチャ操作が、前記ユーザの視線が前記画面に向けられている視線有り状態における操作又は前記ユーザの視線が前記画面に向けられていない視線無し状態における操作のいずれであるかを判定し、前記判定の結果を示す視線判定情報を出力する視線有無判定部と、
    前記視線判定情報に基づく命令情報を出力する操作モード切替部と、
    前記命令情報に従う判定方法で、前記操作情報に基づく前記選択値を生成する操作判定部と、
    前記タッチパネルに、前記操作用画像として前記命令情報に従う画像を表示させる表示制御部と、を有し、
    前記操作判定部は、
    前記視線有り状態のときに、前記タッチパネルに前記操作用画像として表示された表示部品に対して行われたタッチジェスチャ操作に基づく操作情報から前記選択値を決定する表示部品ジェスチャ決定部と、
    前記視線無し状態のときに、前記タッチパネルの画面全体に対して行われたタッチジェスチャ操作に基づく操作情報から前記選択値を決定する画面全体ジェスチャ決定部と、を有する
    ことを特徴とするタッチパネル入力装置。
  2. 前記タッチジェスチャ判定装置は、前記命令情報に従う通知内容の通知を発する又は通知信号を出力する通知部をさらに有することを特徴とする請求項1に記載のタッチパネル入力装置。
  3. 前記視線有無判定部は、前記タッチジェスチャ操作として、前記タッチパネルを予め決められた第1の閾値以上の時間押し続ける長押し操作、前記タッチパネルに複数の指を接触させる複数点操作、及び前記タッチパネルに手の平を接触させる手の平操作の内のいずれかが発生した場合に、前記ユーザの視線が前記視線無し状態であると判定する請求項1又は2に記載のタッチパネル入力装置。
  4. 前記視線有無判定部は、前記タッチジェスチャ操作として、前記タッチパネルの表示内容を変化させない操作を予め決められた第2の閾値以上の時間継続した場合に、前記ユーザの視線が前記視線無し状態であると判定する請求項1又は2に記載のタッチパネル入力装置。
  5. 前記視線有無判定部は、前記タッチパネルの特定の領域が、予め決められた方向に、前記特定の領域からはみ出さずになぞられる操作が行われた場合に、前記ユーザの視線が前記視線無し状態であると判定する請求項1から4のいずれか1項に記載のタッチパネル入力装置。
  6. 前記視線有無判定部は、前記タッチパネルの画面上で特定の軌跡が描かれた場合に、前記ユーザの視線が前記視線無し状態であると判定する請求項1から5のいずれか1項に記載のタッチパネル入力装置。
  7. 前記視線有無判定部は、前記タッチパネルの画面上で予め決められた第3の閾値以上の時間操作が無い場合に、前記ユーザの視線が前記視線無し状態であると判定する請求項1から6のいずれか1項に記載のタッチパネル入力装置。
  8. 前記視線有無判定部により前記視線無し状態と判定された場合に、
    前記操作判定部は、前記タッチパネルの画面の予め決められた第1端部側の領域をタッチすると前記選択値を増やし、前記タッチパネルの画面の前記第1端部側の反対側である第2端部側をタッチすると前記選択値を減らす
    ことを特徴とする請求項1からのいずれか1項に記載のタッチパネル入力装置。
  9. 前記視線有無判定部により前記視線無し状態と判定された場合に、
    前記操作判定部は、前記タッチパネルの画面上において、前記画面をなぞる操作を行った位置に応じた値を、前記選択値として選択する
    ことを特徴とする請求項1からのいずれか1項に記載のタッチパネル入力装置。
  10. 前記視線有無判定部により前記視線無し状態と判定された場合に、
    前記操作判定部は、前記タッチパネルの画面上を複数の接触点で第1の回転方向に回転する操作を行うことで前記選択値を増やし、前記第1の回転方向の反対方向である第2の回転方向に回転する操作を行うことで前記選択値を減らす
    ことを特徴とする請求項1からのいずれか1項に記載のタッチパネル入力装置。
  11. 前記タッチジェスチャ判定装置は、
    前記タッチジェスチャ操作の履歴情報を記憶するジェスチャ操作記憶部と、
    前記ジェスチャ操作記憶部が記憶する前記履歴情報を基に、前記操作判定部による前記タッチジェスチャ操作の認識を補正するジェスチャ補正部と、
    をさらに有することを特徴とする請求項1からのいずれか1項に記載のタッチパネル入力装置。
  12. 前記視線有無判定部により前記視線無し状態と判定された場合に、
    前記操作判定部は、前記タッチパネルの画面上を複数の接触点で第1の回転方向に回転する操作を行うことで前記選択値を増やし、前記第1の回転方向の反対方向である第2の回転方向に回転する操作を行うことで前記選択値を減らし、
    前記ジェスチャ補正部は、前記回転する操作で描かれた円の位置及び軌跡を補正する
    ことを特徴とする請求項11に記載のタッチパネル入力装置。
  13. 前記タッチパネルの画面上において1つの接触点を移動させて円を繰り返し描く操作の、前記接触点の初期位置は、複数の接触点の重心点又は中心点であることを特徴とする請求項11に記載のタッチパネル入力装置。
  14. 前記視線有無判定部により前記視線無し状態と判定された場合に、
    前記ジェスチャ補正部は、
    前記タッチパネルの画面上で入力された3点以上の接触点の移動量、2点の接触点間の距離の変化量で示される拡縮量、及び回転の角度を、現時点から予め決められた時間遡った時点までの期間について取得し、
    前記接触点の移動量の合計値、前記接触点間の距離の変化量の合計値、及び前記回転の回転方向の変化量の合計値を求め、これら変化量の合計値の内の最も大きい合計値の操作を意図している操作として出力する
    ことを特徴とする請求項11に記載のタッチパネル入力装置。
  15. 前記視線有無判定部により前記視線有り状態と判定された場合に、
    前記タッチパネルの画面に対する複数点のタッチ操作が発生すると、前記操作判定部は、前記選択値を確定する
    ことを特徴とする請求項、及び12のいずれか1項に記載のタッチパネル入力装置。
  16. 前記視線有無判定部により前記視線無し状態と判定された場合に、
    前記タッチパネルの画面に対するダブルタップが発生すると、前記操作判定部は、前記選択値を確定する
    ことを特徴とする請求項1013、及び14のいずれか1項に記載のタッチパネル入力装置。
  17. 前記視線有無判定部により前記視線無し状態と判定された場合に、
    前記タッチパネルの画面に対する操作が予め決められた時間無ければ、前記操作判定部は、前記選択値を確定する
    ことを特徴とする請求項から1012、及び14のいずれか1項に記載のタッチパネル入力装置。
  18. 画面に操作用画像を表示し、ユーザのタッチジェスチャ操作を受け付け、前記タッチジェスチャ操作に対応する操作情報を出力するタッチパネルから、前記操作情報を受け取り、前記操作情報に基づく選択値を生成するタッチジェスチャ判定装置であって、
    前記タッチジェスチャ操作に対応する入力情報を受け取り、前記入力情報に基づいて、前記タッチジェスチャ操作が、前記ユーザの視線が前記画面に向けられている視線有り状態における操作又は前記ユーザの視線が前記画面に向けられていない視線無し状態における操作のいずれであるかを判定し、前記判定の結果を示す視線判定情報を出力する視線有無判定部と、
    前記視線判定情報に基づく命令情報を出力する操作モード切替部と、
    前記命令情報に従う判定方法で、前記操作情報に基づく前記選択値を生成する操作判定部と、
    前記タッチパネルに、前記操作用画像として前記命令情報に従う画像を表示させる表示制御部と、を有し、
    前記操作判定部は、
    前記視線有り状態のときに、前記タッチパネルに前記操作用画像として表示された表示部品に対して行われたタッチジェスチャ操作に基づく操作情報から前記選択値を決定する表示部品ジェスチャ決定部と、
    前記視線無し状態のときに、前記タッチパネルの画面全体に対して行われたタッチジェスチャ操作に基づく操作情報から前記選択値を決定する画面全体ジェスチャ決定部と、を有する
    ことを特徴とするタッチジェスチャ判定装置。
  19. 画面に操作用画像を表示し、ユーザのタッチジェスチャ操作を受け付け、前記タッチジェスチャ操作に対応する操作情報を出力するタッチパネルから、前記操作情報を受け取り、前記操作情報に基づく選択値を生成するタッチジェスチャ判定方法であって、
    前記タッチジェスチャ操作に対応する入力情報に基づいて、前記タッチジェスチャ操作が、前記ユーザの視線が前記画面に向けられている視線有り状態における操作又は前記ユーザの視線が前記画面に向けられていない視線無し状態における操作のいずれであるかを判定し、前記判定の結果を示す視線判定情報を出力する視線有無判定ステップと、
    前記視線判定情報に基づく命令情報に従う判定方法で、前記操作情報に基づく前記選択値を生成する操作判定ステップと、
    前記タッチパネルに、前記操作用画像として前記命令情報に従う画像を表示させる表示制御ステップと、
    を有し、
    前記操作判定ステップにおいて、前記視線有り状態のときに、前記タッチパネルに前記操作用画像として表示された表示部品に対して行われたタッチジェスチャ操作に基づく操作情報から前記選択値を決定し、前記視線無し状態のときに、前記タッチパネルの画面全体に対して行われたタッチジェスチャ操作に基づく操作情報から前記選択値を決定する
    ことを特徴とするタッチジェスチャ判定方法。
  20. コンピュータに、
    画面に操作用画像を表示し、ユーザのタッチジェスチャ操作を受け付け、前記タッチジェスチャ操作に対応する操作情報を出力するタッチパネルから、前記操作情報を受け取り、前記操作情報に基づく選択値を生成するために、
    前記タッチジェスチャ操作に対応する入力情報に基づいて、前記タッチジェスチャ操作が、前記ユーザの視線が前記画面に向けられている視線有り状態における操作又は前記ユーザの視線が前記画面に向けられていない視線無し状態における操作のいずれであるかを判定し、前記判定の結果を示す視線判定情報を出力する視線有無判定処理と、
    前記視線判定情報に基づく命令情報に従う判定方法で、前記操作情報に基づく前記選択値を生成する操作判定処理と、
    前記タッチパネルに、前記操作用画像として前記命令情報に従う画像を表示させる表示制御処理と、
    を実行させ、
    前記操作判定処理において、前記視線有り状態のときに、前記タッチパネルに前記操作用画像として表示された表示部品に対して行われたタッチジェスチャ操作に基づく操作情報から前記選択値を決定し、前記視線無し状態のときに、前記タッチパネルの画面全体に対して行われたタッチジェスチャ操作に基づく操作情報から前記選択値を決定する
    ことを特徴とするタッチジェスチャ判定プログラム。
JP2017522564A 2016-12-26 2016-12-26 タッチパネル入力装置、タッチジェスチャ判定装置、タッチジェスチャ判定方法、及びタッチジェスチャ判定プログラム Active JP6177482B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/088610 WO2018122891A1 (ja) 2016-12-26 2016-12-26 タッチパネル入力装置、タッチジェスチャ判定装置、タッチジェスチャ判定方法、及びタッチジェスチャ判定プログラム

Publications (2)

Publication Number Publication Date
JP6177482B1 true JP6177482B1 (ja) 2017-08-09
JPWO2018122891A1 JPWO2018122891A1 (ja) 2018-12-27

Family

ID=59559217

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017522564A Active JP6177482B1 (ja) 2016-12-26 2016-12-26 タッチパネル入力装置、タッチジェスチャ判定装置、タッチジェスチャ判定方法、及びタッチジェスチャ判定プログラム

Country Status (5)

Country Link
JP (1) JP6177482B1 (ja)
KR (1) KR102254794B1 (ja)
CN (1) CN110114749B (ja)
DE (1) DE112016007545T5 (ja)
WO (1) WO2018122891A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7014874B1 (ja) 2020-09-24 2022-02-01 レノボ・シンガポール・プライベート・リミテッド 情報処理装置及び情報処理方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114270299B (zh) * 2019-09-04 2024-07-19 三菱电机株式会社 触摸面板装置、操作识别方法和记录有操作识别程序的记录介质
US10983601B1 (en) * 2020-01-17 2021-04-20 Assa Abloy Ab Visually impaired mode keypad
CN111352529B (zh) * 2020-02-20 2022-11-08 Oppo(重庆)智能科技有限公司 触摸事件的上报方法、装置、终端及存储介质
CN113495620A (zh) * 2020-04-03 2021-10-12 百度在线网络技术(北京)有限公司 一种交互模式的切换方法、装置、电子设备及存储介质
WO2021240668A1 (ja) * 2020-05-27 2021-12-02 三菱電機株式会社 ジェスチャ検出装置およびジェスチャ検出方法
US20230154226A1 (en) * 2020-05-27 2023-05-18 Mitsubishi Electric Corporation Gesture detection apparatus and gesture detection method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000231446A (ja) * 1999-02-10 2000-08-22 Sharp Corp 表示一体型タブレット装置及びタブレット自動補正プログラムを記憶した記憶媒体
JP2003240560A (ja) * 2002-02-13 2003-08-27 Alpine Electronics Inc 視線を用いた画面制御装置
JP2006017478A (ja) * 2004-06-30 2006-01-19 Xanavi Informatics Corp ナビゲーション装置
JP2007302223A (ja) * 2006-04-12 2007-11-22 Hitachi Ltd 車載装置の非接触入力操作装置
JP2008024070A (ja) * 2006-07-19 2008-02-07 Xanavi Informatics Corp 車載情報端末
JP2008195142A (ja) * 2007-02-09 2008-08-28 Aisin Aw Co Ltd 車載機器の操作支援装置、操作支援方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101055193A (zh) * 2006-04-12 2007-10-17 株式会社日立制作所 车载装置的非接触输入操作装置
KR101252169B1 (ko) * 2011-05-27 2013-04-05 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US20140002376A1 (en) * 2012-06-29 2014-01-02 Immersion Corporation Method and apparatus for providing shortcut touch gestures with haptic feedback
KR102268045B1 (ko) * 2014-06-27 2021-06-22 엘지전자 주식회사 쇼 윈도우에 전시된 제품의 제품 정보 제공 장치 및 방법
JP6385173B2 (ja) 2014-07-15 2018-09-05 三菱電機株式会社 エレベータのタッチパネル式行き先階登録操作盤およびエレベータのタッチパネル式行き先階登録操作盤における利用者判定方法
JP6214779B2 (ja) 2014-09-05 2017-10-18 三菱電機株式会社 車載機器制御システム
KR102216944B1 (ko) 2014-09-23 2021-02-18 대원정밀공업(주) 펌핑 디바이스
KR102073222B1 (ko) * 2014-12-18 2020-02-04 한국과학기술원 사용자 단말 및 이의 햅틱 서비스 제공 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000231446A (ja) * 1999-02-10 2000-08-22 Sharp Corp 表示一体型タブレット装置及びタブレット自動補正プログラムを記憶した記憶媒体
JP2003240560A (ja) * 2002-02-13 2003-08-27 Alpine Electronics Inc 視線を用いた画面制御装置
JP2006017478A (ja) * 2004-06-30 2006-01-19 Xanavi Informatics Corp ナビゲーション装置
JP2007302223A (ja) * 2006-04-12 2007-11-22 Hitachi Ltd 車載装置の非接触入力操作装置
JP2008024070A (ja) * 2006-07-19 2008-02-07 Xanavi Informatics Corp 車載情報端末
JP2008195142A (ja) * 2007-02-09 2008-08-28 Aisin Aw Co Ltd 車載機器の操作支援装置、操作支援方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7014874B1 (ja) 2020-09-24 2022-02-01 レノボ・シンガポール・プライベート・リミテッド 情報処理装置及び情報処理方法
JP2022053121A (ja) * 2020-09-24 2022-04-05 レノボ・シンガポール・プライベート・リミテッド 情報処理装置及び情報処理方法

Also Published As

Publication number Publication date
KR20190087510A (ko) 2019-07-24
CN110114749B (zh) 2022-02-25
CN110114749A (zh) 2019-08-09
JPWO2018122891A1 (ja) 2018-12-27
DE112016007545T5 (de) 2019-09-19
WO2018122891A1 (ja) 2018-07-05
KR102254794B1 (ko) 2021-05-21

Similar Documents

Publication Publication Date Title
JP6177482B1 (ja) タッチパネル入力装置、タッチジェスチャ判定装置、タッチジェスチャ判定方法、及びタッチジェスチャ判定プログラム
US9733752B2 (en) Mobile terminal and control method thereof
CN104932809B (zh) 用于控制显示面板的装置和方法
JP4275151B2 (ja) ユーザが調整可能な閾値を用いる赤目補正方法及び装置
US20150213274A1 (en) Device and method of shielding region of display screen
US20150002424A1 (en) Information processing apparatus and control method, and recording medium
US20090262187A1 (en) Input device
KR20150090840A (ko) 디스플레이 화면의 영역을 보호하는 디바이스 및 방법
JP5222967B2 (ja) 携帯端末
JPWO2013141161A1 (ja) 情報端末、入力受付制御方法及び入力受付制御プログラム
CN107450820B (zh) 界面控制方法及移动终端
TW201816581A (zh) 介面控制方法和電子裝置
JP2007172303A (ja) 情報入力システム
US10802620B2 (en) Information processing apparatus and information processing method
EP2824562A1 (en) Method and apparatus to reduce display lag of soft keyboard presses
US11354031B2 (en) Electronic apparatus, computer-readable non-transitory recording medium, and display control method for controlling a scroll speed of a display screen
JP6153487B2 (ja) 端末及び制御方法
US20160224111A1 (en) Method for controlling touch screen by detecting position of line of sight of user
JP6682951B2 (ja) プログラムおよび情報処理装置
JP6329373B2 (ja) 電子機器および電子機器を制御するためのプログラム
JP6616379B2 (ja) 電子機器
US20200033959A1 (en) Electronic apparatus, computer-readable non-transitory recording medium, and display control method
JP6971573B2 (ja) 電子機器、その制御方法およびプログラム
WO2019148904A1 (zh) 一种放缩智能眼镜屏幕的方法与智能眼镜
JP6686885B2 (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170425

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170425

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20170425

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170711

R150 Certificate of patent or registration of utility model

Ref document number: 6177482

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250