JP2018022263A - 入力装置 - Google Patents

入力装置 Download PDF

Info

Publication number
JP2018022263A
JP2018022263A JP2016151820A JP2016151820A JP2018022263A JP 2018022263 A JP2018022263 A JP 2018022263A JP 2016151820 A JP2016151820 A JP 2016151820A JP 2016151820 A JP2016151820 A JP 2016151820A JP 2018022263 A JP2018022263 A JP 2018022263A
Authority
JP
Japan
Prior art keywords
input
touch
threshold
input device
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016151820A
Other languages
English (en)
Other versions
JP6323960B2 (ja
Inventor
達也 秋田
Tatsuya Akita
達也 秋田
和史 黒田
Kazufumi Kuroda
和史 黒田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2016151820A priority Critical patent/JP6323960B2/ja
Priority to US15/661,299 priority patent/US10289249B2/en
Publication of JP2018022263A publication Critical patent/JP2018022263A/ja
Application granted granted Critical
Publication of JP6323960B2 publication Critical patent/JP6323960B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • B60K35/10
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/28
    • B60K35/29
    • B60K35/81
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/593Recognising seat occupancy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • G06V30/333Preprocessing; Feature extraction
    • G06V30/347Sampling; Contour coding; Stroke extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • B60K2360/143
    • B60K2360/1438
    • B60K2360/168
    • B60K2360/199

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】入力操作中に突発的に生じた揺れなどにより、指やペンなどが意図しない方向へと移動し、誤った入力操作が当該入力面に対して行われた場合でも、ユーザが意図する入力操作についての誤認識を生じ難いタッチパネル装置を提供する。【解決手段】入力面116に物体を接触又は近接させる操作で入力操作が行われる入力装置100であって、入力面上を物体が移動した距離である移動距離が所定の距離閾値を超えたか否かに基づいて、入力操作の種類を特定する入力操作特定手段123と、入力面に物体が接触又は近接している時間であるタッチ時間を計測するタッチ時間計測手段122と、距離閾値を設定する閾値設定手段125とを備える。閾値設定手段は、タッチ時間に応じて距離閾値を設定し、所定のタッチ時間における距離閾値よりも、当該所定のタッチ時間よりも長いタッチ時間における距離閾値の方が大きくなるように設定する。【選択図】図1

Description

本発明は、指やペン(例えば、タッチペンやスタイラス)などの物体を画面に接触又は近接させて入力操作を行う入力装置に関し、より具体的には、例えば車両内における振動や揺れなどによって指やペンが意図しない方向へ移動しても、意図された入力操作についての認識誤りを生じ難い入力装置に関する。
指などを画面に接触又は近接させて操作する入力装置は、例えばタッチパネルを用いて構成され、スマートフォンやカーナビゲーションシステムなどにおいて用いられている。このような入力装置は、タッチパネル等に接触又は近接して行われる指の特定の動き(以下、タッチ操作という)により、ユーザの意図する指示が入力装置に入力される。
このようなタッチ操作には、入力装置の画面上における指の位置の移動を伴うジェスチャー操作や、指の位置の移動を伴わないタップ操作が含まれ得る。ジェスチャー操作には、例えば、指先をスライドさせるスワイプ操作や、指先を素早く払うフリック操作、等が含まれ、タップ操作には、例えば、画像を指先で短く押す(例えば指で軽く叩く)ショートタップ操作や、画面を指先で長く押すロングタップ操作等が含まれ得る。
指の位置の移動を伴うジェスチャー操作では、例えば入力装置の画面に接した指の移動距離が所定の閾値以上となったときに、該移動の距離及び方向に応じたジェスチャー操作が特定され、当該特定された操作に応じた入力動作が実行される。また、指の位置の移動を伴わないタップ操作では、例えば当該位置における接触回数や接触時間に基づいて操作が特定され、当該特定された操作に応じた入力動作が行われる。
ところが、タップ操作のような指の位置の移動を伴わない操作を行おうとした場合でも、使用環境などによっては指の位置が僅かに移動して、ユーザの意図しない入力が実行される場合がある。例えば、電車や自動車などの車両内において、タッチパネルでロングタップ操作を行っている最中に、車両の揺れや急停車によって指先が意図しない方向へと移動した場合には、フリック操作やスワイプ操作などの他のジェスチャー操作と誤認識される結果となり得る。そして、そのような誤認識の頻度が高まれば、ユーザは煩わしさを感じ、入力装置としての利便性が低下することにもなり得る。
従来、タッチパネル等を用いた入力装置におけるユーザ操作についての誤認識を防止する技術として、タッチ操作に使用される指の違いにより画面への接触面積が変わっても当該使用された指の移動が正しく認識されるようにすることを目的とし、指から画面に印加される押圧力に応じて、指の移動有無を判断するための移動距離の閾値(移動閾値)を変更する装置が知られている(特許文献1)。この装置では、指が異なれば(例えば、人差し指と親指とでは)画面への接触面積や押圧力が異なることに着目し、画面上で検知された押圧力から想定される接触面積に応じた移動閾値が設定される。
しかしながら、上記従来技術は、指の種別などによって生じる誤認識は解決し得るが、上記のような車両内における振動や揺れなどによって生じる誤認識を解決することはできない。
特開2014−48971号公報
上記背景より、指やペン(例えば、タッチペンやスタイラス)等の物体を入力面に接触又は近接させて入力操作が行われる入力装置において、入力操作中に突発的に生じた振動や揺れなどにより指やタッチペンが意図しない方向へと移動した場合でも、ユーザが意図する入力操作についての誤認識を生じ難い入力装置の実現が望まれている。
本発明の一の態様は、入力面に物体を接触又は近接させる操作により入力操作が行われる入力装置である。本入力装置では、前記入力面上を前記物体が移動した距離である移動距離が所定の距離閾値を超えたか否かに基づいて、上記入力操作の種類を特定する入力操作特定手段と、前記入力面に前記物体が接触又は近接している時間であるタッチ時間を計測するタッチ時間計測手段と、前記距離閾値を設定する閾値設定手段と、を備え、前記閾値設定手段は、前記タッチ時間に応じて前記距離閾値を設定し、所定のタッチ時間における距離閾値よりも、当該所定のタッチ時間よりも長いタッチ時間における距離閾値の方が大きくなるように設定する。
本発明の他の態様によると、前記入力装置が使用される環境の状態から、ユーザが前記入力操作を行うことについての困難度を算出する操作困難度算出手段、を更に備え、前記閾値設定手段は、前記困難度が高いほど、前記距離閾値をより大きな値に設定する。
本発明の他の態様によると、前記入力装置は移動体に搭載され、前記操作困難度算出手段は、前記移動体の運転状態、及び又は前記移動体の周囲状況に基づき、前記困難度を算出する。
本発明の他の態様によると、前記移動体の前記運転状態は、前記移動体の現在の速度、縦方向加速度、横方向加速度、及び又は操舵角であり、前記移動体の前記周囲状況は、前記移動体の周囲で検知される物体の数である。
本発明の他の態様によると、前記閾値設定手段は、前記タッチ時間に応じて、所定の値まで徐々に増加するように前記距離閾値を設定する。
本発明の他の態様によると、前記タッチ時間が第1の所定の時間閾値を超える場合に、前記第1の所定の時間閾値を超えない場合よりも前記距離閾値を大きな値に設定する。
本発明の他の態様によると、前記入力操作を行っているユーザを特定する操作ユーザ特定手段をさらに備え、前記閾値設定手段は、前記操作ユーザ特定手段におけるユーザ特定の結果に応じて、前記距離閾値及び又は前記第1の所定の時間閾値を設定する。
本発明の他の態様によると、前記入力装置は移動体に搭載され、前記操作ユーザ特定手段は、前記ユーザが前記移動体の運転者であるか、運転者以外の者であるかを特定し、前記閾値設定手段は、前記ユーザが前記運転者であるときは、前記ユーザが前記運転者以外の者であるときに比べて、前記第1の所定の時間閾値を小さく設定する。
本発明の他の態様によると、前記入力操作特定手段は、前記移動距離が前記距離閾値を超えることなく前記タッチ時間が第2の所定の時間閾値を超えたときは、前記入力操作を、前記入力面上における前記物体の移動を伴わない操作であると判断する。
本発明の第1の実施形態に係る入力装置の構成を示す図である。 本発明の第1の実施形態に係る入力装置における処理の手順を示すフロー図である。 本発明の第2の実施形態に係る入力装置の構成を示す図である。
以下、図面を参照して、本発明の実施の形態を説明する。なお、以下に示す実施形態に係る入力装置は、例えばスマートフォンやカーナビゲーションシステムで使用される、タッチパネルなどを用いた入力装置であるが、本発明の入力装置は、このような用途に限らず、広く一般の用途に適用することができる。
<第1実施形態>
まず、本発明の第1の実施形態に係る入力装置について説明する。
図1は、第1の実施形態に係る入力装置の構成を示すブロック図である。本入力装置100は、当該入力装置100から入力された指示やデータを処理する入力処理装置130と接続されている。
ここで、入力装置100は、例えば車両内に搭載された装置であり、入力処理装置130は、当該車両内に持ち込まれたスマートフォン、あるいは当該車両内に設けられたナビゲーション装置であるものとすることができる。これに代えて、入力装置100と入力処理装置130とを含む全体が、スマートフォンやナビゲーション装置等の一つの装置を構成しているものとしてもよい。
入力装置100は、ユーザが指などを接触又は近接させて入力操作を行うための入力ユニット110と、該入力操作を認識して、所定の処理を実行する処理装置120と、を有する。
入力ユニット110は、ユーザが上記入力操作を行うためのヒューマン・インターフェース・デバイス(HID、Human Interface Device)であり、本実施形態では、例えばタッチパネルである。より具体的には、入力ユニット110は、液晶ディスプレイ(Liquid Crystal Display:LCD)や有機ELディスプレイ(Organic ElectroLuminescence Display:OELD)などの表示デバイス112と、当該表示デバイス112の表示画面113(スクリーン)上に設けられたシート状のタッチセンサ114と、で構成される。タッチセンサ114は、例えば抵抗膜式や静電容量式などの任意の検出方式を用いるものとすることができ、ユーザは、その表面に設けられた入力面116に指などを接触させて入力操作を行う。ただし、入力ユニット110は、入力面116上に接触又は近接した指などの物体の位置を検出する機能を有するものであればよく、必ずしも表示画面を備えて指等の接触位置を検知するタッチパネルである必要はない。例えば、検知感度を高めることで近接した指や物体の位置をも検出し得る静電容量式タッチセンサを備えるタッチパネルや、表示デバイスを有さず入力面のみを備えたペンタブレットであってもよい。
入力ユニット110は、表示画面113上にアイコンやボタンなどのオブジェクト画像を表示し、ユーザが当該オブジェクト画像に対応する入力面116上の位置に指などを接触させると、該接触位置(タッチ位置)の位置情報(タッチ位置情報)を含む信号を処理装置120に出力する。より具体的には、入力ユニット110は、入力面116と指との接触が感知されている間は、所定の時間間隔で、タッチ位置情報を含む信号を処理装置120に出力する。なお、以下の説明においては、一例として指を入力面116に接触させて入力操作を行うものとするが、当該入力面116上への接触は、指に限らず、ペン(タッチペンやスタイラス)等の物体を用い行うものとすることができる。
処理装置120は、CPU(Central Processing Unit)等のプロセッサ、プログラムが書き込まれたROM(Read Only Memory)、データの一時記憶のためのRAM(Random Access Memory)等を有するコンピュータであり、タッチ検出ユニット121と、タッチ時間計測手段であるタッチ時間計測ユニット122と、入力操作特定手段である入力操作特定ユニット123と、ロングタッチ判定ユニット124と、閾値設定手段に相当する閾値設定ユニット125と、表示制御ユニット126と、で構成されている。
処理装置120が備える上記各ユニットは、コンピュータである処理装置120がプログラムを実行することにより実現され、当該コンピュータ・プログラムは、コンピュータ読み取り可能な任意の記憶媒体に記憶させておくことができる。これに代えて又はこれに加えて、上記各ユニットの全部又は一部を、それぞれ一つ以上の電子回路部品を含むハードウェアにより構成することもできる。
タッチ検出ユニット121は、入力ユニット110からのタッチ位置情報を受信して、受信したタッチ位置情報を、後述する入力操作特定ユニット123へ出力する。また、タッチ検出ユニット121は、タッチ位置情報を受信したことにより入力面116への指の接触(タッチ)があったことを検知して、タッチ開始信号をタッチ時間計測ユニット122(後述)に出力すると共に、タッチ操作が進行中であることを示すタッチ操作フラグをセットする。さらに、タッチ検出ユニット121は、所定の時間以上にわたってタッチ位置情報を連続して受信しなかったときは、上記タッチ操作フラグをリセットする。なお、タッチ操作フラグは、例えば、処理装置120が備えるメモリ(不図示)に記憶されるものとすることができる。
タッチ時間計測ユニット122は、タッチ検出ユニット121からタッチ開始信号を受信したことに応じて、入力ユニット110の入力面116に指がタッチされている時間の計測を開始し、当該タッチの開始から現在までの時間(タッチ時間)を、所定の時間間隔でロングタッチ判定ユニット124(後述)に出力すると共に、処理装置120が備えるメモリ(不図示)に記憶する。なお、この時間の計測は、例えば、入力面116へのタッチ操作が終了してタッチ操作フラグがリセットされたときに終了し、当該計測された時間はゼロにリセットされる。
入力操作特定ユニット123は、タッチ検出ユニット121からタッチ位置情報を受信し、当該受信したタッチ位置情報に基づいて、入力ユニット110の入力面116内における指の移動距離と移動方向とを検出する。例えば、入力操作特定ユニット123は、上記受信したタッチ位置情報から、タッチを開始した時点での指のタッチ位置と、現時点における指のタッチ位置と、に基づいて、指の移動距離及び移動方向を算出する。そして、入力操作特定ユニット123は、上記算出した指の移動距離及び又は移動方向に基づき、入力されたタッチ操作の種類(フリック操作、スワイプ操作、ショートタップ操作、ロングタップ操作等)を特定する。
具体的には、算出された上記移動距離が、予め定められた閾値(移動距離閾値:Lth)よりも大きい場合には、入力操作特定ユニット123は、現在のタッチ操作が指の位置の移動を伴うジェスチャー操作であると判断し、更に、上記算出した指の移動距離及び又は移動方向から、当該ジェスチャー操作の種別(フリック操作、スワイプ操作等)を特定する。一方、算出された指の移動距離が上記移動距離閾値Lth以下である場合には、入力操作特定ユニット123は、入力されたタッチ操作を、指の位置の移動が伴わないタップ操作であるものと判断し、更に、タッチ操作の時間(指が入力面116に接していた時間)から、当該タップ操作の種別(ショートタップ、ロングタップ等)を特定する。そして、入力操作特定ユニット123は、上記特定したタッチ操作の種別に関する情報を入力処理装置130に出力する。
ロングタッチ判定ユニット124は、タッチ時間計測ユニット122で計測された上記タッチ時間を、タッチ時間閾値(Tth)と比較する。そして、測定された該タッチ時間がTth未満であれば、短時間のタッチ(ショートタッチ)と判定し、また、Tth以上であれば長時間のタッチ(ロングタッチ)と判定する。
閾値設定ユニット125は、入力操作特定ユニット123及びロングタッチ判定ユニット124においてそれぞれ使用される移動距離閾値Lth及びタッチ時間閾値Tthの値を設定する。閾値設定ユニット125は、タッチ操作が開始されたときに、Lth及びTthに初期値L1及びT1をそれぞれ設定し、その後、必要に応じて、Lth及びTthを該初期値とは異なる値に変更(又は設定)する。なお、初期値L1及びT1は、処理装置120が備えるメモリ(不図示)に予め記憶されているものとする。また、初期値L1は、例えば指先の幅に応じた値とすることができ、初期値T1は、例えばユーザの好みに応じた値とすることができる。
表示制御ユニット126は、例えば入力処理装置130からの命令に基づいて、表示デバイス112の表示画面113に、例えば静止画または動画を表示して、当該表示画像を制御する。
次に、入力装置100における処理の手順について、図2に示すフロー図に従って説明する。本処理は、入力装置100の電源がオンされたときに開始し、オフされたときに終了する。
入力装置100の電源がオンされると、まず、タッチ検出ユニット121は、入力面116に指がタッチされたか否か、すなわち、タッチ操作が開始されたか否かを判断する(S200)。この判断は、入力ユニット110からタッチ位置信号が出力されたか否かにより行うことができる。そして、タッチ検出ユニット121は、タッチ操作が開始されていないときは(S200:No)、ステップS200に戻って処理を繰り返す。
一方、タッチ操作が開始されたときは(S200:Yes)、タッチ検出ユニット121は、タッチ開始信号をタッチ時間計測ユニット122へ送信すると共に、タッチ操作が進行中であることを示すタッチ操作フラグをセットする。
ここで、タッチ検出ユニット121は、図2に示す処理と並行して、入力ユニット110から受信する全てのタッチ位置情報を入力操作特定ユニット123へ出力するものとする。さらに、タッチ検出ユニット121は、図2に示す処理と並行して、入力ユニット110からのタッチ位置情報の受信状態を監視し、所定の時間以上にわたりタッチ位置情報を連続して受信しなかったときは、上記タッチ操作フラグをリセットする。これにより、例えば入力操作特定ユニット123は、タッチ操作フラグを参照することにより、当該フラグがリセットされていれば、タッチ操作が終了したものと判断することができる。
次に、タッチ時間計測ユニット122は、タッチ検出ユニット121からタッチ開始信号を受信したことに応じて、タッチ時間の計測を開始する(S201)。ここで、タッチ時間計測ユニット122は、計測したタッチ時間を、例えば処理装置120が備えるメモリ(不図示)に記憶するものとする。これにより、例えば入力操作特定ユニット123やロングタッチ判定ユニット124は、タッチ時間計測ユニット122が計測したタッチ時間を参照することができる。
次に、入力操作特定ユニット123は、入力ユニット110の入力面116のタッチセンサから受け取ったタッチ位置情報が示すタッチ位置を初期タッチ位置P1として記憶する(S202)。また、閾値設定ユニット125は、入力操作特定ユニット123が指の移動の有無を判定する際に用いる移動距離閾値Lthを初期値L1に設定すると共に、ロングタッチ判定ユニット124がタッチ種別(ロングタッチまたはショートタッチ)を判断する際に用いるタッチ時間閾値Tthの初期値をT1に設定する(S203)。
次に、入力操作特定ユニット123は、入力ユニット110からタッチ検出ユニット121を経由して所定の時間間隔で受信するタッチ位置情報から得られる現在の指のタッチ位置を現在タッチ位置P2)とし(S204)、当該現在タッチ位置P2と、ステップS202で取得した初期タッチ位置P1と、に基づき、入力ユニット110の入力面116内における指の移動距離L(P1,P2)を算出する(S205)。
次に、入力操作特定ユニット123は、移動距離L(P1,P2)が移動距離閾値Lth以下であるか否かを判断し(S206)、L(P1,P2)がLthより大きいときは(S206:No)、入力面116上における指の動きが指の移動を伴うジェスチャー操作であるものと判断し、当該ジェスチャー操作の種類(例えば、スワイプ操作、フリック操作等)を、現在のタッチ操作の種類として更に特定する(S207)。そして、入力操作特定ユニット123は、当該特定した現在のタッチ操作の種類を示す情報(入力操作情報)を、例えば入力処理装置130に出力する(S208)。これにより、入力処理装置130は、当該入力操作情報が示すタッチ操作の種類に応じた所定の動作(例えば、入力装置100の表示デバイス112へのオブジェクト画像などの表示)を実行する。
次に、入力操作特定ユニット123は、タッチ操作フラグを参照して、タッチ操作が終了したか否かを判断し(S209)、終了したときは(S209;Yes)、ステップS200に戻って処理を繰り返す。一方、タッチ操作が継続しているときは(S209:No)、ステップS204に戻って処理を繰り返す。
ステップS206に戻り、L(P1,P2)がLth以下であるときは(S206:Yes)、入力操作特定ユニット123は、現在のタッチ操作が指の移動を伴わないタップ操作であるものと判断し、タッチ時間Tが所定の閾値Tp以上であるか否かを判断する(S216)。そして、タッチ時間Tが閾値Tp以上であるときは(S216、Yes)、次に、タッチ操作フラグを参照して、タッチ操作が終了したか否かを判断し(S218)、タッチ操作が終了していなければ(S218、No)、現在のタッチ操作をロングタップ操作の開始又は継続であるものと特定して、当該特定の結果(すなわち、ロングタップ動作が開始されたか又は継続されていること)を示す入力操作情報を入力処理装置130に出力し(S219)、ステップS228に処理を移す。
一方、ステップS218においてタッチ操作が終了していると判断されるときは(S218、Yes)、入力操作特定ユニット123は、ロングタップ操作が終了したものと判断し、ロングタップ操作が終了したことを示す入力操作情報を入力処理装置130へ出力した後(S222)、ステップS200に戻って処理を繰り返す。
一方、ステップS216において、タッチ時間Tが閾値Tp未満であると判断されるときは(S216、No)、入力操作特定ユニット123は、タッチ操作が終了したか否かを判断し(S224)、タッチ操作が終了していれば(S224、Yes)、現在のタッチ操作をショートタップ操作として特定して、当該特定の結果を示す入力操作情報を、例えば入力処理装置130に出力し(S226)、ステップS200に戻って処理を繰り返す。一方、タッチ操作が終了していないときは(S224、No)、入力操作特定ユニット123は、ステップS204に戻って処理を繰り返す。
次に、ロングタッチ判定ユニット124は、タッチ時間計測ユニット122が計測したタッチ時間Tを参照し、当該タッチ時間Tが、タッチ時間閾値Tthを超えているか否かを判断し(S228)、タッチ時間Tがタッチ時間閾値Tth以下(T≦Tth)のときは(S228:No)、S203に処理を戻す。
一方、ロングタッチ判定ユニット124は、タッチ時間Tがタッチ時間閾値Tthよりも大きい(T>Tth)ときは(S228:Yes)、閾値設定ユニット125に、その旨を示す信号を送信し、閾値設定ユニット125は、当該信号を受信したことに応じて、移動距離閾値Lthを、初期値L1よりも大きな所定の値を持つL2に設定し(S230)、ステップS204に処理を移す。
なお、初期値L1からL2へ変更された移動距離閾値Lthは、タッチ操作が終了し再びタッチ操作が開始されたときに(すなわち、入力面116から指が離された後、再び指が入力面116にタッチされたときに)、図2の処理が新たに開始されてステップS203が実行されたときに、初期値L1に戻される。
また、ステップS201においてタッチ時間計測ユニット122が計測を開始したタッチ時間は、例えば、タッチ時間計測ユニット122が、定期的にタッチ操作フラグを参照して、当該タッチ操作フラグがリセットされたことに応じて、ゼロにリセットするものとすることができる。
また、本処理(図2)は、入力装置100の電源がオフされたときに終了する。
上記処理により、タッチ時間Tがタッチ時間閾値Tthを超えた場合には、移動距離閾値Lthは初期値L1よりも大きな値L2に設定されることから、タッチ操作の開始直後に比べてより大きく指を動かしたときにのみ、当該指の動き(タッチ操作)がジェスチャー操作として識別されることとなる。その結果、例えば車両内等において突然の振動や揺れに起因して値L1を超える意図しない指の移動が発生したとしても、当該意図しない指の移動の距離Lが値L2未満に留まっている限り、入力操作についての誤認識は生じず、ユーザの意図する入力操作が正しく認識されることとなる。
また、初期値L1からL2への移動距離閾値Lthの変更(ステップS230)は、タッチ時間Tがタッチ時間閾値Tthを超える「ロングタッチ」と判定されたとき(ステップS228においてYesの場合)にのみ実行される処理であるため、ショートタップ操作、フリック操作などの、タッチ時間がタッチ時間閾値Tthより短い他のジェスチャー操作の際には初期値L1からL2への移動距離閾値Lthの変更は行われず、当該他のジェスチャー操作は通常どおりの正確に特定され得る。
なお、図2に示すフロー図では、タッチ位置の移動距離Lが移動距離閾値Lthを超えたときに、現在のタッチ操作が指の移動を伴うジェスチャー操作であるものと判断することとしたが、これに限らず、タッチ時間が所定の時間を超えたときには、例えばステップS206の処理をスキップする(実行しない)ことにより、現在のタッチ操作を、指の移動を伴うジェスチャー操作ではないものと(すなわち、指の移動を伴わないタップ操作であるものと)して処理してもよい。これにより、ユーザがロングタップ操作を行うことを意図して指の移動を伴うことなく上記所定の時間を超えてタッチ操作を継続した場合には、その後に意図しない指の移動が発生しても、当該意図しない移動がジェスチャー操作として認識されることがないので、上記ユーザが意図したロングタップ操作が正しく認識され続けることとなる。
また、本実施形態では、L2を予め定めた固定値としたが、これに限らず、タッチ時間Tに応じて、所定の最大値まで徐々に増加する値として設定することができる。例えば、閾値設定ユニット125は、図2のステップS230において、L2を式(1)及び(2)により算出して、当該算出したL2をLthに設定するものとすることができる。
Tth<T<T2のとき、L2=α×(T−Tth)+L1 (1)
T>T2のとき、L2=α×(T2−Tth)+L1 (2)
ここに、Tはタッチ時間である。これにより、L2は、タッチ時間TがTthを超えると、比例係数αで定まる傾斜を持って徐々に、最大値[α×(T2−Tth)]まで増加するものとすることができる。
さらに、図2に示すフロー図では、タッチ時間Tが所定の閾値Tp未満においてタッチ操作が終了したときに、当該タッチ操作がショートタップ操作であるものと判断して(S216、S224)、入力操作情報を出力し(S226)、ステップS200に戻って新たなタッチ操作の開始を待機するものとしたが、これに限らず、ステップS216、S224において一のショートタップ操作を特定したときに、次のタッチ操作開始までの時間(インターバル)を計測し、新たに実行されたステップS216、S224において当該次のタッチ操作がショートタップ操作であって当該インターバルが所定時間より短いときに、上記一のショートタップ操作と上記次のショートタップ操作とを一連ものとして特定するものとすることができる。これにより、例えばダブルタップ操作を特定することができる。
<第2実施形態>
次に、本発明の第2の実施形態に係る入力装置について説明する。
一般に、ユーザの周囲環境における振動や揺れ(例えば、ユーザが乗車する車両の振動や揺れ)が当該ユーザのタッチ操作に与える影響の程度は、当該ユーザが当該タッチ操作にどの程度集中できるか、又はどの程度集中できないか(以下、操作困難度という)に依存する。すなわち、環境における振動や揺れの程度が同じでも、タッチ操作に集中できる(操作困難度の低い)ユーザが行うタッチ操作では、タッチ操作に集中できない(操作困難度の高い)ユーザが行うタッチ操作に比べて、ユーザの意図しない指の動きの程度(大きさ)は小さく、ユーザが意図する操作についての認識誤りは生じにくい。
第1の実施形態に係る入力装置100では、タッチ時間Tが時間閾値Tthより大きくなったときに移動距離閾値Lthに設定されるL2は予め定められた固定値であり、移動距離閾値Lthの設定に際して、タッチ操作を行うときのユーザの操作困難度は考慮されない。したがって、L2の値を、操作困難度の高いユーザに合わせて大きな値に定めておいた場合には、操作困難度の低い状況において操作を行うユーザにとっては、不要に大きな指の移動を行わないとジェスチャー操作が認識されないこととなり、煩わしさを感じる場合が生じ得る。
これに対し、本実施形態に係る入力装置では、特に当該入力装置が移動体内(例えば車両内)に設けられる場合を想定し、タッチ時間の長短のほか、当該移動体の運転状態(例えば、速度、加速度、操舵角等)、当該移動体の周囲環境(例えば、周囲に存在する物体の数)、及び又はタッチ操作の操作者の種類(例えば、当該移動体の運転者か否か)から決定される操作困難度にも基づいて、移動距離閾値Lthが決定される。
これにより、本実施形態に係る入力装置では、タッチ操作を行う操作者の操作困難度に応じて、ジェスチャー操作を特定する感度を適切に保ちつつ、ユーザが意図する入力操作についての認識誤りを防止又は抑制することができる。例えば、運転者は同乗者よりも操作困難度が高く、また移動体の速度、加速度、及び又は操舵角が大きいほど操作困難度が高いので、操作者が運転者であるときは、操作者が同乗者である場合にくらべて移動距離閾値Lthを大きな値に設定し、及び又は移動体の速度、加速度、操舵角が大きいほど、移動距離閾値Lthを大きな値に設定する。
図3は、本実施形態に係る入力装置600の構成を示す図である。なお、本入力装置600は、移動体である車両内に設けられて使用されるものとする。また、図3に示す入力装置600において、図1に示す入力装置100と同じ構成要素については図1と同じ符号を用いて示すものとし、上述した図1についての説明を援用するものとする。
本入力装置600は、第1の実施形態に係る入力装置100と同様の構成を有するが、処理装置120に代えて、処理装置620を有する点が異なる。また、処理装置620は、処理装置120と同様の構成を有するが、閾値設定ユニット125に代えて、閾値設定ユニット625を備える点が異なる。また、処理装置600は、操作困難度算出手段である操作困難度算出ユニット607と、操作ユーザ特定手段である操作ユーザ特定ユニット608と、周囲状況検出ユニット604と、ユーザ検出ユニット605と、を更に備える。なお、処理装置620は、処理装置120と同様に、CPU等のプロセッサ、プログラムが書き込まれたROM、データの一時記憶のためのRAM等を有するコンピュータであり、処理装置620が備える上記各ユニットは、コンピュータである処理装置620がプログラムを実行することにより実現される。これに代えて又はこれに加えて、当該各ユニットの全部又は一部を、それぞれ一つ以上の電子回路部品を含むハードウェアにより構成することもできる。なお、処理装置620が実行する上記コンピュータ・プログラムは、コンピュータ読み取り可能な任意の記憶媒体に記憶させておくことができる。
また、上記入力装置600は、入力処理装置130と接続されるほか、当該入力装置600が設けられた車両(以下、自車両)の電子制御装置(ECU、Electronic Control Unit)と接続されて、自車両の速度(車速)及び加速度(例えば、自車両の進行方向に沿った加速度である縦方向加速度)、並びに自車両が備えるカメラからの、当該自車両の周囲環境の画像、及び当該自車両の車室内の画像、を受信する。
周囲状況検出ユニット604は、自車両が備える電子制御装置から周囲環境の画像を取得し、当該取得した画像から、例えば車両前方に存在する物体(例えば、他車両や歩行者)を検知して、当該検知した物体(周囲物体)の数を、操作困難度算出ユニット607へ出力する。
操作困難度算出ユニット607は、移動体である自車両の室内環境における、入力装置100に対するタッチ操作についての操作困難度を算出し、当該算出した操作困難度を閾値設定ユニット625に出力する。本実施例では、操作困難度算出ユニット607は、自車両が備える電子制御装置から受信される、自車両の速度、加速度、操舵角と、周囲状況検出ユニット604が出力する周囲物体の数と、後述する操作ユーザ特定ユニット608からの、タッチ操作の操作者が運転者か否かの識別情報と、に基づいて、操作困難度を算出する。
例えば、操作困難度算出ユニット607は、電子制御装置から受信する現在の速度、加速度、操舵角と、周囲状況検出ユニット604から受信する周囲物体数と、操作ユーザ特定ユニット608が特定した操作者の種類(運転者か否か等)についての情報と、に基づいて、現在の速度、加速度、操舵角、周囲物体数、及び操作者種類のそれぞれについてのスコアを決定し、当該決定したスコアを重み付け加算して、操作困難度を算出するものとすることができる。
スコアについては、例えば、速度、加速度、操舵角(例えばその絶対値)、周囲物体数のそれぞれについて、それらの値の範囲に応じたスコアを定めたマップ(スコアマップ)を予め定義してメモリ(不図示)に記憶しておくと共に、タッチ操作の操作者の種類(例えば、運転者か否か)に応じたスコアを定めたスコアマップを予め定義して当該メモリに記憶しておくものとし、操作困難度算出ユニット607は、これらのスコアマップを参照して、現在の各スコアを決定するものとすることができる。
また、スコアマップは、例えば、速度、加速度、操舵角(例えばその絶対値)、周囲物体数の値が大きいほど、及び入力装置100の操作者が運転者以外の者であるときよりも運転者であるときに、それぞれ対応するスコアの値が大きな値を持つように定めるものとすることができる。例えば、速度のスコアは、速度30km/h未満、30km/h以上50km未満、50km/h以上70km/h未満、70km/h以上100km/h未満、100km/h以上の範囲に対し、それぞれ値0、1、2、3、4をとるように定めておくことができ、加速度、操舵角、周囲物体数のスコアも、これと同様に定めておくことができる。また、操作者についてのスコアは、例えば、運転者でなければ値0、運転者であれば値4をとるように定めておくことができる。
上記の場合、例えば、操作困難度Dは、以下のように算出される。
D=(a×Sp+b×Sa+c×Sθ+d×Sp+e×So)÷Smax1
ここに、Ss、Sa、Sθ、Sp、Soは、それぞれ速度、加速度、操舵角、周囲物体数、及び操作者種類についてのスコアであり、a、b、c、d、eは、重み付け係数である。また、Smax1は、速度、加速度、操舵角、周囲物体数、操作者種類についてのスコアSs、Sa、Sθ、Sp、Soが全て最大スコアである場合の(a×Sp+b×Sa+c×Sθ+d×Sp+e×So)の値、すなわち(a×Sp+b×Sa+c×Sθ+d×Sp+e×So)の最大値である。従って、操作困難度は、0〜1の範囲の値で与えられることとなる。また、上記の例のようにスコアマップを定めれば、速度、加速度、操舵角(の絶対値)、周囲物体数の値が大きいほど、及び操作者が運転者以外の者であるときより操作者が運転者であるときに、操作困難度Dは大きな値として算出される。
あるいは、上述のように速度、加速度、操舵角について、それぞれスコアを定める代わりに、予め、速度、加速度、操舵角の3つのパラメータの値の組み合わせと、意図せずに発生する指の移動距離との相関関係を求め、当該移動距離の範囲に応じてスコアを定めることで、速度、加速度、操舵角の3つの値の組み合わせとスコアとの対応関係を定めたスコアマップを定義してもよい。この場合には、操作困難度算出ユニット607は、速度、加速度、操舵角の3つの値の組み合わせに応じて定まるスコアと、上述した周囲物体の数についてのスコアから、操作困難度を定めるものとすることができる。この場合、操作困難度Dは、例えば以下のように算出される。
D=(f×Si+g×Sp+h×So)÷Smax2
ここに、Siは、速度、加速度、操舵角の値の組み合わせから定まるスコアであり、Sp及びSoは、上述したように、それぞれ周囲物体数及び操作者についてのスコアである。また、f、g、hは、重み付け係数である。さらに、Smax2は、スコアSi、Sp、Soが全て最大スコアである場合の(f×Si+g×Sp+h×So)の値、すなわち(f×Si+g×Sp+h×So)の最大値である。従って、操作困難度は、0〜1の範囲の値で与えられることとなる。
なお、操作困難度の算出方法は、上記に限らず、移動体である車両内におけるタッチ操作の困難性を統合的に評価し得る任意の方法を用いることができる。例えば、速度、加速度、操舵角、又は周囲物体の数に代えて、又はこれらに加えて、車両間通信や路車間通信等を介して受信される渋滞情報から得られる車両混雑の程度、車載の加速度センサから得られる路面の凹凸の程度などを、操作困難度の算出に用いることができる。
操作ユーザ特定ユニット608は、自車両が備える電子制御装置から受信される自車両の車室内の画像から、入力装置600に対するタッチ操作の操作者が運転者であるか否かを判定する。そして、操作ユーザ特定ユニット608は、当該判定の結果を、操作困難度算出ユニット607と、閾値設定ユニット125と、に出力する。
閾値設定ユニット625は、第1の実施形態に係る入力装置100の閾値設定ユニット125と同様の構成を有するが、L2及びT1を、操作困難度に基づいて算出する点が異なる。すなわち、閾値設定ユニット125では、移動距離閾値Lthに設定されるL2は予め定められた固定値であり、タッチ時間閾値Tthに設定されるT1も予め定められた固定値であるのに対し、閾値設定ユニット625では、L2及びT1が、操作困難度に基づいてそれぞれ適応的に算出される。
例えば、閾値設定ユニット625は、L2及びT1を、それぞれ、操作困難度Dの増加とともに増加する値、及び操作困難度Dの増加と共に減少する値として算出する。
より具体的には、閾値設定ユニット625は、L2及びT1を、例えば式(3)及び式(4)により、それぞれ、操作困難度Dに比例して増加する値、及び操作困難度Dに比例して減少する値として算出する。
L2=j×D+k (3)
T1=−m×D+n (4)
ここに、j、mは比例係数、k、nはそれぞれL2及びT1の最小値を与えるオフセット値である。ここで、j、k、m、nは正の実数である。特に、kは、例えばL1と同じ値か、又はL1より大きな値に設定されるものとすることができる。
なお、本実施形態に係る入力装置600は、T1,L2の値の決定に関する処理を除き、図2に示す第1の実施形態に係る入力装置100における処理と同様の処理を実行する。従い、T1,L2の値の決定に関する事項以外の説明については、上述した図2についての説明を援用するものとする。
なお、本実施形態では、操作ユーザ特定ユニット608は、移動体である自車両が備える車室内を撮影するカメラからの画像に基づいて、入力装置600に対する入力操作(タッチ操作)の操作者が運転者か否かを判断するものとしたが、これに限らず、当該カメラからの車室内の画像に代えて、例えば入力面116と当該入力面116に接触又は近接する物体の角度に基づいて、当該操作者が運転者か否かを判断するものとしてもよい。このような物体の角度は、例えば入力ユニット110を静電容量式タッチセンサとし、入力面116における容量分布から特定されるものとすることができる。また、入力操作の操作者が運転者か否かを特定するほか、車室内における操作者の位置(例えば、操作者が前部座席に座っている同乗者か、後部座席に座っている同乗者であるか等)や、子供か大人かの区別等をも判断するものとして、これらの判断の結果として得られたユーザ種類の特定結果に応じて、移動距離閾値Lthや時間閾値Tthを変更するものとしてもよい。
また、本実施形態では、移動体の運転状態として速度、加速度(例えば、当該移動体の進行方向に沿った加速度である縦方向加速度)、及び又は操舵角を用いるものとしたが、操舵角に代えて、横方向加速度(当該移動体の進行方向に垂直な方向に沿った加速度)を用いるものとしてもよい。
また、本実施形態では、操作困難度Dに応じて時間閾値Tthに設定するT1の値を決定するものとしたが、これに限らず、操作者が運手者であるか否かのみに基づいて、T1の値を、操作者が運転者であるときは、操作者が運転者以外の者であるときに比べて小さく(短く)設定するものとしてもよい。
以上、説明したように、本発明の入力装置100,600では、タッチ操作が開始された後の時間(タッチ時間)が所定の時間閾値を超えたときに、当該タッチ操作における指の移動距離に基づいて当該タッチ操作が指の移動を伴うジェスチャー操作であるか否かを判断するための移動距離閾値を、より長く設定する。これにより、入力操作(タッチ操作)の時間が或る程度長く、当該入力操作の途中において突発的に振動や揺れなどにより指やタッチペンが意図しない方向へと移動した場合でも、意図された入力操作が誤って認識されることを防止することができる。
なお、本発明は本実施形態またはその変形例1〜4に限定されることはなく、例えば、上述した本実施形態および変形例1〜4を必要に応じて組み合わせて所望の入力装置や処理フローを構成するなど、本発明の趣旨を逸脱しない範囲において改変して用いることができる。
100,600・・入力装置、110・・・入力装置、112・・・表示デバイス、113・・・表示画面、114・・・タッチセンサ、116・・・入力面、120、620・・・処理装置、121・・・タッチ検出ユニット、122・・・タッチ時間計測ユニット、123・・・入力操作特定ユニット、124・・・ロングタッチ判定ユニット、125、625・・・閾値設定ユニット、126・・・表示制御ユニット、130・・・入力処理装置、607・・・操作困難度算出ユニット、608・・・操作ユーザ判定ユニット。

Claims (9)

  1. 入力面に物体を接触又は近接させる操作により入力操作が行われる入力装置であって、
    前記入力面上を前記物体が移動した距離である移動距離が所定の距離閾値を超えたか否かに基づいて、上記入力操作の種類を特定する入力操作特定手段と、
    前記入力面に前記物体が接触又は近接している時間であるタッチ時間を計測するタッチ時間計測手段と、
    前記距離閾値を設定する閾値設定手段と、
    を備え、
    前記閾値設定手段は、前記タッチ時間に応じて前記距離閾値を設定し、所定のタッチ時間における距離閾値よりも、当該所定のタッチ時間よりも長いタッチ時間における距離閾値の方が大きくなるように設定する、
    入力装置。
  2. 前記入力装置が使用される環境の状態から、ユーザが前記入力操作を行うことについての困難度を算出する操作困難度算出手段、を更に備え、
    前記閾値設定手段は、前記困難度が高いほど、前記距離閾値をより大きな値に設定する、
    請求項1に記載の入力装置。
  3. 前記入力装置は移動体に搭載され、
    前記操作困難度算出手段は、前記移動体の運転状態、及び又は前記移動体の周囲状況に基づき、前記困難度を算出する、
    請求項2に記載の入力装置。
  4. 前記移動体の前記運転状態は、前記移動体の現在の速度、縦方向加速度、横方向加速度、及び又は操舵角であり、
    前記移動体の前記周囲状況は、前記移動体の周囲で検知される物体の数である、
    請求項3に記載の入力装置。
  5. 前記閾値設定手段は、前記タッチ時間に応じて、所定の値まで徐々に増加するように前記距離閾値を設定する、
    請求項1ないし4のいずれか一項に記載の入力装置。
  6. 前記閾値設定手段は、前記タッチ時間が第1の所定の時間閾値を超える場合に、前記第1の所定の時間閾値を超えない場合よりも前記距離閾値を大きな値に設定する、
    請求項1ないし4のいずれか一項に記載の入力装置。
  7. 前記入力操作を行っているユーザを特定する操作ユーザ特定手段をさらに備え、
    前記閾値設定手段は、前記操作ユーザ特定手段におけるユーザ特定の結果に応じて、前記距離閾値及び又は前記第1の所定の時間閾値を設定する、
    請求項6のいずれか一項に記載の入力装置。
  8. 前記入力装置は移動体に搭載され、
    前記操作ユーザ特定手段は、前記ユーザが前記移動体の運転者であるか、運転者以外の者であるかを特定し、
    前記閾値設定手段は、前記ユーザが前記運転者であるときは、前記ユーザが前記運転者以外の者であるときに比べて、前記第1の所定の時間閾値を小さく設定する、
    請求項7に記載の入力装置。
  9. 前記入力操作特定手段は、前記移動距離が前記距離閾値を超えることなく前記タッチ時間が第2の所定の時間閾値を超えたときは、前記入力操作を、前記入力面上における前記物体の移動を伴わない操作であると判断する、
    請求項1ないし8のいずれか一項に記載の入力装置。
JP2016151820A 2016-08-02 2016-08-02 入力装置 Expired - Fee Related JP6323960B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016151820A JP6323960B2 (ja) 2016-08-02 2016-08-02 入力装置
US15/661,299 US10289249B2 (en) 2016-08-02 2017-07-27 Input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016151820A JP6323960B2 (ja) 2016-08-02 2016-08-02 入力装置

Publications (2)

Publication Number Publication Date
JP2018022263A true JP2018022263A (ja) 2018-02-08
JP6323960B2 JP6323960B2 (ja) 2018-05-16

Family

ID=61069871

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016151820A Expired - Fee Related JP6323960B2 (ja) 2016-08-02 2016-08-02 入力装置

Country Status (2)

Country Link
US (1) US10289249B2 (ja)
JP (1) JP6323960B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110275636A (zh) * 2019-06-11 2019-09-24 广州小鹏汽车科技有限公司 一种触控防抖方法、装置、系统、终端设备及车辆

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DK180470B1 (en) 2017-08-31 2021-05-06 Apple Inc Systems, procedures, and graphical user interfaces for interacting with augmented and virtual reality environments
DK201870347A1 (en) 2018-01-24 2019-10-08 Apple Inc. Devices, Methods, and Graphical User Interfaces for System-Wide Behavior for 3D Models
DE112018006732B4 (de) * 2018-01-31 2022-03-10 Mitsubishi Electric Corporation Berührungsbildschirmvorrichtung
WO2019176009A1 (ja) * 2018-03-14 2019-09-19 マクセル株式会社 携帯情報端末
JP7336228B2 (ja) * 2019-03-27 2023-08-31 株式会社Subaru 車両の非接触操作装置、および車両
US11301128B2 (en) * 2019-05-01 2022-04-12 Google Llc Intended input to a user interface from detected gesture positions

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004355426A (ja) * 2003-05-30 2004-12-16 Hitachi Ltd タッチパネル操作性向上ソフトウェア及び端末
JP2009151691A (ja) * 2007-12-21 2009-07-09 Sony Corp 情報処理装置及びタッチ動作認識方法
JP2010179828A (ja) * 2009-02-06 2010-08-19 Denso Corp 車両用操作入力装置
JP2011134212A (ja) * 2009-12-25 2011-07-07 Canon Inc 入力装置、入力装置の制御方法、プログラムおよび記憶媒体
WO2013122231A1 (ja) * 2012-02-16 2013-08-22 シャープ株式会社 情報処理装置
JP2013182528A (ja) * 2012-03-02 2013-09-12 Konica Minolta Inc 情報処理装置、プログラム
JP2014048971A (ja) * 2012-08-31 2014-03-17 Sharp Corp 入力装置、入力装置の制御方法、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4092008B2 (ja) * 1998-03-17 2008-05-28 本田技研工業株式会社 操作装置
US7055749B2 (en) * 2002-06-03 2006-06-06 Symbol Technologies, Inc. Re-configurable trigger assembly
US9710154B2 (en) * 2010-09-03 2017-07-18 Microsoft Technology Licensing, Llc Dynamic gesture parameters
JP6155872B2 (ja) * 2013-06-12 2017-07-05 富士通株式会社 端末装置、入力補正プログラム及び入力補正方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004355426A (ja) * 2003-05-30 2004-12-16 Hitachi Ltd タッチパネル操作性向上ソフトウェア及び端末
JP2009151691A (ja) * 2007-12-21 2009-07-09 Sony Corp 情報処理装置及びタッチ動作認識方法
JP2010179828A (ja) * 2009-02-06 2010-08-19 Denso Corp 車両用操作入力装置
JP2011134212A (ja) * 2009-12-25 2011-07-07 Canon Inc 入力装置、入力装置の制御方法、プログラムおよび記憶媒体
WO2013122231A1 (ja) * 2012-02-16 2013-08-22 シャープ株式会社 情報処理装置
JP2013182528A (ja) * 2012-03-02 2013-09-12 Konica Minolta Inc 情報処理装置、プログラム
JP2014048971A (ja) * 2012-08-31 2014-03-17 Sharp Corp 入力装置、入力装置の制御方法、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110275636A (zh) * 2019-06-11 2019-09-24 广州小鹏汽车科技有限公司 一种触控防抖方法、装置、系统、终端设备及车辆
CN110275636B (zh) * 2019-06-11 2022-12-13 广州小鹏汽车科技有限公司 一种触控防抖方法、装置、系统、终端设备及车辆

Also Published As

Publication number Publication date
US20180039377A1 (en) 2018-02-08
US10289249B2 (en) 2019-05-14
JP6323960B2 (ja) 2018-05-16

Similar Documents

Publication Publication Date Title
JP6323960B2 (ja) 入力装置
US10739912B2 (en) Enhancing touch-sensitive device precision
CN105320379B (zh) 触摸式输入装置
US10035539B2 (en) Steering wheel control system
US9355805B2 (en) Input device
JP2014225245A (ja) 交通情報呈示システム、交通情報呈示方法および電子デバイス
JP2011003202A5 (ja) 情報処理装置、情報処理方法、及びプログラム
US20170139479A1 (en) Tactile sensation control system and tactile sensation control method
CN107547738B (zh) 一种提示方法及移动终端
US20170115734A1 (en) Tactile sensation control system and tactile sensation control method
JP2013186661A (ja) 入力検出システム
US20150089441A1 (en) Touch switch module
US9823780B2 (en) Touch operation detection apparatus
US20150378504A1 (en) Operation detective device
JP6125310B2 (ja) 入力装置及びコンピュータプログラム
JP5098596B2 (ja) 車両用表示装置
JP6149555B2 (ja) タッチパネル装置
US9947081B2 (en) Display control system and display control method
US20190332242A1 (en) Coordinate input device
KR20140117951A (ko) 터치패널 상에서의 입력좌표 판단방법 및 판단장치
JP2013134717A (ja) 操作入力システム
JP5870689B2 (ja) 操作入力システム
WO2017163733A1 (ja) 操作装置
JP2013142943A (ja) タッチ入力装置
JP5921698B2 (ja) 表示装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180409

R150 Certificate of patent or registration of utility model

Ref document number: 6323960

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees