JP2020086998A - 入力デバイス、自動車 - Google Patents

入力デバイス、自動車 Download PDF

Info

Publication number
JP2020086998A
JP2020086998A JP2018221259A JP2018221259A JP2020086998A JP 2020086998 A JP2020086998 A JP 2020086998A JP 2018221259 A JP2018221259 A JP 2018221259A JP 2018221259 A JP2018221259 A JP 2018221259A JP 2020086998 A JP2020086998 A JP 2020086998A
Authority
JP
Japan
Prior art keywords
input device
input
camera
touch sensor
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018221259A
Other languages
English (en)
Other versions
JP7280032B2 (ja
Inventor
弘敏 臼井
Hirotoshi Usui
弘敏 臼井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rohm Co Ltd
Original Assignee
Rohm Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rohm Co Ltd filed Critical Rohm Co Ltd
Priority to JP2018221259A priority Critical patent/JP7280032B2/ja
Priority to US16/694,061 priority patent/US11941208B2/en
Publication of JP2020086998A publication Critical patent/JP2020086998A/ja
Application granted granted Critical
Publication of JP7280032B2 publication Critical patent/JP7280032B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0264Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for control means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/039Accessories therefor, e.g. mouse pads
    • G06F3/0393Accessories for touch pads or touch screens, e.g. mechanical guides added to touch screens for drawing straight lines, hard keys overlaying touch screens or touch pads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】直感的あるいは大雑把な入力を検出することに適した新規な入力デバイスおよび自動車を提供する。【解決手段】入力デバイス100は、透明な基材112を有する筐体110と、基材に設けられたタッチセンサ120と、筐体の内側に設けられ、基材を介して、外側を監視するカメラ130と、を備え、カメラを介して入力したユーザの掌の向きやジェスチャーに応じてタッチパネル出力を制御する。入力デバイスは、カメラの出力とタッチセンサの出力を受ける処理部をさらに備える。処理部は、カメラの出力にもとづいて、ユーザの掌の向きを判定する。【効果】ユーザが、掌を入力デバイスに向けているのか、あるいは手の甲を入力デバイスに向けているのか、あるいは入力デバイスに対して掌を垂直に向けているのかなどを区別でき、手の向きを利用したジェスチャ入力などが可能となる。【選択図】図1

Description

本発明は、入力デバイスに関する。
さまざまな用途で、ユーザの意思を電気的な信号に変換する入力デバイスが用いられている。古典的な入力デバイスは、機械的なスイッチやボタンであり、近年では、タッチパネルなどの電子的な入力デバイスが提供されている。
タッチパネルのみでは、ユーザによる意図した入力であるか、意図しない入力であるかを区別することができない。また静電容量スイッチを用いる場合、水滴を誤検知する場合もある。
加えて従来のタッチパネルは、分解能が高いゆえに、細かい入力に最適化されていると言える。ところが運転中にタッチパネルを操作するようなケースでは、タッチパネルを注視できないことから、ユーザが細かい入力を行うことが難しい。したがってこのようなケースではむしろ、掌や指、腕等を利用した直感的あるいは大雑把な入力を検出することに適した入力デバイスが求められる。
本発明は係る状況においてなされたものであり、そのある態様の例示的な目的のひとつは、新規な入力デバイスの提供にある。
本発明のある態様は、入力デバイスに関する。入力デバイスは、透明な基材を有する筐体と、基材に設けられたタッチセンサと、筐体の内側に設けられ、基材を介して、外側を監視するカメラと、を備える。
なお、以上の構成要素を任意に組み合わせたもの、あるいは本発明の表現を、方法、装置などの間で変換したものもまた、本発明の態様として有効である。
本発明のある態様によれば、新規な入力デバイスを提供できる。
実施の形態に係る入力デバイスの斜視図である。 図1の入力デバイスのブロック図である。 図3(a)〜(h)は、カメラ画像の例を示す図である。 複数の人物によって入力デバイスが操作可能な状況を示す図である。 複数の人物によって入力デバイスが操作可能な別の状況を示す図である。 図6(a)〜(c)は複数の人物それぞれが入力したときのカメラ画像を示す。 図7(a)〜(d)は、パネルの構成例を示す図である。 図8(a)、(b)は、図7(a)、(b)のパネルに対する操作入力を示す図である。 図9(a)は、図8(a)において手を上から下に移動したときの、複数の電極の静電容量の変化を示す図であり、図9(b)は、図8(a)において手を左から右に移動したときの、複数の電極の静電容量の変化を示す図である。 カメラ画像とタッチセンサの出力の組み合わせに基づく制御の一例を示す図である。 入力デバイスを備える自動車の室内を示す図である。 図12(a)は、変形例1に係る入力デバイスを示す図であり、図12(b)は、変形例2に係る入力デバイスを示す図である。 変形例3に係る入力デバイスを示す図である。
(実施の形態の概要)
本明細書に開示される一実施の形態は、入力デバイスに関する。この入力デバイスは、透明な基材を有する筐体と、基材に設けられたタッチセンサと、筐体の内側に設けられ、基材を介して外側を監視するカメラと、を備える。
この態様によると、カメラの画像とタッチセンサの出力を組み合わせることにより、従来の入力デバイスでは提供できない斬新な、あるいは新規な操作入力を提供できる。
入力デバイスは、カメラの出力とタッチセンサの出力を受ける処理部をさらに備えてもよい。あるいは処理部による処理は、外部で行ってもよい。
入力デバイスは、所定のユーザによって使用されるべきものであってもよい。このとき処理部は、カメラの出力にもとづいて、タッチセンサへの現在の入力が、所定のユーザによるものであるか否かを判定してもよい。これにより所定のユーザ以外の入力については無効とすることができる。
処理部は、カメラの出力にもとづいて、ユーザの掌の向きを判定してもよい。これにより、ユーザが、掌を入力デバイスに向けているのか、あるいは手の甲を入力デバイスに向けているのか、あるいは入力デバイスに対して掌を垂直に向けているのかなどを区別でき、手の向きを利用したジェスチャ入力などが可能となる。あるいは特定の状態のみ有効な入力として扱うことも可能である。
処理部は、カメラの出力にもとづいて、ユーザの手の形を判定してもよい。手の形のバリエーションとしては、グー、チョキ、パーや、ハンドサイン、指の曲げている本数(伸ばしている本数)が異なる形などが例示される。
入力デバイスは、異なる方向からアクセスする複数のユーザによって使用されるべきものであってもよい。処理部は、カメラの出力にもとづいて、タッチセンサへの現在の入力が、いずれのユーザによるものであるか否かを判定してもよい。たとえば入力デバイスを挟んで二名のユーザが対峙する場合に、いずれのユーザの手かをカメラ画像にもとづいて判定することにより、タッチセンサへの入力がいずれのユーザのものかを判定できる。
基材は平坦であってもよい。基材は曲面を有してもよい。
以下、本発明を好適な実施の形態をもとに図面を参照しながら説明する。各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、実施の形態は、発明を限定するものではなく例示であって、実施の形態に記述されるすべての特徴やその組み合わせは、必ずしも発明の本質的なものであるとは限らない。
本明細書において、「部材Aが、部材Bと接続された状態」とは、部材Aと部材Bが物理的に直接的に接続される場合のほか、部材Aと部材Bが、それらの電気的な接続状態に実質的な影響を及ぼさない、あるいはそれらの結合により奏される機能や効果を損なわせない、その他の部材を介して間接的に接続される場合も含む。
同様に、「部材Cが、部材Aと部材Bの間に設けられた状態」とは、部材Aと部材C、あるいは部材Bと部材Cが直接的に接続される場合のほか、それらの電気的な接続状態に実質的な影響を及ぼさない、あるいはそれらの結合により奏される機能や効果を損なわせない、その他の部材を介して間接的に接続される場合も含む。
図1は、実施の形態に係る入力デバイス100の斜視図である。入力デバイス100は、筐体110、タッチセンサ120、カメラ130を備える。筐体110は、その上面に透明な基材112を有する。本実施の形態では基材112は平坦である。
タッチセンサ120は、基材112に設けられている。なおタッチセンサ120は、静電容量スイッチが好適であり、本明細書におけるタッチセンサ120は、非接触型の近接センサも含みうる。図1においてタッチセンサ120の外形を矩形で示すが、それは電極の配置や形状を限定する趣旨ではない。
入力デバイス100は、ユーザの手2あるいは指の状態を監視し、有効な入力の発生や、入力の種類を判定する。
カメラ130は、筐体110の内側に設けられ、基材112を介して筐体110の外側を監視する。従って基材112およびタッチセンサ120のパネルは、少なくともカメラ130が感度を有する波長領域において透明である。
図2は、図1の入力デバイス100のブロック図である。タッチセンサ120は、パネル122およびパネルコントローラ124を含む。パネル122は、複数の電極E1〜Enを含む。パネルコントローラ124は、複数の電極E1〜Enを制御し、それぞれがユーザの手2との間に形成する静電容量を検出する。検出された複数の静電容量の値や分布、組み合わせにもとづいて、(i)ユーザの手2が、いずれの電極に近接しているか、(ii)ユーザの手2がパネル122にどの程度近接しているか、などを判定することができる。
処理部140は、カメラ130の出力とタッチセンサ120の出力を受け、それらを統合的処理し、ユーザによる入力の有無や、入力の種類、複数のユーザが存在する場合、いずれのユーザによる入力であるか、などを判定する。
以上が入力デバイス100の基本構成である。この入力デバイス100によると、カメラ130の画像とタッチセンサ120の出力を組み合わせることにより、従来の入力デバイスでは提供できない斬新な、あるいは新規な操作入力を提供できる。また、水滴やゴミの付着による容量変化と、ユーザの入力による容量変化を、カメラの画像にもとづいて判別することができる。
以下、入力デバイス100の具体的な利用形態を説明する。
図3(a)〜(h)は、カメラ画像の例を示す図である。図3(a)〜(h)はいずれも右手による入力を示す。図3(a)は、掌での入力を、図3(b)は、手の甲での入力を、図3(c)は、小指球による入力を、図3(d)は、人差し指による入力を表す。図3(a)〜(d)に示すような手の形状と、タッチセンサ120による位置の組み合わせによって、入力の有効・無効の判定や、入力の種類を判定してもよい。
たとえば、掌による入力のみを許可する場合、図3(a)に示すようにカメラ130によって掌が検出されているときのみ、タッチセンサ120の出力を有効としてもよい。これにより、ユーザが意図せずに誤って、手の甲や小指球をタッチセンサ120にぶつけた時に、それらをノイズとして排除することができる。
図3(e)〜(g)は、ユーザの手の形にもとづくジェスチャ入力の例である。たとえば、数字を入力したい場合に、図3(e)〜(g)に示すように、指で数字を指定させることが可能である。タッチセンサ120のみで多点検出を行うことも可能であるが、入力デバイス100によれば、カメラ画像のみによって、数字入力を受け付けることができる。また、図3(h)に示すように、いわゆるOKサインを検出できるようにして、入力確定のトリガとして用いることも可能である。
図4は、複数の人物によって入力デバイス100が操作可能な状況を示す図である。入力デバイス100と、複数の人物A,Bの相対的な位置関係は不変であると仮定したとき、カメラ画像にもとづいて、現在の入力が、いずれの人物によるものであるかを判別できる。すなわち人物Aが入力デバイス100に入力を与える場合、左手を使用し、人物Bが入力デバイス100に入力を与える場合、右手を使用することとなる。したがって入力デバイス100のカメラ画像にもとづいて、左手が検出された場合、人物Aによる入力、右手が検出された場合、人物Bによる入力と判定することができる。
たとえば、実施の形態に係る入力デバイス100を、自動車のインタフェースとして用い、運転席と助手席の中央のコンソールに接地するようなケースを考える。この場合に、カメラ画像にもとづいて右手と左手の判定を行うことにより、現在の入力が、運転者によるものであるか、同乗者によるものであるかを区別できる。これにより、特定の人物のみ(たとえば運転者のみ)に、入力を許可し、その他の搭乗者による入力を排除するような制御が可能となる。もちろんその逆に、運転者による入力を排除し、その他の搭乗者による入力のみを許可してもよい。
図5は、複数の人物によって入力デバイス100が操作可能な別の状況を示す図である。ひとつの入力デバイス100を、複数の人物によって操作するようなケースを考える。この例では、入力デバイス100を取り囲むようにして、複数の人物A〜Cが位置している。図6(a)〜(c)は人物A〜Cそれぞれが入力したときのカメラ画像を示す。図6(a)〜(c)に示すように、カメラに写っている手が、いずれの方向に伸びているかにもとづいて、いずれの人物の入力であるかを判定することができる。
図7(a)〜(d)は、パネル122の構成例を示す図である。図7(a)のパネル122aは、十字に配置された複数の電極E1〜E23を含む。電極E1〜E15は、縦方向に並べられ、電極E16〜E23は、横方向に並べられている。1個の電極Eのサイズはたとえば10mm程度、間隔は5mm程度としてもよい。図7(a)は、掌による入力に適している。図7(b)のパネル122bは、図7(a)のパネル122aと同様に複数の電極が十字に配置されるが、指先による入力に適している。図7(c)や(d)のパネル122c,122dも指先による入力(指なぞり)に適している。
図8(a)、(b)は、図7(a)、(b)のパネル122a,122bに対する操作入力を示す図である。図8(a)は、図7(a)のパネル122aに対して、掌で入力する例を示す。図8(b)は、図7(b)のパネル122bに対して、指先で入力する例を示す。
図9(a)は、図8(a)において手を上から下に移動したときの、複数の電極の静電容量の変化を示す図である。番号#1〜#23は、電極の番号を表し、バーの長さは静電容量を表す。図9(b)は、図8(a)において手を左から右に移動したときの、複数の電極の静電容量の変化を示す図である。このように、複数の電極の静電容量の変化にもとづいて、手の動きを検出できる。
電極のサイズや配置は、想定されるユーザの入力部位(指先、掌など)に応じて定めればよい。
図10は、カメラ画像とタッチセンサ120の出力の組み合わせに基づく制御の一例を示す図である。この例では、手の掌底部3をタッチセンサ120のパネル122に置いた状態で、所定の指4(たとえば人差し指、中指、薬指の3本)を動かすことにより、さまざまな入力を与えることが可能である。掌底部3の接触は、タッチセンサ120の出力にもとづいて検出でき、指4の動き(屈伸や左右の動き)は、カメラ130の画像にもとづいて検出できる。この例によれば、掌底部3をパネル122に置くことを、ユーザによる入力の意思表示とみなして、所定の指4による入力を有効とすることができる。
(用途)
入力デバイス100の用途はさまざまであるが、たとえば自動車に搭載することができる。図11は、入力デバイスを備える自動車の室内を示す図である。たとえば、入力デバイス100Bの設置場所の好適な一例は、運転席側のドアである。これにより、ロックや窓の開け閉めの操作を、入力デバイス100Aによって受け付けることができる。あるいは、それらの操作とは別の操作(たとえば、オーディオシステムやカーナビゲーションシステム、エアコンなどの操作)を、入力デバイス100Aによって受け付けてもよい。将来、自動運転が普及した際には、入力デバイス100Aによって自動運転に必要な操作入力を受け付けてもよい。
入力デバイス100Bの設置場所の別の一例は、運転席と助手席の間のコンソールである。この入力デバイス100Bによって、運転に必要な操作、オーディオシステムやカーナビゲーションシステム、エアコンの操作などを受け付けてもよい。
以上、本発明について、実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。以下、こうした変形例について説明する。
(変形例1)
これまでの説明では、基材112の形状を矩形かつフラットとしたがその限りでない。図12(a)は、変形例1に係る入力デバイス100を示す図である。変形例1において基材112はフラットであるが、円形である。たとえばタッチセンサ120の電極Eは、円周に沿って配置してもよい。またそれに加えてあるいはそれに代えて、図7で説明したように複数の電極を十字に配置してもよい。
(変形例2)
図12(b)は、変形例2に係る入力デバイス100を示す図である。変形例2において、基材112は曲面を有し、基材112に、複数の電極Eを含むタッチセンサ120が設けられる。電極Eは円形であってもよいし、上述のように矩形であってもよい。基材112の形状はそれに限定されず、図12(b)の球面のほか、半円筒であってもよいし、球面よりはフラットな曲面であってもよい。
(変形例3)
図13は、変形例3に係る入力デバイス100を示す図である。変形例3に係る入力デバイス100は、基材112の上に設けられた透明カバー150を備える。透明カバー150は曲面を有してもよく、図13に示すように半球状であってもよいし、よりフラットな曲面であってもよいし、半円筒であってもよいし、平坦であってもよく、その形状は限定されない。この変形例によれば、タッチセンサ120の電極Eは、平坦な基材112に形成しつつ、ユーザが接触する部分の形状を、透明カバー150によって規定できる。
(変形例4)
実施の形態では、タッチセンサ120として静電容量式を用いたがその限りでない。接触による入力に限定する場合、タッチセンサ120として抵抗膜センサを採用してもよい。
(変形例5)
入力デバイス100の用途も、自動車には限定されない。たとえば入力デバイス100は、医療機器、ゲーム機器、産業機械、産業車両の操作インタフェースとしても好適である。
(変形例5)
実施の形態では、処理部140が入力デバイス100に内蔵されたがその限りでなく、処理部140における処理を、外部プロセッサに委ねてもよい。この場合、処理部140の代わりに外部プロセッサとのインタフェース回路を設け、インタフェース回路から外部プロセッサに対して、カメラの画像データとタッチセンサ120の出力を供給可能に構成してもよい。
実施の形態にもとづき、具体的な用語を用いて本発明を説明したが、実施の形態は、本発明の原理、応用を示しているにすぎず、実施の形態には、請求の範囲に規定された本発明の思想を逸脱しない範囲において、多くの変形例や配置の変更が認められる。
2 手
100 入力デバイス
110 筐体
112 基材
120 タッチセンサ
122 パネル
124 パネルコントローラ
130 カメラ
140 処理部

Claims (10)

  1. 透明な基材を有する筐体と、
    前記基材に設けられたタッチセンサと、
    前記筐体の内側に設けられ、前記基材を介して、外側を監視するカメラと、
    を備えることを特徴とする入力デバイス。
  2. 前記カメラの出力と前記タッチセンサの出力を受ける処理部をさらに備えることを特徴とする請求項1に記載の入力デバイス。
  3. 前記入力デバイスは、所定のユーザによって使用されるべきものであり、
    前記処理部は、前記カメラの出力にもとづいて、前記タッチセンサへの現在の入力が、前記所定のユーザによるものであるか否かを判定することを特徴とする請求項2に記載の入力デバイス。
  4. 前記処理部は、前記カメラの出力にもとづいて、ユーザの掌の向きを判定することを特徴とする請求項2に記載の入力デバイス。
  5. 前記処理部は、前記カメラの出力にもとづいて、ユーザの手の形を判定することを特徴とする請求項2に記載の入力デバイス。
  6. 前記入力デバイスは、異なる方向からアクセスする複数のユーザによって使用されるべきものであり、
    前記処理部は、前記カメラの出力にもとづいて、前記タッチセンサへの現在の入力が、いずれのユーザによるものであるか否かを判定することを特徴とする請求項2に記載の入力デバイス。
  7. 前記基材は平坦であることを特徴とする請求項1から6のいずれかに記載の入力デバイス。
  8. 前記基材は曲面を有することを特徴とする請求項1から6のいずれかに記載の入力デバイス。
  9. 前記筐体は、前記基材の上に設けられる透明カバーをさらに含むことを特徴とする請求項1から8のいずれかに記載の入力デバイス。
  10. 請求項1から9のいずれかに記載の入力デバイスを備えることを特徴とする自動車。
JP2018221259A 2018-11-27 2018-11-27 入力デバイス、自動車 Active JP7280032B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018221259A JP7280032B2 (ja) 2018-11-27 2018-11-27 入力デバイス、自動車
US16/694,061 US11941208B2 (en) 2018-11-27 2019-11-25 Input device and automobile including the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018221259A JP7280032B2 (ja) 2018-11-27 2018-11-27 入力デバイス、自動車

Publications (2)

Publication Number Publication Date
JP2020086998A true JP2020086998A (ja) 2020-06-04
JP7280032B2 JP7280032B2 (ja) 2023-05-23

Family

ID=70771283

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018221259A Active JP7280032B2 (ja) 2018-11-27 2018-11-27 入力デバイス、自動車

Country Status (2)

Country Link
US (1) US11941208B2 (ja)
JP (1) JP7280032B2 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008078603A1 (ja) * 2006-12-22 2008-07-03 Panasonic Corporation ユーザインターフェイス装置
JP2009252105A (ja) * 2008-04-09 2009-10-29 Denso Corp プロンプター式操作装置
JP2011222031A (ja) * 2011-05-23 2011-11-04 Denso Corp 車載用電子機器操作装置
JP2014209336A (ja) * 2013-03-28 2014-11-06 株式会社Nttドコモ 情報処理装置および入力支援方法
JP2015512540A (ja) * 2012-03-31 2015-04-27 マイクロソフト コーポレーション インスタンス化可能なジェスチャオブジェクト
JP2016051436A (ja) * 2014-09-02 2016-04-11 ソニー株式会社 情報処理装置、制御方法、およびプログラム
JP2016511488A (ja) * 2013-03-15 2016-04-14 クアルコム,インコーポレイテッド センサフュージョンを介した対話式入力の拡張
JP2016538659A (ja) * 2013-09-16 2016-12-08 マイクロソフト テクノロジー ライセンシング,エルエルシー 同時ホバーおよびタッチインターフェース
JP2017102770A (ja) * 2015-12-03 2017-06-08 Smk株式会社 タッチセンサ、タッチパネルおよび電子機器

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5483261A (en) * 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
US9513744B2 (en) * 1994-08-15 2016-12-06 Apple Inc. Control systems employing novel physical controls and touch screens
US8610674B2 (en) * 1995-06-29 2013-12-17 Apple Inc. Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
JP2986455B1 (ja) * 1998-07-24 1999-12-06 株式会社エイ・ティ・アール知能映像通信研究所 手振り認識装置
JP2003216321A (ja) * 2002-01-25 2003-07-31 Alps Electric Co Ltd 光学式入力装置
CN1853093A (zh) * 2003-09-16 2006-10-25 株式会社东京大学Tlo 光学式触觉传感器和使用该传感器的力矢量分布再构成法
JP4621827B2 (ja) * 2004-03-09 2011-01-26 財団法人名古屋産業科学研究所 光学式触覚センサ、光学式触覚センサを利用したセンシング方法、センシングシステム、物体操作力制御方法、物体操作力制御装置、物体把持力制御装置及びロボットハンド
US7656392B2 (en) * 2006-03-24 2010-02-02 Synaptics Incorporated Touch sensor effective area enhancement
JP4901539B2 (ja) * 2007-03-07 2012-03-21 株式会社東芝 立体映像表示システム
JP2011154442A (ja) * 2010-01-26 2011-08-11 Sony Corp センサ素子及び表示装置
JP5885232B2 (ja) * 2011-05-09 2016-03-15 シナプティクス・ディスプレイ・デバイス合同会社 タッチセンサパネルコントローラ及び半導体装置
US9292112B2 (en) * 2011-07-28 2016-03-22 Hewlett-Packard Development Company, L.P. Multimodal interface
US20130147743A1 (en) * 2011-12-12 2013-06-13 Lester F. Ludwig Spherical Touch Sensors and Signal/Power Architectures for Trackballs, Globes, Displays, and Other Applications
AU2013205613B2 (en) * 2012-05-04 2017-12-21 Samsung Electronics Co., Ltd. Terminal and method for controlling the same based on spatial interaction
US9632658B2 (en) * 2013-01-15 2017-04-25 Leap Motion, Inc. Dynamic user interactions for display control and scaling responsiveness of display objects
KR20150033415A (ko) * 2013-09-24 2015-04-01 삼성전기주식회사 터치센서 모듈
JP2015092422A (ja) * 2015-02-20 2015-05-14 株式会社ミクロ技術研究所 湾曲型タッチパネル
KR101707002B1 (ko) * 2015-03-04 2017-02-15 숭실대학교산학협력단 복합 감지형 센서 및 제조방법
KR102370678B1 (ko) * 2015-06-25 2022-03-07 삼성전자주식회사 전자 장치의 터치 센싱 모듈 제어 방법 및 전자 장치, 전자 장치에 구비된 터치 센싱 모듈의 동작 방법 및 터치 센싱 모듈
CN108230383B (zh) * 2017-03-29 2021-03-23 北京市商汤科技开发有限公司 手部三维数据确定方法、装置及电子设备
US11518243B2 (en) * 2020-01-23 2022-12-06 Toyota Motor North America, Inc. Dynamic vehicle head unit lockout system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008078603A1 (ja) * 2006-12-22 2008-07-03 Panasonic Corporation ユーザインターフェイス装置
JP2009252105A (ja) * 2008-04-09 2009-10-29 Denso Corp プロンプター式操作装置
JP2011222031A (ja) * 2011-05-23 2011-11-04 Denso Corp 車載用電子機器操作装置
JP2015512540A (ja) * 2012-03-31 2015-04-27 マイクロソフト コーポレーション インスタンス化可能なジェスチャオブジェクト
JP2016511488A (ja) * 2013-03-15 2016-04-14 クアルコム,インコーポレイテッド センサフュージョンを介した対話式入力の拡張
JP2014209336A (ja) * 2013-03-28 2014-11-06 株式会社Nttドコモ 情報処理装置および入力支援方法
JP2016538659A (ja) * 2013-09-16 2016-12-08 マイクロソフト テクノロジー ライセンシング,エルエルシー 同時ホバーおよびタッチインターフェース
JP2016051436A (ja) * 2014-09-02 2016-04-11 ソニー株式会社 情報処理装置、制御方法、およびプログラム
JP2017102770A (ja) * 2015-12-03 2017-06-08 Smk株式会社 タッチセンサ、タッチパネルおよび電子機器

Also Published As

Publication number Publication date
US20200167035A1 (en) 2020-05-28
JP7280032B2 (ja) 2023-05-23
US11941208B2 (en) 2024-03-26

Similar Documents

Publication Publication Date Title
JP4743267B2 (ja) 情報処理装置、情報処理方法およびプログラム
US8830189B2 (en) Device and method for monitoring the object's behavior
US20130038549A1 (en) Input device for touch screen and touch screen system having the same
JP2000348560A (ja) タッチ操作位置の判定方法
JPH11194872A (ja) 接触操作型入力装置およびその電子部品
JP3382506B2 (ja) ディスプレイ装置
CN114391131A (zh) 操作装置
JP5637492B2 (ja) 静電容量式タッチパネル装置
JP2006244041A (ja) 入力装置
KR20110127978A (ko) 스티어링휠용 정전형 센서 및 차량 제어 장치
WO2015170448A1 (ja) 操作装置
JP2017058718A (ja) 操作検出装置
JP7280032B2 (ja) 入力デバイス、自動車
JP5011806B2 (ja) 車両用入力装置
JP2021054391A (ja) 操作装置
JP2011134258A (ja) 入力装置及びその入力装置を備えた入力制御装置
JP6217535B2 (ja) 車両用入力装置
JP6610452B2 (ja) 車両用表示装置
JP7378902B2 (ja) 操作制御装置
JP4142194B2 (ja) ポインティング装置
US20180292924A1 (en) Input processing apparatus
JP4771578B2 (ja) ポインティングデバイス
JP6649127B2 (ja) 操作装置
KR20140053616A (ko) 3차원 입력 시스템을 구비한 보안 제어 장치 및 방법
JP7473954B2 (ja) タッチセンサユニット

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230511

R150 Certificate of patent or registration of utility model

Ref document number: 7280032

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150