JP5928397B2 - 入力装置 - Google Patents

入力装置 Download PDF

Info

Publication number
JP5928397B2
JP5928397B2 JP2013077849A JP2013077849A JP5928397B2 JP 5928397 B2 JP5928397 B2 JP 5928397B2 JP 2013077849 A JP2013077849 A JP 2013077849A JP 2013077849 A JP2013077849 A JP 2013077849A JP 5928397 B2 JP5928397 B2 JP 5928397B2
Authority
JP
Japan
Prior art keywords
finger
groove
control unit
operation surface
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013077849A
Other languages
English (en)
Other versions
JP2014203206A (ja
Inventor
剛志 鈴木
剛志 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2013077849A priority Critical patent/JP5928397B2/ja
Priority to DE112014001851.1T priority patent/DE112014001851T5/de
Priority to PCT/JP2014/001777 priority patent/WO2014162699A1/ja
Priority to US14/780,984 priority patent/US9778764B2/en
Priority to CN201480018825.4A priority patent/CN105121228B/zh
Publication of JP2014203206A publication Critical patent/JP2014203206A/ja
Application granted granted Critical
Publication of JP5928397B2 publication Critical patent/JP5928397B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3688Systems comprising multiple parts or multiple output devices (not client-server), e.g. detachable faceplates, key fobs or multiple output screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • B60K2360/141
    • B60K2360/1446
    • B60K2360/146
    • B60K2360/1468
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Description

本発明は、操作者の指操作によって表示部における情報表示のための入力を行う入力装置に関するものである。
従来の入力装置として、例えば特許文献1に示されるものが知られている。特許文献1の入力装置(操作用ユーザーインターフェイス装置)では、ユーザーがタッチ操作を行うための遠隔タッチパッド部と、遠隔タッチパッド部から受信された3次元信号に応じてマルチメディアシステムの各種モードを表示するディスプレイ部と、遠隔タッチパッド部の3次元信号に応じて、マルチメディアシステムが作動するように制御する制御部とを備えている。
特許文献1の入力装置では、ユーザーの指の位置が、遠隔タッチパッド部の表面から第1高さの範囲にあるときに、ディスプレイ部に指の位置(ポインタ)を表示し、ポインタの移動、およびメニューの移動による微細操作が可能となっている。
また、ユーザーの指の位置が、第1高さから第2高さの範囲にあるときに、ワイプパスジェスチャーによる第1モードおよび第2モードの切替え、更には、ホーム、メイン、サブ画面の移動が可能となっている。
更に、ユーザーの指の位置が、第2高さから第3高さの範囲にあるときに、ラジオメイン画面において、操作待機画面に切替えられるようになっている。
特開2011―118857号公報
しかしながら、上記特許文献1では、遠隔タッチパッドの表面から指までの距離(高さ)に応じて、上記のような画面操作が行われてしまうので、誤って指(手)を遠隔タッチパッドに近づけた際に、ディスプレイ部における表示に対して、意図しない入力(誤操作)をしてしまうおそれがあった。
本発明は、上記問題点に鑑みてなされたものであって、使用者の意図しない入力を防止可能とする入力装置を提供することにある。
本発明は上記目的を達成するために、以下の技術的手段を採用する。
本発明では、車両に搭載されて、複数の階層に分かれた画像(60)を切替え可能に表示する表示部(52)に対して別体で形成されており、操作面(32)に対する使用者の指操作によって、画像(60)を操作するための入力が行われる入力装置であって、
窪みに使用者の指先が挿入されて、窪みが連続する長手方向に指のスライドが可能となる溝部(33)と、
溝部(33)における指の有無を検出する検出部(34a、34b)と、
操作面(32)に対する指操作が所定時間以上実施されていないときに、操作面(32)への指操作による入力の禁止を行うと共に、検出部(34a、34b)によって溝部(33)に指があると検出されると、溝部(33)における指のスライド有りと判定して、入力の禁止を解除する制御部(35)とを備えることを特徴としている。
この発明によれば、使用者の指操作が所定時間以上実施されていないときに、制御部(35)は、操作面(32)への指操作による入力の禁止を行う。よって、使用者は不用意に指を操作面(32)に近づけてしまっても、画像(60)を操作するための入力が実行されることがないので、使用者の意図しない入力を防止することが可能となる。
そして、制御部(35)は、検出部(34a、34b)による指の検出結果から、溝部(33)における使用者の指のスライド有りと判定すると入力の禁止を解除する。よって、使用者は、溝部(33)に対して指をスライドさせることで、操作面(32)への指操作による入力が再び可能となる。この場合は、使用者の意図した指操作が行われることになる。
尚、上記各手段の括弧内の符号は、後述する実施形態記載の具体的手段との対応関係を示すものである。
第1実施形態のナビゲーション装置および遠隔操作デバイスの車室内での配置を説明するための説明図である。 第1実施形態におけるナビゲーション装置および遠隔操作デバイスの構成を示す構成図である。 第1実施形態の遠隔操作デバイスを示す斜視図である。 図3におけるIV−IV部を示す断面図である。 タッチセンサおよび第1、第2センサを示す斜視図である。 第1実施形態の遠隔操作デバイスにおいて、タッチセンサにより検出される感度値と、操作制御部により判定される操作状態との関係を説明するための図である。 第1実施形態の操作制御部に記憶されている各感度閾値、操作状態、および画面表示の関係を示すテーブルである。 第1実施形態の遠隔操作デバイスにおいて、操作制御部により実施される入力処理を示すフローチャートである。 第1実施形態の遠隔操作デバイスにおいて、溝部への指操作に伴う表示画面の表示状態を説明するための図である。 第2実施形態のナビゲーション装置および遠隔操作デバイスの車室内での配置を説明するための説明図である。 第2実施形態におけるナビゲーション装置および遠隔操作デバイスの構成を示す構成図である。 第2実施形態の遠隔操作デバイスにおいて、操作制御部により実施される入力処理を示すフローチャートである。 第2実施形態の遠隔操作デバイスにおいて、溝部への指操作に伴う表示画面の表示状態を説明するための図である。 第3実施形態のナビゲーション装置および遠隔操作デバイスの車室内での配置を説明するための説明図である。 第3実施形態におけるナビゲーション装置および遠隔操作デバイスの構成を示す構成図である。 第3実施形態の遠隔操作デバイスにおいて、操作制御部により実施される入力処理を示すフローチャートである。 第3実施形態の遠隔操作デバイスにおいて、溝部への指操作に伴う表示画面の表示状態を説明するための図である。
以下、本発明の複数の実施形態を図面に基づいて説明する。尚、各実施形態において対応する構成要素には同一の符号を付すことにより、重複する説明を省略する場合がある。各実施形態において構成の一部分のみを説明している場合、当該構成の他の部分については、先行して説明した他の実施形態の構成を適用することができる。また、各実施形態の説明において明示している構成の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても複数の実施形態の構成同士を部分的に組み合せることができる。
(第1実施形態)
第1実施形態(図1〜図9)は、本発明の入力装置を、ナビゲーション装置50を操作するための遠隔操作デバイス100に適用したものである。遠隔操作デバイス100は、車両に搭載され、ナビゲーション装置50等と共に表示システム10を構成している。
図1に示すように、遠隔操作デバイス100は、車両のセンターコンソールにてパームレスト39と隣接する位置に設置され、操作者(使用者でありここでは運転者とする)の手の届き易い範囲に操作面32を露出させている。遠隔操作デバイス100は、タッチセンサ31を有しており(図2、図3)、タッチセンサ31の表面が、操作者の指操作が行われる上記の操作面32として形成されている。尚、図1中の「F」は操作者の指を示している。
また、ナビゲーション装置50は、操作者から目視されるよう液晶ディスプレイ52の表示画面53を露出させ且つ表示画面53を運転席および助手席側に向けた姿勢にて、車両のインストルメントパネルの左右方向(車両の幅方向)の中央に設置されている。表示システム10(液晶ディスプレイ52)は、種々の表示画像60を表示画面53に切替えて表示する。上記の遠隔操作デバイス100は、ナビゲーション装置50に対して別体で形成されており、ナビゲーション装置50から離れた位置に設定されている。
以下、遠隔操作デバイス100、およびナビゲーション装置50の各構成について、図2〜図5を加えて詳しく説明する。
遠隔操作デバイス100は、Controller Area Networkバス(以下、CANバス)90、および外部のバッテリ91等と接続されている。CANバス90は、車両に搭載された複数の車載装置を相互に接続してなる車内通信ネットワークにおいて、各車載装置間でのデータの伝送に用いられる伝送路である。遠隔操作デバイス100は、CANバス90を通じて、離れて位置するナビゲーション装置50と通信可能となっている。
遠隔操作デバイス100は、外観全体が直方体の箱状に形成されており、電源インターフェース21、22、通信制御部23、通信インターフェース24、タッチセンサ31、操作面32、溝部33、第1、第2センサ34a、34b、および操作制御部35、等によって構成されている。各電源インターフェース21、22は、バッテリ91から供給される電力を安定化して、操作制御部35に供給する。一方の電源インターフェース21には、バッテリ91から常に電力が供給されている。他方の電源インターフェース22には、車両のアクセサリ(ACC)電源がオン状態とされたことに基づいてスイッチ92が通電状態となることにより、バッテリ91から電力が供給されるようになっている。
通信制御部23および通信インターフェース24は、操作制御部35によって処理された情報をCANバス90に出力すると共に、他の車載装置からCANバス90に出力された情報を取得するための構成である。通信制御部23および通信インターフェース24は、送信用の信号線TXおよび受信用の信号線RXによって互いに接続されている。
タッチセンサ31は、静電容量式の検出手段であって、矩形の平板状に形成されており、センサ表面に対する指による操作状態を検出する。タッチセンサ31は、操作面32に対応する位置に設けられている。タッチセンサ31は、x軸方向に沿って延びる電極と、y軸方向に沿って延びる電極とが格子状に配列されることにより形成されている。これら電極は、操作制御部35と接続されている。各電極は、センサ表面に近接する指の位置(図3のx、y、z座標位置)に応じて、発生される静電容量が変化するようになっており、発生される静電容量の信号(感度値)が操作制御部35に出力されるようになっている。センサ表面は、絶縁材よりなる絶縁シートによって覆われている。
操作面32は、操作者が指操作を行う平面部であり、例えば、センサ表面の絶縁シート全体にわたって指の滑りを良くする素材等が設けられることで形成されている。操作面32は、直方体の遠隔操作デバイス100の表側の面において、車両後方側となる領域に矩形状を成して形成されている。操作面32上におけるx軸方向、y軸方向、あるいはz軸方向の操作者の指操作により、表示画面53に表示される表示画像60(図9参照)に対する操作のための入力ができるように設定されている。
溝部33は、窪みに運転者の指先が挿入可能であり、窪みが連続する長手方向に指のスライドが可能となるように形成された溝となっている。溝部33は、直方体の遠隔操作デバイス100の表側の面において、操作面32に対して車両前方側となる領域に配置されている。溝部33(溝部33の底部)は、操作面32と同一面上となるように配置されている。更に、溝部33の長手方向は、車両前後方向に設定されて、操作面32内を向くように配置されている。溝部33は、遠隔操作デバイス100において、車両左右方向のほぼ中央に配置されている。
溝部33の断面形状は、例えば、指先と同程度の幅を有する円弧状(半円形)に形成されている。よって、図4に示すように、複数の指や掌等は、溝部33には挿入できないようになっている。
第1、第2センサ34a、34bは、溝部33における運転者の指の有無を検出する複数の検出部である。第1、第2センサ34a、34bは、溝部33に対応する位置(溝部33の底部の更に下側)に設けられている。第1センサ34aは、操作面32に対して遠い側となる溝部33の一端側に対応するように設けられている。また、第2センサ34bは、操作面32に対して近い側となる溝部33の他端側に対応するように設けられている。第1センサ34aは、本発明の遠い側の検出部に対応し、第2センサ34bは、本発明の近い側の検出部に対応する。
第1、第2センサ34a、34bは、上記タッチセンサ31と同様の電極から形成されるものであって、図5に示すように、本実施形態では、タッチセンサ31の一端側にタッチセンサ31と一体的に形成されている。第1、第2センサ34a、34bの電極は、タッチセンサ31を介して操作制御部35と接続されている。第1、第2センサ34a、34bの電極は、溝部33に指が近接あるいは接触すると、静電容量が変化して、発生される静電容量の信号(感度値)が操作制御部35に出力されるようになっている。
操作制御部35は、本発明の制御部であり、各種の演算処理を行うプロセッサ、演算処理の作業領域として機能するRAM、および演算処理に用いられるプログラム等が格納されたフラッシュメモリ等によって構成されている。加えて、操作制御部35は、各電源インターフェース21、22、通信制御部23、タッチセンサ31、および第1、第2センサ34a、34b等と接続されている。
操作制御部35は、所定のプログラムを実行することによってタッチセンサ31の各電極の静電容量の信号を計測することにより、タッチセンサ31の計測値としての感度値(Hth)を取得する。操作者の指が操作面32(センサ表面)に近接すると、電極と指との間に電荷が蓄えられる。操作制御部35は、操作面32の面の拡がる方向における指の相対的な操作位置(以下、「相対位置」という)を示すx座標およびy座標、更には、操作面32から指までの距離(以下、「操作距離」という)に相当するz座標を、感度値に基づく算出処理によって算出するようになっている。
具体的には、図6に示すように、例えば、x軸方向に並ぶ電極に対して、ある任意の電極部の位置に対応する操作面32上で指を接触させると感度値は大きく得られ、接触位置から離れた位置になるほど、指の接触状態がなくなっていくことから、感度値は小さくなっていく。y軸方向に並ぶ電極に対しても同様である。よって、操作制御部35は、x軸およびy軸における電極の中で、最も大きな感度値が得られる部位(x座標位置、y座標位置)を、現在の指の相対位置として算出するようになっている。
z軸方向については、指が操作面32に近づくほど、感度値は大きくなり、逆に指が操作面32から遠ざかるほど、感度値は小さくなる。よって、操作制御部35は、得られる感度値の大小によって、現在の指のz座標位置、即ち、操作距離を算出するようになっている。
また、操作制御部35は、図6、図7に示すように、得られる感度値に対して、指の操作状態(z軸方向における指の操作距離)、および後述する表示画像60への操作処置を関連付けするようになっている。操作制御部35は、操作状態を判定するための、複数の感度閾値Hth1、Hth2を予め備えており、その感度閾値に応じて、指の操作状態を判定するようにしている。操作状態としては、指が操作面32に接触する、あるいは実際には接触していないがほとんど接触に近い「接触状態」と、指が操作面32に対して近接している「近接状態」と、指が「近接状態」よりも操作面32から更に遠ざかっている「非接触状態」とに区分けされている。尚、「接触状態」については、指が操作面32に実質的に接触する場合のみの操作状態とするようにしても良い。
例えば、操作制御部35は、感度閾値として、Hht1=count200、Hht2=count100を備えている。そして、感度値がHth1(200)以上であると指は操作面32に対して「接触状態」であると判定する。また、感度値がHth1〜Hth2(200〜101)の間にあると指は操作面32に対して「近接状態」であると判定する。また、感度値がHth2(100)以下であると指は操作面32に対して「非接触状態」であると判定する。以下、「接触状態」を「接触中」、「近接状態」を「近接中」、「非接触状態」を「非接触」と呼ぶことにする。
尚、各感度閾値Hth1、Hth2近傍で指が微妙に上下移動すると、操作制御部35による操作状態の判定結果に反転繰返し(ハンチング)が発生してしまう。よって、各感度閾値Hth1、Hth2の上側(操作面32に近い側)には、所定距離だけ離れた位置に対応する上側閾値Hth1U、Hth2Uがそれぞれ設定されている。また、各感度閾値Hth1、Hth2の下側(操作面32に遠い側)には、所定距離だけ離れた位置に対応する下側閾値Hth1D、Hth2Dがそれぞれ設定されている。指が各感度閾値Hth1、Hth2の下側(遠い側)から上側(近い側)に向けて移動される際には、各上側閾値Hth1U、Hth2Uが、操作状態を判定する際の感度閾値となる。逆に、指が各感度閾値Hth1、Hth2の上側(近い側)から下側(遠い側)に向けて移動される際には、各下側閾値Hth1D、Hth2Dが、操作状態を判定する際の感度閾値となる。
更に、操作制御部35は、操作者が操作面32を指で軽く押さえたときの押圧操作(タッチ操作)を検知する。そして操作制御部35は、指のスライド操作に伴う指の位置を示すx、y、z座標、および押圧操作の有無を、通信制御部23および通信インターフェース24を通じて、CANバス90に出力する。
加えて、操作制御部35は、所定のプログラムを実行することによって第1、第2センサ34a、34bの各電極の静電容量の信号を計測することにより、第1、第2センサ34a、34bの計測値としての感度値を取得する。操作者の指が溝部33に近接あるいは接触すると、電極と指との間に電荷が蓄えられる。操作制御部35は、得られた感度値が予め定めた所定値以上あると、溝部33に指が有ると判定するようになっている。逆に、操作制御部35は、得られた感度値が所定値未満であると、溝部33に指は無いと判定するようになっている。
そして、操作制御部35は、第1、第2センサ34a、34bのすべてが運転者の指を検出し、且つ、その検出が第1センサ34a、第2センサ34bの順であると溝部33における指のスライド有りと判定する。つまり、操作制御部35は、第1センサ34aの信号から指有りの判定をし、更に、続けて第2センサ34bの信号から指有りと判定すると、運転者は、溝部33の一端側(操作面32から遠い側)から他端側(操作面32に近い側)に向けて、指をスライドしたものと判定するようになっている。
ナビゲーション装置50は、地図上における現在の位置表示や目的地案内等を行うナビゲーション機能に加えて、車両用空調装置に対する空調作動設定機能、車両用オーディオに対するオーディオ作動設定機能、およびインターネットによる各種情報検索閲覧機能等を備えている。ナビゲーション装置50は、遠隔操作デバイス100等と通信可能なようにCANバス90と接続されており、表示制御部51および液晶ディスプレイ52を有している。
ナビゲーション装置50における上記の各種機能については、後述する液晶ディスプレイ52の表示画像60中のメニュー61において、「Climate(エアコン操作)」、「Map(地図表示)」、「Destination(目的地設定)」、「Media(オーディオ操作)」、「Network(インターネット操作)」等のように表示されるようになっている(図9)。
表示制御部51は、各種の演算処理を行うプロセッサ、演算処理の作業領域として機能するRAM、画像の描画処理を行うグラフィックプロセッサ、描画処理の作業領域として機能するグラフィックRAM等によって構成されている。加えて表示制御部51は、演算処理および描画処理に用いられるデータを格納するフラッシュメモリ、CANバス90と接続される通信インターフェース、および描画した画像データを液晶ディスプレイ52に出力する映像出力インターフェースを有している。表示制御部51は、CANバス90から取得する情報に基づいて、表示画面53に表示する表示画像60を描画する。そして表示制御部51は、描画した表示画像60の画像データを、映像出力インターフェースを通じて液晶ディスプレイ52に逐次出力する。
液晶ディスプレイ52は、表示画面53に配列された複数の画素を制御することにより、カラー表示を実現するドットマトリクス方式の表示部である。液晶ディスプレイ52は、表示制御部51から逐次取得する画像データを表示画面53に連続的に形成することにより、映像を表示する。
表示画面53に表示される表示画像60は、本発明の画像に対応するものであり、複数の階層に分かれた画像から構成されている。例えば、複数の階層の画像のうち、第1階層(所定階層)の画像は、ナビゲーション装置50の各種機能(ナビゲーション、エアコン、オーディオ、インターネット等)を使用するための複数のメイン画像となっている。例えば、図9では、1つのメイン画像として、エアコン用のメイン画像を示している。
表示画像60の上側には、複数のメイン画像の種類(名称)をメニュー項目として、これらメニュー項目が左右方向に並ぶように形成されたメニュー61が設けられている。メニュー61は、表示画像60がどの階層の画像に切替えられても、常に同一の形で表示されるようになっている。操作者は、所望するメニュー61のうちの1つを操作面32上で指操作により選択すると、表示画面53には、選択されたメイン画像が表示されるようになっている。あるいは、操作者は、任意のメイン画像が表示されているときに、メニュー61を操作することなく、操作面32上で指をスライド操作することで、メイン画像を順次スクロールすることができ、所望のメイン画像にすることができるようになっている。
また、表示画像60には、画像を操作するための複数のアイコン62が設けられている。図9の例では、エアコン操作における風量設定アイコン、温度設定アイコン、デュアル設定アイコン、吹出しモード設定アイコン等を示している。また、表示画像60には、ポインタ63が表示されるようになっている。ポインタ63は、操作面32上における指の位置を表示画像60と対応するように示すものであり、例えば、手のデザインを基に、人差し指(指先)が指操作時の位置を示すものとなっている。尚、ポインタ63としては、その他にも矢印を基本デザインとしたもの等としても良い。ポインタ63は、表示画像60上において、指の接触状態が、接触中、および近接中の場合に表示されるようになっている。
操作者は、操作面32上で指をスライド操作し、ポインタ63によって所望のアイコン62を選択すると、そのアイコン62が選択されたことを示す枠状のフォーカス64が表示されるようになっている。更に、選択されたアイコン62の位置に対応するように操作面32上で指を軽く押さえてやると(タッチ操作すると)、そのアイコン62が決定状態となり、第2階層の画像、つまり決定されたアイコンに対応する操作用の画像に移行し、順次、各種機能が使用できるようになっている。
加えて、後述するように、操作制御部35によって操作面32への指操作による入力禁止が実行されると、表示画像60には、入力禁止中である旨を示すロック情報65(図9)が表示されるようになっている。
次に、操作制御部35によるタッチセンサ31、および第1、第2センサ34a、34bからの入力処理の詳細を図8、図9に基づいて説明する。
図8において、まず、ステップ100では、操作制御部35は、溝部33の第1、第2センサ34a、34bの検出信号から、運転者が溝部33の一端側(図9のポイントA)から他端側(図9のポイントB)に向けて指をスライド(なぞり)したか否かを判定する。操作制御部35は、第1センサ34a、第2センサ34bの順に所定値以上の感度値が得られたときに、溝部33における指のスライド有りと判定し、それ以外の場合は溝部33における指のスライド無しと判定する。
ステップS100で否、つまり指のスライド無しと判定すると、操作制御部35は、後述するステップS240での指操作による入力禁止(ロック)状態が継続しているものとして、ステップS110で、現在ロック中である旨を表示画像60に表示して、運転者に認識される。具体的には、図9の左側の枠内に示すように、表示画像60にロック情報(LOCKED)65を表示する。
そして、ステップS120で、操作制御部35は、ロック情報65を表示画面60上でフラッシング(点滅)させることで運転者に対して強調表示を行う。そして、上記フラッシングをした後に、ステップS130で、表示画像60を通常の画像に戻し(ロック情報65を消す)、ステップS100に戻る。
一方、ステップS100で、肯定判定、つまり指のスライド有りと判定すると、ステップS140で、操作制御部35は、指操作による入力禁止(ロック)を解除する。これにより、操作面32における指の入力操作が可能な状態となる。
尚、上記ステップS100での肯定判定をしたということは、運転者は溝部33に対して指をポイントA側からポイントB側にスライドしており、運転者の指は、自ずと、操作面32のエリア内に至っていることになる。
そして、ステップS150で、操作制御部35は、タッチセンサ31の各電極にて検出される感度値を取得する取得処理を実施し、ステップS160に進む。ステップS160では、ステップS150にて取得される感度値から、操作面32に対する指の相対位置を示すx座標、y座標、および操作距離を示すz座標の計算処理を実施する。そして、操作距離を示すz座標の計算値から、指の操作状態が、接触中、近接中、あるいは非接触のいずれにあるかを算出する。
具体的には、タッチセンサ31によって検出される感度値がHth1(Hth1U)よりも大きいときは接触中、また、感度値がHth2(Hth2U)〜Hth1(Hth1D)の間にあるときは近接中、更に、感度値がHth2(Hth2D)よりも小さいときは非接触と算出する。
そして、ステップS170で、算出された指の操作状態は接触中ではなく、且つ感度値がHth1以上(実際には上側閾値Hth1U以上)あるか否かを判定する。ここで肯定判定すると、操作者の指は非接触あるいは近接中の状態から操作面32に近づき、操作面32に対して接触した状態にあることになり、ステップS180で、指の操作状態を接触中に更新する。
接触中においては、操作制御部35は、表示画面53を接触中画面に更新する。接触中画面とは、図9(右側の枠内)に示すように、表示画像60に本来のメニュー61、アイコン62、ポインタ63、およびフォーカス64が表示される画面である。フォーカス64は、表示されるメイン画像に対応する機器の現時点での作動状態(作動設定状態)を示す。
接触中画面においては、操作者は、指操作(スライド、タッチ操作等)によって、本来の画面操作、つまり各メニュー61、および各種アイコン62の選択、および決定等が可能となる。
次に、ステップS170で否と判定すると、ステップS190で、操作制御部35は、1つ目の条件として操作状態は非接触であり、且つ感度値がHth2以上(実際には上側閾値Hth2U以上)あるか、または2つ目の条件として操作状態は接触中であり、且つ感度値がHth1以下(実際には下側閾値Hth1D以下)であるか、のいずれかであるか否かを判定する。ここで肯定判定すると、操作者の指は非接触から操作面32に近づく、あるいは接触中から操作面32に対して多少離れる状態にあることになり、ステップS200で、指の操作状態を近接中に更新する。
近接中においては、操作制御部35は、表示画面53を近接中画面に更新する。近接中画面とは、上記の接触中画面において、ポインタ63、およびフォーカス64が非表示とされる画面である。近接中画面においては、操作者は、近接中における指操作(フリック等のジェスチャ)によって、メニュー61によるメイン画像の切替えが可能となる。
次に、ステップS190で否と判定すると、ステップS210で、操作制御部35は、操作状態は非接触ではなく、且つ感度値がHth2以下(実際には下側閾値Hth2D以下)であるか否かを判定する。ここで肯定判定すると、操作者の指は接触中あるいは近接中の状態から操作面32に対して大きく離れる状態にあることになり、ステップS220で、指の操作状態を非接触に更新する。
非接触においては、操作制御部35は、表示画面53を非接触画面に更新する。非接触画面とは、上記の接触中画面において、ポインタ63が非表示とされる画面である。非接触画面においては、フォーカス64は、表示されるメイン画像に対応する機器の現時点での作動状態(作動設定状態)を示す。
非接触画面においては、操作者の指は操作面32から明らかに離れた状態にあり、操作者には表示画像60を操作する意志は無く、操作者は表示画像60を、単純に現在の機器の作動状態を確認するための確認用画面として見ることができる。
そして、ステップS180、ステップS200、ステップS220、および否定判定したステップS210の後に、ステップS230で、操作制御部35は、タッチセンサ31の感度値より、操作面32に対する運転者の指操作が成されていない状態が、所定時間以上継続しているか否かを判定する。ステップS230で、肯定判定すると、ステップS240で、操作制御部35は、操作面32への指操作による入力を禁止(ロック)する。尚、ステップS230で、否定判定すると、このステップS230を繰り返し実行する。
以上のように、本実施形態では、操作制御部35は、操作面32に対する運転者の指操作が所定時間以上実施されていないときに、操作面32への指操作による入力の禁止を行う(ステップS240)ようにしている。よって、運転者は不用意に指を操作面32に近づけてしまっても、表示画像60を操作するための入力が実行されることがないので、運転者の意図しない入力を防止することが可能となる。
そして、操作制御部35は、第1、第2センサ34a、34bによって溝部33に運転者の指が有ると検出されると、溝部33における指のスライド有りと判定して、入力の禁止を解除する(ステップS140)ようにしている。よって、運転者は、溝部33に対して指をスライドさせることで、操作面32への指操作による入力が再び可能となる。この場合は、運転者の意図した指操作が行われることになる。
また、操作制御部35は、入力の禁止を行っているときに(ステップS240)、運転者による操作面32への指操作が行われても、溝部33における指のスライド無し(ステップS100で否定判定)と判定すると、入力の禁止を行っている旨をロック情報65として表示画像60(液晶ディスプレイ52)に表示させるようにしている(ステップS110)。これにより、運転者は、入力操作ができない状態にあることを明確に理解することができ、指操作するにあたって戸惑うことがない。
また、溝部33における指のスライドを検出する検出部として、複数の検出部(第1、第2センサ34a、34b)を設けている。そして、操作制御部35は、第1、第2センサ34a、34bの両者(すべて)が、運転者の指の有ることを検出すると、指のスライド有りと判定するようにしている。これにより、指のスライドの検出精度を高めることができるので、誤判定を低減させることができる。
また、溝部33は、操作面32と同一面上に、且つ長手方向が操作面32内に向くように配置されており、操作制御部35は、第1、第2センサ34a、34bのうち、操作面32に対して遠い側(ポイントA側)となる第1センサ34aの後に、近い側(ポイントB側)となる第2センサ34bが指の有ることを検出すると、指のスライド有りと判定するようにしている。これにより、運転者は、指を溝部33に対してポイントA側からポイントB側にスライドした後に、操作面32に対して指操作することとなり、溝部33から操作面32に対して連続的な操作が可能となる。
また、溝部33における第1、第2センサ34a、34bは、操作面32におけるタッチセンサ31と一体的に形成さるようにしている。これにより、それぞれ専用のセンサを設けることなく、容易に、タッチセンサ31、および第1、第2センサ34a、34bを形成することができ、安価な対応が可能となる。
また、入力禁止を解除するための操作部として、溝部33形状とすることにより、複数の指や掌等は溝部33には挿入できないようになっており、誤操作を防止することができる。更に、溝部33に沿った指のスライド操作をすることで、操作面32および液晶ディスプレイ52の表示画面53を直視しなくても、運転中のブラインド操作が可能となる。
(第2実施形態)
第2実施形態の遠隔操作デバイス100Aを図10〜図13に示す。第2実施形態は、上記第1実施形態に対して、操作者として、運転席における運転者、および助手席における助手席者を対象とした表示画像60の入力処理を付加したものとなっている。
図10、図11、図13に示すように、遠隔操作デバイス100Aには、左右方向に並ぶように複数(ここでは2つ)の溝部、即ち、運転席用溝部33a、および助手席用溝部33bが設けられている。
運転席用溝部33aは、遠隔操作デバイス100Aの運転席側(右側)に位置し、運転者用として対応付けされた溝部となっている。運転席用溝部33aには、上記第1実施形態と同様に、第1、第2センサ34a1、34b1が設けられている。第1、第2センサ34a1、34b1の検知する信号は、運転者の指が運転席用溝部33aに有ることを示す信号として操作制御部35に出力されるようになっている。
また、助手席用溝部33bは、遠隔操作デバイス100Aの助手席側(左側)に位置し、助手席者用として対応付けされた溝部となっている。助手席用溝部33bには、上記第1実施形態と同様に、第1、第2センサ34a2、34b2が設けられている。第1、第2センサ34a2、34b2の検知する信号は、助手席者の指が助手席用溝部33bに有ることを示す信号として操作制御部35に出力されるようになっている。
よって、操作制御部35は、第1、第2センサ34a1、34b1、あるいは第1、第2センサ34a2、34b2からの信号に基づいて、各溝部33a、33bに対する操作者が運転者か、助手席者かを判定できるようになっている。
操作制御部35が行う入力処理のフローチャートは、図12に示すように、上記第1実施形態で説明したフローチャート(図8)に対して、操作者が運転者か助手席者かのいずれかを判定して、判定結果に応じた画面表示の設定を行うためのステップS141、ステップS142、およびステップS143が、ステップS140とステップS150との間に追加されたものとなっている。
操作制御部35は、まず、上記の第1実施形態と同様に、ステップS100において各溝部33a、33bに対する運転者あるいは助手席者の指のスライドがあったか否かを判定して、否定判定をするとステップS110〜ステップS130を実施し、肯定判定をするとステップS140を実施する。
そして、ステップS141で、操作制御部35は、ステップS100における第1、第2センサ34a1、34b1、あるいは第1、第2センサ34b1、34b2の出力信号から、操作者は、運転者か助手席者かを判定する。具体的には、操作制御部35は、第1、第2センサ34a1、34b1からの出力信号によって、運転席用溝部33aにおいて、指のスライド有りと判定すると、操作者は運転者であると判定する。また、操作制御部35は、第1、第2センサ34a2、34b2からの出力信号によって、助手席用溝部33bにおいて、指のスライド有りと判定すると、操作者は助手席者であると判定する。尚、図12中の「D席」は運転席(Driver seat)を意味し、また、「P席」は助手席(Passenger seat)を意味している。
ステップS141で、操作者は運転者であると判定すると、ステップS142で、操作制御部35は、運転者用の画面表示設定を行う。つまり、本来の表示画像60を運転者用専用画像60aに切替える。運転者用専用画像60aは、図13の右側の枠内に示すように、各種アイコン62、ポインタ63、およびフォーカス64が表示される画像となっている。そして、運転者用専用画像60aには、メニュー61の代わりに、この画面が運転者専用の画面であることを示す運転者用専用表示60a1が追加表示されるようになっている。
加えて、運転者用専用画像60aは、運転者側を向くように外観形状が変更される。つまり、運転者用専用画像60aにおいては、表示画像60aの本来の横長長方形の外観形状が、平行四辺形の外観形状となる。平行四辺形の外観形状は、底辺が運転者側(右側)にずれた形となって、左右の辺が上側から下側に向けて、運転者側に傾いたものとなっている。つまり、運転者用専用画像60aは、本来の表示画像60が運転者側に向けられたイメージの画像であることを、運転者自身が直感的に認識できる画像となっている。
一方、ステップS141で、操作者は助手席者であると判定すると、ステップS143で、操作制御部35は、助手席者用の画面表示設定を行う。つまり、本来の表示画像60を助手席者用専用画像60bに切替える。助手席者用専用画像60bは、図13の左側の枠内に示すように、各種アイコン62、ポインタ63、およびフォーカス64が表示される画像となっている。そして、助手席者用専用画像60bには、メニュー61の代わりに、この画面が助手席者専用の画面であることを示す助手席者用専用表示60b1が追加表示されるようになっている。
加えて、助手席者用専用画像60bは、助手席者側を向くように外観形状が変更される。つまり、助手席者用専用画像60bにおいては、表示画像60aの本来の横長長方形の外観形状が、平行四辺形の外観形状となる。平行四辺形の外観形状は、底辺が助手席者側(左側)にずれた形となって、左右の辺が上側から下側に向けて、助手席者側に傾いたものとなっている。つまり、助手席者用専用画像60bは、本来の表示画像60が助手席者側に向けられたイメージの画像であることを、助手席者自身が直感的に認識できる画像となっている。
そして、操作制御部35は、ステップS142、およびステップS143の後に、上記第1実施形態と同様に、ステップS150〜ステップS240を実施し、操作者の指の操作状態に応じた入力制御を行い、更に、指操作なしの状態が所定時間以上継続すると、操作面32に対する入力の禁止を行う。
以上のように、本実施形態においては、操作者の対象を運転者と助手席者としており、溝部として運転者用、および助手席者用にそれぞれ対応付けられた運転席用溝部33aと、助手席用溝部33bという複数の溝部を設けている。そして、操作制御部35は、各溝部33a、33bに対する指操作に応じて、操作面32に対する入力の禁止を解除する。加えて、操作制御部35は、各溝部33a、33bのうち、指のスライド有りと判定した溝部33a、あるいは溝部33bに対応するように表示画像60を、運転者用専用画像60a、あるいは助手席者用専用画像60bのいずれかに切替えて液晶ディスプレイ52に表示する。
これにより、操作者(運転者あるいは助手席者)は、現在の表示画像60(運転者用専用画像60a、あるいは助手席者用専用画像60b)が、操作者自身の入力に基づくものであることが直感的に分かり、運転者あるいは助手席者のいずれの操作者が操作しているのか迷うことがなく、操作性を向上させることができる。
(第3実施形態)
第3実施形態の遠隔操作デバイス100Bを図14〜図17に示す。第3実施形態は、上記第1実施形態に対して、溝部として複数の溝部(ナビ用溝部331、オーディオ用溝部332、エアコン用溝部333)を設けて、各溝部への指操作によって、表示させたい画像(例えば複数の階層のうち、第1階層における複数のメイン画像)の選択機能を付加したものとなっている。
図14、図15、図17に示すように、遠隔操作デバイス100Bには、左右方向に並ぶように複数(ここでは3つ)の溝部、即ち、ナビ用溝部331、オーディオ用溝部332、およびエアコン用溝部333が設けられている。
ナビ用溝部331は、遠隔操作デバイス100Bの左側に位置し、例えば第1階層におけるナビ画面の表示用として対応付けされた溝部となっている。ナビ用溝部331には、上記第1実施形態と同様に、第1、第2センサ34aA、34bAが設けられている。第1、第2センサ34aA、34bAの検知する信号は、操作者の指がナビ用溝部331に有ることを示す信号として操作制御部35に出力されるようになっている。
また、オーディオ用溝部332は、遠隔操作デバイス100Bの左右方向の中央に位置し、例えば第1階層におけるオーディオ画面の表示用として対応付けされた溝部となっている。オーディオ用溝部332には、上記第1実施形態と同様に、第1、第2センサ34aB、34bBが設けられている。第1、第2センサ34aB、34bBの検知する信号は、操作者の指がオーディオ用溝部332に有ることを示す信号として操作制御部35に出力されるようになっている。
また、エアコン用溝部333は、遠隔操作デバイス100Bの右側に位置し、例えば第1階層におけるエアコン画面の表示用として対応付けされた溝部となっている。エアコン用溝部333には、上記第1実施形態と同様に、第1、第2センサ34aC、34bCが設けられている。第1、第2センサ34aC、34bCの検知する信号は、操作者の指がエアコン用溝部333に有ることを示す信号として操作制御部35に出力されるようになっている。
よって、操作制御部35は、第1、第2センサ34aA、34bA、あるいは第1、第2センサ34aB、34bB、あるいは第1、第2センサ34aC、34bCからの信号に基づいて、操作者がいずれの溝部を操作(スライド)したかが判定できるようになっている。
操作制御部35が行う入力処理のフローチャートは、図16に示すように、上記第1実施形態で説明したフローチャート(図8)に対して、操作者がいずれの溝部を操作したかを判定して、判定結果に応じた画面表示の設定を行うためのステップS145、ステップS146、ステップS147、およびステップS148が、ステップS140とステップS150との間に追加されたものとなっている。
操作制御部35は、まず、上記の第1実施形態と同様に、ステップS100において各溝部331、332、333に対する操作者の指のスライドがあったか否かを判定して、否定判定をするとステップS110〜ステップS130を実施し、肯定判定をするとステップS140を実施する。
そして、ステップS145で、操作制御部35は、ステップS100における第1、第2センサ34aA、34bB、あるいは第1、第2センサ34aB、34bB、あるいは第1、第2センサ34aC、34bCの出力信号から、操作者は、いずれの溝部に対して指をスライドさせたかを判定する。
具体的には、操作制御部35は、第1、第2センサ34aA、34bAからの出力信号によって、ナビ用溝部331における指のスライド有りと判定する。また、操作制御部35は、第1、第2センサ34aB、34bBからの出力信号によって、オーディオ用溝部332における指のスライド有りと判定する。また、操作制御部35は、第1、第2センサ34aC、34bCからの出力信号によって、エアコン用溝部333における指のスライド有りと判定する。
ステップS145で、ナビ用溝部331において指がスライドされたと判定すると、ステップS146で、操作制御部35は、本来の表示画像60をナビ画像601に切替えるための画面表示設定を行う。ナビ画像601は、図17の左側の枠内に示すように、メニュー61における「Map」に対応する画像であり、現在走行中近辺の地図、およびこの地図上における自車両の位置等が示される画像となっている。
また、ステップS145で、オーディオ用溝部332において指がスライドされたと判定すると、ステップS147で、操作制御部35は、本来の表示画像60をオーディオ画像602に切替えるための画面表示設定を行う。オーディオ画像602は、図17の真ん中の枠内に示すように、メニュー61における「Media」に対応する画像であり、所望するオーディオ機器の選択、および音楽、画像等の再生等が可能となる各種アイコンが表示される画像となっている。
また、ステップS145で、エアコン用溝部333において指がスライドされたと判定すると、ステップS148で、操作制御部35は、本来の表示画像60をエアコン画像603に切替えるための画面表示設定を行う。エアコン画像603(図17の右側の枠内)は、上記第1、第2実施形態で説明したエアコン操作用の画像である。
そして、操作制御部35は、ステップS146、ステップS147、およびステップS148の後に、上記第1実施形態と同様に、ステップS150〜ステップS240を実施し、操作者の指の操作状態に応じた入力制御を行い、更に、指操作なしの状態が所定時間以上継続すると、操作面32に対する入力の禁止を行う。
以上のように、本実施形態においては、溝部として、所定階層における複数の画像と対応する複数の溝部(ナビ用溝部331、オーディオ用溝部332、およびエアコン用溝部333)を設けている。そして、操作制御部35は、各溝部331、332、333に対する指操作に応じて、操作面32に対する入力の禁止を解除する。加えて、操作制御部35は、各溝部331、332、333のうち、指のスライド有りと判定したナビ用溝部331、あるいはオーディオ用溝部332、あるいはエアコン用溝部333に対応するように表示画像60を、ナビ画像601、あるいはオーディオ画像602、あるいはエアコン画像603のいずれかに切替えて液晶ディスプレイ52に表示する。
これにより、操作者は、所望する表示画像60の選択をしながら、同時に操作面32への入力禁止状態を解除でき、操作性を向上させることができる。また、操作者は、いずれかの溝部331、332、333を指でスライドすることで、所望する表示画像60を選択できるため、ブラインド操作による画像選択が可能となる。
(その他の実施形態)
上記各実施形態では、ステップS110の後に、ステップS120でロック情報65をフラッシング(点滅)するようにしたが、ロック情報65を表示すること自体で、操作者に対する注意喚起ができるようであれば、ステップS120は廃止しても良い。
また、ステップS130における通常画像への復帰を廃止して、ステップS100で肯定判定した後に、ステップS140における入力禁止を解除した時に、ステップS130に相当する通常画像への復帰を行うようにしても良い。
また、各溝部に対してそれぞれ複数のセンサ(第1、第2センサ)を設けるようにしたが、1つの溝部に対して1つのセンサにて対応するようにしても良い。この場合、指をスライドさせる方向は、溝部の両端部のどちら側(ポイントA側、あるいはポイントB側)からでも良いものとすることができる。ただし、上記各実施形態と同様に、ポイントA側からポイントB側へのスライド方向を操作要領として予め決めておけば、各溝部から操作面32に対する連続的な操作が可能となる。
また、操作面32と各溝部は同一面上に設けられ、且つ、溝部の長手方向が操作面32内を向くようにしたが、これに限定されることなく、例えば、溝部が操作面32に対して段差をもって上側に設けられるようにしても良い。あるいは、溝部が直方体を成す遠隔操作デバイス100、100A、100Bの側面部に設けられるようにしても良い。
また、第1、第2センサは、タッチセンサ31と一体的に設けられるようにしたが、それぞれ専用のセンサとして設けるようにしても良い。
また、第2、第3実施形態において、複数の溝のうち、同時に2つ以上の溝に対して指をスライドさせることで、所定の入力機能(例えば、今の入力操作をキャンセルする、あるいは1つ前の画面に戻る、あるいは第1階層のメイン画面に戻る、あるいは設定メニューに移行する等)を持たせるようにしても良い。
また、検出手段として静電容量式のタッチセンサ31を用いたが、これに限定されるものではなく、他の感圧式のタッチセンサ等としても良い。
また、遠隔操作デバイス100、100A、100Bにプッシュスイッチを設けて、指操作によって選択した内容(アイコン等)を決定する際に、このプッシュスイッチを押込むことで、決定するようにしても良い。
100、100A、100B 遠隔操作デバイス(入力装置)
31 タッチセンサ
32 操作面
33 溝部
33a 運転席用溝部(複数の溝部)
33b 助手席用溝部(複数の溝部)
331 ナビ用溝部(複数の溝部)
332 オーディオ用溝部(複数の溝部)
333 エアコン用溝部(複数の溝部)
34a、34a1、34a2、34aA、34aB、34aC 第1センサ(検出部、遠い側の検出部)
34b、34b1、34b2、34bA、34bB、34bC 第2センサ(検出部、近い側の検出部)
35 操作制御部(制御部)
52 液晶ディスプレイ(表示部)
60 表示画像(画像)
60a 運転者用専用画像(専用画像)
60b 助手席者用専用画像(専用画像)
601 ナビ画像(複数の階層に分かれた画像)
602 オーディオ画像(複数の階層に分かれた画像)
603 エアコン画像(複数の階層に分かれた画像)

Claims (8)

  1. 車両に搭載されて、複数の階層に分かれた画像(60)を切替え可能に表示する表示部(52)に対して別体で形成されており、操作面(32)に対する使用者の指操作によって、前記画像(60)を操作するための入力が行われる入力装置であって、
    窪みに前記使用者の指先が挿入されて、前記窪みが連続する長手方向に指のスライドが可能となる溝部(33)と、
    前記溝部(33)における前記指の有無を検出する検出部(34a、34b)と、
    前記操作面(32)に対する前記指操作が所定時間以上実施されていないときに、前記操作面(32)への前記指操作による入力の禁止を行うと共に、前記検出部(34a、34b)によって前記溝部(33)に前記指があると検出されると、前記溝部(33)における前記指のスライド有りと判定して、前記入力の禁止を解除する制御部(35)とを備えることを特徴とする入力装置。
  2. 前記制御部(35)は、前記入力の禁止を行っているときに、前記使用者による前記操作面(32)への指操作が行われても、前記溝部(33)における前記指のスライド無しと判定すると、前記入力の禁止を行っている旨を前記表示部(52)に表示させることを特徴とする請求項1に記載の入力装置。
  3. 前記検出部(34a、34b)は、前記溝部(33)の長手方向に複数設けられ、
    前記制御部(35)は、複数の前記検出部(34a、34b)のすべてが、前記指の有ることを検出すると、前記指のスライド有りと判定することを特徴とする請求項1または請求項2に記載の入力装置。
  4. 前記溝部(33)は、前記操作面(32)と同一面上に、且つ前記長手方向が前記操作面(32)内に向くように配置されており、
    前記制御部(35)は、複数の前記検出部(34a、34b)のうち、前記操作面(32)に対して遠い側の検出部(34a)の後に、近い側の検出部(34b)が前記指の有ることを検出すると、前記指のスライド有りと判定することを特徴とする請求項3に記載の入力装置。
  5. 前記溝部(33)は、前記操作面(32)と同一面上に、且つ前記長手方向が前記操作面(32)内に向くように配置されていることを特徴とする請求項1または請求項2に記載の入力装置。
  6. 前記操作面(32)には、前記操作面(32)に対する前記指の位置を検出するタッチセンサ(31)が設けられており、
    前記検出部(34a、34b)は、前記タッチセンサ(31)と一体的に形成されていることを特徴とする請求項1〜請求項5のいずれか1つに記載の入力装置。
  7. 前記使用者は、前記車両の運転者および助手席者を含み、
    前記溝部(33)は、複数設けられており、
    複数の前記溝部(33a、33b)は、前記運転者用、および前記助手席者用にそれぞれ対応付けされており、
    前記制御部(35)は、複数の前記溝部(33a、33b)のうち、前記指のスライド有りと判定した前記溝部(33a、33b)に対応するように前記運転者用、あるいは前記助手席者用の専用画像(60a、60b)を前記表示部(52)に表示させることを特徴とする請求項1〜請求項6のいずれか1つに記載の入力装置。
  8. 前記溝部(33)は、複数設けられており、
    複数の前記溝部(331、332、333)は、複数の階層に分かれた前記画像(601、602、603)とそれぞれ対応付けされており、
    前記制御部(35)は、複数の前記溝部(331、332、333)のうち、前記指のスライド有りと判定した前記溝部(331、332、333)に対応する前記画像(601、602、603)を前記表示部(52)に表示させることを特徴とする請求項1〜請求項6のいずれか1つに記載の入力装置。
JP2013077849A 2013-04-03 2013-04-03 入力装置 Expired - Fee Related JP5928397B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013077849A JP5928397B2 (ja) 2013-04-03 2013-04-03 入力装置
DE112014001851.1T DE112014001851T5 (de) 2013-04-03 2014-03-27 Eingabevorrichtung
PCT/JP2014/001777 WO2014162699A1 (ja) 2013-04-03 2014-03-27 入力装置
US14/780,984 US9778764B2 (en) 2013-04-03 2014-03-27 Input device
CN201480018825.4A CN105121228B (zh) 2013-04-03 2014-03-27 输入装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013077849A JP5928397B2 (ja) 2013-04-03 2013-04-03 入力装置

Publications (2)

Publication Number Publication Date
JP2014203206A JP2014203206A (ja) 2014-10-27
JP5928397B2 true JP5928397B2 (ja) 2016-06-01

Family

ID=51658013

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013077849A Expired - Fee Related JP5928397B2 (ja) 2013-04-03 2013-04-03 入力装置

Country Status (5)

Country Link
US (1) US9778764B2 (ja)
JP (1) JP5928397B2 (ja)
CN (1) CN105121228B (ja)
DE (1) DE112014001851T5 (ja)
WO (1) WO2014162699A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5858059B2 (ja) 2013-04-02 2016-02-10 株式会社デンソー 入力装置
WO2016086341A1 (en) * 2014-12-01 2016-06-09 Dongguan Zkteco Electronic Technology Co., Ltd System and method for acquiring multimodal biometric information
CN107209848B (zh) * 2014-12-01 2020-10-13 厦门熵基科技有限公司 用于基于多模式生物识别信息的个人识别的系统和方法
JP6473610B2 (ja) * 2014-12-08 2019-02-20 株式会社デンソーテン 操作装置、及び、操作システム
US10429930B2 (en) * 2015-01-30 2019-10-01 Ncr Corporation Accessible tactile features for blind and partially sighted PIN entry and touchscreen usage
JP6747941B2 (ja) * 2016-11-04 2020-08-26 アルパイン株式会社 タッチ式入力装置および操作検出方法
CN110268371B (zh) * 2017-01-03 2023-09-22 布里连特家居技术公司 具有触摸控制槽的家居设备控制器
JP2018169755A (ja) * 2017-03-29 2018-11-01 富士フイルム株式会社 タッチ式操作装置とその作動方法および作動プログラム
JP2018169756A (ja) * 2017-03-29 2018-11-01 富士フイルム株式会社 タッチ式操作システムとその作動方法および作動プログラム
KR20190041632A (ko) * 2017-10-13 2019-04-23 현대자동차주식회사 차량 및 그 제어 방법
JP6719087B2 (ja) * 2017-12-08 2020-07-08 パナソニックIpマネジメント株式会社 入力装置、及び、入力方法
USD944216S1 (en) 2018-01-08 2022-02-22 Brilliant Home Technology, Inc. Control panel with sensor area
DE102018001200B3 (de) * 2018-02-14 2019-04-25 Daimler Ag Verfahren und Vorrichtung zur Bestimmung einer Nutzereingabe
CN108762051A (zh) * 2018-04-08 2018-11-06 天芯智能(深圳)股份有限公司 一种指针式智能手表的控制方法及装置
GB2577480B (en) * 2018-09-11 2022-09-07 Ge Aviat Systems Ltd Touch screen display assembly and method of operating vehicle having same
USD945973S1 (en) 2019-09-04 2022-03-15 Brilliant Home Technology, Inc. Touch control panel with moveable shutter
JP6806223B1 (ja) * 2019-12-06 2021-01-06 トヨタ自動車株式会社 表示制御装置、車両、表示の制御方法及びプログラム
US11715943B2 (en) 2020-01-05 2023-08-01 Brilliant Home Technology, Inc. Faceplate for multi-sensor control device
US20220297704A1 (en) * 2021-03-18 2022-09-22 Wind River Systems, Inc. Detecting Vehicle Infotainment User Position

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02240715A (ja) * 1989-03-15 1990-09-25 Matsushita Electric Ind Co Ltd 接触位置検出装置
US20090322499A1 (en) * 1995-06-29 2009-12-31 Pryor Timothy R Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
JPH1115599A (ja) 1997-06-26 1999-01-22 Tokai Rika Co Ltd タッチ操作情報出力装置
JP3792920B2 (ja) 1998-12-25 2006-07-05 株式会社東海理化電機製作所 タッチ操作入力装置
JP3680919B2 (ja) 1999-06-11 2005-08-10 エヌイーシーコンピュータテクノ株式会社 現金自動預金支払機
JP2006011614A (ja) * 2004-06-23 2006-01-12 Sharp Corp 指紋認識機能付き指輪、指紋認識装置、およびこれらを用いた情報処理システム
KR100811160B1 (ko) * 2005-06-02 2008-03-07 삼성전자주식회사 사용자명령을 3차원적으로 입력가능한 전자장치
US8926535B2 (en) * 2006-09-14 2015-01-06 Martin B. Rawls-Meehan Adjustable bed position control
US8676007B2 (en) * 2008-06-19 2014-03-18 Neonode Inc. Light-based touch surface with curved borders and sloping bezel
KR100985496B1 (ko) * 2008-07-01 2010-10-05 동아대학교 산학협력단 터치패드 모듈을 이용한 자동차의 기능 제어 장치 및 방법
JP2010061256A (ja) * 2008-09-02 2010-03-18 Alpine Electronics Inc 表示装置
JP5364925B2 (ja) * 2009-02-27 2013-12-11 現代自動車株式会社 車載機器の入力装置
JP5455557B2 (ja) 2009-10-27 2014-03-26 京セラ株式会社 携帯端末装置
KR101092722B1 (ko) 2009-12-02 2011-12-09 현대자동차주식회사 차량의 멀티미디어 시스템 조작용 사용자 인터페이스 장치
US20150309316A1 (en) * 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
JP5638330B2 (ja) 2010-09-28 2014-12-10 京セラ株式会社 携帯端末、プログラム及び表示制御方法
JP2012247890A (ja) 2011-05-26 2012-12-13 Nippon Seiki Co Ltd タッチパネル入力操作装置
JP5617783B2 (ja) * 2011-07-17 2014-11-05 株式会社デンソー 車両用の操作入力装置及び制御システム
JP5452566B2 (ja) * 2011-10-31 2014-03-26 本田技研工業株式会社 車両用入力装置
JP5812054B2 (ja) 2012-08-23 2015-11-11 株式会社デンソー 操作デバイス
US9001035B2 (en) * 2012-10-19 2015-04-07 Red Bird Rising, Llc Configured input display for communicating to computational apparatus
US10185416B2 (en) * 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
US9477313B2 (en) * 2012-11-20 2016-10-25 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving outward-facing sensor of device
US20140267282A1 (en) * 2013-03-14 2014-09-18 Robert Bosch Gmbh System And Method For Context Dependent Level Of Detail Adjustment For Navigation Maps And Systems
JP5858059B2 (ja) 2013-04-02 2016-02-10 株式会社デンソー 入力装置
JP2014203177A (ja) 2013-04-02 2014-10-27 株式会社デンソー 入力装置

Also Published As

Publication number Publication date
US9778764B2 (en) 2017-10-03
US20160054822A1 (en) 2016-02-25
WO2014162699A1 (ja) 2014-10-09
CN105121228B (zh) 2017-03-15
CN105121228A (zh) 2015-12-02
DE112014001851T5 (de) 2015-12-24
JP2014203206A (ja) 2014-10-27

Similar Documents

Publication Publication Date Title
JP5928397B2 (ja) 入力装置
JP5812054B2 (ja) 操作デバイス
JP5858059B2 (ja) 入力装置
JP6310787B2 (ja) 車両用入力装置および車両用コックピットモジュール
JP6035828B2 (ja) 表示操作装置および表示システム
WO2009128148A1 (ja) 遠隔操作装置
US10137781B2 (en) Input device
JP5656046B2 (ja) 車両用情報表示装置
EP3117293A1 (en) Operating device for vehicle
JP2016009301A (ja) 車両用入力装置
JP5751233B2 (ja) 操作デバイス
US20130201126A1 (en) Input device
JP5954145B2 (ja) 入力装置
JP5754483B2 (ja) 操作デバイス
WO2016031152A1 (ja) 車両用入力インターフェイス
WO2014162698A1 (ja) 入力装置
JP6610452B2 (ja) 車両用表示装置
WO2016031148A1 (ja) 車両用タッチパッドおよび車両用入力インターフェイス
JP2012063831A (ja) 遠隔操作装置
CN110554830A (zh) 显示装置、显示控制方法以及存储程序的存储介质
JP4960317B2 (ja) 入力装置
JP2015057728A (ja) 車両用情報表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160411

R151 Written notification of patent or utility model registration

Ref document number: 5928397

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees