JP5751233B2 - 操作デバイス - Google Patents

操作デバイス Download PDF

Info

Publication number
JP5751233B2
JP5751233B2 JP2012220661A JP2012220661A JP5751233B2 JP 5751233 B2 JP5751233 B2 JP 5751233B2 JP 2012220661 A JP2012220661 A JP 2012220661A JP 2012220661 A JP2012220661 A JP 2012220661A JP 5751233 B2 JP5751233 B2 JP 5751233B2
Authority
JP
Japan
Prior art keywords
finger
space
input auxiliary
image
operation surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012220661A
Other languages
English (en)
Other versions
JP2014074955A (ja
Inventor
江波 和也
和也 江波
重明 西橋
重明 西橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2012220661A priority Critical patent/JP5751233B2/ja
Priority to US14/427,732 priority patent/US20150242102A1/en
Priority to PCT/JP2013/004701 priority patent/WO2014054208A1/ja
Priority to DE112013004843.4T priority patent/DE112013004843T5/de
Priority to CN201380051769.XA priority patent/CN104704459B/zh
Publication of JP2014074955A publication Critical patent/JP2014074955A/ja
Application granted granted Critical
Publication of JP5751233B2 publication Critical patent/JP5751233B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of two-dimensional [2D] relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Navigation (AREA)

Description

本発明は、操作部への入力によって表示画面に表示される画像部を操作する操作デバイスに関する。
従来、例えば特許文献1には、表示画面に表示されるナビゲーションのポインタ及びラジオメイン画面等の画像部を、遠隔タッチパッド部に対してなされる操作に関連付けて移動させる技術が、開示されている。この特許文献1に開示のユーザインターフェース装置は、操作者の指等を移動させる操作を検出する遠隔タッチパット部と、遠隔タッチパッド部によって検出される指の操作を地図及びポインタ等の移動に関連付ける制御部とを備えている。
加えて制御部は、遠隔タッチパット部から指までの距離を取得している。そして、取得される指までの距離が予め規定された高さ、例えば3センチメートル(cm)未満である場合には、制御部は、遠隔タッチパット部によって検出される指による操作を、表示画面上のポインタを移動させる操作に関連付ける。一方で、制御部によって取得される指までの距離が予め規定された高さ、例えば5cm〜7cmの範囲内である場合には、当該制御部は、遠隔タッチパット部によって検出される指による操作を、ラジオメイン画面から操作待機画面に切り替える切替操作に関連付ける。
特開2011―118857号公報
さて、特許文献1の操作デバイスには、ラジオメイン画面から操作待機画面に切り替える切替操作を行う場合に、操作者の指による入力を補助する構成が、何ら設けられていない。そのため、切替操作を行うことのできる範囲を把握することが操作者にとって困難となっていた。このように切替操作を行う範囲が分かり難いと、操作者は、切替操作を行う入力を容易に実施できなくなるおそれがあった。
本発明は、上記問題点に鑑みてなされたものであって、その目的は、操作部から離間した操作空間内での操作者による入力を容易にする操作デバイスを提供することである。
上記目的を達成するために、開示された発明のひとつは、操作者の指(F)による入力が、操作面(72,272,370,470,572,672)に対してなされることによって、表示画面(52)に表示された画像(61)を操作する操作デバイスであって、操作体の移動を検出する検出手段(31,33)と、操作面から操作体までの操作体距離(d)を取得する取得手段(31,33)と、操作体距離が予め規定された閾値距離(Dth1)未満となる第一操作空間(Sp1)内において検出された操作体の移動と、操作体距離が閾値距離を超える第二操作空間(Sp2)内で検出された操作体の移動とを区別して、当該操作体の移動を、表示画面上に表示された第一画像部または第一画像部とは異なる第二画像部(164,263,364)いずれかに関連付けて、第一画像部もしくは第二画像部の少なくとも一方の表示態様を変化させる関連付け手段(33,S105,S110,S305,S307)と、操作面よりも閾値距離以上離れた位置に形成された入力補助部(74,274,375,475,574,674)と、を備え、操作面は操作デバイスに設けられた凹所(80、280、680)の底面(81、281、681)に形成されており、入力補助部は凹所内に位置しており、底面から離間する方向に閾値距離以上離れた位置に形成されていることを特徴としている。
この発明によれば、操作体の移動が第二画像に関連付けられる第二操作空間内にて入力を行う際に、操作者は、操作面よりも閾値距離以上離れた位置に形成された入力補助部に触れることで、入力の補助を受けられ得る。こうした補助により、操作者は、操作面から離間して規定される第二操作空間の位置を把握し易くなる。したがって、操作者は、第二操作空間内での入力を容易に実施できるようになる。
本発明の第一実施形態による遠隔操作デバイスを備えた表示システムの構成を説明するための図である。 表示画面及び操作面の車室内での配置を説明するための図である。 表示画面に表示される表示画像の一例を説明するための図である。 描画レイヤの重畳によって表示画像が形成されることを説明するための図である。 第一実施形態による遠隔操作デバイスの斜視図である。 第一実施形態による遠隔操作デバイスの構成を説明するための図であって、図5のVI−VI線断面図である。 第一実施形態による遠隔操作デバイスにおいて、操作体距離によって操作の対象となる画像部が切り替えられることを説明するための図である。 操作者による一連のアイコン選択操作を説明するための図である。 第一実施形態による遠隔操作デバイスにおいて、操作制御部により実施される操作モード選択処理が示されるフローチャートである。 第一実施形態による遠隔操作デバイスにおいて、タッチセンサにより検出される感度値と、操作制御部により判定される操作状態との関係を説明するための図である。 第一実施形態の操作制御部に記憶されている各感度閾値を示すテーブルである。 第二実施形態による遠隔操作デバイスの斜視図である。 第二実施形態による遠隔操作デバイスの構成を説明するための図であって、図12のXIII−XIII線断面図である。 操作者による一連のアイコン選択操作を説明するための図である。 第三実施形態による遠隔操作デバイスの構成を説明するための断面図である。 操作者による一連のアイコン選択操作を説明するための図である。 第三実施形態による遠隔操作デバイスにおいて、操作制御部により実施される操作モード選択処理が示されるフローチャートである。 第四実施形態による遠隔操作デバイスの構成を説明するための断面図である。 第五実施形態による遠隔操作デバイスの構成を説明するための断面図である。 第六実施形態による遠隔操作デバイスの構成を説明するための断面図である。 図19の変形例を示す図である。
以下、本発明の複数の実施形態を図面に基づいて説明する。尚、各実施形態において対応する構成要素には同一の符号を付すことにより、重複する説明を省略する場合がある。各実施形態において構成の一部分のみを説明している場合、当該構成の他の部分については、先行して説明した他の実施形態の構成を適用することができる。また、各実施形態の説明において明示している構成の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても複数の実施形態の構成同士を部分的に組み合せることができる。そして、複数の実施形態及び変形例に記述された構成同士の明示されていない組み合わせも、以下の説明によって開示されているものとする。
(第一実施形態)
本発明の第一実施形態による遠隔操作デバイス100は、車両に搭載され、図1に示されるように、ナビゲーション装置50等と共に表示システム10を構成している。遠隔操作デバイス100は、図2に示されるように、車両のセンターコンソールにてパームレスト39と隣接する位置に設置され、操作者の手の届き易い範囲に操作面70を露出させている。この操作面70には、操作者の手の人差し指(以下、単に「指」という)F等による操作が入力される。ナビゲーション装置50は、操作者から目視されるよう表示画面52を露出させ且つ表示画面52を運転席に向けた姿勢にて、車両のインスツルメントパネル内に設置されている。この表示画面52には、種々の表示画像60が表示される。
図3に示される表示画像60は、表示画面52に表示される複数の表示画像のうちの一つであり、車両に搭載された空調機器を操作するための空調メニュー画像を示している。表示画像60には、所定の機能が関連付けられた複数のアイコン63、アイコン63を選択するためのフォーカス62、及びこれらアイコン63及びフォーカス62の背景となる背景部64等が含まれている。表示画面52上にてフォーカス62の表示される位置は、図2に示す操作面70上にて指Fの接触の接触する位置に対応している。
以上の表示画像60は、図4に示されるように、ナビゲーション装置50(図1参照)が複数の描画レイヤを重畳することにより、生成される。具体的に表示画像60は、背景部64の描画される背景レイヤL2、アイコン63等の描画されるオブジェクトレイヤL3、及びフォーカス62の描画されるフォーカスレイヤL1等を重畳させることで、生成されている。各レイヤL1〜L3の大きさは、表示画面52の大きさに合わせるようにして、規定されている。
次に、図1に示す遠隔操作デバイス100及びナビゲーション装置50の各構成を詳しく説明する。
遠隔操作デバイス100は、Controller Area Network(CAN)バス90、及び外部のバッテリ95等と接続されている。CANバス90は、車両に搭載された複数の車載装置を相互に接続してなる車内通信ネットワークにおいて、各車載装置間でのデータの伝送に用いられる伝送路である。遠隔操作デバイス100は、CANバス90を通じて、離れて位置するナビゲーション装置50とCAN通信可能とされている。
遠隔操作デバイス100は、電源インターフェース21,22、通信制御部23、通信インターフェース24、タッチセンサ31、及び操作制御部33等によって構成されている。各電源インターフェース21,22は、バッテリ95から供給される電力を安定化して、操作制御部33に供給する。一方の電源インターフェース21には、バッテリ95から常に電力が供給されている。他方の電源インターフェース22には、車両のアクセサリ(ACC)電源がオン状態とされたことに基づいてスイッチ93が通電状態となることにより、バッテリ95から電力が供給される。
通信制御部23及び通信インターフェース24は、操作制御部33によって処理された情報をCANバス90に出力すると共に、他の車載装置からCANバス90に出力された情報を取得するための構成である。通信制御部23及び通信インターフェース24は、送信用の信号線TX及び受信用の信号線RXによって互いに接続されている。
図1,2に示すように、タッチセンサ31は、静電容量式のものであって、矩形の平板状に形成されている。タッチセンサ31は、図5のx軸方向に沿って延びる電極とy軸方向に沿って延びる電極とが格子状に配列されることにより、形成されている。図1に示すように、タッチセンサ31は、操作制御部33と接続されている。タッチセンサ31は、操作面70に対する指F(図2参照)による操作を検出し、操作制御部33に出力する。
操作制御部33は、各種の演算処理を行うプロセッサ、演算処理の作業領域として機能するRAM、及び演算処理に用いられるプログラム等が格納されたフラッシュメモリ等によって構成されている。加えて、操作制御部33は、各電源インターフェース21,22、通信制御部23、タッチセンサ31等と接続されている。
図6に示すような互いに近接した指Fとタッチセンサ31の電極との間には、電荷が蓄えられる。図1に示す操作制御部33は、所定のプログラムを実行してタッチセンサ31の各電極の電位を計測することにより、当該センサ31の感度値(図10参照)を取得する。操作制御部33は、操作面70に対する指Fの相対的な位置を示すx座標及びy座標、さらに操作面70から指Fまでの距離(以下、「操作体距離d」という)に相当するz座標を、感度値に基づく算出処理によって検出する。そして操作制御部33は、指Fの相対位置を示すx座標及びy座標を、通信制御部23及び通信インターフェース24を通じて、CANバス90に出力する。
図1,2に示すナビゲーション装置50は、遠隔操作デバイス100等と通信可能なようCANバス90と接続されている。ナビゲーション装置50は、表示制御部53及び液晶ディスプレイ51を有している。
表示制御部53は、各種の演算処理を行うプロセッサ、演算処理の作業領域として機能するRAM、画像の描画処理を行うグラフィックプロセッサ、描画処理の作業領域として機能するグラフィックRAM等によって構成されている。加えて表示制御部53は、演算処理及び描画処理に用いられるデータを格納するフラッシュメモリ、CANバス90と接続される通信インターフェース、及び描画した画像データを液晶ディスプレイ51に出力する映像出力インターフェースを有している。表示制御部53は、CANバス90から取得する情報に基づいて、表示画面52に表示する表示画像60を描画する。そして表示制御部53は、描画した表示画像60の画像データを、映像出力インターフェースを通じて液晶ディスプレイ51に逐次出力する。
液晶ディスプレイ51は、表示画面52に配列された複数の画素を制御することにより、カラー表示を実現するドットマトリクス方式の表示器である。液晶ディスプレイ51は、表示制御部53から逐次取得する画像データを表示画面52に連続的に形成することにより、映像を表示する。
次に、操作面70の構成を、図5,6に基づいて更に詳しく説明する。
操作面70は、遠隔操作デバイス100に設けられた凹所80に形成されている。凹所80は、当該凹所80の周囲を囲む囲繞面85から矩形状に凹んできる。凹所80には、段差を設けられた第一底面81及び第二底面83と、複数の側壁面82,84,86とが形成されている。第一底面81及び第二底面83は、xy平面に沿った平面状に形成されている。第一底面81は、第二底面83よりも囲繞面85から深い位置に形成されている。第二底面83は、z軸方向において、第一底面81と囲繞面85との中間位置に形成されている。また第二底面83は、y軸方向において、車両の進行方向となる前方に設けられている。
中間側壁面82は、第一底面81及び第二底面83の間に形成されている。中間側壁面82は、z軸方向に沿って第一底面81から離間するに従い、第一底面81の外周側に傾斜している。前方側壁面84は、第二底面83及び囲繞面85の間に形成されている。前方側壁面84は、z軸方向に沿って第二底面83から離間するに従い、第二底面83の外周側に傾斜している。後方側壁面86は、第一底面81及び囲繞面85の間に形成されている。後方側壁面86は、z軸方向に沿って第一底面81から離間するに従い、第一底面81に外周側に傾斜している。
以上の凹所80に形成される操作面70は、第一操作面72及び第二操作面74等によって構成されている。第一操作面72は、第一底面81に矩形状に形成されている。第二操作面74は、第二底面83に矩形状に形成されており、後述する第一閾値距離Dth1(図7A参照)以上、第一操作面72から離れて位置している。第二操作面74の面積は、第一操作面72よりも狭くされている。
タッチセンサ31は、第一操作面72及び第二操作面74の全域とz軸方向において相対している。これにより、タッチセンサ31は、第一操作面72と対向する領域にて指Fを移動させる移動操作だけでなく、第二操作面74と対向する領域にて指Fを移動させる移動操作も検出可能とされている。
ここまで説明した遠隔操作デバイス100では、移動操作を入力する指Fの相対位置及び操作体距離dにより、操作モードが切り替えられる。これにより、図7に示す表示画像60において、指Fの移動操作と関連付けられる画像部61が変更される。以下、遠隔操作デバイス100に予め規定された次の(1)〜(3)の操作モードを、詳細に説明する。
(1)深部操作モード
深部操作モードでは、図7Aに示すように、指Fによる移動操作は、表示画面52のフォーカス62を移動させるフォーカス制御に関連付けられる。こうした深部操作モードとされるのは、第一操作空間Sp1内に指Fが位置していた場合である。この第一操作空間Sp1は、操作体距離dが第一閾値距離Dth1未満となる空間であって、第一操作面72と対向する領域に規定されている。第一閾値距離Dth1は、第一操作面72及び第二操作面74間の段差の大きさよりも僅かに短く、例えば0.5〜1cm程度に設定されている。
以上の第一操作空間Sp1内にて、xy平面に沿って指Fを移動させる移動操作は、「深部操作」と定義され、表示画面52に表示されたフォーカス62の位置を移動させることができる。
(2)浅部操作モード
浅部操作モードでは、図7Bに示すように、指Fによる移動操作は、表示画面52の複数のサブメニュー画像164を水平方向に移動(以下、「スクロール」という)させるスクロール制御に関連付けられる。こうした深部操作モードとされるのは、第二操作空間Sp2内に指Fが位置していた場合である。この第二操作空間Sp2は、操作体距離dが第一閾値距離Dth1以上且つ第二閾値距離Dth2未満となる空間であって、第二操作面74と対向している領域に規定されている。第二閾値距離Dth2は、囲繞面85から第一操作面72までの深さよりも僅かに短くされており、例えば2〜3cm程度に設定されている。
以上の第二操作空間Sp2内に指Fを位置させると、表示画面52の表示は、空調メニュー画像を含む複数のサブメニュー画像164の選択が可能な状態へと切り替わる。こうした状態下、第二操作空間Sp2内にて、xy平面に沿って指Fを移動させる移動操作は、「浅部操作」と定義され、表示画面52に表示された複数のサブメニュー画像164をスクロールさせることができる。
また、上述した第一閾値距離Dth1及び第二閾値距離Dth2の設定により、第二操作面74は、第一操作面72よりも第二操作空間Sp2に近接して位置し、且つ第二操作空間Sp2内に位置する形態となる。故に、操作者は、指Fを第二操作面74に接触させつつ、浅部操作を行うことができる。このようにして、第二操作面74は、第二操作空間Sp2内での指Fによる入力を補助できる。
(3)非近接モード
非近接モードでは、指Fによる移動操作は、表示画面52のいずれの画像部61とも関連付けられない。こうした非近接モードとされるのは、第一操作空間Sp1(図7A参照)及び第二操作空間Sp2のいずれにも指Fが位置していない場合である。このように、第一操作空間Sp1及び第二操作空間Sp2を除く空間を、非近接空間とする。
ここまで説明したように、表示システム10(図1参照)においては、第一操作空間Sp1内で検出される指Fの移動と、第二操作空間Sp2内で検出される指Fの移動とが区別される。こうした構成において、操作者が任意のアイコン63(図8A参照)を選択するまでの一連のアイコン選択操作を、図8に基づいて順に説明する。
図8Aは、各操作面72,74に指Fを接近させる動作を操作者が開始させた状態を示している。このように、アイコン選択操作を開始しようとする操作者は、第一操作面72及び第二操作面74から遠方に位置させていた指Fを、各操作面72,72に向けて移動させる。図8Aに示す状態では、遠隔操作デバイス100が待機状態であるため、表示画面52のフォーカス62等につき、指Fの操作と関連した移動は、行われない。
図8Bは、非近接空間から第二操作空間Sp2へと指Fを移動させた状態を示している。この状態から、第二操作面74を叩く操作(以下、「タップ操作」という)を操作者が入力することにより、指Fによる浅部操作とスクロール制御との関連付けが開始される。こうして操作モードが浅部操作モードとされることにより、表示画面52の表示は、複数のサブメニュー画像164をスクロール可能な状態へと切り替えられる。
図8Cでは、操作者は、第二操作面74を指Fでなぞる操作を第二操作面74に入力している。操作者は、x軸方向に沿って指Fを移動させる第二操作空間Sp2内での浅部操作により、任意のアイコン63を含むサブメニュー画像164(例えば、空調メニュー画像)を表示画面52の中央に移動させることができる。
図8Dは、第二操作空間Sp2から第一操作面72上の第一操作空間Sp1へと指Fを移動させた状態を示している。指Fが第一操作空間Sp1に移動したことにより、遠隔操作デバイス100の操作モードは、浅部操作モードから深部操作モードへと切り替えられる。これにより、移動操作がフォーカス制御に関連付けられるようになると共に、表示画面52の中央部分に表示されていたサブメニュー画像164(空調メニュー画像,図8C参照)が表示画面52の全体に表示される。
以上の状態下、操作者は、第一操作面72を指Fでなぞる深部操作を入力することで、任意のアイコン63にフォーカス62を重畳させることができる。そして操作者は、任意のアイコン63にフォーカス62を重畳させた状態で、タップ操作を第一操作面72に入力することにより、この任意のアイコン63を選択することができる。
アイコン63の選択操作を完了させた操作者は、図8Aの如く、非近接空間に指Fを移動させる。これにより、操作モードは、非近接モードへと切り替えられる。そして、操作モードが非近接モードへと切り替えられた後、予め規定された閾値時間Tthが経過することにより、遠隔操作デバイス100は、次回以降の操作者によるアイコン選択操作を待機する状態となる。
以上のアイコン選択操作を実現するために、操作制御部33によって実施される操作モード選択処理を、図9〜図11に基づいて詳細に説明する。図9に示される操作モード選択処理は、車両のACC電源がオン状態とされることにより、操作制御部33(図1参照)によって開始される。
S101では、タッチセンサ31から取得する出力の変動に基づいて、第一操作面72及び第二操作面74のいずれか一方へのタップ操作の有無を判定する。S101にて、タップ操作が無いと判定した場合には、S101の判定を繰り返すことで、遠隔操作デバイス100の待機状態が維持される。一方で、S101にて、タップ操作が有ったと判定した場合には、S102に進む。
S102では、タッチセンサ31の各電極にて検出される感度値を取得する取得処理を実施し、S103に進む。S103では、S102にて取得された感度値から、操作面32に対する指Fの三次元方向における位置を示すx座標,y座標,z座標(以下、「入力位置座標」)の計算処理を実施し、S104に進む。
以上のS103にて実施される計算処理の詳細を、図10に基づいて説明する。感度値は、操作面32と指Fとの間に蓄えられる静電容量が増加するに従って、大きくなる値である。故に、感度値が最大となるx軸方向及びy軸方向の座標は、第一操作面72及び第二操作面74上における指Fの相対位置を示すものとなる。加えて、感度値は、操作体距離d(図7A参照)が短くなるにしたがって減少し、操作体距離dが長くなるに従って増加する。故に、最大となる感度値は、操作体距離d、ひいてはz軸方向の座標に対応する(図6C参照)。
また、操作制御部33(図1参照)には、図11に示すテーブルのように、第一閾値距離Dth1に対応する感度閾値Hth1と、第二閾値距離Dth2に対応する感度閾値Hth2とが、予め記憶されている。図9に示すS104以降の処理において、操作制御部33は、S103にて取得された最大の感度値を、各感度閾値Hth1,Hth2と比較する処理を行う。
S104では、指Fが第一操作空間Sp1内にあるか否かを判定する。即ち、指Fの相対位置が第一操作面72上であり、且つ感度値が第一感度閾値Hth1以上であるか否かを判定する。S104にて、肯定判定をした場合には、S105に進む。S105では、操作モードを深部操作モードに設定し、S102に戻る。
S104にて、否定判定をした場合のS106では、指Fの相対位置が第一操作面72上であり、且つ感度値が第一感度閾値Hth1未満であるか否かを判定する。S106にて肯定判定をした場合には、S107に進む。S107では、操作モードを非近接モードに設定し、S108に進む。このS107において、深部操作モード及び浅部操作モードのいずれか一方から非近接モードへと操作モードを切り替えた場合には、当該非近接モードに移行後の経過時間tのカウントを開始する。
S108では、今回のS107又は前回以前のS107にてカウントの開始された経過時間tが、予め規定された閾値時間Tth以上となったか否かを判定する。S108にて肯定判定をした場合には、S101に戻る。これにより、遠隔操作デバイス100は、待機状態へと移行する。一方で、S108にて否定判定をした場合には、S102に戻る。
S106にて否定判定をした場合のS109では、指Fが第二操作空間Sp2内にあるか否かを判定する。即ち、指Fの相対位置が第二操作面74上であり、且つ感度値が第一感度閾値Hth1未満且つ第二感度閾値Hth2以上であるか否かを判定する。S109にて否定判定をした場合には、指Fが非近接空間にあると推定し、上述のS107に進む。一方、S109にて肯定判定をした場合には、S110に進む。S110では、操作モードを浅部操作モードに設定し、S102に戻る。
以上のS105,S107,S110にて操作モードを変更した操作制御部33は、操作モードの変更を通知する指令信号を、通信制御部23及び通信インターフェース24を通じて、CANバス90に出力する。この指令信号を取得した表示制御部53は、当該信号に基づいて、各操作モードに対応する描画レイヤをアクティブとする。
具体的には、操作制御部33が操作モードを深部操作モードに設定した場合、表示制御部53は、フォーカスレイヤL1をアクティブな描画レイヤとして選択する。以上により、操作制御部33は、指Fによる深部操作を、フォーカス62に関連付けて、当該フォーカス62の表示態様を変化させることができる(フォーカス制御)。
一方、操作制御部33が操作モードを浅部操作モードに設定に設定した場合、表示制御部53は、複数のサブメニュー画像164が描画されたサブメニューレイヤ(図示しない)をアクティブな描画レイヤとして選択する。以上により、操作制御部33は、指Fによる浅部操作を、サブメニュー画像164に関連付けて、当該サブメニュー画像164の表示態様を変化させることができる(スクロール制御)。
さらに、操作制御部33が操作モードを非近接モードに設定した場合、表示制御部53は、アクティブな描画レイヤを「無し」とする。これにより、指Fの移動操作は、いずれの画像部61とも関連付けられなくなる。
ここまで説明した第一実施形態によれば、第二操作空間Sp2内にて浅部操作を入力する際に、操作者は、第二操作面74に指Fを触れさせることで、入力の補助を受けられる。こうした補助により、操作者は、第一操作面72から離間して規定された第二操作空間Sp2の位置を把握し易くなる。したがって、操作者は、第二操作空間Sp2内での入力を容易に実施できるようになる。
加えて第一実施形態では、第一操作面72と第二操作面74との間で指Fを行き来させることにより、操作者は、操作の対象とする画像部61を、フォーカス62及びサブメニュー画像164のうちで切り替えることができる。このように、第一操作空間Sp1及び第二操作空間Sp2がzx平面に沿って前後に区切られることにより、操作者は、各操作空間Sp1,Sp2を、いっそう把握し易くなる。したがって、操作者は、手元を注視すること無く、一連のアイコン選択をブラインド操作にて行うことができる。
また第一実施形態によれば、遠隔操作デバイス100に設けられた凹所80の各底面81,83に各操作面71,73を形成することで、操作者は、囲繞面85及びパームレスト39によって手を安定化させたうえで、各操作面72,74への入力を実施し得る。故に、操作者による各操作空間Sp1,Sp2内での入力は、いっそう容易となる。
さらに第一実施形態に用いられる静電容量方式のタッチセンサ31は、第一操作面72に沿ったx,y軸方向の指Fの動きだけでなく、第一操作面72と実質的に直交するz軸方向の指Fの動きも検出できる。故に、xy平面における指Fの相対位置と操作体距離dとを共に検出する構成として、上述のタッチセンサ31は好適なのである。
さらに第一実施形態では、サブメニュー画像164が選択されることにより、選択されたサブメニュー画像164の中のアイコン63が選択可能となる。このように、表示画像60は、一つの選択が実施されることで、さらに詳細な機能の選択が可能な状態へと切り替わる階層的な構造とされている。こうした形態では、指Fによって操作される各操作面72,74の凹所80における物理的な深さは、指Fによる操作と関連付けられる画像部61の階層上の深さと対応するように設定される。これにより操作者は、指Fの入力に伴う表示画像60の変化を感覚的に把握し易くなるのである。
尚、第一実施形態において、タッチセンサ31及び操作制御部33が協働で特許請求の範囲に記載の「検出手段」及び「取得手段」に相当し、操作制御部33が特許請求の範囲に記載の「関連付け手段」に相当し、第一操作面72が特許請求の範囲に記載の「操作面」に相当し、第二操作面74が特許請求の範囲に記載の「入力補助部」に相当し、第一底面81が特許請求の範囲に記載の「底面」に相当し、フォーカス62が特許請求の範囲に記載の「第一画像部」に相当し、サブメニュー画像164が特許請求の範囲に記載の「第二画像部」に相当し、操作者の指Fが特許請求の範囲に記載の「操作体」に相当し、遠隔操作デバイス100が特許請求の範囲に記載の「操作デバイス」に相当する。
(第二実施形態)
図12〜14に示される本発明の第二実施形態は、第一実施形態の変形例である。第二実施形態による遠隔操作デバイス200では、凹所280の形状が、第一実施形態の凹所80(図6参照)の形状と異なっている。図12,13に示すように、第二実施形態の凹所280は、囲繞面85から二段筒孔状に凹んでいる。凹所280には、互いに段差を設けられた第一底面281及び第二底面283と、二つの内周壁面282,284とが形成されている。
第一底面281及び第二底面283は、xy平面に沿った平面状に形成されている。第一底面281は、第二底面283よりも囲繞面85から深い位置に、実質的に円形に形成されている。第二底面283は、第一底面281の外周側に形成され、第一底面281と同軸である円環状に形成されている。第二底面283は、z軸方向において、第一底面281と囲繞面85との中間に位置している。
二つの内周壁面282,284は、共に円筒面状に形成されている。これら内周壁面282,284のうち、囲繞面85よりも第一底面281に近接している深部側内周壁面282は、第一底面281の外縁と第二底面283の内縁とを繋いでいる。一方、第一底面281よりも囲繞面85に近接している浅部側内周壁面284は、第二底面283の外縁と、囲繞面85とを繋いている。各内周壁面282,284は、z軸方向に沿って形成されていてもよく、又は囲繞面85から第一底面281に向けて縮径するテーパ状に形成されていてもよい。
凹所280には、第一操作面272及び第二操作面274が形成されている。第一操作面272は、第一底面281に円形に形成されている。第二操作面274は、第二底面283の全域に円環状に形成されている。第二操作面274は、第一底面281の外縁部に沿うようにして、周方向に帯状に延びている。
タッチセンサ231は、第一操作面272及び第二操作面274の全域とz軸方向において相対する円盤状に形成されている。これにより、タッチセンサ231は、第一操作面272と対向する領域にて指Fを移動させる移動操作だけでなく、第二操作面274と対向する領域にて指Fを移動させる移動操作も検出可能とされている。
図13に示すように、遠隔操作デバイス200における第一操作空間Sp1は、第一操作面272と対向する領域のうちで、操作対距離dが第一閾値距離Dth1未満となる範囲に規定されている。この第一閾値距離Dth1は、第一操作面272及び第二操作面274間の段差の大きさよりも僅かに短くなるように設定されている。故に、第一操作空間Sp1は、深部側内周壁面282によって囲まれた領域に規定されることとなる。一方、第二操作空間Sp2は、第二操作面274と対向する領域のうちで、操作対距離dが第一閾値距離Dth1以上第二閾値距離Dth2未満となる範囲に規定されている。この第二閾値距離Dth2は、囲繞面85から第一操作面272までの深さよりも僅かに短くなるように設定されている。故に、第二操作空間Sp2は、深部側内周壁面282の外周側であり、且つ浅部側内周壁面284によって囲まれた領域に規定されることとなる。
次に、遠隔操作デバイス200に対し入力されるアイコン選択操作を、図14に基づいて説明する。図14Bに示す表示画像260は、車両に搭載されたオーディオ機器を操作するためのオーディオメニュー画像である。オーディオメニュー画像には、音声データが関連付けられたトラックアイコン263、このトラックアイコン263を選択するためのポインタ262、及びトラックアイコン263を強調するフォーカス62が含まれている。
図14Aにおける操作者は、第二操作面274を指Fでなぞる操作を、第二操作空間Sp2内の第二操作面274に入力している。こうした操作者による浅部操作は、表示画面52のトラックアイコン263に関連付けられて、これらのトラックアイコン263を一体的に上下方向にスクロールさせる(スクロール制御)。故に、第二操作面274を指Fでなぞる浅部操作を入力することで、操作者は、任意のトラックアイコン263を表示画面52の中央に移動させることができる。
図14Bでは、操作者は、指Fを第二操作空間Sp2から第一操作空間Sp1へと移動させている。第一操作空間Sp1内にて指Fが検知されると、表示画面52には、ポインタ262が表示される。図14Bにおける操作者は、第一操作面272を指Fでなぞる操作を、この第一操作面272に入力している。こうした操作者による深部操作は、表示画面52のポインタ262に関連付けられ、当該ポインタ262を移動させる表示態様の変化を可能にする(ポインタ制御)。故に、第一操作面272を指Fでなぞる深部操作を入力することで、操作者は、任意のトラックアイコン263にポインタ262を重畳させることができる。こうしてポインタ262を重畳されたトラックアイコン263は、フォーカス62によって囲まれる。操作者は、任意のトラックアイコン263にポインタ262を重畳させた状態で、タップ操作を第一操作面272に入力することで、この任意のトラックアイコン263を選択することができる。
以上のオーディオメニュー画像が表示された場合でも、サブメニュー画像164(図8B参照)が表示された場合と同様に、各操作面272,274のいずれかにタップ操作が入力されることで、移動操作と画像部262,263との関連付けが開始される。また、トラックアイコン263の選択操作を完了させた操作者が非近接空間に指Fを移動させると、操作モードは、非近接モードへと切り替えられる。そして、操作モードが非近接モードへと切り替えられた後、予め規定された閾値時間Tthが経過することにより、遠隔操作デバイス200は、次回以降の操作者によるアイコン選択操作を待機する状態となる。
ここまで説明した第二実施形態においても、操作者は、第二操作面274に触れつつ、浅部操作を実施することができる。こうした第二操作面274の支援によって第二操作空間Sp2の位置の把握が可能となることにより、当該操作空間Sp2内での入力は、容易となるのである。
加えて第二実施形態によれば、第二操作面274は、第一操作面272の外縁に沿って湾曲しつつ、帯状に延伸している。故に、操作者は、パームレスト39(図2参照)及び囲繞面85(図12参照)のいずれかによって手を固定させつつ、指Fにより略円弧状の軌跡を描くことができる。このように、第二操作面274の形状を、指Fを移動させ易い軌跡の形状に合わせることにより、操作者の指Fによる入力は、いっそう容易なものとなる。
尚、第二実施形態において、第一操作面272が特許請求の範囲に記載の「操作面」に相当し、第二操作面274が特許請求の範囲に記載の「入力補助部」に相当し、第一底面281が特許請求の範囲に記載の「底面」に相当し、ポインタ262が特許請求の範囲に記載の「第一画像部」に相当し、トラックアイコン263が特許請求の範囲に記載の「第二画像部」に相当し、遠隔操作デバイス200が特許請求の範囲に記載の「操作デバイス」に相当する。
(第三実施形態)
図15〜17に示される本発明の第三実施形態は、第二実施形態の変形例である。図15に示すように、第三実施形態による遠隔操作デバイス300において、タッチセンサ331は、第一底面281の全域とz軸方向において相対する円盤状に形成されている。こうしたタッチセンサ331の縮小により、第二底面283は、第二操作面274(図13参照)に替えて、浅部操作ガイド面375を形成している。浅部操作ガイド面375は、操作者の手を支持することで、後述する第二操作空間Sp2内での指Fによる入力を補助することができる。浅部操作ガイド面375は、第一操作空間Sp1と第二操作空間Sp2との間における仮想の境界面BPの近傍に位置し、当該境界面BPに沿って形成されている。こうした構成により、浅部操作ガイド面375は、ブラインド操作を行う操作者に、境界面BPの位置を示すことができる。一方で、第二実施形態の第一操作面272(図13参照)と実質的に同一であって、第一底面281に形成される第三実施形態の操作面は、操作面370とされている。この操作面370と相対する領域にて指Fを移動させる移動操作を、タッチセンサ331は検出する。
以上の遠隔操作デバイス300において、第一操作空間Sp1は、操作面370と対向する領域のうちで、操作対距離dが第一閾値距離Dth1未満となる範囲に規定されている。一方、第二操作空間Sp2は、操作面370と対向する領域のうちで、操作対距離dが第一閾値距離Dth1以上第二閾値距離Dth2未満となる範囲に規定されている。即ち、第二底面283と相対する領域には、第二操作空間Sp2は形成されていない。
また遠隔操作デバイス300には、複数の操作モードとして、接触操作モード及び空中操作モードが、非近接モードと共に規定されている。接触操作モードは、第一操作空間Sp1内に指Fが位置していた場合の操作モードであって、第一実施形態における深部操作モードに相当する。一方で、空中操作モードは、第二操作空間Sp2内に指Fが位置していた場合の操作モードであって、第一実施形態における浅部操作モードに相当する。
以上の遠隔操作デバイス300に対し入力されるアイコン選択操作を、図16に基づいて説明する。図16Bに示す表示画像360は、操作者によって設定された目的地までの経路を示すナビゲーション画像である。このナビゲーション画像には、所定の機能が関連付けられた複数のアイコン63、アイコン63を選択するためのポインタ262、及び車両周辺の道路の形態を示すマップ364等が含まれている。加えて表示画像360には、ポインタ262が重畳されたアイコン63を強調するフォーカス62も含まれている。
図16Aにおける操作者は、人差し指F以外の例えば親指及び小指等を浅部操作ガイド面375に載置させた状態で、第二操作空間Sp2内にて指Fの移動操作を入力している。このように、第二操作空間Sp2内にて、xy平面に沿って指Fを移動させる移動操作は、「空中操作」と定義され、表示画面52に表示されたマップ364に関連付けられて、当該マップ364を上下左右に移動させることができる(マップ制御)。故に、操作者は、空中操作を入力することにより、任意のアイコン63が選択容易な位置に表示されるよう、マップ364を移動させることができる。
図16Bでは、操作者は、指Fを第二操作空間Sp2から第一操作空間Sp1内の操作面370へと移動させている。第一操作空間Sp1内に指Fが検知されると、表示画面52には、ポインタ262が表示される。図16Bにおける操作者は、操作面370を指Fでなぞる操作を、この操作面370に入力している。このように、第一操作空間Sp1内にて、xy平面に沿って指Fを移動させる移動操作は、「接触操作」と定義され、ポインタ操作に関連付けられる。故に、操作面370を指Fでなぞる接触操作を入力することで、操作者は、任意のアイコン63にポインタ262を重畳させることができる。こうした状態下、タップ操作を操作面370に入力することで、操作者は、ポインタ262と重畳され且つフォーカス62によって囲まれた任意のアイコン63を選択することができる。
以上のアイコン選択操作を実現するために、操作制御部33(図1参照)によって実施される操作モード選択処理を、図17に基づいて詳細に説明する。
S301では、タッチセンサ331から取得する出力の変動に基づいて、操作面370へのタップ操作の有無を判定する。S301にて、タップ操作が無いと判定した場合には、S301の判定を繰り返すことで、遠隔操作デバイス300の待機状態が維持される。一方で、S301にて、タップ操作が有ったと判定した場合には、第一実施形態のS102及びS103(図9参照)と実質的に同一であるS302及びS303の処理を行う。
S304では、指Fが第一操作空間Sp1内にあるか否かを判定する。即ち、感度値が第一感度閾値Hth1以上であるか否かを判定する。S304にて、肯定判定をした場合には、S305に進む。S305では、操作モードを接触操作モードに設定し、S302に戻る。
S304にて、否定判定をした場合のS306では、指Fが第二操作空間Sp2内にあるか否かを判定する。即ち、感度値が第一感度閾値Hth1未満且つ第二感度閾値Hth2以上であるか否かを判定する。S306にて肯定判定をした場合には、S307に進む。S307では、操作モードを空中操作モードに設定し、S302に戻る。
S306にて、否定判定をした場合のS308では、操作モードを非近接モードに設定し、S309に進む。このS308において、接触操作モード又は空中操作モードから非近接モードへと操作モードを切り替えた場合には、当該非近接モードに移行後の経過時間tのカウントを開始する。
S309では、今回のS308又は前回以前のS308にてカウントの開始された経過時間tが、予め規定された閾値時間Tth以上となったか否かを判定する。S309にて肯定判定をした場合には、S301に戻る。これにより、遠隔操作デバイス300は、待機状態へと移行する。一方で、S309にて否定判定をした場合には、S302に戻る。
ここまで説明した第三実施形のように、第二底面283と対向する領域に第二操作空間Sp2が形成されていなくても、この第二底面283に形成された浅部操作ガイド面375が、境界面BPの位置を示し得る。故に、操作者は、ブラインド操作時において、境界面BPの位置を容易に把握できるようになる。したがって、遠隔操作デバイス300は、空中操作についての高い操作性を獲得することができる。
加えて操作者は、浅部操作ガイド面375に親指及び小指等で触れて手を安定化させつつ、浅部操作ガイド面375に隣接する第二操作空間Sp2内にて、指Fによる入力を行うことができる。こうした浅部操作ガイド面375による補助機能の発揮により、タッチセンサ331の検出範囲を抑えることで低コスト化を図った形態であっても、第二操作空間Sp2内での入力をさらに容易にすることが可能となる。
尚、第三実施形態において、浅部操作ガイド面375が特許請求の範囲に記載の「入力補助部」に相当し、マップ364が特許請求の範囲に記載の「第二画像部」に相当し、遠隔操作デバイス300が特許請求の範囲に記載の「操作デバイス」に相当する。
(第四実施形態)
図18に示される本発明の第四実施形態は、第一実施形態における凹所80等の構成に、第三実施形態の制御を組み合わせた変形例である。第四実施形態による遠隔操作デバイス400において、タッチセンサ431は、第一実施形態のタッチセンサ31(図6参照)よりも縮小されており、第一底面81の全域とz軸方向において相対する矩形状に形成されている。タッチセンサ431は、第一底面81に形成された操作面470と対向する領域にて指Fを移動させる移動操作を検出する。
遠隔操作デバイス400において、第一閾値距離Dth1は、第二底面83から第一底面81までの深さの半分以下となるように、例えば0.3cm程度に設定されている。故に、第一操作空間Sp1は、操作面470と対向する領域のうちで、第一底面81の近傍となる範囲に規定されている。一方、第二操作空間Sp2は、z軸方向において拡大されることにより、第二底面83よりも第一底面81の近接する範囲まで包含している。
以上の第一閾値距離Dth1の設定により、第二底面83に形成される浅部操作ガイド面475は、ブラインド操作を行う操作者に、第二操作空間Sp2の位置を示すことができる。故に、操作者は、z軸方向における浅部操作ガイド面475の位置に合わせて、指Fを移動させることにより、第二操作空間Sp2内での移動操作を確実に入力し得る。したがって、遠隔操作デバイス400は、空中操作についての高い操作性を獲得することができる。
加えて第四実施形態では、第二操作空間Sp2が拡大されているので、ブラインド操作による第二操作空間Sp2への入力は、いっそう容易となる。こうした第一閾値距離Dth1の設定値と浅部操作ガイド面475を設けることとの相乗的な入力補助作用により、遠隔操作デバイス400の操作性は、いっそう向上可能となる。
尚、第四実施形態において、浅部操作ガイド面475が特許請求の範囲に記載の「入力補助部」に相当し、遠隔操作デバイス400が特許請求の範囲に記載の「操作デバイス」に相当する。
(第五実施形態)
図19に示される本発明の第五実施形態は、第一実施形態の別の変形例である。第五実施形態による遠隔操作デバイス500からは、凹所80(図5参照)が省略されている。これにより、第一操作面572は、囲繞面85と段差のない平面上に形成されている。
一方、第二操作面574は、第一操作面572と対向する領域内に、可動部材576によって形成されている。可動部材576は、第二操作面574を支持する部材であって、zy平面における断面がL字状を呈している。可動部材576は、入力面部578、支柱部579及びヒンジ部577を有している。
入力面部578は、xy平面に沿う矩形の板状に形成されており、第一操作面572から離間して位置している。入力面部578の両面のうち、第一操作面572から離間した側となる上面が、第二操作面574を形成している。支柱部579は、入力面部578のy軸方向における両端のうちパームレスト39から離間した前端から、囲繞面85に向かって延伸している。支柱部579は、zx平面に沿う矩形の板状に形成されている。ヒンジ部577は、支柱部579の延伸方向の先端に形成されている。ヒンジ部577は、x軸まわりに可動部材576を回転可能にしている。故に、可動部材576は、第二操作面574と共に第一操作面572から離間するように、y軸方向の前方に向けて倒れることができる(図19の二点鎖線参照)。
以上の遠隔操作デバイス500において、第一閾値距離Dth1は、第一操作面572から入力面部578までの高さに合わせて規定されている。故に、第一操作空間Sp1は、第一操作面572と対向する領域のうちで、z軸方向につき入力面部578よりも低い範囲に規定されている。一方、第二操作空間Sp2は、第二操作面574と対向する領域のうちで、操作体距離dが第二閾値距離Dth2未満となる範囲に規定されている。
ここまで説明した第五実施形態でも、第一実施形態と同様の効果を奏することにより、操作者は、第二操作空間Sp2への入力の際に第二操作面574によって入力の補助を受けられる。したがって、遠隔操作デバイス500は、第二操作面574への入力につき、高い操作性を獲得することができる。
加えて第五実施形態では、第二操作面574は、第一操作面572と対向する領域内に設けられる。故に、第二操作面574の追加に起因する遠隔操作デバイス500の大型化は、回避され得る。加えて、第二操作面574が第一操作面572から離間しているので、第一操作面572の面積が狭められる事態も、回避され得る。したがって、遠隔操作デバイス500では、第二操作空間Sp2内における入力の操作性だけでなく、第一操作空間Sp1内における入力の操作性も確保されることとなる。
また第五実施形態によれば、操作の対象とされる画像部61(図7参照)の切り替えが不要な場合に、第二操作面574は、第一操作面572と対向する領域から退避し得る。故に、第二操作面574が不要な場合において、第一操作面572への入力が妨げられる事態は、回避可能となる。
尚、第五実施形態において、第一操作面572が特許請求の範囲に記載の「操作面」に相当し、第二操作面574が特許請求の範囲に記載の「入力補助部」に相当し、可動部材576が特許請求の範囲に記載の「可動支持部」に相当し、遠隔操作デバイス500が特許請求の範囲に記載の「操作デバイス」に相当する。
(第六実施形態)
図20に示される本発明の第六実施形態は、第五実施形態の変形例である。第六実施形態による遠隔操作デバイス600には、凹所680が形成されている。そして、この凹所680の底面681には、第一操作面672が形成されている。一方、第二操作面674は、凹所680の開口の一部を覆う蓋状の蓋部材676に形成されている。第二操作面674は、蓋部材676の両面のうち、第一操作面672から離間した側となる上面に形成されている。
蓋部材676は、第二操作面674を支持する部材であって、xy平面に沿った板状に形成されている。蓋部材676は、y軸方向に移動可能に設けられており、パームレスト39から離間する前方への移動によって凹所680の周辺部分に収容可能である(図20の二点鎖線参照)。これにより蓋部材676は、第二操作面674と共に第一操作面672から離間して、第一操作面672と相対する領域から第二操作面674を退避させることができる。蓋部材676には、移動を容易にするための爪部679が設けられている。爪部679は、蓋部材676におけるy軸方向の後端から、z軸方向に沿って底面681から離間する方向に突出している。操作者は、爪部679に指Fを掛けることにより、収容された蓋部材676をパームレスト39に近接する後方に、引き出すことができる。
以上の遠隔操作デバイス600において、第一閾値距離Dth1は、第一操作面672から蓋部材676までの高さに合わせて規定されている。故に、第一操作空間Sp1は、第一操作面672と対向する領域のうちで、z軸方向につき蓋部材676よりも低い範囲に規定されている。一方、第二操作空間Sp2は、第二操作面674と対向する領域のうちで、操作体距離dが第二閾値距離Dth2未満となる範囲に規定されている。
ここまで説明した第六実施形態でも、第一実施形態と同様の効果を奏することにより、操作者は、第二操作空間Sp2への入力の際に第二操作面674によって入力の補助を受けられる。したがって、遠隔操作デバイス600は、第二操作面674への入力につき、高い操作性を獲得することができる。
加えて第六実施形態のように、y軸方向にスライド可能な蓋部材676を設けることによっても、第一操作面672と対向する領域から第二操作面674を退避させることが可能となる。故に、第二操作面674が不要な場合において、第一操作面672への入力が妨げられる事態は、回避可能となる。
尚、第六実施形態において、第一操作面672が特許請求の範囲に記載の「操作面」に相当し、第二操作面674が特許請求の範囲に記載の「入力補助部」に相当し、蓋部材676が特許請求の範囲に記載の「可動部」に相当し、遠隔操作デバイス600が特許請求の範囲に記載の「操作デバイス」に相当する。
(他の実施形態)
以上、本発明による複数の実施形態について説明したが、本発明は、上記実施形態に限定して解釈されるものではなく、本発明の要旨を逸脱しない範囲内において種々の実施形態及び組み合わせに適用することができる。
図21に示す上記第五実施形態の変形例1において、第二操作面574は、囲繞面85から立設された固定部材776に設けられている。固定部材776は、入力面部578及び支柱部779を有している。支柱部779は、囲繞面85に固定されている。以上の変形例1のように、第二操作面574は、第一操作面572と対向する領域から退避可能でなくてもよい。
上記実施形態の変形例では、任意をアイコン63を選択するためのプッシュボタンが、凹所80等の近傍に設けられている。操作者は、ポインタ262及びフォーカス62を任意のアイコン63に重畳させた状態で、プッシュボタンを押圧操作することにより、当該アイコン63の機能を選択することができる。
上記実施形態の変形例では、指Fによって印加される圧力を検知することにより、指Fによる操作を検出する感圧方式のタッチセンサが、「検出手段」として用いられている。一方で、赤外線によって操作体距離dを計測する赤外線センサが、「取得手段」として用いられている。また別の変形例では、各操作面の近傍を撮影するカメラと、カメラによって撮影された画像を解析することで操作体距離dを取得する画像解析回路とが、「取得手段」として用いられている。
上記実施形態の変形例では、プラズマディスプレパネルを用いた表示器及び有機ELを用いた表示器等が「表示画面」を形成している。さらに別の変形例では、ウィンドウシールド及びインスツルメントパネルの上面に設けたコンバイナ等を「表示画面」とし、プロジェクタ等の投影手段によって、これらウィンドウシールド及びコンバイナ等に画像を投影する表示装置が、表示画面52を形成する構成としてナビゲーション装置50に含まれている。
上記実施形態の変形例では、第一閾値距離Dth1及び第二閾値距離Dth2にヒステリシスが設けられている。具体的には、第一操作空間Sp1内に指Fが位置していることに基づいて、第一閾値距離Dth1は、延長される。また、第二操作空間Sp2内に指Fが位置していることに基づいて、第二閾値距離Dth2は、延長される。こうした構成により、各空間Sp1,Sp2内における指Fによる操作は、いっそう容易となる。
上記実施形態において、複数例示された「第一画像部」及び「第二画像部」は、適宜変更されてよい。また、上記実施形態において、プログラムを実行した操作制御部33によって提供されていた複数の機能は、上述の制御装置と異なるハードウェア及びソフトウェア、或いはこれらの組み合わせによって提供されてよい。例えば、プログラムによらないで所定の機能を果たすアナログ回路によって、「関連付け手段」及び「取得手段」等の機能が提供されていてもよい。
上記実施形態では、車両に搭載される表示システムに用いられる遠隔操作デバイスに、本発明を適用した例を説明した。しかし、本発明は、表示画面と一体的に構成される、所謂タッチパネル方式の操作デバイスにも、適用可能である。さらに、車両用に限らず、各種輸送用機器及び各種情報端末等に用いられる表示システム全般に、本発明を適用された操作デバイスは採用可能である。
F 指(操作体)、d 操作体距離、Dth1 第一閾値距離、Dth2 第二閾値距離、Sp1 第一操作空間、Sp2 第二操作空間、BP 境界面、31 タッチセンサ(検出手段,取得手段)、33 操作制御部(検出手段,取得手段,関連付け手段)、52 表示画面、61 画像部、62 フォーカス(第一画像部)、262 ポインタ(第一画像部)、63 アイコン、263 トラックアイコン(第二画像部)、164 サブメニュー画像(第二画像部)、364 マップ(第二画像部)、70,370,470 操作面、72,272,572,672 第一操作面(操作面)、74.274,574,674 第二操作面(入力補助部)、375,475 浅部操作ガイド面(入力補助部)、576 可動部材(可動支持部)、676 蓋部材(可動支持部)、80,280,680 凹所、81,281, 第一底面(底面)、681 底面、100,200,300,400,500 遠隔操作デバイス(操作デバイス)

Claims (9)

  1. 操作者の指(F)による入力が、操作面(72,272,370,470,572,672)に対してなされることによって、表示画面(52)に表示された画像(61)を操作する操作デバイスであって、
    前記の移動を検出する検出手段(31,33)と、
    前記操作面から前記までの操作体距離(d)を取得する取得手段(31,33)と、
    前記操作体距離が予め規定された閾値距離(Dth1)未満となる第一操作空間(Sp1)内において検出された前記の移動と、前記操作体距離が前記閾値距離を超える第二操作空間(Sp2)内で検出された前記の移動とを区別して、当該の移動を、前記表示画面上に表示された第一画像部または前記第一画像部とは異なる第二画像部(164,263,364)いずれかに関連付けて、前記第一画像部もしくは第二画像部の少なくとも一方の表示態様を変化させる関連付け手段(33,S105,S110,S305,S307)と、
    前記操作面よりも前記閾値距離以上離れた位置に形成された入力補助部(74,274,375,475,574,674)と、を備え
    前記操作面は前記操作デバイスに設けられた凹所(80、280、680)の底面(81、281、681)に形成されており、
    前記入力補助部は前記凹所内に位置しており、前記底面から離間する方向に前記閾値距離以上離れて形成されていることを特徴とする操作デバイス。
  2. 前記入力補助部は、前記第二操作空間内に位置し、
    前記検出手段は、前記入力補助部に沿った前記の移動をさらに検出することを特徴とする請求項1に記載の操作デバイス。
  3. 前記入力補助部は、前記第一操作空間と前記第二操作空間との間における仮想の境界面(BP)に沿って形成され、
    前記関連付け手段は、前記操作面と対向し且つ前記入力補助部と隣接する前記第二操作空間内での前記の移動を、前記第一画像部または前記第二画像部のいずれかに関連付けることを特徴とする請求項1に記載の操作デバイス。
  4. 前記境界面は、前記入力補助部よりも前記操作面に近接していることを特徴とする請求項3に記載の操作デバイス。
  5. 前記入力補助部は、前記操作面と対向する領域内に設けられ、且つ当該操作面から離間していることを特徴とする請求項1〜4のいずれか一項に記載の操作デバイス。
  6. 前記入力補助部は、前記操作面の外縁に沿う帯状に形成されることを特徴とする請求項1〜5のいずれか一項に記載の操作デバイス。
  7. 前記入力補助部を支持し、当該入力補助部と共に前記操作面から離間する方向に移動する可動支持部(576,676)、をさらに備えることを特徴とする請求項1〜6のいずれか一項に記載の操作デバイス。
  8. 前記検出手段は、前記指の移動と共に前記操作体距離を検出することにより、前記取得手段を兼ねることを特徴とする請求項1〜7のいずれか一項に記載の操作デバイス
  9. 前記凹所に隣接してパームレスト(39)が配置されており、前記操作者が前記パームレストに手を置いた状態において、前記指が前記操作面と前記入力補助部に届くように、前記操作面と前記入力補助部が配置されていることを特徴とする請求項1〜8のいずれか一項に記載の操作デバイス。
JP2012220661A 2012-10-02 2012-10-02 操作デバイス Expired - Fee Related JP5751233B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2012220661A JP5751233B2 (ja) 2012-10-02 2012-10-02 操作デバイス
US14/427,732 US20150242102A1 (en) 2012-10-02 2013-08-02 Manipulating apparatus
PCT/JP2013/004701 WO2014054208A1 (ja) 2012-10-02 2013-08-02 操作装置
DE112013004843.4T DE112013004843T5 (de) 2012-10-02 2013-08-02 Manipulationsvorrichtung
CN201380051769.XA CN104704459B (zh) 2012-10-02 2013-08-02 操作装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012220661A JP5751233B2 (ja) 2012-10-02 2012-10-02 操作デバイス

Publications (2)

Publication Number Publication Date
JP2014074955A JP2014074955A (ja) 2014-04-24
JP5751233B2 true JP5751233B2 (ja) 2015-07-22

Family

ID=50434556

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012220661A Expired - Fee Related JP5751233B2 (ja) 2012-10-02 2012-10-02 操作デバイス

Country Status (5)

Country Link
US (1) US20150242102A1 (ja)
JP (1) JP5751233B2 (ja)
CN (1) CN104704459B (ja)
DE (1) DE112013004843T5 (ja)
WO (1) WO2014054208A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5790578B2 (ja) * 2012-04-10 2015-10-07 株式会社デンソー 表示システム、表示装置、及び操作装置
JP6179253B2 (ja) 2013-08-02 2017-08-16 株式会社デンソー 入力装置
JP2016048458A (ja) * 2014-08-27 2016-04-07 株式会社デンソー 車両用タッチパッドおよび車両用入力インターフェイス
US10873695B2 (en) * 2016-12-27 2020-12-22 Canon Kabushiki Kaisha Display control apparatus, electronic apparatus, and control method therefor
JP2019211979A (ja) * 2018-06-04 2019-12-12 本田技研工業株式会社 表示装置、表示制御方法およびプログラム
CN111666029B (zh) * 2020-05-28 2024-09-20 阿波罗智联(北京)科技有限公司 车机地图的操作方法、装置、设备和可读存储介质
JP2023136743A (ja) 2022-03-17 2023-09-29 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
DE102023109657B4 (de) * 2023-04-18 2025-03-20 Lisa Dräxlmaier GmbH Bedieneinrichtung, insbesondere in einem fahrzeuginnenraum, und verfahren zur auswertung eines berührungssignals einer bedieneinrichtung

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003312373A (ja) * 2002-04-24 2003-11-06 Toyota Motor Corp 入力装置
KR100811160B1 (ko) * 2005-06-02 2008-03-07 삼성전자주식회사 사용자명령을 3차원적으로 입력가능한 전자장치
JP4677893B2 (ja) * 2005-12-16 2011-04-27 トヨタ自動車株式会社 車載遠隔操作装置
JP4787087B2 (ja) * 2006-03-23 2011-10-05 株式会社ワコム 位置検出装置及び情報処理装置
US7903094B2 (en) * 2006-06-23 2011-03-08 Wacom Co., Ltd Information processing apparatus, operation input method, and sensing device
TWM325544U (en) * 2007-05-15 2008-01-11 High Tech Comp Corp Electronic device with switchable user interface and electronic device with accessable touch operation
US20100079413A1 (en) * 2008-09-29 2010-04-01 Denso Corporation Control device
US20100088632A1 (en) * 2008-10-08 2010-04-08 Research In Motion Limited Method and handheld electronic device having dual mode touchscreen-based navigation
JP4793422B2 (ja) * 2008-10-10 2011-10-12 ソニー株式会社 情報処理装置、情報処理方法、情報処理システムおよび情報処理用プログラム
EP2330486B1 (en) * 2009-02-06 2017-05-10 Panasonic Intellectual Property Management Co., Ltd. Image display device
JP2010191892A (ja) * 2009-02-20 2010-09-02 Sony Corp 情報処理装置、表示制御方法、及びプログラム
KR101560718B1 (ko) * 2009-05-29 2015-10-15 엘지전자 주식회사 이동 단말기 및 이동 단말기에서의 정보 표시 방법
KR101092722B1 (ko) * 2009-12-02 2011-12-09 현대자동차주식회사 차량의 멀티미디어 시스템 조작용 사용자 인터페이스 장치
JP2011150413A (ja) * 2010-01-19 2011-08-04 Sony Corp 情報処理装置、操作入力方法及び操作入力プログラム
US20110292268A1 (en) * 2010-05-26 2011-12-01 T-Mobile Usa, Inc. Multi-region touchpad device
JP2012058921A (ja) * 2010-09-07 2012-03-22 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP5649169B2 (ja) * 2010-11-22 2015-01-07 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation タッチパネルにおけるドラッグ操作でオブジェクトを移動させる方法、装置及びコンピュータプログラム
JP2012118675A (ja) * 2010-11-30 2012-06-21 Pentel Corp 静電容量型タッチパネル用入力補助具
KR101781908B1 (ko) * 2011-03-24 2017-09-26 엘지전자 주식회사 이동 단말기 및 그것의 제어방법

Also Published As

Publication number Publication date
US20150242102A1 (en) 2015-08-27
CN104704459B (zh) 2017-10-13
WO2014054208A1 (ja) 2014-04-10
DE112013004843T5 (de) 2015-06-18
JP2014074955A (ja) 2014-04-24
CN104704459A (zh) 2015-06-10

Similar Documents

Publication Publication Date Title
JP5751233B2 (ja) 操作デバイス
US9489500B2 (en) Manipulation apparatus
JP5928397B2 (ja) 入力装置
JP5858059B2 (ja) 入力装置
JP2016009300A (ja) 車両用入力装置および車両用コックピットモジュール
JP5656046B2 (ja) 車両用情報表示装置
JP5790578B2 (ja) 表示システム、表示装置、及び操作装置
JP5754483B2 (ja) 操作デバイス
JP5772804B2 (ja) 操作デバイス、及び操作デバイスの操作教示方法
JP5954145B2 (ja) 入力装置
WO2016031152A1 (ja) 車両用入力インターフェイス
WO2014162698A1 (ja) 入力装置
JP2008009596A (ja) 入力装置
JP5966125B2 (ja) 車両用情報表示装置
JP2016048458A (ja) 車両用タッチパッドおよび車両用入力インターフェイス
JP5921698B2 (ja) 表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150421

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150504

R151 Written notification of patent or utility model registration

Ref document number: 5751233

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees