JP2014109941A - 操作デバイス、及び操作デバイスの操作教示方法 - Google Patents

操作デバイス、及び操作デバイスの操作教示方法 Download PDF

Info

Publication number
JP2014109941A
JP2014109941A JP2012264481A JP2012264481A JP2014109941A JP 2014109941 A JP2014109941 A JP 2014109941A JP 2012264481 A JP2012264481 A JP 2012264481A JP 2012264481 A JP2012264481 A JP 2012264481A JP 2014109941 A JP2014109941 A JP 2014109941A
Authority
JP
Japan
Prior art keywords
operating
pattern
movement
image portion
display screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012264481A
Other languages
English (en)
Other versions
JP5772804B2 (ja
Inventor
Shigeaki Nishihashi
重明 西橋
Satomi Hosokawa
里美 細川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2012264481A priority Critical patent/JP5772804B2/ja
Priority to PCT/JP2013/006957 priority patent/WO2014087604A1/ja
Priority to CN201380063016.0A priority patent/CN104823149B/zh
Priority to US14/649,001 priority patent/US9753563B2/en
Priority to DE112013005777.8T priority patent/DE112013005777T5/de
Publication of JP2014109941A publication Critical patent/JP2014109941A/ja
Application granted granted Critical
Publication of JP5772804B2 publication Critical patent/JP5772804B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04809Textured surface identifying touch areas, e.g. overlay structure for a virtual keyboard

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】操作者による操作が入力される操作デバイスにつき、操作の対象となる画像部の識別を容易にする技術の提供。
【解決手段】操作デバイス100は、操作者の指Fによる操作面70への操作を検出する検出部31及び操作制御部33を備えている。これらの構成31,33は、操作面70から指Fまでの操作体距離dを取得できる。操作体距離dが第一閾値距離Dth1未満となる第一操作空間Sp1内での操作は、操作体距離dが第一閾値距離Dth1以上となる第二操作空間Sp2内での操作と区別され、ポインタ62の移動に関連付けられる。そして、操作面70には触感パターン71が形成され、この触感パターン71に対応した形状の視感パターン67がポインタ62の周囲に表示される。故に、操作面70への接触操作でポインタ62が移動可能である旨を、触覚と視覚とを組み合せて操作者に教示することが可能となる。
【選択図】図7

Description

本発明は、操作面への入力によって表示画面に表示される画像部を操作する操作デバイスに関する。
従来、例えば特許文献1には、表示画面に表示されるナビゲーションのポインタ及びラジオメイン画面等の画像部を、遠隔タッチパッド部に対してなされる操作に関連付けて移動させる技術が、開示されている。この特許文献1に開示のユーザインターフェース装置は、操作者の指等を移動させる操作を検出する遠隔タッチパット部と、遠隔タッチパッド部によって検出される指の操作を地図及びポインタ等の移動に関連付ける制御部とを備えている。
加えて制御部は、遠隔タッチパット部から指までの距離を取得している。そして、制御部により取得される指までの距離が予め規定された高さ、例えば3センチメートル(cm)未満である場合には、制御部は、遠隔タッチパット部によって検出される指による操作を、表示画面上のポインタを移動させる操作に関連付ける。一方で、取得される指までの距離が予め規定された高さ、例えば5cm〜7cmの範囲内である場合には、当該制御部は、遠隔タッチパット部によって検出される指による操作を、ラジオメイン画面から操作待機画面に切り替える切替操作に関連付ける。
特開2011―118857号公報
さて、本発明の発明者は、特許文献1のような操作デバイスについて検討を重ねた結果、指までの距離に応じて規定される各空間にて実施される各操作につき、操作対象とされる画像部が操作者に判り易く教示されていないという課題を想到した。こうした課題のため、操作者は、例えば遠隔タッチパッド部に臨む空間内にて実際に操作を始めてみなければ、当該操作の操作対象である画像部を識別することができなかった。
本発明は、上記問題点に鑑みてなされたものであって、その目的は、操作面に臨む空間内での操作者の操作につき、操作対象となる画像部の識別を容易にする技術を提供することである。
上記目的を達成するために、請求項1に記載の発明は、操作体(F)による入力が、操作面(70,270,370,470,570)に対してなされることによって、表示画面(52)に表示された画像部を操作する操作デバイスであって、操作体の移動を検出する検出手段(31,33,S121,S122)と、操作面から操作体までの操作体距離(d)を取得する取得手段(31,33,S121,S122)と、操作体距離が予め規定された閾値距離(Dth1)未満となる第一操作空間(Sp1)内において検出された操作体の移動と、操作体距離が閾値距離を超える第二操作空間(Sp2)内で検出された操作体の移動とを区別し(S123〜S126)、第一操作空間内における操作体の移動を表示画面に表示された第一画像部(62,63)に関連付け、第二操作空間内における操作体の移動を第一画像部とは異なる第二画像部(64,264)に関連付ける関連付け手段(33,S132〜S135)と、操作体の移動に応じて、当該移動に関連付けられた第一画像部及び第二画像部のいずれかの表示態様を変化させる表示制御手段(33,S105)と、を備え、操作面には、凹及び凸の少なくとも一方によって触感パターン(71,271,371,471)が形成され、表示制御手段は、表示画面上における第一画像部及び当該第一画像部の周囲の少なくとも一方に、触感パターンの形状に対応する視感パターン(67,267,367,467)を表示させる。
また請求項9に記載の発明は、操作体(F)による入力が操作面(70,270,370,470,570)に対してなされることにより、表示画面(52)に表示された画像部を操作する操作デバイス(100,200)において、この操作デバイスの操作を教示する方法であって、操作体の移動を検出する検出ステップ(S121,S122)と、操作面から操作体までの操作体距離(d)を取得する取得ステップ(S121,S122)と、操作体距離が予め規定された閾値距離(Dth1)未満となる第一操作空間(Sp1)内において検出された操作体の移動と、操作体距離が閾値距離を超える第二操作空間(Sp2)内で検出された操作体の移動とを区別し(S123〜S126)、第一操作空間内における操作体の移動を表示画面に表示された第一画像部(62,63)に関連付け、第二操作空間内における操作体の移動を第一画像部とは異なる第二画像部(64,264)に関連付ける関連付けステップ(S132〜S135)と、操作体の移動に応じて、当該移動に関連付けられた第一画像部及び第二画像部のいずれかの表示態様を変化させる表示制御ステップ(S105)と、を含み、表示制御ステップでは、凹及び凸の少なくとも一方によって操作面に形成された触感パターン(71,271,371,471)の形状に対応する視感パターン(67,267,367,467)を、表示画面上における第一画像部及び当該第一画像部の周囲の少なくとも一方に表示させることを特徴としている。
これらの発明によれば、操作体による入力を操作面に対して行う操作者は、この操作面に凹及び凸の少なくとも一方により形成されている触感パターンを、触覚を通じて知覚することができる。また、表示画面における第一画像部及び当該画像部の周囲の少なくとも一方には、触感パターンの形状に対応した視感パターンが表示される。こうした触覚と視覚とを組み合せた教示により、操作者は、触感パターンと視覚を通じて知覚する視感パターンとを結び付けて、第一操作空間内での操作の操作対象とされる第一画像部を、表示画面に表示された複数の画像部から容易に識別することができる。
本発明の第一実施形態による遠隔操作デバイスを備えた表示システムの構成を説明するための図である。 表示画面及び操作面の車室内での配置を説明するための図である。 表示画面に表示される表示画像の一例を説明するための図である。 描画レイヤの重畳によって表示画像が形成されることを説明するための図である。 第一実施形態による遠隔操作デバイスを模式的に示す平面図である。 第一実施形態による遠隔操作デバイスの構成を説明するための図であって、図5のVI−VI線断面図である。 第一実施形態による遠隔操作デバイスにおいて、操作体距離によって操作の対象となる画像部が切り替えられることを説明するための図である。 第一実施形態による遠隔操作デバイスにおいて、操作制御部により実施されるメイン処理が示されるフローチャートである。 第一実施形態の操作制御部により実施されるタッチセンサ入力処理が示されるフローチャートである。 第一実施形態による遠隔操作デバイスにおいて、タッチセンサにより検出される感度値と、操作制御部により判定される操作状態との関係を説明するための図である。 第一実施形態の操作制御部に記憶されている各感度閾値を示すテーブルである。 第一実施形態の操作制御部により実施される操作レイヤ判定処理が示されるフローチャートである。 第二実施形態による遠隔操作デバイスを模式的に示す平面図である。 第二実施形態による遠隔操作デバイスにおいて、操作体距離によって操作の対象となる画像部が切り替えられることを説明するための図である。 図5の変形例を示す図である。 図3の変形例を示す図である。 図16の変形例を示す図である。 図5の別の変形例を示す図である。 図18のXIX−XIX線断面図である。 図3の別の変形例を示す図である。 図19の変形例を示す図である。 図10の変形例を示す図である。
以下、本発明の複数の実施形態を図面に基づいて説明する。尚、各実施形態において対応する構成要素には同一の符号を付すことにより、重複する説明を省略する場合がある。各実施形態において構成の一部分のみを説明している場合、当該構成の他の部分については、先行して説明した他の実施形態の構成を適用することができる。また、各実施形態の説明において明示している構成の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても複数の実施形態の構成同士を部分的に組み合せることができる。そして、複数の実施形態及び変形例に記述された構成同士の明示されていない組み合わせも、以下の説明によって開示されているものとする。
(第一実施形態)
本発明の第一実施形態による遠隔操作デバイス100は、車両に搭載され、図1に示されるように、ナビゲーション装置50等と共に表示システム10を構成している。遠隔操作デバイス100は、図2に示されるように、車両のセンターコンソールにてパームレスト39と隣接する位置に設置され、操作者の手の届き易い範囲に操作面70を露出させている。この操作面70には、操作者の手の人差し指(以下、単に「指」という)F等による操作が入力される。ナビゲーション装置50は、操作者から目視されるよう表示画面52を露出させ且つ表示画面52を運転席に向けた姿勢にて、車両のインスツルメントパネル内に設置されている。この表示画面52には、種々の表示画像60が表示される。
図3に示される表示画像60は、表示画面52に表示される複数の表示画像のうちの一つであり、操作者によって設定された目的地までの経路を示すナビゲーション画像である。表示画像60には、所定の機能が関連付けられた複数のアイコン63、アイコン63を選択するためのポインタ62、及び車両周辺の道路の形態を示すマップ64等が含まれている。加えて表示画像60には、ポインタ62と重畳されたアイコン63を強調するフォーカス66が含まれている。表示画面52上にてポインタ62の表示される位置は、図2に示す操作面70上にて指Fが接触する位置に対応している。
以上の表示画像60は、図4に示されるように、ナビゲーション装置50(図1参照)が複数の描画レイヤを重畳することにより、生成される。具体的に表示画像60は、マップ64の描画されるマップレイヤL2、アイコン63等の描画されるオブジェクトレイヤL3、及びポインタ62等の描画されるポインタレイヤL1等を重畳させることで、生成されている。各レイヤL1〜L3の大きさは、表示画面52の大きさに合わせるようにして、規定されている。
次に、図1に示す遠隔操作デバイス100及びナビゲーション装置50の各構成を詳しく説明する。
遠隔操作デバイス100は、Controller Area Network(CAN)バス90、及び外部のバッテリ95等と接続されている。CANバス90は、車両に搭載された複数の車載装置を相互に接続してなる車内通信ネットワークにおいて、各車載装置間でのデータの伝送に用いられる伝送路である。遠隔操作デバイス100は、CANバス90を通じて、離れて位置するナビゲーション装置50とCAN通信可能とされている。
遠隔操作デバイス100は、電源インターフェース21,22、通信制御部23、通信インターフェース24、検出部31、及び操作制御部33等によって構成されている。各電源インターフェース21,22は、バッテリ95から供給される電力を安定化して、操作制御部33に供給する。一方の電源インターフェース21には、バッテリ95から常に電力が供給されている。他方の電源インターフェース22には、車両のアクセサリ(ACC)電源がオン状態とされたことに基づいてスイッチ93が通電状態となることにより、バッテリ95から電力が供給される。
通信制御部23及び通信インターフェース24は、操作制御部33によって処理された情報をCANバス90に出力すると共に、他の車載装置からCANバス90に出力された情報を取得するための構成である。通信制御部23及び通信インターフェース24は、送信用の信号線TX及び受信用の信号線RXによって互いに接続されている。
図1,2に示すように、検出部31は、タッチセンサ31a、ローパスフィルタ31b、及び静電検出用IC31cを有している。タッチセンサ31aは、操作面70に沿った矩形状に形成されており、指Fとの間に電荷を蓄積する。タッチセンサ31aは、図5のx軸方向に沿って延びる電極とy軸方向に沿って延びる電極とが格子状に配列されることにより、形成されている。図1のローパスフィルタ31bは、受動抵抗器、コイル、及びコンデンサ等を組み合わせてなる回路である。ローパスフィルタ31bは、タッチセンサ31aに生じた高周波数のノイズ成分が静電検出用IC31cに入力されるのを抑制する。静電検出用IC31cは、タッチセンサ31a及び操作制御部33と接続されている。図6に示すような互いに近接した指Fとタッチセンサ31aとの間には、電荷が蓄えられる。図1の静電検出用IC31cは、指F(図6参照)及び各電極間の静電容量に応じて増減する感度値(図10参照)を、当該各電極の出力に基づいて取得し、操作制御部33に出力する。
操作制御部33は、各種の演算処理を行うプロセッサ、演算処理の作業領域として機能するRAM、及び演算処理に用いられるプログラム等が格納されたフラッシュメモリ等によって構成されている。加えて、操作制御部33は、各電源インターフェース21,22、通信制御部23、検出部31等と接続されている。
操作制御部33は、所定のプログラムを実行することにより、検出部31から出力される感度値を取得する。そして、操作制御部33は、操作面70に対する指F(図6参照)の相対的な位置を示すx座標及びy座標、さらに操作面70から指Fまでの距離(以下、「操作体距離d」(図7A参照)という)に相当するz座標を、感度値に基づく算出処理によって検出する。こうして操作制御部33は、指Fの相対位置を示すx座標及びy座標を、通信制御部23及び通信インターフェース24を通じて、CANバス90に出力する。
図1,2に示すナビゲーション装置50は、遠隔操作デバイス100等と通信可能なようCANバス90と接続されている。ナビゲーション装置50は、表示制御部53及び液晶ディスプレイ51を有している。
表示制御部53は、各種の演算処理を行うプロセッサ、演算処理の作業領域として機能するRAM、画像の描画処理を行うグラフィックプロセッサ、描画処理の作業領域として機能するグラフィックRAM等によって構成されている。加えて表示制御部53は、演算処理及び描画処理に用いられるデータを格納するフラッシュメモリ、CANバス90と接続される通信インターフェース、及び描画した画像データを液晶ディスプレイ51に出力する映像出力インターフェースを有している。表示制御部53は、CANバス90から取得する情報に基づいて、表示画面52に表示する表示画像60を描画する。そして表示制御部53は、描画した表示画像60の画像データを、映像出力インターフェースを通じて液晶ディスプレイ51に逐次出力する。
液晶ディスプレイ51は、表示画面52に配列された複数の画素を制御することにより、カラー表示を実現するドットマトリクス方式の表示器である。液晶ディスプレイ51は、表示制御部53から逐次取得する画像データを表示画面52に連続的に形成することにより、映像を表示する。
ここまで説明した遠隔操作デバイス100では、移動操作を入力する指Fの操作体距離dにより、操作モードが切り替えられる。これにより、図7に示す表示画像60において、指Fの移動操作と関連付けられる画像部が変更される。以下、遠隔操作デバイス100に予め規定された次の(1)〜(3)の操作モードを、詳細に説明する。
(1)接触操作モード
接触操作モードでは、図7Bに示すように、指Fによる移動操作は、表示画面52に表示されたポインタ62を移動させるポインタ制御に関連付けられ、このポインタ62の表示位置を移動させることができる。こうした接触操作モードとされるのは、第一操作空間Sp1内に指Fが位置していた場合である。第一操作空間Sp1は、操作面70と対向する領域のうち操作体距離d(図7A等参照)が第一閾値距離Dth1未満となる空間である。第一閾値距離Dth1は、例えば0.5〜1cm程度に設定されている。以上の第一操作空間Sp1内にて、xy平面に沿って指Fを移動させる移動操作は、「接触操作」と定義される。
(2)空中操作モード
空中操作モードでは、図7Cに示すように、指Fによる移動操作は、表示画面52に表示されたマップ64のスクロール制御に関連付けられ、表示画面52に沿った各方向にマップ64を移動(以下、「スクロール」という)させることができる。こうした空中操作モードとされるのは、第二操作空間Sp2内に指Fが位置していた場合である。第二操作空間Sp2は、操作面70と対向する領域のうち操作体距離dが第一閾値距離Dth1以上且つ第二閾値距離Dth2未満となる空間である。第二閾値距離Dth2は、例えば2〜3cm程度に設定されている。以上の第二操作空間Sp2内にて、xy平面に沿って指Fを移動させる移動操作は、「空中操作」と定義される。
(3)非近接モード
非近接モードでは、図7Aに示すように、指Fによる移動操作は、表示画面52のいずれの画像部とも関連付けられない。こうした非近接モードとされるのは、第一操作空間Sp1(図7B参照)及び第二操作空間Sp2(図7C参照)のいずれにも指Fが位置していない場合である。このように、第一操作空間Sp1及び第二操作空間Sp2を除く空間を、非近接空間とする。
次に、第一操作空間Sp1(図7B参照)内で検出される指Fの移動と、第二操作空間Sp2(図7C参照)内で検出される指Fの移動とが区別される構成において、操作性向上のために形成される触感パターン71及び視感パターン67の詳細を、以下説明する。
図5,6に示すように、触感パターン71は、操作面70において、外部から接触可能な外表面に形成されている。触感パターン71は、点状のドットを配列してなるドット模様を形成している。触感パターン71を構成する各ドットは、操作面70を実質的に円形に凹ませてなる凹所72によって形成されている。複数の凹所72は、主な指Fの移動方向として想定されるx軸方向、y軸方向、及びこれらの中間の方向のそれぞれにおいて、所定の間隔で配列されている。こうした凹所72の配列により、触感パターン71は、操作面70に沿う複数の方向において、実質的に一様な形状の凹を繰り返す形態とされている。
加えて触感パターン71においては、図6に示すように、凹所72における開口73の内径φdが、操作面70及び指F間にて想定される接触面の形状の最小長さLtよりも小さくされている。故に触感パターン71は、円形の窪みである一つのドットの形状を、操作面70に指Fを触れさせた操作者に、触感を通じて知覚させ易くなる。また、互いに隣接する凹所72の間の間隔pは、上述の接触面の最小長さLtと同程度か、又はこの最小長さLtよりも僅かに小さく規定されている。故に触感パターン71は、操作面70をなぞる操作を開始しようとする操作者に、いずれかのドットを確実に触れさせることができる。
図3に示す視感パターン67は、触感パターン71に対応するよう表示画面52に表示される。視感パターン67は、触感パターン71(図5参照)の形状に対応するドット模様とされている。視感パターン67は、触感パターン71の形状と相似の形状である。視感パターン67は、円形状を呈する待機画像部68の領域内に表示される。待機画像部68は、ポインタ62よりも面積の大きい画像部である。待機画像部68は、表示画面52の中央を避けるようにして、当該画面52の例えば左下の角部分に位置している。第一操作空間Sp1(図7B参照)から指F(図7A等参照)が離脱している場合、待機画像部68にはポインタ62が重畳表示される。これにより、ポインタ62の周囲に視感パターン67が表示された状態とされる。
ここまで説明した表示システム10(図1参照)において、各パターン71,67によって操作方法を教示されつつ、操作者が任意のアイコン63を選択するまでの一連のアイコン選択操作を、図7に基づいて順に説明する。
図7Aは、操作面70に指Fを接近させる動作を操作者が開始させた状態を示している。アイコン選択操作を開始しようとする操作者は、第二閾値距離Dth2よりも操作面70の遠方に位置させていた指Fを、操作面70に向けて移動させる。操作モードが非近接モードである図7Aの状態では、遠隔操作デバイス100は、指Fによる操作と画像部との関連付けを行わない。また表示画面52上では、ポインタ62が待機画像部68に重畳されることにより、ポインタ62の周囲に視感パターン67が表示されている。
図7Bは、非近接空間から第一操作空間Sp1へと指Fを移動させた状態を示している。操作面70に触れた操作者は、指Fの触感を通じて触感パターン71を知覚することで、この触感パターン71と視感パターン67とを結び付けることができる。こうした操作教示方法により、視感パターン67に重畳表示されたポインタ62につき接触操作の操作対象であることが、操作者に教示される。
一方、遠隔操作デバイス100の操作モードは、非近接モードから接触操作モードへと切り替えられる。こうして移動操作がポインタ制御に関連付けられることで、操作対象となったポインタ62は、待機画像部68から離脱して、操作面70における指Fの相対位置に対応した表示画面52上の位置に移動する。
尚、第一操作空間Sp1へと移動させた指Fによって操作面70を叩く操作(以下、「タップ操作」という)が入力されるまで、指Fの移動操作とポインタ制御との関連付けが禁止されていてもよい。また、ポインタ62が離脱することで、待機画像部68は、表示画像60への描画を中断されてもよい。
図7Cは、第一操作空間Sp1(図7B参照)から第二操作空間Sp2へと指Fを移動させた状態を示している。この移動により、遠隔操作デバイス100の操作モードは、接触操作モードから空中操作モードへと切り替えられる。こうして移動操作がスクロール制御に関連付けられることで、操作者は、指Fの移動操作によって、マップ64を上下左右等にスクロールさせることができる。加えてポインタ62は、待機画像部68内へと移動し、当該画像部68に重畳された状態となる。
以上の接触操作及び空中操作を組み合わせることにより、操作者は、任意のアイコン63にポインタ62を重畳させることができる。そして操作者は、任意のアイコン63にポインタ62を重畳させた状態で、操作面70にタップ操作を入力することにより、この任意のアイコン63を選択することができる。
そして、任意のアイコン63の選択操作を完了させた操作者は、図7Aの如く、非近接空間に指Fを移動させる。これにより、操作モードは、非近接モードへと切り替えられる。こうして、遠隔操作デバイス100は、次回以降の操作者によるアイコン選択操作を待機した状態となる。
以上のアイコン選択操作を実現するために、操作制御部33(図1参照)によって実施される各処理を、図8〜12に基づいて詳細に説明する。図8に示されるメイン処理は、車両のACC電源がオン状態とされることにより、操作制御部33によって開始される。
S101では、フラッシュメモリ等の初期化処理を実施し、S102に進む。S102では、車両のACC電源がオン状態であるか否かを判定する。S102にて、ACC電源がオン状態でないと判定した場合、S106に進む。そして、S106にて、出力を停止させるための終了前処理を実施した後、メイン処理を終了する。
一方で、S102にてACC電源がオン状態であると判定した場合には、S103に進む。S103では、詳細を後述するタッチセンサ入力処理を実施することにより、指Fによる操作面70への操作状態が、「接触操作」,「空中操作」,及び「非近接」のいずれであるかを設定及び取得し、S104に進む。加えてS103では、操作状態が「接触操作」又は「空中操作」である場合、操作面70に対する指Fの相対位置を示すx座標,y座標,z座標(以下、「入力位置座標」)の情報を取得する。
S104では、詳細を後述する操作レイヤ判定処理を実施することにより、操作の対象となる描画レイヤ(以下、「選択レイヤ」という)が各レイヤL1〜L3のいずれであるかを設定及び取得し、S105に進む。この選択レイヤは、指Fによる操作を関連付ける画像部を含むレイヤである。
S105では、視感パターン67を表示させると共に、指Fの移動に関連付けられた画像部の表示態様を変化させるための通信制御処理を実施する。こうしてS103及びS104にて取得した情報を示す信号等をCANバス90に出力し、S102に戻る。このS105にて出力される情報には、指Fの相対位置を示す座標情報、選択レイヤを示す情報等が含まれている。そして、ACC電源のオン状態が継続されるうちは、S102〜S105の処理を繰り返す。
次に、S103にて実施されるタッチセンサ入力処理の詳細を、図9〜11に基づいて詳細に説明する。
S121では、タッチセンサ31aの各電極にて検出される感度値を取得する取得処理を実施し、S122に進む。S122では、S121にて取得された感度値から、入力位置座標を計算する計算処理を実施し、S123に進む。
ここで、操作制御部33(図1参照)には、図11に示すテーブルのように、第一閾値距離Dth1に対応する感度閾値Hth1と、第二閾値距離Dth2に対応する感度閾値Hth2とが、予め記憶されている。図9に示すS123以降の処理において、操作制御部33は、S122にて取得された最大の感度値を、各感度閾値Hth1,Hth2と比較する処理を行う。
S123では、感度値が第一感度閾値Hth1以上であるか否かに基づいて、指Fが第一操作空間Sp1内にあるか否かを判定する。S123にて、肯定判定をした場合には、S124に進む。S124では、操作状態を「接触操作」に設定し、タッチセンサ入力処理を終了する。
S123にて否定判定をした場合のS125では、感度値が第二感度閾値Hth2以上且つ第一感度閾値Hth1未満であるか否かに基づいて、指Fが第二操作空間Sp2内にあるか否かを判定する。S125にて肯定判定をした場合には、S126に進む。S126では、操作状態を「空中操作」に設定し、タッチセンサ入力処理を終了する。一方で、S125にて否定判定をした場合のS127では、操作状態を「非近接」に設定し、タッチセンサ入力処理を終了する。
次に、S104(図8参照)にて実施される操作レイヤ判定処理の詳細を、図12に基づいて詳細に説明する。
S131では、タッチセンサ入力処理(図9参照)により設定された最新の操作状態を取得し、S132に進む。S132では、S131にて取得した操作状態が「接触操作」であるか否かを判定する。S132にて肯定判定をした場合には、S133に進み、接触操作モードに対応した操作処理がナビゲーション装置50においてなされるよう、ポインタレイヤL1を選択レイヤに設定して、操作レイヤ判定処理を終了する。
S132にて肯定判定をした場合のS134では、S131にて取得した操作状態が「空中操作」であるか否かを判定する。S134にて肯定判定をした場合には、S135に進む。S135では、空中操作モードに対応した操作処理がナビゲーション装置50においてなされるよう、マップレイヤL2を選択レイヤとして設定し、操作レイヤ判定処理を終了する。一方で、S134にて否定判定をした場合には、S136に進み、選択レイヤを「なし」とする設定を実施して、操作レイヤ判定処理を終了する。
以上の処理により、図1に示す表示制御部53は、繰り返されるS105にて操作制御部33から出力される各信号をCANバス90から取得する。表示制御部53は、図7の如く視感パターン67を形成する待機画像部68を表示画面52に表示させると共に、選択レイヤを示すレイヤ指定信号に基づいて、操作の対象となる画像部を決定する。そして表示制御部53(図1参照)は、指Fの相対位置を示す座標信号に応じて、操作対象とされている画像部を制御する。以上により、ポインタ62及びマップ64等の画像部の表示態様が、指Fの移動に応じて変化することとなる。
ここまで説明した第一実施形態によれば、指Fによる接触操作のうちで、特に指Fを操作面70に接触させた状態での接触操作を行う操作者は、触感パターン71の形成するドット模様を、触覚を通じて知覚することができる。加えて操作者は、ポインタ62の周囲に表示された視感パターン67の形成するドット模様を、視覚を通じて知覚することができる。こうした触覚と視覚とを組み合せた教示により、操作者は、互いに形状の対応した触感パターン71及び視感パターン67を結び付けることができる。故に、操作者は、接触操作の操作対象とされるポインタ62を、表示画面52に表示された複数の画像部から、容易に識別することができるようになる。
加えて第一実施形態では、触感パターン71の形状と視感パターン67の形状とが互いに相似形であるため、操作者は、これらのパターン71,67をいっそう容易に結び付けることができる。したがって、ポインタ62の識別を容易にする効果は、さらに高い確実性をもって発揮されることとなる。
また第一実施形態によれば、第一操作空間Sp1から指Fが離脱している状態でも、操作者は、待機画像部68内の視感パターン67を知覚することができる(図7A及び図7C参照)。故に操作者は、第一操作空間Sp1内に指Fを到達させる前に、接触操作の操作対象とされるポインタ62を表示画像60によって教示され得る。したがって操作者は、接触操作を開始する前に、余裕をもってポインタ62を識別することができる。
さらに第一実施形態の触感パターン71は、操作面70に沿った各方向に凹を繰り返す態様である。故に、操作面70をなぞる操作を行う際に、指Fを移動させる方向によって操作感が変わってしまう事態は、回避され得る。加えて、凹所72によって触感パターン71が形成されているので、操作面をなぞる操作を行う際に、指Fの移動は、触感パターン71よって妨げられ難くなる。これらにより、触感パターン71が操作面70に形成されていても、指Fを操作面70に接触させつつ行う操作の操作感は、高く維持可能となる。
また加えて第一実施形態によれば、開口73の内径φdが指Fの接触面の最小長さLtよりも小さくされているので、操作者による触感パターン71の形状知覚は、いっそう容易となる。故に、操作者は、ポインタ62の識別をさらに迅速に行うことができるようになる。
さらに加えて、上述したようなポインタ62は、表示画面52に占める面積が小さい。故に、仮にポインタ62内に視感パターン67を表示しても、操作者には知覚され難い。そこで第一実施形態では、待機画像部68内の領域に視感パターン67を表示させたうえで、当該待機画像部68にポインタ62が重畳表示される。こうした表示形態により、ポインタ62の周囲に視感パターン67を配置できるので、ポインタ62につき接触操作の操作対象であることが、いっそう分り易く教示可能となる。したがって、操作者は、ポインタ62の識別をさらに迅速に行うことができるようになる。
尚、第一実施形態において、検出部31及び操作制御部33が協働で特許請求の範囲に記載の「検出手段」及び「取得手段」に相当し、操作制御部33が特許請求の範囲に記載の「関連付け手段」及び「表示制御手段」に相当する。また、ポインタ62が特許請求の範囲に記載の「第一画像部」及び「ポインタ部」に相当し、マップ64が特許請求の範囲に記載の「第二画像部」に相当し、第一閾値距離Dth1が特許請求の範囲に記載の「閾値距離」に相当する。さらに、開口73の内径φdが特許請求の範囲に記載の「最大内法」に相当し、操作者の指Fが特許請求の範囲に記載の「操作体」に相当する。また、タッチセンサ入力処理のステップS121及びS122が特許請求の範囲に記載の「検出ステップ」及び「取得ステップ」に相当する。加えて、タッチセンサ入処理のステップS123〜S126と操作レイヤ判定処理のステップS132〜S135とが特許請求の範囲に記載の「関連付けステップ」に相当し、メイン処理のステップS105が特許請求の範囲に記載の「表示制御ステップ」に相当する。そして、遠隔操作デバイス100が特許請求の範囲に記載の「操作デバイス」に相当する。
(第二実施形態)
図13,14に示される本発明の第二実施形態は、第一実施形態の変形例である。第二実施形態による遠隔操作デバイス200では、触感パターン271及び視感パターン267の形状が、第一実施形態の各パターン71,67(図7A等参照)の形状と異なっている。以下、第二実施形態による各パターン271,267の詳細を、サブメニュー画像264が表示画像60として表示される例を用いて説明する。
まず、操作者がサブメニュー画像264とアイコン63とを順に選択する一連のアイコン選択操作を説明する。
図14Aは、第二操作空間Sp2へと指Fを移動させた状態を示している。このとき、遠隔操作デバイス200の操作モードは、空中操作モードへと切り替えられる。これにより、表示画面52の表示は、複数のサブメニュー画像264の上下左右へのスクロールが可能な状態へと切り替えられている。そして、指Fによる移動操作は、空中操作として、複数のサブメニュー画像264をスクロールさせるスクロール制御に関連付けられる。
図14Bは、第一操作空間Sp1内の操作面270へと指Fを移動させた状態を示している。このとき、遠隔操作デバイス200の操作モードは、接触操作モードへと切り替えられる。これにより、表示画面52の中央に表示されていたサブメニュー画像264は、表示画面52の全体に拡大して表示される。そして、指Fによる移動は、接触操作として、フォーカス66の重畳されるアイコン63を変更するアイコン制御に関連付けられる。
以上の空中操作及び接触操作を組み合わせることで、操作者は、任意のアイコン63を含むサブメニュー画像264を選択したうえで、当該画像264内のアイコン63をフォーカス66の重畳された状態とし得る。こうした状態下、操作面270にタップ操作を入力することにより、操作者は、任意のアイコン63を選択することができる。
次に、第二実施形態による触感パターン271及び視感パターン267の詳細を説明する。
図13,14Bに示すように、操作面270に形成される触感パターン271は、正六角形を配列した形状に形成されている。このように操作面270に平面充填された各正六角形は、当該操作面270を凹ませてなる溝272により形成されている。各正六角形は、主な指Fの移動方向として想定されるx軸方向、及びx軸に対して60度の角度で交差する二つの方向において、繰り返し並べられている。また、一つの正六角形の対角線の長さLhは、指Fと操作面270との間にて想定される接触面の最小長さLtよりも小さくされている。こうした触感パターン271の形態により、操作者による正六角形の形状知覚が容易とされている。
一方、視感パターン267は、触感パターン271の形状と相似の形状であり、触感パターン271と同様に正六角形を平面充填した意匠とされている。視感パターン267は、図14Aの如く空中操作モードである場合には、表示画面52の中央に位置するサブメニュー画像264の背景265として表示される。そして、図14Bの如く接触操作モードへと切り替えられた場合には、視感パターン267は、表示画面52の全体に拡大されたサブメニュー画像264の背景265として表示され続ける。こうして複数のアイコン63が背景265に重畳表示されることにより、視感パターン267は、各アイコン63の周囲に表示された状態となる。
ここまで説明した各パターン271,267でも、第一実施形態の各パターン71,67(図7A等参照)と同様の効果を奏するので、触覚と視覚とを組み合せた操作者への教示が可能となる。故に、操作者は、接触操作モードにて操作対象とされるアイコン63を、表示画面52に表示される複数の画像部から、容易に識別することができる。
加えて第二実施形態によれば、アイコン63の背景265として視感パターン267が表示されるので、空中操作モードにおける視感パターン267の表示面積の拡大が容易となる。こうして、空中操作モードでの視感パターン267の形状知覚がさらに容易とされることにより、操作者は、接触操作モードに切り替えられる前に、余裕をもって操作対象であるアイコン63を識別しておくことができる。
尚、第二実施形態において、アイコン63が特許請求の範囲に記載の「第一画像部」及び「選択画像部」に相当する。また、サブメニュー画像264が特許請求の範囲に記載の「第二画像部」に相当し、背景265が特許請求の範囲に記載の「背景画像部」に相当し、遠隔操作デバイス200が特許請求の範囲に記載の「操作デバイス」に相当する。
(他の実施形態)
以上、本発明による複数の実施形態について説明したが、本発明は、上記実施形態に限定して解釈されるものではなく、本発明の要旨を逸脱しない範囲内において種々の実施形態及び組み合わせに適用することができる。
図15〜17に示す上記実施形態の変形例1では、x軸及びy軸に対して長手方向を傾斜させた矩形が、操作面370に配列されることで触感パターン371を形成している。こうした形態の触感パターン371では、各矩形を区画している溝372の間隔が、指F(図6等参照)の移動方向として想定されるx軸方向及びy軸方向において、互いに異なっている。この変形例1のように、触感パターンを形成する凹及び凸は、指Fを移動させる方向によって繰り返される間隔や段差の大きさ等が異なる異方的な形態であってよい。一方で、上記実施形態1,2のように、触感パターンを形成する凹及び凸は、指Fを移動させる方向によって繰り返される間隔や段差の大きさが一様な等方的な形態であってもよい。
変形例1では、空中操作モードと接触操作モードとの間で操作モードが切り替えられることにより、操作の対象となるアイコン63を含む表示領域が変更される。こうした形態では、触感パターン371に対応する視感パターン367は、図16の如く、操作対象となるアイコン63を含む表示領域の背景365として表示されてもよい。又は、図17の如く操作対象となるアイコン63に視感パターン367が表示されてもよい。さらに、アイコンの識別性が確保可能であれば、視感パターンは、アイコン自体と、当該アイコンの周囲との両方に、表示されてもよい。
変形例1では、触感パターン371を形成する各矩形のアスペクト比と、視感パターン367を形成する各矩形のアスペクト比とが、互いに異なっている。このように、操作者の知覚する触感パターンの形状と視感パターンの形状とが、互いに感覚的に合致可能な模様や意匠であれば、触感パターン及び視感パターンは、互いに正確な相似形状でなくてもよく、縦横比及び繰り返しの間隔等を適宜変更されてよい。
尚、触感パターン及び視感パターンが互いに相似形状である場合、触感パターンが視感パターンより大きく形成されていてもよく、又は視感パターンが触感パターンより大きくてもよい。また、視感パターンを形成する一つの意匠は、アイコンの意匠と誤認され難いよう、少なくともアイコンの意匠と類似していないことが望ましい。
図18〜20に示す上記実施形態の変形例2では、x軸及びy軸に対して傾斜する方向に延伸する凸部472が、操作面470に配列されることで、触感パターン471を形成している。こうした形態の触感パターン471において、凸部472の高さは、指Fの移動を妨げないよう抑制されつつ、指Fによって知覚可能な高さを維持していることが望ましい。凸部472の高さを抑えることにより、操作面470と指Fとの間に空気の層が生じ難くなる。故に、空気層に起因するタッチセンサ31aの感度の悪化も、抑制可能となる。
変形例2における空中操作モードでは、図20の如く、タブ466の選択が可能とされている。一方、変形例2における接触操作モードでは、選択されたタブ466に含まれたアイコン63の選択が可能とされている。こうした形態では、触感パターン471(図18参照)に対応する視感パターン467は、アイコン63の並べられる表示領域に、例えば水平方向に帯状に延びる意匠として表示される。
また、変形例2の別の形態として、例えば図21の如く、操作面570の触感パターン471は、延伸方向を揃えられた凸部472と溝572とを交互に形成することにより、形成されている。
上記実施形態の変形例では、視感パターンは、非近接空間から第二操作空間Sp2へと指Fが移動したことに基づいて、表示画面に表示される。このように、非近接モードである場合、視感パターンは、表示を中止されていてもよい。また別の変形例では、接触操作モードへと切り替えられた後で、視感パターンは、アイコン等を見易くするために、表示画面から消される。さらに別の変形例では、アイコン及びポインタ等の明度や輝度等を高める制御と、視感パターンの表示とを組み合わせることにより、操作の対象となる画像部がさらに分かり易く教示される。
上記実施形態の変形例では、指Fによって印加される圧力を検知することにより、指Fによる操作を検出する感圧方式のタッチセンサが、「検出手段」として用いられている。一方で、赤外線によって操作体距離dを計測する赤外線センサが、「取得手段」として用いられている。また別の変形例では、各操作面の近傍を撮影するカメラと、カメラによって撮影された画像を解析することで操作体距離dを取得する画像解析回路とが、「取得手段」として用いられている。
上記実施形態の変形例では、プラズマディスプレパネルを用いた表示器及び有機ELを用いた表示器等が「表示画面」を形成している。さらに別の変形例では、ウィンドウシールド及びインスツルメントパネルの上面に設けたコンバイナ等を「表示画面」とし、プロジェクタ等の投影手段によって、これらウィンドウシールド及びコンバイナ等に画像を投影される。こうした投影手段を備える表示装置が、表示画面を形成する構成としてナビゲーション装置に含まれている。
上記実施形態の変形例では、図22に示すように、第一閾値距離Dth1及び第二閾値距離Dth2にヒステリシスが設けられている。具体的には、第一操作空間Sp1内に指Fが位置していることに基づいて、第一閾値距離は、上記実施形態のDth1に相当する上限側第一閾値距離Dth1Uから、当該距離よりも長い下限側第一閾値距離Dth1Dへと延長される。こうした制御は、第一感度閾値を、上記実施形態のHth1に相当する上限側第一感度Hth1Uから、当該感度閾値よりも低い下限側第一感度閾値Hth1D(例えば180程度)へと変更することにより、可能となる。また同様に、第二操作空間Sp2内に指Fが位置していることに基づいて、第二閾値距離は、上記実施形態のDth2に相当する上限側第二閾値距離Dth2Uから、当該距離よりも長い下限側第二閾値距離Dth2Dへと延長される。こうした制御は、第二感度閾値を、上記実施形態のHth2に相当する上限側第二感度Hth2Uから、当該感度閾値よりも低い下限側第二感度閾値Hth2D(例えば80程度)へと変更することにより、可能となる。以上により、各空間Sp1,Sp2内における指Fによる操作は、いっそう容易となる。
上記実施形態において、プログラムを実行した操作制御部33によって提供されていた複数の機能は、上述の制御装置と異なるハードウェア及びソフトウェア、或いはこれらの組み合わせによって提供されてよい。例えば、プログラムによらないで所定の機能を果たすアナログ回路によって、「関連付け手段」及び「表示制御手段」等の機能が提供されていてもよい。
上記実施形態では、車両に搭載される表示システムに用いられる遠隔操作デバイスに、本発明を適用した例を説明した。しかし、本発明は、表示画面と一体的に構成される、所謂タッチパネル方式の操作デバイスにも、適用可能である。さらに、車両用に限らず、各種輸送用機器及び各種情報端末等に用いられる表示システム全般に、本発明を適用された操作デバイスは採用可能である。
F 指(操作体)、d 操作体距離、φd 内径(最大内法)、Dth1 第一閾値距離(閾値距離)、Dth2 第二閾値距離、Lt 最小長さ、Sp1 第一操作空間、Sp2 第二操作空間、31 検出部(検出手段,取得手段)、33 操作制御部(検出手段,取得手段,関連付け手段,表示制御手段)、52 表示画面、62 ポインタ(第一画像部,ポインタ部)、63 アイコン(第一画像部,選択画像部)、64 マップ(第二画像部)、264 サブメニュー画像(第二画像部)、265 背景(背景画像部)、67,267,367,467 視感パターン、68 待機画像部、70,270,370,470,570 操作面、71,271,371,471 触感パターン、72 凹所、73 開口、100,200 遠隔操作デバイス(操作デバイス)

Claims (9)

  1. 操作体(F)による入力が、操作面(70,270,370,470,570)に対してなされることによって、表示画面(52)に表示された画像部を操作する操作デバイスであって、
    前記操作体の移動を検出する検出手段(31,33,S121,S122)と、
    前記操作面から前記操作体までの操作体距離(d)を取得する取得手段(31,33,S121,S122)と、
    前記操作体距離が予め規定された閾値距離(Dth1)未満となる第一操作空間(Sp1)内において検出された前記操作体の移動と、前記操作体距離が前記閾値距離を超える第二操作空間(Sp2)内で検出された前記操作体の移動とを区別し(S123〜S126)、前記第一操作空間内における前記操作体の移動を前記表示画面に表示された第一画像部(62,63)に関連付け、前記第二操作空間内における前記操作体の移動を前記第一画像部とは異なる第二画像部(64,264)に関連付ける関連付け手段(33,S132〜S135)と、
    前記操作体の移動に応じて、当該移動に関連付けられた前記第一画像部及び前記第二画像部のいずれかの表示態様を変化させる表示制御手段(33,S105)と、を備え、
    前記操作面には、凹及び凸の少なくとも一方によって触感パターン(71,271,371,471)が形成され、
    前記表示制御手段は、前記表示画面上における前記第一画像部及び当該第一画像部の周囲の少なくとも一方に、前記触感パターンの形状に対応する視感パターン(67,267,367,467)を表示させることを特徴とする操作デバイス。
  2. 前記表示制御手段は、前記第一操作空間から前記操作体が離脱している場合に、前記視感パターンを前記表示画面に表示させることを特徴とする請求項1に記載の操作デバイス。
  3. 前記触感パターンは、前記操作面に沿う複数の方向において、実質的に一様な形状の凹及び凸のいずれかを繰り返すことを特徴とする請求項1又は2に記載の操作デバイス。
  4. 前記触感パターンは、前記操作面に設けられた凹所(72)によって形成されることを特徴とする請求項1〜3のいずれか一項に記載の操作デバイス。
  5. 前記凹所における開口(73)の最大内法(φd)は、前記操作面及び前記操作体間にて想定される接触面の形状の最小長さ(Lt)よりも小さいことを特徴とする請求項4に記載の操作デバイス。
  6. 前記表示制御手段は、
    前記操作面上における前記操作体の位置に対応した前記表示画面上の位置を示すポインタ部(62)を前記第一画像部として表示させ、さらに前記視感パターンよりなる待機画像部(68)を前記表示画面の中央を避けて前記ポインタ部よりも広い面積で表示させ、
    前記操作体が前記第一操作空間から離脱している場合に、前記待機画像部に前記ポインタ部を重畳させることを特徴とする請求項1〜5のいずれか一項に記載の操作デバイス。
  7. 前記表示制御手段は、前記第一操作空間内での操作によって選択される選択画像部(63)と、前記視感パターンよりなり前記選択画像部の背景を形成する背景画像部(265)と、を前記表示画面に表示することを特徴とする請求項1〜6のいずれか一項に記載の操作デバイス。
  8. 前記視感パターンは、前記触感パターンの形状と相似の形状であることを特徴とする請求項1〜7のいずれか一項に記載の操作デバイス。
  9. 操作体(F)による入力が操作面(70,270,370,470,570)に対してなされることにより、表示画面(52)に表示された画像部を操作する操作デバイス(100,200)において、この操作デバイスの操作を教示する方法であって、
    前記操作体の移動を検出する検出ステップ(S121,S122)と、
    前記操作面から前記操作体までの操作体距離(d)を取得する取得ステップ(S121,S122)と、
    前記操作体距離が予め規定された閾値距離(Dth1)未満となる第一操作空間(Sp1)内において検出された前記操作体の移動と、前記操作体距離が前記閾値距離を超える第二操作空間(Sp2)内で検出された前記操作体の移動とを区別し(S123〜S126)、前記第一操作空間内における前記操作体の移動を前記表示画面に表示された第一画像部(62,63)に関連付け、前記第二操作空間内における前記操作体の移動を前記第一画像部とは異なる第二画像部(64,264)に関連付ける関連付けステップ(S132〜S135)と、
    前記操作体の移動に応じて、当該移動に関連付けられた前記第一画像部及び前記第二画像部のいずれかの表示態様を変化させる表示制御ステップ(S105)と、を含み、
    前記表示制御ステップでは、凹及び凸の少なくとも一方によって前記操作面に形成された触感パターン(71,271,371,471)の形状に対応する視感パターン(67,267,367,467)を、前記表示画面上における前記第一画像部及び当該第一画像部の周囲の少なくとも一方に表示させることを特徴とする操作教示方法。
JP2012264481A 2012-12-03 2012-12-03 操作デバイス、及び操作デバイスの操作教示方法 Expired - Fee Related JP5772804B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2012264481A JP5772804B2 (ja) 2012-12-03 2012-12-03 操作デバイス、及び操作デバイスの操作教示方法
PCT/JP2013/006957 WO2014087604A1 (ja) 2012-12-03 2013-11-27 操作装置、及び操作装置の操作教示方法
CN201380063016.0A CN104823149B (zh) 2012-12-03 2013-11-27 操作装置及操作装置的操作指示方法
US14/649,001 US9753563B2 (en) 2012-12-03 2013-11-27 Manipulation apparatus and manipulation teaching method for manipulation apparatus
DE112013005777.8T DE112013005777T5 (de) 2012-12-03 2013-11-27 Bedienungsvorrichtung und Bedienungslehrverfahren für die Bedienungsvorrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012264481A JP5772804B2 (ja) 2012-12-03 2012-12-03 操作デバイス、及び操作デバイスの操作教示方法

Publications (2)

Publication Number Publication Date
JP2014109941A true JP2014109941A (ja) 2014-06-12
JP5772804B2 JP5772804B2 (ja) 2015-09-02

Family

ID=50883046

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012264481A Expired - Fee Related JP5772804B2 (ja) 2012-12-03 2012-12-03 操作デバイス、及び操作デバイスの操作教示方法

Country Status (5)

Country Link
US (1) US9753563B2 (ja)
JP (1) JP5772804B2 (ja)
CN (1) CN104823149B (ja)
DE (1) DE112013005777T5 (ja)
WO (1) WO2014087604A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020042603A (ja) * 2018-09-12 2020-03-19 アルパイン株式会社 接触操作装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5790578B2 (ja) * 2012-04-10 2015-10-07 株式会社デンソー 表示システム、表示装置、及び操作装置
KR102568710B1 (ko) * 2016-03-30 2023-08-21 삼성전자주식회사 전자장치 및 그 동작 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000194502A (ja) * 1998-12-25 2000-07-14 Tokai Rika Co Ltd タッチ操作入力装置
JP2011118857A (ja) * 2009-12-02 2011-06-16 Hyundai Motor Co Ltd 車両のマルチメディアシステム操作用ユーザーインターフェース装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11338629A (ja) 1998-05-27 1999-12-10 Nec Corp ポインティングデバイス
EP1930800A1 (en) * 2006-12-05 2008-06-11 Electronics and Telecommunications Research Institute Tactile and visual display device
JP5415519B2 (ja) * 2008-04-01 2014-02-12 コーニンクレッカ フィリップス エヌ ヴェ インタラクティブ表面において使用するポインティングデバイス
JP5110438B2 (ja) 2008-10-23 2012-12-26 トヨタ自動車株式会社 入力装置
JP5448427B2 (ja) 2008-11-27 2014-03-19 三菱電機株式会社 入力装置
JP5164930B2 (ja) * 2009-06-05 2013-03-21 株式会社ジャパンディスプレイウェスト タッチパネル、表示パネル、および表示装置
JP2012190185A (ja) 2011-03-09 2012-10-04 Nippon Seiki Co Ltd 制御装置
JP5812054B2 (ja) 2012-08-23 2015-11-11 株式会社デンソー 操作デバイス

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000194502A (ja) * 1998-12-25 2000-07-14 Tokai Rika Co Ltd タッチ操作入力装置
JP2011118857A (ja) * 2009-12-02 2011-06-16 Hyundai Motor Co Ltd 車両のマルチメディアシステム操作用ユーザーインターフェース装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020042603A (ja) * 2018-09-12 2020-03-19 アルパイン株式会社 接触操作装置
JP6991684B2 (ja) 2018-09-12 2022-01-12 アルパイン株式会社 接触操作装置

Also Published As

Publication number Publication date
JP5772804B2 (ja) 2015-09-02
US20150346851A1 (en) 2015-12-03
CN104823149A (zh) 2015-08-05
US9753563B2 (en) 2017-09-05
DE112013005777T5 (de) 2015-08-13
CN104823149B (zh) 2017-11-24
WO2014087604A1 (ja) 2014-06-12

Similar Documents

Publication Publication Date Title
US9489500B2 (en) Manipulation apparatus
JP5413448B2 (ja) 表示システム、表示装置、及び操作装置
CN101963839B (zh) 操作控制装置和操作控制方法
JP5858059B2 (ja) 入力装置
JP2006134184A (ja) 遠隔制御スイッチ
JP2010184600A (ja) 車載用ジェスチャースイッチ装置
JP5751233B2 (ja) 操作デバイス
JP5810874B2 (ja) 表示制御システム
WO2013153750A1 (ja) 表示システム、表示装置、及び操作装置
JP2007141177A (ja) 操作入力装置
JP5772804B2 (ja) 操作デバイス、及び操作デバイスの操作教示方法
JP5754483B2 (ja) 操作デバイス
JP6265839B2 (ja) 入力表示装置、電子機器、アイコンの表示方法および表示プログラム
JP2007080187A (ja) 操作入力装置
US8731824B1 (en) Navigation control for a touch screen user interface
WO2017188098A1 (ja) 車載用情報処理システム
JP2010009311A (ja) ユーザインタフェイス装置
WO2014162698A1 (ja) 入力装置
WO2015122259A1 (ja) 入力方法、及び入力装置
US20190278392A1 (en) In-vehicle information processing system
JP5027084B2 (ja) 入力装置及び入力方法
JP2015153363A (ja) カーソル操作システム、画像生成装置及びカーソル操作方法
JP2014102571A (ja) 操作選択装置
JP2018063523A (ja) 表示制御システムおよび表示制御プログラム
JP2016012205A (ja) 指示受付システム、方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150224

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150416

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150615

R151 Written notification of patent or utility model registration

Ref document number: 5772804

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees